国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

ChatGPT風險治理中的科技倫理規(guī)則審視與反思

2023-04-26 10:39趙精武
關(guān)鍵詞:倫理人工智能評估

趙精武

一、ChatGPT的應用前景與技術(shù)特征

北京時間3月15日凌晨,OpenAI發(fā)布了ChatGPT的最新“升級版本”GPT4模型,據(jù)分析,GPT4是一個能接受圖像和文本輸入,并輸出文本的多模態(tài)模型,是OpenAI在擴展深度學習方面的最新里程碑。受到市場炒作技術(shù)概念的影響,ChatGPT一度被吹捧為“前所未有的重大技術(shù)創(chuàng)新”,這顯然是誤讀了ChatGPT爆火出圈的現(xiàn)實意義。ChatGPT不是一項已經(jīng)徹底成熟的技術(shù)產(chǎn)品,即便是Open AI也承認,即便是GPT4仍有優(yōu)化空間。從目前的使用情況來看,ChatGPT的適用局限主要表現(xiàn)為三個層面:一是知識體系更新周期慢。ChatGPT需要海量的訓練數(shù)據(jù)集合及時更新和迭代現(xiàn)有的算法模型,其生成結(jié)果具有明顯的時間局限性,如2023年年初發(fā)生的社會熱點事件,ChatGPT顯然無法及時做出相對準確的回應。二是算力資源需求極高,普通企業(yè)難以支撐。ChatGPT的強大功能需要充足的數(shù)字基礎(chǔ)設(shè)施,其所需要的算力資源和服務器數(shù)量遠超普通公司所能承擔的經(jīng)濟能力,短期內(nèi)難以制作出媲美或超越ChatGPT的競品。三是準確率難以保障,無法有效完成具有一定邏輯要求的工作任務。ChatGPT尚未達到科幻小說中的“強人工智能”,現(xiàn)階段僅能解決部分重復性、模塊化的工作任務,并且其生成成果部分時可能存在顯著的邏輯錯誤。ChatGPT的這些局限性決定了其僅能被視為AI技術(shù)領(lǐng)域的重大創(chuàng)新而非核心技術(shù)突破,距離全面普及應用AI技術(shù)仍然需要一段時間,并且短期內(nèi),ChatGPT也無法完全取代人類從事特定崗位的工作任務。但是,伴隨著ChatGPT內(nèi)置算法模型的不斷優(yōu)化以及數(shù)據(jù)訓練集合的不斷豐富,“AI技術(shù)+行業(yè)場景”的應用方式終將會到來,并且也將會對現(xiàn)有的社會運行方式產(chǎn)生深遠影響。

二、ChatGPT爆火背后的技術(shù)安全風險審視

任何技術(shù)的創(chuàng)新發(fā)展總是機遇與風險并存,這在AI技術(shù)領(lǐng)域尤為明顯。ChatGPT的爆火出圈也讓部分專家學者憂心忡忡,該項技術(shù)一旦被濫用,則會導致新一輪的技術(shù)安全風險,而這些風險類型也是現(xiàn)行立法所無法涵蓋的內(nèi)容。而且,AI技術(shù)的創(chuàng)新周期正在不斷縮短,監(jiān)管機構(gòu)難以再依循傳統(tǒng)的強行政監(jiān)管模式全面預防AI技術(shù)風險和規(guī)范AI技術(shù)應用模式,頻繁的技術(shù)創(chuàng)新使得監(jiān)管機構(gòu)難以同步跟進對AI技術(shù)原理的理解認知。這種AI技術(shù)監(jiān)管困境在ChatGPT領(lǐng)域尤為明顯,國內(nèi)外對于ChatGPT的技術(shù)風險認知涵蓋了各個視角:在教育領(lǐng)域,ChatGPT已經(jīng)被部分學生用于課堂論文撰寫,國外各大高校乃至學術(shù)期刊均全面禁止利用ChatGPT完成論文撰寫。從長遠來看,一旦學生依賴于ChatGPT完成課堂作業(yè)、測驗以及自主學習任務目標,這并不利于學生自主學習能力和批判思維的養(yǎng)成,反而會削弱課堂教學的效果。在網(wǎng)絡(luò)安全領(lǐng)域,部分觀點認為ChatGPT會惡化網(wǎng)絡(luò)安全態(tài)勢,其強大的代碼編寫能力會導致惡意代碼侵蝕整個網(wǎng)絡(luò)空間秩序,更會成為網(wǎng)絡(luò)犯罪的技術(shù)工具。事實上,能夠直接發(fā)起網(wǎng)絡(luò)攻擊的惡意代碼不僅僅是需要完成計算機語言代碼的編寫,更需要根據(jù)攻擊目標的網(wǎng)絡(luò)防御體系、安全漏洞以及目標文件的攻擊路徑等多個因素進行代碼與代碼之間的整合。ChatGPT所謂的代碼編寫功能不過是以部分功能的代碼編寫為限,無法形成能夠滿足特別具體的編寫需求,甚至在運行過程中無法正確訪問目標文件。在數(shù)據(jù)安全領(lǐng)域,ChatGPT有可能成為隱藏的數(shù)據(jù)泄露缺口。因為在用戶輸入相關(guān)信息的時候,這些輸入的信息和問題也將成為ChatGPT算法訓練的“素材”。倘若部分用戶選擇輸入企業(yè)內(nèi)部數(shù)據(jù),則存在商業(yè)秘密泄露的風險。在網(wǎng)絡(luò)犯罪領(lǐng)域,ChatGPT能夠批量生成貼近人類邏輯的信息內(nèi)容,而這一技術(shù)特征一旦被應用到網(wǎng)絡(luò)電信詐騙、釣魚電子郵件等活動中,受害人難以在第一時間分辨出真假,并且這種批量生成不同信息內(nèi)容的功能有可能會提升網(wǎng)絡(luò)電信詐騙的規(guī)模和頻次。類似地,在網(wǎng)絡(luò)輿情治理領(lǐng)域,ChatGPT還可能被網(wǎng)絡(luò)水軍用于操縱網(wǎng)絡(luò)評論,借由符合邏輯的評論信息內(nèi)容,可以繞過平臺的審核機制,輿情操縱行為將更加隱蔽。

前述ChatGPT的技術(shù)安全風險尚停留于設(shè)想和預測層面,未來ChatGPT以及其他AI技術(shù)將何去何從無人可知。然而,ChatGPT背后的AI技術(shù)安全風險不得不讓社會重新審視和評估現(xiàn)有的治理體系和治理框架能否應對各種新興的技術(shù)安全風險以及未知的挑戰(zhàn)。立法規(guī)制論曾被廣泛認為是解決技術(shù)安全風險的最佳方案,通過預設(shè)的行為規(guī)則限定技術(shù)應用的場景的確能實現(xiàn)治理目標。可是,這種觀點忽視了數(shù)字時代技術(shù)創(chuàng)新浪潮的“洶涌”,頻繁的立法規(guī)制只會讓立法活動淪為技術(shù)安全的信任背書,并在“一個技術(shù)對應一項專門立法”的循環(huán)中逐漸迷失法律的基本功能。在AI技術(shù)尚未真正實現(xiàn)產(chǎn)業(yè)成熟之前,過早地規(guī)范技術(shù)應用方式或底層技術(shù)原理,只會起到抑制技術(shù)創(chuàng)新的消極作用。并且,立法者不可能代替技術(shù)專家去預測所有可能的安全風險并在立法文件中予以明確。

審視ChatGPT背后的技術(shù)安全風險,不難發(fā)現(xiàn),這些安全風險的源頭大多是“用戶的濫用行為”或者“技術(shù)應用的非倫理性”,因此,科技倫理評估機制順勢成為現(xiàn)階段AI技術(shù)治理的重要工具。在《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》中,立法者就已經(jīng)明確算法推薦服務提供者不設(shè)置違背倫理道德算法模型,要求算法服務提供者建立健全科技倫理審查機制。此外,全國信息安全標準化技術(shù)委員會在2021年專門發(fā)布《網(wǎng)絡(luò)安全標準實踐指南——人工智能倫理安全風險方法指引》,將失控性風險、社會性風險、侵權(quán)性風險、歧視性風險、責任性風險作為AI倫理安全風險分析的核心事項。在國外,各國也紛紛提出各自的AI科技倫理評估機制,如歐盟的《可信任的人工智能倫理指南》提出“尊重人類自主、預防損害、公正與可解釋性”這四項倫理原則,美國在2016年發(fā)布的《為人工智能的未來做準備》中提出研發(fā)人員需要確保AI是開放、透明、可理解與可治理的。之所以科技倫理評估機制受到如此重視,是因為相較于直接規(guī)范用戶行為而言,事前規(guī)范研發(fā)人員對于AI產(chǎn)品部分功能的設(shè)置行為更顯奇效。在完成科技倫理評估之后,ChatGPT及其類似產(chǎn)品能夠從自身限定部分功能的使用范圍,如不留存用戶輸入數(shù)據(jù)、禁止大批量生成具有工具性的代碼片段。

三、科技倫理評估對于AI技術(shù)創(chuàng)新的回應

在探討AI技術(shù)治理的過程中,科技倫理評估機制往往因為其道德規(guī)范性而飽受質(zhì)疑,所謂的公平、公正、透明、可解釋等AI技術(shù)倫理原則究竟能夠在多大范圍內(nèi)發(fā)揮作用尚難以判斷。事實上,科技倫理評估機制的類似質(zhì)疑早已有之,如在醫(yī)療健康領(lǐng)域。然而,實踐證明,醫(yī)療倫理原則在很大程度上是解決醫(yī)療科研風險的首要機制,并成為醫(yī)療行業(yè)所共同遵守的行為規(guī)范。至于AI技術(shù)領(lǐng)域,科技倫理評估機制則需要面對全新的問題,因為在該領(lǐng)域,AI技術(shù)產(chǎn)品的研發(fā)與創(chuàng)新并不具備醫(yī)療領(lǐng)域“提升醫(yī)療保障水平”等服務于社會公共利益的共同目標,并且在不同行業(yè)、不同場景中,AI技術(shù)產(chǎn)品的倫理評估事項也各有側(cè)重。那么,如何建構(gòu)一整套適用于整個AI產(chǎn)業(yè)的科技倫理評估機制成為當下亟需回應的治理難題。

第一,在不同AI應用場景下需要評估的科技倫理事項不同,但并不等同于不存在適用于整個AI行業(yè)的基本原則。從目前ChatGPT以及其他AI產(chǎn)品產(chǎn)生的安全風險來看,AI行業(yè)的基本原則應當包括“透明公正”“可解釋”“尊重用戶”“安全可控”四項基本要求?!巴该鞴笔侵溉斯ぶ悄墚a(chǎn)品應當向用戶說明基本功能、技術(shù)原理以及是否存在影響用戶權(quán)益的重要事項?!翱山忉尅笔侵溉斯ぶ悄墚a(chǎn)品的提供商應當能夠說明輸入端與輸出端之間的關(guān)聯(lián)性,證明輸出結(jié)果的可靠性。“尊重用戶”是指人工智能產(chǎn)品不應當歧視用戶,其算法模型不應當存在具有社會偏見的評估要素。“安全可控”是指人工智能產(chǎn)品能夠滿足法定要求和行業(yè)通行的安全技術(shù)標準,并且產(chǎn)品提供商能夠有效控制該人工智能產(chǎn)品潛在的技術(shù)安全風險。這四項倫理原則乃是人工智能產(chǎn)品、服務研發(fā)過程中所需要普遍遵循的基本內(nèi)容,其內(nèi)核是“技術(shù)創(chuàng)新應當以最大化人類共同福祉為目標,而不是以犧牲安全和權(quán)益為代價”。

第二,基于前述四項基本原則,科技倫理評估機制則需要進一步補充不同應用場景中的具體評估原則,以便能夠讓研發(fā)機構(gòu)及其科研工作者在實際研發(fā)和代碼編寫過程中予以遵守。以教育領(lǐng)域為例,學習類人工智能產(chǎn)品的研發(fā)應當是以輔助學生自主學習、提升學習效率和培養(yǎng)批判思維為基本目標,故而相應研發(fā)機構(gòu)和研發(fā)人員應當遵循的具體原則包括“預防依賴”“禁止非誠信行為”“保護未成年用戶”三項內(nèi)容?!邦A防依賴”是指人工智能產(chǎn)品不應當成為人類學習的替代品,而是應當定位為學習輔助工具;“禁止非誠信行為”是指人工智能產(chǎn)品不應當成為“論文槍手”“作弊器”,研發(fā)機構(gòu)應當限定在特定時間(如重大考試期間)的部分功能;“保護未成年用戶”是指人工智能產(chǎn)品不得擅自收集未成年用戶的個人信息,不得向未成年用戶推送商業(yè)化廣告,應當以最有利于未成年人成長的方式提供人工智能產(chǎn)品與服務。

第三,科技倫理終究是不具有強制性的道德規(guī)范,若想其發(fā)揮事前風險預防的治理效果,一個關(guān)鍵環(huán)節(jié)就是完成倫理原則與法律規(guī)則之間的銜接。目前來看,科技倫理原則的內(nèi)容不僅包含了道德層面的科技倫理,還包含了與法定義務具有同質(zhì)性的倫理原則。除了需要在立法中明確科技倫理評估機制作為一項法定義務而存在,同時還需要明確人工智能產(chǎn)品提供商未能履行該項義務時的法律責任。借由明確的行為規(guī)范和清晰的行為后果引導提供商做出最恰當?shù)男袨檫x擇,并對算法模型進行持續(xù)性優(yōu)化,盡可能滿足“安全可信”的人工智能技術(shù)要求。

猜你喜歡
倫理人工智能評估
《心之死》的趣味與倫理焦慮
護生眼中的倫理修養(yǎng)
2019:人工智能
人工智能與就業(yè)
數(shù)讀人工智能
下一幕,人工智能!
評估依據(jù)
醫(yī)改莫忘構(gòu)建倫理新機制
立法后評估:且行且盡善
婚姻家庭法的倫理性及其立法延展