袁亦豪
(上海社會科學(xué)院,上海 200083)
隨著人工智能(AI)在近些年來的井噴式發(fā)展,其所帶來的各方面風(fēng)險也開始引起各方注意。康奈爾大學(xué)的研究指出,人工智能可以被用來延續(xù)偏見、賦能武器、傳播錯誤信息和進行網(wǎng)絡(luò)攻擊。即使在人類參與下使用,人工智能也能造成自主性傷害[1]。盡管如此,目前對于人工智能造成的潛在風(fēng)險類型仍缺乏清晰的界定,全球知名研究機構(gòu)如布魯金斯學(xué)會、普華永道,各類國際組織如經(jīng)合組織、世界經(jīng)濟論壇等都根據(jù)自身的認知劃定了相關(guān)的風(fēng)險類型。通過歸納,目前對人工智能風(fēng)險的判斷主要有以下幾類:
人工智能的技術(shù)風(fēng)險主要針對其系統(tǒng)以及相應(yīng)的平臺帶來的風(fēng)險。第一,涉及數(shù)據(jù)隱私的安全風(fēng)險。AI系統(tǒng)通常需要大量數(shù)據(jù)來進行訓(xùn)練和學(xué)習(xí),這可能涉及個人隱私信息的收集和處理。如果這些數(shù)據(jù)受到不當(dāng)使用、泄露或黑客攻擊,將導(dǎo)致隱私泄露并帶來后續(xù)的風(fēng)險。第二,惡意使用的安全風(fēng)險:AI 技術(shù)也可能被用于惡意目的,包括網(wǎng)絡(luò)攻擊、虛假信息生成和社交工程等,使用者可通過AI 技術(shù)提升攻擊的復(fù)雜性和威力,甚至為殺傷性武器賦能。
人工智能的經(jīng)濟風(fēng)險主要指包含失業(yè)與經(jīng)濟不平等。人工智能驅(qū)動的自動化有可能導(dǎo)致各行各業(yè)的工作崗位流失,對低技能工人的傷害尤其明顯。隨著人工智能技術(shù)的不斷發(fā)展和效率的提高,勞動力必須適應(yīng)和獲得新的技能,而低技能工人的工作替代性強而賦能效應(yīng)卻相對缺乏。在此基礎(chǔ)上,人工智能可能造成經(jīng)濟不平等,使富裕的個人和公司受益過多。而由于人工智能開發(fā)和所有權(quán)集中在少數(shù)大公司手中,這種不平等可能會進一步加劇。
人工智能的社會風(fēng)險主要體現(xiàn)在人類對人工智能的不信任及相關(guān)的潛在風(fēng)險。第一,人工智能系統(tǒng)缺乏透明度,這種不透明性模糊了人工智能技術(shù)的決策過程和基本邏輯。當(dāng)人們不能理解一個人工智能系統(tǒng)是如何得出結(jié)論時,就會導(dǎo)致對采用這些技術(shù)的不信任和抵制[2]。第二,人工智能對人類隱私產(chǎn)生巨大的破壞力。人工智能技術(shù)的基本運作建立在收集和分析大量的個人數(shù)據(jù)之上,從而將引發(fā)了與數(shù)據(jù)隱私和安全相關(guān)的問題。
人工智能的運行模式可能對于人類習(xí)以為常的倫理、道德及法律的認知邏輯產(chǎn)生新的挑戰(zhàn)。第一,人工智能程序是有偏見的訓(xùn)練數(shù)據(jù)或算法設(shè)計,系統(tǒng)可能放大社會偏見并造成進一步的撕裂。第二,人工智能系統(tǒng)中被灌輸?shù)赖潞蛡惱韮r值觀,在面臨復(fù)雜的決策環(huán)境中,不一定符合人類的基本倫理認識。第三,在新的場域中,缺乏新的法律法規(guī)來規(guī)范或解決人工智能技術(shù)引起的上述各類問題。
目前看來,盡管各方對于人工智能風(fēng)險的判斷仍處于摸索的階段,但是對于加強監(jiān)管以降低其風(fēng)險已經(jīng)取得了一定的共識。對于企業(yè)而言,行業(yè)領(lǐng)導(dǎo)者正尋求一種可信的、數(shù)據(jù)安全的方式使用人工智能技術(shù)。而在政府層面,歐盟、美國、中國等都在推出各自的監(jiān)管措施或法律,以確保技術(shù)發(fā)展處于正確的方向。
美國的科技和產(chǎn)業(yè)體制一向以私營部門為主,政府參與程度始終較低。聯(lián)邦層面,美國目前沒有明確針對人工智能的法律,但政府部門正在與企業(yè)界就監(jiān)管問題磋商并達成一些成果,立法部門同樣在該領(lǐng)域取得了小幅進展。
第一,美國商務(wù)部下屬的國家標準與技術(shù)研究所(NIST)主要擔(dān)任人工智能(AI)技術(shù)和系統(tǒng)的設(shè)計、開發(fā)、使用和治理方面培養(yǎng)信任,涵蓋了人工智能的風(fēng)險識別及政策制定等 工 作。2023 年1 月26 日,NIST發(fā)布了人工智能風(fēng)險管理框架(AI RMF 1.0) ,3 月30 日NIST 啟 動了可信賴和負責(zé)任的人工智能資源中心,該中心將促進該框架的實施及國際協(xié)調(diào)。該框架通過一個共識性的、開放的、透明的和協(xié)作的過程開發(fā),旨在為各方的人工智能風(fēng)險管理工提供合作平臺及支持服務(wù)。
第二,白宮與科技巨頭就人工智能的發(fā)展路徑及風(fēng)險控制進行磋商。2023 年7 月21 日,白宮七 家領(lǐng)先的人工智能公司(Amazon,Anthropic, Google, Inflection,Meta, Microsoft 及 OpenAI)共 同宣布幫助人工智能技術(shù)朝著安全、安全和透明的方向發(fā)展。其主要達成的共識包括:確保產(chǎn)品的可靠性,進行足夠的安全測試并公布風(fēng)險管理信息;保證系統(tǒng)的安全性,加強網(wǎng)絡(luò)與內(nèi)部數(shù)據(jù)安全并建立漏洞彌補機制;爭取公眾信任,公開人工智能的使用記錄和限制條件,并避免歧視與隱私泄露。
第三,國會議員已經(jīng)就涉及人工智能監(jiān)管提交法案草案。立法小組于2023 年6 月20 日提交了一項法案[3],旨在建立一個專注于人工智能監(jiān)管的委員會。該委員會一方面要減輕人工智能的風(fēng)險和危害,另一方面又要保護美國“在人工智能創(chuàng)新方面的領(lǐng)導(dǎo)地位以及這種創(chuàng)新可能帶來的機遇”。平衡這兩方面的考慮意味著制定一種全面的監(jiān)管方法,承認在利用人工智能的變革力量帶來社會和經(jīng)濟效益的同時解決潛在缺陷的重要性。
歐盟對于人工智能監(jiān)管的態(tài)度相對積極。歐盟特別注重人工智能發(fā)展中的兩個問題。第一,倫理和法律準則。為了確保人工智能的發(fā)展和應(yīng)用符合道德和法律要求,歐洲將倫理和法律準則置于人工智能戰(zhàn)略的核心。歐盟希望通過一系列指導(dǎo)原則和規(guī)范,在涉及數(shù)據(jù)隱私、透明度、責(zé)任和公平等方面促進人工智能的可持續(xù)發(fā)展。第二,數(shù)據(jù)共享與隱私保護。歐洲鼓勵數(shù)據(jù)共享和合作,以加強人工智能算法的訓(xùn)練和改進,同時也重視個人隱私的保護,在數(shù)據(jù)使用和處理過程中采取相應(yīng)的法律和技術(shù)措施。從前些年開始,歐盟就已經(jīng)試圖推出高度規(guī)范性指令,針對高風(fēng)險人工智能系統(tǒng)的研發(fā)者和使用者做出具體的技術(shù)和機構(gòu)規(guī)定。
2.2.1《通用數(shù)據(jù)保護條例》
《通用數(shù)據(jù)保護條例》(GDPR)是歐盟于2018 年5 月25 日實施的旨在保護歐盟內(nèi)部個人隱私和個人數(shù)據(jù)的法規(guī),是歐盟在人工智能時代專注于數(shù)據(jù)隱私的重要法案。GDPR 取代了以前的《數(shù)據(jù)保護指令》 ,并對數(shù)據(jù)保護規(guī)則進行了重大修改和改進。法案明確了適用范圍,歐盟以外的企業(yè)若為歐盟居民提供的個人數(shù)據(jù)類服務(wù),同樣受到管轄。該法規(guī)要求企業(yè)必須使個人對數(shù)據(jù)處理保持自由、具體、知情和明確的狀態(tài)。GDPR 賦予個人獲取、修正、刪除、傳輸數(shù)據(jù)的權(quán)利,并限制個人行為受AI 等自動化決策的影響。大型企業(yè)必須任命一名數(shù)據(jù)保護官,負責(zé)監(jiān)督數(shù)據(jù)保護戰(zhàn)略并確保遵守該法律。同時, GDPR 對不遵守規(guī)定的行為實施了嚴厲的處罰,對最嚴重的違規(guī)行為處以高達2000 萬歐元或全球年收入的4% 的罰款。
2.2.2《歐盟人工智能法案》
2021 年4 月,歐盟委員會提出了歐盟首個人工智能監(jiān)管框架。作為其數(shù)字戰(zhàn)略的一部分,歐盟希望對人工智能(AI)進行監(jiān)管,以確保為這一創(chuàng)新技術(shù)的開發(fā)和使用創(chuàng)造更好的條件。一旦通過,這將是世界上第一個系統(tǒng)性的關(guān)于人工智能的規(guī)則。
這份法案中,不同應(yīng)用的人工智能系統(tǒng)將根據(jù)其對用戶構(gòu)成的風(fēng)險進行分類,不同的風(fēng)險水平對應(yīng)不同的監(jiān)管級別[4]。不可接受風(fēng)險的人工智能系統(tǒng)被視為對人類構(gòu)成威脅,將被禁止使用,包括:對人或特定弱勢群體的認知行為控制,操縱社會撕裂,實時和遠程生物識別系統(tǒng)等。高風(fēng)險的人工智能系統(tǒng)被定義為對安全或基本權(quán)利產(chǎn)生負面影響,并將分為兩類:1)在歐盟產(chǎn)品安全法規(guī)下的產(chǎn)品中使用的人工智能系統(tǒng);2)在8 個特定領(lǐng)域中使用且必須在歐盟數(shù)據(jù)庫中注冊。低風(fēng)險的人工智能系統(tǒng)應(yīng)符合最低限度的透明度要求,使用戶能夠作出知情的決定。與應(yīng)用程序交互之后,用戶可以決定是否繼續(xù)使用它。當(dāng)用戶與人工智能交互時,用戶應(yīng)該意識到這一點。這包括生成或操縱圖像、音頻或視頻內(nèi)容的人工智能系統(tǒng)[5]。
現(xiàn)有的人工智能系統(tǒng)主要由大型科技公司開發(fā),產(chǎn)品的迭代升級能力強,監(jiān)管措施的出臺速度遠遠落后于產(chǎn)品的更新速度。2022 年11 月,chatgpt-3 的發(fā)布才將其從一個軟件工程師的工具,重新定位為一個以消費者為中心的工具,而僅僅四個月之后, OpenAI 公布了 GPT-4 支持基礎(chǔ)大型語言模型(LLM)的最新版本,“展示了人類水平的性能”。ChatGPT成為歷史上增長最快的網(wǎng)站,在兩個月內(nèi)吸引了超過1 億用戶。然而,應(yīng)對人工智能驅(qū)動的變革速度,可能超出監(jiān)管部門現(xiàn)有的專業(yè)知識和能力。今天用的監(jiān)管法規(guī)和結(jié)構(gòu)大部分建立在電氣時代的假設(shè)之上,這些假設(shè)已經(jīng)被數(shù)字平臺時代的飛速發(fā)展超越??陀^來看,現(xiàn)有的規(guī)則不夠靈活,尚無法應(yīng)對人工智能的發(fā)展速度。未來對于人工智能的監(jiān)管方式應(yīng)更專注于職權(quán)與功能,而不是依靠政策加以約束之上。相關(guān)部門需要更多的靈活性,擺脫舊的監(jiān)管方式,以跟上技術(shù)發(fā)展的步伐。
人工智能的監(jiān)管內(nèi)容方面,政策制定者并沒有取得一種共識。在消除偏見、數(shù)據(jù)隱私和系統(tǒng)安全性等領(lǐng)域的監(jiān)管,涵蓋太多的領(lǐng)域,從而大幅度提高了監(jiān)管的難度。更進一步,作為一種強化系統(tǒng),人工智能本身不具備主觀的善惡,因此對其監(jiān)管的難度較大。以歐盟制定的人工智能法草案為例,存在明顯的漏洞和例外。例如,目前法案中明確禁止面部識別,但這項條款卻忽視了面目識別在安全保密、身份認證,甚至協(xié)助破案中發(fā)揮的巨大作用。究竟如何定義人工智能的風(fēng)險等級,如何權(quán)衡其對社會發(fā)展帶來的利弊,監(jiān)管無疑面臨很大的挑戰(zhàn)。
雖然對監(jiān)管的必要性取得了一定的共識,但毫無疑問監(jiān)管政策會阻礙行業(yè)發(fā)展和技術(shù)進步。相比于中美兩國,歐盟缺乏大型的人工智能企業(yè),整體的運用水平也相對較低。這某種程度上使其采取了較為嚴格的數(shù)據(jù)管理政策,而在人工智能的發(fā)展要素中,數(shù)據(jù)起到了關(guān)鍵性的作用。谷歌前董事長施密特稱,他認為更希望由公司主導(dǎo)監(jiān)管界限,這種自我監(jiān)管的方式與過去20 年數(shù)字平臺公司一直倡導(dǎo)的不干涉方案是一樣的[6]。布魯金斯學(xué)會認為,所有現(xiàn)代法規(guī)都在保護公共利益與促進創(chuàng)新和投資之間走鋼絲。在人工智能時代,監(jiān)管意味著承認不同的人工智能應(yīng)用會帶來不同的風(fēng)險,并確定一個監(jiān)管與風(fēng)險相匹配的方案,同時避免阻礙創(chuàng)新。
人工智能的強大賦能作用及其快速的發(fā)展趨勢,一方面極大改變了人類的生產(chǎn)生活方式,另一方面對于人類自身也造成了威脅與挑戰(zhàn),因此人工智能監(jiān)管也必然隨著產(chǎn)品與技術(shù)的更新而不斷向前跟進。根據(jù)中國互聯(lián)網(wǎng)信息辦公室網(wǎng)站2023 年4 月11 日消息,為促進生成式人工智能技術(shù)健康發(fā)展和規(guī)范應(yīng)用,根據(jù)《中華人民共和國網(wǎng)絡(luò)安全法》等法律法規(guī),起草了《生成式人工智能服務(wù)管理辦法》,并現(xiàn)向社會公開征求意見??梢?,世界主要行為體都開始關(guān)注人工智能監(jiān)管這一前沿話題??梢灶A(yù)見的是,人工智能監(jiān)管的前路并不平坦,需要更精準風(fēng)險的識別、更先進的監(jiān)管模式,并充分考慮監(jiān)管的各類挑戰(zhàn),才能實現(xiàn)監(jiān)管與發(fā)展的平衡,從而實現(xiàn)有效監(jiān)管。 (文責(zé)自負)