国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于風(fēng)險(xiǎn)的人工智能監(jiān)管治理

2022-02-17 10:38唐要家唐春暉
社會(huì)科學(xué)輯刊 2022年1期
關(guān)鍵詞:使用者監(jiān)管人工智能

唐要家 唐春暉

一、人工智能的監(jiān)管治理挑戰(zhàn)

近年來(lái),數(shù)據(jù)數(shù)量呈現(xiàn)指數(shù)化增長(zhǎng),同時(shí)算法、算力獲得快速提升,實(shí)現(xiàn)了對(duì)數(shù)據(jù)的深度開(kāi)發(fā)和挖掘利用,在這當(dāng)中以機(jī)器學(xué)習(xí)為基礎(chǔ)的人工智能技術(shù)發(fā)揮了決定性作用。人工智能技術(shù)的突破性進(jìn)展和日益廣泛應(yīng)用,推動(dòng)人類社會(huì)進(jìn)入了深度智能化時(shí)代。目前,人工智能已經(jīng)普及應(yīng)用到經(jīng)濟(jì)社會(huì)的諸多方面,不僅數(shù)字技術(shù)產(chǎn)業(yè)化行業(yè)普遍應(yīng)用人工智能,而且制造業(yè)、金融、交通、醫(yī)療、教育、公共管理和公安司法等領(lǐng)域也都在積極應(yīng)用人工智能。人工智能正在對(duì)生產(chǎn)、消費(fèi)、交易、社會(huì)治理和私人生活都產(chǎn)生深刻的影響,正在全面重構(gòu)整個(gè)經(jīng)濟(jì)社會(huì)體系。人工智能已經(jīng)成為除了市場(chǎng)、政府之外影響人類經(jīng)濟(jì)社會(huì)活動(dòng)的第三只手。由于人工智能決策是使用一套模仿人類智能的算法來(lái)進(jìn)行的,廣泛應(yīng)用人工智能算法決策的社會(huì)也被稱為“算法治理的社會(huì)”〔1〕。

面對(duì)廣泛擴(kuò)張的“算法權(quán)力”〔2〕和日益凸顯的“人工智能黑箱”〔3〕,加強(qiáng)人工智能監(jiān)管治理已經(jīng)成為全球共識(shí)。2019年以來(lái)美國(guó)先后發(fā)布了《2019年算法問(wèn)責(zé)法案》(Algorithmic Accountability Act of 2019)〔4〕和《人工智能應(yīng)用監(jiān)管指南備忘錄(草案)》(Guidance for Regulation of Artificial Intelligence Applications)〔5〕,英國(guó) 2020 年制定頒布了《人工智能與數(shù)據(jù)保護(hù)指南》(Guidance on AI and Data Protection)?!?〕歐盟2020年以來(lái)先后頒布了《歐盟數(shù)據(jù)戰(zhàn)略》(European Data Strategy)〔7〕和《人工智能法》(Artificial Intelligence Act)〔8〕等戰(zhàn)略規(guī)劃和政策法規(guī),加強(qiáng)人工智能治理,構(gòu)建穩(wěn)定和有利于創(chuàng)新發(fā)展的人工智能生態(tài),促進(jìn)人工智能創(chuàng)新和國(guó)際競(jìng)爭(zhēng)力提升。

中國(guó)是全球人工智能領(lǐng)域的重要領(lǐng)跑者之一,人工智能產(chǎn)業(yè)是國(guó)家的戰(zhàn)略重點(diǎn),加強(qiáng)人工智能治理是國(guó)家數(shù)字經(jīng)濟(jì)治理體系的重要內(nèi)容。目前,國(guó)家已經(jīng)頒布了《中華人民共和國(guó)網(wǎng)絡(luò)安全法(含草案說(shuō)明)》〔9〕《中華人民共和國(guó)數(shù)據(jù)安全法(含草案說(shuō)明)》〔10〕等法律法規(guī)以強(qiáng)化網(wǎng)絡(luò)和數(shù)據(jù)安全監(jiān)管,但人工智能監(jiān)管的法律制度供給還是相對(duì)不足。2019年和2021年中華人民共和國(guó)科學(xué)技術(shù)部發(fā)布了《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》〔11〕和《新一代人工智能倫理規(guī)范》〔12〕兩部指引性文件,2021年國(guó)家市場(chǎng)監(jiān)督管理總局發(fā)布的《互聯(lián)網(wǎng)平臺(tái)落實(shí)主體責(zé)任指南(征求意見(jiàn)稿)》〔13〕第19條專門規(guī)定了“算法規(guī)制”問(wèn)題??傮w來(lái)說(shuō),中國(guó)系統(tǒng)監(jiān)管人工智能的《人工智能法》等專門法律還未起草制定,系統(tǒng)監(jiān)管人工智能的法律還相對(duì)缺失。面對(duì)中國(guó)人工智能全球領(lǐng)先性增長(zhǎng)的態(tài)勢(shì),中國(guó)迫切需要明確人工智能監(jiān)管的基礎(chǔ)性問(wèn)題,全面提升人工智能治理能力,為人工智能技術(shù)創(chuàng)新發(fā)展并獲取全球領(lǐng)導(dǎo)地位提供治理制度保障。

目前關(guān)于人工智能監(jiān)管治理的研究成為理論熱點(diǎn),很多學(xué)者從經(jīng)濟(jì)、社會(huì)和倫理等多個(gè)視角對(duì)人工智能引發(fā)的風(fēng)險(xiǎn)問(wèn)題展開(kāi)研究?,F(xiàn)有的研究主要集中在如下三個(gè)方面:第一,人工智能的不透明、不可解釋性及其引發(fā)的風(fēng)險(xiǎn)。Crawford分析了人工智能應(yīng)用中的數(shù)據(jù)采集和結(jié)果偏差性風(fēng)險(xiǎn)問(wèn)題,強(qiáng)調(diào)數(shù)據(jù)治理的重要性。〔14〕Burrell指出人工智能算法的模糊性和缺乏透明度是算法治理應(yīng)解決的核心問(wèn)題?!?5〕Zarsky指出人工智能算法決策的模糊性和自動(dòng)性會(huì)引發(fā)降低經(jīng)濟(jì)效率和影響公平的雙重風(fēng)險(xiǎn)?!?6〕Mittelstadt等系統(tǒng)分析了人工智能引發(fā)的倫理問(wèn)題,如缺乏包容性、神秘性、誤導(dǎo)性、不公平性、不可溯性和變化性。〔17〕第二,人工智能算法監(jiān)管治理總體框架的構(gòu)建。賈開(kāi)和蔣余浩在分析人工智能的技術(shù)特性治理挑戰(zhàn)的基礎(chǔ)上提出算法治理的核心議題是算法的制定權(quán)及相應(yīng)的監(jiān)督程序問(wèn)題?!?8〕吳漢東提出應(yīng)建立以安全為核心、以倫理為先導(dǎo)和以技術(shù)、法律為主導(dǎo)的風(fēng)險(xiǎn)控制機(jī)制?!?9〕張凌寒指出應(yīng)建立限權(quán)與賦權(quán)相結(jié)合的算法治理制度體系,提出應(yīng)明確算法的應(yīng)用范圍、賦予公民個(gè)人數(shù)據(jù)權(quán)利與救濟(jì)權(quán)、建立算法問(wèn)責(zé)制度,加強(qiáng)行業(yè)自律和建立合作治理體制的建議?!?0〕Saurwein等在分析風(fēng)險(xiǎn)和治理約束的基礎(chǔ)上提出人工智能治理不應(yīng)采取一刀切的解決方案,應(yīng)采用多元治理措施,應(yīng)強(qiáng)化風(fēng)險(xiǎn)評(píng)估,建立以事實(shí)為基礎(chǔ)的治理體制。〔21〕第三,人工智能監(jiān)管治理的政策重點(diǎn)。沈偉偉認(rèn)為應(yīng)構(gòu)建以算法透明為代表的事前規(guī)制和以算法問(wèn)責(zé)為代表的事后規(guī)制相結(jié)合的算法治理體制。〔22〕劉友華指出應(yīng)堅(jiān)持公平、透明和可問(wèn)責(zé)的原則,并強(qiáng)化算法使用者與設(shè)計(jì)者的責(zé)任?!?3〕

盡管目前各國(guó)都意識(shí)到加強(qiáng)人工智能監(jiān)管的必要性,學(xué)術(shù)界主要對(duì)人工智能系統(tǒng)不可解釋性所引發(fā)的社會(huì)歧視風(fēng)險(xiǎn)以及監(jiān)管治理體制與治理政策問(wèn)題也進(jìn)行了探討,但人工智能系統(tǒng)監(jiān)管治理的根本目的是消除人工智能系統(tǒng)應(yīng)用所引發(fā)的各種潛在損害風(fēng)險(xiǎn),因此風(fēng)險(xiǎn)識(shí)別和風(fēng)險(xiǎn)防控成為監(jiān)管治理體系設(shè)計(jì)的核心。為此,需要深入分析人工智能系統(tǒng)應(yīng)用的風(fēng)險(xiǎn)產(chǎn)生機(jī)制及其多維表現(xiàn),并據(jù)此制定更為精準(zhǔn)的人工智能風(fēng)險(xiǎn)監(jiān)管治理政策,從而提高人工智能監(jiān)管治理體系的效能。

二、人工智能系統(tǒng)的黑箱模式及系統(tǒng)運(yùn)行風(fēng)險(xiǎn)

(一)人工智能系統(tǒng)的黑箱模式

人工智能系統(tǒng)是指使用一種或多種相關(guān)技術(shù)和方法開(kāi)發(fā)的軟件,對(duì)于給定的一系列預(yù)設(shè)目標(biāo),能夠產(chǎn)生影響其交互環(huán)境的內(nèi)容、預(yù)測(cè)、建議或決策等的輸出。人工智能主要是基于數(shù)據(jù)分析來(lái)對(duì)現(xiàn)實(shí)世界進(jìn)行模型化,并運(yùn)用這些模型來(lái)預(yù)測(cè)未來(lái)的事件。人工智能的機(jī)器學(xué)習(xí)使算法在沒(méi)有人的指令或程序干預(yù)的情況下通過(guò)數(shù)據(jù)分析來(lái)自主學(xué)習(xí),生成新的算法模型,并決定如何執(zhí)行特定任務(wù)。機(jī)器學(xué)習(xí)技術(shù)采用神經(jīng)網(wǎng)絡(luò)架構(gòu)來(lái)分析處理數(shù)據(jù)投入,進(jìn)行深度自主學(xué)習(xí)和建立數(shù)據(jù)變量之間的關(guān)系,并作出決策?;跈C(jī)器學(xué)習(xí)的人工智能在很大程度上超越了人的數(shù)據(jù)分析能力,具有了更高級(jí)的智能。

人工智能的快速發(fā)展和人類認(rèn)知能力的局限造成了人工智能技術(shù)能力和人類認(rèn)知能力之間的差距日益擴(kuò)大。機(jī)器學(xué)習(xí)人工智能主要是采用黑箱模式,人無(wú)法確切知曉其運(yùn)行情況,無(wú)法解釋算法自主決策結(jié)果是如何產(chǎn)生的,具有顯著的決策模糊性和結(jié)果不可解釋性。在人工智能發(fā)展過(guò)程中,一個(gè)普遍接受的觀點(diǎn)是最精確的模型內(nèi)在地具有不可解釋性和復(fù)雜性,即不可解釋性是實(shí)現(xiàn)決策精確度所必需的。對(duì)于采用黑箱模式的機(jī)器學(xué)習(xí)人工智能來(lái)說(shuō),即使是其設(shè)計(jì)者通常也無(wú)法清楚解釋各個(gè)變量是如何組合在一起并相互作用,從而得出最終決策結(jié)果的。

人工智能黑箱模式主要體現(xiàn)在如下幾個(gè)方面:首先,人工智能系統(tǒng)的技術(shù)具有不可解釋性。人工智能主要指對(duì)大數(shù)據(jù)進(jìn)行分析并找出數(shù)據(jù)變量之間的相關(guān)性,但是其本身無(wú)法解釋數(shù)據(jù)變量之間的因果關(guān)系,體現(xiàn)出一定的人工智能系統(tǒng)技術(shù)層面的不可解釋性。其次,人工智能系統(tǒng)的結(jié)果具有不可解釋性。人工智能決策是機(jī)器自主完成的,人工智能系統(tǒng)運(yùn)行并不像人類那樣具有相同或相似的推理邏輯,人無(wú)法充分了解人工智能的運(yùn)行過(guò)程及其結(jié)果是如何產(chǎn)生的,難以對(duì)運(yùn)算結(jié)果的正確性作出準(zhǔn)確判斷。再次,人工智能系統(tǒng)運(yùn)行的動(dòng)態(tài)性和結(jié)果具有不確定性。人工智能主要是采用機(jī)器自主的深度學(xué)習(xí),算法根據(jù)環(huán)境變化來(lái)自主學(xué)習(xí)和動(dòng)態(tài)優(yōu)化,這使人工智能系統(tǒng)處于持續(xù)的動(dòng)態(tài)變化過(guò)程當(dāng)中,人無(wú)法對(duì)算法運(yùn)行結(jié)果進(jìn)行準(zhǔn)確預(yù)測(cè)。最后,人工智能使用者有意地對(duì)算法決策過(guò)程實(shí)行封鎖,由此帶來(lái)模糊性。由于知識(shí)產(chǎn)權(quán)法律保護(hù)和人工智能系統(tǒng)使用者出于商業(yè)秘密保護(hù)等原因,外界無(wú)法知曉人工智能算法軟件的源代碼及其運(yùn)行邏輯。人工智能系統(tǒng)的黑箱模式及其內(nèi)在的不可解釋性,成為人工智能系統(tǒng)風(fēng)險(xiǎn)產(chǎn)生的根本原因。

(二)人工智能系統(tǒng)運(yùn)行風(fēng)險(xiǎn)分析

人工智能系統(tǒng)是基于復(fù)雜的計(jì)算和程序運(yùn)行將投入的數(shù)據(jù)轉(zhuǎn)變?yōu)橛杏卯a(chǎn)出的,以幫助人們更好地決策。人工智能系統(tǒng)本質(zhì)上是一個(gè)投入產(chǎn)出的過(guò)程,包括系統(tǒng)開(kāi)發(fā)設(shè)計(jì)、數(shù)據(jù)投入、算法運(yùn)算與決策、算法決策結(jié)果輸出與應(yīng)用等,任何單個(gè)環(huán)節(jié)的缺陷都會(huì)引發(fā)系統(tǒng)風(fēng)險(xiǎn)。人工智能系統(tǒng)設(shè)計(jì)缺陷、投入數(shù)據(jù)質(zhì)量缺陷、算法運(yùn)行錯(cuò)誤、算法結(jié)果解讀或運(yùn)用錯(cuò)誤都會(huì)為經(jīng)濟(jì)社會(huì)帶來(lái)?yè)p害。根據(jù)人工智能系統(tǒng)的開(kāi)發(fā)應(yīng)用流程,我們將各個(gè)環(huán)節(jié)的潛在風(fēng)險(xiǎn)具體總結(jié)在圖1中。

圖1 人工智能系統(tǒng)各個(gè)環(huán)節(jié)的潛在風(fēng)險(xiǎn)

第一,人工智能系統(tǒng)開(kāi)發(fā)設(shè)計(jì)風(fēng)險(xiǎn)。人工智能系統(tǒng)開(kāi)發(fā)設(shè)計(jì)風(fēng)險(xiǎn)主要體現(xiàn)為:一是算法結(jié)構(gòu)缺陷,由于人的認(rèn)知能力局限而造成算法設(shè)計(jì)缺陷,典型的如算法邏輯結(jié)構(gòu)缺陷、錯(cuò)誤的假設(shè)等;二是算法技術(shù)代碼缺陷,如不恰當(dāng)?shù)哪P图夹g(shù)、代碼錯(cuò)誤、算法程序設(shè)計(jì)中的錯(cuò)誤等導(dǎo)致算法運(yùn)行得出有偏差的結(jié)果;三是算法技術(shù)的開(kāi)發(fā)單純地關(guān)注技術(shù)或經(jīng)濟(jì)目的,社會(huì)規(guī)則和倫理規(guī)范缺失,由此導(dǎo)致在算法開(kāi)發(fā)中容易將人的偏見(jiàn)帶入人工智能算法程序。

第二,人工智能系統(tǒng)數(shù)據(jù)投入風(fēng)險(xiǎn)。數(shù)據(jù)是人工智能的重要投入,數(shù)據(jù)質(zhì)量在很大程度上決定了人工智能算法訓(xùn)練及決策結(jié)果質(zhì)量。算法使用的數(shù)據(jù)分為三類:投入數(shù)據(jù)、訓(xùn)練數(shù)據(jù)和反饋數(shù)據(jù)。如果數(shù)據(jù)不完整、不及時(shí)、不相關(guān),或存在選擇性偏差、數(shù)據(jù)量不夠、使用不恰當(dāng)?shù)臄?shù)據(jù)采集技術(shù),以及由于偏見(jiàn)的長(zhǎng)期存在導(dǎo)致數(shù)據(jù)本身就包含歷史性偏差或行為性偏差,都會(huì)造成數(shù)據(jù)集存在質(zhì)量缺陷。在人工智能依賴數(shù)據(jù)來(lái)訓(xùn)練算法和進(jìn)行決策的過(guò)程中,數(shù)據(jù)集的一個(gè)小缺陷會(huì)導(dǎo)致系統(tǒng)性偏差結(jié)果,從而造成算法決策偏差風(fēng)險(xiǎn)。

第三,人工智能系統(tǒng)運(yùn)行風(fēng)險(xiǎn)。人工智能運(yùn)行風(fēng)險(xiǎn)主要體現(xiàn)為:一是任務(wù)配置的偏差。這主要是使用者錯(cuò)誤地理解了算法程序使用目的或錯(cuò)誤地分配任務(wù),導(dǎo)致人工智能系統(tǒng)運(yùn)行偏離使用的初衷;二是人工智能訓(xùn)練與驗(yàn)證存在虛假模式等。在人工智能算法訓(xùn)練、測(cè)試或驗(yàn)證過(guò)程中算法缺乏技術(shù)上嚴(yán)密性或概念合理性,從而導(dǎo)致不正確輸出,造成數(shù)據(jù)使用或算法使用偏差;三是人工智能系統(tǒng)存在安全漏洞。人工智能算法設(shè)計(jì)存在的安全漏洞為黑客攻擊提供了可能,外部攻擊造成算法系統(tǒng)運(yùn)行出現(xiàn)問(wèn)題或產(chǎn)生錯(cuò)誤。

第四,人工智能系統(tǒng)產(chǎn)出及應(yīng)用風(fēng)險(xiǎn)。人工智能算法產(chǎn)出結(jié)果的應(yīng)用風(fēng)險(xiǎn)主要是不恰當(dāng)?shù)亟庾x算法結(jié)果,忽視算法結(jié)果應(yīng)用的前提假設(shè)而不恰當(dāng)?shù)厥褂盟惴ńY(jié)果,忽視算法結(jié)果應(yīng)用的場(chǎng)景要求而造成錯(cuò)誤的場(chǎng)景應(yīng)用,算法使用者錯(cuò)誤使用或過(guò)度依賴算法導(dǎo)致的典型問(wèn)題,如汽車司機(jī)因過(guò)度相信自動(dòng)駕駛系統(tǒng)而產(chǎn)生交通事故。另外,在人機(jī)交互的人工智能系統(tǒng)中將人的偏見(jiàn)帶入其中,人工智能系統(tǒng)使用者的惡意應(yīng)用、濫用或選擇性使用等都會(huì)帶來(lái)風(fēng)險(xiǎn)。

三、人工智能系統(tǒng)應(yīng)用潛藏的經(jīng)濟(jì)社會(huì)損害風(fēng)險(xiǎn)

(一)人工智能應(yīng)用的經(jīng)濟(jì)性損害風(fēng)險(xiǎn)

第一,人工智能應(yīng)用可能扭曲消費(fèi)者決策。首先,企業(yè)有可能利用人工智能算法操縱信息,誤導(dǎo)消費(fèi)者決策。人工智能算法加劇了消費(fèi)者與平臺(tái)企業(yè)之間的信息不對(duì)稱,具有大數(shù)據(jù)信息優(yōu)勢(shì)的平臺(tái)有機(jī)會(huì)通過(guò)操縱信息誤導(dǎo)消費(fèi)者以獲取利益,如算法實(shí)施的具有偏差性的用戶評(píng)價(jià)與排名;誤導(dǎo)性信息發(fā)布或廣告推送、過(guò)濾性信息推送、機(jī)器合成的虛假信息等。其次,企業(yè)有可能利用人工智能算法對(duì)消費(fèi)者實(shí)施剝削性定價(jià)。數(shù)字平臺(tái)基于消費(fèi)者個(gè)人數(shù)據(jù)來(lái)實(shí)行個(gè)性化定價(jià),甚至能夠制定出接近完全價(jià)格歧視的價(jià)格,以完全占有消費(fèi)者剩余。總之,借助于人工智能算法,平臺(tái)企業(yè)可以實(shí)行更加普遍的個(gè)性化營(yíng)銷和定價(jià)策略,更廣泛地操縱消費(fèi)者的選擇,從而達(dá)到更多或全部占有消費(fèi)者剩余的目的。

第二,人工智能應(yīng)用可能會(huì)扭曲市場(chǎng)競(jìng)爭(zhēng)。人工智能算法應(yīng)用增加了數(shù)字平臺(tái)實(shí)施各種壟斷行為的風(fēng)險(xiǎn)。首先,人工智能算法會(huì)促進(jìn)企業(yè)之間的價(jià)格合謀。算法可以做到實(shí)時(shí)跟蹤競(jìng)爭(zhēng)對(duì)手的價(jià)格變化,并迅速采取相應(yīng)的跟進(jìn)策略,降低了價(jià)格協(xié)調(diào)的成本,提高了對(duì)單個(gè)企業(yè)背叛行為處罰的有效性,從而促進(jìn)價(jià)格合謀。〔24〕其次,支配地位平臺(tái)通過(guò)算法濫用封鎖商家或第三方合作商。平臺(tái)可以通過(guò)算法歧視以及不公平的排名、搜索結(jié)果展示、鏈接導(dǎo)引等歧視性手段對(duì)待特定商家或第三方合作商,維持自己的壟斷勢(shì)力。再次,人工智能算法為支配地位平臺(tái)實(shí)施各種壟斷濫用行為提供了更有效的機(jī)制。支配地位平臺(tái)利用算法封鎖等行為排擠競(jìng)爭(zhēng)對(duì)手。

第三,人工智能應(yīng)用可能會(huì)惡化就業(yè)與收入公平。人工智能系統(tǒng)應(yīng)用對(duì)就業(yè)的影響不同于工業(yè)經(jīng)濟(jì)時(shí)代機(jī)器代替人的勞動(dòng),其并不是部分代替人的重體力勞動(dòng),而是全面替代人的勞動(dòng)。Acemoglu和Restrepo指出人工智能應(yīng)用會(huì)導(dǎo)致經(jīng)濟(jì)增長(zhǎng)出現(xiàn)日益突出的資本替代勞動(dòng)的趨勢(shì),企業(yè)具有內(nèi)在的過(guò)度自動(dòng)化激勵(lì),這會(huì)導(dǎo)致嚴(yán)重的失業(yè)問(wèn)題。人工智能應(yīng)用不僅替代傳統(tǒng)的低技能勞動(dòng)者,而且也會(huì)替代高技能勞動(dòng)者,縮短高技能勞動(dòng)者的職業(yè)生命周期?!?5〕更嚴(yán)重的是,人工智能應(yīng)用會(huì)惡化收入分配公平問(wèn)題。Hémous和Olsen、Aghion等的分析都指出人工智能應(yīng)用會(huì)增加資本收入在國(guó)家總收入中的比重,降低勞動(dòng)收入的比重,并且高技能群體的收入和低技能群體的收入差距將明顯拉大?!?6〕

第四,人工智能應(yīng)用可能帶來(lái)經(jīng)濟(jì)運(yùn)行風(fēng)險(xiǎn)。首先,人工智能應(yīng)用會(huì)動(dòng)搖社會(huì)信任基礎(chǔ)。人工智能在經(jīng)濟(jì)社會(huì)活動(dòng)中日益融合發(fā)展的一個(gè)重要基礎(chǔ)是社會(huì)對(duì)人工智能的充分信任,即人們普遍相信人工智能系統(tǒng)的應(yīng)用會(huì)提高自己的福利。因此,信任是人工智能應(yīng)用發(fā)展的重要基礎(chǔ),但是人工智能潛在的風(fēng)險(xiǎn)一旦大規(guī)模爆發(fā)并造成嚴(yán)重的經(jīng)濟(jì)社會(huì)危害,則會(huì)嚴(yán)重動(dòng)搖社會(huì)信任基礎(chǔ),從而成為產(chǎn)業(yè)發(fā)展的巨大隱患。其次,人工智能系統(tǒng)大范圍應(yīng)用會(huì)增加經(jīng)濟(jì)發(fā)展的系統(tǒng)性風(fēng)險(xiǎn)。如人工智能系統(tǒng)在金融領(lǐng)域的應(yīng)用,如股票市場(chǎng)中人工智能的高頻率交易系統(tǒng)(HFT)的應(yīng)用會(huì)增加市場(chǎng)的波動(dòng)性,顯著增加市場(chǎng)的系統(tǒng)性風(fēng)險(xiǎn)。

(二)人工智能應(yīng)用的社會(huì)性損害風(fēng)險(xiǎn)

第一,侵犯?jìng)€(gè)人隱私。人工智能算法依據(jù)大數(shù)據(jù)來(lái)追蹤和分析每個(gè)人的日常行為軌跡,日益深入地侵入私人空間。人工智能算法往往過(guò)度采集個(gè)人數(shù)據(jù)、對(duì)個(gè)人進(jìn)行識(shí)別和行為足跡追蹤,基于個(gè)人數(shù)據(jù)深度分析實(shí)現(xiàn)更精準(zhǔn)的個(gè)人畫(huà)像,可以更全面深入地了解個(gè)人隱私信息并預(yù)測(cè)個(gè)人行為或?qū)€(gè)人進(jìn)行分類分組,特別是人臉識(shí)別、語(yǔ)音識(shí)別等生物識(shí)別系統(tǒng)的非授權(quán)同意使用會(huì)造成對(duì)個(gè)人隱私的嚴(yán)重侵犯,一些情感識(shí)別人工智能系統(tǒng)的應(yīng)用甚至?xí)?duì)個(gè)人精神狀態(tài)產(chǎn)生影響或操控。

第二,損害人的生命健康。首先,人工智能算法會(huì)扭曲老人、兒童和殘疾人等特定弱勢(shì)群體的行為。如視頻游戲、智能玩具等包含色情、暴力等內(nèi)容,甚至包括一些有損生命健康的危險(xiǎn)行為,如自殘、自殺等,從而可能導(dǎo)致未成年人迷戀上癮,或產(chǎn)生威脅生命健康或威脅社會(huì)安全的行為。其次,控制和操縱特定個(gè)體或群體,誘導(dǎo)其實(shí)施超負(fù)荷的勞動(dòng),損害勞動(dòng)者權(quán)益。算法的過(guò)度誘導(dǎo)使行為人或勞動(dòng)者產(chǎn)生超越生理或心理承受力的行為,以強(qiáng)化對(duì)勞動(dòng)者的監(jiān)督考核,提高勞動(dòng)強(qiáng)度,損害行為人身體與精神健康,或增強(qiáng)企業(yè)對(duì)普通勞動(dòng)者的壓榨的目的,惡化了勞動(dòng)者的工作狀態(tài)。

第三,導(dǎo)致社會(huì)性歧視。人工智能可能會(huì)歧視性地對(duì)待特定群體,剝奪了特定公民或群體參與重要經(jīng)濟(jì)社會(huì)活動(dòng)的機(jī)會(huì),影響社會(huì)公平正義。如人工智能算法設(shè)計(jì)的偏見(jiàn)、低質(zhì)量數(shù)據(jù)帶來(lái)的結(jié)果偏差等原因造成人工智能算法對(duì)特定公民個(gè)人或群體在教育錄取、就業(yè)招聘、職業(yè)崗位績(jī)效評(píng)價(jià)、購(gòu)買保險(xiǎn)、公共服務(wù)和司法裁決等方面會(huì)歧視性對(duì)待,使特定公民個(gè)體或群體在社會(huì)活動(dòng)中無(wú)法平等參與或被不平等對(duì)待。另外,由于不同群體的認(rèn)知、知識(shí)水平或生理原因差異,人工智能應(yīng)用會(huì)產(chǎn)生技術(shù)鴻溝,使老年人、兒童等特定群體在人工智能算法決定的經(jīng)濟(jì)社會(huì)活動(dòng)中處于弱勢(shì)地位,被邊緣化。

第四,侵犯?jìng)€(gè)人人格尊嚴(yán)。特定領(lǐng)域的個(gè)人評(píng)分或評(píng)價(jià)可能會(huì)被擴(kuò)大應(yīng)用到其他領(lǐng)域,構(gòu)成對(duì)個(gè)人尊嚴(yán)的侵犯,嚴(yán)重侵害了個(gè)人平等參與社會(huì)活動(dòng)的機(jī)會(huì)或能力。典型的如依據(jù)人工智能算法的個(gè)人“信用評(píng)分”來(lái)對(duì)人們進(jìn)行群體分類或社會(huì)性排序等。

第五,威脅公共安全。首先,產(chǎn)生安全事故。一旦人工智能系統(tǒng)存在設(shè)計(jì)缺陷、運(yùn)行穩(wěn)定性差、抗外部風(fēng)險(xiǎn)能力不足或人工智能應(yīng)用主體對(duì)系統(tǒng)缺陷與風(fēng)險(xiǎn)的人為忽視,人工智能在智慧城市、無(wú)人駕駛汽車和基礎(chǔ)設(shè)施等領(lǐng)域的廣泛應(yīng)用和人們對(duì)其過(guò)度依賴會(huì)明顯增加公共安全風(fēng)險(xiǎn),在特殊情況下會(huì)危及公民的生命健康,甚至影響整個(gè)社會(huì)的有序運(yùn)行。其次,威脅社會(huì)倫理價(jià)值。人工智能算法能夠通過(guò)過(guò)濾、篩選、屏蔽或定向推送傾向性信息內(nèi)容。個(gè)別信息平臺(tái)為了追求流量而推送低俗有害信息、虛假信息和傳播極端思想,強(qiáng)化偏見(jiàn)或極端意識(shí),損害社會(huì)倫理道德。人工智能技術(shù)在醫(yī)療健康的深度應(yīng)用會(huì)對(duì)生命體固有倫理構(gòu)成挑戰(zhàn),人工智能性愛(ài)機(jī)器人的出現(xiàn)會(huì)對(duì)傳統(tǒng)婚姻家庭關(guān)系構(gòu)成沖擊。再次,可能影響國(guó)家政治安全。算法正成為一種左右公眾輿論與政治觀點(diǎn)的工具,可能對(duì)一個(gè)國(guó)家的政治安全構(gòu)成威脅。如在美國(guó)政治選舉中,人工智能算法推送的信息很大程度上左右了選民的政治判斷;在英國(guó)退出歐盟的過(guò)程中,媒體平臺(tái)借助人工智能算法嚴(yán)重影響了公眾的意見(jiàn)。

綜上,隨著各種經(jīng)濟(jì)社會(huì)組織大范圍深度應(yīng)用人工智能系統(tǒng),人工智能日益成為影響經(jīng)濟(jì)社會(huì)運(yùn)行的重要力量,人類社會(huì)比以往任何時(shí)候都更加依賴技術(shù)?!?7〕但人工智能的日益廣泛應(yīng)用潛藏著系統(tǒng)的經(jīng)濟(jì)社會(huì)風(fēng)險(xiǎn)。人工智能算法黑箱、日益增加的算法復(fù)雜性、算法設(shè)計(jì)和運(yùn)行缺乏透明度、應(yīng)用主體的惡意使用等都會(huì)導(dǎo)致結(jié)果偏差或錯(cuò)誤,從而對(duì)個(gè)人、組織和社會(huì)帶來(lái)嚴(yán)重的損害(見(jiàn)表1)。Acemoglu指出:“如果人工智能繼續(xù)以現(xiàn)有的不受監(jiān)管的方式發(fā)展,則其將會(huì)產(chǎn)生嚴(yán)重的社會(huì)、經(jīng)濟(jì)和政治危害?!薄?8〕因此,強(qiáng)化人工智能監(jiān)管治理成為數(shù)字經(jīng)濟(jì)治理的重要任務(wù),是確保人工智能技術(shù)發(fā)展造福人類社會(huì)必要的應(yīng)對(duì)措施。

表1 人工智能風(fēng)險(xiǎn)影響的主體及損害

四、基于風(fēng)險(xiǎn)的人工智能監(jiān)管治理體系構(gòu)建

人工智能作為一把雙刃劍,在給社會(huì)帶來(lái)諸多益處的同時(shí),也帶來(lái)巨大的風(fēng)險(xiǎn)。若不能限制其帶來(lái)的危害,則社會(huì)總福利將受到巨大損害。由于人工智能算法的模糊性和系統(tǒng)使用者對(duì)私利目標(biāo)的追求,僅依靠企業(yè)或用戶的力量顯然不能很好地應(yīng)對(duì)人工智能系統(tǒng)應(yīng)用所引發(fā)的風(fēng)險(xiǎn),因此政府必須發(fā)揮人工智能治理的主體角色,對(duì)人工智能系統(tǒng)作出有效的監(jiān)管治理,防范各種潛在的風(fēng)險(xiǎn),讓技術(shù)更好地促進(jìn)社會(huì)進(jìn)步,有力地維護(hù)公共利益。人工智能監(jiān)管治理是指通過(guò)制定一系列的法律、規(guī)則、政策,構(gòu)建多元主體參與的治理體系,最大化地消除人工智能系統(tǒng)應(yīng)用的經(jīng)濟(jì)社會(huì)風(fēng)險(xiǎn),以安全、信任和有益于社會(huì)的方式促進(jìn)人工智能的開(kāi)發(fā)與應(yīng)用。因此,識(shí)別風(fēng)險(xiǎn)和防控風(fēng)險(xiǎn)是人工智能監(jiān)管的重點(diǎn),建立基于風(fēng)險(xiǎn)防控的人工智能監(jiān)管治理體系既是實(shí)現(xiàn)監(jiān)管目標(biāo)的需要,也是確保監(jiān)管有效的重要保障。

(一)明確人工智能監(jiān)管治理的價(jià)值準(zhǔn)則與基本原則

人工智能本身是一個(gè)技術(shù)系統(tǒng),作為人類社會(huì)的技術(shù)性工具,人工智能不僅要符合技術(shù)發(fā)展的內(nèi)在規(guī)律,同時(shí)也要遵守基本的社會(huì)倫理價(jià)值。目前,強(qiáng)化人工智能監(jiān)管治理已經(jīng)成為國(guó)際共識(shí),各國(guó)政府、國(guó)際組織、商業(yè)企業(yè)和學(xué)者們都提出了不同的人工智能監(jiān)管治理原則。目前有國(guó)際影響的是2019年OECD提出的人工智能原則,具體包括:包容性增長(zhǎng)、可持續(xù)發(fā)展與福利提升、以人為中心的價(jià)值和公平、透明度和可解釋性、安全和可問(wèn)責(zé)。〔29〕澳大利亞《人工智能倫理框架》(The Artificial Intelligence(AI) Ethics Framework)〔30〕指出人工智能的八個(gè)原則:促進(jìn)人,社會(huì)和環(huán)境的福利,以人為中心的價(jià)值,公平,隱私保護(hù),可靠與安全,透明與可解釋,可質(zhì)疑性和可問(wèn)責(zé)性。Fjeld等基于文獻(xiàn)分析法提出人工智能應(yīng)堅(jiān)持的原則為:隱私,可問(wèn)責(zé),安全,透明與可解釋,公平與非歧視,人控制技術(shù),專業(yè)責(zé)任和促進(jìn)人的價(jià)值?!?1〕

人工智能治理的價(jià)值準(zhǔn)則是以人為中心。首先,人工智能系統(tǒng)應(yīng)該始終在人的控制之下。技術(shù)應(yīng)該服務(wù)于人,人工智能系統(tǒng)的開(kāi)發(fā)與應(yīng)用應(yīng)確保人是技術(shù)的主人,實(shí)現(xiàn)人對(duì)技術(shù)的控制,防止技術(shù)失控或被超級(jí)智能技術(shù)所控制、脅迫。決策過(guò)程和結(jié)果不應(yīng)完全由人工智能算法所決定。為此,應(yīng)強(qiáng)化人對(duì)人工智能系統(tǒng)的控制力,人既可以在系統(tǒng)運(yùn)行中進(jìn)行實(shí)時(shí)干預(yù),也可以在事后對(duì)系統(tǒng)運(yùn)行結(jié)果進(jìn)行干預(yù)。其次,以人為中心的人工智能治理重在保護(hù)人的自決權(quán)。人工智能治理需要保持人對(duì)技術(shù)的了解,由個(gè)人自主決定是否使用人工智能系統(tǒng)以及如何使用,而不是由技術(shù)決定或技術(shù)使用者來(lái)迫使個(gè)人接受。具體來(lái)說(shuō),人工智能系統(tǒng)采集和使用個(gè)人數(shù)據(jù)信息應(yīng)遵循“知情同意”和“合法正當(dāng)”等基本要求;消費(fèi)者有權(quán)決定是否采用人工智能系統(tǒng)及其產(chǎn)品或服務(wù),并有權(quán)撤回已作出的承諾或退出系統(tǒng)使用,以充分保證消費(fèi)者主權(quán)。再次,人工智能技術(shù)發(fā)展和系統(tǒng)應(yīng)用應(yīng)該遵循基本的倫理準(zhǔn)則,人工智能技術(shù)發(fā)展和應(yīng)用應(yīng)以促進(jìn)人的福祉為根本目標(biāo)。為此,倫理準(zhǔn)則應(yīng)該嵌入人工智能系統(tǒng)的開(kāi)發(fā)設(shè)計(jì)和系統(tǒng)應(yīng)用之中,不能傷害公民的人格權(quán)和損害人的尊嚴(yán)是首要標(biāo)準(zhǔn),應(yīng)有效保護(hù)公民隱私與數(shù)據(jù)安全、維護(hù)消費(fèi)者權(quán)益和商業(yè)公平、促進(jìn)社會(huì)平等與社會(huì)公正、維護(hù)基本的倫理價(jià)值,從而構(gòu)建安全、可信的人工智能治理體系,促進(jìn)人類福祉的全面提升。

為了維護(hù)以人為中心的核心價(jià)值準(zhǔn)則,人工智能治理應(yīng)遵循如下四個(gè)基本原則。

安全性原則。人工智能系統(tǒng)設(shè)計(jì)和運(yùn)行應(yīng)最小化系統(tǒng)安全風(fēng)險(xiǎn),人工智能使用者應(yīng)采取有效措施確保用戶的隱私安全、數(shù)據(jù)安全和網(wǎng)絡(luò)系統(tǒng)安全。人工智能治理重點(diǎn)是通過(guò)技術(shù)、組織和制度等多種途徑實(shí)現(xiàn)人工智能應(yīng)用的整體安全。為此,應(yīng)強(qiáng)化安全技術(shù)保障,需要建立人工智能全生命周期的風(fēng)險(xiǎn)防控體系和安全治理體系,能對(duì)人工智能應(yīng)用中的風(fēng)險(xiǎn)及時(shí)識(shí)別與糾正,并進(jìn)行有效的防控,在風(fēng)險(xiǎn)發(fā)生時(shí)能及時(shí)采取有效的應(yīng)急措施,確保人工智能系統(tǒng)的動(dòng)態(tài)安全和安全保障水平的持續(xù)提高。

透明度原則。人工智能系統(tǒng)的開(kāi)發(fā)與應(yīng)用應(yīng)該打破人工智能黑箱和運(yùn)行的模糊性。增加透明度不僅有助于增進(jìn)用戶信任,促進(jìn)系統(tǒng)應(yīng)用,也有助于應(yīng)用主體和監(jiān)管機(jī)構(gòu)及時(shí)發(fā)現(xiàn)存在的風(fēng)險(xiǎn)。首先,透明度原則要保證消費(fèi)者用戶的知情權(quán)。在人工智能系統(tǒng)運(yùn)行中應(yīng)明確告知消費(fèi)者或用戶與其交互的是人工智能系統(tǒng)或其消費(fèi)的產(chǎn)品或服務(wù)由AI系統(tǒng)所提供,受人工智能系統(tǒng)運(yùn)行結(jié)果影響的利益相關(guān)方能夠了解結(jié)果產(chǎn)生的過(guò)程。其次,透明度原則最主要體現(xiàn)在可解釋性。人工智能系統(tǒng)應(yīng)增強(qiáng)人工智能算法模型、過(guò)程和結(jié)果的可解釋性,提供充分信息讓當(dāng)事人明白決策是如何產(chǎn)生的,并且在當(dāng)事人認(rèn)為結(jié)果有偏差時(shí)有權(quán)要求給予解釋,以消除對(duì)人工智能決策結(jié)果的質(zhì)疑。〔32〕

公平性原則。人工智能系統(tǒng)的開(kāi)發(fā)與應(yīng)用應(yīng)該遵循基本的倫理準(zhǔn)則,消除各種不合理的歧視或不公平、不平等問(wèn)題,消除社會(huì)性風(fēng)險(xiǎn)。人工智能系統(tǒng)的開(kāi)發(fā)與應(yīng)用應(yīng)確保決策結(jié)果不會(huì)對(duì)特定個(gè)人或群體造成偏見(jiàn)或歧視,避免使其喪失平等參與經(jīng)濟(jì)社會(huì)活動(dòng)的機(jī)會(huì)或處于明顯不利的地位。人工智能應(yīng)用應(yīng)確保所有人都被平等對(duì)待,任何人都不應(yīng)被歧視,確保社會(huì)公平,維護(hù)人的尊嚴(yán)和社會(huì)正義,構(gòu)建更包容的社會(huì)。

問(wèn)責(zé)性原則。人工智能系統(tǒng)涉及系統(tǒng)開(kāi)發(fā)者、系統(tǒng)使用者和消費(fèi)者等多元主體,應(yīng)將法律責(zé)任主要配置給算法程序使用者。問(wèn)責(zé)性要求人工智能系統(tǒng)使用者應(yīng)當(dāng)對(duì)算法程序使用所產(chǎn)生的結(jié)果負(fù)責(zé),對(duì)于由于自身過(guò)錯(cuò)而給經(jīng)濟(jì)社會(huì)帶來(lái)?yè)p害的,使用者應(yīng)該承擔(dān)相應(yīng)的法律責(zé)任或行政責(zé)任。另外,在明確人工智能使用者主體責(zé)任的同時(shí),也要強(qiáng)化系統(tǒng)開(kāi)發(fā)者和用戶的治理責(zé)任,形成多元治理體制(見(jiàn)圖2)。

圖2 人工智能治理的基本原則

(二)建立以風(fēng)險(xiǎn)為基礎(chǔ)的全生命周期人工智能監(jiān)管治理體系

人工智能監(jiān)管作為一種政府行政監(jiān)管行為同樣要遵循基本的成本—收益原則,追求政府監(jiān)管的效率和效果。為此,政府監(jiān)管不應(yīng)是適用于所有人工智能系統(tǒng)的普遍監(jiān)管,而應(yīng)根據(jù)風(fēng)險(xiǎn)等級(jí)實(shí)行差別化的監(jiān)管力度,同時(shí)為保證最佳的監(jiān)管效果需要基于風(fēng)險(xiǎn)系統(tǒng)控制理念實(shí)行全生命周期監(jiān)管。

1.實(shí)行以風(fēng)險(xiǎn)為基礎(chǔ)的分級(jí)監(jiān)管

基于風(fēng)險(xiǎn)的人工智能監(jiān)管針對(duì)不同風(fēng)險(xiǎn)等級(jí)的人工智能系統(tǒng)實(shí)行差別化的監(jiān)管力度。為此,人工智能監(jiān)管需要構(gòu)建科學(xué)的風(fēng)險(xiǎn)評(píng)估體制,對(duì)不同類型的人工智能系統(tǒng)及其應(yīng)用進(jìn)行風(fēng)險(xiǎn)評(píng)估。根據(jù)評(píng)估的風(fēng)險(xiǎn)危害程度,人工智能系統(tǒng)可分成三個(gè)風(fēng)險(xiǎn)等級(jí):不可接受風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)和低風(fēng)險(xiǎn)。首先,對(duì)于嚴(yán)重?fù)p害經(jīng)濟(jì)社會(huì)安全、威脅人類生命和人類倫理的不可接受風(fēng)險(xiǎn)的人工智能系統(tǒng),政府監(jiān)管應(yīng)該通過(guò)立法直接加以明令禁止,從而明確人工智能系統(tǒng)開(kāi)發(fā)和應(yīng)用的禁區(qū)與紅線;其次,對(duì)于高風(fēng)險(xiǎn)人工智能系統(tǒng),政府監(jiān)管的重點(diǎn)是強(qiáng)化事前質(zhì)量認(rèn)證的準(zhǔn)入監(jiān)管,并明確人工智能應(yīng)用主體必須遵守的原則和法律規(guī)定的義務(wù),強(qiáng)化對(duì)違法違規(guī)行為的監(jiān)督處罰;再次,對(duì)于低風(fēng)險(xiǎn)人工智能系統(tǒng),政府實(shí)行低強(qiáng)度監(jiān)管,鼓勵(lì)企業(yè)保持透明度,鼓勵(lì)企業(yè)主動(dòng)采取同高風(fēng)險(xiǎn)相一致的合規(guī)行動(dòng),鼓勵(lì)企業(yè)主動(dòng)參與質(zhì)量認(rèn)證工作,通過(guò)獲得質(zhì)量認(rèn)證來(lái)贏得用戶信任。①政府為達(dá)到要求的人工智能系統(tǒng)頒發(fā)專門的標(biāo)簽,用戶可以直接看到認(rèn)證標(biāo)簽,從而提升用戶對(duì)該使用者的信任度,增加其收益。

以風(fēng)險(xiǎn)為基礎(chǔ)的分級(jí)監(jiān)管應(yīng)對(duì)不可接受風(fēng)險(xiǎn)和高風(fēng)險(xiǎn)人工智能系統(tǒng)作出明確的規(guī)定。首先,根據(jù)歐盟《人工智能法》(Artificial Intelligence Act)〔33〕,明令禁止的不可接受人工智能系統(tǒng)主要包括四類:(1)人工智能系統(tǒng)通過(guò)采用個(gè)人無(wú)法察覺(jué)的技術(shù)來(lái)試圖扭曲人的行為,并且該行為會(huì)對(duì)該人或他人造成身體或精神損害的;(2)人工智能系統(tǒng)是針對(duì)兒童、老年人和殘疾人等弱勢(shì)群體開(kāi)發(fā)的,其應(yīng)用會(huì)扭曲這些弱勢(shì)群體的個(gè)人行為,并且該行為會(huì)對(duì)該主體或他人造成損害的;(3)人工智能系統(tǒng)的應(yīng)用是基于對(duì)自然人過(guò)去的行為或個(gè)人特征的評(píng)價(jià)或評(píng)級(jí)分類的“社會(huì)性評(píng)分”,從而造成自然人或特定群體在教育、就業(yè)等經(jīng)濟(jì)社會(huì)活動(dòng)中面臨不公正對(duì)待并給其造成損害的;(4)使用遠(yuǎn)程實(shí)時(shí)生物識(shí)別技術(shù)的人工智能應(yīng)用。①在法律明確規(guī)定的出于公共利益目的的遠(yuǎn)程生物識(shí)別是被允許的,但其應(yīng)用必須嚴(yán)格依法進(jìn)行并確保數(shù)據(jù)安全。其次,根據(jù)歐盟《人工智能法》(Artificial Intelligence Act)〔34〕,高風(fēng)險(xiǎn)人工智能系統(tǒng)主要包括如下領(lǐng)域:醫(yī)療健康、信用機(jī)構(gòu)、保險(xiǎn)行業(yè)、生物識(shí)別、自動(dòng)駕駛、影響公眾決策判斷的合成信息、學(xué)校招生與就業(yè)招聘、司法和政府行政管理。

《關(guān)鍵信息基礎(chǔ)設(shè)施安全保護(hù)條例》〔35〕規(guī)定中國(guó)網(wǎng)絡(luò)安全的重點(diǎn)行業(yè)是電信、廣播電視、能源、金融、公路水路運(yùn)輸、鐵路、民航、郵政、水利、應(yīng)急管理、衛(wèi)生健康、社會(huì)保障和國(guó)防科技工業(yè)等?!吨腥A人民共和國(guó)數(shù)據(jù)安全法(含草案說(shuō)明)》界定了國(guó)家核心數(shù)據(jù),即關(guān)系國(guó)家安全、國(guó)民經(jīng)濟(jì)命脈、重要民生、重大公共利益等的數(shù)據(jù)。〔36〕“關(guān)鍵信息基礎(chǔ)設(shè)施”和“國(guó)家核心數(shù)據(jù)”主要是基于國(guó)家公共安全來(lái)確定的監(jiān)管重點(diǎn),由于人工智能所引發(fā)的風(fēng)險(xiǎn)既有私人權(quán)益損害也有公共利益損害,并且還涉及社會(huì)倫理等問(wèn)題,因此“關(guān)鍵信息基礎(chǔ)設(shè)施”和“國(guó)家核心數(shù)據(jù)”并不完全適用于人工智能監(jiān)管,需要通過(guò)制定《人工智能法》對(duì)不可接受風(fēng)險(xiǎn)和高風(fēng)險(xiǎn)人工智能加以進(jìn)一步的明確規(guī)定,特別是明確嚴(yán)令禁止不可接受風(fēng)險(xiǎn)的人工智能系統(tǒng)應(yīng)用。

2.建立一體化的人工智能系統(tǒng)政府監(jiān)管體制

事前主要是建立人工智能系統(tǒng)應(yīng)用的安全標(biāo)準(zhǔn)和實(shí)施評(píng)估認(rèn)證制度。為了防患于未然,應(yīng)該對(duì)人工智能系統(tǒng)開(kāi)發(fā)應(yīng)用設(shè)定基本的質(zhì)量安全標(biāo)準(zhǔn),并實(shí)行必要的達(dá)標(biāo)認(rèn)證制度,對(duì)高風(fēng)險(xiǎn)人工智能系統(tǒng)實(shí)行必要的認(rèn)證批準(zhǔn)程序。建立由第三方實(shí)施的人工智能安全達(dá)標(biāo)評(píng)估認(rèn)證制度,高風(fēng)險(xiǎn)人工智能系統(tǒng)必須通過(guò)專業(yè)機(jī)構(gòu)的人工智能系統(tǒng)安全評(píng)估認(rèn)證,沒(méi)有通過(guò)安全評(píng)估或不達(dá)標(biāo)的人工智能系統(tǒng)不能使用。

事中強(qiáng)化企業(yè)風(fēng)險(xiǎn)管理責(zé)任并加強(qiáng)對(duì)人工智能系統(tǒng)應(yīng)用的監(jiān)測(cè)與審計(jì)。事中主要是強(qiáng)化系統(tǒng)使用者的主體責(zé)任,要求其建立有效的內(nèi)部風(fēng)險(xiǎn)管理的技術(shù)和組織保障,同時(shí)重點(diǎn)強(qiáng)化監(jiān)管機(jī)構(gòu)對(duì)人工智能系統(tǒng)使用的風(fēng)險(xiǎn)監(jiān)測(cè)及合規(guī)審計(jì)。由于人工智能系統(tǒng)是一個(gè)動(dòng)態(tài)的系統(tǒng),這意味著一次性檢查或?qū)徲?jì)可能很快就會(huì)過(guò)時(shí)。因此,需要對(duì)人工智能系統(tǒng)進(jìn)行持續(xù)的監(jiān)控和全生命周期的動(dòng)態(tài)監(jiān)測(cè)和審計(jì)。算法監(jiān)測(cè)和審計(jì)主要是審查數(shù)據(jù)質(zhì)量、算法命令執(zhí)行中各個(gè)因素及其權(quán)重、數(shù)據(jù)或事實(shí)與結(jié)果之間的相關(guān)性等,以及對(duì)算法使用者在應(yīng)用中是否遵守監(jiān)管要求進(jìn)行合規(guī)審計(jì)。為了方便監(jiān)管機(jī)構(gòu)對(duì)算法的監(jiān)測(cè)和審計(jì),人工智能系統(tǒng)使用者有義務(wù)向監(jiān)管機(jī)構(gòu)開(kāi)放數(shù)據(jù)界面、算法源代碼、算法學(xué)習(xí)機(jī)制和算法運(yùn)行結(jié)果等。由于算法審計(jì)是高度專業(yè)性的工作,監(jiān)管機(jī)構(gòu)可以授權(quán)委托第三方專業(yè)機(jī)構(gòu)來(lái)實(shí)施,但為保證算法知識(shí)產(chǎn)權(quán)和人工智能系統(tǒng)使用者權(quán)益,政府監(jiān)管機(jī)構(gòu)和第三方機(jī)構(gòu)負(fù)有保密義務(wù)。

事后強(qiáng)化違法行為的問(wèn)責(zé)。加強(qiáng)對(duì)人工智能應(yīng)用違法行為處罰重點(diǎn)是解決如下幾個(gè)問(wèn)題:一是明確人工智能系統(tǒng)使用者的法律主體責(zé)任。盡管人工智能算法的運(yùn)行是機(jī)器基于神經(jīng)網(wǎng)絡(luò)自主學(xué)習(xí)實(shí)現(xiàn)的,并不是在人的干預(yù)下實(shí)現(xiàn)的,但是人工智能算法的使用者仍然不能借此免責(zé),其負(fù)有保證人工智能算法安全可信的主體責(zé)任。二是對(duì)于違背“紅線”要求和不遵守?cái)?shù)據(jù)治理規(guī)則要求的違規(guī)企業(yè)給予相應(yīng)的處罰。根據(jù)法經(jīng)濟(jì)學(xué)的最優(yōu)處罰理論,在違法行為被發(fā)現(xiàn)的概率給定的情況下,提高罰款額度會(huì)降低企業(yè)的違法激勵(lì)?!?7〕如歐盟《人工智能法》(Artificial Intelligence Act)〔38〕規(guī)定,對(duì)違法企業(yè)可以處以最高3000萬(wàn)歐元或違法企業(yè)上一年度全球市場(chǎng)營(yíng)業(yè)額6%的罰款。中國(guó)《中華人民共和國(guó)網(wǎng)絡(luò)安全法(含草案說(shuō)明)》〔39〕《中華人民共和國(guó)數(shù)據(jù)安全法(含草案說(shuō)明)》〔40〕等法律確定了約談、整改、營(yíng)業(yè)資格限制、行政罰款和刑事責(zé)任等多種措施,但是對(duì)于各種措施的具體適用條件則有待進(jìn)一步明確,特別是關(guān)于行政罰款上限的規(guī)定不利于嚴(yán)懲重大違法行為,建議建立與違法損害相稱的罰款等級(jí)制度,并采用違法企業(yè)營(yíng)業(yè)額百分比的方式計(jì)算罰款額,以便更有效地威懾違法行為。三是確立民事?lián)p害賠償制度。如果違法行為對(duì)公民個(gè)人的權(quán)益造成嚴(yán)重?fù)p害的,其應(yīng)有權(quán)提起民事訴訟來(lái)維護(hù)自己的權(quán)益。

(三)強(qiáng)化人工智能使用者風(fēng)險(xiǎn)治理第一責(zé)任人角色

人工智能系統(tǒng)使用者是風(fēng)險(xiǎn)管控第一責(zé)任人。人工智能系統(tǒng)的風(fēng)險(xiǎn)產(chǎn)生涉及多個(gè)主體,如何在這些主體之間配置責(zé)任是人工智能監(jiān)管的一個(gè)難題。根據(jù)法經(jīng)濟(jì)學(xué)的思想,為了實(shí)現(xiàn)最佳風(fēng)險(xiǎn)防范,責(zé)任應(yīng)該配置給能以最高效率實(shí)現(xiàn)最佳目標(biāo)結(jié)果的主體?!?1〕人工智能系統(tǒng)涉及的主體包括系統(tǒng)開(kāi)發(fā)者、系統(tǒng)使用者和系統(tǒng)用戶等,在這些主體中人工智能系統(tǒng)的使用者是能夠高效率且有強(qiáng)激勵(lì)實(shí)現(xiàn)對(duì)系統(tǒng)設(shè)計(jì)、數(shù)據(jù)投入、系統(tǒng)運(yùn)行與應(yīng)用進(jìn)行管理的主體,因此系統(tǒng)安全責(zé)任應(yīng)主要配置給人工智能系統(tǒng)的使用者,即應(yīng)用人工智能系統(tǒng)的企業(yè)、政府機(jī)構(gòu)或社會(huì)組織。

高風(fēng)險(xiǎn)人工智能使用者應(yīng)充分履行透明度義務(wù)。人工智能系統(tǒng)應(yīng)確保具有足夠的透明度,使用戶能夠理解并正確使用系統(tǒng)的輸出結(jié)果。具體來(lái)說(shuō):一是應(yīng)當(dāng)明確告知用戶與其相互作用的是人工智能系統(tǒng);二是應(yīng)當(dāng)明確告知用戶人工智能系統(tǒng)具有生物識(shí)別和情感識(shí)別功能;三是對(duì)深度合成的信息應(yīng)當(dāng)作出清晰的標(biāo)簽標(biāo)注;四是應(yīng)盡可能普及對(duì)人工智能系統(tǒng)運(yùn)行的知識(shí),并使受人工智能系統(tǒng)產(chǎn)出結(jié)果影響的利益相關(guān)者了解結(jié)果是如何產(chǎn)生的;五是應(yīng)將人工智能系統(tǒng)的目的、應(yīng)用條件及其局限性等信息明確告知受影響的主體,不能虛假宣傳人工智能系統(tǒng)的功能及其結(jié)果。

應(yīng)重點(diǎn)強(qiáng)化人工智能使用者履行數(shù)據(jù)治理義務(wù)。數(shù)據(jù)是人工智能系統(tǒng)運(yùn)行的主要投入品,數(shù)據(jù)質(zhì)量根本上決定人工智能系統(tǒng)運(yùn)行的結(jié)果質(zhì)量。人工智能系統(tǒng)使用者在數(shù)據(jù)訓(xùn)練、驗(yàn)證和測(cè)試時(shí)應(yīng)遵守?cái)?shù)據(jù)治理規(guī)則。具體來(lái)說(shuō):一是數(shù)據(jù)必須達(dá)到質(zhì)量要求。人工智能系統(tǒng)使用的數(shù)據(jù)應(yīng)滿足“相關(guān)性、代表性、完整性、正確性”標(biāo)準(zhǔn),即人工智能系統(tǒng)不能采用不相關(guān)、有偏差、不完整乃至錯(cuò)誤的數(shù)據(jù)來(lái)進(jìn)行算法訓(xùn)練,從而產(chǎn)生有偏差的結(jié)果并造成歧視。二是符合目的性和應(yīng)用場(chǎng)景要求。數(shù)據(jù)的訓(xùn)練、驗(yàn)證和測(cè)試應(yīng)考慮目的要求以及人工智能系統(tǒng)使用應(yīng)用場(chǎng)景的行為特征或功能設(shè)置。三是數(shù)據(jù)安全要求。人工智能系統(tǒng)處理使用數(shù)據(jù)應(yīng)對(duì)自然人的基本權(quán)利給予合理保障,并采用最新的數(shù)據(jù)安全和隱私保護(hù)技術(shù)來(lái)保證個(gè)人隱私數(shù)據(jù)安全。四是數(shù)據(jù)修正義務(wù)。高風(fēng)險(xiǎn)人工智能系統(tǒng)必須采取嚴(yán)格的措施來(lái)監(jiān)測(cè)數(shù)據(jù)結(jié)果偏差,查找偏差產(chǎn)生的原因并加以及時(shí)修正。

人工智能系統(tǒng)使用者應(yīng)建立全生命周期風(fēng)險(xiǎn)管理體系。由于人工智能系統(tǒng)的動(dòng)態(tài)性,風(fēng)險(xiǎn)管理體制需要在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)定期系統(tǒng)化更新,以進(jìn)行風(fēng)險(xiǎn)識(shí)別、評(píng)估、維護(hù)、糾正和應(yīng)急處理等。風(fēng)險(xiǎn)管理體制應(yīng)該是一個(gè)包括風(fēng)險(xiǎn)管理目標(biāo)、原則、程序、實(shí)施、監(jiān)督和責(zé)任體制等在內(nèi)的完整系統(tǒng),并貫穿人工智能系統(tǒng)設(shè)計(jì)開(kāi)發(fā)、系統(tǒng)投入、系統(tǒng)運(yùn)行和產(chǎn)出結(jié)果的整個(gè)流程。具體來(lái)說(shuō):一是人工智能開(kāi)發(fā)階段風(fēng)險(xiǎn)管理的重點(diǎn)是強(qiáng)化算法程序架構(gòu)與代碼設(shè)計(jì)審查,確保程序代碼設(shè)計(jì)的合規(guī);二是人工智能投入階段重點(diǎn)是強(qiáng)化數(shù)據(jù)治理,確保數(shù)據(jù)質(zhì)量,避免算法結(jié)果偏差;三是人工智能運(yùn)行階段重點(diǎn)是強(qiáng)化流程管理和運(yùn)行風(fēng)險(xiǎn)監(jiān)測(cè),并完善風(fēng)險(xiǎn)應(yīng)對(duì)方案;四是人工智能產(chǎn)出階段重點(diǎn)是強(qiáng)化結(jié)果質(zhì)量監(jiān)測(cè),建立有效的風(fēng)險(xiǎn)溯源的可追溯機(jī)制和風(fēng)險(xiǎn)發(fā)生后的應(yīng)急管理機(jī)制,并強(qiáng)化內(nèi)部問(wèn)責(zé)機(jī)制與風(fēng)險(xiǎn)管控的整改優(yōu)化機(jī)制;五是人工智能產(chǎn)出應(yīng)用環(huán)節(jié)重點(diǎn)是強(qiáng)化網(wǎng)絡(luò)系統(tǒng)安全以增強(qiáng)技術(shù)支撐,并重點(diǎn)提升操控人員的專業(yè)素質(zhì),加強(qiáng)人工智能系統(tǒng)使用者或消費(fèi)者培訓(xùn),確保正確的人機(jī)交互,避免不恰當(dāng)使用帶來(lái)的各種損害。

強(qiáng)化人工智能使用者履行風(fēng)險(xiǎn)管控治理責(zé)任的組織保障。人工智能系統(tǒng)使用者組織內(nèi)部需要設(shè)立專門的負(fù)責(zé)人或行政官,加強(qiáng)員工培訓(xùn),提高員工技能和治理意識(shí),完善有關(guān)的管理制度,建立科學(xué)規(guī)范的工作方法和工作流程。為便于監(jiān)管和對(duì)質(zhì)疑結(jié)果進(jìn)行解釋以及在發(fā)生風(fēng)險(xiǎn)的情況下對(duì)原因進(jìn)行追蹤溯源,人工智能系統(tǒng)使用者組織需要保存相關(guān)的數(shù)據(jù)集、數(shù)據(jù)使用處理方式、程序代碼、算法訓(xùn)練方法和系統(tǒng)驗(yàn)證管理文件等,并建立及時(shí)有效的用戶投訴處理機(jī)制。

(四)提升技術(shù)性方案在人工智能系統(tǒng)風(fēng)險(xiǎn)管控中的基礎(chǔ)性作用

構(gòu)建技術(shù)合規(guī)治理體系。人工智能程序設(shè)計(jì)是安全的基礎(chǔ),為此需要強(qiáng)化人工智能程序設(shè)計(jì)環(huán)節(jié)的治理,確保人工智能算法設(shè)計(jì)遵守基本的治理原則,即采取“通過(guò)技術(shù)設(shè)計(jì)來(lái)合規(guī)”的治理路徑,將安全、倫理責(zé)任嵌入到人工智能算法的程序代碼設(shè)計(jì)中,增強(qiáng)人工智能的彈性和抗攻擊能力,最小化各種可能的風(fēng)險(xiǎn)。人工智能系統(tǒng)設(shè)計(jì)應(yīng)避免狹窄的技術(shù)視野,強(qiáng)化人工智能框架設(shè)計(jì)和程序開(kāi)發(fā)中的倫理責(zé)任,強(qiáng)化技術(shù)倫理審查。為了更好地實(shí)現(xiàn)技術(shù)合規(guī),政府監(jiān)管部門、行業(yè)協(xié)會(huì)或私人企業(yè)等主體應(yīng)共同制定可信人工智能技術(shù)標(biāo)準(zhǔn)并加以實(shí)施。

強(qiáng)化技術(shù)性應(yīng)對(duì)方案在人工智能系統(tǒng)風(fēng)險(xiǎn)防控中的基礎(chǔ)性作用。人工智能系統(tǒng)的風(fēng)險(xiǎn)屬于技術(shù)創(chuàng)新快速發(fā)展所帶來(lái)的風(fēng)險(xiǎn),本質(zhì)上屬于技術(shù)不完善和技術(shù)治理體系滯后所帶來(lái)的風(fēng)險(xiǎn)。為此,應(yīng)通過(guò)不斷強(qiáng)化人工智能系統(tǒng)的技術(shù)創(chuàng)新來(lái)提供安全、可信的人工智能系統(tǒng)。因此,需要堅(jiān)持以技術(shù)創(chuàng)新來(lái)保證技術(shù)安全可信的治理路徑,聚焦于通過(guò)技術(shù)開(kāi)發(fā)來(lái)提高人工智能系統(tǒng)的安全性、可解釋性、隱私保護(hù)、公平與公正性等,從而為構(gòu)建安全可信的人工智能系統(tǒng)提供堅(jiān)實(shí)的技術(shù)支撐。

構(gòu)建人工智能創(chuàng)新促進(jìn)體系來(lái)實(shí)現(xiàn)以創(chuàng)新促進(jìn)人工智能安全可信性。優(yōu)化人工智能監(jiān)管治理要營(yíng)建更為確定的人工智能發(fā)展政策環(huán)境和更為信任的系統(tǒng)應(yīng)用生態(tài)體系,完善人工智能技術(shù)創(chuàng)新和商業(yè)模式創(chuàng)新體系,形成鼓勵(lì)創(chuàng)新的政策環(huán)境,從而更好地促進(jìn)人工智能的創(chuàng)新發(fā)展。為更好協(xié)調(diào)人工智能系統(tǒng)可信、安全與創(chuàng)新發(fā)展的關(guān)系,可以采用“監(jiān)管沙箱”等實(shí)驗(yàn)性或試點(diǎn)性政策工具,以政策創(chuàng)新來(lái)激勵(lì)技術(shù)創(chuàng)新。

猜你喜歡
使用者監(jiān)管人工智能
綜合監(jiān)管=兜底的網(wǎng)?
2019:人工智能
人工智能與就業(yè)
新型拼插休閑椅,讓人與人的距離更近
數(shù)讀人工智能
抓拍神器
下一幕,人工智能!
監(jiān)管和扶持并行
放開(kāi)價(jià)格后的監(jiān)管
他汀或增肌肉骨骼不良反應(yīng)