国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

以風(fēng)險(xiǎn)為基礎(chǔ)的人工智能治理

2024-01-18 18:07:21陳吉棟
法治研究 2023年5期
關(guān)鍵詞:規(guī)制人工智能系統(tǒng)

陳吉棟

一直以來(lái),人工智能法律研究在治理法與責(zé)任法之間游移,未能正確處理人工智能法律制度展開(kāi)的邏輯起點(diǎn)——風(fēng)險(xiǎn)及其治理理論研究與風(fēng)險(xiǎn)分配規(guī)范設(shè)計(jì)。以風(fēng)險(xiǎn)為基礎(chǔ)的治理(risk-based regulation)是人工智能法研究的起點(diǎn)。基于風(fēng)險(xiǎn)的治理要解決的問(wèn)題是在何種程度上和以何種方式可以治理和減少風(fēng)險(xiǎn)。①See van der Heijden,Jeroen (2019).Risk governance and risk-based regulation: A review of the international academic literature.State of the Art in Regulatory Governance Research Paper -2019.02.Wellington: Victoria University of Wellington/Government Regulatory Practice Initiative.p.4.如何治理風(fēng)險(xiǎn),并且進(jìn)行規(guī)范設(shè)計(jì),一直是困擾人工智能立法探索的卡脖子難題。在上海市、深圳經(jīng)濟(jì)特區(qū)地方立法作出了相關(guān)探索后,2023 年4 月11 日,國(guó)家互聯(lián)網(wǎng)信息辦公室發(fā)布了《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》試圖對(duì)生成式人工智能(GAI)風(fēng)險(xiǎn)分配進(jìn)行破題。在這種背景下,重提“風(fēng)險(xiǎn)”似乎是人工智能的法律研究導(dǎo)入正確邏輯的前提。從風(fēng)險(xiǎn)角度展開(kāi)討論,需要將人工智能系統(tǒng)研發(fā)與應(yīng)用風(fēng)險(xiǎn)的認(rèn)知作為起點(diǎn),將風(fēng)險(xiǎn)如何影響治理作為過(guò)程,本質(zhì)上是從恢復(fù)過(guò)去的損害轉(zhuǎn)向防止損害的發(fā)生,邏輯終點(diǎn)則是風(fēng)險(xiǎn)治理與民事責(zé)任的溝通,如此構(gòu)建以風(fēng)險(xiǎn)為基礎(chǔ)的人工智能法律治理體系。限于篇幅,文章在分析風(fēng)險(xiǎn)分級(jí)的基礎(chǔ)上,梳理立法進(jìn)展,引入“規(guī)制空間”理論,提出并論證人工智能治理制度展開(kāi)的要點(diǎn)與邏輯。

一、GAI 風(fēng)險(xiǎn)的具體種類及其風(fēng)險(xiǎn)挑戰(zhàn)

GAI 本質(zhì)上仍是人工智能系統(tǒng)(AI System)之一。對(duì)其分析仍然需要遵循數(shù)據(jù)、算法、算力與智能體(agent)的基本邏輯。如一切人工智能系統(tǒng)一樣,GAI(如ChatGPT)輸出結(jié)果的過(guò)程,需要大量的數(shù)據(jù)作為支撐,通過(guò)大量的計(jì)算資源來(lái)計(jì)算的過(guò)程,其背后仍然是一個(gè)數(shù)學(xué)模型。計(jì)算量、數(shù)據(jù)量與語(yǔ)言模型的方法上的優(yōu)勢(shì),僅使其可以更快速地計(jì)算出更為準(zhǔn)確的概率。GAI 與決策式/分析式人工智能(Discriminant/Analytical AI)不同,在根據(jù)既有數(shù)據(jù)集執(zhí)行任務(wù)之外,還能通過(guò)學(xué)習(xí)數(shù)據(jù)中的聯(lián)合概率分布,創(chuàng)造出全新的內(nèi)容。然而,無(wú)論是在法學(xué)還是在倫理學(xué)的既有理論中,似乎缺少了觀察生成式人工智能及其風(fēng)險(xiǎn)的理論與方法,因此對(duì)其風(fēng)險(xiǎn)開(kāi)展治理,設(shè)計(jì)一個(gè)涵蓋法律與倫理在內(nèi)的綜合框架成為較主流的選擇,但這注定將是一項(xiàng)任重道遠(yuǎn)的工作。

依據(jù)已有的觀察,GAI 風(fēng)險(xiǎn)大致有如下類型。除了個(gè)人信息侵害與隱私泄露風(fēng)險(xiǎn),更為顯著的風(fēng)險(xiǎn)是真實(shí)性風(fēng)險(xiǎn)、偏見(jiàn)與歧視風(fēng)險(xiǎn)與主體依賴風(fēng)險(xiǎn)等。其一,真實(shí)性風(fēng)險(xiǎn)。人工智能生成內(nèi)容的真實(shí)性與準(zhǔn)確性無(wú)從保證。虛假信息的不當(dāng)應(yīng)用進(jìn)一步導(dǎo)致傷害與責(zé)任歸屬問(wèn)題。在此背景下,法律很難區(qū)分不同風(fēng)險(xiǎn)的承擔(dān)?!渡墒饺斯ぶ悄芊?wù)管理辦法(征求意見(jiàn)稿)》第5 條規(guī)定:利用生成式人工智能產(chǎn)品提供聊天和文本、圖像、聲音生成等服務(wù)的組織和個(gè)人,承擔(dān)該產(chǎn)品生成內(nèi)容生產(chǎn)者的責(zé)任。但該辦法第16 條也規(guī)定:提供者應(yīng)當(dāng)按照《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》對(duì)生成的圖片、視頻等內(nèi)容進(jìn)行標(biāo)識(shí)。其二,偏見(jiàn)與歧視問(wèn)題。生成式人工智能所使用的訓(xùn)練數(shù)據(jù)來(lái)自人類社會(huì),因此它也有可能繼承人類社會(huì)中的固有歧視因素。其三,主體依賴風(fēng)險(xiǎn)。這里的依賴風(fēng)險(xiǎn)包括兩個(gè)方面:一是對(duì)GAI 的功能依賴。二是對(duì)GAI 產(chǎn)生情感依賴。盡管用戶明確知道ChatGPT 這種交互式對(duì)話機(jī)器人并非真人,仍可能將其作為人類對(duì)待并產(chǎn)生依賴,陷入情感迷失和混亂,遠(yuǎn)離現(xiàn)實(shí)世界的人際交往,從而影響個(gè)體社會(huì)情感與交往能力的培養(yǎng)。

面對(duì)人工智能復(fù)雜難知的風(fēng)險(xiǎn),監(jiān)管機(jī)構(gòu)多基于風(fēng)險(xiǎn)的治理理念,制定風(fēng)險(xiǎn)治理的制度框架評(píng)估與降低風(fēng)險(xiǎn)。許多國(guó)家的監(jiān)管機(jī)構(gòu)越來(lái)越傾向于采用“基于風(fēng)險(xiǎn)”的策略進(jìn)行治理。②See Black,Julia,and Robert Baldwin."Really responsive risk-based regulation." Law &policy 32.2 (2010): 181-213.這一治理框架在食品安全、醫(yī)藥、環(huán)境治理等領(lǐng)域顯示出了豐富的內(nèi)涵。③例如,在金融領(lǐng)域中,對(duì)于風(fēng)險(xiǎn)及其分級(jí)監(jiān)管并非人工智能或者技術(shù)治理的首創(chuàng),在金融領(lǐng)域也有所應(yīng)用。資本框架即以風(fēng)險(xiǎn)為中心,因?yàn)椴煌幕顒?dòng)造成不同的損失可能性,資本制度應(yīng)調(diào)整要求以考慮到具體活動(dòng)的風(fēng)險(xiǎn),分層因此成為重要的風(fēng)險(xiǎn)防控原則。面對(duì)人工智能的這些風(fēng)險(xiǎn)特征,構(gòu)建全生命周期分層的監(jiān)管成為立法的主流選擇。如,在歐盟高風(fēng)險(xiǎn)人工智能系統(tǒng)獲得市場(chǎng)批準(zhǔn)后,歐盟和成員國(guó)層面的當(dāng)局將負(fù)責(zé)市場(chǎng)監(jiān)督,終端用戶確保監(jiān)控和人工監(jiān)督,而提供商則應(yīng)建設(shè)一個(gè)上市后監(jiān)控系統(tǒng),供應(yīng)商和用戶也會(huì)報(bào)告嚴(yán)重事故和故障。如此就形成了一個(gè)覆蓋上游和下游全生命周期的監(jiān)管體系。此外,自然人也能夠監(jiān)督高風(fēng)險(xiǎn)人工智能系統(tǒng),這被稱為人工監(jiān)督要求。針對(duì)人工智能更新、流變的創(chuàng)新設(shè)計(jì),則形成了進(jìn)入市場(chǎng)以后的監(jiān)督。

二、風(fēng)險(xiǎn)分級(jí)及其在歐盟人工智能法上的實(shí)踐

人類社會(huì)對(duì)于風(fēng)險(xiǎn)的認(rèn)知以及對(duì)于風(fēng)險(xiǎn)監(jiān)管的認(rèn)知經(jīng)過(guò)了長(zhǎng)期的變化過(guò)程?,F(xiàn)階段,一般將風(fēng)險(xiǎn)監(jiān)管定義為:“以證據(jù)為基礎(chǔ)的手段,根據(jù)一個(gè)透明的、系統(tǒng)的和可以辯護(hù)的框架,有針對(duì)性地使用資源和優(yōu)先關(guān)注最高風(fēng)險(xiǎn)?!雹蹷lack,J.,&Baldwin,R.(2010).Really responsive risk-based regulation.Law and Policy,32(2),186.這種對(duì)于風(fēng)險(xiǎn)的功利主義理解,被越來(lái)越多的政策制定者接受。

歐盟委員會(huì)提出了世界上第一個(gè)《關(guān)于制定人工智能的統(tǒng)一規(guī)則(人工智能法)并修正某些歐盟立法文件的提案》(簡(jiǎn)稱《歐盟人工智能法提案》,the AI ACT,AIA)。當(dāng)?shù)貢r(shí)間5 月11 日,歐洲議會(huì)發(fā)表聲明,議會(huì)內(nèi)部市場(chǎng)委員會(huì)和公民自由委員會(huì)通過(guò)了AIA 的談判授權(quán)草案。試圖在促進(jìn)產(chǎn)業(yè)發(fā)展的同時(shí),減輕或防止人工智能技術(shù)使用的風(fēng)險(xiǎn),推動(dòng)人工智能可信,完善人工智能生態(tài),并使歐洲在全球人工智能監(jiān)管中發(fā)揮領(lǐng)導(dǎo)作用,為此提出了基于風(fēng)險(xiǎn)的分級(jí)監(jiān)管方案。AIA 結(jié)合“風(fēng)險(xiǎn)金字塔”的風(fēng)險(xiǎn)理論方法與分層執(zhí)行機(jī)制,設(shè)計(jì)了基于風(fēng)險(xiǎn)的分級(jí)監(jiān)管框架。依據(jù)風(fēng)險(xiǎn)金字塔的理論,沒(méi)有無(wú)風(fēng)險(xiǎn)的人工智能系統(tǒng),大多數(shù)人工智能系統(tǒng)構(gòu)成的風(fēng)險(xiǎn)有限,應(yīng)支持其應(yīng)用幫助解決社會(huì)問(wèn)題,但必需解決這些風(fēng)險(xiǎn)以避免不良后果。在這一考量下,對(duì)風(fēng)險(xiǎn)進(jìn)行分類分級(jí)成為可欲的選擇。針對(duì)不同層級(jí)的風(fēng)險(xiǎn),設(shè)計(jì)不同的規(guī)則。AIA將人工智能系統(tǒng)相關(guān)的風(fēng)險(xiǎn)區(qū)分為不可接受的風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)、有限風(fēng)險(xiǎn)和較低或者最低限度的風(fēng)險(xiǎn)四級(jí),法律應(yīng)對(duì)策略分別為“禁止”、“事前合格性評(píng)定和認(rèn)證標(biāo)志”、信息披露和無(wú)義務(wù)。風(fēng)險(xiǎn)可以忽略不計(jì)的AI系統(tǒng)應(yīng)設(shè)計(jì)較輕的法律制度,而風(fēng)險(xiǎn)不可接受的人工智能系統(tǒng)將被法律禁止。在這兩個(gè)極端之間,隨著風(fēng)險(xiǎn)的增加,規(guī)則設(shè)計(jì)愈發(fā)嚴(yán)格。從附有行為準(zhǔn)則的非約束性自我監(jiān)管、軟法影響評(píng)估,到整個(gè)應(yīng)用程序生命周期皆需經(jīng)過(guò)外部審計(jì)的嚴(yán)格合規(guī)性要求。在這一制度設(shè)計(jì)下,如果提供者提供人工智能系統(tǒng),首要問(wèn)題是根據(jù)AIA 中確定的風(fēng)險(xiǎn)水平,確定其應(yīng)采取的行動(dòng)(義務(wù))。

不可接受的風(fēng)險(xiǎn)表示最高風(fēng)險(xiǎn)類別,這些系統(tǒng)被徹底禁止。包括:(1)實(shí)時(shí)生物識(shí)別系統(tǒng);⑤這種情況也有例外,適用于執(zhí)法和國(guó)家安全背景下的犯罪預(yù)防和刑事調(diào)查。(2)社交評(píng)分算法;(3)操縱系統(tǒng)利用特定個(gè)人的弱點(diǎn)。

AIA 并未對(duì)高風(fēng)險(xiǎn)進(jìn)行界定,⑥此點(diǎn)與《數(shù)字服務(wù)法》(Digital Service Act)和《數(shù)字市場(chǎng)法》有很大不同。而是采取了由官方直接列舉的風(fēng)險(xiǎn)種類,為此編制了一個(gè)動(dòng)態(tài)調(diào)整的高風(fēng)險(xiǎn)人工智能目錄。⑦高風(fēng)險(xiǎn)人工智能系統(tǒng)列于附錄III。如果一種風(fēng)險(xiǎn)不屬于禁止性風(fēng)險(xiǎn),又符合如下特征,就是高風(fēng)險(xiǎn)。⑧其中包括:(1)對(duì)自然人進(jìn)行生物識(shí)別和分類;(2)關(guān)鍵基礎(chǔ)設(shè)施的管理和運(yùn)營(yíng);(3)教育和職業(yè)培訓(xùn),如用于評(píng)估教育環(huán)境中的學(xué)生或分配人員進(jìn)行培訓(xùn)的人工智能系統(tǒng);(4)就業(yè)和工人管理,如用于招聘或評(píng)估員工的人工智能系統(tǒng),包括晉升、績(jī)效管理和解雇等問(wèn)題;(5)獲得基本服務(wù),如管理私營(yíng)和公共部門服務(wù)和相關(guān)行動(dòng)的人工智能系統(tǒng),包括信譽(yù)評(píng)估、信用評(píng)分或確定獲得此類服務(wù)的優(yōu)先順序;(6)執(zhí)法,包括廣泛的人工智能系統(tǒng),例如,用于評(píng)估任何個(gè)人實(shí)施犯罪或再次犯罪的風(fēng)險(xiǎn);預(yù)測(cè)刑事犯罪的可能性,以及檢測(cè)和調(diào)查欺詐性內(nèi)容;(7)邊境管制管理,包括用于控制和管理邊境、移民和庇護(hù)程序的人工智能系統(tǒng);(8)司法管理和民主程序,包括通過(guò)評(píng)估和解釋事實(shí)和/或針對(duì)事實(shí)提出法律建議來(lái)協(xié)助司法程序的任何人工智能系統(tǒng)。高風(fēng)險(xiǎn)人工智能系統(tǒng)構(gòu)成人工智能系統(tǒng)的大多數(shù),是AIA 整個(gè)制度設(shè)計(jì)的核心。按照AIA 的規(guī)定,在高風(fēng)險(xiǎn)人工智能系統(tǒng)進(jìn)入市場(chǎng)之前,應(yīng)該完成四個(gè)步驟。(1)進(jìn)行內(nèi)部事前人工智能影響評(píng)估和遵守由包容性多學(xué)科團(tuán)隊(duì)監(jiān)督的行為準(zhǔn)則。(2)經(jīng)過(guò)合規(guī)評(píng)估,并在其生命周期內(nèi)持續(xù)符合歐盟人工智能法案中規(guī)定的人工智能要求。對(duì)于某些系統(tǒng),外部認(rèn)證機(jī)構(gòu)將參與合格評(píng)定審核。這一動(dòng)態(tài)過(guò)程確保了基準(zhǔn)測(cè)試、監(jiān)控和驗(yàn)證。此外,在改變高風(fēng)險(xiǎn)人工智能系統(tǒng)的情況下,必須重復(fù)步驟(2)。(3)在專門為高風(fēng)險(xiǎn)人工智能系統(tǒng)所建設(shè)的歐盟數(shù)據(jù)庫(kù)完成注冊(cè)。(4)必須簽署符合性聲明,高風(fēng)險(xiǎn)人工智能系統(tǒng)必須帶有CE 標(biāo)志。

AIA 中的第52 條要求提供者向用戶表明他們正在與人工智能系統(tǒng)交互和/或正在被提供人工生成的內(nèi)容。以此允許用戶作出明智的選擇,是否與人工智能系統(tǒng)及其可能生成的內(nèi)容進(jìn)行交互。透明義務(wù)意在保護(hù)人們知道是否以及何時(shí)與機(jī)器的算法而不是人類進(jìn)行交互的權(quán)利。直接與人類互動(dòng)的人工智能系統(tǒng)(聊天機(jī)器人、情感識(shí)別、生物特征分類和內(nèi)容生成系統(tǒng))的提供商,需要遵守一定的透明度義務(wù),唯一免除這些透明度義務(wù)的是最小風(fēng)險(xiǎn)人工智能系統(tǒng)。

低風(fēng)險(xiǎn)人工智能系統(tǒng)包括既不使用個(gè)人數(shù)據(jù)也不做出可能直接或間接影響任何個(gè)人的預(yù)測(cè)系統(tǒng)。此外,在獨(dú)立人工智能系統(tǒng)之外,還需要關(guān)注嵌入式人工智能系統(tǒng),所謂嵌入,即指這些人工智能的部分僅是其他歐盟法規(guī)涵蓋的產(chǎn)品或服務(wù)的組件,如玩具或醫(yī)療設(shè)備。雖然這些系統(tǒng)不屬于AIA,但是它們?nèi)匀槐仨毞螦IA 在協(xié)調(diào)指令下規(guī)定的要求。對(duì)于未被禁止的人工智能系統(tǒng),當(dāng)其風(fēng)險(xiǎn)較低且不在現(xiàn)有部門法規(guī)的涵蓋范圍內(nèi),將適用“高風(fēng)險(xiǎn)人工智能系統(tǒng)”的規(guī)則。這些系統(tǒng)必須經(jīng)過(guò)符合性評(píng)估。不過(guò),合格評(píng)定可以不同方式進(jìn)行。例如,一些人工智能系統(tǒng)是消費(fèi)產(chǎn)品的一部分,這些產(chǎn)品在投放市場(chǎng)之前已經(jīng)經(jīng)過(guò)了測(cè)試和認(rèn)證(如醫(yī)療設(shè)備)。對(duì)于這些嵌入式人工智能系統(tǒng),不需要額外的合格評(píng)定程序。取而代之的是,AIA 中規(guī)定的要求將被納入現(xiàn)有特定部門的安全立法。

三、風(fēng)險(xiǎn)分級(jí)的來(lái)源與風(fēng)險(xiǎn)治理理論的提出

(一)“巨石疑案”與分級(jí)治理的前提

Jervan der Heijden 以“巨石”設(shè)問(wèn)演示了風(fēng)險(xiǎn)問(wèn)題的復(fù)雜性。一塊可能從懸崖上掉下來(lái)的巨石是否總是構(gòu)成風(fēng)險(xiǎn),還是只有當(dāng)它可能損害或破壞對(duì)人類有價(jià)值的東西時(shí)才構(gòu)成風(fēng)險(xiǎn)?為了估計(jì)風(fēng)險(xiǎn),僅僅知道巨石墜落的客觀概率就夠了,還是需要其他形式的知識(shí)(例如,巨石墜落的政治和社會(huì)后果)?誰(shuí)的知識(shí)將被用于這種估計(jì)——專業(yè)的巨石專家的知識(shí),直接受巨石墜落影響的人類的知識(shí),其他人的知識(shí),或所有這些人的知識(shí)的組合?

這些設(shè)問(wèn)涉及風(fēng)險(xiǎn)的本體論、認(rèn)識(shí)論與評(píng)估,對(duì)于這些問(wèn)題的解答揭示了風(fēng)險(xiǎn)認(rèn)知的建構(gòu)主義與實(shí)在主義的強(qiáng)烈矛盾。解析“巨石疑案”,有助于我們了解風(fēng)險(xiǎn)理論的基本特征。對(duì)風(fēng)險(xiǎn)的本體問(wèn)題,建構(gòu)論雖然認(rèn)為巨石墜落的危險(xiǎn)是真實(shí)的,但存在于人類的感知中;實(shí)在論則認(rèn)為風(fēng)險(xiǎn)是世界的一種狀態(tài),無(wú)論特定的風(fēng)險(xiǎn)是否被人類體驗(yàn)到,風(fēng)險(xiǎn)都是真實(shí)的。在風(fēng)險(xiǎn)的認(rèn)識(shí)問(wèn)題上,建構(gòu)論認(rèn)為風(fēng)險(xiǎn)及其后果只能被主觀地認(rèn)識(shí),對(duì)風(fēng)險(xiǎn)的認(rèn)識(shí)是一個(gè)社會(huì)過(guò)程;實(shí)在論則認(rèn)為風(fēng)險(xiǎn)發(fā)生的概率以及其后果可以被客觀地了解、描繪,因此可以被治理和監(jiān)管。在風(fēng)險(xiǎn)的評(píng)估上,還原主義認(rèn)為風(fēng)險(xiǎn)估計(jì)只應(yīng)依靠由專家和專業(yè)人員收集的定量的技術(shù)知識(shí)以及經(jīng)濟(jì)效益-成本分析;系統(tǒng)性方法則認(rèn)為除了這些硬數(shù)據(jù)和知識(shí),還有其他形式的數(shù)據(jù)和知識(shí)(非專業(yè)人士或政策制定者對(duì)風(fēng)險(xiǎn)或?qū)︼L(fēng)險(xiǎn)發(fā)生時(shí)的非經(jīng)濟(jì)影響的看法)。⑨See van der Heijden,Jeroen (2019).Risk governance and risk-based regulation: A review of the international academic literature.State of the Art in Regulatory Governance Research Paper -2019.02.Wellington: Victoria University of Wellington/Government Regulatory Practice Initiative.雖然爭(zhēng)議很大,但在風(fēng)險(xiǎn)理論的研究中,研究者也多兼采兩者,如貝克即認(rèn)為,只要這些理論有助于理解我們所處的風(fēng)險(xiǎn)社會(huì)中復(fù)雜又矛盾的風(fēng)險(xiǎn)本質(zhì)性,便可以同時(shí)使用實(shí)在論和建構(gòu)論。⑩[德]烏爾里?!へ惪恕对僬勶L(fēng)險(xiǎn)社會(huì):理論、政治與研究計(jì)劃》,載芭芭拉·亞當(dāng)?shù)染帯讹L(fēng)險(xiǎn)社會(huì)及其超越社會(huì)理論的關(guān)鍵議題》,趙延?xùn)|等譯,北京出版社2005 年版,第321 頁(yè)。

與理論的激烈爭(zhēng)論不同,在風(fēng)險(xiǎn)管理制度設(shè)計(jì)與實(shí)踐上往往是“僅得乎中”的結(jié)果。因此,雖然人類對(duì)于風(fēng)險(xiǎn)的認(rèn)識(shí)歷經(jīng)長(zhǎng)期演變,但逐漸被認(rèn)可的觀點(diǎn)是,所謂“風(fēng)險(xiǎn)”意味著按照某種概率發(fā)生的不利后果或者損害,因而是可以預(yù)測(cè)和計(jì)算的,屬于人們進(jìn)行選擇和決定之際存在的問(wèn)題。?參見(jiàn)季衛(wèi)東:《決策風(fēng)險(xiǎn)、問(wèn)責(zé)及法律溝通》,載《政法論叢》2016 年第6 期。在這個(gè)意義上,風(fēng)險(xiǎn)雖與“不確定性”(uncertainty)相關(guān),但風(fēng)險(xiǎn)又并非完全的不確定性。因?yàn)椴淮_定性是反映出物及其發(fā)展過(guò)程充滿變數(shù)、難以把握的特性。不確定性無(wú)處不在,但在一定時(shí)期內(nèi),有理論認(rèn)為有些概率是可預(yù)測(cè)的,由此區(qū)分為可預(yù)測(cè)的不確定性和完全的不確定性。當(dāng)然,這些認(rèn)識(shí)還可能隨著時(shí)間的推移而改變,對(duì)于風(fēng)險(xiǎn)的新理解已經(jīng)將公共治理的對(duì)象從物質(zhì)和事項(xiàng)轉(zhuǎn)移到了人類行為,治理的模式也從恢復(fù)損害和預(yù)防損害轉(zhuǎn)移到了將公認(rèn)的行為規(guī)范強(qiáng)加給人們并使其內(nèi)化。?See van der Heijden,Jeroen (2019).Risk governance and risk-based regulation: A review of the international academic literature.State of the Art in Regulatory Governance Research Paper -2019.02.Wellington: Victoria University of Wellington/Government Regulatory Practice Initiative.p.8.就人工智能風(fēng)險(xiǎn)而言,主要是指與人工智能風(fēng)險(xiǎn)相關(guān)的技術(shù)未來(lái)狀態(tài)的不穩(wěn)定與無(wú)法確定。因此,對(duì)人工智能風(fēng)險(xiǎn)治理的討論不止于技術(shù)本身,還包括“使用這些工具的人”。?參見(jiàn)[美]卡里·科利亞尼斯:《算法規(guī)制:作為治理工具的機(jī)器學(xué)習(xí)》,孟李冕、宋華琳(譯),載《湖湘法學(xué)評(píng)論》2022 年第2期。不過(guò),人工智能風(fēng)險(xiǎn)屬于技術(shù)風(fēng)險(xiǎn),與自然風(fēng)險(xiǎn)又有不同,因?yàn)樽匀话l(fā)生的風(fēng)險(xiǎn)是不可避免的。?徐旭:《技術(shù)風(fēng)險(xiǎn)認(rèn)識(shí)研究》,東北大學(xué)出版社2022 年版,第8 頁(yè)。技術(shù)風(fēng)險(xiǎn)是一種客觀結(jié)果與主觀認(rèn)知的結(jié)合,是事實(shí)判斷與價(jià)值判斷的綜合體。?毛明芳:《現(xiàn)代技術(shù)風(fēng)險(xiǎn)的系統(tǒng)學(xué)審視》,人民出版社2020 年版,第50 頁(yè)。

然而,面對(duì)復(fù)雜問(wèn)題和監(jiān)管實(shí)踐的動(dòng)態(tài)性,基于風(fēng)險(xiǎn)的治理需要對(duì)受監(jiān)管對(duì)象的行為、制度環(huán)境、監(jiān)管控制的相互作用、監(jiān)管績(jī)效和變化等五個(gè)要素做出反應(yīng)性的監(jiān)管。此外,監(jiān)管機(jī)構(gòu)在不同的監(jiān)管任務(wù)中面臨的挑戰(zhàn)也各不相同,包括檢測(cè)、響應(yīng)開(kāi)發(fā)、執(zhí)法、評(píng)估和修改等方面。因此,對(duì)基于風(fēng)險(xiǎn)的治理進(jìn)行修訂和更細(xì)致入微的理解變得至關(guān)重要。在立法和規(guī)則制定的過(guò)程中,定義清楚治理對(duì)象是一件非常重要的事情,以納米材料為例,David A.Dana 討論了面向風(fēng)險(xiǎn)的適應(yīng)性監(jiān)管的內(nèi)容。?See Dana,David A."Toward risk-based,adaptive regulatory definitions." The Nanotechnology Challenge: Creating Legal Institutions for Uncertain Risks.Cambridge University Press,2011.105-116.Jervan der Heijden 回顧了風(fēng)險(xiǎn)治理以及基于風(fēng)險(xiǎn)監(jiān)管的實(shí)例,為將面向風(fēng)險(xiǎn)的治理方法引入到人工智能安全風(fēng)險(xiǎn)評(píng)估與管控領(lǐng)域提供了啟發(fā)。?See van der Heijden,Jeroen."Risk governance and risk-based regulation: A review of the international academic literature." State of the Art in Regulatory Governance Research Paper Series (2019).總的來(lái)說(shuō),定量評(píng)價(jià)人工智能產(chǎn)品與服務(wù)的安全風(fēng)險(xiǎn)評(píng)估指標(biāo),需要綜合考慮多個(gè)方面的因素,包括AI 的性能、效率、公平性、透明性、可解釋性等,并需要在實(shí)踐中不斷探索和完善。同時(shí),也需要建立一套統(tǒng)一的評(píng)估標(biāo)準(zhǔn)和方法,以便在全球范圍內(nèi)進(jìn)行比較和交流。對(duì)此文章不再予以展開(kāi)。

在人工智能風(fēng)險(xiǎn)治理上,進(jìn)行必要的風(fēng)險(xiǎn)分級(jí)是治理制度設(shè)計(jì)的基點(diǎn)。技術(shù)研發(fā)及其產(chǎn)品生產(chǎn)與應(yīng)用的潛在失敗可能給更廣泛的社會(huì)主體包括企業(yè)和家庭帶來(lái)成本,因此隨著人工智能復(fù)雜性、規(guī)模和互聯(lián)性的增長(zhǎng),監(jiān)管機(jī)構(gòu)通過(guò)更嚴(yán)格的法規(guī)將面臨更高的治理成本。隨著企業(yè)系統(tǒng)重要性的增加,其失敗的社會(huì)成本也在增加。因此,科學(xué)的人工智能治理框架設(shè)計(jì)的重要原則是,該框架必須通過(guò)一個(gè)持續(xù)的過(guò)程來(lái)發(fā)展,吸納可能出現(xiàn)的新風(fēng)險(xiǎn)。“分級(jí)”是一種“定性”分析方法,除上文提到的AIA,還被《通用數(shù)據(jù)保護(hù)條例》(GDPR)所接受。不過(guò),分級(jí)也需要確定風(fēng)險(xiǎn)指標(biāo)進(jìn)行評(píng)分甚至加權(quán)。?[美]道格拉斯·W.哈伯德:《風(fēng)險(xiǎn)管理的失?。簽槭裁词∫约叭绾涡迯?fù)》,中國(guó)金融出版社2021 年版,第25 頁(yè)。

前文對(duì)于“巨石疑案”的解析已經(jīng)顯示,風(fēng)險(xiǎn)僅可在風(fēng)險(xiǎn)發(fā)生時(shí)才可被評(píng)估,且風(fēng)險(xiǎn)的評(píng)估受評(píng)估主體主觀認(rèn)知的影響,如上風(fēng)險(xiǎn)理論所提出的疑問(wèn)是,在立法上對(duì)于風(fēng)險(xiǎn)進(jìn)行預(yù)先的分級(jí)是否是科學(xué)可行的?不過(guò),這種疑慮在對(duì)于實(shí)踐做法的觀察中似乎又有所緩解,原因是實(shí)踐中對(duì)于風(fēng)險(xiǎn)的評(píng)估幾無(wú)例外地采納了分級(jí)的做法。理論上的解釋是,對(duì)于風(fēng)險(xiǎn)進(jìn)行標(biāo)準(zhǔn)化的立法是必要的,原因是鑒于人工智能系統(tǒng)巨大風(fēng)險(xiǎn),迫使立法者基于功利的思想或者“成本-效益”分析,必須對(duì)其進(jìn)行事前的監(jiān)管。而且,對(duì)于風(fēng)險(xiǎn)的事前分級(jí)并未排除具體個(gè)案風(fēng)險(xiǎn)評(píng)估中對(duì)于具體因素的考量。如果將風(fēng)險(xiǎn)的分級(jí)作為治理的基礎(chǔ),這種靈活性還體現(xiàn)在分級(jí)的具體模式上,比如建設(shè)動(dòng)態(tài)調(diào)整的高風(fēng)險(xiǎn)人工智能系統(tǒng)的目錄。

(二)治理理論與風(fēng)險(xiǎn)的交融

對(duì)于人工智能治理框架的整體思考,有必要區(qū)分規(guī)制(Regulation)與治理(Governance)兩個(gè)概念。整體來(lái)看,廣義“規(guī)制”概念與“治理”概念多有重合。狹義上來(lái)說(shuō),規(guī)制是治理的一大領(lǐng)域,是供給(Providing)與分配(Distributing)之外的對(duì)事物與行為的調(diào)控。?See Julia Black,Critical Reflections on Regulation.Australian Journal of Legal Philosophy (2002) 27,1-36.John Braithwaite,Cary Coglianese,David Levi-Faur,Can regulation and governance make a difference? Regulation &Governance (2007) 1,1-7.

1.規(guī)制與治理的分野

“規(guī)制”聚焦于政府或其他主體通過(guò)規(guī)則對(duì)其他主體進(jìn)行控制,而治理尤其是公共治理則聚焦于對(duì)不同主體如何通過(guò)合作來(lái)共同完成公共治理目標(biāo)。與此相關(guān),“規(guī)制法”是事關(guān)如何控制規(guī)制主體使其合法行事的法,包括在其規(guī)則制定、規(guī)制策略選擇等規(guī)制活動(dòng)中應(yīng)當(dāng)受到的合法性控制等;而治理法則是不同主體如何相互合作共同實(shí)現(xiàn)公共任務(wù)的法,包括不同主體設(shè)定共同目標(biāo)、制定與執(zhí)行規(guī)則、相互協(xié)商與合作、分擔(dān)責(zé)任的法律框架等。?參見(jiàn)王瑞雪:《規(guī)制法的體系分析——評(píng)〈規(guī)制、治理與法律:前沿問(wèn)題研究〉》,載章劍生主編《公法研究》第21 卷,浙江大學(xué)出版社2022 年版,第383-395 頁(yè)。對(duì)于人工智能風(fēng)險(xiǎn)的治理,屬于治理法的內(nèi)容。而其治理框架的設(shè)計(jì),也需要借助治理法的基本理論方得以建立。

2.盧曼對(duì)風(fēng)險(xiǎn)的二階觀察及其啟示

當(dāng)我們?cè)噲D對(duì)風(fēng)險(xiǎn)分級(jí)治理進(jìn)行深入探究時(shí),就會(huì)超越風(fēng)險(xiǎn)管理的決策分析,進(jìn)入到法律或者法學(xué)理論對(duì)于風(fēng)險(xiǎn)的理解領(lǐng)域。在法律領(lǐng)域,德國(guó)學(xué)者盧曼對(duì)風(fēng)險(xiǎn)的研究影響深遠(yuǎn),其中風(fēng)險(xiǎn)的事實(shí)與觀察的二階觀察(second-order observation)最富洞見(jiàn)。風(fēng)險(xiǎn)的一階觀察其實(shí)是一個(gè)觀察“什么”的問(wèn)題。對(duì)于一階觀察者來(lái)說(shuō),客觀世界的區(qū)分已經(jīng)被設(shè)定好了,觀察意味著把區(qū)分標(biāo)識(shí)出來(lái),以獲得視覺(jué)、認(rèn)知上的效果。而對(duì)于二階觀察者來(lái)說(shuō),在一開(kāi)始的觀察中,并不存在“那兒有”的想法,世界并未被區(qū)分好,觀察意味著設(shè)定區(qū)分和標(biāo)識(shí)區(qū)分。因此,二階觀察者要觀察的并不是“什么”的問(wèn)題,而是一個(gè)“如何”的問(wèn)題?;蛘哒f(shuō),當(dāng)二階觀察開(kāi)始時(shí),二階觀察者要觀察的就是特定主體作為觀察者的角色,觀察他觀察的方式,也就是觀察他的標(biāo)識(shí)一個(gè)方面,而非區(qū)分是怎樣的。?參見(jiàn)賓凱:《政治系統(tǒng)與法律系統(tǒng)對(duì)于技術(shù)風(fēng)險(xiǎn)的決策觀察》,載《交大法學(xué)》2020 年第1 期;張戍凡:《觀察“風(fēng)險(xiǎn)”何以可能:關(guān)于盧曼〈風(fēng)險(xiǎn):一種社會(huì)學(xué)理論〉的評(píng)述》,載《社會(huì)》2006 年第4 期。在這里,行動(dòng)者自己的一階觀察與把行動(dòng)作為他人決定來(lái)把握的二階觀察會(huì)導(dǎo)致對(duì)決定的風(fēng)險(xiǎn)作出完全不同的評(píng)價(jià);當(dāng)人們清楚地認(rèn)識(shí)到未來(lái)有賴于決定,而決定具有風(fēng)險(xiǎn)時(shí),行動(dòng)者與行動(dòng)評(píng)價(jià)者的視角分歧就會(huì)變得非常大。某種損害產(chǎn)生的可能性,對(duì)決定者而言是可以選擇的風(fēng)險(xiǎn),但對(duì)受決定影響者而言則成為不得不承受的危險(xiǎn)。由此推而論之,一個(gè)決定可以在決定者(行動(dòng)者)與受決定影響者(行動(dòng)評(píng)價(jià)者)之間劃分出鴻溝,也可能產(chǎn)生出潛在的糾紛以及抗議運(yùn)動(dòng)。由于這類鴻溝與矛盾、抗議運(yùn)動(dòng)起因于人們分別作為行動(dòng)者和行動(dòng)評(píng)價(jià)者的不同視角的“二階觀察”,所以在解決這類問(wèn)題時(shí)有必要部分地返回行動(dòng)者、決定者自身的一階觀察層面通過(guò)實(shí)踐進(jìn)行檢驗(yàn),或者在二階觀察的層面通過(guò)信息公開(kāi)和合情合理的說(shuō)明來(lái)加強(qiáng)溝通和相互理解。?同前注⑩。

3.技術(shù)風(fēng)險(xiǎn)治理與風(fēng)險(xiǎn)預(yù)防原則

盧曼的二階觀察與人工智能風(fēng)險(xiǎn)治理的關(guān)系為何?換句話說(shuō),盧曼對(duì)我們的指導(dǎo)為何?答案是,盧曼的風(fēng)險(xiǎn)理論對(duì)人工智能風(fēng)險(xiǎn)的分級(jí)治理的直接啟發(fā),應(yīng)該是科技與法律的結(jié)構(gòu)耦合確實(shí)可用于解釋風(fēng)險(xiǎn)預(yù)防原則。這一點(diǎn)賓凱教授曾作了分析。風(fēng)險(xiǎn)預(yù)防原則(the precautionary principle)的核心內(nèi)容在于,當(dāng)法律系統(tǒng)在面對(duì)將來(lái)的環(huán)境和技術(shù)不確定性所導(dǎo)致的過(guò)量復(fù)雜性時(shí),運(yùn)用科學(xué)技術(shù)方法對(duì)科學(xué)技術(shù)本身進(jìn)行評(píng)價(jià),然后根據(jù)評(píng)估結(jié)果在各種價(jià)值之間進(jìn)行衡量并做出能夠降低環(huán)境風(fēng)險(xiǎn)的決定。簡(jiǎn)言之,風(fēng)險(xiǎn)預(yù)防原則包含最為關(guān)鍵的兩個(gè)要點(diǎn):對(duì)現(xiàn)有科學(xué)在因果關(guān)系上不確定性程度的評(píng)估;對(duì)風(fēng)險(xiǎn)決策所可能導(dǎo)致的損失和收益之間的權(quán)衡。在一定意義上,風(fēng)險(xiǎn)預(yù)防原則可以看成是法律系統(tǒng)與科學(xué)系統(tǒng)相互作用的結(jié)構(gòu)耦合(structure coupling)。法律系統(tǒng)運(yùn)用合法/非法的二元符碼(code)進(jìn)行溝通操作,保證了系統(tǒng)的規(guī)范性和封閉性。法律系統(tǒng)同時(shí)運(yùn)用“如果……那么……”的程式(programme)對(duì)外部刺激保持認(rèn)知性和開(kāi)放性。例如,科學(xué)系統(tǒng)在環(huán)境保護(hù)中所扮演的重要角色,就是通過(guò)程式進(jìn)入到法律系統(tǒng),并把法律系統(tǒng)外部的刺激帶進(jìn)法律系統(tǒng)內(nèi)部,以維持法律系統(tǒng)對(duì)外部的認(rèn)知性,也即從系統(tǒng)的環(huán)境中學(xué)習(xí)的能力。?參見(jiàn)賓凱:《政治系統(tǒng)與法律系統(tǒng)對(duì)于技術(shù)風(fēng)險(xiǎn)的決策觀察》,載《交大法學(xué)》2020 年第1 期。經(jīng)過(guò)這樣的雙重計(jì)算,人類社會(huì)就可以對(duì)風(fēng)險(xiǎn)預(yù)先進(jìn)行干預(yù)。當(dāng)然,風(fēng)險(xiǎn)預(yù)防原則并非法律系統(tǒng)應(yīng)對(duì)未來(lái)不確定性的唯一工具,風(fēng)險(xiǎn)評(píng)估和風(fēng)險(xiǎn)防治也是工具箱中的備選項(xiàng)。比如,環(huán)境影響評(píng)估就是一項(xiàng)被廣為接受的法律工具。歐盟指令就包含了對(duì)公用或私人所涉及的環(huán)境項(xiàng)目的影響性評(píng)估。另外,責(zé)任也是風(fēng)險(xiǎn)應(yīng)對(duì)的一種工具。先放下責(zé)任問(wèn)題,單就風(fēng)險(xiǎn)預(yù)防問(wèn)題而言,正是疏通了預(yù)防原則,才能使得對(duì)人工智能分級(jí)治理有了更為堅(jiān)實(shí)的理論基礎(chǔ)。當(dāng)然,盧曼的二階觀察理論也支撐了上文對(duì)于現(xiàn)代技術(shù)風(fēng)險(xiǎn)包含人的認(rèn)知與價(jià)值判斷的觀點(diǎn)。這為將盧曼的二段觀察納入風(fēng)險(xiǎn)理論,尤其是現(xiàn)代技術(shù)風(fēng)險(xiǎn)理論內(nèi)部,構(gòu)建現(xiàn)代技術(shù)風(fēng)險(xiǎn)理論體系(包括風(fēng)險(xiǎn)分級(jí))提供了可能。換句話說(shuō),現(xiàn)代技術(shù)風(fēng)險(xiǎn)具有了融通內(nèi)外的特性,具有超越盧曼二階理論傳統(tǒng)理解的特質(zhì)。

四、規(guī)制空間的引入及其應(yīng)用

(一)規(guī)制資源與規(guī)制空間建設(shè)的基本邏輯

“規(guī)制空間”(Regulatory Space)理論被用以觀察規(guī)制權(quán)威的分散,是對(duì)規(guī)制權(quán)力擴(kuò)張的一種更為具體的解釋方案。?參見(jiàn)[英]科林·斯科特:《規(guī)制、治理與法律:前沿問(wèn)題研究》,安永康譯,宋華琳校,清華大學(xué)出版社2018 年版,第31 頁(yè)。在規(guī)制領(lǐng)域,控制的核心問(wèn)題在于關(guān)鍵規(guī)制資源的碎片化。規(guī)制空間隱喻的核心觀點(diǎn)認(rèn)為,要占有規(guī)制權(quán)并有能力實(shí)施規(guī)制,需要有相關(guān)的資源,而資源呈現(xiàn)分化或碎片化的樣態(tài)。這些資源不限于由立法或合同演化出的正式國(guó)家權(quán)力,還包括信息、財(cái)富和組織方面的能力。這些資源分散于各種政府主體之間以及政府與非政府主體之間。被規(guī)制企業(yè)可以結(jié)合其擁有的信息與組織方面的能力,獲取相當(dāng)大的非正式權(quán)力,這種權(quán)力甚至能對(duì)規(guī)則的形成或?qū)嵤┙Y(jié)果產(chǎn)生重大影響。換言之,這種因占有關(guān)鍵資源而獲取的能力,未必以科層制的方式運(yùn)作于規(guī)制空間之中,規(guī)制者未必凌駕于被規(guī)制者之上。在規(guī)制空間中,不僅同時(shí)存在規(guī)制者與被規(guī)制者,還存在很多其他政府與非政府主體,這些主體在不同程度上分享著規(guī)制資源。并且在各主體之間橫向存在著復(fù)雜多變的關(guān)系,彼此相互依賴、相互協(xié)商。?同上注。

有效的規(guī)制是規(guī)制空間內(nèi)各主體所擁有的資源、價(jià)值觀及其之間的關(guān)系相互作用的產(chǎn)物。制度設(shè)計(jì)或者規(guī)制改革自然應(yīng)當(dāng)關(guān)注各個(gè)主體并使其發(fā)揮潛力,在事實(shí)上形成政府主體之間的分權(quán),以及政府與非政府主體之間的分權(quán)。這種分析促使我們質(zhì)疑規(guī)制者在規(guī)則制定與執(zhí)行過(guò)程中做出專業(yè)化、技術(shù)性決定的能力,使得我們更加關(guān)注能以怎樣的程序在規(guī)制空間中形成和塑造多元化、相互交疊的權(quán)力。?同前注?,第51 頁(yè)。調(diào)整各規(guī)制者所承擔(dān)職能之間的關(guān)系,可以間接地改變規(guī)制空間內(nèi)規(guī)制主體的視角,規(guī)制空間中的行為也會(huì)發(fā)生相應(yīng)改變。?同前注?,第52 頁(yè)。為此需要形成“規(guī)制空間內(nèi)部的動(dòng)態(tài)變化”。?同前注?,第53 頁(yè)。該理論所提出的解釋方案,實(shí)際上是認(rèn)為規(guī)制能力、規(guī)制角色與規(guī)制責(zé)任之間互為因果關(guān)系,有循環(huán)論證之嫌。但其洞見(jiàn)仍對(duì)我們理解廣義規(guī)制概念極有助益,提醒我們不僅公權(quán)力可以產(chǎn)生高權(quán)關(guān)系,私人主體基于信息、財(cái)富與組織能力亦有可能成為規(guī)制過(guò)程中的權(quán)威。

除此之外,規(guī)制權(quán)威的分散化,使得在規(guī)制空間內(nèi)各主體之間形成了可協(xié)商的相互依存的關(guān)系。與資源分散這個(gè)主題相關(guān)的是,規(guī)制空間觀念還鼓勵(lì)我們重新考慮可問(wèn)責(zé)性(accountablity)的性質(zhì),并將其同民主控制與規(guī)制復(fù)活等議題相聯(lián)系。?同前注?,第40 頁(yè)。限于本文的論證主題與篇幅,不再討論這一問(wèn)題。

治理者在風(fēng)險(xiǎn)治理中面臨的一個(gè)挑戰(zhàn)是:他們可能會(huì)在事情平靜的時(shí)候被批評(píng)得過(guò)于嚴(yán)厲,而在風(fēng)險(xiǎn)已經(jīng)實(shí)現(xiàn)的時(shí)候又過(guò)于松懈。換句話說(shuō),風(fēng)險(xiǎn)監(jiān)管的增長(zhǎng)可能會(huì)給政府帶來(lái)合法性問(wèn)題:如果它試圖解決的問(wèn)題沒(méi)有發(fā)生,它如何能證明其有效性?這樣就導(dǎo)致了監(jiān)管者高度依賴第三方評(píng)估及對(duì)其問(wèn)責(zé)的問(wèn)題?;蛟S正是由于問(wèn)責(zé)制,提高風(fēng)險(xiǎn)治理制度的開(kāi)放性成為努力方向。?See van der Heijden,Jeroen (2019).Risk governance and risk-based regulation: A review of the international academic literature.State of the Art in Regulatory Governance Research Paper -2019.02.Wellington: Victoria University of Wellington/Government Regulatory Practice Initiative.p.23-24.

(二)構(gòu)建以技術(shù)為基礎(chǔ)的風(fēng)險(xiǎn)治理框架

由規(guī)制空間理論觀察對(duì)于人工智能風(fēng)險(xiǎn)的治理,正在形成一個(gè)“金字塔結(jié)構(gòu)”,從塔底到塔尖依次是技術(shù)及其標(biāo)準(zhǔn)、商業(yè)模式、倫理準(zhǔn)則與法律。尤其是在法律3.0 的視角下,本來(lái)作為治理對(duì)象的技術(shù),所發(fā)揮的基礎(chǔ)治理作用越發(fā)被人重視。就風(fēng)險(xiǎn)監(jiān)管而言,促進(jìn)技術(shù)向生態(tài)化、人文化轉(zhuǎn)變具有基礎(chǔ)作用。此外技術(shù)上的努力至少包括對(duì)風(fēng)險(xiǎn)的預(yù)警、評(píng)測(cè)(量化處理)等方面。這需要在具體應(yīng)用場(chǎng)景中發(fā)展具體的標(biāo)準(zhǔn)與實(shí)驗(yàn)方法。就實(shí)驗(yàn)方法而言,目前國(guó)家網(wǎng)信辦正在推動(dòng)的人工智能社會(huì)實(shí)驗(yàn)廣受關(guān)注。

在倫理與法律的雙螺旋中,倫理是綜合監(jiān)管制度設(shè)計(jì)的基準(zhǔn)與底線。GAI 的開(kāi)發(fā)與應(yīng)用作為人類科技實(shí)踐活動(dòng),應(yīng)當(dāng)與人的目的相一致,與社會(huì)核心價(jià)值、發(fā)展目標(biāo)相契合。為此,應(yīng)充分考慮社會(huì)各界對(duì)GAI 應(yīng)用的高度倫理關(guān)切,全面研判潛在倫理風(fēng)險(xiǎn),重點(diǎn)參照國(guó)內(nèi)外具有較大影響力的倫理指南、政策文件、標(biāo)準(zhǔn)共識(shí),貫徹落實(shí)《中國(guó)新一代人工智能倫理規(guī)范》《關(guān)于加強(qiáng)科技倫理治理的意見(jiàn)》等重要文件精神,制定相關(guān)倫理治理原則,將增進(jìn)人類福祉作為第一要義,負(fù)責(zé)任地開(kāi)發(fā)GAI。

結(jié)合具體場(chǎng)景設(shè)計(jì)具體規(guī)范作為指引,完善合法與違法的二元化編碼規(guī)范體系。盡管倫理原則彰顯了AIGC 倫理治理的價(jià)值導(dǎo)向,仍須在此基礎(chǔ)上,根據(jù)GAI 的具體應(yīng)用情境和技術(shù)條件,制定更具操作性的倫理與法律規(guī)范和行為準(zhǔn)則。首先,應(yīng)加強(qiáng)對(duì)GAI 各領(lǐng)域及其特征的分析研判,識(shí)別潛在倫理風(fēng)險(xiǎn);其次,針對(duì)應(yīng)用實(shí)踐,梳理各類影響因素并據(jù)此確定具體應(yīng)用規(guī)范和治理指南;再次,應(yīng)全流程記錄規(guī)范的實(shí)施過(guò)程與實(shí)效結(jié)果,及時(shí)反饋評(píng)估以期規(guī)范的動(dòng)態(tài)調(diào)整與可持續(xù)地發(fā)揮作用。為了減少時(shí)間限制、防控決策風(fēng)險(xiǎn),現(xiàn)代法治國(guó)家的制度設(shè)計(jì)普遍推行以“合法”與“違法”的二元化編碼為特征的規(guī)范圖式。“通過(guò)合法與違法的二元化編碼和規(guī)范思維的形式性要求,可以把決定者從問(wèn)責(zé)的重負(fù)中適當(dāng)解放出來(lái)并同時(shí)對(duì)自由裁量權(quán)加以制約,可以使風(fēng)險(xiǎn)溝通的復(fù)雜性大幅度簡(jiǎn)化,有助于就決策的妥當(dāng)性和問(wèn)責(zé)標(biāo)準(zhǔn)達(dá)成共識(shí)?!?同前注⑩。此外,這一規(guī)范模式中結(jié)果指向的實(shí)質(zhì)性判斷重視風(fēng)險(xiǎn)意識(shí)的作用,也促使法律責(zé)任從過(guò)失責(zé)任轉(zhuǎn)向危險(xiǎn)責(zé)任,并不斷加強(qiáng)行動(dòng)者、決定者的注意義務(wù)。?參見(jiàn)[德]烏爾里?!へ惪耍骸讹L(fēng)險(xiǎn)社會(huì)》,何博聞譯,譯林出版社1992 年版,第77-78 頁(yè)。

(三)風(fēng)險(xiǎn)溝通與協(xié)調(diào)的監(jiān)管格局

正如季衛(wèi)東教授所指出的,風(fēng)險(xiǎn)社會(huì)的實(shí)質(zhì)是問(wèn)責(zé)以及相應(yīng)的溝通。民主參與的實(shí)質(zhì)是處理風(fēng)險(xiǎn)溝通問(wèn)題的制度安排,或者說(shuō)是通過(guò)溝通來(lái)管理風(fēng)險(xiǎn)的制度安排。?同前注⑩。為了凝聚社會(huì)風(fēng)險(xiǎn)治理的合力,還需要進(jìn)行如下方面的努力:多渠道進(jìn)行科技倫理與法律宣傳、活動(dòng)與交流,提升公眾的科技倫理意識(shí),廣泛聽(tīng)取專業(yè)意見(jiàn),建立可靠的監(jiān)督機(jī)制,推動(dòng)形成多方參與、協(xié)同共治的科技倫理與法律治理格局。學(xué)界應(yīng)積極推動(dòng)跨學(xué)科融合對(duì)話,以GAI 治理為導(dǎo)向,采眾學(xué)科之長(zhǎng),實(shí)現(xiàn)學(xué)科內(nèi)部的“精耕細(xì)作”和跨學(xué)科研究的“集團(tuán)作戰(zhàn)”。企業(yè)應(yīng)增強(qiáng)責(zé)任意識(shí),完善企業(yè)在倫理與法律風(fēng)險(xiǎn)方面的決策、咨詢與調(diào)控的制度框架,提高企業(yè)對(duì)AIGC 風(fēng)險(xiǎn)的識(shí)別、評(píng)估、處理能力。民眾應(yīng)主動(dòng)學(xué)習(xí)科技倫理與法律知識(shí),增強(qiáng)科技倫理意識(shí),提升對(duì)虛假信息的鑒別能力,自覺(jué)踐行科技倫理原則,堅(jiān)守科技倫理底線。通過(guò)這些制度的建構(gòu),最終有助于形成當(dāng)今中國(guó)化解風(fēng)險(xiǎn)溝通難題的一種合理對(duì)策,誠(chéng)如季衛(wèi)東教授所言,這一對(duì)策的典型特征是將政治問(wèn)題法律化、法律問(wèn)題程序化、程序問(wèn)題技術(shù)化、技術(shù)問(wèn)題論證化。

法律規(guī)則本質(zhì)上也是溝通機(jī)制。在對(duì)立法價(jià)值與規(guī)范目的進(jìn)行設(shè)定之后,規(guī)則設(shè)計(jì)的最大挑戰(zhàn)可能是價(jià)值的精確表達(dá)。但立法者常常無(wú)法提供這樣的精確性,要么因?yàn)閭€(gè)人本身無(wú)法將此具體化,要么因?yàn)榫退璧木_程度而言,并不存在社會(huì)共識(shí)?;仡櫫⒎v史,立法規(guī)則的顆粒度都不高,立法者一般會(huì)選取“合理”“可行”和“適當(dāng)”等寬泛的術(shù)語(yǔ)。正是由于價(jià)值偏好的不確定性、混亂和分歧,法律經(jīng)常依賴于空洞的術(shù)語(yǔ)。按美國(guó)法律學(xué)者卡斯·桑斯坦(Cass Sunstein)的話說(shuō),這種價(jià)值精確性的挑戰(zhàn)是“未完全理論化合意”(incompletely theorized agreements)。因此,在開(kāi)發(fā)整合性的設(shè)計(jì)選擇時(shí),應(yīng)盡可能公開(kāi)程序;當(dāng)具有可行性時(shí),應(yīng)通過(guò)咨詢委員會(huì)、公開(kāi)聽(tīng)證會(huì)或公眾評(píng)論期的設(shè)置,給公眾和專家以參與的機(jī)會(huì)。這種技術(shù)必要性引發(fā)的兩個(gè)實(shí)際問(wèn)題,將會(huì)困擾依靠將人排除于決策之外的算法系統(tǒng)的政府官員,并可能成為對(duì)其使用的最為實(shí)質(zhì)性的限制:第一是價(jià)值完整性問(wèn)題,第二則是價(jià)值精確性問(wèn)題。在此不再贅述。

(四)合理處理風(fēng)險(xiǎn)與民事責(zé)任的互動(dòng)關(guān)系

風(fēng)險(xiǎn)與責(zé)任的互動(dòng)關(guān)系尚未被重視,在歐盟AIA 中也并未涉及責(zé)任承擔(dān)的問(wèn)題。不過(guò),在民事責(zé)任領(lǐng)域,風(fēng)險(xiǎn)與侵權(quán)歸責(zé)存在緊密的關(guān)系。在過(guò)錯(cuò)責(zé)任中,風(fēng)險(xiǎn)關(guān)系著過(guò)錯(cuò)的判斷;無(wú)過(guò)錯(cuò)責(zé)任歸責(zé)的基礎(chǔ)就是風(fēng)險(xiǎn)。此外,風(fēng)險(xiǎn)也影響著侵權(quán)責(zé)任的承擔(dān)。?Johanna Chamberlain,The Risk-Based Approach of the European Union’s Proposed Artificial Intelligence Regulation: Some Comments from a Tort Law Perspective,European Journal of Risk Regulation (2023),14,1-4.人工智能風(fēng)險(xiǎn)分級(jí)與損害發(fā)生后的責(zé)任承擔(dān)存在何種互動(dòng)關(guān)系,在歐洲議會(huì)關(guān)于《人工智能民生責(zé)任制度的決議》中已經(jīng)有所提及。?European Parliament resolution of 20 October 2020 on a civil liability regime for artificial intelligence,2020/ 2014(INL).具體來(lái)說(shuō),與AIA 類似歐洲議會(huì)也采納了分級(jí)的觀點(diǎn):不同的責(zé)任規(guī)則對(duì)應(yīng)著不同的風(fēng)險(xiǎn)。歐洲議會(huì)建議協(xié)調(diào)成員國(guó)民事責(zé)任賠償?shù)姆煽蚣?,?duì)高風(fēng)險(xiǎn)人工智能系統(tǒng)的運(yùn)營(yíng)商施加無(wú)過(guò)錯(cuò)責(zé)任。對(duì)于未列入高風(fēng)險(xiǎn)人工智能附件中的人工智能系統(tǒng),則承擔(dān)過(guò)錯(cuò)責(zé)任。進(jìn)一步說(shuō),對(duì)于有限風(fēng)險(xiǎn)的人工智能系統(tǒng)進(jìn)行過(guò)錯(cuò)推定,對(duì)于最低風(fēng)險(xiǎn)的人工智能系統(tǒng)則采用一般過(guò)錯(cuò)責(zé)任。?Johanna Chamberlain,The Risk-Based Approach of the European Union’s Proposed Artificial Intelligence Regulation: Some Comments from a Tort Law Perspective,European Journal of Risk Regulation (2023),14,1-4.在我國(guó)的人工智能地方立法實(shí)踐中,雖然《上海市促進(jìn)人工智能產(chǎn)業(yè)發(fā)展條例》《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》均采納風(fēng)險(xiǎn)分級(jí)的制度,但限于地方立法權(quán)限并未涉及責(zé)任制度。這為國(guó)家層面的人工智能立法進(jìn)行了留白,而上述歐盟法對(duì)于風(fēng)險(xiǎn)與責(zé)任互動(dòng)關(guān)系的認(rèn)識(shí),對(duì)于未來(lái)人工智能國(guó)家立法或有助益。

猜你喜歡
規(guī)制人工智能系統(tǒng)
Smartflower POP 一體式光伏系統(tǒng)
主動(dòng)退市規(guī)制的德國(guó)經(jīng)驗(yàn)與啟示
WJ-700無(wú)人機(jī)系統(tǒng)
ZC系列無(wú)人機(jī)遙感系統(tǒng)
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
保護(hù)與規(guī)制:關(guān)于文學(xué)的刑法
刑法論叢(2018年4期)2018-05-21 00:44:30
連通與提升系統(tǒng)的最后一塊拼圖 Audiolab 傲立 M-DAC mini
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
論《反不正當(dāng)競(jìng)爭(zhēng)法》的規(guī)制范疇
法治研究(2016年4期)2016-12-01 03:41:40
麻阳| 阜阳市| 衡南县| 贺州市| 四平市| 大城县| 星子县| 安阳县| 两当县| 凌海市| 青州市| 凤翔县| 新乐市| 晋中市| 墨江| 延吉市| 崇州市| 汪清县| 吉木萨尔县| 和林格尔县| 信阳市| 双鸭山市| 余姚市| 五原县| 温宿县| 师宗县| 长垣县| 宁河县| 那坡县| 大安市| 遂宁市| 杭锦旗| 大悟县| 宣汉县| 宜兰市| 镇江市| 会同县| 湘阴县| 石狮市| 呼和浩特市| 灵璧县|