胡雙
安吉縣審判保障服務(wù)中心 浙江 湖州 313300
經(jīng)濟(jì)社會(huì)中人工智能的應(yīng)用越來越廣泛,給實(shí)際運(yùn)用和法制概念帶來很多的困難。實(shí)際困難的大部分來源于人工智能的發(fā)展和機(jī)械自動(dòng)控制的基本問題[1]。概念性的困難來自于為自動(dòng)機(jī)械造成的損害而分配道德、法律責(zé)任的方法,以及正確定義人工智能的方法。
所有AI監(jiān)視系統(tǒng)必須首先定義他們監(jiān)視的東西;總之,必須首先定義人工智能是什么。令人悲哀的是,至今為止,不管是政府部門的規(guī)定,還是各大公司,對(duì)AI的定義還沒有被廣泛接受。為了解決這個(gè)問題,我并沒有給出人工智能的定義。相反,我是想以調(diào)查調(diào)整規(guī)則定義AI時(shí)可能遇到的問題為目標(biāo)。
從目前的來看,AI定義的難度不僅在于AI本身的定義,而是在于AI概念的模糊性。因?yàn)槿祟愂俏ㄒ痪哂胁胖堑谋粡V泛認(rèn)知的實(shí)體,所以才智的任何定義都無疑與人類的性格有關(guān),再怎么談都不可能逃過人類這個(gè)主體[2]。
約翰麥卡錫,現(xiàn)代人工智能的領(lǐng)袖,也是人工智能概念的創(chuàng)造者。他相信“才智的任何定義都應(yīng)該基于人的才智”。因此,就產(chǎn)生了知性的定義,這種定義非常靈活,包括意識(shí)、自我意識(shí)、語言使用、學(xué)習(xí)能力、抽象思考能力、適應(yīng)性和邏輯推論能力在內(nèi)的定義功能。
1.2.1 主動(dòng)性、可預(yù)測(cè)性和因果關(guān)系。主動(dòng)性是人工智能和其他早期人類技術(shù)的最大區(qū)別。AI系統(tǒng)可以通過自己的判斷來操作汽車,或者可以在沒有手動(dòng)控制或人類干預(yù)的情況下自己起草一份投資協(xié)議。今后將進(jìn)一步改善人工智能系統(tǒng)的作業(yè)難度和范圍。工業(yè)革命帶來的機(jī)器取代了工廠和農(nóng)業(yè)生產(chǎn)的許多體力勞動(dòng)者,這給他們帶來了巨大的經(jīng)濟(jì)和社會(huì)影響[3]。人工智能和相關(guān)技術(shù)進(jìn)步是因?yàn)槿斯ぶ悄芟到y(tǒng)可以做很多工作,減少了對(duì)高品質(zhì)人才的需求。人工智能還必須強(qiáng)制適應(yīng)現(xiàn)代社會(huì)人工智能廣泛使用的法律法規(guī)的一些巨大變化。
預(yù)測(cè)的可能性是對(duì)AI法的重要挑戰(zhàn)。我們看到了很多人工智能的例子。他們可以把創(chuàng)造性的動(dòng)作或行動(dòng)看作人工智能的創(chuàng)造能力或人類行為的創(chuàng)造性表現(xiàn)。這種現(xiàn)象來源于國際象棋的計(jì)算機(jī)程序。除了制定基本規(guī)則和人類國際象棋的戰(zhàn)略對(duì)策外,它還可以創(chuàng)造出世界上著名活動(dòng)的記錄。
人工智能創(chuàng)造力的例子是一種錯(cuò)覺,它是特定人工智能系統(tǒng)可用操作數(shù)據(jù)交互的結(jié)果,不受人類固有認(rèn)知偏見的影響。對(duì)于計(jì)算機(jī)象棋,統(tǒng)計(jì)學(xué)家奈特·西爾弗說:“我們可能無法將計(jì)算機(jī)所做的獨(dú)特游戲步驟描述為創(chuàng)造性行為,因?yàn)樗鲞@些僅僅是因?yàn)樗鼜?qiáng)大的計(jì)算能力[4]。但這對(duì)計(jì)算機(jī)的機(jī)器也有好處,因?yàn)樵谀承┣闆r下,機(jī)器不允許自己找到正確的步驟,從而阻止自己識(shí)別正確的方法。對(duì)于棋手來說,擺脫舊的思維方式需要獨(dú)特的創(chuàng)造力。”
1.2.2 控制問題。AI系統(tǒng)的自主性不僅能夠產(chǎn)生預(yù)測(cè)性,而且還可以做到如何控制預(yù)測(cè)性??刂迫祟惇?dú)立設(shè)計(jì)的機(jī)器是非常困難的。AI系統(tǒng)包括文件破壞、輸入裝置破損、安全系統(tǒng)脆弱性、計(jì)算機(jī)系統(tǒng)反應(yīng)速度比人類快、程序缺陷等許多不可控制的機(jī)制[5]。在學(xué)習(xí)和適應(yīng)性的AI系統(tǒng)中,人很難恢復(fù)控制,一旦失去控制將會(huì)是一種非常可怕的局面。這是人類行動(dòng)的結(jié)果,這些獨(dú)特的特點(diǎn)是AI使不同于過去的公共危險(xiǎn)源。
Off-control可以分為兩種類型:一種是局部控制,即AI系統(tǒng)不再受人類控制,而人類不再為AI的監(jiān)督和操作而負(fù)法律責(zé)任;第二控制即不能控制AI系統(tǒng)。顯然,后者比前者嚴(yán)重得多。即使AI不能完全控制,只要AI系統(tǒng)的目標(biāo)與國民一致,也不一定會(huì)帶來公共危險(xiǎn)。但是,人的價(jià)值本身就存在很多的不確定因素,無法從根本上正確定義,所以維持目標(biāo)和利益的一致性可能非常困難。從人工智能的目標(biāo)是由最初的程序設(shè)計(jì)決定這一事實(shí)來看,人與人工智能之間的利益產(chǎn)生了分歧[6]。在原來的編程程序中,即使AI可以根據(jù)之后的經(jīng)驗(yàn)改變目標(biāo),改變目標(biāo)的指令也會(huì)由原來的編程系統(tǒng)發(fā)出。因此,人工智能系統(tǒng)的最佳解決方案是盡快排除人類。
1.2.3 AI研發(fā):保密性、多樣性、不連續(xù)性和不透明性。從監(jiān)管機(jī)構(gòu)的角度來看,最大的難處其實(shí)并不是人工智能,而是人工智能的研發(fā)模式[7]。保密意味著AI在研究的過程中不需要肉眼看不見的設(shè)備。分散化意味著研究AI系統(tǒng)不同構(gòu)成要素的研究人員可能被分配,而不是都聚在一起研究。不連續(xù)性是指與地方分權(quán)密切相關(guān)的特征所有的構(gòu)成要素或協(xié)調(diào)不需要來自不同領(lǐng)域的最后的特征,不透明度是AI系統(tǒng)的很多操作可能都會(huì)被保密起來,而不能被反向工程控制。這些特征在人工智能的發(fā)展中并不獨(dú)特。信息時(shí)代的很多技術(shù)其實(shí)都有這些特征。但是,只有人工智能的研究非常特殊,其存在的這些特性注定會(huì)給人類帶來很多特別的挑戰(zhàn)。
原子能科學(xué)技術(shù)和消費(fèi)品的大量生產(chǎn)、產(chǎn)業(yè)環(huán)境污染、有害物質(zhì)的大量生產(chǎn)等20世紀(jì)的公共危險(xiǎn)迫切的需要基礎(chǔ)設(shè)施方面的投資。這個(gè)時(shí)期簡(jiǎn)化了管制過程。必要的基礎(chǔ)設(shè)施的建設(shè),必要的生產(chǎn)設(shè)備的購買和雇傭大量的員工,大企業(yè)在這方面下雖然下了很大的功夫,但同時(shí)還要與政府聯(lián)系密切[8]??梢夾I的保密性是非常重要的,是不可能暴露出什么秘密的。監(jiān)管機(jī)構(gòu)可以很容易地確認(rèn)潛在的公共危險(xiǎn)目標(biāo)和場(chǎng)所。
隨著海量數(shù)據(jù)積累、算力瓶頸、機(jī)器學(xué)習(xí)創(chuàng)新,第三次人工智能浪潮引發(fā)經(jīng)濟(jì)社會(huì)全面智能化轉(zhuǎn)型。智能科技必然帶來新產(chǎn)業(yè)、新業(yè)態(tài)、新模式,成為新一輪科技革命的創(chuàng)新引擎?!凹涌煨纬梢詣?chuàng)新為驅(qū)動(dòng)和支撐的經(jīng)濟(jì)體制和發(fā)展模式”是一項(xiàng)緊迫的任務(wù)。面對(duì)風(fēng)險(xiǎn)與機(jī)遇并存的人工智能技術(shù)應(yīng)用,需要有效識(shí)別監(jiān)管問題。監(jiān)管不力意味著很多風(fēng)險(xiǎn)無法防范,可能會(huì)出現(xiàn)破壞良好技術(shù)原理的不良現(xiàn)象,在當(dāng)前的局勢(shì)下,迫切需要及時(shí)建立適當(dāng)?shù)谋O(jiān)督機(jī)制[9]。
個(gè)人信息領(lǐng)域的法律和實(shí)踐經(jīng)驗(yàn)對(duì)于構(gòu)建人工智能應(yīng)用中的社會(huì)風(fēng)險(xiǎn)監(jiān)控機(jī)制非常重要。針對(duì)監(jiān)管部門混亂或職責(zé)不明確導(dǎo)致的“監(jiān)管空白”、“重復(fù)監(jiān)管”等諸多問題,建立獨(dú)立統(tǒng)一的監(jiān)管體系是有效保護(hù)個(gè)人信息的重要環(huán)節(jié)。 歐盟在其一般數(shù)據(jù)保護(hù)規(guī)則中明確定義了數(shù)據(jù)保護(hù)機(jī)構(gòu)和運(yùn)行機(jī)制,并將其視為數(shù)據(jù)保護(hù)的核心系統(tǒng)。微軟和IBM等巨頭在內(nèi)部設(shè)立人工智能倫理委員會(huì),但這還不足以解決人工智能應(yīng)用的社會(huì)風(fēng)險(xiǎn)。迫切需要建立和完善專門的政府監(jiān)管機(jī)構(gòu),以有效闡明分級(jí)監(jiān)管職責(zé)[10]。
面對(duì)許多危險(xiǎn),法院監(jiān)管體系需要進(jìn)行科學(xué)嚴(yán)格的監(jiān)督。然而,監(jiān)管的目的不是限制技術(shù)發(fā)展。相反,監(jiān)管的目的是促進(jìn)人工智能產(chǎn)品和服務(wù)的健康有序發(fā)展。相關(guān)監(jiān)督要充分體現(xiàn)適當(dāng)性。歐盟高風(fēng)險(xiǎn)強(qiáng)制監(jiān)管是通過“應(yīng)用領(lǐng)域+使用方式”來定義,以達(dá)到保密監(jiān)管的目的?!端惴▎栘?zé)法案》將其直接限制為年收入超過5000萬美元且擁有100萬個(gè)人和設(shè)備信息的公司,或主要買賣消費(fèi)者數(shù)據(jù)的數(shù)據(jù)經(jīng)紀(jì)公司。以經(jīng)濟(jì)實(shí)力和用戶數(shù)量作為劃分監(jiān)管范圍的標(biāo)準(zhǔn),可以將一些新興的人工智能公司排除在監(jiān)管范圍之外。在劃定監(jiān)管范圍時(shí),應(yīng)綜合考慮人工智能應(yīng)用領(lǐng)域、使用方式、用戶數(shù)量等因素,綜合成本效益分析,制定綜合監(jiān)管方案[11]。
AI開發(fā)法還需要AI監(jiān)管機(jī)構(gòu)在批準(zhǔn)和認(rèn)證前,建立測(cè)試標(biāo)準(zhǔn)和規(guī)則。需要通過相關(guān)的測(cè)試,在申請(qǐng)承認(rèn)和認(rèn)證的同時(shí)提交給AI監(jiān)管機(jī)構(gòu),符合AI監(jiān)管機(jī)構(gòu)規(guī)則的測(cè)試將會(huì)不承擔(dān)重大責(zé)任??荚嚨囊?guī)則是在比較密封的,安全的環(huán)境中進(jìn)行[12]。例如,測(cè)試規(guī)則是一種能夠操作的網(wǎng)絡(luò)化計(jì)算機(jī)、機(jī)器人或?qū)嶋H世界對(duì)象的系統(tǒng),一種超越了應(yīng)答級(jí)別計(jì)算機(jī)能力的系統(tǒng)或者必須禁止在AI測(cè)試可能影響外部環(huán)境的系統(tǒng)中進(jìn)行測(cè)試。AI規(guī)制當(dāng)局應(yīng)該有迅速修改測(cè)試基準(zhǔn)的權(quán)利,但是這樣的修改也會(huì)成為國民詳查的對(duì)象,最終需要投票決定。
測(cè)試后,AI開發(fā)者可以向AI監(jiān)管機(jī)構(gòu)申請(qǐng)批準(zhǔn)和證明。為了給應(yīng)征者提供指導(dǎo),為人工智能產(chǎn)業(yè)設(shè)置一些不可越過的權(quán)限,管理委員會(huì)表示,人們應(yīng)該就不管它是否能保證人的控制,是否會(huì)造成個(gè)人的傷害,目標(biāo)是否一致應(yīng)該發(fā)表一個(gè)人工智能應(yīng)用的評(píng)價(jià)標(biāo)準(zhǔn)[13]。AI監(jiān)管成員的主要任務(wù)是確定AI系統(tǒng)是否滿足這些標(biāo)準(zhǔn)。申請(qǐng)AI證明和許可的公司,必須要包括與AI環(huán)境相關(guān)的所有信息:①完整源代碼;②AI軟件和測(cè)試環(huán)境的硬件部分;③測(cè)試環(huán)境(AI)其他AI安全相關(guān)信息的AI性能。信息公開后,AI監(jiān)管人員必須再次測(cè)試內(nèi)部AI項(xiàng)目的安全性。考慮到AI的可能性的多樣性,AI限制當(dāng)局也應(yīng)該有限制認(rèn)證范圍的權(quán)利。
談到AI應(yīng)用的風(fēng)險(xiǎn)監(jiān)控范圍,無論是歐盟“白皮書”中對(duì)“高風(fēng)險(xiǎn)”標(biāo)準(zhǔn)的規(guī)范,還是“備忘錄”中對(duì)風(fēng)險(xiǎn)和收益的衡量,風(fēng)險(xiǎn)始終是起點(diǎn)觀點(diǎn)。有效的風(fēng)險(xiǎn)評(píng)估通過監(jiān)督起到主動(dòng)監(jiān)督的作用,指出監(jiān)督方向,最大限度地減少損失,避免不值得的監(jiān)督成本。目前,各國法律并未對(duì)人工智能應(yīng)用的風(fēng)險(xiǎn)評(píng)估做出明確要求,但仍有應(yīng)遵循的跡象。歐盟《通用數(shù)據(jù)保護(hù)條例》第35條明確規(guī)定了高風(fēng)險(xiǎn)數(shù)據(jù)處理活動(dòng)的數(shù)據(jù)保護(hù)影響評(píng)估義務(wù),并規(guī)定了應(yīng)進(jìn)行影響評(píng)估的三種情況以及評(píng)估創(chuàng)建和披露的具體要求列表?!秵栘?zé)法》對(duì)一定規(guī)模的公司提出了高風(fēng)險(xiǎn)的系統(tǒng)評(píng)估義務(wù)。通過數(shù)據(jù)處理和算法應(yīng)用影響評(píng)估來間接評(píng)估人工智能應(yīng)用風(fēng)險(xiǎn)已成為應(yīng)用風(fēng)險(xiǎn)評(píng)估的一大趨勢(shì)。我國《個(gè)人信息保護(hù)法(草案)》第54條規(guī)定了對(duì)個(gè)人有重大影響的個(gè)人信息處理活動(dòng)的預(yù)風(fēng)險(xiǎn)評(píng)估和記錄義務(wù),可以看到與個(gè)人數(shù)據(jù)處理相關(guān)的人工智能應(yīng)用程序的風(fēng)險(xiǎn),由此可見,智能監(jiān)管評(píng)估已經(jīng)是我國智能化發(fā)展必不可少的。
雖然有授權(quán)程序和認(rèn)證標(biāo)準(zhǔn),但是在許多情況下,并沒有討論AI系統(tǒng)的版本是否被認(rèn)證,AI系統(tǒng)的一些改變是否超過認(rèn)證范圍。在處理這些事件時(shí),法院可以進(jìn)行初步測(cè)試以確定參與訴訟的AI產(chǎn)品的版本是否在所批準(zhǔn)的認(rèn)證版本的范圍內(nèi)。如果那個(gè)不在原始范圍內(nèi),時(shí)間就超過了所批準(zhǔn)的證明范圍。AI改正是否超過承認(rèn)和證明的閾值,決定被告是否有有限的責(zé)任,是否必須承擔(dān)重大責(zé)任。
本文提出的基于不法行為系統(tǒng)的限制路徑是一種中間方法。它作為一個(gè)嚴(yán)格的監(jiān)管機(jī)構(gòu)不起作用,不經(jīng)批準(zhǔn)和證明,禁止所有AI產(chǎn)品的生產(chǎn),并強(qiáng)化AI產(chǎn)品的安全性屬性,為消化他們的外部成本,提供對(duì)AI開發(fā)者的誘因。通過違法行為責(zé)任的杠桿化,人工智能系統(tǒng)的外部安全成本被內(nèi)部化,使得市場(chǎng)上人工智能產(chǎn)品的合理價(jià)格反映了風(fēng)險(xiǎn)。同時(shí),不是未經(jīng)許可的人工智能系統(tǒng),而是承擔(dān)關(guān)節(jié)和一些責(zé)任和嚴(yán)格責(zé)任。AI系統(tǒng)的供應(yīng)商、零售商和用戶一直鼓勵(lì)對(duì)未經(jīng)授權(quán)的AI系統(tǒng)的安全性進(jìn)行仔細(xì)檢查。同時(shí),改變AI系統(tǒng)會(huì)失去有限的保護(hù),確保下游廠商不會(huì)改變AI系統(tǒng)。