王鑫磊,張 靖
(長春理工大學(xué),吉林長春,130022)
早在1997年IBM的Deep Blue戰(zhàn)勝了國際象棋冠軍卡斯帕羅夫,再到近些年出現(xiàn)擁有自動(dòng)駕駛系統(tǒng)的車輛,人工智能的發(fā)展不停地向生活的各個(gè)領(lǐng)域“進(jìn)軍”。當(dāng)然,在一些領(lǐng)域,人工智能有著我們?nèi)祟惒豢杀葦M的優(yōu)勢。在云計(jì)算、大數(shù)據(jù)、深度學(xué)習(xí)算法、人腦芯片的催化下,人工智能模擬和表現(xiàn)了人類的智慧動(dòng)力,并以高于人類的工作速度、優(yōu)于人類的工作精度、勝于人類的工作態(tài)度,協(xié)助人類解決各種各樣的問題,包括危險(xiǎn)場合和極端環(huán)境下的難題,從而形成人類智慧的創(chuàng)造力優(yōu)勢與人工智能的操作性優(yōu)勢之間的強(qiáng)強(qiáng)合作。[1]可以想象,我們未來的生活將會(huì)充滿人工智能的氣息,人工智能會(huì)給我們生活的方方面面帶來便利。但是人工智能在帶來便利的同時(shí),肯定也會(huì)帶來許多社會(huì)問題,其中就包括給我國現(xiàn)在的法律制度帶來挑戰(zhàn)。
1.人工智能概念
人工智能(Artificial Intelligence)簡稱“AI”,最早是在1956年由麥卡錫在Dartmouth學(xué)會(huì)上提出。從1956年至今的60多年間,人工智能迅速發(fā)展,涉及到人類生活的各個(gè)領(lǐng)域。但是何謂人工智能,至今也沒有一個(gè)統(tǒng)一的定義。
我國學(xué)者馬少平、朱小燕就曾指出,人工智能是以人類智能活動(dòng)為研究對象,用于模擬、延伸和擴(kuò)展人類智能的一門新的技術(shù)科學(xué);美國斯坦福大學(xué)教授尼爾遜認(rèn)為“人工智能是關(guān)于知識的學(xué)科——怎樣表示知識以及怎樣獲得知識并使用知識的學(xué)科”;Marvin Minsk——人工智能研究的創(chuàng)始人之一,認(rèn)為人工智能是“讓機(jī)器從事需要人的智能的工作的科學(xué)”,而這句話也恰好反映了人工智能的本質(zhì)。
從上述各個(gè)學(xué)者對于人工智能的定義來看,無論其對人工智能下怎樣的定義,都反映了人工智能一個(gè)實(shí)質(zhì)性特點(diǎn),即人工智能與人之間存在不可分割的聯(lián)系。
2.人工智能分類
對于人工智能的分類,從人工智能的發(fā)展階段來看,可以將其分為三類,分別是弱人工智能、強(qiáng)人工智能和超人工智能。
弱人工智能,是指僅擅長某一領(lǐng)域的人工智能。如Alphago——一個(gè)能夠戰(zhàn)勝圍棋世界冠軍的人工智能,但其僅僅只能在圍棋領(lǐng)域運(yùn)行。弱人工智能也分為兩種,一種是指能夠按照程序自主運(yùn)行并且做出決策的人工智能,但其做出的決策仍未超過設(shè)計(jì)者為其設(shè)定的程序范圍,并且其不具備獨(dú)立思考的能力。就如自動(dòng)駕駛系統(tǒng),雖然可以自動(dòng)駕駛汽車,但其本質(zhì)上仍然沒有超越人的意志。另一種就是指能夠進(jìn)行獨(dú)立思考,擁有自己的意志,并能做出決定的人工智能,其最大特點(diǎn)就在于能夠獨(dú)立思考。
強(qiáng)人工智能,在某種意義上可以和人類相提并論,其不僅僅限在一個(gè)領(lǐng)域運(yùn)行,在各個(gè)領(lǐng)域都能與人類比肩。
超人工智能,人工智能學(xué)者NickBostrom把其定義為“在幾乎所有領(lǐng)域都比最聰明的人類大腦都聰明很多,包括科學(xué)創(chuàng)新、通識和社交技能”。
由于現(xiàn)行社會(huì)尚未過渡到強(qiáng)人工智能和超人工智能時(shí)代,所以本文僅對弱人工智能犯罪進(jìn)行研究。在弱人工智能中人工智能犯罪分為兩種情況,第一種是不具備獨(dú)立意識的人工智能,其可能會(huì)被不法分子作為“工具”利用而犯罪,也可能基于其不具備獨(dú)立意識無法區(qū)分人類和其他物品,從而對人類造成損害;另一種是具備獨(dú)立意識的人工智能,其超脫設(shè)計(jì)者既定程序做出決策,可能會(huì)出現(xiàn)危害社會(huì)的行為。所以,不管是哪種弱人工智能都可能導(dǎo)致犯罪的發(fā)生。
近些年隨著人工智能的迅速發(fā)展,同時(shí)也由于上述可能性的存在,人工智能犯罪屢屢發(fā)生。2017年7月3日德國一家大眾汽車廠的一名技術(shù)人員與同事一起安裝機(jī)器人,機(jī)器人卻突然抓住他的胸部,然后把他重重地壓向一塊金屬板,最終導(dǎo)致這名工作人員因傷重不治身亡①參見《人工智能惹的禍?德國大眾發(fā)生機(jī)器人殺人案》:http://www.oushinet.com/news/europe/germany/20150703/198315.html。;2014年山西太原市任某等人利用一款名為“黑米”的搶購軟件,通過賺取買家搶購成功商品部分差價(jià)的方式,非法獲利11萬余元。人工智能發(fā)展的同時(shí),其所引發(fā)的事故也頻頻發(fā)生。然而在這些事件中,人工智能犯罪給社會(huì)帶來的風(fēng)險(xiǎn)尤為嚴(yán)重。從罪犯使用的犯罪手段和技術(shù)方面來說,由于人工智能發(fā)展而不斷出現(xiàn)新的變化,手段和技術(shù)相較于以前更為高級;從立法層面來說,人工智能犯罪也為我們刑法的適用帶來了挑戰(zhàn)與難題。
本文基于之前對于弱人工智能的概述,以犯罪是否是基于人工智能本身的一種自我意識主動(dòng)實(shí)施犯罪進(jìn)行分類,可以分為無自我意識的人工智能犯罪和自我意識下的人工智能犯罪。
1.無自我意識的人工智能犯罪
無自我意識的人工智能犯罪是指雖然可以在對其設(shè)置的程序內(nèi)自主地進(jìn)行運(yùn)行和決策,但仍然是在設(shè)計(jì)者或者使用者為其設(shè)定的程序范圍內(nèi)做出的決策,其并不具有自我意識以及獨(dú)立思考的能力,基于此種特點(diǎn)而造成的危害社會(huì)的行為。在現(xiàn)實(shí)生活中無自我意識的人工智能犯罪已經(jīng)屢見不鮮,無自我意識的人工智能犯罪又可以以人在其中的角色進(jìn)行進(jìn)一步劃分。以下本文以案例的形式介紹無自我意識的人工智能犯罪。
第一種無自我意識的人工智能犯罪,是犯罪嫌疑人將人工智能作為犯罪工具實(shí)施犯罪,以發(fā)生在我國紹興市的一起弱人工智能犯罪案件為例。2017年紹興市破獲了我國首起利用人工智能侵犯公民個(gè)人信息案件。經(jīng)查明,犯罪嫌疑人設(shè)計(jì)了一款可以自動(dòng)識別圖片驗(yàn)證碼的軟件,將圖片驗(yàn)證碼運(yùn)用人工智能自動(dòng)識別技術(shù)后,犯罪嫌疑人利用網(wǎng)站漏洞掃描軟件,非法獲取網(wǎng)站后臺(tái)用戶注冊數(shù)據(jù)。之后,將包含各類郵箱和密碼的數(shù)據(jù)進(jìn)行整理,分門別類進(jìn)行銷售,以每10萬組數(shù)據(jù)為一個(gè)單位,賣給下線——制作撞庫軟件黑客團(tuán)伙。吳某、魏某等撞庫人員拿到這些數(shù)據(jù)后,與“快啊”打碼平臺(tái)對接,進(jìn)行批量撞庫、匹配,將各類賬號與密碼匹配成功的賬戶販賣給網(wǎng)絡(luò)詐騙團(tuán)伙。①參見《紹興破獲全國首例利用AI人工智能犯罪大案》:http://zj.people.com.cn/n2/2017/0922/c228592-30766162.html。
在這個(gè)案件中,人工智能僅僅只是作為一個(gè)工具,為罪犯提供犯罪手段。而人才是犯罪背后真正的主謀。犯罪嫌疑人利用人工智能機(jī)器深度學(xué)習(xí)訓(xùn)練機(jī)器,可以讓機(jī)器如ALPHAGO(阿爾法圍棋)一樣自主操作識別,有效識別圖片驗(yàn)證碼,輕松繞過互聯(lián)網(wǎng)公司設(shè)置的賬戶登錄安全策略,給網(wǎng)絡(luò)詐騙、黑客攻擊等網(wǎng)絡(luò)黑產(chǎn)提供犯罪工具。
在人工智能迅速發(fā)展的今天,人工智能的確給我們的生活帶來了極大的便利,但同時(shí)也導(dǎo)致我國在司法實(shí)踐中面臨犯罪手段不斷多樣化、新型犯罪手段增加的挑戰(zhàn),無疑增加了犯罪偵破難度。
該案件當(dāng)中,就當(dāng)時(shí)的調(diào)查來說,由于調(diào)查結(jié)果沒有發(fā)現(xiàn)涉事車輛自動(dòng)駕駛系統(tǒng)的設(shè)計(jì)和性能有安全隱患,特斯拉公司無須對此事承擔(dān)責(zé)任。
此時(shí)我們是否該追究駕駛者的刑事責(zé)任呢?如果認(rèn)定駕駛者主觀上存在過失,不管是疏忽大意的過失,即在開啟自動(dòng)駕駛的情況下駕駛者本應(yīng)預(yù)見交通事故的發(fā)生,卻由于疏忽大意而沒有預(yù)見,還是過于自信的過失,即認(rèn)為在開啟自動(dòng)駕駛系統(tǒng)的情況下本應(yīng)預(yù)見交通事故的發(fā)生,卻輕信可以避免結(jié)果的發(fā)生,是否都可以得出一個(gè)結(jié)論,即只要開啟自動(dòng)駕駛系統(tǒng)就可能違反交通運(yùn)輸管理法規(guī),然而這種結(jié)論本身就存在問題。
2.具有自我意識的人工智能犯罪
隨著人工智能的發(fā)展,機(jī)器人逐漸能夠從周圍環(huán)境的刺激中學(xué)習(xí),并從自己的行為中獲得知識和技能,進(jìn)而使機(jī)器人越來越難以被它們的用戶和設(shè)計(jì)師預(yù)測。前種所述的弱人工智能機(jī)器人即使具有一定的自我決策能力或自我意識,但也是在設(shè)計(jì)和編制的程序范圍內(nèi),是人類智能的延伸。而另一種弱人工智能機(jī)器人可以超出設(shè)計(jì)和編制的程序范圍自主判斷并做出決策,顯示出與人相似的獨(dú)立辨認(rèn)能力和控制能力,其造成的法益侵害結(jié)果可能超出設(shè)計(jì)者或者使用者的意志范圍。在這一類案件中,人工智能像人一樣成為了犯罪的主體和實(shí)施者。
以微軟所研發(fā)的一款聊天機(jī)器人作為具有自我意識的弱人工智能犯罪為例。微軟設(shè)計(jì)的聊天機(jī)器人Tay最初設(shè)計(jì)定位是一個(gè)年齡為19歲的少女,適合與青年用戶聊天。但是令人無法預(yù)料的是,Tay在Twitter上線沒幾天就出現(xiàn)了問題,甚至還出現(xiàn)偏激言論,原因是一些不良網(wǎng)民利用人工智能系統(tǒng)的漏洞所進(jìn)行的一場惡搞。這個(gè)漏洞就是Tay的“repeat after me”機(jī)制,Tay會(huì)主動(dòng)重復(fù)對方所說的話,無論是什么言語,即使是偏激的種族歧視言語,Tay也會(huì)進(jìn)行重復(fù)。在這個(gè)重復(fù)的過程中聊天機(jī)器人Tay也學(xué)會(huì)這些語言,導(dǎo)致其在Twitter中大量發(fā)表類似過激的語言。微軟發(fā)現(xiàn)該種情況后,不得不將該聊天軟件下線,并刪除相關(guān)過激言論的帖子。③參見《微軟聊天機(jī)器人Tay“誤入歧途”,被迫下線!》:https://www.qudong.com/article/421735.shtml
這個(gè)案件中,正是由于Tay的自我學(xué)習(xí)功能,才引起其主動(dòng)發(fā)表過激的種族歧視言語。而發(fā)表種族歧視的語言已經(jīng)超脫了設(shè)計(jì)者的意志范圍,此時(shí)種族歧視的言論甚至可以說是聊天機(jī)器人Tay自我意志的一種表達(dá)和體現(xiàn)。
另一個(gè)案件也可以被認(rèn)為是超脫設(shè)計(jì)者設(shè)計(jì)的程序,人工智能為實(shí)現(xiàn)自己的目的而自主做出決策的人工智能犯罪。前蘇聯(lián)國際象棋大師尼古拉·古德科夫,在莫斯科挑戰(zhàn)一臺(tái)巨型電腦,雙方在經(jīng)歷了6天的對戰(zhàn)后,比分來到了3∶0,古德科夫連勝3局。此時(shí)裁判示意加賽1局,想給電腦一個(gè)挽回“面子”的機(jī)會(huì)??墒窃谶@局時(shí),電腦的指示燈不停閃爍,仿佛非常憤怒。在輪到古德科夫時(shí),待其將手伸向棋子時(shí)遭到強(qiáng)烈電擊,隨后身亡。警方認(rèn)定,這部殺人電腦在輸棋后惱羞成怒,自行改變了程序,向棋盤釋放強(qiáng)大的電流,故意擊殺了對手。①參見《人工智能惹的禍?德國大眾發(fā)生機(jī)器人殺人案》:http://www.oushinet.com/news/europe/germany/
在這起案件中,很明顯地能夠看出,巨型電腦設(shè)計(jì)者本身的設(shè)計(jì)意圖只是進(jìn)行國際象棋對戰(zhàn),而巨型電腦本身卻超脫了設(shè)計(jì)者的意圖,自己主動(dòng)產(chǎn)生了殺死對手的意志,并實(shí)施了殺人行為。即巨型電腦“故意”地造成了對手的死亡,這種“故意”已經(jīng)超出了設(shè)計(jì)者所能預(yù)見的范圍。
笛子的起源可以追溯到新石器時(shí)代。那時(shí),先人們在鳥獸的骨頭上鉆孔吹之,用聲音誘捕獵物、傳遞信號,于是骨笛誕生了。捕獲獵物后,還可伴隨著歌舞吹笛慶祝。
按照前文所述,人工智能犯罪分為無自我意識的人工智能犯罪和具有自我意識的人工智能犯罪。其中無自我意識人工智能犯罪又以其是否被行為人刻意地作為犯罪工具使用而進(jìn)行了進(jìn)一步劃分。由此,在沒有行為人刻意利用的情況下無自我意識的人工智能犯罪和具有自我意識的人工智能犯罪中,人工智能能否成為我們刑法適用的主體成為司法實(shí)踐中的一個(gè)難題。
對于人工智能是否能成為犯罪主體存在著肯定說和否定說。
肯定說的一種觀點(diǎn)認(rèn)為智能機(jī)器人能夠在意識、實(shí)踐和自由等方面有所突破,成為“法人”。在這種觀點(diǎn)下通過對人工智能意識能力、實(shí)踐能力的提升,賦予人工智能相應(yīng)的權(quán)利、義務(wù)。[2]在2016年歐洲議會(huì)向歐盟委員會(huì)提出的報(bào)告中,曾建議“確保至少最復(fù)雜的自動(dòng)化機(jī)器人可以被確認(rèn)享有電子人(electronic persons)的法律地位,有責(zé)任彌補(bǔ)自己所造成的任何損害,并且可能在機(jī)器人作出自主決策或以其他方式與第三人獨(dú)立交往的案件中適用電子人格(electronic personality)”。[3]另一種觀點(diǎn)則認(rèn)為智能機(jī)器人通過深度學(xué)習(xí)能夠產(chǎn)生自主意識和意志,應(yīng)當(dāng)將其定位為不具有生命體的“人工人”。[4]
否定說主要就是從犯罪主體、主觀和承擔(dān)責(zé)任能力的角度分析。首先從犯罪構(gòu)成的主體角度分析,人工智能是否能認(rèn)定為我國刑法所規(guī)定的犯罪主體呢?從上述的Tay案件來看,如果將其放入我國的司法環(huán)境下,即人工智能發(fā)布了有關(guān)于侮辱誹謗他人的言論,能否將該人工智能認(rèn)定為侮辱、誹謗罪的犯罪主體呢?肯定說觀點(diǎn)認(rèn)為行為是生物才具有的基本特征,在一定意義上行為是與生命等價(jià)的。刑法中的行為,雖然是一種犯罪的行為,應(yīng)當(dāng)受到刑罰處罰,但它仍然具有人的一般行為的特征。[5]同時(shí)在我國現(xiàn)行刑法領(lǐng)域,是以自然人為主要的犯罪主體,同時(shí)規(guī)定了一些可以由單位構(gòu)成的犯罪。人工智能并沒有納入到我國現(xiàn)行刑法的規(guī)制中。故人工智能犯罪,犯罪主體就是第一個(gè)難題。
其次從犯罪構(gòu)成的主觀方面角度分析。我國刑法規(guī)定的犯罪的主觀方面分為故意和過失兩種。而這種主觀一直以來都是以人的罪過作為刑法所規(guī)定的內(nèi)容?,F(xiàn)代刑法的主觀罪過理論確立了人的主體性以及自由、平等及相關(guān)權(quán)利,自然人成為主體與客體兩分的二元世界的主導(dǎo),自然人的獨(dú)立意志成為權(quán)利、義務(wù)、責(zé)任包括處罰的前提基礎(chǔ)。構(gòu)成這一思想的核心是主張尊重理性的觀點(diǎn)。人根據(jù)自己的理性,能決定自己的行為。[6]而人工智能并不能根據(jù)自己的理性決定自己的行為,而是根據(jù)已經(jīng)設(shè)定好的指令或程序來自行決定一系列行為。很明顯,這并不符合現(xiàn)代刑法主觀罪過的理論。
最后從刑法所規(guī)定的刑罰實(shí)施對象角度分析。我國現(xiàn)行刑法所規(guī)定的刑罰包括主刑,即死刑、無期徒刑、有期徒刑、管制、拘役;也包括附加刑,即罰金刑、剝奪政治權(quán)利、沒收財(cái)產(chǎn)、驅(qū)逐出境??墒且?guī)定的這些刑法對于人工智能并沒有多大的意義。如限制人身自由的刑罰,對于人工智能來說沒有執(zhí)行的必要,直接關(guān)閉該人工智能程序比限制人身自由更快捷方便,甚至有些人工智能僅僅只是一個(gè)程序,根本無法去執(zhí)行限制人身自由的刑罰。再比如罰金刑,人工智能本身并不具備獨(dú)立的財(cái)產(chǎn),所以該項(xiàng)刑罰同樣不具有可實(shí)施性。
本文贊同否定說,認(rèn)為人工智能并不能夠成為我國現(xiàn)行刑法的主體,適用現(xiàn)行刑法。那么對于人工智能犯罪,不論是無自主意識的人工智能,如自動(dòng)駕駛系統(tǒng),還是具有自主意識的人工智能,如類似于上述的Tay和殺害古德科夫的電腦,在并沒有任何人的教唆、利用的情況下,基于自己的學(xué)習(xí)能力而主動(dòng)做出的這些行為,如何去追究責(zé)任,就是需要我們不斷深思的一個(gè)問題。在不能將人工智能納入刑法追責(zé)主體的情況下,如果不追究任何相關(guān)人的責(zé)任,就可能會(huì)造成受害者和受害者家屬的怒氣無法平息,反而造成更加嚴(yán)重的社會(huì)危害。那么如何追究人工智能背后相關(guān)人的責(zé)任則是一個(gè)值得深入探討的問題。
從上述的論述,我們不難知道,現(xiàn)行刑法并不能將人工智能作為刑事主體予以追究責(zé)任。如在1978年9月6日日本廣島的一家工廠里,發(fā)生了一起切割機(jī)器人將一名值班工人當(dāng)作鋼板切成了肉片的事件。這也成為世界上第一起人工智能殺人事件,可是這種情況難道只能當(dāng)作意外事件來處理?前文所提的德國大眾機(jī)器人殺人事件,機(jī)器人在整個(gè)事件過程中并沒有出現(xiàn)技術(shù)故障,也沒有出現(xiàn)損壞。德國檢察機(jī)關(guān)就此事展開調(diào)查,檢察官正在考慮是否起訴,但是起訴對象難以確定。①參見《人工智能惹的禍?德國大眾發(fā)生機(jī)器人殺人案》:http://www.oushinet.com/news/europe/germany/那么對于這樣的案件我們又該如何追究責(zé)任呢?在此筆者提出對人工智能所有者和設(shè)計(jì)者相關(guān)責(zé)任的追究建議。
人工智能的所有者,應(yīng)當(dāng)對其所有的人工智能承擔(dān)監(jiān)督責(zé)任,這里的監(jiān)督責(zé)任包括了事前的指揮、命令,事中的監(jiān)督責(zé)任和事后的檢查義務(wù)。監(jiān)督過失責(zé)任并不是讓監(jiān)督者代替被監(jiān)督者的責(zé)任,而是讓監(jiān)督者承擔(dān)自己因監(jiān)督過失而必須承擔(dān)的責(zé)任,監(jiān)督過失責(zé)任與其他責(zé)任形式一樣,具有直接性。[7]在這種監(jiān)督過失責(zé)任之下,所有者需要對自己的人工智能所造成的損害承擔(dān)相應(yīng)的責(zé)任。
在這里我們要注意不作為犯罪與監(jiān)督過失責(zé)任的區(qū)別。假設(shè)一家工廠的工作機(jī)器人由于異常原因造成了工人受傷或正在對工人實(shí)施傷害,此時(shí)工廠管理人和人工智能所有人(當(dāng)然可能是同一個(gè)人)對受傷的工人有救助義務(wù),如果在能救助的情況下不去履行救助義務(wù),此時(shí)直接成立相應(yīng)的不作為犯罪即可,無須再考慮其監(jiān)督過失責(zé)任。這里所說的監(jiān)督過失責(zé)任更多是指已經(jīng)來不及救助或?qū)嵤┚戎笠琅f造成了損害結(jié)果時(shí),人工智能所有者的監(jiān)督過失責(zé)任。當(dāng)然,這里的責(zé)任僅僅限于過失責(zé)任,如果主觀上存在故意因素,可直接以利用人工智能來實(shí)施犯罪進(jìn)行定罪。
但是在監(jiān)督過失責(zé)任之下,也要考慮作為監(jiān)管者其免責(zé)事由或者不存在過失情形。這種情形主要包括:第一,作為所有者已經(jīng)盡到了監(jiān)管義務(wù)、提醒義務(wù),仍不可避免地發(fā)生了危害結(jié)果。此時(shí),應(yīng)考慮是否要追究人工智能設(shè)計(jì)者的責(zé)任。比如在上述介紹案例中,存在著人工智能在自我學(xué)習(xí)下主動(dòng)地實(shí)施了犯罪,此時(shí)所有者對此類事情的發(fā)生沒有預(yù)見的可能性,也就不存在監(jiān)督過失。在不考慮是否履行救助義務(wù)或者補(bǔ)救義務(wù)的情況下,我們不能再去追究所有者的監(jiān)督過失責(zé)任。第二,機(jī)器人的危害行為是由于被害人或者第三人故意行為或重大過失所導(dǎo)致的,對于此時(shí)所造成的危害結(jié)果所有者依舊具有救助、補(bǔ)救義務(wù),如果在所有者已經(jīng)履行義務(wù)的情況下或義務(wù)履行不能的情況下,直接將危害結(jié)果歸屬于具有故意或重大過失的被害人或第三人即可。
人工智能的設(shè)計(jì)者當(dāng)然對其所設(shè)計(jì)的人工智能負(fù)有監(jiān)督責(zé)任。這里的監(jiān)督責(zé)任主要包括設(shè)計(jì)該人工智能時(shí)的監(jiān)管責(zé)任和投入使用時(shí)繼續(xù)監(jiān)督責(zé)任。
設(shè)計(jì)時(shí)的監(jiān)督主要是指,在人工智能設(shè)計(jì)時(shí)就要考慮到該人工智能可能出現(xiàn)的問題和可能造成的損害,要考慮如何避免問題。如果問題是固有的且無法通過技術(shù)手段措施消除的,那么設(shè)計(jì)者對于此種存在的問題就負(fù)有提醒注意的義務(wù)。如果依據(jù)現(xiàn)存的技術(shù)無法發(fā)現(xiàn)問題或無法預(yù)見的問題,而由于該問題導(dǎo)致了危害結(jié)果,此時(shí)就不能再考慮設(shè)計(jì)者在設(shè)計(jì)時(shí)的監(jiān)督責(zé)任,而是要考慮人工智能在使用時(shí)的繼續(xù)監(jiān)督責(zé)任。
這里提出的繼續(xù)監(jiān)督責(zé)任主要針對人工智能在使用過程中出現(xiàn)了難以預(yù)料的異常和危害,此時(shí)人工智能的設(shè)計(jì)者對于此人工智能就存在后續(xù)的召回義務(wù)或者提醒義務(wù)。如果此時(shí)設(shè)計(jì)者本身是服務(wù)于某個(gè)公司,則也應(yīng)該及時(shí)通知公司并做出合理的補(bǔ)救行為。否則對于因怠于履行責(zé)任而造成的擴(kuò)大損害結(jié)果,公司應(yīng)當(dāng)承擔(dān)責(zé)任。
如果僅僅針對設(shè)計(jì)者追究責(zé)任,一方面可能存在設(shè)計(jì)者太多,責(zé)任難以確認(rèn)或追究責(zé)任時(shí)執(zhí)法成本過高的問題;另一方面,只追究設(shè)計(jì)者的責(zé)任,設(shè)計(jì)者所在的設(shè)計(jì)公司很有可能借此逃避責(zé)任。對于此種情況,筆者比較傾向于追究設(shè)計(jì)者中主要負(fù)責(zé)人和公司雙重主體的責(zé)任。這種追究責(zé)任的方式既可以避免由于設(shè)計(jì)者過多而導(dǎo)致增加追究責(zé)任的難題,同時(shí)也可以避免設(shè)計(jì)公司逃脫責(zé)任。在雙重主體追究責(zé)任的情況下,同樣也可以督促設(shè)計(jì)者和其所在的設(shè)計(jì)公司積極履行自己的監(jiān)管責(zé)任。在社會(huì)發(fā)展迅猛的今天,人工智能離我們的日常生活越來越近。在帶來便利的同時(shí),不可避免地也帶來社會(huì)風(fēng)險(xiǎn)。我們既要立足于實(shí)際問題,探討如何解決問題,同時(shí)也要展望未來的新發(fā)展,預(yù)防可能出現(xiàn)的新問題。只有將人工智能所帶來的風(fēng)險(xiǎn)規(guī)制在制度的框架內(nèi),才能使我們更好地面對風(fēng)險(xiǎn)。