白玉杰 張 昱
( 1. 華東理工大學(xué)社會(huì)與公共管理學(xué)院, 上海 200237; 2. 青海大學(xué)財(cái)經(jīng)學(xué)院, 青海西寧 810016)
科技的進(jìn)步與發(fā)展帶來時(shí)代的快速更迭,與農(nóng)業(yè)社會(huì)轉(zhuǎn)型為工業(yè)社會(huì)不同,工業(yè)社會(huì)向智能社會(huì)的轉(zhuǎn)變,其速度、廣度和深度都已超出人類的想象。[1]人工智能技術(shù)的快速發(fā)展已然證明人類進(jìn)入了萬物互聯(lián)的智能社會(huì)。2016年3月,人工智能系統(tǒng)AlphaGo以4∶1戰(zhàn)勝世界圍棋冠軍李世石;2017年7月,AlphaGo與柯潔在圍棋人機(jī)對(duì)戰(zhàn)中連勝3局;同年10月,AlphaGoZero通過三天圍棋學(xué)習(xí),以100∶0戰(zhàn)勝AlphaGo;此后,DeepStack程序戰(zhàn)勝世界頂級(jí)職業(yè)撲克玩家,人工智能機(jī)器戰(zhàn)勝人類的事件頻頻出現(xiàn)。人工智能幾乎成為所有領(lǐng)域談?wù)摰臒狳c(diǎn),哪個(gè)領(lǐng)域若不能與人工智能相聯(lián)系,彷佛就要被社會(huì)所淘汰,智能金融、智能教育、智能醫(yī)療、智能交通、智能經(jīng)濟(jì)、智能健康、智能能源、智能家具、智能養(yǎng)老、智能公共服務(wù)、智能監(jiān)管等等,涉及人類社會(huì)的方方面面。只要有一部智能手機(jī)與互聯(lián)網(wǎng)相連,人工智能就在身邊,我們的生活質(zhì)量瞬間提升,工作和學(xué)習(xí)效率也大大提高。我們?cè)谙硎芸萍歼M(jìn)步帶來福祉的同時(shí),也會(huì)遇到人工智能惹出的麻煩。因?yàn)橹悄苌鐣?huì)的發(fā)展太迅速、給人類準(zhǔn)備迎接的時(shí)間又太短,所以當(dāng)我們面對(duì)人工智能惹出的麻煩時(shí),我們既需要冷靜客觀地思考解決方法,又要以包容的心態(tài)對(duì)待新技術(shù)在應(yīng)用中出現(xiàn)的問題,只有這樣才不會(huì)阻礙科技的發(fā)展,被破壞的社會(huì)關(guān)系也能及時(shí)得到修復(fù)。
智能社會(huì)因?yàn)榭萍嫉难杆侔l(fā)展對(duì)原有的社會(huì)結(jié)構(gòu)、社會(huì)生活方式、經(jīng)濟(jì)發(fā)展都產(chǎn)生了巨大的影響,許多國(guó)家紛紛著眼于人工智能技術(shù)的發(fā)展,希望無論在技術(shù)方面還是相關(guān)制度設(shè)計(jì)方面都能引領(lǐng)世界,因此人工智能技術(shù)成為促進(jìn)社會(huì)發(fā)展、提升綜合國(guó)力的重要科技力量。隨著人工智能應(yīng)用的領(lǐng)域越來越廣泛,其出現(xiàn)的問題也逐漸引起人們的思考。人工智能技術(shù)的發(fā)展帶給人類社會(huì)的負(fù)面影響或風(fēng)險(xiǎn)并未因技術(shù)的不斷革新而消失,相反,人類可能需要不斷面對(duì)新的甚至更嚴(yán)峻的風(fēng)險(xiǎn)??茖W(xué)技術(shù)的高度發(fā)展便是風(fēng)險(xiǎn)社會(huì)的特征之一,技術(shù)風(fēng)險(xiǎn)是造成社會(huì)風(fēng)險(xiǎn)的重要根源。[2]例如,2015年英國(guó)首列達(dá)芬奇手術(shù)機(jī)器人給患者進(jìn)行心瓣修復(fù)手術(shù)時(shí),縫錯(cuò)了患者心臟的位置、戳穿了大動(dòng)脈,機(jī)器人的“暴走”行為導(dǎo)致患者手術(shù)后一周去世,原本是一場(chǎng)最尖端醫(yī)療技術(shù)的展示,沒想到卻成為一樁慘案。[3]無人駕駛汽車因交通事故導(dǎo)致車內(nèi)人員傷亡。人類閱讀人工智能在文學(xué)創(chuàng)作領(lǐng)域的生成物時(shí),竟無法辨別出該文學(xué)創(chuàng)作是出自一個(gè)不具有情感的機(jī)器人之手,使得人類的尊嚴(yán)有受到威脅的緊迫感。人工智能的發(fā)展依賴于大數(shù)據(jù),而大數(shù)據(jù)環(huán)境下人類的隱私泄露又成為人工智能領(lǐng)域所面對(duì)的一個(gè)重大風(fēng)險(xiǎn)。上述種種問題已經(jīng)引發(fā)各國(guó)政府考慮如何讓人工智能在符合倫理道德和法律的范圍內(nèi)健康有序發(fā)展。
我國(guó)在2017年7月頒布《新一代人工智能發(fā)展規(guī)劃》,將人工智能的發(fā)展作為國(guó)家戰(zhàn)略?!缎乱淮斯ぶ悄馨l(fā)展規(guī)劃》明確提出“以加快人工智能與經(jīng)濟(jì)、社會(huì)、國(guó)防深度融合為主線,以提升新一代人工智能科技創(chuàng)新能力為主攻方向,發(fā)展智能經(jīng)濟(jì),建設(shè)智能社會(huì)”的要求。習(xí)近平總書記在2018年10月的中共中央政治局第九次集體學(xué)習(xí)會(huì)議上明確指出:“想要抓住新一輪科技革命和產(chǎn)業(yè)變革機(jī)遇要依靠人工智能技術(shù)的發(fā)展?!盵4]但我們也應(yīng)當(dāng)看到,人工智能技術(shù)的飛速發(fā)展,給人們生活帶來極大的便利,同時(shí)因法律制度的滯后性無法跟上人工智能技術(shù)迅速發(fā)展的腳步,致使無力解決伴隨人工智能出現(xiàn)的一系列社會(huì)問題。民法領(lǐng)域關(guān)于人工智能致人損害可能因不具備法定條件而無法認(rèn)定責(zé)任主體,受害人權(quán)益無法得到保障;人工智能小冰創(chuàng)作的令人難以區(qū)分是人還是機(jī)器所作的詩(shī)歌問世后,在知識(shí)產(chǎn)權(quán)領(lǐng)域掀起不小的漣漪,人們討論小冰應(yīng)否成為作者、她所創(chuàng)作的詩(shī)歌應(yīng)否受著作權(quán)法的保護(hù)?刑法領(lǐng)域討論最多的是應(yīng)否重構(gòu)法律結(jié)構(gòu)賦予人工智能法律主體資格以及創(chuàng)設(shè)適用于人工智能的新刑罰種類等等。由于人工智能技術(shù)風(fēng)險(xiǎn)的形成與技術(shù)方法本身、經(jīng)濟(jì)利益、技術(shù)的社會(huì)組織和管理活動(dòng)中的人為因素等都可能有關(guān),所以在確定人工智能損害責(zé)任主體時(shí)面臨一個(gè)龐大且復(fù)雜的關(guān)系網(wǎng),在既有法律制度框架下,想要合理認(rèn)定責(zé)任主體顯得非常困難。隨著長(zhǎng)沙、北京、上海等地自動(dòng)駕駛出租車服務(wù)的開放[5],自動(dòng)駕駛汽車離大眾的生活越來越近。在人們?yōu)樾迈r科技產(chǎn)品躍躍一試的時(shí)候,無論是在無人駕駛車?yán)锏娜诉€是行走在路上的行人,一旦因無人駕駛汽車的失靈遭受損害,應(yīng)該由誰(shuí)負(fù)責(zé)?這樣的問題如果不能很好地解決,將會(huì)嚴(yán)重阻礙人工智能技術(shù)的發(fā)展,只有研發(fā)沒有應(yīng)用市場(chǎng)的科學(xué)技術(shù)是走不遠(yuǎn)的??梢哉f,人工智能已經(jīng)向傳統(tǒng)的法律制度發(fā)起了挑戰(zhàn),考驗(yàn)人類如何做到既要保障人工智能技術(shù)快速穩(wěn)健地發(fā)展,也要保護(hù)因人工智能受到侵害的法益。因此人工智能造成損害后如何確定責(zé)任主體以及如何彌補(bǔ)和恢復(fù)受害人損失,是當(dāng)下研究的熱點(diǎn)問題,也是維護(hù)智能社會(huì)穩(wěn)定,保障科技持續(xù)發(fā)展的必然要求。
理論界將導(dǎo)致人工智能引發(fā)損害的原因力大致分為兩種:“內(nèi)在原因力”和“外在原因力”?!皟?nèi)在原因力”是指人工智能基于一定的算法對(duì)大數(shù)據(jù)的深度學(xué)習(xí),能夠具有自主性和認(rèn)知特征,不受人類控制擁有獨(dú)立自主地作出判斷的能力?!巴庠谠蛄Α倍嘀覆涣加眯牡娜死萌斯ぶ悄芗夹g(shù)威脅他人的生命和財(cái)產(chǎn)安全,甚或是利用人工智能機(jī)器對(duì)某一國(guó)家發(fā)動(dòng)戰(zhàn)爭(zhēng)等等。無論是“內(nèi)在原因力”還是“外在原因力”,學(xué)界對(duì)屬于人類編程控制之下人工智能致?lián)p的責(zé)任認(rèn)定的認(rèn)識(shí)及態(tài)度是統(tǒng)一的,即由人工智能機(jī)器的研發(fā)者、設(shè)計(jì)者或使用者、銷售者等相關(guān)主體承擔(dān)責(zé)任。但對(duì)未來可能出現(xiàn)的超出人類編程控制的具有自主決策意識(shí)的人工智能的侵害行為的認(rèn)定,以及著作權(quán)領(lǐng)域人工智能應(yīng)否具有法律主體資格而獲得相應(yīng)著作權(quán)利,學(xué)界有著完全不同的看法和態(tài)度。有學(xué)者認(rèn)為責(zé)任應(yīng)以誰(shuí)決策誰(shuí)承擔(dān)為原則,故而,人工智能的損害責(zé)任也應(yīng)以此為原則,即對(duì)于超出人類設(shè)計(jì)程序范圍之外獨(dú)立決策并實(shí)施決策行為的人工智能賦予法律主體資格并讓其獨(dú)立承擔(dān)特殊的法律懲罰。有學(xué)者則極力反駁,認(rèn)為人工智能機(jī)器無法具備人的生物性特征,機(jī)器的行為均是在人的程序編制輸入的框架內(nèi)實(shí)施,不應(yīng)打破以人為中心的法律框架,急于將人工智能納入法律主體結(jié)構(gòu)中予以規(guī)制,要求其承擔(dān)義務(wù)和責(zé)任甚至接受刑罰懲罰并不現(xiàn)實(shí)。
人工智能應(yīng)否具有法律主體資格,是人工智能可否享有權(quán)利、承擔(dān)義務(wù)的前提。所以是否賦予人工智能法律主體資格,是討論人工智能規(guī)范治理的邏輯起點(diǎn),因而也成為學(xué)界討論的焦點(diǎn)。目前,法學(xué)界存在兩種觀點(diǎn),即不應(yīng)賦予法律主體的否定說和應(yīng)當(dāng)賦予法律主體的肯定說,此外,在不斷爭(zhēng)論過程中還出現(xiàn)了第三種聲音——“偽問題論”。
持否定說觀點(diǎn)的學(xué)者堅(jiān)持法律主體“二元論”,認(rèn)為現(xiàn)有的法律體系之下,法律主體為自然人和法人,人工智能不具備像人類一樣的思維和獨(dú)立自由的意識(shí),是完全依賴于人類的程序設(shè)計(jì)和編制,體現(xiàn)的是設(shè)計(jì)者或使用者的意志,應(yīng)由人工智能的設(shè)計(jì)者、制造者或使用者對(duì)人工智能造成的損害承擔(dān)法律責(zé)任,而人工智能不應(yīng)該也無法獲得法律上的主體資格。朱建華和甄航認(rèn)為人工智能在神經(jīng)、心理、語(yǔ)言、思維、文化方面都無法達(dá)到人類的水平,其只是在人類程序和指令設(shè)計(jì)范圍內(nèi)對(duì)人智能形式上的簡(jiǎn)單模擬,即使在可預(yù)見的未來,具有自主意識(shí)的強(qiáng)人工智能仍然處在樸素的科學(xué)設(shè)想階段,若將人工智能提升到人的高度,有損人之所以為人的尊嚴(yán)。[6]魏東認(rèn)為人工智能犯罪在生成過程和內(nèi)在邏輯上只能是“算法安全犯罪”,而算法是否安全取決于自然人或法人這樣的社會(huì)關(guān)系主體。[7]葉良芳和馬路瑤認(rèn)為人工智能在善惡觀和倫理觀上不可能具備像人類一樣的認(rèn)知水平,將人工智能作為犯罪主體不具有正當(dāng)?shù)目茖W(xué)立法的依據(jù)。時(shí)方通過細(xì)致的法理分析,指出人工智能無法具有刑法上的主觀要素即自主性, 也就不能具有人的意識(shí)理性所支配的承擔(dān)責(zé)任的基礎(chǔ), 因而人工智能欠缺作為刑事責(zé)任主體的本質(zhì)要素。[8]齊延平在其論文中提出對(duì)科學(xué)技術(shù)的研究發(fā)展領(lǐng)域中具有極大不確定的預(yù)測(cè)性問題,法學(xué)研究與法律建構(gòu)應(yīng)對(duì)其保持適當(dāng)?shù)木嚯x,以免對(duì)法律的穩(wěn)定性造成不必要的沖擊和緊張關(guān)系。[9]針對(duì)當(dāng)前刑法學(xué)者熱衷將“人工智能納入刑事責(zé)任主體”為代表的文獻(xiàn)在2018年出現(xiàn)井噴式增長(zhǎng),冀洋在其論文中表露出自己的疑惑,不知此種現(xiàn)象到底是屬于法學(xué)研究的“最前沿”還是法學(xué)面對(duì)科技迅速發(fā)展表現(xiàn)出的“急不可耐”?或是學(xué)者在參與流行話題討論時(shí)為了“搶占高端話語(yǔ)權(quán)”?其在疑惑之余也表達(dá)了自己的看法,認(rèn)為刑法作為最后的保障法,應(yīng)在其他部門法之后慎重表態(tài)。[10]總而言之,人工智能雖作為一項(xiàng)重要科學(xué)技術(shù),每個(gè)國(guó)家都在支持人工智能技術(shù)的研發(fā),主要目的是展現(xiàn)一個(gè)國(guó)家的科技力量與水平,絕非是想以未來強(qiáng)人工智能代替人類或?qū)θ祟悩?gòu)成威脅,因而人工智能技術(shù)的發(fā)展依然能夠被人類所控制,無論何時(shí),人工智能所實(shí)施的行為都會(huì)是某一個(gè)(或一類)特定人的意思表現(xiàn),故無需改變傳統(tǒng)的“二元主體結(jié)構(gòu)”。此外,由于人工智能無法具備人一樣的善惡觀和倫理觀,無法具備自主意識(shí),因此無論是現(xiàn)有刑罰制度還是針對(duì)人工智能創(chuàng)設(shè)新的刑罰種類,都不具有可行性。
肯定說的論者認(rèn)為應(yīng)該重構(gòu)法律責(zé)任主體,在自然人和法人之外將人工智能設(shè)立為新的法律主體,即“三元主體論”。持該觀點(diǎn)的認(rèn)為在強(qiáng)人工智能時(shí)代,人工智能可能因?yàn)閺?qiáng)大的深度學(xué)習(xí)能力,能夠脫離人的控制,自主決策并實(shí)施決策行為,因此產(chǎn)生的危害結(jié)果應(yīng)由人工智能自身承擔(dān),這樣就需要給人工智能賦予法律主體資格。[11]學(xué)術(shù)界將人工智能擬制為新的法律主體的觀點(diǎn)不在少數(shù)。皮勇籠統(tǒng)地承認(rèn)強(qiáng)人工智能機(jī)器人應(yīng)具有犯罪主體性。[12]劉憲權(quán)教授在其文章中提出,當(dāng)強(qiáng)人工智能在人類的程序設(shè)計(jì)之外自主實(shí)施危害社會(huì)的行為時(shí),該強(qiáng)人工智能便具有行為的辨認(rèn)和控制能力,即具有刑法意義上的刑事責(zé)任能力,其應(yīng)獨(dú)立承擔(dān)刑事責(zé)任[13],然而承擔(dān)刑事責(zé)任的前提則是人工智能首先要被賦予法律主體資格。王肅之建議參考法人主體的設(shè)計(jì)思路,構(gòu)建以法律擬制模式為主的人工智能刑事主體資格,使人工智能被納入刑法主體范圍。[14]徐慧麗提出以法人制度為參考,以限定性、工具性為特征賦予人工智能以電子人格。[15]不少持肯定說的學(xué)者認(rèn)為,以人工智能的發(fā)展速度和深度學(xué)習(xí)技術(shù)來看,可能在不久的將來,出現(xiàn)的強(qiáng)人工智能便能夠擁有自主意識(shí)和意志支配下的辨認(rèn)能力和控制能力,為此,傳統(tǒng)的法律制度無法調(diào)整或規(guī)范強(qiáng)人工智能在自主決策下的機(jī)器行為,因而需要改變傳統(tǒng)的法律主體結(jié)構(gòu),以便在法律適用上體現(xiàn)行為主體需對(duì)自己實(shí)施的侵害行為擔(dān)責(zé)的歸責(zé)理論,避免法律制度成為人工智能快速發(fā)展的障礙,導(dǎo)致人工智能技術(shù)的萎縮。持肯定觀點(diǎn)的論者相信將來的強(qiáng)人工智能機(jī)器可以擁有像人一樣的思維,可以超出人的程序設(shè)計(jì)范圍自主實(shí)施違反設(shè)計(jì)者或使用者本來目的的行為。根據(jù)刑法上定罪與處罰需以實(shí)施的行為為判定基礎(chǔ),因此,如果人工智能超出設(shè)計(jì)程序范圍自主決定實(shí)施的危害行為,在設(shè)計(jì)者和使用者能夠證明自己對(duì)危害結(jié)果的發(fā)生沒有過錯(cuò)的情形下,如果再追究設(shè)計(jì)者和使用者的刑事責(zé)任就違背了罪責(zé)刑相一致的原則,此種情形下,就需要由人工智能本身作為主體來承擔(dān)相應(yīng)的責(zé)任。
除了上述否定說與肯定說完全對(duì)立的兩種觀點(diǎn)以外,還有人認(rèn)為,未來人工智能具有類人的思考、像人一樣獨(dú)立自主決策并脫離人的控制實(shí)施侵害人類的行為,并將人工智能作為可歸責(zé)主體屬于無稽之談的“偽問題”,實(shí)無討論之必要。[16]持該種觀點(diǎn)的學(xué)者完全獨(dú)立于否定說與肯定說,認(rèn)為當(dāng)下人們不值得花費(fèi)時(shí)間和精力去探討一個(gè)未來尚不知能否研發(fā)出具有獨(dú)立思維的人工智能該不該獲得法律主體資格以及歸責(zé)問題。筆者詢問身邊不同職業(yè)的人對(duì)強(qiáng)人工智能將來是否會(huì)擁有獨(dú)立思維及自主決策能力的看法,大多數(shù)認(rèn)為這是不可能實(shí)現(xiàn)的。但筆者認(rèn)為,這種對(duì)人工智能不可能擁有獨(dú)立思維和自主決策能力的看法是普通民眾的樸素認(rèn)知觀,而法學(xué)研究者,應(yīng)具有一定的風(fēng)險(xiǎn)意識(shí)及更高的認(rèn)知程度,對(duì)法律在人工智能的規(guī)范上應(yīng)該具有前瞻性,應(yīng)設(shè)想未來強(qiáng)人工智能的出現(xiàn)可能引發(fā)的風(fēng)險(xiǎn),而不能因?yàn)閺?qiáng)人工智能是否會(huì)真實(shí)發(fā)生尚未可知作為回避討論這一難題的借口,因?yàn)椴煌^點(diǎn)的爭(zhēng)鳴與探索可以引起人們的重視,況且,需要對(duì)人工智能的發(fā)展作出具有前瞻性的立法布局,是世界各國(guó)面臨的法律難題。
人工智能應(yīng)否被賦予法律主體資格的不同觀點(diǎn),在某些方面各有其合理性,但結(jié)合人工智能特征進(jìn)行分析,便會(huì)發(fā)現(xiàn)上述觀點(diǎn)都有不能解決的問題。首先,人工智能機(jī)器無法具有生理學(xué)上的人的構(gòu)成要素,不是細(xì)胞而是電路、元件和編碼的構(gòu)成,這是機(jī)器與人的根本區(qū)別。李建偉教授認(rèn)為人工智能所表現(xiàn)出的行為與人類有目的有意識(shí)的行為是完全不同的,人工智能雖在一定程度上能夠模擬出和擴(kuò)展人的智能,但因其不具有人的心性和靈性,因此人工智能無法獲得法律上的主體資格。[17]該種觀點(diǎn)在對(duì)待人工智能超出人的程序設(shè)計(jì)之外所實(shí)施的侵害行為(此種情形下設(shè)計(jì)者或使用者無過錯(cuò))的責(zé)任承擔(dān)上,因人工智能不具備人的本質(zhì)特征不能賦予法律主體資格問題上,顯得心有余而力不足。其次,有論者建議參考法人制度的設(shè)計(jì),通過法律規(guī)定將人工智能視為具有擬制人格的法律主體,以便符合一定的法律精神和法律歸責(zé)理論,筆者認(rèn)為此舉亦不可行,因?yàn)榉ㄈ吮臼侨撕匣蜇?cái)合的組織,這些組織也都是由人組成,最終所體現(xiàn)的也是人的意志,雖然法律規(guī)定法人以其全部財(cái)產(chǎn)承擔(dān)責(zé)任,但法人的財(cái)產(chǎn)來源于出資人的財(cái)產(chǎn)出資,讓法人承擔(dān)責(zé)任的后果直接會(huì)影響到出資人的財(cái)產(chǎn)利益,因而以法人名義實(shí)施的行為基本都是經(jīng)過出資人的審慎考慮。而強(qiáng)人工智能是根據(jù)自己的獨(dú)立意志作出決定并非是人類意志的體現(xiàn),所以人工智能同樣不具備可賦予擬制法律主體的法理依據(jù)。再次,在“三元主體論”的觀點(diǎn)中,有學(xué)者提倡突破傳統(tǒng)法律主體結(jié)構(gòu),為人工智能設(shè)定新的法律主體地位,成為獨(dú)立于自然人和法人之外的第三種法律主體。筆者認(rèn)為,法律制度自隨著國(guó)家的出現(xiàn)而產(chǎn)生,它始終是以人為中心,法律調(diào)整的終究都是因人的意志和行為而發(fā)生的法律關(guān)系,強(qiáng)人工智能雖然在未來可能有自己的意識(shí)和獨(dú)立決策行為,但它始終無法具備人類的本質(zhì)特征,且筆者認(rèn)為人工智能的發(fā)展始終會(huì)且必須受控于人類,我們沒必要在當(dāng)下迫切地去改變伴隨人類幾千年的法律價(jià)值和法律理念,況且滯后性是法律的特征之一,法律也無法規(guī)制未來不確定是否能發(fā)生的事情。
法律在對(duì)人工智能的規(guī)范上要有一定的前瞻性,應(yīng)該設(shè)想未來強(qiáng)人工智能的出現(xiàn)所引發(fā)的風(fēng)險(xiǎn),但就目前對(duì)人工智能有計(jì)劃地在一些特定領(lǐng)域發(fā)展及未來發(fā)展方向仍以人類為主導(dǎo)的原則來看,人工智能不會(huì)取代人類,只要人們對(duì)人工智能的研發(fā)設(shè)計(jì)始終遵從全人類認(rèn)同的發(fā)展規(guī)則即可。物理學(xué)家斯蒂芬·霍金曾多次表示人工智能可能會(huì)毀滅人類,弗里曼·戴森認(rèn)為“技術(shù)只會(huì)給我們提供工具,人類的欲望和制度決定了我們?nèi)绾卫盟鼈儭盵18]。故而如果全人類建立起對(duì)人工智能在研發(fā)設(shè)計(jì)和適用方面的統(tǒng)一規(guī)范標(biāo)準(zhǔn),限制人類惡意研發(fā)和使用人工智能,那么,人工智能必然會(huì)為人類創(chuàng)造福祉。對(duì)于因人工智能的獨(dú)立自主決策行為致人損害,其損害的社會(huì)關(guān)系完全可以通過其他途徑獲得恢復(fù)和補(bǔ)償。我們不應(yīng)該以人工智能可能會(huì)實(shí)施損害行為而倒推必須通過賦予人工智能法律主體資格來要求人工智能對(duì)自己行為造成的損害承擔(dān)法律責(zé)任。人工智能是人類創(chuàng)造出的為滿足人的生活和工作需求,提升人的生活水平和工作效率的一種為人類謀福祉的工具。可以從以下角度分析具有工具屬性的人工智能是無需擁有法律主體資格的:
1. 人類對(duì)人工智能具有可控性,其無需獲得法律主體資格。人工智能屬人類科技創(chuàng)造物,無論其未來自主能力怎樣,終究是以人類編制的程序內(nèi)容為基礎(chǔ)、以人提供的信息數(shù)據(jù)內(nèi)容為學(xué)習(xí)對(duì)象,故人類對(duì)其具有可控性?!度斯ぶ悄軜?biāo)準(zhǔn)化白皮書2018》中對(duì)人工智能進(jìn)行定義,人工智能是利用數(shù)字計(jì)算機(jī)或者數(shù)字計(jì)算機(jī)控制的機(jī)器模擬、 延伸和擴(kuò)展人的智能,感知環(huán)境、獲取知識(shí)并使用知識(shí)獲得最佳結(jié)果的理論、方法、技術(shù)及應(yīng)用系統(tǒng)。故人工智能是科學(xué)技術(shù)的發(fā)展結(jié)果,作為科學(xué)技術(shù),始終都要以服務(wù)人類、服務(wù)社會(huì)為終極目標(biāo),都必須以尊重個(gè)人或某種情況下尊重有關(guān)群體的人權(quán)、基本自由和人的尊嚴(yán)為前提。[19]人工智能作為一種工具,只因這種工具在為人提供服務(wù)的過程中,超出人類的控制對(duì)人或財(cái)產(chǎn)造成傷害,就要為其賦予法律主體資格并讓其對(duì)自己造成的損害承擔(dān)責(zé)任,與人一樣成為并列的法律主體資格?人之所以成為法律主體,是因?yàn)檫@個(gè)世界本身是由人組成的,社會(huì)的發(fā)展是由一代一代的人在推動(dòng),社會(huì)的文明也是由人類在創(chuàng)造,人與人之間的交往互動(dòng)組成了社會(huì),人們創(chuàng)造法律就是為了規(guī)范所有的人能夠在這個(gè)社會(huì)中按規(guī)則行事,維護(hù)自己的權(quán)益也保護(hù)他人權(quán)益不受侵犯。筆者認(rèn)為,無論人工智能怎樣發(fā)展,它都不可能成為主導(dǎo)社會(huì)發(fā)展的主要成員,也不可能成為延續(xù)社會(huì)存續(xù)和創(chuàng)造社會(huì)文明的力量(只有人才能實(shí)現(xiàn)社會(huì)的存續(xù)及文明的創(chuàng)造)。因人工智能對(duì)人造成的傷害,按現(xiàn)有法律制度就可以解決,沒有適當(dāng)規(guī)則解決的情況下,還可以創(chuàng)設(shè)其他規(guī)則來實(shí)現(xiàn)對(duì)損害的彌補(bǔ),以及由其他主體來承擔(dān)相應(yīng)的法律責(zé)任。從這個(gè)層面來看,人工智能是無需具有法律主體資格的。
2. 人工智能不同于法人組織,無需通過法律賦予其擬制的法律主體資格。法人是法律上擬制的人格,目的是便于其他人或其他組織與法人進(jìn)行交易,或某個(gè)法人組織便于以自己的名義獨(dú)立開展活動(dòng),推動(dòng)和保證社會(huì)及市場(chǎng)經(jīng)濟(jì)的發(fā)展。法人是人的集合,法人的意志是由其成員共同決定,法人的權(quán)利和義務(wù)也是由其成員享有和履行,法人基于其成員的出資擁有獨(dú)立于出資人的財(cái)產(chǎn),享有一定的財(cái)產(chǎn)權(quán),法人的責(zé)任既有法人承擔(dān)也有其成員承擔(dān)的責(zé)任,即使法人承擔(dān)了財(cái)產(chǎn)責(zé)任,最終還是由其成員體驗(yàn)被懲罰的痛苦感。人工智能是人的創(chuàng)造物,并非由人組成,人工智能是人們滿足生活和工作需要的工具,設(shè)計(jì)者、研發(fā)者、使用者、所有者并非是其成員,每一個(gè)主體對(duì)人工智能在設(shè)計(jì)階段、研發(fā)階段、使用階段應(yīng)負(fù)有不同的責(zé)任,人類按照事先設(shè)計(jì)的程序?yàn)槿斯ぶ悄茌斎胫噶钭屍涔ぷ?,即使人工智能通過自主決策實(shí)施某行為,都不應(yīng)認(rèn)為是以它自己的名義實(shí)施。由于人工智能并非人的集合,其沒有獨(dú)立財(cái)產(chǎn),無財(cái)產(chǎn)權(quán)也無承擔(dān)法律責(zé)任的基礎(chǔ),若是由人工智能承擔(dān)法律責(zé)任,無論是人工智能還是人都體會(huì)不到被懲罰的痛苦,故而人工智能也無需獲得擬制的法律主體資格。
3. 法律主體作為法學(xué)上的一個(gè)源于人的尊嚴(yán)、人格而形成的重要理論范疇,是對(duì)人的本質(zhì)的一種法律抽象。人作為法律主體,享有生而為人的生命健康、尊嚴(yán)與其他權(quán)利,并在一切社會(huì)交往過程中體現(xiàn)自我意志。即使是作為法律擬制主體的法人,按照法律規(guī)定享有法人權(quán)利、承擔(dān)法人義務(wù),其法人意志是其組成人員共同意志的體現(xiàn),并由其代表人執(zhí)行法人的意思決定。對(duì)人工智能而言,即使將來強(qiáng)人工智能能夠脫離人類編制的程序進(jìn)行自主決策并獨(dú)立實(shí)施某種行為,這終究不是體現(xiàn)人的意志也不是借助人的行為來實(shí)現(xiàn)人工智能機(jī)器的意志,其始終不會(huì)脫離物或者工具的范疇。故而對(duì)法律主體范圍的界定始終不應(yīng)離開以人為中心才能實(shí)施活動(dòng)的情景。法律發(fā)展至今,法律主體的認(rèn)定問題上只有是或不是的兩分法,沒有中間狀態(tài),如準(zhǔn)人格的概念。我們不能因?yàn)槲磥淼膹?qiáng)人工智能有自主決策自主行為的能力,而賦予人工智能類似卻又不同于人的主體資格,讓人工智能基于獲得的準(zhǔn)人格享有某類權(quán)利承擔(dān)某類義務(wù)或責(zé)任。這勢(shì)必會(huì)打破人與人、人與社會(huì)的互動(dòng)規(guī)則,破壞社會(huì)的公平正義規(guī)則。如果人工智能擁有法律主體資格,由于其科學(xué)技術(shù)性、高度專業(yè)性,加之現(xiàn)有法律制度下的誰(shuí)主張誰(shuí)舉證的舉證責(zé)任,普通公眾受人工智能的侵害后,幾乎沒有能力舉證證明侵害行為是由人工智能自主決策行為造成的,只要受害人無法證明是人工智能自主決策行為致害,那么受害人就要承擔(dān)舉證不利的后果。即使在人工智能侵害案件中,適用舉證責(zé)任倒置,聰明的比人類反應(yīng)還快的人工智能怎么可能老老實(shí)實(shí)自證有錯(cuò)或有罪呢。所以賦予人工智能法律主體資格,將會(huì)大大增加受害人舉證難度。設(shè)想這樣一個(gè)場(chǎng)景:法庭上,原告席坐著人,被告席上坐著一個(gè)人工智能機(jī)器(人),法官席上坐著一位或幾位人類法官,大家就被告人工智能機(jī)器(人)的侵害行為展開法庭審理。人類與一臺(tái)人工智能機(jī)器(人)對(duì)簿公堂,且該機(jī)器(人)在主觀上并不能產(chǎn)生像人類那樣的我做錯(cuò)了的認(rèn)知,恐怕不是人類所能接受的。
4. 現(xiàn)有法律制度并非完全失去對(duì)人工智能的規(guī)范效力,且法律制度可以隨著社會(huì)與科技發(fā)展而做出調(diào)整。人工智能研發(fā)和使用過程中的相關(guān)人員在法律理論上都有成為承擔(dān)責(zé)任的可能性,即使沒有責(zé)任主體,我們的法律制度及法律原則都有能力修復(fù)被人工智能破壞的社會(huì)關(guān)系,無需由一個(gè)智能機(jī)器(人)來承擔(dān)法律責(zé)任。未來的人工智能可能擁有脫離人的控制自主做出決策的時(shí)候,但其做出決策所依賴的程序及數(shù)據(jù)仍然由設(shè)計(jì)者或使用者操作和決定,人工智能的行為離不開人,其在工作過程中產(chǎn)生的侵害行為可以由設(shè)計(jì)人、研發(fā)人、使用人或管理人在不同階段因未盡到謹(jǐn)慎注意義務(wù)或上述人員行為不符合相應(yīng)技術(shù)規(guī)范、法律倫理規(guī)范等,由個(gè)體或是多個(gè)責(zé)任主體共同承擔(dān)損害責(zé)任。即使人工智能的設(shè)計(jì)人、研發(fā)人、使用人或管理人因不存在主觀過錯(cuò)而不涉罪或侵權(quán),且受害人自身也無過錯(cuò)的,對(duì)于受害人的補(bǔ)救可以根據(jù)人工智能的使用范圍及影響力,按照民事法律制度中的公平補(bǔ)償原則,可對(duì)受害人予以一定的補(bǔ)救。并非由人工智能以主體身份承擔(dān)責(zé)任才是恢復(fù)受損社會(huì)關(guān)系的唯一有效途徑。如果人工智能需要以賦予法律主體資格的方式承擔(dān)責(zé)任接受懲罰,那么是否也應(yīng)賦予動(dòng)物法律主體資格以便于承擔(dān)致人傷害的責(zé)任?至少動(dòng)物相對(duì)于人工智能這樣的機(jī)器或者應(yīng)用系統(tǒng)而言,被法律處以生命刑的時(shí)候,動(dòng)物會(huì)感覺到疼痛,而人工智能被刪除數(shù)據(jù)、銷毀時(shí)不會(huì)有絲毫的疼痛感。如:狗作為人類喜愛的動(dòng)物,是可以在其意識(shí)范圍內(nèi)決定自己是走是跑還是臥著不動(dòng),能決定往哪個(gè)方向走,決定吃或不吃,但狗一旦傷了人,除受害人自身有過錯(cuò)外,即使飼養(yǎng)人主觀上沒有過錯(cuò),都要承擔(dān)責(zé)任。此種情形下,狗傷害他人的行為,純屬飼養(yǎng)人意志之外,法律并不會(huì)要求狗來承擔(dān)責(zé)任而會(huì)讓飼養(yǎng)人承擔(dān)相應(yīng)的責(zé)任。如果飼養(yǎng)人故意唆使狗實(shí)施傷害他人的行為或在看管狗的過程中因過失對(duì)他人造成嚴(yán)重的危害后果,飼養(yǎng)人的行為可能就構(gòu)成犯罪,仍然要對(duì)狗傷害他人的行為承擔(dān)法律責(zé)任。同理,人工智能機(jī)器應(yīng)用到社會(huì)生活中,也能找到對(duì)他負(fù)責(zé)的法律主體。根據(jù)導(dǎo)致人工智能侵害行為發(fā)生時(shí)的原因,可以確定承擔(dān)責(zé)任的主體,如果無法確定誰(shuí)存在過錯(cuò),受害人也無過錯(cuò)的情形下,根據(jù)民法公平補(bǔ)償原則由人工智能機(jī)器的受益者或設(shè)計(jì)者、研發(fā)者、使用者、管理者和所有者按比例或平均的方式共同承擔(dān)法律責(zé)任,如果受害人也有過錯(cuò)的,按照過錯(cuò)程度承擔(dān)相應(yīng)的損失。這種做法一方面可以促使人工智能的設(shè)計(jì)者、研發(fā)者、使用者或所有者時(shí)刻謹(jǐn)記審慎注意義務(wù),嚴(yán)格讓其行為符合人類制定的技術(shù)倫理規(guī)范和法律制度,以防利用人工智能侵害他人權(quán)益;另一方面通過普遍認(rèn)可和接受的技術(shù)倫理和配套制度規(guī)范的約束和保障,可以促使人工智能在有序良好的社會(huì)環(huán)境中快速而穩(wěn)健地發(fā)展。
人工智能在未來的發(fā)展中,即使具有自主決策能力,那也是基于人類編程和提供的信息數(shù)據(jù)內(nèi)容使然,并非是具有意識(shí)能力。我們與其激烈地討論未來強(qiáng)人工智能應(yīng)不應(yīng)該被賦予法律主體資格的問題,還不如靜下心來,與人工智能相關(guān)的其他學(xué)科領(lǐng)域的專家、技術(shù)人員進(jìn)行配合,探討如何制定出保障人工智能健康發(fā)展的法律倫理規(guī)范以及相應(yīng)的責(zé)任承擔(dān)分配措施,將人工智能可能帶來的風(fēng)險(xiǎn)控制在技術(shù)規(guī)制的范圍內(nèi),即使符合技術(shù)倫理規(guī)范而研發(fā)的人工智能對(duì)他人造成侵害,我們也可以通過其他途徑來保護(hù)受害人的合法權(quán)益。正如國(guó)務(wù)院頒布的《新一代人工智能發(fā)展規(guī)劃》中提出設(shè)立追溯和問責(zé)制度及法律倫理規(guī)范,目的是為了通過法律制度保障人工智能技術(shù)的順利發(fā)展,并對(duì)因人工智能可能引發(fā)的社會(huì)風(fēng)險(xiǎn)進(jìn)行法律規(guī)制,這應(yīng)是我們目前探討和尋求解決的方向。
人機(jī)協(xié)同是智能社會(huì)發(fā)展的必然過程,所以人工智能在某些情形下可能對(duì)人類造成傷害,致使智能社會(huì)的社會(huì)關(guān)系遭到撕裂,我們需要探尋合適的方法,以修復(fù)被撕裂的社會(huì)關(guān)系。
1. 加快完善人工智能的技術(shù)法律倫理規(guī)范,探究人工智能技術(shù)活動(dòng)中利益與風(fēng)險(xiǎn)的分配問題。技術(shù)風(fēng)險(xiǎn)的承擔(dān)者與技術(shù)成果的受益者往往并不一致。隨著人工智能技術(shù)后果影響的累積性、長(zhǎng)遠(yuǎn)性和危險(xiǎn)性的加大,對(duì)單個(gè)技術(shù)的技術(shù)后果進(jìn)行評(píng)價(jià)也會(huì)越發(fā)困難。這就要求我們從體制上為人工智能技術(shù)的發(fā)展規(guī)劃一個(gè)合理的符合正義要求的框架,以保證技術(shù)活動(dòng)中利益與風(fēng)險(xiǎn)的分配正義。我們必須通過不同學(xué)科的交叉研究,既不能脫離人工智能相關(guān)的技術(shù)理論去談法律規(guī)制,也不能脫離法律思維去談人工智能技術(shù)活動(dòng)中利益與風(fēng)險(xiǎn)的分配及法律責(zé)任問題。國(guó)家應(yīng)鼓勵(lì)有條件有能力的高等院校培養(yǎng)兼具人工智能相關(guān)專業(yè)知識(shí)與法學(xué)知識(shí)的綜合性研究人才,以解決人工智能技術(shù)法律倫理規(guī)范研究領(lǐng)域的人才不足、綜合性專業(yè)水平不夠的問題。這樣我們才能更深入了解人工智能的技術(shù)研發(fā)以及應(yīng)用等領(lǐng)域出現(xiàn)的問題,進(jìn)而根據(jù)實(shí)際需要制定相應(yīng)的風(fēng)險(xiǎn)管理和控制制度,科學(xué)且合理地規(guī)范人工智能技術(shù)活動(dòng)中利益與風(fēng)險(xiǎn)的分配及法律責(zé)任相關(guān)的制度。
2. 參照《民法典》侵權(quán)責(zé)任編關(guān)于動(dòng)物致人損害或物件致人損害的規(guī)定,將人工智能視為“物”或“特殊產(chǎn)品”,在《民法典》的侵權(quán)責(zé)任編增加關(guān)于人工智能致人損害的責(zé)任分配規(guī)定。(1)受害人無過錯(cuò)的情況下,人工智能致人損害的,可根據(jù)無過錯(cuò)原則,由人工智能的設(shè)計(jì)者、研發(fā)者、使用者、管理者和所有者對(duì)人工智能的致人損害結(jié)果承擔(dān)責(zé)任,無法證明人工智能的設(shè)計(jì)者、研發(fā)者、使用者、管理者和所有者誰(shuí)有過錯(cuò)的,就由設(shè)計(jì)者、研發(fā)者、使用者、管理者和所有者共同承擔(dān)連帶責(zé)任;如果人工智能的設(shè)計(jì)者、研發(fā)者、使用者、管理者和所有者有證據(jù)足以證明自己與人工智能致人損害無關(guān),則無須承擔(dān)責(zé)任。(2)人工智能致人損害,受害人有過錯(cuò)但該過錯(cuò)并不是導(dǎo)致?lián)p害的主要原因,且人工智能的設(shè)計(jì)者、研發(fā)者、使用者、管理者和所有者沒有證據(jù)證明自己無過錯(cuò)的,可根據(jù)人工智能致人損害行為產(chǎn)生的背景或可能引發(fā)的誘因,由受害人、人工智能的設(shè)計(jì)者、研發(fā)者、使用者、管理者和所有者共同承擔(dān)責(zé)任,能確定責(zé)任比例的按比例承擔(dān)。(3)人工智能的設(shè)計(jì)者、研發(fā)者、使用者、管理者和所有者因故意或重大過失的行為導(dǎo)致人工智能在設(shè)計(jì)程序之外自主決策致人損害的,對(duì)上述人員可根據(jù)《刑法》規(guī)定的相關(guān)罪名定罪處罰,受害人同時(shí)可依據(jù)《民法典》規(guī)定主張相關(guān)主體承擔(dān)賠償責(zé)任。(4)由于人工智能技術(shù)是高深且極其專業(yè)的技術(shù),因此舉證責(zé)任分配上應(yīng)采用舉證責(zé)任倒置制度,由相應(yīng)的人員證明自己負(fù)責(zé)或掌控的階段或領(lǐng)域內(nèi)不存在問題,以證明自己不承擔(dān)法律責(zé)任。
3. 借鑒對(duì)機(jī)動(dòng)車輛的管理模式,通過設(shè)定保險(xiǎn)的方式分散或降低人工智能致人損害的法律責(zé)任:(1)賦予每一個(gè)人工智能機(jī)器獨(dú)立且唯一的編號(hào),設(shè)置相關(guān)的行政管理部門,對(duì)人工智能機(jī)器進(jìn)行備案登記以便統(tǒng)一管理。(2)制定用于不同領(lǐng)域的人工智能的研發(fā)設(shè)計(jì)制造的技術(shù)標(biāo)準(zhǔn)(例如為提供養(yǎng)老看護(hù)服務(wù)的人工智能機(jī)器制定相應(yīng)的研發(fā)設(shè)計(jì)制造的技術(shù)標(biāo)準(zhǔn)),參照汽車年檢制度,規(guī)定人工智能需進(jìn)行定期的安全及性能的檢查,以保證人工智能機(jī)器在深度學(xué)習(xí)過程中始終符合自身及對(duì)外界的安全性的要求。(3)參照車輛強(qiáng)制保險(xiǎn)和商業(yè)保險(xiǎn)制度,對(duì)可能存在不確定風(fēng)險(xiǎn)的人工智能要求其研發(fā)者、設(shè)計(jì)者、使用者、管理者和所有者根據(jù)自己所處的位置購(gòu)買相應(yīng)的強(qiáng)制責(zé)任保險(xiǎn)或其他商業(yè)保險(xiǎn),不僅可以減輕人工智能的設(shè)計(jì)者、研發(fā)者、使用者和所有者因人工智能致人損害而無法避開的風(fēng)險(xiǎn),同時(shí)也保障受害人在保險(xiǎn)人的責(zé)任限額內(nèi)獲得相應(yīng)賠償。通過借鑒機(jī)動(dòng)車管理模式及制度,不僅能有效保障受害人的合法權(quán)益,更能促進(jìn)人工智能技術(shù)的持續(xù)發(fā)展,保證人工智能技術(shù)活動(dòng)中利益與風(fēng)險(xiǎn)的分配正義。
根據(jù)人工智能技術(shù)導(dǎo)致的風(fēng)險(xiǎn)在法律責(zé)任承擔(dān)方面具有多元性、復(fù)雜性等特征,在不改變現(xiàn)有法律結(jié)構(gòu)的基礎(chǔ)上,通過完善相應(yīng)法律規(guī)范、法律倫理和技術(shù)倫理規(guī)范,通過研發(fā)技術(shù)規(guī)范、使用規(guī)范、安全檢查標(biāo)準(zhǔn)等方式規(guī)范技術(shù)研發(fā)行為、應(yīng)用行為,監(jiān)督管理對(duì)人工智能的設(shè)計(jì)、研發(fā)與安全檢查,明確不同情景中人工智能損害的責(zé)任分配規(guī)則,從源頭控制好人工智能的研發(fā)目的和方向、使用目的和行為。總之,對(duì)人工智能的發(fā)展,法律應(yīng)為其保駕護(hù)航,而不是通過規(guī)范的形式束縛人工智能的發(fā)展步伐,也不是以犧牲法律的穩(wěn)定性及法律價(jià)值為代價(jià),應(yīng)兼顧法律規(guī)范的執(zhí)行效果以及人工智能領(lǐng)域技術(shù)風(fēng)險(xiǎn)防控能力的建設(shè),立足于全球發(fā)展,以全人類命運(yùn)共同體為著眼點(diǎn),要為人工智能的發(fā)展提供強(qiáng)有力的制度保障,同時(shí)也要保障智能社會(huì)的社會(huì)秩序的穩(wěn)定及和平,正如克隆技術(shù)一樣,各國(guó)政府和整個(gè)學(xué)術(shù)共同體在克隆技術(shù)領(lǐng)域制定了嚴(yán)格的準(zhǔn)則和公約,保證了克隆技術(shù)在全世界范圍的有序發(fā)展,唯有如此,才能實(shí)現(xiàn)科技為人類服務(wù)的終極目標(biāo)。
注釋:
[1] 楊述明:《新時(shí)代國(guó)家治理現(xiàn)代化的智能社會(huì)背景》,《江漢論壇》2018年第3期。
[2] 王 前:《技術(shù)倫理通論》,北京:中國(guó)人民大學(xué)出版社,2011年,第165頁(yè)。
[3] 《英國(guó)首列機(jī)器人心瓣修復(fù)手術(shù)以失敗告終》,2018年11月10日,http://www.elecfance.com/d811794.html,2021年1月3日。
[4] 胡 喆:《抓住新一代人工智能發(fā)展的重大機(jī)遇》,2018年11月1日,http//www.xinhuanet.com//2018-11/01/c_1123649864.htm,2021年1月3日。
[5] 2020年10月,百度自動(dòng)駕駛出租車服務(wù)在北京全面開放,設(shè)置了數(shù)十個(gè)自動(dòng)駕駛出租車站點(diǎn);2019年9月26日,百度阿波羅自動(dòng)開放道路智能駕駛長(zhǎng)沙示范區(qū)正式啟用,數(shù)據(jù)顯示,截至2019年12月底,長(zhǎng)沙已累計(jì)實(shí)現(xiàn)了一萬次以上的安全載客。2020年6月27日,滴滴出行在上海首次面向公眾開放自動(dòng)駕駛預(yù)約服務(wù)。
[6] 朱建華、甄 航:《人工智能刑法“主體性”否定:緣起、解構(gòu)、反思——以認(rèn)知科學(xué)的五個(gè)層級(jí)為基礎(chǔ)》, 2020年4月27日,http://kns.cnki.net/kcms/detail/50.1023.C.20191225.0926.002.html,2021年1月3日。
[7] 魏 東:《人工智能犯罪的可歸責(zé)主體探究》,《理論探索》2019年第5期。
[8] 時(shí) 方:《人工智能刑事主體地位之否定》,《法律科學(xué)》(西北政法大學(xué)學(xué)報(bào))2018年第6期。
[9] 齊延平:《論人工智能時(shí)代法律場(chǎng)景的變遷》,《法律科學(xué)》(西北政法大學(xué)學(xué)報(bào))2018年第4期。
[10] 冀 洋:《人工智能時(shí)代的刑事責(zé)任體系不必重構(gòu)》,《比較法研究》2019年第4期。
[11] 王耀彬:《類人型人工智能實(shí)體的刑事責(zé)任主體資格審視》,《西安交通大學(xué)學(xué)報(bào)》(社會(huì)科學(xué)版)2019年第1期。
[12] 皮 勇:《人工智能刑事法治的基本問題》,《比較法研究》2018年第5期。
[13] 劉憲權(quán):《人工智能時(shí)代刑事責(zé)任與刑罰體系的重構(gòu)》,《政治與法律》2018年第3期。
[14] 王肅之:《人工智能犯罪的理論與立法問題初探》,《大連理工大學(xué)學(xué)報(bào)》(社會(huì)科學(xué)版)2018年第4期。
[15] 徐慧麗:《人工智能法律人格分析》,《西北大學(xué)學(xué)報(bào)》(哲學(xué)社會(huì)科學(xué)版)2020年第1期。
[16] 魏 東:《人工智能犯罪的可歸責(zé)主體探究》,《理論探索》2019年第5期。
[17] 楊立新:《論智能機(jī)器人的民法地位及其致人損害的民事責(zé)任》,《人工智能法學(xué)研究》2018年第2期。
[18] TSCHIDER C A.,“Regulating the Internet of Things: Discrimination, Privacy, and Cybersecurity in the Artificial Intelligence Age”,DenverLawReview,vol.96,no.1(2018),pp:87-144.
[19] 參見《人類基因宣言》,1997年11月11日,經(jīng)聯(lián)合國(guó)教科文組織第二十九屆會(huì)議通過,1998年11月27日,又經(jīng)聯(lián)合國(guó)大會(huì)批準(zhǔn),成為國(guó)際文件?!度祟惢蚪M宣言》有四條基本原則:人類的尊嚴(yán)與平等,科學(xué)家的研究自由,人類和諧,國(guó)際合作。