(嘉興學(xué)院 南湖學(xué)院,浙江 嘉興 314001)
大數(shù)據(jù)、云計算、人工智能、區(qū)塊鏈、合成生物學(xué)等是新生產(chǎn)力的代表。各國激烈競爭、爭相占領(lǐng)人工智能技術(shù)的制高點。伴隨人工智能的研究、開發(fā)與應(yīng)用,一系列諸如人工智能倫理、法律等問題擺在人們面前。2010年日本的寵物機(jī)器人帕羅獲得戶籍,2017年沙特阿拉伯的機(jī)器人索菲亞獲得了公民資格,人工智能體法律人格、權(quán)利的享有和義務(wù)、責(zé)任的承擔(dān)也成為學(xué)者們熱議的話題。法律人格關(guān)系到人工智能體權(quán)利的享有、民事責(zé)任甚至刑事責(zé)任的承擔(dān),還涉及有關(guān)人工智能法律規(guī)制乃至人工智能產(chǎn)業(yè)健康發(fā)展,是解決人工智能相關(guān)法律問題的前置性問題,對此問題的研究意義重大。
現(xiàn)有關(guān)人工智能體法律人格的研究主要集中在以下幾個方面:
該研究大體上分為肯定和否定兩種觀點。否定的觀點認(rèn)為,只有人類才可以理解“權(quán)利”與“責(zé)任”的內(nèi)涵,機(jī)器對自己的行為的法律意義沒有辨認(rèn)能力,法律對“電子人”之類沒有意義[1];人工智能是受自然人法律主體控制的代替人類工作的機(jī)器人,承擔(dān)義務(wù)或責(zé)任的本質(zhì)還是自然人,沒有獨立性,且無法實際接受法律制裁,所以賦予其法律人格沒必要[2];法律人格是人類在漫漫歷史長河中靠斗爭得來的,人工智能本質(zhì)上是二進(jìn)制的機(jī)器,具有機(jī)械性,不具有人性,智能機(jī)器人被賦予“人格”將直接沖擊基于傳統(tǒng)“人類中心主義”的人類道德與法制體系,及其所構(gòu)造的“主體—客體”調(diào)整格局,這將會導(dǎo)致包括技術(shù)霸權(quán)在內(nèi)的對于人類生存的極大威脅[3]??隙ㄓ^點認(rèn)為,“人可非人”到“非人可人”的歷史演變說明法律人格只是社會需要的法律形式[4];法律人格是一種社會建構(gòu),認(rèn)可人工智能體的法律人格并不以“人工智能是自然人”為前提[5];人工智能體具有獨立自主的行為能力,有資格享有法律權(quán)利并承擔(dān)責(zé)任義務(wù),應(yīng)當(dāng)具有法律人格[6];認(rèn)可人工智能體的法律人格具有促進(jìn)人工智能產(chǎn)業(yè)快速發(fā)展的現(xiàn)實意義,因此有必要對認(rèn)可人工智能體的法律人格持開放性態(tài)度[7]。
法律人格內(nèi)涵問題是基礎(chǔ)性問題,其既關(guān)系到法律人格取得的參照標(biāo)準(zhǔn)也關(guān)系到本文的論證思路。從現(xiàn)有法律人格理論來看,法律人格與權(quán)利、義務(wù)、責(zé)任相關(guān)聯(lián),取得或授予法律人格即意味著主體在法律上有資格享有權(quán)利、履行義務(wù)和承擔(dān)責(zé)任。相反,沒有不享有權(quán)利、不承擔(dān)義務(wù)和責(zé)任的空洞的法律人格。在這方面,學(xué)者們的觀點基本是一致的。但對于符合什么條件才能賦予人工智能體法律人格,學(xué)者們卻各持己見。尤其是上述持否定說學(xué)者,以人工智能沒有情感、沒有理性、不具有可罰性等理由,否定人工智能體取得法律人格。
目前學(xué)界主要有兩種分類方法:一是以認(rèn)知、推理和決策的能力的大小為標(biāo)準(zhǔn)將人工智能分為普通機(jī)器人和智能機(jī)器人。二是把人工智能劃分為弱人工智能(ANI)、強(qiáng)人工智能(AGI)和超人工智能(ASI)??紤]到認(rèn)知、推理、情感、思維等的概念的含義不易界定、機(jī)理不易言明,筆者更贊成采用第二種劃分方法。該劃分以自然人為標(biāo)準(zhǔn),相當(dāng)于自然人智力的為強(qiáng)人工智能,低于或超過自然人智力的分別為弱人工智能和超人工智能,這樣的劃分界線很明顯,而且便于與自然人法律人格進(jìn)行對比研究。
贊成賦予人工智能體法律人格者仍沒有回答諸如賦予人工智能法律人格是否危及人類的統(tǒng)治地位,人工智能體法律人格有無獨立存在的意義,即為什么不能像產(chǎn)品責(zé)任等那樣直接由生產(chǎn)商、銷售商或使用者直接享有權(quán)利、承擔(dān)義務(wù)和責(zé)任。而從法律人格的演進(jìn)史來看,倫理是將“人可非人”的自然人賦予法律人格的根本動因,而功利主義一般被認(rèn)為是社會組織獲取擬制法律人格的原因,如果人工智能體要獲得法律人格,其背后的根本原因究竟是什么?還有,諸如人工智能體符合哪些條件方能獲得法律人格,獨立性、自主意識、可罰性等是否為法律人格取得的必備因素?人工智能體可以獲得何種程度的法律人格也值得深入探討。綜上所述,學(xué)界對于人工智能體法律人格問題的研究已較為豐富,但還未對人工智能體是否應(yīng)該具有法律人格形成統(tǒng)一的共識。本文嘗試分析人工智能體法律人格獲得的可能性和法理性,論證應(yīng)賦予人工智能體有限的法律人格。
在人人生而平等被寫入《人權(quán)宣言》之前,巴比倫人被《漢穆拉比法典》分為奴隸、無公民權(quán)的自由民及上等自由民[8]。羅馬法中的權(quán)利主體并不包含奴隸,奴隸不是市民法法律關(guān)系的主體,而是法律關(guān)系的客體[9],我國元代的法律將其治下的臣民分成蒙古、色目、漢人、南人且賦予不同等次的權(quán)利。在古代,婦女在法律人格上對于丈夫具有一定程度的依附性也極為普遍。而就人的特別生長階段的胎兒來說,古今中外的法律制度對于其法律人格之規(guī)定也各有不同。
由上可知,民法人格從古羅馬私法到現(xiàn)代民法的發(fā)展,歷經(jīng)了由具體的身份基礎(chǔ)的“人是人的工具”“人可非人”到“天賦人權(quán)”感召下的抽象的倫理性和法律人格結(jié)合的演變[10]。民法中的民事主體并不同于現(xiàn)實中的自然人,“與人不同”和“與人相同”都不是肯定或否定人工智能體獲得法律人格的理由,民事主體從來都源于法律的承認(rèn)[11]。故倫理性和“天賦人權(quán)”不再是人工智能體成為民事主體的必要要件。
在法律人格的發(fā)展史中,為使自然人以及團(tuán)體能夠在社會經(jīng)濟(jì)生活中更好地發(fā)揮作用,組織或個體就需要相對獨立從事某種行為的資格,而這種資格就需要通過主體地位、權(quán)利能力、權(quán)利、義務(wù)和責(zé)任等來表達(dá),法人的主體資格得以產(chǎn)生,自然人與法人二元主體結(jié)構(gòu)開始出現(xiàn)。自然人經(jīng)歷了從身份取得法律人格到倫理取得法律人格的發(fā)展過程,而“法人制度的出現(xiàn)純粹是‘非人可人’的功利主義的經(jīng)濟(jì)生活的客觀需求導(dǎo)致法律技術(shù)進(jìn)步的結(jié)果”[12]。財產(chǎn)和責(zé)任基礎(chǔ)的獨立性以及社會功能的重要性和自然人取得法律人格所仰賴的倫理性條件并列成為法律人格考慮的重要因素?!胺侨丝扇恕钡拇嬖谶M(jìn)一步說明法律承認(rèn)民事主體地位是基于現(xiàn)實需求[13]。
除“非人可人”的功利主義外,法人人格的產(chǎn)生還源于法人人格具有相對于自然人人格的獨立價值。個體利益與團(tuán)體利益的背離是法人人格的獨立性價值的一個重要體現(xiàn)。首先,在意志上,團(tuán)體內(nèi)的個體意志不可能全部上升為團(tuán)體意志,甚至出現(xiàn)各種意見難以調(diào)和的局面,這時候就需要有團(tuán)體的意志;其次,在財產(chǎn)上,團(tuán)體的財產(chǎn)和個體的私人財產(chǎn)混同的危害性也顯而易見,如,個體財產(chǎn)和團(tuán)體財產(chǎn)可能均無法得到保障、個體需要負(fù)有無限的財產(chǎn)責(zé)任、團(tuán)體責(zé)任無法落實等;再次,在執(zhí)行效率上,沒有一個代表個體的整體,執(zhí)行任何一項計劃都沒有效率甚至寸步難行;最后,從社會整體利益來看,組織法人資格的獲得有利于社會利益最大化。
部分學(xué)者認(rèn)為,一旦賦予人工智能體法律主體資格便可能導(dǎo)致人類統(tǒng)治地位的喪失。誠然,迄今為止,所有有關(guān)法律人格的論證都是以人(即人類)為轉(zhuǎn)軸展開[14]。但筆者認(rèn)為“以人(即人類)為轉(zhuǎn)軸展開”并不意味著要賦予人工智能體和自然人完全相同的法律人格,是否授予人工智能體法律人格和授予何種程度法律人格完全在于人類的掌控。
首先,在人工智能發(fā)展的問題上,“人類中心主義”一直是學(xué)者們和各國執(zhí)政者的共識。學(xué)界也普遍認(rèn)為,無論如何都不允許人工智能和自然人平起平坐,人類不會容許機(jī)器人與人類共同治理國家[15]。其次,人類有信心能夠掌控并主導(dǎo)人工智能的發(fā)展,確保其不至于危害人類。我們可以在法律上要求人工智能算法編寫者在算法中植入人類道德的內(nèi)容,如植入“以人為本”的理念和“阿西莫夫機(jī)器人三法則”等,并在其后的深度學(xué)習(xí)過程中進(jìn)行不斷的修正與養(yǎng)成[16]。人工智能的發(fā)展可能超乎我們的想象,但人類駕馭人工智能的能力也是如此。最后,對人工智能體人格的承認(rèn)能起到避免具體人格的缺乏導(dǎo)致規(guī)則的無所依存,達(dá)到完善以人類為中心建立相應(yīng)的制度體系的效果。
另外,筆者認(rèn)為,只要能夠享有權(quán)利或履行義務(wù)并承擔(dān)責(zé)任,即具有授予法律人格的現(xiàn)實性,而不一定如一些學(xué)者所認(rèn)為的必須像具有完全民事行為能力的自然人那樣能享有權(quán)利、履行義務(wù)并承擔(dān)責(zé)任才賦予人工智能法律人格,因為如果這樣,必然得出人工智能法律人格沖擊“人類中心主義”而不能賦予其法律人格的結(jié)論。鑒于法律人格賦予的技術(shù)性,我們可以考慮借用且不囿于法人人格賦予的思路,來探討賦予人工智能法人人格??梢钥紤]人工智能只享有部分權(quán)利而不承擔(dān)義務(wù),或既享有權(quán)利也承擔(dān)義務(wù)①可罰性與否也不是衡量能否授予法律人格的標(biāo)準(zhǔn)。如果套用自然人法律人格原理,甚至連法人也無法獲得法律人格。參見張鐳《人工智能體可罰性辯疑》,載《南京社會科學(xué)》,2018年第11期。。因為在邏輯上,享有權(quán)利、承擔(dān)義務(wù)和責(zé)任是取得法律人格之后的事情,其可能是賦予法律人格的目的,但不是標(biāo)準(zhǔn)。
對于上述原理的理解,是我們進(jìn)一步探討論證人工智能體法律人格的前提和方法論。
國內(nèi)外研究報告指出,甲醛是許多水產(chǎn)品的一種代謝中間產(chǎn)物,分布廣泛。但大多天然食物中甲醛含量較低,不會對人體健康造成威脅。水產(chǎn)品中內(nèi)源性甲醛的主要前體物質(zhì)是氧化三甲胺,是魚鮮美味道的主要來源。目前認(rèn)為水產(chǎn)品中內(nèi)源性甲醛主要通過2種途徑產(chǎn)生:一為生物途徑,氧化三甲胺可在內(nèi)源性氧化三甲胺酶和微生物作用下,脫甲基生成二甲胺和甲醛;另一條為非酶途徑,主要是高溫過程的熱分解。這2種分解途徑都使得魚肉組織發(fā)生變化,影響水產(chǎn)品的品質(zhì)和風(fēng)味。此外,體內(nèi)脂質(zhì)的氧化或過氧化、氨基酸的代謝,以及脫甲基反應(yīng)也可產(chǎn)生甲醛;甲醛亦是嘌呤、胸腺嘧啶生物合成的中間產(chǎn)物。
考察人工智能體法律人格的取得可能性首先要考察人工智能體法律人格存在的獨立意義。該問題主要是解決人工智能體是否有必要單獨享有權(quán)利或者單獨履行義務(wù)和承擔(dān)責(zé)任,如果權(quán)利、義務(wù)和責(zé)任完全可以歸于現(xiàn)存的某自然人或法人主體,那么人工智能體法律人格就失去了意義。因此,人工智能體法律人格有沒有獨立于自然人法律人格的獨立價值呢?筆者認(rèn)為答案是肯定的。但是該問題的回答與人工智能體本身的獨立性密切相關(guān),人工智能體法律人格的獨立價值與人工智能體的獨立性是兩個不同問題,本文將在下一部分詳細(xì)論述。
從法律人格發(fā)展史來看,一些立法和案例看似荒誕不經(jīng)。比如,中世紀(jì)的宗教建筑、古羅馬時期的寺廟以及現(xiàn)代的一些沒有生命的物被視為權(quán)利主體,古希臘法和普通法曾把船舶等作為義務(wù)主體[17];從9世紀(jì)到19世紀(jì),西歐一些國家把蒼蠅、蝗蟲等動物放上被告席,讓其承擔(dān)責(zé)任,并保證他們一定的“訴權(quán)”[18]。繼而,一些組織因被授予法人資格或不被授予法人資格的組織也獲得一定程度的法律人格。
上述有生命體、無生命體、社會組織,它們本沒有自我意識,也無行為及能力,無所謂享有權(quán)利或承擔(dān)義務(wù),他們被授予法律人格的原因并不是因為他們可以像人一樣有爭取法律人格的意識,而是人類社會自身的一種需要。比如,保護(hù)動物或植物其實間接地是為了保護(hù)人類,對一些動物苛責(zé)其實也是保護(hù)人類。并且這種需要在某個社會背景下達(dá)成了共識。法律中的“人”終究只是立法者基于現(xiàn)實需要的一種確認(rèn)或者虛擬,因此,人工智能體可能純粹因為人類的某種需要而被賦予法律人格,但是這種需要必須是達(dá)成了社會共識。把寵物狗當(dāng)成自己孩子的女主人在寵物狗被出租車壓死之后無法要求肇事者以命抵命①《出租車撞死未拴繩寵物狗,狗主人:你把我孩子撞死了,你要賠一命!》,參見http://www.sohu.com/a/242675669_100177351。的原因就是因為只有她自己把狗授予法律人格,但整個社會沒有形成這個共識。
當(dāng)前,某種程度上可以感知人類情緒并在人類情緒失落時給予安慰的陪伴機(jī)器人已經(jīng)問世。在此情況下,人工智能體可能因為人類要考慮對它的尊重的需要而賦予其法律人格。同樣該種需要仍然必須是在整個社會達(dá)成了共識。前述的日本寵物機(jī)器人帕羅獲得戶籍和沙特阿拉伯的機(jī)器人索菲亞獲得了公民資格就是例證。
如前文所述,人工智能體法律人格獨立意義與人工智能體的獨立性分屬不同問題,但有很密切聯(lián)系。同時,人工智能的法律人格是有獨立存在意義的。
人工智能體的獨立性導(dǎo)致了法律權(quán)利、義務(wù)、責(zé)任享有和承擔(dān)邏輯中的因果關(guān)系中斷,人工智能體法律人格存在的獨立意義便凸顯出來,即應(yīng)由人工智能體獨立享有權(quán)利、承擔(dān)義務(wù)和責(zé)任。人工智能的生產(chǎn)者一般是通過人工智能語言編寫與預(yù)置程序(即算法)達(dá)到讓人工智能完成在程序設(shè)計與編制范圍之內(nèi)進(jìn)行活動,但也會對人工智能面對的各種意外情況盡量作預(yù)先安排,以保證人工智能體在面對人類之前未曾精確預(yù)測的復(fù)雜情況時,可以通過“學(xué)習(xí)”,“自主性”與“創(chuàng)造性”地形成“決策”機(jī)制來盡可能實現(xiàn)制造者預(yù)想達(dá)到的目的。當(dāng)然,人工智能體也可能作出完全超出生產(chǎn)者預(yù)估的應(yīng)對。在這些情況下,人工智能獨立性就凸顯出來。比如,在當(dāng)前弱人工智能時代,由于自動駕駛程序系統(tǒng)的開放性設(shè)計和深度學(xué)習(xí)設(shè)計,在運行過程中對路況自主預(yù)測并自主決定,但可能因其不能窮盡所有場景或即使能夠窮盡但艱難情況下難以抉擇,這些因預(yù)測失誤或兩難選擇而導(dǎo)致侵權(quán)時讓生產(chǎn)者承擔(dān)產(chǎn)品責(zé)任并不合理[19],賦予人工智能獨立法律人格就成為可能。對此,一些國家已經(jīng)對這些問題作出了積極的回應(yīng)。如2016年2月4日,美國國家公路交通安全管理局(NHTSA)在給谷歌公司的回函中表示,根據(jù)美國聯(lián)邦法律,谷歌自動駕駛汽車中的自動駕駛系統(tǒng)可視為“駕駛員”[20]。2017年10月,歐盟議會法律事務(wù)委員會《歐盟機(jī)器人民事法律規(guī)則》(European Civil Law Rules in Robotics)中就涉及重構(gòu)責(zé)任規(guī)則和考慮賦予復(fù)雜自主機(jī)器人以“電子人”的法律地位[21]。
在強(qiáng)人工智能時代,擁有超級計算能力的量子計算機(jī)的應(yīng)用、算法交互、人工神經(jīng)網(wǎng)絡(luò)的完善,加上除了初始的設(shè)計者、開發(fā)者團(tuán)隊外,任何人均可能參與到其系統(tǒng)開發(fā)與制造中,系統(tǒng)的開發(fā)與研究具有秘密性與分散性、不連續(xù)性及不透明性。人工智能體生成之后不斷學(xué)習(xí)、反思、積累經(jīng)驗與嵌入成長經(jīng)歷,獨立決策并自我行動,輸出的方案更不可預(yù)見,執(zhí)行的任務(wù)也會更復(fù)雜[22]。猶如法人意志與其股東意志之間的間接性一樣,“制造者”群體的意志與人工智能系統(tǒng)之間的間接性便產(chǎn)生了。間接性、不可預(yù)見性以及強(qiáng)人工智能特有的自主性等導(dǎo)致人工智能的獨立性更強(qiáng)[23]。此時,只有保持人工智能法律人格的獨立性,才能更好地發(fā)揮其為人類謀福利的價值。
考察人工智能體的獨立性通常要考察其自主意識、思維和情感。但首先我們要弄清楚的是,自主意識、思維和情感是否都是獨立性必備的要素。
自主意識是對自我存在的認(rèn)知,自主意識不僅能辨認(rèn)自己的行為,而且對于自我行為的社會意義有辨認(rèn)能力,一般認(rèn)為人工智能體的自主意識只有在設(shè)想的強(qiáng)人工智能時代才能產(chǎn)生。自主意識和不可預(yù)測性分別是獨立性的高低不同層次的表現(xiàn),但不直接等于獨立性,雖然自主意識可以產(chǎn)生獨立性已基本是人類社會共識,但自主性和獨立性仍然是兩個概念。如果賦予人工智能法律人格,獨立性并不必然依賴于自主意識、思維、情感等而產(chǎn)生,比如,大陸法系已有財團(tuán)法人設(shè)立之后,其發(fā)起人當(dāng)然地退出,而法人僅僅因為獨立的財產(chǎn)而繼續(xù)擁有法人人格的立法例。當(dāng)然,自主意識、思維、情感可以因為社會共識作為人工智能體獨立性產(chǎn)生并獲得法律人格的另外原因??闪P性也不是法律人格必須考慮的因素,可罰性是責(zé)任承擔(dān)問題,如前所述,作為一個擁有法律人格的主體也可能只享有權(quán)利不承擔(dān)義務(wù)和責(zé)任,何談可罰性。
總之,我們不能用自然人獲取法律人格的標(biāo)準(zhǔn)甚至用自然人所具有的某些特征來作為人工智能體可否獲得法律人格的標(biāo)準(zhǔn),更不能拿法律人格取得后權(quán)利享有、義務(wù)和責(zé)任的承擔(dān)來作為法律人格取得的標(biāo)準(zhǔn),因為這只是結(jié)果不是原因。還有一些學(xué)者提出了諸如感知能力、意思表示能力、言語能力、訴求能力等作為獲取法律人格的標(biāo)準(zhǔn),但筆者認(rèn)為,所有這些都可以用其是否會導(dǎo)致獨立性來衡量其對法律人格取得的貢獻(xiàn)。
雖然人工智能體權(quán)利的享有、義務(wù)和責(zé)任的承擔(dān)不是人工智能體取得法律人格的標(biāo)準(zhǔn),但研究人工智能體取得法律人格的主要目的就是進(jìn)一步探討人工智能體權(quán)利的享有、義務(wù)和責(zé)任的承擔(dān)。相對于法人、動物和非生命體等,具有完全民事行為能力的自然人享有的權(quán)利、承擔(dān)的義務(wù)和責(zé)任是全面的和完整的。而當(dāng)前的弱人工智能體法律人格的有限性決定了其責(zé)任的有限性:人工智能體只有機(jī)器軀體,沒有自然人倫理學(xué)上的生命體,工具性人格意味著人工智能體的行為應(yīng)當(dāng)受到使用者或占有者的最終控制且基本不享有倫理性的人格權(quán)或身份權(quán)、生命權(quán),而只享有或承擔(dān)經(jīng)濟(jì)性的財產(chǎn)權(quán)利和義務(wù)。在弱人工智能時代,可以考慮人工智能體在以下三個方面享有權(quán)利、履行義務(wù)和承擔(dān)責(zé)任:
第一,可以通過登記確立智能機(jī)器人作為自然人主人的占有人或代理人而享有財產(chǎn)權(quán)并承擔(dān)相應(yīng)責(zé)任。
第二,與法人一樣享有獨立的財產(chǎn)權(quán)。具備相當(dāng)智力與自我學(xué)習(xí)提高能力的人工智能體與法人一樣,都不具有倫理上擁有財產(chǎn)權(quán)的基礎(chǔ)。但可以根據(jù)人工智能水平的高低與法人一樣賦予人工智能體一定的財產(chǎn)權(quán),以便于其獨立享有權(quán)利、承擔(dān)義務(wù)和責(zé)任。
第三,如前所述,某種程度上可以感知人類情緒并在人類情緒失落時給予安慰的陪伴機(jī)器人已經(jīng)問世。在此情況下,因為人類可能要考慮到對人工智能尊重的需要,由此,我們可以在賦予其法律人格的基礎(chǔ)上賦予其受到人類尊重的權(quán)利。其實,尊重這類人工智能還是出于尊重人類自身的需要,如人工智能機(jī)器的使用者。
在責(zé)任承擔(dān)的法律形式上,我們或許可以考慮讓人工智能體承擔(dān)諸如合同責(zé)任和侵權(quán)責(zé)任。如在人工智能體參與的合同交易中,由人工智能體承擔(dān)繼續(xù)履行、補(bǔ)救、賠償損失的責(zé)任,在侵權(quán)責(zé)任中,讓人工智能體承擔(dān)消除危險①在人工智能體發(fā)生致害或有致害可能時,可以讓人工智能體結(jié)合其自身狀況,承擔(dān)檢測或修復(fù)其自身狀況的責(zé)任。參見陳吉棟《論機(jī)器人的法律人格——基于法釋義學(xué)的討論》,載《上海大學(xué)學(xué)報(社會科學(xué)版)》,2018年第3期。、排除妨害、恢復(fù)原狀、賠償損失等。有學(xué)者建議法律應(yīng)該為智能機(jī)器人創(chuàng)造承擔(dān)財產(chǎn)責(zé)任的路徑,例如為智能機(jī)器人建立相應(yīng)的基金賬戶,當(dāng)他們給他人造成的損害時,優(yōu)先以這些資金進(jìn)行賠付,也可以為人工智能購買保險[24]。在刑事責(zé)任承擔(dān)方面,可以設(shè)想向人工智能體植入人類文明和價值觀念,規(guī)劃人工智能體情感方面的深度學(xué)習(xí)與改造路徑,使得人工智能體能夠在犯罪與刑罰(刑罰的形式包括限制、剝奪自由,毀損等)之間進(jìn)行理性權(quán)衡,以調(diào)整其之后的行為[25]。2016年歐洲議會向歐盟委員會提出的報告中,建議“確保至少最復(fù)雜的自動化機(jī)器人可以被確認(rèn)享有電子人(electronic persons)的法律地位,有責(zé)任彌補(bǔ)自己所造成的任何損害……”[26]該報告中有關(guān)責(zé)任的規(guī)定其實就是承認(rèn)了人工智能體傳統(tǒng)民法中的損害賠償責(zé)任。
縱觀法律人格的演進(jìn)史,人類經(jīng)歷了“人可非人”到天賦人權(quán)感召下的自然人倫理性法律人格再到“非人可人”的發(fā)展歷程,倫理是將“人可非人”的自然人賦予法律人格的根本動因,“與人不同”和“與人相同”不是肯定或否定人工智能體獲得法律人格的理由,而功利主義一般被認(rèn)為是社會組織獲取擬制法律人格的根本原因。在邏輯上,享有權(quán)利、承擔(dān)義務(wù)和責(zé)任是取得法律人格之后的事情,其可能是賦予法律人格的目的,但不是標(biāo)準(zhǔn),但這些卻又是我們在研究賦予人工智能體法律人格時重要的考慮因素。人工智能體法律人格有其獨立存在的意義,人工智能體也可因為人類需要的共識以及人工智能體的獨立性而取得一定程度的法律人格。賦予人工智能體法律人格并不意味著人類統(tǒng)治地位的喪失,弱人工智能可以享有有限的權(quán)利、承擔(dān)有限的義務(wù)和責(zé)任。強(qiáng)人工智能因為達(dá)到人類的智力水平,因此,筆者暫時不敢設(shè)想其法律人格,但筆者相信人類有能力駕馭人工智能,確保人工智能為人類服務(wù)。
一些學(xué)者認(rèn)為,人工智能機(jī)器人已經(jīng)不完全是一種工具,而在一定程度上具有了自己的意識,并能作出簡單的意思表示,并就此主張應(yīng)當(dāng)承認(rèn)人工智能體具有法律人格。但筆者認(rèn)為,目前這種具有自主意識的人工智能體還是相當(dāng)少的,在自主意識程度上也是極其低的。我們尤其不能因為人工智能體有一些類似于人的行為就認(rèn)為其已經(jīng)有自己的情感和獨立意志,這無異于看到一些動物的類似于人的行為而將其神話或人化。因此,在立法層面,我們應(yīng)重視法布里求斯提出的“相對權(quán)利能力理論”,即不應(yīng)局限于法人和自然人這兩種法律人格,而應(yīng)承認(rèn)更多元的主體設(shè)計,使用更加具體的權(quán)利能力概念,可以考慮不同主體享有不同程度的權(quán)利能力[27]。