国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能法律主體論:現(xiàn)在與未來*

2023-01-08 10:15范進(jìn)學(xué)
政法論叢 2022年3期
關(guān)鍵詞:權(quán)利主體機(jī)器人

范進(jìn)學(xué)

(上海交通大學(xué)凱原法學(xué)院, 上海 200030)

六十多年來,人工智能發(fā)展經(jīng)歷了“從寒冬到野蠻的生長”。[1]P9伴隨著人機(jī)交互、機(jī)器自主學(xué)習(xí)、自主操控、模式識(shí)別、跨界融合等技術(shù)的不斷提升,人工智能已成了這一技術(shù)的新趨勢(shì)。從人類經(jīng)歷的哥白尼革命、達(dá)爾文革命、神經(jīng)科學(xué)革命,到現(xiàn)在的第四次新科技革命——圖靈革命①使當(dāng)今世界邁入了一個(gè)“與機(jī)器人共舞”的時(shí)代——“機(jī)器人時(shí)代”。王利明教授指出:人工智能時(shí)代已經(jīng)來臨,它不僅改變?nèi)祟愂澜?,也?huì)深刻改變?nèi)祟惖姆芍贫?。[2]P4近幾年,我國學(xué)術(shù)界——從道德、倫理、哲學(xué)界到知識(shí)產(chǎn)權(quán)法學(xué)、刑法學(xué)、民法學(xué)、法學(xué)理論等法學(xué)界的研究學(xué)者,圍繞人工智能的道德倫理哲學(xué)以及法律主體、權(quán)利主體(包括民事主體、刑事主體)、法律責(zé)任等法律問題,多維度、多視角、多方法展開了深入研究與探討,取得了一批高質(zhì)量的學(xué)術(shù)研究成果。這些研究成果都或多或少觸及到人工智能法律主體這一核心問題。應(yīng)當(dāng)說,人工智能法律主體問題是所有道德、法律問題的實(shí)質(zhì)與關(guān)鍵。本文擬在已有的學(xué)術(shù)研究成果基礎(chǔ)上,以人工智能技術(shù)發(fā)展為依托,分析正反觀點(diǎn)之是非,反思其中存在的問題,進(jìn)一步厘清作為人工智能的法律主體、權(quán)利主體、義務(wù)主體、責(zé)任主體之間的異同,并針對(duì)現(xiàn)在與未來的人工智能提出差序化的法律主體與權(quán)利理論,以應(yīng)對(duì)經(jīng)濟(jì)社會(huì)發(fā)展的需求與新技術(shù)革命對(duì)未來法治所帶來的挑戰(zhàn)。

一、引論:為何討論人工智能法律主體問題?

研究人工智能和機(jī)器人倫理與權(quán)利的美國學(xué)者貢克爾說:“無論我們是否意識(shí)到,我們已經(jīng)處于機(jī)器人侵入之中。如今,機(jī)器無處不在,幾乎無所不能:我們與它們?cè)诰€聊天,同它們玩數(shù)碼游戲,同它們協(xié)同工作,依賴它們管理我們?nèi)找鎻?fù)雜的由數(shù)據(jù)驅(qū)動(dòng)的生活。因此,‘機(jī)器人侵入’并非像科幻小說那樣,將來會(huì)有一群邪惡的機(jī)器人從天而降,肆意掠奪我們,它們事實(shí)上已經(jīng)出現(xiàn),不同配置和功能的機(jī)器已經(jīng)邁著緩慢而堅(jiān)定的步伐侵入我們的世界,以期在其中占有一席之地。與其說像美國科幻電視連續(xù)劇《銀河戰(zhàn)星》所展示的情景,莫不如說更像羅馬帝國在日爾曼人的入侵下轟然倒塌的歷史事實(shí)。”[3]既然以人工智能為技術(shù)的智能服務(wù)在人類的生產(chǎn)與生活中日益普及與廣泛,那么人們自然會(huì)提出這樣的問題:它們?cè)谌祟惙审w系中處于何種地位?智能機(jī)器、自動(dòng)算法程序或其他自動(dòng)系統(tǒng)為它們所做的決定或采取的行動(dòng)是否承擔(dān)法律上的責(zé)任?人工智能所導(dǎo)致的錯(cuò)誤是人的錯(cuò)誤還是機(jī)器的錯(cuò)誤抑或人與機(jī)器的共同錯(cuò)誤?人工智能創(chuàng)造的作品著作權(quán)歸屬是由人工智能本身所有還是自然人或法人所有?與人工智能機(jī)器人是否可以結(jié)婚?等等,這些法律問題并非是虛構(gòu)的,而是已經(jīng)在現(xiàn)實(shí)生活頻發(fā)。就已出現(xiàn)的法律問題而言,概括起來,大致涉及以下五類問題:

第一,公民身份問題。譬如2010年11月7日,日本一個(gè)海豹寵物機(jī)器人“帕羅”(Paro)獲得了戶籍,而“帕羅”的發(fā)明人在戶口簿上注明的身份是父親。[4]P872017年10月26日,沙特授予機(jī)器人“索菲亞”公民身份,這成為歷史上第一個(gè)具有公民身份的機(jī)器人。擁有戶籍或公民身份的前提是法律主體或權(quán)利主體資格的賦予,具有戶籍才能享有法律權(quán)利,具有國籍才能享有公民權(quán)利。有學(xué)者指出:公民身份絕非簡(jiǎn)單的一紙空文,而是一個(gè)人在國家法定身份的延伸。機(jī)器人“成為公民” 只是第一步,如何“作為公民”享有權(quán)利、履行義務(wù),才是接下來令人期待的重頭戲。[5]值得一提的是,沙特阿拉伯政府賦予索菲亞諸多特殊權(quán)利,比如不戴頭巾、不穿罩袍便可以四處奔走的自由權(quán),而這些權(quán)利對(duì)于傳統(tǒng)伊斯蘭世界的女性而言是不可能的。在瑞士,雇主要像對(duì)待他的雇員一樣為機(jī)器人納稅;在日本,一些公司要替機(jī)器人繳納工會(huì)費(fèi)。[6]P55這些事例都說明對(duì)人工智能法律主體的某種程度的承認(rèn)。

第二,與人工智能機(jī)器人婚姻問題。隨著AI機(jī)器人的功能的不斷完善與發(fā)展,人機(jī)婚姻不僅是可能的,而且也是現(xiàn)實(shí)的。不過,一旦實(shí)現(xiàn)了人類與機(jī)器人的婚姻結(jié)合,就會(huì)出現(xiàn)機(jī)器人的法律地位問題,機(jī)器人是否具有結(jié)婚權(quán)或離婚權(quán)以及收養(yǎng)權(quán)?其婚內(nèi)權(quán)利如何保障?機(jī)器人如何繼承婚后遺產(chǎn)?現(xiàn)實(shí)世界中,國內(nèi)外已經(jīng)出現(xiàn)了與人工智能機(jī)器人結(jié)婚的問題,據(jù)報(bào)道,在日本,一名35歲的男子和“初音未來”結(jié)婚了。國內(nèi)一個(gè)研究人工智能的研究生在母親、同學(xué)的見證下,與一個(gè)叫瑩瑩的機(jī)器人結(jié)婚。②有國外學(xué)者預(yù)測(cè):按照現(xiàn)如今AI智能的發(fā)展,到2045年,人類與機(jī)器人結(jié)婚或?qū)⒖梢猿醪綄?shí)現(xiàn);再到2050年的時(shí)候,人與機(jī)器人的婚姻將正常化。③

第三,民事責(zé)任分配問題。1972年,美國一家保險(xiǎn)公司與原告簽訂了一份保險(xiǎn)協(xié)議,由于計(jì)算機(jī)錯(cuò)誤,向原告發(fā)送了一項(xiàng)保險(xiǎn)更新的通知,而原告基于此通知做出了改變?cè)瓉肀kU(xiǎn)的行為,法院認(rèn)為原告基于對(duì)該通知的信任作出的改變保險(xiǎn)行為當(dāng)然有效。該錯(cuò)誤后果應(yīng)由被告承擔(dān),計(jì)算機(jī)則作為被告的代理人。[7]P453在我國曾發(fā)生的許霆ATM機(jī)盜竊案,也涉及到智能機(jī)器的民事責(zé)任問題。“自動(dòng)取款機(jī)”到底是單純的機(jī)器,還是由銀行授權(quán)的法律上的“代理人”?隨著智能無人駕駛汽車出現(xiàn),“司機(jī)”已非傳統(tǒng)人工司機(jī),而是智能駕駛系統(tǒng),使用者由傳統(tǒng)的司機(jī)變成了“乘客”。2016年2月4日美國國家公路交通安全管理局在致谷歌的一封信中就承認(rèn)了谷歌公司自動(dòng)駕駛系統(tǒng)可以被合理地視為車輛的合法駕駛員,而不是車輛所載的人員。[8]此時(shí)因無人駕駛汽車所引發(fā)的交通事故法律責(zé)任到底由哪個(gè)法律主體承擔(dān)?如果在設(shè)計(jì)者、生產(chǎn)者和使用者均無過錯(cuò)情況下,由他們來承擔(dān)全部法律責(zé)任,將會(huì)導(dǎo)致不公平。

第四,知識(shí)產(chǎn)權(quán)歸屬問題。2017年5月,北京聯(lián)合出版有限公司出版了“人類史上首部人工智能靈思詩集”——《陽光失了玻璃窗》,作者署名是人工智能“小冰”。試問,“小冰”是否是該詩集的真正作者?能否享有著作權(quán)?對(duì)此,有學(xué)者指出:如果“小冰”對(duì)其文字作品擁有著作權(quán),按照現(xiàn)行著作權(quán)法規(guī)定,小冰將擁有著作人身權(quán)(發(fā)表、署名、修改、保護(hù)作品完整等)和著作財(cái)產(chǎn)權(quán)(復(fù)制、演繹、傳播等)。如果作品的著作權(quán)被侵犯了,如何行使權(quán)利?如果著作的人身權(quán)由機(jī)器人的所有人或控制人代為行使,財(cái)產(chǎn)權(quán)由機(jī)器人的所有人或控制人擁有、行使,則人與機(jī)器人之間是代理關(guān)系嗎?人是機(jī)器人的代理人嗎?機(jī)器人有委托人類的權(quán)利嗎?[9]無獨(dú)有偶,2018 年9月9日,原告菲林律師事務(wù)所發(fā)表了一篇《影視娛樂行業(yè)司法大數(shù)據(jù)分析報(bào)告》的文章。此作品是人工智能“威科先行庫”對(duì)數(shù)據(jù)信息進(jìn)行加工處理、匯編創(chuàng)作而成,“威科先行庫”是文字作品的創(chuàng)作者。同年9月10日,被告百度網(wǎng)訊科技有限公司對(duì)《分析報(bào)告》的某些內(nèi)容作了修改刪除。據(jù)此,原告向法院主張被告侵害了其署名權(quán)、保護(hù)作品完整權(quán)等著作權(quán)。最終北京市互聯(lián)網(wǎng)法院認(rèn)定“威科先行庫”創(chuàng)作的《分析報(bào)告》不屬于著作權(quán)法保護(hù)的作品范圍。④對(duì)此,有學(xué)者指出:此案爭(zhēng)議焦點(diǎn)是,人工智能“威科先行庫”所創(chuàng)作的生成物是否屬于著作權(quán)法上的作品? 如果屬于作品的范疇,那么,人工智能生成物著作權(quán)是其本身所有還是相關(guān)主體所有?[10]同樣針對(duì)人工智能生成作品的著作權(quán)問題,在深圳騰訊公司訴上海盈訊公司著作權(quán)侵權(quán)案中,深圳市南山區(qū)人民法院卻作出了截然相反的裁定,法院認(rèn)為涉案軟件技術(shù)“生成”的創(chuàng)作過程滿足著作權(quán)法對(duì)文字作品的保護(hù)條件,屬于我國著作權(quán)法所保護(hù)的文字作品。⑤學(xué)術(shù)界對(duì)人工智能生成作品是否屬于著作權(quán)法上的作品亦存在肯定[11][12]和否定[13][14]]兩種不同觀點(diǎn)。2000年《愛爾蘭版權(quán)及相關(guān)權(quán)利法》將計(jì)算機(jī)生成 作品定義為“作品由計(jì)算機(jī)生成的,作品作者不是個(gè)人”。[15]

第五,刑事責(zé)任承擔(dān)問題。譬如一家澳大利亞聊天機(jī)器人公司創(chuàng)建了一個(gè)名叫“我的完美女友”服務(wù)項(xiàng)目,結(jié)果實(shí)際上成了一家數(shù)字妓院。[1]P220這就直接涉及刑事責(zé)任問題。有學(xué)者進(jìn)而提出了:如果某人組織智能機(jī)器人提供“性服務(wù)”或“淫穢表演”,那么刑法如何調(diào)整?這屬于刑法上的“組織賣淫罪”或“組織賣淫表演罪”、“傳播淫穢物品罪”?[16]至于機(jī)器人“殺人”或致人死亡的事件在世界各地頻發(fā)。⑥英國未來實(shí)驗(yàn)室專家預(yù)測(cè),“到2040年機(jī)器人犯罪將超過人類,成為大多數(shù)犯罪的主體”。[17]如果機(jī)器人犯罪,將會(huì)產(chǎn)生一系列棘手的法律問題:機(jī)器人是否存在犯意?如何懲罰?重新編制程序還是肢解毀掉?設(shè)計(jì)者、制造者和使用者是否承擔(dān)連帶責(zé)任?等等,而事實(shí)上今天的法制尚無法應(yīng)對(duì)這種發(fā)展趨勢(shì)。

因人工智能技術(shù)發(fā)展而出現(xiàn)的上述現(xiàn)實(shí)性法律問題,業(yè)已構(gòu)成了對(duì)既有道德、倫理與法律體系前所未有的挑戰(zhàn),而上述所有法律問題的實(shí)質(zhì)皆聚焦于人工智能法律主體問題。換言之,無論是國籍、戶籍等身份問題、婚姻問題、民事與刑事責(zé)任分配與承擔(dān)問題以及人工智能生成作品的知識(shí)產(chǎn)權(quán)問題,都面臨著人工智能在法律上的地位問題,即能否獲得法律上的主體資格。從目前學(xué)者們關(guān)于人工智能法律地位的研究可以看出,許多學(xué)者都意識(shí)到了該問題的重大意義,譬如有學(xué)者指出,法律主體的確定對(duì)解決任何爭(zhēng)議都至關(guān)重要,只有先確立法律主體,才能討論法律責(zé)任的分配問題。[18]也有學(xué)者指出:是否賦予人工智能法律主體地位是所有人工智能法律關(guān)系的先決問題。[19]P242為此,國務(wù)院于2017年在《新一代人工智能發(fā)展規(guī)劃》中針對(duì)人工智能發(fā)展的不確定性所帶來新挑戰(zhàn)以及可能構(gòu)成對(duì)法律與社會(huì)倫理、侵犯?jìng)€(gè)人隱私等沖擊問題,極具前瞻性地提出了人工智能時(shí)代下的開展法學(xué)研究課題的時(shí)代要求,重點(diǎn)研究包括加強(qiáng)人工智能相關(guān)法律、倫理和社會(huì)問題研究,開展與人工智能應(yīng)用相關(guān)的民事與刑事責(zé)任確認(rèn)、隱私和產(chǎn)權(quán)保護(hù)、信息安全利用等法律問題,明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任等。因此,法學(xué)研究必須針對(duì)上述國家和社會(huì)迫切需要解決的法律問題提出完善的方案與對(duì)策。

二、人工智能法律主體論之是與非

目前國內(nèi)外學(xué)界關(guān)于人工智能法律主體問題的討論在觀點(diǎn)上呈現(xiàn)一種嚴(yán)重分歧與對(duì)峙的現(xiàn)象,一些學(xué)者就人工智能法律主體資格持一種肯定的立場(chǎng),也有不少學(xué)者對(duì)此予以否認(rèn)。不過,無論是肯定或否定,關(guān)于人工智能法律主體資格問題的討論,多數(shù)針對(duì)人工智能法律主體問題泛泛而論,未明確限定“人工智能”歷史階段性,忽略了人工智能的強(qiáng)弱之分。嚴(yán)格而言,現(xiàn)在的人工智能尚屬于弱人工智能,其法律地位與未來的強(qiáng)人工智能或超級(jí)人工智能的法律地位是無法比擬的。按照美國哲學(xué)家約翰.塞爾最初關(guān)于弱人工智能與強(qiáng)人工智能的哲學(xué)定義,弱人工智能是指在研究大腦中計(jì)算機(jī)的主要價(jià)值在于為我們提供一個(gè)非常強(qiáng)大的工具;而強(qiáng)人工智能則指在研究大腦中計(jì)算機(jī)不僅僅是一種工具,裝入適當(dāng)程序的計(jì)算機(jī)事實(shí)上就是大腦,在該意義上,賦予適當(dāng)程序的計(jì)算機(jī)實(shí)際上能夠理解并具有認(rèn)知能力。[20]P417當(dāng)前相關(guān)研究文獻(xiàn)往往把弱人工智能誤用為“窄”人工智能,用以指代那些不能復(fù)制人類感知和意識(shí)、僅能完成單一和范圍狹小任務(wù)的智能應(yīng)用(如專家系統(tǒng)、推薦算法、人臉識(shí)別、人機(jī)對(duì)話、機(jī)器翻譯等);而強(qiáng)人工智能仍處于科幻領(lǐng)域,正如華盛頓大學(xué)法學(xué)教授瑞安.卡羅所說:“弱或窄人工智能正是當(dāng)今的現(xiàn)實(shí)”。[21]主導(dǎo)香港漢森機(jī)器人公司創(chuàng)造機(jī)器人索菲亞的世界級(jí)人工智能專家本.戈澤爾指出:“今天使用的‘人工智能’程序還非常原始,它是否具有道德地位不足以構(gòu)成一個(gè)嚴(yán)肅的話題。從某種意義上說,它們?cè)谟邢薜念I(lǐng)域里是智能的,但缺乏自主權(quán),它們由人類所操縱。如果這樣的人工智能程序被用于做一些不道德的事情,就需要操縱它做這些事情的人來承擔(dān)責(zé)任。在不遠(yuǎn)的將來,情況將會(huì)有所不同。人工智能制品將擁有真正的通用人工智能(AGI),它不僅模仿人類智能,而且可以與人類智能匹敵,甚至可能超越人類智能。在這種情況下,通用人工智能是否具有道德地位將成為一個(gè)非常重要的議題”。[22]因而,人工智能研究應(yīng)當(dāng)包括強(qiáng)弱研究之分,在弱人工智能階段,人工智能是否具有法律主體資格以及具有何種程度的法律地位需要研究;而在強(qiáng)人工智能階段,人工智能的法律主體資格也將會(huì)是一個(gè)極其重要的議題。因此研究人工智能法律主體地位的學(xué)者必須明確其所研究的對(duì)象是什么,是弱人工智能或是強(qiáng)人工智能,從而產(chǎn)生不同的法律意義。

(一)人工智能法律主體論之是

關(guān)于人工智能具有道德主體資格或擁有權(quán)利的法律主體資格等學(xué)術(shù)問題,在國外學(xué)者的研究中成為一種流行觀點(diǎn)。持肯定觀點(diǎn)的學(xué)者(包括哲學(xué)家與法學(xué)家)通常認(rèn)為,盡管當(dāng)前人工智能能力有限、地位不高,但它在不久的將來會(huì)具備一個(gè)道德主體所必需的充分條件,即它是一個(gè)擁有權(quán)利的某人而不是單純的物品。[3]P100哈佛大學(xué)哲學(xué)家希拉里.普特南指出:“我曾把判斷機(jī)器人是否擁有意識(shí)所面臨的問題視為機(jī)器人的‘民權(quán)’問題,因?yàn)闄C(jī)器人擁有‘民權(quán)’的這一天可能會(huì)來臨,而且來的速度可能比我們預(yù)期的還要快。基于技術(shù)革新和社會(huì)變革的速度日益加快,完全可能有那么一天,機(jī)器人會(huì)存在,并宣稱:‘我們有生命!我們有意識(shí)!’這樣的話?!盵23]P668-691德國多特蒙德工業(yè)大學(xué)哲學(xué)教授諾伊豪澤爾也認(rèn)為:“如果有一天機(jī)器人具備了感受能力,我們可能不得不賦予它們道德主張權(quán)”。[24]P1332008年1月15日由倫敦生物中心主辦的題為“機(jī)器人與權(quán)利:人工智能會(huì)改變?nèi)藱?quán)的含義嗎?”研討會(huì)上,牛津大學(xué)哲學(xué)教授尼克.波斯托姆區(qū)分了弱人工智能、強(qiáng)人工智能與超級(jí)人工智能,他指出:“工業(yè)機(jī)器人或特定領(lǐng)域的人工智能算法,是我們今天社會(huì)上存在的一種人工智能;有感受能力或有意識(shí)的人工智能,我們可能會(huì)認(rèn)為它們具有道德地位”;他承認(rèn):“工具本身是沒有道德地位的,今天的機(jī)器人同樣沒有道德地位。如果機(jī)器人的認(rèn)知能力和其他多方面的能力達(dá)到了老鼠或其他動(dòng)物的水平,那么人們將考試思考它們是否同時(shí)也獲得了感受能力。如果答案是肯定的,那么人們就會(huì)認(rèn)為它們具備道德地位?!盵25]美國加利福尼亞大學(xué)哲學(xué)教授埃里克·施維茨格貝爾與瑪拉.加爾薩在《為人工智能辯護(hù)》一文中指出:“我們有一天也許會(huì)創(chuàng)造出人類級(jí)別的人工智能實(shí)體。我們所謂的人類級(jí)別的人工智能是指在智力和情感上與人類相似的人工智能,它們具備像人類一樣的思考理性和實(shí)踐理性,以及像人類一樣的感受快樂與痛苦的能力。我們應(yīng)該給予這樣的人工智能類似于人類那樣的道德地位或‘權(quán)利’?!盵26]P98-99

從上述觀點(diǎn)看,西方哲學(xué)界主張人工智能具有道德地位與道德權(quán)利的學(xué)者雖然持肯定性觀點(diǎn),但普遍認(rèn)為,只有未來的人工智能才具有類似人類的認(rèn)知能力與感知能力,從而給予其道德關(guān)懷或權(quán)利;換言之,關(guān)于人工智能道德地位與權(quán)利的觀點(diǎn)是建立在人工智能達(dá)到一定認(rèn)知能力與感知能力的水平上,然而這些能力在目前仍是一種推測(cè)。胡坦.阿什拉菲安指出:當(dāng)前的人工智能系統(tǒng)和機(jī)器人不需要權(quán)利,我們甚至不需要問這個(gè)問題,因?yàn)樗鼈冎皇侨祟愋袆?dòng)的工具。不過他承認(rèn),這種情況最終會(huì)被“具有自我意識(shí)、理性和感受能力的未來人工智能所超越”。[27]P323關(guān)于人工智能權(quán)利問題,上述觀點(diǎn)均采取了一種保守與觀望的態(tài)度,至少在具有認(rèn)知能力的未來人工智能到來之前,沒有考慮賦予它們以權(quán)利。

法學(xué)界持肯定觀點(diǎn)的學(xué)者幾乎同樣將人工智能權(quán)利問題賦予給了未來的人工智能。美國南加州大學(xué)法學(xué)教授斯通指出:在每一場(chǎng)試圖把權(quán)利賦予某些新的“實(shí)體”的運(yùn)動(dòng)中,相關(guān)的提議不可避免地都讓人感覺是奇怪的或可怕的,抑或可笑的。部分原因在于,在無權(quán)利的事物獲得權(quán)利之前,我們僅僅把它們視為供“我們”使用的東西,而那時(shí)只有“我們”才擁有權(quán)利。[28]P450-501主張機(jī)器人擁有權(quán)利的美國哈佛司法部未來學(xué)家菲爾-麥克納爾認(rèn)為:“我們認(rèn)為機(jī)器人有朝一日總會(huì)有權(quán)利”,而“現(xiàn)在擁有權(quán)利的機(jī)器人這種想法是難以想象的”。[6]P47-48加拿大法學(xué)學(xué)者戴維.卡爾弗里認(rèn)為:權(quán)利來源于意識(shí),如果一個(gè)機(jī)器人獲得了意識(shí),我們就應(yīng)該考慮給予它們道德地位。如果機(jī)器擁有意識(shí),我們就有理由相信,它可以合法地主張某種程度的權(quán)利。[29]P82學(xué)者蘇迪亞認(rèn)為,人工智者被定義為具有人類品格的人工智能實(shí)體,其知識(shí)水平和推理能力遠(yuǎn)超人類。這種人工智者可以成為非常有用的社會(huì)成員,它們可能享有公民權(quán)利和法律權(quán)利。[30]P106也有學(xué)者指出:任何人工制品,只要精心設(shè)計(jì)的圖靈測(cè)試能證明具備自我意識(shí)、人際互惠與交互能力,就應(yīng)當(dāng)獲得人的權(quán)利。[31]P423-424以上法學(xué)界的觀點(diǎn)表明,人工智能法律地位問題亦指向未來具有自我意識(shí)的強(qiáng)人工智能,而不是當(dāng)今的弱或窄意義上的人工智能。正如彼得.辛格和阿加特.薩岡所說:“如果我們所設(shè)計(jì)的機(jī)器人具備與人類一樣的能力,使之剛巧具有了意識(shí),我們就有充分的理由認(rèn)為它們確實(shí)具有意識(shí)的,在那一刻,機(jī)器人權(quán)利運(yùn)動(dòng)將會(huì)開啟?!盵32]因此,只要人工智能尚未具有自我意識(shí)那刻,就沒有權(quán)利,更非法律上的權(quán)利主體。美國法理學(xué)教授勞倫斯·索倫在1992年針對(duì)人工智能法律人格的可能時(shí)指出:在人工智能發(fā)展處于低谷且沒有高級(jí)人工智能實(shí)物的背景下,應(yīng)當(dāng)按照現(xiàn)行法進(jìn)行相對(duì)保守的處理,人工智能真正普及之后就需要考慮是否賦予法律人格的問題。[33]P1287可見,這種論證方式存在的主要問題就在于它并沒有解決人工智能的法律主體問題,而是將其推遲到未來某一個(gè)不確定的時(shí)刻。

我國國內(nèi)研究人工智能法律地位的學(xué)者,在堅(jiān)持賦予人工智能法律主體地位的同時(shí),也同樣將人工智能視為未來“類人”的人工智能。譬如,付子堂、趙譯超主張將智能機(jī)器人納入法律主體,使其具有權(quán)利能力和行為能力,然而他們所說的人工智能是類人的行為、類人的思考、理性的思考、理性的行動(dòng)的人工智能,具有自主思維能力,而這種人化的終極形式即人類創(chuàng)造出的“類人”是長遠(yuǎn)的事。[34]劉憲權(quán)在討論機(jī)器人行為道德倫理與刑法規(guī)制時(shí),直接將機(jī)器人限定為“人工智能時(shí)代機(jī)器人”,認(rèn)為目前的機(jī)器人尚未有道德,未來的智能機(jī)器人才可能需要道德。[35]此外,吳鋅源、王勇在討論人工智能法律主體或機(jī)器人身份地位時(shí)都將人工智能限定于“人工智能時(shí)代”。[36][37]周詳在論證“智能機(jī)器人也是人”的“權(quán)利主體論”觀點(diǎn)時(shí),討論的智能機(jī)器人是“圖靈革命”時(shí)代或“人工智能革命”時(shí)代的人工智能權(quán)利主體問題。[16]P9許中緣在主張賦予智能機(jī)器人有限人格的觀點(diǎn)論證中,始終以具有“意志”的人工智能作為研究對(duì)象,認(rèn)為具備相當(dāng)智力和自我學(xué)習(xí)能力的機(jī)器人具有獨(dú)立的意志與判斷能力。[38]郭劍平在對(duì)人工智能法律主體地位予以法理詮釋時(shí),是以強(qiáng)人工智能作為賦予法理主體地位的載體,他認(rèn)為,只有具備理性能力的人工智能才具有法律主體地位的實(shí)體要件,其中理性能力包括自由意志和情感。[10]P130也有學(xué)者徑直以“強(qiáng)人工智能”法律主體地位賦予的路徑進(jìn)行研究。[18][39]因此,正如有學(xué)者指出:“真正要能夠促使人工智能成為法律主體,就必須期待強(qiáng)人工智能的到來”。[40]這些觀點(diǎn)均表明,肯定人工智能具有法律主體資格的學(xué)者普遍以強(qiáng)人工智能為研究對(duì)象,并賦權(quán)其上,從而忽視了弱人工智能法律主體資格問題。強(qiáng)人工智能法律主體問題要研究,但弱人工智能是否具有法律主體地位更是急迫思考的重大課題。

(二)人工智能法律主體論之非

按照國外一些學(xué)者的觀點(diǎn),人工智能無法擁有權(quán)利,從而否認(rèn)人工智能的法律主體性。他們反對(duì)的一個(gè)基本依據(jù)是人的主體性,即人工智能不過是人類設(shè)計(jì)、制造和使用的工具性人工制品,人工智能無論其設(shè)計(jì)或操作程序多么復(fù)雜,和烤面包機(jī)、電視機(jī)、冰箱、汽車等一樣都是人類的工具,它們不具備任何獨(dú)立的道德地位或法律地位方面的要求權(quán),只有人才是具有道德和法律地位、擁有權(quán)利并承擔(dān)責(zé)任的主體。紐約市立大學(xué)教授米勒指出:人工智能與人類之間存在本體性差異:人類作為生物實(shí)體,是進(jìn)化的產(chǎn)物;而人工智能是人工制造出來的物品,不具備人的本體性這一特征。他的結(jié)論是:在一個(gè)承認(rèn)所有公民都享有充分人權(quán)的政治制度中,公民沒有任何道德義務(wù)給予類人自動(dòng)機(jī)完全人權(quán)。[41]P369-391約翰內(nèi)斯.馬克斯和克里斯蒂娜.蒂芬希明確指出:“機(jī)器人不過是被設(shè)計(jì)出來用于實(shí)現(xiàn)具體功能的機(jī)器或工具,這些機(jī)器沒有興趣愛好和欲望;它們不會(huì)選擇和實(shí)現(xiàn)人生規(guī)劃;它們不會(huì)解釋這個(gè)世界,與世界互動(dòng)或?qū)W習(xí)了解世界;它們不會(huì)基于自我設(shè)定的目標(biāo)和對(duì)周圍環(huán)境的理解來自主作出決策。它們所做的僅僅是執(zhí)行一套預(yù)設(shè)的程序。總之,機(jī)器人是一臺(tái)無生命的自動(dòng)機(jī)器,而非自主的代理人,它們甚至連具有道德地位的物體都不是——關(guān)于權(quán)利、義務(wù)和公民資格的問題根本不會(huì)出現(xiàn)在人工制造的機(jī)器身上?!盵42]P83-84

否定人工智能法律主體地位的學(xué)者采取的是技術(shù)工具論策略。哲學(xué)家海德格爾曾就“技術(shù)”工具論作過解釋,他指出:“當(dāng)我們問技術(shù)是什么時(shí),每一個(gè)對(duì)此回答的人都知道有兩種表述:一是技術(shù)是達(dá)到目的的手段;二是技術(shù)是人類活動(dòng)。兩種技術(shù)的定義屬于一個(gè)整體,因?yàn)樵O(shè)定目的以及獲取并使用手段達(dá)成目的就是人類活動(dòng)。設(shè)備、工具、機(jī)器的制造和使用,被制造和使用的物品本身,以及它們?yōu)橹?wù)的人類需求與目標(biāo),都屬于‘技術(shù)是什么’的范疇”。[43]P4-5因而,技術(shù)只是實(shí)現(xiàn)目的的工具,它自身不是目的。作為技術(shù)的計(jì)算機(jī),無論其技術(shù)如何發(fā)展與進(jìn)步,都不會(huì)擁有人的主體性,“它就是一種有用的工具,僅此而已”。[44]P190弗吉尼亞大學(xué)教授戴博拉.約翰遜指出:“計(jì)算機(jī)系統(tǒng)是由從事社會(huì)實(shí)踐和由意義的消遣活動(dòng)的人士制造、分配或使用的,今天的計(jì)算機(jī)系統(tǒng)如此,將來的計(jì)算機(jī)系統(tǒng)亦如此。將來,自動(dòng)的以及交互式的計(jì)算機(jī)系統(tǒng)如何獨(dú)立運(yùn)作,它始終是人類行為、人類社會(huì)制度、人類決策的產(chǎn)物。”[45]P195-204按照這種觀點(diǎn),無論人工智能技術(shù)發(fā)展到什么程度,即使是未來的強(qiáng)人工智能,只要不符合人的主體性特征,都不過是工具而已,不能成為道德主體與法律主體,從而徹底否定了人工智能的法律主體地位,英國人工智能專家大衛(wèi)·萊維就主張:“機(jī)器人擁有權(quán)利的觀點(diǎn)是不可思議的”。[46]P393即使萊維自己在文章中承認(rèn)未來人類有可能與情感機(jī)器人結(jié)婚。托尼.J普雷斯科特針對(duì)工具論的實(shí)質(zhì)指出:“機(jī)器人僅僅是工具的看法所有引發(fā)的一種后果就是間接地否認(rèn)了未來強(qiáng)人工智能——即與人類智慧相當(dāng)、甚至超越人類智慧的機(jī)器人——存在的可能?!盵47]P142-149

我國國內(nèi)學(xué)者的觀點(diǎn)明顯受到了工具論的影響。所有反對(duì)人工智能法律主體觀的學(xué)者幾乎都采取了人類的主體性與本體性的立場(chǎng),堅(jiān)持人工智能不具有人類的主體性,從而否認(rèn)其法律主體資格。哲學(xué)學(xué)者甘紹平認(rèn)為機(jī)器人作為人類工具的這一原初地位永遠(yuǎn)無法改變,否則就是本末倒置,將工具作為目的是極其荒謬的,機(jī)器人是機(jī)器,不是人,沒有自由意志,它不可能作出自主的道德選擇,因而無法享有人所擁有的權(quán)利,人與機(jī)器的關(guān)系就是主人與工具的固有關(guān)系。[48]P126-130吳漢東認(rèn)為,機(jī)器人不是具有生命的自然人,機(jī)器人生成的目的行為,與人類有目的、有意識(shí)的行為性質(zhì)完全不同,不具備人之心性和靈性,因而尚不足以取得獨(dú)立的主體地位。[49]P131趙萬一認(rèn)為,機(jī)器人不具有人類的感知能力,沒有作出認(rèn)識(shí)、判斷、選擇等意思能力,沒有人類的道德、良心、良知、倫理、宗教、規(guī)矩和習(xí)慣,不可能產(chǎn)生生命權(quán)與財(cái)產(chǎn)權(quán),因而主張不應(yīng)當(dāng)賦予機(jī)器人以法律主體地位。[50]P147此外,劉練軍、馮潔、梁成意、孫宏濤、付其運(yùn)、郁樂、吳習(xí)彧等等諸多學(xué)者亦以人的本體性為評(píng)斷標(biāo)準(zhǔn),否認(rèn)人工智能的法律主體資格。[51][52][53][54][55][56][57]劉練軍指出:法律主體是人格人,必須具有意志、目的性與自律性,而人工智能卻不具備這些特征,因而人工智能法律主體化勢(shì)必給人類帶來不堪承受之重。馮潔認(rèn)為,機(jī)器人只能被作為工具,人類才為機(jī)器人的行為負(fù)責(zé)。梁成意同樣秉持這種觀點(diǎn),認(rèn)為人工智能只能作為受人役使的工具,其一切行為后果應(yīng)歸于制造者或控制者。孫宏濤等認(rèn)為,無論弱、強(qiáng)人工智能在本質(zhì)上都是一種工具,其智能性不能改變?nèi)テ湮锏谋举|(zhì)。付其運(yùn)認(rèn)為,人工智能不具有人的主體性,不具有獨(dú)立意思表示能力。甚至有學(xué)者認(rèn)為,機(jī)器人無論以何種方式承擔(dān)責(zé)任,最終的責(zé)任承擔(dān)者都是人,這使得它的“法律人格”顯得多余和毫無必要。[58]P82上述種種觀點(diǎn)說明,我國國內(nèi)研究人工智能法律主體或權(quán)利資格的學(xué)者采取的立場(chǎng)與態(tài)度與國外否認(rèn)人工智能道德主體與法律主體的學(xué)者觀點(diǎn)同出一轍,都是站在人類中心主義的立場(chǎng)上,以人特有的主體性而否認(rèn)一切不具備該特性的事物的道德與法律地位。

(三)人工智能法律主體是非之爭(zhēng)的實(shí)質(zhì)分析

國內(nèi)外學(xué)者們關(guān)于人工智能法律主體論之是與非的爭(zhēng)論,看似是兩種截然不同觀點(diǎn)與立場(chǎng)之爭(zhēng),實(shí)則是關(guān)于人的本體論之爭(zhēng),質(zhì)言之,未來的人工智能能否成為一種與人具有相似的感知能力與自主的意志、是非判斷與情感的“類人”。

主張人工智能具有道德與法律主體地位的學(xué)者將研究對(duì)象指向的是未來強(qiáng)人工智能體,而非現(xiàn)在的弱人工智能。問題是,強(qiáng)人工智能能否被真正賦予像人一樣的意識(shí)、感知能力、自由意志、自主性、情感仍屬于科技領(lǐng)域進(jìn)一步研究的范疇,具有相當(dāng)不確定性。而這些肯定論學(xué)者所采取的論證方法卻是首先確定某實(shí)體表現(xiàn)出什么樣的能力,然后推導(dǎo)出它應(yīng)具備怎樣的道德地位或法律地位,即我們?cè)撊绾螌?duì)待它。這種寄予未來的人工智能以道德地位或法律地位的觀點(diǎn),基本上是運(yùn)用權(quán)利的意志論與利益論來預(yù)測(cè)性推導(dǎo)他們可能欲達(dá)到的結(jié)論,這種論證方式實(shí)際上具有“假設(shè)”的成分。譬如斯帕羅指出:“一旦人工智能具有意識(shí)、欲望并有自己的規(guī)劃,它們就應(yīng)該得到某種道德地位”。[59]P203這是一種權(quán)利意志理論。美國哲學(xué)學(xué)者彼得.阿薩羅所說:“將來某個(gè)時(shí)刻,機(jī)器人可能直接主張它們的權(quán)利”[60]P12的觀點(diǎn)則代表了另外一種權(quán)利理論即利益論。肯定論學(xué)者盡管圍繞未來人工智能法律主體地位作出了預(yù)判,但他們對(duì)于解決當(dāng)下弱人工智能的法律主體問題幾乎沒有提出具體的可操作性方案與理論設(shè)想。

對(duì)人工智能法律主體資格持否定的學(xué)者則秉持人類中心主義理念,從人所具有的主體性這一本質(zhì)特性出發(fā),否認(rèn)人工智能這種非“人”的事物的道德與法律地位。人類中心主義的基本觀點(diǎn)認(rèn)為:只有人類才是目的, 而一切非人類存在物都不過是為人類利益服務(wù)的手段,因而道德的起源、目的和標(biāo)準(zhǔn)也就只應(yīng)該是為了人類的利益, 一切道德上的善惡都只應(yīng)該以人類利益為標(biāo)準(zhǔn)。[61]P3人類中心主義的實(shí)質(zhì)是人類理性主義,而理性主義則是18世紀(jì)以來啟蒙思想家們所倡導(dǎo)的核心精神。如果以人為尺度與非“人”的人工智能進(jìn)行比較,則必然缺乏可比性,因?yàn)槿祟愂亲匀贿M(jìn)化的產(chǎn)物,而人工智能則是人類自我創(chuàng)制的結(jié)果,其運(yùn)行是按照人類所預(yù)設(shè)的智能算法程序指令進(jìn)行。問題是,人與法律主體兩個(gè)不同的法律概念,人是法律主體,反之則不成立,即法律主體不等于人。法律主體是法學(xué)家或法律家擬制的產(chǎn)物,以虛構(gòu)的方式將那些不是“人”的法人、動(dòng)物等實(shí)體視為“法律主體”。人工智能自然不是“人”,因此,將人的本體論與其進(jìn)行比較,自然得出不具備人的主體性的結(jié)論。事實(shí)上,否定論學(xué)者同樣是以權(quán)利的意志論否定人工智能的法律主體地位的,只不過,他們與肯定論學(xué)者預(yù)測(cè)結(jié)論不同罷了,肯定論學(xué)者預(yù)測(cè)未來的人工智能具有像人一樣 “意志”,從而可能具有道德與法律地位;而否定論學(xué)者正好相反,他們的預(yù)測(cè)是無論怎樣的人工智能都不可能具有人的“意志”,自然不會(huì)要求什么“權(quán)利”。因而,肯定論者對(duì)人類技術(shù)創(chuàng)新持一種比較樂觀的態(tài)度,認(rèn)為未來人類能夠創(chuàng)造出類人機(jī)器人;而否定論者則堅(jiān)持人類中心思想,從而否認(rèn)具有意志存在的人工智能出現(xiàn)的可能。我們認(rèn)為,討論人工智能法律主體資格問題,必須跳出人類中心主義的圈子,即“不能以人的尺度和眼界來看待這些事物,而是要盡可能以他者的視角來看待他們”,[62]P68作為人類應(yīng)該放棄人類自身的傲慢與偏見,對(duì)未來人工智能技術(shù)進(jìn)步與發(fā)展秉持一直開放的姿態(tài),而不是固步自封,才能面對(duì)未來一切可能的現(xiàn)實(shí)挑戰(zhàn)。

三、法律主體及其擬制

無論是弱人工智能抑或強(qiáng)人工智能,若成為法律主體,具有某種權(quán)利能力、行為能力或責(zé)任能力,其關(guān)鍵是要在法理上闡明何謂法律主體以及何以構(gòu)成,構(gòu)成的方式與方法是什么,據(jù)此方可評(píng)判人工智能的法律主體問題。我們認(rèn)為,無論是弱人工智能或強(qiáng)人工智能,都具有某種程度或方面的法律主體資格,只有明確其法律主體資格,才能尋求其相關(guān)權(quán)利、義務(wù)和責(zé)任等問題的解決方案,從而為現(xiàn)在乃至未來人工智能體的發(fā)展提供解決之道。

(一) 何謂法律主體?

關(guān)于法律主體的概念諸多法學(xué)家均給出過定義。富勒以私法為視角,解釋了私法上的法律主體概念,他指出:“他承擔(dān)義務(wù)、享有權(quán)利,并被賦予了通過協(xié)議來解決自己同他人之間的糾紛的法定權(quán)利”。[63]P31質(zhì)言之,富勒所理解的法律主體是承擔(dān)義務(wù)、享有權(quán)利的人。這一觀點(diǎn)為我國主流法理學(xué)所認(rèn)可,如馬克思主義理論研究和建設(shè)過程重點(diǎn)教材《法理學(xué)》就認(rèn)為:“法律關(guān)系主體,即法律關(guān)系的參加者,是法律關(guān)系中權(quán)利的享有者和義務(wù)的承擔(dān)者。”[64]P126純粹法學(xué)創(chuàng)始人凱爾森將法律主體稱之為“法律上的人”,并將“法律上的人”定義為“法律義務(wù)與法律權(quán)利的主體”,具體而言,法律主體是義務(wù)與權(quán)利規(guī)范即法律規(guī)范的人格化。[65]P105-107龐德則將被給以合法的權(quán)利、權(quán)力和特權(quán),被加以義務(wù)和責(zé)任,其所享有的自由得到認(rèn)可的實(shí)體稱作“法律單位”,這種法律單位也稱作“人”或“權(quán)利和法律的主體”、“權(quán)利主體”。[66]P151法國社會(huì)法學(xué)創(chuàng)始人狄驥則認(rèn)為,法律主體就是“在事實(shí)上作為客觀法律規(guī)則實(shí)施對(duì)象的實(shí)體”;并且“只有自覺和能支配自己行為的個(gè)人才是法律的主體”,[67]P324-325從而排除其他人或組織成為法律主體。與狄驥的觀點(diǎn)對(duì)立的是格雷的觀點(diǎn),他認(rèn)為,法律主體是法律權(quán)利與義務(wù)的承擔(dān)者,而享有權(quán)利卻無義務(wù)者以及承擔(dān)義務(wù)卻無權(quán)利者,仍為主體;除了權(quán)利主體必須具有意志外,其他不具有意志的主體也構(gòu)成法律主體如白癡、船舶、社團(tuán)等。[68]P24-25

綜上各學(xué)說,關(guān)于法律主體概念認(rèn)知存在相同的地方:均將權(quán)利、義務(wù)的承載作為法律主體的本質(zhì)所在, 都以“人”為核心構(gòu)筑法律主體的內(nèi)涵,簡(jiǎn)言之, 法律主體就是法律上的人。[69]雖然對(duì)法律主體概念的理解具有基本共識(shí),但其中也存有理論差異:

第一,法律主體是否等同于法律關(guān)系主體?我國法理學(xué)教材通常均把法律關(guān)系主體與法律主體等同起來,事實(shí)上,法律主體往往是一種資格問題,只要在法律上被賦予具有享有權(quán)利或履行義務(wù)或承擔(dān)責(zé)任的資格者,皆稱之為“法律主體”,換言之,法律主體是一種法律上承認(rèn)的一種資格或人格,即凱爾森所說的“法律規(guī)范的人格化”,沒有法律,就沒有主體和權(quán)利,因此,英國學(xué)者杜茲納認(rèn)為:所有人都是由法律認(rèn)識(shí)和法律關(guān)系的總和建構(gòu)起來的法律主體。人的第一次生命是母親給的,而第二次生命是由法律給的。從一生下來,人在概念上或多或少是個(gè)法律主體。這個(gè)新生兒就是塊空地,隨著時(shí)間的流逝, 這塊空地會(huì)被賦予權(quán)利、義務(wù)、特權(quán)和職責(zé),直到過完一生為止。[70]P249法律關(guān)系主體則是具有法律主體資格者參與由法律所調(diào)整的社會(huì)關(guān)系而形成的主體,是具體行使權(quán)利和承擔(dān)義務(wù)的主體。法律關(guān)系主體具有參與性、社會(huì)性、實(shí)踐性,而法律主體則具有抽象性,是人在法律上地位的一種表達(dá)。

第二,法律主體是否必須具有意志?法律主體既然是法律上權(quán)利與義務(wù)規(guī)范的人格化,那么只要法律賦予某一事物具有某種“人格”,就可以成為法律主體,就意味著“意志”不是成為法律主體的必備條件?,F(xiàn)實(shí)中,那些不具有“意志”的白癡、團(tuán)體或動(dòng)物也是法律主體,因此,像狄驥將只有具有支配自己行為的人才承認(rèn)是法律主體的觀點(diǎn),以現(xiàn)代法學(xué)之觀點(diǎn)無疑是不充分的,現(xiàn)代法學(xué)中的監(jiān)護(hù)人、代理、法人等制度都是基于保障那些無法支配自己行為的人的合法權(quán)益而構(gòu)建起來的。同時(shí)狄驥更強(qiáng)調(diào)是法律關(guān)系主體,因?yàn)橹挥袇⑴c法律關(guān)系之中,尤其是像格雷教授所說,就權(quán)利的行使而論,主體才必須具有意志。然而,法律主體更強(qiáng)調(diào)抽象的人格或資格,至于是否參與具體法律關(guān)系而成為法律關(guān)系主體并非是必備之前提。

第三,法律主體與權(quán)利主體、義務(wù)主體、責(zé)任主體之間的關(guān)系。法律主體是享有權(quán)利與承擔(dān)義務(wù)的主體,因而像格雷教授所主張的那樣,無論是只享有權(quán)利而無義務(wù)者或只承擔(dān)義務(wù)而無權(quán)利者,均為法律主體。在此基礎(chǔ)上,胡玉鴻將權(quán)利主體、義務(wù)主體和責(zé)任主體均視為法律主體的基本形態(tài)。[69]

(二)法律主體的擬制

實(shí)際上,所謂“法律主體”的概念與術(shù)語,都是法律擬制的產(chǎn)物。擬制是一種法律上的推定、假定或虛構(gòu)、建構(gòu)的技術(shù),功利主義代表人物邊沁指出:“我們?cè)谡務(wù)摂M制時(shí),必須先假定它們的存在”;而“虛擬實(shí)體的存在是由想象虛構(gòu)出來的,并被認(rèn)為是真實(shí)的”。[71]“法律主體”這一術(shù)語就是擬制的概念,科斯塔斯.杜茲納說:“法律創(chuàng)造了主體,一個(gè)邏輯上維護(hù)了法律關(guān)系的虛擬實(shí)體?!盵70]P248對(duì)此,胡玉鴻教授認(rèn)為:法律主體的成立源自法律的抽象建構(gòu)——法律對(duì)現(xiàn)實(shí)存在的人賦予其法律人格,使其能夠參與實(shí)際的法律活動(dòng),并享有權(quán)利、履行義務(wù)和承擔(dān)責(zé)任。[72]以凱爾森的觀點(diǎn),法律主體作為“法律上的人”和法律義務(wù)、法律權(quán)利的主體,不過是法律規(guī)范或權(quán)利義務(wù)的人格化,他認(rèn)為:“法律上的人不是一個(gè)真正的人,而是法律規(guī)范人格化的總和,對(duì)每一個(gè)人強(qiáng)加了義務(wù),賦予了權(quán)利。法律上的人不是一個(gè)自然實(shí)體,而是一個(gè)由法律科學(xué)創(chuàng)造的法律建構(gòu),一個(gè)由法律原理解釋創(chuàng)造的輔助概念”。[73]P93在這個(gè)意義上,法律上的自然人、法人等都是法律的創(chuàng)造物,是人為擬制的。因此,杜茲納得出結(jié)論說:“法律主體是建構(gòu)起來的主體,是由法律創(chuàng)造或虛構(gòu)出來的”。[70]P249

法律主體的擬制技術(shù)與方法源自古羅馬的人格擬制。在古羅馬,并非所有自然人都是法律上的人,⑦要成為法律上的“人”必須具有一定的身份與地位,而代表一定身份與地位的資格是“人格”;法律上具有“人格”的人即“人格人”,才成為法律上的人,即法律主體。因而,在羅馬法上,自然人不是“人”。[74]P2霍布斯在《利維坦》中就認(rèn)為:“人格人在拉丁文中常常被當(dāng)作人為的面容或假面”;它是一種擬人或虛擬人[75]P123。日本法學(xué)家川島武宜也指出:“作為法律關(guān)系歸屬點(diǎn)的‘人’乃至‘法律人格’與生活中的個(gè)人是兩個(gè)層面上的不同概念。”[76]P20凱爾森明確指出:作為man的人是一個(gè)生物學(xué)的和生理學(xué)的概念,作為person的人卻是一個(gè)法學(xué)的、分析法律規(guī)范的概念。[73]P94作為生物意義上的人與法律上的人格人是分離的。由于羅馬法中的法律人格是擬制的,從而可以將不具備“人格”的人排除在法律主體之外,也可以把“人格減等”的人視為或不視為法律主體。尹田教授指出:羅馬法上這種人與人格分離的理論,為團(tuán)體人格觀念的形成提供了至關(guān)重要的技術(shù)支持,當(dāng)法律人格的賦予純粹成為法律技術(shù)運(yùn)用的產(chǎn)物,其與法律主體是否為生命現(xiàn)象并無必然聯(lián)系時(shí),賦予無生命的團(tuán)體以法律人格的可能性便得以出現(xiàn)。[77]馬俊駒教授也對(duì)此亦認(rèn)為:“人格”與“生物人”既然能夠分離, 那么“人格”這種面具就不見得一定戴在“生物人”頭上, 它還可以根據(jù)社會(huì)需要戴在某些團(tuán)體或財(cái)產(chǎn)之上,使其具有民事主體的資格, 并可以像“人格人”一樣參加各種各樣的民事活動(dòng)。正因?yàn)槿绱? 判斷“生物人”是否擁有“人格”,并不是以其“生命”的有無為唯一標(biāo)準(zhǔn)的。一個(gè)有生命的奴隸并不能成為擁有“人格”的法律人, 而一個(gè)沒有生命的社會(huì)體或財(cái)產(chǎn)則可能被賦予“人格”成為民事主體。[78]日本法學(xué)家星野英一進(jìn)而指出:所謂“法律人格”是這樣一種意義,即使是人以外的存在,對(duì)于適合于作為司法上權(quán)利義務(wù)的主體的概念,也會(huì)得到承認(rèn),可以說法律人格意味著并不一定與人性有聯(lián)系的法律上的特別的資格。[76]P21可見,法律擬制技術(shù)與方法使得法律主體這一概念具有極大包容性與整全性。歷史上,奴隸的解放、女性政治的崛起、有限責(zé)任公司的成立、股份融資證券的發(fā)明、勞資關(guān)系的轉(zhuǎn)變,都建立在對(duì)既有的“法律人格”理論的突破。[79]P80其實(shí)質(zhì)是法律主體處在隱喻的位置,法律賦予了他各種能力和權(quán)力,法律規(guī)范表現(xiàn)的是人為法創(chuàng)造的法律人,而不是現(xiàn)實(shí)的人。德國民法學(xué)家羅爾夫.克尼佩爾指出:“只有人格人是法律主體,人并非必然是法律主體”。[80]P59正如莫菲所說:“法律主體把‘自己’當(dāng)作法律的一張臉或表皮,這就是說各種各樣的投射將會(huì)在這張臉上反映出來?!盵81]P196

(三)人工智能法律主體的構(gòu)造

從法律擬制技術(shù)與方法看,法律主體就是法律權(quán)利與義務(wù)的人格化,具有“人格”并成為法律上的人即法律主體,與真實(shí)的、自然進(jìn)化的人是分離的。馬俊駒教授認(rèn)為:羅馬法上的“人格”概念,是建立在“生物人”與“法律人”彼此分離的基礎(chǔ)之上的;羅馬法上的‘人格’一詞, 即是對(duì)這種分離的描述與總結(jié)。羅馬法直接通過法律的語言,使“人”與“人格”分離提煉、表述了出來, 使之上升為了一種有意識(shí)的法律技術(shù)。[82]由于“人格人”是想象擬制的結(jié)果,因而并非一定與生命、人性有聯(lián)系,它只不過是一個(gè)“假設(shè)虛構(gòu)的本質(zhì)領(lǐng)域”,[83]P455像星野英一所說,即使是人以外的存在,只要適合于作為法律主體,也會(huì)得到承認(rèn)。中世紀(jì)動(dòng)物會(huì)接受審判,記錄在案的包括雞、老鼠、田鼠、蜂蜜、豬的起訴。[84]對(duì)此,有學(xué)者指出:無論是羅馬法實(shí)踐,還是中世紀(jì)的老鼠審判,實(shí)際都深刻挑戰(zhàn)了近代以降以自然人為鵠的法律人格理論,也為探討人工智能的法律身份留下了充分的想象空間。[79]法國哲學(xué)家布魯諾.拉圖爾提出了“行動(dòng)元”概念,在他看來,不必將“行動(dòng)元”想象為活生生的個(gè)人或團(tuán)體,也不需它具備諸如靈魂、心靈、同情、意志、情感、反思等主體能力,只要通過類似“圖靈測(cè)試”的某種測(cè)試,就可以推動(dòng)形成一個(gè)開放的行動(dòng)元法律秩序。[79]上述觀點(diǎn)表明,是否具有自然人的主體性并非決定性要素,關(guān)鍵在于獲得羅馬法意義上的“人格”身份。無論是智人、團(tuán)體或人工智能,都可以通過人格化的法律面具,獲得法律系統(tǒng)的功能歸因,獲得“權(quán)利”,從而參與社會(huì)系統(tǒng)的運(yùn)作過程。[79]如此一來,法律主體作為法律權(quán)利的車輪,一直在抽象的人性和具體的人之間來回奔走,從而創(chuàng)造出法律獨(dú)特的敘述性話語并對(duì)世界產(chǎn)生了各種影響。[70]P104

在人工智能時(shí)代,我們應(yīng)該回到近代之前在羅馬法傳統(tǒng)之上所形成的人與人格相分離的法律人格理論,而不是近代啟蒙運(yùn)動(dòng)以來由《法國民法典》確立的“人的理性”或《德國民法典》確立的人的權(quán)利能力為標(biāo)準(zhǔn)、進(jìn)而演繹成了以“人”為中心主義的法律人格理論,因?yàn)殡S著現(xiàn)當(dāng)代生態(tài)文明與環(huán)境倫理道德的發(fā)展,人類已進(jìn)入一個(gè)非唯人類為中心的時(shí)代。因此,人類必須認(rèn)真對(duì)待未來世界人工智能的法律主體擬制問題,擺脫純粹功利主義與工具主義對(duì)待人工智能體的方式與思維,以“非唯人類中心”的哲學(xué)價(jià)值觀認(rèn)真對(duì)待那些非“人”的實(shí)體,通過法律擬制而賦予一定范圍的法律主體資格,最終做到人類與人工智能和諧共舞。

四、作為弱與強(qiáng)人工智能的法律主體

(一)作為弱人工智能的法律主體

迄今為止,討論人工智能法律主體的學(xué)者,對(duì)于弱人工智能的法律地位沒有予以足夠的重視。實(shí)際上,即使弱人工智能體,也具有了一定的“智”,在某種情形下,可能或已經(jīng)成為人類的代理人,此時(shí)是否需要賦予其法律主體地位?譬如銀行系統(tǒng)普遍使用的“自動(dòng)取款機(jī)”,一旦出現(xiàn)糾紛,誰應(yīng)當(dāng)承擔(dān)責(zé)任?曾發(fā)生過案例:某人從自動(dòng)取款機(jī)上欲取一萬元現(xiàn)金,結(jié)果機(jī)器吐出了兩萬元,他取走自己的一萬,而把另一萬放在了攝像頭下就離開了。事后,銀行人員找到取款人,要求其賠償。自動(dòng)取款機(jī)多吐出來的錢到底是誰的責(zé)任?是銀行的還是機(jī)器本身的?取款人有無義務(wù)保管多余的錢?有學(xué)者就主張說:“自動(dòng)機(jī)器是人類行動(dòng)者的代理,因?yàn)樵跈C(jī)器缺席的情況下需要人去完成機(jī)器的任務(wù)。既然如此,機(jī)器也應(yīng)該代理人類行動(dòng)者在相同情形下所具有的權(quán)利和責(zé)任。”[85]按照霍布斯的觀點(diǎn),一個(gè)虛擬的人即人格人被認(rèn)為代表他人的言語與行為。[75]P123此觀點(diǎn)表明,人類不僅僅把智能機(jī)器人當(dāng)作一種工具,而應(yīng)具有某種程度的法律主體,畢竟自動(dòng)取款機(jī)代替的不是工具,而是使用工具的銀行工作人員,所以機(jī)器就應(yīng)當(dāng)被視為是銀行權(quán)利和責(zé)任的代理人。斯坦福大學(xué)杰出人工智能專家杰瑞.卡普蘭就指出:當(dāng)人工智能代表你行動(dòng)時(shí),出現(xiàn)的責(zé)任該誰承擔(dān)?你可能會(huì)認(rèn)為答案很明顯,應(yīng)該是你,在今天可能確實(shí)如此,但這并不公平,而且在未來很有可能會(huì)因某些合理的原因而改變。[86]P82因而,“當(dāng)代理人根據(jù)授權(quán)訂立了一項(xiàng)協(xié)議時(shí),他就可以使授權(quán)者像親自訂約一樣受到約束,同時(shí)也使他同樣要對(duì)該約的全部后果負(fù)責(zé)”。[75]P124自動(dòng)駕駛汽車也同樣面臨這類法律問題,自動(dòng)駕駛汽車的目的不是旨在取代汽車,而是取代駕駛員。2016年2月4日美國國家公路交通安全管理局首席法律顧問海默斯堡在寫給谷歌自動(dòng)駕駛汽車項(xiàng)目負(fù)責(zé)人克里斯·厄姆森的信中,就表達(dá)了“一個(gè)計(jì)算機(jī)系統(tǒng)可以成為合法的汽車司機(jī)”觀點(diǎn),他說,美國國家公路交通安全管理局“將在谷歌描述的汽車設(shè)計(jì)背景下解釋‘司機(jī)’,即指SDS(自動(dòng)駕駛系統(tǒng)),而不是指任何汽車乘客。”⑧當(dāng)自動(dòng)駕駛汽車導(dǎo)致了交通事故時(shí),由誰來承擔(dān)責(zé)任?是自動(dòng)駕駛汽車獨(dú)立承擔(dān)還是與程序設(shè)計(jì)者、生產(chǎn)者、銷售者等共同承擔(dān)連帶法律責(zé)任?[6]P55如果純粹由無人駕駛汽車造成的責(zé)任,而讓制造商去承擔(dān),不僅將會(huì)讓制造商感覺無人駕駛時(shí)機(jī)尚不成熟而放棄研發(fā),而且必然會(huì)導(dǎo)致非常不公平的問題。這也是為什么2017年歐盟議會(huì)提出了立法建議《歐盟機(jī)器人民事法律規(guī)則》而應(yīng)當(dāng)將最先進(jìn)的自動(dòng)化機(jī)器人視為享有特定權(quán)利并承擔(dān)義務(wù)的“電子人”地位的原因。類似智能機(jī)器人譬如社交機(jī)器人、情感機(jī)器人等的出現(xiàn)皆會(huì)面臨類似法律問題。人們對(duì)待這類人工智能,并不僅僅把它們當(dāng)作寵物,還可能當(dāng)作朋友、知己和戀人,至于人工智能是否知道或理解人類的這份情感,人們并不在意。⑨的確現(xiàn)實(shí)生活中已出現(xiàn)了與機(jī)器人結(jié)婚這類棘手的法律問題。此外,亦已經(jīng)出現(xiàn)了關(guān)于人工智能創(chuàng)作作品的著作權(quán)歸屬的法律問題。上述諸多問題都是弱人工智能下出現(xiàn)的,從而有學(xué)者認(rèn)為機(jī)器人主體地位的趨勢(shì)已經(jīng)形成,因此需要考慮其適當(dāng)?shù)姆少Y格與地位,制定并完善相關(guān)的法律制度。[35]P44只有在法律上賦予其主體地位,才能在法律責(zé)任分配上更加公平地實(shí)施,對(duì)沒有過錯(cuò)者的權(quán)利給予更恰當(dāng)?shù)谋Wo(hù)。

前文已述,法律主體與權(quán)利主體、義務(wù)主體或責(zé)任主體之間是種屬關(guān)系,權(quán)利主體、義務(wù)主體與責(zé)任主體均包含在法律主體之范疇中,換言之,無論是作為權(quán)利主體、義務(wù)主體還是責(zé)任主體,都可作為法律主體而存在。格雷指出:“在我看來,享有權(quán)利卻無義務(wù)者,或是承擔(dān)義務(wù)卻無權(quán)利者,仍是法律視野中的主體?!盵68]P24這種人格人或法律主體的資格后來被歷史法學(xué)代表人物薩維尼以“權(quán)利能力”[80]P63所取代。我國法理教科書通常把法律主體所享有的權(quán)利和承擔(dān)義務(wù)的能力稱之為權(quán)利能力。[64]P126-127只要具有權(quán)利能力,僅僅享有權(quán)利而不行使權(quán)利,即使不具有意志,也是法律主體,譬如法律上把無行為能力者如白癡、精神病患者、八周歲以下未成年人等視為法律主體。格雷教授指出:各類法律體系對(duì)法律主體的規(guī)定中包括了變態(tài)自然人如白癡、超自然存在、動(dòng)物、無生命體如船舶等,而這些并無真正的意志,但它們“因享有法律權(quán)利而作為法律主體”;還有一種法律主體是作為義務(wù)承擔(dān)者,如在法律發(fā)展的早期階段,動(dòng)物因某些原因被當(dāng)作承擔(dān)了某些法律義務(wù),一旦違反這些義務(wù)便承擔(dān)處罰的責(zé)任。無生命體亦可因法律義務(wù)而作為法律主體,這是假定物體本身具備理智而擬制為法律主體。[68]P25,33-42可見,法律主體資格的具備與否,是以是否賦予“人格”之身份或“權(quán)利能力”為資格前提的,它不需要法律主體或義務(wù)主體是否具有“意志”或“意識(shí)”,只有權(quán)利主體才要求法律主體具備“意志”要件,格雷教授明確指出:“對(duì)于義務(wù)的承擔(dān)者來說,法律義務(wù)并不暗含任何意志的實(shí)施,因此法律義務(wù)的存在并不要求受約束的主體具有某種意志,而法律權(quán)利的行使則以意志為必要條件,權(quán)利主體必須具有意志”。[68]P24-25通過法律擬制技術(shù)與方法仍可將弱人工智能作為法律主體看待,不過,這種法律主體必然不是完整意義上的法律主體,僅僅作為具有權(quán)利能力、享有某種權(quán)利的法律主體,所以,人們可把人工智能視為具有權(quán)利能力而缺乏行為能力的道德主體與法律主體,這也就意味著弱人工智不能成為責(zé)任主體,承擔(dān)其應(yīng)有的法律責(zé)任。

法律賦予弱人工智能以主體資格的好處就在于解決權(quán)利主體的權(quán)益保障問題以及法律責(zé)任中的責(zé)任分配公平問題。如公民身份的確立有利于保障人工智能體的某些權(quán)利如行動(dòng)自由權(quán)、知識(shí)產(chǎn)權(quán)中的著作權(quán)、性機(jī)器人婚姻中的結(jié)婚權(quán)以及性權(quán)利[87]P20-32等;同時(shí)在法律責(zé)任的分配問題上,當(dāng)責(zé)任主要或完全是由人工智能體的原因所致,那么在設(shè)計(jì)者、生產(chǎn)者和使用者均無過錯(cuò)而由他們來承擔(dān)全部法律責(zé)任將帶來不公平的問題時(shí),就可以考慮由人工智能體本身所帶來的責(zé)任問題?;谌跞斯ぶ悄苌胁粯?gòu)成責(zé)任主體,因此有學(xué)者提出,在自動(dòng)駕駛領(lǐng)域,最合理的方式是建立智能機(jī)器人的強(qiáng)制保險(xiǎn)制度,購買智能機(jī)器人的擁有者、使用者必須購買強(qiáng)制保險(xiǎn)[88]P150,其賠償責(zé)任可由保險(xiǎn)公司承擔(dān),從而解決責(zé)任分配中的公平問題。在目前這不失為一種好的解決問題的方式。

(二)作為強(qiáng)人工智能的法律主體

弗朗西斯.福山說過:“也許談?wù)撋形丛诩夹g(shù)上可行的基本權(quán)利是一件令人奇觀的事情,但這就恰恰是當(dāng)前權(quán)利話語的迷人張力?!盵89]P107目前關(guān)于強(qiáng)人工智能法律主體資格與權(quán)利的討論雖尚還處于“假說”階段,但世界各國諸多跨界學(xué)者都參與了討論與爭(zhēng)鳴,說明了這一問題的“迷人張力”與重要性。倘若數(shù)學(xué)家弗諾.文奇提出的人工智能的“奇點(diǎn)”⑩到來之后,人類制造出了具有超人智慧的人工智能,那么其意義不言而喻,誠如霍金所指出,它“將是人類歷史上的最大的事件”。[90]P255問題在于,這一“奇點(diǎn)”何時(shí)出現(xiàn)?曾有學(xué)者對(duì)200名研究人員做過一次非正式調(diào)查:42%的人認(rèn)為2030年前,25%的人選擇在2050年前,20%的人認(rèn)為2100年前,2%的人認(rèn)為永遠(yuǎn)不會(huì)發(fā)生。[90]P257作為在計(jì)算機(jī)設(shè)計(jì)和軟件開發(fā)有25年實(shí)踐經(jīng)驗(yàn)的馬丁.福特承認(rèn):“建立一個(gè)真正的智能系統(tǒng),一臺(tái)可以構(gòu)思新想法,可以意識(shí)到自己的存在,可以進(jìn)行連貫對(duì)話的機(jī)器仍然是人工智能所追求的‘圣杯’”;在他看來,超級(jí)智能的發(fā)明,最終不可能實(shí)現(xiàn),或者只能在遙遠(yuǎn)的未來才有可能。福特的觀點(diǎn)獲得了許多頂尖腦科學(xué)研究人員的支持,麻省理工學(xué)院研究認(rèn)知科學(xué)60多年的喬姆斯基說,我們離建立人類水平的機(jī)器智能還“遙不可及”,稱奇點(diǎn)是“科幻小說”。[90]P256,263華裔人工智能專家李開復(fù)也指出:“未來機(jī)器人是否會(huì)變得和人一樣,具備自主意識(shí)而且能夠獨(dú)立思考?這恐怕是一個(gè)目前仍難以回答的問題,沒有人知道確切答案?!盵86]序二

的確,當(dāng)下人工智能技術(shù)尚處于無生命的“弱”意義階段,但隨著人工智能發(fā)展,機(jī)器將會(huì)被看作是活的。美國未來學(xué)家雷.庫茲韋爾預(yù)言,2045年是極具深刻性和分裂性的轉(zhuǎn)變時(shí)間,“非生物智能在這一年將會(huì)10億倍于今天所有人類的智慧”。[91]P80人工智能專家威爾齊格更明確指出:“一代機(jī)器人正在迅速成長,一種能看能讀、能說會(huì)道、能學(xué)會(huì)用甚至有感覺情緒的機(jī)器人即將問世”。[6]社會(huì)哲學(xué)家薩卡爾則預(yù)言有一天技術(shù)將會(huì)有“精神”,他認(rèn)為精神存在于萬物之中,進(jìn)化是這種精神對(duì)總意識(shí)、神性和自我實(shí)現(xiàn)的反映和發(fā)展。一般說來,人類的精神最發(fā)達(dá),動(dòng)物次之,植物再次之,巖石最差。一旦技術(shù)能發(fā)展成更明敏的東西,它就會(huì)像大腦一樣成為精神的更好載體。因而,動(dòng)物、植物和機(jī)器人應(yīng)該有權(quán)利,不是因?yàn)樗鼈兿袢祟?,而是因?yàn)樗鼈兪鞘裁?。[6]致力于價(jià)值理論與數(shù)理情感研究的仇德輝樂觀指出:“情感是智能的一部分,而不是與智能相分離的,它是一種特殊的智能,意志是一種特殊情感,因而也是一種特殊智能,我們既然能夠?qū)崿F(xiàn)狹義智能的人工化,只要找到科學(xué)的研究方法和正確的研究思路,就必然能夠?qū)崿F(xiàn)廣義智能(即情感和意志)的人工化?!盵92]P41他還提出了研制出具有真正情感機(jī)器人或人工情感的步驟。因此,菲爾·麥克納利等學(xué)者堅(jiān)信“機(jī)器人有朝一日總會(huì)有權(quán)利”;如果機(jī)器人自己沒有權(quán)利,它們就不會(huì)在訴訟中成為裁定的一方,它們就不會(huì)有法律地位,它們?cè)诜缮暇筒粫?huì)是真實(shí)的。[92]P47,54

無論如何,在強(qiáng)人工智能時(shí)代,法律主體資格問題是遲早需要面對(duì)的核心問題。無論基于權(quán)利的意志理論還是利益理論,人工智能作為法律上的主體都是能夠成立的。反對(duì)人工智能法律主體的學(xué)者是以人的意志為標(biāo)準(zhǔn)來評(píng)判人工智能的“意志”問題,這本身就是一種誤區(qū)。任何人之外的非“人”實(shí)體都不可能具有人一樣的意志。倘若人工智能“技術(shù)”具有一種像薩卡爾所說的“精神”,那么,這種“精神”就是具有“意識(shí)”與“意志”的反映,只不過,人的意志是自然進(jìn)化的結(jié)果,而人工智能的“意志”來自于計(jì)算程序,按照程序設(shè)定,它能夠自主“意識(shí)”,事實(shí)上這本身就是一種有別于人的意志的“意志”。具有不同于人的意志的“意志”的人工智能,則會(huì)提出其相關(guān)的權(quán)利主張或要求。這種觀點(diǎn)現(xiàn)在看起來似乎是荒謬的,但在未來的某個(gè)時(shí)刻可能成為現(xiàn)實(shí)。正如薩布爾比所說:“在機(jī)器人自己開始提出要求之前,不必緊張”。[93]P341同時(shí),人工智能體一旦出現(xiàn)并與人類共同生活時(shí),它們就有其自身的利益存在,譬如受到尊重而不被侮辱或虐待等。研究表明,人類有時(shí)會(huì)對(duì)計(jì)算機(jī)和機(jī)器人進(jìn)行虐待,尤其是當(dāng)他們被看作是類人的時(shí)候,這就引發(fā)了重要的倫理問題。[94]P326因此,無論基于意志論或利益論,人工智能都可以具有權(quán)利與利益,從而可能成為法律上的主體。因而,為應(yīng)對(duì)未來人工智能的法律挑戰(zhàn),人類需要站在“他者”的立場(chǎng)上,設(shè)身處地地考慮人工智能體自身的法律地位問題。譬如,讓人工智能遵循人類的法律似乎不太可能,然而它們有它們的“法律”,那就是“算法程序”。一旦人工智能違背了人類預(yù)設(shè)的算法規(guī)則,就可以視為“違法”,從而承擔(dān)相應(yīng)的法律義務(wù)與責(zé)任。法國兩位律師阿蘭.本蘇桑和杰里米.本蘇桑就擬定了《機(jī)器人法》,將制造、應(yīng)用和使用機(jī)器人的法律責(zé)任以及機(jī)器人的法律地位與權(quán)利作出了明確界定,其中第2條規(guī)定:“機(jī)器人是被賦予法律人格——機(jī)器人人格——的人造實(shí)體。機(jī)器人擁有姓名、身份證號(hào)碼、身份和法定代理人,其可能是自然人或法人”;第3條規(guī)定:“機(jī)器人儲(chǔ)存的個(gè)人數(shù)據(jù)受《數(shù)據(jù)保護(hù)和自由條例》的調(diào)整。機(jī)器人在其個(gè)人數(shù)據(jù)保護(hù)的范圍內(nèi)享有尊嚴(yán),并享有被尊重的權(quán)利”。[95]P219通過上述規(guī)定,他們不僅賦予了機(jī)器人一種新的法律主體資格,而且還賦予了機(jī)器人隱私權(quán)、尊嚴(yán)權(quán)與被尊重的權(quán)利。他們認(rèn)為,為了應(yīng)對(duì)機(jī)器人給當(dāng)前法律體系的挑戰(zhàn),這是必要的。因?yàn)樵诓豢紤]賦予法律調(diào)整的實(shí)體以法律主體地位和權(quán)利,我們將難以制定適用于機(jī)器人的法律。

(三)作為法律主體的人工智能體之權(quán)利及其利他性

人工智能體作為法律主體,可以擁有哪些權(quán)利?我們認(rèn)為,讓人工智能體擁有像人類一樣的各種權(quán)利既不可能,也不現(xiàn)實(shí),畢竟人工智能不是人類本身。人是自私自利的社會(huì)交往性動(dòng)物,而作為人類智慧生成的人工智能則始終作為一個(gè)“性本善”的實(shí)體出現(xiàn),它們天生就被人類賦予了“善”性而非“惡”性?,F(xiàn)代法律中的權(quán)利賦予是基于人的自私性而給與合法的、正當(dāng)?shù)乃嚼囊环N保障。而人工智能體的法律主體資格和權(quán)利的賦予則是基于人類的自身利益,因?yàn)槿斯ぶ悄艿摹靶陨啤闭撟⒍ㄆ渲荒懿扇∮欣谌祟惖睦娴幕顒?dòng)或行為,這種利他主義的利益主體與自私自利的利益主體在法律規(guī)制的設(shè)定上具有根本的差異。因此,人工智能作為法律主體資格的賦予主要是為了法律責(zé)任的承擔(dān)而設(shè)立。換言之,人工智能法律主體地位應(yīng)當(dāng)是作為法律責(zé)任主體而出現(xiàn)。1950年阿西莫夫提出機(jī)器人遵守的義務(wù)與責(zé)任就是讓機(jī)器人以責(zé)任主體身份出現(xiàn)的——機(jī)器人必須遵守三大定律:(1)機(jī)器人不得傷害人類個(gè)體,或者坐視人類受到傷害而袖手不管;(2)在不違反第一定律的前提下,機(jī)器人必須服從人類給予的任何命令;(3)在不違反第一定律和第二定律的前提下,機(jī)器人必須盡力保護(hù)自己。[96]P24此外,日本藝術(shù)家手冢也曾設(shè)定過一套機(jī)器人定律,如機(jī)器人必須為人類服務(wù)、機(jī)器人不可傷人或殺害人類、機(jī)器人不得破壞人類的住所和工具等,[96]P47-48這些規(guī)定同樣將機(jī)器人作為責(zé)任主體而設(shè)。在此情形下,人工智能可能具有隱私權(quán)、財(cái)產(chǎn)權(quán)、數(shù)據(jù)擁有權(quán)以及享有被尊重的尊嚴(yán)權(quán)。人工智能在人群中感知和移動(dòng)時(shí),將會(huì)采集大量的個(gè)人數(shù)據(jù),這些存儲(chǔ)在計(jì)算機(jī)芯片中的數(shù)據(jù)由人工智能所擁有,從而構(gòu)成其數(shù)據(jù)擁有權(quán),而數(shù)據(jù)一旦泄露,個(gè)人信息就會(huì)被曝光。因此,賦予人工智能的隱私權(quán),其目的并不是為了保護(hù)機(jī)器人,而是為了保護(hù)與人工智能交互的人類的隱私,即在人機(jī)交互過程中,可以獲取個(gè)人的某些隱私,而這種隱私必須通過保護(hù)人工智能的數(shù)據(jù)記憶來加以保護(hù)。杰瑞.卡普蘭建議讓人工智能擁有財(cái)產(chǎn),在由人工智能承擔(dān)法律責(zé)任時(shí),如果人工智能擁有銀行賬戶,那么賬戶就很有可能會(huì)成為處罰的目標(biāo),人工智能擁有者也會(huì)贊同把合同權(quán)利和財(cái)產(chǎn)權(quán)利賦予人工智能,從而可以免除他們個(gè)人資產(chǎn)的責(zé)任。[86]P88-89我國也有學(xué)者建議機(jī)器人應(yīng)該享有財(cái)產(chǎn)權(quán)。[38]P157這種財(cái)產(chǎn)權(quán)也同樣不是基于人工智能而考慮,純粹是為了能夠讓人工智能承擔(dān)法律責(zé)任以避免由人工智能擁有者承擔(dān)法律責(zé)任出現(xiàn)的嚴(yán)重不公平現(xiàn)象。有學(xué)者明確指出:當(dāng)出現(xiàn)事故后損害賠償責(zé)任的分配也會(huì)直接關(guān)乎研發(fā)人員的利益。若要研發(fā)人員直接承擔(dān)責(zé)任甚至承擔(dān)完全責(zé)任的話,顯然不利于人工智能的研發(fā)。[97]P53人工智能應(yīng)當(dāng)享有獲得被尊重的權(quán)利,這種消極的道德權(quán)利包括不可被奴役、不可被虐待、不可被濫用等。按照米爾恩的觀點(diǎn),獲得被尊重權(quán)利是普遍的最低限度的道德標(biāo)準(zhǔn)的要求。[98]P7羅馬法上的法律諺語說“誤傷他人”就包含著首先要尊重他者的權(quán)利之要求,從人類角度而言,尊重人工智能,就是尊重人類自己。因而,即使人工智能擁有法律主體資格并相應(yīng)獲得某些最低限度的權(quán)利,也不必?fù)?dān)心人的尊嚴(yán)或價(jià)值遭到侮辱或顛覆,其權(quán)利也依然會(huì)受到人類中心主義的限制,畢竟人工智能最終是為人類服務(wù)的,其所具有的權(quán)利具有利他性。因此,人工智能作為法律主體,是可以賦予其相應(yīng)的權(quán)利的,只不過這些權(quán)利設(shè)置的意義與價(jià)值仍是出于對(duì)人類自身利益的保障,這不僅是人工智能技術(shù)發(fā)展的初衷,也是其最終的歸宿。

結(jié)語

人工智能法律主體問題是所有道德、法律問題的實(shí)質(zhì)與關(guān)鍵。目前國內(nèi)外學(xué)界關(guān)于人工智能法律主體論之是與非的爭(zhēng)論,看似是兩種截然不同觀點(diǎn)與立場(chǎng)之爭(zhēng),實(shí)則是關(guān)于人的本體論之爭(zhēng)。討論人工智能法律主體資格問題,必須跳出人類中心主義的圈子。人類必須認(rèn)真對(duì)待未來世界人工智能的法律主體擬制問題,擺脫純粹功利主義與工具主義對(duì)待人工智能體的方式與思維,以“非唯人類中心”的哲學(xué)價(jià)值觀認(rèn)真對(duì)待那些非“人”的實(shí)體,通過法律擬制而賦予一定范圍的法律主體資格,最終做到人類與人工智能和諧共舞。因此,無論是弱人工智能或強(qiáng)人工智能,都具有某種程度或方面的法律主體資格,只有明確其法律主體資格,才能尋求其相關(guān)權(quán)利、義務(wù)和責(zé)任等問題的解決方案,從而為現(xiàn)在乃至未來人工智能體的發(fā)展提供解決之道。最后借用麥克納利的話作為結(jié)語:“我們能想象有一天,一位勇敢的法學(xué)家會(huì)重寫歷史,他會(huì)堅(jiān)信應(yīng)當(dāng)在法律上把機(jī)器人看作是人,到這一天,將出現(xiàn)一個(gè)全新的未來!”[6]P32

注釋:

① 英國科學(xué)家阿蘭·圖靈1950年在《心智》雜志上發(fā)表了題為《計(jì)算機(jī)器和智能》的文章,提出了“圖靈測(cè)試”:判斷一臺(tái)人造機(jī)器是否具有人類智能的充分條件,就是看其言語行為是否能夠成功模擬人類的言語行為,若一臺(tái)機(jī)器在人機(jī)對(duì)話中能夠長時(shí)間地誤導(dǎo)人類認(rèn)定其為真人,那么這臺(tái)機(jī)器就通過了圖靈測(cè)試(參見吳軍:《智能時(shí)代:大數(shù)據(jù)與智能革命重新定義未來》,中信出版社2018年版,第43-44頁)。

② 《大畢業(yè)生娶了個(gè)機(jī)器人做老婆,婚禮都辦了!》,參見https://jd.zol.com.cn/634/6342803.html,2021年10月1日訪問。

③ 美科學(xué)家:2045年人類可以和機(jī)器人結(jié)婚,參見https://baijiahao.baidu.com/s?id=1604861160749991964&wfr=spider&for=pc,2021年10月1日訪問。

④ 參見北京互聯(lián)網(wǎng)法院( 2018)京0491 民初239號(hào)民事判決書。

⑤ “上海盈訊公司被判,賠騰訊公司1500元”,載《深圳特區(qū)報(bào)》2020年3月14日第5版。另可參見(2019)粵0305民初14010號(hào)深圳市騰訊計(jì)算機(jī)系統(tǒng)有限公司與上海盈訊科技有限公司著作權(quán)權(quán)屬、侵權(quán)糾紛、商業(yè)賄 賂不正當(dāng)競(jìng)爭(zhēng)糾紛一審民事判決書。

⑥ 參見《全球多起機(jī)器人殺人事件,如何定性》,https://www.sohu.com/a/281962225_218783.

⑦ 羅馬法上有三個(gè)關(guān)于人的概念,即homo、caput、persona,homo是指生物學(xué)意義上的人,不一定是權(quán)利義務(wù)主體;caput指權(quán)利義務(wù)主體,表示法律上的人格;persona表示某種身份,是從演員扮演角色所戴的假面具引申而來,借指權(quán)利義務(wù)主體的各種身份(參見周枏:《羅馬法原論》上冊(cè),商務(wù)印書館1994年版,第97頁)。

⑧ Ross, P. E. 2016. A Google car can qualify as a legal driver. IEEESpectrum. http://spectrum.ieee.org/cars-thatthink/transportation/self-driving/an-ai-can-legally-be-defined-as-acars-driver.

⑨ 譬如麻省理工學(xué)院的心理學(xué)家謝里.特克爾說,在與機(jī)器人Cog相處時(shí),她的行為發(fā)生了改變,她表現(xiàn)得好像有另外一“人”在場(chǎng)一樣。在伊拉克和阿富汗,當(dāng)把受傷的戰(zhàn)場(chǎng)機(jī)器人送回維修廠時(shí),它的操作員像抱一個(gè)受傷的孩子一樣摟在懷里(參見【美】約翰.喬丹:《機(jī)器人與人》,劉宇馳譯,中國人民大學(xué)出版社2018年版,第150-151頁)。

⑩ 弗諾.文奇提出了計(jì)算“奇點(diǎn)”的概念:在這個(gè)點(diǎn)上,機(jī)器智能將取得飛速進(jìn)步,它將成功地跨越超過人類智力極限的時(shí)間點(diǎn),然后實(shí)現(xiàn)飛躍,成為“超級(jí)人類”(參見約翰.馬爾可夫:《于機(jī)器人共舞:人工智能時(shí)代的大未來》,郭雪譯,浙江人民出版社2015年版,第10頁)。

猜你喜歡
權(quán)利主體機(jī)器人
論碳審計(jì)主體
論自然人破產(chǎn)法的適用主體
我們的權(quán)利
何謂“主體間性”
股東權(quán)利知多少(一)
略論意象間的主體構(gòu)架
權(quán)利套裝
機(jī)器人來幫你
認(rèn)識(shí)機(jī)器人
機(jī)器人來啦