韓旭至
近年來,隨著人工智能產(chǎn)業(yè)第三次浪潮的到來,許多學(xué)者將人工智能法律主體地位問題作為“人工智能時(shí)代的新挑戰(zhàn)”進(jìn)行研究。事實(shí)上,自1956年達(dá)特茅斯會(huì)議上人工智能的概念被提出以來,西方學(xué)界即開展了人工智能與法律的相關(guān)研究。1985年佛雷塔斯更是明確提出能否為“具有自我意識(shí)且能作出道德選擇的機(jī)器人”構(gòu)建“機(jī)器人人格”的問題[注]Freitas Jr. Robert A., The Legal Rights of Robots, Student Lawyer, vol.13, no.1, 1985, pp.54-56.。1992年索羅姆關(guān)于人工智能法律主體的經(jīng)典論文更是指出,人工智能可作為目的受限的受托人[注]Lawrence B. Solum, Legal Personhood for Artificial Intelligences, North Carolina Law Review, vol.70, no.4, 1992, pp.1231-1287.。自此以后,人工智能法律主體理論得到蓬勃發(fā)展。目前主要形成以 “智能代理人”“強(qiáng)人工智能人”“電子人”為代表的多種理論。這些理論主張主要依托于“法律人格擴(kuò)展論”“人工智能發(fā)展論”“有限人格論”三類論據(jù),試圖在法律人格理論發(fā)展、社會(huì)客觀現(xiàn)實(shí)需要與制度設(shè)計(jì)可行性三個(gè)層面分別證成人工智能的法律主體。
目前已有不少學(xué)者對(duì)人工智能法律主體提出批判,并形成了“工具說”“電子奴隸說”“比照動(dòng)物說”等多種學(xué)說。也有學(xué)者認(rèn)為,人工智能是特殊物,具有“最高物格”[注]楊立新:《人工類人格:智能機(jī)器人的民法地位——兼論智能機(jī)器人致人損害的民事責(zé)任》,《求是學(xué)刊》2018年第4期。,或曖昧不明地認(rèn)為人工智能既不是人也不是物[注]易繼明:《人工智能創(chuàng)作物是作品嗎?》,《法律科學(xué)》2017年第5期。。然而這些主張和批判并沒有針對(duì)人工智能主體論的三類論據(jù)進(jìn)行反駁,有時(shí)甚至陷入循環(huán)論證,如認(rèn)為人工智能不是法律主體的原因在于其沒有“健全的人體和人腦”[注]楊立新:《用現(xiàn)行民法規(guī)則解決人工智能法律調(diào)整問題的嘗試》,《中州學(xué)刊》2018年第7期。。人工智能主體之爭(zhēng)的雙方實(shí)際自說自話,陷入自身定義的漩渦之中。本文將通過對(duì)人格的一般理論與人工智能的技術(shù)事實(shí)進(jìn)行分析,針對(duì)人工智能主體論的三大論點(diǎn)進(jìn)行批判。
人格是法律主體的基礎(chǔ),并與權(quán)利主體相對(duì)應(yīng)。星野英一即將法律人格、法律主體、權(quán)利能力三個(gè)概念進(jìn)行互相替換解釋[注][日]星野英一:《私法中的人——以民法財(cái)產(chǎn)法為中心》,王闖譯、梁慧星編:《民商法論叢(第8卷)》,北京:法律出版社,1998年,第154頁。。縱觀法律人格制度的發(fā)展史,法律人格的范疇確在不斷變化發(fā)展:一方面得益于自然法的理性與平等觀念,自然人成為了法律主體;另一方面又得益于實(shí)在法中權(quán)利能力的抽象性與制度性,特定組織成為了法人。立足于這一歷史事實(shí),“法律人格擴(kuò)展論”認(rèn)為,法律人格具有開放性與抽象性,人工智能人格“可依跡而循”[注]劉憲權(quán):《人工智能時(shí)代機(jī)器人行為道德倫理與刑法規(guī)制》,《比較法研究》2018年第4期。。事實(shí)上,“法律人格擴(kuò)展論”對(duì)法律人格的制度史與制度內(nèi)涵均存在誤解,法律人格總是以人為中心,非人的人工智能難以構(gòu)成法律主體。
羅馬法上的人格已與生物人相區(qū)別,是法律技術(shù)的產(chǎn)物。其通過性別、國(guó)籍、血緣、財(cái)產(chǎn)等因素,在生物人之間構(gòu)建出不平等的法律人格。長(zhǎng)期以來,奴隸、婦女、印第安人、黑人的人格并沒得到承認(rèn)。直至1804年《法國(guó)民法典》,法律人格才涵蓋所有自然人。19世紀(jì)末制定的《德國(guó)民法典》受薩維尼法律關(guān)系理論的影響,進(jìn)一步抽象出權(quán)利能力、行為能力的概念,成功建立了現(xiàn)代法律人格制度。從自然人人格實(shí)現(xiàn)的這一歷史可見,法律人格的概念確在變化,自然人主體也確實(shí)在擴(kuò)張,但卻推不出“法律人格擴(kuò)展論”的結(jié)論。抽象的自然人仍是“始于出生,終于死亡”的“凡胎肉體”。在人工智能尚未能顛覆自然人概念之時(shí),人工智能就不可能是自然人主體。
1.自然人的抽象仍落于具體的人
“法律人格不應(yīng)該被理解為一種揭示生命意義的形而上實(shí)踐”[注]Ngaire Naffine, Review Essay: Liberating the Legal Person, Canadian journal of law and society, vol.26, no.1, 2011, pp.193-203.,然而這一“法教義的擬制”仍無法離開現(xiàn)實(shí)的人。一方面,在分析實(shí)證主義法學(xué)中,凱爾森雖明確反對(duì)以自然人界定法律上的人,但其實(shí)際上承認(rèn)法律上的人是抽象的自然人在權(quán)利義務(wù)規(guī)范中“人格化了的統(tǒng)一體”[注][奧]凱爾森:《法與國(guó)家的一般理論》,沈宗靈譯,北京:中國(guó)大百科全書出版社,1996年,第106~107 頁。。另一方面,在功利主義法學(xué)理論中,邊沁所說的人亦非理性人或抽象人,而是日常生活中的平常人。
誠(chéng)如星野英一所指,法律中的人也是具體的人,尤其是“弱而愚”的人[注][日]星野英一:《私法中的人——以民法財(cái)產(chǎn)法為中心》,王闖譯、梁慧星編:《民商法論叢(第8卷)》,第175~194頁。。也有學(xué)者運(yùn)用“總體財(cái)產(chǎn)”的概念主張“無財(cái)產(chǎn)即無人格”,試圖“將人格與人的基本物質(zhì)生活條件相聯(lián)接”以呼喚對(duì)弱者權(quán)利的關(guān)注[注] 尹田:《再論“無財(cái)產(chǎn)即無人格”》,《法學(xué)》2005年第2期。。由此可見,雖然“人是法律規(guī)則的人格化行為的結(jié)果”[注][德]拉德布魯赫:《法哲學(xué)》,王樸譯,北京:法律出版社,2013年,第149頁。,但法律規(guī)則并沒有取消對(duì)自然人的關(guān)切。杜茲納雖指出嬰兒的“第二次生命是由法律給的”,但亦無法否認(rèn)“嬰兒的第一次生命是母親給的”[注][英]科斯塔斯·杜茲納:《人權(quán)的終結(jié)》,郭春發(fā)譯,南京:江蘇人民出版社,2002年,第249頁。。在“自然人—人格—主體”的邏輯結(jié)構(gòu)中,法律主體的最終依托仍是自然人。從意志與法律行為出發(fā)的現(xiàn)代法律人格理論,不但沒有消滅人與物的界限,更是確立了主客體二分的法律結(jié)構(gòu)。
2.自然人的內(nèi)涵外延無法涵蓋人工智能
“人是什么”是哲學(xué)的終極問題之一?,F(xiàn)代科技的發(fā)展使自然人的概念受到一定的挑戰(zhàn),人工智能能否稱為人亦成了疑問。從人的法律定義與生物技術(shù)發(fā)展兩方面看,人的概念均無法涵蓋人工智能。
一方面,自然人“始于出生,終于死亡”。有可能發(fā)展為人的胚胎、胎兒以及曾經(jīng)作為人存在的死者都不具法律人格,只能通過法律特別規(guī)定進(jìn)行保護(hù)。冷冰冰的算法與程序?qū)嶋y以有實(shí)現(xiàn)人格的可能性。另一方面,生物醫(yī)學(xué)技術(shù)的發(fā)展客觀上挑戰(zhàn)了人的概念。自然人成了“人造與自然的混合體”。有學(xué)者根據(jù)盧曼社會(huì)功能分化的理論認(rèn)為,人工智能革命將導(dǎo)致法律人格的繼續(xù)演化[注]余盛峰:《從老鼠審判到人工智能之法》,《讀書》2017年第7期。。無法否認(rèn),人工智能與生物技術(shù)結(jié)合將對(duì)自然人的概念形成挑戰(zhàn),如克隆人、換頭者、基因編輯人、加裝智能假肢者等均可能存在法律人格問題。然而,在生物人中運(yùn)用人工智能技術(shù)仍是以生物人為基礎(chǔ)的。這些人工智能與生物人的結(jié)合體可能具有法律人格的原因恰在于其生物人的特性,而使人格受到質(zhì)疑的因素又正是其人工特性??梢?,人的概念絕無法涵蓋脫離生物人的人工智能?!疤蓟钡姆蓪?shí)難以構(gòu)造出“硅基生命”的主體。
通過權(quán)利能力,生物人實(shí)現(xiàn)了向法律人的轉(zhuǎn)型,法律人格的范疇擴(kuò)大到自然人個(gè)體之外。通過權(quán)利能力的賦予,法人已實(shí)現(xiàn)財(cái)產(chǎn)與實(shí)體的獨(dú)立化。如拉倫茨所言,“法人本身的基本特征是它自身作為一個(gè)法律實(shí)體與其作為法律實(shí)體的成員或者職能機(jī)關(guān)的個(gè)人相分離”[注][德]拉倫茨:《德國(guó)民法通論》,王曉曄等譯,北京:法律出版社,2013年,第180頁。。據(jù)此,“法律人格擴(kuò)展論”主張,法人已與倫理性的人相剝離,成了立法者的一種決斷,在必要之時(shí)立法者可為人工智能創(chuàng)設(shè)法律主體[注]許中緣:《論智能機(jī)器人的工具性人格》,《法學(xué)評(píng)論》2018年第5期。。確如托依布納所指,法律是“一個(gè)自創(chuàng)生系統(tǒng)”,本質(zhì)上是“開放的系統(tǒng)”,但同時(shí)“法律是一個(gè)再生產(chǎn)它自己的基本法律行為的網(wǎng)絡(luò)”[注][德]托依布納:《法律:一個(gè)自創(chuàng)生系統(tǒng)》,張騏譯,北京:北京大學(xué)出版社,2004年,第8頁。。法律主體的革新亦無法天馬行空,需遵循基本的法律邏輯。一方面法人雖有抽象化的面向,但其離不開人的組織和執(zhí)行機(jī)關(guān);另一方面法人確有其實(shí)用主義的內(nèi)核,但仍無法撼動(dòng)法人構(gòu)造的人類中心主義。
1.法人離不開背后的人
從歷史上看,法人即源于人的集合。羅馬法上的家族便是法人的最初雛形,家長(zhǎng)即是家族的代表。盡管現(xiàn)代法人制度顯示出高度抽象化的面向,但其亦未否定法人背后的人?,F(xiàn)代的法人人格仍是一種“團(tuán)體人格”,法人背后的人與法人意志的表達(dá)、責(zé)任的追究、利益的享有都密不可分。從具體制度來看,我國(guó)《民法總則》規(guī)定了營(yíng)利法人、非營(yíng)利法人和特別法人。無論是哪種法人都是人的組織,以自然人作為法定代表人。在財(cái)產(chǎn)混同時(shí),還以“撕破公司面紗”制度追溯到法人背后的控制人。在法人犯罪時(shí),也存在“雙罰制”,能追究直接負(fù)責(zé)的主管人員和其他直接責(zé)任人員的責(zé)任。即便是德國(guó)法上為財(cái)產(chǎn)獨(dú)立化和用途限定設(shè)立的財(cái)團(tuán)法人也離不開管理者——人。《德國(guó)民法典》第85條即規(guī)定了財(cái)團(tuán)的組織由捐助行為確定。此外,《德國(guó)民法典》還規(guī)定,財(cái)團(tuán)法人由不危害公共利益的捐助行為設(shè)立,財(cái)團(tuán)消滅后財(cái)產(chǎn)歸財(cái)團(tuán)組織所規(guī)定的人。
就人工智能而言,人工智能財(cái)產(chǎn)無法真正從所有人中獨(dú)立,并且其財(cái)產(chǎn)亦非通過特定目的捐助產(chǎn)生的或由于特定目的設(shè)立的。最重要的是,人工智能一方面缺乏作為組織成員的人,另一方面其背后承擔(dān)責(zé)任的人也不甚明了,實(shí)難以成為法人。若回到人工智能設(shè)計(jì)者、生產(chǎn)者、所有人、管理人的角度探討人工智能背后的人,實(shí)際上已經(jīng)否定其主體地位的可能。
2.“非人主體”未能否定人類依托
必須承認(rèn)除法人外,歷史上確實(shí)存在諸多“非人主體”。格雷就認(rèn)為法律主體類型包括“正常生物人、非正常生物人、超自然人、動(dòng)物、無生命物、法人”六種[注][美]約翰·齊普曼·格雷:《法律主體》,龍衛(wèi)球譯,《清華法學(xué)》2002年第1期。。其中動(dòng)物更是常出現(xiàn)在法律舞臺(tái)之上。據(jù)統(tǒng)計(jì),從9世紀(jì)到19世紀(jì),西歐有超過200起有記錄的審判動(dòng)物案件。從驢馬牛羊到蛇鼠蠅蟻均上過被告席,甚至被判處監(jiān)禁、流放、處決[注]Ugo Pagallo, The Laws of Robots: Crimes, Contracts, and Torts, Dordrecht: Springer, 2013, p.36.。凡此種種均無法撼動(dòng)法律人格中的人類中心主義。
上述“非人主體”主要是實(shí)用主義的功能性產(chǎn)物。雖然現(xiàn)代法人制度也有其實(shí)用主義的面向,但卻是制度性而非功能性的。必須承認(rèn)法人具有便利交易、限制責(zé)任等實(shí)用主義的功能,法人人格也是商品經(jīng)濟(jì)的產(chǎn)物,其“在于經(jīng)濟(jì)上的合理性而非哲學(xué)上的合理性”[注]李永軍:《民法上的人及其理性基礎(chǔ)》,《法學(xué)研究》2005年第5期。。然而,法人絕不等于一時(shí)的便利構(gòu)造,具有權(quán)利能力是其本質(zhì)屬性。而“非人主體”常常是在具體情形中的具體擬制,更類似于訴訟資格而非法律人格,其權(quán)利或責(zé)任往往仍落于具體的人。如海事賠償中對(duì)船舶的訴訟只是一種形式,其責(zé)任最終還將落于船舶所有人或光船承租人。同時(shí),許多所謂的“非人主體”事實(shí)上就是法人。寺廟和教會(huì)在當(dāng)代就是財(cái)團(tuán)法人。我國(guó)許多公園、山川、河流也是機(jī)關(guān)法人。這并非說物直接成為了法人,而是形成了對(duì)物的管理主體。當(dāng)然,對(duì)人工智能也可成立管理機(jī)構(gòu)進(jìn)行管理,但也只能是相關(guān)管理機(jī)構(gòu)是法律主體。
此外,雖然動(dòng)物權(quán)利的論點(diǎn)常被用以佐證人工智能主體的可行性,但實(shí)際上動(dòng)物并非法律主體。動(dòng)物保護(hù)歸根結(jié)底關(guān)注的還是人類。1990年《德國(guó)民法典》雖然增加了第90條a款規(guī)定“動(dòng)物不是物”,但實(shí)際上只是將動(dòng)物作為受特別保護(hù)的特殊物[注][德]梅迪庫(kù)斯:《德國(guó)民法總論》,邵建東譯,北京:法律出版社,2013年,第877~878頁。。在對(duì)動(dòng)物的犯罪中動(dòng)物也不是受害人,只能由人類組織行使受害人的權(quán)利。此外,雖然美國(guó)法上有給動(dòng)物開具人身保護(hù)令的奇特案例,但實(shí)際上亦未承認(rèn)動(dòng)物的主體資格。2015年美國(guó)曼哈頓高等法院對(duì)大猩猩開出人身保護(hù)令的同時(shí)亦明確指出,法院并未承認(rèn)大猩猩是人[注]Matter of Nonhuman Rights Project, Inc. v. Stanley, 2015 N.Y. Misc. LEXIS 2816.。2014年紐約州最高法院審理的類似案件中,法院更是直接拒絕了相關(guān)人身保護(hù)令請(qǐng)求,并同時(shí)指出大猩猩保護(hù)屬于動(dòng)物福利立法問題[注]People ex rel. Nonhuman Rights Project, Inc. v. Lavery, 2014 NY Slip Op 08531.。同時(shí),雖然美國(guó)法上可將動(dòng)物作為信托受益對(duì)象,實(shí)際上其亦未承認(rèn)動(dòng)物的主體地位,僅旨在回應(yīng)動(dòng)物所有人處分財(cái)產(chǎn)的愿望。由此可見,動(dòng)物在現(xiàn)代法律體系中并無主體地位。就動(dòng)物保護(hù)而言,其核心乃立足于傷害動(dòng)物有悖于公眾感情。因此,試圖通過“非人主體”論證人工智能主體可能性的思路是錯(cuò)誤且荒謬的。
意識(shí)、意志、理性三者密不可分,并內(nèi)化于法律主體之中。意志被認(rèn)為是“實(shí)踐理性”的體現(xiàn),而意識(shí)又被認(rèn)為是理性的前提[注]李海星:《主體自由:康德道德法則的價(jià)值底蘊(yùn)》,《社會(huì)科學(xué)家》2009年第8期。。法律主體更被認(rèn)為是具有“意志—主體—理性”的抽象結(jié)構(gòu)[注]李永軍:《民法上的人及其理性基礎(chǔ)》,《法學(xué)研究》2005年第5期。。也就是說,以意志承認(rèn)人的理性能力,又以理性考察主體的可歸責(zé)性。因此,人工智能可能有自主意識(shí)、自由意志、理性思維等命題一直是論證人工智能法律主體的核心。“人工智能發(fā)展論”主張,人工智能基于復(fù)雜的算法可能超出程序的設(shè)計(jì)實(shí)現(xiàn)自主活動(dòng),可推斷人工智能是具有一定的思維能力與認(rèn)知能力的[注]劉憲權(quán):《人工智能時(shí)代的“內(nèi)憂”“外患”與刑事責(zé)任》,《東方法學(xué)》2018年第1期。;在未來還可能實(shí)現(xiàn)在所有領(lǐng)域具有通用智能的強(qiáng)人工智能[注]劉憲權(quán)、房慧穎:《涉人工智能犯罪的前瞻性刑法思考》,《安徽大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2019年第1期。,甚至是全面超越人類的超人工智能[注]馬治國(guó)、田小楚:《論人工智能體刑法適用之可能性》,《華中科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2018年第2期。。然而,“人工智能發(fā)展論”對(duì)人工智能這個(gè)概念究竟所指何物,實(shí)則缺乏清晰認(rèn)識(shí),既有將人工智能等同于現(xiàn)代科技產(chǎn)品的,也有用科幻文藝作品中的場(chǎng)景想象人工智能的。通過對(duì)人工智能的考察即可發(fā)現(xiàn),現(xiàn)階段人工智能雖有一定的自主性,但遠(yuǎn)未實(shí)現(xiàn)通用的智能,更談不上形成自主意識(shí)。人類意志在本質(zhì)上是機(jī)器所無法模擬的。對(duì)人工智能的展望與設(shè)想并不能等同于現(xiàn)實(shí)存在的沖擊與挑戰(zhàn),法律主體制度無法亦不應(yīng)回應(yīng)“人工智能發(fā)展論”不切實(shí)際的幻想。
人工智能概念的提出者麥卡錫認(rèn)為,人工智能是“關(guān)于智能計(jì)算機(jī)程序的科學(xué)”[注]John McCarthy, What is Artificial Intelligence?,http://www-formal.stanford.edu/jmc/whatisai/,最后訪問日期: 2018-12-12。。羅素和諾維格進(jìn)一步指出,人工智能實(shí)質(zhì)上是“一種現(xiàn)代的方法”,具有像人一樣思考、像人一樣行動(dòng)、合理地思考、合理地行動(dòng)四個(gè)維度[注][美]羅素、[美]諾維格:《人工智能:一種現(xiàn)代的方法》,第3版,殷建平等譯,北京:清華大學(xué)出版社,2013年,第3頁。。從這個(gè)意義來看,人工智能的目標(biāo)的確是獲得人類的思維和行動(dòng)能力。必須承認(rèn),目前人工智能在技術(shù)方法上已實(shí)現(xiàn)許多重大突破。人工智能科學(xué)已掌握了包括專家系統(tǒng)、貝葉斯網(wǎng)絡(luò)、馬爾科夫模型、神經(jīng)網(wǎng)絡(luò)模型、遺傳算法、遞歸搜索、組合方法等多種工具,機(jī)器亦具有了深度學(xué)習(xí)、語音識(shí)別、自然語言處理、圖像識(shí)別等多項(xiàng)功能。這些功能通過搜索引擎、定向推送、信息過濾、機(jī)器翻譯等具體應(yīng)用進(jìn)入了人們的日常生活。具有連通性、自主性、智能性的智能機(jī)器人亦開始逐步普及。無人駕駛汽車、無人機(jī)、手術(shù)機(jī)器人、陪伴機(jī)器人、機(jī)器假肢等亦進(jìn)入了社會(huì)公眾的視野。然而,人工智能的技術(shù)目標(biāo)始終并未實(shí)現(xiàn),目前尚未出現(xiàn)一種可取代人類的通用智能。所有已實(shí)現(xiàn)的人工智能應(yīng)用都只是一種輔助性的智能工具。在現(xiàn)階段談?wù)撊斯ぶ悄艿摹捌纥c(diǎn)”,認(rèn)為人工智能有意志、意識(shí)、理性甚至靈魂都是荒謬的,更無法以此出發(fā)論證其主體地位。
1.人工智能的技術(shù)局限性
當(dāng)前的人工智能并不那么“聰明”,有時(shí)甚至被戲謔為“人工智障”。如2018年寧波市花費(fèi)數(shù)百萬建設(shè)的闖紅燈自動(dòng)抓拍系統(tǒng)就鬧出了將公交車上的廣告識(shí)別為“董明珠闖紅燈”的笑話。號(hào)稱人工智能的掃地機(jī)更常常是繞屋子十圈后完美避開地上垃圾。在一些時(shí)候,人工智能又表現(xiàn)為“有多少人工就有多少智能”。2018年科大訊飛被爆出雇用真人同聲傳譯修正智能同傳,此后其竟聲稱是“人機(jī)耦合”的模式。在人工智能炙手可熱的今日,人工智能的智能更需要一些“冷思考”。
從技術(shù)層面來看,人類輕而易舉能做的事情對(duì)現(xiàn)階段的人工智能都是極大的挑戰(zhàn)。如人能輕易地從嘈雜的環(huán)境中分辨出特定人的聲音,而谷歌最先進(jìn)的人工智能最近才初步解決了這一難題。人能從千萬人中識(shí)別出特定臉龐,但人臉識(shí)別系統(tǒng)卻不時(shí)出錯(cuò)。AlphaGo的確戰(zhàn)勝了李世石,但AlphaGo消耗了440千瓦能量,而人類大腦只會(huì)消耗大約20瓦能量。并且AlphaGo的功能是單任務(wù)的,在下圍棋外實(shí)無法完成其他任務(wù)[注][美]皮埃羅·斯加魯菲:《智能的本質(zhì):人工智能與機(jī)器人領(lǐng)域的64個(gè)大問題》,任莉、張建宇譯,北京:人民郵電出版社,2017年,第30頁。。確實(shí),波士頓動(dòng)力的機(jī)器人能奔跑、跳躍、翻滾,但任何一種野獸的運(yùn)動(dòng)能力都可能超過這一制造精密的機(jī)器人。
2.自主性不等于自主意識(shí)
雖然人工智能并無想象中完美,但其自主性的能力還是常常使人驚嘆。與傳統(tǒng)計(jì)算機(jī)不同,人工智能可以通過機(jī)器學(xué)習(xí)而在不同的環(huán)境下產(chǎn)生不一樣的表現(xiàn)。通過自主學(xué)習(xí),人工智能有時(shí)還能實(shí)現(xiàn)創(chuàng)新。AlphaGo Zero在三天之內(nèi)便通過“左右互搏”的方式自學(xué)成才,打敗了前任AlphaGo。微軟人工智能程序“小冰”還出版了一些詩集。時(shí)至今日,計(jì)算機(jī)科學(xué)家對(duì)人工智能如何從數(shù)據(jù)中產(chǎn)生新知識(shí)的過程仍不甚明了。人工智能的計(jì)算過程實(shí)際上存在黑箱。然而,人工智能黑箱問題并不能簡(jiǎn)單等同于人工智能具有自主意識(shí)。黑箱問題的根源并非人工智能用了人看不到的方式“思考”,而是當(dāng)前人工智能采取了神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)等算法而導(dǎo)致數(shù)據(jù)極其復(fù)雜。當(dāng)前,人工智能科學(xué)亦致力于提高數(shù)據(jù)的可解釋度。
人們?nèi)菀讓⒊绦虻淖灾餍越忉尀樽灾饕庾R(shí)的原因在于,人工智能自主意識(shí)的想象深深植根于人們對(duì)人工智能的期許之中。不少學(xué)者已經(jīng)發(fā)現(xiàn),人工智能的話語體系充滿著擬人化的修辭。索羅姆即敏銳地發(fā)現(xiàn),“智能”“學(xué)習(xí)”“自主”等話語常被用于描述人工智能及其實(shí)施方法,“語言”“記憶”“指令”“讀”“寫”等詞匯又被用于描述計(jì)算機(jī)程序[注]Lawrence B. Solum, Legal Personhood for Artificial Intelligences, North Carolina Law Review, vol.70, no.4, 1992, pp.1231-1287.。心理學(xué)實(shí)驗(yàn)表明,通過擬人化的想象,人類容易將“把人格化的屬性賦予他們所認(rèn)為的有生命的東西”[注][美]溫德爾·瓦拉赫、[美]科林·艾倫:《道德機(jī)器:如何讓機(jī)器人明辨是非》,王小紅等譯,北京:北京大學(xué)出版社,2017年,第40頁。。當(dāng)前人工智能自主意識(shí)的推論便是這么一種想象。
對(duì)法律主體而言,在自主意識(shí)的基礎(chǔ)上,更重要的是意志和理性。與人工智能不同,人是自然的造物,雖然人類的自由意志亦無法擺脫自然秩序的約束,但人仍能進(jìn)行有選擇、有目的的認(rèn)識(shí)活動(dòng)。正是在這個(gè)意義上人具有意志。人工智能與人類的最根本區(qū)別即在于人造性。基于人造的事實(shí),機(jī)器仿真不僅受自然規(guī)律約束還受算法編程控制,其自主性仍與人類意志和理性存在諸多區(qū)別。
1.意志并非邏輯運(yùn)算
人工智能的判斷是邏輯運(yùn)算的結(jié)果,而人類的意志則表現(xiàn)為非邏輯化的選擇。人類明辨是非曲折、具有喜怒哀樂、經(jīng)歷生老病死,其選擇并不是簡(jiǎn)單的計(jì)算。如邊沁所言,人活在快樂和痛苦的主宰之下[注][英]邊沁:《道德與立法原理導(dǎo)論》,時(shí)殷弘譯,北京: 商務(wù)印書館,2000年,第57頁。。人的七情六欲不僅僅是形式邏輯,更是內(nèi)分泌系統(tǒng)影響的化學(xué)信息和千萬年來進(jìn)化的結(jié)果。因此有學(xué)者根據(jù)拉康的欲望主體理論指出人工智能無法成為法律主體[注]龍文懋:《人工智能法律主體地位的法哲學(xué)思考》,《法律科學(xué)》2018年第5期。。
或許僅憑人工智能不是欲望主體而否定其法律主體地位顯得突兀,但人工智能“無欲無求”至少能說明其不可能具有自由意志。法哲學(xué)上的經(jīng)典命題都是基于人的欲求。霍布斯在“自然狀態(tài)”下即假設(shè)了“人類貪婪”[注][英]霍布斯:《論公民》, 應(yīng)星、馮克利譯, 貴陽:貴州人民出版社,2003年,第4~5頁。。龐德在“文明社會(huì)”中假設(shè)了“善意行為”[注][美]羅斯科·龐德:《通過法律的社會(huì)控制》,沈宗靈、董世忠譯,北京:商務(wù)印書館,1984年,第60~61頁。。杜茲納更是將人權(quán)視為“欲望的公開化或法律化”[注][英]科斯塔斯·杜茲納:《“人權(quán)的終結(jié)”六論》,江興景譯,《法學(xué)家》2009年第2期。。人的欲求使其關(guān)注自身的利益以及人類整體的福利。正是基于人的欲求,人才充滿想象力并對(duì)未來充滿期許。而目前的人工智能雖然能模擬一些情感,但沒有人生計(jì)劃,不知生命的意義。因此,在人工智能實(shí)施營(yíng)救時(shí),其很可能無法理解泰坦尼克號(hào)沉沒時(shí)婦女、兒童、老人先走的意義,而采用純粹功利主義的邏輯,優(yōu)先選擇生存概率大的一方。事實(shí)上,人工智能的這些抉擇仍依賴于算法的設(shè)計(jì)。人類編寫的代碼確保了人類對(duì)機(jī)器的最終控制。由此,當(dāng)前自動(dòng)駕駛系統(tǒng)設(shè)計(jì)中最為困難的問題之一亦是各類“電車難題”的變種。
2.理性不同于智能決策
作為法律主體關(guān)鍵的理性,是人獨(dú)一無二的特質(zhì)??档峦ㄟ^其“三大批判”表明,理性的人是認(rèn)識(shí)、道德與審美的主體??档碌闹摂唷叭耸悄康摹奔幢砻鳎俗鳛椤坝欣硇缘纳`”本身就是目的,不能僅成為“供別人使用的手段”[注][德]康德:《法的形而上學(xué)原理——權(quán)利的科學(xué)》,沈叔平譯,北京:商務(wù)印書館,1991年,第48頁。。黑格爾亦指出,人因理性而具有目的[注][德]黑格爾: 《歷史哲學(xué)》,王時(shí)造譯,上海:上海書店出版社,1999年,第73頁。,通過理性人能對(duì)自身不斷審視,“在有限性中知道自己是某種無限的、普遍的、自由的東西”[注][德]黑格爾:《法哲學(xué)原理》,范揚(yáng)、張企泰譯,北京:商務(wù)印書館,1982年,第45~46頁。。而人對(duì)目的的追求,便形成了人類的歷史。相比而言,人工智能既無自我意識(shí)也無自省能力,難以構(gòu)成杜茲納所言的“自主自律”主體[注][英]科斯塔斯·杜茲納:《人權(quán)的終結(jié)》,郭春發(fā)譯,第3頁。。其數(shù)據(jù)能被任意刪除、添加、隱藏,無法形成對(duì)于自我過去、現(xiàn)在與未來的清晰認(rèn)知,也沒有“反求諸己”的能力,更無法具有本身目的。
有學(xué)者將人工智能定義為“行動(dòng)理性”[注]許中緣:《論智能機(jī)器人的工具性人格》,《法學(xué)評(píng)論》2018年第5期。,實(shí)際上是混淆了智能與理性的關(guān)系。人工智能或許具有智能,但不具理性。弗洛姆即指出,“與智力相反,理性是人類通過思考把握世界的能力,智力是人類通過思考改造世界的能力。理性是人類獲得真理的工具,智力是人類有效改造世界的工具;前者是人性中至關(guān)重要的,后者屬于人類的動(dòng)物性”[注]Erich Fromm, The Sane Society, Journal of Political Economy, vol. 26, no. 6, 2001, pp.26-30.。人工智能不具理性絕非基于“不是人類”的循環(huán)論證,而是基于其與多因素綜合作用形成的人類思維方式存在本質(zhì)區(qū)別。正是基于這種特殊的思維方式,人類具有辯證思維能力。而人工智能則無法跳出規(guī)則系統(tǒng)進(jìn)行批判性的反思。因此,人工智能無法明辨是非。如2016年微軟開發(fā)的人工智能Tay一天之內(nèi)就學(xué)會(huì)了發(fā)表粗俗和歧視性的言論。
3.意志和理性是人類的專屬
人在生物分類上自稱為智人,智慧是人類的基本屬性。斯加魯菲即指出,智能和愚蠢是人的屬性而非機(jī)器的屬性,“談?wù)摍C(jī)器的智能,就像在談?wù)撊说娜~子”[注][美]皮埃羅·斯加魯菲:《智能的本質(zhì):人工智能與機(jī)器人領(lǐng)域的64個(gè)大問題》,任莉、張建宇譯,第108頁。。人的意志和理性絕不僅僅是算法,“其產(chǎn)生于理性、情感、抽象分析、經(jīng)驗(yàn)、記憶、教育、無意識(shí)動(dòng)機(jī)、生物化學(xué)等復(fù)雜的相互作用”[注]Mindaugas Naucius, Should Fully Autonomous Artificial Intelligence Systems Be Granted Legal Capacity, Teises Apzvalga Law Review, vol. 17, no.1, 2018, pp.113-132.。當(dāng)然,“人工智能發(fā)展論”也可如重新定義法律人格一樣重新定義意志和理性,但這種討論是毫無意義的。意志和理性在本質(zhì)上是用于定義人類的。
雖然有學(xué)者認(rèn)為,法律區(qū)分權(quán)利能力與行為能力,并未否認(rèn)缺乏理性和意志的人類具有人格,以意志和理性為理由區(qū)別對(duì)待人工智能可能是“物種歧視”[注]F. Patrick Hubbard, Do Androids Dream: Personhood and Intelligent Artifacts, Temple Law Review, vol. 83, no.2, 2011, pp.405-474.。事實(shí)上,缺乏理性的精神病人和未成年人都有實(shí)現(xiàn)理性的可能性。從所有人類都是目的而非手段的角度而言,對(duì)“弱而愚”的人進(jìn)行保護(hù)也是人類文明的體現(xiàn)。申言之,意志和理性尚為人類的專屬,人工智能并沒有像一些學(xué)者所推測(cè)的“通過深度學(xué)習(xí)產(chǎn)生自主意識(shí)和意志”,更不因此具有權(quán)利能力和行為能力。
“人工智能發(fā)展論”的一個(gè)關(guān)鍵論點(diǎn)即,未來人工智能可能得到極大提升。索羅姆認(rèn)為,“未來的生命與現(xiàn)在的情形非常不一樣”[注]Lawrence B. Solum, Legal Personhood for Artificial Intelligences, North Carolina Law Review, vol.70, no.4, 1992, pp.1231-1287.?!捌纥c(diǎn)論”者庫(kù)茲韋爾預(yù)計(jì),人工智能會(huì)沿著“摩爾定律”實(shí)現(xiàn)持續(xù)增長(zhǎng),2045年計(jì)算機(jī)將超越人類[注][美]庫(kù)茲韋爾:《奇點(diǎn)臨近》,李慶誠(chéng)、董振華、田源譯,北京:機(jī)械工業(yè)出版社,2011年,第1頁。。由計(jì)算機(jī)科學(xué)上強(qiáng)人工智能這一目標(biāo)展開,“強(qiáng)人工智能人”理論主張未來具有自主意識(shí)和意志的通用機(jī)應(yīng)成為法律主體[注]劉憲權(quán)、胡荷佳:《論人工智能時(shí)代智能機(jī)器人的刑事責(zé)任能力》,《法學(xué)》2018年第1期。。然而,至少在法學(xué)意義上“未來已來”是一個(gè)偽命題。強(qiáng)人工智能的未來只是一種計(jì)算機(jī)科學(xué)上的假設(shè)。甚至眾多科學(xué)家對(duì)“奇點(diǎn)論”提出了質(zhì)疑。在人工智能尚未“為權(quán)利而斗爭(zhēng)”的當(dāng)下,法律需保持應(yīng)有的謙抑。
1.人工智能權(quán)利訴求尚未提出
法學(xué)理論研究無法以浪漫的科幻小說為依據(jù)。目前,人工智能從未主張也無法主張權(quán)利。計(jì)算機(jī)科學(xué)家多明戈對(duì)符號(hào)學(xué)派、聯(lián)結(jié)學(xué)派、進(jìn)化學(xué)派、貝葉斯學(xué)等人工智能技術(shù)方案進(jìn)行考察后指出,再?gòu)?qiáng)大的計(jì)算機(jī)也是人類意志的延伸,擁有“終極算法”的強(qiáng)人工智能出現(xiàn)的概念為零[注][美]佩德羅·多明戈:《終極算法:機(jī)器學(xué)習(xí)和人工智能如何重塑世界》,黃芳萍譯,北京:中信出版集團(tuán)股份有限公司,第361頁。。雖然目前某些機(jī)器人以某種形式被“登記”,攜帶其出行時(shí)可能需要另行購(gòu)票,但是本質(zhì)上這種登記與動(dòng)產(chǎn)登記并無區(qū)別,為其購(gòu)票亦如同攜帶大件行李而購(gòu)票。2017年沙特阿拉伯賦予機(jī)器人索菲亞“國(guó)籍”與2010年日本富山縣登記機(jī)器人帕羅“戶籍”,顯然同屬于宣傳手段。無論是索菲亞還是帕羅,都無法獲得獨(dú)立財(cái)產(chǎn),也無須納稅,既沒有主張自己的權(quán)利,也沒有主張他們具有權(quán)利。此外,某些與機(jī)器人申請(qǐng)結(jié)婚、舉辦婚禮的“奇聞”更純屬鬧劇與炒作。
值得注意的,2016年歐盟法律事務(wù)委員會(huì)《機(jī)器人民事法律規(guī)則》、2017年俄羅斯“格里申法案”以及2018年韓國(guó)《機(jī)器人法案》等立法建議均曾呼吁人工智能主體地位。然而,到目前為止并無任何一個(gè)國(guó)家接受了類似建議。即便是這些建議本身,最終仍以人作為目前的責(zé)任承擔(dān)主體。如《機(jī)器人民事法律規(guī)則》建議目前應(yīng)由制造商、經(jīng)營(yíng)者、所有人或用戶對(duì)機(jī)器人致害承擔(dān)嚴(yán)格責(zé)任并建立機(jī)器人責(zé)任保險(xiǎn)制度;“格里申法案”試圖通過動(dòng)物致害責(zé)任與高度危險(xiǎn)責(zé)任以解決人工智能致害問題;《機(jī)器人法案》中機(jī)器人致害責(zé)任亦為特殊的產(chǎn)品責(zé)任。同時(shí),這些立法建議的主要價(jià)值亦不在于人工智能主體的呼吁,而在于人工智能監(jiān)督管理、倫理規(guī)范、安全保障、用戶權(quán)益、行業(yè)自治等多方面內(nèi)容。
2.“未來法治”需以現(xiàn)實(shí)為依據(jù)
未來法治并不等于為未來立法。法治應(yīng)是對(duì)現(xiàn)實(shí)問題的回應(yīng),而非對(duì)科幻故事的附和。具體而言,人工智能主體的立法主張可以分別從新型權(quán)利生產(chǎn)與法律變革的角度予以研判。
從新型權(quán)利的生產(chǎn)機(jī)制來看,新型權(quán)利“是一個(gè)發(fā)現(xiàn)的過程,而非一個(gè)創(chuàng)造的過程”[注]參見陳彥晶《發(fā)現(xiàn)還是創(chuàng)造:新型權(quán)利的表達(dá)邏輯》,《蘇州大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2017年第5期。。人工智能的新型權(quán)利亦需在法律原則與法律精神下生成,切不可無中生有。一方面,無論“利益說”還是“意志說”,權(quán)利理論均無法否認(rèn)主體意志的重要性。權(quán)利的本質(zhì)是一種“合理的期望”[注][美]羅斯科·龐德:《通過法律的社會(huì)控制》,沈宗靈、董世忠譯,第42頁。。如前所述人工智能不具自由意志,并未提出權(quán)利要求,缺乏新型權(quán)利的主觀要素。另一方面,新型權(quán)利更不能忽視其社會(huì)基礎(chǔ)。馬克思即指出,“法律應(yīng)該以社會(huì)為基礎(chǔ)”[注][德]馬克思、[德]恩格斯《馬克思恩格斯全集(第6 卷)》,北京:人民出版社,1961年,第291~292頁。。哈貝馬斯更是直接將權(quán)利視為“一種關(guān)系、一種社會(huì)慣例”[注][德]哈貝馬斯:《在事實(shí)與規(guī)范之間:關(guān)于法律和民主法治國(guó)的商談理論》,童世駿譯,北京:生活·讀書·新知三聯(lián)書店,2014年,第111頁。。新型權(quán)利生成即社會(huì)關(guān)系中形成的權(quán)利訴求逐漸產(chǎn)生社會(huì)正效應(yīng)并獲得公共理性認(rèn)可的過程[注]參見姚建宗、方芳《新興權(quán)利研究的幾個(gè)問題》,《蘇州大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2015年第3期。。只有當(dāng)人工智能有能力與人進(jìn)行有意義的交流、參與人類共同生活、形成新型的社會(huì)關(guān)系且獲得社會(huì)公共理性支持時(shí),人工智能的主體主張才具有實(shí)現(xiàn)的可能性。
從法律變革的角度來看,法律變革必須堅(jiān)持法治的目標(biāo),依據(jù)法律原則、規(guī)則,運(yùn)用法律方法“持法達(dá)變”[注]陳金釗:《法律如何調(diào)整變化的社會(huì)》,《清華法學(xué)》2018年第6期。。面對(duì)人工智能的沖擊,法律的滯后性確實(shí)有所顯現(xiàn)。然而,其并不體現(xiàn)在主體層面上,而更多是一種“法律客體革命”,如大數(shù)據(jù)、個(gè)人信息等作為權(quán)利客體的問題。目前,人工智能時(shí)代并未“自生自發(fā)”地產(chǎn)生人工智能主體問題,法律更無須對(duì)主體問題進(jìn)行回應(yīng)。若無故將人工智能列為主體,既顛覆既有的法理邏輯亦難以為社會(huì)一般大眾所接受,嚴(yán)重背離情理法相結(jié)合的修法原則。
此外,人工智能的未來不可預(yù)測(cè),強(qiáng)人工智能的幻想亦有可能是泡沫。20世紀(jì)80年代的人工智能產(chǎn)業(yè)泡沫中,便有數(shù)不清的企業(yè)由于無法兌現(xiàn)夸大其詞的承諾而倒閉。人工智能是否有意識(shí)、意志和理性,其是否能提出權(quán)利主張,這些都不是一個(gè)法律理論問題,而是一個(gè)客觀的事實(shí)判斷。如同我們無法討論為外星人立法一般,基于幻想而提出的法律理論并沒有任何意義,法律亦無須為科幻“預(yù)留空間”。
凱爾森指出,法律主體即“權(quán)利與義務(wù)的持有者”[注][奧]凱爾森:《法與國(guó)家的一般理論》,沈宗靈譯,第105頁。,具有主體地位必有權(quán)利能力。又如梅迪庫(kù)斯所言,權(quán)利能力乃“成為權(quán)利和義務(wù)載體的能力”[注][德]梅迪庫(kù)斯:《德國(guó)民法總論》,邵建東譯,第781頁。。人工智能法律主體實(shí)際上即主張賦予人工智能權(quán)利能力以重構(gòu)權(quán)利義務(wù)關(guān)系。然而,即便是被人工智能主體論者推崇的“有限人格論”與“電子人”理論亦無法解決具體制度設(shè)計(jì)中的矛盾。實(shí)際上,將人工智能作為責(zé)任承擔(dān)主體,對(duì)受害人保護(hù)而言并無益處,實(shí)際上更可能成為開脫責(zé)任的借口。
一切法律以人為本,法治的目標(biāo)始終是人類中心主義的。人工智能主體與人類中心主義存在天然的矛盾。不加限制地賦予人工智能以主體地位顯然將貶低人格尊嚴(yán)的價(jià)值?!坝邢奕烁裾摗奔粗鲝埾拗迫斯ぶ悄艿臋?quán)利能力與責(zé)任能力以回應(yīng)人類中心主義的質(zhì)疑[注]Lawrence B. Solum, Legal Personhood for Artificial Intelligences, North Carolina Law Review, vol.70, no.4, 1992, pp.1231-1287.。面向人工智能主體的具體制度設(shè)計(jì),“電子人”理論又提出將人工智能作為法人予以登記注冊(cè)[注]Steffen Wettig, Eberhard Zehendner, A Legal Analysis of Human and Electronic Agents, Artificial Intelligence and Law, vol. 12, no. 1, 2004, pp.111-135.。通過對(duì)這些制度進(jìn)行考察可知,人工智能法律主體構(gòu)建的設(shè)想粗糙且矛盾,其既無法平衡人工智能與人格平等、人格獨(dú)立的關(guān)系,亦未能解決注冊(cè)所產(chǎn)生的具體問題。
1.“有限人格論”推導(dǎo)出人格否定
基于人類中心主義的立場(chǎng),在談?wù)撊斯ぶ悄苤黧w地位時(shí),學(xué)者們都極力避免談?wù)撊祟悓?duì)人工智能的義務(wù),而是采取“有限人格”的論證方式探討限制人工智能的權(quán)利[注]許中緣:《論智能機(jī)器人的工具性人格》,《法學(xué)評(píng)論》2018年第5期。。然而,享有權(quán)利正是“擁有賦予他人對(duì)應(yīng)義務(wù)的充分理由”[注][美]威爾曼:《真正的權(quán)利》,瀏作翔等譯,北京:商務(wù)印書館,2015年,第17頁。,忽視或否定人對(duì)人工智能的義務(wù),實(shí)際上就是否認(rèn)人工智能的權(quán)利并否定人工智能主體地位。
首先,人工智能主體在民事關(guān)系中無處安放。民法調(diào)整的是平等主體之間的關(guān)系。若承認(rèn)人工智能的主體地位,在民事活動(dòng)中人工智能與人就只能是平等的主體。人工智能與人的交易就是平等主體之間的交易。人工智能將可以起訴人類違約,也可以要求人類對(duì)其進(jìn)行損害賠償,甚至可能享有一定人格權(quán)請(qǐng)求權(quán)?!坝邢奕烁裾摗钡闹鲝堈邊s從未向讀者表明人工智能與人在民事活動(dòng)上的平等性,其反而認(rèn)為“法律面前人人平等”并不適用于人工智能,并強(qiáng)調(diào)在人工智能與人類利益沖突時(shí),應(yīng)以人類利益優(yōu)先。在民法這慈母之眼里,并不可能存在天然劣等低級(jí)的民事主體。預(yù)設(shè)的身份不對(duì)等便不可能達(dá)成意思自治下的合意。對(duì)此,有學(xué)者也提出了人工智能主體不享有民事權(quán)利的論斷[注]劉憲權(quán):《人工智能時(shí)代機(jī)器人行為道德倫理與刑法規(guī)制》,《比較法研究》2018年第4期。。實(shí)際上這一論斷至少已經(jīng)否認(rèn)了人工智能的民事主體地位。
其次,人工智能難以取得獨(dú)立的訴訟地位與完全的行為能力。我們無法想象制度設(shè)計(jì)將允許人工智能起訴人類。因此“有限人格論”又試圖通過讓自然人代理人工智能起訴。如“格里申法案”即建議由人工智能的所有權(quán)人作為人工智能的法定代理人。詭異的是,就連不具法律主體地位的非法人組織都享有訴權(quán),而聲稱具有“高智商”的人工智能主體卻更像缺乏民事行為能力的人,只能由他人代為起訴。歸根結(jié)底,即便是人工智能主體論者亦無法放棄人類對(duì)機(jī)器的控制,其希望設(shè)置保證人類最終控制權(quán)的“紅按鈕規(guī)則”。然而這一限制與主體地位的構(gòu)建存在矛盾。既然人類掌握了人工智能的最終控制權(quán),那么機(jī)器的自主行為便可認(rèn)為是人類放任的結(jié)果,可視為人類意思表示的延伸,此時(shí)人工智能主體便沒有構(gòu)建的必要。
再次,人工智能權(quán)利限制方案與主體主張相矛盾。實(shí)際上法人便不享有自然人的全部權(quán)利,如拉倫茨所言,“法人的權(quán)利能力是不充分的”[注][德]拉倫茨:《德國(guó)民法通論》,王曉曄等譯,第57、181頁。?!坝邢奕烁裾摗奔凑J(rèn)為人工智能無憲法政治權(quán)利、無身份權(quán)且無人格權(quán)[注]許中緣:《論智能機(jī)器人的工具性人格》,《法學(xué)評(píng)論》2018年第5期。。然而,法人在某些情形下是可能享有憲法權(quán)利與人格權(quán)的。如美國(guó)法院認(rèn)可憲法修正案中的平等保護(hù)和正當(dāng)程序條款以及言論自由條款適用于法人。人工智能有限權(quán)利的范圍是否與法人一致,又是基于何種理由不具這些權(quán)利,“有限人格論”并沒能作出回答。更為重要的是,人工智能不是簡(jiǎn)單的機(jī)械而是與人類更加接近,這恰是人工智能主體論者的重要理由,此時(shí)又以人工智能不是自然人為由不愿承認(rèn)其諸多權(quán)利,邏輯上顯得并不連貫。此外,更有學(xué)者認(rèn)為,人工智能主體的財(cái)產(chǎn)權(quán)亦受限制,應(yīng)“類似于羅馬法上的特有產(chǎn)制度”[注]張建文:《格里申法案的貢獻(xiàn)與局限——俄羅斯首部機(jī)器人法草案述評(píng)》,《華東政法大學(xué)學(xué)報(bào)》2018年第2期。。特有產(chǎn)制度是家父制下無獨(dú)立人格地位的家子掌握財(cái)產(chǎn)的特殊制度。這一主張實(shí)際上亦否定了人工智能的主體資格。
最后,人工智能無法獨(dú)立承擔(dān)責(zé)任。法人責(zé)任的有限性原意是將法人責(zé)任原則上限于法人自身承擔(dān),但“有限人格論”卻破天荒地將責(zé)任有限性解釋為人工智能承擔(dān)責(zé)任能力的有限[注]許中緣:《論智能機(jī)器人的工具性人格》,《法學(xué)評(píng)論》2018年第5期。。甚至有學(xué)者主張“刺破公司面紗”的例外規(guī)則可在人工智能主體中變?yōu)椤按唐迫斯ぶ悄苊婕喸瓌t”[注]袁曾:《人工智能有限法律人格審視》,《東方法學(xué)》2017年第5期。。在他們看來,獨(dú)立人格與獨(dú)立承擔(dān)責(zé)任沒有必然關(guān)系。其常借助雇主責(zé)任來論證人工智能控制者責(zé)任承擔(dān)的合理性[注][美]溫德爾·瓦拉赫、[美]科林·艾倫:《道德機(jī)器:如何讓機(jī)器人明辨是非》,王小紅等譯,第182頁。,同時(shí)提倡人工智能保險(xiǎn)制度[注]許中緣:《論智能機(jī)器人的工具性人格》,《法學(xué)評(píng)論》2018年第5期。。然而,這些主張恰恰說明了無須構(gòu)建人工智能法律主體。原則上“刺破人工智能面紗”,實(shí)際上就是主張人工智能不具獨(dú)立主體地位。根據(jù)“奧克姆剃刀原則”,“如無必要,勿增實(shí)體”。若人工智能保險(xiǎn)制度得以建立,無法賠付的部分由人工智能背后的自然人或法人承擔(dān),那么人工智能主體更沒有確立的必要。
2.“電子人”注冊(cè)無法有效構(gòu)建
“電子人”理論主張通過注冊(cè)限制人工智能的主體資格,這種注冊(cè)亦被稱為“圖靈注冊(cè)”[注]Samir Chopra, Laurence F. White, A Legal Theory for Autonomous Artificial Agents, Michigan: The University of Michigan Press, 2011, p.182.。《機(jī)器人民事法律規(guī)則》《機(jī)器人法案》“格里申法案”等立法建議均采納了該種理論,主張通過注冊(cè)賦予人工智能法律主體地位。其中,“格里申法案”對(duì)人工智能主體的注冊(cè)作了較為詳細(xì)的描述。然而這種設(shè)想依然十分粗糙,存在許多無法操作的難題。
首先,人工智能注冊(cè)對(duì)象無法確定。人工智能有軟件和硬件的區(qū)別,一個(gè)硬件下可同時(shí)運(yùn)行多個(gè)人工智能軟件,同一個(gè)人工智能軟件也可輕易實(shí)現(xiàn)自我復(fù)制,有時(shí)甚至可能被病毒控制。此外,人工智能也可能與人高度融合,目前常見的情形是“人機(jī)交互”,在人工智能生物增強(qiáng)的語境下更是“人機(jī)合一”。從人工智能這個(gè)大概念中分離出可以注冊(cè)的獨(dú)立人工智能系統(tǒng)是極其艱難的。若一個(gè)獨(dú)立的系統(tǒng)在注冊(cè)后失去獨(dú)立性將對(duì)主體地位有何影響,注冊(cè)制度亦未能回答。
其次,人工智能注冊(cè)的內(nèi)容不甚明晰。以法人注冊(cè)為例,除名稱外,其還必須有組織機(jī)構(gòu)、住所和財(cái)產(chǎn)。人工智能注冊(cè)有無背后的“股東”,有無財(cái)產(chǎn)要求,如何確定住所均不甚明了。更為重要的是,所有法人成立又要求有一定目的,但在缺乏意志和理性的情況下,人工智能實(shí)際上無法形成自身目的。
再次,人工智能自身無法申請(qǐng)注冊(cè)?!案窭锷攴ò浮闭J(rèn)為,機(jī)器人注冊(cè)應(yīng)由人類所有權(quán)人自愿登記,且在所有權(quán)人聲明機(jī)器人獨(dú)立地位后對(duì)第三人生效。在實(shí)際效果上,所有權(quán)人獨(dú)立聲明的要求不僅使得注冊(cè)的法律效力成疑,亦使得人工智能的注冊(cè)更像是所有權(quán)人實(shí)施物的拋棄行為。所有權(quán)人不承擔(dān)聲明后的責(zé)任的原因不在于人工智能具有主體地位,而在于其已經(jīng)拋棄了物權(quán),同時(shí)失去了對(duì)物的控制。
最后,人工智能注冊(cè)審查的不可能。若注冊(cè)意味著放棄對(duì)人工智能的實(shí)質(zhì)審查,所有人便可將任何設(shè)備注冊(cè)為法律主體,從而形成荒誕的結(jié)果。若實(shí)施實(shí)質(zhì)審查,所謂“圖靈注冊(cè)”難免需借助“圖靈測(cè)試”進(jìn)行。然而,即便圖靈自身也從未主張“圖靈測(cè)試”是關(guān)于意識(shí)、意志或理性的測(cè)試,其測(cè)試的只是“機(jī)器行為的智能化水平”[注][美]羅素、[美]諾維格:《人工智能:一種現(xiàn)代的方法》,第3版,殷建平等譯,第852頁。。希爾勒通過著名的“中文屋”思想實(shí)驗(yàn)亦表明“圖靈測(cè)試”無法判斷機(jī)器的意識(shí)。其將計(jì)算機(jī)比喻成在封閉房間中不懂中文的人,當(dāng)他拿到中文指令后通過查閱翻譯的方式對(duì)問題進(jìn)行回答,屋外的人將誤以為其懂得中文[注][美]庫(kù)茲韋爾:《奇點(diǎn)臨近》,李慶誠(chéng)、董振華、田源譯,第275頁。。由此可見,由于人工智能意識(shí)無法通過技術(shù)手段證明,“圖靈注冊(cè)”審查實(shí)際上將無法開展。
人工智能主體論者的主要目的實(shí)為通過賦予人工智能主體地位以解決人工智能致害的責(zé)任難題。由于人工智能具自主性,可能做出無法預(yù)計(jì)的行為,設(shè)計(jì)者、生產(chǎn)者、所有人、管理人擔(dān)心可能承擔(dān)過大的責(zé)任風(fēng)險(xiǎn),構(gòu)建人工智能主體即可把人從責(zé)任枷鎖中解脫出來。然而,直接將人工智能作為責(zé)任承擔(dān)主體只考慮到了規(guī)避責(zé)任,卻完全忽視了權(quán)利保障的要求。從實(shí)際效果出發(fā),人工智能主體既不當(dāng)轉(zhuǎn)移了責(zé)任風(fēng)險(xiǎn),亦無法實(shí)現(xiàn)法律的作用,最終必有害于人的權(quán)利保障。
1.無法實(shí)現(xiàn)風(fēng)險(xiǎn)的合理分配
正確的風(fēng)險(xiǎn)分析方法,應(yīng)考慮的是人的權(quán)利保護(hù)與人工智能對(duì)權(quán)利造成的風(fēng)險(xiǎn),并根據(jù)這些風(fēng)險(xiǎn)與現(xiàn)行法的關(guān)系,衡量權(quán)利保護(hù)的成本而作出取舍。從風(fēng)險(xiǎn)控制的角度而言,絕不可將人工智能致害歸為“技術(shù)創(chuàng)新附帶的、需整個(gè)社會(huì)分擔(dān)的必要風(fēng)險(xiǎn)”[注]郭少飛:《“電子人”法律主體論》,《東方法學(xué)》2018年第3期。。任何技術(shù)創(chuàng)新都伴有技術(shù)風(fēng)險(xiǎn),但同時(shí)也帶來極其可觀的收益。甚至在人工智能致害中,生產(chǎn)者亦可獲附帶數(shù)據(jù)收益——通過收集事故數(shù)據(jù),生產(chǎn)者得以進(jìn)一步完善人工智能。一方面讓企業(yè)享受其收益,另一方面又讓社會(huì)分擔(dān)其風(fēng)險(xiǎn),這是毫無道理的。法律與政策可通過知識(shí)產(chǎn)權(quán)與稅收的手段鼓勵(lì)技術(shù)創(chuàng)新,但不可改變市場(chǎng)經(jīng)濟(jì)盈虧自負(fù)、風(fēng)險(xiǎn)自擔(dān)的原則。此外,產(chǎn)品責(zé)任并未讓企業(yè)對(duì)人工智能承擔(dān)過重風(fēng)險(xiǎn)。有生產(chǎn)商表示,由于自動(dòng)駕駛汽車能顯著降低交通事故死亡人數(shù),所以不應(yīng)在零星的無法預(yù)料的人工智能系統(tǒng)問題中被訴[注][美]溫德爾·瓦拉赫、[美]科林·艾倫:《道德機(jī)器:如何讓機(jī)器人明辨是非》,王小紅等譯,第190頁。。此即典型的推脫責(zé)任論調(diào)。降低死亡人數(shù)僅僅指減少人為操作失誤造成的死亡人數(shù),而機(jī)械故障的產(chǎn)品缺陷率才是影響其被訴風(fēng)險(xiǎn)的關(guān)鍵。如采用自動(dòng)駕駛系統(tǒng)后產(chǎn)品缺陷率顯著降低,實(shí)際上其賠付風(fēng)險(xiǎn)亦降低;如產(chǎn)品缺陷率增高,則說明其人工智能系統(tǒng)存在嚴(yán)重問題。人工智能企業(yè)實(shí)際上主張的是,采取了人工智能技術(shù)后即應(yīng)免除其原應(yīng)承擔(dān)的責(zé)任。這一主張是毫無理由的。
從責(zé)任承擔(dān)的角度而言,與生硬構(gòu)建的人工智能主體相比,人工智能企業(yè)顯然具有更強(qiáng)的賠付能力。在現(xiàn)已出現(xiàn)的多起自動(dòng)駕駛系統(tǒng)導(dǎo)致的事故中,生產(chǎn)者都順利地對(duì)受害人進(jìn)行了賠付,并繼續(xù)進(jìn)行相關(guān)產(chǎn)品的研發(fā)。為吸引消費(fèi)者購(gòu)買相關(guān)產(chǎn)品,生產(chǎn)者雖然曾抱怨賠付風(fēng)險(xiǎn),但依然作出了賠償承諾。如谷歌、沃爾沃、戴勒姆均表明對(duì)其生產(chǎn)的自動(dòng)駕駛汽車承擔(dān)全部責(zé)任。在此背景下,若試圖通過人工智能主體構(gòu)建免除責(zé)任,最終將導(dǎo)致責(zé)任的推諉。目前人工智能程序故障致害與無法控制的自主侵害行為實(shí)難以區(qū)分,而且人工智能致害更多時(shí)候是人與人工智能共同作用的結(jié)果。在2018年末,“達(dá)芬奇”手術(shù)機(jī)器人發(fā)生了在心臟手術(shù)時(shí)故障導(dǎo)致患者死亡的事故。隨后即被證明醫(yī)生對(duì)機(jī)器人的操作失誤實(shí)為事故發(fā)生的主要原因。此前該手術(shù)機(jī)器人亦發(fā)生了多起事故,醫(yī)療人員常將責(zé)任推卸給人工智能機(jī)器人,而機(jī)器人生產(chǎn)者又以各種理由主張產(chǎn)品責(zé)任不成立,從而導(dǎo)致受害者索賠困難。若再以實(shí)用主義的方式將主體構(gòu)建作為責(zé)任分離的手段,必將導(dǎo)致生產(chǎn)者、使用者將一切責(zé)任歸咎于人工智能本身。
2.無法實(shí)現(xiàn)法律的作用
人工智能主體的構(gòu)建將直接導(dǎo)致法律的多項(xiàng)功能在人工智能面前擱淺。首先,人工智能無法理解法律規(guī)則,其行為更是受算法決定,法律無法指引人工智能的行為。其次,法律亦難以對(duì)人工智能施加強(qiáng)制。人工智能本身不具懲罰的敏感性。又由于人工智能主體意味著與人類控制者相分離,由此不具有實(shí)現(xiàn)法人“雙罰制”的可能。人工智能不具人類心理,將人工智能的死刑定義為銷毀、刪除,徒刑定義為限制活動(dòng),都將是難以奏效的。再次,對(duì)人工智能施加懲罰或給予表彰對(duì)人工智能和人類均無教育意義。雖然有學(xué)者主張通過編程的方式使人工智能具有獎(jiǎng)懲的敏感性[注]Ugo Pagallo, The Laws of Robots: Crimes, Contracts, and Torts, Dordrecht: Springer, 2013, p.161.,但由于人工智能本身不具人類意志,其對(duì)算法的響應(yīng)也無法視為法律的作用。最后,懲罰人工智能主體并無法起到慰藉受害方的作用。以人工智能致人死亡為例,單純刪除、銷毀人工智能是無法使受害方心理實(shí)現(xiàn)平衡的。
從法律人格理論層面、人工智能技術(shù)層面、人工智能法律主體制度設(shè)想層面三方面分別對(duì)“法律人格擴(kuò)展論”“人工智能發(fā)展論”“有限人格論”進(jìn)行批判后可知,人工智能只是物,絕不可升格為法律主體。其不存在自主意識(shí)、自由意志與人類理性,不可能是自然人也不可能是法人。生硬設(shè)計(jì)的人工智能法律主體制度更存在內(nèi)在矛盾且有害于權(quán)利保障。目前,“人工智能成為了人”的擔(dān)心尚為時(shí)過早,法學(xué)研究者更應(yīng)關(guān)心人工智能對(duì)法律客體、法律關(guān)系、法律秩序的沖擊,研究代碼規(guī)制中尚未解決的問題,而非基于科幻的想象探討未來人工智能的主體地位。
安徽大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)2019年4期