姜淑明 胡明星
【摘 要】賦予人工智能以法律人格,既缺乏必要性又缺乏可行性。按照當(dāng)下的研究進(jìn)度以及現(xiàn)有的研究方法,強(qiáng)人工智能根本難以實(shí)現(xiàn);另外,若賦予強(qiáng)人工智能法律人格,將有可能對(duì)現(xiàn)有社會(huì)制度造成較大的沖擊,導(dǎo)致社會(huì)秩序陷入混亂。而弱人工智能運(yùn)用和發(fā)展產(chǎn)生的法律問題均可以在現(xiàn)有法律制度框架內(nèi)有效解決,同時(shí)因其難以產(chǎn)生獨(dú)立自主的意思能力,缺乏獨(dú)立的財(cái)產(chǎn),也缺乏賦予法律人格的可行性。
【關(guān)鍵詞】強(qiáng)人工智能;弱人工智能;法律人格
能否賦予人工智能以法律人格?理論界紛爭(zhēng)不斷,有“肯定說”和“否定說”兩種對(duì)立的觀點(diǎn)。“肯定說”內(nèi)部存在不同的學(xué)說,有“擬制說”、“電子奴隸說”、“電子人格說”、“有限人格說”等。“擬制說”認(rèn)為需要運(yùn)用法律擬制的方式賦予人工智能法律人格。[1]“電子奴隸說”將人工智能定性為電子奴隸,奴隸本身沒有權(quán)利和義務(wù),沒有權(quán)利訂立合同,但是奴隸對(duì)外行為的后果由其主人承擔(dān)。[2]“電子人格說”認(rèn)為,應(yīng)當(dāng)將人工智能認(rèn)定為電子人,并且賦予該類電子人法律人格。[3]“有限人格說”認(rèn)為,人工智能應(yīng)當(dāng)具有法律人格,但是其僅具有有限的權(quán)利,僅具有有限的法律人格。[4]“否定說”細(xì)分為兩派:“工具說”認(rèn)為人工智能應(yīng)當(dāng)被定性為工具,不應(yīng)當(dāng)賦予其法律人格。[5]“軟件代理說”認(rèn)為人工智能僅僅是智能軟件的信息傳遞者,不需要具有獨(dú)立的法律人格。[6]
“肯定說”在討論該問題時(shí)未能準(zhǔn)確分析人工智能發(fā)展的趨勢(shì),在強(qiáng)人工智能研究與發(fā)展的態(tài)度上過于樂觀;同時(shí),忽略了哲學(xué)及倫理對(duì)于法律和法學(xué)觀點(diǎn)的影響,錯(cuò)誤的認(rèn)為應(yīng)當(dāng)賦予人工智能法律人格;夸大了人工智能發(fā)展中產(chǎn)生的影響。筆者認(rèn)為,不能賦予人工智能以法律人格。
一、賦予人工智能法律人格不符合倫理性要求
(一)具有理性特質(zhì)的自然人具有法律人格
從哲學(xué)上看,理性包括理論理性和實(shí)踐理性,理性不但包括基礎(chǔ)判斷力也包括演繹推理能力。康德哲學(xué)理論認(rèn)為,理性特質(zhì)是自然人所特有的,由此得以將自然人與物進(jìn)行有效區(qū)分。物具有相對(duì)價(jià)值,其本質(zhì)屬性是手段,而具有理性特質(zhì)的自然人的本質(zhì)屬性是目的。[7]也因?yàn)槔硇?,自然人與物有本質(zhì)的區(qū)分。理性的目的是從現(xiàn)象向物自身前進(jìn),從不完整的經(jīng)驗(yàn)知識(shí)向全部經(jīng)驗(yàn)知識(shí)的大統(tǒng)一前進(jìn),所要達(dá)到的最高統(tǒng)一體就是理性的理念。自然人是一類特殊的存在,能夠產(chǎn)生意識(shí),具有主觀能動(dòng)性。[8]黑格爾提出,人類具有理性特質(zhì),人類的屬性是目的,并且人類依據(jù)自己的意愿做決策的行為就是自由。[9]自然人為了實(shí)現(xiàn)價(jià)值,必須要借助于一定的手段,手段必須依附于目的才能具有一定的價(jià)值,即僅具有相對(duì)價(jià)值;主體利用和改造客體,客體作為手段,其實(shí)就是主體的工具。物因?yàn)闆]有理性,確定物為客體,其僅具有相對(duì)的價(jià)值,是主體改造世界利用的工具。自然人因具有理性而與物之間存在著涇渭分明的明顯界限,人類的地位高于其他存在的物。
(二)缺乏理性特質(zhì)的人工智能不具有法律人格
人工智能屬于人工創(chuàng)造的物,自然人與人工智能之間的關(guān)系,也應(yīng)當(dāng)符合上述哲學(xué)分析。目前人工智能尚處于弱人工智能階段,人工智能運(yùn)行的程序均由人為事先設(shè)定并調(diào)試,其在預(yù)先設(shè)定的規(guī)則或模式內(nèi)行動(dòng),不具有主觀能動(dòng)性。以阿爾法圍棋為例,圍棋也是一項(xiàng)規(guī)則性極強(qiáng)的活動(dòng),圍繞圍棋的規(guī)則而展開,并且阿爾法圍棋完全在人類事先設(shè)置好的規(guī)則內(nèi)行動(dòng),阿爾法圍棋的優(yōu)勢(shì)在于其高速的運(yùn)行能力和海量的處理分析數(shù)據(jù)能力,尋找每一步最優(yōu)的策略,而每一步的選擇都是人類事先輸入的數(shù)據(jù),完全沒有自主學(xué)習(xí)、隨機(jī)應(yīng)變的能力和獨(dú)立的意識(shí)。那么,當(dāng)人工智能發(fā)展到強(qiáng)人工智能時(shí)是否可以作為目的?強(qiáng)人工智能的智能程度更高,并且有可能達(dá)到與人類近似的智能水平,具備產(chǎn)生獨(dú)立意思的可能。但是,強(qiáng)人工智能能否實(shí)現(xiàn),尚存疑問;并且脫離自然人自身的人工創(chuàng)造物,即使具有一定的智能和獨(dú)立性,但相對(duì)于自然人,其也不能具有絕對(duì)價(jià)值,仍僅具有相對(duì)價(jià)值,仍舊是手段,而不是目的本身。故不論人工智能發(fā)展到哪一階段,均不能賦予其法律人格。因?yàn)?,一旦賦予人工智能法律人格,將其放到與人類等同的地位,認(rèn)定其也具有絕對(duì)價(jià)值,甚至讓其統(tǒng)治全地球,讓自然人成為其手段,則人類完全失去了價(jià)值,世界本身也將變得毫無意義。
二、缺乏賦予人工智能法律人格的必要性
現(xiàn)代民法具有法律人格的主體逐漸擴(kuò)充,法律人格的范疇由自然人逐步擴(kuò)展到了自然人之外的非生命實(shí)體,出現(xiàn)了“非人可人”的變革。法律人格具有明顯的抽象性。在適當(dāng)情形下,法律人格可以突破倫理性的要求,賦予公司等社會(huì)團(tuán)體法律人格。從邏輯上講,也可以將法律人格賦予自然人之外的如動(dòng)物、公共群體等其他實(shí)體。但本文認(rèn)為,通過法律擬制的方式賦予人工智能法律人格的做法不可取。
(一)缺乏賦予弱人工智能法律人格的必要性
就當(dāng)前的研究情形而言,弱人工智能發(fā)展過程中產(chǎn)生的問題包括責(zé)任認(rèn)定、責(zé)任承擔(dān)主體、確定責(zé)任的規(guī)則、生成內(nèi)容著作權(quán)歸屬等均可在現(xiàn)有法律制度內(nèi)予以有效解決。
(二)缺乏賦予強(qiáng)人工智能法律人格的必要性
在樂觀主義者的設(shè)想下,在不遠(yuǎn)的將來強(qiáng)人工智能將全面的介入人類社會(huì)生活,因此,借鑒團(tuán)體法律人格的經(jīng)驗(yàn),基于社會(huì)現(xiàn)實(shí)需要,亟需突破倫理性的要求,賦予強(qiáng)人工智能法律人格。那么現(xiàn)有的關(guān)于人工智能的研究技術(shù),能夠支撐強(qiáng)人工智能的實(shí)現(xiàn)嗎?答案是否定的。人工智能的研究方法包括結(jié)構(gòu)模擬法、功能模擬法和行為模擬法,上述三種研究方法均存在明顯的局限性,如果研究方法沒有取得關(guān)鍵性的改變,強(qiáng)人工智能將難以實(shí)現(xiàn)。
所謂結(jié)構(gòu)模擬法,即通過技術(shù)手段模擬人類的大腦皮層結(jié)構(gòu),以此來實(shí)現(xiàn)對(duì)于人類智慧的模擬。人腦科學(xué)研究表明,人類智慧的產(chǎn)生主要集中于大腦皮層,想要有效模擬人類的智慧,首先則應(yīng)當(dāng)了解人類大腦皮層的結(jié)構(gòu)和機(jī)理。經(jīng)研究發(fā)現(xiàn),對(duì)于大腦皮層神經(jīng)元結(jié)構(gòu)的模擬主要有以下困難:首先,神經(jīng)元的數(shù)量繁多,結(jié)構(gòu)復(fù)雜;其次,人類大腦皮層的運(yùn)行機(jī)制和原理不明確,導(dǎo)致即使完成了對(duì)于人類大腦皮層結(jié)構(gòu)的模擬,仍缺乏使其自動(dòng)運(yùn)行的機(jī)制,仍難以實(shí)現(xiàn)模擬人類智慧的目的。
所謂功能模擬法,即通過計(jì)算機(jī)的功能來實(shí)現(xiàn)對(duì)于人類智慧的模擬。該方法的理論基礎(chǔ)是,人類大腦的功能與計(jì)算機(jī)的功能等效,因此可以通過編訂計(jì)算機(jī)程序的方法來模擬人類的智慧。該方法也存在著明顯的局限性。首先,運(yùn)用計(jì)算機(jī)的功能實(shí)現(xiàn)對(duì)人類智慧的模擬,要求計(jì)算機(jī)具有充足的知識(shí)儲(chǔ)備,因?yàn)橹挥芯邆淞顺渥愕闹R(shí)儲(chǔ)備,才能在面對(duì)問題和面臨抉擇時(shí)做出正確的決策。目前人工智能自主學(xué)習(xí)能力尚未實(shí)現(xiàn),人工智能知識(shí)的儲(chǔ)備主要依靠人類手工輸入,手工輸入的方式效率很低,因此導(dǎo)致運(yùn)用功能模擬法模擬人類智慧的時(shí)候人工智能容易出現(xiàn)知識(shí)儲(chǔ)備的嚴(yán)重不足。另一方面功能模擬法僅能模擬人類的“顯性智慧”,而對(duì)于人類的“隱性智慧”則難以模擬。人類不僅具有“顯性智慧”的能力,同時(shí)也具有“隱性智慧”的能力,“隱性智慧”能力和“顯性智慧”能力二者相輔相成、缺一不可,共同構(gòu)成了人類的智慧能力。計(jì)算機(jī)僅具有形式邏輯運(yùn)算功能,邏輯運(yùn)算功能僅相當(dāng)于人類智慧中的“顯性智慧”,即解決問題的能力,而難以對(duì)于人類智慧中的“隱性智慧”進(jìn)行模擬,這也導(dǎo)致該研究方法僅適用于弱人工智能的研究,運(yùn)用該方法難以實(shí)現(xiàn)生產(chǎn)制造強(qiáng)人工智能的目標(biāo)。
所謂行為模擬,即人工智能對(duì)于任何的外界刺激,均能夠以合理的行為妥當(dāng)?shù)膽?yīng)對(duì),就像人類表現(xiàn)的那樣。當(dāng)人類面對(duì)外界刺激時(shí),總能迅速的做出恰當(dāng)?shù)姆磻?yīng),例如天氣冷了,便添加衣服;駕駛汽車遇到紅燈時(shí)則停止,變成綠燈時(shí)再通行等。行為模擬要求人工智能具有很強(qiáng)的模式分類能力,首先要求系統(tǒng)能準(zhǔn)確的識(shí)別外界的刺激,同時(shí)也要求其能迅速的根據(jù)刺激做出合理的行動(dòng)。但是這一方法具有很嚴(yán)重的局限性,因?yàn)樵撔袨槟M方法僅能模擬一些簡(jiǎn)單的行為,而對(duì)于比較復(fù)雜的行為或者體現(xiàn)人本能的行為,則會(huì)顯得無能為力。
正因?yàn)槿绱?,?qiáng)人工智能的研究在經(jīng)歷一段時(shí)期的高速發(fā)展后,美國、英國等國家分別就本國強(qiáng)人工智能的研究現(xiàn)狀展開評(píng)估,并出具了分析報(bào)告。評(píng)估報(bào)告的結(jié)果使強(qiáng)人工智能界的信心遭受了極大的打擊,并開始對(duì)強(qiáng)人工智能的實(shí)現(xiàn)產(chǎn)生了懷疑,甚至有部分專家改變了對(duì)強(qiáng)人工智能的樂觀態(tài)度,主動(dòng)放棄了強(qiáng)人工智能的研究。英國、美國和歐洲其他國家的政府也紛紛減少了對(duì)于強(qiáng)人工智能研究的支持力度,許多正在進(jìn)行中的強(qiáng)人工智能的研究項(xiàng)目因?yàn)槿鄙俳?jīng)費(fèi)而被迫停止。在這種情況下,強(qiáng)人工智能研究界開始出現(xiàn)分裂,部分研究者轉(zhuǎn)變了研究的思路,不再積極投身于強(qiáng)人工智能的研究,而是開始了一類名為增強(qiáng)人類智能的研究,該研究將人工智能明確的定位為協(xié)助和輔助人類的工具,人工智能只是增強(qiáng)人類智能的手段。強(qiáng)人工智能的研究面臨著多重的困難,強(qiáng)人工智能難以成為現(xiàn)實(shí),缺乏賦予強(qiáng)人工智能法律人格的必要性。
三、缺乏賦予人工智能法律人格的可行性
如果賦予人工智能法律人格,將打破法律世界主客體二元結(jié)構(gòu),在人工智能與人類形成的法律關(guān)系中,人工智能與人類將處于平等的法律地位。那么在這種情形下,當(dāng)人類與人工智能產(chǎn)生利益沖突時(shí),該如何處理?無疑這將對(duì)現(xiàn)有成熟的民事法律制度造成顛覆性的沖擊。
(一)缺乏賦予弱人工智能法律人格的可行性
假設(shè)賦予弱人工智能法律人格,弱人工智能將一定程度上獨(dú)立自主的參與法律關(guān)系,而參與法律關(guān)系以具有相應(yīng)的意思能力為前提。而弱人工智能難以產(chǎn)生獨(dú)立意思能力。弱人工智能的主要功能在于解決特定的問題,其主要能力體現(xiàn)在邏輯運(yùn)算和推理方面,缺乏動(dòng)機(jī)、情感等非邏輯運(yùn)算和推理的功能。動(dòng)機(jī)的缺乏,使得弱人工智能的行為難以被認(rèn)定為民法上的意思表示行為,因?yàn)槠湫袨椴痪哂心康囊馑己托Ч馑肌男问缴峡?,弱人工智能可以通過某些行為表示某些意思,例如簽訂合同等,但其行為實(shí)際上僅僅是在執(zhí)行設(shè)定的程序而已,弱人工智能難以真正理解其所從事行為的真實(shí)意思,因此弱人工智能難以產(chǎn)生必要的意思能力。其次,弱人工智能缺乏承擔(dān)民事責(zé)任的能力。作為法律主體,應(yīng)當(dāng)遵守法律的規(guī)定,不得侵害他人的合法權(quán)益,但是如果侵害了他人的合法權(quán)益,則應(yīng)當(dāng)承擔(dān)相應(yīng)的法律責(zé)任。僅從民事責(zé)任而言,成為民事主體需要具備承擔(dān)民事責(zé)任的能力。很顯然,弱人工智能缺乏承擔(dān)民事責(zé)任的物質(zhì)基礎(chǔ),其一般不擁有財(cái)產(chǎn),在特殊情況下弱人工智能可能會(huì)擁有一定的財(cái)產(chǎn),但是其作為所有人或使用人控制下的工具,所獲得的財(cái)產(chǎn)也應(yīng)歸屬于其所有人或使用人。故此,因弱人工智能不具有獨(dú)立的意思能力和獨(dú)立的財(cái)產(chǎn),無法賦予其以獨(dú)立的法律人格。
(二)缺乏賦予強(qiáng)人工智能法律人格的可行性
討論是否應(yīng)當(dāng)賦予強(qiáng)人工智能法律人格,應(yīng)當(dāng)持有一種特別謹(jǐn)慎的態(tài)度。因?yàn)橘x予強(qiáng)人工智能法律人格需要對(duì)現(xiàn)有法律制度進(jìn)行顛覆性的變革,在理論和實(shí)踐基礎(chǔ)并不牢固的情況下,在不能有效的評(píng)估賦予強(qiáng)人工智能法律人格將會(huì)產(chǎn)生怎樣社會(huì)影響的情況下,不應(yīng)當(dāng)貿(mào)然的嘗試賦予強(qiáng)人工智能法律人格。如果單純因?yàn)樾枰沤^強(qiáng)人工智能被濫用等情況的發(fā)生,完全可以參照關(guān)于動(dòng)物保護(hù)等的規(guī)定,建立健全相關(guān)法律制度,強(qiáng)制性的要求人類善待強(qiáng)人工智能即可實(shí)現(xiàn),而不必賦予其法律人格。
綜上所述,就當(dāng)前的情形而言,人工智能運(yùn)用和發(fā)展產(chǎn)生的法律問題均可以在現(xiàn)有法律制度和框架內(nèi)有效解決。
參考文獻(xiàn):
[1]楊清望,張磊.論人工智能的擬制法律人格[J].湖南科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)2018(6).
[2]SusanneBeck.Theproblemofascribinglegalresponsibil
ityinthecaseofrobotics[M].AI&Soc,2016:473-481,31.
[3]郭少飛.“電子人”法律主體論[J].東方法學(xué)2018(3).
[4]袁曾.人工智能有限法律人格審視[J].東方法學(xué)2017(5).
[5]郝鐵川.不可幻想和高估人工智能對(duì)法治的影響[N].法制日?qǐng)?bào),2018-1-3(3).
[6]SusanneBeck.Theproblemofascribinglegalresponsibi
lityinthecaseofrobotics[M].AI&Soc,2016:473-481,31.
[7]卡爾·拉倫茨.德國民法總論[M].王曉曄等譯,法律出版社,2003:45.
[8]郭大為.費(fèi)希特與主體間性問題[J].北京大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),1999(3):103-104.
[9]黑格爾.歷史哲學(xué)[M].王時(shí)造譯,上海書店出版社,1999:73.