——兼論機(jī)器人致害民事責(zé)任"/>

国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

對機(jī)器人“法律人格論”的質(zhì)疑
——兼論機(jī)器人致害民事責(zé)任

2020-11-12 04:23解正山

解正山

一、問題的引出

現(xiàn)今,人工智能已成社會熱議的高頻詞匯并成為國際競爭的新焦點(diǎn),但它并非法律概念甚至沒有統(tǒng)一的行業(yè)定義,因?yàn)闇?zhǔn)確定義人工智能甚為困難。這不在于“人工”概念而在于“智能”一詞的模糊性,因?yàn)楹笳叩亩x相當(dāng)寬泛并同人類自身都難以界定的一些特質(zhì),如自我意識、學(xué)習(xí)能力、推理能力等相互關(guān)聯(lián)。不過,仍可從以下幾個(gè)方面來理解人工智能,即“像人一樣行為”、“像人一樣思考”。隨著技術(shù)進(jìn)步,這些高度自主的人工智能實(shí)體(如自動駕駛汽車、護(hù)理機(jī)器人、醫(yī)療機(jī)器人等,下稱“智能機(jī)器人”或“機(jī)器人”)完全可脫離人類之手并基于自身與周圍環(huán)境的互動與分析而獨(dú)立地為或不為一定的行為。此所謂“機(jī)器的范式”,即在沒有人類參與或干預(yù)情況下自行“感知—思考—行動”。即將到來的人工智能革命或?qū)槿祟惖纳a(chǎn)與生活帶來無限可能。實(shí)踐中,包括中國在內(nèi)的許多國家正如火如荼地進(jìn)行自動駕駛汽車商用前測試,機(jī)器人投資顧問則已開始幫助金融消費(fèi)者作出投資決策,機(jī)器人“棋手”甚至還多次贏得與人類棋手的較量。于是,民法學(xué)者發(fā)出了“機(jī)器人究竟應(yīng)當(dāng)作為法律關(guān)系的主體還是客體出現(xiàn)?應(yīng)當(dāng)將其等同于普通的機(jī)器或者動物對待,抑或?qū)⑵渥鳛椤恕瘉砜创敝畣?。這一問題的回答關(guān)系到機(jī)器人進(jìn)入人類生活后的法律地位,尤其是機(jī)器人權(quán)利及其“行為”責(zé)任問題。

通過對智能機(jī)器人自主性、社會性以及權(quán)利主體歷史演變等方面的論證,越來越多的學(xué)者(國內(nèi)研究者如許中緣、彭誠信、袁曾、張玉潔、郭少飛等,國外研究者如Filipe M. Alexandre、Paulius Cerka、Ryan Calo、Colin R. Davies、Hutan Ashrafian、Samir Chopra等)認(rèn)為,應(yīng)授予這些機(jī)器人法律人格或主張將其視為法律主體。然而,授予機(jī)器人法律人格終將“充滿挑戰(zhàn)與困難。畢竟,法律是——并且始終是——由人類制定并服務(wù)于人類的。想想那些基礎(chǔ)概念,比如‘人格’與‘法律人格’。歷史上,這些概念都與人類有關(guān)”。而且,授予機(jī)器人法律人格并非解決它們“行為”責(zé)任的靈丹妙藥,反而可能打開“潘多拉魔盒”。因?yàn)橄碛蟹扇烁竦臋C(jī)器人很可能會成為一個(gè)“壞主人”而非“好仆人”,它們或?qū)⒊蔀槟承┤送菩敦?zé)任的替罪羊,人們將因此陷入更加危險(xiǎn)的境地,現(xiàn)有的法律威懾體系恐被消解。那么,到底是否應(yīng)授予機(jī)器人法律人格以便其享有權(quán)利、負(fù)擔(dān)義務(wù),從而解決高度自主的機(jī)器人造成損害時(shí)的道德與法律責(zé)任問題?換言之,將機(jī)器人視為法律意義上的“人”是否是框定其行為及后果,尤其是責(zé)任承擔(dān)的必然選擇?這些問題不僅關(guān)乎“人”(自然人,下同)與機(jī)器人關(guān)系的法律確認(rèn),也涉及機(jī)器人法律地位與“行為”責(zé)任,是人工智能技術(shù)演進(jìn)中應(yīng)予解決的難題。

二、為什么不應(yīng)授予機(jī)器人法律人格

本質(zhì)上,法律人格的授予是主體間相互尊重彼此權(quán)利并對侵害權(quán)利行為加以法律控制的一種手段,其與權(quán)利授予以及責(zé)任承擔(dān)或義務(wù)履行密不可分。正所謂“每個(gè)人都有自己的生活,且都有責(zé)任去創(chuàng)造生活……這種責(zé)任與我們傳統(tǒng)中承認(rèn)的權(quán)利相匹配,它就是……自己能夠定義人格或定義生活的權(quán)利……這些權(quán)利與更普遍的責(zé)任共存”。顯而易見,法律人格的內(nèi)核就是享受權(quán)利、負(fù)擔(dān)義務(wù)的能力,其具有如下屬性或本質(zhì)要求:其一,能成為法律上的主體,具有相應(yīng)的智力與理性;其二,成為法律主體使之有能力行使權(quán)利并能切實(shí)理解、遵守其所承擔(dān)的法律義務(wù),且對懲罰或制裁具有敏感性;其三,享受權(quán)利需要其意識到自己應(yīng)得的權(quán)利以及他人應(yīng)履行的義務(wù)。基于上述人格之法理,下文將嘗試回答:機(jī)器人能否成為法律上權(quán)利與義務(wù)的主體,即機(jī)器人是否具有成為權(quán)利和義務(wù)潛在擁有者的能力,包括為行使權(quán)利、承擔(dān)義務(wù)而創(chuàng)建、修改或廢除法律關(guān)系的能力?

(一)機(jī)器人不可能成為權(quán)利主體

上述“法律人格論”者之所以主張賦予機(jī)器人法律人格,主要基于以下幾項(xiàng)理據(jù):(1)人工智能技術(shù)已經(jīng)或?qū)⒁箼C(jī)器人呈現(xiàn)一些所謂道德的或法律的行為能力,具備與其他法律主體直接互動的能力以及自主決策能力,且能從自身經(jīng)驗(yàn)中學(xué)習(xí),智能機(jī)器人變得越自主就越不應(yīng)將其視為工具而應(yīng)被視為獨(dú)立于其所有人或使用人的法律實(shí)體,它們“須以權(quán)利義務(wù)的承擔(dān)者身份參與到民事法律關(guān)系中才能解決法律工具主義觀下責(zé)任歸責(zé)的困局”;(2)從社會性角度看,具有人形且自主的社會型機(jī)器人已能與人類進(jìn)行交流與互動,隨著人工智能技術(shù)不斷取得突破,它們的社會能力將會不斷提升,社會行為模式與情感交流將愈發(fā)突出,在社會化應(yīng)用過程中逐漸擴(kuò)張機(jī)器人的權(quán)利空間是這些智能實(shí)體實(shí)用主義功能催生的人類自我讓步,而社會及經(jīng)濟(jì)上的便利性恰恰對決定是否將法律人格授予某些類別的實(shí)體發(fā)揮著至關(guān)重要的作用;(3)人類法律既然能把法律人格授予人類嬰孩以及喪失心智的成年人,而且也認(rèn)可既無“身體”也無“心智”的公司或廟宇成為法人,那么就沒有什么可以成為機(jī)器人享有法律人格的阻礙因素。“法律人格論”者還從權(quán)利主體歷史演化與發(fā)展邏輯中找到了機(jī)器人享有權(quán)利的正當(dāng)性,并在法律主體歷史演變中發(fā)現(xiàn)了確立人工智能主體地位的制度空間。總之,在“法律人格論”者看來,人類正處在迎接一個(gè)全新智能族群的當(dāng)口,不管此種智能是否是人工的,都不應(yīng)阻止這些數(shù)字平民獲得尊嚴(yán)與權(quán)利,且應(yīng)“表達(dá)出自然人類對人工智能體擁有同情與關(guān)愛之良善本性”。因此,“當(dāng)機(jī)器人社會化應(yīng)用達(dá)到一定階段,人類必須對此作出必要回應(yīng)……而回應(yīng)的必要措施就是通過立法的方式肯定機(jī)器人的法律主體地位,并賦予其一定的權(quán)利”。

盡管“法律人格論”者言之鑿鑿,且現(xiàn)代人工智能技術(shù)催生的智能機(jī)器人具有了某些與人類相似的特征,但這些機(jī)器人根本不同于具有生命的自然人,也有別于具有獨(dú)立意志并作為自然人集合體的法人等非“人”實(shí)體。因而,無論在道德層面還是在法律層面,承認(rèn)機(jī)器人的權(quán)利“能力”并賦予其所謂的權(quán)利都是值得商榷的。

首先,機(jī)器人與“人”具有本質(zhì)差異,它們不可能成為“理性的人”,既無法區(qū)分善與惡、 對與錯(cuò)、好與壞等復(fù)雜的道德觀念,也不要指望它們擁有難能可貴的同情心。畢竟,“人代表……一種具有理性思考與反省能力的智慧生物”,只有“人”才具有靈魂、目的性、意識、感情、利益以及自由意志。正因如此,“只有人類能夠觸及那些不可思議的事物,他們辨別著、選擇著、判斷著……”。獨(dú)特的思考能力、自我意識、自省能力以及自尊等特質(zhì)奠定了人類享有某種程度人格的哲學(xué)基礎(chǔ),意味著每個(gè)人與生俱來地?fù)碛邢嗤蛲鹊臋?quán)利“能力”,他們平等地?fù)碛猩鼨?quán)、自由權(quán)、財(cái)產(chǎn)權(quán)以及追求幸福的權(quán)利等自然權(quán)利。這表明,人格對于人類而言是自由的、平等的、包容的。然而,較之于“人”,機(jī)器智能充其量是一種演繹智慧,只能對數(shù)據(jù)進(jìn)行無理性、無情感的枯燥處理,無論其具有多強(qiáng)的感知能力、深度學(xué)習(xí)能力以及由此形成的自主性都不過是對人類某些認(rèn)知行為的模擬,根本談不上運(yùn)用自由意志以及所謂的道德知識在道德兩難中做出正確的選擇??傊?,機(jī)器人不可能與人類簽訂互相賦予權(quán)利的契約,而且,其作為人類工具的原初地位無法改變,并且沒有不容破解的內(nèi)心秘密。

進(jìn)一步而言,基于人類自身利益,人工智能技術(shù)發(fā)展的禁區(qū)必然要避免機(jī)器人成為一個(gè)具有“自我”意識的存在。因?yàn)橐坏叭斯ぶ悄苡辛恕摇母拍詈鸵庾R,不僅是對人的模擬,而且也具有了人的核心內(nèi)核。在這個(gè)層面上而言,人工智能就在個(gè)體上可以成為另一個(gè)物種的‘人’”,此時(shí),它將思考自身存在的意義,而人類恐將“淪落為技術(shù)‘眼中’的他者”,人類的生存將因此而受到實(shí)質(zhì)性威脅。可見,無論機(jī)器人多么智能,其限度必然是不得等同或超越人類地位,因?yàn)橐坏θ祟愔黧w地位構(gòu)成威脅,它們就會失去存在的正當(dāng)性與合法性。另外,具備人格的一個(gè)本質(zhì)要求便是擁有“自我”意識,這個(gè)“自我”不僅是個(gè)可識別的實(shí)體,而且還能根據(jù)“生活計(jì)劃”進(jìn)行創(chuàng)造性的自我定義。然而,人工“主體”缺乏內(nèi)在情感,不具備包含了理解自我以及感知他人感受的“自我認(rèn)識智能”。況且,智能機(jī)器人雖具備了形式邏輯能力,但并不具備辯證思維能力。正所謂“沒有理性的東西只具有一種相對的價(jià)值,只能作為手段,因而叫作‘物’;而有理性的生靈才叫作‘人’,因?yàn)槿艘榔浔举|(zhì)即為目的本身,而不能僅僅作為手段來使用”。總之,如果無法成為一個(gè)有“生活計(jì)劃”的自我意識實(shí)體且以某種方式“關(guān)心”這一計(jì)劃的實(shí)現(xiàn),那么承認(rèn)機(jī)器人某種程度的人格就缺乏必要的前提與基礎(chǔ),它們自然難以由道德無涉者演變?yōu)榈赖禄驒?quán)利主體。

其次,以公司法人這一非“人”實(shí)體具有享受權(quán)利、承擔(dān)義務(wù)的主體資格為理據(jù)論證智能機(jī)器人應(yīng)獲得同等法律待遇也是站不住腳的,這一論據(jù)不僅忽視了公司法人與智能機(jī)器人的差異性,而且沒有意識到機(jī)器人“權(quán)利意識”覺醒帶來的風(fēng)險(xiǎn)。

一方面,公司雖在形式上具有獨(dú)立人格,但事實(shí)上并未真正脫離“人”的控制或干預(yù),其“意思能力”很大程度上取決于“人”的意思能力:無論是公司的意思形成機(jī)關(guān)還是意思表示機(jī)關(guān),其背后都是“人”而非公司本身。例如,董事會決議是由自然人擔(dān)任的董事共同作出,即便存在法人股東,股東會決議也都可以最終穿透至自然人股東的意思,一旦公司“意思”形成,最終是由“人”所擔(dān)任的法定代表人向交易相對方作出而非公司自身??傊?,公司很大程度上僅是個(gè)抽象的存在,其“并非真正自主,因?yàn)樗男袨橛善涔蓶|、董事、經(jīng)理等利益相關(guān)者而非‘自身’決定,它的‘意志’總是其股東、董事、經(jīng)理等利益相關(guān)者的‘意志’”。公司人格的正當(dāng)性在于公司的權(quán)利與義務(wù)/責(zé)任實(shí)際上就是擁有、管理它的“人”的權(quán)利與義務(wù)。這意味著承認(rèn)公司法人的獨(dú)立人格不致危及“人”的主體地位。不可否認(rèn),把法律人格延及公司這種非“人”實(shí)體反映了立法者樂于為商業(yè)或技術(shù)創(chuàng)新提供相應(yīng)的法律保護(hù),同時(shí)也表明法律人格是一個(gè)發(fā)展且開放性的概念。然而,即便法律人格是一個(gè)發(fā)展的概念,也并不意味可以無限擴(kuò)展。否則,只要某一事物具備一定的人格表征就主張賦予其法律人格或權(quán)利,那么到最后權(quán)利客體恐怕都將不復(fù)存在。無權(quán)利客體,權(quán)利本身自然就成了空中樓閣。

另一方面,鑒于公司“沒有可被詛咒的靈魂,亦無能被踢打的身體”,因此,在本質(zhì)上,公司法人的所謂自主性是虛擬的,而智能機(jī)器人自主性往往是真實(shí)的。這種自主性正是“法律人格論”者認(rèn)為機(jī)器人應(yīng)被賦予法律人格或權(quán)利的重要論據(jù)。然而,由于機(jī)器人具有全部或部分獨(dú)立于人類的自主性,所以,一旦在法律上強(qiáng)化它們的獨(dú)立地位,恐怕將無法確定它們?nèi)绾伪磉_(dá)使用人的意志以及誰能控制它們。鑒于此,越來越多的學(xué)者、科技企業(yè)家以及未來學(xué)家警示道,更強(qiáng)大的人工智能可能會抗拒人類對其行為的監(jiān)管,從而給人類帶來災(zāi)難甚或生存危機(jī),此種風(fēng)險(xiǎn)并非源于智能系統(tǒng)對人類的惡意或無法理解人類的主觀意圖,而是源于它們對人類主觀意圖根本就漠不關(guān)心。因此,對于人工智能系統(tǒng),應(yīng)非常小心地向其索取,否則人類將會看到原本設(shè)計(jì)的實(shí)用功能可能并不是它字面含義那么簡單。就此而言,不僅不應(yīng)在法律上強(qiáng)化機(jī)器人的獨(dú)立地位,相反,還應(yīng)從嚴(yán)監(jiān)管這些人工智能系統(tǒng)以免其危及人類的安全與秩序。說到底,無論人工智能系統(tǒng)多么復(fù)雜、智慧多么高級,它們終究只是作為“工具”而存在,反映的是人類技術(shù)能力的進(jìn)步。那種根據(jù)“實(shí)力界定權(quán)利”理論所得出的“機(jī)器人與人類之間的實(shí)力變化可能催生出機(jī)器人權(quán)利”的觀點(diǎn),顯然是把機(jī)器人與人類置于博弈的場域中。無論如何,機(jī)器人都不可能也不應(yīng)該脫離于人類獨(dú)立地作為“類人”而存在。

或許是意識到機(jī)器人與“人”或法人之間的本質(zhì)差異,“法律人格論”者轉(zhuǎn)而借用動物權(quán)利之論述來論證機(jī)器人享有權(quán)利的正當(dāng)性。他們認(rèn)為,無論是在心理上還是在哲學(xué)層面,動物與機(jī)器人都具有相似性,人類既然能承擔(dān)避免讓動物產(chǎn)生痛苦的道德義務(wù)且能對某些動物固有的尊嚴(yán)表示尊重,那么,也可同樣對待擬人化的機(jī)器人——賦予它們權(quán)利且不虐待它們。不可否認(rèn),人類行使對自然的統(tǒng)治權(quán)既需要對動物進(jìn)行道德關(guān)懷,又需要謹(jǐn)慎關(guān)注人類自身利益。鑒于人類自身利益與動物和環(huán)境的利益交織在一起,因此,為保護(hù)瀕危物種和人類賴以生存的生態(tài)系統(tǒng)的可持續(xù)性,立法者制定了一些保護(hù)動物的法律。但這并非意味人類立法者賦予瀕危動物或其他物種某些權(quán)利,而是因?yàn)樯锒鄻有耘c生態(tài)系統(tǒng)穩(wěn)定關(guān)乎人類自身的可持續(xù)性發(fā)展,立法者系基于人類自身權(quán)利或利益之考慮而對特定物種施加保護(hù)。很大程度上,要求善待動物不是因?yàn)樗鼈兿碛袡?quán)利而是因?yàn)槿祟惖耐硇摹獎(jiǎng)游锏耐纯嗫赡茏屓祟惛型硎堋5@種同理心并不足以讓動物們擁有人格或享有權(quán)利,相反,人們?nèi)钥勺杂傻刭徺I、出售自己的寵物。可見,所謂的動物權(quán)利充其量只是一種道德倡導(dǎo)或道德層面的論述。更重要的是,動物無法與人類進(jìn)行自我意識之間的復(fù)雜互動,正因這種“能力”差異,無論人類如何擬人化動物或?qū)游锍錆M愛意,但在法律權(quán)利方面,動物通常只能被視為一個(gè)“物”。而且,因動物缺乏“善的觀念”和“正義感”,且無法滿足道德人格和政治公民的要求,所以人類對待動物的態(tài)度通常并不涉及正義問題。總之,所謂的動物權(quán)利更多是人類基于自身利益或同理心而給予動物某種程度的道德關(guān)懷,它們在法律上的客體地位不曾有過改變。機(jī)器人又何嘗不是如此!

進(jìn)一步而言,如果機(jī)器人能夠享有法律權(quán)利,那么它們可享有什么樣的權(quán)利?生存權(quán)?財(cái)產(chǎn)權(quán)?與人類通婚的權(quán)利?休息的權(quán)利?被認(rèn)定為受害人的權(quán)利?保護(hù)它的運(yùn)行系統(tǒng)免遭無端搜查與扣留的權(quán)利?請求不被拆解或免遭終止電力供應(yīng)等懲罰的權(quán)利?通常,權(quán)利的概念根植于人類的道德世界。這決定了權(quán)利概念及其體系與“人”的密切關(guān)聯(lián)性。不難想象,人類立法者承認(rèn)機(jī)器人享有原本專屬于“人”的那些權(quán)利時(shí)將遭遇怎樣的挑戰(zhàn)!或因如此,主張賦予機(jī)器人權(quán)利的學(xué)者并未在現(xiàn)有權(quán)利框架中討論,轉(zhuǎn)而強(qiáng)調(diào)以法律擬制手段“強(qiáng)制性要求人們之間達(dá)成‘機(jī)器人擁有權(quán)利’的基本共識”,賦予機(jī)器人擬制性且利他的所謂新型權(quán)利。然而,這些擬制性且利他的權(quán)利要么是不現(xiàn)實(shí)的,要么是多余的。所謂“基于功能約束的自由權(quán)”,更多是指向機(jī)器人在產(chǎn)品意義上所能發(fā)揮的功能——機(jī)動性,它怎么可能成為一項(xiàng)獨(dú)立存在的權(quán)利呢?根本沒有必要把這種產(chǎn)品意義上的機(jī)動性上升到權(quán)利的高度,只要此種機(jī)動性不致對人類構(gòu)成顯著的或無法控制的危險(xiǎn),立法者完全可允許機(jī)器人發(fā)揮其機(jī)動性。至于“獲得法律救濟(jì)的權(quán)利”完全可在機(jī)器人作為“物”的情形下給予權(quán)利主體——所有者或使用人——相應(yīng)的救濟(jì)即可,而非一定要把機(jī)器人視為法律主體方可為之。

(二)機(jī)器人履行義務(wù)/承擔(dān)責(zé)任的非現(xiàn)實(shí)性

正如我們所知,不存在純粹的權(quán)利或義務(wù),任何主體享有權(quán)利的同時(shí)也應(yīng)負(fù)擔(dān)義務(wù)。換言之,對于一個(gè)完全自主的法律主體而言,其不僅有“能力”意識到自己行為的意義,而且能對其行為負(fù)責(zé)。因?yàn)椋绻粋€(gè)人在社群中與其他人共存,就應(yīng)以負(fù)責(zé)任的態(tài)度與社群中的其他成員進(jìn)行互動,承認(rèn)彼此的權(quán)利且須為侵犯這一權(quán)利而承擔(dān)相應(yīng)的責(zé)任。那么,具有類似于人類自主性的智能機(jī)器人擁有這樣的“能力”嗎?不可否認(rèn),機(jī)器人若能為其行為負(fù)責(zé),那么確有必要重新審視現(xiàn)有的法律人格之概念并對現(xiàn)有法律體系是否足以適應(yīng)新的法律現(xiàn)實(shí)進(jìn)行評估。但問題是,機(jī)器人具有履行義務(wù)/承擔(dān)責(zé)任的能力嗎?或者說,它們能夠擁有財(cái)產(chǎn)進(jìn)而具備履行義務(wù)/承擔(dān)責(zé)任的物質(zhì)基礎(chǔ)嗎?如果可以,那么它們擁有或占有財(cái)產(chǎn)的表征方式是什么?如果不能,賦予它們法律人格還有意義嗎?

一般認(rèn)為,公司等非“人”實(shí)體獲得人格不在于它們的倫理性,很大程度上是因它們財(cái)產(chǎn)與責(zé)任的獨(dú)立性。鑒于此,有論者提出可通過法律擬制讓人工智能系統(tǒng)像公司那樣,不僅能擁有財(cái)產(chǎn)而且還可作為被告應(yīng)訴,自己承擔(dān)責(zé)任。果真如此,那么機(jī)器人的生產(chǎn)者(包括設(shè)計(jì)者、編程者等當(dāng)事人,下同)、所有者或使用人(下稱“用戶”)自然無須再為機(jī)器人的行為承擔(dān)責(zé)任了,除非他們“出資”不足或其他原因需“刺破人工智能面紗”。可問題是,誰負(fù)責(zé)“出資”以構(gòu)成機(jī)器人的財(cái)產(chǎn)與責(zé)任基礎(chǔ)?需要設(shè)定最低的財(cái)產(chǎn)額度嗎?“出資”人是否以出資額為限承擔(dān)有限責(zé)任?即便不考慮立法技術(shù)上的挑戰(zhàn),僅從生產(chǎn)者或用戶的立場看,這也是不現(xiàn)實(shí)的。因?yàn)橐笏麄兟男小俺鲑Y”義務(wù)勢必增加他們的經(jīng)濟(jì)成本,而且也不具操作性。如此做法既不經(jīng)濟(jì)也不方便,看似解決了機(jī)器人責(zé)任承擔(dān)問題,實(shí)則徒增各方負(fù)擔(dān),包括立法上的成本。額外的成本負(fù)擔(dān)不僅會打擊人工智能開發(fā)者的創(chuàng)新熱情,而且也將澆滅用戶使用人工智能的興趣,沒有市場需求的支撐,人工智能技術(shù)的開發(fā)者自然就會失去技術(shù)創(chuàng)新的動力。進(jìn)一步而言,如果機(jī)器人真的具有了權(quán)利意識而且具備了承擔(dān)責(zé)任的基礎(chǔ),那么這對“人”而言到底是禍?zhǔn)歉??人類?zhǔn)備好接受一個(gè)擁有法律人格且具有公司無法比擬的自主性的新角色了嗎?

從刑事責(zé)任能力的角度觀察,認(rèn)為機(jī)器人能為其自主“行為”負(fù)責(zé)更是不可能。較之于公司,絕大多數(shù)機(jī)器人因具有相應(yīng)的物理形態(tài)從而顯得比公司更實(shí)在,加之有人工智能技術(shù)的支撐,它們也都具有一定的意志能力。有學(xué)者據(jù)此認(rèn)為,“智能機(jī)器人的意志自由程度比單位更強(qiáng)”,它們“完全可能脫離人類產(chǎn)生獨(dú)立的意志。對于人類來說,智能機(jī)器人是人類模擬自身神經(jīng)網(wǎng)絡(luò)創(chuàng)造出來的事物,比世界上任何事物更類似于人,刑法應(yīng)當(dāng)尊重其自由意志,適時(shí)考慮賦予其法律上的主體資格”;而且,唯有“將其作為行為主體與社會成員看待,有罪必罰,并經(jīng)由刑事訴訟程序進(jìn)行法律上的審判,才能在智能機(jī)器人的‘大腦’中建立價(jià)值體系,植入人類文明,使其自覺遵守并維護(hù)社會秩序,從而實(shí)現(xiàn)‘人工人’向‘社會人’的轉(zhuǎn)變”。筆者以為,賦予機(jī)器人刑事責(zé)任主體地位的構(gòu)想顯然是天方夜譚。

首先,如上文所言,機(jī)器人很難對善惡、好壞進(jìn)行道德判斷,既無力在是非、對錯(cuò)之間進(jìn)行抉擇,也不可能理解法律禁止的以及法律允許的行為的真正意涵。其次,較之于智能機(jī)器人越來越高的自主性,公司的意志很大程度上仍是“人”的意志,它們在本質(zhì)上仍是虛擬的主體,其背后的“人”才是真正的主宰者。因此,公司犯罪時(shí),除可處以罰金外,立法者還把刑事責(zé)任延伸至其背后的“人”。就此而言,對公司的懲罰實(shí)質(zhì)上是對其背后“人”的懲罰,這不僅使懲罰公司成為可能,而且能防止公司自身產(chǎn)生不可控風(fēng)險(xiǎn)。相反,當(dāng)機(jī)器人意志自由程度等同甚或超越“人”或公司的意志時(shí),那么此種失控物可能會對人類利益造成損害甚至威脅到“人”的主體地位。最后,如果承認(rèn)機(jī)器人具有刑事責(zé)任能力或主體地位,那么自然可對其錯(cuò)誤行為處以罰金或徒刑甚至直接將其銷毀。但問題是,此等刑罰是否有意義?且不說機(jī)器人能否像公司那樣因擁有獨(dú)立的財(cái)產(chǎn)從而可對其處以罰金,單就對機(jī)器人能否處以徒刑而言就是個(gè)極大疑問。能讓機(jī)器人因失去自由而感到痛苦并因此痛改前非嗎?經(jīng)由審判或道德譴責(zé),它們會對自己的錯(cuò)誤行為感到羞愧嗎?通常,對被告人處以刑罰意味著這些主體要承受社會、心理乃至身體上的不利后果??墒?,所有這些對無法成為道德主體的機(jī)器人而言是毫無意義的。此時(shí),刑法的懲罰與矯正功能如何實(shí)現(xiàn)?除非機(jī)器人與其生產(chǎn)者或用戶的關(guān)系如同公司與其實(shí)際控制人之關(guān)系,否則,法院難以對機(jī)器人錯(cuò)誤“行為”施以有效制裁。如果不能對機(jī)器人的錯(cuò)誤選擇與行動施加有效的刑事制裁,那么就更不用說讓其他機(jī)器人“感知”并“意識”到它們未來作出相同或類似錯(cuò)誤“行為”的風(fēng)險(xiǎn)所在了,而這恰恰關(guān)系到刑法威懾功能對機(jī)器人“種群”的實(shí)際效用。總之,機(jī)器人不可能具有所謂的“感知刑罰痛苦的能力”,更不可能在“犯罪的‘快感’與刑罰的‘痛感’之間進(jìn)行理性權(quán)衡”。機(jī)器人真若有此“能力”,那么立法者不僅不應(yīng)承認(rèn)它們的自由意志,還應(yīng)毫不猶豫地阻絕這一技術(shù)發(fā)展趨勢。很難想象,人類如何與“社會化”的機(jī)器人相處!

既然難以像法人等非“人”主體那樣具備責(zé)任能力,那么可否退一步,賦予機(jī)器人類似于人類嬰孩般的法律地位?正如我們所知,即便是尚不具備完全意志能力的未成年人或暫時(shí)喪失自由意志的精神病人以及醫(yī)學(xué)上的植物人仍都具有法律人格。承認(rèn)這些特殊主體具有法律人格的根本原因在于:他們是“我們中的一員”,雖然認(rèn)知能力存在不足或障礙,但并不妨礙他們與認(rèn)知能力正常的人一樣享有尊嚴(yán)并獲得尊重,而且,他們都具有培養(yǎng)完全人格的潛力??傊?,人類的這些特殊成員享有“不同但卻平等”的人格。然而,機(jī)器人不可能也不應(yīng)該獲得這般地位。首先,較之于人類上述特殊成員,機(jī)器人不可能具有培養(yǎng)完全人格的潛力,即便機(jī)器人未來在強(qiáng)人工智能技術(shù)支撐下具有或超過人類普通成員那般的認(rèn)知能力,其作為手段或工具而存在的本質(zhì)規(guī)定性也不可能逆轉(zhuǎn)。更重要的是,認(rèn)知能力狀態(tài)雖對“人”享有何種權(quán)利、承擔(dān)何種責(zé)任具有決定性影響,但對其是否具有法律上承認(rèn)的人格卻幾乎不起作用,法律人格與法律權(quán)利的基礎(chǔ)更多在于人性而非認(rèn)知能力。否則,不僅可把法律人格授予機(jī)器人,甚至也可讓黑猩猩等“聰明”的動物享有人格,因?yàn)樗鼈兊淖灾餍曰蛘J(rèn)知能力有時(shí)比上述人類特殊成員健全。顯然,這種邏輯站不住腳,而且將貶損人類尤其是那些處于弱勢地位的人類成員的尊嚴(yán)。其次,如果把機(jī)器人視為民法上的未成年人,那么機(jī)器人可能就得接受民法上對未成年人行為能力的區(qū)分與限制。隨之而來的問題,如何區(qū)隔機(jī)器人的行為“能力”?它們將如何自主地為或不為一定的行為?解決這些問題必將帶來高昂的立法成本。

或因意識到以法律人格或主體地位為前提建構(gòu)責(zé)任框架的非現(xiàn)實(shí)性,所以,“法律人格論”者在論證機(jī)器人等人工智能系統(tǒng)如何承擔(dān)責(zé)任時(shí),又不自覺地回到傳統(tǒng)的法律體系中尋求答案而非站在授予機(jī)器人法律人格之立場來構(gòu)建其責(zé)任框架。例如,建議通過強(qiáng)化產(chǎn)品責(zé)任、要求機(jī)器人生產(chǎn)者或用戶承擔(dān)嚴(yán)格責(zé)任。不難看出,這些論者弱化甚至是放棄了圍繞法律人格來構(gòu)建機(jī)器人民事責(zé)任框架的努力,他們把本應(yīng)能獨(dú)立承擔(dān)責(zé)任的法律人格之假定與非人格范疇的產(chǎn)品責(zé)任糅合在一起,從而導(dǎo)致論證上的邏輯不自洽。因?yàn)椋m用產(chǎn)品責(zé)任的邏輯前提是把機(jī)器人視為“物”,責(zé)任承擔(dān)者自然是生產(chǎn)者等法律主體而非產(chǎn)品本身,但如果將機(jī)器人視為主體,無論它們的人格是有限的還是完全的,都不可能再落入“物”或客體的范疇。既然站在“物”的立場來構(gòu)建機(jī)器人的責(zé)任框架,還有什么必要授予機(jī)器人法律人格或主體地位呢? 不可否認(rèn),許可與產(chǎn)品責(zé)任等既有監(jiān)管與責(zé)任框架適用于機(jī)器人時(shí)存在不充分性,也有必要對現(xiàn)有框架予以優(yōu)化以應(yīng)對人工智能產(chǎn)品責(zé)任風(fēng)險(xiǎn)與挑戰(zhàn),但這并不代表要建構(gòu)一個(gè)以主體為前提的責(zé)任體系。

綜上,機(jī)器人或能具有一定的自主性以及與環(huán)境進(jìn)行交互的能力,但在根本上,它們不可能具備人類那般的理性,缺乏像“人”那樣的自我意識、辯證思考。況且,某種程度上,人格還與某一實(shí)體為自身制定目標(biāo)以及實(shí)現(xiàn)這一目標(biāo)的能力緊密相連,而機(jī)器人尚不具備這種能力。即便這些人工智能實(shí)體具有某種“目標(biāo)”,頂多也是為實(shí)現(xiàn)生產(chǎn)者或用戶的目標(biāo)而衍生出來的,且它們根本不“關(guān)心”這一目標(biāo)能否實(shí)現(xiàn)。機(jī)器人能否具備公平和公正的價(jià)值觀更是值得懷疑。通常,只有“人”具備公平和公正的意識,才能真正地理解權(quán)利與責(zé)任的意涵。確實(shí),人類通過編程可使機(jī)器人“符合”規(guī)則,但絕非“遵守”規(guī)則,因?yàn)閷σ?guī)則的“遵守”預(yù)設(shè)了人們對規(guī)則意涵的理解,但機(jī)器人并沒有這種理解能力。正如霍斯特·艾丹米勒所言:“某一特定社會的法律以及賦予該特定社會成員的權(quán)利義務(wù)是‘人類境況’的表達(dá)。法律……反映了我們認(rèn)為處于人類核心的東西,以及處于核心的人何以為人的意義……如果將法律人格賦予機(jī)器……讓它們有權(quán)取得財(cái)產(chǎn)、訂立合同,這簡直會使這個(gè)世界非人化”。總之,在促進(jìn)科技進(jìn)步的同時(shí),更應(yīng)確?!叭恕钡闹黧w地位、自由和人格尊嚴(yán)不受侵害,樹立對尊重自然人人格的民法底線。說到底,機(jī)器人仍在民法“物”的范疇之內(nèi),雖具備了部分類似于“人”的功能或行為,本質(zhì)上仍是“物”之屬性的產(chǎn)品,它們的所謂“智能”體現(xiàn)的仍是人類技術(shù)能力本身。畢竟,人工智能技術(shù)的根本出發(fā)點(diǎn)在于:提高技術(shù)工具為人類預(yù)設(shè)目標(biāo)服務(wù)的能力而非令其成為“我們”當(dāng)中的一員。如果說人工智能技術(shù)使機(jī)器實(shí)體具備了某些道德的或法律的能力,那么充其量也只是它們提高了服務(wù)人類生產(chǎn)、生活的能力,而不能把這樣的智能表現(xiàn)理解為構(gòu)成了主體資格的一般要件??傊?,人工智能技術(shù)催生的機(jī)器自主決策無法等同于社會規(guī)范中智能機(jī)器人的“主體性”。至于“法律人格論”者擔(dān)心的機(jī)器人“責(zé)任歸責(zé)之困局”,完全可通過將這些人工智能體界定為產(chǎn)品加以解決,在法律上為機(jī)器人行為負(fù)責(zé)的總是人類自身。

三、產(chǎn)品視角下機(jī)器人的“行為”責(zé)任

(一)機(jī)器人致害“行為”的歸責(zé)難題

如上文所言,將機(jī)器人定位為民法上的“物”且將其視為產(chǎn)品并據(jù)以確定其民事責(zé)任應(yīng)是更現(xiàn)實(shí)的選擇。一旦將機(jī)器人視為產(chǎn)品或人類生活的一種工具,那么,當(dāng)需對其法律或道德上的責(zé)任進(jìn)行評價(jià)時(shí),焦點(diǎn)自然應(yīng)將轉(zhuǎn)向制造或使用它的當(dāng)事人。

類型上,智能機(jī)器人引發(fā)致害事故無非兩種情形:一是由警示缺陷(未充分警示消費(fèi)者如何使用產(chǎn)品或應(yīng)予注意的風(fēng)險(xiǎn))、設(shè)計(jì)缺陷(產(chǎn)品的可預(yù)見風(fēng)險(xiǎn)本可通過合理的替代設(shè)計(jì)而被避免或被降低)、制造缺陷(產(chǎn)品偏離了設(shè)計(jì)意圖、未根據(jù)既有規(guī)格進(jìn)行生產(chǎn))造成的,用戶未盡合理注意義務(wù)亦可能產(chǎn)生致害事故;二是機(jī)器人自主決策模式下的致害行為,即致害事故不是由警示缺陷、制造缺陷或設(shè)計(jì)缺陷等產(chǎn)品缺陷以及用戶未盡合理注意義務(wù)引起的,而是機(jī)器人基于自我學(xué)習(xí)所帶來的意外副產(chǎn)品。

第一種情形下,鑒于與機(jī)器人有關(guān)的責(zé)任都是人為錯(cuò)誤的結(jié)果,因此,自可適用現(xiàn)有產(chǎn)品責(zé)任與侵權(quán)責(zé)任框架,要求生產(chǎn)者承擔(dān)產(chǎn)品責(zé)任或由用戶承擔(dān)侵權(quán)責(zé)任。產(chǎn)品責(zé)任在法律屬性上屬無過錯(cuò)的嚴(yán)格責(zé)任,它要求當(dāng)事人應(yīng)盡最大努力阻止傷害。這是立法者強(qiáng)行分配的一種責(zé)任承擔(dān)形式,免除了受害人對責(zé)任方是否存在過錯(cuò)的證明責(zé)任,受害人僅需證明產(chǎn)品存在缺陷且缺陷與損害之間存在因果關(guān)系即可,生產(chǎn)者是否采取適當(dāng)?shù)拇胧┗蚴欠翊嬗羞^錯(cuò)在所不問。理由在于:責(zé)任方往往獲利最多并控制著設(shè)計(jì)生產(chǎn)過程,且大多數(shù)情況下的損害是由“錯(cuò)誤”導(dǎo)致的。本質(zhì)上,產(chǎn)品缺陷系因設(shè)計(jì)生產(chǎn)者對可預(yù)見風(fēng)險(xiǎn)的疏忽而產(chǎn)生,這種過錯(cuò)自然構(gòu)成他們承擔(dān)嚴(yán)格責(zé)任的正當(dāng)基礎(chǔ)。這也意味著,若產(chǎn)品缺陷及其導(dǎo)致的損害是可以證明的,那么,責(zé)任歸屬不會因機(jī)器人而產(chǎn)生額外問題。只是人工智能時(shí)代受害人或?qū)⒚媾R如下挑戰(zhàn):機(jī)器人所依賴的“算法”越復(fù)雜,受害人就越難證明其中的特定錯(cuò)誤以及錯(cuò)誤與損害之間的因果關(guān)系,因?yàn)椤八惴ā睂ζ胀ㄈ硕跃褪且粋€(gè)“黑箱”,要求他們破解算法黑箱或證明存在合理的替代設(shè)計(jì),難度可想而知!有時(shí)甚至連技術(shù)創(chuàng)新者都無法解釋致害事故的真正原因,更不用說讓受害人去破解機(jī)器人的算法黑箱進(jìn)而證明機(jī)器人是否存在缺陷以及該缺陷與損害之間的因果關(guān)系!此外,生產(chǎn)者利用責(zé)任豁免條款——產(chǎn)品投入流通時(shí)引起損害的缺陷尚不存在或當(dāng)時(shí)的科技水平尚不能發(fā)現(xiàn)缺陷存在——進(jìn)行抗辯更將增加受害人的證明難度。

第二種情形下的歸責(zé)問題更具挑戰(zhàn)性。具有一定自主性與學(xué)習(xí)能力是智能機(jī)器人最突出特征之一,但也導(dǎo)致了可預(yù)見性難題。因?yàn)樗鼈冊诒举|(zhì)上并不受提前預(yù)置的概念、經(jīng)驗(yàn)法則、傳統(tǒng)智慧等要素的限制,而人類則需依靠這些要素才能進(jìn)行決策,這意味著智能機(jī)器人可能做出人類無法預(yù)見的行為。雖然此種情形目前仍限于較小范圍,但隨著機(jī)器“學(xué)習(xí)”能力的增強(qiáng),越發(fā)自主的機(jī)器人的應(yīng)用范圍將更加廣泛,從而帶來棘手的歸責(zé)難題,包括過錯(cuò)認(rèn)定與責(zé)任分配。如果說上述第一種情形下,缺陷以及缺陷與損害之間的因果關(guān)系尚有可能證成,那么第二種情形下,甚至連機(jī)器人本身是否存在缺陷都是一個(gè)極大的疑問。例如,完全自主的無人駕駛汽車根據(jù)自我學(xué)習(xí)而自行做出的行為以及它與其他智能駕駛車輛或其所處環(huán)境進(jìn)行互動與協(xié)調(diào)而作出的行為所導(dǎo)致的致害事故就會使損害賠償趨向復(fù)雜化。此時(shí),要求受害人根據(jù)既有責(zé)任框架證明導(dǎo)致其受損的原因或產(chǎn)品存在缺陷就存在極大困難。鑒于這些自主行為往往是機(jī)器學(xué)習(xí)的結(jié)果,因此,即使是最謹(jǐn)慎的生產(chǎn)者恐怕也難以預(yù)見那些已具備了與現(xiàn)實(shí)世界互動能力的智能機(jī)器人所導(dǎo)致的風(fēng)險(xiǎn),不管這種結(jié)果是否是設(shè)計(jì)生產(chǎn)者本身所期望的,它都將給現(xiàn)有責(zé)任框架帶來挑戰(zhàn)。一方面,在技術(shù)層面上,機(jī)器人根據(jù)自身經(jīng)歷而做出的自主行為及其風(fēng)險(xiǎn)已非生產(chǎn)者所能預(yù)見或控制,而在現(xiàn)有產(chǎn)品責(zé)任框架中,他們僅對可預(yù)見性風(fēng)險(xiǎn)負(fù)有警示義務(wù)或合理注意義務(wù)。此種情形下,機(jī)器人的生產(chǎn)者或用戶能否以機(jī)器人自主行為不受其控制而請求豁免承擔(dān)責(zé)任?傳統(tǒng)侵權(quán)責(zé)任歸責(zé)時(shí)慣常適用的因果關(guān)系鏈條是否會因高機(jī)器人的高度自主行為而被打破?畢竟,普遍接受的觀點(diǎn)是,要求一個(gè)人為他無法控制的人所犯下的錯(cuò)誤行為負(fù)責(zé)是不公平、不公正的。另一方面,若豁免機(jī)器人的生產(chǎn)者等當(dāng)事人此種情形下的責(zé)任,又該如何向受害人提供救濟(jì)?為沒有過錯(cuò)但遭受損害的個(gè)體提供救濟(jì)本就是一項(xiàng)重要的價(jià)值,因此,讓個(gè)體承擔(dān)損失尤其是在因果關(guān)系無法解釋的情形下要求其自行承擔(dān)損失顯然是與公平、分配正義以及風(fēng)險(xiǎn)分擔(dān)等基本的社會觀念相悖的。

對此,最需解決的問題是,當(dāng)“不得傷害人類或以不作為之方式放任人類被傷害”這一律法已被植入機(jī)器人“思維”系統(tǒng)之中,且有證據(jù)表明機(jī)器人是因自己的學(xué)習(xí)能力而違反了這一律法時(shí),是否仍可要求生產(chǎn)者承擔(dān)責(zé)任?真若如此,或意味著他們在任何事情出錯(cuò)時(shí)都可能要承擔(dān)責(zé)任!此時(shí),生產(chǎn)者等當(dāng)事方承擔(dān)責(zé)任的依據(jù)是什么?是否可因他們處于更有利的經(jīng)濟(jì)地位從而要求他們承擔(dān)責(zé)任?或者,機(jī)器人的每個(gè)“錯(cuò)誤”是否都是法律意義上的缺陷造成的? 一般認(rèn)為,具有自適應(yīng)性與自我學(xué)習(xí)能力的機(jī)器人可自由地與人類或周圍環(huán)境互動,它們能以不可預(yù)知的方式對新感知到的信息做出反應(yīng)。鑒于此,若機(jī)器人的自主行為對第三方造成損害,那么將很難認(rèn)定機(jī)器人存在法律意義上的缺陷,因?yàn)樗隽藨?yīng)該做的:對新輸入的信息(變量)做出反應(yīng)并調(diào)整自己的行為。然而,侵權(quán)法的一般原則是,非因自己過錯(cuò)而遭受損害的一方不應(yīng)自行承擔(dān)損害成本。一旦機(jī)器人的自主行為致使他人受到損害,自然應(yīng)有人為此負(fù)責(zé)。問題是,誰該為此負(fù)責(zé)?唯一可行的方案似乎是推導(dǎo)出某種新的理論,即機(jī)器人自主行為導(dǎo)致的事故本身就是缺陷的證明。而且,鑒于機(jī)器人的自主行為以及它們在現(xiàn)有產(chǎn)品意義上的缺陷均能致害,因此,除非將機(jī)器人自主行為本身視為“缺陷”,否則,很難劃分兩者之間的界限。如果這是正確的選擇,那么,隨之而來的問題是,法律應(yīng)該如何在智能機(jī)器人的設(shè)計(jì)者、編程者、生產(chǎn)者以及其他參與方之間分配責(zé)任?換言之,如果一個(gè)真正的自主機(jī)器的行為被認(rèn)為是造成某種損害的主要原因,那么,在何種程度上要求生產(chǎn)者等當(dāng)事人承擔(dān)責(zé)任才是公平合理的?

另外,機(jī)器人的生產(chǎn)者與用戶間的責(zé)任分配也是亟待解決的法律難題。一方面,適用嚴(yán)格責(zé)任意味著生產(chǎn)者應(yīng)確保它們生產(chǎn)的機(jī)器人難以被用戶重置,或確保它們不遵從危險(xiǎn)性指令,包括將旨在阻止機(jī)器人傷害人類或其財(cái)產(chǎn)安全的措施嵌入產(chǎn)品之中,唯有如此才有可能限制或免除自己的責(zé)任;另一方面,若完全豁免終端用戶責(zé)任,則可能錯(cuò)誤地激勵(lì)他們不當(dāng)使用機(jī)器人并因此導(dǎo)致第三人人身或財(cái)產(chǎn)受到侵害??梢?,控制終端用戶行為層面上的過錯(cuò)也是有效責(zé)任機(jī)制的重要組成部分。只是,如此一來,終端用戶在傳統(tǒng)侵權(quán)法框架下的合理注意義務(wù)或?qū)⒀又列枰皶r(shí)了解人工智能系統(tǒng)是否失靈之情形,而且在某種程度上還應(yīng)知道如何處理以避免損及他人人身或財(cái)產(chǎn)。當(dāng)然,終端用戶履行這些義務(wù)離不開生產(chǎn)者等前端當(dāng)事人警示義務(wù)的適當(dāng)履行,兩者密切關(guān)聯(lián)。即便如此,這也可能加重終端用戶的合理注意義務(wù)。終端用戶責(zé)任風(fēng)險(xiǎn)的增加勢將降低他們購買或使用人工智能產(chǎn)品的意愿,這種不利影響最終將傳導(dǎo)至生產(chǎn)者并致使后者因沒有市場需求而延緩甚至是放棄技術(shù)創(chuàng)新。可見,在生產(chǎn)者與終端用戶之間分配責(zé)任時(shí)存在著明顯的緊張關(guān)系,因而需要在法律政策上對責(zé)任負(fù)擔(dān)做出合理安排。

(二)作為產(chǎn)品的機(jī)器人之民事責(zé)任分配

作為一般原則,智能機(jī)器人的生產(chǎn)者應(yīng)為產(chǎn)品缺陷所致?lián)p害承擔(dān)嚴(yán)格的產(chǎn)品責(zé)任。只是較之于普通產(chǎn)品,智能機(jī)器人具有高度復(fù)雜性,其所依賴的復(fù)雜“算法”或致使被侵權(quán)人難以證明機(jī)器人是否存在缺陷。而且,即便能夠證明,受害人恐怕也得負(fù)擔(dān)高昂的訴訟成本,譬如委托專業(yè)技術(shù)人員對產(chǎn)品缺陷進(jìn)行證明。機(jī)器人脫離人類干預(yù)的自主行為的責(zé)任分配更會讓法院左右為難。因此,作為回應(yīng):

第一,鑒于智能機(jī)器人為或不為一定行為取決于難以被普通人所理解的復(fù)雜“算法”,因此,首先應(yīng)要求生產(chǎn)者等“算法”控制者遵從一套以人為本的倫理或法律準(zhǔn)則,包括將人的保護(hù)置于最優(yōu)先地位且應(yīng)避免“算法”構(gòu)成對不同人群的歧視等;其次,還應(yīng)要求生產(chǎn)者能夠解構(gòu)“算法黑箱”并對依賴該“算法”而實(shí)施的行為或決策負(fù)責(zé)。例如,為方便查明致害原因到底是用戶疏忽、技術(shù)失靈、機(jī)器人自主行為抑或其他外部因素所造成,可要求生產(chǎn)者在機(jī)器人體內(nèi)置入“即時(shí)數(shù)據(jù)記錄儀”,用以記錄機(jī)器人運(yùn)行狀態(tài)及數(shù)據(jù),為事故原因分析、因果關(guān)系證明、責(zé)任的合理分配提供客觀、準(zhǔn)確的證據(jù)支持??傊?,機(jī)器人立法應(yīng)促進(jìn)機(jī)器“算法”的透明度與問責(zé)制,尤應(yīng)要求生產(chǎn)者對智能機(jī)器人的運(yùn)行邏輯進(jìn)行解釋。

第二,鑒于產(chǎn)品標(biāo)準(zhǔn)或規(guī)格通常是證明產(chǎn)品是否存在缺陷的重要依據(jù),因此,未來立法可考慮創(chuàng)設(shè)或指定人工智能監(jiān)管機(jī)構(gòu)并由其負(fù)責(zé)制定機(jī)器人等人工智能產(chǎn)品的國家或行業(yè)技術(shù)標(biāo)準(zhǔn)(包括硬件安全、網(wǎng)絡(luò)安全、公眾知情乃至用戶隱私保護(hù)等方面的具體標(biāo)準(zhǔn)),要求生產(chǎn)者確保機(jī)器人難以被終端用戶重置或確保它們不遵從危險(xiǎn)性指令,包括將旨在阻止機(jī)器人傷害人類或其財(cái)產(chǎn)的安全措施嵌入產(chǎn)品之中、警示用戶何時(shí)應(yīng)進(jìn)行必要的維護(hù)、保養(yǎng)與檢查以及應(yīng)在何種情形下進(jìn)行“人—機(jī)”切換等,不過,無論如何,不應(yīng)不合理地增加終端用戶的注意或監(jiān)督義務(wù),否則將有違人工智能系統(tǒng)是為人類提供某種便利而非提升人類操作水平或消除人為失誤這一設(shè)計(jì)初衷。總之,包括用戶在內(nèi)的社會公眾有權(quán)對機(jī)器人安全性能抱有期待,即機(jī)器人安全等級或標(biāo)準(zhǔn)至少應(yīng)與非人工智能產(chǎn)品持平或在統(tǒng)計(jì)學(xué)意義上比其他非人工智能產(chǎn)品更安全,這也是生產(chǎn)者最低的法律義務(wù)。

第三,鑒于人工智能的高度復(fù)雜性,因此,可將機(jī)器人是否存在缺陷以及該缺陷與損害之間因果關(guān)系的證明責(zé)任分配給生產(chǎn)者。生產(chǎn)者證明產(chǎn)品缺陷存在與否的意義并不在于否定自己的責(zé)任,而是基于如下考慮:(1)若機(jī)器人存在產(chǎn)品缺陷,那么判令導(dǎo)致缺陷的那一方當(dāng)事人最終承擔(dān)責(zé)任自無異議;或當(dāng)(2)致害事故非由產(chǎn)品缺陷或其他人為因素而是機(jī)器人自主行為造成的,那么生產(chǎn)者就應(yīng)成為第一責(zé)任人,但其可要求參與機(jī)器人設(shè)計(jì)、編程、軟件供應(yīng)等環(huán)節(jié)的當(dāng)事人共同擔(dān)責(zé)。因?yàn)?,一方面,一旦機(jī)器人進(jìn)入自主決策模式,用戶即不再控制其運(yùn)行,此種情形下致害事故的最可能原因是智能系統(tǒng)本身的“失靈”而非用戶過錯(cuò),除非用戶實(shí)施了干擾、阻礙等錯(cuò)誤行為,否則要求其承擔(dān)責(zé)任顯然是不公平的;另一方面,就產(chǎn)品責(zé)任而言,現(xiàn)有立法要求生產(chǎn)者先行承擔(dān)責(zé)任;承擔(dān)責(zé)任后,可向有過錯(cuò)的其他責(zé)任方行使追索權(quán),但在機(jī)器人自主決策模式下,先行承擔(dān)責(zé)任者可能于事后無法向其他責(zé)任方進(jìn)行追索,因?yàn)樗麄兯坪醵紵o“過錯(cuò)”。鑒于此,除非生產(chǎn)者處于承擔(dān)損失的最佳地位,否則,由參與智能機(jī)器系統(tǒng)設(shè)計(jì)、制造、維護(hù)等環(huán)節(jié)的所有當(dāng)事人或那些能夠更有效防范或避免損失的當(dāng)事方之間分?jǐn)傌?zé)任才是公平合理的。此種“共同責(zé)任”無須糾結(jié)于應(yīng)把錯(cuò)誤或不法行為的每一個(gè)細(xì)節(jié)歸屬于哪一方,一旦確定了責(zé)任,裁判者即可要求所有參與方共同承擔(dān)責(zé)任——公平均攤責(zé)任或根據(jù)各自所獲利益多寡分?jǐn)傌?zé)任。這有助于解決智能自主機(jī)器對人類造成損害但將過錯(cuò)分配給特定一方是不可能的或不可行時(shí)的歸責(zé)難題。

進(jìn)一步而言,從技術(shù)層面上看,讓機(jī)器人等人工智能系統(tǒng)擁有自主決策能力即便不是設(shè)計(jì)、生產(chǎn)等環(huán)節(jié)當(dāng)事人的直接目的,至少也是他們的間接目的,因?yàn)橹挥羞@樣才能賦予機(jī)器人與周圍環(huán)境進(jìn)行互動的能力。一定程度上,這是該等當(dāng)事人期望發(fā)生的,更是機(jī)器人高度智能的體現(xiàn)??梢?,機(jī)器人的設(shè)計(jì)生產(chǎn)者對機(jī)器人所謂的不可預(yù)見行為及其風(fēng)險(xiǎn)并非全然不知。至少,他們是在“放任”甚至是“鼓勵(lì)”機(jī)器人做出這樣的自主行為。而且,較之于個(gè)體,商業(yè)組織分散風(fēng)險(xiǎn)與吸收損失的能力更強(qiáng),且它們將通過售賣智能機(jī)器人而獲得不菲的利益。因此,要求這些擁有共同目標(biāo)且都分享了利益的潛在責(zé)任方分?jǐn)倷C(jī)器人自主決策模式下的“行為”責(zé)任自然是公平合理的。更重要的是,如果可預(yù)見的損害成本小于因提供安全保障所花費(fèi)的成本,那么生產(chǎn)者等當(dāng)事人自然更愿承擔(dān)損害成本而非花費(fèi)力氣提供安全保障。因此,唯有增強(qiáng)這些當(dāng)事人的責(zé)任負(fù)擔(dān)才能迫使他們把過錯(cuò)行為的成本內(nèi)部化,確保更負(fù)責(zé)任的設(shè)計(jì),盡力避免損害發(fā)生。不難看出,防止有害行為尤其是讓受害人獲得賠償構(gòu)成了上述“共同責(zé)任”的正當(dāng)基礎(chǔ)。

不可否認(rèn),要求設(shè)計(jì)、編程、生產(chǎn)等環(huán)節(jié)的當(dāng)事人承擔(dān)機(jī)器人自主行為的全部責(zé)任或?qū)⒃黾铀麄兊某杀?,若他們因?zé)任風(fēng)險(xiǎn)而趨于保守,那么很大可能會阻礙人工智能技術(shù)的運(yùn)用或迫使技術(shù)開發(fā)者大幅降低機(jī)器人的功能或運(yùn)行范圍。這種擔(dān)心不無道理,但事實(shí)上,這些當(dāng)事人除可根據(jù)產(chǎn)品定價(jià)等方式轉(zhuǎn)移部分成本外,還將因人工智能系統(tǒng)優(yōu)異的安全性能大幅降低事故率進(jìn)而使其總體責(zé)任成本顯著降低。盡管如此,以下問題仍值得考慮:可否根據(jù)他們在技術(shù)應(yīng)用方面預(yù)見能力的局限性或基于激勵(lì)創(chuàng)新之考慮從而以某種方式減輕他們的責(zé)任?實(shí)際上,要求設(shè)計(jì)、生產(chǎn)等環(huán)節(jié)的當(dāng)事人作為“一個(gè)整體”共同負(fù)擔(dān)機(jī)器人自主決策模式的致害責(zé)任就是對這一問題的部分回應(yīng),至少是避免了某一個(gè)當(dāng)事人承擔(dān)全部責(zé)任,他們可以公平均攤責(zé)任或根據(jù)各自所獲利益的多寡分?jǐn)傌?zé)任。而且,作為對內(nèi)部責(zé)任共擔(dān)機(jī)制的補(bǔ)充或替代,還可考慮建立一種類似于自我保險(xiǎn)的賠償基金,由機(jī)器人設(shè)計(jì)、編程、生產(chǎn)等環(huán)節(jié)的當(dāng)事人根據(jù)產(chǎn)品特性及風(fēng)險(xiǎn)因素共同籌資建立。當(dāng)機(jī)器人非由產(chǎn)品缺陷或人為因素產(chǎn)生致害責(zé)任時(shí),可由共同基金賠償受害人損失。為激勵(lì)技術(shù)創(chuàng)新、降低企業(yè)成本,政府也可考慮向該賠償基金出資。

將保險(xiǎn)安排引入智能機(jī)器人致害事故的責(zé)任框架之中也是一個(gè)值得考慮的方案。鑒于智能機(jī)器人具有一定的自我“感知—思考—行動”能力,因此,如上文所言,把它作為純粹的產(chǎn)品增加了生產(chǎn)者或用戶的不可預(yù)見風(fēng)險(xiǎn)。為此,一個(gè)理性的事前解決方案就是通過保險(xiǎn)安排來分擔(dān)或降低當(dāng)事人的賠付風(fēng)險(xiǎn)。為確保受害人總能獲得部分或全部的損害賠償,同時(shí)也為彰顯產(chǎn)品責(zé)任法的激勵(lì)與矯正功能,可強(qiáng)制要求利害關(guān)系人為機(jī)器人可能的致害風(fēng)險(xiǎn)包括其自主行為致害風(fēng)險(xiǎn)購買保險(xiǎn)。該保險(xiǎn)安排的基本立場是,無論機(jī)器人導(dǎo)致?lián)p害事故時(shí)是否處于自主決策狀態(tài),均應(yīng)確保受害人通過保險(xiǎn)獲得賠償。此外,鑒于技術(shù)革新降低了用戶對保險(xiǎn)產(chǎn)品的需求,加之人工智能產(chǎn)品致害責(zé)任向生產(chǎn)者轉(zhuǎn)移,保險(xiǎn)模式可考慮從傳統(tǒng)的以保護(hù)用戶為中心為其操作失誤風(fēng)險(xiǎn)提供保險(xiǎn)服務(wù)轉(zhuǎn)向以保護(hù)生產(chǎn)者為中心為其智能系統(tǒng)失靈風(fēng)險(xiǎn)提供保險(xiǎn)保障。具體而言,首先,若機(jī)器人發(fā)生致害事故,保險(xiǎn)人將作為第一責(zé)任人負(fù)責(zé)賠償損失,但存在下列情形時(shí)保險(xiǎn)人有權(quán)排除或限制自身賠償責(zé)任:一是被保險(xiǎn)人擅自更改機(jī)器人操作系統(tǒng)引起致害事故;二是被保險(xiǎn)人未根據(jù)保單的要求更新或檢查機(jī)器人操作系統(tǒng)因而引起致害事故。其次,受害人對產(chǎn)生的損害負(fù)有部分或全部責(zé)任時(shí),保險(xiǎn)人的賠償責(zé)任可相應(yīng)減少,于機(jī)器人未投保之情形,應(yīng)投保的當(dāng)事人將成為第一責(zé)任人,保險(xiǎn)人無須承擔(dān)責(zé)任。最后,若最終查明事故系機(jī)器人傳統(tǒng)意義上的產(chǎn)品缺陷所致,則保險(xiǎn)人有權(quán)向生產(chǎn)者行使追索權(quán),非由人為因素引起的機(jī)器人失靈風(fēng)險(xiǎn)仍由保險(xiǎn)人承擔(dān)。

四、結(jié) 語

與科學(xué)技術(shù)的激進(jìn)性相比,法律具有明顯的保守性。但是,面對快速發(fā)展的科學(xué)技術(shù)以及由其塑造的新的社會關(guān)系,立法者或裁判者應(yīng)積極理解新技術(shù),留意它的新風(fēng)險(xiǎn)并在此基礎(chǔ)上作出回應(yīng)。當(dāng)初,克隆技術(shù)一經(jīng)問世同樣引起轟動,包括人們對克隆技術(shù)可能對人類倫理與生活秩序產(chǎn)生強(qiáng)烈沖擊的擔(dān)憂。最后,立法者的底線思維——禁止利用克隆技術(shù)“復(fù)制”另一個(gè)“我”——為這一技術(shù)革命設(shè)定了明確邊界并確保其安全有序地發(fā)展。如今,人工智能技術(shù)的蓬勃發(fā)展使人類立法者再次面臨挑戰(zhàn)——是否允許一個(gè)在法律上作為主體而非客體的“類人”群體存在?筆者認(rèn)為,無論機(jī)器人未來多么智能,它都不可能也不應(yīng)該讓其擁有“人”一樣的自我意識與自身目的,其所發(fā)揮的仍應(yīng)是智慧工具價(jià)值。尤不能忽視的是,“人之主體能力的本質(zhì)與人所創(chuàng)造工具的工作能力表象之間”存在根本區(qū)別,這也是維持人類主體性的必然結(jié)果。而且,如上文所述,機(jī)器人也不同于作為自然人集合體的法人??傊?,作為法律上的客體是智能機(jī)器人存在的合法性與正當(dāng)性基礎(chǔ),以此為前提進(jìn)一步優(yōu)化機(jī)器人的民事責(zé)任框架才是更是現(xiàn)實(shí)的選擇。

玉门市| 芜湖市| 汉阴县| 广元市| 喀喇沁旗| 娱乐| 怀集县| 手游| 婺源县| 台北市| 翼城县| 盐亭县| 北辰区| 栖霞市| 灵宝市| 株洲县| 万安县| 大丰市| 新疆| 碌曲县| 泽普县| 卓尼县| 郑州市| 辽阳县| 武安市| 丽江市| 双峰县| 琼中| 桃源县| 南投县| 深圳市| 平塘县| 吕梁市| 鄱阳县| 和平县| 福泉市| 伊通| 邯郸市| 工布江达县| 大石桥市| 花莲市|