摘 要:本文以《復(fù)仇者聯(lián)盟》為切入點(diǎn),從3個(gè)方面論述了人工智能對我國侵權(quán)法的挑戰(zhàn),首先是人工智能法律主體資格爭議、違法加害行為認(rèn)定困難、因果關(guān)系難以認(rèn)定,其次是現(xiàn)有的人工智能尚不能完全脫離人為操控和指令,人工智能侵權(quán)責(zé)任承擔(dān)方式難以確定。筆者認(rèn)為立法者可以將人工智能本身支付賠償費(fèi)用納入考慮范圍內(nèi),當(dāng)人工智能產(chǎn)品需要承擔(dān)侵權(quán)責(zé)任時(shí),就可以動用這筆錢進(jìn)行理賠。
關(guān)鍵詞:人工智能;侵權(quán)法;沖突及應(yīng)對
近年來大火的《復(fù)仇者聯(lián)盟》以正義與邪惡的斗爭、宇宙大拯救為主要故事框架,借助北歐神話的背景故事,通過古希臘神話的宇宙和歷史理性展示了其獨(dú)特的內(nèi)部元素。例如,影片中不斷學(xué)習(xí)和演變的奧創(chuàng)卻得出了“人類是地球安全的最大威脅”的結(jié)論,進(jìn)而啟動了一項(xiàng)毀滅人類的創(chuàng)新計(jì)劃。結(jié)合當(dāng)今中國社會,隨著新技術(shù)的普及,如何維系人工智能發(fā)展與受害者保護(hù)之間的利益平衡,我國侵權(quán)責(zé)任法需要作出及時(shí)回應(yīng)。
1 人工智能對我國侵權(quán)法的挑戰(zhàn)
1.1 人工智能法律主體資格爭議
學(xué)術(shù)界關(guān)于自動駕駛汽車的法律主體資格有“工具說”“代理說”理論。就“工具說”而言,人工智能是為特定于人類的社會目的而存在的工具。如果沒有現(xiàn)代人的情緒和核心特征,就不需要睡覺。在這種情況下,可以認(rèn)為自己沒有權(quán)利,但是有行動的能力?!按碚f”則指出,人類控制著人工智能的所有行為,但是在這種邏輯下,智能機(jī)器人的行為以及由該行為引起的后果必須由被智能機(jī)器人所代理的人來承擔(dān)。
1.2 違法加害行為認(rèn)定困難
當(dāng)人工智能與行人之間發(fā)生了違法加害行為,有幾種情形,我們可以假設(shè)一下:一是人工智能不懂得行為是否符合法律,也不懂得遵守法律。當(dāng)然,人工智能是具有一定的程序性的,因此這種情況相對較小,懂得如何遵守其任務(wù)法律規(guī)則使其存在的必要守則。并且,人工智能的危害還有其他原因。換句話說,這是人工智能技術(shù)本身存在的問題,最源頭的人工智能生產(chǎn)過程中存在的問題。人工智能銷售過程中出現(xiàn)的問題是,即使人工操縱和不適當(dāng)?shù)拿?,人工智能也會造成不同程度的傷害行為。其二,具備完全行為的自然人不遵守法律。在這種情況下,人工智能僅僅依靠本身的邏輯性會很難作出正確的選擇。
1.3 因果關(guān)系難以認(rèn)定
如何建立因果關(guān)系本質(zhì)上是侵權(quán)責(zé)任的復(fù)雜部分,極易出現(xiàn)紕漏,使原本毫無因果關(guān)系的侵權(quán)行為及后果認(rèn)定為具有因果關(guān)系,將實(shí)際具有因果關(guān)系的侵權(quán)行為及后果認(rèn)定為沒有關(guān)系。此外,由于人工智能有其特殊的深度學(xué)習(xí)能力和適應(yīng)能力,“后天”累積的經(jīng)驗(yàn)或許成為導(dǎo)致程序本身超過設(shè)計(jì)的規(guī)則而做出侵權(quán)行為的緣由。因?yàn)榻?jīng)驗(yàn)很大程度上決定了自我深度學(xué)習(xí)的人工智能系統(tǒng)的行為,無論設(shè)計(jì)師或制造商多么謹(jǐn)慎,他們都無法控制或體驗(yàn)對未來人工智能系統(tǒng)的期望。以自動駕駛車輛與普通行人之間的交通事故為例,自動駕駛車輛撞上行人的情況,自動駕駛車輛的行為和行人損害之間是否存在因果關(guān)系?筆者認(rèn)為有必要在責(zé)任的確立關(guān)系上確立因果關(guān)系,以保護(hù)受害者為目的,自動駕駛汽車的技術(shù)問題和駕駛員的不當(dāng)行為都與行人的受傷害程度有必然的關(guān)系。
2 人工智能侵權(quán)責(zé)任承擔(dān)方式
現(xiàn)有的人工智能尚且不能完全脫離人為操控和指令,在遇到自身無法處理的難題時(shí),系統(tǒng)可請求操控員指令。那么侵權(quán)情形可繼續(xù)細(xì)分為以下3種:一是倘若系統(tǒng)發(fā)出相應(yīng)請求之后,操控員未及時(shí)響應(yīng),這種情形下車輛產(chǎn)生侵權(quán)責(zé)任,操控員也須對自己的行為負(fù)起應(yīng)盡的責(zé)任。二是當(dāng)系統(tǒng)發(fā)出相應(yīng)的請求時(shí),操作員會及時(shí)作出響應(yīng)并進(jìn)行干預(yù)。此時(shí),人工智能完全由駕駛員接管,因此接管后駕駛員的責(zé)任可能受現(xiàn)行侵權(quán)法的約束。三是倘若系統(tǒng)對相應(yīng)系統(tǒng)請求未作出反應(yīng),駕駛員就沒有接管的必要,但此時(shí)發(fā)生的侵權(quán)責(zé)任應(yīng)由誰來承擔(dān)?中國《產(chǎn)品質(zhì)量法》第四十一條第一款明文規(guī)定:“生產(chǎn)者應(yīng)對除個(gè)人或有缺陷的產(chǎn)品以及其他產(chǎn)品缺陷引起的損害負(fù)責(zé)?!钡罁?jù)《產(chǎn)品質(zhì)量法》第四十一條第二款之規(guī)(即生產(chǎn)者的免責(zé)條款),這是否屬于“在產(chǎn)品流通于市場時(shí),鑒于現(xiàn)有的科學(xué)和技術(shù)水平上,找不到缺陷的存在”的情形還有待商榷,假如生產(chǎn)者有證據(jù)表明系統(tǒng)作出的指令是屬于投流時(shí)科學(xué)技術(shù)尚不能發(fā)現(xiàn)的缺陷,那么人工智能系統(tǒng)的生產(chǎn)者當(dāng)然免責(zé)。
筆者認(rèn)為立法者可以將人工智能本身支付賠償費(fèi)用納入考慮范圍內(nèi),這并不意味著承認(rèn)人工智能的法律主體資格,或者說應(yīng)該開始給人工智能支付一份工資。例如,可以設(shè)法設(shè)置一種人工智能儲備基金,來支付人工智能可能欠下的結(jié)算或賠償費(fèi)用,包括要求人工智能產(chǎn)品需要購買一定額度的保險(xiǎn)或者對任何購買人工智能產(chǎn)品的人增加一個(gè)責(zé)任附加費(fèi),以開立由政府或行業(yè)保管的儲蓄金,當(dāng)人工智能產(chǎn)品需要承擔(dān)侵權(quán)責(zé)任時(shí),就動用這筆錢進(jìn)行理賠。
參考文獻(xiàn):
[1] 吳漢東.人工智能時(shí)代的制度安排與法律規(guī)制[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2017.
[2] 張保生.法律推理的理論與方法[M].中國政法大學(xué)出版社,2000.
[3] 楊立新,王毅純.機(jī)動車代駕交通事故侵權(quán)責(zé)任研究[J].法學(xué)論壇,2015(4).
[4] 高奇琦,張鵬.論人工智能對未來法律的多方位挑戰(zhàn)[J].華中科技大學(xué)學(xué)報(bào),2018(1).
[5] 司曉,曹建峰.論人工智能的民事責(zé)任:以自動駕駛汽車和智能機(jī)器人為切入點(diǎn)[J].西北政法大學(xué)學(xué)報(bào),2017(5).
[6] 孫濤.人工智能載體侵權(quán)責(zé)任研究[D].上海師范大學(xué),2019.
作者簡介:周新艷(1994—),女,重慶永川人,2017級民商法碩士研究生,研究方向:民商法學(xué)。