王新創(chuàng)
(常州大學史良法學院,江蘇 常州 213159)
人工智能、基因工程、納米技術(shù)被稱為21世紀三大尖端科技,作為人工智能的杰出代表自動駕駛已經(jīng)從科幻小說走到社會現(xiàn)實。各種各樣的自動駕駛汽車涌入汽車市場,新技術(shù)進入人們視野時,風險也悄然降臨。2017年11月8日,美國拉斯維加斯,法國公司Navya制造的無人駕駛巴士在獲準上路的第一天就與一輛人力駕駛的貨運卡車相撞。2018年3月18日晚,美國亞利桑那州一名女子被Uber自動駕駛汽車撞傷,之后不幸身亡?,F(xiàn)實的殘酷讓人們驚覺,自動駕駛技術(shù)并沒有想象中那么美好。自動駕駛是一項新的技術(shù),突破了現(xiàn)行的法律所能輻射的范圍,此時再用傳統(tǒng)的理論來應(yīng)對新技術(shù)顯得不合時宜。自動駕駛系統(tǒng)取代了傳統(tǒng)的人類駕駛者,那么在行車過程中產(chǎn)生侵權(quán)問題該由誰來承擔責任?對此,法律并沒有明文規(guī)定,全國兩會上,已經(jīng)有代表委員提出要加快自動駕駛相關(guān)立法工作,解決主體識別、責任厘定問題,為整個自動駕駛汽車產(chǎn)業(yè)發(fā)展提供制度保障。[1]
綜上所述,自動駕駛侵權(quán)的責任主體識別及其責任構(gòu)造成為一個亟待解決的問題。
德國修改了《道路交通安全法》,修訂案積極回應(yīng)了駕駛員與智能系統(tǒng)的權(quán)利與責任劃分的問題。[2]但是法律規(guī)定存在問題,一是法律只是涉及高度自動駕駛和完全自動駕駛,并且規(guī)定了駕駛員的注意義務(wù)和接管義務(wù)。完全自動駕駛階段,駕駛系統(tǒng)已經(jīng)可以代替駕駛員的所有行為,那么規(guī)定駕駛員的注意義務(wù)還有什么意義?二是德國新修訂的第八條加大對受害人的保護力度,但是責任主體并沒有改變,依然是駕駛者和所有人的責任,這與責任本質(zhì)不相符。自動駕駛系統(tǒng)承擔了駕駛?cè)蝿?wù),有注意義務(wù),出現(xiàn)交通事故,卻并不承擔賠償責任。這顯然與有行為有責任不符,不利于法律的公平正義。這會導(dǎo)致駕駛者不信任自動駕駛系統(tǒng),為了盡量避免這種狀況,他們會選擇自己駕駛,這與自動駕駛汽車設(shè)計的初衷完全相悖,是自動駕駛汽車發(fā)展的倒退。在聽證會上,有反對聲音認為成熟的自動駕駛時代,不應(yīng)該由駕駛員承擔責任,駕駛系統(tǒng)控制汽車,應(yīng)該由生產(chǎn)者承擔責任。
理論學界,自動駕駛汽車侵權(quán),其責任主體識別的問題大概有以下幾種代表性的觀點:有學者認為人工智能具有有限的人格,自動駕駛系統(tǒng)可以成為責任承擔主體。[3]具體可以通過賦予自動駕駛系統(tǒng)法律人格,讓自動駕駛汽車作為責任主體承擔侵權(quán)責任。2016年,美國交通安全管理局承認自動駕駛系統(tǒng)駕駛員的身份。2016年,歐盟法律委員會一項議案,賦予強人工智能“電子人”身份。[4]另外一種觀點則截然相反,主張他們適用現(xiàn)有的交通事故處理規(guī)則,由駕駛者承擔責任?,F(xiàn)實中發(fā)生的道路交通事故,大多是駕駛者過錯導(dǎo)致的。因此,自動駕駛時代,讓駕駛者承擔責任變成自然而然的選項。[5]日本學者藤田友敬認為,雖然是自動駕駛汽車,但是使用人仍享有運行利益,對目的地和何時出發(fā)享有支配力,因此讓使用人承擔侵權(quán)責任也有一定道理。[6]
我們可以通過借鑒他國立法經(jīng)驗或者學說觀點來解決我國自動駕駛責任主體識別的問題。
全自動駕駛時代,讓人類駕駛者作為責任主體不符合一般認知,不利于社會穩(wěn)定和發(fā)展。因此,我們可以嘗試其他解決之道,由生產(chǎn)者或者由自動駕駛汽車作為責任主體承擔損害賠償責任。兩種都是切實可行的,具體需要立法者根據(jù)社會現(xiàn)實的發(fā)展狀況進行價值判斷,最后采取其中一種。
生產(chǎn)者作為自動駕駛的責任主體具有現(xiàn)實性和正當性。一、自動駕駛汽車生產(chǎn)者對汽車熟悉,避險成本最低并且能夠最直接地對汽車施加影響,因此由其作為責任主體沒有超出一般公民的認知。二、未來的自動駕駛汽車將會由一些具備雄厚財力的公司來研究,人工智能行業(yè)需要投入大量的人力物力財力,小作坊肯定做不來,讓這些大公司作為責任主體承擔侵權(quán)損害賠償責任更具有現(xiàn)實可能性。三、生產(chǎn)者作為責任主體承擔侵權(quán)損害賠償責任,可以更加督促生產(chǎn)者切實履行注意義務(wù),在生產(chǎn)過程中審慎,確保每一個自動駕駛汽車不會存在軟硬件質(zhì)量問題。
當然,一刀切式地讓生產(chǎn)者一方承擔責任有不足之處:
第一不利于技術(shù)的發(fā)展,生產(chǎn)者責任過重。第二生產(chǎn)本身存在技術(shù)風險。一項新科技在其萌芽到成熟的發(fā)展階段,總會出現(xiàn)一些難以控制的風險和損失,這是所有新事物發(fā)展所必須付出的代價。第三自動駕駛系統(tǒng)也是人工智能的一種,人工智能的一個特點就是自主學習,自動駕駛系統(tǒng)通過后天學習過程中不斷“進化”,超出了原來生產(chǎn)者的控制,那么由生產(chǎn)者一方承擔責任突破了法律上生產(chǎn)者一方對其產(chǎn)品的質(zhì)量負責的規(guī)定。
強人工智能時代,人工智能整個社會影響力達到一定程度,人類必定會賦予人工智能法律地位。承認自動駕駛系統(tǒng)駕駛員地位,賦予其有限人格,有利于整個法律體系的統(tǒng)一性。其實,確定人工智能主體地位,世界范圍內(nèi)已經(jīng)有實踐經(jīng)驗。2016年,美國國家公路交通管理局(NHTSA)在給谷歌公司回信中,承認了谷歌自動駕駛系統(tǒng)“駕駛員”的身份。同年,歐洲法律事務(wù)委員會通過決議,賦予最精密的智能機器人擁有“電子人”地位。2017年,沙特賦予機器人索菲亞公民身份。鑒于這些實踐,賦予自動駕駛汽車有限人格,讓其作為責任主體承擔侵權(quán)責任并不虛妄。
汽車如何承擔責任?可以通過建立“自動駕駛基金”來解決資金問題?!白詣玉{駛基金”即所有在自動駕駛設(shè)計、生產(chǎn)、運行程中獲得利益者都要從利益中取出一部分作為“自動駕駛基金”組成部分,所有獲益的人也要承擔責任,這樣避免了任何一方在自動駕駛汽車的道路交通事故中承擔過重的責任,從而影響到自動駕駛技術(shù)的發(fā)展和普及。同時,也體現(xiàn)了權(quán)利與義務(wù)相統(tǒng)一,顯示出法律的公平與正義。此外,有利于緩解社會矛盾,將不是因為過錯或沒有盡到注意義務(wù)而只是單純的技術(shù)風險轉(zhuǎn)給所有從自動駕駛中獲得利益的人。同時,“自動駕駛基金”的數(shù)目也具有靈活性,以因技術(shù)風險造成的損害為基準。
吳漢東教授認為凡是可以描述的,有一定規(guī)則或者標準的行業(yè)、職位都有可能被智能機器所代替,那么由此引發(fā)的責任主體識別問題將成為解決社會矛盾的關(guān)鍵。雖然現(xiàn)在制定法律賦予人工智能法律人格的條件還不具備,但是法律具有一定的預(yù)見性,可以對此問題進行探討,也可以循序漸進,先賦予財產(chǎn)權(quán)等部分權(quán)利。人與人工智能并不是控制與被控制的關(guān)系,人類需要不斷革新認知,發(fā)揮理性與包容性,與人工智能攜手一起為建設(shè)更便利、更美好的世界而奮斗。