李亞龍
(南開大學(xué) 法學(xué)院,天津 300350)
自1939年紐約世界博覽會開始,無人駕駛車輛的發(fā)展前景成為各國關(guān)注的焦點(diǎn),那時通用汽車公司就預(yù)測,到20世紀(jì)60年代,無人駕駛汽車將取代傳統(tǒng)汽車。[1]近年,無人駕駛汽車的發(fā)展日新月著,2014年谷歌的測試車已經(jīng)行駛了70萬英里,[2]4132016年12月,世界汽車之都密歇根州通過了允許無人駕駛汽車在公共道路上行駛的法律。而在我國,2017年12月2日,深圳市的無人駕駛公交車已經(jīng)在路上行駛。與技術(shù)不斷創(chuàng)新跟進(jìn)相比,制度標(biāo)準(zhǔn)的創(chuàng)定相對停滯。于此,國家發(fā)改委2018年1月5日發(fā)布了《智能汽車創(chuàng)新發(fā)展戰(zhàn)略(征求意見稿)》,提出應(yīng)盡快出臺公共道路自動駕駛測試規(guī)范,適時出臺智能汽車測試、準(zhǔn)入、使用等環(huán)節(jié)的法律法規(guī),同時應(yīng)抓緊制定智能汽車運(yùn)行安全、自動駕駛能力、封閉場地、半開放場地、公共道路測試標(biāo)準(zhǔn)。緊跟國家發(fā)展戰(zhàn)略,研究無人駕駛汽車的刑事風(fēng)險(xiǎn)具有重大的理論實(shí)踐意義。
2017年7月20日,《新一代人工智能發(fā)展規(guī)劃》正式發(fā)布,明確把人工智能的發(fā)展提升到國家戰(zhàn)略層面。無人駕駛汽車的研發(fā),正是順應(yīng)了這一歷史浪潮。
參照美國國家公路交通安全管理局(NHTSA)根據(jù)“車輛的自動化程度”確定的汽車的5個級別,(1)Nat’l Highway Traffic Safety Admin., Preliminary Statement of Policy Concerning Automated Vehicles 4 (2013).無人駕駛汽車應(yīng)該位于第4級別。其中第0級為“無自動化”,駕駛員完全控制車輛的速度、轉(zhuǎn)向和其他安全行車所需的功能。第1級為“特定功能的自動化”,駕駛員仍然控制著車輛的安全運(yùn)行,但是車輛擁有一些“自主”技術(shù),可以輔助駕駛員控制速度、監(jiān)控行人等。第2級為“綜合功能自動化”,車輛能夠控制速度和轉(zhuǎn)向,司機(jī)只需要監(jiān)測道路,并在車輛發(fā)出警告的任何時候采取控制取代自動駕駛。第3級為“有條件的自動駕駛”,車輛承擔(dān)大部分駕駛?cè)蝿?wù),司機(jī)僅在特定的交通或環(huán)境條件下監(jiān)視著路面并采取措施。第4級為“全自動駕駛”,“司機(jī)”僅需乘坐即可。[3]本文所稱的“無人駕駛汽車”,僅指第4級別的智能汽車,即無人駕駛系統(tǒng)將是“司機(jī)”,而人類為“乘客”。
目前來說,無人駕駛汽車有兩大類:“自給自足型”和“相互連接型”?!白越o自足型”無人駕駛汽車完全依賴于已經(jīng)編入汽車程序的信息,它的運(yùn)行使用GPS系統(tǒng)、地圖數(shù)據(jù)、傳感器和攝像頭等設(shè)備接收的數(shù)據(jù),通過運(yùn)算處理規(guī)劃路線行駛。此種類型的汽車只接收數(shù)據(jù),不向其他車輛或設(shè)施發(fā)出信息。而“相互連接型”的無人駕駛汽車則無線連接到一個或多個通信網(wǎng)絡(luò)上,它可以由外部控制。相互連接的車輛不僅通過網(wǎng)絡(luò)接收信息,而且將自己的信息傳送給網(wǎng)絡(luò)和其他車輛。[4]“相互連接型”無人駕駛汽車的運(yùn)行,需要借助兩項(xiàng)通信技術(shù):車對車“V2V”和車對基礎(chǔ)設(shè)施“V21”的技術(shù)。[5]“V2V”通信是附近車輛之間的無線數(shù)據(jù)交換。它使車輛能夠全方位感知與其他車輛的位置信息,從而計(jì)算風(fēng)險(xiǎn),發(fā)出駕駛警告或者采取先發(fā)制人的行動來避免和減輕碰撞。然而,要實(shí)現(xiàn)“V2V”通信的全部好處,也得需要對方車輛必須配備這種技術(shù)。“V21”通信是車輛和道路基礎(chǔ)設(shè)施之間的關(guān)于安全和運(yùn)行數(shù)據(jù)的無線交換。[2]401此項(xiàng)技術(shù)能夠識別紅綠燈、交通指示標(biāo)志等數(shù)據(jù)。通過將這些技術(shù)結(jié)合起來,無人駕駛汽車能夠以一種全新的方式與周圍環(huán)境互動,使得這些車輛能“看到”人類司機(jī)能看到的一切,而且比人類更快、更有效。
無人駕駛汽車因大數(shù)據(jù)、深度學(xué)習(xí)、蒙特卡洛樹搜索、神經(jīng)網(wǎng)絡(luò)等技術(shù)的不斷發(fā)展終會取代傳統(tǒng)的駕駛汽車,實(shí)現(xiàn)完全“脫離”人類自動駕駛。與傳統(tǒng)模式汽車相比,無人駕駛汽車具有以下特點(diǎn)。
1. 運(yùn)行自主性
無人駕駛汽車,相較于傳統(tǒng)模式的汽車來說,操作的主體由“人”變成了“無人駕駛系統(tǒng)”。路線規(guī)劃、轉(zhuǎn)彎、超車、避讓行人、按交警指示行駛操作都是由無人駕駛系統(tǒng)自主完成。而以往的駕駛員,完全可以在車上工作、飲食、看報(bào),甚至是睡覺,形象地說無人駕駛汽車相當(dāng)于一輛完全私人的“出租車”。
2. 主體無限性
主體的無限性是指相對于傳統(tǒng)駕駛模式的汽車而言,無人駕駛汽車是一個相對的“無限性”。根據(jù)《機(jī)動車駕駛證申領(lǐng)和使用規(guī)定》,只有符合“18周歲以上、70周歲以下;兩耳分別距音叉50厘米能辨別聲源方向;無紅綠色盲;雙手拇指健全,每只手其他手指必須有三指健全,肢體和手指運(yùn)動功能正?!钡葪l件才能申請機(jī)動車駕駛證。但是,在無人駕駛模式下,根據(jù)智能化程度可以對這些條件進(jìn)行無限放寬,兒童、聾啞人、高齡老人、殘疾人,甚至是盲人都有可能“駕駛”汽車。
3. 運(yùn)用廣泛性
無人駕駛汽車可以使“共享汽車”的廣泛使用成為可能。之前限制“共享汽車”發(fā)展的主要原因在于監(jiān)管乏力,智能化系統(tǒng)管理可以使這一弊病得到解決。無人駕駛汽車還可以運(yùn)用于長途的物流運(yùn)輸中,極大提升運(yùn)輸效率;同樣可以運(yùn)用到軍事、科研中,豐富國家的戰(zhàn)略計(jì)劃;就連外賣運(yùn)送、快遞運(yùn)輸、送子通勤等事項(xiàng)中也能見到無人駕駛汽車的身影。
目前沒有任何一種技術(shù)可以在沒有人工操作者參與的情況下違法,而無人駕駛汽車等人工智能將有潛力做到這一點(diǎn),由此會引發(fā)一系列法律問題。[6]由于沒有“人”來進(jìn)行駕駛,那么違法行為的責(zé)任應(yīng)當(dāng)由誰來承擔(dān)呢?無人駕駛系統(tǒng)能否具備刑事責(zé)任主體地位的爭論甚囂塵上。
刑事責(zé)任的主體資格,以具有刑事責(zé)任能力為標(biāo)準(zhǔn)。刑事責(zé)任能力,簡單來說就是可以“認(rèn)識自己行為的性質(zhì)、意義、作用和后果,并能對自己的行為進(jìn)行解釋、控制以及對自己的行為承擔(dān)刑事責(zé)任的能力”[7]90。一言以蔽之,刑事責(zé)任的主體得具備辨認(rèn)和控制自己行為的能力。
1.不具備認(rèn)識能力
根據(jù)哲學(xué)上的“二元論”理論,宇宙被分為精神和物質(zhì),前者不能歸結(jié)為后者。在沒有任何精神物質(zhì)的情況下,無人駕駛汽車無法擁有欲望或信仰等精神狀態(tài)。如John Searle所提出的“生物自然主義”認(rèn)為,本體論上講精神狀態(tài)不能歸結(jié)為物質(zhì)形態(tài)。某些事物,如意識和意向性,“只存在于人類或動物主體的經(jīng)歷中”,而不能通過“制造(類似人)計(jì)算機(jī)模擬”而存在。Searle還通過其著名的“中文室”思維實(shí)驗(yàn)來證明,模擬理解并不等于真正的理解。[8]所以,無人駕駛系統(tǒng)并不具備刑事責(zé)任能力意義上的認(rèn)識能力。
2.不具備控制能力
獨(dú)立主體必須是康德意義上的自治主體,在康德意義上恰當(dāng)?shù)匕选爸黧w”視為欲望的創(chuàng)造者。[9]雖然一個人的欲望可能是由他所處的環(huán)境塑造的,但這些欲望中至少有一部分必須來自本人。相比之下,無人駕駛汽車等人工智能的“欲望”或“信念”完全是由外部的力量控制的。它們完全來自算法,算法由設(shè)計(jì)者創(chuàng)建,并由培訓(xùn)師補(bǔ)充。因此,無人駕駛汽車的動作永遠(yuǎn)不能被認(rèn)為是“自主的”,也即無人駕駛系統(tǒng)并不具備刑事責(zé)任能力意義上的控制能力。
3.倫理不可接受性
賦予無人駕駛汽車刑法上的主體地位,無疑將人類和人類制造的產(chǎn)品等同視之,這在一定程度上意味著對人類群體的不尊重,在倫理秩序上是不可接受的。無人駕駛汽車系統(tǒng)再怎么無限趨近于人,究其根本而言它還是人類制造的產(chǎn)品,是凝結(jié)著人類智慧光芒的“人造品”,是無法從刑事責(zé)任能力層面上和人類同等看待的。
4.刑罰上的無效性
報(bào)應(yīng)主義認(rèn)為刑法的目的是懲罰道德上的錯誤行為,即不犯下道德上錯誤行為的人不應(yīng)因這些行為而受到懲罰。那么對于無人駕駛汽車來說,其并不具備可以做出道德上錯誤行為的能力。[10]因?yàn)闊o人駕駛汽車本身不能形成任何精神狀態(tài),并不可能知道自己的行為違反任何道德準(zhǔn)則。再從目的刑理論出發(fā),處罰無人駕駛汽車本身,同樣無法實(shí)現(xiàn)“預(yù)防”功用。所以,對無人駕駛系統(tǒng)施以刑罰起不到任何效果。
5.有悖于罪責(zé)自負(fù)
如果肯定無人駕駛汽車的主體地位,與其說懲罰無人駕駛汽車本身,不如說是在懲罰“人”,畢竟無人駕駛是屬于“人”的財(cái)產(chǎn)。哪怕再精致的理論,也沒辦法脫離無人駕駛汽車本身無法“罪責(zé)自負(fù)”的詰難。執(zhí)意處罰無人駕駛汽車,背離責(zé)任主義原則。
6.功利主義的考量
否定無人駕駛汽車的主體地位,更具功用價值。此種取向使更多的風(fēng)險(xiǎn)由設(shè)計(jì)者、制造商和用戶承受,這可以使這些人類主體在進(jìn)行研發(fā)、生產(chǎn)和使用過程中,更加恪守審慎義務(wù),使得在避免無人駕駛汽車失控的防范中達(dá)到最大化的效果。因?yàn)樵跓o人駕駛汽車發(fā)展過程中,最大的風(fēng)險(xiǎn)就在于無人駕駛汽車失控。為了更好地規(guī)避這一風(fēng)險(xiǎn),妥帖的方法還是否定人工智能的主體地位。
無人駕駛汽車擁有高度自主權(quán)力,正是這種權(quán)力切斷了事故與創(chuàng)造者、設(shè)計(jì)者等之間的因果聯(lián)系。此種情況下,處罰無人駕駛汽車背后的“人”未必公平,若再不賦予其刑事主體地位,則會在刑法上出現(xiàn)“責(zé)任”或“懲罰”缺口。[11]300為避免缺口,賦予無人駕駛汽車刑事責(zé)任主體地位的聲音日隆。歐洲議會就大膽建議,為機(jī)器人創(chuàng)造一種特定的法律地位,(2)Resolution of 16 February 2017 with Recommendations to the Commission on Civil Law Rules on Robotics, EUR. PARL. Doc. 2015/2103(INL) 59.“在機(jī)器人社會化應(yīng)用不可避免的情況下,我國(乃至世界各國)應(yīng)當(dāng)肯定機(jī)器人的法律主體地位,賦予機(jī)器人必要的權(quán)利”[12]。
1.道德算法發(fā)展
創(chuàng)建道德算法支配下的“道德機(jī)器”,已經(jīng)成為一個活躍的研究領(lǐng)域。David Abel, James MacGlashan和Michael Littman認(rèn)為道德算法的創(chuàng)建大概可以分為基于規(guī)則的方法和效用最大化方法。嚴(yán)格的基于規(guī)則的方法要求研究人員事先對所有道德規(guī)則進(jìn)行編碼。因此,它將不允許人工智能學(xué)習(xí)新規(guī)則或“在道德不確定性下”做出決策。相比之下,在基于軟規(guī)則的方法下,研究人員為人工智能提供一定的高級道德規(guī)則,并通過實(shí)例訓(xùn)練機(jī)器人,幫助演示這些規(guī)則如何適用于特定的案例。[13-14]比如:由Michael Anderson, Susan Anderson和Chris Armen開發(fā)的醫(yī)學(xué)倫理學(xué)專家MedEthEx系統(tǒng),可以根據(jù)Tom Beauchamp和James Childreses提出的生物倫理原則(自治、非惡意、慈善和公正),為醫(yī)務(wù)人員提供建議。[15][16]498-499道德算法可以使無人駕駛汽車對自己的“動作”進(jìn)行一些控制,并且可以遵循提供的道德規(guī)范,而這些道德規(guī)范反過來又決定了無人駕駛汽車對特定刺激的反應(yīng)。這樣無人駕駛汽車就有了主體性也有了責(zé)任能力,人們也會愿意接納無人駕駛汽車作為刑事責(zé)任的主體。
2.類比單位犯罪
對責(zé)任能力的理解,如果采用一種功能性且不那么以人為中心的解釋,如Peter French或Philip Pettit所提出的理論(賦予非人類實(shí)體虛擬的人格,會使事故調(diào)查進(jìn)展高效化),那么人工智能無疑有資格具備獨(dú)立的責(zé)任能力。[16]492賦予單位刑事責(zé)任主體地位的合理解釋是,有助于識別個人的不法行為。外部方(如監(jiān)管機(jī)構(gòu))通常很難準(zhǔn)確確定具體的個人或代表,通過具有多層管理和授權(quán)的公司犯下了法律錯誤。相比之下,公司內(nèi)部的個人執(zhí)行這項(xiàng)任務(wù)相對容易且高效一些。這些人還能更好地采取措施,防止今后發(fā)生類似的錯誤。如此將刑事責(zé)任強(qiáng)加于公司,將查明不法分子的責(zé)任從“外人”轉(zhuǎn)移到“內(nèi)部人士”身上,可以降低調(diào)查成本。[17]
對無人駕駛汽車來說,首先,其算法可能比企業(yè)內(nèi)部結(jié)構(gòu)復(fù)雜。例如它的異常舉動可能是由一系列看似無害的指令造成的,相關(guān)的指令可能是當(dāng)前的,也可能是在異常行為發(fā)生前多年給出的。指令可能是有意的,也可能是無意的(例如,當(dāng)機(jī)器人被動地觀察人類的行為時)。[16]508-509其次,無人駕駛汽車的算法在功能上類似于公司企業(yè)的內(nèi)部決策結(jié)構(gòu),算法實(shí)例化了無人駕駛汽車的“目標(biāo)和政策”。這些目標(biāo)和政策是相對穩(wěn)定的,因?yàn)樗鼈兇砹艘唤M無人駕駛汽車設(shè)計(jì)者的綜合觀點(diǎn),而不是指導(dǎo)人工智能執(zhí)行任務(wù)的任何人當(dāng)前的愿望。根據(jù)算法做出的任何行為都是出于無人駕駛汽車自身的原因,因此會構(gòu)成“有意”行為。[16]520-521最后,公司刑事責(zé)任在美國已經(jīng)被承認(rèn)了一百多年,一種既定做法的存在本身往往證明了這種做法的價值。[18]5所以,將道德資格(moral agency)授予非人類實(shí)體,在沒有明顯錯誤的情況下,應(yīng)優(yōu)先考慮。[16]517
3.整合社會矛盾
刑法具有責(zé)難功能(也稱為表達(dá)功能)至少表現(xiàn)在兩方面。其一,對罪犯施加刑事責(zé)任有助于消除罪犯的行為可能對社會價值體系產(chǎn)生的不良影響。[19]其二,不追究罪犯的刑事責(zé)任可能被解釋為表達(dá)一種含蓄的價值,即罪犯的行為是允許的。[18]51刑罰的判斷,如果與社會的實(shí)際價值體系不一致,可能會造成混亂,破壞法律的權(quán)威。將刑事責(zé)任施加給一個無人駕駛汽車,可以有效地向社會成員傳達(dá)對該類“出格”行為的反對。相比于懲處與其交互的人,這可能是實(shí)現(xiàn)這種譴責(zé)功能的最合適的方式。此外,研究表明人們對非人類實(shí)體(如公司和機(jī)器人)所做的行為會產(chǎn)生情感反應(yīng)(憤怒、沮喪等),而且隨著人工智能變得更加擬人化,人們更傾向于這樣做。[20]比如:在一項(xiàng)實(shí)驗(yàn)中,40名大學(xué)生與人形機(jī)器人Robovie互動。在學(xué)生不知情的情況下,研究人員指示Robovie錯誤地評估學(xué)生的表現(xiàn),阻止他們贏得20美元的獎金。隨后的采訪顯示,65%的學(xué)生認(rèn)為應(yīng)該譴責(zé)Robotive。[16]506所以,當(dāng)無人駕駛汽車傷害了人類,給其貼上罪犯的標(biāo)簽,可能會給那些受害者帶來一些急需的撫慰。
以上,直接處罰無人駕駛汽車,進(jìn)一步向受害者傳達(dá)了對無人駕駛汽車錯誤行為的集體反對。這樣的否定會給受害者帶來一定程度的“解脫”,為治愈矛盾鋪平道路,從而整合社會矛盾。
4.契合責(zé)任主義
人工智能背后的“人”,完全不可能預(yù)測人工智能遭遇的每一個場景,并對該場景做出適當(dāng)?shù)姆磻?yīng)。[21]此外,盡管一些深度學(xué)習(xí)系統(tǒng)似乎“有效”,但構(gòu)建它們的設(shè)計(jì)者不一定知道它們?yōu)槭裁从行В膊荒苷故鞠到y(tǒng)決策背后的邏輯。在這種情況下,無人駕駛汽車本身才是其決策的最終權(quán)威。比如:AlphaGo在與世界頂級圍棋選手李世石的第二場比賽中,做出了一個被人們視為“無人能理解”的非凡舉動。[16]526-527類比電腦,每次有人使用電腦犯罪時,我們不會責(zé)怪電腦制造商。還有就是,人工智能的行為在于算法,而算法的素材取源于其背后的大數(shù)據(jù),大數(shù)據(jù)本身可能就存在問題。正如Solon Barocas等在文章《大數(shù)據(jù)的不同影響》中指出,數(shù)據(jù)挖掘有時“反映了社會中普遍存在的偏見”。[22]一個典型的例子是St. George’s Hospital Medical School用計(jì)算機(jī)程序來篩選入學(xué)候選人。最后被淘汰的人中,大多數(shù)是女性和非歐洲的人士,因?yàn)樵谶^去醫(yī)學(xué)界對婦女和非歐洲的人存在偏見。[23]由于數(shù)據(jù)的偏見,無人駕駛汽車等人工智能的決定同樣存在缺陷。同樣,一個聰明的機(jī)器人,可以從它的訓(xùn)練者那里學(xué)習(xí)道德規(guī)范,也會繼承那些訓(xùn)練者的偏見和錯誤。如果這些偏見被廣泛持有,則往往是無意識的。所以,不讓無人駕駛汽車承擔(dān)“應(yīng)有”的責(zé)任,轉(zhuǎn)而讓背后的“人”負(fù)責(zé)是不公平的,也不符合責(zé)任主義的要求。
5.具有工具價值
肯定無人駕駛汽車的刑事責(zé)任主體地位具有以下工具價值:第一,可以消除受害者直接報(bào)復(fù)無人駕駛汽車背后的設(shè)計(jì)者、制造商和用戶的想法,減少可能造成的不成比例甚至是無理的傷害。第二,會為未來制造這類機(jī)器的科學(xué)家提供一些刺激,讓他們更仔細(xì)地思考如何“教”無人駕駛汽車符合人類秩序的規(guī)范。[16]492-493第三,類似古代法蘭克質(zhì)押制度(frankpledge)[24]機(jī)理,會讓無人駕駛汽車等人工智能設(shè)計(jì)者之間、制造商之間、制造商與用戶之間更充分地合作。
無人駕駛汽車要想良性發(fā)展,關(guān)鍵在于將其應(yīng)用限定于人類可控制的范圍之內(nèi)。所謂的“可控”是指,主觀上能夠預(yù)見風(fēng)險(xiǎn)的射程范圍,客觀上具有技術(shù)措施能夠化解風(fēng)險(xiǎn),而不至于成本畸高。只要存在這一前提,實(shí)際責(zé)任的承擔(dān)都應(yīng)該落到無人駕駛汽車背后具體的“人”身上。若突破這一前提,無人駕駛系統(tǒng)已經(jīng)不受人類控制了,這種情況下其實(shí)更沒有必要談?wù)撈湫淌仑?zé)任的主體地位問題。到那時應(yīng)該是無人駕駛系統(tǒng)等人工智能們在積極地“探討”如何“立法”保障人類權(quán)利的圖景。
1.對于道德算法發(fā)展而言
認(rèn)為道德算法可以創(chuàng)造出道德上優(yōu)秀的無人駕駛汽車的想法是天真的。從技術(shù)上來說,編程或訓(xùn)練機(jī)器遵守我們想要的道德規(guī)則是非常困難的,或許這可以被攻克,但從“軟件”上來說存在諸多謎思。首先,對什么是合適的道德行為沒有達(dá)成一致。其次,大多數(shù)道德規(guī)則都承認(rèn)反例或例外,但像人工智能一樣按照“字面上”的方式遵循,可能不能預(yù)見和避免這些例外。再次,可能沒有動機(jī)去創(chuàng)造一個道德完美的人工智能,因?yàn)橛行┤斯ぶ悄艿膭?chuàng)造可能就是為了從事道德上“不確定”的行為。[11]303最后,人工智能架構(gòu)在不復(fù)制類人的心智架構(gòu)時工作得最好。下國際象棋的電腦和面部識別程序并不遵循類似人類的策略或方法來完成任務(wù)。人工智能是通過研究深不可測的大型數(shù)據(jù)集,并從這些數(shù)據(jù)集中推斷出規(guī)則和策略來工作。處理這類任務(wù)的方法沒有理由會涉及像信仰、欲望和意圖等心理狀態(tài)的功能類比。程序可以按照優(yōu)化過程來構(gòu)建,而優(yōu)化過程缺少與我們所說的信念或意圖相一致的子組件。[25]即使它們有類似人類的心理結(jié)構(gòu),這些可能不包括道德能力或?qū)π袆拥牡赖略虻拿舾行?。[11]304
2. 對于類比單位犯罪而言
刑法規(guī)定單位犯罪,并不是因?yàn)椤皢挝弧本哂蓄愃谱匀蝗说闹黧w性,而是因?yàn)樵趩挝恢贫戎?,自然人與單位財(cái)產(chǎn)彼此獨(dú)立,單位犯罪在本質(zhì)上是自然人利用單位進(jìn)行犯罪。為了更好地處罰自然人,就將單位“勉強(qiáng)”地作為刑事主體,以此進(jìn)一步“罰沒”自然人財(cái)產(chǎn)。如學(xué)者所言,這就是“《刑法》第31條對單位犯罪規(guī)定‘雙罰制’的主要原因。否則,如果認(rèn)為不是自然人犯罪而只是單位犯罪,則只應(yīng)規(guī)定處罰單位而不能同時處罰自然人,因?yàn)椤镓?zé)自負(fù)、反對株連’的個人責(zé)任主義是現(xiàn)代刑法的基本原則”[26]。所以,用單位犯罪來類比無人駕駛汽車論證其刑事主體地位并不合適。再者,在單位犯罪中自然人背后的操控具有濃重的痕跡,而在無人駕駛汽車的犯罪中,自然人與其顯然是“割裂”的,用單位來類比也不準(zhǔn)確。
3. 對于整合社會矛盾而言
整合社會矛盾的論據(jù)主要是從刑法的責(zé)難功能和照顧受害者情感的角度出發(fā),但是此論據(jù)的成立前提應(yīng)該是無人駕駛汽車已經(jīng)具備“主體性”。因?yàn)橹挥凶C明了人工智能造成的損害是類似人類的“行為”造成的,才能被刑法的責(zé)難功能所評價。所以,“肯定說”的邏輯存在謬誤。退一步而言,人類情緒的宣泄對象并不能作為成為主體性的依據(jù)。無須說是針對高度擬人化的人工智能,就是被樹枝絆倒,人們也可能咒罵抑或是踢打樹枝發(fā)泄憤怒。在這種情況下,我們并不會認(rèn)為通過處罰樹枝來安撫受害人是妥當(dāng)?shù)?,對待無人駕駛汽車“犯罪”亦是如此。
4. 對于契合責(zé)任主義而言
對于規(guī)避責(zé)任主義的詰難而言,解決的最好方法并不是讓無人駕駛汽車本身承擔(dān)責(zé)任,反而讓汽車承擔(dān)責(zé)任,會忽略其背后“人”的真正責(zé)任,以致使其淪為替罪羊。懲處無人駕駛汽車背后的“人”,并不意味著所有事故都需要“人”擔(dān)責(zé),可以判斷背后的“人”有沒有合理地預(yù)見此種差池的義務(wù)。如果有并且能夠通過適當(dāng)?shù)某绦蛟O(shè)計(jì)規(guī)避而其并不采取任何措施,對其懲罰并沒有任何有違責(zé)任主義的嫌疑。但若是其并不具有預(yù)見的可能性,根據(jù)現(xiàn)有刑法理論,當(dāng)然也不必承擔(dān)刑事責(zé)任,不存在所謂的刑法處罰漏洞,也沒有違背責(zé)任主義的詬病。
5. 對于具有工具價值而言
賦予無人駕駛汽車刑事主體的地位,的確存在一定的裨益,但是總體上來說是弊大于利的。如Ryan Calo所言,“機(jī)器人越擬人化,人們越有可能贊揚(yáng)或指責(zé)它”,其實(shí)質(zhì)是忽略了出現(xiàn)問題的真正原因。無人駕駛汽車本身承擔(dān)責(zé)任,減少了“人”的風(fēng)險(xiǎn),以致“人們可能會為了機(jī)器人而冒險(xiǎn)”,也就是突破法律、倫理的限制,大膽創(chuàng)新,致使人工智能發(fā)展失控。[27]
無人駕駛汽車本身并不能成為刑事責(zé)任的主體,真正的責(zé)任主體在于其背后的人。根據(jù)無人駕駛汽車可能造成犯罪的風(fēng)險(xiǎn)類型可以分為:內(nèi)在事故引起的犯罪風(fēng)險(xiǎn);外在事故引起的犯罪風(fēng)險(xiǎn);無人駕駛汽車作為工具使用的犯罪風(fēng)險(xiǎn)。
無人駕駛汽車的內(nèi)在事故,主要是指無人駕駛系統(tǒng)“自主性”活動、非外在侵入事項(xiàng)引起的犯罪風(fēng)險(xiǎn)。由于無人駕駛的設(shè)計(jì)者、制造商,哪怕是用戶在設(shè)計(jì)、制造和使用過程中故意使用無人駕駛汽車進(jìn)行犯罪活動,并不存在理論和實(shí)務(wù)上的難題,因此,此處內(nèi)在事故的風(fēng)險(xiǎn)分擔(dān)主要從設(shè)計(jì)者、制造者和用戶的過失和不作為的責(zé)任談起。
1. 設(shè)計(jì)者、制造商
基于無人駕駛汽車的高科技屬性,普羅大眾甚至監(jiān)管部門難以窺見其具體運(yùn)行機(jī)理,所以內(nèi)在事故的風(fēng)險(xiǎn)由設(shè)計(jì)者、制造商保持著實(shí)質(zhì)性控制,而“國家相關(guān)管理部門缺乏足夠的技術(shù)能力和專業(yè)管理資源”,只能通過前者進(jìn)行間接管理。[28]所以,設(shè)計(jì)者、制造商是無人駕駛汽車內(nèi)在事故風(fēng)險(xiǎn)的支配者。
設(shè)計(jì)者、制造商是否承擔(dān)內(nèi)在事故引起的刑事責(zé)任的關(guān)鍵在于其“保證人”地位的滿足。由于設(shè)計(jì)者、制造商保持著對汽車內(nèi)在事故的支配地位,那么“保證人”的地位就取決于,其是否滿足社會對無人駕駛汽車的設(shè)計(jì)者、制造商合理的期待,以及與用戶之間的特別合同(超過合理社會期待的部分)約定。社會對無人駕駛系統(tǒng)合理的期待是,原本由傳統(tǒng)駕駛員承擔(dān)的合理審慎駕駛的義務(wù)應(yīng)該由無人駕駛系統(tǒng)承擔(dān),這種義務(wù)也當(dāng)然轉(zhuǎn)嫁到無人駕駛設(shè)計(jì)者、制造商身上。同時由于碰撞規(guī)避能力的增強(qiáng),會給無人汽車制造商帶來更高的注意義務(wù)。[29]此外,設(shè)計(jì)者、制造商如果與用戶之間有超過合理社會期待的承諾,設(shè)計(jì)者、制造商應(yīng)該履行對用戶的承諾。
具體而言,當(dāng)無人駕駛的制造商、設(shè)計(jì)者能夠或者應(yīng)當(dāng)意識到,其產(chǎn)品不能滿足社會的期待和合同的承諾時,應(yīng)當(dāng)采取補(bǔ)救措施,如召回汽車或者安裝補(bǔ)丁程序等。若在意識到缺陷之后,不采取措施或者采取措施并不達(dá)其能力所及時,應(yīng)該承擔(dān)內(nèi)在事故引起的刑事責(zé)任。
2. 用戶
根據(jù)無人駕駛技術(shù)承諾,用戶可以在使用無人駕駛汽車的過程中看書、看電影或睡覺,即類似于傳統(tǒng)駕駛模式中的“乘客”。在這樣的保證下,制造商與用戶建立了一種近乎信托的關(guān)系,這種關(guān)系遠(yuǎn)遠(yuǎn)超過了人類與其他產(chǎn)品之間的關(guān)系。[30]在這樣的模式下,用戶免除了內(nèi)在事故的大量責(zé)任,在考量過失構(gòu)成犯罪的過程中應(yīng)該給予更多的空間。因?yàn)榛谶@項(xiàng)技術(shù)的前景,用戶在駕駛?cè)詣悠嚂r分心是完全合理的,畢竟,這就是這項(xiàng)技術(shù)的意義所在。但是,也并不是說在內(nèi)在事故中用戶的責(zé)任為零。用戶應(yīng)該在使用無人駕駛汽車前,經(jīng)過國家機(jī)關(guān)規(guī)定的培訓(xùn)并取得駕駛無人汽車的資格,還有就是應(yīng)該遵守?zé)o人駕駛汽車的操作規(guī)范,由不遵守此類義務(wù)引起的內(nèi)在事故,由用戶自身承擔(dān)刑事責(zé)任。此外,倘若無人駕駛汽車真的發(fā)生事故,用戶并不免除造成傷亡結(jié)果之后的積極救助義務(wù),若不積極救助,仍需要承擔(dān)相應(yīng)責(zé)任。
3. 社會
無人駕駛汽車的發(fā)展在一定程度上是為全人類謀福利,在超出無人駕駛汽車設(shè)計(jì)者、制造商和用戶公平合理的責(zé)任之外的內(nèi)在事故風(fēng)險(xiǎn),應(yīng)該落入全社會的擔(dān)責(zé)范圍,這樣才不會給予設(shè)計(jì)者、制造商和用戶過重的責(zé)任,進(jìn)而產(chǎn)生阻礙科技發(fā)展的反效果。無人駕駛技術(shù)在安全性、效率和機(jī)動性上遠(yuǎn)甚于傳統(tǒng)駕駛。其一,在所有的汽車事故中,操作失誤占95%以上。鑒于駕駛員的錯誤是造成這些死亡的主要原因,因此,無人駕駛可以減少甚至完全消除因駕駛員操作問題帶來的事故,從而挽救生命。[31]226其二,與傳統(tǒng)汽車相比,無人駕駛汽車更加高效且經(jīng)濟(jì),無人駕駛汽車更便于共享而緩解交通擁堵。自動駕駛汽車之間可以相互協(xié)調(diào)的交通還可以節(jié)省20%~25%的燃料。[31]227據(jù)統(tǒng)計(jì),汽車保險(xiǎn)行業(yè)也將會受益,因?yàn)樽詣玉{駛汽車減少了交通事故的數(shù)量,使得美國每年汽車保險(xiǎn)賠償減少370多億美元。[32]其三,無人駕駛汽車可以幫助兒童、老年人或殘疾人保持積極的生活方式。其四,近年來機(jī)器學(xué)習(xí)的不透明性確實(shí)受到越來越多的關(guān)注。警方和監(jiān)管機(jī)構(gòu)等“局外人”可能需要機(jī)器人設(shè)計(jì)者、制造商和所有者等“局內(nèi)人”的廣泛合作,才能發(fā)現(xiàn)機(jī)器人不當(dāng)行為的真正原因。但若嚴(yán)厲地追究這些“內(nèi)部人”的責(zé)任,可能會使他們極力撇清自己的責(zé)任而不細(xì)致調(diào)查事故的真實(shí)原因,這對無人駕駛技術(shù)來說是極不利的。此時,若讓社會給予更大的寬容,或可換取事故的避免和技術(shù)的進(jìn)步。簡而言之,無人駕駛技術(shù)的發(fā)展是利大于弊的,社會更多地承擔(dān)內(nèi)在事故引起的風(fēng)險(xiǎn)可使這一項(xiàng)技術(shù)更快更好地良性運(yùn)轉(zhuǎn)。
無人駕駛汽車的外在事故主要是指,外在的物理侵入無人駕駛汽車、外在的數(shù)據(jù)干擾或者侵入無人駕駛系統(tǒng)所造成的事故。前者是指干擾自動駕駛汽車的部件或者用身體、其他器物干擾駕駛,比如移除或者多加一個部件。后者是指對無人駕駛系統(tǒng)進(jìn)行黑客攻擊。黑客行為被定義為“未經(jīng)授權(quán)訪問計(jì)算機(jī)系統(tǒng)、程序或數(shù)據(jù)”。[33]
1. 侵權(quán)人
侵權(quán)人惡意移除或者添加無人駕駛汽車部件,造成外在事故的,侵權(quán)人應(yīng)該承擔(dān)由此造成的責(zé)任。比如,侵權(quán)人盜竊了無人駕駛汽車的GPS系統(tǒng),侵權(quán)人除承擔(dān)盜竊的責(zé)任外,還應(yīng)該為缺失GPS系統(tǒng)造成的交通事故“買單”。又如,侵權(quán)人惡意發(fā)射電磁波,在無人駕駛汽車?yán)走_(dá)顯示器上形成強(qiáng)雜波背景或大量假目標(biāo)回波,使雷達(dá)的探測能力降低造成的事故,應(yīng)該由侵權(quán)人承擔(dān)相應(yīng)刑事責(zé)任。
2. 黑客
黑客利用互聯(lián)網(wǎng)技術(shù)侵入無人駕駛汽車系統(tǒng),盜竊、篡改無人駕駛汽車系統(tǒng)數(shù)據(jù),造成的外在事故由黑客承擔(dān)相應(yīng)刑事責(zé)任。比如:黑客為了敲詐勒索某富豪,通過侵入富豪之子的無人駕駛汽車系統(tǒng)篡改數(shù)據(jù),將其子送到黑客指定地點(diǎn)進(jìn)行綁架。黑客除了承擔(dān)敲詐勒索的刑事責(zé)任外,還應(yīng)該承擔(dān)侵入無人駕駛汽車系統(tǒng)的刑事責(zé)任。當(dāng)無人駕駛汽車成為可能,無人駕駛汽車系統(tǒng)的安全將成為值得刑法保護(hù)的獨(dú)立法益,惡意侵入無人駕駛汽車系統(tǒng)應(yīng)該受到刑法的規(guī)制。
3. 用戶
用戶在使用無人駕駛汽車之前,應(yīng)該進(jìn)行合理的檢查,檢查汽車設(shè)備是否遭到破壞。如果用戶未盡到合理的檢查義務(wù),那么就造成的損害應(yīng)該承擔(dān)相應(yīng)責(zé)任。用戶在經(jīng)過無人駕駛系統(tǒng)駕駛警告提示后,應(yīng)該采取合理的措施,例如維修、求助等,使汽車恢復(fù)如常后才能繼續(xù)使用。如用戶不顧無人駕駛系統(tǒng)的警告繼續(xù)行駛,也應(yīng)該承擔(dān)由此造成外在事故的刑事責(zé)任。
工具化使用的事故是指,把無人駕駛汽車作為犯罪工具進(jìn)行犯罪造成的事故。技術(shù)變革帶來生活便利的同時,犯罪方式、手段也開始推陳出新,無人駕駛因?yàn)槠渲悄芑蜔o人化,一定程度上使犯罪變得更為便利。勢必會有犯罪人,利用無人駕駛汽車運(yùn)輸違禁品、毒品,最為恐怖的是把無人駕駛汽車當(dāng)作從事恐怖活動的工具。有學(xué)者指出,無人駕駛汽車因可以裝載大量易燃易爆物品、容易藏匿危險(xiǎn)品、容易沖開保安人員的阻攔、警方不易檢查等特點(diǎn)而易被恐怖分子利用。[34]當(dāng)無人駕駛汽車被當(dāng)作運(yùn)輸毒品或者進(jìn)行恐怖活動的工具時,承擔(dān)刑事責(zé)任的主體肯定是背后的策劃者。但是,若是策劃者冒用別人汽車進(jìn)行諸如此類的犯罪活動,車主將視情況而定成立共同犯罪還是無責(zé)任。若是無人駕駛系統(tǒng)識別到危險(xiǎn)情況,向車主提出警告,車主應(yīng)該向相關(guān)機(jī)關(guān)報(bào)警或及時采取制動措施。車主若不采取措施,具有構(gòu)成不作為犯罪的余地。
為了回應(yīng)時代的要求與現(xiàn)實(shí)的需要,關(guān)于無人駕駛的法律規(guī)定亟待出臺,只有在法律保障下的無人駕駛的發(fā)展才會是良性的。從防控網(wǎng)絡(luò)犯罪的經(jīng)驗(yàn)教訓(xùn)來看,對高技術(shù)應(yīng)用實(shí)行事后嚇阻式管控是無效的[35],所以,法律只有在無人駕駛研發(fā)制造時、使用中、事故后全方位地干預(yù)和管控,才能將風(fēng)險(xiǎn)控制在人類能夠承受的范圍內(nèi)。
毋庸置疑無人駕駛汽車可為社會帶來巨大效益,刑法在應(yīng)對無人駕駛在研發(fā)制造階段的風(fēng)險(xiǎn)時應(yīng)該采取積極措施,確保施加于無人駕駛汽車產(chǎn)業(yè)的責(zé)任不會妨礙這項(xiàng)新興技術(shù)的發(fā)展。為保護(hù)新技術(shù),“限制責(zé)任”的立法是歷史上的慣例。如1957年頒布了《普萊斯安德森核工業(yè)賠償法》,以限制核工業(yè)的賠償責(zé)任。1994年的《通用航空振興法》,規(guī)定小型飛機(jī)、小型飛機(jī)部件制造商在18年內(nèi)不承擔(dān)責(zé)任等。[31]245無人駕駛汽車研發(fā)制造階段的刑法應(yīng)對,“限制責(zé)任”的立法路徑或可借鑒。
1. 確保無人駕駛的發(fā)展是人類可控的
牛津大學(xué)互聯(lián)網(wǎng)研究院Lucian Floridi教授認(rèn)為,人工智能對人類的主要威脅是人類本身,濫用人工智能的危險(xiǎn)性堪比核武器,因此需要人類明智地使用這項(xiàng)技術(shù)。[36]國內(nèi)學(xué)者也指出:“防范與控制風(fēng)險(xiǎn)的技術(shù)必須成為人工智能技術(shù)發(fā)展中的重要組成部分,不使人類喪失對智能機(jī)器人的控制,不發(fā)生系統(tǒng)性風(fēng)險(xiǎn),是發(fā)展人工智能技術(shù)的底線要求。”[7]94所以,把無人駕駛汽車的發(fā)展限制在人類可控領(lǐng)域是此項(xiàng)技術(shù)的前提,否則真有可能出現(xiàn)人工智能們“立法”來規(guī)范人類活動的圖景。
為確保無人駕駛發(fā)展可控,使無人駕駛技術(shù)的發(fā)展在為人類謀福利的軌道上良好運(yùn)行,可以建立無人駕駛研發(fā)的報(bào)批制度,以防研發(fā)人員為了過度探索、滿足好奇抑或是自己的私利,私下展開無人駕駛研究。監(jiān)管部門應(yīng)確保研發(fā)人員所設(shè)計(jì)、編程、使用的無人駕駛汽車始終處于人類的監(jiān)督范圍之內(nèi)。在研發(fā)無人駕駛的同時,牽制無人駕駛的技術(shù)也應(yīng)該同步跟進(jìn)。
在此領(lǐng)域,可設(shè)研究人工智能不報(bào)罪、私自開展人工智能研究罪、濫用人工智能罪等犯罪,以預(yù)防無人駕駛等人工智能在研發(fā)制造領(lǐng)域脫離人類控制。
2. 確保無人駕駛汽車為“良車”
“良車”是指無人駕駛汽車的算法,應(yīng)該符合人類倫理秩序,能夠遵守人類社會所制定的規(guī)范,在法律上可以提出比人類更高的道德標(biāo)準(zhǔn)的無人駕駛汽車。無人駕駛系統(tǒng)的設(shè)計(jì)者、制造商應(yīng)當(dāng)承擔(dān)無人駕駛汽車的研發(fā)安全管理義務(wù),確保無人駕駛汽車可以成為“良車”進(jìn)而投入市場。無人駕駛汽車的培訓(xùn)師,也應(yīng)該“教”無人駕駛汽車遵守規(guī)范以及用于這一目的的數(shù)據(jù)類型。之于對無人駕駛汽車等人工智能提出更高的道德要求而言,原因有二:其一,人工智能具有重生資本,若人工智能不幸“臨難”,可以很容易地通過從云服務(wù)器下載到內(nèi)存并將其上傳到一個新的物理模型中來重新生成[16]500;其二,人工智能具備更強(qiáng)的能力,實(shí)施救助的成本更低且效率也會更高。所以,法律應(yīng)該提供所有人工智能都必須遵守的最低道德標(biāo)準(zhǔn),防止可能出現(xiàn)的逐底競爭(race to the bottom),避免制造商為了制造出最自私的人工智能而相互競爭。想象一下,如果自動駕駛汽車只關(guān)注自己的用戶是安全的,將會對別人造成多大的傷害。[16]502-503
在此領(lǐng)域,可以設(shè)立對設(shè)計(jì)者的玩忽職守罪、算法不符合最低標(biāo)準(zhǔn)罪等罪,以促使設(shè)計(jì)者、制造商在研發(fā)制造過程中極盡審慎義務(wù),確保無人駕駛汽車為“良車”。
3. 無人駕駛汽車硬件標(biāo)準(zhǔn)的制定
無人駕駛汽車具有被利用從事運(yùn)輸毒品、從事恐怖活動等風(fēng)險(xiǎn),為了防控以上風(fēng)險(xiǎn),需要在無人駕駛汽車研發(fā)制造階段提出相應(yīng)標(biāo)準(zhǔn)來規(guī)避或減少此類風(fēng)險(xiǎn)。(1)無人駕駛汽車的設(shè)備應(yīng)該能支持識別操作人的功能。(2)為防汽車爆炸等恐怖活動犯罪,無人汽車車身標(biāo)準(zhǔn)應(yīng)該達(dá)到“防爆盾”的標(biāo)準(zhǔn)。(3)無人駕駛汽車在使用過程中發(fā)生故障,車輛必須能夠通知駕駛員。在這種情況下,車輛必須要求駕駛員控制或遠(yuǎn)程控制車輛。如果駕駛員不控制或不能控制,車輛必須完全停止。(4)可以參照美國加利福尼亞州和內(nèi)華達(dá)州的法規(guī),要求無人駕駛汽車在事故發(fā)生前30秒以read me格式捕捉事故信息,(3)Cal. Veh. Code§38750(c)(1)(C) (2012); Nev. Admin. Code§482A.190(2) (a) (2012).自主技術(shù)傳感器數(shù)據(jù)必須能夠被捕獲并以只讀格式存儲,以供警察處理交通事故和日后科研所用。(5)無人駕駛車輛需要配備類似飛機(jī)上的“黑匣子”,可以記錄相關(guān)數(shù)據(jù)。為防止過度侵犯公民隱私,“黑匣子”通常只有在發(fā)生交通事故后才能進(jìn)入。(6)參照美國加利福尼亞州的規(guī)定,可以要求無人駕駛汽車的制造商簽署“反病毒”文件,以約束設(shè)計(jì)者、制造商對于反病毒入侵的提前預(yù)防并對未進(jìn)行病毒入侵防控造成的損害承擔(dān)責(zé)任。(4)Cal. Veh. Code§227.16 (2012).(7)具備“V2V”、“V21”技術(shù),這將進(jìn)一步提高互聯(lián)自動駕駛汽車的安全性,因?yàn)樗鼈儗⒛軌蚺c更多的車輛和設(shè)施進(jìn)行通信。
在此領(lǐng)域,可以設(shè)立生產(chǎn)、銷售無人駕駛汽車不符合標(biāo)準(zhǔn)等犯罪,確保只有符合安全標(biāo)準(zhǔn)的無人駕駛汽車才能投入市場。
無人駕駛汽車及其系統(tǒng),在使用階段會被物理侵入、外在的數(shù)據(jù)干擾而造成事故,所以在使用階段需要刑法來進(jìn)行規(guī)制,保障無人駕駛汽車的出行安全。
1. 冒用無人駕駛汽車
為防控?zé)o人駕駛汽車被犯罪分子當(dāng)作犯罪工具使用,無人駕駛應(yīng)該實(shí)施實(shí)名制度。經(jīng)過培訓(xùn)的駕駛?cè)藛T,需要國家機(jī)關(guān)頒發(fā)的準(zhǔn)許駕駛無人汽車編碼,此碼應(yīng)該如身份證號碼一般“人與碼一一對應(yīng)”。在每次駕駛無人汽車時,都需要驗(yàn)證編碼,車輛還需驗(yàn)證編碼與人是否對應(yīng),并需要把這些數(shù)據(jù)存儲到無人駕駛系統(tǒng)里。若是盲人的駕駛編碼,只能操控配備語音操作系統(tǒng)的無人駕駛汽車。未成年人的駕駛編碼需要監(jiān)護(hù)人駕駛編碼的遠(yuǎn)程驗(yàn)證,非所用人借用汽車也需要所有人的遠(yuǎn)程編碼驗(yàn)證等。
在此領(lǐng)域,可以設(shè)立盜用、冒用無人駕駛汽車罪,以保障無人駕駛汽車實(shí)名制度的秩序。
2. 無人駕駛汽車交通肇事
用戶由于操作失誤造成交通事故,并沒有任何理論和實(shí)務(wù)上的困惑。但是,在無人駕駛汽車的條件下判斷用戶的具體責(zé)任時,需要考慮智能時代下整個一代人的“習(xí)得的無能”(learned incompetence),即每個人都習(xí)慣了無人駕駛汽車不出差錯,這就造成了一種可能性,即在一輛發(fā)生故障的汽車?yán)?,?shí)際上沒有人有能力處理緊急情況。[37]所以,刑法在此領(lǐng)域或許應(yīng)做一定的柔性處理。但若是用戶并未經(jīng)過培訓(xùn)而使用無人駕駛汽車,并不需要考慮這一特殊的時代條件。若無人駕駛汽車造成事故,無人駕駛汽車的操作人員具有救助義務(wù),如不救助則有成立“遺棄罪”的余地。
在此領(lǐng)域,可以設(shè)立非法駕駛無人汽車等罪,規(guī)制類似“無證駕駛”的行為。
3. 干擾無人駕駛汽車行駛
干擾無人駕駛汽車行駛,包括干擾無人駕駛汽車硬件設(shè)施和干擾無人駕駛汽車系統(tǒng)兩種情況。隨著無人駕駛汽車的發(fā)展,無人駕駛汽車的硬件本身及其系統(tǒng),都是值得刑法進(jìn)行保護(hù)的獨(dú)立法益。
具體來說,干擾無人駕駛汽車行駛有如下情況:(1)破壞無人駕駛汽車設(shè)施、設(shè)備的,是指盜竊、剝離或添加無人駕駛汽車的設(shè)施、設(shè)備,干擾無人駕駛汽車行駛的情況。此領(lǐng)域可以設(shè)破壞無人駕駛汽車設(shè)施、設(shè)備罪,以預(yù)防此類犯罪的發(fā)生。(2)破壞無人駕駛汽車正常行駛的,是指用身體、器物故意逼停無人駕駛汽車等情況。此領(lǐng)域可以設(shè)破壞無人駕駛汽車正常行駛罪,以規(guī)制諸如此類造成嚴(yán)重影響的行為。(3)破壞無人駕駛汽車系統(tǒng)的,如發(fā)送電磁波干擾無人駕駛汽車系統(tǒng)的雷達(dá)信號、黑客入侵無人駕駛汽車系統(tǒng)等情況。雖說現(xiàn)有制度具有反黑客方面的補(bǔ)救措施,但這些法規(guī)的目的是保護(hù)計(jì)算機(jī)和數(shù)據(jù)免受入侵。在這些情況下,通常的損失是經(jīng)濟(jì)損失,但無人駕駛汽車受到黑客攻擊,損失將是嚴(yán)重的人身傷害、財(cái)產(chǎn)損失,或者兩者兼而有之。因此,在此領(lǐng)域應(yīng)該獨(dú)立設(shè)置非法侵入無人駕駛汽車系統(tǒng)罪,以保障無人駕駛汽車的運(yùn)行安全。
無人駕駛汽車在事故后階段面臨的問題,主要在于事后的補(bǔ)救和責(zé)任方的認(rèn)定問題。如上述為了保障無人駕駛技術(shù)的可持續(xù)發(fā)展,法律需要對為全人類謀福利的高新技術(shù)進(jìn)行一定的讓步,讓步的條件就是整個社會承擔(dān)更多的責(zé)任。
1. 事后的補(bǔ)救
為確保無人駕駛技術(shù)可持續(xù)發(fā)展,歐洲議會議員呼吁“建立一項(xiàng)強(qiáng)制性保險(xiǎn)計(jì)劃和一項(xiàng)補(bǔ)充基金”,以確保無人駕駛汽車的受害者得到充分補(bǔ)償。[38]其中補(bǔ)充基金是指,人工智能系統(tǒng)的研發(fā)者依法向該基金繳納一定數(shù)量的“無人駕駛汽車發(fā)展基金”,當(dāng)無人駕駛汽車造成事故后,由無人駕駛的保險(xiǎn)公司賠償,不足部分由“無人駕駛汽車發(fā)展基金”補(bǔ)充。在美國佛羅里達(dá)州,“在無人駕駛汽車開始測試前,必須向本部門提交一份保險(xiǎn)文書、擔(dān)保保函或本部門可接受的自我保險(xiǎn)證明,金額為500萬美元”。(5)Fla. Stat. §316.86 (2014).在我國,《智能網(wǎng)聯(lián)汽車道路測試管理規(guī)范(試行)》規(guī)定,申請路測時需要提供交通事故責(zé)任強(qiáng)制險(xiǎn)憑證,以及每車不低于500萬元人民幣的交通事故責(zé)任保險(xiǎn)憑證或不少于500萬元人民幣的自動駕駛道路測試事故賠償保函。保險(xiǎn)金制度和補(bǔ)充基金制度,可以為無人駕駛研發(fā)制造階段的主體分擔(dān)風(fēng)險(xiǎn),也能為受害者提供足夠賠償,進(jìn)而保障無人駕駛技術(shù)的發(fā)展保有活力。
在此領(lǐng)域,可以設(shè)置不交、拖欠保險(xiǎn)金和發(fā)展基金罪等犯罪,以確保無人駕駛可持續(xù)性發(fā)展。
2. 責(zé)任的認(rèn)定
不具備專業(yè)算法知識的人,或許根本就無法領(lǐng)悟算法的要旨,也沒辦法明確到底設(shè)計(jì)者、制造商是否在創(chuàng)造無人駕駛汽車系統(tǒng)過程中存在故意或過失。未來更多人工智能將走進(jìn)我們的生活,更多的人工智能“行為”也會踏進(jìn)我們的犯罪圈。那么如何緩解這一證明窘境,或許應(yīng)該加強(qiáng)復(fù)合型人才的培養(yǎng),為應(yīng)對人工智能“犯罪”培養(yǎng)儲備力量。也可以通過加強(qiáng)社會責(zé)任,緩和“設(shè)計(jì)者、制造商和用戶”的責(zé)任,促進(jìn)司法部門與“設(shè)計(jì)者、制造商和用戶”的合作,以明確罪責(zé),整合社會矛盾。還有就是強(qiáng)制設(shè)計(jì)者、制造商,對事故原因進(jìn)行解釋、說明,以緩解責(zé)任認(rèn)定難題。
在此領(lǐng)域,可設(shè)置故意隱瞞人工智能事故原因罪、不履行人工智能事故說明罪等犯罪,以保障罪責(zé)明確,精準(zhǔn)認(rèn)定事故責(zé)任。