陳禹衡
人工智能技術(shù)發(fā)展迅速,而集中映射在社會生活領(lǐng)域的,就是自動駕駛汽車。隨著各種類型、級別的自動駕駛汽車陸續(xù)推出,自動駕駛成了人類社會未來發(fā)展的重要方向。自動駕駛汽車的“大腦”是算法,而對于算法的規(guī)范空缺可能導(dǎo)致其肆意發(fā)展,進而轉(zhuǎn)向技術(shù)進步和社會發(fā)展的反面,阻礙自動駕駛汽車的可持續(xù)發(fā)展。
在域外關(guān)于自動駕駛的相關(guān)規(guī)范文件中,2021年2月22日歐盟網(wǎng)絡(luò)安全委員會ENISA(The European Union Agency for Cybersecurity)發(fā)布《自動駕駛中采用人工智能的安全挑戰(zhàn)》(Cybersecurity Challenges in the Uptake Artificial Intelligence in Autonomous Driving)的報告,旨在就自動駕駛汽車所采用的人工智能技術(shù)相關(guān)的網(wǎng)絡(luò)安全挑戰(zhàn)提供見解。這份報告指出自動駕駛技術(shù)可能存在安全性問題,而其技術(shù)宗旨則是在有限的人工監(jiān)督下運行,鑒于自動駕駛汽車的網(wǎng)絡(luò)安全一般是通過算法系統(tǒng)的安全監(jiān)督進行掌控,所以務(wù)必提高公眾對人工智能算法潛在風(fēng)險的認(rèn)知。與之相對,我國有關(guān)自動駕駛汽車的規(guī)范文件也開始重視自動駕駛的安全問題。2017年7月20日國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃的通知》(國發(fā)〔2017〕35號),提出制定促進人工智能發(fā)展的法律法規(guī)和倫理規(guī)范,重點圍繞自動駕駛、服務(wù)機器人等應(yīng)用基礎(chǔ)較好的細(xì)分領(lǐng)域,加快研究制定相關(guān)安全管理法規(guī),為新技術(shù)的快速應(yīng)用奠定法律基礎(chǔ)。2020年2月10日國家發(fā)展改革委、中央網(wǎng)信辦、科技部發(fā)布《智能汽車創(chuàng)新發(fā)展戰(zhàn)略》(發(fā)改產(chǎn)業(yè)〔2020〕202號),提出要完善技術(shù)標(biāo)準(zhǔn)、加強數(shù)據(jù)安全監(jiān)督管理,前者包括智能汽車中國標(biāo)準(zhǔn)體系的構(gòu)建,后者包括建立覆蓋智能汽車數(shù)據(jù)全生命周期的安全管理機制,明確相關(guān)主體的數(shù)據(jù)安全保護責(zé)任和具體要求??傊?,在世界自動駕駛汽車發(fā)展的浪潮中,不僅要借助技術(shù)搶占發(fā)展先機,還要重視對技術(shù)安全性的監(jiān)管,保障自動駕駛核心算法安全,通過算法優(yōu)化紓解當(dāng)下自動駕駛汽車交通肇事的算法困境。
通過對自動駕駛汽車交通肇事的數(shù)據(jù)建模進行綜合分析,發(fā)現(xiàn)自動駕駛汽車的安全威脅可以分為兩類:故意威脅和無意威脅。故意威脅是指惡意攻擊,通過找尋人工智能算法的缺陷,攻擊算法防護的防守薄弱之處,進而形成對自動駕駛汽車的整體侵害,甚至引發(fā)交通肇事。無意威脅是指因為人工智能算法的自身缺陷,如先天的設(shè)計問題或者后天的學(xué)習(xí)偏差,因而在算法系統(tǒng)內(nèi)部引起了不可預(yù)測的故障或負(fù)面后果,如算法偏見、算法黑箱等。自動駕駛汽車的算法困局主要是無意威脅,但是容易導(dǎo)致諸如交通肇事責(zé)任劃分的爭議、自動駕駛汽車容易陷入道德困局、算法偏見誘發(fā)交通事故等一系列問題,影響自動駕駛乃至人工智能領(lǐng)域的整體安全格局。
伴隨自動駕駛汽車誕生伊始,有關(guān)自動駕駛汽車交通肇事追責(zé)主體的確認(rèn)就存在爭議,進而演化出責(zé)任分配不明的問題。(1)葉明、張潔:《無人駕駛汽車交通事故損害賠償責(zé)任主體認(rèn)定的挑戰(zhàn)及對策》,載《電子政務(wù)》2019年第1期,第69-70頁。尤其是在人工智能算法發(fā)展迅速的技術(shù)背景下,人工智能系統(tǒng)借助算法優(yōu)化的加持,其主體適格性被進一步增強,那么原始的責(zé)任分配格局可能被再一次打破。當(dāng)自動駕駛從低層級的“人機共駕”模式轉(zhuǎn)向高層級的“機器主導(dǎo)”模式,意味著對交通肇事主體的認(rèn)定從駕駛?cè)俗鳛楫?dāng)然主體轉(zhuǎn)向無法確定責(zé)任主體(2)參見袁彬、徐永偉:《“人機共駕”模式下交通肇事罪的適用困境及突圍》,載《廣西大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2019年第5期,第77頁。,那么自動駕駛交通肇事中如何確定追責(zé)主體范圍成為重要問題。
域外通過“實驗倫理學(xué)”的方法對自動駕駛算法與人類價值進行結(jié)合考察,得出自動駕駛汽車的決策主要由三個主體組成:一是政府,由政府決定自動駕駛汽車內(nèi)置算法的編譯程序類型;二是自動駕駛汽車的制造商,由制造商決定具體的算法編碼;三是車主,由車主決定自動駕駛的車型以及對應(yīng)的算法,并根據(jù)實際情況選擇有合適自己的算法程序的自動駕駛車輛。(3)See Bonnefon J F, Shariff A, Rahwan I, The social dilemma of autonomous vehicles, Science, 1573-1576(2016).
在這三個主體中,制造商和車主作為生產(chǎn)者和使用者在交通肇事事故中扮演了重要角色,也是主要的追責(zé)主體。而政府則扮演了事先的監(jiān)管角色,通過規(guī)范文件和行業(yè)標(biāo)準(zhǔn)的制定來指導(dǎo)行業(yè)的整體發(fā)展,和具體交通肇事的聯(lián)系較弱,不能被視為適格的追責(zé)主體。而在算法不斷優(yōu)化的背景下,算法加持下的人工智能系統(tǒng)能否成為刑事追責(zé)的“第三極”則成為當(dāng)下的爭議熱點。因為算法的本質(zhì)是以數(shù)學(xué)方式或者計算機代碼反饋的意見,其運行過程中的程序設(shè)計、最終目的、判斷標(biāo)準(zhǔn)、數(shù)據(jù)編采等選擇都具有一定的主觀性(4)白惠仁:《自動駕駛汽車的“道德算法”困境》,載《科學(xué)學(xué)研究》2019年第1期,第19頁。,而借助深度學(xué)習(xí)的算法,人工智能系統(tǒng)能夠在“感知—思考—行動”機制下運行,通過數(shù)據(jù)訓(xùn)練而構(gòu)建起來的決策邏輯,對環(huán)境感知和交互,并對自己的活動做出具體指令,而這使得人類對人工智能系統(tǒng)的控制能力下降。(5)參見馮玨:《自動駕駛汽車致?lián)p的民事侵權(quán)責(zé)任》,載《中國法學(xué)》2018年第6期,第116頁。有學(xué)者據(jù)此判定人工智能系統(tǒng)具有行為主體性和刑罰感知能力,可以承擔(dān)刑事責(zé)任。(6)程龍:《自動駕駛車輛交通肇事的刑法規(guī)制》,載《學(xué)術(shù)交流》2018年第4期,第83-84頁。那么一旦人工智能系統(tǒng)作為追責(zé)主體介入,原有的刑事追責(zé)局面必然被打破,而如何確定具體的追責(zé)主體,抑或在不同責(zé)任主體間如何劃分責(zé)任,都成為自動駕駛汽車刑事追責(zé)所必須面對的問題。
在Web3.0時代,算法技術(shù)的智能化特征不斷顯現(xiàn)(7)參見劉艷紅:《Web3.0時代網(wǎng)絡(luò)犯罪的代際特征及刑法應(yīng)對》,載《環(huán)球法律評論》2020年第5期,第100頁。,對于自動駕駛汽車的監(jiān)管,本質(zhì)上是對自動駕駛程序算法的監(jiān)管,但囿于自動駕駛汽車算法程序的固有缺陷,則會導(dǎo)致自動駕駛汽車無法獨立適應(yīng)公共交通的行駛環(huán)境,甚至在處理復(fù)雜路況時發(fā)生交通肇事事故。當(dāng)下人工智能系統(tǒng)算法使用的爭議主要有以下兩方面:
一是算法的機械性特征可能導(dǎo)致其在處理復(fù)雜問題時陷入道德困境,人性的缺失導(dǎo)致算法系統(tǒng)在處理極端的道德爭議問題時無法得出合適的結(jié)論,而采用“冷冰冰”的量化后的利益衡量原則處理問題,則得出的結(jié)果不易為公眾所接受。典型的道德爭議問題就是傳統(tǒng)社會視角下“隧道難題”(Tunnel Problem)在自動駕駛算法語境中如何選擇(8)“隧道難題”是指當(dāng)乘客坐在一輛行駛在單行道上的自動駕駛汽車上時,汽車行駛到隧道入口,忽然一個孩子跑到車道中間,堵住了隧道的入口。此時,自動駕駛車輛只有兩個選擇:繼續(xù)行駛撞向孩子,或者轉(zhuǎn)向隧道某一側(cè)的墻壁,從而導(dǎo)致車上的乘客喪生。See Jason Millar, An Ethics Evaluation Tool for Automating Ethical Decision-Making in Robots and Self-Driving Cars, Applied Artificial Intelligence, 787-809(2016).,這是算法選擇和道德選擇在自動駕駛層面相互融合的取舍困境的典型沖突。“隧道難題”本身考驗了自動駕駛汽車算法在車內(nèi)乘客和路上行人之間發(fā)生利益沖突時的價值選擇,而傳統(tǒng)意義上過分要求駕駛?cè)藛T進行自我犧牲的選擇在算法語境下并不能完全被遵照。(9)和鴻鵬:《無人駕駛汽車的倫理困境、成因及對策分析》,載《自然辯證法研究》2017年第11期,第59頁。在自動駕駛汽車的場域內(nèi),在“救自己”還是“救他人”之間決定適用何種選擇顯然主要由自動駕駛汽車的人工智能系統(tǒng)決定,而決策的核心則是幕后的算法。有學(xué)者基于交通肇事事故中不同主體的法律地位,以自主性(autonomy)和一致性(solidarity)作為為功利主義道德辯護的理由(10)See Coca-Vila I, Self-driving cars in dilemmatic situations: An approach based on the theory of justification in criminal law, Criminal Law and Philosophy, 1-24(2017).,認(rèn)為應(yīng)該更多地進行道德選擇,并且在算法程序中事先置入功利主義的道德算法。但是域外通過心理測試分析發(fā)現(xiàn),在此類道德困境中,人們對人工智能系統(tǒng)和人類采用的道德評價標(biāo)準(zhǔn)并不相同。雖然總體上人們希望兩者都采用功利主義取向行為,且相比于人類,人們對人工智能采用功利主義取向行為的期待和評價更高(11)褚華東、李園園、葉君惠等:《個人—非個人道德困境下人對智能機器道德判斷研究》,載《應(yīng)用心理學(xué)》2019年第3期,第262頁。。但是當(dāng)涉及自身利益時,人們對人工智能的這種功利主義偏好可能反轉(zhuǎn),傾向于他人購買功利主義取向的汽車而自己更愿意購買優(yōu)先保護車內(nèi)乘客(自我)的汽車(12)趙雷、李園園、葉君惠等:《人對智能機器行為的道德判斷:現(xiàn)狀與展望》,載《應(yīng)用心理學(xué)》2019年第4期,第312頁。,說明即便植入道德算法,也不能一勞永逸,相反會引發(fā)新的道德選擇爭議。除此以外,如若在自動駕駛的算法中,算法自我學(xué)習(xí)進步的特性可能導(dǎo)致其對道德的理解產(chǎn)生異化,甚至出現(xiàn)“泛道德化”的結(jié)果(13)泛道德化是指對道德標(biāo)準(zhǔn)的追求不斷泛化、道德標(biāo)準(zhǔn)不斷提高,而忽略了公民自身的利益需求,這種泛道德化的風(fēng)險可能促使本不想犧牲自己利益的公民做出無端犧牲,綁架了一般公民的利益訴求。,而這將會嚴(yán)重?fù)p害公眾對于自動駕駛汽車安全性的信任,為了避免自動駕駛汽車陷入道德困境,應(yīng)該引導(dǎo)算法系統(tǒng)妥善處理道德爭議問題。
二是自動駕駛算法所必須面對的算法偏見問題,分為先天算法偏見和后天算法偏見,兩者都會導(dǎo)致人工智能系統(tǒng)在進行決策時做出不合理選擇,而實踐中已經(jīng)出現(xiàn)此類交通肇事事故。先天算法偏見主要是自動駕駛系統(tǒng)算法在編譯時和校正時存在紕漏所致。算法的編譯是人機共生情景下既規(guī)制“人”又規(guī)制“機”的公因式(14)參見[美]勞倫斯·萊斯格:《代碼2.0:網(wǎng)絡(luò)空間中的法律》,李旭、沈偉偉譯,清華大學(xué)出版社2009年版,第6頁。,編譯時的紕漏是程序員在編寫算法程序時,有意或無意對某種情況做出了不合常理的編寫,比如Google公司的圖像識別算法中,就把黑人誤識別為大猩猩,構(gòu)成算法偏見。(15)陳洪兵、陳禹衡:《刑法領(lǐng)域的新挑戰(zhàn):人工智能的算法偏見》,載《廣西大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2019年第5期,第87頁。校正時的紕漏是人工智能系統(tǒng)在進行算法調(diào)適時,不斷地對算法進行強化訓(xùn)練,而當(dāng)訓(xùn)練所采用的機器學(xué)習(xí)模型本身存在偏見時,那么學(xué)習(xí)后的算法也會形成錯誤的邏輯進路,在面對危險情況時遵循錯誤的邏輯進路做出決策。比如2018年美國的Uber交通肇事案,就有研究人員在事后對于行人的圖像數(shù)據(jù)進行采集,并使用菲茨帕特里克量表(Fitzpatrick scale)分析事故,發(fā)現(xiàn)了深色皮膚的人的檢測率要比淺色皮膚的人低5個百分點,而本案中受害人正是黑人女性(16)陳禹衡:《人工智能汽車交通肇事的刑法應(yīng)對——以Uber交通肇事案為研究視角》,載《法治社會》2020年第3期,第25頁。,那么這種算法學(xué)習(xí)校正時可能已經(jīng)隱性存在的算法偏見,最終導(dǎo)致了交通事故。后天算法偏見,則是人工智能汽車在日常行駛過程中,因為當(dāng)事人的指令或者系統(tǒng)自身處理交通狀況時的經(jīng)驗,通過自主學(xué)習(xí)產(chǎn)生的算法偏見,是在自動駕駛汽車出廠以后在特定的使用環(huán)境下形成的。有鑒于此,如何克服人工智能汽車算法中固有的算法偏見缺陷,盡可能地消除算法偏見所帶來的不利影響,關(guān)系到自動駕駛汽車的安全程度,需要從技術(shù)標(biāo)準(zhǔn)、行業(yè)規(guī)范等多方面著手加以克服。
自動駕駛汽車在確定追責(zé)主體上的爭議,是因為算法不斷優(yōu)化導(dǎo)致人工智能的主體性不斷增強,在人機交互的過程中扮演愈發(fā)重要的角色,而人工智能的特殊性改變了傳統(tǒng)交通肇事的責(zé)任分配格局,算法指導(dǎo)下的人工智能系統(tǒng)對責(zé)任乃至生命安全的分配成為需要重新探討的議題。伴隨人工智能系統(tǒng)借助算法優(yōu)化增加其在交通行駛過程中的話語權(quán)重,那么對于適格責(zé)任主體的判斷必須將人工智能系統(tǒng)考慮在內(nèi),并從算法的本質(zhì)特征入手進行分析。借助對算法內(nèi)涵的分析,發(fā)掘算法對于人工智能系統(tǒng)的加持程度,從而判斷是否需要新增適格的責(zé)任主體,以及對原有的責(zé)任分配體系造成何種影響。
關(guān)于自動駕駛汽車交通肇事的責(zé)任主體不明的爭議,是因為自動駕駛汽車借助算法技術(shù)不斷進步所致,當(dāng)下的自動駕駛汽車已經(jīng)從Level2層級向更加智能化的Level5層級發(fā)展,特斯拉總裁馬斯克甚至宣稱在2021年年內(nèi)量產(chǎn)達到Level5級別的自動駕駛汽車,但這同時也引發(fā)了對自動駕駛追責(zé)主體判斷上的“搖擺”。傳統(tǒng)的交通肇事中約95%的交通事故與駕駛員的操作失誤有關(guān)(17)See Elizabeth Whitman, China Traffic Deaths: Move Than 200,000 Annual Facilities in Road Accidents, World Health Organization Says, International Business Times, June 5, 2015, at A5.,而在人工智能駕駛汽車使用后,算法的介入增加了責(zé)任主體判斷的復(fù)雜性。傳統(tǒng)觀點認(rèn)為依然應(yīng)該限于傳統(tǒng)刑法所可能規(guī)制的主體,包括駕駛?cè)?、汽車所有人、汽車生產(chǎn)商的相關(guān)人員、自動駕駛控制程序的開發(fā)人員、向自動駕駛汽車提供數(shù)據(jù)的人員、國家及地方公共團體的相關(guān)人員等。(18)參見[日]松宮孝明:《AI與刑法——以自動駕駛相關(guān)問題為中心》,孫文譯,載《第五屆中日經(jīng)濟刑法研討會論文集(2019)》,第18-20頁。但是這一觀點顯然忽視了人工智能主體性日益進步的客觀現(xiàn)實,也不符合未來人工智能的發(fā)展趨勢。
對于人工智能系統(tǒng)在交通肇事中所扮演的角色,理論界對此有諸多爭議。主體肯定說認(rèn)為在自動駕駛占據(jù)高度主導(dǎo)性的背景下,傳統(tǒng)人類駕駛員角色已經(jīng)逐漸式微,尤其是在強人工智能不斷發(fā)展的背景下,承認(rèn)強人工智能具有刑事責(zé)任主體地位具有合理性,并且具備法益侵害的可能性。(19)王耀彬:《類人型人工智能實體的刑事責(zé)任主體資格審視》,載《西安交通大學(xué)學(xué)報(社會科學(xué)版)》2019年第1期,第140頁。德國學(xué)者希爾根多夫則提出將人工智能類比于法人團體,承認(rèn)其基于程序而進行“意思控制”的動作表述,并藉此承認(rèn)人工智能可以承擔(dān)刑事責(zé)任。(20)參見儲陳城:《人工智能時代刑法歸責(zé)的走向——以過失的歸責(zé)間隙為中心的討論》,載《東方法學(xué)》2018年第3期,第30頁。更有甚者認(rèn)為,自主意識可以從程序員編寫的神經(jīng)細(xì)胞類代碼以及由電學(xué)元件組成的模擬神經(jīng)元中產(chǎn)生并傳導(dǎo)至人工智能(21)馬治國、田小楚:《論人工智能體刑法適用之可能性》,載《華中科技大學(xué)學(xué)報(社會科學(xué)版)》2018年第2期,第110頁。,所以人工智能就是人在虛擬空間的映射,而算法就是人工智能的“大腦”。對于主體肯定說的理論支撐,一是認(rèn)為自動駕駛汽車具有的開放性,因為法律主體只是用以構(gòu)建法律關(guān)系的一種構(gòu)成性的法律工具,那么確立非人類主體法律地位也具有可行性。二是認(rèn)為自動駕駛汽車具有的算法“大腦”,能夠為自動駕駛汽車的正常行駛提供決策,尤其是層級較高的Level5級汽車,具有了擬人化的技術(shù)能力,這種擬人化的能力超出了傳統(tǒng)技術(shù)手段的實施范疇,具有極強的思維邏輯。有鑒于此,在技術(shù)進步的背景下,Level4—Level5層級的自動駕駛汽車有望徹底取代“駕駛?cè)恕背蔀槲ㄒ坏呢?zé)任主體(22)參見張龍:《自動駕駛型道路交通事故責(zé)任主體認(rèn)定研究》,載《蘇州大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2018年第5期,第73頁。,甚至需要因此在立法基礎(chǔ)層面確立人工智能汽車的工具性人格,并以此為中心進行對應(yīng)的規(guī)范設(shè)計(23)參見許中緣:《論智能汽車侵權(quán)責(zé)任立法——以工具性人格為中心》,載《法學(xué)》2019年第4期,第67頁。,將現(xiàn)有人工智能機器人的規(guī)制和責(zé)任制度進行關(guān)聯(lián)考慮。
與之相對,主體否定說認(rèn)為,法律責(zé)任的主體(法律上的人)確立就必須是權(quán)利和義務(wù)的主體,而人工智能系統(tǒng)的義務(wù)與權(quán)利的自始分離使之根本無從獲取法律人格。(24)冀洋:《人工智能時代的刑事責(zé)任體系不必重構(gòu)》,載《比較法研究》2019年第4期,第126頁。雖然人工智能的終極目標(biāo)在于使得機器像人一樣思考并獲得獨立自主學(xué)習(xí)的能力,但其行為不論是預(yù)先設(shè)定還是自主運行,都欠缺法規(guī)范遵從能力的意志性,即便在客觀上造成法益侵害后果,也不具有刑法上的可追責(zé)性。(25)參見時方:《人工智能刑事主體地位之否定》,載《法律科學(xué)》2018年第6期,第67頁。對于主體否定說的理論支撐,一是人工智能系統(tǒng)不具有刑法上的辨認(rèn)和控制能力;二是人工智能系統(tǒng)不具有刑罰適應(yīng)能力,現(xiàn)有框架下討論的“人工智能刑罰”的懲罰效果和救濟效果存疑,刑罰的剝奪性痛苦無法發(fā)揮效用(26)姚萬勤:《對通過新增罪名應(yīng)對人工智能風(fēng)險的質(zhì)疑》,載《當(dāng)代法學(xué)》2019年第3期,第9頁。;三是人工智能系統(tǒng)的求刑權(quán)欠缺,在訴訟成本上成本過高且司法實踐中取證困難。
總之,主體否定說認(rèn)為強行將人工智能系統(tǒng)拔高為法律責(zé)任主體,是人工智能研究反智化的體現(xiàn),違背了刑法基本理論乃至法理常識(27)參見劉艷紅:《人工智能法學(xué)研究的反智化批判》,載《東方法學(xué)》2019年第5期,第119頁。,將其作為獨立的犯罪主體進行刑事追責(zé)也并不符合社會現(xiàn)實狀況(28)王利賓:《弱人工智能的刑事責(zé)任問題研究》,載《湖南社會科學(xué)》2019年第4期,第60頁。。相反會有擴大刑法規(guī)制范圍、損害刑法謙抑性之虞,偏離了傳統(tǒng)犯罪論和刑罰論的基本理念,不能為自動駕駛汽車的交通肇事的刑事歸責(zé)提供解決思路。(29)廖興存:《無人駕駛汽車交通肇事過失刑事責(zé)任論綱》,載《湖南社會科學(xué)》2021年第3期,第123頁。
綜合來看,本文堅持主體否定說的觀點,認(rèn)為雖然當(dāng)下的人工智能汽車快速發(fā)展,但是主體否定說仍然更符合自動駕駛汽車技術(shù)發(fā)展的實際情況。核心原因在于當(dāng)前的自動駕駛汽車的技術(shù)特征意味著其不具有完全的人格主體性,人工智能算法仍然處于弱人工智能爬坡的階段,汽車所具有的機器能動性無法代替人類能動性。而人工智能行駛行為本質(zhì)上仍然依賴系統(tǒng)學(xué)習(xí)功能下的人機互動(30)牛彬彬:《我國高度自動駕駛汽車侵權(quán)責(zé)任體系之建構(gòu)》,載《西北民族大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2019年第3期,第178頁。,其表現(xiàn)出的辨認(rèn)和控制能力是算法程序運算后賦予的,屬于機械認(rèn)知而非自由意志的體現(xiàn)。鑒于承擔(dān)刑事責(zé)任的前提是具有認(rèn)識能力和意志能力,要求具備完全的心智,即辨認(rèn)能力和控制能力,人工智能汽車雖然具有很強的智能性特征,卻只局限于某一領(lǐng)域內(nèi)的自律能力,與完全刑事責(zé)任能力的本質(zhì)不符。(31)莊永廉:《人工智能與刑事法治的未來》,載《人民檢察》2018年第1期,第43頁。有鑒于此,自動駕駛汽車中人工智能的算法特征,更多地表現(xiàn)為對其他類型主體刑事責(zé)任分配的影響,應(yīng)該基于算法介入程度來判斷不同主體在交通肇事中承擔(dān)責(zé)任的限度,將人工智能的算法主體性用于解釋其他類型主體承擔(dān)責(zé)任限度的劃分,而非將其獨立解釋為一種主體類型。
鑒于當(dāng)下的人工智能系統(tǒng)并不適宜作為自動駕駛汽車交通肇事的追責(zé)主體,那么對追責(zé)主體的探討就重新回到生產(chǎn)者和使用者的比較,而由于算法對自動駕駛汽車的控制程度逐漸增加,算法介入程度對責(zé)任劃分的影響也日趨增強。之所以采用算法介入程度作為劃分責(zé)任承擔(dān)的依據(jù):一是因為算法作為自動駕駛汽車的程序核心決定了自動駕駛汽車的實際運行方式,對于算法的編譯、學(xué)習(xí)、訓(xùn)練、應(yīng)用和交通肇事的歸責(zé)直接相關(guān),而其中編譯、學(xué)習(xí)和生產(chǎn)者有直接聯(lián)系,訓(xùn)練、應(yīng)用和使用者有直接聯(lián)系,所以需要將算法作為劃分責(zé)任承擔(dān)的依據(jù)。二是因為算法作為自動駕駛的介入程度關(guān)系到自動駕駛汽車的智能程度,算法的介入程度高,則自動駕駛汽車更“智能”。此時交通肇事的風(fēng)險歸責(zé)被前置化,使用者因為算法的高度介入而對汽車的掌控性降低,人機交互的力度在下降,算法此時具有自我執(zhí)行的屬性,以代碼化的行為標(biāo)準(zhǔn)主動保障其所認(rèn)定的算法正義,所以使用者承擔(dān)的責(zé)任也在削弱。(32)余盛峰:《全球信息化秩序下的法律革命》,載《環(huán)球法律評論》2013年第5期,第112頁。相反,歸責(zé)前置后生產(chǎn)者可能因為算法的介入程度增加而在編譯、學(xué)習(xí)環(huán)節(jié)承擔(dān)更多責(zé)任,但是此時對生產(chǎn)者的歸責(zé)也需要謹(jǐn)慎判斷,否則會增加生產(chǎn)者在算法程序的開發(fā)環(huán)節(jié)的壓力,導(dǎo)致行業(yè)發(fā)展停滯。(33)陳景輝:《自動駕駛與乘客優(yōu)先》,載《華東政法大學(xué)學(xué)報》2020年第6期,第12頁。
總之,以算法介入程度作為責(zé)任劃分依據(jù),體現(xiàn)了算法在整個人工智能系統(tǒng)中扮演的重要角色,符合人工智能系統(tǒng)的歷史發(fā)展潮流,雖然其當(dāng)下無法作為適格的責(zé)任主體,但是在未來具有承擔(dān)更多責(zé)任的可能性。
1.生產(chǎn)者的責(zé)任劃分
對于生產(chǎn)者,其制定并編譯了自動駕駛汽車的算法程序并對算法進行測試,所以具備一定的事故處理“前瞻能力”,其所承擔(dān)的注意義務(wù)也與傳統(tǒng)過失犯罪所要求的當(dāng)場性、即時性注意義務(wù)不同,生產(chǎn)者具有的生產(chǎn)風(fēng)險控制義務(wù)是先期的、前瞻性的,如果在自動駕駛汽車的生產(chǎn)階段就違反了這種注意義務(wù),則對于交通肇事可以成立相應(yīng)過失犯罪。(34)參見彭文華:《自動駕駛車輛犯罪的注意義務(wù)》,載《政治與法律》2018年第5期,第90頁。這里的生產(chǎn)階段,不僅包括算法程序的編譯階段,還包括算法的軟件和車輛的硬件的銜接階段,如果匹配不適格,也構(gòu)成對注意義務(wù)的違反,同時也因創(chuàng)設(shè)風(fēng)險而需要承擔(dān)責(zé)任。(35)參見王?。骸对试S風(fēng)險的解釋論意義——以故意與過失允許風(fēng)險的區(qū)分為視角》,載《蘇州大學(xué)學(xué)報(法學(xué)版)》2018年第4期,第37頁。
有學(xué)者認(rèn)為生產(chǎn)者不應(yīng)該對一般的交通肇事承擔(dān)責(zé)任,而是僅對將存在安全隱患的自動駕駛汽車強行推入市場或者未召回存在安全隱患的汽車的情況承擔(dān)責(zé)任。(36)參見付玉明:《自動駕駛汽車事故的刑事歸責(zé)與教義展開》,載《法學(xué)》2020年第9期,第148頁。這一觀點的論據(jù)有二:第一,其認(rèn)為注意義務(wù)不是抽象的而是具體的,生產(chǎn)者并不能預(yù)見到自動駕駛期間可能出現(xiàn)的各種意外,因此發(fā)生交通事故也不能追究生產(chǎn)者的過失犯罪責(zé)任,否則無異于承認(rèn)嚴(yán)格責(zé)任。(37)參見江溯:《自動駕駛汽車對法律的挑戰(zhàn)》,載《中國法律評論》2018年第2期,第186頁。第二,如若根據(jù)抽象判斷來認(rèn)定過失,會擴大過失行為的認(rèn)定范疇,導(dǎo)致無論行為與結(jié)果之間的聯(lián)系多么間接,行為人對具體結(jié)果能否預(yù)見都可能成立過失,反而違反責(zé)任主義。
本文對此持反對的態(tài)度:一是對于自動駕駛汽車而言,在交通肇事中適用嚴(yán)格責(zé)任實際上符合自動駕駛車輛的技術(shù)指標(biāo)要求,對自動駕駛汽車適用嚴(yán)格責(zé)任制度,不是因為自動駕駛汽車具有“異常危險”或“不合理風(fēng)險”,相反恰恰是因為生產(chǎn)者制造的自動駕駛汽車所具有的危險或者風(fēng)險水平相對較低,遠低于傳統(tǒng)的人類司機的駕駛風(fēng)險。因此在交通肇事中,嚴(yán)格技術(shù)指標(biāo)要求下的自動駕駛汽車很難在司法實踐中被認(rèn)定為具有過失,而為了保護使用者利益,則適用嚴(yán)格責(zé)任制度對生產(chǎn)者追責(zé)。(38)David C, Vladeck, Machines without Principals: Liability Rules and Artificial Intelligence, Washington Law Review, 117-150(2014).
二是有學(xué)者提出“刑事責(zé)任是面向人的懲罰措施,所以不能直接聯(lián)系到系統(tǒng)責(zé)任(此處即人工智能系統(tǒng))”的觀點(39)參見[日]中山幸二:《自動運転の法的課題》,載《國民生活》2017年第10卷,第55頁。,實際上并不能成立。此處對于責(zé)任的追究是延伸至算法系統(tǒng)背后的生產(chǎn)廠家,并未局限于人工智能系統(tǒng)本身,算法指導(dǎo)下的人工智能系統(tǒng)已經(jīng)被排除出適格的法律責(zé)任主體,因此更要追究其背后生產(chǎn)者的責(zé)任,而非讓責(zé)任“憑空消失”。
三是“無論行為與結(jié)果之間的聯(lián)系多么間接都能成立過失”的論斷忽略了算法的技術(shù)的介入。對于生產(chǎn)者而言,只有算法程序在整個交通肇事過失中扮演重要角色時,其才能被判斷為行為和結(jié)果間具有聯(lián)系,算法的介入程度本身就是重要的衡量指標(biāo),因而以此為參照標(biāo)準(zhǔn),并無違背責(zé)任主義之虞。
總之,將自動駕駛汽車的生產(chǎn)者界定為交通肇事責(zé)任的優(yōu)勢風(fēng)險承擔(dān)者,有助于實現(xiàn)受害人的損害救濟、風(fēng)險的合理化分配以及社會研發(fā)成本的最小化。(40)周文康、胡金文、張丹:《自動駕駛汽車侵權(quán)責(zé)任的主體識別及擔(dān)責(zé)形式》,載《經(jīng)濟問題》2021年第2期,第37頁。
2.使用者的責(zé)任劃分
對應(yīng)生產(chǎn)者被賦予的生產(chǎn)風(fēng)險控制的義務(wù),使用者具有日常檢查與風(fēng)險制止的義務(wù)。(41)盧有學(xué)、竇澤正:《論刑法如何對自動駕駛進行規(guī)制——以交通肇事罪為視角》,載《學(xué)術(shù)交流》2018年第4期,第76頁。日常檢查義務(wù)包括隱患排除和定期養(yǎng)護,隱患排除要求使用者在算法自動報錯時對算法錯誤進行上報,并聯(lián)系生產(chǎn)者進行算法校正和維修,定期養(yǎng)護則要求使用者參照汽車的使用說明或智能系統(tǒng)的維護提醒而進行維護(42)龍敏:《自動駕駛交通肇事刑事責(zé)任的認(rèn)定與分配》,載《華東政法大學(xué)學(xué)報》2018年第6期,第79頁。,而使用者在被賦予此義務(wù)前,應(yīng)該由生產(chǎn)者正確、全面和明確地向使用者說明關(guān)于自動駕駛汽車算法系統(tǒng)本身的自動化程度、性能以及使用限制信息。
與之相對,風(fēng)險制止義務(wù)則對使用者提出了更高標(biāo)準(zhǔn)的責(zé)任要求,前置的風(fēng)險制止義務(wù)要求使用者遵循自動駕駛汽車的操作流程進行合理使用,不得對人工智能系統(tǒng)的輸入信息進行違規(guī)修改或刪除,不得干擾傳感器的路況信息采集,亦不可對自動系統(tǒng)元器件進行非法改裝。而后置的風(fēng)險制止義務(wù)則要求使用者在行駛過程中,對車輛算法脫離控制或者處于不良狀態(tài)下時,對自動駕駛車輛進行強制接管,實現(xiàn)人機交互的重置,如2017年德國《道路交通法》(StVG)中,就規(guī)定了使用者的權(quán)利和義務(wù)(43)德國《道路交通法》中規(guī)定在自動駕駛系統(tǒng)接管狀態(tài)下,駕駛員可以不對交通狀況和車輛進行監(jiān)控,但是駕駛員仍需時刻保持清醒戒備狀態(tài)準(zhǔn)備隨時接管。在自動駕駛系統(tǒng)向駕駛員發(fā)出接管請求以及當(dāng)駕駛員發(fā)現(xiàn)自動駕駛系統(tǒng)不能正常工作時,駕駛員應(yīng)立刻接管車輛。,其中包括在危機時刻對車輛的接管,而根據(jù)實驗分析發(fā)現(xiàn),使用者在行駛過程中的注意度越高,則對危險感知越及時,提早接管可以有效減少事故損害后果。(44)參見鈕建偉、張雪梅、孫一品等:《險情中駕駛?cè)私庸茏詣玉{駛車輛的駕駛行為研究》,載《中國公路學(xué)報》2018年第6期,第272頁。但是,使用者坐在自動駕駛汽車上時,對于車輛正常運行的監(jiān)管和交通肇事事故的風(fēng)險制止,本身就因為自動駕駛汽車算法程序的先進性程度不同而有所區(qū)別,必然不能將不同層級的自動化汽車混為一談。當(dāng)算法程序的介入程度越高,使用者就自動駕駛功能進行正確操作與使用的義務(wù)、必要時立即接管汽車的義務(wù)以及車輛運行時警覺的義務(wù)都會降低,生產(chǎn)商應(yīng)該就高層級的自動駕駛汽車的風(fēng)險進行事先告知,讓使用者保持事先警惕,則使用者對應(yīng)承擔(dān)的責(zé)任就越低。
除此以外,有學(xué)者依據(jù)費希爾的道德責(zé)任理論,認(rèn)為人與其他生物的一項重要不同在于人能為他們所做的事情負(fù)道德責(zé)任。(45)參見[美]John Martin Fischer:《責(zé)任與控制:一種道德責(zé)任理論》,楊韶剛譯,華夏出版社2002年版,第1頁。自動駕駛汽車的使用者因不從事駕駛活動,不能滿足引導(dǎo)性控制的個人從事和自由進行的兩重要件,所以不被賦予引導(dǎo)性控制責(zé)任。但是自動駕駛汽車是被監(jiān)管的、順從的、能夠遵循復(fù)雜規(guī)則的主體,使用者能夠?qū)ζ溥M行管制性控制,所以仍然要為自動駕駛汽車引發(fā)的事故承擔(dān)相應(yīng)的道德責(zé)任。(46)顧世春:《費希爾道德責(zé)任理論視角下自動駕駛汽車使用者道德責(zé)任研究》,載《自然辯證法研究》2021年第2期,第113頁。本文認(rèn)為這一觀點并不能成立,因為算法的介入,算法指引下的人工智能系統(tǒng)取代人指引自動駕駛汽車的行駛,算法的控制力和影響力“稀釋”了人的主觀性對自動駕駛汽車的影響,很多交通事故中,人已經(jīng)很難像傳統(tǒng)司機一樣對汽車進行監(jiān)管,遑論管制性控制。算法介入的程度越高,使用者的管制性控制責(zé)任就越弱,這種人為增加的道德責(zé)任只會無端地增加使用者的負(fù)罪感而忽視真正的因果追責(zé),實際上真正的因果追責(zé)趨向應(yīng)該是算法背后的生產(chǎn)者。
總之,對于責(zé)任的具體劃分,算法程序的介入程度實際上和生產(chǎn)者對應(yīng)的責(zé)任相掛鉤,繼而影響了使用者承擔(dān)責(zé)任的份額。即便是人工智能系統(tǒng)通過自我學(xué)習(xí)而做出決策乃至改寫算法本體,也不能被視為“生產(chǎn)者難以預(yù)料和控制的被允許的危險,阻卻其注意義務(wù)”(47)彭文華:《自動駕駛車輛犯罪的注意義務(wù)》,載《政治與法律》2018年第5期,第95頁。。原因在于,算法自我學(xué)習(xí)產(chǎn)生的決策仍然是生產(chǎn)者編譯算法時存在的固有缺陷所致,而改寫程序本體,更可以被視為生產(chǎn)者監(jiān)管不嚴(yán),對算法程序安全后門的設(shè)置存在紕漏,因此需要承擔(dān)責(zé)任。算法的介入程度可以在使用者和生產(chǎn)者的責(zé)任分配中扮演衡量角色,算法介入程度越高,那么生產(chǎn)商對應(yīng)的責(zé)任越高,而使用者對應(yīng)的責(zé)任越低。自動駕駛汽車具有的算法決策優(yōu)勢,就是為了解放個人在道路交通中的精神壓力,那么生產(chǎn)廠商設(shè)計算法程序時的壓力也就來源于此,不能放任責(zé)任后置,給使用者賦予本不應(yīng)該承擔(dān)的因果責(zé)任,更不能給使用者平白增加道德責(zé)任壓力,使用者在這種語境下更應(yīng)該被視為算法的處理元素而存在。
人工智能算法所具有的不可預(yù)測性等隱性缺陷是生產(chǎn)者編譯算法所要改良的重點(48)Matthew U, Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies. Harvard Journal of Law & Technology, 354-400(2016).,而算法作為一種“技術(shù)中介(Technological Mediation)”(49)技術(shù)中介理論,是現(xiàn)象學(xué)上的概念,指技術(shù)本身具有“能動性”,在人與外部世界之間處于特殊的中介調(diào)節(jié)位置,通過塑造人們的感知和行為來調(diào)節(jié)使用者的經(jīng)驗和實踐,構(gòu)建出新的實踐和生活方式。參見朱勤:《技術(shù)中介理論:一種現(xiàn)象學(xué)的技術(shù)倫理學(xué)思路》,載《科學(xué)技術(shù)哲學(xué)研究》2010年第1期,第101頁。,生產(chǎn)者則有責(zé)任和義務(wù)來設(shè)計出好的算法,讓算法的中介調(diào)節(jié)性發(fā)揮積極的正面作用,雖然人工智能系統(tǒng)無法作為責(zé)任承擔(dān)者,但是算法的生產(chǎn)者卻能夠作為實質(zhì)上的責(zé)任承擔(dān)者。(50)贠兆恒、李建清:《“技術(shù)中介”視閾下的角色與責(zé)任變化——以自動駕駛為例》,載《自然辯證法研究》2018年第2期,第40頁。
在算法優(yōu)化的背景下,自動駕駛汽車的算法程序編譯過程被不斷優(yōu)化,但是在此過程中,囿于算法所固有的缺陷,自動駕駛汽車的算法在處理具體問題時仍然面臨一些問題。其一是算法在處理道德邏輯上的爭議難題時,量化處理衡量的原則難以解決可能存在的道德爭議;其二是算法偏見的存在,導(dǎo)致自動駕駛汽車存在誤判的風(fēng)險,甚至?xí)虼擞|發(fā)交通事故。因此需要從基礎(chǔ)原則到具體規(guī)范加以完善,為算法優(yōu)化提供良好的制度支撐。
當(dāng)自動駕駛汽車算法面臨道德爭議時,最關(guān)鍵的問題并不是自動駕駛汽車是否有“道德”,而是預(yù)先設(shè)置的程序算法的倫理和邏輯如何處理現(xiàn)實中的道德爭議難題(51)崔俊杰:《自動駕駛汽車準(zhǔn)入制度:正當(dāng)性、要求及策略》,載《行政法學(xué)研究》2019年第2期,第99頁。,所以需要從算法程序解決問題的邏輯進路入手,分析算法是如何解讀、分化、處理傳統(tǒng)社會視域下的道德爭議難題,并選擇合適的解決方案。
1.當(dāng)下道德算法的觀點評析
在面對道德爭議難題時,很多學(xué)者提出應(yīng)該借助算法程序的量化處理方式,在算法中預(yù)先嵌入道德算法,將人類社會的倫理準(zhǔn)則以量化數(shù)據(jù)的方式內(nèi)置入算法(52)唐興華、郭喨、唐解云:《電車難題、隱私保護與自動駕駛》,載《華東理工大學(xué)學(xué)報(社會科學(xué)版)》2019年第6期,第73頁。,促使算法成為承載“道德代碼”的程序載體,將道德理念“物化”后實現(xiàn)算法技術(shù)的道德化。(53)Peter-Paul Verbeek, Moralizing Technology:Understanding and Designing the Morality of Things, University of Chicago Press, 2011, pp.188-190.造成這一選擇的核心原因在于自動駕駛汽車中只有乘客而沒有駕駛者,因此動態(tài)駕駛行為就需要交由道德算法來控制,尤其是在涉及不可避免的生命損失的碰撞中,由道德算法來決定到底犧牲哪一方顯得更加合理。(54)陳景輝:《算法的法律性質(zhì):言論、商業(yè)秘密還是正當(dāng)程序?》,載《比較法研究》2018年第2期。
當(dāng)下道德算法的理論基礎(chǔ)是功利主義,其所追求的是最大多數(shù)人的最大幸福,通過效用計算,可以犧牲使用者的生命以拯救更多人的生命,這是效用最大化的途徑(55)李偉、華夢蓮:《論自動駕駛汽車倫理難題與道德原則自我選擇》,載《科學(xué)學(xué)研究》2020年第4期,第589頁。,在隧道難題中,采用功利主義的道德算法,就是選擇更多人的生命作為保護對象。在此基礎(chǔ)上,德里克·里本(Derek Leben)基于羅爾斯的“最大化最小值原則”,將功利主義的道德算法更進一步演進成為羅爾斯算法,其不通過舍棄少數(shù)一方達到生存最大化,而是通過最大化弱勢群體的收益推動博弈雙方達成最優(yōu)態(tài)勢。(56)參見隋婷婷、郭喨:《自動駕駛電車難題的倫理算法研究》,載《自然辯證法通訊》2020年第10期,第88頁。
在隧道難題的生存困境中,使用者和行人之間就自動駕駛汽車的可選操作(轉(zhuǎn)彎、直行等)構(gòu)成一個效用函數(shù),羅爾斯算法首先對事故中的各個主體進行賦值,為功利的權(quán)衡判斷奠定基礎(chǔ);其次是對賦值后的選擇對應(yīng)的價值收益進行集中權(quán)衡,選擇出事故主體存活概率的最低收益集合(最小值);最后經(jīng)過循環(huán)窮舉,篩選出將最低收益最大化的操作,若多種操作收益相同,則使用隨機數(shù)決定最終操作。(57)高兆明、高昊:《信息安全風(fēng)險防范與算法法則的價值原則——自動駕駛汽車研發(fā)的兩個實踐哲學(xué)問題》,載《哲學(xué)動態(tài)》2017年第9期,第83頁。采用功利主義基礎(chǔ)上的羅爾斯算法,能夠最大化使用者與行人的生存率且努力達成兩者間的合作共生,能在最大程度上消除使用者對自動駕駛集體算法安全性的擔(dān)憂。與利己主義的自我保護原則相比,羅爾斯算法采取了“無知之幕”中將原初狀態(tài)的主體收益最大化的框架,并且根據(jù)情境的差異調(diào)動規(guī)則(58)余露:《自動駕駛汽車的事故算法及其限度》,載《自然辯證法通訊》2019年第1期,第20頁。,避免了純粹利己主義原則降低社會總體生存率的后果。
對于基于功利主義的道德算法,雖然在理論上進行了諸多研究,但是在實際使用中,苛責(zé)自動駕駛汽車在面對交通肇事時,做出連正常公民都不一定能夠?qū)崿F(xiàn)的道德選擇,并不一定具有可能性。
一是,對于道德算法本身,采用量化的指標(biāo)來描述公民的道德情感并不具有可行性;對于個人生命而言,康德的義務(wù)論原則認(rèn)為人是目的而不是工具,個人的生命是不存在差別的,不能簡單認(rèn)為數(shù)個行人的生命就比使用者的生命更重要,所以生命不同于一般意義上可以犧牲的法益而能被量化(59)參見[德]漢斯·海因里?!ひ?、托馬斯·魏根特:《德國刑法教科書總論》,徐久生譯,中國法制出版社2001年版,第435頁。。既然生命無法被量化,那么就無法將車上人的生命和隧道中人的生命進行量化衡量,更無法量化為道德算法進行程序內(nèi)嵌。
二是,道德算法的內(nèi)涵較為復(fù)雜,考慮到道德的多元化(60)白惠仁:《自動駕駛汽車的倫理、法律與社會問題研究述評》,載《科學(xué)與社會》2018年第1期,第76-77頁。,如何將道德內(nèi)涵轉(zhuǎn)化為算法本身就存在難度,諸如自治(autonomy)、社群(community)、身份(identity)、價值(value)及移情(empathy)等多個層面的道德因素都難以被評價衡量,也無法估量其權(quán)重。(61)See Mcbride N, The Ethics of Driverless Cars, ACM SIGCAS Computers and Society, 179-184(2016).對于道德元素的功利主義衡量實際上可行性較低,邊沁就曾指出進行精確的功利計算的困難,諸如惡意傷害在強度和持續(xù)性方面確實是未知的、不確定的和遙遠的,所以難以進行衡量計算。(62)錢圓媛:《“道德機器”的道德偏差與無人駕駛技術(shù)的倫理設(shè)計》,載《東北大學(xué)學(xué)報(社會科學(xué)版)》2021年第3期,第10頁。此外,自動駕駛汽車是動態(tài)而非靜態(tài),當(dāng)汽車從A地移動到B地時,AB兩地的道德不同,那么當(dāng)?shù)赖鲁霈F(xiàn)沖突時道德算法如何選擇,說明道德算法的內(nèi)嵌并不可行。
三是,對于購買自動駕駛汽車的使用者而言,其購買的目的在于自動駕駛汽車的低事故率,保障自身安全是使用者所看重的第一要義,大部分人在購買自動駕駛汽車時,都會傾向于購買基于自我保護算法的車。(63)See Bonnefon J, The Social Dilemma of Autonomous Vehicles, Science, 1573-1576(2016).由此可見,如果要求自動駕駛汽車加入道德算法,只會違背自動駕駛汽車的使用需求,阻礙自動駕駛汽車的發(fā)展。
四是,在置入道德算法后,人工智能系統(tǒng)無法限制算法的自我學(xué)習(xí),那么道德算法作為人類情感的投射,加速了人工智能的“近人性”發(fā)展,會傾向于將自我識別為“人”的一種,并傾向于用意圖或者感情去解釋自身“行為”(64)郭明龍、王菁:《人工智能法律人格賦予之必要性辨析》,載《交大法學(xué)》2019年第3期,第27頁。,產(chǎn)生“泛道德化”傾向。那么采用道德算法的汽車在面對道德爭議時,如果因為“泛道德化”而脫離系統(tǒng)控制,甚至可能出現(xiàn)犧牲使用者而保全車體自身的情形,那此時使用者拒絕“被犧牲”而強行接管自動駕駛車輛,屬于正當(dāng)防衛(wèi)抑或緊急避險?不管如何,使用者的責(zé)任無疑被道德算法強行綁定并擴張。(65)參見魏超:《法確證利益說之否定與法益懸置說之提倡——正當(dāng)防衛(wèi)正當(dāng)化依據(jù)的重新劃定》,載《比較法研究》2018年第3期,第189頁。所以如若道德算法出現(xiàn)“泛道德化”,那么將難以為生產(chǎn)者或使用者所掌控,也無法預(yù)測自動駕駛系統(tǒng)的選擇走向。質(zhì)言之,如果交通事故不可避免,那么多數(shù)人不愿將選擇權(quán)交由機器,“泛道德化”的決策將加劇公眾的不信任,甚至可能導(dǎo)致公眾抵制自動駕駛汽車。(66)See Waldrop M, No Drivers Required, Nature, 20-23(2015).
2.自我保護原則的具體適用
鑒于道德算法的個人倫理設(shè)定(personal ethics setting)存在明顯的道德缺陷,以至于自動駕駛的道德算法,最終只能是強制性的倫理設(shè)定(mandatory ethics setting)。(67)陳景輝:《自動駕駛與乘客優(yōu)先》,載《華東政法大學(xué)學(xué)報》2020年第6期,第8頁。而有學(xué)者則據(jù)此反對在自動駕駛中植入道德算法,應(yīng)基于自我保護原則的優(yōu)先適用來指引人工智能程序的運行,堅持自動駕駛汽車的使用者受到優(yōu)先保護,算法不應(yīng)當(dāng)為避免碰撞而選擇人數(shù)更少的對象,而在只付出合理代價就可以帶來更大社會善的情形下,算法也可以對使用者施加可允許的傷害。(68)參見朱振:《生命的衡量——自動駕駛汽車如何破解“電車難題”》,載《華東政法大學(xué)學(xué)報》2020年第6期,第20頁。有鑒于此,當(dāng)自動駕駛汽車面對隧道難題時,與其期冀算法通過預(yù)設(shè)的道德倫理立場來進行判斷和取舍,不如直接在算法中強化其自我保護原則,自我保護原則是倫理利己主義觀念在自動駕駛算法中的直接體現(xiàn)。
對于自動駕駛汽車而言,采用道德算法并不具有可行性,相反,強化自我保護原則反而具有最大的適用可行性,并能夠促進自動駕駛汽車算法的不斷優(yōu)化。有學(xué)者嘗試在自動駕駛汽車中編入具體的算法規(guī)則,即“對違反交通規(guī)則的道路交通參與者不利,對有其他違規(guī)行為的道路交通參與者不利,優(yōu)先保護自動駕駛汽車內(nèi)部的乘客,優(yōu)先保護非自動駕駛汽車乘客”(69)王鈺:《生命權(quán)沖突的緊急狀態(tài)下自動駕駛汽車的編程法律問題》,載《浙江社會科學(xué)》2019年第9期,第76-78頁。,而這一規(guī)則本身就是自我保護原則的具體體現(xiàn)。對于自我保護原則的具體設(shè)定,本文認(rèn)為應(yīng)該基于算法的框架下進行調(diào)試,優(yōu)化其適用路徑。
第一是將自我保護原則作為邏輯進路用以指導(dǎo)自動駕駛汽車在面對隧道難題等爭議選擇的優(yōu)先選擇路徑,這種內(nèi)置的保護原則能夠幫助使用者在無法瞬時做出選擇時保護自身的安全,將使用者的利益作為算法程序的最優(yōu)先選擇。
第二是區(qū)分全局最優(yōu)和局部最優(yōu),在算法框架下,對于選擇的最終結(jié)果需要考慮全局最優(yōu)和局部最優(yōu)。全局最優(yōu)是使用者和行人都在隧道難題中獲得最優(yōu)結(jié)果,而局部最優(yōu)則是僅使用者或者行人獲得最優(yōu)結(jié)果,但是會犧牲另一方利益,適用自我保護原則也應(yīng)該追求全局最優(yōu)的結(jié)果,也就是使用者可以承受“可允許的傷害”。這和功利主義的道德算法的區(qū)別是其可被允許的限度遠低于功利主義的完全衡量的限度,可允許的傷害不可能涉及對使用者生命安全的衡量。
第三是自我保護原則的使用也要遵從使用者的自身意志,在算法程序框架內(nèi),可以由使用者自己預(yù)先調(diào)整懲罰系數(shù)(penalty term),比如使用者的安全系數(shù)X1和行人的安全系數(shù)X2,當(dāng)使用者自愿降低自身的安全系數(shù)X1時,自我保護原則在程序中應(yīng)該體現(xiàn)為對X2的上升,也就是對行人的保護力度較大,對自我保護原則的權(quán)重衡量進行調(diào)整。但是,這里的算法應(yīng)該基于自我保護原則設(shè)置X1的底線系數(shù),否則容易由自我保護原則滑向功利主義的道德算法。
綜合來看,在自動駕駛汽車的算法程序中強調(diào)自我保護原則,理論基礎(chǔ)是利己主義,但是利己主義并不是禁止幫助別人,而是在對使用者產(chǎn)生較小威脅時才可以損失自己的利益,保護行人的利益處于第二選擇。(70)[美]邁克爾J.奎因:《互聯(lián)網(wǎng)倫理:信息時代的道德重構(gòu)》,王益民譯,電子工業(yè)出版社2016年版,第25頁。采用自我保護原則,一是能夠最大程度保障使用者安全,實現(xiàn)自動駕駛汽車的目的追求,提升自動駕駛汽車的安全性;二是能夠簡化算法程序,避免程序過于復(fù)雜出現(xiàn)沖突,降低算力損耗;三是自我保護原則具有較強的普適性,不易落入邏輯陷阱,即使在復(fù)雜的交通肇事場景下,自我保護原則也能化繁就簡,謀求最大程度地保護使用者的安全,避免道德算法所可能陷入的道德爭議困境。
實際上,人工智能算法所具有的自主學(xué)習(xí)特征會促使其不斷演進,即便是生產(chǎn)者如公眾所愿,為自動駕駛汽車設(shè)計倫理規(guī)范并內(nèi)置道德算法,也可能在實際運行過程中逐漸異化。對于自動駕駛汽車而言,承認(rèn)或部分承認(rèn)了機器具有道德屬性,妄圖通過機器能動性(machine agency)替代人類能動性(human agency),只會擾亂交通肇事的道德責(zé)任邊界。(71)See Coeckelbergh M, Responsibility and the Moral Phenomenology of Using Self-Driving Cars, Applied Artificial Intelligence, 748-757(2016).因此,在尊重各方利益主體訴求的基礎(chǔ)上,采用更加穩(wěn)妥的自我保護原則來處理此類“隧道難題”的道德爭議,反而能夠以最小的使用成本實現(xiàn)對各方利益的衡量和維護。
自動駕駛汽車的核心是算法(Algorithm),由人類為完成某項任務(wù)而在設(shè)計軟件時嵌入的數(shù)字化流程或者規(guī)則。由于人工智能和大數(shù)據(jù)技術(shù)的發(fā)展,越來越多的算法決策被用于處理復(fù)雜的任務(wù),提升系統(tǒng)處理效率。(72)參見陸凱:《美國算法治理政策與實施進路》,載《環(huán)球法律評論》2020年第3期,第5頁。而自從算法誕生伊始,有關(guān)算法偏見的爭議就一直存在,在自動駕駛汽車的發(fā)展過程中,算法偏見不僅從一開始就隱藏在人工智能系統(tǒng)中(先天算法偏見),并且因為人工智能具有的自我學(xué)習(xí)特性(后天算法偏見),而有日趨嚴(yán)重之勢。實際上,當(dāng)下的技術(shù)手段無法完全消除算法偏見,只能在全面地審視“偏見”和“公平”內(nèi)涵的基礎(chǔ)上(73)Solon Barocas & Andrew D, Selbst, Big Data’s Disparate Impact, California Law Review, 2016, p. 671.,借助優(yōu)化編譯程序矯正與遏制算法偏見,實現(xiàn)對算法“盡力避免錯誤和偏見”的工具性治理目標(biāo)。
1.針對先天算法偏見做到嚴(yán)格審查
治理先天算法偏見,首先需要明確自動駕駛算法編譯的初始目標(biāo),是借助算法程序指導(dǎo)人工智能系統(tǒng)的運行,因此需要在保障算法使用效率的基礎(chǔ)上對算法進行嚴(yán)格審查。在算法治理的框架內(nèi),“算法即規(guī)則,規(guī)則即統(tǒng)治”,先天性的算法偏見本身就是社會治理過程中固有偏見在算法中的集中“映射”。(74)參見董青嶺、朱玥:《人工智能時代的算法正義與秩序構(gòu)建》,載《探索與爭鳴》2021年第3期,第83頁。當(dāng)算法在設(shè)計學(xué)習(xí)模型時的無偏差校正實驗環(huán)節(jié)出現(xiàn)疏漏,或者對真實分析的數(shù)據(jù)處理出現(xiàn)偏差,導(dǎo)致漏報、瞞報數(shù)據(jù),數(shù)據(jù)本身無法維持正態(tài)分布(75)參見陳禹衡、陳洪兵:《反思與完善:算法行政背景下健康碼的適用風(fēng)險探析》,載《電子政務(wù)》2020年第8期,第95頁。,那么就會最終體現(xiàn)為先天算法偏見且難以被發(fā)現(xiàn),甚至在學(xué)習(xí)模型的訓(xùn)練后呈指數(shù)級放大。除此以外,算法設(shè)計者本身的價值觀念也可能被帶入學(xué)習(xí)模型構(gòu)建和程序代碼編譯的過程??傊瑸榱讼忍焖惴ㄆ?,需要秉持從形式審查到實質(zhì)審查的模式,對算法的原始代碼進行嚴(yán)格審查。
第一,算法的形式審查需要對算法的編譯方式、算法的運行邏輯、算法的數(shù)據(jù)采用、算法的學(xué)習(xí)模型進行審查。對于算法的編譯方式進行審查,意味著自動駕駛系統(tǒng)的算法編譯方式要符合當(dāng)下的數(shù)據(jù)運行機理,按照正常的算法運轉(zhuǎn)模式,設(shè)置算法在面對交通肇事時的數(shù)據(jù)處理順序,并提供通暢的解決模式輸出通道,最大程度地發(fā)揮算法的算力,避免出現(xiàn)重復(fù)計算等無端消耗算力的行為。對于算法的運行邏輯進行審查,要求運行邏輯在法律框架內(nèi)進行,將道路交通安全法等規(guī)范文件,以量化的方式置入算法程序中。比如日本在2016年發(fā)布的《自動駕駛系統(tǒng)的道路實證測試指南》中,規(guī)定了智能汽車公路測試中駕駛員職責(zé)、車輛條件、事故預(yù)防和應(yīng)對等內(nèi)容,這些規(guī)范內(nèi)容都應(yīng)該以程序代碼的形式內(nèi)置于自動駕駛汽車的算法中,用算法處理交通肇事難題。對于算法的數(shù)據(jù)采用進行審查,是避免算法采用的數(shù)據(jù)存在傾向性,或者用于校正實驗的數(shù)據(jù)不夠全面,導(dǎo)致算法處理問題的邏輯進路存在偏差。數(shù)據(jù)采用在構(gòu)建和驗證人工智能系統(tǒng)中發(fā)揮重要作用,其關(guān)系到評估系統(tǒng)和測試模型安全性和穩(wěn)定性,應(yīng)該盡可能避免出現(xiàn)未預(yù)期的算法運行結(jié)果,對采用數(shù)據(jù)進行嚴(yán)格的標(biāo)準(zhǔn)化審查,并以規(guī)范文件的形式加以規(guī)定。對于算法的學(xué)習(xí)模型進行審查,需要采用可信的國家標(biāo)準(zhǔn)或行業(yè)標(biāo)準(zhǔn)制定出的學(xué)習(xí)模型,才能有效地測試自動駕駛的算法程序,避免關(guān)鍵組塊的缺失。比如在學(xué)習(xí)模型中加入“風(fēng)險—效用測試(Risk-utility Test)”模塊,可以檢測自動駕駛汽車可能存在的產(chǎn)品風(fēng)險缺陷,最大程度地保障自動駕駛汽車的運行安全。
第二,算法的實質(zhì)審查主要是審查可能隱藏的算法偏見風(fēng)險,要求自動駕駛的算法運行結(jié)果符合相關(guān)規(guī)范的預(yù)期目的。其一是展開道德審查,雖然在自動駕駛的程序算法中內(nèi)嵌入道德算法容易造成人工智能系統(tǒng)“泛道德化”,存在對人身安全的威脅,但這并不代表在算法實質(zhì)審查環(huán)節(jié)使用道德審查也會存在這一風(fēng)險。通過道德審查,主要是防止編譯人員自身的道德取向被有意或無意地編入程序算法中,因為這種編入方式具有較高的隱蔽性,容易導(dǎo)致算法在日后的運行中因為算法偏見而導(dǎo)致交通事故,所以應(yīng)該基于社會的公序良俗對算法進行道德審查,將道德原則內(nèi)化于技術(shù)評判規(guī)則中,而非簡單地植入道德代碼。其二是進行銜接審查,也就是對軟件系統(tǒng)中的算法程序和車輛硬件系統(tǒng)的適配進行審查,通過調(diào)試測驗算法和硬件的匹配程度,防止自動駕駛汽車的算法代碼無法用于指導(dǎo)車輛的硬件而導(dǎo)致交通事故。如特斯拉就曾出現(xiàn)因為算法程序編譯問題導(dǎo)致剎車系統(tǒng)抱死引發(fā)交通事故,這是因為特斯拉的電子控制單元(ECU)大多來自不同的第三方供應(yīng)商,如果沒有進行良好的算法銜接調(diào)適,則會在集成后出現(xiàn)使用風(fēng)險,因此需要對硬件和軟件進行系統(tǒng)性的銜接審查。其三是進行安全檢查,對于自動駕駛系統(tǒng)中的算法程序,除了正常的運行程序外,一般會內(nèi)置安全程序,以防止自動駕駛系統(tǒng)產(chǎn)生算法偏見或者程序運行錯誤,日本《自動駕駛系統(tǒng)的道路實證測試指南》中則規(guī)定生產(chǎn)者要保證控制系統(tǒng)及傳感器必須有算力冗余,保障系統(tǒng)安全。(76)張韜略:《自動駕駛汽車道路測試安全制度分析:中日立法的比較》,載《科技與法律》2019年第4期,第77頁。安全程序作為人工智能駕駛的最終“安全閥門”,在自動駕駛的安全運行中扮演重要角色,因此要將自動駕駛預(yù)期功能安全(SOTIF)接受準(zhǔn)則以量化的方式置入程序算法中,建立可控的安全度量指標(biāo)體系。(77)李波、尚世亮、郭夢鴿等:《自動駕駛預(yù)期功能安全(SOTIF)接受準(zhǔn)則的建立》,載《汽車技術(shù)》2020年第12期,第1頁。
2.針對后天算法偏見做到事先預(yù)防
對于自動駕駛系統(tǒng)的后天算法偏見,有學(xué)者認(rèn)為包括學(xué)習(xí)性偏見和外源性偏見,而這兩者都是自動駕駛汽車在具體使用過程中逐漸產(chǎn)生的算法偏見,在本質(zhì)上具有共性,都是因為受公共資源配置、道路交通運行以及社會主流價值觀的影響而產(chǎn)生的算法偏見。(78)參見[美]胡迪·利普森、梅爾芭·庫曼:《無人駕駛》,林露茵、金陽譯,文匯出版社2017年版,第1頁。而對于后天算法偏見的產(chǎn)生,鑒于偏見本身是一種“未經(jīng)仔細(xì)審查并考慮事實就倉促作出的不成熟的判斷,是缺乏自明性論證的因素”(79)汪靖:《從人類偏見到算法偏見:偏見是否可以被消除》,載《探索與爭鳴》2021年第3期,第32頁。,所以妄圖徹底消除顯然不夠現(xiàn)實,而采用事先預(yù)防則更符合自動駕駛汽車行業(yè)發(fā)展的實際狀況。
第一,對于后天算法偏見的事先預(yù)防,應(yīng)該在算法程序中預(yù)留補充規(guī)范文件的端口,并且及時將最新的規(guī)范文件置入。比如在聯(lián)合國汽車技術(shù)法規(guī)UN/ECER.79.5.1.6.1中規(guī)定,當(dāng)車速超過10公里/小時,汽車的自動轉(zhuǎn)向功能就應(yīng)當(dāng)被自動禁用,該規(guī)定就對自動駕駛汽車中自動轉(zhuǎn)向系統(tǒng)上的變道輔助和車道保持輔助功能進行限制(80)Mervyn Edwards, Matthias Seidl, Michelle Tress. Study on the assessment and certification of automated vehicles, Publications office of the European Union, 2016, pp. 13-15.,所以應(yīng)該以程序代碼的形式輸入算法程序中,保證自動駕駛汽車在運行過程中遵循這一規(guī)定。為算法程序預(yù)留補充規(guī)范文件的端口,可以實現(xiàn)自動駕駛汽車在運行過程中的不斷學(xué)習(xí),避免陷入“封閉—落后—事故—封閉”的循環(huán)怪圈,將算法的自我學(xué)習(xí)技能用于正向的校正學(xué)習(xí),避免因為缺失對最新規(guī)范文件的認(rèn)知而導(dǎo)致算法偏見。
第二,對于后天算法偏見的事先預(yù)防,應(yīng)該在算法程序中加入事先預(yù)警程序,實時監(jiān)管自動駕駛算法程序并事先預(yù)警。自動駕駛汽車需要定期對運行過程中的數(shù)據(jù)進行復(fù)核和檢查,對于違規(guī)運行數(shù)據(jù)進行剔除并警戒,避免人工智能的自我學(xué)習(xí)系統(tǒng)因為錯誤的學(xué)習(xí)來源而走向正常運行的反面,實現(xiàn)對算法程序的正向引導(dǎo),消除后天算法偏見的來源。在美國交通運輸部(DOT)發(fā)布的《聯(lián)邦自動駕駛汽車政策》(Federal Automated Vehicles Policy)中,其第三部分與第四部分均強調(diào)了“監(jiān)管工具”,并配合《自動駕駛汽車法案》(Self Drive Act),聯(lián)合構(gòu)建了自動駕駛汽車監(jiān)管的基本框架。有鑒于此,對于后天算法偏見,加強監(jiān)管主要是對駕駛數(shù)據(jù)的篩選和監(jiān)管,對于算法系統(tǒng)中可能出現(xiàn)的負(fù)面趨向,應(yīng)該由監(jiān)管系統(tǒng)提前預(yù)警,預(yù)警自動駕駛汽車的使用者進入接管狀態(tài)或校正汽車運行行程。(81)Caitlin B, Where We’re Going,We don’t Need Drivers: The Legal Issues and Liability Implications of Automated Vehicle Technology, UMKC Law Review, 2015, p. 769.除此以外,預(yù)防后天算法偏見還需要設(shè)計一定的冗余時間使得自動駕駛系統(tǒng)能夠有效應(yīng)對,在監(jiān)管和預(yù)警程序生效后,自動駕駛系統(tǒng)在反饋后做出應(yīng)對需要時間。(82)蘇令銀:《論機器倫理視域中自動駕駛汽車的道德決策》,載《科學(xué)技術(shù)哲學(xué)研究》2019年第3期,第84頁。
自動駕駛汽車技術(shù)高速發(fā)展,而在復(fù)雜的技術(shù)背后,人工智能系統(tǒng)、生產(chǎn)者、使用者之間的關(guān)系在算法框架內(nèi)被不斷重塑且日趨復(fù)雜,導(dǎo)致對于算法的優(yōu)化和規(guī)制陷入難以預(yù)見的境地。(83)Harry Surdent, Mary-Anne Williams, Technological Opacity, Predictability, and Self-Driving Cars, Cardozo Law Review, 2016, p. 178.有鑒于此,為了化解自動駕駛汽車算法可能產(chǎn)生的風(fēng)險,一方面,需要依賴技術(shù)進步,通過自動駕駛汽車算法技術(shù)的不斷優(yōu)化來解決現(xiàn)有的爭議和困難;另一方面,需要通過相應(yīng)的制度選擇和法律創(chuàng)設(shè)來紓解困局(84)吳漢東:《人工智能時代的制度安排與法律規(guī)制》,載《法律科學(xué)》2017年第5期,第130頁。,通過完善算法對應(yīng)的規(guī)范制度,完善自動駕駛汽車系統(tǒng)集成的產(chǎn)業(yè)鏈,促進自動駕駛汽車進一步發(fā)展。