[摘 要]基于人工智能內(nèi)在的復(fù)雜性與不可控性,人工智能的刑事因果關(guān)系相較于傳統(tǒng)因果關(guān)系更為抽象。目前學(xué)界主要有兩種針對人工智能刑事因果關(guān)系的判斷標(biāo)準(zhǔn)——風(fēng)險標(biāo)準(zhǔn)模式與雙重篩選的條件說。當(dāng)前,人工智能仍然處于初級階段,并未具備法律主體的身份。但無論人工智能是否具備法律主體資格,當(dāng)根據(jù)風(fēng)險標(biāo)準(zhǔn)模型來分析具體案例時,都必須考慮到行為主體的行為分類、主觀狀態(tài)及其他可能存在的干預(yù)因素,這可能會對原有的刑事因果關(guān)系產(chǎn)生影響。按照雙重篩選的條件說則不需要考慮區(qū)分情形、主觀上是故意還是過失,以及介入因素等問題。
[關(guān)鍵詞]人工智能;刑事因果關(guān)系;風(fēng)險標(biāo)準(zhǔn)模式;雙重篩選;
條件說
一、問題的提出
當(dāng)前人工智能技術(shù)的飛速發(fā)展已經(jīng)超出了人類的社會預(yù)期,現(xiàn)實中已發(fā)生多起人工智能犯罪案件。在人工智能下面臨的法律問題主要表現(xiàn)在人工智能主體資格的可適應(yīng)性,然而,隨著深入人工智能時代,法律因果關(guān)系的調(diào)節(jié)及其適當(dāng)性可能會經(jīng)歷某種程度的削弱和偏差。因此,確定如何將人工智能及其行為和結(jié)果歸因于客觀現(xiàn)象并于其進行主觀責(zé)難的法律因果關(guān)系,顯得尤為關(guān)鍵。人工智能的行為和傳統(tǒng)法律行為有著明顯的差異,同樣,確認(rèn)其刑事因果關(guān)系的方式也和確定傳統(tǒng)行為的法律因果關(guān)系的方法有所不同。在涉及涵蓋兩個或多個主體的情況下,確定犯罪結(jié)果和不同主體間的刑事因果關(guān)系如何建立,將是學(xué)者們需要深入研究的問題[1]。
二、人工智能刑事因果關(guān)系的判斷標(biāo)準(zhǔn)
解決人工智能的刑事責(zé)任問題,需要明確識別人工智能的犯罪行為和產(chǎn)生的效果之間的因果關(guān)系。因此,確定何種準(zhǔn)則用于確認(rèn)人工智能的刑事責(zé)任中的因果關(guān)系,顯得極為關(guān)鍵。
(一)風(fēng)險標(biāo)準(zhǔn)模式
風(fēng)險標(biāo)準(zhǔn)模式起源于英美法律系統(tǒng),它可以根據(jù)行動的種類將其劃分為積極和消極的行為,其中因果關(guān)系的判斷關(guān)鍵在于行為風(fēng)險的相關(guān)性。在積極行為中,行為者是利用定向的人工智能進行違法行為。在使用人工智能時,行為者意識到自己擔(dān)負(fù)的法律風(fēng)險,且可以預(yù)測由此風(fēng)險帶來的后果,所以,可以肯定的是,行為者就是人工智能行為的實施者,并且與結(jié)果存在因果關(guān)系。
在行為層面,表現(xiàn)為主體對具有指導(dǎo)性的人工智能不履行職責(zé)。透過行為邏輯來看,若某人有意識地進行某種活動,他能夠預(yù)測和理解潛在的危險。但是,從非行動的角度來看,一個人可能會故意、疏漏或意外地不去行動,這種情況下他可能無法預(yù)見行為可能引發(fā)的風(fēng)險。因此,在法律上分析因果關(guān)系時,分析的核心主要是行為者在不作為的情況下對風(fēng)險的認(rèn)識能力。不作為的風(fēng)險認(rèn)知能力可以再細(xì)分為主動不作為和被動不作為的認(rèn)知能力。首先,對主動不作為的風(fēng)險認(rèn)知能力而言,主動不作為受到有意識的行為控制,行為者對不作為可能帶來的風(fēng)險明顯能夠預(yù)見,認(rèn)識上沒有障礙,因此,應(yīng)該直接確認(rèn)行為者在人工智能行為中存在刑事因果關(guān)系。然后,在被動不作為的風(fēng)險認(rèn)知能力中,被動不作為是受到疏忽的行為控制,其不作為的義務(wù)實際上是要求行為人對該風(fēng)險保持注意并有行動義務(wù),并且產(chǎn)生的風(fēng)險是可以避免的。這個時候的風(fēng)險判定僅限于行為者能夠認(rèn)識的范圍內(nèi),對超出范圍的風(fēng)險則不被認(rèn)為存在刑事因果關(guān)系,無需承擔(dān)刑事責(zé)任。
(二)雙重篩選的條件說
根據(jù)條件論的基本框架,雙重篩選條件將客觀歸責(zé)理論的理性思考融入其中,形成了確定因果關(guān)系判斷的標(biāo)準(zhǔn)[2]。仔細(xì)觀察,客觀歸責(zé)理論將行為結(jié)果歸咎于三個因素:首先,行為造成了無法容忍的危險;其次,行為誘發(fā)了無法忍受的危險;最后,結(jié)果沒有超出構(gòu)成犯罪的保護范圍。在上述三個因素中,前兩個用于定義條件論中所涉及的因果關(guān)系需要的一個元素——行為;而最后一個因素則用于確定條件論涉及的因果關(guān)系所需的另一個元素——結(jié)果。
在雙層篩查機制中,“初級篩查”意指從法律規(guī)定的領(lǐng)域篩選出結(jié)果并排除其他結(jié)果。比如,一位醫(yī)生在人工智能醫(yī)療機器人的輔助下成功地為患者實施了截肢手術(shù),挽救了患者的生命。然而,這樣的手術(shù)結(jié)果并不屬于法律規(guī)定的領(lǐng)域中的結(jié)果,因此,無需探討醫(yī)生的行為與患者康復(fù)結(jié)果之間的因果關(guān)聯(lián)。然而,當(dāng)醫(yī)師因其醫(yī)療行為的失誤造成患者去世時,此時的死因已然進入了法制的監(jiān)管范圍之內(nèi)。“第二次過濾”則是在眾多因素中挑選出引發(fā)后果的關(guān)鍵原因——也就是那些直接影響到事件發(fā)生的個體行動。例如,甲的攻擊導(dǎo)致乙受到輕微傷害,這個傷勢在正常情況下不會致命,但乙的血友病癥使得傷口無法止血,最終走向死亡。在此事件中,乙的死因有兩點:一是甲的攻擊行為,二是乙的血友病狀況。雖然乙的血友病并未直接導(dǎo)致其死亡,但它構(gòu)成了死亡發(fā)生的一種特定環(huán)境,與任何人的行為無關(guān),應(yīng)該被視作導(dǎo)致結(jié)果出現(xiàn)的“條件”而非“原因”??偟膩碚f,在進行雙重篩選的條件時,首先參照客觀歸責(zé)理論中對結(jié)果歸責(zé)判斷標(biāo)準(zhǔn)的第三條規(guī)則(不超過構(gòu)成要件保護的限定范圍)來篩查因果關(guān)系中的各元素,然后根據(jù)客觀歸責(zé)理論對結(jié)果歸責(zé)判斷的第一條規(guī)則(產(chǎn)生了禁止的危險)和第二條規(guī)則(實現(xiàn)了禁止的危險)進行第二輪篩選,抽取出對具體結(jié)果有“觸發(fā)”作用的行為。終極推斷是,經(jīng)過雙重篩選的原因和結(jié)果之間形成了刑法上的因果關(guān)系,這樣的做法最大的優(yōu)點就在于可以避免介入因素的干擾。
三、兩種判斷標(biāo)準(zhǔn)的具體適用
2018年,美國一輛Uber無人車撞死行人事件是世界上首例由無人駕車造成的人身傷亡案例,引起了一系列自動駕駛汽車管理方式及法律職責(zé)等問題的大量爭論與探討。目前的人工智能仍屬于弱人工智能,不具有法律主體資格。所以通常情況下,一旦出現(xiàn)車禍?zhǔn)录滓呢?zé)任方就是車輛駕駛?cè)?,根?jù)他們的職責(zé)履行情況及錯誤程度來確定他們應(yīng)該負(fù)有的法律后果。在這場涉及Uber無人車的意外中,該車型應(yīng)當(dāng)處于至少第四級的等級水平之上;依據(jù)美國的機動車工程協(xié)會 (SAE) 對自動化駕乘系統(tǒng)的分層定義來看,當(dāng)達到或超過第四個層次的時候,這個智能化的控制設(shè)備就能完全替代人類操作員完成所有必要的行駛?cè)蝿?wù)并無需再由人工監(jiān)控路況或者操縱環(huán)境了。如果假定當(dāng)時那臺 Uber 公司的汽車滿足第四個層次的要求,那么依照風(fēng)險標(biāo)準(zhǔn)模式去衡量此事態(tài)發(fā)展過程中車主對于可能出現(xiàn)的故障狀態(tài)沒有預(yù)見到的必要性和必須采取措施避免這種不幸的發(fā)生的可能性也是無稽之談——因為他的舉動并不構(gòu)成一種積極的、不作為的行為方式,并且他跟受害者最終喪生的結(jié)果并沒有任何直接關(guān)聯(lián)。反之,若當(dāng)時的道路條件不符合運行要求,需要司機接管駕駛活動,此時,司機對風(fēng)險具有作為義務(wù),卻因過失而未實施,司機的消極不作為與死亡結(jié)果之間存在直接的刑事因果關(guān)系。按照雙重篩選的條件說,自動駕駛汽車致人死亡的結(jié)果沒有超出犯罪構(gòu)成要件的保護范圍,屬于第一重篩選中法律規(guī)制范疇內(nèi)的結(jié)果。雖然被害人所遭受的不允許的危險是由自動駕駛汽車的故障所導(dǎo)致的,但由于自動駕駛汽車并非刑法的獨立主體,在第二次篩選中可以忽視自動駕駛汽車故障這個因素。而對于司機的行為,若當(dāng)時的道路運行條件正常,則司機沒有注意義務(wù)和作為義務(wù),其行為沒有制造不被允許的危險,不符合客觀歸責(zé)理論中條件一,經(jīng)過第二重篩選應(yīng)當(dāng)予以排除。如果那時的駕駛環(huán)境存在異常,要求駕駛員掌管駕駛?cè)蝿?wù),那么駕駛員需要履行相關(guān)的作為義務(wù)。他的不作為行為給受害者帶來并執(zhí)行了不應(yīng)存在的風(fēng)險,這將作為導(dǎo)致受害者死亡的“施因”,兩者之間建立了刑法上的因果關(guān)系。假如本案中的司機在自動駕駛汽車撞向行人時故意加速,使行人被嚴(yán)重撞擊,此時司機的加速行為對于自動駕駛汽車致人死亡這一因果關(guān)系中屬于介入因素,且該介入因素異常,獨立于自動駕駛汽車撞人的先前行為,在認(rèn)定刑事因果關(guān)系時就要比較司機的加速行為與自動駕駛系統(tǒng)提供者的先前行為之間作用大小,若先前行為的作用大,則自動駕駛系統(tǒng)提供者的行為與結(jié)果有刑法上的因果關(guān)系;若介入因素作用大,則司機的加速行為與結(jié)果之間有刑法上的因果關(guān)系;若二者作用都大,則死亡結(jié)果與二者都有刑事因果關(guān)系,屬于二因一果。關(guān)于介入因素對刑事因果關(guān)系的影響比較復(fù)雜,此處不再進行深入討論。
一般而言,當(dāng)汽車被改裝成自動駕駛汽車后,汽車制造商不對改裝后的缺陷承擔(dān)法律責(zé)任。自動駕駛系統(tǒng)作為一種工具,離不開算法的設(shè)計與運用,在運行過程中需要依靠編程的支配與控制,通過人工設(shè)定人工智能產(chǎn)品可能遇到的不同情形,設(shè)置特定的邏輯程序來使人工智能產(chǎn)品做出正確的行為與動作。因此,自動駕駛系統(tǒng)的設(shè)計研發(fā)人員顯得尤為重要,當(dāng)危害結(jié)果發(fā)生時,設(shè)計研發(fā)者應(yīng)當(dāng)承擔(dān)一定的責(zé)任并履行相應(yīng)的法律義務(wù)。按照風(fēng)險標(biāo)準(zhǔn)模式,本案中的自動駕駛系統(tǒng)提供者Uber公司明知自己提供的自動駕駛系統(tǒng)技術(shù)存在明顯的設(shè)計缺陷,主觀上存在故意,對自動駕駛汽車傷人的行為引發(fā)的風(fēng)險必然是可預(yù)見、可認(rèn)識的,雖然Uber公司沒有直接實施傷人行為,但其積極不作為行為能夠直接認(rèn)定與被害人的死亡存在刑法上的因果關(guān)系。按照雙重篩選的條件說,被害人死亡的結(jié)果屬于第一重篩選中法律規(guī)制范疇內(nèi)的結(jié)果,Uber的設(shè)計研發(fā)行為為自動駕駛汽車帶來了技術(shù)上的缺陷,給被害人創(chuàng)造并實現(xiàn)了不被允許的危險,屬于第二重篩選中導(dǎo)致結(jié)果發(fā)生的原因(即引起結(jié)果發(fā)生的人的行為)。經(jīng)過雙重篩選后,可以得出Uber設(shè)計研發(fā)有缺陷的自動駕駛系統(tǒng)的行為與被害人死亡的結(jié)果之間存在刑法上的因果關(guān)系。綜合前面的分析,Uber公司才是這起事故最可能的責(zé)任承擔(dān)者。
假設(shè)將此案置于認(rèn)定人工智能具有法律主體資格的環(huán)境中,那么本案中的Uber也將成為法律主體,承擔(dān)相應(yīng)的法律責(zé)任。認(rèn)定自動駕駛汽車具有法律主體資格就意味著自動駕駛汽車在運行過程中完全不需要司機接管駕駛活動。按照風(fēng)險標(biāo)準(zhǔn)模式,司機對于自動駕駛汽車失控的風(fēng)險不具備作為義務(wù)、注意義務(wù),其行為不屬于消極不作為,與被害者的死亡結(jié)果之間不具有刑事因果關(guān)系。在作為層面,自動駕駛汽車作為法律主體且設(shè)計研發(fā)者在生產(chǎn)制造自動駕駛汽車的過程中不存在故意或過失時,自動駕駛汽車的傷人行為是自動駕駛汽車主動實施傷人行為并將自己置于法律風(fēng)險之中,且對該風(fēng)險帶來的結(jié)果具有一定的可預(yù)見性,此時自動駕駛汽車的行為與傷人的結(jié)果之間存在直接的刑事因果關(guān)系。在不作為層面,自動駕駛汽車可以是故意沒有采取剎車措施、過失沒有采取剎車措施或完全沒有意料到后果未及時采取行動,此時對行為引發(fā)的風(fēng)險未必能預(yù)見。所以在刑事因果關(guān)系判斷上,其風(fēng)險標(biāo)準(zhǔn)的邏輯在于自動駕駛汽車在不作為時對風(fēng)險的認(rèn)識可能性。積極不作為是出于故意的意思表示,此時自動駕駛汽車對不作為引發(fā)的風(fēng)險明顯可預(yù)見,不存在認(rèn)識的障礙,故應(yīng)當(dāng)認(rèn)定自動駕駛汽車的行為與傷人結(jié)果之間存在刑法上的因果關(guān)系。在消極不作為的風(fēng)險認(rèn)識可能性中,消極不作為是出于過失的意思表示,其不作為義務(wù)來源實質(zhì)是要求自動駕駛汽車對該風(fēng)險具備注意義務(wù)和作為義務(wù),且引發(fā)的風(fēng)險是可以避免的。此時風(fēng)險標(biāo)準(zhǔn)僅局限于認(rèn)識到的風(fēng)險范圍以內(nèi),對超出風(fēng)險范圍不可認(rèn)識的風(fēng)險不予認(rèn)定刑事因果關(guān)系,不承擔(dān)刑事責(zé)任。
按照雙重篩選的條件說,司機不存在相應(yīng)的接管義務(wù),其行為不屬于消極不作為,沒有為被害人制造并實現(xiàn)不被允許的風(fēng)險,因此,司機的行為與被害人死亡之間不存在刑法上的因果關(guān)系。而對于作為法律主體的自動駕駛汽車來說,被害人死亡的結(jié)果屬于第一重篩選中法律規(guī)制范疇內(nèi)的結(jié)果,自動駕駛汽車剎車失敗,給被害人創(chuàng)造并實現(xiàn)了不被允許的危險,屬于第二重篩選中導(dǎo)致結(jié)果發(fā)生的原因(即引起結(jié)果發(fā)生的人的行為)。經(jīng)過雙重篩選后,可以認(rèn)定自動駕駛汽車的行為與被害人死亡的結(jié)果之間存在刑法上的因果關(guān)系。因此,若自動駕駛汽車與自動駕駛系統(tǒng)提供者均通過雙重篩選,則認(rèn)定二者皆與被害人死亡之間存在刑法上的因果關(guān)系;反之,只認(rèn)定一方存在刑法上的因果關(guān)系。由此可以看出,按照雙重篩選的條件說,無需考慮行為人的行為情形以及主觀因素,避免了在適用介入因素時對“異常”判斷的不確定性,更適合人工智能刑事因果關(guān)系的認(rèn)定。
通過上述分析可看出,無論人工智能是否被賦予法律主體資格,在適用風(fēng)險標(biāo)準(zhǔn)模式時都需要區(qū)分行為主體作為與不作為、主觀上是故意還是過失,以及是否存在介入因素等多種情形,推理過程較為復(fù)雜,易出現(xiàn)因果關(guān)系判斷失誤的情況,而按照雙重篩選的條件說則更直接明了,推理過程清晰明確,且不需要區(qū)分多種情形,也不必考慮介入因素的問題。相比較而言,在司法實踐中適用雙重篩選的條件說更能有效解決與人工智能有關(guān)的刑事責(zé)任歸屬問題。
結(jié)束語
當(dāng)前的人工智能是弱人工智能,并未具備法律主體地位,也沒有考慮到人工智能的獨立行為。在具體案例中分別適用兩種判斷標(biāo)準(zhǔn)認(rèn)定刑事因果關(guān)系都能得到合理的答案,只是在適用風(fēng)險標(biāo)準(zhǔn)模式時需要區(qū)分多種情形,考慮介入因素等問題,雙重篩選的條件說則簡化了刑事因果關(guān)系認(rèn)定流程,避免了在適用介入因素時對“異?!边M行不確定判斷,整體來看,雙重篩選的條件說更能有效直接地解決當(dāng)前人工智能的刑事因果關(guān)系問題,更好地解決人工智能領(lǐng)域刑事責(zé)任歸屬問題。
參考文獻
[1]劉志強,方琨.論人工智能行為法律因果關(guān)系認(rèn)定[J].學(xué)術(shù)界,2018(12):76-92.
[2]劉憲權(quán).涉人工智能犯罪中的歸因與歸責(zé)標(biāo)準(zhǔn)探析[J].東方法學(xué),2020(3):66-75.
作者簡介:楊毅(1997— ),女,漢族,山東臨沂人,華南理工大學(xué),在讀碩士。
研究方向:法學(xué)理論。