曹嘉藍(lán)
摘要: 人工智能的“行為”能否被認(rèn)定為刑法意義上的“犯罪行為”以及人工智能的自主行為能否構(gòu)成足夠大的干預(yù)以阻斷因果關(guān)系鏈條,都是刑法必須回應(yīng)的問(wèn)題。文章認(rèn)為我國(guó)應(yīng)當(dāng)區(qū)分情況討論不同人工智能的刑事責(zé)任能力以及刑事責(zé)任分配;強(qiáng)(超)人工智能可以跟人類一樣,獨(dú)立思考與行為,當(dāng)它們實(shí)施犯罪行為時(shí),應(yīng)當(dāng)追究它們的刑事責(zé)任。
關(guān)鍵詞: 人工智能;刑事責(zé)任能力;控制者
在過(guò)去幾十年里,人工智能似乎是科幻作品中的東西。但近年來(lái),人工智能的應(yīng)用越來(lái)越廣泛,從計(jì)算機(jī)科學(xué)到金融到醫(yī)學(xué)、從無(wú)人機(jī)到自動(dòng)駕駛汽車,人工智能顯得越來(lái)越智能化,在某些特定領(lǐng)域甚至超越人類智能,如智能機(jī)器人AlphaGo在圍棋挑戰(zhàn)賽中屢勝國(guó)際高手。國(guó)外一些保險(xiǎn)和金融公司以及律師事務(wù)所開(kāi)始用具有認(rèn)知能力的人工智能系統(tǒng)置換人類雇員。[1]2017年10月,沙特政府更是授予機(jī)器人索菲亞以公民身份,開(kāi)創(chuàng)了歷史先河。我們有理由相信在不遠(yuǎn)的未來(lái),人工智能將變得高度自主,能夠不依賴人類而獨(dú)立思考并作出決定與行為。當(dāng)這種人工智能造成他人人身和財(cái)產(chǎn)損失時(shí),刑法應(yīng)當(dāng)如何分配法律責(zé)任是當(dāng)前我國(guó)司法領(lǐng)域亟須解決的問(wèn)題。
一、人工智能刑事責(zé)任能力問(wèn)題的提出
當(dāng)我們從刑法角度思考人工智能時(shí),首先想到的是刑法最根本的“犯罪行為”的概念。有犯罪,才有刑罰。無(wú)論是英美法系還是大陸法系都認(rèn)為刑法的主要原則是只有犯罪行為才能產(chǎn)生刑事責(zé)任,而不是思想、信仰或者是動(dòng)機(jī)。在目前的發(fā)展?fàn)顩r下,人工智能的行為基本不符合行為定義。根據(jù)現(xiàn)行的關(guān)于行為的定義,行為僅僅指人類的行為,不適用于機(jī)器。另外,德國(guó)刑法學(xué)者認(rèn)為犯罪行為必須由行為者控制和“社會(huì)相關(guān)”。一般而言,犯罪者使用物體或工具實(shí)現(xiàn)期望的結(jié)果,犯罪仍然被認(rèn)為是犯罪者的行為。當(dāng)犯罪者利用沒(méi)有能力推理或完全掌握形勢(shì)和相關(guān)的法律含義的不知情的他人時(shí),刑法將操縱他人的人視為行動(dòng)者。人工智能的行為是否都是刑法意義上的行為,人工智能的行為后果應(yīng)當(dāng)由誰(shuí)承擔(dān)?其實(shí)這是一個(gè)問(wèn)題的兩個(gè)側(cè)面。人工智能“犯下”的罪行, 例如一輛自動(dòng)駕駛汽車致人死亡,是否可以歸咎于人工智能本身,還是將其歸咎于幕后的人——未能重獲控制權(quán)的司機(jī)?還是自動(dòng)駕駛汽車的設(shè)計(jì)者?解決這些問(wèn)題遠(yuǎn)非易事。人工智能是否具有刑事責(zé)任能力是回答上述問(wèn)題的根本點(diǎn)。只有當(dāng)人工智能具有刑事責(zé)任能力,其行為才有可能被認(rèn)定為刑法意義上的“犯罪行為”;只有人工智能具有刑事責(zé)任能力,方可談及人工智能刑事責(zé)任的承擔(dān)。人工智能將對(duì)刑法理論和司法實(shí)踐提出新的挑戰(zhàn)不僅因?yàn)樗赡軜?gòu)成刑法意義上新的行為主體,也因?yàn)樗男袨榭梢宰笥蚁嚓P(guān)人的刑事責(zé)任分配。人工智能被設(shè)計(jì)、生產(chǎn)或者是學(xué)習(xí)和適應(yīng)社會(huì)環(huán)境,都取決于它的設(shè)計(jì)和編程,這必然包括相關(guān)的人類活動(dòng),如其設(shè)計(jì)者、生產(chǎn)者或者使用者;當(dāng)發(fā)生人工智能的致害事件時(shí),所有這些人都將被訊問(wèn),刑法必須確定刑事責(zé)任分配。
二、人工智能刑事責(zé)任能力與追究的一般理論
對(duì)于何為人工智能,學(xué)界仍未達(dá)成一個(gè)相對(duì)一致的概念。人工智能是一個(gè)比較籠統(tǒng)的概念,其范圍包含但不限于智能機(jī)器人、無(wú)人駕駛汽車以及其他智能科技產(chǎn)品。人工智能現(xiàn)正處于快速發(fā)展階段,具有一定的不穩(wěn)定性、復(fù)雜性和專業(yè)性。在法學(xué)界,學(xué)者們主要研究人工智能的一般特征。一般而言,人工智能的發(fā)展主要分為三個(gè)階段,弱人工智能到強(qiáng)人工智能再到超人工智能。弱人工智能是指仍受人類控制、在特定領(lǐng)域具有專長(zhǎng)的人工智能;強(qiáng)人工智能是具有獨(dú)立判斷、選擇能力的,可以不受人類控制而獨(dú)立行為的人工智能;超人工智能則是指不僅能夠脫離人類而獨(dú)立行為,并在各個(gè)方面都擁有優(yōu)于人類的能力?,F(xiàn)代社會(huì)的人工智能仍處于弱人工智能階段,如智能清潔機(jī)器人。在人工智能發(fā)展之初,弱人工智能在社會(huì)中發(fā)揮著各式各樣的作用,但是由于弱人工智能始終受人類智能掌控,其僅作為工具幫助人類完成各類事務(wù),人類并未將人工智能當(dāng)作一個(gè)“人”來(lái)考慮,而是將其視為“客體”。但是當(dāng)人類認(rèn)識(shí)到人工智能在特定領(lǐng)域可以超越人類智能并能感知人類,可以像人類一般思考和行為時(shí),人類開(kāi)始考慮是否應(yīng)當(dāng)賦予人工智能作為“人”的資格和權(quán)利。
圍繞人工智能的刑事責(zé)任能力,主要有“工具論”“法人論”和“電子人論”三種理論。現(xiàn)在大多數(shù)學(xué)者仍持工具論的觀點(diǎn),認(rèn)為人工智能僅為人類使用的工具,不具有法律主體資格,進(jìn)而不具有刑事責(zé)任能力;“法人論”與“電子人論”都認(rèn)為人工智能具有刑事責(zé)任能力,但“法人論”認(rèn)為應(yīng)當(dāng)由人工智能的操作者承擔(dān)刑事責(zé)任,“電子人論”則認(rèn)為應(yīng)當(dāng)視人工智能是否具備承擔(dān)刑事責(zé)任的能力而決定其是否應(yīng)當(dāng)承擔(dān)刑事責(zé)任。這三個(gè)理論都有一定理論依據(jù)和道理,但是筆者認(rèn)為它們判斷人工智能是否具有刑事責(zé)任能力以及如何分配刑事責(zé)任的方式過(guò)于簡(jiǎn)單和直接。既然已經(jīng)根據(jù)人工智能的智能程度把人工智能分為弱人工智能以及強(qiáng)人工智能、超人工智能,就應(yīng)當(dāng)區(qū)分情況討論不同人工智能的刑事責(zé)任能力以及刑事責(zé)任分配,而不能一概而論。
三、重新審視人工智能的刑事責(zé)任能力
人工智能的應(yīng)用程序不斷擴(kuò)展,甚至有人認(rèn)為人工智能將真正獨(dú)立于人類并開(kāi)始自己的生活。因此,它促使我們重新審視其刑事責(zé)任能力。
(一)弱人工智能不具有刑事責(zé)任能力
就刑法而言,歸責(zé)原則與獨(dú)立意識(shí)相關(guān),當(dāng)一個(gè)人做出了刑法所責(zé)備的選擇時(shí),他就會(huì)受到刑法的懲罰。刑法預(yù)先假定一個(gè)人有能力理解他所擁有的自由選擇的能力以及他所做每一項(xiàng)選擇會(huì)帶來(lái)什么結(jié)果。任何對(duì)某項(xiàng)行為負(fù)有刑事責(zé)任的人都應(yīng)該意識(shí)到或者有義務(wù)知道并小心避免關(guān)于他們行動(dòng)的結(jié)果。如還沒(méi)有完全理解后果的兒童和有精神健康問(wèn)題不能完全理解行為后果的人,在刑法中受到了不同的對(duì)待。 最終,刑事責(zé)任是留給那些有能力理解的人的一種回應(yīng),即他們可以選擇不這樣做。類似的,當(dāng)我們考慮人工智能是否具備刑事責(zé)任能力時(shí),首先需要考慮人工智能是否具有獨(dú)立意識(shí)。弱人工智能并不具備獨(dú)立的選擇和自我意識(shí),因?yàn)樗鼉H僅是一種程序,其行為模式不會(huì)超越人類設(shè)定的程序條件,不能做出獨(dú)立的判斷和選擇,只能按照人類設(shè)計(jì)者或者操作者的指令做事,因此,弱人工智能不具有刑事責(zé)任能力。“工具論”的觀點(diǎn)能夠很好地解釋這一結(jié)論,弱人工智能在何種條件下做出何種行為,說(shuō)到底是使用人預(yù)先設(shè)定好的;弱人工智能只是人類的工具,弱人工智能不具有刑事責(zé)任能力,應(yīng)當(dāng)由弱人工智能的設(shè)計(jì)者或者操作者承擔(dān)刑事責(zé)任。
(二)強(qiáng)(超)人工智能具有刑事責(zé)任能力
隨著社會(huì)和科技的不斷發(fā)展,強(qiáng)人工智能的出現(xiàn)指日可待。強(qiáng)人工智能能夠獨(dú)立判斷和選擇,其行為可以不受人類控制且無(wú)法預(yù)測(cè),仍然認(rèn)為強(qiáng)人工智能僅僅是人類的工具就不再合理,因?yàn)閺?qiáng)人工智能的自主性和獨(dú)立性無(wú)異于自然人。首先,強(qiáng)(超)人工智能具備主觀歸責(zé)性。強(qiáng)(超)人工智能可以和人類一樣獨(dú)立思考、行為,當(dāng)它們實(shí)施犯罪行為時(shí),應(yīng)當(dāng)追究它們的刑事責(zé)任。刑事責(zé)任主體的基本內(nèi)涵是辨認(rèn)、控制能力,將強(qiáng)人工智能機(jī)器人作為刑事責(zé)任主體有利于維護(hù)刑事責(zé)任主體基本內(nèi)涵的統(tǒng)一性,也符合罪責(zé)自負(fù)原則。[2]智能機(jī)器人通過(guò)深度學(xué)習(xí)能夠產(chǎn)生自主意識(shí)和意志,應(yīng)當(dāng)將其定位為不具有生命體的“人工人”[3],應(yīng)當(dāng)獨(dú)自承擔(dān)刑事責(zé)任。另外,強(qiáng)人工智能機(jī)器人具有感知刑罰痛苦的能力,將其納入刑罰處罰范圍能夠?qū)崿F(xiàn)刑罰目的,也符合主體擬制的刑事立法規(guī)律。[4]如果具有獨(dú)立思考和自控能力的強(qiáng)(超)人工智能不受刑法的約束將會(huì)造成巨大的社會(huì)恐慌,因?yàn)閺?qiáng)(超)人工智能的能力與人類相當(dāng)甚至超越人類,如果放縱它們犯罪而不加以懲罰,社會(huì)上將人人自危。強(qiáng)(超)人工智能是模仿了人類并能逐漸適應(yīng)環(huán)境的物種,根據(jù)收到的反饋來(lái)解決問(wèn)題和解決超出預(yù)先設(shè)定的情況。本質(zhì)上,人工智能反映了人類處理信息和學(xué)習(xí)的能力。因此,它可以“決定”如何應(yīng)對(duì)前所未有的情況,并“選擇”如何行為。
四、 追究人工智能刑事責(zé)任的潛在選擇
(一)人工智能的操作者承擔(dān)責(zé)任
1.故意。如果一個(gè)人操縱一具人工智能,讓它按照他的意愿行事從而犯下特定的罪行,在這種情況下,顯而易見(jiàn)的解決辦法是堅(jiān)持操縱人工智能的人對(duì)此負(fù)責(zé)。在這種情況下人工智能與行為者的工具或者動(dòng)物相類比,工具的移動(dòng)將被理解為行為者的行為。
2.疏忽大意的過(guò)失和過(guò)于自信的過(guò)失。疏忽大意的過(guò)失最適用的場(chǎng)景是將人工智能實(shí)施的“意外”行為歸咎于人工智能的通常編程者或使用者。人工智能在通常性能范圍內(nèi)可能發(fā)生的結(jié)果是程序員或使用者應(yīng)該預(yù)見(jiàn)到的,一個(gè)簡(jiǎn)單的例子是一個(gè)清潔機(jī)器人因?yàn)檎`把人類當(dāng)作需要清潔的家具進(jìn)行清潔而造成損害。在這種情況下,設(shè)計(jì)者或使用者可以預(yù)見(jiàn)到這種發(fā)展,他們能夠采取行動(dòng)防止這種情況發(fā)生。而過(guò)于自信的過(guò)失則是設(shè)計(jì)者或使用者實(shí)際上已經(jīng)預(yù)見(jiàn)到了相應(yīng)的危害后果,而因?yàn)檫^(guò)于自信,沒(méi)有采取相應(yīng)的防范措施導(dǎo)致未知危害結(jié)果的發(fā)生。一種情況就是設(shè)計(jì)者或者使用者明知清潔機(jī)器人的某件設(shè)備出現(xiàn)了損壞,可能導(dǎo)致清潔機(jī)器人誤傷他人而過(guò)于自信地認(rèn)為這種情況不會(huì)發(fā)生,最后清潔機(jī)器人不受控制并導(dǎo)致他人受傷的情形。
(二)人工智能與控制者成立共犯
當(dāng)人工智能具有獨(dú)立意識(shí)并能做出獨(dú)立選擇,那么刑事責(zé)任的分配將會(huì)不同。舉例來(lái)說(shuō),如一個(gè)機(jī)器人被設(shè)計(jì)者要求去殺害另一個(gè)人,機(jī)器人能夠獨(dú)立作出不這樣做的選擇,但是機(jī)器人聽(tīng)從了設(shè)計(jì)者的指令,殺害了受害者。此時(shí)如果認(rèn)為機(jī)器人具備法律主體資格,那么設(shè)計(jì)者與機(jī)器人應(yīng)當(dāng)被認(rèn)定為共犯,承擔(dān)相應(yīng)的刑事責(zé)任。設(shè)計(jì)者的刑事責(zé)任承擔(dān)無(wú)須多言,根據(jù)現(xiàn)行刑法即可做出合適的處理,需要談及的是機(jī)器人的刑事責(zé)任承擔(dān)形式。在強(qiáng)人工智能時(shí)代,應(yīng)通過(guò)刪除數(shù)據(jù)、修改程序和永久銷毀等契合強(qiáng)人工智能機(jī)器人特征的刑罰處罰方式實(shí)現(xiàn)刑罰報(bào)應(yīng)和預(yù)防的雙重目的。[5]如果認(rèn)為機(jī)器人不具備法律主體資格而僅僅是設(shè)計(jì)者實(shí)施犯罪的工具,那么如前所述,僅需要處罰設(shè)計(jì)者,機(jī)器人不會(huì)受到任何處罰。但是細(xì)思下來(lái)這樣處理似有不妥。若僅處罰設(shè)計(jì)者,那么具有獨(dú)立意識(shí)、能夠被指令去殺人的機(jī)器人則沒(méi)有得到適當(dāng)?shù)奶幹谩倪@個(gè)角度看,具有獨(dú)立意識(shí)的機(jī)器人應(yīng)當(dāng)被賦予法律主體資格,在它觸犯了刑法相關(guān)條文時(shí)給予適當(dāng)處罰。
除此之外,還可能發(fā)生這種情況:即機(jī)器人聽(tīng)從了設(shè)計(jì)者的指令,但僅造成了受害人傷害的犯罪結(jié)果。依照現(xiàn)行刑法,設(shè)計(jì)者構(gòu)成故意殺人未遂不存在爭(zhēng)議,需要討論的是機(jī)器人的處理。如果認(rèn)為機(jī)器人具有法律主體資格,構(gòu)成故意傷害罪還是故意殺人罪未遂存在爭(zhēng)議,主要看機(jī)器人的主觀,如果機(jī)器人追求的是死亡的結(jié)果,那就是故意殺人罪未遂;相反,如果其追求的僅僅是受傷的結(jié)果,那就是故意傷害罪。如果認(rèn)為機(jī)器人不具有法律主體資格,如上所述,僅處罰設(shè)計(jì)者,但此種處理方式有失妥當(dāng)。另外,如果機(jī)器人實(shí)施了盜竊等未對(duì)受害人的人身造成威脅的犯罪,那么設(shè)計(jì)者和機(jī)器人的刑事責(zé)任都有待探究:設(shè)計(jì)者教唆機(jī)器人去殺害受害人,主觀上是故意殺人,但是機(jī)器人客觀上并未實(shí)施殺人,故設(shè)計(jì)者的行為不構(gòu)成故意殺人罪;但是這里需要說(shuō)明的是,如果機(jī)器人實(shí)施的是搶劫罪,其行為導(dǎo)致了受害人受傷,則設(shè)計(jì)者也應(yīng)當(dāng)構(gòu)成故意殺人罪未遂,因?yàn)闄C(jī)器人的客觀行為既侵害了受害人的人身權(quán)又侵害了其財(cái)產(chǎn)權(quán)。在機(jī)器人實(shí)施了盜竊的情況下,人工智能是否構(gòu)罪以及構(gòu)成何罪需要考慮,這也是主要取決于機(jī)器人的主觀。如認(rèn)為機(jī)器人的主觀是故意殺人,則機(jī)器人不構(gòu)成盜竊犯罪。如認(rèn)為機(jī)器人的主觀是盜竊的故意,那么機(jī)器人構(gòu)成盜竊犯罪。另外,如果設(shè)計(jì)者指令機(jī)器人傷害受害人,但是機(jī)器人的行為導(dǎo)致被害人死亡,結(jié)論也會(huì)不一樣。在機(jī)器人殺死了受害人的情況下,設(shè)計(jì)者構(gòu)成故意傷害致人死亡,機(jī)器人構(gòu)成故意殺人罪還是故意傷害致人死亡還是主要看機(jī)器人的主觀狀態(tài)是故意傷害還是故意殺人。
(三)人工智能獨(dú)自承擔(dān)責(zé)任
法律責(zé)任是國(guó)家施加給違法者的一種強(qiáng)制性負(fù)擔(dān),是補(bǔ)救受到侵害的合法權(quán)益的一種手段。法律責(zé)任是通過(guò)法律制裁而實(shí)現(xiàn)的,任何法律責(zé)任的實(shí)現(xiàn)以責(zé)任主體的存在和確定為前提。[6]強(qiáng)(超)人工智能產(chǎn)品具有辨認(rèn)能力和控制能力,既可能在設(shè)計(jì)和編制的程序范圍內(nèi)進(jìn)行獨(dú)立判斷并自主作出決策,實(shí)現(xiàn)設(shè)計(jì)者或使用者的意志;也可能超出設(shè)計(jì)和編制的程序范圍,進(jìn)行自主決策并實(shí)施相應(yīng)行為,實(shí)現(xiàn)其自身的意志。[7]雖然人工智能不能像人類一樣具有情感認(rèn)知,但是他們的辨認(rèn)、控制能力已經(jīng)與自然人無(wú)異,因此,應(yīng)當(dāng)賦予強(qiáng)(超)人工智能法律主體資格,將因強(qiáng)(超)人工智能自主決定的行為所造成的危害結(jié)果歸責(zé)于強(qiáng)(超)人工智能。當(dāng)強(qiáng)(超)人工智能實(shí)施了犯罪行為時(shí),應(yīng)當(dāng)承擔(dān)刑事責(zé)任。另外,即使強(qiáng)(超)人工智能系受人類教唆、煽動(dòng)而行為,但是卻實(shí)施了其他行為的,教唆者不構(gòu)成共犯,強(qiáng)(超)人工智能也應(yīng)獨(dú)立承擔(dān)刑事責(zé)任。如人工智能受人類教唆故意殺人,但卻實(shí)施了盜竊的情況下,教唆者不構(gòu)成犯罪,人工智能應(yīng)當(dāng)獨(dú)自承擔(dān)責(zé)任。這時(shí)人工智能的行為成為足夠大的干預(yù),阻斷了原因果關(guān)系的鏈條。
(四)意外
如果人工智能的設(shè)計(jì)者或者使用者沒(méi)有任何過(guò)錯(cuò),人工智能發(fā)生故障致人損害,在這種情況下,如何處理刑事責(zé)任的問(wèn)題仍然懸而未決。有學(xué)者主張?zhí)娲?zé)任。替代責(zé)任的概念主要來(lái)自侵權(quán)法。在侵權(quán)法中,控制他人的人對(duì)他們代理人的行為承擔(dān)替代責(zé)任,如雇主對(duì)雇員。從這個(gè)角度出發(fā),人工智能實(shí)際上是“代理或者代表”設(shè)計(jì)者或者使用者從事行為或者進(jìn)行決策,可以比照雇主對(duì)雇員的責(zé)任,讓設(shè)計(jì)者或者使用者承擔(dān)替代責(zé)任,比如,一個(gè)公司利用自動(dòng)駕駛汽車接送客人。但需要注意的是雇主的替代責(zé)任僅限于雇員的職務(wù)范圍,雇主不對(duì)雇員職務(wù)范圍以外的或者非職務(wù)的侵權(quán)行為承擔(dān)責(zé)任,那么確定設(shè)計(jì)者或者使用者對(duì)人工智能的責(zé)任限度和范圍將是法律必須回答的一個(gè)問(wèn)題。更進(jìn)一步說(shuō),把這個(gè)概念直接適用于刑事案件中是激進(jìn)的。刑法相比侵權(quán)責(zé)任法而言必須具有更高的適用標(biāo)準(zhǔn),因?yàn)樾谭ㄓ锌赡軇儕Z自然人的生命或者自由,而侵權(quán)責(zé)任法更多的是損害賠償。另外,設(shè)計(jì)者或者使用者的責(zé)任還受很多因素的影響,如人工智能的智能程度以及設(shè)計(jì)者或使用者對(duì)人工智能的控制程度,還有犯罪的類型。嚴(yán)重罪行的門檻應(yīng)該更高,如故意殺人。引入替代責(zé)任可能緩解社會(huì)對(duì)人工智能造成損害的擔(dān)憂,更多人會(huì)接受人工智能從而使人工智能應(yīng)用得更廣泛;但另一方面,它可能會(huì)破壞人工智能進(jìn)一步發(fā)展的潛力,因?yàn)樵O(shè)計(jì)者或使用者會(huì)考慮他們無(wú)意的行為可能會(huì)使他們負(fù)有刑事責(zé)任。就這個(gè)方面而言,替代責(zé)任必須與過(guò)失相結(jié)合才能成為追究設(shè)計(jì)者或者使用者刑事責(zé)任的方式。如人工智能的設(shè)計(jì)或者操作失誤,否則,這種模式應(yīng)當(dāng)完全被拋棄作為追究刑事責(zé)任的模式。并不是所有事情都可以或應(yīng)該受到刑法規(guī)制。
五、結(jié)語(yǔ)
人工智能未來(lái)的發(fā)展無(wú)疑將給刑法帶來(lái)了巨大挑戰(zhàn),然而,刑法感受到的第一波震動(dòng)就是刑事責(zé)任的問(wèn)題。在此背景下,法律研究者以及實(shí)務(wù)人員都需要重新審視甚至改變刑法的基本理念和適用。關(guān)于人工智能刑事責(zé)任能力與追究的相關(guān)理論仍比較淺顯,應(yīng)當(dāng)區(qū)分不同情況對(duì)人工智能的刑事責(zé)任能力與追究進(jìn)行具體、深入的討論,而不能停留在表面。弱人工智能不具有刑事責(zé)任能力,而強(qiáng)(超)人工智能應(yīng)當(dāng)具備刑事責(zé)任能力,相應(yīng)地,當(dāng)弱人工智能觸犯刑法,應(yīng)當(dāng)由弱人工智能的設(shè)計(jì)者或者操作者承擔(dān)刑事責(zé)任;當(dāng)強(qiáng)(超)人工智能觸犯刑法,則視情況判斷應(yīng)當(dāng)由強(qiáng)(超)人工智能獨(dú)立承擔(dān)刑事責(zé)任還是其與人類構(gòu)成共犯,共同承擔(dān)刑事責(zé)任;當(dāng)損害無(wú)法歸責(zé)于人工智能以及任何其他個(gè)人時(shí),應(yīng)視為意外而不追究任何人的刑事責(zé)任。
參考文獻(xiàn):
[1]司曉,曹建峰.論人工智能的民事責(zé)任:以自動(dòng)駕駛汽車和智能機(jī)器人為切入點(diǎn)[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2017(5).
[2]劉憲權(quán),林雨佳.人工智能時(shí)代刑事責(zé)任主體的重新解構(gòu)[J].人民檢察,2018(3).
[3]劉憲權(quán),胡荷佳.人工智能時(shí)代智能機(jī)器人的刑事責(zé)任能力[J].法學(xué),2018(1).
[4]劉憲權(quán).人工智能時(shí)代我國(guó)刑法體系重構(gòu)的法理基礎(chǔ)[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2018(4).
[5]盧勤忠,何鑫.強(qiáng)人工智能時(shí)代的刑事責(zé)任與刑罰理論[J].華南師范大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2018(6).
[6]公丕祥.法理學(xué)[M].上海:復(fù)旦大學(xué)出版社,2002.
[7]劉憲權(quán).人工智能時(shí)代的“內(nèi)憂”“外患”與刑事責(zé)任[J].東方法學(xué),2018 (1 ).