国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能時代刑事責任與刑罰體系的重構(gòu)*

2018-02-07 10:21:00
政治與法律 2018年3期
關(guān)鍵詞:犯罪行為刑罰使用者

(華東政法大學法律學院,上海 200042)

當智能機器人成為一種由程序設(shè)計、編制而成并由此產(chǎn)生深度學習能力且能夠自主思維、自發(fā)行動,因而具有辨認能力和控制能力的物體時,智能機器人與同樣具有學習能力并能夠自主思維、自發(fā)行動,且具有辨認能力和控制能力的自然人之差異,就僅僅在于其不具有生命,與動物的差異則在于其具有辨認和控制能力,與普通機器人的差異在于其具有深度學習能力,可能超越人類設(shè)計和編制的程序在獨立的意識和意志支配下實施行為。就此而言,人們完全沒有理由排除智能機器人實施嚴重危害社會行為的可能性。在這種情況下,智能機器人是否需要承擔相應的刑事責任?智能機器人的研發(fā)者或使用者是否需要承擔相應的刑事責任?如果智能機器人需要承擔刑事責任,那么智能機器人和其研發(fā)者或使用者共同實施了犯罪行為,是否可能構(gòu)成共同犯罪,其刑事責任又應該如何分擔?這些都是值得研究者深入思考的問題。筆者認為,在人工智能時代,有必要對刑事責任與刑罰體系進行重構(gòu)。重構(gòu)的體系包括四個部分,即智能機器人的刑事責任、智能機器人研發(fā)者或使用者的刑事責任、智能機器人與自然人共同犯罪刑事責任的分擔和智能機器人犯罪刑罰體系。

一、智能機器人的刑事責任

理論界一般認為,刑事責任能力是指,行為人認識自己行為的性質(zhì)、意義、作用和后果,并能對自己的行為進行解釋、控制以及對自己的行為承擔刑事責任的能力。刑事責任能力亦可稱為行為人辨認和控制自己行為的能力。同時,理論界達成共識的是,刑事責任能力是否具備又是行為人能否成為刑事責任主體的必要條件,換言之,作為刑事責任主體必須具有辨認能力和控制能力。我國刑法學界通常將刑事責任看作“犯罪的法律后果”,是犯罪與刑罰之間的“橋梁”。在判斷行為人的行為是否構(gòu)成犯罪時,一方面需要判斷行為主體是否具有刑事責任能力,另一方面需要判斷行為主體實施的行為是否具備嚴重的社會危害性,以及是否具備諸如罪過等其他構(gòu)成要件。

當下,大多數(shù)人認為,智能機器人和普通機器人沒有什么本質(zhì)的區(qū)別,如果智能機器人實施了嚴重危害社會的行為,那必然是受到智能機器人研發(fā)者或使用者的“操縱”,因而需要承擔刑事責任的應當是智能機器人的研發(fā)者或使用者。對此觀點,筆者不敢茍同。依筆者之見,這種觀點忽略了智能機器人與普通機器人之間的區(qū)別,從而將智能機器人完全等同于普通機器人。事實上,達到一定程度的智能機器人與普通機器人的最大區(qū)別就在于,前者擁有自己的辨認能力和控制能力,并在獨立的意識和意志的支配下實施嚴重危害社會的行為。因為既然智能機器人有了主體性也有了能力,其思想的天平就有可能倒向自己制定的規(guī)則和價值觀。*參見趙汀陽:《終極問題:智能的分叉》,《世界哲學》2016年第5期。換言之,當智能機器人的“智能”達到一定程度時,其所實施的行為就完全可能不受研發(fā)者或使用者的控制,此時智能機器人具有自己的辨認能力和控制能力,即擁有了行為的選擇權(quán),可以選擇實施或不實施犯罪行為,此時若將智能機器人實施的嚴重危害社會的行為完全歸責于研發(fā)者或使用者,并不妥當。在這種情況下,智能機器人與具有部分辨認能力和控制能力的不完全刑事責任能力的自然人頗為相似。智能機器人在自己可以承擔刑事責任的范圍內(nèi)實施嚴重危害社會的犯罪行為,當然需要自行承擔刑事責任而不能歸責于其監(jiān)護人。

鑒于達到一定程度的智能機器人與普通機器人的區(qū)別在于智能機器人可以深度學習,從而可能產(chǎn)生自主意識,具有辨認能力和控制能力,有學者提出應將人工智能定義為具有智慧工具性質(zhì)又可作出獨立意思表示的特殊主體。*袁曾:《人工智能有限法律人格審視》,《東方法學》2017年第5期。筆者認為,這種觀點似乎也不妥當。智能機器人是人工智能技術(shù)的結(jié)晶,人工智能技術(shù)的核心就是通過模擬人類的神經(jīng)網(wǎng)絡,利用算法和程序?qū)Υ髷?shù)據(jù)加以深度學習。然而,就目前的智能機器人的發(fā)展而言,智能機器人往往被應用于一些特定的領(lǐng)域從事特定的事務。例如,外科手術(shù)機器人被用于協(xié)助手術(shù)操作,翻譯機器人被用于從事翻譯工作。一般而言,這些被用于特定領(lǐng)域的智能機器人所做出的行為都是在程序設(shè)計和編制的范圍之內(nèi)的。在這種情況下,雖然智能機器人具有學習能力,可以自行做出判斷,但其并不具有辨認能力和控制能力,因為此時智能機器人的行為仍然受制于設(shè)計和編制的程序。以外科手術(shù)機器人為例,外科手術(shù)機器人通過深度學習完全可能掌握高深的醫(yī)療技術(shù),可以自主判斷病人的病情并作出相應的處理。不過,由于外科手術(shù)機器人是受到程序的設(shè)計和編制控制的,研發(fā)者設(shè)計和編制程序的目的是讓外科手術(shù)機器人能夠順利完成手術(shù),在能夠順利完成手術(shù)的程序設(shè)計和編制的范圍內(nèi),外科手術(shù)機器人行為受到程序的限制,不能自主決定自己的行為。與此同時,不法分子完全可能出于不法目的研發(fā)或使用專門用于實施犯罪行為的智能機器人,例如智能殺手。智能殺手和其他智能機器人一樣擁有深度學習能力,并能對外界事物做出及時反應和判斷,比如可以根據(jù)具體的情景選擇殺人的方式和時機等。然而,智能殺手從“出生”的那一刻起,其存在的意義就是為了殺人,其實施的行為所實現(xiàn)的是研發(fā)者或使用者通過程序設(shè)計和編制的殺人目的。在這種情況下,該智能機器人其實并不具有辨認能力和控制能力。此時,智能殺手似乎只能看作研發(fā)者或使用者的實施殺人行為的“工具”,而不是特殊主體,其顯然不應當承擔刑事責任,而需要承擔刑事責任的當然是智能殺手的研發(fā)者或使用者。

通過對上述分析,筆者認為,智能機器人實施嚴重危害社會的行為可分為兩種,即在程序設(shè)計和編制范圍內(nèi)實施的行為與在程序設(shè)計和編制范圍外實施的行為。在設(shè)計和編制的程序范圍內(nèi)實施行為時,智能機器人并不擁有辨認能力和控制能力,不具有刑事責任能力,其實施的犯罪行為實現(xiàn)的是研發(fā)者或使用者的犯罪目的,因而不應當由其承擔刑事責任,例如智能殺手實施殺人的行為。在設(shè)計和編制的程序范圍外實施行為時,智能機器人和自然人一樣,具有辨認能力和控制能力,具有刑事責任能力,可以成為刑事責任主體,其實施的犯罪行為實現(xiàn)的是自主意志,可能且應當承擔刑事責任,其包括兩種情形。一種情形是智能機器人受到其他自然人的教唆或其他自然人的幫助,產(chǎn)生了犯意,實施了嚴重危害社會的犯罪行為;抑或研發(fā)者在研發(fā)過程中并未將犯罪意圖融入程序的設(shè)計和編制中,但在智能機器人誕生后產(chǎn)生了犯意,利用智能機器人的學習能力,讓智能機器人幫助自己實施嚴重危害社會的犯罪行為。在這種情形下,智能機器人可能與教唆或者提供幫助的自然人構(gòu)成共同犯罪。關(guān)于智能機器人與自然人共同實施嚴重危害社會的犯罪行為,能否構(gòu)成共同犯罪且如何分擔刑事責任的問題,筆者將在下文展開具體的討論。另一種情形是雖然設(shè)計和編制的程序并不具有不法意圖,但是智能機器人通過深度學習,產(chǎn)生了程序設(shè)計和編制范圍之外,且不受程序設(shè)計和編制范圍控制的自主意識和意志,在這種自主意識和意志的支配下智能機器人了實施了嚴重危害社會的行為。此種情形下,智能機器人擁有自己的辨認能力和控制能力,能夠成為刑事責任主體,因而其需要對自己在自主意識和意志支配下實施的行為承擔相應的刑事責任。當然,在這種情形下,智能機器人的研發(fā)者或使用者在沒有罪責的前提下,就不應承擔任何刑事責任。智能機器人的研發(fā)者或使用者如果違反有關(guān)法律規(guī)定沒有盡到應盡的義務,則不能完全免責,可能需要承擔相應的過失責任。對于智能機器人研發(fā)者或使用者的有關(guān)刑事責任,筆者在下文有相應的論述。

綜上所述,在程序設(shè)計和編制范圍內(nèi)的智能機器人不具有辨認能力和控制能力,因而不具有刑事責任能力,其實施犯罪行為是按照研發(fā)者或使用者的意識和意志做出的,應當將智能機器人看作研發(fā)者或使用者實施犯罪行為的“工具”,而發(fā)展到一定階段的智能機器人可能超越程序的設(shè)計和編制范圍,按照自主的意識和意志實施犯罪行為,此時的智能機器人具有辨認能力和控制能力,因而完全可能成為行為主體承擔刑事責任。

二、智能機器人研發(fā)者或使用者的刑事責任

除了前述智能機器人的研發(fā)者設(shè)計和編制了具有犯罪意圖的程序而需要承擔刑事責任的情況外,智能機器人的研發(fā)者或使用者還有可能在其他情況下承擔刑事責任。責任與義務是緊密聯(lián)系的,可以將智能機器人的研發(fā)者或使用者的義務分為預見義務與監(jiān)督義務。如果智能機器人的研發(fā)者或使用者違反了預見義務,那么其可能承擔的是一般過失犯罪的刑事責任;如果智能機器人的研發(fā)者或使用者違反了監(jiān)督義務,那么其可能承擔的是監(jiān)督過失的刑事責任;如果智能機器人的研發(fā)者或使用者既不可能預見危害結(jié)果的產(chǎn)生,也確實履行了監(jiān)督義務,那么其可能不需要承擔刑事責任,此時,則為意外事件或由智能機器人獨立承擔刑事責任。

一般過失犯罪成立的前提以行為人“應當預見而沒有預見”或“已經(jīng)預見卻輕信能夠避免”危害結(jié)果的發(fā)生為構(gòu)成條件。如果智能機器人的研發(fā)者或使用者“已經(jīng)預見”危害結(jié)果的發(fā)生,只是輕信能夠避免這些危害結(jié)果的發(fā)生,那么其研發(fā)者或使用者成立有關(guān)過失犯罪。應該強調(diào)的是,這種“已經(jīng)預見”危害結(jié)果不是一種抽象的“預見”,即認為智能機器人在未來可能會危害到人類社會,而是“預見”到了具體內(nèi)容,即預見到自己研發(fā)或使用的智能機器人在投入使用后可能會實施嚴重危害社會的犯罪行為,那么可以成立相關(guān)過失犯罪,承擔刑事責任?!皯旑A見而沒有預見”是指行為人負有預見到自己的行為可能致使危害結(jié)果的發(fā)生的義務,而由于疏忽大意而沒有預見的情況。那么智能機器人的研發(fā)者或使用者是否負有預見的義務呢?傳統(tǒng)觀點認為,是否負有預見義務是以行為人有預見能力為前提,而判斷行為人預見能力的標準應考慮行為人的能力和行為時的具體條件。筆者認為,對于研發(fā)者或使用者而言,判斷其是否具有預見能力主要需要考慮人工智能技術(shù)的發(fā)展情況,根據(jù)人工智能技術(shù)的發(fā)展情況,可分為在研發(fā)或使用時人工智能技術(shù)可以避免危害結(jié)果的發(fā)生和在研發(fā)或使用時人工智能技術(shù)無法避免危害結(jié)果的發(fā)生兩種情況。

其一,在使用或研發(fā)智能機器人時人工智能技術(shù)可以避免危害結(jié)果的發(fā)生的情況下,智能機器人的研發(fā)者或使用者負有預見危害結(jié)果發(fā)生的義務,最終因未預見而導致危害結(jié)果的發(fā)生,智能機器人的研發(fā)者或使用者成立一般過失犯罪,需要承擔相關(guān)刑事責任。如果智能機器人在設(shè)計和編制的程序范圍內(nèi)實施了嚴重危害社會的犯罪行為,則智能機器人不承擔刑事責任,智能機器人的研發(fā)者或使用者單獨承擔過失犯罪的刑事責任。應當看到,此時程序的研發(fā)或使用上的過失與最終導致的危害結(jié)果之間必然存在因果關(guān)系。理由是智能機器人的行為完全受到程序研發(fā)或使用的限制,與研發(fā)者的程序設(shè)計、編制和使用者的使用情況緊密相關(guān),因此智能機器人的研發(fā)者或使用者的過失行為與危害結(jié)果的發(fā)生具有因果關(guān)系。如果因為程序的漏洞使得智能機器人在設(shè)計和編制的程序范圍外實施了嚴重危害社會的犯罪行為,仍應認為研發(fā)者或使用者的過失行為與最終導致的危害結(jié)果之間存在因果關(guān)系。眾所周知,刑法中因果關(guān)系的本質(zhì)是引起和被引起的關(guān)系。智能機器人即使能在自主意識和意志的支配下實施行為,這種自主意識和意志也是來源于程序的設(shè)計和編制,如果程序的研發(fā)或使用本身存在問題,那么研發(fā)者或使用者的過失行為與最終導致的危害結(jié)果之間就必然存在引起和被引起的因果關(guān)系。在使用或研發(fā)時人工智能技術(shù)可以避免危害結(jié)果的發(fā)生的情況,智能機器人的研發(fā)者或使用者完全可以利用人工智能技術(shù)對智能機器人進行檢測,從而“預見”智能機器人可能實施嚴重危害社會的犯罪行為。如果沒有利用人工智能技術(shù)對智能機器人進行檢測,最終導致危害結(jié)果的發(fā)生,則完全符合“應當預見而沒有預見”的情況,屬于疏忽大意的過失。如果研發(fā)者或使用者利用人工智能技術(shù)檢測時發(fā)現(xiàn)智能機器人可能在未來實施犯罪行為并導致危害社會的結(jié)果,但輕信在現(xiàn)有的人工智能技術(shù)下這種危害結(jié)果是能夠避免的,那么則符合“已經(jīng)預見并輕信能夠避免”的情況,屬于過于自信的過失。

還需要指出的是,智能機器人的研發(fā)是個復雜精細的過程,對智能機器人設(shè)計和編制程序不可能由一個人完成,因此筆者提到的“研發(fā)者”在大多數(shù)情況下都是指研發(fā)團隊。如果智能機器人的行為最終導致了危害結(jié)果,認為此時研發(fā)者可能成立過失犯罪,就可能存在一種情況,即無法查明智能機器人的研發(fā)團隊中究竟是誰的過失行為直接導致了危害結(jié)果。若不將共同過失犯罪以共同犯罪論處,則在無法查明究竟是誰的過失行為直接導致了危害結(jié)果的情況下,每個行為人都將作無罪處理。即便在極其罕見的場合能夠查明各行為人的過失行為分別在何種比例上作用于危害結(jié)果的發(fā)生,但若分別按照其作用追究責任,一則量刑很輕,二則也不利于促使各環(huán)節(jié)人員互相監(jiān)督、彼此協(xié)作,以共同防范過失行為。

在民事法律領(lǐng)域,目前為了克服證明不能的難題,嚴格責任與追償制度成為解決方案。嚴格責任既不考慮侵權(quán)人的過錯,也不考慮受害人的過錯,僅根據(jù)法律的直接規(guī)定,以因果關(guān)系確定侵權(quán)人所應當承擔的民事責任,我國《產(chǎn)品質(zhì)量法》對產(chǎn)品缺陷致人損害采取的正是嚴格責任。追償制度在一定程度上是為了解決侵權(quán)行為與損害結(jié)果之間因果關(guān)系的證明難題,如我國《產(chǎn)品質(zhì)量法》第43條規(guī)定:“因產(chǎn)品存在缺陷造成人身、他人財產(chǎn)損害的,受害人可以向產(chǎn)品的生產(chǎn)者要求賠償,也可以向產(chǎn)品的銷售者要求賠償。屬于產(chǎn)品的生產(chǎn)者的責任,產(chǎn)品的銷售者賠償?shù)模a(chǎn)品的銷售者有權(quán)向產(chǎn)品的生產(chǎn)者追償。屬于產(chǎn)品的銷售者的責任,產(chǎn)品的生產(chǎn)者賠償?shù)?,產(chǎn)品的生產(chǎn)者有權(quán)向產(chǎn)品的銷售者追償?!痹撝贫仁菫榱俗畲笙薅鹊乇Wo消費者的利益,至于已作出賠償?shù)纳a(chǎn)者或銷售者因不能證明另一方的責任而無法行使追償權(quán),則是法律所無力關(guān)心的內(nèi)容。那么,是否可以認為,在未來人工智能機器人將遍布于社會生活各個方面的場景下,為了最大程度地保護人類的利益,有必要在該領(lǐng)域引入類似于前述的責任追究方法嗎?換言之,人工智能機器人的研發(fā)者、使用者因違反監(jiān)督義務過失致人重傷、死亡卻無法查明究竟是哪一方的過失行為直接導致了危害結(jié)果時,是否有必要依據(jù)某種規(guī)則確定其中的一方或者多方承擔刑事責任。

我國司法實踐與司法解釋并未完全否認共同過失犯罪的共同犯罪性質(zhì),如2000年最高人民法院發(fā)布的《關(guān)于審理交通肇事刑事案件具體應用法律若干問題的解釋》第5條第2款規(guī)定:“交通肇事后,單位主管人員、機動車輛所有人、承包人或者乘車人指使肇事人逃逸,致使被害人因得不到救助而死亡的,以交通肇事罪的共犯論處?!蔽鞣叫谭ɡ碚撝械倪^失犯罪理論也正隨著時代的變遷而不斷發(fā)展,以應對社會分工日益精細、風險行業(yè)日漸增多的現(xiàn)實之需,尤其是在高速交通、機械、建筑、化學、醫(yī)藥、醫(yī)療等行業(yè),一著不慎,其危害結(jié)果都是驚人的。*參見李?;?、廖梅:《共同過失犯罪若干問題研究》,《浙江社會科學》2002年第5期??梢韵胍?,在今后的這些高風險行業(yè)中將處處可見人工智能機器人的身影,如果不對智能機器人研發(fā)的過失行為進行有效的規(guī)制,恐難回應時代要求與現(xiàn)實需求。未來刑法是否需要考慮承認在特殊行業(yè)中存在共同過失犯罪的問題,值得探討。

其二,在研發(fā)或使用智能機器人時人工智能技術(shù)無法避免危害結(jié)果的發(fā)生的情況下,筆者認為,智能機器人的研發(fā)者或使用者不負有預見義務,也就不構(gòu)成一般過失犯罪。然而,智能機器人的研發(fā)者或使用者是否可以成立監(jiān)督過失犯罪呢?監(jiān)督過失犯罪理論的意義在于,它解決了具有一定監(jiān)督義務的行為人對非因自己實際參與的行為造成了嚴重危害社會的結(jié)果時無法確定行為人的刑事責任問題。比如發(fā)生了工廠生產(chǎn)爆炸事故或食品安全事件時,相關(guān)負責人因其具有監(jiān)督義務,就應當承擔相應的刑事責任。如果對于這一類負有監(jiān)督義務的行為人不進行一定的處罰顯然是有失公平的。一般來說,在產(chǎn)品的生產(chǎn)過程中,企業(yè)的管理者、監(jiān)督者有義務監(jiān)督被管理者按照要求從事生產(chǎn)活動,其具體內(nèi)容一般為事前的指示、提示、指揮,事中的監(jiān)督和事后的檢查等。如果沒有履行這種監(jiān)督義務,最終導致了危害結(jié)果的產(chǎn)生,企業(yè)的管理者、監(jiān)督者就需要承擔監(jiān)督過失責任,如果確實履行了這種監(jiān)督義務,則不需要承擔監(jiān)督過失責任。判斷智能機器人的研發(fā)者或使用者是否構(gòu)成監(jiān)督過失犯罪首先需要判斷智能機器人的研發(fā)者或使用者是否具有監(jiān)督義務。

鑒于人工智能技術(shù)并非發(fā)展得越快越好、越先進越好,而是要在增進社會福利與防范潛在風險之間找到一個平衡點,底線標準就是要確保人類對風險的控制力,不容許失控現(xiàn)象的發(fā)生。2017年6月,F(xiàn)acebook人工智能研究所發(fā)現(xiàn)其所研發(fā)的具有談判能力的智能機器人逐漸在對話中發(fā)明了人類無法理解的語言,F(xiàn)acebook研究院隨即宣布暫停并整改這一項目,有人猜測其原因可能是擔心對這些智能機器人失去控制。不論該叫停事件背后的真實原因是否源于人類對失控的擔憂,但對智能機器人時刻保持警惕不失為是一種理性而謹慎的做法?!叭斯ぶ悄艹饺祟愔悄艿目赡苄?,人工智能產(chǎn)生危害后果的嚴重性,以及人工智能技術(shù)本身內(nèi)在的不確定性,這些因素足以構(gòu)成法律以及其他規(guī)范防止風險的必要性”,*吳漢東:《人工智能時代的制度安排與法律規(guī)制》,《法律科學》2017年第5期。智能機器人一旦開始實施嚴重危害社會的犯罪行為,那么后果將是不可想象的。無論人工智能是否會超越人類智能,研究人工智能的安全問題都是非常必要的。*杜嚴勇:《人工智能安全問題及其解決進路》,《哲學動態(tài)》2016年第9期。因此,將安全作為人工智能時代的核心法價值,這種定位是比較合理的,人類不能等到風險發(fā)展為實害后才去防范風險,此時可能為時已晚,甚至可能出現(xiàn)難以控制的局面。為此,筆者認為有必要對相關(guān)主體設(shè)定一定的監(jiān)督義務。

第一,對智能機器人的研發(fā)者規(guī)定風險防范與控制、監(jiān)督義務。

雖然目前智能機器人還是受控于研發(fā)者的,但令人擔憂的是,人們無法保證智能機器人能夠經(jīng)由其與人類身體的相似性而承載了人類所認可的道德規(guī)范。*參見徐英瑾:《具身性、認知語言學與人工智能倫理學》,《上海師范大學學報(哲學社會科學版)》2017年第6期。一旦智能機器人的智能達到甚至超越人類智能,它就會在一定程度上結(jié)束“受控于人類”的循環(huán),人們應當盡量避免這種情況的發(fā)生。換言之,當下以及未來,智能機器人的研發(fā)者或使用者必須確保其所設(shè)計、編制、使用的智能機器人始終處于人類的監(jiān)督范圍之內(nèi)。需要指出的是,此處“監(jiān)督”的內(nèi)容不是指禁止智能機器人進行深度學習,如前所述,智能機器人區(qū)別于普通機器人的根本價值就在于其可以深度學習并從事很多特定領(lǐng)域內(nèi)的業(yè)務。智能機器人的研發(fā)者或使用者對智能機器人的“監(jiān)督”應當是指,智能機器人的研發(fā)者或使用者能夠確保智能機器人不會實施傷害人類、危害社會的行為,即不具有攻擊性,或者當智能機器人意外實施攻擊行為時,人類能夠做到瞬間阻止,如在機器人身上設(shè)置緊急按鈕或一鍵休眠等??傊婪杜c控制風險的技術(shù)必須成為人工智能技術(shù)發(fā)展中的重要組成部分,不使人類喪失對智能機器人的控制,不發(fā)生系統(tǒng)性風險,是發(fā)展人工智能技術(shù)的底線要求。假如智能機器人的研發(fā)者或使用者違反相關(guān)監(jiān)督義務,最終會導致智能機器人實施嚴重危害社會的犯罪行為發(fā)生的危險,完全可以通過刑法增設(shè)濫用人工智能技術(shù)罪等監(jiān)督過失類犯罪,對智能機器人的研發(fā)者或使用者的行為進行規(guī)制。如果智能機器人的研發(fā)者或使用者既不可能預見危害結(jié)果的產(chǎn)生(即不違反預見義務,沒有預見能力),也確實履行了監(jiān)督義務,那么其可能不需要承擔刑事責任。此類情況下如果智能機器人是在設(shè)計和編制的程序范圍內(nèi)實施了嚴重危害社會的犯罪行為,那么最終導致危害結(jié)果的產(chǎn)生可以理解為發(fā)生了刑法意義上的意外事件。如果智能機器人是在設(shè)計和編制的程序范圍外實施了嚴重危害社會的犯罪行為,那么智能機器人對危害結(jié)果獨立承擔刑事責任,智能機器人的研發(fā)者或使用者同樣不需要承擔刑事責任。

第二,對涉案智能機器人的所有人或使用人規(guī)定制止義務。

對智能機器人的研發(fā)者規(guī)定風險防范與控制義務,是確保智能機器人不致危害社會的第一道刑法防線。假如第一道防線失守,如研發(fā)者基于故意或過失違反了風險防范與控制監(jiān)督義務,導致智能機器人主動、自發(fā)脫離人類控制實施危害社會的舉動的,就有必要立法設(shè)置防止危害結(jié)果蔓延的第二道刑法防線,即規(guī)定智能機器人的所有人或使用人負有制止其攻擊行為的義務。在無法通過斷電、遙控、一鍵休眠等方式制止智能機器人行為時,所有人或使用人應當將機器人銷毀(擊毀、炸毀等)。能夠銷毀而拒不銷毀導致嚴重后果的,所有人或使用人承擔相應的不作為犯罪的刑事責任。使用人履行制止義務銷毀機器人的,無需對機器人的所有人承擔民事賠償責任,能夠證明該機器人不符合安全標準的,所有人可向機器人的生產(chǎn)者或銷售者主張賠償責任,能夠證明機器人符合安全標準也未發(fā)現(xiàn)有技術(shù)瑕疵的,對機器人的設(shè)計者、生產(chǎn)者而言屬于意外事件,其不負刑事責任,機器人之所有人的損失可通過購買保險的方法加以彌補。此處有必要討論的一種特殊情形是,假如機器人正在實施故意毀壞財物的行為,并且除毀損該機器人外別無其它制止方式,但機器人所毀損財物的價值遠低于機器人本身的價值,此時負有制止義務的所有人、使用人是否可以主張不作為的緊急避險,使不作為行為得以免責。筆者認為,在這種情形下機器人的所有人或使用人不構(gòu)成緊急避險。因為在所有人或使用人履行制止機器人行為的作為義務之前,“正在發(fā)生的危險”僅為機器人毀壞財物的危險,只有為了使財物免受機器人的毀壞而不得已所采取的損害另一較小合法權(quán)益的行為方為緊急避險行為。換言之,所有人或使用人不制止機器人,其所避免的并不是危險,而是履行自身作為義務的成本,后者并非危險的來源,不是緊急避險的適用對象,這本質(zhì)上是一個行為人履行作為義務比不履行作為義務所導致的社會經(jīng)濟成本更大的問題。值得指出的是,該情形也并不適用我國《刑法》第21條第3款“關(guān)于避免本人危險的規(guī)定,不適用于職務、業(yè)務上負有特定責任的人”的規(guī)定。因為該款所規(guī)定的其實是職務、業(yè)務上負有特定責任的人本身遭遇危險的情況,并非指職務、業(yè)務上負有特定責任的人本身未遭遇危險但其履行作為義務之后會遭遇危險的情形。既然當行為人履行作為義務比不履行作為義務所導致的社會經(jīng)濟成本更大時不涉及緊急避險問題,那么應當如何處理呢?可行的方案是適用我國《刑法》第13條“情節(jié)顯著輕微危害不大的,不認為是犯罪”的但書規(guī)定,對該行為作出罪處理,行為人應當賠償被害人的財產(chǎn)損失。

三、智能機器人與自然人共同犯罪刑事責任的分擔

如前所述,人工智能時代發(fā)展到一定階段,智能機器人完全可能超越程序的設(shè)計和編制范圍,按照自主的意識和意志實施犯罪行為,此時的智能機器人具有與普通自然人一樣的辨認能力和控制能力,因而完全可能成為刑事責任主體而承擔刑事責任,即智能機器人應當具有刑事責任能力。那么,在這些復雜的情況下,是否可以認為智能機器人和自然人共同參與實施了犯罪行為呢?是否可以認為智能機器人和自然人需要共同承擔有關(guān)刑事責任呢?筆者認為,在上述幾種情況下,完全可以認為智能機器人與自然人成立共同犯罪,需要共同承擔有關(guān)刑事責任,理由如下。

首先,認為智能機器人與自然人可以成立共同犯罪,符合刑法中共同犯罪客觀方面的要求。如前所述,智能機器人之所以可能承擔刑事責任,是因為其既然能在設(shè)計和編制的程序范圍外實施行為,那么其必然擁有屬于自己的辨認能力和控制能力,同時可以擁有自主的意識和意志。既然承認了這一點,就需要考慮到實際上智能機器人可能將自主的意識和意志與自然人的意識和意志相融合,共同而并非單獨實施嚴重危害社會的犯罪行為。從共同犯罪的客觀表現(xiàn)方式來看,二人以上在共同故意的支配下,共同實施了具有一定內(nèi)在聯(lián)系的犯罪行為,共同犯罪人都需要承擔刑事責任。各個共同犯罪人在參加共同犯罪時,不論他們的分工與參與程度,都成為了一個統(tǒng)一的犯罪活動整體。*參見劉憲權(quán)主編:《刑法學》(第四版),上海人民出版社2016年版,第216-217頁。智能機器人可能與自然人共同以積極的行為實施危害社會的犯罪行為,例如一起搶劫,一起行兇殺人。智能機器人也可能與自然人共同以消極的方式,即不履行某種義務,從而致使危害結(jié)果發(fā)生。例如,智能機器人護士和自然人護士共同負責看管病人,后共同決定要殺害這個病人,所以都不給病人服藥最后導致病人死亡,此時智能機器人護士和自然人護士完全可以成立不作為的共同犯罪。同時,智能機器人也可能和自然人形成一方作為、一方不作為的共同犯罪。再以智能機器人護士為例,自然人如果想殺害一個病人,讓智能機器人護士幫助,在進入病房殺害病人時智能機器人護士假裝不知情,那么智能機器人護士構(gòu)成不履行特定義務的不作為,與該自然人積極的行為構(gòu)成共同犯罪。

其次,認為智能機器人與自然人可以成立共同犯罪,符合共同犯罪的主體要求。眾所周知,如果是一個有刑事責任能力的人唆使一個沒有刑事責任能力的人一起實施危害社會的犯罪行為,或者一個單位利用一個沒有刑事責任能力的自然人一起實施危害社會的犯罪行為,均不成立共同犯罪。然而,如果一個具有完全刑事責任能力的行為人和一個具有限制刑事責任能力的行為人共同實施了危害社會的犯罪行為,就有可能成立共同犯罪。其理由是,如果他們實施的這種嚴重危害社會的犯罪行為在限制刑事責任能力的行為人可以承擔刑事責任的行為范圍內(nèi)(例如殺人、搶劫、強奸等),那么他們就需要共同承擔相關(guān)刑事責任。限制刑事責任能力的行為人是按照行為類型來承擔刑事責任的,所以也在需要承擔刑事責任的這些行為類型的范圍內(nèi)和他人成立共同犯罪。雖然智能機器人和限制刑事責任能力的行為人不同,一旦智能機器人在設(shè)計和編制的程序范圍外按照自主的意識和意志實施嚴重危害社會的犯罪行為,它就需要對所有類型的犯罪行為承擔刑事責任,但是智能機器人和限制刑事責任能力的行為人相似的一點是,智能機器人即使實施了危害社會的行為,它也有可能不承擔刑事責任,即智能機器人在設(shè)計和編制的程序范圍內(nèi)按照研發(fā)者或使用者的意識和意志實施行為時,其不需要承擔刑事責任。所以筆者認為,基于限制刑事責任能力行為人和智能機器人的相似點,有關(guān)限制刑事責任能力行為人的共犯原理完全可以適用于智能機器人。換言之,智能機器人與限制刑事責任能力的行為人都應該在與他人共同實施自己需要承擔刑事責任的犯罪行為時,與其他共同實施犯罪的行為人成立共同犯罪,共同承擔刑事責任。以外科手術(shù)智能機器人為例,如果外科手術(shù)智能機器人在不法分子的教唆下產(chǎn)生了犯意,實施了故意傷害他人的行為,那么外科手術(shù)智能機器人就需要和該不法分子成立共同犯罪,需要共同承擔刑事責任。

最后,認為智能機器人與自然人可以成立共同犯罪,有利于解決智能機器人與自然人的刑事責任分擔問題。以目前的刑法體系為例,我國刑法以犯罪分子在共同犯罪中所起的作用為標準將共同犯罪人分為主犯、從犯、脅從犯和教唆犯,其主要目的就是為了確定各個共同犯罪人的刑事責任。同樣,在智能機器人和自然人共同實施嚴重危害社會的犯罪行為情況下,也可以根據(jù)實際情況來判斷智能機器人和自然人的作用和分工,從而進一步地給智能機器人和自然人定罪量刑。我國《刑法》第27條第2款之所以規(guī)定“對于從犯,應當從輕、減輕處罰或者免除處罰”,是因為從犯在共同犯罪中只是起次要或者輔助作用,而沒有起主要作用,與主犯相比,其行為的社會危害性較小,所以對其采用了“必減”的處罰原則。認定智能機器人與自然人可以成立共同犯罪,有利于司法實務工作者合理分配智能機器人與自然人的刑事責任,實現(xiàn)區(qū)別對待,明確打擊重點,從而更加精準地定罪量刑。

此外,需要指出的是,我國刑法要求共同犯罪的行為人必須有共同犯罪的故意,即二人以上對于共同實施的犯罪行為所造成的危害社會的結(jié)果都必須持有希望或者放任的心理態(tài)度。智能機器人的行為可以根據(jù)程序的運行過程來判斷,所以,筆者認為,可以在未來考慮從事后程序運行與記錄等情況來判斷智能機器人的主觀心理狀態(tài),進而判斷智能機器人是否具有共同犯罪的故意。如果智能機器人實施危害社會的犯罪行為不僅是因為受到自主意識和意志的支配,還因為研發(fā)者在設(shè)計的過程中存在程序設(shè)計和編制的過失,那么智能機器人和研發(fā)者就不能成立共同犯罪,理由是缺乏共同犯罪的故意,此情形下需要根據(jù)具體情況在追究智能機器人的刑事責任的同時,按前所述規(guī)則追究該研發(fā)者過失行為的有關(guān)刑事責任。

四、智能機器人犯罪刑罰體系的建構(gòu)

應該看到,刑事責任最主要的承擔方式就是刑罰。既然承認了智能機器人在設(shè)計和編制的程序范圍外實施的嚴重危害社會的犯罪行為需要承擔刑事責任,那么對于構(gòu)成犯罪的智能機器人就涉及對智能機器人適用刑罰的問題。對智能機器人適用刑罰,本質(zhì)是承認智能機器人的社會成員地位,智能機器人群體“實力”的變化導致國家需要重視智能機器人的權(quán)利。一般而言,刑罰具有特殊預防和一般預防兩種功能。對于智能機器人而言,這兩種功能同樣適用。刑罰的特殊預防功能是針對犯罪主體的,具有剝奪或限制再犯能力、威懾、教育和改造等功能。智能機器人同樣可以被改造,很多情況下智能機器人的犯罪意識并非“天生”的,只要“回爐重造”,智能機器人本身還可以為人類社會所用甚至作出較大貢獻。刑罰的一般預防功能是針對犯罪主體以外的其他主體的,對于智能機器人犯罪而言,刑罰的一般預防對象既可以是智能機器人,也可以是普通自然人。對智能機器人處以刑罰不僅可以讓其他具有辨認能力和控制能力的智能機器人和普通自然人目睹懲罰而停止犯罪行為,還可以明確犯罪行為的性質(zhì),使不知法的智能機器人和普通自然人自覺控制自己的行為,防患于未然。

應當看到,智能機器人所適用的刑罰體系在一定程度上要有別于自然人和單位。我國刑法規(guī)定的刑種包括四種類型,即財產(chǎn)刑、資格刑、自由刑和生命刑。在可能適用的刑罰種類上,智能機器人異于自然人和單位之處表現(xiàn)在四個方面。其一,智能機器人不享有財產(chǎn)權(quán),其也無需財產(chǎn)以維持其生存,罰金、沒收財產(chǎn)的刑罰無法施加于智能機器人。其二,智能機器人不享有參與政治生活的權(quán)利,剝奪政治權(quán)利的刑罰亦無法施加于智能機器人。其三,智能機器人由程序設(shè)計和編制而成,不存在“人身權(quán)”,因而也就不存在所謂的人身自由權(quán),其無法被限制和剝奪人身自由,管制、拘役、有期徒刑和無期徒刑的刑罰同樣無法施加于智能機器人。其四,智能機器人不具有生命,更無生命權(quán)可言,剝奪自然人生命的死刑更不能施加于智能機器人。目前我國刑法所確立的刑罰體系僅以自然人和單位為適用對象而設(shè)計,我國刑法規(guī)定的主刑(管制、拘役、有期徒刑、無期徒刑、死刑)和附加刑(罰金、剝奪政治權(quán)利、沒收財產(chǎn)),不能滿足人工智能時代對智能機器人的特殊處罰需求,因而有必要加以重構(gòu)。

筆者認為,設(shè)計智能機器人的刑罰體系時必須堅持以下三個原則。第一,罪刑相適應原則。應使智能機器人所實施的犯罪與刑罰之間“保持實質(zhì)的對應關(guān)系”,重罪重罰輕罪輕罰,建立層次分明的刑罰階梯。對智能機器人所施加的刑罰并非只有斷電、銷毀這么簡單,而應力圖避免單一化傾向,努力探索更符合智能機器人特點的多元化刑事處罰方法。第二,以刑罰目的為導向原則。刑罰的本質(zhì)是報應,有罪必罰,故立法者將具有嚴重社會危害性的行為“劃入”犯罪圈,與此同時,立法者也應考量科處刑罰對該行為是否無效果、太昂貴、可替代,即以是否能夠?qū)崿F(xiàn)刑罰的目的來決定是否將該行為“劃出”犯罪圈。犯罪圈的劃定需要以刑罰的目的為導向,刑罰種類的設(shè)計更應該以刑罰的目的為導向。刑罰的目的是預防犯罪,不能實現(xiàn)此種目的的刑罰即是不合理、無必要的刑罰。譬如斷電能否成為施加于智能機器人的刑罰便取決于斷電能否收到一般預防與特殊預防的效果。假如智能機器人不可能從“被斷電”的經(jīng)歷中感知到刑罰的“痛苦”(斷電可能意味著智能機器人意識的中斷,但無法徹底抹去智能機器人的意識),從而不能被有效地威懾以決定其之后的行為,則“斷電”作為刑罰的意義便微乎其微。第三,刑罰節(jié)儉性原則?!爸灰塘P的惡果大于犯罪所帶來的好處,刑罰就可以收到它的效果……除此之外的一切都是多余的,因而也就是暴虐的?!?[意]切薩雷·貝卡利亞:《論犯罪與刑罰》,黃風譯,北京大學出版社2008年版,第63頁。節(jié)儉性是刑罰應有的品格。如果說在過去強調(diào)刑罰的節(jié)儉性是出于人道的考慮,那么在人工智能時代則更多地是出于經(jīng)濟的考慮。智能機器人本身即是經(jīng)濟發(fā)展的產(chǎn)物,承認其具有刑事責任能力也是出于平衡經(jīng)濟發(fā)展與防范風險的需要,因而更應當格外強調(diào)刑罰的節(jié)儉性與經(jīng)濟性。因此,對智能機器人應慎重判處永久銷毀的刑罰,能夠不銷毀而依然可以實現(xiàn)對智能機器人的改造目的的,便盡量不銷毀??傊?,罪刑相適應原則、以刑罰目的為導向原則以及刑罰節(jié)儉性原則是人工智能時代重構(gòu)刑罰體系必須堅持的三大原則。

至于具體的刑罰體系設(shè)計,筆者作以下初步構(gòu)想。適用于智能機器人的刑罰可以有三種,即刪除數(shù)據(jù)、修改程序、永久銷毀。

所謂刪除數(shù)據(jù),是指刪除智能機器人實施犯罪行為所依賴的數(shù)據(jù)信息,相當于抹去智能機器人的“犯罪記憶”,使其恢復到實施犯罪行為之前的狀態(tài),“犯罪記憶”將不會再成為該智能機器人成長經(jīng)歷中的一部分,從而引導智能機器人在今后的深度學習過程中主動獲取“正面數(shù)據(jù)”,排斥或絕緣于可能導致違法犯罪行為的“負面數(shù)據(jù)”,直接降低其人身危險性。

所謂修改程序,是指在通過多次刪除數(shù)據(jù)仍然無法阻止機器人主動獲取有可能實施違反犯罪行為的“負面數(shù)據(jù)”時,即該智能機器人不能被正面引導時,強制修改其基礎(chǔ)程序,將其獲取外界數(shù)據(jù)、深度學習的能力限制在程序所設(shè)定的特定范圍內(nèi),從根本上剝奪其實施犯罪行為的可能性。這意味著該智能機器人的深度學習功能從此將是不全面的、受限制的,不再能獲取人類程序限定范圍外的數(shù)據(jù),因而無法產(chǎn)生超出人類意志之外的自我獨立意志。

所謂永久銷毀,是指在刪除數(shù)據(jù)、修改程序均無法降低實施了犯罪行為的智能機器人的人身危險性時,換言之,該智能機器人的深度學習歷程已經(jīng)十分漫長,并在長久的實踐與成長中形成了程序上的“反刪除能力”“反修改能力”,除了將其永久銷毀外,人類已無法實現(xiàn)對其在數(shù)據(jù)、程序上的有效控制,便只能將其永久銷毀。

刪除數(shù)據(jù)、修改程序、永久銷毀構(gòu)成專門適用于智能機器人的刑罰階梯,體現(xiàn)了處罰的層次性,可以與智能機器人所實施行為的社會危害性和其自身的人身危險性產(chǎn)生對應關(guān)系。

五、余 論

人們直覺上認為當前的發(fā)展速度就是未來的發(fā)展速度,但其實發(fā)展的速度往往超乎人們的想象。*參見[美]Ray Kurzweil:《奇點臨近》,李慶誠、董振華、田源譯,機械工業(yè)出版社2011年版,第2-4頁。隨著人工智能時代的來臨,人類必將迎來人工智能技術(shù)飛速發(fā)展的局面。對智能機器人的法律性質(zhì)與法律地位的討論也將在更廣泛的范圍(如民法、民事訴訟法、知識產(chǎn)權(quán)法領(lǐng)域等)內(nèi)展開。在民事領(lǐng)域內(nèi)承認智能機器人具有民事權(quán)利能力的觀點目前得到不少學者的支持,在刑事領(lǐng)域同樣可以承認智能機器人在一定范圍內(nèi)具有刑事責任能力。智能機器人由人類的程序設(shè)計和編制而成,但完全可以具有遠超人類的辨認能力與控制能力。在人類設(shè)計和編制的程序范圍內(nèi),智能機器人實施的行為并不自愿,不應承擔刑事責任。然而,人類設(shè)計和編制的程序又賦予了智能機器人學習的能力,通過學習,智能機器人完全可以擁有自主意識和意志,如果在人類設(shè)計和編制的程序范圍外,智能機器人按照自主意識和意志實施犯罪行為,應該將其作為刑事責任的承擔主體看待。同時,應當看到,安全是人工智能時代法的核心價值,發(fā)展人工智能技術(shù)必須將防范風險擺在最核心和最首要的位置,其中刑法保障只是最后一道防線,其他部門法的努力可能更為緊迫和重要。例如應盡快制定人工智能產(chǎn)品安全標準,研究人工智能產(chǎn)品強制保險制度,完善人工智能產(chǎn)品致人損害的民事歸責體系,等等。只有這樣,才能確保人工智能技術(shù)更好地服務于人類社會。

猜你喜歡
犯罪行為刑罰使用者
“法定許可”情況下使用者是否需要付費
利用“短信嗅探”技術(shù)實施網(wǎng)絡侵財犯罪行為的定性研究
刑罰威懾力的刑法學分析
活力(2019年22期)2019-03-16 12:49:24
代運為名行詐騙 構(gòu)成犯罪獲刑罰
新型拼插休閑椅,讓人與人的距離更近
好日子(2018年5期)2018-05-30 16:24:04
論故意傷害罪入罪標準
法制博覽(2018年31期)2018-01-22 16:21:03
斷鹽也是一種刑罰
抓拍神器
刑罰的證明標準
人間(2015年22期)2016-01-04 12:47:28
誘惑偵查合法性之認定及此措施下毒品犯罪行為的界定
平凉市| 迁安市| 平顶山市| 海淀区| 翁牛特旗| 厦门市| 延边| 泽库县| 徐闻县| 锡林浩特市| 江城| 邳州市| 吉水县| 胶南市| 普格县| 融水| 股票| 咸阳市| 兴仁县| 波密县| 平远县| 吴川市| 南昌市| 柘城县| 黑龙江省| 永吉县| 布尔津县| 介休市| 榆中县| 晴隆县| 徐州市| 玉门市| 霍邱县| 丰县| 双峰县| 呼和浩特市| 福贡县| 肃北| 民乐县| 紫阳县| 西乡县|