李少君
(華東政法大學(xué) 刑事法學(xué)院,上海 200333)
人工智能的概念于1956 年的達特茅斯會議上被首次提出,是指智能機器人模擬人類去完成某項任務(wù)的技術(shù)[1]。近年來,人工智能技術(shù)發(fā)展迅猛,諸如機器人索菲亞獲得公民資格、百度董事長李彥宏乘坐公司研發(fā)的無人駕駛汽車在北京市五環(huán)路上行駛[2]、“刑事同案不同判預(yù)警系統(tǒng)”在江蘇部分法院試點應(yīng)用[3]等事件均可看出人工智能技術(shù)正逐漸深入到人類生活的方方面面。
面對前所未有的人工智能時代,盡管有觀點認為人工智能技術(shù)不會對人類造成威脅,如馬云認為:“盡管人工智能正變得越來越睿智,但它仍然無法與人類智慧相提并論?!保?]但我們應(yīng)當(dāng)認識到,人工智能機器人既可以在人類事先編制的程序內(nèi)實施行為,也可基于其超強的學(xué)習(xí)和反饋能力獨立實施某種行為。從該項技術(shù)興起開始,人工智能傷人事件便已屢見不鮮。如1978 年日本廣島的摩托汽車廠機器人突然轉(zhuǎn)身將背后的工人抓住并切割。1985 年全蘇國際象棋冠軍古德柯夫同機器人棋手下棋連勝三局,機器人棋手突然不受控制,本應(yīng)繼續(xù)下棋的棋手機器內(nèi)部程序發(fā)生紊亂,仿佛由于“不服氣”而報復(fù)性地釋放出電流將對手古德柯夫擊倒。2016 年11 月18 日,深圳高交會的參展機器人“覺醒”傷人等。以上事件已經(jīng)暗示了人工智能技術(shù)背后的刑事風(fēng)險。
只有在當(dāng)下提前預(yù)想人工智能可能帶來的刑事問題,方能在強人工智能時代到來時應(yīng)對各種挑戰(zhàn)。本文欲解決的問題是在人工智能具備辨認、控制能力且能夠獨立承擔(dān)刑事責(zé)任的前提下,當(dāng)前的刑罰體系是否可以直接適用,是否需要構(gòu)建以及如何構(gòu)建專屬于人工智能的刑罰體系。學(xué)界已無爭議的是,對于弱人工智能,以及在人類設(shè)計的程序范圍內(nèi)實施行為的強人工智能體,由于其不能成為刑事責(zé)任主體,故當(dāng)然無法適用刑罰,只需將責(zé)任歸咎于背后的制造者、使用者。對于制造者、使用者的處罰,現(xiàn)行的刑罰體系足以適用。但在強人工智能體能否成為刑事責(zé)任主體這一命題中,刑事責(zé)任的承擔(dān)是承認其主體地位的必然結(jié)果,而刑罰又是承擔(dān)刑事責(zé)任的主要方式。因此,如何構(gòu)建針對并適合強人工智能體的刑罰體系,是在探討強人工智能體刑事責(zé)任主體地位的同時必須解決的重要問題。
盡管學(xué)者們普遍認為我國當(dāng)前的刑罰體系既寬嚴相濟又目標統(tǒng)一,既內(nèi)容合理又方法人道,既體系完整又結(jié)構(gòu)嚴謹[5],但是古往今來,各國的刑罰體系均在不斷地發(fā)生變化。刑罰屬于刑法的分支,而刑法又屬于法律這一上層建筑,因此是由經(jīng)濟基礎(chǔ)決定的,同時也是和社會文明程度相對應(yīng)的,什么程度的社會文明便會催生出什么樣的刑罰體系。從封建社會到現(xiàn)代社會,刑罰體系的中心刑罰種類也在不斷改變。從最初的死刑,到后來的肉刑,再到徒刑,最后才是如今的自由刑。在人工智能時代,強人工智能體必然會成為刑事責(zé)任主體,但目前的刑罰體系適用于強人工智能體卻存在一定的局限性。
我國現(xiàn)有的刑罰體系中一共存在四類刑罰,分別是生命刑、自由刑、財產(chǎn)刑和權(quán)利刑。對于當(dāng)前兩類刑事責(zé)任主體——自然人和單位而言,自然人可以適用以上任何一種刑罰,單位只能適用財產(chǎn)刑中的罰金。而面對強人工智能體成為刑事主體的情形,現(xiàn)有刑罰體系中的四類刑罰便會顯得鞭長莫及。
生命刑即死刑,是剝奪罪犯生命的刑罰,也是所有刑罰中最嚴厲的一種。適用死刑的前提條件是犯罪主體擁有生命權(quán)。對強人工智能體而言,是否具有生命仍存在爭議??隙ㄕ哒J為,動物、微生物都擁有生命,人工智能機器人也應(yīng)擁有。否定者則認為,生命僅限于擁有新陳代謝、能夠與自然界交涉的生物,而人工智能只是人類創(chuàng)造出的物,當(dāng)然不具有生命。其實對于人工智能是否具有生命的否定論者,也是對強人工智能體能否成為刑事責(zé)任主體這一命題的否定論者??梢钥闯?,死刑能否適用于強人工智能體取決于其是否具有生命,但在目前看來,將死刑運用至強人工智能體的刑罰體系中,難免會超出國民的預(yù)測。
自由刑包括管制、拘役、有期徒刑和無期徒刑。自由刑懲罰罪犯的方式是“把人同外界隔絕,強制他陷入深沉的靈魂孤獨之中,把法律的懲罰同神學(xué)的折磨結(jié)合起來”[6]。但對于強人工智能體而言,將其同外界隔絕,卻存在兩處弊端:第一,可能違背人類創(chuàng)造人工智能的初衷。人類創(chuàng)造人工智能是為了更好地輔助人類改造客觀世界,從而獲得收益,且這種收益應(yīng)當(dāng)大于其創(chuàng)造成本。若將自由刑適用于強人工智能體,則可能會導(dǎo)致人工智能帶來的經(jīng)濟利益降低,這與人類創(chuàng)造人工智能的目的是相違背的。第二,將自由刑適用于強人工智能體,其執(zhí)行方式難以明確。對自然人而言,可以通過監(jiān)禁的方式在一定時間內(nèi)剝奪其人身自由,且剝奪的時間越長,犯罪分子的年齡越大,由此伴隨著犯罪能力減弱、犯罪情感降低等效果,最終降低自然人再次實施犯罪行為的可能性。但對于強人工智能體而言,只要有源源不斷的能量就能不斷運行,其活動能力不會隨著年齡的變大而減弱,信息處理能力也不會隨著時間的推移而降低。這也將導(dǎo)致強人工智能體在自由刑執(zhí)行完畢后回歸社會的難度降低,不會如自然人一般產(chǎn)生融入社會的困難。因此,相較于自然人,某一段時間內(nèi)自由權(quán)的喪失對強人工智能體造成的影響極小。另外,若是為了限制強人工智能的自由權(quán),基于刑罰的節(jié)儉原則,對其采取斷電措施即可,并無必要采取監(jiān)禁的方式限制其自由。
財產(chǎn)刑包括罰金和沒收財產(chǎn),盡管筆者支持強人工智能成為刑事責(zé)任主體,但學(xué)者們對這一問題仍處于爭論中。在民法上,強人工智能體尚未成為民事主體,因此其尚未享有財產(chǎn)權(quán)等民事權(quán)利。在強人工智能體的財產(chǎn)權(quán)尚未得到法律認可的情況下,要求刑法剝奪或限制其財產(chǎn)權(quán)便只能是“鏡中之花”“水中之月”。當(dāng)然,筆者并不否認隨著人工智能技術(shù)的更迭,強人工智能體可能會被賦予財產(chǎn)權(quán),從而適用財產(chǎn)刑,但就目前而言,財產(chǎn)刑適用于強人工智能體仍然存在困難。
權(quán)利刑的局限性與財產(chǎn)刑相同,在尚未賦予強人工智能體政治權(quán)利的前提下而用刑法剝奪,便會是空中樓閣。如今沙特阿拉伯已經(jīng)授予了人工智能機器人公民身份,相信隨著倫理觀念和法學(xué)研究的進步,未來強人工智能體擁有政治權(quán)利也并非異想天開,但至少在現(xiàn)在適用權(quán)利刑并不適宜。
面對現(xiàn)有刑罰體系的局限性,筆者認為應(yīng)當(dāng)適當(dāng)調(diào)整刑罰體系,增設(shè)強人工智能體專有的刑罰,如劉憲權(quán)教授提出“對于人工智能機器人,可以增設(shè)如刪除數(shù)據(jù)、修改程序和永久銷毀的刑罰處罰方式”[7](以下簡稱“肯定論”)。筆者欲在該觀點的基礎(chǔ)上對質(zhì)疑者的觀點進行批判,同時也對該觀點的合理性進行反思,最終提出更為科學(xué)、合理的刑罰體系。
有論者主張,對實施犯罪行為的智能機器人相關(guān)人員加以懲罰,才能從源頭上遏制此類犯罪的發(fā)生,真正實現(xiàn)刑罰的目的和價值,因此并無必要構(gòu)建專屬于強人工智能體的刑罰體系。其論證思路是,對于強人工智能體造成的危害社會的結(jié)果,不應(yīng)當(dāng)對該機器人進行譴責(zé),而是應(yīng)當(dāng)歸責(zé)于存在過失的相關(guān)自然人或單位[8]。這一觀點正是從刑罰適用的角度否定強人工智能的刑事責(zé)任主體地位。筆者認為,這一觀點固然具有一定的合理性,但在規(guī)制的范圍上仍存在漏洞。一方面,如果智能機器人在設(shè)計和編制的程序范圍內(nèi)實施行為,那么應(yīng)當(dāng)認為此時該行為體現(xiàn)的是研發(fā)者的意志[9]。即這一情形下的強人工智能體與當(dāng)前的弱人工智能機器人沒有明顯區(qū)別,均屬于人類大腦在物上的延伸。對于這一情形,可以運用類似于商法中的“法人人格否認制度”來否認強人工智能體的人格,直接追究其背后研發(fā)者的責(zé)任。但另一方面,對于強人工智能體在設(shè)計和編制的程序范圍外實施的行為,否定論者認為應(yīng)當(dāng)通過過失犯罪對強人工智能體背后的設(shè)計者、制造者進行處罰,從而填補法律規(guī)制的漏洞。筆者認為這種過失歸責(zé)原則有待考量,在面對人工智能時代的刑事風(fēng)險時,過失責(zé)任是捉襟見肘的,對此可從兩個角度予以說明。
首先,當(dāng)行為主體具有故意或過失之時,行為主體的行為才具有過錯的理由,對于行為主體才具有道義上或者人格上進行否定評價的合理前提[10]。因此該論者認為刑法應(yīng)當(dāng)賦予設(shè)計者、制造者更嚴格的義務(wù),在其違反這些義務(wù)時承擔(dān)相應(yīng)的責(zé)任,但其對于所謂的“更嚴格的義務(wù)”并沒有更具體的闡述。若設(shè)計者、制造者在履行了刑法設(shè)置的義務(wù)后,強人工智能體仍然實施犯罪行為,此時應(yīng)當(dāng)由誰承擔(dān)責(zé)任?在強人工智能體不能成為刑事責(zé)任主體的情形下,便找不到可以歸責(zé)的對象,因為法律調(diào)整的是人與人之間的社會關(guān)系,而不是人與物(在不承認強人工智能刑事主體的前提下只能認定其為法律上的“物”)之間的關(guān)系。若認定為意外事件,似乎又難以滿足公眾樸素的感情。但若刑法將責(zé)任歸咎于設(shè)計者、制造者,在其已經(jīng)盡到注意義務(wù)時仍進行歸責(zé),難免有強人所難的嫌疑。正如我國臺灣地區(qū)學(xué)者韓忠謨所言:“行為者對于危險性之行為應(yīng)加以注意,但亦有非行為者所可能認識者,則雖盡相當(dāng)之注意,仍不可識,此時自不能強其必識?!保?1]
其次,查明行為與結(jié)果之間的因果關(guān)系是犯罪的必要條件之一[12]。因此若要將強人工智能體的危害行為歸責(zé)于設(shè)計者、制造者,則必須證明設(shè)計者、制造者的設(shè)計、制造行為與危害結(jié)果之間存在刑法上的因果關(guān)系。筆者認為,設(shè)計、制造強人工智能體的行為與人類社會中培育后代的行為并無區(qū)別。當(dāng)父母生育子女后,即使未盡到撫養(yǎng)義務(wù),未使子女樹立正確的善惡觀與倫理觀,若子女因此實施犯罪行為,父母也不會受到刑法的譴責(zé),因為二者之間不存在刑法上的因果關(guān)系。這樣的論證過程同樣適用于強人工智能體,對于強人工智能而言,其自身已經(jīng)具有了獨立的學(xué)習(xí)能力、辨認能力和控制能力,在其學(xué)習(xí)、生活過程中,設(shè)計者、制造者很難直接左右其善惡觀與倫理觀,學(xué)習(xí)過程是由人工智能自我獨立實施的。因此,強人工智能實施犯罪行為與設(shè)計者、制造者之間不存在刑法上的因果關(guān)系。
再者,即使能夠證明設(shè)計、制造的行為與危害結(jié)果之間存在因果關(guān)系,但強人工智能體復(fù)雜的算法與編程一般是很多設(shè)計者、制造者勞動的結(jié)合,其設(shè)計和制造往往是多人協(xié)作的結(jié)果,而不是由一人獨立完成的。并且強人工智能體可以通過學(xué)習(xí)從而具備獨立思考的能力,那么設(shè)計者、制造者的工作過失與強人工智能體學(xué)習(xí)新信息的行為之間,哪些行為才與危害結(jié)果之間存在因果關(guān)系,以及存在何種程度的因果關(guān)系,這些都是難以判斷的。
通過以上分析可知,若不對設(shè)計者、制造者的過失責(zé)任進行限縮(僅限于強人工智能體在設(shè)計和編制的程序范圍內(nèi)實施犯罪行為由設(shè)計者、制造者承擔(dān)責(zé)任),則會導(dǎo)致過失責(zé)任成為嚴格責(zé)任的“面具”。實際上,在風(fēng)險社會中,任何技術(shù)都有導(dǎo)致傷害的風(fēng)險,對于風(fēng)險何時發(fā)生、如何發(fā)生,設(shè)計者、制造者都是難以預(yù)見的,甚至是無法預(yù)見的。制造強人工智能體本就是一種風(fēng)險,但如福田平所說,“如果法將引起法益的侵害或者危險的行為都作為違法予以禁止,我們的社會生活就只能立即靜止”[13]。同樣,將強大的刑事責(zé)任強加于人工智能的生產(chǎn)者、設(shè)計者身上恐怕會遏制人工智能技術(shù)的發(fā)展,甚至無限延期強人工智能到來的這一天,而這與我國對人工智能技術(shù)的態(tài)度也是相違背的①比如2020年2月24日,教育部、國家發(fā)展改革委、財政部發(fā)文指出要依托“雙一流”建設(shè),深化人工智能內(nèi)涵,構(gòu)建基礎(chǔ)理論人才與“人工智能+X”復(fù)合型人才并重的培養(yǎng)體系,探索深度融合的學(xué)科建設(shè)和人才培養(yǎng)新模式,著力提升人工智能領(lǐng)域研究生培養(yǎng)水平,為我國搶占世界科技前沿,實現(xiàn)引領(lǐng)性原創(chuàng)成果的重大突破,提供更加充分的人才支撐。。
另有質(zhì)疑者從刑罰的目的和功能出發(fā),認為刑罰的功能在于懲罰和預(yù)防犯罪,人工智能盡管在一定程度上具備辨認和控制能力,但是并不具備與人類完全相同的善惡觀、倫理觀,對其施以刑罰處罰也難以發(fā)揮刑罰預(yù)防犯罪的功能[14]??鞓贰n傷等情緒的感受屬于最低級別的認知,人工智能的認知水平相較于動物仍望塵莫及,因此無法如人類一般擁有各種情緒,從而不會具備趨利避害的本性,最終刑法的威懾力在人工智能面前便蕩然無存。在筆者看來,這種質(zhì)疑的錯誤之處在于模糊概念,以當(dāng)下的弱人工智能概念取代將來的強人工智能,以弱人工智能的特點推定強人工智能的性質(zhì)。該論者認為,當(dāng)前人工智能的認知水平均與人類存在著不同程度的差異[15]。由于當(dāng)前人工智能也僅僅處于弱人工智能的水平,筆者亦同意僅就當(dāng)前來看人工智能的認知水平與人類存在不同程度的差異。但以當(dāng)前的認知水平推定將來,無疑是模糊了弱人工智能與強人工智能的概念。若要徹底反駁該觀點,接下來需要論證的便是刑法對于強人工智能而言,能否起到預(yù)防犯罪的功能。
筆者認為,在特殊預(yù)防方面,由于強人工智能體具有辨認和控制能力,因此完全可以對自身的犯罪行為進行反省,刑罰的痛苦也會促使其改造自身的善惡觀,進而避免再次犯罪,從而實現(xiàn)特殊預(yù)防的效果。由于刑罰所體現(xiàn)的不完全是功利主義,其本身也是一種社會觀念的傳遞,而強人工智能體又具有辨認和控制能力,因此可以與人類一樣領(lǐng)悟到刑罰所表達的社會觀念,理解人類世界的法律,伴隨著趨利避害的本能,從而遵守法律規(guī)范。所以在一般預(yù)防方面,刑罰也可以實現(xiàn)其效果。
再如,有質(zhì)疑者認為刪除數(shù)據(jù)、修改程序、永久銷毀、報廢、回收改造等刑罰方式都僅僅能夠起到使人工智能失去再犯罪能力的效果,這些刑罰方式都是消極且被動的[16]。其論證思路是自然人在承受刑罰之后會因刑罰的痛苦以及犯罪帶來的后悔、恐懼心理而調(diào)整自我行為,從而步入正常的生活軌道,但人工智能調(diào)整行為的方式是人為的、被動的。若沒有人類強制刪除數(shù)據(jù)的懲罰就無法引導(dǎo)其調(diào)整自身行為。如此而言,刑罰便失去了教育、改造的功能。
筆者對此提出兩點質(zhì)疑:首先,“被動”改造是否一定遜色于所謂的“主動”改造?筆者認為,改造的好壞標準不在于“主動”或“被動”,而在于改造后的再犯可能性大小。消極的改造是刪除人工智能機器人的犯罪記憶,并人為地引導(dǎo)正確的善惡觀、倫理觀。這實際上是一種“重生”,且由于人為的引導(dǎo),這種“重生”的再犯可能性是極小的。有德國學(xué)者認為,與其將大量的資金投入監(jiān)獄,還不如將其投入學(xué)校等機構(gòu)以培育規(guī)范忠誠型的人格傾向,因為后者對于預(yù)防犯罪更加經(jīng)濟、有效[17],刪除數(shù)據(jù)這一刑罰方式正相當(dāng)于學(xué)校機構(gòu)重新培育人工智能的忠誠型人格傾向。而對于主動改造,當(dāng)罪犯重新步入社會,是否會有重新犯罪的可能?如果這種可能性極低的話,恐怕《刑法》第六十五條關(guān)于累犯的規(guī)定早已沒有設(shè)立的價值,然而實際上并不是這樣。另外,即使罪犯的是非倫理觀念在改造后得到糾正,但犯罪的記憶是伴隨其一生的。而對人工智能而言,并沒有這種痛苦。從這個意義上講,人工智能的“被動”改造反倒優(yōu)于自然人的“主動”改造。
其次,筆者認為所謂的“主動”改造已經(jīng)蘊含了被動的前提。試問,如果沒有刑罰的強制性,犯罪分子在犯罪后是否就會主動改造自身?答案是只會更加肆無忌憚。因此,筆者認為,并不存在純粹的“主動”改造。刑罰是國家強制力的體現(xiàn),在刑罰的強制性面前,任何主體都是消極且被動的。本質(zhì)上,自然人的改造與人工智能的改造相同,均是在一定強制力的威懾與強迫之下,被動與主動并存的改造。
亦有質(zhì)疑者認為,人工智能犯罪本身在具有極高的技術(shù)性與隱蔽性、不易發(fā)現(xiàn),并可作為刑法上的獨立刑事責(zé)任主體后,刑罰對于犯罪行為有了懲罰對象,在無法進一步深入探究時,最終導(dǎo)致真正的犯罪行為責(zé)任人被放縱[18]。筆者認為這種擔(dān)憂是多余的。第一,該問題屬于技術(shù)層面的問題,而非刑罰問題。既然行為人可以通過相關(guān)技術(shù)實施人工智能犯罪,那么偵查機關(guān)自然可以研發(fā)出相應(yīng)的技術(shù)找出背后的始作俑者。第二,前文已經(jīng)提及的人格否認制度可以較為完善地解決該問題。第三,為避免人工智能機器人被犯罪分子利用而拒絕其成為刑事責(zé)任主體無異于因噎廢食,強人工智能體無法成為刑事責(zé)任主體只會導(dǎo)致未來更多的強人工智能犯罪難以使用當(dāng)前的刑法規(guī)制。
還有質(zhì)疑者從刑法的嚴厲性角度否認“刪除數(shù)據(jù)”這一刑罰,認為這種刑罰和行政處罰難以區(qū)分,無法體現(xiàn)刑罰特有的嚴厲性。持此種觀點的學(xué)者實際上沒有認識到人工智能機器人運作的實質(zhì)——以程序為核心,以數(shù)據(jù)為對象。從微觀的角度分析人工智能的運作機理,人工智能是通過對數(shù)據(jù)的分析來模擬人類大腦的運行。因此,刪除數(shù)據(jù)和修改程序均改變了人工智能的運作核心,作為制裁手段對于強人工智能體而言,都是極其嚴厲的[19]。
最后,有質(zhì)疑者指出,永久銷毀這一刑罰相當(dāng)于當(dāng)前刑罰中的死刑,但廢除死刑已經(jīng)成為各國的必然趨勢,在人工智能立法中卻增設(shè)類似死刑的這一刑罰,有違刑罰發(fā)展的理念[20]。筆者從兩個角度對這種合理懷疑進行解釋:首先,盡管廢除死刑是必然趨勢,但不可否認,死刑仍將在我國甚至是域外國家立法中存在很長一個時期。若要求人工智能的刑罰中廢除“死刑”(即永久銷毀),那么傳統(tǒng)刑罰中的死刑也應(yīng)廢除,只有這樣才能實現(xiàn)刑罰體系的協(xié)調(diào)性。然而死刑將在何時被廢除是不可知的,因此在人工智能刑罰中增設(shè)“死刑”就當(dāng)下來看并非沒有合理性。其次,盡管學(xué)者們應(yīng)當(dāng)更多地注重強人工智能體與人類的相似性,但我們必須承認,強人工智能體與人類相比最大的不同之處在于其更加智能,或者說在犯罪領(lǐng)域人工智能造成的社會危害性會比人類造成的社會危害性更大。甚至在強人工智能技術(shù)發(fā)展到一定程度時,強人工智能體一旦擺脫人類的控制,這種危害性將可能是毀滅性的。因此,從這個角度來看,強人工智能體相當(dāng)于比人類更智慧的“洪水猛獸”,人類不能再將其看作“人”。對于無論是智慧上還是體力上人類都難以抗衡的強人工智能,在其實施犯罪行為且后期無法改變時,永久銷毀或許是最佳的解決方案。
盡管“肯定論”在目前看來具有較大的合理性,但筆者認為該觀點也存在一些偏頗之處。首先,“肯定論”存在違反罪刑相適應(yīng)原則的嫌疑。罪刑相適應(yīng)原則要求刑罰的輕重必須與犯罪的輕重相適應(yīng),不能重罪輕判,也不能輕罪重判[21]。試想,若強人工智能體獨立實施了殺人行為,根據(jù)《刑法》第二百三十二條規(guī)定,是有可能適用死刑的。但根據(jù)肯定論的觀點,刪除數(shù)據(jù)、修改程序、永久銷毀構(gòu)成了專門適用于人工智能機器人的刑罰階梯,體現(xiàn)了處罰的層次性[22]。但正是這種層次性,對于強人工智能體故意殺人的行為,首先適用的是刪除數(shù)據(jù)這一刑罰,只有在該人工智能機器人無法被正確引導(dǎo)時,才會適用之后的修改程序和永久銷毀的刑罰。而對于受害者家屬或是一般民眾來說,僅僅刪除機器人的犯罪記憶恐怕是難以接受的,因為正義要求每一項罪孽(犯罪)都要通過有期限的苦難而償付;要求該苦難,亦即該刑罰與罪行相當(dāng);要求被違反的特定的法律得到恢復(fù)(復(fù)仇)[23]。所以以上設(shè)想的案例暴露出肯定論存在的第一個問題——刑罰設(shè)置的梯度是否合理,是否違反罪刑相適應(yīng)原則?
在當(dāng)前刑法中,刑罰是根據(jù)相關(guān)犯罪的社會危害性和主觀有責(zé)性進行設(shè)置的。如《刑法》第二百七十五條規(guī)定的故意毀壞財物罪的法定最高刑為7年有期徒刑,與故意殺人罪最高可判死刑的規(guī)定相比乃天壤之別。究其原因是毀壞財物的故意與殺人的故意相比主觀惡性較小,且造成的結(jié)果惡劣程度更低,因此在刑罰的設(shè)置上存在較大差異。而在筆者看來,肯定論者對于人工智能機器人的刑罰是根據(jù)再犯可能性設(shè)置的。若人工智能機器人在首次犯罪后無再犯可能性,便不管該罪的社會危害性和主觀有責(zé)性的嚴重程度,即使是實施故意殺人的行為,也只需適用最低梯度的刑罰——刪除數(shù)據(jù)。但對于自然人殺人的行為,根據(jù)《刑法》第二百三十二條的規(guī)定應(yīng)當(dāng)按照死刑、無期徒刑、有期徒刑的梯度順序進行適用,根據(jù)具體情節(jié)作出判斷。即首先可能適用的是死刑,而刪除數(shù)據(jù)與死刑相比,在嚴厲性上實在微不足道。只有罪刑相當(dāng),方能實現(xiàn)社會的公平正義。所以,是否違反罪刑相適應(yīng)原則是肯定論者需要面對的第一個問題。
其次,刑罰的報應(yīng)功能、懲罰功能是刑罰的最基本的功能,是刑罰其他各種功能得以存在的前提和基礎(chǔ),刑罰的預(yù)防功能是僅次于報應(yīng)的重要功能。在傳統(tǒng)刑罰的設(shè)定中,正是遵循著報應(yīng)功能為主、預(yù)防功能為輔的理念。基于第一個問題,我們可以看出在強人工智能體適用的刑罰中,反倒以預(yù)防和教育功能為主,忽視了刑罰應(yīng)有的報應(yīng)功能。在自然人和人工智能刑罰的立法模式上,為何會存在功能沖突?這是肯定論者亟待解決的第二個問題。
再次,在論述強人工智能體成為刑事責(zé)任主體時,肯定論者往往從強人工智能體與自然人的相似性(即都具有辨認能力和控制能力)出發(fā)進行論證。既然二者基于同樣的邏輯基礎(chǔ)產(chǎn)生了刑事責(zé)任主體的適格性,為何在刑罰適用的順序上出現(xiàn)了不同的邏輯差異?這是肯定論者欲自圓其說應(yīng)當(dāng)回答的第三個問題。
前文已經(jīng)論述肯定論有違反罪刑相適應(yīng)原則的嫌疑,究其根本,實則是對刑罰目的的理解不同。肯定論者側(cè)重于預(yù)防,認為“刑罰的目的是預(yù)防犯罪,不能實現(xiàn)此種目的的刑罰即是不合理、無必要的刑罰”[24],“預(yù)防其再犯的可能途徑?jīng)Q定了適用于該主體的刑罰種類與執(zhí)行方式”[25],因此設(shè)置了刪除數(shù)據(jù)、修改程序、永久銷毀的刑罰梯度。但筆者認為刑罰的目的也應(yīng)當(dāng)蘊含報應(yīng)的屬性,正如加羅法洛所說:“如果刑罰全然失去了懲罰的目的,如果刑罰真的是具有教育、改造,甚至治療的目的,那么人們不禁要問:當(dāng)罪犯沒有受到身體上的痛苦、其犯罪所獲得的唯一后果是免費教育的特權(quán)時,刑罰的存在還有何意義?”[26]懲罰既是刑罰的屬性,同時也是刑罰的目的[27]。且刑法分則在具體罪名的刑罰的設(shè)置上,也根據(jù)社會危害性的大小規(guī)定了輕重不一的量刑幅度,這也正是刑罰目的中報應(yīng)主義最有力的證明。
值得一提的是,肯定論者自身也主張“應(yīng)使智能機器人所實施的犯罪與刑罰之間‘保持實質(zhì)的對應(yīng)關(guān)系’,重罪重罰,輕罪輕罰,建立層次分明的刑罰階梯”[28],但倘若僅按照再犯可能性進行刑罰的設(shè)定,這本身就與“重罪重罰,輕罪輕罰”的理念相違背,由此可見肯定論者在對強人工智能體刑罰構(gòu)建所堅持的原則中存在相互抵牾的情形。相反,報應(yīng)主義卻可將刑罰的輕重程度與犯罪行為的社會危害性相匹配。報應(yīng)所體現(xiàn)的是刑罰的正義原則,這為刑罰的不確定性設(shè)定了上限與下限;預(yù)防所體現(xiàn)的是刑罰的功利原則,決定著刑罰效益性目的。無論正義還是功利,都是現(xiàn)代刑罰的內(nèi)在要求。因此,筆者認為在對強人工智能體刑罰的設(shè)置上,應(yīng)當(dāng)遵循報應(yīng)與預(yù)防相結(jié)合的二元論思想,即根據(jù)社會危害性和再犯可能性的大小設(shè)置刑罰梯度,并以此對肯定論進行修正。
首先需要解決的是永久銷毀這一刑罰的適用,筆者認為既然永久銷毀相當(dāng)于當(dāng)前刑罰中的死刑,因此同樣也只適用于罪行極其嚴重的犯罪分子(強人工智能體)。對于刑法分則相關(guān)罪名中設(shè)置的死刑,應(yīng)類比至永久銷毀適用于強人工智能體。即在罪行極其嚴重的情況下,即使可以通過多次刪除數(shù)據(jù)或修改程序降低強人工智能機器人的再犯可能性,也應(yīng)當(dāng)對該強人工智能體適用永久銷毀的刑罰,從而與當(dāng)前對自然人犯罪的處罰相一致。
盡管肯定論者認為基于刑罰節(jié)儉性原則,“對智能機器人應(yīng)慎重判處永久銷毀的刑罰,能夠不銷毀而依然可以實現(xiàn)對智能機器人的改造目的的,便盡量不銷毀”[29]。但筆者認為對智能機器人適用永久銷毀的條件和對自然人適用死刑的條件相同,均只適用于罪行極其嚴重的犯罪分子。“罪行極其嚴重”這一附加條件以及《刑法》明文規(guī)定的適用死刑的相關(guān)罪名已經(jīng)很大程度上限制了永久銷毀的適用。當(dāng)前對于死刑立即執(zhí)行,需報請最高人民法院核準,將來在永久銷毀的適用上,也完全可以在程序上對其進行類似的限定,從而保證謹慎判處永久銷毀的刑罰。另外肯定論使用的“盡量”一詞,表明其并不是在能實現(xiàn)改造目的的前提下一味否定永久銷毀的適用,而是認為應(yīng)當(dāng)謹慎適用。在強人工智能體的罪行極其嚴重時,當(dāng)然應(yīng)當(dāng)適用永久銷毀,從而表達社會正義觀念,恢復(fù)社會心理秩序。
其次,關(guān)于刪除數(shù)據(jù)與修改程序,修改程序在刑罰的嚴厲性上顯著高于刪除數(shù)據(jù),因為修改程序是強制性地修改人工智能機器人的基礎(chǔ)程序,將其從外界學(xué)習(xí)的能力限定在一定范圍內(nèi)。限制學(xué)習(xí)能力的最終結(jié)果是無法產(chǎn)生自我意志,這對人工智能機器人而言是極其殘酷的。筆者認為,為實現(xiàn)罪刑相適應(yīng),不應(yīng)當(dāng)僅根據(jù)智能機器人的再犯可能性進行選擇適用,即不能只在通過多次刪除數(shù)據(jù)仍然無法阻止機器人主動獲取有可能實施違法犯罪行為的“負面數(shù)據(jù)”時才適用修改程序的刑罰。對強人工智能體判處的刑罰應(yīng)當(dāng)以再犯可能性為基礎(chǔ),將其分為小、中、大(極其嚴重)三個層次,并引入社會危害性進行補足,最終判斷適用何種刑罰,具體適用情形如下表所示。
從該表可以看出,肯定論的修正既沒有對報應(yīng)主義一味否定,也沒有對預(yù)防主義全盤接受,而是合理吸收安排雙方的結(jié)構(gòu),從而體現(xiàn)出現(xiàn)代法治精神。在預(yù)防犯罪的同時維護社會公眾對刑法的信任,最終為強人工智能體的刑罰提供了比較理想的正當(dāng)化構(gòu)建。
注:再犯可能性小、中、大分別指:抹除犯罪記憶即可使人工智能機器人恢復(fù)到實行犯罪行為之前的狀態(tài);多次刪除數(shù)據(jù)仍然無法阻止機器人主動獲取有可能實施違法犯罪行為的“負面數(shù)據(jù)”;刪除數(shù)據(jù)、修改程序均無法降低實施了犯罪行為的智能機器人的再犯可能性。社會危害性小和中需法官結(jié)合具體案情進行判斷,社會危害性大指罪行極其嚴重,與自然人判處死刑的程度相當(dāng)。