胡樹琪(北京師范大學(xué) 刑事法律科學(xué)研究院,北京 100875)
人工智能技術(shù)革新①?gòu)娜斯ぶ悄芗夹g(shù)發(fā)展的歷史進(jìn)程來看,當(dāng)前正處于人工智能的第三個(gè)浪潮期。在這波浪潮中,人工智能較前兩次浪潮期有了實(shí)質(zhì)的突破,出現(xiàn)了人工智能最核心的特征:基于大數(shù)據(jù)的深度學(xué)習(xí)。人工智能系統(tǒng)基于在神經(jīng)網(wǎng)絡(luò)算法中深度學(xué)習(xí)的能力,已經(jīng)具有一定的機(jī)器自主性,可以在無人操作或監(jiān)督的情況下獨(dú)立完成工作,智能機(jī)器輸出結(jié)果也具有不可控性。人工智能突破了機(jī)器的“工具性”,具有一定程度的“自主性”,與傳統(tǒng)機(jī)器具有了本質(zhì)上的不同。從人工智能的技術(shù)發(fā)展層次來看,科學(xué)界一般將人工智能分為二個(gè)層次,即弱人工智能與強(qiáng)人工智能(也稱為通用型人工智能)。目前,人工智能技術(shù)正處于弱人工智能階段,我們可以看到深度學(xué)習(xí)技術(shù)在各個(gè)特定領(lǐng)域深耕。但實(shí)現(xiàn)強(qiáng)(通用型)人工智能是產(chǎn)學(xué)研界研發(fā)人工智能的終極目標(biāo),神經(jīng)網(wǎng)絡(luò)算法的突破以及深度學(xué)習(xí)的問世,使得人工智能在這波浪潮中,實(shí)現(xiàn)弱人工智能到強(qiáng)人工智能的跨越成為可能。與智能社會(huì)的到來給刑事法律帶來的難題是,人工智能具有的機(jī)器自主性,動(dòng)搖了傳統(tǒng)刑事法律責(zé)任劃分與承擔(dān)的體系。人工智能已經(jīng)不僅被作為刑法上被保護(hù)的客體、刑法意義上的“物”,也具有了成為刑事主體的可能性,這沖擊了傳統(tǒng)刑法上主客體的二分結(jié)構(gòu)。刑事法律要回應(yīng)人工智能技術(shù)發(fā)展帶來的挑戰(zhàn),合理界分人工智能犯罪中自然人與智能機(jī)器的刑事法律責(zé)任,邏輯起點(diǎn)是思索人工智能能否成為刑事法律主體。
人工智能是否具備刑事主體資格涉及兩個(gè)面向,一是現(xiàn)實(shí)面向,一是未來面向。對(duì)于現(xiàn)實(shí)面向,人工智能尚處于弱人工智能階段,理論界已基本達(dá)成共識(shí),認(rèn)為弱人工智能不具有刑法意義上的自由意志與主體資格。①弱人工智能在運(yùn)行的過程中,雖然具有深度學(xué)習(xí)的能力,比傳統(tǒng)機(jī)器更為智能,但只能完成特定的任務(wù),其不具備學(xué)習(xí)并理解各種自然科學(xué)的因果法則的能力(控制能力、辨認(rèn)能力以及自由意志),只能局限于完成人類賦予的特定的任務(wù),自然不具備選擇受什么樣因果法則支配的自由。因此,弱人工智能仍處于較為初級(jí)的階段,所實(shí)施的行為尚不能成為構(gòu)成要件的內(nèi)容的行為,弱人工智能不具備刑事主體資格。對(duì)于未來面向,是否賦予強(qiáng)人工智能(通用型人工智能)刑事主體資格,理論界則存在兩種截然相對(duì)的立場(chǎng)。②目前以劉憲權(quán)老師為代表的諸多刑法學(xué)者提倡確立強(qiáng)人工智能的刑事主體地位,代表論文有:劉憲權(quán):《人工智能時(shí)代的刑事責(zé)任演變:昨天、今天、明天》,載于《法學(xué)》2019年第1期;劉憲權(quán):《涉人工智能犯罪刑法規(guī)制的路徑》,載于《現(xiàn)代法學(xué)》2019年第1期;劉憲權(quán):《人工智能時(shí)代刑事責(zé)任與刑罰體系的重構(gòu)》,載于《政治與法律》2018年第3期。刑事法律是否賦予強(qiáng)人工智能刑事主體資格,不僅是未來強(qiáng)人工智能問世后刑法面臨的挑戰(zhàn),更影響到當(dāng)下刑法規(guī)制人工智能犯罪時(shí)歸責(zé)路徑與立法路徑的選擇。對(duì)于強(qiáng)人工智能刑事主體資格的前瞻性探討也有助于緩解法律的滯后性。因此,在刑法視閾下需要回應(yīng)和思索的問題是,如果未來在技術(shù)上實(shí)現(xiàn)了強(qiáng)人工智能,是否需要對(duì)其進(jìn)行刑事處罰?是否需要賦予智能體刑事主體資格?如此是否具有現(xiàn)實(shí)可行性?本文對(duì)弱人工智能的刑事主體資格不進(jìn)行贅述,主要探析強(qiáng)人工智能作為刑事主體的可行性問題。
當(dāng)前,刑法學(xué)界已對(duì)未來人工智能是否具備刑事主體資格問題展開了較為激烈的討論。從總體上來看,筆者將已有探討歸納為保守派與激進(jìn)派。其中,激進(jìn)派對(duì)該問題持肯定態(tài)度,主張?jiān)趶?qiáng)人工智能時(shí)代,人工智能具備辨認(rèn)能力與控制能力,符合構(gòu)成刑事責(zé)任主體的條件,應(yīng)當(dāng)賦予其刑事主體資格,并為其添加設(shè)置配套的刑罰措施,智能機(jī)器為自己實(shí)施的反社會(huì)行為承擔(dān)刑事責(zé)任。保守派則對(duì)該問題持克制和理性的態(tài)度,從人機(jī)關(guān)系等多個(gè)視角考察分析人工智能刑事主體資格。
激進(jìn)派的主要代表觀點(diǎn)有:其一,智能機(jī)器人可以分為在設(shè)計(jì)和編制的程序范圍內(nèi)實(shí)施行為的智能機(jī)器人和在設(shè)計(jì)和編制的程序范圍外實(shí)施行為的智能機(jī)器人,前者不具有獨(dú)立的辨認(rèn)能力和控制能力,后者具有獨(dú)立的辨認(rèn)能力和控制能力。辨認(rèn)能力和控制能力即為刑事責(zé)任能力,具有刑事責(zé)任能力的行為人可成為刑事責(zé)任主體。在設(shè)計(jì)和編制的程序范圍外實(shí)施行為的智能機(jī)器人完全可以成為刑事責(zé)任主體。[1]其二,建議增設(shè)能夠適用于智能機(jī)器人的刪除數(shù)據(jù)、修改程序、永久銷毀等刑罰處罰方式。[2]
保守派的代表性觀點(diǎn)有:其一,就通用智能機(jī)器人應(yīng)否成為刑事責(zé)任主體的問題而言,技術(shù)水平、價(jià)值觀念、具體認(rèn)定等方面尚存在較大困難,刑法對(duì)此應(yīng)堅(jiān)持克制、理性的態(tài)度,不可貿(mào)然將機(jī)器人納入刑法規(guī)制的行為主體范圍。[3]其二,由智能機(jī)器人的自律能力所決定的自身活動(dòng)的獨(dú)立性,永遠(yuǎn)是相對(duì)的,永遠(yuǎn)需要并且應(yīng)當(dāng)受人為控制。智能機(jī)器人永遠(yuǎn)應(yīng)當(dāng)是人類所控制的裝置。[4]其三,有論者認(rèn)為:1.受人類控制的人工智能系統(tǒng)不具有獨(dú)立的主體性,不應(yīng)承認(rèn)其犯罪主體地位;2.如果未來人工智能系統(tǒng)不受人類控制,自主進(jìn)化,極可能不具備成立犯罪的主觀條件,不能適用刑法規(guī)定的刑事責(zé)任和刑罰相關(guān)規(guī)定,賦予其犯罪主體地位與刑法體系不協(xié)調(diào),不應(yīng)作為犯罪主體對(duì)待;3.不受人類控制的未來人工智能系統(tǒng)不可能接受刑法的規(guī)制,其制造的危機(jī)需要以其他直接、有效的技術(shù)手段應(yīng)對(duì)??傊?,刑法不應(yīng)將人工智能系統(tǒng)規(guī)定為犯罪主體或者刑事責(zé)任主體。[5]
激進(jìn)派學(xué)者承認(rèn)人工智能的獨(dú)立性,承認(rèn)人工智能具有自由意志,并將辨認(rèn)能力與控制能力作為其是否可以作為刑事責(zé)任主體的判斷標(biāo)準(zhǔn),采用了大膽的態(tài)度進(jìn)行預(yù)測(cè)與規(guī)劃。不僅肯定人工智能作為刑事主體的可能性,也肯定了強(qiáng)人工智能作為刑事主體的可行性。激進(jìn)派學(xué)者所持觀點(diǎn)值得進(jìn)一步分析。一方面,其判斷人工智能刑事主體資格的標(biāo)準(zhǔn)具有理論妥適性,但在實(shí)際適用中可能會(huì)面臨現(xiàn)實(shí)難題。通過辨析智能機(jī)器人的行為是否屬于設(shè)計(jì)和編制的范圍,來判定人工智能是否具有刑事主體資格,不僅在技術(shù)上有很大的實(shí)現(xiàn)難度,而且只能根據(jù)智能機(jī)器人每次實(shí)施的行為判斷人工智能是否具有主體地位,這將會(huì)導(dǎo)致同一智能機(jī)器人在不同情境下具有不同主體地位的情形。另一方面,人工智能具備辨認(rèn)能力與控制能力是其具備刑事主體資格的必要條件而非充要條件。即人工智能具備辨認(rèn)能力與控制能力只是其具備刑事主體資格的條件之一,并非全部條件。辨認(rèn)能力與控制能力是刑事責(zé)任能力的核心要素,通過判斷刑事責(zé)任能力可以判斷刑事主體能否承擔(dān)刑事責(zé)任,但刑事責(zé)任能力與刑事主體資格是不同的刑法概念,將刑事責(zé)任能力等同于刑事主體資格將產(chǎn)生邏輯上的錯(cuò)位。
保守派則采取了細(xì)心的態(tài)度對(duì)待人工智能的刑事主體資格。保守派從未來人機(jī)關(guān)系、智能體的刑法適用、智能體與人類在倫理觀上的差異性等視角出發(fā),更為全面地考察人工智能的刑事主體資格。需要認(rèn)識(shí)到的是,保守派中不同學(xué)者采用了不同的論證視角,立足于不同的技術(shù)發(fā)展認(rèn)識(shí)與時(shí)間維度。例如,上述觀點(diǎn)一是立足于宏觀層面的刑法態(tài)度,主張刑法當(dāng)前應(yīng)當(dāng)對(duì)人工智能主體資格問題采取審慎理性的態(tài)度,并為人工智能刑事主體資格問題留下了討論的空間;觀點(diǎn)二則是從人工智能的技術(shù)特性以及人機(jī)關(guān)系的角度,論證了人工智能未來不具有刑事主體的可能性;觀點(diǎn)三則肯定了人工智能作為刑事主體的可能性,但從人機(jī)關(guān)系以及與刑法體系的協(xié)調(diào)性兩方面,否認(rèn)了未來人工智能作為刑事主體的可行性。
無論是激進(jìn)派還是保守派,不同學(xué)者的觀點(diǎn)不僅在刑事價(jià)值理念判斷上相異,也在于對(duì)人工智能技術(shù)水平認(rèn)識(shí)、討論視角的不同。因此,在探討人工智能作為刑事主體的可行性之前,首先需要明確技術(shù)水平認(rèn)識(shí)與討論視角。
從人工智能的運(yùn)行機(jī)制來看,人工智能所具有的“深度學(xué)習(xí)”能力較傳統(tǒng)機(jī)器學(xué)習(xí)最大的不同在于:傳統(tǒng)機(jī)器學(xué)習(xí)是分步驟來進(jìn)行的,每一步的最優(yōu)解不一定帶來結(jié)果的最優(yōu)解。而深度學(xué)習(xí)是從原始特征出發(fā),自動(dòng)學(xué)習(xí)高級(jí)特征組合,整個(gè)過程是端到端的,直接保證最終輸出的是最優(yōu)解。但中間的隱層是一個(gè)黑箱,我們并不知道機(jī)器提取出了什么特征。[6]換言之,深度學(xué)習(xí)是打破以往分步驟的學(xué)習(xí)方式,在輸入與輸出之間自動(dòng)學(xué)習(xí),無需人工提出特征的較為智能的學(xué)習(xí)方法。從人為從現(xiàn)實(shí)世界選擇特征表示,到機(jī)器自動(dòng)找出特征量表示概念并描述知識(shí),深度學(xué)習(xí)能力的出現(xiàn)已攻克了人工智能技術(shù)發(fā)展的最大難關(guān)。[7]計(jì)算機(jī)可以自動(dòng)生成特征表示它已具有了突破人工智能本質(zhì)極限的可能性。因此,在當(dāng)前計(jì)算機(jī)基礎(chǔ)設(shè)施層(大數(shù)據(jù)以及計(jì)算能力)以及神經(jīng)網(wǎng)絡(luò)算法高速發(fā)展的背景下,我們可以大膽預(yù)測(cè),未來在技術(shù)上可以實(shí)現(xiàn)具備社會(huì)意義上的控制能力①本文中控制能力是指人工智能可以控制其實(shí)施的行為,具備受什么樣因果法則支配的選擇自由。需要注意的是,人工智能的行為服從于自然科學(xué)的因果法則,不能改變或者調(diào)整自然科學(xué)的因果法則。但人工智能具有選擇受到什么樣的因果法則支配的可能性。人工智能可以選擇通過這樣的因果法則實(shí)現(xiàn)這樣的結(jié)果,也可以選擇通過那樣的因果法則實(shí)現(xiàn)那樣的結(jié)果。比如說,它可以選擇拿刀實(shí)施殺人行為,也可以選擇不實(shí)施殺人行為,刀刺入人體導(dǎo)致人體受傷是自然科學(xué)的因果法則,但人工智能可以選擇拿刀刺入他人人體,也可以選擇不拿刀傷害他人。與辨認(rèn)能力的強(qiáng)人工智能。
對(duì)于人工智能是否具有“意識(shí)”的問題,主要有兩種觀點(diǎn):一種是神秘論的觀點(diǎn),認(rèn)為我們神經(jīng)生物系統(tǒng)唯一共有的就是主觀體驗(yàn),這種現(xiàn)象意識(shí)是不可還原為物理機(jī)制或邏輯描述的,靠人類心智是無法把握的;另一種是取消論的觀點(diǎn),認(rèn)為機(jī)器僅僅是一種蛇神(zombie)而已,除了機(jī)器還是機(jī)器,不可能具有任何主觀體驗(yàn)的東西。[8]筆者認(rèn)為,人類的“意識(shí)”不僅僅存在于頭腦之中,而且會(huì)在人類與世界互動(dòng)的過程之中不斷調(diào)整和發(fā)展,是一個(gè)“感知——行動(dòng)”的互動(dòng)過程。而人工智能無論發(fā)展到什么智能程度,它都只能掌握相關(guān)信息而無法真正理解事物。例如,人工智能無法親身體驗(yàn)“錘”或“吃”這些動(dòng)作,即便掌握了這些動(dòng)作的機(jī)器也無法具有主觀體驗(yàn),不能真正理解。[9]也就是說,人工智能難以發(fā)展出人類的“意識(shí)”。因此,筆者認(rèn)為,當(dāng)前技術(shù)已足以預(yù)測(cè)未來人工智能可以具有社會(huì)意義上的辨認(rèn)能力與控制能力,但卻無法產(chǎn)生人類所有的“意識(shí)”。應(yīng)在此語境下探討未來人工智能是否可能作為刑事主體。即在肯定人工智能作為刑事主體可能性的基礎(chǔ)之上,探究人工智能作為刑事主體的可行性。
在人工智能作為刑事主體的可行性問題上,激進(jìn)派與保守派采用了不同的論證邏輯。激進(jìn)派采取“大膽”的態(tài)度認(rèn)定人工智能可以作為刑事主體。對(duì)于人工智能作為主體后,與傳統(tǒng)刑法理論中犯罪論與刑罰論不相適應(yīng)的部分,提出可以通過調(diào)整、發(fā)展傳統(tǒng)刑法理論使之融入刑法體系。保守派則采取“心細(xì)”的態(tài)度將人工智能與傳統(tǒng)刑法理論體系進(jìn)行對(duì)比,將人工智能能否適用已有刑法體系作為判定其應(yīng)否具備刑事主體資格的考量因素。激進(jìn)派將傳統(tǒng)刑法體系內(nèi)容的調(diào)整作為一種結(jié)果,保守派則將其作為一個(gè)前提,著重考察人工智能與刑法體系是否具有調(diào)整融合的可能性。筆者認(rèn)為,后者的論證邏輯更為緊密合理,我們首先需要回答人工智能與傳統(tǒng)刑法體系是否具有兼容可能性。兼容可能性是判斷人工智能作為刑事主體可行性的必要條件。沒有兼容可能性,則否認(rèn)了人工智能作為刑事主體的可行性,必然不能貿(mào)然賦予人工智能刑事主體資格。
在判定人工智能與傳統(tǒng)刑法體系的兼容可能性問題時(shí),首先需要條分縷析未來強(qiáng)人工智能能否直接適用傳統(tǒng)刑法體系。若回答是肯定的,則可以承認(rèn)二者的兼容性;若回答是否定的,那么需要進(jìn)一步回答為兼容人工智能修改刑法體系的做法是否具有可行性,若回答仍然是否定的,才可以說人工智能與傳統(tǒng)刑法體系不具有兼容可能性。
對(duì)于人工智能能否直接適用傳統(tǒng)刑法體系,可以分別從犯罪論與刑罰論進(jìn)行考察。在犯罪論方面,人工智能實(shí)施的犯罪在客觀方面易于認(rèn)定,如犯罪行為、犯罪結(jié)果、因果關(guān)系等方面的判定與自然人犯罪并無差異。難點(diǎn)在于是否可以適用傳統(tǒng)故意、過失理論對(duì)人工智能犯罪的主觀方面進(jìn)行認(rèn)定。筆者認(rèn)為,皮勇教授對(duì)該問題的思考較為深入。他認(rèn)為,人工智能可以認(rèn)知到客觀事實(shí),但不可能自主認(rèn)識(shí)到法律規(guī)范的意義,對(duì)法律規(guī)范也不可能具有自主性選擇。而在判定人工智能的主觀故意或過失時(shí),都需要以其對(duì)法律規(guī)范意義的認(rèn)識(shí)為基礎(chǔ)。[5]也就是說,人類可以通過編程在人工智能系統(tǒng)內(nèi)輸入法律規(guī)范,以此限制人工智能的行為,但人工智能無法理解這些規(guī)范的涵義。即使是強(qiáng)人工智能,也只有辨認(rèn)事實(shí)的能力,不具有理解規(guī)范的能力,因而不能直接對(duì)其適用傳統(tǒng)故意、過失理論。
在刑罰論方面,我國(guó)刑罰體系由生命刑、自由刑、財(cái)產(chǎn)刑、資格刑構(gòu)成。人工智能既沒有生命,也不擁有財(cái)產(chǎn)與政治權(quán)利。毋庸置疑,無論是刑罰的處罰方式還是刑罰的處罰對(duì)象,現(xiàn)有刑罰都不能適用于人工智能。因此,從犯罪論與刑罰論來看,人工智能與傳統(tǒng)刑法體系不能無縫隙兼容,若要確立人工智能的刑事主體資格,必須對(duì)傳統(tǒng)刑法體系進(jìn)行一定的調(diào)整。
那么通過修改刑法體系中的相關(guān)內(nèi)容,以適用于人工智能這一新興主體,是否具有可行性?這里,可行性的評(píng)判不應(yīng)是簡(jiǎn)單的主觀價(jià)值選擇,而是基于客觀現(xiàn)實(shí)的理性思考。只有在回應(yīng)調(diào)整傳統(tǒng)刑法體系兼容人工智能主體的可行性基礎(chǔ)之上,才可以回答能否賦予人工智能刑事主體地位問題。
1.人工智能與傳統(tǒng)刑法體系兼容可能性判斷標(biāo)準(zhǔn)的確立
通過修改刑法體系中的相關(guān)內(nèi)容,以適用于人工智能這一新興主體,在確立其判斷標(biāo)準(zhǔn)時(shí),首先需要辨別的是人工智能作為刑事主體與人工智能承擔(dān)刑事責(zé)任的關(guān)系。人工智能具有社會(huì)意義上的控制能力與辨認(rèn)能力是確立其為刑事主體的必要條件而非充要條件。在本文中所探討的人工智能與傳統(tǒng)刑法體系兼容可能性的判斷標(biāo)準(zhǔn)所回應(yīng)的問題是,人工智能是否可以作為刑事主體以及人工智能作為刑事主體是否具有可行性,與人工智能是否可以承擔(dān)刑事責(zé)任以及人工智能承認(rèn)刑事責(zé)任的可行性分屬于不同維度的問題。也就是說,即使刑事主體資格與刑事責(zé)任緊密相關(guān),也不可將判斷人工智能的刑事主體資格問題與人工智能能否承擔(dān)刑事責(zé)任問題相等同。
在判斷人工智能與傳統(tǒng)刑法體系兼容可能性的問題時(shí),需要從更深層次、更為基礎(chǔ)、更為根本的視角進(jìn)行分析與檢視。因此,筆者認(rèn)為,判斷人工智能是否具有可行性時(shí)需要反思以下幾個(gè)問題,即人工智能作為刑事主體能否實(shí)現(xiàn)刑法的根本目的?能否發(fā)揮刑法的社會(huì)效用?這一做法是否與刑法的基本價(jià)值相背離?不同學(xué)說流派對(duì)于刑法的目的、刑法的機(jī)能、刑罰的目的等宏觀刑法價(jià)值觀問題存有爭(zhēng)議,本文擬從功利主義的價(jià)值視角出發(fā)進(jìn)行探討。主張判斷可行性的核心標(biāo)準(zhǔn)在于,通過調(diào)整或增添傳統(tǒng)刑法體系內(nèi)容,使得人工智能主體與刑法體系(犯罪論與刑罰論)兼容,從根本上能否實(shí)現(xiàn)刑法的機(jī)能與刑罰的功能。
容易受到質(zhì)疑的是,刑法將法人作為擬制主體即是對(duì)上述標(biāo)準(zhǔn)的否定。例如,就法人是否具有刑事主體地位的爭(zhēng)論來看,主要基于法人不具有自然人的意志自由與對(duì)懲罰痛苦的肉體感知,不存在倫理上的可譴責(zé)性以及社會(huì)非難性,刑罰報(bào)應(yīng)論無法體現(xiàn)于法人這一特殊組織形式等,法人刑事主體否定論長(zhǎng)期占據(jù)理論主導(dǎo)地位。①轉(zhuǎn)引自蔣熙輝《單位犯罪刑事責(zé)任探究與認(rèn)定》一文,人民法院出版社,2005年出版。但我們必須認(rèn)識(shí)到的是,法人與人工智能具有本質(zhì)上的不同。法人作為人類運(yùn)營(yíng)的組織,仍然由自然人來實(shí)施決策行為,法人的運(yùn)行實(shí)則是自然人集中集體意志的表現(xiàn),并非形成了獨(dú)立、新興的個(gè)體。而人工智能作為完全新興的主體,完全摒棄脫離了自然人的身份與關(guān)系,人工智能與法人之間具有根本性的差異。
2.從刑法的機(jī)能審視人工智能與傳統(tǒng)刑法體系的兼容可能性
刑法具有行為規(guī)制機(jī)能、法益保護(hù)機(jī)能以及人權(quán)保障機(jī)能。[11]21對(duì)于刑法的行為規(guī)制機(jī)能,具體包括評(píng)價(jià)的機(jī)能與決定的機(jī)能。評(píng)價(jià)機(jī)能是指刑法將一定的行為規(guī)定為犯罪并給予刑罰處罰。將人工智能作為刑事主體,刑法調(diào)整體系內(nèi)容以適用于人工智能體后,不影響外界對(duì)于人工智能犯罪行為的評(píng)價(jià)。決定機(jī)能是指刑法將一定行為規(guī)定為犯罪并使人們知曉,人們可以據(jù)此決定不實(shí)施犯罪行為。一方面,人工智能主體即使“知曉”刑法有關(guān)的犯罪規(guī)定,但其無法產(chǎn)生“意識(shí)”,因而無法理解法條的規(guī)范意義。人工智能雖然具有決定實(shí)施此行為或彼行為的選擇自由,但其無法感知其行為的社會(huì)意義,即社會(huì)意義上的評(píng)價(jià)、刑法意義上的評(píng)價(jià)無法影響人工智能對(duì)其行為的選擇。另一方面,刑罰無法給人工智能帶來痛苦[5],無法對(duì)人工智能的選擇產(chǎn)生威懾、規(guī)范等影響。如果將刑法規(guī)則內(nèi)置于人工智能程序,使其遵循人類的社會(huì)規(guī)則,此種情境下人工智能的行為仍然受制于人,那么很難說人工智能具有自由意志,當(dāng)然不能肯定人工智能作為刑事主體的可能性。人工智能技術(shù)旨在通過機(jī)器實(shí)現(xiàn)人的智能,而非克隆復(fù)制人類大腦,機(jī)器的學(xué)習(xí)模式與運(yùn)行邏輯不因人類社會(huì)確立的規(guī)則而變換。因此,將人工智能確立為刑事主體,難以實(shí)現(xiàn)刑法的決定機(jī)能。
對(duì)于刑法的法益保護(hù)機(jī)能與人權(quán)保障機(jī)能,處罰具有意志自由的人工智能看似可以實(shí)現(xiàn)刑法的法益保護(hù)與人權(quán)保障機(jī)能,實(shí)則存在不可忽略的前提假設(shè)與邏輯預(yù)設(shè)。設(shè)想,人工智能實(shí)施犯罪殺害自然人,可將人工智能的行為評(píng)價(jià)為故意殺人罪,保護(hù)人類的生命法益;但若是自然人銷毀了人工智能的存在,刑法是否要將行為人的行為評(píng)價(jià)為故意殺人罪?若人類侵犯人工智能,人工智能進(jìn)行反擊,是否可以認(rèn)定為人工智能的正當(dāng)防衛(wèi)?如果我們的回答不是肯定的,那么可以發(fā)現(xiàn)將人工智能作為刑事主體,只保護(hù)了自然人的法益與保障了自然人的權(quán)利,而人工智能只是作為刑法評(píng)價(jià)以及刑罰處罰的對(duì)象。
刑法的法益保護(hù)與人權(quán)保障機(jī)能之間的關(guān)系是刑事法領(lǐng)域永恒的經(jīng)典話題,二者之間的關(guān)系更是此消彼長(zhǎng)。從宏觀層面來看,在納入人工智能主體以前,刑事法規(guī)定維持的是自然人法益與人權(quán)保護(hù)之間的平衡;在納入人工智能主體以后,若依舊只考慮人工智能被處罰的情形而不考慮其應(yīng)享有的權(quán)利,必然將導(dǎo)致整體的法益保護(hù)與人權(quán)保障的失衡。正如“沒有無義務(wù)的權(quán)利,也沒有無權(quán)利的義務(wù)”[12],我們?cè)谫x予人工智能刑事主體資格時(shí)必然也便賦予了人工智能相應(yīng)正當(dāng)防衛(wèi)的權(quán)利。因此,我們必須認(rèn)識(shí)到,肯定人工智能刑事主體資格的前提是將人工智能與自然人同等看待,賦予其同樣的義務(wù)與權(quán)利。只有在這一前提下才可以說,調(diào)整或增添傳統(tǒng)刑法體系內(nèi)容使得人工智能主體與刑法體系兼容,可以實(shí)現(xiàn)刑法的法益保護(hù)機(jī)能與人權(quán)保障機(jī)能。
筆者認(rèn)為,無論未來人工智能發(fā)展到任何高級(jí)形態(tài),即使人工智能作為一種擬制的類人智能,都不能在刑法上將其等同于人類看待。機(jī)器與人類具有本質(zhì)的區(qū)別,機(jī)器的存在更無法與人類的生命所等同。人工智能機(jī)器可以對(duì)人類進(jìn)行正當(dāng)防衛(wèi)的社會(huì)也會(huì)給人類社會(huì)帶來重重危機(jī)。因此,將人工智能作為刑事主體難以實(shí)現(xiàn)刑法的決定機(jī)能、法益保護(hù)與人權(quán)保障機(jī)能。
3.從刑罰的功能審視人工智能與傳統(tǒng)刑法體系的兼容可能性
刑罰的功能作為刑罰制定、適用、執(zhí)行與達(dá)到刑罰目的的橋梁,是實(shí)現(xiàn)刑罰目的的前提與中介。探討對(duì)人工智能實(shí)施刑罰的可行性時(shí)必須審視刑罰功能的實(shí)現(xiàn)與否。在刑罰發(fā)展的歷史上,刑罰的制裁理念與手段不斷更新、發(fā)展、完善,不同時(shí)代人們對(duì)刑罰也存在不同的價(jià)值評(píng)判。目前,賴以實(shí)現(xiàn)特殊預(yù)防的刑罰功能有:限制、消除再犯條件的功能、個(gè)別威懾功能、教育感化功能;賴以實(shí)現(xiàn)一般預(yù)防的刑罰功能有:一般威懾功能、法制教育功能、安撫補(bǔ)償功能、強(qiáng)化規(guī)范意識(shí)功能。[11]519-521總體而言,刑罰所包含的威懾、教育、安撫補(bǔ)償以及限制、消除再犯功能等基本功能為理論與實(shí)務(wù)界所認(rèn)同。
從威懾功能來看,包括一般威懾與個(gè)別威懾功能。刑罰的威懾功能是通過剝奪受刑人的權(quán)利,使其感受到一定的痛苦而實(shí)現(xiàn)。正如功利主義所主張的,趨利避害是人的本性,行為人要避免承受刑罰的苦而不再犯罪。但人工智能無法產(chǎn)生人類的“意識(shí)”,不具有人類的生物屬性,未必會(huì)發(fā)展出類人的具有生物疼痛感的神經(jīng)網(wǎng)絡(luò)。[5]一方面,人工智能的機(jī)器體制無法感知到生理上的疼痛感;另一方面,人工智能本身不具有類人的自由權(quán)、財(cái)產(chǎn)權(quán)、資格權(quán)利等。即使為其創(chuàng)設(shè)專屬刑罰,進(jìn)行物理毀損或程序改造、數(shù)據(jù)刪除等,人工智能也無法感知到生理或精神上的痛苦。犯罪人工智能本身不會(huì)因?yàn)樾塘P痛苦而避免犯罪,也不會(huì)對(duì)其他人工智能產(chǎn)生威懾。經(jīng)驗(yàn)表明,如果所采用的力量并不直接觸及感官,又不經(jīng)常映現(xiàn)于頭腦之中以抗衡違反普遍利益的強(qiáng)烈私欲,那么,群眾就接受不了穩(wěn)定的品行準(zhǔn)則,也背棄不了物質(zhì)和精神世界所共有的渙散原則。[13]也就是說,人工智能無法感知到痛苦,刑罰如果無法對(duì)其形成易感觸的力量,即使對(duì)其適用現(xiàn)有刑罰也無濟(jì)于事,無法實(shí)現(xiàn)刑罰的威懾功能。
從安撫、補(bǔ)償功能來看,對(duì)于人工智能的處罰,在社會(huì)公眾一般樸素的“以牙還牙”的正義價(jià)值觀念中,難以感知到公平正義。從被害人及其親屬的視角來看,對(duì)人工智能的處罰難以獲得心理上的平衡與寬恕,無法慰藉被害人及其親屬因犯罪行為所受的精神創(chuàng)傷。在被害人及其親屬精神無法得到有效安撫與補(bǔ)償?shù)那榫诚拢缓θ说群苡锌赡苻D(zhuǎn)而尋求私力報(bào)復(fù),導(dǎo)致矛盾升級(jí)轉(zhuǎn)化,從而再次造成新的犯罪。
從教育功能來看,人工智能本身無法理解人類法律規(guī)范、價(jià)值規(guī)范。人工智能的內(nèi)部運(yùn)行機(jī)制本質(zhì)上仍然屬于設(shè)計(jì)者的程序設(shè)計(jì),即使人工智能具有意志自由,其行為選擇自由也仍然屬于科學(xué)技術(shù)問題,而不是法律倫理問題。人工智能無法理解其行為的社會(huì)意義,對(duì)其施加的刑罰,只能防止特定人工智能不再實(shí)施這一類犯罪,但無法使其認(rèn)識(shí)理解并認(rèn)同人類的法律規(guī)范,人工智能不會(huì)因?yàn)樵馐苄塘P而形成良好的規(guī)范意識(shí)。
綜上所述,筆者認(rèn)為人工智能系統(tǒng)在犯罪論與刑罰論方面均與傳統(tǒng)刑法體系不能直接融合,如果需要確立人工智能的刑事主體地位,必須調(diào)整刑法體系的具體內(nèi)容與之相適應(yīng)。但通過調(diào)整刑法體系納入人工智能主體的做法,從根本上無法實(shí)現(xiàn)刑法的機(jī)能與刑罰的功能。也就是說,人工智能與傳統(tǒng)刑法體系不具有兼容可能性。
人工智能技術(shù)發(fā)展給人類社會(huì)帶來巨大的便利,也伴隨著巨大的刑事風(fēng)險(xiǎn)。刑事法律考慮將人工智能作為刑事主體的意圖也正是在于:懲罰有關(guān)人工智能犯罪,防控人工智能帶來的刑事風(fēng)險(xiǎn),維護(hù)社會(huì)安定。刑法作為社會(huì)防衛(wèi)的最后一道防線,在否認(rèn)人工智能作為刑事主體的前提下,也應(yīng)主動(dòng)尋求出路,防控人工智能的刑事風(fēng)險(xiǎn)。一方面,刑法應(yīng)合理界分人工智能犯罪中有關(guān)自然人的刑事責(zé)任,例如確立人工智能研發(fā)者、生產(chǎn)者、使用者的審慎義務(wù),確保人工智能安全、可控的發(fā)展;另一方面,刑法對(duì)人工智能犯罪中人工智能的規(guī)制路徑仍需進(jìn)一步探索,可以將以下兩條路徑作為參考。
刑法在處罰有關(guān)人工智能犯罪時(shí),仍以處罰自然人為中心,將對(duì)人工智能的銷毀、刪除程序等作為有關(guān)自然人的附加刑罰。有論者認(rèn)為,對(duì)人工智能新設(shè)“刪除數(shù)據(jù)、修改程序、永久銷毀” 等刑罰種類,在實(shí)際效果上更類似于對(duì)人類“犯罪工具”或財(cái)產(chǎn)的沒收、銷毀,而這本質(zhì)上是對(duì)人類自身的懲罰。[14]以上觀點(diǎn)不無道理。在不賦予人工智能刑事主體的前提下,人工智能仍然屬于刑法意義上的客體對(duì)象,屬于人類所控制的物,對(duì)人工智能的處罰本質(zhì)仍然是對(duì)自然人自身的處罰。因此,將對(duì)人工智能的處罰作為有關(guān)自然人的附加刑罰,既實(shí)現(xiàn)了銷毀、懲罰有關(guān)人工智能,達(dá)到防衛(wèi)社會(huì)的目的,也合理界定了人工智能的刑法地位。需要認(rèn)識(shí)到的是,適用該條路徑的同時(shí)需要相關(guān)制度的發(fā)展。一方面,需要合理界分人工智能與自然人的關(guān)系與所屬問題,這是處罰自然人的前提;另一方面,對(duì)因人工智能犯罪而受處罰的自然人,有關(guān)自然人的犯罪前科以及是否構(gòu)成累犯問題,需要進(jìn)行發(fā)展調(diào)整。
人工智能與傳統(tǒng)刑法理論體系不具有兼容可能性,即使強(qiáng)行納入傳統(tǒng)刑法理論體系,也需全方位地為其確立新的刑事法制度。此種做法無異于為人工智能創(chuàng)設(shè)一套新的法律制度。為人工智能單獨(dú)創(chuàng)設(shè)一套法律制度的優(yōu)點(diǎn)在于,人工智能與自然人具有本質(zhì)屬性上的差異,專屬于人工智能的法律制度為人工智能量身定做,既可以有效規(guī)制人工智能犯罪,有效防衛(wèi)社會(huì),還可以根據(jù)人工智能的發(fā)展階段調(diào)整人工智能的相關(guān)法律,更具靈活性。也就是說,在人工智能與人類共生的社會(huì)中,人類為人工智能確立其在整個(gè)社會(huì)中享有的權(quán)利、承擔(dān)的義務(wù)以及需要遵守的規(guī)則。為人工智能創(chuàng)設(shè)一套新的法律制度的方式,避免了將人工智能強(qiáng)行納入傳統(tǒng)刑法體系的排異反應(yīng),也合理確立了人工智能刑法地位以及刑法對(duì)其處罰界限。
總體而言,人工智能的技術(shù)發(fā)展日新月異,給社會(huì)帶來的刑事風(fēng)險(xiǎn)正逐步變?yōu)楝F(xiàn)實(shí)。在不承認(rèn)人工智能刑事主體地位的前提下,刑法處罰人工智能的核心在于社會(huì)防衛(wèi)。刑法無法賦予人工智能完全與自然人等同的權(quán)利,但卻有必要規(guī)制有關(guān)人工智能犯罪。將對(duì)人工智能的處罰作為自然人的附加刑罰或?yàn)槿斯ぶ悄軇?chuàng)設(shè)一套法律制度,以上兩條路徑是對(duì)人工智能犯罪規(guī)制路徑的探索嘗試。當(dāng)然,以上兩條路徑并不是相互排斥,必要時(shí)也可以結(jié)合適用以此構(gòu)造人工智能的刑事地位。[15]