陳帥
摘 要:人工智能不同于人工智能體。從功利主義角度看,人工智能體的行為是先行程序設(shè)定的繼續(xù)推導(dǎo),其不具有辨認(rèn)和控制能力,因而不具備自由意志。同時(shí)強(qiáng)人工智能體缺乏法規(guī)范遵從能力的意志,對其無法進(jìn)行刑事苛責(zé)和施加刑罰,因此不能作為刑事責(zé)任主體;從人本主義視角看,強(qiáng)人工智能體同法人在意志能力、財(cái)產(chǎn)權(quán)利和刑罰配備上均有很大區(qū)別,因此無法類比法人將強(qiáng)人工智能體擬制為刑事主體。理應(yīng)將人工智能體看作人類社會(huì)治理的輔助工具,從而有效規(guī)制人工智能體帶來的刑事風(fēng)險(xiǎn),解決人工智能犯罪的刑事歸責(zé)問題。
關(guān)鍵詞:人工智能體;主體;功利主義;法人
中圖分類號(hào): D914??? 文獻(xiàn)標(biāo)志碼: A? ???文章編號(hào):1672-0539(2021)02-0008-05
一、風(fēng)險(xiǎn)社會(huì):人工智能之發(fā)展現(xiàn)狀
科技發(fā)展是人類發(fā)展的一小步,卻是指引人類邁向更大發(fā)展的一大步。21世紀(jì)以來,科學(xué)不斷發(fā)展,涌現(xiàn)出生物醫(yī)藥、能源汽車、工業(yè)互聯(lián)網(wǎng)平臺(tái)等一系列人工智能化的新興產(chǎn)業(yè)鏈。人工智能正逐漸成為人們廣泛討論的焦點(diǎn),被稱之為人類的第四次技術(shù)革命。
2017年3月,人工智能首次被寫入政府工作報(bào)告,指出“要培育人工智能新興產(chǎn)業(yè)”。2017年7月,國務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》,將人工智能發(fā)展作為建設(shè)創(chuàng)新型國家和世界科技強(qiáng)國的重要國家戰(zhàn)略。2017年10月,黨的十九大報(bào)告提出“推動(dòng)互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能和實(shí)體經(jīng)濟(jì)深度融合”的發(fā)展方針。2018年11月,工業(yè)和信息化部出臺(tái)《新一代人工智能產(chǎn)業(yè)創(chuàng)新重點(diǎn)任務(wù)揭榜工作方案》,征集遴選掌握人工智能核心技術(shù)、創(chuàng)新能力強(qiáng)的企業(yè)“揭榜”攻關(guān),力求突破。2019年政府工作報(bào)告再次將“人工智能”升級為“智能+”,促進(jìn)數(shù)字化經(jīng)濟(jì)和工業(yè)互聯(lián)網(wǎng)平臺(tái)的不斷完善。隨著人工智能被納入國家戰(zhàn)略的重要地位,有關(guān)人工智能的研發(fā)和部署也會(huì)高效展開。然而現(xiàn)代社會(huì)是一個(gè)風(fēng)險(xiǎn)社會(huì),人工智能作為人為創(chuàng)造的技術(shù),其快速發(fā)展造福人類的同時(shí)必然也會(huì)帶來一定的技術(shù)風(fēng)險(xiǎn)和制度風(fēng)險(xiǎn)[1],為了使人工智能產(chǎn)業(yè)更好地適應(yīng)現(xiàn)代社會(huì),必然需要通過規(guī)范和法律對該社會(huì)風(fēng)險(xiǎn)加以調(diào)節(jié)。對此,不僅需要通過民法和行政法加強(qiáng)第一性的規(guī)制保護(hù),還要通過刑事法制進(jìn)行第二性的保護(hù)。在刑事法領(lǐng)域,人工智能體是否具有刑事責(zé)任主體是當(dāng)下研究的焦點(diǎn)。
需要厘清的是,人工智能與人工智能體不是等同概念,前者強(qiáng)調(diào)智能的程序性,是可以脫離實(shí)體而存在的編碼,后者強(qiáng)調(diào)“體”這一特征,即人工智能所存在的宿體。人工智能作為虛擬編碼,是非實(shí)體性的虛擬存在,只具有行為的意識(shí),而不具有行為的能力。相反,人工智能體卻可以在程序內(nèi)或者依據(jù)程序推導(dǎo)做出行為指令,并通過客觀上的宿體將行為的內(nèi)在邏輯外在表達(dá)。因此討論有關(guān)人工智能等方面刑事責(zé)任主體的問題只能是對人工智能體的刑事責(zé)任問題的研究,而不是人工智能的責(zé)任問題研究。
根據(jù)人工智能的發(fā)展階段,可以將人工智能體分為弱人工智能體和強(qiáng)人工智能體。在弱人工智能階段,弱人工智能體作為人類根據(jù)程序和編碼設(shè)計(jì)出適用于某一領(lǐng)域的產(chǎn)品,其不是也不可能是行為主體,此階段的弱人工智能體只是服務(wù)于人類發(fā)展的工具,比如掃地機(jī)器人、智能管家等,不具有作為犯罪行為乃至法律行為的主體。學(xué)界對于弱人工智能階段人工智能體的工具本質(zhì)已達(dá)成共識(shí)。而在強(qiáng)人工智能階段,此時(shí)強(qiáng)人工智能體已然超出原有編碼程序的控制,可以實(shí)施設(shè)計(jì)者生產(chǎn)者編碼外的行為,因此需要獨(dú)立對行為負(fù)責(zé)。學(xué)界對于強(qiáng)弱人工智能體刑事責(zé)任的有無形成了肯定說和否定說。
本文立足于研究強(qiáng)人工智能階段強(qiáng)人工智能體的刑事責(zé)任主體問題,采取人本主義的思想基礎(chǔ),貫徹科學(xué)發(fā)展的思維模式,對肯定論者的觀點(diǎn)進(jìn)行反思,提倡否定強(qiáng)人工智能時(shí)代人工智能體的刑事責(zé)任主體資格,將人工智能體視為人類發(fā)展的工具。下文將分別作闡述。
二、功利主義:強(qiáng)人工智能體刑事責(zé)任主體資格的批駁與反思
肯定強(qiáng)人工智能體具有刑事責(zé)任主體資格的論者認(rèn)為,人工智能體具有獨(dú)立的意思,可以從事獨(dú)立的社會(huì)活動(dòng),當(dāng)其活動(dòng)具有嚴(yán)重的社會(huì)危害時(shí),出于罪責(zé)自負(fù),讓人工智能體承擔(dān)刑事責(zé)任無可厚非[2]。其邏輯可以歸納為三點(diǎn),一是具有獨(dú)立的意志能力和行為能力,二是罪責(zé)自負(fù)原則,三是刑罰實(shí)施之可能。筆者認(rèn)為,從功利主義上看,賦予強(qiáng)人工智能體刑事責(zé)任主體的資格既無法滿足人類對人工智能體的認(rèn)識(shí)和約束,還徒增立法和司法適用成本,浪費(fèi)司法資源,不利于現(xiàn)代刑事法體系的構(gòu)建。故本文從以下幾個(gè)方面否定強(qiáng)人工智能體刑事責(zé)任主體資格。
(一)強(qiáng)人工智能體缺乏自由意志
人工智能程序是人為設(shè)置的程序,程序本身不具有辨認(rèn)能力和控制能力[3]。智能系統(tǒng)是計(jì)算機(jī)的內(nèi)在編碼程序,程序由生產(chǎn)者以及使用者設(shè)置,因此人工智能體的意志就是生產(chǎn)者和使用者的意志,即使后續(xù)機(jī)器人在活動(dòng)中對周邊環(huán)境進(jìn)行感應(yīng),選擇實(shí)施某些行為,但這些選擇都是經(jīng)過大數(shù)據(jù)的處理,經(jīng)過電腦計(jì)算做出的,也在生產(chǎn)者和使用者的意志范圍之內(nèi),而非人工智能體自己的獨(dú)立意志。根據(jù)杜拉三元交互決定論模型中的個(gè)人認(rèn)知和社會(huì)環(huán)境之間的關(guān)系,人類在日常交往中環(huán)境、行為和認(rèn)知三者交互決定。人工智能體不存在對行為外界規(guī)范違反之認(rèn)知,不具有規(guī)范評價(jià)意義上的“目的性”。因此,人工智能體做出的無目的行為無法被刑法制裁[4]。此外,自然人之所以能成為刑事主體的另一大因素是因?yàn)槿司哂欣硇?,自然人的理性受到行?dòng)控制,行動(dòng)的做出代表著理性的選擇[5]。自然人可以根據(jù)社會(huì)的屬性、人類的倫理、一般的公序良俗做出合乎理性的行為。而人工智能體的行為完全是人為設(shè)置的參數(shù),不具有理性的辨認(rèn)能力和控制能力。
(二)強(qiáng)人工智能體缺失主觀要素
現(xiàn)代刑法歸責(zé)理論認(rèn)為主觀罪過是犯罪客觀行為的內(nèi)在表現(xiàn)形式,自然人之所以是主客體二分世界的主導(dǎo),是因?yàn)槿说闹饔^理性可以由理性控制自己的行為。而強(qiáng)人工智能體作為非生命體,其行為實(shí)施時(shí)的主觀認(rèn)識(shí)并無法得知,使得其主觀上的罪過難以查明,在對故意、過失、目的和動(dòng)機(jī)的判斷上只能依據(jù)法官的主觀判斷,從而陷入主觀入罪的困境。同時(shí)在共犯、犯罪未完成形態(tài)的認(rèn)定上,主觀心態(tài)的缺失也會(huì)導(dǎo)致共犯的成立、從屬性的適用以及未遂和中止的區(qū)分在實(shí)踐中難以有效界定。如果無法對人工智能體主觀要素進(jìn)行厘清,則對其刑法規(guī)范違反和行為危害程度的認(rèn)識(shí)更多來源于程序編碼做出的應(yīng)激決定,缺乏辨認(rèn)和控制上的價(jià)值判斷,使得實(shí)踐中對其主觀惡性的查明變得極為被動(dòng)??梢哉f人工智能體所有的行為都是經(jīng)過程序的疊加做出的數(shù)據(jù)化處理,其主觀上不存在規(guī)范認(rèn)識(shí)和意思認(rèn)識(shí),不具有獨(dú)立的主觀方面罪過。人腦上的故意和過失在人工智能體此類非生命的個(gè)體幾乎無法存在。一旦人工智能體實(shí)施了社會(huì)危害行為,與其去探究機(jī)器人本身是否存在主觀罪過,不如從根本上否定人工智能體的主觀方面,從而降低科技帶來的刑事風(fēng)險(xiǎn),以更加合理地規(guī)制人工智能技術(shù)。
(三)人工智能體不具有答責(zé)能力
在責(zé)任的認(rèn)識(shí)上,存在道德責(zé)任論、心理責(zé)任論、人格責(zé)任論和規(guī)范責(zé)任論等。我們認(rèn)為,刑事責(zé)任的本質(zhì),在于行為人忽視法律規(guī)范的適法期待而實(shí)施違法犯罪行為。即使強(qiáng)人工智能體在程序設(shè)計(jì)時(shí)錄入了現(xiàn)有的法條規(guī)范,但是法條錄入不等于規(guī)范習(xí)得,即使熟知法條,也無法在特殊情形下基于一般自然人的認(rèn)知而采取合乎人性的選擇。應(yīng)當(dāng)說,理性推導(dǎo)不同于感性認(rèn)知。人的社會(huì)性使得人理解和適用法律都存在一定困難,何況是機(jī)械性的錄入學(xué)習(xí)。對由于法條機(jī)械錄入而導(dǎo)致采取違法行為的人工智能體,其本身不具有違法性之認(rèn)識(shí)可能,缺乏法規(guī)范遵從期待之可能[6]。即使客觀上造成了法益侵害后果,也不具備刑法上的可歸責(zé)性。
(四)刑罰目的難以實(shí)現(xiàn)
自然人之所以可以被苛責(zé),在于自然人的感知能力,對其施加刑罰具有法規(guī)范強(qiáng)化的預(yù)防效果。而強(qiáng)人工智能體作為智能機(jī)器的延續(xù),對其施加現(xiàn)有的刑罰不具有報(bào)應(yīng)和預(yù)防的目的。從報(bào)應(yīng)上看,由于強(qiáng)人工智能體依賴于程序而做出相應(yīng)的行為,并不具有財(cái)產(chǎn)和自然壽命的損耗,對其無論是施加自由刑、生命刑抑或是財(cái)產(chǎn)刑都不能達(dá)到報(bào)應(yīng)的目的[7]。從預(yù)防上看,對機(jī)器人施加拘役、有期徒刑等自由刑并不能達(dá)到悔罪改造的社會(huì)效應(yīng),在其釋放后,內(nèi)在程序并沒有得到更改,其依然會(huì)實(shí)施相應(yīng)的危害行為,達(dá)不到特殊預(yù)防之目的。立法論上有學(xué)者認(rèn)為可以增加刪除數(shù)據(jù)、修改程序、永久銷毀[8]三大替代刑罰措施,然而在分則中增設(shè)新的刑罰會(huì)沖擊我國傳統(tǒng)的刑罰體系,甚至?xí)鹫麄€(gè)刑法結(jié)構(gòu)的坍塌。事實(shí)上,人工智能體內(nèi)的程序編碼十分復(fù)雜,各種引起犯罪行為的程序都是經(jīng)過前期不斷的數(shù)據(jù)輸入和輸出反復(fù)的結(jié)果,單單應(yīng)用刪除數(shù)據(jù)、修改程序兩種替代措施并不能消除人工智能體再次通過先行的數(shù)據(jù)計(jì)算從而反復(fù)生成引起犯罪行為的程序可能性,即此兩種新型刑罰措施無法從根本上消除再犯可能性,不具有特殊預(yù)防的功能[9]。只有通過銷毀無人駕駛汽車,方可從根本上解決再犯可能性以及降低刑事風(fēng)險(xiǎn),但是對所有發(fā)生重大交通事故的無人駕駛汽車均予以銷毀顯然是不經(jīng)濟(jì)的做法,增加人工智能技術(shù)研發(fā)成本,不利于人工智能技術(shù)的發(fā)展。
(五)缺乏相應(yīng)配套設(shè)施
一旦承認(rèn)人工智能體刑事責(zé)任主體資格,對其配備設(shè)施,尤其是刑事訴訟中的配套程序?qū)⒆兊脴O為復(fù)雜。刑事訴訟中貫徹的辯護(hù)全覆蓋是否包含強(qiáng)人工智能體,對強(qiáng)人工智能體是否可以采取刑事強(qiáng)制措施和采取什么樣的強(qiáng)制措施,實(shí)踐審判時(shí)如何保障強(qiáng)人工智能體的答責(zé)權(quán)利等都會(huì)成為實(shí)踐上難以銜接刑法的司法困境。同時(shí)對機(jī)器人審判無疑增加了法院的案件負(fù)荷,既無法達(dá)成對人工智能體的有效規(guī)制和約束,還徒增了司法審判成本。
可以說,賦予人工智能體刑事責(zé)任主體資格具有功利的目的,卻采取了不功利的手段??隙ㄕ撜邚?qiáng)調(diào)賦予強(qiáng)人工智能體刑事責(zé)任主體資格是為了使強(qiáng)人工智能體成為刑法規(guī)制的對象,本質(zhì)上是通過讓其承受一定義務(wù)從而對其設(shè)置限制,從而更好地保護(hù)人類。然而,賦予強(qiáng)人工智能體刑事責(zé)任主體資格,不利于刑法的高效實(shí)施。將人工智能體作為刑事責(zé)任主體時(shí),不僅在主觀罪過的查明和違法性認(rèn)識(shí)的辨別上會(huì)陷入認(rèn)識(shí)困境,而且現(xiàn)行刑罰措施對人工智能體并不適用,在入罪后的刑罰配置上將陷入適用困境。增加新的刑罰手段只會(huì)徒增刑法成本,無法達(dá)到經(jīng)濟(jì)刑法的功效,浪費(fèi)司法資源。
三、人本主義:人工智能體的工具定位
在刑事責(zé)任主體判斷邏輯上,應(yīng)當(dāng)存在行為能力(犯罪能力)和刑罰能力的判斷標(biāo)準(zhǔn),即刑事責(zé)任主體應(yīng)當(dāng)是人的下位概念,想要賦予非人一定刑事責(zé)任主體資格,只能像單位一樣進(jìn)行擬制,然而人工智能體同單位不具有等質(zhì)性。首先,單位的獨(dú)立意思來源于其內(nèi)部組成人員的意思,反映的是單位整體意志,具有外在的辨控能力。而人工智能體反映的是設(shè)計(jì)者和制造者的意思,其不具有獨(dú)立的對外自由意志,對其擬制缺乏基礎(chǔ)和前提。其次,單位有財(cái)產(chǎn)權(quán)利,對其可以施加現(xiàn)有的刑罰,而人工智能體則不具備此類可被剝奪的民事權(quán)利。再次,單位有實(shí)踐基礎(chǔ)。我國有關(guān)單位擬制的實(shí)踐從改革開放時(shí)已然顯現(xiàn)矛頭,經(jīng)過幾十年的實(shí)踐洗禮最終才在1997年修訂的《中華人民共和國刑法》中確定,是先實(shí)踐再立法的模式。而強(qiáng)人工智能體恰恰相反,現(xiàn)階段強(qiáng)人工智能體尚未在實(shí)踐中得以應(yīng)用,對其擬制缺乏必要的社會(huì)基礎(chǔ)。最后,從社會(huì)效益上看,賦予單位獨(dú)立人格具有社會(huì)效益,可以合理規(guī)制經(jīng)濟(jì)社會(huì)中產(chǎn)生的各種形式犯罪,更好地保護(hù)市場經(jīng)濟(jì)。而對人工智能體進(jìn)行擬制不僅將面臨科技風(fēng)險(xiǎn)帶來的刑事風(fēng)險(xiǎn),不利于實(shí)踐中對人工智能體犯罪進(jìn)行規(guī)制,還會(huì)增加司法成本,增加司法人員的負(fù)擔(dān)。因此,對于人工智能體刑事責(zé)任主體的判斷,無法進(jìn)行主體擬制,對于非生命體的強(qiáng)人工智能體,本文贊成將其作為工具進(jìn)行對待。
其一,人與強(qiáng)人工智能體最大的區(qū)別在于人的智慧不同于機(jī)器人的智能,前者包含理性和感性,且情感分析和判斷等非綜合判斷能力為主導(dǎo)。而智能理性推導(dǎo)更像是程序設(shè)定。人工智能體深度學(xué)習(xí)的是智能而非智慧,其通過算法和程序習(xí)得的只是機(jī)械性的在特定場景采取特定的行為這一模式,在出現(xiàn)程序未設(shè)置的場景,強(qiáng)人工智能體無法進(jìn)行快速反應(yīng),其采取的行為難免與人類理性認(rèn)識(shí)具有偏差。因此強(qiáng)人工智能體的行為離不開人類的干預(yù)和程序設(shè)置,只能作為人類演變社會(huì)的學(xué)習(xí)和推導(dǎo)工具,而不具有獨(dú)立的人格。
其二,強(qiáng)人工智能體最大的特點(diǎn)在于程序和模仿。與人的行為的不確定性截然相反的是人工智能體的程序由生產(chǎn)者和制造者設(shè)定,即使具有衍生的行為和意思,也是一般程序的繼續(xù)推導(dǎo),具有可預(yù)測性。在程序的推導(dǎo)過程中,人工智能體依據(jù)先行設(shè)定的學(xué)習(xí)程序,可以對其他行為人的行為進(jìn)行模仿以適應(yīng)社會(huì)活動(dòng),并對周邊環(huán)境做出應(yīng)激性行為。此時(shí)強(qiáng)人工智能體的社會(huì)危害行為是程序的過度推導(dǎo),理應(yīng)由可預(yù)測的生產(chǎn)者和制造者對其監(jiān)督過失進(jìn)行擔(dān)責(zé),遵循民事行政優(yōu)先解決產(chǎn)品責(zé)任,后置追究制造者刑事責(zé)任的邏輯,從而實(shí)現(xiàn)刑法的效益價(jià)值。
其三,刑法規(guī)范需要建立在人性的科學(xué)基礎(chǔ)上[10]。人工智能體不具有刑法評價(jià)意義上行為認(rèn)識(shí)及控制要素的自主性,不具有人理性支配的可答責(zé)基礎(chǔ)[11],對其不存在對應(yīng)可適用的刑罰措施。如果承認(rèn)人工智能體的主體地位,則意味著人和人工智能體都可作為刑事主體擔(dān)責(zé),這是對人類發(fā)展的極大干預(yù)。甚至未來可能出現(xiàn)與人工智能體之間發(fā)生大規(guī)模的沖突。將人工智能體定性為行為人的工具,既可以解決現(xiàn)有無人駕駛車輛發(fā)生交通事故時(shí)的法律規(guī)制問題,又可以緩解人工智能背景下對刑法的沖擊。
四、結(jié)語
科技是人推動(dòng)的產(chǎn)物,人類的最高目標(biāo)不僅僅是發(fā)展應(yīng)用技術(shù),而是人類的全面發(fā)展,技術(shù)只是為這個(gè)目標(biāo)服務(wù)的工具。全面貫徹科學(xué)發(fā)展以人為本的人工智能技術(shù)規(guī)范,加強(qiáng)人工智能產(chǎn)業(yè)鏈上游和下游雙重規(guī)制,這是時(shí)代的必然選擇。人工智能的最終發(fā)展必然是為人類服務(wù),是不可超越人類智慧的存在,賦予人工智能體刑事責(zé)任主體會(huì)導(dǎo)致刑法理念的顛覆,不利于社會(huì)刑事法制的穩(wěn)定。相反,否定人工智能體刑事責(zé)任主體資格,將其納為主體的工具在解決具體的刑事案件上反而會(huì)更為高效。
參考文獻(xiàn):
[1]趙運(yùn)峰.人工智能不應(yīng)作為刑事責(zé)任主體[J].檢察風(fēng)云,2019,(6):28.
[2]劉憲權(quán).人工智能時(shí)代機(jī)器人行為道德倫理與刑法規(guī)制[J].比較法研究,2018,(4):40-54.
[3]Monika Simmler,Nora Markwalder. Guilty robots?-rethinking the nature of culpability and legal personhood in an age of artificial intelligence[J].Criminal Law Forum,2018,(5):30.
[4]何濤,魏俊斌.人工智能承擔(dān)刑事責(zé)任的主體地位[J].南海法學(xué),2019,(4):96-103.
[5]劉艷紅.實(shí)質(zhì)刑法觀[M].北京:中國人民大學(xué)出版社,2009:15.
[6]張成東.強(qiáng)人工智能體刑事主體地位之否定[J].時(shí)代法學(xué),2019,(5):54-62.
[7]儲(chǔ)陳城.人工智能時(shí)代刑罰歸責(zé)的走向[J].東方法學(xué),2018,(3):27-37.
[8]劉憲權(quán).人工智能時(shí)代刑事責(zé)任與刑罰體系的重構(gòu)[J].政治與法律,2018,(3):96-98.
[9]王肅之.人工智能體“刑事責(zé)任”的教義學(xué)解構(gòu)[J].西南政法大學(xué)學(xué)報(bào),2019,(1):60-61.
[10]陳興良.刑法的人性基礎(chǔ)[M].北京:中國方正出版社,1999:1.
[11]時(shí)方.人工智能刑事主體地位之否定[J].法律科學(xué),2018,(6):69-71.
Negation of Criminal Responsibility Subject of
Strong Artificial Intelligence Agent
CHEN Shuai
(Law School,Hunan Normal University,Changsha Hunan 410081,China)
Abstract:Artificial intelligence is different from artificial intelligence agent. From the perspective of utilitarianism, the behavior of artificial intelligence agent is the continuation of the previous program setting, with no recognition or control, and therefore no free will. At the same time, the strong artificial intelligence agent body lacks the will to comply with the legal norms, thus can not be convicted and criminally punished. So it can not be regarded as the subject of criminal responsibility. From the humanistic point of view, the strong artificial intelligence agent is quite different from the legal person in the aspects of will power, property right and penalty equipment, so it cant be modeled as the criminal subject by analogy with the legal person. Artificial intelligence agent should be regarded as an auxiliary tool of human social governance, so as to effectively regulate the criminal risk brought by artificial intelligence and solve the problem of criminal liability of artificial intelligence crime.
Key words: ?Artificial Intelligence Agent ; Subject ; Utilitarianism ; Legal Person
編輯:鄒蕊