胡 莎
人工智能刑事責(zé)任問題,在現(xiàn)有刑法理論研究中,被過度簡單化為人工智能能否成為刑事責(zé)任主體的問題,主要觀點(diǎn)是:人工智能的屬性,不可能永遠(yuǎn)只是人類的工具、產(chǎn)品或財(cái)物,其有朝一日必將脫離人類控制,成為與人類平起平坐、等量齊觀的新型人工智能體(Artificial Intelligence Entity,一般簡稱AI Entity),其與自然人、法人一樣,也具有刑事責(zé)任能力,因此,人工智能體也應(yīng)是刑事責(zé)任主體或犯罪主體,可直接給人工智能定罪,至于適用的刑罰方式,應(yīng)是刪除數(shù)據(jù)、修改程序或永久銷毀等。[1-5]但本文認(rèn)為,人工智能刑事責(zé)任之確認(rèn)議題,其研究重點(diǎn)不應(yīng)以未來主義的理論預(yù)言為主,不應(yīng)通過比較人工智能和人類的能力后主張前者應(yīng)為自己的安全運(yùn)行承擔(dān)刑事責(zé)任;在特別講求實(shí)用主義的刑法中,應(yīng)以現(xiàn)實(shí)主義為出發(fā)點(diǎn),按照如下思路,解決如下問題:不同種類、能力水平的人工智能體,屬于危險(xiǎn)級別不同的犯罪危險(xiǎn)來源,在出現(xiàn)故障、事故、對個(gè)體造成危害或出現(xiàn)犯罪公共風(fēng)險(xiǎn)后,假如由人工智能體承擔(dān)刑事責(zé)任,將如何解決由此帶來的重大刑法道德困境和適用難題,應(yīng)如何全新詮釋刑法中的禁止規(guī)范和行為規(guī)范,如果人工智能體不作為刑事責(zé)任主體,對相關(guān)主體予以刑事歸責(zé),將面臨哪些難題。[6]687
一般來說,人工智能是人類通過計(jì)算機(jī)語言編程,讓機(jī)器模擬、延伸、擴(kuò)展、學(xué)習(xí)人類行為及其頭腦空間中的所有認(rèn)知、思維、推理、決策等能力,以此代替人類完成原本由人類完成的任務(wù),而其中人工智能的載體,即有可能被追究刑事責(zé)任的主體,被稱為人工智能體(AI Entity/AI Agency)。[1-5]不同種類、能力水平的人工智能體,其刑事責(zé)任的確認(rèn)總體上應(yīng)相同,但在具體規(guī)則問題上會有細(xì)微差別。眾所周知,大部分學(xué)者將人工智能分為弱人工智能(適用單一領(lǐng)域)、強(qiáng)人工智能(適用各個(gè)領(lǐng)域)和超人工智能(已經(jīng)超越人類)。這根據(jù)人工智能的適用范圍來區(qū)分,顯得有點(diǎn)簡單而粗糙。筆者認(rèn)為應(yīng)根據(jù)機(jī)器人的智能分層,主張人工智能體可分行動智能體(Action Intelligence Entity)、自主智能體(Autonomous Intelligence Entity)和仿人智能體(Human-Based Intelligence Entity),其中仿人智能體也稱為智能機(jī)器人(AI Robot)或“智機(jī)”(machina sapiens), 即與被稱為“智人”(homo sapiens)的人類相對。[7]274因?yàn)榇朔N分類直觀展示了人工智能體強(qiáng)弱所表征的具體內(nèi)容,并簡潔明了地?cái)U(kuò)充了刑法學(xué)知識,因此本文以此分類展開論述。
自主智能體,也稱為自控型的機(jī)器,是指智能體在云計(jì)算、大數(shù)據(jù)、深度學(xué)習(xí)算法、人腦芯片的催化下,模擬人類智慧,而具有圖形、符號、形狀、語音識別能力、罪犯面部識別技術(shù)、自我自動調(diào)度能力、解決問題的能力、推理能力及創(chuàng)造力,且可基于過去曾經(jīng)的經(jīng)驗(yàn)制定計(jì)劃,同時(shí)能隨著環(huán)境需要,改變其運(yùn)作機(jī)制,這種情況下,是機(jī)器引導(dǎo)人類完成人類任務(wù),工作速度、精度、強(qiáng)度等都明顯優(yōu)于人類,而自主性或自控性是其最顯著的特征,研發(fā)此種智能體,也是我們?nèi)祟惸壳罢谂タ说募夹g(shù)難題。而我國目前也正是擔(dān)憂自主智能技術(shù)失控、相應(yīng)刑事責(zé)任主體如何確定的問題。[8]與此相較,行動智能體,即行動的人工智能體,是比自主智能體低級的弱人工智能,其出現(xiàn)在人工智能發(fā)展的初級階段,以人類的軟件系統(tǒng)或新型的網(wǎng)絡(luò)信息技術(shù)手段的形式呈現(xiàn),例如智能外語學(xué)習(xí)軟件、譜曲、創(chuàng)造詩歌等軟件系統(tǒng)、自動掃地機(jī)、初級的自動駕駛汽車等等。其主要特征是在特定單一領(lǐng)域內(nèi)擁有相對獨(dú)立的行動能力,各個(gè)部位可以進(jìn)行單個(gè)活動或整體移動,它是人類行動能力的延伸物,其沒有任何內(nèi)源性的權(quán)利能力,其行動完全符合人類設(shè)定的邏輯,具有可程式化,運(yùn)作機(jī)制固定不變,其程序性的“守法意識”和客觀的“守法能力”,也明顯比自主智能體和智能機(jī)器人都強(qiáng)。[7]274因此,人類完全可以事先有效地對其進(jìn)行風(fēng)險(xiǎn)評估,在該人工智能體被廣泛普遍地設(shè)計(jì)、建造之前,明確其具體的產(chǎn)品安全生產(chǎn)標(biāo)準(zhǔn)、設(shè)計(jì)標(biāo)準(zhǔn)和質(zhì)量標(biāo)準(zhǔn),當(dāng)其對人類個(gè)體或社會造成損害時(shí),可以適用產(chǎn)品責(zé)任或侵權(quán)責(zé)任予以解決,一般與刑事責(zé)任無涉。但是與行動智能體同步發(fā)展的自主智能體,由于其具有自我學(xué)習(xí)能力,擁有“自主意識”和自主性,其運(yùn)作機(jī)制和邏輯并不固定,可能有自己獨(dú)立的法律意識,因此,有學(xué)者贊同應(yīng)將其列為獨(dú)立的刑事責(zé)任主體,但此觀點(diǎn)值得商榷。
雖然自主人工智能系統(tǒng)可以自主學(xué)習(xí),但是誠如Ross機(jī)器人律師的創(chuàng)始人Andrew Arruda所認(rèn)為,自主人工智能系統(tǒng)的自主學(xué)習(xí),是指自主有意識地學(xué)習(xí)如何更高效、更準(zhǔn)確地完成人類的工作任務(wù)、實(shí)現(xiàn)人類設(shè)置的工作目標(biāo),從而大大減輕普通民眾的費(fèi)用,即民眾可以明顯低價(jià)享受以前同樣的專業(yè)服務(wù)。人工智能是專業(yè)人士的職業(yè)裝備,是一種創(chuàng)新、便捷、高效、事故率更低的解決問題的新途徑,能更好地輔助專業(yè)人士完成專業(yè)工作,從而服務(wù)于普通大眾,并不是、也無法替代專業(yè)人士。因此,“工具論”是解釋和適用人工智能責(zé)任問題的主要模式,即人工智能系統(tǒng)只能在該預(yù)先設(shè)定程序的技術(shù)結(jié)構(gòu)內(nèi)工作,所有行為及后果皆應(yīng)歸屬于自然人。[9]例如萊茵河案中,導(dǎo)航汽車錯(cuò)誤指示近路卻沖進(jìn)河里致使車內(nèi)人死亡的事件中,自主智能汽車,是為完成人類設(shè)定的到達(dá)指定目的地的任務(wù),其存在的目的和意義都是為輔助人類達(dá)成人類的目標(biāo),無法自我設(shè)定行為目的,其屬性是工具,因此,這種情況下要求自主智能汽車承擔(dān)過失犯罪的刑事責(zé)任明顯沒意義。
正如人工智能“威脅論”人士所述,自動人工智能之間會突然產(chǎn)生異于人類語言的獨(dú)有語言進(jìn)行交流,但人類可立即采取相應(yīng)措施予以控制。雖然機(jī)器自主學(xué)習(xí)使得人工智能不按照計(jì)算機(jī)電腦編程而運(yùn)行,而是在計(jì)算機(jī)編程范圍之外去實(shí)施行為,即在人類設(shè)計(jì)的程序之外去運(yùn)行,但是,人類對其在計(jì)算機(jī)編程之外運(yùn)行的事實(shí),早已預(yù)見并深知,人工智能仍是在為完成人類特定領(lǐng)域的特定任務(wù),其超越不了完成人類的特定任務(wù),人類對人工智能的總體全局完全可以預(yù)知,對其會實(shí)施犯罪行為也完全可預(yù)料。雖然自主人工智能系統(tǒng)有可能產(chǎn)生自主意識,但其自主意識是有限的,只是具有有限的推理能力、規(guī)劃能力和抽象思維能力,所產(chǎn)生的語言文字只具有句法文字屬性而已,其所謂的自主意識與海豚、大猩猩的自我意識一樣,沒有真正獨(dú)立的存在意義和主觀意圖,也不是像人一樣真正地理解、并相信自己行為的意義,其終究無法與人類的自主意識畫上等號??傊?,自主人工智能這種“愚蠢科技”,是以人類事先預(yù)定的方式回應(yīng)特定情景而已,人類對其自然可能產(chǎn)生的危害情況,有預(yù)見能力及預(yù)見可能性,如果疏忽大意沒有預(yù)見,則是主觀意志上的不作為,應(yīng)由人類承擔(dān)相應(yīng)的刑事責(zé)任[10]182,如果由人工智能接受制裁、遭受責(zé)難、承擔(dān)責(zé)任,這明顯是人類以此逃避責(zé)任。[11]647
自主人工智能體,其實(shí)是一個(gè)自動系統(tǒng)或應(yīng)用程序,其產(chǎn)生、運(yùn)行和進(jìn)行的具體行為皆嚴(yán)重依賴于無數(shù)人類科學(xué)家、編程者、程序員等在幕后默默地收集、分析和使用海量信息和數(shù)據(jù),建立知識庫、數(shù)據(jù)庫和系統(tǒng)模型,編制應(yīng)用軟件,發(fā)明算法公式,研制升級補(bǔ)漏程序,并為這些系統(tǒng)和軟件提供統(tǒng)一、明確、邏輯清晰、固定的程式化運(yùn)用標(biāo)準(zhǔn)等等[12]。誠如百度董事長李彥宏在“中國國際智能產(chǎn)業(yè)博覽會”上所言:人工智能一詞來自英語“Artificial Intelligence”, 其中的“Artificial” 一詞除了有“人工的”意思,還有“人造的、虛假的”意思,因此人工智能事實(shí)上是假的,并不是真的智能,它離真的人工智能還非常遠(yuǎn)。也由于人工智能事實(shí)上是人造的、虛假的智能,因此其產(chǎn)生、試驗(yàn)、運(yùn)行等皆需人類陪伴,自動人工智能體和人類是共生的關(guān)系,而不是對立關(guān)系,只有這樣,人工智能才能被人類所信服和接受。[13]也正是基于此,一些虛假的人工智能技術(shù)詐騙丑聞,實(shí)際上是由幕后無數(shù)人類為騙取巨額資助而同步自編自導(dǎo)的。
誠如李開復(fù)在Ted演講中說到:人工智能能幫助人類極大地減輕重復(fù)繁瑣、單調(diào)乏味的例行事務(wù)負(fù)擔(dān),使人類有更多精力和時(shí)間從事更核心、更高級別的情感、精神或腦力活動,創(chuàng)造更美好、更有愛的和諧生活,而“人工智能不具備情感、精神等欲望機(jī)制”[14],無法真正理解有愛的和諧生活,當(dāng)然也不擁有人身權(quán)益和財(cái)產(chǎn)權(quán)益。而且,目前只有人類有能力在矛盾沖突或模棱兩可情形下進(jìn)行利益選擇,因?yàn)槿祟愑凶约旱娜松砝婧拓?cái)產(chǎn)利益需求,而自主人工智能體沒有,其完全附屬于人類,其設(shè)計(jì)者、制造商及其組織應(yīng)為機(jī)器人安全性、可靠性負(fù)責(zé),而不能以人工智能擁有越來越強(qiáng)大的學(xué)習(xí)能力和自主程度而讓其承擔(dān)責(zé)任,而藉此使自己逃避責(zé)任。[14]
有學(xué)者主張,智能機(jī)器的責(zé)任能力與自主性,確實(shí)無法與人類相比,其固然不能成為自我視角下的道德責(zé)任主體,但是智能機(jī)器承載著使用者、設(shè)計(jì)者對其的期望,且被內(nèi)置了感知世界并與世界互動的能力,因此他者視角下,智能機(jī)器可以成為道德責(zé)任主體。[15]但筆者認(rèn)為,此種看法為對智能機(jī)器充滿期待的他者推卸自己的責(zé)任提供了理論口實(shí),因?yàn)槭褂谜?、設(shè)計(jì)者的期待也會包括犯罪主觀心理,在這種情況下,肯定不能歸責(zé)于人工智能,而是應(yīng)刺破罩在相關(guān)人類身上的人工智能面紗,以相應(yīng)的故意或過失責(zé)任使相關(guān)人類承擔(dān)其應(yīng)承擔(dān)的刑事責(zé)任。例如自然人教唆、指令A(yù)I偷一張欠條,但是AI卻一把火燒了被害人的房屋。該案中,自然人應(yīng)直接為所有的危害結(jié)果承擔(dān)刑事責(zé)任。雖然自然人并無放火的主觀故意罪過,但是自然人作為自主人工智能系統(tǒng)的主人,應(yīng)能夠預(yù)見到自主人工智能會失控而造成不可挽回的重大危害,而其中的預(yù)見內(nèi)容,并不需要預(yù)見到具體的結(jié)果、因果經(jīng)過的基本部分,只需要抽象預(yù)見性即可,即預(yù)見到可能會發(fā)生嚴(yán)重危及社會的危害結(jié)果即可。
將自動人工智能體解釋為犯罪主體,將在法律系統(tǒng)中產(chǎn)生一種開放構(gòu)造的風(fēng)險(xiǎn)(open texture risk),即更多的法律詞語都將沒有固定的意思,因?yàn)閷ζ涞慕忉寱S著特定領(lǐng)域、觀察視角、時(shí)間階段等的不同而不同,這將導(dǎo)致法律解釋出現(xiàn)極大的不明確性和模糊性,從而使得法律適用變得混亂不堪、舉步維艱[7]276。例如應(yīng)如何判斷人工智能體已經(jīng)“出生”,又如何判斷其已經(jīng)“死亡”,死亡后應(yīng)該如何處理?能否也可以成立侮辱、盜竊、毀損尸體、尸骨、骨灰罪?再例如:如果刑法中的“人”,可以解釋為包括自然人、法人、仿真機(jī)器人,那么外星人是否也能解釋成犯罪主體?
在不確定的未來,人類社會將出現(xiàn)最高級別的人工智能,即仿人智能體(Human-Based Intelligence Entity),或稱為“智機(jī)”、智能機(jī)器人、生物形態(tài)的機(jī)器人(humanoid)、準(zhǔn)人類(Qausi-human)、獨(dú)立的智慧存在體或超人工智能等等。根據(jù)人類現(xiàn)在的理論設(shè)想,此智能機(jī)器人 “在其人工生成過程中引入并隨之留駐了人類意識的機(jī)制或內(nèi)容”[16],同時(shí)跨過了不可逆轉(zhuǎn)的“奇點(diǎn)”,超越了人腦,并脫離了人類控制,將會成為虛擬智能世界和現(xiàn)實(shí)人類世界的橋梁,成為雙方的代言人。的確,智能機(jī)器人未來有可能成為刑事責(zé)任主體:一方面,智能機(jī)器人體現(xiàn)了人類的技術(shù)理性,等值于理性“人”,由于其完全排除了情感、欲望、偏見、經(jīng)驗(yàn)局限性等的影響,甚至比人類更理性,而刑法規(guī)制對象的預(yù)設(shè)前提正是理性人;另一方面,創(chuàng)造能力、推理能力等在刑法上對于歸責(zé)無關(guān)緊要,因?yàn)樾谭ㄉ系臍w責(zé)與否,取決于行為人是否能夠認(rèn)識或預(yù)見到自己的行為會發(fā)生危害社會的結(jié)果,是否希望或者放任危害結(jié)果的發(fā)生,即有認(rèn)識能力和控制能力即可,而未來出現(xiàn)的智能機(jī)器人可以擁有這兩種能力。即便如此,假設(shè)智能機(jī)器人在未來社會已成為刑事責(zé)任主體,將會出現(xiàn)大量全新的刑法難題。
眾所周知,現(xiàn)如今規(guī)制人工智能的鐵律,是阿西莫夫機(jī)器人三原則,即機(jī)器人和人不是平等的主體,機(jī)器人被人類控制和支配,但很明顯,該原則只適用于上述的行動人工智能體和自主人工智能體,并不適合智能機(jī)器人。因?yàn)?,智能機(jī)器人時(shí)代,是人機(jī)交互共存的社會,機(jī)器人和人類是平等的主體,機(jī)器人也會主動要求、爭取并維護(hù)自己的權(quán)利,要求機(jī)器人遵守三原則將會使機(jī)器人陷入道德困境,這本身是不道德的。例如,未來機(jī)器人可以和人類一樣當(dāng)警察,當(dāng)機(jī)器人的人類警察上司,要求機(jī)器人逮捕人類犯罪嫌疑人,但人類嫌疑人拼死抵抗,那么機(jī)器人是應(yīng)該遵守人類警察上司的命令傷害反抗中的人類嫌疑人,還是不遵守人類上司的指令?[10]173如果遵守人類命令傷害人類,那是違反第一個(gè)原則:機(jī)器不得傷害人類;而如果機(jī)器人不遵守人類命令,則是玩忽職守的不作為。再例如:人類命令一個(gè)機(jī)器人為他人的合法正當(dāng)利益而傷害另一個(gè)人,如果機(jī)器人遵守人類命令,則違反第一個(gè)原則,但不遵守人類命令,則使得正當(dāng)防衛(wèi)制度無用武之地。[17]當(dāng)然,人類哲學(xué)家和機(jī)械設(shè)計(jì)師可“將人類社會中的法律以及道德等規(guī)范和價(jià)值,嵌入或編程進(jìn)相應(yīng)的高級人工智能系統(tǒng)中,讓其繼續(xù)“更好地為人類社會服務(wù)”[18],但是這與“教螞蟻唱歌一樣難”:首先,人類倫理學(xué)說和刑法解釋觀點(diǎn)有很多種,到底應(yīng)植入或編程何種倫理道德或刑法解釋觀點(diǎn)呢?其次,即使有統(tǒng)一的倫理學(xué)說和刑法解釋觀點(diǎn),但人類的倫理道德和刑法解釋觀點(diǎn),難以準(zhǔn)確定義,該定義本身在技術(shù)上也難以編程轉(zhuǎn)變?yōu)閿?shù)據(jù)代碼;最后,智能機(jī)器人有自己的自主學(xué)習(xí)能力,完全會產(chǎn)生不同于人類的法律規(guī)則和機(jī)器人道德,他們更傾向于維護(hù)自己種群的利益,為追求“機(jī)器人正義”[7]271而存在,從而未來將和人類一樣,有自己獨(dú)立的利益、價(jià)值觀、世界觀等,這將必然導(dǎo)致人機(jī)利益沖突四起,刑法的法益原理和利益衡量理論將面目全非。
機(jī)器人,特別是作為和人類一樣具有主觀能動性的群體,將會是一種新型的人類犯罪危險(xiǎn)來源,由犯罪引發(fā)的失控場面只會一次次地凸顯人類如今的想象力太過于匱乏,例如發(fā)生智能機(jī)器人大面積地強(qiáng)奸人類、侵犯商業(yè)秘密而終結(jié)各人類巨頭企業(yè)運(yùn)營、掌控國家秘密而瞬間顛覆國家政權(quán)、完全操縱人類證券市場等這種匪夷所思的危害事件。[1-5]而到時(shí)候作為回應(yīng)公共危險(xiǎn)源的最強(qiáng)措施——刑法,將不再是人類單獨(dú)制定或修改,而是人工智能將和人類一樣,成為獨(dú)立自主的立法者,會與人類一道,自然會將自己的同類列為刑事責(zé)任主體。例如美國人工智能刑事責(zé)任研究者Gabriel Hallevy假想的案例:暴風(fēng)雨中,人類飛行員決定停止前行而返航,但AI飛行員認(rèn)為人類飛行員正在妨礙自己執(zhí)行到達(dá)目的地的任務(wù),于是啟動安全座椅將人類飛行員殺害。據(jù)此,人類現(xiàn)如今已深知智能機(jī)器人會脫離人類控制以主體身份去實(shí)施傷害人類社會的行為,危及人類生存,那么,與其等待其出現(xiàn)后人類拼命解決自身生存危機(jī)[19]1261,還不如在現(xiàn)如今機(jī)器人還未出現(xiàn)的時(shí)候,直接禁止生產(chǎn)、制造這種機(jī)器人,全面禁止對人工智能技術(shù)的濫用[20]。如果今后科技已經(jīng)生產(chǎn)、制造出程序、軟件或與此相當(dāng)?shù)目萍嘉锲?,也?yīng)將其作為與槍支、彈藥、爆炸物、假幣、毒品、宣揚(yáng)恐怖主義極端主義的物品等類似的違禁物品,予以嚴(yán)厲禁止和堅(jiān)決查處。
人工智能語境下探討是否可以將其規(guī)定為刑事責(zé)任主體,這是一個(gè)偽命題。因?yàn)槊鎸Ψ氯斯ぶ悄荏w,最尖銳棘手的刑法難題,不是可不可以成為刑事責(zé)任主體的問題,而是應(yīng)不應(yīng)該的問題。因?yàn)楦鶕?jù)法律抑制的立法技術(shù),既然刑法可以將單位擬制、虛構(gòu)為法律主體,那么,未來將智能機(jī)器人也擬制為刑法主體,在立法上是很容易的事情。而且,刑法中的責(zé)任,除了道德責(zé)任外,還有解釋為包括因果責(zé)任,即客觀意義上的責(zé)任,從因果責(zé)任角度,人工智能體也可以作為歸責(zé)主體,畢竟立法者的正當(dāng)權(quán)威地位,使得立法者有權(quán)力做如此解釋。但此種立法,只突顯了刑法的后現(xiàn)代性、前衛(wèi)性、擴(kuò)張性,與現(xiàn)行刑法所具有的傳統(tǒng)性、保守性、謙抑性背道而馳?;诖?,本文為在這個(gè)“先者淺探”的神秘領(lǐng)域堅(jiān)守現(xiàn)行刑法的特性而主張:如果人工智能體產(chǎn)生危害結(jié)果,應(yīng)無需經(jīng)過刑事訴訟程序,而應(yīng)像處置動物或違禁品一樣,由主人、警察或相關(guān)有權(quán)者私下“刪除數(shù)據(jù)、修改程序或永久銷毀”[1-5],即用行政法予以規(guī)制,而無需由具有傳統(tǒng)性、穩(wěn)健性、保守性、謙抑性的刑法予以規(guī)制,更不應(yīng)將智能機(jī)器人列為刑事責(zé)任主體, 而是應(yīng)和克隆人一樣,也通過行政手段予以解決。而且,如果將來人類開發(fā)出完全可以替代人類的機(jī)器人軟件,我國刑法應(yīng)禁止行動人工智能體、自主人工智能體等低級人工智能體安裝該軟件。
人工智能能否成為刑事責(zé)任主體、是否具有刑事責(zé)任能力的問題,為人們開始重新審視、回顧、反思刑法中的傳統(tǒng)責(zé)任、人格及其背后的罪責(zé)理念提供絕佳機(jī)會。而下文在假設(shè)我國當(dāng)前已經(jīng)將智能機(jī)器人列為刑事責(zé)任主體后,發(fā)現(xiàn)該假設(shè)論斷缺乏合理性,應(yīng)予以否定。
假如我們將智能機(jī)器人類比為精神病人,其刑事責(zé)任能力的判斷標(biāo)準(zhǔn),應(yīng)包括工程學(xué)標(biāo)準(zhǔn)和法學(xué)標(biāo)準(zhǔn),其中工程學(xué)標(biāo)準(zhǔn)是實(shí)踐中的客觀能力,根據(jù)機(jī)器人客觀現(xiàn)實(shí)的行為來推斷;而法學(xué)標(biāo)準(zhǔn)是認(rèn)識能力和辨認(rèn)能力,以此判斷是否存在主觀犯罪心理狀態(tài),例如主張人工智能可以直接承擔(dān)刑事責(zé)任的學(xué)者認(rèn)為,人工智能(AI Agent)理所當(dāng)然滿足犯意要件,即完全可以在傳統(tǒng)的主觀能動譜系中,增設(shè)一個(gè)對刑法有關(guān)感知能力的、新的主觀能動者(agent),即人工智能能動者(AI Agent)。[21]但這種理所當(dāng)然的推斷,并不具有說服力,因?yàn)榉敢獗旧碇淮嬖谟凇澳茏饕蛑恕?Human Agent)的頭腦中,即使是獨(dú)立承擔(dān)刑事責(zé)任的法人,其前提條件、具體構(gòu)成以及實(shí)現(xiàn)方式,皆與“能作因之人”的頭腦緊密聯(lián)系,而人工智能是在模仿人腦的情況下,完全獨(dú)立于人腦而存在,與人腦無緊密聯(lián)系。假如我們將智能機(jī)器人類比為未成年人,那么其刑事責(zé)任能力的判斷標(biāo)準(zhǔn)應(yīng)該以智能機(jī)器人的發(fā)達(dá)成熟程度來判斷。這相當(dāng)于將人工智能研發(fā)設(shè)計(jì)者、編程者或使用者等當(dāng)作人工智能的父母。與人類子嗣一樣,作為子嗣的人工智能并不受父母的完全控制,更不是父母的財(cái)產(chǎn),但在其未足夠發(fā)達(dá)成熟時(shí),其研發(fā)設(shè)計(jì)者、編程者等相關(guān)人員也應(yīng)承擔(dān)刑事責(zé)任??墒桥袛嗥浒l(fā)達(dá)成熟程度或已成年的標(biāo)準(zhǔn)是什么?這至今是一個(gè)空白。假如將智能機(jī)器人類比為刑法上的“單位”,可是我國缺乏如公司法、事業(yè)單位機(jī)關(guān)團(tuán)體法等相應(yīng)的經(jīng)濟(jì)、民事、行政法規(guī)以確定智能機(jī)器人具體應(yīng)完成哪些行政審批手續(xù)才能獲得主體資格。而且,公司的意愿形成及表達(dá)仍是由自然人來決定,而如果智能機(jī)器人是和公司一樣是一種法律擬制,那么智能機(jī)器人的意愿形成及表達(dá)是否也仍是由自然人來決定的,這本身還有待研究。[22]最后,假如我們將智能機(jī)器人類比為動物,那么其更無需承擔(dān)刑事責(zé)任。
當(dāng)機(jī)器人的犯罪能力與人類相當(dāng)時(shí),的確可以成為刑事責(zé)任主體。但是,如果機(jī)器人會不斷地自我學(xué)習(xí),通過獲得提升自我的公開資源代碼自動編程,使得其犯罪能力超越自然人,并遠(yuǎn)遠(yuǎn)高于自然人,那么機(jī)器人不應(yīng)具有犯罪主體資格,因?yàn)闄C(jī)器人不是簡單地?fù)碛泻妥匀蝗艘粯拥姆缸锬芰Γ蔷哂袣缛祟惖娜蚍缸锬芰?,對于這種“超人類”種群,國別性、地域性極強(qiáng)的刑法,完全無力應(yīng)對與防范其反人類之全球罪行之風(fēng)險(xiǎn)。
人工智能體的研究、發(fā)展,具有秘密性,日常生活中可見的物理基礎(chǔ)設(shè)施也太少,執(zhí)法機(jī)關(guān)難以拘留或逮捕到具體的實(shí)體。同時(shí),由于人工智能體的配件組成部分的具體生產(chǎn)過程也比較離散,如果追究各個(gè)主要配件的主要責(zé)任,也將顯得特別荒唐。即使將智能機(jī)器人本身列為刑事責(zé)任主體,其境遇也將會與單位犯罪一樣,理論正當(dāng)性一直飽受爭論,司法適用率也偏低。另外,現(xiàn)有刑法是為人類以及人類結(jié)合體(單位)量身打造,制定修改時(shí)從未考慮過增設(shè)晦澀難懂的、新的規(guī)制主體,因此,對其予以前瞻性的事前刑事規(guī)制,本身極其困難。[23]356
對人工智能追究刑事責(zé)任,僅具有理性的認(rèn)識能力和辨認(rèn)能力還不夠,還應(yīng)考慮對其懲罰是否具有威懾力,是否能夠預(yù)防犯罪,這要求人工智能可理解懲罰意義,自身可以產(chǎn)生罪責(zé),即如果要對智能機(jī)器人施加刑事制裁,那么刑事制裁應(yīng)有可能喚起智能機(jī)器人真誠懺悔、道歉,并自我反省、自我清算,以求寬恕。但是智能機(jī)器人沒有情緒、情感、快樂痛苦等欲望機(jī)制,無法真誠悔罪。另外,即使在定罪階段不需判斷這些欲望機(jī)制要素,但在后續(xù)的量刑階段、刑罰執(zhí)行裁量階段等必定需要考慮到這些因素。歸根到底,目前還只有道德人類才會理解懲罰的報(bào)應(yīng)、教育、表達(dá)、威懾和預(yù)防等功能,只有直接通過人類來實(shí)現(xiàn)刑罰目的。例如如今對單位施以罰金刑,但單位的財(cái)產(chǎn)事實(shí)上最終仍歸屬于股東或具體的個(gè)人,法人的懲罰后果也最終是由單位所有成員承擔(dān),還是要通過人類來實(shí)現(xiàn)刑罰目的。而主張直接問責(zé)于機(jī)器人,要求其直接承擔(dān)刑事責(zé)任的學(xué)者,一般提倡機(jī)器人刑法,[10]174認(rèn)為應(yīng)將機(jī)器人擬制為具有法律人格,機(jī)器使人類從責(zé)任負(fù)擔(dān)中解放出來。但是事實(shí)上,在實(shí)際的運(yùn)轉(zhuǎn)中,智能機(jī)器人會產(chǎn)生一些獨(dú)特的需求,從而改變?nèi)祟悶槠渲贫ú⒁笃渥袷氐男谭ㄒ?guī)則和原則,因此,處罰機(jī)器人自身無法實(shí)現(xiàn)現(xiàn)有刑法目的,沒有任何意義。[24]
一般來說,判斷行為人是否應(yīng)該承擔(dān)刑事責(zé)任,會考慮其自主意識和道德能力。有學(xué)者主張道德罪責(zé)完全取決于個(gè)人的罪責(zé)意識,取決于良知和自我意識[25];但有學(xué)者不把自由意識置為責(zé)任概念的基礎(chǔ),而認(rèn)為應(yīng)縝密考察該智能機(jī)器人是否具有理解該行為相關(guān)的理由、規(guī)范、關(guān)聯(lián)行為的能力,[26]268即是否具有反思自己的道德價(jià)值和道德信仰的道德能力,是否是“知其不可為而為之”[27],是否存在違法性認(rèn)識和期待可能性,即非難可能性。[28]但未來的智能機(jī)器人,并不會遵守人類的道德,也不會遵守作為最強(qiáng)大的社會控制力、以人類道德為基礎(chǔ)的刑法,因此難以服從人類法律。[19]1266例如,通過研究歐洲人權(quán)法院案件中人工智能如何判決的問題,科學(xué)家發(fā)現(xiàn),在定罪的最終階段,人類經(jīng)常是根據(jù)道德方面的因素來定罪,而人工智能只能根據(jù)法律,而不是道德論斷定罪。[29]134據(jù)此,目前保守、可靠、安全的規(guī)制之策,還是只應(yīng)對人類予以一定程度的道德責(zé)難,例如行政法上要求智能機(jī)器人科技研究人員,承擔(dān)前瞻性責(zé)任,即對人工智能研究的目標(biāo)實(shí)現(xiàn)、方向與可能產(chǎn)生的社會影響有著清晰全面的認(rèn)識,對人工智能的參數(shù)、行為模式、行為范圍、行為能力的提前設(shè)定控制,否則,將對科技研究人員予以道德責(zé)難,追究相應(yīng)行政責(zé)任。[30]
經(jīng)過漫長的歷史實(shí)踐,行為人構(gòu)成犯罪所需的罪責(zé)要件之滿足,特別需要行為人具有獨(dú)特的道德判斷能力和對自己行為的操控,該罪責(zé)理念世世代代地傳承著人類獨(dú)特的道德判斷。因而,現(xiàn)代刑法將自然人以及14世紀(jì)出現(xiàn)的、作為“自然人集合體”的單位,列為罪責(zé)主體,飽含著人類受眾所承認(rèn)的傳統(tǒng)經(jīng)典集體觀念和歷史體驗(yàn),而僅是20世紀(jì)50年代出現(xiàn)的人工智能的設(shè)計(jì)者、創(chuàng)造者、使用者或相關(guān)研究者等人類對人工智能主體的承認(rèn),是遠(yuǎn)遠(yuǎn)不夠的。舉例來說,作為刑事責(zé)任內(nèi)容的故意、過失、目的、明知等等,皆與人類社會經(jīng)驗(yàn)有著千絲萬縷之聯(lián)系而不可分割[6]696,而人工智能沒有、也無法具有人類集體觀念、無法體驗(yàn)世界人類歷史和感悟社會倫理道德,而其應(yīng)擁有的責(zé)任能力所要求具備的辨認(rèn)能力和控制能力,正以此為道德基礎(chǔ)和前提條件。至于有學(xué)者主張應(yīng)為人工智能專門設(shè)置新的刑罰方式:銷毀程序、程序化等,筆者認(rèn)為這些方式明顯與人類所熟知的現(xiàn)行刑罰體系和制度格格不入,直覺上這些方式應(yīng)屬于行政規(guī)制手段,放在刑罰中顯得特別突兀。
目前,完全游走于人類社會之外的智能機(jī)器人并未出現(xiàn),其出現(xiàn)還需要人類高級計(jì)算機(jī)人工智能算法、腦神經(jīng)科學(xué)、認(rèn)知心理學(xué)、網(wǎng)絡(luò)技術(shù)等有革命性的突破,而且人工智能必須經(jīng)過長期、歷史性的演進(jìn),才能逐漸被人類接受其相當(dāng)于機(jī)器人?;诖朔N現(xiàn)實(shí),現(xiàn)今刑法學(xué)界,迫切需要法理學(xué)上率先重點(diǎn)解決行動人工智能體、自主智能體的主體、人格、責(zé)任理論等法哲學(xué)問題;需要憲法學(xué)在刑法之前能解決上述兩類人工智能體是否享有各種基本權(quán)利、履行各種義務(wù)的問題,例如服兵役、納稅等等;需要作為刑法前置法的行政法針對人工智能研發(fā)者、制造者、使用者等多方主體制定《人工智能法》以解決具體行政管制問題,確保人工智能擁有安全、可靠、易于為人類所操縱、與人類的利益保持一致等特性[23]394;還需要同樣作為刑法前置法的民法解決其是否能成為民事法律關(guān)系的主體、是否具有民事主體資格和民事主體地位、是否具有民事行為能力和民事責(zé)任能力等問題。例如國外有學(xué)者指出:如果人工智能持續(xù)以現(xiàn)有速度進(jìn)步,英美國家只需集中研究普通法侵權(quán)系統(tǒng),為人工智能設(shè)計(jì)、制造、編程等內(nèi)化的成本提供機(jī)制,而不需要再去尋找其他的法律規(guī)范。[23]391