石曉琳
(西南政法大學(xué) 法學(xué)院, 重慶 401120)
在人工智能技術(shù)與應(yīng)用雙輪驅(qū)動的格局下,可能產(chǎn)生的倫理、安全問題已愈發(fā)讓人們對這一高速發(fā)展的技術(shù)心存芥蒂。人工智能醫(yī)生診斷錯誤怎樣處置?醫(yī)療外科手術(shù)機(jī)器人出現(xiàn)意外誰來承擔(dān)責(zé)任?無人駕駛汽車運(yùn)行中發(fā)生重大交通事故誰是責(zé)任主體?智能無人機(jī)因功能失靈偏離預(yù)設(shè)路徑殺死平民如何歸責(zé)?毋庸諱言,落實(shí)人工智能開發(fā)和部署過程中的權(quán)責(zé)歸屬,解決人工智能法律治理面臨的難題已迫在眉睫。就刑事法領(lǐng)域而言,明晰人工智能體是否具有刑事主體資格,能否承擔(dān)刑事責(zé)任無疑乃當(dāng)務(wù)之急。
人工智能社會化發(fā)展的同時,不排除出現(xiàn)在設(shè)計(jì)和編制的程序范圍外嚴(yán)重危害社會的情形,此時與具有刑事責(zé)任能力的自然人或法人犯罪并無二致,理應(yīng)賦予強(qiáng)人工智能體刑事主體資格,以警惕偏離良性發(fā)展軌道的人工智能技術(shù)帶來的刑事風(fēng)險。何謂強(qiáng)人工智能體,有學(xué)者認(rèn)為,無須了解人工智能本質(zhì)要素,只要在法律上對人工智能體確定劃分標(biāo)準(zhǔn)就足以確保分析與討論人工智能體的正當(dāng)性與合理性[1]。以人工智能體是否具有辨認(rèn)控制能力將其作強(qiáng)、弱人工智能體的劃分。弱人工智能體不具有獨(dú)立意志,雖可在設(shè)計(jì)和編制程序范圍內(nèi)進(jìn)行獨(dú)立判斷并作出決策,但實(shí)現(xiàn)的依然是研發(fā)者或操作者意志。當(dāng)其實(shí)施犯罪行為時,相當(dāng)于研發(fā)者或操作者實(shí)施犯罪行為的工具,學(xué)界對此基本達(dá)成共識。強(qiáng)人工智能體具有辨認(rèn)控制能力,既可在設(shè)計(jì)和編制程序范圍內(nèi)實(shí)現(xiàn)研發(fā)者、生產(chǎn)者或操作者意志,也可能超出程序范圍,進(jìn)行自主決策實(shí)現(xiàn)自身意志。當(dāng)強(qiáng)人工智能體在設(shè)計(jì)和編制程序范圍外對刑法保護(hù)的社會關(guān)系造成嚴(yán)重侵害時,將其納入刑法規(guī)制范圍順理成章。筆者將此種觀點(diǎn)歸納為“主體資格支持說”,其論證邏輯理路基本如下。
首先,表明強(qiáng)人工智能體具有自主實(shí)施危害社會行為的可能性。以具有強(qiáng)人工智能屬性的智能汽車為例,其在行駛過程中擁有比人類更加強(qiáng)大的數(shù)據(jù)采集和分析能力,能夠以較高精度識別路況與物體,信息處理能力、反應(yīng)敏捷度、對汽車操作與控制的精準(zhǔn)程度都要遠(yuǎn)遠(yuǎn)高于人類技能所達(dá)到的程度,當(dāng)智能汽車在數(shù)據(jù)采集或運(yùn)算過程中因沒有(正確)履行注意義務(wù)發(fā)生重大事故時,應(yīng)當(dāng)比照人類一般主體同等對待[2]。誠然,強(qiáng)人工智能體既可從過往“經(jīng)驗(yàn)”中汲取教訓(xùn),又可運(yùn)用算法系統(tǒng)整合成新的行為范式,但是強(qiáng)人工智能體的自主決策與意識,仍受制于研發(fā)者、操作者的介入與干預(yù)。即便認(rèn)為強(qiáng)人工智能體可能脫離人類控制,從而主張由其獨(dú)自承擔(dān)刑事責(zé)任,可曾考慮強(qiáng)人工智能體是否具有“不法意圖”或衍生對統(tǒng)治秩序的“蔑視”?是否具有可譴責(zé)性?行為客觀上具有社會危害性就足以對其予以刑事歸責(zé)?那為何將不滿14周歲的未成年人、精神病人實(shí)施的行為,缺乏故意或過失的行為排除在犯罪行為之外?
其次,將辨認(rèn)控制能力作為刑事責(zé)任的根據(jù)。盡管因無生命體,無法根據(jù)精神狀況與刑事責(zé)任年齡認(rèn)定強(qiáng)人工智能體的辨認(rèn)控制能力,亦無法根據(jù)集體意志與法定存在形式進(jìn)行認(rèn)定,但由人類設(shè)計(jì)、編制的程序使強(qiáng)人工智能體具有獨(dú)立思考與學(xué)習(xí)的能力,能夠產(chǎn)生獨(dú)立意識,在此意識支配下,程序和硬件為強(qiáng)人工智能體的辨認(rèn)控制能力提供了物理基礎(chǔ),因而可以成為刑事責(zé)任主體承擔(dān)刑事責(zé)任[3]。無法否認(rèn),刑事責(zé)任能力一般來講指向行為人的辨認(rèn)控制能力,但是,動物也具有辨認(rèn)控制能力。刑事責(zé)任主體既是犯罪行為發(fā)動者,也是刑事責(zé)任承擔(dān)者,緣何我國刑法中刑事責(zé)任主體首先必須是具有生命的自然人,而不能是動物、失去生命體征的尸體或其他人類以外之物?即便將犯罪主體排除動物等非人類創(chuàng)造物,也不能認(rèn)為具有辨認(rèn)控制能力就足以完整表述刑事責(zé)任。2003年12月,我國社會科學(xué)技術(shù)部和衛(wèi)生部聯(lián)合制定了《人胚胎干細(xì)胞研究倫理指導(dǎo)原則》明確規(guī)定“禁止進(jìn)行生殖性克隆人的任何研究”。不難發(fā)現(xiàn),如果法律不允許某種新生體入主社會生活,縱然具備辨認(rèn)控制能力,也無法納入刑法調(diào)控范圍。
再次,由強(qiáng)人工智能體承擔(dān)刑事責(zé)任符合罪責(zé)自負(fù)原則。誰犯了罪,就應(yīng)當(dāng)由誰來承擔(dān)責(zé)任。當(dāng)強(qiáng)人工智能體發(fā)展成擁有辨認(rèn)控制能力的“類人體”,并在程序編寫和定義的架構(gòu)外實(shí)施了具有嚴(yán)重社會危害性的行為,自然應(yīng)將刑事責(zé)任的承擔(dān)與刑罰的施行歸屬于強(qiáng)人工智能體本身。如果研發(fā)者或操作者在人工智能體研發(fā)或操作過程中不履行特定義務(wù),導(dǎo)致危害結(jié)果發(fā)生,研發(fā)者或操作者承擔(dān)相應(yīng)過失責(zé)任毋庸置疑,但這并不影響強(qiáng)人工智能體為自己犯罪行為“買單”——作為刑事責(zé)任主體并承擔(dān)刑事責(zé)任,否則有違罪責(zé)自負(fù)的刑法原則[4]。但是,特拉伊寧曾指出,犯罪主體只能是具有責(zé)任能力的自然人,沒有責(zé)任能力,就不存在探討刑事責(zé)任問題的空間,更加涉及不到犯罪構(gòu)成問題[5]。按照理論上通說,犯罪主體是犯罪構(gòu)成必要要件之一,沒有適格主體存在就不可能齊備犯罪構(gòu)成。司法實(shí)踐中認(rèn)定一行為是否構(gòu)成犯罪,不也是首先考量行為人是否達(dá)到刑事責(zé)任年齡、是否具備刑事責(zé)任能力嗎?不具備犯罪主體資格,能夠進(jìn)入犯罪構(gòu)成討論嗎?刑法對人工智能體主體資格、刑事責(zé)任能力并無規(guī)定的情況下,要求強(qiáng)人工智能體獨(dú)立承擔(dān)刑事責(zé)任,美其名曰“罪責(zé)自負(fù)”,實(shí)則不是違反邏輯思維順序、倒果為因嗎?
又次,法人作為擬制主體為規(guī)制強(qiáng)人工智能體提供范例。在法人刑事責(zé)任問題上,我國刑法學(xué)界一直存在肯定論與否定論兩種觀點(diǎn)。此兩種對立觀點(diǎn)之爭主要在于法人本身能否實(shí)施犯罪行為,作為受刑主體能否實(shí)現(xiàn)刑罰目的。法人沒有生命體征,現(xiàn)行刑罰制度又是圍繞自然人設(shè)立,然而法人具有自身意志的實(shí)現(xiàn)方式,雖無法承受自由刑,但可適用財(cái)產(chǎn)刑。為遏制和預(yù)防與日俱增的法人犯罪,我國1997年《刑法》總則第二章第四節(jié)專門規(guī)定的單位犯罪以及《刑法》分則中規(guī)定的大量單位犯罪已證明將法人納入刑罰處罰范圍是合理的,所以,便不能以人工智能體不具有肉體(或生命)以及現(xiàn)行刑罰制度為由將其排除刑罰處罰范圍之外[6]。畢竟,強(qiáng)人工智能體相較于法人,意志自由程度看上去似乎更強(qiáng),亦無需借助其他表達(dá)媒介,既然能夠尊重法人自由意志,何以否定強(qiáng)人工智能體刑事責(zé)任主體資格?需要指出,在法律上已人格化的法人,都有自己的決策機(jī)關(guān),由該決策機(jī)關(guān)指揮調(diào)動法人活動,決定法人活動形式與內(nèi)容,任何一個法人決策機(jī)關(guān)的意思表示就是法人意思表示。質(zhì)言之,法人犯罪是法人決策機(jī)關(guān)或主要負(fù)責(zé)人為法人利益實(shí)施的犯罪,其犯罪意志來源于自然人意志,自然人犯罪行為實(shí)現(xiàn)法人意志,此與強(qiáng)人工智能體具有可比性嗎?
最后,唯有刑法規(guī)制方可有效防控人工智能風(fēng)險。若個人或團(tuán)體不受刑法約束,公眾信心會受到嚴(yán)重?fù)p害,同樣的邏輯適用于人工智能[7]。人工智能科研力度大力推進(jìn),加之模型、算法與認(rèn)知科學(xué)研究,必然滋生新型犯罪形式,也可能導(dǎo)致傳統(tǒng)犯罪行為在數(shù)量上激增,遑論強(qiáng)人工智能體擁有人類無法企及的學(xué)習(xí)能力,甚至是堅(jiān)不可摧的鋼鐵之軀。有學(xué)者提出,應(yīng)針對人工智能特點(diǎn),“因材施刑”,重構(gòu)我國刑罰體系。根據(jù)人工智能體是否存在物理形體,將其作無形人工智能體與有形人工智能體之分,就無形人工智能體而言,對其可適用刪除數(shù)據(jù)、修改程序、刪除程序等刑罰處罰;就有形人工智能體而言,因其存在基礎(chǔ)在于軀體,參考現(xiàn)行刑法中針對自然人設(shè)立的刑罰處罰方式并無大礙[8]。似乎刑法以外的規(guī)范對強(qiáng)人工智能體無威懾力可言,只有將強(qiáng)人工智能體納入刑法規(guī)制,才能有效防控智能時代風(fēng)險,減少濫用人工智能技術(shù)現(xiàn)象發(fā)生。增設(shè)或修改刑法規(guī)范以滿足控制犯罪之需本無可厚非,問題在于,是否只要以防控風(fēng)險為目的修改刑法即為正當(dāng),控制犯罪是否刑法首要甚至唯一的價值追求。
從刑法視閾來講,界分人工智能體之意圖在于,擇定社會背景及明晰刑法定位——是否應(yīng)積極主張人工智能體刑事主體資格。法律是人類一定歷史時期的產(chǎn)物,必然受制于生產(chǎn)力發(fā)展水平。按照馬克思主義的觀點(diǎn),科學(xué)技術(shù)也是生產(chǎn)力,而且是第一生產(chǎn)力。人工智能作為搶占未來競爭高地的革命性技術(shù),不僅決定現(xiàn)有產(chǎn)業(yè)變革,同時決定人工智能市場產(chǎn)業(yè)生態(tài)和應(yīng)用規(guī)模,決定國家層面的戰(zhàn)略計(jì)劃以及法律制度。在法律上固然難以根據(jù)算法/數(shù)據(jù)的復(fù)雜性和學(xué)習(xí)/運(yùn)算能力給出精確標(biāo)準(zhǔn)區(qū)分強(qiáng)、弱人工智能,但這并不代表法律責(zé)任承擔(dān)路徑的改變可以摒棄科技原理。以國際象棋和圍棋的“人機(jī)大戰(zhàn)”為例,在業(yè)內(nèi)專業(yè)人士看來,Deep Blue和Alpha Go擊敗人類頂尖選手根本不足為奇,博弈過程中根據(jù)嚴(yán)格而明確的操作規(guī)則,只需要強(qiáng)大的策略儲存能力和快速推理能力即可輕易取勝。換句話說,Deep Blue和Alpha Go系統(tǒng)都只是模擬了人類的智慧能力[9]。離開圍棋這一固定訓(xùn)練場,Alpha Go甚至Alpha Zero 都將一無所長。然而普通民眾或非人工智能領(lǐng)域的專家,卻對這“歷史嬗變”由好奇轉(zhuǎn)生畏懼。陳忠林教授在2018年互聯(lián)網(wǎng)法律大會上所作題為“人工智能的事實(shí)定位與法律應(yīng)對”演講中也不禁發(fā)問,“在某些領(lǐng)域,計(jì)算機(jī)已經(jīng)顯示出遠(yuǎn)超于人的智能,令人細(xì)思極恐的是:有報(bào)道說,計(jì)算機(jī)已經(jīng)開始發(fā)展出自己的感情、感覺。如果這一報(bào)道是真的,一旦計(jì)算機(jī)開始察覺到痛苦,無法忍受轉(zhuǎn)而憎恨人類,我們該怎么辦?”
其實(shí),人工智能總體發(fā)展仍處于初步階段,強(qiáng)人工智能研究與應(yīng)用依然任重道遠(yuǎn)。深度學(xué)習(xí)系統(tǒng)自身架構(gòu)若非經(jīng)歷顛覆性改造,并不具備進(jìn)階為強(qiáng)人工智能系統(tǒng)的潛力。在心智哲學(xué)和認(rèn)知科學(xué)領(lǐng)域,有部分權(quán)威研究者只承認(rèn)從量子力學(xué)原理才有些許可能解決自我意識問題,如美國量子物理學(xué)家斯塔普、英國物理學(xué)家彭羅斯都提出了量子假設(shè)。西湖大學(xué)校長施一公院士、中科大副校長潘建偉院士等也都大膽猜測,人類智能的底層機(jī)理就是量子效應(yīng);雖然從量子力學(xué)效應(yīng)解釋人類智能的頂層機(jī)理仍未取得突破性成果,以致相對明確的結(jié)論暫時付諸闕如。但無論如何,除非有確鑿證據(jù)證明制造或升級這些機(jī)器的過程中,在某一關(guān)節(jié)點(diǎn)把人類情感、人類意識整合進(jìn)去,否則我們只能把“有情感的機(jī)器人”當(dāng)作一種比喻[10]。更何況目前專心致力于強(qiáng)人工智能研究的學(xué)術(shù)隊(duì)伍,世界范疇內(nèi)不過數(shù)百人,與鉆研弱人工智能的浩大規(guī)模相比,可謂九牛一毫。特定技術(shù)流派發(fā)展速度往往與從事該領(lǐng)域研究的人數(shù)成正相關(guān),在強(qiáng)人工智能研究隊(duì)伍無法迅速立即擴(kuò)充的情況下,很難有依據(jù)支撐:短期內(nèi)強(qiáng)人工智能可以取代弱人工智能,成為人工智能研究的主流[11]。一個通行看法是:縱然輔之以更高性能的計(jì)算平臺和更大規(guī)模的大數(shù)據(jù),也避免不了徘徊在量變階段,我們對自身智慧能力的分析尚且停留在初級進(jìn)程,在得以領(lǐng)悟智能機(jī)理之前,不可能制造出強(qiáng)人工智能。理解人類大腦運(yùn)作的智能機(jī)理是腦科學(xué)的終極性問題,絕大多數(shù)腦科學(xué)專家都將此視為一個數(shù)百年甚至千年都無從解決的問題[12],更遑論強(qiáng)人工智能研究。
回顧人類刑罰史,罪責(zé)與刑罰并非由人類所壟斷。在過去數(shù)個世紀(jì),刑法秩序亦非全然以人類為中心,甚至存在過許多非人類實(shí)體,法人作為犯罪主體也是人們思想觀念更新、商品經(jīng)濟(jì)發(fā)展到一定階段的產(chǎn)物,是刑法為適應(yīng)社會發(fā)展需要而采取的立法技術(shù)。但從人工智能發(fā)展軌跡來看,尚無賦予其獨(dú)立人格的現(xiàn)實(shí)必要性。如果賦予強(qiáng)人工智能體刑事責(zé)任主體資格,勢必先將其作為法律意義上獨(dú)立的個體,意味著強(qiáng)人工智能體有資格與人類平等交易、資源共享;更加注重人工智能體而非人類,不僅動搖人類中心視角,而且威脅到人工智能時代的核心法價值——安全。此外,出于趨利避害的本能,研發(fā)者、操作者可能推卸監(jiān)督管控的社會責(zé)任,與研發(fā)人工智能技術(shù)、提升人類福祉的初衷背道而馳。
僅從歷史發(fā)展必然性尚不足以質(zhì)疑“主體資格說”,還必須從刑法理論上對其回應(yīng)。有學(xué)者認(rèn)為,刑事責(zé)任能力是對自己行為性質(zhì)、意義和后果的認(rèn)識,在此認(rèn)識基礎(chǔ)上得以控制并對自己行為承擔(dān)責(zé)任的能力,其本質(zhì)內(nèi)容和具體表現(xiàn)就是辨認(rèn)能力和控制能力[4],當(dāng)人工智能體具有辨認(rèn)控制能力即可承擔(dān)刑事責(zé)任。然而,根據(jù)我國《刑法》第18條對特殊人員刑事責(zé)任能力的規(guī)定來看,辨認(rèn)能力和控制能力顯然是作為刑事責(zé)任主體精神層面的考量要素,但人工智能體界分關(guān)鍵在于對人類智慧探索、理解和模擬的程度,界分意義乃權(quán)衡是否滿足刑事責(zé)任承擔(dān)條件,精神層面的考量要素不能等同于刑事責(zé)任的內(nèi)在依據(jù)。只有通過客觀外在行為,將行為人犯罪前、犯罪中、犯罪后心理狀態(tài)表征出來的主觀惡性,才能作為刑事責(zé)任最本源性的內(nèi)容。
回顧刑法學(xué)說史,主觀惡性理論經(jīng)歷了從無知到睿智的演變過程。刑事古典學(xué)派從客觀主義、自由意志論出發(fā),認(rèn)為犯罪的大小輕重依所實(shí)施的犯罪行為大小輕重而定,刑罰亦應(yīng)根據(jù)犯罪行為客觀危害情況來決定。意大利刑法學(xué)家貝卡利亞首先提出不能以犯罪人意圖作為衡量犯罪的標(biāo)尺,否則,“不僅要為每個公民制定一部特別法典,而且要為每個罪行頒布一項(xiàng)新的法律”[13]。這種無視行為人心理活動,完全以客觀標(biāo)準(zhǔn)來測定對社會的危害程度明顯忽視了行為人主觀方面,行為刑法制度“忘記了罪犯的人格,而僅把犯罪作為抽象的法律現(xiàn)象進(jìn)行處理。這與舊醫(yī)學(xué)不顧病人的人格,僅把疾病作抽象的病理現(xiàn)象進(jìn)行治療一樣”[14]。刑事實(shí)證學(xué)派從主觀主義、意思決定論出發(fā),提出“應(yīng)受處罰的不是行為而是行為人”,認(rèn)為犯罪行為是犯罪人主觀惡性的征表,它以犯罪人性格、惡性、反社會性為標(biāo)準(zhǔn)個別地量定刑罰[15]。加羅法洛在關(guān)于犯罪構(gòu)成的論述中使用了“惡性”一詞,他認(rèn)為,所有犯罪可以分為兩大類:一類是觸犯惻隱之心的犯罪,一類是觸犯正直之心的犯罪;犯罪是一種對社會有害并且至少侵害惻隱之心或正直之心其中一種情感的行為,而罪犯則是在這些情感方面薄弱的人,至少缺乏兩種情感的一種。刑事實(shí)證學(xué)派雖然一味強(qiáng)調(diào)犯罪人的人身危險性,忽視犯罪行為因而失之片面,但是重視不同犯罪人的主觀惡性無疑是歷史的進(jìn)步。
刑罰懲罰的對象與其說是行為人,毋寧是懲罰有意對抗法秩序的主觀罪過支配下現(xiàn)實(shí)化為破壞社會關(guān)系的主觀惡性。什么是主觀惡性,概括起來在刑法理論界有兩種代表性表述。一種觀點(diǎn)認(rèn)為,“無論是大陸法系國家刑法理論中的有責(zé)性,還是社會主義刑法理論中的罪過,抑或是英美刑法理論中的犯意,就其本質(zhì)而言,都是一個主觀惡性的問題”[16]。另一種觀點(diǎn)認(rèn)為,“主觀惡性是指存在于犯罪人身上的在犯罪前、犯罪中和犯罪后所表現(xiàn)出來的惡劣品性,主觀惡性雖然是一種屬于主觀范疇的心理現(xiàn)象,但它必須要經(jīng)過一系列如犯罪前的表現(xiàn)、犯罪中的手段方式、犯罪后的悔改表現(xiàn)等客觀事實(shí)表現(xiàn)出來”[17]。我們贊同第二種觀點(diǎn),主觀惡性不僅包括行為人對自己所實(shí)施行為導(dǎo)致危害結(jié)果的故意或過失的心理態(tài)度,更偏重在這種心理態(tài)度驅(qū)使下,行為人對法秩序和社會關(guān)系的蔑視與破壞,因此,主觀惡性是主觀見之于客觀的惡劣品質(zhì)。行為人在何種心理狀態(tài)下實(shí)施的客觀上危害社會的行為才能夠構(gòu)成犯罪,從犯意表示、犯罪預(yù)備、著手實(shí)行到完成犯罪行為,甚至是犯罪既遂后行為人為逃避法律制裁而采取的一系列手段或是犯罪后的悔罪表現(xiàn),都是行為人主觀惡性的折射。主觀惡性貫穿于行為人犯罪始終。在直接故意犯罪中,一方面,行為人有意識地漠視法律規(guī)定進(jìn)而生成和展開整個犯罪過程,并輔之以認(rèn)識、意志與情感作用,實(shí)施符合犯罪目的之行為;另一方面,行為人主觀惡性影響和制約著犯罪手段和方式的選擇。在間接故意犯罪中,雖沒有明確的內(nèi)在動因蠱惑行為人積極追求發(fā)生危害結(jié)果,但危害結(jié)果的發(fā)生顯然是在行為人認(rèn)識到結(jié)果發(fā)生可能性時,依然聽之任之、采取不排斥也不阻止的態(tài)度,這種支配和控制行為人的心理因素為刑法所不容。在過失犯罪中,行為人原本能夠正確選擇自己行為,避免危害結(jié)果發(fā)生,但由于行為人對法秩序和社會利益嚴(yán)重輕視,或過高估計(jì)自己能力和客觀有利條件,模糊化不利條件和現(xiàn)實(shí)困難,這種性格缺陷或意志缺陷應(yīng)予以法律制裁。因此,僅根據(jù)客觀行為及其危害裁量刑罰并不周延,只有將行為人的行為與行為人統(tǒng)一起來的主觀惡性,才是刑法真正規(guī)制的對象。申言之,懲罰犯罪就是懲罰和改造犯罪人主觀上的反社會意識,防止它們衍生為支配犯罪行為的主觀罪過,以此實(shí)現(xiàn)刑罰的特殊預(yù)防目的;同時震懾社會上其他具有反社會意識的人,以達(dá)到刑罰一般預(yù)防之目的。
人工智能體欠缺人格缺陷,從倫理或法律上對其譴責(zé)都毫無意義。人工智能技術(shù)的核心在于算法,算法設(shè)計(jì)決定著人工智能體“行為”。對于普通大眾和非人工智能領(lǐng)域的專家而言,算法是一個“黑箱”,充其量能讓人們看到它造成的結(jié)果,卻無法使運(yùn)作過程透明化,更不用說行為表現(xiàn)出的反社會趨向。刑罰懲罰的對象實(shí)則是齊備構(gòu)成要件的行為所表征出來的主觀惡性,循此邏輯,能否承擔(dān)刑事責(zé)任,不僅關(guān)涉辨認(rèn)控制能力,更要斟酌主觀惡性狀況,人工智能體無法通過生活閱歷了解是非善惡,欠缺支配行為的反社會意志。而對算法設(shè)計(jì)者則需要制定相關(guān)規(guī)則加以約束,要求設(shè)計(jì)者在出現(xiàn)可疑后果時使用自然語言解釋算法設(shè)計(jì)原理,并追究其相應(yīng)責(zé)任,顯然是一種治本之策[18]。
鑒于對人工智能的深度憂慮,有些人錯誤地認(rèn)為30年內(nèi)強(qiáng)人工智能將統(tǒng)治世界,人類將成為人工智能的奴隸如此等等。事實(shí)上,當(dāng)前人工智能處于從“不能用”到“可以用”的技術(shù)拐點(diǎn),但是距離“很好用”還有數(shù)據(jù)、能耗、泛化、可解釋性、可靠性、安全性等諸多瓶頸[19]。然而不可否認(rèn),這是一個既不能證明真也不能證明偽的命題。既然無法確證賦予強(qiáng)人工智能體刑事責(zé)任主體資格是否公正,與其被動等待技術(shù)事實(shí)的支撐,因法律滯后性面臨科技無情的嘲笑,不如明確規(guī)定:強(qiáng)人工智能體不具有刑事主體資格。
強(qiáng)人工智能體欠缺犯罪主觀方面要件。我國刑法理論將行為齊備犯罪構(gòu)成作為認(rèn)定犯罪的唯一標(biāo)準(zhǔn),如果賦予強(qiáng)人工智能體刑事責(zé)任主體資格,假定充足犯罪客觀要件,成立犯罪也要求強(qiáng)人工智能體具有規(guī)范意義上的故意或過失,甚至是特定目的或動機(jī)。而人類以外之物不可能基于生活經(jīng)驗(yàn)理解反映社會倫理的常識、常理、常情,無法產(chǎn)生影響或支配“行為人”實(shí)施犯罪行為的心理因素。筆者認(rèn)為,人工智能體能否具有規(guī)范層面認(rèn)識,取決于研發(fā)者、設(shè)計(jì)者是否將規(guī)范內(nèi)容及認(rèn)同并尊重規(guī)范的決意植入人工智能系統(tǒng)。即便是推崇“主體資格支持說”的學(xué)者在論及道德問題時也表示,在強(qiáng)人工智能體設(shè)計(jì)研發(fā)之初,便應(yīng)將人類基本道德規(guī)范以算法形式植入其中,并在其深度學(xué)習(xí)過程中反復(fù)修正,避免出現(xiàn)強(qiáng)人工智能體自以為“道德”事實(shí)上卻已嚴(yán)重背離人類道德觀念的情形。如果強(qiáng)人工智能體“道德算法”出現(xiàn)問題,其研發(fā)者、生產(chǎn)者或操作者應(yīng)綜合主觀過錯與客觀危害結(jié)果承擔(dān)相應(yīng)責(zé)任。該論者又表示,人工智能體完全有能力在設(shè)計(jì)和編制的程序范圍外基于獨(dú)立意志自主實(shí)施危害社會的行為[3]。但是,如果人工智能體憑借自由意志在設(shè)計(jì)和編制的程序范圍外實(shí)施的行為并非刑法規(guī)定的犯罪行為,根據(jù)罪刑法定原則,刑罰權(quán)無用武之地;如果其行為確實(shí)符合法律規(guī)范嚴(yán)重危害社會,為何研發(fā)者和設(shè)計(jì)者未將此部分規(guī)范植入人工智能系統(tǒng);假設(shè)研發(fā)者、生產(chǎn)者或操作者無任何防范與監(jiān)督管理過失,僅僅是人工智能體自我進(jìn)化后認(rèn)識到其與人類利益存在根本性沖突繼而肆意妄為,此時,適用于人類的刑法規(guī)范何以有效制止危機(jī)。是以,只有那些會思維、能創(chuàng)造,依靠自身進(jìn)化出規(guī)范意識并以人類核心利益為價值追求的強(qiáng)人工智能體,在犯罪故意或過失支配下實(shí)施的嚴(yán)重危害社會的行為才可能成立犯罪,而這種可能性是否存在使人疑信參半。
不具備人格者,無處罰之必要。成立犯罪需具備不法與責(zé)任,不法是對客觀行為的描述,不法行為人能否承擔(dān)責(zé)任,還要看行為人是否具有責(zé)任能力或是否具備人格。欠缺人格則意味著缺少非難可能性的前提,自然沒有刑罰處罰之必要。根據(jù)人格責(zé)任論,第一層次的責(zé)任是行為責(zé)任,重視行為人所實(shí)施的個別行為,必須從該行為人人格主體性的現(xiàn)實(shí)化角度去把握行為責(zé)任,換句話說,非難行為人是對行為背后存在的受環(huán)境與素質(zhì)制約的、由行為人努力形成的人格態(tài)度進(jìn)行非難;第二層次考慮的是人格形成責(zé)任,分析行為人過去的人格形成問題,以便把握現(xiàn)實(shí)行為中行為人的人格態(tài)度,人格責(zé)任實(shí)際是行為責(zé)任與人格形成責(zé)任的統(tǒng)一體[20]。人格責(zé)任論似乎將人格作為行為人是否存在責(zé)任的評價對象,卻又認(rèn)為,凡具有責(zé)任能力的主體基于故意或過失實(shí)施違法行為,都體現(xiàn)行為人的主體人格,這無異于將人格視作主觀罪過,混淆了人格與主觀罪過的區(qū)別[21]。在人格責(zé)任論下,刑法僅就行為人有責(zé)形成的部分進(jìn)行非難,排除了由素質(zhì)、環(huán)境宿命形成的那部分,雖然就人工智能體而言,容易根據(jù)研發(fā)者設(shè)計(jì)編制的程序范圍區(qū)分宿命形成的人格與有責(zé)形成的人格。然而,一方面,人格是個體在社會化過程中形成的給人以特色的心身組織,具有整體性、積淀性和可測性特點(diǎn)[22]。關(guān)注人格因素,意在預(yù)測行為人再犯的可能性,對人工智能體而言基本不存在再犯可能性擔(dān)憂,只要研發(fā)者、算法設(shè)計(jì)者改變程序就可杜絕人工智能體再次實(shí)施相同或相近的危害行為。另一方面,關(guān)注人格形成原因的同時,人格責(zé)任論卻將人格與罪過混淆,對人格本身置之不顧,使人格在定罪中并未實(shí)質(zhì)性占得一席之地,依然要根據(jù)實(shí)施行為時故意或過失的主觀心理。顯然,人工智能體難以成為責(zé)任非難對象。
刑罰目的基于刑罰體系,猶如中樞神經(jīng)基于人體。我國刑法理論上關(guān)于刑罰目的眾說紛紜,有純粹主張報(bào)應(yīng)、預(yù)防或改造的一元論,兼采懲罰與教育改造/預(yù)防和消滅犯罪/懲罰和預(yù)防的二元論以及懲罰、預(yù)防和教育的三元論,絕對報(bào)應(yīng)論已基本退出歷史舞臺,較為主流的觀點(diǎn)是持特殊預(yù)防說與一般預(yù)防說[23]。在筆者看來,將預(yù)防犯罪理解為刑罰目的毋庸置疑,但作為一種借助強(qiáng)制和痛苦的“必要的害惡”,刑罰不可置否具有報(bào)應(yīng)目的。從存在論意義上講,刑罰目的必須圍繞犯罪來確立,即先有犯罪行為才可以發(fā)動刑罰,因此存在論意義上的刑罰目的,必須圍繞犯罪來確立,報(bào)應(yīng)刑是其題中之義;從價值論意義上,刑罰視閾必須觸及到犯罪背后更深層次的追求,懲罰犯罪是為了少罰、不罰,預(yù)防犯罪之目的不言而喻[24]。因此,就懲罰犯罪而論,刑罰通過剝奪或限制犯罪人一定權(quán)益以實(shí)現(xiàn)其報(bào)應(yīng)目的。“否定刑罰的痛苦特征,無異于否定刑罰概念本身。”[25]目前人工智能技術(shù)研發(fā)與應(yīng)用主要聚焦于形式邏輯與數(shù)理邏輯等活動,直覺、靈感和非理性等認(rèn)知思維卻都被排除在外,人工智能體對于人類感官的模擬仍處于機(jī)械化階段,無法產(chǎn)生完整的人類感覺和思維,難以具有感知痛苦的能力,更無法在犯罪之樂與刑罰之苦中作出“理性”抉擇[26],將其納入刑罰處罰范圍,無法實(shí)現(xiàn)刑罰報(bào)應(yīng)和特殊預(yù)防的目的。人工智能體雖具有無比強(qiáng)大的邏輯運(yùn)算能力,但與人腦思維目的性、容錯性與能動性不同,其低劣的行動力不可能具備人類所具有的意志性與創(chuàng)造性,更無法從彼智能體犯罪受刑的痛感中受到震懾。再者,如若人工智能進(jìn)化到所有領(lǐng)域都超出人腦維度限制,類似于《復(fù)仇者聯(lián)盟》中的奧創(chuàng),人類又憑什么斷定在我們創(chuàng)造的法則面前,他們甘愿俯首稱臣。將人工智能體納入刑罰處罰范圍,不僅刑罰目的徒勞無功,刑罰不可避免性亦將被破壞殆盡。
獨(dú)立法律人格是制裁或懲罰的前置性條件。法律人格是行使法律權(quán)利、履行法律義務(wù)、承擔(dān)法律責(zé)任的資格。2017年10月25日,在沙特阿拉伯舉行的未來投資計(jì)劃會議上,由Hanson Robotics公司研發(fā)的機(jī)器人“索菲婭”成為首個被授予沙特阿拉伯國籍的機(jī)器人[27]。我們不得不審視人工智能體的法律定位。人工智能技術(shù)日漸成熟,與人類之間互動日趨頻繁,有學(xué)者認(rèn)為,否認(rèn)人工智能體主體地位,難以遏制奴役、濫用、對硬件進(jìn)行物理攻擊或其他殘酷虐待人工智能體的消極行為[28]。但是,尊嚴(yán)并非主體特權(quán),作為法律客體的人工智能體,也有資格要求人類尊重與保護(hù)?!叭绻少x予人工智能體法律主體地位,將顛覆法律世界的主客體二元結(jié)構(gòu),并深刻影響人工智能時代人類法律的基本理念與運(yùn)行秩序。”[29]其一,人工智能體雖然具備深度學(xué)習(xí)能力,但只能是基于人類設(shè)計(jì)的特定遺傳算法、模糊邏輯等各式算法理論完成特定任務(wù)。其二,如果賦予人工智能體獨(dú)立法律人格,那么是否同時賦予其人格權(quán)、財(cái)產(chǎn)權(quán)并喚醒其權(quán)利意識,對于智能相似“性格”趨同的人工智能體該如何個性化管理;人工智能體能否提起撤銷之訴,實(shí)體法與程序法又將如何妥善銜接。其三,與具有法律人格的自然人能夠表現(xiàn)出價值判斷與道德感不同,人工智能體的智慧僅僅是一種演繹智慧,只能對數(shù)據(jù)進(jìn)行無理性、無情感的僵化處理[29]。同沒有善惡觀念的人工智能體顯然不能進(jìn)行倫理上的溝通,因?yàn)樗鼰o法對非難予以回應(yīng)??v觀人工智能體特質(zhì),又鑒于強(qiáng)人工智能時代不是說來就來,瑪格麗特·博登也認(rèn)為,人工智能沒有很多人假設(shè)的那么有前途,而且人工智能一直專注于智力理性,卻忽略情感智能,更別提心智了,強(qiáng)人工智能前景看起來暗淡無光[30],無需延展現(xiàn)有法律制度體系,賦予人工智能體法律主體資格。
效益價值的內(nèi)在規(guī)定,構(gòu)成對刑法修改的應(yīng)然要求。刑法效益之價值,并非是對刑法控制犯罪效果的簡單追求,更不是一味強(qiáng)調(diào)少用刑罰,而是以最少的刑法成本實(shí)現(xiàn)最大的控制犯罪的效果。刑法在追求打擊犯罪防衛(wèi)社會效果的同時定然會滋生消極效果,如若消極效果大于其積極效果,那么動用刑法不但無效益可言,甚至可謂失之東隅。盡管從理論上講,國家應(yīng)該不惜成本確保刑法運(yùn)行,但是一旦刑法運(yùn)行成本過于高昂,譬如,在不需要動用刑法遏制的情況下動用了刑法,抑或是某種行為雖然具有相當(dāng)程度的危害性,但同時具有偶發(fā)性,甚至僅僅作為特例呈現(xiàn),依靠道德禁忌、民事、經(jīng)濟(jì)或行政制裁足以調(diào)整,不動用刑法也不至于有規(guī)律地頻繁發(fā)生以至于蔓延,凡此種種情形下,動輒動用刑法必然對權(quán)益保護(hù)效果大打折扣,超出社會承受力[31]。人工智能作為攸關(guān)國家戰(zhàn)略部署、經(jīng)濟(jì)民生導(dǎo)向的新興技術(shù),如果過早過多以刑法介入,勢必增加研發(fā)投入成本、縮小應(yīng)用示范空間,重創(chuàng)科技活力。因此,刑法對人工智能技術(shù)及產(chǎn)品的規(guī)制應(yīng)當(dāng)采取審慎態(tài)度,保持理性與謙抑之姿態(tài),發(fā)掘刑法語言之彈性,涵攝時代視角解釋刑法條文,當(dāng)民事、經(jīng)濟(jì)或行政懲罰不足以維護(hù)社會秩序時,才以刑法作為最后手段對其進(jìn)行矯正。
人工智能雖正在挑戰(zhàn)人類主體性,卻也呈現(xiàn)出無法克服的局限性。無論是內(nèi)容抑或形式,人工智能對于思維能力的延伸總是無法超越人類意識的整體性。目前最先進(jìn)的ANN(Artificial Neural Network,“人工神經(jīng)網(wǎng)絡(luò)”的簡稱)只能模擬大鼠的31 000個神經(jīng)元網(wǎng)絡(luò),而人腦的神經(jīng)元多達(dá)860億個,對于人腦的整體模擬只是攀登珠峰的第一步;另一方面,人工智能只會以固有的價值尺度去衡量事物,無法依據(jù)主客體與環(huán)境變化的需要不斷去選擇和實(shí)現(xiàn)新的價值[26]。效仿人類情感更是人工智能技術(shù)難以攻克的難題,人工智能體仍然無法產(chǎn)生人類的七情六欲、感覺和思維,“中文屋”的論證也表明人工智能甚至可能連人類的語言都無法理解,加之人工智能深度學(xué)習(xí)依賴的大數(shù)據(jù)的局限性,使得人工智能呈現(xiàn)繁花似錦暫且依然只是一種愿景。
然而,人類朝夕不倦優(yōu)化自己生存條件的本能,驅(qū)使人工智能技術(shù)日日新,又日新。與生化技術(shù)、基因技術(shù)一樣,人工智能技術(shù)也可能給現(xiàn)代化帶來不可控的全球風(fēng)險,這一風(fēng)險既體現(xiàn)在人工智能技術(shù)生活化后被利用而引發(fā)的越軌或違法犯罪行為,如傳統(tǒng)違法犯罪的人工智能化;也體現(xiàn)在大型互聯(lián)網(wǎng)企業(yè)搭乘網(wǎng)絡(luò)、大數(shù)據(jù)、人工智能技術(shù)相互融合的快車,在向人工智能產(chǎn)品服務(wù)與提供企業(yè)轉(zhuǎn)型過程中憑借其技術(shù)、數(shù)據(jù)、資本和市場資源優(yōu)勢實(shí)施的諸如破壞競爭對手的人工智能系統(tǒng)等危害公眾、妨害社會管理秩序的行為;更加體現(xiàn)在人工智能技術(shù)應(yīng)用失控,偏離有益性發(fā)展軌道,人類社會無法對進(jìn)化出自主意識和超級智能的人工智能體予以有效控制[32]。與其爭論當(dāng)下人工智能體獨(dú)立承擔(dān)刑事責(zé)任是否妥當(dāng),不如思考如何合理規(guī)制人工智能研發(fā)者、生產(chǎn)者或操作者的行為,畢竟面對飛速發(fā)展的人工智能,我們并沒有反復(fù)試錯的機(jī)會。
根據(jù)相關(guān)責(zé)任人主觀方面的不同,可作如下區(qū)分:(1)研發(fā)者如將自己的偏見嵌入算法系統(tǒng),將人工智能體作為犯罪工具,故意利用其實(shí)施犯罪,對此直接根據(jù)刑法規(guī)定對人工智能體研發(fā)者定罪量刑即可。(2)如果人工智能體研發(fā)者、生產(chǎn)者根據(jù)時下技術(shù)發(fā)展水平對人工智能體實(shí)施的行為會發(fā)生危害社會的結(jié)果具有預(yù)見可能性,卻疏忽大意沒有預(yù)見;或者輕率視之,未盡結(jié)果避免義務(wù),使得刑法保護(hù)的法益受到侵害,應(yīng)當(dāng)追究研發(fā)者、生產(chǎn)者過失責(zé)任。如果人工智能體研發(fā)者已經(jīng)預(yù)見到人工智能體可能基于深度學(xué)習(xí)侵害法益,但輕信在現(xiàn)有人工智能技術(shù)環(huán)境下可以避免危害結(jié)果的發(fā)生,未采取任何避免措施致使危害結(jié)果發(fā)生或過高地估計(jì)了避免結(jié)果發(fā)生的主客觀條件,違反了客觀結(jié)果避免義務(wù),應(yīng)承擔(dān)過于自信的過失責(zé)任。(3)相較于現(xiàn)階段的人工智能體,刑法關(guān)注的是研發(fā)者、生產(chǎn)者與操作者之間的責(zé)任分配,在強(qiáng)人工智能體“飛入尋常百姓家”時,刑法更應(yīng)注重強(qiáng)人工智能系統(tǒng)的研發(fā)者、生產(chǎn)者的監(jiān)督過失責(zé)任。認(rèn)為人工智能體是基于深度學(xué)習(xí)能力超出研發(fā)者或生產(chǎn)者預(yù)見范圍對法益造成了嚴(yán)重?fù)p害,而應(yīng)減輕或免除研發(fā)者或生產(chǎn)者的責(zé)任不具有說服力。正是因?yàn)槿斯ぶ悄荏w的不可預(yù)見性才產(chǎn)生了更為嚴(yán)格的監(jiān)督注意義務(wù)。人工智能技術(shù)一步走錯,其危害無法估量。另一方面,不能因?yàn)槿斯ぶ悄荏w“自己”實(shí)施行為,就讓被害人為這種隨機(jī)的錯誤獨(dú)自買單。因此,在將人工智能體投入市場之前,設(shè)計(jì)者、生產(chǎn)者必須充分測試保證其已達(dá)到現(xiàn)行科技標(biāo)準(zhǔn)和行業(yè)標(biāo)準(zhǔn);生產(chǎn)者、銷售者必須明確告知操作者操作細(xì)則以及在操作過程中應(yīng)保持何種程度的注意義務(wù),并提示可能存在的隱患;研發(fā)者、生產(chǎn)者、銷售者務(wù)必跟進(jìn)操作者的反饋,對人工智能體造成的投訴或事故及時處理,如事故風(fēng)險呈擴(kuò)大態(tài)勢,必須發(fā)布警告緊急召回涉事產(chǎn)品。當(dāng)然,即便是各個環(huán)節(jié)皆盡審慎注意義務(wù),囿于一定地域內(nèi)人工智能技術(shù)發(fā)展水平的限制,人類也不可能徹底消除人工智能體的安全風(fēng)險。如果通過刑法勉強(qiáng)介入來解決問題,不僅會使尖端前沿技術(shù)萎縮,將與此相連的不可避免的風(fēng)險轉(zhuǎn)嫁給研發(fā)者或操作者,也是不公平的[33]。因而應(yīng)當(dāng)適度承認(rèn)科技社會發(fā)展過程中現(xiàn)實(shí)存在且能夠承受的“允許性風(fēng)險”,在助益生產(chǎn)力進(jìn)步的同時,保障國民對刑法體系的基本認(rèn)同感,實(shí)現(xiàn)刑事立法的科學(xué)化探索[34]。
概言之,人工智能時代的刑事法治,不能埋首于刑法框架內(nèi),關(guān)起門來閉門造車,違背人工智能技術(shù)探索規(guī)律過度干預(yù),抑或等閑視之,張弛無度,沖擊刑法的安定性與目的性。刑法不是唯一,甚至也不是主要的對付犯罪的工具,我們應(yīng)當(dāng)對“預(yù)防”予以極大的注意,抵制誘發(fā)犯罪的因素[35]。例如,規(guī)定人工智能體的研發(fā)者、生產(chǎn)者或服務(wù)提供者承擔(dān)人工智能體的登記造冊,活動情況的記錄與保存,有害活動監(jiān)控、預(yù)警、報(bào)告和制止,系統(tǒng)升級和缺陷修補(bǔ),協(xié)助有權(quán)機(jī)關(guān)管理、調(diào)查或處置等安全管理義務(wù)[32];同時,需要高度注意的是,應(yīng)建立最基本的人類社會自我運(yùn)行管理的安全底線備份,一旦關(guān)閉所有人工智能體系,人類要有最基本的生存能力[36]。總而言之,我們應(yīng)該綜合酌量人工智能技術(shù)客觀特點(diǎn),建立政府主導(dǎo)下的統(tǒng)攝人工智能領(lǐng)域、公共利益及個人權(quán)利保護(hù)的安全標(biāo)準(zhǔn),協(xié)調(diào)憲法價值涵涉下的民法、行政法和刑法內(nèi)部構(gòu)造的系統(tǒng)性,推動構(gòu)建人文理性、戰(zhàn)略政策、法律規(guī)范同源共流的社會治理體系。