【內(nèi)容摘要】人工智能的刑事立法和刑事責(zé)任承擔(dān)都繞不開一個核心問題,即犯罪主體。強(qiáng)人工智能可否成為犯罪主體,須運(yùn)用刑法理論對這種“可能性”詳細(xì)分析。聚焦犯罪成立條件中危害行為理論進(jìn)行論證,理性探析強(qiáng)人工智能與傳統(tǒng)刑法理論的兼容性。在此基礎(chǔ)上討論現(xiàn)階段是否有必要在刑法體系當(dāng)中設(shè)立這種新類型的犯罪主體,才是符合邏輯的。
【關(guān) 鍵 詞】強(qiáng)人工智能;犯罪主體;危害行為;理論兼容
中圖分類號:D924.1 文獻(xiàn)標(biāo)識碼:A 文章編號:2095-4379-(2020)11-0036-03
作 者 簡 介:達(dá)朝玉(1993-),男,土族,甘肅臨夏人,中國礦業(yè)大學(xué)(北京)文法學(xué)院法律系,法律碩士,研究方向:刑法學(xué)。
智能是一個十分復(fù)雜的詞匯,是指由意識、自我、思維等等組成的有機(jī)集合。①其中強(qiáng)人工智能是指一種能夠進(jìn)行自主地學(xué)習(xí)、通過獨立意志下自由行動、制定計劃和處理問題的智能。強(qiáng)人工智能與弱人工智能的分界嶺為是否具有深度學(xué)習(xí)能力,是否具有獨立意識和意志。②也即,強(qiáng)人工智能最明顯的特點就是無需借助人類的力量,能獨立決斷、自主行為。③換句話講,弱人工智能無法擺脫人類控制,主要特征是工具價值,它是人類行為和意志的延伸,而強(qiáng)人工智能是為了實現(xiàn)自己的意志、自主決策并自主實施的行為,因此,強(qiáng)人工智能的行為所產(chǎn)生的后果也不能完全地歸責(zé)于設(shè)計者或使用者。
一、研究強(qiáng)人工智能必要性
人工智能技術(shù)已經(jīng)在全球范圍內(nèi)蓬勃發(fā)展,為全球經(jīng)濟(jì)社會的發(fā)展注入了新動能。把握好這一發(fā)展機(jī)遇,處理好人工智能在安全、法律、倫理方面的關(guān)系愈發(fā)重要,同時給國家這一領(lǐng)域的治理提出了新課題。另外,整個時代都該理性妥善處理好人與人工智能之間的關(guān)系?,F(xiàn)階段是否是研究強(qiáng)人工智能時期,學(xué)界爭論較大,其中較為明顯的爭論焦點有:
爭議一,法學(xué)界部分學(xué)者認(rèn)為法律是為人類構(gòu)建的,不應(yīng)該將人工智能納入法律約束的對象。有的學(xué)者提出動物也有自由意志,是不是應(yīng)該把動物的行為納入預(yù)防范疇?劉艷紅教授認(rèn)為:假設(shè)未來真的出現(xiàn)強(qiáng)人工智能,但它們整體智慧高于人類,也擁有自主意識,那么那個時候它們是不會接受人類制定的法律規(guī)則的,因此現(xiàn)階段研究其法律責(zé)任實屬沒有必要,與之相反,很可能那時候是人工智能考慮如何為人類立法了。④很多學(xué)者表示支持該觀點,他們認(rèn)為人工智能若如果一直處于弱智能時期,只是工具屬性的狀態(tài)對人類來講是最安全的,如此以來既可以享受到人工智能技術(shù)帶來的科技便利,又不用為了人工智能安全倫理的問題而擔(dān)憂。但在不久的將來,人類會進(jìn)入正常意識智能階段,此時人工智能將逐漸具有與我們相差無幾的意識。并且它們的智能必然遠(yuǎn)在人類之上,萬一失控,后果不敢想象。⑤
爭議二,有學(xué)者認(rèn)為,現(xiàn)階段來探討強(qiáng)人工智能犯罪的刑事責(zé)任問題沒有多大意義,因為其性質(zhì)很像去證明宗教命題真實與否一樣。⑥不過有學(xué)者認(rèn)為,當(dāng)下的人工智能處于由弱人工智能向強(qiáng)人工智能發(fā)展的時期,很多技術(shù)已經(jīng)令世人驚艷,所以強(qiáng)人工智能時代也會很快到達(dá)。這種觀點還認(rèn)為,法學(xué)界里研究人工智能的學(xué)者們均未跳出當(dāng)前弱人工智能的背景,不愿意相信強(qiáng)人工智能時代會出現(xiàn),在這種觀念下做法學(xué)研究,必然也得不到有創(chuàng)新和客觀價值的研究成果。⑦原因就在于很多學(xué)者沒有看到人工智能發(fā)展的過程性,一直用孤立和靜止的視角來審視,因此這類觀點尚顯片面。
上述部分爭議中的觀點中大部分研究多止步于人工智能工具價值論層面,缺乏對人工智能法哲學(xué)方向的思考。而人工智能的研究——既是科技問題,也是法律問題⑧。
二、對刑法造成的挑戰(zhàn)
(一)挑戰(zhàn)類型
1.強(qiáng)人工智能自身對刑法的挑戰(zhàn)
人工智能技術(shù)正在向著更加智能化的方向發(fā)展,控制難度系數(shù)變大,風(fēng)險也在隨之提高,更容易導(dǎo)致機(jī)器人可能出現(xiàn)犯罪的現(xiàn)象。如上文所述,我們假設(shè)強(qiáng)人工智能擁有獨立的思維,那么它們就完全可以支配自己的行為。誠然,刑法具有謙抑性,所以并不是每一個行為都會受到刑法的約束。犯罪是一種行為,沒有行為就沒有犯罪,而刑法上的危害行為,是指因為人的意識,在其自由意志支配下實施了客觀上侵犯法益的身體活動。
2.第三人行為對刑法的挑戰(zhàn)
一個危害結(jié)果,不一定是由一個行為導(dǎo)致的,它可能是多個行為共同合力作用的產(chǎn)物。人工智能自身的行為有可能會獨立完成一個危害結(jié)果,也有可能受到第三人的影響。這里的第三人就包括智能產(chǎn)品的設(shè)計者、服務(wù)提供者、計算機(jī)智能系統(tǒng)開發(fā)者、使用智能產(chǎn)品者,而他們都有可能作用于某一個危害行為,這就在以后認(rèn)定行為時帶來了麻煩:首先,如前文所述,現(xiàn)行刑法對人工智能的刑事立法處于空白狀態(tài),對一個行為是單獨導(dǎo)致或者是合力作用更無規(guī)定,所以在行為認(rèn)定上就會變得復(fù)雜。其次,人工智能主體異化后在歸責(zé)認(rèn)定時也會造成巨大的困擾,我們當(dāng)下的弱人工智能基本上可以拋開真正意義上的“智能”,而是一種更加高效的工具,這點毋庸置疑。但是在弱人工智能跨向強(qiáng)人工智能的過程中,一個明顯的特點就是,人類對機(jī)器的控制力越來越小,而智能機(jī)器的自主性逐步提高,風(fēng)險也愈加增強(qiáng)。
(二)核心問題——犯罪主體資格不清晰
無論是人工智能自身亦或者是第三人行為導(dǎo)致的刑法風(fēng)險,最核心的問題就是犯罪主體資格問題,這是刑事責(zé)任追究時繞不開的關(guān)鍵點。傳統(tǒng)機(jī)器不管多么先進(jìn),都只能按部就班地根據(jù)設(shè)定程序運(yùn)行,機(jī)器本身沒有任何自主性,而將具備深度學(xué)習(xí)、強(qiáng)化學(xué)習(xí)、大數(shù)據(jù)處理、機(jī)器感知以及自然語言處理等技術(shù)的智能機(jī)器人,則能夠通過大數(shù)據(jù)訓(xùn)練,自動抓取信息,并自主決策或?qū)Νh(huán)境做出自主回應(yīng)。在法律意義上,它們是否能夠以及是否應(yīng)該被賦予法律主體資格的問題,就成為我們?nèi)祟愑尤斯ぶ悄軙r代來臨之際必須正視的關(guān)鍵問題。⑨
三、強(qiáng)人工智能與當(dāng)下犯罪主體理論的兼容性分析
(一)犯罪主體在刑法中的意義
傳統(tǒng)刑法研究犯罪主體要件問題,對于司法實踐中正確定罪量刑,具有至關(guān)重要的意義,在定罪方面主體作為犯罪構(gòu)成要件必備要素所體現(xiàn)的決定機(jī)能,而在量刑方面,主體作為量刑情節(jié)而對刑事責(zé)任大小和刑罰從寬或者從嚴(yán)處罰產(chǎn)生的影響機(jī)能。⑩人工智能是不是法律主體的討論,是AI作為客觀存在進(jìn)入和體現(xiàn)在法學(xué)、法律中的起點。(11)其必要性在于,犯罪主體是犯罪構(gòu)成必備的條件之一,離開了犯罪主體就不存在犯罪,也不會發(fā)生刑事責(zé)任問題。(12)因此,在研究人工智能刑事責(zé)任時,首先解決的一個問題是人工智能技術(shù)背景下的智能主體(智能機(jī)器人、智能產(chǎn)品等)的刑法地位,其中主要就是犯罪主體資格。
(二)主體資格
按照傳統(tǒng)法學(xué)對于犯罪主體認(rèn)定只有自然人和法人,而人工智能主體并不具備法律的主體資格與地位。這樣的劃分來源于傳統(tǒng)的思維模式和生活經(jīng)驗,凡具有精神、意識的存在為人,凡不具有精神、意識的存在則為物,可是像人工智能技術(shù)高速發(fā)展的今天,AI似乎無法歸屬于任何一邊。倘若處于弱人工智能下的“工具屬性”的AI,我們當(dāng)然可以將其視為“物”,主要原因是其基本上沒有任何思考能力,所作出的行為只不過是人類思維的體現(xiàn)和手足的延長。但是強(qiáng)人工智能絕對不是這樣簡單,擁有自我意識的人工智能會改變很多傳統(tǒng)的事物,包括我們的價值觀。
1.設(shè)立新的犯罪主體類型的可能性分析
科學(xué)技術(shù)日新月異,在人工智能領(lǐng)域隨著神經(jīng)網(wǎng)絡(luò)技術(shù)和深度學(xué)習(xí)技術(shù)的發(fā)展,未來出現(xiàn)強(qiáng)智能機(jī)器人并非不可想象。(13)學(xué)者盧勤忠也認(rèn)為,人類的智能是基于意識、思維、感覺和知覺等為基礎(chǔ)條件的,但是智能機(jī)器人并不一定也要按照這一模式感知世界,所以在其意識和自由意志的表現(xiàn)形式上就可能與人類不同。但是應(yīng)當(dāng)明確強(qiáng)人工智能機(jī)器人在刑事責(zé)任與刑罰根據(jù)上與人存在差異,如此以來,在刑事責(zé)任追究上就有必要做出符合強(qiáng)人工智能機(jī)器人特征的重新解讀。(14)結(jié)合上面的學(xué)者觀點,核心主要是自我意識和刑事責(zé)任承擔(dān)可能性方面所提出的觀點。人工智能如果沒有自我意識,它不會知道自己所從事的行為的目的和意義。然而,有學(xué)者認(rèn)為未來AI不可能具有犯罪主體資格,譬如中國人民大學(xué)黃京平教授認(rèn)為,刑事法律領(lǐng)域里研究智能機(jī)器人主體資格完全沒有必要。無論是目前的弱人工智機(jī)器人,還是未來的高級甚至超級智能機(jī)器人。即便其他部門法律都認(rèn)為人工智能體應(yīng)該有法律主體資,刑法也不應(yīng)該把認(rèn)為人工智能機(jī)器人有犯罪主體資格,否則勢必導(dǎo)致刑事責(zé)任體系的崩潰。(15)
2.當(dāng)下是否有必要設(shè)立這一新犯罪主體
強(qiáng)人工智能體的刑事主體資格首先是一個事實判斷的問題,也即這種判斷是基于實然層面分析成為刑事主體的條件。而現(xiàn)階段我們是否在刑法體系中新增或者重構(gòu)犯罪主體這一問題上,筆者持反對觀點,如上文中提到的,強(qiáng)人工智能的確是可以成為犯罪主體的,但可以成為不一定要立馬成為,至少結(jié)合當(dāng)下科技水平還為時過早,論述如下:
學(xué)者陳敘言在論及承認(rèn)人工智能刑事責(zé)任主體地位之必要性時指出,承認(rèn)人工智能刑事責(zé)任主體地位是基于功利主義的考量,是以保護(hù)人類自身利益為目的。他認(rèn)為,刑法學(xué)者應(yīng)該對強(qiáng)人工智能的到來抱有憂患意識,理論研究和立法都應(yīng)具有一定的前瞻性。(16)也有學(xué)者認(rèn)為現(xiàn)行刑法主體概念對于人工智能法律主體規(guī)制的缺位,無形中增加了人們對于智能風(fēng)險的恐懼。當(dāng)下,各部門法在人工智能領(lǐng)域的探索已顯雛形,刑事法的規(guī)制卻略顯保守。類人型人工智能實體與自然人的相似程度比動物、單位更高,包含法律設(shè)定主體的本質(zhì)要素——理性,并具備侵犯法益的可能性,從而增強(qiáng)了賦予其刑事責(zé)任主體地位的必要性。(17)而筆者認(rèn)為,僅僅就當(dāng)下現(xiàn)狀而言,立刻去召集刑法學(xué)者設(shè)立這一新類型的刑事責(zé)任主體操之過急,當(dāng)下仍然是弱人工智能時代,所謂的人工智能產(chǎn)品,并非是科幻電影里無所不能的機(jī)器人,實際上還是一種工具。
(三)主體資格的確立是為了判斷刑法中的危害行為
傳統(tǒng)刑法上的危害行為,是基于人的意識和意志支配實施的客觀上侵犯法益的身體活動,這也是近代以來確定的危害行為觀點。按照這一基本框架展開討論強(qiáng)人工智能的危害行為時有三點需要明確:有體性、有害性、有意性。
第一,有體性方面,即身體活動包括舉動和靜止。這一點在未來強(qiáng)人工智能技術(shù)下完全可以實現(xiàn),哪怕是當(dāng)下的弱人工智能也可以做到,2016年Google公司推出的機(jī)器人Alpha-go(圍棋人工智能程序)以4:1戰(zhàn)勝圍棋世界冠軍李世石,(18)由于它是被相關(guān)開發(fā)者編輯相應(yīng)程序后進(jìn)行的行為,所以它只會下象棋,你要是期待它怎樣更好的在硬盤上儲存數(shù)據(jù),它是無法完成這一超出“下棋”編程外的任務(wù)的。
第二,有害性方面,刑法只禁止具有法益侵犯性的危害社會的行為,而對社會無害的行為不會被規(guī)定在刑法中。這點和前文有體性所提及的一樣的,未來強(qiáng)人工智能技術(shù)下完全可以實現(xiàn)。但是需要細(xì)化一個概念,刑法理論認(rèn)為,社會危害性體現(xiàn)為法益侵犯性(也就是對法益的實際侵犯和侵犯危險急迫可能性)。對此,未來有必要對強(qiáng)人工智能帶來的變化進(jìn)行新的法益劃分,旨在明確法益及其范圍。
第三,有意性方面,刑法只調(diào)整有意識和有意志支配和控制的行為。這一點也是確定人工智能行為是否是刑法意義上的行為的重要方向。
注釋:
①孫曄,吳飛揚(yáng).人工智能的研究現(xiàn)狀及發(fā)展趨勢[J].價值工程,2013,32(28):5-7.
②劉憲權(quán),張俊英.人工智能時代機(jī)器人異化與刑事責(zé)任[J].法治研究,2019(04):90-97.
③劉憲權(quán).人工智能時代的“內(nèi)憂”“外患”與刑事責(zé)任[J].東方法學(xué),2018(01):134-142.
④劉艷紅.人工智能法學(xué)研究中的反智化批判[J].東方法學(xué),2019(5).
⑤李劍鋒.人工智能的未來[J].中國圖書評論,2016(11):30-34.
⑥周銘川.強(qiáng)人工智能刑事責(zé)任之否定[J].上海政法學(xué)院學(xué)報,2019(2).
⑦徐昭曦.反思與證立:強(qiáng)人工智能法律主體性審視[J].中共中央黨校(國家行政學(xué)院)學(xué)報,2019,23(03):80-88.
⑧同前注10.
⑨成素梅,高詩宇.智能機(jī)器人應(yīng)有法律主體資格嗎?[EB/OL].西安交通大學(xué)學(xué)報(社會科學(xué)版):1-12[2019-11-21].http://kns.cnki.net/kcms/detail/61.1329.C.20191111.1141.002.html.
⑩劉艷紅.刑法學(xué)(第二版)[M].北京大學(xué)出版社,第130頁.
(11)朱程斌,李林.人工智能作為法律擬制物無法擁有生物人的專屬性[J].上海交通大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2018(6):56.
(12)高銘暄,馬克昌.刑法學(xué)[M].第六版.北京大學(xué)出版社,第83頁.
(13)劉憲權(quán).人工智能時代的刑事責(zé)任演變:昨天、今天、明天[J].法學(xué),2019(1).
(14)盧勤忠,何鑫.強(qiáng)人工智能時代的刑事責(zé)任與刑罰理論[J].華南師范大學(xué)學(xué)報,2018(6).
(15)莊永廉,黃京平,高艷東,等.人工智能與刑事法治的未來[J].人民檢察,2018(1).
(16)陳敘言.人工智能刑事責(zé)任主體問題之初探[J].社會科學(xué),2019(3).
(17)王耀彬.類人型人工智能實體的刑事責(zé)任主體資格審視[J].西安交通大學(xué)學(xué)報,2019(1).
(18)劉憲權(quán).人工智能時代的刑事風(fēng)險與刑法應(yīng)對[J].法商研究,2018(1).