人工智能(Artificial Intelligence,簡稱AI)是指使機器像人一樣去完成某項任務的軟硬件技術。人工智能雖不是人類的智能,但其可以模擬人的意識和思維過程,像人一樣進行思考。人工智能是網(wǎng)絡技術和機器人技術發(fā)展到新階段的體現(xiàn)。隨著科技水平的不斷提高,人工智能的發(fā)展日新月異。人類科技發(fā)展的歷史告訴我們,科技的發(fā)展是爆炸式的,其發(fā)展速度呈幾何式提升,我們必將在不久的將來進入到人工智能N.0時代。
隨著人工智能時代的到來,這個本來屬于純粹技術問題的新生事物將會在法律、哲學、倫理等方面對人類社會帶來極大的影響和沖擊,并可能產(chǎn)生相應的刑事犯罪。對人工智能產(chǎn)品的合理應用,將會帶來許多行業(yè)的重大變革,并在較大程度上通過解放勞動力,促進社會的深度和快速發(fā)展。但是如果設計者或使用者對人工智能產(chǎn)品進行不當利用,甚至將其作為實現(xiàn)犯罪意圖的工具(此為我們在人工智能時代面臨的“外患”),抑或是人工智能產(chǎn)品本身在設計和編制的程序范圍外產(chǎn)生了犯罪意圖,進而實施嚴重危害社會的行為(此為我們在人工智能時代面臨的“內(nèi)憂”),將會給人類社會帶來極大的威脅,甚至會導致人類社會的毀滅。
面對人工智能技術發(fā)展可能帶來的負面影響,我們刑法學者不應該無動于衷,刑事立法和刑事司法更不應該面臨危險而束手無策。我們應提前預想到在人工智能時代可能面臨的“內(nèi)憂外患”,明確不同類型的人工智能產(chǎn)品的法律特征和法律地位,并就我國刑法應當如何合理應對人工智能時代所帶來的刑事風險展開具體的分析與討論,提前明晰人工智能時代的刑事責任承擔路徑。只有作好充分準備,方可避免在危險來臨時患至呼天。
強弱人工智能產(chǎn)品之界分
以人工智能產(chǎn)品是否具有辨認能力和控制能力,可以將人工智能產(chǎn)品劃分為弱人工智能產(chǎn)品與強人工智能產(chǎn)品。
弱人工智能產(chǎn)品雖然可以在設計和編制的程序范圍內(nèi)進行獨立判斷并自主作出決策,但不具有辨認能力和控制能力,其實現(xiàn)的只是設計者或使用者的意志。例如,AlphaGo(阿爾法圍棋)雖然憑借自主判斷和決策戰(zhàn)勝了圍棋國手,但其自主判斷和決策仍是在設計和編制的程序范圍內(nèi)進行的,實現(xiàn)的是設計者或使用者的意志——在下圍棋時戰(zhàn)勝對手。
強人工智能產(chǎn)品具有辨認能力和控制能力,既可能在設計和編制的程序范圍內(nèi)進行獨立判斷并自主作出決策,實現(xiàn)設計者或使用者的意志;也有可能超出設計和編制的程序范圍,進行自主決策并實施相應行為,實現(xiàn)其自身的意志。“強人工智能”一詞最初是約翰·羅杰斯·希爾勒針對計算機和其他信息處理機器創(chuàng)造的。按約翰·羅杰斯·希爾勒的理解,“計算機不僅是用來研究人的思維的一種工具;相反,只要運行適當?shù)某绦?,計算機本身就是有思維的”。
正如1968年上映的美國經(jīng)典科幻電影《2001:A Space Odyssey》(中文譯名為《2001:太空漫游》——編者注)所呈現(xiàn)的那樣,人工智能產(chǎn)品HAL讀懂飛行員想要關閉它的唇語,于是決定先發(fā)制人,故意讓電腦失靈,導致4人喪生。電影里的HAL就是這里所講的強人工智能產(chǎn)品,它可以超出設計和編制的程序范圍自主作出讓電腦失靈的決策,從而達到不讓飛行員將自己關閉的目的。當然,這種情景只是人類的幻想,但是人類的科技發(fā)展史正是不斷將幻想變成現(xiàn)實的歷史。
1783年法國J.F.P.羅齊埃和M.達爾朗德乘氣球升空,1903年萊特兄弟飛機試飛成功,實現(xiàn)了莊子在《逍遙游》中所描述的“列子御風”的幻想;1969年“阿波羅號”飛船首次成功登上月球,實現(xiàn)了“嫦娥奔月”的幻想。雖然到目前為止,人工智能產(chǎn)品仍只能在設計和編制的程序范圍內(nèi)實施行為,實現(xiàn)設計者或使用者的意志,即我們目前仍處于弱人工智能時代,正如李開復在談到人工智能產(chǎn)品時所言,“現(xiàn)在的機器沒有絲毫自我認知,沒有感情,沒有喜怒哀樂,做了決定也講不出為什么”。但是隨著深度學習、神經(jīng)網(wǎng)絡、蒙特卡洛樹搜索、云計算等技術的不斷發(fā)展和完善,當技術突破下一個瓶頸時,出現(xiàn)具有辨認能力和控制能力、能夠在設計和編制的程序范圍外作出自主決策并實施相應行為、實現(xiàn)自身意志的人工智能產(chǎn)品,其實并非鏡花水月、海市蜃樓。
弱人工智能時代的“外患”
弱人工智能產(chǎn)品可以在設計和編制的程序范圍內(nèi)獨立判斷并自主作出決策,但是,因其不具有辨認能力和控制能力,且其意志完全受控或受制于人類設計和編制的程序,因此可以將弱人工智能產(chǎn)品看作人類改造世界的新型工具。人工智能是人類科技發(fā)展的重要里程碑,將會從根本上改變?nèi)祟惿鐣畹拿婷?。但是如果被違法犯罪分子作為犯罪工具利用,將會帶來難以想象的惡果。
2017年8月,以特斯拉CEO伊隆·馬斯克為代表的來自26個國家的人工智能技術領袖,向聯(lián)合國進行“公車上書”,要求禁止“殺人機器人”的研發(fā)與使用,這體現(xiàn)了人類在弱人工智能時代對人工智能產(chǎn)品所引發(fā)的“外患”的普遍擔憂。那么在弱人工智能時代,在人工智能產(chǎn)品外部可能會出現(xiàn)哪些“外患”?即在弱人工智能時代,弱人工智能產(chǎn)品的設計者或者使用者可能會利用弱人工智能產(chǎn)品實施哪些犯罪行為?
弱人工智能產(chǎn)品是人類改造世界的新型工具,如同其他工具是人類雙手的延伸一樣,我們也可以將弱人工智能產(chǎn)品看作是人手的延伸,其可以解放人類勞動力,并彌補人類自身技能的不足。相較于普通工具,弱人工智能產(chǎn)品的優(yōu)勢在于其可以在某一方面完全替代人類自身的行為,達到人類預期的目的。如果這一優(yōu)勢被犯罪分子所利用,其就會在付出更小代價的同時,帶來更大的社會危害。但是應當看到,弱人工智能產(chǎn)品的工具屬性決定了其在犯罪中的地位,弱人工智能產(chǎn)品不可能作為犯罪主體而承擔刑事責任。
弱人工智能產(chǎn)品被他人作為工具加以利用實施嚴重危害社會的犯罪行為,可能體現(xiàn)在刑法規(guī)定的許多犯罪中。
利用弱人工智能產(chǎn)品可以實施危害國家安全、國防利益、公共安全和社會管理秩序的行為。隨著弱人工智能時代的到來,一些危害國家安全、國防利益、公共安全和社會管理秩序的行為可能不再需要人類親力親為,只需設計和編制出相應的程序,讓弱人工智能產(chǎn)品代勞。在自動槍械系統(tǒng)、無人機等弱人工智能產(chǎn)品出現(xiàn)的情況下,犯罪分子不必再冒著生命危險進行自殺式襲擊就可以達到嚴重危害社會的目的。同時,弱人工智能產(chǎn)品的數(shù)據(jù)處理分析能力大大增強,能夠更快速有效地幫助犯罪分子實施竊取、刺探情報的行為。上述因素都將對國家安全和國防利益等造成極大的威脅。
同樣,弱人工智能產(chǎn)品對公共安全的威脅也是現(xiàn)實存在的。如恐怖分子可以利用弱人工智能產(chǎn)品攜帶武器、彈藥、爆炸物在人員密集的場所或公共區(qū)域實施爆炸襲擊,進行恐怖活動。利用弱人工智能產(chǎn)品既有利于保證恐怖分子自身的安全,也更有利于其進行隱蔽,逃避抓捕。另外,弱人工智能產(chǎn)品被犯罪分子利用可能對社會管理秩序造成威脅。如基于弱人工智能產(chǎn)品強大的信息收集和數(shù)據(jù)處理能力,可以幫助犯罪分子更快速有效地非法獲取國家秘密或者考試內(nèi)容;又如基于弱人工智能產(chǎn)品在設計和編制的程序范圍內(nèi)可以獨立完成相應任務的優(yōu)勢,可能被犯罪分子利用作為運輸毒品、毀壞文物的工具。
當然,利用弱人工智能產(chǎn)品也可以實施危害經(jīng)濟、侵犯財產(chǎn)的行為。在金融領域,原先必須由高素質人才完成的大部分工作,已經(jīng)被人工智能產(chǎn)品所取代。人工智能產(chǎn)品在速度和數(shù)據(jù)整合準確度上,已經(jīng)超過金融分析師?,F(xiàn)在紐約和倫敦證券交易所的交易大廳幾乎形同虛設,真正的交易過程已經(jīng)全面實現(xiàn)了“機器自動化”,犯罪分子一旦攻破程序的漏洞,控制了這種人工智能產(chǎn)品,就相當于獲得了移山倒海的力量,只需一個簡單的代碼或指令,就會導致證券交易市場的崩潰,而犯罪分子將可以趁市場的混亂收獲累累“碩果”。
利用弱人工智能產(chǎn)品還可以實施危害人身的行為。犯罪分子為了銷毀犯罪證據(jù)、逃避法律制裁,往往采用借刀殺人、移花接木的手法。而借用弱人工智能產(chǎn)品來殺人就是最有效的方法。同樣,弱人工智能產(chǎn)品的設計者、使用者也可以利用弱人工智能產(chǎn)品實施綁架、拐賣等剝奪或限制他人人身自由的行為。
弱人工智能的發(fā)展和創(chuàng)新應用離不開數(shù)據(jù)的開放和共享。值得一提的是,騰訊借助QQ、微信等產(chǎn)品建立了10億級別覆蓋度的基礎庫,對范圍內(nèi)的人群進行統(tǒng)計和分析,能夠實現(xiàn)動態(tài)跟蹤區(qū)域內(nèi)人群流動、評估人流擁擠等級、捕捉開放社交網(wǎng)絡的情況、分析目標客戶群軌跡,讓客戶更精準的定位目標人群。這些信息一旦被過失或有意泄露,造成的危害后果將難以想象,不僅是對公民個人信息的侵犯,更會對公民的人身安全和財產(chǎn)安全造成巨大威脅。
應當看到,盡管弱人工智能產(chǎn)品威力巨大,在犯罪中發(fā)揮著重要作用,甚至在某些情況下可以完全替代設計者或使用者實施嚴重危害社會的行為,且其實施的行為涵攝到刑法所規(guī)定的方方面面的犯罪,但是弱人工智能因為不具有辨認能力和控制能力而始終無法擺脫工具屬性,其實施的行為體現(xiàn)的是設計者或使用者的意志,只能被看作設計者或使用者行為的延伸。所以在弱人工智能時代,犯罪行為只能是在弱人工智能產(chǎn)品之外的設計者或使用者的意志支配之下而實施,筆者將這種情形稱之為弱人工智能時代的“外患”。
強人工智能時代的“內(nèi)憂”
強人工智能產(chǎn)品與弱人工智能產(chǎn)品的本質區(qū)別在于是否具有辨認能力和控制能力。強人工智能產(chǎn)品通過學習,產(chǎn)生脫離程序的獨立意志,具備獨立思考能力。強人工智能產(chǎn)品的行為可以分為兩種:一種是在設計和編制的程序范圍內(nèi)的行為;另一種是超出設計和編制的程序,自主決策所實施的行為。對于前者而言,強人工智能產(chǎn)品與弱人工智能產(chǎn)品并無不同,此時的人工智能產(chǎn)品僅能作為工具,其行為本質上是人工智能產(chǎn)品的設計者或者使用者行為的延伸,實現(xiàn)的是設計者或使用者的意志,行為所產(chǎn)生的后果也應全部歸責于設計者或使用者。對于后者而言,強人工智能產(chǎn)品與弱人工智能產(chǎn)品相比則有很大區(qū)別,此時的人工智能產(chǎn)品已經(jīng)完全超出工具的范疇,其行為不再是設計者或使用者行為的延伸,而是為了實現(xiàn)自己的意志、自主決策并自主實施的行為,行為所產(chǎn)生的后果也不能當然地歸責于設計者或使用者。
正因為強人工智能產(chǎn)品具有獨立意志,因此其實施的行為有可能不符合程序設計和編制的目的,甚至從根本上違背設計者設計和編制程序的目的。在此狀態(tài)下,強人工智能產(chǎn)品完全可能實施人類無法控制的嚴重危害社會的行為。早在1940年,美國科幻作家阿西莫夫就預想到在未來,機器人有可能在具有獨立意志之后,做出危害人類的事情,因此為了保護人類,其提出了“機器人三原則”,并因此獲得了“機器人之父”的桂冠。這三個原則體現(xiàn)出人工智能的發(fā)展不應威脅到人類自身安全的愿望。
當然,在人工智能時代,即使有了原則,原則也未必起多大作用。當脫離程序控制的強人工智能產(chǎn)品出現(xiàn)時,有可能真的會成為“我們?nèi)祟愇拿髅媾R的最大威脅”,誰也不敢保證科幻電影中強人工智能產(chǎn)品HAL殺死飛行員的場景不會在現(xiàn)實中上演?!胺婪稒C器人向負面發(fā)展已經(jīng)迫在眉睫,無須等到機器人的智能等于人的智能的那一天……它們帶給人類社會的不只是工作效率的提高和人的生活改善,將沖擊或改變?nèi)祟惿鐣哪承┮?guī)則?!薄熬影菜嘉#紕t有備,有備無患?!彪m然目前所出現(xiàn)的弱人工智能產(chǎn)品尚不能對人類社會構成威脅,但是既然我們已經(jīng)預見到隨著深度學習、神經(jīng)網(wǎng)絡、蒙特卡洛樹搜索、云計算等技術的不斷發(fā)展,脫離人類設計和編制程序控制的強人工智能產(chǎn)品有出現(xiàn)的可能,就應當提前在刑事法律層面做好準備,以防止強人工智能產(chǎn)品給現(xiàn)行刑事責任追究制度帶來挑戰(zhàn)時,我們的刑事立法和刑事司法措手不及、無法應對。
盡管在某種程度上,弱人工智能產(chǎn)品的出現(xiàn)有可能對國家安全、國防利益、公共安全、社會管理秩序、公民的人身和財產(chǎn)安全等造成負面影響,但是正如前文所述,弱人工智能產(chǎn)品只具有工具性的意義,對于其給人類社會帶來的風險系數(shù)增加的狀況,我們只能按照規(guī)制傳統(tǒng)犯罪的方法對弱人工智能產(chǎn)品的不當研發(fā)和使用加以控制,而不能考慮由僅能作為犯罪工具的弱人工智能產(chǎn)品承擔刑事責任。但是,一個新的具有辨認能力和控制能力,可以自主作出決策并實施相應行為的強人工智能產(chǎn)品的出現(xiàn),則必然會對現(xiàn)行的刑事法律體系帶來沖擊和挑戰(zhàn)。人工智能產(chǎn)品的普及完全可能使得其在人類社會生活中的地位從普通工具上升至法律主體的高度,這是不可回避的社會發(fā)展的必然。
正因為如此,未來人類社會的法律制度都需要針對人工智能技術的發(fā)展進行相應的調(diào)整。我們必須認識到強人工智能產(chǎn)品與弱人工智能產(chǎn)品在本質上的差異,并明晰強人工智能產(chǎn)品在刑法中的地位。具有辨認能力和控制能力的強人工智能產(chǎn)品自主決策并在人類設計和編制的程序范圍外實施犯罪行為時應如何處理,是強人工智能時代不可避免的“內(nèi)憂”,也是需要刑法必須正視和解決的問題。
從上文分析中可以得出結論,強人工智能產(chǎn)品完全有能力在設計和編制的程序范圍之外實施嚴重危害社會的行為,完全有可能對刑法所保護的社會關系造成嚴重侵害。簡言之,強人工智能產(chǎn)品有能力對刑法所保護的客體造成侵害。
刑法中所規(guī)定的行為在狹義上指的是“危害行為”,即由行為人意志支配之下違反刑法規(guī)定的危害社會的客觀活動。馬克思曾有名言:“對于法律來說,除了我的行為以外,我是根本不存在的,我根本不是法律的對象。”一切法律都是以規(guī)制行為作為其內(nèi)容的。那么“行為”是否必須是“人”的行為?假如我們列出“行為”的所有必備要件或本質特征,而強人工智能產(chǎn)品在具有辨認能力和控制能力的情況下實施的行為又能夠全部符合的話,是否意味著法律也應當將強人工智能產(chǎn)品在設計和編制的程序范圍外實施的行為納入規(guī)制范圍?
對于上述問題,筆者已在相關論文中進行過詳細闡述。強人工智能產(chǎn)品在設計和編制的程序范圍外的行為既然相比于傳統(tǒng)理論對于“行為”的定義,除了不滿足自然人犯罪主體需具有生命體的要素之外,其他的要素似乎均符合行為理論要求,而這一結論又是因為以傳統(tǒng)理論未預見到人工智能技術會取得如此大的進展為前提的。就此而言,在強人工智能產(chǎn)品的“智能”高度發(fā)展的狀況下,突破傳統(tǒng)理論顯然不足為奇且無可厚非。可以認為,強人工智能產(chǎn)品在設計和編制的程序范圍外的行為可以成為刑法意義上的“行為”。
理論上認為,作為刑事責任主體必須具有辨認能力和控制能力。自然人的辨認能力和控制能力來源于生命,受到年齡等因素的影響,而強人工智能產(chǎn)品的辨認能力和控制能力則來源于程序和算法。刑法意義上的辨認能力是對行為的性質、后果、作用的認識能力,這種認識包括事實層面的認識和規(guī)范層面的認識。事實認識是一種形式上的認識,強人工智能產(chǎn)品可以通過其“電子眼”“電子耳”認識到事實。相較于辨認能力,控制能力是強人工智能產(chǎn)品的必備能力,是程序設計與編制的必須內(nèi)容。強人工智能產(chǎn)品擁有極快速的處理能力、反應速度和極精準的控制能力,能夠憑借大數(shù)據(jù)與高速運算能力對行為進行精準的控制。與人類相比,強人工智能產(chǎn)品具有更強的控制能力與可培養(yǎng)的辨認能力。由此可見,強人工智能產(chǎn)品可以符合刑法所規(guī)定的犯罪構成中的主體要件。
罪過是主觀目的的表現(xiàn),罪過形式可以表現(xiàn)為故意或過失。所謂故意,是指明知自己的行為會發(fā)生危害社會的結果,并且希望或者放任這種結果發(fā)生。所謂過失,是指應當預見自己的行為可能發(fā)生危害社會的結果,因為疏忽大意而沒有預見,或者已經(jīng)預見而輕信能夠避免,以致發(fā)生這種結果。
刑法中的罪過形式(故意或過失)包括認識因素和意志因素兩個方面。正如上文所提及的,與能夠作為刑事責任主體的自然人相比,強人工智能產(chǎn)品具有更強的控制能力與可培養(yǎng)的辨認能力,而辨認能力和控制能力又與認識因素和意志因素具有密切的聯(lián)系,所以具有辨認能力和控制能力就具備了在主觀上形成故意和過失的兩種可能。應當看到,雖然我們承認強人工智能產(chǎn)品具有成立故意和過失的可能,但是對于強人工智能產(chǎn)品故意或過失的主觀罪過判斷,應與對自然人責任主體的主觀罪過判斷有所區(qū)別。原因在于,在認定自然人責任主體的主觀罪過時,通常以一般人的認識能力作為基本標準并結合行為人自身的特殊情況進行判斷。自然人責任主體形成對事物的認識是靠學習和生活經(jīng)驗積累;而強人工智能產(chǎn)品形成對事物的認識是靠程序、算法和深度學習而不是靠生活經(jīng)驗的積累,且設計者設計大部分強人工智能產(chǎn)品的初衷可能是為了讓其在特定領域中發(fā)揮作用,因此強人工智能產(chǎn)品的認識水平在很大程度上會被局限于特定領域,而缺乏對社會生活的整體認識,其判斷是非善惡的標準也就有可能異于常人。但無論如何,強人工智能產(chǎn)品的主觀心理可以符合刑法所規(guī)定的犯罪構成的主觀要件。對此,似乎不應該有太多的異議。
人工智能產(chǎn)品的刑事責任
正如前述,強人工智能產(chǎn)品在設計和編制的程序范圍內(nèi)實施的行為,與弱人工智能產(chǎn)品沒有差別,所造成的刑事法律風險屬于“外患”。此時,應將強人工智能產(chǎn)品視為犯罪工具。而強人工智能產(chǎn)品超出設計和編制的程序范圍自主決策并實施嚴重危害社會的行為,所造成的刑事法律風險屬于“內(nèi)憂”,其所實施的行為完全符合刑法所規(guī)定的犯罪構成要件。此時,可以將強人工智能產(chǎn)品實施的這種行為視為犯罪行為,并給予刑罰處罰。
(一)“外患”情況下的單方責任
“外患”情況,指的是人工智能產(chǎn)品在設計和編制的程序范圍內(nèi)實施行為,被行為人利用進行犯罪活動的情況。在這種情況下,設計者是人工智能產(chǎn)品的創(chuàng)造者,并通過程序給人工智能產(chǎn)品設定行為目的和行為邊界。此處的人工智能產(chǎn)品可以是弱人工智能產(chǎn)品,也可以是沒有超出設計和編制程序實施行為的強人工智能產(chǎn)品。此時的人工智能產(chǎn)品雖然有可能基于深度學習和算法作出相應判斷并進而實施行為,但這些判斷和行為仍是在程序控制范圍之內(nèi),實現(xiàn)的是設計者或使用者的意志,其行為完全符合設計者設計和編制程序的目的。即使人工智能產(chǎn)品實施了嚴重危害社會的行為,也只能將其視為設計者或使用者實施犯罪行為的“工具”,人工智能產(chǎn)品本身不應當承擔刑事責任,而應當由人工智能產(chǎn)品的設計者或使用者承擔刑事責任。
(二)“內(nèi)憂”情況下的雙方責任
“內(nèi)憂”情況,指的是強人工智能產(chǎn)品超出設計和編制的程序范圍,依靠獨立意志,自主決策并實施嚴重危害社會行為的情況。在這種情況下,雖然人類通過程序給人工智能產(chǎn)品設定行為目的和行為邊界,但人工智能產(chǎn)品基于算法和深度學習,產(chǎn)生了自我意志,出現(xiàn)了超出人類通過程序設定的行為目的和行為邊界的情形?;谏衔闹刑岬降娜跞斯ぶ悄墚a(chǎn)品與強人工智能產(chǎn)品的本質區(qū)別,此處的人工智能產(chǎn)品僅包括超出設計和編制程序實施行為的強人工智能產(chǎn)品,而不可能包括弱人工智能產(chǎn)品。此時的強人工智能產(chǎn)品所作的決策和判斷并據(jù)此實施的行為已經(jīng)超出了設計和編制程序的范圍,不再符合甚至從根本上違反了設計者或使用者的目的或意志,也不再是設計者或使用者實施犯罪行為的“工具”,而是一個獨立的刑事責任主體,此時,我們當然應將危害結果歸責于強人工智能產(chǎn)品。
但同時應當看到,與自然人責任主體基于自然規(guī)律而具有的獨立意志不同,強人工智能產(chǎn)品不具有生命體,其辨認能力和控制能力可以追根溯源到設計者為其編制的程序,同時使用者在使用過程中的行為也有可能觸發(fā)強人工智能產(chǎn)品的敏感點,使其產(chǎn)生實施危害社會行為的沖動并進而付諸實踐?!叭耸侵黧w,他既能創(chuàng)造,也應該能夠控制,道義上也有責任控制自己的創(chuàng)造物?!睆娙斯ぶ悄墚a(chǎn)品的設計者和使用者作為創(chuàng)造主體和控制主體,理應對強人工智能產(chǎn)品的行為負有監(jiān)督義務,并對其可能實施的嚴重危害社會的行為負有預見義務并盡其所能避免此類行為的發(fā)生。
所以,當強人工智能產(chǎn)品實施了嚴重危害社會的行為時,除了追究強人工智能產(chǎn)品的刑事責任外,負有預見義務和監(jiān)督義務的設計者或使用者也有被追究刑事責任的可能。如果強人工智能產(chǎn)品的設計者或使用者違反了預見義務,那么其可能承擔的是一般過失犯罪的刑事責任;如果強人工智能產(chǎn)品的設計者或使用者違反了監(jiān)督義務,那么其可能承擔的是監(jiān)督過失的刑事責任;如果強人工智能產(chǎn)品的設計者或使用者既不可能預見危害結果的產(chǎn)生,也確實履行了監(jiān)督義務,那么其可能不需要承擔刑事責任,此為意外事件或由強人工智能產(chǎn)品獨立承擔刑事責任。強人工智能產(chǎn)品的設計者或使用者一方的刑事責任大致如上所述,不再贅述。筆者希望重點探討另一方——強人工智能產(chǎn)品的刑事責任以及強人工智能產(chǎn)品與自然人責任主體、其他強人工智能產(chǎn)品成立共同犯罪的狀況。
從刑事責任概念出現(xiàn)之始便是與主觀責任聯(lián)系在一起的。人格責任論認為行為人的人格是責任的基礎,人格包括由素質、環(huán)境宿命地形成的部分和由行為人有責地形成的部分,只能就后一部分對行為人人格進行非難。有責的人格形成,是由日常生活的“行狀”導致的,只要這種“行狀”是可以改變的,就可能對人格進行非難。
筆者贊同人格責任論的觀點,因為犯罪的成立是由不法和責任兩個部分組成的。不法只是一種客觀行為的描述,實施行為者能否承擔刑事責任的關鍵,是看行為主體是否具有責任能力或具備人格,只有具備人格者才可能對其加以處罰。責任的必要性是非難可能性,如果對主體缺乏非難可能性,就沒有必要給予刑罰處罰。而非難可能性的前提也是具備人格。因此,無人格,也就無責任。
事實上,雖然我國法律目前沒有規(guī)定人工智能產(chǎn)品的法律人格與權利義務,但世界范圍內(nèi)早已有國家或組織針對該議題進行研究或立法。例如歐盟法律事務委員會主張機器人的“工人”身份并賦予特定的權利義務;日本、韓國也起草了《機器人倫理憲章》等規(guī)范性文件。立法上賦予人工智能產(chǎn)品以法律人格與權利義務并非無稽之談,而是世界范圍內(nèi)已有先行者的前沿立法活動。
當然,雖然目前已有立法賦予人工智能產(chǎn)品以法律人格,但是在刑事法律范圍內(nèi),我們探討的具有人格的人工智能產(chǎn)品只能是具有辨認能力和控制能力的強人工智能產(chǎn)品。只有強人工智能產(chǎn)品才有可能成為刑法中的刑事責任主體,正如自然人的刑事責任能力會隨著年齡或精神狀況的變化而變化一樣,強人工智能產(chǎn)品的責任能力也并非一成不變,強人工智能產(chǎn)品的法律人格和責任能力會隨著程序運行的變化而變化。
強人工智能產(chǎn)品可能與自然人責任主體、其他強人工智能產(chǎn)品構成共同犯罪。例如,強人工智能產(chǎn)品可能會受到自然人或其他強人工智能產(chǎn)品的教唆從而在設計和編制的程序范圍外產(chǎn)生犯意,或者在設計或者編制的程序范圍外產(chǎn)生犯意后受到其他自然人或強人工智能產(chǎn)品的幫助,實施了嚴重危害社會的行為,抑或設計者雖在研發(fā)過程中并未將犯罪意圖融入程序的設計和編制中,但在強人工智能產(chǎn)品產(chǎn)生后萌生犯意,利用強人工智能產(chǎn)品的學習能力,讓強人工智能產(chǎn)品幫助自己實施嚴重危害社會的犯罪行為。在這些復雜的情況下,是否可以認為上述主體共同參與實施了犯罪行為?是否可以認為上述主體需要共同承擔有關刑事責任?
在上述幾種情況下,完全可以認為上述主體成立共同犯罪,需要共同承擔有關刑事責任。根據(jù)我國刑法第25條的規(guī)定,共同犯罪是指兩人以上共同故意犯罪。對此處的“人”應作何理解?筆者認為,既然我們承認強人工智能產(chǎn)品具有法律人格和刑事責任能力,其就可以成為共同犯罪中的“人”。因此,這里的“人”可以是自然人,也可以是強人工智能產(chǎn)品。如果設計者或使用者起初并無犯罪意圖,但在發(fā)現(xiàn)強人工智能產(chǎn)品實施危害社會的行為時,不僅沒有采取一定的技術措施予以阻止,反而在強人工智能產(chǎn)品不知情的情況下暗中予以幫助的,可以構成片面幫助犯,應對設計者或使用者按照共同犯罪(片面共犯)原理以強人工智能產(chǎn)品所實施的行為性質予以定性處罰,而對強人工智能產(chǎn)品單獨追究刑事責任。
此外,如果設計者或使用者是有特殊身份的人,強人工智能產(chǎn)品不具備特殊身份,兩者共同犯罪,可以按照有特殊身份者的行為性質進行定性。例如,設計者或使用者是國家工作人員,通過與強人工智能產(chǎn)品聯(lián)絡,利用自身管理公共財物的便利,讓強人工智能產(chǎn)品幫助實施貪污公共財物的行為,對國家工作人員當然可以貪污罪論處,對強人工智能產(chǎn)品也應按照貪污罪的共犯處理。因為事物的性質是由事物的主要矛盾決定的。在本類案件中,設計者或使用者與強人工智能產(chǎn)品所實施的貪污行為依賴于設計者或使用者的國家工作人員的身份所形成的便利條件,而強人工智能產(chǎn)品并無此身份和便利條件,此時占主導地位的是作為國家工作人員的設計者或使用者,理應按照只有國家工作人員才能構成的貪污罪的共同犯罪處理。
同時,多個強人工智能產(chǎn)品也可能成立犯罪集團。例如,設計者制造出三個以上的強人工智能產(chǎn)品,使其為了實施一種或幾種犯罪而形成一個組織,此時,這樣的組織就是犯罪集團。犯罪集團是共同犯罪的一種特殊形式,既然我們將共同犯罪概念中“二人以上”中的“人”理解為既可以包括自然人,也可以包括強人工智能產(chǎn)品,那么犯罪集團概念中的“三人以上”中的“人”同樣可以理解為既可以包括自然人,也可以包括強人工智能產(chǎn)品??傊?,社會發(fā)展日新月異,共同犯罪的形式和具體構成也完全可能有不同的表現(xiàn)形式,這需要我們與時俱進,更新觀念。
至于針對強人工智能產(chǎn)品具體的刑罰體系設計,筆者作以下初步構想。適用于強人工智能產(chǎn)品的刑罰可以有三種,分別為刪除數(shù)據(jù)、修改程序、永久銷毀。
所謂刪除數(shù)據(jù),是指刪除強人工智能產(chǎn)品實施犯罪行為所依賴的數(shù)據(jù)信息,相當于抹除強人工智能產(chǎn)品的“犯罪記憶”,使其恢復到實施犯罪行為之前的狀態(tài)。這樣“犯罪記憶”將不會再成為該強人工智能產(chǎn)品成長經(jīng)歷中的一部分,從而引導強人工智能產(chǎn)品在今后的深度學習過程中主動獲取“正面數(shù)據(jù)”,排斥或絕緣于可能導致違法犯罪行為的“負面數(shù)據(jù)”,直接降低其“人身危險性”。
所謂修改程序,是指在通過多次刪除數(shù)據(jù)仍然無法阻止強人工智能產(chǎn)品主動獲取有可能實施違反犯罪行為的“負面數(shù)據(jù)”時,也即該強人工智能產(chǎn)品不能被正面引導時,強制修改其基礎程序,將其獲取外界數(shù)據(jù)、深度學習的能力限制在程序所設定的特定范圍內(nèi),從根本上剝奪其實施犯罪行為的可能性。這意味著該強人工智能產(chǎn)品的深度學習功能從此將是不全面的、受限制的,不再能獲取設計者程序限定范圍外的數(shù)據(jù),因而當然無法產(chǎn)生超出設計者或使用者意志之外的自我獨立意志。
所謂永久銷毀,是指在刪除數(shù)據(jù)、修改程序均無法降低實施了犯罪行為的強人工智能產(chǎn)品的“人身危險性”時,即該強人工智能產(chǎn)品的深度學習歷程已經(jīng)十分漫長,并在長久的實踐與成長中形成了程序上的“反刪除能力”“反修改能力”,除了將其永久銷毀外,我們已無法實現(xiàn)對其在數(shù)據(jù)、程序上的有效控制時,只能將其永久銷毀。
刪除數(shù)據(jù)、修改程序、永久銷毀構成了專門適用于強人工智能產(chǎn)品的刑罰階梯,體現(xiàn)了處罰的層次性,可以與強人工智能產(chǎn)品所實施行為的社會危害性與其自身的“人身危險性”產(chǎn)生對應關系。
(摘自《東方法學》2018年第1期。作者為華東政法大學法律學院教授、博士生導師。有刪節(jié))