馬恩萍
(南京工業(yè)大學 法學院,江蘇 南京211800)
人工智能技術(shù)的飛速發(fā)展,雖帶來了諸多利好,但與其相伴相生的不可預見性風險亦讓人踟躇。法學界有關(guān)人工智能的研究主要有兩個向度:一是研究人工智能語境下的法律,即人工智能介入法律實務、法學教育等;二是研究法律框架下的人工智能規(guī)制問題。后者正是筆者所要探討的重點。關(guān)于人工智能發(fā)展帶來的機器人殺人這類技術(shù)異化問題,學界研究重點主要聚焦于人工智能刑事責任主體地位、刑事責任承擔等。
在刑事責任主體地位方面,國外學者Cabriel Hallevy認為人工智能沒有靈魂,即使將來擁有自我意志也無法存在繁殖性的肉體或者真實情感,因此應適用限制的刑事主體資格和刑事處遇方式[1]。國內(nèi)學者馬治國、田小楚通過對犯罪主體的界定與分析,認為人工智能體應當是介于人與物之間特殊的刑事責任主體,提出將人工智能體按照智能化程度進行劃分,據(jù)以判斷其刑事責任能力[2]。時方基于比較的視野,認為人工智能與法人相比,不具備意識和意志要素,人工智能的本質(zhì)仍然是工具屬性,沒有必要認定人工智能獨立的刑事主體[3]。
在刑事責任承擔方面,國外學者霍斯特·艾丹米勒在探討全自動汽車的事故責任時,認為汽車自己承擔侵權(quán)責任似乎是異想天開的,而應實行汽車所有人與生產(chǎn)商共擔責任或創(chuàng)設(shè)汽車責任保險[4]。薩比娜·格雷斯針對自動駕駛汽車等機器人造成的刑事責任,提出了“社會共擔風險”的概念,即沒有人需要為該類損害負責[5]。國內(nèi)學者劉憲權(quán)認為強智能機器人自主實施的行為體現(xiàn)其有自由意志,這與自然人在意識支配下實施的行為相當,應承擔相應的刑事責任[6]。袁曾結(jié)合域外法律,主張具有自主行為能力、享有法律權(quán)利和承擔法律義務的人工智能因其承擔行為能力的后果有限,只享有有限法律人格并受到特殊法律規(guī)制[7]。
綜上,關(guān)于人工智能的研究分歧主要源于以下幾點:一是研究語境的差異;二是研究視角的差異;三是基于適法性的探討,即法律應用的可行性,人工智能是否適應法律之初衷、要素、規(guī)制目的等。筆者認為刑法因其謙抑性,不能太超前,但也不至于太落后,應避免人工智能技術(shù)風險上升為刑法風險。
人工智能是研發(fā)、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術(shù)以及應用系統(tǒng)的一門新的技術(shù)科學[8]。當前人工智能發(fā)展正處在“弱人工智能、強人工智能、超人工智能”三個階段的弱人工智能向強人工智能的過渡階段。弱人工智能階段人工智能的本質(zhì)是工具屬性,而強人工智能階段人工智能的特征則是具備獨立思維,能夠像人一樣獨立思考、辨認行為和控制行為。“類人型人工智能實體”作為本文的研究對象,這一概念由王耀彬?qū)W者首次提出,該概念較于以往學者提出的“人工智能產(chǎn)品”“人工智能體”等,更能展現(xiàn)人工智能的發(fā)展階段。因而,本文將人工智能分為弱人工智能發(fā)展的初級、中級階段(簡稱“弱人工智能”)和弱人工智能時代高級階段的人工智能、強人工智能、超人工智能(以上簡稱“類人型人工智能”);后者正是本文研究的對象。
刑事責任是指行為人因其犯罪行為所應承受的,代表國家的司法機關(guān)根據(jù)刑事法律對該行為所作的否定評價和對行為人進行譴責的責任[9]。
一切法律都是以外在行為作為規(guī)制內(nèi)容的。同樣地,刑事責任亦關(guān)注人的外在行為,刑罰的發(fā)動須以客觀存在的犯罪行為為依據(jù),對沒有表現(xiàn)為行為的人的主觀思想和內(nèi)心意識活動,不能認定是犯罪并處以刑罰[9]。因此犯罪心理在實踐中只能通過外在顯現(xiàn)的犯罪行為反向推理。傳統(tǒng)理論認為人具有意志自由,對自身的行為能夠絕對地支配和控制。德國法學家威爾澤爾認為,人具有一定程度的意志自由,即個人的素質(zhì)和所處的環(huán)境制約著人的行為;同時,人的內(nèi)心意志也能在環(huán)境和素質(zhì)制約的范圍內(nèi)進行有限度的選擇和決定[10]。除此之外,人的意思活動與社會環(huán)境的、自然的條件間的密切關(guān)系也被統(tǒng)計學和實證主義研究加以證實。綜上,人的意思活動是兼具主觀性和客觀性,也并非完全的自由意志體。
類人型人工智能與人類的有限意志自由相當。其一,類人型人工智能具有機械性的特點,能夠按照預先編碼錄入的程序和指令作出行為,與人類受環(huán)境影響和制約所作行為的機理相似。其二,類人型人工智能具有自主性的特點,能基于對前期輸入數(shù)據(jù)信息的深度學習,分析計算出最優(yōu)結(jié)果,從而偏離人類的預先設(shè)定和判斷方向,作出程序設(shè)定之外的行為。即與人類依照自己的意識做出行為的機理相類似。至此,既然類人型人工智能具有有限的意志自由,那么其就可能基于自己獨立判斷實施侵害自然人、法人相關(guān)法益的行為,將該行為暫且稱為特殊法益侵害行為。日本有學者主張對行為人進行法的非難的前提是行為人具備有責地實施行為之能力的場合[11],即否認了弱人工智能、在編程范圍內(nèi)作出行為的強人工智能以及超出編程范圍但行為后果具有可預見性的強人工智能等的發(fā)生法益侵害而獨立承擔刑事責任的可能性。在此情境下,需將弱人工智能和上述強人工智能視為“犯罪工具”,規(guī)責于開發(fā)者、使用者,亦或是監(jiān)督者等相關(guān)主體,在此不作贅述。
目前,有關(guān)刑事責任能力的劃分標準有心理學和生物學之分,但仍是人類本位。心理學上有關(guān)責任能力的標準強調(diào)行為人在犯罪時的心理狀態(tài)或心理狀態(tài)所導致的后果,據(jù)以判定是否達到刑法的認定情形,從而評判行為人是否具有刑事能力;生物學的標準則更為明確,以行為人是否具有刑法規(guī)定的精神障礙為判定依據(jù)。刑事責任能力包括行為辨認和控制能力,是行為人構(gòu)成犯罪和承擔刑事責任的基礎(chǔ)。探究類人型人工智能是否能夠被法律所擬制,關(guān)鍵在于其是否具備刑法意義上的辨認和控制能力。
2.2.1 具有自主、深度學習的能力
類人型人工智能具有深度學習的特征,深度學習算法允許其從大量數(shù)據(jù)中自我學習,無需編程者作出分步指令。具備深度學習能力的類人型人工智能能夠在不斷地自主深度學習中,創(chuàng)制新的規(guī)則甚至改進自身的程序設(shè)定,認知能力不斷提升。因而,深諳學習的類人型人工智能,也能夠自主學習法律規(guī)范、社會規(guī)范等。
2.2.2 具有理解法律規(guī)范的能力
在深度學習的基礎(chǔ)上,類人型人工智能能夠進一步塑造自身的行為規(guī)則體系,但其對法律規(guī)范、社會規(guī)范是否具備理解能力,仍需進行進一步的論證。
其一是類人型人工智能與自然人相當,在理解某些含混不清的法律法規(guī)的概念表述時,可能存在對法律適用的理解偏差。無論是從邏輯學有關(guān)概念的界定出發(fā),還是從語義學上我們對一個概念的理解,難以完全摒除主觀情感因素的影響,致使無法形成格式化、終局性的認識。人類通過類比學習、歸納演繹、情景學習等學習方式,逐漸形成對某些概念較為系統(tǒng)的認識,諸如“法律”這一概念,進而遵守法律。類人型人工智能在被創(chuàng)制之初可能尚未形成對法律的系統(tǒng)化認識,但是隨著深度學習的強化,其對法律規(guī)范的理解會隨之加深。其二是“缸中大腦”假說的哲學思考。普特南假想人類是缸中之腦,人工智能則是人類創(chuàng)造出的人工大腦。人工智能依賴算法和數(shù)據(jù),人腦則偏向于神經(jīng)科學和腦科學領(lǐng)域。人腦的認識來源途徑主要有個體的社會學習、生存體驗和經(jīng)驗以及信息的思維加工處理。相應地,類人型人工智能也通過人類預先輸入的算法程序、深度學習加工以及復雜技術(shù)捕捉等方式獲取認識。綜上,類人型人工智能也具備和人類相當?shù)恼J識機理,其也應當具有行為的認識和理解能力。
2.2.3 具備理性的行為控制能力
理性主體作為法律的預設(shè)主體,能夠權(quán)衡利弊、作出選擇并對此負責。機器學習是類人型人工智能主要的學習方式,這種方式體現(xiàn)的是一種只服從“必然律”,而完全排除了欲望、情感等影響的技術(shù)理性。倘若類人型人工智能被植入一條智能準則,那么其就會在深度學習的基礎(chǔ)上進行理性分析,并嚴格依照此認知規(guī)律作出行為。類人型人工智能在技術(shù)理性的影響下,其依據(jù)獨立思維作出的行為一定是可控的、完全排除情感、欲望等影響的,達到刑法標準所要求的理性行為。因而,類人型人工智能具備理性的行為控制能力。
綜上,類人型人工智能一方面能夠基于有限的自由意志,擺脫程序控制進而造成法益侵害,另一方面,其也具備有限的行為辨認和控制能力,能夠排他性地支配自身的行為,因而對行為的后果具有可譴責性。
類人型人工智能的刑事責任承擔主要有兩個方面的考察:一是類比人類有關(guān)刑事責任年齡、責任能力、違法性認識可能等的考量,二是基于對人工智能受刑能力的認識提出的具體刑罰模式,在此主要對后者進行探討。
筆者認為當前有些學者提出的適用于類人型人工智能時代的刑罰模式,如死刑 (永久銷毀)、附加刑(罰金)等,無疑創(chuàng)設(shè)了與人類近乎一樣的“生命體”。需時刻謹記人工智能技術(shù)發(fā)展的最終目的是要造福人類,并非創(chuàng)設(shè)一個新的物種。隨著科技的發(fā)展,類人型人工智能的地位在將來的很長一段時間都十分尷尬。以霍金為代表的多位科學家寓言,未來強人工智能的發(fā)展可能會給人類帶來毀滅性的災難。因而,筆者的立場是抵制人類完全不可控的強、超人工智能技術(shù)。
同時,對類人型人工智能實施刑罰不能達到刑罰的目的。實務界與理論界公認的刑罰目的有懲治犯罪人、安撫被害人、一般預防、特殊預防以及刑罰矯正功能。在懲治犯罪人與安撫被害人方面,且不論對類人型人工智能應適用何種刑罰(其是否會感知痛苦,產(chǎn)生負罪譴責感),單就安撫被害人而言,通過對機器施以刑罰很難令被害人產(chǎn)生心理上的慰藉。在一般預防與特殊預防方面,筆者認為現(xiàn)在探討為時過早,在此不作探討。在刑罰的矯正方面,存在巨大的爭議,當前刑罰矯正功能的設(shè)立前提是基于人性善的假設(shè),即人可以被教化向善。而類人型人工智能是否能適用矯正,也要基于對其性善、性惡論的探究。從本質(zhì)上看,當前人類也根本認識不到人工智能具備“人性”。
因而,對類人型人工智能的特殊處遇方式,應是定罪而不量刑,即其假設(shè)在有限意志自由下實施的、帶有故意或過失等犯罪意圖的刑事犯罪時,應宣告該行為構(gòu)成犯罪,但不予以施加刑罰。
類人型人工智能能夠被置于刑法保護法益和保障人權(quán)的保障機能下的前提之一就是法律要賦予其完善的權(quán)利,而賦權(quán)道路必定荊棘叢生,筆者對此并不看好,因而,類人型人工智能自身不具備承擔的能力。那么,類人型人工智能發(fā)展過程中不可避免的現(xiàn)實風險應由社會共同承擔。這里的風險主要是其在自由意志下實施行為產(chǎn)生的。具體而言,可以為人工智能購買保險、設(shè)置人工智能發(fā)展基金等,以分擔類人型人工智能的刑事責任。