劉子良
當前,刑法學界在討論人工智能是否具有刑事責任主體地位的問題上存在肯定說和否定說兩種觀點,進而衍生出關于人工智能的刑事責任能力、刑罰體制改革等一系列問題。判斷人工智能是否具有自由意識的標準在于人工智能是否能夠實施在設計和編制的程序范圍之外的行為。[1]以人工智能是否具有自由意識為標準,可以將人工智能分為弱人工智能和強人工智能。學者們一致認為弱人工智能不具有刑事責任主體地位,但在強人工智能是否具有刑事責任主體地位的問題上存在爭議。
肯定說認為強人工智能在實行計算機程序設計和編制的范圍以外的行為時具有刑事責任主體地位。因為人工智能運行所依賴的程序和算法是人腦的替代品,其只要具備了表現(xiàn)為程序和算法的“類人腦”[2],便具有自由意識。
否定說認為人工智能并不具有刑事責任能力所要求的本質要素。[3]其中,有學者從理論學說和邏輯分析等角度否定人工智能的刑事責任主體地位[4],也有學者認為現(xiàn)階段人工智能的發(fā)展暫不足以支持賦予其刑事責任主體地位[5]。
筆者認為,刑事責任主體地位的基礎在于行為主體具有辨認能力和控制能力,對行為主體是否能夠給予刑罰處罰的關鍵也在于辨認能力與控制能力,而產(chǎn)生辨認能力和控制能力的生物學基礎是自由意識。否定人工智能具有自由意識,便可以否定人工智能具有辨認能力和控制能力,進而否定其刑事責任主體地位。因此,本文以自由意識為基點,從辨認能力和控制能力、單位犯罪以及刑罰論等角度,對人工智能的辨認能力和控制能力、與單位犯罪的關聯(lián)性以及刑罰的可處罰性等展開論述,對人工智能能否具有刑事責任主體地位進行評析。
溯及人工智能初始,研發(fā)人工智能的初衷是將其作為人類的工具。時至今日,工具屬性仍然是人工智能的本質屬性。[6]人工智能的工具本質屬性,使得其能否具有自由意識存在著較大的疑問。
檢測人工智能是否具有意識,始于“圖靈測試法”(1)圖靈測試法,即當人類無法通過提出問題進而分辨出測試對象是機器還是人時,機器便是“人”。。圖靈測試法最大的缺陷在于:其測試本身并不是考察人工智能是否具有思維能力,而是考察它能否通過測試。1980年塞爾提出“中文屋”對圖靈測試法提出質疑,得出“程序本身不能構成心靈,程序的形式句法本身不能確保心智內容的出現(xiàn)”[7]167的結論?;谌麪柕摹爸形奈荨笨深A見,未來不會出現(xiàn)具有自由意識的人工智能。
從醫(yī)學生理學角度看,具有自由意識必須符合兩個條件:一是具有大腦;二是大腦具有從外界獲取知識的能力。人腦的神經(jīng)系統(tǒng)由大約120億個神經(jīng)元組成,神經(jīng)元有接受刺激、分類整合儲存數(shù)據(jù)、傳遞數(shù)據(jù)和分泌激素的基本功能。假設超人工智能具有自由意識,那么其最基本的要素便是具有感覺。而真實的感覺存在神經(jīng)中樞抑制,分為突觸前和突觸后,突觸后抑制分為傳入側肢抑制和回返性抑制。例如,手被扎一下,手臂會快速屈曲,這需要同時讓屈肌收縮和舒肌舒張,再輔之以肘關節(jié)的拮抗肌協(xié)同作用。[8]304在超人工智能機器人體表布置力度控制協(xié)作處理器,在人工智能中樞內輸入各種力度反彈的算法和程序也可實現(xiàn)類似反射的活動。筆者認為,這只是暴力的計算方法,根本不是神經(jīng)反射,不是自由意識的表現(xiàn)。
1.圖形 平面設計的重點是對圖形的詮釋。如果說要用中國特有的圖形的話,漢字是最佳選擇。因為漢字是中國最古老的文字,也是中國藝術的靈魂,而且它本身就是一種圖形,也是一種符號,象形的字形和巧妙的結構使它擁有獨特的魅力,使視覺表現(xiàn)有了無限種可能。比如明清建筑上的“壽字紋”,沒有一個是現(xiàn)代“壽”字的結構,而更像一種圖形或者符號。清代吉祥文字“黃金萬兩”利用字體結構的相似,把四個字連在一起,形成了一個圖形。呂敬人設計的書籍將“呂”字寫成兩個上下一樣的“口”,看起來更傾向于圖形,而不是文字。這些是中國特有的文化,把漢字的筆畫、偏旁部首融入平面作品中能夠增加設計的趣味性,也具有參與感。
肯定說所提出的“‘類人腦’+大數(shù)據(jù)=自由意志”的觀點缺乏自然科學理論基礎,是邏輯語言的推導,沒有自然科學背書。從生理學角度看,算法和程序的確是人腦功能,由人腦的基底神經(jīng)節(jié)來調節(jié),但基底神經(jīng)節(jié)除此之外還有著調節(jié)肌肉緊張、本體感覺出入信息處理、自主神經(jīng)調節(jié)、心理行為和學習記憶等相關作用。人類的運動不是通過算法程序來指令,更不是通過電源開關來決定,而是由基底神經(jīng)節(jié)、脊髓小腦和大腦皮層來指揮完成的。簡言之,程序和算法僅僅是基底神經(jīng)節(jié)的一小部分功能,而基底神經(jīng)節(jié)也只是大腦一小部分。以基底神經(jīng)節(jié)的部分功能來代替人腦整體,存在以偏概全的嫌疑。
就深度學習而言,肯定說似乎混淆了深度學習能力和擁有自由意識兩者之間的關系。自1955年達特茅斯會議之后,“如何讓人工智能像人一樣思考”成為人工智能領域專家長期思考的難題,各個學派提出了不同的解決方案,其中“機器學習”方案成為人工智能的核心。
機器學習就是通過算法和程序使得機器能從海量的數(shù)據(jù)中學習規(guī)律,從而對新事物進行智能識別和對未來做出預測,包括有監(jiān)督學習和無監(jiān)督學習(2)有監(jiān)督學習,是指數(shù)據(jù)集的正確輸出已知情況下的一種學習算法。輸入和輸出已知,意味著輸入和輸出之間存在某種關系,有監(jiān)督學習就是要發(fā)現(xiàn)這種關系,最顯著的算法便是深度神經(jīng)網(wǎng)絡。無監(jiān)督學習,則是在海量的無標簽的信息數(shù)據(jù)中集中發(fā)現(xiàn)和總結模式的學習算法。。人工智能機器人AlphaGo便是有監(jiān)督學習技術的代表作,其在2016年與世界圍棋冠軍李世石的圍棋比賽的第四局中告負,原因在于李世石制勝的關鍵招數(shù)在谷歌公司編制AlphaGo的信息之前并沒有公開。這說明人工智能的運行方法仍然是通過深度學習進行海量的數(shù)據(jù)存儲從而進行輸出,“只不過是‘海量數(shù)據(jù)+暴力算法’的結果,其實質只是一種統(tǒng)計學的應用,根本談不上‘智能’”[9]。AlphaGo Zero的勝利則是無監(jiān)督學習技術的重大突破,但Alpha GO Zero顯然無法解釋它是如何做出這一切的。通說認為,人工智能的基礎在于算法、數(shù)據(jù)和平臺,其通過深度學習算法可以實現(xiàn)自我訓練,但并沒有意識存在,因為算法、數(shù)據(jù)和平臺完全來自開發(fā)人員和科研人員的編制和輸入。誠如1967年圖靈獎獲得者莫里斯·威爾克斯所言:程序的局限性很快便會顯現(xiàn)出來,它只能做你讓它做的事情。[10]
綜上所述,無論是采取有監(jiān)督學習還是無監(jiān)督學習,依靠人為編制的算法和程序進行“思考”的人工智能并不具有自由意識,以自由意識為基礎的辨認能力和控制能力自然也難以存在。
肯定說將人工智能與動物相比,依據(jù)傳統(tǒng)觀點認為人工智能具有辨認能力和控制能力。[11]也有學者認為,強人工智能所具有的“人工大腦”存在著進化的思想,能夠理解、模擬并實現(xiàn)人腦功能,通過學習記憶從而擁有辨認能力和控制能力。[12]82這是否意味著人工智能具有辨認能力和控制能力呢?答案是否定的。
首先,人工智能不具備辨認能力??隙ㄕf認為,人工智能的辨認能力和控制能力是其廣泛參與人類生產(chǎn)生活、成為人類合作伙伴的重要因素。例如,“電子眼”“電子耳”的辨認能力遠超過人類。的確如此,但由此主張人工智能具有超人類辨認能力的觀點也是站不住腳的。人永遠沒有汽車跑得快,永遠沒有飛機飛得高,但如果沒有先前的程序設計和數(shù)據(jù)導入,機器根本就不會工作,更不用說超越人類了。2017年8月8日,關于九寨溝地震的第一篇新聞稿由一個寫稿機器人耗費25秒時間完成,而這也只是數(shù)據(jù)挖掘、數(shù)據(jù)分析與新聞通稿“五個W”要素的機械式程序運算的結果。阿里巴巴機器人“曉醫(yī)”備考一年多參加國家執(zhí)業(yè)醫(yī)師考試考取456分的成績,其背后的支持是研發(fā)人員將大量的醫(yī)學教材和醫(yī)學資料輸入其“大腦”,但絕大多數(shù)的普通臨床醫(yī)學考生只需備考半年多的時間便可取得高于“曉醫(yī)”的成績。因此,不能得出機器人的辨認能力“類人類”,甚至完全強于人類的結論。[13]
其次,人工智能不具備控制能力。以無人駕駛汽車作為支撐人工智能具有控制能力的觀點同樣站不住腳。無人駕駛汽車技術是指通過車載傳導系統(tǒng)感知道路環(huán)境,根據(jù)感知到的道路狀況、車輛位置和障礙物信息從而控制汽車車速和轉向。由高精度傳感器來操控汽車,并機械化執(zhí)行駕駛規(guī)則只能說明人工智能系統(tǒng)具有嚴格執(zhí)行程序指令的機能,因為“我們永遠擁有一個法寶,能讓它按我們的意愿行事”[14]88。有學者基于此提出無人駕駛汽車發(fā)生事故或偏離程序設定軌跡行駛時便具有了控制自身的能力,從而肯定人工智能自由意識的存在。[2]那么,當我們按下電腦開機鍵時電腦卻沒有開機,是否意味著電腦通過自由意識在控制自己的開機行為嗎?當然不是。將人類視為機器[15]是對人性最大的褻瀆,主張“飛機無須像鳥類扇動翅膀便可飛行”以肯定人工智能具有智能思維的學者,對飛機依靠引擎維持動力和鳥類依靠扇動翅膀來維持飛行的事實采取選擇性忽略,提出“應當關注飛行的要件”的觀點[16],存在詭辯論的嫌疑。
有學者以“機器人妻子因嫉妒而殺害真人類妻子”的例子來說明強人工智能具有自由意識下的控制能力,并提出“是否要殺死自然人妻子”以及“如何殺死自然人妻子”正是機器人行為控制能力的完美表現(xiàn)。[16]盡管基于情感建模可以使人工智能擁有情感功能,但其基礎仍然是以海量數(shù)據(jù)信息輸入并在特定場景下輸出而產(chǎn)生的“情感”,并不是由神經(jīng)系統(tǒng)和體液分泌促進的交感神經(jīng)興奮產(chǎn)生的真情實意,機器人妻子的感情只不過是虛擬情感。也有學者以克隆人為例,認為人類創(chuàng)造物成為犯罪主體的前提不僅是辨認能力和控制能力,更需要法律準許其進入人類社會,辨認能力和控制能力并不是人工智能成為刑事責任主體的充分必要條件。筆者認為,克隆人來源于人體的干細胞,其并不是人類的創(chuàng)造,而是細胞再生長能力的表現(xiàn)。因此,不能將克隆人與人工智能相提并論。[17]
總之,人工智能不具有辨認能力和控制能力,不存在具有刑事責任能力的基礎,我們不能因為“尊重”人工智能而賦予其刑事責任主體地位。
在某種意義上,人工智能與單位犯罪有相似之處。處罰單位法人與處罰人工智能有著一致的困難:一是二者皆沒有肉體;二是以自然人為中心的刑法理論。肯定說認為,既然我國將單位犯罪納入刑罰范圍,人工智能也不能例外。相比較于單位犯罪,單位法人具有“間接的”辨認能力和認識能力,而人工智能具有“直接的”辨認能力和認識能力;單位法人是集合體,而人工智能是獨立的個體。由此,人工智能具有刑事責任主體地位。[18]亦有學者認為,非人類的法人最終能夠成為刑事責任的主體是順應了時代的要求而自然發(fā)展得來的,這便說明刑事責任并非只適用于人類,如果法人犯罪能夠突破人類中心主義的犯罪觀,那么就應當肯定人工智能也能夠突破進而具有刑事責任的主體地位。[19]
中華人民共和國成立初期,受計劃經(jīng)濟體制的影響,單位法人是貫徹落實國家意志的工具,法人犯罪案件很少出現(xiàn)。國家經(jīng)濟體制改革,社會主義市場經(jīng)濟體制的確立使得立法機關開始重視單位犯罪的立法問題,在1997年《刑法》第三十條正式確定了單位的犯罪主體地位。單位在整體意志的決定下實施犯罪行為是肯定單位法人刑事責任主體地位的前提。整體意識既不是單位整體成員的意識,亦不是某個成員的意識,而是一種“抽象意識”,與自然人的意識存在著本質的區(qū)別。[16]肯定說認為,出于維護國家利益、社會利益和個人利益從而將人工智能由法律擬制為主體是可行的。[20]“如果法律能夠尊重單位的自由意識,那么便沒有理由否認智能機器人的自由意識?!盵18]筆者認為,肯定派學者在借助單位犯罪理論論證人工智能刑事責任問題的同時,卻又反過來主張二者皆為自然人意識的延伸或體現(xiàn),并認為人工智能能夠超越自然人意識,單位則不能,這種解釋方法顯然不符合邏輯要求。
當前刑法對單位犯罪的處罰方法主要以雙罰制為主。首先,既然單位是具有整體性的主體,就應當為其犯罪行為承擔刑事責任。其次,單位畢竟是自然人的結合體,自然人是其存在的基礎,因此也對單位的直接負責的主管人員和其他直接責任人員進行刑罰處罰。歸根結底,對單位犯罪施以雙罰制只不過是區(qū)分了刑事責任承擔者而已,并不能說明單位的主觀惡性,也不能彰顯單位的客觀行為,更不足以說明單位具有自由意識。立法機關若對單位法人的自由意識予以肯定,又怎么會對單位的直接負責的主管人員和其他直接責任人員處以刑罰呢?又怎么會僅對單位法人處以罰金刑呢?正如“刺破公司面紗”制度一樣,法人背后反映的仍然是自然人的意志。脫離了自然人,單位便浮寄孤懸。人工智能與單位法人進行比較,其中心論點仍然在于人工智能是否存在自由意識,是否存在辨認能力和控制能力。透過單位法人,我們可以看到它背后的自然人意志,但透過人工智能,我們看到的只不過是由無數(shù)個“0”和“1”組成的程序、數(shù)據(jù)與算法,其背后仍是研發(fā)人員的程序設計和控制操作。忽視人工智能實質,一味地以“實施程序以外的行為便是自由意識的體現(xiàn)”來肯定人工智能的刑事責任主體地位,容易造成為其背后的研發(fā)人員和使用人員脫罪之后果。
無論基于何種解釋論,我們既無法將人工智能歸于“人”,亦無法以集合式單位法人概念來映射個體式的人工智能。以未來之可能、哲學和邏輯學作為邏輯論證基礎,明顯存在著循環(huán)解釋和詭辯論的嫌疑。
在以自由意志為核心的道義責任論為通說的前提下,否定人工智能的自由意識便意味著人工智能根本不具有可刑罰性。
因果行為論以人的身體是否由意志支配作為判斷標準,但人工智能的行為只不過是對設計程序的僵化、機械的執(zhí)行,若肯定其存在程序外的行為,并將其歸于人工智能的自主意識,恐怕是很荒謬的事。以自動駕駛汽車為例,出現(xiàn)車禍必然是程序之外的行為,如果認為這是自動駕駛汽車自由意識的體現(xiàn),有主觀動機,符合交通肇事罪論的成立條件,對其進行逮捕、審判,恐怕沒有人會同意。
肯定說基于人格責任論的立場,以微軟聊天機器人“Tay”發(fā)布種族言論為例來肯定人工智能具有意識行為。但“Tay”的技術基礎是自動追蹤網(wǎng)友的個人信息并針對其個人信息進行海量的數(shù)據(jù)檢索進而展開對話,是有監(jiān)督學習技術的變現(xiàn),無法作為肯定人工智能具有刑事責任主體地位的例證。機器只能遵守人為設定的程序,人工智能不具有程序外的“意志行為”。
有人用性格責任論闡述犯罪型人工智能,以犯罪為使命的人工智能如“天生犯罪人”,當然具有危險性格,主張具有可處罰性。但犯罪型人工智能的程序和數(shù)據(jù)皆來源于研發(fā)人員或使用人員,應當是研發(fā)人員或使用人員的犯罪工具,而不是犯罪主體,其背后是研發(fā)人員或使用人員的主觀惡性,犯罪型人工智能只不過是機械執(zhí)行程序指令而已。若以此主張?zhí)幜P人工智能,那么人工智能顯然成了實際犯罪主體逃避刑事責任的“替罪羊”。
刑罰是針對不法且有責的犯罪行為而設定的法律制裁手段,是統(tǒng)治階級維護統(tǒng)治的必要手段,是維持社會秩序的法律方法。刑罰設立的兩大目的是報應和預防。刑罰方法從肉刑到自由刑,其實質均是對犯罪人加予痛苦[21]687,讓犯罪人感受痛苦,痛改前非,進而預防犯罪,這是刑罰特殊預防的功能。人工智能沒有情感,不具有自然人生來便有的恐懼感和羞愧感。人工智能實施“危害社會行為”的原因要么來自程序設計,要么來自程序缺陷,均是程序數(shù)據(jù)算法所致,對其實施刑罰并不能產(chǎn)生特殊預防的效果。
肯定派學者基于此主張改革刑罰體制。一種觀點主張設立刪除數(shù)據(jù)、修改程序、永久銷毀等人工智能刑罰。刪除數(shù)據(jù)是刪除人工智能實施犯罪行為所依賴的數(shù)據(jù)信息,相當于抹除人工智能的“犯罪記憶”,使其恢復到實施犯罪之前的狀態(tài)。筆者認為,刪除記憶并不能使人工智能感受到刑罰的痛苦。人工智能沒有感官,不會感到痛苦。人會恐懼害怕,但人工智能并不具備此心理,其沒有產(chǎn)生痛苦的生物學基礎。感官并不能通過深度學習和電子傳感器來獲得。修改程序是指在多次刪除數(shù)據(jù)仍然無法阻止人工智能主動獲取有可能實施犯罪行為的“負面數(shù)據(jù)”時強制修改程序,從根本上剝奪其實施犯罪行為的可能性。既然可以事后修改程序,為何不進行事先干預呢?永久銷毀,即在刪除數(shù)據(jù)和修改程序無法消除犯罪時,從根本上剝奪犯罪行為的可能性。[22]通俗來說,如同剝奪人工智能的生命,當前無任何刑法學者主張人工智能享有生命權,單獨的人工智能刑罰并不能與自然人乃至單位刑罰相適應,根本無法起到刑罰的法律效果。
另一種觀點主張設立罰金刑。[23]由研發(fā)人員、人工智能企業(yè)和國家共同成立基金會,在人工智能實施犯罪行為時,由基金會進行賠償。對單位法人處以罰金刑是由于單位具有獨立的財產(chǎn),享有獨立的財產(chǎn)權,但人工智能并沒有獨立的財產(chǎn),反而恰恰是其使用人員具有財產(chǎn)。再者,基金會的財產(chǎn)來源于廠商和國家,并非人工智能通過自身行為所得,對不存在金錢概念的人工智能實施罰金刑并不會對其產(chǎn)生任何影響,顯然無法實現(xiàn)對自然人實施罰金刑的效果。
綜上所述,對人工智能實施刑罰,不僅不會使人工智能產(chǎn)生刑罰痛苦感,喪失刑罰目的,反而會影響對人工智能的使用人員的追責,甚至導致真正的犯罪行為人規(guī)避刑事責任。
高新科技產(chǎn)業(yè)發(fā)展日新月異,不斷突破著非專業(yè)學者的認知極限,使得法學學者不得不對這新鮮事物予以回應,但僅求助于邏輯分析和哲學討論便武斷得出人工智能具有自由意識的觀點是片面的。“程序編程之母”埃達·羅夫萊斯(Ada Lovelace)早在1842年便告訴后人:“分析引擎不能自命不凡,認為什么事情都能解決,它只能完成我們告訴它如何做的事情?!笨隙ㄅ蓪W者以人類沙文主義來對否定派學者予以詰難,甚至提出“生命是特別的,我們不能像破壞法律那樣去虐待那些機器、動物等非人類生命,非人類生命也應該享有‘人權’”[24]的觀點。無論從生物學、生理學還是心理學的角度來看,我們都無法將沒有自由意識、辨認能力和控制能力的人工智能視為“人”般的存在。缺乏自由意識以及以自由意識為基礎的辨認能力、控制能力,人工智能的刑罰的可罰性便不能成立。單位犯罪始終擺不掉其背后自然人的意志,我們不能因單位沒有辨認能力、控制能力仍能接受刑罰而武斷地類推人工智能可以構成犯罪。刑法是謙抑的,動輒以修改刑罰體系來遏制違法行為的主張,并無實際必要。倘若未來某一天真的制造出可以自己繁衍、擁有自我意識、能夠脫離人類控制的人工智能,那么通過對刑法的解釋,人工智能自然而然地便會被納入刑法的規(guī)制范圍。