石經(jīng)海 唐渠渠
內(nèi)容提要:快速發(fā)展的人工智能引發(fā)人們恐懼,是否用刑法規(guī)制以消解此恐懼激起刑法學(xué)界熱議,分歧的焦點(diǎn)在 “強(qiáng)人工智能”是否具有 “獨(dú)立意志”而成為刑事責(zé)任主體。通過(guò)對(duì)人工智能的數(shù)學(xué)考察:新知識(shí)悖論、啟發(fā)式悖論等技術(shù)難題,對(duì)人腦神經(jīng)掃描、建模等路徑障礙,人們對(duì)強(qiáng)人工智能社會(huì)危害的恐懼實(shí)際上是虛化的,所謂 “獨(dú)立意志”只不過(guò)是設(shè)計(jì)者對(duì)在復(fù)雜算法交互下形成的各種不確定情況的不完全掌握,人工智能不能成為刑事責(zé)任主體,不能成為刑事制裁對(duì)象。對(duì)于人工智能犯罪,應(yīng)在社會(huì)治理體系下,轉(zhuǎn)換處罰人工智能而非人的觀念,為人工智能設(shè)定相關(guān)的監(jiān)管人員等多元方式應(yīng)對(duì)人工智能時(shí)代的到來(lái)。
人類(lèi)在享受人工智能帶來(lái)便利服務(wù)的同時(shí),也恐懼過(guò)度聰明的人工智能是否會(huì)給人類(lèi)帶來(lái)難以預(yù)見(jiàn)的危害。源于對(duì)恐懼的回應(yīng)和消解,刑法學(xué)界圍繞人工智能法律規(guī)制的核心是強(qiáng)人工智能基于獨(dú)立意志而成為刑事責(zé)任主體,基于罪責(zé)自負(fù)而成為刑事制裁對(duì)象。理性的分析和適當(dāng)?shù)那罢笆切谭ㄔ撚械那闋?,而大多學(xué)者對(duì)此的解釋是從傳統(tǒng)的法理或哲學(xué)等側(cè)面進(jìn)行,卻不知源于 “獨(dú)立意志”的恐懼其實(shí)是數(shù)學(xué)原理的一般運(yùn)用。人工智能是科技的產(chǎn)物,數(shù)學(xué)是一切科學(xué)的邏輯起點(diǎn),架空科技的實(shí)質(zhì)去談?wù)撊斯ぶ悄埽焕斫鈹?shù)學(xué)原理的主觀臆斷,極易促成失真情況的發(fā)生。在數(shù)學(xué)機(jī)理下對(duì)人工智能進(jìn)行研究,有助于揭開(kāi)人工智能基于 “獨(dú)立意志”實(shí)施危害社會(huì)行為的神秘面紗,為刑法規(guī)制人工智能提供正確的理論基礎(chǔ)。
1956年達(dá)特茅斯會(huì)議的召開(kāi),標(biāo)志著以解放人的大腦為目的的人工智能的誕生。①谷建陽(yáng):《AI人工智能:發(fā)展簡(jiǎn)史+技術(shù)案例+商業(yè)運(yùn)用》,清華大學(xué)出版社2018年版,第47頁(yè)。從誕生之日起,到如今與人的思維具有相似性的人工智能時(shí)代,歷經(jīng)曲折。②1956年到1970年,人工智能從開(kāi)始到迅速發(fā)展,到1970年基于人工智能遭遇的批判,資金瘋狂銳減。1970年到1980年,人工智能全面沉寂,國(guó)家停止撥款。1980年到1987年,人工智能重新迎來(lái)一個(gè)發(fā)展高潮,首先是日本投入了8.5億美金研發(fā)機(jī)器人。1987年到1993年,人工智能的發(fā)展又一次陷入低谷,美國(guó)研究機(jī)構(gòu)人工智能不再是研究的重要方向。從1993年到今天,人工智能進(jìn)入了加速發(fā)展軌道。人工智能在解放人類(lèi)大腦的同時(shí),也帶來(lái)了風(fēng)險(xiǎn)。風(fēng)險(xiǎn)不同于實(shí)害,也區(qū)別于危險(xiǎn),其具有不確定性和隨機(jī)性,正是這些不確定性和隨機(jī)性,引發(fā)了人類(lèi)的恐懼。③劉憲權(quán):《人工智能:刑法的時(shí)代挑戰(zhàn)》,上海人民出版社2018年版,第1頁(yè)。
基于對(duì)人工智能所持的不同態(tài)度,刑法學(xué)界對(duì)其是否予以刑法規(guī)制形成涇渭分明的兩派:激進(jìn)派和保守派。
激進(jìn)派認(rèn)為人工智能的無(wú)限制發(fā)展最終會(huì)對(duì)人類(lèi)造成威脅,在風(fēng)險(xiǎn)語(yǔ)境下,為避免將來(lái)出現(xiàn)的災(zāi)難性事件,主張法益保護(hù)早期化,賦予人工智能刑事主體地位,以應(yīng)對(duì)將來(lái)可能出現(xiàn)的情況。主要理由如下:
第一,人工智能最終將擁有自主的意識(shí),可以辨認(rèn)自己的行為并知曉行為的意義和后果,并實(shí)施控制。所以,當(dāng)其在設(shè)計(jì)和編制的程序范圍外實(shí)施行為時(shí),完全可以成為刑事責(zé)任主體,承擔(dān)刑事責(zé)任。④黃云波:《論人工智能時(shí)代的刑法機(jī)能》,載 《人民法治》2018年第11期。鑒于人工智能與人不同,其不具有生命特征,由此適用于人類(lèi)的死刑、自由刑、財(cái)產(chǎn)刑等都不再適合人工智能,賦予其刑事責(zé)任主體身份的同時(shí),應(yīng)針對(duì)其本身的性質(zhì)構(gòu)建一套合適的刑罰體系。⑤劉憲權(quán):《人工智能時(shí)代的 ‘內(nèi)憂’‘外患’與刑事責(zé)任》,載 《東方法學(xué)》2018年第1期。
第二,法人主體的刑法擬制為人工智能的刑法擬制提供了先例。將單位看成刑事責(zé)任主體,就說(shuō)明單位的意志性,只不過(guò)其意志表現(xiàn)為單位內(nèi)部所有人的共同意志。通過(guò)深度學(xué)習(xí),人工智能完全可能產(chǎn)生設(shè)計(jì)或編制程序范圍外的自主意志,人工智能的意志和單位的意志相比,自由程度更強(qiáng)。如果法律能夠尊重單位的自由意志,就沒(méi)有理由否認(rèn)人工智能的自由意志。而且,從法律屬性來(lái)講,人工智能比單位更接近法律意義上的人。⑥劉憲權(quán)、胡荷佳:《論人工智能時(shí)代智能機(jī)器人的刑事責(zé)任能力》,載 《法學(xué)》2018年第1期。
而保守派對(duì)此態(tài)度卻大相徑庭。其認(rèn)為,面對(duì)人工智能,刑法學(xué)界應(yīng)保持一個(gè)理性的態(tài)度,切不可急于出手,人工智能終究不過(guò)是人類(lèi)的工具,不主張人工智能成為犯罪的適格主體。主要理由如下:
第一,人工智能運(yùn)行機(jī)理與人的意志自由進(jìn)行形式匹配過(guò)于機(jī)械,其不具有理解并遵從法律規(guī)范的能力,而且對(duì)人工智能的行為屬性無(wú)從判斷是技術(shù)故障還是基于其自主思維的認(rèn)識(shí)和意志能力而實(shí)施。由此,人工智能不具有刑法意義上的行為認(rèn)識(shí)與控制要素的自主性,欠缺作為刑事責(zé)任主體的本質(zhì)特征。⑦時(shí)方:《人工智能刑事主體地位之否定》,載 《法律科學(xué) (西北政法大學(xué)學(xué)報(bào))》2018年第6期。
第二,認(rèn)為人工智能可成為刑事責(zé)任主體的觀點(diǎn)過(guò)于膚淺,對(duì)自然人和人工智能之間的區(qū)別缺乏由表及里的審視。自然人作為有血有肉的社會(huì)活動(dòng)主體,在社會(huì)中可具有多重身份,受到倫理道德規(guī)范的約束,而這些都是人工智能所不具備的。人工智能不具有社會(huì)性,賦予人工智能刑事主體資格,將導(dǎo)致道德上的不允許、倫理上的混亂、法律上的危機(jī)。
從激進(jìn)派與保守派之爭(zhēng)可看到,拋開(kāi)個(gè)人因素、情感,兩派爭(zhēng)議的實(shí)質(zhì)是人工智能是否有獨(dú)立意志。激進(jìn)派認(rèn)為,人工智能終將發(fā)展到具有 “獨(dú)立意志”的時(shí)代,那時(shí)候,它能夠明白自己的行為,是有思想、有情感的。如果其做一些危害社會(huì)的行為,人類(lèi)該怎么辦?只有將其作為與我們一樣的 “人”來(lái)看待,給予其人的屬性和法律定位,用最嚴(yán)厲的法來(lái)規(guī)制它。而保守派認(rèn)為,意志是人類(lèi)專(zhuān)有的東西,人工智能只是服務(wù)于人類(lèi)的工具,不會(huì)產(chǎn)生獨(dú)立意志,而只要沒(méi)有 “意志”的人工智能,無(wú)論是類(lèi)人的還是非類(lèi)人的,“人工智能”的 “智能”或許都是一個(gè)美麗的擬人化比喻。⑧王驥:《新未來(lái)簡(jiǎn)史:區(qū)塊鏈、人工智能、大數(shù)據(jù)陷阱與數(shù)字化生活》,電子工業(yè)出版社2018年版,第211頁(yè)。
以上可知,無(wú)論激進(jìn)派還是保守派,對(duì)人工智能刑事主體資格的分析都是從法理或是哲學(xué)等其他側(cè)面進(jìn)行,都沒(méi)有對(duì)人工智能的機(jī)理進(jìn)行探討,人工智能是科技的產(chǎn)物,架空科技去談?wù)撊斯ぶ悄?,在不了解人工智能的運(yùn)行機(jī)理之下去討論權(quán)利主體問(wèn)題,終究是帶有主觀色彩的、不深刻的天馬行空。以下,筆者將從人工智能的數(shù)學(xué)原理說(shuō)起,利用人工智能的原理和本質(zhì)揭開(kāi)人工智能危害社會(huì)行為性質(zhì)的神秘面紗。
正如恐怖大師史蒂夫·金所說(shuō):“讓人的心備受恐懼折磨的從來(lái)都不是妖魔鬼怪,而是超出認(rèn)知范圍的未知。”人工智能的發(fā)展速度太快,普通人卻對(duì)其操作方式、運(yùn)作邏輯與程序一無(wú)所知,猶如身處黑暗,卻不知黑暗的邊界。因?yàn)檫@些未知黑暗的不確定狀況,人類(lèi)產(chǎn)生了恐懼;因?yàn)榭謶志拖脍s快用最嚴(yán)厲的東西去規(guī)制它,甚至消滅它,而刑法作為最嚴(yán)厲的法便粉墨登場(chǎng)。
1.強(qiáng)弱之分?量變不一定引起質(zhì)變
學(xué)界根據(jù)人工智能有無(wú)獨(dú)立意志、是否超出程序設(shè)計(jì)范圍,將人工智能分為弱人工智能和強(qiáng)人工智能。⑨圖靈測(cè)試,由人工智能之父艾倫·麥席森·圖靈提出,指出如果第三者無(wú)法辨別人工智能機(jī)器與人類(lèi)反應(yīng)的差別,就可以論斷該人造機(jī)器具備了人工智能。應(yīng)當(dāng)說(shuō),能夠通過(guò) “圖靈測(cè)試”的機(jī)器所具備的人工智能相當(dāng)于 “人類(lèi)”級(jí)別的人工智能,即強(qiáng)人工智能。弱人工智能雖可在設(shè)計(jì)和編制的程序范圍內(nèi)進(jìn)行獨(dú)立判斷并作出決策,但不具有辨認(rèn)能力和控制能力,其實(shí)現(xiàn)只是設(shè)計(jì)者和使用者的意志。強(qiáng)人工智能具有辨認(rèn)能力和控制能力,除具弱人工智能的功能外,還可超出設(shè)計(jì)和編制的程序范圍,進(jìn)行自主決策并實(shí)施相應(yīng)的行為,實(shí)現(xiàn)其自身的 “意志”,如科幻電影中的HAL讀懂飛行員想要關(guān)閉它的唇語(yǔ),故意讓電腦失靈。⑩劉憲權(quán):《人工智能時(shí)代的刑事風(fēng)險(xiǎn)與刑法應(yīng)對(duì)》,載 《法商研究》2018年第1期。
可是,人工智能真的存在強(qiáng)弱之分?其劃分依據(jù)是否本身就是一個(gè)偽命題?眾所周知,人工智能技術(shù)存在三大悖論。①李國(guó)杰:《人工智能的三大悖論》,載 《中國(guó)計(jì)算機(jī)學(xué)會(huì)通訊》2017年第11期。第一,莫拉維克悖論。莫拉維克悖論是人工智能和機(jī)器人學(xué)者發(fā)現(xiàn)的一個(gè)和常識(shí)相佐的現(xiàn)象。與傳統(tǒng)假設(shè)不同,人類(lèi)所獨(dú)有的高階智慧能力只需非常少的計(jì)算能力,例如推理,但是無(wú)意識(shí)的技能和直覺(jué)卻需要極大的運(yùn)算能力。如莫拉維克所寫(xiě):“要讓電腦如成人般地下棋是相對(duì)容易的,但要讓電腦如一歲小孩般的感知和行動(dòng)卻是不可能的?!痹撱U摲从硤D靈機(jī)模型的局限性,而現(xiàn)有計(jì)算機(jī)的模型正是和馮諾依曼的計(jì)算機(jī)構(gòu)造一脈相承。②鄭慧:《刑法對(duì)人工智能應(yīng)秉持的理性態(tài)度》;參見(jiàn)前引③,劉憲權(quán)書(shū),第181-182頁(yè)。如何突破圖靈機(jī)的局限性,是人工智能面臨的第一個(gè)問(wèn)題。第二,新知識(shí)悖論。人們常說(shuō)大數(shù)據(jù)和機(jī)器學(xué)習(xí)是從數(shù)據(jù)中發(fā)現(xiàn)新知識(shí),但計(jì)算機(jī)專(zhuān)家認(rèn)為:計(jì)算機(jī)是機(jī)械的、可重復(fù)的智能機(jī),本質(zhì)上沒(méi)有創(chuàng)造性。計(jì)算機(jī)的運(yùn)行可歸結(jié)為對(duì)已有符號(hào)的形式變換,結(jié)論已經(jīng)蘊(yùn)含在前提中,本質(zhì)上不產(chǎn)生新知識(shí),不會(huì)增進(jìn)人類(lèi)對(duì)客觀世界的認(rèn)識(shí)。③在CNCC的會(huì)士論壇中,林惠民院士就談到了這樣的觀點(diǎn)。新知識(shí)如何產(chǎn)生,是人工智能面臨的第二個(gè)問(wèn)題。 第三,啟發(fā)式悖論。啟發(fā)式搜索不能保證找到解或保證解的精確度,而且采用啟發(fā)式算法會(huì)帶來(lái)一些風(fēng)險(xiǎn)。如何保證解的正確性及如何面對(duì)這些風(fēng)險(xiǎn),是人工智能面臨的第三個(gè)問(wèn)題。
人工智能存在悖論,并非萬(wàn)能,先不說(shuō)人工智能還處于人工智障階段過(guò)于偏激,至少在未來(lái)很長(zhǎng)時(shí)間內(nèi),人工智能處在也將持續(xù)處在弱人工智能時(shí)代。④有學(xué)者認(rèn)為,現(xiàn)在的人工智能還處在人工智障時(shí)代,用刑法規(guī)制人工智能只不過(guò)是法學(xué)領(lǐng)域的熱點(diǎn)追逐現(xiàn)象,法學(xué)研究的重心是解釋、回應(yīng)以及致力于解決當(dāng)下最廣大人民群眾最關(guān)切的、最迫切需要解決的社會(huì)問(wèn)題,而不是缺乏實(shí)證調(diào)研、依賴(lài)于外文資料、豐富的想象力和嫻熟的文筆,寫(xiě)出的一連串的學(xué)術(shù)論文。法學(xué)是應(yīng)用法學(xué),而非預(yù)測(cè)法學(xué)或法命理學(xué)。從 “三大悖論”可以得到,量的積累幾乎不可能發(fā)生質(zhì)變,人工智能技術(shù)的發(fā)展在未來(lái)很長(zhǎng)時(shí)間內(nèi)都很難突破,要達(dá)到強(qiáng)人工智能時(shí)代,可謂是一個(gè)難以企及的神話。⑤參見(jiàn)前引⑧,王驥書(shū),第5頁(yè)。
2.奇點(diǎn)到來(lái)?一個(gè)想象的烏托邦而已
從發(fā)展史來(lái)看,人工智能研究有三種技術(shù)路徑:其一是以專(zhuān)家系統(tǒng)為代表的符號(hào)學(xué)派,其從人腦推理功能出發(fā),認(rèn)為只要模擬人腦的邏輯推理思維,把相關(guān)的信息抽象為符號(hào),然后進(jìn)行符號(hào)運(yùn)算,便可實(shí)現(xiàn)推理功能。其二是以圖像識(shí)別為代表的聯(lián)接學(xué)派,其從人腦組織出發(fā),進(jìn)行機(jī)器模擬。人腦有大量神經(jīng)元,人之所以能夠進(jìn)行思維就是因?yàn)檫@些神經(jīng)元互相聯(lián)接,處理各種信息。如果用機(jī)器模擬神經(jīng)元,并建立人工神經(jīng)元聯(lián)接網(wǎng)絡(luò),便能夠進(jìn)行思維。⑥陳宗周:《AI傳奇——人工智能通俗史》,機(jī)械工業(yè)出版社2017年版,第156頁(yè)。其三是以智能控制為代表的行為學(xué)派,其從控制論出發(fā),把神經(jīng)系統(tǒng)的工作原理與信息理論、控制理論、邏輯以及計(jì)算機(jī)聯(lián)系起來(lái)進(jìn)行處理。
三大學(xué)派推動(dòng)了人工智能的發(fā)展,但隨著科技發(fā)展,卻出現(xiàn)不同的情形。符號(hào)學(xué)派在二十世紀(jì)九十年代開(kāi)始式微,現(xiàn)在已到奄奄一息的地步。聯(lián)接學(xué)派和行為學(xué)派基于大數(shù)據(jù)的發(fā)展出現(xiàn)了一種好的態(tài)勢(shì)。但仔細(xì)看,可以發(fā)現(xiàn):聯(lián)接學(xué)派遵循的是一條仿生學(xué)的道路,其意圖對(duì)大腦進(jìn)行仿真,但研究表明,人腦大約有1000億個(gè)神經(jīng)元,復(fù)雜程度難以估量,對(duì)這樣一個(gè)復(fù)雜的系統(tǒng)進(jìn)行掃描、建模幾乎是不可能完成的任務(wù),因此聯(lián)接學(xué)派遇到最難突破的一個(gè)瓶頸。⑦尼克:《人工智能簡(jiǎn)史》,人民郵電出版社2017年版,第115頁(yè)。而行為學(xué)派認(rèn)為智能行為產(chǎn)生于主體與環(huán)境的交互過(guò)程中,將復(fù)雜行為分解成單一行為進(jìn)行研究,但這種智能系統(tǒng)是自上而下的,設(shè)計(jì)過(guò)程中很難把握全局整體性,如何與自上而下的系統(tǒng)設(shè)計(jì)方法相結(jié)合,構(gòu)建混合系統(tǒng)便成為行為學(xué)派無(wú)法逾越的鴻溝。⑧徐心和、么健石:《有關(guān)行為主體人工智能研究綜述》,載 《控制與決策》2004年第3期。
從三大學(xué)派的研究現(xiàn)狀來(lái)講,人工智能的發(fā)展停滯不前,無(wú)論是阿爾法狗戰(zhàn)勝?lài)迨澜绻谲娺€是無(wú)人駕駛汽車(chē)的推廣使用,不過(guò)是人工智能在以往研究水平上的優(yōu)化,要想突破 “奇點(diǎn)”,到達(dá)所謂的 “強(qiáng)人工智能時(shí)代”是一個(gè)想象的烏托邦。也許正如某些學(xué)者所說(shuō)的那樣,奇點(diǎn)理論最壞的影響無(wú)疑是它逐漸成為既不研究歷史與哲學(xué),也不學(xué)習(xí)科學(xué),甚至連計(jì)算機(jī)科學(xué)都不曾涉獵的高科技怪人的宗教信仰。⑨[美]皮埃羅·斯加魯菲:《智能的本質(zhì):人工智能與機(jī)器人領(lǐng)域的64個(gè)大問(wèn)題》,任莉、張建宇譯,人民郵電出版社2017年版,第4頁(yè)。極度夸大的奇點(diǎn)理論,是人類(lèi)畏懼人工智能的重要原因。
量變何以引起質(zhì)變,奇點(diǎn)技術(shù)何以實(shí)現(xiàn)。從人工智能的數(shù)學(xué)原理來(lái)講,從技術(shù)層面分析,有無(wú)數(shù)條難以逾越的鴻溝。過(guò)早的將人工智能用刑法規(guī)制是否存在問(wèn)題,是否會(huì)阻礙科技的發(fā)展,人工智能犯罪其本身又何以承擔(dān)?這些都值得我們深思。
奇點(diǎn)理論不切實(shí)際,那現(xiàn)在所謂人工智能的 “獨(dú)立意志”又從何談起?突破設(shè)計(jì)者或編制者的意志是否是人工智能所謂的 “獨(dú)立意志”?接下來(lái),筆者將從數(shù)學(xué)層面對(duì)該 “意志自由”進(jìn)行分析,數(shù)學(xué)是多種學(xué)科的基礎(chǔ)語(yǔ)言,人工智能也必須借用數(shù)學(xué)工具。⑩周志敏、紀(jì)愛(ài)華:《人工智能:改變未來(lái)的顛覆性技術(shù)》,人民郵電出版社2017年版,第4頁(yè)。
1.電腦下棋:從 “暴力窮舉”到 “蒙特卡諾”
下棋一直是人工智能的挑戰(zhàn),自然成為人工智能的標(biāo)志之一。①參見(jiàn)前引⑦,尼克書(shū),第117-126頁(yè)。從二十世紀(jì)九十年代IBM公司生產(chǎn)的電腦 “深藍(lán)”擊敗國(guó)際象棋冠軍卡斯帕羅夫到2016年谷歌公司推出的 “AlphaGo”戰(zhàn)勝?lài)迨澜绻谲娎钍朗茖W(xué)的創(chuàng)舉引發(fā)熱議的同時(shí),也帶來(lái)憂慮。從應(yīng)然層面講,人工智能確實(shí)實(shí)現(xiàn)的不是設(shè)計(jì)者或編制者的意志,因?yàn)樵O(shè)計(jì)者或編制者的下棋水平不可能超過(guò)世界冠軍,但這就能說(shuō)明人工智能突破程序的設(shè)置范圍,實(shí)現(xiàn)了自己的意志,就是所謂的 “意志自由”嗎?筆者并不這樣認(rèn)為。
“深藍(lán)”采用的是 “暴力搜索法”。這一算法是計(jì)算機(jī)編程的常用方法,在找不到解決問(wèn)題的規(guī)律時(shí),就按某種順序?qū)λ锌赡苁墙獾倪x項(xiàng)進(jìn)行逐一枚舉和檢驗(yàn),從中找出那些符合要求的解。在卡斯帕羅夫每落下一個(gè)棋子后,“深藍(lán)”就將剩下棋盤(pán)上的所有走法及結(jié)果都算一遍,并對(duì)這些結(jié)果評(píng)出一個(gè)分?jǐn)?shù),從中選出分?jǐn)?shù)最高也就是最好的那種走法,然后下上一枚棋子,其每下一步棋,都要經(jīng)歷巨量的計(jì)算過(guò)程。國(guó)際象棋要計(jì)算可能的棋步大約是10的四十次方,計(jì)算機(jī)還能應(yīng)付。對(duì)于圍棋,要計(jì)算可能的棋步大約是10的170次方,計(jì)算機(jī)根本無(wú)法完成。所以,適用于象棋的暴力搜索法不再適用于圍棋,這也就是為什么從 “深藍(lán)”到 “阿爾法狗”跨越了二十余年。這二十來(lái)年,為解決該問(wèn)題,找到結(jié)合概率的 “蒙特卡洛方法”,該算法以某種事物出現(xiàn)的頻率來(lái)估計(jì)這一隨機(jī)事件的概率。基于對(duì)該算法的優(yōu)化,提出了 “蒙特卡洛樹(shù)搜索”。②參見(jiàn)前引⑧,王驥書(shū),第215-224頁(yè)?!懊商乜鍢?shù)搜索”就是將 “走棋網(wǎng)絡(luò)”(給定當(dāng)前局面,預(yù)測(cè)和采樣下一步的走棋)、“快速走子”(在適當(dāng)犧牲走棋質(zhì)量的條件下提高速度)、“價(jià)值網(wǎng)絡(luò)”(給定當(dāng)前局面,估計(jì)雙方勝率)三個(gè)部分串聯(lián)成一個(gè)完整的系統(tǒng)。該算法并非窮盡一切走法,而是先完成數(shù)十步計(jì)算后,剩下的靠概率模擬算法來(lái)推算獲勝的可能,并據(jù)以選擇棋步。③黃孝平:《當(dāng)代機(jī)器深度學(xué)習(xí)方法與應(yīng)用研究》,電子科技大學(xué)出版社2017年版,第73頁(yè)。就算如此,“阿爾法狗”的身軀還是十分龐大。④《人工智能簡(jiǎn)明知識(shí)讀本》編寫(xiě)組:《人工智能簡(jiǎn)明知識(shí)讀本》,新華出版社2017年版,第139頁(yè)。
從 “深藍(lán)”到 “阿爾法狗”,從 “暴力窮舉”到 “蒙特卡諾”,人工智能的發(fā)展是遲緩的,二十年的時(shí)間,雖說(shuō)圍棋在考量智商方面有絕對(duì)的話語(yǔ)權(quán),人工智能看似在智力方面超越了人類(lèi),但其本質(zhì)仍是算法的優(yōu)化,所謂突破程序范圍的 “獨(dú)立意志”,也不過(guò)是數(shù)學(xué)在人工智能領(lǐng)域發(fā)揮的絕對(duì)作用。
2.播音主持:從 “神經(jīng)網(wǎng)絡(luò)”到 “深度學(xué)習(xí)”
紀(jì)錄片 《創(chuàng)新中國(guó)》運(yùn)用人工智能技術(shù)重現(xiàn)已逝配音大師李易的聲音;微軟人工智能機(jī)器人小冰,空降 《看東方》節(jié)目,擔(dān)起晨間天氣播報(bào)的工作;《西安新聞》節(jié)目引入機(jī)器人主播 “石榴娃”與主持人搭檔,圓滿完成當(dāng)期節(jié)目……這些無(wú)不給觀眾帶來(lái)新奇感受。⑤周春光:《人工智能環(huán)境下主持人即興口語(yǔ)的發(fā)展態(tài)勢(shì)》,載 《新聞研究導(dǎo)刊》2018年第9期?;蚧卩孱^,或作為創(chuàng)新,人工智能主播事實(shí)上已經(jīng)在廣播電視業(yè)界嶄露頭角。⑥李紅:《人工智能與主持人的替代性淺析》,載 《中國(guó)廣播電視學(xué)刊》2018年第6期。
而播音主持的關(guān)節(jié)點(diǎn)就是對(duì)光學(xué)和聲學(xué)信息的處理,這兩項(xiàng)技術(shù)的算法經(jīng)歷了從 “神經(jīng)網(wǎng)絡(luò)”到 “深度學(xué)習(xí)”。以圖像識(shí)別為例,人工智能主持人可以根據(jù)現(xiàn)場(chǎng)的情況區(qū)分不同的物種。在早期的時(shí)候,基于 “神經(jīng)網(wǎng)絡(luò)”的圖像識(shí)別也是存在的,但準(zhǔn)確率較低,它可能會(huì)把蹲在屋頂?shù)呢埡万T在人頭上的貓識(shí)別為不同的貓,又會(huì)把狗和狼歸類(lèi)為同一種動(dòng)物。這是 “神經(jīng)網(wǎng)絡(luò)”算法自身的缺陷所致,多層神經(jīng)網(wǎng)絡(luò)在面對(duì)大數(shù)據(jù)時(shí),需要人為提取原始數(shù)據(jù)的特征作為輸入,必須忽略不相關(guān)的變量,同時(shí)保留有用的信息,這個(gè)要求對(duì)于人類(lèi)實(shí)屬艱難。
科學(xué)家經(jīng)過(guò)多年摸索,最終實(shí)現(xiàn)基于 “深度學(xué)習(xí)”的圖像識(shí)別,解決了 “神經(jīng)網(wǎng)絡(luò)”人為提取特征的弊端,將準(zhǔn)確率提高了數(shù)倍。深度學(xué)習(xí)自動(dòng)選擇原始數(shù)據(jù)的特征,使所有特征完全在網(wǎng)絡(luò)中自動(dòng)呈現(xiàn),而并非出自人工設(shè)計(jì)。少了人為提取特征導(dǎo)致的誤差,無(wú)需對(duì)機(jī)器做事先訓(xùn)練,人工智能自身可通過(guò)深度學(xué)習(xí)在海量數(shù)據(jù)中挖掘有用數(shù)據(jù),去發(fā)現(xiàn)不同物種之間的差異、不同個(gè)體之間的特殊映射,然后去分析、總結(jié)、預(yù)測(cè)并得出結(jié)論。相對(duì)于 “神經(jīng)網(wǎng)絡(luò)”,“深度學(xué)習(xí)”在精度、準(zhǔn)確度、速度上都有質(zhì)的提高。
在分析完播音主持的原理之后,我們還會(huì)驚嘆于人工智能的魔力,還會(huì)恐懼人工智能可能會(huì)取代人類(lèi)的想法?否也。首先,我們肯定程序的設(shè)計(jì)者或編制者對(duì)情況不可能事先一一列舉,智能播音主持人所做的每一個(gè)動(dòng)作或所講的每一句話,都是自我進(jìn)化自我決策的結(jié)果,但這樣就能認(rèn)為實(shí)現(xiàn)了人工智能的 “獨(dú)立意志”嗎?從以上分析我們可以得出答案,主持機(jī)器人的智能表現(xiàn)為對(duì)語(yǔ)音識(shí)別、大數(shù)據(jù)以及 “深度學(xué)習(xí)”算法等技術(shù)的綜合運(yùn)用。⑦參見(jiàn)前引④,《人工智能簡(jiǎn)明知識(shí)讀本》編寫(xiě)組書(shū),第142頁(yè)。所謂的 “獨(dú)立意志”只是在算法該有的范圍內(nèi),結(jié)論蘊(yùn)含在前提之中,作出的應(yīng)作出且不應(yīng)錯(cuò)誤的行為。
3.智能汽車(chē):從 “經(jīng)典數(shù)學(xué)”到 “模糊推理”
國(guó)外,無(wú)人駕駛汽車(chē)已行駛在大街小巷,國(guó)內(nèi)也在緊鑼密鼓的研究中。未來(lái)智能汽車(chē)的推廣使用,是毫無(wú)懸念的事。那智能汽車(chē)自動(dòng)行使的原理是什么?對(duì)于智能汽車(chē)根據(jù)車(chē)況環(huán)境的變化做出的行為是否可以看做是它 “獨(dú)立意志”的體現(xiàn)?筆者認(rèn)為,非也。
經(jīng)典數(shù)學(xué)是常接觸到的數(shù)學(xué)分支,它能解決生活中絕大部分事情。它將自己的表現(xiàn)力限制在那些有明確外延的概念和事物上,規(guī)定每一個(gè)集合必須由確定的元素構(gòu)成,元素對(duì)集合的隸屬關(guān)系是明確的。其對(duì)應(yīng)計(jì)算機(jī)系統(tǒng)的二值邏輯運(yùn)算,0或1,早期運(yùn)用于計(jì)算機(jī)上的數(shù)學(xué)一般都是經(jīng)典數(shù)學(xué),用于判斷是與非。
但現(xiàn)實(shí)世界并非那么明確清晰,有些概念具有模糊性,難以劃定界限,比如年老與年幼。⑧周潤(rùn)景:《模式識(shí)別與人工智能:基于MATLAB》,清華大學(xué)出版社2018年版,第99頁(yè)。基于模糊推理的產(chǎn)品在生活中隨處可見(jiàn),比如智能洗衣機(jī)。⑨魯斌等:《人工智能及應(yīng)用》,清華大學(xué)出版社2017年版,第46頁(yè)。也就是說(shuō),現(xiàn)實(shí)生活中的事物不是非黑即白,還存在灰色地帶。運(yùn)用在人工智能中的模糊推理就是這個(gè)道理。⑩經(jīng)典集合使用特征函數(shù)來(lái)描述,模糊集合使用隸屬度函數(shù)作定量描述,定義一個(gè)模糊集合就是定義域中各個(gè)元素對(duì)該模糊集合的隸屬度。至今為止,確定隸屬度函數(shù)的方法有模糊統(tǒng)計(jì)法、例觀法、專(zhuān)家經(jīng)驗(yàn)法以及二元對(duì)比排序法四種。
著名的 “禿頭悖論”可以說(shuō)出經(jīng)典數(shù)學(xué)和模糊推理的差異。在判斷一個(gè)人是否是禿子時(shí),比如規(guī)定500根頭發(fā)不是禿子,經(jīng)典推理會(huì)得出499根頭發(fā)是禿子而501根頭發(fā)不是禿子的結(jié)論,而模糊推理會(huì)引入一個(gè)隸屬度的概念,以程度的形式表現(xiàn)某人是禿頭的程度為0.3等等。很顯然,模糊推理比精確推理更具合理性。
所以,在 “模糊推理”視野下的 “獨(dú)立意志”并不是哲學(xué)上的 “獨(dú)立意志”。運(yùn)用模糊推理算法的人工智能,在為一定行為時(shí)是不確定的,是可能根據(jù)環(huán)境的變化而變化的。關(guān)于自動(dòng)駕駛汽車(chē),人類(lèi)不可能對(duì)駕駛的路徑和遇到的情況都事先規(guī)劃完全。自動(dòng)駕駛汽車(chē)會(huì)安置大量高清攝像頭和傳感器,這些硬件設(shè)備會(huì)收集汽車(chē)附近的圖像并將其輸入汽車(chē) “大腦”中進(jìn)行處理、分析,從而判斷出汽車(chē)附近的實(shí)時(shí)路面情況,進(jìn)而調(diào)整車(chē)速、車(chē)距和車(chē)位。①唐進(jìn)民:《深度學(xué)習(xí)之PyTorch實(shí)戰(zhàn)計(jì)算機(jī)視覺(jué)》,電子工業(yè)出版社2018年版,第80-89頁(yè)。我們可以肯定這不是人類(lèi)賦予它的能力,而是人類(lèi)設(shè)計(jì)的算法而做出的處理。在很多情況下,可能其某一舉動(dòng)連設(shè)計(jì)者都不太清楚,因?yàn)樵谀:评淼囊曇跋?,程序里涵蓋的算法是復(fù)雜的、不確定的,這些不確定性以及模糊性使設(shè)計(jì)者無(wú)法完全掌握,所謂突破程序設(shè)定范圍、超越設(shè)計(jì)者設(shè)計(jì)意圖的行為,不過(guò)是模糊推理下該有的行為。
對(duì)于人工智能,人們因?yàn)椴涣私馑晕窇?。人們畏懼什么呢?可能是突破程序設(shè)定范圍的人工智能,按照自己的 “意志”去實(shí)施危害社會(huì)的行為。可它真的能夠突破程序的設(shè)定范圍,擁有自己獨(dú)立的 “意志”嗎?從數(shù)學(xué)的不同角度對(duì) “獨(dú)立意志”進(jìn)行分析可知,所謂 “獨(dú)立意志”不是那么回事。人工智能最核心的東西不過(guò)是數(shù)學(xué)中的各種算法,而程序里涵蓋的這些算法是復(fù)雜的,更是不確定的,隨機(jī)性和模糊性使得程序設(shè)計(jì)者都無(wú)法完全掌握所有情況。也就是人工智能依舊是在程序設(shè)定的范圍內(nèi)實(shí)施行為,如果出現(xiàn) “突破”設(shè)計(jì)者預(yù)想的行為,那只能說(shuō)明設(shè)計(jì)者對(duì)程序的掌握,或?qū)λ惴ǖ恼莆帐遣煌耆摹?/p>
再者,并不是說(shuō)我們不理解機(jī)器在做什么,事實(shí)上,我們編寫(xiě)程序,輸入機(jī)器,從外部輸入人工智能運(yùn)作的始發(fā)動(dòng)力,接著就是算法引發(fā)一些自動(dòng)動(dòng)作,人類(lèi)被排除在循環(huán)之外,被動(dòng)接受結(jié)果。②[英]瑪格麗特·博登:《人工智能哲學(xué)》,劉西瑞、王漢琦譯,上海譯文出版社2001年版,第11頁(yè)。當(dāng)成千上萬(wàn)臺(tái)機(jī)器交互并且成千上萬(wàn)種算法 (人類(lèi)完全理解每一種算法)以驚人的速度運(yùn)行時(shí),人類(lèi)不得不相信計(jì)算的力量,是速度成就了 “超人類(lèi)”智能,而不是我們無(wú)法理解的智能,是遠(yuǎn)遠(yuǎn)遜色于我們、計(jì)算速度非??斓闹悄?。危險(xiǎn)在于沒(méi)有人能確保該算法設(shè)計(jì)正確,尤其是當(dāng)它與眾多算法交互時(shí)。③參見(jiàn)前引⑨,皮埃羅·斯加魯菲書(shū),第169頁(yè)。比如深度學(xué)習(xí),基于大數(shù)據(jù),設(shè)計(jì)者不能預(yù)料到該算法所要達(dá)到的程度,當(dāng)它學(xué)習(xí)到一種程度,便會(huì)出現(xiàn)所謂的 “獨(dú)立意志”。
如今,人工智能雖取得突破性進(jìn)展,但在意識(shí)領(lǐng)域,那仍是一條 “不可觸碰的星河”。無(wú)論人工智能怎么發(fā)展,缺乏意識(shí)的系統(tǒng)永遠(yuǎn)都是機(jī)器,不論它在某些領(lǐng)域表現(xiàn)得多么出色,依然改變不了像鋤頭、火與原子彈一樣的角色。④參見(jiàn)前引⑧,王驥書(shū),第296頁(yè)。所以,那些認(rèn)為人工智能具有 “獨(dú)立意志”,將其危害社會(huì)的行為主張用刑法規(guī)制的學(xué)者大多是對(duì)人工智能有誤解。
由上可知,人工智能不具有獨(dú)立意志,關(guān)涉人工智能犯罪是否有必要規(guī)制以及如何規(guī)制呢?從類(lèi)型化的角度來(lái)看,人工智能技術(shù)帶來(lái)的刑事風(fēng)險(xiǎn)主要表現(xiàn)兩體三面。一體是科技下傳統(tǒng)犯罪的轉(zhuǎn)型,另一體是人工智能技術(shù)引發(fā)的新犯罪。第二體可分為兩面:一面為對(duì)人工智能本身的犯罪,另一面是人工智能自身引發(fā)的犯罪。對(duì)于科技下傳統(tǒng)犯罪的轉(zhuǎn)型以及對(duì)人工智能本身的犯罪,用傳統(tǒng)的刑法處罰行為人即可。而人工智能自身引發(fā)的犯罪是否有必要規(guī)制及如何規(guī)制才是問(wèn)題的癥結(jié)。“脫離”設(shè)計(jì)者意志的人工智能,因其隨機(jī)性、不確定性以及模糊性,人類(lèi)對(duì)該行為實(shí)施情況事先難以預(yù)料,無(wú)論從廣度還是深度來(lái)講,人工智能犯罪只會(huì)比自然人犯罪帶來(lái)更大的社會(huì)危害性。因此,人工智能犯罪有必要規(guī)制,但人工智能不是刑事主體,不能強(qiáng)行將刑事責(zé)任施加于人工智能,那么人工智能 “突破”程序范圍,實(shí)現(xiàn) “獨(dú)立意志”的行為刑法應(yīng)如何規(guī)制?
1.刑事政策:立法前評(píng)估
博登海默曾言:“使用強(qiáng)制性制裁的需要愈少,法律就愈能更好地實(shí)現(xiàn)其鞏固社會(huì)和平與和諧的目的?!毙谭ú⒎欠揽仫L(fēng)險(xiǎn)的最佳手段,在一定程度上,刑法單方面的作用是微弱的。為防止刑法機(jī)能擴(kuò)張,也為了避免民法、行政法等其他法律法規(guī)成為 “僵尸法”,刑法應(yīng)保持謙抑性。⑤汪熱:《食品安全刑法規(guī)制的反思——以風(fēng)險(xiǎn)社會(huì)為視角》,載《法制與社會(huì)》2013年第5期。人工智能危害社會(huì)行為的出現(xiàn),不能首先想到和用到的是刑法,應(yīng)站在整個(gè)法律體系乃至社會(huì)治理體系中去研究、考察和定位,從而確定要不要啟動(dòng)刑法規(guī)制和刑法如何予以規(guī)制??傊诹⒎ㄇ?,應(yīng)從社會(huì)治理的視角出發(fā),是否規(guī)制,如何規(guī)制,要事先予以考慮,目前解決風(fēng)險(xiǎn)社會(huì)中的各種問(wèn)題,更多還是要靠良好的社會(huì)政策。
2.罪刑法定原則:界限的不可突破性
“罪刑法定原則”是刑法的基本原則,也是最核心的原則。在人工智能的發(fā)展帶來(lái)的不可避免的風(fēng)險(xiǎn)時(shí),不能主張以犧牲罪刑法定原則和大力壓縮公民自由空間以求得社會(huì)的安全。在法律沒(méi)有明文規(guī)定時(shí)出現(xiàn)的危害行為,不能無(wú)限制地?cái)U(kuò)大解釋法律來(lái)應(yīng)對(duì),以犧牲罪刑法定原則為代價(jià)的做法對(duì)于法治國(guó)家是致命的。筆者認(rèn)為,面對(duì)未來(lái)不可預(yù)料的風(fēng)險(xiǎn),可以在刑事政策及社會(huì)治理的考察之后,在刑法規(guī)制必要時(shí)設(shè)置相應(yīng)的抽象危險(xiǎn)犯,但對(duì)于抽象危險(xiǎn)犯,應(yīng)該有一定的限制,比如說(shuō),只能針對(duì)危害社會(huì)和國(guó)家型犯罪、設(shè)置的法定刑不能過(guò)重等。總之,罪刑法定原則的不可突破性是我們應(yīng)堅(jiān)守的底線。
3.不得已原則:科技發(fā)展的不可阻礙性
人工智能引起的風(fēng)險(xiǎn)屬于一種科技風(fēng)險(xiǎn),是不可避免的。我們應(yīng)設(shè)定一定的風(fēng)險(xiǎn)允許范圍,在范圍內(nèi)的危害行為不需要懲罰任何人。但超出該范圍,如何制裁?民法、行政法以及刑法上的規(guī)定要銜接適當(dāng),避免出現(xiàn)法律真空或法律漏洞,以損法律權(quán)威。因其不可避免性,對(duì)人工智能的設(shè)計(jì)者、使用者、監(jiān)管者不能有太高要求。對(duì)于他們不能預(yù)料到的行為,刑法不能太過(guò)苛責(zé),只有在未盡到注意義務(wù),而且造成了重大損失的前提下,才能給予處罰。其一是為了科技的持續(xù)發(fā)展,防止相關(guān)人員因害怕未知行為的可能性,在實(shí)驗(yàn)上畏手畏腳;其二是基于罪刑相適應(yīng)原則,其主觀惡性小,刑罰應(yīng)保持其謙抑性。對(duì)于利用人工智能故意實(shí)施犯罪的必須嚴(yán)懲,但對(duì)于人工智能本身 “意志”實(shí)施的犯罪只能處罰那些有特定注意義務(wù)和監(jiān)管義務(wù)的人。
1.刑法規(guī)制的主體:人而非人工智能
科技攜帶的風(fēng)險(xiǎn)可能導(dǎo)致災(zāi)難,用法律提前介入,具有一定的前瞻性和可行性。但對(duì)人工智能“獨(dú)立意志”危害社會(huì)的行為,懲罰人工智能本身的想法是錯(cuò)誤的。從數(shù)學(xué)的角度分析得知,人工智能只是人類(lèi)的高科技產(chǎn)品,其依附于人類(lèi)的存在。正如設(shè)計(jì) “中文房間”的約翰·瑟爾所說(shuō):“計(jì)算機(jī)處理信息的方式和人腦是不同的,能夠讓人相信他是有意識(shí)的,那也只是一種模擬而已,計(jì)算機(jī)永遠(yuǎn)不會(huì)有意識(shí)?!雹轠英]卡魯姆·蔡斯:《人工智能革命:超級(jí)智能時(shí)代的人類(lèi)命運(yùn)》,張堯然譯,機(jī)械工業(yè)出版社2017年版,第59頁(yè)。那些想用刑法規(guī)制人工智能本身、修改刑罰體系的想法是不切實(shí)際的,不僅刑罰的功能得不到滿足,還會(huì)導(dǎo)致道德倫理上的混亂。所以,首先應(yīng)轉(zhuǎn)變?nèi)斯ぶ悄芊缸锏挠^念,人工智能不是刑法規(guī)制的對(duì)象,刑法要規(guī)制的只能是人工智能背后的人,如其設(shè)計(jì)者、管理者、使用者等。
2.為人工智能設(shè)定相關(guān)的監(jiān)管人員
基于人工智能犯罪的特殊性,應(yīng)為人工智能設(shè)定相關(guān)的監(jiān)管人員,由精通人工智能技術(shù)的專(zhuān)業(yè)人員進(jìn)行監(jiān)督管理。因其犯罪的不可預(yù)測(cè)性,設(shè)計(jì)者可以事先在人工智能的程序里植入相關(guān)自動(dòng)毀棄程序,當(dāng)人工智能 “突破”程序范圍,實(shí)施 “自由意志”的危害行為時(shí),程序自動(dòng)毀棄;如果是人工智能實(shí)體,那就在實(shí)體內(nèi)植入自毀芯片,只要產(chǎn)生犯罪 “意識(shí)”時(shí),相關(guān)毀滅系統(tǒng)自動(dòng)介入,使其變?yōu)闆](méi)有任何威脅的機(jī)器。只有人類(lèi)重新為其輸入后,才能恢復(fù)相關(guān)功能。而這個(gè)毀滅系統(tǒng)就由監(jiān)管人員負(fù)責(zé)安裝與維護(hù)。如果監(jiān)管者沒(méi)有履行好監(jiān)管職責(zé)而導(dǎo)致人工智能 “犯罪”的話,監(jiān)管者應(yīng)負(fù)相關(guān)責(zé)任。
建議在 《刑法》中增加規(guī)定,《刑法》第××條 [監(jiān)管失職罪]:對(duì)人工智能賦有監(jiān)管職責(zé)的人員,由于沒(méi)有履行或充分履行監(jiān)管義務(wù),致使人工智能實(shí)施危害社會(huì)的行為,后果嚴(yán)重或造成重大損失的,處拘役并處罰金;后果特別嚴(yán)重或造成巨大損失的,處兩年以下有期徒刑、拘役并處罰金。因失職構(gòu)成犯罪,在刑罰執(zhí)行完畢三年期內(nèi)又犯該失職罪的,構(gòu)成累犯,從重處罰,并禁止其再?gòu)氖孪嚓P(guān)行業(yè)。
人工智能是人類(lèi)創(chuàng)造、應(yīng)用和管理的對(duì)象,不具有也不應(yīng)具有人的 “智能”,對(duì)其 “突破”設(shè)定的程序范圍,實(shí)現(xiàn) “獨(dú)立意志”的危害社會(huì)行為的數(shù)理分析可知,人工智能的 “意志”,不是哲學(xué)或刑法學(xué)上的 “意志”,賦予其刑事主體資格予以刑法評(píng)價(jià)沒(méi)有任何理論根據(jù)和現(xiàn)實(shí)可行性。人工智能危害社會(huì),脫離人類(lèi) “控制”的發(fā)展軌道,應(yīng)該規(guī)范相關(guān)人的行為,而不是人工智能本身。本文對(duì)人工智能危害社會(huì)行為的刑法規(guī)制問(wèn)題只做了一些初步的分析和探討,并未涉獵如何具體規(guī)制的問(wèn)題。作為一個(gè)全新的問(wèn)題,人工智能的諸多方面都值得更深層次的探討。