陳赟媛
(廣西大學(xué),廣西 南寧 530005)
隨著人工智能技術(shù)的迅速提升,與人工智能法律規(guī)制相關(guān)的一系列問題得到了世界各國的普遍關(guān)注,一些國家、組織針對是否應(yīng)賦予人工智能以法律主體資格這一問題給出了回應(yīng)。美國國家公路交通安全管理局在2016年給谷歌公司的回函中表示,根據(jù)美國聯(lián)邦法律,谷歌自動(dòng)駕駛汽車中的自動(dòng)駕駛系統(tǒng)可視為“駕駛員”[1]。俄羅斯也在2017年通過了世界上第一部機(jī)器人法律《格里申法案》,該法案明確了“機(jī)器人代理人”的民事法律主體地位。
但人工智能帶給人類社會的不止便利,還有危險(xiǎn)和挑戰(zhàn)。1978年9月,日本廣島一家工廠的切割機(jī)械人在切割鋼板時(shí)突發(fā)異常,將一名值班工人當(dāng)作鋼板操作,這是世界上第一起“機(jī)器人殺人事件”[2]。2016年,微軟公司開發(fā)的人工智能聊天機(jī)器人Tay在被關(guān)閉期間“意外出逃”,向超過21萬“粉絲”發(fā)送超過9.5萬條推文,出言不遜、臟話不斷,言語甚至涉及色情、種族歧視,直至被微軟手動(dòng)關(guān)閉[3]。
弱人工智能危害事件的發(fā)生隨著技術(shù)的進(jìn)步反而呈現(xiàn)出數(shù)量增加、類型多樣的趨勢,這讓人們對強(qiáng)人工智能時(shí)代的到來感到擔(dān)憂。人們固然對未來科學(xué)技術(shù)的安全性保障充滿期待,但按照今天的情況預(yù)測,強(qiáng)人工智能的“犯罪率”將只增不減。
部分否定論者主張當(dāng)強(qiáng)人工智能犯罪時(shí),可以通過監(jiān)督過失理論,令人工智能實(shí)體的開發(fā)者、使用者為人工智能實(shí)體的危害行為埋單。根據(jù)罪責(zé)自負(fù)原則,如果強(qiáng)人工智能的侵害行為完全由于研發(fā)者過錯(cuò)或其使用者的不當(dāng)使用造成,固然應(yīng)當(dāng)由上述主體對該客觀侵害負(fù)責(zé)。但事實(shí)上當(dāng)強(qiáng)人工智能時(shí)代來臨時(shí),人類可能并不總會因?yàn)閺?qiáng)人工智能造成了客觀侵害而去追究研發(fā)者的刑事責(zé)任,除非研發(fā)者是故意想要制造這樣的客觀侵害,否則期待刑法對研發(fā)者進(jìn)行規(guī)制是不切實(shí)際的,因?yàn)檫@種客觀侵害極有可能被歸結(jié)于“現(xiàn)有科學(xué)技術(shù)的局限”。此外,在強(qiáng)人工智能未獲得刑事責(zé)任主體地位的前提下,如果出現(xiàn)強(qiáng)人工智能獨(dú)立致害事件,刑法極可能僅將其評價(jià)為意外事件。即便是強(qiáng)人工智能與人類共同致害,刑法也只能作出兩種評價(jià):一是將全部責(zé)任(包括強(qiáng)人工智能致害部分責(zé)任)歸結(jié)于人類,這顯然有違罪責(zé)自負(fù)原則;二是只將人類致害責(zé)任歸結(jié)于人類,對強(qiáng)人工智能致害部分不做評價(jià),這種做法對行為人而言或許符合罪責(zé)自負(fù)原則,但對被害方而言明顯有失公平,尤其是在強(qiáng)人工智能過錯(cuò)占大部分,人類過錯(cuò)占小部分的情況下??梢娫诂F(xiàn)有刑法框架下對強(qiáng)人工智能致害事件進(jìn)行評價(jià)總是不盡如人意,那么確認(rèn)強(qiáng)人工智能的刑事責(zé)任主體資格就顯得十分必要了。
復(fù)仇不僅僅是本能地?fù)敉似仍诿冀薜奈:?,它也會針對過去的迫害進(jìn)行反擊,以其人之道還治其人之身,以此來慰藉自己的憤恨[4]。在現(xiàn)代文明國家的刑事立法中,不管遵循著怎樣的刑罰主義,復(fù)仇作為刑罰本質(zhì)依然留有痕跡[4]。私人復(fù)仇的轉(zhuǎn)移被認(rèn)為是刑罰的核心理由之一。事實(shí)上,刑罰并非消滅了私人復(fù)仇而是將私人復(fù)仇以規(guī)則化、公權(quán)化了。
設(shè)想強(qiáng)人工智能未被確認(rèn)刑事責(zé)任主體資格,即意味著強(qiáng)人工智能在刑法意義上無法對自己的行為負(fù)責(zé),當(dāng)其實(shí)施了社會危害性極大的自主行為,如故意重傷人類甚至殺害人類,該行為只能被認(rèn)定為產(chǎn)品責(zé)任甚至是意外事件,案件結(jié)果可能僅僅是給予強(qiáng)人工智能的使用者或研發(fā)者以行政處罰、要求其進(jìn)行民事賠償,甚至可能不會有任何人需要為這起案件付出代價(jià),這顯然無法讓被害方“滿意”。既然公權(quán)力不能“為民做主”,那么尋找案件的始作俑者——強(qiáng)人工智能的使用者或研發(fā)者進(jìn)行“私人復(fù)仇”,甚至沖動(dòng)之下前往相關(guān)部門進(jìn)行“街頭聚集”“游行示威”,就成了被害方極有可能選擇的發(fā)泄方式。為了避免此類情況出現(xiàn),需要通過確認(rèn)強(qiáng)人工智能的刑事責(zé)任主體資格轉(zhuǎn)移私人復(fù)仇,以期社會成員在遭受迫害之時(shí)選擇信仰法律、依賴法律。
犯罪行為是行為人成立犯罪的前提[5]。要確認(rèn)強(qiáng)人工智能的刑事責(zé)任主體地位,首先需要判斷其是否具有自主行為能力,而自主行為能力的實(shí)現(xiàn)須以行為人擁有自主意識和相關(guān)道德標(biāo)準(zhǔn)為依據(jù)。
有否定論者認(rèn)為,人工智能無法達(dá)到人腦所具有的復(fù)雜結(jié)構(gòu)以及意識的產(chǎn)生機(jī)制,它只能對人類社會做出機(jī)械的反應(yīng)。從哲學(xué)層面看,人類對意識的認(rèn)識帶有強(qiáng)烈的主觀性,而事實(shí)上,意識不一定為人所專有。哲學(xué)家Daniel C.Dennet在其著作Consciousness Explained中指出:“人也不過是一臺有靈魂的機(jī)器而已……機(jī)器是有可能有思維和意識的?!盵6]從科學(xué)層面看,意識完全能夠被人工智能所擁有?,F(xiàn)代計(jì)算機(jī)科學(xué)的創(chuàng)始人Alan Turing和John von Neumann就曾指出,機(jī)器最終會模仿大腦的所有能力,包括意識[7]。
另外,有否定論者認(rèn)為,強(qiáng)人工智能不應(yīng)該為自己的行為負(fù)責(zé),因?yàn)樗痪哂凶灾餍袨樗枰罁?jù)的道德倫理準(zhǔn)則,它未經(jīng)歷過社會生活,因此也無法理解自己所實(shí)施行為的社會意義。但實(shí)際上,符合刑法要求的強(qiáng)人工智能在“誕生”之時(shí)就已經(jīng)加載了道德倫理算法,它在“生存期間”所實(shí)施的行為都將在這些“初始道德算法”的指引下進(jìn)行。另外,強(qiáng)人工智能擁有強(qiáng)大的深度學(xué)習(xí)能力和邏輯分析能力,這使得它的邏輯思維與人類相貼近,因而能夠在人類環(huán)境中通過互動(dòng)不斷學(xué)習(xí)、領(lǐng)悟人類的道德倫理規(guī)則。強(qiáng)人工智能的自主意識及道德倫理標(biāo)準(zhǔn)能夠被實(shí)現(xiàn),也就意味著其行為的自主性能夠得到刑法確認(rèn),換言之,強(qiáng)人工智能能夠?qū)ζ渌鶎?shí)施的客觀侵害行為負(fù)責(zé)。
在現(xiàn)代刑法理論中,對于刑罰目的主要有兩種理論觀點(diǎn):一是報(bào)應(yīng)理論,二是預(yù)防理論。否定論者主張,人工智能沒有生命、肉體甚至財(cái)產(chǎn),也沒有人類般對自由的強(qiáng)烈渴望,它無法感受痛苦情緒,也無法體會到犯罪的快樂,這使得不管在報(bào)應(yīng)層面還是預(yù)防層面都難以實(shí)現(xiàn)刑罰的目的。這種觀點(diǎn)建立在“人類覺得強(qiáng)人工智能無法感受情緒”的認(rèn)知之上。但情緒的感知必須從第一人稱視角出發(fā),從第三人稱視角去感知他人的情緒是不客觀可靠的。對強(qiáng)人工智能進(jìn)行“刪除數(shù)據(jù)”“修改程序”“永久銷毀”,在人類看來可能無足輕重,但是對強(qiáng)人工智能而言完全可能感覺痛苦。
另一方面,科學(xué)界普遍承認(rèn),情緒感知能力并非完全依賴于先天賦予,它還會受到后天的信息處理過程、社會交流方式和文化背景等影響。強(qiáng)人工智能“先天”的道德倫理算法以及“后天”在人類環(huán)境中的互動(dòng)學(xué)習(xí)能夠使它意識到“犯罪是羞恥的”“失去自由是痛苦的”,如此,刑罰的報(bào)應(yīng)目的能夠得以實(shí)現(xiàn)。而在個(gè)案之中,強(qiáng)人工智能能夠?qū)W習(xí)到“某種行為是錯(cuò)誤的”“機(jī)器人犯罪也會受到刑罰處罰和道德譴責(zé)”,進(jìn)而認(rèn)識到“應(yīng)該避免犯罪”,如此,刑罰的預(yù)防目的也得以實(shí)現(xiàn)。
牛津大學(xué)圣休學(xué)院商法教授Horst Eidenmuller在分析為何應(yīng)當(dāng)賦予機(jī)器人以法律人格時(shí)給出了這樣的理由:“我們賦予了公司以法人資格?!本唾x予單位擬制的刑事責(zé)任主體資格這一問題,學(xué)術(shù)界曾進(jìn)行了長期的爭論,否定論者從各方面提出了反對意見,他們大多認(rèn)為從犯罪論角度來看,單位本身并不能具有某種精神狀態(tài),它不清楚人類的道德倫理標(biāo)準(zhǔn),更不能自主實(shí)施任何行動(dòng),其想法和行為完全來源于人,因此不應(yīng)將單位納入刑事責(zé)任主體之中。從刑罰論角度來看,對法人無法判處人身刑,對法人判處財(cái)產(chǎn)刑會株連無辜人員,法人缺乏承擔(dān)刑事責(zé)任的現(xiàn)實(shí)基礎(chǔ)和條件,故不能輕率地賦予其犯罪主體資格[8]。但我國刑法表明,盡管單位不具有人類生命,也無法通過自主意識實(shí)施自主行為,但其意志能夠通過內(nèi)部人員的意志的集合表現(xiàn)出來,能夠具備刑法所要求的認(rèn)知能力與控制能力,因而通過法律擬制將單位納入刑事責(zé)任主體范圍是可取的。至于刑罰體系設(shè)計(jì)上的困難,我國刑法最終也通過對“雙罰制”以靈活運(yùn)用化解了。從某種程度上說,加載自主意識和道德倫理算法的強(qiáng)人工智能或許要比“單位”更加貼近人類,相關(guān)刑法技術(shù)上的困難未來能夠被迎刃而解。
只有在具備自主意識并具有與人類相類似的道德倫理標(biāo)準(zhǔn)的前提下,強(qiáng)人工智能才能產(chǎn)生故意、過失等心理狀態(tài)以及刑法上的認(rèn)知能力,才能在自主意識、自主思維能力的支配下實(shí)施自主行為。
另外,考慮到強(qiáng)人工智能的特殊性,應(yīng)對其所加載的道德倫理算法提出比人類更高程度、更廣范圍的要求。因?yàn)樵谔囟ㄇ闆r下,人類和強(qiáng)人工智能以同樣行為對事件進(jìn)行反應(yīng),人類可能獲得刑法的諒解,而強(qiáng)人工智能卻不被原諒。例如,甲(人類)把刀架在乙的脖子上,要求乙將同伴丙(人類)殺害,否則將殺死乙,最終乙將丙殺死。當(dāng)乙作為人類時(shí),刑法認(rèn)為對乙犧牲自己的生命而不去殺害丙不具有期待可能性,應(yīng)認(rèn)定乙無罪。而當(dāng)乙作為某個(gè)強(qiáng)人工智能實(shí)體時(shí),人類普遍更傾向于要求它犧牲自己而去拯救人類,如果乙為保全自身而將丙殺害,刑法可能認(rèn)定其構(gòu)成故意殺人罪或其他犯罪。而對強(qiáng)人工智能提出“更廣范圍”的要求是因?yàn)樵趶?qiáng)人工智能時(shí)代,強(qiáng)人工智能可能會遇到屬于它們那個(gè)領(lǐng)域或者它們同人類的交叉領(lǐng)域的新興的道德問題。
對強(qiáng)人工智能犯罪行為要件的評價(jià),可以參照人類犯罪的相關(guān)理論。刑法在認(rèn)定強(qiáng)人工智能應(yīng)對其造成客觀侵害的作為或者不作為承擔(dān)相應(yīng)刑事責(zé)任時(shí),至少應(yīng)該包含兩個(gè)方面的評價(jià):一是強(qiáng)人工智能的行為與客觀侵害之間存在因果關(guān)系,否則強(qiáng)人工智能不應(yīng)因其行為對該客觀侵害負(fù)責(zé);二是強(qiáng)人工智能的行為須在其自由意志下實(shí)施,否則可能存在間接正犯、脅從犯或因不具有期待可能性而認(rèn)定意外事件等。
為了能夠?qū)π袨槿说牟环☉B(tài)度進(jìn)行譴責(zé),必須要滿足以下三個(gè)前提:一是行為人必須具有通常的精神狀態(tài);二是行為人必須存有故意或者過失;三是具有期待可能性[9]。這三個(gè)認(rèn)定人類犯罪所需滿足的心理要件同樣適用于強(qiáng)人工智能。如果強(qiáng)人工智能在行為時(shí)不具有通常的精神狀態(tài),失去了自主意識能力,如它的自主意識或道德倫理模塊突然故障,那么刑法不應(yīng)要求其對該行為承擔(dān)刑事責(zé)任。另外,強(qiáng)人工智能在行為時(shí)如果沒有故意或過失的心理狀態(tài),或者刑法對它不具有期待可能性,它也不應(yīng)受到道德或者法律的譴責(zé)。
近年來,人工智能的深度學(xué)習(xí)在圖像識別和語音識別等領(lǐng)域獲得了巨大的成功,將人工智能推向了又一次新的革命。未來強(qiáng)人工智能究竟具備何種特性,是否遠(yuǎn)遠(yuǎn)超出人類現(xiàn)有的設(shè)想與計(jì)劃,我們不得而知。但人類須為強(qiáng)人工智能時(shí)代的到來做好充足準(zhǔn)備。賦予強(qiáng)人工智能以刑事責(zé)任主體資格并對其進(jìn)行相應(yīng)刑法規(guī)制,將成為我們迎接強(qiáng)人工智能時(shí)代的重要方式。