国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能刑事責(zé)任能力之否定

2022-11-08 08:12研,沙
學(xué)術(shù)交流 2022年1期
關(guān)鍵詞:意志算法法律

郭 研,沙 濤

(1.西北政法大學(xué) 刑事法學(xué)院,西安 710063;2.東北財經(jīng)大學(xué) 法學(xué)院,遼寧 大連 116025)

一、問題的提出

人工智能技術(shù)的發(fā)展給法律系統(tǒng)帶來諸多挑戰(zhàn),刑事責(zé)任能力議題便是其中之一。近年來,國內(nèi)外諸多刑法學(xué)者針對該議題展開了較充分的論證,但人工智能有無刑事責(zé)任能力的問題能否成為真問題值得探討,尤其需要從本源上進行追問。一方面,需要討論人工智能能否作為一個主體而存在,因為刑事責(zé)任能力附屬于刑事主體;另一方面,人工智能是否能夠發(fā)展到需要討論其刑事責(zé)任能力的程度。針對上述問題的追溯,需要首先解決以下兩個關(guān)聯(lián)問題:一是人工智能的本體,二是人工智能的發(fā)展可能給刑法帶來的挑戰(zhàn)。

(一)人工智能的法律評價應(yīng)基于社會性而非技術(shù)性

當(dāng)討論人工智能時,我們首先需要明確的是討論的對象。在此之前,需要把握人工智能的不同發(fā)展階段和智能類型,還要在此基礎(chǔ)上對人工智能與機器人進行區(qū)分。

人工智能概念肇始于1956年達特茅斯學(xué)院舉辦的研討會,會上約翰·麥卡錫教授提出,智能是實現(xiàn)目標(biāo)的計算能力,人類、動物和機器具有不同種類和程度的智能,人工智能是科學(xué)和工程學(xué)上制造的智能機器,特別是智能計算機程序,可以理解為硬件。人工智能依其能力的廣狹和強弱通??煞譃槿跞斯ぶ悄?、強人工智能和超強人工智能。強人工智能又稱通用人工智能,是指可覆蓋全部人類智能領(lǐng)域的智能系統(tǒng)。強人工智能不但能處理人類各個領(lǐng)域和類型的事務(wù),而且更為重要的是它已經(jīng)具有了類似于人類的自我認(rèn)知能力。弱人工智能是僅涉獵一個或多個人類專門事務(wù)領(lǐng)域的智能系統(tǒng),超強人工智能是超越了人類智能的智能系統(tǒng)。

實際上,人工智能在技術(shù)上的強弱區(qū)分并沒有一條涇渭分明的界限,有的只是一條漸變的光譜,可以認(rèn)為,自我認(rèn)知能力是強弱人工智能的分水嶺。當(dāng)前,雖然通過技術(shù)認(rèn)知對人工智能進行了強弱的劃分,但在法律上卻難以按照智能程度給出精確的劃分標(biāo)準(zhǔn)。因為法律系統(tǒng)與其環(huán)境之間存在復(fù)雜性落差,法律系統(tǒng)為適應(yīng)外界環(huán)境的復(fù)雜性壓力,需要通過一般性法律規(guī)則來簡化復(fù)雜性。法律系統(tǒng)并不具備對所有外界環(huán)境作出回應(yīng)的能力,法律的行為指引功能也要求法律規(guī)范具有一般性和一定程度的抽象化,否則便難以被社會公眾理解。我們在討論人工智能的刑事責(zé)任能力的法律議題時,不應(yīng)糾結(jié)于人工智能強弱程度的劃分,而應(yīng)以人工智能的具體應(yīng)用實踐和刑事責(zé)任能力的判準(zhǔn)為對象展開具體的討論。

近年來,人工智能技術(shù)應(yīng)用廣泛,最核心的應(yīng)用場景莫過于自動駕駛汽車。自動駕駛汽車的安全性雖遠高于人類駕駛,但并非絕對安全。自動駕駛汽車發(fā)生交通事故后的法律責(zé)任承擔(dān)成為公眾關(guān)注和學(xué)界熱議的問題,似乎可以賦予自動駕駛汽車法律主體資格和責(zé)任能力,以此來解決責(zé)任分配難題。但這種看法實際上將人工智能與機器人混為一談,忽視了人工智能系統(tǒng)與人工智能載體的差異。人工智能不等同于機器人,機器人只是人工智能的一種載體。機器人從詞源來看,起初具有仆人、勞役之義。1979年,美國機器人學(xué)研究所將機器人定義為一部設(shè)計用以移動物體且可重復(fù)編寫程序的多功能機械,或一部使用預(yù)先編排動作,用以完成多項工作的特殊設(shè)備。晚近以來的法律文獻中,有學(xué)者將機器人理解為一個結(jié)構(gòu)化的系統(tǒng),在物理上及心理上可作為代理人。從以上機器人詞義的變化來看,起初機器人是人類生產(chǎn)生活的輔助物,彼時機器人尚不涉及擬人的智能且外觀呈現(xiàn)為有形實體;而晚近以來,人們對機器人的理解發(fā)生了變化,擬人的色彩日益濃厚。

在人們的想象中,機器人應(yīng)是一個物理實體,尤其應(yīng)是一個人形實體,這種想象很大程度上受到20世紀(jì)科幻作品的影響。在機器人與人的類比聯(lián)想中,機器人概念便具有了智能的內(nèi)涵,人工智能與機器人之間的關(guān)系變得曖昧起來。上述關(guān)于機器人的社會觀念也影響到了法律人對人工智能與機器人關(guān)系的思考,但這種影響多是負(fù)面的,例如法律人據(jù)此開始糾結(jié)于機器人的主體地位和相應(yīng)的權(quán)利義務(wù),包括人工智能創(chuàng)作作品的著作權(quán)、人工智能的事故責(zé)任等。

“人工智能的本質(zhì)在于算法和數(shù)據(jù)處理,物理形體不必然是人工智能的構(gòu)成要素,因為即使是人形機器人,也不過是一個算法主導(dǎo)的硬件系統(tǒng)?!睓C器人只是人工智能的一種載體而非唯一載體。對法律規(guī)制而言,重要的不是人工智能的類人特征和外在形象,而是人工智能系統(tǒng)的社會交往屬性。因此我們在研究人工智能的刑事責(zé)任能力時,不應(yīng)糾結(jié)于人工智能的類人化特征,而應(yīng)轉(zhuǎn)向?qū)θ斯ぶ悄苌鐣煌芰Φ乃伎?。所以,能夠作為刑事?zé)任能力議題討論對象的是人工智能系統(tǒng),而且是參與社會交往進而具有社會意義的人工智能系統(tǒng)。

(二)人工智能對刑法的可能挑戰(zhàn)

從目前人工智能的實際應(yīng)用來看,語音識別、圖像識別、語言翻譯、自動駕駛等領(lǐng)域的人工智能仍只是專門的人工智能,而非通用的人工智能。例如智能系統(tǒng)用于語言翻譯就不能完成圖像識別或自動駕駛工作。而且目前的人工智能還未呈現(xiàn)出獲得自我認(rèn)知能力的跡象。以人臉識別為例,人工智能系統(tǒng)作出識別是依憑算法、數(shù)據(jù)、深度學(xué)習(xí)等質(zhì)料或技術(shù)實現(xiàn)的,但人工智能本身并不具有判斷人臉美丑或善惡的能力。然而,人工智能雖尚未比肩人類智能,卻已經(jīng)給人類生活秩序帶來了沖擊。隨著物聯(lián)網(wǎng)、大數(shù)據(jù)和人工智能的深度結(jié)合,人類與人工智能的關(guān)系將日益緊密,人工智能逐漸參與到社會交往中來并非遙遠的圖景。在此背景下,社會交往的倫理和法理可能發(fā)生變化,原有社會制度和社會理念也可能陷入困境。對法律制度而言,人工智能的影響主要體現(xiàn)在權(quán)利義務(wù)的變動,原有的法律責(zé)任承擔(dān)原理也面臨改變的壓力。

人工智能的突破性發(fā)展正在重塑社會交往關(guān)系,社會中的法律秩序逐步走向人與人工智能的復(fù)合,未來也存在演變?yōu)槿斯ぶ悄苤鲗?dǎo)的法律秩序的可能性,而這種改變無疑具有顛覆性。例如在自動駕駛場景下,人類的社會角色從車輛的控制者——駕駛員,逐漸轉(zhuǎn)變?yōu)榻邮茏詣玉{駛系統(tǒng)服務(wù)的乘客以及自動駕駛程序的開發(fā)者和維護者等。在未來的道路交通法律秩序中,人類角色的轉(zhuǎn)變可能導(dǎo)致權(quán)利義務(wù)關(guān)系的重新調(diào)整。在自動駕駛技術(shù)日益成熟的背景下,刑法上的交通肇事罪等罪名便可能出現(xiàn)處罰漏洞,這便是人工智能技術(shù)給刑法歸責(zé)領(lǐng)域帶來的一大挑戰(zhàn)。

但需要指出的是,我們不應(yīng)在抽象層面觀察人工智能對法律的影響,而是需要結(jié)合不同法律的性質(zhì)和功能來具體分析。例如在法律主體地位和責(zé)任能力方面,人工智能對民法和刑法的影響就存在顯著差異。就刑法而言,人工智能是否具有法律主體地位取決于其刑事責(zé)任能力的有無。換言之,如果人工智能根本不可能具有刑事責(zé)任能力,則探討其在刑事法上的主體地位便毫無意義。而在民法上,人工智能的法律主體地位與責(zé)任能力是可以分離的。人工智能主體地位與責(zé)任能力關(guān)系的民刑殊異,主要原因在于刑法上存在責(zé)任自負(fù)原則,即人工智能的刑事責(zé)任不能被人類主體替代承擔(dān),而民法上的責(zé)任是可以替代的,如雇主對雇員侵權(quán)責(zé)任的替代承擔(dān)。因此,一方面,雖然法律主體地位與責(zé)任能力具有密切關(guān)系,但二者是兩個不同的問題,不能混淆在一起;另一方面,刑法具有相對獨立性,不從屬于民法,人工智能即便具有民事主體地位也不意味著其當(dāng)然具有刑事主體地位和刑事責(zé)任能力。因此,人工智能的刑事責(zé)任能力應(yīng)結(jié)合刑法自身的性質(zhì)和功能來思考。

二、技術(shù)思考:強人工智能只是鏡花水月

(一)對人工智能理解的不同圖像

對人工智能的探討無疑兼具現(xiàn)實性與未來學(xué)的特點,對人工智能技術(shù)發(fā)展的不同想象,將會影響到人們對人工智能相關(guān)法律問題的看法。關(guān)于人工智能發(fā)展前景的預(yù)測,在技術(shù)層面存在樂觀派(激進派)和悲觀派(保守派)的分野。在社會人文層面,人們對人工智能是福是禍的看法也各執(zhí)一端,樂觀者多為人工智能領(lǐng)域的工程師和投資者,悲觀者多為哲學(xué)、社會學(xué)、法學(xué)等人文社會科學(xué)學(xué)者。需要注意的是,從技術(shù)層面的樂觀并不能當(dāng)然推導(dǎo)出社會層面的樂觀,反之亦然。當(dāng)下人們對新技術(shù)的發(fā)展存在擔(dān)憂,一方面原因是新技術(shù)的毀滅力量十分強大,超出了人類已有的認(rèn)知經(jīng)驗;另一方面是人文精神、道德倫理的衰落,在經(jīng)濟利益面前技術(shù)很可能被一些人濫用,從而造成多數(shù)人的損害,甚至這種損害會像“飛去來器”一般,最終損害到技術(shù)濫用者。

在法學(xué)領(lǐng)域,一些學(xué)者在親眼見證了最近幾年人工智能技術(shù)的飛速發(fā)展后,對人工智能的未來前景持相當(dāng)樂觀(指技術(shù)層面的樂觀)的態(tài)度,并以此作為預(yù)測未來的前提,認(rèn)為人工智能技術(shù)已經(jīng)或?qū)⒁o既有法律系統(tǒng)帶來重大挑戰(zhàn),需要立法作出前瞻修改以適應(yīng)技術(shù)發(fā)展。而另一些學(xué)者則對人工智能技術(shù)的蓬勃發(fā)展冷眼旁觀,認(rèn)為人工智能現(xiàn)在處于并將長期處于弱智能階段,人工智能現(xiàn)在不能且今后也不能比肩甚至超越人類,即便人工智能在智能上超越人類,也不意味著對人類的完全超越,因為除智能外,人類還具有心性、靈性等其他特質(zhì),包括直覺、想象力和同情心等。所以,在相當(dāng)長的時期內(nèi)人工智能不會對既有法律造成挑戰(zhàn),既有法律完全能夠應(yīng)對人工智能時代的各種“新問題”。還有一些學(xué)者對人工智能的未來發(fā)展持謹(jǐn)慎的樂觀態(tài)度,認(rèn)為人工智能確實給法律帶來了挑戰(zhàn),但要首先區(qū)分影響與挑戰(zhàn),并將討論焦點放在法律挑戰(zhàn)上。人工智能所引發(fā)的實踐問題如果仍然可以在既有法律框架內(nèi)解決,那么它們就無法被視為“對法律的挑戰(zhàn)”。

人工智能技術(shù)至今歷經(jīng)了三個發(fā)展階段,每一階段都有人作出非常樂觀的預(yù)言,但至少前兩次預(yù)言并未實現(xiàn),相反人工智能的發(fā)展卻曾屢陷低谷。這一次樂觀者對人工智能的想象和期待是否能夠變成現(xiàn)實,也即人工智能是否能發(fā)展出類人甚至超人的能力值得實踐驗證。毋庸置疑,人工智能目前仍處于弱智能階段,即便人工智能的深度學(xué)習(xí)能力在大數(shù)據(jù)、云計算的合力推動下震撼了人類,但人工智能仍受控于人類并存在諸多缺陷,如算法黑箱、運行故障等。在可預(yù)見的未來,人工智能能否發(fā)展出自主意識和自由意志,發(fā)展到強人工智能階段屬于科學(xué)技術(shù)層面的問題,尚屬未知。

技術(shù)樂觀者認(rèn)為,人工智能已經(jīng)顯現(xiàn)出強大的自我學(xué)習(xí)能力,且具有一定程度的自主決策能力,所以發(fā)展出自主意識和自由意志指日可待。人工智能距離人類智能只有一步之遙。他們的論據(jù)主要有:第一,Alpha Go以及它的升級版Alpha Go Zero利用深度學(xué)習(xí)技術(shù)在圍棋領(lǐng)域已戰(zhàn)勝人類的頂級選手,小試牛刀之后人工智能在其他領(lǐng)域匹敵甚至超越人類不是難事。第二,各主要國家紛紛制定產(chǎn)業(yè)政策支持人工智能技術(shù)發(fā)展,科技巨頭如谷歌、微軟、百度等投入巨額研發(fā)費用布局人工智能相關(guān)產(chǎn)業(yè)。類比摩爾定律,人工智能技術(shù)的迭代也將會十分迅速,強人工智能并不遙遠。

技術(shù)悲觀者認(rèn)為:第一,樂觀者的看法多是受到Alpha Go的震撼和對人工智能技術(shù)發(fā)展前景的過度樂觀。但真相卻是,Alpha Go并未如樂觀者想象的那樣強大,Alpha Go贏得圍棋大戰(zhàn)的前提是有充分?jǐn)?shù)據(jù)和穩(wěn)定外部環(huán)境,如圍棋游戲規(guī)則的支持。至少目前Alpha Go在游戲規(guī)則更為復(fù)雜的網(wǎng)絡(luò)游戲,如星際爭霸中的表現(xiàn)就不如人類的專業(yè)玩家。第二,信息技術(shù)領(lǐng)域著名的摩爾定律如今已逐漸失效,計算機芯片處理速度的迭代升級在放慢步伐就是一個例證。通常情況下,一項技術(shù)在快速發(fā)展后將會進入瓶頸期或者終結(jié)期,人工智能技術(shù)的發(fā)展并沒有如一些學(xué)者想象中的那樣神速。人工智能歷經(jīng)半個多世紀(jì)的發(fā)展,一些曾出現(xiàn)在科幻作品中的場景成為現(xiàn)實,甚至對現(xiàn)實的改變要遠超舊時未來學(xué)者的想象。這給了人們大膽預(yù)測、憧憬未來的信心,然而技術(shù)并不是無所不能的,人工智能技術(shù)也有它的發(fā)展極限。第三,一些關(guān)于人工智能發(fā)展前景的樂觀研究報告經(jīng)不住推敲。例如被廣為引用的牛津大學(xué)尼克·博斯特羅姆等人所作的實證調(diào)查雖得出了較為樂觀的預(yù)測結(jié)論,但他們的實證調(diào)查在樣本上存在嚴(yán)重缺陷,不能代表人工智能研究領(lǐng)域的整體看法。實際上多數(shù)人工智能領(lǐng)域的專家較為保守,認(rèn)為幾十年內(nèi)出現(xiàn)強人工智能的概率很低?,F(xiàn)階段的人工智能仍屬于在“圖靈測試”概念下界定的“智能”,它們在未來很長時間內(nèi)都將是從屬于人類的工具。

(二)人工智能的運作原理區(qū)別于人類智能

當(dāng)下的人工智能技術(shù)主要建立在兩個理論假設(shè)的基礎(chǔ)上,一是可計算主義,認(rèn)為人腦和心靈都像機器一樣運作,因此可以被計算機模擬;二是神經(jīng)主義,認(rèn)為人腦可以完全解釋心靈現(xiàn)象。目前人工智能的運作原理是仿生學(xué)的,即通過模擬人類大腦的神經(jīng)網(wǎng)絡(luò)建立起復(fù)雜的反饋機制。但反饋并不意味著智能,神經(jīng)網(wǎng)絡(luò)模型對應(yīng)的是生物本能而不是人類智能。以Alpha Go為例,其運作依憑的是神經(jīng)網(wǎng)絡(luò)自動機原理,這一工作原理實際上在“人工智能”概念出現(xiàn)以前就已被發(fā)現(xiàn)。根據(jù)這一原理,“復(fù)雜的智能行為被簡化成機器對外界刺激的反應(yīng)和反饋。低層次的反饋是達到目的的行動;高層次的反饋因存在代表網(wǎng)絡(luò)連接方式之參數(shù)隨著輸出結(jié)果的變化而不斷地調(diào)整,其可以解釋神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和相應(yīng)行為模式的變化,也就是學(xué)習(xí)機制”。Alpha Go的誕生實際上不是因為人工智能原理的革新,而是因為互聯(lián)網(wǎng)、大數(shù)據(jù)、云計算技術(shù)的發(fā)展,為神經(jīng)網(wǎng)絡(luò)自動機原理的應(yīng)用提供了現(xiàn)實可能。神經(jīng)網(wǎng)絡(luò)模型對應(yīng)的是生物本能,而不是人類智能,這也是起初神經(jīng)網(wǎng)絡(luò)自動機的功能沒有被冠以人工智能之名的主要原因。

此外,目前科學(xué)上對大腦的認(rèn)知仍然十分有限,人類的智能、意識以及道德情感等是否就是大腦神經(jīng)元生化反應(yīng)的產(chǎn)物還不得而知。而且科學(xué)對宇宙物質(zhì)的了解也是未知大于已知,據(jù)估計目前我們能觀測或偵測到的物質(zhì)與能量僅約占宇宙總物質(zhì)與能量的4%,其余則是由我們目前仍知之甚少的暗物質(zhì)、暗能量等組成。而這些人類尚未了解的物質(zhì)和能量對人類心智的形成可能發(fā)揮了很大作用。因此通過模擬人類大腦的生化反應(yīng),大概率來說是難以創(chuàng)造出人類智能的。

“人類智能不同于生物本能之處在于,人不僅具備選擇的能力,還具備創(chuàng)造符號以及利用符號系統(tǒng)把握世界、并賦予世界意義的能力?!币环矫?,人類通過語言符號理解世界、拓展世界。另一方面,人類通過語言建構(gòu)世界。建構(gòu)世界的能力也就是期望能力。期望能力是社會交往的前提,人類通過調(diào)整認(rèn)知性期望不斷適應(yīng)社會交往,通過信任規(guī)范性期望穩(wěn)定交往的邊界并拓展交往的多樣性。而Alpha Go之所以被冠以人工智能之名,主要源于其具有的深度學(xué)習(xí)能力,因為學(xué)習(xí)能力是人類智能的主要內(nèi)涵。但Alpha Go的深度學(xué)習(xí)能力仍只是一種高層次的反饋機制而已,這種運作機制不可能發(fā)展出真正的智能。換句話說,神經(jīng)網(wǎng)絡(luò)自動機原理下的人工智能無法理解和建構(gòu)世界,因而也就無法理解其行動背后的意義。目前人工智能原理下的智能圖景只是一種逼真甚至以假亂真的智能假象。

三、法理思考:智能不是刑事責(zé)任能力的充分條件

(一)從智能無法推導(dǎo)出自由意志

刑事責(zé)任能力的核心要素是自由意志,而人工智能不具有刑法意義上的自由意志。首先,刑法上的自由意志不等同于自動選擇,自由意志還與道德可譴責(zé)性相關(guān)。自由意志包括辨認(rèn)能力和控制能力兩方面內(nèi)容,其中,辨認(rèn)能力包括對客觀事實的辨認(rèn)和社會意義的辨認(rèn)。一方面,人工智能不能理解其舉止的社會意義,也即人工智能對其作出的舉止選擇缺少社會意義上的理解力。因為人工智能根據(jù)事先設(shè)定的算法行事,在人工智能眼中萬物皆數(shù)據(jù),人工智能的舉止選擇只是基于算法和數(shù)據(jù)的反饋結(jié)果。盡管基于深度學(xué)習(xí)算法運行的人工智能日漸強大,但形式理性層面對規(guī)則的推理無法發(fā)展出價值判斷能力,人工智能無法實現(xiàn)同人類一樣運用超規(guī)則之上的價值判斷,而價值判斷能力是行動的社會意義的前提。另一方面,人工智能不具有真正的控制能力。以自動駕駛為例,自動駕駛系統(tǒng)雖然表面上能夠根據(jù)路況、交通法規(guī)等環(huán)境信息作出駕駛決策,但這種決策機制實際上只是基于神經(jīng)網(wǎng)絡(luò)算法的一種反饋機制,這種決策機制類似于人類以及其他動物的本能反應(yīng),但本能并不是自由意志??梢?,人工智能不具有規(guī)范評價意義上的行為目的性與獨立控制行為的意志自由。其次,自由意志具有社會交往屬性。雖然自然意義上的人與法律意義上的人并不等同,例如民法上將企業(yè)等組織體擬制為法人,刑法上將企業(yè)等法人擬制為刑事責(zé)任主體,但這并不意味著人工智能就能獲得法律上的主體地位。一方面,法人主體的擬制原理不能適用于人工智能,原因在于法人的主體資格源于自然人,法人是自然人的集合,法人的決策是基于組織成員的集體意志,究其實質(zhì)仍是由自然人作出。而且,法人犯罪在原則上都會處罰參與決策作出和執(zhí)行的自然人。但人工智能的具體決策不是直接出于自然人的意志,而是基于算法作出的。隨著算法的復(fù)雜度提高,甚至連編制算法的人也無法對人工智能的具體決策作出準(zhǔn)確預(yù)測,因而不能仿照法人主體的擬制原理賦予人工智能法律主體地位。另一方面,雖然關(guān)于人類自由意志的有無和程度仍存在不同見解,但即便承認(rèn)人類的自由意志是一種法律上的擬制,也不能直接得出人工智能可以具備自由意志的結(jié)論。正如有學(xué)者所指出的,縱使人類的自由意志是一種法律擬制,這種擬制也絕非憑空作出,而是以活生生的現(xiàn)實社會生活作為基礎(chǔ)的。

雖然人類對自然的認(rèn)知是相當(dāng)有限的,我們對人類心智運作機理的所知遠小于未知,因而自由或不自由在事實層面永遠是一個無法通過實證檢驗的命題。但我們不能因自由的不可實證就推定人自由意志的闕如進而放棄刑罰,因為如果否定人的自由意志便是承認(rèn)宿命,結(jié)果是人的主體地位被否定,而這也是對人的存在價值的否定,簡言之就是把人類物化。應(yīng)當(dāng)認(rèn)為,社會交往的可能性是刑法意義上自由意志存在的前提。而目前人類和人工智能之間的主觀交流和探討的基礎(chǔ)尚不存在。因此,即便承認(rèn)自然人的自由意志是一種法律擬制,也不能將該擬制原理適用于人工智能系統(tǒng)。

(二)自由意志是刑事責(zé)任能力的必要不充分條件

退一步講,即使人工智能具備了自由意志,能夠辨認(rèn)和控制自己的社會性行為,它也無法具備刑事責(zé)任能力。刑事責(zé)任能力的有無除自由意志因素外,還至少要與道德情感因素相關(guān)。如果人工智能無法形成道德情感,就不會具有刑事責(zé)任能力。

在人工智能未形成道德情感之前,刑罰對其無意義,一方面其不能理解刑罰的道德譴責(zé)意義,另一方面也無法感受到刑罰帶來的情感痛苦。所以在人工智能具備道德情感特質(zhì)前,不應(yīng)承認(rèn)其刑事主體地位及刑事責(zé)任能力。刑罰具有道德屬性是歷史文化的產(chǎn)物,而人工智能不具有歷史文化屬性和由此產(chǎn)生的道德屬性。因為“每一個人的生命存在和成長,都是一個社會的、歷史的、文化的過程,這個歷史過程本身是不可重復(fù)的”。未經(jīng)歷過真實的社會生活便不能獲得道德情感。而人工智能無法依靠深度學(xué)習(xí)技術(shù)獲得道德情感。雖然人工智能時代人類與人工智能的關(guān)系日益復(fù)雜,人工智能在與人類的交往中獲得了一定社會性,但人工智能的舉動仍不是刑法意義上的行為,因為人工智能欠缺了道德情感特質(zhì)。即便工程師利用復(fù)雜的算法設(shè)計出了有情緒表達的人工智能系統(tǒng),例如微笑機器人,但機器人的情緒呈現(xiàn)仍只是基于外界環(huán)境數(shù)據(jù)的反饋結(jié)果,而并不能理解其情緒的深層含義。

(三)刑罰只能對人類起作用

進一步講,假使人工智能可以發(fā)展出自由意志和道德情感,刑罰對人工智能也是無效的。刑罰無效則處罰人工智能對實現(xiàn)刑法功能而言就無意義,進而刑事責(zé)任能力的賦予也將失去意義。

1.既有的刑罰體系是根據(jù)人類特點建立的,并不適合對人工智能的處置。人工智能既無肉身也無財產(chǎn),這導(dǎo)致它對自由和財富既沒有客觀需求也沒有主觀欲望。因而,有學(xué)者主張變革刑罰制度以適應(yīng)人工智能時代的需要,建議在刑罰種類上增設(shè)刪除數(shù)據(jù)、修改程序、永久銷毀、財產(chǎn)刑、權(quán)利刑等刑罰處罰方式。但是,對人工智能的這種所謂刑罰,實際上相當(dāng)于剝奪人工智能系統(tǒng)所有者的財產(chǎn),而非人工智能本身。在人類高度依賴人工智能產(chǎn)品的情況下,對人工智能施加刑罰還會產(chǎn)生變相限制甚至剝奪人類自由的效果。所以,對人工智能施以刑罰,本質(zhì)上仍是對人的懲罰。由此可見,人工智能無論以何種方式承擔(dān)責(zé)任,最終的責(zé)任承擔(dān)者都是人類,這使得賦予它法律人格顯得多余和毫無必要。據(jù)此,我們不應(yīng)把對人工智能的處置同對人類的刑罰混淆在一起。

2.人工智能缺乏實體性。人工智能的本質(zhì)是算法智能,而算法不是物理實體,因此,事實上缺乏刑罰的處罰對象。當(dāng)前,人們依然以20世紀(jì)的類人化想象來理解人工智能,并試圖針對人工智能的載體(如機器人)制定規(guī)范來約束它們的行為,甚至賦予這些載體以法律主體資格。但是,這種做法雖不能說荒謬,也至少顯得不合時宜。以自動駕駛汽車為例,將汽車擬制為法律主體并無實際意義,因為實現(xiàn)自動化駕駛的不是汽車而是操作系統(tǒng)及背后的算法程序。例如,德國《道路交通法第八修正案》規(guī)定:“在自動駕駛系統(tǒng)接管狀態(tài)下,駕駛員可以不對交通狀況和車輛進行監(jiān)控,但仍需時刻保持清醒戒備狀態(tài)以準(zhǔn)備隨時接管;在自動駕駛系統(tǒng)向駕駛員發(fā)出接管請求以及當(dāng)駕駛員發(fā)現(xiàn)自動駕駛系統(tǒng)不能正常工作時,駕駛員應(yīng)立刻接管車輛。”即便隨著技術(shù)的完善,自動駕駛汽車能夠處理絕大多數(shù)緊急情況,但是,當(dāng)自動駕駛汽車遭遇“電車難題”等決策困境時,仍然需人來最終決策,這個最終決策者可能是乘客,也可能是智能系統(tǒng)的運營者。一方面,人類不能接受絕對功利主義的智能算法,更不能接受自己的命運被人工智能掌握。另一方面,“數(shù)據(jù)庫再大,也是依據(jù)已經(jīng)積累的過去的資料來預(yù)測將來,而將來是開放的,所以決策和預(yù)測總是存在風(fēng)險,因此,機器的決策永遠不能夠取代人的決策”。只不過由于自動駕駛技術(shù)的運用,在交通肇事等情境下,作為傳統(tǒng)責(zé)任主體的駕駛員、機動車所有人等的責(zé)任在相當(dāng)程度上已經(jīng)被自動駕駛系統(tǒng)弱化。

3.有論者認(rèn)為對人工智能施以刑罰起不到特殊預(yù)防、一般預(yù)防等行為規(guī)制功能,進而認(rèn)為刑罰對人工智能無效。而人工智能基于深度學(xué)習(xí)技術(shù),是有可能建立起刑罰與守法之間的反饋機制的,人工智能的決策建立于算法和大數(shù)據(jù)之上,意味著人工智能可以從以往的處罰案例中學(xué)習(xí)到罪與罰之間的因果關(guān)聯(lián),進而形成有罪必罰的反饋模式。因此在算法中設(shè)定相應(yīng)規(guī)則是可以起到“預(yù)防作用”的。只不過這一“預(yù)防作用”仍是一種表象,因為人工智能并非是基于自由意志作出守法行動。

四、倫理思考:強人工智能應(yīng)當(dāng)被否定

如果上述假設(shè)全部成真,也即人工智能具有自由意志和道德情感,且刑罰對其有效,那么人類也不應(yīng)允許可能對自己造成巨大威脅的人工智能技術(shù)自由發(fā)展。如果技術(shù)規(guī)制是必然的選項,那么人類實際上就不會允許人工智能發(fā)展到具有刑事責(zé)任能力的程度。

當(dāng)今世界,科技高速發(fā)展,許多技術(shù)都曾引發(fā)人們的熱議,如互聯(lián)網(wǎng)信息技術(shù)、轉(zhuǎn)基因技術(shù)、3D打印技術(shù)等,但人工智能引發(fā)的討論更為豐富,討論不僅涉及技術(shù)領(lǐng)域,而且引發(fā)了人文社會科學(xué)界的廣泛關(guān)注。究其原因,人工智能技術(shù)挑戰(zhàn)了人作為人的主體地位。人類從幾千年的生存經(jīng)驗尤其是工業(yè)革命以來的進步經(jīng)驗中獲得了強大的自信,產(chǎn)生了依靠理性解決問題的處理方式。在對待人工智能的態(tài)度上,基于利益立場不同會產(chǎn)生截然不同的看法。

技術(shù)精英與資本精英對人工智能的發(fā)展通常持樂觀激進的態(tài)度,而人文社會科學(xué)領(lǐng)域的學(xué)者則通常采取保守悲觀的態(tài)度。在激進者眼中,保守者無異于杞人憂天;在保守者眼中,激進者很可能陷人類于水火。從價值層面也即從主觀訴求來看,保守主義者不愿意看到人工智能比肩甚至超越人類,因為人工智能比肩或超越人類的那天,人類便會徹底失去對人工智能的控制。因此,假如人工智能在技術(shù)上真的能比肩甚至超越人類,那么,我們就應(yīng)通過法律限制此種技術(shù)的發(fā)展,提前阻止技術(shù)的突破,以防技術(shù)的失控。

法學(xué)是謹(jǐn)慎、冷靜的學(xué)問,在人工智能的研究和應(yīng)用問題上,我們應(yīng)堅持刑法的人類中心主義,“人工智能法學(xué)始終是面向‘人’的研究……它永遠是且只能是‘以人類為本’”。人的尊嚴(yán)是憲法性權(quán)利,法律決不能允許技術(shù)侵犯人的尊嚴(yán),將人的主體地位弱化乃至顛覆。具有民主基礎(chǔ)的法律不能允許傷害公民主體地位和人格尊嚴(yán)的技術(shù)發(fā)展和應(yīng)用。據(jù)此,強人工智能應(yīng)當(dāng)被否定。

首先,強人工智能給人類的尊嚴(yán)帶來挑戰(zhàn)。人工智能一旦達到強人工智能水平,將對人的地位造成沖擊,甚至人類可能從主體淪為被統(tǒng)治的對象。所以,我們應(yīng)提防人工智能“造反”壓迫人類,將可能的“反叛”扼殺在萌芽中,防止強人工智能的出現(xiàn)。人工智能不僅威脅人類整體的尊嚴(yán),還威脅個體的尊嚴(yán)。人工智能的廣泛運用使人類的生活方式發(fā)生了巨大變化,一個顯而易見的表現(xiàn)是人類越來越依賴人工智能服務(wù)。人們在享受生活無處不智能所帶來的便利的同時,也在遭遇隱私的出賣和選擇自由的侵蝕。一方面,人工智能提供智能化、個性化服務(wù)的前提是獲取用戶大量的個人信息,用戶獲取智能服務(wù)的前提是授權(quán)服務(wù)商獲取個人信息,否則便無法獲得相應(yīng)服務(wù)。這意味著人們不得不以個人信息為代價來交換智能服務(wù),結(jié)果是個人的隱私在人工智能面前暴露無遺。而隱私權(quán)是人格尊嚴(yán)的重要內(nèi)容,人工智能的日益強大無疑對人格尊嚴(yán)造成威脅。另一方面,人工智能的個性化服務(wù)可能演變成對個人行為的操控,人工智能可能出于商業(yè)利益等目的僅發(fā)送它想讓對方看到的信息,在信息不充分的情況下個人的自由選擇必將受到侵犯。即便在弱人工智能的今天,人類的隱私和選擇自由就已受到巨大威脅,可以料想在強人工智能面前,不僅人類的一舉一動處于被監(jiān)視之下,而且人類的行動自由也可能會喪失殆盡。所以,為了保護人類的尊嚴(yán),在法律層面不能允許強人工智能存在。

其次,人類與人工智能的演化速度存在巨大落差,人工智能在相同時間內(nèi)的演進速度要遠超人類,而且這種演進速度可能是幾何式倍增的。在人工智能到達與人類比肩的所謂“奇點”時,便可能會加速地超越人類,屆時人類將徹底失去對人工智能的控制。雖然在短期來看,人工智能之于人類是福音還是禍患取決于誰在控制它,而在長期來看,則取決于人類是否還能控制它。技術(shù)進步并不是目的,而是人類獲致幸福的手段。我們不能對技術(shù)盲目樂觀,在技術(shù)研發(fā)和應(yīng)用時應(yīng)充分認(rèn)識到技術(shù)的可能弊端并設(shè)計有效的防范措施,人類不應(yīng)對自己的技術(shù)掌控能力過于樂觀。

最后,需要補充的是,我們也不應(yīng)該因為安全擔(dān)憂而完全否定技術(shù)發(fā)展。雖然人工智能的算法復(fù)雜且數(shù)量龐大,不可能完全透明,而且深度學(xué)習(xí)技術(shù)的運用使得人工智能可以調(diào)整算法甚至自主編制算法,但我們不能因為人工智能的算法不透明和可能的失控就完全阻止其發(fā)展,否定其提高勞動生產(chǎn)效率、便利百姓生活等正向功能。人工智能算法的不透明,實際上決定了人類不可能完全掌握人工智能的決策和行動,人類能否允許此種不確定性風(fēng)險以及能夠接受何種程度的風(fēng)險,背后存在安全、自由等利益的權(quán)衡。理性的做法是,在弱人工智能階段,通過科技倫理和法律等手段對人工智能算法進行規(guī)制。例如,嘗試將法律價值納入算法規(guī)則,從而引導(dǎo)算法的良性發(fā)展。

猜你喜歡
意志算法法律
職業(yè)道德與法律 教案
涉及網(wǎng)絡(luò)募捐的現(xiàn)有法律規(guī)定
Travellng thg World Full—time for Rree
About the bug of the theory of evolution
一星期沒換水的夢境
學(xué)習(xí)算法的“三種境界”
算法框圖的補全
算法初步知識盤點
觀點集萃
政治法律