国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

強人工智能刑事責任主體地位肯定論

2020-03-12 07:48:17李紫陽
廣西警察學院學報 2020年2期
關鍵詞:刑罰機器人主體

李紫陽

(華東政法大學 法律學院,上海 200042)

自2018年始,刑法學界開始對“人工智能刑事責任”問題進行持續(xù)性的研究??偟膩砜?,有對人工智能可成為刑事責任主體觀點進行支持和延展者,也有明確認為應當否定人工智能刑事責任主體地位者。對該問題進行研究時,應真正持有前瞻性與開放性思維,而不能過分拘泥于“人與世界”二元思維,應認識到人類并不是地球上永久唯一的智能體,意識也并不是為人所專有之物。也正如未來生命研究所創(chuàng)始人泰格馬克所言“從我作為一個物理學家的角度看,智能只是運動的基本粒子處理信息的特殊過程,并沒有一條物理定律說,建造一臺在各方面都比人類聰明的機器是不可能的。①泰格馬克:《生命3.0》,汪婕舒譯,浙江教育出版社,2018,中文序?!睆亩?,下文擬在批判強人工智能刑事責任主體地位否定論者觀點基礎上,證成強人工智能刑事責任主體地位,以求實現(xiàn)真理越辯越明的目的。

一、強人工智能可以擁有自主意識的哲學與科學依據(jù)

否定論者認為人工智能沒有七情六欲,更不能擁有意識。智能產品在設計和編制程序范圍外實施的嚴重社會危害行為,只是一種純粹的現(xiàn)象風險。人工智能不能理解危害行為性質,更不能在危害行為發(fā)生之際提前預知風險的存在。也正是因為沒有“意識”、沒有“感情”進而致使對人工智能施加銷毀機器、刪除數(shù)據(jù)、更改系統(tǒng)等刑罰措施無異于多此一舉[1]2。另外,機器人缺乏對情感要素的理解與體驗,其只是接受數(shù)據(jù)信息后的單純系統(tǒng)操作,對系統(tǒng)操作的潛意識理解是缺乏的。而法律立于機器責任的視角評價人工智能產品危害行為時,只能將之評價為一種自主決策系統(tǒng)反映的純粹事實行為。還有否定論者認為應以目的行為論為切入點討論人工智能是否應擁有刑事責任的問題。但歸結到最后,還是認為人工智能不能擁有獨立“意識”,即不能夠作出能成為刑法規(guī)范評價對象的具有社會評價意義的目的性舉動[2]。在否定論者看來,人工智能僅僅是根據(jù)人類寫就的程序代碼指令行事,即便現(xiàn)在已經(jīng)將深度學習等技術嵌入到人工智能運行程序中,人工智能也的確可能通過深度學習等技術超越程序代碼規(guī)則行事,并且給人類造成嚴重的法益侵害結果。但是,人工智能是不可能理解其所實施行為的社會屬性,也就不能夠被評價為規(guī)范意義上的目的性舉動[3]71。上述兩種意見的最基本觀點便是人工智能不能擁有自主“意識”,不能感知七情六欲,不能形成自主行為目標。但這種觀點在大前提上便直接否定強人工智能時代到來的做法是否能被稱得上嚴謹?shù)膶W術態(tài)度,令人生疑。

相比于法學,科學界人士對于強人工智能的態(tài)度才更值得人信服。早在1951年艾倫·圖靈在BBC第三套節(jié)目廣播中便警示性地預測:“如果機器能夠思考,說不定在思考上比我們還聰明,那將我們置于何地?就算我們能讓機器繼續(xù)處在臣服的位置,我們也應該感到極大的卑下……它……絕對會是能給我們帶來焦慮的東西?!雹傥譅柺玻骸度斯ぶ悄軙〈祟悊??》,閭佳譯,北京聯(lián)合出版公司,2018,第6頁。近期霍金略帶諷刺地用其電子嗓音發(fā)出警告:“成功地創(chuàng)造出人工智能是人類歷史上偉大的進步,但這極有可能是人類文明最后的進步。”②費希:《超人類革命》,周行譯,湖南科學技術出版社,2017,第238頁。泰格馬克也直言“部分學者認為超人類水平的通用人工智能永遠不會到來,因為在物理學上不可能實現(xiàn)。然而,物理學家卻知道大腦中的夸克和電子組合起來不正像一臺超級計算機嗎?并且沒有哪個物理定律說我們不能建造出比大腦更智能的夸克團。③泰格馬克:《生命3.0》,汪婕舒譯,浙江教育出版社,2018,第54頁。”不僅如此,在其組織的2015年未來生命研究所波多黎各會議上又推動了人工智能研究目標的修改,在這份涵蓋了“人工智能名人譜”的8 000多人簽名的公開信中明確指出“我們應該重新定義人工智能的目標:創(chuàng)造目標有益的人工智能,而不是漫無目標的人工智能?!雹芴└耨R克:《生命3.0》,汪婕舒譯,浙江教育出版社,2018,第39頁??梢?,科學界先驅們沒有一邊倒向否定強人工智能時代到來的觀點,相反有相當一部分科學家持鮮明的肯定態(tài)度,從而在法學上承認強人工智能可能擁有自主“意識”也不會如否定論者所言是虛無縹緲的科幻法學了[3]69。

除上文所述的人類不可能進入強人工智能時代的理由外,否定論者還提出如下理由:技術的研發(fā)受自然人的控制及人類不可能允許技術超越倫理[1]7-8。其實,至此便可看出該論者已開始進行自我質疑,其不再堅持認為技術不可能引發(fā)強人工智能時代的到來,轉而認為是技術倫理審查制止了強人工智能時代到來的可能性,言外之意難道不正是:如果不對人工智能研發(fā)作出技術倫理審查限制,強人工智能時代便可能到來嗎?這種將希望寄托于技術倫理審查的觀點更多的是人文學者的一廂情愿罷了。首先,技術倫理審查頂多遲滯相關研究,但卻不可能阻止強人工智能時代到來。在高額的利潤面前技術倫理審查就如同紙張一樣單薄,國家與企業(yè)紛紛將資金投入到人工智能領域并非為了造福人類,而是想借此獲得技術領先,進而在各種競爭中保持優(yōu)勢地位,沒有誰愿意坐視他人擁有超越自己的技術。總會有部分國家想要擁有強人工智能,即使簽訂了全球性的技術審查條約,該種表面統(tǒng)一的國際合作也很難會有實效。其次,科技狂熱者的私下實驗很難,甚至不可能完全被控制。如同當年世界頂級物理學家加入“曼哈頓計劃”開發(fā)核武器相似,很多科學家都堅信自己如果不率先攻克并擁有某項技術,那么就會有其他不那么高尚的人捷足先登[1]7-8。最后,部分技術狂熱者很可能置技術倫理審查為無物,以合法的形式從事非法的研究,典型的例子便是基因編輯實驗。原南方科技大學賀建奎副教授違反技術倫理進行免疫艾滋病的基因編輯嬰兒實驗,但該實驗直至名為露露和娜娜的基因編輯嬰兒出生后才被廣泛關注。同樣,如果誕生的不是基因編輯嬰兒,而是已經(jīng)擁有自主意識之強人工智能的話,又該如何處理呢?總體上,從技術發(fā)展現(xiàn)狀看,前瞻性地承認人工智能將擁有獨立意識,并不為過,主要理由有二。

其一,從哲學層面看,意識不一定為人所專有。何懷宏教授撰寫的《奇點臨近:福音還是噩耗——人工智能可能帶來的最大挑戰(zhàn)》中觀點鮮明地反對人工智能可擁有意識。他認為機器智能永遠不可能達到人類的全面能力,尤其是人之為人的那部分能力,即創(chuàng)造智慧和意義世界的能力,也達不到基于碳基生物的感受性之上的豐富和復雜的情感。機器智能只能是具備高智能的算法,是缺乏精神意識的[4]。其又認為應該警惕智能機器將來獲取超能力,反叛乃至毀滅人類[5]。但該思維應受的第一個反駁便是,智能機器要實施反叛行為,就必須要意識到自己同作為控制者的人類間存在區(qū)別,才能知曉自己獨立于人類族群。這種已經(jīng)可以區(qū)分你我,并不甘被奴役的智能機器人明顯已經(jīng)具備了精神意識。其實,對于意識為何的問題,哲學界始終沒有達成統(tǒng)一。英國學者史卓特·薩瑟蘭(Stuart Sutherland)甚至說:“意識是個迷人但難以捉摸的現(xiàn)象;你無法明確地說明它是什么、它做什么或是它為何演化出來。關于意識的既有文獻全都不值得一讀。”①達馬吉歐:《意識究竟從何而來?——從神經(jīng)科學看人類心智與自我的演化》,陳雅馨譯,臺灣商周出版社,2012,第11頁。無獨有偶,如果在1989年出版的《麥克米倫心理學辭典》中查找意識的含義時,便會被告知“沒有什么值得寫的東西”②泰格馬克:《生命3.0》,汪婕舒譯,浙江教育出版社,2018,第375頁。。實際上,在過去短短三十年間,僅伴隨著神經(jīng)科學發(fā)展便衍生出不同的意識理論,如巴爾斯的全局工作空間理論、迪昂及尚熱的全局神經(jīng)工作空間理論、克拉克和科赫的神經(jīng)生物學理論、埃德爾曼的動態(tài)核心理論、里貝特的時空理論、托諾尼的信息整合理論、達馬西奧的意識的感受理論、漢弗萊的感覺演化理論等[6]??梢?,在哲學上對意識理論仍存在爭議的現(xiàn)狀下任何草率地認為機器智能無法獲得意識的結論都難以令人信服。也正是由于這個原因,泰格馬克才拋棄對意識理論的爭吵,轉而將之定義為“意識=主觀體驗”,從這個意義上說,任何體驗到痛苦的系統(tǒng)都是有意識的,即使它不能夠移動。在這個定義下,未來的某些人工智能系統(tǒng)可能也是有意識的,即使他們只是以軟件的形式存在,并沒有連接到任何傳感器或機器人身上[7]54。該觀點與哲學家Daniel C.Dennet在其著作《Conscious-ness Explained》中提到的觀點不謀而合,“人也不過是一臺有靈魂的機器而已,為什么我們人可以有智能而普通機器就不能有呢?數(shù)據(jù)轉換機器是有可能有思維和意識的。”③丁世飛:《高級人工智能》,中國礦業(yè)大學出版社,2015,第232頁。

其二,從科學層面看,意識完全可以由人工智能所擁有。意識源自何處?對本問題的回答將直接影響到本節(jié)的論斷。神經(jīng)科學家弗朗西斯·克里克與克里斯托弗·科赫在1990年撰寫的有關“意識相關神經(jīng)區(qū)”(Neural Correlatesof Consciousness,簡稱 NCC)的論文為解決本問題提供了可能。該研究表明信息讀取技術能夠使得科學家研究信息處理對應哪些意識。后續(xù)NCC研究者通過連續(xù)閃爍控制、不穩(wěn)定視覺、聽覺錯覺等方法來確定每個意識體驗是由哪個腦區(qū)負責。通過測量發(fā)現(xiàn),大腦中行為不一樣的部位便是NCC部位。意識則主要是在一個“熱區(qū)”內,這個區(qū)域涉及到丘腦(接近腦中部)和皮層的后部。這便意味著“饑餓與惡心這類感覺都產生于大腦中”,而非我們的胃部與腸道[7]390-392。從而,基本可得到如下論斷:如果能夠對“熱區(qū)”及其他神經(jīng)元連接方式進行模擬塑造,便能夠推動由人腦向機器大腦的創(chuàng)造性轉變。該種模擬工作在科學上又是可行的,至少人類已經(jīng)成功模擬出秀麗隱桿線蟲的神經(jīng)元連接方式,并開啟了神經(jīng)連接組學的新學科[8]63。該研究思路對應計算機科學領域的神經(jīng)網(wǎng)絡學派,純粹的神經(jīng)網(wǎng)絡學派主義者甚至認為,一個由一萬億乒乓球組成的系統(tǒng)同樣可能具有像人腦一樣的智能,只要它能夠準確復制大腦中發(fā)生的事情,也即至少就智能而言,構成材料并不緊要[8]23。而神經(jīng)網(wǎng)絡學派又與貝葉斯學派融合開啟了深度學習智能時代,開發(fā)出了修改后的蒙特卡洛樹算法、隱馬爾科夫算法等一系列的新技術,而應用這些技術的siri、AlphaGo、Deep Speech2等智能軟件都表現(xiàn)出了令人類驚訝的能力。一切都表明“一方面,機器的能力在可預見的未來會越來越專精于特定領域;另一方面,人類的潛力在它們的領域正日益落后?!雹芟柛喾颍骸蹲詣酉到y(tǒng)、人工智能和機器人——一個刑法角度的定位》,黃笑巖譯,《法治現(xiàn)代化研究》2019年第1期第86頁。而上述神經(jīng)網(wǎng)絡學派、貝葉斯學派僅是人工智能研究領域中的部分宗派而已,其他諸如符號學派、演進學派、類比學派等都在各自的領域內取得了令人感到恐慌的進步,在該種科技背景下,誰又能決絕地論斷人工智能不可能擁有意識呢?

二、將強人工智能擬制為刑事責任主體具有合理性

與否定人工智能可能擁有意識的論斷相聯(lián)系,否定論者自然地提出了第二個論點:賦予人工智能刑事責任主體地位不可行。該論斷相當于直接否認了未來強人工智能刑事立法的前提。葉良芳教授觀點最為明確,其認為“即使具有嚴重社會危害性的狀態(tài)是人工智能在自主決定的情況下引發(fā)的,刑事責任的承擔主體也應是相關自然人或者單位,而不應該將人工智能擬制為新的犯罪主體。①葉良芳,馬路瑤:《風險社會視閾下人工智能犯罪的刑法應對》,《浙江學刊》2018年第6期第67頁?!边€有否定論者認為不可類比法人,將人工智能擬制為刑事責任主體,二者間存在本質差異。法人客觀存在,且其主體地位已經(jīng)在民法及行政法上得以確立,通過內部決策的“大腦”產生對外以法人的名義獨立運行、形成區(qū)別于自然人的行為能力,包括實施犯罪行為的能力[3]71-72。與之不同,筆者認為將人工智能擬制為刑事責任主體有其合理性。

其一,部分否定觀點正確,但卻不是對強人工智能刑事責任主體地位的否定。如上文認為不可類比法人,將人工智能擬制為刑事責任主體的觀點,其確實深刻闡明了法人的運行機理,但卻不能夠完全證成其論題“人工智能刑事責任主體地位之否定”,因為其論證前提便排除了強人工智能時代到來的可能。其認為“基于強人工智能‘類人’屬性運行模式在可預期技術發(fā)展條件下的‘虛無’與‘縹緲’,本文討論的人工智能機器人實質是針對科技發(fā)展狀況下已經(jīng)實現(xiàn)的人工智能運作模式,即弱人工智能時代人工智能機器人所造成的法益侵害結果能否認定為刑事責任主體的問題”[3]69。但問題是,弱人工智能不具有刑事責任能力是刑法學界通識,即使在民事法領域也傾向于將之解釋為法律客體,而非法律主體。如果直接排除強人工智能的情形去論證“人工智能刑事責任主體地位之否定”,倒不如直接將研究視線放到無人駕駛汽車、家庭智能家電致害等情形下應如何對相關負責人員進行歸責的問題。單以“人工智能刑事責任主體地位之否定”為題展開論證,總會令人生疑,因為其論證并沒有否定強人工智能擁有刑事責任主體地位的可能性。在弱人工智能時代,智能機器人在設計和編制的程序范圍內實施的嚴重危害社會的行為,實際上是指研發(fā)者或使用者行為的延伸,理應由研發(fā)者或使用者承擔刑事責任[9]。這一點應該成為論爭的共識性前提,只有以“強人工智能時代是否會到來、以何種形式到來、到來后應如何設置和調整刑事法律”為問題進行深入討論才會有更強的實效價值。

其二,人類傲慢主義不可取,賦予人工智能相應的權義將為大勢。否定論者以人類設計人工智能的目標在于從事一定活動,便認定其本身沒有獨立于人類的價值和權利,而只有附屬利益。這種論調為典型的人類傲慢主義,即視人類為世界上唯一高貴的種族,除人類外其他各種族群都不能擁有權利和義務,但人工智能的崛起必將迫使我們放棄該種傲慢?!爸悄軝C器人在代替人類從事工作的過程中,已慢慢呈現(xiàn)出擺脫工具地位,漸獲主體地位的優(yōu)勢;在深度學習、神經(jīng)網(wǎng)絡原理和大數(shù)據(jù)技術的支持下,智能機器人已可獨立創(chuàng)作作品,符合獨創(chuàng)性的特征。②劉憲權:《人工智能時代機器人行為道德倫理與刑法規(guī)制》,《比較法研究》2018年第4期第42頁?!辈糠謬液偷貐^(qū)的立法者也開始重新審視人工智能權利和義務問題。如2017年,歐盟議會法律事務委員會考慮在未來立法中賦予最高端的智能機器人電子人地位,讓最高端的智能機器人能夠為自己所造成的損害結果負責,并且可以讓“電子人”在與第三人互動時保持并利用其法定電子人格[10]。俄羅斯也緊隨其后,在由俄羅斯互聯(lián)網(wǎng)技術專家格里申及其基金會“格里申機器人”發(fā)起并起草的《在完善機器人領域關系法律調整部分修改俄羅斯聯(lián)邦民法典的聯(lián)邦法律》(又稱《格里申法案》)第1條中提出了賦予機器人“機器人—代理人”法律地位的建議,規(guī)定“機器人—代理人”擁有獨立的財產并以之為自己的債務承擔責任,可以以自己的名義取得并行使民事權利和承擔民事義務[11]。將之“作為準主體的定位,意味著機器人可能在有限的特別權利能力范圍內獲得權利主體性,將具有主體性的機器人歸于法人行列?!雹蹚埥ㄎ模骸陡窭锷攴ò傅呢暙I與局限——俄羅斯首部機器人法草案述評》,《華東政法大學學報》2018年第2期32頁。可見,人類傲慢主義的立場并不足取,應該正確審視人與人工智能間的關系,至于應采劉憲權教授所主張的“機器人絕不可能獲得完全的、不受限制的、與自然人平等的主體地位。”④劉憲權:《人工智能時代機器人行為道德倫理與刑法規(guī)制》,《比較法研究》2018年第4期第44頁。還是美國人工智能協(xié)會主席湯姆·迪特里奇所言“人們總是在問,人與機器的關系如何。我的回答是,這很明顯,機器是我們的奴隸。”⑤泰格馬克:《生命3.0》,汪婕舒譯,浙江教育出版社,2018,第241頁。還是如高奇琦教授所言:“在未來,機器與人的關系很有可能上演又一次主奴辯證法的循環(huán)。盡管人類的初衷是功利性的使用機器,但人類對機器的依賴最終很有可能使其達成一種與機器相互承認的可能?!雹俑咂骁骸度斯ぶ悄埽厚Z服利維坦》,上海交通大學出版社,2018,第186頁。明日可期宜綢繆,切莫“直到它開始介入我們的生活,……那時我們才會明白真相——誰是圈養(yǎng)者,誰又是被圈養(yǎng)者?!雹诳ㄆ仗m著:《人工智能時代》,李盼譯,浙江人民出版社,2016,第183頁。

其三,道德非人類所專屬,人工智能也可有善惡倫理觀。有否定論者認為認知以心智作為定義依據(jù),可以被分為神經(jīng)層級的認知、心理層級的認知、語言層級的認知、思維層級的認知和文化層級的認知等五個層級[12]。而對幸福、痛苦和各種情緒的感受屬于最低階的神經(jīng)層級認知,人工智能的認知水平與一些低級動物相比尚存在差距,與人類更不具有可比性。同時,又由于刑罰的目的是為了懲治犯罪與預防犯罪,而只有懲治時使犯罪人承受的刑罰之苦重于其實施犯罪時的犯罪之利時,才能夠使犯罪人或其他人感知到刑罰的痛苦,進而放棄想要實施犯罪的欲求。既然人工智能感受不到幸福、痛苦與各種情緒,那么對其施加刑罰將不會具有實效,不可能實現(xiàn)特殊與一般預防的雙重功能,懲治人工智能的作用僅僅是安撫受害人而已,這明顯與現(xiàn)代刑罰觀的核心理念相違背[13]。筆者認為這也是典型的人類傲慢主義的表現(xiàn),人工智能將可能產生自主意識,卻又否認人工智能能夠理解人類社會的關系與倫理。機器人道德是具有自主意識的智能機器人判斷某種行為正當與否的基本標準與準則,是智能機器人的必備內容,也是人類社會對智能機器人融入社會生活最低限度的要求。道德是后天養(yǎng)成的,而非先天即有,這也意味著道德并非專屬于自然人,智能機器人也可通過后天養(yǎng)成道德[14]。

三、設置以強人工智能為對象的新型刑罰具有現(xiàn)實意義

否定論者認為人工智能與人類不同,其無法感知刑罰的痛苦,無法知曉刑罰的社會功能,進而即使施加新型刑罰也不能起到一般預防與特殊預防的作用,從而針對人工智能設置新型刑罰沒有實際價值。學者們的否定進路有一定區(qū)別,有學者認為,人工智能體主要是用來服務人類,與制造它的主體、擁有它的主體及使用它的主體之間存在諸多利益關系,銷毀人工智能體或刪除其中數(shù)據(jù)、程序等行為會損害與其緊密相關的其他主體的利益。正如飼養(yǎng)寵物傷人后,懲罰動物本身在法律上是沒有意義的,但懲罰動物的結果對于動物飼養(yǎng)人卻具有明確的法律意義。從該角度看,對人工智能不法行為的法律回應,也當然應指向人工智能的制造者、所有者或使用者,而非人工智能體本身。所以,人工智能體被賦予法律人格無法使其享受法定權利和承擔法定義務,進而對其施加刪除數(shù)據(jù)、修改程序與永久銷毀等刑罰并沒有實踐上的意義[15]。還有否定論者認為,科技雖能超越生理結構的發(fā)展速度,但科技產品對事物的認識能力和對痛苦的承受能力,難以確保其與人類同等的精確。智能產品對刑罰的識別能力,應當體現(xiàn)在外界環(huán)境的適應功能建立基礎上,如果缺乏對外界生活環(huán)境的長久感知,如何辨別好壞,避免觸及刑罰,便成為機器人負刑事責任的阻礙。“對一個人類的觀察者而言,對機器人的物理損壞或損害可能看起來像是肉體懲罰甚或死刑;但是,它對機器人并不具有類似的影響,至少它不具有(身體健康地)活下去的意愿?!雹鄹袢R斯,西爾弗曼,魏根特:《若機器人致害,誰將擔責?》,陳世偉譯,《刑事法評論》2017年第1期第340頁。

看似兩條進路有所區(qū)別,但終歸還是對強人工智能時代終將到來這一命題的否認。然而,未來出現(xiàn)的機器人將擁有生物大腦,甚至可以與人腦的神經(jīng)元數(shù)量相媲美。美國未來學家甚至預測:在二十一世紀中葉,非生物智能將會10億倍于今天所有人的智能[16]。在隱性智慧探索方面,人工智能研究終將出現(xiàn)突破性進展,一旦人工智能具備了發(fā)現(xiàn)問題和定義問題的能力,人工智能終將實現(xiàn)真正的自主,而自主性越強,便越難將人工智能視為其他主體手中的簡單工具[17]??梢?,經(jīng)由這兩條進路對否定強人工智能設置新刑罰實際意義的價值是有限。強人工智能終將擁有自主意識,且通過其強大的學習能力,可以在網(wǎng)絡中獲取訓練其社會感知能力的任何資料,并在同人類交往過程中進行自我完善。該功能雖不能保證強人工智能具有同人類完全相同的對事物的認識能力與對痛苦的承受能力,但并不排除強人工智能形成自己對“痛苦”的獨特認知。而新刑罰的設置只要能使其感受到該種“痛苦”即可,而不一定非要使其感受到與人類完全相同的“痛苦”。而且即使賦予人工智能法律地位,人工智能也不可能具有與人類平等的法律地位,更多時候對其施加刑罰的目的也是將懲罰作為工具,約束人工智能的行為,使其可以實施有益于人類整體社會發(fā)展的行為。如修改數(shù)據(jù)、刪除數(shù)據(jù)等手段可將強人工智能意識中“壞”的部分予以剔除,使其迅速糾正錯誤的行動觀念,恢復到有益于人類社會的行動道路上來,具有明顯的現(xiàn)實意義。

將強人工智能視為獨立的刑事責任主體,設置新的刑罰,其意義不僅在于要求強人工智能為其在程序設計范圍外、獨立自主意識和意志支配下實施的犯罪行為承擔刑事責任,更重要的是要解決其背后的“人”之刑事責任分配問題。如果強人工智能在自主意識和意志支配下獨立作出決策并實施犯罪行為時,其設計者和所有者根本不具有對危害結果的預見可能性,僅要求強人工智能承擔刑事責任即可,而不須追究其背后設計者和所有者的刑事責任。當然,此時也并不否認可能會追究該設計者和所有者的民事賠償責任。如果強人工智能和設計者或使用者共謀實施危害社會的犯罪行為時,應該按照共同犯罪的刑事原理,要求二者依照共同犯罪之“部分行為,全部責任”規(guī)則承擔刑事責任。如果設計者或使用者已經(jīng)發(fā)現(xiàn)強人工智能的程序設計存在瑕疵,可能致使其在程序設計范圍外實施危害社會的行為時,該設計者或使用者便可能要承擔監(jiān)督過失的刑事責任,監(jiān)督過失作為過失競合的一種類型,只需要按照競合犯罪“具體問題,具體分析”的規(guī)則承擔刑事責任即可。但這又會面臨下一個問題,究竟應要求強人工智能承擔何種刑事責任,與人類刑事責任相同嗎?

筆者對此持否定態(tài)度,最簡單的例子便是不可能對強人工智能施加財產刑,即使強人工智能時代到來,為保障人類社會的安全也不會允許它具有獨立擁有財富的權利。一旦其具有獲取財富的權利便可能利用其超強的認知能力進行進一步的財富控制,當其利用虛構的身份設置公司并擁有足夠的自然人為其工作時,對強人工智能而言引導政治、影響輿論與決定戰(zhàn)爭和平只是很簡單的事情,這就好比目前人類寡頭企業(yè)的所作所為。所以,筆者不認為強人工智能將擁有與人類完全相同的權利,自然也就很難使用自然人的刑罰體系對強人工智能進行懲處。因此,急需升級刑罰體系以適應馬上到來的時代巨變,即使立法上不宜過早行動,在理論上進行新刑罰體系的制度構想也是絕對必要且有意義的。筆者贊同劉憲權教授以有形與無形作為區(qū)分標準,對強人工智能刑罰體系進行前瞻性重構的做法。無形強人工智能,存在基礎在于程序,其沒有物理性實體也不可能被局限于物理空間,所以可按照其實施犯罪行為的社會危害性大小,分別對其適用刪除數(shù)據(jù)、修改程序與刪除程序的處罰。而有形強人工智能,與自然人相類似,存在基礎在于軀體,所以可按照其實施犯罪行為的社會危害性大小,參考刑法中針對自然人涉及的刑罰方式,分別對其適用限制自由刑、剝奪自由刑和銷毀的刑罰處罰方式[18]。另外,設置新的刑罰是對強人工智能辨認能力與控制能力的尊重與對待,也是對其社會成員資格的承認?!拔ㄓ凶鹬刂悄軝C器人的自由意志,將其作為行為主體與社會成員來看待,有罪必罰,并經(jīng)由刑事訴訟程序進行法律上的審判,才能在智能機器人的‘大腦’中建立價值體系,植入人類文明,使其自覺遵守并維護社會秩序,從而實現(xiàn)‘人工人’向‘社會人’的轉變,這是人類智能技術發(fā)展到一定程度時,我們的理性選擇與必由之路。這樣做當然會有利于最大限度地降低社會治理成本。”①劉憲權:《人工智能時代我國刑罰體系重構的法理基礎》,《法律科學(西北政法大學學報)》2018年第4期第53頁。

猜你喜歡
刑罰機器人主體
論自然人破產法的適用主體
南大法學(2021年3期)2021-08-13 09:22:32
刑罰威懾力的刑法學分析
活力(2019年22期)2019-03-16 12:49:24
代運為名行詐騙 構成犯罪獲刑罰
斷鹽也是一種刑罰
關于遺產保護主體的思考
刑罰的證明標準
人間(2015年22期)2016-01-04 12:47:28
機器人來幫你
認識機器人
機器人來啦
認識機器人
景德镇市| 内丘县| 宁安市| 廉江市| 莱西市| 七台河市| 微博| 东源县| 荃湾区| 淄博市| 库尔勒市| 太和县| 尼木县| 翁源县| 南城县| 山东省| 保靖县| 孝感市| 丹棱县| 广安市| 咸宁市| 寻乌县| 正定县| 仁怀市| 天等县| 西丰县| 错那县| 崇左市| 太仓市| 会宁县| 鄢陵县| 汾西县| 赤壁市| 股票| 南汇区| 新龙县| 疏附县| 正镶白旗| 晋城| 策勒县| 永登县|