摘 要:隨著科技的進(jìn)步,人工智能越來越表現(xiàn)出類人化的特點,有關(guān)其故意犯罪問題也并非主觀臆測。在人工智能故意犯罪問題研究上,基于賦予人工智能以電子人格屬性,在現(xiàn)行刑法框架下對其故意犯罪問題進(jìn)行研究,以期對這種新型犯罪能提出行之有效的解決式。
關(guān)鍵詞:人工智能;電子人格;故意犯罪
自二十世紀(jì)七十年代人工智能誕生以來,其以迅速發(fā)展之勢成為科技進(jìn)步最具代表之產(chǎn)物,人工智能對人類生活之益處不言而喻。在進(jìn)入二十一世紀(jì),隨著仿生技術(shù)、3D打印技術(shù)、記憶材料等新技術(shù)、新材料的不斷進(jìn)步,人工智能載體千變?nèi)f化、形態(tài)各異,其類人發(fā)展的技術(shù)路徑也已經(jīng)比較成熟。就目前發(fā)展趨勢來看,人工智能不僅能夠深度的自主學(xué)習(xí),還擁有“神經(jīng)網(wǎng)絡(luò)”,能夠獨立思考。人工智能目前已實現(xiàn)自動駕駛航空器、完成高考試卷、甚至有學(xué)者提出將人工智能應(yīng)用于法律裁判。人工智能的發(fā)展趨勢必然將導(dǎo)致其類人化屬性越來越明顯,甚至完全和人類一樣或者超過人類,對人工智能故意犯罪問題的研究具有一定的現(xiàn)實意義。
一、人工智能的“法律人格”
在對人工智能法律問題研究之前,首先要判斷人工智能的性質(zhì)是什么。關(guān)于人工智能的性質(zhì),目前流行的學(xué)說有三種:工具說、電子奴隸說和代理說。工具說將人工智能單單作為工具,認(rèn)為其本質(zhì)是為人類服務(wù)的工具。電子奴隸說認(rèn)為人工智能沒有情感與肉體特征,可以認(rèn)做不知疲倦的機(jī)器。代理說則主張人工智能的所有行為都是都是在人類的控制下完成的,其行為和后果完全由自然人承擔(dān)。上述三種學(xué)說的主張在目前人工智能發(fā)展的背景之下已無法立足。人工智能在研究初始階段的確是單純作為為人類服務(wù)的工具存在,但隨著仿生等技術(shù)的加入,賦予人工智能和人類相同的特征,例如會思考、有情感和邏輯判斷能力等等,只將人工智能看成工具、機(jī)器或者將其行為完全歸責(zé)于自然人已不現(xiàn)實。
筆者主張在現(xiàn)行法律下將其視為電子人,賦予其電子人格。同自然人的法律人格相比,電子人格具有局限性,屬于有限的法律人格。歸根結(jié)底人工智能屬于人類創(chuàng)造的智慧型工具,人類的權(quán)利必須優(yōu)先于人工智能。但對人工智能的權(quán)利完全避而不談,是極端錯誤的。某些屬于安撫作用的人工智能,人類已對其賦予情感,將其單單視為工具存在未免有失偏頗。賦予人工智能以有限的電子人格,不僅僅是為了保護(hù)其應(yīng)有的權(quán)利,同時也是在人工智能觸犯法律的情況下,保證法律公正的實施,而不是籠統(tǒng)的由人工智能的開發(fā)者、制造者等自然人承擔(dān)刑事法律責(zé)任。
二、人工智能故意犯罪論
(一)人工智能作為“犯罪工具”
在自然人或者單位利用人工智能實施犯罪行為的情況下,無論行為人是基于故意還是過失的主觀心態(tài),人工智能更確切的是作為一種犯罪工具而存在。利用人工智能實施犯罪行為并非臆想,在大數(shù)據(jù)化的人工智能時代,掌握先進(jìn)技術(shù)的部分自然人或者企業(yè),無疑是當(dāng)前涉及私人或者國家和社會的信息掌握最精準(zhǔn)的人群。各種數(shù)據(jù)通過網(wǎng)絡(luò)等電子化的形式存儲,有能力掌握電子數(shù)據(jù)的人通過人工智能的方式收集到的信息無疑更全面和準(zhǔn)確,利用其實施犯罪行為危害性更大。作為犯罪工具使用的人工智能,對于犯罪結(jié)果的發(fā)生,并非其主觀選擇的結(jié)果,而是行為人通過犯意主動追求結(jié)果的現(xiàn)實化。因此,在行為人利用人工智能故意或者過失實施犯罪的情況下,犯罪結(jié)果的發(fā)生理應(yīng)歸屬于行為人,由具體實施犯罪行為的自然人或單位承擔(dān)刑事責(zé)任,這一點毫無爭議。
(二)人工智能作為“犯罪主體”
人工智能作為“犯罪主體”,是指對于一定危害結(jié)果的發(fā)生,是人工智能自主決策和執(zhí)行的后果。人工智能作為“犯罪主體”的情況排除了人類利用人工智能實施犯罪的情形,是單純的將人工智能視為“人”而實施犯罪行為。
根據(jù)阿西莫夫提出的“機(jī)器人的三條律法”:第一,一個機(jī)器人不得傷害一個人類,也不能因為不作為而允許一個人類被傷害;第二,一個機(jī)器人必須遵守人類施加給它的規(guī)則,除非這些規(guī)則與第一律法相沖突;第三,一個機(jī)器必須保護(hù)自己的生存,只要這種自我保護(hù)不與第一或第二律法相沖突。在人工智能中先決插入的這種算法,促使人工智能以保護(hù)人類作為它的第一規(guī)則,但不能肯定這種預(yù)決的算法能夠避免人工智能故意犯罪的存在。
故意犯罪表現(xiàn)為認(rèn)識到犯罪結(jié)果的發(fā)生還放任其發(fā)生,認(rèn)識因素要求明知行為會發(fā)生符合構(gòu)成要件的法益侵害結(jié)果或者危險結(jié)果,意志因素希望或者放任危害結(jié)果的發(fā)生,這里的危害結(jié)果是其已經(jīng)明知的結(jié)果。在人工智能犯罪究竟是否屬于故意犯罪的問題上,采用何種的判斷標(biāo)準(zhǔn)是一大難題。究竟如何來認(rèn)定人工智能屬于故意?筆者認(rèn)為,對于人工智能故意與否的判斷,應(yīng)當(dāng)采取嚴(yán)格的判斷標(biāo)準(zhǔn),在通過技術(shù)化的手段(例如分析存儲的數(shù)據(jù)等專業(yè)的方式)難以認(rèn)定人工智能屬于故意還是過失的情況下,采用存疑時不利于人工智能的原則。即相關(guān)人工智能領(lǐng)域?qū)<彝ㄟ^鑒定認(rèn)定人工智能屬于故意犯罪,以相應(yīng)的故意犯罪論處;相關(guān)領(lǐng)域?qū)<彝ㄟ^鑒定無法判斷問題所在,在故意和過失之間徘徊不定時,應(yīng)以故意犯罪論處。這是因為,人工智能的存在最主要的功能是為人類服務(wù),當(dāng)它出現(xiàn)危害人類身體、生命、健康,危害社會的穩(wěn)定發(fā)展時,對其不能采取容忍的心態(tài),不能放任這種存在危險的人工智能逍遙法外。尤其對于人工智能的主觀心態(tài)在故意與過失之間無法判斷時,畢竟人工智能具有極強(qiáng)的能力,在不能斷定它是否存在危險的情況下,持謹(jǐn)慎的態(tài)度,采取有利于人類的目的。
三、結(jié)語
人工智能發(fā)展態(tài)勢的迅猛,對傳統(tǒng)法律沖擊巨大。目前已有人工智能犯罪案例的出現(xiàn),隨著技術(shù)的進(jìn)步和完善,人工智能犯罪問題不可能完全杜絕。故而,人工智能刑法問題的研究迫在眉睫。筆者從人工智能故意犯罪的角度對人工智能刑法問題進(jìn)行初步研究,根本立足點以人為本,雖賦予人工智能電子人格,仍以保護(hù)人的權(quán)利為基礎(chǔ)。人工智能刑法問題不止于此,筆者也只是從宏觀方面對人工智能問題提出解決途徑,希望此文的部分思路,能夠為刑法理論的完善提供一些行之有效的建議。
參考文獻(xiàn)
[1]孫振杰:《關(guān)于人工智能發(fā)展的幾點哲學(xué)思考》,《齊魯學(xué)刊》2017年第1期。
[2]參見張保生:《人工智能法律系統(tǒng)的法理學(xué)思考》,《法學(xué)評論》2001年第5期。
[3]參見袁曾:《人工智能有限法律人格審視》,《東方法學(xué)》2017年第5期。
[4]Issac.asimov.runaround.I.Robot.New York:Doubleday.1950:40.
[5]參見張明楷:《刑法學(xué)》,法律出版社第五版。
作者簡介
張潔 1995年 女 甘肅省天水市 西北政法大學(xué) 刑事法學(xué)院碩士研究生 研究方向:刑法
(作者單位:西北政法大學(xué))