(貴州民族大學(xué) 貴州 貴陽(yáng) 550000)
在2016年谷歌公司研發(fā)的“阿爾法狗”與圍棋世界冠軍李世石圍棋人機(jī)大賽中,阿爾法狗以總成績(jī)4:1戰(zhàn)勝了李世石,引發(fā)了一系列的有關(guān)人工智能的思考與擔(dān)憂。劉憲權(quán)認(rèn)為一個(gè)全新時(shí)代的到來(lái),對(duì)傳統(tǒng)的法律理念和原有的法律法規(guī)無(wú)疑沖擊最大,而我們面臨的人工智能時(shí)代,同樣也會(huì)給我們帶來(lái)一系列的法律應(yīng)對(duì)和完善的問(wèn)題。[1]
人工智能時(shí)代以人工智能技術(shù)為實(shí)質(zhì),人工智能技術(shù)學(xué)習(xí)人類的思考方式,分析人類神經(jīng)系統(tǒng)基礎(chǔ)上,使計(jì)算機(jī)系統(tǒng)對(duì)數(shù)據(jù)進(jìn)行學(xué)習(xí)并且思考,使得計(jì)算機(jī)系統(tǒng)能夠進(jìn)行分析、判斷以及決策。詳細(xì)來(lái)講,個(gè)人認(rèn)為人工智能可能出現(xiàn)三大問(wèn)題,一、人工智能將產(chǎn)生新的犯罪方式、方法。二、人工智能的出現(xiàn)使此前犯罪行為的危害性逐漸增大。三、人工智能的進(jìn)步進(jìn)而使得可能將來(lái)獨(dú)立實(shí)施犯罪。
人工智能的工作原理是利用人工設(shè)計(jì)的神經(jīng)網(wǎng)絡(luò)系統(tǒng)以及一系列編碼程序,對(duì)大量數(shù)據(jù)進(jìn)行精確分析,從而獲得辨認(rèn)甚至決策等技能。從最高人民法院、最高人民檢察院出臺(tái)的司法解釋中看出,我國(guó)刑法及司法實(shí)踐重點(diǎn)保護(hù)用于維護(hù)信息系統(tǒng)自身功能的、以訪問(wèn)控制為主要考慮的數(shù)據(jù),沒有對(duì)數(shù)據(jù)自身內(nèi)容功能上的價(jià)值與保護(hù)的必要性。[2]
科技永遠(yuǎn)是把雙刃劍,當(dāng)每一次技術(shù)更新的時(shí)候,人們的效率會(huì)得到質(zhì)的飛躍,但與此同時(shí)帶來(lái)的問(wèn)題也會(huì)更多,劉憲宗曾在相關(guān)論文中論述過(guò),互聯(lián)網(wǎng)技術(shù)的快速發(fā)展雖然不會(huì)使得所有傳統(tǒng)犯罪都“升級(jí)”,但是確實(shí)會(huì)使得部分傳統(tǒng)犯罪的危害性發(fā)生“量變”。[3]
機(jī)器人是人工智能產(chǎn)品的代表。美國(guó)著名科幻作家阿西莫夫曾提出“機(jī)器人三原則”,即“機(jī)器人不得危害人類、必須服從人類的命令、在不違反第一條和第二條的情況下必須保護(hù)自己”。[4]但這些原則真的能束縛住機(jī)器人嗎?一旦機(jī)器人學(xué)會(huì)了像人類一樣思考的話,它便擁有了自己的思考能力以及決策意識(shí),在人類編程之外獨(dú)立實(shí)施他想要去操作犯罪行為,對(duì)此人類就需要獨(dú)立承擔(dān)刑事責(zé)任了。
以機(jī)器人為代表的人工智盡管可能不斷深度學(xué)習(xí)產(chǎn)生自主意識(shí)和意志,并在此意志和意識(shí)來(lái)獨(dú)立實(shí)施嚴(yán)重危害社會(huì)的犯罪行為,這時(shí)機(jī)器人已經(jīng)具備刑法中犯罪主體的主觀條件,的確應(yīng)該承擔(dān)對(duì)應(yīng)的刑事責(zé)任,單單通過(guò)我國(guó)現(xiàn)行刑法對(duì)智能機(jī)器人的犯罪行為進(jìn)行定罪是很難做到的。
研發(fā)者利用人工智能故意實(shí)施犯罪行為。科技進(jìn)步為人類帶來(lái)便利的時(shí)候也為某些人實(shí)施犯罪行為提供機(jī)會(huì),假如研發(fā)者個(gè)人創(chuàng)造人工智能是為了實(shí)現(xiàn)自己的計(jì)劃,利用智能機(jī)器人或者人工系統(tǒng)實(shí)現(xiàn)犯罪的目的。此時(shí)人工智能系統(tǒng)便是一種工具,所以此時(shí)的刑事責(zé)任應(yīng)該由其設(shè)計(jì)者來(lái)承擔(dān)。當(dāng)然此時(shí)還有一個(gè)更重要的問(wèn)題就是可能出現(xiàn)一些認(rèn)識(shí)錯(cuò)誤的情況,假如利用機(jī)器人去殺人的話,由于程序上出現(xiàn)了某些漏洞并沒有能夠殺死某人此時(shí)便構(gòu)成了故意殺人未遂,理由在于手段利用錯(cuò)誤。其次還有另外一種情況,如你想設(shè)計(jì)一種機(jī)器人其最初目的是讓其幫助你殺死甲,但是中途智能機(jī)器人產(chǎn)生了混亂,從而殺死了乙或者丙,這在刑法中典型錯(cuò)誤在智能機(jī)器人身上也不是不可能發(fā)生的。
我們知道,在過(guò)失中還會(huì)存在“疏忽大意的過(guò)失”以及“過(guò)于自信的過(guò)失,此時(shí)如果構(gòu)成犯罪是不是應(yīng)該成立有關(guān)人工智能過(guò)失犯罪的某些罪名呢?
國(guó)家允許生產(chǎn)機(jī)器人并將其投放市場(chǎng),必須制定人類現(xiàn)有科學(xué)技術(shù)水平所能夠企及的國(guó)家標(biāo)準(zhǔn)或行業(yè)標(biāo)準(zhǔn),符合標(biāo)準(zhǔn)的便不屬于缺陷產(chǎn)品,其所導(dǎo)致的危險(xiǎn)便不屬于“不合理的危險(xiǎn)”。因?yàn)槿魏我豁?xiàng)技術(shù)當(dāng)出現(xiàn)重大突破時(shí)會(huì)有這樣或者那樣的缺陷在當(dāng)時(shí)無(wú)法發(fā)現(xiàn),以此為思路,研發(fā)者便沒有故意或過(guò)失的主觀心態(tài),那么此時(shí)便不再可能追究研發(fā)者的刑事責(zé)任。
在如今刑法對(duì)于人工智能存在一定滯后性的情況下應(yīng)盡快考慮著手有關(guān)方面的規(guī)劃和補(bǔ)充,就此技術(shù)而言,使得人工智能技術(shù)的設(shè)計(jì)和利用處于一種安全的范圍中,即使人工智能可能變革原有犯罪行為,產(chǎn)生新的犯罪形式,甚至只能機(jī)器人獨(dú)立實(shí)施犯罪行為,可以說(shuō)在此情況下濫用人工智能技術(shù)將會(huì)比任何時(shí)候犯罪的危害性更大。
智能機(jī)器人將可能在將來(lái)某一天擁有類似于人的辨認(rèn)能力和控制能力,也可以在人類社會(huì)中自己獨(dú)立實(shí)施某些犯罪行為,對(duì)此筆者考慮可以將刑事責(zé)任主體增加機(jī)器人(具有辨認(rèn)和控制能力)理由如下:
首先,智能機(jī)器人在設(shè)計(jì)程序范圍外實(shí)施行為完成的是其自己的意志,而意志存在是對(duì)于刑事責(zé)任能力認(rèn)定的重要依據(jù)。以單位犯罪來(lái)說(shuō),對(duì)于單位應(yīng)否成為刑事責(zé)任主體爭(zhēng)論的核心就在于“單位能否像自然人一樣,從而實(shí)施犯罪行為,并且具有犯罪的意識(shí)和意志,是否有承擔(dān)刑事責(zé)任的能力”。[5]德國(guó)費(fèi)爾巴哈學(xué)者曾說(shuō):“只有個(gè)人才能成為犯罪的可能的主體,而法人(如公司、大學(xué)或者學(xué)院等)決不可能成為犯罪的主體。[6]因此與單位進(jìn)行比較可以明顯發(fā)現(xiàn),智能機(jī)器人比單位有更加高意志和自由,完全有可能脫離人類產(chǎn)生獨(dú)立的意識(shí),相對(duì)于單位來(lái)說(shuō),其運(yùn)作方式和方法都是仿照人類思考方式,刑法應(yīng)該考慮其意志自由性,考慮賦予其法律上的主體地位。
其次,智能機(jī)器人的行為完全可能成為法律意義上的行為。歷史上關(guān)于行為的理論由自然行為論、因果行為論、目的行為論等。這些行為理論普遍地認(rèn)為只有“人”的行為才可能成為法律意義上的“行為”。
綜上,筆者認(rèn)為,人類既然有能力去創(chuàng)造一個(gè)前所未有的人工智能技術(shù),那么便有理由去利用好它,我們必須重視人工智能有關(guān)刑事責(zé)任的問(wèn)題,要建立嚴(yán)格的人工智能設(shè)計(jì)嚴(yán)格審批制度,從源頭上對(duì)這些風(fēng)險(xiǎn)加以防控或許是一個(gè)較為明智的選擇。因此,刑法需要在其他法律法規(guī)對(duì)人工智能產(chǎn)品的研發(fā)和使用過(guò)程作出具體規(guī)定的基礎(chǔ)上,將其中嚴(yán)重危害社會(huì)的行為納入規(guī)制的范圍。