楊凌霄 李喆
摘 要:近年來(lái),快速發(fā)展的人工智能技術(shù)與大眾生活的聯(lián)系日益緊密,由此也引發(fā)了對(duì)人工智能涉罪問題的熱烈討論。本文從人工智能體是否具有刑事責(zé)任主體地位入手,立足目前人工智能技術(shù)穩(wěn)步發(fā)展的基礎(chǔ)上,從生產(chǎn)者、設(shè)計(jì)者等不同角度分析其存在的刑事法律風(fēng)險(xiǎn),最后闡述當(dāng)前預(yù)防人工智能犯罪風(fēng)險(xiǎn)應(yīng)持的基本立場(chǎng)。
關(guān)鍵詞:人工智能;刑事責(zé)任;刑事應(yīng)對(duì);風(fēng)險(xiǎn)預(yù)防
隨著人臉識(shí)別、智能翻譯、AI畫畫等逐漸進(jìn)入日常生活,人工智能技術(shù)展現(xiàn)出強(qiáng)大的生命力和廣闊的應(yīng)用前景。但同時(shí),新的犯罪模式也隨之產(chǎn)生,如利用語(yǔ)音合成冒充他人、利用計(jì)算視覺技術(shù)進(jìn)行換頭變臉實(shí)施網(wǎng)絡(luò)詐騙,利用人工智能技術(shù)竊取個(gè)人信息等,對(duì)公民個(gè)人及公共利益均受到不同程度的侵犯。如何應(yīng)對(duì)人工智能技術(shù)引發(fā)的新型犯罪,是目前法律規(guī)則亟需面對(duì)的重大挑戰(zhàn)。
一、人工智能體的刑事責(zé)任主體地位是否能認(rèn)定
從近代刑法來(lái)看,刑事責(zé)任的主體是自然人和單位,自然人獨(dú)立的意識(shí)和行為,是犯罪理論研究和刑罰制度設(shè)立的基礎(chǔ),單位屬于一種特殊的情形,它的獨(dú)立的意識(shí)是單位決策層多個(gè)人的意識(shí)的總和,因此歸根結(jié)底,我們研究的始終是人的獨(dú)立意志,無(wú)論這一獨(dú)立意志是客觀存在的還是法律擬制的,都不妨礙刑法規(guī)范人類的社會(huì)行為。目前,存在承認(rèn)人工智能主體地位的理論觀點(diǎn),這對(duì)自然人和單位的刑法主體地位產(chǎn)生了一定的沖擊,但我們認(rèn)為無(wú)論從事實(shí)出發(fā),還是從規(guī)范出發(fā),目前人工智能都不宜認(rèn)為是刑事責(zé)任的主體。
從事實(shí)層面看,人工智能的發(fā)展雖然取得巨大進(jìn)步,但是其自主意識(shí)并不能與人類相提并論,依舊是特定程序算法的產(chǎn)物。出于對(duì)人工智能技術(shù)的樂觀展望,部分學(xué)者認(rèn)為能夠自主識(shí)別并精確控制自身行為的強(qiáng)人工智能一定會(huì)出現(xiàn),而且會(huì)改變?nèi)祟惖纳a(chǎn)與生活。然而,以法律意義上的辨認(rèn)能力與控制能力來(lái)界定強(qiáng)人工智能的自主意識(shí)和行為,不僅無(wú)科學(xué)依據(jù),而且也不具有說服力。同時(shí),人工智能刑事責(zé)任主體論者從物理學(xué)、數(shù)學(xué)等方面論證人工智能與人類的同質(zhì)性,但是他們卻忽視了人工智能與人類的本質(zhì)不同。被公認(rèn)為20世紀(jì)最偉大生物學(xué)家之一,弗朗西斯·克里克曾說,盡管關(guān)于大腦的詳細(xì)知識(shí)在不斷積累,但大腦的工作原理仍然是一個(gè)難解之謎。人類對(duì)自己大腦工作原理的探索還在繼續(xù),即使人工智能、強(qiáng)人工智能迭代演進(jìn),其產(chǎn)生了自主意識(shí),其與人類大腦的發(fā)展軌跡未必一致,那就很難說人工智能等同與人類了。
從規(guī)范層面看,人工智能沒有必要成為刑事責(zé)任主體。如果賦予人工智能刑事責(zé)任主體地位,則會(huì)制造更大的風(fēng)險(xiǎn),不僅弱化了刑事責(zé)任的公平性、同時(shí)也動(dòng)搖刑罰制度的正義性。更重要的是,在智能風(fēng)險(xiǎn)的應(yīng)對(duì)中,賦予人工智能刑事責(zé)任主體地位不具有必要性,也并非只有構(gòu)建人工智能刑法體系這一種方法。因此,面對(duì)人工智能涉罪問題,仍應(yīng)當(dāng)在以自然人及單位為行為主體的基礎(chǔ)上進(jìn)行分析。
二、人工智能犯罪風(fēng)險(xiǎn)的刑法應(yīng)對(duì)
面對(duì)人工智能的飛速發(fā)展,為處理好人工智能可能引發(fā)的犯罪行為,刑法規(guī)范也應(yīng)進(jìn)行妥善應(yīng)對(duì)。目前而言,人工智能處于弱人工智能階段,強(qiáng)人工智能時(shí)代可能會(huì)到來(lái),但是從本質(zhì)上講,人工智能依然需要程序設(shè)置,所以法律追究的范圍依然包括生產(chǎn)者、設(shè)計(jì)者的責(zé)任。當(dāng)人工智能技術(shù)支持達(dá)到一定程度后,由于自身所產(chǎn)生的問題,或者利用其所產(chǎn)生的刑事責(zé)任歸屬問題,不僅會(huì)追究生產(chǎn)者設(shè)計(jì)者等主體的刑事責(zé)任,而且,與之相關(guān)的其他責(zé)任主體的刑事責(zé)任都要進(jìn)行具體分析追責(zé)。
(一)研發(fā)者和生產(chǎn)者責(zé)任
當(dāng)人工智能產(chǎn)品為了實(shí)施違法犯罪活動(dòng)而設(shè)計(jì)時(shí),產(chǎn)品設(shè)計(jì)出后為其實(shí)施違法犯罪具有幫助作用,就可以認(rèn)為研發(fā)者具有犯罪意圖,應(yīng)當(dāng)構(gòu)成故意犯罪。當(dāng)研發(fā)者或生產(chǎn)者出于正常生產(chǎn)生活需要,設(shè)計(jì)人工智能產(chǎn)品,然而人工智能產(chǎn)生嚴(yán)重社會(huì)危害性,研發(fā)者或生產(chǎn)者不能也不應(yīng)當(dāng)預(yù)見該人工智能的犯罪可能性,該犯罪結(jié)果并非其積極主動(dòng)追求,由于人工智能被犯罪分子利用,或者人工智能自主學(xué)習(xí)后被利用,或者程序設(shè)計(jì)存在問題等引發(fā)不利后果,則不能認(rèn)定為故意犯罪,研發(fā)者或生產(chǎn)者有可能構(gòu)成過失犯罪。
(二)使用者責(zé)任
使用者在使用人工智能產(chǎn)品時(shí),要正確認(rèn)識(shí)人工智能,將人工智能產(chǎn)品與其他產(chǎn)品加以區(qū)分。當(dāng)在使用人工智能產(chǎn)品出現(xiàn)嚴(yán)重的違法犯罪行為時(shí),要理性分析使用者的地位作用。比如當(dāng)使用者作為被害人時(shí),由于使用者并未實(shí)施侵權(quán)行為,自身法益也受到了侵害,此時(shí)刑法便不能懲罰使用者;如果使用者是被害人,但同時(shí)使用者存在過錯(cuò),如應(yīng)當(dāng)采取預(yù)防措施而沒有采取,應(yīng)從輕或減輕其他主體刑事責(zé)任。當(dāng)使用者使用人工智能的目的是為犯罪行為準(zhǔn)備工具時(shí),使用者屬于明知是危害行為,會(huì)產(chǎn)生危害后果,但仍然希望或放任這一結(jié)果的發(fā)生,這種情況下,使用者應(yīng)該依照刑法追究相應(yīng)的刑事責(zé)任。[1]綜上,當(dāng)使用者應(yīng)當(dāng)對(duì)人工智能履行相應(yīng)的管理使用義務(wù)而沒有履行時(shí),則需要承擔(dān)相應(yīng)的刑事責(zé)任。
三、當(dāng)前預(yù)防人工智能犯罪風(fēng)險(xiǎn)的基本立場(chǎng)
人工智能發(fā)展趨勢(shì)不可阻擋,需要加以警惕,對(duì)犯罪風(fēng)險(xiǎn)進(jìn)行有效預(yù)防,讓人工智能更好服務(wù)人類社會(huì)。一方面,可以通過完善制度、規(guī)范,權(quán)衡人工智能在具體場(chǎng)景中運(yùn)用的利與弊。例如,從整體上看,自動(dòng)駕駛技術(shù)對(duì)于防范交通事故具有一定積極意義,但是自動(dòng)駕駛系統(tǒng)的風(fēng)險(xiǎn)降至何種程度,才能夠走向市場(chǎng)、在不同智能等級(jí)背景下,駕駛?cè)藛T承擔(dān)事故責(zé)任的程度等,均需要通過完善制度、立法等予以規(guī)范。成文法具有不合目的性、不周延性、模糊性和滯后性,因此,在面對(duì)具體案件時(shí),不可避免會(huì)出現(xiàn)法律不能解決的情況,此時(shí),無(wú)論是專家、學(xué)者,還是社會(huì)大眾都應(yīng)當(dāng)堅(jiān)定不移地信仰法律,首先要根據(jù)實(shí)際情況對(duì)法律進(jìn)行合理解釋,將法律規(guī)范的調(diào)整作為最后手段。面對(duì)人工智能的大日新月異,更需要仔細(xì)論證,完善與之相關(guān)的法理解釋。法學(xué)理論界的法律解釋方法多元,包括系統(tǒng)解釋、目的解釋、擴(kuò)張解釋等,均可以對(duì)人工智能涉罪問題進(jìn)行科學(xué)合理歸納;實(shí)踐中,我國(guó)特色的司法解釋制度,足以在保證法律穩(wěn)定性下,解決涉人工智能法律問題。以擴(kuò)張解釋為例,交通肇事罪的主體是交通運(yùn)輸人員,但是在自動(dòng)駕駛階段,司機(jī)并未駕駛汽車,而僅僅是履行監(jiān)督義務(wù),此時(shí),應(yīng)當(dāng)將此處的交通運(yùn)輸人員進(jìn)行擴(kuò)大解釋,將此時(shí)汽車行駛監(jiān)督者納入到交通運(yùn)輸人員范圍。
另一方面,應(yīng)當(dāng)加強(qiáng)人工智能領(lǐng)域過失犯罪的主客觀注意義務(wù)。對(duì)于涉人工智能過失犯罪,首先需要討論的是,刑法規(guī)范與相關(guān)領(lǐng)域的行為規(guī)范之間的關(guān)系。[2]有專家認(rèn)為,客觀注意義務(wù)的的產(chǎn)生,可能來(lái)源于法律明文規(guī)定,或者來(lái)源于習(xí)慣或道德要求,因此,注意義務(wù)需要結(jié)合具體案例,考慮到社會(huì)現(xiàn)實(shí)的要求可能性。在人工智能領(lǐng)域涉及的過失犯罪中,應(yīng)當(dāng)以預(yù)見能力的不同為判斷依據(jù)。如人工智能運(yùn)用于智慧金融領(lǐng)域,人工智能進(jìn)行自動(dòng)獲客、身份識(shí)別、大數(shù)據(jù)風(fēng)控等服務(wù)時(shí),應(yīng)考慮到操作該人工智能產(chǎn)品的金融人員在對(duì)該領(lǐng)域的風(fēng)險(xiǎn)能否具有預(yù)見的能力,需要對(duì)其知識(shí)體系,金融經(jīng)驗(yàn)等進(jìn)行綜合分析判斷。如果確實(shí)具有預(yù)見能力,則該金融人員滿足了主觀的注意義務(wù)。
未來(lái)已來(lái),在人工智能時(shí)代的法律路徑選擇上要具有前瞻性,結(jié)合智能犯罪特征,慎重選擇匹配的策略或方法,有效控制刑事風(fēng)險(xiǎn),使人工智能更好服務(wù)于人類社會(huì)發(fā)展。
參考文獻(xiàn):
[1]姜子明:《人工智能的刑事主體資格研究》[D].《甘肅政法大學(xué)博士論文》,2021-06-3。
[2]姚萬(wàn)勤:《新過失論與人工智能過失刑事風(fēng)險(xiǎn)的規(guī)制》[J].《法治研究》, 2019-07-10。