柳貝蒂
摘要:近年來人工智能發(fā)展迅猛,給人們的生活帶來便利,但是“人工智能(AI)”是否能成為刑法主體,一旦“人工智能(AI)”犯罪,處罰的主體如何確定就成為“人工智能(AI)”發(fā)展道路上的一顆“隱形炸彈”。本文針對“人工智能”成為刑法主體的可能性進(jìn)行了分析論證。
關(guān)鍵詞:人工智能;犯罪主體;刑法
1 人工智能的發(fā)展現(xiàn)狀
近年來,人工智能(AI)技術(shù)對人們的生活產(chǎn)生了重大的影響。美國白宮曾在《國家人工智能研發(fā)戰(zhàn)略規(guī)劃》中指出,人工智能技術(shù)正在為農(nóng)業(yè)、醫(yī)療、教育、能源、國防等諸多領(lǐng)域提供大量機(jī)遇。人工智能的發(fā)展給社會帶來了諸多變化。人們在日常生活中開始自我解放,從過去的生活方式中轉(zhuǎn)變,比如人工智能管家可以通過深度學(xué)習(xí)、語音合成、圖像識別、數(shù)據(jù)錄入、計(jì)算算法、程序、芯片七大智能錄入系統(tǒng),為家庭、城市以及各行業(yè)提供智能管家機(jī)器人解決方案,為用戶提供智能、舒心的生活體驗(yàn)。面對人工智能的迅速發(fā)展,一些傳統(tǒng)行業(yè)也采取相應(yīng)措施,根據(jù)自身狀況進(jìn)行調(diào)整轉(zhuǎn)型以應(yīng)對這種沖擊。
人工智能作為科技的一表現(xiàn)形態(tài),秉承科技的兩面性特征,這把雙刃劍一旦揮舞起來,驚喜與意外將會同在。
2 人工智能系統(tǒng)的設(shè)計(jì)風(fēng)險
人工智能為量刑規(guī)范化注入力量,“智能化”甚至可能會成為量刑公正的新評價標(biāo)準(zhǔn)。但問題在于,作為一個人工設(shè)計(jì)的程序,人工智能系統(tǒng)在設(shè)計(jì)時就受到設(shè)計(jì)者思維的影響,雖然程序本身沒有價值取向,但是作為程序的設(shè)計(jì)者是存在著自己的價值取向和判斷的。想要剔除程序設(shè)計(jì)者對程序的影響,保持人工智能司法的公正性不僅是一個技術(shù)問題,也是一個價值判斷問題。
計(jì)算機(jī)語言與人類語言是不同的,術(shù)業(yè)有專攻,熟悉計(jì)算機(jī)語言的人未必對法律精通,未必持有公平正義的理念,倘若設(shè)計(jì)者只是本身對于法治理念的理解有所偏差,導(dǎo)致設(shè)計(jì)的人工智能量刑程序也帶有偏向性或者在數(shù)據(jù)分析過程中出現(xiàn)問題,勢必會造成冤假錯案。對于這種情況如何去定罪處罰,如果將人工智能系統(tǒng)作為工具,將程序的設(shè)計(jì)者當(dāng)做制造冤假錯案的犯罪主體實(shí)際上是對主體的擴(kuò)大解釋。但是如果設(shè)計(jì)者本身就將人工智能技術(shù)作為實(shí)施犯罪的一種工具,或者其他人故意篡改了系統(tǒng)進(jìn)行犯罪,那么犯罪主體就可以確定,人工智能系統(tǒng)不具有可罰性也無爭議。
3 人工智能的技術(shù)失誤
當(dāng)前人工智能最成熟的應(yīng)用是無人駕駛汽車,2017年12月2日深圳的無人駕駛公交車正式上路,2輛試推出的無人駕駛公交車從深圳福田穿梭而出,公交車會自己提醒乘客:已進(jìn)入自動駕駛模式,請乘客坐穩(wěn)扶好。這是中國首次也是全球首例在公共開放的道路上進(jìn)行無人駕駛。支持這次無人駕駛的是中國企業(yè)自主研發(fā)的“阿爾法巴-智能駕駛公交系統(tǒng)”。所有人都知道這一天會到來,但是誰都沒想到,這一天會來得這么快。大家在驚訝之余不禁會思考,如果這輛無人駕駛汽車在行駛途中發(fā)生交通事故應(yīng)當(dāng)如何處理。在無人駕駛技術(shù)中,人已經(jīng)不是駕駛的主體,不具有實(shí)質(zhì)的駕駛行為,這就使得責(zé)任主體無從可尋。如果將不具備危害行為的智能服務(wù)提供者定罪就沖擊了刑法上“無行為則無犯罪”的原則。任何一種技術(shù)都不可能零失誤,基于允許的風(fēng)險而做出的責(zé)任分配體系實(shí)際上使得追究無人駕駛汽車服務(wù)的提供者的責(zé)任變成一種風(fēng)險的轉(zhuǎn)移。但是無人駕駛汽車本身不是適格的刑法主體,追求其刑事責(zé)任又會導(dǎo)致刑法價值判斷的偏離。
另一個典型例子是醫(yī)療事故罪。作為典型的過失犯罪,醫(yī)療事故罪追究的主體是嚴(yán)重不負(fù)責(zé)任的醫(yī)療主體。但是在智能醫(yī)療的背景下,人工智能操刀進(jìn)行手術(shù)的現(xiàn)象將會越來越普遍,在這種情形下發(fā)生醫(yī)療事故,單獨(dú)追究醫(yī)護(hù)人員的責(zé)任顯得并不公平,追究智能機(jī)械或者制造者的責(zé)任又不符合本罪主體的要求,這就陷入了責(zé)任主體的怪圈。
4 “人工智能(AI)”犯罪的主體分析
犯罪主體是犯罪構(gòu)成的必備要件,“人工智能(AI)”犯罪在分析主體時出現(xiàn)了三類“主體”,而這三類主體是否可以成為真正的犯罪主體需要經(jīng)過具體的判斷。
4.1 現(xiàn)階段人工智能犯罪主體的初步判斷
人工智能犯罪大致可以分為兩種情況,一種是被有犯意的人當(dāng)作工具使用來進(jìn)行犯罪,這種情形可以根據(jù)行為人的行為進(jìn)行相應(yīng)的判斷和處罰,主體可以確定;另一種就是人工智能脫離了設(shè)計(jì)者的設(shè)想而造成危害結(jié)果,這種情況相對來說就更為復(fù)雜。
以上文中提到的無人汽車發(fā)生交通事故為例進(jìn)行分析,對這種情況是否可以定為交通肇事罪,犯罪主體是誰進(jìn)行討論。
首先,交通肇事罪作為過失犯罪,要求犯罪主體必須存在過失,在人工智能系統(tǒng)獲得獨(dú)立的思考能力之前,無人駕駛汽車是不存故意或過失的主觀意志的,它只是根據(jù)數(shù)據(jù)和代碼的編輯程序執(zhí)行命令。即使是行為本身造成了危害結(jié)果,最終也不具備有責(zé)性,因此它就不是刑罰適格的主體。
其次,無人駕駛汽車的設(shè)計(jì)制造者在設(shè)計(jì)之初應(yīng)當(dāng)考慮到無人駕駛汽車上路后可能會發(fā)生的情況并且針對這些情況來設(shè)計(jì)相應(yīng)的預(yù)防措施,如果這些本可以預(yù)見的情形并沒有被良好的規(guī)避,那么設(shè)計(jì)制造者是存在過失的,但這種過失不同于駕駛者在實(shí)際駕駛中造成交通事故的過失,兩者是存在區(qū)別的,那么設(shè)計(jì)制造者能否成為交通肇事罪的主體也是存在爭議的。
再者,對于無人駕駛汽車的使用者也就是實(shí)際獲利者對結(jié)果的發(fā)生是否應(yīng)當(dāng)承擔(dān)責(zé)任,在我看來也應(yīng)當(dāng)分情況討論,使用者選擇無人駕駛汽車就意味著接受無人駕駛帶來的后果,但是這種后果并非一概而論的,而應(yīng)當(dāng)是建立在使用者清楚明知的基礎(chǔ)上。使用者在購買使用之初既不知道也無法預(yù)判,但在無人駕駛過程中出現(xiàn)的緊急情況應(yīng)當(dāng)視為意外事件。因?yàn)槭褂谜呋趯茖W(xué)技術(shù)的信任而選擇購買,他必然是在確信該項(xiàng)人工智能技術(shù)已經(jīng)可以安全上路之后才會選擇購買使用,基于此種情形,使用者不具有有責(zé)性。但是如果使用者明知在高危路段采用無人駕駛模式會發(fā)生不確定的危害結(jié)果,依舊選擇無人駕駛,那么使用者應(yīng)當(dāng)對于危害結(jié)果的發(fā)生承擔(dān)相應(yīng)的責(zé)任。
這僅僅是以具體的無人駕駛汽車為例進(jìn)行責(zé)任主體的分析,人工智能存在著諸多應(yīng)用領(lǐng)域,由此可見,判斷人工智能犯罪的責(zé)任主體要根據(jù)具體情況進(jìn)行分析。
4.2 “人工智能(AI)”與刑法主體的差異性
法律調(diào)整的是社會關(guān)系,而人是社會關(guān)系的主體,所以法律規(guī)則調(diào)整和規(guī)范的是人的行為。我國刑法中規(guī)定的犯罪主體包括自然人和單位。拉倫茨曾說:“人依其本質(zhì)屬性,有能力在給定的的各種可能性的范圍內(nèi),自主地和負(fù)責(zé)任的決定他的存在和關(guān)系,為自己設(shè)定目標(biāo)并對自己的行為加以限制?!比思热皇怯欣硇缘模敲此闶强梢宰坟?zé)的,他的意識的不良狀態(tài)就可以變成責(zé)任由他承擔(dān)。刑法中另一個主體是單位。單位犯罪的實(shí)質(zhì)是法人犯罪,即人格化的社會有機(jī)體的犯罪。法人承擔(dān)的刑事責(zé)任的本質(zhì)是一種整體性的責(zé)任,法人可以根據(jù)自己的整體意志行事,應(yīng)此也就具有了犯罪能力和刑事責(zé)任能力。
反觀人工智能,它既不是自然人也不是單位,現(xiàn)階段它不具有獨(dú)立思考的理性思維,也無法憑借自己的意志實(shí)施相應(yīng)的行為。既然無法獨(dú)立實(shí)施行為,那么也就無法獨(dú)立承擔(dān)責(zé)任。因此在現(xiàn)階段的刑法中無法將其作為犯罪主體來進(jìn)行定罪量刑。
不少學(xué)者針對這一問題主張要對刑法進(jìn)行修改,增加刑法主體,將人工智能(AI)單獨(dú)作為刑法的一類主體與自然人和單位并列,或者出臺一部專門的“人工智能(AI)犯罪”單行法。但是刑法的主體必定是要享有權(quán)利且承擔(dān)責(zé)任的,現(xiàn)階段人工智能在這兩方面均不能做到。社會的變遷勢必會對法律的發(fā)展提出新的要求;反過來, 法律層面的變化也必然直接或間接反映的是社會変遷所帶來的影響。法律作為上層建筑,相比社會生活具有一定的滯后性,刑法也是如此?,F(xiàn)階段,人工智能還停留在人工設(shè)計(jì)的程序?qū)用嫔希^分強(qiáng)調(diào)預(yù)判和修改其實(shí)不利于刑法的穩(wěn)定。但是隨著社會的發(fā)展和人工智能技術(shù)的普及,人工智能犯罪問題將會呈現(xiàn)普遍化,那時對于刑罰主體的討論將更具有合理性。
參考文獻(xiàn):
[1] 閆志明,唐夏夏,秦旋,張飛,段元美.教育人工智能(EAI)的內(nèi)涵、關(guān)鍵技術(shù)與應(yīng)用趨勢[J].遠(yuǎn)程教育雜志,2017(01).
[2] 孫道萃.人工智能對傳統(tǒng)刑法的挑戰(zhàn)[N].檢察日報,2017-10-22(3).
[3] 張智輝.刑法理論性[M].北京大學(xué)出版社,2006.
(作者單位:西北政法大學(xué))