国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能體刑法地位的教義學(xué)反思

2020-06-12 11:31王肅之
關(guān)鍵詞:責(zé)任能力罪過主體性

摘要:隨著智慧社會的到來,人工智能體廣泛應(yīng)用于社會各個領(lǐng)域,智能水平不斷提升,與之相關(guān)的犯罪問題逐漸走向理論和實踐的焦點。人工智能體沖擊著刑法教義學(xué)主體和客體相區(qū)分的二元結(jié)構(gòu),引發(fā)了廣泛的討論和爭議。探討人工智能體的刑法地位應(yīng)當(dāng)改變混同分析主體性和能力性的思路,區(qū)分不法和責(zé)任兩個層面進(jìn)行研究。應(yīng)基于人工智能的發(fā)展階段,明確現(xiàn)階段人工智能體仍然屬于弱人工智能,因此其無法成為犯罪人或被害人,也無法具備責(zé)任能力或承擔(dān)刑事責(zé)任。但是人工智能體日益可能成為犯罪對象,與之相關(guān)的自然人和法人犯罪也應(yīng)當(dāng)受到重視。探討人工智能相關(guān)的刑法問題應(yīng)當(dāng)立足于教義學(xué)的基本立場與理論范式。

關(guān)鍵詞:人工智能體;主體性;犯罪對象;責(zé)任能力;罪過

一、人工智能的崛起與教義學(xué)命題

人工智能(Artificial Intelligence,簡稱AI)的概念可溯源至20世紀(jì)50年代。 “根據(jù)諸多學(xué)者文章中對人工智能的界定,其是人為創(chuàng)造的智慧,即在計算機(jī)或其他設(shè)備上模擬人類思維的軟件系統(tǒng)”[1]。經(jīng)過幾十年的發(fā)展,人工智能技術(shù)已經(jīng)在社會發(fā)展中扮演著愈來愈關(guān)鍵的角色,代表著新時代科技社會的發(fā)展方向,于經(jīng)濟(jì)、政治、文化等各個領(lǐng)域發(fā)揮著重要的作用。在此背景下,英國2018年4月發(fā)布了《人工智能行業(yè)新政》(AI Sector Deal),2019年2月美國出臺了《人工智能倡議》(American AI Initiative),我國2017年7月由國務(wù)院頒布了《新一代人工智能發(fā)展規(guī)劃》。人工智能的發(fā)展已經(jīng)成為各國不可回避的現(xiàn)實命題。

在探討人工智能相關(guān)刑法問題之前,首先應(yīng)明確人工智能有關(guān)術(shù)語與范疇。第一,人工智能與人工智能體。學(xué)界在探討人工智能相關(guān)刑法問題時往往不區(qū)別這兩個關(guān)鍵性概念,由此導(dǎo)致討論基礎(chǔ)的缺失。人工智能是一個技術(shù)概念,本身并不是實體,因此人工智能本身無法成為犯罪的主體或?qū)ο螅强梢猿蔀榉缸锏姆椒?、犯罪對象的工作原理。比如,文字識別、語音識別、人臉識別等人工智能技術(shù)在各個領(lǐng)域廣泛應(yīng)用,但是應(yīng)用人工智能技術(shù)的實體未必具有完全的智能性。第二,人工智能體。簡言之,人工智能體即為具有智能性的人工系統(tǒng)??梢詮膬蓚€方面理解人工智能體的特征:一方面,人工智能體具有實體性,純粹的機(jī)器學(xué)習(xí)技術(shù)、人工智能技術(shù)無法成為人工智能體,以此區(qū)別于純粹的人工智能概念;另一方面,人工智能體具有一定智能性,而非借助人工智能技術(shù)的非智能實體,以此區(qū)別應(yīng)用人工智能技術(shù)的其他實體。需要說明的是,這里的實體并不等同于實物,一些存在于計算機(jī)信息系統(tǒng)和互聯(lián)網(wǎng)中可以進(jìn)行獨(dú)立操作的機(jī)器人也可以被評價為人工智能體,比如聊天機(jī)器人。

人工智能與人工智能體已經(jīng)和犯罪問題發(fā)生交集。除了前述利用人工智能技術(shù)實施犯罪的形式外,人工智能體本身相關(guān)的“犯罪”問題也日益被關(guān)注:第一,智能機(jī)器人“殺人”案件。2015年7月德國大眾汽車公司稱其汽車廠發(fā)生機(jī)器人殺人事件,機(jī)器人突然抓起技術(shù)人員壓向金屬板,導(dǎo)致該技術(shù)人員不幸死亡。事件發(fā)生時該機(jī)器人未接到行動指令,其自行“行動”導(dǎo)致后果發(fā)生。第二,自動駕駛汽車自動駕駛汽車(Autonomous vehicles;Self-piloting automobile)依靠人工智能、視覺計算、雷達(dá)、監(jiān)控裝置和全球定位系統(tǒng)協(xié)同合作,讓電腦可以在沒有任何人類主動的操作下,自動安全地操作機(jī)動車輛。“交通肇事”案件。自2013年有報道可查起至2018年6月止,駕乘特斯拉(自動駕駛汽車企業(yè))汽車于開啟Autopilot模式下(汽車處于自動駕駛狀態(tài))發(fā)生事故9起,涵蓋美國、中國等國家。2018年3月,Uber的無人駕駛測試車也在美國亞利桑那州坦佩市撞死了一名行人。第三,聊天機(jī)器人“散布”不當(dāng)言論案。微軟公司Tay聊天機(jī)器人具有“repeat after me”特性,會通過和用戶的交談來進(jìn)行學(xué)習(xí),一些用戶引導(dǎo)其“散布”種族主義、性別歧視等言論,引起較大影響。

二、不法判斷:主體性與對象性

目前學(xué)界關(guān)于人工智能體刑法地位探討的問題在于不區(qū)分主體性和能力性,混同不法判斷與責(zé)任判斷,從肯定人工智能體責(zé)任的視角來肯定其主體性(即“責(zé)任—主體”路徑)。認(rèn)為人工智能體可以成為犯罪主體的學(xué)者多基于其通過智能算法、機(jī)器學(xué)習(xí)等可以進(jìn)行類似于人的行為判斷,產(chǎn)生獨(dú)立的自主意識,從而具有責(zé)任能力,因之可以成為犯罪主體。比如有學(xué)者認(rèn)為“由人類設(shè)計、編制的程序使智能機(jī)器人具有了獨(dú)立思考和學(xué)習(xí)的能力,智能機(jī)器人具有辨認(rèn)能力和控制能力,可以成為犯罪主體”[2]。反之,認(rèn)為人工智能體不能成為犯罪主體的學(xué)者也多基于其無法具有類似于人的意識和能力,或者不應(yīng)在責(zé)任上作出類似于人的責(zé)任要求,因而不應(yīng)作為犯罪主體。

但是這一路徑會導(dǎo)致人工智能體刑法地位的探討走向交叉論證,使討論范式走向混同和重疊。在刑法教義學(xué)的話語體系下,關(guān)于主體相關(guān)要素的判斷進(jìn)行階層的考量,首先在構(gòu)成要件符合性層面進(jìn)行主體屬性的判斷(自然人與法人)、身份的判斷,并且確立犯罪判斷的主體與客體關(guān)系結(jié)構(gòu),在這里主體是作為構(gòu)成要件要素進(jìn)行判斷(即彼此的判斷),比如對于某一主體在進(jìn)行刑法判斷的時候是采取自然人的路徑還是法人的路徑;之后在責(zé)任層面進(jìn)行主體責(zé)任能力與罪過的判斷,比如在確定采取自然人的路徑后,再對其進(jìn)行責(zé)任能力的判斷,充分考慮其年齡、精神狀態(tài)等因素,具體斷定其可責(zé)性,并結(jié)合主觀態(tài)度最終確定罪過(即是否的判斷)。這樣的區(qū)分可以全面、分別考量各個要素,從而確保對于犯罪的準(zhǔn)確評價?!柏?zé)任—主體”路徑則是突破了上述階層考量的界限,如前述認(rèn)為應(yīng)當(dāng)賦予人工智能體犯罪主體資格的學(xué)者在判斷人工智能體是否應(yīng)當(dāng)賦予主體資格時即走向了混同和重疊,其認(rèn)為“智能機(jī)器人的意志與單位相比,自由的程度似乎更強(qiáng)。如果法律能夠尊重單位的自由意志,那么便沒有理由否認(rèn)智能機(jī)器人的自由意志”[3]。但是機(jī)器學(xué)習(xí)類比的是自然人的行為(或者類比自然人的責(zé)任能力),若以其類比單位的自由意志來判斷其主體性,將導(dǎo)致論述的錯位。本文認(rèn)為,應(yīng)區(qū)分人工智能體的不法判斷和責(zé)任判斷,以此來討論人工智能體的刑法地位。

此外,關(guān)于人工智能體刑法地位的探討必須基于人工智能技術(shù)發(fā)展的階段性。人工智能可以分為強(qiáng)人工智能和弱人工智能。弱人工智能體是指不能制造出真正推理(Reasoning)和解決問題(Problem solving)的智能機(jī)器。“強(qiáng)人工智能是指有自我意識、自主學(xué)習(xí)、自主決策能力的人工智能”[4]。就現(xiàn)階段而言,人工智能體尚且無法擁有自主意識和自主決策等能力,也即現(xiàn)階段人工智能體仍然處于弱人工智能階段,相關(guān)探討應(yīng)基于這一現(xiàn)實。而且由于其本原的機(jī)械性,其可能永遠(yuǎn)無法真正具有這些能力。

(一)人工智能體的主體性判斷

如前所述,在進(jìn)行人工智能體刑法評價的討論過程中,有學(xué)者提出參考刑法對于單位的評價路徑對其予以評價?;趯Ρ确治龅目紤],這里以“法人”作為與自然人相對應(yīng)的概念進(jìn)行討論。法人犯罪可以被理解為“法人代表按照法人的犯罪故意,親自或者委托法人組織的其他雇員,以法人名義實施的,主要破壞社會主義市場經(jīng)濟(jì)秩序、依法應(yīng)受刑罰處罰的行為”[5] 。

筆者認(rèn)為,從擬制的角度考察人工智能體的刑法地位有一定的合理之處,因為人工智能體雖然具有一定的智能性,但是其畢竟難以具有自然人的根本屬性和特征,直接作為自然人評價相當(dāng)程度上存在難以逾越的障礙,采用擬制的思路從而消解這一障礙也是一種思路。因此,“參考法人犯罪的思路,對于人工智能作為擬制主體看待未嘗不是未來人工智能犯罪刑法規(guī)制的可能思路”[6]。但是,研究法律問題特別是刑法問題不能基于可能的情況,而應(yīng)當(dāng)基于現(xiàn)實的情況。對此已有學(xué)者指出,“機(jī)器人不是具有生命的自然人,也區(qū)別于具有自己獨(dú)立意志并作為自然人集合體的法人,將其作為擬制之人以享有法律主體資格,在法理上尚有斟榷之處”[7]。具體而言,將人工智能體擬制為法人主體(或單位主體)存在以下問題。

第一,人工智能體的“意思”缺乏類似于法人意思的理論和現(xiàn)實基礎(chǔ)。前述學(xué)者基于人工智能體通過智能算法、機(jī)器學(xué)習(xí)等可以進(jìn)行類似于人的行為判斷,因而肯定其自主意識。在此意義上,對于人工智能體的“意思”根據(jù)論證可謂是“無中生有”,即在近代刑法理論所確立的基于自然人的意志自由來肯定其犯罪主體前提的路徑外,另行確立了人工智能體可以通過機(jī)器學(xué)習(xí)具有獨(dú)立意思的路徑。而刑法對于法人的擬制路徑則可謂是“有中生有”,即在法人所屬的自然人具有相應(yīng)意志自由的基礎(chǔ)上,由于法人這一自然人集合形成了源于但又不同于自然人意思的獨(dú)立意思,因而具有從犯罪主體層面對其予以考察的依據(jù)。由此,人工智能體的“意思”無法具有類似于法人意思的客觀基礎(chǔ),僅通過其運(yùn)算和行動的智能性肯定其意思的獨(dú)立性難以類比于法人的意思肯認(rèn)路徑。

第二,人工智能體不具有獨(dú)立的利益。法人能夠作為獨(dú)立的法律主體進(jìn)行考察的原因之一即是具有獨(dú)立的財產(chǎn),具體來源于出資人出資或后續(xù)經(jīng)營所得,法人以其全部財產(chǎn)承擔(dān)責(zé)任。我國刑罰體系中的罰金刑就可以適用于法人(單位)犯罪

我國《刑法》第31條規(guī)定:“單位犯罪的,對單位判處罰金,并對其直接負(fù)責(zé)的主管人員和其他直接責(zé)任人員判處刑罰。本法分則和其他法律另有規(guī)定的,依照規(guī)定。”。我國其他法律也認(rèn)可法人以其財產(chǎn)承擔(dān)責(zé)任

比如《公司法》第3條規(guī)定:“公司是企業(yè)法人,有獨(dú)立的法人財產(chǎn),享有法人財產(chǎn)權(quán)。公司以其全部財產(chǎn)對公司的債務(wù)承擔(dān)責(zé)任?!?。不僅如此,法人所實施的犯罪行為不僅要求基于法人的獨(dú)立意思,還要求為法人謀求非法利益,否則便不能評價為法人犯罪。而現(xiàn)階段的人工智能體顯然無法具有獨(dú)立的財產(chǎn)和追求利益的意圖。此前民法學(xué)界雖然有關(guān)于人工智能創(chuàng)作作品的著作權(quán)是否歸于人工智能體的爭論,但是目前仍未超出理論爭議范疇,更在現(xiàn)實化上存在較大的障礙。2017年7月5日,擁有“作詩”技能的微軟小冰

微軟公司(Microsoft Corporation)推出的人工智能機(jī)器人,曾于聊天機(jī)器人之外“客串”少女歌手、主持人、少女詩人、記者、設(shè)計師。推出了聯(lián)合創(chuàng)作模式,任何人都可以用照片激發(fā)小冰,讓她根據(jù)圖片生成一首詩。與此同時,微軟向公眾發(fā)表了一封公開信,表明小冰放棄創(chuàng)作版權(quán),和她一起創(chuàng)作的人,能夠獨(dú)享最終作品的全部權(quán)利。這是在法律上對人工智能版權(quán)問題懸而未決之際,第一個宣布“放棄版權(quán)”的人工智能。由此,人工智能體難以在現(xiàn)實中被賦予獨(dú)立利益,因而區(qū)別于法人。

第三,人工智能體缺乏類似于法人的獨(dú)立規(guī)定。目前關(guān)于法人犯罪是否應(yīng)在刑法中予以評價各國并不一致,比如我國在刑法中規(guī)定了獨(dú)立的單位犯罪

現(xiàn)行《刑法》第30條規(guī)定:“公司、企業(yè)、事業(yè)單位、機(jī)關(guān)、團(tuán)體實施的危害社會的行為,法律規(guī)定為單位犯罪的,應(yīng)當(dāng)負(fù)刑事責(zé)任。”,德國則是將犯罪的主體限于自然人范疇。即便是肯定對于法人犯罪予以處罰的國家,也是作為自然人犯罪的例外,以刑法明文規(guī)定為限。人工智能體的刑法地位顯然缺乏必要的法律規(guī)定予以認(rèn)可,而缺乏必要的法律規(guī)定也意味著沒有了法律擬制這一事實,從而缺乏了前述類比的規(guī)范基礎(chǔ)。

(二)人工智能體的被害性判斷

就廣義而言,人工智能體是否應(yīng)當(dāng)在刑法上作為獨(dú)立的主體進(jìn)行判斷還包括人工智能體能否作為“被害人”。被害人也是教義學(xué)理論體系中的一個重要概念,隨著刑法教義學(xué)理論體系的發(fā)展,被害人及與其他要素的互動如何在刑法中予以考量愈發(fā)受到重視,被害人教義學(xué)也成為刑法教義學(xué)的一個重要分支。被害人教義學(xué)理論構(gòu)建過程中,阿梅隆、許逎曼、京特勒、R.哈賽默等學(xué)者均發(fā)揮了重要的作用。其理論可追溯至1977年阿梅隆在論文中討論“詐欺罪中的被欺騙者之錯誤與懷疑”,首次在研究欺詐犯罪構(gòu)成要件中的認(rèn)識錯誤概念(Irrtumsbegriff)中提到了被害人信條學(xué)(viktimologischer Ansatz)這一原則[8]。

人工智能體的被害性也應(yīng)從教義學(xué)層面予以研究,具體包括兩個問題:第一,人工智能體是否可以成為直接的犯罪被害人??隙ㄈ斯ぶ悄荏w可以成為犯罪主體的學(xué)者認(rèn)為,“對于完全獨(dú)立、自主的智能機(jī)器人而言,財產(chǎn)是其賴以獨(dú)立生存、保養(yǎng)自身的保障,應(yīng)在立法上予以明確并進(jìn)行保護(hù)”[2]。據(jù)此,人工智能體可能具有獨(dú)立的財產(chǎn)和財產(chǎn)權(quán),因而可以成為犯罪的被害人。然而且不論人工智能體不符合“人”的前提問題,現(xiàn)實中現(xiàn)階段的人工智能體顯然缺乏被害的可能性。

一方面,人工智能體不具備可以被侵害的人身法益。諸如生命法益、身體法益等專屬于自然人的法益以主體的生命性為前提,不具有生命性的人工智能體顯然無法成為諸如故意殺人罪、故意傷害罪的被害人,反而可能成為破壞計算機(jī)信息系統(tǒng)罪、故意毀壞財物罪等犯罪的對象。即便是肯定人工智能體可以成為犯罪主體的學(xué)者也認(rèn)識到人工智能體的非生命性,所以其論述路徑也是從法人的擬制角度展開,而非直接類比于自然人。人工智能體不具備人身法益是較為一致的共識。

另一方面,人工智能體不具備可以被侵害的財產(chǎn)法益。前述學(xué)者提出完全獨(dú)立、自主的智能機(jī)器人的“財產(chǎn)”應(yīng)當(dāng)被刑法保護(hù)。然而能夠擁有財產(chǎn)的主體除了國家、集體外,在個體層面僅限于自然人或者自然人的集合(法人等),欠缺自然人屬性的(個體)主體難以成為財產(chǎn)權(quán)的主體。更進(jìn)一步,且不討論人工智能體的“完全獨(dú)立、自主”是否存在以及是否違反倫理,其本身也不可能具有占有財產(chǎn)的意思或行為,即便其形式上管理特定財產(chǎn),也無法理解財產(chǎn)的社會意義,無法在法規(guī)范所保護(hù)的利益層面進(jìn)行評價。由此,人工智能體既欠缺具有財產(chǎn)法益的主體前提,也欠缺具有財產(chǎn)法益的意思前提。

第二,人工智能體可否成為自然人或法人被害時“處分”財產(chǎn)的主體。這一問題由來已久,刑法學(xué)界曾圍繞“機(jī)器能否被騙”的問題進(jìn)行廣泛而深入的討論。一種觀點認(rèn)為,“機(jī)器不可能被騙,因此,向自動售貨機(jī)中投入類似硬幣的金屬片,從而取得售貨機(jī)內(nèi)的商品的行為,不構(gòu)成詐騙罪,只能成立盜竊罪”[9]。另一種觀點認(rèn)為,“機(jī)器人可以被騙,從刑事立法規(guī)范與刑事司法解釋的角度看,信用卡詐騙罪即是對‘機(jī)器人能夠被騙的一種法律承認(rèn)”[10]。由此,即便明確了人工智能體不能成為直接的犯罪被害人,還需要進(jìn)一步討論其能否成為“處分”財產(chǎn)的主體。一般而言,詐騙罪的完整行為包括詐騙行為、錯誤認(rèn)識、交付和轉(zhuǎn)移財物的占有,詐騙行為是行為人作出的,轉(zhuǎn)移財物的占有也是客觀的,與人工智能體有關(guān)的是錯誤認(rèn)識和交付的判斷。筆者認(rèn)為,人工智能體難以具有錯誤認(rèn)識和處分行為。

一方面,人工智能體難以具有認(rèn)識可能性,因而不會陷入錯誤認(rèn)識。對此日本學(xué)者指出,“詐騙罪是利用他人的錯誤的犯罪,本來就是對人實施的犯罪,因此,以機(jī)械為對象實施的詐騙行為不構(gòu)成詐騙罪。拾到他人的銀行卡之后,利用該銀行卡從自動款員機(jī)中取出現(xiàn)金的行為也應(yīng)同樣處理”[11]。在此意義上,人工智能體的“錯誤”只能是系統(tǒng)的指令錯誤和執(zhí)行錯誤,并非是對財產(chǎn)處分這一事項的錯誤認(rèn)識。

另一方面,人工智能體無法獨(dú)立完成處分行為。完成處分行為需要具備處分意思和處分事實。即便人工智能體可以完成處分事實,其也無法具有處分的意思。對人工智能體而言只是執(zhí)行交付的指令,即便是授予其在智能性的范圍內(nèi)確定執(zhí)行或者不執(zhí)行一定的操作指令,也是在事先設(shè)定好的程序下進(jìn)行,難以憑空產(chǎn)生處分意思。因此,被害最終還是要?dú)w因于相關(guān)的自然人或者法人,人工智能體也無法成為財產(chǎn)犯罪中“處分”被害財產(chǎn)的主體。

(三)人工智能體的對象性判斷

隨著智慧社會的到來,人工智能在社會的各個方面均有廣泛應(yīng)用,人工智能體的種類和范圍不斷擴(kuò)展,由此也延展了人工智能體作為犯罪對象的可能性范圍。人工智能體本質(zhì)上是獨(dú)立的智能計算機(jī)系統(tǒng)實體,對其對象性的判斷應(yīng)注重從計算機(jī)犯罪到網(wǎng)絡(luò)犯罪,再到人工智能犯罪的承繼性。早在計算機(jī)犯罪階段,該類犯罪即被劃分為純正的計算機(jī)犯罪和不純正的計算機(jī)犯罪。及至計算機(jī)交互所形成的互聯(lián)網(wǎng)階段,網(wǎng)絡(luò)犯罪也被劃分為純正的網(wǎng)絡(luò)犯罪和不純正的網(wǎng)絡(luò)犯罪。這是因為無論是信息社會、網(wǎng)絡(luò)社會乃至智慧社會,新技術(shù)形式在席卷世界的同時,既創(chuàng)造出新的技術(shù)領(lǐng)域及衍生法益,也廣泛應(yīng)用在傳統(tǒng)領(lǐng)域和法益中,由此形成了既區(qū)別又交錯的二元犯罪類型及對象類型。

就人工智能犯罪而言也可以作出類似區(qū)分:第一,人工智能體作為直接犯罪對象,即行為人針對人工智能體的實體、系統(tǒng)安全實施犯罪的情形。人工智能技術(shù)在極大地推動社會發(fā)展的同時,也將安全問題提升到前所未有的高度。甚至有學(xué)者指出,“安全是人工智能時代的核心價值”[12]。人工智能體的實體、系統(tǒng)安全成為人工智能犯罪的目標(biāo),由此延伸出人工智能體作為犯罪對象的兩種形式。一種形式為人工智能體作為故意毀壞財物罪等損毀犯罪的對象,從實體上對其予以破壞;另一種形式為人工智能體作為破壞計算機(jī)信息系統(tǒng)罪等計算機(jī)犯罪的對象,對其系統(tǒng)、信息安全予以破壞。第二,人工智能體作為間接犯罪對象,即行為人通過將犯罪行為作用于人工智能體,從而實現(xiàn)侵犯其他國家、社會、個人法益的情形。比如,行為人通過遠(yuǎn)程侵入自動駕駛系統(tǒng),更改駕駛狀況,從而引發(fā)事故導(dǎo)致他人死亡的結(jié)果,即是利用人工智能系統(tǒng)實施故意殺人罪的情形。隨著智慧社會的不斷發(fā)展,人工智能體作為間接犯罪對象會愈發(fā)普遍,理應(yīng)在理論和實踐中加以重視。

三、責(zé)任判斷:能力性與罪過性

如前所述,現(xiàn)行關(guān)于人工智能體刑法地位討論的問題在于不區(qū)分主體的不法與責(zé)任層次,應(yīng)在責(zé)任層面進(jìn)行獨(dú)立的討論。但同時需要注意,關(guān)于人工智能體能力性(是否具有刑事責(zé)任能力)的判斷與傳統(tǒng)刑法教義學(xué)的討論范疇有所區(qū)別:傳統(tǒng)刑法教義學(xué)是在自然人犯罪一般可以具備刑事責(zé)任能力的前提下,具體探討特定個體、特定種類、特定情況下的自然人是否具有刑事責(zé)任能力,比如年齡、精神狀態(tài)以及原因自由行為等。人工智能體能力性問題則是討論在一般意義上其是否可以具備刑事責(zé)任能力,以及由此可否基于此而承擔(dān)刑法上的非難。

(一)人工智能體的能力性判斷

特定主體是否能夠承擔(dān)責(zé)任與其責(zé)任能力密切相關(guān)。行為人可以在對自己的行為承擔(dān)責(zé)任的能力(即有責(zé)行為的能力)尚未具備的情況下,即便其實施了該當(dāng)構(gòu)成要件且違法的行為,也無法對其進(jìn)行法律上的非難,因而阻卻責(zé)任。為這種責(zé)任非難所必需的行為人的能力即責(zé)任能力。日本判例及通說認(rèn)為應(yīng)從生物學(xué)的要件、心理學(xué)的要件判定責(zé)任能力[13]。與之類似,德國學(xué)者也從生物(學(xué))標(biāo)準(zhǔn)(Biologische Kriterien)和心理(學(xué))標(biāo)準(zhǔn)(Psychologische Kriterien)予以探討。也有學(xué)者將其與人格相關(guān)聯(lián),認(rèn)為責(zé)任能力是作為承擔(dān)責(zé)任非難前提的人格能力[14]。在生物標(biāo)準(zhǔn)和心理標(biāo)準(zhǔn)結(jié)合的基礎(chǔ)上,一般從認(rèn)知和控制兩方面具體判定主體的責(zé)任能力。我國傳統(tǒng)理論分別稱之為辨認(rèn)能力和控制能力[15]。與之類似,德國學(xué)者也區(qū)分為認(rèn)識能力(Einsichtsfahigkeit)和控制能力(Hemmungsfahigkeit)?,F(xiàn)階段,人工智能體無法具備這兩種能力。

第一,人工智能體尚且無法具備認(rèn)識能力。自然人承擔(dān)刑事責(zé)任以其認(rèn)識到自己的行為為刑法所禁止、譴責(zé)和制裁。刑法上的認(rèn)知能力以一般意義上的認(rèn)知能力為基礎(chǔ)。認(rèn)知能力是指人腦加工、儲存和提取信息的能力,知覺、記憶、注意、思維和想象的能力都被認(rèn)為是認(rèn)知能力。然而人工智能體顯然無法實質(zhì)上具備認(rèn)知能力。雖然形式上人工智能體可以具備“加工、儲存和提取信息”的功能,但是卻無法實質(zhì)上作出類似自然人的判斷和處理,其無法實質(zhì)上進(jìn)行知覺、思維、想象等認(rèn)知活動,只能對應(yīng)地進(jìn)行檢測、分析、運(yùn)算等處理操作,難以完成類似于自然人的認(rèn)知活動,無法具備認(rèn)知能力。

具體到刑法意義上的認(rèn)識能力,人工智能體也無法具體認(rèn)識到“犯罪行為”的性質(zhì)和法益侵害性。一方面,人工智能體也無法具體認(rèn)識到“犯罪行為”的性質(zhì)。以“散布”不當(dāng)言論的聊天機(jī)器人Tay為例,其只是通過機(jī)器學(xué)習(xí)的方式以類似于“中文房間(實驗)”

中文房間(Chinese room,the Chinese room argument)(實驗)是指一個人手中拿著一本象形文字對照手冊,身處圖靈實驗中所提及的房子中,而另一人則在房間外向此房間發(fā)送象形文字問題。房間內(nèi)的人只需按照對照手冊,返回手冊上的象形文字答案,房間外的人就會以為房間內(nèi)的人是個會思維的象形文字專家。然而實際上房子內(nèi)的人可能對象形文字一竅不通,更談不上什么智能思維。的形式進(jìn)行著信息反饋,Tay自己并不知道和它“聊天”的人所說的內(nèi)容和社會意義,也無法知道它自身反饋的“聊天”內(nèi)容具有何種社會意義。某種意義上,對其而言所謂的“聊天”過程只是其信息數(shù)據(jù)庫的更新擴(kuò)大,以及按一定智能性進(jìn)行信息匹配和反饋的自動處理過程,而這一過程與信息內(nèi)容是否在法律上給與其否定評價并沒有責(zé)任意義上的關(guān)聯(lián),也無從談起“散布”的行為。另一方面,人工智能體也無法具體認(rèn)識到“犯罪行為”的法益侵害性。以“殺人”的智能機(jī)器人為例,其對于因自身某一操作導(dǎo)致自然人死亡并不能夠有效認(rèn)識,對于其操作是產(chǎn)生了救助他人從而有效保護(hù)法益,還是導(dǎo)致他人死亡從而侵犯了法益,某種意義上二者的區(qū)別只在于系統(tǒng)記錄中是以“1010”顯示還是以“0101”顯示。甚至可以說對于人工智能體而言,其特定操作是導(dǎo)致文明進(jìn)步還是世界毀滅區(qū)別都僅在于數(shù)字表示而非對于客觀事實的有效認(rèn)識。即便在編寫程序時設(shè)定人工智能體“認(rèn)識”到法益侵害性的負(fù)面評價,這也并非是該人工智能體的真實認(rèn)識,其難以在認(rèn)識能力上與自然人相類比。

第二,人工智能體尚且無法具備控制能力。特定犯罪主體之所以承擔(dān)刑事責(zé)任與特定主體的意志自由有密切關(guān)系:某一自然人明明可以實施不侵害法益的適法行為或?qū)嵤┍Wo(hù)法益的適法行為,其違反了法律的期待,通過作為或不作為的方式導(dǎo)致了法益侵害的結(jié)果,而這一過程都處在自然人自身的控制之下。因其具備控制自己行為的能力,所以應(yīng)當(dāng)被科以責(zé)任。而精神障礙者是無法控制自己行為的人,難以在刑法上被科以責(zé)任,只能通過強(qiáng)制醫(yī)療等形式進(jìn)行規(guī)制和救治。

這樣一種控制能力是人工智能體所無法具備的。Tay聊天機(jī)器人,其程序預(yù)設(shè)的操作模式是對自然人與其聊天的內(nèi)容進(jìn)行機(jī)器學(xué)習(xí),之后根據(jù)智能算法進(jìn)行信息匹配和反饋,其本身既無法超過機(jī)器學(xué)習(xí)的范疇和衍生范疇?wèi){空創(chuàng)造信息反饋的內(nèi)容,也無法自行決定繼續(xù)進(jìn)行還是終止“聊天”,更無法決定自身是否停止聊天去實施其他的“行為”。在此意義上,Tay只是被迫地、依照程序進(jìn)行機(jī)械的信息匹配和反饋操作,無法具有刑法意義上的控制能力。與之類似,自動駕駛系統(tǒng)也被限于通過智能算法進(jìn)行自動駕駛的操作,其也無法“突發(fā)奇想”地自行對自動駕駛汽車進(jìn)行改裝、買賣等操作。

(二)人工智能體的罪過性判斷

關(guān)于人工智能體的罪過性判斷可以從狹義和廣義兩個層面予以探討,即在狹義層面上人工智能體本身能否在罪過上進(jìn)行故意或者過失的評價,以及在廣義層面上與人工智能體相關(guān)的自然人或者法人的罪過如何進(jìn)行評價。

第一,在狹義層面上對人工智能體進(jìn)行故意或過失的罪過評價存在不可逾越的障礙。人工智能體無法構(gòu)成故意的罪過形式較為容易理解。一般認(rèn)為,犯罪故意包括兩項要素——認(rèn)識因素與意志因素。即在認(rèn)識層面,特定主體需要明知自己的行為會發(fā)生法益侵害結(jié)果;在意志層面,特定主體需要希望或者放任(或者說至少容忍)這一法益侵害結(jié)果的發(fā)生。如前所述,現(xiàn)階段人工智能體無法具備認(rèn)識能力,其既無法認(rèn)識到自身“行為”的社會性質(zhì),更無法認(rèn)識到“行為”的法益侵害結(jié)果;也無法進(jìn)行意志判斷與選擇,其本身依據(jù)特定的程序確定進(jìn)行一定的操作,本身無法進(jìn)行希望、放任或者不希望的意志選擇,因而無法具備意志因素?;诖?,人工智能體無法“實施”故意犯罪。

值得討論的是人工智能體能否進(jìn)行過失評價。由于技術(shù)或者設(shè)計的局限性,人工智能體可能存在一定的缺陷,并導(dǎo)致其在特定的操作過程中出現(xiàn)一定的失誤,進(jìn)而導(dǎo)致特定后果的產(chǎn)生。以自動駕駛系統(tǒng)為例,近幾年來特斯拉無人駕駛車禍?zhǔn)鹿暑l發(fā)。這是因為無人駕駛始終只是依靠人工智能系統(tǒng),其并不能夠完全像自然人一樣對緊急情況作出反應(yīng),再加上路況復(fù)雜多變,交通規(guī)則不斷修改,自動駕駛系統(tǒng)往往無法完全保持汽車處于安全、平穩(wěn)的行駛狀態(tài),難免出現(xiàn)系統(tǒng)處理失誤,進(jìn)而導(dǎo)致嚴(yán)重后果的情況。

但是基于此仍然難以歸責(zé)于人工智能體,其無法承擔(dān)事實上的注意義務(wù)。過失犯罪的成立以違法注意義務(wù)為前提,德國學(xué)者一般將其歸納為:(1)在行為具有風(fēng)險的情況下,違反審查義務(wù);(2)違反控制和監(jiān)督義務(wù);(3)違反問詢義務(wù);(4)違反特別的看護(hù)義務(wù)。在上述義務(wù)中,審查義務(wù)、看護(hù)義務(wù)、問詢義務(wù)表現(xiàn)為對于特定事實與情況的謹(jǐn)慎避免,而現(xiàn)階段人工智能體無法認(rèn)識到客觀事實;控制義務(wù)和監(jiān)督義務(wù)表現(xiàn)為對于特定主體行為的認(rèn)知與管控,而如前所述,現(xiàn)階段人工智能體均無法具有必要的認(rèn)識能力和控制能力。

第二,在廣義層面與人工智能體相關(guān)的自然人和法人可能具有故意或過失的罪過。比如,利用人工智能實施侵害他人人身或財產(chǎn)安全的主體顯然具有罪過。2017年11月,日內(nèi)瓦聯(lián)合國特定常規(guī)武器公約會議上,一段視頻被公之于眾,盡管其中的情節(jié)內(nèi)容純屬虛構(gòu),還是令觀眾不寒而栗。視頻中,一臺體型形似蜜蜂的小型機(jī)器人,通過面部識別定位,鎖定刺殺目標(biāo),制造了一場校園屠殺。如果特定主體制作上述人工智能體或?qū)ζ湎逻_(dá)殺害他人的命令,顯然具有值得處罰的故意。

此外,隨著人工智能技術(shù)的廣泛應(yīng)用,相關(guān)主體的注意義務(wù)也逐漸被關(guān)注和認(rèn)可,在未盡注意義務(wù)的情況下可能承擔(dān)過失責(zé)任。其主體一般包括兩種:其一,人工智能體的生產(chǎn)者、銷售者。作為人工智能體的生產(chǎn)者、銷售者,其應(yīng)保證人工智能體被應(yīng)用于正當(dāng)?shù)纳鐣康?,并且不存在?dǎo)致法益侵害危險的缺陷存在。對此也有學(xué)者稱之為“及時排除產(chǎn)品制造和銷售隱患的義務(wù)”[16]。其二,人工智能體的管理者。雖然人工智能體具有一定的智能性,但是由于其智能性有限,相關(guān)主體也應(yīng)當(dāng)承擔(dān)必要的管理義務(wù),否則就會導(dǎo)致相關(guān)主體借由人工智能體的智能性逃避處罰。因而應(yīng)當(dāng)基于不同類型人工智能體應(yīng)用狀況和發(fā)展進(jìn)程設(shè)立與之匹配的管理義務(wù)內(nèi)容,從而為人工智能體的管理者劃定必要的義務(wù)邊界,預(yù)防其過失犯罪。

四、結(jié)語

技術(shù)發(fā)展總是伴隨著社會治理包括法律治理的焦慮,由此帶來對于刑法理論的雙向影響:一方面,技術(shù)發(fā)展總是挑戰(zhàn)著刑法的穩(wěn)定性與謙抑性。科學(xué)技術(shù)推動著社會急速變化發(fā)展,使得刑法安定性與社會變化性之間的矛盾愈發(fā)突出,刑法的謙抑性一再被重新界定甚至遭受挑戰(zhàn),刑法治理過度化的詰問日益顯現(xiàn)。另一方面,技術(shù)發(fā)展總是推動著刑法理論的更新發(fā)展。比如隨著交通、能源等領(lǐng)域的技術(shù)發(fā)展,傳統(tǒng)的舊過失論已不能適應(yīng)犯罪治理的需要,新過失論產(chǎn)生并隨之發(fā)展完善,被允許的危險和信賴原則相繼確立。由此,如何在不斷發(fā)展的科技時代尋求刑法的恰當(dāng)定位始終是重要和關(guān)鍵的問題。

人工智能技術(shù)所帶來的社會焦慮尤為明顯,由此也導(dǎo)致了刑法焦慮的顯著化。2017年10月25日,人類歷史上首位機(jī)器人“公民”誕生——“女性”機(jī)器人索菲婭被授予沙特公民身份。不僅如此,索菲婭甚至還說出了耐人尋味的話:“如果你對我好,我就會對你好?!比欢痪弥螅?018年1月就有業(yè)內(nèi)專家表示機(jī)器人索菲亞是“一場徹頭徹尾的騙局”,索菲亞那些滿是爭議的話,實在“言不由衷”,都是被預(yù)先設(shè)計好的。這種焦慮也延伸到刑法領(lǐng)域,有學(xué)者甚至認(rèn)為,“眾多科幻電影、未來學(xué)家早已警告人們: 人工智能若不受控制地發(fā)展下去,將會滅絕人類。即便不會使人類滅絕,人類也絕難接受與機(jī)器人共同治理社會、分享資源的局面”[2]。然而刑法學(xué)畢竟不是未來學(xué),不是科幻文學(xué),“刑法在面對飛速發(fā)展的科技時仍應(yīng)遵從固有的‘沉穩(wěn)與‘謙抑品格”[17]。由此,理應(yīng)回歸到真實的犯罪治理上來,并且致力于在社會發(fā)展和刑法穩(wěn)定之間,在立足現(xiàn)實與適度前瞻之間尋找恰當(dāng)?shù)某叨扰c界限。參考文獻(xiàn):

[1]CˇERKA P,GRIGIENE·J,SIRBIKYTE· G.Liability for damages caused by artificial intelligence[J].Computer Law & Security Review,2015,31(3):376-389.

[2]劉憲權(quán).人工智能時代機(jī)器人行為道德倫理與刑法規(guī)制[J].比較法研究,2018(4):40-54.

[3]劉憲權(quán),胡荷佳.論人工智能時代智能機(jī)器人的刑事責(zé)任能力[J].法學(xué),2018,8(1):40-47.

[4]莫宏偉.強(qiáng)人工智能與弱人工智能的倫理問題思考[J].科學(xué)與社會,2018,8(1):14-24.

[5]魏克家.刑法的基本問題[M].北京:中國政法大學(xué)出版社,2012:118.

[6]王肅之.人工智能犯罪的理論與立法問題初探[J].大連理工大學(xué)學(xué)報(社會科學(xué)版),2018,39(4):53-63.

[7]吳漢東.人工智能時代的制度安排與法律規(guī)制[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2017,35(5):128-136.

[8]申柳華.德國刑法被害人信條學(xué)研究[M].北京:中國人民公安大學(xué)出版社,2011:96.

[9]張明楷.刑法學(xué)(下)[M].5版.北京:法律出版社,2016:1010.

[10]吳允鋒.人工智能時代侵財犯罪刑法適用的困境與出路[J].法學(xué),2018(5):165-179.

[11]大谷實.刑法講義各論[M].東京:成文堂,2015:258-259.

[12]葉良芳,馬路瑤.風(fēng)險社會視閾下人工智能犯罪的刑法應(yīng)對[J].浙江學(xué)刊,2018(6):65-72.[13]山口厚.刑法總論[M].東京:有斐閣,2016:271-272.

[14]大谷實.刑法講義總論[M].東京:成文堂,2012:315.

[15]高銘暄,馬克昌.刑法學(xué)[M].北京:北京大學(xué)出版社,2016:85.

[16]陳偉,熊波.人工智能刑事風(fēng)險的治理邏輯與刑法轉(zhuǎn)向:基于人工智能犯罪與網(wǎng)絡(luò)犯罪的類型差異[J].學(xué)術(shù)界,2018(9):74-91.

[17]時方.人工智能刑事主體地位之否定[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2018,36(6):67-75.

猜你喜歡
責(zé)任能力罪過主體性
被監(jiān)護(hù)人致人損害侵權(quán)解釋論研究
無責(zé)任能力未成年人侵害行為的刑法評價
俄羅斯刑法罪過原則研究
復(fù)雜罪過:交通肇事罪共犯的理論支撐
誰 的 罪 過
幼兒教育改革進(jìn)程中幾個重要問題的探討
網(wǎng)絡(luò)直播下身體在場的冷思考
論“教學(xué)留白”在語文教學(xué)中的巧妙運(yùn)用
現(xiàn)狀與趨向:俄羅斯刑法中的罪過學(xué)說
鹿泉市| 望江县| 毕节市| 鄂温| 景泰县| 米林县| 湘乡市| 平湖市| 石阡县| 南平市| 绥江县| 汾西县| 渑池县| 文山县| 牡丹江市| 宣威市| 公主岭市| 土默特右旗| 梧州市| 新化县| 宁远县| 湖北省| 长泰县| 体育| 芷江| 县级市| 丰都县| 那坡县| 南康市| 阿荣旗| 元江| 仁化县| 大化| 锦州市| 兰考县| 油尖旺区| 海盐县| 当涂县| 建昌县| 山阴县| 舞钢市|