国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

淺議人工智能實體的刑事責(zé)任

2020-03-04 05:39王洪濤呂希鈺
經(jīng)濟(jì)師 2020年2期
關(guān)鍵詞:刑法實體犯罪

●王洪濤 呂希鈺

一、人工智能概述

(一)人工智能概念

人工智能(Artificial Intelligence),當(dāng)前社會范圍內(nèi)將其簡稱為“AI”或“AI 技術(shù)”,其最早是由以麥卡賽為首的年輕科學(xué)家在1956 年的一次聚會中,大家共同探討與機(jī)器模擬人類智能的一系列有關(guān)問題時首次提出,但對其概念定義最早的且較為流行的,是由美國計算機(jī)科學(xué)家約翰·麥卡錫于1956 在美國達(dá)特茅斯學(xué)院的研討會上正式提出。簡單來說,人工智能就是智能機(jī)器模仿人類行為的能力,人工智能開發(fā)的目標(biāo)也是滿足人類追求生產(chǎn)、生活自動化的理想和需求,進(jìn)一步幫助人類更好地處理關(guān)鍵和復(fù)雜的任務(wù)和情況。人工智能已經(jīng)從20 世紀(jì)中期的一個理論概念變成了現(xiàn)代社會各國實力角逐的砝碼,并且其帶來的不僅是國力強(qiáng)盛,更是豐富便利了人們的生活,我們完全可以承認(rèn):人工智能時代的序幕已經(jīng)拉開,人工智能已經(jīng)滲透到人們生活的各個角落,與人們的生活不可分離。而本文所探討的“人工智能實體”,指的是人類將創(chuàng)設(shè)的人工智能程序附著在某一機(jī)械或其他材質(zhì)的實體物質(zhì)上,創(chuàng)設(shè)出的仿人類智能機(jī)器,即具備人工智能的實體物。因為人工智能本身只是人類將智慧變?yōu)槌绦蜻\(yùn)算的產(chǎn)物,其并不具備實體,只有將人工智能與實體相結(jié)合才能創(chuàng)設(shè)出對人類生活實際有影響的人工智能實體。

但也正是伴隨著人工智能實體在智能與實體能力上的不斷發(fā)展,新的矛盾和糾紛隨之產(chǎn)生,德國就有發(fā)生人工智能錯誤執(zhí)行指令,致使工人被誤傷致死的慘案。近期美國發(fā)生的無人駕駛汽車交通肇事致人死亡事件,也是大大超出了人們對人工智能安全性的預(yù)期,更多地引發(fā)出人們對人工智能安全性的擔(dān)憂,即對人工智能可控性的擔(dān)憂。勞倫斯·萊斯格(Lawrence Lessig)的格言“代碼就是法律”(Code is Law)認(rèn)為,計算機(jī)硬件和軟件的組合,就像人類現(xiàn)有的監(jiān)管模式一樣,可以約束和指導(dǎo)人類行為,所以人工智能并不直接受到現(xiàn)有社會體系和法律體系的限制,其只能按照即有的程序開展工作和學(xué)習(xí)。如果他們只會以某種方式這樣做,而且只能用于某些目的,人們可能出于某些目的將機(jī)器人視為人(或動物),人工智能具有逃避人類規(guī)劃和期望的獨立行為能力。而當(dāng)這種獨立的行為能力變得越來越接近人類,一旦其開始掌握學(xué)習(xí)新知識和面對新情況的獨立能力,那么人們將很難預(yù)測其下一步的行為會是什么。

筆者認(rèn)為,當(dāng)前人類所面臨的不單單是發(fā)展人工智能、控制人工智能的危害風(fēng)險,更重要的是在人工智能導(dǎo)致了社會損害時如何予以救濟(jì)。如人工智能技術(shù)被人類濫用或誤用而導(dǎo)致的社會危害如何擔(dān)責(zé)?人工智能體憑借自身高科技的學(xué)習(xí)系統(tǒng)獨立行動導(dǎo)致社會損害誰來負(fù)責(zé)?而這些問題的關(guān)鍵就在于刑法是否承認(rèn)人工智能的獨立法律地位。筆者認(rèn)為,基于現(xiàn)階段人工智能的發(fā)展進(jìn)程,我們不能僅局限于現(xiàn)有技術(shù)的范疇進(jìn)行討論,法律的目的不僅是救濟(jì),更兼具預(yù)防功能,故我們應(yīng)當(dāng)大膽地假設(shè)除現(xiàn)有的人工智能技術(shù)外,對更高層次的人工智能應(yīng)當(dāng)如何進(jìn)行法律規(guī)制。因此,我們不妨先對人工智能進(jìn)行理論的分類,進(jìn)而探究其是否具備承擔(dān)刑事責(zé)任的資格。

(二)人工智能分類

人工智能按照不同的分類標(biāo)準(zhǔn)、不同機(jī)構(gòu),其劃分的類別也不同。其中刑法學(xué)界討論中引用最多也是最獲得眾多學(xué)者認(rèn)可的有“二分法”“三分法”和“四分法”,其中科學(xué)界較多關(guān)注的分類標(biāo)注為“四分法”,即將人工智能分為四個層次:最低層的是弱人工智能,即只能按照設(shè)計人員即定的程序開展固定的工作,如家庭中常見的掃地機(jī)器人、溫控空調(diào)等,此類產(chǎn)品只能識別某項特定的事物,并圍繞其展開工作;中間層次的是中人工智能,即能夠與人類互動,按照人類的設(shè)定的程序,按照不同的指令進(jìn)行工作;高層次的是強(qiáng)人工智能,即能夠通過自主學(xué)習(xí)產(chǎn)生不在即定程序內(nèi)的獨立創(chuàng)造,其自身可以通過不斷的學(xué)習(xí)進(jìn)行升級;最高層次的是超人工智能,此項分類目前還只是存在在科幻電影和科學(xué)家的理想環(huán)境中,即完全的和人類相同,擁有自己獨立的思考和創(chuàng)造能力,具有普通人類的感情。法學(xué)界的分類較科學(xué)上的分類略有不同,因為鑒于法學(xué)上區(qū)分主體是否需要承擔(dān)民事或刑事責(zé)任能力,不論是從年齡劃分還是從是否患有精神疾病劃分,其本質(zhì)上均是在考量行為人是否具有獨立的、正常的思維、思考、辨認(rèn)、控制的能力。因此,法學(xué)上對人工智能的討論多圍繞“二分法”,即人工智能劃分為“弱人工智能”和“強(qiáng)人工智能”兩個層次,其劃分的標(biāo)準(zhǔn)就是人工智能是否具有獨立思考的能力,即能否從人類設(shè)定的已有程序中獨立創(chuàng)設(shè)行為和思想。本文也是采取法學(xué)界的通說“二分法”,對人工智能從強(qiáng)人工智能和弱人工智能兩個方面展開討論。

二、人工智能實體刑事責(zé)任探討

按照當(dāng)前法律的規(guī)定,刑事責(zé)任主體是指實施危害社會的行為,依法應(yīng)當(dāng)負(fù)刑事責(zé)任的自然人和單位,即只有自然人和單位是承擔(dān)法律責(zé)任的主體。但筆者認(rèn)為就當(dāng)前時代發(fā)展的進(jìn)程而言,此規(guī)定已經(jīng)不能完全符合當(dāng)下時代的發(fā)展。法律的對象并不是人,而是人的行為,即受到法律限制的并非是人或法人這些主體,而是主體所實施的行為。如果某一主體(如本文所探討的人工智能產(chǎn)物)雖然不具備人的生命屬性,也不具備法人的組織性,那它是否能夠成為刑法規(guī)制的對象呢?因此,當(dāng)前學(xué)界針對人工智能實體是否能夠成為刑事責(zé)任主體有如下兩種觀點:

一部分學(xué)者認(rèn)為人工智能實體不存在自我意識和感知力,在實施社會危害行為時,人工智能實體只是產(chǎn)品研發(fā)者和實際控制者的犯罪工具,是他們智力和體力的延伸,就類似于故意殺人罪中的刀、槍等工具,由其承擔(dān)刑事責(zé)任,明顯與刑法中刑事責(zé)任主體的立法本意相悖,故其不能成為刑法意義上的刑事責(zé)任主體。

還有一部分學(xué)者認(rèn)為,對人工智能實體的認(rèn)識不能僅僅局限于當(dāng)前人工智能實體的科技水平。時代在發(fā)展、科技在進(jìn)步,人工智能實體完全可能產(chǎn)生自己的意識和意志,故應(yīng)當(dāng)結(jié)合人工智能實體自我意識的強(qiáng)弱對人工智能產(chǎn)品的刑法規(guī)制進(jìn)行具體的分析和判斷,即在原有設(shè)計者即定的編程范圍內(nèi),人工智能實體按照設(shè)計者的意識和意志實施犯罪行為,或者是按照實際控制人的實際控制實施的某些不法行為,則應(yīng)當(dāng)將人工智能實體看作人類實施犯罪行為或者是工具;而當(dāng)科技發(fā)展到一定階段時,人工智能實體可能自身能夠產(chǎn)生超越即定編程的范圍,按照自主的意識和意志實施控制自身實體實施違法犯罪行為,這樣的人工智能實體完全能夠也應(yīng)該自己承擔(dān)刑事責(zé)任。

筆者贊同第二類學(xué)者的觀點,即對于人工智能是否應(yīng)當(dāng)承擔(dān)法律責(zé)任,應(yīng)當(dāng)采用分類討論的方式,不能單純地一概而論。具體分析如下。

(一)弱人工智能實體刑事責(zé)任探討

1.弱人工智能實體不能成為承擔(dān)刑事責(zé)任的主體。首先,弱人工智能是按照人類即定的程序開展工作,同時受到人類行為控制和支配的,其僅能作為人類生產(chǎn)生活的輔助,類似于大腦與四肢的關(guān)系,完全的按照人類預(yù)先設(shè)定的并預(yù)期的方式進(jìn)行作業(yè)或反饋,其自身即使能夠?qū)W習(xí)到新的技能或者有進(jìn)一步的升級,也是專業(yè)技能上的升級,并非是其自身具備了思考、控制或者預(yù)判的能力。就像Alpha 圍棋機(jī)器人,即使其學(xué)習(xí)了再多圍棋技能,并且其根據(jù)自身的學(xué)習(xí)功能已經(jīng)推演出更高級的圍棋算法,但是其始終沒有產(chǎn)生情感,不能做到自我的控制,甚至不能從事與圍棋無關(guān)的任何事,所以其并不能夠辨認(rèn)其他事項,更不具備控制自己實體的能力。因此,其不具備作為刑事責(zé)任承擔(dān)主體的基本要件。

再次,如果將弱人工智能當(dāng)作犯罪主體看待,現(xiàn)有刑法將會受到根本性的沖擊。從類比的角度看,如果將弱人工智能實體在程序控制下實施的行為定義為刑法上的違法犯罪行為,那么人類的無意識行為(如精神病人的行為)及受控制行為(間接正犯中的實行行為)從行為的外觀上更貼近刑法意義上的“社會危害行為”,這就會導(dǎo)致刑法在適用刑事責(zé)任主體時的法律適用混亂,無限地擴(kuò)大了刑事犯罪責(zé)任主體的范疇。所以,如果將此種無意識的不受實體自身控制的行為納入刑事犯罪懲罰的范疇之內(nèi),這對傳統(tǒng)刑法理論的打擊是致命的。

最后,人工智能并不具備主觀能動性,不能形成犯罪的主觀故意。主觀意識是人類區(qū)別于機(jī)器的關(guān)鍵。而犯罪之所以被懲罰,不單單是考慮其行為的社會危害性,更要考量其主觀上的意愿,如刑法中就明確規(guī)定了故意犯罪與過失犯罪在刑罰上的區(qū)別。而作為不具備主觀意識的弱人工智能,其并沒有獨立的主觀意識,其根本不能意識到自己行為的定性,與刑法中的14 周歲以下兒童及嚴(yán)重精神病患者一樣。因此,其不能成為刑事上的責(zé)任承擔(dān)主體。

2.弱人工智能犯罪刑事責(zé)任承擔(dān)問題探究。因為弱人工智能不能為自己的“行為”承擔(dān)刑事責(zé)任,那么由“弱人工智能”導(dǎo)致的刑事犯罪,應(yīng)當(dāng)如何追究刑事責(zé)任,成為了廣大學(xué)者探討的話題。筆者認(rèn)為,此問題不能簡單地一概而論,因為導(dǎo)致犯罪行為產(chǎn)生的原因可能存在很多種,如開發(fā)者的設(shè)計程序原因,又如生產(chǎn)者的產(chǎn)品質(zhì)量原因,還有實際使用者的實際操作原因,故應(yīng)當(dāng)對不同原因?qū)е碌呢?zé)任進(jìn)行分類討論。

(1)程序問題、被實際操控人利用——開發(fā)者責(zé)任。如前文所述,弱人工智能的工作行為和模式是按照開發(fā)者即定的程序展開,如果開發(fā)者利用弱人工智能程序上的漏洞,或者專門制作某一程序,使得弱人工智能成為其犯罪的工作,那么在生產(chǎn)方和實際控制人均不知情的情況下,弱人工智能實際上是開發(fā)者為了犯罪而設(shè)計的工具;還有如弱人工智能的實際控制人,利用弱人工智能的某項研發(fā)功能不是為了生產(chǎn)、生活的便利,而是為了實施某項犯罪,那么這些情形中,弱人工智能實際上就是開發(fā)者或者實際控制人為了實施犯罪而利用的工具,即此時的弱人工智能與故意殺人罪種的“刀、槍”等一樣,此種情形可以直接對開發(fā)者和實際控制人以其實際實施犯罪定罪量刑。

(2)生產(chǎn)方問題——產(chǎn)品責(zé)任。人工智能產(chǎn)品與其他所有的產(chǎn)品一樣,其質(zhì)量問題一直是廣大消費者、使用者最關(guān)心的問題。對于其產(chǎn)品質(zhì)量,按照現(xiàn)有法律規(guī)定,完全能夠追究相關(guān)人員的刑事責(zé)任,即如果是由于生產(chǎn)方生產(chǎn)的弱人工智能產(chǎn)品不符合產(chǎn)品質(zhì)量的規(guī)定,可以依據(jù)弱人工智能產(chǎn)品性質(zhì)的不同,按照《刑法》第三章第一節(jié)的法律規(guī)定,追究生產(chǎn)者生產(chǎn)偽劣產(chǎn)品或者不符合標(biāo)準(zhǔn)產(chǎn)品的生產(chǎn)者責(zé)任。

(二)強(qiáng)人工智能可以成為刑事責(zé)任主體

在探討強(qiáng)人工智能能否成為刑事責(zé)任主體,即能否以自己的名義承擔(dān)刑事法律責(zé)任的問題上,我們需要深入剖析,按照現(xiàn)有刑法的規(guī)定,何為刑事責(zé)任主體?能夠成為刑事主體的內(nèi)在要求是什么?為什么有些主體不能或者有條件的承擔(dān)刑事責(zé)任?

依據(jù)《刑法》第16、17、18 條規(guī)定可知,首先,刑事責(zé)任能力劃分的第一要素是年齡,對年齡在14 周歲以下的自然人,不須承擔(dān)刑事責(zé)任;其次,精神狀況,精神病人在不能辨認(rèn)或者控制自己行為時造成刑法意義上的危害結(jié)果時,只要經(jīng)由司法鑒定程序確認(rèn)其行為是不能辨認(rèn)或控制的,也不承擔(dān)刑事責(zé)任;最后,《刑法》第30 條對于單位犯罪的規(guī)定可以看出,單位作為犯罪主體其本質(zhì)還是人的行為導(dǎo)致,只是在處罰上由單位承擔(dān)了一部分的責(zé)任。因此,我們不難看出,能否成為刑法意義上的承擔(dān)刑事責(zé)任的主體取決于行為人對自己行為的辨認(rèn)能力與控制能力。因為不論是年齡的限定還是精神狀況的限定,均是以行為人對自己行為的辨認(rèn)能力與控制能力作為標(biāo)準(zhǔn)進(jìn)行的衡量。具體而言:辨認(rèn)能力是指行為人在實施某項行為時能夠認(rèn)識到自己特定行為具有的行為性質(zhì)、結(jié)果與最終意義的能力;而控制能力是指行為人自己支配實施或者不實施某項特定行為的能力。而作為模仿人類智能的人工智能,如果能夠其不能產(chǎn)生獨立的行為和工作模式,只是單純的按照人類即定的程序進(jìn)行工作,那應(yīng)當(dāng)由其實際操控人或設(shè)計者承擔(dān)責(zé)任無疑;但如果人工智能能夠通過學(xué)習(xí),產(chǎn)生其自身的思維方式和行為,即具備了獨立的辨認(rèn)能力和控制能力,那就應(yīng)當(dāng)能夠承擔(dān)刑事責(zé)任。因此,筆者認(rèn)為,強(qiáng)人工智能能夠成為刑事責(zé)任主體,應(yīng)當(dāng)比照刑法中現(xiàn)有的對自然人的法律規(guī)定進(jìn)行處罰,不必另設(shè)法律予以規(guī)制,具體預(yù)設(shè)的情形如下:

1. 人工智能實體在自身獨立意識支配下實施的犯罪行為,只需對這實體進(jìn)行處罰。本文所稱人工智能的獨立犯罪,是指人工智能在其自身預(yù)設(shè)的系統(tǒng)外,通過其自身學(xué)習(xí)、思考后產(chǎn)生獨立的行為,并進(jìn)而實施犯罪的獨立行為,即行為必須是通過人工智能自主意識形態(tài)下實施的。筆者認(rèn)為,此種行為與人類的行為無異,是人工智能自主思維意識的體現(xiàn),如果不能證明研發(fā)者在研發(fā)的過程中存在程序設(shè)計上的瑕疵外,或者實際控制人在操作使用的過程中存在故意或者重大過失的情況下,不能要求人工智能的設(shè)計者及實際控制人承擔(dān)責(zé)任,這與刑法中,父母對子女的教育或者培養(yǎng)存在缺失,最終造成子女的心理存在缺失導(dǎo)致產(chǎn)生犯罪行為,不能要求其父母承擔(dān)刑事責(zé)任一樣,如果不具備年齡或者精神缺陷,必須由其本人承擔(dān)刑事責(zé)任。但當(dāng)前學(xué)術(shù)界,也有很多學(xué)者提出,即使是強(qiáng)人工智能具備了自己的獨立意志,也不能成為刑事責(zé)任主體。理由有二:

其一,人工智能實體不具有違法認(rèn)識的基礎(chǔ)性。人工智能實體的運(yùn)算基礎(chǔ)是人工智能即定的程序,其運(yùn)算的過程類似于數(shù)學(xué)和物理上的公式,其并不收到周遭環(huán)境的影響,而法律的形成是歷經(jīng)人類長期發(fā)展史的產(chǎn)物,其規(guī)制的是對社會倫理長期積淀下的人的行為。而人工智能并不具備人類的社會屬性,不具有人文屬性。刑法上要求承擔(dān)刑事責(zé)任的前提條件就是思維意識正常,對其行為的辨認(rèn)能力和控制能力有準(zhǔn)確的認(rèn)識,但對人工智能來說,其未經(jīng)過社會周遭倫理道德的環(huán)境影響,對人類社會的法律并沒有明確的認(rèn)知。因而,人工智能的程序?qū)θ祟惿鐣囊?guī)制不可能有明確的認(rèn)識,其對于自身行為在社會文化中的定位和認(rèn)識,難以與人類相統(tǒng)一,其難以認(rèn)識到自身行為的違法性。

其二,將人工智能實體犯罪納入刑法范疇具有本質(zhì)上的隔閡。首先,現(xiàn)行刑法中的全部罪名設(shè)置并沒有考慮到人工智能實體的特性?,F(xiàn)有法律規(guī)定不具有約束人工智能實體犯罪行為的現(xiàn)實性。我國刑法中罪名共計458 個,雖然隨著社會的發(fā)展,現(xiàn)有的罪名也是從少數(shù)罪名增加至此,而且還有繼續(xù)增加的趨勢。但是從現(xiàn)有罪名的設(shè)置上看,其針對的主體還是人的行為,即便是再增加罪名,也是圍繞人類的新型行為,不能脫離現(xiàn)有的刑法體系結(jié)構(gòu)。但如果把人工智能實體納入刑事責(zé)任主體的范疇,那就不能單從人類的行為范疇內(nèi)考慮,立法者還需要將人工智能犯罪行為的特點納入立法的考慮范疇之內(nèi)進(jìn)行衡量,并且有針對性地設(shè)置人工智能實體適用的法條。這就不單單是增加主體的問題,而是整個刑法體系的修改。而現(xiàn)階段來看,強(qiáng)人工智能只是人類的假想,并不是現(xiàn)實存在的。因此在現(xiàn)階段對其進(jìn)行研究缺乏現(xiàn)實的依據(jù)和基礎(chǔ),無異于空中樓閣、紙上談兵,故不應(yīng)當(dāng)過早地討論。其次,從現(xiàn)有刑罰的手段上看,將現(xiàn)有的刑罰作用于人工智能實體,不具有現(xiàn)實的可操作性。我國現(xiàn)有刑罰體系中對能夠作用于人的包括有罰金刑、限制自由刑(管制、拘役、有期徒刑、無期徒刑)及生命刑(死刑),對于人類而言,上述刑罰均對人有足夠的威懾力。因為不論金錢、自由、生命,均與人類的生活息息相關(guān),但如果將這些刑罰作用于人工智能實體,產(chǎn)生的效果將完全不同。如罰金刑,人工智能實體對于自身的開銷可能遠(yuǎn)遠(yuǎn)低于人類的開銷。因為其并不需要滿足生理上諸如飲食、病理等現(xiàn)實需求,其能夠生存的成本可能非常低,所以罰金對其并不具有可罰性,而且其完全可能不擁有財產(chǎn);而自由刑則更不具有現(xiàn)實意義。因為其實體是由人類打造的,其生存的時間可能遠(yuǎn)遠(yuǎn)長于人類,那么自由刑對其的威懾將毫無意義,還消耗了大量的人力物力去實施刑罰;而死刑可能對其更不具有意義,因為其自身的生命體就是人類制造并賦予的,人類完全可以再另行制造、生產(chǎn)一個相同的人工智能實體予以替代。

筆者認(rèn)為,部分學(xué)者的上述觀點不能成為否定人工智能刑事主體資格的理由。首先,人工智能可以認(rèn)識到違法性。因為違法性的認(rèn)識并不是與生俱來的,人類對于違法行為的認(rèn)識也是通過不斷學(xué)習(xí)、認(rèn)識、理解,最終形成習(xí)慣的。而人工智能只要具備了自主學(xué)習(xí)的能力,其完全可能具備違法性認(rèn)識,其甚至可以通過程序預(yù)設(shè)的方式去預(yù)先設(shè)定違法禁止性程序予以規(guī)制,其本身就可能具備比人類更強(qiáng)更準(zhǔn)確的違法性。因此違法性認(rèn)識不能成為人工智能不能作為刑事責(zé)任主體的理由;其次,人工智能具備擔(dān)責(zé)的可能性。我們要用發(fā)展的眼光看待任何問題,雖然現(xiàn)階段的人工智能并不具備與人類相同的獨立思考能力,但隨著社會和科技的發(fā)展,人類生產(chǎn)力的不斷進(jìn)步,科技能夠進(jìn)步到何種程度,是我們現(xiàn)階段無法預(yù)測和想象的。因此,我們不能局限地用現(xiàn)在對人工智能的認(rèn)識去假設(shè)未來的情形,所以,當(dāng)人工智能發(fā)展到成熟的階段,其能夠以自己對自己的行為有明確認(rèn)識和認(rèn)知,能夠為自己的行為承擔(dān)責(zé)任;再次,法律并不是教條而死板的。其本身就是隨著人類的發(fā)展而不斷完善和改變的。而且從現(xiàn)階段的人工智能發(fā)展來看,現(xiàn)有的法律完全可以應(yīng)對當(dāng)前涉人工智能案件的情形,如果真的出現(xiàn)現(xiàn)有法律不能涵蓋的情形,我們也可以通過法律修正案或者司法解釋的形式進(jìn)行彌補(bǔ),以確保能夠適應(yīng)發(fā)展的環(huán)境。因此,不能因為害怕修法而不去面對日新月異的司法實踐。最后,現(xiàn)有的刑罰手段雖然對人工智能而言不能達(dá)到懲罰其犯罪行為的目的,但是不代表我們不能創(chuàng)設(shè)新的刑罰。隨著人類歷史的發(fā)展,刑罰的種類也在不斷更新和進(jìn)步,如古時不同朝代就有刑罰方式的延續(xù)和創(chuàng)新,包括我國當(dāng)前死刑中采用的注射死刑等,均是刑罰方式的更新與進(jìn)步。而對于人工智能的刑罰,有學(xué)者也提出了諸如刪除數(shù)據(jù)或者由研發(fā)者、實際控制人代為繳納罰金等等方式,因為現(xiàn)有階段并不涉及具體案例,且人工智能發(fā)展到強(qiáng)人工智能時代時,人工智能會以何種方式呈現(xiàn),對于其最為有效、最能夠讓其產(chǎn)生畏懼的懲罰,我們還不得而知。但能夠確定的是,我們可以采取相應(yīng)的手段對其懲罰,并且將之納入到法律的范疇之內(nèi)。

2.人工智能和人類相互協(xié)助實施的犯罪行為,應(yīng)當(dāng)依據(jù)共同犯罪的刑法規(guī)定針對兩個主體進(jìn)行法律追責(zé)。結(jié)合前文所述,強(qiáng)人工智能能夠以自己的名義承擔(dān)刑事責(zé)任,因此,在強(qiáng)人工智能與人類相互協(xié)助進(jìn)行的犯罪行為,完全可以類比現(xiàn)有刑法關(guān)于共犯的規(guī)定,按照共同犯罪中各行為人的行為和對犯罪結(jié)果的貢獻(xiàn),分別認(rèn)定罪名和刑事責(zé)任。

3.人類利用人工智能進(jìn)行犯罪,即刑法理論中“間接正犯”的情形時,應(yīng)當(dāng)由實際實施行為的人類擔(dān)責(zé)。此項分類下,人工智能的作用與14 歲以下的兒童和精神病人一樣,均是實際犯罪人的工具。這種情況下的人工智能可以比照前文對于弱人工智能犯罪在不同情況下的責(zé)任承擔(dān)方式進(jìn)行責(zé)任劃分,也可以按照刑法的基本理論,在間接正犯的理論框架下,追究實際犯罪人的刑事責(zé)任。

三、結(jié)論

人工智能是新時代下的科技產(chǎn)物,是時代發(fā)展所必須面對的,因此人工智能實體刑事責(zé)任是必須被正視的問題。本文通過剖析刑事責(zé)任主體能夠承擔(dān)刑事責(zé)任的本源,即法律是依據(jù)什么標(biāo)準(zhǔn)去劃分能否承擔(dān)刑事責(zé)任,得出主體是否能夠承擔(dān)刑事責(zé)任,其本質(zhì)在于是否對自己的行為有辨認(rèn)和控制的能力,再將此標(biāo)準(zhǔn)附之于人工智能實體中,可以清楚地辨析。一旦人工智能實體具有自己的意識和意志,能夠產(chǎn)生自己的思維去辨認(rèn)和控制自己的行為,那其就應(yīng)當(dāng)以自己的名義承擔(dān)刑事責(zé)任,只是在刑罰的方式上要較現(xiàn)有刑法中的刑罰有所改變;而如弱人工智能實體,其更多地體現(xiàn)的是工具屬性,不能有獨立的辨認(rèn)、控制自己的行為,其只是按照人類既定的程序去執(zhí)行某些特定的行為,其產(chǎn)生的犯罪行為應(yīng)當(dāng)由研發(fā)者或者實際控制人承擔(dān)。

猜你喜歡
刑法實體犯罪
過度刑法化的傾向及其糾正
前海自貿(mào)區(qū):金融服務(wù)實體
Televisions
實體的可感部分與實體——兼論亞里士多德分析實體的兩種模式
兩會進(jìn)行時:緊扣實體經(jīng)濟(jì)“釘釘子”
振興實體經(jīng)濟(jì)地方如何“釘釘子”
刑法適用與刑法教義學(xué)的向度
什么是犯罪?
論刑法總則
重新檢視犯罪中止