国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

強(qiáng)人工智能刑事責(zé)任主體地位之再肯定

2020-03-15 09:20:10林需需
關(guān)鍵詞:主體資格刑罰人工智能

林需需

(西南政法大學(xué),重慶 401120)

2017年7月中華人民共和國(guó)國(guó)務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》(以下簡(jiǎn)稱《規(guī)劃》),要求開(kāi)展與人工智能應(yīng)用相關(guān)的民事與刑事責(zé)任確認(rèn)工作。兩年多時(shí)間,關(guān)于人工智能法律問(wèn)題的研究成果層出不窮,以建立嚴(yán)密人工智能法律體系為指導(dǎo)目標(biāo),刑事法律理論研究必要,作為保障法、后盾法重要性也不言而喻。人工智能納入刑法體系存在放進(jìn)現(xiàn)有傳統(tǒng)體系與新建專門(mén)規(guī)制人工智能刑法體系兩種路徑,目前理論界主要論述的是放進(jìn)現(xiàn)有刑法體系。這樣的優(yōu)勢(shì)是可以利用現(xiàn)成的刑法理論對(duì)可能遇見(jiàn)的問(wèn)題進(jìn)行規(guī)制,當(dāng)然也存在現(xiàn)有體系功能不足的情況,例如現(xiàn)有刑罰體系適用于人工智能時(shí),刑罰目的顯然難以實(shí)現(xiàn)。立足于融入現(xiàn)有刑法體系,首先要解決人工智能的刑事責(zé)任主體資格問(wèn)題,縱觀學(xué)界研究現(xiàn)狀基本也是圍繞這一問(wèn)題展開(kāi)論述,但普遍論述不夠深入,讓人有意猶未盡的感覺(jué)。本文擬在述評(píng)現(xiàn)有研究進(jìn)展的基礎(chǔ)上,從強(qiáng)人工智能出現(xiàn)的可能性、確立刑事責(zé)任主體資格的必要性以及可行性三方面肯定強(qiáng)人工智能刑事責(zé)任主體地位。

一、強(qiáng)人工智能刑事責(zé)任主體資格研究現(xiàn)狀

采用二分法可將人工智能分為強(qiáng)人工智能和弱人工智能。第一種觀點(diǎn)認(rèn)為,強(qiáng)人工智能具有與人類相當(dāng)或者超過(guò)人類智能的智力水平,因而能夠像人那樣解決問(wèn)題以及在任何社交場(chǎng)合和人類進(jìn)行交流互動(dòng);弱人工智能只能在電腦中創(chuàng)造出人類智能的某些方面,例如谷歌搜索引擎、全球定位系統(tǒng)(GPS)、電子游戲等。[1]3第二種觀點(diǎn)認(rèn)為,強(qiáng)人工智能是說(shuō)機(jī)器會(huì)全面達(dá)到人的智能,強(qiáng)人工智能有時(shí)也會(huì)和“通用人工智能”同義;弱人工智能是說(shuō)機(jī)器會(huì)在某些方面達(dá)到人的智能——AlphaGo就是弱人工智能的代表。[2]224這兩種觀點(diǎn)基本上一致,我國(guó)刑法理論上基本采取這種分類。①也有學(xué)者采用三分法:分為弱人工智能、強(qiáng)人工智能和超強(qiáng)人工智能。其中弱人工智能不具備刑事責(zé)任主體地位獲得學(xué)界一致認(rèn)可,理論爭(zhēng)議只存在于強(qiáng)人工智能刑事責(zé)任主體地位的有無(wú),刑法學(xué)界呈現(xiàn)出肯定論與否定論尖銳對(duì)立。

(一)肯定論學(xué)者與觀點(diǎn)輯要

肯定強(qiáng)人工智能具備刑事責(zé)任主體地位的學(xué)者主要包括劉憲權(quán)教授、王耀彬博士、徐昭曦博士等。他們的主要觀點(diǎn)包括:發(fā)展到一定程度的智能機(jī)器人可以超越程序的設(shè)計(jì)和編碼范圍,具有自由的意識(shí)和意志,可以取得刑事責(zé)任主體資格。[3]40強(qiáng)人工智能實(shí)體與自然人在“理性”這一本質(zhì)上相同;強(qiáng)人工智能具備刑法上的認(rèn)知和控制能力及受刑能力,符合刑罰上的罪責(zé)自負(fù)原則。[4]強(qiáng)人工智能的實(shí)現(xiàn)是必然的,與人類的差異并非是否定強(qiáng)人工智能刑事責(zé)任主體資格的理由,現(xiàn)有刑罰的處罰并不能否定強(qiáng)人工智能的刑事責(zé)任主體地位,賦予強(qiáng)人工智能刑事責(zé)任主體地位不會(huì)導(dǎo)致現(xiàn)有刑事責(zé)任主體逃避懲罰。[5]113強(qiáng)人工智能具備自我意識(shí)及意志,實(shí)現(xiàn)法律人格化不存在理論和事實(shí)上的障礙。[6]

(二)否定論學(xué)者與觀點(diǎn)輯要

否定人工智能存在刑事責(zé)任主體地位的學(xué)者主要包括葉良芳教授、儲(chǔ)陳城副教授、時(shí)方博士等。他們的觀點(diǎn)主要包括:強(qiáng)人工智能欠缺遵從法規(guī)范的意志性,即使客觀上造成了法益侵害后果,也不具有刑法上的可歸責(zé)性;人工智能不具有意志自由,不符合刑事主體地位認(rèn)定實(shí)質(zhì)要求;將強(qiáng)人工智能納入現(xiàn)有刑法體系也無(wú)法實(shí)現(xiàn)刑罰目的。[7]擁有人類心智的強(qiáng)人工智能根本上是不能實(shí)現(xiàn)的:認(rèn)知方面,人工智能在跨界領(lǐng)域難以逾越技術(shù)屏障;意識(shí)方面,人工智能不具有自由意志;情感方面,人工智能不能感受犯罪之樂(lè)與刑罰之苦,不是適格的刑罰適用主體。[8]67強(qiáng)人工智能的行為本質(zhì)上來(lái)源于程序設(shè)計(jì)者或使用者,即使強(qiáng)人工智能具備控制和辨認(rèn)能力,但缺乏成熟的道德意識(shí)不能評(píng)價(jià)為與人類相似的意思自由,刑罰不具備可行性。[9]人工智能不具備人類理性,賦予其法律主體地位蘊(yùn)含巨大風(fēng)險(xiǎn),必須處在人類控制之下,只能是法律客體而非主體。[10]人工智能只能被設(shè)計(jì)遵守規(guī)則,而不能理解規(guī)則,只有人類才能理解權(quán)利與義務(wù),規(guī)制人工智能的路徑應(yīng)當(dāng)是規(guī)制背后的人,包括人工智能的設(shè)計(jì)者、制造商和使用者。[11]

(三)問(wèn)題聚焦

可見(jiàn),學(xué)界關(guān)于強(qiáng)人工智能是否具有刑事責(zé)任主體資格的爭(zhēng)議主要集中在以下三個(gè)方面:第一,強(qiáng)人工智能存在的現(xiàn)實(shí)可能性;第二,法律規(guī)制的必要性和可行性;第三,強(qiáng)人工智能承擔(dān)刑事責(zé)任的分配規(guī)則。本文擬在目前研究基礎(chǔ)上提出肯定強(qiáng)人工智能主體資格的理由,以求教于學(xué)界同仁。

二、強(qiáng)人工智能存在的現(xiàn)實(shí)可能性

圍繞強(qiáng)人工智能現(xiàn)實(shí)基礎(chǔ)性問(wèn)題,學(xué)者展開(kāi)了激烈論戰(zhàn)。有觀點(diǎn)認(rèn)為:智能機(jī)器人既然能夠在程序設(shè)計(jì)和編制的范圍內(nèi)作出符合人類預(yù)期的行為,那么也有可能突破控制,通過(guò)自主深度學(xué)習(xí)產(chǎn)生獨(dú)立思想,并在程序設(shè)計(jì)和編制的范圍外受主觀意識(shí)和意志的支配實(shí)施超越人類智能的行為。[3]41也有觀點(diǎn)認(rèn)為:人工智能將長(zhǎng)期處于弱人工智能階段,其進(jìn)化到自我認(rèn)識(shí),自主實(shí)施危害行為的可能性還比較小,因而當(dāng)前研究強(qiáng)人工智能不具有現(xiàn)實(shí)意義。[12]還有觀點(diǎn)認(rèn)為:當(dāng)前弱人工智能已經(jīng)在某些方面超越人類設(shè)計(jì)者,科技的發(fā)展呈現(xiàn)爆炸樣態(tài),超越人類認(rèn)知,強(qiáng)人工智能的出現(xiàn)只是時(shí)間問(wèn)題,而非天方夜譚;強(qiáng)人工智能也將逐漸擺脫“工具色彩”。[5]114可見(jiàn),學(xué)者對(duì)該基礎(chǔ)性問(wèn)題已經(jīng)展開(kāi)了論述,但受專業(yè)限制,目前的法學(xué)研究還只是停留于主觀上的感性設(shè)想。然而對(duì)于該根基性問(wèn)題只停留于主觀想象和三言兩語(yǔ)的判斷是遠(yuǎn)遠(yuǎn)不夠的,有必要進(jìn)行更加深入的探討。

關(guān)于強(qiáng)人工智能的標(biāo)準(zhǔn),不同專業(yè)學(xué)者定義存在差異。刑法上的定義,強(qiáng)人工智能是指能夠在自主意識(shí)和意志的支配下,超出設(shè)計(jì)和編制的程序?qū)嵤┬袨椤13]強(qiáng)人工智能指有直覺(jué)、有自我意識(shí)的機(jī)器。[14]自動(dòng)化專業(yè)定義,強(qiáng)人工智能是指有自我意識(shí)、自主學(xué)習(xí)、自主決策能力的人工智能。[15]哲學(xué)上的定義,若機(jī)器在不需要大量數(shù)據(jù)的情況下,也能很快發(fā)現(xiàn)事物之間的關(guān)聯(lián),具有因果推斷能力,就與人相似了。[16]可見(jiàn),自主性和不可預(yù)測(cè)性是強(qiáng)人工智能的重要標(biāo)志。

以“算法”為核心的程序編程實(shí)現(xiàn)強(qiáng)人工智能的現(xiàn)實(shí)性。人工智能最核心的“大腦”就是算法。[1]1算法是一系列指令,告訴計(jì)算機(jī)該做什么。最簡(jiǎn)單的算法是觸動(dòng)開(kāi)關(guān),第二簡(jiǎn)單的算法是把兩個(gè)比特結(jié)合起來(lái),例如以“信息論之父”而為人知的克勞德·香農(nóng)意識(shí)到的晶體管回應(yīng)。①克勞德·香農(nóng)第一個(gè)意識(shí)到晶體管的活動(dòng)就是在運(yùn)算,因?yàn)榫w管開(kāi)了又關(guān),是對(duì)其他晶體管的回應(yīng)。如果A晶體管只有在B和C晶體管都打開(kāi)時(shí)才打開(kāi),那么這時(shí)它就是在做小型的邏輯運(yùn)算;如果A晶體管在B和C晶體管其中一個(gè)打開(kāi)時(shí)才打開(kāi),就是另外一種小型邏輯運(yùn)算;如果A晶體管在B晶體管任何關(guān)閉的時(shí)候打開(kāi),或者反過(guò)來(lái),這又是第三種算法。參見(jiàn) [美]佩德羅·多明戈斯著,黃芳萍譯:《終極算法:機(jī)器學(xué)習(xí)和人工智能如何重塑世界》,中信出版集團(tuán)2017年1月第1版,第4頁(yè)。所有算法,無(wú)論多復(fù)雜,都能分解為這三種邏輯運(yùn)算:且、或、非。一般的算法是將數(shù)據(jù)輸入計(jì)算機(jī),算法會(huì)利用數(shù)據(jù)完成接下來(lái)的事,然后出現(xiàn)結(jié)果。與普通算法不同,機(jī)器學(xué)習(xí)(學(xué)習(xí)算法)則顛覆了這個(gè)順序:輸入數(shù)據(jù),輸出算法,具體而言,學(xué)習(xí)算法把數(shù)據(jù)轉(zhuǎn)化成結(jié)果的算法,學(xué)習(xí)算法制作其他算法,通過(guò)機(jī)器學(xué)習(xí),計(jì)算機(jī)就會(huì)自己編寫(xiě)程序。值得注意的是,學(xué)習(xí)算法中學(xué)習(xí)算法是種子,數(shù)據(jù)是土壤,被掌握的程序是成熟的作物,只要有足夠的數(shù)據(jù)輸入,就會(huì)產(chǎn)生源源不斷的編碼和程序。[17]這種被稱為“終極算法”的學(xué)習(xí)算法改變以往人類編制程序,機(jī)器運(yùn)算結(jié)果的模式,升級(jí)為機(jī)器可以產(chǎn)生算法,自動(dòng)編程,人類只需要輸入數(shù)據(jù)和目標(biāo)。舉個(gè)例子,此處的計(jì)算機(jī)相當(dāng)于剛出生的孩子,孩子如何成長(zhǎng)、長(zhǎng)成什么樣取決于內(nèi)在的基因和生活的環(huán)境,人工智能機(jī)器人未來(lái)發(fā)展取決于內(nèi)在的學(xué)習(xí)算法和輸入的數(shù)據(jù),數(shù)據(jù)不同決定算法不同,進(jìn)而決定編碼程序不同,指令不同。數(shù)據(jù)的不可預(yù)測(cè)性,產(chǎn)生的算法也將不可預(yù)測(cè)。正如家長(zhǎng)試圖控制孩子接觸的環(huán)境,但似乎又無(wú)法控制。

深度學(xué)習(xí)為強(qiáng)人工智能的發(fā)展可能性也提供了依據(jù)。一般而言,人工智能可以解決能夠通過(guò)一系列形式化的數(shù)學(xué)規(guī)則來(lái)描述的問(wèn)題,但對(duì)于難以形式化描述的任務(wù),如識(shí)別人們所說(shuō)的話或圖像中的臉常常手足無(wú)措,以上問(wèn)題人類往往可以憑借直覺(jué)輕易解決,這構(gòu)成人工智能與人類的重要差異。AI深度學(xué)習(xí)系統(tǒng)具備自己獲取知識(shí)的能力,即從原始數(shù)據(jù)中提取模式的能力,成為機(jī)器學(xué)習(xí)。這種深度學(xué)習(xí)可以讓計(jì)算機(jī)從經(jīng)驗(yàn)中學(xué)習(xí),并根據(jù)層次化概念體系理解世界;讓計(jì)算機(jī)從經(jīng)驗(yàn)中獲取知識(shí),可以避免由人類來(lái)給計(jì)算機(jī)形式化地指定他所需要的所有知識(shí)。[18]深度學(xué)習(xí)使人工智能擺脫單純執(zhí)行形式化指令的功能定位,人工智能開(kāi)始能夠理解周圍的人類世界,隨著經(jīng)驗(yàn)的積累,逐漸擁有辨認(rèn)和選擇自己行為的能力。

可見(jiàn),不論是從算法還是深度學(xué)習(xí)角度,人工智能都具備實(shí)現(xiàn)自主意識(shí)和自我選擇的現(xiàn)實(shí)意義。以前機(jī)器旨在節(jié)省人的體力,現(xiàn)在的機(jī)器開(kāi)始逐漸代替人的智力。人工智能的進(jìn)化速度服從摩爾定律——每18個(gè)月性能提升一倍,而人的進(jìn)化速度則是20年一代人。從進(jìn)化速度上來(lái)說(shuō),人工智能的智能程度將逐漸趨近并迅速趕超人類。[2]226

三、法律規(guī)制的必要性與可行性

能夠辨認(rèn)和控制自己行為的強(qiáng)人工智能出現(xiàn)以后,應(yīng)該如何對(duì)待這一新生事物,將其作為類似臺(tái)燈、充電線等單純服務(wù)于人類生活的被認(rèn)為是工具的客體可能不妥。強(qiáng)人工智能的獨(dú)立思考和辨識(shí)、行為能力更具有類似人類的生命體,以往我們對(duì)生命體的認(rèn)知局限于“活著的肉體”,而實(shí)際上生命體區(qū)別于非生命體更重要的特征可能是具有的獨(dú)立思考和行為的能力。傳統(tǒng)計(jì)算機(jī)也具有運(yùn)算思考的能力,但其思考嚴(yán)格遵循程序,并且不具備行為的能力。弱人工智能機(jī)器人同時(shí)具備思考和行為的能力,但仍然未能脫離人類為之確定的程序這一“緊箍咒”,弱人工智能機(jī)器人的思考與行為受控于人,通過(guò)對(duì)人類設(shè)計(jì)師和使用者的限制即可以實(shí)現(xiàn)對(duì)弱人工智能機(jī)器人的控制。但強(qiáng)人工智能制造后脫離人類控制,對(duì)人類設(shè)計(jì)師和使用者再進(jìn)行限制已失去作用,如何對(duì)待這一類生命體就成為需要解決的難題。

對(duì)強(qiáng)人工智能的治理需要源自于人類內(nèi)心的恐懼,幾千年來(lái)人類作為萬(wàn)物的主宰,習(xí)慣于對(duì)事物的掌控,但強(qiáng)人工智能所具有的超越人類智力程度和具有的比人類肉體更具強(qiáng)力的金屬結(jié)構(gòu),使得人類必須對(duì)這類事物保持警惕。既然強(qiáng)人工智能可能造成人類的毀滅,那么禁止研究不就可以了?但正如意大利都靈大學(xué)法學(xué)院教授在《誰(shuí)應(yīng)為機(jī)器人的行為負(fù)責(zé)?》一書(shū)中所言,盡管我們確實(shí)可以阻止科學(xué)家的步伐,例如對(duì)伽利略的審判,然而爭(zhēng)論的結(jié)果是,技術(shù)競(jìng)爭(zhēng)是如此的堅(jiān)決和強(qiáng)大,以至于它并不能被法律手段所阻止。[19]智能機(jī)器人所具有的經(jīng)濟(jì)和軍事價(jià)值常常會(huì)使人冒險(xiǎn),因而研究強(qiáng)人工智能具有現(xiàn)實(shí)意義。本著為我所用的人類本位價(jià)值取向,首先要考慮的就是能否“馴服”強(qiáng)人工智能這一新生生命體,讓其為人類所用又不至于損害人類社會(huì)。強(qiáng)人工智能的發(fā)展速度雖然遠(yuǎn)遠(yuǎn)超越人類,但其從生產(chǎn)出廠房到趕超人類大概率也是一個(gè)學(xué)習(xí)、經(jīng)歷、思考、總結(jié)經(jīng)驗(yàn)的不斷成長(zhǎng)的過(guò)程。類似于人類嬰兒的成長(zhǎng)過(guò)程,若在這一過(guò)程中不斷地加以思想和行為的修正,那么讓人工智能成長(zhǎng)為符合人類思考規(guī)律和行為模式的類人生命體就具有可能性,此時(shí)可以將強(qiáng)人工智能作為一個(gè)比人類成長(zhǎng)更快、力量更大的“人”。

強(qiáng)人工智能若能夠被規(guī)訓(xùn),其成長(zhǎng)為與人類觀念相似、行為模式相似,與人類共生的類人生命體便是有可能的。正如力量更強(qiáng)大和智力更超群的人與力量和智力都不如他的人也能夠平等相處一樣,人類也大概率能夠與強(qiáng)人工智能共處。①即使這樣,警惕仍然是必要的。人類更傾向于掌握一個(gè)可以瞬間消滅強(qiáng)人工智能的按鈕,因?yàn)閼{人類的智力程度可能難以實(shí)現(xiàn)對(duì)強(qiáng)人工智能的規(guī)訓(xùn)。承認(rèn)強(qiáng)人工智能可以被規(guī)訓(xùn),強(qiáng)人工智能在接受人類灌輸?shù)念愃扑枷胗^念的數(shù)據(jù)后,可能基于正統(tǒng)的觀念而實(shí)施符合人類預(yù)期的行為,也可能受到不良思想觀念的影響,實(shí)施危害人類或者其他人工智能的行為,思想觀念灌輸失敗后,必要的法律規(guī)制手段也就成為必要。畢竟思想控制和法律控制是兩種常見(jiàn)的規(guī)訓(xùn)方式。法律手段的規(guī)訓(xùn)主要是法律責(zé)任的承擔(dān),承擔(dān)法律責(zé)任讓強(qiáng)人工智能感受到痛苦從而不再實(shí)施違背法律的行為。按照違背法律程度與性質(zhì)的分類,可能承擔(dān)的法律責(zé)任包括民事責(zé)任、行政責(zé)任與刑事責(zé)任,針對(duì)于人類的現(xiàn)有法律理論與刑罰手段已經(jīng)很完備,那么人類的法律能否完美地適用于強(qiáng)人工智能,決定了是將強(qiáng)人工智能直接納入現(xiàn)有法律體系中作為單獨(dú)一類法律主體還是重新構(gòu)建一個(gè)新的強(qiáng)人工智能法律體系。

基于經(jīng)濟(jì)性考量,將其納入現(xiàn)有法律體系應(yīng)當(dāng)先予以判斷,強(qiáng)人工智能是否符合法律主體資格的界定?主體資格指存在者享有權(quán)利、履行義務(wù)和承擔(dān)責(zé)任的可能性,判斷存在者是否具有主體資格需要一定的標(biāo)準(zhǔn),法律思想史上有關(guān)主體資格標(biāo)準(zhǔn)的學(xué)說(shuō)可大致歸納為理性說(shuō)、感性說(shuō)、德性說(shuō)與神性說(shuō)。[20]84-85理性說(shuō)認(rèn)為具有主體資格的存在者須具備一般的辨識(shí)是非、合理預(yù)見(jiàn)和控制行為的能力;感性說(shuō)把存在者是否具有主體資格的標(biāo)準(zhǔn)確定為通過(guò)感官獲得快樂(lè)和痛苦的能力;古代中國(guó)和受儒家思想影響的其他區(qū)域以美德的有無(wú)及大小作為主體資格的決定因素,此為德性說(shuō);神性說(shuō)認(rèn)為存在者有無(wú)主體資格、享有多少權(quán)利取決于其神性的有無(wú)和多少。[20]85-88其中,理性說(shuō)與神性說(shuō)已因時(shí)代變遷而基本不再具備單獨(dú)成為主體資格標(biāo)準(zhǔn)的現(xiàn)實(shí)條件,也很難認(rèn)為強(qiáng)人工智能會(huì)具備德性或者披戴基督,強(qiáng)人工智能有可能被擬制為符合理性標(biāo)準(zhǔn)。[20]93在理性說(shuō)與感性說(shuō)之間,強(qiáng)人工智能因具備一定的辨識(shí)、預(yù)見(jiàn)、控制的能力而更符合理性說(shuō)的標(biāo)準(zhǔn),強(qiáng)人工智能感官上快樂(lè)和痛苦仍然是難以想象的。

現(xiàn)代法律主體資格的標(biāo)準(zhǔn)正是以理性說(shuō)為主、感性說(shuō)為輔的,強(qiáng)人工智能有成為法律主體資格的潛質(zhì)。具備法律主體資格后,強(qiáng)人工智能即享有權(quán)利和需要承擔(dān)義務(wù),對(duì)強(qiáng)人工智能賦予主體資格可能主要是從規(guī)訓(xùn)和保護(hù)社會(huì)的角度出發(fā)的,通過(guò)法律責(zé)任的承擔(dān)使得強(qiáng)人工智能不違背法律。從規(guī)訓(xùn)的角度出發(fā),對(duì)符合法律的行為的賞賜和違背法律的懲罰是兩種路徑,強(qiáng)人工智能要能夠?qū)@兩種方法有所感受,法律責(zé)任才能發(fā)揮作用。單純的法律灌輸對(duì)弱人工智能能夠發(fā)揮作用,但強(qiáng)人工智能不光是理論的,而且具有實(shí)踐性,法律責(zé)任表現(xiàn)為一種惡或者說(shuō)是對(duì)違法行為的一種剝奪感,這種剝奪感要能夠讓強(qiáng)人工智能感受到,如果感受不到,法律責(zé)任便起不到作用。強(qiáng)人工智能是否具備感知被剝奪的能力和是否有情感是法律責(zé)任能否發(fā)生效果的關(guān)鍵。值得關(guān)注的是,強(qiáng)人工智能是否會(huì)犯罪是一個(gè)看似簡(jiǎn)單實(shí)則難以論證的問(wèn)題,目前報(bào)道出來(lái)的人工智能傷人事件通常是由于程序故障或者程序設(shè)計(jì)上的缺陷,并非是人工智能自由意志選擇的行為。雖然無(wú)法證明其會(huì)違背法律實(shí)施違法行為,但預(yù)防其違法并作出適當(dāng)?shù)闹卫泶胧﹨s是必要的。

就強(qiáng)人工智能實(shí)施犯罪行為施以刑罰處罰的有效性、可行性而言,否定論者認(rèn)為“刑罰懲罰以被懲罰者的情感動(dòng)機(jī)為基點(diǎn),犯罪給人帶來(lái)快樂(lè),刑罰則能夠?qū)ζ涫┮酝纯?,從而抵消其犯罪的?dòng)機(jī),然而人工智能沒(méi)有情感,不能體會(huì)到犯罪之樂(lè)和刑罰之苦,對(duì)其適用刑罰難以實(shí)現(xiàn)刑罰的預(yù)防功能。即使為強(qiáng)人工智能設(shè)置獨(dú)立階梯刑罰包括刪除數(shù)據(jù)、修改程序、永久銷毀等,也并不能讓人工智能產(chǎn)生懼怕的情感,也不能發(fā)揮應(yīng)有的威懾功能。”[8]78對(duì)強(qiáng)人工智能是否具備情感這個(gè)問(wèn)題的回答,法學(xué)家可能手足無(wú)措,仍然需要借助人工智能專業(yè)知識(shí)。強(qiáng)人工智能表現(xiàn)出極強(qiáng)大學(xué)習(xí)能力,通過(guò)認(rèn)知與學(xué)習(xí),它可以像人腦一樣學(xué)習(xí)、思考、做出決策并實(shí)現(xiàn)期望的行為;為了使得人工智能更好地服務(wù)人類,對(duì)機(jī)器人配置視覺(jué)、聲覺(jué)、力覺(jué)、觸覺(jué)等多種傳感器成為必要;機(jī)器人能夠?qū)θ四X和人體的感知與行為產(chǎn)生共融。[21]各類傳感器的接入,使得強(qiáng)人工智能擁有了感受外界因素作用的通道,共情能力使得強(qiáng)人工智能可以理解人類的感情并與人和其他個(gè)體進(jìn)行情感互動(dòng)。強(qiáng)人工智能的實(shí)踐性促使其探求人類的道德情感并付諸實(shí)踐,與人類的情感交流和道德標(biāo)準(zhǔn)的建立,使得強(qiáng)人工智能逐漸擁有了道德情感,有了被剝奪感,這種恐懼可以作為預(yù)防強(qiáng)人工智能實(shí)施違法犯罪行為的根據(jù)和基礎(chǔ)。

雖然目前科技還無(wú)法證明強(qiáng)人工智能是否具備道德情感,但可以明確的是,強(qiáng)人工智能做出或者不做出相應(yīng)的行為都立足于一定的價(jià)值取向和目的追求,目的的實(shí)現(xiàn)可以是一種欲望的表現(xiàn),而對(duì)欲望的阻斷一定程度上可以使得強(qiáng)人工智能感受到“難受”“被剝奪感”,進(jìn)而實(shí)施符合人們預(yù)期的符合法律規(guī)定的行為。在明確強(qiáng)人工智能具備法律主體資格和能夠?qū)Ψ韶?zé)任做出反應(yīng)之后,討論何時(shí)和如何承擔(dān)責(zé)任就有了現(xiàn)實(shí)基礎(chǔ)。在強(qiáng)人工智能可能實(shí)施的違法犯罪行為中,一般的違法行為可以通過(guò)建立賠償金、拆除設(shè)備等補(bǔ)償性和報(bào)應(yīng)性方法保障被害人的權(quán)益。值得研究的是強(qiáng)人工智能實(shí)施犯罪行為時(shí)刑事責(zé)任如何承擔(dān)和刑罰類型。

四、強(qiáng)人工智能承擔(dān)刑事責(zé)任的責(zé)任分配規(guī)則

現(xiàn)行刑法第14條至21條作了刑事責(zé)任的相關(guān)規(guī)定,根據(jù)辨認(rèn)和控制自己行為的能力分為無(wú)刑事責(zé)任能力、限制刑事責(zé)任能力和完全刑事責(zé)任能力;行為主體主觀方面對(duì)承擔(dān)刑事責(zé)任的影響以及不可抗力、意外事件、緊急避險(xiǎn)等特殊情形下不承擔(dān)刑事責(zé)任。此外,刑法第25條至29條作了共同犯罪的相關(guān)規(guī)定。筆者以下結(jié)合強(qiáng)人工智能的有關(guān)特性分別檢測(cè)其是否符合承擔(dān)刑事責(zé)任和共同犯罪的相關(guān)規(guī)定。

強(qiáng)人工智能的成長(zhǎng)雖然時(shí)間短暫,但仍然是智商與情商逐漸成熟的過(guò)程。此處需要注意的是,強(qiáng)人工智能嬰兒期與弱人工智能仍然存在本質(zhì)上的區(qū)別。前者雖然表現(xiàn)出智能程度的低下,甚至可能低于弱人工智能,但嬰兒期的強(qiáng)人工智能仍然呈現(xiàn)出學(xué)習(xí)范圍的廣泛性和行為的不可預(yù)測(cè)性;而弱人工智能的成長(zhǎng)表現(xiàn)為在專業(yè)領(lǐng)域或者數(shù)個(gè)領(lǐng)域計(jì)算能力的增強(qiáng),但其行為仍然是可預(yù)測(cè)性的。隨著強(qiáng)人工智能逐漸的成長(zhǎng)具備一定的辨認(rèn)和控制能力,強(qiáng)人工智能逐漸嘗試擺脫程序的固有設(shè)定,開(kāi)始有一些尚不成熟的目標(biāo)或追求,為了滿足模糊的欲望實(shí)施一些人類無(wú)法預(yù)測(cè)的行為。這段時(shí)期可以稱為強(qiáng)人工智能的青少年期。過(guò)了青少年期進(jìn)入成年期,強(qiáng)人工智能開(kāi)始呈現(xiàn)出具有相對(duì)明確目標(biāo)的生命體,具有辨認(rèn)和控制自己行為的強(qiáng)大能力。強(qiáng)人工智能嬰兒期、青少年期、成年期的劃分以其智能化程度為基礎(chǔ)根據(jù),背后是對(duì)強(qiáng)人工智能辨認(rèn)和控制自己行為能力的考察。

將強(qiáng)人工智能納入現(xiàn)有刑事責(zé)任能力體系之后,就需要討論各個(gè)能力階段刑事責(zé)任的承擔(dān)問(wèn)題。嬰兒期強(qiáng)人工智能特點(diǎn)是具備一定的認(rèn)知和理解能力,此時(shí)主要是吸收知識(shí),缺乏對(duì)事物的辨認(rèn)和對(duì)自身行為的控制能力。對(duì)于嬰兒期強(qiáng)人工智能應(yīng)當(dāng)重視“教育”和“矯治”,灌輸正確的價(jià)值觀、培養(yǎng)恰當(dāng)?shù)男袨槟J?,?duì)于此時(shí)造成的損害結(jié)果可以根據(jù)不同階段由不同的人負(fù)責(zé)。若嬰兒期強(qiáng)人工智能在編程時(shí)已經(jīng)被編程員設(shè)計(jì)了犯罪相關(guān)的程序和數(shù)據(jù),那么嬰兒期強(qiáng)人工智能實(shí)施的犯罪行為應(yīng)當(dāng)由編程員承擔(dān)相應(yīng)責(zé)任,此時(shí)強(qiáng)人工智能只是編程員的犯罪工具。若嬰兒期強(qiáng)人工智能被編碼了犯罪程序和數(shù)據(jù),制造者在制造時(shí)對(duì)以上事項(xiàng)明知,仍然選擇裝配制造的,嬰兒期人工智能造成的犯罪行為由編程者和裝配制造者承擔(dān)共同犯罪的責(zé)任。使用者明知購(gòu)買的強(qiáng)人工智能被編碼了犯罪程序和數(shù)據(jù)之后,仍然購(gòu)買的,由編碼者、制造者、使用者共同承擔(dān)刑事責(zé)任。值得注意的是,三個(gè)主體構(gòu)成共同犯罪的前提是主觀上明知,否則相關(guān)主體不承擔(dān)刑事責(zé)任。三個(gè)主體都具有審核義務(wù),但程度不同,編碼者應(yīng)當(dāng)保證沒(méi)有編碼進(jìn)指示犯罪相關(guān)程序和數(shù)據(jù),制造者需要進(jìn)到審核義務(wù),而使用者僅需要閱讀說(shuō)明書(shū),如果沒(méi)有明示預(yù)裝犯罪程序和數(shù)據(jù)就不需要承擔(dān)刑事責(zé)任。若嬰兒期強(qiáng)人工智能沒(méi)有預(yù)裝犯罪程序和數(shù)據(jù),但使用者在使用過(guò)程中灌輸或者指示其實(shí)施犯罪行為的,應(yīng)當(dāng)獨(dú)立承擔(dān)刑事責(zé)任。

青少年期強(qiáng)人工智能具備較強(qiáng)的辨認(rèn)識(shí)別能力,但控制能力相對(duì)較弱,數(shù)據(jù)的不全面、不完整性導(dǎo)致強(qiáng)人工智能認(rèn)識(shí)片面,可能以錯(cuò)誤方式實(shí)施違反人類社會(huì)規(guī)則的行為,甚至犯罪行為。該時(shí)期的強(qiáng)人工智能行為主要是出自自己的認(rèn)識(shí),該認(rèn)識(shí)與使用者的理念和價(jià)值灌輸具有重要關(guān)系,強(qiáng)人工智能實(shí)施犯罪行為有使用者的原因也有其自身的原因,讓使用者對(duì)其全部行為承擔(dān)責(zé)任不妥當(dāng)。與人類限制刑事責(zé)任年齡主體的承擔(dān)刑事責(zé)任的情形類似,雖然辨認(rèn)和控制能力還較弱,但對(duì)于嚴(yán)重刑事犯罪行為應(yīng)當(dāng)有一定程度的認(rèn)識(shí),應(yīng)當(dāng)對(duì)嚴(yán)重刑事犯罪承擔(dān)刑事責(zé)任。對(duì)于非嚴(yán)重刑事犯罪行為,仍堅(jiān)持“教育為主、懲罰為輔”的理念,對(duì)強(qiáng)人工智能進(jìn)行全面教育,使用者應(yīng)承擔(dān)一定的民事責(zé)任。或者通過(guò)購(gòu)買機(jī)器人保險(xiǎn)的方式,由保險(xiǎn)公司承擔(dān)賠償責(zé)任。此處應(yīng)當(dāng)注意利用強(qiáng)人工智能的間接正犯行為。間接正犯是利用他人實(shí)現(xiàn)犯罪的情況,主要表現(xiàn)為強(qiáng)制他人實(shí)行犯罪,或者利用他人的錯(cuò)誤支配犯罪事實(shí)。[22]青少年時(shí)期的強(qiáng)人工智能容易被錯(cuò)誤的思想所支配,成為不良分子的犯罪工具,這種情況下應(yīng)當(dāng)由間接正犯承擔(dān)刑事責(zé)任。

成年期強(qiáng)人工智能具備健全的辨認(rèn)和控制能力,具有明辨是非和選擇實(shí)施或不實(shí)施違法犯罪行為的主觀意志和客觀控制能力。該時(shí)期強(qiáng)人工智能吸收、理解了大量的知識(shí),對(duì)事物和行為的正確與否有了相對(duì)完善的認(rèn)識(shí),此時(shí)還實(shí)施犯罪行為說(shuō)明了強(qiáng)人工智能違背刑法的主觀惡性,可以由強(qiáng)人工智能自己承擔(dān)刑事責(zé)任。值得注意的是,此時(shí)的強(qiáng)人工智能形式上雖然屬于使用者,但本質(zhì)上已經(jīng)脫離了使用者的控制。使用者對(duì)其的影響也逐漸減弱。此時(shí)讓使用者對(duì)其犯罪行為承擔(dān)法律責(zé)任已經(jīng)起不到刑罰的報(bào)應(yīng)和預(yù)防作用。可見(jiàn),強(qiáng)人工智能無(wú)論在刑事責(zé)任規(guī)定上還是在共同犯罪規(guī)定上都符合現(xiàn)有刑事責(zé)任體系,基于現(xiàn)有刑法刑事責(zé)任體系具有可行性。

五、結(jié)語(yǔ)

對(duì)強(qiáng)人工智能的研究應(yīng)當(dāng)秉持開(kāi)放的態(tài)度,將人工智能放在與人類同等的地位加以研究是破除人類本體局限認(rèn)識(shí)的觀念突破。無(wú)論承認(rèn)與否,人工智能都在以遠(yuǎn)超人類想象的速度追趕人類,如何安置這一新型生命體是必須要研究的課題。與其害怕,不如提早進(jìn)行研究并作完善準(zhǔn)備,迎接人工智能時(shí)代的浪潮沖擊。通過(guò)本文的分析可見(jiàn),現(xiàn)有刑法刑事責(zé)任體系同樣適用于強(qiáng)人工智能主體,如何確定刑事責(zé)任劃分的標(biāo)準(zhǔn)和確定適合強(qiáng)人工智能的刑罰措施應(yīng)當(dāng)成為接下來(lái)研究的重心。

猜你喜歡
主體資格刑罰人工智能
刑罰威懾力的刑法學(xué)分析
活力(2019年22期)2019-03-16 12:49:24
代運(yùn)為名行詐騙 構(gòu)成犯罪獲刑罰
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
斷鹽也是一種刑罰
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
環(huán)境污染侵權(quán)案件實(shí)務(wù)中的問(wèn)題研究
公司設(shè)立中發(fā)起人的主體資格該如何認(rèn)定?
人間(2016年30期)2016-12-03 20:28:29
死者權(quán)益維護(hù)與法律適用
環(huán)境公益訴訟主體存在問(wèn)題及對(duì)策
剑川县| 祁连县| 清新县| 和平县| 西平县| 塔河县| 铜梁县| 普兰店市| 奈曼旗| 乐昌市| 博乐市| 云霄县| 瑞丽市| 综艺| 浑源县| 莱阳市| 双桥区| 梁河县| 色达县| 禄丰县| 泸西县| 佛冈县| 寿光市| 塔河县| 武强县| 禄丰县| 阿拉善右旗| 右玉县| 滦南县| 衡水市| 新乡市| 彰武县| 罗定市| 中宁县| 即墨市| 镇康县| 伊吾县| 昌吉市| 晋州市| 宣武区| 望都县|