国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能時(shí)代背景下的刑事責(zé)任 主體化資格問題探析

2021-11-30 03:23劉瑞瑞
江漢論壇 2021年11期
關(guān)鍵詞:責(zé)任主體智能化人工智能

摘要:人工智能的快速發(fā)展引發(fā)了刑法學(xué)界是否需要改變傳統(tǒng)的刑事責(zé)任主體范圍,賦予人工智能刑事責(zé)任主體資格的爭(zhēng)論。對(duì)人工智能是否能成為刑事責(zé)任主體這一問題的探討,在某種意義上是法學(xué)領(lǐng)域,即是否有必要在法律層面上設(shè)計(jì)或設(shè)置某一新型主體以應(yīng)對(duì)科技發(fā)展所帶來(lái)的諸多嶄新問題。人工智能的發(fā)展程度不是決定人工智能能否承擔(dān)刑事責(zé)任的根據(jù),在現(xiàn)有的法秩序框架下,人類作為法律構(gòu)建者的身份已經(jīng)決定了人與人工智能的關(guān)系,進(jìn)而否定了人工智能作為刑事責(zé)任主體的可能性。

關(guān)鍵詞:人工智能;責(zé)任主體;智能化;法秩序

基金項(xiàng)目:中國(guó)—上海合作組織國(guó)際司法交流合作基地研究基金項(xiàng)目“基于全球營(yíng)商環(huán)境報(bào)告的上合相關(guān)國(guó)家法律風(fēng)險(xiǎn)研究”(19SHJD001)、“基于法治指數(shù)的一帶一路國(guó)家金融法律風(fēng)險(xiǎn)識(shí)別及對(duì)策路徑研究”(CNSC017021)

中圖分類號(hào):D924.3? ? 文獻(xiàn)標(biāo)識(shí)碼:A? ? 文章編號(hào):1003-854X(2021)11-0105-06

隨著當(dāng)今社會(huì)科技的高速發(fā)展,人工智能逐步拓展到社會(huì)經(jīng)濟(jì)生活的各個(gè)層面,目前已在眾多領(lǐng)域?qū)θ祟惖纳鐣?huì)生活及社會(huì)組織形態(tài)產(chǎn)生了十分深刻的決定性影響。已有學(xué)者宣稱人工智能是未來(lái)40年對(duì)人類影響最大的技術(shù)進(jìn)步之一,這場(chǎng)科技革命對(duì)幾乎所有領(lǐng)域都產(chǎn)生了較為明顯的沖擊效應(yīng),同樣也對(duì)法學(xué)研究提出了全新的挑戰(zhàn)。人工智能的最大特點(diǎn)在于智能化,這種類似與人類的智能,或者與人類智能具有相似性的特點(diǎn)導(dǎo)致人工智能性質(zhì)界定產(chǎn)生了較大爭(zhēng)議,尤其是智能化程度所帶來(lái)的人格性特征的增強(qiáng)使人工智能與“人”之間的界限變得模糊。在刑法研究領(lǐng)域,人工智能與刑事責(zé)任之間的關(guān)系探討也就成為熱點(diǎn)問題,在一定程度上超出了傳統(tǒng)的“人”與工具的范疇,因此有學(xué)者提出人工智能刑事責(zé)任主體化的觀點(diǎn)。目前,人工智能是否有主體化的可能性在學(xué)界存在不同的觀點(diǎn),從研究的理性與嚴(yán)謹(jǐn)性角度出發(fā)理應(yīng)首先要厘清兩個(gè)基本問題:一是該問題研究的路徑選擇——以科技發(fā)展為導(dǎo)向,還是以法的邏輯推理為基礎(chǔ);二是該問題盡管是指向未來(lái)的社會(huì)發(fā)展?fàn)顩r下的立法問題研究,探討的前提是設(shè)置在現(xiàn)有的法秩序框架下,還是超出人類主導(dǎo)的法秩序框架下的研究。

本文將首先梳理總結(jié)人工智能時(shí)代下刑法領(lǐng)域在理論層面的主要應(yīng)對(duì)策略及研究進(jìn)路,破題人工智能刑事責(zé)任主體化的理論爭(zhēng)議,重點(diǎn)分析主體化理論的邏輯前提與內(nèi)在理路,在對(duì)其理論預(yù)設(shè)中所存在的問題予以批判的基礎(chǔ)上提出破解人工智能刑事責(zé)任主體資格問題的思路,即回歸法之內(nèi)在邏輯,在既有的刑法系統(tǒng)中對(duì)人工智能所可能帶來(lái)的新問題予以兼容與調(diào)試。這與以“人”為核心的法秩序的建構(gòu)具有密切關(guān)聯(lián),通過對(duì)人工智能刑事責(zé)任主體化資格問題的再思考,重申或再次審視人工智能時(shí)代條件下刑事立法的包容性與延展性特質(zhì)。顯而易見,新生事物的涌現(xiàn)必然會(huì)對(duì)既有的理論與實(shí)踐體系產(chǎn)生一定程度的影響,當(dāng)這種影響突破某個(gè)臨界點(diǎn)時(shí)則可能引發(fā)帶有根本性質(zhì)的變革;對(duì)人工智能發(fā)展的想象或預(yù)測(cè)似乎怎樣都不過分,不過就法律領(lǐng)域而言這種想象或預(yù)測(cè)也不應(yīng)一味夸大,尤其是落實(shí)在制度及規(guī)則的設(shè)計(jì)層面則更要審慎。法律系統(tǒng)對(duì)現(xiàn)實(shí)世界的回應(yīng)、關(guān)照與調(diào)適從未停止過,在此意義上,法律系統(tǒng)始終是動(dòng)態(tài)的、更新的、變化著的,一些“老瓶”早已裝上了“新酒”,人工智能時(shí)代的理論供給并不只是或不應(yīng)僅僅是制造出某些新的概念,更重要的是還包括對(duì)既有的系統(tǒng)進(jìn)行重新認(rèn)識(shí)與理解,這在法律領(lǐng)域特別是刑法領(lǐng)域尤其關(guān)鍵。

一、人工智能時(shí)代刑法的理論供給:面對(duì)人工智能刑事責(zé)任主體化的“誘惑”

對(duì)人工智能刑事責(zé)任主體化的探討構(gòu)成了當(dāng)前刑法學(xué)界爭(zhēng)議較大的基礎(chǔ)性理論問題之一,伴隨人工智能的發(fā)展及其影響力的擴(kuò)大,可以預(yù)見的是,對(duì)該問題的探討將不斷持續(xù)與深化。實(shí)際上,人工智能的主體化作為邁向人工智能時(shí)代的法律“元問題”已貫穿法理學(xué)及各個(gè)部門法領(lǐng)域,無(wú)論對(duì)這一“元問題”持何種立場(chǎng),它都不會(huì)被回避。即是說(shuō),對(duì)人工智能主體化問題的探討構(gòu)成了人工智能時(shí)代法學(xué)領(lǐng)域第一波理論供給,如在知識(shí)產(chǎn)權(quán)法領(lǐng)域?qū)θ斯ぶ悄苁欠窨勺鳛榛蛞暈橹鳈?quán)主體已產(chǎn)出了諸多相關(guān)研究成果。應(yīng)當(dāng)說(shuō),圍繞人工智能主體化或更準(zhǔn)確地說(shuō),人工智能是否主體化這一法律“元問題”,面對(duì)將人工智能主體化的“誘惑”,各部門法都從各自領(lǐng)域的特點(diǎn)及面臨的(可能)挑戰(zhàn)為切入點(diǎn)提出了不同的理解模式及相應(yīng)的應(yīng)對(duì)策略。在此意義上,這一人工智能時(shí)代的法律“元問題”構(gòu)成了展開相關(guān)問題研究的邏輯起點(diǎn),也成為劃分、區(qū)分多種應(yīng)對(duì)策略的性質(zhì)及觀點(diǎn)的一條重要標(biāo)準(zhǔn)。

(一)“誘惑”下的“試錯(cuò)”:設(shè)計(jì)人工智能承擔(dān)刑事責(zé)任類型研究進(jìn)路

就刑法領(lǐng)域而言,有可與其他部門法共享的智識(shí)資源,也具有一定的特殊性??偟膩?lái)看,目前的相關(guān)研究大致可歸為兩類:一是將人工智能視為刑事責(zé)任可能的主體,直接探討人工智能承擔(dān)刑事責(zé)任的類型;二是探討人工智能是否能成為刑事責(zé)任的主體。研究人工智能承擔(dān)責(zé)任類型的學(xué)者主要著眼于未來(lái)人工智能的發(fā)展,認(rèn)為人工智能在智力方面可能會(huì)獲得與人類相當(dāng)?shù)哪芰?,甚至有超越人類思維的可能性。此種研究是以人工智能的快速發(fā)展為基礎(chǔ),預(yù)判人工智能在具有獨(dú)立意識(shí)的情況下與人類如何劃分刑事責(zé)任問題,進(jìn)而提出可能出現(xiàn)的若干種刑事責(zé)任承擔(dān)模式。例如,有學(xué)者認(rèn)為根據(jù)“侵害行為”發(fā)生于程序設(shè)計(jì)和編制范圍的內(nèi)外來(lái)認(rèn)定其辨認(rèn)和控制能力的有無(wú),進(jìn)而判斷智能機(jī)器人是否具有刑事責(zé)任主體資格。① 可見此種觀點(diǎn)(或此一類型觀點(diǎn))是在一定范圍內(nèi)承認(rèn)了人工智能承擔(dān)刑事責(zé)任的可能性,只是因?yàn)椴煌黧w在犯罪中起到的作用與行為性質(zhì)不同而導(dǎo)致不同的責(zé)任承擔(dān)方式而已。此種思考路徑在表面上看似乎避開了目前人工智能探討刑事責(zé)任主體的“障礙”,轉(zhuǎn)而在具體的操作層面或微觀層面對(duì)某種行為或現(xiàn)象依據(jù)一定的原則或判斷標(biāo)準(zhǔn)予以剝離或細(xì)化,試圖通過區(qū)分人與人工智能的行為來(lái)確定責(zé)任承擔(dān)的條件與程度??梢钥吹?,面對(duì)人工智能刑事責(zé)任主體化的“誘惑”,此類研究進(jìn)路試圖在具體的制度設(shè)計(jì)層面對(duì)人工智能具有刑事責(zé)任主體資格予以有限承認(rèn),并在此認(rèn)知基礎(chǔ)上進(jìn)行“試驗(yàn)”或“試錯(cuò)”,對(duì)承擔(dān)主體責(zé)任在一定程度上進(jìn)行評(píng)估或預(yù)測(cè),而將一些基礎(chǔ)性的理論問題先行“懸置”,就此觀察或觀測(cè)人工智能刑事責(zé)任主體化的效果或效應(yīng),以此來(lái)確定或判斷主體化的表現(xiàn)及其邊界。

應(yīng)當(dāng)說(shuō),這種思路對(duì)在考量某一具體制度設(shè)計(jì)下的人與人工智能的行為區(qū)分具有一定意義。不過,需要指明的是,這種研究策略在實(shí)質(zhì)上并未真正解決問題,而是把對(duì)相關(guān)問題的探討架構(gòu)在一定的想象之上。法學(xué)研究固然需要前瞻性,根據(jù)發(fā)展趨勢(shì)預(yù)測(cè)行為、狀態(tài)或現(xiàn)象發(fā)展的可能性,為立法做必要的準(zhǔn)備或儲(chǔ)備,但這種預(yù)測(cè)也應(yīng)具備一定的或相當(dāng)程度的合理性、現(xiàn)實(shí)性與準(zhǔn)確性,而這種合理性、現(xiàn)實(shí)性與準(zhǔn)確性要求反映或體現(xiàn)在某一微觀的、具體的制度設(shè)計(jì)中時(shí)則極有可能產(chǎn)生誤差或偏差,這種誤差或偏差將極大削弱研究的價(jià)值。更為關(guān)鍵的是,通過考量具體制度設(shè)計(jì)中的“樹木”未必能因此而見整個(gè)“森林”,在思考的邏輯上,先行“懸置”的問題始終讓后續(xù)的分析與推導(dǎo)存在一定未盡之處——正因?yàn)槿绱?,其所提出的解決方案或策略總是猶如“隔靴搔癢”。

(二)“誘惑”下的否定與肯定:人工智能承擔(dān)刑事責(zé)任的可能性之爭(zhēng)

與上述研究思路不同,相當(dāng)多的學(xué)者所關(guān)注的是人工智能承擔(dān)刑事責(zé)任的可能性問題,根據(jù)人工智能的辨認(rèn)能力與控制能力的性質(zhì)及程度去判斷人工智能是否能承擔(dān)刑事責(zé)任。這方面的研究又分為否定說(shuō)與肯定說(shuō)兩種觀點(diǎn)。否定說(shuō)即否定人工智能成為刑事責(zé)任主體的可能性,認(rèn)為人工智能無(wú)論其多智能化都是人類制造的產(chǎn)品,都不能改變?nèi)祟惞ぞ叩男再|(zhì),所以不應(yīng)成為刑事責(zé)任的主體。如有的學(xué)者認(rèn)為,“機(jī)器人沒有自身積累的知識(shí),其知識(shí)都是特定領(lǐng)域的且都是人類輸入的,即其不具備人之心性和靈性,故其與具有‘人類智慧的自然人和自然人集合體不能簡(jiǎn)單等同,故受自然人控制的機(jī)器人尚不足以取得獨(dú)立的主體地位”。② 可以看到,否定說(shuō)認(rèn)定人與人工智能之間存在本質(zhì)區(qū)別,并從區(qū)別中尋求排斥人工智能作為一種新型主體資格的依據(jù),堅(jiān)持“人—物”的二分法,并主張繼續(xù)在這種二分法框架之下來(lái)解決人工智能問題;或者說(shuō),延續(xù)二分法的基本認(rèn)知而將人工智能納入某種特殊“物”或工具的范疇予以考量。

另一種觀點(diǎn)是區(qū)分不同的情況,而來(lái)決定人工智能是否具有刑事責(zé)任主體地位,可大致歸于肯定說(shuō)的范疇。該觀點(diǎn)認(rèn)為應(yīng)以科技發(fā)展程度為基礎(chǔ)判斷人工智能的辨認(rèn)與控制能力,主要是對(duì)人工智能發(fā)展的不同階段人工智能所體現(xiàn)出的“智力能力”的不同進(jìn)行比較。比如弱的人工智能階段與強(qiáng)的人工智能階段人工智能的辨認(rèn)與控制能力是不同的,弱人工智能階段不存在承擔(dān)刑事責(zé)任的可能性,而強(qiáng)人工智能階段則有可能。此種觀點(diǎn)雖未完全肯定人工智能的刑事責(zé)任主體地位,但強(qiáng)調(diào)人工智能在今后的發(fā)展過程中因?yàn)橹悄苄缘奶岣叨哂谐袚?dān)刑事責(zé)任的可能性。如有的學(xué)者認(rèn)為,“強(qiáng)人工智能產(chǎn)品具有辨認(rèn)能力和控制能力,能在設(shè)計(jì)和編制的程序范圍外實(shí)施危害社會(huì)的行為,其具有獨(dú)立人格和刑事責(zé)任能力,可以將其實(shí)施的嚴(yán)重危害社會(huì)的行為認(rèn)定為犯罪行為并給予刑罰處罰”。③ 這種關(guān)注人工智能獨(dú)立思維能力的變化對(duì)人工智能的責(zé)任能力影響的思路,主要是從科學(xué)技術(shù)角度分析人工智能責(zé)任能力的性質(zhì)與特點(diǎn),嚴(yán)格來(lái)說(shuō),屬于非法學(xué)角度的研究。

從上述對(duì)否定說(shuō)和肯定說(shuō)兩種觀點(diǎn)分歧的簡(jiǎn)要分析中不難看出,刑法學(xué)目前對(duì)人工智能的關(guān)注重心不在于工具角度的人工智能對(duì)社會(huì)產(chǎn)生的危害,而是關(guān)注主體角度的人工智能所可能帶來(lái)的刑事責(zé)任問題。任何研究都應(yīng)以清晰的邏輯結(jié)構(gòu)、正確的研究角度、合理的研究范圍為基礎(chǔ),不過目前的人工智能主體化研究在這三個(gè)方面都尚存在一定的問題。人工智能承擔(dān)刑事責(zé)任的前提是人工智能成為責(zé)任的主體,上述第一種研究思路,即設(shè)計(jì)人工智能承擔(dān)刑事責(zé)任類型研究進(jìn)路是以人工智能具有責(zé)任主體的可能性為基礎(chǔ)的。但是這種可能性是否合理卻沒有提及,跳過主體資格去探討人工智能承擔(dān)刑事責(zé)任的模式就如同空中樓閣,在邏輯上存在一定問題。第二種研究思路實(shí)際上包含否定說(shuō)與肯定說(shuō)兩種立場(chǎng),它們都著眼于人工智能能否獲得主體資格,邏輯層面固然合理,但論證人工智能是否能獲得刑事主體資格的角度選擇卻有待商榷。而且,也許更重要的是,這兩種不同的研究思路其實(shí)都回避了一個(gè)重要問題的闡述——是否以現(xiàn)有法秩序?yàn)檠芯康那疤峄蚧A(chǔ)。

二、回歸法之內(nèi)在邏輯:破解人工智能刑事責(zé)任主體資格問題的路徑選擇

對(duì)人工智能是否能成為刑事責(zé)任主體這一問題的探討,在某種意義上是法學(xué)領(lǐng)域,即是否有必要在法律層面上設(shè)計(jì)或設(shè)置某一新型主體以應(yīng)對(duì)科技發(fā)展所帶來(lái)的諸多嶄新問題。盡管學(xué)界對(duì)人工智能刑事主體資格這一問題持有不同觀點(diǎn),不過無(wú)論肯定說(shuō)抑或否定說(shuō)幾乎都是以科技發(fā)展?fàn)顩r——也就是人工智能的智能化程度為標(biāo)準(zhǔn),以此為依據(jù)來(lái)判斷、評(píng)估、評(píng)價(jià)人工智能獲得主體資格的可能性,這顯然是以科技為導(dǎo)向的論證角度。該種研究思路固然充分考量了科技發(fā)展對(duì)法學(xué)研究的影響,試圖通過對(duì)最新科技的及時(shí)關(guān)照與回應(yīng)以達(dá)成對(duì)人工智能時(shí)代所引發(fā)諸多新問題的調(diào)整與規(guī)制,但需要指明的是,該研究思路也在某種程度上忽視了對(duì)法之內(nèi)在邏輯研究的重要性。進(jìn)言之:

(一)不牢靠的根基:人工智能及科技發(fā)展程度的不確定性

人工智能對(duì)社會(huì)發(fā)展可能帶來(lái)的影響是人類關(guān)注的主要問題,但是究竟能發(fā)展到什么程度是無(wú)法預(yù)測(cè)或確認(rèn)的,人工智能發(fā)展程度的不確定性不適合或決定了其無(wú)法作為法律責(zé)任主體資格界定的理論出發(fā)點(diǎn)。目前支持人工智能犯罪主體化的學(xué)者主要是以人工智能可能出現(xiàn)的狀態(tài)作為探討的基礎(chǔ),故而有觀點(diǎn)認(rèn)為人工智能主體資格問題與人工智能化程度是密切相關(guān)的,體現(xiàn)了以科技發(fā)展為導(dǎo)向的研究角度。因而,現(xiàn)在刑法學(xué)關(guān)于人工智能的研究主要關(guān)注人工智能的智能化問題,從智力發(fā)展水平考慮人工智能實(shí)施行為的獨(dú)立性與智能性,探討在將來(lái)可能出現(xiàn)的人工智能具有獨(dú)立思維,自主支配行為的可能性,以此為基礎(chǔ)論證人工智能成為責(zé)任主體的可能性。其中,具有代表性的觀點(diǎn)是根據(jù)人工智能不同的發(fā)展階段所展現(xiàn)出的智能化程度的不同將人工智能分為弱人工智能和強(qiáng)人工智能,弱人工智能和強(qiáng)人工智能不僅代表著人工智能的階段劃分,也決定著人工智能的性質(zhì)界定。弱人工智能因智能化較低,與人類的思考、判斷能力差距較大,擬人化程度不高,依然被視為人類的工具,因而在刑法學(xué)領(lǐng)域?qū)θ跞斯ぶ悄艿难芯恳矁H限于犯罪對(duì)象或犯罪工具的研究,與主體資格毫無(wú)關(guān)系,不能成為刑事責(zé)任的主體。強(qiáng)人工智能的突出特點(diǎn)在于智能化的提高,如有學(xué)者認(rèn)為,“強(qiáng)人工智能體能在人類的設(shè)計(jì)編程之外實(shí)施行為具有獨(dú)立意志,且與人類相比具有更強(qiáng)的控制能力與可培養(yǎng)的辨認(rèn)能力,可以成為刑事責(zé)任的主體”。④ 否定說(shuō)中有學(xué)者堅(jiān)決反對(duì)人工智能成為責(zé)任主體,其認(rèn)為“未來(lái)已來(lái),但是不是說(shuō)來(lái)就來(lái),主張人工智能體具有主體,尚不具有現(xiàn)實(shí)意義”。⑤ 還有的學(xué)者認(rèn)為“人工智能系統(tǒng)對(duì)其活動(dòng)的法律規(guī)范意義不可能具有自主性認(rèn)識(shí),不可能具有刑法意義上的辨認(rèn)、控制能力,刑法不應(yīng)將其作為刑事責(zé)任主體”。⑥ 可見,無(wú)論是肯定論者還是否定論者在論證角度上都不約而同地選擇了關(guān)注于智能化的差異程度,一種是人工智能之間的比較,一種是人工智能與人的比較,關(guān)注人工智能所具有的辨認(rèn)和控制能力和人類的辨認(rèn)和控制能力是否同質(zhì),是否能相提并論。

不過,必須指明的是,以人工智能的發(fā)展趨勢(shì)預(yù)測(cè)人工智能作為刑事責(zé)任主體的可能性,這一思路是存在一定問題的。一方面,人工智能最終會(huì)發(fā)展到怎樣的程度是我們難以預(yù)測(cè)的,人工智能可能存在飛躍式、跨越式的發(fā)展,其突破能力將超出人類的想象。法學(xué)研究以難以預(yù)測(cè)的結(jié)果作為出發(fā)點(diǎn)本身就值得商榷,而且人工智能的發(fā)展也是持續(xù)不斷的,無(wú)論何時(shí)都不可能存在或達(dá)到最終結(jié)果,按此思路研究人工智能的刑事責(zé)任主體問題也是難以獲得最終答案的。另一方面,人工智能的智能化程度也無(wú)法從客觀的角度確立標(biāo)準(zhǔn)來(lái)界定人工智能是否應(yīng)該承擔(dān)刑事責(zé)任。人工智能的“智能化”是與人類的比較而產(chǎn)生的,這幾乎決定了不可能提供具體的數(shù)值作為智能化判斷的標(biāo)準(zhǔn),也就無(wú)法提供主體化的明確標(biāo)準(zhǔn)。這種研究角度的偏差在于科學(xué)技術(shù)的不可預(yù)測(cè)性,或不可全面預(yù)測(cè)性與法的明確指引性之間的沖突。所以,對(duì)該問題的研究依靠以科技發(fā)展為導(dǎo)向的論證思路是無(wú)法完成的。

(二)根據(jù)法之內(nèi)在邏輯推理:解決人工智能責(zé)任主體化問題的路徑選擇

1. 回歸法之內(nèi)在邏輯:明確人工智能責(zé)任主體化問題的出發(fā)點(diǎn)

需要指出,人工智能犯罪主體化問題其實(shí)與人工智能技術(shù)的發(fā)展程度之間沒有必然的聯(lián)系。既然以科技發(fā)展為導(dǎo)向的研究思路不可取,那么將人工智能作為一種背景,以法學(xué)的視角研究該問題是否具有更大的合理性呢?這取決于研究的內(nèi)容。如果我們對(duì)人工智能的研究是以工具為特點(diǎn)的研究,那么人工智能的科技特點(diǎn)所起的作為就非常明顯,需要根據(jù)人工智能不同發(fā)展階段的科技特點(diǎn)去評(píng)價(jià)行為主體的行為特征以及行為的危害性。就如同我們?cè)谔接懢W(wǎng)絡(luò)犯罪問題時(shí),需要對(duì)網(wǎng)絡(luò)本身的特點(diǎn)加以了解,才能準(zhǔn)確界定通過網(wǎng)絡(luò)實(shí)施的犯罪行為的特點(diǎn)及危害。但是,在探討人工智能責(zé)任主體身份問題時(shí),人工智能在科技上的特點(diǎn)以及它的發(fā)展趨勢(shì)都不是刑法學(xué)關(guān)注的重點(diǎn),甚至可以在某種程度上予以忽略。因?yàn)樗^的人工智能只是為我們提供了一種研究背景——可能出現(xiàn)具有高智能的工具,我們是否需要它給予主體地位,也就是權(quán)力能力。人工智能是否應(yīng)該擁有主體地位不是智能化的程度問題,而是主體地位的性質(zhì)問題——什么是權(quán)利能力——由誰(shuí)賦予。該問題的探討涉及的是法學(xué)的本質(zhì)問題,要在法學(xué)范圍內(nèi)探討,與科技的發(fā)展無(wú)關(guān)。進(jìn)言之,盡管人工智能的發(fā)展?fàn)顩r具有不可預(yù)測(cè)性,不能作為判斷人工智能主體化的標(biāo)準(zhǔn),但是依據(jù)法的內(nèi)在邏輯進(jìn)行推理卻能獲得明確的答案,是解決該問題較為合理的路徑選擇。

法的邏輯推理即使是對(duì)可能出現(xiàn)的情況或問題進(jìn)行預(yù)判,其立足點(diǎn)是且依然是既有的法律規(guī)定,而且這些規(guī)定都存在著內(nèi)在的邏輯關(guān)系。人工智能是否能具有刑事責(zé)任主體資格要進(jìn)行法律推理的主要因素有:法秩序的范圍、人的主體地位、法律構(gòu)建者與人工智能的基本關(guān)系等,這些前提在法律層面都有明確規(guī)定。通過邏輯推理,可以從法的性質(zhì)角度準(zhǔn)確評(píng)估人類與人工智能的關(guān)系,既包括現(xiàn)在的關(guān)系,也包括將來(lái)的關(guān)系,以關(guān)系定位為基礎(chǔ),人工智能是否或應(yīng)不應(yīng)該獲得刑事責(zé)任主體身份的問題也就迎刃而解了。

2. 回歸法律建構(gòu)之主體意志:以“人”為核心的法秩序

人工智能以智能化程度為標(biāo)準(zhǔn)基本可以分為三個(gè)階段,即弱于人類的人工智能、相當(dāng)于人類智力的人工智能以及超越人類智力的人工智能。弱于人類智力的人工智能是當(dāng)今人工智能的特點(diǎn),否定它具有刑事責(zé)任主體資格是不存在爭(zhēng)議的,但是對(duì)第二種與第三種情況下人工智能能否主體化有不同的觀點(diǎn)。有學(xué)者認(rèn)為考慮到人工智能在未來(lái)犯罪中發(fā)揮的作用,以及自主行為意識(shí)和能力的不斷提高, 逐步確認(rèn)智能主體的刑法地位是具有合理性的。

實(shí)際上,人工智能是否能主體化主要取決于兩個(gè)方面:一是以人為核心的法秩序中人與人工智能的關(guān)系定位;二是刑法調(diào)整的必要性。一方面,以“人”為核心的法秩序框架其實(shí)否定了人工智能主體化的可能性。隨著人工智能的智能程度持續(xù)提高,人工智能的智力水平在將來(lái)可能會(huì)等于或高于人類,有的學(xué)者認(rèn)為這種情況下還將人工智能僅僅作為工具對(duì)待是不合適的,因此提出人工智能主體化的觀點(diǎn),但這種觀點(diǎn)沒有考慮問題探討的基本范圍——現(xiàn)有法秩序框架下,超出該范圍問題的性質(zhì)就會(huì)發(fā)生實(shí)質(zhì)改變。申言之,一定要在現(xiàn)有的法秩序的框架下探討刑事責(zé)任主體化資格問題,現(xiàn)有的立法包括刑事立法在內(nèi)都是以“人”為核心構(gòu)建的,這體現(xiàn)在兩個(gè)方面:一是“人”是法秩序唯一的構(gòu)建者,即現(xiàn)有的法是“人”的意志的表達(dá),所有與法有關(guān)的事實(shí)、狀態(tài)、行為以及參與者都會(huì)依據(jù)立法者的意志界定性質(zhì)、明確地位?!叭恕痹诜ㄖ刃驑?gòu)建過程中的主導(dǎo)性排除了其他主體存在的可能性,包括人工智能。雖然在法律關(guān)系中國(guó)家以及各種組織也是法律關(guān)系的主體,但究其實(shí)質(zhì)都是以“人”為基礎(chǔ),不同形式的“人”的組合體,而人工智能也不具有這一性質(zhì)。因此,只有“人”是立法的主導(dǎo)者,具有主體地位,而人以外的其他行為體都不會(huì)獲得主體地位。二是如果肯定人工智能的主體地位,那么現(xiàn)在以“人”為核心與邏輯起點(diǎn)的刑事立法會(huì)帶來(lái)顛覆性的改變,我們就是在探討未知的某種刑法典。現(xiàn)在以人為中心的法秩序,“人”不但是法秩序的唯一構(gòu)建者,而且法也是為調(diào)整人類社會(huì)而產(chǎn)生的,所有法律制度確立的標(biāo)準(zhǔn)都是以“人”為基礎(chǔ)的。無(wú)論人工智能的能力有多強(qiáng),有多接近人,但畢竟不是人,不能與人相等同,現(xiàn)有法律直接將其作為“人”來(lái)調(diào)整在邏輯上是悖論;而且,現(xiàn)有法律體系中的概念、原則、規(guī)則等都是以“人”為基礎(chǔ)制定的,如果承認(rèn)人工智能擁有主體地位,其現(xiàn)有體系基本要全面修改,變化參考系,最起碼要將人工智能作為參考系,那就會(huì)導(dǎo)致新的法秩序的形成,原有法秩序的瓦解。學(xué)者們對(duì)非人類構(gòu)建的法秩序中相關(guān)法律問題的研究基本是以空想為基礎(chǔ),缺乏現(xiàn)實(shí)意義。

概言之,法是人的意志的表達(dá),所以法是按照人的意志構(gòu)建的。在人工智能與人的關(guān)系中,人的意志或意圖已經(jīng)決定了人工智能的地位——法律關(guān)系的客體。從性質(zhì)而言,人工智能與其他工具一樣,都是具有一定功能,能滿足人類的某種需要,工具性是他們共同的特征,只是性能與重要性上的區(qū)分。人類制造人工智能的意圖是明確的,就是掌控并利用它為人類服務(wù)。人工智能的發(fā)展也是以人類自身的發(fā)展提高為前提的,人工智能所獲得的基本能力與所謂的自身的升級(jí)提高都是以人類的設(shè)計(jì)、制造為基礎(chǔ)的,哪怕是出現(xiàn)了超出人類控制能力的人工智能,人類制造的出發(fā)點(diǎn)也是要掌控它,為自己所用。所以,人類利用人工智能,將其作為最有用的工具的意圖是不會(huì)改變的。簡(jiǎn)而言之,在社會(huì)生活中,人類與人工智能的關(guān)系是制造者與被制造者,利用者與被利用者的關(guān)系,這與其他工具與人類的關(guān)系是相同的。人工智能無(wú)論其多么智能化,在人類社會(huì)中發(fā)揮著多么重要的作用,其本質(zhì)是無(wú)法改變的——人類不斷進(jìn)化的工具。因此,人類從自身的利益出發(fā),無(wú)論人工智能如何發(fā)展,最符合人類意志的關(guān)系是人與工具的關(guān)系,這是人類發(fā)明人工智能的本意。在現(xiàn)有的法秩序下人類是構(gòu)建者,人工智能即使擁有較高的能力,包括思考能力,但是能否獲得人格是需要法律的確認(rèn)的,而法律是否確認(rèn)人工智能的人格取決于法律構(gòu)建者——人的意志。人作為法律秩序的構(gòu)建者,為維護(hù)對(duì)自己有利的秩序與社會(huì)分工,必然也會(huì)排除人工智能獲得主體地位的可能性。

三、刑事立法的包容與延展:對(duì)人工智能刑事責(zé)任主體化資格問題的再思考

有的學(xué)者預(yù)測(cè)人工智能將來(lái)在智力方面有可能超越人類,甚至能控制人類,所以從能力角度應(yīng)該具有主體地位,乃至有學(xué)者認(rèn)為“從人工智能的發(fā)展態(tài)勢(shì)看問題,人工智能將來(lái)會(huì)具有像人那樣甚或超過人的犯罪能力,故一旦承認(rèn)人工智能的犯罪主體地位,則將出現(xiàn)人工智能統(tǒng)治人甚至消滅人的局面或悲劇,故人工智能的犯罪主體化不是‘能與不能的問題,而是‘應(yīng)不應(yīng)該的問題”。⑦ 從人工智能的發(fā)展趨勢(shì)角度看,存在此種擔(dān)憂是合理的,而從法律角度來(lái)看這一科技發(fā)展趨向予以觀省則會(huì)得知,人與人工智能是否都應(yīng)該具有主體地位關(guān)鍵不在于誰(shuí)更聰明,而在于誰(shuí)擁有了立法的主導(dǎo)權(quán),而并非所謂的認(rèn)知、思考能力。人類擁有按自己意愿構(gòu)建法秩序的能力時(shí),便擁有獨(dú)一無(wú)二的主體地位;一旦喪失了這種能力,而被人工智能所取而代之時(shí),不是要不要給人工智能法律主體地位,而是在新構(gòu)建的法秩序中,人處于什么樣的地位的問題——只是這種假設(shè)已經(jīng)超出了我們探討此問題的基本社會(huì)背景。人工智能是否能主體化要在現(xiàn)有法秩序的框架下探討,而在現(xiàn)有的法秩序框架下,人類依然是法秩序的構(gòu)建者、主導(dǎo)者,是按人類所擁有的物質(zhì)生活條件及意圖所形成的法體系。人工智能只是體現(xiàn)了社會(huì)生活某些方面的變化,使人類無(wú)論是出于主動(dòng)也好被動(dòng)也罷,從立法的應(yīng)然性出發(fā)要作出的適當(dāng)調(diào)整,但是人類作為主導(dǎo)者構(gòu)建法秩序的實(shí)質(zhì)是沒有改變的。如果人工智能在智力方面已經(jīng)超越人類,實(shí)際上探討的范圍或基礎(chǔ)已經(jīng)發(fā)生實(shí)質(zhì)的改變,法秩序的構(gòu)建者可能已經(jīng)轉(zhuǎn)變?yōu)槿斯ぶ悄?,或者最起碼人類不是唯一的主導(dǎo)者,不具有絕對(duì)的話語(yǔ)權(quán),在此種情況下問題已經(jīng)不是探討人工智能是否可以犯罪主體化了,而是由誰(shuí)來(lái)構(gòu)建法秩序框架,人類在新的法秩序中已經(jīng)轉(zhuǎn)化為何種身份的問題。進(jìn)一步說(shuō),刑事立法的容納性否定了人工智能主體化的必要性。人工智能主體化之所以被提及是因?yàn)橛行W(xué)者擔(dān)憂在將來(lái)因?yàn)槿斯ぶ悄懿痪哂兄黧w資格而導(dǎo)致刑事責(zé)任的追究難以實(shí)現(xiàn),這種觀點(diǎn)一方面過于強(qiáng)調(diào)人工智能的特殊性,而在另一方面也低估了既有刑法體系的適應(yīng)性,以人工智能對(duì)犯罪問題的影響,現(xiàn)有刑事立法可以完全容納,合理解決。

在人工智能時(shí)代背景下的刑事立法的適用性與適應(yīng)性表現(xiàn)在其包容與延展上。首先,從包容層面看,刑事立法責(zé)任主體的全面性有效解決了責(zé)任追究問題。人工智能的出現(xiàn)與發(fā)展引發(fā)了對(duì)立法與司法問題的思考是必然的,但也不能貿(mào)然對(duì)此作出一些過度反應(yīng)。人工智能犯罪主體化爭(zhēng)論的一個(gè)原因在于,有的學(xué)者擔(dān)憂今后人工智能引發(fā)刑事犯罪的復(fù)雜性導(dǎo)致如果人工智能不能成為責(zé)任主體,可能帶來(lái)刑事責(zé)任追究的困難,其實(shí)這種擔(dān)憂在某種程度上講是不必要的,刑事立法的體系設(shè)計(jì)所帶來(lái)的容納功能就能解決該問題。一是現(xiàn)有刑事法律關(guān)系的參與者在刑事立法中的規(guī)定是明確的、全面的。法律責(zé)任的實(shí)現(xiàn)要以法律所確認(rèn)的法律關(guān)系參與者的合理設(shè)定為前提。目前刑事立法對(duì)制造者、使用者、銷售者與設(shè)計(jì)者都規(guī)定了相應(yīng)的責(zé)任認(rèn)定標(biāo)準(zhǔn),人工智能與這些主體的關(guān)系就性質(zhì)而言與一般產(chǎn)品或工具與主體的關(guān)系的性質(zhì)是相同的,只是性能的高低不同,原有的相關(guān)刑事責(zé)任模式可解決責(zé)任追究問題,人工智能涉及的法律關(guān)系的主體已全面覆蓋,不會(huì)出現(xiàn)因主體缺乏而導(dǎo)致刑事責(zé)任難以追究的狀況。二是從延展層面看,刑事立法關(guān)于犯罪對(duì)象及方式的規(guī)定可以解決人工智能作為工具而涉及的刑事法律問題。雖然新的技術(shù)的產(chǎn)生對(duì)刑事立法會(huì)產(chǎn)生影響,比如計(jì)算機(jī)技術(shù)不斷影響犯罪圈的變化,甚至影響犯罪工具的界定,使刑法不斷加入新的元素,人工智能作為特殊的工具,對(duì)犯罪的影響會(huì)導(dǎo)致犯罪方式的復(fù)雜化與多樣化。但是,與人工智能相關(guān)的犯罪絕大多數(shù)都不涉及原有行為性質(zhì)的改變,不需要產(chǎn)生新的罪名,少數(shù)因?yàn)樾袨榉绞降母淖兌赡軙?huì)產(chǎn)生罪名的變化,但是這都不涉及人工智能法律地位的改變,責(zé)任的追究不是以人工智能犯罪主體化為前提實(shí)現(xiàn)的。與人工智能類似的這種情況其實(shí)在刑法適用過程中也是比較多的,比如出現(xiàn)新的網(wǎng)絡(luò)犯罪雖然其犯罪的手段、地點(diǎn)與傳統(tǒng)的犯罪不同,尤其是技術(shù)含量增高,但它依然適用已有的法律規(guī)定,主要是因?yàn)槠浠拘再|(zhì)界定沒有改變,刑法體系內(nèi)已有的責(zé)任架構(gòu)能完全解決該問題。

以科技的發(fā)展為切入點(diǎn)探討人工智能刑事責(zé)任主體化問題值得商榷。將法律界定建立在以想象為基礎(chǔ)的科技發(fā)展?fàn)顩r上有違立法的基本原則,不以現(xiàn)有的法秩序的框架為前提的探討超出了研究的合理范圍。有些學(xué)者設(shè)想人工智能超越人類思維時(shí)人類必須主動(dòng)應(yīng)變,在法律層面通過在某種程度上承認(rèn)或認(rèn)可人工智能的主體地位以應(yīng)對(duì)人工智能時(shí)代所帶來(lái)的新變化,這種應(yīng)變策略缺乏對(duì)刑事立法的包容與延展。在現(xiàn)有法秩序框架下,要重新審視以“人”的法律構(gòu)建者的主導(dǎo)地位為基礎(chǔ)界定人工智能與“人”的關(guān)系——這也許才是破解人工智能刑事責(zé)任主體資格問題爭(zhēng)議的關(guān)鍵所在。

注釋:

① 劉憲權(quán):《人工智能時(shí)代的刑事風(fēng)險(xiǎn)與刑法應(yīng)對(duì)》,《法商研究》2018 年第1期。

② 馬榮春、桑恬:《人工智能犯罪主體化否定論》,《山東警察學(xué)院學(xué)報(bào)》2021年第1期。

③④ 劉憲權(quán):《人工智能時(shí)代的“內(nèi)憂”“外患”與刑事責(zé)任》,《東方法學(xué)》2018年第1期。

⑤ 儲(chǔ)陳城:《人工智能時(shí)代刑法的立場(chǎng)和功能》,《中國(guó)刑事法雜志》2018年第6期。

⑥ 皮勇:《人工智能刑事法治的基本問題》,《比較法研究》2018年第5期。

⑦ 轉(zhuǎn)引自馬榮春、桑恬:《人工智能犯罪主體化否定論》,《山東警察學(xué)院學(xué)報(bào)》2021年第1期。

作者簡(jiǎn)介:劉瑞瑞,上海政法學(xué)院警務(wù)學(xué)院教授,上海,201701。

(責(zé)任編輯? 南? 村)

猜你喜歡
責(zé)任主體智能化人工智能
一種智能化移動(dòng)學(xué)習(xí)系統(tǒng)的設(shè)計(jì)思考
智能化儀器儀表的翻轉(zhuǎn)課堂設(shè)計(jì)
基于Moodle平臺(tái)的語(yǔ)文閱讀教學(xué)“智能化模式”初探
基于Moodle平臺(tái)的語(yǔ)文閱讀教學(xué)“智能化模式”初探
2019:人工智能
人工智能與就業(yè)
數(shù)讀人工智能
版權(quán)公有領(lǐng)域侵權(quán)責(zé)任主體范圍研究
論東北老工業(yè)基地全面振興中的軟環(huán)境建設(shè)與優(yōu)化策略
對(duì)無(wú)過錯(cuò)責(zé)任原則的再思考