国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

AI刑事責任主體否定論的法理與哲理證成
——兼論“人”是什么

2020-12-13 07:01馮文杰李永升
關鍵詞:法益刑法主體

馮文杰,李永升

(1.東南大學 法學院,江蘇 南京 211189;2.西南政法大學 法學院,重慶 401120)

一、問題的由來:AI刑事責任主體論的興起

近年來,人工智能(以下簡稱為AI)刑事責任主體問題逐漸興起,無論贊同還是反對,這都已經(jīng)成為刑法學者不得不認真對待的問題。毋庸置疑,若強AI產(chǎn)品能夠出現(xiàn),“面對研發(fā)和使用人工智能程序中研發(fā)者和使用者實施的或者智能機器人超越人類智慧獨立實施的嚴重危害社會的犯罪行為,刑法絕對不應該無動于衷甚至束手無策”[1]。劉憲權(quán)教授從不同的視角,依據(jù)不同的論據(jù),提出了一些值得深思的結(jié)論:刑法學必須拋開以往的成見或偏見,正面應對AI刑事責任主體問題,將強AI產(chǎn)品作為適格的刑事責任主體。因為強AI產(chǎn)品在自主意志支配下實施不在人類設計和編制的程序范圍內(nèi)的“犯罪行為”時,實現(xiàn)的是自身意志,而非研發(fā)者等人的意志,這與一般的具有刑事責任能力的人實施犯罪行為的情形并無不同,故而應賦予強AI產(chǎn)品刑事責任主體地位。強AI產(chǎn)品也可能“與自然人責任主體、其他強人工智能產(chǎn)品構(gòu)成共同犯罪,針對強人工智能產(chǎn)品的犯罪,有必要在刑法中增設刪除數(shù)據(jù)、修改程序、永久銷毀等刑罰種類”[2]。與之相反,時方博士指出,從意志自由、刑罰目的及法人特殊的運作機理等方面而言,AI刑事責任主體肯定論難以成立[3]。其結(jié)論無疑是合理的,但其忽視了AI刑事責任主體肯定論的強AI產(chǎn)品刑事責任主體地位這一特殊語境,由此而來的批判稍顯不足,有必要對其進行法理與哲理證成。更為重要的問題在于,AI機器人是否能夠擺脫人類控制自主實施法益侵害行為?如果不能解決這個技術性問題,則所謂的刑事對策很可能屬于“無病呻吟”;反之,則當前的刑事對策就屬于高瞻遠矚的未雨綢繆。AI產(chǎn)品通過人工賦予的“學習”生成并不斷更新?lián)Q代,機器學習是典型的數(shù)據(jù)驅(qū)動的思維方式:從數(shù)據(jù)出發(fā),通過各種計算方法來理解數(shù)據(jù),并建立適當?shù)乃惴P鸵哉蠑?shù)據(jù),從而得出結(jié)論。當前具有自由意志的強AI產(chǎn)品尚未出現(xiàn)①當前學界將AI產(chǎn)品劃分為不同類型,有三分法與兩分法之爭。三分法認為,AI產(chǎn)品有弱AI產(chǎn)品、強AI產(chǎn)品及超AI產(chǎn)品;二分法認為,AI產(chǎn)品有弱AI產(chǎn)品與強AI產(chǎn)品。不論是兩分法還是三分法,區(qū)分的基本標準都是AI產(chǎn)品是否具有自主意識、是否能夠自主實現(xiàn)意志。鑒于當前刑法學界的主流觀點是兩分法,且只要合理認知劃分標準,則兩分法與三分法對于解決刑法問題并無重要差異,故而本文堅持兩分法。,能夠自主實施法益侵害行為的強AI產(chǎn)品更未出現(xiàn)。

早在2001年,張保生教授就指出,人—機系統(tǒng)聯(lián)合方案立足于人與機器的功能互補,目的是打破對于人的自由而全面的發(fā)展的束縛,并服務于國家治理功能的優(yōu)化[4]。毫無疑問,人類發(fā)展AI技術的目的應當是實現(xiàn)人類自由而全面的發(fā)展。在新事物產(chǎn)生之前,當前學界本著負責之心對其可能出現(xiàn)的刑事風險展開規(guī)制措施研究,有一定的必要性。但若研討的刑事問題及對策沒有法理與哲理支撐,則往往不為公眾所認同。具體而言,AI產(chǎn)品是否能夠作為刑事責任的歸責主體,這一問題方興未艾;若無法合理解決之,則由之衍生的許多問題皆不能被妥善解決。故而本文特就這一問題展開反思性的法理與哲理分析,進而合理解決AI刑事責任主體肯定論提出的具體問題,確立一種合理的“人”論,從而促使AI技術應用在一個理性的路徑上健康、有序發(fā)展。

二、AI刑事責任主體否定論的法理與哲理證成

針對AI產(chǎn)品是否能夠成為刑事責任主體,當前學界形成了針鋒相對的肯定論與否定論??隙ㄕ摰囊娊怆m不乏真知灼見,但隱藏著將問題縹緲化、對策簡單化及法理忽視化的問題之虞。當前的否定論的見解雖有讓人贊賞之處,但有忽視肯定論的具體語境問題而稍顯批判力不足之虞,應對其進行法理與哲理證成。

1.針鋒相對:AI刑事責任主體論的正反聚訟

總體而言,AI刑事責任主體肯定論認為,應將強AI產(chǎn)品作為適格的刑事責任主體,將弱AI產(chǎn)品作為輔助人實施法益侵害行為的工具。因為第一,強AI產(chǎn)品能夠依靠對于外在事物的認識及評價控制自身行動,當其為實現(xiàn)自身意志而自主實施犯罪行為時,應當受到相應的刑罰懲罰,由此能夠?qū)夾I產(chǎn)品作為刑事責任主體。第二,強AI產(chǎn)品能夠“獨立”實施法益侵害行為,這是以刑法規(guī)制其行為的基本前提,因為“無法益侵害,則無犯罪行為”。第三,相較于動物與單位而言,強AI產(chǎn)品與自然人的實質(zhì)相似程度相當高,應當對其自身的所作所為承擔相應責任[5]。第四,既然強AI產(chǎn)品能夠自主實施犯罪行為,則必須堅持罪責自負原則,對其進行刑事規(guī)制,否則,即違背了罪責自負原則。第五,強AI產(chǎn)品與人一樣,二者都具有理性,即“用智識理解和應對現(xiàn)實的(有限能力)”[6]。第六,強AI產(chǎn)品的出現(xiàn)不是天方夜譚,而是有著充分科學依據(jù)的。換言之,科技能夠?qū)崿F(xiàn)強AI產(chǎn)品的生產(chǎn)[7]。肯定論主張的諸如強AI產(chǎn)品具有理性等支撐理由奠基于強AI產(chǎn)品具有自由意志之上。由此可見,肯定論的立證之基是強AI產(chǎn)品具有自由意志。若要以直接反駁方法駁倒其結(jié)論,則需從否定強AI產(chǎn)品具有自由意志展開;若要以間接反駁方法駁倒其結(jié)論,則需從反駁其具體刑事規(guī)制措施展開。

大體而言,當前的AI刑事責任主體否定論認為,不應賦予AI產(chǎn)品以刑事責任主體地位,應將其作為能夠為人利用而實施法益侵害行為的工具。因為其一,弱AI產(chǎn)品不具有自由意志,仍屬于能夠為人利用而實施法益侵害行為的輔助工具。其二,所謂的強AI產(chǎn)品具有自身的自主意識和意志之論屬于偽科學,不具有現(xiàn)實可能性,由此無法將其作為刑事責任主體[3]。其三,所謂的強AI產(chǎn)品尚未出現(xiàn)。雖然“未來已來,但不是說來就來”[8]。當前應當腳踏實地地研究具有現(xiàn)實性的問題,比如由自動駕駛衍生出的過失犯認定問題,還比如由AI產(chǎn)品“生產(chǎn)”的詩歌、小說等事物是否能夠被認定為著作權(quán)法上的作品問題,再比如如何提高AI輔助量刑系統(tǒng)精準度的問題,不宜研究過于縹緲的問題。由此可見,當前的否定論主要是以直接反駁方法反駁肯定論的,立論之基為AI產(chǎn)品不具有自由意志,科技不可能生產(chǎn)出強AI產(chǎn)品。

無論是肯定論還是當前的否定論,都認為弱AI產(chǎn)品不具有自由意志,無法作為刑事責任主體,只可能作為人或單位(在單位犯罪中,具體實施法益侵害行為的主體仍然是人)實施法益侵害行為的輔助工具。針對AI刑事責任主體肯定論,當前的否定論的反駁雖已相當有力,但有忽視肯定論的具體語境問題而稍顯批判力不足之虞,且尚有一些值得深究之處:其一,如何針對肯定論基于AI技術發(fā)展的設想進行反駁;其二,如何針對肯定論提出的“增設刪除數(shù)據(jù)、修改程序、永久銷毀等刑罰種類”的規(guī)制措施進行反駁;其三,能否在哲理上反思肯定論的背后體現(xiàn)出何種“人論”,其是否合理;若不合理,則人們應當堅持何種“人論”,從而合理認知AI刑事責任主體問題。

2.直接反駁之具體展開

應當認為,強AI產(chǎn)品不具有自由意志,不宜被作為刑事責任主體對待。從直接反駁角度而言,主要從如下四個方面展開。

第一,肯定論以AI機器人可以在技術和專業(yè)知識的幫助下獲得“道德”為例,證明AI產(chǎn)品可以成為具有自主意識的強AI產(chǎn)品。具體而言,人的道德暨善惡觀念由來源于后天的自身實踐感悟和他人的培養(yǎng),而不是一種生來即有的意識。經(jīng)過AI、腦神經(jīng)科學等技術的智能化“訓練”后,AI機器人能夠具有道德上的善惡觀念。此外,雖然當前的AI機器人尚未具有道德觀念,但將來的AI機器人能夠具有道德觀念。何況人們需要AI機器人能夠具有道德觀念,從而更好地服務于人們的生活。比如家庭服務型機器人在照看幼兒及服務家庭成員的工作過程中,需要認知傷害與救助、打掃家務與清除垃圾等活動的各自內(nèi)涵;否則,難以服務好人們的生活[9]。論者的觀點有所不當。其一,應當認為,若要使AI機器人能夠更好地造福于人類生活,則必須使其盡可能以“自然法”要求的方式實施行動。但即使人類通過AI等技術的應用,使其具有作出符合法律要求的行動的功能。這也僅僅意味著,其具有由大數(shù)據(jù)圖像、語音、語義識別等技術賦予的“他律”行動功能,卻無法實施“自律”行為。其二,部分肯定論者承認,AI機器人的“道德是基于數(shù)據(jù)和算法的線性‘思維’形成的”[10]。換言之,人們“給人工智能系統(tǒng)設定一套代碼形式的價值觀”[11],以使得AI機器人的行動選擇結(jié)果不致偏離基本善惡觀。既然是這樣的一種事物,就無必要稱其具有道德觀念,其僅僅具有人類通過數(shù)據(jù)分析與算法改進等技術賦予的行動選擇功能,難以認為這樣一種功能是道德觀念的象征。其三,論者存在混淆“需要”與“現(xiàn)實”之虞。雖然人們不僅需要AI機器人能夠區(qū)分傷害與救助、打掃家務與清除垃圾等活動的不同內(nèi)涵,且需要其具有善良的道德觀念,從而能使其更好地服務于人們的生活,但僅僅根據(jù)“需要”不能產(chǎn)生“現(xiàn)實”,這是兩個不同的范疇。論者存在以人們需要AI機器人具有道德觀念推導出其能夠具有道德觀念的問題之虞。應當認為,即使AI機器人在外在上能夠區(qū)分善惡觀念,也不代表其在內(nèi)在上具有了道德觀念。

第二,雖然強AI產(chǎn)品在表象上可以作出法益侵害行為,但對此必須區(qū)分不同情形進行審慎分析,否則,難免有以偏概全之虞。首先,刑法中的行為不是指任何表象世界中的活動,而是經(jīng)一定價值判斷后所厘定的特殊行為,即“行為主體實施的客觀上侵犯法益的身體活動”[12],比如動物的襲打行為不是刑法意義上的行為,還比如惡劣天氣產(chǎn)生的雷擊活動也不是刑法意義上的行為。刑法中的行為主體僅僅包含自然人,單位與自然人構(gòu)成了刑法上的歸責主體。刑法能夠?qū)挝贿M行刑事歸責的客觀依據(jù)是,單位是由諸多自然人組成的聯(lián)合體,單位犯罪實際上是由自然人具體實施的。故而必須是適格的行為主體實施的法益侵害行為才會被作為刑法上的行為。其次,當強AI產(chǎn)品實施法益侵害活動是由于受到自然人或單位的控制時,這種活動才能夠因附著于自然人或單位而被作為刑法上的行為。換言之,這種行為事實上是相關自然人或單位的行為,刑事歸責主體也不是強AI產(chǎn)品,而是相關的自然人或單位。當強AI產(chǎn)品并未受到任何適格刑事責任主體的控制而自主實施法益侵害活動時,必須在查明原因后進行合理評價,原因無外乎兩種:其一,技術人員等相關主體的過失。其二,完全是被害人的行為導致了強AI產(chǎn)品的誤解。當原因為“其一”時,強AI產(chǎn)品的行為是刑法上的行為,必須依據(jù)過失犯的歸責原理認定相關技術人員等是否構(gòu)成相應的過失犯罪;當原因為“其二”時,強AI產(chǎn)品的行為不是刑法上的行為,為了避免類似事故的再次發(fā)生,必須由相關技術人員改進技術[13]。最后,肯定論以強AI產(chǎn)品能夠自主實施法益侵害行為為由,認為這是必須賦予強AI產(chǎn)品刑事責任主體地位的一個條件之說,顯然是未深入地區(qū)分不同類型的結(jié)果,有所不當。

第三,肯定論認為,科技發(fā)展必將促成具有自由意志的強AI產(chǎn)品的出現(xiàn),甚至認為在未來10年至20年間便能夠成功[7]。不得不說,這一結(jié)論為時過早。依照當前AI技術界的通說而言,這一結(jié)論并不客觀。當前受制于技術等條件的限制,AI技術發(fā)展遭遇了一些尚無法克服的瓶頸。美國國家科技委員會認為,強AI產(chǎn)品在未來數(shù)十年都難以出現(xiàn)。數(shù)百名世界頂尖AI專家認為,人類級別的AI產(chǎn)品暨強AI產(chǎn)品的出現(xiàn)至少需要等到2040年[14]?!癆I之父”阿蘭·圖靈在1936年提出了“圖靈機”設想,由此在數(shù)理邏輯上為計算機技術的創(chuàng)新發(fā)展作出了新的嘗試,并在1950年提出了“圖靈測試”:若一臺機器能夠與人類展開對話且不能被辨別出其機器身份,則這臺機器就是智能的。其實,即使“圖靈測試”成功,也僅僅證明了AI機器人的研發(fā)將仿生學運用得相當精湛,難以由此認為這種AI機器人具有自由意志[15]。AI本身是一個模擬人類能力和智慧行為的跨領域?qū)W科,涉及到諸如計算機科學、大數(shù)據(jù)分析、算法、語言學、仿生學、神經(jīng)生理學等多個領域。若人類在上述領域無法取得突破性進展,則AI技術必將難以實現(xiàn)突破性發(fā)展。換言之,“人工智能的一些領域似乎特別具有挑戰(zhàn)性,如語言、創(chuàng)造力和情感。如果人工智能不能模擬它們,要實現(xiàn)強人工智能就好似做白日夢”[16]。當前任何一臺按照現(xiàn)有方式加以編程的計算機都無法完成“全面模擬人類的心智”這項任務,因為其沒有人腦所特有的“意識”(awareness)。英國物理學家彭羅斯由此認為,無論是“強AI概念”還是“弱AI概念”,都已遠遠高估了AI技術的發(fā)展?jié)摿?應當以“更弱AI概念”描述當前的AI技術[17]。此外,當前對于AI技術的應用皆指向工具范疇,并未顯現(xiàn)涉及刑事責任主體問題的可能。毋庸置疑,以現(xiàn)在預測未來總是困難重重,因為以現(xiàn)在否定未來總會給人以若干詬病。但從目前的技術及肯定論的支撐理由而言,所謂的強AI產(chǎn)品的出現(xiàn)之論不具有現(xiàn)實基礎。

某種科學的出現(xiàn)需要一定的客觀基礎,如果這種科學的實現(xiàn)根本不具有現(xiàn)實可能性,則人類大可不必相信其會成為現(xiàn)實。譬如人類希冀“長生不老”,但“細胞的分裂是有極限的,不可能使人的生命永存”[18],這種希望至多只是一種美好愿望而已。法律人不會研究這一問題:如果人類實現(xiàn)了“長生不老”的愿望,則應當適用何種刑罰措施規(guī)制其法益侵害行為?!叭绻麤]有特定的價值秩序基礎,把什么行為都認為是正確的,那么法律是不可能存在的。”[19]因為“如果一種法律沒有規(guī)則或者其規(guī)則未得到有序的遵循,那么這種法律就不能成為我們所了解的那種法律制度。它是一種隨意決斷的非正式的‘制度’”[20]。法律不存在的后果必然是社會的混亂不堪,并使其成為個人與個人之間的戰(zhàn)爭的社會。應當相信具有自由意志的強AI產(chǎn)品不可能出現(xiàn)。即使出現(xiàn)了比弱AI產(chǎn)品更“強”一些的強AI產(chǎn)品,后者仍不具有自由意志,僅僅是前者的升級版,即在“深度學習”“決策判斷”“智慧模擬”等方面能力更高一些。對于由強AI產(chǎn)品衍生的刑事風險而言,宜在堅持故意與過失二分法的情形下進行具體判斷。一方面,不具有故意的強AI產(chǎn)品研發(fā)者和使用者可能觸犯相關過失犯罪,應在明晰技術水平的前提下,審慎考量信賴原則、預見可能性等刑法原理,若相關責任主體的行為符合相應過失犯罪的具體規(guī)定,即以相關過失犯罪定罪量刑即可;另一方面,若自然人或單位積極利用或負有作為義務的相關責任主體容忍強AI產(chǎn)品實施法益侵害行為,則依照規(guī)范與事實的對應原理,將目光在法規(guī)范與案件事實之間循環(huán)往返,以相應故意犯罪對責任主體進行定罪量刑即可。由此可見,刑事責任的承擔主體仍然是相關責任人,而非強AI產(chǎn)品。此外,域外相關立法也贊同上述結(jié)論,比如歐洲議會在《機器人民法規(guī)范》中認為,“至少在現(xiàn)階段,責任必須由人而不是機器人承擔”[21]。

第四,肯定論認為,可以設置刪除數(shù)據(jù)、修改程序、永久銷毀等刑罰措施對強AI產(chǎn)品自主實施的值得刑法處罰的法益侵害行為進行規(guī)制。這種觀點雖不乏啟示作用,但仍有所不當。因為即使強AI產(chǎn)品能夠在外在上展示一種痛苦感受,也不意味著其具有如人一般的心理感受。何況上述痛苦感受僅僅是由相關技術人員通過多種技術所賦予的,強AI產(chǎn)品只是由一堆機器部件和編制程序組成的智能體。刑罰的本質(zhì)是一種伴有痛苦性的權(quán)益剝奪的報應,沒有痛苦性權(quán)益剝奪的措施無法被稱之為刑罰措施[22]。普羅大眾既不會相信上述“刑罰”的施加,能夠造成強AI產(chǎn)品有類似于人的痛苦感受,也不會認可上述所謂的“刑罰”能夠被稱之為真正的刑罰措施。如此一來,施加上述“刑罰”不僅無法取得公眾認同的效果,且很可能造成公眾質(zhì)疑司法不公正的結(jié)果[23]。當前的AI產(chǎn)品無法理解自身的程序預設目標之外的意義或價值,比如在AI技術應用較為成熟的自動駕駛領域,自動駕駛系統(tǒng)僅僅能夠根據(jù)對具體環(huán)境的感知,按照預設程序發(fā)出的指示作出行動,無法作出自動駕駛系統(tǒng)中的預設程序之外的行動。同時,人們在駕駛裝載了自動駕駛系統(tǒng)的車輛時,對于系統(tǒng)本身的感知和反饋模式擁有絕對控制權(quán)。由此可見,AI產(chǎn)品并無自主行動功能,僅僅具有工具屬性。此外,對于AI產(chǎn)品實施的法益侵害行為,在其他部門法尚未展現(xiàn)系統(tǒng)的規(guī)制措施時,刑事法學者便倡導由刑法進行規(guī)制,有違刑法謙抑性原則(輔助性的法益保護原則)。因為刑法是最為嚴厲的懲罰法,不能動輒以刑事手段懲罰法益侵害行為,“只有更為緩和的國家手段(像民事制裁、公法上的禁令、運用違反秩序法或其他社會政策性措施),無力維護和平和自由的時候,才允許刑法的介入”[24]。

3.間接反駁之具體展開

如果僅僅以直接反駁方法反駁肯定論,肯定論可能繼續(xù)反駁稱,否定論的反駁與其闡述的觀點不在同一語境內(nèi),由此勢必降低否定論的說服力。基于此,以下從間接反駁角度對肯定論進行反駁。

其一,肯定論提出賦予強AI產(chǎn)品刑事責任主體地位觀點的基本前提是,強AI產(chǎn)品“不可控制”[25],這有所不當。如果強AI產(chǎn)品給人類帶來的是無法逆轉(zhuǎn)的滅絕性結(jié)果,則有必要像“禁止克隆人”一般禁止相關技術人員再對其進行研究與生產(chǎn)。若要使得肯定論的觀點合理化,則其認定的基本前提應當是,上述僅僅帶給人類滅絕性結(jié)果的強AI產(chǎn)品不會出現(xiàn),出現(xiàn)的僅僅是偶爾自主實施嚴重法益侵害行為的強AI產(chǎn)品,且這種法益侵害結(jié)果必須能夠為人類所控制。因為首先,人類從事物質(zhì)活動和精神活動的首要目的是生存,沒有生存,其他一切便失去了必要基礎。如果強AI產(chǎn)品的出現(xiàn)將給人類帶來滅絕性結(jié)果,則人類必將反對生產(chǎn)這種產(chǎn)品。其次,雖然人類在生產(chǎn)強AI產(chǎn)品時,可能無法預料這種強AI產(chǎn)品是否將帶給人類滅絕性結(jié)果,但若這種給人類帶來滅絕性結(jié)果的強AI產(chǎn)品出現(xiàn),則人類必將走向滅絕,繼續(xù)談論刑事規(guī)制措施便沒有了必要性。因為即使制定了應對的刑事規(guī)制措施,也無法具體實施。最后,對于強AI產(chǎn)品具有自主意識這一觀點,雖然無論相信還是反對,都只是一種猜測,并無絕對的對錯之分,僅僅有合理與否之分,但強AI產(chǎn)品必須能夠為人所控制,否則,談論刑事規(guī)制措施便無意義。此外,設置“刪除數(shù)據(jù)、修改程序”的刑罰措施證明了,在肯定論看來,強AI產(chǎn)品仍然是可以被人控制的,這便與其邏輯上的“不可控制”出現(xiàn)了相矛盾之處,而“在追求真理的主張和理論中,矛盾是一種致命的缺陷”[26]。由此可見,肯定論對于基本前提的界定有所不當,難以使人相信其刑事規(guī)制措施具有充分的合理性。

其二,如果強AI產(chǎn)品完全不受人類的控制,自主攻擊人類所不允許傷害的物體,則人類可以、且應當直接將其消滅,沒有必要設置刪除數(shù)據(jù)、修改程序、永久銷毀等刑罰種類。這類似于戰(zhàn)場上的對我雙方,處于你死我活之狀態(tài),沒有中間道路可走。換言之,這樣的強AI產(chǎn)品已經(jīng)不是“人民”,而是“人民”的“敵人”,對待戰(zhàn)場上的敵人的方法應是徹底征服,設置刑事程序既無必要,也會造成行動受困的不力結(jié)果。此外,肯定論提出的刑罰措施中的“永久銷毀”本身就是一種直接消滅強AI產(chǎn)品的應對對策,而不宜稱之為一種刑罰措施。

其三,即使人類通過諸多技術的改進及應用,使得強AI產(chǎn)品能夠在外在上發(fā)出痛苦狀的撕裂聲,也難以由此認為應當為其設置“刪除數(shù)據(jù)、修改程序、永久銷毀”的刑罰措施。有理由相信公眾不能接受這樣的刑罰措施可以稱之為真正的刑罰措施。同時,如此設置刑罰措施存在過于簡單化之嫌。比如強AI產(chǎn)品自主實施法益侵害行為后,對于被害人的賠償如何進行,這一問題并未解決。由這種強AI產(chǎn)品衍生出一系列沖擊現(xiàn)有司法制度的問題,并未被肯定論所解決,比如被害人是否相信自己有必要“諒解”強AI產(chǎn)品等問題。

三、“人”意宣示:AI刑事責任主體問題的背后

AI刑事責任主體肯定論與當前的AI刑事責任主體否定論的聚訟點在于強AI產(chǎn)品是否具有自由意志,雙方爭論的背后忽視了對于“人”的考察。如果不懂得“人”意為何,則勢必無法從哲理上廓清AI刑事責任主體論的認知障礙?;诖?以下展開對于“人”意的哲理分析。

針對“人”是什么這一問題,雖然古今中外的哲人思來想去,但當前尚無統(tǒng)一答案。對于某個事物,作出概念上的定義本身就是困難的,因為概念思維總是存在著某些漏洞[27],何況要對世間最為“深不可測”的“人”作出定義,就更是難上加難。蘇格拉底認為,“人是一個對理性問題能給與理性回答的存在物”[28]。但理性是一個含義雋永之詞,其往往帶來標準的模糊不清,且“理性不足以讓人理解人類文化生活形式的全部豐富性和多樣性,或者說,不足以表征這種豐富性和多樣性的統(tǒng)一性”[29];故而不宜將人界定為理性的存在物?;诖?卡西爾將人界定為“可以利用符號去創(chuàng)造文化的動物”[30]。這種定義仍然顯得較為模糊不清,因為“符號”“文化”本身就是一些歧義橫生的語詞。人區(qū)別于其他動物的顯著特征在于,前者不僅具有后者所具有的感受及效應系統(tǒng),且具有后者所不具有的符號系統(tǒng)。由此亞里士多德認為,人是一種能夠依靠語言表達價值觀念而優(yōu)越于其他動物的政治動物[31]。雖然人類語言和動物語言都具有自我表達與發(fā)出信號這兩種較低級的語言功能,但人類語言更為高級的地方在于,其具有描述符合于事實的觀念的描述功能與對描述本身加以批判、反思的論證功能[32]。在這個意義上而言,人不同于動物。此外,人優(yōu)越于其他動物的依據(jù)不僅僅在于,人知曉憑借語言符號進行價值意義上的交流與溝通;且在于,人知曉運用主觀能動性獲得身體支配能力和精神生活水平的提高。故而亞里士多德對于人的界定有所不當。從比較角度而言,卡西爾和亞里士多德對于人的界定都是站在功能論角度而言的,而非站在本體論角度而言的[33]。但僅僅在功能論意義上對人進行界定,并不合理,因為人不僅具有多種功能,且人首先是目的。由此可見,功能論層面的“人”意界定不僅失之于片面性,且忽視了對于人是目的這一視角的分析。

鑒于我國深受馬克思主義的影響,對于“人”是什么這一問題,有必要考察馬克思主義的觀點。馬克思主義認為,人是一種具有主觀能動性的動物,人的本質(zhì)是社會關系的總和。AI產(chǎn)品本質(zhì)上是人的工具,即人的器官的延伸,故而無法在法律關系中真正成為一個主體。生產(chǎn)力是社會發(fā)展的根本動力,其由勞動者、勞動工具、勞動對象三要素構(gòu)成。在這三個要素中,勞動者處于支配地位,而AI產(chǎn)品屬于勞動工具,為人所造且為人所用。總之,“人工智能無法復制、模擬和超越人類主體性”[34]。雖然這種觀點極具啟發(fā)意義,但仍有不足之處。因為上述觀點并未指出人的規(guī)范化含義[35]。現(xiàn)代社會是一種奉行規(guī)則之治的社會。“規(guī)則的統(tǒng)治意味著,權(quán)利是受到嚴格限定的,而公民的義務則是有限的。因此,對規(guī)則的精心設置產(chǎn)生了對官員行動一致性和公平性的各種期待?!盵36]社會中的人是一種規(guī)范化的物種,受規(guī)范支配、約束和保護[37]。早在古希臘時期,哲學家普羅泰戈拉便提出了“人是萬物的尺度”這一論斷。對于“萬物”的評價而言,人們需要綜合考量各個具體事物、抽象屬性、感覺屬性以及諸如正確與謬誤等評價概念[38]。這一論斷的主要目的在于,使得公民理性地懂得,如何在社會的劇烈轉(zhuǎn)變時期,使得自身主動而有效地參與社會實踐,并促使價值多元化的社會現(xiàn)實中存在基本共識[39]。這種思維對于AI時代的法律規(guī)制極具借鑒價值,面對AI時代的諸多風險,有必要在法律規(guī)制上形成基本共識,以有效促使AI技術的健康、有序發(fā)展。盡管人對于許多事物的產(chǎn)生原理及運行狀態(tài)都不清楚,但人仍然需要、能夠且應當是自我構(gòu)建的目的。由此應當認為,人是萬物的尺度,可以決定某一事物的價值高低。比如環(huán)境利益屬于一種刑法法益的原因在于,它是有利于人類自身的諸如生命、身體、自由等利益實現(xiàn)的“現(xiàn)實存在”;如果沒有這種關聯(lián)性,則環(huán)境利益不應當成為一種刑法法益[40]。此外,康德亦認為,“現(xiàn)代人不應當受到本能的指揮,……他應當從自身中創(chuàng)造一切事物來”[41]。其“實踐理性”原則闡述了具有主觀能動性且應受“自律”支配的人,而技術理性提升了人的身體的支配能力、拓寬了人的身體的支配范圍[42]。由此可見,應當將人作為衡量萬物的尺度且具有主觀能動性與受規(guī)范約束的物種。

“所有的文化或文明都是人的‘能在’與‘應在’不斷從潛能到現(xiàn)實,從應然到實然不斷反復交替地辯證運動的結(jié)果,都是人的歷史的組成部分?!盵29]從具有理性、屬于政治動物、會使用語言符號、具有主觀能動性、受規(guī)范化約束等角度對“人”進行的界定,都在不同程度上受到了“人是萬物的尺度”這一論斷的影響[43]。首先,人們認為,只有人類自身才是衡量萬物價值以及屬性的應然尺度;其次,人類作出價值以及屬性評判所依靠的內(nèi)在工具是理性,外在工具則是語言符號;再次,人類依靠社會化的維持及其良性發(fā)展維護已固定的價值觀念,通過綜合性獎懲措施維護規(guī)范的公眾認同??傊?唯有人才能夠決定某種物種是否具有價值及其價值高低。AI刑事責任主體肯定論之所以認為,應當賦予強AI產(chǎn)品刑事責任主體地位,是沒有持有一種合理的“人”論??隙ㄕ摮钟械氖且环N機械式“人”論,不當混淆了“表象”與“內(nèi)在”之區(qū)別。不應將強AI產(chǎn)品作為一個具有自主意識的人對待,正如人們不會將動物作為人對待一樣,因為其無法在某種程度上本能地意識到并通過行動實現(xiàn)自身意愿。本文不能保證文中所述觀點,可以讓人們得到AI刑事責任主體問題被合理解決的所有預期得以實現(xiàn)的結(jié)果,卻能夠接近想要破解的答案,可以保證整個應對機制在一種合理的、遞進的期待中得以維持、改進。當然,偏向于法理與哲理論證的策略確受自身能力所限,因此自知僅靠法理與哲理論證維系基本的判斷力明顯不及那些既取法于法理與哲理論證又工于AI技術挖掘的方法選擇,好在有人早早地為法理與哲理論證作了以下辯護,“緊張的意識很可能在理性全然缺失的情況下產(chǎn)生,……僅僅由不著邊際的幻象和欲望所充斥的心靈雖然看起來能萬無一失地追求某些東西,但是它們并不具備人類靈魂的高貴特性;因為上述追求不會因目標的任何前景得到啟發(fā)”[44]。

四、結(jié) 論

弱AI產(chǎn)品與強AI產(chǎn)品都不應是刑事責任主體,而是人類可控制的依靠電能存續(xù)的AI機械產(chǎn)品,應被作為人類實現(xiàn)自由而全面發(fā)展的工具。對于由AI產(chǎn)品衍生的刑事風險而言,當行為人故意利用了AI技術或產(chǎn)品實施犯罪行為時,則具體利用人,而非AI產(chǎn)品,應受到刑法懲罰。對于科研人員等主體過失造成AI產(chǎn)品實施了犯罪行為時,則依據(jù)預防可能性等過失犯原理進行規(guī)制即可。法律有其固有的調(diào)整范圍,其既不是虛擬之物,也不是聯(lián)想或幻想的產(chǎn)物,而是社會現(xiàn)實及其要求的理性反映。刑事法適用的核心部分及刑事歸責的基本原理不會因AI技術的出現(xiàn)而發(fā)生根本變化。法律人必須承認自身知識的局限性,面對不穩(wěn)定、不清晰的事物,在法規(guī)范層面上,宜以原則性條款應對,不宜作出細致性規(guī)定。AI刑事責任主體肯定論是某種情感或幻想的產(chǎn)物,不當堅持了一種機械式“人”論,應當將人作為衡量萬物的尺度且具有主觀能動性與受規(guī)范約束的物種。

弱AI產(chǎn)品正逐漸在醫(yī)療衛(wèi)生、生物工程及司法審判等領域為人類帶來“福音”。比如在當前進行的“智慧法院”建設中,基于訴訟的便捷化、審判的公正化、執(zhí)行的高效化等目的考量,利用大數(shù)據(jù)分析實現(xiàn)了海量文書檢索等目標,充分展現(xiàn)了將AI技術與法律相結(jié)合所帶來的“紅利”。但人類仍需時刻銘記自己是萬物的主人,并警惕弱AI產(chǎn)品的現(xiàn)有及潛藏缺陷。比如當下的AI技術難以消除算法歧視,可能通過形成“自我實現(xiàn)的歧視性反饋循環(huán)”進一步固化歧視,并以算法決策的方式損害規(guī)則適用的公正性,甚至擴大刑事司法的不公正[45]。鑒于“刑事司法判斷,有可能以人工智能提供的裁判規(guī)則作為依據(jù)……理應設置嚴格的禁區(qū),防范可能的風險”[46]。無論AI產(chǎn)品掌握的數(shù)據(jù)如何精準、“思維”運算多么快捷,司法機關和社會公眾都不會將案件的審判權(quán)賦予AI產(chǎn)品,其只能被作為輔助法官公正審判的角色。積極促進AI技術的發(fā)展,并對其可能帶來的風險進行防范本屬常識,必須“堅持以法律為邊界,避免偏離有益于人類社會發(fā)展進步的方向”[47]。當前宜由相關部門在對行業(yè)發(fā)展狀況、技術水平限制、社會利益維護、個人權(quán)利保障等因素進行綜合考量的基礎上,遵循法治程序,確立相關的行業(yè)技術標準、安全義務標準和個人數(shù)據(jù)保護標準。換言之,不僅需“依靠算法的頂層設計”[48],且需將法治規(guī)范嵌入AI發(fā)展的每個環(huán)節(jié)。

猜你喜歡
法益刑法主體
德日“法益說”適應中國的“四維”改良*
強化述職評議 落實主體責任
市場主體登記秩序法益的刑法保護*
論碳審計主體
制度型法益的獨立性證成及其立法批判功能的喪失
過度刑法化的傾向及其糾正
何謂“主體間性”
淺談刑法中的法益
略論意象間的主體構(gòu)架
刑法的刑事政策化及限度
汉川市| 辽阳县| 齐河县| 广州市| 瑞昌市| 涞源县| 开远市| 遵化市| 射洪县| 固阳县| 柳州市| 乌鲁木齐县| 弥渡县| 哈巴河县| 商丘市| 马关县| 铜川市| 沙湾县| 台湾省| 黔南| 娄烦县| 哈尔滨市| 建德市| 宁河县| 甘肃省| 万年县| 南陵县| 祁连县| 眉山市| 呼和浩特市| 新竹县| 方城县| 宁城县| 湘阴县| 马公市| 义马市| 彭阳县| 临海市| 大田县| 宝山区| 固阳县|