徐鳳珍 重慶大學(xué)法學(xué)院
隨著現(xiàn)代科技的日新月異,傳統(tǒng)犯罪逐漸向虛擬網(wǎng)絡(luò)空間發(fā)展。犯罪分子通過互聯(lián)網(wǎng)這一媒介,利用網(wǎng)站漏洞,釀成了許多電信詐騙悲劇。通過互聯(lián)網(wǎng)傳播淫穢物品以此牟利,深圳快播案便是典型例證。人工智能時(shí)代的到來,使人工智能犯罪這一新型犯罪現(xiàn)象隨之出現(xiàn)。既然面對(duì)互聯(lián)網(wǎng)技術(shù)的高速發(fā)展,對(duì)計(jì)算機(jī)犯罪做出了法律規(guī)制,增設(shè)了破壞計(jì)算機(jī)信息系統(tǒng)罪、非法侵入計(jì)算機(jī)系統(tǒng)罪等網(wǎng)絡(luò)犯罪罪名。那么,面對(duì)人工智能技術(shù)的飛速發(fā)展,做出預(yù)判性立法和創(chuàng)新型法律思考也是題中應(yīng)有之義。
人工智能簡稱AI(Artificial Intellige nce),概念的首次提出是由麥卡錫和明斯基于1956年美國的達(dá)特茅斯會(huì)議。人工智能就是模仿人類學(xué)習(xí)以及其他方面類人智能的一門科學(xué)技術(shù)。人工智能的應(yīng)用逐漸普及于醫(yī)療、教育、軍事和娛樂等社會(huì)的方方面面。人工智能的發(fā)展,按照智能化的程度分成三個(gè)階段:弱人工智能(AlphaGo類智能體,擅長單一領(lǐng)域內(nèi)的技術(shù)和操作),強(qiáng)人工智能(具有類人智慧)以及超強(qiáng)人工智能階段(超越人類智慧,具有自主意識(shí))。
人工智能技術(shù)控制下的人工智能體給人類生活帶來便捷和舒適,代替人類從事簡單重復(fù)累贅的工作,為人類提供解決環(huán)境污染、氣候變暖等問題的方案,攻克人類難以根治的疑難雜癥。但是,我們也不能忽略人工智能體給社會(huì)治理、倫理道德、傳統(tǒng)法律帶來的風(fēng)險(xiǎn)。 在“人工智能可能毀掉人類”之類的論斷拋出之后,人工智能威脅論也愈演愈烈。全球首例無人駕駛汽車致人死亡的交通事故發(fā)生于2018年3月19日的美國亞利桑那州,處于自動(dòng)駕駛狀態(tài)的Uber無人駕駛汽車撞擊一名女子,致其不幸死亡。央視曾在2016年9月曝光了國內(nèi)首起特斯拉疑因“自動(dòng)駕駛”致死事故[1]。事故發(fā)生于2016年1月20日,一位23歲的年輕男性乘坐的特斯拉自動(dòng)駕駛汽車,于京港澳高速河北邯鄲路段時(shí)撞上了前方的路道清掃車,年輕男性不幸身亡,特斯拉轎車嚴(yán)重?fù)p壞。世界上第一宗機(jī)器人殺人事件發(fā)生在1978年的日本。據(jù)相關(guān)資料顯示,日本廣島一家工廠在生產(chǎn)作業(yè)時(shí),由于切割機(jī)器人突然發(fā)生異常,切割鋼板的機(jī)器人誤將一名值班工人當(dāng)作鋼板進(jìn)行程序操作,最后導(dǎo)致該名工人死亡。重慶大學(xué)圖書館引入了自助借還書機(jī),其在一定意義上也屬于人工智能。自助借還書機(jī)器的引入使得圖書館逸夫樓人工借還書的職位得以裁剪,以小見大可知人工智能的廣泛運(yùn)用勢(shì)必會(huì)導(dǎo)致大量中低端行業(yè)的人員失業(yè)。法律具有天然的滯后性,立法理論和司法實(shí)踐總是落后于科學(xué)技術(shù)的發(fā)展?,F(xiàn)行刑法沒有將人工智能體納入應(yīng)當(dāng)承擔(dān)刑事責(zé)任的主體范圍內(nèi),不能完全有效規(guī)制人工智能犯罪,因此對(duì)于人工智能引發(fā)的責(zé)任事故該如何進(jìn)行責(zé)任分配成為一個(gè)新的難題。無人駕駛汽車致人死亡追究測(cè)試員的責(zé)任未免太過苛刻,讓汽車制造商承擔(dān)相關(guān)民,刑事責(zé)任又會(huì)阻礙科學(xué)技術(shù)的創(chuàng)新發(fā)展;罪刑法定原則下的現(xiàn)行刑法也不能將人工智能實(shí)體作為犯罪主體加以追責(zé)。法律為了保持其活力和前瞻性,對(duì)于人工智能給傳統(tǒng)刑法理論、刑法立法路徑提出的新挑戰(zhàn)應(yīng)予以積極回應(yīng)。
弱人工智能階段的人工智能引發(fā)的侵害社會(huì)法益問題尚能通過《產(chǎn)品責(zé)任法》來進(jìn)行一定的規(guī)制,但是隨著科學(xué)技術(shù)的快速發(fā)展,人工智能實(shí)體逐漸擁有自主意識(shí),人工智能實(shí)體成為“犯罪嫌疑人”不是不可能的。要通過刑法有效規(guī)制人工智能體,人工智能體的主體難題是其刑法命題的根本所在[2]。傳統(tǒng)刑法理論將犯罪構(gòu)成分為四要件:犯罪主體、犯罪主觀方面、犯罪客體、犯罪客觀方面。刑法將犯罪主體定義為實(shí)施危害社會(huì)行為,依法應(yīng)當(dāng)負(fù)刑事責(zé)任的自然人和單位。人工智能實(shí)體非自然人也非單位,當(dāng)人工智能實(shí)體成為犯罪工具時(shí),正如前述所舉例的全國首例利用人工智能進(jìn)行犯罪,刑法完全可以對(duì)此犯罪行為進(jìn)行有效規(guī)制。人工智能實(shí)體只是其進(jìn)行犯罪的工具,只需對(duì)犯罪相關(guān)人進(jìn)行歸責(zé)。當(dāng)人工智能實(shí)體不再是人類的犯罪工具,其真正地成為形式意義上的“法律主體”。換言之,在超強(qiáng)人工智能階段出現(xiàn)風(fēng)險(xiǎn)時(shí),刑事責(zé)任主體的認(rèn)定和歸責(zé)不再像傳統(tǒng)責(zé)任認(rèn)定那樣簡單。人工智能產(chǎn)品通過深度學(xué)習(xí)、自主學(xué)習(xí)擁有了一定的自主意識(shí),實(shí)施了危害社會(huì)的危險(xiǎn)行為時(shí)又該如何運(yùn)用現(xiàn)行的法律法規(guī)進(jìn)行規(guī)制,這又將涉及人工智能體是否應(yīng)該成為刑法中的法律主體焦點(diǎn)問題。刑法對(duì)人工智能實(shí)體犯罪方面的立法回應(yīng)不僅是體現(xiàn)出對(duì)社會(huì)法益的法律保護(hù),也影響著人工智能科學(xué)這一技術(shù)的健康發(fā)展。一方面如果學(xué)界和立法專家將人工智能實(shí)體可能考量為法律主體作為一個(gè)偽命題而概括性地忽視,未來出現(xiàn)的可能不再是人類是否需要對(duì)人工智能體納入刑事責(zé)任主體的范圍,而是擁有自主意識(shí)的人工智能體開始駕馭人類并給人類設(shè)置一套精妙絕倫、毫無翻身余地的機(jī)器人法律。人類屆時(shí)的存在目的是服務(wù)人工智能實(shí)體甚至是可有可無的存在。但是另一方面如果不顧社會(huì)公眾的接受程度、社會(huì)發(fā)展進(jìn)程、科學(xué)技術(shù)發(fā)展程度盲目草率將其納入法律主體又有點(diǎn)矯枉過正,浪費(fèi)立法資源、破壞法律的穩(wěn)定性。保守的公眾會(huì)質(zhì)疑人工智能實(shí)體的自主意識(shí),認(rèn)為科學(xué)技術(shù)的發(fā)展還沒有到達(dá)所謂的超強(qiáng)人工智能階段,純粹浪費(fèi)立法所需的一切人力、物力、財(cái)力,不利于人工智能技術(shù)的向前發(fā)展,不符合我國創(chuàng)新發(fā)展戰(zhàn)略目標(biāo),也不是發(fā)展科技強(qiáng)國的應(yīng)有之義。刑法應(yīng)對(duì)人工智能體的犯罪的矛盾越是強(qiáng)烈,其所處的困境越是突顯。
刑法應(yīng)對(duì)人工智能犯罪表現(xiàn)出兩類處置難題。一方面,如若將人工智能與單位等量齊觀納入傳統(tǒng)刑法理論中的犯罪主體范圍之中,隨之而來面對(duì)的將是如何對(duì)該主體進(jìn)行刑罰處置這一新的難題。人工智能實(shí)體不同于自然人擁有生命、自由、財(cái)產(chǎn)和資格等權(quán)利,生命刑(如死刑)、自由刑(有期徒刑,無期徒刑)、資格刑(剝奪選民資格,職業(yè)禁止)等不能生搬硬套用于機(jī)器人承擔(dān)刑事責(zé)任的方式;同時(shí),人工智能實(shí)體也不同于單位。對(duì)單位犯罪有三種處罰方式:單罰制,雙罰制,代罰制。依照我國現(xiàn)行刑法規(guī)定對(duì)單位犯罪以雙罰制(對(duì)單位和單位直接人員處以刑法)為主,以單罰制(只處罰單位直接責(zé)任人員)為輔。而人工智能體的刑事責(zé)任承擔(dān)方式也應(yīng)該具有其天然的特殊性,以區(qū)別于單位犯罪的懲罰方式。費(fèi)爾巴哈的心理強(qiáng)制說認(rèn)為人是具有趨利避害性的認(rèn)知。為了防止犯罪,必須抑制行為人感性的沖動(dòng),科處作為犯罪的刑罰,讓人類預(yù)知犯罪的風(fēng)險(xiǎn)高于可獲利益,這樣達(dá)到抑制其心理上萌生犯罪的意念[3]。費(fèi)爾巴哈的理論觀點(diǎn)同樣可以類推適用于人工智能實(shí)體。如果參照單位進(jìn)行刑法歸責(zé)適用無限額判處罰金的規(guī)定,意義不明顯且不能達(dá)到刑法的目的,這是由人工智能實(shí)體不具有單位的經(jīng)濟(jì)性、功利性、公共性等特點(diǎn)所決定的。從另一個(gè)角度樂觀地看待人工智能的發(fā)展,保守地認(rèn)為人工智能體絕不會(huì)通過深度學(xué)習(xí)從而擁有自主意識(shí),不能像自然人一樣具備意思能力和行為能力,也不具有類人智能甚至是超越人類智能的可能性。無需考慮將其擬制為法律主體,只需將其作為人類使用的客體和工具,對(duì)人工智能實(shí)體引發(fā)的犯罪適用于產(chǎn)品責(zé)任法,對(duì)人工智能實(shí)體的擁有者、制造者、銷售商進(jìn)行歸責(zé)。但是深入思考也會(huì)發(fā)現(xiàn)其中的課罪難題,試想如果是人工智能實(shí)體自身的程序錯(cuò)誤嚴(yán)重侵犯了公眾的生命權(quán)益和其他社會(huì)重大法益該如何進(jìn)行歸責(zé)。對(duì)機(jī)器人的持有者進(jìn)行歸責(zé)不符合傳統(tǒng)犯罪構(gòu)成理論的主觀方面,讓制造商和銷售商承擔(dān)刑事責(zé)任未免太牽強(qiáng),不符合罪責(zé)刑相適應(yīng)原則。
弱人工智能階段的人工智能體大多數(shù)表現(xiàn)為按照設(shè)置編入的程序和深度學(xué)習(xí)進(jìn)行操作運(yùn)轉(zhuǎn),目前尚在人類可控范圍之內(nèi)。但科技是不斷向前發(fā)展的,強(qiáng)人工智能階段甚至是超強(qiáng)人工智能階段是可能性的未來。因此將人工智能體法律擬制為刑法上的法律主體,將其“人格化”是有理論實(shí)踐意義的。單位犯罪早在17世紀(jì)英國的《刑法》中就有所規(guī)定,我國首次提出單位犯罪是在1987年1月22日,1997年《刑法》首次將單位犯罪納入刑事法律主體規(guī)制中。沙特阿拉伯授予人形機(jī)器人公民身份,刑法理論探討人工智能實(shí)體的“人格化”和歷史不謀而合?;谌斯ぶ悄荏w犯罪在法律主體上的限制,可以參考單位犯罪擬制為法律主體。單位犯罪和人工智能體都非自然人,刑法將單位犯罪納入法律主體地位,擬制人工智能實(shí)體為法律主體也是合理可推敲的。人工智能實(shí)體“人格化”之后,刑事,民事責(zé)任分擔(dān)問題不再那么棘手。需要強(qiáng)調(diào)的是,人工智能體應(yīng)該獲得限制性主體地位[7]。雖然法律面前人人平等,但是在衡量自然人和人工智能體之間利益時(shí),首先應(yīng)該保護(hù)的是自然人的利益。同樣的事情同等對(duì)待,不同的事情要差別對(duì)待。對(duì)于法律面前人人平等的闡釋也是如此。法律主體資格的限制性需要依據(jù)人工智能體的智能化程度來擬定其相應(yīng)的刑事責(zé)任,和民法意義上自然人民事責(zé)任年齡有共通之處[8]。因此對(duì)人工智能體的法律主體資格有必要承認(rèn)與限制。
人工智能實(shí)體引發(fā)犯罪時(shí),有可能是作為人類的犯罪工具,也有可能是機(jī)器故障過失,也有可能基于人工智能實(shí)體的自主意識(shí)主動(dòng)實(shí)施危害社會(huì)的危險(xiǎn)行為。如果將其擬制為法律主體,其歸責(zé)模式也可以綜合參考適用我國單位犯罪的處罰模式(以雙罰制為主,單罰制為輔)以及國外對(duì)單位犯罪的處罰的代罰制制度。當(dāng)人類故意利用人工智能實(shí)體實(shí)施違法犯罪時(shí),嚴(yán)重侵害社會(huì)法益進(jìn)入刑法規(guī)制范圍則適用雙罰制,即對(duì)人工智能實(shí)體及其所有者進(jìn)行刑事處罰;如若人工智能產(chǎn)品出現(xiàn)故障,程序代碼發(fā)生錯(cuò)誤嚴(yán)重危害社會(huì)法益時(shí)應(yīng)適用代罰制,即人工智能產(chǎn)品制造商或者銷售商和所有者由于過失或者放縱導(dǎo)致人工智能體一錯(cuò)再錯(cuò),需要代位承擔(dān)刑事責(zé)任。此外,人工智能實(shí)體經(jīng)過科學(xué)技術(shù)的高速發(fā)展、深度學(xué)習(xí)、高度發(fā)達(dá)的神經(jīng)網(wǎng)絡(luò)從而擁有了自主意識(shí),為了人工智能實(shí)體類群的不法利益危害人類生命安全甚至要建立機(jī)器人王國則適用單罰制,即對(duì)人工智能實(shí)體這一限制法律主體進(jìn)行嚴(yán)格刑法規(guī)制。而對(duì)于人工智能實(shí)體如何處罰,下面將展開必要的探討。通過明晰的責(zé)任歸責(zé),一方面可以達(dá)到刑法的預(yù)防目的,另一方面可以實(shí)現(xiàn)刑法的保護(hù)機(jī)制,正如德國刑法學(xué)家馮·李斯特所指出:刑法既是善良人的大憲章,也是犯罪人的大憲章。嚴(yán)格透明的責(zé)任追究制度使得獎(jiǎng)罰分明,實(shí)現(xiàn)公平公正。
鑒于人工智能產(chǎn)品的特殊性,刑罰制度也具有特殊性。適用財(cái)產(chǎn)刑可以借鑒歐盟法律律師委員會(huì)提出的兩點(diǎn)責(zé)任規(guī)制建議中的強(qiáng)制保險(xiǎn)和賠償基金。人工智能體應(yīng)該適用于嚴(yán)格的登記制度,保證追責(zé)路徑。此外,人工智能實(shí)體的所有者也需要進(jìn)行登記,類似于購買汽車一樣,簽訂合同、強(qiáng)制交付保險(xiǎn)。當(dāng)人工智能體引發(fā)犯罪時(shí),啟動(dòng)強(qiáng)制保險(xiǎn)來減少被害人的損失這類做法一方面可以方便追責(zé),另一方面防止偷稅漏稅,向人工智能實(shí)體征稅也是未來會(huì)發(fā)生的。賠償基金由社會(huì)人士、國家等主體進(jìn)行創(chuàng)立維護(hù),當(dāng)強(qiáng)制保險(xiǎn)和相關(guān)責(zé)任人都無法對(duì)受害人進(jìn)行賠償?shù)那闆r下,可以啟動(dòng)人工智能實(shí)體賠償基金,賠償基金也可以用于研發(fā)人工智能技術(shù)。在弱人工智能階段和強(qiáng)人工智能階段,對(duì)人工智能體財(cái)產(chǎn)刑之外的懲罰思考是“降能”:一旦人工智能實(shí)體嚴(yán)重危及社會(huì)法益,重新編寫其程序和算法,改變其原來的智能用途,設(shè)置一些無害、簡單的單一用途(重復(fù)拖地這一單類簡單操作)。例如美國的機(jī)器人醫(yī)生沃森一旦出現(xiàn)大面積重大醫(yī)療事故或者利用醫(yī)生身份進(jìn)行其他犯罪,則需要改編編程,降低其智能長處,考慮其“降能”為一個(gè)人工智能洗碗機(jī)等等。這樣既有效達(dá)到了資源的可持續(xù)利用,又降低了“人工智能犯罪分子”的社會(huì)危害性。