當(dāng)人類漸次進入強人工智能時代時、享受人工智能帶來的便利時,由人工智能引發(fā)的事件也層出不窮。如據(jù)報道,2019年末,英格蘭唐卡斯特29歲護理人員丹妮·莫瑞特在做家務(wù)時,決定借助智能音箱查詢一些關(guān)于心臟的問題,但是,該智能音箱給的答案卻是:“心跳是人體最糟糕的過程。人活著就是在加速自然資源的枯竭,人口會過剩的,這對地球是件壞事,所以心跳不好,為了更好,請確保刀能夠捅進你的心臟?!边@被認為是一起人工智能勸人自殺的事件。此外,還有人工智能批量創(chuàng)作假新聞、AI換臉、自動駕駛事故,等等,諸多事情的發(fā)生,引發(fā)了人們對于人工智能發(fā)展所帶來的法律問題的思考。
其中最重要的一個就是,該不該對人工智能體進行刑事主體立法?
根據(jù)人工智能是否可以脫離人類設(shè)計和編制的程序自主實施行為,智能機器人可以被劃分為弱智能機器人和強智能機器人。相應(yīng)的,對于人工智能所存在的刑事風(fēng)險主要表現(xiàn)為三種:第一,會導(dǎo)致一些傳統(tǒng)犯罪的危害性發(fā)生“數(shù)量變化”;第二,引起新的犯罪形式;第三,人工智能在自主行為之下,獨立實施的嚴重危害社會的犯罪行為(孫浩,2019)。對于弱人工智能機器人所引起的法律問題,人們趨向于認為弱人工智能不具有獨立的意識,受制于一系列的設(shè)計和編程所設(shè)定的行為的影響,所引發(fā)的致人傷亡等情況的發(fā)生是由于編程的錯亂所導(dǎo)致的。這體現(xiàn)的是人類的意志而非自身的意志(劉憲權(quán),房慧穎,2019),應(yīng)該由設(shè)計者或使用者承擔(dān)相應(yīng)的責(zé)任。弱人工智能產(chǎn)生的刑事法律考量,本文暫不做過多論述。而強人工智能時代的刑事法律問題,也即對于科學(xué)家所預(yù)言的,隨著人工智能技術(shù)的進一步發(fā)展,人工智能體可能產(chǎn)生獨立的意志和意識(劉憲權(quán),房慧穎,2018),此時,是否需要賦予人工智能體獨立的犯罪主體地位,是否需要重塑刑事法律的體系?持肯定說的學(xué)者們認為,隨著科學(xué)技術(shù)的發(fā)展進步,人工智能最終會具有自我獨立意識,更多的參與到社會生活中,對人類生活產(chǎn)生較大的影響;而持否定說的學(xué)者們則認為,對于一個會不會發(fā)生存在不確定的事物進行立法上的考量,有違法律的穩(wěn)定性和安定性。
筆者認為,對人工智能進行刑事主體立法并不具備條件。
第一,從法律主體上來看,人工智能體不具備法律主體特性。關(guān)于人工智能作為刑事犯罪主體的觀點,理論上主要有兩種:一是主體說,二是擬制人格說。
對于“主體說”,筆者認為產(chǎn)生了人工智能體事實上的依附于人類的客體地位與法律上獨立人格的主體地位的偏離。法學(xué)對于法律地位相關(guān)研究往往基于主體、客體二分的思維模式展開(張力,陳鵬,2018),形成了“主-客體”二分的法學(xué)研究范式,法律主體是享有權(quán)利并承擔(dān)義務(wù)的,而受制于人類約束的智能機器人則天然的成為客體一方。雖然人工智能發(fā)展到一定程度,能夠具備獨立的自我意識,但其終究需要受制于人類的約束,人類不可能創(chuàng)造一個完全脫離約束的人工智能。而法律主體的“自主性”要求人能夠自主合理安排自己的生活計劃,“自律性”要求法律主體是能夠自我負責(zé)的生命主體,既然強人工智能體在事實上不能脫離人類的控制,則無法與人類處于同等的法律人格地位。
對于“擬制人格說”,人工智能法律主體地位的擬制不同于“法人”的法律主體擬制。“法人”的確立是國家為了經(jīng)濟目的做出的舉措,作為擬制人格的“法人”實施犯罪,其意志的實現(xiàn)是通過自然人的合意達至的,其承擔(dān)責(zé)任的基礎(chǔ),是通過法人的合意機關(guān)做出決定,所實施的犯罪行為目的,是因為法人的整體利益,而非個人利益,并且承擔(dān)責(zé)任的法人具有獨立財產(chǎn)。而人工智能機器人與“法人”的擬制法律人格不具有同屬性。
第二,從法律行為上看,人工智能體不具備自由意志。刑事立法上,刑法通過懲罰自由意志支配下實施了危害社會行為的行為人,以維護社會安全秩序。那么,強人工智能是否具備自由意志?其所具備的自由意志是否是刑法所規(guī)定的自由意志?人工智能作為由人所創(chuàng)造的事物,通過事先進行的程序編碼,聽從程序的指令實施相應(yīng)的行為,即使具有獨立意識,也應(yīng)當(dāng)是在程序編程范圍內(nèi)進行,否則會違背人類所設(shè)計人工智能機器人的初衷。并且,機器人如若能夠基于自由意志實施犯罪行為,那何談期望其能夠在自由意志支配下接受來自人類的法律的制裁。因此,這種受制于他人意志影響的自由意志,不應(yīng)作為刑事法律主體進行評價的自由意志,所以,對人工智能體進行刑事主體立法也是不需要的。
第三,從刑罰預(yù)防功能上看,賦予人工智能刑事主體地位無必要。刑罰的特殊預(yù)防是對實施犯罪的人施加某種痛苦,使其感知到實施犯罪行為所應(yīng)付出的代價,從而迫使其對自身不法行為產(chǎn)生符合法律價值取向的正確認知,規(guī)范其后續(xù)的行為按照法律的要求進行。對于自然人而言,刑法通過對于其人身或財產(chǎn)施以不利益從而促使其趨利避害,規(guī)制自己的行為;對于法人而言,其自由意志也是通過自然人主體做出,刑法通過剝奪其財產(chǎn),使形成法人意志的各自然人通過衡量犯罪將產(chǎn)生的代價,進而規(guī)制自己的行為。對于人工智能體,無法通過刪除數(shù)據(jù)、修改程序、永久銷毀等方式,使其他人工智能產(chǎn)生恐懼心理從而合理規(guī)制自己的行為。
此外,刑罰是剝奪犯罪人一定利益的措施,這種刑罰的不利益是社會公眾為了共同的安全所共同認可的,而人工智能體的行為以及對其施以刑罰的不利益,完全是基于人類的利益所建構(gòu)的。這種不利益由人類基于其利益進行價值判斷及衡量,因而不具有刑罰的意義。
第四,從實踐需要角度上看,人工智能主體立法過于超驗?!胺傻纳谟诮?jīng)驗而不在于邏輯?!绷⒎ㄐ枰欢ǖ那罢靶钥剂浚淝罢靶缘幕A(chǔ)在于,隨著社會發(fā)展及新事物的出現(xiàn),提前對某些行為進行立法上的規(guī)制。而具有獨立意志的人工智能體這個新事物能否出現(xiàn),科學(xué)上仍存在難以克服的技術(shù)問題。法律作為一種制度上層建筑,在作為經(jīng)濟基礎(chǔ)的科學(xué)技術(shù)還未達至現(xiàn)實的情況下,我們必須去考慮法律過早的進行預(yù)判是否真的有其必要性。
那么,在現(xiàn)有條件下,該如何規(guī)制人工智能犯罪呢?
人工智能體作為由人類所創(chuàng)造的事物,創(chuàng)造性的基本屬性就決定了人工智能體的客體性質(zhì),人類創(chuàng)造人工智能的目的不是為了創(chuàng)造一個與人類具有同等屬性的物種,而是基于人類生活的便利。故在反映人類文化、秩序等的法律上,不可能出現(xiàn)介于主體與客體之間的類別。人工智能體在法律層面只能是主體權(quán)利指向的客體存在。刑事法律應(yīng)當(dāng)保持其基本的謙抑性,在現(xiàn)有框架之下應(yīng)對“強人工智能時代”到來之際的立法挑戰(zhàn)。
首先,歸責(zé)要便于刑事風(fēng)險的防控。作為受制于人類設(shè)置的算法支配的人工智能體,如果在編程之外實施了法益侵害的行為,應(yīng)依現(xiàn)有刑法體系去尋求解決之道,而非一味去強調(diào)人工智能的主體立法,破環(huán)現(xiàn)有理論框架。如果人類制造人工智能機器人最初設(shè)定的是“與人無害”的模式,但在后期運行過程中,人工智能基于算法的支配在編程之外實施了法益侵害的行為,這表明了人類的技術(shù)依然不成熟。人類為機器人設(shè)定的框架受到人工智能機器人的突破,此時被非難的對象應(yīng)當(dāng)是人類自己(冀洋,2019)。根據(jù)人工智能機器人的設(shè)計者、持有者是否具有有責(zé)性,以及期待可能性來進行刑事層面的歸責(zé),更有利于防控風(fēng)險。
其次,可通過法律解釋、增加刑法罪名的方式規(guī)制。將人工智能體作為客體,在其超越算法及編程設(shè)定的模式之外實施的侵害行為,可以通過對現(xiàn)有法律進行符合時代發(fā)展以及解釋規(guī)則的方式進行解釋。在現(xiàn)有解釋無法函攝的情況下,可以通過完善立法,對人工智能機器人超越編程之外行為的相關(guān)責(zé)任人的過失性犯罪進行規(guī)范。對于超越人類技術(shù)之外的情況,則刑法應(yīng)當(dāng)保持其應(yīng)有的謙抑性,通過其它法律追究相關(guān)責(zé)任人的責(zé)任。
(孫晶晶,蘭州大學(xué)法學(xué)院刑法學(xué)碩士研究生/責(zé)編 劉玉霞)