張新平,章 崢
(1.中南大學(xué)法學(xué)院,湖南 長(zhǎng)沙 410000;2.中南財(cái)經(jīng)政法大學(xué)法治發(fā)展與司法改革研究中心,湖北 武漢 430073)
近年來(lái),伴隨人工智能新技術(shù)的迅速應(yīng)用擴(kuò)張,強(qiáng)人工智能機(jī)器人的主體地位及其法律治理問(wèn)題成為理論和實(shí)務(wù)共同關(guān)注的熱點(diǎn)話題[1-2]。自1956年 “人工智能”被達(dá)特茅斯學(xué)院會(huì)議正式確立為一個(gè)研究學(xué)科以來(lái),其發(fā)展與治理歷經(jīng)起伏[3]。進(jìn)入網(wǎng)絡(luò)社會(huì)以來(lái)[4],社會(huì)生活生產(chǎn)與社會(huì)治理的技術(shù)化、復(fù)雜化和智能化程度空前提升[5],如何對(duì)人工智能機(jī)器人等新技術(shù)進(jìn)行法律治理,使其從陌生的、可能有危險(xiǎn)的東西轉(zhuǎn)化為能融入現(xiàn)代文明的馴化之物日漸被關(guān)注和重視。
所謂人工智能機(jī)器人,是指能夠像人一般完成某項(xiàng)任務(wù)的算法、衍生數(shù)據(jù)及其物質(zhì)載體的嵌合體。根據(jù)實(shí)現(xiàn)意志的不同,人工智能機(jī)器人又被分為強(qiáng)人工智能機(jī)器人和弱人工智能機(jī)器人[6]。所謂強(qiáng)人工智能機(jī)器人,是指依托一定物質(zhì)載體、算法進(jìn)行自主認(rèn)知、決策、行為,能產(chǎn)生相應(yīng)數(shù)據(jù)并進(jìn)一步進(jìn)行行為,具有自我辨認(rèn)能力和控制能力的機(jī)器人。強(qiáng)人工智能機(jī)器人既可完成設(shè)計(jì)者/編譯者的意志,也可超出程序設(shè)計(jì)/代碼編譯范圍,進(jìn)行自主控制與自我決策,實(shí)現(xiàn)其自身的意志[7],它具有鮮明的物質(zhì)載體獨(dú)立性、算法黑箱性、數(shù)據(jù)隱私性特征。①物質(zhì)載體獨(dú)立性。強(qiáng)人工智能機(jī)器人必須依托一定的物質(zhì)載體,若智能產(chǎn)品僅為獨(dú)立程序軟件,其因無(wú)承載性必然不屬于強(qiáng)人工智能機(jī)器人,獨(dú)立的物質(zhì)載體是強(qiáng)人工智能機(jī)器人區(qū)別于一般軟件程序的標(biāo)志。②算法黑箱性。強(qiáng)人工智能機(jī)器人必須依托一定的算法才能獨(dú)立收集、分析信息,做出決策行為,其內(nèi)含的算法是對(duì)人類意識(shí)產(chǎn)生機(jī)制的模擬,具有復(fù)雜性。③數(shù)據(jù)隱私性。強(qiáng)人工智能機(jī)器人通過(guò)同環(huán)境交互,能獨(dú)立收集信息,該信息以數(shù)據(jù)形式儲(chǔ)存在其獨(dú)立物質(zhì)載體中,其性質(zhì)恰如記憶之于人類,對(duì)強(qiáng)人工智能機(jī)器人的價(jià)值判斷與選擇產(chǎn)生深遠(yuǎn)影響,外力修改、刪除強(qiáng)人工智能機(jī)器人數(shù)據(jù)的行為將存在倫理障礙。此外, “強(qiáng)人工智能機(jī)器人”與 “強(qiáng)人工智能”是兩個(gè)不同的概念,強(qiáng)人工智能指代的是一個(gè)時(shí)期,該時(shí)期有很多具有強(qiáng)智能性的技術(shù)產(chǎn)品,其中就包括具有自我辨認(rèn)能力和控制能力的強(qiáng)人工智能機(jī)器人[8]。
就強(qiáng)人工智能機(jī)器人而言,其是否具有獨(dú)立的法律主體地位和如何對(duì)其進(jìn)行法律治理,以實(shí)現(xiàn)機(jī)器的 “法律歸化”[5],都是理論和實(shí)踐亟待回應(yīng)的時(shí)代性難題。1986年中央將智能機(jī)器人列為國(guó)家863計(jì)劃議題,智能機(jī)器人概念首次在頂層設(shè)計(jì)中被提及[9];2017年國(guó)務(wù)院印發(fā)的 《新一代人工智能發(fā)展規(guī)劃》再次提出要 “搶抓人工智能發(fā)展的重大戰(zhàn)略機(jī)遇,構(gòu)筑中國(guó)人工智能發(fā)展的先發(fā)優(yōu)勢(shì)”[10];2020年黨的十九屆五中全會(huì)重申要 “推動(dòng)互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能等同各產(chǎn)業(yè)深度融合”[11]。這些國(guó)家戰(zhàn)略的設(shè)計(jì)和安排既彰顯了中國(guó)對(duì)人工智能技術(shù)應(yīng)用與法律治理的高度關(guān)注和重視,也昭示出實(shí)踐發(fā)展和制度設(shè)計(jì)對(duì)人工智能機(jī)器人治理相關(guān)理論供給需要的急迫。
當(dāng)前,智能技術(shù)的創(chuàng)新突破、應(yīng)用擴(kuò)張以及學(xué)界對(duì)人工智能機(jī)器人治理的研究都已從弱人工智能機(jī)器人轉(zhuǎn)向強(qiáng)人工智能機(jī)器人[2]。某種意義上,強(qiáng)人工智能機(jī)器人應(yīng)用發(fā)展存在的極化、異化和倫理等風(fēng)險(xiǎn)[12]迫使 “我們必須直面現(xiàn)代生活的理性化”[13],尋求科學(xué)方法,以對(duì)強(qiáng)人工智能機(jī)器人法律治理難題作出理論嘗試和實(shí)踐回應(yīng)。故此,以更具實(shí)踐規(guī)律性、理論科學(xué)性和制度先進(jìn)性為目標(biāo),本文對(duì)強(qiáng)人工智能機(jī)器人法律治理涉及的理論指導(dǎo)、主體資格等問(wèn)題進(jìn)行深入分析,并提出 “載體-數(shù)據(jù)-算法”三分之治的進(jìn)路。
自20世紀(jì)80年代以來(lái),理論界關(guān)于人工智能這一宏偉命題進(jìn)行了廣泛研究。強(qiáng)人工智能機(jī)器人的研究主要有兩種思路,即符號(hào)主義理論和聯(lián)結(jié)主義理論。其中,符號(hào)主義又稱符號(hào)人工智能,即通過(guò)將世界符號(hào)化,利用計(jì)算機(jī)對(duì)符號(hào)的認(rèn)知而形成對(duì)世界的認(rèn)識(shí),這是一種邏輯的方法,其本質(zhì)是將人類的思維視為一種公式集合;聯(lián)結(jié)主義又稱神經(jīng)網(wǎng)絡(luò)人工智能,即通過(guò)對(duì)人腦結(jié)構(gòu)的模擬實(shí)現(xiàn)對(duì)于人類意識(shí)的機(jī)械再現(xiàn),這種思路將計(jì)算機(jī)作為模擬人腦的工具[14]。此外,還有基于控制論心理學(xué)流派產(chǎn)生的行為主義理論[15]等。當(dāng)前,法學(xué)界探討強(qiáng)人工智能機(jī)器人法律主體地位及其治理問(wèn)題,更多探究的是符號(hào)主義理論和聯(lián)結(jié)主義理論,二者雖具有哲學(xué)或仿生學(xué)意義上的合理性,但因?qū)?qiáng)人工智能機(jī)器人本質(zhì)分析的偏差,在作為指導(dǎo)強(qiáng)人工智能機(jī)器人生產(chǎn)的技術(shù)路徑上均存在一定缺陷。
強(qiáng)人工智能機(jī)器人獨(dú)立法律主體地位 “否定說(shuō)”[16-17]背后指向的是符號(hào)主義理論。符號(hào)主義的直接理論來(lái)源是符號(hào)學(xué),著名人工智能學(xué)者西蒙提出的物理符號(hào)系統(tǒng),在人工智能領(lǐng)域形成了具體的研究思路[18]。符號(hào)主義的興起與發(fā)展得益于圖靈機(jī)的提出[19],符號(hào)主義的主要思想就是應(yīng)用邏輯推理法則,從公理出發(fā)推演整個(gè)理論體系[20]。在人工智能中,符號(hào)主義的一個(gè)代表就是機(jī)器定理證明, “吳文俊方法”是其巔峰之一[21]。從哲學(xué)層面看,符號(hào)主義理論是西方哲學(xué)關(guān)于 “智能生成”的 “知識(shí)論”。該理論認(rèn)為, “智能”是快速在一定搜索空間內(nèi)求得一個(gè)滿意解的能力,具有哲學(xué)層面的合理性[22],但符號(hào)主義理論從根本上否定了意識(shí)在 “智能”這一問(wèn)題上的作用。如果采用符號(hào)主義作為指導(dǎo)強(qiáng)人工智能機(jī)器人生產(chǎn)的技術(shù)路徑的理論基礎(chǔ),可能存在以下弊端。
(1)符號(hào)主義用符號(hào)系統(tǒng)模擬人類心理活動(dòng)只能解決全部結(jié)構(gòu)化、信息化前提下的確定性問(wèn)題。這種對(duì)確定性問(wèn)題求解的功能定位與強(qiáng)人工智能機(jī)器人自我辨認(rèn)能力和控制能力的定位不符。
(2)符號(hào)主義無(wú)法解釋人類思維可能產(chǎn)生的非邏輯性、非理性結(jié)論,符號(hào)主義從本體論出發(fā),強(qiáng)調(diào)現(xiàn)實(shí)問(wèn)題的符號(hào)化表達(dá)和解釋。這種方法回避了非理性意識(shí)的存在而追求公式化問(wèn)題的求解,其必然結(jié)果就是對(duì)人類思維中非邏輯、非理性意識(shí)模擬的無(wú)望。
(3)符號(hào)主義忽略了認(rèn)識(shí)具有的層級(jí)結(jié)構(gòu),關(guān)注線性問(wèn)題的求解而往往陷入由A得B的簡(jiǎn)單線性運(yùn)算。人類對(duì)事物的認(rèn)識(shí)基于理論與實(shí)踐的互動(dòng)而不斷深入,且人類對(duì)于事物認(rèn)識(shí)活動(dòng)本身就包含對(duì)原始信息的非線性、非理想的分析處理,符號(hào)主義將該分析處理簡(jiǎn)化為了一種理想狀態(tài)下的一蹴而就。
(4)符號(hào)主義理論下的智能機(jī)器人,難以實(shí)現(xiàn)情感、文化層面對(duì)人類認(rèn)識(shí)的復(fù)現(xiàn)?;诜?hào)主義理論的上述缺陷,不難發(fā)現(xiàn),依符號(hào)主義理論實(shí)現(xiàn)的智能機(jī)器人難以達(dá)到 “具有辨認(rèn)能力與控制能力”的要求,符號(hào)主義不宜被采用為指導(dǎo)強(qiáng)人工智能機(jī)器人生產(chǎn)的技術(shù)路徑的理論基礎(chǔ)。
強(qiáng)人工智能機(jī)器人獨(dú)立法律主體地位 “肯定說(shuō)”[23-24]的背后指向的是聯(lián)結(jié)主義理論。聯(lián)結(jié)主義認(rèn)為應(yīng)再現(xiàn)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),以真正實(shí)現(xiàn)類人智能的產(chǎn)生。20世紀(jì)60年代Hubel等[25]生物學(xué)家研究發(fā)現(xiàn),圖像透過(guò)視網(wǎng)膜傳遞至腦中形成意識(shí)的過(guò)程,是一種層級(jí)結(jié)構(gòu)。早在1943年第一個(gè)神經(jīng)元的數(shù)學(xué)模型MP[26]就已經(jīng)被提出,2006年作為多層神經(jīng)網(wǎng)絡(luò)與訓(xùn)練的 “深度學(xué)習(xí)”[27]的研究已然開(kāi)始。實(shí)際上,即使是在弱人工智能時(shí)代,也已出現(xiàn)了在某方面思考能力超越人類的人工智能機(jī)器人,如IBM的人工智能平臺(tái)Watson[28]也有了以卷積神經(jīng)網(wǎng)絡(luò)模型、深度信任網(wǎng)絡(luò)模型、堆棧自編碼網(wǎng)絡(luò)模型等為典型的深度學(xué)習(xí)模型。采用聯(lián)結(jié)主義理論作為指導(dǎo)智能機(jī)器人生產(chǎn)的技術(shù)路徑的理論基礎(chǔ)具有如下優(yōu)勢(shì)。
(1)聯(lián)結(jié)主義認(rèn)識(shí)到意識(shí)的層級(jí)結(jié)構(gòu),通過(guò)模擬生物神經(jīng)網(wǎng)絡(luò)的方式,對(duì)意識(shí)的層級(jí)結(jié)構(gòu)進(jìn)行機(jī)械再現(xiàn),具有合理性。
(2)聯(lián)結(jié)主義在實(shí)踐中已得到一定程度的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)模型、堆棧自編碼網(wǎng)絡(luò)模型等模型正處于開(kāi)發(fā)狀態(tài);卷積神經(jīng)網(wǎng)絡(luò)與深度信任網(wǎng)絡(luò)相結(jié)合產(chǎn)生的卷積深度信任網(wǎng)絡(luò),已成功實(shí)現(xiàn)了在人臉識(shí)別等領(lǐng)域的運(yùn)用[25]。卷積神經(jīng)網(wǎng)絡(luò)模型通過(guò)輸入層、卷積層、下采樣層、全連接層和輸出層組織[28]的結(jié)構(gòu)已對(duì)生物的意識(shí)產(chǎn)生機(jī)制進(jìn)行了一定程度的復(fù)現(xiàn)。
在強(qiáng)人工智能機(jī)器人的本質(zhì)問(wèn)題上,若認(rèn)為指導(dǎo)強(qiáng)人工智能機(jī)器人生產(chǎn)的技術(shù)路徑的理論基礎(chǔ)完全系聯(lián)結(jié)主義理論亦存在重大弊端。這包括:一方面,現(xiàn)今的 “深層神經(jīng)網(wǎng)絡(luò)”僅能完成對(duì)生物神經(jīng)信息處理系統(tǒng)的初級(jí)模擬,這成為制約其發(fā)展的技術(shù)瓶頸[29],這一瓶頸導(dǎo)致分析強(qiáng)人工智能機(jī)器人主體地位時(shí),雖然指向了聯(lián)結(jié)主義,卻又對(duì)其實(shí)現(xiàn)的可能性持懷疑態(tài)度,進(jìn)而產(chǎn)生滑坡謬誤,最終否定強(qiáng)人工智能機(jī)器人獨(dú)立意識(shí)的存在;另一方面,現(xiàn)今聯(lián)結(jié)主義理論應(yīng)用停留在對(duì)生物神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)模擬,缺乏與行為模擬的結(jié)合,更忽視了主體同環(huán)境的交互,這使得在研究強(qiáng)人工智能機(jī)器人主體地位時(shí),即使采用了聯(lián)結(jié)主義理論,也會(huì)對(duì)強(qiáng)人工智能機(jī)器人的行為能力產(chǎn)生懷疑。因此,對(duì)強(qiáng)人工智能機(jī)器人本質(zhì)分析完全基于聯(lián)結(jié)主義理論也是存在問(wèn)題的。
結(jié)構(gòu)-行為主義的提出是基于強(qiáng)人工智能機(jī)器人本質(zhì)的分析。符號(hào)主義與聯(lián)結(jié)主義均存在一定弊端,這導(dǎo)致二者不宜直接用作分析強(qiáng)人工智能機(jī)器人本質(zhì)的理論基礎(chǔ),故有必要基于對(duì)強(qiáng)人工智能機(jī)器人的本質(zhì)分析,建構(gòu)結(jié)構(gòu)-行為主義理論。
(1)結(jié)構(gòu)-行為主義的心理學(xué)基礎(chǔ)。事實(shí)上,心理學(xué)界早有在聯(lián)結(jié)主義與符號(hào)主義所代表的第一代認(rèn)知科學(xué)基礎(chǔ)上,提出引入 “動(dòng)力系統(tǒng)”概念的第二代認(rèn)知科學(xué)。第二代認(rèn)知科學(xué)認(rèn)為從最宏觀的 “身 (腦)-心理-環(huán)境”的關(guān)系而言, “具身心智的認(rèn)知活動(dòng)是與環(huán)境相耦合的,動(dòng)力系統(tǒng)研究這種耦合情況下的認(rèn)知發(fā)展的動(dòng)力機(jī)制”[30]。
(2)結(jié)構(gòu)-行為主義的基本內(nèi)核。基于第二代認(rèn)知科學(xué)理論,應(yīng)吸收聯(lián)結(jié)主義理論中對(duì)生物神經(jīng)結(jié)構(gòu)模擬的良好思路,和行為主義理論中模擬主體同環(huán)境交互的實(shí)現(xiàn)路徑,將生物神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)模擬和生物與環(huán)境交互行為模擬進(jìn)行有效銜接,進(jìn)而提出結(jié)構(gòu)-行為主義理論。
(3)結(jié)構(gòu)-行為主義的主要特點(diǎn)。①認(rèn)識(shí)產(chǎn)生機(jī)制的模擬性。人類認(rèn)識(shí)來(lái)源于反復(fù)的實(shí)踐,因此強(qiáng)人工智能機(jī)器人具備的辨認(rèn)能力和控制能力目標(biāo)的實(shí)現(xiàn)必須在模擬神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上,將其與主體同環(huán)境交互行為的模擬相結(jié)合,進(jìn)而實(shí)現(xiàn)強(qiáng)人工智能機(jī)器人具身心智的認(rèn)知活動(dòng)與環(huán)境相耦合,完成對(duì)認(rèn)識(shí)產(chǎn)生機(jī)制的模擬。②物質(zhì)載體獨(dú)立性。結(jié)構(gòu)-行為主義將機(jī)器人的本質(zhì)劃分為3部分,即物質(zhì)載體、算法、數(shù)據(jù)。其中,物質(zhì)載體要件必須是獨(dú)立的,僅含算法要件而缺乏獨(dú)立物質(zhì)載體的人工智能產(chǎn)品,具有辨認(rèn)能力而不具控制能力,無(wú)法與環(huán)境交互,無(wú)法達(dá)至獨(dú)立行為的要求。③認(rèn)識(shí)方式的自發(fā)性。在結(jié)構(gòu)-行為主義指導(dǎo)下實(shí)現(xiàn)的強(qiáng)人工智能機(jī)器人,自生產(chǎn)完成之時(shí)起便會(huì)自發(fā)探索世界,其始動(dòng)的行為如同剪斷新生兒的臍帶一般。
(4)結(jié)構(gòu)-行為主義的具體實(shí)現(xiàn)方式。對(duì)人類與環(huán)境交互行為中使用的多維度信息感知收集器官的功能、信息獲取方式進(jìn)行模擬,立足由行為到認(rèn)識(shí),由認(rèn)識(shí)到?jīng)Q策,再由決策到行為這一人類行為的邏輯結(jié)構(gòu),與模擬生物神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行有效銜接。換言之,要將強(qiáng)人工智能機(jī)器人在模擬生物神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上,進(jìn)行更加深入的賦能,使其可以主動(dòng)同環(huán)境進(jìn)行信息交互,基于 “行為-認(rèn)知-決策”三模塊的互動(dòng),達(dá)到強(qiáng)人工智能機(jī)器人具身心智的認(rèn)識(shí)活動(dòng)同環(huán)境相耦合,產(chǎn)生認(rèn)知發(fā)展動(dòng)力的目標(biāo)。基于結(jié)構(gòu)-行為主義理論指導(dǎo)下生產(chǎn)的智能機(jī)器人,將更符合強(qiáng)人工智能機(jī)器人具有辨認(rèn)能力與控制能力的要求。結(jié)構(gòu)-行為主義理論相較于符號(hào)主義理論、聯(lián)結(jié)主義理論、行為主義理論更具理論優(yōu)勢(shì),見(jiàn)表1。
表1 強(qiáng)人工智能機(jī)器人本質(zhì)的理論指導(dǎo)之橫向?qū)Ρ?/p>
在結(jié)構(gòu)-行為主義理論指導(dǎo)下分析強(qiáng)人工智能機(jī)器人,具有明顯的理論優(yōu)勢(shì),即該理論能夠模擬主體同環(huán)境的交互、復(fù)現(xiàn)了意識(shí)的層級(jí)結(jié)構(gòu)、更符合實(shí)踐到意識(shí)這一意識(shí)產(chǎn)生路徑。基于該理論基礎(chǔ),強(qiáng)人工智能機(jī)器人在不經(jīng)人類控制的前提下,自我收集分析信息、作出自我判斷而自主進(jìn)行行為更易實(shí)現(xiàn)??梢哉f(shuō),相較于符號(hào)主義理論與聯(lián)結(jié)主義理論,結(jié)構(gòu)-行為主義理論更具規(guī)律性、先進(jìn)性和科學(xué)性。概言之,結(jié)構(gòu)-行為主義理論下的強(qiáng)人工智能機(jī)器人本質(zhì)上是一種物質(zhì)載體、數(shù)據(jù)記錄、算法模型與其之上生成的類人意識(shí)的嵌合體,通過(guò)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)模擬與主體同環(huán)境互動(dòng)的行為模擬相結(jié)合,這種嵌合體方得以實(shí)現(xiàn)。
強(qiáng)人工智能機(jī)器人的主體地位的證成及其法律治理,應(yīng)以結(jié)構(gòu)-行為主義理論為指導(dǎo)。依據(jù)法理學(xué)法律主體一般理論[31],強(qiáng)人工智能機(jī)器人之類人意識(shí)、行為能力、權(quán)利能力、義務(wù)能力與責(zé)任能力的存在,決定了其必然具有獨(dú)立的法律主體地位。
學(xué)界研究強(qiáng)人工智能機(jī)器人的主體地位問(wèn)題時(shí),往往選擇回避對(duì)其意識(shí)存在與否的討論,主張意識(shí)作為主體成立的傳統(tǒng)要素已經(jīng)在社會(huì)實(shí)踐中改變[32]。這是一條良好的思路,但其在本質(zhì)上否認(rèn)了強(qiáng)人工智能機(jī)器人獨(dú)立意識(shí)的存在,回避了對(duì)強(qiáng)人工智能機(jī)器人獨(dú)立意識(shí)問(wèn)題的探討。其原因是學(xué)界對(duì)該問(wèn)題進(jìn)行探討時(shí),往往認(rèn)為強(qiáng)人工智能機(jī)器人系本體論在人工智能領(lǐng)域運(yùn)用的基礎(chǔ)上實(shí)現(xiàn)的,也即通過(guò)概念形式化的方式將語(yǔ)句以字符串化,以實(shí)現(xiàn)解決具體特定問(wèn)題的機(jī)器人。這種觀點(diǎn)實(shí)際上將強(qiáng)人工智能機(jī)器人認(rèn)定為符號(hào)主義發(fā)展之結(jié)果,該類機(jī)器人僅為一種提高運(yùn)算效率的工具,當(dāng)然不存在所謂的獨(dú)立意識(shí)。依據(jù)心理學(xué)第二代認(rèn)知科學(xué)理論,心智的具身性和認(rèn)知的情境性是獨(dú)立意識(shí)生成的兩大核心要素。其中,心智的具身性是指心智有賴于身體之生理的、神經(jīng)的結(jié)構(gòu)和活動(dòng)形式;認(rèn)知的情境性認(rèn)為所有的認(rèn)知都是情境認(rèn)知,或是與情境有關(guān)的認(rèn)知[30]。強(qiáng)人工智能機(jī)器人具有模擬生理神經(jīng)元結(jié)構(gòu)與身體結(jié)構(gòu)的獨(dú)立物質(zhì)載體,該載體可以進(jìn)行獨(dú)立行為,具備心智的具身性。同時(shí),強(qiáng)人工智能機(jī)器人的認(rèn)知來(lái)源于同情景環(huán)境的交互,還具備認(rèn)知的情境性。概言之,強(qiáng)人工智能機(jī)器人通過(guò)其獨(dú)立物質(zhì)載體與環(huán)境交互,形成了一種融身、腦、環(huán)境 (文化)更多因素的動(dòng)力系統(tǒng),正是心智的具身性同認(rèn)知的情境性二者的有機(jī)結(jié)合,完成了其 “具身心智的認(rèn)知活動(dòng)與環(huán)境相耦合”[30]。因此,結(jié)構(gòu)-行為主義理論下的強(qiáng)人工智能機(jī)器人,可以通過(guò)實(shí)踐認(rèn)識(shí)事物,產(chǎn)生獨(dú)立意識(shí)。傳統(tǒng)辯證唯物主義雖認(rèn)為,只有人類才能進(jìn)行實(shí)踐活動(dòng),但該觀點(diǎn)的本質(zhì)是對(duì)人腦這一載體的功能和實(shí)踐對(duì)意識(shí)能動(dòng)反作用的肯定。結(jié)構(gòu)-行為主義下的強(qiáng)人工智能機(jī)器人,擁有高度模擬的類人腦結(jié)構(gòu),同樣可與環(huán)境進(jìn)行交互,同樣承載具有能動(dòng)作用的意識(shí),若否定其實(shí)踐能力進(jìn)而否定其從實(shí)踐中獲得認(rèn)識(shí)的能力,將導(dǎo)致二律悖反。
從刑事行為能力視角看,強(qiáng)人工智能機(jī)器人可以通過(guò)深度學(xué)習(xí),獲得辨認(rèn)能力和控制能力,產(chǎn)生獨(dú)立的自我意識(shí)、行為能力,這是理論界肯定強(qiáng)人工智能機(jī)器人行為能力的主要理由[33]。反對(duì)強(qiáng)人工智能機(jī)器人行為能力的主要理由是:否定強(qiáng)人工智能機(jī)器人的自由意志之存在,進(jìn)而認(rèn)定其本質(zhì)為程序,系依附于人類的工具[34],這種觀點(diǎn)強(qiáng)調(diào)其 “物”的屬性,否定其獨(dú)立意識(shí),進(jìn)而否定其行為能力。此外,還存在承認(rèn)機(jī)器人可能會(huì)有行為,但這一行為并非刑法領(lǐng)域的行為,從而否定強(qiáng)人工智能機(jī)器人在刑法領(lǐng)域的行為能力的觀點(diǎn)[35]。該觀點(diǎn)的本質(zhì)仍是機(jī)器人不具有自由意志,不符合刑法領(lǐng)域?qū)π袨榈囊蟆?/p>
從民事行為能力視角看,傳統(tǒng)民事行為能力理論規(guī)則僅為行為人有理解力地從事意思表示行為而設(shè),是指行為人 “單獨(dú)的、完全的能締結(jié)契約那樣所謂的法律行為的能力”[36]??梢?jiàn)民事行為能力的具備要求強(qiáng)人工智能機(jī)器人能夠以獨(dú)立的意思表示,使自己的行為發(fā)生一定的法律效果[37]。上述對(duì)智能機(jī)器人獨(dú)立行為能力的爭(zhēng)論之本質(zhì),是對(duì)智能機(jī)器人能否具獨(dú)立意識(shí)、能否進(jìn)行獨(dú)立意思表示的爭(zhēng)論。結(jié)構(gòu)-行為主義理論下,通過(guò)神經(jīng)網(wǎng)絡(luò)之構(gòu)建,與同類人行為模擬之鏈接,機(jī)器人產(chǎn)生自我意識(shí)是可以實(shí)現(xiàn)的,對(duì)其行為能力之肯定,將是科技發(fā)展的應(yīng)然結(jié)果。認(rèn)為弱人工智能機(jī)器人在當(dāng)下不具有自由意志固然有一定的合理性,但無(wú)法據(jù)此否定擁有類人智能的強(qiáng)人工智能機(jī)器人具有獨(dú)立意識(shí)、自由意志;更無(wú)法基于弱人工智能機(jī)器人的現(xiàn)實(shí)缺陷,而認(rèn)為強(qiáng)人工智能機(jī)器人的行為能力存在實(shí)質(zhì)上的缺陷。
權(quán)利能力、義務(wù)能力與責(zé)任能力是法律主體地位的主要判斷標(biāo)準(zhǔn)[38]。權(quán)利能力層面看,在當(dāng)前弱人工智能時(shí)代,學(xué)界就已出現(xiàn)智能機(jī)器人權(quán)利主體論[39],人工智能創(chuàng)作物著作權(quán)論[40],也存在依據(jù)智能機(jī)器人不享有倫理性的人格權(quán)和身份權(quán)為依據(jù),而認(rèn)為其權(quán)利能力僅限于經(jīng)濟(jì)性的財(cái)產(chǎn)權(quán)利的工具性人格說(shuō)[41]。在經(jīng)濟(jì)權(quán)利方面,結(jié)構(gòu)-行為主義理論下的強(qiáng)人工智能機(jī)器人,具有類人意識(shí),擁有獨(dú)立的行為能力,且具備了成為權(quán)利主體的關(guān)鍵性要素:智能性,具有完整的權(quán)利能力。而在倫理性的人格權(quán)和身份權(quán)問(wèn)題上,結(jié)構(gòu)-行為主義理論下強(qiáng)人工智能機(jī)器人雖不具備自然生物的生育繁殖能力,但可通過(guò)婚姻、領(lǐng)養(yǎng)等方式建立特定的人格、身份關(guān)系。建立類人社會(huì)關(guān)系能力的具備,使得其倫理性的人格權(quán)與身份權(quán)的實(shí)現(xiàn)并不具有根本性障礙。義務(wù)能力層面看,強(qiáng)人工智能機(jī)器人具有行為能力能夠自主做出意思表示、具有完成與他人約定的勞動(dòng)義務(wù)之給付的能力;其亦享有完整的經(jīng)濟(jì)權(quán)利能力、獨(dú)立的私有財(cái)產(chǎn),具有私有財(cái)產(chǎn)處分權(quán),亦可承擔(dān)財(cái)產(chǎn)給付義務(wù)。此外,強(qiáng)人工智能機(jī)器人也可承擔(dān)撫養(yǎng)、扶養(yǎng)等身份關(guān)系義務(wù),具備履行傳統(tǒng)民事法律行為義務(wù)的能力。責(zé)任能力層面看,責(zé)任能力又稱過(guò)錯(cuò)能力,也即對(duì)自己的過(guò)失行為能夠承擔(dān)責(zé)任的能力[42]。學(xué)界對(duì)于智能機(jī)器人責(zé)任能力問(wèn)題的討論,在刑法領(lǐng)域主要是對(duì)人工智能機(jī)器人自由意志存在與否的探討[43]。而在民事領(lǐng)域,在以德國(guó)法為代表的諸多立法例上,民事責(zé)任能力的一般標(biāo)準(zhǔn)是識(shí)別能力或同等層次的辨識(shí)能力、理解能力,也有例外地考慮經(jīng)濟(jì)條件[44]??梢?jiàn),學(xué)界在智能機(jī)器人責(zé)任能力問(wèn)題上的核心爭(zhēng)議在于,智能機(jī)器人是否具有自由意志和獨(dú)立辨識(shí)能力。強(qiáng)人工智能機(jī)器人具有獨(dú)立的責(zé)任能力,這是因?yàn)椋孩倬哂歇?dú)立意識(shí)。強(qiáng)人工智能機(jī)器人能夠在人類不加以干預(yù)的情況下自主做出行為,擁有自由意志。②具有辨識(shí)能力。強(qiáng)人工智能機(jī)器人能夠通過(guò)獨(dú)立物質(zhì)載體同環(huán)境交互,進(jìn)而做出行為,對(duì)自身行為具有辨識(shí)能力。③具有獨(dú)立財(cái)產(chǎn)權(quán)。從經(jīng)濟(jì)角度考量,強(qiáng)人工智能機(jī)器人可擁有私有財(cái)產(chǎn),并且能基于其經(jīng)濟(jì)權(quán)利能力對(duì)其侵權(quán)行為造成的損失進(jìn)行賠償,亦能夠通過(guò)刑罰手段使其承擔(dān)法益侵害后果,因此強(qiáng)人工智能機(jī)器人具備獨(dú)立的責(zé)任能力。
法律地位是法律主體參與法律關(guān)系的前提,其包括法律資格與法律權(quán)力、權(quán)利與義務(wù)兩個(gè)部分[45]。探究如何對(duì)強(qiáng)人工智能機(jī)器人進(jìn)行法律治理命題,不可回避地要討論一個(gè)前置性問(wèn)題,即機(jī)器人權(quán)利與人的權(quán)利之關(guān)系問(wèn)題,二者是否是平等關(guān)系?弱人工智能時(shí)代,有學(xué)者就以人工智能機(jī)器人權(quán)利為中心,對(duì)其權(quán)利存在與邊界問(wèn)題展開(kāi)了分析[46]。結(jié)構(gòu)-行為主義理論在這一問(wèn)題上持折衷立場(chǎng),認(rèn)為強(qiáng)人工智能機(jī)器人權(quán)利與人類權(quán)利具有有限平等關(guān)系。這是因?yàn)椋孩購(gòu)?qiáng)人工智能機(jī)器人具備權(quán)利主體 “類人智慧”這一本質(zhì)性要件,其智能性的存在決定了其能夠成為知識(shí)產(chǎn)權(quán)等財(cái)產(chǎn)性權(quán)利的主體[47]。②強(qiáng)人工智能機(jī)器人權(quán)利主體論的建構(gòu),具有正向的功能性。強(qiáng)人工智能機(jī)器人權(quán)利主體觀念構(gòu)建,具有合乎社會(huì)發(fā)展趨勢(shì)和利于厘清社會(huì)關(guān)系與秩序的正向建設(shè)性功能[48],在法權(quán)層面賦予強(qiáng)人工智能機(jī)器人以法律地位是必要且正當(dāng)?shù)摹"蹚?qiáng)人工智能機(jī)器人的權(quán)利義務(wù)不必也不能與人類等同,雖賦予強(qiáng)人工智能機(jī)器人權(quán)利主體地位具有必要性,但也應(yīng)看到,人類創(chuàng)造強(qiáng)人工智能機(jī)器人是帶有目的性的,二者在同位階權(quán)益沖突的情況下,應(yīng)優(yōu)先保護(hù)人類權(quán)益,強(qiáng)人工智能機(jī)器人與人關(guān)系的有限平等性正是在此基礎(chǔ)上提出的。
有限平等性包含平等性和有限性。平等性是指強(qiáng)人工智能機(jī)器人與人類同樣享有經(jīng)濟(jì)性的財(cái)產(chǎn)權(quán)利與倫理性的人格、身份權(quán)利,且強(qiáng)人工智能機(jī)器人對(duì)人類或是其他同類機(jī)器人做出的法益侵害行為具有可罰性,而人類對(duì)強(qiáng)人工智能機(jī)器人做出的法益侵害行為同樣具有可罰性;有限性是指,二者并非完全平等,在人類與強(qiáng)人工智能機(jī)器人權(quán)利發(fā)生沖突時(shí),同等條件下,對(duì)人類權(quán)利的保護(hù)應(yīng)優(yōu)于對(duì)強(qiáng)人工智能機(jī)器人權(quán)利的保護(hù)。強(qiáng)人工智能機(jī)器人雖然與人類同樣享有權(quán)利與義務(wù),其權(quán)利義務(wù)的內(nèi)容不必要也不可能與人類完全等同?;趶?qiáng)人工智能機(jī)器人強(qiáng)大的運(yùn)算與行為能力,其所需承擔(dān)義務(wù)的標(biāo)準(zhǔn)理應(yīng)高于人類。
強(qiáng)人工智能機(jī)器人的法律治理還須建立在對(duì)其本質(zhì)把握與核心要素的科學(xué)分析之上。結(jié)構(gòu)-行為主義理論下,強(qiáng)人工智能機(jī)器人核心要素包括物質(zhì)載體、數(shù)據(jù)和算法。其中,物質(zhì)載體指承載強(qiáng)人工智能機(jī)器人數(shù)據(jù)、算法與其衍生的類人意識(shí)的獨(dú)立容器;數(shù)據(jù)指強(qiáng)人工智能機(jī)器人主體同環(huán)境交互的過(guò)程中,基于對(duì)環(huán)境反饋信息的多維收集與層級(jí)處理,得到的對(duì)環(huán)境與交互客體的數(shù)據(jù)記錄;算法指強(qiáng)人工智能機(jī)器人物質(zhì)載體所承載的以系統(tǒng)方法復(fù)現(xiàn)人腦構(gòu)造、模擬意識(shí)層級(jí)結(jié)構(gòu)的策略機(jī)制。因此,進(jìn)行強(qiáng)人工智能機(jī)器人的法律治理需基于結(jié)構(gòu)-行為主義理論,在強(qiáng)人工智能機(jī)器人獨(dú)立法律主體地位的基礎(chǔ)上,進(jìn)行 “載體-數(shù)據(jù)-算法”三分之治。
(1)強(qiáng)人工智能機(jī)器人物質(zhì)載體之事前治理。對(duì)機(jī)器人進(jìn)行治理與對(duì)其物質(zhì)載體的相關(guān)生產(chǎn)主體進(jìn)行治理并不沖突。事實(shí)上,機(jī)器人治理的好壞與其物質(zhì)載體的生產(chǎn)環(huán)節(jié)緊密相關(guān),機(jī)器人是獨(dú)立的,但對(duì)其物質(zhì)載體相關(guān)生產(chǎn)主體準(zhǔn)入、數(shù)量限制進(jìn)行事前治理十分必要。
建立健全生產(chǎn)主體準(zhǔn)入機(jī)制。強(qiáng)人工智能機(jī)器人物質(zhì)載體的生產(chǎn)者,可劃分為一般非核心原件生產(chǎn)者、核心原件生產(chǎn)者和組合制造者。非核心原件生產(chǎn)者,其產(chǎn)物本身與一般商品并無(wú)本質(zhì)區(qū)別,故無(wú)需對(duì)其加以特別治理。核心原件生產(chǎn)者與組合制造者的故意或過(guò)失可能招致嚴(yán)重的社會(huì)風(fēng)險(xiǎn),若核心原件缺陷導(dǎo)致機(jī)器產(chǎn)生意識(shí)障礙,也將是重大的倫理問(wèn)題。因此監(jiān)管機(jī)關(guān)應(yīng)對(duì)核心原件生產(chǎn)者、組合制造者的準(zhǔn)入資質(zhì)、產(chǎn)品標(biāo)準(zhǔn),加以嚴(yán)格限制,從而實(shí)現(xiàn)對(duì)強(qiáng)人工智能機(jī)器人物質(zhì)載體的源頭治理;域外準(zhǔn)入層面,應(yīng)保持信息互通和戰(zhàn)略互信,共同制定統(tǒng)一的準(zhǔn)入標(biāo)準(zhǔn),實(shí)現(xiàn)強(qiáng)人工智能機(jī)器人生產(chǎn)準(zhǔn)入領(lǐng)域的全球治理。
加強(qiáng)對(duì)強(qiáng)人工智能機(jī)器人生產(chǎn)與保有數(shù)量的限制。強(qiáng)人工智能機(jī)器人出現(xiàn)后,人類必將面臨與人口問(wèn)題、人地矛盾相類似的機(jī)器人與生態(tài)環(huán)境矛盾問(wèn)題,為防止強(qiáng)人工智能機(jī)器人數(shù)量超越環(huán)境承載力限度,對(duì)其生產(chǎn)、保有數(shù)量應(yīng)進(jìn)行明確限制,應(yīng)出臺(tái)配套法律法規(guī),通過(guò)行政、市場(chǎng)、財(cái)稅等措施對(duì)機(jī)器人數(shù)量生產(chǎn)計(jì)劃指標(biāo)進(jìn)行限制。嚴(yán)控域外機(jī)器人進(jìn)入,國(guó)與國(guó)之間須加強(qiáng)溝通協(xié)調(diào),以全球整體的理念和戰(zhàn)略對(duì)強(qiáng)人工智能機(jī)器人數(shù)量進(jìn)行合理的分配與限制,以期實(shí)現(xiàn)對(duì)其總數(shù)量、生產(chǎn)標(biāo)準(zhǔn)的全球共治。
(2)強(qiáng)人工智能機(jī)器人物質(zhì)載體之事后干預(yù)。強(qiáng)人工智能機(jī)器人物質(zhì)載體的事后治理,集中在強(qiáng)人工智能機(jī)器人犯罪時(shí)應(yīng)采用的刑罰方式層面,對(duì)其物質(zhì)載體的刑罰方式應(yīng)采取限制自由、限制機(jī)能、銷毀等多元刑罰方式。
生命刑層面,將銷毀物質(zhì)載體作為強(qiáng)人工智能機(jī)器人的刑罰方法。學(xué)界在論及對(duì)強(qiáng)人工智能機(jī)器人的刑罰問(wèn)題時(shí),往往會(huì)把將其物質(zhì)載體予以銷毀作為一種刑罰方法[49],這種刑罰方法與現(xiàn)行刑法所規(guī)定的死刑相當(dāng)。對(duì)強(qiáng)人工智能機(jī)器人施以刑罰的目的,系改造犯罪機(jī)器人以及威懾潛在的犯罪強(qiáng)人工智能機(jī)器人,以實(shí)現(xiàn)人類社會(huì)秩序之維護(hù)。從功利角度看,當(dāng)強(qiáng)人工智能機(jī)器人不具改造可能性,且需要通過(guò)銷毀方式威懾潛在犯罪機(jī)器人時(shí),這種刑罰方式具有可采性,可作為一種刑罰方法入刑。但銷毀這一刑罰方式不僅是對(duì)強(qiáng)人工智能機(jī)器人物質(zhì)載體的徹底摧毀,也是對(duì)強(qiáng)人工智能機(jī)器人類人意識(shí)的永久抹除,應(yīng)慎之又慎,僅當(dāng)窮盡一切方式均無(wú)法達(dá)到改造犯罪機(jī)器人、消除其危險(xiǎn)性的目的時(shí)方可使用。這種刑罰方式使用的監(jiān)督也應(yīng)同在訴訟領(lǐng)域的死刑復(fù)核程序接軌,在程序法上應(yīng)將銷毀強(qiáng)人工智能機(jī)器人物質(zhì)載體納入死刑復(fù)核程序進(jìn)行監(jiān)督,或是建立與死刑復(fù)核程序同等級(jí)別的訴訟程序?qū)υ撔塘P方式進(jìn)行審核,以期維護(hù)刑法的謙抑性和程序法的獨(dú)立價(jià)值。
自由刑層面,將限制犯罪強(qiáng)人工智能機(jī)器人物質(zhì)載體自由作為主要刑罰方式,限制機(jī)能作為一種輔助性的刑罰方式。當(dāng)強(qiáng)人工智能機(jī)器人所犯罪行侵害的法益與需要判處自由刑的罪名所保護(hù)的法益相當(dāng)時(shí),對(duì)其物質(zhì)載體采取自由刑的方式是合理的。在確立強(qiáng)人工智能機(jī)器人刑事主體地位的基礎(chǔ)上,刑法中的自由刑同樣可以適用于強(qiáng)人工智能機(jī)器人,但在具體刑罰時(shí)間與限制方式上,應(yīng)結(jié)合強(qiáng)人工智能機(jī)器人的實(shí)際加以完善。對(duì)強(qiáng)人工智能機(jī)器人物質(zhì)載體予以一定程度機(jī)能限制的方式,同樣可以作為一種刑罰方法,這種方式的正當(dāng)性來(lái)源于被限制機(jī)能的可恢復(fù)性,強(qiáng)人工智能機(jī)器人的物質(zhì)載體相較于生物體更易于對(duì)其進(jìn)行部分機(jī)能的限制,更易于控制限制的范圍與期間。此外,能否在不影響該機(jī)器人功能的情況下,把犯有嚴(yán)重罪行的強(qiáng)人工智能機(jī)器人物質(zhì)載體進(jìn)行警示性的改造、標(biāo)記用作一種刑罰方法?強(qiáng)人工智能機(jī)器人具有倫理性的類人人格權(quán),而此種刑罰方式與人類文明早期野蠻的刑罰方法并無(wú)本質(zhì)區(qū)別,侵害犯罪機(jī)器人的類人人格尊嚴(yán)權(quán)不符合現(xiàn)代法治精神,有違法治文明,故不宜采用。
(1)數(shù)據(jù)倫理:強(qiáng)人工智能機(jī)器人數(shù)據(jù)謙抑性法律治理之內(nèi)生邏輯。謙抑性治理中的 “謙抑性”來(lái)源于刑法的謙抑性原則[50],強(qiáng)人工智能機(jī)器人數(shù)據(jù)謙抑性治理的內(nèi)涵在于少用、慎用法律對(duì)其進(jìn)行規(guī)制,這由強(qiáng)人工智能機(jī)器人數(shù)據(jù)自身特殊性決定。強(qiáng)人工智能機(jī)器人的數(shù)據(jù)具有復(fù)制傳播性與隱私倫理性二重屬性,對(duì)人類而言,通過(guò)聯(lián)網(wǎng)等方式對(duì)數(shù)據(jù)進(jìn)行復(fù)制、傳播、共享,是完全可實(shí)現(xiàn)的;對(duì)強(qiáng)人工智能機(jī)器人而言,數(shù)據(jù)即是其記憶,帶有鮮明隱私倫理性特征。數(shù)據(jù)倫理是一系列指導(dǎo)人處理數(shù)據(jù)行為的觀念和所應(yīng)遵循的基本準(zhǔn)則,對(duì)強(qiáng)人工智能機(jī)器人而言,數(shù)據(jù)倫理涉及其數(shù)據(jù)的使用以及干涉等方面[51]。具體而言,人類作為一方主體,不論是對(duì)強(qiáng)人工智能機(jī)器人問(wèn)題數(shù)據(jù)進(jìn)行外力干涉時(shí),還是規(guī)制強(qiáng)人工智能機(jī)器人倫理決策時(shí),都應(yīng)遵循少用、慎用外力的基本準(zhǔn)則,也就是對(duì)強(qiáng)人工智能機(jī)器人數(shù)據(jù)應(yīng)進(jìn)行謙抑性的法律治理。
首先,強(qiáng)人工智能機(jī)器人數(shù)據(jù)的特殊性,決定其數(shù)據(jù)治理應(yīng)保持謙抑性。數(shù)據(jù)之于強(qiáng)人工智能機(jī)器人,猶如記憶之于人類,有著無(wú)法比擬的重要性。世界是非先驗(yàn)的,人類的記憶源于實(shí)踐,且具有能動(dòng)的反作用,記憶的改變會(huì)影響人類對(duì)世界的認(rèn)識(shí)。如果能夠控制人類記憶,就等同于操縱了人類對(duì)特定事物的認(rèn)識(shí),進(jìn)而影響人類決策,至此自由意志將蕩然無(wú)存,這將是嚴(yán)重違反倫理的行為。而強(qiáng)人工智能機(jī)器人一旦開(kāi)始運(yùn)行,數(shù)據(jù)就將伴隨其與環(huán)境的交互產(chǎn)生,數(shù)據(jù)作為強(qiáng)人工智能機(jī)器人認(rèn)識(shí)事物的基礎(chǔ),同樣能直接影響強(qiáng)人工智能機(jī)器人的行動(dòng)決策。強(qiáng)人工智能機(jī)器人具有倫理性的人格和身份權(quán)利,因此對(duì)其數(shù)據(jù)進(jìn)行外力干涉時(shí)應(yīng)慎之又慎。
其次,強(qiáng)人工智能機(jī)器人數(shù)據(jù)所反映的數(shù)據(jù)倫理問(wèn)題需要法律規(guī)制,對(duì)倫理決策的規(guī)制應(yīng)堅(jiān)持謙抑性。事實(shí)上,法律規(guī)范往往是道德規(guī)則的轉(zhuǎn)化,倫理道德要求可以適時(shí)轉(zhuǎn)化為法律規(guī)范,實(shí)現(xiàn)道德的法律化[52]。強(qiáng)人工智能機(jī)器人的數(shù)據(jù)倫理問(wèn)題,源自強(qiáng)人工智能機(jī)器人需要通過(guò)數(shù)據(jù)來(lái)執(zhí)行倫理決策,該決策與人類主體利益以及社會(huì)秩序密切關(guān)聯(lián),亟待法律予以制度化的評(píng)價(jià)與調(diào)整。從倫理本身的價(jià)值追求看,人類倫理和數(shù)據(jù)倫理都系人類在自身價(jià)值選擇結(jié)果的基礎(chǔ)上建立起來(lái)的,這并無(wú)不妥,因?yàn)闊o(wú)論是人類還是強(qiáng)人工智能機(jī)器人,其倫理決策均建立在有限理性的基礎(chǔ)上,但強(qiáng)人工智能機(jī)器人數(shù)據(jù)的法律規(guī)制難以滲透擴(kuò)張至其類型化規(guī)則化倫理決策的范疇,因此規(guī)制的范圍應(yīng)限定在制止危及法律所捍衛(wèi)的倫理道德底線內(nèi),這也為強(qiáng)人工智能機(jī)器人建立獨(dú)立于人類倫理的機(jī)械倫理體系預(yù)留了空間與交流之可能,亦兼顧了人類主體利益的保護(hù)。
(2)審慎規(guī)制:強(qiáng)人工智能機(jī)器人數(shù)據(jù)謙抑性法律治理的落實(shí)。
首先,法律政策應(yīng)鼓勵(lì)強(qiáng)人工智能機(jī)器人數(shù)據(jù)倫理研究。數(shù)據(jù)倫理與法律價(jià)值存在高度重合,數(shù)據(jù)倫理的法治對(duì)策應(yīng)圍繞防治危及倫理道德底線的倫理決策角度展開(kāi),尤其是在人類社會(huì)受到強(qiáng)人工智能機(jī)器人沖擊時(shí),支持和鼓勵(lì)對(duì)人類主體自身價(jià)值保護(hù)、強(qiáng)人工智能機(jī)器人主體的利益關(guān)切,以及二者互動(dòng)模式、倫理道德底線進(jìn)行探究。從橫向上看,需要就強(qiáng)人工智能機(jī)器人內(nèi)部產(chǎn)生的新型社會(huì)關(guān)系之倫理問(wèn)題,和人類與強(qiáng)人工智能機(jī)器人關(guān)系的倫理問(wèn)題,進(jìn)行廣泛深入的探討;從縱向上看,對(duì)強(qiáng)人工智能機(jī)器人數(shù)據(jù)倫理的探討與既有人類社會(huì)倫理體系的關(guān)系也需要深入研究,前者既是對(duì)后者的辯證否定,也是對(duì)后者的繼承發(fā)展。
其次,以指導(dǎo)案例的方式對(duì)強(qiáng)人工智能機(jī)器人數(shù)據(jù)進(jìn)行法律治理。這是由于倫理問(wèn)題往往需要深入到個(gè)案中探討才能得出有效結(jié)論,在個(gè)案中,人類與強(qiáng)人工智能機(jī)器人會(huì)出于個(gè)體的差異,作出不同的倫理決策。這種決策的范式事實(shí)上很難規(guī)范化、具體化、同質(zhì)化,即使通過(guò)大數(shù)據(jù)采用提取公因式的方式,得出一個(gè)籠統(tǒng)的答案,在個(gè)案中人類與強(qiáng)人工智能機(jī)器人主體的主觀能動(dòng)性和認(rèn)識(shí)的局限性也將影響當(dāng)時(shí)環(huán)境下的倫理選擇標(biāo)準(zhǔn)。強(qiáng)人工智能機(jī)器人數(shù)據(jù)倫理問(wèn)題存在個(gè)案差異,而法律語(yǔ)言往往高度抽象,如果以傳統(tǒng)抽象的條文方式,規(guī)制高速變化發(fā)展的強(qiáng)人工智能機(jī)器人數(shù)據(jù)倫理問(wèn)題,則司法實(shí)踐中法官仍需通過(guò)解釋以明確標(biāo)準(zhǔn)。因此,通過(guò)指導(dǎo)案例的方式對(duì)其加以明確,既為數(shù)據(jù)倫理問(wèn)題的治理預(yù)留了發(fā)展空間,也貫徹了審慎包容治理,堅(jiān)持了謙抑性的要求。
再次,審慎運(yùn)用司法手段對(duì)強(qiáng)人工智能機(jī)器人數(shù)據(jù)進(jìn)行干預(yù)。數(shù)據(jù)系強(qiáng)人工智能機(jī)器人主體同環(huán)境交互行為所產(chǎn)生,除非該數(shù)據(jù)錯(cuò)誤系生產(chǎn)制造者原因?qū)е碌奈镔|(zhì)載體或是算法缺陷所致。只有當(dāng)強(qiáng)人工智能機(jī)器人的倫理自決危及道德底線時(shí),才能通過(guò)司法程序,對(duì)強(qiáng)人工智能機(jī)器人數(shù)據(jù)進(jìn)行干預(yù),因此,以司法方式干預(yù)強(qiáng)人工智能機(jī)器人的數(shù)據(jù)有3個(gè)先決條件:①當(dāng)且僅當(dāng)強(qiáng)人工智能機(jī)器人做出危及倫理道德底線行為的成因,是該機(jī)器人經(jīng)過(guò)自主收集信息、自主分析、自主采取行為,無(wú)其他歸責(zé)主體時(shí),才可對(duì)其數(shù)據(jù)進(jìn)行干預(yù);②將刪除、修改數(shù)據(jù)作為一種刑罰方法時(shí),應(yīng)限定在強(qiáng)人工智能機(jī)器人物質(zhì)載體主要治理方式——限制自由或機(jī)能無(wú)法排除緊迫法益侵害可能性,且犯罪機(jī)器人不具備改造可能性時(shí),才可以考慮對(duì)犯罪機(jī)器人的數(shù)據(jù)施以刪除或是修改的刑罰方法;③能夠準(zhǔn)確定位問(wèn)題數(shù)據(jù)的位置、范圍,且經(jīng)審判程序后,才得對(duì)強(qiáng)人工智能機(jī)器人的問(wèn)題數(shù)據(jù)進(jìn)行精確干涉。
如前所述,對(duì)機(jī)器人進(jìn)行治理與對(duì)其物質(zhì)載體的相關(guān)生產(chǎn)主體進(jìn)行治理并不沖突。同樣,算法治理層面,對(duì)掌控強(qiáng)人工智能機(jī)器人算法的企業(yè)進(jìn)行治理亦是十分必要的。強(qiáng)人工智能機(jī)器人的算法風(fēng)險(xiǎn)來(lái)源是:①企業(yè)利用技術(shù)優(yōu)勢(shì)地位規(guī)避法律治理,逃避法律監(jiān)管;②算法技術(shù)發(fā)展迅疾,而法律具有滯后性,導(dǎo)致算法治理法律手段缺乏。因此,強(qiáng)人工智能機(jī)器人算法的法律治理應(yīng)從兩個(gè)層面展開(kāi):①通過(guò)事前審核備案機(jī)制,防止企業(yè)通過(guò) “算法霸權(quán)”規(guī)避法律治理,逃避監(jiān)管;②追求法律技術(shù)、倫理規(guī)范同社會(huì)科技發(fā)展的動(dòng)態(tài)同步演變,建立健全算法審查的司法程序。
(1)實(shí)行事前審核備案制。算法作為一種技術(shù)并不絕對(duì)中立,算法的內(nèi)容受制于其編寫(xiě)者,故掌握強(qiáng)人工智能機(jī)器人算法的企業(yè)存在利用技術(shù)優(yōu)勢(shì)地位規(guī)避法律治理,逃避法律監(jiān)管的風(fēng)險(xiǎn)。與此同時(shí),強(qiáng)人工智能機(jī)器人技術(shù)將極大地賦能掌握該技術(shù)的企業(yè),將加劇強(qiáng)人工智能機(jī)器人勞力消費(fèi)者的弱勢(shì)地位,消費(fèi)者的知情權(quán)、隱私權(quán)將更易受到侵害[53]。應(yīng)建立事前的算法審核備案機(jī)制,以法律權(quán)威積極介入的方式,避免企業(yè)通過(guò)主動(dòng)修改算法逃避法律監(jiān)管,以防止企業(yè)為自身牟利而損害社會(huì)利益、沖擊法律所保護(hù)的倫理道德底線,通過(guò)國(guó)家權(quán)力的干預(yù),制約企業(yè)與資本的無(wú)序擴(kuò)張與悖德行為。
(2)建立健全事后的算法審查司法程序。算法本身就可能含有違背倫理的結(jié)構(gòu)與模塊,當(dāng)強(qiáng)人工智能機(jī)器人違背倫理的決策已經(jīng)做出時(shí),除了對(duì)個(gè)案機(jī)器人的法律制裁與司法矯正,還應(yīng)通過(guò)法律權(quán)威介入的方式,建立健全事后的算法審查司法程序,對(duì)個(gè)案機(jī)器人算法的倫理性進(jìn)行司法審查,以期通過(guò)法律實(shí)現(xiàn)對(duì)強(qiáng)人工智能機(jī)器人算法的治理。
綜上,強(qiáng)人工智能機(jī)器人的法律治理應(yīng)從物質(zhì)載體、數(shù)據(jù)、算法3個(gè)層面展開(kāi),如圖1所示。
圖1 強(qiáng)人工智能機(jī)器人的三分之治
在強(qiáng)人工智能機(jī)器人法律治理的諸多問(wèn)題中,其本質(zhì)是什么、是否具有獨(dú)立的主體地位,是研究的關(guān)鍵和核心。強(qiáng)人工智能機(jī)器人是否具有獨(dú)立的主體地位是必須回答的一個(gè)理論問(wèn)題。要回答此問(wèn)題,就必須追本溯源,對(duì)強(qiáng)人工智能機(jī)器人的本質(zhì)進(jìn)行深入分析。研究發(fā)現(xiàn),強(qiáng)人工智能機(jī)器人的符號(hào)主義理論和聯(lián)結(jié)主義理論,均存在一定的缺陷和不足,有必要提出結(jié)構(gòu)-行為主義這一理論。
結(jié)構(gòu)-行為主義理論下的強(qiáng)人工智能機(jī)器人,本質(zhì)上是一種物質(zhì)載體、數(shù)據(jù)記錄、算法模型與其之上生成的類人意識(shí)的嵌合體,具備法律意義上的行為能力、權(quán)利能力、義務(wù)能力與責(zé)任能力。誠(chéng)然,人工智能機(jī)器人從產(chǎn)生發(fā)展到應(yīng)用擴(kuò)張,是一個(gè)紛繁且復(fù)雜的過(guò)程,其法律治理涉及諸多因素,本文無(wú)意也無(wú)力面面俱到,需要特別說(shuō)明的是:①關(guān)于強(qiáng)人工智能機(jī)器人是否必須聯(lián)網(wǎng)的問(wèn)題,從產(chǎn)生機(jī)制看,數(shù)據(jù)是強(qiáng)人工智能機(jī)器人獨(dú)立生成并獨(dú)自儲(chǔ)存在其物質(zhì)載體中的,故強(qiáng)人工智能機(jī)器人可以自主選擇,是否將全部或部分?jǐn)?shù)據(jù)進(jìn)行聯(lián)網(wǎng)、復(fù)制、傳播、共享,且強(qiáng)人工智能機(jī)器人的獨(dú)立主體地位與其聯(lián)網(wǎng)與否、數(shù)據(jù)能否復(fù)制傳播并不矛盾,與其數(shù)據(jù)僅由單機(jī)生成并獨(dú)自儲(chǔ)存并不沖突。②互聯(lián)網(wǎng)大數(shù)據(jù)中的大數(shù)據(jù)與強(qiáng)人工智能機(jī)器人的數(shù)據(jù),不屬于同一個(gè)概念范疇,互聯(lián)網(wǎng)中的大數(shù)據(jù)是指一般技術(shù)工具無(wú)法在短時(shí)間范圍內(nèi)進(jìn)行捕捉、管理和處理的數(shù)據(jù)集合,是海量待處理的信息資源,而強(qiáng)人工智能機(jī)器人既能通過(guò)自主行為獲得數(shù)據(jù),也能通過(guò)數(shù)據(jù)進(jìn)行決策,強(qiáng)人工智能機(jī)器人的數(shù)據(jù)更多是其記憶的體現(xiàn)。
在一定意義上,本文對(duì)強(qiáng)人工智能機(jī)器人認(rèn)知理論、本質(zhì)屬性和主體地位的分析,以及對(duì)其進(jìn)行 “載體-數(shù)據(jù)-算法”三分治理進(jìn)路的提出更多是一種理想化的理論探究和學(xué)術(shù)嘗試??梢源竽戭A(yù)見(jiàn),強(qiáng)人工智能機(jī)器人進(jìn)入尋常百姓家將不再是遙不可及的科學(xué)幻想。因此,運(yùn)用法治思維和法治方式對(duì)包括強(qiáng)人工智能機(jī)器人在內(nèi)的智能技術(shù)進(jìn)行有效治理,確保其既安全穩(wěn)定又健康有序發(fā)展,既是智能技術(shù)應(yīng)用擴(kuò)張對(duì)法治理論的殷切呼喚,也是技術(shù)賦權(quán)與賦能對(duì)治理能力的熱忱期許,更是推進(jìn)國(guó)家治理體系和治理能力現(xiàn)代化的迫切要求。