摘 要:人工智能生產(chǎn)力的發(fā)展已經(jīng)使人工智能獲得權(quán)利。人工智能權(quán)利是人的社會化進(jìn)程的產(chǎn)物,作為人的權(quán)利的延伸,其為平衡社會發(fā)展及自身發(fā)展限度提供了法律手段。但人工智能權(quán)利話語體系是培根意義上的“劇場假象”,這一遮蔽人的主體性的抽象權(quán)利在為社會發(fā)展提供規(guī)則的同時(shí),也常伴有支解人的權(quán)利的異化現(xiàn)象,致使人工智能權(quán)利與社會事實(shí)相異化、與人的權(quán)利相異化、與人的類本質(zhì)相異化以及不同人工智能權(quán)利主體之間相異化。因此,基于人工智能權(quán)利的社會物質(zhì)性,重塑人的權(quán)利需要從方法論、認(rèn)識論、實(shí)踐論方面著手。
關(guān)鍵詞:人工智能權(quán)利;人的權(quán)利;抽象權(quán)利;權(quán)利分解;權(quán)利重塑
中圖分類號:D92
文獻(xiàn)標(biāo)志碼:A文章編號:1002-7408(2021)10-0072-07
作者簡介:李海?。?990-),女,河北邯鄲人,首都師范大學(xué)馬克思主義學(xué)院博士研究生,研究方向:馬克思主義基本原理。
隨著人工智能生產(chǎn)力的加速發(fā)展,在人與人工智能互動(dòng)的社會中出現(xiàn)了一系列問題。人們借助主體范式和關(guān)系范式開始建構(gòu)人工智能的權(quán)利話語體系[1]。但是,關(guān)于人工智能的主體地位,卻存有爭議。無論是民法領(lǐng)域的代理說、電子人格說、產(chǎn)品責(zé)任說、類推適用動(dòng)物說、人工類人格說,還是刑法領(lǐng)域的全面消極論、刑法對象論、刑事主體資格條件缺乏論、非法定主體論[2],都離不開對其核心內(nèi)容——權(quán)利等基本范疇的界定。通過國家立法的方式,以擬制人工智能權(quán)利為參照,以權(quán)利話語體系為藍(lán)本,人為賦予人工智能權(quán)利,這一遮蔽人的主體性的“劇場假象”在為延伸人的權(quán)利提供良好社會秩序的同時(shí),也使人的權(quán)利遭到了支解與異化。因此,基于人工智能權(quán)利的社會物質(zhì)性,重塑人的權(quán)利,讓人工智能權(quán)利成為真正的人的自由而全面發(fā)展的權(quán)利才是人工智能發(fā)展的實(shí)踐旨?xì)w和價(jià)值旨?xì)w。
一、人工智能權(quán)利:人的權(quán)利的延伸
人工智能權(quán)利是人的勞動(dòng)的社會化產(chǎn)物,是人們在社會實(shí)踐過程中基于智能主體——人的需要,而創(chuàng)造出來的社會調(diào)解機(jī)制,是平衡社會發(fā)展與人工智能法律之間的手段,是人類社會化程度不斷提高的結(jié)果。人們解釋世界所形成的一整套符號與范疇最初都是在社會化的過程中所形成的[3] 。現(xiàn)代社會的進(jìn)步即以權(quán)利的外延與權(quán)利主體的外延的擴(kuò)張為衡量標(biāo)準(zhǔn)[4]。隨著人工智能對人的體力勞動(dòng)和腦力勞動(dòng)的延伸,權(quán)利主體的外延,不再限縮于生物學(xué)意義上的“人”[5],人工智能也獲得了法律主體和道德主體地位。在人工智能語境下,我們并不排斥在法律上擬制出一個(gè)新的主體,或與法人一樣,從擬制自然人的角度賦予新的主體或者法人以相同或者類似的法律地位[6]。但人工智能權(quán)利延伸的心理和社會寓意何在?其實(shí),作為人的權(quán)利的延伸,人工智能權(quán)利是人工智能社會角色和社會地位的彰顯。2017年10月26日,沙特阿拉伯授予機(jī)器人索菲亞公民身份。段偉文認(rèn)為,賦予機(jī)器人公民身份實(shí)際上是因?yàn)闄C(jī)器人的發(fā)展日益影響到人們的日常和社會生活,其生產(chǎn)、服務(wù)和交互等活動(dòng)越來越多地涉及各種權(quán)利和責(zé)任問題,這些發(fā)展迫使人們開始考慮賦予其身份,以便厘清相關(guān)的法律和倫理上的權(quán)益。以此為標(biāo)志,人們將在實(shí)踐中進(jìn)一步細(xì)化與機(jī)器人身份相對應(yīng)的責(zé)任和權(quán)利,進(jìn)而使機(jī)器人獲得正式的“擬主體”地位。這實(shí)際上是一個(gè)進(jìn)一步塑造機(jī)器人的社會角色和地位的過程[7]。那么,在人工智能承擔(dān)的社會角色和社會地位中,人工智能科學(xué)技術(shù)重塑的社會關(guān)系,如何形成權(quán)利制度的新秩序?又是如何提高人工智能生產(chǎn)力與生產(chǎn)關(guān)系的良性互動(dòng)的?
作為人的權(quán)利延伸的上層建筑,人工智能權(quán)利為人工智能生產(chǎn)力與生產(chǎn)關(guān)系的良性互動(dòng)提供了規(guī)則。一方面,當(dāng)人工智能的社會化程度達(dá)到一定階段時(shí),人類必須對此采取有效的措施,以保證國家法治秩序的正常運(yùn)轉(zhuǎn)。而有效措施的采取,建立在國家通過立法的方式對人工智能的主體地位賦予一定的權(quán)利和義務(wù)的基礎(chǔ)上。國家以立法的方式賦予人工智能權(quán)利與義務(wù),意在通過建立人工智能抽象權(quán)利以和諧處理其背后的權(quán)利主體之間的利益糾紛。例如,有學(xué)者認(rèn)為,在人工智能創(chuàng)造知識產(chǎn)品或者致人損害的情況下,人工智能的所有人本身對于損害的發(fā)生或知識產(chǎn)品的生成并沒有創(chuàng)造任何貢獻(xiàn),將損害或者權(quán)益歸諸主體有違法理這一說法并無依據(jù),因此,我們需要運(yùn)用類似于法人的“擬制”技術(shù)根據(jù)具體情況解決這一問題[8]。另一方面,人工智能權(quán)利是人工智能在社會中被用作媒介所享有的權(quán)利和承擔(dān)的義務(wù),是確保媒介正常運(yùn)轉(zhuǎn)的有力保障。它是人為制定的權(quán)利原則,旨在容許很多人同時(shí)享有和履行社會生活中某種有意義的權(quán)利和義務(wù),它把與人工智能不同主體的行為聯(lián)系在一起,使之成為一個(gè)范式。它是對人工智能研發(fā)者、所有者與使用者等不同行為主體的權(quán)利的延伸,是集體和社會對任何一種科技的主要趨勢和運(yùn)轉(zhuǎn)機(jī)制作出的回應(yīng),是人的權(quán)利的延伸,與設(shè)備是人類延伸的器官、服務(wù)是人類延伸的意識一樣,因而成為反映人的權(quán)利的延伸。作為人的客體權(quán)利與抽象權(quán)利,人工智能權(quán)利不是個(gè)人的延伸,而是社會自我的延伸,和人的權(quán)利一樣,它是人的社會性權(quán)利的延伸,是人工智能權(quán)利主體的權(quán)利。另外,人工智能權(quán)利是建立在與人互動(dòng)基礎(chǔ)上的人的權(quán)利的再現(xiàn),是形成良好社會秩序的制度保證。20世紀(jì)曾發(fā)生過一起智能機(jī)器人致人死亡事件:日本廣島一間工廠的工人在工作時(shí),被智能機(jī)器人認(rèn)定存在威脅,進(jìn)而將其推至相鄰的機(jī)[JP+1]器中,致其當(dāng)場死亡[9]。這一事故說明作為媒介的人工智能在參與社會角色的過程中必須承擔(dān)其背后的權(quán)利和義務(wù)。那么,誰是承擔(dān)權(quán)利和義務(wù)的責(zé)任主體?人工智能權(quán)利和義務(wù)體現(xiàn)出的價(jià)值屬性是什么?人工智能權(quán)利和義務(wù)的價(jià)值取向和價(jià)值選擇是什么?進(jìn)一步而言,它的法律主體地位是何種意義上的?它作為人類創(chuàng)造物所享有的權(quán)利和義務(wù)又有什么意義呢?
為回應(yīng)人工智能這一媒介傳播與發(fā)展的趨勢,人工智能主體范式和關(guān)系范式的上層建筑也開始形成體系。以往學(xué)者對人工智能權(quán)利話語體系的探討集中在人工智能抽象權(quán)利與具體權(quán)利的分析上。承認(rèn)人工智能具有法律主體地位的學(xué)者提出國家應(yīng)通過立法的方式擬制人工智能權(quán)利。例如,孫道萃從法律主體歷史變遷規(guī)律的視角分析智能主體作為法律人的現(xiàn)實(shí)可能性,他認(rèn)為:超越程序設(shè)計(jì)與編制范圍,基于獨(dú)立意志進(jìn)行活動(dòng)的智能主體完全可能出現(xiàn),使其具備法律人格的基礎(chǔ)并成為法律主體。這是對“人”的概念的增補(bǔ)而非致命的沖擊。法律中“人”的概念并非僵化不變,立法上賦予人工智能法律人格與權(quán)利義務(wù)并非完[JP+1]全不可能,而世界范圍內(nèi)已有先行的立法活動(dòng)[10]。否認(rèn)人工智能具有法律主體地位的學(xué)者沿著人工智能的具體權(quán)利探討其存在的必要性以及意義,如甘紹平直截了當(dāng)?shù)乇砻鳎赫J(rèn)可機(jī)器人有權(quán)利,就等同于承認(rèn)機(jī)器人是自在目的,而這就觸動(dòng)了人與物之間的根本區(qū)別。機(jī)器人是人類創(chuàng)生的無機(jī)體,與有機(jī)體維持生存、繁殖后代的本能與目的性不同。機(jī)器人是機(jī)器,不是人,因而無法享有人所擁有的權(quán)利[11]。根據(jù)既存的中國法律規(guī)范,關(guān)于人工智能是否享有法律權(quán)利,缺乏具體的規(guī)則標(biāo)準(zhǔn),既沒有關(guān)于人工智能法律權(quán)利的價(jià)值指引,又未能明確人工智能的法律地位[12]。但抽象形式是對具體問題的反映。所以,對人工智能法律主體地位抽象形式研究的背后是人工智能權(quán)利主體的具體權(quán)利。人工智能權(quán)利話語體系正是基于人的抽象權(quán)利與具體權(quán)利建構(gòu)起來的。
[JP+1]其實(shí),人工智能權(quán)利集人工智能權(quán)利主體(人工智能研發(fā)者、所有者、使用者)的具體權(quán)利與抽象權(quán)利于一體,它所反映的正是人工智能權(quán)利主體的具體權(quán)利與抽象權(quán)利。人工智能權(quán)利其形式上是人工智能權(quán)利主體抽象權(quán)利的延伸,其內(nèi)容上是人工智能權(quán)利主體具體權(quán)利的延伸。作為人的具體權(quán)利的延伸主體主要涉及人工智能的研發(fā)者、所有者和使用者這三個(gè)利益主體。這三個(gè)主體,或三兩結(jié)合,或分置獨(dú)立,甚至出現(xiàn)信托人(如所有者將人工智能信托他人管理),但不影響這一基本分析框架[6],這一框架正是人工智能權(quán)利主體。脫離這一框架的,認(rèn)為人工智能本身就是一個(gè)具有獨(dú)立法律人格的主體[6],自然隸屬于人工智能權(quán)利主體想象的抽象權(quán)利。若人工智能具有獨(dú)立的人格屬性,則一旦人工智能的行為構(gòu)成侵權(quán)乃至犯罪,人工智能承擔(dān)法律責(zé)任的抽象義務(wù)就轉(zhuǎn)化為其主體的具體權(quán)利了,其承擔(dān)者就轉(zhuǎn)換成了作為人工智能權(quán)利主體的延伸的人工智能研發(fā)者、使用者與所有者。從這個(gè)意義上說,作為人的身體器官和神經(jīng)系統(tǒng)延伸的人工智能,在延伸人的身體機(jī)能的同時(shí),也延伸了人的權(quán)利。
二、人工智能權(quán)利的“劇場假象”:人的權(quán)利的預(yù)設(shè)
隨著人工智能生產(chǎn)力對人的理解力的沖擊,人工智能權(quán)利話語體系一躍成為學(xué)界討論的熱點(diǎn)。實(shí)踐中存在一種強(qiáng)烈的聲音:應(yīng)用中的智能機(jī)器人以及更高級的智能主體,應(yīng)被認(rèn)為是像“人”的法律主體,并以此構(gòu)建智能主體格局下的主體范式、關(guān)系范式、權(quán)利話語體系[10]。也許談?wù)撋形丛诩夹g(shù)上可行的基本權(quán)利是一件令人奇怪的事情,但這恰恰是當(dāng)前權(quán)利話語的迷人張力[13]113。這些主體范式、關(guān)系范式、權(quán)利話語體系表現(xiàn)歷史進(jìn)步性的方式是論說體式的人的權(quán)利的邏輯預(yù)設(shè)。這種歷史進(jìn)步性是人工智能社會化進(jìn)程中的必經(jīng)階段,它吸引人最大限度地參與人工智能的社會化進(jìn)程。人工智能似乎按這樣的邏輯享有權(quán)利:一種范式、一種假設(shè),經(jīng)過反復(fù)的邏輯論證與推演,均可以逐漸確立自己的權(quán)利話語體系。真正的人工智能權(quán)利主體(人工智能研發(fā)者、所有者、使用者)把借助邏輯論證確立的人工智能權(quán)利學(xué)說推向極端,使之上升為有說服力的話語體系。
許多人對人工智能權(quán)利學(xué)說存在質(zhì)疑。直截了當(dāng)?shù)卣f,人工智能權(quán)利是將人的權(quán)利復(fù)制粘貼到人工智能身上的完全翻版。從社會預(yù)期來看,人工智能權(quán)利是實(shí)現(xiàn)人工智能權(quán)利主體(人工智能研發(fā)者、所有者、使用者)權(quán)利的人類想象權(quán)利。借助權(quán)利體系的范式,它大踏步地邁向人類集體意識這個(gè)終極智能化的時(shí)代。一切權(quán)利都被納入一種預(yù)先建立的體系后,人工智能權(quán)利主體(人工智能研發(fā)者、所有者、使用者)就會因?yàn)樗陨淼拇嬖诙恢匦乱?guī)制。人工智能權(quán)利一旦受到真正的人工智能權(quán)利主體(人工智能研發(fā)者、所有者、使用者)有意識的注意時(shí),任何權(quán)利聽起來都很滑稽。人工智能權(quán)利不是供人們有意識享有的,它們是作為無意識的想象主體的想象權(quán)利,目的是迷惑真正權(quán)利主體即人工智能研發(fā)者、所有者、使用者的感知力和理解力。這就是人工智能權(quán)利延伸功能的巨大魔力。任何權(quán)利都架構(gòu)在已經(jīng)驗(yàn)證的一整套的范式理論或?qū)W說體系之上,正如摩天大廈是建立在基巖之上一樣[14]。因?yàn)樵跒槿魏稳斯ぶ悄墚a(chǎn)品擬制權(quán)利的時(shí)候,都需要真正的權(quán)利享有主體——人工智能研發(fā)者、所有者、使用者的通力合作,所以,任何人工智能權(quán)利都是人的主觀產(chǎn)物。
如果用人工智能主體范式和關(guān)系范式理論去觀察和思考人工智能權(quán)利現(xiàn)象,必然會出現(xiàn)某種神秘的美感。這種美感基于人工智能科學(xué)共同體在某段時(shí)間內(nèi)所認(rèn)可的研究方法、問題領(lǐng)域以及解題標(biāo)準(zhǔn)。涉及從事人工智能這一類科學(xué)活動(dòng)的共同體所必須遵循的公認(rèn)的模式,它包括主體共有的世界觀、基本理論、范例、方法、手段、標(biāo)準(zhǔn)等等與人工智能權(quán)利話語體系有關(guān)的所有東西。除去這一弊端,人工智能權(quán)利本身就是人的感知力與理解力的缺陷,正所謂培根意義上的“劇場假象”?!皠黾傧蟆笔菑恼軐W(xué)的各種各樣的教條以及一些錯(cuò)誤的論證法則移植到人們心中的[15]22,是對權(quán)威的盲目崇拜和順從而產(chǎn)生的錯(cuò)誤。人工智能權(quán)利話語體系好比舞臺戲劇,真正的人工智能科學(xué)共同體以虛構(gòu)的范式理論為布景,在虛構(gòu)的人工智能與人互動(dòng)的世界中展示自我。而受各種感官侵?jǐn)_的人類理解力,卻容易以一種本體和實(shí)在的抽象想象把人工智能的權(quán)利設(shè)想得比人的權(quán)利還更有力量。人類理解力一經(jīng)采取了一種意見(不論是作為已經(jīng)公認(rèn)的意見而加以采取或是作為合于己意的意見而加以采?。銜恳磺衅渌挛飦碇С?、來強(qiáng)合于那個(gè)意見[15]23。
就人工智能權(quán)利而言,無論是持人工智能權(quán)利否定說的學(xué)者,還是持肯定說的學(xué)者,都采取的是先預(yù)設(shè)一個(gè)觀點(diǎn),然后再圍繞預(yù)設(shè)的觀點(diǎn)進(jìn)行邏輯論證的方法。人工智能權(quán)利就是采取這種擬制人的權(quán)利的方法創(chuàng)造出來的,其實(shí)質(zhì)是人類自身編制思想意識的結(jié)果。人類現(xiàn)在有可能給人工智能程序編制各種權(quán)利,使之接近于人的權(quán)利。但這種接近狀況必然是人類權(quán)利的延伸,正如輪子的轉(zhuǎn)動(dòng)是腿腳交替運(yùn)動(dòng)的延伸一樣。人和自己延伸出的玩意遭遇時(shí),一向受到這種幻覺的困擾[13]85。事實(shí)上,現(xiàn)代法律體系即使在自然人個(gè)體之外新增加諸如公司、法人、單位、國家等“法律人”主體,也仍然是在“人類的種族”素材之內(nèi)進(jìn)行的法律擬制[16]。這里所稱的“擬制”,并不是指將一個(gè)非人的動(dòng)物、實(shí)體假定為人,而是指法律人的成立,首先是源于法律的抽象建構(gòu)[17]。常言說得好,在正路上行走的跛子會越過那跑在錯(cuò)路上的快腿。不但如此,一個(gè)人在錯(cuò)路上跑時(shí),愈是活躍,愈是迅捷,就迷失得越遠(yuǎn)[15]25。但這種迷失不是人工智能本身造成的結(jié)果,而是受人工智能強(qiáng)化的人與人之間的社會關(guān)系造成的抽象權(quán)利的存在,導(dǎo)致人工智能權(quán)利披上人的權(quán)利的外衣。其實(shí),定義人工智能權(quán)利的范式本身就貶低了人為創(chuàng)造人工智能體所付諸的實(shí)踐活動(dòng),遮蔽了人自身為爭取權(quán)利的話語體系。所以,人工智能權(quán)利話語體系的“劇場假象”不是固有的,也不是隱秘地滲入人的理解力的,而是由各種人工智能體系的“劇本”和預(yù)設(shè)性的論證規(guī)律所公然印入人心而為人心所接受的。究其本質(zhì)來說,它的權(quán)利只不過是人的權(quán)利的轉(zhuǎn)移。在人工智能語境下,這些“法律人”主體,只是抽象的權(quán)利與義務(wù)主體,享有權(quán)利與義務(wù)的真正主體仍然是人工智能研發(fā)者、所有者與使用者。
三、人工智能權(quán)利:人的權(quán)利的支解
人工智能權(quán)利是人機(jī)共生社會狀態(tài)的產(chǎn)物,是人們基于與人工智能的交往內(nèi)容而在交往形式中自然而然產(chǎn)生的精神意識。它是人生產(chǎn)出來的,由智能社會現(xiàn)實(shí)存在即物質(zhì)存在決定。人工智能權(quán)利具有社會物質(zhì)性,作為社會性人的權(quán)利的延伸,在人的“劇場假象”的遮蔽下常伴有支解人的權(quán)利的異化現(xiàn)象。人工智能權(quán)利異化是人的權(quán)利發(fā)展的伴生現(xiàn)象。人工智能權(quán)利何以是人的權(quán)利的支解?支解了主體人的哪些權(quán)利?對人的權(quán)利提出了哪些挑戰(zhàn)?人工智能支解人的權(quán)利說的是人工智能權(quán)利離開人的本質(zhì),與社會現(xiàn)實(shí)相疏遠(yuǎn)。它作為人的權(quán)利的支解既是對智能社會現(xiàn)實(shí)存在狀況的肯定,也是對其的否定。人工智能權(quán)利所具有的否定性具體表現(xiàn)為:人工智能權(quán)利與社會事實(shí)相異化、人工智能權(quán)利與人的權(quán)利相異化、人工智能權(quán)利與人的類本質(zhì)相異化、不同人工智能權(quán)利主體(人工智能研發(fā)者、所有者、使用者)相異化。
1.人工智能權(quán)利與社會事實(shí)相異化。人工智能權(quán)利異化既包括抽象權(quán)利異化,也包括具體權(quán)利異化。從存在和本質(zhì)上來說,人工智能權(quán)利異化是指人工智能權(quán)利與社會事實(shí)不一致、人的利益與人工智能權(quán)利不一致。人工智能權(quán)利因?yàn)槿说男枰a(chǎn)生,同時(shí)也應(yīng)該服務(wù)于人,但在運(yùn)用過程中卻不被人來控制使用,反倒支配起人來,人成為其自身的奴隸,權(quán)利在事實(shí)上不但不平等,反倒成為一些人的特權(quán),而另一些人距離權(quán)利卻愈來愈遠(yuǎn)。
2.人工智能權(quán)利與人的權(quán)利相異化。在人工智能權(quán)利對人的關(guān)系上,所說的人工智能權(quán)利成了一些人壓迫另一些人的工具,是不是說人工智能權(quán)利親近一些人而疏遠(yuǎn)另一些人呢?人工智能權(quán)利只對部分的人產(chǎn)生異化嗎?以馬克思權(quán)利異化理論為基準(zhǔn),權(quán)利使社會分化,按照這種思路,當(dāng)然人工智能權(quán)利使部分人異化,但每個(gè)人都有可能是部分其中之一。誰有權(quán)利成為人工智能權(quán)利主體?人工智能權(quán)利的基礎(chǔ)在于人工智能商品化和資本化,因此追究人工智能權(quán)利的危害必須追究權(quán)利主體的基礎(chǔ),即私有的主體。人工智能權(quán)利與自由、私主體是連在一起的。事實(shí)上,人工智能權(quán)利以人與人相互分割的狀態(tài)取代人與人之間的相互結(jié)合。人工智能權(quán)利就是這種相互分割的權(quán)利,是狹隘的、局限于不同主體的權(quán)利,而人工智能自由的實(shí)際應(yīng)用就是人工智能私有權(quán)的獲得。
3.人工智能權(quán)利與人的類本質(zhì)相異化。人工智能權(quán)利異化說的是人的本性或本質(zhì)的異化。馬克思說:人的本質(zhì)不是單個(gè)人所固有的抽象物,在其現(xiàn)實(shí)性上,它是一切社會關(guān)系的總和[18]。由此可見,社會性是人的本性。人在社會狀態(tài)中有自由做與不做的權(quán)利,既如此,人在人工智能面前就不存在應(yīng)該做與不應(yīng)該做的問題。但是,由于人工智能資本化與商品化帶來的私有權(quán),一些人占有了人工智能使用權(quán),另一些人卻與之失之交臂。私有權(quán)與人的社會性相悖。人與人工智能權(quán)利的關(guān)系實(shí)際上是主體與客體的關(guān)系。只不過在人工智能媒介深度介入的年代里,智能技術(shù)越來越專門化,專門化的技術(shù)使人感受到奴役同時(shí),也使人們逐漸喪失了思考的能力,人可以越來越多地把自己轉(zhuǎn)換成其他的超越自我的形態(tài)[13]80。人一旦拱手將自己的感官和神經(jīng)系統(tǒng)交給別人,讓人家操作——而這些人又想靠租用我們的眼睛、耳朵和神經(jīng)從中漁利,我們實(shí)際上就沒有留下任何權(quán)利了[13]94。例如,作為史上首個(gè)獲得公民身份的人工智能機(jī)器人,索菲亞在獲得權(quán)利的同時(shí)也以法的形式支解了人的權(quán)利,將人的生命權(quán)、尊嚴(yán)權(quán)從人的政治權(quán)利中分離出去,人工智能畢竟不是行使具體權(quán)利的行為主體和責(zé)任主體,它只是以抽象權(quán)利的形式規(guī)定了行為主體的具體權(quán)利,行使具體權(quán)利的行為主體只能是生物意義上和哲學(xué)意義上的人。因而,具有法律人格的權(quán)利主體并不一定是現(xiàn)實(shí)社會中的人。這又是人工智能權(quán)利異化的另一個(gè)側(cè)面。
4.不同人工智能權(quán)利主體相異化。人工智能這一獲得的權(quán)利有無法律實(shí)現(xiàn)能力?在德國,權(quán)利能力是實(shí)定法上的規(guī)定,它在形式邏輯上抽離了具體的倫理內(nèi)容,只剩下了一個(gè)資格的空殼[19]。其實(shí),國家通過立法的方式擬制的人工智能權(quán)利也是一個(gè)有法律權(quán)利無法律實(shí)現(xiàn)的空殼。作為抽去具體核心權(quán)利能力的抽象表現(xiàn)形式的人工智能權(quán)利面臨著法律實(shí)現(xiàn)的困難?!兜聡穹ǖ洹泛汀度鹗棵穹ǖ洹返谝痪幖慈说臋?quán)利能力與人格的理論,明確規(guī)定“人格”的起迄時(shí)間與權(quán)利能力一致,便是將權(quán)利能力等同于法律人格,并使人實(shí)現(xiàn)抽象化、形式化,淡化了之前倫理學(xué)上的人的概念,而使用的是“形式”上的人的概念,構(gòu)成“形式”上的人只需要權(quán)利能力,而不需要行為能力和責(zé)任能力[20],但在人工智能創(chuàng)造知識產(chǎn)品或者致人損害的情況下,哪一主體應(yīng)該承擔(dān)責(zé)任?例如,2018年在美國亞利桑那州,Uber自動(dòng)駕駛汽車超速行駛將一名行人撞死[21] 。這一事故中,誰應(yīng)是事故的行為主體和責(zé)任主體?人工智能本身?人工智能研發(fā)者?人工智能使用者?人工智能所有者?人工智能法人?如果按其人工智能權(quán)利主體本身,承擔(dān)責(zé)任的該屬人工智能,但無意識的人工物,承擔(dān)社會責(zé)任的意義何在?其實(shí),人工智能權(quán)利是人與人工智能互動(dòng)型社會關(guān)系的產(chǎn)物,數(shù)據(jù)算法、獨(dú)立財(cái)產(chǎn)及產(chǎn)權(quán)技術(shù)應(yīng)當(dāng)屬于研發(fā)公司所有或是研發(fā)公司和研發(fā)人員共同所有,兩者界定都體現(xiàn)出人工智能無法具有自身獨(dú)立的權(quán)利屬性,其數(shù)據(jù)、財(cái)產(chǎn)等權(quán)利為人類享有,這可以從人工智能阿爾法狗圍棋數(shù)據(jù)的資源認(rèn)定、微軟“小冰”生成物著作權(quán)歸屬方面予以發(fā)現(xiàn)[22]。如果只擬制抽象的人工智能權(quán)利,而不考慮具體社會現(xiàn)實(shí)中的人,就會出現(xiàn)與人工智能相關(guān)的利益主體之間相異化的現(xiàn)象。
一言以蔽之,人工智能權(quán)利限定的主體只能是人工智能。拋開抽象形式下人工智能權(quán)利的法律主體地位,從作為人類的創(chuàng)造物而言,人工智能權(quán)利本身就是人工智能權(quán)利主體(人工智能研發(fā)者、使用者、所有者)的延伸。馬克思主義法學(xué)特別強(qiáng)調(diào)對法律修辭用于形式包裝下的實(shí)質(zhì)目的、功能政策的合理性審查[16],人工智能權(quán)利背后真正的哲學(xué)主體和生物主體是現(xiàn)實(shí)生活中的人。不可否認(rèn),在智能社會中,人的權(quán)利與智能機(jī)器人的權(quán)利的等同是部分事實(shí),但卻是以人的勞動(dòng)異化為前提的。換言之,不是真正的人的權(quán)利等同于智能機(jī)器人的權(quán)利,而是人工智能科學(xué)技術(shù)中的智能機(jī)器改變了部分人的人性,將現(xiàn)實(shí)中真正的人的權(quán)利降格為智能機(jī)器人的權(quán)利。人的權(quán)利成了機(jī)器人的權(quán)利的附庸。因而,人工智能在延伸其主體的過程中即在承擔(dān)社會角色和社會地位過程中與權(quán)利主體發(fā)生了異化,支解了人的權(quán)利,使人的權(quán)利轉(zhuǎn)移到人工物上。畢竟智能主體是“人造物”,具有鮮明的“工具屬性”,是為保護(hù)人類的利益而存在的,非真正的哲學(xué)主體和生物主體,與人的主體性本質(zhì)及要求完全相斥。智能主體能否成為“(類)”的關(guān)鍵在于確認(rèn)“(類)人性”(人的社會現(xiàn)實(shí)性、歷史文化本性等)[10] 。
四、基于人工智能權(quán)利的社會物質(zhì)性:人的權(quán)利的重塑
作為智能主體的人工智能具有刑法責(zé)任能力嗎?人工智能系統(tǒng)對人身權(quán)利、財(cái)產(chǎn)權(quán)利的侵犯造成的后果誰來承擔(dān)?人對人工智能主體權(quán)利和義務(wù)的主體性體現(xiàn)在哪些方面?人工智能權(quán)利所包含的人格權(quán)、財(cái)產(chǎn)權(quán)、著作權(quán)、生命權(quán)有什么意義? 非生理人的法律地位有什么意義?人的自主性、自覺性、自為性、自律性在人工智能權(quán)利話語體系下應(yīng)該如何體現(xiàn)?回答這一系列問題涉及如何處理人工智能的發(fā)展限度以及人的發(fā)展。歸根結(jié)底人是法律世界的實(shí)踐主體和價(jià)值主體,人既是從事法律活動(dòng)的主體,也是法律調(diào)整的受益者。因?yàn)橐磺袊?、階級、團(tuán)體(包括政黨、社團(tuán)、企業(yè)事業(yè)單位等政治法人、經(jīng)濟(jì)法人、社團(tuán)法人等)、個(gè)人(自然人)等構(gòu)成權(quán)利主體的范疇都是抽象主體,其具體主體仍然是實(shí)踐中現(xiàn)實(shí)的人。也就是說,作為抽象主體的內(nèi)在的東西本身是現(xiàn)實(shí)的。人工智能權(quán)利和人的權(quán)利都是客體論范疇意義下法律調(diào)整的對象的社會關(guān)系,但兩者的權(quán)利都是對人的意義。人既是人工智能權(quán)利的實(shí)踐主體,也是人工智能權(quán)利的價(jià)值主體。作為人工智能權(quán)利的實(shí)踐主體和價(jià)值主體,人在法律生活中具有能動(dòng)性。因此,基于人工智能權(quán)利的社會物質(zhì)性,重塑人的權(quán)利需要從方法論、認(rèn)識論、實(shí)踐論方面著手。
1.重塑人的權(quán)利的方法論前提。恩格斯指出:“馬克思的整個(gè)世界觀不是教義,而是方法,它提供的不是現(xiàn)成的教條,而是進(jìn)一步研究的出發(fā)點(diǎn)和供這種研究使用的方法?!盵23]抽象與具體作為辯證思維的高級形式,是分析人工智能權(quán)利的方法論前提。人工智能權(quán)利話語體系是人的思維活動(dòng)的產(chǎn)物,是人的勞動(dòng)對象化之結(jié)果。勞動(dòng)不僅創(chuàng)造了人,也創(chuàng)造了人工智能。人工智能作為人的創(chuàng)造物的客體屬性本身就是客體范疇意義下人的發(fā)明,其何以作為權(quán)利主體享有權(quán)利?無論從賦予動(dòng)物權(quán)利邏輯推演為賦予人工智能權(quán)利的法律主體和道德主體進(jìn)路,還是從人工智能道德倫理責(zé)難和技術(shù)障礙批駁人工智能權(quán)利的經(jīng)驗(yàn)證明,從其本質(zhì)上來說它們都是虛幻的抽象權(quán)利范疇。正如馬克思在《黑格爾法哲學(xué)批判》里所言:“永遠(yuǎn)是同樣的一些范疇,它們時(shí)而為這一些領(lǐng)域,時(shí)而為另一些領(lǐng)域提供靈魂。問題只在于為各個(gè)具體規(guī)定尋求相應(yīng)的抽象規(guī)定?!盵24]作為人工智能權(quán)利主體的現(xiàn)實(shí)的人所享有的自由權(quán)、生命權(quán)、人格尊嚴(yán)權(quán)、財(cái)產(chǎn)權(quán)等是真正的具體權(quán)利,而作為人造物的人工智能權(quán)利則是權(quán)利主體意義上的抽象權(quán)利。無論是具體權(quán)利還是抽象權(quán)利,他們都是以語言為表達(dá)形式的意識[25]。既然把人工智能權(quán)利看作法律意義上的話語體系即用來支持可以做和不可以做的事情,就意味著只能透過權(quán)利形式才能看到權(quán)利本質(zhì),只能通過概念體系才能看到目的,只能深入現(xiàn)象之中才能看到本質(zhì)。因此,抽象與具體的思維方法是認(rèn)識人工智能權(quán)利和權(quán)利主體的方法論前提。
2.重塑人的權(quán)利的認(rèn)識論基礎(chǔ)。在掌握一定方法論的基礎(chǔ)上,要深刻而全面地理解和把握人工智能權(quán)利和權(quán)利主體之間的關(guān)系,必須基于人工智能權(quán)利的社會物質(zhì)性,厘清人對人工智能權(quán)利與人的權(quán)利之認(rèn)識。隨著人工智能的商品化和資本化,人工智能權(quán)利意識、權(quán)利話語和權(quán)利范式也逐漸形成體系,其出場也是為了解決人工智能生產(chǎn)關(guān)系中的矛盾。人工智能權(quán)利體系的“劇場假象”正是人的理解力和感知力缺陷的體現(xiàn),這一缺陷既伴隨著人工智能生產(chǎn)力的發(fā)展,也伴隨著人的權(quán)利的發(fā)展。所以,重塑人的權(quán)利,首要條件應(yīng)該廓清人工智能權(quán)利和人的權(quán)利都是人的社會化進(jìn)程的體現(xiàn),都是人的勞動(dòng)的產(chǎn)物,這兩者是作為人的客體同時(shí)存在的。因此,為了保障人類獲得勞動(dòng)的權(quán)利乃至人格尊嚴(yán),克服由人類不當(dāng)使用人工智能而造成的秩序混亂、責(zé)任不明、道德憂慮等問題,國家應(yīng)對人工智能權(quán)利主體(人工智能研發(fā)者、所有者、使用者)設(shè)定專門的法律法規(guī)和相應(yīng)的責(zé)任歸屬,并賦予其進(jìn)行事前防范、事中控制和事后反饋等權(quán)利,而不是賦予作為人工物的人工智能以權(quán)利,因?yàn)榉芍荒苁乾F(xiàn)實(shí)在觀念上的有意識的反映,只能是實(shí)際生命力在理論上的自我獨(dú)立表現(xiàn)[26]。當(dāng)然,作為法律基本內(nèi)容的人的權(quán)利也是人的物質(zhì)生活、物質(zhì)生產(chǎn)力在觀念上的能動(dòng)的反映。那么,作為無意識的人工智能如何立足于物質(zhì)生活與物質(zhì)生產(chǎn)關(guān)系在觀念上能動(dòng)地反映現(xiàn)實(shí)社會生活呢?康德說權(quán)利是幻想中的美女,人們?yōu)榱讼氲玫剿拖朕k法證明她的存在。人工智能權(quán)利體系何嘗不是這樣呢?其實(shí),人工智能權(quán)利的發(fā)展也是沿著肯定、否定、否定之否定的歷史進(jìn)路向前推進(jìn)的。恩格斯在《反杜林論》中說過:每一種事物都有它的特殊的否定方式,經(jīng)過這樣的否定,它同時(shí)就獲得發(fā)展,每一種觀念和概念也是如此[27]。人工智能權(quán)利和人工智能權(quán)利主體亦復(fù)如是。人的權(quán)利意識只有經(jīng)過從肯定人工智能權(quán)利到否定人工智能權(quán)利再到否定之否定人工智能權(quán)利才能獲得發(fā)展,這是重塑人的權(quán)利的認(rèn)識論基礎(chǔ)。
3.重塑人的權(quán)利的實(shí)踐論環(huán)節(jié)。人的認(rèn)識是建立在實(shí)踐基礎(chǔ)上的從實(shí)踐到認(rèn)識,再從認(rèn)識到實(shí)踐的往復(fù)循環(huán)和無限發(fā)展的過程。人對人工智能權(quán)利的認(rèn)識也應(yīng)該建立在實(shí)踐基礎(chǔ)之上。法律上對人的抽象并不是任意的、無限的,它也有其必要的理論與實(shí)踐限度[17]。人對于法律學(xué)人來說,僅僅從概念或理念層面思考還不夠,必須從實(shí)踐層面以及可能的后果層面來思考,這才是務(wù)實(shí)的法律學(xué)術(shù)思考[28]。人工智能權(quán)利的出現(xiàn)是社會歷史進(jìn)步的結(jié)果。人工智能權(quán)利應(yīng)該回歸到人的類本質(zhì)。如何通過人工智能權(quán)利這一抽象權(quán)利現(xiàn)象回歸到人的權(quán)利的具體本質(zhì)?假如賦予人工智能權(quán)利主體地位,它也不具備應(yīng)該做什么和不應(yīng)該做什么的權(quán)利意識,那么作為社會性的人應(yīng)該做什么?這是實(shí)踐中人工智能對人的權(quán)利提出的挑戰(zhàn)。
實(shí)踐中為了讓人工智能生產(chǎn)力更好地滿足人類自身生存和發(fā)展的需要,人們必須通過實(shí)踐建立人工智能生產(chǎn)關(guān)系。在這一過程中,不僅存在人的權(quán)利符合人工智能發(fā)展的客觀現(xiàn)實(shí)問題,而且還存在按照人的需要認(rèn)識人工智能權(quán)利并完善人工智能權(quán)利的制度問題。人工智能權(quán)利與人工智能權(quán)利主體其實(shí)就是人工智能制度問題,因此人工智能制度的更新和完善必須緊跟人工智能生產(chǎn)力的發(fā)展速度。同樣,人工智能生產(chǎn)關(guān)系中法律制度對人的權(quán)利的保護(hù),也要適應(yīng)人工智能生產(chǎn)力中人的需要與目的。國家可以通過人工智能法案,賦予人工智能權(quán)利主體(人工智能研發(fā)者、所有者、使用者)代理權(quán),讓真正的人作為人工智能的代理人因真正擁有法律地位而存在,類似這樣的法律制度都是不錯(cuò)的選擇。
因此,實(shí)踐中為了保護(hù)人類利益,為了尊重人類的勞動(dòng)成果,為了人工智能生產(chǎn)力能夠更好地適應(yīng)人工智能生產(chǎn)關(guān)系,人工智能抽象權(quán)利的建立應(yīng)以維護(hù)人的生命權(quán)、尊嚴(yán)權(quán)、勞動(dòng)權(quán)、自由權(quán)、財(cái)產(chǎn)權(quán)為核心。當(dāng)然,自由是可以做和可以從事任何不損害他人的事情的權(quán)利[29],人類也應(yīng)該尊重人工智能,不能對其做出謾罵、虐待、侮辱等不道德行為。這一問題表面上看似回答的是人工智能不能對人類造成傷害以及人類如何與人工智能達(dá)到人機(jī)相融的局面,其實(shí)質(zhì)意在表征人工智能生產(chǎn)力的發(fā)展限度以及人工智能生產(chǎn)關(guān)系的上層建筑,如何使人工智能生產(chǎn)力與生產(chǎn)關(guān)系形成良性互動(dòng)才是人的自由而全面發(fā)展的權(quán)利要求。
結(jié)論
人工智能不具有行為能力和責(zé)任能力。在人工智能領(lǐng)域,我們不能以人工智能是否具有獨(dú)立的法律人格來判斷人工智能權(quán)利是否具有存在的意義。人工智能權(quán)利是人的社會化勞動(dòng)的產(chǎn)物,作為人的權(quán)利的延伸,它是人工智能生產(chǎn)力發(fā)展的必然結(jié)果,是人的社會化進(jìn)程的伴生現(xiàn)象。以往學(xué)界對人工智能機(jī)器人主體地位的肯定性與否定性討論正是基于對人工智能抽象權(quán)利與具體權(quán)利存在的分歧作出的論斷,對人工智能權(quán)利的判斷,應(yīng)該以抽象權(quán)利形式與具體權(quán)利內(nèi)容相結(jié)合的哲學(xué)思維為客觀標(biāo)準(zhǔn)。認(rèn)清這一“劇場假象”,解決人工智能生產(chǎn)力發(fā)展中暫時(shí)導(dǎo)致的人的權(quán)利的支解與異化現(xiàn)象,建立適應(yīng)人工智能生產(chǎn)力發(fā)展的生產(chǎn)關(guān)系才是人工智能法律制度建構(gòu)的實(shí)踐旨?xì)w和價(jià)值旨?xì)w。
參考文獻(xiàn):
[1] 劉振宇.人工智能權(quán)利話語批判[J].自然辯證法研究,2018(8)∶31-37.
[2]張鐳.人工智能體可罰性辯疑[J].南京社會科學(xué),2018(11)∶82-87.
[3]柯林斯.馬克思主義與法律[M].邱昭繼,譯.北京:法律出版社,2011∶39.
[4]郁樂.智能機(jī)器人能夠擁有權(quán)利嗎?[J].華中科技大學(xué)學(xué)報(bào)(社會科學(xué)版),2020(5)∶17-24.
[5]張玉潔.論人工智能時(shí)代的機(jī)器人權(quán)利及其風(fēng)險(xiǎn)規(guī)制[J].東方法學(xué),2017(6)∶56-66.
[6]易繼明.人工智能創(chuàng)作物是作品嗎?[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2017(5)∶137-147.
[7]潘玥斐.機(jī)器人被賦予公民身份引發(fā)輿論關(guān)注[N].中國社會科學(xué)報(bào),2017-11-10.
[8]陳吉棟.論機(jī)器人的法律人格:基于法釋義學(xué)的討論[J].上海大學(xué)學(xué)報(bào)(社會科學(xué)版),2018(3)∶78-89.
[9]王耀彬.類人型人工智能實(shí)體的刑事責(zé)任主體資格審視[J].西安交通大學(xué)學(xué)報(bào)(社會科學(xué)版),2019(1)∶138-144.
[10]孫道萃.人工智能刑法主體地位的積極論:兼與消極論的答談[J].重慶大學(xué)學(xué)報(bào)(社會科學(xué)版),2021(4)∶16.
[11]甘紹平.機(jī)器人怎么可能擁有權(quán)利[J].倫理學(xué)研究,2017(3)∶126-130.
[12]袁曾.人工智能有限法理人格審視[J].東方法學(xué),2017(5)∶50-57.
[13]馬歇爾·麥克盧漢.理解媒介:論人的延伸[M].何道寬,譯.南京:譯林出版社,2019.
[14]弗朗西斯·福山.我們的后人類未來:生物技術(shù)革命的后果[M].黃里志,譯.桂林:廣西師范大學(xué)出版社,2017∶113.
[15]培根.新工具[M].許寶骙,譯.北京:商務(wù)印書館,1984.
[16]周詳.智能機(jī)器人“權(quán)利主體論”之提倡[J].法學(xué),2019(10)∶3-17.
[17]胡玉鴻.“法律人”建構(gòu)論綱[J].中國法學(xué),2006(6)∶31-46.
[18]馬克思恩格斯全集:第1卷[M].北京:人民出版社,2012∶135.
[19]馬俊駒.人與人格分離技術(shù)的形成、發(fā)展與變遷:兼論德國民法中的權(quán)利能力[J].現(xiàn)代法學(xué),2006(4)∶44-53.
[20]陳全真.智能機(jī)器人權(quán)利存在的由因及對策[J].貴州師范大學(xué)學(xué)報(bào)(社會科學(xué)版),2019(3)∶144-151.
[21]韓旭至.自動(dòng)駕駛事故的侵權(quán)責(zé)任構(gòu)造:兼論自動(dòng)駕駛的三層保險(xiǎn)結(jié)構(gòu)[J].上海大學(xué)學(xué)報(bào)(社會科學(xué)版),2019(2)∶90-103.
[22]郭劍平.制度變遷史視域下人工智能法律主體地位的法理詮釋[J].北方法學(xué),2020(6)∶123-133.
[23]馬克思恩格斯文集:第10卷[M].北京:人民出版社,2009∶691.
[24]馬克思恩格斯全集:第3卷[M].北京:人民出版社,2002∶13-14.
[25]詹瑜璞.權(quán)利異化論:權(quán)利與泰一并存循環(huán)變化之原理 [M].北京:知識產(chǎn)權(quán)出版社,2009∶2.
[26]馬克思恩格斯全集:第1卷[M].北京:人民出版社,1995∶314.
[27]馬克思恩格斯選集:第3卷[M].北京:人民出版社,2012∶521.
[28]陳柏峰.法學(xué)研究的問題意識與多元格局[J].武漢大學(xué)學(xué)報(bào),2017(1)∶10.
[29]馬克思恩格斯文集:第1卷[M].北京:人民出版社,2009∶40.
【責(zé)任編輯:張亞茹】