国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能體法律主體資格之爭(zhēng)的商談理論解決方案

2023-03-26 08:34:33高詩(shī)宇
哲學(xué)分析 2023年5期

高詩(shī)宇

目前,ChatGPT 等大模型的出現(xiàn)使得人工智能體處理自然語(yǔ)言的能力得到大幅提升。這種新的技術(shù)突破進(jìn)一步拓展了人工智能體應(yīng)用范圍。它可以應(yīng)用于繪畫(huà)、作曲、寫(xiě)詩(shī),也可以輔助人類撰寫(xiě)各類文書(shū),還可以在自動(dòng)駕駛汽車中與人類進(jìn)行語(yǔ)音交互等等。這些新的發(fā)展使得人工智能體的獨(dú)立性也不斷增強(qiáng),因而使得人工智能體的法律主體資格成為一個(gè)值得討論的問(wèn)題。關(guān)于應(yīng)該如何處理這一問(wèn)題,目前存在的主要觀點(diǎn)或是通過(guò)借助于人工智能體與人的相似性推論出它們應(yīng)該具有主體資格,或是認(rèn)為人工智能體與人的差異性過(guò)大導(dǎo)致它們無(wú)法擁有主體資格,又或是采取折中的立場(chǎng),既承認(rèn)人工智能體的主體資格,又對(duì)它的內(nèi)容做了一定的限制。由于這些討論都借助于把人工智能體和人進(jìn)行比較,沒(méi)有擺脫傳統(tǒng)理論的固有思路,因而出現(xiàn)了爭(zhēng)論不休,難以達(dá)成一致意見(jiàn)的局面。針對(duì)這一爭(zhēng)論,哈貝馬斯的商談理論或許可以提供一定的啟示。商談理論要求讓可能會(huì)受到立法影響的各方都要無(wú)限制地參與法律商談,以此確保法律的合法性基礎(chǔ)。將這一理論應(yīng)用于人工智能體法律主體資格問(wèn)題,我們可以獲得從傳統(tǒng)視角出發(fā)無(wú)法擁有的理論優(yōu)勢(shì)。本文試圖借助商談理論的基本思路,跳出既有討論的束 縛,為解決人工智能體主體資格問(wèn)題提供新的思 路。

一、人工智能體法律主體資格之爭(zhēng)及其困境

目前對(duì)于人工智能體法律主體資格問(wèn)題有著大量的討論,概括起來(lái)可以分為三種主要的觀點(diǎn)。第一種觀點(diǎn)看到了人工智能技術(shù)對(duì)傳統(tǒng)思維方式的顛覆,因而突破了固有的工具論的觀點(diǎn),提出了可以把人工智能體在某種意義上視為主體的觀點(diǎn)。這方面最重要的代表就是勞倫斯·B.索勒姆(Lawrence B. Solum)。索勒姆在他的奠基性的論文中提出了一些可能被用于反對(duì)人工智能體主體資格的標(biāo)準(zhǔn),包括靈魂、意識(shí)、意向性、感覺(jué)、利益和自由意志。①Lawrence B. Solum, “Legal Personhood for Artificial Intelligences”, North Carolina Law Review, Vol. 70, 1992,pp. 1231—1287.他認(rèn)為,靈魂和利益不能成為憲法權(quán)利的基礎(chǔ),而剩下的四種屬性,如果人工智能體可以滿足的話,那么它們可以成為主體。關(guān)于意識(shí),索勒姆指出,“如果意識(shí)是大腦的計(jì)算屬性的話,那么原則上我們應(yīng)該能用合適種類的計(jì)算機(jī)來(lái)復(fù)制它”②Ibid., p. 1265.。這也就是說(shuō),基于計(jì)算主義的立場(chǎng),我們就能承認(rèn)人工智能體具備意識(shí)。就意向性而言,索勒姆認(rèn)為我們實(shí)際上賦予一些不具備意向性的個(gè)體,比如嬰兒和精神病人以憲法權(quán)利(即使他們不承擔(dān)責(zé)任),因此根據(jù)不具備意向性這一點(diǎn)就斷然否認(rèn)人工智能體可以擁有權(quán)利是不合適的。索勒姆對(duì)感覺(jué)的界定是“體驗(yàn)情感、欲望、快樂(lè)和痛苦的能力”③Ibid., p. 1269.。索勒姆認(rèn)為,既然我們可以復(fù)制人類的意識(shí),那么當(dāng)然也能復(fù)制情感。最后,關(guān)于自由意志,索勒姆承認(rèn)如果依照嚴(yán)格意義上的定義,即不受因果律支配的自由意志,那么人工智能體是不具備自由意志的,但這并不影響人工智能體擁有主體資格,因?yàn)槲覀儾粦?yīng)該采納這么嚴(yán)格的自由意志的概 念。

除了索勒姆之外,史蒂芬·韋提格(Steffen Wettig)和艾伯哈德·澤亨德?tīng)枺‥berhard Zehender)也持有類似立場(chǎng)。他們總結(jié)了解決人工智能體主體資格的幾條可能路徑:傳統(tǒng)途徑、現(xiàn)代途徑、歷史途徑、漸進(jìn)途徑。④Steffen Wettig & Eberhard Zehender, The Electronic Agent: A Legal Personality under German Law?, http://www.lea-online.net/publications/Paper_8_Wettig.pdf, 2023-08-24.總結(jié)起來(lái),這些途徑可以歸入三個(gè)類型:采用其他方法而不通過(guò)賦予主體資格來(lái)解決人工智能體的難題,或是將人工智能體視為與已有的自然人和公司一樣的主體,或是另立一類新的主體,使得人工智能體成為一種新的“電子人”。兩位作者最后贊同第三種解決方法,所以他們也可以說(shuō)是肯定人工智能體主體資格的代表,不過(guò)他們并沒(méi)有設(shè)計(jì)這種新成立的主體資格的詳細(xì)內(nèi) 容。

第二種觀點(diǎn)則看到了賦予人工智能體主體資格所面臨的潛在困難,因而反對(duì)第一種觀點(diǎn),認(rèn)為人工智能體無(wú)法擁有主體資格。持這種觀點(diǎn)的學(xué)者包括伊安·R.科爾(Ian R. Kerr)、庫(kù)爾提斯·E. A.卡瑙(Curtis E. A. Karnow)、蘇珊·貝克(Susanne Beck)等。這種觀點(diǎn)使我們看到證成人工智能體主體資格問(wèn)題所面臨的困難。它的主要根據(jù)在于:人工智能體的主體資格制度必須與法律的其他制度相協(xié)調(diào),不能出現(xiàn)人工智能體主體資格與既定法律框架沖突的情況,否則賦予人工智能體主體資格就是不可行的。科爾和卡瑙的發(fā)難所針對(duì)的也是這一點(diǎn)??茽栔饕獜暮贤ǖ慕嵌日撟C人工智能體主體資格的不可能性。他指出:“因?yàn)殡娮友b置不是人類,它們沒(méi)有作出同意表示的法律能力?!雹買an R. Kerr, Providing for Autonomous Electronic Devices in the Electronic Commerce Act 1999, http://www.ulcc-chlc.ca/ULCC/media/EN-ANNUAL-MEETING-1999/Providing-for-Autonomous-Electronic-Devices.pdf,2023-08-24.既然人工智能體無(wú)法作出意思表示,它們就不能像人類那樣與交易對(duì)方交換意見(jiàn)并進(jìn)行磋商,這使得它們訂立的合同缺乏必需的要約—承諾的形式,所以它們是不可能成為合同法領(lǐng)域的適格主體的。因此,意思自治的缺乏使得人工智能體的主體資格難以成 立。

卡瑙則從因果關(guān)系的角度否定了人工智能體主體資格的可行性。卡瑙假設(shè)存在一個(gè)用以管理航空交通的人工智能體,名叫阿勒夫(Alef)。阿勒夫的基本職能是引導(dǎo)航空交通的流向。這一職能要求許多不同的子任務(wù),這些任務(wù)要由數(shù)千個(gè)智能體完成。如果阿勒夫產(chǎn)生了一個(gè)無(wú)法預(yù)見(jiàn)的錯(cuò)誤而因此受到損害的原告要起訴阿勒夫的話,就必須證明阿勒夫行為與損害結(jié)果之間的因果關(guān)系是“可以預(yù)見(jiàn)的”。然而,對(duì)于阿勒夫這樣的分布式系統(tǒng)而言這是非常困難的。“首先,需對(duì)錯(cuò)誤負(fù)責(zé)的相互作用的數(shù)據(jù)和程序是分布式的,如同參與的人類代理人一樣。其次,經(jīng)典原因—結(jié)果分析不能成立?!雹贑urtis E.A. Karnow, “Liability for Distributed Artificial Intelligences”, Berkeley Technology Law Journal, Vol. 11,1996, p. 191.這樣一來(lái),由于難以確定錯(cuò)誤的原因,我們很難追究阿勒夫這樣的分布式系統(tǒng)的責(zé)任。這就使得人工智能體的主體資格變得毫無(wú)意義,因?yàn)槲覀兇_立主體資格的目的就是為了讓這些主體負(fù)起責(zé) 任。

除了對(duì)于人工智能體主體資格的直接批評(píng)以外,有些學(xué)者認(rèn)為可以采用確立主體資格以外的方式來(lái)達(dá)到與賦予主體資格一樣的目的。貝克就提出了可以將人工智能體視同動(dòng)物或者兒童的主張。他認(rèn)為人工智能體和動(dòng)物或者兒童之間存在相似性:“在兩者的情況中,動(dòng)物/機(jī)器的行為都是不可預(yù)料的,但又都能受到訓(xùn)練和控制的影響?!薄拔闯赡耆说男袨槭艿綋狃B(yǎng)方式的影響,并且應(yīng)該由父母指導(dǎo),而人工智能體的行為受到它們被教授的內(nèi)容的影響,并且必須由使用者發(fā)出指令?!雹賁usanne Beck, “The Problem of Ascribing Legal Responsibility in the Case of Robotics”, AI & Society, Vol. 31, Iss. 4,2016, p. 475.貝克也指出了人工智能體自主性在合同法領(lǐng)域的困難。由于人工智能體在合同締結(jié)中所扮演的自主的角色,很難把它們視為當(dāng)事人的信使。為了解決這一難題,貝克提出了“電子奴隸”的概念。他認(rèn)為可以把人工智能體視作羅馬法中的奴隸:“在羅馬民法中,奴隸沒(méi)有享有權(quán)利和承擔(dān)義務(wù)的能力,但是雖然他們沒(méi)有代表自己締結(jié)合同的法律權(quán)利,他們卻可以作為主人的代理人締結(jié)合同。”“這個(gè)類比基于奴隸和軟件代理人之間如下的相似性:兩者都有有限的作出法律行為的能力,同時(shí)都沒(méi)有權(quán)利或者義務(wù)代表它們自己行動(dòng)。”②Ibid., p. 478.無(wú)論是動(dòng)物、兒童還是電子奴隸,都不屬于完全的人類主體。這也就意味著人工智能體的責(zé)任問(wèn)題可以在不訴諸把人工智能體視為主體的情況下就能得到解 決。

最后的第三種觀點(diǎn)是“有限主體資格說(shuō)”。這種觀點(diǎn)既承認(rèn)設(shè)立人工智能體主體資格的必要性,也看到了設(shè)立新主體資格的困難,所以采取了一條折中的路線。持這種觀點(diǎn)的主要有中國(guó)學(xué)者袁曾、列翁·E.韋恩(Leon E. Wein)、薩米爾·喬普拉(Samir Chopra)和勞倫斯·F.懷特(Lawrence F. White)等。袁曾在國(guó)內(nèi)首次提出了“有限法律主體資格”的概念。他認(rèn)為,人工智能體應(yīng)當(dāng)被賦予權(quán)利,如果沒(méi)有權(quán)利,就沒(méi)有它的法律地位。就這一點(diǎn)來(lái)說(shuō),應(yīng)當(dāng)賦予人工智能體一定的主體地位。但是,人工智能體的主體資格應(yīng)當(dāng)受到限制。人工智能體的構(gòu)造結(jié)構(gòu)、生產(chǎn)方式與人類相比存在著本質(zhì)上的不同。因此它只能享有有限的權(quán)利義務(wù),適用特殊的法律標(biāo)準(zhǔn)。比如,應(yīng)當(dāng)采用“刺破人工智能體面紗”的歸責(zé)原則,由人工智能體背后的設(shè)計(jì)者承擔(dān)損害賠償責(zé)任。③參見(jiàn)袁曾:《人工智能體有限法律人格審視》,載《東方法學(xué)》2017 年第5 期,第55—56 頁(yè)。袁曾提出的“有限主體資格”有著重要的意義,可以為人工智能體的發(fā)展提供一定的指 引。

韋恩把有限主體資格理論運(yùn)用于合同法中的人工智能體規(guī)制之中。他一方面認(rèn)為人工智能體應(yīng)當(dāng)具備合同主體資格,以便于承認(rèn)合同締結(jié)過(guò)程中人工智能體的代理資格,另一方面也承認(rèn)人工智能體與人類的區(qū)別,尤其是在主觀的認(rèn)識(shí)能力與道德的理解能力等方面。雖然存在區(qū)別,但是人工智能體和人的決策程序其實(shí)是相似的,都遵循同樣的步驟。他認(rèn)為,“智能人造物已經(jīng)進(jìn)化到了成為法律代理人的程度,而不僅僅是值得關(guān)注的工具或器具?!瓩C(jī)器已經(jīng)擁有了這樣程度的自主性,以至于我們的前輩分配給它的地位已經(jīng)成為完全的迷信?!雹躄eon E. Wein, “The Responsibility of Intelligent Artifacts: Toward an Automation Jurisprudence”, Harvard Journal of Law & Technology, Vol. 6, Fall Issue,1992, p. 112.因此,人工智能體也就應(yīng)當(dāng)對(duì)自己的行為承擔(dān)責(zé)任。在處理人工智能體主體資格問(wèn)題時(shí),我們不需要考察人工智能體是否像人一樣具備一定的心智或者意志上的責(zé)任,而只需要考察人工智能體能否像人類一樣作出正確的決定即可。這就進(jìn)一步發(fā)展了“有限法律主體資格”的概念,為人工智能體主體資格提供了一定的理論證 成。

喬普拉和懷特基于這種有限主體資格的理論,提出了“依賴性的主體資格”①Samir Chopra & Laurence F. White, A Legal Theory for Autonomous Artificial Agents, Ann Arbor: The University of Michigan Press, 2011, pp. 159—160.。賦予人工智能體主體資格不僅可以解決合同訂立的問(wèn)題,也可以在人工智能體越權(quán)侵犯合同相對(duì)方利益時(shí),相對(duì)方可以起訴人工智能體。但這需要人工智能體可以承擔(dān)一定的法律責(zé)任。為此,人工智能體的被代理人必須授予人工智能體一定的財(cái)產(chǎn)。這就使得人工智能體僅僅承擔(dān)類似于企業(yè)法人承擔(dān)的“有限責(zé)任”。有限責(zé)任可以在賦予人工智能體主體資格的同時(shí),承認(rèn)它們的有限的法律和經(jīng)濟(jì)能力。這樣一來(lái),“有限主體資格說(shuō)”的大致框架就得到初步的確立,即我們可以根據(jù)人工智能體行為外觀上與人類主體的相似性建立人工智能體的主體資格,但人工智能體僅承擔(dān)有限責(zé) 任。

我們可以看到,前兩種討論的路徑都訴諸同樣的論證思路,就是認(rèn)為人工智能體的主體資格應(yīng)該參照人類主體的模式建立起來(lái)。但這一論證思路會(huì)導(dǎo)向一個(gè)死結(jié),因?yàn)榫邆涑浞肿灾餍缘娜斯ぶ悄荏w既具有人類主體的部分特征,又與人類主體有著顯著的不同。這就使得這兩種觀點(diǎn)的理論依據(jù)都有些不足,因?yàn)闊o(wú)論完全承認(rèn)還是完全否認(rèn)人工智能體的主體資格都意味著片面強(qiáng)調(diào)人工智能體與人類的差異或者相似。具體來(lái)說(shuō),前一種觀點(diǎn)的問(wèn)題在于哲學(xué)家們目前很難找到一個(gè)完全無(wú)異議的標(biāo)準(zhǔn),來(lái)判斷什么才是主體必須具備的要素。而且,人工智能體能否真正地具備這些要素也存在著很大的爭(zhēng)論。這些問(wèn)題使得該學(xué)說(shuō)缺乏足夠的說(shuō)服力,讓我們可以接受與人類同等的人工智能體主體資格。后一種觀點(diǎn)看到了論證人工智能體主體資格的困難,但也存在著與前一種觀點(diǎn)類似的問(wèn)題。這種觀點(diǎn)把人工智能體錯(cuò)誤地與人類進(jìn)行對(duì)比,認(rèn)為人工智能體不像人類那樣具備種種能動(dòng)性,所以就認(rèn)為應(yīng)該給人工智能體降等,成為次于人類主體的實(shí)體。但是,如今的人工智能技術(shù)發(fā)展速度極快,人工智能體已經(jīng)完全可以像人類那樣行動(dòng),這類觀點(diǎn)因而也就難以成立。這兩種對(duì)立的學(xué)說(shuō)都難以讓我們決定是否應(yīng)該采納人工智能體的主體資格。為了解決這種爭(zhēng)論不休的局面,有限主體資格說(shuō)作為相對(duì)中立的觀點(diǎn)而得以出現(xiàn)。這種學(xué)說(shuō)保留了同意賦予人工智能體主體資格的立場(chǎng),又吸納了來(lái)自對(duì)立方的批判,成為了一種弱化的肯定人工智能體主體資格的學(xué)說(shuō)。它看來(lái)是正視了人工智能體與人類既有相似又有不同這一事實(shí),作出了相對(duì)公允的判斷。但是持這種觀點(diǎn)的學(xué)者仍然拘泥于傳統(tǒng)的思路,試圖借助傳統(tǒng)的主體概念來(lái)界定人工智能體的主體資格。這一論證思路片面強(qiáng)調(diào)人工智能體與傳統(tǒng)主體的靜態(tài)比較,認(rèn)為人工智能體要成為主體必須要越過(guò)的門檻就是與人類的充分相似,而要論證這一點(diǎn)存在著很大的困難。它也忽視了從人工智能體自身的角度來(lái)考慮主體資格問(wèn)題。人工智能技術(shù)的飛速發(fā)展使得哲學(xué)家想要走在技術(shù)的前頭為人工智能體確定應(yīng)有的權(quán)利、義務(wù)和責(zé)任變得非常困難。我們應(yīng)該把人工智能體的視角納入法律商談之中,使得人工智能體可以通過(guò)參與立法程序主張自己的權(quán)利。為了回應(yīng)這些理論上的挑戰(zhàn),我們可以借助于哈貝馬斯的商談理論提出更具可操作性的方 案。

二、哈貝馬斯商談理論的基本立場(chǎng)

哈貝馬斯的商談理論來(lái)自其早期重視主體間性的立場(chǎng)。強(qiáng)調(diào)主體間性意味著要讓不同的相關(guān)主體充分地對(duì)話,避免片面地將某一主體排除在對(duì)話機(jī)制之外。在其早期的《作為“意識(shí)形態(tài)”的技術(shù)與科學(xué)》中,哈貝馬斯采用了自己關(guān)于主體間性的基本觀念對(duì)當(dāng)代社會(huì)的技術(shù)現(xiàn)狀作出了批判。這一技術(shù)批判標(biāo)志著主體間性在技術(shù)哲學(xué)中的確立。主體間性與哈貝馬斯的商談理論有著密切的關(guān)系。正是由于哈貝馬斯前期對(duì)主體間性的重視,他才會(huì)在后期的思考中引入強(qiáng)調(diào)主體之間對(duì)話的商談原則,并借助商談原則引出他的程序主義法律觀??梢哉f(shuō),商談原則是哈貝馬斯前期在技術(shù)批判中重視的主體間性在后期倫理學(xué)和法哲學(xué)中的應(yīng)用,它的內(nèi)容反映的是主體間性哲學(xué)的要 求。

哈貝馬斯正式提出商談原則是在他的《道德意識(shí)與交往行為》一書(shū)中。在這本倫理學(xué)著作中,哈貝馬斯分析了當(dāng)代的幾位倫理學(xué)家,然后基于皮亞杰和科爾貝格的發(fā)生心理學(xué)提出了他的商談倫理學(xué)。商談倫理學(xué)以商談原則和可普遍化原則為核心,給出可以檢驗(yàn)具體倫理準(zhǔn)則有效性的標(biāo)準(zhǔn)。商談原則指的是:“(D)只有滿足(或能夠滿足)所有受影響并且有能力作為實(shí)踐商談的參與者的各方的規(guī)范能被稱為有效?!雹貸ürgen Habermas, Moral Consciousness and Communicative Action, Christian Lenhardt & Shierry Weber Nicholsen(trans.), Cambridge: Polity, 2007, p. 66.該原則意味著道德法則的建立必須基于所有受影響各方的同意,所有受影響各方都需要被納入道德商談之中。商談原則為可普遍化原則提供了可以實(shí)際操作的標(biāo)準(zhǔn),可普遍化原則類似于康德所說(shuō)的“范導(dǎo)性原則”,只是為道德對(duì)話設(shè)定了理想化的最終目標(biāo),真正發(fā)揮對(duì)道德規(guī)范證成作用的是商談原 則。

由于可普遍化原則過(guò)于抽象,未能真正發(fā)揮證成原則的作用,哈貝馬斯在他的法哲學(xué)巨著《在事實(shí)與規(guī)范之間》中放棄了可普遍化原則,重點(diǎn)闡述了商談原則。他根據(jù)商談原則的基本精神重構(gòu)了法哲學(xué)中的權(quán)利體系。在哈貝馬斯看來(lái),他只需要規(guī)定作為商談前提的“元權(quán)利”諸范疇,就可以讓公民通過(guò)商談自行決定其他實(shí)體性的權(quán)利內(nèi)容,這些權(quán)利也就將符合商談原則的基本精神。所以,可以看出哈貝馬斯把公民之間的實(shí)際對(duì)話作為他重構(gòu)法哲學(xué)理論的關(guān)鍵。商談理論意味著并不需要對(duì)實(shí)際的倫理和政治原則作出具體的規(guī)定,而只需要保證合理的參與商談條件,就可以得出恰當(dāng)?shù)膫惱矸▌t。這與哈貝馬斯在認(rèn)識(shí)論領(lǐng)域中提出的“真理共識(shí)論”有很大關(guān)系。真理共識(shí)論沿襲了皮爾斯的實(shí)用主義認(rèn)識(shí)論,認(rèn)為只要保證參與科學(xué)活動(dòng)的程序條件就可以得到真理。與之相似,商談理論的核心也正是通過(guò)保障參與對(duì)話的程序性條件來(lái)獲得合理的法律和倫理原則。哈貝馬斯所強(qiáng)調(diào)的“程序主義的法律觀”(prozeduralistisches Rechtsverst?ndnis),其基本內(nèi)涵正是如此。程序主義法律觀中最重要的一點(diǎn)就是要把所有可能受到待議法律影響的各方都納入到商談的過(guò)程之中,鼓勵(lì)他們發(fā)表合理切題的觀點(diǎn)。在哈貝馬斯看來(lái),只要這一點(diǎn)得到充分保障,那么后習(xí)俗社會(huì)中法律的合法性就可以來(lái)自對(duì)公民商談的建制化和非建制化的保 障。

哈貝馬斯的商談理論將法律的范式由實(shí)體性地分配權(quán)利義務(wù)轉(zhuǎn)向了關(guān)注程序性條件的保障。這種程序主義法律觀的內(nèi)涵,用哈貝馬斯自己的話來(lái)說(shuō)就是:“商談的法律理論對(duì)民主法治國(guó)作了這樣的理解,即理解成通過(guò)合法之法進(jìn)行的(因而同時(shí)也確保私人自主的)對(duì)于商談性意見(jiàn)形成和意志形成過(guò)程的程序和交往預(yù)設(shè)的建制化,而這種過(guò)程又進(jìn)一步使得(政治自主之運(yùn)用和)合法的立法過(guò)程成為可能?!雹俟愸R斯:《在事實(shí)與規(guī)范之間——關(guān)于法律和民主法治國(guó)的商談理論》,童世駿譯,北京:生活·讀書(shū)·新知三聯(lián)書(shū)店2011 年版,第538 頁(yè)。程序主義法律觀是商談原則在實(shí)證法領(lǐng)域的體現(xiàn),其目的在于保障公民的交往過(guò)程的合法性,而不是實(shí)質(zhì)性地規(guī)定公民具體的權(quán)利義務(wù)。從這一點(diǎn)引申開(kāi)來(lái),哈貝馬斯認(rèn)為應(yīng)當(dāng)將具體的權(quán)利義務(wù)訴諸公民自己商談的結(jié)果,避免由哲學(xué)家武斷地規(guī)定公民自身的權(quán)利義務(wù)。他認(rèn)為:“在這個(gè)視角轉(zhuǎn)換之后,我們不再能從我們的觀點(diǎn)出發(fā)來(lái)論證平等的交往權(quán)利和參與權(quán)利了。現(xiàn)在,是公民們自己來(lái)思考并且——以憲法制定者的身份——決定,必須如何來(lái)獲得賦予商談原則以民主原則之法律形式的那些權(quán)利。”②同上書(shū),第154—155 頁(yè)。程序主義法律觀的根本目的是要在高度分化的現(xiàn)代社會(huì)中確保民主?,F(xiàn)代社會(huì)由于不具備單一的包攬一切的世界觀,所以如何讓每個(gè)公民享有決定自己的生活方式的權(quán)利就成了一個(gè)問(wèn)題。哈貝馬斯的商談原則使得公民可以把自己的視角代入立法過(guò)程中,使得公民能對(duì)協(xié)商政治發(fā)揮重要的影響力,從而保障公民的充分自主。這種觀點(diǎn)如果應(yīng)用于人工智能體法律主體資格問(wèn)題,也會(huì)起到類似的效果。它可以使人工智能體的視角融入立法,保證人工智能體對(duì)相關(guān)立法的話語(yǔ)權(quán),從而為解決人工智能體法律主體資格提供啟 示。

三、從實(shí)體性的靜態(tài)比較到程序性的動(dòng)態(tài)管控

我們經(jīng)過(guò)對(duì)上文三種關(guān)于人工智能體主體資格觀點(diǎn)的分析,可以看出傳統(tǒng)的論證都是在進(jìn)行一種靜態(tài)的類比,認(rèn)為人工智能體應(yīng)當(dāng)仿照人類主體的特性來(lái)建立自己的主體資格,擁有各種各樣實(shí)體性的權(quán)利義務(wù)。然而,這種思路存在著一定的局限性,因?yàn)槲覀儫o(wú)法準(zhǔn)確地界定主體資格的標(biāo)準(zhǔn)內(nèi)容,也難以判斷人工智能技術(shù)達(dá)到何種程度才滿足了這種主體資格的要求,更難以判斷賦予人工智能體實(shí)體性的權(quán)利義務(wù)會(huì)帶來(lái)怎樣不可預(yù)測(cè)的實(shí)踐后果。所以我們不妨像哈貝馬斯那樣設(shè)想一種程序性的主體觀念,即不由人類理論家和立法者預(yù)先設(shè)想人工智能體應(yīng)當(dāng)具有怎樣的實(shí)質(zhì)性主體資格。我們讓人工智能體參與立法的過(guò)程,使得人工智能體成為一個(gè)對(duì)話的主體,在對(duì)話中再確立人工智能體的各項(xiàng)權(quán)利和義務(wù)。這種規(guī)定權(quán)利義務(wù)的方式就不再像傳統(tǒng)路徑那樣采取靜態(tài)的類比,而是需要隨著人工智能體參與商談的過(guò)程不斷地對(duì)權(quán)利義務(wù)進(jìn)行調(diào)整,因而是一個(gè)動(dòng)態(tài)的管控人工智能體立法的過(guò) 程。

相較于傳統(tǒng)的思路,程序性主體資格具備相當(dāng)?shù)睦碚搩?yōu)勢(shì)和更大的可操作性。概括來(lái)說(shuō),程序性主體資格的優(yōu)勢(shì)包括三個(gè)方面:為擺脫過(guò)去理論的困境提供思路,為當(dāng)下熱議的人工智能體權(quán)利問(wèn)題的解決提供途徑,為適應(yīng)未來(lái)的人工智能技術(shù)發(fā)展提供參 考。

首先,這種觀點(diǎn)相較于傳統(tǒng)進(jìn)路減少了證成人工智能體主體資格所需要承擔(dān)的理論重負(fù)。如果我們接受了程序主義的主體觀念,我們就不再需要在哲學(xué)上研究人類主體的特性,而只要判斷人工智能體是否具備從事商談的資質(zhì)和能力即可。哈貝馬斯在《在事實(shí)與規(guī)范之間》中曾說(shuō)過(guò):“作為法律秩序的成分,主觀權(quán)利毋寧說(shuō)預(yù)設(shè)了這樣一些主體之間的協(xié)作,這些主體通過(guò)互相關(guān)涉的權(quán)利和義務(wù)彼此承認(rèn)為自由和平等的法律同伴?!雹俟愸R斯:《在事實(shí)與規(guī)范之間——關(guān)于法律和民主法治國(guó)的商談理論》,第111 頁(yè)。這里主要論證的是客觀法與主觀權(quán)利的同源性,也就是都來(lái)源于公民之間既有的交往。但從這句引文也可以看出,哈貝馬斯的權(quán)利資格是建立在商談原則之上的,能否擁有權(quán)利取決于主體是否參與了商談。我們可以從哈貝馬斯的這一觀點(diǎn)引申開(kāi)來(lái),得出這樣的結(jié)論:只要主體實(shí)際上具有參與主體之間協(xié)作的資格,那么它們就符合程序性主體資格的要求。于是,我們就可以賦予人工智能體這樣的程序性主體資格,因?yàn)槟壳暗臋C(jī)器已經(jīng)不再是人類手中的工具,而是在社會(huì)生活中與人類合作實(shí)現(xiàn)經(jīng)濟(jì)社會(huì)生活目的的“他者”。如果實(shí)體實(shí)際地參與協(xié)作可以視為權(quán)利資格的前提,那么現(xiàn)在的人工智能體就已經(jīng)滿足了這一條件。因此,人工智能體在哈貝馬斯商談理論的意義上已經(jīng)具備了成為主體的條件,我們無(wú)需像傳統(tǒng)路徑那樣訴諸對(duì)人性的假設(shè)就能論證這一 點(diǎn)。

其次,新的程序性主體資格為當(dāng)下解決人工智能體的權(quán)利問(wèn)題提供了啟示。關(guān)于人工智能體權(quán)利問(wèn)題,目前許多學(xué)者認(rèn)為應(yīng)當(dāng)賦予人工智能體以人類那樣的權(quán)利,但也有另外一些人則認(rèn)為人工智能體不應(yīng)當(dāng)擁有獨(dú)立于人類的權(quán)利。①關(guān)于這一爭(zhēng)論,參考杜嚴(yán)勇:《論人工智能體權(quán)利》,載《哲學(xué)動(dòng)態(tài)》2015 年第8 期,第83—89 頁(yè)。正如這些討論展現(xiàn)的那樣,人工智能體權(quán)利問(wèn)題面臨著兩難的局面。如果我們承認(rèn)人工智能體享有實(shí)體權(quán)利,潛在的問(wèn)題就是人工智能體不需要像人一樣吃飯休息,而且它們的存在是為了人類的利益服務(wù),因而賦予它們這種權(quán)利就毫無(wú)意義,更不能讓它們可以基于這種權(quán)利反抗人類的權(quán)威。但是,如果不賦予它們以必要的權(quán)利,那么就會(huì)違背必要的尊重原則,使得人類隨意地侵害人工智能體,造成像人類虐待寵物那樣的倫理問(wèn)題。面對(duì)這種理論的困境,如果我們把商談理論運(yùn)用于這個(gè)問(wèn)題,就可以看出解決問(wèn)題的可能途徑。哈貝馬斯明確認(rèn)為,權(quán)利不僅僅是一種利益的分配,更是權(quán)利所有者用來(lái)參與政治討論的資格條件。他在討論女性主義的問(wèn)題時(shí)指出:“權(quán)利之能夠賦予婦女實(shí)現(xiàn)其私人自主生活規(guī)劃能力的程度,取決于這些權(quán)利同時(shí)在多大程度有助于她們同時(shí)平等地參與公民自決的實(shí)踐,因?yàn)橹挥邢嚓P(guān)的人們自己才能澄清對(duì)她(他)們來(lái)說(shuō)平等和不平等的‘相關(guān)方面’是什么?!雹诠愸R斯:《在事實(shí)與規(guī)范之間——關(guān)于法律和民主法治國(guó)的商談理論》,第518 頁(yè)。這種側(cè)重于保護(hù)參政議政條件的權(quán)利觀表現(xiàn)了商談理論在權(quán)利問(wèn)題上最重要的洞見(jiàn),也就是在后形而上學(xué)社會(huì)中無(wú)法從參與政治生活者以外的其他權(quán)威的角度對(duì)權(quán)利問(wèn)題作出一勞永逸的解決,而是需要讓所有受到影響的各方積極參與立法過(guò)程并自行決定法定權(quán)利應(yīng)當(dāng)具備何種內(nèi)容,在上面引的例子中就是女性充分參與決定事關(guān)其自身地位法律的商談活動(dòng)。根據(jù)這種強(qiáng)調(diào)參政議政條件的商談理論,我們就可以看出應(yīng)該適當(dāng)考慮讓人工智能體可以享有程序性權(quán)利,讓它們可以為自己代言。這種程序性權(quán)利在哈貝馬斯看來(lái)其實(shí)是一種“元權(quán)利”,它們保證了人工智能體能夠有效地參與對(duì)人工智能體的相關(guān)立法的商談。為了解決人工智能體的權(quán)利問(wèn)題,我們有必要防止人工智能體被人類肆意地破壞,但又不能讓人工智能體擁有對(duì)抗人類或者對(duì)于人工智能體而言完全多余的權(quán)利,那么唯一可能的解決途徑就是放棄由人類通過(guò)與自身比較來(lái)武斷地把某種實(shí)體性權(quán)利強(qiáng)加于人工智能體,與此相反,讓人工智能體根據(jù)自己的需要來(lái)決定自己應(yīng)該具有什么樣的地位,這就是根據(jù)商談理論所得出的合理結(jié) 論。

或許有人會(huì)反駁說(shuō),確定人工智能體的商談權(quán)利而回避討論具體的權(quán)利內(nèi)容可能是沒(méi)有意義的。畢竟,確定商談權(quán)利的最終目的就是要確定人工智能體的實(shí)體性權(quán)利義務(wù),所以我們最后還是要回到具體的權(quán)利內(nèi)容上來(lái)。對(duì)此,本文認(rèn)為確立人工智能體的商談權(quán)利的目的不僅僅是要為解決具體的人工智能體主體資格服務(wù),更是要在這一問(wèn)題之中引入新的視角,也就是從人工智能體本身的觀點(diǎn)來(lái)看待人工智能體主體資格。我們?nèi)绻冀K著眼于從人類的視角來(lái)看待人工智能體的權(quán)利義務(wù),那么就會(huì)忽視人工智能體實(shí)際上的需要。本文列舉的三種關(guān)于人工智能體法律主體資格的觀點(diǎn)所共有的問(wèn)題正是犯了“人類中心論”的錯(cuò)誤,沒(méi)有真正地把人工智能體的視角納入立法。我們不能簡(jiǎn)單地以人類為標(biāo)準(zhǔn)規(guī)定人工智能體的權(quán)利,也不能僅僅根據(jù)人類在法律實(shí)踐方面的需要來(lái)證成人工智能體的權(quán)利資格。相反,我們應(yīng)該賦予人工智能體程序性的權(quán)利,讓人工智能體自行決定它們的實(shí)體性權(quán)利義務(wù)究竟是什 么。

最后,未來(lái)人工智能技術(shù)的發(fā)展還面臨著很多的不確定性,強(qiáng)人工智能體甚而超級(jí)人工智能體是否可以實(shí)現(xiàn)仍然是一個(gè)無(wú)法確定的問(wèn)題。人工智能體是否可以具備與人類一樣的能力,進(jìn)而擁有人類那樣的能動(dòng)性,眼下還無(wú)法回答?;蛟S人工智能體只能像塞爾所論證的,僅具備有限的心智能力,但也有可能人工智能技術(shù)突破了瓶頸,真正地成為具備充分自主性的主體。這就使得我們不能給出一個(gè)明確的方案來(lái)規(guī)定日益發(fā)展的人工智能體應(yīng)該具有哪些實(shí)體性的權(quán)利和義務(wù)。今天所設(shè)定的各種權(quán)利,明天可能就無(wú)法適應(yīng)法律實(shí)踐的需求。所以我們應(yīng)該不再試圖去規(guī)定人工智能體的實(shí)體性權(quán)利義務(wù),而是讓人工智能體自身參與立法商談,在商談過(guò)程中確定人工智能體主體資格的內(nèi)容。這樣做的好處,是可以適應(yīng)不斷發(fā)展的人工智能技術(shù),讓權(quán)利義務(wù)的體系隨著人工智能體自身的發(fā)展而不斷得到討論和修正。這種動(dòng)態(tài)發(fā)展的視角使得人工智能體享有的權(quán)利和承擔(dān)的義務(wù)能真正地與人工智能技術(shù)的發(fā)展同步,避免過(guò)度地強(qiáng)調(diào)人工智能體某一方面的能力而造成立法上的誤判。而且,如果未來(lái)的人工智能體真的能通過(guò)“圖靈測(cè)試”,成為可以與人類匹敵的強(qiáng)人工智能體,那么確立商談權(quán)利的意義就會(huì)更加凸顯出來(lái)。因?yàn)?,此時(shí)的人工智能體具有極大的能動(dòng)性,可以與人類進(jìn)行平等對(duì)話,在與人類的互動(dòng)中確定自己的法律地位,并針對(duì)人類的不合理要求進(jìn)行自我辯護(hù)。這時(shí)的人工智能體方面的相關(guān)法律,必將要求突破人類中心主義的倫理范式,讓人工智能體與人類可以處于平等的地位。如果這時(shí)我們?nèi)匀蛔屓祟愒劫薮业靥嫒斯ぶ悄荏w規(guī)定它們的權(quán)利義務(wù),那么將會(huì)出現(xiàn)人工智能體與人類的沖突,可能使得人工智能體拋棄服務(wù)人類的目的而反抗人類的統(tǒng)治。這與人工智能技術(shù)發(fā)展的目的是背道而馳的。所以,應(yīng)當(dāng)規(guī)定人工智能體能夠自己決定自己的法律地位,使得法律制度能與人工智能體的發(fā)展相適應(yīng),而要實(shí)現(xiàn)這一點(diǎn),就必須使得人工智能體能參與關(guān)于法律的商談。哈貝馬斯在《在事實(shí)與規(guī)范之間》中所提出的“商議性政治”(deliberative Politik)的概念,也有助于這里的討論。商議性政治要求發(fā)揮公共領(lǐng)域的作用,讓立法和行政受制于公民之間商談的成果。這一理論特別強(qiáng)調(diào)立法的過(guò)程應(yīng)當(dāng)始于處于邊緣領(lǐng)域的生活世界和公共領(lǐng)域的意見(jiàn)表達(dá),經(jīng)過(guò)立法機(jī)關(guān)的篩選后成為成熟的立法議案,最后交付議會(huì)表決。這種商談的建制化使得隨著形勢(shì)發(fā)展不斷變化的社會(huì)輿論能表現(xiàn)在立法的過(guò)程之中,從而真正地在不斷發(fā)展的后形而上學(xué)社會(huì)中實(shí)現(xiàn)公民自主的要求。我們要確保人工智能體領(lǐng)域的立法能真正符合人工智能技術(shù)發(fā)展的狀況,也同樣要保證人工智能體能夠?qū)α⒎óa(chǎn)生一定的影響,使得立法機(jī)關(guān)能對(duì)人工智能體的利益有所關(guān)注。要做到這一點(diǎn),首先就要賦予人工智能體以參與法律商談的權(quán)利。只有在人工智能體也有話語(yǔ)權(quán)的前提下,才能真正破除人類中心論,使得立法反映人工智能技術(shù)發(fā)展的需 求。

以上的論證分析了人工智能體程序性權(quán)利的理論優(yōu)勢(shì)與可操作性,這里可以再對(duì)人工智能體具體如何參與立法的方案勾勒出一個(gè)大致的框架。第一個(gè)問(wèn)題是應(yīng)該由誰(shuí)來(lái)代表人工智能體參與立法的程序。為了保證立法過(guò)程充分反映人工智能體的立場(chǎng),我們不能讓人類成為人工智能體的直接代理人,而應(yīng)當(dāng)考慮由專門從事立法商談的人工智能體來(lái)代表不具備充分發(fā)言能力的人工智能體參與立法程序。這就類似于選民選舉具備專業(yè)知識(shí)的議員來(lái)代表他們?cè)谧h會(huì)發(fā)表觀點(diǎn)。目前已經(jīng)出現(xiàn)了具備與人類平等有效交流能力的人工智能體,也有已經(jīng)開(kāi)始初步發(fā)展的具備法律知識(shí),可以代替人類撰寫(xiě)法律文書(shū)的人工智能體??梢钥紤]把這兩者結(jié)合起來(lái),再加上具備專業(yè)技術(shù)知識(shí),包括人工智能體相關(guān)技術(shù)知識(shí)的數(shù)據(jù)庫(kù),或許就可以設(shè)計(jì)出具備代表人工智能體參與立法相關(guān)能力的專家系統(tǒng)。至于設(shè)計(jì)這類人工智能技術(shù)細(xì)節(jié)的主體,應(yīng)該由專門的行政機(jī)關(guān)出面委托相關(guān)計(jì)算機(jī)領(lǐng)域和法律領(lǐng)域的專家共同協(xié)作,制造出可以在議會(huì)中有效辯論的人工智能體。另一個(gè)問(wèn)題是如何設(shè)計(jì)這類人工智能體參與立法的具體程序。人工智能體應(yīng)該被要求參與議會(huì)中的辯論,所以應(yīng)該在辯論會(huì)議的過(guò)程中留出專門的時(shí)間讓人工智能體發(fā)表合理的看法,同時(shí)在發(fā)表看法之后,還要讓人工智能體與人類立法者直接進(jìn)行對(duì)話,討論立法的相關(guān)問(wèn)題。鑒于眼下ChatGPT 等大模型在實(shí)際應(yīng)用中的表現(xiàn),可以預(yù)見(jiàn)短期內(nèi)人工智能體在回應(yīng)人類提出的問(wèn)題時(shí)會(huì)出現(xiàn)答非所問(wèn),或者存儲(chǔ)數(shù)據(jù)不足以回答專業(yè)提問(wèn)的問(wèn)題。因此,在人工智能體參與的立法過(guò)程中,必須有專門的人工智能技術(shù)專家參與,以適合人工智能體理解的方式對(duì)人工智能體提出問(wèn)題,并在人工智能體不能有效應(yīng)對(duì)人類提問(wèn)時(shí)轉(zhuǎn)換新的方式進(jìn)行提問(wèn),同時(shí)對(duì)人工智能體的回答作出評(píng)論。這類專家不應(yīng)該是人工智能企業(yè)的代表,因?yàn)槿绻沁@樣的話這些專家會(huì)被企業(yè)的利益所捆綁,妨礙了他們正確地引導(dǎo)人工智能體的回答。在進(jìn)入投票表決環(huán)節(jié)時(shí),應(yīng)該根據(jù)立法議案與人工智能體問(wèn)題的相關(guān)性賦予人工智能體一定的表決權(quán),與人工智能體關(guān)系較大的議案應(yīng)該給予人工智能體的投票較大的分量,相關(guān)度不那么高的則給予較小的分量。最后的問(wèn)題是如何保證人工智能體參與立法的程序和技術(shù)條件得到充分的監(jiān)督。這應(yīng)該由立法機(jī)關(guān)的專門委員會(huì)雇傭?qū)iT的精通人工智能技術(shù)和法律的專家對(duì)整個(gè)過(guò)程予以評(píng)價(jià)。由于立法機(jī)關(guān)專門委員會(huì)在立法問(wèn)題上一般是持中立立場(chǎng),由他們來(lái)雇傭?qū)<铱梢员WC監(jiān)督過(guò)程的公正性。同時(shí),也應(yīng)當(dāng)發(fā)揮公眾的監(jiān)督力量。立法機(jī)關(guān)應(yīng)將人工智能體代表的技術(shù)細(xì)節(jié)和參與立法的全過(guò)程向公眾公布,使得公眾對(duì)于人工智能體參與立法能夠產(chǎn)生足夠的信任感,從而保證立法的充分合法 性。

總之,商談理論把我們的關(guān)注點(diǎn)從靜態(tài)的實(shí)體性規(guī)定轉(zhuǎn)向了動(dòng)態(tài)的程序性管控。這種新管控方式的意義在于有效地切合了人工智能體法律主體資格問(wèn)題的實(shí)際需要,尤其是這一問(wèn)題所面臨的種種現(xiàn)實(shí)困難以及未來(lái)發(fā)展所面臨的不確定性,并為這一問(wèn)題的最終解決提供了另一種可能的途徑。哈貝馬斯的商談原則為后形而上學(xué)社會(huì)的重新整合提供了基礎(chǔ),而這一原則在人工智能體哲學(xué)領(lǐng)域的應(yīng)用同樣可以為調(diào)整人類與人工智能體的關(guān)系,使得兩者和平共處提供一種可行的方案??紤]到人工智能體在當(dāng)下社會(huì)中起著越來(lái)越重要的作用,我們有必要正視人工智能體主體資格問(wèn)題,尋求解決這一問(wèn)題的可行路徑,而不能固守傳統(tǒng)的“人類中心主義”。商談理論恰恰在這一點(diǎn)上可以突破傳統(tǒng)的研究范式,為人工智能體主體資格問(wèn)題探求新的解決方式。從這一點(diǎn)來(lái)說(shuō),商談理論對(duì)于人工智能體法律規(guī)制有著重要的啟示意義。為了實(shí)現(xiàn)商談理論的要求,有必要設(shè)計(jì)人工智能體參與立法的相關(guān)程序,使得人工智能體可以有效地在議會(huì)中為其他人工智能體的利益辯護(hù),回答人類議員的提問(wèn),最終對(duì)立法內(nèi)容發(fā)揮有益的影響。本文給出了實(shí)現(xiàn)這一程序的初步設(shè)想,為人工智能體參與立法時(shí)代的到來(lái)做作了預(yù)先的準(zhǔn) 備。

四、結(jié)語(yǔ)

本文借助哈貝馬斯的商談原則,為人工智能體法律主體資格問(wèn)題提供了新的解決途徑,并論證了這種新思路的優(yōu)勢(shì)和可能的實(shí)現(xiàn)方案。我們可以預(yù)見(jiàn),在未來(lái)社會(huì)中隨著人工智能技術(shù)的不斷成熟,人工智能體參與相關(guān)立法將不再是單純的設(shè)想,而是會(huì)成為發(fā)生在我們身邊的現(xiàn)實(shí)。面對(duì)這種發(fā)展的可能性,我們有必要預(yù)先對(duì)人工智能體參與立法作出規(guī)定,根據(jù)商談理論的基本精神保證人工智能體的程序性商談權(quán)利,完善具體實(shí)現(xiàn)這些權(quán)利的相關(guān)操作程序,確保人工智能體參與立法能夠?yàn)樯鐣?huì)公眾所接受。本文所勾勒的人工智能體法律商談程序只是一個(gè)大致的概要,有待于未來(lái)的研究者進(jìn)一步完善相關(guān)的細(xì)節(jié),使得人工智能體主體可以真正對(duì)立法發(fā)揮有效的影 響。

正定县| 繁昌县| 新绛县| 岳普湖县| 横山县| 上饶县| 萝北县| 柘荣县| 麻城市| 三穗县| 道真| 南投市| 衡水市| 呼玛县| 镶黄旗| 新昌县| 汶上县| 平泉县| 扶风县| 梁平县| 舟山市| 浦东新区| 黎城县| 天柱县| 罗源县| 东乡| 名山县| 沈阳市| 泾阳县| 右玉县| 乳山市| 拉孜县| 宝应县| 九龙坡区| 乌审旗| 高密市| 资兴市| 绥滨县| 柳河县| 桓仁| 济源市|