国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

論人工智能的法律人格制度需求與多層應(yīng)對(duì)

2021-03-26 05:29:50劉云
東方法學(xué) 2021年1期
關(guān)鍵詞:侵權(quán)責(zé)任人工智能

劉云

內(nèi)容摘要:人工智能的法律人格需求是伴隨著自動(dòng)化技術(shù)的發(fā)展而產(chǎn)生的,是智能社會(huì)治理中許多具體問題都會(huì)觸及的理論假設(shè)。自1992年人工智能法律人格設(shè)想被首次提出以來,它成為理論研究、立法建議和司法實(shí)踐中普遍關(guān)注的話題,人工智能生成物的著作權(quán)歸屬、人工智能擔(dān)任人類工作角色和歐洲的立法動(dòng)議更促進(jìn)了這一問題的討論。人工智能的法律人格具有多維度的需求。既包括明確侵權(quán)責(zé)任、塑造權(quán)利能力等具體需求,也包括以構(gòu)建社會(huì)治理新范式為目標(biāo)的根本需求。不能簡(jiǎn)單地從概念上直接排除人工智能具有法律人格的可能性,也不能認(rèn)為授予法律人格是唯一或者更佳的解決辦法。人工智能法律人格是智能社會(huì)發(fā)展中新型治理模式的選項(xiàng),以功能主義的態(tài)度來進(jìn)行解釋論或立法論的探討是看待人工智能法律人格問題的正確視角,可以分別按照財(cái)產(chǎn)、類推適用代理、借用公司或財(cái)產(chǎn)法人、設(shè)立新的法律主體等方式回應(yīng)人工智能帶來的法律問題和挑戰(zhàn)。即便不設(shè)立新的法律人格,在人工智能的侵權(quán)責(zé)任、合同締約程序、代理關(guān)系認(rèn)定等方面也需要作出必要的補(bǔ)充規(guī)定。

關(guān)鍵詞:人工智能 法律人格 智能社會(huì)治理 機(jī)器侵權(quán) 侵權(quán)責(zé)任 塑造權(quán)利能力

中圖分類號(hào):DF0 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1674-4039-(2021)01-0061-73

法律人格 〔1 〕也稱之為法律主體資格,是獨(dú)立承擔(dān)責(zé)任或享有權(quán)利的法律地位。人工智能可否取得法律人格是智能社會(huì)治理中懸而未決的基礎(chǔ)命題。國(guó)務(wù)院于2017年頒發(fā)的《新一代人工智能發(fā)展規(guī)劃》要求,“明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任等”。2020年7月,歐洲議會(huì)法律事務(wù)委員會(huì)發(fā)布的《人工智能與民事責(zé)任》研究報(bào)告再次提出:不能完全否定賦予人工智能法律人格的可能性,但是授予法律人格也不是解決挑戰(zhàn)的唯一辦法,能否授權(quán)法律人格以及如何授予法律人格應(yīng)當(dāng)具備一套合理的條件?!? 〕國(guó)內(nèi)外的立法政策中都在考慮人工智能的法律人格問題,證明這并不是一個(gè)科幻問題或者純粹的主觀價(jià)值判斷問題,而是傳統(tǒng)法律制度在新一代人工智能技術(shù)發(fā)展背景下必須作出判斷的社會(huì)治理模式選擇問題。

一、智能社會(huì)治理中人工智能的法律人格爭(zhēng)議

人工智能的法律人格問題是隨著自動(dòng)化技術(shù)的發(fā)展而產(chǎn)生的。早在20世紀(jì)60年代末,人們就開始討論通過計(jì)算機(jī)做出的行為具有何種法律效果,最初的研究?jī)A向于認(rèn)定為一種電子化的意思表示?!? 〕美國(guó)統(tǒng)一州法委員會(huì)在20世紀(jì)90年代擬定統(tǒng)一計(jì)算機(jī)信息交易示范法(草案)時(shí)開始考慮將合同訂立的數(shù)據(jù)交換電文視為一種電子代理人,但是此處的電子代理人是完全按照人的指示行事的計(jì)算機(jī)程序, 〔4 〕最終頒布的示范法也僅僅在少數(shù)州獲得認(rèn)可。勞倫斯·索倫在1992年首次討論了賦予人工智能法律人格的可能與障礙,他指出:在人工智能發(fā)展處于低谷且沒有高級(jí)人工智能實(shí)物的背景下,應(yīng)當(dāng)按照現(xiàn)行法進(jìn)行相對(duì)保守的處理,人工智能真正普及之后就需要考慮是否賦予法律人格的問題?!? 〕隨著科學(xué)技術(shù)的發(fā)展,越來越復(fù)雜的人工智能實(shí)體表現(xiàn)出靈活多樣的行為,除了參與合同簽訂、機(jī)械工作和決策輔助外,還可以承擔(dān)“駕駛員”“作家”“家庭管家”“自動(dòng)化決策者”等傳統(tǒng)理性人的角色,這些再次引發(fā)了智能社會(huì)治理背景下擬制人工智能法律人格的討論。

人工智能的法律人格是許多具體問題都會(huì)觸碰到的理論假設(shè)。無監(jiān)督的人工智能自主機(jī)器人可否擬制為人?人工智能技術(shù)自動(dòng)生成作品是否可以享有著作權(quán)保護(hù)?如何對(duì)人工智能機(jī)器人進(jìn)行征稅?自動(dòng)駕駛汽車造成他人損害該由誰來承擔(dān)責(zé)任?如何為人工智能技術(shù)的發(fā)展設(shè)定倫理規(guī)范?人工智能機(jī)器人出入國(guó)家邊境如何進(jìn)行審查?人工智能產(chǎn)品的風(fēng)險(xiǎn)是否可以得到有限責(zé)任保護(hù)?……這些問題都會(huì)牽扯到賦予人工智能以法律人格來滿足社會(huì)治理需求的可能性。近幾年來引發(fā)人工智能法律人格問題討論主要是三個(gè)方面的事件:

第一,人工智能生成物是否受著作權(quán)保護(hù)引發(fā)了法律人格問題的追問。美國(guó)紐約州法院于2014年在黑猩猩自拍形成的照片案例中作出裁定:盡管黑猩猩具有比較復(fù)雜的認(rèn)知能力,但其不能被視為自然人,故而其照片不受著作權(quán)法保護(hù)?!? 〕這一案例引發(fā)了學(xué)術(shù)界對(duì)人工智能生成物是否可以受著作權(quán)法保護(hù)的討論。2018年12月,北京互聯(lián)網(wǎng)法院首次在計(jì)算機(jī)系統(tǒng)自動(dòng)生成物一案判決中指出:軟件用戶僅提交了關(guān)鍵詞進(jìn)行搜索,應(yīng)用“可視化”功能自動(dòng)生成的分析報(bào)告亦非傳遞軟件用戶思想、感情的獨(dú)創(chuàng)性表達(dá),故該分析報(bào)告亦不宜認(rèn)定為使用者創(chuàng)作完成。〔7 〕在沒有人工智能主體資格的情況下,以世界知識(shí)產(chǎn)權(quán)組織為代表的國(guó)內(nèi)外觀點(diǎn)不支持人工智能生成物受著作權(quán)法保護(hù)。

第二,人工智能是否可以在特定場(chǎng)景認(rèn)定為法律上所規(guī)定的人成為現(xiàn)實(shí)的社會(huì)問題。2016年2月,美國(guó)國(guó)家公路交通安全管理局在給谷歌公司的回函中明確表示,根據(jù)美國(guó)聯(lián)邦法律,谷歌自動(dòng)駕駛汽車中的自動(dòng)駕駛系統(tǒng)可視為“駕駛員”,這為人工智能在自動(dòng)駕駛領(lǐng)域的落地提供了有利的條件。2017年10月,一家香港公司制造的機(jī)器人索菲亞被沙特阿拉伯授予公民身份,這引起了人工智能法律人格問題的熱烈爭(zhēng)議。此外,機(jī)器人出入國(guó)境場(chǎng)景下的法律適用,也成為一些學(xué)者討論的新議題。這些現(xiàn)實(shí)問題都反映了智能社會(huì)治理中的法律挑戰(zhàn)。

第三,歐洲議會(huì)法律事務(wù)委員會(huì)賦予人工智能以“電子人”身份的立法動(dòng)議推動(dòng)了問題的發(fā)展。歐洲議會(huì)法律事務(wù)委員會(huì)于2016年5月在《關(guān)于機(jī)器人相關(guān)民法規(guī)則的報(bào)告(草案)》中首次提出,呼吁歐洲委員會(huì)在未來的立法中探討賦予機(jī)器人具體的法律地位的可能性,以便至少最先進(jìn)的自主機(jī)器人可以被確定為具有特定權(quán)利和義務(wù)的“電子人”的地位?!? 〕盡管上述建議招致了廣泛批評(píng),2017年之后發(fā)布的多個(gè)歐盟研究報(bào)告和立法議案明確否定授予人工智能以法律人格,歐洲議會(huì)在最新發(fā)布的立法建議也刪除了相關(guān)規(guī)定, 〔9 〕但是,歐洲議會(huì)法律事務(wù)委員會(huì)在2020年7月發(fā)布的報(bào)告中依然堅(jiān)持其最初的建議,并對(duì)批評(píng)意見作了逐一辯駁,表明該問題依然尚未形成定論。

人工智能是否可以、是否應(yīng)當(dāng)取得法律人格,可以是一個(gè)沒有答案的哲學(xué)問題,可以是各類群體理解人工智能社會(huì)角色的不同視角問題。同時(shí),也是對(duì)人工智能進(jìn)行立法設(shè)計(jì)、倫理指引的必答題,也是人工智能相關(guān)產(chǎn)業(yè)進(jìn)行責(zé)任、權(quán)利分擔(dān)和法律地位認(rèn)定的制度選項(xiàng)。有哲學(xué)家提出:在沒有承認(rèn)人工智能具有法律人格的情況下,關(guān)于其人格的哲學(xué)辯論就無法進(jìn)行, 〔10 〕這反映出法律人格的討論具有決定性意義。從智能社會(huì)治理需求而言,賦予人工智能法律人格的需求是否真實(shí)?所謂的法律人格需求可以通過哪些途徑實(shí)現(xiàn)?人工智能的法律人格問題映射了哪些認(rèn)識(shí)?這些都是法學(xué)研究需要且可以破解的問題。

二、賦予人工智能以法律人格的必要性

(一)明確侵權(quán)責(zé)任分配

自從蒸汽機(jī)發(fā)明以來,技術(shù)進(jìn)步推動(dòng)了責(zé)任制度的革新。人工智能普遍被認(rèn)為是一個(gè)機(jī)遇與挑戰(zhàn)并存的“雙刃劍”技術(shù),對(duì)人工智能引發(fā)的法律風(fēng)險(xiǎn)進(jìn)行適當(dāng)?shù)呢?zé)任安排成為各國(guó)立法的一項(xiàng)重要目標(biāo)。在沒有法律人格的情況下,人工智能的法律責(zé)任均按照產(chǎn)品責(zé)任的規(guī)則進(jìn)行處理。傳統(tǒng)的產(chǎn)品在制造、銷售和使用過程中的狀態(tài)是較為穩(wěn)定的,出廠流通的技術(shù)要求和運(yùn)行參數(shù)是明確的,用戶使用過程中也具有較強(qiáng)的控制力,相應(yīng)的產(chǎn)品責(zé)任分配較為清晰。完全封閉、獨(dú)立的人工智能在運(yùn)行過程中排除了用戶的實(shí)質(zhì)干預(yù),產(chǎn)品制造商以實(shí)時(shí)連線的方式對(duì)其產(chǎn)品具有排他性的控制權(quán),此種場(chǎng)景的人工智能責(zé)任由該唯一的制造商承擔(dān)并不會(huì)產(chǎn)生爭(zhēng)議。然而,多主體協(xié)同、開放式支撐的人工智能是更為常見的形式,硬件制造商、軟件提供商、系統(tǒng)運(yùn)行維護(hù)商、基礎(chǔ)網(wǎng)絡(luò)提供商、改造利用的用戶和網(wǎng)絡(luò)侵入者都會(huì)實(shí)質(zhì)性地影響人工智能的運(yùn)行,人工智能在運(yùn)行過程中也會(huì)自我優(yōu)化和發(fā)展,由此導(dǎo)致責(zé)任主體認(rèn)定困難重重。此外,鑒于人工智能的獨(dú)特功能,其中最突出的是“算法黑箱”問題,產(chǎn)品責(zé)任有時(shí)候不足以處理人工智能造成的侵害?!?1 〕中國(guó)首例特斯拉自動(dòng)駕駛汽車致人死亡案件就表明,人工智能狀態(tài)和因果關(guān)系的司法鑒定成本是昂貴且困難的。〔12 〕

賦予人工智能以法律人格可以讓機(jī)器人獨(dú)立承擔(dān)責(zé)任,避免使用者和不同控制者的責(zé)任不清,也可以通過設(shè)立法人的過程提前分配相關(guān)者的責(zé)任份額。從受害者的角度而言,擬制法律人格的方法實(shí)際是建立了快速理賠通道,受害人可以高效地從引發(fā)風(fēng)險(xiǎn)的法律主體獲得賠償,而不需要經(jīng)過漫長(zhǎng)、昂貴和艱苦的過程來確定具體的責(zé)任人。歐洲議會(huì)法律委員會(huì)在2016年發(fā)布的《關(guān)于機(jī)器人相關(guān)民法規(guī)則的報(bào)告(草案)》,也基于上述原因提出了“電子人”的制度選擇。為了匹配前述獨(dú)立責(zé)任,人工智能主體設(shè)立人注入責(zé)任資本或者購(gòu)買責(zé)任保險(xiǎn)是必然的要求。盡管責(zé)任保險(xiǎn)和責(zé)任資本都存在資金不足以清償責(zé)任的問題,但相比由傳統(tǒng)法律主體負(fù)責(zé)的思路,這種分離資產(chǎn)而設(shè)立新法律主體的方法在某些時(shí)候提高了實(shí)際獲得理賠的可能性。與此同時(shí),責(zé)任資金不足的問題可以通過調(diào)高責(zé)任保險(xiǎn)、責(zé)任資本的方式彌補(bǔ),也可以仿照“法律人格否認(rèn)規(guī)則”避免獨(dú)立責(zé)任制度被不合理地濫用,以讓人工智能主體設(shè)立者在特定情形下承擔(dān)補(bǔ)充賠償責(zé)任?!?3 〕此外,由于以機(jī)器學(xué)習(xí)為代表的人工智能具有不確定的風(fēng)險(xiǎn),賦予商業(yè)運(yùn)營(yíng)的人工智能以法律人格可以將這種責(zé)任予以合理隔離,這將鼓勵(lì)資本對(duì)人工智能產(chǎn)業(yè)的投資,可能會(huì)對(duì)人工智能產(chǎn)業(yè)的發(fā)展帶來一系列好處。

在民法上選擇哪一個(gè)主體承擔(dān)賠償責(zé)任應(yīng)當(dāng)根據(jù)效率和有效性的功能作出判斷,直接讓機(jī)器人承擔(dān)責(zé)任并不是在任何情況下都是明智的選擇。一方面,可能難以起到法律引導(dǎo)的功能。機(jī)器人并不害怕被追責(zé),無法感知法律責(zé)任的教育意義。即使是直接對(duì)機(jī)器人施加懲罰,包括機(jī)器的斷開、癱瘓和毀壞,也只會(huì)給擁有機(jī)器或?qū)ζ鋼碛袡?quán)利的當(dāng)事人造成負(fù)擔(dān)?!?4 〕另一方面,限制人工智能制造商或設(shè)計(jì)者的責(zé)任并不構(gòu)成為其擬制法律人格的正當(dāng)目的?!?5 〕賦予法律人格相當(dāng)于為這一行業(yè)設(shè)立專門的人工智能有限責(zé)任制度,這種法律人格所產(chǎn)生的機(jī)器獨(dú)立責(zé)任(有限責(zé)任)可能會(huì)激發(fā)錯(cuò)誤的行為,鼓勵(lì)人工智能開發(fā)人員將責(zé)任轉(zhuǎn)移到他們開發(fā)的機(jī)器上,不確定的風(fēng)險(xiǎn)并不會(huì)因此而消失。即便不是有限責(zé)任的濫用,通過法定形式給人工智能這一特定行業(yè)設(shè)定有限責(zé)任制度也需要充分的論證。人工智能產(chǎn)業(yè)的應(yīng)用領(lǐng)域非常廣泛,這意味著不是所有人工智能領(lǐng)域都有通過立法進(jìn)行鼓勵(lì)的必要,因此社會(huì)不可能普遍地給予人工智能以責(zé)任限額/豁免?!?6 〕盡管各國(guó)都在搶占人工智能行業(yè)的制高點(diǎn),但是否應(yīng)該通過法律人格給予人工智能行業(yè)以有限責(zé)任保護(hù),這是一個(gè)需要深思熟慮的政策問題。2020年2月發(fā)布的《歐洲人工智能白皮書》提出:在未來的監(jiān)管框架中,每項(xiàng)義務(wù)都應(yīng)由最有能力應(yīng)對(duì)任何潛在風(fēng)險(xiǎn)的參與者承擔(dān)。雖然人工智能的開發(fā)人員可能最適合解決開發(fā)階段所產(chǎn)生的風(fēng)險(xiǎn),但是,他們?cè)谑褂秒A段控制風(fēng)險(xiǎn)的能力可能會(huì)受到更大的限制,在這種情況下,部署者應(yīng)承擔(dān)相關(guān)義務(wù)?!?7 〕此外,從實(shí)在法的角度而言,即使是完全自主的技術(shù)所造成的損害,一般也可歸因于自然人或現(xiàn)有各類法人的風(fēng)險(xiǎn)。如果情況并非如此,通過修法的方式直接針對(duì)現(xiàn)有法律主體分配責(zé)任也是一種選擇。〔18 〕據(jù)此,要求人類負(fù)責(zé)人對(duì)人工智能的錯(cuò)誤承擔(dān)責(zé)任,這將激勵(lì)他們創(chuàng)建一個(gè)更安全可控的環(huán)境,并構(gòu)成智能社會(huì)中日益迫切需要的治理目標(biāo)。

總而言之,授予人工智能以法律人格絕不能以不合理轉(zhuǎn)嫁責(zé)任為目標(biāo)。至少在人工智能發(fā)展風(fēng)險(xiǎn)還不明朗的當(dāng)今,做好人工智能產(chǎn)業(yè)開發(fā)端的風(fēng)險(xiǎn)把控依然是最穩(wěn)妥和務(wù)實(shí)的政策選擇。然而,基于明確侵權(quán)責(zé)任承擔(dān)主體的理由,當(dāng)擬制法律人格有助于應(yīng)對(duì)人工智能帶來的責(zé)任復(fù)雜性問題時(shí),這種分解、簡(jiǎn)化責(zé)任關(guān)系的策略是一種可選的制度安排。此外,隨著共有產(chǎn)權(quán)和共同控制成為一種潛在的趨勢(shì),對(duì)人工智能的懲罰存在拔下電源、重新編程等多種多樣的觀點(diǎn)爭(zhēng)論,目前仍然沒有找到普遍接受的方法懲罰人工智能, 〔19 〕賦予人工智能以法律人格可能成為復(fù)雜控制關(guān)系下人工智能的一種責(zé)任認(rèn)定依據(jù)。

(二)以塑造行為能力、權(quán)利能力為目標(biāo)

隨著人工智能充當(dāng)?shù)纳鐣?huì)角色越來越多,賦予其特定的行為能力、權(quán)利能力成為選擇法律人格制度的重要考慮因素。一種誤解會(huì)認(rèn)為人工智能所擁有的行為能力、權(quán)利能力與人類相同,故此聯(lián)想到主體認(rèn)同是否會(huì)引發(fā)人工智能倫理威脅。事實(shí)上,機(jī)器人的權(quán)利有別于人類的“自然權(quán)利”,它具有法律擬制性、利他性以及功能性等權(quán)利屬性。〔20 〕在現(xiàn)有的法律主體之中,不同年齡階段的人所擁有的行為能力范圍可能是不同的,金融公司和煤礦公司所具有的行為能力范圍也存在明顯差異,公司和人也是擁有不同權(quán)利能力的法律主體。因此,法律主體資格是依法取得的,各類法律主體所擁有的行為能力、權(quán)利能力范圍也是依法限定的,賦予人工智能法律人格不意味著其可以享有基本人權(quán)中的各項(xiàng)權(quán)利。也即,可以根據(jù)智能社會(huì)治理的需求確定或者限定其行為能力、權(quán)利能力的范圍?!?1 〕例如,有觀點(diǎn)認(rèn)為,人工智能應(yīng)當(dāng)具備訂立合同、報(bào)告殘酷的行為能力,結(jié)合人工智能的特點(diǎn)賦予獲取數(shù)據(jù)和能源、升級(jí)和維護(hù)的權(quán)利能力。〔22 〕從人工智能目前的發(fā)展階段而言,其可能的行為能力和權(quán)利能力需求主要是締約能力和獲利能力。

對(duì)于締約能力的需求,愛丁堡大學(xué)計(jì)算法學(xué)教授伯克哈德·舍弗曾經(jīng)列舉了一個(gè)生動(dòng)的例子:“假設(shè)你是一名殘疾人,并且依靠家用機(jī)器人來幫助您的日常生活。該機(jī)器人要做的一件事就是監(jiān)控飲食并確保您得到足夠的正確食物,當(dāng)它有一天發(fā)現(xiàn)您的蔬菜不足,并且要再訂購(gòu)一些。我們這時(shí)就需要確保機(jī)器人和商店之間可以訂立有效的合同。我們顯然不希望食品雜貨店說‘我與機(jī)器進(jìn)行了談判,因此合同無效。此時(shí)的機(jī)器人如果具有法律主體資格,那么在技術(shù)上就容易操作了。” 〔23 〕在傳統(tǒng)的電子交易結(jié)構(gòu)中,委托交易是人利用電子媒介工具從事的活動(dòng),但是人工智能是從需求提出到完成決策都可以由機(jī)器人執(zhí)行,人類用戶往往沒有意識(shí)到自己的作用,這里面就容易出現(xiàn)利用人工智能從事的行為與當(dāng)事人真實(shí)意思不一致等各種爭(zhēng)議問題。出現(xiàn)這一差異的根本原因在于,傳統(tǒng)的意思表示和因果關(guān)系理論在人工智能從事的交易中進(jìn)行解釋的鏈條過長(zhǎng),而這種很長(zhǎng)的鏈條比較容易出現(xiàn)鏈條斷裂的解釋沖突,一些不可預(yù)見的交易風(fēng)險(xiǎn)也會(huì)因此而產(chǎn)生,而直接授予人工智能以法律人格可以通過強(qiáng)有力的中繼站來保障足夠的權(quán)利能力,以此維護(hù)交易安全。不過,解決冗長(zhǎng)交易鏈條的爭(zhēng)議問題也非必須創(chuàng)建新的法律主體,通過相關(guān)交易法律規(guī)則的解釋也可以達(dá)到定分止?fàn)幍哪康?。例如,通過法律解釋的方法認(rèn)定所謂的人工智能的意思表示全部歸于用戶,利用人工智能從事交易的法律后果由用戶承擔(dān),也可以解決前述問題。然而,如果這種傳統(tǒng)擬制的意思表示主體無法統(tǒng)一地歸屬到現(xiàn)有法律主體,或者有必要讓這種意思表示獨(dú)立于傳統(tǒng)的法律主體,就需要將人工智能擬制為一個(gè)中間法律主體,從而維護(hù)合同關(guān)系的穩(wěn)定。

對(duì)于獲利的能力需求,主要是指人工智能自主的作品可否享有著作權(quán)。人類有很長(zhǎng)的歷史質(zhì)疑機(jī)器輔助創(chuàng)作是否可以通過版權(quán)保護(hù)。〔24 〕例如,早期的照片無法受到保護(hù),因?yàn)閮H通過暗箱的鏡頭捕獲光并不是真正的作者, 〔25 〕然而這種觀點(diǎn)在現(xiàn)在已經(jīng)被更改。目前,人工智能產(chǎn)生的新聞報(bào)告、詩(shī)歌創(chuàng)作、音樂創(chuàng)作和其他各類成果的創(chuàng)作已經(jīng)成為普遍應(yīng)用的現(xiàn)象。在機(jī)器學(xué)習(xí)算法應(yīng)用之前的歷史中,各類計(jì)算機(jī)軟件僅僅是人類用戶的創(chuàng)作工具,運(yùn)用各種軟件創(chuàng)作的用戶才是所產(chǎn)生的任何受版權(quán)保護(hù)的作品的作者。機(jī)器僅按照計(jì)算機(jī)程序的方式生成內(nèi)容,程序開發(fā)者被認(rèn)為是此(可預(yù)測(cè)的)輸出作品的作者。然而,機(jī)器學(xué)習(xí)的人工智能創(chuàng)作在初步計(jì)算模型構(gòu)建后可以自行完善算法甚至修改其原有代碼,這會(huì)產(chǎn)生人類程序員無法預(yù)見的結(jié)果輸出,特別其收集數(shù)據(jù)并不斷學(xué)習(xí)的能力與人類大不相同,此時(shí)產(chǎn)生的文學(xué)藝術(shù)作品都具有隨機(jī)性,與人類自身創(chuàng)造性之間的因果關(guān)系變得非常微弱。目前主流觀點(diǎn)依據(jù)現(xiàn)行著作權(quán)法進(jìn)行解釋,認(rèn)為能夠享有著作權(quán)的“作者”必須是人類?!?6 〕著作權(quán)意在促進(jìn)人類的創(chuàng)造力而創(chuàng)設(shè)了激勵(lì)措施,使機(jī)器在文學(xué)和藝術(shù)領(lǐng)域擁有作品的著作權(quán)就可能威脅人類進(jìn)步。故而認(rèn)為,沒有人類創(chuàng)造力參與的機(jī)器作品不能享有著作權(quán),機(jī)器自主創(chuàng)作達(dá)到一定自動(dòng)化閾值就只能歸入公眾可以自由使用的公有領(lǐng)域。〔27 〕批評(píng)者則認(rèn)為,上述觀點(diǎn)是基于20世紀(jì)中葉思想所作的過時(shí)分析,作品本身的創(chuàng)造性才是其是否值得著作權(quán)保護(hù)的因素,人工智能創(chuàng)作機(jī)器同樣需要鼓勵(lì)投資人的進(jìn)入,因此需要實(shí)事求是地承認(rèn)人工智能的創(chuàng)作者地位,同時(shí)允許自然人(或法人)獲得利益并控制利益,從而消除人工智能知識(shí)產(chǎn)權(quán)不確定性的風(fēng)險(xiǎn)。〔28 〕筆者認(rèn)為,新一代信息技術(shù)的發(fā)展方向是共享經(jīng)濟(jì),擴(kuò)大公共資源的范圍確實(shí)符合時(shí)代趨勢(shì)。然而,在現(xiàn)實(shí)社會(huì)中,無主物并不利于社會(huì)效益提升,往往會(huì)陷于公地悲劇或者互相保密的不信任局面。盡管主流觀點(diǎn)認(rèn)為,人工智能生成物不應(yīng)受著作權(quán)法保護(hù),但這里的人工智能生成物主要是限制將著作權(quán)授予人工智能產(chǎn)品制作者,使用者在數(shù)據(jù)收集、處理等人工智能系統(tǒng)利用過程中具有創(chuàng)造性而獲得的作品依然應(yīng)當(dāng)獲得權(quán)利。如果未來出現(xiàn)完全自動(dòng)化且具備創(chuàng)造性的作品生產(chǎn)者,指定其權(quán)利歸屬是法律不可回避的問題。

(三)以構(gòu)建社會(huì)治理新范式為目標(biāo)

法律規(guī)則是對(duì)社會(huì)實(shí)踐的抽象總結(jié),其本身應(yīng)當(dāng)具有擴(kuò)展適用能力才能穩(wěn)定法治社會(huì)的預(yù)期,故而,法律人一般傾向秉持保守主義的做法而維持現(xiàn)行法律主體范圍不變。積極支持變革者則認(rèn)為,法律面對(duì)人工智能這類高度發(fā)達(dá)的技術(shù)如果僅做微小的調(diào)整,只會(huì)徒增更大的法律復(fù)雜性?!?9 〕其基本邏輯是,如果人工智能對(duì)法律的方方面面都產(chǎn)生了深刻影響,在現(xiàn)行法律制度中依托現(xiàn)有法律主體構(gòu)建各種法律關(guān)系可能導(dǎo)致規(guī)則過于復(fù)雜或者執(zhí)行成本過高,這會(huì)導(dǎo)致勉強(qiáng)的法律解釋脫離社會(huì)的真實(shí)情況,最終會(huì)成為不明智和不可持續(xù)的守舊派。為此,授予人工智能法律人格的一個(gè)根本目標(biāo)就是構(gòu)建新的治理結(jié)構(gòu),從而適應(yīng)智能社會(huì)的法律范式變革需求。

人工智能在一定程度上不同于傳統(tǒng)人類與工具之間的關(guān)系,不僅存在依附于人類的人機(jī)協(xié)作關(guān)系,而且出現(xiàn)了一系列人工智能取代人的崗位,這種工具獨(dú)立性的增強(qiáng)使得賦予人工智能法律人格成為一種可選項(xiàng)。有觀點(diǎn)認(rèn)為,人工智能具有自主性、主動(dòng)性,已非純受支配之客體,在法律上應(yīng)設(shè)定為“電子人”?!?0 〕他們認(rèn)為,只有引入一個(gè)“電子人”才能確保相關(guān)法律關(guān)系的合法有效,特別是在人工智能越來越多地獨(dú)立參與各種經(jīng)濟(jì)交易活動(dòng),缺乏法律人格將導(dǎo)致其參與的各種交易會(huì)出現(xiàn)不被認(rèn)可的安全隱患?!?1 〕還有刑法學(xué)者指出:智能機(jī)器人可能超越程序的設(shè)計(jì)和編制的范圍,按照自主的意識(shí)和意志實(shí)施犯罪行為,因而完全可能成為行為主體而承擔(dān)刑事責(zé)任?!?2 〕這些觀點(diǎn)的本質(zhì)是認(rèn)為人工智能具備了獨(dú)立意識(shí),但是“獨(dú)立意思的表示”并不適宜作為機(jī)器人獲得主體資格的特征標(biāo)識(shí),因?yàn)樵蟹煽蚣苤械莫?dú)立之意是行為主體自我決定,而人工智能到底是獨(dú)立于程序設(shè)計(jì)者還是機(jī)器的使用者,會(huì)得出不確定的結(jié)論?!?3 〕事實(shí)上,美國(guó)紐約州法院在2014年的判決中就指出:盡管黑猩猩具有比較復(fù)雜的認(rèn)知能力,但是其不能被視為法律上的“人”,不能獨(dú)立地享有權(quán)利?!?4 〕由此可知,動(dòng)物即便具有自主意識(shí)也不等于其可以獲得法律上“人”的地位,而在人類社會(huì)中患有精神疾病的人、植物人、嬰兒獲得法律人格也不受其自主意識(shí)能力的影響,故而是否賦予人工智能法律人格與其自主意識(shí)的程度不構(gòu)成必然聯(lián)系,與我們的智能社會(huì)的治理結(jié)構(gòu)選擇具有重要關(guān)系。

人工智能的出現(xiàn)除了增強(qiáng)人類的本能,同時(shí)還創(chuàng)造了人類能力之外的機(jī)器智能,這種新的智能構(gòu)成社會(huì)新的功能模塊而被認(rèn)為可以獲得法律主體資格。在此背景之下,智能社會(huì)中的人類如何考慮在法律和道德基礎(chǔ)上對(duì)待非生物實(shí)體也成為新型社會(huì)關(guān)系中需要解決的問題,否則無法維護(hù)傳統(tǒng)的社會(huì)契約基礎(chǔ),人類也無法恰當(dāng)?shù)芈男邢嚓P(guān)的道德義務(wù)?!?5 〕我們正在建立一個(gè)新的智能社會(huì),凝聚其中的價(jià)值觀將定義我們的走向?!?6 〕授予人工智能以法律人格可能會(huì)防止將機(jī)器人視為單純的奴隸而造成道德上的畸變, 〔37 〕2018年12月發(fā)布的《蒙特利爾人工智能負(fù)責(zé)任發(fā)展宣言》(Montreal Declaration for a Responsible Development of Artificial Intelligence)提出避免殘酷對(duì)待人工智能系統(tǒng)和人工智能正常運(yùn)行情況下的免責(zé)原則,就屬于人工智能法律人格所體現(xiàn)的一種價(jià)值取向。從智能社會(huì)法律范式變革的底層思維而言,賦予人工智能以法律人格確實(shí)有利于構(gòu)建新的治理模式和相應(yīng)治理規(guī)則,甚至可以促進(jìn)“代碼即法律”的相關(guān)理論成為現(xiàn)實(shí)。但是,批評(píng)者則認(rèn)為,人工智能是基于算法,其屬于一種可以復(fù)制的計(jì)算機(jī)代碼,此特征意味著所有人工智能都缺乏真正的自主權(quán)和判斷力。它們可以由其用戶,制造它們的人甚至是惡意的第三方(即黑客)所控制,從而使得賦予人工智能以法律人格將引發(fā)不可控的風(fēng)險(xiǎn)?!?8 〕公司法人的人格歷史充分說明了這些問題并不會(huì)構(gòu)成賦予法律人格的障礙,但是,該質(zhì)疑確實(shí)反映出人工智能主體資格的解釋和規(guī)則安排是一系列復(fù)雜的工程,這種構(gòu)建智能社會(huì)法治范式的法律人格安排需要更加充足的理論準(zhǔn)備方能得到認(rèn)可。

三、人工智能法律人格框架下的多層治理模式

(一)作為財(cái)產(chǎn)的人工智能

由于技術(shù)創(chuàng)新不應(yīng)總是引起法律的變化,在法律變化之前,我們必須認(rèn)真對(duì)待現(xiàn)有規(guī)則,并且努力使新情況適應(yīng)現(xiàn)有秩序。〔39 〕在首例人工智能生成的作品著作權(quán)案件中,法院的判決就明確指出:若在現(xiàn)行法律體系內(nèi)可以對(duì)其智力、經(jīng)濟(jì)投入予以保護(hù),則不宜突破民事主體的基本規(guī)范?!?0 〕在法律不承認(rèn)人工智能法律主體資格的情況下,人工智能最容易在傳統(tǒng)法律中找到的定位是“財(cái)產(chǎn)”,但其不同于完全受制于人操控的“工具”。〔41 〕對(duì)于這種新類型的財(cái)產(chǎn),可以按照民法典侵權(quán)責(zé)任編的相關(guān)規(guī)則確定侵權(quán)后果,按照數(shù)字電文締約的法律規(guī)則確定意思表示主體,通過控制、所有和使用該財(cái)產(chǎn)的人來判斷相關(guān)法律行為來源和法律效果歸屬。

在合同法律關(guān)系方面,利用人工智能從事締約行為的由實(shí)際使用者承擔(dān)相關(guān)的法律后果。根據(jù)我國(guó)民法典第137條的規(guī)定,相對(duì)人指定特定系統(tǒng)接收數(shù)據(jù)電文的,該數(shù)據(jù)電文進(jìn)入該特定系統(tǒng)時(shí)生效;未指定特定系統(tǒng)的,相對(duì)人知道或者應(yīng)當(dāng)知道該數(shù)據(jù)電文進(jìn)入其系統(tǒng)時(shí)生效。在自動(dòng)化狀態(tài)下,不得僅僅因?yàn)闊o自然人審查或干預(yù)這些系統(tǒng)進(jìn)行的每一動(dòng)作或由此產(chǎn)生的合同而被否定效力或可執(zhí)行性,因?yàn)樵撓到y(tǒng)各類行為的啟動(dòng)都必然是來自傳統(tǒng)法律主體的指定。根據(jù)我國(guó)國(guó)家標(biāo)準(zhǔn)的規(guī)范,人工智能是指利用數(shù)字計(jì)算機(jī)或者數(shù)字計(jì)算機(jī)控制的機(jī)器模擬、延伸和擴(kuò)展人的智能,感知環(huán)境、獲取知識(shí)并使用知識(shí)獲得最佳結(jié)果的理論、技術(shù)、系統(tǒng)、產(chǎn)品以及服務(wù)。〔42 〕人工智能在侵權(quán)責(zé)任承擔(dān)過程中,在現(xiàn)行法上可以分別認(rèn)定為“網(wǎng)絡(luò)服務(wù)”“場(chǎng)所服務(wù)”“產(chǎn)品”“物件”等不同的形式,分別適用網(wǎng)絡(luò)服務(wù)提供者、網(wǎng)絡(luò)用戶、商業(yè)或公共場(chǎng)所經(jīng)營(yíng)者、產(chǎn)品質(zhì)量侵權(quán)、物件損害等責(zé)任規(guī)則。為了明確人工智能的責(zé)任規(guī)則,應(yīng)當(dāng)通過修法或者法律解釋的方式明確人工智能侵權(quán)的控制者責(zé)任和不同的歸責(zé)原則, 〔43 〕人工智能可解釋性技術(shù)和責(zé)任鑒定技術(shù)由此成為劃分責(zé)任的重要支撐。

(二)類推適用代理規(guī)則

如果創(chuàng)造新的法律主體是一項(xiàng)艱難的選項(xiàng),對(duì)法律的文義解釋也不足以解決社會(huì)中出現(xiàn)的新興問題,那么類推適用可以算作一個(gè)廣泛采用且簡(jiǎn)單易用的方法,其借助比喻的手段尋找出路。從技術(shù)的發(fā)展階段而言,“人工代理”比“人工智能”更能準(zhǔn)確地反映這項(xiàng)技術(shù)的本質(zhì), 〔44 〕機(jī)器人也僅僅是通過代理的方式實(shí)現(xiàn)了人的能力的延伸?!?5 〕在代理關(guān)系中,人工智能可以被視為所有權(quán)人、操作員、開發(fā)者、算法訓(xùn)練人員、程序員、用戶的代理人,委托人可以對(duì)人工智能進(jìn)行監(jiān)控。這一關(guān)系是從開啟電源(創(chuàng)建代理)到關(guān)閉電源(終止代理)的代理,它可以在沒有人類指示的情況下作為仆人向其主人提供持續(xù)的服務(wù),也可以從其具有控制權(quán)的人類負(fù)責(zé)人那里接收指示和任務(wù)。這種類推適用的基礎(chǔ)有兩個(gè):其一,人工智能與代理人一樣需要積極主動(dòng)地與第三人進(jìn)行互動(dòng),并且基于自己的能力作出判斷和相關(guān)行為,自動(dòng)化程度越高的人工智能則越是與代理人具有相似性;其二,代理提供了一個(gè)靈活可控的法律關(guān)系解釋模型,在承認(rèn)作為代理人的人工智能具有自主性的基礎(chǔ)上,明確了委托人要對(duì)代理人的各類行為負(fù)責(zé)的根本原則。〔46 〕顯然,代理規(guī)則與嚴(yán)格責(zé)任的發(fā)展趨勢(shì)不謀而合,在歐盟于2019年4月發(fā)布的《可信賴人工智能的倫理指南》,就提出構(gòu)建人工智能要維持對(duì)人類的代理,這也是將人工智能類推適用代理規(guī)則所具有的特殊價(jià)值。

在傳統(tǒng)的民商事代理關(guān)系中,無論委托人還是代理人,均是具有行為能力和權(quán)利能力的法律主體?!睹绹?guó)代理法重述(第三版)》甚至在其術(shù)語(yǔ)條款中明確規(guī)定:不能將計(jì)算機(jī)程序視為代理程序。在這種類推適用的代理關(guān)系中,他們反對(duì)將履行代理職責(zé)的人工智能視為人,而是僅僅將它們視為代理工具。同時(shí),對(duì)于代理工具可能超越委托人意圖所造成的侵權(quán)后果,他們則主張擴(kuò)大解釋委托人的委托意思,并限定代理工具不具備超越權(quán)限的能力?!?7 〕與此同時(shí),代理需要通過訂立代理合同才能創(chuàng)建,代理規(guī)則中的代理人是存在代理權(quán)限和個(gè)人利益的,當(dāng)其超越代理權(quán)限或者為代理人自身的利益從事相關(guān)的行為,委托人可以依法免除相關(guān)行為的法律責(zé)任。當(dāng)人工智能類推適用代理規(guī)則時(shí),就必須設(shè)定其代理合同的內(nèi)容,否認(rèn)人工智能的自身利益,同時(shí)認(rèn)定其不存在代理權(quán)限疑問,以此實(shí)現(xiàn)人工智能自由決策和委托人視為責(zé)任人的目標(biāo)。為了在不創(chuàng)建新法律主體的情況下適用代理規(guī)則,就必須對(duì)這些問題逐一作出新的解釋,這一項(xiàng)工作的立法難度可能并不低于賦予人工智能法律人格。

總而言之,類推適用代理規(guī)則實(shí)質(zhì)上給予了人工智能一種虛擬的法律主體資格,但這是一種各方都不認(rèn)可的法律主體,其本質(zhì)是充當(dāng)委托人的“電子奴隸”。這種法律關(guān)系的設(shè)計(jì)確實(shí)能夠兼顧人工智能的自主化需求和人類的風(fēng)險(xiǎn)防控目標(biāo),但是該機(jī)制設(shè)計(jì)無法通過簡(jiǎn)單的類推適用規(guī)則來解決,還必須根據(jù)人工智能的特點(diǎn)作出專項(xiàng)的法律解釋或者與之有關(guān)的新立法。

(三)借用公司或財(cái)產(chǎn)法人的外殼

無論對(duì)法律主體資格采取“擬制說”還是“實(shí)在說”,現(xiàn)代法律體系中的法律主體成立條件都是根據(jù)法律規(guī)則進(jìn)行設(shè)定。為了最大程度地融入現(xiàn)有法律制度,肖恩·拜仁在2014年提出了著名的公司制人工智能主體模式。根據(jù)肖恩·拜仁的觀點(diǎn),無論現(xiàn)行法律是否承認(rèn)人工智能的法律人格,如果相關(guān)的個(gè)人和組織需要一個(gè)具有法律主體資格的人工智能,他們都可以借助現(xiàn)行的公司法制度來實(shí)現(xiàn)。其基本方法包括四個(gè)步驟:(1)有需求的人類或者企業(yè)按照有限責(zé)任公司的登記程序成立一家公司,最好是只有一個(gè)成員的“一人公司”;(2)該公司的創(chuàng)始人按照公司決議程序通過一項(xiàng)經(jīng)營(yíng)協(xié)議,約定該公司將完全采取人工智能的自動(dòng)化系統(tǒng)進(jìn)行決策,并確定公司其他成員和行為如何受該人工智能決策系統(tǒng)約束的條款;(3)公司創(chuàng)始人將與該人工智能系統(tǒng)相關(guān)的任何財(cái)產(chǎn)都轉(zhuǎn)讓給該公司所有;(4)創(chuàng)始人退出公司的股東身份,從而創(chuàng)設(shè)了一家沒有任何人類股東、完全由人工智能系統(tǒng)操控的公司法人?!?8 〕這一方案以實(shí)際目的為出發(fā)點(diǎn),在法律尚不直接承認(rèn)人工智能法律主體資格的情況下,構(gòu)建“零成員公司”讓人工智能按照現(xiàn)行公司法人的方式運(yùn)行,從而可以間接地實(shí)現(xiàn)人工智能取得法律人格所需要達(dá)成的各項(xiàng)目標(biāo)。

對(duì)于借用公司的外殼創(chuàng)建人工智能的法律主體資格,得到了一些學(xué)者的支持?!?9 〕但也有學(xué)者提出反對(duì)意見:在現(xiàn)行法律制度中不存在“零成員公司”,盡管“有限責(zé)任公司”可以為各種商業(yè)模式提供一些靈活性的選擇,但是,立法意圖必須是人類將保留對(duì)有限責(zé)任公司運(yùn)營(yíng)的最終控制權(quán)?!?0 〕肖恩·拜仁在回應(yīng)文章中進(jìn)一步指出,公司制人工智能主體模式是在傳統(tǒng)法律主體制度不足以應(yīng)對(duì)的情況下所作的擴(kuò)張解釋,故而對(duì)于現(xiàn)行公司法律制度的解讀不能停留在字面意思層面。在現(xiàn)行法律已經(jīng)承認(rèn)特殊例外的情況下(例如清算階段)“零成員公司”可以繼續(xù)存續(xù),據(jù)此就應(yīng)當(dāng)承認(rèn)“零成員公司”本身是可以存續(xù)的,現(xiàn)行法律也沒有限制這種特殊例外情況下的存續(xù)時(shí)間。在美國(guó)法律體系下,只要任何一個(gè)州能夠按照其解釋理論創(chuàng)建“自治實(shí)體”,那么根據(jù)法律主體互認(rèn)規(guī)則也會(huì)在其他地方得到承認(rèn)。與此同時(shí),這種情況下的人類創(chuàng)始人仍然與有限責(zé)任公司保持聯(lián)系,只是為了實(shí)現(xiàn)人工智能的自治而自行脫離,這種結(jié)構(gòu)安排可能存在被創(chuàng)始人破壞的脆弱特性,為此可以通過協(xié)議約定的完善來維持結(jié)構(gòu)的穩(wěn)定性。這種具有法律人格的人工智能在技術(shù)上也無需達(dá)到超級(jí)人工智能的水平,他們除了可以雇用人類員工以外,還可以通過目前的云計(jì)算經(jīng)紀(jì)人或算法托管代理等方式保持其持續(xù)有效地運(yùn)行?!?1 〕由此可見,公司制人工智能主體模式充分利用了合同架構(gòu)的手段,通過技術(shù)措施、公司制度、合同法理論自治的方式實(shí)現(xiàn)了人工智能法律人格的部署,進(jìn)而可以適用公司法人的各項(xiàng)行為能力、權(quán)利能力、管理義務(wù)和法律責(zé)任構(gòu)建一個(gè)具有法律支撐的“自治實(shí)體”。

依托資產(chǎn)進(jìn)行商業(yè)組織的設(shè)計(jì)與結(jié)構(gòu)化商事交易中的“客體主體化”趨勢(shì)密切相關(guān)。隨著財(cái)產(chǎn)形態(tài)的變化和主體制度的創(chuàng)新,商事實(shí)踐中不斷涌現(xiàn)新的商事組織形態(tài),如風(fēng)險(xiǎn)投資基金、對(duì)沖基金、私募基金和不動(dòng)產(chǎn)投資信托等資產(chǎn)實(shí)體化。因出于保護(hù)交易安全的需要,將相關(guān)權(quán)利人對(duì)于財(cái)產(chǎn)的請(qǐng)求權(quán)進(jìn)行隔離,被隔離出的資產(chǎn)實(shí)際發(fā)揮企業(yè)之作用。〔52 〕事實(shí)上,肖恩·拜仁所倡導(dǎo)的法人制度模式核心在于“零成員公司”,這種特征的組織也可以采取有限責(zé)任公司以外的其他主體類型,如財(cái)團(tuán)法人。財(cái)團(tuán)法人是指法律上對(duì)于為特定目的的財(cái)產(chǎn)集合賦予民事權(quán)利能力而形成的法人,我國(guó)的財(cái)團(tuán)法人典型代表就是基金會(huì)。從基金會(huì)管理?xiàng)l例的規(guī)定看,基金會(huì)以公益為目的,沒有會(huì)員,基金會(huì)的組織結(jié)構(gòu)、財(cái)產(chǎn)管理方法等都由章程加以規(guī)定,而章程則由舉辦者擬定。〔53 〕由此可見,可以依托一定財(cái)產(chǎn)來設(shè)立基金會(huì)法人,而需要取得法人資格的人工智能實(shí)體本身就是一項(xiàng)重要財(cái)產(chǎn),以此財(cái)產(chǎn)來設(shè)立法人在財(cái)團(tuán)法人之中便可以順理成章。

(四)設(shè)立新的法律主體資格

法律主體是法律制度之根,所有的權(quán)力、權(quán)利、義務(wù)、責(zé)任都是歸根于這些法律主體。從民事主體范圍的歷史發(fā)展來看,民事主體的體系是不斷發(fā)展的,具有包容性。人工智能是否可以獲得法律主體資格,本質(zhì)上也是由社會(huì)發(fā)展所決定的?!?4 〕從法律主體的擴(kuò)展歷史來看,人類取得法律主體資格與天賦人權(quán)密切相關(guān),奴隸、婦女成為法律所承認(rèn)的人都經(jīng)歷了漫長(zhǎng)的權(quán)利斗爭(zhēng)歷史。公司取得法律主體資格則是為了節(jié)約交易成本而做的人為安排, 〔55 〕特定財(cái)產(chǎn)取得法律主體資格則是為了促進(jìn)財(cái)產(chǎn)有效利用(特別是鼓勵(lì)公益)而做的安排。近年來,森林、山脈、河流在有些國(guó)家取得法律主體資格,如美國(guó)俄亥俄州的托萊多在2019年2月投票通過了“伊利湖權(quán)利法案”將該湖泊視為法律上擁有獨(dú)立權(quán)利的人,這些做法是為了環(huán)境保護(hù)或者人文發(fā)展而做的專門立法?!?6 〕現(xiàn)代社會(huì)文化人類學(xué)甚至研究表明,寵物在未來非常容易獲得法律和社會(huì)地位,這是由于寵物通常像家庭成員一樣得到認(rèn)可并受到這種對(duì)待?!?7 〕法律主體的范圍并非一成不變,在具備正當(dāng)理由的情況經(jīng)過立法程序可以認(rèn)可新的法律主體種類。

受法律主體資格擴(kuò)張趨勢(shì)的啟發(fā),可以借鑒適用于公司和其他非人類實(shí)體的法人資格的經(jīng)驗(yàn),通過新的立法授予人工智能以法律人格。為了防止法人資格被濫用的道德風(fēng)險(xiǎn),將人工智能納入法律主體范疇的同時(shí),也可以設(shè)立法律人格否認(rèn)規(guī)則讓濫用責(zé)任限制規(guī)則的人承擔(dān)風(fēng)險(xiǎn),建立新興的人工智能社會(huì)責(zé)任制度來確保其發(fā)展方向符合人類公認(rèn)的價(jià)值,并建立人工智能登記制度和保險(xiǎn)制度來認(rèn)定和補(bǔ)充其作為主體的能力。我們對(duì)人工智能的控制越少,就需要更廣泛的測(cè)試和更嚴(yán)格的治理,如借鑒公司信息公示制度,建立“人工智能陽(yáng)光法”來滿足相對(duì)人的知情權(quán)和公共監(jiān)督的需求?!?8 〕本質(zhì)上,賦予人工智能以法律人格是一種制度便利的選擇,是從私法角度解決人工智能監(jiān)管的一條路徑,能夠通過市場(chǎng)自治的方式促進(jìn)人工智能的安全發(fā)展。有反對(duì)者認(rèn)為,創(chuàng)設(shè)人工智能法律人格將導(dǎo)致責(zé)任制度被濫用,不利于保障人工智能產(chǎn)業(yè)的安全發(fā)展?!?9 〕公司法人創(chuàng)設(shè)的歷史則表明,公司的出現(xiàn)也引發(fā)過類似的擔(dān)憂,吉爾伯特和沙利文在1898年甚至寫了一部名為《烏托邦有限公司》的歌劇來嘲諷當(dāng)時(shí)公司法設(shè)置的有限責(zé)任制度。然而,公司在法律創(chuàng)設(shè)之后經(jīng)過長(zhǎng)期的發(fā)展已經(jīng)成為我們社會(huì)的一個(gè)中心。盡管公司是看不見的實(shí)體,但是法律賦予公司法律人格后,通過制度上的實(shí)體掩蓋實(shí)質(zhì)上是讓人類從各種可能的責(zé)任中脫離,員工的各種行為都是由公司出現(xiàn)在法庭?!?0 〕也即,擬制的法律主體可以成為代替人沖鋒在第一線的實(shí)體,人類借助這種新的法律主體可以得到一定的自由解放。

結(jié)〓〓語(yǔ)

〓〓在各種鼓勵(lì)或限制人工智能發(fā)展的政策、法律、倫理指南、技術(shù)標(biāo)準(zhǔn)、白皮書在全球范圍內(nèi)密集發(fā)布背景之下,人工智能已經(jīng)并持續(xù)深入地成為我們?nèi)粘I畹囊徊糠?,而人工智能是否可以成為法律上的主體是構(gòu)建相關(guān)規(guī)則的基礎(chǔ)命題。通過相關(guān)法律需求和應(yīng)對(duì)方法的分析,可以斷定人工智能的發(fā)展確實(shí)帶來了一系列新的法律問題,但不能簡(jiǎn)單地從概念上直接排除人工智能應(yīng)具有法律人格的可能性,同時(shí)也不能認(rèn)為授予法律人格是唯一或者更佳的解決辦法。人工智能技術(shù)如果構(gòu)成對(duì)實(shí)在法的挑戰(zhàn),那么實(shí)在法就是無法回應(yīng)的。如果實(shí)在法可以回應(yīng)人工智能技術(shù)的社會(huì)問題,那么這種技術(shù)變革就沒有形成挑戰(zhàn)。法律制度可以選擇解釋或者修訂現(xiàn)行法的方式滿足所謂的人工智能法律人格需求,也可以采用法律人格制度來回應(yīng)社會(huì)治理挑戰(zhàn)中的問題。人工智能法律人格是智能社會(huì)發(fā)展中新型治理模式的選項(xiàng),以功能主義的態(tài)度來進(jìn)行解釋論或立法論的探討是看待人工智能法律人格問題的正確視角。

在討論人工智能可否取得法律人格時(shí),需要正確區(qū)分“人”和“法律人格”。授予人工智能法律人格的理由有兩大類:基于意識(shí)自主的道德需求和基于法律關(guān)系安排的實(shí)踐需求。但是,法律人需要討論的僅僅是后者。法律人格是指私法上的權(quán)利和義務(wù)的歸屬之主體,即從權(quán)利義務(wù)之歸屬點(diǎn)來認(rèn)識(shí)法律人格。生物意義上的人可以不是法律意義上的人,但生物意義上的人要成為法律意義上的人必須具備人格。〔61 〕法律人格從自然法向?qū)嵍ǚǖ霓D(zhuǎn)換,使得人們更多地從法律關(guān)系的視角來解釋其內(nèi)涵, 〔62 〕這與生物學(xué)或者哲學(xué)上具有自主意識(shí)的“人”存在本質(zhì)差異。人們往往將人工智能可否獲得主體資格與人類未來的發(fā)展命運(yùn)相聯(lián)系,認(rèn)為人工智能不具有人的社會(huì)性,不能產(chǎn)生人類主體性所依賴的社會(huì)關(guān)系和實(shí)踐基礎(chǔ)?!?3 〕人工智能不具備人之心性和靈性,與具有“人類智慧”的自然人和自然人集合體是不能簡(jiǎn)單等同的,故而不足以取得獨(dú)立的主體地位?!?4 〕這些觀點(diǎn)顯然是混淆了哲學(xué)上的“人”與法律上的“法律人格”,錯(cuò)誤地認(rèn)為,我們必須維護(hù)人類的法律主體地位,才能把握人類對(duì)整個(gè)社會(huì)發(fā)展的控制權(quán)。事實(shí)上,“法律人格”僅僅是法律對(duì)社會(huì)秩序進(jìn)行安排時(shí)根據(jù)需求而總結(jié)出來的通用概念,這是法律上的擬制而非哲學(xué)上的陳述。盡管各類法律主體所擁有的法律人格都是完整的,沒有部分法律人格或者全部法律人格之說, 〔65 〕但不同法律主體所擁有的權(quán)利能力是有千差萬別的,即便人工智能取得法律主體資格也不可能取得與人類同等的權(quán)利?!?6 〕人工智能可能在技術(shù)的不同階段取得不同范圍的法律主體資格, 〔67 〕如何安排和取舍人工智能的各項(xiàng)權(quán)利義務(wù)也是是否授予人工智能法律主體資格所要考察的核心問題。

如果選擇承認(rèn)人工智能的法律主體資格,將等同于構(gòu)建智能社會(huì)的全新法律范式,這需要科學(xué)地設(shè)置認(rèn)定范圍和相關(guān)的法律制度。法律人格延伸到人類之外的自然界和社會(huì),反映了文化、科學(xué)和法律之間廣泛和靈活的協(xié)作過程, 〔68 〕可以幫助我們重構(gòu)一個(gè)價(jià)值多元、治理復(fù)雜的未來社會(huì)。但是,非典型法律人格的取得必須得到社會(huì)的廣泛認(rèn)可, 〔69 〕其中還必須考慮到已經(jīng)存在的主體的權(quán)利,分析這種法律創(chuàng)新將如何符合先前的法律秩序,從而確保非典型法律人格服務(wù)于人類文明發(fā)展的共同需求。對(duì)于人工智能取得法律主體資格的條件,有人提出了6項(xiàng)準(zhǔn)入標(biāo)準(zhǔn),包括社會(huì)認(rèn)可、自主智能、平等共識(shí)、適應(yīng)變化、普遍信賴和公開登記?!?0 〕還有人提出4項(xiàng)綜合條件,包括技術(shù)上可以劃定人工智能系統(tǒng)的邊界,經(jīng)濟(jì)上能夠顯著增加社會(huì)福利,法律上存在先于規(guī)則不足以應(yīng)對(duì)而需要根本改變的需求,精神上存在道德責(zé)任和推理能力?!?1 〕這些條件都是值得參考的判定標(biāo)準(zhǔn),與此同時(shí),如果機(jī)器沒有承擔(dān)責(zé)任的能力(獨(dú)立的財(cái)產(chǎn)等),那么不論是侵權(quán)或是違約帶來的賠償責(zé)任等,其實(shí)都需要鏈接到其他主體上來完成最終的責(zé)任分配, 〔72 〕所以能夠取得法律主體資格的人工智能必需有一定的財(cái)產(chǎn)基礎(chǔ),其可以是該人工智能本身達(dá)到法定的財(cái)產(chǎn)價(jià)值,或者是通過注冊(cè)資金等方式取得身外的財(cái)產(chǎn)。關(guān)于公開登記的要求也應(yīng)該是毫無疑問的,類似于汽車達(dá)到一定時(shí)速需要注冊(cè),無人機(jī)達(dá)到一定起重載荷需要注冊(cè) 〔73 〕一樣,人工智能如果從事無監(jiān)督的自主行為且嚴(yán)重影響他人權(quán)益的也應(yīng)當(dāng)取得注冊(cè)登記方可使用。

總而言之,盡管堅(jiān)決反對(duì)或者堅(jiān)決支持賦予人工智能以法律人格的觀點(diǎn)都存在,但是大多數(shù)討論人工智能法律人格的觀點(diǎn)都存在一種折中的趨勢(shì),他們認(rèn)為是否賦予人工智能法律人格是存在條件的,而且賦予人工智能何種程度的法律人格也需要深入分析。這種折中的趨勢(shì)更加有助于我們理解人工智能法律人格問題的核心。根據(jù)筆者分析可知,現(xiàn)行法律上對(duì)人工智能的法律人格需求并非那么迫切,但是智能社會(huì)的發(fā)展很可能會(huì)促進(jìn)這一現(xiàn)狀的變化。這意味著我們對(duì)人工智能法律地位的認(rèn)識(shí)將層次遞進(jìn):第一階段是將人工智能視為財(cái)產(chǎn),盡管其可以代替人從事一些行為,其法律后果都直接歸系于人;第二個(gè)階段的人工智能可以自主享有一些權(quán)利,也需要直接履行一些義務(wù),是在當(dāng)前法律主體制度不變情況下所作的具體規(guī)則修訂;第三個(gè)階段的人工智能可能會(huì)被承認(rèn)為一類新的法律主體,此時(shí)需要專門的人工智能組織法。數(shù)千年的法律發(fā)展歷史表現(xiàn)法律是可以因技術(shù)發(fā)展而產(chǎn)生變革的,科學(xué)將朝著所有生物都是算法、生命就是數(shù)據(jù)處理、智能與意識(shí)分離的方向發(fā)展,超智能算法將比我們更了解自己,這可能導(dǎo)致超級(jí)智能算法將決定社會(huì)和人類的發(fā)展方式?!?4 〕但是,即便未來的立法讓人工智能經(jīng)取得了法律主體資格,該主體背后依然是人:人可以成為其代理人,人可以成為其監(jiān)護(hù)人,法律人格被否認(rèn)時(shí)需要該創(chuàng)建人兜底,所以人類整體的安全和文明進(jìn)步依然是我們法律變革中永遠(yuǎn)不變的目標(biāo)。

猜你喜歡
侵權(quán)責(zé)任人工智能
我校新增“人工智能”本科專業(yè)
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
云計(jì)算LaaS模式中著作權(quán)侵權(quán)責(zé)任探析
第三人干擾婚姻關(guān)系之法律認(rèn)定
消費(fèi)欺詐的構(gòu)成要件及侵權(quán)責(zé)任問題研究
法制博覽(2016年12期)2016-12-28 13:29:59
論人工智能產(chǎn)品侵權(quán)行為責(zé)任認(rèn)定
商(2016年33期)2016-11-24 23:34:02
網(wǎng)約出租車交通事故責(zé)任認(rèn)定
法制博覽(2016年11期)2016-11-14 09:46:13
論侵權(quán)責(zé)任的違法性要件
商(2016年27期)2016-10-17 06:45:36
郎溪县| 孟州市| 东方市| 资源县| 宁河县| 留坝县| 栾川县| 二连浩特市| 锡林浩特市| 巴青县| 洛浦县| 连云港市| 巴里| 明溪县| 和林格尔县| 潼关县| 喀喇沁旗| 全南县| 许昌县| 沁阳市| 闸北区| 莆田市| 秦皇岛市| 陇川县| 望城县| 旅游| 洪泽县| 县级市| 南漳县| 赤城县| 合江县| 法库县| 布拖县| 神池县| 泰州市| 获嘉县| 三亚市| 永顺县| 田林县| 金平| 东辽县|