摘要:當(dāng)前人工智能已經(jīng)成為國際競爭的新焦點(diǎn),其發(fā)展速度和發(fā)展水平大有攻城掠地之勢,但其法律主體地位并無有效規(guī)制,導(dǎo)致一系列復(fù)雜的法律困境隨機(jī)產(chǎn)生。從法律主體理論的演進(jìn)邏輯出發(fā),人工智能的法律主體化既有必要,也有可能。其主體化實(shí)現(xiàn)的路徑可以是:首先承認(rèn)其獨(dú)立的“擬制人格”;同時(shí)構(gòu)建相關(guān)“人格否認(rèn)”制度;最重要的是要建立人工智能的社會保險(xiǎn)制度。
關(guān)鍵詞:人工智能;法律主體地位;擬制人格;保險(xiǎn)制度
中圖分類號:D913 ???文獻(xiàn)標(biāo)識碼:A文章編號:CN61-1487-(2019)24-0017-03
“智聯(lián)世界,無限可能”,2019年世界人工智能大會如約召開。這是最好的時(shí)代,也是最壞的時(shí)代。無論人們歡欣抑或是躊躇,我們都將迎來人工智能(Arti?ial Intelligence,以下簡稱AI)時(shí)代。無人駕駛汽車、機(jī)器人作家、機(jī)器人律師、納米科技醫(yī)療機(jī)器人、區(qū)塊鏈……都會成為這個(gè)時(shí)代的注腳。智能時(shí)代,未來已來。時(shí)下,AI被廣泛應(yīng)用于社會生活的各個(gè)領(lǐng)域,其發(fā)展速度和發(fā)展水平大有攻城掠地之勢。艾倫·圖靈等計(jì)算機(jī)專家們曾經(jīng)預(yù)言,AI的產(chǎn)生和發(fā)展遲早會對人類生存構(gòu)成巨大威脅,應(yīng)當(dāng)在問題態(tài)勢覆水難收之前,為人工智能的發(fā)展制定適當(dāng)?shù)姆芍贫龋笇?dǎo)實(shí)踐的發(fā)展。[1]首先應(yīng)當(dāng)明確的即是AI的法律主體地位。AI的法律主體地位與侵權(quán)責(zé)任的承擔(dān)、知識產(chǎn)權(quán)的應(yīng)用與保護(hù)、交通領(lǐng)域的規(guī)制等一系列基本理論的發(fā)展決策密切相關(guān),不容回避。適度承認(rèn)AI的法律主體地位,構(gòu)建特殊規(guī)制標(biāo)準(zhǔn),切實(shí)調(diào)整好其與各方法律主體的關(guān)系,有效應(yīng)對出現(xiàn)的復(fù)雜問題,是勢在必行的。
一、困境催發(fā)生機(jī):AI法律主體化之必要
智能革命以摧枯拉朽之勢席卷而來,其裹挾的全新的理念、技術(shù)以及前所未有的存在體不斷深入人類生活,同時(shí)也帶來了無法回避的法律危機(jī)和挑戰(zhàn)。它不僅與現(xiàn)行法律秩序相沖突,而且暴露了現(xiàn)行法律制度產(chǎn)品的供給缺陷,催生著現(xiàn)代社會的法律變革。AI掀起了多領(lǐng)域的疾風(fēng)驟雨,接踵而至的眾多法律規(guī)制困境讓人們措手不及。所幸,困境往往催發(fā)生機(jī),直面AI帶來的挑戰(zhàn),多領(lǐng)域?qū)徱暺浞芍黧w化十分必要。
(一)AI致人損害的侵權(quán)法問題
AI技術(shù)是一把“雙刃劍”,一面是高效與便捷,另一面卻是事故與傷害。1978年在日本廣島,機(jī)器人把現(xiàn)場工作人員放入機(jī)器中進(jìn)行切割;2007年美國醫(yī)療外科手術(shù)機(jī)器人引起病人燒傷、切傷和感染,其中包括89個(gè)死亡病例;無人駕駛汽車發(fā)生嚴(yán)重交通事故。上述損害的原因,是AI創(chuàng)造者的技術(shù)疏漏,或是其管理人員的不當(dāng)使用?還是AI超越原控制方案的“自身行為”呢?我國尚無關(guān)于AI等設(shè)備致人損害的明確法律規(guī)定,更缺乏對其法律人格的認(rèn)定,AI目前只能成為法律上的物品。從產(chǎn)品責(zé)任的角度來看,根據(jù)現(xiàn)行的《產(chǎn)品質(zhì)量法》,產(chǎn)品缺陷致人損害,那么生產(chǎn)者或銷售者應(yīng)當(dāng)承擔(dān)責(zé)任。事實(shí)上,機(jī)器人通過自我學(xué)習(xí)之后能夠根據(jù)客觀情況自主判斷做出行為,制造商和銷售商難以預(yù)見機(jī)器人可能造成的損害,這是機(jī)器人區(qū)別于自動化“機(jī)器”的重要之處。顯然,在這種情況下仍然將造成的損害歸咎于“產(chǎn)品缺陷”或者產(chǎn)品質(zhì)量事故并不合適,“工具論”下仍由生產(chǎn)企業(yè)承擔(dān)全部賠償責(zé)任的結(jié)論也再難成立。因此,隨著機(jī)器學(xué)習(xí)及其智能水平的進(jìn)一步提升,在機(jī)器人法律屬性的研究領(lǐng)域,“工具論”也將最終被徹底淘汰。
(二)AI生成作品的著作權(quán)問題
在人工智能時(shí)代,大量的“作品”是由AI生成的。一些國內(nèi)的新聞媒體也開始使用機(jī)器人寫作系統(tǒng),撰寫各種新聞報(bào)道。當(dāng)AI的創(chuàng)作成果滿足了獨(dú)創(chuàng)性要求的情況下,若不對這些成果給予著作權(quán)法上的保護(hù),那么大量具有獨(dú)創(chuàng)性內(nèi)容的成果將會免費(fèi)進(jìn)入公眾領(lǐng)域,這將損害人類創(chuàng)作者的版權(quán)利益,嚴(yán)重挫傷版權(quán)人的創(chuàng)作熱情。那么,AI尚不具有明確的法律主體地位,它是否可以成為法律意義上的“作者”,對其創(chuàng)作成果是否享有著作權(quán),有些國家和地區(qū)正試圖作出積極的回應(yīng):日本正準(zhǔn)備對AI所產(chǎn)生的作品提供立法保護(hù);歐盟法律事務(wù)委員會提出動議,擬授予機(jī)器人著作權(quán)。
(三)無人駕駛系統(tǒng)的交通法問題
無人駕駛是AI在交通領(lǐng)域的重要應(yīng)用。隨著諸如無人駕駛汽車等智能機(jī)器人的自主性和適應(yīng)性的增強(qiáng),我們很難將其僅僅視為人類手中的簡單工具,應(yīng)運(yùn)而生的法律問題逐漸呈現(xiàn)在我們眼前。無人駕駛的出現(xiàn),意味著交通領(lǐng)域的準(zhǔn)入資格由駕駛?cè)藛T技術(shù)水平轉(zhuǎn)變?yōu)闊o人駕駛汽車的智能化水平。由于AI法律主體地位問題尚無具體規(guī)制,不能獨(dú)立成為受管制的主體,因而,交通法規(guī)的管理對象或需向智能駕駛系統(tǒng)的研發(fā)者、制造者延伸,嚴(yán)格監(jiān)控?zé)o人駕駛汽車的交通通行資格??梢姡珹I已經(jīng)向人類現(xiàn)有的法律體系下了戰(zhàn)書。
(四)AI對其他部門法的挑戰(zhàn)
AI也將對其他法律產(chǎn)生深遠(yuǎn)影響。在《電子商務(wù)法》中,基于大數(shù)據(jù)完成交易各方相關(guān)權(quán)利義務(wù)的評價(jià),交易大數(shù)據(jù)將最終呈現(xiàn)出交易各方是否存在“過錯(cuò)”;在《產(chǎn)品質(zhì)量法》中,基于智能算法完成產(chǎn)品質(zhì)量的評判,針對產(chǎn)品質(zhì)量是否合格,企業(yè)也將提交其存儲在支端的數(shù)據(jù)作為證據(jù)支持;在《侵權(quán)責(zé)任法》中,還將利用機(jī)器學(xué)習(xí)最終完成損害賠償數(shù)額的計(jì)算;在《民事訴訟法》中,基于人工智能的研究,法律也將重構(gòu)訴訟中“受理”“送到”“告知”等相關(guān)制度;AI時(shí)代,傳統(tǒng)金融法將面臨來自“中心化”智能算法與“去中心化”區(qū)塊鏈技術(shù)的雙重挑戰(zhàn)。[2]16總之,人工智能已全面來襲,無論是否愿意都有必要正視人工智能對于法律的巨大挑戰(zhàn)。
二、理論支撐實(shí)踐:AI法律主體化之可能
(一)法律主體理論的歷史演進(jìn)邏輯
AI的崛起對現(xiàn)有法律理論大廈造成了巨大沖擊,法律主體理論首當(dāng)其沖。對法律主體問題的考量,經(jīng)歷了從人到主體的漫長歷史維度。[3]現(xiàn)代法律主體,或稱作“法律人格”,是一種行使權(quán)利、履行義務(wù)和承擔(dān)責(zé)任的法律資格。從理論上講,凡是能夠參與一定法律關(guān)系的任何個(gè)人和機(jī)關(guān),都可以是法律關(guān)系的主體?!盵4]150主體資格基于人的抽象呈現(xiàn)出概括性、抽象性和普適性的特征,這使得法律主體資格的開放性成為可能。[5]法律主體理論的演進(jìn)邏輯,是逐漸地演變?yōu)橐浴叭恕钡某橄鬄橹行牡睦碚擉w系,并向類人的存在物拓展,這為AI具備法律主體地位奠定了理論基礎(chǔ)。從法律主體的發(fā)展趨勢可以預(yù)見,AI的法律屬性最終將會從法律客體向主體邁進(jìn)。
(二)AI成為法律主體的現(xiàn)實(shí)可能
法律主體的構(gòu)成要素,即權(quán)利能力和行為能力。然而,法人獲得法律人格、成為法律關(guān)系的主體,其認(rèn)定標(biāo)準(zhǔn)與自然人不同。例如,法人的權(quán)利能力是因其行為能力產(chǎn)生的,因此,法人通常避免用“行為能力”一詞,有時(shí)被替換為主觀性,其中包括權(quán)利能力和行為能力的概念。試問,法人可以被法律擬制,AI為何不可?AI擁有學(xué)習(xí)、自主決策等的技能,具有典型的行為能力特征,能夠行使特定的權(quán)利,履行義務(wù)并明確其行為的后果。[6]另外,智能機(jī)器人不等于智能的機(jī)器?!爱?dāng)機(jī)器說出它們的感受和感知經(jīng)驗(yàn),而我們相信它們所說的是真的時(shí),它們就真正成了有意識的人。”[7]203隨著算法的提升,機(jī)器人將最終被證明擁有意識,對于法律上的“人”的認(rèn)識也將徹底改變。
自從沙特阿拉伯授予索菲婭(一位智能機(jī)器人)以公民身份之后,關(guān)于AI是否具有法律主體資格的討論也更加激烈。歐盟在《機(jī)器人民事法律草案》中提及,當(dāng)機(jī)器人可以作出自主決策或者與第三人自主交流時(shí),即要申請“電子人格”。其目的是要設(shè)立電子人(electronic persons)一樣的法律地位,讓機(jī)器人為其制造的損害負(fù)責(zé)。這樣在適用AI造成他人損害的案例中,機(jī)器人將獨(dú)立承擔(dān)責(zé)任。如此看來,AI的法律主體資格并不是沒有可能實(shí)現(xiàn)。
三、交鋒帶來多元:AI法律主體化路徑探索
AI具備獨(dú)立思考的能力,這是與其他科技最大區(qū)別之處。其享有權(quán)利并承擔(dān)責(zé)任的特點(diǎn)決定了AI具有被賦予法律人格之可能。但是,AI的這種“法律人格”屬性與自然人和法人是有很大差異的。盡管AI可以做出各種獨(dú)立自主的行為,但不容否認(rèn)其承擔(dān)行為后果的能力有限。因而,在明確AI法律主體地位之特殊性的前提下,方可對法律規(guī)制作出合理安排。
(一)承認(rèn)AI的獨(dú)立“擬制人格”
當(dāng)AI通過機(jī)器學(xué)習(xí)后可以自主完成交流或自主完成決策時(shí),可以賦予其法律意義上的獨(dú)立人格。當(dāng)然,這里的獨(dú)立人格是法律“擬制”的,例如法律將公司擬制為法律上的人,賦予其權(quán)利,科以法律義務(wù)和責(zé)任。更甚者,如新西蘭賦予河流以法律主體的地位。針對可以作出自主決策的AI,同樣可以將其擬制為具有法律意義的獨(dú)立人格。
這里所謂的“自主決策”概念,仍然是在“弱人工智能”的語境下使用的。如果是在“強(qiáng)人工智能”時(shí)代,AI可以與人進(jìn)行思想和心靈的溝通,那么人的法學(xué)概念將被重新定義。AI的主體學(xué)說也將被重新建構(gòu)。在那樣的時(shí)代,“擬制人格”的概念也將被智慧人格所取代,即基于AI的智慧而被法律賦予人格,這是現(xiàn)實(shí)的人格而非擬制。因此,這里所討論的AI“擬制人格”,是在弱人工智能時(shí)代下應(yīng)用的學(xué)說。那么,這里的“自主決策”,并非要求其具有像人一樣或者超越人類的智慧,事實(shí)上,僅僅只是要求其通過機(jī)器學(xué)習(xí)完成后所做出的決策系人所無法通過簡單邏輯能直提預(yù)測到的,即可稱為“自主決策”。[2]58承認(rèn)AI獨(dú)立的“擬制人格”,確定其作為法律主體所享有的權(quán)利,進(jìn)而解釋AI參與的法律行為或者法律事實(shí),將可以突破“工具說”、“代理說”、“電子奴隸說”、“電子人格說”等的局限,相關(guān)利益方的權(quán)利問題自然迎刃而解。
(二)構(gòu)建AI“人格否認(rèn)”制度
《公司法》上,為保護(hù)債權(quán)人利益,產(chǎn)生了法人人格否認(rèn)制度。“人格否認(rèn)”的目的在于矯正利益失衡,給債權(quán)人以利益保護(hù)。同樣,在承認(rèn)AI獨(dú)立人格時(shí),還要從制度設(shè)計(jì)上防止AI給人類社會帶來的危害。AI“人格否認(rèn)”制度,即在出資人或者發(fā)明人濫用AI獨(dú)立人格的情形下,同樣有必要否認(rèn)AI之獨(dú)立人格,由其出資人或者發(fā)明人來承擔(dān)連帶責(zé)任,具體包活如下情形:第一,AI在算法設(shè)計(jì)上存在明顯違法,如有欺詐、惡意誤導(dǎo)、隱瞞重要事實(shí)等算法陷阱,從而導(dǎo)致使用者利益受損的情況,相關(guān)利害關(guān)系人有權(quán)主張人格否認(rèn);第二,有證據(jù)證明投資者或發(fā)明人試圖通過AI人格獨(dú)立原則損害債權(quán)人或社會公共利益時(shí),相關(guān)利害關(guān)系人有權(quán)主張人格否認(rèn)。[2]63
(三)推行AI保險(xiǎn)制度
在人工智能的新型關(guān)系中,傳統(tǒng)的“過錯(cuò)責(zé)任原則”也將徹底迭代為“產(chǎn)品質(zhì)量責(zé)任原則”。AI是否達(dá)到法律規(guī)定的安全標(biāo)準(zhǔn)又將成為法庭上律師們激烈辯論的新話題。顯然,要證明一個(gè)AI是否合格,比起證明一個(gè)人是否有過錯(cuò)要復(fù)雜很多。AI的算法又被稱為像“黑洞”一樣的存在,?即便有技術(shù)專家的說明,但要把它梳理清楚,同樣是需要花費(fèi)巨大的司法資源和成本。當(dāng)證明AI產(chǎn)品質(zhì)量度為司法最大負(fù)擔(dān)時(shí),保險(xiǎn)制度會證明其比訴訟制度更能夠節(jié)省社會資本。所有可能涉及公民人身、財(cái)產(chǎn)安全的AI,都有必要強(qiáng)制其實(shí)施保險(xiǎn)制度。一旦AI造成公民人身或財(cái)產(chǎn)損害,保險(xiǎn)制度又應(yīng)當(dāng)挺身而出。事實(shí)上,與其將資源花費(fèi)在法庭訴訟中,還不如通過保險(xiǎn)制度直接解決問題。
適用AI獨(dú)立人格學(xué)說的一個(gè)顯著特征在于,在發(fā)生損害時(shí),由AI人格登記時(shí)需要繳納的財(cái)產(chǎn)或者繳納保險(xiǎn)的承保范圍來承擔(dān)責(zé)任,如果上述財(cái)產(chǎn)最終沒有辦法承擔(dān)全部損失,AI或?qū)⑦m用“破產(chǎn)”制度。如此設(shè)計(jì)的目的有利推動AI產(chǎn)業(yè)的發(fā)展,猶如公司“擬制人格”制度成為其迅速發(fā)展的重要基石。當(dāng)然,在這一過程中,受害者的利益同樣需要關(guān)注,尤其是AI導(dǎo)致人身傷害的案例中,如何保護(hù)受害者合法權(quán)益,是AI“擬制人格學(xué)說”中尤其需要解決的問題?!癆I不得傷害人類”理應(yīng)成為AI設(shè)計(jì)中的首要理念,因此在承認(rèn)AI擬制人格時(shí)應(yīng)當(dāng)注意,當(dāng)AI可能會傷及人類健康時(shí)、其需要繳納的注冊資本或者需繳納的風(fēng)險(xiǎn)金的數(shù)額應(yīng)以其足以保障受害者利益為基準(zhǔn)。[2]60
結(jié)語
毋庸置疑,社會正在從“互聯(lián)網(wǎng)+”向“人工智能+”轉(zhuǎn)型。法律規(guī)度或是滯后的,但關(guān)于法律問題思索應(yīng)當(dāng)是前瞻的。AI的崛起不容回避,AI法律主體地位不明晰,對法律困境的消解就會舉步維艱。一種全新的理念:“只有跳出法律后反觀法律,法學(xué)才能獲得更強(qiáng)的生命力”正在反哺法學(xué)發(fā)展。[8]310我們理應(yīng)在認(rèn)識和分析現(xiàn)行法律規(guī)制困境的基礎(chǔ)上,探索與科技文明相伴而生的制度文明。適當(dāng)承認(rèn)人工智能實(shí)體的法律主體地位,破解法律難題,任重道遠(yuǎn),但是勢在必行。
參考文獻(xiàn):
[1]袁曾.人工智能有限法律人格審視[J].東方法學(xué),2017(5).
[2]楊延超.機(jī)器人法:構(gòu)建人類未來新秩序[M].法律出版社,2019.
[3]胡長兵.法律主體考略——以近代以來法律人像為中心[J].東方法學(xué),2015(5).
[4]舒國瀅.法理學(xué)導(dǎo)論[M].北京大學(xué)出版社,2012.
[5]王勇.人工智能時(shí)代的法律主體理論構(gòu)造——以智能機(jī)器人為切入點(diǎn)[J].理論導(dǎo)刊,2018(2).
[6]詹可.人工智能法律人格問題研究[J].信息安全研究,2018(3).
[7](美)雷·庫茲韋爾.人工智能的未來:揭示人類思維的奧秘[M].浙江人民出版社,2016.
[8]白建軍.法律實(shí)證研究方法[M].北京大學(xué)出版社,2008.
作者簡介:楊素花(1994—),女,漢族,單位為曲阜師范大學(xué),研究方向?yàn)樗痉ǚ?wù)。
(責(zé)任編輯:李直)