王利明
內(nèi)容摘要:我們已經(jīng)進(jìn)入了人工智能時(shí)代,人工智能技術(shù)的發(fā)展深刻地改變了我們的生產(chǎn)和生活方式,也對(duì)我國民事法律制度提出了新的挑戰(zhàn)。人格權(quán)制度、數(shù)據(jù)財(cái)產(chǎn)保護(hù)、知識(shí)產(chǎn)權(quán)保護(hù)、侵權(quán)責(zé)任認(rèn)定和承擔(dān)等,都需要隨著人工智能技術(shù)的發(fā)展而作出必要的調(diào)整。我國正在制定的民法典也需要與時(shí)俱進(jìn),積極回應(yīng)人工智能時(shí)代的各種挑戰(zhàn),妥當(dāng)設(shè)置相關(guān)規(guī)則、制度,在有效規(guī)范人工智能技術(shù)的同時(shí),也為新興技術(shù)的發(fā)育預(yù)留必要的制度空間。
關(guān)鍵詞:人工智能智能人隱私權(quán)個(gè)人信息民法典
1956年夏,在一場關(guān)于機(jī)器模擬智能的研討會(huì)上,首次提出了“人工智能”這一概念。人工智能作為一門新興學(xué)科,其與基因工程、納米科學(xué)共同被稱為21世紀(jì)的三大尖端技術(shù)。作為引領(lǐng)新一輪科技革命的技術(shù),人工智能系統(tǒng)在替代人類從事簡單性、重復(fù)性以及危險(xiǎn)性工作方面存在廣泛的應(yīng)用價(jià)值,目前在金融、安防、客服等行業(yè)領(lǐng)域已實(shí)現(xiàn)應(yīng)用,并且在精確度和效率上確實(shí)已遠(yuǎn)超人工?!? 〕半個(gè)世紀(jì)以來,伴隨著現(xiàn)代科技的發(fā)展,特別是移動(dòng)互聯(lián)網(wǎng)、大數(shù)據(jù)、腦科學(xué)等新理論、新技術(shù)的發(fā)展,人工智能近些年的發(fā)展極為迅速,已經(jīng)成為國際競爭的新焦點(diǎn)和經(jīng)濟(jì)發(fā)展的新引擎?!? 〕從某種程度上而言,人工智能以信息技術(shù)為核心,“信息主權(quán)”話題 〔3 〕的探討一定程度上也決定了人工智能未來在國際競爭中的地位。人工智能技術(shù)以信息技術(shù)為核心,直接造就了信息主權(quán)話題的探討?!? 〕
我們已經(jīng)進(jìn)入人工智能時(shí)代,機(jī)遇與危險(xiǎn)并存。美國電影《終結(jié)者》曾預(yù)測人工智能機(jī)器人超級(jí)戰(zhàn)士擊敗人類的結(jié)果;科學(xué)家霍金生前始終認(rèn)為,人工智能的發(fā)明可能是人類歷史上最大的災(zāi)難。如果管理不善,人工智能確實(shí)可能成為霍金所預(yù)言的“最糟糕的發(fā)明”,會(huì)思考的機(jī)器人可能會(huì)為人類文明畫上句號(hào),這樣的論斷絕非危言聳聽?!皢栴}就是時(shí)代的口號(hào)”,借助于大數(shù)據(jù)的人工智能,在改變我們生產(chǎn)與生活方式的同時(shí),也給我們帶來了諸多法律上的新問題、新挑戰(zhàn)。正如國務(wù)院《新一代人工智能發(fā)展規(guī)劃》所言:“人工智能是影響面廣的顛覆性技術(shù),可能帶來改變就業(yè)結(jié)構(gòu)、沖擊法律與社會(huì)倫理、侵犯個(gè)人隱私、挑戰(zhàn)國際關(guān)系準(zhǔn)則等問題,將對(duì)政府管理、經(jīng)濟(jì)安全和社會(huì)穩(wěn)定乃至全球治理產(chǎn)生深遠(yuǎn)影響?!边@些問題亟待我們予以回應(yīng)并加以解決。目前對(duì)于人工智能的研究有從倫理學(xué)層面、〔5 〕認(rèn)知哲學(xué)層面 〔6 〕展開的,筆者擬就人工智能對(duì)傳統(tǒng)民法學(xué)理論及司法實(shí)務(wù)造成的如下挑戰(zhàn)談下自己的看法,以期能對(duì)人工智能法律規(guī)范體系的形成有所裨益。
人工智能的發(fā)展催生了各種類型的機(jī)器人,這也帶來了一個(gè)非常重大的法律問題,即是否應(yīng)當(dāng)將機(jī)器人視為法律上的人?換言之,機(jī)器人究竟應(yīng)當(dāng)作為法律關(guān)系的主體還是客體出現(xiàn)?應(yīng)當(dāng)將其等同于普通的機(jī)器或者動(dòng)物對(duì)待,抑或?qū)⑵渥鳛椤叭恕眮砜创?/p>
人工智能研究的創(chuàng)始人之一明斯基指出,人工智能是“讓機(jī)器從事需要人的智能的工作的科學(xué)”。2016年,世界機(jī)器人大會(huì)在北京召開,一些機(jī)器人公司展示出了各種智能機(jī)器人,智能機(jī)器人能夠識(shí)別人的面孔、表情、年齡、性別,并且能夠表達(dá)與人類相似的情緒和面部表情。智能機(jī)器人的智力目前雖然還不能和人類相比,但也具備了獨(dú)立處理相關(guān)信息的能力和智力,有的機(jī)器人甚至已經(jīng)基本達(dá)到了人類智慧的水準(zhǔn)。2017年,沙特阿拉伯宣布授予機(jī)器人索菲亞以公民資格,由此也進(jìn)一步推動(dòng)了法學(xué)界對(duì)于人工智能主體地位的思考。
從智能機(jī)器人的發(fā)展現(xiàn)狀來看,人工智能機(jī)器人已經(jīng)逐步具有一定程度的自我意識(shí)和自我表達(dá)能力,可以與人類進(jìn)行一定的情感交流。有人估計(jì),未來若干年,機(jī)器人可以達(dá)到人類50%的智力。從實(shí)踐來看,機(jī)器人可以為我們接聽電話,從事語音客服、身份識(shí)別、翻譯、語音轉(zhuǎn)換、智能交通等工作,甚至可以進(jìn)行案件分析。有人統(tǒng)計(jì),現(xiàn)階段23%的律師業(yè)務(wù)已可由人工智能完成。機(jī)器人本身能夠形成自學(xué)能力,能夠?qū)扔械男畔⑦M(jìn)行分析和研究,從而提供司法警示和建議。甚至有人認(rèn)為,機(jī)器人未來可以直接當(dāng)法官,〔7 〕可見人工智能機(jī)器人已經(jīng)不完全是一種工具,而在一定程度上具有了自己的意識(shí),并能作出簡單的意思表示。有觀點(diǎn)甚至主張,應(yīng)當(dāng)承認(rèn)人工智能具有法律人格?!? 〕這就提出了一個(gè)新的法律問題,即我們將來是否有必要在法律上承認(rèn)人工智能機(jī)器人的法律主體地位?
筆者認(rèn)為,從目前人工智能的發(fā)展來看,其尚未對(duì)傳統(tǒng)民事法律主體理論提出顛覆性的挑戰(zhàn),我們?cè)诙虝r(shí)期內(nèi)仍然應(yīng)當(dāng)堅(jiān)守傳統(tǒng)民事主體理論,而不宜將智能機(jī)器人規(guī)定為民事主體,主要理由在于:一方面,智能機(jī)器人是人類創(chuàng)造出來的,其產(chǎn)生之初即作為民事法律關(guān)系的客體而出現(xiàn),其雖然可能代替人類從事相關(guān)的活動(dòng),但本質(zhì)上是受其自身的算法而決定的,尚不具備人類所具有的自主思考的意識(shí)和能力。另一方面,智能機(jī)器人尚不能獨(dú)立享有權(quán)利、承擔(dān)義務(wù)。在智能機(jī)器人造成他人損害時(shí),仍然應(yīng)當(dāng)依據(jù)《產(chǎn)品質(zhì)量法》《侵權(quán)責(zé)任法》確定相關(guān)法律責(zé)任的承擔(dān)者,即應(yīng)當(dāng)由其創(chuàng)造者或管理者承擔(dān)責(zé)任。也就是說,在一定時(shí)期內(nèi),既有的法律制度和規(guī)則體系仍可有效解決智能機(jī)器人所帶來的挑戰(zhàn),〔9 〕而不需要承認(rèn)機(jī)器人的民事地位。智能機(jī)器人進(jìn)入民事主體的范疇在未來或許是可行的,因?yàn)殡S著未來科技的發(fā)展,智能機(jī)器人可能也會(huì)不斷“進(jìn)化”,不排除將來智能機(jī)器人的思維能力會(huì)進(jìn)一步發(fā)展,具備與人類相當(dāng)甚至超越人類的意識(shí)和思考能力,并可以在一定范圍內(nèi)獨(dú)立地享有權(quán)利、承擔(dān)義務(wù),但在目前人工智能機(jī)器人還不能也沒有必要成為民事主體。
人工智能的發(fā)展還涉及人格權(quán)保護(hù)的一系列問題,至少包括如下幾個(gè)方面:
第一,人工智能對(duì)隱私的保護(hù)提出了新挑戰(zhàn)。例如,伴隨著人工智能技術(shù)的發(fā)展,無人機(jī)技術(shù)也蓬勃發(fā)展,無人機(jī)被形象地描述為“冰冷的觀測技術(shù)產(chǎn)品”,可以以各種方式“進(jìn)入”人們想要到達(dá)的區(qū)域。童話小說中描述的在蒼蠅身上綁上攝像機(jī)去他人房間窺探他人隱私的設(shè)想,目前已經(jīng)由無人機(jī)技術(shù)得以實(shí)現(xiàn),這就對(duì)隱私權(quán)的保護(hù)提出了新的挑戰(zhàn)。美國已經(jīng)發(fā)生了多起無人機(jī)侵犯他人隱私的糾紛。在無人機(jī)窺探他人隱私的情形下,受害人往往難以進(jìn)行舉證,甚至難以確定具體的行為人,〔10 〕這就需要法律進(jìn)一步強(qiáng)化隱私權(quán)的保護(hù),以更好地應(yīng)對(duì)人工智能技術(shù)的發(fā)展。
第二,人工智能對(duì)個(gè)人信息的保護(hù)提出了新挑戰(zhàn)。已經(jīng)身處大數(shù)據(jù)時(shí)代,大數(shù)據(jù)記載了我們過去發(fā)生的一切和現(xiàn)在發(fā)生的一切,并能準(zhǔn)確地預(yù)測我們的未來。現(xiàn)代社會(huì)的人就好像“裸奔”一樣,我們的一切都有可能被他人“監(jiān)視”,都時(shí)刻可能暴露在“第三只眼”之下,“亞馬遜監(jiān)視著我們的購物習(xí)慣,谷歌監(jiān)視著我們的網(wǎng)頁瀏覽習(xí)慣,而微博似乎什么都知道,不僅竊聽到了我們心中的‘TA,還有我們的社交關(guān)系網(wǎng)”。〔11 〕無論我們走到哪里,只要攜帶手機(jī),相關(guān)軟件借助于Cookie技術(shù),就可以時(shí)刻知道我們的準(zhǔn)確定位。借助于大數(shù)據(jù)分析技術(shù),人工智能也會(huì)對(duì)個(gè)人信息權(quán)利的保護(hù)帶來威脅,一些智能機(jī)器人大規(guī)模地收集個(gè)人信息,并將其植入程序之中,也會(huì)對(duì)隱私等個(gè)人信息構(gòu)成重大威脅。如何從技術(shù)層面、法律層面規(guī)范智能機(jī)器人搜集個(gè)人信息的合法性問題,將是人工智能時(shí)代的一項(xiàng)新挑戰(zhàn)。例如,在全國首例利用人工智能技術(shù)侵犯公民個(gè)人信息案中,行為人即利用人工智能技術(shù)識(shí)別驗(yàn)證碼,破解了相關(guān)的技術(shù)防范措施,并獲取受害人個(gè)人信息,人工智能技術(shù)對(duì)相關(guān)技術(shù)防范措施的破解速度快至毫秒級(jí),令人極為震驚。〔12 〕除收集個(gè)人信息外,人工智能技術(shù)還可能被用來研究和開發(fā)以大數(shù)據(jù)為基礎(chǔ)的各種產(chǎn)品,并憑借大數(shù)據(jù)無窮的潛力獲取利益,從而刺激人們進(jìn)一步采集、分析人們的大數(shù)據(jù)信息。隨著個(gè)人信息收集和分析方式越來越先進(jìn),成本也越來越低廉,大規(guī)模的數(shù)據(jù)收集已成為常態(tài),并會(huì)越來越普遍,這就進(jìn)一步加劇了對(duì)個(gè)人信息和隱私的威脅?!?3 〕我國《民法總則》對(duì)個(gè)人信息權(quán)利的保護(hù)作出了規(guī)定,但并沒有專門規(guī)范利用人工智能收集、利用個(gè)人信息的行為,未來立法有必要專門設(shè)置相關(guān)的法律規(guī)則,防止人工智能應(yīng)用過程中的數(shù)據(jù)非法收集、泄露、販賣等問題,以有效保護(hù)個(gè)人信息的安全?!?4 〕
第三,人工智能對(duì)肖像權(quán)的保護(hù)提出了新的挑戰(zhàn)。人工智能技術(shù)可能借助光學(xué)技術(shù)、聲音控制、人臉識(shí)別技術(shù)等新型技術(shù),收集他人肖像,并傳播、模仿他人的肖像。例如,借助于光學(xué)技術(shù)和攝像技術(shù),人工智能可以拍攝高分辨率的照片,使得夜拍圖片具有與日拍圖片同等的效果,這樣就使得對(duì)肖像權(quán)的獲取與利用更為簡便,這也對(duì)肖像權(quán)的保護(hù)提出了新的挑戰(zhàn)。近年來,利用大數(shù)據(jù)的人工智能人臉識(shí)別技術(shù)在各領(lǐng)域都開始了實(shí)質(zhì)性運(yùn)用,從刷臉支付、整治闖紅燈到抓捕逃犯,甚至公共領(lǐng)域的發(fā)廁紙管理之中,該技術(shù)都得到了實(shí)質(zhì)利用。〔15 〕
第四,人工智能對(duì)自然人聲音、表情、肢體動(dòng)作等人格利益的保護(hù)提出了新挑戰(zhàn)?,F(xiàn)在很多人工智能系統(tǒng)把一些人的聲音、表情、肢體動(dòng)作等植入其中,使得所開發(fā)的人工智能產(chǎn)品可以模仿他人的聲音、形體動(dòng)作等,甚至能夠像人一樣表達(dá),并與人進(jìn)行交流。但如果未經(jīng)他人同意而擅自進(jìn)行上述模仿活動(dòng),就有可能構(gòu)成對(duì)他人人格權(quán)的侵害。
此外,需要指出的是,如果將來承認(rèn)了人工智能機(jī)器人的主體資格,還會(huì)產(chǎn)生人工智能機(jī)器人人格權(quán)的保護(hù)問題。目前,刑法學(xué)理論已經(jīng)開始探討毀壞他人機(jī)器人是構(gòu)成故意殺人罪還是故意毀壞財(cái)物罪。近來媒體報(bào)道,機(jī)器人伴侶已經(jīng)出現(xiàn),如果機(jī)器人伴侶受到虐待,其能否主張人格權(quán)受到侵害等,也需要進(jìn)一步探討。
產(chǎn)權(quán)清晰是市場經(jīng)濟(jì)的基本要求之一,然而大數(shù)據(jù)和人工智能使得這一傳統(tǒng)命題迎來新的挑戰(zhàn)?!皵?shù)據(jù)+算法”被視為人工智能技術(shù)開發(fā)的核心,數(shù)據(jù)的收集和分析技術(shù)的發(fā)展成為人工智能進(jìn)行機(jī)器學(xué)習(xí)和開發(fā)的基本方法。目前,大數(shù)據(jù)已經(jīng)是人工智能的一種重要分析工具,其得力于傳感器與微處理器的硬件支撐。〔16 〕借助于大數(shù)據(jù)分析技術(shù),人工智能可以進(jìn)行相關(guān)的演練和操作。從人工智能的技術(shù)原理來看,其也有賴于大數(shù)據(jù)分析系統(tǒng)的支持,人工智能功能的強(qiáng)弱在很大程度也取決于其所包含數(shù)據(jù)庫的多少,人工智能需要依賴大量來自不同主體的數(shù)據(jù),數(shù)據(jù)的抓取和利用在人工智能行業(yè)無處不在。數(shù)據(jù)在人工智能技術(shù)開發(fā)中的應(yīng)用價(jià)值越來越高,但數(shù)據(jù)的開發(fā)和利用都需要明晰數(shù)據(jù)的產(chǎn)權(quán)主體和內(nèi)容,規(guī)范數(shù)據(jù)的移轉(zhuǎn)和利用。因此,人工智能的發(fā)展需要解決財(cái)產(chǎn)法面臨的新問題。
人工智能利用的數(shù)據(jù)主要有三類,分別是個(gè)人所有的數(shù)據(jù)、私人企業(yè)和組織所有的數(shù)據(jù)和公共機(jī)構(gòu)管理的數(shù)據(jù)。有觀點(diǎn)認(rèn)為:數(shù)據(jù)財(cái)產(chǎn)權(quán)的基本原則是誰的數(shù)據(jù)歸誰所有,沒有任何主體指向的數(shù)據(jù)是公共資源?!?7 〕但是人工智能不僅會(huì)儲(chǔ)存收集的原始數(shù)據(jù),而且可以對(duì)收集的各種數(shù)據(jù)進(jìn)行加工,產(chǎn)生衍生數(shù)據(jù)。與此同時(shí),數(shù)據(jù)的占有和轉(zhuǎn)移占有是無形的,同時(shí)也是沒有有效的權(quán)屬證明。所以,在大數(shù)據(jù)時(shí)代,法律所遇到的一個(gè)嚴(yán)峻挑戰(zhàn)即應(yīng)當(dāng)如何確認(rèn)數(shù)據(jù)的權(quán)利歸屬,既要保護(hù)被搜集人的個(gè)人信息權(quán),又要保護(hù)數(shù)據(jù)開發(fā)者、合法利用者的數(shù)據(jù)財(cái)產(chǎn)權(quán),迄今為止,如何對(duì)數(shù)據(jù)進(jìn)行確權(quán)并且構(gòu)建起權(quán)利內(nèi)容和權(quán)利轉(zhuǎn)移制度尚未解決,需要法律予以盡快完善。
現(xiàn)行《物權(quán)法》把物權(quán)分為動(dòng)產(chǎn)和不動(dòng)產(chǎn),而數(shù)據(jù)難以按照此種方法進(jìn)行分類,故而學(xué)界一直爭議數(shù)據(jù)屬于物權(quán)還是債權(quán)。我國《民法總則》第127條對(duì)數(shù)據(jù)的保護(hù)規(guī)則作出了規(guī)定,一方面,數(shù)據(jù)在性質(zhì)上屬于新型財(cái)產(chǎn)權(quán),但數(shù)據(jù)保護(hù)問題并不限于財(cái)產(chǎn)權(quán)的歸屬和分配問題,還涉及這一類財(cái)產(chǎn)權(quán)的轉(zhuǎn)移、利用、保管等法律問題。在利用人工智能時(shí)如何規(guī)范數(shù)據(jù)的收集、儲(chǔ)存、利用行為,避免數(shù)據(jù)的泄露和濫用,并確保國家數(shù)據(jù)的安全,也是亟需解決的重大現(xiàn)實(shí)問題?!?8 〕另一方面,人工智能的應(yīng)用方式和應(yīng)用范圍在很大程度上取決于其算法,如何有效規(guī)范這一算法,避免侵害他人權(quán)利,也需要法律制度予以應(yīng)對(duì)。例如,人工智能通過分析在網(wǎng)絡(luò)交易中取消訂單的頻繁程度,可以得出關(guān)于一個(gè)人社會(huì)信用狀況和交易能力的評(píng)價(jià)結(jié)果,此種評(píng)價(jià)結(jié)果可能對(duì)個(gè)人的經(jīng)濟(jì)生活產(chǎn)生重大影響。目前,人工智能算法本身的公開性、透明性和公正性的問題,是人工智能技術(shù)發(fā)展的核心問題,但目前并未受到充分關(guān)注。
人工智能的發(fā)展也涉及知識(shí)產(chǎn)權(quán)保護(hù)的問題。一方面,機(jī)器人已經(jīng)能夠自己創(chuàng)作音樂、繪畫,機(jī)器人寫作的詩歌集也已經(jīng)出版,這也對(duì)現(xiàn)行知識(shí)產(chǎn)權(quán)法提出了新的挑戰(zhàn)。例如,百度已經(jīng)研發(fā)出可以創(chuàng)作詩歌的機(jī)器人,微軟公司的人工智能產(chǎn)品“小冰”已于2017年5月出版人工智能詩集《陽光失了玻璃窗》,在日本,機(jī)器人創(chuàng)作的小說甚至還通過了日本文學(xué)獎(jiǎng)的初審,有的機(jī)器人甚至?xí)V曲、作畫,這些作品已經(jīng)可以在市面上銷售,這就提出了一個(gè)問題,即這些機(jī)器人創(chuàng)作作品的著作權(quán)究竟歸屬于誰,是歸屬于機(jī)器人軟件的發(fā)明者,還是機(jī)器的所有權(quán)人,還是賦予機(jī)器人一定程度的法律主體地位從而由其自身享有相關(guān)權(quán)利?正如前文已經(jīng)論述,現(xiàn)階段的人工智能技術(shù)的發(fā)展尚不足以被承認(rèn)為民事主體,故而現(xiàn)階段也不適合承認(rèn)機(jī)器人完成的作品可以歸一個(gè)實(shí)踐工具所有,只能承認(rèn)由機(jī)器人的所有者享有知識(shí)產(chǎn)權(quán)。當(dāng)然,在未來人工智能在創(chuàng)作領(lǐng)域可能技術(shù)更加成熟,已經(jīng)達(dá)到了類似人類或者超越人類的能力,那么可否在創(chuàng)作領(lǐng)域承認(rèn)人工智能的民事主體地位和權(quán)利能力,這也是可以進(jìn)一步討論的。
另一方面,智能機(jī)器人要通過一定的程序進(jìn)行“深度學(xué)習(xí)”“深度思維”,在這個(gè)過程中有可能收集、儲(chǔ)存大量的他人已享有著作權(quán)的信息,這就有可能構(gòu)成非法復(fù)制他人的作品,從而構(gòu)成對(duì)他人著作權(quán)的侵害。人工智能機(jī)器人能夠存儲(chǔ)大量的信息,而按照一些國家的規(guī)定,存儲(chǔ)他人享有著作權(quán)的信息本身,就構(gòu)成對(duì)他人著作權(quán)的侵害。人工智能實(shí)際上就是一種機(jī)器模仿人的智力活動(dòng)的技術(shù),但如果人工智能機(jī)器人利用獲取的他人享有著作權(quán)的知識(shí)和信息創(chuàng)作作品,如創(chuàng)作的歌曲中包含他人歌曲的音節(jié)、曲調(diào)等,也可能構(gòu)成剽竊。
在人工智能侵害他人知識(shí)產(chǎn)權(quán)的情形下,究竟應(yīng)當(dāng)由誰承擔(dān)責(zé)任、如何承擔(dān)責(zé)任,本身也是一個(gè)問題。如果認(rèn)為機(jī)器人具有主體資格,那么其承擔(dān)責(zé)任的財(cái)產(chǎn)又來自何處?如果認(rèn)為機(jī)器人不具有主體資格,究竟應(yīng)當(dāng)按照產(chǎn)品責(zé)任追究生產(chǎn)者、銷售者的侵權(quán)責(zé)任,還是應(yīng)當(dāng)由機(jī)器人的主人來承擔(dān)相應(yīng)責(zé)任?這些問題均值得進(jìn)一步研究。
五、人工智能對(duì)侵權(quán)責(zé)任認(rèn)定的新挑戰(zhàn)
人工智能的發(fā)展還涉及侵權(quán)責(zé)任的認(rèn)定問題。人工智能引發(fā)的侵權(quán)責(zé)任問題很早就受到了學(xué)者的關(guān)注,隨著人工智能應(yīng)用范圍的日益普及,其所引發(fā)的侵權(quán)責(zé)任認(rèn)定和承擔(dān)問題將對(duì)現(xiàn)行侵權(quán)法律制度提出越來越多的挑戰(zhàn)?!?9 〕無論是機(jī)器人致人損害,還是人類侵害機(jī)器人,都是新的法律責(zé)任。
在實(shí)踐中,機(jī)器人致人損害的案例已經(jīng)發(fā)生,2015年7月,德國大眾汽車制造廠一名21歲的工人在安裝和調(diào)制機(jī)器人時(shí),被機(jī)器人“出手”擊中胸部,并被碾壓在金屬板上。無獨(dú)有偶,2016年,Google無人駕駛汽車在美國加州山景城測試時(shí),與一輛公交大巴相撞,后經(jīng)法院認(rèn)定,Google公司在此次事故中負(fù)有責(zé)任。我國也出現(xiàn)了人工智能機(jī)器人傷人的事件,據(jù)報(bào)載,2016年11月,在深圳舉辦的第十八屆中國國際高新技術(shù)成果交易會(huì)上,一臺(tái)名為小胖的機(jī)器人突然發(fā)生故障,在沒有指令的前提下自行打砸展臺(tái)玻璃,砸壞了部分展臺(tái),并導(dǎo)致一人受傷。〔20 〕表面上看,機(jī)器人是人制造的產(chǎn)品,在造成他人損害時(shí),應(yīng)當(dāng)由機(jī)器人的研發(fā)者負(fù)責(zé),似乎在法律上沒有爭議。但機(jī)器人又不同于普通的產(chǎn)品,對(duì)普通的產(chǎn)品而言,追蹤產(chǎn)品的生產(chǎn)者較為容易,而對(duì)人工智能機(jī)器人而言,其是依靠自身的算法在運(yùn)作,有其自身獨(dú)特的運(yùn)作程序。因此,在人工智能機(jī)器人造成他人損害時(shí),不能簡單地認(rèn)定由該機(jī)器人的生產(chǎn)者承擔(dān)責(zé)任,而應(yīng)當(dāng)由該程序的發(fā)明者承擔(dān)責(zé)任,而人工智能機(jī)器人的運(yùn)作程序可能是由多個(gè)主體共同開發(fā)的,很難確定具體的程序研發(fā)個(gè)人或者組織,這就給確定人工智能機(jī)器人的責(zé)任帶來了困難。
人工智能的發(fā)展催生了無人駕駛技術(shù),這也對(duì)道路交通事故責(zé)任提出了新的挑戰(zhàn)?!?1 〕伴隨著無人駕駛技術(shù)在各國的運(yùn)用,這一問題已經(jīng)顯現(xiàn)。前不久,深圳已經(jīng)測試無人駕駛公交線路,引發(fā)了全球關(guān)注。浙江省擬于2022年建成支持自動(dòng)駕駛的首條超級(jí)高速公路 。但值得我們考慮的問題是,一旦無人駕駛汽車發(fā)生交通事故,應(yīng)當(dāng)由誰承擔(dān)責(zé)任?能否適用現(xiàn)行機(jī)動(dòng)車交通事故責(zé)任認(rèn)定相關(guān)主體的責(zé)任?法律上是否有必要為無人駕駛機(jī)動(dòng)車制定專門的責(zé)任規(guī)則?這確實(shí)是一個(gè)新問題,但已經(jīng)現(xiàn)實(shí)發(fā)生,美國時(shí)間2018年3月20日,UBER無人駕駛汽車在美國亞利桑那州發(fā)生了全球首例無人駕駛撞死行人的案件,案發(fā)地州政府緊接著宣布該州范圍內(nèi)永久性停止UBER無人駕駛測試,該案最終以和解方式結(jié)案,并未形成相應(yīng)的裁判規(guī)則。 筆者認(rèn)為,對(duì)此應(yīng)當(dāng)區(qū)分不同情況,分別認(rèn)定相關(guān)主體的責(zé)任:如果無人駕駛的汽車是因?yàn)槠嚤旧淼募夹g(shù)故障引發(fā)交通事故,此時(shí),受害人應(yīng)有權(quán)根據(jù)《侵權(quán)責(zé)任法》《道路交通安全法》的規(guī)定要求駕駛者承擔(dān)侵權(quán)損害賠償責(zé)任。如果交通事故是因駕駛操作系統(tǒng)程序出現(xiàn)問題,發(fā)生交通事故,此時(shí)完全由駕駛者承擔(dān)責(zé),可能有違公平,也過于苛責(zé)。究竟如何分配責(zé)任,值得進(jìn)一步探討。在無人駕駛技術(shù)日益普及的情形下,還有必要引入保險(xiǎn)制度,即規(guī)定新類型的“無人駕駛強(qiáng)制責(zé)任保險(xiǎn)制度”,為受害人提供必要的權(quán)利救濟(jì)。
此外,有一個(gè)問題值得考慮,就是未來可能出現(xiàn)的飛行汽車所帶來的道路事故責(zé)任,應(yīng)當(dāng)如何加以認(rèn)定?根據(jù)媒體的相關(guān)報(bào)道,有谷歌飛行之父之稱的塞巴斯蒂安-特倫宣布,谷歌有望在五年之內(nèi)讓飛行汽車飛行于天空的計(jì)劃得以實(shí)現(xiàn)?!?4 〕一旦飛行汽車的計(jì)劃真的實(shí)現(xiàn),可以預(yù)計(jì)汽車的飛行可能將顛覆道路交通規(guī)則,其在法律定位上究竟是作為一類新型航空器得以出現(xiàn),從而根據(jù)航空事故責(zé)任來進(jìn)行責(zé)任界定,還是仍然按照機(jī)動(dòng)車交通事故責(zé)任來加以確定,這一問題非常值得探討。
人工智能時(shí)代已經(jīng)來臨,其不僅改變?nèi)祟惿a(chǎn)和生活方式,也會(huì)對(duì)人類的法律制度產(chǎn)生深刻的影響。21世紀(jì)初,華裔著名經(jīng)濟(jì)學(xué)家楊小凱就提出:如果中國僅僅重視技術(shù)模仿,而忽視制度建設(shè),后發(fā)優(yōu)勢(shì)就可能轉(zhuǎn)化為后發(fā)劣勢(shì)?!?5 〕因此,我們不能僅注重技術(shù)的引用,而忽視其可能帶來的負(fù)面效果。我們的法學(xué)理論研究應(yīng)當(dāng)密切關(guān)注社會(huì)現(xiàn)實(shí),積極回應(yīng)大數(shù)據(jù)、人工智能等新興科學(xué)技術(shù)所帶來的一系列法律挑戰(zhàn),從而為我們立法的進(jìn)一步完善提供有力的理論支撐?!安恢\萬世者,不足以謀一時(shí)”,法治不僅僅是要考慮當(dāng)下,也要考慮未來。法治要提供制度環(huán)境安排,為新興科技等的發(fā)育預(yù)留法律空間。特別是要充分認(rèn)識(shí)和擁抱科學(xué)技術(shù)對(duì)社會(huì)生產(chǎn)和生活帶來的結(jié)構(gòu)性、革命性的影響,盡早觀察和預(yù)測未來法律發(fā)展的方向,促進(jìn)良法制定,以良法保障和促進(jìn)人工智能技術(shù)的健康發(fā)展,消除其對(duì)人類社會(huì)可能產(chǎn)生的副作用。因此,我國現(xiàn)行正在編纂的民法典應(yīng)當(dāng)考慮到人工智能可能帶來的各種新挑戰(zhàn),并制定相應(yīng)的法律規(guī)則,以體現(xiàn)出民法典與時(shí)俱進(jìn)的品格,并真正地應(yīng)對(duì)未來的技術(shù)發(fā)展,成為一部21世紀(jì)的民法典。