陳全思 張浩 欒群
隨著人工智能技術(shù)的迅速普及,由其引發(fā)的侵害和侵權(quán)事件時(shí)有發(fā)生,既有因交通、生產(chǎn)事故引發(fā)的人身財(cái)產(chǎn)傷害,也有因智能系統(tǒng)故障引發(fā)的財(cái)產(chǎn)利益貶損。人工智能侵權(quán)案件與傳統(tǒng)侵權(quán)案件引發(fā)的損害和風(fēng)險(xiǎn)的形式不同,根據(jù)傳統(tǒng)侵權(quán)法規(guī)定,制造商和銷售商是主要責(zé)任主體,但人工智能情景下,還應(yīng)當(dāng)明確開發(fā)者的安全注意義務(wù),建立新的人工智能侵權(quán)責(zé)任機(jī)制,保障行業(yè)健康發(fā)展。
四種人工智能侵權(quán)歸責(zé)的觀點(diǎn)
人工智能工具論——由使用者承擔(dān)責(zé)任。這種觀點(diǎn)認(rèn)為目前人工智能尚不具備自主意識(shí),只是一種工具,其行為是在人類授意下做出的,因此人工智能侵權(quán)應(yīng)由使用該工具的人來承擔(dān)責(zé)任。使用者是人工智能程序和設(shè)備的控制者也是受益者,侵權(quán)風(fēng)險(xiǎn)是使用者的使用行為引起的,讓受益者承擔(dān)由其控制的工具引發(fā)的侵權(quán)責(zé)任是公平合理的。
人工智能產(chǎn)品論——由生產(chǎn)者承擔(dān)責(zé)任。根據(jù)《產(chǎn)品質(zhì)量法》,產(chǎn)品質(zhì)量應(yīng)當(dāng)檢驗(yàn)合格,符合保障人體健康和人身、財(cái)產(chǎn)安全的標(biāo)準(zhǔn)或要求,生產(chǎn)者、銷售者依法承擔(dān)產(chǎn)品質(zhì)量責(zé)任。人工智能通常是一種產(chǎn)品,除了個(gè)別由于使用者或者第三人故意引起的侵權(quán)以外,大多數(shù)人工智能侵權(quán)是由于產(chǎn)品存在缺陷造成的。消費(fèi)者對(duì)于人工智能產(chǎn)品缺陷,既難以理解也難以發(fā)現(xiàn)且難以舉證,所以應(yīng)當(dāng)由生產(chǎn)者承擔(dān)產(chǎn)品責(zé)任,銷售者承擔(dān)不真正連帶責(zé)任。
人工智能動(dòng)物論——由管理者承擔(dān)責(zé)任。由于人工智能尚不具備自主意識(shí),其行為又與一般工具不同,不完全受人類控制,這與飼養(yǎng)的動(dòng)物頗為相似,動(dòng)物可能在人類授意下實(shí)施侵權(quán),也可能在無(wú)人類授意下發(fā)生侵權(quán)。盡管古代立法中有讓動(dòng)物承擔(dān)法律責(zé)任的規(guī)定,但現(xiàn)代立法不再將動(dòng)物視作法律主體,因此動(dòng)物的侵權(quán)行為應(yīng)由飼養(yǎng)人或者管理人承擔(dān)侵權(quán)責(zé)任。借鑒動(dòng)物侵權(quán)法律規(guī)定,人工智能侵權(quán)也應(yīng)由對(duì)其負(fù)有管理義務(wù)的人承擔(dān)。
人工智能主體論——由人工智能承擔(dān)責(zé)任。人工智能最大的特點(diǎn)在于其擁有智能,不但可以做出行為,而且能夠自主做出分析判斷,同時(shí)擁有比人類更加強(qiáng)大的數(shù)據(jù)收集、記憶和計(jì)算能力。法律可以將自然人以外的實(shí)體規(guī)定為法律主體,例如法人,對(duì)于人工智能也可以參照這種做法。而且,已經(jīng)有一些國(guó)家賦予或正在考慮賦予人工智能法律主體資格,如沙特阿拉伯的索菲亞機(jī)器人已獲公民資格。如果人工智能成為法律主體,則應(yīng)當(dāng)承擔(dān)其侵權(quán)行為引起的法律責(zé)任。
人工智能侵權(quán)的特殊性
人工智能侵權(quán)構(gòu)成要素復(fù)雜?,F(xiàn)階段人工智能的技術(shù)框架主要以機(jī)器學(xué)習(xí)和深度學(xué)習(xí)為中心。從軟件層面,人工智能系統(tǒng)作出的判斷、決策等行為,實(shí)際上是對(duì)人工智能模型輸入一定數(shù)據(jù)而得到的函數(shù)輸出結(jié)果,其基本模型可以用“輸出=人工智能模型(基礎(chǔ)算法+訓(xùn)練材料)+輸入”表示。侵權(quán)的輸出結(jié)果實(shí)際受到基礎(chǔ)算法、訓(xùn)練材料和輸入行為三個(gè)要素的影響,這三個(gè)要素可能獨(dú)立導(dǎo)致侵權(quán)結(jié)果,也可能相互作用累積引起侵權(quán),這使得具體侵權(quán)案件的歸責(zé)難度加大。特別是,現(xiàn)有的司法人員普遍沒有接受過人工智能技術(shù)相關(guān)培訓(xùn),而技術(shù)人員又少有精通法律的,對(duì)人工智能侵權(quán)的事實(shí)認(rèn)定和法律認(rèn)定都非常困難。
使用人或管理人通常沒有主觀過錯(cuò)。侵權(quán)案件中,通常是侵權(quán)人的違法行為造成了損害事實(shí),違法行為與損害事實(shí)之間具有因果關(guān)系,且行為人對(duì)違法行為具有主觀過錯(cuò)。但人工智能侵權(quán),使用人或管理人通常不具有侵權(quán)的故意或者過失,侵權(quán)行為和損害事實(shí)是人工智能程序自主判斷、決策的結(jié)果。以完全自動(dòng)駕駛汽車為例,使用人給車輛下達(dá)行駛的命令,途中使用人并不參與車輛的轉(zhuǎn)彎、減速、超車、避讓等各類行駛決策。在車輛自動(dòng)行駛的過程中,如果發(fā)生侵權(quán)事故,盡管使用人最初下達(dá)的行駛命令與侵權(quán)事實(shí)也有一定的關(guān)系,但二者之間的因果關(guān)系太弱,使用人使用車輛的意志并不包含任何侵權(quán)意圖,此時(shí)歸責(zé)于使用人,則會(huì)給使用人施加過重的事故防范義務(wù),既不符合公平原則,也不利于人工智能的推廣應(yīng)用。
人工智能具有一定的自主性。由于難以歸責(zé)于使用人,人工智能侵權(quán)主要應(yīng)當(dāng)是由產(chǎn)品本身問題引起的,因此應(yīng)當(dāng)在產(chǎn)品責(zé)任視角下討論。一般產(chǎn)品侵權(quán)是由于存在缺陷而造成他人損害,所謂缺陷是指產(chǎn)品存在危及人身、他人財(cái)產(chǎn)安全的不合理的危險(xiǎn),通常在生產(chǎn)階段按照相應(yīng)的產(chǎn)品標(biāo)準(zhǔn)或質(zhì)量要求應(yīng)當(dāng)能夠發(fā)現(xiàn)這種缺陷。但人工智能產(chǎn)品與一般產(chǎn)品不同,雖然尚不具有類似人類的意志,但具有一定自主性,具有學(xué)習(xí)能力,引起侵權(quán)事故的原因既可能是設(shè)計(jì)生產(chǎn)階段已經(jīng)存在的缺陷,也可能是人工智能自主學(xué)習(xí)后產(chǎn)生的“危險(xiǎn)”。而因人工智能學(xué)習(xí)引起的危險(xiǎn)是否屬于“缺陷”,在目前法律規(guī)定中尚不明確。
人工智能侵權(quán)責(zé)任主體與歸責(zé)機(jī)制
生產(chǎn)和設(shè)計(jì)者是人工智能侵權(quán)責(zé)任主體。目前人工智能還處于高級(jí)函數(shù)的階段,不具備侵權(quán)的主觀意志,也不具有承擔(dān)侵權(quán)責(zé)任的能力。人工智能侵權(quán)還是表象,本質(zhì)上仍然是有安全注意義務(wù)的人由于故意或過失而未履行相應(yīng)義務(wù),而導(dǎo)致人工智能侵權(quán)危險(xiǎn)的發(fā)生。對(duì)人工智能侵權(quán)負(fù)有安全注意義務(wù)的,應(yīng)當(dāng)是有能力知曉人工智能工作機(jī)理并控制人工智能行為的人。一般情況下,應(yīng)該是人工智能的生產(chǎn)者和設(shè)計(jì)者。由于人工智能構(gòu)成的復(fù)雜性,產(chǎn)品的瑕疵或缺陷是發(fā)生在算法設(shè)計(jì)、調(diào)試階段,還是發(fā)生在機(jī)器學(xué)習(xí)訓(xùn)練、測(cè)試生產(chǎn)階段,又會(huì)決定該歸責(zé)于設(shè)計(jì)者或生產(chǎn)者。在人工智能時(shí)代,設(shè)計(jì)者和生產(chǎn)者常常是分離的,所以這是兩類不同的侵權(quán)主體。
嚴(yán)格適用產(chǎn)品責(zé)任免責(zé)事由。人工智能侵權(quán)主要適用產(chǎn)品責(zé)任,侵權(quán)法和產(chǎn)品質(zhì)量法規(guī)定了生產(chǎn)者的三類免責(zé)事由:(一)未將產(chǎn)品投入流通的;(二)產(chǎn)品投入流通時(shí),引起損害的缺陷尚不存在的;(三)將產(chǎn)品投入流通時(shí)的科學(xué)技術(shù)水平尚不能發(fā)現(xiàn)缺陷的存在的。由于大量人工智能產(chǎn)品屬于技術(shù)前沿成果,人工智能算法或程序中確實(shí)存在一些生產(chǎn)者(設(shè)計(jì)者)無(wú)法預(yù)見的瑕疵或缺陷,這三類免責(zé)事由仍有適用空間。一方面應(yīng)寬容創(chuàng)新,對(duì)于開發(fā)者能夠證明已盡力避免,而以當(dāng)時(shí)認(rèn)知和技術(shù)水平確實(shí)無(wú)法發(fā)現(xiàn)的缺陷風(fēng)險(xiǎn),應(yīng)當(dāng)免除開發(fā)者的責(zé)任;另一方面應(yīng)嚴(yán)格適用免責(zé)事由,嚴(yán)格規(guī)范開發(fā)者涉及人身、財(cái)產(chǎn)安全的人工智能程序開發(fā)行為,強(qiáng)化開發(fā)者安全注意義務(wù),預(yù)防人工智能侵權(quán)風(fēng)險(xiǎn)發(fā)生和累積。
建立人工智能責(zé)任機(jī)制。一是逐步建設(shè)人工智能產(chǎn)品標(biāo)準(zhǔn),使開發(fā)者明確其產(chǎn)品需要滿足的保障人體健康和人身、財(cái)產(chǎn)安全的國(guó)家標(biāo)準(zhǔn)或行業(yè)標(biāo)準(zhǔn),避免出現(xiàn)缺陷產(chǎn)品。引導(dǎo)行業(yè)建設(shè)人工智能開發(fā)者安全注意義務(wù)準(zhǔn)則,加強(qiáng)行業(yè)自律規(guī)范。二是建立人工智能缺陷產(chǎn)品召回機(jī)制,建立算法變化節(jié)點(diǎn)時(shí)間表機(jī)制。對(duì)發(fā)現(xiàn)缺陷后的產(chǎn)品應(yīng)及時(shí)召回或停止提供服務(wù),并評(píng)估人工智能算法的變化節(jié)點(diǎn),排查變化原因,明確引起變化并導(dǎo)致侵權(quán)的責(zé)任主體。三是探索類似交強(qiáng)險(xiǎn)的人工智能責(zé)任險(xiǎn)。由于人工智能可能存在無(wú)法歸責(zé)于使用者,也不宜歸責(zé)于生產(chǎn)設(shè)計(jì)者的侵權(quán)風(fēng)險(xiǎn),可以設(shè)立人工智能責(zé)任險(xiǎn),及時(shí)為被侵權(quán)人提供救濟(jì),分擔(dān)開發(fā)者風(fēng)險(xiǎn),保障行業(yè)健康發(fā)展。