国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能侵權(quán)的新興責(zé)任主體研究*

2023-09-08 05:25:04賀栩溪
時代法學(xué) 2023年3期
關(guān)鍵詞:設(shè)計者主體人工智能

賀栩溪

(湖南工商大學(xué)法學(xué)院,湖南 長沙 410205)

一、問題的提出

隨著人工智能技術(shù)的快速發(fā)展和廣泛應(yīng)用,由其帶來的侵權(quán)問題開始逐漸顯現(xiàn)。無論是物理性接觸侵權(quán)如自動駕駛汽車造成的交通事故,還是非物理性接觸侵權(quán)如隱私權(quán)、個人信息受侵害,算法“殺熟”、算法歧視和“信息繭房”等問題均開始逐漸進入社會關(guān)注的視野,并成為目前學(xué)界爭議的熱點和立法亟需解決的問題。

面對人工智能技術(shù)對人類權(quán)益的上述侵害,有學(xué)者認為現(xiàn)行民法的基本理念和基本規(guī)則足以應(yīng)對而不需要發(fā)生斷層式的發(fā)展,并以自動駕駛汽車為例,認為現(xiàn)有機動車交通事故責(zé)任規(guī)則和產(chǎn)品責(zé)任規(guī)則能夠基本適用自動駕駛汽車侵權(quán)案件(1)楊立新.用現(xiàn)行民法規(guī)則解決人工智能法律調(diào)整問題的嘗試[J].中州學(xué)刊,2018,(7):40-48.。誠然,無論是具備物質(zhì)實體的智能機器人,還是不具備物質(zhì)實體的人工智能系統(tǒng)均往往與普通產(chǎn)品類似,一般都是先由開發(fā)者投入大量人力物力予以開發(fā),然后以盈利為目的提供至使用者手中(2)不具備物質(zhì)實體的人工智能系統(tǒng)往往被應(yīng)用于大量軟件當中,通過“應(yīng)用商店”向消費者供應(yīng),雖然大部分常見應(yīng)用可免費獲得,但并不能改變這種行為的銷售性質(zhì):人工智能時代下的對價支付不一定需要金錢或其他傳統(tǒng)等價財物,聚沙成塔的流量,網(wǎng)絡(luò)足跡所形成的數(shù)據(jù)才是當代科技社會的寶貴資源。。因此在傳統(tǒng)侵權(quán)責(zé)任法律中,人工智能侵權(quán)的責(zé)任主體應(yīng)當對應(yīng)人工智能生產(chǎn)者、銷售者、使用者和第三人。按照普通產(chǎn)品侵權(quán)責(zé)任的歸責(zé),上述主體已經(jīng)具有一定全面性,尤其是“第三人”還具有一定的兜底特性,筆者亦認為產(chǎn)品責(zé)任、使用者責(zé)任和第三人責(zé)任可以并應(yīng)當在人工智能侵權(quán)責(zé)任的歸責(zé)過程中繼續(xù)適用,但上述傳統(tǒng)主體能否完全滿足人工智能侵權(quán)責(zé)任的歸責(zé)需求,筆者仍持否定態(tài)度,主要理由如下:

第一,就以自動駕駛汽車為代表的具有物質(zhì)實體形式的智能機器人來說,首先,自動駕駛技術(shù)的設(shè)計者與生產(chǎn)者往往不再為同一主體(3)例如華為造車消息曾不脛而走,引發(fā)社會廣泛關(guān)注和討論,但華為表示其不參與造車,只作為智能部件供應(yīng)商,采用HUAWEI Inside模式,把華為的自動駕駛硬件、麒麟芯片、鴻蒙系統(tǒng)等帶進更多汽車制造商的產(chǎn)品里;百度與吉利汽車為戰(zhàn)略合作伙伴關(guān)系,百度提供智能駕駛專業(yè)知識和技術(shù),吉利負責(zé)進行汽車制造。,而智能技術(shù)將成為自動駕駛汽車發(fā)生事故的主要原因之一,若仍然由生產(chǎn)者承擔(dān)因智能設(shè)計缺陷導(dǎo)致的侵權(quán)責(zé)任,該責(zé)任分配的公平性值得商榷;其次,自動駕駛汽車在行駛過程中不僅依靠自動駕駛系統(tǒng)本身,還需要大量行車數(shù)據(jù)、道路數(shù)據(jù)的實時更新和傳輸共享,以實現(xiàn)車與車、車與環(huán)境之間的信息交換,自動駕駛系統(tǒng)正是在此基礎(chǔ)之上進行運行從而作出各種決策。若上述數(shù)據(jù)出現(xiàn)問題導(dǎo)致自動駕駛系統(tǒng)決策發(fā)生錯誤從而造成交通事故,傳統(tǒng)產(chǎn)品責(zé)任能否涵蓋出廠及銷售后還在不斷更新變化的數(shù)據(jù)所引起的責(zé)任,筆者持有保留態(tài)度。

第二,以不具備物質(zhì)實體形式而存在于虛擬空間中的人工智能來說,首先,大數(shù)據(jù)對這類人工智能的影響,相比具備物質(zhì)實體的智能機器人來說有過之而無不及,其算法決策需要大量數(shù)據(jù)予以支撐,數(shù)據(jù)缺陷成為人工智能侵權(quán)的重要原因之一;其次,與智能機器人一般由生產(chǎn)者、銷售者直接交向終端使用者不同,不具備物質(zhì)實體人工智能的開發(fā)者和終端使用者之間往往還有中間載體——算法應(yīng)用平臺,平臺基于其強大影響力或強制應(yīng)用需要而擁有眾多終端用戶,并往往容易成為侵權(quán)發(fā)生后的第一問責(zé)對象,但該主體難以被傳統(tǒng)侵權(quán)責(zé)任主體所包含。

第三,雖然第三人責(zé)任因具有兜底特征可涵蓋除產(chǎn)品責(zé)任和使用人責(zé)任之外的一切其他責(zé)任主體,但數(shù)據(jù)責(zé)任和平臺責(zé)任在人工智能侵權(quán)責(zé)任中的重要地位和特殊性使得將其從第三人責(zé)任中獨立出來具有現(xiàn)實需要。在傳統(tǒng)侵權(quán)責(zé)任中,第三人責(zé)任作為產(chǎn)品責(zé)任與使用人責(zé)任的補充,適用一般侵權(quán)責(zé)任規(guī)則,承擔(dān)的是過錯責(zé)任歸責(zé)原則。然而,大數(shù)據(jù)和平臺在人工智能應(yīng)用中的影響力決定單純的過錯責(zé)任無法與其地位相匹配,需要基于大數(shù)據(jù)在人工智能中的作用方式和平臺應(yīng)用領(lǐng)域適用更為嚴格的多元化歸責(zé)原則,構(gòu)建與傳統(tǒng)第三人責(zé)任并不相同的特殊侵權(quán)責(zé)任規(guī)則。

綜上所述,除了傳統(tǒng)侵權(quán)責(zé)任主體之外,算法設(shè)計者、數(shù)據(jù)提供者和算法應(yīng)用平臺在人工智能侵權(quán)中所產(chǎn)生的影響不容小覷,需要被正視并予以深入研究。在此背景之下,本文以上述三大新興主體作為研究對象,對其在人工智能侵權(quán)責(zé)任歸責(zé)過程中獨立于傳統(tǒng)責(zé)任主體的必要性、具體歸責(zé)原則的適用以及其與傳統(tǒng)責(zé)任主體之間的關(guān)系和責(zé)任分配等問題展開探討。

二、人工智能算法設(shè)計者責(zé)任

(一)人工智能算法設(shè)計者獨立對外承擔(dān)責(zé)任

在傳統(tǒng)侵權(quán)責(zé)任法中,產(chǎn)品的開發(fā)責(zé)任僅由生產(chǎn)者向受害者承擔(dān),產(chǎn)品設(shè)計者并不直接對外承擔(dān)責(zé)任。產(chǎn)品“缺陷”通??梢苑譃槿N類型:設(shè)計缺陷、制造缺陷和警示缺陷,包括設(shè)計缺陷在內(nèi)的三種缺陷均由生產(chǎn)者對外承擔(dān)責(zé)任。對于較為復(fù)雜的產(chǎn)品,生產(chǎn)者可能無法自主設(shè)計出該產(chǎn)品的所有配件構(gòu)造,因此這類產(chǎn)品往往會有部分或全部設(shè)計來源于上游設(shè)計者。根據(jù)我國現(xiàn)有產(chǎn)品責(zé)任規(guī)定,即使產(chǎn)品缺陷來源于上游主體,向受害者直接承擔(dān)產(chǎn)品責(zé)任的主體亦是最終生產(chǎn)者而非上游主體。

現(xiàn)有法律的上述規(guī)定具有一定的客觀事實基礎(chǔ)和法律適用優(yōu)勢。首先從產(chǎn)品生產(chǎn)的過程來看,生產(chǎn)者在整個加工、制作過程中仍然處于最有力的位置,其對于成品質(zhì)量的控制和把握始終居于主導(dǎo)地位;其次,對于大部分產(chǎn)品來說,產(chǎn)品的設(shè)計者并不獨立而是隸屬于生產(chǎn)者存在,其屬于生產(chǎn)者的下設(shè)部門或者雇員,根據(jù)《民法典》侵權(quán)責(zé)任編第1191條的規(guī)定,設(shè)計者由于職務(wù)設(shè)計出現(xiàn)缺陷導(dǎo)致的他人損害應(yīng)由用人單位承擔(dān)責(zé)任;再次,由生產(chǎn)者承擔(dān)責(zé)任有利于填補受害人損害,并一定程度上預(yù)防產(chǎn)品責(zé)任的發(fā)生。產(chǎn)品的生產(chǎn)一般需要經(jīng)過設(shè)計、制造和組配等過程,由最終成品生產(chǎn)者承擔(dān)無過錯的產(chǎn)品責(zé)任,有利于促使其保證各個環(huán)節(jié)的質(zhì)量和銜接,避免各自為政、互相脫節(jié),以及損害出現(xiàn)后互相推諉的局面產(chǎn)生,而且從受害人角度來講,確定產(chǎn)品的最終生產(chǎn)者比確定產(chǎn)品是否具有某項設(shè)計缺陷,繼而確定該缺陷的設(shè)計者要容易得多。

然而,對于人工智能侵權(quán)所導(dǎo)致的產(chǎn)品責(zé)任而言,學(xué)界和立法界開始出現(xiàn)將設(shè)計者責(zé)任從生產(chǎn)者責(zé)任中剝離出來而由設(shè)計者單獨承擔(dān)的觀點和立法傾向?!盎谌斯ぶ悄墚a(chǎn)品的特殊性有必要充分考慮將設(shè)計者納入產(chǎn)品責(zé)任主體體系。因為人工智能產(chǎn)品不同于一般產(chǎn)品,其必然涉及大量的數(shù)據(jù)與復(fù)雜的算法基礎(chǔ),專業(yè)要求度極高。”(4)胡元聰.我國人工智能產(chǎn)品責(zé)任之發(fā)展風(fēng)險抗辯制度構(gòu)建研究[J].湖湘論壇,2020,(1):76.還有學(xué)者認為人工智能產(chǎn)品的設(shè)計者應(yīng)當獨立承擔(dān)過錯責(zé)任:“人工智能設(shè)計者過錯責(zé)任側(cè)重于設(shè)計師是否能在設(shè)計中謹慎行事,該分析采用合理標準來確定設(shè)計師是否合理地設(shè)計產(chǎn)品,如果設(shè)計師行為不合理,法院會認定為疏忽?!?5)Callier,M.& H.Callier.Blame it on the Machine:A Socio-legal Analysis of Liability in an AI World[J].Wash. J. L. Tech. &Arts,2018,14:49.2016年,美國密歇根州出臺關(guān)于自動駕駛機動車的法案,其中在侵權(quán)責(zé)任方面規(guī)定:“(1)為了分配事故責(zé)任,將機器定為“駕駛員”;(2)為提供AV(autonomous vehicle)系統(tǒng)的技術(shù)公司定義責(zé)任;(3)將汽車制造商從責(zé)任中隔離出來,除非損害是由車輛最初制造時存在的缺陷引起的,或者是由車輛轉(zhuǎn)化為AV機動車之前就存在的缺陷引起的?!?6)S.FISCAL AGENCY,S.B.996-F,(Mich.2016).該規(guī)定明確將自動駕駛機動車制造商的責(zé)任和技術(shù)開發(fā)公司的責(zé)任相區(qū)別,并被學(xué)者認為為未來立法分配人工智能侵權(quán)責(zé)任提供指導(dǎo)意義(7)Callier,M.& H.Callier.Blame it on the Machine:A Socio-legal Analysis of Liability in an AI World[J].Wash. J. L. Tech. &Arts,2018,14:47.。

產(chǎn)品設(shè)計是在產(chǎn)品被制造之前,預(yù)先形成的構(gòu)思、計劃、方案、圖樣和安排等,設(shè)計是制造的前置階段,任何產(chǎn)品均需要經(jīng)過設(shè)計才能投入生產(chǎn)和制造(8)冉克平.論產(chǎn)品設(shè)計缺陷及其判定[J].東方法學(xué),2016,(2):13.。產(chǎn)品設(shè)計具有多樣性,就具有物質(zhì)實體的智能機器人而言,基于其美觀或?qū)嵱枚a(chǎn)生的外觀設(shè)計,基于其安全性能而產(chǎn)生的機械安全設(shè)計,或基于其核心能力創(chuàng)造而產(chǎn)生的技術(shù)設(shè)計等都能稱之為智能機器人產(chǎn)品的設(shè)計,而且每種類型的設(shè)計者絕大可能并不是同一主體;就以電磁形式存在于虛擬空間的智能系統(tǒng)而言,其設(shè)計主要表現(xiàn)為核心智能功能技術(shù)。并不是人工智能產(chǎn)品上的所有設(shè)計均具有與其他產(chǎn)品相異的特殊性,人工智能產(chǎn)品與其他產(chǎn)品相區(qū)別的根本在于人工智能的核心技術(shù)設(shè)計,這種核心設(shè)計使人工智能擁有了其他產(chǎn)品無法企及的自主學(xué)習(xí)能力、自主改造能力及思維決策能力,而這種核心設(shè)計即人工智能算法。

筆者認為,人工智能算法系統(tǒng)所產(chǎn)生的設(shè)計缺陷責(zé)任應(yīng)當從生產(chǎn)者責(zé)任中剝離出來而由設(shè)計者直接向受害人承擔(dān),除非人工智能的生產(chǎn)者與算法系統(tǒng)的設(shè)計者屬于同一主體。理由如下:對于人工智能產(chǎn)品而言,算法的設(shè)計才是其得以誕生的根源,人工智能之所以能從其他法律客體中突出而被學(xué)界重點研究并被認為可能需要進行不同的法律應(yīng)對,正是由于算法所帶來的類似人腦能力的出現(xiàn),而這種能力來源于算法設(shè)計者的設(shè)計行為,與生產(chǎn)者的生產(chǎn)行為并無關(guān)系。算法設(shè)計的高度專業(yè)性阻隔了一般生產(chǎn)者對它的深入了解和掌握,因此生產(chǎn)者鮮能在設(shè)計過程中占據(jù)最有力位置,并控制和把握算法的質(zhì)量。人工智能侵權(quán)的大部分原因可能源自算法設(shè)計出現(xiàn)了問題,讓完全無法理解算法的生產(chǎn)者承擔(dān)損害賠償責(zé)任有失公允,對于提高設(shè)計質(zhì)量,減少侵權(quán)發(fā)生亦毫無意義。事實上,在一些高科技、高度專業(yè)化且復(fù)雜的產(chǎn)品中,已經(jīng)存在對產(chǎn)品責(zé)任主體予以寬泛理解的先例,尤其體現(xiàn)在航空器產(chǎn)品侵權(quán)領(lǐng)域,部分學(xué)者早已主張航空器設(shè)計者應(yīng)當作為航空產(chǎn)品責(zé)任的主體(9)Speiser,S.M.& C.F.Krause.Aviation Tort Law[M].the Lawyers Cooperative Publishing Co.,1978;郝秀輝,王錫柱.論航空產(chǎn)品責(zé)任的承擔(dān)主體及其歸責(zé)原則[J].北京理工大學(xué)學(xué)報(社會科學(xué)版),2016,(1):122.。在赫姆訴空中客車公司(Hemme v.Airbus)一案中,法航447號航班空難者家屬亦將飛機大氣數(shù)據(jù)慣性系統(tǒng)、飛翔控制計算機微處理器的設(shè)計者摩托羅拉公司起訴至法院(10)Hemme v.Airbus,S.A.S.,2010 WL 1416468(N.D.Ill.,2010).。

至于前述關(guān)于傳統(tǒng)產(chǎn)品責(zé)任之所以涵蓋設(shè)計缺陷的客觀事實基礎(chǔ),在人工智能產(chǎn)品侵權(quán)中并未發(fā)生根本變化,以及其法律適用優(yōu)勢在人工智能產(chǎn)品侵權(quán)中亦有繼續(xù)存在之現(xiàn)實需要。那么,如何在算法設(shè)計者獨立承擔(dān)責(zé)任的前提之下仍然尊重該客觀事實基礎(chǔ)及繼續(xù)保留該法律適用優(yōu)勢,則需要通過構(gòu)建算法設(shè)計者責(zé)任和傳統(tǒng)產(chǎn)品責(zé)任之間的不真正連帶責(zé)任予以解決。

(二)人工智能算法設(shè)計者責(zé)任與傳統(tǒng)產(chǎn)品責(zé)任之關(guān)系

由設(shè)計者直接向受害人承擔(dān)因算法設(shè)計缺陷所導(dǎo)致的損害,并不意味著人工智能生產(chǎn)者能夠完全置身事外。算法設(shè)計缺陷所導(dǎo)致的損害宜由設(shè)計者、生產(chǎn)者和銷售者一起對外承擔(dān)不真正連帶責(zé)任,即當受害者認為人工智能侵權(quán)是由算法設(shè)計缺陷導(dǎo)致的,可以將人工智能產(chǎn)品的銷售者、生產(chǎn)者和設(shè)計者同時訴諸法院,任何一方向受害人賠償后,均可向?qū)嶋H侵權(quán)人追償。該規(guī)則設(shè)計主要基于以下三個方面:

第一,雖然算法設(shè)計在人工智能產(chǎn)品中處于最核心地位,但傳統(tǒng)產(chǎn)品責(zé)任規(guī)則構(gòu)建的客觀事實基礎(chǔ)仍然存在:生產(chǎn)者是將算法系統(tǒng)最終嵌入人工智能成品并投入市場的主體,其能夠最先了解該算法系統(tǒng)并決定是否予以應(yīng)用,因此對于算法設(shè)計損害來說,生產(chǎn)者并非完全沒有責(zé)任;而且生產(chǎn)者雖然不具備設(shè)計者的專業(yè)能力,但也能以指示等類似方式影響和改變算法的設(shè)計,此時生產(chǎn)者與設(shè)計者之間的責(zé)任并非常態(tài)時涇渭分明,為其構(gòu)建不真正連帶責(zé)任能有效解決在該情形下所產(chǎn)生的外部責(zé)任承擔(dān)問題。

第二,該構(gòu)建能最大程度地保護受害人利益,極大提高受害人損害獲得填補的可能性,保留了傳統(tǒng)產(chǎn)品責(zé)任的法律適用優(yōu)勢。即使由算法設(shè)計者獨立對外承擔(dān)責(zé)任,受害人亦無需因追責(zé)對象錯誤而耽誤救濟時間、增加救濟成本;新增算法設(shè)計者作為對外責(zé)任主體反而能夠提高受害人獲得救濟的幾率。

第三,算法設(shè)計缺陷所導(dǎo)致的損害由設(shè)計者、生產(chǎn)者和銷售者一起對外承擔(dān)不真正連帶責(zé)任符合不真正連帶責(zé)任規(guī)則的內(nèi)核。不真正連帶是各債務(wù)人基于不同的發(fā)生原因而對于同一債權(quán)人負有以同一給付為標的的數(shù)個債務(wù)。當人工智能算法設(shè)計出現(xiàn)缺陷時,算法設(shè)計者基于該缺陷的設(shè)計行為負有給付義務(wù),生產(chǎn)者則基于整個人工智能產(chǎn)品的生產(chǎn)行為負有給付義務(wù),銷售者則基于該人工智能的銷售行為負有給付義務(wù)。因此僅從不真正連帶責(zé)任的內(nèi)核來看,設(shè)計者、生產(chǎn)者和銷售者亦應(yīng)對算法設(shè)計缺陷所導(dǎo)致的損害承擔(dān)不真正連帶責(zé)任。

(三)人工智能算法設(shè)計者承擔(dān)過錯責(zé)任

從我國現(xiàn)有法律來看,無論是《民法典》還是《產(chǎn)品質(zhì)量法》,均未對產(chǎn)品缺陷作出類型化的分別規(guī)范,而是籠統(tǒng)規(guī)定“因產(chǎn)品存在缺陷造成他人損害”的產(chǎn)品責(zé)任適用無過錯責(zé)任歸責(zé)原則。比較法上的相關(guān)規(guī)定自其產(chǎn)品責(zé)任產(chǎn)生之初亦大抵相近,但隨著設(shè)計缺陷案件逐步增多,有些國家立法開始將產(chǎn)品缺陷進行分類,并對不同的缺陷類型適用不同的歸責(zé)原則,其中最為典型的國家為美國。1965年美國《侵權(quán)法重述》(第二版)還沒有關(guān)于產(chǎn)品缺陷的分類,其在402A節(jié)中規(guī)定對所有產(chǎn)品缺陷統(tǒng)一適用嚴格責(zé)任,并在司法實踐中獲得較為嚴格的執(zhí)行。但從70年代伊始設(shè)計缺陷產(chǎn)生并逐年增加,理論界開始出現(xiàn)對統(tǒng)一歸責(zé)原則的質(zhì)疑(11)Davis,M.J.Design Defect Liability:In Search of A Standard of Responsibility[J]. Wayne L.Rev.,1993,39:1217.,有些法院雖然宣稱將嚴格責(zé)任適用于設(shè)計缺陷,但實際上使用的是類似過錯的歸責(zé)原則(12)Owen,D.G.Defectiveness Restated Exploding the “Strict”Product Liability Myth[J].U.ILL.L.REV.,1996(3):743,744.。1979年美國《統(tǒng)一產(chǎn)品責(zé)任示范法》出臺,其中第104條表明不同缺陷應(yīng)適用不同歸責(zé),規(guī)定對設(shè)計缺陷不再實行純粹的嚴格責(zé)任。如果說該法案是設(shè)計缺陷從嚴格責(zé)任走向過錯責(zé)任的過渡,那么1997年發(fā)布的《侵權(quán)法重述第三版:產(chǎn)品責(zé)任》則正式確定了設(shè)計缺陷的過錯責(zé)任歸責(zé)原則,其中第2節(jié)b款規(guī)定設(shè)計缺陷是指“通過采納合理替代性設(shè)計能減少或者避免可預(yù)見的損害風(fēng)險,而沒有采納合理替代性設(shè)計致使產(chǎn)品不具有合理性安全?!痹撘?guī)定使設(shè)計缺陷的認定標準明確為傳統(tǒng)上用于判斷行為人是否存在過錯的合理性標準(13)[美]美國法律研究院.侵權(quán)法重述第三版:產(chǎn)品責(zé)任[M].肖永平等譯.北京:法律出版社,2006.4.。

究其原因,美國法律和司法實踐在設(shè)計缺陷歸責(zé)原則上的轉(zhuǎn)變主要基于以下幾個方面的思考。首先,設(shè)計缺陷的無過錯責(zé)任與人類認知規(guī)律相悖。設(shè)計隱含著創(chuàng)新和突破,設(shè)計者對自己設(shè)計是否具有缺陷的判斷,取決于設(shè)計時的科技發(fā)展水平和人類的認知能力。如果設(shè)計缺陷適用無過錯責(zé)任,意味著責(zé)任主體需要對無法知曉的風(fēng)險承擔(dān)責(zé)任,其違背了人類的認知規(guī)律,無異于要求責(zé)任主體承擔(dān)絕對責(zé)任;其次,基于利益衡量與社會效用的考慮,雖然嚴格責(zé)任更有利于保護消費者,但設(shè)計者不得不因此考慮可能承擔(dān)的責(zé)任,在設(shè)計時通過犧牲產(chǎn)品功效的保守性方式以獲得更加安全的產(chǎn)品,最終損害的將是全社會失去獲得有效產(chǎn)品功用的自由和更多產(chǎn)品選擇的機會。另外還有學(xué)者指出,設(shè)計缺陷適用過錯責(zé)任并不會改變舉證責(zé)任要求的機理。原告欲證明設(shè)計缺陷的存在,往往需要提出一個合理的替代設(shè)計與原設(shè)計進行對照,當原告證實存在合理替代設(shè)計時,不僅能夠證明原設(shè)計具有缺陷,也能夠證明行為人在設(shè)計上具有過錯,因此兩者在舉證方面是重疊的,并沒有突破過錯責(zé)任的基石,以免除原告對被告過錯舉證義務(wù)之必要(14)梁亞.美國產(chǎn)品責(zé)任法中歸責(zé)原則變遷之解析[J].環(huán)球法律評論,2008,(1):107.。

盡管如此,設(shè)計缺陷的過錯責(zé)任原則并不被所有國家或地區(qū)所選擇,如歐盟在1985年的《歐共體產(chǎn)品責(zé)任指令》中明確規(guī)定所有缺陷應(yīng)適用嚴格責(zé)任,盡管該指令在起草過程中已充分討論美國產(chǎn)品責(zé)任歸責(zé)原則在司法實踐中所發(fā)生的變化(15)梁亞.美國產(chǎn)品責(zé)任法中歸責(zé)原則變遷之解析[J].環(huán)球法律評論,2008,(1):108.。除此之外采取同樣歸責(zé)原則的還包括我國在內(nèi)的大部分國家。嚴格責(zé)任以保護弱勢的受損害者為主要理念,其存在的價值基礎(chǔ)在于:第一,公平。過錯責(zé)任建立在原被告雙方風(fēng)險具有相互性的基礎(chǔ)之上,而在產(chǎn)品責(zé)任中開發(fā)者能源源不斷地因缺陷產(chǎn)品獲得利益,打破了上述風(fēng)險基礎(chǔ),因受害者不能證明開發(fā)者過錯而使其免于承擔(dān)責(zé)任有違公平;第二,安全。嚴格責(zé)任促使開發(fā)者設(shè)計和制造更加安全的產(chǎn)品,從而降低對生命和健康損害的可能性已經(jīng)成為學(xué)界和社會的共識;第三,損害轉(zhuǎn)嫁原則。嚴格責(zé)任下的開發(fā)者能夠?qū)⑺柝摀?dān)的責(zé)任加入產(chǎn)品的成本之中,由此而由所有消費者分攤該損害代價。

作為此消彼長的相互關(guān)系,過錯責(zé)任與嚴格責(zé)任在設(shè)計缺陷上的爭議與膠著使算法設(shè)計缺陷的歸責(zé)原則成為難題。一方面,人工智能算法作為科技創(chuàng)新的最前沿領(lǐng)域,尤其符合上述適用過錯責(zé)任的理由;而另一方面,人工智能正值進入市場之初,人類對于新科技的不信任和恐懼尚在峰值,正如嚴格責(zé)任的產(chǎn)生離不開工業(yè)發(fā)展,新出現(xiàn)的人工智能算法似乎更需要嚴格責(zé)任予以保駕護航。然而兩者比較之下,筆者認為算法設(shè)計缺陷更宜適用過錯責(zé)任。主要理由在于:

首先,算法缺陷與其他設(shè)計缺陷不同,其責(zé)任的承擔(dān)者為設(shè)計者而非生產(chǎn)者。算法設(shè)計活動是人工智能技術(shù)發(fā)展的核心,是科技創(chuàng)新的靈魂,要求設(shè)計者承擔(dān)無過錯責(zé)任,無異于為人工智能技術(shù)發(fā)展套上沉重腳鐐,縱有萬般設(shè)計思路亦會在付諸實踐之時趑趄不前。而且,通過無過錯責(zé)任促使設(shè)計更加安全的目的在人工智能算法中較難實現(xiàn),因為算法不安全更多的是客觀不能而非主觀不能。人工智能算法設(shè)計作為目前人類最尖端的科技領(lǐng)域之一,其每一次進步和創(chuàng)新都是在人類的認知盲點中摸索,設(shè)計者只能基于當時的研發(fā)水平在現(xiàn)有認知能夠延伸的范圍之內(nèi)進行設(shè)計,類似于很多航空科技的重大進步都以空難為代價(16)郝秀輝,王錫柱.論航空產(chǎn)品責(zé)任的承擔(dān)主體及其歸責(zé)原則[J].北京理工大學(xué)學(xué)報(社會科學(xué)版),2016,(1):122.,人工智能算法在發(fā)生損害之前,其可能存在的威脅亦很難被設(shè)計者所識別。

其次,讓設(shè)計者承擔(dān)無過錯責(zé)任在一定程度上有違風(fēng)險收益均衡原則。相對于生產(chǎn)者能從每一件人工智能產(chǎn)品的制造和銷售中獲利,設(shè)計者收入相對固定,其依靠設(shè)計的智力勞動獲得報酬。因此即使人工智能產(chǎn)品的產(chǎn)量和銷量在不斷增加,算法設(shè)計者的邊際收益變化也不會如生產(chǎn)者明顯,甚至可能為零,但由人工智能算法所帶來的風(fēng)險和損害事故將會隨著人工智能產(chǎn)量和銷量的增長而增長。算法設(shè)計者的邊際風(fēng)險呈現(xiàn)出的是與其邊際收益完全不符的變化態(tài)勢,讓設(shè)計者承擔(dān)無過錯責(zé)任對其有失公允,不符合風(fēng)險收益均衡的原則。

再次,即使對算法設(shè)計缺陷適用無過錯責(zé)任原則,其責(zé)任亦極大可能因開發(fā)風(fēng)險抗辯而免除。無論歐盟還是我國在構(gòu)建產(chǎn)品缺陷的嚴格責(zé)任時,均認為“將產(chǎn)品投入流通時科學(xué)技術(shù)水平尚不能發(fā)現(xiàn)缺陷存在”情形是行為人的免責(zé)事由之一(17)分別規(guī)定于《歐共體產(chǎn)品責(zé)任指令》第7條e項和我國《產(chǎn)品質(zhì)量法》第41條第2款。。然而,該開發(fā)風(fēng)險抗辯有可能在人工智能算法設(shè)計缺陷的追責(zé)中被濫用,原因依然在于人工智能算法設(shè)計的尖端科技屬性,使該免責(zé)事由的適用可能會出現(xiàn)只能由算法設(shè)計者自身做自身缺陷的裁判者,而且使用的標準還是被評判的人工智能本身的矛盾情形,導(dǎo)致大部分人工智能算法設(shè)計缺陷都得以免責(zé),無過錯責(zé)任的規(guī)定或?qū)⑿瓮撛O(shè),無法達到應(yīng)有的立法目的。

綜上所述,算法設(shè)計缺陷適用過錯責(zé)任歸責(zé)原則更加符合人工智能算法本身的特征。至于因適用過錯責(zé)任可能導(dǎo)致的受害者損害填補不能問題,可以通過其他方式予以緩解或解決,如強制責(zé)任保險制度或人工智能算法系統(tǒng)使用協(xié)議等,使受害人損害由保險公司或合同責(zé)任主體合理分攤。

三、數(shù)據(jù)提供者責(zé)任

數(shù)據(jù)提供責(zé)任對于我國法律乃至比較法上任何一部法律來說,都是一個近幾年才出現(xiàn)并被關(guān)注的全新責(zé)任類型。大數(shù)據(jù)、大計算能力以及人工智能算法三者的結(jié)合,使數(shù)據(jù)對人類的影響能力大幅提升,宛如一個人品性的好壞很大程度取決于其所接受的教育,數(shù)據(jù)對于人工智能算法來說,就是其被培訓(xùn)教育時所使用的素材或知識。因此,數(shù)據(jù)背后的主體——數(shù)據(jù)提供者成為了可能影響人工智能侵權(quán)的責(zé)任主體之一。

(一)數(shù)據(jù)提供者的界定

目前立法和學(xué)界對于數(shù)據(jù)提供者的名稱、內(nèi)涵和外延規(guī)定均不一致。

自從我國《民法典》在“隱私權(quán)和個人信息保護”中使用了“信息處理者”稱呼后,我國法律開始沿用此概念。2021年11月起施行的《個人信息保護法》是我國目前在數(shù)據(jù)保護領(lǐng)域規(guī)定最為詳實的單行法,但兩部法律均未對“信息處理者”作出明確界定,僅規(guī)定個人信息的處理包括“個人信息的收集、存儲、使用、加工、傳輸、提供和公開等”。國內(nèi)有研究者使用“數(shù)據(jù)服務(wù)提供者”概念,稱數(shù)據(jù)服務(wù)作為大數(shù)據(jù)時代的一種新型服務(wù)形態(tài),是指“市場主體基于用戶對特定信息資訊的需求,為其提供相關(guān)數(shù)據(jù)的服務(wù)”。并主張數(shù)據(jù)服務(wù)提供者具有數(shù)據(jù)質(zhì)量瑕疵擔(dān)保責(zé)任(18)齊英程.數(shù)據(jù)服務(wù)提供者的質(zhì)量瑕疵擔(dān)保責(zé)任研究[J].大連理工大學(xué)學(xué)報(社會科學(xué)版),2022,(6):76.。有研究者則使用“外部數(shù)據(jù)供給”:“數(shù)據(jù)供給的質(zhì)量和充足程度決定了人工智能算法在單位時間內(nèi)迭代的次數(shù)和質(zhì)量”,是一種“新興的社會力量”(19)王德夫.論人工智能算法的法律屬性和治理路徑[J].武漢大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2021,(5):29.。

歐盟《一般數(shù)據(jù)保護條例》(GDPR)使用的名稱為“數(shù)據(jù)控制者”和“數(shù)據(jù)處理者”,根據(jù)條例第4條的定義,“數(shù)據(jù)控制者”是指能夠“單獨或共同決定個人數(shù)據(jù)的處理目的和方式的自然人、法人、公共機構(gòu)、行政機關(guān)或其他實體”;“數(shù)據(jù)處理者”則是指“為控制者處理個人數(shù)據(jù)的自然人、法人、公共機構(gòu)、行政機關(guān)或其他實體”。英國教授維克托·邁爾·舍恩伯格(Viktor Mayer-Sch?nberger)在其暢銷著作《大數(shù)據(jù)時代》中將數(shù)據(jù)提供者稱為大數(shù)據(jù)公司,并將大數(shù)據(jù)公司分為三種類型:第一,基于數(shù)據(jù)本身的公司。這種公司擁有大量數(shù)據(jù)或可以收集大量數(shù)據(jù),卻不一定擁有提取數(shù)據(jù)價值的能力,如美國Twitter;第二,基于技能的公司。通常為技術(shù)供應(yīng)公司、咨詢公司或分析公司等,雖然不一定擁有數(shù)據(jù),但具備分析、處理和抓取數(shù)據(jù)價值并提供決策的技能,如天睿公司(Teradata)為Pop-Tarts和沃爾瑪分析零售數(shù)據(jù)并提供營銷策略;第三,基于思維的公司。雖然不一定具備數(shù)據(jù)分析和處理技能,但能創(chuàng)新性地策劃出數(shù)據(jù)利用新方式以挖掘數(shù)據(jù)的潛在價值,如Jetpac的聯(lián)合創(chuàng)始人皮特(Pete Warden)通過用戶分享的旅行照片數(shù)據(jù)來為人們推薦旅行目的地。也有一些公司以上三種能力均具備,如谷歌和亞馬遜等“大數(shù)據(jù)先鋒”(20)[英]維克托·邁爾·舍恩伯格,肯尼思·庫克耶.大數(shù)據(jù)時代:生活、工作與思維的大變革[M].盛楊燕,周濤譯.杭州:浙江人民出版社(第一版),2013.。

雖然上述立法或觀點各有千秋,但仍然能達成一定共識:盡管數(shù)據(jù)的源頭無不來自于網(wǎng)絡(luò)社會中的參與者,但數(shù)據(jù)收集者、處理者、運營者等主體才是數(shù)據(jù)提供者。每一位網(wǎng)絡(luò)參與者雖然是數(shù)據(jù)來源之所在,但他們并沒有將數(shù)據(jù)進行再利用的意思表示,因此無論所產(chǎn)生的數(shù)據(jù)之好壞,都不具備被追責(zé)的法理基礎(chǔ);相反,由于帶有他們個人標記的數(shù)據(jù)被大量收集和利用,數(shù)據(jù)源頭者反而可能成為受害者而向數(shù)據(jù)提供者追責(zé)。

侵權(quán)法意義上的“數(shù)據(jù)提供者”應(yīng)當是能夠控制數(shù)據(jù)質(zhì)量和交易的人,只有具有該權(quán)能才能對數(shù)據(jù)侵權(quán)產(chǎn)生實質(zhì)性的影響。維克托教授對于“大數(shù)據(jù)企業(yè)”的分類實際上將數(shù)據(jù)提供者的范圍做了擴大化解釋,思維公司與技術(shù)公司中利用數(shù)據(jù)決策部分本質(zhì)上不會對數(shù)據(jù)本身產(chǎn)生影響,而是為數(shù)據(jù)利用提供一種方法,其與人工智能技術(shù)結(jié)合即變成了人工智能算法系統(tǒng),因此稱之為算法設(shè)計者更為妥當。而基于數(shù)據(jù)本身的公司和技術(shù)公司中的處理數(shù)據(jù)部分能實質(zhì)性地影響數(shù)據(jù)質(zhì)量,決定數(shù)據(jù)走向,才構(gòu)成侵權(quán)法意義上的“數(shù)據(jù)提供者”。由此看來歐盟GDPR關(guān)于“數(shù)據(jù)控制者”和“數(shù)據(jù)處理者”以及我國《民法典》《個人信息保護法》關(guān)于“信息處理者”的規(guī)定更加符合數(shù)據(jù)提供者的本質(zhì)。

而我國法律中的“信息處理者”概念并不能完全契合人工智能侵權(quán)的歸責(zé)主體需要,主要基于以下三個方面的原因:第一,我國法律之所以使用“個人信息”而非“個人數(shù)據(jù)”是因為“信息”涵蓋除電子方式記錄之外的其他方式所記錄的信息(21)見《個人信息保護法》第4條。,而對人工智能產(chǎn)生影響的信息必然需要電子記錄形式,因此在本文使用“數(shù)據(jù)”而非“信息”更為準確;第二,除了個人數(shù)據(jù)之外,企業(yè)數(shù)據(jù)亦是人工智能運行的重要數(shù)據(jù)來源之一。雖然企業(yè)數(shù)據(jù)與個人數(shù)據(jù)息息相關(guān),但當數(shù)據(jù)不再具有可識別性時,數(shù)據(jù)將喪失個人數(shù)據(jù)屬性,而且還有部分數(shù)據(jù)從最初就與個人數(shù)據(jù)無關(guān),而我國的“信息處理者”外延并不能涵蓋對該部分數(shù)據(jù)的處理;第三,隨著數(shù)據(jù)產(chǎn)業(yè)的深入發(fā)展,數(shù)據(jù)主體已逐步實現(xiàn)精細化分工,市場開始出現(xiàn)諸多專門的數(shù)據(jù)公司,數(shù)據(jù)處理者、控制者等主體或已實現(xiàn)剝離,不再為同一主體(22)例如全球金融數(shù)據(jù)提供商之一路孚特公司(Refinitiv)最近提供一款公司數(shù)據(jù)產(chǎn)品,該產(chǎn)品是涵蓋全球99%市場總值的公司數(shù)據(jù)的集大成者,該數(shù)據(jù)產(chǎn)品可用于人工智能并由其作出投資決策,路孚特公司通過提供該數(shù)據(jù)產(chǎn)品獲取收益。https://www.refinitiv.cn/zh/financial-data/company-data?utm_content=CompanyData-APAC-BU-MAN_Baidu&utm_medium=cpc&utm_source=Baidu&utm_campaign=434512_PaidSearchZHBaidu&elqCampaignId=13802&utm_term=%25E5%2585%25AC%25E5%258F%25B8%25E6%2595%25B0%25E6%258D%25AE&gclid=CN2g4bKvsvUCFWBBwgUdoqIIOQ&gclsrc=ds(訪問時間2022年1月15日),而人工智能侵權(quán)的歸責(zé)主體應(yīng)當為對數(shù)據(jù)具有控制能力并最終提供給人工智能的數(shù)據(jù)主體,因此我國“信息處理者”概念在本文并不具有最優(yōu)性。

值得注意的是,雖然歐盟GDPR認為數(shù)據(jù)處理者的行為是在數(shù)據(jù)控制者的指示或授權(quán)下所作出,并以將成果返還給控制者為目的,按照法理,所產(chǎn)生的數(shù)據(jù)侵權(quán)責(zé)任應(yīng)當由數(shù)據(jù)控制者承擔(dān),但其在第82條“享有賠償?shù)臋?quán)利和責(zé)任”條文中所規(guī)定的責(zé)任主體并非完全為控制者這么簡單:處理者在未遵守GDPR其他條款,或超出、違背控制者合法指令的情形下應(yīng)對其侵權(quán)損害承擔(dān)責(zé)任;若控制者和處理者兩者均參與同一項處理的,為了確保對數(shù)據(jù)主體的賠償,兩者對外均應(yīng)對全部損害承擔(dān)責(zé)任。由此可見,GDPR雖然承認控制者應(yīng)對其控制的所有行為承擔(dān)責(zé)任,但同時為了確保受害人獲得損害賠償,以及行為人處理數(shù)據(jù)的規(guī)范性,GDPR又盡可能地將處理者納入數(shù)據(jù)責(zé)任主體的范疇,值得我國進行適當學(xué)習(xí)和借鑒。

綜上所述,數(shù)據(jù)提供者是指以盈利為目的,以收集、處理、存儲、管理和運營數(shù)據(jù)為手段,為人工智能算法提供數(shù)據(jù)信息資產(chǎn)的主體。數(shù)據(jù)提供者可因收集、處理、存儲等事項的不同而涉及多方主體,一般情形下,因數(shù)據(jù)缺陷導(dǎo)致人工智能侵權(quán)的對外責(zé)任承擔(dān)者應(yīng)當是最終提供給人工智能的數(shù)據(jù)控制者,但當其他主體超出或違背數(shù)據(jù)控制者的合法指令,或者未遵守數(shù)據(jù)相關(guān)權(quán)利保護規(guī)范導(dǎo)致數(shù)據(jù)存在缺陷的,亦應(yīng)當對其引起的侵權(quán)損害承擔(dān)賠償責(zé)任。此外,完全未經(jīng)授權(quán)以更改、增加或減少數(shù)據(jù)的方式使人工智能侵權(quán)的第三人,亦應(yīng)按照數(shù)據(jù)提供者責(zé)任的規(guī)定承擔(dān)侵權(quán)責(zé)任。

(二)數(shù)據(jù)提供責(zé)任與產(chǎn)品責(zé)任的關(guān)系

對于人工智能產(chǎn)品而言,數(shù)據(jù)作為產(chǎn)品的一部分起著不可或缺的作用。其具有與人工智能產(chǎn)品其他組成部分一樣的共同點:數(shù)據(jù)在產(chǎn)品被設(shè)計開發(fā)或制造時被嵌入,在銷售時已然存在。然而,其又存在與其他組成部分完全不同的特性:數(shù)據(jù)處于時刻變化和更新的過程之中。由數(shù)據(jù)引起的侵權(quán)責(zé)任是否應(yīng)當納入產(chǎn)品責(zé)任成為首先需要解決的問題。

在銷售以后還能夠持續(xù)改變或更新的產(chǎn)品中,人工智能并非先例,最為典型的就是智能手機系統(tǒng)的升級以及各種軟件的更新。立法并沒有對這些更新部分的侵權(quán)責(zé)任作出調(diào)整,依然由生產(chǎn)者和銷售者按照現(xiàn)有法律承擔(dān)產(chǎn)品責(zé)任。即便如此,筆者仍然認為由數(shù)據(jù)導(dǎo)致的人工智能侵權(quán)責(zé)任宜由數(shù)據(jù)提供者而非產(chǎn)品責(zé)任主體承擔(dān),理由如下:

首先,人工智能數(shù)據(jù)相較于人工智能產(chǎn)品其他部分來說具有相當?shù)莫毩⑿?。對于智能手機或軟件而言,可更新的系統(tǒng)和軟件是產(chǎn)品的核心,構(gòu)成了產(chǎn)品的最主要組成部分,缺少這些部分的“產(chǎn)品”還不可謂為完整產(chǎn)品;而人工智能數(shù)據(jù)雖然重要,但對于人工智能產(chǎn)品的創(chuàng)造而言具有相當?shù)莫毩⑿?且很多由生產(chǎn)者之外的其他主體供應(yīng)。其次,人工智能數(shù)據(jù)的變化和更新極其必要且非常頻繁,人工智能對數(shù)據(jù)變動的依賴性強,一件人工智能產(chǎn)品的數(shù)據(jù)或許在消費者購買第二天就已經(jīng)與購買時的數(shù)據(jù)完全不同。相對于人工智能數(shù)據(jù),智能手機系統(tǒng)或軟件的更新較為緩慢,而且一般處于可更或不更的可選擇情形;而大部分人工智能運轉(zhuǎn)必須依靠不斷變化的實時大數(shù)據(jù),沒有數(shù)據(jù)更新,人工智能算法將失去靈魂。再次,人工智能的自主學(xué)習(xí)能力使數(shù)據(jù)影響力巨大。人工智能具有自主學(xué)習(xí)從而自我改變的能力,這種能力使即使是算法設(shè)計者亦無法知曉或預(yù)測算法結(jié)果,其很大程度上取決于算法所學(xué)習(xí)的數(shù)據(jù)。因此當人工智能輸出因數(shù)據(jù)缺陷而脫離生產(chǎn)者和設(shè)計者創(chuàng)造產(chǎn)品的初衷時,讓生產(chǎn)者或設(shè)計者為數(shù)據(jù)所造成的侵權(quán)承擔(dān)責(zé)任將有失公允。

(三)數(shù)據(jù)提供者責(zé)任的歸責(zé)原則

我國關(guān)于數(shù)據(jù)責(zé)任的歸責(zé)原則規(guī)定于《個人信息保護法》第69條,采取過錯推定責(zé)任原則,由個人信息處理者證明自己不存在過錯(23)《個人信息保護法》第69條:處理個人信息侵害個人信息權(quán)益造成損害,個人信息處理者不能證明自己沒有過錯的,應(yīng)當承擔(dān)損害賠償?shù)惹謾?quán)責(zé)任。。歐盟GDPR沒有關(guān)于歸責(zé)原則的明確適用指引,其“享有賠償?shù)臋?quán)利和責(zé)任”條文(第82條)第3款只是較為模糊地規(guī)定“控制者或處理者若能夠證明其對引起損害的事件沒有任何責(zé)任,則免于承擔(dān)責(zé)任”。因此有學(xué)者認為GDPR“對于過錯問題有意保持開放,將其交由各成員國立法者自行安排”(24)BeckOK Datenschutzrecht,BDSG 2018,24.Edition,01.08.2017,Wolff/Brink,§83,Rn.19.。但也有學(xué)者基于GDPR第5條第2款的規(guī)定“控制者應(yīng)該遵守本條第一款(‘合法性、公平性和透明性’‘目的限制’‘數(shù)據(jù)最小化’‘準確性’等),并能夠證明之。”,認為數(shù)據(jù)控制者所適用的是過錯推定責(zé)任原則(25)陳吉棟.個人信息的侵權(quán)救濟[J].交大法學(xué),2019,(4):50.。2018年德國頒布《聯(lián)邦數(shù)據(jù)保護法》,其中第83條規(guī)定:控制人處理他人數(shù)據(jù)違反本法或其他可適用之法,導(dǎo)致?lián)p害的負有損害賠償義務(wù);在非自動化數(shù)據(jù)處理場合,若損害不可歸因于控制人過錯,則可免除賠償責(zé)任。由此可見德國區(qū)分是否采取自動化數(shù)據(jù)處理技術(shù),若采取該技術(shù)適用的是無過錯責(zé)任,若未采取則適用過錯推定。我國臺灣地區(qū)的《個人資料保護法》則區(qū)分公務(wù)機關(guān)與非公務(wù)機關(guān),對于非公務(wù)機關(guān)主體違反本法造成信息主體損害的,負擔(dān)過錯推定責(zé)任。

各國家或地區(qū)立法在規(guī)定數(shù)據(jù)侵權(quán)的歸責(zé)原則時均開始傾向于構(gòu)建多元歸責(zé)體系,學(xué)理研究亦不例外。葉名怡教授認為應(yīng)當采取三元歸責(zé):公務(wù)機關(guān)使用自動化數(shù)據(jù)處理技術(shù)的適用無過錯責(zé)任,非公務(wù)機關(guān)使用自動化數(shù)據(jù)處理技術(shù)的適用過錯推定責(zé)任,未使用自動化數(shù)據(jù)處理技術(shù)的主體則適用一般過錯責(zé)任(26)葉名怡.個人信息的侵權(quán)法保護[J].法學(xué)研究,2018,(4):93-95.。還有學(xué)者則認為應(yīng)當構(gòu)建二元歸責(zé)體系:對于采用自動數(shù)據(jù)處理技術(shù)的主體適用過錯推定責(zé)任,而未使用自動數(shù)據(jù)處理技術(shù)的主體則適用一般過錯責(zé)任(27)陳吉棟.個人信息的侵權(quán)救濟[J].交大法學(xué),2019,(4):51.。

無論立法還是學(xué)界,都傾向于將是否采用自動化數(shù)據(jù)處理或是否為公務(wù)機關(guān)作為歸責(zé)原則體系建構(gòu)的關(guān)鍵考量因素。筆者認為,相對于自動化數(shù)據(jù)處理技術(shù)而言,公務(wù)機關(guān)身份對數(shù)據(jù)的影響小得多,不足以為此構(gòu)建不同的歸責(zé)原則。誠然,擁有公權(quán)力的公務(wù)機關(guān)在收集、挖掘數(shù)據(jù)等行為上具有行使便利性,但隨著政府信息的公開共享,企業(yè)之間因技術(shù)競爭所形成的不斷增強自身自動化數(shù)據(jù)處理技術(shù)的內(nèi)在驅(qū)動力,公務(wù)機關(guān)的數(shù)據(jù)分析、處理和控制能力并不必然高于某些企業(yè),甚至某些行業(yè)巨頭的自動化處理技術(shù)引領(lǐng)全球產(chǎn)業(yè)發(fā)展方向;而對于民事主體敏感,但因公務(wù)處理需要而不得不向公務(wù)機關(guān)披露的信息,其亦在法律上具有與普通信息不同的保護措施。因此僅就向人工智能提供數(shù)據(jù)而言,公務(wù)機關(guān)并無適用更高歸責(zé)原則之必要,至于公務(wù)機關(guān)應(yīng)用人工智能輔助決策或直接決策的行為,與這里的數(shù)據(jù)提供行為完全不同,將在下部分予以詳述。

以自動化數(shù)據(jù)處理技術(shù)作為數(shù)據(jù)責(zé)任二元歸責(zé)體系的分界點具有相當?shù)目茖W(xué)性。自動化數(shù)據(jù)處理是指依據(jù)計算機自動化裝置或系統(tǒng),在沒有人類直接參與的情況下對數(shù)據(jù)進行采集、存儲、加工、檢索、傳輸和變換等過程。廣義的自動化數(shù)據(jù)處理還包括“自動化決策”,即人工智能算法經(jīng)運行后輸出結(jié)果。由于本部分只討論數(shù)據(jù)提供者責(zé)任,因此此處所述“自動化數(shù)據(jù)處理”限于為給人工智能提供源源不斷大量數(shù)據(jù)而對數(shù)據(jù)進行的自動化處理。自動化數(shù)據(jù)處理技術(shù)能夠給人類帶來“自動化危險”,由于技術(shù)壁壘的阻礙,局外人幾乎難以追溯數(shù)據(jù)在自動化處理過程中的復(fù)雜工序,苛以受害人對數(shù)據(jù)提供者過錯的證明義務(wù)或?qū)⒊霈F(xiàn)大量舉證不能情形,而技術(shù)永久存儲、即刻檢索和調(diào)取的能力卻使行為人具有舉證的天然優(yōu)勢。在非自動化數(shù)據(jù)處理的情況下,技術(shù)帶來的上述風(fēng)險并不存在,原被告之間的訴訟能力和舉證能力并無較大差異,無需進行特殊規(guī)制之必要,宜采用一般過錯責(zé)任原則。不過,鑒于大數(shù)據(jù)技術(shù)在實踐中的廣泛應(yīng)用以及受害者舉證能力的欠缺,宜事先推定所有數(shù)據(jù)處理均為采用自動化技術(shù)。

采用自動化數(shù)據(jù)處理技術(shù)的數(shù)據(jù)提供者宜適用過錯推定責(zé)任原則而非無過錯責(zé)任原則,理由主要有二:第一,數(shù)據(jù)保護法興起的目的是為了遏制近幾年數(shù)據(jù)控制者對個體數(shù)據(jù)權(quán)利毫無規(guī)制的利用和侵犯,以達到對數(shù)據(jù)“合理”使用的目的。由于個體亦能從自動化數(shù)據(jù)處理中獲得一定利益,因此實際上社會對數(shù)據(jù)處理具有一定的容忍度,只要未超出合理的注意義務(wù)即可,并無建立無過錯責(zé)任的必要;第二,現(xiàn)有科技水平仍然處在大數(shù)據(jù)技術(shù)發(fā)展的初步上升期,適用無過錯責(zé)任將極大增加數(shù)據(jù)提供者的責(zé)任,并不利于科技產(chǎn)業(yè)的進一步發(fā)展。

四、算法應(yīng)用平臺責(zé)任

(一)算法應(yīng)用平臺的界定

對于大部分以電磁形式存在于虛擬空間的智能系統(tǒng)來說,在銷售者和終端用戶之間往往存在另一主體——算法應(yīng)用平臺。該類人工智能由于缺乏有體的物質(zhì)實體形式,因此大多需要在虛擬或現(xiàn)實空間中尋找能夠承載其運行和效用發(fā)揮的平臺,以服務(wù)終端用戶或為平臺控制者服務(wù)。常見的淘寶、百度等應(yīng)用均是典型的算法應(yīng)用平臺。除線上平臺之外,亦不乏應(yīng)用算法進行輔助決策或直接決策的線下平臺,如政府使用算法輔助判斷其行政相對人的申請是否應(yīng)當獲得批準。由此可見,算法應(yīng)用平臺是指為提供服務(wù)或完成某一任務(wù),對聚集在平臺上的用戶或相關(guān)主體應(yīng)用人工智能算法系統(tǒng),并使系統(tǒng)運行后的結(jié)果對用戶或相關(guān)主體的權(quán)益產(chǎn)生影響的線上或線下主體。

算法應(yīng)用平臺具有如下特征:第一,平臺自身不受算法結(jié)果的直接制約。雖然平臺是算法系統(tǒng)的應(yīng)用者,但是平臺所有者或經(jīng)營者不是算法的終端用戶和目標人群,應(yīng)用平臺的目標在于將算法作用于該平臺上的用戶,使平臺用戶受到算法結(jié)果的直接影響和制約;第二,算法應(yīng)用平臺往往具有用戶量大,影響范圍廣的特點。平臺上用戶會受到平臺所使用的人工智能算法的影響,其在很大程度上擴大了算法的作用范圍。

根據(jù)不同標準,算法應(yīng)用平臺可以進行不同的分類,并對責(zé)任承擔(dān)產(chǎn)生不同影響。首先,根據(jù)平臺控制者是否兼具算法系統(tǒng)開發(fā)者身份,可以區(qū)別出應(yīng)用平臺是否會發(fā)生責(zé)任的競合:

有些應(yīng)用軟件既為算法提供應(yīng)用平臺,又作為一個整體產(chǎn)品提供給消費者,而且平臺控制者和算法系統(tǒng)開發(fā)者為同一主體,如淘寶、新浪微博和百度等行業(yè)巨頭。因此當因產(chǎn)品缺陷造成智能系統(tǒng)侵權(quán)時,往往會發(fā)生應(yīng)用平臺責(zé)任和產(chǎn)品責(zé)任的競合。但應(yīng)用平臺責(zé)任仍然有其存在的意義:對于不是由算法設(shè)計缺陷造成的人工智能侵權(quán),如本應(yīng)由算法輸出的微博熱搜常常被詬病具有人為操控,此時并不能適用產(chǎn)品責(zé)任歸責(zé),需要應(yīng)用平臺責(zé)任對該行為所造成的侵權(quán)損害進行救濟。

并不是所有應(yīng)用平臺的控制者和開發(fā)者均屬同一主體,有些應(yīng)用尤其是在公務(wù)機關(guān)、事業(yè)單位或其他非營利性組織下所控制的應(yīng)用,往往會出現(xiàn)應(yīng)用平臺控制者與開發(fā)者的分離,這時將不再發(fā)生責(zé)任競合。其中有些應(yīng)用也會直接提供給消費者,如普通個體能夠下載的帶有人工智能算法的政務(wù)功能APP;還有一部分算法系統(tǒng)被設(shè)計開發(fā)或生產(chǎn)之后并不直接銷售給終端用戶,而是由應(yīng)用平臺購買,應(yīng)用平臺控制者利用該算法對目標人群進行排序、預(yù)測等以實現(xiàn)其特定目的。如某企業(yè)購買“人事管理算法”對應(yīng)聘該企業(yè)的人員進行篩選,對在職員工升遷去留進行考核;銀行購買“信用管理算法”以決定是否通過特定個人所申請的貸款;法院購買“累犯預(yù)測算法”以輔助決策某被告人的量刑。

其次,根據(jù)平臺控制者是否為公務(wù)機關(guān)主體,將算法應(yīng)用平臺區(qū)分為公務(wù)機關(guān)平臺和非公務(wù)機關(guān)平臺。公務(wù)機關(guān)作為國家職權(quán)的行使者,其使用智能系統(tǒng)意味著國家職權(quán)的行使方式將一定程度受到科技的制約。由于公務(wù)機關(guān)的公共屬性,其相對人并不能像非公務(wù)機關(guān)平臺用戶一樣具有可選擇性,因此,社會對公務(wù)機關(guān)算法平臺輸出結(jié)果的正確性具有更高期待。一旦公務(wù)機關(guān)所控制的算法對相對人造成侵權(quán),是否應(yīng)當承擔(dān)比其他算法平臺更加嚴格的侵權(quán)責(zé)任值得進一步的探討。

(二)算法應(yīng)用平臺責(zé)任的歸責(zé)原則

平臺是將算法系統(tǒng)與用戶連接起來的紐帶,是算法運行和輸出結(jié)果的承載地,亦是算法侵權(quán)行為的發(fā)生之所。因此平臺應(yīng)當對算法結(jié)果承擔(dān)一定的注意義務(wù),一旦發(fā)生算法侵權(quán)損害,將平臺作為可能的侵權(quán)責(zé)任主體之一進行追責(zé)考量,具有充分的法理基礎(chǔ)?,F(xiàn)有立法也開始明確算法應(yīng)用平臺的義務(wù)和責(zé)任:

2019年4月,美國參議院、眾議院兩院提出《2019年算法問責(zé)法案》(Algorithmic Accountability Act of 2019),其所規(guī)定的監(jiān)管問責(zé)對象之一“擁有用戶數(shù)或控制的終端數(shù)超過100萬的企業(yè)、合伙和個人”直指算法應(yīng)用平臺。我國亦不例外,2018年出臺的《電子商務(wù)法》第18條規(guī)定電商平臺推薦算法搜索結(jié)果時,應(yīng)當同時提供不針對特定個人的選項,第40條規(guī)定平臺應(yīng)以多種方式規(guī)定搜索結(jié)果并顯著表明廣告,被學(xué)者稱之為“實質(zhì)上首次明確了對網(wǎng)絡(luò)交易平臺日常運行中算法的監(jiān)督”(28)張凌寒.《電子商務(wù)法》中的算法責(zé)任及其完善[J].北京航空航天大學(xué)學(xué)報,2018,(6).,但該法律只規(guī)定了違反以上義務(wù)的行政責(zé)任而缺乏民事救濟路徑,實屬規(guī)范之局限。2021年12月底,我國國家網(wǎng)信辦等四部門聯(lián)合出臺的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》于2022年3月實施,該規(guī)定以“算法推薦服務(wù)提供者”為對象,對算法服務(wù)行為首次進行了專門性地全面化規(guī)制,在人工智能算法監(jiān)管中具有重要意義。作為一部部門規(guī)章,其以行政責(zé)任為主,但亦在第三章“用戶權(quán)益保護”中提及對用戶的“相應(yīng)責(zé)任”。

然而,算法應(yīng)用平臺的法律義務(wù)和責(zé)任依然還不夠具體完善,加上平臺相對于其他侵權(quán)主體在侵權(quán)責(zé)任中極具明顯之位置,使得實踐中開始出現(xiàn)對平臺過分追責(zé)的現(xiàn)象。平臺不僅成為算法侵權(quán)發(fā)生后最先被追責(zé)的主體,往往也是唯一被追責(zé)的主體。這種傾向既體現(xiàn)在行政規(guī)則和執(zhí)法中,也體現(xiàn)在學(xué)界觀點及司法實踐中:如2016年我國國家互聯(lián)網(wǎng)信息辦公室明確提出對平臺服務(wù)提供者責(zé)任的強化(29)我國國家互聯(lián)網(wǎng)信息辦公室認為:“平臺對于第三方提供的內(nèi)容,能夠證明盡到合理注意義務(wù)的可少負或不負責(zé)任”的歸責(zé)理念已經(jīng)逐漸發(fā)生了變化,平臺服務(wù)提供者不僅需要對自己發(fā)布的內(nèi)容負責(zé),對于第三方提供的內(nèi)容,在有些情況下也需要負完全的責(zé)任。參見中華人民共和國國家互聯(lián)網(wǎng)信息辦公室官網(wǎng).強化網(wǎng)站主體責(zé)任正當其時[EB/OL].(2016-12-22)[2019-11-14].http://www.cac.gov.cn/2016-12/22/c_1120166441.htm.;上文提及的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》對算法推薦服務(wù)提供者加以大量義務(wù)及責(zé)任,這些義務(wù)本需要算法應(yīng)用平臺、算法設(shè)計者和數(shù)據(jù)提供者等多方主體共同履行,但由于《規(guī)定》并沒有對“算法推薦服務(wù)提供者”予以明確,因此該主體首當其沖指向了算法應(yīng)用平臺;再如學(xué)界將美國《統(tǒng)一計算機信息交易法案》(The Uniform Computer Information Transactions Act)中的“電子代理”(30)該法案第2條第6款:“電子代理”系指非經(jīng)人的行為或?qū)徍?全部或部分獨立發(fā)起某種行為或應(yīng)對電子記錄或履行的計算機程序、電子手段或其他自動化手段。(算法所實施的行為)解讀為“運營商對外延伸獲取信息的長臂”(31)Chopra,S.& L.F.White.A Legal Theory for Autonomous Artificial Agents[M].Ann Arbor University of Michigan Press,2011:6.,其幫助和代替運營商進行分析判斷,因此雖然電子代理的被代理人為平臺上的客戶,但電子代理人行為應(yīng)歸責(zé)于運營商而非被代理人(32)高絲敏.智能投資顧問模式中的主體識別和義務(wù)設(shè)定[J].法學(xué)研究,2018,(5):49.。此處的運營商即是本文所表達的算法應(yīng)用平臺;2012年澳大利亞音樂人邁克(Michael Trkulja)因谷歌的搜索自動補足算法將其名字與謀殺聯(lián)系在一起而起訴谷歌獲得勝訴,理由在于谷歌為信息緩存與發(fā)布者(33)Sottek,T.C.Google Loses Australian Defamation Case After Court Rules That It Is Accountable as a Publisher[EB/OL].(2012-11-26)[2020-04-26].http://www.theverge.com/2012/11/26/3694908/google-defamation-australia-publisher.。上述觀點和做法的問題在于其表達出一種傾向:算法應(yīng)用平臺之所以承擔(dān)責(zé)任,僅僅只是單純地因為平臺為受害者損害產(chǎn)生的原因或途徑,卻并沒有考慮平臺是否實施了違法行為或是否具有過錯,這無異于絕對責(zé)任的一種表達形式。

算法應(yīng)用平臺并不具備“全能性”,智能算法系統(tǒng)不是能夠被應(yīng)用平臺完全控制的普通工具。不能僅僅因為平臺是損害發(fā)生的原因或渠道就要求其承擔(dān)全部責(zé)任,應(yīng)當通過適度引入過錯責(zé)任和平臺應(yīng)負義務(wù)以限制對算法應(yīng)用平臺的過度追責(zé),充分考慮平臺與其他責(zé)任主體之間的責(zé)任分擔(dān)。有些學(xué)者亦意識到這點,認為應(yīng)建立“風(fēng)險防范下責(zé)任承擔(dān)的雙軌制:平臺責(zé)任與技術(shù)責(zé)任”(34)張凌寒.風(fēng)險防范下算法的監(jiān)管路徑研究[J].交大法學(xué),2018,(4):58.;“面對天馬行空的代碼程序,利用算法提供服務(wù)的運營商和接受算法服務(wù)的消費者同為信息弱勢方?!?35)唐林垚.人工高智能時代的算法規(guī)制:責(zé)任分層與義務(wù)合規(guī)[J].現(xiàn)代法學(xué),2020,(1):201.

就算法應(yīng)用平臺的歸責(zé)原則來說,筆者認為應(yīng)當以是否屬于公務(wù)機關(guān)職務(wù)行為作為標準,建立二元歸責(zé)體系:首先,非公務(wù)機關(guān)算法應(yīng)用平臺宜適用過錯推定責(zé)任。算法雖然在應(yīng)用平臺的管理和“控制”之下,但這種“控制”僅限于決定整個算法的應(yīng)用與否,或?qū)δ硞€個別結(jié)果的刪除,而對于算法內(nèi)部的運行及自動化輸出并不擁有實質(zhì)性的掌控力。平臺利用算法的行為類似于普通經(jīng)營者利用某特定產(chǎn)品幫助經(jīng)營的行為,如美容院利用某光子嫩膚儀為顧客提供美容服務(wù),因該儀器發(fā)生對顧客的侵權(quán)損害,美容院承擔(dān)的是過錯責(zé)任而非嚴格責(zé)任。算法由于具有自主學(xué)習(xí)和自我改變的能力,因此與美容儀器相比,其對于應(yīng)用平臺來說更具不確定性和難掌控性,算法平臺沒有理由承擔(dān)更加嚴格的責(zé)任,其應(yīng)當只需在具有過錯的情形之下才為算法侵權(quán)負責(zé)。但由于算法侵權(quán)的過錯相對于其他侵權(quán)來說更加難以證明,如美容院侵權(quán)極有可能是操作不當?shù)氖韬?而算法平臺侵權(quán)過錯卻具多樣性:或是算法審核時的疏忽,或是指示算法設(shè)計,篡改某個算法結(jié)果的故意等。由于算法內(nèi)部的黑箱屬性,這些過錯在外部看來難以分辨和甄別,并且難以與其他責(zé)任主體的過錯相區(qū)分,因此宜事先推定算法應(yīng)用平臺具有過錯,由其證明自身不存在過錯以免除責(zé)任。

其次,公務(wù)機關(guān)算法應(yīng)用平臺宜適用無過錯責(zé)任。通過賦予公務(wù)機關(guān)嚴格責(zé)任促使其審慎地使用智能算法系統(tǒng),能盡可能地減少權(quán)力的異化風(fēng)險。目前算法已從不同層面嵌入進公權(quán)力的運行,算法借助其構(gòu)建監(jiān)管體系,輔助甚至代替公務(wù)機關(guān)決策,卻缺乏公權(quán)力本身應(yīng)有的規(guī)制,極易造成權(quán)力異化,甚至產(chǎn)生與公權(quán)力合謀的權(quán)力濫用:傳統(tǒng)限制公務(wù)機關(guān)權(quán)力行使的正當程序制度對算法運行過程無效;算法的黑箱性使本應(yīng)公開的公權(quán)力行使缺乏透明度;公務(wù)機關(guān)對算法技術(shù)和外部科技資源依賴的加強極易造成對權(quán)力專屬原則的違背。個體在公務(wù)機關(guān)面前本就處于無法抗衡的弱勢地位,算法的使用實際上強化了公權(quán)力與個體既有力量的強弱差序格局(36)Schmitz,A.J. Secret Consumer Scores and Segmentations[J]. Mich.St.L.Rev.,2014:1411.。因此當發(fā)生算法侵權(quán)時,由公務(wù)機關(guān)承擔(dān)嚴格責(zé)任更加符合其自身的特定地位和職能。此外,相對于非公務(wù)機關(guān)平臺來說,公務(wù)機關(guān)具有財力、物力上的優(yōu)越性,讓其承擔(dān)無過錯責(zé)任無需有像對普通平臺一樣的責(zé)任承擔(dān)過重而負擔(dān)不能,最終影響行業(yè)發(fā)展之擔(dān)憂(37)需要指出的是,由于公務(wù)機關(guān)算法應(yīng)用平臺造成的侵權(quán)問題涉及的是行政法上的國家賠償責(zé)任,因此并不屬于侵權(quán)法意義上的責(zé)任主體。。

值得注意的是,上述歸責(zé)原則并不能影響算法應(yīng)用平臺與其他責(zé)任主體對外責(zé)任的承擔(dān)規(guī)則。對于某些人工智能來說,算法應(yīng)用平臺作為算法設(shè)計缺陷與數(shù)據(jù)提供者侵權(quán)等原因的必要條件,與銷售行為類似:如果沒有算法應(yīng)用平臺的存在,人工智能將失去對其相對人進行作用的空間和舞臺,自然不會有侵權(quán)損害的產(chǎn)生。該情形符合不真正連帶責(zé)任的內(nèi)核,算法應(yīng)用平臺對外宜與直接原因的責(zé)任主體一起承擔(dān)不真正連帶責(zé)任。平臺賠償后有權(quán)向直接原因的責(zé)任主體追償,若平臺自身具有違法行為,則按照上述歸責(zé)原則予以歸責(zé)。

五、結(jié)語

人工智能侵權(quán)往往是多個主體交錯作用的結(jié)果,隨著新興責(zé)任主體的增多,新興主體責(zé)任與傳統(tǒng)主體責(zé)任之間以及新興主體責(zé)任之間的混合將日益頻繁。一般來說人工智能侵權(quán)各責(zé)任主體之間的混合包含下述幾種:一是按份責(zé)任。如算法設(shè)計者設(shè)計具有缺陷與數(shù)據(jù)提供者提供不當數(shù)據(jù)行為之間無意思聯(lián)絡(luò),卻共同造成受害人損害;二是連帶責(zé)任。如某電子商務(wù)平臺欲利用算法“殺熟”功能使自身利益最大化,因而與某智能公司達成以設(shè)計交付一項“殺熟”算法為內(nèi)容的協(xié)議。三是不真正連帶責(zé)任。如上文所述生產(chǎn)者、銷售者和算法設(shè)計者對外承擔(dān)不真正連帶責(zé)任,以及算法應(yīng)用平臺和直接原因責(zé)任人對外承擔(dān)不真正連帶責(zé)任。

除了本文內(nèi)容之外,人工智能侵權(quán)新興責(zé)任主體在構(gòu)成要件、責(zé)任承擔(dān)方式及配套制度等方面均有值得探討的特殊之處,如新興主體的具體違法行為、算法設(shè)計責(zé)任與人類責(zé)任的過錯劃分,某些算法應(yīng)用平臺所涉及的數(shù)量巨大侵權(quán)行為的救濟方式等。受制于篇幅有限,本文只對人工智能新興責(zé)任主體的種類、歸責(zé)原則及其與傳統(tǒng)責(zé)任主體之間的關(guān)系進行了初步探索,未解決的問題將在今后的研究工作中進行更加詳細的探討。

猜你喜歡
設(shè)計者主體人工智能
論自然人破產(chǎn)法的適用主體
2020德國iF設(shè)計獎
2019德國IF設(shè)計大獎
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
關(guān)于遺產(chǎn)保護主體的思考
楊敬:深水區(qū)醫(yī)改設(shè)計者
深水區(qū)醫(yī)改設(shè)計者
恩平市| 博客| 穆棱市| 桂平市| 威信县| 革吉县| 宜宾县| 光山县| 博野县| 乡城县| 嵊州市| 永和县| 合山市| 云和县| 晋城| 视频| 江山市| 天柱县| 吉林省| 纳雍县| 青铜峡市| 永新县| 昆明市| 临洮县| 香港| 高淳县| 略阳县| 特克斯县| 广丰县| 上思县| 松阳县| 突泉县| 墨竹工卡县| 玛沁县| 团风县| 行唐县| 海丰县| 文安县| 商河县| 马关县| 云林县|