許中緣 范沁寧
摘要:人工智能產(chǎn)品相較于普通產(chǎn)品最大區(qū)別在于其自主性,一方面體現(xiàn)在人工智能產(chǎn)品運作方式更具復雜性,它們能夠自主決策與自主行為,處于“感知—分析—行動”模式,其運行過程為“黑箱”操作,難以為人類所探究;另一方面體現(xiàn)在產(chǎn)品侵權的致害主體更具多元性,除了作為傳統(tǒng)產(chǎn)品侵權主體的生產(chǎn)者與銷售者外,還包括研發(fā)者,甚至人工智能產(chǎn)品本身。基于此,當前產(chǎn)品缺陷的司法認定存在困境。一是現(xiàn)有判斷標準在人工智能產(chǎn)品視域下缺乏適應性,由于《產(chǎn)品質量法》中“不合理標準”的抽象性、復雜性與《人工智能標準化白皮書(2018版)》中“技術標準”的應急性、不確定性,現(xiàn)有標準的使用難以解決人工智能產(chǎn)品缺陷的司法認定問題;二是我國現(xiàn)有立法未將產(chǎn)品缺陷進行類型化認定,而僅對產(chǎn)品進行籠統(tǒng)的缺陷判斷,在人工智能這一多元責任主體與多樣未知風險的領域,該種產(chǎn)品缺陷的司法認定模式在適用時更為捉襟見肘。為將人工智能產(chǎn)品缺陷的司法實踐規(guī)范化,在產(chǎn)品責任框架下應將缺陷劃分為設計缺陷、制造缺陷、警示缺陷及跟蹤觀察缺陷,這不僅有利于契合人工智能產(chǎn)品的歸責原則,也與產(chǎn)品侵權責任各要素相對應。人工智能產(chǎn)品缺陷司法認定標準應與有關主體應履行的義務相結合。具體而言,人工智能產(chǎn)品設計缺陷的責任主體為設計研發(fā)者,其應當履行安全保障、性能平衡、全面測試等義務,該缺陷采用“風險—效用”的司法認定規(guī)則。制造缺陷的責任主體為制造者,其應當履行配合設計預期效果與按照設計方案進行制造的義務,該缺陷采用“對預期設計偏離”的司法認定標準。警示缺陷的責任主體為制造者、銷售者,警示義務應當達到警示內(nèi)容的充分性、警示時間的更迭性與警示語言的簡明醒目性等要求,該缺陷采用“合理充分”的司法認定標準。跟蹤觀察缺陷的責任主體為設計研發(fā)者、制造者與銷售者,跟蹤觀察不僅要求暢通產(chǎn)品的反饋渠道,也要積極定期對產(chǎn)品進行監(jiān)察,更要及時對問題產(chǎn)品作出反應,該缺陷采用“個案認定,綜合判斷”的司法認定原則。
關鍵詞:人工智能;產(chǎn)品缺陷;司法認定標準;規(guī)則表達;產(chǎn)品侵權
中圖分類號:D922.294;TP18 文獻標志碼:A 文章編號:1008-5831(2022)01-0257-13
2015年2月,英國首例機器人“達芬奇”心瓣修復手術進行中,不僅把病人的心臟“放錯位置”,還戳穿大動脈血濺攝像頭,致使該患者在術后一周去世。美國2000年至2013年間,在“達芬奇”機器人手術中致死的患者已達144人,其中不乏“機器人短路走火”“零件掉入體內(nèi)”等原因[1]。國內(nèi)近年來也多次出現(xiàn)“達芬奇”手術機器人相關醫(yī)療事故筆者在北大法寶查詢到12份因“達芬奇”手術機器人致?lián)p的醫(yī)療侵權相關判決書,北大法寶網(wǎng),http://www.pkulaw.cn/Case/,2020年6月7日訪問。。2016年1月20日,河北邯鄲發(fā)生了一起裝有自動駕駛設備的特斯拉汽車未能有效識別突然進入車道的白色車輛,而致駕駛員死亡的交通事故[2]。該案也是全球第一例因自動駕駛汽車致人死亡而導致的產(chǎn)品責任訴訟案件[3]。而后,美國加利福尼亞州、亞利桑那州、賓夕法尼亞州,以及中國北京[4]陸續(xù)出現(xiàn)了不同損害程度的交通事故。以醫(yī)療機器人、自動駕駛汽車為代表的人工智能產(chǎn)品責任問題至今沒有“標準答案”[5-6]。產(chǎn)品缺陷的司法認定是人工智能相應主體責任承擔的基礎,也是規(guī)制人工智能發(fā)展以及維護社會和諧運作的關鍵一環(huán),具有決定性意義[7]。但由于人工智能產(chǎn)品的自主性,使其在司法環(huán)節(jié)認定缺陷時比普通產(chǎn)品更為復雜,也即,“舊的認定規(guī)則與表達方式不能夠適應新問題的出現(xiàn)”。但我們依然可以試圖從產(chǎn)品責任框架內(nèi)去尋求解釋的空間,在原有的基礎上更新表達方式,清晰界定人工智能產(chǎn)品缺陷的司法認定標準。這對于人工智能產(chǎn)品責任制度的完善具有重要意義。
一、現(xiàn)有規(guī)則表達在人工智能產(chǎn)品缺陷的司法認定上存在困境
(一)人工智能產(chǎn)品與普通產(chǎn)品的區(qū)別
人工智能是指能夠感知其所處環(huán)境,從環(huán)境中獲取數(shù)據(jù),并對這些數(shù)據(jù)推理從而進行自主決策和動作的程序或者設備系統(tǒng)[8],并具有以下特征:(1)通過搜索數(shù)據(jù)解決問題,人工智能在遇到問題時,通常是根據(jù)設計研發(fā)者事先向其輸入的數(shù)據(jù)進行分析和判斷來確定解決方案;(2)能夠獨立從數(shù)據(jù)中學習新的規(guī)則與知識,并將學習的內(nèi)容轉化為下一步行動的規(guī)則;(3)能夠理解自然語言,通過對人類語言的理解和學習進行人機交互,完成人工智能與人類的實時對話;(4)可以根據(jù)外界環(huán)境、信息的變化而作出相應的反應,不需要人類對每一個判斷和每一個行為下達指令[9]。采用了人工智能技術為主要性能支持的產(chǎn)品即為人工智能產(chǎn)品。人工智能產(chǎn)品與普通產(chǎn)品的最大區(qū)別在于其自主性,具體體現(xiàn)在以下幾個方面。
1.人工智能產(chǎn)品的運作方式更具復雜性
基于連接主義的人工智能通過復雜的模型構建,關注于擬合已有數(shù)據(jù)輸入與輸出的統(tǒng)計意義上的相關性,而對輸入和輸出的因果性缺乏理解與分析,故而其運行過程是一個“黑箱”操作。質言之,人工智能產(chǎn)品具有一定的自主性,能夠自適應學習,其作出決策和行為的思維路徑很難為人類所探究,它們通過自我學習和判斷并根據(jù)環(huán)境變化調整行為,處于“感知—分析—行動”模式,因此,不能簡單地將它們看作是人類使用的工具。人類對人工智能行為的預判是有限的。例如英格蘭麥格納科學中心設計研發(fā)的機器人,其功能設定為“捕食”,但卻在無人看管的情況下,偷偷逃離研究所并去到高速公路上[10]。即使當初設計研發(fā)者并沒有給其設計這一技能,它也能通過自主學習獲得。在用戶使用人工智能的過程中,人工智能能夠自主地進行學習和思考,隨著其數(shù)據(jù)的累積,人工智能的行為會越來越難以判斷。在2016年3月,微軟設計的聊天機器人Tay與不同的人聊天并保存聊天數(shù)據(jù),不到24小時就被“教壞”并開始散布各種不良言論[11]; 2016年6月,視頻游戲“Elite Dangerous”配備了人工智能系統(tǒng),該系統(tǒng)居然創(chuàng)造出了游戲設定之外的超級武器,破壞了游戲的平衡與規(guī)則[9]。雖然人類設計、制造并部署了人工智能[12],但它們的行為卻不受人類的直接指令約束,而是基于其所獲取的信息作出的分析和判斷,也即“算法與行為的分離”[13]。故而,設計研發(fā)者在開發(fā)人工智能產(chǎn)品的過程中可能并不能準確預知某一產(chǎn)品可能存在的風險參見《人工智能標準化白皮書(2018版)》3.3.1人工智能的安全問題。,他們只能保證產(chǎn)品的首次運算規(guī)則按照他們的設定進行,同時在之后的過程中不斷進行監(jiān)控和調試,以降低人工智能產(chǎn)品“出軌”的可能性。而普通產(chǎn)品相對來說較為簡單,從被設計出來至使用期內(nèi),除了正常損耗降低性能及不正常操作等人為因素外,理論上不會出現(xiàn)與其設計偏離的情況,也不需要對其進行跟蹤觀察。從這一角度看,人工智能產(chǎn)品的運作方式相較于普通產(chǎn)品更具復雜性。
2.人工智能產(chǎn)品的致害主體更具多元性
人工智能產(chǎn)品致害涉及的主體包括設計研發(fā)者、生產(chǎn)者、銷售者,甚至人工智能產(chǎn)品本身。這就突破了普通產(chǎn)品僅包括生產(chǎn)者和銷售者的責任維度。全球上千臺“達芬奇”手術系統(tǒng)投入使用,而其存在明顯缺陷——該手術機器人沒有“觸覺反饋”,使醫(yī)生無法感知[14]。2016年5月,美國一輛自動駕駛汽車在公路上行駛時發(fā)生車禍,車主當場死亡。從調查中可知,事故是由于該車的自動駕駛系統(tǒng)Autopilot對相近顏色的分辨能力低下。這對于駕駛避障系統(tǒng)來說是一個巨大的缺陷,設計研發(fā)者卻沒有對此進行改進再投入市場,甚至沒有做出警示,間接導致了悲劇的發(fā)生。設計研發(fā)環(huán)節(jié)是人工智能產(chǎn)品產(chǎn)生的首要環(huán)節(jié),產(chǎn)品安全的第一道保障即來源于設計研發(fā)者,若設計研發(fā)環(huán)節(jié)出現(xiàn)問題,則后面的各個環(huán)節(jié)也將偏離正確軌道。
對于人工智能產(chǎn)品本身,學術界關于其是否具有法律主體地位的探討如火如荼。筆者認為,不論其是否應當具有法律主體地位,基于其自主性特質[15],往往會出現(xiàn)無法辨認產(chǎn)品缺陷的成因或產(chǎn)品不存在缺陷但產(chǎn)生了損害結果的情況,若僅按照當前法律規(guī)定追究生產(chǎn)者及銷售者責任有失公允,會出現(xiàn)“行為—評價”不一致的情況,也將大大阻礙人工智能產(chǎn)業(yè)的發(fā)展。對于普通產(chǎn)品來說,產(chǎn)品從設計到制造再到檢驗始終掌握在生產(chǎn)者手里[16],產(chǎn)品本身不會對產(chǎn)品是否致害有任何影響,理論上普通產(chǎn)品將按照設計路徑進行運作。因此,在產(chǎn)品本身是否有可能成為致害主體的問題上,二者也有很大的不同。從致害主體角度看,人工智能產(chǎn)品相較于普通產(chǎn)品的生產(chǎn)者與銷售者來說,更突出了設計研發(fā)者與產(chǎn)品本身對產(chǎn)品致害的影響。
(二)人工智能產(chǎn)品缺陷司法認定的困境
1.現(xiàn)有判斷標準在人工智能產(chǎn)品視域下缺乏適應性
其一,“不合理危險”具有抽象性、復雜性,“標準”具有應急性、不確定性,使得對人工智能產(chǎn)品缺陷的司法認定陷入困境。
司法實踐中,往往以《產(chǎn)品質量法》第46條的“不合理危險”與國家標準及行業(yè)標準相結合的方式來判斷普通產(chǎn)品是否存在缺陷[17],即“不合理標準”與“技術標準”相結合。但我國現(xiàn)有法律對“不合理危險”沒有制定統(tǒng)一的認定標準,在普通產(chǎn)品缺陷認定時,主要依據(jù)大眾對產(chǎn)品的基本認知和了解來進行分析判斷,如產(chǎn)品的性能、使用方式、使用領域、使用年限事故發(fā)生的可能性參見臨海市美尼特電動車輛制造有限公司與盧全奇產(chǎn)品責任糾紛上訴案,浙江省寧波市中級人民法院(2013)浙甬民一終字第628號。。人工智能的出現(xiàn)是一種嘗試和突破,是人類向另一個新時代邁進的探索,大眾對人工智能產(chǎn)品的理解和認知都極其有限,更遑論判斷其危險是否合理。事實上,對人工智能產(chǎn)品存在的“危險是否合理”的思考涉及計算機學、腦科學、仿生學、控制學、數(shù)學、哲學,相關領域的專家都很難對此作出相對完善的結論。該標準在司法實踐中的難度可想而知。
對于普通產(chǎn)品缺陷判斷具有重要作用的“技術標準”,在人工智能產(chǎn)品領域存在應急性與不確定性。技術標準是一種必須遵循的技術依據(jù),包括基礎技術標準、安全標準、環(huán)保標準、工藝標準、檢測標準等,需要經(jīng)過各級政府部門的層層審批,耗時較長。而人工智能產(chǎn)品的發(fā)展與更新速度遠超于普通產(chǎn)品,傳統(tǒng)技術標準的制定方式顯然不合適,《人工智能標準化白皮書(2018版)》(以下簡稱“白皮書”)應運而生。根據(jù)《白皮書》規(guī)定,圍繞人工智能標準化需求,按照“急用先行、成熟先上”的原則,展開重點急需標準的研制。這一規(guī)定能夠解決傳統(tǒng)技術標準的短板,但也增加了新標準的“不確定性”與“應急性”?!栋灼分袛?shù)據(jù)表明,已發(fā)布的標準不足一半根據(jù)《人工智能標準化白皮書(2018版)》,目前共有200項國家/行業(yè)標準計劃號,包括已發(fā)布、在研及擬研制三種狀態(tài)。其中,已發(fā)布82項,擬研制31項,在研87項。,其中有不少標準是遵循“急用先行”的原則而發(fā)布,應急性特征明顯,這些標準的成熟度和完善度有待考證。而剩下過半的標準還未發(fā)布,這對于人工智能產(chǎn)品缺陷的司法認定又是一大掣肘。在遇到未制定標準的情況時,只能依據(jù)沒有統(tǒng)一標準且抽象復雜的“不合理危險”來進行判斷,無疑會使人工智能產(chǎn)品缺陷的司法認定陷入困境。
其二,除標準自身存在的不足外,將兩個標準相結合的判斷方式在邏輯上存在矛盾。按照《產(chǎn)品質量法》第46條規(guī)定,當產(chǎn)品不符合國家或行業(yè)標準時,即可認為該產(chǎn)品存在缺陷。反之,若該產(chǎn)品符合國家或行業(yè)標準時,是否說明該產(chǎn)品不存在缺陷?若產(chǎn)品符合國家或行業(yè)標準但存在不合理危險時,應當如何認定?事實上,在司法實踐中,由于這兩個標準同時存在并適用,使得不同的法官對類似案件作出不同判決參見馬水法訴陜西重型汽車有限公司等因產(chǎn)品缺陷致人身損害賠償糾紛案,江蘇省南京市中級人民法院(2014)寧民終字第613號;靳蕾訴北京德奧達汽車進出口有限公司等公司產(chǎn)品責任糾紛案,北京大興區(qū)人民法院(2017)京0115民初12674號。,致使法律的嚴肅性與規(guī)范性受到質疑,不利于保護消費者權益,也不利于人工智能產(chǎn)業(yè)的良性發(fā)展。在人工智能產(chǎn)品中,由于標準的應急性與技術認識的邊界性,更有可能出現(xiàn)符合國家、行業(yè)標準但依然會危及人身、他人財產(chǎn)安全的產(chǎn)品,此時是否應當認定為缺陷產(chǎn)品?從以上分析可得出,現(xiàn)有的判斷標準無法解決人工智能產(chǎn)品缺陷的司法認定問題。
2.未將缺陷類型化是我國人工智能產(chǎn)品缺陷認定困境的根源
現(xiàn)有產(chǎn)品缺陷認定模式之所以難以適用于人工智能產(chǎn)品,根源在于我國《侵權責任法》和《產(chǎn)品質量法》并未直接對產(chǎn)品缺陷進行分類,而是采用籠統(tǒng)的標準來判斷產(chǎn)品缺陷。在復雜的人工智能產(chǎn)品視域下,未將缺陷類型化的判斷模式顯然無法解決人工智能產(chǎn)品缺陷的認定問題。盡管侵權法理論通常將產(chǎn)品缺陷分為設計缺陷、制造缺陷及警示缺陷[18],有關產(chǎn)品缺陷的部分規(guī)章也提及了缺陷的類型化如2007年《兒童玩具召回管理規(guī)定》第3條第2款規(guī)定、2012年《缺陷汽車產(chǎn)品召回管理條例》第2條第1款規(guī)定。,但在法律層面仍未對產(chǎn)品缺陷類型作出明確規(guī)定,主要原因是部分學者認為對某些概念作過細、過于具體的規(guī)定,有可能會限制產(chǎn)品的更新與發(fā)展[19]。但筆者認為,若不將產(chǎn)品缺陷進行類型化分析,則在人工智能產(chǎn)品缺陷認定問題上會陷入桎梏,導致產(chǎn)品侵權制度不完善,也無法發(fā)展。
鑒于人工智能的復雜性與特異性,設計研發(fā)者在產(chǎn)品質量中具有舉足輕重的作用,其不同于傳統(tǒng)產(chǎn)品,設計研發(fā)者與生產(chǎn)者的責任不可混為一談。在人工智能產(chǎn)品視域下,生產(chǎn)者僅是既有設計的執(zhí)行者,其難以理解或辨認設計的正確與否,對產(chǎn)品設計上的缺陷也不具有控制力。若按照我國目前法律規(guī)定,生產(chǎn)者則需要承擔產(chǎn)品設計環(huán)節(jié)產(chǎn)生的缺陷所帶來的產(chǎn)品責任,但“對自己無法控制的事情需要承擔責任”是否缺少法理基礎?事實上,除了設計研發(fā)者,生產(chǎn)者與銷售者等責任主體對于產(chǎn)品缺陷的控制力也是不同的,不同環(huán)節(jié)所造成的缺陷從歸責原則、判斷方法乃至認定標準都應有不同。若不區(qū)分缺陷類型,單以某一缺陷為標準進行規(guī)制都顯得捉襟見肘,在責任承擔時也有失公允。因此,結合人工智能產(chǎn)品的特性,對人工智能產(chǎn)品缺陷進行類型化分析實為必要。
二、人工智能產(chǎn)品缺陷類型及相關主體義務分析
(一)人工智能產(chǎn)品缺陷類型的劃分
產(chǎn)品缺陷的分類始于美國,《侵權法重述之產(chǎn)品責任(第三版)》明確將產(chǎn)品缺陷分為設計缺陷、制造缺陷和警示缺陷三種,德國在此基礎上增加了一種新的缺陷類型,即“觀察缺陷”。雖然我國沒有對產(chǎn)品缺陷進行明確的劃分,但從《產(chǎn)品質量法》和司法實踐上看,我國傾向于德國的缺陷類型。對于我國是否應當明確摒棄“不合理危險”與“技術標準”相結合的二元缺陷判斷模式有諸多爭議,但如何借鑒缺陷類型化判斷模式還需要在特定的語境中進行考量,人工智能產(chǎn)品的發(fā)展和應用為這個問題提供了一個絕佳的思考視角和嘗試契機[3]。筆者認為可參照當前司法實踐對缺陷類型的劃分,在現(xiàn)有規(guī)則框架中結合人工智能產(chǎn)品的特性,在人工智能產(chǎn)品缺陷領域形成設計缺陷、制造缺陷、警示缺陷和跟蹤觀察缺陷四種缺陷類型。該分類與產(chǎn)品從設計至使用的主要環(huán)節(jié)相對應,也與各個主體的義務相關。通過對各個環(huán)節(jié)主體義務的分析,界定出相對合理且可操作的判斷標準,以期采用“切割分解”的方式降低人工智能產(chǎn)品缺陷司法認定的復雜性,提高人工智能產(chǎn)品責任認定的可能性與合理性。
其一,該分類有利于人工智能產(chǎn)品歸責原則的重構。從對法條和實踐經(jīng)驗的理解來看,我國產(chǎn)品責任采用嚴格責任的歸責原則《產(chǎn)品質量法》第41條規(guī)定:因產(chǎn)品存在缺陷造成人身、缺陷產(chǎn)品以外的其他財產(chǎn)損害的,生產(chǎn)者應當承擔賠償責任。。但我國并沒有對產(chǎn)品缺陷類型進行分類,也即,無論什么缺陷導致的產(chǎn)品責任,都采用嚴格責任的歸責原則。制造缺陷里適用嚴格責任并無不妥,但在設計缺陷或警示缺陷的情況下,一味追究嚴格責任缺乏正當性[20],事實上,嚴格責任的衰弱與過錯責任的回歸,已經(jīng)是公開的秘密[21]。我國統(tǒng)一適用嚴格責任的歸責原則主要是將設計研發(fā)者與生產(chǎn)者混同,并以保護消費者權益為出發(fā)點而制定的,但忽略了導致產(chǎn)品存在缺陷的多個環(huán)節(jié),也忽略了人工智能產(chǎn)品生產(chǎn)者對于非制造缺陷的不可控力。首先,在人工智能語境下,生產(chǎn)者能力有限,但卻面臨過于苛刻的嚴格責任,是否會使權利的天秤過于傾斜導致不公?若按照我國僅把生產(chǎn)者與銷售者納入產(chǎn)品責任主體的法律現(xiàn)狀來假設,人工智能產(chǎn)品的設計研發(fā)環(huán)節(jié)出現(xiàn)問題,生產(chǎn)者需要承擔嚴格責任,豈不荒謬[22]?再者,對于警示環(huán)節(jié)出現(xiàn)問題而導致的產(chǎn)品缺陷也承擔嚴格責任未免有適用標準錯位的嫌疑。警示行為主要關注的是生產(chǎn)者、銷售者警告的內(nèi)容是否充分合理,實際上是針對人的行為,不是針對產(chǎn)品本身,而嚴格責任作為一種剛性的產(chǎn)品責任,關注的是產(chǎn)品本身存在的缺陷,按此邏輯,采用嚴格責任也實為不妥。最后,統(tǒng)一適用嚴格責任原則容易導致消費者道德偏差。在嚴格責任的保護下,消費者的舉證負擔大大減輕,這很可能導致消費者在使用產(chǎn)品時存在僥幸或放任的心理,在未盡注意義務受到損害時依然可以獲得賠償,這一原則會間接促使更多消費者肆意對產(chǎn)品進行不合理的使用,這樣打擊了生產(chǎn)者的生產(chǎn)積極性,最終將不利于人工智能產(chǎn)業(yè)的發(fā)展。綜上,對人工智能產(chǎn)品責任的歸責原則進行重構以適應其特異性勢在必行。
按照設計缺陷、制造缺陷、警示缺陷和跟蹤觀察缺陷這幾種缺陷類型來劃分,與產(chǎn)品從設計至使用的幾個主要環(huán)節(jié)相對應,不同環(huán)節(jié)對產(chǎn)品質量的影響與控制力不同。如設計研發(fā)環(huán)節(jié)是決定人工智能產(chǎn)品質量的關鍵與基礎,對產(chǎn)品的安全與性能有著根源性的影響,但基于人工智能產(chǎn)品的特異性,設計環(huán)節(jié)對產(chǎn)品依然沒有完全的控制能力;制造環(huán)節(jié)是設計環(huán)節(jié)的執(zhí)行步驟,與普通產(chǎn)品無異,不存在過多困難[23];警示缺陷與跟蹤觀察缺陷主要是在產(chǎn)品生產(chǎn)完成后,對人的行為進行評價,而不過多關注產(chǎn)品本身的質量問題。不同缺陷類型所對應的各個環(huán)節(jié)對產(chǎn)品的控制力不同,根據(jù)控制能力與責任相匹配的基本原理,此時按照不同的缺陷類型采取不同的歸責原則更為恰當。
其二,該分類使責任認定要素相互對應形成邏輯閉環(huán),有利于人工智能產(chǎn)品責任的認定。在認定產(chǎn)品侵權時,除了產(chǎn)品缺陷,還需要著重關注歸責原則與責任主體。該缺陷分類不僅利于歸責原則的重構以適應人工智能產(chǎn)品特性,還與責任主體相對應,形成“產(chǎn)品缺陷—歸責原則—致害主體”產(chǎn)品責任的認定邏輯因“損害結果”與“因果關系”在人工智能產(chǎn)品與普通產(chǎn)品中無太大區(qū)別,文章不作過多探討,故而在此閉環(huán)中也未體現(xiàn)。。每個環(huán)節(jié)與產(chǎn)品缺陷、歸責原則、致害主體相對應,環(huán)環(huán)相扣,即,以上文提及的“分解切割”方式來增強產(chǎn)品責任認定的可操作性與合理性。在實際操作中可以按照如下步驟進行切分:首先,利用設計方案、制造技術、工藝報告、各項數(shù)據(jù)監(jiān)控,以及流轉憑證等信息判斷產(chǎn)品在什么環(huán)節(jié)出現(xiàn)問題,若是設計環(huán)節(jié)則考慮是否存在設計缺陷,制造環(huán)節(jié)則考慮是否存在制造缺陷,以此類推;其次,在鎖定某一可能缺陷類型的情況下,根據(jù)該缺陷類型的認定標準判斷是否存在產(chǎn)品缺陷;再次,確定存在產(chǎn)品缺陷后對不同缺陷類型采用不同的歸責原則,如設計缺陷采用過錯責任原則,制造缺陷采用嚴格責任原則進行責任的確定該原則為根據(jù)不同缺陷下主體對產(chǎn)品質量的可控制力為基礎大致擬定,主要作用為舉例說明,不作為筆者的探討結論。;最后,結合各個缺陷類型下對應的歸責原則和致害主體,如“設計缺陷—過錯責任—設計研發(fā)者”,以明確承擔人工智能產(chǎn)品責任的主體由于文章主題與篇幅的限制,在此沒有考慮免責事由以及其他承擔責任的方式和機制。。在此種分類下,人工智能產(chǎn)品責任的判斷邏輯清晰、有據(jù)可循,而不是按照現(xiàn)有法律規(guī)定的“不合理危險”與嚴格責任這樣籠統(tǒng)劃一的方式來進行產(chǎn)品責任認定,這樣的判定路徑將復雜的人工智能產(chǎn)品責任進行拆分,提高了產(chǎn)品缺陷司法認定的可操作性與合理性,也是我國《產(chǎn)品質量法》相關規(guī)則修改的一種更現(xiàn)實可行的路徑。
(二)缺陷類型化下有關主體的義務分析
在對人工智能產(chǎn)品缺陷類型進行分類后,為了更好地判斷產(chǎn)品缺陷,應當分析各個缺陷類型對應主體的義務,以作為產(chǎn)品缺陷認定的參考因素。
1.設計缺陷:設計研發(fā)者
在產(chǎn)品責任法上,設計缺陷是指在設計環(huán)節(jié)出現(xiàn)問題,使得產(chǎn)品具有給使用者造成不合理危險的內(nèi)在缺陷[24]。設計缺陷的責任主體是設計研發(fā)者,其應當履行如下義務:(1)安全保障[25]。程序及算法應當遵循歐盟“可信賴人工智能倫理準則”(Ethics Guidelines For Trustworthy AI)的設定規(guī)制,在產(chǎn)品正常使用情況下不會對使用者或者他人的生命健康權、財產(chǎn)權造成損害。在存有已知風險情況下,應當對該產(chǎn)品設計保護、防范措施,使風險發(fā)生概率降到最低。(2)性能平衡。人工智能產(chǎn)品的安全性、穩(wěn)定性與智能性、功能性是相互牽制的。設計研發(fā)者在進行系統(tǒng)和程序設計時,應當注重上述特性的平衡[26],在保障相對安全穩(wěn)定的基礎上再追求功能性,這也是侵權責任體系公平有效的客觀要求。(3)全面測試。人工智能應用程序具有不確定性和概率性、對大數(shù)據(jù)的依賴性,以及難以預測所有應用場景及需要從過去的行為不斷進行學習等特性。因此,在產(chǎn)品設計研發(fā)過程直至進入市場前,應當多次進行算法、程序和產(chǎn)品的測試。通過對數(shù)據(jù)的采集、加工、處理、分析和挖掘,形成符合設計要求的信息流和認識模型參見《人工智能標準化白皮書(2018)》2.2 人工智能的特征。。同樣,對于產(chǎn)品入市前也應當進行全面的功能性測試。
2.制造缺陷:制造者
在人工智能產(chǎn)品視角下,制造缺陷理應排除設計環(huán)節(jié)。生產(chǎn)者的主要義務是將設計研發(fā)者的構思、程序、方案、圖樣等設計變成產(chǎn)品。(1)配合設計預期效果進行制造。如保障人工智能產(chǎn)品能夠提供清楚易懂的語言,在遇到自動系統(tǒng)難以應對的情況時能清晰地提示使用者,以采取相應手動控制措施;保證簡易按鈕的靈敏性與抗干擾性,在復雜環(huán)境下,能夠瞬間停止“自動化模式”而恢復人類對產(chǎn)品的控制權[27]。(2)嚴格按照設計方案進行制造。制造需達到設計對原材料、零部件加工,裝配和工藝的精密要求。例如,對于特種極限機器人,無人機、無人潛水艇等人工智能產(chǎn)品,主要在極端氣候或高空、深海等環(huán)境下工作,其制作原材料、零部件和制造工藝都是產(chǎn)品安全和性能的重要保障之一。若不按照原設計的材料及工藝進行制造,必然導致產(chǎn)品安全和性能的減損。
3.警示缺陷:制造者、銷售者
我國《產(chǎn)品質量法》雖然涉及警示缺陷的內(nèi)容,但僅對產(chǎn)品標識和外包裝進行規(guī)定[28]。針對我國司法實踐中出現(xiàn)的警示缺陷糾紛,有學者將產(chǎn)品警示缺陷定義為:由于未對產(chǎn)品的正確使用方式和使用危險進行適當?shù)木婧驼f明造成的不合理危險[29]。結合現(xiàn)有法律規(guī)定、司法實踐情況及人工智能產(chǎn)品特性,筆者認為人工智能產(chǎn)品警示義務應當包含以下幾個要素:(1)警示內(nèi)容的充分性。其一,警示應當對合理可預見的危險進行說明,“威脅和危險均指造成這種現(xiàn)實損害的可能性,它必須是即將來臨的或真實的,而不是臆想的,也不是沒有任何實際根據(jù)的猜測和擔憂”[30];其二,警示應當著重于對其決策的原理、路徑和安全使用方式,如前文的“河北邯鄲案”發(fā)生后,特斯拉車載系統(tǒng)將“Autopilot”的中文翻譯從“自動駕駛”改為“自動輔助駕駛”,并要求銷售人員嚴格將這一系統(tǒng)表述為駕駛輔助系統(tǒng),從而對該系統(tǒng)的功能與使用方式進行重新定位說明。(2)警示時間的更迭性。人工智能產(chǎn)品的更新迭代飛速,故而需標明警示時間。這樣不僅可以令使用者有計劃地自查產(chǎn)品的最新狀況,也可以在出現(xiàn)產(chǎn)品侵權糾紛時作為有效證據(jù),有助于裁判者定紛止爭。若因科技發(fā)展可預見新的風險,則生產(chǎn)者、銷售者需及時通知消費者并更新警示說明書等附隨產(chǎn)品。(3)警示語言的簡明醒目性。警示語言必須簡潔明了、通俗易懂,要使普通人能夠理解該產(chǎn)品的使用方式和風險。警示圖示和字體應當采用鮮明的設計,使用戶在第一時間注意到警示所要傳達的信息。
4.跟蹤觀察缺陷:設計研發(fā)者、制造者、銷售者
產(chǎn)品跟蹤觀察缺陷是指在產(chǎn)品投入流通以后,生產(chǎn)者、銷售者沒有對產(chǎn)品進行持續(xù)性觀察并了解是否存在未知的危險,或已知存在危險未采取警示、召回等措施。在人工智能視域下的產(chǎn)品跟蹤觀察義務應當在原有基礎上相應變更及細化以適應新情況。(1)應當增加設計研發(fā)者為跟蹤觀察義務的主體。設計研發(fā)者對人工智能產(chǎn)品的理解力和控制力強于其他主體,是人工智能產(chǎn)品生產(chǎn)的源頭,理應成為義務主體。(2)明確跟蹤觀察義務包括消極義務與積極義務[31]。消極義務是指生產(chǎn)者及銷售者應當接受消費者對產(chǎn)品致?lián)p與風險的投訴,并將信息傳遞至設計研發(fā)者,由其對人工智能產(chǎn)品進行檢查與測驗,確認是否存在風險。積極義務是指設計研發(fā)者應當定期對自己研發(fā)出的產(chǎn)品進行數(shù)據(jù)監(jiān)控和檢查,防止出現(xiàn)人工智能異變的情況,并對本領域的最新科技高度關注,以便及時更新技術降低產(chǎn)品使用風險。(3)完成跟蹤觀察后的反應義務。從實踐中看,警示和召回是最重要的反應行為,警示反應要求義務主體對消費者、使用者發(fā)出警示消息,可以通過發(fā)送郵件、撥打電話及借助大眾媒體等方式發(fā)出警示;召回反應要求責任主體通過免費維修、更換、回購等方式來排除產(chǎn)品的危險。(4)確定跟蹤觀察義務的存續(xù)期間。實踐中,普通產(chǎn)品的跟蹤觀察義務存在1~5年的保修期。對于人工智能產(chǎn)品而言,生產(chǎn)者因將產(chǎn)品投入流通而開啟了潛在危險,且該危險較難預測。因此,跟蹤觀察期應當擴張至產(chǎn)品的應然使用壽命年限。
三、人工智能產(chǎn)品缺陷司法認定標準的規(guī)則表達
任何規(guī)則的表達都是在給定條件下進行的,在人工智能視域下,產(chǎn)品缺陷的司法認定在原有框架下也應當有新的規(guī)則表達。
(一)設計缺陷:“風險—效用”規(guī)則
在美國法上,法院最早以“消費者預期”作為設計缺陷的判斷標準。根據(jù)該標準,產(chǎn)品設計缺陷是否存在不合理的危險,取決于該產(chǎn)品能否符合普通消費者對于此種產(chǎn)品特性的正當預期。也就是說,造成損害的產(chǎn)品缺陷必須具有普通消費者可以預見的不合理危險。但在現(xiàn)代社會,隨著科技的發(fā)展,產(chǎn)品類型逐漸豐富,結構也日益復雜,有學者認為在涉及具體產(chǎn)品設計方案上,消費者所期待的安全性程度無法定義[32]1236-1237,難以形成合理正當?shù)钠诖灿袑W者與法官開始對該標準的模糊性與不確定性進行質疑[32]1217,該標準適用困難。
為了彌補消費者預期標準的不足,美國法院開始嘗試采用“風險—效用”標準對設計缺陷進行判斷[33]。所謂“風險—效用”標準,也被稱為“成本效益標準”,就是通過產(chǎn)品有用性與危險性的比較,檢查設計研發(fā)者是否采取了適當?shù)陌踩U洗胧?,以判定產(chǎn)品是否存在設計缺陷[34]。在產(chǎn)品設計缺陷中的判斷可以描述為:若改進該產(chǎn)品的成本低于維持現(xiàn)有狀態(tài)的效益及現(xiàn)有風險或危險,則存在設計缺陷;若改進該產(chǎn)品的成本高于維持現(xiàn)有狀態(tài)存在的效益及現(xiàn)有風險或危險,則不存在設計缺陷。到目前為止,“風險—效用”規(guī)則已經(jīng)成為美國、德國等許多國家采用判斷產(chǎn)品設計缺陷的重要標準。
對于普通產(chǎn)品而言,“消費者預期”標準或許能夠立足于“以消費者為本”這一理念而得以運行,而在人工智能視域下,普通消費者對人工智能的理解極其有限,高于平均產(chǎn)品使用人對該產(chǎn)品的認識水平的,不在“消費者預期”標準考慮之列[35]。如前所述,人工智能是一項新興科技,人類對該技術的探索在不斷突破我們的認知邊界,試問采用這樣一種技術的產(chǎn)品,我們普通大眾如何對其形成合理的消費者預期?如Doctor AI可以通過利用遞歸神經(jīng)網(wǎng)絡建立預測模型以輔助診斷[36],“嬉戲式監(jiān)督智能空間”游戲行為療法能夠輔助特殊兒童的治療包括自閉癥譜系障礙(ASD)、注意力缺陷多動障礙(ADHD)、唐氏綜合征或精神分裂癥等特殊兒童。,[37],普通消費者應對醫(yī)療AI抱以何種期待?也即,采用消費者預期標準的前提不存在,不具有可操作性。再者,消費者預期標準為一種整體性分析,屬于定性分析,只有存在“符合預期”或者“不符合預期”這兩種結果。而受到人工智能產(chǎn)品特異性的限制,我們很難對其作出定性結論,只能是在各個功能價值之間尋求平衡。
反觀“風險—效用”標準,雖然存在著操作較為繁瑣,價值單一等弊端,普通產(chǎn)品不具有自主決策與交互協(xié)同的特性,對普通產(chǎn)品使用該標準有“損益比失衡”之嫌,但在人工智能產(chǎn)品中,卻更加符合其集合風險(自主性)與效用(智能性)于一身的特質。人工智能產(chǎn)品設計綜合了計算機學、數(shù)學、腦科學、經(jīng)濟學、哲學、倫理學、美學、心理學等學科,不僅要滿足消費者對產(chǎn)品安全、功能的剛性需求,更要滿足消費者心理上和情感上的精神需求,由于人工智能產(chǎn)品的自主性會導致用戶較高的情感反應,人與自主系統(tǒng)的交互中需要更多地考慮社交和心理因素[38]。上述幾種需求之間往往是相互牽制的,任何一種功能的改變都有可能影響到其他功能的實現(xiàn),從而引起整個產(chǎn)品的變化。以“風險—效用”規(guī)則作為判斷設計缺陷的綜合標準,不僅映襯了人工智能的發(fā)展是人類社會在進步過程中的一步“險棋”,還是提高人類工作生活效率的一種嘗試,更是與人工智能產(chǎn)品設計“多元化”、產(chǎn)品運行“自主化”特征緊密相連?!帮L險—效用”規(guī)則屬于一種定量分析,不是非此即彼,而是對人工智能產(chǎn)品設計方案的綜合考察,相較于定性分析更具有可操作性,更適合對人工智能產(chǎn)品缺陷的判斷。
我國在處理人工智能產(chǎn)品設計缺陷案件時,可以采用“風險—效用”標準。從美國的司法實踐看,絕大多數(shù)州法律及判例在面對產(chǎn)品設計缺陷案件時都要求原告提供合理的替代設計,并通過“風險—效用”標準予以分析和判斷。對于該規(guī)則而言,重點在于如何平衡產(chǎn)品的風險與效用,合理的替代設計就是該標準的內(nèi)在要求[39]。人工智能產(chǎn)品的設計缺陷有別于傳統(tǒng)產(chǎn)品,主要有以下幾類缺陷:算法設計缺陷、樣本標記缺陷、樣本不平衡缺陷、軟件設計缺陷、硬件設計缺陷[40]。在判斷是否存在設計缺陷時可以上述類別為參考。但由于人工智能產(chǎn)品的復雜性,原告只需提出初步的設計不合理證據(jù),由設計研發(fā)者對設計合理進行證明,必要時可由法院邀請專家來說明是否存在“合理的可替代設計”,具體表述為“該產(chǎn)品的設計是否已經(jīng)采用了業(yè)內(nèi)最安全、最先進的技術,或以現(xiàn)有技術標準,是否可以提出更高的設計要求”[41],并對替代設計的邊際收益與邊際成本予以分析,以證明產(chǎn)品是否存在設計缺陷。
(二)制造缺陷:“對預期設計的偏離”標準
1973年,James Henderson教授首次將產(chǎn)品的制造缺陷定義為“對預期設計的偏離” [42]。目前,該標準已經(jīng)成為美國等國家判斷產(chǎn)品制造缺陷的主流標準,即產(chǎn)品在生產(chǎn)者投入流通時,在某些重要方面存在不符合設計的性能標準或設計說明的問題,或者同一生產(chǎn)線上的同類產(chǎn)品存在差異則為制造缺陷。在人工智能產(chǎn)品中,主要由設計研發(fā)者把控產(chǎn)品的安全與功能,而制造者只是產(chǎn)品設計的執(zhí)行者,結合制造者在制造環(huán)節(jié)需要承擔“將設計轉化為產(chǎn)品”的這一核心義務,采用“對預期設計偏離”標準,能夠體現(xiàn)出認定制造缺陷的邏輯性與嚴謹性,在實踐中也更具可操作性。
由于人工智能產(chǎn)品與普通產(chǎn)品在制造環(huán)節(jié)差異不大,故而該標準在二者的制造缺陷中都可適用本文闡述該標準意圖有二:一是邏輯嚴密性,文章通過“分解切割”方式將產(chǎn)品缺陷分為四大類,在論述體系中應當全面體現(xiàn);二是表述的確定性,我國目前依然采取“不合理危險”與“標準”相結合的判斷方式,若因理論上可采用一致標準而不加以闡述,則容易導致筆者思想傳遞的混亂。。從產(chǎn)品侵權缺陷認定的體系看,盡管“對預期設計偏離”為認定制造缺陷提供了一個直觀的標準,但在產(chǎn)品出故障損毀時,仍存在認定缺陷的問題。此時需要借助另一個標準——故障理論來進行產(chǎn)品制造缺陷的認定。在產(chǎn)品因事故損毀、滅失的情況下,原告可以通過間接證據(jù)來證明產(chǎn)品缺陷[43]。結合《美國統(tǒng)一產(chǎn)品責任示范法》與人工智能產(chǎn)品特性,在產(chǎn)生糾紛時可按照以下思路對制造缺陷進行認定:原告申請法院調取該人工智能產(chǎn)品的設計方案或報告,將致害人工智能產(chǎn)品與設計方案進行比較,查明是否有不符合原有設計的情況。若存在不符合原有設計的情況,則屬于制造缺陷,若該產(chǎn)品符合原有設計,則不屬于制造缺陷,需要考慮是否存在設計缺陷等其他缺陷。在人工智能產(chǎn)品出現(xiàn)損毀、滅失的情況下,原告首先需要證明該產(chǎn)品確實發(fā)生了故障或事故,并且導致了人工智能產(chǎn)品的損毀、滅失;其次證明該故障或事故的發(fā)生不是由于非正常使用造成的,也沒有被其他人進行過改動。上述兩項若都符合,則可以推定該人工智能產(chǎn)品存在缺陷。但是這種缺陷有可能是設計缺陷、制造缺陷、警示缺陷或跟蹤觀察缺陷,要進一步對比產(chǎn)品設計方案、警示語標識及跟蹤觀察記錄來判斷是否屬于其他三種缺陷,若不屬于,則可判斷為是制造缺陷。
(三)警示缺陷:“合理充分”標準
美國和歐盟在判斷警示缺陷時,主要采用的是消費者預期標準[44];日本的警示缺陷訴訟主要在醫(yī)藥品方面,一般也是以消費者預期為標準[45],然而,消費者預期主觀性過強,不同的消費者預期不同,在司法實踐中具有偏差性,且人工智能產(chǎn)品屬于新興科技,消費者對其理解不足,更遑論產(chǎn)生合理預期。如前所述,警示義務要求警示在內(nèi)容、形式與時間上都應當“充分合理”,對人工智能產(chǎn)品的警示缺陷判斷采用“充分合理”標準,一方面符合正常理性人的思維,另一方面也更具可操作性與統(tǒng)一性。
在人工智能語境下,判斷是否“充分合理”應當以前文所述警示義務的具體要求為基礎,但更應該考慮如何界定不可預見的危險。與普通產(chǎn)品不同,人工智能產(chǎn)品的自主性與主動交互性,使人類很難控制與預測其行為,不能排除人工智能產(chǎn)品自身成為致害主體的可能性,如何增強人工智能產(chǎn)品的可解釋性,是當下人工智能學科研究的重大挑戰(zhàn)之一[36]。在這種情況下,警示語不可能出現(xiàn)設計研發(fā)者、生產(chǎn)者等無法預知的情況,而這又與人工智能產(chǎn)品頻頻侵權的根源也是其本質——人工智能的自主性相沖突,是無法克服的。因而,在判斷是否為可預見的危險時,以標明警示語的時間為節(jié)點來進行判斷似乎是當下較合理的可行之法。在警示時間點前的科學水平能夠預見還未投入市場的人工智能產(chǎn)品存在何種可預知危險,并將其充分寫為警示語,投入市場后的產(chǎn)品在技術發(fā)展或系統(tǒng)升級后,能夠預見其他風險或解決先前的潛在危險時,應當及時更新警示標語,這也是與普通產(chǎn)品在警示方面的最大區(qū)別。如此,則盡到了充分合理的警示義務。反之,則沒有盡到充分合理的警示義務。另外,不需要對眾所周知的危險作出警示,也即對于任何荒誕或顯而易見的危險與不當使用方式,生產(chǎn)者和銷售者并不承擔預見或提出警示的義務,否則會導致消費者受到過度無意義警示的轟炸后很可能會放棄閱讀產(chǎn)品的全部警示,以至于忽略了其中的重要警示,而出現(xiàn)產(chǎn)品致害事件。
(四)跟蹤觀察缺陷:“個案認定,綜合判斷”原則
雖然我國《侵權責任法》肯定了跟蹤觀察義務,但沒有明確規(guī)定具體如何判斷責任主體是否履行了跟蹤觀察義務。在人工智能產(chǎn)品的跟蹤觀察義務中涉及的主體包括設計研發(fā)者、制造者與銷售者,中間也可能產(chǎn)生很多阻斷因素,歸納出一個具體的判斷標準較為困難。因此,筆者認為,在判斷是否履行了跟蹤觀察義務,應當依據(jù)個案的情況,綜合考慮前述義務是否妥善履行來予以認定,但需特別注意的是,由于人工智能產(chǎn)品的交互性與自主性特征,對其的跟蹤觀察期限與時間點應有別于普通產(chǎn)品,應當在人工智能產(chǎn)品的整個使用期限內(nèi)進行跟蹤觀察,并設置固定的檢測時間點,以防止其多次采集數(shù)據(jù)后自我學習而導致異化,這是“綜合判斷”標準的重要內(nèi)容。
在具體操作中,可以參考以下判斷標準:首先,設計研發(fā)者對產(chǎn)生的風險是否預見或應當預見,一方面可以從人工智能技術當前成果判斷能否預見該風險,應當以上一次檢測產(chǎn)品的時間為準。若同類產(chǎn)品已經(jīng)發(fā)生類似的缺陷問題,該產(chǎn)品的設計研發(fā)者依然沒有任何反應,則可以判斷設計研發(fā)者應當預見風險而沒有預見。另一方面從設計研發(fā)者是否履行了關注和定時檢測義務來進行判斷,每次檢測都應當有檢測記錄并進行上傳至數(shù)據(jù)庫。其次,生產(chǎn)者和銷售者是否開通了產(chǎn)品反饋管道并完成信息搜集傳遞工作。生產(chǎn)者與銷售者需建立和完善產(chǎn)品使用意見反饋機制,及時接受用戶的反饋,繼而將問題反饋給設計研發(fā)者,在這兩個中轉環(huán)節(jié)都應當做好書面記錄并簽字存檔,以起到完整程序、保留證據(jù)及責任轉移的作用。最后,是否有警示或召回等反應行為。如前所述,當發(fā)現(xiàn)產(chǎn)品存在缺陷時,視情況嚴重程度采取警示或召回等行為是跟蹤觀察義務的最重要內(nèi)容,也是判斷是否存在跟蹤觀察缺陷的重要標準之一。應當對人工智能產(chǎn)品按照類別制定不同的“合理反應期限”,若在此期限內(nèi)未對缺陷作出反應,即為跟蹤觀察缺陷。具體來說有兩個方面:一是產(chǎn)品發(fā)展缺陷產(chǎn)品發(fā)展缺陷指產(chǎn)品投入流通前的科技水平不認為是缺陷或不存在風險,而在產(chǎn)品投入流通以后,隨著科技的發(fā)展而認為是缺陷或者是認為存在風險。,主要是由設計研發(fā)者對科技的發(fā)展以及產(chǎn)品檢測監(jiān)控來判斷是否存在可修復缺陷,并對存在可修復缺陷的產(chǎn)品進行程序修繕和更新;若存在不可修復缺陷,則制造者需在產(chǎn)品說明中增加新的風險警示,銷售者在銷售產(chǎn)品時也應及時說明新增風險,并警示已購買用戶。二是針對產(chǎn)品使用過程中產(chǎn)生的老化、折損問題,制造者與銷售者通過反饋管道可召回該類產(chǎn)品,并對其進行維修或更換,保障產(chǎn)品的安全。
四、結語
產(chǎn)品缺陷的司法認定是產(chǎn)品責任存在的基礎,由于人工智能產(chǎn)品相較于普通產(chǎn)品具有一定的自主性、交互性、難預測性與不可控性,致使人工智能產(chǎn)品缺陷認定更加復雜困難,加之未將產(chǎn)品缺陷類型化,現(xiàn)有的規(guī)則表達難以適用?;诜ń忉寣W的張力,在人工智能視域下對產(chǎn)品缺陷認定進行基本原理的探究與具體規(guī)則的新表達,結合學術界前沿理論、我國司法實踐經(jīng)驗與人工智能產(chǎn)品特性,將產(chǎn)品缺陷劃分為設計缺陷、制造缺陷、警示缺陷與跟蹤觀察缺陷,通過“切割分解”的方式將復雜的人工智能產(chǎn)品缺陷分解成不同類型。分析不同缺陷類型下各主體的義務,再結合不同缺陷的性質與特征,表達出不同的判斷規(guī)則,為我國人工智能產(chǎn)品侵權責任構建提供一個可參考的思路。智能革命引發(fā)的各種思考才剛剛開始,科學技術的發(fā)展會不斷拓寬人類認識的邊緣[46],我們需要在法律基本原理的基礎上進行審慎創(chuàng)新,在面對舊規(guī)則無法解決新問題這一局面時,應當還原舊表達的核心思想,結合新語境得出新的規(guī)則表達。本文提出的判斷規(guī)則并非蓋棺之言,僅是現(xiàn)階段對人工智能產(chǎn)品視域下缺陷司法認定的初步探索,將來還會出現(xiàn)諸多問題需要我們共同關注和探討,尋找并論證更加恰當?shù)囊?guī)則表達,希望我們在促進新技術發(fā)展的同時,為其產(chǎn)生的風險做好充足的法律準備。
參考文獻:
[1]搜狐新聞.紀錄片|駭人聽聞的手術機器人致死案...兇手居然是他們! [EB/OL].(2018-12-03)[2020-06-07].https://www.sohu.com/a/278842713_562020.
[2]觀察者.邯鄲特斯拉事故致死案:公司承認案發(fā)時處“自動駕駛”狀態(tài)[EB/OL].(2018-02-27)[2020-06-07].https://www.guancha.cn/society/2018_02_27_448303_1.shtml.
[3]王樂兵.自動駕駛汽車的缺陷及其產(chǎn)品責任[J].清華法學.2020,14(2):93-112.
[4]騰訊大粵網(wǎng).回顧全球12起自動駕駛車禍 還有這“幺蛾子”?[EB/OL].(2018-03-21)[2020-04-25].https://gd.qq.com/a/20180321/029095.htm.
[5]民主與法制網(wǎng).“手術機器人”醫(yī)療事故責任問診[EB/OL].(2019-09-27)[2020-06-07].http://www.mzyfz.com/cms/benwangzhuanfang/xinwenzhongxin/zuixinbaodao/html/1040/2019-09-27/content-1406397.html.
[6]搜狐新聞網(wǎng).自動駕駛汽車出事故,誰來承擔責任?[EB/OL].(2019-04-30)[2020-06-07].https://www.sohu.com/a/311110470_100098859.
[7]OWEN D G.Products liability: Principles of justice for the 21st century[J].Pace Law Review,1990,11(1):63-86.
[8]CALLAN R.人工智能[M].黃厚寬,田盛豐,譯.北京:電子工業(yè)出版社,2004:5.
[9]詹可.人工智能法律人格問題研究[J].信息安全研究,2018,4(3):224-232.
[10]AustenK.Robot-assisted plants find their place in the sun[J].New Scientist,2011,211(2830):26.
[11]莫宏偉.強人工智能與弱人工智能的倫理問題思考[J].科學與社會,2018,8(1):14-24.
[12]鐘義信.人工智能:“熱鬧”背后的“門道”[J].科技導報,2016,34(7):14-19.
[13]司曉,曹建峰.論人工智能的民事責任:以自動駕駛汽車和智能機器人為切入點[J].法律科學(西北政法大學學報),2017,35(5):166-173.
[14]觀察者.英國首例機器人心瓣手術:“機器暴走”,病人不治身亡[EB/OL].(2018-11-08)[2020-06-07].https://www.guancha.cn/internation/2018_11_08_478891_2.shtml.
[15]SEARLE J R.Minds,brains and programs[J].Behavioral and Brain Sciences,1980,3(3):417-457.
[16]潘維大.英美侵權行為法案例解析[M].北京:高等教育出版社,2005:353-355.
[17]全國人大常委會法制工作委員會民法室.中華人民共和國侵權責任法解讀[M].北京:中國法制出版社,2010:214-215.
[18]楊立新.侵權責任法[M].上海:復旦大學出版社,2010:386-394.
[19]張新寶,任鴻雁.我國產(chǎn)品責任制度:守成與創(chuàng)新[J].北方法學,2012,6(3):5-19.
[20]梁亞,王嶂,趙存耀.論產(chǎn)品缺陷類型對產(chǎn)品責任歸責原則的影響:《侵權責任法》第41條生產(chǎn)者責任之解釋與批判[J].法律適用,2012(1):37-41.
[21]DOBBS D B.The Law of Torts[M].West Group,2000:997.
[22]梁亞.美國產(chǎn)品責任法中歸責原則變遷之解析[J].環(huán)球法律評論,2008(1):104-109.
[23]董春華.對嚴格產(chǎn)品責任正當性的質疑與反思[J].法學,2014(12):127-137.
[24]POLLOCK F. The law of torts: A treatise on the principles of obligations arising from civil wrongs in the common law[J]. Harvard Law Review,1887.
[25]MCCRACKEN R.I,Robot[J].Energy Economist,2011(356):6-8.
[26]美國法律研究院.侵權法重述:產(chǎn)品責任[M].第3版.肖永平,龔樂凡,譯.北京:法律出版社,2006:18.
[27]許中緣.論智能汽車侵權責任立法:以工具性人格為中心[J].法學,2019(4):67-81.
[28]董春華.中美產(chǎn)品缺陷法律制度比較研究[M].北京:法律出版社,2010:119.
[29]楊立新.《中華人民共和國侵權責任法》條文解釋與司法適用[M].北京:人民法院出版社,2010:267.
[30]王利明.論產(chǎn)品責任中的損害概念[J].法學,2011(2):45-54.
[31]周友軍.論侵權法上的產(chǎn)品跟蹤觀察義務[J].法律科學(西北政法大學學報),2014(4):127-132.
[32]DAVIS M J.Design Defect Liability:In Search of a Standard of Responsibility[M].Faculty Publications,1993.
[33]冉克平.論產(chǎn)品設計缺陷及其判定[J].東方法學,2016(2):12-22.
[34]KYSAR D A.The expectations of consumers[J].Columbia Law Review,2003,103(7):1700-1790.
[35]海因茨·雷伊.瑞士侵權責任法[M].賀栩栩,譯.北京:中國政法大學出版社,2015:325.
[36]孫效華,張義文,侯璐,等.人工智能產(chǎn)品與服務體系研究綜述[J].包裝工程,2020,41(10):49-61.
[37]AGOSTA G,BORGHESE L,BRANDOLESE C,et al.Playful supervised smart spaces (P3S):A framework for designing,implementing and deploying multisensory play experiences for children with special needs[J].Euromicro Conference on Digital System Design,2015:158-164.
[38]ENDSLEY M R .From here to autonomy: Lessons learned from human-automation research[J].Human Factors:The Journal of the Human Factors and Ergonomics Society,2016,59(1):5-27.
[39]HENDERSON J A,TWERSKI A D. Achieving consensus on defective product design[J].Cornell Law Review,1998,83(4):867-920.
[40]朱敏,劉衛(wèi)東.基于粗糙集貝葉斯網(wǎng)絡的電子產(chǎn)品設計缺陷評估模型[J].計算機應用研究,2013,30(3):706-711.
[41]王利明.侵權責任法研究(下卷)[M].北京:中國人民大學出版社,2011:250.
[42]梁亞.論產(chǎn)品制造缺陷的認定和證明[J].法律適用,2007(7):42-45.
[43]美國法律研究院.侵權法重述:產(chǎn)品責任[M].第3版.肖永平,龔樂凡,譯.北京:法律出版社,2006:160.
[44]冉克平.產(chǎn)品責任理論與判例研究[M].北京:北京大學出版社,2014:95.
[45]李煥珍.日本的產(chǎn)品責任法[J].日用化學品科學,1996(1):24-26.
[46]吳漢東.人工智能時代的制度安排與法律規(guī)制[J].法律科學(西北政法大學學報),2017,35(5):128-136.
(責任編輯 胡志平)
3695500338266