王 群,付麗娟
(東北林業(yè)大學(xué) 文法學(xué)院,黑龍江 哈爾濱 150040)
隨著人工智能技術(shù)在醫(yī)療、交通等領(lǐng)域的深度應(yīng)用,人工智能侵權(quán)責(zé)任問題日漸凸顯。2023年微軟旗下OpenAI公司研發(fā)的ChatGPT的橫空出世,讓人工智能技術(shù)再次成為輿論的焦點(diǎn)。以其為代表的生成式人工智能類似人類的理解、推理、會話、語言能力實(shí)現(xiàn)跨越式發(fā)展,由此帶來的侵權(quán)責(zé)任問題尤為突出,人工智能侵權(quán)責(zé)任問題已經(jīng)成為法律界必須要面對和解決的難點(diǎn)。
約翰麥卡錫教授1956年首次提出“人工智能”這一概念,當(dāng)時(shí)其對人工智能的定義是“制造智能機(jī)器的科學(xué)與工程”。隨著社會及科學(xué)技術(shù)的發(fā)展,人工智能的范圍不再局限于制造智能機(jī)器,目前,學(xué)界對人工智能的定義尚沒有統(tǒng)一的定論,不同學(xué)科的專家從各自角度出發(fā),對人工智能的定義有不同的見解,牛津計(jì)算機(jī)科學(xué)解釋詞匯中將人工智能解釋為“是信息技術(shù)的一部分,它涉及到創(chuàng)建能夠解決需要人類智慧的問題的程序”。人工智能是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。[1]按照智能程度,人工智能分為弱人工智能、強(qiáng)人工智能、超人工智能。弱人工智能是指不具備獨(dú)立意志,只能在設(shè)計(jì)的程序范圍內(nèi)決策并采取行動(dòng)的人工智能。弱人工智能是自身并不具備獨(dú)立意志,它是由使用者操縱,是為了實(shí)現(xiàn)使用者的意志;強(qiáng)人工智能是指具有獨(dú)立意志,能在設(shè)計(jì)的程序范圍外自主決策并采取行動(dòng)的人工智能,強(qiáng)人工智能的特點(diǎn)是其采取行動(dòng)實(shí)現(xiàn)的是自身的獨(dú)立意志,而不是設(shè)計(jì)者或使用者的意志;超人工智能,是指在智慧等方面比人類大腦聰明很多的智能,現(xiàn)只存在于科幻電影中的想象場景。
在學(xué)術(shù)界,對于人工智能法律主體地位的界定主要有三種觀點(diǎn)。持“否定說”的學(xué)者認(rèn)為,不應(yīng)賦予人工智能民事主體資格。如楊立新教授認(rèn)為:“人工智能不具有法律上的人格。其民法地位屬于人工類人格,仍然屬于物的范疇,是權(quán)利客體,而不是民事主體”。[2]84-96持“肯定說”觀點(diǎn)的學(xué)者認(rèn)為,應(yīng)賦予人工智能法律主體地位,他們認(rèn)為強(qiáng)人工智能能夠完全擺脫生產(chǎn)者和創(chuàng)造者的控制并自行創(chuàng)造新的人工智能,法律應(yīng)該賦予其獨(dú)立的主體地位,將其視為擬制人或者一種特殊的法律主體;持“折中說”的學(xué)者提出所謂的“電子人格說”,認(rèn)為應(yīng)該在主體和客體之間新增一種法律主體,在一定范圍內(nèi)承認(rèn)人工智能的法律人格。
目前階段不應(yīng)賦予人工智能法律主體地位,人工智能尚還不能成為侵權(quán)責(zé)任的主體:首先是因?yàn)槿斯ぶ悄懿痪邆淙梭w的要素,其次,人工智能現(xiàn)階段是由弱人工智能向強(qiáng)人工智能過渡的階段,其還不具備獨(dú)立的意志。最后,人工智能技術(shù)短時(shí)期內(nèi)還沒有顛覆現(xiàn)有的侵權(quán)法律主體理論,認(rèn)可人工智能主體地位并沒有實(shí)質(zhì)的意義,因此,不需要賦予人工智能法律主體地位。
人工智能侵權(quán)行為大致上可以分為兩種類型:一是人工智能充當(dāng)了侵權(quán)行為的輔助性角色;二是人工智能自主決定實(shí)施的行為給其他主體的權(quán)利帶來了侵害。人工智能侵權(quán)有廣義和狹義的區(qū)別:廣義上的人工智能侵權(quán)既包括了使用人工智能技術(shù)產(chǎn)生的侵權(quán),也包括了人工智能自主實(shí)施的侵權(quán)。從狹義的角度來講,人工智能侵權(quán)是指由人工智能自主決策的侵犯他人人身、財(cái)產(chǎn)或精神的行為。[3]人工智能侵權(quán)的界定應(yīng)當(dāng)將人工智能自主性因素作為重要考量,使用人工智能作為工具產(chǎn)生的侵權(quán)行為,人工智能實(shí)際上是作為一種工具,與刀、棍棒等一般工具無異,可以按照傳統(tǒng)侵權(quán)責(zé)任法的責(zé)任歸結(jié)方式來進(jìn)行處理。人工智能自主性的侵權(quán)行為,對現(xiàn)有侵權(quán)責(zé)任規(guī)則提出了挑戰(zhàn),對其進(jìn)行研究具有現(xiàn)實(shí)意義,故本文中的人工智能侵權(quán)是指狹義上的人工智能侵權(quán)。
一是侵權(quán)責(zé)任主體的擬人性。人工智能侵權(quán)行為主體不同于傳統(tǒng)的侵權(quán)行為主體,其侵權(quán)主體具有擬人化的特征。由于人工智能技術(shù)以模擬人腦的方式進(jìn)行記憶、理解、推理,甚至是學(xué)習(xí)和實(shí)現(xiàn)與人互動(dòng),它便能夠做到思考目標(biāo)并決策,甚至擁有與人類智慧和自我意識能力不相上下的機(jī)器智能。[4]因此,這種侵權(quán)行為既和人類侵權(quán)行為變得極其接近;二是侵權(quán)行為實(shí)施的人機(jī)交互性。首先,供人工智能深度學(xué)習(xí)的數(shù)據(jù)源自人類的經(jīng)驗(yàn)數(shù)據(jù)積累,數(shù)據(jù)的準(zhǔn)確、真實(shí)程度依賴人類行為的客觀程度;其次,人工智能并不會像人類一樣實(shí)施價(jià)值判斷,基于數(shù)據(jù)運(yùn)算產(chǎn)生的結(jié)果與人類進(jìn)行價(jià)值判斷的結(jié)果不具有必然的一致性;最后,人工智能侵權(quán)行為實(shí)施過程中必然涉及設(shè)計(jì)者、使用者與侵權(quán)損害對象之間的互動(dòng),也正是由于這種互動(dòng)不符合雙方的行為的預(yù)期并產(chǎn)生了嚴(yán)重的后果才使得侵權(quán)行為產(chǎn)生;三是侵權(quán)責(zé)任認(rèn)定的復(fù)雜性。人工智能設(shè)計(jì)者、生產(chǎn)者、銷售者、使用者等主體廣泛地參與到人工智能運(yùn)用過程中。一旦發(fā)生人工智能侵權(quán),責(zé)任的認(rèn)定方式、歸責(zé)原則和責(zé)任承擔(dān)具有高度復(fù)雜性,很難用單一的法律規(guī)范對人工智能侵權(quán)責(zé)任認(rèn)定進(jìn)行規(guī)制,需要完整的規(guī)范體系對這一問題進(jìn)行調(diào)整。
1.人工智能使用者操作不當(dāng)侵權(quán)
此情形的侵權(quán),是由于人工智能使用者操作不當(dāng)產(chǎn)生的,生產(chǎn)者、銷售者均沒有過錯(cuò),例如使用者在適用人工智能時(shí)違反了相應(yīng)規(guī)范或?yàn)E用了人工智能系統(tǒng),導(dǎo)致了錯(cuò)誤或損害,這種情況下可認(rèn)定人工智能的使用者為責(zé)任主體。
2.人工智能自身缺陷侵權(quán)
人工智能由于自身生產(chǎn)中固有的缺陷導(dǎo)致的侵權(quán),對此種情形的侵權(quán)案件,應(yīng)依據(jù)產(chǎn)品責(zé)任制度中的無過錯(cuò)責(zé)任原則,侵權(quán)責(zé)任由人工智能的生產(chǎn)者或銷售者承擔(dān)。
3.人工智能因無法查明原因自主產(chǎn)生故障侵權(quán)
這種情形的侵權(quán)行為,主要是由于人工智能的算法和程序自行推導(dǎo)所致,使用者不存在過錯(cuò)和過失,人工智能自身無缺陷,且各方都盡到注意義務(wù)且未受到外來干涉和操縱。此種情形發(fā)生的侵權(quán)因無法查明原因,導(dǎo)致責(zé)任主體無法確定。
綜上,前兩種情形的人工智能侵權(quán)可以采用一般侵權(quán)責(zé)任或產(chǎn)品質(zhì)量責(zé)任來規(guī)制,對于第三種情形的人工智能侵權(quán),現(xiàn)有的法律制度在適用中存在著一些問題。
1.《民法典》侵權(quán)責(zé)任編的相關(guān)規(guī)定
《民法典》侵權(quán)責(zé)任編并沒有將人工智能侵權(quán)責(zé)任納入到侵權(quán)責(zé)任特殊類型之中,與之最為接近的則為產(chǎn)品責(zé)任,《民法典》第1202條規(guī)定了生產(chǎn)者應(yīng)當(dāng)承擔(dān)因產(chǎn)品存在缺陷造成他人損害的侵權(quán)責(zé)任。第1203條規(guī)定了因產(chǎn)品存在缺陷侵權(quán)的,被侵權(quán)人可以向產(chǎn)品的生產(chǎn)者或銷售者請求賠償。生產(chǎn)者、銷售者由于對方造成的侵權(quán)在賠償后可以向?qū)Ψ阶穬?。由?202條可以看出由產(chǎn)品缺陷引發(fā)的生產(chǎn)者責(zé)任為無過錯(cuò)責(zé)任,第1203條規(guī)定產(chǎn)品的生產(chǎn)者和銷售者之間構(gòu)成不真正連帶責(zé)任。
2.《產(chǎn)品質(zhì)量法》的相關(guān)規(guī)定
《產(chǎn)品質(zhì)量法》第46條對產(chǎn)品缺陷進(jìn)行了界定:缺陷,是指產(chǎn)品存在危及人身、他人財(cái)產(chǎn)安全的不合理的危險(xiǎn);產(chǎn)品有保障人體健康和人身、財(cái)產(chǎn)安全的國家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn)的,是指不符合該標(biāo)準(zhǔn)。第41條第二款生產(chǎn)者能夠證明有下列情形之一的,不承擔(dān)賠償責(zé)任:(一)未將產(chǎn)品投入流通的;(二)產(chǎn)品投入流通時(shí),引起損害的缺陷尚不存在的;(三)將產(chǎn)品投入流通時(shí)的科學(xué)技術(shù)水平尚不能發(fā)現(xiàn)缺陷的存在的。規(guī)定了生產(chǎn)者的免責(zé)事由。[5]
1.人工智能侵權(quán)責(zé)任主體不明
現(xiàn)有的產(chǎn)品責(zé)任規(guī)則不完全囊括人工智能侵權(quán)的責(zé)任主體,根據(jù)《民法典》第1203條規(guī)定,產(chǎn)品責(zé)任原則的責(zé)任承擔(dān)主體僅有生產(chǎn)者、銷售者。對于因人工智能自主性失誤或其他無法解釋的原因產(chǎn)生的侵權(quán)責(zé)任,由于人工智能是人制造的,發(fā)生事故后,由人工智能的生產(chǎn)者承擔(dān)責(zé)任,看似沒有什么問題,但人工智能又不同于傳統(tǒng)的產(chǎn)品,傳統(tǒng)產(chǎn)品找到生產(chǎn)者讓其承擔(dān)責(zé)任不成問題,可是人工智能的制造過程非常復(fù)雜,過程中涉及的主體也非常的多,也許是由許多主體一起研發(fā)的,不能簡單確定是個(gè)人還是組織。人工智能的設(shè)計(jì)者對人工智能起到極強(qiáng)的操控作用,卻不需要承擔(dān)責(zé)任,這顯然是不合理的。所以,在發(fā)生人工智能侵權(quán)的事故時(shí),責(zé)任主體不僅僅是人工智能的生產(chǎn)者,但如何確定人工智能的其他責(zé)任主體,成為一個(gè)將要面臨和必須解決的難題?,F(xiàn)有法律規(guī)定的責(zé)任主體并不能夠解決人工智能侵權(quán)問題,人工智能侵權(quán)問題的出現(xiàn)將會擴(kuò)大侵權(quán)責(zé)任主體的范圍。
2.人工智能產(chǎn)品缺陷及因果關(guān)系認(rèn)定困難
目前,國家尚未對人工智能規(guī)定行業(yè)安全標(biāo)準(zhǔn),而證明人工智能的不合理危險(xiǎn)更加復(fù)雜,使得對人工智能產(chǎn)品缺陷的認(rèn)定標(biāo)準(zhǔn)陷入困境,人工智能又因其具有高度的專業(yè)性,普通受害者很難證明人工智能缺陷,因此,缺陷與損害之間的因果關(guān)系的證明難度進(jìn)一步加大。在人工智能侵權(quán)案件中,侵權(quán)行為的實(shí)施主體與損害結(jié)果之間的因果關(guān)系變得非常復(fù)雜。這種復(fù)雜性主要體現(xiàn)在:首先,司法機(jī)關(guān)難以闡明人工智能內(nèi)部決策機(jī)制,導(dǎo)致無法確定到底是因技術(shù)缺陷還是因操作不當(dāng)發(fā)生侵權(quán)行為的情況時(shí)有發(fā)生,人工智能技術(shù)因技術(shù)疊加而日漸復(fù)雜會加劇因果關(guān)系認(rèn)定的模糊,給司法機(jī)關(guān)審判活動(dòng)帶來很大難題;其次,人工智能技術(shù)復(fù)雜性會使現(xiàn)有的舉證歸責(zé)難以發(fā)生實(shí)際作用。按照一般侵權(quán)舉證責(zé)任誰主張、誰舉證的要求,人工智能被侵權(quán)人必須證明人工智能缺陷及缺陷與損害結(jié)果之間的因果關(guān)系成立,但是,人工智能技術(shù)的專業(yè)性和復(fù)雜性使受害人的舉證舉步維艱;最后,人工智能侵權(quán)行為發(fā)生的原因往往并非是單一的,并且各種原因?qū)σ蚬P(guān)系認(rèn)定帶來的影響程度也不盡相同,確定因果關(guān)系和取證的難度加大,會進(jìn)一步影響后續(xù)的侵權(quán)責(zé)任分配和承擔(dān)。
3.人工智能侵權(quán)歸責(zé)原則適用不明確
歸責(zé)原則由過錯(cuò)責(zé)任原則和無過錯(cuò)責(zé)任原則組成,但人工智能侵權(quán)無法普遍單一適用某種歸責(zé)原則,理由如下:在不參照類似的產(chǎn)品責(zé)任進(jìn)行歸責(zé)的情況下,人工智能侵權(quán)因沒有法律規(guī)定,應(yīng)該適用過錯(cuò)責(zé)任,過錯(cuò)責(zé)任原則是主觀歸責(zé)原則,它是指除非法律另有規(guī)定,任何人因且僅因過錯(cuò)(故意或過失)侵害他人民事權(quán)益造成損害的,才應(yīng)當(dāng)承擔(dān)侵權(quán)賠償責(zé)任。在現(xiàn)有的侵權(quán)責(zé)任法律制度框架下探討人工智能是否具有主觀過錯(cuò)是沒有實(shí)際意義的。適用過錯(cuò)歸責(zé)原則會加大受害人證明人工智能侵權(quán)的困難程度,因?yàn)槿斯ぶ悄芗夹g(shù)“黑箱”使得其運(yùn)行機(jī)制及潛在的威脅無法被受害人知曉,受害人大程度無法對人工智能缺陷進(jìn)行舉證,因此無法普遍適用過錯(cuò)責(zé)任原則。
若參照產(chǎn)品責(zé)任普遍適用無過錯(cuò)責(zé)任原則,同樣具有局限性,根據(jù)《民法典》規(guī)定,產(chǎn)品責(zé)任原則的責(zé)任承擔(dān)主體僅有生產(chǎn)者、銷售者,但由于人工智能制造過程復(fù)雜且程序繁瑣,設(shè)計(jì)者作為人工智能的頂層設(shè)計(jì)者具有極強(qiáng)的操控影響力,但是卻不需要承擔(dān)任何責(zé)任;其次人工智能在實(shí)際應(yīng)用中生產(chǎn)者以《產(chǎn)品質(zhì)量法》規(guī)定的兩種免責(zé)事由為抗辯事由會架空產(chǎn)品責(zé)任對人工智能的規(guī)范,再次適用產(chǎn)品責(zé)任會加大生產(chǎn)者、銷售者的責(zé)任,減弱使用者的責(zé)任,勢必限制人工智能的發(fā)展,這與法律是為促進(jìn)和保障人工智能發(fā)展原則相違背,因此普遍適用無過錯(cuò)原則實(shí)為不妥。
前文已分析了不應(yīng)賦予人工智能法律主體資格,因此不應(yīng)動(dòng)搖民事主體制度的根基。人工智能侵權(quán)發(fā)生后,依然由其背后的民事主體來承擔(dān)侵權(quán)責(zé)任。應(yīng)增加設(shè)計(jì)者為人工智能侵權(quán)責(zé)任主體,因?yàn)槿斯ぶ悄茉O(shè)計(jì)者對人工智能起到極強(qiáng)的操控作用,由于人工智能設(shè)計(jì)缺陷造成的侵權(quán),應(yīng)當(dāng)由人工智能設(shè)計(jì)者承擔(dān)侵權(quán)責(zé)任?!睹穹ǖ洹窙]有將設(shè)計(jì)者納入侵權(quán)責(zé)任主體,建議可以通過對“生產(chǎn)者”擴(kuò)大解釋,或直接對《民法典》第1202條的條文進(jìn)行增補(bǔ),將設(shè)計(jì)者增加到人工智能侵權(quán)責(zé)任主體;對于未按照設(shè)計(jì)者設(shè)計(jì)而生產(chǎn)制造,或因產(chǎn)品缺陷引發(fā)的人工智能侵權(quán),生產(chǎn)者應(yīng)承擔(dān)侵權(quán)責(zé)任,因?yàn)樯a(chǎn)者在人工智能制造過程中同樣起到舉足輕重的作用;對于銷售者隱瞞人工智能風(fēng)險(xiǎn)性夸大宣傳等過錯(cuò)導(dǎo)致人工智能發(fā)生侵權(quán)的,銷售者應(yīng)承擔(dān)侵權(quán)責(zé)任,因?yàn)殇N售者在人工智能使用前具有重要的作用;對于使用者操作不當(dāng)、未盡到謹(jǐn)慎義務(wù)或未盡到合理使用或妥善保管義務(wù)導(dǎo)致的人工智能侵權(quán),使用者應(yīng)承擔(dān)侵權(quán)責(zé)任,因?yàn)槭褂谜咴谌斯ぶ悄艿目刂浦衅鸬街鲗?dǎo)作用。因此人工智能侵權(quán)責(zé)任主體范圍包括設(shè)計(jì)者、生產(chǎn)者、銷售者、使用者。[6]
1.人工智能缺陷的認(rèn)定標(biāo)準(zhǔn)。
我國《民法典》和《產(chǎn)品質(zhì)量法》通常將產(chǎn)品缺陷分為設(shè)計(jì)缺陷、制造缺陷、警示缺陷,對于人工智能,應(yīng)將產(chǎn)品缺陷進(jìn)行類型化分析解決其缺陷的認(rèn)定標(biāo)準(zhǔn)問題:對于設(shè)計(jì)缺陷,可以借鑒德國、美國等采用“風(fēng)險(xiǎn)—效用”標(biāo)準(zhǔn),就是通過產(chǎn)品有用性與危險(xiǎn)性的比較,檢查設(shè)計(jì)研發(fā)者是否采取了適當(dāng)?shù)陌踩U洗胧?以判定產(chǎn)品是否存在設(shè)計(jì)缺陷;對于制造缺陷,采用“對預(yù)期設(shè)計(jì)的偏離”標(biāo)準(zhǔn),即若存在不符合原有設(shè)計(jì)的情況,則屬于制造缺陷;對于警示缺陷,可以采用“合理充分”標(biāo)準(zhǔn),能夠?qū)㈩A(yù)見到的人工智能潛在危險(xiǎn)完整的寫為警示語,即盡到了充分合理的警示義務(wù)。[7]
2.人工智能侵權(quán)因果關(guān)系適用舉證責(zé)任倒置規(guī)則。
舉證責(zé)任分配是影響因果關(guān)系成立的重要因素,尋找到契合人工智能侵權(quán)的舉證責(zé)任分配方式對受害人而言能有效地降低訴訟成本,對審判人員而言能夠起到簡化責(zé)任認(rèn)定的效果??陀^來看,人工智能侵權(quán)的受害方是整個(gè)侵權(quán)事故流通環(huán)節(jié)的弱勢一方,由于專業(yè)知識匱乏、經(jīng)濟(jì)實(shí)力無法與人工智能設(shè)計(jì)、生產(chǎn)、銷售主體相提并論,使其往往無力證明人工智能缺陷與損害結(jié)果之間存在因果關(guān)系。鑒于這種情況,國外一些國家采用了因果關(guān)系推定的方式,以期減輕受害人的舉證負(fù)擔(dān),保護(hù)受害人的利益。[8]在操作方式上,主要通過發(fā)生的事實(shí)來推定因果關(guān)系。如美國采用了泛行業(yè)責(zé)任和市場份額責(zé)任:泛行業(yè)責(zé)任要求只要被告的生產(chǎn)活動(dòng)是整個(gè)產(chǎn)品生產(chǎn)中不可分割的部分,則原告可以將各個(gè)生產(chǎn)部門作為被告;[9]市場份額責(zé)任是根據(jù)一定時(shí)期內(nèi)各個(gè)被告作為獨(dú)立生產(chǎn)者投入市場的產(chǎn)品數(shù)量與同種產(chǎn)品的市場總量之比例,可以確定各被告應(yīng)負(fù)的責(zé)任。[10]我國實(shí)務(wù)中雖然無這種泛行業(yè)責(zé)任和市場份額責(zé)任,但是也有受害人只要能夠證明自己沒有不當(dāng)使用產(chǎn)品的情形,即可推定產(chǎn)品存在不合理風(fēng)險(xiǎn),繼而推定產(chǎn)品與損害之間存在因果關(guān)系的做法。毫無疑問的是這種推定是建立在受害人無過錯(cuò)的事實(shí)基礎(chǔ)之上,立意是不苛刻要求受害人對侵權(quán)責(zé)任進(jìn)行分擔(dān)。在人工智能侵權(quán)案件中,仍然可以將這種做法確認(rèn)并推廣,認(rèn)定侵權(quán)損害結(jié)果的出現(xiàn)與人工智能產(chǎn)品缺陷存在因果關(guān)系,因此適用舉證責(zé)任倒置的方式來分配舉證責(zé)任是比較合理的做法,原因如下:
第一,符合我國民事訴訟相關(guān)法律法規(guī)中關(guān)于舉證責(zé)任倒置的規(guī)定。2019年最高法頒布了《關(guān)于修改〈關(guān)于民事訴訟證據(jù)的若干規(guī)定〉的決定》,結(jié)合該決定和相關(guān)法律法規(guī)中對舉證責(zé)任倒置的情形的規(guī)定,可以將舉證責(zé)任倒置簡單概括為三種情況:一是實(shí)行過錯(cuò)推定的侵權(quán)訴訟;二是實(shí)行因果關(guān)系推定的侵權(quán)訴訟;三是難以收集證據(jù)或難以舉證的訴訟。無論從哪種情形來考量,人工智能侵權(quán)都符合舉證責(zé)任倒置的要求,因此人工智能侵權(quán)不適用“誰主張、誰舉證”的一般性舉證原則。
第二,由人工智能設(shè)計(jì)者、生產(chǎn)者、銷售者來承擔(dān)舉證責(zé)任有敦促上述各方充分盡到注意義務(wù),將人工智能產(chǎn)品的缺陷控制在極低的范圍內(nèi)。如上文所述,人工智能因其高度的專業(yè)性、技術(shù)性、復(fù)雜性使受害人難以掌握舉證的關(guān)鍵問題,受害人對數(shù)據(jù)分析、技術(shù)參數(shù)、運(yùn)行機(jī)制等核心問題的認(rèn)知空白,導(dǎo)致其無法形成邏輯嚴(yán)密的證明過程,即使是委托專業(yè)律師也難以對上述問題有準(zhǔn)確的技術(shù)判斷。此時(shí)由設(shè)計(jì)者、生產(chǎn)者、銷售者來證明其產(chǎn)品不存在缺陷,會反過來使上述各方更加注意對人工智能產(chǎn)品缺陷的控制,防止在訴訟中處于被動(dòng)的局面。
第三,舉證責(zé)任倒置客觀上達(dá)到了實(shí)現(xiàn)人工智能技術(shù)進(jìn)步的目的。通過舉證責(zé)任由受害者向人工智能設(shè)計(jì)者、生產(chǎn)者、銷售者的轉(zhuǎn)移,客觀上使這些主體不得不用更進(jìn)步安全的技術(shù)使人工智能產(chǎn)品適應(yīng)市場的需要,在降低人工智能產(chǎn)品缺陷和風(fēng)險(xiǎn)的同時(shí),不得不強(qiáng)化現(xiàn)有技術(shù)的進(jìn)步與升級,從長遠(yuǎn)的角度來看,舉證責(zé)任的倒置使人工智能產(chǎn)業(yè)的關(guān)聯(lián)方更加重視技術(shù)的安全性,有利于人工智能技術(shù)的進(jìn)步。
1.設(shè)計(jì)者、生產(chǎn)者承擔(dān)責(zé)任適用無過錯(cuò)歸責(zé)原則。
對設(shè)計(jì)者、生產(chǎn)者適用無過錯(cuò)歸責(zé)原則的主要原因有以下兩點(diǎn):第一是由于設(shè)計(jì)者、生產(chǎn)者對人工智能起到頂層設(shè)計(jì)的作用,干預(yù)性較強(qiáng),適用無過錯(cuò)責(zé)任原則能夠使其履行謹(jǐn)慎審查義務(wù),從根本上減少人工智能侵權(quán)事件發(fā)生,第二是由于在實(shí)踐中較難區(qū)分設(shè)計(jì)缺陷和制造缺陷,因此對設(shè)計(jì)者和生產(chǎn)者適用無過錯(cuò)責(zé)任原則能有效維護(hù)被侵權(quán)人權(quán)益,減輕其舉證壓力。
2.銷售者、使用者承擔(dān)責(zé)任適用過錯(cuò)歸責(zé)原則。
對于銷售者、適用過錯(cuò)責(zé)任原則,銷售者作為為設(shè)計(jì)者、生產(chǎn)者和購買人中間的橋梁,并不直接掌握人工智能核心技術(shù),但銷售者應(yīng)當(dāng)盡到警示義務(wù),對人工智能在使用過程中可能存在的風(fēng)險(xiǎn)應(yīng)向消費(fèi)者逐一告知,對其存在虛假或夸大宣傳的應(yīng)當(dāng)承擔(dān)責(zé)任。對使用者適用過錯(cuò)責(zé)任原則的特殊形式——過錯(cuò)推定原則,因?yàn)槭褂谜咴谌斯ぶ悄芮謾?quán)中占據(jù)操控主導(dǎo)地位,且負(fù)有合理使用與妥善管理的義務(wù),對使用者適用過錯(cuò)推定原則能有效減輕被侵權(quán)人舉證責(zé)任,不適宜適用一般過錯(cuò)原則是因?yàn)楸磺謾?quán)人的權(quán)益無法得到保障,不適宜適用無過錯(cuò)責(zé)任是因?yàn)槿斯ぶ悄芫哂袕?fù)雜性,在自主運(yùn)行的模式下,對使用者適用嚴(yán)格責(zé)任過于苛刻,會打擊使用者的積極性。
綜上,對使用者適用過錯(cuò)推定原則,設(shè)計(jì)者、生產(chǎn)者、銷售者因人工智能缺陷對外承擔(dān)不真正連帶責(zé)任,內(nèi)部各自區(qū)別適用不同歸責(zé)原則,這樣的歸責(zé)建構(gòu)考慮了人工智能的特性和合理的保護(hù)了被侵權(quán)人權(quán)益和弱勢地位。在內(nèi)部實(shí)際分擔(dān)時(shí),各方主體應(yīng)當(dāng)根據(jù)所負(fù)責(zé)的環(huán)節(jié)舉證各自責(zé)任義務(wù)與免責(zé)事由。還可以通過保險(xiǎn)和賠償基金的方式將其所承擔(dān)的侵權(quán)損害賠償責(zé)任進(jìn)行轉(zhuǎn)嫁,具體而言可以要求設(shè)計(jì)、生產(chǎn)、銷售人工智能侵權(quán)的主體以強(qiáng)制保險(xiǎn)的形式來對人工智能進(jìn)行投保,一旦其發(fā)生侵權(quán)行為,經(jīng)司法機(jī)關(guān)確認(rèn),由保險(xiǎn)公司承擔(dān)相應(yīng)的賠償責(zé)任。
齊齊哈爾大學(xué)學(xué)報(bào)(哲學(xué)社會科學(xué)版)2023年10期