梁柯惠
(遼寧科技大學(xué),遼寧 鞍山 114000)
確認(rèn)人工智能產(chǎn)品致人損害的民事責(zé)任主體,首先要明確其引發(fā)致人損害的具體原因,概括而言存在下列可能:原因一,研發(fā)者,即產(chǎn)品具體程序的編寫者,在研發(fā)人工智能產(chǎn)品時,存在設(shè)計、技術(shù)方面的漏洞,且未能及時發(fā)現(xiàn)即投入生產(chǎn)。原因二,生產(chǎn)者在生產(chǎn)活動中導(dǎo)致質(zhì)量制造方面的缺陷。原因三,銷售者因其銷售或儲藏行為導(dǎo)致產(chǎn)品發(fā)生問題。原因四,占有者、使用者因其不當(dāng)?shù)氖褂眯袨榇嬖谥卮筮^失而致?lián)p害的產(chǎn)生。原因五,研發(fā)者、生產(chǎn)者、銷售者以及占有者、使用者均不存在過失且在合理范圍內(nèi)使用,而是由于人工智能產(chǎn)品的自主意識行為做出了不當(dāng)或錯誤的判斷結(jié)果,導(dǎo)致?lián)p害后果的發(fā)生。
在原因五的復(fù)雜情況下,不能適用上述的產(chǎn)品質(zhì)量法和侵權(quán)責(zé)任法。原因如下:首先,研發(fā)者、生產(chǎn)者和銷售者均已盡到了注意義務(wù),不存在過失行為。若在此情況下仍要求上述主體承擔(dān)責(zé)任,則在承擔(dān)責(zé)任過重的情況下,將會對人工智能算法技術(shù)的創(chuàng)新和發(fā)展產(chǎn)生抑制的效果。其次,亦不能單純地將人工智能產(chǎn)品視為是占有者、使用者的動產(chǎn),讓其自行承擔(dān)責(zé)任。由于占有者、使用者的預(yù)見性有限,且已然在使用過程中盡到合理的注意義務(wù),人工智能產(chǎn)品雖然是依據(jù)使用者的口令進(jìn)行一定的行為,但究其本質(zhì),是在完成研發(fā)者對其設(shè)計的相關(guān)程序,甚至在完成程序的同時還會發(fā)揮其獨立的意志,這是一種復(fù)雜的特殊情況。
從人工智能產(chǎn)品的本質(zhì)來看,人工智能產(chǎn)品的性質(zhì)還是產(chǎn)品,因此應(yīng)當(dāng)適用產(chǎn)品責(zé)任[1]。根據(jù)侵權(quán)責(zé)任法的規(guī)定,產(chǎn)品責(zé)任的主體是生產(chǎn)者和銷售者。然而人工智能產(chǎn)品是特殊的產(chǎn)品,由于人工智能產(chǎn)品能夠運行、怎樣運行的決定權(quán)在于其研發(fā)者,因此傾向于將研發(fā)者也列入至責(zé)任主體。此外,人工智能產(chǎn)品缺陷包括設(shè)計缺陷、生產(chǎn)缺陷和警示缺陷。其中,設(shè)計缺陷對應(yīng)設(shè)計者,警示缺陷對應(yīng)生產(chǎn)者。因此,在考慮責(zé)任承擔(dān)主體時,應(yīng)當(dāng)將研發(fā)者也包含進(jìn)去。
例如,在美國第一起關(guān)于汽車自動駕駛功能的交通事故案例中[2],明確責(zé)任承擔(dān)的主體還有一個必不可少的因素:考慮自動駕駛汽車的分級標(biāo)準(zhǔn),國際汽車工程師協(xié)會將自動駕駛汽車的無人駕駛程度分為五個級別,SAE0-2級是應(yīng)當(dāng)由駕駛員所監(jiān)控的駕駛環(huán)境,SAE 3-5級隨著級別的升高,自動駕駛系統(tǒng)的可操控范圍越大,這種分級標(biāo)準(zhǔn)將汽車自動駕駛功能的可操控程度進(jìn)行了明確的劃分,即駕駛輔助功能和自動駕駛功能。就駕駛輔助功能而言,發(fā)生交通事故仍然按照傳統(tǒng)的交通事故一樣處理,現(xiàn)行法律能夠處理此類問題。而SAE3-5級車輛的駕駛員對于車輛自動駕駛系統(tǒng)的介入程度存在差異,具體行駛過程中也可能會存在控制車輛的程度不同的情況。特斯拉公司在該事故中被認(rèn)定為無責(zé)正是因為其所配備的AEB系統(tǒng)僅為自動駕駛輔助的級別,若不對無人駕駛汽車的自動化程度進(jìn)行區(qū)分,忽視其在駕駛過程中所發(fā)揮的作用,就會存在事故責(zé)任主體認(rèn)定的問題。
侵權(quán)責(zé)任法第四十三條規(guī)定,被侵權(quán)人因產(chǎn)品存在缺陷而造成損害的,既可以請求產(chǎn)品的生產(chǎn)者承擔(dān)賠償責(zé)任,也可以向產(chǎn)品的銷售者請求賠償。因此,人工智能產(chǎn)品作為一種特殊的產(chǎn)品,其責(zé)任形態(tài)也應(yīng)當(dāng)是不真正連帶責(zé)任。但若想解決實務(wù)問題,還應(yīng)當(dāng)依據(jù)上文所述,在責(zé)任主體中,除了已規(guī)定的生產(chǎn)者和銷售者外,還應(yīng)增加產(chǎn)品的研發(fā)者[3]。
此外,將人工智能產(chǎn)品致人損害的責(zé)任形態(tài)認(rèn)定為是不真正連帶責(zé)任還有利于明確各主體之間的責(zé)任劃分,通過法律規(guī)定使各主體各擔(dān)其責(zé),厘清研發(fā)者、生產(chǎn)者、銷售者各自的責(zé)任劃分和責(zé)任承擔(dān)范圍。在賦予被侵權(quán)人自由選擇責(zé)任主體的權(quán)利后,明確各主體之間的責(zé)任劃分,若損害不是由于自己的缺陷而產(chǎn)生,則任何一方在承擔(dān)賠償責(zé)任后,均對有責(zé)的一方享有追償?shù)臋?quán)利。做到了在損害結(jié)果發(fā)生時既有主體承擔(dān)責(zé)任,又保障了在責(zé)任承擔(dān)后各主體依據(jù)事實和證據(jù)向其他主體追責(zé)的權(quán)利。在解決實際問題時,對侵權(quán)責(zé)任的責(zé)任形態(tài)也予以充分考慮,從而使人工智能產(chǎn)品侵權(quán)責(zé)任的相關(guān)規(guī)定更加完善,在鼓勵人工智能科技產(chǎn)業(yè)蓬勃發(fā)展的同時,也給予了被侵權(quán)人充分的消費安全保護(hù)。
由于人工智能產(chǎn)品在發(fā)揮其具體功能時需要獲取有關(guān)使用者的各類信息,正常情況下,其獲得這些信息的來源應(yīng)當(dāng)是來自使用者的同意和授權(quán),但是不能排除在一些情況下,使用者不愿意被知悉的信息被產(chǎn)品獲取后被其整理、分析,并被上傳到其他平臺,被用于開發(fā)潛在用戶、企業(yè)商用備案,甚至是買賣個人信息等非法或未經(jīng)使用者授權(quán)的其他用途[4]。而使用者通常因為不了解其運營程序而無法及時知悉并阻止類似事件的發(fā)生,當(dāng)使用者發(fā)現(xiàn)個人權(quán)利受到侵害為時已晚。此外,由于人工智能產(chǎn)品先進(jìn)的自主意志和學(xué)習(xí)功能,將會不可避免的導(dǎo)致其行為的不可預(yù)測,進(jìn)而決定了結(jié)果總是滯后的發(fā)生,為損害結(jié)果的滯后性。
人工智能產(chǎn)品作為一種特殊的產(chǎn)品,會存在由于智能產(chǎn)品的自主意志進(jìn)行決策從而導(dǎo)致?lián)p害結(jié)果出現(xiàn)的情況,如果各主體能夠證明產(chǎn)品所致?lián)p害是由于科學(xué)技術(shù)水平不能發(fā)現(xiàn)而造成的缺陷,在這種極端情況下凸顯了為產(chǎn)品投保強制責(zé)任險及商業(yè)險的必要性。首先,為人工智能產(chǎn)品進(jìn)行投保是對被侵權(quán)人權(quán)利的有效保障,可以確保在缺少責(zé)任承擔(dān)主體時,被侵權(quán)人的權(quán)利能夠得到及時有效地保護(hù)。其次,若將購買強制責(zé)任險及商業(yè)險規(guī)定在法律之中,可以更好地督促研發(fā)者完善技術(shù)、生產(chǎn)者注重質(zhì)量、銷售者保障安全,利于人工智能科學(xué)技術(shù)的繁榮和發(fā)展。除對人工智能產(chǎn)品進(jìn)行投保外,在產(chǎn)品投入市場時,由于科學(xué)技術(shù)水平有限尚未發(fā)現(xiàn)產(chǎn)品缺陷的,應(yīng)當(dāng)履行跟蹤服務(wù)義務(wù);若發(fā)現(xiàn)技術(shù)缺陷,則應(yīng)當(dāng)對存在缺陷的產(chǎn)品實施召回制度,因沒有及時采取召回措施而發(fā)生損害的,則仍然應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。
通過上文的分析論述可以清晰地認(rèn)識到,在人工智能技術(shù)飛速發(fā)展和廣泛應(yīng)用的現(xiàn)代社會,對人工智能產(chǎn)品主體的研究是進(jìn)行其他研究的基礎(chǔ)和前提。為人工智能產(chǎn)品設(shè)置民事責(zé)任時,應(yīng)當(dāng)秉持著在保證人類社會安全的情況下,不能限制人工智能技術(shù)的發(fā)展這一基本理念,這就要求不能設(shè)置趨于嚴(yán)苛的責(zé)任,否則將過于加重科研人員的負(fù)擔(dān)、違背科學(xué)規(guī)律、阻礙科技的發(fā)展;亦不能設(shè)置過輕,否則不能滿足保障安全的基本準(zhǔn)則。
在通過分析人工智能產(chǎn)品特殊性質(zhì)后,也要敏感地認(rèn)識到現(xiàn)行民法在解決實際問題時的局限性,很多關(guān)于侵權(quán)責(zé)任的細(xì)節(jié)問題也尚未定論。在對美國發(fā)生關(guān)于無人駕駛汽車的具體案例進(jìn)行分析后,更為細(xì)致地對現(xiàn)行民法中關(guān)于侵權(quán)責(zé)任的原則、劃分、救濟等內(nèi)容的缺失和不足提出了建議。有理由相信,在加強對人工智能產(chǎn)品研發(fā)者、生產(chǎn)者、銷售者的倫理道德規(guī)范約束以及完善相關(guān)市場監(jiān)管制度的前提下,通過強制性的法律規(guī)定正式對責(zé)任體系進(jìn)行補充和修繕,使其受法律約束,從法律層面上降低人工智能產(chǎn)品所帶來的風(fēng)險,從而加速我國的人工智能科技產(chǎn)業(yè)的發(fā)展,推動經(jīng)濟的進(jìn)步。