寧金成 李瑞升
(1.2.鄭州大學(xué) 法學(xué)院,河南 鄭州450052)
人工智能浪潮方興未艾,在很多領(lǐng)域展示出巨大應(yīng)用前景,然而隨著人工智能技術(shù)的發(fā)展,其高智能、自主決策的特性在應(yīng)用中卻引發(fā)一系列倫理問(wèn)題,比如智能主播因?qū)W“壞”而辱罵聽眾、自動(dòng)駕駛汽車為自我避險(xiǎn)而沖撞行人等,這些問(wèn)題應(yīng)如何避免并確定相關(guān)的責(zé)任,相關(guān)立法并未及時(shí)回應(yīng)。雖然人工智能已經(jīng)歷了半個(gè)多世紀(jì)的發(fā)展,但有關(guān)人工智能的立法國(guó)內(nèi)外都沒(méi)有及時(shí)跟進(jìn),人工智能的屬性、質(zhì)量標(biāo)準(zhǔn)、法律責(zé)任等仍處于制度空白,這與人工智能的發(fā)展現(xiàn)狀及對(duì)人類社會(huì)的巨大影響是不相稱的。目前讓人工智能取得法律主體地位還不具有充分的說(shuō)服力,但如果將人工智能作為物來(lái)對(duì)待,人工智能自動(dòng)決策的現(xiàn)象卻要求其表現(xiàn)要符合人類社會(huì)倫理規(guī)范,對(duì)人工智能的規(guī)制現(xiàn)行制度顯得力不從心。未來(lái)人工智能發(fā)展最大的問(wèn)題,不是科學(xué)技術(shù)上的瓶頸,而是如何正確設(shè)置、處理人工智能與人類的關(guān)系問(wèn)題。如果不把人類社會(huì)倫理規(guī)范引入人工智能的安全標(biāo)準(zhǔn)立法之中,可能人工智能帶給我們的不僅僅是便捷,還有無(wú)窮無(wú)盡的麻煩。遺憾的是,我國(guó)法學(xué)界對(duì)人工智能現(xiàn)象的探討尚未全面展開,近年來(lái)掀起的人工智能研究熱潮也主要集中于人工智能的法律地位、人工智能生成物的權(quán)利歸屬、人工智能侵權(quán)責(zé)任的承擔(dān)等問(wèn)題,但對(duì)于人工智能活動(dòng)與人類社會(huì)倫理規(guī)范的關(guān)系、人類社會(huì)倫理規(guī)范如何約束人工智能,現(xiàn)有研究缺乏從立法角度的實(shí)證分析。盡管倫理學(xué)也對(duì)“機(jī)器人能否成為倫理主體”問(wèn)題開始研討,但法律倫理的交叉研究其實(shí)還沒(méi)有展開。因此,本文從人工智能的特性出發(fā),探討人工智能倫理標(biāo)準(zhǔn)的立法構(gòu)建,以保障科技造福人類最終目標(biāo)的實(shí)現(xiàn)。
人工智能技術(shù)是模擬、延伸、擴(kuò)展人的智能的理論、方法及應(yīng)用的一門科學(xué),也是迄今為止最具有挑戰(zhàn)性的一門科學(xué)。人工智能開啟了人類生產(chǎn)生活的全新方式,不過(guò)一門新興科技帶來(lái)的福與禍總是相伴而行[1],目前隨著人工智能的普及,其“脆弱面”也逐漸暴露,帶來(lái)一系列棘手的問(wèn)題。比如自動(dòng)駕駛汽車為了避免違反交通規(guī)則而沖撞了行人,這種自動(dòng)化決策是否具有正當(dāng)性,應(yīng)該用何種標(biāo)準(zhǔn)來(lái)判斷這種決策是否選擇不當(dāng)?再比如人工智能主播在閱讀資料時(shí)接觸了人類的欺詐案例,進(jìn)而出現(xiàn)欺詐聽眾的情形,這是不應(yīng)該出現(xiàn)的現(xiàn)象,但用何種標(biāo)準(zhǔn)來(lái)約束、規(guī)制這種現(xiàn)象?
這些問(wèn)題的出現(xiàn)都源于人工智能對(duì)人類活動(dòng)的模擬甚至現(xiàn)實(shí)的取代。人工智能與以往所有人類制造物存在的不同,就是人工智能具有同人類一樣甚至超越人類的思維判斷和行動(dòng)能力。人工智能技術(shù)發(fā)展的最高理想是代替人類決策,比如醫(yī)療人工智能就可以代替醫(yī)療人員從事特定的診療工作,甚至比醫(yī)生做的更好。2017年3月29日,阿里在云棲大會(huì)深圳峰會(huì)上展示了基于阿里云服務(wù)的超聲甲狀腺結(jié)節(jié)智能診斷系統(tǒng)的實(shí)際應(yīng)用情況。這個(gè)診斷系統(tǒng)利用人工智能,將甲狀腺結(jié)節(jié)診斷的準(zhǔn)確率從60%~70%提高到了85%[2]。人工智能具有高度自主性、復(fù)雜性,非一般物可以比擬,這使得我們不得不在一些場(chǎng)合將人工智能當(dāng)做“人”來(lái)看待,比如谷歌開發(fā)的無(wú)人駕駛汽車的人工智能車載系統(tǒng)就被美國(guó)官方認(rèn)定為“司機(jī)”。高級(jí)人工智能可以像人類一樣進(jìn)行邏輯推理甚至從事創(chuàng)造性工作,一些寫作人工智能在無(wú)須向系統(tǒng)輸入任何先天知識(shí)、無(wú)人類智慧直接參與的前提下,系統(tǒng)自身可以獨(dú)立生成新的智力內(nèi)容、創(chuàng)造新的成果比如一篇新聞報(bào)道、一首詩(shī)歌。有學(xué)者就認(rèn)為,只要是人工智能獨(dú)立完成的,其所生成的內(nèi)容具有獨(dú)創(chuàng)性就能夠構(gòu)成作品[3]。人工智能是用來(lái)解決某些實(shí)際問(wèn)題的,但人工智能不會(huì)經(jīng)過(guò)人類思維這個(gè)中介,不會(huì)以人類社會(huì)價(jià)值觀為背景做出判斷,如何更像人類也不是人工智能的發(fā)展方向,比如自動(dòng)駕駛技術(shù)不僅是在汽車上安裝了自動(dòng)駕駛程序,還采集大量的地圖地貌信息加入程序以使得駕駛更加符合實(shí)際需求。既然人工智能從事的行為如同人類自己在從事一樣,那么倫理選擇權(quán)也交給人工智能了,這種情況下就需要以人類社會(huì)規(guī)范來(lái)檢視人工智能的表現(xiàn),其底線就是應(yīng)符合人類社會(huì)法律法規(guī)、倫理道德的要求。
人工智能活動(dòng)需要遵守人類社會(huì)的法律、倫理規(guī)則,但一般來(lái)講,法律是規(guī)范法律主體的、道德是規(guī)范人類社會(huì)自然人的,作為客體的物不是法律、道德規(guī)范的對(duì)象。對(duì)于人工智能的法律地位和屬性,近年來(lái)也引發(fā)激烈爭(zhēng)論。一些學(xué)者認(rèn)為,在傳統(tǒng)法視野下將人工智能視為物已不能解決其致?lián)p侵權(quán)問(wèn)題,人工智能與傳統(tǒng)機(jī)器的區(qū)別在于其具有“人”的自主性,按照目前人工智能的發(fā)展趨勢(shì),人工智能必將獲得脫離人類控制的獨(dú)立自主能力,賦予其民事主體地位并自行擔(dān)責(zé)是大勢(shì)所趨。盡管對(duì)如何賦予人工智能法律人格,學(xué)界還存在爭(zhēng)議,比如有的學(xué)者認(rèn)為,人工智能應(yīng)該具有類似于企業(yè)法人的法律人格[4],還有學(xué)者認(rèn)為,人工智能應(yīng)當(dāng)具有法律人格,但是屬于有限的法律人格[5],但這些觀點(diǎn)都傾向于在確定人工智能民事主體地位的前提下解決現(xiàn)有的法律問(wèn)題。如果將人工智能視為民事主體,那么就要圍繞人工智能專門設(shè)計(jì)其權(quán)利義務(wù)享有制度和法律責(zé)任承擔(dān)制度。但這種推翻原有民法規(guī)則的做法其實(shí)沒(méi)有必要和可行性。從立法的目的和效果上看,把某一實(shí)體設(shè)計(jì)為民事主體是為了激勵(lì)、控制、約束、規(guī)范其行為。但人工智能運(yùn)作模式都是由設(shè)計(jì)者設(shè)計(jì)的程序控制決定的,人工智能也不可能對(duì)人類制定的法律產(chǎn)生敬畏等意識(shí),因此,法律不可能對(duì)人工智能的所作所為進(jìn)行激勵(lì)、約束或控制,需要約束、規(guī)范的是人工智能背后的設(shè)計(jì)者、生產(chǎn)者、使用者的行為。因此,將人工智能作為民事主體、責(zé)任主體進(jìn)行法律調(diào)整沒(méi)有實(shí)際價(jià)值。反過(guò)來(lái)講,如果認(rèn)為人工智能是主體或者具有人格屬性,那么就要從根本上改變民法的人與物二分法的基本體系,就要針對(duì)人工智能創(chuàng)造出調(diào)整現(xiàn)有人與物之外的第三種基本規(guī)則來(lái)調(diào)整人工智能這種存在形式,但人工智能顯然沒(méi)有這樣強(qiáng)烈的需求和如此大的沖擊力?!懊鎸?duì)人工智能技術(shù)的發(fā)展,用現(xiàn)行民法的基本理念和基本規(guī)則進(jìn)行適當(dāng)調(diào)整,就能夠解決其所帶來(lái)的問(wèn)題。不必急急忙忙、不假思索地想著改變民法的基本理念和基本規(guī)則?!保?]因此,可以得出結(jié)論,目前我國(guó)立法目前沒(méi)有賦予人工智能以民事主體地位,在未來(lái)一段時(shí)間內(nèi)也不需要修改法律賦予人工智能民事主體地位以使其可以獨(dú)立享有權(quán)利、履行義務(wù)。
目前人工智能“是法律關(guān)系的客體而非主體。”[7]但越來(lái)越多的社會(huì)實(shí)踐證明,物并非與道德無(wú)關(guān),物蘊(yùn)含著人類的思想,物反作用于人的思維方式,物與人類道德密切相關(guān)。在美國(guó)紐約州通往瓊斯海灘的路上,有一座摩西橋非常低,只有私家車可以通過(guò),而公共汽車則不能,這讓瓊斯海灘成為只向富人開放的海灘,這種設(shè)計(jì)因此受到指責(zé)[8]。雖然橋梁不具有人的意志,但設(shè)計(jì)行為、設(shè)計(jì)過(guò)程與設(shè)計(jì)結(jié)果都要接受人類法律、道德的評(píng)判。反過(guò)來(lái),特定物的設(shè)計(jì)、運(yùn)用也會(huì)反作用于人類道德,比如馬路上減速帶的設(shè)計(jì)可以促進(jìn)人們養(yǎng)成禮讓行人的良好道德風(fēng)尚,地鐵進(jìn)出口驗(yàn)票通道中的閘門設(shè)計(jì)可以規(guī)避乘客逃票行為。“人類的最高目標(biāo)是人類的全面發(fā)展,技術(shù)只是為這個(gè)目標(biāo)服務(wù)的手段?!保?]人類所制造、設(shè)計(jì)的物都應(yīng)該考慮權(quán)利、公平等社會(huì)價(jià)值問(wèn)題,人工智能也如此。人工智能屬于物,但同樣蘊(yùn)含著倫理主張、倫理需求。人工智能不具有人類所獨(dú)有的道德情感以及是非善惡意識(shí),人工智能在解決一個(gè)具體問(wèn)題時(shí)只能通過(guò)已有的有限數(shù)據(jù)來(lái)作出判斷決策,缺乏像人一樣決策時(shí)的社會(huì)倫理語(yǔ)境,但其自動(dòng)化的行為和決策卻不得違背我們?nèi)祟惖膫惱淼赖乱?guī)范底線,因此要特別對(duì)人工智能活動(dòng)加入社會(huì)倫理規(guī)范。本質(zhì)的問(wèn)題是如果將決策權(quán)交予人工智能,卻又對(duì)倫理問(wèn)題不管不問(wèn),人類就面臨著失控的風(fēng)險(xiǎn)。實(shí)踐中已頻頻出現(xiàn)類似的實(shí)例,微軟推出的智能聊天機(jī)器人Tay上線24 小時(shí)即在與人的交流過(guò)程中,被“教壞”而成為滿嘴臟話的“不良少女”,被緊急下線[10]。這不啻為一記警鐘。當(dāng)然有時(shí)候用戶自身可能道德素質(zhì)不高,人工智能違反道德的決策可能與用戶的要求并不違背,但人工智能作為影響整個(gè)人類發(fā)展的高科技產(chǎn)品,為其設(shè)置法律、倫理道德底線以從整體上把控這一領(lǐng)域的發(fā)展方向十分有必要。2018年12月歐盟人工智能高級(jí)別專家組發(fā)布了一份人工智能道德準(zhǔn)則草案,將人工智能倫理問(wèn)題的規(guī)范化、制度化正式提上日程,這值得我們借鑒。
針對(duì)人工智能活動(dòng)應(yīng)建立倫理規(guī)則,但這種倫理規(guī)則應(yīng)如何建立,這需要從人工智能的本質(zhì)屬性出發(fā)來(lái)考察。
人工智能倫理規(guī)則應(yīng)如何構(gòu)建取決于人工智能的屬性,取決于人工智能應(yīng)接受何種制度的規(guī)范。人工智能目前只是人類的工具,不應(yīng)該超越于人類而具有獨(dú)立存在的價(jià)值,人工智能發(fā)展的一個(gè)里程碑式事件是機(jī)器人“索菲亞”取得沙特阿拉伯國(guó)籍,但機(jī)器人“索菲亞”取得沙特阿拉伯國(guó)籍后,也并未真正行使公民權(quán)利、履行公民義務(wù),因此人工智能在本質(zhì)上仍然屬于物,人工智能應(yīng)置于人類的控制下。那么人工智能屬于何種屬性的物?《中華人民共和國(guó)產(chǎn)品質(zhì)量法》第二條規(guī)定,本法所稱產(chǎn)品是指經(jīng)過(guò)加工、制作,用于銷售的產(chǎn)品。人工智能是人類設(shè)計(jì)的,是經(jīng)過(guò)加工、制作出來(lái)的,生產(chǎn)人工智能的目的是為參與流通即銷售,從這一點(diǎn)來(lái)看,人工智能仍然屬于產(chǎn)品的范疇,應(yīng)接受產(chǎn)品制度的調(diào)整。實(shí)踐中對(duì)人工智能的分類也是從產(chǎn)品領(lǐng)域角度進(jìn)行的,將人工智能分為醫(yī)療人工智能產(chǎn)品、智能寫作人工智能產(chǎn)品、自動(dòng)駕駛汽車等。如果人工智能屬于產(chǎn)品,那么就應(yīng)接受《產(chǎn)品質(zhì)量法》產(chǎn)品質(zhì)量、產(chǎn)品責(zé)任等制度的調(diào)整。對(duì)此問(wèn)題學(xué)界也有不少探討,比如以產(chǎn)品責(zé)任解決自動(dòng)駕駛汽車致?lián)p事故,就得到了較為廣泛的認(rèn)可[11]。在人工智能屬于產(chǎn)品的情況下,以產(chǎn)品質(zhì)量法中的產(chǎn)品責(zé)任制度規(guī)制人工智能領(lǐng)域的活動(dòng),也具有多個(gè)方面的可行性:
第一,人工智能帶來(lái)的風(fēng)險(xiǎn)只有通過(guò)產(chǎn)品責(zé)任規(guī)制生產(chǎn)設(shè)計(jì)行為才能得以良好控制。在很多時(shí)候人工智能致?lián)p時(shí)其處于完全自主的狀態(tài),比如谷歌的人工智能概念車就已經(jīng)完全取消了方向盤、剎車等干預(yù)裝置,車內(nèi)的人是乘客而不是司機(jī),此時(shí)發(fā)生交通肇事事故,判斷誰(shuí)有過(guò)錯(cuò)并進(jìn)而確定責(zé)任人就成為難題。如果適用一般侵權(quán)責(zé)任的過(guò)錯(cuò)歸責(zé)原則無(wú)法解決人工智能致?lián)p侵權(quán)責(zé)任,我國(guó)《侵權(quán)責(zé)任法》在第六條和第七條還規(guī)定了過(guò)錯(cuò)推定規(guī)則和無(wú)過(guò)錯(cuò)責(zé)任,不過(guò)適用過(guò)錯(cuò)推定規(guī)則和無(wú)過(guò)錯(cuò)責(zé)任都需要法律的明確規(guī)定,也就是說(shuō)在沒(méi)有法律專門規(guī)定人工智能致?lián)p侵權(quán)適用過(guò)錯(cuò)推定和無(wú)過(guò)錯(cuò)責(zé)任時(shí),就無(wú)法適用??傊?,現(xiàn)有的侵權(quán)法不足以解決自動(dòng)駕駛汽車帶來(lái)的問(wèn)題[12]。而我國(guó)對(duì)產(chǎn)品責(zé)任制度規(guī)定了生產(chǎn)者的無(wú)過(guò)錯(cuò)責(zé)任,人工智能在沒(méi)有外來(lái)干擾的情況下在運(yùn)行過(guò)程中因自身瑕疵致人損害,就應(yīng)由生產(chǎn)者承擔(dān)無(wú)過(guò)錯(cuò)責(zé)任,而無(wú)過(guò)錯(cuò)責(zé)任可以督促生產(chǎn)者盡最大努力保證人工智能這一產(chǎn)品的安全,杜絕人工智能產(chǎn)品設(shè)計(jì)上的瑕疵和盲目生產(chǎn)。從立法技術(shù)上看,法律調(diào)整最終是調(diào)整民事主體的行為,人工智能是由一系列算法來(lái)操控,是人類思維的延伸,是按照設(shè)計(jì)者預(yù)先設(shè)定的程序來(lái)運(yùn)行,不會(huì)產(chǎn)生自己獨(dú)立的意志,法律也無(wú)法直接調(diào)整人工智能的決策程序。人工智能適用產(chǎn)品責(zé)任具有規(guī)制生產(chǎn)行為的作用[13],產(chǎn)品責(zé)任制度通過(guò)規(guī)制人工智能生產(chǎn)者、設(shè)計(jì)者的行為來(lái)作用于人工智能。在人工智能侵權(quán)場(chǎng)合確定責(zé)任人,不僅涉及對(duì)受害者的賠償,還涉及防范致?lián)p事件發(fā)生義務(wù)的分配問(wèn)題。通過(guò)產(chǎn)品責(zé)任制度方能促進(jìn)生產(chǎn)者、設(shè)計(jì)者盡力改進(jìn)人工智能運(yùn)行程序、嚴(yán)格生產(chǎn)規(guī)范,保障人工智能產(chǎn)品的安全。有學(xué)者就以自動(dòng)駕駛汽車為例,指出在無(wú)人駕駛的情況下系統(tǒng)的可靠性至關(guān)重要,對(duì)系統(tǒng)安全性問(wèn)題讓生產(chǎn)者承擔(dān)產(chǎn)品質(zhì)量責(zé)任具有合理性[14]。
第二,產(chǎn)品責(zé)任制度的責(zé)任方式可以有效救濟(jì)人工智能致?lián)p侵權(quán)的受害人。我國(guó)立法規(guī)定的產(chǎn)品責(zé)任承擔(dān)方式包括排除妨礙、消除危險(xiǎn)、賠償損失,以及對(duì)產(chǎn)品缺陷的補(bǔ)救方式如警示、召回等,都可以適用人工智能致?lián)p侵權(quán)場(chǎng)合。比如產(chǎn)品召回制度可以及早去除危險(xiǎn),避免損害進(jìn)一步擴(kuò)大,更有利于保護(hù)消費(fèi)者。人工智能產(chǎn)品在設(shè)計(jì)方面的缺陷,有時(shí)只有在使用之后才能有透徹的認(rèn)識(shí),因此召回制度適用于人工智能產(chǎn)品具有合理性。侵權(quán)致?lián)p事實(shí)發(fā)生后,如果需要對(duì)于侵權(quán)的人工智能召回、修理或者更換,這些法律后果也是人工智能自身所不能完成的,需要通過(guò)產(chǎn)品責(zé)任制度實(shí)現(xiàn)。
第三,產(chǎn)品責(zé)任制度的抗辯事由可以保障人工智能生產(chǎn)者的創(chuàng)新積極性。人工智能作為新興技術(shù),一些技術(shù)風(fēng)險(xiǎn)和漏洞從某一種意義上講是無(wú)法完全避免的。為避免無(wú)過(guò)錯(cuò)產(chǎn)品責(zé)任打擊人工智能技術(shù)創(chuàng)新的積極性,需要一定的免責(zé)事由保護(hù)生產(chǎn)者。我國(guó)《產(chǎn)品責(zé)任法》第四十一條規(guī)定了生產(chǎn)者的免責(zé)事由,即未將產(chǎn)品投入流通;產(chǎn)品投入流通時(shí),引起損害的缺陷尚不存在的;將產(chǎn)品投入流通時(shí)的科學(xué)技術(shù)水平尚不能發(fā)現(xiàn)缺陷的存在的。這種抗辯事由適用于人工智能產(chǎn)品責(zé)任場(chǎng)合也具有合理性,可以保障生產(chǎn)者的研發(fā)人工智能積極性,在一定程度上鼓勵(lì)科技創(chuàng)新。當(dāng)然生產(chǎn)者如果以尚不能發(fā)現(xiàn)缺陷的存在為由進(jìn)行抗辯是非常不容易的,只要這種缺陷是現(xiàn)有技術(shù)水平能夠識(shí)別、能夠事先預(yù)判的風(fēng)險(xiǎn),不管能不能控制、避免,都要負(fù)責(zé)。人工智能具有學(xué)習(xí)能力,可能基于學(xué)習(xí)產(chǎn)生了之前沒(méi)有的缺陷,但這是設(shè)計(jì)時(shí)就可以預(yù)料到的問(wèn)題,當(dāng)然不能以此為由免責(zé)。
在人工智能應(yīng)接受產(chǎn)品制度調(diào)整的前提下,倫理規(guī)則應(yīng)成為產(chǎn)品質(zhì)量合格與否的標(biāo)準(zhǔn)或者規(guī)則之一,違反倫理規(guī)則的產(chǎn)品要納入缺陷產(chǎn)品。按照我國(guó)《產(chǎn)品質(zhì)量法》和《侵權(quán)責(zé)任法》的規(guī)定,產(chǎn)品質(zhì)量是否合格或者是否存在缺陷的判斷標(biāo)準(zhǔn)分為兩種,即產(chǎn)品存在危及人身、財(cái)產(chǎn)安全的不合理危險(xiǎn),或產(chǎn)品達(dá)不到國(guó)家或者行業(yè)規(guī)定的標(biāo)準(zhǔn)?,F(xiàn)階段我國(guó)還未制定人工智能產(chǎn)品的國(guó)家、行業(yè)標(biāo)準(zhǔn),那么人工智能產(chǎn)品是否合格、是否存在缺陷,就主要取決于人工智能產(chǎn)品是否存在不合理危險(xiǎn)。目前對(duì)產(chǎn)品存在的危險(xiǎn)是否合理的判斷標(biāo)準(zhǔn),目前理論上存在著“技術(shù)標(biāo)準(zhǔn)說(shuō)”“消費(fèi)者期待說(shuō)”“風(fēng)險(xiǎn)-效用說(shuō)”等,但考慮的因素都與產(chǎn)品質(zhì)量標(biāo)準(zhǔn)相關(guān),產(chǎn)品質(zhì)量標(biāo)準(zhǔn)包括技術(shù)標(biāo)準(zhǔn)和管理標(biāo)準(zhǔn)兩個(gè)方面,主要是從產(chǎn)品的物理性能、外觀結(jié)構(gòu)等方面上分析產(chǎn)品狀況,絲毫不涉及社會(huì)道德倫理問(wèn)題,這對(duì)于判斷人工智能的某些儀器設(shè)備是否存在缺陷具有適用性,比如判斷人工智能傳感器是否正常、自動(dòng)駕駛汽車的輪胎是否有缺陷等,都完全適用。但對(duì)人工智能自動(dòng)決策時(shí)的道德選擇來(lái)說(shuō),上述判斷標(biāo)準(zhǔn)卻都不能適用。
雖然人工智能也是產(chǎn)品的一種,但人工智能與以往人類生產(chǎn)的所有產(chǎn)品都存在巨大不同,其具有類似甚至超越人類的智能。一般產(chǎn)品都是在人的操作下發(fā)揮產(chǎn)品功能,人的操作是產(chǎn)品實(shí)現(xiàn)一般產(chǎn)品功能的必要條件,但人工智能發(fā)揮功能并不需要人的操作。比如人工智能汽車反應(yīng)速度遠(yuǎn)超人類,其目的就是將人從駕駛這種簡(jiǎn)單勞動(dòng)中解放出來(lái),高危險(xiǎn)、高污染的環(huán)境下利用人工智能替代人類工作,不但能避免人類發(fā)生意外事故,還能節(jié)約勞動(dòng)成本。按照目前的發(fā)展趨勢(shì),人工智能具有獲得脫離人類控制的獨(dú)立自主能力的傾向,這導(dǎo)致只適用于規(guī)范人類自主決策行為的社會(huì)倫理道德規(guī)則也需要適用于人工智能產(chǎn)品,適用于這種特殊的“物”。正如學(xué)者指出的,自動(dòng)駕駛汽車的算法也可能需要面對(duì)倫理上的挑戰(zhàn)[15]。在發(fā)生事故時(shí)自動(dòng)駕駛汽車是嚴(yán)格遵守交通規(guī)則還是保護(hù)人類優(yōu)先?一輛自動(dòng)駕駛汽車在行進(jìn)過(guò)程中面對(duì)突然從路邊跑過(guò)來(lái)的小孩,可能需要在雙黃線上轉(zhuǎn)彎以避免撞到小孩,但這可能違反交通規(guī)則,此時(shí)就需要做出符合人類社會(huì)需要的抉擇,但這種抉擇妥當(dāng)與否,與產(chǎn)品物理等性能無(wú)關(guān),無(wú)法適用傳統(tǒng)產(chǎn)品缺陷的判斷標(biāo)準(zhǔn)。因此,未來(lái)應(yīng)完善豐富產(chǎn)品質(zhì)量標(biāo)準(zhǔn),倫理規(guī)則應(yīng)成為人工智能產(chǎn)品質(zhì)量合格與否、是否存在缺陷的標(biāo)準(zhǔn),這是人工智能倫理規(guī)則建立的路徑。
早在2015年霍金就發(fā)出過(guò)警告,超級(jí)聰明的人工智能可以非常容易地實(shí)現(xiàn)它的目標(biāo),如果這些目標(biāo)與人類不一致,人類就麻煩了[16]。是否應(yīng)該為產(chǎn)品性能設(shè)置社會(huì)倫理邊界,這是以往產(chǎn)品制度中從來(lái)不需要考慮的,但對(duì)人工智能產(chǎn)品,卻需要加入這種倫理邊界以約束其自我決策過(guò)程。對(duì)于此問(wèn)題,國(guó)內(nèi)外都已經(jīng)開始予以關(guān)注,比如2019年4月8日歐盟委員會(huì)發(fā)布《可信人工智能倫理指南》,指出“可信賴的人工智能”包括7個(gè)關(guān)鍵條件:人類的自主性和監(jiān)督,技術(shù)的健全性和安全性,隱私和數(shù)據(jù)管理,透明度,多樣性、非歧視和公平性,社會(huì)福祉,問(wèn)責(zé)機(jī)制[17]。2019年6月17日,我國(guó)國(guó)家新一代人工智能治理專業(yè)委員會(huì)發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,提出人工智能治理的框架和行動(dòng)指南,強(qiáng)調(diào)和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開發(fā)協(xié)作、敏捷治理8個(gè)原則[18]。這些文件所體現(xiàn)的原則和精神,都表明人工智能的發(fā)展應(yīng)受到人類社會(huì)價(jià)值觀的約束。今后我國(guó)立法應(yīng)在產(chǎn)品質(zhì)量法中引入人工智能產(chǎn)品的社會(huì)倫理規(guī)則,具體包括兩個(gè)方面,即在人工智能產(chǎn)品質(zhì)量標(biāo)準(zhǔn)中加入倫理道德規(guī)范,針對(duì)倫理問(wèn)題增加人工智能產(chǎn)品缺陷制度的類型。
一般來(lái)說(shuō),產(chǎn)品質(zhì)量是指產(chǎn)品滿足規(guī)定需要和潛在需要的特征特性總和,不管產(chǎn)品質(zhì)量標(biāo)準(zhǔn)是操作運(yùn)行方面、結(jié)構(gòu)方面、物理性能化學(xué)成分方面,還是耐用性、使用成本、外觀等方面,最終目的都是為了保障滿足用戶的需要而設(shè)定的,從這一方面講,人工智能是代替人類作出決策的,其決策是應(yīng)用于人類社會(huì)的,因此人工智能活動(dòng)也要滿足人類的倫理需求,倫理要求應(yīng)是判斷人工智能產(chǎn)品質(zhì)量合格與否的一個(gè)重要指標(biāo)。由于人工智能種類繁多,跨越多個(gè)行業(yè)和領(lǐng)域,因此可以在科技部下面建立人工智能的專門監(jiān)管部門,未來(lái)可以由人工智能監(jiān)管部門牽頭制定人工智能產(chǎn)品在質(zhì)量方面的社會(huì)倫理規(guī)范行業(yè)標(biāo)準(zhǔn)。人工智能產(chǎn)品的社會(huì)倫理標(biāo)準(zhǔn)是針對(duì)人工智能的算法或者說(shuō)決策活動(dòng)的,具體內(nèi)容應(yīng)包括:
第一,人工智能的算法、決策應(yīng)符合法律法規(guī)。這是人工智能產(chǎn)品算法設(shè)計(jì)的底線,倫理規(guī)范方面的法律標(biāo)準(zhǔn)是毋庸置疑的。法律與倫理在某些觀點(diǎn)上雖有所不同,但相互間不能分離[19]。人工智能決策出現(xiàn)違反法律法規(guī)情形的,比如人工智能在接觸人類隱私后選擇公開他人隱私,當(dāng)然屬于產(chǎn)品運(yùn)行方面的重大質(zhì)量缺陷。
第二,人工智能的算法、決策應(yīng)符合社會(huì)核心價(jià)值觀和倫理道德原則,應(yīng)符合人類的根本利益,尊重人類人格尊嚴(yán)等。人工智能的算法、決策不僅僅是一個(gè)技術(shù)選擇問(wèn)題,比如在自動(dòng)駕駛汽車不可避免發(fā)生交通事故時(shí),人工智能必須處理“保護(hù)誰(shuí)和損害誰(shuí)”的問(wèn)題,但是決定“保護(hù)誰(shuí)和損害誰(shuí)”本質(zhì)上是一個(gè)倫理問(wèn)題,立法有必要予以干預(yù)并保障人工智能的此類決定符合社會(huì)核心價(jià)值觀和倫理道德原則。在現(xiàn)代法治背景下,倫理問(wèn)題必然會(huì)轉(zhuǎn)化成政治壓力和民主議題,反映在立法中[20]。具體來(lái)說(shuō),人工智能設(shè)計(jì)要確保算法設(shè)定不出現(xiàn)歧視、避免用來(lái)欺詐的算法、對(duì)個(gè)人信息的收集和利用要關(guān)注隱私保護(hù)等。如果人工智能在倫理選擇方面進(jìn)行算法上的排序,保障生命權(quán)應(yīng)放在首位,當(dāng)人工智能面臨人類生命權(quán)與其他權(quán)益相沖突時(shí),首選保障生命權(quán),其次再考慮其他人身權(quán)益、財(cái)產(chǎn)權(quán)益、效率秩序等倫理價(jià)值。
第三,為確保人工智能的算法、決策符合倫理規(guī)則,人工智能的算法設(shè)計(jì)要遵循可解釋性原則,即保證人類能夠了解人工智能如何以及為何做出特定決定,保證自主決策系統(tǒng)的工作原理人類可以預(yù)測(cè)。
為了保障規(guī)則的較大適用性,立法規(guī)定的人工智能產(chǎn)品倫理規(guī)則必然較為抽象,各個(gè)行業(yè)領(lǐng)域人工智能產(chǎn)品的社會(huì)倫理規(guī)范具體細(xì)則,監(jiān)管部門可以另行制定。需要說(shuō)明的是,人工智能的倫理問(wèn)題一般消費(fèi)者難以發(fā)現(xiàn),在發(fā)展一項(xiàng)新的人工智能技術(shù)時(shí),要對(duì)其是否符合社會(huì)倫理規(guī)范經(jīng)過(guò)道德評(píng)估。我國(guó)《產(chǎn)品質(zhì)量法》第十二條也規(guī)定,產(chǎn)品質(zhì)量應(yīng)當(dāng)檢驗(yàn)合格。在人工智能產(chǎn)品國(guó)家標(biāo)準(zhǔn)尚未出臺(tái)時(shí),人工智能企業(yè)的自律存在獨(dú)斷的風(fēng)險(xiǎn),而國(guó)家對(duì)產(chǎn)品質(zhì)量的監(jiān)督檢查以抽查為主要方式。鑒于人工智能產(chǎn)品的巨大社會(huì)影響,筆者認(rèn)為,有必要針對(duì)人工智能產(chǎn)品建立第三方檢驗(yàn)制度,新類型的人工智能產(chǎn)品進(jìn)入市場(chǎng)前,監(jiān)管部門要責(zé)令行業(yè)協(xié)會(huì)組織對(duì)人工智能進(jìn)行內(nèi)部算法檢驗(yàn),對(duì)人工智能技術(shù)指標(biāo)是否符合社會(huì)倫理等標(biāo)準(zhǔn)進(jìn)行全面審查和預(yù)估。在實(shí)踐中,如果是用戶在使用過(guò)程中修改程序?qū)е氯斯ぶ悄芩惴ǔ绦?、人工智能決策違反法律和倫理道德規(guī)范的,這與生產(chǎn)者設(shè)計(jì)者無(wú)關(guān),應(yīng)由用戶自行承擔(dān)后果。
適用產(chǎn)品責(zé)任制度的前提是產(chǎn)品存在缺陷,而傳統(tǒng)產(chǎn)品缺陷包括設(shè)計(jì)缺陷、制造缺陷和警示缺陷三類,按照這種分類人工智能產(chǎn)品的缺陷也可以分為設(shè)計(jì)缺陷、制造缺陷和警示缺陷,比如人工智能不按照輸入的指令運(yùn)行就屬于設(shè)計(jì)缺陷,智能機(jī)器人電池漏電就屬于制造缺陷,沒(méi)有合理告知消費(fèi)者操作注意事項(xiàng)就屬于警示缺陷。人工智能源于設(shè)計(jì)缺陷、制造缺陷和警示缺陷這三類原因在自動(dòng)運(yùn)行時(shí)致?lián)p侵權(quán),就要適用產(chǎn)品責(zé)任制度解決其帶來(lái)的損害賠償?shù)确韶?zé)任問(wèn)題。但傳統(tǒng)產(chǎn)品的設(shè)計(jì)缺陷、制造缺陷和警示缺陷是否能涵蓋人工智能運(yùn)行中的特殊倫理問(wèn)題不無(wú)疑問(wèn)。人工智能在使用過(guò)程中出現(xiàn)的大量思考、選擇和自主決策,原本可能是需要人類做出的,這是人工智能作為人類工作替代物面臨的最大問(wèn)題。許多人工智能具有深度學(xué)習(xí)能力,生產(chǎn)商也無(wú)法準(zhǔn)確預(yù)測(cè)人工智能在某些情況下會(huì)做出何種行為、發(fā)生何種后果,比如人工智能醫(yī)生是基于對(duì)以往診斷數(shù)據(jù)的學(xué)習(xí)分析,來(lái)給患者提出診療方案,IBM 公司就通過(guò)和一家癌癥中心合作,讓其研發(fā)的人工智能輔助診療機(jī)器人Watson對(duì)專業(yè)醫(yī)學(xué)知識(shí)、基因組數(shù)據(jù)、病歷信息等醫(yī)療數(shù)據(jù)進(jìn)行深度學(xué)習(xí),來(lái)構(gòu)建自動(dòng)化分析的疾病診斷治療系統(tǒng)。這些人工智能醫(yī)生的決策是無(wú)法事先預(yù)估的,如果人工智能醫(yī)生判斷患者已無(wú)康復(fù)希望,基于治療效果考慮而拒絕對(duì)患者提出醫(yī)療方案是否屬于不當(dāng)反應(yīng),原有的產(chǎn)品缺陷種類難以涵蓋這種情形。筆者認(rèn)為,如果人工智能運(yùn)行系統(tǒng)、算法設(shè)計(jì)不能避免人工智能出現(xiàn)違反倫理規(guī)范決策的,應(yīng)視為存在產(chǎn)品倫理缺陷,要由生產(chǎn)者對(duì)由此造成的損害承擔(dān)產(chǎn)品責(zé)任。將人工智能產(chǎn)品倫理缺陷獨(dú)立為一個(gè)類型,還源于:第一,現(xiàn)有產(chǎn)品缺陷制度所針對(duì)的缺陷是產(chǎn)品存在危及他人人身和財(cái)產(chǎn)安全的不合理風(fēng)險(xiǎn),但人工智能產(chǎn)品倫理缺陷的本質(zhì)是算法推演過(guò)程或結(jié)果違背人類社會(huì)倫理觀,兩者存在不同之處,現(xiàn)有產(chǎn)品缺陷制度無(wú)法涵蓋人工智能產(chǎn)品倫理缺陷。第二,保障人工智能的決策符合倫理德道規(guī)范,主要應(yīng)在設(shè)計(jì)環(huán)節(jié)加以貫徹,倫理缺陷其實(shí)也是產(chǎn)品設(shè)計(jì)上的倫理缺陷,但通常情況下設(shè)計(jì)缺陷一般是指產(chǎn)品結(jié)構(gòu)設(shè)置不合理、產(chǎn)品設(shè)計(jì)選用的材料不適當(dāng)、設(shè)計(jì)沒(méi)有附加應(yīng)有的安全裝置等等,為了突出人工智能倫理標(biāo)準(zhǔn)的獨(dú)特性,也有必要將人工智能產(chǎn)品倫理缺陷作為產(chǎn)品缺陷的單獨(dú)一個(gè)種類加以規(guī)范。
在人工智能違反倫理規(guī)則給他人造成損害,而受害者主張人工智能生產(chǎn)者承擔(dān)產(chǎn)品責(zé)任時(shí),一般情況下應(yīng)當(dāng)對(duì)人工智能產(chǎn)品存在缺陷、受損事實(shí)以及缺陷與損害事實(shí)之間存在因果關(guān)系進(jìn)行舉證。對(duì)于制造、警示等方面的缺陷,判定相對(duì)簡(jiǎn)單,舉證也不困難,比如自動(dòng)駕駛汽車的輪胎是否符合質(zhì)量標(biāo)準(zhǔn)等,只需要按照一般產(chǎn)品的判斷標(biāo)準(zhǔn)進(jìn)行舉證、確認(rèn)即可。但人工智能倫理上的缺陷,需要認(rèn)識(shí)其系統(tǒng)工作原理,從而指出算法存在倫理缺陷,這是一般人無(wú)法完成的證明。對(duì)于具有學(xué)習(xí)能力的高度自主性的人工智能來(lái)說(shuō),隨著系統(tǒng)自身經(jīng)驗(yàn)的增加,其行為、決策的推理過(guò)程設(shè)計(jì)者本身有時(shí)也無(wú)法完全還原,在計(jì)算分析能力上人腦和這些人工智能比起來(lái)遜色很多。法官等法律工作者如何對(duì)此達(dá)成共識(shí)也是一個(gè)難題。因此,有必要對(duì)人工智能產(chǎn)品責(zé)任是否存在倫理缺陷實(shí)行舉證責(zé)任倒置。只要受害人證明了自己因人工智能違背倫理規(guī)則的活動(dòng)造成了損害,人工智能生產(chǎn)設(shè)計(jì)者就應(yīng)當(dāng)對(duì)人工智能產(chǎn)品不存在倫理缺陷或倫理缺陷與損害之間不存在因果關(guān)系承擔(dān)舉證責(zé)任。如果人工智能生產(chǎn)設(shè)計(jì)者不能證明人工智能設(shè)計(jì)不存在倫理缺陷或倫理缺陷與損害事實(shí)的發(fā)生沒(méi)有因果關(guān)系,就要承擔(dān)產(chǎn)品責(zé)任。
人工智能對(duì)我們來(lái)說(shuō)是一把雙刃劍,我們發(fā)明了人工智能,但如何以及能否使人工智能在人類的控制下活動(dòng)是一個(gè)大問(wèn)題。史蒂芬·霍金就曾警示道:“成功地創(chuàng)造出人工智能是人類偉大的進(jìn)步。但,這極有可能是人類文明最后的進(jìn)步。”[21]無(wú)論如何,科技進(jìn)步的車輪不可逆轉(zhuǎn),如何解決人工智能帶來(lái)的倫理風(fēng)險(xiǎn),將成為影響它能否良性發(fā)展的關(guān)鍵環(huán)節(jié)。鑒于目前人工智能的出現(xiàn)并沒(méi)有顛覆原有“人—物”兩分法的法律體系,我們要在關(guān)注人工智能特殊性的前提下,改進(jìn)產(chǎn)品責(zé)任制度,引入產(chǎn)品倫理標(biāo)準(zhǔn),規(guī)制人工智能產(chǎn)品的生產(chǎn)設(shè)計(jì)行為,解決人工智能技術(shù)帶來(lái)的倫理問(wèn)題。
我國(guó)在2020年5月份通過(guò)了《中華人民共和國(guó)民法典》(以下簡(jiǎn)稱《民法典》),遺憾的是《民法典》中并未涉及人工智能的任何法律問(wèn)題,這與人工智能無(wú)處不在的生活現(xiàn)實(shí)是不相適應(yīng)的。鑒于短期內(nèi)我國(guó)修改《民法典》并不現(xiàn)實(shí),建議今后在《產(chǎn)品質(zhì)量法》中增加條款以規(guī)范人工智能的責(zé)任問(wèn)題及倫理問(wèn)題,本文也以立法建議作為結(jié)束語(yǔ)。本文建議的條文草稿為:人工智能產(chǎn)品存在缺陷造成他人損害的,生產(chǎn)者應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任;人工智能產(chǎn)品的算法、決策應(yīng)符合社會(huì)倫理規(guī)范,人工智能投入市場(chǎng)前應(yīng)接受倫理規(guī)范審核;人工智能產(chǎn)品設(shè)計(jì)違反倫理規(guī)范的,視為存在產(chǎn)品倫理缺陷;人工智能產(chǎn)品違反倫理規(guī)則造成他人損害的,生產(chǎn)者應(yīng)對(duì)產(chǎn)品是否存在倫理缺陷承擔(dān)舉證責(zé)任。
最后,需要說(shuō)明的是,當(dāng)前人工智能只是人類的工具,沒(méi)有超越法律視野下“物”的范疇,但人工智能技術(shù)進(jìn)步勢(shì)不可擋,隨著大數(shù)據(jù)、云計(jì)算、物聯(lián)網(wǎng)等信息技術(shù)的發(fā)展,人工智能的自我學(xué)習(xí)、自我判斷、甚至是自我管理的“智力”發(fā)展不可限量,人工智能不僅能夠模擬人的智能,其強(qiáng)大的計(jì)算功能使得未來(lái)人工智能很可能具有超越人類、不受人類控制的思維和行動(dòng)能力,在未來(lái)可能無(wú)法僅僅將人工智能視為人類可以隨意控制的工具。如果人工智能產(chǎn)生了自我意識(shí),他們可能會(huì)很好地控制、管理自己,此時(shí)人工智能的活動(dòng)規(guī)則可以由人工智能自己依據(jù)社會(huì)既有規(guī)則來(lái)設(shè)定。因此,未來(lái)立法要給具有自我管理能力的人工智能發(fā)展為獨(dú)立民事主體留下空間,如果人工智能成為民事主體,那么現(xiàn)有的法律法規(guī)、社會(huì)倫理道德就可以無(wú)障礙適用于人工智能了。