鄒曉紅 王乃冬
人工智能為服務(wù)特定領(lǐng)域誕生,基本以商品的形式存在,隨著社會的發(fā)展與科技的進步,其使用已具有一定普遍性。比較典型的人工智能為智能音響、語音識別機器人、汽車自動駕駛系統(tǒng),以及一些人工智能在線客服等。但是人工智能在快速發(fā)展的同時,產(chǎn)生了一系列侵權(quán)事件,例如特斯拉自動駕駛系統(tǒng),發(fā)生交通事故造成駕駛者死亡;“小胖”牌機器人發(fā)生傷人事件;蔚來汽車自動駕駛發(fā)生交通事故,導致駕駛者死亡等。這些侵權(quán)事件的發(fā)生對我國現(xiàn)有的法律體系造成了巨大的沖擊與威脅,要求對人工智能侵權(quán)行為規(guī)制進行相關(guān)的研究。同時,人工智能基于算法而誕生,但是其運行算法與其他算法不同,該算法的產(chǎn)生使得決策者與相對人之間的數(shù)字鴻溝加劇,進而出現(xiàn)權(quán)利失衡、無處追責的情形愈發(fā)多見,并由此引發(fā)了倫理問題,值得進一步討論和思考。
當前,人工智能愈發(fā)盛行,使得我國侵權(quán)責任法傳統(tǒng)的歸責原則在智能環(huán)境下過錯的認定受到?jīng)_擊。[1]我國的侵權(quán)歸責原則,包括過錯責任、無過錯責任與公平責任,而人工智能基于其基本特征,侵權(quán)責任只能暫時適用產(chǎn)品責任。但是人工智能是否具有產(chǎn)品責任,則需要根據(jù)《產(chǎn)品質(zhì)量法》中,關(guān)于產(chǎn)品的國家標準與行業(yè)標準,來判斷其是否具有產(chǎn)品缺陷,存在產(chǎn)品缺陷的人工智能才具有產(chǎn)品責任,因此人工智能引發(fā)的侵權(quán)問題較難解決。
人工智能是社會與科技迅速發(fā)展的產(chǎn)物,與以往產(chǎn)生的新科技不同,其產(chǎn)品標準難以適應(yīng)其他“正?!碑a(chǎn)品的標準和要求。同時,對產(chǎn)品設(shè)定的標準與要求,在實質(zhì)上是對產(chǎn)品的最低要求和標準?,F(xiàn)今社會,關(guān)于產(chǎn)品標準的制定和修改滯后,而滯后的標準更不能對人工智能產(chǎn)品起到規(guī)制作用。人工智能具有類似人類獨立思考的能力與獨立自主的行為能力,是社會發(fā)展中重要的一部分,為避免人工智能發(fā)展日益沖擊現(xiàn)有法律體系,對社會公眾的日常生活產(chǎn)生不良影響,我們需要對人工智能的侵權(quán)行為進行規(guī)制,平衡人類社會與人工智能之間的關(guān)系,維護法律權(quán)威。
馬長山認為:“掌握了數(shù)據(jù),就意味著掌握了資本和財富;掌握了算法(Algorithm),就意味著掌握了話語權(quán)和規(guī)制權(quán)?!盵2]人工智能算法的復雜性,使得其挑戰(zhàn)了法律的基本原則,對現(xiàn)有法律體系造成了沖擊。人工智能由算法、規(guī)則和模板組成,對其進行監(jiān)管與規(guī)制,需要進行外部監(jiān)管、算法公開與個人數(shù)據(jù)賦權(quán)三種方式。
根據(jù)現(xiàn)有社會發(fā)展的科技數(shù)據(jù)顯示,我們已然步入算法時代,盡管人工智能受人類支配,但是算法已經(jīng)開始深入社會生活的各個方面,且大數(shù)據(jù)時代與信息化時代皆是以算法作為基本發(fā)展動力。
對于算法的外部監(jiān)管與規(guī)制,應(yīng)當從政府與平臺入手,再以法律法規(guī)對其進行管理,例如《網(wǎng)絡(luò)安全法》與《數(shù)據(jù)安全法》。政府的監(jiān)管機構(gòu)應(yīng)當使用“司法測試和新技術(shù)”來敦促算法相關(guān)企業(yè)遵守法律法規(guī)和其他內(nèi)控性質(zhì)的規(guī)范,不單純以命令式的硬性規(guī)定來規(guī)制算法技術(shù)。平臺的監(jiān)管應(yīng)當為,算法平臺自身嚴格履行風險防范的義務(wù),對于自身的信息技術(shù)與數(shù)據(jù)進行保護與管理,在此基礎(chǔ)上,配合現(xiàn)有管控制度,對算法活動進行監(jiān)督;算法活動的監(jiān)督可以采用分級分類管理的方式,先對不同的算法活動進行分類,對其可能產(chǎn)生的風險進行等級劃分,平臺隨即對其制定不同的監(jiān)管方式。
另外,對算法進行規(guī)制可以以公共滋擾定性算法妨害。當算法運行滿足公共滋擾的判定標準,即足夠廣無差別地對群體造成傷害且無人負責,就可以以公共滋擾對其定性,這就構(gòu)成了算法妨害,可以對算法進行規(guī)制。算法妨害滿足公共滋擾的判定標準,其造成的傷害是群體性的。算法中的數(shù)據(jù)在處理過程中可能被其他平臺采納,甚至通過顯化用戶的弱點而導致整個公共數(shù)據(jù)體系的癱瘓。算法妨害通過個人訴訟無法解決,需要通過集體訴訟方式處理,進而以公共滋擾定性算法妨害在歸責原則的適用上,應(yīng)當適用無過錯責任。
算法公開將在一定程度上對算法起到規(guī)制作用,但是算法公開可能會引起算法知識產(chǎn)權(quán)被侵權(quán)的情形,因此以規(guī)制算法為目的的算法公開,需要三個條件,以保證算法的知識產(chǎn)權(quán)受到保護,以及避免算法公開導致其他主體權(quán)益受損。
第一,有特定指向的決策體系的公開。算法的透明性可以部分實現(xiàn),算法公開不應(yīng)當是一般性的源代碼公開,一般性的源代碼公開無法起到幫助規(guī)制算法的作用;而對于算法進行解釋,也不符合算法公開的目的,因此應(yīng)當有特定指向的決策體系的公開,為不同主體起到幫助作用。
第二,算法公開需要區(qū)分。不同類型的算法公開的原則應(yīng)當存在區(qū)別。例如公權(quán)力機構(gòu)以外機構(gòu)的算法,可以以商業(yè)秘密為由,進行部分公開,保障自身權(quán)益;公權(quán)力機構(gòu)的算法公開,應(yīng)當以公開為原則,不公開為例外,避免公權(quán)力機構(gòu)壟斷的產(chǎn)生;不同的主體應(yīng)當根據(jù)情況的不同,承擔不同的責任以及算法公開的程度。
第三,算法公開的程度與范圍需要區(qū)分。不同主體進行算法公開的范圍與程度應(yīng)當視情況進行區(qū)分。例如,公權(quán)力機構(gòu)的算法公開應(yīng)當盡可能地公開,必要情況或特殊情況下不進行公開,并且公權(quán)力機構(gòu)算法公開的形式,應(yīng)當采取普通人可以理解的方式進行算法解釋;非公權(quán)力機構(gòu)的其他主體的算法公開,應(yīng)當比公權(quán)力機構(gòu)的要求寬松,因為非公權(quán)力機構(gòu)難以構(gòu)成壟斷等危害公眾權(quán)益的情形。
個人數(shù)據(jù)賦權(quán)可以應(yīng)對人工智能算法問題,本質(zhì)在于個人對數(shù)據(jù)的掌控。與個人數(shù)據(jù)賦權(quán)的相關(guān)法律規(guī)定,也是依賴個人對數(shù)據(jù)的控制,從其數(shù)據(jù)的角度著手,對人工智能算法進行規(guī)制。歐美國家對于個人數(shù)據(jù)賦權(quán)的相關(guān)權(quán)益,為知情選擇權(quán)、數(shù)據(jù)訪問權(quán)、數(shù)據(jù)刪除權(quán)等權(quán)益,全方位保護個人數(shù)據(jù)的相關(guān)權(quán)益,并且數(shù)據(jù)的控制者與處理者需要承擔維護個人數(shù)據(jù)安全的責任。
從個人數(shù)據(jù)賦權(quán)的角度對人工智能算法進行規(guī)制,需要注重數(shù)據(jù)的倫理規(guī)制與動態(tài)規(guī)制,人工智能算法的創(chuàng)造與運行,很大程度上取決于數(shù)據(jù)的累計,大數(shù)據(jù)為人工智能算法的準確性提供基礎(chǔ),但是人工智能算法倘若一味地依賴大數(shù)據(jù),則可能會侵犯公眾個人隱私。大數(shù)據(jù)本身就涉及到公民隱私的問題,其本身具有混雜性。人工智能算法對大數(shù)據(jù)的運用應(yīng)當符合對個人數(shù)據(jù)處理僅用于初始目的,并且限期存儲,一定時期自動銷毀?,F(xiàn)今社會,公民的個人隱私由于大數(shù)據(jù)的因素,時常受到侵犯,例如售樓處運用人臉識別,對公民的消費水平進行調(diào)查,也是明確的侵犯公民個人隱私權(quán)的行為。人工智能算法對大數(shù)據(jù)的運用,應(yīng)當注重此類數(shù)據(jù)處理是否符合相關(guān)倫理與人格保護,而非一般性禁止數(shù)據(jù)的流通共享。[3]
人工智能侵權(quán)責任的分配需要在保護受害方的前提下進行,以自動駕駛汽車事件為例,倘若僅由人工智能的生產(chǎn)者承擔產(chǎn)品責任,無疑會阻礙科技的發(fā)展。人工智能侵權(quán)責任的分配應(yīng)當依托現(xiàn)有侵權(quán)責任體系的基礎(chǔ)進行完善,適度根據(jù)社會需要進行調(diào)整。按需調(diào)整后的人工智能侵權(quán)責任分配體系應(yīng)當完成風險分擔閉環(huán),保證侵權(quán)責任分配體系的完整性,為后期構(gòu)建相關(guān)法律框架提供基礎(chǔ)。
人工智能的侵權(quán)責任圍繞人工智能的設(shè)計者、生產(chǎn)商、銷售者與使用者而展開,這其中算法運營商的地位類似于設(shè)計者,四者中是否適合成為適格被告需要具體討論。
第一,人工智能的設(shè)計者。不同階段設(shè)計者應(yīng)當承擔不同的風險責任,研發(fā)期間產(chǎn)生侵權(quán)責任應(yīng)當由設(shè)計者獨立承擔侵權(quán)責任。流入市場時期人工智能侵權(quán)責任的承擔需要視產(chǎn)品情況而定,倘若是可以被公眾發(fā)現(xiàn)的設(shè)計缺陷而產(chǎn)生的侵權(quán),應(yīng)當由設(shè)計者承擔責任;倘若是由產(chǎn)品不可預(yù)知的風險導致的侵權(quán),應(yīng)當判斷設(shè)計者是否盡到合理義務(wù),判斷其是否承擔過失責任。
第二,人工智能的生產(chǎn)者。根據(jù)對產(chǎn)品的法律規(guī)定,一個產(chǎn)品產(chǎn)生的侵權(quán)責任,主要由該產(chǎn)品的生產(chǎn)商承擔。由于產(chǎn)品本身包括產(chǎn)品的原材料與零部件,兩者的生產(chǎn)商也屬于該產(chǎn)品的生產(chǎn)商。人工智能由于產(chǎn)品缺陷導致的侵權(quán)責任,應(yīng)當由參與產(chǎn)品生產(chǎn)的供應(yīng)商與生產(chǎn)商等所有主體一同承擔,因為其參與主體均具有可責性。這與傳統(tǒng)的嚴格責任不同,有學者認為采用過錯責任能有效激勵人工智能產(chǎn)品企業(yè)創(chuàng)新,促使消費者采取防范措施。[4]
第三,人工智能的銷售者?!肚謾?quán)責任法》第42條規(guī)定,倘若由于銷售者的過錯致人損害,則需要銷售者承擔,并且銷售者的過錯導致產(chǎn)品存在缺陷,造成他人權(quán)益受損,同樣由銷售者承擔侵權(quán)責任。進而,倘若產(chǎn)品為人工智能產(chǎn)品,而人工智能產(chǎn)品自身無缺陷,其缺陷是由銷售者的操作錯誤或其他原因產(chǎn)生的,則侵權(quán)責任由銷售者承擔,銷售者承擔的是過錯責任。還有一種情形是,銷售者不能查明人工智能產(chǎn)品的供貨來源,則需要銷售者代替人工智能的生產(chǎn)者與設(shè)計者承擔侵權(quán)責任?!懂a(chǎn)品質(zhì)量法》規(guī)定,侵權(quán)行為的產(chǎn)生如果是由于銷售者的操作錯誤等原因,則銷售者承擔賠償責任,與《侵權(quán)責任法》一樣,銷售者的責任是過錯責任?!懂a(chǎn)品質(zhì)量法》的相關(guān)規(guī)定,即銷售者基于其過錯承擔賠償責任,是《侵權(quán)責任法》銷售者基于過錯承擔侵權(quán)責任的基礎(chǔ),同時也是生產(chǎn)者與銷售者進行分責時的責任依據(jù)。根據(jù)《民法典》規(guī)定,倘若是由于產(chǎn)品缺陷而導致的權(quán)益受損,其損害賠償可以由生產(chǎn)者進行承擔,也可以由被侵權(quán)人向銷售者請求賠償,對于被侵權(quán)人而言,是由生產(chǎn)者與銷售者承擔賠償責任,在此條件下,生產(chǎn)者與銷售者成為一個整體,是嚴格責任的擴張。
第四,人工智能的使用者。倘若人工智能產(chǎn)品本身不存在缺陷,在生產(chǎn)制造過程中也不存在缺陷,并且銷售者在銷售過程中為使用者展示了正確示范,最終侵權(quán)責任的產(chǎn)生來源于使用者自身的使用不當,則侵權(quán)責任由使用者自己承擔。其侵權(quán)責任的承擔可以參考法律對于動物的管理與規(guī)定,動物對他人產(chǎn)生侵權(quán)行為,應(yīng)當由動物的管理者承擔責任,動物的管理者對動物具有管控與約束的義務(wù)?;趧游锼哂械奶厥馕kU性,各國法律多將飼養(yǎng)動物致害責任置于危險責任體系中。[5]人工智能產(chǎn)品具有與動物類似的危險性,因此也應(yīng)當置于危險責任體系中?;谌斯ぶ悄墚a(chǎn)生侵權(quán)責任涉及了設(shè)計者、生產(chǎn)商、銷售商與使用者四者,單一判定其中一者或是多者承擔責任十分困難,人工智能侵權(quán)事實查明困難并且舉證困難,侵權(quán)責任的產(chǎn)生究竟是哪一方的過錯判定十分復雜,并且耗時較長,在無法判定具體過錯方時,可以采用共同侵權(quán)責任分配的方式進行歸責。
首先,共同侵權(quán)責任分配并不是要求四者承擔連帶責任而不查明事實真相,共同侵權(quán)責任分配存在兩種情況。第一,不真正連帶責任。不真正連帶責任的承擔,是同一受害者被多數(shù)行為主體加害,或同一受害者的權(quán)益受損,來源于多主體的不同行為。這種情況下,實施加害行為的各行為主體產(chǎn)生了同一侵權(quán)責任,各承擔全部賠償責任,多行為主體中的一人承擔了賠償責任,則整體責任消失。對于人工智能領(lǐng)域而言,不真正連帶責任的行為主體,是人工智能的生產(chǎn)者、設(shè)計者、銷售者、使用者,當這四者的行為都指向同一受害者時,則產(chǎn)生不真正連帶責任,這四者中的每位主體都承擔全部賠償責任,有一主體承擔賠償責任后,則整體賠償責任消失。這時需要探討的是,倘若侵權(quán)責任的產(chǎn)生是由于人工智能的產(chǎn)品缺陷,則該責任由設(shè)計者與生產(chǎn)者承擔;倘若侵權(quán)責任的產(chǎn)生,是由于銷售者的操作失誤而產(chǎn)生,而產(chǎn)品本身沒有缺陷,則責任還是由銷售者承擔。關(guān)于多主體各自承擔全部責任,受害者可以擇一起訴,任何一方先行賠付后,可以對真正的責任人再進行事后追償。第二,連帶、按份責任。人工智能侵權(quán)責任的連帶責任由生產(chǎn)商、設(shè)計者與監(jiān)管機關(guān)共同承擔隨后按份分責,對此,市場監(jiān)管者需要審查人工智能產(chǎn)品,并且審查產(chǎn)品這一行為本身應(yīng)是市場監(jiān)管者的義務(wù);倘若經(jīng)市場監(jiān)管者審查產(chǎn)品后,仍出現(xiàn)產(chǎn)品缺陷,應(yīng)由市場審查者承擔連帶責任,因為這屬于市場監(jiān)管者的失職,導致缺陷產(chǎn)品流入市場進行銷售,在此情況下,應(yīng)由生產(chǎn)者、設(shè)計者、市場監(jiān)管者承擔責任,再根據(jù)銷售者是否存在過錯,討論是否需要銷售者承擔侵權(quán)責任。
其次,可以根據(jù)人工智能可能產(chǎn)生的風險系數(shù)的高低,設(shè)立無過錯責任與過錯責任。如汽車的自動駕駛系統(tǒng),可以以駕駛員的注意義務(wù)為基礎(chǔ),對人工智能的責任進行判斷。第一,無過錯責任。以自動駕駛汽車為例,過錯責任的適用在自主性人工智能汽車,因為自主性人工智能汽車的主要作用為自動駕駛,將駕駛的行為由駕駛者過渡至汽車,人工智能汽車則對駕駛中可能會產(chǎn)生的風險與問題,具有注意義務(wù)。發(fā)生事故時,事故的產(chǎn)生是由于人工智能未履行注意義務(wù),因此其責任的承擔與動物致害歸責一致,適用無過錯責任。第二,過錯責任。以自動駕駛汽車為例,倘若自動駕駛系統(tǒng)是汽車的輔助系統(tǒng),汽車的駕駛主要需要由駕駛者完成,駕駛者對汽車行駛中的行人、道路與汽車具有注意義務(wù),無論發(fā)生事故時,是否為自動駕駛狀態(tài),駕駛者均存在一定的責任。在此,對于人工智能責任的承擔就應(yīng)當適用過錯責任。
人工智能法律人格與法律主體地位的賦予,一直是學界探討的問題。學界普遍認為,即使賦予人工智能法律人格,也只能是有限的法律人格,類似于法律中的非法人組織。人工智能可以有民事權(quán)利能力,它在責任的承擔上,不能完全與其生產(chǎn)者、銷售者、設(shè)計者脫離,但是承認人工智能的法律主體地位,仍然有利于明晰法律關(guān)系,促進人工智能與社會的協(xié)同發(fā)展。賦予人工智能法律人格,設(shè)定人工智能的權(quán)利與義務(wù),可以更好的分擔責任,也可以為人工智能未來被納入法律軌道與體系打下基礎(chǔ)。
目前我國法律尚未出現(xiàn)關(guān)于人工智能致人損害的規(guī)定,從人工智能在我國社會發(fā)展中的性質(zhì)而言,它更類似于一種商品。以社會群眾所能夠接觸到的人工智能而論,可以被定義為法律意義上的物品。關(guān)于法律人格的構(gòu)成,其不僅需要具備人的因素,即人體與人腦的生理學要素,并且擁有意識能力與獨立意志,同時還需要具備社會學要素,即需要具有獨立的社會角色。智能機器人不滿足擁有法律人格的生理學要素,即使其可以具有獨立的社會角色,但不具有人體和人腦,不具有法律上的人格。[6]
由于缺少針對人工智能的法律規(guī)定,與社會生活和公民相關(guān)的,人工智能侵權(quán)責任的承擔,只能從產(chǎn)品責任的角度進行解決。但是部分產(chǎn)品對于責任的承擔,具有免責條款。免責條款可以幫助運營商和制造商規(guī)避責任的承擔,倘若人工智能產(chǎn)品可以適用免責條款,進而避開責任的承擔,人工智能領(lǐng)域?qū)⒏踊靵y?!懂a(chǎn)品質(zhì)量法》第31條和《侵權(quán)責任法》第42條規(guī)定的與產(chǎn)品缺陷致人損害的條款,即責任由生產(chǎn)者或銷售者承擔,無疑增加了生產(chǎn)者與銷售者的法律責任。無論人工智能是不是法律意義上的商品或者物品,它與普通商品與物品的不同之處在于,人工智能的制造是現(xiàn)今社會并不成熟的領(lǐng)域,并且涉及到諸多風險,簡單的人工智能也可能致人損害,一味地將風險與責任推至生產(chǎn)商與銷售商一方面將抑制人工智能的發(fā)展,進而打擊生產(chǎn)與銷售行業(yè)。人工智能的開發(fā)涉及到算法的設(shè)計,最終算法歸屬于算法運營商,以此而言,算法運營商也是人工智能的責任承擔者之一,僅要求生產(chǎn)者與銷售者承擔責任顯然不公平。因此,需要賦予人工智能法律主體地位,賦予其有限的法律人格,這可以對其他主體的權(quán)益進行保護。在此基礎(chǔ)上,擁有有限法律人格的人工智能,將明確其權(quán)利義務(wù)關(guān)系,使得人工智能的生產(chǎn)者、銷售者、設(shè)計者等主體分離,避免由于人工智能的決斷而致其他主體產(chǎn)生損失。
以傳統(tǒng)觀念而言,法律主體是享有一定權(quán)利并可以承擔一定義務(wù)的人或者實體,實體指擁有自由意志可以履行義務(wù)的法律主體。人工智能目前不存在自由意志且缺少自主思維,同時人工智能尚無可以履行的社會義務(wù),進而人工智能僅可以享有有限的法律人格,而該人格的享有以目前的社會現(xiàn)狀而言,是以人工智能承擔法律責任為目的的。通常在分析法律主體的特征時,以三個角度進行考慮。第一,實體的形而上學性質(zhì),這一角度要求法律主體具有理性與自主性。理性與自主性的要求將非人類與一般客體排除在外,智力障礙者以及未滿八周歲的兒童皆不屬于該范疇,人工智能以此角度而言自然不應(yīng)當享有法律人格;第二,以結(jié)果的角度,考慮某一實體倘若享有權(quán)利與義務(wù)的后果,胎兒或植物人則被剝奪了法律主體地位。以人工智能而言,人工智能享有權(quán)利與義務(wù)的后果雖然在法律層面與胎兒或植物人無異,但是人工智能確實存在履行義務(wù)的能力,進而以此角度而言,人工智能是否應(yīng)該享有法律主體地位還存在一定疑問;第三,基于條件的方法論視角,法律主體性是法律體系建立的共同標準。基于這一標準,人或?qū)嶓w擁有了權(quán)利和義務(wù),同樣也承擔相應(yīng)的責任,法律規(guī)定一些實體法律人格的條件也來源于此。以公司為例,公司與人在人格的體現(xiàn)與本質(zhì)上并不相同,但是在法律層面,人與公司都屬于法律主體,都享有法律人格,進而,當人工智能享有法律主體地位,被賦予法律人格,最初的出發(fā)點是顧及社會發(fā)展的安全與穩(wěn)定及法律體系的完整,對人類而言暫無危險,賦予人工智能有限的法律人格,使得人工智能可以承擔法律責任也是為未來強人工智能時代與超人工智能時代奠定基礎(chǔ)的表現(xiàn)。賦予人工智能主體地位的同時,也應(yīng)對人工智能擬制權(quán)利設(shè)置權(quán)利邊界和權(quán)利保留,明確人工智能道德權(quán)利和行為效力的限度。[7]
現(xiàn)行人格制度下無生命的實體被法律排除在外,這使得人工智能享有有限的法律人格頗受爭議。人工智能確實是無生命的實體,并不擁有思維與自主性,倘若社會上承認人工智能為一個自治的主體并賦予其法律人格,就需要在法律制度與規(guī)定中進行體現(xiàn)。關(guān)于法律主體地位,法哲學家Hans Kelsen與J Austin存在不同觀點,Hans Kelsen認為將自然人等同于人類的生物地位是錯誤的,一個自然人僅僅是賦予了法律權(quán)利與行為義務(wù)的法律規(guī)范的個人化。[8]關(guān)于自然人擁有法律主體地位,J Austin認為自然人是一個有權(quán)利和義務(wù)的人,是一個生物存在物的等價物。關(guān)于非自然人擁有法律主體地位,存在四種理論觀點,其中“實在說”這一理論觀點,認為法律實體由人創(chuàng)造而產(chǎn)生,但是法律實體本身就存在,并且是真實的?!皩嵲谡f”中,人工智能的法律主體地位得到了體現(xiàn),盡管人工智能是被人為創(chuàng)造的,但人工智能確實是真實存在的。與此同時,即便是人工智能也擁有學習與記憶及一定程度上自我決策的能力,但人工智能時代的自我決策部分仍然受人類所引導,強人工智能時代的人工智能才具有完全的自主決策能力。人工智能的特征表明其具有典型的行為能力、行使權(quán)利以及履行法律規(guī)定義務(wù)的能力?;谌斯ぶ悄艿闹悄苄?,可能會先于其授權(quán)代表的意愿,評估潛在后果,而不親自行使權(quán)利、履行義務(wù)。
另外,人工智能是否能夠被賦予有限的法律人格,還需要考慮人工智能是否能夠滿足獲得法律主體地位的實質(zhì)性要件。第一,人工智能是否具有意志能力。已知人工智能是人類創(chuàng)造的類人智能產(chǎn)品,但是人工智能的智能性來源于算法設(shè)計,判斷人工智能是否具有意志能力的標準,應(yīng)當是脫離算法設(shè)計而言,即脫離算法設(shè)計后的人工智能倘若可以進行自行學習,則其具有意志能力。第二,人工智能能否滿足獲取法律主體地位的物質(zhì)性要件。倘若賦予人工智能法律主體地位,這意味著人工智能對其侵權(quán)行為將承擔責任,涉及到賠償責任時,人工智能是否擁有屬于自己可支配的財產(chǎn)。根據(jù)社會發(fā)展,人工智能的財產(chǎn)只能來源于類似汽車保險的強制保險;或是在購買者購買人工智能產(chǎn)品時收取一定費用作為責任附加費,以此設(shè)立該行業(yè)的責任基金,這些情況都需要伴隨人工智能的實際發(fā)展變化而進行持續(xù)的判斷和探討。
人工智能時代的人工智能產(chǎn)品處于人類可控制范圍內(nèi),發(fā)生侵權(quán)事件、產(chǎn)生侵權(quán)責任等可能來源于算法設(shè)計缺陷、生產(chǎn)研發(fā)期間產(chǎn)品測試故障、銷售者錯誤示范或使用者使用不當,另一種情形是不法分子利用人工智能的運行原理通過社交平臺散播不良信息,引起社會恐慌或是盜取用戶信息,侵犯公眾隱私,本文著重討論了第一種情形即人工智能產(chǎn)品侵權(quán)。
由于我國尚未將人工智能納入法律體系內(nèi),導致人工智能發(fā)生侵權(quán)事件后歸責困難,給予算法運營商、設(shè)計者、生產(chǎn)商等規(guī)避責任與風險的空間,同時人工智能侵權(quán)事件舉證困難導致上訴之路遙遙無期。基于此,為完善法律體系,將人工智能現(xiàn)下已然產(chǎn)生的社會風險、未來強人工智能時代、超人工智能可能會產(chǎn)生的危險及人工智能對法律體系產(chǎn)生的沖擊納入到考慮范圍內(nèi),可以先緩解人工智能為法律體系人格制度產(chǎn)生的沖擊,賦予人工智能有限的法律人格,方便后期加入更多人工智能的法律概念以及歸責原則;關(guān)于人工智能的歸責,人工智能研發(fā)創(chuàng)造涉及多個部門,針對其歸責需要分情況而討論,進而可以選擇共同侵權(quán)原則,即不真實連帶責任與按份分責的方式進行歸責;關(guān)于人工智能的規(guī)制,不僅需要法律層面的規(guī)制,還需要社會規(guī)制,這其中包括了市場監(jiān)管與評估,倫理規(guī)制即在科技中加入更多道德的范疇,以及行業(yè)規(guī)制;關(guān)于人工智能的算法,可以以公共滋擾定性算法妨害,以及加強信息披露的方式進行算法規(guī)制,防患于根本。不置可否,人工智能在社會發(fā)展道路上不可避免,未來強人工智能時代與超人工智能時代的來臨也是必然,因此,以人工智能的有限法律人格作為基礎(chǔ),明確歸責原則,通過法律規(guī)制與社會規(guī)制的共同作用,促進未來人工智能與其他法律主體之間關(guān)系的解決,意義深遠。