国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

強人工智能的侵權(quán)責(zé)任承擔(dān)分析

2019-03-18 01:58米新麗王亞蘭
關(guān)鍵詞:定位主體機器人

米新麗,王亞蘭

(首都經(jīng)濟貿(mào)易大學(xué) 法學(xué)院,北京 豐臺 100070)

一、人工智能技術(shù)產(chǎn)生新的法律問題

隨著科技水平的不斷發(fā)展,人工智能掀起了全球新一輪的技術(shù)革命,其已廣泛應(yīng)用到物流、交通、運輸、醫(yī)療、制造、服務(wù)等各個行業(yè)。在未來,人工智能將會出現(xiàn)在更多領(lǐng)域,而這一趨勢的出現(xiàn)不可避免地在各行各業(yè)發(fā)生一系列侵權(quán)現(xiàn)象,損害人類的生命健康、財產(chǎn)安全。例如,20世紀(jì)80年代日本因為工業(yè)機器人程序錯誤,將工人壓死的慘痛事故[1];姆拉賽克訴布林茅爾醫(yī)院案中,達芬奇醫(yī)療機器人因為程序一直不能反映正確的信息,且拒絕手術(shù)中的其他團隊進行糾正,最終延誤病人治療的悲劇事件[2];而最新的一些更為典型的事故發(fā)生在無人駕駛領(lǐng)域。2018年3月23日,無人駕駛汽車特斯拉致車內(nèi)駕駛?cè)藛T當(dāng)場死亡的事故等。這似乎是人工智能技術(shù)在時刻提醒著我們:強人工智能時代已經(jīng)到來,它給我們帶來便利的同時也面臨著由何者來承擔(dān)因錯誤行為和損害行為產(chǎn)生的責(zé)任問題。因為按照傳統(tǒng)的產(chǎn)品制度,當(dāng)事故發(fā)生需要認(rèn)定法律責(zé)任時,既可以使用者、所有者在使用過程中存在過錯為由追究其過錯責(zé)任,也可以產(chǎn)品存在缺陷為由追究生產(chǎn)者的產(chǎn)品責(zé)任。在強人工智能中使用者、所有者根本無法了解、控制強人工智能的行為,何來責(zé)任一說?而傳統(tǒng)的產(chǎn)品缺陷責(zé)任也難以適用:一方面強人工智能沒有統(tǒng)一的安全標(biāo)準(zhǔn),即使可以借鑒現(xiàn)有的其他產(chǎn)品標(biāo)準(zhǔn),又如何認(rèn)定制造缺陷、設(shè)計缺陷;另一方面如果不存在缺陷問題,僅有強人工智能自主行為,此時責(zé)任如何承擔(dān)?強人工智能、生產(chǎn)者、設(shè)計者?而根據(jù)現(xiàn)有的法律制度根本無法填平強人工智能侵權(quán)后的損失、也無法平衡強人工智能致害責(zé)任等現(xiàn)實問題。

因此,本文僅對目前學(xué)界普遍有爭議的強人工智能這一階段的智能機器人(即具有人類所有認(rèn)知能力,有知覺和意,可以由自身的系統(tǒng)自主的執(zhí)行不同的認(rèn)知任務(wù)的這一類機器人)侵權(quán)時的歸責(zé)問題進行具體分析,因為弱人工智能是不能真正實現(xiàn)脫離人類控制自主解決問題的智能機器,它們并沒有真正的智能,只能實現(xiàn)單一任務(wù),比如語音、圖像識別等,依照現(xiàn)有的《產(chǎn)品質(zhì)量法》或《侵權(quán)責(zé)任法》的相關(guān)規(guī)定就可以進行歸責(zé)分析。

二、強人工智能概念的界定

強人工智能(“強 AI”)概念最早由哲學(xué)家塞爾(John Searle)于20世紀(jì)80年代所提出[3],目前理論界針對強人工智能的范圍界定爭議不大,通說認(rèn)為其是與目前現(xiàn)有的僅僅依靠程序設(shè)計、指令等操作的“弱人工智能”相對的概念(1)在理論界和業(yè)界,早有“強人工智能”相對“弱人工智能”的概念。例如:約翰塞爾區(qū)分了弱人工智能和強人工智能,前者指稱僅能作為研究輔助工具的人工智能,后者指經(jīng)適當(dāng)編程的電腦與人類心靈等同(See John R. Searle. Minds, Brain and Programs. The Behavioral and Brain Sciences,1980,3(3):417-423.)。本文通過北大法寶輸入“強人工智能”進行檢索分析,共得出93條結(jié)果,在這些結(jié)果中明確的對象都是將強弱人工智能進行分開比對研究,或者直接引用強人工智能這一概念。(同時在搜索“人工智能”時,也有大量篇幅的論文將人工智能區(qū)分為強、弱兩類)其中涉及強弱人工智能分類時,突出的將自我意識、自主學(xué)習(xí)、自主決策等一系列脫離人的控制,自主作出的一系列類似于人類的活動作為其主要特點。 而對“弱人工智能”的認(rèn)識并無多大爭議,一般是指在設(shè)計和編制的程序范圍內(nèi)執(zhí)行人類的指令,通過其有限的智慧解決一些智力問題。參見[日]松尾豐:《人工智能狂潮:機器人會超越人類嗎?》,趙函宏、高華彬譯,機械工業(yè)出版社,2016:35-36。。具有以下特點:

(一)具有人的意志的效果性

強人工智能區(qū)別于之前的弱人工智能,不僅僅依據(jù)設(shè)計人的數(shù)據(jù)代碼設(shè)定運行,還能在設(shè)定之后的運行中,自我深度學(xué)習(xí),猶如海綿一樣,不斷進行自我吸收、程序轉(zhuǎn)換成新的知識背景[4]??梢哉f這種后續(xù)的學(xué)習(xí)已經(jīng)脫離設(shè)計者最初想要設(shè)定的軌道,完全由進一步的學(xué)習(xí)、認(rèn)知而自我衍生出新的裁判準(zhǔn)則,之前的人為設(shè)定,根據(jù)數(shù)據(jù)算法運行的做法作為獨創(chuàng)性已經(jīng)無法適用于新一代強人工智能[5]。

(二)行動完全的自主性

強人工智能下,它們已經(jīng)不再受人類的指令引導(dǎo)與下達,他們自己可以根據(jù)周邊環(huán)境結(jié)合現(xiàn)實情況自主的做出判斷[6]??梢哉f,他們是和人類近似的強人工智能體,擁有自我的情感、認(rèn)知與行動能力,不再是完全受支配的客體。更為先進的是,未來的他們正如科幻電影所描述的,可以根據(jù)自己的意志進行創(chuàng)造新的超出人類預(yù)控的物種,例如可以自己制造自己的下一代,而不再需要人類進行前期的編碼設(shè)置。因此,強人工智能的突出特點就是完全的自我判斷、自我決定。

(三)不透明性

智能機器人因為可以自主學(xué)習(xí)和深度學(xué)習(xí),在設(shè)計者予以最先的系統(tǒng)軟件設(shè)計后,智能機器人便可以根據(jù)自身的進程不斷學(xué)習(xí),最后連設(shè)計者本身都無法預(yù)測其行進的過程,因此其侵權(quán)過程中到底是基于何種原因產(chǎn)生,無法由外界乃至受害者得知。

強人工智能擁有和人一樣的意思表達能力與完全的自主性,能夠在設(shè)計運行中進行自我深入學(xué)習(xí)、調(diào)整以及學(xué)習(xí)進程中的高度不透明性,完全可以脫離人類控制,這在無形中導(dǎo)致其實施侵害后呈現(xiàn)出多樣化、復(fù)雜化、不透明化的特征,使得現(xiàn)行的《中華人民共和國侵權(quán)責(zé)任法》面臨是否可以完全適用、怎樣適用這一新興事物的困境。因此針對強人工智能這一對象,探索分析現(xiàn)行侵權(quán)責(zé)任歸屬是當(dāng)前民法學(xué)界的重中之重。

三、國內(nèi)強人工智能侵權(quán)責(zé)任的理論探討

國內(nèi)目前針對強人工智能侵權(quán)后的責(zé)任承擔(dān)問題,正如火如荼的進行著。雖然沒有一致的結(jié)論,但是統(tǒng)一的前提方向是:先判斷強人工智能是否具有民事責(zé)任能力、是否屬于民法上的民事主體[7],之后結(jié)合此定位進行責(zé)任承擔(dān)。因為這一問題具有基礎(chǔ)性和全局性,左右后續(xù)問題的解決。而目前,我國現(xiàn)有的侵權(quán)法律規(guī)范在強人工智能主體的認(rèn)定問題上存在爭議,無法通過民法解釋學(xué)將強人工智能明確歸于任何一類法定民法主體。為此,下文主要梳理國內(nèi)目前理論研究中對強人工智能機器人的定位——主體說與客體說,并依據(jù)不同定位,分析侵權(quán)時責(zé)任歸屬方面的具體操作以及存在的問題:

(一)“客體”定位下的責(zé)任承擔(dān)

該理論觀點認(rèn)為強人工智能機器人僅是權(quán)利的客體。例如鄭戈教授從責(zé)任方面明確提出強人工智能體本身沒有獨立的財產(chǎn)且不具備獨立擔(dān)責(zé)的能力,對于設(shè)立法律人格顯得多余和毫無必要[8];上海文史館館長郝鐵川教授從唯物史觀的觀點給出強人工智能的本質(zhì)是人的工具、人器官的延伸。我們創(chuàng)造勞動工具,反過來還讓工具取代人類?抑或與人類處于同一主體地位?這種將強人工智能作為獨立主體的理念完全是不愿堅守唯物史觀的基本觀點,是不成熟的行為,同時也是對法律穩(wěn)定性的褻瀆;吳漢東教授也明確提出“控制說”,他認(rèn)為智能機器人不同于有生命的自然人,應(yīng)屬于其控制的工具,目前不具備取得獨立主體地位的資格[1]??梢哉f,這些都是目前理論界主要接受的觀點。基于這種物的定位,在責(zé)任歸屬上,也就存在了如下兩種觀點:產(chǎn)品論——由生產(chǎn)者承擔(dān)責(zé)任,動物論——由動物管理者承擔(dān)責(zé)任。

前者認(rèn)為根據(jù)《中華人民共和國產(chǎn)品質(zhì)量法》,產(chǎn)品質(zhì)量應(yīng)當(dāng)檢驗合格,符合保障人體健康和人身、財產(chǎn)安全的標(biāo)準(zhǔn)或要求,生產(chǎn)者、銷售者依法承擔(dān)產(chǎn)品質(zhì)量責(zé)任。因此強人工智能定位為產(chǎn)品,除了個別由于使用者或者第三人故意引起的侵權(quán)以外,大多數(shù)強人工智能侵權(quán)是由于產(chǎn)品存在缺陷造成的,所以應(yīng)當(dāng)由生產(chǎn)者承擔(dān)產(chǎn)品責(zé)任,適用無過錯歸責(zé)原則。銷售者承擔(dān)不真正連帶責(zé)任。

該種主體定位后的責(zé)任承擔(dān)有一定局限:首先,缺陷如何確定[9]。我們知道在產(chǎn)品質(zhì)量侵權(quán)責(zé)任中,首先,需要受害者證明強人工智能存在缺陷;其次,自己受到損害,之后缺陷與損害之間具有因果聯(lián)系。但是強人工智能作為新興科技,目前我國并沒有統(tǒng)一的行業(yè)標(biāo)準(zhǔn),國際上也沒有統(tǒng)一適用的標(biāo)準(zhǔn),因此在這一不完善的技術(shù)標(biāo)準(zhǔn)下,讓一個不懂或者說完全沒有接觸過生產(chǎn)、設(shè)計領(lǐng)域的受害者來證明所謂的缺陷問題是件幾乎無法完成的事;再次,根據(jù)上文分析,我們知道強人工智能具有完全的自主性特征,是可以自己深入學(xué)習(xí)并擺脫人類控制的產(chǎn)物,產(chǎn)品缺陷僅僅是強人工智能的侵權(quán)原因之一;最后,在《產(chǎn)品質(zhì)量法》上還規(guī)定了一些免責(zé)條款,其中41條明確規(guī)定:“產(chǎn)品流通時的科學(xué)技術(shù)尚不能發(fā)現(xiàn)缺陷的存在,生產(chǎn)者和銷售者可免責(zé)?!边@無疑對于生產(chǎn)者銷售者來說就是全面的責(zé)任豁免條款。因為強人工智能的高科技性賦予了其現(xiàn)有技術(shù)達不到監(jiān)測未來的必然性,這無形中加大受害者責(zé)任,減少生產(chǎn)銷售者責(zé)任,那么依據(jù)嚴(yán)格責(zé)任下的產(chǎn)品質(zhì)量責(zé)任制度,其意義是什么,還能實現(xiàn)立法宗旨里保護消費者利益的初衷嗎?

后者認(rèn)為強人工智能可以定位為動物,利用《侵權(quán)責(zé)任法》中飼養(yǎng)動物致人損害的侵權(quán)責(zé)任規(guī)定。因為強人工智能不具備自主意識,其行為又與弱人工智能不同,不完全受人類控制,這與飼養(yǎng)的動物頗為相似,動物可能在有人類授意下實施侵權(quán),也可能在無人類授意下發(fā)生侵權(quán),盡管古代立法中有讓動物承擔(dān)法律責(zé)任的規(guī)定,但現(xiàn)代立法不再將動物視作法律主體,動物致害責(zé)任主體應(yīng)該是飼養(yǎng)人或者管理人。因此通過借鑒動物致害的侵權(quán)法78條規(guī)定,強人工智能侵權(quán)也應(yīng)由負(fù)有管理義務(wù)的人承擔(dān)無過錯責(zé)任,同時可以適用免責(zé)條款,即強人工智能侵權(quán),應(yīng)該由管理人承擔(dān)責(zé)任;如果受害者或第三人故意,則管理人可主張減責(zé)或免責(zé)。

這種觀點的缺點很明顯。首先,忽略了強人工智能與動物的本質(zhì)特點,強人工智能具有完全的自主性,不具有動物天生的一些攻擊性。目前我們根本無法準(zhǔn)確預(yù)知強人工智能系統(tǒng)針對一些行為是如何在自身系統(tǒng)中進行判定的,與動物的純粹生理性攻擊不同,強人工智能的侵權(quán)超出人類的預(yù)知,如果一味的將這種不可歸責(zé)于人類的原因歸諸于制造商或所有人,明顯不符合責(zé)任自負(fù)原則;其次,免責(zé)條款的適用具有不合理性。因為強人工智能的損害性與動物的損害,其嚴(yán)重性無法比擬。例如,強人工智能被甲挑逗激怒,他是無法識別自己應(yīng)該回?fù)舻某潭却笮?,因此一旦回?fù)羝渫耆赡軐⑷酥滤?,其傷害程度較于動物來說更高,且具有不可預(yù)測性,此時如果仍用免責(zé)條款予以適用,受害者承擔(dān)大部分或者全部責(zé)任,顯然不公平。

(二)“主體”定位下的責(zé)任承擔(dān)

該理論觀點認(rèn)為:強人工智能不但可以做出行為,而且能夠自主分析判斷,擁有比人類更加強大的數(shù)據(jù)收集、記憶和計算能力,完全不同于傳統(tǒng)的產(chǎn)品、動物。因此強人工智能應(yīng)該定位為獨立主體,同時在此前提下,又細(xì)分為“代理”和“電子人格”兩種定位。根據(jù)不同的定位,二者的責(zé)任承擔(dān)也分屬不同的路徑:

1.“代理”

以Kalin Hristov[10]、吳習(xí)彧[11]為代表的代理說認(rèn)為,強人工智能的管理者與其之間類似代理關(guān)系中本人與代理人的關(guān)系。強人工智能從事某種行為時和普通代理人一樣是脫離被代理人的意志自主進行決策的,因此最后的責(zé)任歸屬于本人也就是管理者,在代理這一主體定位下,強人工智能具有民事權(quán)利能力和行為能力,但不具有責(zé)任能力。

這種將強人工智能機器人定位為代理人的論點,在具體責(zé)任歸屬方面會存在如下問題:首先,在民法上,有法定代理與委托代理,強人工智能依此觀點應(yīng)歸入何種類別?因為其一方面欠缺法律的明確規(guī)定,另一方面也無法根據(jù)任何的意思表示;其次,強人工智能如果同普通代理人一樣進行所謂的代理行為致人人身財產(chǎn)損害,那么這一行為是否在代理權(quán)限范圍內(nèi)也很難確定,因為同普通代理制度不同,強人工智能無法進行法定或者約定的權(quán)限范圍;最后,正如上文分析強人工智能本身不承擔(dān)責(zé)任,而傳統(tǒng)的代理責(zé)任中雖然代理人范圍內(nèi)從事的行為結(jié)果歸因于本人,但是如果超越權(quán)限范圍,責(zé)任是由代理人自負(fù)的,而強人工智能即使能確定權(quán)限范圍,最終如果超出代理權(quán)限,其自身也是無法負(fù)責(zé)的,因為他僅僅是一個擬人化的民事主體,沒有實際上的責(zé)任能力,這對受害者追責(zé)是極其不利的。

2.“電子人格”

我國目前也有少部分學(xué)者主張將強人工智能定位為電子人格。以郭少飛[12],陳吉棟、楊清望、張磊[13]等為代表:其僅將自然人以外的強人工智能擬制為法律主體,像賦予法人或其他組織擬制主體地位一樣,賦予其法律主體資格,和自然人享有平等的權(quán)利,并指出在實踐中已有的先例,如沙特的索菲亞機器人已獲公民資格;歐盟通過的《歐盟機器人民事責(zé)任法律規(guī)則》明確規(guī)定:將機器人設(shè)立為特殊的法律人格,從而保障這些智能機器人具有電子人一樣的法律地位,也就是電子人格[14]。

通過電子人格的主體定位后,強人工智能侵權(quán)后的責(zé)任歸屬仍然不明確。因為如果是強人工智能自己承擔(dān)責(zé)任,那么歸責(zé)原則是過錯責(zé)任原則或者無過錯責(zé)任原則:如果是過錯責(zé)任原則,如何評定強人工智能是否具有過錯?難道按照人的行為評定?這是否與我們現(xiàn)存的唯物史觀、以人為本的觀念相違背;如果是無過錯責(zé)任原則,那么其根本就沒有獨立財產(chǎn),受害人損失怎么保障。另外排除最后責(zé)任歸屬方面的問題,其在一開始定位獨立主體時就面臨很多問題:這種強人工智能,具體由誰申請獨立人格?申請的標(biāo)準(zhǔn)是什么?在這些現(xiàn)實的問題均沒有統(tǒng)一的解釋下,獨立的主體地位對責(zé)任承擔(dān)既無法提供有效解決措施,還有冗長累贅之嫌。

四、國外強人工智能侵權(quán)責(zé)任探討

(一)歐盟——獨立主體定位+配套保險制度

首先,在歐盟學(xué)者的推動下,2016年5月31 日歐洲議會法律事務(wù)委員會發(fā)布《關(guān)于機器人民事法律規(guī)則立法建議致歐盟委員會的報告草案》,2017年1月12日草案由該委員會表決通過成為決議[15],2017年2月16日,歐洲議會通過該決議(2)決議第59段建議:從長期著眼為機器人創(chuàng)立特定的法律地位,以至于至少明確最精密的自主機器人擁有“電子人”地位,能夠承擔(dān)彌補其引發(fā)的損害的責(zé)任,并可能把“電子人格”適用于那些機器人自主決定或其他獨立于第三方交互的案件。。該決議中明確提出并實施重構(gòu)適用于人工智能主體的民事責(zé)任規(guī)范。因為只追究本身可能并沒有過錯的生產(chǎn)者、銷售者或使用者的責(zé)任可能是合法的,但一定是不合理的。因此不說全部賦予獨立人格,至少應(yīng)該賦予一些最精密的自主機器人,也就是我們的研究對象“強智能機器人”獨立人格,這樣可以使其對自己的行為承擔(dān)責(zé)任,當(dāng)然在確定這些獨立主體地位同時,也需要借鑒最初設(shè)立法人制度時登記的一些制度規(guī)則,對智能機器人也進行登記公示,從而保證其權(quán)利義務(wù)的行使[16]。

其次,歐盟為了保障強人工智能下受害者的利益,建議只要存在智能機器人侵權(quán)行為,就一定要追究,不考慮其他不可抗力等諸多情況,以充分彌補受害者的損失,但是智能機器人的責(zé)任承擔(dān)也應(yīng)該有底限,即必須根據(jù)其自主性程度衡量,自主性程度越高責(zé)任越小,自主性承擔(dān)越低責(zé)任越大。

最后,歐盟還旗幟鮮明的提出了建立強制責(zé)任保險制度,設(shè)立賠償責(zé)任專項基金,因為強人工智能的損害往往賠償金額較多,爭議的時限也會因技術(shù)程度的復(fù)雜度而延長。此時及時的保障受害者的利益成為當(dāng)務(wù)之急,因此可以要求生產(chǎn)者或者設(shè)計者、所有者強制投保,從而高效解決訴爭。

歐盟目前對強人工智能的研究跨步很大,明確提出智能機器人應(yīng)當(dāng)取得獨立人格,但缺乏對責(zé)任承擔(dān)的具體分配問題的研究,這與我國學(xué)界的一批主張“電子人格說”的研究殊途同歸。因此借鑒國外較為前衛(wèi)的理論要結(jié)合實際并且深入考察其他配套措施,將理論體系化、實踐化。

(二)美國與德國——配套制度+具體行業(yè)試運行下的責(zé)任承擔(dān)+道德保障

德國與美國相較歐盟步伐稍小,沒有明確提出賦予強人工智能獨立主體地位,而是主張在不改變現(xiàn)有的侵權(quán)責(zé)任制度框架下,大量對特定行業(yè)領(lǐng)域的強人工智能進行試運行,頒布一系列有針對性的試運行的規(guī)范制度,例如無人駕駛汽車、醫(yī)療機器人等。因此他們的主要做法有如下重要的幾點:

首先,針對歸責(zé)原則而言,仍保留現(xiàn)有的產(chǎn)品責(zé)任中歸責(zé)原則的規(guī)定,對于生產(chǎn)者進行嚴(yán)格責(zé)任,對于銷售者、使用者適用過錯責(zé)任(3)美國現(xiàn)有的歸責(zé)原則針對的對象包括了強人工智能。因為其在擬定通過的《統(tǒng)一計算機信息交易法》以及《統(tǒng)一電子交易法》中都對其作了這樣的界定:它是一種能夠獨立自主的完成具體的工作并且不用經(jīng)過人為的指令或干預(yù)的智能技術(shù)。;其次,在優(yōu)先發(fā)展領(lǐng)域——無人駕駛行業(yè),進行一系列法律規(guī)范約束,如創(chuàng)新性的制定了一些其運行的技術(shù)安全標(biāo)準(zhǔn)與規(guī)則,從而保障統(tǒng)一規(guī)范化的管理,使其在生產(chǎn)、運行中有據(jù)可依,侵權(quán)后也能依標(biāo)準(zhǔn)進行統(tǒng)一維權(quán)。另外規(guī)范制度上明確要求安裝“黑匣子”。因為人工智能侵權(quán)的原因復(fù)雜、事實難查明,通過安裝“黑匣子”記錄系統(tǒng)內(nèi)的每項數(shù)據(jù),使得在發(fā)生侵權(quán)事實后能夠具體準(zhǔn)確的分析侵權(quán)的原因,極大的減緩受害人在舉證責(zé)任中受到的不利影響,也使得責(zé)任主體各方能夠依據(jù)侵權(quán)的事實進行歸責(zé);尤其是美國還將對普通產(chǎn)品缺陷召回制度運用于強人工智能機器人召回中,對于缺陷機器人或者發(fā)生侵權(quán)的機器人采取剝奪繼續(xù)運行的資格,防止對他人進行二次傷害。最后,除了實踐、制度的保障外,德國更是開始從道德層面進行探索,引導(dǎo)設(shè)計人員設(shè)計時的道德意識,同時保證系統(tǒng)軟件本身具備智能機器人自身的道德水平,實現(xiàn)通過源頭減少侵權(quán)損害的發(fā)生。

可以看出美國和德國,深入并著重的在未來強人工智能領(lǐng)域可能發(fā)生的侵權(quán)事故進行了一系列探索,尤其是責(zé)任主體、歸責(zé)原則、事實查明、賠償方式及配套措施方面等。并且結(jié)合實際開始立法先行,在無人駕駛汽車、智能機器人等方面制定了相當(dāng)數(shù)量的具有一定借鑒意義的法律法規(guī)。但是在定位強人工智能地位這一前提下,其步伐相對保守??赡芩麄兪菄L試先在不同行業(yè)進行試運行一些規(guī)定,最后根據(jù)實際情況考慮是否整體突破傳統(tǒng)客體定位的局面。而我國之前的一些試運行規(guī)范明顯很少,現(xiàn)在既然搶占強人工智能戰(zhàn)略發(fā)展先機,如果仍局限于傳統(tǒng)客體定位無法與強人工智能大環(huán)境相接軌,會使得我國強人工智能的發(fā)展處于被動狀態(tài)。故我國可以借鑒美國、德國一些單獨針對智能機器人的各行各業(yè)的配套措施的規(guī)定,但在主體定位方面應(yīng)結(jié)合國內(nèi)研究現(xiàn)狀,不局限傳統(tǒng)客體觀點去討論責(zé)任承擔(dān)。

五、構(gòu)建我國強人工智能侵權(quán)責(zé)任承擔(dān)體系

針對強人工智能廣泛應(yīng)用所引發(fā)的致人人身、財產(chǎn)受到損害的責(zé)任歸屬問題,本文系統(tǒng)的分析了目前國內(nèi)的研究現(xiàn)狀:先對強人工智能主、客體定位,再根據(jù)不同定位路徑在現(xiàn)有侵權(quán)責(zé)任制度中找尋責(zé)任承擔(dān)方式的具體操作;以及國外研究中已經(jīng)率先提出并付諸實踐的一系列試運行經(jīng)驗措施。綜合上述梳理可以發(fā)現(xiàn)國內(nèi)一直在依據(jù)現(xiàn)有的法律找尋具體侵權(quán)責(zé)任歸屬,而國外依據(jù)具體的實踐去總結(jié)規(guī)范更具有實效性。但是國外的一些做法或多或少對我國強人工智能的適用存在著一些障礙。因此,結(jié)合二者共同的優(yōu)點不足,本文主張應(yīng)抓住新一輪革命機遇,頒布強人工智能單行法,以構(gòu)建新的符合我國強人工智能侵權(quán)的責(zé)任制度,從而在法律層面給予一個明確的責(zé)任承擔(dān)體系。

首先,參考國外已經(jīng)生效的一些典型領(lǐng)域(如無人駕駛行業(yè))的規(guī)章制度、配套設(shè)施,設(shè)立統(tǒng)一的試用各行業(yè)領(lǐng)域的強人工智能單行法,提供總體的標(biāo)準(zhǔn)和原則,以更好的迎接人工智能的到來,更好的在責(zé)任問題發(fā)生后定紛止?fàn)?。其次,單行法頒布后,放置不同的行業(yè)進行實踐運行。獲得成熟后,在統(tǒng)一的規(guī)則承擔(dān)體系下再具體的結(jié)合醫(yī)療、服務(wù)等各行業(yè)的智能機器人侵權(quán)的特殊情況,具體問題具體分析,補充一些特殊的具體的制度規(guī)范。例如免責(zé)事由等,從而完善強人工智能體侵權(quán)時責(zé)任承擔(dān)的體系化、差異化、科學(xué)化??梢哉f和國外研究方法反向思考,先制定單行法,抓住人工智能戰(zhàn)略主動權(quán),給予一些強人工智能一定的總體參考意見,再留有適度的空地允許不同行業(yè)予以補充完善。為此,先行頒布的強人工智能單行法可以主要包括兩方面內(nèi)容:第一,責(zé)任構(gòu)成和責(zé)任方式:明確強人工智能的主體地位;依據(jù)主體定位明確強人工智能侵權(quán)時具體的責(zé)任承擔(dān)。第二,要真正實現(xiàn)對受害者的救濟,強人工智能還需配套措施輔助:強人工智能產(chǎn)品進入標(biāo)準(zhǔn);交強險的強人工智能責(zé)任險和強人工智能賠償基金;強人工智能缺陷產(chǎn)品召回機制;數(shù)據(jù)存儲“黑匣子。

(一)責(zé)任構(gòu)成和責(zé)任方式

1.智能機器人的主體定位——“有限人格”

根據(jù)對國內(nèi)、國外現(xiàn)有的研究現(xiàn)狀分析,可明晰這些觀點或多或少都有一定的缺陷不足。但是立法必須具有穩(wěn)定性,必須在現(xiàn)有的觀點中找出最適宜強人工智能現(xiàn)在以及未來發(fā)展的立足點,從而保障法律的穩(wěn)定性、明確性、指引性。為此,通過比較分析,國外實踐中雖然有歐盟明確規(guī)定賦予機器人主體地位,但是大多數(shù)國家,結(jié)合人工智能的發(fā)展現(xiàn)狀仍保持觀望的態(tài)度。而且國內(nèi)研究現(xiàn)狀也主要傾向于不賦予強人工智能獨立主體地位,這也具有現(xiàn)實科學(xué)意義。因為完全賦予人工智能獨立主體地位后,責(zé)任仍然無法由自身承擔(dān),賦予其獨立民事主體地位沒有必要也沒有任何價值意義,具有冗長累贅之嫌。但認(rèn)為按照客體定位的觀點,仍用現(xiàn)有的侵權(quán)責(zé)任產(chǎn)品責(zé)任的一些歸責(zé)原則,無法鼓勵科技創(chuàng)新,無法與國際強人工智能主體研究接軌,體現(xiàn)時代性。為此,我們既需要明確智能機器人非獨立主體地位,又需要將其不同于傳統(tǒng)的客體身份。因此綜合之下,并結(jié)合強人工智能產(chǎn)品具有完全自主判斷、深入學(xué)習(xí)的特點,我們可以走折中道路,定位為有限人格[17]即在特定情況下享有權(quán)利能力。類似于設(shè)立中的法人規(guī)定、對胎兒的利益保護等,不具有獨立的法律人格,只能獲得有限的權(quán)利能力。從而很好的解決強人工智能發(fā)生侵權(quán)行為時,如何為自己的行為承擔(dān)相應(yīng)的法律責(zé)任。

2.責(zé)任承擔(dān)

根據(jù)有限人格定位后,強人工智能侵權(quán)的責(zé)任承擔(dān)可以遵循如下思路:

首先,國內(nèi)研究現(xiàn)狀中對主體定位雖然不一樣,但是責(zé)任承擔(dān)的另一前提——歸責(zé)原則,大家普遍贊同無過錯責(zé)任的歸責(zé)原則。因為不管是客體說的產(chǎn)品論與動物論,其歸責(zé)都是無過錯責(zé)任原則。即使是主觀說中的被代理人也是無過錯的承擔(dān)替代責(zé)任。歐盟的電子人格說確立了主體地位,但實踐中責(zé)任承擔(dān)主體還是生產(chǎn)設(shè)計者,適用的其實也依舊是無過錯責(zé)任,同時歐盟提出了建立強制責(zé)任保險制度,目前歐盟現(xiàn)有的保險制度也已經(jīng)十分完善,可以在一定程度上最大化的保護受害者利益。而我國目前并沒有保險力度推廣的實踐、市場經(jīng)濟中研發(fā)者生產(chǎn)者社會責(zé)任意識也普遍較低。因此,更應(yīng)該強人工智能進行無過錯責(zé)任的歸責(zé)原則,這將更有利于社會的和諧發(fā)展。但是根據(jù)《侵權(quán)責(zé)任法》的規(guī)定,可以看出其第6條第2款過錯推定責(zé)任和第7條無過錯責(zé)任都標(biāo)明了“法律規(guī)定”,只有第6條第1款過錯責(zé)任中無需使用“法律規(guī)定”字樣,因此可以說如果法律沒有規(guī)定,一般適用過錯責(zé)任。為此,首先應(yīng)該由單行法明確規(guī)定強人工智能的歸責(zé)原則,因為沒有法律規(guī)定,只是學(xué)術(shù)上的探究,司法實踐中雖具有可操作性但卻無法直接引用。所以對于有限人格下的強人工智能侵權(quán)首先應(yīng)賦予明確的法條規(guī)定:承擔(dān)無過錯的歸責(zé)原則。

其次,確定了無過錯歸責(zé)原則后,設(shè)立人工智能的構(gòu)成要件便成為水到渠成的事。即按照無過錯歸責(zé)原則下構(gòu)成要件的規(guī)定: 損害事實的客觀存在;強人工智能的侵權(quán)行為與損害事實之間存在因果關(guān)系,在該因果關(guān)系要求下,必須證明受到的損害后果是強人工智能的行為所致,而不是他人利用其作為工具侵權(quán),因為利用工具直接依據(jù)具體背后的侵權(quán)人定責(zé)即可。因而,在此種規(guī)定下,受害人只要舉證符合二者就可以完成構(gòu)成要件的成立。

最后,也是強人工智能有限人格定位的優(yōu)勢所在:在責(zé)任歸屬何種主體方面具有可操作性,科學(xué)性,平衡了不同利益主體間的利益,既促進技術(shù)的研發(fā)又能彌補受害者的損失。因為通過上述明確規(guī)定將人工智能產(chǎn)品的法律地位定位為有限人格。在符合侵權(quán)責(zé)任構(gòu)成要件后,需要承擔(dān)侵權(quán)責(zé)任時,可以由強人工智能自己獨立承擔(dān)責(zé)任,不用再強加責(zé)任于生產(chǎn)者、設(shè)計者。但是必須有選擇性的按照特殊的責(zé)任承擔(dān),即并不是一味的所有情況下都需要強人工智能本身承擔(dān)責(zé)任,而是在法律明確規(guī)定、實踐需要的情況下才會承擔(dān)責(zé)任。例如,采納有限法律人格否認(rèn)制度:在最終確定的責(zé)任主體中,將生產(chǎn)、設(shè)計者視為發(fā)起人,強人工智能視為最終成立的公司,如果生產(chǎn)者、設(shè)計者有過錯,則應(yīng)“揭開強人工智能機器人的面紗”承擔(dān)侵權(quán)責(zé)任;如果沒有過錯,且能提供完整的系統(tǒng)數(shù)據(jù),證明主要是強人工智能自己的行為引起,則此時利用強人工智能在特定情況下享有權(quán)利能力的特點,生產(chǎn)者設(shè)計者可以不承擔(dān)責(zé)任,由強人工智能自己承擔(dān)責(zé)任,當(dāng)然前提是其自身有一定的資金儲備,這就需要借助下文所述的配套措施中的基金制度+保險制度予以救助(即每一個強人工智能投放于市場時都需要相關(guān)研發(fā)設(shè)計人員、生產(chǎn)制造人員為其購買一定的基金和保險,使用人、所有人只需購買責(zé)任保險。這些基金保險屬于每個強人工智能賬戶下的小金庫,用于自我收益、彌補損失);如果不能證明行為完全由強人工智能自身行為所致侵權(quán),則需要根據(jù)強人工智能的自主性程度,培養(yǎng)時間,來減少生產(chǎn)設(shè)計者的責(zé)任承擔(dān)程度抑或不承擔(dān)責(zé)任。因此,在具體進行責(zé)任承擔(dān)歸屬問題上,不能僅僅規(guī)定何種主體承擔(dān)責(zé)任,還要結(jié)合強人工智能本身的特殊情況區(qū)別對待[18]。當(dāng)然這種特殊情況,目前僅僅限于設(shè)計者、生產(chǎn)者過錯,強人工智能的自主程度,后續(xù)實踐中發(fā)現(xiàn)的具體特殊情況可以添入其中,保證法律的完善性。通過這種理論與實踐的結(jié)合真正做到權(quán)利與義務(wù),收益與風(fēng)險的平衡,真正較為科學(xué)全面的對強人工智能侵權(quán)后的責(zé)任進行系統(tǒng)的梳理歸責(zé)。

(二)強人工智能的配套措施規(guī)定

1.建設(shè)強人工智能市場進入標(biāo)準(zhǔn)

根據(jù)國外的研究現(xiàn)狀,不管是美國還是德國都紛紛對強人工智能進行典型領(lǐng)域的試運行。例如無人駕駛汽車領(lǐng)域里,大量的試行規(guī)范應(yīng)運而生。北京目前對于無人駕駛領(lǐng)域頒布的《自動駕駛車輛道路測試管理實施細(xì)則(試行)》中的一些規(guī)定,也是借鑒了大量的成功經(jīng)驗。為此,強人工智能整體行業(yè)的一些運行標(biāo)準(zhǔn),完全也可以在此基礎(chǔ)上借鑒。例如,由現(xiàn)在主要負(fù)責(zé)人工智能發(fā)展的部門會同有關(guān)具體行業(yè)領(lǐng)域、公司、設(shè)計院等統(tǒng)一制定強人工智能市場進入標(biāo)準(zhǔn),同時一些行政規(guī)章制度予以輔助。因為要求強人工智能承擔(dān)責(zé)任的前提應(yīng)該是明晰什么情況下自我歸責(zé),什么情況下生產(chǎn)設(shè)計者承擔(dān)責(zé)任?而擁有明確具體的市場進入標(biāo)準(zhǔn),在源頭上減少產(chǎn)生侵權(quán)的可能,在具體運行中有明確的依據(jù)予以歸責(zé)。從而使得強人工智能只有在滿足保障人體健康和人身、財產(chǎn)安全的國家標(biāo)準(zhǔn)或行業(yè)標(biāo)準(zhǔn)下才能進入市場,不僅極大的減少侵權(quán)事故的發(fā)生,更能有效的在侵權(quán)發(fā)生后確定侵權(quán)發(fā)生的原因。所以建立強人工智能進入標(biāo)準(zhǔn)、強人工智能開發(fā)者安全注意義務(wù)準(zhǔn)則,對于行業(yè)在自律規(guī)范上做好充分準(zhǔn)備顯得極其重要。

2.配套強人工智能的硬件、軟件設(shè)施

通過上述內(nèi)容的梳理分析,以及目前我國的現(xiàn)有水平、未來的發(fā)展趨勢,強人工智能可以作為有限的人格主體,在特殊情況下承擔(dān)責(zé)任。但如何確定特殊情況、減少特殊情況的發(fā)生,還需要依賴一些配套措施。目前我國幾乎沒有措施保障抑或有也無法有針對性的適用此類新興行業(yè)。因此我們可以借鑒美國立法規(guī)定,利用法律強制要求對強人工智能進行登記公示制度,強人工智能缺陷產(chǎn)品召回機制,對發(fā)現(xiàn)缺陷后的機器人應(yīng)及時召回或停止提供服務(wù)。以及建立黑匣子,在保護數(shù)據(jù)隱私權(quán)的前提下預(yù)先保存一些侵害的事實依據(jù),方便排查變化原因,使得在發(fā)生侵權(quán)事件時可以依不同情況來考慮。例如是在設(shè)計者設(shè)計的范圍之內(nèi)作出的侵權(quán)行為,或是在研發(fā)設(shè)計范圍之外作出的侵權(quán)行為,抑或是不可抗力、意外事件導(dǎo)致的侵權(quán)行為,從而具體準(zhǔn)確的將責(zé)任歸屬于責(zé)任主體。

3.探索強人工智能保險、基金制度

我們可以參考?xì)W盟的做法來作出應(yīng)對,即建立交強險的人工智能責(zé)任險和建立侵權(quán)賠償基金制度。在每一個強人工智能進入市場后,設(shè)立專屬的賬戶。這些賠償基金和保險額劃歸相應(yīng)的強人工智能賬戶下。由統(tǒng)一部門負(fù)責(zé)經(jīng)營管理,收益損失都?xì)w強人工智能獨立使用,從而保障未來侵權(quán)行為發(fā)生后的責(zé)任承擔(dān)問題。因為強人工智能要想獨立擔(dān)責(zé)的首要前提是必須有一定的資金支撐,而不是僅僅歸責(zé)于使用者、生產(chǎn)設(shè)計者。通過這種保險、基金項目的支撐,既可以更好的對受害者進行有效的救濟,也能使人工智能真正實現(xiàn)責(zé)任自負(fù)的有限主體地位,呼應(yīng)學(xué)界的一些技術(shù)中立原則,發(fā)揮對高科技發(fā)展的救助扶持作用,更是為了真正的推動人工智能有序發(fā)展,不至于因為過多的責(zé)任承擔(dān)抑制研發(fā)者、生產(chǎn)者推動AI技術(shù)研發(fā)的進程。

六、結(jié)語

現(xiàn)階段,新一代人工智能事業(yè)已成為全球新一輪科技革命,這對我國來說既是新的機遇也是巨大的挑戰(zhàn),我們要想在這一領(lǐng)域趕超發(fā)達國家,提高該領(lǐng)域的法律規(guī)范標(biāo)準(zhǔn)制定權(quán)、話語權(quán),提升綜合國力,配套的相關(guān)法律制度的設(shè)定便發(fā)揮舉足輕重的作用。因此,在綜合國內(nèi)外研究的經(jīng)驗、不足前提下,我們必須結(jié)合國內(nèi)的一些發(fā)展實際,分析現(xiàn)有的侵權(quán)責(zé)任法律規(guī)范、調(diào)整不適用的部分、增加新的符合人工智能趨勢的部分,加快制定強人工智能的單行法,從法律層面上保障人工智能的發(fā)展,把握好新一輪人工智能的先機。

猜你喜歡
定位主體機器人
論自然人破產(chǎn)法的適用主體
《導(dǎo)航定位與授時》征稿簡則
Smartrail4.0定位和控制
技術(shù)創(chuàng)新體系的5個主體
找準(zhǔn)定位 砥礪前行
關(guān)于遺產(chǎn)保護主體的思考
懷舊風(fēng)勁吹,80、90后成懷舊消費主體
青年擇業(yè)要有準(zhǔn)確定位
機器人來幫你
認(rèn)識機器人
鞍山市| 长春市| 郯城县| 定陶县| 吉林市| 横山县| 梓潼县| 松江区| 大城县| 富顺县| 任丘市| 年辖:市辖区| 南丰县| 高清| 赤峰市| 孝义市| 乌兰察布市| 怀宁县| 烟台市| 泸定县| 乐至县| 石渠县| 双峰县| 杭州市| 三江| 三台县| 石家庄市| 南丹县| 昌黎县| 内乡县| 平凉市| 舞钢市| 文安县| 广昌县| 晋城| 云浮市| 沙湾县| 赤城县| 梅河口市| 林口县| 木里|