国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能法律風(fēng)險(xiǎn)防范與研發(fā)者責(zé)任探討

2021-09-14 02:07韓欣悅聶洪濤
關(guān)鍵詞:責(zé)任法律人工智能

韓欣悅,聶洪濤

(西安財(cái)經(jīng)大學(xué),西安 710061)

人工智能(Artificial Intelligence)的概念提出至今,其在制造、醫(yī)療、交通、服務(wù)等領(lǐng)域的應(yīng)用迅速發(fā)展,正深刻改變著人類社會(huì)的經(jīng)濟(jì)形態(tài)、生產(chǎn)生活方式和法律結(jié)構(gòu)。然而,人工智能時(shí)代是知識(shí)革命的時(shí)代,也是風(fēng)險(xiǎn)劇增的時(shí)代,人工智能時(shí)代的風(fēng)險(xiǎn)既表現(xiàn)為技術(shù)性風(fēng)險(xiǎn),也表現(xiàn)為制度性風(fēng)險(xiǎn),且這種風(fēng)險(xiǎn)未來(lái)會(huì)超越國(guó)界,沒(méi)有社會(huì)文化、地理區(qū)域的限制?,F(xiàn)有法律體系能否應(yīng)對(duì)人工智能帶來(lái)的新風(fēng)險(xiǎn)和不確定性,調(diào)和智能算法所引起的沖突與矛盾,在智能時(shí)代繼續(xù)維持秩序與變革、安全與創(chuàng)新之間的平衡?科技創(chuàng)新是時(shí)代大勢(shì)和國(guó)際潮流,法律工作者需要思考,如何以法律規(guī)范消解技術(shù)風(fēng)險(xiǎn),促進(jìn)科技創(chuàng)新和產(chǎn)業(yè)發(fā)展。對(duì)此,我們不僅需要科學(xué)的智慧,更需要制度的理性,在新一批人工智能技術(shù)開(kāi)始大量應(yīng)用之前,法律領(lǐng)域反省性的修改和根本性的變革正在逐步浮現(xiàn)。在人工智能技術(shù)健康有序發(fā)展的基礎(chǔ)上探討構(gòu)建相關(guān)法律風(fēng)險(xiǎn)防控和責(zé)任分擔(dān)機(jī)制將是新時(shí)代的一個(gè)重要法律課題。

一、問(wèn)題緣起:人工智能的全球發(fā)展趨勢(shì)與布局

人工智能作為智能產(chǎn)業(yè)發(fā)展的核心,是其他智能科技產(chǎn)品發(fā)展的基礎(chǔ),近年來(lái),國(guó)內(nèi)外科技創(chuàng)新企業(yè)紛紛開(kāi)展人工智能產(chǎn)業(yè)鏈布局,許多應(yīng)用成果相繼落地。當(dāng)前,人們對(duì)人工智能的關(guān)注度與日俱增,大量數(shù)據(jù)、資本和人才的匯集驅(qū)動(dòng)AI技術(shù)研究不斷向前推進(jìn)。

圖1 人工智能技術(shù)熱點(diǎn)領(lǐng)域分布圖

圖2 中國(guó)人工智能企業(yè)類型及占比統(tǒng)計(jì)圖

隨著人工智能應(yīng)用領(lǐng)域的擴(kuò)展,“AI+”作為新興業(yè)態(tài)開(kāi)始萌芽,越來(lái)越多的行業(yè)投入人工智能技術(shù)研究,助力技術(shù)和產(chǎn)業(yè)的深度融合。根據(jù)中國(guó)信息通信研究院的統(tǒng)計(jì),我國(guó)“AI+”企業(yè)總計(jì)占比超過(guò)40%,可見(jiàn)國(guó)內(nèi)企業(yè)對(duì)人工智能應(yīng)用環(huán)節(jié)的關(guān)注。可以預(yù)見(jiàn)未來(lái)幾年,科技、制造等行業(yè)巨頭的技術(shù)布局將更加深入,隨著眾多垂直領(lǐng)域的科技創(chuàng)新企業(yè)誕生和成長(zhǎng),人工智能將出現(xiàn)更多產(chǎn)業(yè)級(jí)和消費(fèi)級(jí)應(yīng)用產(chǎn)品。

圖3 2015 — 2020年中國(guó)人工智能市場(chǎng)規(guī)模及增長(zhǎng)情況統(tǒng)計(jì)圖①數(shù)據(jù)來(lái)源:中國(guó)產(chǎn)業(yè)信息網(wǎng)https://www.chyxx.com。

隨著我國(guó)人工智能產(chǎn)業(yè)政策不斷落地,技術(shù)應(yīng)用的商業(yè)化進(jìn)程加快。在國(guó)家戰(zhàn)略規(guī)劃中,人工智能已超越技術(shù)概念,成為產(chǎn)業(yè)轉(zhuǎn)型、綜合國(guó)力提升的立足點(diǎn)和新機(jī)遇,巨大的行業(yè)應(yīng)用前景、開(kāi)放的市場(chǎng)環(huán)境與數(shù)據(jù)資源、研發(fā)能力的有機(jī)結(jié)合,形成了我國(guó)人工智能發(fā)展的獨(dú)特優(yōu)勢(shì)。隨著人工智能向不同領(lǐng)域的迅速滲透,其相關(guān)技術(shù)已獲得全球范圍的關(guān)注和研究,越來(lái)越多的創(chuàng)新主體加入了人工智能研發(fā)的競(jìng)爭(zhēng)與布局。AI應(yīng)用在世界各地呈現(xiàn)出了多元、廣泛的特點(diǎn),推動(dòng)了深刻持久的社會(huì)變革,也帶來(lái)了潛在的隱患和風(fēng)險(xiǎn)。

二、困境審視:人工智能開(kāi)發(fā)利用的法律風(fēng)險(xiǎn)

人工智能廣闊的發(fā)展前景正源源不斷地吸引著世界各國(guó)的資金、技術(shù)和人才,在滿足人們對(duì)智能社會(huì)美好愿景的同時(shí),其帶來(lái)的負(fù)面影響也不容忽視,人工智能應(yīng)用中出現(xiàn)的事故足以讓我們面對(duì)新技術(shù)時(shí)更加冷靜和謹(jǐn)慎。智能算法帶來(lái)的風(fēng)險(xiǎn)主要有:一是智能系統(tǒng)自身存在漏洞和缺陷而致人損害的風(fēng)險(xiǎn),二是系統(tǒng)遭到外部侵入和操控而產(chǎn)生的風(fēng)險(xiǎn)[1]。智能算法產(chǎn)生的法律風(fēng)險(xiǎn)和責(zé)任歸屬問(wèn)題如何解決,如依據(jù)何種規(guī)則認(rèn)定責(zé)任、由誰(shuí)承擔(dān)責(zé)任以及如何承擔(dān)責(zé)任等,事關(guān)受害人權(quán)利的及時(shí)救濟(jì),更影響到人工智能新技術(shù)的穩(wěn)定和可持續(xù)發(fā)展。

(一)致人損害的風(fēng)險(xiǎn)

自人工智能誕生以來(lái),其理論和技術(shù)日益成熟,應(yīng)用領(lǐng)域也不斷擴(kuò)大,但與此同時(shí)也出現(xiàn)了一系列人工智能技術(shù)應(yīng)用引發(fā)的事故。2015年德國(guó)大眾汽車廠的機(jī)器人突然失控襲擊安裝工人致其當(dāng)場(chǎng)死亡②參見(jiàn)新華網(wǎng):http://www.xinhuanet.com/world/2015-07/02/c_127977462.htm。,美國(guó)研發(fā)的外科手術(shù)機(jī)器人發(fā)生故障,導(dǎo)致大量患者受傷、89位患者死亡。[2]深圳國(guó)際高新技術(shù)成果交易會(huì)上的機(jī)器人突然砸壞玻璃致使人員受傷……這些事件引發(fā)了公眾對(duì)人工智能的恐慌和學(xué)者對(duì)法律完善的思考。[3]

在技術(shù)的發(fā)展過(guò)程中,人工智能的法律地位、責(zé)任、權(quán)利義務(wù)等如何界定一直備受重視。關(guān)于人工智能致人損害的責(zé)任問(wèn)題,有學(xué)者認(rèn)為人工智能自身可作為責(zé)任主體,也有學(xué)者認(rèn)為其與一般的產(chǎn)品責(zé)任沒(méi)有區(qū)別。誠(chéng)然,人工智能工作物具有直接致人損害的客觀事實(shí),但它們對(duì)于自己行為的結(jié)果無(wú)法識(shí)別和控制,缺乏為自己的過(guò)失而承擔(dān)責(zé)任的能力,因“無(wú)責(zé)任能力者之行為不得使負(fù)義務(wù)”,致人損害的責(zé)任主體仍需為自然人、法人或非法人組織。然而,基于人工智能的特點(diǎn),其致人損害的責(zé)任與一般的產(chǎn)品責(zé)任也并不等同。

人工智能產(chǎn)品通常被視為科技產(chǎn)品,但與一般科技產(chǎn)品不同的是,智能算法具有一定的自主性,可能脫離人類控制或違背人類意志。[4]因此,人工智能致?lián)p的責(zé)任承擔(dān)具有特殊性。根據(jù)現(xiàn)行法律,產(chǎn)品致?lián)p適用侵權(quán)責(zé)任的規(guī)定,由生產(chǎn)、銷售方進(jìn)行賠償。如果智能算法完全由人主導(dǎo),致人損害時(shí)侵權(quán)責(zé)任的歸責(zé)方式尚屬可行,但對(duì)于初步具有信息處理和自主決策能力的智能產(chǎn)品,如自動(dòng)駕駛系統(tǒng)、智能機(jī)器人等,其責(zé)任主體及損害賠償機(jī)制則有進(jìn)一步討論的必要[5]。

人工智能產(chǎn)品從設(shè)計(jì)、生產(chǎn)到使用,關(guān)系到設(shè)計(jì)研發(fā)者、生產(chǎn)者、銷售者和使用者。將智能算法的缺陷歸責(zé)于生產(chǎn)和銷售者顯然無(wú)法囊括其可能涉及的責(zé)任人[6]。如無(wú)人駕駛技術(shù)的應(yīng)用使法律規(guī)制的對(duì)象由駕駛員轉(zhuǎn)變到研發(fā)者及所有者,帶來(lái)法律責(zé)任體系的重構(gòu)。在人工智能致人損害的情況下,應(yīng)就多方主體的責(zé)任予以考量。如使用者不存在不合理使用和操作失誤,智能算法的設(shè)計(jì)研發(fā)者對(duì)人工智能產(chǎn)品的安全負(fù)有根本的責(zé)任,設(shè)計(jì)研發(fā)的科學(xué)性決定了產(chǎn)品使用的安全性。在設(shè)計(jì)開(kāi)發(fā)階段,研發(fā)者應(yīng)充分衡量預(yù)期利益和潛在風(fēng)險(xiǎn),使智能產(chǎn)品發(fā)揮出預(yù)期的功用。對(duì)于具有一定智能識(shí)別和自主決策能力的人工智能產(chǎn)品來(lái)說(shuō),應(yīng)更注重?fù)p害的可預(yù)見(jiàn)性問(wèn)題。

(二)外部侵入的風(fēng)險(xiǎn)

一些弱人工智能產(chǎn)品本身可能存在技術(shù)缺陷,強(qiáng)人工智能在深度學(xué)習(xí)之后,算法程序也可能偏離最初的預(yù)設(shè),這些缺陷如被不法分子利用,將會(huì)產(chǎn)生危害社會(huì)的不良后果[7]。相對(duì)來(lái)說(shuō),人工智能的設(shè)計(jì)與研發(fā)行為,并不一定是犯罪結(jié)果發(fā)生的直接原因,通常是前端因素,即引發(fā)犯罪風(fēng)險(xiǎn)的最初原因。人工智能系統(tǒng)在設(shè)計(jì)之初通常就已經(jīng)帶有一定的目的性,倘若開(kāi)發(fā)的目的就是用于竊聽(tīng),則本身可能帶有犯罪目的,最終產(chǎn)生犯罪的結(jié)果,研發(fā)者可能會(huì)構(gòu)成故意犯罪;如果設(shè)計(jì)的目的不是用來(lái)犯罪,最終卻被用于犯罪,則這種結(jié)果并不是研發(fā)者主觀追求的,而是因存在技術(shù)上的缺陷和漏洞被人利用,或深度學(xué)習(xí)超出了研發(fā)者的預(yù)設(shè)和控制,由此引發(fā)的風(fēng)險(xiǎn)不應(yīng)認(rèn)為是故意犯罪,是否存在過(guò)失則需要進(jìn)一步討論[8]。

根據(jù)“技術(shù)中立”原則,如果本身不存在技術(shù)漏洞,也無(wú)犯罪目的,只是遭到他人非法利用,研發(fā)設(shè)計(jì)者則不承擔(dān)責(zé)任。但由于人工智能的發(fā)展尚處在初級(jí)階段,受到現(xiàn)有技術(shù)的局限,漏洞往往很難在開(kāi)發(fā)階段被研發(fā)者察覺(jué)和避免,使不法分子的侵入有機(jī)可乘。有學(xué)者認(rèn)為對(duì)于可能危及人民生命健康和公共安全的應(yīng)用領(lǐng)域,應(yīng)按照無(wú)過(guò)錯(cuò)原則追究責(zé)任,但是這種歸責(zé)方式加重了技術(shù)研發(fā)者的義務(wù),或?qū)⒋靷萍紕?chuàng)新者的積極性,抑制技術(shù)進(jìn)步和行業(yè)的可持續(xù)發(fā)展。注意義務(wù)的合理設(shè)置,有利于明確過(guò)失的范圍界定,但關(guān)于注意義務(wù)的來(lái)源目前學(xué)界仍存在爭(zhēng)議。有學(xué)者研究了自動(dòng)駕駛系統(tǒng)遭到外部侵入實(shí)施犯罪的案例,對(duì)注意義務(wù)的來(lái)源進(jìn)行了歸納,還有學(xué)者把注意義務(wù)的范圍限定于行業(yè)標(biāo)準(zhǔn)或者國(guó)家標(biāo)準(zhǔn),認(rèn)為處于標(biāo)準(zhǔn)范圍內(nèi)的風(fēng)險(xiǎn)是應(yīng)由技術(shù)研發(fā)者注意的,但是行業(yè)標(biāo)準(zhǔn)多為民間標(biāo)準(zhǔn),與注意義務(wù)未必能保持一致。

在現(xiàn)代社會(huì)諸多風(fēng)險(xiǎn)中,人工智能的應(yīng)用是較為主要的風(fēng)險(xiǎn)來(lái)源,在防范風(fēng)險(xiǎn)的同時(shí),應(yīng)更加注重安全保障。技術(shù)研發(fā)者常常被認(rèn)為是人工智能風(fēng)險(xiǎn)的最初源頭,開(kāi)發(fā)者對(duì)算法程序的設(shè)置充分影響到人工智能后續(xù)的運(yùn)行方式。若設(shè)計(jì)之初并未違反法律法規(guī)、行業(yè)標(biāo)準(zhǔn)、責(zé)任者的自我承諾等,只是因技術(shù)漏洞遭到不法分子利用而產(chǎn)生危害社會(huì)的后果,可以適當(dāng)放寬其注意義務(wù)。責(zé)任歸屬應(yīng)基于實(shí)際危害結(jié)果的情況,而不能采取“一刀切”的做法,在防控風(fēng)險(xiǎn)的同時(shí),應(yīng)充分考慮規(guī)制的必要性和限度,避免技術(shù)創(chuàng)新受到抑制,阻礙科技發(fā)展和社會(huì)進(jìn)步。

三、思路梳理:人工智能法律風(fēng)險(xiǎn)的特征分析

(一)風(fēng)險(xiǎn)源頭與技術(shù)發(fā)展的局限性有關(guān)

人工智能致人損害或存在系統(tǒng)漏洞從而被不法利用等事件的發(fā)生大多與技術(shù)發(fā)展及人們對(duì)技術(shù)的認(rèn)識(shí)和掌握程度有關(guān)。人工智能是新興技術(shù),尚處在試錯(cuò)階段,人們對(duì)這類技術(shù)尚未完全了解和掌握,這些未完全成熟的技術(shù)在應(yīng)用中本身就容易發(fā)生事故,存在的風(fēng)險(xiǎn)往往是開(kāi)發(fā)設(shè)計(jì)者無(wú)法預(yù)料的。而產(chǎn)品責(zé)任致人損害事件的發(fā)生則不是由技術(shù)認(rèn)識(shí)的局限性引起,多為生產(chǎn)或銷售中不符合產(chǎn)品質(zhì)量要求導(dǎo)致的瑕疵。人工智能算法程序的設(shè)計(jì)存在漏洞而致人損害或遭到外部侵入,與食品不符合衛(wèi)生要求、車輛設(shè)計(jì)或制造不符合質(zhì)量要求引起的事故在行為性質(zhì)上并不相同。

(二)風(fēng)險(xiǎn)在研發(fā)設(shè)計(jì)階段缺乏可預(yù)見(jiàn)性

一般的產(chǎn)品責(zé)任承擔(dān)的前提是質(zhì)量存在缺陷,設(shè)計(jì)、生產(chǎn)或制造中不符合質(zhì)量標(biāo)準(zhǔn)或存在安全隱患。而在人工智能致人損害或遭到侵入的情況下,其危害結(jié)果往往并不是由質(zhì)量存在缺陷引起的,考慮到新技術(shù)的“黑匣子”性,在開(kāi)發(fā)和測(cè)試階段看起來(lái)沒(méi)有問(wèn)題的系統(tǒng)在投入使用后也可能會(huì)發(fā)生出乎意料的故障,這種風(fēng)險(xiǎn)很難被開(kāi)發(fā)者所預(yù)見(jiàn)。人工智能的應(yīng)用不是由單個(gè)技術(shù)支撐的,而是技術(shù)的相互作用或者集成。在程序自身出現(xiàn)漏洞的情況下,由于“黑匣子”性,個(gè)別、具體的信息處理和交會(huì)如何影響運(yùn)行結(jié)果常常是無(wú)法查出的。也就是說(shuō),即使操作結(jié)果出現(xiàn)了問(wèn)題,也不能馬上確定導(dǎo)致該結(jié)果的具體開(kāi)發(fā)行為,因果關(guān)系通常難以認(rèn)定。技術(shù)開(kāi)發(fā)所出現(xiàn)的失誤是否是“被允許的危險(xiǎn)”,或者研發(fā)者是否未盡到注意義務(wù)而存在過(guò)失,往往有待進(jìn)一步討論。

(三)風(fēng)險(xiǎn)發(fā)生的可控性低且損害結(jié)果嚴(yán)重

人工智能的技術(shù)風(fēng)險(xiǎn)一旦爆發(fā)通常難以控制。2016年美國(guó)一輛特斯拉Model S因自動(dòng)駕駛系統(tǒng)識(shí)別障礙而發(fā)生交通事故,致使車主當(dāng)場(chǎng)死亡。2018年3月美國(guó)亞利桑那州一輛專門(mén)用于無(wú)人駕駛測(cè)試的車輛,由于系統(tǒng)未感知到前方有行人,沒(méi)有及時(shí)剎車,致使行人被撞死。[9]人們意識(shí)到由自動(dòng)駕駛程序控制的車輛若存在設(shè)計(jì)漏洞或程序輸入有誤極易發(fā)生交通事故。如果是由人工操作的產(chǎn)品,發(fā)生事故時(shí)人類的控制程度則相對(duì)較高,如自然人駕駛的車輛在發(fā)生突發(fā)事件時(shí)憑借豐富的駕駛經(jīng)驗(yàn)可能會(huì)采取應(yīng)變措施避免損害發(fā)生。而通過(guò)程序指令來(lái)控制設(shè)備的運(yùn)行,意味著將面臨系統(tǒng)出錯(cuò)和“黑客入侵”劫持的危險(xiǎn)。人工智能的風(fēng)險(xiǎn)程度沒(méi)有規(guī)范的測(cè)試方法,失去控制的操作系統(tǒng)可能波及到的當(dāng)事人十分廣泛。如果遭到侵入或輸入了錯(cuò)誤的數(shù)據(jù),智能算法就會(huì)失控,給不特定多數(shù)人的生命和財(cái)產(chǎn)帶來(lái)危險(xiǎn),且在短時(shí)間內(nèi)使人不能控制,損害程度極大。早在20世紀(jì)70年代,日本一家工廠的切割機(jī)器人就曾經(jīng)導(dǎo)致工人死亡①世界上第一宗機(jī)器人殺人事件發(fā)生在1978年的日本。據(jù)記載,1978年9月6日,日本廣島一家工廠的切割機(jī)器人在切鋼板時(shí),突然發(fā)生異常,將一名值班工人當(dāng)做鋼板操作,最終導(dǎo)致工人死亡。參見(jiàn)新浪財(cái)經(jīng):http://finance.sina.com.cn/chanjing/gsnews/20150702/175722574804.shtml。,隨后由人工智能引發(fā)的致死事件也不在少數(shù)。一般的科技成果應(yīng)用尚可在底層技術(shù)不穩(wěn)定的時(shí)候進(jìn)行開(kāi)發(fā),因?yàn)橛行?yīng)用對(duì)系統(tǒng)的可用性要求并不高,即使出現(xiàn)漏洞所帶來(lái)的損失并非不可接受。但是人工智能的技術(shù)漏洞和應(yīng)用不當(dāng)可能直接損害人的生命法益,由此帶來(lái)的損失難以估量。

四、分析反思:人工智能法律風(fēng)險(xiǎn)的責(zé)任主體辨析

人工智能作為一項(xiàng)技術(shù),必須通過(guò)一定載體進(jìn)行運(yùn)用、展示和體現(xiàn)其具體內(nèi)容,但在此應(yīng)用過(guò)程中也可能致人損害,也可能遭到不法利用進(jìn)而產(chǎn)生犯罪結(jié)果。人工智能的運(yùn)用載體多種多樣,可能是自動(dòng)駕駛汽車、車間作業(yè)或進(jìn)行某項(xiàng)服務(wù)的機(jī)器人[10]。關(guān)于人工智能的性質(zhì),有學(xué)者認(rèn)為其實(shí)質(zhì)是為人類提供服務(wù)的工具,沒(méi)有獨(dú)立的意思表示能力,不具有獨(dú)立法律人格。也有學(xué)者認(rèn)為,人工智能的行為由人類所控制,行為后果由代理人承擔(dān)。但隨著技術(shù)發(fā)展,有些人工智能可以做出獨(dú)立的意思表示,能夠自主的選擇和判斷,并不是傳統(tǒng)意義上的、無(wú)意思表示能力的“工具”。而行為后果由代理人承擔(dān)則沒(méi)有體現(xiàn)承擔(dān)責(zé)任的公平性。

沙特阿拉伯曾是世界上第一個(gè)授予機(jī)器人公民身份的國(guó)家,美國(guó)聯(lián)邦法律將用于自動(dòng)駕駛的人工智能系統(tǒng)看作司機(jī)。但是人工智能的搭載物、工作物是否具有責(zé)任能力,能夠獨(dú)立承擔(dān)法律責(zé)任嗎?人們?yōu)樵鲞M(jìn)人類社會(huì)的福祉,運(yùn)用相應(yīng)的科技手段制造人工智能以模擬人類的部分行為,促進(jìn)生產(chǎn)效率的提高和生活的便利。[11]因此,人工智能并非一般意義上的自然人,但卻具備人的一些要素,人工智能以智能化為主要特征,但始終需要人類的設(shè)計(jì)和程序的編制才得以運(yùn)行。

就現(xiàn)有的技術(shù)發(fā)展程度而言,人工智能的“深度學(xué)習(xí)能力”均是通過(guò)人為的設(shè)計(jì)、制造并開(kāi)啟程序后才具有的,盡管人工智能機(jī)器人可以實(shí)施駕駛、診斷、下棋、對(duì)話等行為,但人工智能基于數(shù)據(jù)分析和概率統(tǒng)計(jì)的決策方式與人類具有情感和意識(shí)的判斷之間具有本質(zhì)的區(qū)別[12]。單獨(dú)的算法程序并不具有真正的意思能力,不能進(jìn)行積極的自我認(rèn)知和情感、意念輸出,人工智能表現(xiàn)出的自我決策和自我提升實(shí)質(zhì)上來(lái)源于數(shù)據(jù)的更新和邏輯的運(yùn)算,并非是在動(dòng)機(jī)驅(qū)動(dòng)下做出的意思表示,它們所表示的仍是設(shè)計(jì)者、生產(chǎn)者或使用者的意思,人工智能本身只是“忠實(shí)的程序執(zhí)行者”[13]。并且,人工智能工作物不能獨(dú)立擁有財(cái)產(chǎn),它們無(wú)法通過(guò)勞動(dòng)、繼承或贈(zèng)與等方式獲得財(cái)產(chǎn),名下沒(méi)有財(cái)產(chǎn)歸屬,即便有財(cái)產(chǎn)贈(zèng)與到它們名下,也無(wú)法自主支配和使用,仍需要自然人或法人組織來(lái)幫助管理,無(wú)法承擔(dān)民事上的賠償責(zé)任。同時(shí),人工智能的認(rèn)知水平與人類的善惡、倫理觀存在重大差異,不能像自然人一樣識(shí)別自身行為的違法性,無(wú)法意識(shí)到自身行為的法律后果,只能根據(jù)預(yù)先的設(shè)定來(lái)感知是否發(fā)生系統(tǒng)錯(cuò)誤,更不能對(duì)自己的行為進(jìn)行改正,也不具有承擔(dān)刑事責(zé)任的條件。[14]

綜上所述,就目前的情況來(lái)看,人工智能本身并不能對(duì)自己的行為承擔(dān)法律責(zé)任,在使用者沒(méi)有操作不當(dāng),生產(chǎn)者和銷售者遵守生產(chǎn)與銷售的安全標(biāo)準(zhǔn)時(shí),人工智能由技術(shù)漏洞所引起的法律風(fēng)險(xiǎn)依然須由設(shè)計(jì)研發(fā)該項(xiàng)算法程序的自然人、法人或非法人組織承擔(dān)。智能算法的特殊性要求我們?cè)诂F(xiàn)有制度基礎(chǔ)上構(gòu)建符合人工智能產(chǎn)業(yè)特點(diǎn)的責(zé)任承擔(dān)機(jī)制,從而規(guī)范產(chǎn)業(yè)發(fā)展、保障安全。聯(lián)合國(guó)教科文組織與世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì)提出,可以采取責(zé)任分擔(dān)的方式,讓參與發(fā)明、授權(quán)和分配過(guò)程的參與者分擔(dān)損害責(zé)任。歐盟議會(huì)法律事務(wù)委員會(huì)曾提出對(duì)人工智能產(chǎn)品進(jìn)行強(qiáng)制保險(xiǎn),設(shè)立賠償基金來(lái)分擔(dān)風(fēng)險(xiǎn),使受損方及時(shí)獲得救濟(jì),同時(shí)減輕開(kāi)發(fā)者和生產(chǎn)者的賠償負(fù)擔(dān)??蓞⒖架囕v年檢制度對(duì)人工智能的應(yīng)用成果進(jìn)行年檢,對(duì)發(fā)生的事故進(jìn)行備案。值得注意的是,人工智能越來(lái)越展現(xiàn)出自主決策、深度學(xué)習(xí)等能力,若這些高智能化的應(yīng)用成果受現(xiàn)有技術(shù)水平的限制風(fēng)險(xiǎn)不可預(yù)見(jiàn)或難以控制,筆者認(rèn)為可以依據(jù)這種技術(shù)水平局限性、風(fēng)險(xiǎn)不可預(yù)見(jiàn)性等免除部分主體的責(zé)任,或予以適當(dāng)減輕。

五、沖突協(xié)調(diào):保障技術(shù)安全與促進(jìn)科技創(chuàng)新的平衡

(一)刑事司法介入的謙抑性

科學(xué)技術(shù)會(huì)帶來(lái)怎樣的社會(huì)影響,有時(shí)我們無(wú)法事先預(yù)測(cè)。在這其中,法律既須有追究事故責(zé)任的一面(對(duì)過(guò)去的責(zé)任),也須有為了不發(fā)生同類事故而請(qǐng)求相關(guān)人員協(xié)助的一面(對(duì)未來(lái)的責(zé)任)。問(wèn)題是,如何對(duì)該沖突進(jìn)行調(diào)整,以及由誰(shuí)來(lái)調(diào)整更為適當(dāng)。

認(rèn)定責(zé)任的基本規(guī)則,應(yīng)當(dāng)由法律法規(guī)事先決定。比起行業(yè)內(nèi)更為靈活和松散的規(guī)則,用穩(wěn)定的法律條文進(jìn)行規(guī)范才是明智之舉。不安定的責(zé)任所在,只會(huì)給技術(shù)研究開(kāi)發(fā)帶來(lái)更多不安。以法律原則或法律規(guī)則表示其責(zé)任的內(nèi)容,只要不違背罪刑法定主義的要求,也是可取的。之所以這么說(shuō),是因?yàn)榉删哂蟹€(wěn)定性,反過(guò)來(lái)說(shuō),也會(huì)存在滯后性,無(wú)法迅速應(yīng)對(duì)環(huán)境變化,立法者也未必了解特定領(lǐng)域的具體情況。如何制定這些行為規(guī)范,正是立法者未來(lái)的研究方向。如果人工智能的各項(xiàng)應(yīng)用進(jìn)一步普及,我們完全可以預(yù)料到,算法的行為和結(jié)果將會(huì)對(duì)不特定多數(shù)人的人身安全和財(cái)產(chǎn)利益產(chǎn)生影響,因此通過(guò)行政程序乃至刑事程序?qū)Υ思右砸?guī)制的必要性很大[15]。

但是,刑事司法的介入應(yīng)具有足夠長(zhǎng)遠(yuǎn)的眼光,面對(duì)由算法漏洞而引起的致?lián)p和犯罪行為,我們不應(yīng)因科技進(jìn)步過(guò)程中的缺陷和疏漏而冒然發(fā)動(dòng)刑罰權(quán),堅(jiān)持刑法作為“補(bǔ)充性規(guī)制”不法行為的基本原則,力求將立法的滯后性對(duì)新興行業(yè)的不利影響降到最小,這是我們一貫堅(jiān)持的刑法介入理念。[16]如果規(guī)制施加不當(dāng),就會(huì)妨礙研究人員和科技企業(yè)的技術(shù)創(chuàng)新與開(kāi)發(fā),阻礙本應(yīng)由新技術(shù)帶來(lái)的社會(huì)福利的實(shí)現(xiàn),甚至?xí)魅鯂?guó)家科技實(shí)力和國(guó)際競(jìng)爭(zhēng)力。而且大多數(shù)的技術(shù)人員和研究型企業(yè),對(duì)刑罰的感應(yīng)力有時(shí)會(huì)超出我們的想象。對(duì)于優(yōu)秀的科技企業(yè)、飽含開(kāi)發(fā)熱情的研究人員來(lái)說(shuō),研究和開(kāi)發(fā)就是他們的謀生手段,越是有能力使新技術(shù)的福音流傳于世的人,對(duì)刑罰的感應(yīng)力越大。刑事司法如果對(duì)技術(shù)開(kāi)發(fā)所產(chǎn)生的疏漏大加懲罰,則可能會(huì)影響技術(shù)研發(fā)人員的日常生活,甚至破壞社會(huì)對(duì)他們的認(rèn)同感。不難想象,當(dāng)意識(shí)到這種可能性時(shí),以自由的思考和創(chuàng)造為基礎(chǔ)的研究和技術(shù)開(kāi)發(fā)將出現(xiàn)萎縮。刑罰應(yīng)成為守護(hù)公益的最后手段,從以上的敘述來(lái)看,至少在技術(shù)發(fā)展的初期,刑法作為規(guī)制的主要手段并不合適。

就目前來(lái)看,對(duì)人工智能的規(guī)制應(yīng)主要由非刑罰的手段來(lái)承擔(dān),刑法則堅(jiān)持介入時(shí)機(jī)的“最后性”,即把刑罰作為所能采取的“最后的手段”,只有在企業(yè)內(nèi)部規(guī)定、行業(yè)自治規(guī)范、行政法規(guī)和民商事法律等都無(wú)法解決矛盾沖突時(shí),刑法才有介入空間。[17]法的干預(yù)應(yīng)在“降低對(duì)科技創(chuàng)新的萎縮效果的同時(shí),實(shí)現(xiàn)法益侵害總量的最小化”。這種“功利主義”的思考并不意味著防范人工智能法律風(fēng)險(xiǎn)與刑法理論無(wú)關(guān),相反,將技術(shù)創(chuàng)新過(guò)程中的失誤和紕漏當(dāng)做“被允許的危險(xiǎn)”和“信任原則”等過(guò)失責(zé)任的闡釋,也是這種思考的產(chǎn)物[18]。一言以蔽之,以刑法的謙抑性基本原則來(lái)看,其介入的時(shí)機(jī)和限度應(yīng)審慎且克制。對(duì)于智能算法缺陷引起的事故,由于損失大、危險(xiǎn)性高、事發(fā)突然,更需要及時(shí)停止運(yùn)行程序、采取算法修復(fù)等措施,由機(jī)動(dòng)性強(qiáng)的行業(yè)組織參與更有助于實(shí)現(xiàn)迅速應(yīng)對(duì)。同時(shí),可能涉案的技術(shù)問(wèn)題與各行業(yè)的內(nèi)部規(guī)章也有密切的關(guān)系,對(duì)個(gè)別案件應(yīng)有針對(duì)性地加以處理,廣泛聽(tīng)取意見(jiàn),也可以針對(duì)風(fēng)險(xiǎn)的不同類型和程度進(jìn)行劃分,配以企業(yè)自決、行業(yè)自治等應(yīng)對(duì)策略,只對(duì)于嚴(yán)重?fù)p害人民生命健康和公共利益的行為根據(jù)罪刑法定原則定罪處罰。

(二)促進(jìn)風(fēng)險(xiǎn)自決與行業(yè)自律

“法不是全知全能的神,而是有限的知識(shí)”[19],基于現(xiàn)有立法的矛盾帶來(lái)新的見(jiàn)解和思考,再以進(jìn)一步的立法或司法解釋消除引起的矛盾,不斷地刷新著法的內(nèi)容的不只有法律人。在“矛盾帶來(lái)新創(chuàng)造”的過(guò)程中,與相關(guān)法的效力擁有最迫切利害關(guān)系的當(dāng)事人的主張和對(duì)法律的回應(yīng)至關(guān)重要,他們甚至預(yù)見(jiàn)或觸發(fā)著學(xué)術(shù)討論,而以多種觀點(diǎn)的知識(shí)貢獻(xiàn)實(shí)現(xiàn)法向期待的方向發(fā)展。因此,對(duì)于人工智能等新興技術(shù)產(chǎn)生的法律風(fēng)險(xiǎn),有必要強(qiáng)調(diào)政府和司法以外的社會(huì)主體的作用。比起司法機(jī)關(guān),有時(shí)企業(yè)、專家等社會(huì)主體更善于應(yīng)對(duì)技術(shù)問(wèn)題,多元主體的參與和協(xié)作對(duì)解決人工智能法律問(wèn)題至關(guān)重要。

縱觀發(fā)達(dá)國(guó)家,具有靈活性的大眾媒體、掌握專業(yè)知識(shí)和技術(shù)并能夠調(diào)動(dòng)大學(xué)和智囊團(tuán)的各類研究機(jī)構(gòu),也就是所謂的“第三方委員會(huì)”,他們或分擔(dān)社會(huì)期待,或承擔(dān)調(diào)查和訴求反饋功能,通過(guò)多元化配置,各自發(fā)揮專業(yè)特色。而在我國(guó),現(xiàn)實(shí)情況是很難期待專家集團(tuán)自主解決問(wèn)題和行業(yè)發(fā)揮自凈作用,除了偵查機(jī)關(guān)以外,缺乏具有查明事實(shí)能力的組織。一旦偵查機(jī)關(guān)介入,就意味著進(jìn)入刑事程序,使刑事司法無(wú)法維持退居后衛(wèi)的狀態(tài)。為了實(shí)現(xiàn)刑事法“退到后方”的理想,社會(huì)對(duì)專家團(tuán)和擁有相關(guān)專業(yè)知識(shí)的行業(yè)團(tuán)體的信賴是不可缺少的。假設(shè)發(fā)生了因技術(shù)漏洞引發(fā)的致人損害事故,或系統(tǒng)缺陷被外部侵入導(dǎo)致的犯罪行為,具有專門(mén)知識(shí)、參與了開(kāi)發(fā)和運(yùn)營(yíng)的機(jī)構(gòu)或個(gè)人是否要被追究責(zé)任,他們是否還能獲得社會(huì)公眾的接受和信任?如果他們不被信任,他們作出的修復(fù)等措施不被接受,那么在目前的情況下,只有國(guó)家行政和司法機(jī)關(guān)進(jìn)行介入。相反,如果研發(fā)者及其行業(yè)能夠被信任,他們的觀點(diǎn)和措施就會(huì)抑制刑事司法的介入。人工智能技術(shù)的應(yīng)用要想獲得社會(huì)公眾的信賴,就必須不斷積累技術(shù)和經(jīng)驗(yàn),贏得用戶和大眾的認(rèn)可,而能實(shí)現(xiàn)這些的正是研發(fā)者本身。為此,發(fā)揮行業(yè)自律能力,履行信息披露和風(fēng)險(xiǎn)預(yù)警的義務(wù),并且完成事故發(fā)生后的說(shuō)明責(zé)任和算法缺陷的修復(fù)與補(bǔ)救是不可或缺的。

六、路徑選擇:“被允許的危險(xiǎn)”與延期起訴協(xié)議的適用

現(xiàn)行法律中,非人類的行為不能從人類的意志中分離出來(lái)作為規(guī)范性文件評(píng)價(jià)的對(duì)象。也就是說(shuō),非人類的行為如果不與人類的自由意志相關(guān)聯(lián),就被當(dāng)作自然現(xiàn)象一樣對(duì)待。因此,離開(kāi)了開(kāi)發(fā)人員和用戶的自由意志支配,程序算法和其出現(xiàn)漏洞所引起的結(jié)果不能作為規(guī)范性文件評(píng)價(jià)的對(duì)象。但關(guān)于“被允許的危險(xiǎn)”和“注意義務(wù)”的設(shè)定可以理解為具有自由意志的主體——人的附帶現(xiàn)象。不論是否承認(rèn)非人類程序行為的“自發(fā)性”,算法程序因?yàn)椴荒芡耆豢刂频某绦蚵┒粗氯藫p害或涉及犯罪,都不應(yīng)該立刻對(duì)研發(fā)者追究責(zé)任。這是因?yàn)?,即使發(fā)生這樣的事故,技術(shù)研發(fā)的目的是為了增進(jìn)人類社會(huì)的福祉,另外,研發(fā)者根據(jù)技術(shù)漏洞作出重新設(shè)計(jì)和修整,有助于實(shí)現(xiàn)程序算法的“重生”,從而促進(jìn)科學(xué)技術(shù)的完善。

日本學(xué)者笹倉(cāng)宏紀(jì)認(rèn)為,并不是符合構(gòu)成要件的行為就一定要處罰,以康德式的必罰主義作為邏輯起點(diǎn)在此并無(wú)必要,也可以選擇不起訴,組織事故調(diào)查委員會(huì),優(yōu)先獲得防止事故再發(fā)生所需的預(yù)防信息[20]。但是,這一方向是否符合司法制度背后的國(guó)民期待,是否會(huì)引起不公平感也令人擔(dān)憂。在民主討論和專業(yè)知識(shí)的有效合作基礎(chǔ)上,當(dāng)法律的價(jià)值指向?qū)崿F(xiàn)“人類美好生活”愿景的時(shí)候,我們與智能時(shí)代的風(fēng)險(xiǎn)是共生的。由具有民主基礎(chǔ)的治理系統(tǒng)來(lái)適用法律,能夠?qū)⒖傮w危險(xiǎn)控制在合理的范圍。為了將以上考慮落實(shí)到法律制度中,延期起訴協(xié)議Deferred Prosecution Agreements(下文簡(jiǎn)稱DPA)的適用,有可能成為過(guò)渡形式。

如果對(duì)算法程序的運(yùn)用和革新是以實(shí)現(xiàn)人類更好的生存為目標(biāo),規(guī)制算法行為也是為了實(shí)現(xiàn)“人類美好生活”的目標(biāo),而非對(duì)人類存在方式進(jìn)行再設(shè)計(jì)的制度。在DPA中,關(guān)于技術(shù)開(kāi)發(fā)企業(yè)的協(xié)助調(diào)查,提供具體涉案行為的信息是適用延期起訴的要件。因此,這個(gè)制度也可以解釋為,為了實(shí)現(xiàn)增進(jìn)人類福祉和司法介入的平衡,而獲取智能算法底層技術(shù)及其開(kāi)發(fā)、管理的方法和體制等信息的手段。如果人工智能的開(kāi)發(fā)、運(yùn)營(yíng)、管理都由法人來(lái)實(shí)施,可使其整體作為造成事故的“涉案者”,或以開(kāi)發(fā)、運(yùn)營(yíng)、管理中具有高度蓋然性風(fēng)險(xiǎn)的“不當(dāng)行為”為構(gòu)成要件。如果執(zhí)行DPA,為了提供信息協(xié)助調(diào)查和督促程序“再設(shè)計(jì)”整改方案的制定和履行,有必要將起訴、行政規(guī)制、注冊(cè)制度等聯(lián)動(dòng)起來(lái)?;镜姆结樖?,將風(fēng)險(xiǎn)的管理制度化,在現(xiàn)行法律的范圍內(nèi)實(shí)現(xiàn)增進(jìn)社會(huì)福祉的目標(biāo)。具體來(lái)說(shuō),由行政機(jī)關(guān)和專家委員會(huì)合作,調(diào)整智能算法開(kāi)發(fā)、管理、運(yùn)行的標(biāo)準(zhǔn),在出現(xiàn)事故的情況下,技術(shù)開(kāi)發(fā)者及其團(tuán)隊(duì)參與調(diào)查合作,提供數(shù)據(jù)信息,按照相關(guān)監(jiān)督部門(mén)的標(biāo)準(zhǔn)及時(shí)整改,避免損失的再次發(fā)生和擴(kuò)大。

因此,以立法為基礎(chǔ),由行政機(jī)關(guān)和專家集團(tuán)合作建立風(fēng)險(xiǎn)預(yù)警和評(píng)價(jià)監(jiān)督體系是適于當(dāng)前形勢(shì)的選擇。只要提供了充分的信息,使算法的危險(xiǎn)保持在合理的范圍內(nèi),即使由開(kāi)發(fā)設(shè)計(jì)中的漏洞引起致?lián)p或犯罪結(jié)果,也不應(yīng)該起訴技術(shù)研發(fā)者。如果風(fēng)險(xiǎn)控制沒(méi)有達(dá)到預(yù)期水平,只要研發(fā)者承諾提供真實(shí)的信息協(xié)助調(diào)查,并對(duì)出現(xiàn)問(wèn)題的系統(tǒng)進(jìn)行重新設(shè)計(jì),可以推遲起訴??紤]到新技術(shù)的“黑匣子”性,在開(kāi)發(fā)和測(cè)試階段平穩(wěn)運(yùn)行的算法程序,投入使用后才發(fā)現(xiàn)缺陷或產(chǎn)生故障,研發(fā)者往往無(wú)法事前預(yù)料。在這種情況下,如果立即追究責(zé)任,有可能會(huì)阻礙科技創(chuàng)新,導(dǎo)致人工智能新的應(yīng)用領(lǐng)域不再更新和發(fā)展。為了避免出現(xiàn)這樣的情況,即使在風(fēng)險(xiǎn)水平與預(yù)想不同的情況下,追究研發(fā)者責(zé)任也應(yīng)慎之又慎。

新技術(shù)的“黑匣子”性,雖然離完全消除還很遠(yuǎn),但正在慢慢被克服,存在漏洞或不當(dāng)使用的數(shù)理模型,數(shù)據(jù)處理方法等,也慢慢被識(shí)別。不過(guò),要將這些行為全部用法律進(jìn)行規(guī)定,在技術(shù)急速發(fā)展的當(dāng)下,是很困難的。對(duì)于參與調(diào)查合作、提供信息,進(jìn)行整改承諾的技術(shù)開(kāi)發(fā)者和科創(chuàng)企業(yè),延期起訴可作為協(xié)調(diào)各方利益的有效方法。在這種情況下,關(guān)于整改的內(nèi)容,應(yīng)該由監(jiān)督機(jī)關(guān)的代表對(duì)開(kāi)發(fā)者提出的方案斟酌之后再做決定?,F(xiàn)實(shí)的改善方法只有向參與者提出、向受法律和智能算法應(yīng)用影響的人提出,才能確保正當(dāng)性和有效性。因此,研發(fā)者及其團(tuán)隊(duì)對(duì)智能算法系統(tǒng)重新設(shè)計(jì),改善相關(guān)程序應(yīng)聽(tīng)取各方提議,行政、司法和監(jiān)督部門(mén)的代表,行業(yè)專家、受害者和其他關(guān)系人,都應(yīng)該參與其中。

猜你喜歡
責(zé)任法律人工智能
法律的兩種不確定性
文明養(yǎng)成需要法律護(hù)航
使命在心 責(zé)任在肩
法律講堂之——管住自己的饞嘴巴
《責(zé)任與擔(dān)當(dāng)》
每個(gè)人都該承擔(dān)起自己的責(zé)任
2019:人工智能
人工智能與就業(yè)
責(zé)任(四)
數(shù)讀人工智能
三河市| 盐津县| 久治县| 温宿县| 瓦房店市| 蒙城县| 阳高县| 汉中市| 辉南县| 焦作市| 浑源县| 乐昌市| 襄垣县| 孙吴县| 将乐县| 长沙市| 四会市| 湛江市| 金乡县| 沂水县| 左权县| 若羌县| 云浮市| 泰宁县| 尉犁县| 上高县| 克什克腾旗| 寿宁县| 安龙县| 长丰县| 隆昌县| 张家川| 永修县| 石屏县| 舒兰市| 光泽县| 衡山县| 扶风县| 安庆市| 迁西县| 望城县|