国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

論我國人工智能的法治化進(jìn)程:現(xiàn)狀、挑戰(zhàn)與革新

2019-03-18 07:36:05張玉潔
關(guān)鍵詞:機(jī)器人人工智能法律

張玉潔

在高科技的飛速發(fā)展變革中,人工智能作為一種幫助人類更好地生活的工具,同其他科學(xué)技術(shù)有著明顯的區(qū)別。它既可以獨(dú)立決策,也能夠自主行動。但科技便利往往伴隨著科技風(fēng)險,人們已經(jīng)意識到人工智能潛在的危險與挑戰(zhàn),例如機(jī)器人占據(jù)就業(yè)崗位、無人駕駛汽車的碰撞風(fēng)險、機(jī)器人倫理等問題。而在法律領(lǐng)域,人工智能對法律職業(yè)的挑戰(zhàn)并不僅限于取代某些法律崗位,更重要的是沖擊最基本的法治理念與法治秩序。傳統(tǒng)上,法律是人的有限理性產(chǎn)物,因而也是以有限理性的常人為標(biāo)準(zhǔn)設(shè)立的行為規(guī)范。但對于迅速超越人類極限的人工智能而言,這些規(guī)范措施有可能失去調(diào)節(jié)能力。因此,那些擁有大數(shù)據(jù)資源和人工智能技術(shù)的企業(yè)借助法律監(jiān)管空白的漏洞,并利用隱蔽的算法與技術(shù)來規(guī)避某些法律領(lǐng)域的規(guī)制,從而獲得更多的經(jīng)濟(jì)利益。為了破解這種困局,學(xué)界與實(shí)務(wù)界應(yīng)當(dāng)在人工智能自主性、互動性等特征的基礎(chǔ)上,反思人工智能技術(shù)在現(xiàn)行法律體系的現(xiàn)實(shí)境遇與挑戰(zhàn),并創(chuàng)設(shè)出符合我國科技發(fā)展與法治國家建設(shè)的新型人工智能法律治理模式。

一、人工智能應(yīng)用的法律現(xiàn)狀

(一)數(shù)據(jù)隱私、算法歧視與法律規(guī)制實(shí)踐

算法與數(shù)據(jù)構(gòu)成人工智能的兩大核心無形要件,也被視為人工智能的“神經(jīng)”與“血液”。目前,機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)、智能認(rèn)知系統(tǒng)或演進(jìn)算法都是人工智能算法的不同表現(xiàn)形式。它不是傳統(tǒng)意義上的編程,而是突破了程序員手動編寫程序的束縛。換句話說,傳統(tǒng)電腦控制的機(jī)器只能按照既有程序運(yùn)行。但人工智能算法則不同。倘若人工智能機(jī)器人按照智能算法加工某些網(wǎng)絡(luò)素材、數(shù)據(jù),那么人工智能機(jī)器人不僅可以按照人類的要求完成制作,甚至可以擺脫命令者的智力限制,創(chuàng)造出更為優(yōu)質(zhì)的成果。[1]而大數(shù)據(jù)技術(shù)發(fā)展,進(jìn)一步提升了人工智能算法的功能優(yōu)勢。一般認(rèn)為,大數(shù)據(jù)信息具有“大量、多樣、快速、價值密度低、復(fù)雜度的特征”。[2]人工智能算法與大數(shù)據(jù)信息的結(jié)合,能夠?qū)⑺槠⒎墙Y(jié)構(gòu)性的大數(shù)據(jù)信息加以整合。而且,借助大數(shù)據(jù)存儲和人工智能算法,可以使得個案(少量)樣本分析發(fā)展成整體(超大數(shù)據(jù))分析,使得決策結(jié)果越來越精準(zhǔn)。這樣,政府和網(wǎng)絡(luò)平臺就能夠更準(zhǔn)確地做出行為預(yù)測和公眾決策分析,進(jìn)而預(yù)先干預(yù)某些違法行為。

然而,大數(shù)據(jù)的價值是同人工智能算法等高新技術(shù)緊密連接的,這也意味著,大數(shù)據(jù)與算法的實(shí)際掌握者主要聚集于技術(shù)領(lǐng)域?qū)<壹捌浣M合體(如研發(fā)機(jī)構(gòu)、高科技公司以及政府組織等),且難以擴(kuò)展至普通公眾。由此導(dǎo)致我國“大數(shù)據(jù)+算法”的人工智能治理模式顯現(xiàn)出三種治理難題:(1)由于人類根本無法感知和理解非結(jié)構(gòu)化的大數(shù)據(jù)信息,所以,人工智能算法究竟如何處理大數(shù)據(jù)信息以及如何獲得決策,尚處于人工智能算法獨(dú)自掌握的“決策暗箱”。要想打開人工智能的“決策暗箱”,讓法律治理與監(jiān)管進(jìn)入到人工智能技術(shù)的算法運(yùn)行與決策機(jī)制中來,勢必需要法律專家和人工智能專家展開更深入的合作。(2)由于技術(shù)手段的欠缺,人工智能時代的個人預(yù)測與觀察能力將遠(yuǎn)遠(yuǎn)無法滿足于人類發(fā)展需求。即便普通人可以通過觀察、統(tǒng)計、分析而發(fā)現(xiàn)某些社會規(guī)律和自然規(guī)律,但互聯(lián)網(wǎng)的特性使得大數(shù)據(jù)信息分散于整個網(wǎng)絡(luò)虛擬空間中,人類發(fā)現(xiàn)的能力和效率將遠(yuǎn)遠(yuǎn)不及人工智能算法的計算效率。加之人類自行分析數(shù)據(jù)所獲得的社會規(guī)律未必具有普適性。因此,人工智能算法與大數(shù)據(jù)的結(jié)合,在某種程度上會進(jìn)一步放大人類智力、效率同人工智能算法的差距。(3)由于計算機(jī)算法對個人網(wǎng)絡(luò)搜索記錄的甄別,導(dǎo)致個人頻繁獲得相關(guān)的信息。例如:在大數(shù)據(jù)時代,我們都在以互聯(lián)網(wǎng)方式——淘寶,微博、微信披露著個人信息,并遭受網(wǎng)絡(luò)服務(wù)提供者的侵權(quán)。[3]公民利用互聯(lián)網(wǎng)搜索信息往往是基于自由意志的、碎片化的行為,但這并不意味著公民同意互聯(lián)網(wǎng)平臺收集并利用這些碎片信息,更不意味著網(wǎng)絡(luò)服務(wù)能夠抵消公民個人權(quán)益的損失。無論上述信息是否有助于公民個人做出選擇,它實(shí)質(zhì)上都侵犯了公民的隱私意愿以及網(wǎng)絡(luò)信息多樣性權(quán)利。因此,法學(xué)界對網(wǎng)絡(luò)服務(wù)提供者濫用計算機(jī)算法與大數(shù)據(jù)控制權(quán)的行為,已然形成了某種共識,即網(wǎng)絡(luò)服務(wù)提供者在過度獲取公民信息。有鑒于此,在人類智力無法勝任且人工智能算法優(yōu)勢明顯的領(lǐng)域,人類“趨利避害”的本能會自然地接納人工智能算法。這樣,人工智能算法不再局限于一種高科技的分析手段,而將發(fā)展為人類行動的前置依據(jù)。據(jù)此,算法監(jiān)管與算法治理難題將跳脫于實(shí)驗(yàn)室及其科研人員的道德自律,轉(zhuǎn)而尋求國家法律的強(qiáng)制性控制。因此,我國“需要把握大數(shù)據(jù)時代公共安全保障的新變化、新特征,在面對挑戰(zhàn)的同時尋求法律應(yīng)對?!盵4]

(二)量化分析、審判效率與智能司法的探索

自20世紀(jì)70年代人工智能領(lǐng)域同法律領(lǐng)域相結(jié)合以來,世界各國在法律的智能化實(shí)踐上已經(jīng)取得了一定的成果。例如:為了提升法律服務(wù)的效率,美國“黑石探索”公司(Blackstone discovery Company)基于大量的法律文件分析,研發(fā)了法律文本分析系統(tǒng)。該系統(tǒng)具有服務(wù)成本低、準(zhǔn)確度高(比人工分析高出40%)等優(yōu)勢,由此導(dǎo)致許多中小型律師事務(wù)所的發(fā)展受到阻礙。此外,還有Legal Zoom、Onomatics、Lex Machine等人工智能法律系統(tǒng)均對傳統(tǒng)的法律服務(wù)領(lǐng)域帶來了強(qiáng)大沖擊。而在司法裁判上,美國司法系統(tǒng)目前主要利用COMPAS、PSA和LSI-R等人工智能法律軟件來輔助法官量刑。這些軟件模型的作用場域主要聚焦在以下五個領(lǐng)域:犯罪人的社會關(guān)系、犯罪人的生活方式、犯罪人的個性、犯罪人的家庭以及其他社會影響因素的合理排除等。[5]由于人工智能法律軟件能夠綜合分析單一刑事案件與其他社會因素之間的交叉影響,進(jìn)而能夠更為科學(xué)地判斷出犯罪人的社會危害性,進(jìn)而提升了法官自由裁量的科學(xué)性,減輕了法官工作量,提高了司法效率。

人工智能法律系統(tǒng)的司法適用,同樣也推動了我國司法實(shí)踐的發(fā)展。以山東省高級人民法院的法律問答機(jī)器人實(shí)踐應(yīng)用為例。該法律問答機(jī)器人在研發(fā)過程中,主要利用法律專業(yè)、大數(shù)據(jù)與人工智能等軟件技術(shù)的結(jié)合,以現(xiàn)有司法案例數(shù)據(jù)庫和法律文本為數(shù)據(jù)源,同時動態(tài)性地引入法官評測這一人為矯正機(jī)制,由此構(gòu)建起一個專業(yè)的法律智能服務(wù)平臺。其功能主要體現(xiàn)在以下三個方面:(1)提供案件信息査詢功能,便于訴訟當(dāng)事人了解司法程序,提升司法的透明度。(2)提供簡單型法律糾紛的解決機(jī)制。(3)為訴訟參與人提供訴訟風(fēng)險評估報告,預(yù)先獲得司法訴訟中的權(quán)益預(yù)期。而在2017年5月,上海市“刑事案件智能輔助辦案系統(tǒng)”正式上線試運(yùn)行。該系統(tǒng)“以大數(shù)據(jù)、人工智能等新技術(shù)為支撐,制定了證據(jù)標(biāo)準(zhǔn)、規(guī)則指引,將其嵌入數(shù)據(jù)化的辦案程序中,為辦案人員提供統(tǒng)一適用、方便快捷、可數(shù)據(jù)化的辦案指引”。[6]這套案件智能輔助系統(tǒng)的主要功能包括:(1)實(shí)現(xiàn)案卷的類型化分配。案件智能輔助系統(tǒng)通過預(yù)先設(shè)定好的關(guān)鍵詞識別與分類系統(tǒng),對待決案件中的作案人員、作案時間、作案地點(diǎn)、作案手段、被害人情況等因素加以整合分析,進(jìn)而極大地提高了審判人員的案件識別效率。(2)根據(jù)刑事案件的不同階段,制定了不同的證據(jù)標(biāo)準(zhǔn)指引。例如:在庭審階段,法官可以通過輸入主要案情,檢索出不同法官處理該類案件時的經(jīng)驗(yàn)總結(jié),并據(jù)此提供相應(yīng)的案件審理思路,如證據(jù)種類的劃分與認(rèn)定、證據(jù)鏈的相互印證以及必要證據(jù)的判斷標(biāo)準(zhǔn)等,從而減少了法官個體判斷的差異性、主觀性,甚至是恣意性。(3)針對不同的證據(jù),該系統(tǒng)提供了證據(jù)校驗(yàn)功能。在證據(jù)審查過程中,案件智能輔助系統(tǒng)會對提交的每個證據(jù)均進(jìn)行交叉審查。一旦發(fā)現(xiàn)證據(jù)鏈中存在瑕疵證據(jù)或者證據(jù)鏈斷裂等異?,F(xiàn)象時,該系統(tǒng)將提醒法官注意該異?,F(xiàn)象,從而提高了證據(jù)審查的科學(xué)性、準(zhǔn)確性。

然而,人工智能技術(shù)是一把雙刃劍。作為智能技術(shù),它能夠節(jié)約勞動力,提升勞動效率;而作為一種缺乏充足驗(yàn)證的新興工具,其先進(jìn)性同時也伴隨著巨大的社會風(fēng)險。從中美兩國的人工智能法律系統(tǒng)實(shí)踐應(yīng)用來看,它們在決策機(jī)制透明度、決策因素歧視以及正當(dāng)法律程序等問題上飽受社會公眾與法學(xué)家們的質(zhì)疑與批評。以美國司法系統(tǒng)中COMPAS軟件對犯罪人的再犯風(fēng)險評估為例,該軟件可以通過分析犯罪人的性格、社會關(guān)系網(wǎng)絡(luò)以及生活環(huán)境等要素,確定犯罪人重新犯罪的風(fēng)險系數(shù),進(jìn)而幫助法官做出更為科學(xué)的量刑。然而,非營利組織ProPublica發(fā)現(xiàn),在COMPAS再犯風(fēng)險系數(shù)中,黑人再犯風(fēng)險明顯高于白人,并且實(shí)踐證明,該軟件認(rèn)為可能再犯罪人數(shù)與實(shí)際再犯罪人的正確率僅為20%。[7]由此觀之,人工智能技術(shù)的司法適用,最主要的問題在于它如何解決人工智能技術(shù)標(biāo)準(zhǔn)化設(shè)計背后所衍生的個案判斷問題——這是人工智能與法律結(jié)合必須解決的首要問題。就目前來看,盡管各國將人工智能與法律的結(jié)合體定位為“司法裁判的輔助工具”,但該工具的確在實(shí)踐中產(chǎn)生了實(shí)質(zhì)性損害后果。因此,人工智能社會化應(yīng)用的司法適用難題不在于質(zhì)詢司法效率與司法信息化改革,而在于提醒司法機(jī)關(guān)關(guān)注那些“看不到”的非正義。

(三)科技創(chuàng)新、責(zé)任分配與法律變革

隨著人工智能技術(shù)的發(fā)展,人工智能產(chǎn)品的自主決策活動以及人機(jī)溝通能力,在法律領(lǐng)域構(gòu)建出一種新型的“行為—結(jié)果(責(zé)任)”關(guān)系,并且自主決策活動與損害結(jié)果之間的因果關(guān)系也變得越來越難以判定。為了更為清晰地展現(xiàn)人工智能時代“因果關(guān)系”責(zé)任認(rèn)定模式的弊端,在此引入“無人駕駛汽車”這一社會化基礎(chǔ)較好的人工智能應(yīng)用,以便于回應(yīng)上述責(zé)任認(rèn)定模式的現(xiàn)實(shí)難題。

無人駕駛汽車的公共道路實(shí)驗(yàn)已經(jīng)成為各國立法關(guān)注的重要問題。2017年5月,德國聯(lián)邦議會通過了一部法案,對《德國道路交通法》進(jìn)行了修改。該法案允許高度自動化和完全自動化的汽車作為交通工具,在公共道路上行駛。同時,為了保證德國國家法符合1968年《維也納道路交通公約》關(guān)于車輛駕駛員的規(guī)定,在德國還規(guī)定無人駕駛汽車主駕駛位后必須乘坐一名乘客,以便及時接手汽車行駛權(quán)。新法案下,車輛駕駛員一方面會陷入智能操作與人工操作切換的混亂局面,另一方面也困惑于如何避免法律責(zé)任。[8]而美國的《自動駕駛法》(Self Drive Act)采取了一種有別于德國無人駕駛汽車規(guī)制的路徑:行政法治模式。在行政法治模式下,美國通過“聯(lián)邦—州”的縱向行政職權(quán)配置方式,要求各州履行無人駕駛汽車的監(jiān)管職權(quán)及其安全責(zé)任,并要求交通行政部門制定無人駕駛汽車的安全標(biāo)準(zhǔn)和公眾評價標(biāo)準(zhǔn)等事項(xiàng)。[1]借由州立法責(zé)任與無人駕駛汽車生產(chǎn)廠商的安全保障義務(wù),美國得以通過行政立法的手段實(shí)現(xiàn)實(shí)驗(yàn)時期無人駕駛汽車的責(zé)任劃分。但是這種責(zé)任劃分方式也有其局限性。一旦無人駕駛汽車發(fā)展到社會運(yùn)營階段,基于無人駕駛汽車而發(fā)生的交通事故歸責(zé)就成為人工智能技術(shù)社會化應(yīng)用的一大難題:國家立法或者將此歸結(jié)為企業(yè)產(chǎn)品瑕疵責(zé)任;或者將其歸結(jié)為使用者過失責(zé)任;亦或視為人工智能產(chǎn)品決策錯誤的自主責(zé)任。倘若將無人駕駛汽車的錯誤決策視為“企業(yè)產(chǎn)品瑕疵責(zé)任”或“使用者過失責(zé)任”,無疑將加重生產(chǎn)者和使用者的注意義務(wù)。這是因?yàn)?,企業(yè)生產(chǎn)無人駕駛汽車的數(shù)量越多,承擔(dān)交通責(zé)任的風(fēng)險和概率越高;而對于使用者而言,自身的主觀過失構(gòu)成交通安全責(zé)任的合理起點(diǎn),但無人駕駛汽車的自主決策或者錯誤決策卻無法歸結(jié)為使用者“主管過失”,否則無人駕駛汽車駕駛員的注意義務(wù)將遠(yuǎn)高于普通汽車。反觀無人駕駛汽車的自主責(zé)任認(rèn)定,現(xiàn)代法律體系又缺乏有效的處罰手段——拆除硬件或重置軟件程序等比擬人類刑罰的措施,根本無法從人工智能產(chǎn)品上實(shí)現(xiàn)責(zé)任價值。

綜上所述,傳統(tǒng)刑法關(guān)于“因果關(guān)系”的歸責(zé)模式幾乎無法套用于人工智能技術(shù)及其產(chǎn)品,甚至可能誘發(fā)人類借助人工智能產(chǎn)品實(shí)施違法犯罪行為的惡果。與此同時,在互聯(lián)網(wǎng)領(lǐng)域,現(xiàn)在人工智能和大數(shù)據(jù)技術(shù)正在引領(lǐng)“行為—結(jié)果”因果關(guān)系模式逐步走向“多行為—結(jié)果”的相關(guān)性分析模式。例如:當(dāng)不確定數(shù)量的多數(shù)人搜索“香蕉”圖片時,選擇圖片A、B、C、D……的概率遞減,那么,基于選擇概率的高低可以獲得一個搜索行為與搜索結(jié)果的相關(guān)性分析,即圖片A最接近普通公眾的“香蕉”認(rèn)知。而普通的單一“行為—結(jié)果(責(zé)任)”關(guān)系認(rèn)定,有可能產(chǎn)生錯誤的“香蕉”辨識認(rèn)知。對比上述兩種模式可以發(fā)現(xiàn),人工智能可以進(jìn)行全數(shù)據(jù)分析,進(jìn)而提升結(jié)果的可信度;而單一因果關(guān)系的出現(xiàn)僅在人類只能對有限數(shù)據(jù)進(jìn)行分析的情況下才有必要存在。如果人工智能已經(jīng)可以進(jìn)行全數(shù)據(jù)分析的話,那么基于因果關(guān)系歸責(zé)的刑事責(zé)任認(rèn)定機(jī)制將讓步于“相關(guān)性分析”模式,現(xiàn)代刑事司法理念在人工智能時代也將面臨一次巨變。

二、人工智能對現(xiàn)行法律體系的挑戰(zhàn)

(一)主體性挑戰(zhàn)

機(jī)器人屬于法律上的物還是人,眾說紛紜。一種觀點(diǎn)認(rèn)為機(jī)器人屬于物,原因是它只能遵循算法和規(guī)則,而不能理解,不具有人的思維、感情和社交能力。就目前而言,自主決策能力以及決策結(jié)果的缺陷仍是機(jī)器人暴露出來的最大問題。在日本福島核輻射事件中,機(jī)器人進(jìn)入泄露區(qū)域是最佳選擇,但是機(jī)器人需要預(yù)先設(shè)定各種線路。由于線路長度所限,無法進(jìn)入指定區(qū)域,人工操作機(jī)器人的精準(zhǔn)度偏低,并且機(jī)器人操作耗費(fèi)的能量遠(yuǎn)遠(yuǎn)大于人類。因此,目前的弱人工智能機(jī)器人只是人為操控的工具,不能獨(dú)立思考并做出獨(dú)立決策行為。另一種觀點(diǎn)認(rèn)為,機(jī)器人應(yīng)該具有法律上的擬制人格。那些反對機(jī)器人有法律人格的觀點(diǎn),只是建立在目前機(jī)器人不能思考、不能感知的有限范圍之內(nèi)。而目前人工智能的發(fā)展方向是從數(shù)據(jù)(Data)向知識(Knowledge)轉(zhuǎn)變。因此,立法者不能僅從人工智能的現(xiàn)有情況做出判斷。綜觀人工智能的發(fā)展史,人工智能機(jī)器人將經(jīng)歷三個階段的發(fā)展:輔助人類階段、與人類共生共存階段、可能控制人類階段。目前的人工智能水平尚處于第一階段的初期階段。也就是說,人工智能機(jī)器人目前僅是人類的工具,法律只需要做細(xì)微調(diào)整就能適應(yīng)人工智能帶來的法律問題。但是,鑒于當(dāng)前人工智能技術(shù)的發(fā)展速度,人工智能的社會化應(yīng)用從第一階段邁向第二階段,也僅是個時間問題。因此,按照人工智能的發(fā)展趨勢,在機(jī)器人擁有了一定的感知能力和自主決策能力的情況下,立法者通過法律擬制的方式賦予機(jī)器人主體資格,并非是一種脫離社會實(shí)踐的空想。但在這一主體擬制說的背后,法學(xué)界仍需回應(yīng)機(jī)器人主體資格的憲法基礎(chǔ)與人權(quán)基礎(chǔ)。

人之所以為人,來自于人本身的尊嚴(yán)以及由此產(chǎn)生的基本人權(quán),如生命權(quán)、發(fā)展權(quán)、言論自由等。如果將法律人格賦予機(jī)器人,那么機(jī)器人的權(quán)利范圍有哪些?權(quán)利以何為邊界呢?一部分人一直在擔(dān)憂,指令和代碼會摧毀人類之間的語言交往,機(jī)器人的社會化應(yīng)用則會淘汰大批的基礎(chǔ)勞動工人,而機(jī)器人主體資格的憲法賦權(quán),將引發(fā)人類社會可持續(xù)發(fā)展的恐慌。面對上述風(fēng)險與危機(jī),悲觀主義者過度擴(kuò)大了人工智能所帶來的社會風(fēng)險。實(shí)際上,人工智能發(fā)展的基本脈絡(luò)就是用智能化的機(jī)器人來緩解人口老齡化,提升工作效率等問題。而在法律領(lǐng)域,人工智能技術(shù)與法律的結(jié)合,不僅改變了社會公眾了解法律的方式,也提升了法律糾紛的解決效率。為此,不管人工智能帶來的是機(jī)遇還是災(zāi)難,人類首先應(yīng)當(dāng)將科技風(fēng)險限制在可控的范圍之內(nèi):一方面,機(jī)器人與人的交流,應(yīng)當(dāng)建立在人類自然語言基礎(chǔ)之上,而非計算機(jī)語言(即“0”和“1”的二進(jìn)制算法)。另一方面,人類創(chuàng)造機(jī)器人,總會基于某種需求,側(cè)重機(jī)器人的某些功能。因此,憲法賦予機(jī)器人的法律人格是基于機(jī)器人的功能約束而創(chuàng)設(shè)的有限權(quán)利、有限自由。再一方面,三次科技革命淘汰了諸多工種,但結(jié)果卻是推動了人類分工協(xié)作體系的不斷發(fā)展,創(chuàng)造出一大批新的崗位,促進(jìn)了人類社會的整體進(jìn)步。由此觀之,在未來人工智能技術(shù)的飛速發(fā)展下,機(jī)器人可以在有限的范圍內(nèi)擁有法律人格,獲得法律主體地位。但人們也應(yīng)當(dāng)清晰地認(rèn)識到,現(xiàn)行法律體系并未對此做好準(zhǔn)備。這也意味著,機(jī)器人的主體性挑戰(zhàn)已然開始,法律變革將近。

(二)知識產(chǎn)權(quán)的體系性危機(jī)

在人工智能技術(shù)的飛速發(fā)展中,知識產(chǎn)權(quán)的法律挑戰(zhàn)是討論最為熱烈的話題。目前該話題的核心焦點(diǎn)就在于,基于人工智能技術(shù)所創(chuàng)造、研發(fā)出來的新事物,能否歸結(jié)為新的作品,誰擁有知識產(chǎn)權(quán)?例如:騰訊財經(jīng)利用自動化新聞寫作機(jī)器人“Dreamwriter”,創(chuàng)作出新聞稿《8月CPI漲2%創(chuàng)12個月新高》。[9]那么,該新聞稿的著作權(quán)如何歸屬呢?[10]根據(jù)我國《著作權(quán)法》第2條的規(guī)定,公民、法人和其他組織的作品依法受到著作權(quán)保護(hù),但并未涉及機(jī)器人作品的著作權(quán)問題。倘若將機(jī)器人作品歸結(jié)為“職務(wù)作品”,則不符合《著作權(quán)法》第16條的適用條件——《著作權(quán)法》僅認(rèn)定“公民為完成法人或者其他組織工作任務(wù)所創(chuàng)作的作品”屬于職務(wù)作品,而不包括機(jī)器人。上述事例只是人工智能社會化應(yīng)用與我國現(xiàn)行知識產(chǎn)權(quán)法律體系相沖突的一個縮影,但學(xué)者之間卻產(chǎn)生了強(qiáng)烈的觀點(diǎn)分化。

對于人工智能創(chuàng)造物的法律性質(zhì)而言,王遷認(rèn)為,“在現(xiàn)階段,人工智能生成的內(nèi)容只是應(yīng)用某種算法、規(guī)則和模板的結(jié)果,與為形成作品所需的智力創(chuàng)作相去甚遠(yuǎn)?!盵11]易繼明認(rèn)為,作品的獨(dú)創(chuàng)性并非是指該作品與現(xiàn)有作品的差異性,而是人們在創(chuàng)作該作品過程中所呈現(xiàn)的獨(dú)立、自主的主觀思考。目前的人工智能技術(shù)僅是通過數(shù)據(jù)庫的大量分析,實(shí)現(xiàn)不同作品的碎片式整合,并沒有超越于前人作品的內(nèi)容。因此也不應(yīng)當(dāng)將目前的人工智能創(chuàng)造物視為“作品”。但隨著“深度學(xué)習(xí)”技術(shù)的不斷發(fā)展,未來的人工智能技術(shù)創(chuàng)造物可能發(fā)展為一種創(chuàng)新性作品。[12]按照前述邏輯,人工智能作品的性質(zhì)歸屬主要依賴于人工智能技術(shù)的發(fā)展階段:弱人工智能階段和強(qiáng)人工智能階段。這兩大階段表現(xiàn)出來的技術(shù)成熟度,將會影響人工智能作品的最終性質(zhì)。按照易繼明的觀點(diǎn),弱人工智能階段的人工智能創(chuàng)造物依靠人為設(shè)定程序而定,那么該創(chuàng)造物則不屬于作品;而在強(qiáng)人工智能階段,機(jī)器人已經(jīng)逐步向自主學(xué)習(xí)的方向發(fā)展,逐漸獨(dú)立于人類的規(guī)則預(yù)定、價值預(yù)設(shè)。每個人工智能機(jī)器人可以產(chǎn)生出不同的結(jié)果和判斷。此時,機(jī)器人創(chuàng)作物應(yīng)該視為作品。

另外,人工智能創(chuàng)作物的版權(quán)歸屬問題,是屬于所有者、使用者還是設(shè)計者?首先,設(shè)計者只是對于其模擬人腦的算法或者過程進(jìn)行介入,與投入消費(fèi)者使用之后作品的產(chǎn)生沒有關(guān)聯(lián)。其次,機(jī)器人創(chuàng)造物是應(yīng)社會發(fā)展需求而產(chǎn)生的,機(jī)器人在當(dāng)前仍屬于公民或法人的所有物,那么,基于隸屬關(guān)系,人工智能機(jī)器人所“創(chuàng)作”的作品也應(yīng)屬于所有人。但就現(xiàn)行法律體系而言,在人工智能技術(shù),所有權(quán)人和使用權(quán)人無法明確劃分權(quán)利歸屬的情況下,作品歸屬問題表面上看來是關(guān)于誰來收取作品權(quán)益的問題,實(shí)際上其背后所衍生出來的深度問題是,現(xiàn)行知識產(chǎn)權(quán)法律體系關(guān)于“作品”“創(chuàng)造”等基礎(chǔ)概念,在面對人工智能作品時已經(jīng)面臨崩潰。倘若由于所有權(quán)人或者使用權(quán)人已經(jīng)支付了人工智能機(jī)器人的購買對價或租賃對價,將人工智能作品的知識產(chǎn)權(quán)劃分給所有權(quán)人或者使用權(quán)人,那么,在人工智能社會化應(yīng)用不斷提升的情況下,每個擁有人工智能機(jī)器人的人類都可以被稱之為“作家”“發(fā)明家”。由此,知識產(chǎn)權(quán)法律體系存在的價值將大打折扣。有鑒于此,現(xiàn)行知識產(chǎn)權(quán)法律體系如何回應(yīng)人工智能時代的創(chuàng)作需求,如何面對人工智能機(jī)器人自我創(chuàng)作、研發(fā)的制度危機(jī),就成為我國乃至全世界必須解決的問題。

(三)法律歸責(zé)機(jī)制的困惑

目前,人工智能機(jī)器人所引發(fā)的社會恐慌,主要源自于機(jī)器人損害責(zé)任的承擔(dān)問題。從現(xiàn)行法律體系的運(yùn)作機(jī)制來看,既然尚未承認(rèn)人工智能機(jī)器人的法律主體地位,那么由機(jī)器人導(dǎo)致的損害責(zé)任可能參照《侵權(quán)責(zé)任法》和《產(chǎn)品質(zhì)量法》的交叉規(guī)制路徑,即由人工智能產(chǎn)品的生產(chǎn)者承擔(dān)損害賠償責(zé)任。其考慮是,盡管企業(yè)經(jīng)營的目的是營利,但并不能忽視其所帶來的社會問題。企業(yè)生產(chǎn)機(jī)器人獲得了巨大盈利。而它作為社會的一部分,作為社會問題的制造者,就應(yīng)該承擔(dān)與產(chǎn)品風(fēng)險相適恰的社會責(zé)任,這也是目前公司法領(lǐng)域所提倡的修正自由主義責(zé)任觀。在人工智能發(fā)展過程中,企業(yè)常常面臨以下責(zé)任形式的拷問:(1)個人信息權(quán)、隱私權(quán)保護(hù)下的企業(yè)責(zé)任。機(jī)器人在接受指令或者自主運(yùn)行的過程中,難免會收集使用者的個人信息,比如登錄信息、財產(chǎn)狀況、信用等,這些信息都屬于個人隱私。隱私作為人類的底線防守,他人、社會組織以及政府機(jī)關(guān)都不得隨意侵犯。因此,之前,人工智能生產(chǎn)廠商有必要預(yù)先詢問當(dāng)事人是否同意機(jī)器人收集、使用用戶數(shù)據(jù)與信息。(2)侵權(quán)責(zé)任中的生產(chǎn)者責(zé)任。機(jī)器人侵權(quán)分為是人類利用人工智能機(jī)器人對他人及其財產(chǎn)(包括機(jī)器人)造成損害、機(jī)器人自身的產(chǎn)品設(shè)計瑕疵而造成的損害。對于前者,機(jī)器人只是人類實(shí)施侵權(quán)行為的手段和工具,具體責(zé)任依然歸于侵權(quán)人。但對于后者,由于人工智能產(chǎn)品仍處于研發(fā)與試用階段,因此,機(jī)器人瑕疵又可以分為智能系統(tǒng)瑕疵和物理制造瑕疵。在這種情況下,因機(jī)器人設(shè)計瑕疵而引發(fā)的侵權(quán)責(zé)任,會是一種更為復(fù)雜的歸責(zé)情形。

在既有法律制度的框架下,機(jī)器人缺少法律人格,會進(jìn)一步加劇責(zé)任分配制度的復(fù)雜性。既有責(zé)任分配機(jī)制要求機(jī)器人的行為或者決策能夠歸因于制造商、所有人、使用者等特定法律主體的錯誤意志,并且這些主體能夠預(yù)見并避免機(jī)器人的加害行為。但是在人工智能機(jī)器人具備了強(qiáng)自主決策能力、深度學(xué)習(xí)能力的情況下,上述法律框架無法應(yīng)對強(qiáng)人工智能機(jī)器人所造成的損害。一方面,證明產(chǎn)品設(shè)計缺陷(尤其是人工智能系統(tǒng)層面的缺陷)將變得異常困難;另一方面,事故的發(fā)生可能無法合理歸因于智能機(jī)器人的設(shè)計或者制造缺陷。一個能夠自主學(xué)習(xí)的人工智能系統(tǒng)的行為部分依靠其后天的經(jīng)歷,即使最細(xì)心的設(shè)計者、編程者以及制造者都無法控制或者預(yù)期人工智能系統(tǒng)的后天學(xué)習(xí)方向——微軟的聊天機(jī)器人Tay在Twitter上學(xué)習(xí)歧視性語言便是有力證據(jù)[13]。因此,在人工智能產(chǎn)品的生產(chǎn)者、使用者、所有者等主體之間尋找適格責(zé)任主體,只是當(dāng)下法律變革的一個權(quán)宜之計;賦予人工智能機(jī)器人獨(dú)立的法律人格,才是未來法律體系變革的最終方向。

三、面向人工智能時代的法律革新

法律對人工智能的發(fā)展具有促進(jìn)和保障作用,但法律進(jìn)化的速度卻遠(yuǎn)遠(yuǎn)落后于人工智能的發(fā)展速度,而且法律規(guī)范的制定理念直接決定了人工智能的社會發(fā)展趨勢:(1)作為一種機(jī)器人保護(hù)機(jī)制,機(jī)器人權(quán)利會壓縮人類的活動空間,進(jìn)而威脅人類的安全(這也是倫理學(xué)家對人工智能的研發(fā)持反對態(tài)度的主要原因);[14](2)作為一種社會發(fā)展手段,賦予機(jī)器人權(quán)利有助于彌補(bǔ)法律體系同機(jī)器人社會化應(yīng)用之間的裂痕,削減老齡化社會所帶來的勞動力短缺問題。這就意味著,為了保障人類的安全與可持續(xù)發(fā)展,國家不得不限縮公民的權(quán)利(如信息權(quán)、勞動權(quán)、著作權(quán)等),進(jìn)而改變原有的“權(quán)利—義務(wù)”分配方案,賦予機(jī)器人必要的主體資格,從而維持經(jīng)濟(jì)、社會的可持續(xù)發(fā)展。在機(jī)器人的社會化應(yīng)用不可回避的現(xiàn)代社會,立法者應(yīng)當(dāng)通過法治方式重新構(gòu)思人類與人工智能之間的關(guān)系與法治模式。

(一)構(gòu)建“戰(zhàn)略—法律—標(biāo)準(zhǔn)”三級人工智能規(guī)范

人工智能技術(shù)對傳統(tǒng)法律制度帶來了巨大挑戰(zhàn),以至現(xiàn)有的法律理念與規(guī)則在高新技術(shù)面前幾乎無所適從。在這種情況下,法律制度的自我創(chuàng)新、變革已無需多言。而尋求一個人類與人工智能創(chuàng)造物之間穩(wěn)定關(guān)系的基本規(guī)范,將是我國(乃是世界各國)目前立法的一個重要任務(wù)。目前,歐洲議會已著手制定人工智能機(jī)器人的立法草案。[15]我國在人工智能領(lǐng)域發(fā)展相對滯后,但相關(guān)立法活動應(yīng)未雨綢繆,組建構(gòu)建“國家戰(zhàn)略—基本法律—標(biāo)準(zhǔn)體系”三級人工智能規(guī)范。

首先,我國應(yīng)當(dāng)盡快出臺“人工智能發(fā)展戰(zhàn)略”,以此作為國家和各地方政府制定人工智能政策的依據(jù)。人工智能發(fā)展戰(zhàn)略的制定,首先應(yīng)當(dāng)理清人類與人工智能關(guān)系,進(jìn)而確定國家戰(zhàn)略的宏觀方向。因此,我國的人工智能發(fā)展戰(zhàn)略應(yīng)當(dāng)以人類與人工智能的協(xié)同發(fā)展為方向,做好人工智能社會化應(yīng)用的整體性謀略和全局性安排——國家層面人工智能發(fā)展統(tǒng)籌協(xié)調(diào)部門的建立已屬必然。“根據(jù)國家戰(zhàn)略,中央職能部門往往首先做出反應(yīng),快速地將國家戰(zhàn)略落實(shí)為政府政策……而地方政府……實(shí)質(zhì)性地推出優(yōu)惠和補(bǔ)貼政策?!盵16]從而構(gòu)建起人工智能發(fā)展的具體戰(zhàn)略目標(biāo)、戰(zhàn)略任務(wù)、戰(zhàn)略措施,將人工智能發(fā)展同行政體制改革、經(jīng)濟(jì)體制改革以及互聯(lián)網(wǎng)行業(yè)發(fā)展一體建設(shè)。

其次,我國應(yīng)當(dāng)就人工智能的研發(fā)與應(yīng)用制定專門性的人工智能基本法律框架。其重點(diǎn)包括人工智能的法律地位、人工智能的權(quán)利邊界、人工智能損害后果的責(zé)任分擔(dān)、人工智能風(fēng)險的法律控制等內(nèi)容。從權(quán)利類型生發(fā)的歷史邏輯來看,早期的人身權(quán)、財產(chǎn)權(quán)、政治權(quán)利等權(quán)利類型被視為人類的“天生權(quán)利”或“基本權(quán)利”,并體現(xiàn)出較強(qiáng)的人身依附性。但隨后產(chǎn)生的動物權(quán)利、法人權(quán)利等權(quán)利類型,開始將擬制權(quán)利融入到傳統(tǒng)權(quán)利體系中,以應(yīng)對社會發(fā)展過程中的物種多樣性壓力和多元市場經(jīng)營行為??紤]到人工智能創(chuàng)造物的非“人”性,權(quán)利擬制將成為人工智能創(chuàng)造物獲得法律主體地位的技術(shù)性解決方案。同時,由于人工智能創(chuàng)造物的產(chǎn)生及存在價值來自于其本身所具備的具體功能。因此,關(guān)于人工智能的基本法律框架應(yīng)當(dāng)根據(jù)人工智能創(chuàng)造物的具體功能加以建構(gòu)。

再次,制定人工智能發(fā)展標(biāo)準(zhǔn)。從各國的人工智能立法與政策來看,鼓勵性條款、引導(dǎo)性條款較多,而關(guān)于人工智能發(fā)展細(xì)則的條款較為稀少。究其原因,各國對人工智能立法持保守態(tài)度。例如:歐盟和德國通過小范圍地修改既有民事規(guī)則和交通法,來改善人工智能活動的法律適恰性。這僅是在立法條件不完備的情況下做出的折中選擇,既鼓勵了人工智能創(chuàng)新,又保障公民的權(quán)利。但引導(dǎo)性立法較多并不意味著各國立法的效率低下。實(shí)際上,各國立法只是在人工智能發(fā)展初期確立了一個基本法律框架,而人工智能發(fā)展的核心引導(dǎo)規(guī)則主要體現(xiàn)在人工智能研發(fā)、制造標(biāo)準(zhǔn)體系上。綜觀世界各國對人工智能發(fā)展的國家戰(zhàn)略、國家立法以及國家政策,無不顯示出各國搶占人工智能領(lǐng)域行業(yè)標(biāo)準(zhǔn)的決心。以美國無人駕駛汽車立法為例。美國內(nèi)華達(dá)州率先通過州立法的形式,允許無人駕駛汽車在該州公共道路上測試,并明確要求無人駕駛汽車必須滿足安全標(biāo)準(zhǔn)、保險標(biāo)準(zhǔn)、測試標(biāo)準(zhǔn),并針對后續(xù)試用階段制定更為嚴(yán)格的標(biāo)準(zhǔn)。[17]由此觀之,人工智能的標(biāo)準(zhǔn)化才是當(dāng)前真正規(guī)制人工智能行業(yè)的重要標(biāo)桿。

(二)建立專門的人工智能監(jiān)管機(jī)制

目前,人工智能已經(jīng)成為各國推動科技創(chuàng)新,建立創(chuàng)新型國家的重要戰(zhàn)略支點(diǎn)。但在科技強(qiáng)國這一戰(zhàn)略目標(biāo)之外,各國政府紛紛加強(qiáng)對人工智能技術(shù)的監(jiān)管,防范人工智能社會化應(yīng)用中的潛在風(fēng)險。為了進(jìn)一步規(guī)范我國人工智能技術(shù)的研發(fā)與應(yīng)用,我國應(yīng)當(dāng)在以下三個方面加強(qiáng)人工智能技術(shù)的監(jiān)管:(1)設(shè)立專門的人工智能監(jiān)管機(jī)構(gòu)。由于人工智能產(chǎn)品涉及的領(lǐng)域較廣,技術(shù)的專業(yè)性要求較高,這就要求監(jiān)管機(jī)構(gòu)必須具備相關(guān)的專業(yè)知識,并配備足夠的專業(yè)人才。因此,設(shè)立專門性的人工智能監(jiān)管機(jī)構(gòu)是人工智能時代國家治理的必然要求。(2)確立行業(yè)協(xié)會的輔助監(jiān)管模式。人工智能的行政監(jiān)管會對各級政府帶來巨大的監(jiān)管負(fù)擔(dān)和監(jiān)管壓力,同時可能過度限制人工智能技術(shù)的合理研發(fā)與試用。為此,在全國深化“放管服”改革背景下,我國對人工智能技術(shù)的監(jiān)管,應(yīng)當(dāng)建立“政府主導(dǎo)+行業(yè)協(xié)會輔助”的監(jiān)管模式。其中,行業(yè)協(xié)會輔助政府監(jiān)管人工智能技術(shù)的研發(fā)與試用,能夠最大化地利用行業(yè)協(xié)會的專業(yè)性和高技術(shù)人才優(yōu)勢,準(zhǔn)確把握人工智能技術(shù)的社會價值,減輕政府監(jiān)管壓力,提升監(jiān)管質(zhì)量和效率。在此情況下,“行業(yè)協(xié)會輔助監(jiān)管”模式同專門性人工智能監(jiān)管機(jī)構(gòu)的協(xié)調(diào)、對接,實(shí)際上是對人工智能領(lǐng)域高技術(shù)特征的創(chuàng)新性回應(yīng),也能夠有效地做到人工智能技術(shù)風(fēng)險的預(yù)先控制。(3)構(gòu)建人工智能產(chǎn)品的強(qiáng)制登記制度。受人工智能產(chǎn)品批量化生產(chǎn)的影響,人類很難從同一型號機(jī)器人中辨識出個體差異。這也對政府監(jiān)管人工智能產(chǎn)品造成了嚴(yán)重困擾。為了提升不同機(jī)器人的辨識度,辨明不同機(jī)器人的活動與責(zé)任,就必須通過特殊的身份辨識系統(tǒng)來確定其獨(dú)特性。這就要求我國在人工智能產(chǎn)品的監(jiān)管上建立起人工智能產(chǎn)品的強(qiáng)制登記制度,并且實(shí)行分級分類監(jiān)管模式,即依照人工智能產(chǎn)品的不同用途和功能,來確立該類人工智能產(chǎn)品的管理等級和登記制度。

(三)確定人工智能的分類侵權(quán)責(zé)任體系

人工智能的最大挑戰(zhàn)就在于,現(xiàn)行法律體系對它缺乏有效的追責(zé)機(jī)制——這是社會責(zé)任混亂的起點(diǎn),也是當(dāng)前世界各國通行秩序(法治)崩塌的導(dǎo)火索。因此,人工智能的責(zé)任配置,遠(yuǎn)比賦予機(jī)器人法律主體地位更為迫切。實(shí)際上,就目前階段而言,人工智能機(jī)器人的法律責(zé)任尚能夠參照《侵權(quán)責(zé)任法》《產(chǎn)品質(zhì)量法》的規(guī)制路徑加以解決。例如:按照《侵權(quán)責(zé)任法》的責(zé)任追究范式,如果人工智能機(jī)器人的活動對他人造成了實(shí)際損害或精神損害,人工智能機(jī)器人的使用者可以承擔(dān)相關(guān)的法律責(zé)任;人工智能機(jī)器人的開發(fā)者有過錯的,最終使用者承擔(dān)責(zé)任后可以向開發(fā)者追償。但在判斷開發(fā)者過錯程度時,可能需要區(qū)分算法生成與運(yùn)用方面的差異。如果人工智能算法本身存在漏洞,那么,該人工智能機(jī)器人最終出現(xiàn)歧視風(fēng)險和失控問題的概率就更高,相應(yīng)地,人工智能機(jī)器人的創(chuàng)造者、生產(chǎn)者承擔(dān)的法律責(zé)任也應(yīng)當(dāng)相對較大;如果該人工智能機(jī)器人采取深度學(xué)習(xí)技術(shù),并由人工智能系統(tǒng)自身發(fā)展和完善決策機(jī)制,那么,作為人工智能機(jī)器人的創(chuàng)造者、生產(chǎn)者,其主觀惡意和過錯較小,由此導(dǎo)致創(chuàng)造者、生產(chǎn)者可以獲得更大的免責(zé)空間。除此之外,我國也應(yīng)當(dāng)在產(chǎn)品質(zhì)量法律體系下進(jìn)一步理清人工智能生產(chǎn)廠商的生產(chǎn)責(zé)任,明確人工智能產(chǎn)品的生產(chǎn)標(biāo)準(zhǔn)、合理缺陷以及責(zé)任范圍。為了應(yīng)對人工智能潛在風(fēng)險所造成的生產(chǎn)者賠償壓力,我國應(yīng)當(dāng)在《保險法》的基礎(chǔ)上,建立人工智能領(lǐng)域的專門性保險法律與保險賠償體系,用于保證生產(chǎn)廠商的償付能力,提高人工智能產(chǎn)品侵權(quán)的賠償率。

人工智能對法律體系的挑戰(zhàn)與革新,是當(dāng)下法學(xué)界與社會爭相探討的重要問題。無論是人工智能引發(fā)了人機(jī)關(guān)系危機(jī),還是人工智能技術(shù)的規(guī)制難題,都反映出人們對人工智能規(guī)范化應(yīng)用的某種愿望。為此,盡管強(qiáng)人工智能對當(dāng)前的人類活動影響較小,但由于人工智能技術(shù)發(fā)展迅速,立法者一方面需要對人工智能的社會化應(yīng)用給予足夠的關(guān)注,甚至是做出一定的立法規(guī)制;另一方面也要積極滿足社會公眾對“日益增長的美好生活需要”的向往,實(shí)現(xiàn)社會的共建共治共享。尤為重要的是,世界各國均在爭奪人工智能技術(shù)的主導(dǎo)地位?這是關(guān)于國家科技競爭力的核心指標(biāo)之一。除了人工智能研發(fā)領(lǐng)域之外,我國法律實(shí)務(wù)界與學(xué)術(shù)界也應(yīng)保持自身的先進(jìn)性,對人工智能時代的法律變革做出預(yù)判。

猜你喜歡
機(jī)器人人工智能法律
法律解釋與自然法
法律方法(2021年3期)2021-03-16 05:57:02
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
讓人死亡的法律
山東青年(2016年1期)2016-02-28 14:25:30
“互助獻(xiàn)血”質(zhì)疑聲背后的法律困惑
機(jī)器人來幫你
認(rèn)識機(jī)器人
機(jī)器人來啦
高要市| 罗源县| 澄江县| 鄯善县| 邵阳市| 武川县| 黑水县| 湖口县| 波密县| 嘉义市| 荥阳市| 故城县| 吉安市| 洛川县| 垣曲县| 安义县| 通州市| 淮安市| 涿州市| 镇康县| 塔城市| 达孜县| 尼勒克县| 安新县| 兰州市| 普宁市| 辰溪县| 宁武县| 济源市| 高唐县| 阿拉善左旗| 获嘉县| 朝阳县| 岚皋县| 禹城市| 南木林县| 汶上县| 凤庆县| 化州市| 邹城市| 名山县|