国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

算法自動(dòng)化決策風(fēng)險(xiǎn)的法律規(guī)制研究

2019-09-10 11:50孫建麗
法治研究 2019年4期
關(guān)鍵詞:源代碼規(guī)制決策

孫建麗

摘要:隨著自動(dòng)化決策算法的廣泛運(yùn)用,民事主體因受“信息繭房”裹挾正在喪失信息獲取自主權(quán)。同時(shí)隨著算法預(yù)測性使用功能的不斷強(qiáng)化,民事主體隱私安全和發(fā)展平等權(quán)也日益面臨著被損害和被剝奪的風(fēng)險(xiǎn)。規(guī)制這些算法問題,一方面需要以歐美為鑒,從大數(shù)據(jù)規(guī)范收集和利用著手進(jìn)行源頭治理;另一方面需要結(jié)合我國具體國情,及時(shí)增設(shè)數(shù)據(jù)被遺忘權(quán)、更改權(quán),并創(chuàng)設(shè)算法安全委員會(huì),由其集中負(fù)責(zé)計(jì)算機(jī)源代碼披露和算法解釋、審核、監(jiān)管工作。此外,為全面防范、懲戒算法侵權(quán)行為,還需通過立法確立算法侵權(quán)責(zé)任機(jī)制。

關(guān)鍵詞:算法侵權(quán)大數(shù)據(jù)被遺忘權(quán)算法監(jiān)管侵權(quán)責(zé)任

近年來,隨著強(qiáng)人工智能技術(shù)的不斷進(jìn)步以及機(jī)器學(xué)習(xí)理論的不斷深入,算法自動(dòng)化決策被普遍運(yùn)用于各領(lǐng)域。然而,算法自動(dòng)化決策在節(jié)約時(shí)間和提升工作效率的同時(shí),也引發(fā)了諸多問題,如“信息繭房”效應(yīng)以及“算法殺熟”現(xiàn)象等,其不僅壟斷了個(gè)人視域,還損害了社會(huì)公平。如何通過法律規(guī)制保證算法自動(dòng)化決策的合理性、正當(dāng)性和公平性,減少自動(dòng)化算法在各領(lǐng)域決策中觸發(fā)的“信息繭房”風(fēng)險(xiǎn)、隱私泄露風(fēng)險(xiǎn)以及歧視風(fēng)險(xiǎn),抑制由算法自動(dòng)化決策促成的群體極化現(xiàn)象,理應(yīng)成為當(dāng)前法律關(guān)注的焦點(diǎn)。這不僅需要我們對算法自動(dòng)化決策引發(fā)的現(xiàn)實(shí)危害進(jìn)行深度剖析,也需要我們在具體法律制度闕如的當(dāng)下,及時(shí)借鑒歐美人工智能治理的有效經(jīng)驗(yàn),結(jié)合國內(nèi)算法自動(dòng)化決策適用的情況。積極探索出能夠切實(shí)規(guī)制算法自動(dòng)化決策風(fēng)險(xiǎn)的法律路徑。

一、算法自動(dòng)化決策的現(xiàn)實(shí)危害剖析

人工智能成為國際競爭新焦點(diǎn)之際,算法已然備受各國重視。然而,在對算法自動(dòng)化決策技術(shù)加緊研發(fā)、利用的同時(shí),人們普遍忽略了算法自動(dòng)化決策所帶來的負(fù)面影響,以致在“技術(shù)中立”思潮的遮蔽下,對算法自動(dòng)化決策造成的現(xiàn)實(shí)危害關(guān)注力度不足。近來隨著算法自動(dòng)化決策在各領(lǐng)域的廣泛應(yīng)用,由算法自動(dòng)化決策引發(fā)的弊端不斷凸顯:

(一)算法自動(dòng)化決策導(dǎo)致“信息繭房”風(fēng)險(xiǎn)

“信息繭房”最早由哈佛大學(xué)法學(xué)院桑斯坦教授提出,意指公眾在海量信息傳播中,因非對信息存有全方位需求,而只關(guān)注自己選擇的或能使自己愉悅的訊息,長此以往,將自己束縛在如蠶織就的信息“繭房”中的現(xiàn)象?!靶畔⒗O房”效應(yīng)一旦形成,無形風(fēng)險(xiǎn)便隨之產(chǎn)生。在“信息繭房”效應(yīng)中,自動(dòng)化決策算法對定制化信息的不斷精準(zhǔn)推送看似滿足了用戶的主觀需求,但實(shí)則將用戶引入了“井蛙”困境。因?yàn)槎虝r(shí)間內(nèi)在注意力有限的情況下,用戶僅能被鎖定在由自動(dòng)化算法推送的某類固定信息中,當(dāng)用戶對此類固定信息形成穩(wěn)定的閱讀習(xí)慣后,便再難以關(guān)注其他領(lǐng)域的信息或即時(shí)熱點(diǎn),久而久之,造成用戶思維固化、盲目自信,認(rèn)知結(jié)構(gòu)單一,甚至模糊或淡化對現(xiàn)實(shí)社會(huì)的真實(shí)感知,間接地剝奪了用戶對其他信息的“知情權(quán)”。

另外,自動(dòng)化算法鑄就的“信息繭房”還會(huì)進(jìn)一步引發(fā)回聲室效應(yīng)和同質(zhì)化效應(yīng)?!靶畔⒗O房”中,封閉的信息空間使得同類型信息不斷循環(huán)顯現(xiàn),用戶碎片化的算法經(jīng)驗(yàn)認(rèn)知使其誤以為這些信息就是事實(shí)全部,進(jìn)而影響用戶對真實(shí)信息的全面獲取和對問題的正確判斷,回聲室效應(yīng)形成后,信息多元化和信息獲取自由原則的適用空間將會(huì)受到嚴(yán)重?cái)D壓;此外,封閉的輿論場域還極易促使用戶產(chǎn)生求同心理,用戶通常傾向接受與自己觀點(diǎn)、思想相似的信息,進(jìn)而組合成各種由線下分化個(gè)體聚合而成的線上群組,形成信息同質(zhì)化效應(yīng)。這些群組通常取消關(guān)注、不關(guān)注甚或排斥載有與自己觀點(diǎn)相異的信息,直至形成群內(nèi)同質(zhì)、群際異質(zhì)的局面。這種現(xiàn)象不僅致使群體信息極化、群際關(guān)聯(lián)松散,還使得相異觀點(diǎn)下沉、言論自由受到侵蝕。

由自動(dòng)化決策算法推薦的定制化信息雖能暫時(shí)滿足用戶的個(gè)性化消費(fèi)需求,但其長期鑄就的“信息繭房”所帶來的潛在社會(huì)危害不容忽視。自動(dòng)化算法定制化的信息推薦使得用戶個(gè)體極易忽視電視新聞、日報(bào)頭版、宣傳海報(bào)等所載信息的全面引導(dǎo),致其主動(dòng)捕獲、接收信息的能力弱化。再加上以個(gè)人為中心、以推送關(guān)聯(lián)內(nèi)容為主題的自媒體時(shí)代下,有效網(wǎng)絡(luò)監(jiān)管力量的缺失,若任由用戶被動(dòng)包裹在由自動(dòng)化算法持續(xù)推送的不良信息繭房中,釀成的后果將不堪設(shè)想。同時(shí),長期的信息繭房束縛也嚴(yán)重限制了用戶個(gè)體視野的拓展,不利于形成廣泛而全面的社會(huì)公共認(rèn)知。

(二)算法自動(dòng)化決策引發(fā)隱私泄露風(fēng)險(xiǎn)

隱私泄露風(fēng)險(xiǎn)不僅發(fā)生在用戶數(shù)據(jù)收集階段,隨著自動(dòng)化算法的進(jìn)一步智能化,還將發(fā)生在算法預(yù)測階段。這就意味著之前未向網(wǎng)絡(luò)平臺(tái)披露過的個(gè)人信息有可能經(jīng)過深度學(xué)習(xí)算法的預(yù)測被推斷、披露出來。例如,美國研究者曾對“Facebook Likes”58000名志愿者提供的準(zhǔn)確率高達(dá)80%-90%的個(gè)人信息,如性取向、種族、智力情況、宗教及政治觀點(diǎn)、性格特征、幸福指數(shù)、癮品使用、父母離異、年齡和性別信息進(jìn)行數(shù)學(xué)建模,自動(dòng)化算法在未獲取志愿者其他任何信息和個(gè)性特征的情況下,可以相當(dāng)準(zhǔn)確地預(yù)測出該Facebook用戶是否為同性戀者。實(shí)踐中,抓取用戶數(shù)據(jù)后啟用自動(dòng)化算法對未來趨勢進(jìn)行預(yù)測已不罕見,例如知道用戶分別是全國步槍協(xié)會(huì)成員和計(jì)劃生育支持者,自動(dòng)化算法將會(huì)通過貝葉斯定理相應(yīng)地預(yù)測出二者未來支持共和黨和民主黨的概率,進(jìn)而將用戶的政治選舉意愿和傾向揭示出來,盡管這樣的預(yù)測結(jié)果可能會(huì)與未來用戶的真實(shí)決定存有一定偏差,但通過自動(dòng)化算法深度挖掘并披露用戶潛在隱私信息已是不爭的事實(shí)。

大數(shù)據(jù)挖掘技術(shù)的進(jìn)步為自動(dòng)化算法的強(qiáng)智能化提供了有力的技術(shù)支撐,當(dāng)更多數(shù)據(jù)被輸入到算法模型中時(shí),算法模型又一次得以完善和改進(jìn)。與以往簡單人口統(tǒng)計(jì)信息不同,當(dāng)前自動(dòng)化算法通過分析已輸入的海量個(gè)性化數(shù)據(jù)點(diǎn)來為用戶進(jìn)行深度畫像,其不僅能夠知悉用戶的性別、民族、收入等基本信息,還可以全面預(yù)測用戶的心理特征和心理狀態(tài)等。因?yàn)橥ㄟ^合并在線和離線數(shù)據(jù),用戶每一次網(wǎng)頁瀏覽、人際交互等由網(wǎng)絡(luò)行為生成的結(jié)構(gòu)化和非結(jié)構(gòu)化數(shù)據(jù)都能被收集、存儲(chǔ),而后經(jīng)由SQL、SAS、R或者Python、C++等數(shù)據(jù)挖掘工具將隱藏的預(yù)測性信息抽取出來,通過運(yùn)行自動(dòng)化算法揭示出用戶的潛在隱私。正如《紐約時(shí)報(bào)》所報(bào)道的零售巨頭Target根據(jù)自動(dòng)化算法分析向限制民事行為能力人郵寄嬰兒用品手冊,而法定監(jiān)護(hù)人卻不知悉其懷孕的信息一樣,自動(dòng)化算法已經(jīng)遠(yuǎn)遠(yuǎn)超越當(dāng)前人類個(gè)體對自我信息的認(rèn)知范圍而對個(gè)人隱私保護(hù)形成強(qiáng)烈沖擊。

然而,自動(dòng)化算法越來越智能化的同時(shí),大數(shù)據(jù)背景下有關(guān)隱私保護(hù)的法律規(guī)定并沒能同步跟進(jìn),以致對主體隱私保護(hù)不盡周全。網(wǎng)絡(luò)時(shí)代,如何將因自動(dòng)化算法導(dǎo)致的隱私泄露所引發(fā)的損害風(fēng)險(xiǎn)降至最低,而又不過度阻礙自動(dòng)化算法帶來的技術(shù)進(jìn)步,是時(shí)代賦予立法者的義務(wù),也是當(dāng)前法律首要關(guān)注的焦點(diǎn)。沒有相應(yīng)的法律規(guī)制,每位網(wǎng)絡(luò)用戶均為透明的個(gè)體,毫無隱私可言,在使其失去心理安全保障的同時(shí),也縱容了算法使用者利用他人隱私進(jìn)行營利投機(jī)的行為,不利于營造網(wǎng)絡(luò)合理秩序和公平競爭環(huán)境。

(三)算法自動(dòng)化決策助推歧視風(fēng)險(xiǎn)

歧視風(fēng)險(xiǎn)不僅存在于現(xiàn)實(shí)生活中,其還以大數(shù)據(jù)為媒介滲透到自動(dòng)化算法決策中,近來消費(fèi)者反映強(qiáng)烈的“算法殺熟”現(xiàn)象即是算法歧視的典型例證。“算法殺熟”是指服務(wù)或商品提供者根據(jù)消費(fèi)者在其網(wǎng)站上的消費(fèi)次數(shù),收集、分析該消費(fèi)者對商品或服務(wù)的消費(fèi)信息,當(dāng)消費(fèi)者頻繁進(jìn)行消費(fèi)時(shí),算法將會(huì)自行記錄并向該消費(fèi)者發(fā)起高價(jià)要約,從而使其以高于首次或低頻次購買該服務(wù)或商品的消費(fèi)者的價(jià)格獲得該服務(wù)或商品。事實(shí)上,除卻含有價(jià)格歧視因素的“算法殺熟”現(xiàn)象外,自動(dòng)化算法歧視還有多種表現(xiàn),如房屋租賃歧視、教學(xué)質(zhì)量評估結(jié)果淘汰機(jī)制歧視、金融信貸與保險(xiǎn)歧視、刑事犯罪與刑罰預(yù)測歧視、人格測試與就業(yè)歧視等。自動(dòng)化算法帶來的以上種種歧視不僅極易導(dǎo)致個(gè)體錯(cuò)失獲取資源和實(shí)現(xiàn)自我發(fā)展的機(jī)會(huì),損害個(gè)體公平,還容易造成“強(qiáng)者愈強(qiáng)、弱者愈弱”的群體極化現(xiàn)象,損害群體發(fā)展公平。

自動(dòng)化算法帶來的歧視風(fēng)險(xiǎn)一方面源自使用者或設(shè)計(jì)者自身的偏見,這種偏見會(huì)被后者以替代變量的形式編人計(jì)算機(jī)程序中,然后隨著算法自身的不斷學(xué)習(xí)而被逐漸放大。例如,使用者為縮短員工通勤用時(shí)以提高工作出勤率,自動(dòng)篩除長距離通勤者的網(wǎng)上求職申請。根據(jù)這一要求,設(shè)計(jì)者在建模階段將會(huì)增設(shè)“住址距離”這一與職位申請無關(guān)的替代變量,從而將長距離通勤群體一概排除在外。自動(dòng)化算法歧視風(fēng)險(xiǎn)另一方面還源于大數(shù)據(jù)收集的非準(zhǔn)確性。實(shí)踐中,自動(dòng)化算法賴以存在的大數(shù)據(jù)收集來源主要有購買和自行抓取兩種,無論哪種形式收集到的數(shù)據(jù),只要初始收集階段的原始數(shù)據(jù)存有錯(cuò)誤且未得以改正,那么未來訓(xùn)練數(shù)據(jù)與學(xué)習(xí)算法都將會(huì)進(jìn)一步放大歧視現(xiàn)象,從而形成永久性歧視。如經(jīng)濟(jì)實(shí)力雄厚的企業(yè)原始信息被顯示為嚴(yán)重資不抵債,當(dāng)銀行放貸算法抓取這一錯(cuò)誤信息并作出決策時(shí),如若未來不加改正,該企業(yè)可能將永遠(yuǎn)無法正常獲取該銀行貸款。

自動(dòng)化算法固然是幫助人類實(shí)現(xiàn)進(jìn)步的工具,但任由程式化的算法進(jìn)行自主決策而不施以任何人類干預(yù),自動(dòng)化算法帶來的種種歧視風(fēng)險(xiǎn)都將成為影響社會(huì)穩(wěn)定的巨大隱患,屆時(shí)將不僅涉及算法智能化技術(shù)問題,還將涉及法律、道德甚或經(jīng)貿(mào)問題,治理難度更加艱難。然而,技術(shù)的進(jìn)步在促使代碼自動(dòng)生成的同時(shí),智能化算法的黑箱性質(zhì)也增加了人類目前對它們的認(rèn)知和治理難度。究竟該如何降低或者消解自動(dòng)化算法帶來的歧視風(fēng)險(xiǎn),理應(yīng)成為當(dāng)前法律關(guān)注的又一重點(diǎn)。

二、歐美規(guī)制算法自動(dòng)化決策的經(jīng)驗(yàn)研究

自動(dòng)化算法被運(yùn)用在各領(lǐng)域后滋生了諸多問題,人工智能技術(shù)較為發(fā)達(dá)的歐美國家已經(jīng)對自動(dòng)化算法帶來的風(fēng)險(xiǎn)規(guī)制問題進(jìn)行了立法探討??v觀算法運(yùn)作的整個(gè)流程可知(見圖一),源數(shù)據(jù)是算法演進(jìn)的基礎(chǔ),訓(xùn)練數(shù)據(jù)是學(xué)習(xí)算法自主決策的直接依據(jù)。源數(shù)據(jù)負(fù)載著民事主體的諸多隱私信息,一旦源數(shù)據(jù)收集不準(zhǔn)確或利用不規(guī)范,訓(xùn)練數(shù)據(jù)對有效信息的提取就會(huì)發(fā)生錯(cuò)誤,進(jìn)而干擾學(xué)習(xí)算法對決策要素的正當(dāng)權(quán)衡,致其最終作出錯(cuò)誤決策。正因如此,歐美當(dāng)前立法多以數(shù)據(jù)收集和利用為切人點(diǎn)對算法決策風(fēng)險(xiǎn)進(jìn)行源頭規(guī)制。事實(shí)上,歐美當(dāng)前對算法的立法規(guī)制僅限于數(shù)據(jù)收集和利用領(lǐng)域,還未通過立法方式延及算法本身。因此,本部分將結(jié)合歐美數(shù)據(jù)立法規(guī)制的現(xiàn)實(shí)狀況以及算法規(guī)制的前沿學(xué)術(shù)理論對算法風(fēng)險(xiǎn)規(guī)制問題進(jìn)行詳細(xì)探討。

(一)歐美數(shù)據(jù)收集與利用的法律規(guī)制

人工智能時(shí)代,不管算法如何向智能化階段演進(jìn),均不能脫離大數(shù)據(jù)而單獨(dú)存在。因此,防御算法風(fēng)險(xiǎn)的首要舉措即是對大數(shù)據(jù)的收集與利用進(jìn)行立法規(guī)制。只有對大數(shù)據(jù)收集與利用環(huán)節(jié)進(jìn)行有力規(guī)制,算法決策環(huán)節(jié)才有可能降低以上風(fēng)險(xiǎn)的發(fā)生。在數(shù)據(jù)收集與利用規(guī)制方面,《歐盟數(shù)據(jù)保護(hù)指南》與《通用數(shù)據(jù)保護(hù)條例》堪稱典范。其中《歐盟數(shù)據(jù)保護(hù)指南》確立了數(shù)據(jù)收集最小化原則、數(shù)據(jù)保密和安全存儲(chǔ)原則、數(shù)據(jù)使用目的限制原則、數(shù)據(jù)處理透明原則、禁止數(shù)據(jù)二次使用原則。除通過確立以上原則對數(shù)據(jù)收集和利用行為進(jìn)行規(guī)范引導(dǎo)外,《歐盟數(shù)據(jù)保護(hù)指南》還對數(shù)據(jù)主體明示同意、數(shù)據(jù)收集準(zhǔn)確性、數(shù)據(jù)匿名化使用、敏感數(shù)據(jù)合理使用、數(shù)據(jù)更新和移除、違法使用數(shù)據(jù)處罰機(jī)制等具體問題進(jìn)行了詳細(xì)規(guī)定。隨后《通用數(shù)據(jù)保護(hù)條例》對數(shù)據(jù)主體明示同意條款和違法使用數(shù)據(jù)處罰機(jī)制進(jìn)行了重述,同時(shí)亦對數(shù)據(jù)主體和數(shù)據(jù)使用者分別創(chuàng)設(shè)了新的權(quán)利和義務(wù),即數(shù)據(jù)被遺忘權(quán)、訪問和攜帶數(shù)據(jù)權(quán)以及數(shù)據(jù)泄露通知義務(wù)。另外,為處理數(shù)據(jù)跨境問題,《通用數(shù)據(jù)保護(hù)條例》還單獨(dú)增設(shè)了一站式數(shù)據(jù)處理機(jī)制條款。從《歐盟數(shù)據(jù)保護(hù)指南》和《通用數(shù)據(jù)保護(hù)條例》詳盡的規(guī)定內(nèi)容可知,歐盟有關(guān)收集、利用、保護(hù)個(gè)人數(shù)據(jù)的規(guī)范已經(jīng)自成體系。

與歐盟類似,美國也通過立法方式對個(gè)人數(shù)據(jù)收集和利用問題進(jìn)行了相應(yīng)規(guī)定。美國聯(lián)邦貿(mào)易委員會(huì)在《公平信用報(bào)告法》中規(guī)定,消費(fèi)者報(bào)告機(jī)構(gòu)、數(shù)據(jù)經(jīng)紀(jì)人、雇主需要為消費(fèi)者提供接觸信息的渠道,以及更改錯(cuò)誤信息的機(jī)會(huì),否則需要承擔(dān)民事責(zé)任和接受行政處罰。進(jìn)一步而言,上述主體只有在消費(fèi)者知情同意的情況下才可利用消費(fèi)者數(shù)據(jù)進(jìn)行決策。美國聯(lián)邦政府頒布的《消費(fèi)者隱私權(quán)法案》也明確確認(rèn)了消費(fèi)者對個(gè)人數(shù)據(jù)享有控制權(quán)、更改權(quán)等7種權(quán)利。另外,為規(guī)范數(shù)據(jù)使用行為,減少算法滋生的隱私泄露和歧視風(fēng)險(xiǎn),美國HIPPA隱私規(guī)則對信息去識(shí)別化進(jìn)行了特別規(guī)定,其不僅要求信息去識(shí)別化只能由專家進(jìn)行判定,還要求專家必須就信息去識(shí)別化判定過程進(jìn)行記錄。隨后衛(wèi)生部在《信息去識(shí)別化技術(shù)指南》中明確提出了原始信息編校、泛化和干擾技術(shù),認(rèn)為應(yīng)當(dāng)對數(shù)據(jù)主體的姓名、地址、數(shù)字碼號等18種易于識(shí)別的信息進(jìn)行模糊處理。除此之外,為防止去識(shí)別化信息被重新識(shí)別和濫用,美國學(xué)者極力建議在HIPPA中增設(shè)禁止信息被重新識(shí)別條款。通過分析可知,美國對收集、利用個(gè)人數(shù)據(jù)的規(guī)定雖然分散,但內(nèi)容相對周全,實(shí)用性較強(qiáng)。

為應(yīng)對算法風(fēng)險(xiǎn)挑戰(zhàn),歐美對個(gè)人數(shù)據(jù)的收集和利用行為均給予了高度重視。其中歐盟采用原則與規(guī)則并舉的專門立法方式,對利用個(gè)人數(shù)據(jù)的行為進(jìn)行全面規(guī)定,在立法上實(shí)現(xiàn)了指導(dǎo)性和可實(shí)施性的有機(jī)統(tǒng)一,進(jìn)而從源頭上實(shí)現(xiàn)了抑制數(shù)據(jù)過度挖掘和算法過度預(yù)測的目的。然而,過于細(xì)致和僵硬的規(guī)定也有其天然弊端,如數(shù)據(jù)每一次挖掘和輸入若有不慎都極有可能違反現(xiàn)行法律規(guī)定,進(jìn)而引發(fā)耗時(shí)持久的紛爭訴訟,阻礙大數(shù)據(jù)挖掘技術(shù)的進(jìn)步和抑制算法模型的完善更新。通過立法保護(hù)個(gè)人數(shù)據(jù)固然重要,但需要把握好與科技進(jìn)步之間的平衡關(guān)系。相比歐盟體系化的立法機(jī)制,美國數(shù)據(jù)立法相對簡化和自由,注重采用技術(shù)手段對數(shù)據(jù)進(jìn)行加工處理再利用,更側(cè)重?cái)?shù)據(jù)主體對個(gè)人信息的管理和處置。這種立法規(guī)定既不會(huì)過度束縛數(shù)據(jù)挖掘技術(shù)的發(fā)展,也保障了民事主體的數(shù)據(jù)安全和處分自由,還有利于算法模型的及時(shí)改進(jìn)??傊?,采用立法方式對個(gè)人數(shù)據(jù)進(jìn)行規(guī)范只能在部分程度上解決算法決策風(fēng)險(xiǎn)問題,若要進(jìn)一步化解算法風(fēng)險(xiǎn),還需要加強(qiáng)對算法本身的規(guī)制研究。

(二)歐美化解算法決策風(fēng)險(xiǎn)的理論探究

歐美雖未通過立法直接對算法作出規(guī)制,但學(xué)術(shù)界已經(jīng)以算法為切入點(diǎn)進(jìn)行了積極探討。事實(shí)上,立法技術(shù)并非歐美出臺(tái)規(guī)制算法風(fēng)險(xiǎn)規(guī)則的最大障礙,算法演進(jìn)的階段性尤其是高階算法的不可預(yù)測性和難以解釋性才是影響算法立法的最大難題(見圖二)。因此,在算法立法闕如的當(dāng)前,本部分將結(jié)合歐美已有學(xué)術(shù)研究成果和司法實(shí)務(wù)經(jīng)驗(yàn)對算法風(fēng)險(xiǎn)的規(guī)制問題及其可行性進(jìn)行相應(yīng)探討。

歐美部分學(xué)者認(rèn)為,披露計(jì)算機(jī)源代碼增強(qiáng)算法決策程序透明度是降低算法風(fēng)險(xiǎn)的最佳措施。然而,這種觀點(diǎn)在實(shí)踐中究竟能否可行,有待商榷。首先,從理論上來看,通常只有專業(yè)人員才能熟知計(jì)算機(jī)基本編程知識(shí),而非專業(yè)人員一般難以對其形成準(zhǔn)確認(rèn)知。這就意味著受害人作為非專業(yè)人員極有可能無法成為披露計(jì)算機(jī)源代碼的適格受眾,其需要尋求專業(yè)代理人對計(jì)算機(jī)源代碼作出正確解讀,并由其代替接受來自代碼編寫人員或使用人員的解釋。受害人和適格受眾兩相分離的局面不僅使受害人徒增經(jīng)濟(jì)開支,還使得披露計(jì)算機(jī)源代碼行為存有流于形式的可能性。其次,披露計(jì)算機(jī)源代碼只能展現(xiàn)出機(jī)器學(xué)習(xí)所運(yùn)用的相關(guān)方法,并不能揭示出訓(xùn)練數(shù)據(jù)驅(qū)動(dòng)算法決策的規(guī)則。算法學(xué)習(xí)日益深入,專業(yè)人員只能看到輸入的數(shù)據(jù)和輸出的結(jié)果,一旦學(xué)習(xí)算法出現(xiàn)錯(cuò)誤,專業(yè)人員也難以對算法所遵循的指令作出有效審核,并對算法決策規(guī)則和結(jié)果作出清晰解釋。再次,披露計(jì)算機(jī)源代碼可能會(huì)引發(fā)一系列不良后果,如導(dǎo)致商業(yè)秘密泄露、侵犯他人隱私、妨礙正常執(zhí)法,甚至?xí)T使違法分子對算法決策進(jìn)行鉆營活動(dòng),滋生二次侵權(quán)風(fēng)險(xiǎn)。最后,通過披露計(jì)算機(jī)源代碼來降低算法決策風(fēng)險(xiǎn)在歐美司法實(shí)踐中已被證明不具有可行性。如在Viacom v.You Tube案中,原告要求被告披露控制You Tube.com搜索功能和谷歌Google.com網(wǎng)絡(luò)搜索工具的計(jì)算機(jī)源代碼,法院以保護(hù)商業(yè)秘密為由駁回了原告的此種請求。據(jù)此,披露計(jì)算機(jī)源代碼并非解決算法風(fēng)險(xiǎn)問題的最佳方案。

披露計(jì)算機(jī)源代碼受阻后,歐美學(xué)者又提出了以下建議,增設(shè)算法解釋權(quán)和對算法進(jìn)行外部審查。算法解釋權(quán)旨在對算法決策過程和決策結(jié)果進(jìn)行解釋,然而這種建議能否實(shí)現(xiàn),還有待深入分析。正如圖二所示,算法演進(jìn)具有階段性,當(dāng)算法處于“白箱”和“灰箱”階段時(shí),研發(fā)者和使用者能夠?qū)λ惴Q策過程和決策結(jié)果進(jìn)行預(yù)測和解釋。然而,當(dāng)算法處于“黑箱”“感知”“智能”階段時(shí),研發(fā)者和使用者因?qū)λ惴ㄊチ丝刂茩?quán),無法再對算法繼續(xù)進(jìn)行預(yù)測,此時(shí)算法解釋權(quán)的設(shè)置便形同虛設(shè)。再者,算法侵權(quán)具有群體性,算法本身具有專業(yè)性,創(chuàng)設(shè)算法解釋權(quán)還需要解決向誰解釋和由誰解釋的問題,以及雙方不能就算法解釋理由達(dá)成一致意見時(shí)該如何處理的問題,設(shè)若這些問題得不到及時(shí)解決,算法解釋權(quán)就不能付諸實(shí)施。另外,與一般侵權(quán)所涉及的因果關(guān)系不同,算法決策所依據(jù)的是相關(guān)關(guān)系,即使法院判決被告對算法作出詳盡解釋,極值的存在未必能使原告獲得勝訴。正因算法解釋權(quán)面臨著諸多難以克服的問題,部分學(xué)者進(jìn)一步提出引入隨機(jī)性原理和零知識(shí)證明方法以檢驗(yàn)算法是否存在隱性損害。前者在驗(yàn)證方式上比較靈活,但需逐一進(jìn)行,零散耗時(shí);后者則需要雙方進(jìn)行認(rèn)知博弈,在不向?qū)Ψ酵嘎度魏涡畔⒌那闆r下使對方信服是否存有損害,這種方法因證明難度大而不易被普及。

披露計(jì)算機(jī)源代碼和增設(shè)算法解釋權(quán)均存有各種弊端,對算法實(shí)行外部審查能否規(guī)范算法運(yùn)作過程和降低算法決策風(fēng)險(xiǎn),還有賴于算法審查機(jī)構(gòu)和審查方式的確定。根據(jù)學(xué)者建議,對算法進(jìn)行外部審查既包括第三方審查也包括行政審查。第三方審查屬于同行審查,這種審查機(jī)制允許第三方對計(jì)算機(jī)代碼和決策標(biāo)準(zhǔn)進(jìn)行審查,審查方式、審查時(shí)間比較靈活,本質(zhì)上屬于同行監(jiān)督。算法的行政審查實(shí)則是對算法的集中監(jiān)管,這種審查方式程式化痕跡比較鮮明,需要設(shè)置算法安全委員會(huì)等專門機(jī)構(gòu)負(fù)責(zé)對算法進(jìn)行實(shí)質(zhì)性審查。為強(qiáng)化算法行政監(jiān)管和保障算法規(guī)范運(yùn)行,學(xué)者認(rèn)為算法安全委員會(huì)應(yīng)當(dāng)對算法進(jìn)行使用前批準(zhǔn)審查和定期審查。算法使用前批準(zhǔn)審查可將未標(biāo)注用途的且含有損害風(fēng)險(xiǎn)的算法以及未通過批準(zhǔn)的營銷算法予以剔除,進(jìn)而保證投入運(yùn)行的算法都能夠符合執(zhí)行標(biāo)準(zhǔn);而定期審查則有助于及時(shí)發(fā)現(xiàn)算法存在的隱性風(fēng)險(xiǎn),減少算法對現(xiàn)實(shí)造成的損害。同時(shí)這種定期審查淘汰機(jī)制也有助于激發(fā)設(shè)計(jì)者和使用者改進(jìn)和完善算法模型的積極性,進(jìn)而從內(nèi)部瓦解算法風(fēng)險(xiǎn)。另外,為使算法安全委員會(huì)在算法故意侵權(quán)發(fā)生后能夠迅速行使監(jiān)督和處罰權(quán),學(xué)者建議應(yīng)當(dāng)對此專門機(jī)構(gòu)進(jìn)行廣泛授權(quán)。

從本質(zhì)上看,算法實(shí)為通過計(jì)算機(jī)系列清晰指令解決問題的一種策略機(jī)制,是對人類解決問題思路的代碼轉(zhuǎn)化。無論低階算法還是高階算法都須以大數(shù)據(jù)為基礎(chǔ),并通過執(zhí)行系列計(jì)算機(jī)指令運(yùn)行結(jié)束。從圖二算法分類表可知,低階算法基本上是對已有指令的完全遵循,設(shè)計(jì)者和使用者可據(jù)此對其作出確定預(yù)測和解釋。然而,高階算法則較為復(fù)雜,除需要已有指令引導(dǎo)外,還可以根據(jù)訓(xùn)練數(shù)據(jù)進(jìn)行自主學(xué)習(xí)和自行決策,已經(jīng)超越原有指令既定的路線,脫離了人類的有效控制。高階算法的不可預(yù)測性使得算法立法出現(xiàn)了極度盲點(diǎn),嚴(yán)重遲滯了算法的立法步伐。誠如上文所述,算法以大數(shù)據(jù)為基礎(chǔ),以訓(xùn)練數(shù)據(jù)為直接依據(jù),并非不受約束和限制,歐美通過規(guī)制數(shù)據(jù)立法從源頭上對算法風(fēng)險(xiǎn)進(jìn)行治理的思路是正確的,也是有效的,這就為我國未來規(guī)制算法風(fēng)險(xiǎn)提供了正確的方向指引。另外,歐美學(xué)者以算法本身為切入點(diǎn)提出了以上極具建設(shè)性的建議,雖然在可行性上不盡完善,但目前為止依然是最能解決算法風(fēng)險(xiǎn)問題的對策。事實(shí)上,我國對算法進(jìn)行立法規(guī)制時(shí),對以上學(xué)術(shù)建議進(jìn)行相應(yīng)整改后,能夠提高其可執(zhí)行性。

三、我國對算法自動(dòng)化決策的具體規(guī)制進(jìn)路

算法被廣泛運(yùn)用以來對各領(lǐng)域造成的風(fēng)險(xiǎn)已經(jīng)備受學(xué)者關(guān)注,目前我國還未有規(guī)制算法風(fēng)險(xiǎn)的專門立法。國內(nèi)學(xué)者對算法風(fēng)險(xiǎn)規(guī)制的研究成果并不多見,算法規(guī)制對策更是匱缺。因此,我國未來對算法進(jìn)行立法規(guī)制時(shí),可仿效歐美從數(shù)據(jù)規(guī)制和算法檢測、監(jiān)督兩方面著手,結(jié)合我國現(xiàn)行法制體系和機(jī)構(gòu)設(shè)置現(xiàn)狀,積極探索出符合我國國情的法律規(guī)制路徑。

(一)增設(shè)數(shù)據(jù)被遺忘權(quán)和更改權(quán)

統(tǒng)觀我國歷次立法過程,短時(shí)間內(nèi)制定出一部完善的算法法律可能性不大。我國人工智能技術(shù)研究起步晚,人工智能技術(shù)立法經(jīng)驗(yàn)極度匱乏,再加上實(shí)務(wù)中算法帶來的風(fēng)險(xiǎn)矛盾不像歐美國家那樣凸顯,導(dǎo)致我國當(dāng)前系統(tǒng)規(guī)制算法的立法條件相對欠缺。為防患于未然,我國依舊有必要通過立法方式對算法風(fēng)險(xiǎn)進(jìn)行規(guī)制。誠如圖一和歐美立法經(jīng)驗(yàn)所示,以規(guī)制大數(shù)據(jù)為切入點(diǎn)是治理算法風(fēng)險(xiǎn)的必經(jīng)之路。無論歐美通過何種立法方式對數(shù)據(jù)收集、利用、處理問題作出何種規(guī)定,歸根結(jié)底都是數(shù)據(jù)規(guī)范化使用問題。從法律規(guī)范的可行性上而言,復(fù)雜繁瑣的立法規(guī)定未必能夠得以真正執(zhí)行,散亂無章的法律法規(guī)有可能導(dǎo)致適用上的混亂。近期內(nèi)我國既不能立刻出臺(tái)類似《歐盟數(shù)據(jù)保護(hù)指南》和《通用數(shù)據(jù)保護(hù)條例》這樣的系統(tǒng)性法律規(guī)范文件,也不能像美國那樣將數(shù)據(jù)保護(hù)分散規(guī)定在多部法律中,只能通過小范圍立法的方式對數(shù)據(jù)規(guī)范利用進(jìn)行集中規(guī)定。

從立法緊迫性上來看,我國當(dāng)前最宜為民事主體創(chuàng)設(shè)數(shù)據(jù)被遺忘權(quán)和更改權(quán),并在未來逐漸加強(qiáng)對這兩種權(quán)利的保護(hù)。數(shù)據(jù)被遺忘權(quán)的創(chuàng)設(shè)使得主體有權(quán)決定是否刪除在網(wǎng)絡(luò)上公開過的個(gè)人信息,以及是否排除他人不合理的利用行為,進(jìn)而主動(dòng)界定和控制個(gè)人隱私邊界。數(shù)據(jù)被遺忘權(quán)具有積極性、主動(dòng)性,可與隱私權(quán)消極性、防御性相互契合,在互聯(lián)網(wǎng)時(shí)代共同為民事主體的數(shù)據(jù)保護(hù)筑起嚴(yán)密的防護(hù)墻。數(shù)據(jù)被遺忘權(quán)和隱私權(quán)并行規(guī)定的情況下,即使個(gè)人數(shù)據(jù)被網(wǎng)絡(luò)爬蟲爬取,民事主體一經(jīng)發(fā)現(xiàn)可立即通知數(shù)據(jù)使用者予以刪除,無需事后再提起隱私侵權(quán)訴訟。當(dāng)前正值民法典各分編編纂?yún)R總之際,可借此契機(jī)將數(shù)據(jù)被遺忘權(quán)與隱私權(quán)做一并規(guī)定,在隱私愈發(fā)彌足珍貴的網(wǎng)絡(luò)時(shí)代,以強(qiáng)化對個(gè)人信息和數(shù)據(jù)的保護(hù)。

當(dāng)今大數(shù)據(jù)挖掘技術(shù)的飛速發(fā)展和廉價(jià)存儲(chǔ)器的普遍運(yùn)用,使得個(gè)人數(shù)據(jù)極易被挖掘和存儲(chǔ)。正因如此,數(shù)據(jù)主體正以數(shù)字化的形式被永久記憶。當(dāng)記憶成為常態(tài),遺忘將變得更加稀缺和困難,為民事主體創(chuàng)設(shè)數(shù)據(jù)被遺忘權(quán)可有效改變數(shù)字“記憶”格局。設(shè)若個(gè)人數(shù)據(jù)不能被遺忘,數(shù)字化記憶于人類而言即是束縛和限制。因?yàn)橹黧w的“被數(shù)字化”會(huì)將其變成數(shù)據(jù)的表征,進(jìn)而貶低數(shù)據(jù)主體在決策中的主導(dǎo)作用,直至被淪為數(shù)據(jù)奴役的對象,而創(chuàng)設(shè)數(shù)據(jù)被遺忘權(quán)可及時(shí)消除算法數(shù)據(jù)對個(gè)體的數(shù)字化記憶,使個(gè)體不再受特定信息和錯(cuò)誤數(shù)據(jù)的裹挾,從而恢復(fù)個(gè)體主動(dòng)塑造自我認(rèn)同的原有局面。

值得注意的是,數(shù)據(jù)主體對數(shù)據(jù)的刪除可能會(huì)降低算法相關(guān)關(guān)系的強(qiáng)度,影響算法決策的準(zhǔn)確性。若要從根本上解決解決這一問題,還需要使民事主體對個(gè)人數(shù)據(jù)保有更改權(quán)。誠如上文所述,大數(shù)據(jù)是算法演進(jìn)的基礎(chǔ),數(shù)據(jù)過少或不準(zhǔn)確將會(huì)進(jìn)一步放大算法決策風(fēng)險(xiǎn),而民事主體對數(shù)據(jù)保有更改權(quán)可有效減少因主體行使被遺忘權(quán)造成的數(shù)據(jù)貧乏現(xiàn)象和提高算法決策的準(zhǔn)確性。另外,每收集一條數(shù)據(jù)均需征得相關(guān)民事主體的同意,在龐大的人口基數(shù)面前顯然不可能實(shí)施@,再加上各大互聯(lián)網(wǎng)企業(yè)對消費(fèi)者“不同意,禁止使用”條款的設(shè)置,使得數(shù)據(jù)收集更加困難,在“信息孤島”困境無法破解的當(dāng)下,若不允許為民事主體積極創(chuàng)設(shè)數(shù)據(jù)更改權(quán),就無法為完善算法模型提供海量精確數(shù)據(jù),并將數(shù)據(jù)主體從算法霸權(quán)中及時(shí)抽離出來,使其免受算法錯(cuò)誤決策的干擾。由此,適度的數(shù)據(jù)遺忘與合理的數(shù)據(jù)更改能夠保障算法決策的準(zhǔn)確性,降低算法決策風(fēng)險(xiǎn),同時(shí)也利于尊重?cái)?shù)據(jù)主體的主觀意愿和保障數(shù)據(jù)主體的隱私杈。

(二)設(shè)立算法安全委員會(huì)全面負(fù)責(zé)算法審查和解釋工作

歐美學(xué)者認(rèn)為,若以算法為切入點(diǎn)解決算法決策帶來的風(fēng)險(xiǎn)問題,需要披露計(jì)算機(jī)源代碼、增設(shè)算法解釋權(quán)和對算法進(jìn)行外部監(jiān)督。然而,這些學(xué)術(shù)建議若要在我國付諸實(shí)施,除需要進(jìn)行再次完善外,還需要設(shè)置專門機(jī)構(gòu)全面負(fù)責(zé)算法審查和解釋工作。一方面,與歐美相比,我國人工智能前沿理論總體上還處在“跟跑”階段,創(chuàng)新方面偏重技術(shù)應(yīng)用,基礎(chǔ)研究、技術(shù)生態(tài)、基礎(chǔ)平臺(tái)、標(biāo)準(zhǔn)規(guī)范、頂尖人才等方面還存有明顯差距。另一方面,我國每年大數(shù)據(jù)分析和人工智能人才缺口高達(dá)150萬的具體國情,固以及算法決策損害的群體性、廣泛性特征,決定了披露計(jì)算機(jī)源代碼和解釋算法等極具專業(yè)性、技術(shù)性的工作只能交由專業(yè)機(jī)構(gòu)和專業(yè)人員負(fù)責(zé)。算法安全委員會(huì)的設(shè)置,不僅能夠全面應(yīng)對計(jì)算機(jī)源代碼披露和算法解釋工作,還可全面承擔(dān)算法審查和監(jiān)督工作。

第一,設(shè)置算法安全委員有助于計(jì)算機(jī)源代碼披露工作的順利開展。誠如上文所述,披露計(jì)算機(jī)源代碼面臨著諸多問題,如計(jì)算機(jī)源代碼無法向非專業(yè)人員披露、披露過程中可能引發(fā)決策鉆營、商業(yè)秘密泄露、侵犯他人隱私等非法行為發(fā)生。正因如此,美國司法實(shí)務(wù)中有法院以保護(hù)商業(yè)秘密為由禁止對計(jì)算機(jī)源代碼予以披露。然而,這種因噎廢食的做法不宜為我國借鑒。因?yàn)榻刂聊壳斑€沒出現(xiàn)能夠完全解決算法決策風(fēng)險(xiǎn)的有效策略,披露計(jì)算機(jī)源代碼在一定程度上確實(shí)可以遏制算法侵權(quán)現(xiàn)象,假若僅以商業(yè)秘密為由一味拒絕,對解決現(xiàn)實(shí)問題并無助益。因此,我國若要解決計(jì)算機(jī)源代碼披露與后續(xù)算法侵權(quán)之間的矛盾問題,必須設(shè)置算法安全委員會(huì),由其代表受害群體接受設(shè)計(jì)者或使用者對計(jì)算機(jī)源代碼的解讀。如此不僅可免去非專業(yè)人員對算法認(rèn)知盲點(diǎn)的困擾,還可阻斷非相關(guān)人員對計(jì)算機(jī)源代碼的接觸,避免違法行為發(fā)生。

第二,創(chuàng)設(shè)算法安全委員會(huì)有助于解決算法解釋權(quán)問題。除高階算法不可預(yù)測和難易控制外,算法解釋權(quán)創(chuàng)設(shè)的障礙還在于算法解釋主體和解釋對象具有模糊性。我國若通過增設(shè)算法解釋權(quán)來降低算法決策風(fēng)險(xiǎn),必須先對算法“由誰解釋和向誰解釋”的問題予以明確。當(dāng)前來看,宜由算法設(shè)計(jì)者或使用者作為解釋主體,由算法安全委員會(huì)作為接受解釋的對象。首先,算法本質(zhì)上是由設(shè)計(jì)者或使用者提出的解決問題的一種策略,算法要解決什么問題、建模階段設(shè)置了哪些參數(shù)、使用了哪些替代變量、建模數(shù)據(jù)是否存有污染、極值等,只能由設(shè)計(jì)者和使用者進(jìn)行說明,其他人員無從知悉也不可能代其作出解釋。其次,算法侵權(quán)具有群體性、廣泛性,解釋者不可能向每位受害者進(jìn)行一一解釋,由算法安全委員會(huì)代表受害群體統(tǒng)一接受解釋,利于提高解釋工作效率和增強(qiáng)算法解釋的可行性。再次,算法解釋與驗(yàn)證涉及隨機(jī)性原理和零知識(shí)證明等專業(yè)知識(shí),由算法安全委員會(huì)代表受害群體統(tǒng)一參與算法驗(yàn)證過程,可及時(shí)維護(hù)受害者合法權(quán)益。

第三,創(chuàng)設(shè)算法安全委員會(huì)有助于對算法安全問題進(jìn)行集中審查和監(jiān)管。歐美學(xué)者認(rèn)為,算法審查工作既可由第三方進(jìn)行,亦可由行政機(jī)關(guān)負(fù)責(zé)??紤]到當(dāng)前我國民間組織力量培育不充分,算法同業(yè)審查組織嚴(yán)重奇缺的現(xiàn)狀,算法審查和監(jiān)督工作暫時(shí)宜由行政機(jī)構(gòu)——算法安全委員會(huì)集中負(fù)責(zé)。算法安全委員會(huì)既可以對算法進(jìn)行使用前批準(zhǔn)審查,還可對算法進(jìn)行定期審查,全面保障算法質(zhì)量安全,督促其健康運(yùn)行。另外,為應(yīng)對高階算法決策風(fēng)險(xiǎn)的不可預(yù)測性和難以控制性,靈活處理各類突發(fā)算法問題,可通過立法對算法安全委員會(huì)進(jìn)行廣泛、集中授權(quán)。如算法安全委員會(huì)可按照侵權(quán)獲利數(shù)額或營業(yè)額的一定比例對惡意利用算法進(jìn)行侵權(quán)的行為人實(shí)施行政處罰。由算法安全委員會(huì)全面負(fù)責(zé)算法審查和監(jiān)督工作,利于算法技術(shù)中立屬性的復(fù)歸,也有助于激發(fā)研發(fā)人員遵循倫理和技術(shù)規(guī)范的積極性。

(三)及時(shí)確立算法侵權(quán)責(zé)任機(jī)制以遏制算法侵權(quán)

人工智能時(shí)代,算法技術(shù)并非完全中立。誠如本文第一部分所述,部分群體可能在無形之中就成為算法“信息繭房”的包裹對象,以及算法歧視和隱私泄露的受害者。通過分析可知,算法雖是解決問題的一種策略,但其在運(yùn)用過程中會(huì)觸發(fā)各種侵權(quán)現(xiàn)象。目前來看,通過立法確立算法侵權(quán)責(zé)任十分必要。算法侵權(quán)責(zé)任確立時(shí)需要著重考慮以下幾方面:

第一,算法侵權(quán)相關(guān)關(guān)系的判定。司法實(shí)務(wù)中判定被侵權(quán)人所受損害與算法決策之間是否存有某種關(guān)系是算法侵權(quán)成立與否的前提。與一般侵權(quán)不同,算法侵權(quán)不適用必然性因果關(guān)系和蓋然性因果關(guān)系,算法決策所依據(jù)的是相關(guān)關(guān)系固。相關(guān)關(guān)系彈性空間較大,極值之間差異顯著,嚴(yán)重干擾了算法決策的準(zhǔn)確性。在算法模型中,變量之間相關(guān)系數(shù)的大小決定著相關(guān)關(guān)系的強(qiáng)弱,筆者認(rèn)為,只有確定變量之間存在較強(qiáng)的相關(guān)性,即變量之間相關(guān)系數(shù)達(dá)到0.8以上時(shí),才能確認(rèn)算法模型設(shè)計(jì)具有合理性,而后才可判定算法決策具有可信性。設(shè)若變量之間相關(guān)性較弱或不存在相關(guān)性,那么算法模型的設(shè)計(jì)就是失敗的,算法作出的決策就是錯(cuò)誤的,由此對第三人合法權(quán)益造成損害的,應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。

第二,算法侵權(quán)責(zé)任主體的確定。如果算法錯(cuò)誤決策給受害人造成了實(shí)際或精神損害,相關(guān)責(zé)任人應(yīng)當(dāng)承擔(dān)侵權(quán)損害賠償?shù)蓉?zé)任。具體言之,算法侵權(quán)發(fā)生之際,相關(guān)法律責(zé)任應(yīng)當(dāng)首先由算法最終使用者承擔(dān),算法設(shè)計(jì)者存有過錯(cuò)的,最終使用者有權(quán)向其追償。需要注意的是,對算法設(shè)計(jì)者有無過錯(cuò)的判定需要根據(jù)具體算法情形進(jìn)行區(qū)分:如果算法設(shè)計(jì)者未遵循相應(yīng)的技術(shù)操作規(guī)范,故意違反倫理道德甚或法律,主動(dòng)設(shè)置了算法中的不當(dāng)規(guī)則,對第三人合法權(quán)益造成損害的,應(yīng)當(dāng)承擔(dān)相應(yīng)的侵權(quán)責(zé)任。但如果算法基于自主學(xué)習(xí)主動(dòng)探索并形成自我規(guī)則的,設(shè)計(jì)者因?qū)λ惴L(fēng)險(xiǎn)控制程度較低,主觀惡性和過錯(cuò)較小,可以進(jìn)行免責(zé)。

第三,算法侵權(quán)責(zé)任方式的確定。算法決策也可能會(huì)出現(xiàn)錯(cuò)誤,給受害人帶來嚴(yán)重人身和財(cái)產(chǎn)損害。如優(yōu)步自動(dòng)駕駛汽車在舊金山擅闖紅燈,谷歌圖像處理軟件將黑人識(shí)別為大猩猩,馬薩諸塞州機(jī)動(dòng)車人臉識(shí)別算法將司機(jī)視作犯罪分子并將其駕照吊銷,微軟機(jī)器人Tay言語污穢并宣揚(yáng)種族至上論等。當(dāng)算法決策給受害人造成人身、財(cái)產(chǎn)損害時(shí),設(shè)計(jì)者或使用者應(yīng)當(dāng)及時(shí)停止使用,并積極采取警示和召回措施,主動(dòng)向受害人進(jìn)行經(jīng)濟(jì)損害賠償。對因算法決策錯(cuò)誤而遭受精神損害的受害人,設(shè)計(jì)者和使用者還應(yīng)當(dāng)進(jìn)行賠禮道歉,積極消除算法給其帶來的不良影響并為其恢復(fù)名譽(yù)。

由此,我國未來對算法侵權(quán)進(jìn)行規(guī)制時(shí),可進(jìn)行如下規(guī)定:設(shè)計(jì)者、使用者因過錯(cuò)造成算法缺陷,對他人造成損害的,設(shè)計(jì)者、使用者應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。被侵權(quán)人可向設(shè)計(jì)者、使用者請求損害賠償,使用者存有過錯(cuò)的,設(shè)計(jì)者賠償后可向使用者追償,反之亦然。因算法缺陷損害他人人身、財(cái)產(chǎn)安全的,被侵權(quán)人有權(quán)請求設(shè)計(jì)者、使用者承擔(dān)損害賠償、賠禮道歉、恢復(fù)名譽(yù)、消除影響等侵權(quán)責(zé)任。算法投入使用后發(fā)現(xiàn)存在缺陷的,設(shè)計(jì)者、使用者應(yīng)當(dāng)及時(shí)采取警示等補(bǔ)救措施。未及時(shí)采取補(bǔ)救措施或補(bǔ)救措施不力造成損害的,應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。明知算法存在缺陷仍然設(shè)計(jì)、使用,造成他人財(cái)產(chǎn)、精神健康嚴(yán)重?fù)p害的,被侵權(quán)人有權(quán)請求相應(yīng)的懲罰性賠償。學(xué)習(xí)算法自主作出決策致人損害的,設(shè)計(jì)者不存有過錯(cuò)的,可進(jìn)行免責(zé)。

猜你喜歡
源代碼規(guī)制決策
論外空活動(dòng)跨界損害責(zé)任的法律規(guī)制
基于TXL的源代碼插樁技術(shù)研究
做決策也有最佳時(shí)間段
中國社會(huì)組織自我規(guī)制的原因淺析
決策大數(shù)據(jù)
新常態(tài)經(jīng)濟(jì)規(guī)制及其制約機(jī)制完善
諸葛亮隆中決策
淺析我國行政規(guī)制的法制完善
保護(hù)好自己的“源代碼”
解密別克安全“源代碼”
临夏县| 长垣县| 新津县| 六枝特区| 巴塘县| 新民市| 邵阳市| 连城县| 子洲县| 四平市| 确山县| 兰坪| 侯马市| 蒙城县| 钦州市| 营山县| 茂名市| 从化市| 三明市| 江山市| 沁源县| 黄大仙区| 尼木县| 昭通市| 织金县| 恩施市| 宁海县| 合作市| 广德县| 康乐县| 岳阳县| 洪洞县| 盐源县| 庆元县| 泸定县| 巩留县| 彰武县| 福州市| 定远县| 行唐县| 府谷县|