国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

算法規(guī)制的迭代與革新

2019-02-04 03:22張凌寒
法學(xué)論壇 2019年2期
關(guān)鍵詞:決策責(zé)任法律

張凌寒

(東北師范大學(xué) 政法學(xué)院,吉林長(zhǎng)春 130021)

人工智能時(shí)代,“算法”從只有計(jì)算機(jī)專業(yè)人員熟悉的術(shù)語(yǔ),成為了人盡皆知的時(shí)代熱點(diǎn)。人們猛然發(fā)現(xiàn),算法已經(jīng)滲透到了社會(huì)生活的方方面面:Facebook的News Feed算法決定了大部分美國(guó)人的日常新聞閱讀內(nèi)容,廣泛普及的手機(jī)導(dǎo)航算法指引著路上的無(wú)數(shù)司機(jī),法官利用算法輔助對(duì)犯罪嫌疑人的量刑和假釋決定,[注]Northpoint公司開發(fā)的犯罪風(fēng)險(xiǎn)評(píng)估算法COMPAS對(duì)犯罪人的再犯風(fēng)險(xiǎn)進(jìn)行評(píng)估,并非出一個(gè)再犯風(fēng)險(xiǎn)分?jǐn)?shù),法官可以據(jù)此決定犯罪人所遭受的刑罰。Kirchner, Julia Angwin Surya Mattu, Jeff Larson, Lauren. 2016. ‘Machine Bias: There’s Software Used Across the Country to Predict Future Criminals. And It’s Biased Against Blacks.’ ProPublica. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing. 2017年11月1日訪問。政府公共部門利用算法進(jìn)行行政管理以提高工作效率降低支出……算法正在全方位地推動(dòng)著人類社會(huì)日常生活的運(yùn)轉(zhuǎn),改變著人類的社會(huì)面貌。

究竟什么是算法?算法本質(zhì)是以數(shù)據(jù)為填充,通過計(jì)算步驟得到具體結(jié)果。算法的運(yùn)算結(jié)果與算法設(shè)計(jì)、算法部署及應(yīng)用有關(guān)。算法看似是艱深的計(jì)算科學(xué)概念,實(shí)際上在計(jì)算機(jī)科學(xué)家看來(lái),通過一系列步驟,用輸入的數(shù)據(jù)得到輸出的結(jié)果就是算法的本質(zhì)。從這個(gè)意義上來(lái)說(shuō),一份祖?zhèn)鞯氖匙V,一項(xiàng)招生政策,甚至人早上起床后決定穿什么出門的思維過程,都是具備了輸入、輸出、明確性、有限性和有效性要素的算法。[注]參見[美]克里斯托弗·斯坦納:《算法帝國(guó)》,李筱瑩譯,人民郵電出版社2014年版,第21頁(yè)。

本文旨在討論應(yīng)對(duì)算法法律地位的變化,法律如何做出因應(yīng)性變革。早在30年前,美國(guó)華爾街的股票商就開始利用算法進(jìn)行證券交易以獲得更高利潤(rùn)。因此,有必要回溯對(duì)于算法造成的不利法律后果,當(dāng)時(shí)的法律是如何應(yīng)對(duì)規(guī)范的?近年來(lái)算法的技術(shù)發(fā)展和角色變化,又對(duì)既往的法律規(guī)制提出了哪些挑戰(zhàn)?法律應(yīng)如何回應(yīng)這些挑戰(zhàn)?

一、互聯(lián)網(wǎng)時(shí)代算法規(guī)制與其法律地位的迭代

人工智能時(shí)代,算法憑借其在數(shù)據(jù)驅(qū)動(dòng)下調(diào)配資源的力量,新晉為立法與理論關(guān)注的焦點(diǎn)。然而在此之前的互聯(lián)網(wǎng)時(shí)代,算法始終存在并發(fā)揮其作用。隨著算法技術(shù)發(fā)展與作用不斷更新,法律對(duì)算法引起的不利法律后果的調(diào)整規(guī)則也在不斷迭代。從算法規(guī)制迭代的梳理中,可以一窺算法法律地位的變遷。

(一)互聯(lián)網(wǎng)1.0時(shí)代:以傳統(tǒng)規(guī)則應(yīng)對(duì)技術(shù)化的算法

互聯(lián)網(wǎng)1.0時(shí)代具體指網(wǎng)絡(luò)發(fā)展的前期,互聯(lián)網(wǎng)的主要特征是“聯(lián)”,互聯(lián)網(wǎng)作為信息傳輸?shù)那?。此時(shí)算法技術(shù)剛剛開始利用互聯(lián)網(wǎng)傳輸?shù)臄?shù)據(jù)的速度優(yōu)勢(shì),改變傳統(tǒng)行業(yè)的運(yùn)行規(guī)則。如算法直接運(yùn)用于證券交易,以及利用自動(dòng)內(nèi)容分發(fā)算法影響互聯(lián)網(wǎng)信息傳輸。

1.規(guī)制原因:算法技術(shù)初現(xiàn)于法律視野。法律規(guī)制算法應(yīng)用的事件最早發(fā)生于1987年。華爾街的證券交易商托馬斯·彼得非構(gòu)造了分層算法用來(lái)模仿證券交易員的操作,分層算法包含了交易員在決策時(shí)要考慮的全部因素。因?yàn)殡娔X運(yùn)行算法、核實(shí)價(jià)格和執(zhí)行交易所用的時(shí)間要遠(yuǎn)遠(yuǎn)少于人為操作,彼得非獲得巨大的利潤(rùn)。[注]參見[美]克里斯托弗·斯坦納:《算法帝國(guó)》,李筱瑩譯,人民郵電出版社2014年版,第22頁(yè)。納斯達(dá)克交易所注意到了彼得非在當(dāng)時(shí)非同尋常的交易速度、穩(wěn)定性與利潤(rùn)率,因此派出調(diào)查員到其交易所,發(fā)現(xiàn)了裝有世界上第一臺(tái)全自動(dòng)算法交易系統(tǒng)的IBM電腦。這套算法交易系統(tǒng)自動(dòng)讀取納斯達(dá)克交易數(shù)據(jù),全權(quán)決定并執(zhí)行交易,再將交易單傳回納斯達(dá)克終端。

納斯達(dá)克交易所面臨的問題是:沒有相關(guān)規(guī)則的前提下,用算法代替人進(jìn)行交易是否合法?最終納斯達(dá)克交易所并未回答此問題,而是沿用原有規(guī)則要求必須通過鍵盤打字逐條輸入交易指令。但是彼得非用六天時(shí)間造出了自動(dòng)化打字手柄,由手柄敲擊鍵盤以保證交易速度,規(guī)避了此條規(guī)則。隨后二十年算法自動(dòng)交易系統(tǒng)逐漸統(tǒng)治了華爾街。

此時(shí)的法律并未將算法作為在設(shè)計(jì)法律制度時(shí)需要考量的對(duì)象,而是僅從技術(shù)的角度來(lái)討論算法技術(shù)應(yīng)用的行為是否合法。換句話說(shuō),此時(shí)算法還僅僅具有技術(shù)上的意義,而并不享有法律為其設(shè)定的規(guī)則。

2. 調(diào)整方式:沿用傳統(tǒng)嚴(yán)格責(zé)任制度。自動(dòng)算法交易系統(tǒng)的險(xiǎn)些夭折,充分顯示了互聯(lián)網(wǎng)1.0時(shí)代法律滯后性,法律規(guī)則并未作出因應(yīng)性調(diào)整,而是沿用該傳統(tǒng)規(guī)則。這也同樣體現(xiàn)在網(wǎng)絡(luò)服務(wù)提供者的侵權(quán)責(zé)任認(rèn)定規(guī)則的發(fā)展歷程中。網(wǎng)絡(luò)服務(wù)提供者用算法來(lái)處理、排序用戶上傳的海量信息,而其中可能包括侵害著作權(quán)的文件。網(wǎng)絡(luò)服務(wù)提供者沒有進(jìn)行人工逐一嚴(yán)格審查而被訴侵權(quán)。1995年美國(guó)立法主張對(duì)網(wǎng)絡(luò)服務(wù)提供者適用關(guān)于傳播媒介的版權(quán)法規(guī)定,承擔(dān)直接侵權(quán)的嚴(yán)格責(zé)任。德國(guó)法院早期的判決也認(rèn)為網(wǎng)絡(luò)服務(wù)提供者有義務(wù)確保任何侵犯版權(quán)的行為不會(huì)在他的服務(wù)器中發(fā)生。[注]參見王遷:《論“信息定位服務(wù)”提供者“間接侵權(quán)”行為的認(rèn)定》,載《知識(shí)產(chǎn)權(quán)》 2006年第16期。這一規(guī)定加重了網(wǎng)絡(luò)服務(wù)提供者的法律責(zé)任,遭到了強(qiáng)烈反對(duì)。

3.算法地位:僅具技術(shù)上的意義。在互聯(lián)網(wǎng)1.0時(shí)代,算法尚未得到法律的針對(duì)性調(diào)整。算法應(yīng)用與人的行為被法律合并評(píng)價(jià),即采用傳統(tǒng)規(guī)則來(lái)應(yīng)對(duì)算法的應(yīng)用。此時(shí)算法僅僅具有技術(shù)上的意義,而并不具有法律上的地位。這種規(guī)制模式帶來(lái)兩種截然相反的后果:其一,法律放任算法在某一領(lǐng)域的應(yīng)用,算法應(yīng)用在這一領(lǐng)域得到蓬勃發(fā)展進(jìn)而顛覆了整個(gè)行業(yè)。其二,法律用對(duì)行為人的評(píng)價(jià)機(jī)制來(lái)評(píng)價(jià)算法應(yīng)用,忽視了算法應(yīng)用的特點(diǎn),阻礙了技術(shù)和行業(yè)的發(fā)展。這些都為互聯(lián)網(wǎng)2.0時(shí)代法律的變遷提供了驅(qū)動(dòng)力。

(二)互聯(lián)網(wǎng)2.0時(shí)代的第一次迭代:產(chǎn)品化的算法與技術(shù)中立原則

互聯(lián)網(wǎng)2.0時(shí)代大約始于2000年,主要特征是“互”。網(wǎng)民之間、網(wǎng)絡(luò)與網(wǎng)民之間實(shí)現(xiàn)了“點(diǎn)對(duì)點(diǎn)”的互動(dòng),每個(gè)網(wǎng)民都可以成為信息來(lái)源,網(wǎng)站的角色從提供信息者變成了提供網(wǎng)絡(luò)服務(wù)者。互聯(lián)網(wǎng)2.0時(shí)代,法律逐步建立起一套完整的原則、規(guī)則與制度,來(lái)調(diào)整算法造成的不利法律后果。

1.升級(jí)原因:互聯(lián)網(wǎng)產(chǎn)業(yè)發(fā)展的抑制效應(yīng)。彼時(shí)由算法引發(fā)的不利法律后果的情況,多是網(wǎng)絡(luò)服務(wù)提供者提供算法(軟件或程序),供用戶或自身使用,造成對(duì)第三方的損害結(jié)果。此階段尤以版權(quán)侵權(quán)案例居多。WEB2. 0 技術(shù)的應(yīng)用和普及,使原來(lái)自上而下的網(wǎng)絡(luò)服務(wù)提供者集中控制主導(dǎo)的信息發(fā)布和傳播體系,逐漸轉(zhuǎn)變成了自下而上的由廣大用戶集體智能和力量主導(dǎo)的體系[注]參見胡泳:《眾聲喧嘩:網(wǎng)絡(luò)時(shí)代的個(gè)人表達(dá)與公共討論》,廣西師范大學(xué)出版社2008年版,第116頁(yè)。。經(jīng)過反復(fù)理論探討和實(shí)踐探索,立法者逐漸認(rèn)識(shí)到,原有的嚴(yán)格責(zé)任制度造成了互聯(lián)網(wǎng)產(chǎn)業(yè)發(fā)展的抑制效應(yīng),以DMCA為里程碑,美國(guó)法律對(duì)網(wǎng)絡(luò)服務(wù)提供者的著作權(quán)侵權(quán)責(zé)任規(guī)則原則上經(jīng)歷了“嚴(yán)格責(zé)任”到“過錯(cuò)責(zé)任”的轉(zhuǎn)變[注]參見王遷:《信息網(wǎng)絡(luò)傳播權(quán)保護(hù)條例中“避風(fēng)港”規(guī)則的效力》,載《法學(xué)》 2010年第6期。,以減輕網(wǎng)絡(luò)產(chǎn)業(yè)的負(fù)擔(dān)。

2.調(diào)整對(duì)象:算法設(shè)計(jì)。網(wǎng)絡(luò)服務(wù)提供者設(shè)計(jì)出算法后,或者提供給用戶使用,或者在自身網(wǎng)站上使用。算法如在這兩種情況下產(chǎn)生不利法律后果,法律均只評(píng)價(jià)網(wǎng)絡(luò)服務(wù)提供者在算法設(shè)計(jì)階段有無(wú)侵權(quán)的故意,如果沒有則無(wú)需承擔(dān)直接侵權(quán)責(zé)任。如2002年著名的Grokster案,被告公司開發(fā)的P2P軟件(算法)被用戶使用從事版權(quán)侵權(quán)活動(dòng),多家唱片公司起訴被告指控其提供軟件并獲利,應(yīng)承擔(dān)侵權(quán)責(zé)任[注]參見Metro-Goldwyn-Mayer Studios, Inc. v. Grokster, Ltd., 545U. S. 913 at948 (2005).。但法院認(rèn)為,P2P軟件具有“實(shí)質(zhì)性非侵權(quán)用途”,不能推定兩被告提供軟件的目的是幫助用戶進(jìn)行版權(quán)侵權(quán),因此不承擔(dān)侵權(quán)責(zé)任。

即使是網(wǎng)絡(luò)服務(wù)提供者自身使用算法造成了不利法律后果,法律也傾向于以算法設(shè)計(jì)時(shí)的主觀過錯(cuò)狀態(tài)為標(biāo)準(zhǔn),判斷其是否構(gòu)成侵權(quán)。如2006年百代公司訴阿里巴巴案中,涉訴的算法應(yīng)用為搜索蜘蛛程序“自動(dòng)在索引數(shù)據(jù)庫(kù)中進(jìn)行檢索及邏輯運(yùn)算,以鏈接列表的方式給出搜索結(jié)果”[注]見北京市高級(jí)人民法院《(2007)高民初字第 1201號(hào)民事判決書》。。阿里巴巴辯稱其只是提供了搜索和鏈接服務(wù),第三方網(wǎng)站提供歌曲,因此自己并無(wú)侵權(quán)故意。據(jù)此,法院認(rèn)定被告涉案行為不構(gòu)成對(duì)信息網(wǎng)絡(luò)傳播權(quán)的直接侵權(quán)。案件經(jīng)二審后維持原判。

以上案例均顯示,在互聯(lián)網(wǎng)2.0階段,法院將算法設(shè)計(jì)作為調(diào)整對(duì)象。從時(shí)間節(jié)點(diǎn)上,法院只評(píng)價(jià)算法設(shè)計(jì)時(shí)是否具有侵權(quán)的故意;從因果關(guān)系上,只考察算法設(shè)計(jì)是否造成了損害結(jié)果,而不將算法應(yīng)用造成損害結(jié)果作為判斷要件。

3.調(diào)整方式:技術(shù)中立與間接責(zé)任。互聯(lián)網(wǎng)2.0時(shí)代,秉承既往索尼案確立的技術(shù)中立原則,逐步發(fā)展出間接侵權(quán)責(zé)任制度,以減輕網(wǎng)絡(luò)服務(wù)提供者負(fù)擔(dān)。技術(shù)中立的規(guī)則得到了國(guó)際廣泛認(rèn)同,在提供深層鏈接[注]如美國(guó)、澳大利亞等國(guó)版權(quán)法學(xué)界與實(shí)務(wù)界均認(rèn)為,提供指向侵權(quán)文件站點(diǎn)的鏈接并非“直接侵權(quán)”。有關(guān)搜索鏈接行為法律性質(zhì)的認(rèn)定對(duì)于信息定位鏈接行為不是“網(wǎng)絡(luò)傳播行為”、不構(gòu)成“直接侵權(quán)”的結(jié)論,在國(guó)際上是高度一致的。參見梁志文:《論版權(quán)法之間接侵權(quán)責(zé)任》,載《法學(xué)論壇》 2006年第5期。,提供信息定位服務(wù)[注]“信息定位服務(wù)”提供者一般有監(jiān)視被鏈接信息內(nèi)容的能力。因此,在早期的網(wǎng)絡(luò)侵權(quán)訴訟中, 法院通常會(huì)基于“信息定位服務(wù)”提供者沒有發(fā)現(xiàn)并及時(shí)制止他人利用自己的服務(wù)實(shí)施侵權(quán)而推定其至少存在過錯(cuò),應(yīng)當(dāng)承擔(dān)侵權(quán)法律責(zé)任。但隨著信息網(wǎng)絡(luò)技術(shù)的飛速發(fā)展, 法院這一“過錯(cuò)推定”的做法極大地影響了網(wǎng)絡(luò)服務(wù)業(yè)的發(fā)展。法澄清適用于網(wǎng)絡(luò)環(huán)境的“幫助侵權(quán)”規(guī)則。美國(guó)《千禧年數(shù)字版權(quán)法》以及歐盟《電子商務(wù)指令》均一致規(guī)定:網(wǎng)絡(luò)服務(wù)商沒有監(jiān)視網(wǎng)絡(luò)、尋找侵權(quán)活動(dòng)的義務(wù)。對(duì)此, 盡管我國(guó)尚未有法律明確承認(rèn)這一規(guī)則,但相關(guān)判例卻認(rèn)可了該規(guī)則。,空白搜索框[注]“空白搜索框”的搜索模式是,“信息定位服務(wù)商”通過設(shè)置搜索框向用戶提供其所選定的關(guān)鍵詞的搜索鏈接。在這種搜索模式下,搜索引擎按照用戶輸入的關(guān)鍵詞進(jìn)行自動(dòng)查找并列出指向第三方網(wǎng)站或其中文件的鏈接,用戶選擇輸入什么樣的關(guān)鍵詞直接決定了其搜索信息的精確性,而不能決定該搜索出的信息是否侵權(quán)。換句話說(shuō),它可以搜索出任何內(nèi)容,搜索出的信息既可能是侵權(quán)的,也可能是公有領(lǐng)域的信息,或者經(jīng)權(quán)利人許可傳播的不侵權(quán)的內(nèi)容。因此,從這種意義上說(shuō),“空白搜索框”是一個(gè)中立的技術(shù)工具,具有“實(shí)質(zhì)性非侵權(quán)用途”。等多項(xiàng)技術(shù)的應(yīng)用是否構(gòu)成侵權(quán)時(shí),均會(huì)引起一波理論探討熱潮,但最后各國(guó)一般均認(rèn)為這些算法應(yīng)用并不構(gòu)成網(wǎng)絡(luò)服務(wù)提供者的直接侵權(quán)。正如學(xué)者指出,如果將一項(xiàng)特定技術(shù)作為版權(quán)立法的依據(jù),由此產(chǎn)生的規(guī)則很難經(jīng)受技術(shù)發(fā)展的考驗(yàn),因此技術(shù)中立原則是立法所必須遵循的原則。[注]參見王遷:《“索尼案”二十年祭——回顧、反思與啟示》,載《科技與法律》2004年第4期。

法律責(zé)任的設(shè)置則根據(jù)算法設(shè)計(jì)時(shí)主觀過錯(cuò)不同區(qū)分為直接侵權(quán)與間接侵權(quán)。[注]參見梅夏英、劉明:《網(wǎng)絡(luò)侵權(quán)歸責(zé)的現(xiàn)實(shí)制約及價(jià)值考量——以侵權(quán)責(zé)任法第36條為切入點(diǎn)》,載《法律科學(xué)(西北政法大學(xué)學(xué)報(bào))》2013年第2期。美國(guó)《千禧年數(shù)字版權(quán)法》以及歐盟《電子商務(wù)指令》也均一致認(rèn)定“幫助侵權(quán)”規(guī)則的前提:網(wǎng)絡(luò)服務(wù)商沒有監(jiān)視網(wǎng)絡(luò)、尋找侵權(quán)活動(dòng)的義務(wù),此規(guī)則在我國(guó)也得到了相關(guān)判例的認(rèn)可。這充分體現(xiàn),算法運(yùn)行后,網(wǎng)絡(luò)服務(wù)提供者只承擔(dān)運(yùn)行環(huán)境的安全保障義務(wù)。當(dāng)算法應(yīng)用造成了不利后果時(shí),網(wǎng)絡(luò)服務(wù)提供者只承擔(dān)未盡到注意義務(wù)的間接侵權(quán)責(zé)任。

4.算法地位:產(chǎn)品化的算法。將算法設(shè)計(jì)作為調(diào)整對(duì)象,確立技術(shù)中立原則和間接責(zé)任體系,體現(xiàn)了算法作為技術(shù)產(chǎn)品的法律地位。算法一旦“生產(chǎn)完畢”,其部署和應(yīng)用即不再對(duì)侵權(quán)行為的認(rèn)定產(chǎn)生直接影響。如此,一方面能夠鼓勵(lì)技術(shù)發(fā)展;另一方面能減輕網(wǎng)絡(luò)服務(wù)提供者為算法應(yīng)用和部署承擔(dān)的責(zé)任,促進(jìn)互聯(lián)網(wǎng)產(chǎn)業(yè)的發(fā)展??v觀互聯(lián)網(wǎng)2.0時(shí)期的諸多知識(shí)產(chǎn)權(quán)領(lǐng)域的經(jīng)典案例,基調(diào)是各國(guó)立法者和司法者疲于應(yīng)對(duì)層出不窮的最新算法技術(shù)。

(三)互聯(lián)網(wǎng)2.0時(shí)代第二次迭代:工具化的算法與平臺(tái)責(zé)任擴(kuò)張

2008年之后,互聯(lián)網(wǎng)2.0進(jìn)入自己的平臺(tái)時(shí)代,大型網(wǎng)絡(luò)服務(wù)提供者演化為網(wǎng)絡(luò)平臺(tái)逐漸崛起[注]互聯(lián)網(wǎng)平臺(tái),也被稱為互聯(lián)網(wǎng)服務(wù)提供商。相關(guān)研究可參見周漢華:《論互聯(lián)網(wǎng)法》,載《中國(guó)法學(xué)》2015年第3期。。如果說(shuō)互聯(lián)網(wǎng)時(shí)代的關(guān)鍵詞是“互”,平臺(tái)時(shí)代的關(guān)鍵詞則是“融”。網(wǎng)絡(luò)平臺(tái)逐漸超越了互聯(lián)網(wǎng)服務(wù)提供者的角色,成為了網(wǎng)絡(luò)空間規(guī)則的制定者和執(zhí)行者。算法實(shí)質(zhì)上主宰了網(wǎng)絡(luò)空間日常運(yùn)營(yíng),其角色和地位的變化催生了一系列理論與實(shí)踐的變化。

1.升級(jí)原因:平臺(tái)私權(quán)力的崛起?;ヂ?lián)網(wǎng)平臺(tái)經(jīng)濟(jì)大規(guī)模崛起, Facebook、Twitter、阿里巴巴、騰訊等一系列大型互聯(lián)網(wǎng)公司快速崛起,社交類平臺(tái)和電商平臺(tái)迅速升溫。平臺(tái)影響日益深遠(yuǎn),網(wǎng)絡(luò)空間成為了虛擬場(chǎng)域。在此虛擬場(chǎng)域中,算法實(shí)際上承擔(dān)了網(wǎng)絡(luò)空間的日常治理。而公權(quán)力此時(shí)由于技術(shù)力量和手段的限制,疲于應(yīng)對(duì)網(wǎng)絡(luò)空間監(jiān)管。對(duì)網(wǎng)絡(luò)交易中的違法行為或自媒體中的失范言論,網(wǎng)絡(luò)平臺(tái)擁有最便利的發(fā)現(xiàn)和限制能力,它是成本最低的違法行為的控制者。為加強(qiáng)對(duì)網(wǎng)絡(luò)空間的監(jiān)管與治理,實(shí)踐中立法與司法逐漸摒棄了算法作為“技術(shù)產(chǎn)品”的中立性法律地位,通過加強(qiáng)平臺(tái)與算法之間的關(guān)系,要求平臺(tái)承擔(dān)法律責(zé)任。

2. 調(diào)整對(duì)象:算法設(shè)計(jì)與算法部署應(yīng)用。在網(wǎng)絡(luò)平臺(tái)時(shí)代,法律的調(diào)整對(duì)象除了算法設(shè)計(jì),也擴(kuò)張至平臺(tái)對(duì)于算法的部署和應(yīng)用。當(dāng)算法不利法律后果發(fā)生后,法律不再秉持技術(shù)中立理念。除了考察算法設(shè)計(jì)的行為外,也要求平臺(tái)對(duì)算法部署和應(yīng)用的不當(dāng)承擔(dān)法律責(zé)任。如2015 年,國(guó)家工商總局發(fā)布 《關(guān)于對(duì)阿里巴巴集團(tuán)進(jìn)行行政指導(dǎo)工作情況的白皮書》(以下簡(jiǎn)稱《白皮書》)[注]轉(zhuǎn)引自趙鵬:《私人審查的界限——論網(wǎng)絡(luò)交易平臺(tái)對(duì)用戶內(nèi)容的行政責(zé)任》,載《清華法學(xué)》2016年第6期。,直指阿里巴巴縱容平臺(tái)用戶銷售侵權(quán)和違禁商品。雖然未直接啟動(dòng)行政處罰,這一行為仍然引發(fā)阿里巴巴市值在四天內(nèi)蒸發(fā)367. 53 億美元,并導(dǎo)致針對(duì)阿里巴巴的證券欺詐訴訟等連鎖反應(yīng)。國(guó)家工商總局在《白皮書》中指出阿里存在“涉嫌在明知、應(yīng)知、故意或過失等情況下為無(wú)照經(jīng)營(yíng)、商標(biāo)侵權(quán)、虛假宣傳、傳銷、消費(fèi)侵權(quán)等行為提供便利、實(shí)施條件”,而這種便利和幫助是由阿里部署算法提供的。自動(dòng)分類、提供搜索工具算法,幫助消費(fèi)者搜索相關(guān)產(chǎn)品和服務(wù),客觀上幫助了違法行為的實(shí)施[注]參見趙鵬:《私人審查的界限——論網(wǎng)絡(luò)交易平臺(tái)對(duì)用戶內(nèi)容的行政責(zé)任》,載《清華法學(xué)》2016年第6期。。

無(wú)獨(dú)有偶,國(guó)外的學(xué)者也不再堅(jiān)持技術(shù)中立,而是認(rèn)為平臺(tái)通過算法的部署,對(duì)交易產(chǎn)生了重大影響。“網(wǎng)絡(luò)交易平臺(tái)的角色已經(jīng)遠(yuǎn)非如單純信息傳送通道一樣消極和中立,它們?cè)谏唐泛头?wù)展示、交易規(guī)則安排、商品和服務(wù)評(píng)價(jià)、商戶信用評(píng)價(jià)等方面均扮演了非常積極的角色。這些積極的角色增加了用戶已有內(nèi)容的價(jià)值并在很大程度上塑造了交易秩序”。[注]參見Hogan B.The presentation of self in the age of social media: Distinguishing performances and exhibitions online. Bulletin of Science, Technology & Society, 2010, 30(6): 377-386.

3. 責(zé)任方式:平臺(tái)責(zé)任擴(kuò)張。對(duì)于算法造成的不利后果,在沿用網(wǎng)絡(luò)服務(wù)提供者的間接侵權(quán)責(zé)任制度外,世界各國(guó)均加強(qiáng)了對(duì)網(wǎng)絡(luò)平臺(tái)的責(zé)任,以調(diào)整平臺(tái)對(duì)算法的部署和應(yīng)用。從時(shí)間節(jié)點(diǎn)上,平臺(tái)承擔(dān)法律責(zé)任從“設(shè)計(jì)開發(fā)時(shí)”延伸至算法應(yīng)用產(chǎn)生損害結(jié)果時(shí)。從因果關(guān)系上,不再局限于算法設(shè)計(jì)與損害結(jié)果的因果關(guān)系,而是擴(kuò)展至算法部署和應(yīng)用與損害結(jié)果是否存在因果關(guān)系。

除了世界各國(guó)要求電商平臺(tái)就不當(dāng)?shù)乃惴ú渴鸷蛻?yīng)用造成的違法交易承擔(dān)法律責(zé)任外,2016 年以來(lái)很多國(guó)家開始要求社交媒體平臺(tái)主動(dòng)承擔(dān)監(jiān)控義務(wù),對(duì)用戶上傳的恐怖、色情、仇恨等非法內(nèi)容加強(qiáng)監(jiān)管并承擔(dān)法律責(zé)任。[注]為加強(qiáng)網(wǎng)絡(luò)言論管理,德國(guó)聯(lián)邦議會(huì)周五通過了新的網(wǎng)絡(luò)管理法,新法將于 10 月正式實(shí)施。在此法律下,F(xiàn)acebook 等社交媒體未能 在 24 小時(shí)內(nèi)刪除“顯而易見的非法內(nèi)容”——包括仇恨性言論、誹謗及煽動(dòng)暴力等。http://finance.sina.com.cn/roll/2017-07-01/doc- ifyhryex5667798.shtml 2017 年 7 月 15 日訪問。印尼要求社交媒體關(guān)閉宣揚(yáng)極端言論的賬戶。印尼通信部長(zhǎng)警告社交媒體不關(guān)閉激進(jìn)內(nèi)容賬戶將被阻止共享 http://finance.sina.com.cn/roll/2017-07-01/doc-ifyhryex5667798.shtml 2017 年 7 月 12 日訪問。我國(guó)國(guó)家網(wǎng)信辦明確提出,采取“強(qiáng)雙責(zé)”的方針——強(qiáng)化網(wǎng)絡(luò)平臺(tái)的主體責(zé)任與社會(huì)責(zé)任。[注]參見《強(qiáng)化網(wǎng)站主體責(zé)任正當(dāng)時(shí)》,中華人民共和國(guó)互聯(lián)網(wǎng)信息辦公室官方網(wǎng)站,http://www.cac.gov.cn/2016- 12/22/c_1120166441.htm 2017 年 7 月 15 日訪問。平臺(tái)責(zé)任制度在世界范圍內(nèi)廣泛應(yīng)用。

4. 算法地位:工具化的算法?;ヂ?lián)網(wǎng)2.0時(shí)代,網(wǎng)絡(luò)平臺(tái)不僅要對(duì)算法的設(shè)計(jì)負(fù)起責(zé)任,同樣也要對(duì)算法在部署和應(yīng)用中產(chǎn)生的不利法律后果承擔(dān)責(zé)任。此種規(guī)則的設(shè)置隱含了將算法作為網(wǎng)絡(luò)平臺(tái)工具的假設(shè)。換句話說(shuō),此種法律規(guī)則默認(rèn)平臺(tái)不僅能夠控制算法設(shè)計(jì),也能夠控制算法的應(yīng)用過程和結(jié)果。以算法部署和應(yīng)用作為調(diào)整對(duì)象,設(shè)置網(wǎng)絡(luò)平臺(tái)責(zé)任,是公權(quán)力治理網(wǎng)絡(luò)空間力有不逮的無(wú)奈之舉,也是對(duì)網(wǎng)絡(luò)平臺(tái)技術(shù)權(quán)力擴(kuò)張的因應(yīng)性變革。但是,要求平臺(tái)為算法部署和應(yīng)用的不利后果承擔(dān)責(zé)任,可能存在以下隱患:(1)沒有評(píng)判算法部署和應(yīng)用是否合理的法定標(biāo)準(zhǔn),平臺(tái)責(zé)任范疇模糊,往往以違法行為數(shù)量巨大來(lái)論證平臺(tái)過錯(cuò)。(2)僅僅設(shè)置平臺(tái)責(zé)任無(wú)法涵蓋算法的全部應(yīng)用范圍。在社會(huì)公共管理中算法也存在廣泛應(yīng)用,這類部署和應(yīng)用的不當(dāng)平臺(tái)責(zé)任無(wú)法覆蓋。

縱觀算法規(guī)制的歷史,算法的法律地位隨著互聯(lián)網(wǎng)的時(shí)代變遷和技術(shù)的發(fā)展而進(jìn)化。從僅具有技術(shù)意義的算法到具有法律意義的算法,法律對(duì)于算法的地位功能假設(shè)也從產(chǎn)品化的算法迭代為工具化的算法。相應(yīng)地,從沿用傳統(tǒng)規(guī)則到技術(shù)中立原則,再到平臺(tái)責(zé)任的加強(qiáng)與擴(kuò)張,法律規(guī)則也應(yīng)對(duì)算法功能地位的變化做出因應(yīng)性的調(diào)整。隨著智能時(shí)代的來(lái)臨,大數(shù)據(jù)和深度學(xué)習(xí)算法技術(shù)的進(jìn)一步發(fā)展,原有的法律規(guī)則已無(wú)法應(yīng)對(duì)算法地位功能的進(jìn)一步發(fā)展,新的算法規(guī)制在算法技術(shù)的發(fā)展下呼之欲出。

二、人工智能時(shí)代算法規(guī)制的新問題與路徑

人工智能時(shí)代已如浪潮般襲來(lái),各類平臺(tái)在利用算法不斷智能化升級(jí),融入性進(jìn)化。依據(jù)“奧康剃刀”(如無(wú)必要,勿增實(shí)體)原則,對(duì)算法規(guī)制的擴(kuò)用的思路是充分保留原有制度,同時(shí)創(chuàng)制必要制度,以應(yīng)對(duì)算法技術(shù)與作用的演進(jìn)。

(一)智能時(shí)代算法的演進(jìn):本體化的算法

智能時(shí)代,隨著大數(shù)據(jù)和深度學(xué)習(xí)技術(shù)的發(fā)展,以及算法在互聯(lián)網(wǎng)平臺(tái)和社會(huì)治理中的廣泛應(yīng)用,法律應(yīng)調(diào)整的對(duì)象發(fā)生了變化,算法的法律地位進(jìn)一步演進(jìn)。

1. 調(diào)整對(duì)象的增加:算法自主決策。在互聯(lián)網(wǎng)時(shí)代工具化算法的情況下,算法經(jīng)由人的設(shè)計(jì)開發(fā)、部署應(yīng)用行為發(fā)揮效力。例如,在電商平臺(tái)上,對(duì)搜索算法和推薦商品算法的設(shè)計(jì)開發(fā)、部署應(yīng)用兩個(gè)步驟,決定了用戶可以收到怎樣的商品推薦結(jié)果。醫(yī)院委托科技企業(yè)進(jìn)行算法(門診系統(tǒng))開發(fā),進(jìn)而使用算法,以幫助提高效率。開發(fā)者和使用者對(duì)算法都具有較高的控制力,能夠預(yù)測(cè)算法產(chǎn)生的后果并對(duì)算法決策結(jié)果給出解釋。相應(yīng)的,法律對(duì)于算法造成的不利法律后果,評(píng)價(jià)對(duì)象為在人對(duì)算法的開發(fā)或部署行為中是否存在過錯(cuò),以確定算法開發(fā)者或部署者的法律責(zé)任。

隨著大數(shù)據(jù)算法的技術(shù)迭代以及部署和運(yùn)用的平臺(tái)化,基于數(shù)據(jù)的技術(shù)運(yùn)算迅速成長(zhǎng)為一種擁有資源配置的新興社會(huì)力量。[注]參見Diakopoulos, N. Algorithmic accountability: journalistic investigation of computational power structures. Digit. Journal. 3(3), 398-415 (2015) .算法逐漸脫離了純粹的工具性角色,而有了自主性和認(rèn)知特征,甚至具備了自我學(xué)習(xí)的能力。這使得算法對(duì)現(xiàn)實(shí)社會(huì)和個(gè)人發(fā)生效力的流程,在算法設(shè)計(jì)(指設(shè)計(jì)者進(jìn)行初始編碼,進(jìn)行開發(fā)算法的訓(xùn)練數(shù)據(jù)和管理的行為)、算法應(yīng)用和部署(指網(wǎng)絡(luò)平臺(tái)之部署應(yīng)用算法的行為)之外,增加了一步,即算法本身自主決策。換句話說(shuō),算法作為決策者,其決策原因和推理過程對(duì)于人類處于黑箱之中。智能算法的自主決策,使得算法從提高效率的“工具”上升為“決策者”。[注]Ben Wagner, Efficiency vs. Accountability? - Algorithms, Big Data and Public Administration.https://cihr.eu/efficiency-vs-accountability-algorithms-big-data-and-public-administration/ 2017年12月14日訪問。2017年的Loomis案件中,被告人認(rèn)為法院使用的COMPASS算法對(duì)其進(jìn)行的犯罪風(fēng)險(xiǎn)評(píng)估包含種族歧視,起訴要求評(píng)估算法。[注]2016年,一名叫 Eric L.Loomis的被告人被判處了 6 年有期徒刑,部分原因是COMPAS認(rèn)定他為“高風(fēng)險(xiǎn)”。Loomis認(rèn)為法官對(duì)量刑算法的依賴侵害了他的法定訴訟權(quán)益。他提出審查COMPAS算法的請(qǐng)求,被威斯康辛州立法院駁回,提交給美國(guó)最高法院后也于2017年6月宣告訴訟失敗 。參見《紅星專訪美國(guó)機(jī)器判案法院:機(jī)器說(shuō)你有罪,你果然有罪》,http://3g.163.com/news/article/CK3OKBQF0514ADND.html.對(duì)被告發(fā)生法律效力的算法則經(jīng)過了公司的算法開發(fā)行為、法院算法的部署行為、以及算法自動(dòng)決策三個(gè)層次。其分離算法的黑箱使得算法決策過程和因素不被人所理解,而算法決策作為單獨(dú)的步驟,與人的行為相分離。

2.算法地位的演進(jìn):本體化的算法。算法的法律地位隨著算法自主決策能力越來(lái)越強(qiáng)而演進(jìn),算法已經(jīng)從平臺(tái)的工具演變?yōu)榫哂凶灾鳑Q策能力的“決策者”,成為本體化的算法。本體化的算法的效力,體現(xiàn)在算法的自主決策一方面不可被人類完全理解和解釋,另一方面具有直接的法律效力。例如,淘寶的算法對(duì)用戶的支付寶賬戶采取取消收款、資金止付等強(qiáng)制措施,用戶推翻其決策要舉證其決定錯(cuò)誤[注]淘寶自動(dòng)化決策對(duì)用戶違約的認(rèn)定(6.1),“6.1淘寶可在淘寶平臺(tái)規(guī)則中約定違約認(rèn)定的程序和標(biāo)準(zhǔn)。如:淘寶可依據(jù)您的用戶數(shù)據(jù)與海量用戶數(shù)據(jù)的關(guān)系來(lái)認(rèn)定您是否構(gòu)成違約;您有義務(wù)對(duì)您的數(shù)據(jù)異常現(xiàn)象進(jìn)行充分舉證和合理解釋,否則將被認(rèn)定為違約?!币姟短詫毱脚_(tái)服務(wù)協(xié)議全文(2016年10月版)》,http://b2b.toocle.com/detail--6361764.html,2017年11月23日訪問。。甚至算法直接扮演了執(zhí)法者的決策角色,如美國(guó)聯(lián)邦尋親處的算法錯(cuò)誤地將56歲的瓦爾特·福爾摩認(rèn)定為“拒付撫養(yǎng)費(fèi)的父母”,而直接給其開出了定額20.6萬(wàn)美元的撫養(yǎng)費(fèi)罰單。[注]參見[美]盧克·多梅爾:《算法時(shí)代:新經(jīng)濟(jì)的新引擎》,胡小銳、鐘毅譯,中信出版社2016年版,第87頁(yè)。算法與人的行為的分離,其法律意蘊(yùn)在于人的行為與引發(fā)的責(zé)任的分離,[注]參見Gillespie, T. Algorithms(digital keywords).(2014) available at http://culturedigitally.org/2014/06/algorithm-draft-digitalkeyword/。傳統(tǒng)的人的行為——責(zé)任的邏輯鏈條被算法的自動(dòng)決策切斷。

同時(shí),算法借由私營(yíng)平臺(tái)和社會(huì)公共部門,深度嵌入社會(huì)運(yùn)行,實(shí)現(xiàn)了無(wú)孔不入的構(gòu)建、干預(yù)、引導(dǎo)和改造。算法在接管人類讓渡的決策權(quán)。有學(xué)者指出,私營(yíng)企業(yè)和政府公共部門采用算法和大數(shù)據(jù)做出的自動(dòng)決策,使得數(shù)百萬(wàn)人無(wú)法獲得保險(xiǎn)、貸款、出租房屋等一系列服務(wù)。然而,算法不公開、不接受質(zhì)詢,不提供解釋、不進(jìn)行救濟(jì),相對(duì)人無(wú)從知曉決策的原因,更遑論“改正”的機(jī)會(huì),這種情況被學(xué)者稱為“算法暴政”。[注]參見Lepri B, Staiano J, Sangokoya D:The Tyranny of Data? The Bright and Dark Sides of Data-Driven Decision-Making for Social Good, Transparent Data Mining for Big and Small Data. Springer International Publishing, 2017: 3-24.

(二)智能時(shí)代算法規(guī)制的新問題

本體化算法的不可解釋性對(duì)現(xiàn)有的法律責(zé)任體系適用困難,本體化算法也對(duì)社會(huì)的結(jié)構(gòu)性嵌入對(duì)傳統(tǒng)的場(chǎng)景化規(guī)制提出了挑戰(zhàn)。這些使得原有的民事間接責(zé)任加平臺(tái)責(zé)任模式不敷適用,并造成了平臺(tái)運(yùn)行與公眾利益的隔離,這些問題驅(qū)動(dòng)算法規(guī)制再次迭代。

1. 算法的不可解釋性對(duì)現(xiàn)有法律責(zé)任的逃逸。在現(xiàn)行的法律責(zé)任制度,平臺(tái)公司往往主張拒絕對(duì)算法設(shè)計(jì)、部署和應(yīng)用的不當(dāng)承擔(dān)責(zé)任。原因在于:(1)平臺(tái)可以主張用戶通過平臺(tái)服務(wù)協(xié)議對(duì)面臨的算法自動(dòng)化決策知情同意,[注]參見胡凌:《人工智能視閾下的網(wǎng)絡(luò)法核心問題》,載《中國(guó)法律評(píng)論》2018年第2期。因此基于算法對(duì)用戶造成的損害無(wú)需承擔(dān)責(zé)任。如淘寶網(wǎng)的用戶協(xié)議要求用戶接受自動(dòng)化決策對(duì)于違約行為、支付風(fēng)險(xiǎn)的判定結(jié)果。“淘寶可依據(jù)您的用戶數(shù)據(jù)與海量用戶數(shù)據(jù)的關(guān)系來(lái)認(rèn)定您是否構(gòu)成違約:您有義務(wù)對(duì)您的數(shù)據(jù)異?,F(xiàn)象進(jìn)行充分舉證和合理解釋,否則將被認(rèn)定為違約”。[注]淘寶自動(dòng)化決策對(duì)用戶違約的認(rèn)定(6.1),“6.1淘寶可在淘寶平臺(tái)規(guī)則中約定違約認(rèn)定的程序和標(biāo)準(zhǔn)。如:淘寶可依據(jù)您的用戶數(shù)據(jù)與海量用戶數(shù)據(jù)的關(guān)系來(lái)認(rèn)定您是否構(gòu)成違約;您有義務(wù)對(duì)您的數(shù)據(jù)異?,F(xiàn)象進(jìn)行充分舉證和合理解釋,否則將被認(rèn)定為違約?!币姟短詫毱脚_(tái)服務(wù)協(xié)議全文(2016年10月版)》,http://b2b.toocle.com/detail--6361764.html,2017年11月23日訪問。(2)算法決策的使用者一般主張算法錯(cuò)誤為客觀“技術(shù)錯(cuò)誤”而非主觀錯(cuò)誤,因此無(wú)需承擔(dān)侵權(quán)責(zé)任。而以普通民眾的技術(shù)能力證明其使用的算法確實(shí)存在嵌入的偏見和數(shù)據(jù)的濫用,極不現(xiàn)實(shí)。自動(dòng)化決策實(shí)際上是根據(jù)數(shù)據(jù)得出的一個(gè)運(yùn)算結(jié)果,包括平臺(tái)公司也只能看到輸入的數(shù)據(jù)以及得出的結(jié)果,而對(duì)中間的運(yùn)算過程則一概不甚明了。(3)用戶如果請(qǐng)求平臺(tái)提供自動(dòng)化決策的解釋,自動(dòng)化決策的算法的平臺(tái)公司都可以商業(yè)秘密為抗辯理由拒絕公開決策的內(nèi)容和理由。即使在支持?jǐn)?shù)據(jù)控制者對(duì)用戶有一定信息披露義務(wù)的歐洲,適用于自動(dòng)化決策的算法訪問權(quán)限的限制,尚未在歐洲各地的法院的判例中得到普遍的明確范圍。

2. 算法嵌入性結(jié)構(gòu)擴(kuò)張導(dǎo)致場(chǎng)景化規(guī)制的困境。算法對(duì)除平臺(tái)以外的社會(huì)結(jié)構(gòu)實(shí)現(xiàn)深度的結(jié)構(gòu)性嵌入,僅以平臺(tái)責(zé)任作為規(guī)制算法的路徑,存在以下困境:(1)以具體人和公司為調(diào)整對(duì)象的法律體系,仍適用于具體算法應(yīng)用場(chǎng)景,規(guī)制效率較為低下。當(dāng)數(shù)據(jù)流動(dòng)共享機(jī)制和復(fù)雜的算法生態(tài)形成后,場(chǎng)景化規(guī)制則捉襟見肘;(2)算法的使用已經(jīng)逐漸脫離平臺(tái)系統(tǒng),尤其進(jìn)入公共部門應(yīng)用于社會(huì)治理時(shí),一方面,公共部門沒有平臺(tái)一樣程度的算法控制能力;另一方面系統(tǒng)性損害風(fēng)險(xiǎn)增大。如2007年4月,來(lái)自私營(yíng)公司的程序員將900多條不正確的規(guī)則植入美國(guó)科羅拉多州的公共福利系統(tǒng),而由于程序員缺乏相關(guān)的背景知識(shí),導(dǎo)致誤讀法律致使成千上萬(wàn)的人遭受不公平的對(duì)待。這些錯(cuò)誤包括把“無(wú)家可歸”解讀為“行乞?yàn)樯保瑢?dǎo)致一位失去住所流落街頭的60歲婦女在申請(qǐng)?jiān)黾邮称啡瘮?shù)量時(shí)遭到多次拒絕,原因是系統(tǒng)認(rèn)定其為乞丐。最終為了繞開錯(cuò)誤,資質(zhì)審查人員不得不輸入虛假數(shù)據(jù)。[注]參見Pasquale F. The black box society: The secret algorithms that control money and information. Harvard University Press, 2015.算法嵌入性的結(jié)構(gòu)擴(kuò)張,使場(chǎng)景化的規(guī)制手段已無(wú)法充分保護(hù)公眾權(quán)益。

3. 算法平臺(tái)化運(yùn)行與公共利益的隔離。在人工智能時(shí)代,公共領(lǐng)域和私人領(lǐng)域早已被模糊。即使是私人公司開發(fā)和使用的算法,也往往承載了公共利益價(jià)值。例如,私營(yíng)公司谷歌開發(fā)的google flu算法可以預(yù)測(cè)疾病的爆發(fā),具有極強(qiáng)的公共衛(wèi)生價(jià)值。2018年Facebook的用戶隱私數(shù)據(jù)被私人公司算法用于美國(guó)競(jìng)選的事件也充分說(shuō)明,私人公司的行為早已承載了公共利益的價(jià)值,甚至直接影響了政治走向。

然而,算法搭載于商業(yè)開發(fā),往往作為公司專有產(chǎn)品和服務(wù)的一部分,這種情況下規(guī)制算法有干預(yù)商業(yè)自由之嫌;這使得算法權(quán)力受到現(xiàn)有制度的保護(hù),甚至直接造成了公共利益的損害。引起廣泛關(guān)注的“大數(shù)據(jù)殺熟”事件即使得消費(fèi)者受到價(jià)格反向歧視,無(wú)法享受平等公開的商業(yè)服務(wù)。同樣,在Facebook的數(shù)據(jù)泄漏事件中,劍橋分析始終表示“我們沒有破解 Facebook 或違反任何法律”[注]相反,劍橋分析還表示,它的政治部門 SCL Elections 公司是從一家公司獲得的授權(quán)數(shù)據(jù),這家公司是通過 Facebook 提供的工具獲取數(shù)據(jù)——這是“當(dāng)時(shí)的普遍做法”。http://36kr.com/p/5128498.html,2018年6月20日訪問。,可見現(xiàn)行對(duì)公司有關(guān)算法和數(shù)據(jù)的法律規(guī)制遠(yuǎn)遠(yuǎn)無(wú)法保護(hù)公共利益。

以上分析顯示,現(xiàn)有法律制度針對(duì)算法的場(chǎng)景化規(guī)制、責(zé)任平臺(tái)化、標(biāo)準(zhǔn)私益化問題十分嚴(yán)重,與當(dāng)下算法的嵌入性結(jié)構(gòu)擴(kuò)張、社會(huì)全層面覆蓋等特性嚴(yán)重不符。根據(jù)算法的技術(shù)性優(yōu)勢(shì)和結(jié)構(gòu)性特征盡快升級(jí)算法規(guī)制迫在眉睫。

(三)算法規(guī)制升級(jí)路徑:雙軌制的確立

技術(shù)發(fā)展帶來(lái)的科林格里奇困境(collingridge dilemma)使及時(shí)性的立法供給顯得日趨緊迫。這一困境警示我們,當(dāng)一項(xiàng)技術(shù)的社會(huì)后果不能在技術(shù)生命的早期被預(yù)料到而加以及時(shí)調(diào)控和規(guī)制時(shí),技術(shù)的普及和應(yīng)用將使其成為經(jīng)濟(jì)和社會(huì)結(jié)構(gòu)的一部分,由于對(duì)負(fù)面結(jié)果的控制變得昂貴、困難和消耗時(shí)間,以致難以或者不能改變。[注]參見張欣:《數(shù)字經(jīng)濟(jì)時(shí)代公共話語(yǔ)格局變遷的新圖景——平臺(tái)驅(qū)動(dòng)型參與的興起、特征與機(jī)制》,載《中國(guó)法律評(píng)論》2018年第2期。本文對(duì)智能時(shí)代算法的本體化演進(jìn)及法律規(guī)制的不足,主張應(yīng)建立規(guī)制路徑的雙軌制,具體包括:

1.調(diào)整對(duì)象的升級(jí):增加算法自主決策。本文上一部分梳理法律對(duì)算法規(guī)制的調(diào)整對(duì)象,無(wú)論是算法設(shè)計(jì)還是算法的部署應(yīng)用,均以算法的運(yùn)行結(jié)果作為規(guī)制啟動(dòng)的原因。算法的運(yùn)行結(jié)果包括出于侵權(quán)目的進(jìn)行算法設(shè)計(jì),未盡到合理注意義務(wù)進(jìn)行算法部署和應(yīng)用等。這種規(guī)制方法顯然無(wú)法應(yīng)對(duì)算法地位的演進(jìn)。因此,有必要建立算法規(guī)制調(diào)整對(duì)象的雙軌制,既調(diào)整算法設(shè)計(jì)與部署應(yīng)用的結(jié)果,也調(diào)整算法自主決策本身。調(diào)整對(duì)象的升級(jí)帶來(lái)以下規(guī)制發(fā)展。

(1)指向算法本身增強(qiáng)風(fēng)險(xiǎn)防范。結(jié)果監(jiān)管指向內(nèi)容審查,而對(duì)預(yù)防性監(jiān)管則必然指向?qū)λ惴ū旧磉M(jìn)行審查。這就意味著監(jiān)管審查的對(duì)象,從單軌的內(nèi)容監(jiān)管應(yīng)轉(zhuǎn)化為內(nèi)容與算法的雙軌制監(jiān)管。這種監(jiān)管以算法為目標(biāo),以預(yù)防技術(shù)產(chǎn)生的負(fù)面效應(yīng)或副作用。[注]參見張凌寒:《風(fēng)險(xiǎn)防范下算法的監(jiān)管路徑研究》,載《交大法學(xué)》2018年第4期。算法從工具到?jīng)Q策者的角色的轉(zhuǎn)化,要求必須在算法投入使用前就進(jìn)行充分地考察以加強(qiáng)風(fēng)險(xiǎn)防范 。

(2)突破規(guī)制企業(yè)行為進(jìn)行算法規(guī)制。監(jiān)管部門設(shè)立一系列規(guī)則尋求規(guī)范的是企業(yè)行為,而非算法本身,在算法自動(dòng)化決策日益自主化的情況下,除沿用規(guī)制企業(yè)行為外,應(yīng)進(jìn)階直接對(duì)算法本身進(jìn)行規(guī)制。例如在我國(guó)2019年實(shí)施的《電子商務(wù)法》中,立法者直接算法的設(shè)計(jì)和部署進(jìn)行規(guī)則,要求電商平臺(tái)的算法能夠?yàn)橄M(fèi)者提供自然搜索結(jié)果。隨著算法將現(xiàn)實(shí)社會(huì)上傳為無(wú)形化、數(shù)字化、虛擬化的場(chǎng)景,并對(duì)社會(huì)進(jìn)行切割和提供海量定制式規(guī)則,算法必然將成為立法的直接調(diào)整對(duì)象。

2. 責(zé)任承擔(dān)的雙軌制:平臺(tái)責(zé)任與技術(shù)責(zé)任。以上規(guī)制對(duì)象的變化,必然引起法律責(zé)任設(shè)置的變化。應(yīng)繼續(xù)沿用現(xiàn)有的平臺(tái)責(zé)任,平臺(tái)作為社會(huì)大量算法設(shè)計(jì)、部署和應(yīng)用的場(chǎng)景應(yīng)負(fù)有相應(yīng)的法律責(zé)任。但為了彌補(bǔ)平臺(tái)責(zé)任規(guī)制場(chǎng)景化、標(biāo)準(zhǔn)私益化、責(zé)任主體有限性等問題,應(yīng)及時(shí)針對(duì)算法作為調(diào)整對(duì)象的法律,建立技術(shù)責(zé)任制度。技術(shù)責(zé)任意指機(jī)器倫理、法律責(zé)任的設(shè)置應(yīng)圍繞技術(shù)的運(yùn)行,而非不論網(wǎng)絡(luò)平臺(tái)與算法的關(guān)系,一味由平臺(tái)承擔(dān)責(zé)任。

(1)技術(shù)責(zé)任制度專任化。由于專業(yè)知識(shí)的障礙,之前的算法規(guī)制一般由專業(yè)部門進(jìn)行,如在美國(guó)對(duì)高頻交易算法由金融市場(chǎng)行為管理局(FCA)執(zhí)行。隨著機(jī)器深度學(xué)習(xí)技術(shù)的發(fā)展,算法自動(dòng)化決策的黑箱飽受詬病,也被認(rèn)為是對(duì)算法進(jìn)行規(guī)制的主要障礙。[注]參見Pasquale F. The black box society: The secret algorithms that control money and information. Harvard University Press, 2015.為避免將司法者陷入未知境地,各國(guó)普遍傾向于采用成立專業(yè)委員會(huì)來(lái)對(duì)算法進(jìn)行規(guī)制。無(wú)論是機(jī)器學(xué)習(xí)委員會(huì)[注]參見Geoff Mulgan:A machine intelligence commission for the UK, Mulgan, https://www.nesta.org.uk/team/geoff-mulgan/.,美國(guó)紐約市政府的專業(yè)委員會(huì)[注]參見Devin Coldewey:NewYork City moves to establish algorithm-monitoring task force. https://techcrunch.com/2017/12/12/new-york-city-moves-to-establish-algorithm-monitoring-task-force/2018年6月18日訪問。,還是美國(guó)國(guó)家算法安全委員會(huì)[注]參見Macaulay T. Pioneering computer scientist calls for National Algorithm Safety Board. 2017,201.,都體現(xiàn)了專業(yè)規(guī)制的思路。對(duì)于算法透明度的評(píng)估、是否有歧視可能、以及對(duì)可疑結(jié)果的回溯都需要專業(yè)委員會(huì)提供咨詢意見甚或直接執(zhí)行,方可保證規(guī)制有效性。

非生育期覆膜對(duì)河套灌區(qū)鹽堿地耕作層鹽分的影響…… 杜 超,溫埃清,李 軍,柴玉鑫,王 剛,任志遠(yuǎn),張俊峰,鄔雪瑞(50)

(2)技術(shù)責(zé)任的救濟(jì)原則。然而,算法的技術(shù)性要求規(guī)制的專業(yè)性,但同時(shí)也應(yīng)警惕社會(huì)精英化對(duì)公共利益的背離。有學(xué)者甚至悲觀的預(yù)見,這種技術(shù)資源上的差異將使得富有的精英能夠設(shè)計(jì)他們自身或者他們的后代,使其成為生理和心理能力都更為高等的“超人”,人類先前的社會(huì)經(jīng)濟(jì)階層系統(tǒng)可能會(huì)轉(zhuǎn)化為生物階層系統(tǒng)。[注]參見赫拉利:《人類簡(jiǎn)史》, 中信出版社2014年版,第289頁(yè)。科技對(duì)平等原則的沖擊,使得我們必須訴諸“人類中心主義”來(lái)尋求危機(jī)的解除。[注]參見周濂:《用政治“鎖死”科技?》,載《讀書》2016年第7期。在算法規(guī)制中也必然更加強(qiáng)調(diào)公共利益的嵌入,用以避免算法權(quán)力獨(dú)大,以公共利益限制算法權(quán)力。

三、算法技術(shù)監(jiān)管及其責(zé)任

算法規(guī)制的雙軌制升級(jí)同時(shí)考慮了設(shè)置事前的風(fēng)險(xiǎn)防范機(jī)制和事后的問責(zé)機(jī)制。在算法規(guī)制的運(yùn)行階段,算法運(yùn)行結(jié)果和算法自主化決策本身,平臺(tái)責(zé)任和技術(shù)責(zé)任,勢(shì)必要融合于算法規(guī)制的各個(gè)流程中。在此過程中,復(fù)雜的智能和自主技術(shù)系統(tǒng)的法律地位問題與更廣泛的法律問題交織在了一起。本部分以流程為導(dǎo)向,對(duì)算法技術(shù)監(jiān)管及責(zé)任對(duì)現(xiàn)行法律制度的滲透做系統(tǒng)梳理。

(一)設(shè)計(jì)階段:早期介入與設(shè)計(jì)責(zé)任

現(xiàn)有法律制度使得平臺(tái)公司利用算法設(shè)計(jì)開發(fā)的商業(yè)模式有監(jiān)管套利之嫌。例如,滴滴平臺(tái)雖然通過平臺(tái)、汽車出租者、司機(jī)與乘客,以及保險(xiǎn)公司等多份合同設(shè)計(jì),成功地繞開了對(duì)于商業(yè)運(yùn)營(yíng)車輛的監(jiān)管,但最終結(jié)果仍是一種運(yùn)輸服務(wù)的租賃業(yè)務(wù)。而當(dāng)監(jiān)管部門責(zé)難時(shí),這種在設(shè)計(jì)上對(duì)監(jiān)管的完美規(guī)避,并不能掩蓋其本質(zhì)的營(yíng)運(yùn)行為。同理,當(dāng)平臺(tái)公司的算法設(shè)計(jì)上線時(shí),一旦造成損害結(jié)果,設(shè)計(jì)者往往主張:第一,對(duì)任何算法的發(fā)展和最終損害,可能有多個(gè)潛在的責(zé)任方,設(shè)計(jì)并無(wú)過錯(cuò)。第二,設(shè)計(jì)行為是智力創(chuàng)造過程不應(yīng)受到法律的規(guī)制。設(shè)計(jì)者躲在實(shí)驗(yàn)主義的盾牌之后躲避干預(yù)和法律責(zé)任。因此,設(shè)計(jì)階段應(yīng)及時(shí)加入對(duì)算法本身的技術(shù)監(jiān)管。

1.要求設(shè)計(jì)者在設(shè)計(jì)算法過程中嵌入算法倫理。在設(shè)計(jì)階段應(yīng)以立法形式要求算法通過道德審查標(biāo)準(zhǔn),來(lái)防止對(duì)用戶的操縱或產(chǎn)生不公平的后果。當(dāng)然,目前這種方法面臨著許多挑戰(zhàn),目前可能僅在某些敏感性和風(fēng)險(xiǎn)較高的算法決策領(lǐng)域更適用倫理性的審查要求,并基于數(shù)量只能采用人工審查模式。同時(shí),要求社會(huì)學(xué)家、法學(xué)家等共同設(shè)計(jì)倫理框架,在算法設(shè)計(jì)階段就為算法的研發(fā)和應(yīng)用提供道德準(zhǔn)則。

2. 要求算法設(shè)計(jì)者承擔(dān)一定的設(shè)計(jì)責(zé)任。為了保證設(shè)計(jì)過程監(jiān)管與未來(lái)責(zé)任回溯,監(jiān)管機(jī)構(gòu)將需要增加設(shè)計(jì)責(zé)任的制度,以補(bǔ)充現(xiàn)有的設(shè)計(jì)安全模型和隱私設(shè)計(jì)模式。具體包括將設(shè)計(jì)日志責(zé)任法定化,如涉及在封閉式和開放式機(jī)器人中要求某些硬編碼的審計(jì)日志;或嚴(yán)格執(zhí)行實(shí)驗(yàn)許可,在實(shí)驗(yàn)階段充分考慮可能存在的問題,如對(duì)開放式機(jī)器人許可實(shí)驗(yàn)。這些設(shè)計(jì)責(zé)任類似于在金融領(lǐng)域建立的“審計(jì)線索”,現(xiàn)在已經(jīng)成為重要的法律措施。這些設(shè)計(jì)責(zé)任不僅有利于算法投入使用后的管理,也必然會(huì)反向影響系統(tǒng)開發(fā),即使對(duì)符合價(jià)值取向的算法設(shè)計(jì)進(jìn)行制度激勵(lì)。[注]Robot law. Edward Elgar Publishing, 2016.

3. 要求設(shè)計(jì)者承擔(dān)充分的測(cè)試責(zé)任和披露責(zé)任。應(yīng)將敏感和關(guān)鍵領(lǐng)域算法設(shè)計(jì)的測(cè)試責(zé)任和披露責(zé)任法定化。應(yīng)在第一步機(jī)器倫理指導(dǎo)下,算法投入使用前,要求設(shè)計(jì)者充分測(cè)試算法。并且應(yīng)細(xì)化要求算法設(shè)計(jì),必須進(jìn)行必要的迭代測(cè)試以達(dá)到預(yù)測(cè)性能的客觀視圖。例如犯罪預(yù)測(cè)類算法在投入使用前,應(yīng)充分在不同地區(qū)和領(lǐng)域測(cè)試,收取達(dá)到規(guī)定數(shù)量的數(shù)據(jù)集,并測(cè)試其在打擊犯罪中的實(shí)際作用。測(cè)試責(zé)任也應(yīng)充分考慮公共利益標(biāo)準(zhǔn),避免將算法設(shè)計(jì)中可能存在的危害外在化。否則,算法設(shè)計(jì)者應(yīng)承擔(dān)責(zé)任,或被迫撤回或修改算法。

(二)運(yùn)營(yíng)階段:評(píng)價(jià)標(biāo)準(zhǔn)與程序正當(dāng)

運(yùn)營(yíng)階段的算法規(guī)制目標(biāo)仍在于以評(píng)價(jià)標(biāo)準(zhǔn)與正當(dāng)程序促使算法權(quán)力運(yùn)行處于公眾監(jiān)督之下。

2. 部署應(yīng)用算法的平臺(tái)責(zé)任嚴(yán)格化。有必要對(duì)原有責(zé)任制度進(jìn)行擴(kuò)充,打破平臺(tái)公司的過錯(cuò)和算法的不可解釋性這兩大歸責(zé)障礙。目前各國(guó)均有擴(kuò)用責(zé)任制度的嘗試。例如,美國(guó)對(duì)無(wú)人機(jī)登記制度正全面鋪開,政府要求無(wú)人機(jī)必須有牌照,以對(duì)任何魯莽或者疏忽飛行的無(wú)人機(jī)與相關(guān)人員聯(lián)系起來(lái)。[注]參見《民航局:6月1日起民用無(wú)人機(jī)實(shí)行實(shí)名登記制》,http://www.cnhan.com/html/tech/20170516/599807.htm此外,即使平臺(tái)公司無(wú)法解釋算法如何產(chǎn)生結(jié)果,也應(yīng)對(duì)其使用的算法所作出的自動(dòng)化決策負(fù)責(zé)。雖然算法的不可解釋性仍未有實(shí)質(zhì)解決方案,但歐盟開始嘗試創(chuàng)制算法解釋權(quán)。美國(guó)的監(jiān)管者則主張?jiān)谪?cái)務(wù)和信用方面的算法造成不利法律后果時(shí),確保“意圖”不是責(zé)任的必要條件。[注]ROBINSON,D., Yu H. Knowing the score: New data, underwriting and marketing in the consumer credit marketplace. A Guide for Financial Inclusion Stakeholders, 2014: 1-34. https://www.teamupturn.com/static/files/Knowing_the_Score_Oct_2014_v1_1.pdf. Ifeoma Ajunwa, EEOC Public Meeting on Big Data in the Workplace (Oct. 13, 2016), 在此文中作者描述了信用算法對(duì)數(shù)據(jù)的使用。Clint Boulton, The hidden risk of blind trust in AI’s ‘black box’, at http://www.cio.com/article/3204114/artificial - intelligence/the - hidden - risk - of - blind - trust - in - ai - s - black - box.html(July 6, 2017) 。在此文中作者描述了雇傭算法的驗(yàn)證。在新的人工智能責(zé)任體系建立完善之前,沿用與擴(kuò)用責(zé)任制度是必然也是一種無(wú)奈。2016年,歐洲議會(huì)提出了“機(jī)器人法”立法建議報(bào)告,盡管此報(bào)告中暢想了未來(lái)對(duì)人工智能自動(dòng)化決策設(shè)立法律人格,并沒有提出具體的方案。而是主張機(jī)器人造成的損害由主人來(lái)承擔(dān)責(zé)任,[注]如果機(jī)器人對(duì)人造成了損害,無(wú)論是適用羅馬法中的“繳出賠償”(noxoe deditio)原則(即把機(jī)器人交給受害者或其家屬處置),還是讓機(jī)器人支付賠償金或坐牢,最終承擔(dān)責(zé)任的始終是機(jī)器人的“主人”,因?yàn)闄C(jī)器人不可能有獨(dú)立的收入,限制它的“自由”則等于剝奪了其“主人”的財(cái)產(chǎn)權(quán)。參見鄭戈:《人工智能與法律的未來(lái)》,載《探索與爭(zhēng)鳴》2017年第10期。并提議公司為機(jī)器人購(gòu)買保險(xiǎn)和成立專門基金補(bǔ)充保險(xiǎn)機(jī)制。應(yīng)對(duì)人工智能的沖擊,擴(kuò)用現(xiàn)行制度仍是當(dāng)下保守而不是明智的選擇。

3. 算法自動(dòng)化決策程序的正當(dāng)化。算法自動(dòng)化決策對(duì)公民權(quán)利影響甚巨,卻完全規(guī)避正當(dāng)程序。尤其是算法的自動(dòng)化決策已經(jīng)大規(guī)模進(jìn)入公共部門決策程序,在公法領(lǐng)域,自動(dòng)化決策的算法解釋權(quán)是正當(dāng)程序的基本要求。當(dāng)公權(quán)力機(jī)關(guān)對(duì)當(dāng)事人做出不利決定時(shí),應(yīng)當(dāng)要告知當(dāng)事人決定的內(nèi)容并且說(shuō)明理由,同時(shí)給予當(dāng)事人陳述申辯的機(jī)會(huì)和救濟(jì)的途徑。[注]參見周佑勇:《行政法的正當(dāng)程序原則》,載《中國(guó)社會(huì)科學(xué)》2004年第4期。在美國(guó)聯(lián)邦憲法上,正當(dāng)程序條款甚至取得了概括性人權(quán)保障條款的地位。[注]參見余軍:《正當(dāng)程序:作為概括性人權(quán)保障條款——基于美國(guó)聯(lián)邦最高法院司法史的考察》,載《浙江學(xué)刊》2014第6期。我國(guó)司法實(shí)踐中也在實(shí)際運(yùn)用正當(dāng)程序原則審查行政行為。[注]參見何海波《司法判決中的正當(dāng)程序原則》,載《法學(xué)研究》2009年第1期。隨著私人規(guī)制和公權(quán)力的界限日益模糊,“私行政”的理念下也日益要求參與社會(huì)事務(wù)并實(shí)際履行公益和人權(quán)保障功能的私主體,也應(yīng)接受國(guó)家對(duì)其組織形式和程序的監(jiān)督義務(wù)。[注][日]山本隆司:「公私協(xié)働の法構(gòu)造」碓井光明他編『公法學(xué)の法と政策(下)』,有斐閣2000年版,556頁(yè)。轉(zhuǎn)引自杜儀方:《公私協(xié)作中國(guó)家責(zé)任理論的新發(fā)展——以日本判決為中心的考察》,載《當(dāng)代法學(xué)》2015年第3期。而算法的自動(dòng)化決策因披著技術(shù)的外衣,一直拒絕對(duì)利害關(guān)系人公開。應(yīng)用于美國(guó)社區(qū)管理的“真知”算法的設(shè)計(jì)者理查德·伯克坦陳:“不透明性可以幫助我擺脫一切麻煩……我在做出對(duì)某些人不利的預(yù)測(cè)時(shí),從來(lái)不會(huì)給出理由,我唯一的目標(biāo)就是做出正確的預(yù)測(cè)?!盵注]Angwin, J., Larson, J., Mattu, S. and Kirchner, L. (2016) Machine Bias. There is software that is used across the county to predict future criminals. And it is biased against blacks, ProPublica, 23 May 2016.正當(dāng)程序下,受到不利決策的自動(dòng)化決策的人應(yīng)有權(quán)知曉決定的內(nèi)容與理由,并享有申訴和申辯的機(jī)會(huì)。

(三)事后救濟(jì):解釋權(quán)與有限主體化

法律規(guī)范行為主要有兩種機(jī)制:事前(ex ante)和事后(ex post)。[注]參見Calabresi G, Melamed A D. Property rules, liability rules, and inalienability: one view of the cathedral. Harvard law review, 1972: 1089-1128 . See also Lessig L. Code and Other Laws of Cyberspace'Basic Books, 1999. 1999.前者是預(yù)防型的,即預(yù)測(cè)并防止某一事件的發(fā)生,后者為反應(yīng)型,即對(duì)某一事件作出反應(yīng)。[注]參見龍衛(wèi)球:《數(shù)據(jù)新型財(cái)產(chǎn)權(quán)構(gòu)建及其體系研究》,載《政法論壇》2017年第4期。無(wú)救濟(jì)則無(wú)權(quán)利,算法規(guī)制必然包含事后救濟(jì)和追責(zé)制度的建立。

1. 算法解釋權(quán)制度。算法解釋權(quán)指的是,當(dāng)自動(dòng)化決策的具體決定對(duì)相對(duì)人有法律上或者經(jīng)濟(jì)上的顯著影響時(shí),相對(duì)人向算法使用人提出異議,要求提供對(duì)具體決策解釋,并要求更新數(shù)據(jù)或更正錯(cuò)誤的權(quán)利。[注]參見張凌寒:《商業(yè)自動(dòng)化決策的算法解釋權(quán)研究》,載《法律科學(xué)(西北政法大學(xué)學(xué)報(bào))》2018年第3期。目前學(xué)界對(duì)自動(dòng)化決策算法法律制度的討論多集中在如何進(jìn)行風(fēng)險(xiǎn)防范,[注]參見司曉、曹建峰:《論人工智能的民事責(zé)任:以自動(dòng)駕駛汽車和智能機(jī)器人為切入點(diǎn)》,載《法律科學(xué)(西北政法大學(xué)學(xué)報(bào))》 2017年第5期。而算法解釋權(quán)意在風(fēng)險(xiǎn)發(fā)生后如何分配損害。

算法解釋權(quán)的主體應(yīng)為認(rèn)為受到自動(dòng)化決策不利決策的相對(duì)人,如經(jīng)過算法評(píng)估不被雇傭的候選人,量刑和假釋輔助算法決策的相對(duì)人等。負(fù)有義務(wù)者為自動(dòng)化決策的使用者,包括根據(jù)合同自動(dòng)化決策的使用者如網(wǎng)絡(luò)平臺(tái)、保險(xiǎn)公司、銀行等,也包括使用自動(dòng)化決策決定涉及資格、權(quán)利等事項(xiàng)的公共部門,如決策有關(guān)福利發(fā)放、犯罪風(fēng)險(xiǎn)評(píng)估,教育入學(xué)資格等。需要指出的是,當(dāng)算法的使用者無(wú)法提供解釋時(shí)(如由于技術(shù)能力的限制),算法的開發(fā)者有義務(wù)進(jìn)行協(xié)助,以為相對(duì)人提供具體決策的解釋。

此外,算法的深度學(xué)習(xí)依賴數(shù)據(jù),責(zé)任難以從數(shù)據(jù)流和算法中被識(shí)別,只有算法本身才有可能提供合理的解釋。[注]參見張凌寒 :《商業(yè)自動(dòng)化決策的算法解釋權(quán)研究》,載《法律科學(xué)(西北政法大學(xué)學(xué)報(bào))》 2018年第3期。在今年3月7日,谷歌大腦團(tuán)隊(duì)的克里斯·歐拉(Chris Olah)公布了一項(xiàng)題為“可解釋性的基礎(chǔ)構(gòu)件”的研究成果,該成果解決了神經(jīng)網(wǎng)絡(luò)這種最令人難以捉摸的算法的可視化問題,谷歌將其比喻為人工神經(jīng)網(wǎng)絡(luò)的核磁共振成像(MRI)。這種可視化解釋技術(shù)簡(jiǎn)化了相關(guān)信息,使算法的工作狀態(tài)回到了“人類尺度”,能夠被普通人看懂和理解。未來(lái)這種“解釋算法的算法”或者“監(jiān)督算法的算法”必將成為算法規(guī)制的革新手段。

2. 算法有限主體化。在現(xiàn)行可能的規(guī)范手段中,可對(duì)算法復(fù)雜性列出定性尺度,有助于評(píng)估算法自主程度并因應(yīng)性地予以規(guī)范。算法主體性不同于法人等法律擬制制度,而是人造物基于智能性而非為法律規(guī)制便宜性獲得的法律主體地位。算法法律主體化后,可能享有個(gè)人財(cái)產(chǎn),享有一定言論自由,承擔(dān)有限侵權(quán)責(zé)任,并受到法律保護(hù)不受到攻擊、傷害。[注]參見胡凌:《人工智能視閾下的網(wǎng)絡(luò)法核心問題》,載《中國(guó)法律評(píng)論》2018年第2期。人工智能,機(jī)器學(xué)習(xí)和機(jī)器人領(lǐng)域的前沿領(lǐng)域,無(wú)論是智能合約,高頻交易算法(時(shí)間跨度是人類無(wú)法察覺的),還是未來(lái)的機(jī)器人,都強(qiáng)調(diào)自主性。面對(duì)此類超級(jí)智能體的出現(xiàn),人類的本能想法是賦予人工智能算法以法律主體地位,并發(fā)展一系列相應(yīng)制度以納入現(xiàn)有法律體系規(guī)制框架內(nèi)。2016年,歐洲議會(huì)的“機(jī)器人法”立法建議報(bào)告提出:“從長(zhǎng)遠(yuǎn)來(lái)看要?jiǎng)?chuàng)設(shè)機(jī)器人的特殊法律地位,以確保至少最復(fù)雜的自動(dòng)化機(jī)器人可以被確認(rèn)為享有電子人(electronic persons)的法律地位,有責(zé)任彌補(bǔ)自己所造成的任何損害,并且可能在機(jī)器人作出自主決策或以其他方式與第三人獨(dú)立交往的案件中適用電子人格(electronic personality)。” 賦予人工智能體以法律主體地位的設(shè)想否定了來(lái)源定律,即假定任何給定的機(jī)器人或算法系統(tǒng)都有創(chuàng)造者,控制者或所有者。

人工智能時(shí)代法律政策是基于風(fēng)險(xiǎn)的制度選擇和法律安排。[注]參見周漢華:《論互聯(lián)網(wǎng)法》,載《中國(guó)法學(xué)》 2015年第3期。本文是對(duì)人工智能時(shí)代社會(huì)結(jié)構(gòu)性變革應(yīng)對(duì)研究的拋磚引玉,具體制度設(shè)計(jì)仍有待法學(xué)學(xué)者的深入研究。

猜你喜歡
決策責(zé)任法律
為可持續(xù)決策提供依據(jù)
法律解釋與自然法
使命在心 責(zé)任在肩
每個(gè)人都該承擔(dān)起自己的責(zé)任
決策為什么失誤了
讓人死亡的法律
“互助獻(xiàn)血”質(zhì)疑聲背后的法律困惑
期望囑托責(zé)任
讓法律做主
忠誠(chéng) 責(zé)任 關(guān)愛 奉獻(xiàn)