楊 超
(遼寧大學(xué) 法學(xué)院,遼寧 沈陽(yáng) 110036)
隨著人工智能技術(shù)和大數(shù)據(jù)的發(fā)展,算法逐漸進(jìn)入人們的視野,并滲透進(jìn)人們的日常生活和社會(huì)生產(chǎn)之中。小到人們?yōu)g覽手機(jī)APP購(gòu)買(mǎi)商品或閱讀新聞,大到政府部門(mén)制定公共政策,背后都留有算法的印記。與其說(shuō)是算法在施加影響,不如說(shuō)是算法權(quán)力在背后主導(dǎo)。伴隨著算法的普遍應(yīng)用,行為受限問(wèn)題、社會(huì)歧視問(wèn)題、數(shù)據(jù)安全問(wèn)題、公共利益被損害等問(wèn)題逐漸暴露,凸顯了社會(huì)不和諧的一面。然而,由于“算法黑箱”的存在,大多數(shù)人并不了解算法權(quán)力,更不清楚算法權(quán)力是如何運(yùn)行并發(fā)揮效用的??梢哉f(shuō),面對(duì)算法權(quán)力帶來(lái)的種種弊端,人們最大的感受莫過(guò)于有心無(wú)力。因此,深刻認(rèn)識(shí)算法權(quán)力以及如何規(guī)制算法權(quán)力很有必要,勢(shì)在必行。
當(dāng)前,我國(guó)法學(xué)界對(duì)算法權(quán)力也有諸多的研究,主要集中于算法權(quán)力的形成原因、帶來(lái)的問(wèn)題及法律規(guī)制等等,可以說(shuō)取得了一定的研究成果。但也存在著問(wèn)題,一方面對(duì)于算法權(quán)力的定義采取了“拿來(lái)即用”的方式,缺少對(duì)算法權(quán)力的深入解讀,直接影響到了人們對(duì)算法權(quán)力的定位與后續(xù)法律規(guī)制,另一方面算法權(quán)力的規(guī)制局限于具體制度的構(gòu)建,缺乏概觀性的價(jià)值指引。本文力圖在深入解讀算法權(quán)力的基礎(chǔ)上,分析算法權(quán)力的運(yùn)行邏輯、對(duì)社會(huì)主要價(jià)值觀念的沖擊,最終提出符合現(xiàn)階段算法權(quán)力實(shí)際情況的規(guī)制路徑。
關(guān)于算法權(quán)力的定義,僅有少數(shù)的學(xué)者給予了明確的定義,更多的是不加闡述直接引用。有學(xué)者認(rèn)為“算法權(quán)力是一種人工智能技術(shù)平臺(tái)的控制者,憑借自身?yè)碛械乃惴夹g(shù)優(yōu)勢(shì)而在人工智能應(yīng)用過(guò)程中產(chǎn)生的對(duì)政府、社會(huì)組織和公民個(gè)人等對(duì)象的技術(shù)權(quán)力”[1],意在表明算法權(quán)力控制人工智能平臺(tái),憑借的是自身的算法技術(shù),作用對(duì)象是政府、社會(huì)組織、公民個(gè)人,是一種控制性技術(shù)權(quán)力。整體來(lái)看,這是一個(gè)比較全面的定義,但是該定義未指出算法技術(shù)是如何作用于對(duì)象的,缺少了算法技術(shù)與作用對(duì)象的中間描述,過(guò)于抽象。有學(xué)者認(rèn)為“算法權(quán)力是掌握算法技術(shù)的個(gè)人和企業(yè)利用自身的技術(shù)優(yōu)勢(shì)和行業(yè)便利,把控社會(huì)資源及信息,引導(dǎo)政府做出決策,從而形成的一股不可小覷的力量”[2],換言之,算法權(quán)力主體包括個(gè)人和企業(yè),利用算法技術(shù)引導(dǎo)政府決策,側(cè)重于私的力量影響了政府。整體來(lái)看,該定義是比較片面的。該定義優(yōu)點(diǎn)是點(diǎn)出了算法技術(shù)的本質(zhì)是可以掌控社會(huì)資源及信息,問(wèn)題在于忽略了算法權(quán)力的掌控者除了個(gè)人和企業(yè),也可以有政府,而且相比企業(yè)和個(gè)人,政府擁有發(fā)展算法權(quán)力的數(shù)據(jù)優(yōu)勢(shì),潛力更大。從引導(dǎo)政府作出決策可以看出,算法權(quán)力是最終服務(wù)于政府和公眾的。有學(xué)者則直接采用“算法權(quán)力”的概念,沒(méi)有給出定義。正如有學(xué)者指出:“算法權(quán)力作為一種新型的權(quán)力形式,尚未完全被學(xué)界接納,但這不妨礙我們對(duì)其內(nèi)涵和特征進(jìn)行探討。”[1]但這并不代表就不需要對(duì)算法權(quán)力的定義不加重視,相反,明確算法權(quán)力的定義,對(duì)于其法律規(guī)制具有重要的意義。
從字面構(gòu)成來(lái)看,算法權(quán)力是由“算法”和“權(quán)力”組合而來(lái)的合成詞匯?!八惴ā笔墙鉀Q問(wèn)題的策略機(jī)制,是一種計(jì)算機(jī)指令,屬于非常明確的概念。而對(duì)于“權(quán)力”的理解,不同領(lǐng)域、同一領(lǐng)域不同流派均有不同的認(rèn)識(shí),主流的觀點(diǎn)認(rèn)為權(quán)力是人與人之間的一種特殊影響力,是一些人對(duì)另一些人造成他所希望和預(yù)定影響的能力,或者是一個(gè)人或許多人的行為使另一個(gè)人或其他許多人的行為發(fā)生改變的一種關(guān)系。[3]為使敘事清楚,本文嘗試給算法權(quán)力下定義,認(rèn)為算法權(quán)力是指一方憑借算法技術(shù)把控社會(huì)資源及信息從而作用于另一方的一種技術(shù)性力量。該定義將算法權(quán)力定位為技術(shù)性力量,而不是法律意義上的權(quán)力。根據(jù)吳玉章老師的觀點(diǎn),“法律權(quán)力具有有限性,受到法律規(guī)范的制約和法律監(jiān)督的制約”,[4]很顯然,算法權(quán)力皆不符合。該定義明確了算法權(quán)力的行使主體和行使對(duì)象,避免了過(guò)寬或過(guò)窄定義主客體,具有開(kāi)放性;表明了形成的關(guān)鍵在于技術(shù)、資源、信息的絕對(duì)優(yōu)勢(shì),而不是傳統(tǒng)的政治統(tǒng)治權(quán)下的暴力奪取和暴力執(zhí)行,突出了算法權(quán)力的特殊之處;角色分明,也為后續(xù)規(guī)制算法權(quán)力提供了清晰的路徑。算法權(quán)力本質(zhì)上是一種計(jì)算機(jī)技術(shù)權(quán)力。算法權(quán)力的特征之一為隱蔽性,區(qū)別于公示性的國(guó)家權(quán)力,算法權(quán)力通過(guò)一系列計(jì)算機(jī)指令行使權(quán)力,其運(yùn)行機(jī)制是不對(duì)外公開(kāi)的。算法權(quán)力的特征之二為分離性,一方面是運(yùn)行于機(jī)器內(nèi)部指令與輸出結(jié)果在空間上的分離,一方面是算法使用者與算法擁有者的分離。當(dāng)前,算法權(quán)力主要見(jiàn)于公共領(lǐng)域與商業(yè)領(lǐng)域。
1.算法權(quán)力與公權(quán)力。依目前大多數(shù)學(xué)者的觀點(diǎn),算法權(quán)力是一種類(lèi)似于公權(quán)力的權(quán)力形態(tài),這種“類(lèi)似”僅限于算法權(quán)力可以對(duì)有限的社會(huì)構(gòu)成或公眾產(chǎn)生效果,但這種趨勢(shì)在逐漸增強(qiáng)。除此,兩者的區(qū)別也比較明顯。
從權(quán)力來(lái)源看,公權(quán)力來(lái)源于人民的讓渡,即人民賦權(quán),而算法權(quán)力來(lái)源于算法技術(shù)的應(yīng)用;從權(quán)力行使主體角度看,公權(quán)力由明定的國(guó)家機(jī)關(guān)或經(jīng)國(guó)家機(jī)關(guān)授權(quán)或委托的國(guó)家組織行使,而算法權(quán)力由掌控算法技術(shù)的主體行使,這類(lèi)主體可能是國(guó)家機(jī)關(guān),也可能是私營(yíng)企業(yè),但不管是國(guó)家機(jī)關(guān)還是私營(yíng)企業(yè),算法權(quán)力最終僅掌握在少數(shù)的幾個(gè)人手中;從權(quán)力的行使對(duì)象看,公權(quán)力的行使對(duì)象為社會(huì)公眾,而算法權(quán)力的行使對(duì)象為因應(yīng)用場(chǎng)景而異,可以是社會(huì)公眾,也可以是政府、企業(yè);從權(quán)力行使目的看,公權(quán)力的行使目的是為人們謀利益,而算法權(quán)力的行使目的是為人們謀利益或?yàn)樗接兄黧w謀取利益;從是否受監(jiān)督角度看,公權(quán)力有一套完備的制約和監(jiān)督體系以防止濫用,而算法權(quán)力目前尚無(wú)相關(guān)的法律或規(guī)定予以制約和監(jiān)督。
2.算法權(quán)力與權(quán)利。在算法領(lǐng)域,權(quán)力與權(quán)利在配置上處于嚴(yán)重的失衡狀態(tài),即有算法權(quán)力的實(shí)際存在(雖無(wú)名分)但無(wú)可防御性的權(quán)利存在的狀態(tài),兩者的區(qū)分直接關(guān)系到后續(xù)算法權(quán)力的規(guī)制。
權(quán)利是權(quán)利享有人實(shí)現(xiàn)自身利益的一種方式,而算法權(quán)力是算法權(quán)力的掌控主體實(shí)現(xiàn)其自身利益的一種控制力或力量,這種力量源于技術(shù)、資源、信息,兩者看似沒(méi)有交集,但是深入思考會(huì)發(fā)現(xiàn),當(dāng)算法權(quán)力對(duì)相對(duì)方發(fā)生侵害時(shí),相對(duì)方是沒(méi)有專(zhuān)門(mén)針對(duì)前者相應(yīng)的權(quán)利進(jìn)行救濟(jì)的。礙于“算法黑箱”的存在,也難以對(duì)算法權(quán)力的違法行為進(jìn)行清晰的認(rèn)定,《民法典》中“侵權(quán)責(zé)任編”適用的空間非常狹窄。
算法權(quán)力的定義及其與相關(guān)概念的區(qū)分使我們對(duì)算法權(quán)力有了一個(gè)較為清晰的認(rèn)識(shí)與定位,那么算法權(quán)力是如何發(fā)揮作用的?這就需要了解算法權(quán)力的作用機(jī)制,“在??驴磥?lái),當(dāng)代社會(huì)里,權(quán)力已經(jīng)具有了新的形勢(shì)和特點(diǎn)”[5],“新的權(quán)力手段則完全不同:他們不靠權(quán)利,而靠技術(shù);不靠法律,而靠正?;?;不靠懲罰,而靠控制”[6]。算法即是利用技術(shù)控制著人的行為,同時(shí)使其作用影響正?;?。當(dāng)算法作用于行為對(duì)象時(shí),通過(guò)行為控制機(jī)制、嵌入機(jī)制、算法歧視機(jī)制影響自由、平等、安全價(jià)值。
行為控制機(jī)制指算法以強(qiáng)大的數(shù)據(jù)處理能力和自主學(xué)習(xí)能力裹挾網(wǎng)絡(luò)平臺(tái)使用者,通過(guò)代碼規(guī)則形成對(duì)公眾行為的控制。行為控制機(jī)制通過(guò)算法構(gòu)建行為規(guī)范產(chǎn)生強(qiáng)大的控制力量形成算法權(quán)力,這種強(qiáng)大的控制力量有兩個(gè)來(lái)源,一是算法使用者具有極大的資源、技術(shù)、信息優(yōu)勢(shì),在與算法相對(duì)方的較量中占據(jù)主導(dǎo)地位,一是算法通過(guò)二進(jìn)制的代碼構(gòu)建行為規(guī)范,普通人難以理解,只能默默承受。尤瓦爾·赫拉利在其《未來(lái)簡(jiǎn)史》中曾預(yù)測(cè):“在未來(lái)人工智能將獲得統(tǒng)治地位,我們的法律將變成一種數(shù)字規(guī)則,它除了無(wú)法管理物理定律之外,將規(guī)范人類(lèi)的一切行為?!盵7]以滴滴打車(chē)軟件應(yīng)用為例,用戶下載滴滴打車(chē)軟件——點(diǎn)擊滴滴法律條款及隱私政策選項(xiàng)——訪問(wèn)權(quán)限設(shè)置——用戶注冊(cè)——行駛路線劃定——司機(jī)分配——支付車(chē)款,算法設(shè)計(jì)出了一系列的用車(chē)流程,事實(shí)上打車(chē)人的整個(gè)行為已處于滴滴軟件系統(tǒng)的規(guī)制之下,根本沒(méi)有討價(jià)還價(jià)的余地。
嵌入機(jī)制指算法嵌入公共治理領(lǐng)域,形成算法權(quán)力與國(guó)家權(quán)力共同發(fā)揮作用的一種形式。信息社會(huì),政府社會(huì)職能的實(shí)現(xiàn)需要借助算法強(qiáng)大的數(shù)據(jù)收集與分析能力,這為算法嵌入公共治理領(lǐng)域提供了契機(jī)。例如,我國(guó)公安機(jī)關(guān)DNA數(shù)據(jù)庫(kù)應(yīng)用系統(tǒng)就采用了算法技術(shù),當(dāng)新錄入的DNA與舊案相符合時(shí)就會(huì)自動(dòng)報(bào)警。再如,美國(guó)紐約州警察局曾將數(shù)據(jù)分析大規(guī)模地引入治安管理工作中,成功的降低了當(dāng)?shù)氐姆缸锫省1娝苤?,政府領(lǐng)域涉及人們生活的方方面面,關(guān)涉公共利益。算法嵌入政府領(lǐng)域,尤其是在做出對(duì)公眾利益影響巨大的決策時(shí),數(shù)據(jù)收集是否合理、數(shù)據(jù)分析是否符合邏輯、決策作出是否透明等等至關(guān)重要。值得警惕的是,算法主要掌握在少數(shù)大型互聯(lián)網(wǎng)平臺(tái)企業(yè)手中,以追逐商業(yè)利益為目的,先天性的會(huì)擠壓部分公共利益,有損社會(huì)公平正義。
算法歧視機(jī)制指算法的應(yīng)用對(duì)某個(gè)特殊群體產(chǎn)生了不平等對(duì)待的情形。算法歧視根源于算法權(quán)力的形成,本質(zhì)上是擁有算法權(quán)力的一方與算法作用對(duì)象占有資源的極不對(duì)等。當(dāng)某些被考慮的個(gè)性參數(shù)具有雙價(jià)相關(guān),即當(dāng)這些參數(shù)以具有統(tǒng)計(jì)學(xué)意義的方式同時(shí)與構(gòu)成區(qū)別對(duì)待的合法理由以及歧視特征相關(guān)聯(lián)時(shí),算法歧視可能會(huì)出現(xiàn)。同時(shí),算法的表象是客觀中立的,但表象的背后實(shí)際是算法設(shè)計(jì)者、算法控制者對(duì)算法應(yīng)用對(duì)象的歧視或打壓。算法歧視發(fā)生與作用的領(lǐng)域越來(lái)越廣,如就業(yè)、信貸、保險(xiǎn)、網(wǎng)上購(gòu)物。初次的算法歧視一旦形成,會(huì)形成“歧視慣性”,然后會(huì)持續(xù)性的影響到算法應(yīng)用對(duì)象的日常生活和生產(chǎn)。
當(dāng)前,算法權(quán)力已經(jīng)迅速的滲入到了人們的日常生活和社會(huì)生產(chǎn)之中,引發(fā)了人們的極大關(guān)注。透過(guò)紛繁復(fù)雜的現(xiàn)象,可以看出,算法權(quán)力對(duì)自由、平等、安全法價(jià)值觀念產(chǎn)生了沖擊。
整個(gè)法律和正義的哲學(xué)就是以自由觀念為核心而構(gòu)建起來(lái)的,朱利葉斯·凱撒曾說(shuō)“任何人生來(lái)都渴求自由、痛恨奴役狀況”。[8]一般意義上,自由包括人的意志自由和行動(dòng)自由。
算法對(duì)行動(dòng)自由的挑戰(zhàn)。算法通過(guò)對(duì)海量數(shù)據(jù)的分析、分類(lèi)、歸納及整合,能勾勒出“用戶畫(huà)像”,從而實(shí)現(xiàn)定向推送,一定程度上限制了公眾的選擇自由。這種場(chǎng)景常發(fā)生于基于算法定向推送的情形?!爸悄芩惴ǖ膫€(gè)性化服務(wù)使人的需求受制于數(shù)據(jù),人性自身的超越性自由和可能性力量被迅速限制。”[9]以消費(fèi)者選擇自由受限為例,在算法未誕生之前,消費(fèi)者可以在網(wǎng)絡(luò)平臺(tái)上自由的選擇中意的商品,雖說(shuō)是漫無(wú)目的,但消費(fèi)者享有選擇的絕對(duì)自由。而算法的介入,使得個(gè)性化定向推送成為可能,消費(fèi)者的選擇自由受到了極大地限制。當(dāng)消費(fèi)者在網(wǎng)絡(luò)平臺(tái)瀏覽各種商品時(shí)會(huì)留下瀏覽的痕跡,“一旦這些數(shù)據(jù)淪為算法技術(shù)的分析對(duì)象——算料,那么,算法技術(shù)有可能會(huì)進(jìn)一步挖掘、整合和加總這些數(shù)據(jù),從不同系統(tǒng)的數(shù)據(jù)腳印中,印證、解釋和再現(xiàn)個(gè)體的一切活動(dòng)軌跡,個(gè)人隱私無(wú)處遁形,個(gè)人行動(dòng)還會(huì)被誘導(dǎo)”[10]。自主性是技術(shù)最根本的特性,技術(shù)自主性意味著技術(shù)擺脫了社會(huì)控制,正在形成一種難以抑制的力量,人類(lèi)自由將受到威脅。
算法對(duì)意志自由的挑戰(zhàn)。搜索引擎服務(wù)商利用算法規(guī)則顯示搜索排名,受商業(yè)目的、政治目的、技術(shù)目的的影響,有的內(nèi)容被優(yōu)先顯示,有的則無(wú)法顯示,一定程度上限制了言說(shuō)者的言論自由的權(quán)利。以谷歌廣告排名系統(tǒng)為例,通過(guò)競(jìng)價(jià)的方式在有限的展示名單上排列產(chǎn)品廣告信息,無(wú)異于壓制了其他產(chǎn)品提供商言論自由的權(quán)利。換句話說(shuō),有錢(qián)的人能夠享有充分的言論自由,而相對(duì)沒(méi)錢(qián)的人的言論自由被限制或剝奪。如上所述的個(gè)性化算法推薦,除了限制公眾選擇自由,一定程度上沖擊了公眾的思想自由。以今日頭條新聞推送為例,頻繁的、持續(xù)的精準(zhǔn)推送會(huì)形成“信息繭房”效應(yīng),慢慢侵蝕人的思想,使人的思考和認(rèn)知片面化。
與平等相對(duì)的用語(yǔ)為不平等,而歧視通常以一種不平等的視角對(duì)待人或事物。毋庸置疑,算法背景下形成的算法歧視構(gòu)成了對(duì)平等最直接的挑戰(zhàn),主要表現(xiàn)為價(jià)格歧視、性別歧視、種族歧視三種形式。
價(jià)格歧視。價(jià)格歧視最為大眾所熟知,區(qū)別于傳統(tǒng)的價(jià)格歧視,算法驅(qū)動(dòng)下的價(jià)格歧視是基于海量的消費(fèi)者數(shù)據(jù)的收集,然后由算法對(duì)數(shù)據(jù)進(jìn)行分析比對(duì),進(jìn)而了解消費(fèi)者的消費(fèi)習(xí)慣,最終形成針對(duì)特定消費(fèi)者的價(jià)格?!按髷?shù)據(jù)殺熟”這一術(shù)語(yǔ)在2018年被評(píng)為社會(huì)生活類(lèi)十大用語(yǔ),即面對(duì)同樣的商品或服務(wù),老用戶看到的價(jià)格要比新用戶看到的價(jià)格要高,多發(fā)生于關(guān)系消費(fèi)的網(wǎng)絡(luò)平臺(tái),比如酒店、旅游、美食、機(jī)票類(lèi)平臺(tái)。這些平臺(tái)廣泛運(yùn)用消費(fèi)者往常登錄平臺(tái)留下的大量痕跡,進(jìn)而運(yùn)用算法對(duì)其進(jìn)行分析形成精準(zhǔn)的“消費(fèi)畫(huà)像”,最終做到一人一價(jià)。性別歧視,主要發(fā)生于求職領(lǐng)域,2015年,谷歌公司開(kāi)發(fā)的廣告算法被指存在嚴(yán)重的性別歧視??▋?nèi)基·梅隆大學(xué)和國(guó)際計(jì)算機(jī)科學(xué)研究所(ICSI)的研究人員的一項(xiàng)研究使用了一款名為AdFisher的定制軟件,模擬了網(wǎng)絡(luò)用戶的瀏覽活動(dòng),當(dāng)訪問(wèn)招聘網(wǎng)站的時(shí)候,假冒男性用戶會(huì)更頻繁地顯示許諾高薪的廣告,而假冒女性時(shí)卻沒(méi)有。種族歧視,相對(duì)而言,種族歧視則更為隱蔽。Northpointe公司推出的COMPAS(有關(guān)替代性制裁的懲教罪犯管理概況)軟件,它可以預(yù)測(cè)被告再次犯罪的概率,而黑人再次犯罪的概率明顯大于白人。[8]
算法時(shí)代的安全威脅,主要源于數(shù)據(jù)的泄露尤其是含有個(gè)人隱私的數(shù)據(jù)泄露。數(shù)據(jù)被譽(yù)為新的“石油”資源,資源屬性意義重大,而有算法的助力,數(shù)據(jù)將發(fā)揮更大的效用。一旦發(fā)生數(shù)據(jù)泄露,受利益驅(qū)使、居心叵測(cè)并擁有強(qiáng)大算法技術(shù)的大企業(yè)便抓住機(jī)會(huì)對(duì)泄露數(shù)據(jù)進(jìn)行分析、整合,推測(cè)出數(shù)據(jù)擁有者的更多的個(gè)人信息或關(guān)聯(lián)人的信息,形成數(shù)據(jù)泄露的再次升級(jí)。不論用于合法的活動(dòng)還是非法的活動(dòng),都對(duì)個(gè)人隱私安全甚至人身安全、財(cái)產(chǎn)安全構(gòu)成比先前單純的數(shù)據(jù)泄露更大地威脅。
當(dāng)前的算法權(quán)力規(guī)制手段大多集中于具體制度的構(gòu)建,誠(chéng)然,如果能夠落實(shí),預(yù)測(cè)能有一定的效果,但是算法畢竟是一類(lèi)新生事物,當(dāng)前并無(wú)哪部法律或法規(guī)能夠有效約束,從新的立法到施行更是需要很長(zhǎng)一段時(shí)間,因此,從價(jià)值指引、原則調(diào)適方面對(duì)于現(xiàn)階段的算法權(quán)力規(guī)制能起到更好的效果,也更有益于算法的創(chuàng)新與社會(huì)的發(fā)展進(jìn)步。當(dāng)然,具體的制度也要積極構(gòu)建,制度落實(shí)只是時(shí)間長(zhǎng)短問(wèn)題。因此,本文嘗試構(gòu)建一種價(jià)值與原則先行、具體制度逐步推進(jìn)的順序規(guī)制策略。
“尊嚴(yán)”是一個(gè)抽象詞匯,屬于意識(shí)范疇領(lǐng)域。關(guān)于“尊嚴(yán)”的概念和內(nèi)涵因人或因時(shí)代而異,尊嚴(yán)是指人們的尊嚴(yán)還是人性尊嚴(yán)還是人格尊嚴(yán)也存著爭(zhēng)議,雖然表達(dá)用語(yǔ)不同,但都不無(wú)例外的體現(xiàn)了對(duì)人的關(guān)注和重視?!白饑?yán)”意味著尊重他人,基于人與人之間的相互尊重,人們內(nèi)心的自由、平等、安全、自信感得到滿足,進(jìn)而遵從內(nèi)心理性從事社會(huì)交往,得以形成和諧的人際關(guān)系,最終促進(jìn)社會(huì)的和諧與穩(wěn)定,社會(huì)的公平正義也就自然實(shí)現(xiàn)了。
互聯(lián)網(wǎng)絡(luò)的發(fā)展,人與人之間、人與社會(huì)之間的聯(lián)系多通過(guò)虛擬網(wǎng)絡(luò)建構(gòu),大數(shù)據(jù)挖掘技術(shù)與算法技術(shù)的結(jié)合,能近乎精確的勾勒出“用戶畫(huà)像”,使得人們對(duì)于尊嚴(yán)的理解多局限于虛擬網(wǎng)絡(luò)環(huán)境,忽略了現(xiàn)實(shí)中人的主體性特征,直接導(dǎo)致了人們對(duì)人的尊嚴(yán)的低維理解和認(rèn)知意義削減。但是,當(dāng)算法應(yīng)用對(duì)人的自由、平等、安全、公共利益的產(chǎn)生威脅時(shí),人們并未徹底認(rèn)識(shí)到這是對(duì)人的尊嚴(yán)的嚴(yán)重侵犯??档略f(shuō):“任何人都沒(méi)有權(quán)利僅把他人作為實(shí)現(xiàn)自己主觀目的的工具。每個(gè)個(gè)人都應(yīng)當(dāng)永遠(yuǎn)被視為目的本身”,這是近代時(shí)期先哲對(duì)人的尊嚴(yán)做的最完美的詮釋。因此,相較于算法應(yīng)用,人的尊嚴(yán)保護(hù)當(dāng)置于優(yōu)先地位。
利益衡量原則指在算法設(shè)計(jì)前,在算法的設(shè)計(jì)者、算法使用者或擁有者、算法應(yīng)用對(duì)象之間的一種利益衡量。這一原則對(duì)于緩和由網(wǎng)絡(luò)平臺(tái)與平臺(tái)用戶地位不平等、資源占有不對(duì)等引發(fā)的對(duì)自由、平等、安全價(jià)值觀念的沖擊具有平衡作用。當(dāng)前,算法的應(yīng)用主要集中在商業(yè)領(lǐng)域,公共治理領(lǐng)域雖然也在積極推進(jìn),但仍不及商業(yè)領(lǐng)域應(yīng)用的普遍和深入。無(wú)論哪個(gè)領(lǐng)域,背后必然有利益的衡量,如何協(xié)調(diào)背后的資本利益,使之契合各方的利益訴求,是社會(huì)實(shí)現(xiàn)公平正義的關(guān)鍵。
在商業(yè)領(lǐng)域,一般涉及的利益相關(guān)方為算法的設(shè)計(jì)者、算法使用者(所有者)、算法的應(yīng)用者。限于開(kāi)發(fā)能力,除了幾個(gè)大型互聯(lián)網(wǎng)企業(yè),其他企業(yè)的算法系統(tǒng)幾乎都是委托他方開(kāi)發(fā),所以算法設(shè)計(jì)者的利益是獲取服務(wù)費(fèi)用,算法使用者的利益是實(shí)現(xiàn)最大可能的利潤(rùn),算法應(yīng)用者的利益是實(shí)現(xiàn)便捷服務(wù)與利益盡可能不受損害。其中,算法使用者與算法應(yīng)用者之間的利益是存在沖突的,或者說(shuō)資本利益與有限公共利益的沖突。此時(shí),應(yīng)當(dāng)將算法使用者的利益和算法應(yīng)用者的利益置于算法應(yīng)用這一平臺(tái)加以比較。同樣,在公共治理領(lǐng)域,應(yīng)當(dāng)將算法的使用者即政府的利益與算法的應(yīng)用者即社會(huì)公眾之間的利益置于算法應(yīng)用這一平臺(tái)加以比較。至于如何衡量各方利益,需要根據(jù)自動(dòng)化決策的適用對(duì)象、適用范圍、評(píng)估效果等因素而定。但毋庸置疑的是,公共利益應(yīng)為首要考慮,且不得損害公共利益是底線要求。
程序正當(dāng)原則是行政法的基本原則之一,正當(dāng)程序是指基于公平、正義而應(yīng)遵循的程序,不論法律是否有明確規(guī)定都應(yīng)予以遵守,它是對(duì)行政主體行使行政權(quán)力的最低限度的程序要求。[11]算法權(quán)力是掌握算法技術(shù)的個(gè)人和企業(yè)利用自身的技術(shù)優(yōu)勢(shì)和行業(yè)便利,把控社會(huì)資源及信息,引導(dǎo)政府作出決策,從而形成的一股不可小覷的力量。雖說(shuō)算法權(quán)力具有橫向性,不同于縱向性的國(guó)家權(quán)力,但就雙方的權(quán)力本質(zhì)而言,兩者具有統(tǒng)一性,都具有控制和影響他人的能力。目前,學(xué)界有稱(chēng)算法權(quán)力為“準(zhǔn)公權(quán)力”。鑒于算法權(quán)力與國(guó)家權(quán)力具有相似之處,有必要吸收程序正當(dāng)原則作為指導(dǎo)實(shí)現(xiàn)算法正義的一項(xiàng)原則。這一原則使算法運(yùn)行透明化尤其是從數(shù)據(jù)收集到分析的整個(gè)過(guò)程,同時(shí)賦予公眾參與的權(quán)利,是從算法應(yīng)用的初始階段開(kāi)始對(duì)算法進(jìn)行規(guī)制,對(duì)于數(shù)據(jù)安全、公共利益的維護(hù)具有重要作用。具體包括算法公開(kāi)原則和公眾參與原則,公開(kāi)原則指算法的使用者應(yīng)當(dāng)主動(dòng)向公眾公開(kāi)算法系統(tǒng)的數(shù)據(jù)收集、數(shù)據(jù)處理、數(shù)據(jù)應(yīng)用的情況,其中數(shù)據(jù)收集是算法系統(tǒng)運(yùn)行的初始步驟,能夠從源頭上把握數(shù)據(jù)的契合度,防止出現(xiàn)“數(shù)據(jù)鴻溝”與采集數(shù)據(jù)單一化的現(xiàn)象;如果數(shù)據(jù)契合度很高,數(shù)據(jù)處理環(huán)節(jié)就會(huì)相對(duì)公平;數(shù)據(jù)應(yīng)用包括自動(dòng)化決策、行為控制等環(huán)節(jié)。公眾參與原則指當(dāng)算法系統(tǒng)向公眾公開(kāi)后,應(yīng)當(dāng)聽(tīng)取公眾的意見(jiàn)。尤其是有損公眾利益的決定,公眾有權(quán)進(jìn)行申辯。
1.建立以憲法為核心,以多部門(mén)為輔的制度保障體系。人權(quán)是一個(gè)歷史概念,不同的歷史階段、時(shí)代背景有著不同的人權(quán)解讀,相應(yīng)的,侵犯和保護(hù)人權(quán)的方式也會(huì)發(fā)生變化。當(dāng)前侵犯人權(quán)的方式呈現(xiàn)出智能化、隱蔽性的特征,侵犯人權(quán)的時(shí)間上具有長(zhǎng)期性特征,如上文提到的算法定向推薦、算法歧視,人們的權(quán)益受到侵犯卻渾然不知,嚴(yán)重威脅著社會(huì)的公平正義。更嚴(yán)重的是,目前尚無(wú)專(zhuān)門(mén)性的法律規(guī)章制度進(jìn)行規(guī)制。
憲法是國(guó)家的根本大法,具有統(tǒng)帥部門(mén)法的領(lǐng)導(dǎo)地位。憲法第三十三條第二款規(guī)定了“尊重和保障人權(quán)”,(1)《中華人民共和國(guó)憲法》第三十三條第二款。,憲法第三十八條規(guī)定了“中華人民共和國(guó)公民的人格尊嚴(yán)不受侵犯”,(2)《中華人民共和國(guó)憲法》第三十八條。這些規(guī)定都是原則性的規(guī)定,對(duì)于緩解算法對(duì)自由、平等、安全、公共利益正義價(jià)值的侵害具有引領(lǐng)和指導(dǎo)作用。此外,《民法典》中對(duì)人格權(quán)的保護(hù),《網(wǎng)絡(luò)安全法》中對(duì)網(wǎng)絡(luò)產(chǎn)品、服務(wù)的提供者的約束,對(duì)用戶個(gè)人信息保護(hù),以及即將出臺(tái)的《個(gè)人信息保護(hù)法》,都不同程度的發(fā)揮著保護(hù)人們基本權(quán)益的積極作用。因此,非常有必要構(gòu)建以憲法為核心,即以尊重和保障人權(quán)原則為指導(dǎo),從憲法價(jià)值、憲法原則、憲法具體條文層面延伸到各個(gè)部門(mén)法相關(guān)的條款對(duì)算法出現(xiàn)的問(wèn)題進(jìn)行規(guī)制,遏制算法帶來(lái)的侵害人權(quán)、侵害社會(huì)公平正義的情形。
2.在具體的應(yīng)用場(chǎng)景中對(duì)算法權(quán)力進(jìn)行規(guī)制。第一,公共治理領(lǐng)域中的算法權(quán)力規(guī)制。一是對(duì)于涉及公共利益的一般決策,應(yīng)當(dāng)嚴(yán)格遵循程序正當(dāng)原則,及時(shí)公開(kāi)算法(涉及國(guó)家秘密、商業(yè)秘密的除外),保證公眾知情權(quán);對(duì)于涉及公共利益的重大決策,除了遵循前述原則,應(yīng)當(dāng)對(duì)算法應(yīng)用的必要性進(jìn)行論證,必要時(shí)舉行聽(tīng)證會(huì)。二是配置個(gè)人權(quán)利對(duì)抗算法權(quán)力。根據(jù)算法應(yīng)用的實(shí)際情況,適當(dāng)?shù)馁x予個(gè)人以數(shù)據(jù)權(quán)利,包括但不限于知情權(quán)、訪問(wèn)權(quán)、刪除權(quán)、拒絕權(quán),防止算法權(quán)力的肆意侵害。
第二,商業(yè)領(lǐng)域中的算法權(quán)力規(guī)制。一是加強(qiáng)政府層面對(duì)算法權(quán)力的監(jiān)管,建立算法問(wèn)責(zé)制度,發(fā)現(xiàn)算法危害公共利益的情形,及時(shí)介入處理并追究責(zé)任。二是嚴(yán)格把控?cái)?shù)據(jù)質(zhì)量包括數(shù)據(jù)的清潔度、數(shù)據(jù)的均衡性、數(shù)據(jù)的完整性,從源頭上保證數(shù)據(jù)的匹配度與公正性,實(shí)現(xiàn)“數(shù)據(jù)正義”[12]。如拒絕將種族、弱勢(shì)群體等因素納入基礎(chǔ)數(shù)據(jù),防止算法歧視的滋生。三是在基礎(chǔ)數(shù)據(jù)中嵌入社會(huì)倫理觀念,使社會(huì)倫理成為自動(dòng)化決策的參考因素,確保企業(yè)在追逐利益的同時(shí)符合公眾的容忍期待。四是要求企業(yè)自身建立健全風(fēng)險(xiǎn)監(jiān)控機(jī)制和事后救濟(jì)制度,對(duì)算法應(yīng)用的全過(guò)程進(jìn)行監(jiān)控,一旦發(fā)現(xiàn)危險(xiǎn)情況應(yīng)立即上報(bào)和處理。如果出現(xiàn)了損害結(jié)果,應(yīng)及時(shí)對(duì)外公布,必要的給予賠償。