宋保振,秦瑞標(biāo)
(1.山東大學(xué) 法學(xué)院,山東 青島 266237;2.上海對外經(jīng)貿(mào)大學(xué) 法學(xué)院,上海 201620)
伴隨著互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能等技術(shù)的深入發(fā)展和快速擴(kuò)散,算法推薦在互聯(lián)網(wǎng)各種信息內(nèi)容交互場景中被廣泛使用。算法推薦的應(yīng)用有效提升了互聯(lián)網(wǎng)平臺(以下簡稱“平臺”)的信息內(nèi)容供給能力,促進(jìn)了信息內(nèi)容與受眾間的精準(zhǔn)匹配。與此同時,算法推薦還解構(gòu)著傳統(tǒng)的信息傳播方式和信息內(nèi)容生態(tài),通過“技術(shù)賦權(quán)”重新塑造了平臺和用戶之間的權(quán)力話語體系。在數(shù)字資本驅(qū)動下的算法技術(shù)有著自身的運(yùn)行邏輯,當(dāng)算法技術(shù)以平臺利益之實現(xiàn)為目標(biāo)時,就必然會出現(xiàn)用戶信息權(quán)益與算法技術(shù)追求的非一致性。該非一致性集中表現(xiàn)為算法推薦屢屢導(dǎo)致“信息繭房”的形成,成為他人操縱大眾的工具和劣質(zhì)、虛假信息泛濫的幫兇。這損害了信息的獲取自由與分配正義,進(jìn)而導(dǎo)致信息公平的失衡。單純的技術(shù)治理在面對算法技術(shù)的復(fù)雜性、主體利益的沖突性及損害產(chǎn)生的隱秘性時難以自足,需要在法律制度層面對其進(jìn)行回應(yīng)。
面對信息公平失衡而規(guī)范供給不足的尷尬局面,國家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部、公安部、國家市場監(jiān)督管理總局于2021年12月31日,聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡稱《規(guī)定》),實現(xiàn)了算法推薦領(lǐng)域?qū)iT立法零的突破。不過,《規(guī)定》仍然存在具體要求難以落實、相關(guān)制度有待細(xì)化等問題,從紙面上的法到實踐中的法仍然需進(jìn)一步的豐富和完善。基于此,本文在剖析互聯(lián)網(wǎng)時代信息公平及其原因的基礎(chǔ)上,闡明對信息公平失衡進(jìn)行法律規(guī)制的必要性及現(xiàn)存制度余量,并進(jìn)一步提出豐富和完善《規(guī)定》的建議。
人類社會從信息化到數(shù)字化的轉(zhuǎn)變,使信息的生產(chǎn)和傳播方式發(fā)生了極大改變。在此社會變遷過程中,信息公平既保留著傳統(tǒng)信息化時代下的固有內(nèi)涵,又因新型失衡樣態(tài)的出現(xiàn)而呈現(xiàn)出數(shù)字化時代的獨(dú)特性。隨著互聯(lián)網(wǎng)的日益普及和信息技術(shù)的快速發(fā)展,信息資源成為基本的發(fā)展資源,網(wǎng)絡(luò)化成為社會的基本交往方式,人類也因此從工業(yè)社會邁入了信息社會。在此背景下,新聞傳播及圖書情報領(lǐng)域的學(xué)者提出信息公平的概念,用于探討和闡釋公民信息權(quán)利中的公平問題。關(guān)于信息公平的內(nèi)涵,有學(xué)者從個體信息獲取和分配的視角出發(fā),認(rèn)為信息公平是在一定的歷史時期和社會環(huán)境中,人們對信息資源的獲取和分配中所體現(xiàn)的平衡與對等狀態(tài)。(1)蔣永福、劉鑫:《論信息公平》,《圖書與情報》2005年第6期,第2-5、22頁。有學(xué)者從個體間信息利益平衡維度出發(fā),闡明信息公平是所有人在生活中都有機(jī)會獲得對他們來說至關(guān)重要及有意義的所有信息,強(qiáng)調(diào)信息在不同的群體、地區(qū)、族群以及其他各種社會組織之間的公平合理分配。(2)唐思慧:《信息公平及其產(chǎn)生的背景研究》,《圖書與情報》2008年第5期,第18-21、33頁。還有學(xué)者圍繞信息公平的價值理念展開討論,強(qiáng)調(diào)信息公平是在一定歷史和物質(zhì)背景下,符合公平、正義、平等價值理念的社會主體間的信息關(guān)系。(3)李昊青:《現(xiàn)代權(quán)利價值語境中的信息公平與信息權(quán)利》,《圖書情報工作》2009年第21期,第46-49、125頁。雖然不同學(xué)者論述的角度和側(cè)重點(diǎn)有所不同,但是他們也仍在一定程度上達(dá)成有效共識。
雖然人們對信息公平的價值追求在多年來并沒有產(chǎn)生實質(zhì)性的變化,但是信息公平作為一個歷史性的概念,必定會隨著社會的發(fā)展和變遷而在不同的歷史時期展現(xiàn)出不同的時代內(nèi)涵。因此,要明晰不同歷史時期“信息公平”的內(nèi)涵,“只有理解了每一個與之相應(yīng)的時代的物質(zhì)生活條件并且從這些物質(zhì)條件中被引申出來的時候”,才能真正解讀出“信息公平”的本體及其價值實質(zhì)。(4)《馬克思恩格斯選集》第2卷,北京:人民出版社,1995年,第38頁。在社會接入互聯(lián)網(wǎng)的初期,我國能夠獲取信息資訊及進(jìn)行信息生產(chǎn)和分享的各類門戶網(wǎng)站、論壇、博客和貼吧的種類有限,且政府等主體的信息公開制度亦不完善。此外,還存在著公民互聯(lián)網(wǎng)接入設(shè)備匱乏、對電腦及互聯(lián)網(wǎng)的運(yùn)用能力較弱等情況。因此,在這一時期,人們面臨的主要問題是社會信息化緩慢而導(dǎo)致互聯(lián)網(wǎng)中可獲取的信息較少、公民間互聯(lián)網(wǎng)接入程度不同帶來的“數(shù)字接入溝”及公民間數(shù)字技能差異而產(chǎn)生的“數(shù)字使用溝”。這一問題的具體解決對策在于,推動信息上網(wǎng)、政務(wù)公開及基礎(chǔ)設(shè)施建設(shè)以提高社會的信息化程度,同時培育數(shù)字公民以減少公民間在信息獲取和互聯(lián)網(wǎng)使用上的差異。
通過對問題成因及其消解措施的分析,我們可以得出以下結(jié)論:該時期的信息獲取自由主要是指公民擁有接入互聯(lián)網(wǎng)的必要設(shè)備,以實現(xiàn)對各類信息的自由獲取。同時,分配正義指的是公民擁有足夠的能力參與互聯(lián)網(wǎng),以充分享受信息化所帶來的便捷。
在互聯(lián)網(wǎng)已成為人們?nèi)粘I畈豢苫蛉钡囊徊糠?、社會從信息化邁向數(shù)字化的當(dāng)下,情況發(fā)生了改變。一方面,伴隨著我國信息資源基礎(chǔ)設(shè)施的普及、互聯(lián)網(wǎng)產(chǎn)業(yè)的快速發(fā)展、網(wǎng)絡(luò)扶貧政策的落實和數(shù)字技能課程在義務(wù)教育階段的廣泛開設(shè),我國在填平“數(shù)字接入溝”和“數(shù)字使用溝”方面走在了世界的前列。根據(jù)《第48次中國互聯(lián)網(wǎng)絡(luò)發(fā)展?fàn)顩r統(tǒng)計報告》,截至2021年6月,我國網(wǎng)民規(guī)模已經(jīng)達(dá)到了10.11億,互聯(lián)網(wǎng)普及率為71.6%,網(wǎng)民中使用手機(jī)上網(wǎng)的比例為99.6%,絕大部分公民實現(xiàn)了觸網(wǎng),并且深度參與到數(shù)字化生活當(dāng)中來。(5)中國互聯(lián)網(wǎng)絡(luò)信息中心:《第48次中國互聯(lián)網(wǎng)絡(luò)發(fā)展?fàn)顩r統(tǒng)計報告》,2021年9月15日,http://www.cnnic.cn/hlwfzyj/hlwxzbg/,2022年1月20日。如今,信息的自由獲取及互聯(lián)網(wǎng)的參與似乎已經(jīng)不再成為主要問題。另一方面,大數(shù)據(jù)、人工智能、深度學(xué)習(xí)等技術(shù)在互聯(lián)網(wǎng)的廣泛運(yùn)用,深刻地改變了信息的傳播方式和內(nèi)容生態(tài)。例如,算法推薦技術(shù)的應(yīng)用,實現(xiàn)了信息傳播從“人找信息”的單向聯(lián)絡(luò)到“信息找人”的雙向互動。與此同時,信息內(nèi)容生態(tài)也伴隨著互聯(lián)網(wǎng)中技術(shù)和知識的不斷更新發(fā)展、自媒體平臺的出現(xiàn),從信息匱乏演變成信息過載,呈現(xiàn)出“多而弱,富有而不富?!钡臓顟B(tài)。在數(shù)字化時代,信息公平的內(nèi)涵變化已成為一個不爭事實。
平臺通過算法推薦技術(shù)的賦能既實現(xiàn)了自身的生產(chǎn)提效、精準(zhǔn)分發(fā)、智慧決策,亦通過向用戶進(jìn)行個性化內(nèi)容推送,將用戶從茫茫的信息海洋中解放出來,節(jié)省著大量的信息檢索成本。(6)中國傳媒大學(xué)新媒體研究院、新浪AI媒體研究院:《中國智能媒體發(fā)展報告(2020-2021)》,2021年3月25日,https://www.cuc.edu.cn/2021/0324/c1761a179077/page.htm,2022年1月20日。理想的狀態(tài)下,算法推薦能夠協(xié)助信息需求端和供給端進(jìn)行精準(zhǔn)匹配,使平臺和個人都能夠從中受益。但是受制于算法推薦技術(shù)自身的運(yùn)行邏輯,以及平臺和用戶之間對技術(shù)掌握的巨大差異,在現(xiàn)實中,不僅難以實現(xiàn)技術(shù)紅利的普遍共享,甚至?xí)l(fā)信息公平失衡的新樣態(tài)。
現(xiàn)有的算法推薦技術(shù)所推送的內(nèi)容往往直接針對個體的既有偏好和興趣,容易造成用戶被大量同類信息包圍而陷入“信息繭房”。人民網(wǎng)曾連續(xù)推出《不能讓算法決定內(nèi)容》《別被算法困在“信息繭房”》《警惕算法走向創(chuàng)新的反面》三篇文章對算法推薦提出批評,這更進(jìn)一步引發(fā)了社會對該現(xiàn)象的關(guān)注和思考。(7)《人民網(wǎng)一評算法推薦:不能讓算法決定內(nèi)容》,2017年9月18日,http://opinion.people.com.cn/n1/2017/0918/c1003-29540709.html,2022年1月20日;《人民網(wǎng)二評算法推薦:別被算法困在“信息繭房”》,2017年9月19日,http://opinion.people.com.cn/n1/2017/0919/c1003-29544724.html,2022年1月20日;《人民網(wǎng)三評算法推薦:警惕算法走向創(chuàng)新的反面》,2017年9月20日,http://opinion.people.com.cn/n1/2017/0920/c1003-29545718.html,2022年1月20日。在算法推薦技術(shù)的賦能下,平臺可以隨時根據(jù)用戶的需求和偏好對信息進(jìn)行選擇和過濾,投其所好地進(jìn)行信息的精準(zhǔn)投喂,為用戶打造出個性化的信息舒適區(qū),構(gòu)筑起與外界多元信息和觀念的隔離墻,從而使用戶陷入“信息繭房”。然而,“我所看到的都是我想看的”也暗含著“我能看到的只有算法認(rèn)為我想看的”,算法推薦的信息內(nèi)容滿足了用戶的“欲知”訴求而忽視了“應(yīng)知”訴求。此時的用戶雖然能夠源源不斷地接收到海量信息,但是信息內(nèi)容在觀點(diǎn)和類型上同質(zhì)化嚴(yán)重。
此外,算法推薦亦未能注意到個體的行為邏輯并非永遠(yuǎn)以線性的方式遵循過去的行為樣式而一條道走到黑,也無法對個體基于未來目標(biāo)導(dǎo)向而產(chǎn)生的有異于過去行為的現(xiàn)實需求作出預(yù)測。(8)匡文波:《智能算法推薦技術(shù)的邏輯理路、倫理問題及規(guī)制方略》,《深圳大學(xué)學(xué)報(人文社會科學(xué)版)》2021年第1期,第144-151頁。在很多時候,用戶在過去留下的點(diǎn)擊和檢索痕跡往往并不代表其當(dāng)下真正的內(nèi)容需求,而算法對此無從知曉,只能仍然依據(jù)用戶過去的行為慣性進(jìn)行內(nèi)容分發(fā),形成一份不合用戶口味的“我的日報”。(9)“我的日報”概念由桑斯坦提出,表示一份由完全依據(jù)用戶興趣編排的報紙。參見凱斯·桑斯坦:《網(wǎng)絡(luò)共和國》,黃維明譯,上海:上海人民出版社,2003年,第1-4頁。算法推薦讓用戶在愉悅的“信息繭房”中無法自拔的同時,也在暗中隱秘地剝奪了用戶獲得和接觸多樣信息和異樣觀點(diǎn)的機(jī)會,禁錮了用戶客觀認(rèn)識世界的視野,損害了用戶的信息獲取自由。(10)申楠:《算法時代的信息繭房與信息公平》,《西安交通大學(xué)學(xué)報(社會科學(xué)版)》2020年第2期,第139-144頁。
更進(jìn)一步地,如果說“信息繭房”現(xiàn)象是當(dāng)下算法推薦技術(shù)應(yīng)用過程中由于技術(shù)不完善和推薦方式不甚合理所產(chǎn)生的后果,其所造成的影響并非人們主動追求的結(jié)果,那么,在算法操縱的場景中,隱藏在算法推薦背后的那一雙雙肆意操縱和決定著用戶信息內(nèi)容接收的手更是以人為的方式加劇損害著用戶的信息獲取自由。以劍橋分析公司事件為例,劍橋分析公司通過大量收集美國臉書用戶的數(shù)據(jù),并對用戶數(shù)據(jù)進(jìn)行分析,進(jìn)而構(gòu)建出用戶的政治畫像,最后通過算法瞄準(zhǔn)的方式對不同的選民采取不同的話語策略和宣傳方式,以完成對選民的說服,實現(xiàn)選舉的精準(zhǔn)動員。例如,為了使特朗普在競選中提出關(guān)于捍衛(wèi)美國人持槍權(quán)的觀點(diǎn)得到更多選民的認(rèn)可,劍橋分析公司通過臉書平臺對冒險型性格的選民推送以暴制暴型的廣告,告訴他們槍能消除外部威脅,捍衛(wèi)自由;保護(hù)者型性格的選民收到的廣告則是“槍是保護(hù)他人不可或缺的工具”,而理性沉穩(wěn)型性格的選民接收的廣告則聲稱“槍能保護(hù)家人和美好未來”。(11)孫寶云、李艷、齊巍:《網(wǎng)絡(luò)安全影響政治安全的微觀分析——以“劍橋分析”事件為例》,《保密科學(xué)技術(shù)》2020年第4期,第27-34頁。
此外,除了宣傳自身的政治主張外,還出現(xiàn)了利用算法對競選對手實施污名化宣傳、大肆制造和傳播不利于競選對手的陰謀論、假新聞、歪曲客觀事實進(jìn)行惡性競爭的情況,該類宣傳往往切合選民的心理偏好,容易為人所相信和接受。在算法的瞄準(zhǔn)下,用戶在互聯(lián)網(wǎng)中接收的選舉資訊看似五花八門,但當(dāng)中的信息內(nèi)容往往都是經(jīng)他人精心篩選和編制。操縱算法推薦技術(shù)的手通過“植入”意向和行為動機(jī)的宣傳潛移默化地塑造著用戶對于選舉的認(rèn)知和想法,通過信息供給形成對用戶的規(guī)訓(xùn)和思想控制,干預(yù)用戶的決定。用戶能看到的信息從“算法認(rèn)為我想看的”進(jìn)一步演化成“別人認(rèn)為我該看的”,此時用戶不僅失去了多樣化信息的獲取自由,甚至淪為了幕后集團(tuán)追求自身利益的工具。
總之,從大量同類信息投喂形成的“信息繭房”到悄無聲息的算法操縱,數(shù)字化時代下的人們不再受困于網(wǎng)上信息資源的稀缺和互聯(lián)網(wǎng)接入設(shè)備的匱乏,而是苦惱于被大量觀點(diǎn)片面、視角單一的同質(zhì)化信息所圍繞,無法直面多元而真實的世界。信息公平中獲取自由的內(nèi)涵也從能夠獲取大量信息的自由轉(zhuǎn)變成為能夠獲取多樣化信息的自由。
除信息獲取階段的不平等外,另一個突出的問題就是劣質(zhì)、虛假信息的泛濫。人們生活在一個信息爆炸的社會中,有益信息周圍充斥著大量的假新聞、虛假廣告、嘩眾取寵的論辯等有害信息,且該類信息在互聯(lián)網(wǎng)上日益泛濫,污染著互聯(lián)網(wǎng)的信息內(nèi)容生態(tài),已然成為網(wǎng)絡(luò)中的新公害,困擾著人們的生活。
以新聞內(nèi)容為例,有關(guān)機(jī)構(gòu)調(diào)研發(fā)現(xiàn),大多數(shù)用戶對當(dāng)前新聞傳媒的內(nèi)容質(zhì)量并不滿意:67%的人提到有很多標(biāo)題黨新聞,點(diǎn)進(jìn)去被欺騙;58%的人吐槽蹭熱點(diǎn);48%的人覺得虛假新聞泛濫;47%的人認(rèn)為當(dāng)前營銷號軟文太多;35%的人認(rèn)為內(nèi)容太少而觀點(diǎn)太多。(12)《2019-2020內(nèi)容產(chǎn)業(yè)趨勢報告》,2019年12月3日,https://new.qq.com/omn/20191203/20191203A0DWBE00.html,2021年10月3日。無意義、質(zhì)量低下甚至虛假的信息充斥互聯(lián)網(wǎng)的各個角落,占據(jù)人們信息獲取的各個渠道,消耗人們辨識的精力,降低人們獲取信息的效率,擠壓優(yōu)質(zhì)信息的生存空間。人們被大量信息所包圍,卻又因信息質(zhì)量的泥沙俱下而難以獲得有用的信息。信息質(zhì)量低下導(dǎo)致人們無法充分享有信息紅利,進(jìn)而導(dǎo)致信息“分配正義”的落空。
更進(jìn)一步地,如果說劣質(zhì)、虛假信息的泛濫作為互聯(lián)網(wǎng)信息內(nèi)容生態(tài)中的普遍現(xiàn)象,其所致的“分配正義”落空以社會大眾為承擔(dān)主體,并不直接指向特定人群,其雖然在宏觀的社會層面上出現(xiàn)了信息公平的失衡,在微觀的群體層面上卻仍保持著相對公平的狀態(tài)。那么,在面對掌握用戶畫像后而具有強(qiáng)大洞察力的算法推薦技術(shù)時,以老年人為代表的部分互聯(lián)網(wǎng)使用者,媒介素養(yǎng)較低、網(wǎng)絡(luò)知識盲點(diǎn)多、缺乏信息辨析能力,他們就像是毫無免疫能力的待宰羔羊,極容易成為謠言和偽科學(xué)內(nèi)容的“感染”對象,甚至被劣質(zhì)、虛假信息所“圍獵”。例如,在2021年的“3·15晚會”上,曝光了一系列專門針對老年人的軟件,該類軟件普遍以“優(yōu)化大師”“清理大師”命名,偽裝成手機(jī)安全軟件在各類老年人常用的應(yīng)用中推廣,并使用各種誘導(dǎo)話術(shù)吸引老年人下載。一旦老年人被欺騙或無意間點(diǎn)擊而下載,并利用其進(jìn)行“手機(jī)垃圾清理”后,該軟件便會在表面上清理手機(jī)垃圾,背地里大量收集手機(jī)數(shù)據(jù),對用戶進(jìn)行畫像,打上“易騙”等標(biāo)簽,持續(xù)性地向用戶推送各類帶有欺騙性質(zhì)的內(nèi)容和廣告,誘騙老年人。此外,更有權(quán)威機(jī)構(gòu)調(diào)研發(fā)現(xiàn),由于對網(wǎng)上信息辨識力較弱,老年群體已經(jīng)成為虛假信息的傳播主力。(13)G.Andrew,N.Jonathan and T.Joshua,“Less than You Think:Prevalence and Predictors of Fake News Dissemination on Facebook”,Asian-Australasian Journal of Animal Sciences,vol. 32, no. 2(2019).實際上,前述現(xiàn)象早已悄然成為網(wǎng)絡(luò)生活中的一部分。
最為大家熟悉的是長輩分享在家族群中的各類山寨電商平臺的優(yōu)惠砍價小廣告、自媒體發(fā)布的虛假保健養(yǎng)生小知識、爛雞湯、反智謠言等。該類虛假、劣質(zhì)信息便是在掌握老年人的偏好后精心創(chuàng)作,利用老年人在網(wǎng)絡(luò)安全和個人信息保護(hù)上意識不足的弱點(diǎn),通過算法推薦的方式大規(guī)模地對其進(jìn)行合圍,吞噬著他們的金錢、時間以及信任。在數(shù)字經(jīng)濟(jì)高速發(fā)展的今天,信息資源已經(jīng)成為重要的生產(chǎn)資料和財富源泉,信息質(zhì)量上的差異將由于信息資源本身的“增值特性”以及“馬太效應(yīng)”進(jìn)一步加劇人與人之間的數(shù)字鴻溝。(14)陳力丹、金燦:《論互聯(lián)網(wǎng)時代的數(shù)字鴻溝》,《新聞愛好者》2015年第7期,第33-37頁。善于利用媒介,擁有充足網(wǎng)絡(luò)信息挖掘、真?zhèn)伪嫖瞿芰Φ娜后w,能夠享受信息的盛宴。相反,缺乏相應(yīng)素養(yǎng)和能力的群體,雖然實現(xiàn)了互聯(lián)網(wǎng)的接入及參與,但由于自身的能力缺乏以及算法的“算計”,被排斥在宴席之外。他們不僅無法享受互聯(lián)網(wǎng)中的優(yōu)質(zhì)信息,反而如同三歲小兒持金過鬧市,不斷遭受著來自四面八方的危險和誘惑,陷入各類劣質(zhì)、虛假信息的泥沼之中。在此情況下,信息“分配正義”的公平失衡更是在特定群體層面呈現(xiàn)出加劇的狀態(tài)。
以劣質(zhì)、虛假信息泛濫為代表的互聯(lián)網(wǎng)信息生態(tài)亂象普遍損害人們信息獲取和利用的效能,算法推薦技術(shù)更是進(jìn)一步加深了其對特定人群的影響,擴(kuò)大了不同群體間從互聯(lián)網(wǎng)信息中獲得的紅利差異。信息公平中“分配正義”的內(nèi)涵也從強(qiáng)調(diào)能夠參與互聯(lián)網(wǎng)并享受信息化社會的便捷,轉(zhuǎn)變成為能夠公平地共享信息化社會所帶來的紅利。
上述現(xiàn)象與其說是算法推薦技術(shù)的副產(chǎn)品,不如說是已有的社會現(xiàn)象在算法推薦技術(shù)催化下的集中爆發(fā)。“信息繭房”作為人類選擇性心理在信息領(lǐng)域的體現(xiàn),始終伴隨著人類的成長。為達(dá)特定目的,對特定群體有意識地施加有利于己方的影響,乃是普遍之事。劣質(zhì)、虛假信息作為“信息次品”,更是如影隨形地伴隨著信息的生產(chǎn)過程。一方面,無論技術(shù)如何前沿,都無法從根本上消除它們存在的心理和社會基礎(chǔ);另一方面,算法推薦技術(shù)毫無疑問深刻地改變著它們的表現(xiàn)形態(tài)、作用力度和影響規(guī)模。(15)李成:《人工智能歧視的法律治理》,《中國法學(xué)》2021年第2期,第127-147頁。因此,要預(yù)防和治理算法推薦引致的信息公平失衡,必須先厘清失衡現(xiàn)象產(chǎn)生的機(jī)制及算法推薦技術(shù)的作用路徑。具體而言,我們可以從算法推薦技術(shù)的作用前提、作用過程以及作用結(jié)果三方面對算法推薦技術(shù)的作用路徑展開分析。
如果將用戶接收到的個性化信息內(nèi)容視為算法推薦的最終產(chǎn)品,那么該產(chǎn)品的生產(chǎn)過程可以被描述為:平臺將搜集到的用戶信息作為原材料,不斷投入到特定算法這一機(jī)器之中,最終得到為個體用戶獨(dú)家定制的信息內(nèi)容資訊。
該作用產(chǎn)生的第一階段是信息獲取。一方面,在當(dāng)今的互聯(lián)網(wǎng)實踐中,各類應(yīng)用和軟件都普遍存在過度搜集用戶個人信息的情況,以實現(xiàn)其功能和服務(wù)。遺憾的是,當(dāng)前的互聯(lián)網(wǎng)生態(tài)決定了珍貴的用戶個人信息在各平臺使出渾身解數(shù)的野蠻爭奪面前處于近乎不設(shè)防的狀態(tài)。無論是通過“不同意即不能享受服務(wù)”的霸王格式條款,或采取“一攬子授權(quán)”的方式強(qiáng)制用戶同意對其進(jìn)行信息搜集,抑或是以提供多樣化服務(wù)等名目為幌子,掩蓋其過度搜集信息的行為都普遍存在。即使用戶保持足夠的謹(jǐn)慎,也容易被各類冗長的隱私條款或用戶協(xié)議慢慢耗盡維護(hù)自身權(quán)利的耐心。另一方面,當(dāng)下的人們生活在一個數(shù)字化的社會,生活中的方方面面都與網(wǎng)絡(luò)進(jìn)行了深度的融合。從衣食住行到生產(chǎn)生活,離開數(shù)字化應(yīng)用幾乎寸步難行。傳統(tǒng)物理空間下公共領(lǐng)域和私人領(lǐng)域間相對明確的隱私邊界在數(shù)字社會所構(gòu)建起來的物理空間下發(fā)生遷移,且變得日益模糊。(16)王鋒:《私密還是透明:智慧社會的隱私困境及其治理》,《行政論壇》2021年第1期,第98-104頁。
知名互聯(lián)網(wǎng)企業(yè)家李彥宏先生曾經(jīng)說過:“中國人對隱私問題的態(tài)度更開放,也相對來說沒那么敏感。如果他們可以用隱私換取便利、安全或者效率。在很多情況下,他們就愿意這么做?!痹撗哉撘怀霰阋l(fā)了社會輿論的軒然大波。該言論雖然僅為其個人觀點(diǎn),但對我們?nèi)杂幸欢ǖ膯l(fā)。一方面,其在不經(jīng)意間反映了互聯(lián)網(wǎng)巨頭對用戶隱私利益漫不經(jīng)心的態(tài)度;另一方面,其也在某種程度上暴露出用戶難以對個人信息實現(xiàn)有效保護(hù)這一問題的本質(zhì)。在數(shù)字化社會中,個人信息成為互聯(lián)網(wǎng)上的通行證和等價物,將其緊握在手的結(jié)果就是寸步難行。用戶意欲享受某種服務(wù),就不得不提供個人信息以作交換。反之,拒絕分享個人信息則意味著與高質(zhì)量的服務(wù)無緣,應(yīng)用和軟件中的各種功能受限,甚至難以實現(xiàn)正常的功能。實際上,無論用戶是否“愿意”為效率放棄隱私,都幾乎沒有說“不”的權(quán)利。
該作用產(chǎn)生的第二階段是數(shù)字畫像。當(dāng)下算法推薦在底層原理上可以歸納為“用戶畫像-追蹤學(xué)習(xí)-篩選推送”三步。首先是平臺通過搜集到的用戶信息和使用痕跡對用戶進(jìn)行畫像。比如說,在用戶使用互聯(lián)網(wǎng)的過程中,平臺往往采取對注冊登錄的用戶進(jìn)行標(biāo)簽化識別或利用cookie技術(shù)對用戶進(jìn)行追蹤,以實現(xiàn)對用戶信息的搜集。(17)丁曉東:《用戶畫像、個性化推薦與個人信息保護(hù)》,《環(huán)球法律評論》2019年第5期,第82-96頁。其次是平臺通過對用戶的使用習(xí)慣、興趣偏好進(jìn)行持續(xù)追蹤,以實現(xiàn)用戶畫像的實時調(diào)整。最后是系統(tǒng)根據(jù)平臺所制定的內(nèi)容分發(fā)規(guī)則對用戶進(jìn)行個性化的信息推送。無論是用戶的個人信息,如籍貫、所在地、性別、教育背景、工作,還是留存在各個網(wǎng)站上的數(shù)碼足跡,如用戶所瀏覽的網(wǎng)站內(nèi)容、點(diǎn)擊的行為、在特定內(nèi)容上停留的時間、轉(zhuǎn)發(fā)和評論的內(nèi)容,都為機(jī)器洞察用戶創(chuàng)造了條件。用戶在網(wǎng)絡(luò)上留下的大量看似彼此之間毫無關(guān)聯(lián)的碎片化信息,一旦與強(qiáng)大的算法系統(tǒng)結(jié)合,就能準(zhǔn)確地勾勒出相應(yīng)用戶的數(shù)字畫像。倘若用戶在各種場景中留下的信息足夠多,此時不僅可以組成完整的“歷史畫像”,還可以從數(shù)據(jù)隱藏的規(guī)律中探尋用戶的“未來畫像”。(18)姜野:《算法的法律規(guī)制研究》,博士學(xué)位論文,吉林大學(xué)法學(xué)院,2020年,第93頁。隱藏在智能設(shè)備后的個人在大數(shù)據(jù)和算法面前變得有跡可循,個體赤裸裸地暴露于數(shù)字化的全景監(jiān)獄,以致于發(fā)現(xiàn)“算法比你還要了解你自己”。(19)靖鳴、管舒婷:《智能時代算法型內(nèi)容分發(fā)的問題與對策》,《新聞愛好者》2019年第5期,第9-13頁。
首先,算法推薦的內(nèi)容分發(fā)機(jī)制決定了用戶所能獲取的信息內(nèi)容。在當(dāng)下算法推薦的各類推薦模式中,應(yīng)用最為普遍的是基于內(nèi)容的推薦和協(xié)同過濾推薦。在運(yùn)行原理上,基于內(nèi)容的推薦是根據(jù)用戶的興趣內(nèi)容,推薦其他具有類似屬性的興趣內(nèi)容。(20)許海玲、吳瀟、李曉東,等:《互聯(lián)網(wǎng)推薦系統(tǒng)比較研究》,《軟件學(xué)報》2009年第2期,第350-362頁。協(xié)同過濾推薦則是根據(jù)用戶興趣內(nèi)容的相似性進(jìn)行推薦,通過將與當(dāng)前用戶興趣內(nèi)容相似的其他用戶的意見提供給當(dāng)前用戶,從而為用戶發(fā)現(xiàn)新的興趣內(nèi)容。(21)邢春曉、高鳳榮、戰(zhàn)思南,等:《適應(yīng)用戶興趣變化的協(xié)同過濾推薦算法》,《計算機(jī)研究與進(jìn)展》2007年第2期,第296-301頁。雖然各類推薦模式進(jìn)行內(nèi)容分發(fā)的具體邏輯有所不同,但核心要義都是基于用戶的個人信息及過去行為所形成的用戶畫像挖掘用戶的觀點(diǎn)和偏好,進(jìn)而篩選出用戶喜聞樂見的內(nèi)容和觀點(diǎn)。一開始,以個人偏好為導(dǎo)向的內(nèi)容構(gòu)筑起了用戶的信息世界,也用一堵堵無形的墻把具有不同觀點(diǎn)和偏好的共同體成員分隔。隨后,共同體成員的同質(zhì)化使得個體原有的觀點(diǎn)和偏好得到了進(jìn)一步的印證與強(qiáng)化,且用戶的選擇性心理會使其傾向于關(guān)注自己感興趣的領(lǐng)域,和興趣相近、三觀契合的人交談,屏蔽外界不了解的領(lǐng)域和反對的聲音。當(dāng)用戶的行為選擇反饋到算法中,算法則會進(jìn)一步根據(jù)其觀點(diǎn)和偏好進(jìn)行內(nèi)容分發(fā),以迎合其選擇性心理。最后,算法的分發(fā)機(jī)制和用戶選擇性心理的相互作用形成了加強(qiáng)信息內(nèi)容觀點(diǎn)和偏好同質(zhì)化的閉環(huán),用戶成為被禁錮在“信息繭房”之中的信息偏食者,失去獲取其他信息內(nèi)容的機(jī)會和可能性,從而導(dǎo)致信息獲取自由落空。
其次,算法推薦的流量分配機(jī)制決定了用戶直面的互聯(lián)網(wǎng)信息內(nèi)容生態(tài)。在流量為王的時代,越多的用戶流量意味著越豐厚的廣告收入,流量的獲取和變現(xiàn)成為平臺的核心命題。因此,在流量角逐競爭和平臺商業(yè)利益的雙重驅(qū)動下,盡一切可能吸引用戶注意力進(jìn)而獲取用戶流量,成為一切工作的邏輯起點(diǎn)。用戶的點(diǎn)擊量、停留時長、點(diǎn)贊、轉(zhuǎn)發(fā)、評論數(shù)成為平臺流量分配的標(biāo)準(zhǔn)。平臺的算法推薦機(jī)制往往將更大的流量權(quán)重賦予能夠吸引更多用戶注意的信息內(nèi)容,使其有機(jī)會出現(xiàn)在更多用戶的界面。該流量分配機(jī)制在促進(jìn)平臺盈利的同時,也容易引發(fā)流量的馬太效應(yīng),進(jìn)而影響互聯(lián)網(wǎng)的信息內(nèi)容生態(tài)。一方面,對于能吸引用戶眼球的信息內(nèi)容,在初期就越容易得到更多的用戶流量,進(jìn)而有更大機(jī)會完成冷啟動,得到平臺流量分配的傾斜支持。若該信息內(nèi)容一旦得到“上首頁”“上榜首”等進(jìn)入平臺推薦系統(tǒng)的機(jī)會,也就更有可能被更多用戶看見,進(jìn)而得到更多的用戶流量,成為“吸睛無數(shù)”的熱點(diǎn)話題。另一方面,無法在第一時間喚起用戶興趣的信息內(nèi)容,不僅難以獲得系統(tǒng)流量的傾斜支持,甚至?xí)馐芰髁糠峙錂?quán)重的削減,在一段時間后便消逝在茫茫的信息海洋之中。(22)崔詩健:《算法新聞中假新聞的產(chǎn)生原因及應(yīng)對策略》,《傳媒論壇》2021年第10期,第157-158頁。原本游離并沉淀在互聯(lián)網(wǎng)各個角落中的劣質(zhì)、虛假消息,由于其中往往包含陰謀論等契合用戶心理的內(nèi)容,能夠吸引大量的用戶流量,進(jìn)而被激活和快速傳播。
同時,在該流量分配機(jī)制下,為了追求“流量-利益”的高轉(zhuǎn)化率,內(nèi)容生產(chǎn)者不得不費(fèi)盡心思地迎合用戶,以獲取更多的流量。引人注目的視頻封面、極具沖突和戲劇性的標(biāo)題、罔顧事實刻意“制造”熱點(diǎn)等現(xiàn)象,在網(wǎng)絡(luò)中頻繁出現(xiàn),更有甚者打著法律的“擦邊球”,發(fā)布以惡搞、色情、暴力為主的內(nèi)容。此類劣質(zhì)化和低俗化的內(nèi)容不僅迎合了用戶的獵奇、審丑心理,使用戶能夠快速獲取快樂感和滿足感,還能通過誘導(dǎo)用戶沉迷的算法模型設(shè)計,使人欲罷不能,并在不知不覺中大量收割用戶的流量和時間。(23)曾錦瑩、郭德超:《新媒體劣質(zhì)信息生產(chǎn)與獎勵系統(tǒng)中馬太效應(yīng)疊合的反思》,《新聞研究導(dǎo)刊》2020年第17期,第59-60頁。相反,國家大政方針的專業(yè)解讀、社會經(jīng)濟(jì)文化領(lǐng)域問題的理性探討等較為嚴(yán)肅的優(yōu)質(zhì)內(nèi)容卻往往因為其需要一定的時間進(jìn)行消化,無法使用戶在第一時間獲得感官上的刺激而常常遭遇用戶冷落,進(jìn)而快速被平臺流量所拋棄。平臺中唯流量是從的生態(tài)環(huán)境引發(fā)了信息內(nèi)容的螺旋式下降,加劇了劣質(zhì)、虛假信息的泛濫,從而導(dǎo)致信息分配正義的落空。
新媒體的到來沖擊了傳統(tǒng)的信息傳播方式,重構(gòu)了信息的生產(chǎn)方式,導(dǎo)致傳媒領(lǐng)域的話語權(quán)變遷,亦在一定程度上影響了互聯(lián)網(wǎng)的信息內(nèi)容生態(tài)。(24)邵國松:《媒體智能化發(fā)展的倫理與法律問題初窺》,《現(xiàn)代傳播(中國傳媒大學(xué)學(xué)報)》2018年第11期,第9-14頁。伴隨社會結(jié)構(gòu)朝著扁平化、去中心化的方向發(fā)展,公眾通過社交媒體、自媒體獲得了有效的發(fā)聲渠道,分享了原本牢牢握在報紙、電視及新聞門戶網(wǎng)站等傳統(tǒng)媒體手中的話語權(quán)。話語權(quán)的平民化和信息內(nèi)容生產(chǎn)準(zhǔn)入門檻的大幅度降低,把麥克風(fēng)和攝像頭放到了每一個人面前。內(nèi)容的創(chuàng)作者不再僅限于專業(yè)的機(jī)構(gòu),每個人都是內(nèi)容的生產(chǎn)者,都有機(jī)會借助微博、百家號、公眾號、短視頻分享自己的生活、提出自己的觀點(diǎn)和看法,并向大眾傳播。但是,多元化、去中心化的傳播模式在賦予個體話語權(quán),激發(fā)大眾進(jìn)行內(nèi)容創(chuàng)作和分享熱情的同時,也必然會帶來內(nèi)容層面上的良莠不齊。
傳統(tǒng)媒體在進(jìn)行內(nèi)容生產(chǎn)和分發(fā)時,往往由專業(yè)的編輯等新聞媒體工作者進(jìn)行把關(guān),并設(shè)置相應(yīng)的層層審核機(jī)制,在對內(nèi)容的選擇上側(cè)重于具有社會價值的國內(nèi)外新聞和公眾議題,在內(nèi)容的報道上具有真實性和客觀性,在內(nèi)容的觀點(diǎn)上也更為中立和深刻。而在大眾創(chuàng)作中,情況發(fā)生了改變。因信息發(fā)布準(zhǔn)入門檻的降低,進(jìn)行信息內(nèi)容創(chuàng)作的“大眾媒體人”大多未經(jīng)專業(yè)的訓(xùn)練,難以產(chǎn)出高質(zhì)量、有深度的原創(chuàng)內(nèi)容,往往只能帶來重復(fù)、空洞而無營養(yǎng)的“垃圾文”“灌水文”或?qū)λ藘?yōu)質(zhì)內(nèi)容進(jìn)行掐頭去尾式地糅合,極容易讓觀眾產(chǎn)生審美疲勞。同時,在創(chuàng)作過程中,“大眾媒體人”缺乏對傳媒倫理等內(nèi)容創(chuàng)作規(guī)范的系統(tǒng)學(xué)習(xí)而難以把握其產(chǎn)出信息內(nèi)容的優(yōu)劣甚至合法與非法的界限,又因法律對個體的追責(zé)和懲罰困難而產(chǎn)生僥幸甚至無畏的心理。退一步而言,即使“大眾媒體人”在對良善內(nèi)容的追求上擁有足夠的自律,也可能因為自身辨識能力欠缺和個體知識范圍有限而無法甄別出網(wǎng)絡(luò)信息內(nèi)容的優(yōu)劣和他人報道的真假。在追熱點(diǎn)、取素材的過程中,成為劣質(zhì)、虛假信息的“二傳手”甚至炒作者。
“大眾媒體人”的出現(xiàn)淡化了平臺的守門人職責(zé),且平臺自身的曖昧態(tài)度和效用有限的監(jiān)管機(jī)制更是無力塑造起阻擋各類劣質(zhì)、虛假信息的有效防線。與傳統(tǒng)媒體中平臺既是內(nèi)容的承載者也是內(nèi)容的生產(chǎn)者不同,當(dāng)下的平臺并不是內(nèi)容的生產(chǎn)者,而僅僅是內(nèi)容的承載者,內(nèi)容的生產(chǎn)和創(chuàng)作來源于平臺上的用戶。平臺在面對外部質(zhì)疑時,亦往往將自身定位為內(nèi)容傳播渠道的提供者,強(qiáng)調(diào)自身對所傳播內(nèi)容的“中立”和“不參與”,希望能夠借此抽身于內(nèi)容監(jiān)管的責(zé)任之外。(25)T. Gillespie, “The Politics of ‘Platforms’”, New Media & Society,vol.12,no.3(2010),p.348.
一方面,平臺有限的內(nèi)容監(jiān)管措施受制于技術(shù)有效性、平臺人財物力等種種因素,使平臺無力回應(yīng)信息內(nèi)容生態(tài)的種種亂象。平臺對內(nèi)容的審核一般采用人工編輯和人工智能機(jī)器相結(jié)合的方式。通過人機(jī)的分工協(xié)同,實現(xiàn)對信息內(nèi)容的層層過濾。(26)劉沫瀟:《從“把關(guān)人”到“守望人”——算法式新聞分發(fā)下人工編輯的功能角色定位》,《電視研究》2019年第2期,第63-65頁。具體流程可以描述為:首先,在初審時利用人工智能機(jī)器對含有特定敏感關(guān)鍵詞、內(nèi)容高度重復(fù)等信息內(nèi)容進(jìn)行標(biāo)記、分流和篩選,以期過濾掉部分涉及敏感話題或質(zhì)量特別差的內(nèi)容;其次,如果信息內(nèi)容通過初審,便會進(jìn)入人工復(fù)審環(huán)節(jié),復(fù)審主要負(fù)責(zé)質(zhì)量審核,判斷文章是否違背公序良俗、是否存在不良導(dǎo)向等,以決定信息內(nèi)容是否能夠最終上線。(27)邵恒媛:《數(shù)字勞動視域下內(nèi)容把關(guān)人工作的異化——基于今日頭條人機(jī)協(xié)同審核機(jī)制的研究》,《媒體融合新觀察》2021年第1期,第38-43頁。但該審核機(jī)制并非絕對保險,其結(jié)果不如預(yù)期有多方面的原因。其一,在預(yù)設(shè)算法下運(yùn)行的人工智能機(jī)器無法識別出所有文字表達(dá)上的“偽裝”,亦不具有判斷信息內(nèi)容價值之偏向的能力,預(yù)審的防線往往容易被深諳算法審核邏輯的用戶所突破;其二,由于無時無刻都有大量的用戶利用平臺進(jìn)行內(nèi)容的生產(chǎn)和發(fā)布,內(nèi)容審核的任務(wù)繁重且時間緊迫,人工編輯往往只能對信息內(nèi)容進(jìn)行形式上的審核以保障其不涉及某些敏感及違法的話題,無力對信息內(nèi)容的真假、價值內(nèi)涵等實質(zhì)性內(nèi)容進(jìn)行審核和干預(yù)。
另一方面,平臺受自身利益的驅(qū)動,往往會有意地降低審核標(biāo)準(zhǔn),讓某些質(zhì)量較差但符合用戶觀點(diǎn)和偏好、能夠吸引大量流量、有機(jī)會成為爆款的信息內(nèi)容順利上線。例如,F(xiàn)acebook的前雇員弗朗西斯·豪根在向美國證券交易委員會舉報Facebook后接受CBS《60分鐘》欄目采訪時便談到,雖然Facebook管理層知道平臺排名算法存在“導(dǎo)致憤怒、兩極化和分裂的放大”的系統(tǒng)性問題,仍選擇繼續(xù)使用這個算法。因為錯誤的信息、憤怒的內(nèi)容對人們具有持續(xù)的誘惑力,能夠帶來更多的用戶互動和流量,以使公司盈利。(28)Whistleblower: Facebook is Misleading the Public on Progress against Hate Speech, Violence, Misinformation,2021年10月3日, https://www.cbsnews.com/news/facebook-whistleblower-frances-haugen-misinformation-public-60-minutes-2021-10-03/, 2021年10月18日。
即使我們認(rèn)為,對“技術(shù)奇點(diǎn)”迫近的莫名恐慌尚屬杞人憂天,那么當(dāng)隱藏在黑箱之后的算法推薦技術(shù)悄無聲息地影響著互聯(lián)網(wǎng)的信息內(nèi)容生態(tài),屢屢導(dǎo)致“信息繭房”形成,成為他人操縱大眾的工具和劣質(zhì)、虛假信息泛濫的幫兇時,關(guān)于科技失范造成信息公平失衡的憂慮則不應(yīng)再被等閑視之,而是成為必須要回應(yīng)的問題。(29)李成:《人工智能歧視的法律治理》,《中國法學(xué)》2021年第2期,第127-147頁。此時,一種制度性的法律保障就具有極為重要的意義。
面對以上兩種信息公平失衡樣態(tài),大部分學(xué)者基于傳播學(xué)的角度進(jìn)行觀察,提出了以下治理建議:從供給端優(yōu)化算法推薦模式,豐富推薦信息內(nèi)容的種類,適當(dāng)增加內(nèi)容的非關(guān)聯(lián)性;從過程端強(qiáng)化平臺及從業(yè)人員對信息內(nèi)容的監(jiān)管責(zé)任,鼓勵創(chuàng)作優(yōu)質(zhì)內(nèi)容并加大對劣質(zhì)內(nèi)容創(chuàng)作者的懲戒力度,以增強(qiáng)信息內(nèi)容的可靠性;從需求端提升用戶的數(shù)字技能和算法素養(yǎng)以增強(qiáng)用戶對內(nèi)容的鑒別力,避免上當(dāng)受騙。
但是我們必須清晰地認(rèn)識到,該類建議更多屬于技術(shù)層面的舉措,各項措施單獨(dú)的運(yùn)用也許作用有限。首先,科學(xué)界對技術(shù)的完善不可能一蹴而就,需要在長時間的實踐積累中不斷迭代而逐步修正,況且完美的技術(shù)方案是可期的真實存在還是縹緲的空中樓閣仍未可知。其次,平臺及從業(yè)人員的商業(yè)利益與用戶的信息權(quán)益在一定程度上存在沖突。即使我們對完美的算法帶有幻想,亦無法避免算法作為一種中立的客觀技術(shù)或手段支撐,最終仍然要被特定主體用于實現(xiàn)特定目的。當(dāng)算法技術(shù)與特定主體結(jié)合后,就難以避免同倫理和價值問題產(chǎn)生勾連。(30)宋保振:《“數(shù)字弱勢群體”權(quán)利及其法治化保障》,《法律科學(xué)》2020年第6期,第53-64頁。技術(shù)中立的核心難題在于價值中立,當(dāng)技術(shù)進(jìn)入社會領(lǐng)域,被各種利益、訴求和價值判斷所塑造和限制時,便很難做到中立。(31)鄭玉雙:《破解技術(shù)中立難題——法律與科技之關(guān)系的法理學(xué)再思》,《華東政法大學(xué)學(xué)報》2018年第1期,第85-97頁。因此,僅僅依靠平臺和從業(yè)人員進(jìn)行自我規(guī)制,難以達(dá)到預(yù)期效果。最后,個體數(shù)字技能的習(xí)得和算法素養(yǎng)的提升亦需要長時間的訓(xùn)練。更何況,時刻以謹(jǐn)慎的態(tài)度對互聯(lián)網(wǎng)的各類信息進(jìn)行審視需要耗費(fèi)用戶大量的精力,這會大大降低用戶在互聯(lián)網(wǎng)中獲取信息的效率。
因此,寄希望于通過教育和宣傳的方式,讓用戶能夠在使用互聯(lián)網(wǎng)時對各類信息擁有足夠的判斷力和辨識力,進(jìn)而能夠自覺地防范各類風(fēng)險更像是一種強(qiáng)人所難的說辭。最為重要的是,在算法推薦的技術(shù)霸權(quán)面前,處于弱勢地位的私主體即使能力再強(qiáng)大,也僅僅只能避免掉部分易于識別且可為自身所控制的風(fēng)險,而無法在系統(tǒng)性的信息公平失衡面前做到獨(dú)善其身。(32)馬長山:《智慧社會背景下的“第四代人權(quán)”及其保障》,《中國法學(xué)》2019年第5期,第5-24頁。
技術(shù)的發(fā)展帶來了信息領(lǐng)域生產(chǎn)關(guān)系的變革,對該亂象的治理也呼喚著上層建筑的回應(yīng)。技術(shù)性措施的制定需要法律提供方向和價值上的指引,措施的具體落實亦需要在法治的軌道內(nèi)運(yùn)行,各方主體的權(quán)利保障和責(zé)任承擔(dān)更是需要法律作出明確的規(guī)定。法學(xué)的使命并不是對科技發(fā)展所帶來的輝煌成就加以贊賞,而是審視科技可能帶來的非理性后果,以及如何通過法治降低科技發(fā)展可能帶來的風(fēng)險。(33)韓大元:《當(dāng)代科技發(fā)展的憲法界限》,《法治現(xiàn)代化研究》2018 年第 5 期,第1-12頁。因此,破解算法推薦中信息公平失衡的難題,消解公平失衡的風(fēng)險,需要在結(jié)合技術(shù)治理特點(diǎn)的同時,完善法律治理,用法律治理對技術(shù)治理進(jìn)行歸化,實現(xiàn)技術(shù)治理和法律治理的“二元共治”。(34)鄭智航:《網(wǎng)絡(luò)社會法律治理與技術(shù)治理的二元共治》,《中國法學(xué)》2018 年第2 期,第108-130頁。法律治理能否自信地直面新技術(shù)的挑戰(zhàn),關(guān)鍵在于我國現(xiàn)有法律體系的制度余量是否充足。
2021年8月以前,我國直接針對規(guī)范算法推薦的相關(guān)規(guī)定,均散落在法律、部門規(guī)范性文件及國家推薦標(biāo)準(zhǔn)之中,并以“自動化決策”“用戶畫像”“個性化展示”等關(guān)鍵詞得以呈現(xiàn)。其中的主要內(nèi)容可以歸納如下:《個人信息保護(hù)法》第24條、《電子商務(wù)法》第18條、《互聯(lián)網(wǎng)個人信息安全保護(hù)指南》第6.3條和《個人信息安全規(guī)范》第7.5條規(guī)定了用戶享有選擇不接受算法推薦服務(wù)的“算法拒絕權(quán)”,若用戶選擇拒絕接受平臺的算法推薦服務(wù),平臺應(yīng)當(dāng)提供不針對其個人特征的信息內(nèi)容推薦方式;《個人信息安全規(guī)范》第7.4條和第7.5條規(guī)定了平臺對用戶個人標(biāo)簽的利用界限以及用戶對其個人標(biāo)簽進(jìn)行選擇、修改、刪除的自決權(quán),以保障用戶能夠調(diào)控個性化展示的相關(guān)程度;《個人信息保護(hù)法》第55條和《個人信息安全規(guī)范》第7.7條則規(guī)定了平臺利用個人信息進(jìn)行自動化決策時,應(yīng)當(dāng)在事前評估其對個人所造成的影響。由此可知,我國針對算法推薦的相關(guān)法律規(guī)范分布較為零散、缺乏體系性的專門立法,且大部分規(guī)定集中于不具有法律約束力的國家推薦標(biāo)準(zhǔn)之中,從而造成了治理工具不足,應(yīng)對效率不高的現(xiàn)實困境。
2021年9月,國家網(wǎng)信辦等九部委發(fā)布了《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》(以下簡稱《指導(dǎo)意見》)。2021年12月31日,國家網(wǎng)信辦、工信部、公安部、市監(jiān)總局聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》?!吨笇?dǎo)意見》與《規(guī)定》分別從政策和法律層面宣示了國家對算法推薦領(lǐng)域亂象的關(guān)注和利用法律對算法推薦進(jìn)行規(guī)制的決心。《規(guī)定》作為我國首部對算法推薦作出專門規(guī)定的法律規(guī)范,其適用范圍囊括了互聯(lián)網(wǎng)中算法推薦的各類應(yīng)用情形,并對算法推薦服務(wù)提出了各項技術(shù)上的細(xì)化要求,邁出了算法監(jiān)管從倫理價值層面到技術(shù)應(yīng)用層面全覆蓋的重要一步。
通過對新頒布的《規(guī)定》進(jìn)行分析,我們可以理順其對于算法推薦的規(guī)制方式。在《規(guī)定》中,規(guī)制算法推薦的法律制度沿著用戶自決、平臺自律和國家監(jiān)管的邏輯展開。用戶自決強(qiáng)調(diào)用戶享有是否接受算法推薦服務(wù)及其具體應(yīng)用的權(quán)利。在《規(guī)定》第17條中,規(guī)定了用戶享有“算法拒絕權(quán)”和“標(biāo)簽自決權(quán)”,賦予了用戶隨時關(guān)閉算法推薦服務(wù)以及選擇、刪除自身在系統(tǒng)中帶有個人特征的標(biāo)簽的權(quán)利。平臺自律強(qiáng)調(diào)平臺在提供算法推薦服務(wù)時應(yīng)當(dāng)秉持算法應(yīng)用“向上向善”的理念,充分落實履行自身主體責(zé)任。具體而言,《規(guī)定》采用大篇幅事無巨細(xì)地從算法設(shè)計的價值倫理、算法模型的運(yùn)行機(jī)理、用戶畫像的運(yùn)用限制、信息內(nèi)容的管理義務(wù)、算法機(jī)制的公開透明、用戶申訴的渠道暢通、特定算法的備案公示等方面作出了規(guī)定,并且還在第18條到第21條,特別回應(yīng)了社會高度關(guān)注的“未成年人防沉迷”“老年人防詐騙”“平臺勞動者保護(hù)”“大數(shù)據(jù)殺熟”等問題。國家監(jiān)管強(qiáng)調(diào)通過有關(guān)部門的大力監(jiān)管及綜合治理,降低算法的安全風(fēng)險。在《規(guī)定》第3條和第28條中,分別明確規(guī)定了對算法推薦服務(wù)采取中央地方雙層次、多部門的聯(lián)合監(jiān)管及對算法依法開展安全評估和監(jiān)督檢查的制度,并在第23條和第24條提出了對算法進(jìn)行分級分類管理,及對“具有輿論屬性和社會動員能力的算法服務(wù)提供者”進(jìn)行前置備案。
經(jīng)上文分析可知,算法推薦作為算法技術(shù)在互聯(lián)網(wǎng)信息內(nèi)容分發(fā)場景中的具體應(yīng)用,既遵循著算法技術(shù)的一般規(guī)律,自身又具有作用方式、運(yùn)行原理上的獨(dú)特性。面對算法推薦中的信息公平失衡,法律應(yīng)當(dāng)以“兩條腿走路”的姿態(tài)對其進(jìn)行回應(yīng)。一方面,應(yīng)當(dāng)繼續(xù)加強(qiáng)如算法分級分類原則、算法公開透明的程度及邊界、算法解釋的方法和主體、算法侵權(quán)致害歸因原則等一般層面上法律規(guī)制的理論研究,以塑造算法規(guī)制的法律框架,為具體應(yīng)用場景下算法治理規(guī)則的探索、制定和實施提供認(rèn)識論和方法論。另一方面,應(yīng)當(dāng)以算法具體應(yīng)用場景為出發(fā)點(diǎn),通過審視該過程中算法所引致的問題及其作用方式,針對性地提出在具體場景下對算法進(jìn)行回應(yīng)的方式。通過宏觀及微觀兩種層次的問題建構(gòu)及其相互補(bǔ)充,編織規(guī)制算法的法網(wǎng)。只有這樣,那些體現(xiàn)在《規(guī)定》當(dāng)中的,無論是用戶的“算法拒絕權(quán)”和“標(biāo)簽自決權(quán)”還是平臺的算法機(jī)制“向上向善”義務(wù)、信息內(nèi)容管理義務(wù)、版面生態(tài)的人工正面干預(yù)義務(wù)、算法運(yùn)行機(jī)制的公開及解釋義務(wù)以及國家層面的算法分級管理、特定算法服務(wù)提供者進(jìn)行前置備案等規(guī)定,才能為消解由算法推薦帶來的信息公平失衡提供可用的法律工具和可靠的制度保障。
數(shù)字科技的快速發(fā)展及擴(kuò)散使得算法推薦技術(shù)融入信息傳播的方方面面,并極大地影響和改變著信息內(nèi)容的生態(tài)。此時,如何保障公民對信息的獲取自由和分配正義,避免信息公平失衡,成為數(shù)字科技治理的應(yīng)有之義。鑒于完美算法推薦技術(shù)的可得性存疑、平臺與公民利益存在不一致性及個人與平臺力量懸殊,對算法推薦的治理應(yīng)當(dāng)采取技術(shù)與法律的二元共治。目前我國法律體系對算法治理的規(guī)范供給不足且學(xué)界對算法治理一般理論研究也尚未成熟,為了實現(xiàn)降低算法風(fēng)險、消解公平失衡、為算法推薦治理提供法治化保障的目標(biāo),我們在建構(gòu)宏觀的一般性理論的同時,更應(yīng)當(dāng)從微觀細(xì)節(jié)入手,探索《規(guī)定》具體規(guī)則的落實和適用,以實現(xiàn)算法推薦法律治理的“積跬步以至千里”。