劉佳
(東北財經大學,遼寧 大連 116025)
隨著互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能等技術的應用和發(fā)展,數(shù)字信息得以在全球范圍內廣泛傳播。面對海量的數(shù)據(jù)信息,以算法推薦為中心的處理技術應運而生。算法推薦在我們日常生活中隨處可見,已涵蓋新聞資訊、電子商務、工作學習、游戲娛樂等多方面。算法推薦作為過濾與分發(fā)的重要機制,能夠根據(jù)用戶的個人特征和特定需求過濾無效信息并提供有效的數(shù)據(jù)信息服務,給人們的生產生活帶來諸多便利的同時也加劇了例如數(shù)據(jù)安全、利益受損、歧視偏見等諸多問題。北京大學互聯(lián)網(wǎng)研究發(fā)展中心聯(lián)合360集團發(fā)布的《中國大安全感知報告(2021)》顯示,70%的用戶擔心個人喜好和興趣等隱私問題被算法“算計”,60%的用戶擔心信息在數(shù)字環(huán)境中有泄露的風險,50%的用戶在算法束縛下想要逃離網(wǎng)絡、遠離手機。針對上述問題,我國在既有法律法規(guī)的基礎上出臺了《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》(以下簡稱《算法推薦管理規(guī)定》)?!端惴ㄍ扑]管理規(guī)定》的公布對于中國算法治理體系的建構具有重要意義,在全球范圍內也將發(fā)揮示范引領作用。但是《算法推薦管理規(guī)定》剛剛公布施行,在實踐層面上尚處于起步階段,因此有必要在明確算法推薦風險的前提下,在《算法推薦管理規(guī)定》的基礎上分析我國算法推薦的規(guī)制路徑,從而進一步完善我國算法推薦規(guī)制體系。
數(shù)據(jù)信息的收集是強制獲取的基本體現(xiàn)。用戶在首次使用軟件前都要填寫基本信息來注冊個人賬號,包括用戶的姓名、性別、手機號碼等內容,大多還會開通通訊錄、地理位置、相機等訪問權限。雖然算法推薦服務提供者(以下簡稱“服務提供者”)自身制定了多項條款政策以獲取用戶信息的知情同意,但通常都是以服務協(xié)議等方式展示在界面最底部以供用戶勾選,大多數(shù)用戶并不會仔細閱讀協(xié)議。即便點開閱讀也有可能因為協(xié)議中規(guī)范性、專業(yè)性的詞匯和術語而難以準確理解,在發(fā)現(xiàn)問題時也不能與服務提供者進行有效的溝通,在一定程度上限制了用戶的權利。用戶為了獲得相應的服務不得不選擇同意,否則就會被強制退出應用。服務提供者與用戶之間的信息權利不對等,導致服務提供者不僅沒有履行提示告知的義務,也侵犯了用戶享有的平等權。
數(shù)據(jù)信息的處理是強制獲取的進一步延伸。服務提供者在掌握用戶的數(shù)據(jù)信息后,通過用戶在后續(xù)使用軟件過程中對其訪問記錄、瀏覽內容、購買商品等數(shù)據(jù)進行實時監(jiān)控,準確抓取用戶的個人特征,經過分析、整合,描繪出特定專屬的“用戶畫像”,以便后續(xù)進行相關內容的定向推送。當某些服務提供者收集并儲存了大量的用戶信息后,在經濟利益的驅動下將數(shù)據(jù)信息整合,導致用戶的隱私信息泄露事件時有發(fā)生,增加了用戶隱私權受威脅和侵犯的概率[1]。還有其他第三方主體(如廣告經營商等),基于與服務提供者達成的私下協(xié)議獲取到了“用戶畫像”,通過用戶當前的瀏覽界面實施廣告引導從而跳轉到其他相應界面的行為,無疑也在一定程度上侵犯了用戶的合法權益。數(shù)據(jù)信息的長期存續(xù)會使得強制獲取行為一直持續(xù),可想而知風險也會不斷加劇。
算法推薦的隱性偏見主要包含兩個方面,即研發(fā)中的偏見和運行中的偏見。一方面,算法推薦技術并非獨立憑空產生,由人研發(fā)的技術必然包含其固有的主觀意識和個人傾向。在當前經濟模式轉型升級、市場競爭日益激烈的情況下,服務提供者更偏向利用算法推薦技術的研發(fā)優(yōu)化給自己創(chuàng)造經濟效益。即便研發(fā)者主觀上盡力保證公平公正,但受制于專業(yè)背景、知識儲備、價值觀念等方面因素的影響,也會不可避免地約束算法推薦技術的研發(fā)。同時在研發(fā)過程中需要對數(shù)據(jù)信息進行篩選分析,數(shù)據(jù)信息的選擇范圍、時效性、隨機性、準確性等都可能會造成數(shù)據(jù)信息輸入時的偏差,往往更加傾向于社會中的“多數(shù)群體”和“主流信息”,從而在輸出結果時導致算法偏見現(xiàn)象的加劇[2]。另一方面,本就帶有偏見的算法推薦技術在偽中立技術的籠罩下,偏見現(xiàn)象會更加嚴重。算法推薦的運行過程實際上是一個動態(tài)的過程,通過對數(shù)據(jù)信息進行有選擇的處理分析,在與網(wǎng)絡環(huán)境的交互延伸下形成了新的偏見。第一,價格偏見,常見于消費領域。在當前算法推薦模式下,服務提供者針對不同群體制定不同的價格。例如,對老顧客適用較高價格,對新顧客適用較低價格的“大數(shù)據(jù)殺熟”。如此一來,不僅會侵犯用戶的公平交易權,還會破壞其他市場主體的自主經營權。運用算法推薦的服務提供者會排擠其他市場主體,限制行業(yè)正當競爭,使其失去競爭優(yōu)勢的同時,也會造成市場失靈和秩序紊亂等問題[3]。第二,性別偏見,常見于勞動領域。例如,谷歌在推送高收入的招聘信息廣告時,同等條件下女性用戶收到該類推送信息的次數(shù)明顯低于男性用戶[4]。又如,亞馬遜的招聘算法系統(tǒng)更傾向于男性簡歷,導致女性求職成功率偏低,經修改發(fā)現(xiàn)作用不太顯著后便放棄了該招聘系統(tǒng)。第三,種族偏見。哈佛大學的一項調研顯示,出租房屋網(wǎng)站上,非黑人房東的房租平均每晚為144美元,而黑人房東的房租為每晚107美元[5]。這在價格偏見的基礎上進一步形成了種族偏見。此外,還有對其他弱勢群體的偏見等。綜上,算法推薦對數(shù)據(jù)信息收集、分析、處理的異化導致了對不同群體的區(qū)別對待,不僅不利于人們平等權等基本權益的實現(xiàn),還可能會造成經濟差異分化、資源分配不均等更深層次的社會問題。
算法推薦具有自主性的特性,自主決策意味著算法推薦將逐漸擺脫有形控制,對個人和社會都產生了潛在的威脅。社會關系的產生以主體達成合意為基礎,建立在各主體之間的真實意思表示之上,但是在算法推薦的自主決策情況下這一環(huán)節(jié)已然被忽略[6]。長時間的自動推薦和自主決策正潛移默化地影響用戶,由主動搜尋信息逐漸變?yōu)楸粍咏邮招畔?,由絕對的選擇自由到相對的限制自由,使用戶日益依賴算法推薦,逐漸讓渡自我選擇的能力和權利,喪失作為社會成員該有的主體性和獨立性。同時,精準化、個性化的推薦使數(shù)據(jù)信息范圍窄化,容易發(fā)生“信息繭房”效應。用戶長時間處在自己所熟悉的領域,逐漸遠離多元化的豐富世界,最后陷入自我隔離的境地。受算法推薦的影響,在不斷接納和認同自己的過程中成為了算法所定義的人[7]。雖然服務提供者是根據(jù)用戶的個人喜好過濾其不感興趣的內容,提供自認為有針對性的數(shù)據(jù)信息,但這僅代表著用戶的當前喜好或部分喜好,并不意味著在將來很長一段時間內都是如此。且對于用戶而言,想知道的信息不等同于需要知道的信息[8]。試想,如果用戶偶爾搜索了低俗淺顯的信息,由于算法推薦缺乏道德觀和倫理觀,在忽視內容真實性和優(yōu)劣性的情況下就會持續(xù)推送相關信息,易將用戶置于低價值的信息過載處境之中,這對于個人價值觀的塑造,甚至對整個社會的價值取向和觀念意識都會產生誤導。
為推進互聯(lián)網(wǎng)信息服務算法的綜合治理和促進其健康發(fā)展,2021年9月17日,國家互聯(lián)網(wǎng)信息辦公室等九部門發(fā)布《關于加強互聯(lián)網(wǎng)信息服務算法綜合治理的指導意見》,提出“利用三年左右時間,逐步建立治理機制健全、監(jiān)管體系完善、算法生態(tài)規(guī)范的算法安全綜合治理格局”。2021年12月31日,國家互聯(lián)網(wǎng)信息辦公室、中華人民共和國工業(yè)和信息化部、中華人民共和國公安部、國家市場監(jiān)督管理總局聯(lián)合發(fā)布了《算法推薦管理規(guī)定》。《算法推薦管理規(guī)定》的出臺為算法安全綜合治理提供了有力的保障,形成了多元協(xié)同的治理機制。第一,強調政府層面的治理監(jiān)管職責。網(wǎng)信部門作為算法推薦服務的治理監(jiān)管主體之一,突出了其重要地位。梳理我國先前頒布的有關法律文件,不難發(fā)現(xiàn)我國網(wǎng)絡服務的治理監(jiān)管主體正由分散走向集中。先前治理監(jiān)管主體的分散導致了職能交叉,權責不一情況的發(fā)生[9]。如今厘清了權力邊界,明確了以網(wǎng)信部門作為統(tǒng)籌協(xié)調的主體,電信、公安、市場監(jiān)管等其他有關部門依照各自職權相互協(xié)調配合的機制對整個算法治理格局發(fā)揮著至關重要的作用。第二,落實服務提供者的安全主體責任。服務提供者在享有相關數(shù)據(jù)權益的同時也負有安全保障責任,兩者是不可分割的。因此應當及時建立健全相關管理制度和技術措施,配備專業(yè)人員和技術支撐。第三,倡導社會各界的共同治理模式。一方面,鼓勵行業(yè)組織加強行業(yè)自律,規(guī)范行業(yè)行為,并自覺接受社會各界監(jiān)督。另一方面,鼓勵社會公眾通過申訴、投訴、舉報等方式進行監(jiān)督,積極行使權利,為安全治理提供有力保障,以此形成多元共治的良好局面。此外,《算法推薦管理規(guī)定》還建立起了科學的監(jiān)管體系,形成了全方位的安全監(jiān)管機制。《算法推薦管理規(guī)定》確立了監(jiān)管部門應對服務提供者實施分級分類的安全管理制度,明確了服務提供者應履行的算法備案手續(xù),落實了相應主體的算法安全評估、算法監(jiān)督檢查等具體工作。同時《算法推薦管理規(guī)定》建立起了算法問責體系,針對服務提供者不同程度的違規(guī)行為給予相應的懲罰,使其承擔相應的法律責任。相比《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定(征求意見稿)》(以下簡稱“征求意見稿”),《算法推薦管理規(guī)定》對違規(guī)處罰力度進行了一定程度的加強。
聚焦侵犯用戶權益的亂象,《算法推薦管理規(guī)定》旨在保障用戶個人權益和用戶群體權益相結合。就個人權益而言,一是要保障用戶的知情權。服務提供者應當告知用戶有關算法推薦服務的基本情況,主動增強規(guī)則的透明度和可解釋性。這樣做不僅能夠促進算法推薦服務的公開透明,讓其在陽光下運行,也在一定程度上能緩解服務提供者和用戶之間信息不對等現(xiàn)象的發(fā)生。二是要保障用戶的選擇權。用戶有權自主選擇是否使用算法推薦服務,如用戶選擇拒絕使用,則服務提供者需立即停止提供服務。在保障用戶群體權益方面,針對老年人群體,考慮到其年齡、識別能力、網(wǎng)絡使用程度等情況,便依法開展了規(guī)避電信詐騙的系列服務;針對消費者群體,應避免依據(jù)個人喜好、交易習慣、生活水平等特征進行差別待遇,實施價格偏見、“大數(shù)據(jù)殺熟”等不合理的算法推薦和算法決策,以保護消費者的公平交易權;針對勞動者群體,可以建立諸如訂單分配、工作時間等真正有益的相關決策,以切實保護勞動者的合法權益。2021年,美團相繼公布了外賣配送“預估送達時間”和“訂單分配”的算法規(guī)則,有效兼顧了用戶、商家和騎手三方的利益。
一項技術要得以長期廣泛應用,就必須受倫理、價值、法律等多方面的約束。算法推薦的背后實質上是一系列冰冷的、機械的數(shù)據(jù),其工具屬性不能凌駕于人類理性之上,如果不對其施加正確引導,很難為社會帶來利益福祉。2017年,美國計算機協(xié)會發(fā)布了《算法治理倫理原則》;2019年,歐盟委員會發(fā)布了《人工智能道德準則》[10];2022年3月,中共中央辦公廳、國務院辦公廳印發(fā)了《關于加強科技倫理治理的意見》。由此可見,倫理規(guī)范和道德約束對算法推薦領域之重要。如今在我國出臺《算法推薦管理規(guī)定》的背景下,使算法推薦服務符合當今社會的意識形態(tài)和價值導向,這個過程就是向上向善的生態(tài)治理過程。針對算法推薦引發(fā)的社會治理亂象,諸如片面追求流量,推送惡性廣告彈窗,違法傳播不良虛假信息等情況,《算法推薦管理規(guī)定》做出了正面的回應,明確服務提供者應尊重社會公德倫理,堅持主流價值導向,促進算法向上向善。在拒絕提供傳播不良虛假信息、反對實施惡意價值導向、設置違法失德的算法模型的基本條件下,還要積極履行主動作為義務。加強界面的生態(tài)管理,促進正能量的傳播,通過人工干預和用戶自主選擇的協(xié)同方式,呈現(xiàn)符合主流價值導向的信息。尤其針對未成年人群體,要切實履行未成年人網(wǎng)絡保護義務,不得提供誘導其沉迷游戲等不良嗜好的算法推薦服務,努力保障未成年人的身心健康發(fā)展。目前國內多家網(wǎng)絡平臺已采取了行動,例如,抖音開通了青少年模式以實現(xiàn)推薦適齡內容、管理使用時長、合理使用應用等功能,還開通了親子平臺,家長可綁定子女的賬號進行遠程管理,在此樹立了良好的典范。
3.1.1 細化具體階段規(guī)范
在《算法推薦管理規(guī)定》已經明確對服務提供者進行分級分類管理的情況下,要進一步細化對算法推薦技術本體的具體階段規(guī)范。在算法推薦技術的研發(fā)階段,可以通過植入自動防御代碼、建立安全防火墻、實時監(jiān)測系統(tǒng)等措施加強科技創(chuàng)新,從源頭上為算法推薦技術提供安全保障。例如,IBM首創(chuàng)了數(shù)據(jù)隱私護照技術,該技術能夠保證本地數(shù)據(jù)不被泄漏,即使數(shù)據(jù)離開本地存儲平臺也可以進行有效保護。用戶可以制定數(shù)據(jù)規(guī)則,在必要情況下還可以通過該技術行使撤銷數(shù)據(jù)訪問權,該技術為算法的數(shù)據(jù)基礎建設增添了強大動力①。在數(shù)據(jù)信息收集階段,服務提供者可以根據(jù)數(shù)據(jù)信息的重要程度在進行前置性評估的基礎上設置不同的技術要求。對于一般數(shù)據(jù)信息,例如用戶主動公開的個人簡介,其敏感性、可識別性較低,可以在算法推薦技術中設置概括的收集程序和用戶授權標準。對于特殊數(shù)據(jù)信息,例如身份證信息、人臉指紋識別,其敏感性、可識別性較高,應當在算法推薦技術中設置嚴格的收集程序和用戶授權標準,從而保障用戶個人數(shù)據(jù)信息的收集安全。在算法推薦技術的運行階段,服務提供者可以建立安全的數(shù)據(jù)信息存儲平臺,嚴格限制數(shù)據(jù)信息存儲平臺的訪問主體、訪問目的、訪問權限,自動形成并保存好相應的訪問記錄。但是要盡量滿足用戶對個人數(shù)據(jù)信息實施的訪問、修改、刪除等行為,以便能夠及時發(fā)現(xiàn)個人數(shù)據(jù)信息安全存在的潛在風險。
3.1.2 推進算法解釋機制
加強算法推薦服務的公開透明,其根本目的是讓用戶知悉并理解,獲取對算法推薦服務的信任?!端惴ㄍ扑]管理規(guī)定》在一定程度上保障了用戶的合法知情權,但是即便將其公開也存在著因專業(yè)問題而導致的局限性,因此可以在公開的基礎上落實算法解釋工作,其必要性體現(xiàn)在如下方面:第一,算法推薦技術的研發(fā)過程中必然涉及商業(yè)機密等不宜公開的內容,此時算法解釋便可以緩解算法公開與知識產權制度之間的矛盾[11]。第二,代碼程序的專業(yè)復雜等問題使得非專業(yè)人員難以真正理解算法推薦的運行機制,即便公開作用也相當有限,進行備案公開后如果不及時更新后果依舊如此。此時通俗易懂的算法解釋便可以使公眾真正做到知悉并理解。第三,畢竟服務提供者作為單方主體可以進行有選擇、有限度的公開,規(guī)避某些負面影響,加上缺乏公眾的參與機制導致公開的單向化、片面化[12]。此時對于用戶提出的請求進行解釋,可以促使公眾相信和提高算法推薦技術及服務自身的可信度。由征求意見稿中的“算法推薦服務提供者應當綜合運用內容去重、打散干預等策略,并優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性,避免對用戶產生不良影響、引發(fā)爭議糾紛”,最后變更為《算法推薦管理規(guī)定》中的“鼓勵算法推薦服務提供者綜合運用內容去重、打散干預等策略,并優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性,避免對用戶產生不良影響,預防和減少爭議糾紛”,在嚴格責任意義上進行了一定的限縮,那么在現(xiàn)有規(guī)定基礎上應繼續(xù)具體推進算法解釋機制。一是確定解釋主體。根據(jù)算法推薦服務具體應用場景的不同,以及算法推薦技術的研發(fā)者和服務提供者是否為同一主體,來確定承擔解釋義務的主體。二是確定解釋范圍。解釋范圍不僅要包括算法推薦的程序解釋,還要包括相關決策解釋、信息解釋、理念解釋等。三是確定解釋方式。服務提供者應當采取用戶須知等電子協(xié)議的必要方式進行覆蓋整體范圍的初步解釋。同時針對用戶在使用算法推薦服務過程中提出的個別性、合理性請求進行單獨解釋,而無須將范圍擴大到社會公眾[13]。
3.2.1 充分賦予用戶權利
針對用戶個人而言,在《算法推薦管理規(guī)定》已經明確用戶享有知情權、選擇權、投訴權等權利的基礎上,加上上述內容中的算法解釋請求權以外,可以進一步參考歐盟《通用數(shù)據(jù)保護條例》中的規(guī)定,對用戶賦權以平衡算法推薦權力帶來的影響。一是訪問權。用戶在提供數(shù)據(jù)信息時有權確認自己的信息是否正在被不當處理,并有權在符合適當性、必要性的前置條件下進行訪問。二是修改權。在用戶進行訪問發(fā)現(xiàn)內容有誤后,可以要求服務提供者對數(shù)據(jù)信息進行相應的調整修改。三是刪除權。當用戶依法撤回同意許可或永久退出應用后,服務提供者便不再享有數(shù)據(jù)信息處理的權限,不應留存?zhèn)浒付鴳攺氐讋h除。四是限制處理權。當用戶對服務提供者侵犯個人信息等行為進行投訴時,可以不要求其必須履行刪除等措施,而是予以限制不再處理個人信息。針對特定群體而言,在《算法推薦管理規(guī)定》已經明確包含未成年人、老年人、消費者、勞動者在內的特定群體以外,還要注重其他特定群體的權益,例如基于民族、種族、膚色、宗教信仰、身體健康等因素的差異而形成的特定群體。
3.2.2 拓寬法律救濟途徑
算法推薦具有專業(yè)性和不透明性的特征,這大大加劇了服務提供者和用戶之間信息不對等現(xiàn)象的發(fā)生。如若出現(xiàn)算法推薦的侵權事件,將會加大用戶個人取證的難度,從而引起后續(xù)的舉證難、訴訟效率低下、權益難以得到有效保護等一系列問題,長此以往即便用戶權益遭受損害也會怠于行使權利提起訴訟[14]。此外,算法推薦的侵權現(xiàn)象往往不是針對特定個體,而是可能面臨著一對多的情形,即受到利益損害的主體不限于社會中的少數(shù)人,已經延伸到了公共領域范圍內。因此,對于算法推薦服務中有損于公共利益的事件,可以拓寬法律救濟途徑,將其納入公益訴訟領域范圍,由相關行業(yè)組織、社會團體或國家公權力機關行使訴訟權利。參考《美國算法問責法案(2022)》第九章(b)(1)節(jié)的規(guī)定:“如果一個州的總檢察長有理由相信,該州居民的利益已經或正在受到違反本法案或根據(jù)本法案頒布的法規(guī)行為的威脅或不利影響,該州總檢察長可以作為原告,代表州居民向美國適當?shù)牡貐^(qū)法院提起民事訴訟,以獲得適當?shù)木葷?。”②這樣可以緩解個人訴訟中所面臨的諸多困境,在一定程度上防止公共利益損失的擴大。
3.3.1 設立第三方機構
加強監(jiān)管是防范風險的必然要求,《算法推薦管理規(guī)定》中已經明確要加強服務提供者的內部監(jiān)管和行業(yè)監(jiān)管。但兩者依然是在算法推薦的整體領域范圍內,且涵蓋的絕大部分都是算法從業(yè)人員[15],人員組成、調整范圍、價值選擇等方面都具有一定的局限性。此時應該設立中立的第三方機構如算法審查委員會來進行評估監(jiān)管等工作。從人員組成方面來看,第三方機構除了包括既有的算法從業(yè)人員,還可以吸納例如安保、法律、科學、倫理等有關領域的專家學者、從業(yè)人員和社會公眾在內的多種主體。從調整范圍方面來看,社會公眾更能以使用者或普通人的角度來發(fā)現(xiàn)算法推薦服務在實際生活中所引發(fā)的主要問題。相關領域內的人員能夠不再單單局限于算法推薦領域內,轉而多角度、寬領域、深層次地對算法推薦服務的安全性、必要性、合法性等方面進行評估監(jiān)管、聚焦問題,進而提出相應的對策。從價值選擇方面看,第三方機構更具有中立性,不會有意偏袒任何一方,有利于保證過程和結果的公平公正。服務提供者、行業(yè)整體應與第三方機構通力合作,制定相應評估監(jiān)管事項、標準、流程、頻次等具體規(guī)定,還可以采取定期視察、不定期檢查等措施。當?shù)谌綑C構在發(fā)現(xiàn)算法推薦技術本身或運行過程中出現(xiàn)的包括但不限于安全、倫理、價值偏離在內的相關問題時,應及時向服務提供者反映并提出糾正意見,在其按期完成整改后再次進行評估檢查,對不予整改或多次整改不合格的將給予重點預警或拉入行業(yè)黑名單,以此形成互補有效的多向交流機制。
3.3.2 引導社會向上向善
服務提供者作為社會的重要主體,承擔著多重角色。不僅是市場經濟的經營者,更是社會價值的引領者。因此,服務提供者在追求商業(yè)經濟利益的同時,要兼顧社會公共利益的實現(xiàn),樹立責任觀、大局觀,積極承擔社會責任,發(fā)揮算法推薦服務的正向作用。例如,今日頭條平臺的“頭條尋人”公益項目利用算法推薦中的地域維度,以地理位置彈窗的方式將走失者信息精準地定向推送給走失地點附近的用戶。截至2022年1月,該項目已累計幫助18 000個家庭團圓。此外還有“感光計劃”“無名患者尋親”“山貨上頭條”等多個項目,助推了我國社會公益事業(yè)的高效發(fā)展。除了服務提供者,社會公眾在使用算法推薦服務時也要遵守有關規(guī)定,遵循社會公序良俗,提高網(wǎng)絡安全意識和自我保護意識。樹立正確的價值觀,堅持主流意識導向,在充分發(fā)揮個人自身價值的基礎上形成正向的鏈條效應、網(wǎng)格效應、區(qū)域效應。只有人人內化于心,外化于行,才能推動算法推薦服務向上向善的生態(tài)治理,實現(xiàn)全社會對算法科技與倫理相結合的美好愿景。
技術創(chuàng)新和制度變革往往相伴而生,相向而行。我國數(shù)字經濟業(yè)態(tài)正處于高速發(fā)展階段,算法推薦治理問題已成為重中之重?!端惴ㄍ扑]管理規(guī)定》的發(fā)布使我們能夠有章可循,是對我國算法推薦治理體系難題的有效回應。在當前算法推薦前景與風險并行的情況下,我們應筑牢安全意識,強化底線思維,以《算法推薦管理規(guī)定》為法律依據(jù),將制度規(guī)范與自我約束相結合、經濟利益和公共利益相兼顧、科學技術與價值倫理相貫通。通過本體、法律、社會的多重路徑進行規(guī)制優(yōu)化,助推算法推薦領域的可持續(xù)發(fā)展。
注釋:
①參見鄭凱:《IBM新一代主機z15:清掉企業(yè)全面上云的絆腳石》,載微信公眾號“科技正能量”,2019年11月1日。
②參見吳建昊:《美國算法問責法案(2022)》,載微信公眾號“網(wǎng)絡法理論與實務前沿”,2022年2月20日。