摘 要:算法滲透執(zhí)法將改變傳統平臺自主治理的游戲規(guī)則,有效地將執(zhí)法和裁決權力集中到少數幾個大型平臺手中?;谄脚_私人化以及利益驅動的特性,導致算法自動化決策極有可能帶有偏見。在算法滲透執(zhí)法主要通過架構規(guī)制、數據集合實現公共治理功能的背景下,算法滲透執(zhí)法恐導致執(zhí)法過程中侵權認知不充分、社會公眾接觸信息不自由、執(zhí)法程序不透明。意將算法問責制貫穿算法應用全過程,需結合算法應用前的數據來源處理原則及知情原則、算法應用中的可審計原則及檢驗和測試原則、算法應用后的解釋原則及訪問和救濟原則共六大原則進行全方位考察,通過促進算法滲透執(zhí)法的透明度與正當程序來實現算法問責制。
關鍵詞:算法問責制;算法透明;數據來源;知情原則;解釋原則;平臺責任
中圖分類號:D 923.4 文獻標志碼:A 文章編號:2096-9783(2024)04?0115?12
一、問題的提出
新一代人工智能技術的研發(fā)與部署,是以算法為核心,以數據和硬件為基礎,以提升感知識別、知識計算、認知推理、運動執(zhí)行、人機交互能力為重點,形成開放兼容、穩(wěn)定成熟的技術體系[1]。從Facebook到Twitter,從Coursera到Uber,在線平臺已經深254a81b55bd0a7a27fe17ad81ed5a1924b13faa93ccb330bea86a49cb759a728入并廣泛參與公共活動。因此,它們已開始在實現與這些活動相關的重要公共價值觀和政策目標方面發(fā)揮至關重要的作用,包括公共安全、透明度和社會經濟平等。整個20世紀,西歐的國家機構主要負責公共空間的組織和維護公共價值觀。此后,由于經濟自由化以及公共機構和服務的私有化,這種社會安排面臨著越來越大的壓力[2-4]。在線平臺形式數字中介的興起和算法等新技術的加入正在加速這一趨勢,并使這一趨勢進一步復雜化。平臺引入算法,本是平臺為履行內容審查等注意義務過程中,為提高標記侵權內容效率時借助的技術工具。如今,平臺算法有權力決定什么樣的內容能夠在平臺上保留,甚至無需像執(zhí)法權或者裁判權一樣通過法律規(guī)定或授權取得,使得本應是“義務”承擔者的平臺,通過算法從平臺自治滲透至執(zhí)法活動中,承擔一部分公共治理職責。最終,平臺監(jiān)管或審查義務的背后,隱藏著將此類“義務”扭曲為“執(zhí)法或者裁決權力”的危險。在現有法律未對新技術的治理作出規(guī)定時,應當如何協調技術治理與法律治理的關系?有學者針對算法治理與法律治理的關系,將算法治理總結為個體賦權、外部問責和平臺義務三種主要范式[5]。從這種權利義務分配與責任承擔的劃分方式上來看,算法滲透執(zhí)法已經影響了社會公眾對自己行為的預期。為應對算法權力執(zhí)法的不可知性,有學者主張平臺運用算法時應當秉持透明原則。但也有學者批判算法透明原則,認為比起本質主義、事前規(guī)制的算法透明,以實用主義為導向、事后規(guī)制的算法問責制則更為妥當[6]。
我國算法滲透執(zhí)法過程中的算法透明度、算法解釋、算法歸責等問題已經逐漸顯現。即使存在《算法推薦管理規(guī)定》這樣正式的結構化準則,該規(guī)定在條文設置上仍存在表述空泛、偏向原則性指引、規(guī)制主體范圍相對狹窄等缺陷,且鑒于算法的不可預見性、快速擴展性與不可知性,平臺規(guī)制算法滲透執(zhí)法的行為更為困難,導致平臺利用算法規(guī)范社會公眾的在線行為變得更為復雜和不可預見。除此之外,其他規(guī)范性文件中也零散地提及算法責任、平臺責任等與算法問責制相關的規(guī)定,如2023年8月15日生效的《生成式人工智能服務管理暫行辦法》第四條第二款,在算法設計、訓練數據選擇、模型生成和優(yōu)化、提供服務等過程中,采取有效措施防止歧視,以及第四條第五款的規(guī)定,“基于服務類型特點,采取有效措施,提升生成式人工智能服務的透明度,提高生成內容的準確性和可靠性”。
現有規(guī)范性文件雖然對算法類服務提供者,或者在服務中引入算法技術的人工智能服務提供者應當為平臺治理履行的義務作出了規(guī)定,但多停留在原則性指引,并未釋明法律背后的價值意義,與先前的網絡服務提供者審查義務、披露義務、平臺責任等規(guī)范產生了斷連。而實際上算法提供者、人工智能服務提供者、網絡服務提供者存在高度交叉競合關系。平臺引入算法后對平臺治理進行的實質性變革,并未體現在現有的規(guī)范性文件中,尚缺乏算法問責、平臺責任等指導實踐的具體規(guī)定。從比較法的視角來看,2017年9月14日,美國公共政策委員會(USACM)舉辦了一場關于“算法透明度和問責制”的小組活動。該活動為利益相關者和領先的計算機科學家提供了一個討論論壇,討論算法決策和算法模型的技術基礎對人類社會日益發(fā)展的影響。小組成員討論了《算法透明度和問責制聲明》的重要性[7]。而后,2017年12月美國計算機協會(Association for Computing Machinery)作為算法治理的業(yè)界權威,公布算法治理七項原則1,提出算法決策機構應當為算法的程序以及應用的算法負責[8]。2022年2月,美國提出《2022算法問責法案》承接之前關于算法治理的初步探索,成為算法治理專門立法的里程碑。我國算法治理的規(guī)范性文件并未對算法治理進行統一的梳理,但根據現實需求逐步引出的算法指引性規(guī)定都沒有突破這七大原則。能夠預見的是,算法的立法規(guī)制在逐步前進,加強對算法的監(jiān)管是全球各國監(jiān)管部門的“共識”與未來的趨勢。
二、算法協助平臺類執(zhí)法功能實現
平臺引入算法進行架構規(guī)制、信息獲取、信息推薦,用于滿足不同用戶對于信息感知的需求,以及防止上傳涉嫌非法的內容或刪除不必要的表達。人工智能過濾器為內容審查提供了一種在上傳前刪除、屏蔽或者過濾的技術策略[9]。這種規(guī)范設置和執(zhí)法的戲劇性轉變,可能會改變傳統平臺自主治理的游戲規(guī)則,有效地將執(zhí)法和裁決權力集中到少數幾個大型平臺手中。這些平臺是追求利益最大化的私人實體,而且可能帶有偏見。盡管中介機構在形成對在線內容的訪問和促進公共話語方面發(fā)揮著關鍵作用,它們仍然很難對算法的執(zhí)行負責。我們根本不知道哪些涉嫌侵權的材料觸發(fā)了算法決策,也不知道算法如何做出有關內容限制的決定,誰在引導算法做這樣的決定,以及目標用戶如何能夠影響這些決定。算法的不透明和動態(tài)的特性造成了監(jiān)督的障礙,并且隱藏了關鍵的價值選擇和權衡。由此,在線中介機構的算法滲透執(zhí)法缺乏足夠的措施來確保算法的問責制。算法問責制體現在兩個方面:一方面是算法控制者、使用者有義務報告與證明算法設計、算法決策的正當性,并有義務減輕算法可能帶來的負面影響或者潛在的危害[5];另一方面,算法相關實體對算法滲透過程中的錯誤或失敗的行為承擔相應的法律責任[10]。
(一)架構規(guī)制
網絡環(huán)境與物理環(huán)境的差別不僅在于法律規(guī)制,還有來自市場的監(jiān)管、組成網絡空間的基本溝通語言架構、代碼,以及社會規(guī)范的約束[11]。算法技術在組織中的廣泛應用,引發(fā)關于算法如何重塑組織控制的問題。平臺對算法技術的引入,將輸入數據轉換為期望的輸出,其方式往往比引入之前更具包容性、即時性、交互性和不透明性[12]。
首先,平臺利用算法的標記觸發(fā)司法審查功能。商業(yè)(私人)功能和執(zhí)法(公共)功能一一嵌入在同一個機器學習系統中,使用相同的數據,并受相同的特征支配[13]。一方面,社交媒體的興起與發(fā)展,打破了舊媒體時代主體只能在有限范圍內建立互動關系的界限,使媒體共用成為可能。比如,微博等社交媒體平臺從錯綜復雜的網絡生態(tài)中崛起。但隨著這些平臺的發(fā)展,混亂和爭論很快又回到它們身上。原因很明顯:無論是鼓舞人心還是應該受到譴責,個體的表達都渴望通過共同平臺與其他人形成交流或者至少有人傾聽。社交媒體平臺讓更多的人相互之間可以直接接觸,為他們提供了新的機會,與更廣泛的人交談和互動,并將他們組織成網絡公眾。正因如此,為使平臺能夠長期運行和發(fā)展,平臺經營者應當設立一定的規(guī)則予以約束,而不應當置這個開放平臺于烏托邦、無秩序的狀態(tài)。平臺經營者或網絡服務提供者在發(fā)現版權侵權時,利用算法技術對是否存在侵權內容進行標記時,已經觸發(fā)了司法審查職能。而后平臺主動履行審查義務,或者通過審查來自權利人或者第三方的“侵權投訴或者通知”,為防止侵權損失的擴大,平臺采取“刪除、封禁賬號”等必要措施,實際上是直接替代公權力機關,對發(fā)布“侵權內容”的用戶履行了類似執(zhí)法的自治職能[13]。另一方面,平臺引入算法推薦技術真實目的是提供更優(yōu)質的服務來吸引用戶和促進平臺經濟發(fā)展。表面上,平臺通過算法推薦技術熟知用戶的情感偏好,依托算法技術為用戶提供自由生成內容的空間,并與用戶建立更深層的情感聯系。更深層次地,用戶得益于算法及時有效地獲取價值信息,并與平臺建立長期穩(wěn)定的聯系。比如,新媒體平臺經營者將用戶生成內容轉換為交換價值[14],或者利用用戶數據作為人工智能和機器學習的資源,以解決越來越多的問題[15]。由此可見,平臺對于內容的審查,與平臺鼓勵社會公眾健康、積極辯論的初衷背道而馳,除非這些評論已經威脅到平臺繼續(xù)提供服務的能力,否則,平臺沒有動力去排除有利于自己經濟收益但實際上侵權的內容。
其次,算法創(chuàng)新信息分發(fā)傳播機制。算法的海量通知、算法采取“必要措施”的自動化決策、算法過濾、算法推薦等算法行為,通常涉及各種傳感器的大規(guī)模數據收集、算法的數據處理以及自動化性能[16]。本質上,算法允許通過“廣泛使用數據、統計和定量分析、解釋和預測模型,以及基于事實的管理來推動決策和行動”,并對信息進行更復雜的分析[17],它創(chuàng)新了信息分發(fā)傳播機制,使信息的選擇從“作品價值”轉向“用戶興趣”。算法執(zhí)法在網絡上特別普遍,該行為本質上是由計算機代碼調節(jié)的。事實上,網絡空間所構建的軟件和硬件對人們的行為方式造成了限制[11]。例如,互聯網用戶是否必須輸入密碼才能訪問,他們在使用某個特定網站時必須保持多大的活躍度才能繼續(xù)登錄,或者用戶可以根據其隱私偏好查看彼此的數據程度。隨著算法逐步滲透版權執(zhí)法過程,信息法學者Joel Reidenberg提出了“Lex Informatica”技術標準,為信息政策規(guī)則提供了技術解決方案[18],主要通過進一步細化勞倫斯·萊斯格(Lawrence Lessig)教授創(chuàng)造的“代碼就是法律”的網絡空間架構[11],詳細闡述了算法如何在規(guī)范某些行為方面取代法律。在線中介在管理在線行為和保護互聯網用戶的權利方面發(fā)揮了重要作用[19]。算法執(zhí)法由在線中介(如搜索引擎或托管網站)實施,它們提供了一個自然的控制點,用于監(jiān)控、過濾、屏蔽和禁止訪問內容使執(zhí)法更加有力。也有學者認為,法律與算法分屬不同的系統,每個系統具有自己獨立的語言溝通體系,對算法法律規(guī)制的原理必須建立在場景化的基礎之上[20]。
最后,算法技術性指令與執(zhí)法正當程序性存在天然契合關系。一方面,利用算法過濾防止疑似侵權內容上傳至平臺或者在接到通知后利用算法海量刪除某些材料時,算法的版權執(zhí)法已經起到了私人執(zhí)法的作用,為算法版權執(zhí)法的問責制創(chuàng)造了合理適用的空間,即決策者應在多大程度上向那些受到這些選擇影響的人證明其選擇的合理性,對其行為結果負責。另一方面,鑒于算法的技術性,美國學者嘗試發(fā)展“技術正當程序”的制度來解決這一問題,即通過強調編碼公開、開發(fā)公眾參與程序、系統軟件測試等來實現程序所要求的透明化、公開和可問責等要求[21]。問責制確保決策者以公平有效的方式行使權力,可以通過事前機制產生,這種機制通過結構化的指導方針和標準限制決策者的權力,也可以通過事后透明度機制產生,允許審查決策者的行動及其決定的結果,或者兩者兼而有之[13]。此外,還可以通過正式授權實現,如限制決策者執(zhí)行權力的法律規(guī)則或條例[22],和(或)通過非正式手段,如市場力量,檢查決策者的自由裁量權,并通過促進對其選擇和相關結果的自愿披露實現問責制。就目前而言,在網絡服務提供者執(zhí)行算法的情況下,試圖利用不同機制設置達到規(guī)范算法問責制的效果,仍然是相當具有挑戰(zhàn)性的。
(二)數據集合
首先,平臺通過數據集合形成對資源的調配,實際上在網絡空間形成了一種事實上的技術權力②。一般來說,在線平臺可以被定義為社會技術架構,它能夠通過用戶數據的收集、處理和流通來引導用戶實現交互和通信[23]。這些平臺通常似乎很少在獲得公共機構幫助的情況下促進公共活動。因此,它們被譽為“參與”文化、“共享”或“協作”經濟的工具[24]。在線平臺有望讓個人有效發(fā)揮公共產品和服務生產者的作用,并成為自主和負責任的公民。但實際上,迄今為止,在線平臺尚未兌現這一承諾。相反,在許多情況下,它們似乎進一步加劇了市場對重要公共價值觀的壓力,如服務提供的透明度和非歧視、公共溝通的文明性以及媒體內容的多樣性。平臺的商業(yè)利益和相應的戰(zhàn)略動機并不總是與公共機構的利益相一致,而平臺作為社會公眾經濟社會活動的重要領域,需要在關鍵公共價值觀方面發(fā)揮組織和監(jiān)管參與者的作用。
其次,算法在學習與訓練中通過數據集合的方式持續(xù)滲透執(zhí)法。一方面,算法滲透執(zhí)法使得執(zhí)法機制更客觀量化。算法過濾與人的過濾機制不同③,一般情況下無法基于價值選擇、情感表達予以過濾。這就導致社會公眾對社會的預測需要從依托于對人的信任轉化為對算法收集的數據或數據集合以及數據分析結果的信任。算法決策過程中,后續(xù)的工作和預測可能并不單單受算法設計者的控制,還與訓練算法的數據以及算法的深度學習有關。如今,算法識別大規(guī)模數據集合并進行分類和預測的方法被認為比人類更準確,深度學習技術也被稱為具有“超人”的準確性和洞察力,但是由于從輸入到輸出的非線性路徑等原因,目前還缺乏能夠解釋為什么深度學習技術在模式檢測和預測方面如此有效的理論[25]。另一方面,算法滲透執(zhí)法加劇執(zhí)法過程的復雜性與不透明度。機器學習算法的速度、復雜性和透明度有限使得算法文化的研究更具挑戰(zhàn)性。在社會環(huán)境中,深度學習系統有望產生更準確的分類,或做出更理性的決策,甚至允許我們避免非理性的人類偏見[26]。與此同時,這些系統似乎違反了祛魅的認識論④,即世界上不再有“神秘”的力量在起作用。矛盾的是,當深度學習的祛魅預測和分類如人們所希望的那樣發(fā)揮作用時,我們看到了大量樂觀的話語,將這些系統描述為吸引著神秘力量和超人力量的神奇系統。這種神秘化掩蓋了深度學習系統在應用于人類和社會機構時可以加強歧視性或有害的預測和分類方式[27]。因此,深度學習既強化了對覺醒的診斷,也挑戰(zhàn)了對覺醒的診斷[25]。以谷歌為例,為使用戶“意圖輸出目標”與搜索引擎“實際提供輸出目標”達到高度一致性,一方面,需要提升企業(yè)開發(fā)人員理解算法設計、算法深度學習、算法決策的能力[28-29];另一方面,搜索引擎作為谷歌、廣告商和互聯網用戶之間的交互點[30],不僅需要提升搜索引擎收集數據的效率,還要不斷改進算法在目標搜索引擎結果頁面中的其他功能[31-32]。
最后,通過數據集合實現算法權力控制,還體現在平臺與平臺間的數據共享。數據共享是利益競爭與合作利益最大化雙重驅動下的產物。于平臺端而言,理想競爭市場是指,眾多企業(yè)努力優(yōu)化其商品和服務以在競爭中脫穎而出。但是,當數據成為現代經濟中的關鍵資源時,掌握了數據優(yōu)勢的企業(yè)不僅可以在自己的行業(yè)中睥睨眾人,縱向并購的大門也將為它們敞開。甚至當這些企業(yè)收集到更多有關產品使用者的政治態(tài)度與立場的數據時,通過巧妙操縱搜索頁面的內容呈現,它們有望成為影響政治生態(tài)的強大輿論力量[33]。于公眾一方而言,信息在大眾之間傳播和流通,有利于消除認知偏見和建立公眾溝通的橋梁,維持社會穩(wěn)定結構。媒體通過“廣播、網上和面對面”的形式向受眾傳達可信的信息,已經成為公共社會服務的一部分。許多創(chuàng)作者從網絡所承諾的自由中獲得啟發(fā)或至少希望從中獲利,這些自由承載和擴展了所有的參與、表達和社會聯系。算法推薦技術的加入使得信息的擴展重新回到了有秩序的信息選擇,增加了信息的可用性,但隨著私人特征和屬性可以從人類行為的數字記錄中預測出來,人類的社交網絡活動和信息接觸也趨近于同質化[34]。這個過程也使得發(fā)源于個人的數據、信息披露在公眾視野中,個人信息的利用極有可能不受數據發(fā)出者、所有者的控制,而最終導致個人利益受損[35]。
三、算法滲透執(zhí)法復雜化平臺治理
算法的有限性和有效性與法律在形式上的特征不謀而合,這也是促成算法滲透執(zhí)法的重要原因。算法的有限性(finiteness)體現在執(zhí)行有限步驟后必須終止,有效性(effectiveness)則體現在算法執(zhí)行的步驟是可分解、可執(zhí)行的操作步驟[36],與法律追求的效率價值與正義價值的有限保障可謂殊途同歸。但算法滲透執(zhí)法也使得平臺治理問題變得更為復雜。
(一)算法滲透執(zhí)法的認知不充分
第一,算法認知不能等同于個體行為認知或網絡服務提供者的認知。人對信息的認知存在“認知障礙”,而算法認知實際上是數據疊加、數據收集、數據分析整理的過程。但由于算法認知總是受“即時滿足”這一原則的指引[37],所以看似絕對理性的算法實際上只是有限、局部理性,而人的認知是理性與感性認知的疊加?!八惴ㄕJ知”是基于主體“人”認知的二階觀察,是對人觀察行為的二次觀察,并不單純是對平臺“提供內容”的直接分析,這個過程實際上是算法參與了人的社會活動,作為人與平臺內容互動的鏈接。第二,算法透明不等于算法認知。人類對社會生活質量的追求逐步提升,隨即對算法的分工提出更精細化的要求,大量算法變得愈發(fā)復雜和不可知[6]。計算機領域著名的萊斯定理(Rice's Theorem) ,就論證了某類算法的不可知性[38]。算法滲透執(zhí)法在深度和廣度上的增加,使得算法執(zhí)法變得更加不可知與不可預測,這將更有可能導致社會公眾對可能產生結果的不可預估,從而無法根據對結果的期待來調整自己的行為。第三,算法認知不充分導致的公平性缺失愈發(fā)嚴重。一般而言,算法內容審核是一個異構的實體集合,其中一些是社會的,另一些是技術的[39]。平臺運用算法推薦技術對數據集合的管理與運用,應當以增進社會公眾的福祉為出發(fā)點。預測算法通過挖掘個人信息猜測個人可能的行為和可能造成的風險,一個人的線上和線下活動被轉化成分數。這將原本kFb3EVEppRAkyULSdrDCkA==個體或者群體基于實際溝通建立信任的格局完全打破,轉化為以“中間網絡服務提供者提供的溝通平臺”作為信任基礎和未來選擇的依據。盡管算法預測經常以武斷和歧視的方式損害個人的生活機會,但私人和公共實體仍然依賴預測算法的評估結果做出關于個人的重要決策。平臺引入算法實際上是將原有的人類認知下的干預與非人類認知下的技術干預相結合,可能導致原有的政府、社會公眾與互聯網平臺之間權利關系重構[40]。
(二)算法滲透執(zhí)法的信息不自由
算法導致的信息不自由是由算法的認知偏見導致的,主要有以下兩個主要矛盾:第一,算法訓練數據來源偏見最終導致決策偏見。算法的本質是尋求終極最優(yōu)解。無論是預測還是解決問題,算法尋求的結果是每一次過往經驗的歸納最優(yōu)解[37],但“歸納法”本身的局限性在于無法創(chuàng)造出解決社會問題的新方法或者新認知,所以算法影響了信息的可利用程度以及傳播渠道的開放,使得人們獲取信息的方式從完全自主、自生自發(fā)的秩序發(fā)展到有限自主,最終直到這種認知方式影響到人們的就業(yè)機會等具體化的公眾社會生活時,就導致算法參與決策的信息不自由。第二,算法的加入勢必會掠奪一部分消費者對信息自由選擇的空間。算法根據用戶信息選擇的歷史記錄,干擾用戶未來選擇。算法推薦技術的參與使得個人、集體與市場之間的關系發(fā)生微妙變化,并具體作用于算法、經營者、消費者、數據,以及它們之間相互控制與抵制控制的相互關系上[41]。從保護消費者出發(fā),平臺要保證消費者對差異化信息的自由選擇和對特定信息的高效篩選的雙重需求。勢必需要分析算法表達如何干預越來越多的現有消費集合,尤其是如何對這些元素進行整合與建立聯系[42]。第三,算法本身的局限性會導致技術治理效果的局限性。比如算法自動過濾機制是根據關鍵信息標記或者與原作品比對重復率進行的初步篩選,可能將不屬于侵權的內容直接屏蔽。一般情況下,由于無人知曉是否錯誤標記或錯誤識別或非法標記內容的合理使用,且社會公眾根本無法獲取該部分信息,即使屏蔽的內容實際上并不侵權,也無法獲得該有的救濟[43]。這種技術治理方式極有可能占據更多公有領域空間,最終導致社會公眾在不付費或不受許可時,可獲取的信息范圍遭到限縮,從而侵犯公民的信息傳播權、隱私權和言論自由[44]。
(三)算法滲透執(zhí)法的程序不透明
算法滲透執(zhí)法的不透明加劇了社會公眾權利再分配的不正義。第一,從運行機制上看,平臺與用戶之間也形成了一種法國哲學家??滤Q的“全景敞視主義”機制: 國家(或者平臺管理者)擁有隱而不顯而又無處不在的單向監(jiān)視權力,通過技術處理,能夠單向、全面、持續(xù)不斷的監(jiān)視網絡用戶利用平臺處理、記錄、存儲個人信息以及其他的行為痕跡全部暴露在平臺管理者面前[45],社會公眾被控制的領域甚至多于算法滲透執(zhí)法之前的狀態(tài)。更可怕的是,當政府控制了技術,當權者以自己的標準來設計代碼并強加給網絡用戶時,技術很有可能帶來“代碼暴政”[46]。??略呀y治權分為兩種:現行政府命令和隱性行使。如果說法律屬于前者的話,那技術受到權力控制后成為了后者,甚至當算法技術滲透執(zhí)法全過程,能夠在不知不覺中對社會權利進行再分配。那么,一般社會公眾對政府公正執(zhí)法的信任將轉移到對算法結果導向的信任,這對社會關系、人與人之間的信任以及一般公眾的權利都會造成影響。算法的加入加劇了社會的不信任和不透明,更有可能激化社會矛盾和不正義。第二,從運行程序上,Content ID允許內容提供商上傳視頻或音頻作品的數字化副本,YouTube的服務器使用這些副本創(chuàng)建一個數字參考,用于掃描網站上的所有其他視頻。如果其他視頻的一部分與樣本視頻或音頻內容相匹配,視頻就會被標記為包含有版權內容。因此,Content ID可能會非法標記內容的合理使用或最低限度使用。由于Content ID的閾值沒有公開,用戶無法理解它如何行使權力。事實上,Content ID識別程序的不透明性,使得被指控的侵權者無法知曉他們的視頻是因為被指控盜版,還是因為算法的錯誤識別而被標記。相比之下,以法律規(guī)范約束平臺經濟社會生活,無論是執(zhí)法還是司法過程,至少需要保證程序與實體的雙重正義,還受到執(zhí)法者、司法者的行為道德約束、社會公序良俗的約束。雖然做到結果正義很難,至少追求機會正義是“紙面法律”與“行動法律”共同追求的目標。本意上,平臺意圖通過“算法”實現羅爾斯主張的關于正義的兩個原則,這兩個原則分別區(qū)分社會體系的兩個方面:一是確保公民的平等自由;二是制定與建設社會經濟不平等的方面⑤。平臺恰好是一個小型的社會體系,通過技術和經濟要素引導著用戶互動,但同時也塑造著社會規(guī)范。平臺為實現去中心化的新運營模式,引入算法進行監(jiān)管,實際上是把對平臺運營影響的技術因素(算法)又重新融入到權力監(jiān)管的體系中,并不一定使監(jiān)管更為有效,反而增加了提供服務與執(zhí)法的復雜性和不透明度。
四、算法滲透執(zhí)法的算法問責制構建
在盡可能保證算法公正和透明的前提下,利用算法自動化決策承擔一部分社會治理功能。算法的迭代升級與機器學習能力已經表明,算法能夠處理圖像、文本、音頻、視頻等更加復雜的數據,這使得內容審核過程中算法的強制執(zhí)行能夠在更廣泛的維度上發(fā)揮作用。平臺使用算法推薦技術可以生成和量化有風險的概況和內容,以求通過排除有害因素確保信息流通的良好管理[40]。自動化控制的監(jiān)管語言至少揭示了通過自動化系統嚴格執(zhí)行風險管理目標的組織能力的核心信念。事實上,正如監(jiān)管者、供應商和用戶所描述的,技術系統可以被合理地描述為一種強大的管理工具,可以根據組織需求和普遍遵從性進行調整,靈活地應對變化,可以增加業(yè)務流程的可見性和強化監(jiān)督。在算法問責制的中心原則指導下,平臺作為主要的算法服務提供者為算法的自動化決策、算法版權執(zhí)法負責,并貫穿至算法設計、執(zhí)行、應用的全過程。
(一)算法應用前的全方位審查
1.數據來源處理原則
算法設計者應該描述收集訓練數據的方法,以及在數據收集過程中可能引入的偏差。雖然數據的公共監(jiān)督最有利于矯正數據錯誤,但出于隱私保護、商業(yè)秘密保護、避免算法披露后的惡性博弈等原因,可以只對適格的、獲取授權的個人進行選擇性披露[47]。數據來源處理原則應當從以下幾個方面予以應對:第一,數據處理時合法合規(guī)、安全優(yōu)先。習近平總書記在2023年中國國際服務貿易交易會全球服務貿易峰會上發(fā)表視頻致辭時指出,要“推動數據基礎制度先行先試改革”。已有規(guī)范性文件對試點改革提出了具體要求,如《中共中央 國務院關于構建數據基礎制度更好發(fā)揮數據要素作用的意見》要求“創(chuàng)新技術手段,推動個人信息匿名化處理”。無論算法的訓練還是算法模型的優(yōu)化,皆是在大規(guī)模數據的基礎上展開的,數據質量直接決定了算法預測與決策的能力。由此,規(guī)范數據清洗、去標識化、匿名化處理,有助于提升數據的可用、可信、可流通、可追溯水平,削弱因數據集合不全面導致的算法決策不公正。故而,推動數據要素強化優(yōu)質供給,是建立合規(guī)高效場內外結合的數據要素流通和交易制度的重要內容⑥。第二,適用統一的算法披露標準。當前,越來越多的國際及國內利益相關方意識到,不統一的可持續(xù)信息披露標準,不僅增加企業(yè)披露成本,也會影響可持續(xù)發(fā)展的政策制定和投資決策。因此,建立具有一致性、可比性和可靠性的信息披露指標,已成為監(jiān)管機構、投資者、專業(yè)機構共同努力的方向。國際層面,2023年6月26日,國際可持續(xù)準則理事會(International Sustainability Standards Board,ISSB)正式發(fā)布了兩份國際財務報告可持續(xù)披露準則,作為全球可持續(xù)披露基線準則建設中的重要里程碑文件,ISSB兩份準則的發(fā)布對于提升全球可持續(xù)發(fā)展信息披露的透明度、問責制和效率具有重要意義[48]。第三,數據處理時應當將技術與管理手段相結合,形成數據有效溯源管理。平臺應用數據時應當明確各環(huán)節(jié)的數據處理權限和流程,對數據清洗、去標識化、匿名化設置訪問控制程序,采取措施記錄數據處理過程的細節(jié)、適用的參數和控制措施,及時發(fā)現出現的偏差或不當操作,支撐后續(xù)對數據處理過程進行維護、審計和追溯[49]。算法的優(yōu)化是對數據的識別與輸出結果的優(yōu)化,因此,規(guī)制算法實際上也是加強主體對數據的控制與保護[50]。
2.知情原則
根據霍菲爾德式(Hohfeldian)體系的權利形式,權利與義務具有“相關”關系,即當某一主體被賦予權利時他人就有責任履行相應義務[51]。故而,可將“知情原則”放在權利與義務的一體兩面之中去理解。一方面,知情原則體現了被應用算法的網絡用戶具有知曉算法決策可能導致不公平結果的權利、拒絕算法偏見的權利,以及社會公眾作為平臺社會活動最主要的參與者,以“協同治理重要監(jiān)督者”身份進行監(jiān)督的權利。平臺應用算法實際上是將個人的數據財產或者精神價值部分轉換為企業(yè)再生產的資料,在此過程中難免占據個人權利空間,尤其是算法推薦對用戶瀏覽信息的篩選多采用“協同過濾算法”,它基于用戶的行為數據(user-based CF)或者物品的屬性數據(item-based CF)來發(fā)現用戶的興趣和相似性,進而為用戶推薦個性化的內容或者物品。此種情況下,當算法推薦行為可能對社會公眾信息自由造成不良影響時,應當以保證公民人身權利優(yōu)先。如《中華人民共和國電子商務法》第十八條規(guī)定,對用戶的推薦或提供搜索結果不應當針對個人特征,這種關閉個人特征的推薦方式實際上就屬于法律上事前對平臺的監(jiān)管,要求平臺不得對用戶使用“協同過濾算法”。另一方面,從平臺交易形式的變化來看,多方參與帶來的新型交易形式也為多主體協同管理平臺帶來了新的機遇。針對網絡用戶的知情權,具有相關利益的算法所有者、設計者、操控者或其他利益相關者,都有可能承擔披露算法設計、執(zhí)行、適用過程中可能存在的不公平決策、潛在危害和可能造成偏見的義務。再者,基于平臺互聯互通、平臺從競爭走向合作的產業(yè)運營模式,算力服務更需要一種能夠集中各類算力資源并進行統一出售的平臺,來解決單一算力資源無法突破的瓶頸。平臺負責多方算力資源的統一接入、編排調度、計費核算等核心環(huán)節(jié),是云服務向算力服務演進的全新角色[52]。
(二)算法應用中的全方位監(jiān)管
一方面,自愿分享信息可能導致發(fā)布帶有偏見和誤導性的信息。另一方面,平臺合法商業(yè)利益極有可能損害執(zhí)行執(zhí)法任務所涉及的職責,如社會公眾受到不公平的對待。建立平臺自我治理的公共監(jiān)督機制,讓網絡服務提供者對算法版權執(zhí)法負責,實際上是對使用類政府權力的平臺進行必要的檢查和監(jiān)督。
1.可審計原則
互聯網以及算法技術的發(fā)展使得個人數據更加公開,數據流動更加自由。算法是將個人數據聚合產生較大經濟價值的典型技術,個人數據的保護與利用模式直接影響產業(yè)經濟的發(fā)展[53]。但許多人忽視了將算法引入商業(yè)和社會的缺陷,如果不加以控制,嵌入數字和社交技術中的人工智能算法將進一步擴大社會偏見,加速謠言和虛假信息的傳播,放大公眾輿論。確保正義的社會價值反映在算法和人工智能技術中的創(chuàng)造力并不亞于開發(fā)人工智能技術本身。算法可審計原則就是確保來自“黑箱”的報告沒有重大錯報,對模型、算法、數據和決策結果應有明確記錄,以便必要時接受監(jiān)管部門或第三方機構審計。例如,歐盟的《通用數據保護條例》要求應用算法的組織能夠解釋他們的算法決策。第一,審計的任務應該是確保人工智能系統符合社會主義核心價值觀、政府規(guī)范性文件以及現行法律法規(guī)的規(guī)定,可以考慮成立獨立的機構,審議和發(fā)布行為標準。這種基于科學依據和倫理的算法審計方法是建立可靠的人工智能治理、審計、風險管理和控制系統的重要組成部分[54]。第二,審計依賴算法備案制度。自《算法推薦管理規(guī)定》實施以來,國家網信辦先后三次公布了《境內互聯網信息服務算法備案清單》[55],社會公眾可以從清單中了解到算法名稱、發(fā)布主體、應用產品、主要用途和備案編號等信息[56]。
2.檢驗和測試原則
檢驗和測試原則是指,使用算法的機構應該采取有效措施來檢驗算法模型,并記錄檢驗方法和檢驗結果。尤其應該定期采取測試,審計和決定算法模型是否會導致歧視性后果,并公布測試結果。通過比較世界各國算法治理方法發(fā)現,已經有國家在算法監(jiān)管與算法歸責方面邁出重要步伐。一方面,監(jiān)管機構應當對算法分層管理。德國數據倫理委員會將“與人類決策相關的人工智能系統”劃分為“基于算法的決策”“算法驅動的決策”和“算法決定的決策”三種類型,并提出人工智能算法風險導向型“監(jiān)管金字塔”,將人工智能算法風險進行1-5級評級,對于評級為無潛在風險的人工智能算法不采取特殊監(jiān)管措施,并逐級增加規(guī)范要求,包括監(jiān)管審查、附加批準條件、動態(tài)監(jiān)管以及完全禁止等措施[57]。在具體算法執(zhí)法時,也應當考慮比例原則的適用,至少應當維護合理使用制度在互聯網領域的沿用。算法強制執(zhí)行可能不適當地限制用戶訪問、體驗、轉換和共享創(chuàng)造性材料的自由,如科學出版物、文化資產和新聞報道[58-59]。這些對知識的學習和教育、信息自由的接觸存在合理使用的支持。但公民對于信息的自由獲取與表達作為一項基本人權不應當被合理使用完全掩蓋⑦。機器算法的深度學習與迭代升級過程中,也存在對平臺數據庫信息的汲取和挖掘,雖然算法輸入內容會依據算法設計者的偏好設置不同的關鍵詞進行抓取,但在得出輸出結果之前,算法設計者并不實際知曉具體抓取的結果。當然,算法對數據的抓取還會導致另一個可能的后果,即不同平臺之間可能通過數據交換實現對數據或知識的重新整合,這個過程中還有可能產生新的數據或知識。信息技術的出現(如電子數據交換)允許企業(yè)更密切地協調活動[60],從而減少信息不對稱和機會主義。電子數據模塊信息的交換,使得企業(yè)間關系得以改善。這些信息技術降低了交易成本,從而改善了分類系統的管理[61]。分類系統通常是通過算法管理得以實現,在平臺監(jiān)控與版權過濾方面起到至關重要的作用。算法管理是算法推薦平臺常用的商業(yè)模式之一,即根據匹配或預測對用戶生成內容進行分類,從而導致不同的決策和治理結果(如刪除內容、刪除賬戶)。就此,“算法”管理“算法”的目標得以實現。另一方面,利用技術工具監(jiān)管與評估。2022年5月,新加坡通信媒體發(fā)展局和個人數據保護委員會發(fā)布《人工智能治理評估框架和工具包》,成為全球首個官方的人工智能檢測工具,該工具結合技術測試和流程檢查對人工智能技術進行驗證,并為開發(fā)者、管理層和業(yè)務伙伴生成驗證報告,涵蓋人工智能系統的透明度、安全性及可歸責性等人工智能倫理要求,并積極吸收不同機構的測試建議,完善評估工具[57]。
(三)算法應用后的全方位救濟
1.解釋原則
解釋原則鼓勵應用算法的組織解釋算法的操作步驟和具體的決策結果。平臺對其應用技術要素以及運行規(guī)律的認知解釋,直接決定了平臺治理能力。平臺作為一種互動交流的機制和通道,其產生、存在和作用發(fā)揮都蘊含著鮮明的技術性特質[62],這就決定了平臺運用算法治理的過程,實際上是將技術要素注入法律秩序當中并與之融合的過程,那么算法解釋就是使得算法滲透執(zhí)法從“黑箱”轉變?yōu)橐话愎娀蛘咛囟ㄊ跈嘀黧w可理解的表達。第一,算法本身不具有可責性,算法的解釋是應用算法的主體為免除自己責任而履行的義務⑧,但算法解釋依然無法解決商業(yè)秘密、知識產權與算法解釋之間的沖突。實踐中,算法解釋的可執(zhí)行性還受到舉證規(guī)則的影響。例如,在Viacom和YouTube之間的版權糾紛案中,法官并未強迫YouTube向Viacom提供計算機源代碼,該代碼控制著YouTube的搜索功能和谷歌的互聯網搜索工具“Google.com”。原告Viacom主張制作和審查源代碼是確定YouTube的搜索算法是否有效地提高了據稱侵權材料相對于非侵權材料的排名或可見度的唯一辦法,但并未提供充分證據證明披露的必要性?;诖?,法院最終以“涉案算法包含的商業(yè)秘密沒有被披露的必要”為由,駁回了Viacom要求迫使YouTube公布源代碼的請求,批準了YouTube商業(yè)秘密保護令的請求⑨。要求披露算法商業(yè)秘密的主體必須對算法披露的必要性予以舉證。這實際上與數據三大悖論—透明化悖論、身份悖論和權力悖論—具有渾然一體的關系⑩,依然是平臺治理與發(fā)展的難題。第二,算法解釋主體應當是將算法嵌入具體服務的主體,而不應當是算法設計者、研發(fā)者和算法最終用戶。我國《算法推薦管理規(guī)定》也將責任主體限定為算法服務提供者,說明判斷平臺為其提供的算法決策承擔怎樣的責任時,應當揭開“技術中立”的面紗,就平臺應用算法時提供的具體服務,具體認定責任承擔的主體與責任承擔方式。
2.訪問和救濟原則
訪問和救濟原則意味著,應當確保受到算法決策負面影響的個人或組織有權對算法提出質疑和補救[6],其中包括獲得算法解釋的權利、更正或修改數據的權利、退出算法決策的權利等[63]。在算法應用中,算法偏見、算法歧視不應當作為侵犯個人權利的理由。在所有個人權利中,德沃金認為,最重要的是關懷和尊重的平等權利,即每個人都享有“作為平等的人對待”的權利,或者“社會應當予以尊重,承認其尊嚴和平等考慮”的自然權利,個人權利觀念起源于平等觀念[64]。一方面,算法訓練過程中,企業(yè)應當對數據來源進行嚴格審查,不應以算法不成熟對抗算法結果不正義。保證社會公眾獲取信息的自由,不因平臺引入算法導致加劇信息不對等。另一方面,企業(yè)應當承擔算法應用后的解釋義務。算法解釋義務與企業(yè)商業(yè)秘密、知識產權之間發(fā)生沖突時,如何確保不損害企業(yè)對算法的開發(fā)前提下,接受算法審查、算法監(jiān)督并保障個人權利獲得救濟,是亟待解決的問題,重點則放在了如何把握算法透明度的邊界上[65]。
五、結語
簡言之,算法收集數據與決策過程中融入了平臺決策者的自主意志,該意志導致的社會不公平現象不應當由算法設計者或者算法使用者承擔責任,而是應當由意圖通過算法遮蔽真實決策意圖的算法服務提供者承擔責任。故而,算法解釋與保障受算法侵害的主體獲得救濟的責任,也應當由背后的真正自由意志表達的主體承擔。
參考文獻:
[1] 國務院. 新一代人工智能發(fā)展規(guī)劃[EB/OL]. (2017-07-20)[2024-01-04]. https://www.gov.cn/zhengce/content/2017?07/20/content_5211996.htm.
[2] GARLAND D. The limits of the sovereign state: strategies of crime control in contemporary society[J]. The British Journal of Criminology, 1996, 36(4): 445?471.
[3] DEAN M. Governing societies[M]. New York:McGraw-Hill Education (UK), 2007.
[4] MILLER P, ROSE N. Governing the present: administering economic, social and personal life[M]. Cambridge:Polity Press, 2008.
[5] 張欣.從算法危機到算法信任:算法治理的多元方案和本土化路徑[J].華東政法大學學報,2019(6):17.
[6] 沈偉偉.算法透明原則的迷思——算法規(guī)制理論的批判[J].環(huán)球法律評論,2019(6):20?39.
[7] Association for Computing Machinery US Public Policy Council(USACM).USACM Panel on Algorithmic Transparency and Accountability[EB/OL]. (2017-09-14)[2024-01-08]. https://www.acm.org/public-policy/algorithmic-panel.
[8] Association for Computing Machinery US Public Policy Council(USACM).Statement on Algorithmic Transparency and Accountability[EB/OL]. (2017-12-12)[2024-01-06]. https://www.acm.org/binaries/content/assets/public-policy/2017_usacm_statement_algorithms.pdf.
[9] GILLESPIE T. Custodians of the Internet: platforms, content moderation, and the hidden decisions that shape social media[M]. New Haven:Yale University Press, 2018.
[10] 袁康. 可信算法的法律規(guī)制[J]. 東方法學,2021(3):18.
[11] 勞倫斯·萊斯格. 代碼2.0:網絡空間中的法律(修訂版)[M]. 李旭,等譯. 北京:清華大學出版社,2018:233.
[12] KELLOGG K C, VALENTINE M A, CHRISTIN A. Algorithms at work: the new contested terrain of control[J]. Academy of Management Annals, 2020, 14(1): 366?410.
[13] PEREL M, ELKIN-KOREN N. Accountability in algorithmic copyright enforcement[J]. Stan. Tech. L. Rev., 2015, 19: 473.
[14] POSTIGO H. America online volunteers: lessons from an early co-production community[J]. International Journal of Cultural Studies, 2009, 12(5): 451?469.
[15] CASILLI A, POSADA J. The platformization of labor and society[M]// Society and the Internet: How Networks of Information and Communication Are Changing Our Lives. Oxford: Oxford University Press, 2019: 293?306.
[16] BAMBERGER K A. Technologies of compliance: risk and regulation in a digital age[J]. Tex. L. Rev., 2009, 88: 669.
[17] DAVENPORT T, HARRIS J. Competing on analytics: updated, with a new introduction: the new science of winning[M]. London: Harvard Business Press, 2017.
[18] REIDENBERG J R. Lex informatica: The formulation of information policy rules through technology[J]. Tex.L.Rev., 1997, 76: 553.
[19] HERMAN B D. A political history of DRM and related copyright debates, 1987?2012[J]. Yale JL & Tech.,2011, 14: 162.
[20] 丁曉東. 論算法的法律規(guī)制[J]. 中國社會科學,2020(12):152.
[21] CITRON D K. Technological due process[J]. Washington University Law Review, 2008, 85(6): 1249?1313.
[22] RABINOVICH-EINY O. Technology's impact: the quest for a new paradigm for accountability in mediation[J]. Harv. Negot. L. Rev., 2006, 11: 253.
[23] VAN D J, POELL T, DE WAAL M. The platform society: public values in a connective world[M]. New York:Oxford University Press, 2018.
[24] BOTSMAN R,ROGERS R. What's mine is yours: how collaborative consumption is changing the way we live[M]. London: Harper Collins Publishers, 2011.
[25] CAMPOLO A, CRAWFORD K. Enchanted determinism: power without responsibility in artificial intelligence[J]. Engaging Science, Technology, and Society, 2020(6): 1?19.
[26] KLEINBERG J, LAKKARAJU H, LESKOVEC J, et al. Human decisions and machine predictions[J]. The quarterly journal of economics, 2018, 133(1): 237?293.
[27] BOWKER G C, STAR S L. Sorting things out: classification and its consequences[M]. Cambridge:MIT Press, 2000.
[28] MAGER A. Algorithmic ideology: how capitalist society shapes search engines[J]. Information, Communication & Society, 2012, 15(5): 769?787.
[29] GAVER B, SENGERS P. The presence project[M]. London: Goldsmiths Press, 2020.
[30] SHARMA T S, WASKO M C M, TANG X, et al. Hydroxychloroquine use is associated with decreasedincident cardiovascular events in rheumatoid arthritis patients[J]. Journal of the American Heart Association,2016, 5(1): e002867.
[31] DPAULLADA A, RAJIL D, BENDER E M, et al. Data and its (dis)contents: a survey of dataset development and use inmachine learning research[J]. Patterns, 2021, 2(11): 1?14.
[32] KOTRAS B. Mass personalization: predictive marketing algorithms and the reshaping of consumer knowledge[J]. Big Data & Society, 2020, 7(2): 1?14.
[33] 阿里爾·扎拉奇,莫里斯·E.斯圖克. 算法的陷阱:超級平臺、算法壟斷與場景欺騙[M]. 余瀟,譯,北京:中信出版集團, 2018: 102?104.
[34] KOSINSKI M, STILLWELL D, GRAEPEL T. Private traits and attributes are predictable from digital records of human behavior[J]. Proceedings of the National Academy of Sciences, 2013, 110(15): 5802?5805.
[35] 李曉華. 數字時代的算法困境與治理路徑[J]. 人民論壇,2022(Z1):64?67.
[36] 蔣舸. 作為算法的法律[J]. 清華法學,2019(1):64?75.
[37] 佩德羅·多明戈斯.終極算法: 機器學習和人工智能如何重塑世界[M].黃芳萍,譯. 北京:中信集團出版社,2017:282.
[38] RICE H G. Classes of recursively enumerable sets and their decision problems[J]. Transactions of the American Mathematical Society, 1953, 74(2): 358?366.
[39] LATOUR B. Reassembling the social: an introduction to actor-network-theory[M]. New York: Oxford University Press, 2007.
[40] CROSSET V, DUPONT B. Cognitive assemblages: the entangled nature of algorithmic content moderation[J]. Big Data & Society, 2022, 9(2).
[41] AIROLDI M, ROKKA J. Algorithmic consumer culture[J]. Consumption Markets & Culture, 2022, 25(5): 411?428.
[42] CANNIFORD R, BAJDE D. Assembling consumption: Researching actors, networks and markets[M]. London: Routledge, 2015.
[43] 理查德·斯皮內洛. 鐵籠,還是烏托邦———網絡空間的道德與法律[M]. 北京:北京大學出版社,2007:58.
[44] 鄭智航. 網絡社會法律治理與技術治理的二元共治[J]. 中國法學,2018(2):108?130.
[45] 姜方炳. 制度嵌入與技術規(guī)訓:實名制作為網絡治理術及其限度[J]. 浙江社會科學,2014(8):73.
[46] 胡穎. 技術與法律的博弈——網絡空間治理之道探究[J]. 福建師范大學學報(哲學社會科學版),2013(3):59?62.
[47] ACHARYA T, RAY A K. Image processing: principles and applications[M]. Hoboken: John Wiley & Sons, 2005.
[48] 中國信息通信研究院,中國互聯網協會,中國通信企業(yè)協會.互聯網行業(yè)可持續(xù)信息披露發(fā)展報告(2023年)[EB/OL]. (2023-11-29)[2024-01-08]. http://www.caict.ac.cn/kxyj/qwfb/bps/202311/t20231129_466794.htm.
[49] 中國信息通信研究院產業(yè)與規(guī)劃研究所,北京國際大數據交易所. 數據清洗、去標識化、匿名化業(yè)務規(guī)程(試行)[EB/OL]. (2023-11-14)[2024-01-08]. http://www.caict.ac.cn/kxyj/qwfb/ztbg/202311/t20231117_466028.htm.
[50] 姜野. 算法的規(guī)訓與規(guī)訓的算法:人工智能時代算法的法律規(guī)制[J]. 河北法學, 2018(12):148.
[51] WESLEY N H. Some fundamental legal conceptions as applied in judicial reasoning[J]. Yale L. J, 1913, 23(1):16?59.
[52] 中國信息通信研究院. 云計算白皮書(2023年)[EB/OL]. (2023-07-25)[2024-01-08]. http://www.caict.ac.cn/kxyj/qwfb/bps/202307/t20230725_458185.htm.
[53] 歐盟《一般數據保護條例》GDPR(漢英對照)[M]. 瑞柏律師事務所,譯.北京:法律出版社,2018:54.
[54] BOLIN G, ANDERSSON S. Heuristics of the algorithm: big data, user interpretation and institutional translation[J]. Big Data & Society, 2015, 2(2): 1?12.
[55] 國家互聯網信息辦公室關于發(fā)布互聯網信息服務算法備案信息的公告[EB/OL]. (2022-08-12)[2024-01-08]. http://www.cac.gov.cn/2022?08/12/c_1661927474338504.htm.
[56] 張吉豫. 論算法備案制度[J]. 東方法學,2023(2):86.
[57] 中國信息通信研究院知識產權與創(chuàng)新發(fā)展中心,中國信息通信研究院科技倫理研究中心.人工智能倫理治理研究報告(2023年)[EB/OL]. (2023-12-02)[2024-01-04].http://www.caict.ac.cn/kxyj/qwfb/ztbg/202312/t2023 1226_468983.htm.
[58] TEHRANIAN J. The new censorship[J]. Iowa L. Rev., 2015, 101: 245.
[59] TUSHNET R. Content moderation in an age of extremes[J]. Case W. Res. JL Tech. & Internet, 2019, 10(1): 1?19.
[60] MANZI J. Computer keiretsu: Japanese idea, US stylee[N]. The New York Times, 1994-02-06(3).
[61] QUINN J B. The intelligent enterprise a new paradigm[J]. Academy of Management Perspectives, 1992, 6(4): 48?63.
[62] 張新平. 網絡平臺治理立法的反思與完善[J]. 中國法學,2023(3):135.
[63] 張凌寒. 算法權力的興起、異化及法律規(guī)制[J]. 法商研究,2019(4):74.
[64] 高鴻鈞. 德沃金法律理論評析[J]. 清華法學,2015(2):96?138.
[65] 程瑩. 元規(guī)制模式下的數據保護與算法規(guī)制——以歐盟《通用數據保護條例》為研究樣本[J]. 法律科學(西北政法大學學報),2019(4):51?52.
The Algorithm Infiltrates the Law Enforcement Algorithm
Accountability System
Wang Xuefan
(Institute of Intellectual Property, Southwest University of Political Science and Law,
Chongqing 401120, China)
Abstract: Algorithmic penetration of law enforcement will be a game changer for traditional platform autonomy governance, effectively centralizing enforcement and adjudication power in the hands of a few large platforms. Based on the privatization of platforms and the profit-driven nature of the platforms, this leads to a high likelihood of biased automated algorithmic decision-making. In the context of algorithmic penetration law enforcement, which mainly realizes public governance functions through architectural regulation and data aggregation, algorithmic penetration law enforcement threatens to lead to insufficient knowledge of infringement in the law enforcement process, unfettered access to information by the public, and non-transparent law enforcement procedures. The intention is to carry out algorithmic accountability throughout the entire process of algorithmic application, which needs to be examined in an all-round manner by combining six principles, namely, the principle of handling data sources and the principle of knowledge before algorithmic application, the principle of auditability and the principle of inspection and testing during algorithmic application, and the principle of interpretation and the principle of access and relief after algorithmic application, so as to realize algorithmic accountability by promoting the transparency of algorithmic infiltration law enforcement and the due process.
Keywords: algorithmic accountability; algorithmic transparency; data sources; informed principle; interpretive principle; platform responsibility