【摘要】由于算法本身的復雜性與不透明性,用戶在長期的日常實踐中,逐漸將算法經驗轉化為一種具有普遍意義的社會性民間知識形態(tài)。研究發(fā)現(xiàn),算法的民間知識演進可分為個體和集體兩個不同的階段。其中,“算法意識”與“算法想象”是個體階段的兩個重要環(huán)節(jié);“算法八卦”是從個體過渡到集體算法歸納的關鍵性步驟。進入集體階段后,社會性算法知識可進一步分化為操作性知識與規(guī)范性知識兩大維度。其中,“算法審計”作為一種規(guī)范性知識,在其形成過程中對算法偏差與算法歧視進行的反身性思考,揭示出算法技術、網絡平臺與用戶之間呈現(xiàn)出復雜的互動關系。研究認為,平臺的新制度主義導致人與算法技術的關系邏輯和過程邏輯被重構,而其中的公共價值導入值得重視與思考。
【關鍵詞】社會性;算法知識;算法歸納;算法審計;平臺新制度主義
近年來,學界和業(yè)界特別關注用戶如何在深入理解和應用算法的過程中,實現(xiàn)對其更為高效的利用與批判性反思這一議題。對它的討論催生出兩類重要的知識范疇——算法專業(yè)知識與算法民間知識。算法專業(yè)知識指的是算法平臺工程師所精通的、高度專業(yè)化的技術知識,它涵蓋了用戶行為的深度分析、復雜機器學習模型的構建,以及個性化算法推薦等多個維度。這些技術被用以優(yōu)化平臺性能,通過定制推送用戶最感興趣且高度相關的內容,從而增強用戶黏性與促進平臺的商業(yè)目標達成。
而在社交平臺另一端的活躍使用者們往往會依據個人經驗及對算法運作的有限理解,構建起另一套獨特的“民間知識”或稱“民間理論”。它是一種去中心化和去專業(yè)化的社會集體性經驗分享。學者麥克·德維多(Michael DeVito)明確定義了算法的民間知識,認為它是一種直觀的、非正式的知識,包括關于算法如何工作的樸素的因果解釋,以及對算法運行效果的看法和態(tài)度[1],是一種非正式但廣泛傳播的社會性認知。與算法的專業(yè)知識相比,算法的民間知識是一套針對社交平臺前臺的操作知識體系,是用戶間不斷交流、驗證與重構的操作指南。由于算法推薦機制的不透明性和黑箱化,從經驗角度對算法進行社會性解釋,已成為當下社會應對算法不可知性的共同路徑。這一過程不僅體現(xiàn)了用戶自主性的發(fā)揮,也揭示了技術與社會相互塑造的深刻關系。
算法民間知識領域內諸多概念如算法意識、算法想象、算法八卦、算法審計、民間理論、算法知識及社會性知識等,在現(xiàn)有文獻中常出現(xiàn)混用與重疊現(xiàn)象,且缺乏明確的關系架構與邏輯脈絡,這阻礙了我們對算法社會性的深入理解。因此,本文希望對這些基礎性概念進行系統(tǒng)性的梳理與闡釋,以擺脫概念的冗余與模糊,構建清晰的概念框架與演進路徑。這有助于進一步推動算法的社會性研究,并反思算法技術、網絡平臺與用戶之間的復雜互動關系。
一、算法民間知識形成的兩個階段
盡管算法的民間知識并不總是正確,但卻對指導用戶在算法中介下進行的新媒體實踐至關重要。這種指導作用的根源,恰恰在于算法民間知識本身的形成與發(fā)展過程。它不僅源自個體對算法運作的初步認知與體驗積累,更在于這些個體經驗如何通過互動與交流,最終匯聚成社會集體層面的共識與理解。在此基礎上,算法民間知識的形成演變歷經從個體認知的微觀層面向集體知識的宏觀層面轉化的過程。在個體認知的微觀層面,用戶基于其在社交媒體環(huán)境中的具身體驗,逐步構建出關于算法功能性的初始認知框架與知識雛形。在集體知識構建層面,個體間的算法認知與實踐經驗,在復雜的社會互動網絡中經歷著知識交換、碰撞與整合的過程。這不僅是對算法技術社會化進程的洞察,更是對公眾如何在技術變遷中協(xié)商意義、構建社會共識并實現(xiàn)知識再生產的社會探討。
(一)個體階段:算法意識到算法想象
在集體層面的算法知識體系系統(tǒng)化之前,個體用戶普遍會經歷“算法意識”的覺醒與“算法想象”的拓展這兩個重要環(huán)節(jié)。在“算法意識”的覺醒環(huán)節(jié),用戶逐步認識到算法在特定媒體環(huán)境中的存在,及其對信息消費與體驗的根本性影響。這一過程是技術感知從無意識向有意識轉變的標志,意味著用戶開始從被動接受算法影響轉向主動理解其工作機制。例如,個體在使用社交媒體時,會注意到頁面上的內容推薦不時能與他們的興趣點相契合,從而意識到算法在背后發(fā)揮著篩選與推送信息的作用。
“算法意識”作為一個多維度的學術概念,涵蓋了算法認知、算法態(tài)度、算法交互等多個方面。從算法認知的視角看,它要求用戶能夠準確識別算法的存在及其功能;算法態(tài)度則反映了用戶對算法介入的情感傾向與接受程度;而算法交互則強調了用戶與算法之間動態(tài)、互動的關系?,F(xiàn)有關于“算法意識”的研究可分為四類,包括內容過濾意識(對個性化推薦機制的認識)、自動決策意識(對算法決策過程的理解)、人機交互意識(探索與算法有效溝通的方式)以及道德考慮意識(思考算法應用中的倫理問題)。
“算法想象”的拓展進一步推動了用戶對算法的理解。用戶不再滿足于算法作為“黑箱”的存在,而是開始想象其內部運作機制,探索算法如何塑造他們的信息獲取與社交互動方式。這種想象不僅僅是技術層面的好奇,更包含了用戶對于算法潛力、限制及社會影響的深刻思考。用戶可能會設想通過改變自身行為模式來影響算法的推薦結果,或者質疑算法在特定情境下的決策公正性。如某些熱衷健康飲食的用戶,在長期使用某電商平臺的個性化推薦功能后,開始想象算法如何根據他們的瀏覽記錄、購買歷史以及健康偏好,為其量身打造一系列營養(yǎng)均衡的食品推薦。如果能更深入地了解算法的偏好體系,是否可以通過特定操作,如增加對某種健康食材的搜索與點擊,來“引導”算法在后續(xù)的推薦中更多地呈現(xiàn)這類內容。這種嘗試不僅體現(xiàn)了用戶對算法潛力與運作機制的探索欲,也預示著他們在與算法互動的過程中,逐步尋求一種更為積極、主動的角色定位。
“算法想象”概念的提出者泰納·布赫(Taina Bucher)將其賦予了作為媒介實踐的核心地位,認為“算法想象”是以一種前所未有的方式挑戰(zhàn)了算法黑箱的不透明性,為用戶揭示了一條通往算法內在邏輯的間接而富有創(chuàng)意的路徑。[2]與深入算法代碼與模型的專業(yè)知識研究路徑不同,“算法想象”聚焦于用戶如何憑借自身經驗和對算法的理解,發(fā)展出個性化的應對策略。用戶通過與算法的互動,逐步積累了關于如何有效使用,以及在必要時干預算法運作的私人知識。例如,他們可能會利用截圖代替直接收藏來避免算法過度追蹤,或調整觀看視頻的時間以影響推薦內容的多樣性。這些實踐不僅是用戶基于自身情況的靈活應對,也體現(xiàn)了他們對算法規(guī)則的深入理解和創(chuàng)造性應用。有學者指出,“算法想象”被認為是在個體階段產生的關鍵性突破概念,突出了“算法想象”的社會組織,呈現(xiàn)出自下而上的話語策略,同時也使得對抗算法權力成為可能[3]。
“算法想象”作為“算法意識”的深化與拓展,反映了用戶從簡單認知算法到主動策略構建的轉變。用戶通過實踐,逐步理解算法的運作機制,并嘗試以個性化的方式應對其影響,形成了一套獨特的應對策略與技巧。這些策略與技巧,雖然源于個體用戶的經驗積累,卻蘊含著普遍的智慧與洞見。它們不僅幫助用戶更好地適應算法環(huán)境,還體現(xiàn)了用戶在技術變遷中的主動性與創(chuàng)造力。隨著用戶之間的交流與分享,這些個性化的策略逐漸匯聚成一種對算法技術的集體感知與理解。相比專業(yè)的算法代碼與模型知識,算法的民間知識源自用戶實踐,更廣泛地代表用戶需求與體驗,促使人們更加關注用戶在算法技術中的角色與地位,有助于縮小數字鴻溝,增強用戶對算法技術的理解與使用。
(二)集體階段:算法八卦到算法歸納
隨著個體用戶算法意識的普遍增強,他們開始積極地進行算法想象與實踐。最終,在集體層面,這些基于用戶經驗的策略與技巧將形成一種關于算法技術的社會性民間知識。[4]這一過程催生了集體層面的一種獨特現(xiàn)象——“算法八卦”。正如學者蘇菲·畢肖普(Sophie Bishop)所揭示的,這是一種在網絡社區(qū)中內容生產者之間廣為流傳的行為,他們分享關于如何優(yōu)化算法策略的心得與技巧。[5]比如,在視頻創(chuàng)作社群中,內容創(chuàng)作者們會交流哪些標簽和描述能更有效地吸引目標觀眾,哪些時段發(fā)布內容能避開競爭高峰等。這些“算法八卦”不僅為內容生產者提供了繞過算法專業(yè)知識的謎團,也為相對邊緣的生產者搭建起了解算法規(guī)則的橋梁,使他們能夠更快地適應并利用算法邏輯提升內容的可見度。通過這種方式,原本零散分布于個體之間的算法經驗與技巧,開始在社區(qū)內匯集成一股強大的信息流,促進了內容生產者與受眾之間基于共同興趣的算法經驗交流。
“算法八卦”這一術語盡管初聽起來帶有非正式的日常閑聊意味,但畢肖普卻認為它承載了深厚的社會關懷,緊密連接了社會各界的民間智慧。她強調,這一概念不僅涵蓋了數字領域的核心參與者,更廣泛納入了一些社會邊緣群體的聲音。當“算法八卦”進一步滲透到更廣泛的集體社區(qū)討論中時,它推動了算法討論的深化與升華,從個體層面的零散探索邁向了社會性的算法集體歸納階段。在這個過程中,基于社區(qū)成員的共同實踐與反思,一套社會建構的算法民間性知識逐漸成形。這些知識雖非出自專業(yè)算法工程師之手,卻凝聚了無數用戶的民間智慧與經驗,對算法技術的應用與理解產生了深遠影響,更為對抗算法潛在的不平等與操控性提供了可能。
二、算法民間知識的兩種類型
“算法八卦”的演進標志著從個體化實驗性探索到集體性知識累積與體系化構建的深刻轉型。學者凱利·科特(Kelley Cotter)的區(qū)分為我們理解“算法的社會性知識”提供了更明晰的視角,她將這一復雜領域劃分為操作性與規(guī)范性兩大類型。前者指向對算法的實然解釋,后者指向對算法的質量、重要性和影響的應然解釋。[6]操作性知識以其具體、可復制的特性,成為數字勞動者提升工作效率、優(yōu)化內容傳播的關鍵。它涵蓋了從內容創(chuàng)意、標簽優(yōu)化到發(fā)布時機選擇等多個維度,為用戶提供了一套詳盡的行動指南。這些知識的傳播與應用,不僅促進了個人或品牌在平臺上的快速崛起,也推動了整個數字內容生態(tài)的活躍與繁榮。
與此同時,規(guī)范性知識作為社會性算法民間知識的另一重要支柱,強調了公平、倫理與可持續(xù)性。由于算法對受眾短期、即時及淺層需求的過度迎合,促使泛濫的感官刺激內容生成,這些內容往往忽視道德標準,呈現(xiàn)出快餐文化特質。這一現(xiàn)象加劇了深層次、富有社會價值的創(chuàng)作被邊緣化的趨勢,導致該類內容在平臺上變得越來越“不可見”[7]。因此,規(guī)范性知識關注如何在追求效率與流量的同時,保證具有非歧視性、非偏向性的內容得到推薦,以促進用戶間的公平競爭與和諧共處。這兩類知識的交織與融合,不僅體現(xiàn)了數字時代勞動者對算法技術的洞察與駕馭能力,也展現(xiàn)了社會群體在面對技術變革時的智慧凝聚與協(xié)作創(chuàng)新。
(一)算法的操作性知識:算法規(guī)則
算法的操作性知識根植于用戶日常使用的豐富經驗之中,是對民間算法偏好性規(guī)則的洞察與適應的產物。該知識體系不僅揭示了平臺勞動者如何通過細致觀察與實踐,逐步發(fā)現(xiàn)并總結算法運作的內在邏輯,還闡述了他們如何運用這些算法知識,策略性地提升內容在平臺上的可見度與影響力。用戶揭示算法規(guī)律的過程往往依賴于兩種核心方法:“數據監(jiān)測”與“A/B測試”。
一方面,“數據監(jiān)測”作為一種量化分析手段,聚焦于互動率、內容質量以及關系鏈構建三大維度。其一,互動率分析涵蓋了點贊、評論、轉發(fā)、收藏及完播率等多元化傳播效果指標,這些指標直接反映了受眾對內容的接受程度與參與熱情。深入理解并精準把握各平臺的互動數據優(yōu)先級,成為相關從業(yè)者提升內容曝光率的核心算法操作性知識,也是其專業(yè)能力的重要體現(xiàn)。其二,內容生產中的數據監(jiān)測,其核心聚焦于內容的更新質量與速度,這二者在不同社交平臺的算法推薦機制下呈現(xiàn)出差異化的影響效應,而流量的分配機制直接影響了內容生產者的生存策略與激勵機制。其三,在基于關系鏈的數據監(jiān)測中,微信視頻號展現(xiàn)了獨特的推薦邏輯,其不僅重視內容質量與傳播效果,更將社交關系鏈置于核心地位。作為以熟人社交為基礎的平臺,視頻號通過私域流量向公域流量的轉化,構建了一套與抖音、小紅書等興趣導向平臺截然不同的內容分發(fā)機制。
另一方面,為進一步驗證上述算法知識的穩(wěn)定性與適用性,數字勞動者會采用“A/B測試”。該測試通過對比不同策略或內容版本在相同條件下的實際表現(xiàn),為優(yōu)化算法適應性提供了客觀、量化的數據支持。在測試過程中,數字勞動者可以靈活調整內容形式、發(fā)布時間、推薦標簽等因素,觀察并分析其對用戶互動率、內容傳播效果及社交關系鏈的影響。這一過程不僅加深了數字勞動者對算法運作機制的理解,還促進了算法操作性知識的持續(xù)迭代與升級,確保了內容生產策略的有效性與時效性。
(二)算法的規(guī)范性知識:算法審計
相比之下,規(guī)范性算法知識則站在了一個更高的道德與社會責任層面,它源于對算法偏差、算法歧視等問題的深入審查與批判性反思?!八惴▽徲嫛备拍畹奶岢稣呖死锼沟侔病ど>S(Christian Sandvig)發(fā)現(xiàn),美國的黑人用戶使用谷歌搜索時,有關逮捕記錄的廣告推送出現(xiàn)概率比白人用戶高出25%。這種算法偏差現(xiàn)象不僅暴露了技術背后的不平等與偏見,更凸顯了算法在塑造社會認知、影響個體行為方面的潛在風險。因此,規(guī)范性算法知識不僅是對現(xiàn)有算法實踐的應然評判,更是對未來算法技術發(fā)展的規(guī)范性指引。
為應對算法中存在的偏見和不公,算法審計提出了一套專門針對算法系統(tǒng)及其推送內容的審計方法。該方法的核心在于采用模擬實驗組與對照組的策略,對可能影響算法決策的變量進行假設與審計。即便算法技術本身具有高度的動態(tài)性與多變性,算法審計仍可通過實驗設計,模擬出個體用戶與算法之間的真實互動過程,從而捕捉到接近實際使用情境的算法行為表現(xiàn)。這一方法論使得算法審計在揭示隱蔽的倫理問題上展現(xiàn)出獨特的優(yōu)勢。它超越了算法黑箱的局限,讓審計者能夠深入剖析算法在決策過程中的潛在偏見與不公,為算法的公平性與透明度提供基礎保障。
算法倫理問題目前主要體現(xiàn)在歧視偏見、隱私侵犯、信息失真以及結果誤判這四個核心方面[8]。首先,歧視偏見最引人關注,它指的是算法在輸出結果時展現(xiàn)出對特定群體的不公平待遇,如排斥、限制或邊緣化等消極傾向。算法歧視偏見的一個典型例證是搜索引擎中的圖像搜索結果偏差。其次,隱私侵犯作為算法應用中的一大隱憂,揭示了技術在便捷性追求與個體隱私權保護之間的緊張關系。這一現(xiàn)狀迫使用戶在便利性與隱私保護之間做出抉擇,多數情況下,用戶因工作或社交需求而不得不妥協(xié),讓渡部分個人隱私權利。在此過程中,個人用戶相較于算法技術及背后的企業(yè)平臺,明顯處于弱勢地位。再次,信息失真即指算法驅動的片面真實傳播,通過優(yōu)先展示或推送特定信息片段,構建了“信息繭房”現(xiàn)象。這一現(xiàn)象深植于商業(yè)利益的土壤中,算法傾向于最大化輸出符合平臺利益的信息,從而偏頗地影響公眾的認知與議程,實現(xiàn)對個體的無形規(guī)訓與操縱。最后,與結果誤判作為算法應用的另一隱憂,源于設計缺陷或數據偏差,導致預測結果偏離實際情況。例如,風控系統(tǒng)可能因算法局限而誤將合規(guī)用戶判定為違規(guī),引發(fā)資金凍結;或在內容審核時,無辜內容被錯誤地貼上“違規(guī)”標簽,如“殺豬盤”誤判,導致用戶賬號無端受限。這些誤判不僅損害了用戶的正當權益,也質疑了算法的公正性與可靠性。
三、結語
本研究以“算法意識”為基礎,系統(tǒng)構建了算法民間知識演化路徑中核心概念的邏輯遞進框架。該框架明晰了從個體認知到集體共識的兩個重要階段。在個體層面,用戶與社交平臺的互動催生了“算法意識”的覺醒,進而引發(fā)“算法想象”,這一過程深刻影響了用戶對算法運作機制的理解與構想。隨著“算法八卦”作為群體間交流現(xiàn)象的興起,個體的算法想象跨越邊界融入集體語境,推動了社會性算法知識的初步形成,這一過程被定義為算法歸納。進入集體階段后,社會性算法知識可進一步分化為操作性知識與規(guī)范性知識兩大維度。
操作性算法知識根植于用戶的日常實踐,聚焦于提煉高效互動的慣習性策略,特別是針對互動頻率、內容策略及關系網絡構建的優(yōu)化技巧與規(guī)則。與之相對,規(guī)范性知識則站在行業(yè)自律與社會責任的高度,專注于審視算法運行中的倫理偏差與潛在歧視問題,這一過程又可稱為算法審計。算法審計聚焦于四大核心領域:識別并糾正算法中的歧視偏見、保護用戶隱私免受侵犯、確保信息傳遞的真實性與準確性,以及預防結果誤判以維護公正性。這些均是算法倫理與道德建設中不可忽視的環(huán)節(jié)。
算法歸納與算法審計,作為集體智慧與互助合作的結晶,其核心在于算法知識動態(tài)構建的過程而非靜態(tài)的成果展示。鑒于算法內在的不透明性與黑箱化特點,這種集體性建構的專門知識持續(xù)在演進與迭代中前行,其核心驅動力始終聚焦于平臺勞動效率的最優(yōu)化。在此過程中,算法歸納及其內在的邏輯推演,不僅深化了用戶與社交平臺之間主體與客體間性的交融,更促使雙方進入一個相互詢問、相互規(guī)訓的緊密互動循環(huán)。
然而,當算法被廣泛應用并深度嵌入到社會結構的各個層面時,它逐漸超越了單純的技術工具范疇,展現(xiàn)出了一種近乎獨立的、強大的影響力。這種影響力不僅體現(xiàn)在對數據處理與分析的把控上,更深刻地體現(xiàn)在對人們與組織行為模式的重塑與規(guī)訓上。算法不再僅僅是被動地服務于人類的需求與意愿,而是開始主動地參與到社會運行的各個環(huán)節(jié)中,以其特有的邏輯與規(guī)則引導著社會的發(fā)展方向。在這一背景下,“當今平臺主導的新制度主義趨勢”[9]作為一種全新的治理邏輯與秩序框架應運而生。本文認為平臺新制度主義是指在數字時代背景下,由算法與平臺規(guī)則深度融合所形成的一種新型治理體系。它打破了傳統(tǒng)制度主義中“人制定規(guī)則、人遵守規(guī)則”的固有模式,將算法邏輯提升到了與平臺規(guī)則同等重要的地位,共同構成了數字時代治理生態(tài)的核心要素。
平臺新制度主義的核心特征在于其高度的動態(tài)性與靈活性。由于算法能夠實時處理與分析海量數據,因此它能夠對市場變化、用戶需求等外部因素做出迅速響應,并據此調整平臺規(guī)則與治理策略。這種基于數據的決策方式不僅提高了治理效率與精準度,也使得平臺規(guī)則更加貼近實際、更具針對性。同時,平臺新制度主義還強調了算法機制與平臺規(guī)則之間的相互作用與協(xié)同。一方面,算法為平臺規(guī)則提供了科學依據與技術支持,使得規(guī)則制定更加科學合理;另一方面,平臺規(guī)則為算法的運行提供了制度保障與約束框架,確保了算法在追求效率與精準度的同時不會偏離社會倫理與法律法規(guī)的軌道。
在平臺新制度主義的語境下,人與算法技術的交互邏輯與進程路徑經歷了根本性的重構,這促使我們重新審視公共價值與經濟效益之間的平衡點。技術的迅猛進步,盡管帶來了前所未有的便利與機遇,但也暴露出當前算法治理體系在規(guī)范性與前瞻性方面的不足。因此,如何將倫理與價值考量有效地整合到技術發(fā)展的全過程中,成為一個亟待深入探討的議題。技術發(fā)展對人和社會帶來的正負面影響已經不再是新鮮話題,但如何趨利避害,讓技術積極面更多地展現(xiàn),人在其中更多處于主動而非被動的位置,值得未來更多的討論。
[本文為2023年度國家社科基金西部項目“國際輿論戰(zhàn)中涉華誤導信息的擴散機理及干預對策研究”(項目編號:23XXW004)的階段性成果]
參考文獻:
[1]趙龍軒,林聰.“黑箱”中的青年:大學生群體的算法意識、算法態(tài)度與算法操縱[J].中國青年研究,2022(7):20-30.
[2]Bucher T.The Algorithmic Imaginary: Exploring the Ordinary Affects of Facebook Algorithms[J].Information,Communicationamp;Society.2017,20(1):30-44.
[3]賴楚謠.“算法的社會性知識”:短視頻內容創(chuàng)作者的算法解釋與知識的集體建構[J].國際新聞界, 2022(12):109-131.
[4]段世昌.從歸納算法到審計算法:直播電商創(chuàng)業(yè)者的非正式算法知識研究[J].國際新聞界, 2024(4):52-71.
[5]Bishop,S.Managing Visibility on YouTube through Algorithmic Gossip[J].New Media amp; Society.2019,21(11-12):2589-2606.
[6]Cotter,K.Practical Knowledge of Algorithms: The Case of BreadTube[J].New Media amp; Society.2022,26(4):2131-2150.
[7]姚建華,劉君怡,胡騫.數字出版平臺內容生產的流量邏輯:批判與反思[J].中國編輯,2023(7):51-55.
[8]徐明華,魏子瑤.算法倫理的治理新范式:算法審計的興起、發(fā)展與未來[J].當代傳播,2023(1):80-86.
[9]黃陽坤,師文,陳昌鳳,智能算法如何重構新聞價值?——基于智能推薦平臺算法審計的研究[J].新聞大學,2024(6):18-33+118-119.
作者簡介:廖夢夏,復旦大學新聞學院博士后(上海 200433),四川外國語大學新聞傳播學院副教授(重慶 400031)。
編校:趙 亮