李凌霄 秦勇
【摘要】社交媒體的內(nèi)容消費(fèi)是一種意義消費(fèi),但是社交媒體內(nèi)容審查算法的治理對(duì)象卻是形式語言。形式語言與意義之間的強(qiáng)關(guān)聯(lián)是社交媒體內(nèi)容審查算法治理的基礎(chǔ)假設(shè),但實(shí)際上二者的關(guān)聯(lián)具有任意性,治理目標(biāo)形式與實(shí)質(zhì)的分離、對(duì)內(nèi)容審查算法的過度賦權(quán)造成了社交媒體的內(nèi)容治理困境。改善當(dāng)前社交媒體的內(nèi)容生態(tài)應(yīng)當(dāng)跳出社交媒體內(nèi)容審查算法造成的治理循環(huán),尋找新的治理可能。
【關(guān)鍵詞】意義消費(fèi);社交媒體;內(nèi)容審查算法;內(nèi)容失范
2022年12月15日,《互聯(lián)網(wǎng)跟帖評(píng)論服務(wù)管理規(guī)定》正式施行,其中要求互聯(lián)網(wǎng)跟帖評(píng)論信息內(nèi)容實(shí)行“先審后發(fā)”,該要求引起了網(wǎng)民的廣泛關(guān)注。要對(duì)當(dāng)前超越“摩爾定律”的海量互聯(lián)網(wǎng)評(píng)論內(nèi)容進(jìn)行實(shí)時(shí)審核,這一任務(wù)非內(nèi)容審查算法不可完成,這一規(guī)定的出臺(tái)事實(shí)上肯定了內(nèi)容審查算法的功能和合理性。由于人工審查和算法審查數(shù)量之間的巨大差距,內(nèi)容審查算法在一定意義上已經(jīng)是社交媒體內(nèi)容規(guī)制體系的絕對(duì)核心。
社交媒體內(nèi)容審查算法的價(jià)值在學(xué)術(shù)研究中也是受到肯定的。目前國內(nèi)學(xué)界針對(duì)內(nèi)容審查算法的研究相對(duì)較少,并沒有真正站在批判立場(chǎng)上對(duì)內(nèi)容審查算法進(jìn)行重新審視,僅有的質(zhì)疑是內(nèi)容審查算法對(duì)言論自由的不利影響[1],但并沒有對(duì)內(nèi)容審查算法的功能作出根本性的批判。時(shí)至今日,通過人工智能工具實(shí)現(xiàn)對(duì)社交媒體的內(nèi)容治理仍然是研究者所倡導(dǎo)的治理方式。[2]
國外的社交媒體平臺(tái)如YouTube、Mate等也公開承認(rèn)社交媒體內(nèi)容審查算法是其刪除失范內(nèi)容的主要工具。國外的研究者目前已經(jīng)認(rèn)識(shí)到內(nèi)容審查算法在一定程度上對(duì)于內(nèi)容的合法性缺乏評(píng)價(jià)能力,因此對(duì)社交媒體內(nèi)容審查算法的必要性提出了質(zhì)疑[3],但并沒有對(duì)算法為何不能正確評(píng)價(jià)內(nèi)容合法性的問題做出探討。目前對(duì)內(nèi)容審查算法的批判主要是對(duì)算法偏見[4]的批判和對(duì)內(nèi)容審查算法運(yùn)行中人工審核員非人性勞動(dòng)的批判。[5]但是這些批判都沒有真正否定內(nèi)容審查算法的合理性,而是通過發(fā)現(xiàn)內(nèi)容審查算法中的不合理之處,試圖實(shí)現(xiàn)對(duì)算法的改良,對(duì)于內(nèi)容審查算法中的邏輯問題并沒有進(jìn)行深入的思考,也并沒有撼動(dòng)內(nèi)容審查算法在社交媒體內(nèi)容治理實(shí)踐中的核心地位。
目前,我國的社交媒體平臺(tái)中,不同主題的內(nèi)容治理專項(xiàng)行動(dòng)仍在開展,從社交媒體平臺(tái)用戶的日常傳播實(shí)踐經(jīng)驗(yàn)中也可以發(fā)現(xiàn),失范內(nèi)容在社交媒體平臺(tái)上仍時(shí)有出現(xiàn),內(nèi)容審查算法為何沒有達(dá)到理想的治理效果問題值得進(jìn)一步思考。
一、意義與快感:社交媒體的內(nèi)容消費(fèi)起點(diǎn)
約翰·費(fèi)斯克在《理解大眾文化》一書中指出:“在文化經(jīng)濟(jì)中,流通的并非貨幣的周轉(zhuǎn),而是意義和快感的傳播。”[6]當(dāng)前社交媒體平臺(tái)眾多,內(nèi)容形式、核心用戶群體各不相同,但是社會(huì)成員的社會(huì)觀念、社會(huì)中整體的流行事物仍大致相通,這說明用戶在社交媒體平臺(tái)上消費(fèi)的不是機(jī)械的內(nèi)容,而是不同內(nèi)容背后大致相近的意義。
(一)社交媒體:意義與快感的交互平臺(tái)
1980年,用戶可以閱讀他人消息并參與討論的新聞組(Usenet)的出現(xiàn)可以被視為社交媒體的雛形。由于廣播和電視在過去50年已經(jīng)高度成熟,用戶獲取新聞信息已高度便捷,因此,當(dāng)前用戶對(duì)于新聞組或社交媒體的需求并不迫切,以至誕生于信息富裕時(shí)代的社交媒體作為信息傳播工具不再以傳遞信息為主要功能。但由于單向的大眾傳播媒體缺乏意義與快感的生產(chǎn)消費(fèi)空間,雙向互動(dòng)性迅速成為社交媒體重要的專業(yè)化服務(wù)方向,意義和快感也就成了社交媒體平臺(tái)上最重要的商品。
從這一定位出發(fā),社交媒體產(chǎn)品迭代的目標(biāo),是不斷為用戶提供更加優(yōu)質(zhì)與便捷的意義、快感交互體驗(yàn)??v觀我國社交媒體的發(fā)展歷程,不論是以微信、微博為代表的圖文內(nèi)容呈現(xiàn)形態(tài)優(yōu)化,還是短視頻、XR內(nèi)容的興起,都可以用新的內(nèi)容形態(tài)優(yōu)化意義、快感的交互體驗(yàn)進(jìn)行合理的解釋。
(二)社交媒體內(nèi)容推薦算法:意義邏輯的實(shí)踐
當(dāng)前社交媒體采用的推薦算法的基本邏輯是內(nèi)容推薦和協(xié)同過濾。內(nèi)容推薦是根據(jù)用戶閱讀的文本推薦相關(guān)主題的文本,協(xié)同過濾是為用戶推薦好友、同一時(shí)間空間或具有其他相同特征的用戶感興趣的內(nèi)容。不論社交媒體采用什么樣的算法推薦邏輯,可以確定的是內(nèi)容推薦算法并不是機(jī)械地推薦特定的、與用戶感興趣內(nèi)容完全一致的特定內(nèi)容,而是依據(jù)內(nèi)容的文本、符號(hào)、標(biāo)簽等形式語言,為用戶推薦可能感興趣的、具有相同特質(zhì)的其他內(nèi)容。內(nèi)容推薦算法想要實(shí)現(xiàn)以用戶興趣為中心的內(nèi)容推薦,就需要尋找形式語言與意義之間的關(guān)聯(lián)性。但內(nèi)容推薦算法并不會(huì)強(qiáng)制用戶閱讀,用戶仍然是傳播行為的最終決策者,將算法對(duì)意義的解釋權(quán)力控制在了相對(duì)合理的范圍內(nèi)。在保證用戶主體性的前提下,由于用戶對(duì)自身的意義需求有著較強(qiáng)的主觀判斷能力,適度存在的算法對(duì)意義的誤讀問題并不會(huì)使用戶使用、平臺(tái)運(yùn)營出現(xiàn)問題,反而可以被視為用戶突破“信息繭房”、尋找新的意義興趣的一種有益嘗試。
二、功能—期待悖論:社交媒體內(nèi)容審查算法的功能困境
內(nèi)容推薦算法是算法通過形式語言實(shí)現(xiàn)對(duì)意義的抽象的一種嘗試。但是內(nèi)容審查算法的運(yùn)行結(jié)果是“是/非”二元的,在內(nèi)容審查算法的主流化技術(shù)光環(huán)下,平臺(tái)、用戶與管理機(jī)構(gòu)都期待內(nèi)容審查算法成為一種公正、準(zhǔn)確的內(nèi)容治理工具。
(一)形式語言與意義的穩(wěn)定關(guān)系:內(nèi)容審查算法的功能假設(shè)
早期的內(nèi)容審查算法主要采用關(guān)鍵詞過濾的方式進(jìn)行內(nèi)容審查,但這一方式存在較大弊端。隨著NLP等技術(shù)的發(fā)展,內(nèi)容審查算法也開始依據(jù)內(nèi)容的整體意義進(jìn)行內(nèi)容審查。但算法不具有人的認(rèn)知能力,內(nèi)容審查算法對(duì)內(nèi)容意義違規(guī)與否的判定必須依據(jù)一定的形式語言。因此,內(nèi)容審查算法對(duì)內(nèi)容意義正確判定的假設(shè)是形式語言與意義之間有著相對(duì)確定的關(guān)系,一旦形式語言與意義之間的關(guān)系出現(xiàn)斷裂、重組,內(nèi)容審查算法就無法對(duì)意義進(jìn)行正確的判定。社交媒體的短暫發(fā)展史就曾出現(xiàn)過火星文、emoji表情等多種通用流行符號(hào),各種群體內(nèi)部通用的符號(hào)、圖案、隱語更是層出不窮。在負(fù)面的網(wǎng)絡(luò)輿情事件中,社交媒體用戶為了規(guī)避可能存在的內(nèi)容審查,也會(huì)迅速形成指代特定事件的新形式語言,賦予形式語言新的意義。
(二)數(shù)據(jù)質(zhì)、量問題:內(nèi)容審查算法意義判斷的基礎(chǔ)性問題
內(nèi)容審查算法雖然經(jīng)常被冠以智能審查之名,但并不能真正和人類一樣調(diào)動(dòng)已有知識(shí)形成對(duì)新事物意義的認(rèn)識(shí),而是需要通過被動(dòng)的算法迭代,建立起形式語言與意義之間的新聯(lián)系進(jìn)而實(shí)現(xiàn)內(nèi)容監(jiān)管。目前算法迭代路徑主要包括有監(jiān)督深度學(xué)習(xí)和無監(jiān)督深度學(xué)習(xí)兩種,兩種路徑的共同特征是均高度依賴人類專家提供的海量?jī)?yōu)質(zhì)樣板數(shù)據(jù),[7]而且目前可以用于內(nèi)容審查算法的樣板數(shù)據(jù)在數(shù)量和質(zhì)量上都存在一定的問題。
從量的角度看,失范內(nèi)容屬于社交媒體平臺(tái)上的少量?jī)?nèi)容,內(nèi)容審查算法不可能像內(nèi)容推薦算法一樣以平臺(tái)上的全部數(shù)據(jù)為樣板數(shù)據(jù),這意味著內(nèi)容審查算法的數(shù)據(jù)基礎(chǔ)存在“先天不足”。
從質(zhì)的角度看,有監(jiān)督深度學(xué)習(xí)模式下,樣板數(shù)據(jù)質(zhì)量雖高,但難以滿足算法深度學(xué)習(xí)的量的要求。無監(jiān)督深度學(xué)習(xí)模式下,算法可以通過少量的初始樣板數(shù)據(jù)在社交媒體平臺(tái)的全部?jī)?nèi)容中尋找相似文本,形成包含較多內(nèi)容的樣板數(shù)據(jù)庫。但由于無監(jiān)督深度學(xué)習(xí)的樣板數(shù)據(jù)采集是在算法黑箱中進(jìn)行的,人工專家無法對(duì)無監(jiān)督深度學(xué)習(xí)算法的學(xué)習(xí)對(duì)象、學(xué)習(xí)過程進(jìn)行完全控制,只能通過算法運(yùn)行的結(jié)果大致了解算法深度學(xué)習(xí)的水平,算法學(xué)習(xí)的對(duì)象并非真正意義上的樣板數(shù)據(jù)。這就導(dǎo)致了內(nèi)容審查算法的學(xué)習(xí)、審查結(jié)果并不完全可預(yù)期。
相較于內(nèi)容推薦算法以平臺(tái)所有內(nèi)容為樣板數(shù)據(jù)、平臺(tái)所有用戶在使用過程中對(duì)算法的意義判斷結(jié)果做出實(shí)時(shí)反饋,并建立起了形式語言與意義之間的聯(lián)系,內(nèi)容審查算法只會(huì)由極少數(shù)平臺(tái)工作人員控制、訓(xùn)練。反饋不足和算法數(shù)據(jù)基礎(chǔ)薄弱使得內(nèi)容審查算法對(duì)形式語言與意義之間關(guān)系的認(rèn)識(shí)存在誤差是必然的。
(三)功能—期待悖論:內(nèi)容審查算法的功能問題循環(huán)
由于算法訓(xùn)練難以達(dá)到理性水平,社交媒體內(nèi)容審查算法實(shí)際上是解讀形式符號(hào)與失范意義之間關(guān)系的一種嘗試,其判斷結(jié)果可能正確也可能存在偏見,判斷結(jié)果應(yīng)當(dāng)被審慎對(duì)待。但是,受社交媒體內(nèi)容審查的行政要求、社交媒體平臺(tái)發(fā)展的成本限制以及對(duì)非商業(yè)功能相對(duì)忽視等多方面因素的影響,內(nèi)容審查算法最終被賦予了能正確理解形式語言所代表意義的功能期待。而這一功能期待也被應(yīng)用在社交媒體的傳播實(shí)踐活動(dòng)中,使內(nèi)容審查算法擁有了超越其功能效果的審查權(quán)力。未通過算法審查的內(nèi)容將被直接刪除或與其他內(nèi)容去連接化,剝奪了其傳播權(quán)利。
對(duì)內(nèi)容審查算法審查結(jié)果的準(zhǔn)確性期待也在進(jìn)一步影響著內(nèi)容審查算法的迭代。目前的內(nèi)容審查算法多數(shù)采用無監(jiān)督深度學(xué)習(xí)模式,由于內(nèi)容審查算法的審查結(jié)果被默認(rèn)為是準(zhǔn)確的,算法判定的違規(guī)內(nèi)容將作為樣板數(shù)據(jù)的一個(gè)部分進(jìn)入違規(guī)內(nèi)容庫,成為內(nèi)容審查算法的訓(xùn)練素材之一。在技術(shù)的放大效應(yīng)之下,內(nèi)容審查算法對(duì)意義的偏見和誤判所造成的影響進(jìn)一步擴(kuò)大,導(dǎo)致算法黑箱中存在更多的不可知的內(nèi)容審查問題。
三、社交媒體內(nèi)容生態(tài)治理的意義治理路徑
社交媒體以意義和快感為主要傳播對(duì)象,內(nèi)容治理的目標(biāo)應(yīng)當(dāng)是防止失范意義的出現(xiàn)。當(dāng)前的內(nèi)容審查算法不能直接對(duì)抽象的意義進(jìn)行直接治理,只能通過形式語言的表征對(duì)意義和快感進(jìn)行間接治理,其治理效果自然有限。鑒于目前的內(nèi)容治理并未達(dá)到理想效果,未來的社交媒體內(nèi)容審查或許可以跳出當(dāng)前的算法治理路徑,直接對(duì)社交媒體內(nèi)容進(jìn)行意義治理,以期維護(hù)社交媒體良好的內(nèi)容生態(tài)。
(一)對(duì)內(nèi)容審查算法進(jìn)行合理賦權(quán)
算法并不是天然的權(quán)力擁有者,算法擁有的審查權(quán)力來源于用戶為滿足平臺(tái)使用條款要求,放棄并讓渡了自身的內(nèi)容審查權(quán)。內(nèi)容審查算法因匯集了全平臺(tái)用戶的內(nèi)容審查權(quán)而擁有了超高權(quán)力,但內(nèi)容審查算法是當(dāng)前技術(shù)條件下社交媒體內(nèi)容進(jìn)行技術(shù)治理的一種可能性嘗試,算法對(duì)意義的判斷結(jié)果并不絕對(duì)正確,賦予算法直接決策的權(quán)力明顯超出了算法功能可供的范圍。公平公正是實(shí)現(xiàn)有效治理的基礎(chǔ),當(dāng)算法不能滿足這一要求時(shí),對(duì)其權(quán)力進(jìn)行適度的限制使其在合理的范圍內(nèi)容發(fā)揮作用是必要的。合理的內(nèi)容審查算法應(yīng)用應(yīng)當(dāng)類似于內(nèi)容推薦算法,將算法的判定作為一種可以參考的可能性指標(biāo),將更多的決策權(quán)力交還用戶本身,使用戶而非算法成為意義的最終判定者。
(二)以用戶為基礎(chǔ)實(shí)現(xiàn)意義治理
社交媒體的長(zhǎng)期實(shí)踐證明,對(duì)社交媒體進(jìn)行某種程度的管理是必須的。但通過對(duì)內(nèi)容審查算法功能基礎(chǔ)、治理邏輯的分析可以發(fā)現(xiàn),當(dāng)前算法主導(dǎo)的內(nèi)容治理模式存在嚴(yán)重問題,亟待尋找新的治理可能。社交媒體不僅僅是內(nèi)容消費(fèi)平臺(tái),更是意義和快感的消費(fèi)平臺(tái),而一切意義、快感都是由用戶進(jìn)行生產(chǎn)和賦予的,因此通過用戶實(shí)現(xiàn)對(duì)社交媒體意義生產(chǎn)與消費(fèi)的有效治理,比基于形式語言進(jìn)行內(nèi)容治理進(jìn)而實(shí)現(xiàn)意義規(guī)制更加直接、有效。
目前的內(nèi)容審查算法主要對(duì)內(nèi)容進(jìn)行治理,對(duì)于用戶的治理則相對(duì)寬松,少量的失范意義生產(chǎn)行為并不會(huì)影響用戶的社交媒體使用,用戶違規(guī)成本較低,也缺乏主動(dòng)進(jìn)行意義管理的意識(shí)。但是當(dāng)社交媒體通過友善內(nèi)容聲明等方式要求用戶實(shí)現(xiàn)文責(zé)自負(fù),并提升用戶的意義失范成本時(shí),用戶就會(huì)成為意義管理的第一責(zé)任人,將內(nèi)容治理從平臺(tái)要求內(nèi)化為自身責(zé)任。
四、結(jié)論與討論
將意義和快感視為社交媒體平臺(tái)的主要消費(fèi)品后,內(nèi)容審查算法廣泛應(yīng)用的合法性基礎(chǔ)就不再存在。賦予不具有意義審查功能的算法意義審查的權(quán)限,是算法濫用的一種表現(xiàn)。缺乏公平性的算法會(huì)導(dǎo)致用戶在意義生產(chǎn)過程中不得不做出更多突破內(nèi)容審查算法的嘗試,最終導(dǎo)致更多的意義失范現(xiàn)象。因此突破當(dāng)前社交媒體的內(nèi)容治理困境需要盡快修正社交媒體的內(nèi)容治理標(biāo)準(zhǔn),保障用戶的主體性地位,將用戶作為內(nèi)容治理的第一責(zé)任人,使用戶、算法、平臺(tái)在自身的能力范圍內(nèi)各司其職,營造風(fēng)清氣正的社交媒體內(nèi)容生態(tài)圈。
[本文為國家社會(huì)科學(xué)基金項(xiàng)目“非視聽感官美學(xué)研究”(17BZW183)]
參考文獻(xiàn):
[1]齊琦.人工智能在線內(nèi)容審查對(duì)言論自由的影響[J].科學(xué)咨詢(科技·管理),2021(10):101-102.
[2]孫浩,尹曉佳.主觀想象與客觀事實(shí):社交媒體時(shí)代用戶內(nèi)容生產(chǎn)的內(nèi)在邏輯及其治理研究[J].中國編輯,2022(3):49-54.
[3]Gillespie T.Content moderation,AI,and the question of scale[J].Big Data & Society,2020,7(2):205.
[4]Haimson O L,Delmonaco D,Nie P,et al.Disproportionate removals and differing content moderation experiences for conservative,transgender,and black social media users:Marginalization and moderation gray areas[J].Proceedings of the ACM on Human-Computer Interaction,2021,5(CSCW2):1-35.
[5]Roberts S T.Commercial content moderation:Digital laborers'dirty work[J].2016.
[6]約翰·費(fèi)斯克.理解大眾文化[M].王曉玨,宋偉杰,譯.北京:中央編譯出版社,2001:33.
[7]徐英瑾.人工智能哲學(xué)十五講[M].北京:北京大學(xué)出版社,2021:52.
(李凌霄為首都師范大學(xué)文學(xué)院2021級(jí)博士生;秦勇為首都師范大學(xué)文學(xué)院教授,博士生導(dǎo)師)
編校:王志昭