□ 向子旭
大數(shù)據(jù)時代,信息量快速增加,但海量內(nèi)容不可能被受眾全部接收,因此把一部分信息選擇的權(quán)力讓渡給算法,使用機器和算法來識別和匹配內(nèi)容,滿足用戶需求的信息分發(fā)方式逐漸成為一種新的傳播形態(tài)。學(xué)者方師師指出,算法的介入在一定程度上解決了海量的社會化信息與個人終端信息需求之間的“信息傳播效率”問題。
2017年,人民網(wǎng)針對今日頭條的算法推薦發(fā)表三篇評論:“不能讓算法決定內(nèi)容”“別被算法困在‘信息繭房’”“警惕算法走向穿心的反面”。這一系列評論引發(fā)了學(xué)界和業(yè)界對于算法推薦的討論。
學(xué)者方師師認(rèn)為,算法推薦是指網(wǎng)站平臺通過算法模型將用戶信息數(shù)據(jù)與內(nèi)容信息數(shù)據(jù)進行匹配,實現(xiàn)內(nèi)容高效聚合、精準(zhǔn)分發(fā)的一種手段?,F(xiàn)已廣泛運用在新聞客戶端、即時通訊工具、論壇社區(qū)、音視頻、直播等各類網(wǎng)站平臺。算法推薦作為一種越來越主流的信息分發(fā)方式,在提高內(nèi)容分發(fā)效率、產(chǎn)生群體智慧、延伸專業(yè)主義理念等方面發(fā)揮了重要作用。
推薦內(nèi)容個性化,提高內(nèi)容分發(fā)效率。信息爆炸時代,我們不得不面對信息過載的問題,用戶常用的人工搜索遭受到阻力,在海量的信息面前感到無所適從。算法推薦技術(shù)顛覆用戶被動接受信息的傳統(tǒng),讓內(nèi)容生產(chǎn)者從用戶需求出發(fā),“三微一端”“淘寶網(wǎng)”“知乎”“抖音”等平臺通過算法推薦技術(shù),識別用戶的終端設(shè)備,計算用戶的過濾選擇行為,結(jié)合大數(shù)據(jù)呈現(xiàn)的用戶畫像和社交關(guān)系圖譜,為用戶匹配可能與興趣點相關(guān)聯(lián)的內(nèi)容。比如搜索引擎的頁面答案排序,這是算法交給人們的答案,其對信息進行分類和先后排序,將重要信息前置,把次要內(nèi)容后置,屏蔽不符合要求的信息,降低用戶接受不利信息的概率,節(jié)省時間成本,滿足用戶的個性化信息需求。
促進群體互動,實現(xiàn)“群體智慧”。一方面,算法推薦技術(shù)使具有相同特征和興趣的人更好地互動,公眾意見在碰撞、博弈和交融中向理性、正確的方向發(fā)展,促進公民在社會中的成長和發(fā)展,群體互動創(chuàng)造的力量帶來豐富的信息和知識,如同“維基百科”的協(xié)同模式,個體間的互補產(chǎn)生群體智慧,多元的認(rèn)識視角和觀點聚合為遠(yuǎn)超于個體智慧的強大能量。另一方面,群體互動的行為有助于增強個體的社會責(zé)任感,公民貢獻個體智慧又促進社會的整體發(fā)展。
推送相關(guān)信息,提高個體的專業(yè)性。專業(yè)主義是一種非常重要的職業(yè)價值和專業(yè)倫理。算法推薦技術(shù)和人工審核機制一樣,有著自己的專業(yè)標(biāo)準(zhǔn)和專業(yè)態(tài)度,它會基于用戶搜索過的信息領(lǐng)域,把所有可能相關(guān)、有價值的內(nèi)容,毫無保留地、盡責(zé)地推送到用戶面前,使個體在某個專業(yè)領(lǐng)域可以掌握更多的知識,挖掘、領(lǐng)悟地更加全面和深入。算法推薦技術(shù)讓用戶在一個領(lǐng)域盡可能多地獲取有價值的信息,有利于提高個體在某方面的專業(yè)性。
算法推薦技術(shù)具有篩選、推送信息和記錄、存儲個人數(shù)據(jù)的特殊權(quán)力,但在算法掌權(quán)之后,其動機和執(zhí)行結(jié)果并不都是“向善”的,也有著諸多的陷阱和漏洞,會對受眾、信息環(huán)境產(chǎn)生負(fù)面影響。
“數(shù)字圓形監(jiān)獄”和個人信息泄露的風(fēng)險。個性化信息資源的匹配在某種程度上節(jié)省了用戶的金錢代價、時間代價和精力代價,為用戶帶來許多便利,但不少平臺也借此掌握用戶的個人信息形成龐大的數(shù)據(jù)庫。當(dāng)用戶被置于“數(shù)字化生存”的時代環(huán)境下,只要接觸互聯(lián)網(wǎng)和移動設(shè)備,后臺已經(jīng)設(shè)定完成的算法就可以通過設(shè)備收集我們的實時數(shù)據(jù),定位用戶所處的時間、空間及行為,了解用戶的狀態(tài)與需求、社交氛圍、生活習(xí)慣等。如果平臺在用戶不知情的情況下,將數(shù)據(jù)出售用于盈利或其他目的,無疑會給用戶和社會帶來不小的信息安全困擾和隱患。比如2018年的“Facebook泄密門”事件,用戶數(shù)據(jù)被劍橋分析公司利用信息操控和平臺偏向影響部分選民態(tài)度,直接影響大選結(jié)果。如果用戶溺于數(shù)字化網(wǎng)絡(luò),被算法支配和統(tǒng)治,那個人自由、隱私安全和社會秩序?qū)⑹艿絿?yán)重沖擊,因此在算法推動社會發(fā)展的背景下,保護個人信息安全的保護也需要被重視和采取必要措施。
陷入“信息繭房”和“回聲室效應(yīng)”的桎梏。用戶被裹挾在基于自身屬性、瀏覽記錄、興趣、社交關(guān)系的“過濾氣泡”中,對相左意見不再關(guān)注和反思,對客觀世界的敏感性降低,個體在封閉的信息環(huán)境中固守符合自己信息和意見的圈子里,難以突破自身局限,陷入“回聲室效應(yīng)”。比如今日頭條的個性化內(nèi)容服務(wù),本質(zhì)上就是構(gòu)建“信息繭房”,相對于交流觀點,接受信息才是頭條用戶的主要行為。此外,算法介入政治,多元化信息在算法設(shè)計過程中被篩除,以政治為目的的算法傳播通常提供與選民立場相符的信息,支持和反對的觀念涇渭分明,這很有可能塑造網(wǎng)民的政治偏執(zhí)型人格。單一的算法推薦很可能讓人們變成“井底之蛙”,失去對環(huán)境的完整判斷。
死板的算法程序給用戶造成困擾。第一,信息的過度適配實際上是機器不斷修正偏差,使“讀懂用戶”的效果最優(yōu)化,但這種“讀懂”不具有變通性。比如淘寶網(wǎng)頁上“推薦”板塊,根據(jù)用戶搜索過的關(guān)鍵字推薦商品,卻難以預(yù)測用戶不斷改變的喜好和需求,如果是用戶誤點和隨意瀏覽,那這種“死板”的機器思維反而會讓用戶與目標(biāo)商品相距甚遠(yuǎn)。第二,算法嚴(yán)格遵守人為設(shè)定的程序,難以像人腦一樣視情況靈活應(yīng)對。比如抖音等短視頻后臺設(shè)置的內(nèi)容審核系統(tǒng),凡上傳內(nèi)容中涉及敏感、違規(guī)內(nèi)容,一律刪除或不通過,但算法往往只以個別參數(shù)為評判依據(jù),在考慮整體內(nèi)容的合理性和合法性上有所缺失,所以部分內(nèi)容生產(chǎn)者通過使用同義詞或特殊符號避開審核,造成了含有低俗、暴力內(nèi)容的視頻仍在平臺上流動甚至成為爆款的后果。
弱化用戶的主動性和自主性。美國傳播學(xué)學(xué)者施拉姆曾經(jīng)提出過一個“選擇的或然率公式”,該公式表明在復(fù)雜的信息環(huán)境里,人們更傾向于用較少成本的方式來接收信息。用戶的懶是本性,是常態(tài),而且還有很強的慣性,我們需要警惕——持續(xù)地依賴算法推薦技術(shù)是否會弱化個人主動選擇信息能力和自主判斷決策能力。比如,人們依賴手機導(dǎo)航,是否會弱化認(rèn)路的能力;我們習(xí)慣于APP推送新聞,是否會沉溺于擬態(tài)環(huán)境;我們總是被動地接收信息,是否會失去快速搜集信息的檢索能力……這些都有可能弱化用戶的主動性和自主性,不利于個人的發(fā)展。
算法推薦技術(shù)能夠幫助解決信息過載與個人信息需求之間的“信息傳播效率”問題,但也要認(rèn)識到算法推薦技術(shù)本身存在的缺陷。解決算法帶來的問題需要多方努力,第一,信息分發(fā)平臺要建立科學(xué)合理的算法推薦模型,不僅關(guān)注信息內(nèi)容來源、自媒體信用等客觀要素,還要注意用戶瀏覽歷史、社交圈、評論量等主觀要素,避免機器算法和個人興趣的“雙重過濾”,承擔(dān)起一定社會責(zé)任,不持“流量至上”的態(tài)度,滿足受眾對于客觀世界的信息需求;第二,平衡好人工把關(guān)和機器審核的關(guān)系,使用新技術(shù)并不意味著人工推送和內(nèi)容審核的全面退出,二者要相互協(xié)作,形成互補,更好地為用戶描繪現(xiàn)實世界的圖景;第三,受眾應(yīng)提高媒介素養(yǎng),不僅要有意識地接收多元化的信息,抵制過度娛樂化的內(nèi)容,還要提高對各種媒介信息的解讀批判能力;第四,每個人都應(yīng)認(rèn)識到:在技術(shù)與人的博弈之中,人始終是占據(jù)主導(dǎo)地位的,因為對于媒體呈現(xiàn)的圖景的解讀,終究還是建立在人的判斷、分析能力上,要扭轉(zhuǎn)“強技術(shù)”與“弱公民”的不平衡,根本上是要突出人在技術(shù)社會革新中的主動和能動作用,堅守人的價值。只有多方協(xié)作,才能使技術(shù)真正服務(wù)于人。