周 敏
(湖北第二師范學院 新聞與傳播學院,武漢 430205)
關(guān)于“算法推薦”的研究起源于20世紀90年代,美國明尼蘇達大學 GroupLens研究團隊基于協(xié)同過濾的推薦算法開始對其進行研究。他們想要制作一個電影推薦系統(tǒng),從而實現(xiàn)對用戶進行電影的個性化推薦。研究基于一個設定:“和目標用戶相似度高的用戶,其感興趣的事物目標用戶也會感興趣?!庇谑牵芯啃〗M讓用戶對自己看過的電影進行評分,采集用戶評分的數(shù)據(jù)。然后,小組對用戶評價的結(jié)果進行分析,并預測出用戶對并未看過的電影的興趣度,從而向他們推薦從未看過并可能感興趣的電影。[1]由此,美國明尼蘇達大學 GroupLens研究團隊開發(fā)出了GroupLens推薦系統(tǒng),并將其運用到了新聞組中。簡單來說,“算法推薦”是一種基于計算機專業(yè)算法的具體應用,依靠采集用戶網(wǎng)絡行為痕跡,通過構(gòu)建數(shù)學算法,來推測出用戶可能喜歡的東西,并將之固化、深化、泛化。
算法推薦系統(tǒng),實際上是擬合一個用戶對內(nèi)容滿意度的函數(shù),主要包括三個維度的變量。第一個維度是內(nèi)容特征。每種內(nèi)容有很多自己的特征,內(nèi)容庫需要考慮怎樣提取不同內(nèi)容類型的特征做好推薦。平臺在互聯(lián)網(wǎng)上收集用戶信息,包括用戶的社交關(guān)系、網(wǎng)絡習慣等。算法根據(jù)用戶信息以及匹配原則向用戶推薦內(nèi)容,或者是依靠由用戶發(fā)現(xiàn)的、訂閱的“人工推薦”模式進行內(nèi)容分發(fā)?;谟脩魹g覽標簽和用戶自身標簽來做推薦,平臺能夠?qū)τ脩魧崿F(xiàn)精準推送。這是對用戶進行了數(shù)據(jù)分析的推薦方式;第二個維度是用戶特征,包括各種興趣標簽,職業(yè)、年齡、性別等,利用模型計算隱性用戶興趣。用戶必須在平臺上留有大量的行為數(shù)據(jù)才能去形成有效的推薦。許多擁有頭部流量的企業(yè)能夠做好這一點,如今日頭條、美團等。平臺型媒體可以通過監(jiān)聽、綁定用戶數(shù)據(jù)等多種方式去實現(xiàn)用戶數(shù)據(jù)挖掘、畫像描繪、特征梳理。例如,通過對用戶原始數(shù)據(jù)的清洗,如性別、年齡、職業(yè)、地址等,雖然部分用戶的標簽特征會高度重合,但是推薦系統(tǒng)可以基于用戶的行為數(shù)據(jù)、社交數(shù)據(jù)來進行重新標簽,且系統(tǒng)對用戶的畫像是實時變化的;第三個維度是環(huán)境特征。這是移動互聯(lián)網(wǎng)時代推薦的特點,根據(jù)用戶所處環(huán)境和場景的變化,對信息偏好做出敏感反應。這一點是隨著技術(shù)的升級推出的方式,如根據(jù)用戶身處不同的地點,所在的環(huán)境不同,那么信息偏好也會不一樣。同樣的,在相似環(huán)境中的用戶,信息偏好也會相似。系統(tǒng)不僅僅在捕捉用戶的行為,而且已經(jīng)在探索行為背后的原因及目的。結(jié)合這三個維度,算法判定推薦內(nèi)容是否適合推薦給用戶。在推薦模型構(gòu)建中,內(nèi)容的點擊率、閱讀時間、點贊、評論、轉(zhuǎn)發(fā)都是可以量化的指標。算法直接可以給出基本判斷,然后針對推薦反饋來做出調(diào)整。
具體說來,算法推薦是一種分發(fā)方式,可以分為五種:第一種是基于內(nèi)容的推薦,即通過用戶日常瀏覽內(nèi)容,推薦可能感興趣的其他內(nèi)容;第二種是基于關(guān)聯(lián)規(guī)則的推薦,即憑借大數(shù)據(jù)的技術(shù),來預測用戶的需求;第三種是基于知識的推薦,以用戶資料中已有的知識結(jié)構(gòu)為基礎(chǔ)來預測需求;第四種是基于協(xié)同過濾的推薦,即所謂的“物以類聚,人以群分”的方式,其中又分為基于用戶、基于項目的和基于模型的協(xié)同過濾;第五種是混合推薦,通過模型的泛化推薦加上上述根據(jù)用戶特征進行挖掘需求,然后有針對性地進行精準推送,因為在體量龐大且復雜的算法推薦系統(tǒng)中,由于服務對象的復雜性,僅靠量化的數(shù)據(jù)指標,顯然是不夠的??梢钥吹皆诋斚拢惴槿藗兇罱艘粋€前所未有的平臺,混合推薦既彌補了社交過濾的不足,又可以獨立于社交關(guān)系來精準分發(fā)。
可以看到基于內(nèi)容的信息推薦方式,其理論依據(jù)也是來自信息檢索、信息過濾來抓取可靠信息。信息推薦是數(shù)據(jù)“喂養(yǎng)”出來的,沒有龐大的信息流去檢索和過濾就不可能有算法推薦。在PC時代,平臺也有著自己的一套算法推薦系統(tǒng),如百度有搜索排行和信息推薦等功能。PC時代的算法推薦邏輯相對簡單,主要以搜索量和點擊量為依據(jù)。隨著技術(shù)的升級,越來越多的算法推薦過濾到了語義的推薦,它不再強調(diào)片斷的行為,而是更深入探索行為背后的含義。在移動互聯(lián)網(wǎng)時代,社會總體的信息呈現(xiàn)出越來越過剩的情況,但難以掩蓋社會個體成員信息缺乏的情況。人們都想要看新的東西,但基于當前算法卻很難跳出算法推薦怪圈,因為所有的推薦都是基于過去預設未來。那么,這個互聯(lián)網(wǎng)典型悖論就被無限放大。正基于此,信息傳播的精準化成為移動互聯(lián)網(wǎng)時代的傳播重點,即把合適的內(nèi)容傳播給合適的受眾,同時學會規(guī)避它的弊端。算法的精準推薦在互聯(lián)網(wǎng)上的廣泛應用就成為了必然選擇。
研究者以資訊類app“今日頭條”為例,分析其算法推薦過程中主要的三個步驟:
1.進行文章模型構(gòu)建。將文章集合進行處理、挖掘。主要利用新聞內(nèi)容元數(shù)據(jù)(即分詞手法)把文章分化為顆粒,再形成新聞的內(nèi)容特征,最終進行興趣建模。其次,通過信息檢索進行質(zhì)量建模,即用戶能否獲取信息、文章內(nèi)容是否為低俗、拼湊。最后,依據(jù)用戶的點擊量、瀏覽量、其他外部平臺上該新聞的熱度進行熱度建模。
2.進行用戶模型構(gòu)建。主要基于用戶喜好、人口屬性、用戶行為習慣、用戶狀態(tài)信息等方面進行用戶模型構(gòu)建。算法基于用戶的數(shù)據(jù)信息,推薦屬于用戶的“私人訂制”,在一般情況下會也輔以文章特征進行建模。
3.選擇合適的算法推薦。系統(tǒng)根據(jù)用戶的不同特征和需求選擇不同的算法推薦方式??梢哉f,這是一個“業(yè)務數(shù)據(jù)化—數(shù)據(jù)業(yè)務化”的全過程。
在算法推薦實施之前,對內(nèi)容和用戶進行模型構(gòu)建的過程,為后面的內(nèi)容曝光、資源配置打好基礎(chǔ),然后利用算法推薦提升用戶獲取信息的效率,最后還可以挖掘長尾金礦的商業(yè)潛力。除此以外,算法推薦還能增進用戶對于平臺良好的使用感受,解決文章的冷啟動問題,并生成獨特的頻道內(nèi)容。
算法推薦分發(fā)已經(jīng)幾乎是所有軟件的標配。社交平臺如微博、微信等,搜索引擎如谷歌、百度等,購物軟件如淘寶、京東等,均依托算法推薦技術(shù)進行平臺內(nèi)容分發(fā)。雖然平臺間的數(shù)據(jù)類型不同,對數(shù)據(jù)需求也不同,但各大平臺均以高效推薦為主要目標。算法推薦把用戶和信息聯(lián)系得更加緊密,不僅提升了系統(tǒng)工作效率,還很好地節(jié)省用戶時間,實現(xiàn)信息提供者與用戶的雙贏。
當然,我們也要看到,“算法推薦”在給用戶帶來內(nèi)容分發(fā)便利的同時,也引發(fā)相對密集的爭議。從前以嚴肅新聞為主要內(nèi)容的資訊平臺或智能新聞App為了內(nèi)容分發(fā)更加精準高效,紛紛采用“算法推薦”技術(shù)。傳統(tǒng)媒體的知識傳播也發(fā)生了不同程度的重構(gòu),試圖憑借算法推薦的系統(tǒng)去抓取用戶數(shù)據(jù)、分析行為語言、預測未來行為和興趣點。各種類型的資訊平臺都想要為用戶提供量身定制的新聞信息產(chǎn)品,滿足用戶個性化需求,順應閱讀分眾化的時代潮流,讓信息流動更加快速順暢。然而,“算法推薦”技術(shù)帶來了紅利,也打開了“潘多拉魔盒”,“算法推薦”對網(wǎng)絡輿論生態(tài)的負面沖擊日益顯現(xiàn),也給社會管理工作帶來較大挑戰(zhàn)。信息技術(shù)對用戶隱私的侵犯以及數(shù)據(jù)的偏向性成為被質(zhì)疑的重點,算法本身的特點讓“下沉的螺旋”十分明顯,技術(shù)的偏見和歧視十分明顯,人編寫的算法必然帶有人的意圖。事實上,這也是各類平臺目前所面臨的算法瓶頸:嚴重依賴于數(shù)據(jù)優(yōu)劣,難以解決數(shù)據(jù)有效性問題。
研究者在中國知網(wǎng)中以 “算法推薦影響”作為主題檢索關(guān)鍵詞,剔除不相關(guān)文本,最終得到有效文獻178篇,檢索時間為2021年2月26日。研究者采用文獻計量工具citespace對178篇研究樣本進行關(guān)鍵詞的統(tǒng)計分析,以期了解學術(shù)界對算法推薦所帶來的影響的聚焦所在。同時,以關(guān)鍵詞凸顯度的統(tǒng)計結(jié)果關(guān)注該議題在近年的變遷。
圖1 關(guān)鍵詞凸顯(深色部分為凸顯年份)
研究者對文獻關(guān)鍵詞進行關(guān)鍵詞凸顯的排序,可以看到,“信息繭房”和“把關(guān)”這兩個詞匯作為新聞傳播學的學術(shù)術(shù)語保持了較高的凸顯強度,同時也成為了2020年的最新凸顯關(guān)鍵詞,是當前學界的關(guān)注熱點。除此之外,“意識形態(tài)”該詞以1.37的凸顯強度成為2020年的凸顯關(guān)鍵詞。由此可見,在算法推薦的影響下,意識形態(tài)問題的管理成為當下學界和業(yè)界的當務之急。另外,“算法偏見”也是2020年學者們關(guān)注的焦點所在,因此筆者對算法推薦的負面影響展開研究有一定的啟示意義。
從詞頻的分布中我們可以看到(表1),除去“算法推薦”“算法推薦機制”“算法”“人工智能”“個性化推薦”等詞作為研究對象自身故而占有較高的詞頻外,學術(shù)界對算法推薦所帶來的影響主要聚焦在以下幾個方面。第一類,以“今日頭條”“短視頻”“抖音”“聚合類新聞客戶端”等詞為代表,學者以此類平臺和內(nèi)容為切入點,進行觀察、研究。第二類,以“信息繭房”“過濾氣泡”等詞為代表,學者對彌漫在算法推薦系統(tǒng)中的信息繭房效應進行討論。第三類,以“媒介倫理”、“媒介素養(yǎng)”、“價值理性”、“工具理性”等詞為代表,學者以媒介倫理為理論視角,社會管理為現(xiàn)實視角,對算法倫理風險進行考察。第四類,以“意識形態(tài)”“價值引領(lǐng)”“把關(guān)人”等詞為代表,學者呼吁互聯(lián)網(wǎng)內(nèi)容層面的理性回應,倡導健康良性的輿論生態(tài)環(huán)境?;趯陙硭惴ㄍ扑]相關(guān)文獻的梳理、統(tǒng)計、分析,研究者將從輿論生態(tài)層面和社會管理層面展開對算法推薦負面影響的討論。同時,研究者將對算法推薦的負面影響嘗試提出建設性策略。
表1 “算法推薦影響”的關(guān)鍵詞詞頻(詞頻≥3)
1.隱蔽干預難以查證,輿論操控風險增強
盡管“算法推薦”技術(shù)越來越受歡迎,但“算法黑箱”正遭到越來越多的質(zhì)疑。這些由“算法推薦”向用戶推送的所謂新聞信息,究竟是基于什么樣的標準與價值判斷而被選中,公眾完全不知情,而這些系統(tǒng)的內(nèi)部工作機制也不透明。把控這些智能平臺的互聯(lián)網(wǎng)技術(shù)公司多次宣稱,這一算法機制是公平公正的,卻總以保護商業(yè)秘密為由拒絕公開其運作過程?,F(xiàn)在的公共領(lǐng)域和私人領(lǐng)域處于高度的重合狀態(tài),網(wǎng)絡的發(fā)展應該賦予人們更多的監(jiān)督權(quán)。很多平臺都設置有“推薦”一欄,讓用戶停留在自己的舒適區(qū)。這樣的信息導向不僅讓用戶只能看到部分內(nèi)容,而且用戶無法對公共環(huán)境進行監(jiān)控,放棄了自己的監(jiān)督權(quán)。超級平臺的背后是互聯(lián)網(wǎng)巨頭。用戶通過平臺看到的新聞,是否只是互聯(lián)網(wǎng)巨頭想讓他們看到的部分“真相”呢?這樣的話,隱蔽干預即使存在,也實際上很難查證。
由于“算法推薦”運行機制不透明,倘若推薦信息存在“立場過濾”,與企業(yè)利益相左的信息會逐漸消弭,那么網(wǎng)絡輿論管理的風險將會增強。即使不是平臺本身操控輿論,外部操控者只要熟悉算法推薦技術(shù),就能組織觀點信息展開輿論攻勢,一旦獲得部分用戶認同,就可能會借助“算法推薦”得到廣泛傳播,繼而實現(xiàn)對輿論的操控。算法推薦技術(shù)一旦被操控,用戶反而會被技術(shù)和輿論所裹挾。
2.劣質(zhì)內(nèi)容毒害用戶,擠占主流輿論空間
算法驅(qū)逐了人工編輯的“把關(guān)人”地位,產(chǎn)生了許多垃圾信息,如“標題黨”、虛假新聞、黃色新聞等。同時,根據(jù)伊莉莎白·內(nèi)爾—紐曼(Noelle-Neumann)的“沉默的螺旋”理論,大眾傳播在影響大眾意見方面能產(chǎn)生強大的效果一個人提出意見,卻發(fā)現(xiàn)與其所屬群體觀念發(fā)生背離時,會產(chǎn)生孤獨恐懼感。處于意見弱勢地位的人會放棄自己的看法,變得沉默,最后換支持方向,與優(yōu)勢群體、優(yōu)勢意見一致。[2]算法推薦非常容易造成用戶產(chǎn)生“大家都有這種想法”的刻板印象,使態(tài)度和觀點產(chǎn)生極化,造成人的認知局限性。于是,在網(wǎng)絡環(huán)境中可能發(fā)生正面觀點保持無聲,但負面意見不斷增長,從而發(fā)生網(wǎng)絡輿論的失真。
為了騙取用戶的點擊,各類標題黨大行其道,各種劣質(zhì)內(nèi)容在悄悄毒害用戶。 比如,未經(jīng)科學驗證的健康知識在內(nèi)容平臺肆意傳播,給用戶造成誤導;毫無用處的拼湊信息被推薦給用戶,令人不堪其擾;一些或極端或粗淺的言論也時常被算法推薦,此類信息價值導向存在嚴重問題,甚至對人格塑造產(chǎn)生負面影響。這些劣質(zhì)內(nèi)容真相難辨、對錯不分、缺乏深度,不僅浪費用戶的時間,還可能誘導用戶產(chǎn)生錯誤的認知,做出錯誤的選擇。例如,YouTube的算法推薦曾遭受廣泛質(zhì)疑。充滿猥褻和暴力的視頻被算法分發(fā)到專門針對兒童的應用程序YouTube Kids上,激勵發(fā)展了一種不健康的亞文化。這種亞文化以兒童為目標受眾,內(nèi)容令人不安。
由于劣質(zhì)內(nèi)容隨處可見,用戶沉浸在智能平臺推薦的內(nèi)容里,而主流輿論內(nèi)容被用戶和平臺習慣性忽視。算法推薦無視了技術(shù)背后的情感和認知的合理性,淺薄的“三俗”內(nèi)容因為下沉螺旋充斥著網(wǎng)絡空間,導致惡性循環(huán)。主流輿論的空間被嚴重擠占,在信息流中逐步下沉,其傳播效果必然大打折扣。
3.信息繭房愈加牢固,“后真相”情緒影響輿論
信息繭房由桑斯坦提出,是指人們的信息領(lǐng)域中由于“選擇性心理”會被自己的興趣引導,形成自己的“個性化日報”,于是自己的生活桎梏在像蠶繭一般的“繭房”中。當個人被禁錮在自我建構(gòu)的信息脈絡中,個人生活必然變得程序化、定式化。[3]信息量劇增的今天,用戶被推薦繁多的信息,在其中根據(jù)興趣進行選擇關(guān)注的話題,久而久之,就形成了“信息繭房”,即只看我們選擇的東西、只接受愉悅我們的信息。選擇性接觸不會改變個人原有的觀點,而是讓個人原有觀點增強?!八惴ㄍ扑]”的技術(shù)如今被廣泛運用,讓 “信息繭房”更加牢固,導致用戶的視野更加狹窄。
如今,個性化獲取信息是用戶在互聯(lián)網(wǎng)環(huán)境中獲取信息的主要邏輯。用戶對于資訊內(nèi)容的興趣和關(guān)注點相對固定,“算法推薦”會認為用戶只關(guān)注這些內(nèi)容。盡管在某個意義上,信息繭房,是難以避免的,因為它畢竟是選擇性心理的結(jié)果。然而,用戶可能還需要關(guān)注其他內(nèi)容,從其他方面以補充自身知識結(jié)構(gòu)、拓寬視野。平臺運用“算法推薦”的邏輯,看似是在順應用戶的思維,但算法推薦越精準,用戶的視野就會越狹窄,將更難打破“信息繭房”的束縛。
用戶視野變得狹窄,將難以理性認知各類社會問題,繼而變得更加偏激。由于“算法推薦”會大量推送與用戶相近認知內(nèi)容,這就會造成用戶情緒的累積和“共振”,讓人誤以為“大家都是這么想的”。特別是算法平臺上部分觀點存在無視事實、偏激的傾向,導致“后真相”現(xiàn)象日益普遍,“客觀事實在形成輿論方面影響較小,而訴諸情感和個人信仰會產(chǎn)生更大影響?!盵4]人們把情緒放在事實前面,甚至站在虛假的事情前面大談情緒,各類陰謀論越來越多?;ヂ?lián)網(wǎng)巨頭所謂的“算法推薦比你更懂你自己”,其實是讓用戶更加堅信所謂的“事實”。由此觀之,網(wǎng)絡空間開始彌漫著用戶情緒,而事實正在加速坍塌,失去地位。
4.用戶設置議程,意見領(lǐng)袖作用弱化
在用戶設置議程的今天,真相都還沒有被專業(yè)媒體挖掘報道出來,各類觀點就已經(jīng)就在路上了。根據(jù)算法平臺自媒體博主的只言片語,用戶開始迫不及待地發(fā)聲,把各類社會個案上升到人性、道德高度,甚至情緒和觀點高過了事實真相?!皞髡摺焙汀笆鼙姟苯缦薜娜找婺:?,意見領(lǐng)袖失去了領(lǐng)導作用,難以扭轉(zhuǎn)網(wǎng)民的錯誤認知也無法阻擋用戶的情緒宣泄。由此,產(chǎn)生了網(wǎng)絡暴力、媒介審判等不良現(xiàn)象。
與此同時,傳統(tǒng)媒體議程設置的權(quán)利被“算法推薦”逐步剝奪,主流媒體輿論引導也處于弱勢狀態(tài)。比如,高管性侵養(yǎng)女案中,盡管在后期反轉(zhuǎn),事情的性質(zhì)其實并不是所謂的性侵。但是,一些媒體智能平臺如微博等,通過“算法推薦”,根據(jù)分析用戶的搜索和瀏覽記錄為用戶設置議程,仍在源源不斷的推送類似信息,仍然將其歸類為“性侵兒童”的話題標簽下。官方發(fā)布和主流媒體報道依然在努力進行引導,但在“算法推薦”面前作用是有限的。此外,用戶會在算法推薦產(chǎn)生的“信息繭房”中進行事實辨別和觀點判斷,媒體想要開展議程設置會比較艱難。
1.迎合用戶影響創(chuàng)新,資訊日益淺薄低俗
無論智能平臺如何標榜自己的“算法推薦”技術(shù),無論他們?nèi)绾螐娬{(diào)內(nèi)容分發(fā)能夠做到多么智能精準,就目前呈現(xiàn)效果來看,內(nèi)容能否被推薦以及推薦給誰,都只有相對簡單的標準——點擊量,也就是內(nèi)容能不能抓住用戶眼球,能不能吸引用戶點擊閱讀或觀看。對流量的肆意追逐助推各類智能平臺走向媚俗化?!把矍蛐侣劇敝饾u在各個內(nèi)容平臺泛濫成災。
某些內(nèi)容創(chuàng)業(yè)公司或作者,為了能夠在智能平臺攫取利益,不惜去研究并依賴“算法推薦”技術(shù)制造內(nèi)容垃圾,自媒體的“做號”產(chǎn)業(yè)讓不少平臺和用戶頭疼不已。有些作者為了在平臺上得到認可,會刻意制造聳人聽聞、低訴膚淺的內(nèi)容,從而獲得算法推薦的青睞。創(chuàng)作者喪失了理性思考和維護新聞真實性的原則,甚至失去了獨立思考的能力。創(chuàng)作者的創(chuàng)新能力在“算法推薦”的不良誘導下被逐步削弱,深度寫作和冷靜思考湮沒在喧囂的“眼球新聞”之中。創(chuàng)作者開始去寫段子、拍搞笑視頻,什么點擊量高就寫什么拍什么。長此以往,資訊將會更加淺薄低俗。此外,許多自媒體平臺充斥著媚俗、惡俗甚至謠言信息,更是讓網(wǎng)絡空間烏煙瘴氣,讓人不由地質(zhì)疑是否“新聞正在死去”。
2.內(nèi)容生產(chǎn)門檻過低,編輯把關(guān)逐步淡化
“算法推薦”的技術(shù),從媒體需求的角度來講,的確是提高了內(nèi)容分發(fā)的效率,也實現(xiàn)了內(nèi)容和用戶的精準匹配。但是算法推薦不提供內(nèi)容生產(chǎn),同時也省略掉了編輯和把關(guān)的流程。內(nèi)容單純憑借機器來計算是否推薦,不僅喪失應有的溫度,而且導致內(nèi)容缺乏必要管理,粗制濫造大量存在。
為了獲得更多內(nèi)容、創(chuàng)作者和用戶,智能平臺拉低門檻,放低姿態(tài),允許各種聲音在這個平臺上出現(xiàn)。倘若技術(shù)能夠完成自我監(jiān)管、約束和提升,內(nèi)容門檻問題就會比較好解決。但是,“算法推薦”的標準仍然比較單一,優(yōu)質(zhì)內(nèi)容難以獲得推薦,內(nèi)容把關(guān)成本高,即使在政府部門嚴厲監(jiān)管和智能平臺強力封堵下,違規(guī)劣質(zhì)內(nèi)容依舊層出不窮。智能平臺對編輯把關(guān)的賦權(quán)不足,致使各類智能平臺問題頻出,接連受到監(jiān)管部門懲治。長此以往,用戶常掉入“標題黨”的陷阱中,就會失去對媒體和新聞的信任,從而惡化網(wǎng)絡生態(tài)環(huán)境。
此外,人工編輯的把關(guān)意識也逐步淡化。由于“算法推薦”替代了人工編輯和采編風格,用形式上的合理性取代了實質(zhì)上的合理性,用機械算法和自動推送摒棄人文主義的現(xiàn)實關(guān)照,拋棄了人文的機械技術(shù)是無法真正地深入人心的。單純追求點擊率和閱讀量的競爭是喪失靈魂的無序競爭,也是無意義的。
3.內(nèi)容生產(chǎn)侵權(quán)不斷,洗稿抄襲亂象叢生
依托“算法推薦”的智能平臺信息全、范圍廣,用戶可以閱讀新聞、瀏覽資訊、看視頻和直播。智能平臺采取媒體授權(quán)、自媒體合作、用戶生產(chǎn)等方式獲得內(nèi)容。但更多時候,自媒體博主會直接從其他信息平臺抓取信息,分發(fā)給感興趣的用戶。自媒體博主隨意抓取內(nèi)容的現(xiàn)象導致侵權(quán)不斷,智能平臺各類版權(quán)糾紛案件可謂此起彼伏,嚴重挫傷原創(chuàng)作者的積極性。
在直接侵犯版權(quán)之外,洗稿抄襲亂象也大量存在。洗稿、抄襲等行為甚至得到了智能平臺默許。一些原創(chuàng)稿件被拆散、拼湊、改寫,“改頭換面”就可以在自媒體賬號上發(fā)布,并且運用“算法推薦”技術(shù),還可以獲得較高的推薦量。侵權(quán)者不用付出任何代價就能得到流量,而智能平臺則幾乎不用成本就能獲得內(nèi)容,然后通過“算法推薦”來變現(xiàn)。侵權(quán)者的洗稿技巧日益嫻熟,即使原創(chuàng)作者想維權(quán)也會比較艱難。與此同時,平臺幾乎不用承擔任何風險。那么,當讀者被各種同質(zhì)化內(nèi)容“騙取”一次次瀏覽后,也會對自媒體和平臺失去信任。
4.數(shù)據(jù)存在安全風險,機器開始控制用戶
算法推薦技術(shù)所帶來的隱私問題愈發(fā)嚴重,公共信息和私人信息的界限愈發(fā)模糊。為了精準描繪用戶畫像,掌握用戶的閱讀習慣和行為軌跡,平臺需要收集大量的用戶數(shù)據(jù)。平臺廣泛收集了用戶信息,包括用戶的注冊信息、位置、瀏覽習慣、轉(zhuǎn)發(fā)和評論的喜好等。甚至,平臺會將信息以某種形式賣給廣告商。值得警惕的是,個別智能平臺進行“協(xié)同過濾算法推薦”的時候,會竊取用戶的使用設備信息、用戶個人通訊錄、短信內(nèi)容、社交平臺痕跡、娛樂習慣等等,這將會導致用戶個人隱私數(shù)據(jù)等被大量收集,面臨著隱私泄露的風險。侵犯隱私一直是平臺治理中的重難點。畢竟,我們想要的是人機協(xié)同,而不是人被技術(shù)所裹挾。
同時,智能平臺的無序競爭也可能導致用戶難以自主選擇接收信息的內(nèi)容。機器開始嘗試控制用戶。即使用戶意識到要多維度獲取信息,也可能會遭到機器阻撓,那么人們想要獲取新鮮事物變得更難,只能處于“舒適”的怪圈中,待在機器所構(gòu)建的“虛擬社會”。
網(wǎng)絡法治化治理是必然趨勢,監(jiān)管部門早已開始發(fā)力。2019年,我國出臺了一系列規(guī)范網(wǎng)絡信息安全保護的法規(guī)條例,為網(wǎng)絡健康有序發(fā)展提供有力保證。網(wǎng)絡安全等級保護制度2.0標準制定,擴大了網(wǎng)絡安全保護的范圍;《互聯(lián)網(wǎng)個人信息安全保護指南》發(fā)布,指導用戶保護個人的數(shù)據(jù)安全;《關(guān)于APP違法違規(guī)收集使用個人信息的認定方法》發(fā)布,規(guī)范了APP對用戶數(shù)據(jù)的收集等。
“正如我們已經(jīng)看到的,預測個體的行為已經(jīng)變得非常容易了。未來比過去更具價值,因為我們的旅行和購物計劃可能是商業(yè)圈中最有影響力的商品。雖然我們的過去由安全防火墻和隱私法保護著,但通過精密系統(tǒng)的預測,我們的未來卻極易被人掌握。”[5]針對“算法推薦”帶來的侵犯隱私問題,監(jiān)管部門應結(jié)合實際情況,逐步完善相應法律法規(guī),對于“算法推薦”存在的違規(guī)亂象,更應依法開展常態(tài)監(jiān)管。只要平臺或發(fā)布者觸碰法律“紅線”,就要對其進行嚴懲,做到“有法可依,執(zhí)法必嚴”。
在對智能平臺進行常態(tài)化的監(jiān)管之外,還要實時開展全行業(yè)的整頓工作。2020年1月6日工信部網(wǎng)絡安全局約談了小米科技有限公司,全面排查安全問題。2020年7月20日,進一步夯實網(wǎng)絡安全主體責任,抓好網(wǎng)絡安全風險漏洞問題整改,廊坊市委網(wǎng)信辦組織召開網(wǎng)絡安全問題集中約談會議。
事實上,近年來,此類行業(yè)整頓行動相對較多。對這些算法公司整頓的重點,相當一部分與“算法推薦”相關(guān)。對于技術(shù)我們應該揚長避短,合理利用好它的長處,規(guī)避它的短處?!八惴ㄍ扑]”不應該淪為違法違規(guī)的“利器”,而應該是提高效率的“長劍”。監(jiān)管部門必須穩(wěn)妥監(jiān)管“算法推薦”技術(shù),敦促平臺凈化升級。
由于智能平臺過度依靠“算法推薦”進行信息推送,編輯把關(guān)人員相對缺乏,有害信息難以被及時清理。因此,需要監(jiān)管部門做好有害信息監(jiān)測工作,拿到這些智能平臺的信息接口,便于采用“人工+技術(shù)”的模式進行監(jiān)測,做到及時發(fā)現(xiàn)和快速封堵刪除。這些有害信息包括網(wǎng)絡謠言、色情信息、過激言論和反宣滲透等,對人們思想迫害頗深,也會導致惡性循環(huán)。同時,在對劣質(zhì)有害信息進行清理時,對于沒有事實依據(jù)的揣測和陰謀論,除了進行封堵刪除外,還需及時將此類信息通報給智能平臺,督促他們管理好平臺上的自媒體賬號和用戶留言,不要過分抓取有害及敏感信息。
平臺通過議題設置與用戶產(chǎn)生共鳴,并利用數(shù)據(jù)采集、信息追蹤等功能,對當下火熱的網(wǎng)絡輿情進行搜集,并且進行了大數(shù)據(jù)分析。在技術(shù)加持下,可以合理利用“算法推薦”的利器,以保證公共話語的多元表達,增加網(wǎng)民之間的理性互動和討論。運用多元、有效的公共話語,以事實來說服用戶,以理性來引導用戶,以此減少網(wǎng)絡輿論的失真,這是當下平臺內(nèi)容治理的題中之義。
監(jiān)管部門要盯緊網(wǎng)絡輿情動向,并強化研判。智能平臺同時坐擁超級流量和算法技術(shù),在缺乏外界監(jiān)管的情況下,可能存在輿論操控行為。信息監(jiān)管部門對平臺中“帶節(jié)奏”的言論要提高警惕,對不法分子利用技術(shù)以操控輿論的違法行為要施以嚴懲,更要嚴厲打擊外部操控者。不能讓智能平臺的“算法推薦”技術(shù)淪為輿論操控的“擴音器”。對于輿情事件中出現(xiàn)的敏感信息和言論,監(jiān)管部門要及時響應,智能平臺協(xié)助監(jiān)管部門盡快進行核實,并對謠言和不當言論進行刪除和澄清。同時,應對主流媒體進行內(nèi)容賦權(quán),利用“算法推薦”將主流媒體聲音推送給用戶,以主流言論帶領(lǐng)人們,澄清片面敏感信息帶來的負面影響。如此,通過及時研判輿情,可以規(guī)避潛在的輿論操控風險。
“算法推薦”技術(shù)存在的問題,需要依托技術(shù)本身的更新迭代來解決。第一,是建立風險內(nèi)容識別系統(tǒng),可以設立:鑒黃模型、謾罵模型、泛低質(zhì)識別等系統(tǒng)模型。算法系統(tǒng)通過采取對自身的升級,達到改善弊端的效果,將會比人工過濾更有效和迅速,可以更全面防止垃圾信息的泛濫,維護平臺文明與健康。第二,是優(yōu)化算法,升級內(nèi)容審查技術(shù),及時遏制有害信息。算法挖掘信息的方式,涉及信息的科學性和合理性問題。算法系統(tǒng)應升級敏感詞過濾技術(shù)和音視頻審查技術(shù)等,對于違規(guī)信息進行進一步的人工核查。第三,加強用戶數(shù)據(jù)保護。用戶的隱私不能讓渡給機器。盡管對用戶私人數(shù)據(jù)的使用界限沒有明確規(guī)定,但至少對用戶數(shù)據(jù)抓取要有所控制。如此,通過升級技術(shù)手段,并遏制有害信息,對內(nèi)容進行有效審核,將會凈化智能平臺。
部分智能平臺已經(jīng)意識到缺少“把關(guān)人” 的嚴重性。在現(xiàn)實條件下,僅僅依靠技術(shù)升級實現(xiàn)對劣質(zhì)內(nèi)容嚴格審核和優(yōu)質(zhì)信息有效推薦的難度較大。此時,需要持續(xù)強化企業(yè)把關(guān)責任,增加人工編輯比重,采用“人機結(jié)合”的模式。如今日頭條上線了“熱點、搜索”等頻道,并在“熱點”欄目中,引入了人工編輯。人工編輯會嚴格篩查劣質(zhì)信息。增加人工編輯比重,這雖然看似回到了傳統(tǒng)的新聞生產(chǎn)模式,但其實打破了算法推薦下的內(nèi)容窠臼,又能保障內(nèi)容質(zhì)量。機器和技術(shù)是為人服務的,實現(xiàn)機器和人的優(yōu)勢互補,才能使得工具理性和價值理性達到二元平衡。
“算法推薦”給用戶帶來了良好的資訊閱讀體驗,節(jié)約了信息挑選的時間,但其弊端也日益受到輿論關(guān)注。各智能平臺存在大量劣質(zhì)內(nèi)容和無用信息,正在浪費用戶的時間,并擠占正常閱讀的空間,而“算法推薦”催生的“信息繭房”也導致用戶的視野日益狹窄,魚龍混雜的信息也讓用戶無所適從。面對這個問題,今日頭條推出了“探索”機制,用戶可以在此尋找到自己未知的興趣所在,可以探索更多的內(nèi)容可能。目前今日頭條上已經(jīng)有了四大區(qū)域,搜索區(qū)能夠看到熱搜、熱點新聞,頻道區(qū)可以看到垂直類信息,要聞區(qū)可以看到權(quán)威媒體新聞,個人化區(qū)可以探索未知的領(lǐng)域。另外,監(jiān)管部門和主流媒體可以適當引導用戶開展反思,鼓勵他們正確認知“算法推薦”,不能只是接受智能平臺的“迎合”,獲取同質(zhì)化的信息資訊。用戶要勇敢走出“信息繭房”,獲取更多有價值的信息,從而增加閱讀的維度、深度和廣度,全面提升自己的理性認知和判斷能力,做到不被“算法推薦”所禁錮。
算法推薦本質(zhì)的目的就是為了更精準地實現(xiàn)“信息和人的匹配”。以此邏輯為導向,算法推薦可以增加平臺與用戶現(xiàn)實社交關(guān)系圈的聯(lián)系,并且細化產(chǎn)品顆粒,以建立更完善的用戶畫像,進行更準確的產(chǎn)品推薦,可從以下兩個方面出發(fā):
1.實現(xiàn)“精準化”和“多元化”。在信息泛濫的時代,如何更加的“個人化”是信息分發(fā)的關(guān)鍵一環(huán)。我們要發(fā)現(xiàn)特定用戶在選擇不同類別內(nèi)容時,內(nèi)容之間是否存在著更加細粒度的聯(lián)系。算法推薦針對此聯(lián)系,對內(nèi)容選擇進行深層的透徹分析,從而實現(xiàn)細粒度的個性化,實現(xiàn)更多的“消費者主權(quán)”。我們不僅要做更精準的推薦,同時也要重視內(nèi)容的多樣性,做到粗粒度的多元化。對于人們對信息的“挑食”,用戶畫像具象化是破解信息繭房效應的必走之路。
2.多層次綜合推薦。部分智能平臺正在開發(fā)更先進的技術(shù)和算法,嘗試在信息傳播的前端加強對內(nèi)容的把關(guān),或者對內(nèi)容分發(fā)環(huán)節(jié)進行調(diào)整,增加更優(yōu)的信息價值評價標準,而不是簡單以“點擊量”作為推薦依據(jù)。算法也在進行深度學習,要將用戶的立場從“被動”變?yōu)椤爸鲃印?。以B站為例,B站內(nèi)容系統(tǒng)由用戶主導,結(jié)合前期把關(guān)解決趣味下沉問題,由用戶自主選擇內(nèi)容,從而實現(xiàn)了產(chǎn)品精準推薦,用戶地位轉(zhuǎn)變。
“我們在生產(chǎn)和信息交流方式上的變革必然會引發(fā)自我管理所用規(guī)范的變革。”[6]算法實現(xiàn)信息的私人訂制,同時也帶來了很多問題。在算法推薦的過程中,看似是算法技術(shù)處于中心,但事實上人為因素是貫穿始終的。人是信息的主人,要如何去規(guī)避算法偏見和改變當前的信息繭房困境才是問題的關(guān)鍵。沉溺于“技術(shù)悲觀論”的論調(diào)是“信息繭房”的另一種表現(xiàn)。我們要看到算法推薦其實是有很多可改進的空間,對于它帶來的問題,不能沿用傳統(tǒng)編輯模式下的老辦法。技術(shù)、社會和人是良性互動的。用戶既需要由算法推薦帶來的“私人訂制”信息,也需要保證信息的質(zhì)量和溫度。因此,智能平臺需要從用戶的角度出發(fā)加強算法的自我學習和升級,從根本上解決算法推薦帶來的弊端。