文/吳文汐 榮 雪 李成博
隨著媒介技術(shù)的不斷演進,事實核查的門檻在逐漸提高,謠言識別的難度日益加大,從“有圖有真相”發(fā)展為“有視頻有真相”,到如今,隨著AI技術(shù)的介入,“視頻換臉”的技術(shù)門檻降低,視頻造假也變得輕而易舉,傳播形式已經(jīng)無法成為辨識信息真?zhèn)蔚年P(guān)鍵性證據(jù)。AI技術(shù)對謠言傳播的影響具有兩面性,一方面,AI技術(shù)通過智能算法更加精準地識別謠言,控制謠言傳播;另一方面,其可以用來創(chuàng)建更為逼真的謠言內(nèi)容,從而加劇謠言治理的難度。當(dāng)運用AI創(chuàng)建和傳播虛假內(nèi)容的能力超過甄別真?zhèn)涡畔⒌哪芰r,謠言與社交媒體、智能媒體技術(shù)相結(jié)合,對網(wǎng)絡(luò)輿論場的負面效應(yīng)將更加突出,社交媒體空間中不同社群間的對話因難以快速核實的謠言而受到干擾,主流媒體的輿論引導(dǎo)力也將面臨更為嚴峻的挑戰(zhàn)。因此,智能媒體時代如何對謠言進行有效的識別和控制,這是網(wǎng)絡(luò)輿論治理中必須高度重視的關(guān)鍵性問題。
近幾年來上述問題正在得到國內(nèi)外學(xué)者的關(guān)注,尤其是國外學(xué)者在這一領(lǐng)域有了較為豐富的成果?;诖耍P者結(jié)合相關(guān)研究成果,從算法模型和用戶心理兩個角度,提出智能媒體時代謠言識別、控制與更正的路徑。
基于算法,利用大數(shù)據(jù)與AI技術(shù)是智能媒體環(huán)境下謠言識別的主要途徑。目前早期自動檢測是主要的識別方式,主要通過傳統(tǒng)分類方法、基于深度神經(jīng)網(wǎng)絡(luò)的方法以及基于傳播模式這三種方法實現(xiàn)。前兩種主要聚焦于虛假信息的文本與用戶特征,第三種方法則聚焦于真假信息傳播過程的差異。傳統(tǒng)分類方法主要是通過對文本內(nèi)容特征(如主題、體裁、句子長度、情感詞匯、修辭、基于時間的演化規(guī)律)以及用戶信息(如用戶年齡、粉絲特征、位置、轉(zhuǎn)發(fā)或評論行為)等進行分類,發(fā)掘疑似謠言的類別特征,運用已識別的謠言和非謠言數(shù)據(jù)作為訓(xùn)練數(shù)據(jù)分類器,但這類方法用手動設(shè)計分類特征,繁瑣而又費時,在場景運用上存在局限性。近年來深度神經(jīng)網(wǎng)絡(luò)的方法開始得到運用,即通過深度神經(jīng)網(wǎng)絡(luò)自動學(xué)習(xí)有效的語義特征,來代替?zhèn)鹘y(tǒng)的手動分類方法。也有兩種方法相結(jié)合識別謠言,比如,用神經(jīng)網(wǎng)絡(luò)提取文本信息與用戶反饋信息,用傳統(tǒng)方法提取信息源用戶的特征,兩相結(jié)合對謠言分類做出判斷。基于傳播模式的方法則是通過分析虛假信息和真實信息在傳播過程中的差異(如傳播時間、傳播中的主導(dǎo)用戶、傳播的網(wǎng)絡(luò)結(jié)構(gòu)的差異),來辨識虛假信息。
然而謠言識別需要重復(fù)的信號才能達到足夠的精度,因此,只有在謠言開始傳播并造成危害時才能識別謠言。Qin等(2018)提出謠言預(yù)測的方法,這種方法是在每條信息剛發(fā)布時立即評估該信息是否可能成為謠言,從而在虛假信息傳播并造成傷害之前做出處理,這種方法需要在單次數(shù)據(jù)傳遞中做出即時決策,難度更高也更為復(fù)雜。Qin等(2018)將基于內(nèi)容的特征與基于新穎性的特征和偽反饋相結(jié)合,實驗表明,這種方法能夠準確地預(yù)測一條信息在未來是否會成為謠言。但是相關(guān)研究還比較少,實驗結(jié)果的精確度還需要更多的研究輔證。
鑒于謠言預(yù)測相較于謠言識別,可以更早阻斷謠言傳播,隨著人工智能技術(shù)的發(fā)展,謠言預(yù)測將超越謠言識別,成為智能媒體時代謠言治理的首要任務(wù)。此外,從技術(shù)應(yīng)用的角度來說,通過人機協(xié)作提高智能化事實核查的精準度,加強對假新聞或新聞失實內(nèi)容的核查,也是智能媒體環(huán)境下抑制謠言傳播的重要方向。
從刪除節(jié)點向阻斷有限鏈接的轉(zhuǎn)變。早期的網(wǎng)絡(luò)謠言控制手段是刪除節(jié)點,這種方法的有效性在很多實驗中得到了證實。刪除節(jié)點的根本目的其實是刪除謠言鏈接,然而單獨刪除鏈接對于系統(tǒng)來說工作量巨大,因此Kimura等(2009)考慮到網(wǎng)絡(luò)的分層結(jié)構(gòu),信息被逐層轉(zhuǎn)發(fā),提出刪除節(jié)點的同時阻斷鏈接傳播的方法,出于經(jīng)濟效益的考慮,應(yīng)當(dāng)阻斷有限鏈接達到較好的謠言控制效果,而不是阻斷全部鏈接,Kimura等根據(jù)自然貪婪算法(Naturally greedy algorithm)和債券滲濾法(Bond percolation method)提出了刪除鏈接的啟發(fā)式算法(The link-removal heuristics),并且利用大型博客和維基百科網(wǎng)絡(luò),實驗證明了該方法的有效性:可以僅阻斷0.2%的鏈接,就減少近50%的謠言傳播,這為更加經(jīng)濟有效地刪除謠言提供了參考。
基于病毒傳播模型的謠言傳播及辟謠分析。由于謠言傳播與病毒傳播具有很強的相似性,計算機科學(xué)領(lǐng)域的學(xué)者利用數(shù)學(xué)模型和算法,在病毒傳播模型(如SIR傳染病模型)基礎(chǔ)上研究謠言傳播模型,并運用仿真實驗的方法對提出的模型進行檢驗,其中SIR模型是最常使用的模型。此類研究主要發(fā)現(xiàn)網(wǎng)絡(luò)的平均程度、受眾的個人狀態(tài)以及信息效價等因素會對謠言傳播產(chǎn)生影響,通過控制這些變量找到一個有效閾值,從而兼顧辟謠效果和經(jīng)濟效益。比如,Yong和Ma(2018)探討了正面新聞對謠言傳播的影響,與熱點事件或突發(fā)事件有關(guān)的謠言大多可以在社交網(wǎng)絡(luò)的溫床上迅速傳播,因此對其最好是轉(zhuǎn)移而不是封鎖,該研究提出了積極新聞可以抑制謠言傳播的ISSPR傳播模型。He等(2016)根據(jù)持續(xù)對策下的謠言傳播模型推導(dǎo)出謠言持續(xù)擴散或者消亡的閾值,并提出了在預(yù)期時間內(nèi)以有效成本抑制謠言傳播的實時策略,即RTO和PSCB策略,經(jīng)證實這兩種策略可以通過周期性地傳播真實信息來抑制謠言的傳播。這兩種策略可以連續(xù)或周期性地抑制謠言,保證成本效益。Zhao等(2015)則是通過對謠言傳播過程建模,改變謠言傳播的終止機制,使模型更加逼真,通過穩(wěn)態(tài)分析,得出謠言傳播必須超過的傳播閾值。除此之外,模擬結(jié)果顯示,同時對大量受眾進行辟謠效果不一定好,因為會產(chǎn)生資源浪費,所以理想的辟謠受眾數(shù)量存在一個閾值。這個閾值就是應(yīng)選擇的最佳辟謠個體數(shù)量。Zhang等(2014)建立了動態(tài)8態(tài)ICSAR(無知、信息載體、信息傳播者、信息倡導(dǎo)者、移除)謠言傳播模型,分析了與謠言傳播相關(guān)的信息吸引力、謠言的客觀識別、人的主觀識別、信息媒體的信任度、傳播概率、強化系數(shù)和專家效應(yīng)等8個影響因素,ICSAR模型可以將人分為8種狀態(tài),準確分析謠言和反謠言傳播,對于提高辟謠效率和制定應(yīng)急預(yù)案具有重要意義。目前來看,這些算法和模型仍然需要更多的檢驗。
麻省理工學(xué)院的Vosoughi等人(2018)通過對2006年到2017年twitter上約300萬用戶發(fā)布的約126000個新聞進行分析,發(fā)現(xiàn)虛假信息的傳播速度遠高于真實信息,一個虛假故事比一個真實故事的傳播速度快6倍,算法是以相同的速率在促進真假信息的傳播,因此是用戶而非算法,使得虛假信息傳播快于真相,這與人性本身有關(guān),人們更傾向于分享新奇的信息,而虛假信息比真實信息更加新奇。這也說明要控制社交媒體的謠言,推動辟謠信息的傳播,不僅需要靠算法,基于用戶心理的考量也相當(dāng)重要。
用戶心理因素阻礙謠言更正效果。采用阻斷方式控制謠言往往是在謠言初期效果較好,隨著謠言不斷擴散,形成錯誤認知的用戶越來越多,簡單的刪除很難改變?nèi)藗兊恼J知,謠言的更正,也就是辟謠即成為重點。然而有一部分研究結(jié)果表明謠言更正的效果并不顯著。從用戶心理的角度出發(fā),有以下幾方面原因:一是更正已存在的錯誤認知需要用戶付出更多的認知努力,對謠言主體的認同程度、知識水平、認知負載程度、種族偏見程度、陰謀論程度等都會影響用戶對辟謠信息的接受程度;二是謠言的持續(xù)效果會影響更正信息發(fā)揮作用,這種效果也稱為“信念回聲(Belief Echoes)”,也就是說,即使謠言得到了更正,但是對謠言的認知仍然會影響人們的判斷;三是當(dāng)更正信息不足以說服用戶時,用戶也會拒絕更正信息;四是更正信息還可能產(chǎn)生“反效果”,也稱為逆火效應(yīng)(Back Fire Effect)或者回旋鏢效應(yīng)(Boomerang Effect),即辟謠信息會產(chǎn)生事與愿違的效果,強化錯誤認識。
謠言更正的有效路徑??偨Y(jié)此前國內(nèi)外相關(guān)研究成果,從用戶心理角度分析,謠言更正可以采取以下策略。
第一,不斷重復(fù)辟謠信息,提高用戶對辟謠信息的注意力,加深認知,用與謠言等量的辟謠信息與謠言抗衡,建立謠言與反謠言的匹配機制,將信息的正反兩面同時顯示,抑制謠言的影響。
第二,提供具有可靠信息源的辟謠信息。目前來看,這種方法普遍使用,但是一些具體情境下的效果還有待測量,例如,當(dāng)涉及某領(lǐng)域的信任危機時,該領(lǐng)域的權(quán)威信源是否還會產(chǎn)生良好的辟謠效果還有待檢驗。
第三,在辟謠信息的呈現(xiàn)結(jié)構(gòu)上,運用與謠言信息同樣的話語體系,采用用戶熟悉和喜歡的話語方式,用故事等用戶易于理解的表達,都有助于提高用戶對辟謠信息的接受度。
第四,促進用戶參與,鼓勵社交媒體用戶積極、自主駁斥不實信息,并且社交媒體應(yīng)當(dāng)為他們提供辟謠依據(jù)以配合用戶的自主辟謠。這里存在的一個關(guān)鍵問題是如何激發(fā)用戶對辟謠信息的傳播意愿?有研究(Pal等,2019)表明包含三種“顯著信念”的辟謠信息能夠激發(fā)用戶的辟謠信息傳播意愿,這三種“顯著信念”分別為:分享辟謠信息有利于促進真相的傳播,朋友與網(wǎng)絡(luò)社群鼓勵分享辟謠信息的行為,信源可信度高的辟謠信息能夠促進辟謠信息的分享。
最后,需要說明的是,算法和用戶心理都是從微觀角度來探討智能媒體環(huán)境下謠言的應(yīng)對,實際上,謠言是一個“上至國家政策、中至信息生命周期,下至個人心理和行為”的系統(tǒng)性問題,未來如何綜合不同層面的因素來解決這一問題,仍有待更多的研究與探討。