【摘 要】在大數(shù)據(jù)、云計算、物聯(lián)網(wǎng)等技術(shù)的推動下,智能算法進入新聞領(lǐng)域,在新聞生產(chǎn)和分發(fā)方面的作用日益凸顯。本文從智能傳播視角下把關(guān)角色、把關(guān)行為、把關(guān)內(nèi)容和把關(guān)功能的變化,探討智媒時代算法技術(shù)給把關(guān)機制帶來的沖擊,并提出提高算法透明性與公正性,加強人機協(xié)作和完善法律法規(guī)監(jiān)管機制,提高傳播效能,實現(xiàn)多元把關(guān)和信息共享相輔的算法協(xié)同治理。
【關(guān)鍵詞】人工智能;算法;把關(guān)人;新聞業(yè)
【基金項目】本文系2022年山西省高等學(xué)校教學(xué)改革創(chuàng)新項目《基于OBE理念的影視傳媒類實踐教學(xué)評價體系研究》(編號:J20220493)。
互聯(lián)網(wǎng)時代,人人都可以成為信息的發(fā)布者和傳播者。以人工智能技術(shù)為基礎(chǔ)的算法把關(guān)在創(chuàng)新新聞生產(chǎn)與傳播方式的同時,也“入侵”著傳統(tǒng)媒體的新聞把關(guān)領(lǐng)域,新聞把關(guān)的主體有從新聞從業(yè)者變?yōu)樗惴ò殃P(guān)人的趨勢。面對算法把關(guān)可能帶來的新聞?wù)鎸嵭?、算法偏見等問題,有必要對智媒時代的把關(guān)人進行研究和分析,確保算法把關(guān)能更好地服務(wù)新聞業(yè)。
一、 風(fēng)險隱憂:算法技術(shù)對于把關(guān)機制的消解
技術(shù)革新推動新聞業(yè)的一次次變革,互聯(lián)網(wǎng)技術(shù)和人工智能技術(shù)的發(fā)展讓我們進入智媒時代。在新聞把關(guān)領(lǐng)域,傳統(tǒng)的把關(guān)機制遭遇前所未有的沖擊。算法技術(shù)以大數(shù)據(jù)為基礎(chǔ),通過預(yù)先設(shè)定的程序和智能化的學(xué)習(xí)對數(shù)據(jù)進行分類和整合,為人們提供個性化推薦、智能生成等服務(wù),為新聞生產(chǎn)和分發(fā)帶來了便利。但同時,算法黑箱的不透明性,算法推薦下的信息繭房效應(yīng),算法錯誤導(dǎo)致的新聞失范現(xiàn)象等,給傳統(tǒng)媒體的新聞把關(guān)帶來了巨大沖擊和挑戰(zhàn)。
(一)算法不透明性與公正性問題
算法技術(shù)有復(fù)雜的程序邏輯,將其運用到新聞領(lǐng)域,新聞的生產(chǎn)與傳播過程將成為“黑箱”。算法黑箱的形成多是源于算法技術(shù)本身的復(fù)雜性以及媒體機構(gòu)、技術(shù)公司的排他性商業(yè)政策,本質(zhì)在于不透明、不公開、技術(shù)門檻高和難理解。[1]
算法設(shè)計者受利益驅(qū)動和“流量為王”的裹挾,在以數(shù)據(jù)為主導(dǎo)編寫算法程序的過程中難免會將自己的主觀偏見植入,很難做到完全公正。學(xué)者陳昌鳳指出,注意力導(dǎo)向的評價機制,不僅無法使嚴肅新聞戰(zhàn)勝聳動新聞,反而使利益驅(qū)動新聞編輯室,導(dǎo)致新聞生產(chǎn)的質(zhì)量滑坡。[2]
同時,算法根據(jù)用戶畫像和標簽等進行智能推薦,可能引發(fā)算法偏見與歧視。算法推薦需要以大數(shù)據(jù)為基礎(chǔ),而數(shù)據(jù)采集的片面化和虛假性將會阻礙用戶對于不同類型信息的自由選擇,加劇虛假新聞、低質(zhì)新聞的出現(xiàn),也引發(fā)算法歧視。算法歧視是以算法為手段實施的歧視性行為。例如,算法技術(shù)通過采集用戶消費偏好、消費頻率、消費水平等個人數(shù)據(jù),預(yù)判用戶對于某商品的消費意愿,精準設(shè)定定價邊界,以達到區(qū)別定價和“大數(shù)據(jù)殺熟”的目的。
(二) 算法推薦與“過濾氣泡”
算法通過分析海量數(shù)據(jù)形成用戶畫像,并依據(jù)用戶畫像進行個性化推薦。個性化推薦在信息傳播中承擔(dān)過濾和把關(guān)作用。目前個性化推薦主要包括基于內(nèi)容的推薦、協(xié)同過濾推薦、基于標簽的推薦、社會化推薦、基于深度學(xué)習(xí)的推薦、基于知識的推薦、基于網(wǎng)絡(luò)結(jié)構(gòu)的推薦、混合推薦等。[3]
大數(shù)據(jù)時代,各平臺利用算法的個性化推薦技術(shù)迎合用戶興趣愛好,邊緣化其他類型內(nèi)容的推薦,使得用戶在不知不覺中被自己的興趣偏好所束縛,生活在算法推薦造就的“過濾氣泡”之中。[4]
伊萊·帕里策認為“過濾氣泡”以大數(shù)據(jù)與算法推薦為底層架構(gòu),根據(jù)用戶的使用時間、地區(qū)以及瀏覽習(xí)慣生成用戶畫像,并通過算法技術(shù)為其呈現(xiàn)獨一無二的界面體驗。[5]算法推送通過篩選推送同類型內(nèi)容,造成受眾形成單一的信息體系,受眾長期接受算法個性化推送的內(nèi)容,就會被包裹在一個同質(zhì)化信息流構(gòu)成的“過濾氣泡”之中。
由于當(dāng)前算法技術(shù)的不成熟,加上媒體把關(guān)過程中難免會出現(xiàn)漏洞,同質(zhì)化、低質(zhì)內(nèi)容被反復(fù)推送給受眾,產(chǎn)生“過濾氣泡”,造成“信息繭房”。算法根據(jù)受眾關(guān)注度和點擊率等數(shù)據(jù)進行推薦,導(dǎo)致受眾看到的都是自己喜歡看的內(nèi)容。高重復(fù)度的內(nèi)容推送會導(dǎo)致信息窄化,受眾難以接觸不同角度的觀點,逐漸失去自己的思考和判斷能力。長此以往會阻礙個人與群體的發(fā)展,也加大了媒體把關(guān)的難度。
二、角色、行為、內(nèi)容:算法技術(shù)改變把關(guān)機制
在信息傳播領(lǐng)域,把關(guān)人、把關(guān)關(guān)系和傳播機制作為結(jié)構(gòu)性要素共同影響著把關(guān)的效果。步入智媒時代,算法已經(jīng)滲透到社會的方方面面,它作為一種中介,構(gòu)建了數(shù)據(jù)化界面,成為隱性的技術(shù)把關(guān)者。算法技術(shù)作為新的把關(guān)機制之一,對傳統(tǒng)媒體的把關(guān)機制帶來了沖擊與影響,其表現(xiàn)主要有以下幾個方面。
(一) 把關(guān)角色的改變:把關(guān)人的泛化和分散化
隨著技術(shù)的進步,以智能技術(shù)為主導(dǎo)的新型傳播形式正潛移默化地影響人們的生活。由此,新聞把關(guān)人的角色也發(fā)生了變化。在傳統(tǒng)的把關(guān)模式中,把關(guān)人一般由專業(yè)的新聞從業(yè)者和媒體機構(gòu)擔(dān)任,他們掌握著信息獲取、選擇、加工、傳播的權(quán)利。
步入智媒時代,隨著具有全時性、交互性、數(shù)據(jù)化、個性化和智能化等特性的新媒體出現(xiàn),信息傳播與接受者身份的多重性,以及受眾對于信息的需求各異,導(dǎo)致媒體把關(guān)難度增加,把關(guān)人角色泛化和分散化。除了傳統(tǒng)媒體機構(gòu),新聞從業(yè)者、平臺運營人員和審核人員,把關(guān)人角色擴大至“個體把關(guān)人”和“算法把關(guān)人”。其中,算法把關(guān)在把關(guān)機制中發(fā)揮著重要作用。
算法本是建立在海量信息和海量用戶基礎(chǔ)上的匹配技術(shù),通過大數(shù)據(jù)、云計算等實現(xiàn)人的數(shù)據(jù)化,對新聞生產(chǎn)和個性化推送等進行把關(guān)。算法技術(shù)作為信息采集和加工流程的介入者,算法把關(guān)人如同守望者,在“控制大門”(police gates)的同時,需要評估信息的可靠性。[6]例如抖音平臺在審核信息發(fā)布環(huán)節(jié)中,算法對于內(nèi)容(文案、場景)是否搬運,是否涉及違禁詞等進行檢測,對于違反抖音平臺審核規(guī)定的視頻內(nèi)容進行攔截,采取不予發(fā)布及低流量推薦等措施。
但是,隨著算法技術(shù)的介入,把關(guān)人的泛化和分散化,傳統(tǒng)把關(guān)權(quán)利的讓渡帶來了一定風(fēng)險。由于大眾追求獵奇和娛樂心理,經(jīng)他們把關(guān)的內(nèi)容在真實性和可靠性上有待考量,一些低質(zhì)、重復(fù)、虛假信息泛濫。部分平臺為了追求流量,博取熱度和點擊率,甚至放棄把關(guān),給智媒時代的信息傳播秩序帶來了嚴峻挑戰(zhàn)。
(二)把關(guān)行為的改變:把關(guān)行為的多向性和人性化
傳統(tǒng)媒體時代,新聞從業(yè)者需對信息進行取舍,將最有價值的信息呈現(xiàn)給受眾。新聞媒體把關(guān)的標準以是否具有真實性,是否具有新聞價值為主。傳統(tǒng)的把關(guān)行為體現(xiàn)的是“發(fā)出”與“接收”的單向關(guān)系,受眾對于信息的選擇相對比較被動,無法參與信息生產(chǎn)。隨著傳播方式的多元化,把關(guān)行為隨之改變,把關(guān)行為變?yōu)橄嗷ソ豢椀木W(wǎng)狀去中心化的交互方式,出現(xiàn)了人機協(xié)作形式的把關(guān)行為。
在采寫階段,算法把關(guān)能夠快速高效地采集和篩選海量信息,依托大數(shù)據(jù),通過預(yù)先編好的程序生成稿件。機器的高效生產(chǎn)、深度挖掘能力為新聞從業(yè)者的深度報道提供了便利。一方面,算法技術(shù)可以全天候24小時地采集各平臺、各渠道的數(shù)據(jù),擴大信息采集維度,為記者提供新聞線索和數(shù)據(jù)支撐,提升新聞生產(chǎn)的效率。另一方面,算法技術(shù)可以通過用戶分析和選題整合,為媒體提供豐富的資源,拓寬選題的廣度和深度,包括全新報道視角。隨著人工智能技術(shù)的發(fā)展,AI智能寫作將愈發(fā)人性化,為公眾提供更豐富、多樣化、個性化的新聞。
在分發(fā)階段,算法技術(shù)通過用戶畫像等數(shù)據(jù)進行個性化推送,更注重用戶個性化的體驗,增強用戶的黏性。在審核階段,算法把關(guān)對信息進行動態(tài)化、全流程的把關(guān),成為信息核查的主要力量。算法把關(guān)通常根據(jù)傳播反饋的效果和引起的社會影響對已發(fā)布的信息進行監(jiān)測和修正,避免誤導(dǎo)受眾和造成不良影響。
算法技術(shù)使得把關(guān)行為從 “支配”到“迎合”,受眾的主體地位逐漸上升。但需要注意的是,當(dāng)前的算法把關(guān)的人性化機制尚不成熟,存在過度關(guān)注受眾個性化需求而弱化新聞價值的現(xiàn)象,相關(guān)部門需要加大對算法風(fēng)險的防范。
(三) 把關(guān)內(nèi)容的改變:把關(guān)內(nèi)容的碎片化和去語境化
傳統(tǒng)媒體時代,媒體的報道方式以及力度影響著受眾對事件的知曉和關(guān)注程度。而進入智媒時代,媒體議程設(shè)置功能被削弱,在海量信息中,大量碎片化的冗余信息分散受眾的注意力,算法技術(shù)對內(nèi)容的把關(guān)有著重要作用。算法技術(shù)對于內(nèi)容的把關(guān)體現(xiàn)在內(nèi)容分發(fā)和內(nèi)容審查兩個方面。
算法把關(guān)存在內(nèi)容分發(fā)機制。一方面,算法基于個性化推薦技術(shù)篩選用戶感興趣的信息和優(yōu)質(zhì)內(nèi)容進行推薦。算法通過用戶的性別、地域、年齡、常看的內(nèi)容等數(shù)據(jù)進行整理分類,并貼上不同的標簽,根據(jù)匹配度將信息推送給合適的人群,完成個性化推薦。另一方面,算法技術(shù)通過數(shù)據(jù)分析整合熱門內(nèi)容,進入新一輪的精品推薦,篩選出點贊量多、完播率高、評論互動性強的內(nèi)容進行推薦。例如,抖音平臺創(chuàng)作者中心將完播率、評論率、轉(zhuǎn)發(fā)率、點贊率作為用戶創(chuàng)作的視頻內(nèi)容是否能進入更高的流量池的參考標準。
算法把關(guān)存在內(nèi)容審查機制。大眾傳播時代受眾具有多、雜、散、匿的特點,由于媒介素養(yǎng)參差不齊,傳播目的不同等導(dǎo)致他們所創(chuàng)作的內(nèi)容質(zhì)量不一,部分包含低俗信息,存在為博取流量或為達到商業(yè)目的的營銷內(nèi)容。在碎片化閱讀時代,受眾在接收信息過程中對于新聞信息的來龍去脈缺乏判斷和深入的了解意識。網(wǎng)絡(luò)中充斥著各種“斷章取義”的信息,增加了把關(guān)的難度。
同時,算法基于用戶畫像、熱度排行榜等推薦機制,也將受眾困在算法所搭建的信息繭房中。智能平臺的內(nèi)容分發(fā)模式說明,信息的選擇和用戶的需求有關(guān)。無論是對商品信息還是新聞信息的獲取,都是由算法驅(qū)動下的機器完成,算法成為信息內(nèi)容過濾和發(fā)放的重要因素,決定著各類信息的去向。長此以往,受眾將自己桎梏于算法編織的“繭房”之中。
三、規(guī)制算法:智媒時代內(nèi)容生產(chǎn)把關(guān)機制的重構(gòu)
算法并非“孤立的代碼”,而是傳播實踐場域中不可分割的一部分。[7]算法技術(shù)在運用過程中所帶來的風(fēng)險,對把關(guān)機制帶來了一系列沖擊。面對算法透明性與公正性、算法個性化推薦產(chǎn)生的“過濾氣泡”及算法錯誤導(dǎo)致的法律與倫理失范等困境,算法設(shè)計者及相關(guān)部門應(yīng)該有的放矢地進行防范。
(一)優(yōu)化算法設(shè)計,提高算法的透明性與公正性
20 世紀 90 年代以來“透明性”原則成為新聞倫理的首要原則。這一原則由信息披露透明、參與透明兩個部分組成。[8]一方面,對于人工智能平臺算法技術(shù)的運用范圍、參數(shù)報備與法律備案等要做到公開透明,在算法技術(shù)投入使用之前,要經(jīng)過相關(guān)監(jiān)管部門的審查,并出具相應(yīng)的審查結(jié)果和意見證明。對于通過審查的算法產(chǎn)品,可到相關(guān)管理部門報備參數(shù)和基本信息錄入,便于后續(xù)投入使用階段的核查。做到分清責(zé)任主體,信息公開透明。
另一方面,算法設(shè)計者應(yīng)當(dāng)優(yōu)化和完善對于算法推薦機制的程序設(shè)計,避免引發(fā)受眾的厭倦情緒,減少同質(zhì)化內(nèi)容推薦。在設(shè)計算法程序過程中應(yīng)保持公正,減少個人主觀情緒對于算法設(shè)計的干擾,以免造成算法程序的偏差。同時,在算法技術(shù)投入使用的過程中,要揭示人工智能平臺算法風(fēng)險信息,以事先做出預(yù)判性的應(yīng)對措施。
此外,要注意算法的人性化,能準確了解受眾的喜好和需求,打破信息繭房帶來的束縛。不斷優(yōu)化算法設(shè)計,增強信息真實性的識別。政府和企業(yè)也應(yīng)該公開與算法相關(guān)的數(shù)據(jù),做到過程的公開透明,增強受眾對于算法的信任。
(二)加強人機協(xié)作,實現(xiàn)優(yōu)勢互補
目前,人機協(xié)同下信息采集和審核已實現(xiàn)智能化,機器成為信息核查的輔助力量,也可能帶來信息核查的新思路與新機制,包括來源分析、模式識別、技術(shù)鑒定、交叉驗證、演變跟蹤等。[9]人機協(xié)同成為新聞生產(chǎn)和傳播的新趨勢。
由于算法技術(shù)帶來的碎片化信息的重組,去語境化的內(nèi)容制作,容易引發(fā)受眾對新聞事件的理解和態(tài)度的誤解,所以,智媒時代更要注重發(fā)揮新聞編輯的價值,讓編輯的把關(guān)作用煥發(fā)新的內(nèi)涵。
人工智能快速發(fā)展,智能技術(shù)在寫作等領(lǐng)域的廣泛運用,新聞編輯要利用新聞倫理約束算法技術(shù),警惕算法技術(shù)在智能生成和分發(fā)方面的潛在風(fēng)險,發(fā)揮監(jiān)督與協(xié)作技術(shù)在新聞業(yè)的作用。
加強人機協(xié)作,必須明確即使未來算法技術(shù)不斷優(yōu)化升級,人依然作為決策主體。新聞從業(yè)者要充分發(fā)揮質(zhì)疑精神和批判思維的作用,創(chuàng)新算法在新聞生產(chǎn)和分發(fā)方面的應(yīng)用,推動人工智能技術(shù)的發(fā)展和應(yīng)用。
(三)推動多元信息傳播與價值認同,減少偏見與歧視
推動多元信息傳播與價值認同,對于減少算法偏見有重要意義。由于算法的個性化推薦機制,人們逐漸接收單一的信息,不利于從多個角度對信息加以判斷,形成價值認同。算法設(shè)計者在編寫程序時難免會帶有偏見,在一定程度上阻礙了信息的客觀傳遞。同時,個體無法了解和掌握其他用戶的信息數(shù)據(jù),使得用戶深陷算法歧視囹圄卻不自知。因此,要減少算法技術(shù)帶來的偏見和歧視,需要推動和倡導(dǎo)多元價值,建立健全信息傳播機制,打破信息壁壘;需要加強人機協(xié)作,建立多層次把關(guān)機制,并在算法決策過程中對數(shù)據(jù)進行校驗和修正,減少算法偏見問題的出現(xiàn),促進多元信息傳播與價值認同的形成。
(四)健全算法把關(guān)的監(jiān)管機制和相關(guān)法律法規(guī)
隨著科技的發(fā)展,人們被逐漸“數(shù)據(jù)化”,社會管理逐漸依賴大數(shù)據(jù)與各類智能程序的運用,算法技術(shù)是推動人工智能發(fā)展的核心要素。有效規(guī)制算法權(quán)利就要對其作出系統(tǒng)、準確的規(guī)定,讓法律法規(guī)覆蓋算法技術(shù)運用的各個方面。監(jiān)管部門要重視對算法技術(shù)數(shù)據(jù)采集程序和內(nèi)容的監(jiān)管,對網(wǎng)絡(luò)財產(chǎn)保護等作出相應(yīng)的規(guī)定。
相關(guān)企業(yè)要完善數(shù)據(jù)安全保障機制,避免因數(shù)據(jù)缺失或不準確引發(fā)算法歧視和算法錯誤問題,定期進行數(shù)據(jù)安全風(fēng)險評估。算法設(shè)計者要加強媒介素養(yǎng)和職業(yè)道德建設(shè),學(xué)習(xí)相關(guān)法律法規(guī),減少自身偏見對算法程序設(shè)計的影響。
政府和相關(guān)部門要健全有關(guān)算法權(quán)利的法律條例,明確算法歧視和算法錯誤的責(zé)任主體,保護個人隱私。例如《通用數(shù)據(jù)保護條例》,加強對個人隱私數(shù)據(jù)的規(guī)范和保護;《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,對“大數(shù)據(jù)殺熟”等問題作出相關(guān)規(guī)定。
四、 結(jié)語
人工智能的發(fā)展推動新聞傳播領(lǐng)域的技術(shù)革新,在算法技術(shù)主導(dǎo)的新聞生產(chǎn)和傳播過程中,海量的信息內(nèi)容帶來的碎片化傳播,個性化推薦技術(shù)引發(fā)的“過濾氣泡”和“信息繭房”,讓受眾疲于在復(fù)雜的新聞環(huán)境中尋找自己真正需要的內(nèi)容。同時,算法黑箱引發(fā)的透明性與公正性問題,生成式新聞面臨的倫理失范和責(zé)任推諉等問題影響著人們的日常生活。
未來,隨著算法技術(shù)的不斷發(fā)展和深入,我們應(yīng)當(dāng)把握和利用好算法技術(shù),加強人機協(xié)作,生產(chǎn)真實、客觀、有價值的高質(zhì)量新聞。同時,建立更加完善的法律法規(guī),保障算法技術(shù)的應(yīng)用和發(fā)展。
注釋:
[1]劉耀華.治理算法黑箱:建構(gòu)算法科技與新聞倫理的道德智能體[J].大眾文藝,2023(18):59-61.
[2]陳昌鳳,師文.個性化新聞推薦算法的技術(shù)解讀與價值探討[J].中國編輯,2018(10):9-14.
[3]彭蘭.算法社會的“囚徒”風(fēng)險[J].全球傳媒學(xué)刊,2021(01):3-18.
[4]劉維.移動短視頻內(nèi)容把關(guān)模式研究[D].西南大學(xué),2019.
[5]El.Pariser. The Filter Bubble: What ther from You[M]. Penguin Press .Internet is Hiding,2011:3-12.
[6][7]袁映雪,陳虹.把關(guān)人視角下的算法技術(shù)認知與治理出路研究[J].新媒體與社會,2022(01):220-233.
[8]劉斌.技術(shù)與倫理的沖突與融合——算法新聞時代新聞倫理重構(gòu)及對策[J].西南民族大學(xué)學(xué)報(人文社會科學(xué)版),2022,43(03):135-143.
[9]彭蘭.從ChatGPT透視智能傳播與人機關(guān)系的全景及前景[J].新聞大學(xué),2023(04):1-16+119.
(作者單位:山西師范大學(xué))
責(zé)編:姚少寶