徐霄揚 黃鎮(zhèn)如
摘?要:算法重構(gòu)了新聞生產(chǎn)的流程,極大地提升了新聞的生產(chǎn)效率,但作為一個正在進化完善中的新生媒介,算法新聞誘發(fā)的認知風險也不容忽視。價值有偏內(nèi)容引發(fā)的認知失調(diào)、算法黑箱導致的媒介信任缺失、虛假新聞自動化生成誘發(fā)的確認偏誤增強、過濾氣泡助推的輿論極化、隱私泄露產(chǎn)生的數(shù)字孿生公開,均是當前算法新聞領域已被確證存在的認知風險。在防范算法認知偏向的過程中,技術(shù)、法律和倫理的多維治理路徑為我們提供了重要啟示?;厥账惴ò殃P(guān)權(quán)限,確保人在新聞生產(chǎn)中的核心作用,是維護新聞質(zhì)量的關(guān)鍵。將風險感知、社會責任和倫理規(guī)范編碼進算法,是預防和減少算法偏差的有效途徑。構(gòu)建算法透明機制,提高算法的可解釋性,是增強公眾信任和監(jiān)管機構(gòu)有效保證監(jiān)督的基礎。
關(guān)鍵詞:算法新聞;認知風險;風險防范
中圖分類號:G210 ?????文獻標識碼:A????文章編號:1001-4225(2023)12-0033-09
引 ?言
習近平總書記2019年在《求是》雜志發(fā)表的重要文章中指出:“要探索將人工智能運用在新聞采集、生產(chǎn)、分發(fā)、接收、反饋中,全面提高輿論引導能力”。同年,習近平總書記提出了“全程媒體、全息媒體、全員媒體、全效媒體”的建設方案。這“四全”媒體成為我國智能媒體發(fā)展的指導目標。十九大報告中提出我國要“推動互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能和實體經(jīng)濟深度融合”。近年來,傳媒業(yè)作為我國與人工智能技術(shù)深度融合的風口,在“四全”媒體的頂層設計目標指導下,高速向智能化轉(zhuǎn)型,傳媒業(yè)的發(fā)展已步入“智媒時代”。
人工智能已成為了新一輪科技和產(chǎn)業(yè)革命的主要驅(qū)動力,對政治、經(jīng)濟、社會發(fā)展等多個領域產(chǎn)生了深遠的影響。在這一背景下,作為傳媒業(yè)人工智能應用的代表,基于大數(shù)據(jù)的自動化算法新聞生產(chǎn)及分發(fā)模式日趨成熟?!八惴ㄐ侣劇保ˋlgorithmic Journalism)是運用算法自動生產(chǎn)新聞并實現(xiàn)傳播的方法或系統(tǒng),包括采、寫、編、審、發(fā)、饋等業(yè)務的自動化實現(xiàn)。算法已由純粹的生產(chǎn)工具逐漸轉(zhuǎn)變,獲得了信息生產(chǎn)者的屬性。算法極大地擴展了媒體資訊的寬度和廣度,簡化了新聞生產(chǎn)的流程,豐富了受眾的信息個性化體驗。
然而,將內(nèi)容生產(chǎn)的權(quán)利讓渡給算法這一行為,自其誕生之初就伴隨質(zhì)疑。虛假新聞、錯誤認知導向可以出自人之手,同樣也可由機器生成。2016年Facebook宣布裁撤人工內(nèi)容編輯部門,將編輯權(quán)利讓渡給算法,并聲稱此做法是為保證媒體內(nèi)容的客觀及中立。但裁撤人工編輯后,F(xiàn)acebook平臺內(nèi)容的可信性及中立性不升反降。其在美國各類政治事件中的偏見及虛假新聞的傳播引起了廣泛的爭議。隨著算法在新聞生產(chǎn)全流程的應用,相關(guān)的認知風險及其治理問題也日益凸顯。
皮尤研究中心關(guān)于公眾對計算機算法的態(tài)度報告指出,58%的人認為包括新聞生成在內(nèi)的算法存在偏見,會誘發(fā)公眾的負面認知偏向[1]。算法新聞越多,人們了解真相的難度就越大。自動化內(nèi)容在政治、種族等方面的認知偏見引起了公眾的擔憂。算法內(nèi)生性的認知偏見可能源于資本介入,也可能源于其“學習”的樣本自身存在的社會結(jié)構(gòu)性認知問題。這種向偏見內(nèi)容“學習”的算法,生成的內(nèi)容本身也帶有不良的認知導向,且此類內(nèi)容又會被進一步“學習”。認知偏見的循環(huán)容易形成算法信息對真實有機世界的遮蔽。其自動化、個性化快速生產(chǎn)的特性,使其能快速占據(jù)受眾的認知渠道,從而將錯誤的內(nèi)容傳播到公眾的大腦中,影響其對世界的真實認知。
現(xiàn)有算法新聞的研究大多著眼于自動化對業(yè)界的影響。學界已意識到算法的認知風險,但相關(guān)防范機制研究仍不足?,F(xiàn)有研究也較少從認知角度出發(fā)探究算法新聞的心理影響,更多集中在可讀性缺陷的規(guī)避和可信度的檢驗上。
在新時代“四全”媒體的目標指引下,算法新聞是我國傳媒業(yè)在智媒時代必然要大力推廣的技術(shù),保證算法新聞能為受眾所接受,保證其正確的認知導向,是提升我國新聞傳播能力建設的重要舉措。且由于算法新聞存在較高的認知風險,其防范研究也是大面積應用須解決的問題。因而基于新時代的傳播環(huán)境和前沿的傳媒人工智能進展,關(guān)注算法新聞的受眾認知和風險因素,并依此開展認知偏向防范研究,是保證這項技術(shù)健康地服務于“四全”媒體建設的題中之意。
一、算法與新聞生產(chǎn)
(一)算法新聞的源起
算法新聞,又稱自動化新聞、機器人新聞,是使用人工智能算法自動完成新聞生產(chǎn)并實現(xiàn)媒介運營的過程、方法或系統(tǒng),它涵蓋了信息內(nèi)容采集、存儲、寫作、編輯、呈現(xiàn)及數(shù)據(jù)分析等新聞業(yè)務的自動化實現(xiàn)[2]。算法新聞的發(fā)展歷史見證著新聞產(chǎn)業(yè)從傳統(tǒng)手工作坊式生產(chǎn)逐步向自動化、智能化的轉(zhuǎn)變。算法新聞的起源可以追溯到20世紀90年代末,算法開始被應用于新聞的聚合與生產(chǎn)領域。當時的自動新聞生成系統(tǒng)主要基于模板填充技術(shù)。這種自動化寫作技術(shù)使得一些標準化的新聞報道,如財經(jīng)報告和體育新聞,可以實現(xiàn)快速自動生成。這種自動化不僅提高了新聞生產(chǎn)的速度和效率,也使得新聞機構(gòu)能夠覆蓋更多的新聞事件,尤其是在數(shù)據(jù)密集型的報道領域。進入21世紀,隨著大數(shù)據(jù)和機器學習技術(shù)的發(fā)展,算法新聞開始融入更復雜的數(shù)據(jù)處理和自然語言生成技術(shù),生成內(nèi)容不再限于財經(jīng)和體育等可模板化領域。其開始在新聞選題、編輯甚至專業(yè)寫作過程中發(fā)揮作用。Appelman等指出,算法新聞的興起改變了新聞的工作流程,使得新聞生產(chǎn)更加自動化和數(shù)據(jù)驅(qū)動化[3]。國內(nèi)學者也強調(diào)了算法重構(gòu)了新聞的生產(chǎn)流程[4]。新華社研發(fā)的“媒體大腦”就是人工智能在我國權(quán)威媒體應用的代表,其具備了專業(yè)化新聞內(nèi)容的自動生產(chǎn)、智能分發(fā)與實時監(jiān)測能力,實現(xiàn)了智能化的算法新聞生產(chǎn)與傳播反饋。
(二)算法對于新聞生產(chǎn)流程的重構(gòu)
算法對新聞生產(chǎn)流程的重構(gòu)體現(xiàn)在多個方面。首先,算法使新聞選題更加依賴于數(shù)據(jù)分析,算法可根據(jù)用戶興趣和行為模式來預測和選擇新聞內(nèi)容。其次,融合了自然語言生成技術(shù),算法可自動生成一些非標準化的新聞報道,大大提高了生產(chǎn)效率。算法還影響了新聞的編輯和校對,新聞機構(gòu)開始利用自然語言處理技術(shù)來檢查語法錯誤和事實準確性。算法使得新聞生產(chǎn)過程更加高效,能夠快速響應社會事件和用戶需求,減少了對傳統(tǒng)記者和編輯的依賴,使得新聞報道更加迅速和廣泛。此外,算法個性化推薦系統(tǒng)能夠根據(jù)用戶的閱讀習慣和偏好來推送新聞,從而增強用戶體驗。張洪忠等指出,算法新聞正在重塑新聞生產(chǎn)與消費的關(guān)系,使得新聞生產(chǎn)更加以用戶為中心[5]。
目前領域內(nèi)的研究主要著眼于大數(shù)據(jù)與算法的深入應用對傳統(tǒng)新聞生產(chǎn)的沖擊與形塑。范紅霞等指出,算法為新聞業(yè)帶來的變革主要體現(xiàn)在:傳播語境的轉(zhuǎn)換、算法改變公共輿論、過濾氣泡及社會隱喻的轉(zhuǎn)換四個方面[6]。新聞的生產(chǎn)模式在算法的影響下變更為“閉環(huán)新聞生產(chǎn)”[7],這可能意味著國內(nèi)整個新聞產(chǎn)業(yè)的破格重生[8]。且這種影響已經(jīng)不僅停留在新聞生產(chǎn)層面,相關(guān)影響會通過智能化媒介及算法生成的媒介內(nèi)容滲透到人類生活和社會發(fā)展的各個層面。
新聞傳媒業(yè)界對于算法新聞的思考更多著眼于算法對于傳統(tǒng)媒體中人的功能的替代與形塑。何天平認為寫稿機器人的出現(xiàn)和應用,模糊了新媒體和傳統(tǒng)媒體的邊界,記者與編輯這類“人”的存在問題是智能化沖擊中的焦點[9]?;诿襟w中權(quán)力轉(zhuǎn)換與讓渡的視角,ScottLash提出“在一個媒介和代碼無處不在的社會,權(quán)力越來越存在于算法之中”[10]。喻國明提出“算法即權(quán)力”,由于算法的存在,在新聞線索的獲取中,信息權(quán)已彌散;在新聞寫作與編輯中,算法已收編了把關(guān)權(quán)力;在新聞事實核查上,算法通過非制度性權(quán)力來構(gòu)建“社會共識”[11]。彭蘭認為未來的媒體社會中,雖然智能算法的地位會繼續(xù)升高,“流行”于各類專業(yè)領域,但“人的價值比算法更為重要”[12]。無論從何種角度,算法對于新聞業(yè)的形塑已不可阻擋。
二、“進化”中的算法新聞
保羅·利文森的補救性媒介理論以及媒介進化三階段理論為我們提供了一個理解媒介發(fā)展的框架,強調(diào)了媒介演進是一個不斷進化和被補救的過程[13]。在這一視角下,每一種新興媒介的出現(xiàn)都不是終結(jié),而是媒介演化史上的一個節(jié)點,它繼承了前一代媒介的優(yōu)點,并針對其局限性進行了改進和優(yōu)化。這一過程中,人類的主觀能動性和對媒介的控制力發(fā)揮了至關(guān)重要的作用。
算法新聞作為新聞傳播領域的新興媒介形式,其發(fā)展歷程體現(xiàn)了補救性媒介理論的核心觀點。算法新聞的起源可以追溯到精準新聞、計算機輔助新聞和數(shù)據(jù)新聞,這些前身媒介在信息收集、處理和傳播方面奠定了基礎。從精準新聞到算法新聞的發(fā)展過程,也是人類不斷發(fā)展的信息技術(shù)與媒介技術(shù)對于新聞媒介的修正過程。精準新聞強調(diào)以客觀數(shù)據(jù)為基礎進行新聞報道,計算機輔助新聞和數(shù)據(jù)新聞則利用技術(shù)手段提高新聞生產(chǎn)的效率和精確度。算法新聞在繼承這些優(yōu)勢的同時,也致力于補足前序媒介專業(yè)門檻高、生產(chǎn)效率相對低下的缺點,實現(xiàn)了新聞內(nèi)容生產(chǎn)的半自動化甚至全自動化,極大地提高了新聞的生產(chǎn)效率和分發(fā)速度。
然而,隨著算法應用的高速落地,算法新聞在實踐中也逐漸暴露出其內(nèi)在的缺陷,其仍然是一個需要“進化”和被“補救”的媒介形式。盡管算法新聞繼承了精準新聞的“真實”“客觀”和“科學”的特性,但在算法的加持下,這些特性變得難以驗證。例如,F(xiàn)acebook聲稱為了內(nèi)容的客觀中立而放棄人工編輯,但實際上卻陷入了認知傾向和政治議題的偏見爭議。
自動化的算法新聞生產(chǎn)過程中,新聞內(nèi)容的偏見及對認知產(chǎn)生的不良影響并未得到根本解決,反而因為算法的介入而變得更加隱蔽。算法新聞的生產(chǎn)過程中缺乏人為監(jiān)督和干預,使得潛在的歧視和認知偏見得以隱藏在算法的復雜性之后,不易被發(fā)現(xiàn)和糾正。這不僅對新聞的客觀性和公正性構(gòu)成了風險威脅,也對社會的價值觀和意識形態(tài)產(chǎn)生了深遠的影響。
在傳播學領域,對于算法認知風險的討論可追溯到1996年。Friedman等在探討計算機中的偏見問題時指出,技術(shù)并非價值中立,算法作為技術(shù)的一種表現(xiàn)形式,不可避免地會反映出其設計者的認知傾向。換言之,人類的認知偏見和價值觀念可能通過算法,以多種形式滲透到應用層面[14]。這一觀點挑戰(zhàn)了技術(shù)決定論的假設,強調(diào)了技術(shù)與社會價值間的互動關(guān)系。
在不同的商業(yè)或政治目的驅(qū)動下,各類算法內(nèi)容生產(chǎn)與分發(fā)平臺的運營者可能會在其算法中主動嵌入特定的認知傾向。這種行為直接影響著信息的篩選、組織和呈現(xiàn)方式。除了算法的發(fā)明者,使用者的立場和偏好也在算法偏見的形成中扮演著重要角色。使用者的互動行為、反饋模式和選擇傾向可能會在算法學習過程中被捕捉并加以利用,從而在一定程度上塑造算法的輸出結(jié)果。
根據(jù)Friedman的分類,機器中的認知偏見可以分為三種類型:“先在偏見”“技術(shù)偏見”和“突發(fā)偏見”[14]。先在偏見源自于社會現(xiàn)有的結(jié)構(gòu)和制度,它可能在算法的發(fā)明者和使用者都不自知的情況下,被內(nèi)化到算法中。這種認知偏見通常與社會文化背景緊密相關(guān),反映了廣泛存在的權(quán)力結(jié)構(gòu)和社會不平等。技術(shù)偏見則更多地體現(xiàn)在算法設計者或使用者在技術(shù)層面上設定的限制,是有意為之的,直接將特定的認知取向植入算法中。算法會因為設計者的主觀判斷而被編程以優(yōu)先考慮某些類型的信息,或者在處理數(shù)據(jù)時有意忽略某些群體的聲音。突發(fā)偏見則是由算法使用的社會環(huán)境變化所引起的,這種偏見與社會認知、價值取向和文化品位的變化密切相關(guān)。隨著社會環(huán)境的演變,人們的期望和需求也在不斷變化,這要求算法能夠適應這些變化,以避免產(chǎn)生不公平或不恰當?shù)妮敵?。然而,算法的更新和調(diào)整往往滯后于社會變遷,這可能導致算法在新情境下的不適應性,從而產(chǎn)生突發(fā)偏見。
作為新生媒介的算法新聞,其不斷的“進化”過程,就是其認知風險的排除過程,無論這類風險是先在的、技術(shù)的還是突發(fā)的,都會影響受眾對于真實世界的認知。
三、算法新聞的認知風險
在探討算法新聞的潛在認知風險時,學術(shù)界普遍采用了理論演繹的方法,構(gòu)建了綜合性的假設框架。董天策等通過隱私權(quán)、技術(shù)倫理和認知價值取向三個維度,系統(tǒng)地識別了算法新聞的風險要素[15]。鄧建國強調(diào)算法新聞的風險主要體現(xiàn)在新聞價值的缺失、算法錯誤可能導致的廣泛影響、算法新聞生產(chǎn)過程中的不透明性,以及算法新聞質(zhì)量與社會數(shù)據(jù)化水平的正相關(guān)性[16]。陸新蕾從算法偏見、信息傳播的狹窄化、新聞價值的異化等角度,分析了算法技術(shù)存在的認知風險[17]。具體而言,目前關(guān)于算法新聞的認知風險,學界主要從有偏的價值導向、算法黑箱、虛假新聞、過濾氣泡及隱私泄露幾方面展開討論:
(一)有偏導向與認知失調(diào)
在社會主義核心價值觀的涵育之下,公眾普遍形成了一套主流的核心價值體系。從認知失調(diào)理論的視角,帶有錯誤價值偏向的新聞會引起大眾的認知失調(diào)[18]。這是因為其挑戰(zhàn)了人們現(xiàn)有的認知體系,迫使人們在保持心理平衡和接受新信息之間做出選擇。這種選擇過程會導致受眾認知結(jié)構(gòu)的改變、信息的選擇性接受或?qū)π畔⒃吹闹匦略u估,從而在個體和社會層面產(chǎn)生廣泛的影響。
算法新聞的開發(fā)者普遍強調(diào)算法的中立與無偏,但現(xiàn)有的大規(guī)模算法應用不斷誘發(fā)著認知偏向風險的爭論。人為操控的機器學習模型,在學習了有偏的訓練數(shù)據(jù)后自動生成的內(nèi)容必難以達到中立與客觀的標準。這成為了算法新聞認知風險中對社會潛在危害最大的一點。錯誤的價值導向若在算法的掩護下被高效且精準地傳播,必然引起負面的社會意識反響。
周葆華等關(guān)注算法新聞的價值取向,認為新聞的核心任務是滿足受眾的認知需求而非欲求,算法新聞在迎合用戶興趣和需求、優(yōu)化信息匹配的同時,可能帶來信息質(zhì)量下降的風險[19]。陳昌鳳從價值導向角度出發(fā),認為基于內(nèi)容的推薦算法傾向于迎合用戶偏好,而非進行教育或引導,鑒于新聞產(chǎn)品的社會功能,大眾媒體應超越娛樂,承擔起更廣泛的社會責任,這要求對算法價值觀進行人文價值的外部調(diào)整[20]。王海燕關(guān)于數(shù)字新聞時間性的研究指出,過分強調(diào)技術(shù)和速度可能會削弱新聞的權(quán)威性和社會合理性,而算法新聞作為一種強調(diào)時效性的技術(shù),其廣泛應用對新聞權(quán)威價值導向和社會正當性構(gòu)成了潛在挑戰(zhàn)[21]。
(二)算法黑箱與媒介信任
從工作原理上看,算法是基于一系列復雜的數(shù)學模型和編程指令來處理數(shù)據(jù)并做出決策的。但這些決策過程對于新聞受眾來說往往是不可見的,受眾在接觸算法生成的新聞內(nèi)容時,往往難以理解背后的機制和邏輯,這種“黑箱”特性增加了受眾對算法新聞的不信任感[22]。
對于新聞受眾而言,算法不僅是一個技術(shù)工具,更是一個價值判斷的主體。算法根據(jù)用戶的歷史行為數(shù)據(jù),如點擊、瀏覽和分享等,來預測用戶的偏好,并據(jù)此調(diào)整新聞內(nèi)容的生成和推薦。然而,受眾通常無法獲知算法是如何分析這些數(shù)據(jù)的,也不清楚算法在內(nèi)容推薦中所采用的具體標準和權(quán)重。這種信息的不對稱性使得受眾在面對算法新聞時感到無力和困惑。
此外,算法新聞的不透明度還可能導致受眾對新聞機構(gòu)的不信任。當受眾無法理解新聞是如何被生成和篩選的時候,他們可能會懷疑新聞機構(gòu)是否在背后操縱信息,以服務于特定的目的。這種懷疑不僅損害了新聞機構(gòu)的公信力,也對社會的信息環(huán)境造成了負面影響。
算法的高不透明度和低解釋性是受眾普遍可感的風險因素。在新聞領域,公信力是新聞機構(gòu)生存和發(fā)展的基石。如果受眾對算法新聞的生成過程缺乏信任,那么無論算法多么高效和精準,都難以實現(xiàn)其應有的社會功能。
(三)虛假新聞與確認偏誤
受眾在處理信息時存在確認偏誤,即傾向于偏好、尋找、解釋和記憶那些與自己現(xiàn)有信念相一致的信息,同時忽視或貶低與之相悖的信息的現(xiàn)象。這種認知偏差普遍存在于人類的決策和判斷過程中,影響著個體對新信息的接受和處理。虛假新聞往往利用這一點,通過提供符合特定群體信念的信息來獲得信任和傳播。
算法新聞的興起為信息傳播帶來了革命性的變化,但其自動化特性也引發(fā)了關(guān)于內(nèi)容真實性的深刻擔憂。張志安等提出,算法新聞在揭示事件深層真相及提供深度現(xiàn)實解析方面存在局限。相較之下,人類在事實甄別與復雜邏輯推理方面具有獨特價值,這不僅體現(xiàn)了記者的創(chuàng)造性,也突顯了算法所缺乏的人類特質(zhì),間接批判了算法新聞生產(chǎn)過程中價值異化的現(xiàn)象[23]。Allcott等的研究發(fā)現(xiàn),算法新聞的自動化生產(chǎn)和分發(fā)機制降低了假新聞生成和傳播的門檻,使得虛假信息能夠迅速在網(wǎng)絡空間擴散。這種傳播方式不僅損害了新聞的公信力,也可能被外部群體利用,通過干預信息流動來影響公共輿論[24]。
在算法新聞的運作過程中,由于缺乏主觀能動性,算法本身無法對新聞內(nèi)容的真實性進行判斷和篩選。正如Anderson所指出的,算法僅僅是按照預設的程序和規(guī)則執(zhí)行任務,它無法主動提升新聞內(nèi)容的質(zhì)量,也難以識別和過濾掉假新聞[25]。但算法新聞能夠根據(jù)用戶的閱讀習慣和偏好提供個性化的新聞推薦,助推了受眾確認偏誤的形成與鞏固。這種局限性意味著,它在無法保證推薦內(nèi)容的質(zhì)量和真實性的情況下,就把符合受眾偏好的信息展示在受眾面前,很可能導致受眾對真實世界的認知產(chǎn)生偏差。虛假新聞與確認偏誤之間存在相互作用。虛假新聞可以引起或增強受眾的確認偏誤,而確認偏誤又可能導致虛假新聞的接受和再傳播。
(四)過濾氣泡與輿論極化
在算法對于新聞生產(chǎn)流程的影響研究中,算法帶來的智能化的精準分發(fā)是被討論最多的議題。過濾氣泡、信息繭房與回音室效應都是在討論算法重塑新聞分發(fā)過程時常被提及的概念。這些現(xiàn)象共同描繪了一個信息分發(fā)的圖景,其中個性化推薦算法可能導致用戶僅被投放與其現(xiàn)有觀點相一致的信息,從而形成了過濾氣泡。這種現(xiàn)象不僅限制了用戶的信息接觸范圍,也可能導致公眾對現(xiàn)實世界的片面理解。
隨著移動互聯(lián)網(wǎng)和智能設備的普及,新聞消費行為逐漸向移動端遷移。各類新聞應用程序通過收集用戶的信息偏好、生理節(jié)律等數(shù)據(jù),構(gòu)建了更為精準的用戶畫像。這些數(shù)據(jù)使得算法能夠更精確地推送符合用戶興趣和偏好的新聞內(nèi)容,從而在一定程度上滿足了用戶的個性化需求。然而,這種個性化服務的另一面是加劇了過濾氣泡效應[26]。用戶在不知不覺中被限制在一個狹窄的信息空間內(nèi),缺乏對不同觀點和信息的接觸,為輿論極化提供了土壤。回音室效應是過濾氣泡效應的延伸,算法助推生成了一個相對封閉的信息環(huán)境,其中相似的觀點和信念不斷被重復和加強。在這樣的環(huán)境中,受眾被同類信息所包圍,異質(zhì)性觀點難以進入,從而導致用戶的認知和態(tài)度進一步極化。這種環(huán)境不僅會使個體的態(tài)度、信念和決策變得更加極端,也可能在更廣泛的社會層面上引發(fā)問題,如社會分裂和極端主義思想的滋生。
(五)隱私泄露與數(shù)字孿生
從算法新聞的隱私風險角度,其自動化內(nèi)容生產(chǎn)和分發(fā)的技術(shù)架構(gòu),依賴于大規(guī)模數(shù)據(jù)集內(nèi)的用戶畫像和新聞資訊接觸數(shù)據(jù)。各個終端制造商及媒體服務平臺均建有收集用戶數(shù)據(jù)的數(shù)據(jù)庫,其中詳盡記錄了用戶的個人信息及網(wǎng)絡活動,包括性別和年齡等人口學信息、受眾主動的偏好設置、被動的信息偏好模式、消費習慣、其他行為模式和生理節(jié)律等,這類信息收集行為,在現(xiàn)實意義上生成了用戶的“數(shù)字孿生”。這一方面為算法新聞的生成提供了基礎素材,并精確定位了推送信息的目標受眾。另一方面,這些詳盡的個人信息,特別是過往內(nèi)隱性的心理信息,通過數(shù)字孿生變?yōu)榭蓽y量、可計算、可復制和可利用的外顯信息,這對個人隱私權(quán)構(gòu)成了新的威脅。
跨國互聯(lián)網(wǎng)巨頭如Google、Facebook以及國內(nèi)的阿里及騰訊,由于其龐大的用戶基數(shù),掌握了海量的用戶網(wǎng)絡行為數(shù)據(jù),這些數(shù)據(jù)匯聚成可供算法分析的大數(shù)據(jù)資源。用戶在使用網(wǎng)絡服務,即是在不斷地貢獻數(shù)據(jù),同時也在無形中暴露了個人隱私。在平臺服務器中存儲了無數(shù)用戶的“數(shù)字孿生”,這形成了算法助推下的一種全景式監(jiān)控的格局,使得個人的認知、行為、態(tài)度和偏好均成為可被全面觀察的對象。如2012年Google繞過Safari瀏覽器的隱私設置,追蹤用戶瀏覽活動的行為等隱私侵犯事件仍屢見不鮮。個人信息的非知情記錄與公民對隱私的期望背道而馳,大數(shù)據(jù)的采集與個人信息隱私權(quán)的沖突日益顯著。從傳統(tǒng)的“私密領域”保護到對“信息自主權(quán)”的主張,及業(yè)界對“被遺忘權(quán)”的討論,隱私風險也一直是算法新聞及其內(nèi)容源頭的大數(shù)據(jù)相關(guān)的認知倫理討論的核心。
四、算法認知偏向的防范
算法新聞的認知風險涉及有偏價值導向、算法黑箱、虛假新聞、過濾氣泡及隱私泄露等多個方面。要有效防范這些認知風險,需要從技術(shù)、法律和倫理等多個維度進行綜合考慮。目前學界與業(yè)界關(guān)于算法風險治理有三條明確路徑。
(一)回收算法把關(guān)權(quán)限
算法新聞有偏及虛假內(nèi)容的生產(chǎn),其根源在于“算法對把關(guān)權(quán)力的程序化收編”[11]。在傳統(tǒng)新聞業(yè)中,新聞制作者依據(jù)新聞價值標準,如事件的重要性、時效性等關(guān)鍵屬性,并結(jié)合其職業(yè)倫理自我認同,對新聞素材進行精心撰寫與編輯。在算法時代,面對便捷性、共享性以及信息碎片化等新興要求,傳統(tǒng)新聞工作者作為信息守門人的角色逐漸被數(shù)據(jù)驅(qū)動和算法決策所取代。
許加彪等強調(diào)了內(nèi)容審核人員在確保新聞真實性中的重要性,提出在人工智能時代,應當建立一個人機協(xié)作的糾錯機制,即以人工審核為主,機器算法為輔。這種機制能夠有效地結(jié)合人類的專業(yè)判斷和機器的高效處理能力,確保新聞內(nèi)容的真實性和可靠性。通過這種方式,可以在快速變化的信息環(huán)境中,保持新聞質(zhì)量的高標準[27]。鞠宇恒通過對今日頭條的案例分析,揭示了算法驅(qū)動的新聞生產(chǎn)與分發(fā)平臺在內(nèi)容審核機制上的不足。該研究指出,算法引發(fā)的一連串問題,源于人工編輯在算法決策過程中的缺位,這導致了算法審核的優(yōu)先級超越了人工編輯。這種優(yōu)先算法審核后人工審核的機制,可能會導致信息內(nèi)容的質(zhì)量控制不力。同時,算法審核標準忽略了傳統(tǒng)新聞價值觀念,致使其內(nèi)容充斥著大量具有負面價值導向的內(nèi)容,如色情、低俗和虛假信息。[28]
為解決算法對于把關(guān)權(quán)力的收編,圖靈獎得主Donald Knuth提出了一種整合技術(shù)邏輯與職業(yè)規(guī)范的策略,強調(diào)算法工程師與專業(yè)工作者之間應建立緊密的協(xié)作關(guān)系[29]。依據(jù)他的觀點,在算法開發(fā)過程中應該融入新聞職業(yè)的倫理和價值觀,以確保算法不僅遵循技術(shù)邏輯,同時也符合新聞傳播的真實性和公正性要求。
Jane Kirtley從法律和倫理的角度,指出算法固有的局限性可能無意中促成虛假新聞的產(chǎn)生與擴散,同時導致具有新聞價值的信息被邊緣化[30]。她提倡采用“人工影響模式”,通過人工干預來識別和阻止虛假新聞的傳播。Kirtley的論述強調(diào)了在算法新聞生產(chǎn)中人工監(jiān)督和審查的必要性,以及在算法可能導致的偏差中發(fā)揮人的主觀能動性。
盡管算法技術(shù)在新聞傳播領域的應用帶來了諸多便利和效率提升,但其管理和規(guī)制的問題也日益凸顯。雖然算法新聞的自動化生產(chǎn)改變了傳統(tǒng)新聞業(yè)的運作模式,但人的參與在確保新聞內(nèi)容的真實性和可靠性方面仍然不可或缺。隨著算法新聞的普及,對于算法可能導致的錯誤和偏差,需要明確責任歸屬,劃定把關(guān)責任的界限,以便進行有效的監(jiān)督和管理。在這一過程中,媒體人、算法設計師、傳播學者需共同協(xié)作,探討如何在算法新聞的生產(chǎn)和分發(fā)中平衡技術(shù)自動化與人工把關(guān)的關(guān)系。
(二)嵌入風險感知規(guī)則
算法新聞產(chǎn)生過濾氣泡及隱私泄露等風險的核心,在于算法本身缺乏固有的道德判斷能力和自我糾正機制。算法設計者往往聲稱其產(chǎn)品是“價值中立”的,但這種中立性實際上為負面認知的傳播提供了空間。換言之,這種所謂的中立性反倒致其在處理信息時無法有效識別和抵制有害內(nèi)容,從而產(chǎn)生了認知風險。
在流量為王的當下,各類算法新聞平臺及其背后資本將大量的算力資源投入內(nèi)容生產(chǎn)及分發(fā),以吸引廣泛的受眾注意并實現(xiàn)商業(yè)利益最大化。為了爭奪注意力,有些平臺將資源和流量導向那些能夠激發(fā)用戶興趣的價值有偏內(nèi)容。基于用戶共性興趣,低俗和獵奇的新聞內(nèi)容往往能吸引大量的流量。這種以迎合用戶偏好為標準的內(nèi)容分發(fā)機制,短期內(nèi)雖能迅速吸引用戶,實現(xiàn)流量激增,但從長遠來看,將引發(fā)算法新聞,乃至整個新聞行業(yè)的信任風險。算法平臺應積極履行媒體社會責任,將積極的社會態(tài)度和價值觀整合入算法模型和內(nèi)容生成分發(fā)系統(tǒng)中,將法律、道德等社會規(guī)范和價值觀念編碼嵌入算法系統(tǒng)。
Daniel Neyland在其研究中指出,算法在悄無聲息中對我們的生活施加了限制,并對我們的隱私權(quán)造成了侵犯。他提出,通過將問責機制編碼整合進算法系統(tǒng)中,我們能夠構(gòu)建一個算法自監(jiān)督的體系[31]。這要求算法的設計者和運營者,不僅要關(guān)注技術(shù)的效率,還要考慮到算法可能帶來的倫理后果,并為此承擔責任。這意味著算法需要內(nèi)置一種機制,能夠?qū)ζ漭敵龅膬?nèi)容進行道德和倫理層面的評估,并在發(fā)現(xiàn)問題時及時進行調(diào)整。
陳璐瑛概述了一個三步流程:第一步識別并制定算法應遵循的倫理規(guī)范,規(guī)劃在價值沖突時的應對策略。第二步將這些規(guī)范轉(zhuǎn)化為代碼,自上而下修正算法,并通過投入人類社會真實樣本來讓算法學習價值判斷。第三步是對算法系統(tǒng)的工作成果進行評估[32]。
Betsy Williams提出了探索性歧視感知數(shù)據(jù)挖掘(Exploratory Discrimination-aware Data Mining)的策略,該策略的核心在于通過數(shù)據(jù)分析的過程,主動尋找和監(jiān)測可能導致歧視的模式和趨勢,從而在算法決策過程中預防和減少不公平現(xiàn)象的發(fā)生。Williams的研究表明,社會類別數(shù)據(jù),如性別、種族和年齡等,盡管在某些情況下可能被認為具有敏感性,但在揭示和對抗算法中的歧視性決策方面發(fā)揮著關(guān)鍵作用[33]。通過積極地使用這些數(shù)據(jù),研究者和開發(fā)者能夠更準確地識別和理解算法決策背后的社會動態(tài),進而設計出更為公正和透明的算法模型。
(三)構(gòu)建算法透明機制
在學術(shù)界和產(chǎn)業(yè)界的共識中,提高算法的可透視性被視為確保算法新聞真實性的關(guān)鍵條件。這不僅有助于受眾辨別新聞內(nèi)容的真?zhèn)?,也便于對媒體機構(gòu)的運作進行有效監(jiān)管。然而,達到完全的開放和透明仍是一種理想化的追求。
張淑玲認為,為了建立算法的公開機制,應當從算法的構(gòu)成要素、程序流程和運作背景三個維度進行明確[34]。多維度的透明度策略不僅有助于受眾理解算法如何運作,也為監(jiān)管機構(gòu)提供了監(jiān)督和評估算法決策的基礎??梢源_保算法新聞的生產(chǎn)過程更加公開,從而增強新聞內(nèi)容的可信度和權(quán)威性。遵循透明度原則,新聞機構(gòu)與算法開發(fā)者需從數(shù)據(jù)源、運算邏輯和算法背景三方面確保算法透明度。
數(shù)據(jù)透明要求新聞平臺對數(shù)據(jù)源的披露、數(shù)據(jù)處理的質(zhì)量和方法進行詳盡的公開。這包括但不限于數(shù)據(jù)的采集方法、樣本的代表性、數(shù)據(jù)的可信度與準確性,以及數(shù)據(jù)處理過程中的關(guān)鍵變量。通過這種方式,受眾能夠?qū)λ惴ㄈ绾斡绊懶侣剝?nèi)容的生成和推送有一個清晰的認識,從而提升對算法運作機制的理解。
運算透明強調(diào)設計者和工程師需向公眾闡明算法的工作原理、決策邏輯以及數(shù)據(jù)處理過程中可能存在的不確定性。這不僅涉及到算法的推薦機制,還包括算法在處理信息時所依賴的規(guī)則和參數(shù)。
背景透明要求新聞機構(gòu)應明確算法設計者和人工編輯在內(nèi)容篩選過程中的角色和參與程度,尤其是在處理涉及社會價值導向的新聞時。機構(gòu)需要向受眾傳達算法設計的初衷和目標,以避免潛在的偏見和誤導,從而提升公眾對新聞內(nèi)容生成機制的信任。
結(jié) ?語
算法新聞作為一種新興的傳播形態(tài),其在提升新聞生產(chǎn)效率和滿足個性化需求方面展現(xiàn)出巨大潛力,但其引發(fā)的認知風險也不容忽視。價值有偏內(nèi)容引發(fā)的認知失調(diào)、算法黑箱導致的媒介信任缺失、自動化虛假新聞生成誘發(fā)的受眾確認偏誤增強、過濾氣泡助推的輿論極化、隱私泄露產(chǎn)生的數(shù)字孿生暴露,均是當前算法新聞領域已被確證存在的認知風險。這些風險的存在,提示我們算法新聞的發(fā)展不應僅追求效率的最大化,更應關(guān)注其對社會價值觀、信息真實性和公眾信任的影響。
在防范算法認知偏向的過程中,技術(shù)、法律和倫理的多維治理路徑為我們提供了重要啟示。首先,回收算法把關(guān)權(quán)限,確保人工編輯在新聞生產(chǎn)中的核心作用,是維護新聞質(zhì)量的關(guān)鍵。其次,嵌入風險感知規(guī)則,將社會責任和倫理規(guī)范編碼進算法,是預防和減少算法偏差的有效途徑。最后,構(gòu)建算法透明機制,提高算法的可解釋性,是增強公眾信任和監(jiān)管機構(gòu)有效監(jiān)督的基礎。
面對算法新聞的挑戰(zhàn),新聞機構(gòu)、技術(shù)開發(fā)者和政策制定者需探索平衡技術(shù)創(chuàng)新與社會責任的新路徑。這不僅要求我們在技術(shù)層面上的創(chuàng)新,更需要在價值層面上進行深入反思。唯有如此,算法新聞才能在促進社會發(fā)展的同時,避免潛在的認知風險,真正成為服務于公眾及“四全”媒體建設的有益工具。
參考文獻
[1]SMITH A. Public attitudes toward computer algorithms[EB/OL].(2018-11-16)[2023-03-01].https://www.
pewresearch.org/internet/2018/11/16/public-attitudes-toward-computeralgorithms.
[2]SIM D H, SHIN S J. Implementation of algorithm to write articles by stock robot[J]. International Journal of Advanced Smart Convergence, 2016, 5(4): 40-47.
[3]APPELMAN A. The News Gap: When the information preferences of the media and the public diverge[J]. Journalism & Mass Communication Quarterly, 2014, 91(4): 848-850.
[4]彭蘭.智媒化:未來媒體浪潮——新媒體發(fā)展趨勢報告[J].國際新聞界,2016,38(11):6-24.
[5]張洪忠,石韋穎,劉力銘.如何從技術(shù)邏輯認識人工智能對傳媒業(yè)的影響[J].新聞界,2018(2):17-22.
[6]范紅霞,孫金波.數(shù)據(jù)新聞的算法革命與未來趨向[J].現(xiàn)代傳播(中國傳媒大學學報),2018,40(5):131-135.
[7]王佳航.數(shù)據(jù)與算法驅(qū)動下的歐美新聞生產(chǎn)變革[J].新聞與寫作,2016(12):38-42.
[8]楊舒涵.算法新聞生產(chǎn)中的把關(guān)機制研究[D].山東師范大學,2019.
[9]何天平,倪樂融.機器人新聞的迷思:“記者”將被淘汰?[J].東南傳播,2018(3):1-2.
[10]LASH S. Power after hegemony: Cultural studies in mutation?[J]. Theory, Culture & Society, 2007, 24(3): 55-78.
[11]喻國明,楊瑩瑩,閆巧妹.算法即權(quán)力:算法范式在新聞傳播中的權(quán)力革命[J].編輯之友,2018(5):5-12.
[12]彭蘭.機器與算法的流行時代,人該怎么辦[J].新聞與寫作,2016(12):25-28.
[13]保羅·利文森.軟邊緣:信息革命的歷史與未來[M].北京:清華大學出版社,2002.
[14]FRIEDMAN B, NISSENBAUM H. Bias in computer systems[J]. Transactions on Information Systems, 1996, 14(3): 330-347.
[15]董天策,何旭.算法新聞的倫理審視[J].新聞界,2019(1):27-33.
[16]鄧建國.機器人新聞:原理、風險和影響[J].新聞記者,2016(9):10-17.
[17]陸新蕾.算法新聞:技術(shù)變革下的問題與挑戰(zhàn)[J].當代傳播,2018(6):87-89.
[18]鄧勝利,趙海平.基于認知失調(diào)理論的偏差信息搜尋行為與認知的作用機理研究[J].情報科學,2019,37(1):9-15.
[19]周葆華,駱陶陶.人工智能重塑新聞業(yè):進展、問題與價值[J].南京政治學院學報,2018,34(6):83-89.
[20]陳昌鳳,師文.個性化新聞推薦算法的技術(shù)解讀與價值探討[J].中國編輯,2018(10):9-14.
[21]王海燕.加速的新聞:數(shù)字化環(huán)境下新聞工作的時間性變化及影響[J].新聞與傳播研究,2019,26(10):36-54.
[22]CHENG X, LIN X, SHEN X, et al. The dark sides of AI[J]. Electronic Markets, 2022, 32(1): 11-15.
[23]張志安,劉杰. 人工智能與新聞業(yè):技術(shù)驅(qū)動與價值反思[J]. 新聞與寫作,2017(11):5-9.
[24]ALLCOTT H, GENTZKOW M. Social media and fake news in the 2016 election[J]. Journal of Economic Perspectives, 2017, 31(2): 211-236.
[25]ANDERSON C W. Rebuilding the news: Metropolitan journalism in the digital age[J]. Digital Journalism, 2013, 2(2): 249-251.
[26]ROWLAND F. The filter bubble: What the internet is hiding from you[J]. Portal: Libraries and the Academy, 2011, 11(4): 1009-1011.
[27]許加彪,韋文娟,高艷陽. 技術(shù)哲學視角下機器人新聞生產(chǎn)的倫理審視[J]. 當代傳播,2019(1):89-91.
[28]鞠宇恒.大數(shù)據(jù)算法下新聞把關(guān)機制研究——以今日頭條為例[J]. 傳播力研究,2019,3(36):74.
[29]KNUTH DONALDE. 計算機程序設計藝術(shù)(第3版)[M].北京:國防工業(yè)出版社,2002.
[30]KIRTLEY J E, MEMMEL S. Rewriting the“book of the machine”: Regulatory and liability issues for the internet of things[J]. Minnesota Journal of Law Science & Technology, 2018, 19: 455.
[31]NEYLAND D. Bearing account-able witness to the ethical algorithmic system[J]. Science, Technology & Human Values, 2016, 41(1): 50-76.
[32]陳璐瑛.算法新聞的傳播倫理失范問題及對策研究[D].遼寧大學,2021.
[33]WILLIAMS B A, BROOKS C F, SHMARGAD Y. How algorithms discriminate based on data they lack: Challenges, solutions, and policy implications[J]. Journal of Information Policy, 2018, 8: 78-115.
[34]張淑玲.破解黑箱:智媒時代的算法權(quán)力規(guī)制與透明實現(xiàn)機制[J].中國出版,2018(7):49-53.
(責任編輯:孫碧玲)