【摘要】通過從過度依賴“算法推薦”技術、片面追求經濟效益至上、客觀存在人性自身需求因素和法律法規(guī)滯后于媒體技術發(fā)展等層面審視了“算法推薦”倫理失范的動因,據(jù)此提出要以“主流價值”引領為前提,建立算法+人工的新聞內容倫理“雙把關”審核機制;以“多途徑推薦”改革為基礎,建立個性多樣性的新聞內容“雙選擇”推薦機制;以法律法規(guī)底線為保障,建立他律自律的新聞傳播倫理“雙約束”規(guī)范責任機制;以媒介素養(yǎng)教育為基礎,建立培訓引導的智媒體平臺“雙主體”個人隱私數(shù)據(jù)保護機制等規(guī)制策略,希望能夠促進人機共生平衡,最大限度消解“算法推薦”倫理失范所產生的危害。
【關鍵詞】智媒體;算法推薦;倫理風險;治理策略
智媒體是網絡新媒體與人工智能(AI)、大數(shù)據(jù)(BIG DATA)、VR/AR、人機交互等互聯(lián)網新興技術高度融合所呈現(xiàn)的具有智慧功能的信息傳播媒體,“算法推薦”被作為技術工具內嵌其中,成為新的傳播形態(tài)的載體,導致“專業(yè)媒體機構的業(yè)務流程被顛覆,而且技術運用中出現(xiàn)了價值判斷問題”。[1]由“算法推薦”形成的自動分發(fā)和推送內容給網絡受眾帶來了全新的信息獲取渠道與體驗方式,盡管它尚未在傳媒業(yè)推及,但從目前已出現(xiàn)的情況來看,我們必須警惕其中潛在的倫理風險,正確對待倫理失范帶來的挑戰(zhàn),探析合理規(guī)制路徑,這既是提升網絡治理能力現(xiàn)代化的迫切需求,也是完善堅持正確導向的輿論引導工作機制的現(xiàn)實需要。
一、算法推薦:一種滿足用戶興趣和信息需求的新興技術
所謂“算法推薦”其實就是以計算機為載體利用用戶的一些行為,主要通過相關數(shù)據(jù)模型,借此推測出用戶所蘊含的可能的愛好內容和興趣?!八惴ㄍ扑]”作為一種計算機技術在智媒體新聞內容生產和自動分發(fā)、推薦新聞內容中起著越來越重要的作用,在基于內容推薦、協(xié)同過濾推薦、熱門推薦等多種推薦形式下,新聞生產模式的舊有格局正被打破和重構,帶來新的信息傳播革命。
“算法推薦”的主要目的是為了滿足用戶的興趣和需求信息。算法中第一個推薦系統(tǒng)誕生于1994年,當時美國明尼蘇達大學GroupLens研究組提出了協(xié)同過濾重要技術,推出了自動化推薦系統(tǒng)GroupLens。此后,推薦系統(tǒng)不斷運用于音樂、電影、書籍等產品的推薦,并廣泛運用于電子商務領域。2009年12月,谷歌進行個性化嘗試,為用戶定制搜索結果,這明顯是一種“算法推薦”的運用。Facebook、Twitter等媒體平臺開始在推薦算法設計下進行新聞推送。
“算法推薦”技術在我國媒體平臺的運用最早應追溯至2012年,“今日頭條”運用算法技術進行新聞內容的自動分發(fā),成為進行個性化新聞推薦的內容聚合平臺。隨之,“一點資訊”、騰訊“天天快報”等媒體平臺都開始運用“算法推薦”技術。技術本身沒有“好”與“壞”的區(qū)分,但其一旦與用戶的偏好和信息需求結合起來,“算法推薦”自然就面臨著倫理問題。
二、倫理失范:智媒體中“算法推薦”呈現(xiàn)的問題與風險
(一)從“客觀真實”要求到出現(xiàn)“信息虛假”泛濫,傳媒業(yè)機構遭遇公信力消解
堅持新聞信息內容傳播時的真實性,是對傳媒機構及其從業(yè)人員最基本、最底線的要求和應遵循的新聞傳播準則,也是媒體最重要的倫理功能之一。智媒體信息的傳播主要依靠“算法推薦”技術途徑運作,算法已嵌入從新聞內容選題到分發(fā)的各個新聞生產環(huán)節(jié)之中,其“黑箱”程序邏輯的標準就是依據(jù)用戶(受眾)在網端接觸到信息內容自動判斷他(她)的喜好,并在龐大數(shù)據(jù)對信息進行處理生產的基礎上針對不同的目標群推送其感興趣的新聞資訊。在新聞生產過程中,由于軟件程序無法自動判斷識別數(shù)據(jù)的真假,算法存在偏見和局限,在缺乏人工審核的背景下,由算法在擬態(tài)環(huán)境中塑造出的新聞能確保真實和客觀嗎?
2016年8月,美國著名社交媒體Facebook的“趨勢”新聞板塊發(fā)生一起假新聞事件而被推上了熱搜榜,這則完全依賴算法篩選出的新聞信息被修正之前已獲得了數(shù)千次轉發(fā)。2018年2月,Youtube就承認由于算法失誤而向用戶推送了關于美國佛羅里達州槍擊案陰謀論的視頻假新聞。類似案例并不在少數(shù),這也充分說明了過于依賴算法對于事實真相的報道也并不能完全做到盡善盡美,“甚至失誤率相當高”,由此看來,“在數(shù)據(jù)依托下的真實性成為算法新聞無法回避的短板”。[2]楊保軍、杜輝認為,由于數(shù)據(jù)源失實導致的新聞失實、數(shù)據(jù)依賴導致的失實和核實困難等原因,又加之“缺少與事實比照的過程”,因此算法新聞“依然存在嚴重失實的風險”。[3]試想,智媒體傳播的新聞信息內容一旦失去了客觀性和真實性,其公信力逐步得到消解就成為可能,新聞傳播倫理面臨前所未有之挑戰(zhàn)在所難免。
(二)從“公共價值”領域到選擇“個人偏好”取向,主流價值觀遭遇解構窘境
從新聞傳播職業(yè)倫理角度來看,媒體具有比較鮮明的公共職責,在滿足社會公眾信息需求時“必須要擔負一定的社會公共責任和道德標準”,同時“必須要有明確的價值堅守和倫理準則”。[4]傳媒機構應牢牢把握正確的輿論導向,且不能片面追求流量和利潤而滿足少數(shù)人的需求。事實上,在“算法推薦”影響下,一些智媒體平臺推出的內容伴有低俗化、惡俗化和庸俗化現(xiàn)象,甚至出現(xiàn)了色情、暴力等內容,“沒有正確的價值導向,算法主導的新聞業(yè)極易產生負面的社會影響”[5]。由于“算法推薦”的邏輯主導,處于“信息繭房”中的用戶(受眾)在媒體平臺“個性化推薦”影響下接受自己所偏好的網絡內容產品,很容易導致其陷入價值迷失困局。
(三)從“個人隱私”泄露到凸顯“著作權竊取”頻現(xiàn),網絡空間遭遇侵權風險
尊重個人意愿、尊重個人隱私是公眾在社會生活中應遵守的基本倫理原則,同時也是媒體應當遵守的社會道德原則和職業(yè)準則。伴隨人工智能和大數(shù)據(jù)等互聯(lián)網新興技術的迅速發(fā)展,受利益的驅動,個人隱私權越來越容易受到侵犯,“大數(shù)據(jù)帶來的最大倫理危機是個人隱私權問題”[6],個人隱私泄露問題已成為智媒體傳播中迫切需要關注和解決的倫理問題。我國發(fā)生“史上最大數(shù)據(jù)竊取案”——“瑞智華勝涉竊案”,將近30億條用戶數(shù)據(jù)泄露,大部分數(shù)據(jù)來自于一些知名智媒體平臺使用AI技術收集的用戶隱私信息?;凇八惴ㄍ扑]”的需要,媒體平臺需要通過人工智能和大數(shù)據(jù)技術采集抓取年齡、性別等基本個人信息和閱讀瀏覽網絡數(shù)據(jù)記錄等行為信息,進行數(shù)據(jù)分析、深度挖掘,運用算法實現(xiàn)用戶的精準畫像,以此追蹤解讀用戶的偏好和興趣等,利于平臺更好地精準實現(xiàn)個性化信息自動分發(fā)。從系列倫理困境來看,這種侵害比傳統(tǒng)的隱私權侵害更加隱蔽和難以防范。
網絡倫理道德是社會倫理道德的延伸和擴展,在網絡空間中,包括隱私、知識產權在內的侵權活動都是一種背離社會倫理道德的活動。楊保軍、杜輝認為,智媒體傳播中存在著智能新聞對由人創(chuàng)作的作品的著作權的侵害和智能新聞之間的著作權益的侵害兩種情況,這里既有技術方面的原因,也與法律保護不健全有關。[7]智能新聞產品生產中,“算法推薦”要以抓取、挖掘互聯(lián)網上存在的大量數(shù)據(jù)為基礎,然后自動生成內容?!敖袢疹^條被判287宗案件侵權”報道就在國內引起較大的輿論轟動。由于機器無法自動識別他人權利作品,本身由他人原創(chuàng)的作品就被媒體平臺利用大數(shù)據(jù)和人工智能技術直接抓取,“搖身一變”成為其他媒體平臺智能新聞內容的一部分。從目前來看,這種侵犯著作權的事例并不少見。
三、動因追問:智媒體中“算法推薦”倫理失范的探析
(一)過度依賴“算法推薦”技術,“把關人”作用弱化或缺失
傳播學中,在傳播者與受眾之間,“把關人”在繼續(xù)或中止信息傳遞中起著決定作用。長期以來,“把關人”在確保新聞的真實性、樹立媒體的權威公信力和引導主流價值輿論等方面發(fā)揮著至關重要的作用。進入智媒時代,媒體爭相采用人工智能和大數(shù)據(jù)等新興技術,技術在新聞生產和傳播中正被不合理使用和濫用。算法新聞一旦自動化生產,“把關人”的角色就會被弱化,“把關權”逐步被算法消解,無法識別、理解人類思想意識和判斷新聞價值的機器所生產出的新聞產品缺乏有效監(jiān)督,主流價值觀失去統(tǒng)一引導,最終的結果是“媒體公共性和社會責任缺位,工具理性和價值理性失去了平衡,新聞專業(yè)主義的天平被根本打破”。[8]
(二)片面追求經濟效益至上,媒體道德底線降低或失偏
大數(shù)據(jù)、云計算、人工智能等互聯(lián)網新興技術的逐漸成熟為中國互聯(lián)網經濟的發(fā)展提供了新機遇。艾媒咨詢發(fā)布的報告(2019)顯示,當前,中國互聯(lián)網共享經濟市場規(guī)模達7.358萬億元,預計到2020年,中國互聯(lián)網共享經濟市場規(guī)模將超過9萬億元。學者郭全中認為,智媒體是立足于共享經濟,基于人工智能、大數(shù)據(jù)、虛擬現(xiàn)實技術等發(fā)展起來的媒體形態(tài),不但能形成一套商業(yè)模式,而且可以實現(xiàn)多元盈利。在智媒時代,面對激烈的市場競爭,作為獨立的市場主體——各媒體平臺為提升其生存和發(fā)展的空間,獲取更多的廣告收入,主要采用資訊增加流量進行變現(xiàn)模式實現(xiàn)盈利,其背后是增強用戶黏性。算法技術以受眾需求為導向,有些媒體在經濟效益面前忘卻了肩負的社會公共責任,片面認為增加新聞信息的點擊量和關注度可以換來流量的增加,最終實現(xiàn)盈利,從而忽視了社會效益。
(三)客觀存在人性自身需求因素,媒介素養(yǎng)面臨能力不足
恩格斯認為:“人來源于動物這一事實已經決定人永遠不能完全擺脫獸性,所以問題永遠只能在于擺脫得多些或少些,在于獸性或人性的程度上的差異?!盵9]由此可見,用戶本身具有純粹的原始需求欲望,獵奇、窺私以及關于性的心理在人身上存在在所難免。如果用戶本身道德水平就存在差異,文化需求層次不高,那些“三俗”之類的內容被“推薦”而至就順勢迎合了個人需求。再者,受認知、心理和習性等因素影響,用戶處于“信息繭房”之中也變得更具惰性,被動地接受機器推送而來的相關內容,失去與高媒介素養(yǎng)用戶交流的機會,信息接收逐步狹窄化甚至封閉化,最終導致內容朝著用戶想看的方向傾斜。
(四)法律法規(guī)滯后于媒體技術發(fā)展,技術道德體系尚未形成
為著力維護清朗的網絡空間,我國不斷完善法律法規(guī)和政策制度,有效保障并促進了互聯(lián)網健康有序發(fā)展。從目前來看,關于互聯(lián)網在意識形態(tài)領域的法律和制度還相對滯后于網絡新興技術的發(fā)展,存在著立法力度不夠、法律效力較低、法律條文不夠細化和留有空白等方面的問題,網絡空間法律的立、改、廢工作任務艱巨,治理執(zhí)法體系不夠健全。再者,技術道德體系尚未完善,建設尚不夠成熟。如果法律一旦滯后和制度缺失,“不能滿足爆炸式信息發(fā)展需要”,缺少必要的約束,信息污染的問題就會隨之而來,“表現(xiàn)出的危害性越來越大,損害了信息生態(tài)環(huán)境”。[10]
四、規(guī)則策略:智媒體中“算法推薦”的治理路徑
(一)以“主流價值”引領為前提,建立算法+人工的新聞內容倫理“雙把關”審核機制
學者張濤甫認為,一個社會的良性運行和健康發(fā)展需要主流價值的感召和引領,主流價值缺位,不利于社會發(fā)展。[11]在傳統(tǒng)媒體對社會價值觀的調控手段日益失去原有導向效能的情形下,將社會“主流價值”引領作為有效構建智媒體時代主流文化的前提就顯得日益重要,成為網絡空間倫理道德建設的當務之急。盡管“算法推薦”依靠人工智能和大數(shù)據(jù)進行數(shù)據(jù)挖掘、實現(xiàn)信息與用戶的匹配,但從本質上來講這一技術蘊含的還是設計者的意圖,設計者的意圖影響著主流價值是否偏向。因此,為確保算法新聞的信度、效度和輿論導向的正確,應充分利用“技術把關”,同時輔之以“人工把關”。一是算法要融入人的思考和倫理,預設好主流價值立場和道德立場,用規(guī)范的新聞專業(yè)性完成對算法推薦的規(guī)訓,將符合社會主流價值觀的內容作為傳播的主旋律,確保用戶獲取到媒體平臺分發(fā)的主流價值產品。二是充分運用人工智能和大數(shù)據(jù)等技術,對虛假新聞信息、“三俗”、色情、暴力等內容進行精準識別和過濾,提前做好預警和把控。三是實行人工智能+人工審核,對智媒體信息內容傳播進行認真把關,通過人工編輯輔助“算法推薦”,更好地引導新聞價值回歸本位,避免處于“信息繭房”中的用戶受到傷害,通過價值引領智媒體所肩負的社會責任。
(二)以“多途徑推薦”改革為基礎,建立個性+多樣性的新聞內容“雙選擇”推薦機制
一是積極推動算法新聞棄“暗”投“明”。在目前的智媒體傳播中,“算法推薦”是各媒體平臺較量高低的“秘密武器”,出于商業(yè)利益考慮,他們很難自愿公開“黑箱”中的秘密。新聞的透明性已成為塑造新聞價值觀與媒體形象的重要原則,因而破解算法黑箱在智媒體新聞生產傳播中導致的“算法偏見”,提升算法的透明度和公開性顯得尤為迫切和必要,必須在充分考慮媒體組織的商業(yè)利益和用戶合法權益的平衡基礎上,從立法、制度、行業(yè)規(guī)則等層面加強“算法推薦”操作實踐的透明度,引導媒體從業(yè)人員自覺遵守透明的倫理規(guī)范。二是建立多形式的“算法推薦”機制。由于運用“算法推薦”機制所生產出的新聞最終會對用戶形成“信息繭房”和“個性化擬態(tài)環(huán)境”的副作用效應,信息來源路徑的單一窄化限制了用戶信息選擇多元的需求,因此可以考慮建立多元化推薦系統(tǒng),在過去用戶社交關系、瀏覽記錄、用戶基本信息等主要推送指標在內的“算法推薦”機制基礎上,考慮加入傳播內容影響力、傳播效果、傳播時效、用戶滿意度等指標,為用戶提供更多有價值的信息。“對用戶畫像分析時要減少低俗、過度娛樂化的畫像”[12],凈化傳播內容生態(tài)環(huán)境,加強用戶關注正能量內容的興趣引導,提升用戶的價值觀。
(三)以法律法規(guī)底線為保障,建立他律+自律的新聞傳播倫理“雙約束”規(guī)范責任機制
維系和調節(jié)人類生活秩序和人際關系不可或缺的兩大規(guī)范為法律規(guī)范和倫理。法律規(guī)范,任何人都需遵守。在智媒時代,我國必須完善此領域的新的法律法規(guī)體系,同時對倡導建立新的倫理制度給予支持。一是要完善網絡傳播法律法規(guī)。主動學習和借鑒先進國家網絡傳播法律法規(guī)的有益經驗和做法,在我國《網絡安全法》等現(xiàn)有法律法規(guī)基礎上,限制“算法推薦”權力的濫用,進一步建立健全網絡隱私侵權和版權侵權、網絡隱私泄露、內容生態(tài)等層面的法律法規(guī)治理體系。加強對媒體平臺、機器法律責任主體界限的調研,規(guī)范人工智能和大數(shù)據(jù)技術獲取個人隱私信息的目的行為,加大對數(shù)據(jù)安全和版權內容的保護力度,營造風清氣正的網絡空間環(huán)境。二是倡導行業(yè)自律規(guī)范倫理道德體系建設。要凝聚共識,明確智媒體信息傳播倫理原則,引導建立統(tǒng)一的行業(yè)規(guī)范,定制大數(shù)據(jù)、人工智能在智媒體中的使用規(guī)則,如楊保軍、杜輝根據(jù)智能新聞生產的特點,提出新聞生產者應該遵循透明、風險可控、知情同意、核查與更正等基本倫理原則,為進一步發(fā)展新聞倫理規(guī)范提供了參考和借鑒意義。三是建立監(jiān)管評議評審機制。行業(yè)主管部門及媒體單位必須履行好監(jiān)管責任,加大對“算法推薦”的執(zhí)法檢查力度,對違法責任者予以懲戒,增強法律教育效果。同時倡導建立行業(yè)倫理評議評審委員會組織,開展內容監(jiān)測評議工作,定期向社會公眾公開媒體機構倫理的公共社會責任承擔情況,約束或減少失范行為。
(四)以媒介素養(yǎng)教育為基礎,建立培訓+引導的智媒體平臺“雙主體”個人隱私數(shù)據(jù)保護機制
一是加強馬克思主義新聞觀的學習教育?!澳芊駡猿竹R克思主義新聞觀,直接決定著新聞輿論事業(yè)的興衰成敗。”[13]要將馬克思主義新聞觀作為媒體工作者尤其是智媒體技術人員的崗前培訓重要學習內容,增強傳媒機構及其從業(yè)人員的黨性觀念、政治洞察力和鑒別力,提升從業(yè)人員的政治意識,從而在主流價值輿論引導中保持正確的方向。二是建立互聯(lián)網媒體政策法規(guī)學習培訓制度。將互聯(lián)網媒體政策法規(guī)內容作為從業(yè)人員上崗的基本考核條件,組織從業(yè)人員認真學習網絡安全法、信息網絡傳播權保護條例、互聯(lián)網新聞信息服務單位內容管理從業(yè)人員管理辦法、網絡信息內容生態(tài)治理規(guī)定等內容,提升從業(yè)人員法律意識,增強紀律觀念。三是引導受眾提升媒介倫理意識。加強媒體從業(yè)人員審美情趣的培養(yǎng),提升他們對智媒體傳播各種信息的選擇能力、理解能力、質疑能力和透過現(xiàn)象看本質的能力,降低陷入“信息繭房”的可能性。四是增強用戶隱私保護意識。普及智媒體用戶關于隱私保護信息的知識,引導用戶在瀏覽有關智媒體平臺信息時,要合理評估個人數(shù)據(jù)被采集獲取的社會風險,提升算法素養(yǎng),避免陷入“隱私陷阱”。
五、結語
事實上,“算法推薦”是媒介技術進步的標志,客觀上滿足了用戶對信息的需求,實現(xiàn)了用戶和信息的精準對接,帶來了新聞生產格局的新變化。同時,“算法推薦”的普及和運用也增加了各媒體發(fā)展的壓力,助推各媒體機構必須解放思想、創(chuàng)新思維,勇于突破。只有進一步提升新聞內容的生產質量,改變新聞信息內容供給用戶的形式,才能在未來媒體競爭格局中占據(jù)有利優(yōu)勢和制高點。
面對不斷更新的媒體互聯(lián)網新興技術,我們必須理性對待算法技術,正確處理好互聯(lián)網新興技術發(fā)展與新聞內容傳播倫理道德二者之間的關系,規(guī)范算法權力在傳媒業(yè)的擴張,趨利避害,促進人機共生平衡,才能最大限度地消解智媒體中“算法推薦”倫理失范所產生的危害,從而更好地滿足用戶對信息的需求,為創(chuàng)造風清氣正的良好網絡輿論環(huán)境增添力量。
(本文為2020年河南省哲學社會科學規(guī)劃項目“智媒時代背景下網絡輿論生態(tài)治理研究”的階段性成果,項目編號:2020BXW007)
參考文獻:
[1]陳昌鳳,師文.智能算法運用于新聞策展的技術邏輯與倫理風險[J].新聞界,2019(1):20-26.
[2]張幟.智媒時代對新聞生產中算法新聞倫理的思考[J].海南師范大學學報(人文社會科學版),2019(2):70.
[3]楊保軍,杜輝.智能新聞:倫理風險·倫理主體·倫理原則[J].西北師范大學學報(社會科學版),2019(1):27-36.
[4]李鵬.新媒體概論[M].西安:陜西師范大學出版總社,2018:232.
[5]王曉培,常江.新聞生產自動化倫理挑戰(zhàn):算法倫理分析的框架地圖[J].中國出版,2019(4):20-25.
[6]黃欣榮.大數(shù)據(jù)技術的倫理反思[J].新疆師范大學學報(哲學社會科學版),2015(3):46-53.
[7]楊保軍,杜輝.智能新聞:倫理風險·倫理主體·倫理原則[J].西北師范大學學報(社會科學版),2019(1):27-36.
[8]張幟.智媒時代對新聞生產中算法新聞倫理的思考[J].2019(2):70-78.
[9]馬克思恩格斯選集:第3卷[M].北京:人民出版社,1995:442.
[10]李娟,李卓.智媒時代信息倫理的困境與治理研究[J].情報科學,2019(12):118-133.
[11]張濤甫.把好算法推薦“方向盤”[N].人民日報,2019-04-11.
[12]趙雙閣,岳夢怡.新聞的“量化轉型”:算法推薦對媒介倫理的挑戰(zhàn)與應對[J].當代傳播,2018(4):52-56.
[13]胡栓,童兵.牢記新聞初心使命堅持正確輿論導向:兼論新中國70年新聞輿論工作基本經驗[J].新聞愛好者,2019(12):8-12.
[羅新宇為南陽理工學院傳媒學院、新媒體傳播研究中心副教授,中國社會科學院大學(研究生院)博士生]
編校:鄭 艷