丁睿豪 夏德元
【摘要】推薦算法已經(jīng)滲入信息生產(chǎn)的各環(huán)節(jié),它帶來的技術(shù)、社會和倫理等問題成為學(xué)界關(guān)注的焦點。運用Citespace分析軟件對2010—2019年國內(nèi)新聞傳播學(xué)領(lǐng)域個性化算法推薦共453篇文獻(xiàn)進(jìn)行科學(xué)知識圖譜分析后發(fā)現(xiàn),學(xué)界有關(guān)算法推薦問題的研究成果呈逐年上升趨勢,并隨著運用算法推薦的新聞分發(fā)平臺的崛起而出現(xiàn)爆發(fā)式增長;研究熱點相對集中于對算法推薦技術(shù)的思考、現(xiàn)象的探討以及對挑戰(zhàn)和機(jī)遇的分析。如何在技術(shù)的發(fā)展中把握主動,進(jìn)行富有前瞻性的學(xué)術(shù)研究,則成為學(xué)界未來需要努力的方向。
【關(guān)鍵詞】算法;個性化推薦;新聞分發(fā)平臺;科學(xué)知識圖譜;Citespace
傳統(tǒng)媒體時代,專業(yè)新聞媒體把握了從新聞內(nèi)容制作到分發(fā)的絕大部分權(quán)力,受眾只能被動接收來自專業(yè)媒體的新聞內(nèi)容,主動權(quán)有限。而到了智能媒體時代,伴隨著網(wǎng)絡(luò)傳播技術(shù)的飛速發(fā)展而催生出的“Apple News”“今日頭條”等新聞分發(fā)平臺通過個性化推薦算法掌握用戶的興趣取向,向用戶推薦內(nèi)容,不僅打破了傳統(tǒng)媒體時代受眾的被動局面,同時迅速占據(jù)了原本由傳統(tǒng)媒體所掌握的新聞傳播市場,帶給整個新聞傳播業(yè)前所未有的巨變。[1]然而,個性化推薦算法的廣泛應(yīng)用也帶來了各種弊端和社會問題,相關(guān)學(xué)者從不同角度形成了問題意識和學(xué)科關(guān)懷,取得了豐碩的研究成果。通過對這些研究成果進(jìn)行梳理和總結(jié),揭示當(dāng)前傳播學(xué)領(lǐng)域關(guān)于算法推薦問題研究的客觀現(xiàn)狀,對后續(xù)研究具有一定的借鑒意義。為此,本文以453篇CSSCI期刊論文為依托,利用Citespace軟件對算法推薦研究現(xiàn)狀進(jìn)行解讀,并結(jié)合關(guān)鍵文獻(xiàn)的重點分析,梳理出新聞傳播學(xué)領(lǐng)域算法推薦的研究脈絡(luò)和熱點,為學(xué)者提供預(yù)測性的經(jīng)驗參考。
一、研究方法與數(shù)據(jù)處理
本文采用了由美國華裔學(xué)者陳超美應(yīng)用Java語言開發(fā)的信息可視化分析軟件Citespace,其主要基于共引分析理論(co-ciation)和尋徑網(wǎng)絡(luò)算法(Pathfinder)等,對特定領(lǐng)域文獻(xiàn)(集合)進(jìn)行計量,以探尋出學(xué)科領(lǐng)域演化的關(guān)鍵路徑及其知識拐點,并通過一系列可視化圖譜的繪制來形成對學(xué)科演化潛在動力機(jī)制的分析和學(xué)科發(fā)展前沿的探測。[2]本研究主要采用Citespace軟件中提供的作者和機(jī)構(gòu)共現(xiàn)、關(guān)鍵詞共現(xiàn)和聚類、參考文獻(xiàn)共被引等分析方法,并通過可視化知識圖譜,直觀地呈現(xiàn)出算法推薦研究領(lǐng)域的知識結(jié)構(gòu)、熱點領(lǐng)域以及演進(jìn)趨勢。
為確保數(shù)據(jù)的權(quán)威性,本文選擇中國知網(wǎng)數(shù)據(jù)庫中的CSSCI期刊作為研究的數(shù)據(jù)來源。以“新聞”“出版”“傳播”等作為主題詞,輔以“智能”“算法”“推薦”“推送”“個性化”“精準(zhǔn)”等關(guān)鍵詞進(jìn)行檢索,去除明顯與本研究不符的文獻(xiàn)(如書目推薦、資訊、算法設(shè)計、系統(tǒng)實現(xiàn)、榜單等),最終共獲取453篇文獻(xiàn)。
二、描述性統(tǒng)計分析
2010年至2019年,學(xué)界有關(guān)算法推薦的研究成果呈逐年上升的趨勢。根據(jù)圖1可將其分為兩個階段:第一個階段為2010年至2015年,這一階段中對算法推薦問題研究成果的發(fā)表數(shù)量共47篇,占研究樣本總量的10.4%。這一時期的國內(nèi)個性化推薦技術(shù)尚處于發(fā)展的初期階段,尚未進(jìn)入大規(guī)模應(yīng)用時期,學(xué)界對于算法推薦領(lǐng)域還未給予足夠的關(guān)注。第二階段為2016年至2019年,這一階段對算法推薦問題研究成果的發(fā)表數(shù)量共406篇,占研究樣本總量的89.6%。這一時期中,算法推薦技術(shù)進(jìn)入實用階段,國內(nèi)“今日頭條”“一點資訊”等代表性的新聞分發(fā)平臺崛起,這些平臺都以算法推薦技術(shù)為核心并進(jìn)入了高速發(fā)展期,改變了人們傳統(tǒng)的新聞閱讀方式并對傳統(tǒng)媒體造成了巨大沖擊。這一前所未有的信息分發(fā)方式直接挑戰(zhàn)了傳統(tǒng)的人工編輯機(jī)制,成為巨大的社會公共話題,并投射到學(xué)界。高速增長的研究成果數(shù)量,體現(xiàn)了學(xué)界對于這一研究領(lǐng)域的高度關(guān)注??傮w而言,傳播學(xué)視角下對于算法推薦問題的研究成果數(shù)量與計算機(jī)技術(shù)及市場發(fā)展具有密切關(guān)聯(lián)。
三、核心作者分布
厘清學(xué)科領(lǐng)域的作者分布有助于把握該領(lǐng)域研究的廣度與深度。利用Citespace軟件對作者進(jìn)行共現(xiàn)分析,得到核心作者合作共現(xiàn)網(wǎng)絡(luò)圖譜。其中,Nodes(節(jié)點)數(shù)量為213,Links(連線)數(shù)量為93,Density(密度)數(shù)量為0.0041。根據(jù)以上數(shù)據(jù)可知,算法推薦領(lǐng)域研究的作者之間合作程度較低,研究合作團(tuán)隊規(guī)模較小。圖譜數(shù)據(jù)顯示,除陳昌鳳分別與師文、霍婕合作發(fā)文4篇和3篇文獻(xiàn)以外,其余作者間基本僅合作發(fā)表過1至2篇文獻(xiàn),未形成真正意義上的合作團(tuán)隊。此外,在Citespace隨圖譜生成的Summary Table中,共顯示213位作者,其中2010—2019年之間發(fā)文量在3篇及以上的作者為陳昌鳳、張志安、喻國明、彭蘭、師文、范紅霞、匡文波、霍婕、王茜、全燕、王斌、嚴(yán)三九,共12位,僅占作者總?cè)藬?shù)的5.6%,且只有3位作者發(fā)文量在10篇以上。由此可見,學(xué)界關(guān)于推薦算法領(lǐng)域的研究較為廣泛,但作者較為分散,且高產(chǎn)作者較少,反映出學(xué)界對于這一領(lǐng)域的研究尚不集中,且深度不夠。
該研究領(lǐng)域內(nèi)作者文章的被引數(shù)量也是衡量核心作者的重要指標(biāo),對篩選出的文獻(xiàn)按照被引次數(shù)進(jìn)行整理,在被引次數(shù)最高的前20篇文獻(xiàn)中,彭蘭的6篇文獻(xiàn)共被引969次,喻國明的3篇文獻(xiàn)共被引389次,表明這兩位學(xué)者的學(xué)術(shù)影響力較大。精讀這些高被引文獻(xiàn)后發(fā)現(xiàn),這些作者的文章主要對于新聞分發(fā)平臺的發(fā)展現(xiàn)狀、算法推薦的運作模式、應(yīng)用方式及其機(jī)遇和挑戰(zhàn)等問題進(jìn)行了深入的討論,這些討論不僅描繪了該領(lǐng)域研究的大致輪廓,更為后來的深入研究奠定了扎實基礎(chǔ)。
四、研究熱點領(lǐng)域分布
(一)主題詞及關(guān)鍵詞的共現(xiàn)圖譜分析
利用Citespace得出10年間算法推薦研究的高頻和高中心性關(guān)鍵詞,生成2010—2019年算法推薦領(lǐng)域研究主題詞、關(guān)鍵詞共現(xiàn)圖譜(見圖2),共生成286個節(jié)點,446個連線,密度為0.0109。在該圖譜中,不同節(jié)點的大小代表其出現(xiàn)的頻次,頻次越多則越大,反之則越小;節(jié)點之間的連線表示彼此之間共現(xiàn)的強(qiáng)度;0.0109的密度代表推薦算法研究領(lǐng)域中節(jié)點之間的關(guān)系比較松散。此外,圖譜中部分節(jié)點的輪廓呈紫色,表明這些主題具有較高的中心性,與其他節(jié)點之間存在較為緊密的聯(lián)系,也是連接不同研究領(lǐng)域的關(guān)鍵節(jié)點。[3]
Citespace軟件在生成圖2的過程中也會計算每個關(guān)鍵詞的頻度和中介中心性,其中以頻度為序由高到低排名前十的關(guān)鍵詞及其中介中心性分別是:人工智能(0.24)、算法(0.14)、大數(shù)據(jù)(0.28)、個性化推薦(0.26)、算法推薦(0.19)、信息繭房(0.16)、新聞生產(chǎn)(0.07)、算法新聞(0.02)、今日頭條(0.05)、新聞業(yè)(0.07)。
Citespace聚類分析結(jié)果中,Modularity值為0.784,Silhouette值為0.8958。這表明文本聚類效果較好(見圖3)。其中聚類標(biāo)識詞及其輪廓值按照節(jié)點數(shù)由高到低排序分別為:抖音(0.869)、個性化推薦(0.994)、大數(shù)據(jù)(0.771)、個性化信息推薦(0.926)、新聞傳播(0.856)、個性化(0.925)、內(nèi)容分發(fā)(0.919)、人工智能(0.851)、新聞客戶端(0.929)、新聞分發(fā)(0.851)、算法(0.967)、算法推薦(0.912)。
再根據(jù)高頻及高中心性關(guān)鍵詞與合并后的聚類標(biāo)識詞進(jìn)行聯(lián)系歸納,總結(jié)出算法推薦領(lǐng)域的三個主要知識群及其高頻關(guān)鍵詞:算法推薦的應(yīng)用研究(個性化推薦、算法、大數(shù)據(jù)、人工智能、新聞客戶端、微博、抖音、今日頭條、協(xié)同過濾、內(nèi)容分發(fā)、人機(jī)社交等),算法推薦的傳播效果研究(信息繭房、過濾氣泡、回音室、算法權(quán)力、權(quán)力轉(zhuǎn)移、權(quán)力結(jié)構(gòu)、新守門人、編輯缺位、社會化標(biāo)簽、信息過載等)和算法推薦的傳播倫理研究(媒介倫理、新聞從業(yè)者、算法倫理、工具理性、價值理性、倫理失范、新聞專業(yè)主義、黑箱、主流價值觀、算法偏見、公共性、協(xié)同治理等)。
(二)主要研究熱點知識群的內(nèi)容討論
1.算法推薦的應(yīng)用研究
從圖譜中“人工智能”“算法”的節(jié)點大小可以看出,智能和算法成為算法推薦研究領(lǐng)域中最重要的組成部分。將節(jié)點較大的“人工智能”“算法”“個性化推薦”等節(jié)點中的核心文獻(xiàn)進(jìn)行研讀后,發(fā)現(xiàn)“算法推薦的應(yīng)用研究”中主要呈現(xiàn)以下重點。
首先是個性化推薦的技術(shù)研究方面,主要由“算法”“大數(shù)據(jù)”“人工智能”“協(xié)同過濾”“推薦機(jī)制”等關(guān)鍵詞構(gòu)成。在媒體智能化已經(jīng)在內(nèi)容生產(chǎn)、內(nèi)容分發(fā)、內(nèi)容監(jiān)管、媒體運營各環(huán)節(jié)中廣泛應(yīng)用的背景下[4],個性化推薦機(jī)制的本質(zhì)是以大數(shù)據(jù)與算法為依托,對用戶行為進(jìn)行長期的系統(tǒng)跟蹤與分析,從而掌握用戶的內(nèi)容偏好,為用戶提供特定場景下最優(yōu)化的信息需求供給匹配。[5]個性化推薦算法主要由用戶個性化信息管理、用戶興趣權(quán)重庫管理和個性化推薦三大功能模塊構(gòu)成,其技術(shù)實現(xiàn)則主要側(cè)重用戶隱性興趣的獲取、興趣權(quán)重的計算和用戶的相似性計算三個方面。[6]
其次是個性化推薦平臺發(fā)展與運作的研究方面,由“新媒體”“新聞客戶端”“微博”“抖音”“今日頭條”“新聞聚合”等關(guān)鍵詞構(gòu)成。近年來以個性化推薦算法為核心的新聞分發(fā)平臺高速發(fā)展,成為廣大用戶獲取新聞信息的重要渠道?!敖袢疹^條”作為占據(jù)我國移動互聯(lián)網(wǎng)主導(dǎo)地位的新聞分發(fā)平臺之一,是個性化新聞推薦系統(tǒng)應(yīng)用的典型代表。截至2019年6月,“今日頭條”月均活躍用戶規(guī)模達(dá)2.6億,日均活躍用戶規(guī)模達(dá)1.2億。從宏觀視角來看,個性化推薦技術(shù)滿足了用戶的“長尾”需求、強(qiáng)化了新聞分發(fā)平臺的內(nèi)容分發(fā)能力、提升了用戶信息選擇的地位,對新聞業(yè)務(wù)鏈進(jìn)行了重塑。[7]“Buzzfeed”“今日頭條”“一點資訊”等新聞分發(fā)平臺,在憑借個性化推送獲得了遠(yuǎn)超普通新聞客戶端的用戶總數(shù)和使用時長的同時,其算法也促進(jìn)了新聞生產(chǎn)流程的自動化,以及受眾內(nèi)容消費方式的個人化和定制化。[8]此外,個性化推薦技術(shù)還具有改變用戶傳統(tǒng)行為模式、實現(xiàn)內(nèi)容精準(zhǔn)分發(fā)、新聞生產(chǎn)場域擴(kuò)張等重要意義。[9]除了新聞分發(fā)平臺以外,“抖音”這一以個性化算法為核心的短視頻平臺也引發(fā)了學(xué)界的熱烈討論,有學(xué)者從傳播學(xué)角度解構(gòu)抖音特征,認(rèn)為個性化推薦算法在向用戶推送內(nèi)容的同時,也引發(fā)了用戶共鳴,促進(jìn)用戶模仿創(chuàng)作更多視頻,進(jìn)而提升用戶黏度;[10]而從互動儀式鏈的角度出發(fā),個性化推薦還可以快速聚合符號資本與情感能量,滿足用戶的情感需求,算法由此成為平臺市場的核心運行機(jī)制。[11]然而,推薦算法在現(xiàn)實使用中還存在與用戶預(yù)期效果之間的差異,主要體現(xiàn)在個性化推薦與用戶需求的矛盾以及個性化推薦與人性化傳播的矛盾。[12]
2.算法推薦的傳播效果研究
將圖譜中“過濾氣泡”“信息繭房”“算法權(quán)力”“權(quán)力結(jié)構(gòu)”“守門人”“主流意識形態(tài)”“推薦機(jī)制”“信息過載”等節(jié)點中的核心文獻(xiàn)進(jìn)行研讀后,發(fā)現(xiàn)學(xué)界對算法推薦的傳播效果研究主要關(guān)注以下幾個方面。
首先是關(guān)于算法推薦應(yīng)用環(huán)境下所產(chǎn)生的如信息繭房、過濾氣泡、回音室、群體極化等信息窄化效果及其治理的研究。個性化推薦算法雖然為用戶帶來了便利,滿足了用戶的個性化信息需求,免去了信息過載帶來的困擾,但完全依靠機(jī)械的數(shù)據(jù)和機(jī)器的計算完成的推送內(nèi)容,會一步步將人帶向扭曲和異化的境地,用戶在不經(jīng)意間便落入了算法推送的個性化圈套之中[13],導(dǎo)致用戶“被動”接收更多與其自身所持立場相似的觀點,驅(qū)動形成了基于算法推薦技術(shù)的“被動”群體極化現(xiàn)象,社會隔閡不斷加深。[14]值得一提的是,學(xué)者喻國明提出了與上述結(jié)論相左的觀點,認(rèn)為信息繭房并非由算法推薦所引起,而是在互聯(lián)網(wǎng)出現(xiàn)以前就一直存在。其本質(zhì)是由個人的選擇和注意所決定的,算法與技術(shù)不過是一種“人體的延伸”。[15]
其次,推薦算法的廣泛應(yīng)用所導(dǎo)致的算法權(quán)力躍升與擴(kuò)張問題也成為近年來研究的熱點問題。算法所具有的高效、智能、低成本等優(yōu)勢,使其取代了傳統(tǒng)編輯,將原本由人所掌握的權(quán)力轉(zhuǎn)移到了機(jī)器的手中。這種權(quán)力的轉(zhuǎn)移主要包括新聞分發(fā)權(quán)從大眾媒體向算法平臺的轉(zhuǎn)移,新聞把關(guān)向注意力經(jīng)濟(jì)的“后移”以及新聞選擇權(quán)從受眾到算法平臺的遷移三個方面。[16]技術(shù)的深度介入與算法的過濾也弱化了編輯在新聞生產(chǎn)中的作用。[17]支撐算法的大數(shù)據(jù)則將人與人、人與物、物與物的存在、屬性及關(guān)系進(jìn)行標(biāo)識和呈現(xiàn),因而實現(xiàn)了一種無所不在,滲透到生活方方面面的權(quán)力范式,在相當(dāng)大的程度上規(guī)定了人對世界的感知及其自由度,從而導(dǎo)致傳播結(jié)果的新一輪“窄化”。[18]以Facebook為代表的社交平臺進(jìn)軍新聞業(yè),在促進(jìn)社交媒體與傳統(tǒng)主流媒體融合的同時,收編了傳統(tǒng)主流媒體并控制了新聞流向受眾的渠道,使其有能力進(jìn)一步控制受眾對新聞議程的認(rèn)知,曾經(jīng)由新聞專業(yè)主義主導(dǎo)的公共領(lǐng)域被權(quán)力更為集中且不透明的傳播寡頭所取代。[19]
3.算法推薦的傳播倫理研究
將圖譜中有關(guān)倫理緊密聯(lián)系節(jié)點“算法倫理”“新聞倫理”“工具理性”“價值理性”“主流價值觀”“主流意識形態(tài)”“算法偏見”“價值傳播”“協(xié)同治理”等文獻(xiàn)進(jìn)行研讀后,發(fā)現(xiàn)學(xué)界對算法推薦的傳播倫理研究多著力于以下方面。
首先,是關(guān)于推薦算法中工具理性與價值理性之間平衡的研究。隨著智能化在信息傳播領(lǐng)域的盛行,推薦算法已經(jīng)具備了工具理性和科技理性的條件和特點。然而其功利性、利益最大化和目的至上的運行邏輯,忽視了人的價值以及人的存在感[20],并將一些真正有價值的信息邊緣化,弱化了對理性價值的引導(dǎo)和主流價值的守望,消解了其長期堅守的社會責(zé)任,公眾和社會也會陷入價值迷失的困局。[21]工具理性還會對新聞專業(yè)主義帶來巨大挑戰(zhàn),新聞人的主體地位開始動搖,新聞媒體的角色被不斷分散弱化,新聞把關(guān)人的地位被算法所取代,新聞媒體的權(quán)威性被逐漸瓦解。[22]
其次,是關(guān)于算法價值觀對社會影響的研究。學(xué)者主要關(guān)注推薦算法中隱含的偏見和利益取向。算法在兩方面的不透明性使其具有了“黑箱”的特征:一方面,軟件產(chǎn)品具有隱蔽性的特征,特定的權(quán)力結(jié)構(gòu)、價值觀和意識形態(tài)已經(jīng)事先被嵌入其中,軟件遮蔽下的“有限性、許可、特權(quán)和障礙”等限制不易被人察覺;[23]另一方面,算法的程序?qū)崿F(xiàn)和工作原理對于開發(fā)者、設(shè)計者而言是已知的知識,而對于受眾或用戶則構(gòu)成了一個“技術(shù)黑箱”。[24]這樣的推送機(jī)制背后也滲透著利益先行的商業(yè)價值觀、公司自身的企業(yè)文化價值觀、算法設(shè)計團(tuán)隊對于人們偏好的認(rèn)知價值觀、政治經(jīng)濟(jì)等非技術(shù)力量等多層價值觀。[25]這不僅會對傳統(tǒng)的新聞價值觀形成嚴(yán)重挑戰(zhàn),還可能會在當(dāng)前的社會條件下產(chǎn)生算法審查、信息操控與平臺傾向,從而影響受眾態(tài)度。[26]此外,新聞把關(guān)權(quán)轉(zhuǎn)移與評價體系的透明化,還會在意識形態(tài)傳播方面面臨渠道轉(zhuǎn)移、話語更新、效果變化等一系列新問題。[27]
再次,在治理算法推送產(chǎn)生的倫理問題方面,學(xué)者大多認(rèn)為“人機(jī)協(xié)同”將會是未來新聞生產(chǎn)的重要模式,也應(yīng)該是算法新聞倫理構(gòu)建中最重要的內(nèi)容[28]。效率不應(yīng)成為新聞分發(fā)平臺算法設(shè)計的唯一考慮,而需要承擔(dān)起社會環(huán)境監(jiān)測、社會整合和文化傳承等多種責(zé)任,[29]并將不作惡、不濫用的“向善”作為底線倫理,明確算法是非人類的“網(wǎng)絡(luò)行動者”而非獨立的倫理行動者,“人”才是算法新聞的責(zé)任主體。[30]在治理模式方面,有學(xué)者提出“算法—利益相關(guān)者”的協(xié)同治理模式,從技術(shù)圈層、社會圈層的角度探討不同利益相關(guān)者的協(xié)同治理方法;[31]還有學(xué)者從個體倫理層次、組織倫理層次和社會倫理層次厘清了具體道德行動者的治理行動領(lǐng)域[32]。目前,國內(nèi)對于算法推薦的治理方式主要包括:建立科學(xué)合理的算法推薦模型、建立頻道欄目分區(qū)分類管理機(jī)制、建立稿源分級分類規(guī)范機(jī)制、完善重要內(nèi)容人工審核機(jī)制、健全平臺技術(shù)監(jiān)測預(yù)警機(jī)制、建立優(yōu)質(zhì)正面內(nèi)容激勵機(jī)制、完善平臺推薦外部監(jiān)督機(jī)制、推動個人信息保護(hù)制度化。[33]
五、研究結(jié)論與展望
(一)算法推薦研究熱點細(xì)化,深入研究趨勢明顯
隨著時間的變化,算法推薦的研究領(lǐng)域不斷產(chǎn)生新的研究熱點,且研究熱點不斷細(xì)化和深入。2010年至2013年,算法推薦的研究較少且大多集中在算法推薦概念和國外相關(guān)案例的討論上,鮮有針對國內(nèi)實際應(yīng)用的研究。而到了2014年,國內(nèi)人工智能和大數(shù)據(jù)等技術(shù)的突破性發(fā)展,使得算法推薦技術(shù)的大規(guī)模應(yīng)用成為可能,同時也引發(fā)了學(xué)者針對內(nèi)容生產(chǎn)與分發(fā)模式改變的熱烈討論。2017年到2018年,隨著“今日頭條”的上線,學(xué)界也迎來了對于算法推薦研究的高潮時期,不僅關(guān)注推薦算法和內(nèi)容分發(fā)平臺對于傳統(tǒng)新聞業(yè)的顛覆和改造,還將注意力放在因算法的廣泛使用而帶來的信息繭房等傳播效果以及更加深刻的算法倫理及其治理等諸多研究方向。綜上所述,目前我國的算法推薦研究呈現(xiàn)研究熱點細(xì)化,且研究不斷深入的明顯趨勢。
(二)出現(xiàn)了以算法從業(yè)人員為研究對象的實證研究
在收集到的文獻(xiàn)資料中,出現(xiàn)了以算法從業(yè)人員為案例的實證研究。在這些實證研究中,學(xué)者嚴(yán)三九與袁帆認(rèn)為新聞傳播領(lǐng)域的智能轉(zhuǎn)向促使諸如算法工程師等新主體參與到新聞生產(chǎn)、分發(fā)之中,因此將新聞分發(fā)平臺的算法工程師作為研究對象,運用問卷調(diào)查法考察了算法工程師對算法倫理問題的了解程度、倫理問題威脅性評估以及算法倫理問題的改善傾向三方面。研究指出,大部分算法工程師對算法在新聞傳播領(lǐng)域引發(fā)的倫理問題了解甚少,僅了解一些熱門事件,對倫理問題的威脅性評估偏低且改善傾向整體偏于保守。該研究有別于在算法推薦研究領(lǐng)域中的其他大量質(zhì)化研究,采用實證研究方法考察算法從業(yè)人員在編寫算法的過程中所采取的行動,也為后來學(xué)者的研究提供了借鑒。
(三)算法倫理及其規(guī)制研究將成為重要的研究熱點
算法所構(gòu)筑的“技術(shù)黑箱”具有高度的隱蔽性,其中蘊含著新聞分發(fā)平臺潛在的價值觀、偏見、導(dǎo)向以及其他不透明因素。為了打破算法黑箱,實現(xiàn)算法透明并規(guī)制算法權(quán)力,中國政府已經(jīng)采取了一系列有力措施。2017年,國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,出臺了一系列人工智能發(fā)展計劃,積極推動人工智能產(chǎn)業(yè)健康發(fā)展;2019年,中國人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》治理框架和行動指南,以進(jìn)一步加強(qiáng)人工智能相關(guān)法律、倫理、標(biāo)準(zhǔn)和社會問題研究。由此可見,在國家相關(guān)政策的扶持下以及學(xué)界研究熱點不斷細(xì)化的背景下,學(xué)界對于算法治理方面的研究將不斷深入。
(四)實證性及跨學(xué)科研究成果不足
實證研究由于其資料收集的可靠性、認(rèn)識社會的廣泛性、研究結(jié)論的客觀性等優(yōu)勢,以及其更接近學(xué)科科學(xué)化要求的研究范式和對科學(xué)的提倡,使實證主義范式成為主流范式,具有不可撼動的學(xué)科地位。[34]然而在收集到的文獻(xiàn)中,實證量化研究的成果數(shù)量卻遠(yuǎn)不如質(zhì)化研究,少數(shù)學(xué)者在針對“信息繭房”的研究中對學(xué)界這種現(xiàn)象提出了批判。學(xué)者王茜指出,目前國內(nèi)學(xué)界有關(guān)算法分發(fā)的文獻(xiàn)以質(zhì)化研究居多,少量量化研究主要以個人觀察為主,容易受主觀因素的影響。[35]而這種主觀因素往往會導(dǎo)致學(xué)者對研究對象的誤判,從而造成學(xué)界在進(jìn)行大量研究的同時也存在著相當(dāng)?shù)恼`解,甚至產(chǎn)生實務(wù)界與學(xué)術(shù)界觀點大相徑庭的結(jié)果。[36]此外,在技術(shù)飛速發(fā)展的同時,學(xué)界對于技術(shù)的討論卻處于相對被動的滯后狀態(tài),較多的是針對目前主流技術(shù)的探討,而缺乏對新技術(shù)的預(yù)見與預(yù)判。有學(xué)者直言,傳統(tǒng)的科學(xué)理論、倫理觀和前沿的技術(shù)實踐之間的關(guān)系在不斷重構(gòu),由于技術(shù)和人文兩種文化之間的隔閡,前沿的技術(shù)倫理的討論存在一定滯后性。[37]“科林格里奇困境”也已經(jīng)指出了技術(shù)發(fā)展失控的風(fēng)險,即“當(dāng)不希望的后果被發(fā)現(xiàn)時,技術(shù)卻往往已經(jīng)成為整個經(jīng)濟(jì)和社會結(jié)構(gòu)的一部分,以至于對它的控制十分困難”[38]。因此,如何在技術(shù)的發(fā)展中把握主動,進(jìn)行富有前瞻性的學(xué)術(shù)研究,成為學(xué)界急需克服的困難。
[本文為國家社科基金重大項目“人工智能時代的新聞倫理與法規(guī)”(項目編號18ZDA308)的研究成果]
參考文獻(xiàn):
[1]夏德元.數(shù)字時代電子媒介人的崛起與出版新視界[J].學(xué)術(shù)月刊,2009,41(9):21-27.
[2]陳悅,陳超美,劉則淵,胡志剛,王賢文.CiteSpace知識圖譜的方法論功能[J].科學(xué)學(xué)研究,2015,33(2):242-253.
[3]李杰,陳超美.CiteSpace:科技文本挖掘及可視化[M].北京:首都經(jīng)濟(jì)貿(mào)易大學(xué)出版社,2016:78.
[4]宋建武,黃淼.媒體智能化應(yīng)用:現(xiàn)狀、趨勢及路徑構(gòu)建[J].新聞與寫作,2018(4):5-10.
[5]喻國明,蘭美娜,李瑋.智能化:未來傳播模式創(chuàng)新的核心邏輯——兼論“人工智能+媒體”的基本運作范式[J].新聞與寫作,2017(3):41-45.
[6]王娜,任婷.移動社交網(wǎng)站中的信息過載與個性化推薦機(jī)制研究[J].情報雜志,2015,34(8):190-194+176.
[7]喻國明,侯偉鵬,程雪梅.個性化新聞推送對新聞業(yè)務(wù)鏈的重塑[J].新聞記者,2017(3):9-13.
[8]陳昌鳳,王宇琦.新聞聚合語境下新聞生產(chǎn)、分發(fā)渠道與內(nèi)容消費的變革[J].中國出版,2017(12):3-7.
[9]張瀟瀟.算法新聞個性化推薦的理念、意義及倫理風(fēng)險[J].傳媒,2017(11):82-84.
[10]邵征鋒.抖音傳播的特征、挑戰(zhàn)及未來發(fā)展趨勢探析[J].現(xiàn)代教育技術(shù),2018,28(12):80-86.
[11]國秋華,孟巧麗.抖音的互動儀式鏈與價值創(chuàng)造[J].中國編輯,2018(9):70-75.
[12]于黎冰.從“今日頭條”看個性化新聞推薦系統(tǒng)的優(yōu)劣[J].傳媒,2016(19):44-45.
[13]郝雨,李林霞.算法推送:信息私人定制的“個性化”圈套[J].新聞記者,2017(2):35-39.
[14]倪萬,孫靜茹.推薦算法驅(qū)動下“被動”群體極化現(xiàn)象及消解[J].青年記者,2019(31):43-45.
[15]喻國明,曲慧.“信息繭房”的誤讀與算法推送的必要:兼論內(nèi)容分發(fā)中社會倫理困境的解決之道[J].新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2020,41(1):127-133.
[16]陳昌鳳,霍婕.權(quán)力遷移與人本精神:算法式新聞分發(fā)的技術(shù)倫理[J].新聞與寫作,2018(1):63-66.
[17]劉運來.個性化推薦閱讀時代的編輯缺位及其影響[J].編輯之友,2017(9):76-79+90.
[18]喻國明,楊瑩瑩,閆巧妹.算法即權(quán)力:算法范式在新聞傳播中的權(quán)力革命[J].編輯之友,2018(5):5-12.
[19]史安斌,王沛楠.傳播權(quán)利的轉(zhuǎn)移與互聯(lián)網(wǎng)公共領(lǐng)域的“再封建化”:臉譜網(wǎng)進(jìn)軍新聞業(yè)的思考[J].新聞記者,2017(1):20-27.
[20]陳昌鳳,石澤.技術(shù)與價值的理性交往:人工智能時代信息傳播——算法推薦中工具理性與價值理性的思考[J].新聞戰(zhàn)線,2017(17):71-74.
[21]張藍(lán)姍,黃高原.算法推薦給媒介公共領(lǐng)域帶來的挑戰(zhàn)[J].當(dāng)代傳播,2019(3):31-33.
[22]杜娟.走向人機(jī)協(xié)同:算法新聞時代的新聞倫理[J].新聞愛好者,2019(9):21-25.
[23]Mager A. Algorithmic Ideology:How Capitalist Society Shapes Search Engines[J].Information,Communication & Society,2012,5(15).
[24]張淑玲.破解黑箱:智媒時代的算法權(quán)力規(guī)制與透明實現(xiàn)機(jī)制[J].中國出版,2018(7):49-53.
[25]陳昌鳳,霍婕.權(quán)力遷移與人本精神:算法式新聞分發(fā)的技術(shù)倫理[J].新聞與寫作,2018(1):63-66.
[26]方師師.算法機(jī)制背后的新聞價值觀:圍繞“Facebook偏見門”事件的研究[J].新聞記者,2016(9):39-50.
[27]張志安,湯敏.論算法推薦對主流意識形態(tài)傳播的影響[J].社會科學(xué)戰(zhàn)線,2018(10):174-182+2.
[28]杜娟.走向人機(jī)協(xié)同:算法新聞時代的新聞倫理[J].新聞愛好者,2019(9):21-25.
[29]彭蘭.智能時代的新內(nèi)容革命[J].國際新聞界,2018,40(6):88-109.
[30]王仕勇,樊文波.向善向上:基于良性互動的算法新聞治理倫理研究[J].重慶大學(xué)學(xué)報(社會科學(xué)版),2021,27(2):225-236.
[31]張超.社交平臺假新聞的算法治理:邏輯、局限與協(xié)同治理模式[J].新聞界,2019(11):19-28+99.
[32]趙瑜.人工智能時代的新聞倫理:行動與治理[J].人民論壇·學(xué)術(shù)前沿,2018(24):6-15.
[33]方師師.算法如何重塑新聞業(yè):現(xiàn)狀、問題與規(guī)制[J].新聞與寫作,2018(9):11-19.
[34]實證研究的功效與局限[EB/OL].http://www.cssn.cn/shx/shx_bjtj/201404/t20140414_1065488.shtml.
[35]王茜.論個性化信息推薦系統(tǒng)的運作邏輯及影響[J].鄭州大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2017,50(1):155-157.
[36]喻國明,曲慧.“信息繭房”的誤讀與算法推送的必要:兼論內(nèi)容分發(fā)中社會倫理困境的解決之道[J].新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2020,41(1):127-133.
[37]陳昌鳳,霍婕.權(quán)力遷移與人本精神:算法式新聞分發(fā)的技術(shù)倫理[J].新聞與寫作,2018(1):63-66.
[38]Collingridge D.The Social Control of Technology[M].New York:St.Martin's Press,1981.11.
(丁睿豪為上海理工大學(xué)出版印刷與藝術(shù)設(shè)計學(xué)院碩士生;夏德元為上海理工大學(xué)出版印刷與藝術(shù)設(shè)計學(xué)院教授、互聯(lián)網(wǎng)與文化創(chuàng)意產(chǎn)業(yè)協(xié)同創(chuàng)新中心主任)
編校:董方曉
3911500338291