師 文, 陳昌鳳
2018年,人工智能技術(shù)與新聞傳播界發(fā)生深度融合,全方位地介入信息生產(chǎn)、分發(fā)、互動反饋流程,掀起行業(yè)理念與業(yè)態(tài)實踐的變革,促進信息更有效地傳播。同時,新興智能媒介的擴張也引發(fā)了新聞傳播學者的種種憂慮,比如人與信息原有關(guān)系的變革、信息倫理價值的重塑、智能化信息傳播的監(jiān)管,等等。本文綜合了2018年國內(nèi)外百余篇關(guān)于智能媒體的前沿研究,選擇其中較有影響的作品進行整合綜述。我們發(fā)現(xiàn),在全球視野下,2018年智能媒體的研究主要集中在智能技術(shù)與職業(yè)新聞理念、用戶與算法可信度、信息環(huán)境多樣性、智能化技術(shù)參與互聯(lián)網(wǎng)信息治理、算法與權(quán)力、算法機制與信息價值觀、透明度與算法問責機制七個方面,本文將逐一予以梳理探析。
在2018年11月7日的第五屆世界互聯(lián)網(wǎng)大會上,搜狗與新華社聯(lián)合發(fā)布全球首個全仿真AI主持人,借助語音合成、唇形合成、表情合成以及深度學習等技術(shù),“AI合成主播”具備和真人主播無異的播報能力(新華網(wǎng), 2018)。與此同時,學界對人工智能與新聞業(yè)關(guān)系的探討從暢想式的描述轉(zhuǎn)向更深度的實證剖析,思考算法作為人類新聞生產(chǎn)傳播的協(xié)作者正以何種方式嵌入當前的新聞業(yè)鏈條。智能媒介技術(shù)對傳統(tǒng)媒體和新媒體平臺的滲透如何重塑行業(yè)理念和操作準則、人工記者編輯對智能化技術(shù)的適應與抗拒成為過去一年學術(shù)研究的興趣所在。
算法一定程度上迫使專業(yè)新聞機構(gòu)和從業(yè)者的職業(yè)行為進行“適應性”調(diào)整。社交平臺臉書(Facebook)調(diào)整其News Feed算法以優(yōu)先考慮原生視頻的行為不僅改變了平臺內(nèi)部的運作邏輯,也對傳統(tǒng)上由新聞業(yè)運作方式約束的新聞機構(gòu)產(chǎn)生影響。研究者發(fā)現(xiàn)新聞機構(gòu)顯著地調(diào)整了自己的發(fā)布行為以迎合非新聞機構(gòu)——臉書的算法規(guī)則調(diào)整(Tandoc & Maitra, 2018)。社交媒體的新聞編輯會將臉書的算法規(guī)則與自己挑選新聞的標準相結(jié)合,在投放新聞的過程中突出情感和驚奇的敘事元素以符合用戶偏好和News Feed算法的邏輯(Lischka, 2018)。
但是,新聞工作者仍然警惕并抗拒智能技術(shù)對新聞生產(chǎn)規(guī)則的改寫。常江聚焦位于“新舊媒體交合地帶”的美國門戶新聞網(wǎng)站(常江, 2018a),訪談研究從業(yè)者在人工智能影響下的職業(yè)理念形態(tài),發(fā)現(xiàn)門戶新聞網(wǎng)站的從業(yè)者對人工智能持有策略化逃避的立場。從業(yè)者們認為算法破壞了傳統(tǒng)新聞網(wǎng)站超鏈接文化下用戶闡釋、探索新聞的自主性;使新聞發(fā)現(xiàn)與新聞生成之間的時距幾乎消失,強化了人工記者編輯對“即時性”的焦慮;使用戶陷入單向被動的信息流,壓縮了讀者與內(nèi)容的交互空間,降低了公共參與精神被培育的可能性,因而批評智能技術(shù)破壞了第一代網(wǎng)絡新聞培育出的民主氣質(zhì)和協(xié)商性空間。此外,智能化技術(shù)正驅(qū)使智能媒體與專業(yè)新聞機構(gòu)建立合作,這會消弭地區(qū)報紙形態(tài)上的個性(常江, 2018b)。
新聞工作者對新聞生產(chǎn)過程中人機共生關(guān)系的認知較為矛盾。胡翼青和朱曉穎采用問卷方法調(diào)查了國內(nèi)職業(yè)新聞從業(yè)者對AI的看法,發(fā)現(xiàn)新聞從業(yè)者的認知與情感之間存在不協(xié)調(diào),一方面對AI認知呈現(xiàn)淺層化的樣態(tài),缺乏系統(tǒng)學習和實踐體驗;另一方面卻對AI的發(fā)展呈現(xiàn)積極、樂觀的正面情感(胡翼青、朱曉穎, 2018)。而基于行動者網(wǎng)絡理論(Actor Network Theory)的研究發(fā)現(xiàn),雖然算法已經(jīng)深刻地介入了新聞采訪和新聞發(fā)布環(huán)節(jié),并正加深對新聞寫作階段的滲透,但是新聞工作者堅持認為自己仍然處于新聞制作過程的各個階段,特別是新聞選擇和編輯階段,這表明他們希望保護自己作為意義最終仲裁者的角色(Wu et al., 2018)。
記者編輯“新聞文化”和算法“技術(shù)文化”交融被學者看作智能時代新聞行業(yè)理念發(fā)展的方向。通過對59個開源移動新聞的源代碼進行內(nèi)容分析,研究者觀察了代碼在I-T-O中(input-throughput-output)中展現(xiàn)出的特性和決策結(jié)構(gòu)如何影響新聞,并指出雖然存在多層黑箱嵌套的問題,但算法本質(zhì)上仍是一組執(zhí)行程序員決策意志的代碼,試圖用自動化評估方式替代人類記者編輯在編輯會上的內(nèi)容排序。因而程序員和記者之間“交流區(qū)”對于未來的移動應用程序開發(fā)很重要(Weber & Kosterich, 2018)。
2018年的皮尤數(shù)據(jù)表明,約一半的臉書用戶表示他們在看到平臺如何對其進行分類時感到心理不適,27%的用戶認為網(wǎng)站的分類并不能準確地代表自己(Hitlin & Rainie, 2019)。作為新聞產(chǎn)品消費的主體,用戶對算法應用的反饋會影響自動化工具的商業(yè)推廣程度,因而用戶對自動化新聞、個性化推薦系統(tǒng)的態(tài)度成為本年度智能媒體受眾研究的重點。
在機器人寫作的相關(guān)研究中,多位學者試圖探討機器作者身份如何影響新聞“可信度”,但是尚未達成一致的結(jié)論。有研究指出,用戶認為自動化新聞不如人類記者的新聞可信(Waddell, 2018),將算法新聞“擬人化”成為“機器人新聞”不利于自動化新聞的推廣,但是從過去的媒介使用中回憶自動化實體可以增加受讀者對自動化新聞的接受度。還有研究通過實驗法探究文章的“宣稱”作者和“實際”作者是否對讀者評價產(chǎn)生影響(Graefe et al., 2018),發(fā)現(xiàn)不論文章實際上是由機器還是人類寫作的,受試者對“被宣稱”為人類寫作的文章評價更高。但是,“實際上”由計算機生成的文章雖然可讀性稍低,但是卻被認為更可靠、有更多的新聞專業(yè)知識。而針對歐洲讀者的實驗表明(W?lker & Powell, 2018),自動化、人類、混合來源的新聞可信度感知相等,對于體育文章而言,自動化內(nèi)容甚至比人類消息更可信。
在個性化推薦系統(tǒng)方面,較多研究探討了用戶對個性化新聞和非個性化新聞之間的偏好。對26個國家用戶的統(tǒng)計得出,雖然存在個體差異,但是總體而言,用戶認為基于歷史消費行為的算法是比人工編輯更好的新聞推薦方式。年齡、對新聞的信任、對隱私的關(guān)注、移動新聞使用程度等變量都對這種偏好有影響(Thurman et al., 2018)。荷蘭讀者對個性化新聞的態(tài)度取決于對新聞推薦系統(tǒng)的多樣性和公共新聞領(lǐng)域的在意程度,而不是隱私等因素。同時,用戶在對待個性化新聞的態(tài)度方面是異質(zhì)的,年輕、受教育程度低的用戶十分青睞個性化新聞,較少接觸公共媒體提供的多樣化信息服務(Bodó et al., 2018)。
除了專業(yè)新聞機構(gòu)的自動化新聞生產(chǎn)和分發(fā),社交媒體上的信息流算法也成為受眾研究的語境。研究發(fā)現(xiàn),大多數(shù)人在社交媒體上瀏覽新聞的方式是基于“普遍的懷疑主義”,用戶經(jīng)常無法準確理解他們收到的信息是如何被過濾的,但也不會不加批判地接受它。用戶在社交媒體上的新聞消費呈現(xiàn)懷疑主義和日常實用主義結(jié)合的悖論(Fletcher & Nielsen, 2018)。
“過濾氣泡” (the filter bubble)由Eli Pariser于2011年提出,認為用戶天然地追求個人興趣,無視信息多樣性,而社交網(wǎng)絡和個性化推薦對信息的過濾作用會迎合這種期待,窄化用戶信息獲取的范圍,形成“過濾氣泡”。在過去一年中,基于用戶興趣偏好和個人特征的個性化推薦算法廣泛應用于搜索引擎、社交媒體以及傳統(tǒng)媒體,引發(fā)學者對信息環(huán)境“多樣性”的擔憂,大量實證研究關(guān)注算法的信息過濾功能是否真的降低了信息環(huán)境的異質(zhì)性。
雖然有學者擔心個性化搜索引擎中“千人千搜”的新聞呈現(xiàn)會構(gòu)建不同的知識—社會秩序(方師師, 2018a),但是對168名谷歌搜索引擎用戶的賬戶進行調(diào)查發(fā)現(xiàn),美國不同州、具有不同政治傾向的用戶被推薦的新聞非常相似,挑戰(zhàn)了算法必然促成“回聲室效果”的假設,同時,被推薦新聞的來源呈現(xiàn)高度的同質(zhì)性和集中度,作者認為這表明谷歌新聞構(gòu)建的新聞議程復制而不是破壞了傳統(tǒng)新聞業(yè)的信息結(jié)構(gòu)(Nechushtai & Lewis, 2018)。
也有學者采用跨學科的方法對個性化新聞推薦系統(tǒng)中的“過濾氣泡”予以檢驗(M?ller et al., 2018),借助計算機技術(shù)設計了隨機推薦系統(tǒng)、人工推薦系統(tǒng)和基于流行度、語義過濾、協(xié)同過濾等原則的多個個性化推薦系統(tǒng),測量推薦算法對內(nèi)容多樣性的影響,發(fā)現(xiàn)與非個性化建議相比,算法推薦的多樣性沒有減少,其中個性化協(xié)同過濾系統(tǒng)推薦的內(nèi)容主題最豐富。雖然如此,作者也承認推薦系統(tǒng)仍然面臨著長尾內(nèi)容逐漸邊緣化的風險,應該通過對小眾內(nèi)容的加權(quán)來對抗這種風險。
社交平臺上的智能化社交信息流將算法分發(fā)和社交分發(fā)相結(jié)合,提供了新聞傳播的新規(guī)則,因而智能化社交信息流的算法也成為多樣性檢驗的對象。通過對臉書算法推薦的信息進行信息源和語義相似度分析(Bechmann & Nielbo, 2018),學者發(fā)現(xiàn)10%的信息源和27.8%的語義受到過濾氣泡影響,朋友、群組身份等社交屬性是增強智能化社交信息流中“過濾氣泡”的顯著因素。
雖然各類算法實踐是否真的會促進“過濾氣泡”仍然沒有定論,但是為了規(guī)避算法降低用戶信息環(huán)境多樣性的風險,有學者從三個維度為推薦算法的信息多樣性制定原則和測量標準(Helberger et al., 2018)。其一,從個人自治維度考慮,推薦系統(tǒng)的多樣化的信息應該能滿足、拓展用戶的個人選擇,增強用戶對于多種選擇的認識;其二,從促進理性公共辯論的角度,多樣化信息應保證用戶與對立政治觀點接觸的程度,促成跨意識形態(tài)之間的互動,以建立社會成員相互理解和妥協(xié)的認知基礎(chǔ);其三,基于激進多元主義和對抗民主觀念,算法應該主動促進批判性意見和弱勢觀點,將異議引入公共辯論。糾正公共討論被精英和利益集團主導的趨勢,為挑戰(zhàn)用戶現(xiàn)有理念的內(nèi)容提供生存空間。
2018年,假新聞仍然是困擾互聯(lián)網(wǎng)用戶和新聞傳播學者的難題。Science雜志發(fā)布假新聞研究(Vosoughi et al., 2018),通過觀察2006年至2017年在Twitter上發(fā)布的所有經(jīng)過驗證的真實新聞和虛假新聞的擴散行為,發(fā)現(xiàn)不論新聞的主題為何,虛假信息的傳播范圍遠遠超過真實新聞。此外,假新聞被證明具有強大的議程設置功能(Vargo et al., 2018)。面對互聯(lián)網(wǎng)信息環(huán)境中泛濫的假新聞和捉襟見肘的人工核查,智能化技術(shù)被廣泛應用到假新聞的識別和傳播阻斷中。2018年1月,臉書宣布改變其算法,優(yōu)先考慮可信賴的新聞,以回應關(guān)于其算法是否促進垃圾內(nèi)容的社會討論(Bond, 2018)。今日頭條于2018年3月15日披露“資訊打假”技術(shù)路線圖,將NLP技術(shù)引入自動化謠言識別工程,阻斷假新聞傳播(人民網(wǎng), 2018a)。
雖然在新聞界并未獲得太多關(guān)注,但在計算機界,如何用智能化技術(shù)實現(xiàn)對失實新聞的核查已經(jīng)成為最熱門的新聞學問題。2018年,大量采用算法進行自動化事實核查的研究成果涌現(xiàn)(Conforti et al., 2018; Hanselowski et al., 2018; 劉知遠等, 2018),智能化技術(shù)可以根據(jù)新聞的來源(Sarr et al., 2018)、文本特征(Della Vedova et al., 2018)、傳播網(wǎng)絡(Shu et al., 2019)、用戶反饋(Tschiatschek et al., 2018)、演變規(guī)律(Jang et al., 2018)進行可信度判斷,以實現(xiàn)謠言檢測、謠言跟蹤、謠言立場分類和謠言準確性分類。
除了假新聞,通過誤導、欺騙、夸張的表述來激發(fā)用戶好奇心,以增加閱讀量和廣告收入的標題黨(clickbait)也成為算法偵查的對象。計算機科學家采用機器學習算法從社交媒體的帖子中提取文本特征,完成對標題黨信息的識別(Khater et al., 2018;Pandey & Kaur, 2018)。此外,算法還被用于過濾恐怖主義言論、圖像和視頻,挖掘恐怖組織社會網(wǎng)絡(李龍、支庭榮, 2018)。
但是,目前對智能化事實核查算法解決假新聞的有效性評估僅局限于計算機科學家在特定數(shù)據(jù)集上的查全率和查準率,鑒于算法模型的邏輯缺陷和假新聞的復雜性,通過技術(shù)手段解決假新聞問題在實際社會系統(tǒng)下的有效性值得商榷 (陳昌鳳、師文, 2018)。正如密歇根大學信息學院副教授梅俏竹(人民網(wǎng), 2018b)所說:“反謠言并不是一個單純的人工智能問題,并非有大數(shù)據(jù)和精深算法就能解決。它需要對各種復雜的因素有深刻的理解,上至國家政策,中有信息的生命周期,下至個人的心理和行為?!痹诋斍暗男畔⑸鷳B(tài)中,通過智能化技術(shù)解決假新聞問題的有效性和局限性尚待進一步探討。
傳播是一種權(quán)力(Castells, 2013),傳播主體通過選擇性的信息呈現(xiàn)和策略性的意義賦予,干預受眾的信息環(huán)境,進而起到構(gòu)建社會現(xiàn)實的作用。算法對新聞業(yè)的介入引發(fā)批判研究對“權(quán)力遷移”的關(guān)注,陳昌鳳等學者(陳昌鳳、霍婕, 2018)開始反思算法使權(quán)力從公共機構(gòu)遷移到掌握資本驅(qū)動的技術(shù)公司所引發(fā)的風險。王維佳認為,相比傳統(tǒng)媒體清晰的操作流程,算法使傳播的操作后臺化,資本權(quán)力擴張,壟斷傳播資源,內(nèi)容采集、投遞、營銷難以受到公共力量的監(jiān)督,擁有技術(shù)和數(shù)據(jù)的公司反而擁有更多的公共權(quán)力(呂新雨等, 2018)。
算法對用戶的控制權(quán)也在增強。尚帥(2018)認為,算法使傳播由時空偏向轉(zhuǎn)為興趣偏向,在大數(shù)據(jù)電子檔案的協(xié)助下,傳統(tǒng)意義上對國家和公共機構(gòu)不透明的個人空間消失,個人處于隱蔽的“超級全景監(jiān)獄”卻渾然不覺。技術(shù)與商業(yè)合謀,資本在流量的驅(qū)動下完成對個人的監(jiān)視、規(guī)訓和剝削。
算法除了在控制信息生產(chǎn)、流通的過程中體現(xiàn)出權(quán)力,還通過制定行業(yè)規(guī)范彰顯統(tǒng)治力。從組織社會學視角對臉書News Feed算法理念的流變和推廣進行分析,學者發(fā)現(xiàn)具有主導地位的組織制定的算法能夠引起整個行業(yè)的效仿。研究者認為除了強調(diào)算法在建構(gòu)現(xiàn)實中的作用,人們也應該正視算法作為組織和個人之間關(guān)系管理機制的功能。作為這種組織結(jié)構(gòu)的一部分,算法系統(tǒng)不僅能夠使主導性組織的管理機制自動化,還提供了一種共同的語言或結(jié)構(gòu),重新定義價值,影響其他組織和個人的合法性(Caplan & Boyd, 2018)。
面對社交媒體權(quán)力的擴張,有學者通過對“Facebookistan”一詞的考察反思社交媒體國家化的趨勢,認為社交媒體正根據(jù)自己的理念定義人類的聯(lián)結(jié)方式,通過對人類活動的不斷滲透構(gòu)建類似于傳統(tǒng)民族國家的“共同體”。社交媒體在公司與國家之間的身份模糊化使得對社交媒體的治理策略應該摒棄基于“國家—社交媒體”的二元框架(徐偲骕、姚建華, 2018)。
皮尤數(shù)據(jù)顯示,58%的美國人認為計算機算法總會反映某種程度的人為偏見,并對隱私保護、算法公平性表示擔憂(Smith, 2018a)。從批判算法研究(critical algorithm studies)的視角來看,雖然長期依賴被加諸“科學”“客觀”的光環(huán),但算法作為人的邏輯作品,難以實現(xiàn)絕對的客觀中立和價值無涉,其背后的信息價值觀和信息秩序倡導值得關(guān)注?!端惴ㄏ胍裁础?Finn, 2017)一書指出,算法雖然看似客觀中立,但它實際上是一種需要我們閱讀和理解的文化機器,提醒公眾關(guān)注算法背后的人類工作者(如為數(shù)據(jù)打標簽的人)、算法所服務的資本和科技巨頭、算法中隱藏的階級劃分。
目前,有研究者關(guān)注到算法中隱含的風險和價值挑戰(zhàn)。方師師(2018b)試圖借助谷歌和臉書目前披露的信息向算法黑箱內(nèi)部進行窺視,比較谷歌新聞和臉書信息流在核心排序算法、新聞要素權(quán)重、價值觀維度上的差別,發(fā)現(xiàn)臉書認為“你的世界就是你的朋友圈”,通過強調(diào)社交關(guān)系親密度滿足人們的社交需求和娛樂需求,谷歌則更多根據(jù)信息覆蓋面進行排序,通過強調(diào)客觀指標突出自己作為“認識世界的工具”的目標。
也有學者試圖打破計算機學科和新聞學科之間的藩籬,從技術(shù)視角反思算法運作邏輯背后的價值風險。通過對多種智能化社交信息流算法進行考察,有學者(師文、陳昌鳳, 2018)發(fā)現(xiàn)不同的算法意味著不同的價值觀考量,臉書的Edgerank算法以及受到谷歌Pagerank算法啟發(fā)的Twitterank算法均是對社會關(guān)系進行加權(quán),二者分別對應著傳播學中的弱關(guān)系和強關(guān)系,是社交平臺對進行“關(guān)系加權(quán)“算法時需要妥善權(quán)衡的兩種對立價值觀。此外,對興趣的加權(quán)算法有可能導致用戶信息環(huán)境與客觀現(xiàn)實的錯位,對互動指標加權(quán)可以促進公共討論,但有誘發(fā)黃色新聞潮的風險,而混合型算法則最含透明性隱憂,或許會導致技術(shù)權(quán)力對社交平臺公共領(lǐng)域的“再封建化”。
2018年3月,社交網(wǎng)站臉書被曝出泄露用戶數(shù)據(jù),涉嫌影響大選。微軟首席研究員、數(shù)據(jù)與社會研究所創(chuàng)始人兼總裁Danah Boyd指出,就像有人將AI用于科學和人道主義工作一樣,也會有人將AI用于追求權(quán)力(Anderson & Rainie, 2018)。鑒于算法在決策過程中占有越來越重要的權(quán)重,算法的不透明性及監(jiān)管缺失被推上輿論的風口浪尖,學者們試圖回應“如何做出道德的人工智能體”之問(喻豐、許麗穎, 2018)。
建立算法的問責機制以保證算法決策的正當性成為學界和業(yè)界共識。2018年,第40屆數(shù)據(jù)保護與隱私專員國際大會(ICDPPC)發(fā)布《人工智能倫理與數(shù)據(jù)保護宣言》,限制人工智能對隱私數(shù)據(jù)的使用;歐盟委員會組建人工智能高級專家組,發(fā)布《關(guān)于可信賴人工智能的倫理準則》(草案)(EuropeanCommission’sHigh-LevelExpertGrouponArtificialIntelligence, 2018),指出可信賴的AI應該遵守可問責性、非歧視性、透明性、尊重人類自主性等十大原則,尤其強調(diào)人工智能系統(tǒng)應該記錄他們所做的決定以及產(chǎn)生這些決定的整個過程,以最大化透明度和可解釋性。
使算法對設計者、用戶和所有受算法結(jié)果影響的人透明被很多學者認為是建立算法問責機制的前提。數(shù)據(jù)顯示,相當多的臉書用戶不了解平臺News Feed運作的機制,認為普通用戶幾乎無法控制其中出現(xiàn)的內(nèi)容,也未曾嘗試主動影響推送給自己的新聞流(Smith,2018b),美國學者試圖借助《信息自由法案》敦促算法公開(Fink, 2018)。仇筠茜、陳昌鳳(2018a)認為,算法將新聞生產(chǎn)、流通中的各個環(huán)節(jié)推入“黑箱”,其真實度、可信度、透明度難以判斷。一方面,以無監(jiān)督學習代表的機器學習算法的運作邏輯無法為人類知曉,卻被科學神話“崇高化”,發(fā)揮著主導在線討論、決定新聞樣態(tài)、定義用戶信息環(huán)境的功能。另一方面,人工智能對技術(shù)的強依賴導致技術(shù)公司通過承包業(yè)務、壟斷新聞分發(fā)渠道,實現(xiàn)了對傳統(tǒng)媒體的收編。技術(shù)本身和技術(shù)商業(yè)化共同構(gòu)成了人工智能的黑箱,需要通過公開I-T-O環(huán)節(jié)、逆向工程、強調(diào)“可理解的透明度”打開算法黑箱(仇筠茜、陳昌鳳, 2018b)。不過,透明并不限于“開源”,對算法的討論離不開其被設計、實踐的社會政治經(jīng)濟語境。公眾的專業(yè)知識和批判意識、模型的復雜性等因素決定了這種透明度是否真的有意義(Kemper & Kolkman, 2018)。MIT比較媒體研究教授William Uricchio甚至提出“AI-literate”一詞,認為教育部門和媒體應該致力于培養(yǎng)有“AI素養(yǎng)”的公眾,在公眾及其制定的法律監(jiān)管制度能夠適應這些技術(shù)成果之前,我們需要對人工智能的發(fā)展保持謹慎態(tài)度(Anderson & Rainie, 2018)。
但同時,也有學者質(zhì)疑提升算法透明度是否真的意味著算法監(jiān)管的可行性。有學者認為由于對透明性的強調(diào)陷入完全公開與完全不公開的二元邏輯、強調(diào)可見而非可理解、算法更新迭代速度快、目前科技對于算法的解釋力有限等原因,通過增加“透明性”實現(xiàn)算法監(jiān)管有一定的局限性(Ananny & Crawford, 2018)。政治經(jīng)濟學的學者也認為將構(gòu)建負責算法的希望寄托在“透明性”上是一種過于理想化的想法,對數(shù)據(jù)經(jīng)紀行業(yè)的案例研究發(fā)現(xiàn),在政治經(jīng)濟學視野中,透明性與不可逾越的結(jié)構(gòu)性限制相抵觸,個人信息的商品化才是權(quán)力不平衡的根源(Crain, 2018)。
2018年,人工智能技術(shù)全面浸入新聞編輯室,重塑了傳統(tǒng)媒體和新媒體平臺的生態(tài)格局,與原有的專業(yè)理念、業(yè)態(tài)實踐發(fā)生深刻的交互??傮w來說,2018年全球視野下的智能媒體研究呈現(xiàn)出兩個總體規(guī)律。
首先,對智能媒體的研究呈現(xiàn)經(jīng)驗研究與批判研究相結(jié)合的樣態(tài)。一方面,面對智能媒體運作邏輯對人類認知的超越,大量關(guān)于從業(yè)者理念、信息環(huán)境多樣性等議題的實證研究涌現(xiàn),學者們除了采用傳統(tǒng)意義上的問卷法、實驗法、訪談法,還依托自主設計推薦系統(tǒng)、對源代碼進行內(nèi)容分析、收集賬戶電子痕跡等新方法展開研究,拓展了智能媒體研究的想象力;另一方面,學者們采用政治經(jīng)濟學、批判算法研究等視角,對算法帶來的權(quán)力遷移、算法中隱藏的信息價值觀、算法問責機制予以探討,為制定人機深度融合格局下的社會規(guī)范提供參考。
其次,對智能媒體的研究呈現(xiàn)跨學科的趨勢,在智能媒體的學術(shù)場上,不僅有新聞學、傳播學學者的身影,也活躍著大量來自計算機、管理學、哲學等學科的學者,借助各自學科的專業(yè)知識和研究視角,對算法的運作機理、法律監(jiān)管、倫理風險等問題進行探討,這表明智能媒體對信息傳播乃至整個社會帶來的系統(tǒng)性問題超越單一學科范疇,需要多個學科合力參與。
對于中國傳播學界而言,這些趨勢對于未來的學術(shù)走向有啟發(fā)性意義。在智能媒體越來越深刻地改寫傳媒業(yè)運作邏輯、重塑信息傳播規(guī)則的背景下,智能媒體研究者應該擁有跨學科的視野,借助量化、質(zhì)化、批判等多種研究范式,積極回應媒介技術(shù)變遷帶來的社會問題,探討人、信息、社會之間的關(guān)系變遷,從制度與結(jié)構(gòu)層面為促進智媒時代技術(shù)與人類社會系統(tǒng)融合接洽做出貢獻。
本文為國家社科基金重大項目“智能時代的信息價值觀引領(lǐng)研究”的階段性成果,項目號:18ZDA307。