国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

算法權(quán)力的獲得、運行隱患與規(guī)制

2021-11-26 18:03李含含
未來傳播 2021年5期
關鍵詞:權(quán)力算法人工智能

吳 飛,李含含

(1.浙江大學傳媒與國際文化學院,浙江杭州310058;2.西北政法大學新聞傳播學院,陜西西安710063)

一、問題的提出

2021年5月13日,工信部發(fā)文表示,之前通報的93家存在侵害用戶權(quán)益行為APP企業(yè)的名單中尚有39款APP未按照要求完成整改。[1]這已經(jīng)是2021年第三批通報的有關APP侵害用戶權(quán)益文件,而此文件中所涉及的APP正是我們經(jīng)常使用的一些軟件。某時報記者曾經(jīng)做過一個實驗,他把手機放到一邊,自己跟朋友聊天,講到最近想吃日料,緊接著他打開外賣軟件,發(fā)現(xiàn)首屏推薦里竟然就出現(xiàn)了日料店。后來他把聊天關鍵詞改成了海鮮、火鍋等,APP的推薦竟然也跟著產(chǎn)生相應改變,準確率可以達到80%。當然我們可以說這個實驗不嚴謹不科學,但真相究竟是怎樣的呢?

“人工智能”概念在1956年的達特茅斯會議中首次被提出,指的是制造智能設備來開發(fā)相關程序,從而延伸和擴展人類智能的技術。[2]從13世紀歐洲哲學家拉蒙·柳利最早提出“邏輯機”的設想,到1955年美國科學家約翰·麥卡錫第一次明確提出“人工智能”一詞,[3]再到谷歌公司的阿爾法狗戰(zhàn)勝世界頂尖圍棋選手李世石,人工智能技術正在影響著社會生活的方方面面,對新聞傳播領域尤是如此。一方面,人工智能對新聞生產(chǎn)全鏈條的滲透拓展著傳播疆域,另一方面,其可能帶來的技術中心主義、權(quán)力操控等也在新聞傳播中埋下了諸多風險。

算法是人工智能時代的產(chǎn)物,可以說算法的優(yōu)劣直接決定人工智能水平高低,算法幾乎是人工智能的靈魂。算法最早用于計算機領域,是指解題方案準確而完整的描述,是一系列解決問題的清晰指令,算法代表著用系統(tǒng)的方法描述解決問題的策略機制。[4]在傳媒領域,算法可以作為一種機器指令被應用于新聞采集、生產(chǎn)、分發(fā)等各個階段。而算法推薦是指依托互聯(lián)網(wǎng)技術與大數(shù)據(jù)技術,對用戶的閱讀偏好進行跟蹤,經(jīng)過計算分析后得出用戶畫像,并據(jù)此進行新聞生產(chǎn)與分發(fā)。[5]當下算法類軟件正迅猛發(fā)展,算法軟件推薦的內(nèi)容紛繁復雜,算法推薦造就了算法內(nèi)容的流量王國。時至今日,算法已經(jīng)成為國內(nèi)資訊類APP的“標配”,今日頭條、一點資訊、天天快報等,無不以算法作為其核心配置。[6]算法推薦本該是為了更好地服務用戶,而當下算法推薦內(nèi)容的過度窄化、軟件對算法的過度推崇等則與之初衷背道而馳。我們一方面享受算法給我們帶來的個性化內(nèi)容,另一方面又擔心沉溺于此。因此,無論學界還是業(yè)界,都有必要對這一傾向保持冷靜的態(tài)度,并思考算法權(quán)力究竟從何而來?算法權(quán)力運行又會給我們帶來什么隱患?我們又該如何進行規(guī)制?

二、算法權(quán)力的獲得

(一)用戶賦予

算法權(quán)力的獲得是用戶賦予的。同一生態(tài)甚至使用同一插件的不同軟件之間普遍存在著共享信息現(xiàn)象,也就是說如果A軟件沒有獲得用戶權(quán)限,但當它的好兄弟B軟件獲得了該用戶權(quán)限,那么B軟件就會把它得到的信息共享給A。不少用戶對此存在疑問:這難道不是泄露個人隱私嗎?誰給它的權(quán)力?答案是:你給的。點開這些APP的“個人隱私協(xié)議”后我們會發(fā)現(xiàn),95%以上的軟件都會有一個條款寫著它要把用戶的個人信息共享給第三方或者合作伙伴,美其名曰“為了更好地服務你”。而這些“個人隱私協(xié)議”都是用戶為了能夠順利使用此軟件才被迫同意的“霸王協(xié)議”。因此,可以說一些算法軟件權(quán)力的獲得其實是在用戶點擊“我已閱讀并同意此條款”的那一刻就已經(jīng)開始了。

算法權(quán)力的運行高度依賴數(shù)據(jù),而數(shù)據(jù)的采集方式主要是用戶在互聯(lián)網(wǎng)留下的數(shù)字痕跡和個人信息。未來媒體趨勢中所談到的若干個技術,大多是基于用戶的個人數(shù)據(jù)分析之上的,但這樣的一種底層邏輯實則侵犯了用戶隱私。在網(wǎng)絡信息技術高度發(fā)達的今天,用戶的一切網(wǎng)上行為都處于一種被“監(jiān)視”的狀態(tài),這些被讓渡出來的用戶信息如果不慎泄露,將會嚴重損害個人隱私權(quán)。[7]個人“表演舞臺之后的自我”逐漸被技術剝離出來,成為資本掌握的流量本源。算法時代的新聞運作流程背后,實際上與福柯“全景監(jiān)獄”所描繪的場景不謀而合,人人暴露在數(shù)據(jù)抓取模式下,一切行為都毫無掩藏。智能化時代我們(用戶)每一個人都是囚牢中央、全域焦點的毫無隱私的個體。當然,用戶也在極力地想要爬出這座受監(jiān)控的牢籠?;谏鲜鰰r報記者的實驗,不少用戶試圖用方言溝通交流來規(guī)避此類隱私的泄露,但目前人工智能已經(jīng)發(fā)展到可以識別20種以上的方言,準確率達到97%以上,這一規(guī)避方法無異于杯水車薪。

值得關注的是,愈演愈烈的算法權(quán)力傾向必定有其背后的用戶需求。當前,受眾選擇信息的目的性和個性化大大增強,主體地位進一步凸顯,部分網(wǎng)絡用戶有著強烈的獵奇心理和個人領地意識,對符合自己口味的內(nèi)容趨之若鶩,算法權(quán)力也是出于對這些用戶的迎合。

(二)利益驅(qū)使

首先,算法權(quán)力的驅(qū)動力是經(jīng)濟層面的利益考量。大多數(shù)傳統(tǒng)媒體機構(gòu)是“事業(yè)單位、企業(yè)化經(jīng)營”,算法軟件開發(fā)公司或者新型媒體企業(yè)在市場化的大環(huán)境下生存與較量,兩者的共通點在于其生產(chǎn)的產(chǎn)品都要拿到市場上檢驗。算法相關軟件和媒體機構(gòu)的投入、運行本身就是出于商業(yè)邏輯考量,通俗來說就是為了追求經(jīng)濟利益。一方面,算法技術的研發(fā)與運行保障等都需要大量的資金支持,資本自然而然就介入了算法運行,算法權(quán)力也就相伴而生。另一方面,算法軟件和媒體機構(gòu)公司本身可能存在追求算法經(jīng)濟的情況。隨著互聯(lián)網(wǎng)的不間斷發(fā)展,信息以指數(shù)函數(shù)的速度急劇增加,以前所未有的力量沖擊著社會的政治、經(jīng)濟和文化,改變著人類社會的結(jié)構(gòu)和形態(tài),并推動著信息時代的到來。[8]在這個信息爆炸的時代,各種媒體機構(gòu)為了追求廣告收入等經(jīng)濟利益的最大化,一味追求“流量至上”和“閱讀率”“點擊率”,依賴于算法形成的“投其所好”,長此以往,媒體機構(gòu)沉迷于這種智能依賴,自然而然會驅(qū)動算法權(quán)力的進一步“擴張”。

其次,算法權(quán)力的驅(qū)動力是政治目的的追求。人工智能的技術本質(zhì)是算法,而算法的社會本質(zhì)則是一種權(quán)力。[9]大多數(shù)情況下,權(quán)力涉及政治層面的含義,而最早把權(quán)力與傳播聯(lián)系在一起的是法國哲學家福柯。在《規(guī)訓與懲罰》一書中,??伦⒁獾阶鳛樵捳Z的知識是如何與權(quán)力嫁接、互相助長,并被運用到現(xiàn)實實踐之中對某些特殊群體形成規(guī)訓作用。[10]算法權(quán)力是掌握算法技術的個人和企業(yè)利用自身的技術優(yōu)勢和行業(yè)便利,把控社會資源及信息,引導政府做出決策,從而形成的一股不可小覷的力量。[11]馬克斯·韋伯認為,“權(quán)力意味著在一種社會關系里哪怕是遇到反對也能貫徹自己意志的任何機會,不管這種機會是建立在什么基礎之上?!盵12]表面而言,算法能夠?qū)Ω鞣N資源、信息等進行整合、分析并進行個性化的分發(fā)、推送,但實際上是算法在將信息、用戶、傳播等相連的同時也在行使一種社會權(quán)力。算法權(quán)力利用社會中現(xiàn)存的信息數(shù)據(jù),通過對其進行學習分析進而將其自身價值轉(zhuǎn)換為一種“準公權(quán)力”,從而實現(xiàn)對社會進行控制的目的。[13]也就是說,算法背后的權(quán)力中心可能通過不斷發(fā)展的算法技術來表達自己的價值觀與思想,使這種通過“話語”傳播的權(quán)力實現(xiàn)經(jīng)濟或者政治上的利益與目的,從而能夠?qū)崿F(xiàn)對社會的控制。

三、算法權(quán)力運行隱患

(一)媒介倫理困境:數(shù)據(jù)挖掘、二次利用帶來隱私權(quán)讓渡

對于一般用戶而言,算法技術的應用離不開大數(shù)據(jù)的挖掘與處理,盡管精準描繪用戶畫像提高了用戶消費信息的效率,但用戶的數(shù)據(jù)泄露與隱私保護的難題也隨之而來。在線索采集階段,算法需要在互聯(lián)網(wǎng)、社會化媒體上采集碎片化數(shù)據(jù)并結(jié)構(gòu)化處理來生成新聞內(nèi)容;在內(nèi)容分發(fā)階段,需要收集用戶瀏覽記錄從而實現(xiàn)精準推送。算法權(quán)力的實現(xiàn)高度依賴數(shù)據(jù),在此過程中,用戶隱私權(quán)逐漸讓渡,用戶在媒介接觸過程中留下的數(shù)字痕跡,成為媒體實現(xiàn)算法推薦的數(shù)據(jù)支撐,信息安全問題成為媒介亟待解決的倫理困境。如何保護數(shù)據(jù)、如何評估風險、如何防止數(shù)據(jù)泄露、如何保護用戶隱私等都亟待完善。

在當下用戶數(shù)據(jù)化生存的網(wǎng)絡世界中,用戶不得不讓渡自己的隱私來換取權(quán)利的同時還面臨數(shù)據(jù)泄露后被二次利用的危險。林更新病歷泄露、對德陽女醫(yī)生的曝光等都表明隱私保護成為新聞媒體的一大難題。2019年6月底,Spotify就因過度收集數(shù)據(jù)引發(fā)爭議。隱私坍塌的背后,也正是當前被遺忘權(quán)難以保障的無奈現(xiàn)狀。正如??滤f:“我們的社會不是奇觀社會,而是監(jiān)視社會?!盵14]智媒時代背景下,個人隱私數(shù)據(jù)是享受技術福利的根本,因此就難以避免對用戶隱私的侵犯。同時,目前大部分應用軟件存在的“霸王條款”,不注冊、不同意使用用戶數(shù)據(jù)則無法使用軟件,加劇了對用戶隱私的侵犯。如何平衡用戶的信息安全與保障用戶的體驗與傳播效果,是新聞傳播業(yè)亟待解決的問題。

(二)職業(yè)退場危機:機進人退,新聞工作者的角色讓渡

1.從“艦隊街”到“硅谷”,傳統(tǒng)媒體淪為內(nèi)容供應者

傳統(tǒng)新聞生產(chǎn)主要由人工采寫,耗時長且流程繁雜。當前,人工智能與算法技術滲透到新聞生產(chǎn)流程的每一個環(huán)節(jié)。如:大數(shù)據(jù)技術支撐著受眾前饋的生成;傳感器拓展了新聞采集的維度,實現(xiàn)了多元素材的及時采集;機器寫作依托大數(shù)據(jù)技術,通過預先設定的算法程序,對數(shù)據(jù)進行快速抓取、分析并生成新聞文本,推動新聞采寫高效化,加快了新聞產(chǎn)出的效率。通過人機協(xié)同的形式,人工智能與算法技術精準重塑新聞生產(chǎn)模式,提高了新聞的時效性和精準性,新聞業(yè)務實踐的全鏈條正在逐步由智能技術所重塑。

借助于人工智能的發(fā)展,資本逐漸入侵新聞傳播領域,社交媒體逐漸成為閱讀新聞的平臺。技術和資本對新聞行業(yè)的沖擊,實質(zhì)上是從“艦隊街”轉(zhuǎn)向“硅谷”的新聞主導權(quán)的轉(zhuǎn)移。而傳統(tǒng)媒體為了尋求渠道,不得不高度依賴平臺,從而淪為平臺的內(nèi)容供應者,新聞業(yè)也將被邊緣化。但在挖掘有效新聞線索方面,人工智能的有效性并不高。一方面,機器寫作已經(jīng)自動化、常規(guī)化,局限于特定題材和模板,并不具備人類的思考能力和判斷能力,其生產(chǎn)的新聞產(chǎn)品僅僅是信息的簡單堆砌,難以在“深度”報道與創(chuàng)造力上媲美人類。另一方面,機器難以捕捉和分析相對復雜的事實與事實之間的關聯(lián),也難以挖掘事實背后的因果邏輯進行價值判斷,因此也就難以超越事實的表象。與機器相比,職業(yè)媒體人的優(yōu)勢不僅體現(xiàn)在其價值判斷和專業(yè)闡釋能力上,還體現(xiàn)在文字表達上。信息的機械化、模式化生產(chǎn)弱化了記者的主觀表達和訴求,導致新聞內(nèi)容的淺層化、同質(zhì)化,缺乏深度思考與價值判斷,這使得本應有思想、有情感的報道淪為冷冰冰的數(shù)字代碼,丟棄了溫度和本真,也就無法與公眾產(chǎn)生內(nèi)心共鳴。

2.從“社會公器”到“盈利機構(gòu)”,把關標準異化,輿論引導難度增加

技術消解著把關權(quán)力,輿論引導難度增強。人工智能的應用雖然提高了把關的精準性,但算法技術同時也在消解著新聞從業(yè)者的把關權(quán)力。與過去由專業(yè)的媒介工作者擔任的傳統(tǒng)人工把關不同,依托于機器算法的智能把關使得專業(yè)把關人的功能弱化,也使得新聞價值規(guī)律讓位于用戶興趣,傳統(tǒng)的議程設置者和新聞把關人讓位于算法程序。而具有商業(yè)性質(zhì)的算法推薦把關標準,會使媒體機構(gòu)從“社會公器”滑向“盈利機構(gòu)”,假新聞、標題黨、后真相等問題層出不窮,媒體權(quán)威性與公信力大大降低,輿論引導能力降低。此外人工智能基于算法對內(nèi)容的審查更多是迎合用戶喜好,其背后隱含的偏見和歧視在將用戶困于信息繭房之時,也損害了新聞媒體作為“社會公器”的形象?;谧陨砼d趣的算法把關將用戶囿于自己建構(gòu)的繭房中,減少了對公共事務的關注與參與,社會被割裂為各種細分群體,無法形成溝通與交流,也使得輿論引導難度增加。

(三)價值坐標游移:算法偏見對新聞專業(yè)地位的挑戰(zhàn)

如上文所述,算法權(quán)力對新聞工作者的內(nèi)容生產(chǎn)、把關標準造成威脅,長此以往,算法權(quán)力甚至對整個新聞業(yè)的價值坐標與導向產(chǎn)生影響,比如目前所存在的算法偏見對新聞專業(yè)主義的挑戰(zhàn)。算法偏見其實是人工智能制造下隱藏的一種偏見。算法看上去是客觀、公正的,但事實上它也隱藏著偏見。由于人工智能是學習人類過往經(jīng)驗而形成的智能化機器,所以本身帶有隱藏著的群體固化、標簽化、模板化,造成對某些報道群體的污名化和傾向性報道。相較而言,傳統(tǒng)的傳播效果研究更關注傳播內(nèi)容本身對人的影響,傳播政治經(jīng)濟學派更強調(diào)關注傳播背后的權(quán)力中心,算法推薦形成的是批判學派所言的“假意識”,政治與經(jīng)濟組織仍處于權(quán)力中心,表面理性的數(shù)據(jù)背后隱藏著權(quán)力結(jié)構(gòu)。算法推薦中所滿足的用戶需求淪為人為構(gòu)建的“假意識”而存在,“把關”后移,新聞業(yè)地位削弱。另一方面,機器借助大數(shù)據(jù)、算法程序?qū)崿F(xiàn)新聞信息迅速生成,提高新聞生產(chǎn)效率的同時卻消解了媒體的價值引導力。量化算法動搖了新聞的價值坐標,流量至上的邏輯驅(qū)使新聞的專業(yè)性更難堅守,媒體權(quán)威性在一定程度上被消解。

正如英國學者斯科特·拉什(Scott Lash)所說,在一個媒體和代碼無處不在的社會,權(quán)力越來越存在于算法之中。[15]個性化分發(fā)的應用使得內(nèi)容分發(fā)的權(quán)力由編輯轉(zhuǎn)向了算法,而以“用戶為中心”的算法分發(fā)更多是以“點擊量”“瀏覽量”等作為新聞價值的終極考量,極容易造成假新聞、謠言、低俗內(nèi)容的大量傳播,真正有價值的新聞卻被隱藏在算法的黑箱中,這是對新聞專業(yè)地位的挑戰(zhàn)與踐踏。在“一切皆可量化”的邏輯思維下,算法只會根據(jù)新聞的閱讀點擊率去判斷新聞價值,與傳統(tǒng)新聞專業(yè)主義價值觀相悖,更與新聞從業(yè)者本身所肩負的人文關懷、社會告知與權(quán)力監(jiān)督等使命相悖,使得傳統(tǒng)意義上新聞的專業(yè)地位產(chǎn)生動搖。

(四)價值導向缺失:隱藏的技術權(quán)力中心加劇不平等

除了對一般用戶、新聞工作者、新聞業(yè)造成威脅之外,對社會現(xiàn)狀而言,資本把控算法技術,這種隱藏的技術權(quán)力中心也加劇了社會上的不平等現(xiàn)象。算法和大數(shù)據(jù)的迅速發(fā)展使得新聞分發(fā)更加精確,實現(xiàn)了尼葛洛龐帝口中“我的日報”的預言。具體而言,算法通過對數(shù)據(jù)的收集、清洗、分析能夠精準定位用戶畫像,推薦用戶感興趣的信息,增強用戶黏性。例如今日頭條的算法分發(fā)機制精確定位了用戶喜好。在智能技術出現(xiàn)之前,專業(yè)媒體或權(quán)威機構(gòu)是新聞傳播領域的顯性權(quán)力中心,而技術賦權(quán)使得集權(quán)式傳播格局開始向分權(quán)式轉(zhuǎn)變,但這并不意味著人工智能時代的傳播格局不再受權(quán)力宰制。掌握技術或數(shù)據(jù)的背后組織力量已成為新的權(quán)力中心。大數(shù)據(jù)和AI時代也成就了諸如微軟、谷歌、騰訊、阿里等一大批超國家實體,它們的用戶遍布全球,對數(shù)據(jù)和算法的控制力在某些領域甚至超越了不少主權(quán)國家,是AI時代不可小覷的算法權(quán)力新貴,擁有強大的支配力。[16]受眾的數(shù)據(jù)畫像、新聞分發(fā)的機制、新聞搜索結(jié)果的呈現(xiàn)等均可被其掌控,且這種掌控更為隱蔽和廣泛,這對新聞倫理的規(guī)范和新聞行業(yè)的規(guī)制提出了新的難題。出于商業(yè)考量,企業(yè)的算法一般是非公開的,這就形成了算法黑箱,算法所包含的一些歧視和偏見很可能成為企業(yè)發(fā)展自身利益的工具,掌握數(shù)據(jù)技術的企業(yè)和個人成為新的權(quán)力中心,形成了數(shù)據(jù)霸權(quán),引發(fā)數(shù)字獨裁。長此以往,將不利于構(gòu)建媒介與用戶之間的信任關系,加劇社會不平等現(xiàn)象。

四、算法權(quán)力的規(guī)制

(一)培養(yǎng)算法工作者和用戶的素養(yǎng),從源頭上保障隱私權(quán)利

算法權(quán)力主體對大量信息的掌握會導致用戶失去隱私和主體性價值。[17]正如舍恩伯格在《刪除:大數(shù)據(jù)的取舍之道》中所言:“在今天這個時代,遺忘成為例外,記憶成為常態(tài),人們住進了數(shù)字化的圓形監(jiān)獄。[18]隱私坍塌的背后,也正是當前被遺忘權(quán)難以保障的無奈現(xiàn)狀。技術本身是中性的,沒有偏見,但研發(fā)技術的人有。算法背后的“打工人”、資本和科技巨頭等都不是中性的。過度的算法權(quán)力與算法背后的“人”的素質(zhì)密切相關。他們對于這一新興技術及其所產(chǎn)生的影響缺乏全面且理性的認識,大多是為了完成工作任務或者追求經(jīng)濟效益。同時,為了迎合受眾喜好,算法軟件的傳播內(nèi)容趨向大眾化、平民化。面對此種情形,算法及平臺工作人員應該提高自身素養(yǎng),理性看待算法權(quán)力,合理運用智能力量,在設計算法時遵循一定的倫理常識。對于算法從業(yè)者來說,應自覺遵守國家、行業(yè)和平臺層面的規(guī)范和標準,堅守倫理道德和價值觀念,在法律和道德的指導下設計自己的軟件和程序。從業(yè)者還應意識到算法軟件對社會的影響和媒體人的社會責任,明確算法權(quán)力的度在哪里,積極打造優(yōu)質(zhì)、富有正能量的算法軟件?;ヂ?lián)網(wǎng)是有記憶的,對于普通用戶而言,應該注意個人信息的保護,不隨意將涉及個人隱私的信息(如身份證號、銀行卡號等)上傳到算法軟件上,及時刪除瀏覽記錄,進行相應的隱私設置,發(fā)現(xiàn)隱私權(quán)等合法權(quán)益受侵害要及時運用法律武器保護自己。需要明確的是,“被遺忘權(quán)”是一項法定權(quán)利,而且是一種值得受到法定保護的價值或利益,權(quán)利主體有權(quán)要求數(shù)據(jù)存儲方刪除自己或他人放置到互聯(lián)網(wǎng)上的、令其尷尬的照片或者其他數(shù)據(jù)信息,除非數(shù)據(jù)的保存和使用為法律規(guī)定的維持公共利益的正常運作所必需。[19]同時,用戶應培養(yǎng)積極健康的內(nèi)容品位,以之取代過度的獵奇心理、低級趣味和窺視欲,提升個人的媒介素養(yǎng),自覺抵制低俗的推薦內(nèi)容,對算法軟件進行監(jiān)督,共同營造張弛有度、和諧向上的網(wǎng)絡環(huán)境。

(二)培養(yǎng)新型人才,拓展多維視野,在新聞生產(chǎn)上占據(jù)優(yōu)勢

相較于算法工作人員,媒體及行業(yè)工作人員同時還面對著人工智能時代帶來的退場危機,這要求他們以更加包容、開放和創(chuàng)新的心態(tài)面對算法權(quán)力,同時提高自身媒介素養(yǎng),為傳統(tǒng)媒體和算法平臺提供最優(yōu)質(zhì)的內(nèi)容生產(chǎn)。我們應該引進和培養(yǎng)更多兼具專業(yè)性知識和互聯(lián)網(wǎng)思維的新型人才,做到持續(xù)的內(nèi)容深耕,保持主流媒體的競爭力和活力。應該提倡和鼓勵新聞從業(yè)者“一專多能”,但是“多能”的前提是“一?!?。能夠在深挖題材、增加報道深度的基礎上,發(fā)揮互聯(lián)網(wǎng)思維的新聞從業(yè)者,才是未來推動媒介融合發(fā)展的必要力量。雖說國家已出臺政策加強校企合作項目,高校也開設了人工智能等相關專業(yè),但同時具備人工智能技術和新聞傳播知識的人才仍十分匱乏,且從業(yè)人員素質(zhì)參差不齊。因此,在強人工智能時代到來之前,新聞媒體人和算法工作者還需做好相應的知識儲備和實踐基礎,以核心競爭力推動人工智能對新聞媒體的發(fā)展,以更高的知識素養(yǎng)和道德素養(yǎng)應對未來的挑戰(zhàn)。

此外,要實現(xiàn)從內(nèi)容的“搬運”到產(chǎn)品的“創(chuàng)造”的思維轉(zhuǎn)變。當前,受眾主體地位進一步凸顯。在新聞生產(chǎn)方面,應摒棄以往內(nèi)容“搬運工”的思維,樹立用戶、產(chǎn)品為中心的思維,以受眾為中心,向垂直領域縱向挖掘,滿足用戶個性化、精細化的信息需求,倡導符合受眾習慣的定制化、垂直化、互動式的服務理念,生產(chǎn)出適合不同媒介特性的新聞產(chǎn)品。如央視推出的《主播說聯(lián)播》欄目,通過接地氣的語言表達方式對熱點新聞進行即時解讀,長話短說、官話民說、硬話軟說,正是媒介融合發(fā)展中“用戶思維”的體現(xiàn)。值得一提的是,之前所描述的“傳統(tǒng)媒體淪為內(nèi)容供應者”現(xiàn)象,大部分算法軟件的做法是直接將內(nèi)容移植到新技術上,這僅僅是簡單的物理層面的相加。而未來,媒體需要以技術為支撐,建立高效的媒體運作平臺,充分運用人工智能和算法技術,實現(xiàn)“人工智能+媒體”的雙贏。

(三)明確雙重把關標準,讓新聞業(yè)回歸價值理性

克里斯托弗·斯坦納在《算法帝國》一書中指出,在未來的發(fā)展中,我們將面對一個如何劃定效用和威脅之界限的任務。[20]在這個信息爆炸的時代,我們的眼前充斥著各種信息,引導主流價值觀的優(yōu)質(zhì)原創(chuàng)內(nèi)容依然是媒體必須始終把握的關鍵,亦是在迭代迅速、群雄逐鹿的注意力經(jīng)濟時代脫穎而出的核心競爭優(yōu)勢。同時在內(nèi)容生產(chǎn)領域應堅守和深化作為主流聲源的公共服務價值,以冷靜客觀的專業(yè)視角形成合理化融媒報道體系,重視打造新聞傳播的建設性維度。疫情期間,主流媒體多次深入一線并訪問專家,在鮮活事實和權(quán)威解讀的基礎上進行融媒報道,如南方周末疫情系列深度專訪、南風窗聚焦國際疫情形勢專欄、財新特稿專欄“封面”等皆是優(yōu)秀作品代表。他們以深刻筆觸還原現(xiàn)實并挖掘公共傳播價值,實現(xiàn)優(yōu)質(zhì)融媒作品生產(chǎn),實現(xiàn)了受眾注意力和社會影響力的雙重回歸。

算法把關和人工把關都是目前存在的把關方式,現(xiàn)行的人工智能技術可以為新聞核查服務。在可以預見的未來,越來越多的高端人工智能與算法技術將會參與到新聞的核查工作中,實現(xiàn)“人工+算法”把關,極大減輕事實核查環(huán)節(jié)的工作量,可以從源頭上防止虛假新聞出現(xiàn),提高媒體發(fā)揮作用的公信力。比如中國第一個媒體人工智能平臺——新華社“媒體大腦”具有人臉核查功能,能有效地檢驗新聞的真實性。人工智能與算法技術還可以進行版權(quán)審查、識別假新聞。對大數(shù)據(jù)的匯總、分析能力以及算法能力使得智能媒體可以針對信息進行溯本追源,包括對圖像和聲音視頻進行“一站式”審核。我們既要緊抓算法把關的智能紅利,為媒體發(fā)展賦能,也應洞察技術弊病,做好算法把關的掌舵者,讓新聞業(yè)回歸價值理性,讓算法為新聞業(yè)更好發(fā)展助力。算法把關與新聞業(yè)不應該呈現(xiàn)出零和博弈的局面,而應在建立相關制度、規(guī)范算法推薦內(nèi)容基礎上,發(fā)揮好算法把關的作用,實現(xiàn)“人工+算法”把關才能實現(xiàn)“人工智能+傳媒”的雙贏。

(四)明確算法問責機制,維護社會正當性

正當性(legitimacy)概念由韋伯提出,經(jīng)Parsons(1960)引入組織社會學中,成為研究組織形成、企業(yè)經(jīng)營和社會接受的概念工具。(1)Parsons,T.(1960).Structure and process in modern societies.Glencoe:Free Press.轉(zhuǎn)引自陳懷超等,《組織合法性研究脈絡梳理與未來展望》,《中央財經(jīng)大學學報》,2014年第4期。它主要用來表明組織競爭不僅僅是為了爭奪資源和顧客,更需要爭取政治權(quán)力支持和制度正當性。[21]算法的設計過程是不透明的,在研發(fā)過程中存在黑箱操作的空間和可能,人們在很大程度上只能被動接受算法運行的結(jié)果。[22]此外,算法運行具有隱蔽性、主動性和實時性的特征,根據(jù)讀取客戶端的用戶信息(包括瀏覽記錄、個人喜好甚至日常語音聊天內(nèi)容等)能夠在用戶不知不覺中選取相關內(nèi)容推送“猜你喜歡”。它并不是在用戶要求下發(fā)揮其作用與功能,而是本身具有主動性,能夠主動去進行人與信息的連接,這樣更容易存在隱蔽性運行風險。

我國法律對于運用算法所產(chǎn)生的違法行為的一系列問題存在較大爭議,目前并沒有專門的法律法規(guī)來規(guī)范此類行為。為此,需要建立相應的算法問責機制為算法權(quán)力套上“制度的籠子”。只有明確好相關問題的責任認定與事后規(guī)制問題才能夠?qū)λ惴?quán)力的無限制擴張起到震懾作用。對于平臺而言,應該堅守平臺責任,對國家或行業(yè)層面的管理規(guī)范進行細化,制定具有可操作性的平臺標準,從而真正起到算法的實質(zhì)性作用。

建立算法的問責機制以保證算法決策的正當性成為學界和業(yè)界共識,使算法對設計者、用戶和所有受算法結(jié)果影響的人透明被很多學者認為是建立算法問責機制的前提。[23]正是因為算法設計存在黑箱運作的風險,國家需要加強對算法研制方面的立法,加大有關推動算法可解釋性的政策供給力度,增加算法的可解釋性,確保算法設計回應社會的關切和民眾的需求,建立透明化的算法運行機制,讓“那些對結(jié)果抱有懷疑的人可以掀開‘引擎蓋子’看個究竟”。[24]今日頭條總裁張一鳴曾公開算法的運行模型就是最好的例證。只有讓“黑箱子”前面的幕布打開一部分,讓政府或其他監(jiān)管人員能夠深入其中了解其運行模型,才能真正維護社會正當性,減少社會不平等現(xiàn)象。

五、結(jié) 語

近年來,人工智能與算法的發(fā)展普及,推動了傳播者傳播能力的提高,促進了受眾信息需求的滿足,為新聞傳播注入了新的活力,帶來了生產(chǎn)、媒體機構(gòu)等多方面的革新,但也出現(xiàn)了一系列挑戰(zhàn)。算法權(quán)力區(qū)別于其他傳統(tǒng)意義上的權(quán)力,是人工智能時代下的產(chǎn)物,它并不是自發(fā)形成的,而是算法背后的組織為了追求經(jīng)濟利益或政治目的在用戶賦予和需求中逐漸匯聚而成。隨著人工智能與算法技術的進一步成熟,算法權(quán)力得到進一步擴張,算法背后的組織成為隱藏的權(quán)力中心,有可能通過技術壟斷和數(shù)據(jù)霸權(quán)實現(xiàn)經(jīng)濟或政治目的。算法權(quán)力的擴張可能會導致隱私權(quán)等媒介倫理困境、新聞職業(yè)工作者退場危機、價值坐標游移和社會價值導向缺失等一系列運行隱患。智媒時代的到來不可避免,我們不能用非黑即白的眼光去看待算法權(quán)力。若在源頭、新聞生產(chǎn)、新聞把關以及責任認定與事后問責機制等方面進行聯(lián)合規(guī)制,可以最大限度地消除其弊端,發(fā)揮其積極作用,在滿足人們需求的同時促進新技術產(chǎn)業(yè)的發(fā)展。當然,制度規(guī)范的建立一定要跟上技術發(fā)展的腳步,媒體也需保持自身對世界的洞察力和判斷力,真正實現(xiàn)人機協(xié)同。

猜你喜歡
權(quán)力算法人工智能
哪種算法簡便
不如叫《權(quán)力的兒戲》
Travellng thg World Full—time for Rree
2019:人工智能
人工智能與就業(yè)
民營金融權(quán)力榜
數(shù)讀人工智能
算法框圖的補全
算法初步知識盤點
下一幕,人工智能!