国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能時(shí)代新聞倫理研究重點(diǎn)及其趨向

2019-01-03 12:58
關(guān)鍵詞:倫理人工智能算法

趙 瑜

(浙江大學(xué) 傳媒與國(guó)際文化學(xué)院, 浙江 杭州 310028)

如果我們將媒體廣泛地理解為傳播和交流信息的一種方式,就不難發(fā)現(xiàn)信息技術(shù)和人工智能的發(fā)展與媒體的內(nèi)在聯(lián)系及其對(duì)傳統(tǒng)媒體的沖擊或影響。人工智能通過算法和大數(shù)據(jù)分析已經(jīng)深刻改變了人類的新聞傳播行為,并且引發(fā)算法偏見及其糾正、數(shù)字身份及其保護(hù)、個(gè)人隱私及其保護(hù)、信息不當(dāng)觸及的討論,學(xué)界日益擔(dān)憂數(shù)據(jù)壟斷和算法“獨(dú)裁”對(duì)社會(huì)過程和社會(huì)公正的影響,因此,信息技術(shù)的倫理治理和整體規(guī)制至關(guān)重要。國(guó)務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》中也已明確將“制定促進(jìn)人工智能發(fā)展的法律法規(guī)和倫理規(guī)范”作為我國(guó)人工智能發(fā)展的首要保障。

自主智能系統(tǒng)的發(fā)展提出了一些亟待關(guān)注的問題,人、機(jī)、自然(社會(huì))之間的關(guān)系將出現(xiàn)新的構(gòu)建形式,如果將人工智能的終極目標(biāo)等同于讓機(jī)器(物)擁有自主意志,這首先引發(fā)了人類的倫理危機(jī)感,促使我們重回倫理本質(zhì)的本體論和認(rèn)識(shí)論問題,探討人類如何在智能技術(shù)的中介下構(gòu)建安全、公平、美好的生活。人工智能便不再是一個(gè)單純的技術(shù)問題,而是一個(gè)哲學(xué)問題、政治問題。

新聞傳播領(lǐng)域所建構(gòu)的擬態(tài)環(huán)境會(huì)直接影響人們的情緒、觀點(diǎn)和行為決策,對(duì)社會(huì)公正和社會(huì)安全具有重大意義。機(jī)器人寫作、算法推薦和信息過濾、社交媒體機(jī)器人等帶有自主智能系統(tǒng)因素的新事物已極大地改變了人類傳播和接收信息的模式,并在形塑人類行為模式的基礎(chǔ)上產(chǎn)生了巨大的社會(huì)影響。如何界定人工智能技術(shù)的新聞倫理問題,如何定義智媒時(shí)代的新聞專業(yè)主義,如何構(gòu)建智能媒體倫理治理體系和法規(guī)體系,是亟待學(xué)術(shù)破題的重要領(lǐng)域。

本文擬綜論新聞傳播學(xué)、哲學(xué)和法學(xué)在相關(guān)領(lǐng)域的研究,厘清目前學(xué)界對(duì)人工智能和新聞倫理研究的重點(diǎn)領(lǐng)域并進(jìn)行反思,為未來研究提供思考的起點(diǎn)。

一、 人工智能及其倫理研究

從工業(yè)革命以來,機(jī)械化、自動(dòng)化已經(jīng)成為人類文明的一個(gè)顯著特征。1956年達(dá)特茅斯會(huì)議上一批年輕的科學(xué)家首次提出“人工智能”的概念,進(jìn)一步擴(kuò)大了技術(shù)人工物社會(huì)功能的想象空間,從而被稱為“第四次革命”[1]。

人工智能研究,簡(jiǎn)單來說,就是要通過智能(自動(dòng)化)的機(jī)器,增強(qiáng)人類在改造自然、治理社會(huì)的各項(xiàng)任務(wù)中的能力和效率[2-6]。人工智能的本質(zhì)是算法。算法是為了解決問題而輸入機(jī)器的一系列指令[7-10]。

人工智能起步時(shí),研究方法以邏輯推理與啟發(fā)式搜索為主,核心研究領(lǐng)域是符號(hào)人工智能。短暫的繁榮之后,人工智能研究進(jìn)入瓶頸,直到20世紀(jì)80年代與神經(jīng)網(wǎng)絡(luò)研究結(jié)合,又煥發(fā)了新的生機(jī)。目前,計(jì)算機(jī)視覺、自然語言理解、認(rèn)知科學(xué)、機(jī)器學(xué)習(xí)、機(jī)器人學(xué)等幾大學(xué)科協(xié)同發(fā)展,其中機(jī)器學(xué)習(xí)中的深度學(xué)習(xí)因?yàn)锳lphaGo在圍棋方面的卓越表現(xiàn)獲得了公眾廣泛的關(guān)注。根據(jù)牛津大學(xué)2017年針對(duì)全球頂級(jí)人工智能專家的調(diào)查,超過50%的專家認(rèn)為人工智能將在45年內(nèi)在所有領(lǐng)域超越人類,并且將在120年內(nèi)將所有人類工作自動(dòng)化[11]。

在1877年的《技術(shù)哲學(xué)綱要》中,卡普曾敏銳地洞見到技術(shù)具有向一切人類領(lǐng)域擴(kuò)張的能力[12],某些技術(shù)具有一種強(qiáng)制性的功能,能嵌入個(gè)人生活并產(chǎn)生深遠(yuǎn)的影響。計(jì)算機(jī)革命正在不斷提高人們對(duì)自動(dòng)化的依賴,且自主性系統(tǒng)越來越多地掌控了各式各樣的能產(chǎn)生倫理后果的決定。換言之,目前的自動(dòng)化系統(tǒng)已經(jīng)復(fù)雜到一定程度,甚至要求系統(tǒng)面對(duì)具體場(chǎng)景做出道德決策[13]。如此一來,問題就轉(zhuǎn)變?yōu)椋喝藗儗?duì)于把自己的生命和福祉交給沒有確定的倫理框架的系統(tǒng)會(huì)感到放心嗎?近來被曝光的Facebook、亞馬遜用戶數(shù)據(jù)濫用,Twitter機(jī)器人賬戶影響用戶觀點(diǎn)和情緒等問題,使人們加深了這樣的疑慮。

與科學(xué)技術(shù)要解決的“能不能”問題不同,倫理學(xué)要解決的是“該不該”問題[14]。在人工智能運(yùn)用方面,倫理學(xué)研究首先必須辨析核心價(jià)值,以提供思考框架。

(一) 技術(shù)批判與技術(shù)倫理

資本主義早期對(duì)工人的殘酷剝削、城市化和生態(tài)惡化,在當(dāng)時(shí)就引發(fā)了技術(shù)批判和反抗,如英國(guó)知名的盧德運(yùn)動(dòng)。雖然主流學(xué)界對(duì)當(dāng)時(shí)的反技術(shù)浪潮總體持批判態(tài)度,但“闖進(jìn)花園的機(jī)器”式的技術(shù)懷疑論始終存在。而二戰(zhàn)對(duì)人類社會(huì)巨大的破壞作用,使得希特勒被認(rèn)為是人類史上首個(gè)運(yùn)用技術(shù)力量而使罪行倍增的人。埃呂爾、麥克盧漢、馬爾庫塞、芒福德、賽佛、加爾布雷思、海德格爾、溫納、拉圖爾等學(xué)者都發(fā)展和深化了對(duì)技術(shù)的學(xué)術(shù)反思,這些著述也是技術(shù)倫理學(xué)的直接源頭。

海德格爾在《論思想》中指出,在其生存的所有領(lǐng)域,人都將比以往更加緊密地被技術(shù)力量包圍,將人置于這樣或那樣的技術(shù)發(fā)明形式的控制之下[15]。哲學(xué)家們擔(dān)心人成了技術(shù)社會(huì)這部機(jī)器的齒輪,從思想和行動(dòng)上淪為機(jī)器的奴仆[16]。在這個(gè)意義上就誕生了“自主性技術(shù)”的概念[17],表達(dá)技術(shù)業(yè)已失去人類控制之意。在康德學(xué)術(shù)脈絡(luò)下談?wù)摷夹g(shù)的自主性是令人不安的,因?yàn)榭档抡J(rèn)為自主性是自我意志的根本條件。賦予技術(shù)以自主性,在某種程度上即是人的自主性被替代[18],主客體的位置產(chǎn)生了顛倒。

但仍然有相當(dāng)一部分學(xué)者認(rèn)為技術(shù)是價(jià)值中立的,技術(shù)本身并不是一種自我決定的力量,僅是一種手段。雅斯貝爾斯指出,“技術(shù)本身并無善惡。一切取決于人從中造出什么”[注]轉(zhuǎn)引自閆坤如《人工智能的道德風(fēng)險(xiǎn)及其規(guī)避路徑》,載《上海師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2018年第2期,第40-47頁。。梅賽恩也堅(jiān)持技術(shù)價(jià)值中立的觀點(diǎn),認(rèn)為“有益的做法是將技術(shù)定義為一般意義上的工具”[19]。

部分學(xué)者承繼埃呂爾的研究傳統(tǒng),認(rèn)為技術(shù)充滿意向性,是社會(huì)結(jié)構(gòu)的體制性力量。溫納認(rèn)為技術(shù)在中立的、工具式的掩護(hù)下,建立了一種嶄新的秩序[20]。美國(guó)技術(shù)哲學(xué)家唐·伊德認(rèn)為技術(shù)不是中性的工具,它們?cè)谌伺c世界的關(guān)系中發(fā)揮著主動(dòng)性的作用[21]。在拉圖爾看來,道德和技術(shù)都是“本體論的范疇”,技術(shù)以具體的形態(tài)促進(jìn)人類社會(huì)的形成,包括我們的行動(dòng)和決定的道德特征[22]。

最微妙的就是技術(shù)影響的“偶發(fā)”機(jī)制,也就是說技術(shù)對(duì)人類的控制并不總是具有預(yù)先意圖,其中一部分后果是意想不到的。換言之,人并非總能控制自身所創(chuàng)造的技術(shù)的社會(huì)后果。烏爾里?!へ惪说娘L(fēng)險(xiǎn)社會(huì)概念也回應(yīng)了這一觀點(diǎn),“在風(fēng)險(xiǎn)社會(huì)中,未知的、意圖之外的后果成了歷史和社會(huì)的主宰力量”[23]。

恰如荷蘭學(xué)者維貝克所指出的,早期技術(shù)倫理學(xué)采取的是批判的方式,這些批評(píng)不是針對(duì)具體的技術(shù)應(yīng)用場(chǎng)景和案例,而是對(duì)“大寫的技術(shù)”自身現(xiàn)象的批判[24],但過于抽象化和哲學(xué)層面過于本質(zhì)論的探討方式反而流于隔靴搔癢。

(二) 技術(shù)人工物道德主體地位辨析

人工智能的技術(shù)想象突破了自啟蒙運(yùn)動(dòng)以來人和非人實(shí)體之間的界限。美國(guó)技術(shù)哲學(xué)家唐·伊德識(shí)別出了人與技術(shù)的四種關(guān)系:具身關(guān)系、詮釋學(xué)關(guān)系、他者關(guān)系和背景關(guān)系。唐·伊德所說的具身關(guān)系類似海德格爾的“上手”,有些技術(shù)能夠上手,而有些技術(shù)只能在手,成為我們行動(dòng)的背景性因素。隨著人工智能的發(fā)展,人、技術(shù)與世界的關(guān)系結(jié)構(gòu)發(fā)生了改變,人和技術(shù)也表現(xiàn)出融合關(guān)系,例如后現(xiàn)象學(xué)技術(shù)哲學(xué)家維貝克提出的賽博格關(guān)系(cyborg relation)和復(fù)合關(guān)系[25]。

人工智能的技術(shù)想象包括創(chuàng)造出具有自我意識(shí)的自動(dòng)化系統(tǒng),這就在倫理學(xué)體系內(nèi)提出了一個(gè)全新的問題:技術(shù)是否能被賦予道德主體地位?自啟蒙運(yùn)動(dòng)伊始,倫理學(xué)就有著人本主義特征。以道德術(shù)語來研究物絕非易事,這違背了倫理學(xué)理論的最基本假設(shè)[24]。

在主流倫理學(xué)中,一個(gè)合格的道德行動(dòng)者至少是擁有意向性和一定程度的自由。很多哲學(xué)家認(rèn)為,技術(shù)客體缺乏自由意志和意向性,不能對(duì)它們的行動(dòng)負(fù)責(zé)。例如AlphaGo可以勝過人類圍棋大師,但是沒有辦法理解自己走子行為的意義,現(xiàn)階段并不具有自由意志。AlphaGo的智能實(shí)際上是以人為核心的一個(gè)巨大的延展認(rèn)知系統(tǒng)的能力,是系統(tǒng)部分認(rèn)知功能的某種外化[26]。無論從道義論視角還是后果論視角,人工物只能從因果層面而非道德層面對(duì)既定的行為負(fù)責(zé)。因此,“沒有理由將人工物納入道德共同體之中”[27]。

弗洛里迪和桑德斯于2004年發(fā)表了頗具影響的《關(guān)于人工能動(dòng)者的道德》一文,聚焦實(shí)際上具有“行動(dòng)者”資格的智能技術(shù)。他們依據(jù)行動(dòng)者之互動(dòng)關(guān)系標(biāo)準(zhǔn),使用交互性、自主性和適應(yīng)性三個(gè)標(biāo)準(zhǔn)來判斷。一個(gè)系統(tǒng)如果能與外部環(huán)境互動(dòng),能在沒有響應(yīng)外部刺激的情況下行動(dòng),也有在不同的環(huán)境中行動(dòng)的適應(yīng)能力,這個(gè)系統(tǒng)就可以被視作行動(dòng)者。如果系統(tǒng)行事方式會(huì)產(chǎn)生道德結(jié)果,那么就被認(rèn)為是一個(gè)道德自主體[1]。

弗洛里迪和桑德斯在某種程度上提出了一個(gè)類似道德圖靈測(cè)試的模式,區(qū)分了道德問責(zé)和道德責(zé)任。這種分布式道德允許無心的道德,將一個(gè)哲學(xué)難題轉(zhuǎn)變?yōu)榫邆洳僮餍缘呐袛鄻?biāo)準(zhǔn)。也就是說,我們無須執(zhí)著于現(xiàn)有系統(tǒng)是不是成熟的道德智能體,只要系統(tǒng)具備交互性、自主性和適應(yīng)性三個(gè)標(biāo)準(zhǔn),就可以被等同于一個(gè)道德主體而予以問責(zé)。當(dāng)然,目前一部分哲學(xué)家不愿意賦予技術(shù)人工物道德主體地位的原因還在于擔(dān)憂如此一來,將使得設(shè)計(jì)這些系統(tǒng)的人類工程師被賦予了免責(zé)的地位[13,24]。

(三)工程師倫理

責(zé)任是知識(shí)和力量的函數(shù)。在智能信息時(shí)代,科學(xué)家、工程師不僅人數(shù)眾多,而且參與社會(huì)重大的決策和管理,他們的行為會(huì)對(duì)他人、對(duì)社會(huì)帶來比其他人更大的影響,因此他們應(yīng)負(fù)更多的倫理責(zé)任[28]。

在過去25年中,工程倫理領(lǐng)域的主要成就之一就是工程師們?cè)絹碓揭庾R(shí)到自身的價(jià)值觀對(duì)設(shè)計(jì)進(jìn)程的影響,以及此過程中他們對(duì)他人價(jià)值觀的敏感度[13]。20世紀(jì)70年代開始,美國(guó)科學(xué)促進(jìn)會(huì)和美國(guó)律師協(xié)會(huì)聯(lián)合組成了國(guó)家律師和科學(xué)家會(huì)議,討論科學(xué)研究中的道德規(guī)范問題。之后,美國(guó)發(fā)布了有關(guān)科技界社會(huì)責(zé)任的一系列報(bào)告,如關(guān)于“科學(xué)自由和科學(xué)責(zé)任”的報(bào)告[29]。2000年,美國(guó)工程和技術(shù)認(rèn)證委員會(huì)(ABET)在其標(biāo)準(zhǔn)中明確指出,工程教育必須要求學(xué)生“理解職業(yè)和道德責(zé)任”[30]。美國(guó)白宮人工智能報(bào)告將“理解并解決人工智能的道德、法律和社會(huì)影響”列入國(guó)家人工智能戰(zhàn)略,并建議AI從業(yè)者和學(xué)生都接受倫理培訓(xùn)[31]。

當(dāng)然,也有專家認(rèn)為技術(shù)活動(dòng)是社會(huì)組織系統(tǒng)下的制度活動(dòng),單一的工程師是無法對(duì)其技術(shù)后果承擔(dān)責(zé)任的。德國(guó)技術(shù)哲學(xué)家、倫理學(xué)家羅波爾指出,由于分工、合作等因素,現(xiàn)代技術(shù)活動(dòng)不是單個(gè)人的活動(dòng),因而工程師作為個(gè)體不僅不能也不應(yīng)該單獨(dú)承擔(dān)技術(shù)的全部責(zé)任[注]轉(zhuǎn)引自劉則淵、王國(guó)豫《技術(shù)倫理與工程師的職業(yè)倫理》,載《哲學(xué)研究》2007年第11期,第75-78,128-129頁。。

二、 人工智能時(shí)代的新聞倫理研究

倫理并非靜態(tài)的規(guī)則,而是個(gè)體和社會(huì)應(yīng)對(duì)條件變動(dòng)、意外事件和新思維模式所導(dǎo)致的各種問題的必要人類行為[32]。當(dāng)社會(huì)生活變化時(shí),道德概念也會(huì)變化[33]。新聞行業(yè)本身受到信息技術(shù)變化的巨大影響,而由于新聞本身特殊的社會(huì)功能,新聞實(shí)踐和新聞倫理對(duì)社會(huì)生活方式的形成意義重大。

傳統(tǒng)上,媒體組織被視為履行社會(huì)特定職能的機(jī)構(gòu),其生產(chǎn)慣例和條件一直受到技術(shù)的影響[34-35]。對(duì)中立事實(shí)的公正報(bào)道的觀念某種程度上是從社會(huì)技術(shù)的革新開始的[35-37],技術(shù)和經(jīng)濟(jì)學(xué)創(chuàng)造了一種新聞客觀性,超越了這個(gè)職業(yè)原有的專業(yè)框架[38]。21世紀(jì)初信息技術(shù)的發(fā)展對(duì)傳統(tǒng)新聞專業(yè)主義產(chǎn)生了巨大的沖擊,傳統(tǒng)的“驗(yàn)證新聞”及其嚴(yán)格的事實(shí)核實(shí)正在被非專業(yè)化的新聞形式所取代,“后事實(shí)”或“事后檢查”的新聞業(yè)逐步形成[39],可靠性和正確性等價(jià)值觀受到影響,新聞原創(chuàng)性等道德規(guī)則被打破[40]。也有學(xué)者把這一時(shí)代的新聞稱為后工業(yè)時(shí)代的新聞[41]。

我國(guó)新聞傳播學(xué)界自20世紀(jì)90年代中期開始進(jìn)行新聞倫理研究和教學(xué)。綜論已有的相關(guān)研究,大體可以分為三個(gè)主要議題:媒介倫理本體研究、案例研究和新媒體倫理分析。我國(guó)媒介倫理研究的第一階段就是將新聞倫理和媒介倫理從公共道德領(lǐng)域分離出來,提煉大眾傳播工作者和媒介機(jī)構(gòu)在大眾傳播職業(yè)道德體系中諸個(gè)因素(道德誡命)發(fā)生沖突時(shí)的理性抉擇原則。

在新聞倫理的討論和應(yīng)用中,操作和操守、知情權(quán)和隱私權(quán)、市場(chǎng)主義和專業(yè)主義的討論,一直在言論自由和社會(huì)福祉最大化之間產(chǎn)生理論碰撞。新媒體技術(shù)動(dòng)搖了新聞從業(yè)者一直以來對(duì)新聞采集和傳播的壟斷地位,由此,圍繞什么是“公正”和“正確”的新聞,出現(xiàn)了越來越多元的理解,傳播倫理的概念出現(xiàn)向公民道德拓展的趨向。

目前,人工智能與社交媒體技術(shù)融合,已滲透到新聞的生產(chǎn)、傳播和互動(dòng)各個(gè)環(huán)節(jié)中。其中機(jī)器人寫作[42-44]、傳感器新聞[45]和智能推薦機(jī)制[46-47]是人工智能應(yīng)用于新聞傳播領(lǐng)域的典型代表。

隨著新媒體技術(shù)進(jìn)入新聞行業(yè),長(zhǎng)久被珍視的倫理傳統(tǒng),如新聞客觀性、新聞?dòng)浾叩墓δ?,受到極大的挑戰(zhàn)[32]。學(xué)者們對(duì)人工智能技術(shù)和新聞傳播的結(jié)合整體保持樂觀態(tài)度,但對(duì)其間產(chǎn)生的信息繭房效應(yīng)、信息源真實(shí)性、算法糾偏、個(gè)人隱私和被遺忘權(quán)等問題存在倫理憂慮。

(一) 個(gè)人隱私與被遺忘權(quán)

大數(shù)據(jù)是人工智能的基礎(chǔ),無論是傳感器新聞還是算法推薦,都必須以瀏覽數(shù)據(jù)為基礎(chǔ)進(jìn)行加工,這就涉及了個(gè)人隱私數(shù)據(jù)的二次使用。個(gè)人與公共隱私邊界的模糊,隱私數(shù)據(jù)所有權(quán)界定的模糊,當(dāng)下隱私數(shù)據(jù)保護(hù)規(guī)制的不完善,都使得對(duì)個(gè)人隱私數(shù)據(jù)的二次使用始終存在著侵權(quán)的風(fēng)險(xiǎn)[48]。

學(xué)者們對(duì)新媒體時(shí)代隱私權(quán)問題的討論,歸根結(jié)底是關(guān)于公共空間與私人空間、社會(huì)邊界和個(gè)人邊界的討論,主要可以分為媒體的輿論監(jiān)督自由與個(gè)人隱私保護(hù)、公共數(shù)據(jù)開放與個(gè)人隱私保護(hù)、保障公眾知情權(quán)與個(gè)人隱私保護(hù)這三組矛盾。

路鵑采用曼紐爾·卡斯特爾的流動(dòng)空間理論指出,從Web1.0到3.0,網(wǎng)絡(luò)空間的現(xiàn)實(shí)性逐漸被承認(rèn),法律規(guī)制的邏輯起點(diǎn)是要轉(zhuǎn)變網(wǎng)絡(luò)空間只具有工具屬性的認(rèn)識(shí),辨析合理的隱私期待,確立新媒體環(huán)境下空間隱私權(quán)與現(xiàn)實(shí)物理空間同等的法律保護(hù)界限[49]。而隱私權(quán)保護(hù)的原則應(yīng)以人格尊嚴(yán)與倫理價(jià)值作為要件避諱隱私,以主體不同身份角色與所處境遇確立隱私外延差異,以社會(huì)對(duì)涉私的違德行為可容忍度為依據(jù)判別隱私正當(dāng)性[50]。至于隱私權(quán)保護(hù)的限度[51],只要符合公共利益相關(guān)性原則和公共興趣合情合理原則中的一個(gè)就應(yīng)該被視為體現(xiàn)了社會(huì)公眾知情權(quán)而非侵犯了隱私。陳堂發(fā)強(qiáng)調(diào),以是否直接涉及人格尊嚴(yán)的個(gè)人信息與個(gè)人事項(xiàng)作為辨別侵害隱私權(quán)的基本依據(jù),隱私保護(hù)至少不宜成為公權(quán)濫用、工作瀆職、違反黨紀(jì)、違法犯罪行為回避公眾輿論監(jiān)督的“擋箭牌”[52]。

被遺忘權(quán)是近年個(gè)人數(shù)據(jù)所有權(quán)和隱私權(quán)探討的一個(gè)焦點(diǎn)。牛津大學(xué)教授維克托·舍恩伯格提出了數(shù)字時(shí)代的被遺忘權(quán)概念,他指出,“遺忘變成例外,記憶變成常態(tài)”是大數(shù)據(jù)時(shí)代信息安全的一個(gè)隱患[53]。歐盟委員會(huì)于2012年公布的《關(guān)于涉及個(gè)人數(shù)據(jù)處理的個(gè)人保護(hù)以及此類數(shù)據(jù)自由流動(dòng)的第2012/72、73號(hào)草案》中,正式提出了被遺忘權(quán)概念。當(dāng)前對(duì)于被遺忘權(quán)的研究主要集中在三個(gè)方面:

第一,就歐盟等國(guó)家對(duì)被遺忘權(quán)的立法和實(shí)施過程分析被遺忘權(quán)的實(shí)質(zhì)和局限。如周麗娜發(fā)現(xiàn),數(shù)據(jù)主體雖然有權(quán)向數(shù)據(jù)控制者提出刪除申請(qǐng),但數(shù)據(jù)控制者享有的自由裁量權(quán)將數(shù)據(jù)主體置于被動(dòng)地位,被遺忘權(quán)僅是應(yīng)對(duì)數(shù)字化發(fā)展侵犯?jìng)€(gè)人隱私的措施之一,被遺忘是相對(duì)的。被遺忘權(quán)的意義是捍衛(wèi)網(wǎng)絡(luò)用戶自我尊嚴(yán)、提倡尊重他人自由、創(chuàng)建網(wǎng)絡(luò)無懼生活[54]。對(duì)于其中的保護(hù)限度,吳飛等提出在被遺忘權(quán)的使用中,既要保護(hù)私人領(lǐng)地的神圣性,也要保護(hù)公共領(lǐng)域的開放性[55]。

第二,從文化基因和法律傳統(tǒng)角度考量歐盟、美國(guó)等在被遺忘權(quán)上的立法嘗試,指出其面臨表達(dá)自由與隱私權(quán)和信息保護(hù)之間的矛盾。以美國(guó)法為代表的自由主義國(guó)家更看重公共言論的價(jià)值,以歐洲法為代表的民主社會(huì)主義聯(lián)盟則將新聞自由與隱私權(quán)同等視之[56];也有學(xué)者將我國(guó)2016年頒發(fā)的《網(wǎng)絡(luò)安全法》中個(gè)人對(duì)其網(wǎng)上個(gè)人信息的刪除權(quán)與歐盟的刪除權(quán)進(jìn)行對(duì)比[57],探索被遺忘權(quán)在中國(guó)的本土化實(shí)踐[58]。

第三,就被遺忘權(quán)所主張的隱私與數(shù)據(jù)保護(hù)與新聞傳播實(shí)踐中的新聞自由、言論自由、知情權(quán)等理念存在的沖突展開討論,探求新聞傳播領(lǐng)域面對(duì)這一沖突的平衡機(jī)制。趙雙閣等認(rèn)為,媒體應(yīng)該首先在價(jià)值角度避免炒作和虛假新聞,保證數(shù)據(jù)準(zhǔn)確和內(nèi)容真實(shí),其次通過匿名處理、模糊表達(dá)以避免因關(guān)聯(lián)被刪除的危險(xiǎn)[59]。張志安等指出,媒體時(shí)代把關(guān)人的缺失加劇了侵犯公民隱私及相關(guān)個(gè)人權(quán)益的情況,需要被遺忘權(quán)的約束以彌補(bǔ)自媒體傳播的缺陷;同時(shí)指出被遺忘權(quán)的引入可能增加互聯(lián)網(wǎng)公司的管理成本,影響網(wǎng)絡(luò)輿論場(chǎng)的開放、完整和真實(shí)性等[58]。

(二) 算法推薦與新聞偏向

算法推薦可能導(dǎo)致新聞偏向與虛假新聞的傳播。作為個(gè)體的記者對(duì)道德行為有很強(qiáng)的責(zé)任感,但算法作為內(nèi)容發(fā)送者的制度化,會(huì)引發(fā)專業(yè)新聞的各種倫理挑戰(zhàn)。從聚合類算法運(yùn)作的原理來看,當(dāng)?shù)螖?shù)受到限制時(shí),這類算法天然存在重復(fù)推送同類信息、造成信息疲勞的問題[60]。在新媒體環(huán)境下,算法分發(fā)的更多是碎片化、個(gè)性化的信息,而不是新聞,算法推薦機(jī)制實(shí)際上是一種對(duì)新聞專業(yè)主義和公共性的解構(gòu)[61]。這種算法短視加深了用戶偏見,可能會(huì)導(dǎo)致信息繭房和回音廊效應(yīng),進(jìn)而造成人與人之間的區(qū)隔,更使虛假消息得以借算法傳播。新聞生態(tài)的轉(zhuǎn)變?cè)诿绹?guó)已經(jīng)引起新聞質(zhì)量的下降,而且可以預(yù)見的是中小城市將不再有報(bào)紙,這將進(jìn)一步惡化新聞生態(tài)[41]。

2016年美國(guó)總統(tǒng)大選和英國(guó)脫歐呈現(xiàn)出明顯的“后真相”特征:客觀事實(shí)在形塑輿論方面影響較小,而訴諸情感和個(gè)人信仰則會(huì)產(chǎn)生更大影響。牛津詞典還將“后真相”一詞評(píng)選為2016年度詞匯。有學(xué)者指出,“后真相”長(zhǎng)期以來是一種政治現(xiàn)象,但在新聞行業(yè)結(jié)構(gòu)轉(zhuǎn)變的背景下,新聞傳播領(lǐng)域的“后真相”時(shí)代獲得了更為廣泛的關(guān)注[62]。

關(guān)于后真相時(shí)代來臨的原因,學(xué)者們主要從媒體傳播形態(tài)與技術(shù)的演進(jìn)[62-63]、受眾心理[64]、社會(huì)經(jīng)濟(jì)文化背景[65-66]等層面展開討論。研究指出,從傳播技術(shù)特性出發(fā),建立在社交網(wǎng)絡(luò)基礎(chǔ)上的傳播渠道容易帶來情緒化傳播,碎片化的傳播內(nèi)容可能導(dǎo)致還原真相很困難,實(shí)時(shí)化內(nèi)容生產(chǎn)加劇了真相挖掘和把關(guān)的難度[62];而新媒體對(duì)用戶的搶占有可能導(dǎo)致傳統(tǒng)新聞機(jī)構(gòu)因利潤(rùn)下降而被迫犧牲新聞的準(zhǔn)確性、真實(shí)性以迎合受眾口味[63]。經(jīng)濟(jì)和文化的社會(huì)鴻溝[65]是后真相時(shí)代的社會(huì)情緒基礎(chǔ),而這種社會(huì)情緒操縱下的信息生產(chǎn)和傳播所產(chǎn)生的群體分化,比信息繭房更令人擔(dān)憂[64]。

關(guān)于新聞媒體行業(yè)該如何應(yīng)對(duì)后真相,邁克爾·舒德森指出,我們?nèi)匀恍枰安豢蓯鄣男侣劷纭保⒅赋稣嫘侣剳?yīng)總是把真相放在首位,它不會(huì)讓誠(chéng)實(shí)的報(bào)道屈從于意識(shí)形態(tài)、政治鼓動(dòng)或商業(yè)利益,甚至也不會(huì)迎合讀者的口味,并提出了三條新聞質(zhì)量的判定標(biāo)準(zhǔn)[67]。潘忠黨指出,我們需要將重新建構(gòu)新聞專業(yè)定位在“以事實(shí)界定真相”為內(nèi)容的公共生活上,新聞界需要做的是將尋求、核查、鑒定事實(shí)和真相的過程置于公共討論之中,重構(gòu)交往的倫理規(guī)范[68]。

(三) 算法干預(yù)與信息繭房

自主決策是算法權(quán)力的核心[8],在社交網(wǎng)絡(luò)時(shí)代,算法實(shí)際上成為一種新的議程設(shè)置,取代媒體引導(dǎo)輿論。目前沒有基于算法倫理和規(guī)制設(shè)立基本的防御機(jī)制,公共媒體對(duì)用戶大數(shù)據(jù)的使用,不能保證過程的合理性。敏感信息的使用、傳播,某些受眾被特定類型信息屏蔽(或者過于吸引),其實(shí)都存在倫理風(fēng)險(xiǎn)。

程序員設(shè)計(jì)的算法往往不受傳統(tǒng)新聞倫理約束,這就破壞了新聞專業(yè)主義的行業(yè)傳統(tǒng)和價(jià)值基礎(chǔ)。個(gè)性化推薦背后,算法設(shè)計(jì)可能隱含著階層區(qū)隔的意味[60]。提高算法透明度,以實(shí)現(xiàn)對(duì)算法的監(jiān)管,已成當(dāng)務(wù)之急[8]。

算法智能推薦所導(dǎo)致的受眾所接受的觀點(diǎn)窄化問題被形象地概括為信息繭房。信息繭房最早由美國(guó)學(xué)者桑斯坦提出,意指在通信領(lǐng)域,人們只選擇自己感興趣和能令自己愉悅的內(nèi)容[69]。信息繭房是算法、大數(shù)據(jù)推薦等大眾傳播技術(shù)和“我們只聽我們選擇的東西和能愉悅我們的東西”這種大眾心理共謀的結(jié)果[70]

關(guān)于信息繭房的后果和危害,程士安等認(rèn)為信息繭房容易加劇誤解、放大假消息[71];胡婉婷認(rèn)為信息繭房破壞了網(wǎng)絡(luò)公共領(lǐng)域建構(gòu),主要表現(xiàn)在網(wǎng)絡(luò)精英的信息壟斷導(dǎo)致多數(shù)人自由表達(dá)受阻,群體極化造成公眾理性批評(píng)缺失,因缺少共同經(jīng)驗(yàn)而削弱社會(huì)黏性、破壞共同體的維系[72];彭蘭認(rèn)為信息繭房是用戶角度“擬態(tài)環(huán)境”的一種表現(xiàn),不利于人們更充分全面地接近真實(shí)社會(huì)的信息環(huán)境[62]。

學(xué)者們從優(yōu)化算法、媒體責(zé)任、個(gè)人媒介素養(yǎng)三個(gè)方面對(duì)信息繭房的解決進(jìn)行展望:首先,通過優(yōu)化人工智能推薦算法、擴(kuò)大數(shù)據(jù)挖掘以拓寬對(duì)用戶信息需求的定義、增加優(yōu)質(zhì)信息資源配比、采用人工與智能篩選相結(jié)合等方法讓個(gè)性化推薦更為智能全面[44];其次,從媒體責(zé)任角度優(yōu)化公共信息服務(wù),平衡個(gè)性化傳播與公共性傳播、個(gè)性滿足與社會(huì)整合的關(guān)系[62,70];最后,用戶媒介素養(yǎng)要進(jìn)一步提高,也是其中應(yīng)有之義。

但也有學(xué)者對(duì)此提出了異議,有研究通過對(duì)Facebook用戶的信息接觸進(jìn)行量化研究,指出當(dāng)用戶通過Facebook推薦算法獲得新聞,其信息繭房和回音廊效應(yīng)并不像人們預(yù)想得那樣嚴(yán)重,個(gè)人選擇依舊發(fā)揮著重要作用[73]。

三、 人工智能時(shí)代新聞倫理研究反思

新技術(shù)動(dòng)搖了新聞從業(yè)者一直以來對(duì)新聞采集和傳播的壟斷地位,隨著媒體邊界的模糊化,“該由誰來決定公眾應(yīng)該知道什么和不知道什么”成為爭(zhēng)執(zhí)的焦點(diǎn),其背后則是新媒體技術(shù)與社會(huì)倫理期待的沖突。因此,厘清人工智能時(shí)代新聞倫理的責(zé)任主體,考量其倫理結(jié)構(gòu)與急需處理的核心辯證關(guān)系,進(jìn)而為行業(yè)規(guī)制提供建議,是該領(lǐng)域研究的基本立場(chǎng)。

通過上文研究梳理可以看出,國(guó)內(nèi)外學(xué)者在人工智能的倫理反思、人工智能時(shí)代的新聞傳播模式與問題,以及信息技術(shù)法律規(guī)范方面,已經(jīng)打下了相當(dāng)扎實(shí)的理論基礎(chǔ)。但人工智能倫理治理和規(guī)制方面的問題,并沒有隨著理論研究文獻(xiàn)的大幅度增長(zhǎng)而得到解決,這一定程度上說明了問題的復(fù)雜性,以及理論研究和實(shí)踐需求之間存在脫節(jié)。

首先,在新聞傳播領(lǐng)域,需要更加清晰而整體性地闡釋人工智能時(shí)代的技術(shù)內(nèi)涵、社會(huì)內(nèi)涵、倫理內(nèi)涵和規(guī)制內(nèi)涵,為新聞傳播學(xué)界對(duì)此人工技術(shù)物的理性反應(yīng)提供理論基礎(chǔ)。

人工智能技術(shù)已經(jīng)深切地介入人類社會(huì)的信息傳播過程,傳播學(xué)界對(duì)機(jī)器寫作、傳感器新聞、算法排序等新興現(xiàn)象的研究已成熱點(diǎn)。目前的文獻(xiàn)雖然多帶有“人工智能”這一關(guān)鍵詞,但在一定程度上混用了新媒體技術(shù)、社交網(wǎng)絡(luò)等核心概念。也許從現(xiàn)象的梳理和分析角度,這種程度的混淆并不影響結(jié)論的有效性,但不利于整體研究域的厘清和構(gòu)建。所以在人工智能技術(shù)的整體性研究方面,傳播學(xué)界需要更為細(xì)膩的技術(shù)問題邏輯描述。特別是在新聞倫理研究層面,需要進(jìn)一步破除技術(shù)黑箱,明晰人工智能技術(shù)影響社會(huì)信息傳播的機(jī)制和倫理后果,明確人工智能成長(zhǎng)邏輯與人為干預(yù)的窗口期。目前新聞倫理的文獻(xiàn)很大程度上將人工智能技術(shù)視作不需要進(jìn)行理論和技術(shù)辨析的概念,這反而使得對(duì)“人工智能時(shí)代”的破題不足,尤其是人工智能技術(shù)到底在哪些環(huán)節(jié)、哪些層面影響新聞倫理,它與社交媒體技術(shù)和平臺(tái)之間存在何種邏輯關(guān)系,較少有研究涉及這些相對(duì)本體論的問題。

綜論人工智能時(shí)代的新聞倫理研究,研究議題比較分散,聚焦性很強(qiáng)而理論整體性建構(gòu)不足,尤其是對(duì)人工智能技術(shù)與社會(huì)結(jié)構(gòu)和社會(huì)過程之間的系統(tǒng)性聯(lián)系研究不足,容易呈現(xiàn)研究原子化的傾向。學(xué)界對(duì)人工智能保持很高的研究敏感度,但囿于技術(shù)本身的復(fù)雜性和不確定性,人文社科領(lǐng)域?qū)Υ说姆磻?yīng)往往只能聚焦于相對(duì)顯性的現(xiàn)實(shí)議題。

人工智能技術(shù)的工程學(xué)研究領(lǐng)域非常繁雜,但是目前介入人類信息傳播的核心技術(shù)已經(jīng)相對(duì)清晰,產(chǎn)生的社會(huì)后果也較為直觀。從上文綜述可知,與新聞傳播領(lǐng)域高度相關(guān)的人工智能底層技術(shù)是算法和大數(shù)據(jù),在直接辨析其新聞倫理后果之前,需要對(duì)核心技術(shù)研發(fā)、迭代和應(yīng)用予以社會(huì)歷史還原,提供技術(shù)本體和社會(huì)情境分析。從社會(huì)歷史學(xué)的整體性視野探討這一議題,其目的在于呈現(xiàn)技術(shù)倫理學(xué)的實(shí)踐意義,即必須關(guān)注復(fù)雜的技術(shù)倫理責(zé)任主體關(guān)系,特別是技術(shù)的決策者與組織者、創(chuàng)造者與生產(chǎn)者、需求者與使用者等社會(huì)各界的共同責(zé)任。目前有部分研究以Facebook, News Feed算法為主要案例[46,74]分析其中的技術(shù)迭代及其倫理影響。類似帶有技術(shù)社會(huì)學(xué)立場(chǎng)的研究是進(jìn)一步厘清問題邏輯的有效做法,將會(huì)為進(jìn)一步厘清新聞倫理的主體和核心價(jià)值排序提供扎實(shí)的研究基礎(chǔ)。

其次,相較于元倫理學(xué)和規(guī)范倫理學(xué)面對(duì)人工智能時(shí)代的積極學(xué)術(shù)反應(yīng),新聞倫理研究相對(duì)不足。元倫理學(xué)和規(guī)范倫理學(xué)在技術(shù)人工物的倫理主體、倫理結(jié)構(gòu)和倫理治理方面積累了相對(duì)豐厚的理論基礎(chǔ)。道德自主體形成的可能性讓倫理學(xué)者反思啟蒙主義以來的人本主義、個(gè)體主義倫理研究路徑[25],并從問責(zé)的角度建構(gòu)“人工能動(dòng)者”的道德主體地位及其問責(zé)要件[1]。類似研究對(duì)人類社會(huì)應(yīng)對(duì)人工智能技術(shù)可能的風(fēng)險(xiǎn),都具有很高的理論和實(shí)踐運(yùn)用價(jià)值。

自1923年美國(guó)報(bào)紙編輯協(xié)會(huì)提出美國(guó)首個(gè)新聞業(yè)自律規(guī)范《報(bào)人守則》(CanonsofJournalism)以來,責(zé)任、自由、獨(dú)立、真實(shí)準(zhǔn)確、公正、公平等成為新聞傳播行業(yè)職業(yè)倫理的重要原則。其中,各國(guó)行業(yè)協(xié)會(huì)、知名媒體機(jī)構(gòu)都提出過操作性很強(qiáng)的倫理規(guī)范。

可以說,新聞倫理規(guī)范的研究從起點(diǎn)之始就帶有很強(qiáng)的實(shí)踐問題導(dǎo)向性,換言之,其本身的出發(fā)點(diǎn)并非在于理論抽象,而是行業(yè)指導(dǎo)。人工智能時(shí)代的新聞倫理研究同樣沿襲這一路徑,研究目標(biāo)在于解決新聞行業(yè)的新問題,研究方法基本采取案例研究的模式,臉書、谷歌等國(guó)際知名公司的案例及其引發(fā)的爭(zhēng)議是研究的主要材料。

新聞倫理研究與生俱來的形而下路徑符合新聞傳播行業(yè)本身的特點(diǎn)。但在人工智能時(shí)代,媒體技術(shù)的突飛猛進(jìn)構(gòu)建了一個(gè)萬物皆媒的社會(huì),新聞倫理研究向著傳播倫理的方向進(jìn)發(fā),而且與科學(xué)哲學(xué)、計(jì)算機(jī)倫理、工程師倫理乃至規(guī)范倫理學(xué)有了更多對(duì)話的空間。為了更好地解決新聞傳播學(xué)的問題,新聞倫理研究需要部分地放棄過于實(shí)踐導(dǎo)向和對(duì)策導(dǎo)向的模式,擴(kuò)充自身形而上學(xué)研究的野心。

在新聞倫理研究中,言論自由和公民權(quán)利之間的張力一直存在,新聞傳播界如何協(xié)助構(gòu)建一個(gè)公平、正義的社會(huì),是其倫理研究的基本邏輯起點(diǎn)?;ヂ?lián)網(wǎng)一定程度上形成了沒有精英控制的公眾輿論和表達(dá)渠道[75],那人工智能則可能取代人類精英,做出信息決策和倫理決策。如果這樣的技術(shù)想象成為現(xiàn)實(shí),哈貝馬斯的“理想語境”、羅爾斯的“理想處境”理論假設(shè)就需要修正,良序社會(huì)所需要的程序正義和實(shí)質(zhì)正義不得不將無心的道德主體納入考慮,這將對(duì)規(guī)范倫理和新聞倫理產(chǎn)生巨大的影響。目前規(guī)范倫理和后現(xiàn)代現(xiàn)象學(xué)對(duì)此已有觸及,新聞倫理可以在理論抽象程度上做進(jìn)一步提升,以增加與原學(xué)科對(duì)話的能力。

再次,跨學(xué)科研究的數(shù)量和質(zhì)量有待進(jìn)一步提高。目前,算法和大數(shù)據(jù)已經(jīng)產(chǎn)生傳播權(quán)(新聞價(jià)值權(quán)重排序決策權(quán))、信息自由(人的傳播自主性)、信息觸達(dá)(服務(wù)的普適性、信息的不當(dāng)觸達(dá))、信息隱私權(quán)和數(shù)字身份及其保護(hù)的問題。這些問題處于傳播倫理、技術(shù)倫理、組織倫理的公共區(qū)域,是多個(gè)主體共同作用的結(jié)果,通過組織提供的產(chǎn)品和服務(wù)予以進(jìn)一步傳導(dǎo),最終形成傳播效率、身份認(rèn)同和信息安全等問題。在國(guó)家層面,就會(huì)產(chǎn)生數(shù)據(jù)安全、信息主權(quán)、社會(huì)凝聚力等更為宏觀也更加重要的議題。

人工智能時(shí)代所涉及的技術(shù)實(shí)體以及社會(huì)情境相對(duì)復(fù)雜,要真正理解這一問題,需要計(jì)算機(jī)科學(xué)、倫理學(xué)、社會(huì)學(xué)、法學(xué)和新聞傳播學(xué)之間的共同合作。從目前的研究可見,不同學(xué)科的研究議題具有相似性,算法和數(shù)據(jù)是各個(gè)學(xué)科共同關(guān)心的核心技術(shù)現(xiàn)實(shí),而技術(shù)人工物的倫理、法律地位,數(shù)據(jù)安全,個(gè)人隱私和人類自主權(quán),是公共的議題。但是目前幾個(gè)學(xué)科的研究散見在不同的期刊,研究議題相對(duì)聚焦,學(xué)科間的對(duì)話卻不夠充分,導(dǎo)致難以形成學(xué)科合力,不能在技術(shù)進(jìn)步話語和經(jīng)濟(jì)發(fā)展話語體系之下,形成來自人文社科的平衡性話語力量。

尤其是人文社科對(duì)技術(shù)倫理的反思沒有形成與計(jì)算機(jī)科學(xué)之間的互動(dòng)機(jī)制,研究成果因此很難應(yīng)用于人工智能實(shí)踐。近年來海外技術(shù)倫理研究成果已經(jīng)讓技術(shù)研發(fā)群體意識(shí)到自身在技術(shù)倫理后果方面所負(fù)有的責(zé)任,逐漸形成科學(xué)共同體、區(qū)域立法和公眾行動(dòng)之間的合作。計(jì)算機(jī)倫理十戒、阿西洛馬會(huì)議、《通用數(shù)據(jù)保護(hù)法》等文本和舉措值得深入研究。

在跨越學(xué)科范式的同時(shí),人工智能時(shí)代的新聞倫理研究也需要增加方法論創(chuàng)新。受限于人工智能技術(shù)本身的發(fā)展階段,目前的文獻(xiàn)和理論假設(shè)缺乏足夠的實(shí)證研究支撐。例如后真相、信息繭房等效應(yīng)并沒有足夠的實(shí)證研究來證實(shí)或證偽,這在某種程度上影響了理論的現(xiàn)實(shí)影響力。與此同時(shí),能夠細(xì)致化分析研究變量之間因果關(guān)系的研究設(shè)計(jì)就更加不足,這就影響了理論的現(xiàn)實(shí)指導(dǎo)力。導(dǎo)致這一研究結(jié)果的因素十分復(fù)雜,在方法論層面上,在于傳統(tǒng)研究方法論面對(duì)算法和大數(shù)據(jù)的局限性很明顯。特別是算法智能排序機(jī)制使得每個(gè)受眾的用戶界面并不相同,傳統(tǒng)的問卷調(diào)查、實(shí)驗(yàn)測(cè)量等方法的效度就會(huì)下降。目前新聞學(xué)界已經(jīng)開始借鑒逆向工程原理,以輸入—輸出的測(cè)量模式,在保持算法黑箱的同時(shí)有效測(cè)量其中介效應(yīng)。類似的研究方法融合和創(chuàng)新,可以進(jìn)一步運(yùn)用于新聞倫理的研究,正面迎擊理論難點(diǎn)。

四、 結(jié) 語

綜上,在人工智能時(shí)代,傳統(tǒng)新聞業(yè)中的倫理挑戰(zhàn)如報(bào)道的客觀性、公正性、惡性競(jìng)爭(zhēng)、隱性采訪、有償新聞、新聞廣告、公民隱私權(quán)等議題依然具有重要的研究?jī)r(jià)值,在新技術(shù)條件下的理論分析往往也是重回新聞傳播學(xué)經(jīng)典問題的過程。但是人工智能技術(shù)日漸成為信息領(lǐng)域的主要中介技術(shù),未來的新聞倫理研究應(yīng)該緊扣算法和數(shù)據(jù)兩個(gè)研究核心,區(qū)分不同的倫理主體,厘清新條件下的競(jìng)爭(zhēng)價(jià)值及其排序。與傳統(tǒng)新聞倫理只關(guān)心新聞內(nèi)容不同,人工智能時(shí)代的新聞倫理將數(shù)據(jù)、代碼和經(jīng)營(yíng)都包含其中,倫理結(jié)構(gòu)更加復(fù)雜。

媒體倫理的三個(gè)主要原則就是真實(shí)、客觀和最小傷害[32]。從全球業(yè)已產(chǎn)生的算法新聞工具理性與人文主義的沖突來看,如何從根本上摒棄數(shù)字泰勒主義,是一個(gè)需要進(jìn)一步集結(jié)人文社科智識(shí)力量予以破解的重要問題。特別是在這一波互聯(lián)網(wǎng)技術(shù)浪潮中,中國(guó)的新聞實(shí)踐走在了世界的前列,其倫理治理的相關(guān)研究可以凝練為新時(shí)代中國(guó)特色社會(huì)主義網(wǎng)絡(luò)治理的“中國(guó)經(jīng)驗(yàn)”,為全球同行提供參考。

猜你喜歡
倫理人工智能算法
《心之死》的趣味與倫理焦慮
靈長(zhǎng)類生物醫(yī)學(xué)前沿探索中的倫理思考
哪種算法簡(jiǎn)便
護(hù)生眼中的倫理修養(yǎng)
Travellng thg World Full—time for Rree
2019:人工智能
進(jìn)位加法的兩種算法
根據(jù)問題 確定算法
人工智能與就業(yè)
倫理批評(píng)與文學(xué)倫理學(xué)