王超群
(湖南科技大學(xué) 人文學(xué)院,湖南 湘潭 411201)
近年來(lái)我國(guó)人工智能技術(shù)發(fā)展迅猛,新的技術(shù)給家居、交通、教育等行業(yè)帶來(lái)深刻變革的同時(shí),也牽引新聞媒體生產(chǎn)進(jìn)入智能時(shí)代。 人工智能、大數(shù)據(jù)、物聯(lián)網(wǎng)、VR/AR 等技術(shù)納入媒體業(yè),帶來(lái)了新聞生產(chǎn)的機(jī)器化、新聞分發(fā)的個(gè)性化、新聞體驗(yàn)的臨場(chǎng)化。 2014 年美聯(lián)社開(kāi)始使用自動(dòng)化技術(shù)報(bào)道新聞,中國(guó)2015 年8 月騰訊率先推出Dreamwriter寫稿機(jī)器人, 今日頭條xiaomingbot、 第一財(cái)經(jīng)DT稿王、百度度秘解說(shuō)相繼浮出水面。 這些變化都意味著媒體正在進(jìn)入智能化時(shí)代。人工智能在推動(dòng)新聞生產(chǎn)劇烈變革的同時(shí),也給媒介倫理帶來(lái)種種風(fēng)險(xiǎn)與危機(jī)。本文在大量閱讀國(guó)內(nèi)外相關(guān)文獻(xiàn)的基礎(chǔ)上, 重點(diǎn)對(duì)2014 年機(jī)器人新聞問(wèn)世以來(lái)國(guó)內(nèi)外媒介倫理的研究成果進(jìn)行了系統(tǒng)梳理,以期把握當(dāng)前智媒背景下媒介倫理研究的重點(diǎn)與難點(diǎn),并針對(duì)未來(lái)研究路徑提出看法。
對(duì)于國(guó)內(nèi)外媒介倫理研究成果的搜集,本研究采用的方法是:中文文獻(xiàn)的搜集,主要在中國(guó)知網(wǎng)搜索主題關(guān)鍵詞“倫理”“算法”“數(shù)據(jù)”“虛擬現(xiàn)實(shí)”以及“智能”,將學(xué)科范圍限定為“新聞傳播學(xué)”,搜索時(shí)間截止到“2018-12-31”,并剔除掉重復(fù)及不相關(guān)的論文,共搜索到有效論文183 篇。 外文文獻(xiàn)的搜集,主要在傳播與大眾媒介全文數(shù)據(jù)庫(kù)(Communication & mass media complete)進(jìn)行。該數(shù)據(jù)庫(kù)收錄超過(guò)440 種期刊的完整 (“核心”) 索引和摘要,以及326 種期刊的全文,提供了傳播和大眾媒介相關(guān)領(lǐng)域的最全面優(yōu)質(zhì)的研究成果。通過(guò)在該數(shù)據(jù)庫(kù)搜索主題關(guān)鍵詞 “ethic”“algorithm”“robot”“data”“virtual reality”以及“Artificial intelligence”,搜索時(shí)間截止到“2018-12-31”,并剔除重復(fù)及不相關(guān)論文,共搜索到有效論文64 篇。通過(guò)對(duì)所有論文進(jìn)行深度閱讀,總結(jié)歸納出以下三個(gè)維度的研究成果。
媒介倫理研究?jī)?nèi)容最大的比重在于探討人工智能技術(shù)在新聞生產(chǎn)、 分發(fā)領(lǐng)域所帶來(lái)的倫理風(fēng)險(xiǎn),主要包括算法歧視、算法偏見(jiàn)、信息繭房、數(shù)據(jù)隱私、數(shù)字鴻溝、對(duì)新聞價(jià)值的破壞等問(wèn)題。
1. 智能技術(shù)的介入帶來(lái)新聞傳播領(lǐng)域的公平正義風(fēng)險(xiǎn)問(wèn)題。 喻國(guó)明關(guān)注“算法歧視”問(wèn)題,指出算法以“技術(shù)中立”的名義介入新聞生產(chǎn),在實(shí)踐操作中存在人主導(dǎo)的算法設(shè)計(jì),難免體現(xiàn)出各種各樣的“歧視”,世俗社會(huì)的民族、宗教歧視,商業(yè)社會(huì)的金錢歧視,政治社會(huì)的權(quán)力歧視等,只是歧視變得更加隱蔽[1]。Hollis Koo 關(guān)注“數(shù)字鴻溝”,認(rèn)為數(shù)據(jù)的近用權(quán)問(wèn)題會(huì)導(dǎo)致機(jī)會(huì)正義缺失,他指出,不同國(guó)度、不同類型的媒體組織獲取和接近數(shù)據(jù)統(tǒng)計(jì)信息的能力有差異,獲取大數(shù)據(jù)的有限機(jī)會(huì)掌握在少數(shù)人手里,影響了數(shù)據(jù)分配的機(jī)會(huì)正義,造成新的數(shù)字鴻溝等[2]。
2.智能技術(shù)的介入影響傳統(tǒng)新聞價(jià)值的實(shí)現(xiàn)。首先可能會(huì)對(duì)“新聞客觀性”造成損壞。針對(duì)建立在大數(shù)據(jù)挖掘技術(shù)上的數(shù)據(jù)來(lái)源可靠性問(wèn)題,吳洪霞指出,數(shù)據(jù)表面上看似客觀,但實(shí)際上數(shù)據(jù)來(lái)源的可靠性與權(quán)威性具有不確定性,不管是來(lái)自民間還是官方,都有可能存在有意或無(wú)意的錯(cuò)誤、遺漏或者清洗,這些有先天缺陷的數(shù)據(jù)會(huì)誤導(dǎo)受眾相信新聞是“客觀的”,而忽視了本質(zhì)其實(shí)是“偽客觀”的[3]。范紅霞則指出,數(shù)據(jù)與算法驅(qū)動(dòng)下的新式新聞更多地借用程序員、設(shè)計(jì)師、計(jì)算機(jī)和算法的力量完成,破壞了新聞專業(yè)主義的行業(yè)傳統(tǒng)和價(jià)值基礎(chǔ),消解了新聞的客觀性、真實(shí)性和專業(yè)性[4]。 其次可能會(huì)背離“新聞?wù)鎸?shí)性”原則。 朱鴻軍認(rèn)為,基于算法推薦的新聞分發(fā)機(jī)制, 容易將標(biāo)題黨新聞推薦給用戶,使得低俗與虛假新聞大行其道,直接影響新聞的真實(shí)性[5]。 Sullivan, M 則對(duì)虛擬現(xiàn)實(shí)新聞?wù)归_(kāi)了質(zhì)疑,認(rèn)為虛擬現(xiàn)實(shí)新聞?wù)婕倩旌?,VR 技術(shù)通過(guò)各種感官刺激使得新聞故事達(dá)到一種“新的真實(shí)性效果”,改變了社會(huì)通過(guò)新聞與信息互動(dòng)的方式,是對(duì)新聞?wù)鎸?shí)的背離[6]。 最后可能對(duì)傳媒的“民主社會(huì)功能”造成損壞。 Bucher, T 指出,算法個(gè)人化推薦迎合個(gè)體讀者特定利益, 通過(guò)過(guò)濾氣泡和回音壁效應(yīng),具有破壞公共新聞理想的危險(xiǎn)性[7]; 丁曉蔚等人指出,算法個(gè)人化推薦注重“點(diǎn)”上的深挖,難以最大程度地實(shí)現(xiàn)個(gè)人價(jià)值和公共價(jià)值[8],公民參與受到損害。
3.智能技術(shù)的介入帶來(lái)受眾權(quán)益受損風(fēng)險(xiǎn)。 首先是大數(shù)據(jù)挖掘技術(shù)對(duì)受眾隱私的侵犯嫌疑。陳昌鳳指出, 可訪問(wèn)的數(shù)據(jù)并不意味著符合道德規(guī)范,在網(wǎng)上所搜集的在線個(gè)人信息和閱讀痕跡本屬于隱私, 在沒(méi)有知情同意的前提下被交換和買賣,存在侵犯?jìng)€(gè)人隱私信息的嫌疑[9]。 其次,建立在虛擬現(xiàn)實(shí)技術(shù)上的沉浸新聞可能會(huì)帶來(lái)對(duì)受眾理性批判能力以及情感的傷害。張卓認(rèn)為沉浸新聞的感官刺激既會(huì)帶來(lái)信息污染,也會(huì)導(dǎo)致受眾理性與批判能力的喪失[10];蘇宏元認(rèn)為VR 新聞360 度無(wú)死角的拍攝會(huì)引發(fā)隱私的泄露以及對(duì)新聞事件當(dāng)事人的情感傷害[11]。
大部分學(xué)者主要從規(guī)范倫理學(xué)研究路徑,探討建設(shè)新的倫理規(guī)范以規(guī)避新出現(xiàn)的媒介倫理風(fēng)險(xiǎn)。其中美國(guó)的邁克·安妮(Mike Ananny ) 、馬特·卡爾森(Carlson, M.)、尼古拉斯·迪亞科普洛斯(Nicholas Diakopoulos)等將研究焦點(diǎn)集中在治理“算法黑箱”問(wèn)題。 Diakopoulos(2015)提出建構(gòu)“算法問(wèn)責(zé)制”(Algorithmic Accountability),即通過(guò)對(duì)算法的透明度測(cè)試,以識(shí)別商業(yè)秘密,發(fā)現(xiàn)操縱后果并超越復(fù)雜問(wèn)題的認(rèn)知天花板, 并提出逆向工程算法(Reverse Engineering), 來(lái)實(shí)現(xiàn)這一問(wèn)責(zé)制的施行[12]。另外,視“透明度”(Transparency)為算法問(wèn)責(zé)制最有效方法的研究日益火熱[13],“透明度原則”替代“客觀性原則” 越來(lái)越多地被用作合法化新聞的規(guī)范基礎(chǔ)[14]。 楊保軍則在“透明原則”之外,進(jìn)一步梳理歸納了智能新聞的其他三大倫理原則,包括:風(fēng)險(xiǎn)可控原則、知情同意原則和核查更正原則[15]。 陳昌鳳則從“引導(dǎo)人工智能價(jià)值觀”的視角提出規(guī)范算法的價(jià)值理性,包括對(duì)“黑匣子”內(nèi)部運(yùn)算程序進(jìn)行價(jià)值觀測(cè)試,通過(guò)算法技術(shù)介入價(jià)值觀來(lái)進(jìn)行價(jià)值觀引導(dǎo)等策略[16]。
除了規(guī)范倫理學(xué)路徑,鮮有從責(zé)任倫理學(xué)路徑展開(kāi)研究,討論道德責(zé)任主體如何承擔(dān)起相應(yīng)的風(fēng)險(xiǎn)治理責(zé)任。 這方面較為典型的代表學(xué)者有嚴(yán)三九,他認(rèn)為算法工程師等新主體作為算法價(jià)值的決定者和倫理責(zé)任承擔(dān)者,在過(guò)往研究中處于被忽視狀態(tài),他們對(duì)倫理問(wèn)題的威脅性評(píng)估偏低且改善傾向整體趨于保守[17]。
這一部分往往通過(guò)實(shí)驗(yàn)法和觀察法進(jìn)行對(duì)比研究。 研究主題包括: 一是受眾對(duì)自動(dòng)化新聞“客觀性”的感知。研究表明,雖然軟件生成的內(nèi)容被視為描述性和無(wú)聊的,但也被認(rèn)為是客觀的,不過(guò)受眾無(wú)法將自動(dòng)化新聞與記者手寫新聞辨別出來(lái)[18];二是自動(dòng)化新聞與記者手寫新聞“可讀性”的感知差異。研究表明,當(dāng)同時(shí)閱讀兩類文章時(shí),記者手寫新聞在可讀性方面更受歡迎,在信譽(yù)方面評(píng)分更低;受眾對(duì)自動(dòng)化新聞的可讀性和質(zhì)量期望更高(而不是可信度),但這種期望很少得到滿足。以上種種證實(shí)了公眾對(duì)記者信譽(yù)持有的負(fù)面態(tài)度,以及對(duì)新信息傳播技術(shù)的期望[19];三是新聞?dòng)浾吲c新聞消費(fèi)者對(duì)自動(dòng)化新聞“可信度”的感知差異。 研究表明,新聞消費(fèi)者對(duì)于兩者的可信度感知沒(méi)有明顯差異,但記者認(rèn)為記者手寫新聞可信度高于自動(dòng)化新聞,并且記者對(duì)自動(dòng)化新聞可信度的認(rèn)可要高于新聞消費(fèi)者,同時(shí)新聞可信度還受新聞主題的影響[20]。
科技創(chuàng)新帶動(dòng)了新的倫理學(xué)研究熱潮,機(jī)器人倫理(Robot ethics)、信息倫理(Information Ethics)、算法倫理(Algorithmic Ethics)等成為熱門詞匯。 傳統(tǒng)的新聞職業(yè)倫理學(xué)顯然已經(jīng)不適應(yīng)當(dāng)前的媒介化信息化社會(huì)環(huán)境,那么人工智能媒介倫理該如何發(fā)展?諸多學(xué)者在道德論、功利主義、美德倫理學(xué)和契約主義的道德理論基礎(chǔ)之上,討論了智媒時(shí)代媒介倫理學(xué)的建構(gòu)。
陳昌鳳指出,智媒時(shí)代媒介倫理表現(xiàn)出從新聞倫理到信息倫理的轉(zhuǎn)向,主要體現(xiàn)為傳統(tǒng)新聞媒體的信息把關(guān)人角色讓渡給了掌握算法推薦技術(shù)的非新聞專業(yè)人員[21]。Ananny, Mike 提出智媒時(shí)代的媒介倫理可稱之為 “網(wǎng)絡(luò)化信息算法”(networked information algorithms)倫理,認(rèn)為雖應(yīng)以媒體問(wèn)責(zé)制為目的,但分析單位應(yīng)是人機(jī)交互行為,從三大維度加以建構(gòu):第一,建構(gòu)對(duì)技術(shù)適用的道德倫理規(guī)則;第二,預(yù)測(cè)技術(shù)創(chuàng)新引起的道德關(guān)切;第三,建構(gòu)技術(shù)人員自身的價(jià)值觀和信念[22]。 Dorr, Konstantin and Katherina Hollnbuchner 兩位學(xué)者提出了 “算法新聞倫理學(xué)”(Algorithmic Journalism Ethics)的概念,認(rèn)為算法新聞學(xué)倫理處于數(shù)字媒體倫理和網(wǎng)絡(luò)倫理的交叉領(lǐng)域, 可從三個(gè)維度展開(kāi):一是專業(yè)領(lǐng)域的個(gè)人倫理(individual ethics),依賴于記者個(gè)人的道德表現(xiàn),諸如要求實(shí)現(xiàn)客觀、透明和準(zhǔn)確的報(bào)告原則;二是組織領(lǐng)域的媒體系統(tǒng)倫理(ethics of the media system),將個(gè)人道德延伸到立法者、 媒體工作人員和媒體所有人的分層責(zé)任;三是社會(huì)領(lǐng)域的受眾倫理(ethics of the audience),主要包括媒介素養(yǎng)教育與需求的控制[23]。這種提法得到了包括浙江大學(xué)趙瑜教授等大量新聞傳播學(xué)者的廣泛認(rèn)同。清華大學(xué)的常江副教授則嘗試著從宏觀(新聞行業(yè))、中觀(新聞機(jī)構(gòu))和微觀(新聞從業(yè)者)三個(gè)層面建構(gòu)起以社會(huì)責(zé)任、人本主義和美德原則為核心原則的數(shù)字新聞倫理體系[24]。
雖然智媒時(shí)代的媒介倫理研究取得了豐碩成果,但同時(shí)也暴露了幾個(gè)比較明顯的問(wèn)題。
如前文所示,相關(guān)研究討論得最多的話題就是“人工智能媒介倫理風(fēng)險(xiǎn)的表象及應(yīng)對(duì)策略研究”,關(guān)于算法新聞、數(shù)據(jù)新聞和沉浸新聞所帶來(lái)的倫理風(fēng)險(xiǎn)(算法歧視、算法偏見(jiàn)、數(shù)據(jù)隱私、數(shù)字鴻溝、新聞?wù)鎸?shí)、情感傷害等)進(jìn)行了闡釋和分析。這些研究延續(xù)了傳統(tǒng)媒體時(shí)代新聞倫理研究形而下的路徑,出發(fā)點(diǎn)與落腳點(diǎn)分別是發(fā)現(xiàn)與解決行業(yè)內(nèi)最新的問(wèn)題,研究方法以臉書、今日頭條等社交媒體或平臺(tái)型媒體的典型個(gè)案研究為主。
而實(shí)際上,智媒時(shí)代的媒介倫理不僅僅只關(guān)乎傳媒本身,它已經(jīng)朝著傳播倫理轉(zhuǎn)向,與信息倫理、科學(xué)倫理以及計(jì)算機(jī)倫理有著密不可分的交集。有必要與其他相關(guān)學(xué)科開(kāi)展研究合作與對(duì)話,在理論抽象程度上做進(jìn)一步提升, 擴(kuò)充自身形而上研究的路徑。
學(xué)者們已經(jīng)意識(shí)到,智媒時(shí)代媒介倫理風(fēng)險(xiǎn)對(duì)“傳統(tǒng)新聞倫理規(guī)范”發(fā)起了新的挑戰(zhàn),新聞?wù)鎸?shí)性原則、客觀性原則統(tǒng)統(tǒng)失靈,自治、 公平、 正義、 責(zé)任、 服務(wù)公共利益等原則也遭遇前所未有的挑戰(zhàn),應(yīng)對(duì)新風(fēng)險(xiǎn)的“新的媒介倫理規(guī)范”不斷得到探討。比如楊保軍提出透明原則、風(fēng)險(xiǎn)可控原則、知情同意原則以及核查與更正原則;趙瑜指出,機(jī)器人倫理提出的人的尊嚴(yán)和人權(quán)、 責(zé)任、 透明度、 避免濫用和共生繁榮等原則, 也是人工智能時(shí)代新聞倫理的智識(shí)來(lái)源。 這些都是以行為為基礎(chǔ)的倫理學(xué)研究,主要考察行動(dòng)效果(如社會(huì)幸福)或義務(wù)(如規(guī)則)。
然而與傳統(tǒng)新聞倫理需要回答“對(duì)誰(shuí)負(fù)責(zé)”所不同的是,智媒時(shí)代媒介倫理還需要考慮“誰(shuí)來(lái)負(fù)責(zé)”的問(wèn)題,倫理道德主體有所增加、但其倫理責(zé)任意識(shí)弱化、責(zé)任思維匱乏、責(zé)任行為缺乏。故而有必要走出新聞傳播學(xué)科的小圈子,從倫理學(xué)科體系中的“責(zé)任倫理學(xué)”尋找理論支撐。責(zé)任倫理學(xué)的倫理道德考量的眼光始于道義而終于目的和效果,是融“道義論”和“目的論”各自合理性為一體、克服了其各自片面性的“道義與目的辯證統(tǒng)一、相融共善”的倫理和倫理學(xué)。 嘗試從責(zé)任倫理學(xué)的視角開(kāi)展研究,與規(guī)范倫理學(xué)形成互補(bǔ),對(duì)媒介倫理研究體系的建構(gòu)大有裨益。
人工智能技術(shù)對(duì)新聞出版、報(bào)道、分發(fā)領(lǐng)域的影響是全球范圍的,可以說(shuō),智能媒體倫理規(guī)范已經(jīng)成為一個(gè)全球性的話題。 學(xué)者們?cè)缇妥⒁獾剑瑐鹘y(tǒng)新聞倫理規(guī)范受政治經(jīng)濟(jì)和宗教文化的影響,不同地域和國(guó)家地區(qū)之間有著巨大的差異,但同時(shí)又能夠求同存異, 提煉出若干條全球適用的核心準(zhǔn)則。 如美國(guó)傳播學(xué)教授克利福德·G·克里斯琴斯(Clifford. G. Christians) 提出全球媒介倫理核心理念是“真實(shí)、人類尊嚴(yán)和非暴力”,得到了學(xué)術(shù)界的普遍認(rèn)同。
那么,人工智能媒介倫理規(guī)范是否也能在全球視野與本土情境兼顧的情況下被建立起來(lái)呢? 不同國(guó)家和地區(qū)(包括歐美、非洲、亞洲、中東)、不同宗教信仰(基督教、伊斯蘭教、佛教、儒釋道)的媒體實(shí)踐組織更新了哪些媒介倫理規(guī)范或道德準(zhǔn)則,有哪些因素在影響他們媒介倫理規(guī)范的最終形成,這些問(wèn)題基本上還沒(méi)有得到研究者的關(guān)注。對(duì)于中國(guó)學(xué)者來(lái)說(shuō),未來(lái)有必要積極探討如何建構(gòu)一個(gè)既能跨越種族找到共識(shí),又符合中國(guó)本土國(guó)情的人工智能媒介倫理規(guī)范。
綜上所述,目前智媒背景下媒介倫理研究的局限性主要體現(xiàn)在:主要運(yùn)用定性與個(gè)案研究方法分析現(xiàn)象,“發(fā)現(xiàn)問(wèn)題-追溯原因-提出對(duì)策” 是常見(jiàn)模版,缺乏理論上的追根溯源和邏輯推演;新的倫理規(guī)范建構(gòu)研究剛剛起步,責(zé)任倫理視角的研究還很缺乏,全球視野的倫理共識(shí)研究還沒(méi)有涉及。 未來(lái)的相關(guān)研究應(yīng)力圖突破當(dāng)前瓶頸,進(jìn)一步拓展研究的深度與廣度。
智媒時(shí)代的媒介倫理風(fēng)險(xiǎn)絕不僅僅是新聞傳播學(xué)領(lǐng)域的議題,它與倫理學(xué)、信息管理學(xué)、政治經(jīng)濟(jì)學(xué)、 甚至認(rèn)知心理學(xué)等多個(gè)學(xué)科都有著交叉融合。 特別是新聞傳播學(xué)所聚焦的“算法侵權(quán)”“算法權(quán)力偏見(jiàn)”“信息繭房”等問(wèn)題,也是別的學(xué)科所關(guān)注的焦點(diǎn)。目前,法學(xué)領(lǐng)域的“算法侵權(quán)”議題,已經(jīng)上升到具體討論如何立法來(lái)解決“用戶信息挖掘與隱私權(quán)侵權(quán)論爭(zhēng)”“智能媒體信息聚合與著作權(quán)保護(hù)論爭(zhēng)”等問(wèn)題。 又有公共管理學(xué)領(lǐng)域從“算法政治”的視角考察“算法權(quán)力偏見(jiàn)”在政治領(lǐng)域的運(yùn)用、對(duì)政治傳播與管理的影響等問(wèn)題。 而反觀我們新聞傳播學(xué),在討論“算法權(quán)力”時(shí),用得最多的就是福柯的“全景監(jiān)獄”和“符號(hào)暴力”等理論。在討論“信息繭房”效果時(shí),我們更多地是純理論分析算法推薦機(jī)制帶來(lái)的效果, 而實(shí)際上效果是否被夸大,受眾是否有通過(guò)其他的信息接觸行為來(lái)減弱“信息繭房”效應(yīng),大都缺乏實(shí)驗(yàn)研究加以驗(yàn)證。而認(rèn)知心理學(xué)領(lǐng)域通過(guò)實(shí)驗(yàn)法從神經(jīng)學(xué)科和心理學(xué)科驗(yàn)證在受眾身上是否產(chǎn)生“信息窄化”效果。這些學(xué)科的新視角新觀點(diǎn)新成果啟示著我們應(yīng)該加強(qiáng)學(xué)科之間的融合與合作,從學(xué)科融合的視角來(lái)搭建科研團(tuán)隊(duì),激發(fā)科研成果的創(chuàng)新。
目前,“智媒背景下新的媒介倫理規(guī)范該如何建構(gòu)”研究視角處于主流地位,學(xué)術(shù)界人士談?wù)撟疃嗟氖撬惴?quán)力算法黑箱等問(wèn)題的出現(xiàn)意味著傳統(tǒng)媒體時(shí)代“客觀性原則”已經(jīng)不適用,取而代之的應(yīng)該是“透明性原則”。美國(guó)“職業(yè)新聞工作者協(xié)會(huì)”新修訂了《職業(yè)道德規(guī)范》,將“透明性原則”納入其中,更印證了這種說(shuō)法。
然而,我們制定再多的規(guī)范,如果道德主體沒(méi)有意識(shí)到自己的問(wèn)題,不去遵守這樣的規(guī)范,那再多的規(guī)范也只能束之高閣。正如“今日頭條”平臺(tái)型媒體的負(fù)責(zé)人在面對(duì)算法偏向的質(zhì)疑時(shí),堅(jiān)持拒絕價(jià)值觀先行。 他說(shuō):“媒體是要有價(jià)值觀的,它要教育人、輸出主張,這個(gè)我們不提倡。因?yàn)槲覀儾皇敲襟w, 我們更關(guān)注信息的吞吐量和信息的多元。 ”所以,目前除了繼續(xù)注重倫理規(guī)范的議題之外,更要將目光放在倫理責(zé)任的議題上。 新的媒體組織(平臺(tái)型媒體)及其工作人員(算法工程師)在多大程度上意識(shí)到了智能新聞傳播帶來(lái)的倫理風(fēng)險(xiǎn)及自身的倫理責(zé)任?廣大受眾又是否如學(xué)界精英一樣意識(shí)到了新的媒介倫理風(fēng)險(xiǎn)并對(duì)媒體責(zé)任有所要求?這些有關(guān)“責(zé)任倫理”的議題我們都鮮有觸及。 但對(duì)于“新倫理規(guī)范建構(gòu)”研究來(lái)說(shuō),弄清楚這些問(wèn)題是基礎(chǔ),否則我們所討論的建構(gòu)問(wèn)題就是空中樓閣,虛無(wú)縹緲,缺少根基。我們的研究不能僅僅站在旁觀者的角度從理論上去要求新聞媒體實(shí)踐者“應(yīng)該” 怎么做,去人為的“綁架”他們應(yīng)該做出什么樣的改變,而需要站在他們的位置上去探索“實(shí)際上”他們是怎么想的,又是怎么做的,這樣做行不行好不好。
故而我們接下來(lái)的研究需要兩步走。第一步需要擴(kuò)展我們的研究對(duì)象, 從傳統(tǒng)媒體組織擴(kuò)展到新的媒體組織及其從業(yè)人員以及普通受眾, 因?yàn)閭惱碇黧w是人, 每一步倫理困境的選擇與倫理準(zhǔn)則的執(zhí)行,都涉及到人的行動(dòng)。第二步需要靈活運(yùn)用多種研究方法。 針對(duì)新的媒體組織及其從業(yè)人員,可以綜合運(yùn)用田野觀察、問(wèn)卷調(diào)查、深度訪談等研究方法,深入探討其倫理責(zé)任的認(rèn)知、態(tài)度與行為;針對(duì)普通受眾,可以綜合運(yùn)用實(shí)驗(yàn)法和民族志等研究方法,分析其對(duì)傳媒倫理責(zé)任的感知、監(jiān)督與評(píng)價(jià)。
他山之石,可以攻玉。不同地域、政治經(jīng)濟(jì)環(huán)境和宗教文化的國(guó)家對(duì)智媒時(shí)代的媒介倫理規(guī)范的要求不盡相同。 對(duì)于中國(guó)來(lái)說(shuō),需要建構(gòu)一個(gè)既能跨越種族找到共識(shí),又符合中國(guó)本土國(guó)情的人工智能媒介倫理規(guī)范。目前我們的研究更多的是借用邊沁的功利主義倫理學(xué)、康德道義論和美德倫理學(xué)等倫理理論開(kāi)展研究,鮮有從中國(guó)傳統(tǒng)道德文化理論中去汲取養(yǎng)分。另外,在全球化的背景下,我們更需要擴(kuò)寬研究視野, 把目光投放到不同國(guó)家和地區(qū)(包括歐美、非洲、亞洲、中東)、不同宗教信仰(基督教、伊斯蘭教、佛教、儒釋道)的媒體實(shí)踐組織中,加強(qiáng)對(duì)國(guó)外全球媒體倫理實(shí)踐的考察。這也對(duì)我們的科研團(tuán)隊(duì)提出了更高的要求,我們需要培養(yǎng)一批懂國(guó)際語(yǔ)言、通曉多元文化、能夠進(jìn)行跨文化交流與傳播的國(guó)際性科研人才。
隨著人工智能技術(shù)的發(fā)展,傳媒業(yè)也逐漸從弱人工智能技術(shù)的運(yùn)用過(guò)渡到強(qiáng)人工智能技術(shù)的運(yùn)用,人工智能對(duì)我國(guó)傳媒業(yè)的影響將更加深遠(yuǎn)。展望未來(lái), 希望我國(guó)的智能媒介倫理研究能夠在今后十年實(shí)現(xiàn)這樣的美好藍(lán)圖: 完成一整套系統(tǒng)完備的倫理風(fēng)險(xiǎn)及治理研究; 建構(gòu)起適應(yīng)智媒時(shí)代的媒介倫理結(jié)構(gòu)體系, 指導(dǎo)新聞傳播業(yè)界的傳媒實(shí)踐;在全球范圍內(nèi)達(dá)成智媒倫理共識(shí),一些新的媒介倫理規(guī)范原則為全世界傳媒從業(yè)人員所遵循、信奉和堅(jiān)持。