劉 斌
[提要]算法技術(shù)與人工智能的出現(xiàn)極大地影響了新聞傳播業(yè)的理論與實踐,生產(chǎn)流程的外部化、參與者的多元化以及倫理事實的跨界化引發(fā)了對新聞客觀性、專業(yè)主義以及媒介信念的思考,進而影響到對新聞倫理內(nèi)涵與外延的重新界定。技術(shù)話語體系與道德話語體系之間的斷裂與沖突激發(fā)了重構(gòu)新聞倫理的迫切需求——將算法及相關(guān)研究者以及媒介、公眾與政府納入到算法的技術(shù)評估范疇,實現(xiàn)各方利益的均衡,并從微觀、中觀與宏觀層面推動新聞倫理的重構(gòu),為新聞業(yè)的發(fā)展營造良好的技術(shù)與道德環(huán)境。
算法與人工智能的出現(xiàn)創(chuàng)新了傳統(tǒng)新聞生產(chǎn)方式和工作流程,改變了媒介形態(tài)和傳播生態(tài),進而影響了新聞傳播過程中所有參與者的相互關(guān)系,引發(fā)了對新聞倫理的社會性思考。所謂“倫理”,是人與人相處的各種道德準則[1](P.857)。正如梁漱溟所說,“倫者,倫偶,正指人們彼此之相與”[2](P.72-74)。由此觀之,新聞倫理是傳媒業(yè)及記者、編輯在新聞報道活動中所遵循的有關(guān)職業(yè)信念、行為規(guī)范、道德品格等各種正式與非正式制度的總和。新聞倫理在內(nèi)向維度上調(diào)節(jié)傳媒、記者、編輯之間的行為及相互關(guān)系,外向維度上則是調(diào)節(jié)媒介與政府、公眾之間的關(guān)系,關(guān)涉大眾對媒介的信任度及媒介的社會影響。目前,算法作為一種生產(chǎn)要素已經(jīng)滲透進新聞生產(chǎn)與傳播流程的各個環(huán)節(jié),逐步成為新聞傳播業(yè)的主導(dǎo)性力量之一。由于算法新聞涉及用戶對客觀世界的建構(gòu)問題,因而對進入新聞領(lǐng)域的算法需要予以新聞倫理的檢視。本文從技術(shù)與社會的關(guān)系入手審視算法對新聞倫理內(nèi)涵及外延的沖擊,進而探討技術(shù)倫理與新聞倫理之間對話的可能性。
從技術(shù)哲學的角度來看,技術(shù)并非完全外在于新聞倫理。傳媒技術(shù)通過延伸人類的感官,調(diào)節(jié)人的經(jīng)驗與行為,對人與世界的關(guān)系施加了一種建構(gòu)性的影響[3](P.9-11),從而形成了對主體進行規(guī)制、管理和矯正的權(quán)力結(jié)構(gòu),進而影響到傳媒與公眾、社會、政府之間的關(guān)系,具備了道德調(diào)解功能。[4](P.113-114)從這個角度來看,新聞倫理應(yīng)被視為“人—技結(jié)合體”的共同產(chǎn)物。[5](P.179-181)長期以來,技術(shù)與新聞倫理的關(guān)系一直處于被忽視的狀態(tài),而算法新聞的出現(xiàn)迫使人們空前關(guān)注傳媒技術(shù)與新聞倫理的關(guān)系,甚至將之提升到影響新聞業(yè)存亡的高度。
早期人類傳播體系中,人類的倫理觀與天命觀相符,傳播倫理與政治觀相混雜,人類倫理觀既是處理人與人之間關(guān)系的原則,同時也是對傳播活動的基本要求??茖W技術(shù)與工匠技藝則被統(tǒng)治者貶抑為“奇技淫巧”,其社會地位和影響大大受限。
隨著近現(xiàn)代傳媒業(yè)的出現(xiàn),“擬態(tài)環(huán)境”這一概念體現(xiàn)了媒介對受眾關(guān)于真實、關(guān)于社會認知的影響,[6](P.9-10)因而對內(nèi)容生產(chǎn)者——記者、編輯的行為進行控制與規(guī)范就顯得尤為重要?!秷笕耸貏t》《記者行為原則宣言》《新聞工作者職業(yè)道德準則》等相關(guān)規(guī)章制度的面世則確立了不同時代新聞報道活動的操作規(guī)程與行為準則,以保障信息傳播的客觀、真實與中立。不僅如此,這一時期人們已經(jīng)意識到了媒介技術(shù)如電視“音畫兼有”的特性與現(xiàn)場感對受眾感官和經(jīng)驗的影響,但對傳媒技術(shù)的道德調(diào)解作用涉及甚少,相關(guān)研究往往與媒介內(nèi)容分析、效果分析相互混雜。
借助互聯(lián)網(wǎng)、即時聊天軟件、社交媒體,人類實現(xiàn)了“中樞神經(jīng)系統(tǒng)的延伸”。[7](P.20-21)技術(shù)的進步推動了新聞生產(chǎn)過程的去組織化、UGC個體實踐的開放化、傳播路徑的網(wǎng)絡(luò)化與文本形式的碎片化,促進了新聞業(yè)的“液化”,[8](P.3-5)“傳—受”關(guān)系出現(xiàn)逆轉(zhuǎn),新聞從業(yè)者的職業(yè)認同、群體認同也隨之發(fā)生變化,而在“技術(shù)中立”原則下網(wǎng)絡(luò)傳播主體對速度與效率的追求超越了對真實、客觀的尊重。當社會學家、政治家、傳媒機構(gòu)、公眾開始討論如何重構(gòu)傳播參與者的社會責任感與道德倫理時,科學家、算法工程師與技術(shù)人員等主體被排斥在外,這也是面臨新技術(shù)挑戰(zhàn)時傳統(tǒng)新聞倫理幾乎束手無策的根本原因所在。
隨著人工智能、大數(shù)據(jù)、區(qū)塊鏈等新技術(shù)的發(fā)展,人類迅速逼近人體延伸的最后一個階段——從技術(shù)上模擬意識的階段。[7](P.20)算法進入人們的視野并將其技術(shù)潛能轉(zhuǎn)化為現(xiàn)實,成為人類認識與改造世界的新工具。當《福布斯》的Narrative Science開始新聞寫作,Custombot可以根據(jù)受眾的特定偏好生產(chǎn)新聞時,算法入侵新聞領(lǐng)域并開始施加越來越重要的影響。隨著算法新聞的日益流行,一個嚴峻的問題出現(xiàn)了——算法或機器延伸了記者的“感官”,提高了新聞的生產(chǎn)速度與傳播效率,但同時也使記者“自我截除”,[7](P.75-76)將記者與編輯的主體性驅(qū)逐出了行業(yè)之外,代之以自動生產(chǎn),從而改變了傳播過程中人與人、人與社會、人與機器之間的關(guān)系,適用于人類社會的新聞倫理無法規(guī)制新聞算法的運作,而阿西莫夫的“機器人三定律”亦難以保障“人—機”協(xié)同中人的主體性。這些加劇了人們對新聞業(yè)的憂慮,如何提升新聞倫理對算法及算法新聞的規(guī)約作用便顯得尤為突出。
隨著算法新聞的普及,科學家、工程師們以無人機、傳感器與數(shù)據(jù)庫的數(shù)據(jù)為原料,以算法為邏輯,以數(shù)據(jù)運算為工具為客觀現(xiàn)實賦形,新聞的生產(chǎn)與傳播過程成為“黑箱”,并憑借這種對現(xiàn)實的詮釋能力推動了權(quán)力的重新分配,從而拓展了新聞倫理的內(nèi)涵。
1.生產(chǎn)流程的外部化
傳統(tǒng)新聞的生產(chǎn)與傳播過程中,人是絕對的主體性因素,新聞職業(yè)倫理所處理的是記者、編輯行為與行業(yè)規(guī)范、道德原則之間的沖突。人的理性與同情可以有效地調(diào)節(jié)記者的思想與行為,控制負面新聞的危害,一切都發(fā)生在體制或系統(tǒng)內(nèi),具有一定的確定性。算法新聞的生產(chǎn)與傳播則是自動化的,處于傳統(tǒng)的新聞生產(chǎn)領(lǐng)域之外。同時,算法新聞的產(chǎn)量遠遠超出記者與編輯的處理能力,而智能推送和新媒體渠道的興起也削弱了人類對新聞內(nèi)容的生產(chǎn)及分發(fā)施加管控的可能性,這意味著算法新聞的真實性、客觀性保障機制超出傳統(tǒng)新聞領(lǐng)域之外,而在技術(shù)領(lǐng)域之內(nèi)。
2.傳播過程參與者多元化
隨著仿生學、認知心理學以及算法的進步,無人機、傳感器等智能設(shè)備出現(xiàn)在新聞傳播領(lǐng)域,而算法新聞開始突破模式化的寫作并針對用戶的個性化需求進行生產(chǎn)和推薦,技術(shù)物與記者的關(guān)系從傳統(tǒng)的“輔助”關(guān)系轉(zhuǎn)變?yōu)椤皡f(xié)同”乃至“替代”關(guān)系。不僅如此,人工智能主體的法律人格規(guī)制也被提上了議事日程,一些國家甚至承認了機器人的公民身份。這就意味著,隨著人工智能與算法的進步,具備自由意志與行動能力的機器人或智能體將成為未來新聞生產(chǎn)與傳播的主體之一。新聞倫理要面對的問題從記者、傳媒、政府與公眾等人類主體的關(guān)系協(xié)調(diào)轉(zhuǎn)變?yōu)槿伺c機器系統(tǒng)之間的共存與競爭,不確定性大大增加。不管是新聞行業(yè)整體,還是記者、編輯個體,都要從一個新的倫理高度來審視自己未來的工作崗位、工作內(nèi)容以及行為規(guī)范等問題。
3.新聞倫理事實的跨界化
算法新聞大大提升了新聞的生產(chǎn)與傳播能力,同時也產(chǎn)生了諸多問題,諸如Facebook“偏見門事件”和“劍橋分析事件”等,給社會帶來極大負面影響。從性質(zhì)上來說,這些問題具有明顯的跨界性:算法新聞的生產(chǎn)與傳播是技術(shù)性問題,而其影響則是社會性的;對算法新聞的規(guī)約是社會性的問題,但是規(guī)約的對象卻是“中立”的技術(shù)物。算法新聞是在算法程序的引導(dǎo)下由機器人自主生產(chǎn)與分發(fā),能夠影響算法新聞內(nèi)容質(zhì)量的是算法設(shè)計主體——算法工程師所遵循的技術(shù)倫理如“安全性”“可靠性”“穩(wěn)健性”“多樣性”“非歧視性”和“公平性”等原則。[9]這些是對算法設(shè)計者的一般性倫理性要求,能為算法新聞的傳播營造良好的技術(shù)環(huán)境,但與新聞倫理相比,兩者之間還存在著一定的差異。如技術(shù)倫理中的“真實”以數(shù)據(jù)挖掘和分析技術(shù)為基礎(chǔ),[10]以數(shù)據(jù)真實性、透明性為前提,而新聞倫理中的“真實”則不僅要講求微觀的事實真實,還需要講求在宏觀上把握事情的全貌,[11](P.43-44)又或者在新聞?wù)鎸嵵?,還需要追尋事物的客觀規(guī)律,[12]從受眾的接收角度來看還要考慮到“信任性真實”等不同的概念。[13]不僅如此,從具體內(nèi)容來看信息倫理提倡的“Privacy(隱私)、Accuracy(準確)、Property(產(chǎn)權(quán))、Accessibility(信息存取權(quán))”等原則中,[14]“隱私權(quán)”“財產(chǎn)權(quán)”還沒有上升到新聞倫理道德的高度,而“準確性”這一原則也與新聞倫理的要求有所不同。
同時,算法新聞生產(chǎn)所需的數(shù)據(jù)挖掘技術(shù)、數(shù)據(jù)結(jié)構(gòu)、算法、設(shè)備等能力與技術(shù)等要素超出傳統(tǒng)新聞傳播的領(lǐng)域范疇,不論是編輯還是記者都難以為算法新聞從技術(shù)上設(shè)計出一套行之有效的基本倫理準則。這種矛盾性,決定了單靠其中一方來解決新聞倫理的重構(gòu)問題基本上是行不通的。
當算法參與到新聞生產(chǎn)與傳播的整個過程,技術(shù)話語所倡導(dǎo)的效率取向、“價值中立”原則與新聞倫理的人文價值取向之間出現(xiàn)沖突,新聞倫理的重構(gòu)變得空前復(fù)雜。
隨著邏輯學、可計算理論、概率論與大數(shù)據(jù)的進步,利用計算機模擬人的大腦思維過程成為可能,而算法新聞也于本世紀初進入初步應(yīng)用期并成為關(guān)注的焦點。
在工程師和科學家的眼中,算法是一種“黑箱”,同時也是一種世界觀、認識論,客觀世界在這里成為相互之間具有某種邏輯關(guān)系的數(shù)據(jù),意識可以被抽象成計算流程。算法新聞也體現(xiàn)了這一特征,其生產(chǎn)過程主要有數(shù)據(jù)的獲取、新聞價值的計算、新聞角度選擇、將相關(guān)細節(jié)放入新聞框架、自然語言潤色等幾個環(huán)節(jié)[15]。生產(chǎn)的原料是來自無人機、傳感器、數(shù)據(jù)庫的數(shù)據(jù),生產(chǎn)的標準——新聞價值則由記者的價值判斷轉(zhuǎn)化為數(shù)據(jù)的“異常性”,報道角度則隨數(shù)據(jù)的“異常性”而變化,最后將之用固定的模板表達出來。從生產(chǎn)與傳播過程來看,算法新聞尊重的是一種事實價值,所謂的人文元素或價值觀被轉(zhuǎn)化為可計算的數(shù)據(jù),從而可以進行數(shù)學運算,以此來判斷新聞價值的高低并排序。社會事實的數(shù)據(jù)化以及自動化寫作的發(fā)展,有利于提高新聞的生產(chǎn)與傳播效率,甚至可以進行個性化的寫作與推送。從這個角度來看,算法師、工程師等采取的是工具理性取向,追求信息生產(chǎn)的自動化與傳播效率的最大化,以達到技術(shù)潛力的極致。
相比之下,新聞業(yè)界更加講究價值理性,崇尚將事實轉(zhuǎn)換為不確定性的“精神”,[16](P.7-8)是一種道德實踐,希望從“善”的角度來衡量新聞工作的公共性、新聞內(nèi)容的客觀性以及新聞記者的行為與結(jié)果,是一種理想“烏托邦”,[17]而且客觀、真實、公平這些概念本身就具備模糊性、多義性,難以靠賦值來解決,而是以記者的能力與品格作為保障。兩者之間存在著的話語上的斷裂,對算法新聞的技術(shù)評估與社會價值評估混雜在一起,形成了新聞倫理論爭的兩個維度。
所謂新聞專業(yè)主義,除了特定的專業(yè)技能、行為規(guī)范和評判標準之外,還包括媒介社會功能的信念、新聞工作職業(yè)倫理、相對獨立的精神以及服務(wù)公眾的態(tài)度。[18]美國學者拉爾森認為,新聞專業(yè)主義是在自我評價、行業(yè)規(guī)范以及專業(yè)知識層面建構(gòu)起了一套話語體系。[19](P.10-12)這一概念的內(nèi)涵包含三個方面:在個體層面,是記者對新聞專業(yè)獨特性與聲譽的認可;在規(guī)范層面,表現(xiàn)為記者的行為規(guī)范與公共服務(wù)精神;在知識層面,則是從事報道必需的知識與技能。到了算法新聞時代,新聞專業(yè)主義的內(nèi)涵發(fā)生了變化。
首先,機器主體與職業(yè)認同之間的沖突。新聞算法執(zhí)行的是工程師設(shè)計的方案與程序,在無人干預(yù)或很少干預(yù)的前提下可以實現(xiàn)信息采集、數(shù)據(jù)分析、稿件寫作、新聞推送等環(huán)節(jié)的自動化。生產(chǎn)的主體——機器或智能體不具有對新聞行業(yè)的認可與忠誠度,也不體現(xiàn)公眾服務(wù)的精神,因而現(xiàn)有的新聞倫理法規(guī)無法有效規(guī)制其信息生產(chǎn)與傳播行為,也很難對其行為產(chǎn)生的道德后果進行追責。不僅如此,當技術(shù)及技術(shù)物開始由單純之“物”向具有獨立意識與自主行動能力的“主體”轉(zhuǎn)化時,可能會產(chǎn)生更多與新聞倫理要求不一致的新聞產(chǎn)品,甚至是不道德的設(shè)計,比如提供信息的同時不經(jīng)提示自動收集個人信息,以作他用等。
其次,自動化生產(chǎn)與專業(yè)知識之間的沖突。算法新聞的誕生,意味著專業(yè)主義的要求——從業(yè)者需要經(jīng)過大量的專業(yè)知識與技能的學習這一條件正在失效。隨著越來越多的“智能體”出現(xiàn)在新聞生產(chǎn)領(lǐng)域,機器開始由記者的輔助角色轉(zhuǎn)變?yōu)樯a(chǎn)的主體,“去主編論”正是在這一背景下誕生的。正如舒德森(M. Schudson)所言,“新聞某種程度上是19世紀三十年代的‘發(fā)明’,而記者則是19世紀八九十年代的‘社會發(fā)明’”。[20](P.55-56)今天需要在“算法主導(dǎo)”這一新的社會與技術(shù)背景下重新思考新聞及新聞倫理的定義與規(guī)范,思考“人—機”系統(tǒng)如何服務(wù)于社會信息需求的問題,包括未來的新聞生產(chǎn)系統(tǒng)是以人為主、“人—機”雙主體還是多主體共治的問題、主體責任界定的問題以及算法新聞的版權(quán)歸屬、隱私侵犯、偏見強化等問題。
再次,算法邏輯與道德邏輯的沖突。傳統(tǒng)新聞倫理不僅涉及操作規(guī)程、專業(yè)知識及其實踐結(jié)果,同時與個人品格與德性緊密相關(guān),其導(dǎo)向是“求真”與“求善”。而算法新聞的取向不是主體對客體的價值評價,而是依據(jù)數(shù)據(jù)分析與邏輯關(guān)系進行的建構(gòu),追求的是價值與速度的最大化。于是,新聞不再以“應(yīng)知”作為報道與傳播標準,而是以“新聞文本與用戶興趣模型的屬性相似度”“用戶興趣與群體偏好的相似度”“內(nèi)容熱度”[21]為標準來指導(dǎo)新聞的生產(chǎn)與傳播?;凇罢妗边€是基于“善”(道德)的判斷,形成兩者價值取向上的差異。
2016年,美國的法官使用一款由Northpointe公司開發(fā)的軟件來預(yù)測哪些罪犯更容易再犯罪。新聞網(wǎng)站ProPublica的調(diào)查發(fā)現(xiàn):當算法與實際結(jié)果不一樣時,對黑人再次犯罪可能性的評估遠高于白人[22]。實際上,ProPublica比較的是黑人與白人的假肯定與假否定概率,從程序正義和最小傷害原則來看顯然是要避免“錯抓好人”的道德風險,而算法公司則比較了不同種族的正預(yù)測值——即所有肯定預(yù)測為真的百分比,是“寧錯勿縱”,對公平的理解不一導(dǎo)致兩者之間的分歧。在技術(shù)倫理與新聞傳播倫理中,這種差異廣泛存在。
客觀性的定義非常多,可以是一種客觀的世界或?qū)嵲?,也可以表述為獲取知識的客觀機制,[23]或是價值無涉、價值中立。[24]從科學史的角度來看,客觀性可以分為三類:
Truth-to-nature,忠于自然。1820年前的科學家認為客觀的描述“揭示了自然的本質(zhì)”,不過要求人們不應(yīng)只描述他們直接看到的真實物體,而是要能夠畫出該類事物的共相。[25](P.55-80)
Mechanical objectivity,機制式客觀性。1820—1920年間的科學家們普遍認為科學客觀性需要借助于統(tǒng)一的研究機制來實現(xiàn),而科學家需要如實描述觀察的結(jié)果,并克制人為因素。[25](P.115-183)
Trained judgment,裁決式客觀性。1920年以后,科學的客觀性依賴于受過相應(yīng)科學訓(xùn)練的專家之間的共識。[25](P.309-357)
從技術(shù)角度理解算法新聞的客觀性,顯然更接近后兩者。算法新聞的生產(chǎn)過程是高度智能化、自動化的,數(shù)據(jù)的分析、關(guān)系的建立、模板的選擇,都是一系列決策與選擇的集合,隔絕了輸入與輸出過程中人的介入與干預(yù)??梢哉f,算法新聞即便未完全反映真實與客觀的世界,但至少部分反映了數(shù)據(jù)真實基礎(chǔ)之上的世界。同時,算法是科學家與工程師的產(chǎn)品,不可避免地帶有人類的“印跡”,因而需要追求結(jié)構(gòu)性客觀,對客觀與公平的判斷來自專家們的共識或技術(shù)倫理素養(yǎng)。
相比之下,記者與編輯則更像是“忠于自然”,既要對其所面對的事實與人物進行客觀描述,又要試圖揭示某種主題或規(guī)律即“共相”,從人類社會發(fā)展的高度對新聞事實或是社會事實進行判斷、批評與反思。從這個角度來看,所有記者都是倫理學家[26](P.41-42),都是通過自己的學識、修養(yǎng)與品格對事實進行觀察與過濾,以為公共利益服務(wù)的態(tài)度進行寫作與報道,事實本質(zhì)的呈現(xiàn)則依靠諸多媒體從不同角度進行報道與引發(fā)論爭——即“報刊的有機運動”來實現(xiàn)[27](P.187-189)。可以說,算法新聞是在反映數(shù)據(jù)意義上的客觀,而記者編輯則在追求不斷向客觀事實的貼近。前者需要接受社會實踐的檢驗,更好地容納新聞倫理的精神內(nèi)核,后者則需要與時俱進,調(diào)整報道的價值取向與工作方式。
對算法所造成的倫理問題,一般有兩種思考的視角:一是外在主義視角,關(guān)注算法新聞中違反新聞倫理的事實,提出應(yīng)對措施與制度;二是內(nèi)在主義視角,通過算法設(shè)計的改進與完善來解決算法新聞生產(chǎn)與傳播中的倫理問題。
新聞傳播學界關(guān)于新聞倫理的討論大多采用了外在主義視角,從倫理的角度探討算法所帶來的問題,如“信息繭房”[28](P.7-9),“用戶的選擇權(quán)”[29],以及內(nèi)容低俗化等問題。當人們從“危害最小化”角度入手來處理傳媒與技術(shù)、社會之間關(guān)系時,往往提出新聞算法透明化、法制化、平等化等原則性的建議與意見。由于缺乏技術(shù)支持,這些概念往往缺乏可操作性,難以形成有效的規(guī)約。
從技術(shù)決定論的視角來看,這些疑慮是不存在的:一方面算法新聞提高了信息的產(chǎn)量,更多的社會事實與真相得以揭示。另一方面,無人機、傳感器等智能體的應(yīng)用使新聞報道的多元化程度得到了大幅度提高,能夠激發(fā)個人的好奇心與持續(xù)關(guān)注,而社交媒體、虛擬社區(qū)則使人們擁有更多渠道,抵消了“繭房效應(yīng)”。在實踐層面,一些平臺如頭條等開始探討個人興趣與平臺提供信息的廣度與深度之間的關(guān)系,尋求兩者之間的平衡,也取得了一定的進展。至于種族歧視或偏見植入等問題,主要原因在于訓(xùn)練的數(shù)據(jù)代表性不足,隨著數(shù)據(jù)的豐富和更好算法的發(fā)明,這些技術(shù)造成的問題終將為技術(shù)的進步所解決,提供給用戶一個更為公平、客觀與多元的世界。
因而,算法時代新聞倫理的重構(gòu)不僅要考慮到技術(shù)物的重要性,更要予以新聞倫理的觀照,在技術(shù)與社會之間尋求一種對話機制,推動兩者相互聯(lián)通,相互融合:一方面推動傳統(tǒng)新聞倫理的創(chuàng)新與轉(zhuǎn)型,更好地指導(dǎo)新時代的記者與編輯工作,發(fā)揮其主體性;另一方面探討將新聞傳播倫理的精神植入算法設(shè)計之中的方法與路徑,融合外在與內(nèi)在視角,強化對新聞算法的規(guī)約,使其更好地為人類服務(wù)。
長期以來,人們都采用人類/非人類、社會/自然這種二元對立模式來認識世界,因而技術(shù)或技術(shù)物在人們的意識中只是經(jīng)驗的對象,是客體而非主體。但實際上,技術(shù)在人與世界的關(guān)系中起著中介調(diào)解的作用,能夠轉(zhuǎn)換人關(guān)于世界的感知,從而形成具身關(guān)系與詮釋關(guān)系[3](P.131-132)。不僅如此,技術(shù)還促成了人們的道德行為與選擇,因而具備了道德意蘊。算法新聞中,無人機、傳感器等作為感官的延伸參與了人對世界的知覺與經(jīng)驗,而數(shù)據(jù)的相關(guān)性也重構(gòu)了人對事物之間關(guān)系的認知,智能算法推薦則更是通過激發(fā)社交關(guān)系、群體情感,形成群體極化,推動人們將沖動轉(zhuǎn)化為行為。從這個角度看,新聞算法及其產(chǎn)品不是中立的媒介,而是與人類處于互構(gòu)關(guān)系之中,共塑著人的生存方式與社會關(guān)系。因而,新聞倫理的建構(gòu)不能僅僅考慮人類主體性,同時也需要關(guān)注技術(shù)因素。布魯諾·拉圖爾(Bruno Latour)認為社會因素、科學實踐兩者之間并非毫無關(guān)聯(lián),而是同一進程的一體兩面,兩者之間相互影響,相互建構(gòu)。[30](P.348-349)在新聞倫理的重構(gòu)上,我們需要采用后人類主義的立場,將技術(shù)也視為新聞倫理建構(gòu)的主體,予以平等對待。對技術(shù)、設(shè)備等非人類主體來說,它們無法言說但是可以通過代言者如算法工程師、科學家等主體來實現(xiàn)其利益的訴求,參與新聞倫理的建構(gòu)。
雅帕·耶薩曼(Jaap Jelsma)認為,技術(shù)形成了人們行動的物質(zhì)化環(huán)境,人們的行為受到物質(zhì)化環(huán)境的影響,[31](P.221-231)因而設(shè)計者可以將物質(zhì)化因素“銘刻”進算法新聞的設(shè)計中,實現(xiàn)道德的物化。[4](P.113)算法工程師可以將新聞倫理的精神內(nèi)核賦予算法及程序,使算法新聞能夠客觀、公正地反映社會現(xiàn)實,更好地促進他們對環(huán)境的監(jiān)測以及對公共事務(wù)的討論。這一目的可以通過兩種方式來實現(xiàn):
1.道德銘刻
為了實現(xiàn)對設(shè)計的改進,雅帕·耶薩曼提出以下八個步驟:組建團隊,包括設(shè)計者、工程師、技術(shù)專家以及人類學家等觀察者;選擇設(shè)計腳本并確認其邏輯;選擇用戶;收集用戶的產(chǎn)品使用信息;建構(gòu)用戶邏輯;調(diào)整設(shè)計腳本;形成設(shè)計理念;制作和測試樣品模型。[31](P.221-231)在新聞算法的設(shè)計與改進中,通過對設(shè)計者“腳本邏輯”與使用者“用戶邏輯”的對比分析與迭代,可以將社會對新聞倫理的理解逐步“銘刻”進算法之中。
提升“道德銘刻”有效性的路徑有三種:依靠設(shè)計者的道德責任和道德水平,評估技術(shù)物的中介作用并予以調(diào)整;推動擴展的建構(gòu)性技術(shù)評估(Augmenting Constructive Technology Assessment),將技術(shù)與技術(shù)物納入到利益相關(guān)者的分析框架中,關(guān)注技術(shù)物可能的道德調(diào)解作用并完善設(shè)計;情景模擬,分析用戶在具體情境中的使用方法,找到改進設(shè)計的方法。[4](P.123-129)
從新聞倫理的角度來看,第一種方式關(guān)鍵在于工程師與科學家對新聞倫理精神內(nèi)核的理解是否全面、深入,實際上單純依靠算法研發(fā)者、設(shè)計者的道德水平與專業(yè)知識來提升算法對新聞倫理的適應(yīng)性是非常困難的。同樣,情景模擬也難以全面分析與描繪記者的價值判斷,因為記者在不同情況下的道德判斷與抉擇是多變的、個性化的。本文更加傾向于第二種方式——擴大利益相關(guān)者的范疇,將政府、公眾、傳媒、投資者、算法工程師以及技術(shù)物納入其中,聽取各方的利益訴求,對技術(shù)物的道德調(diào)解作用進行全面的技術(shù)評估,通過轉(zhuǎn)譯和磋商將新聞倫理的基本價值觀植入算法設(shè)計之中。
2.價值敏感設(shè)計
在如何讓機器系統(tǒng)具備價值觀方面,巴蒂亞·弗里德曼(Batya Friedman)提出了“價值敏感性設(shè)計”方法,認為通過從概念分析、經(jīng)驗分析和技術(shù)分析三個角度來實現(xiàn)這一目的。[32](P.32-36)在新聞倫理的重構(gòu)上可以借鑒這種方法,將新聞倫理涉及的行為規(guī)范、價值取向納入到新聞算法的設(shè)計之中,我們以新聞倫理中的“透明性”原則為例來審視這一過程。
概念分析即從哲學、政治學的角度分析新聞倫理的價值觀念體系構(gòu)成,就專業(yè)主義、客觀、公平、真實等專業(yè)核心概念以及政治性、公共性等觀念展開論爭與對話,并推動倫理原則的概念化。通過聚集與算法新聞相關(guān)的科學家、工程師、技術(shù)人員、哲學家、倫理學家、傳媒、公眾等主體,共同討論在中國語境下新聞倫理的內(nèi)涵、外延及其變遷歷程,重新界定算法時代新聞倫理的定義并形成社會性的共識,在此基礎(chǔ)上促進新聞倫理的認知與理解從“精神狀態(tài)”向“事實狀態(tài)”轉(zhuǎn)變,將新聞行業(yè)崇尚的精神用具備操作性的技術(shù)話語表達出來。隨著新媒體技術(shù)的出現(xiàn),新聞的客觀性原則遭受到極大挑戰(zhàn),20世紀90年代以來“透明性”原則成為新聞倫理的首要原則。[33]這一原則由信息披露透明、參與透明兩個部分組成。其中,“信息披露透明”是新聞生產(chǎn)者解釋并公開新聞選擇標準和生產(chǎn)方式;“參與透明”是受眾被邀請參與新聞生產(chǎn)流程的不同階段。[34]從內(nèi)容來看,透明性包括了責任、互動與背景開放三個方面:責任即讓受眾了解新聞生產(chǎn)使用的方法與數(shù)據(jù),互動即邀請受眾參與新聞生產(chǎn),背景開放即提供記者的相關(guān)個人信息及與新聞的關(guān)系。[35]
經(jīng)驗分析是通過觀察、測量或記錄用戶的使用行為及生理數(shù)據(jù),結(jié)合具體情境對概念進行具體分析。如政府、設(shè)計者、用戶與新聞媒體組織、平臺如何理解新聞倫理如透明性原則?不同主體對透明性的訴求是什么?平臺如何公開新聞生產(chǎn)中使用數(shù)據(jù)與方法?受眾應(yīng)該在多大程度上參與新聞的生產(chǎn)流程?在什么情境下用戶更加強調(diào)哪一種價值取向?不同的新聞產(chǎn)品中,透明性的重要性有何不同?等等。
技術(shù)分析則是探討現(xiàn)有的算法技術(shù)如何實現(xiàn)某種新聞倫理。參照Ward對在線新聞透明度的總結(jié),[36](P.45-58)從技術(shù)層面探討提升算法新聞透明度的做法主要有:①設(shè)置提示,以提醒用戶該新聞是否由算法生產(chǎn)與推薦;②設(shè)置鏈接,提供關(guān)于新聞數(shù)據(jù)來源及數(shù)據(jù)處理過程的信息;③利用超鏈接,同時呈現(xiàn)人工寫作與機器寫作新聞,讓用戶從不同角度了解事實;④公布人工審核的意見與結(jié)論;⑤提供多元交流空間,讓受眾參與對新聞事實的審查與生產(chǎn),包括對新聞事實補充相關(guān)細節(jié)、文本與圖片;⑥推薦新聞時,同時轉(zhuǎn)發(fā)讀者的意見與評價。此外,還可以創(chuàng)設(shè)更為簡便的操作界面與程序,保障老人或低文化水平的人參與等等。
通過不斷促進算法設(shè)計與新聞倫理內(nèi)核之間的對話與迭代,強化對新聞算法的全面技術(shù)評估,推動算法技術(shù)的道德化,為新聞倫理的重構(gòu)提供思路與對策。
新聞倫理的重構(gòu)不只是一個技術(shù)方案改進的問題,它涉及更多的社會問題,包括算法的監(jiān)督、主體利益的調(diào)整與平衡、新聞倫理知識體系重建等。
算法新聞的主體眾多,從提升新聞倫理有效性的角度來看需要強化其“轉(zhuǎn)譯”能力,以促進彼此的對話,其中記者與算法技術(shù)的代言者——算法工程師與科學家是兩類最為重要的主體。2017年美聯(lián)社推出了《人工智能工作手冊》,將記者與編輯可能遇到的風險概括為算法的風險與工作流程被打破的風險。[37]前者與人工輸入算法的原始數(shù)據(jù)以及算法偏見相關(guān),而后者則與新聞記者的實踐相關(guān)。人工智能對記者提出了新的要求——擅長與數(shù)據(jù)科學家、機器人記者打交道。這也就意味著記者在傳統(tǒng)的職業(yè)訓(xùn)練與道德規(guī)范之外,還需掌握與算法相關(guān)的知識、技能,在“人—機”協(xié)同中更好地體現(xiàn)其主導(dǎo)性,同時也更有利于表達倫理訴求,更好地推動對新聞算法的技術(shù)評估并監(jiān)督新聞算法的運作。
同時,算法工程師、科學家則需要深入地理解人類倫理和新聞倫理,更好地設(shè)想用戶的使用情境及使用方法,推動“腳本邏輯”與“用戶邏輯”的結(jié)合,促進新聞倫理植入新聞算法。
傳媒行業(yè)是新聞倫理的踐行者,同時又是算法技術(shù)的應(yīng)用者。傳媒機構(gòu)與相關(guān)管理部門在推進算法新聞在系統(tǒng)內(nèi)應(yīng)用的同時,還應(yīng)采取以下措施:
1.賦予平臺媒體地位,強化問責制
在算法新聞日趨流行的今天,越來越多的平臺、互聯(lián)網(wǎng)公司已經(jīng)不再只是一個渠道而是直接參與內(nèi)容的生產(chǎn),因而不能單純以科技公司視之,所謂“價值中立”原則也不應(yīng)適用于這些企業(yè)。有必要賦予參與算法新聞生產(chǎn)與傳播的機構(gòu)或企業(yè)以媒體地位并予以新聞倫理規(guī)范的規(guī)制,改變其“價值中立”狀態(tài),推動他們對新算法的投資與改進。
2.建立算法新聞生產(chǎn)與傳播的監(jiān)管體系
通過技術(shù)的革新強化對算法新聞內(nèi)容生產(chǎn)與傳播過程的監(jiān)管力度,使其符合受眾與社會道德規(guī)范要求。在新聞生產(chǎn)上,強化新聞算法倫理責任,確保內(nèi)容生產(chǎn)質(zhì)量的同時推行“智能審核+人工審核”模式,保障算法新聞的邏輯真實、事實真實與技術(shù)真實,在此基礎(chǔ)上強化公平、公正、透明性等價值觀審核,體現(xiàn)社會階層與文化的多樣性。在新聞的傳播上,調(diào)整算法推薦機制,理順用戶決定權(quán)與智能推薦的關(guān)系,強調(diào)信息廣度與深度的整合。同時探討算法新聞與技術(shù)、場景結(jié)合的路徑,為用戶提供更多傳播渠道,并促進他們的參與和分享。在傳播效果上,強化對其產(chǎn)生的社會影響與反饋的監(jiān)控,及時解決因失實、偏見、版權(quán)等問題出現(xiàn)的負面影響。此外,還可以使用區(qū)塊鏈等分布式技術(shù)追蹤違背媒介倫理的行為,解決因匿名性、隱蔽性引發(fā)的不良行為。
3.重建新聞倫理知識體系
算法新聞的發(fā)展需要具備多種能力與素養(yǎng)的復(fù)合型記者與編輯,同時也需要精通人類傳播倫理與新聞倫理的工程師、科學家,在從弱人工智能走向強人工智能的時代更是如此。因而,需要樹立跨學科、交叉學科的視角,重構(gòu)新聞倫理的知識體系。目前,新聞傳播專業(yè)在這方面缺乏標準化的教材、課程以及能力評估體系,不利于人才培養(yǎng)體系的建立。可以由教育部門或是行業(yè)出面,聚集新聞、信息、工程、法學等學科專家及一線人員,共同編制適用于新聞傳播學學科的教材以及實踐教學體系。同時,提升計算機、電子、通信、數(shù)學等相關(guān)專業(yè)的工程倫理相關(guān)課程中人文素養(yǎng)知識的比重,增強算法工程師或科學家的“道德想像力”。
此外,在推動算法多元化的同時,還需要強化算法的第三方評估,客觀評估新聞領(lǐng)域使用的算法技術(shù)可能存在的倫理風險,促進算法的改進。
1.推動新聞倫理與機器人倫理之間的聯(lián)結(jié)
政府應(yīng)將人工智能產(chǎn)業(yè)的發(fā)展規(guī)劃與機器人倫理建設(shè)結(jié)合起來,促使人工智能以增進人類公共利益為目標,為新聞算法的改進提供良好的社會氛圍與技術(shù)環(huán)境。近年來國家推出一系列人工智能的發(fā)展規(guī)則,強調(diào)人工智能發(fā)展中的和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協(xié)作、敏捷治理等八條原則[38],為新聞倫理與人工智能倫理的對話創(chuàng)造了好的前提。
在此基礎(chǔ)上,政府應(yīng)建立平臺,將算法新聞涉及的技術(shù)、資金、傳媒、受眾與評估機構(gòu)包括5G、區(qū)塊鏈的研發(fā)與運營商等主體聚集起來,展開對算法技術(shù)的全面技術(shù)評估,尤其需要強化對涉及新聞領(lǐng)域的算法及技術(shù)物的評估,深入探討算法對于新聞生產(chǎn)、傳播以及新聞倫理的影響及其“道德意蘊”,推動算法改良將技術(shù)之“真”、社會之“善”、藝術(shù)之“美”結(jié)合起來,更好地調(diào)節(jié)用戶的認知與道德行為,更好地服務(wù)于人類的目標。
2.建章立制,確立算法新聞的活動邊界
在人們對算法新聞顧慮重重時,規(guī)制約束是最好的保護。在算法新聞的發(fā)展過程中,有三個問題是需要考慮的:一是技術(shù)公司、投資者、傳媒、受眾以及機器等主體身份的界定以及利益的平衡;二是隨著技術(shù)的進步,從事新聞寫作的機器及“智能體”能否享有自己的權(quán)利并在對社會造成傷害時承擔法律責任;三是用戶能否自由決定“智能體”參與傳播實踐的程度與范圍。這些是推動新聞倫理重構(gòu)的關(guān)鍵,需要以制度的形式表現(xiàn)出來,為新聞算法的改進創(chuàng)設(shè)環(huán)境。同時,新聞傳播過程中出現(xiàn)的倫理問題諸如偏見植入、種族歧視、極化效應(yīng)等,也可以通過法律或制度的方式從外部實現(xiàn)規(guī)制。
目前,歐盟、日本、中國等國際組織、國家或地區(qū)都推出了相應(yīng)的法令如《通用數(shù)據(jù)保護條例》《信息安全技術(shù)個人信息安全規(guī)范》等,對個人隱私信息的收集、保存、使用、刪除等環(huán)節(jié)進行規(guī)范,在隱私保護方面起到了積極的作用,但是還有許多新聞倫理的核心問題尚未觸及,需要進一步深入。
3.培養(yǎng)用戶媒介素養(yǎng),提升其利益訴求能力
算法的用戶中包括傳媒機構(gòu)、投資者、政府、公眾等不同的人類主體,只有提高其算法素養(yǎng),才能在進行對話時更好地表達自己的訴求,進行磋商并達成共識。如何引導(dǎo)各類主體在“眾聲喧嘩”中避免過于強調(diào)己方利益,保持論題聚焦將是一個重要的問題。多元化主體中普通公眾應(yīng)予以重點關(guān)注,他們在利益相關(guān)者中屬于弱勢地位,訴求能力不足,因而需要賦能。通過算法素養(yǎng)的普及增強其接觸、評價、傳播與反思算法新聞的能力,降低算法新聞負面效應(yīng)。同時,引導(dǎo)他們運用主體所擁有“用腳投票”和“用手投票”的權(quán)力,推動市場機制或社會輿論對投資者、技術(shù)公司與平臺形成壓力,影響對算法的投資與支持,促進更好算法設(shè)計的研發(fā)、調(diào)整、迭代。
當算法的進步能夠?qū)髅綄ι鐣呢熑?、技術(shù)對理性的偏愛以及個人對事實的價值取向有機地結(jié)合起來,算法新聞就能夠在一定的道德框架內(nèi)運作,消除人們對“算法控制”的恐懼,更好地服務(wù)于人們的信息與娛樂需求,有效地激發(fā)公眾對于公共事務(wù)的關(guān)注與討論,促進人類的自由與解放。