国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

技術(shù)不確定性下算法推薦新聞的倫理風(fēng)險(xiǎn)及其法律規(guī)制

2022-11-21 19:02
關(guān)鍵詞:規(guī)制不確定性倫理

胡 瑾

(重慶師范大學(xué) 新聞與傳媒學(xué)院,重慶 401331)

2021年9月,國家互聯(lián)網(wǎng)信息辦公室、中央宣傳部等九部委聯(lián)合印發(fā)的《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》(以下簡稱《意見》)指出,算法的不合理應(yīng)用影響正常的傳播秩序、市場秩序和社會(huì)秩序,給維護(hù)意識(shí)形態(tài)安全、社會(huì)公平公正和網(wǎng)民合法權(quán)益帶來挑戰(zhàn)?!兑庖姟分杏嘘P(guān)“算法的不合理應(yīng)用影響正常的傳播秩序”的表述是本文再談算法推薦新聞(algorithm recommendation news)倫理風(fēng)險(xiǎn)規(guī)制的出發(fā)點(diǎn)和支撐點(diǎn)。

一、技術(shù)不確定性下算法推薦新聞及其倫理風(fēng)險(xiǎn)向度

討論算法推薦新聞的倫理風(fēng)險(xiǎn),首先應(yīng)當(dāng)明確三個(gè)基本概念:信息過載、技術(shù)創(chuàng)新與算法推薦新聞。一般認(rèn)為,信息過載是算法推薦新聞產(chǎn)生的重要原因。從傳播者、傳播渠道來看,信息過載是指大量復(fù)雜且不斷增加的信息在傳播渠道中流動(dòng),這必然會(huì)導(dǎo)致“過載”;從信息接受者的角度來看,新聞受眾在將信息轉(zhuǎn)化為自我認(rèn)識(shí)的過程中也會(huì)出現(xiàn)“瓶頸”障礙,在信息接受方面出現(xiàn)“信息疲勞”現(xiàn)象[1]。在此背景下,算法推薦新聞逐漸興起,提升了人工新聞編輯和新聞推送的效率,進(jìn)而使新聞業(yè)的整體效率得以提高。當(dāng)然,算法推薦新聞的快速發(fā)展也與公眾的閱讀載體從傳統(tǒng)紙媒遷移到移動(dòng)媒體密切相關(guān),同時(shí)互聯(lián)網(wǎng)技術(shù)、大數(shù)據(jù)和云計(jì)算技術(shù)的發(fā)展及產(chǎn)業(yè)化也發(fā)揮了舉足輕重的作用。可以說,在算法推薦新聞時(shí)代,新聞受眾獲得了更大意義上的自主權(quán),實(shí)現(xiàn)了“以受眾為導(dǎo)向”的價(jià)值回歸。但與此同時(shí),算法推薦新聞引發(fā)的倫理風(fēng)險(xiǎn)不容忽視。對于算法推薦新聞的倫理風(fēng)險(xiǎn),可在技術(shù)不確定性框架下分出以下三個(gè)向度。

(一)本體論視角

算法推薦新聞中算法本身的不確定性可能引發(fā)倫理風(fēng)險(xiǎn)。隨著算法內(nèi)部結(jié)構(gòu)和功能日趨復(fù)雜,影響因素增多,愈發(fā)難以確定算法自身帶來的倫理影響[2]。算法作為一門新技術(shù),涉及模糊復(fù)雜的技術(shù)知識(shí)和科學(xué)基礎(chǔ)。算法推薦新聞在底層算法、技術(shù)工程、受眾認(rèn)知乃至市場環(huán)境等方面的不確定性,都可能引發(fā)倫理風(fēng)險(xiǎn)。

(二)認(rèn)識(shí)論視角

技術(shù)產(chǎn)生不確定性的來源不僅是外部的,也是內(nèi)部的,這與人們自身意識(shí)形態(tài)框架中的偏見和局限有關(guān)[3],這種偏見和局限使算法推薦新聞可能帶來倫理風(fēng)險(xiǎn)。雖然技術(shù)倫理問題近年來被廣泛討論,但是在“技術(shù)拜物教”的助推之下,算法應(yīng)用正在“狂飆突進(jìn)”,只注重技術(shù)對人類的“再啟蒙”,而忽視了這種“再啟蒙”帶來的社會(huì)倫理問題[4]。同時(shí),在算法的設(shè)計(jì)和應(yīng)用中,我們更多地關(guān)注技術(shù)的效益價(jià)值,而忽略了其倫理內(nèi)涵。此外,由于缺乏深入了解算法推薦新聞本身的知識(shí)和能力,以及無法及時(shí)獲得與算法推薦新聞相關(guān)的必要信息,可能導(dǎo)致算法推薦技術(shù)在新聞?lì)I(lǐng)域的應(yīng)用帶來認(rèn)知不確定性下的倫理風(fēng)險(xiǎn)。

(三)制度論視角

法律規(guī)范和倫理體系的不完善使算法推薦新聞的倫理風(fēng)險(xiǎn)及其規(guī)制處于無序狀態(tài)。囿于技術(shù)本身不確定性和技術(shù)認(rèn)知不確定性,學(xué)界對于算法推薦新聞倫理風(fēng)險(xiǎn)的規(guī)章制度存在爭議,難以形成統(tǒng)一行動(dòng),以此導(dǎo)致技術(shù)制度不確定性的出現(xiàn),技術(shù)制度不確定性又加劇了技術(shù)本身不確定性和技術(shù)認(rèn)知不確定性帶來的倫理風(fēng)險(xiǎn)。

申言之,基于技術(shù)不確定性下算法推薦新聞的倫理風(fēng)險(xiǎn)向度,需具體風(fēng)險(xiǎn)具體分析,在厘清風(fēng)險(xiǎn)表現(xiàn)、風(fēng)險(xiǎn)根源的基礎(chǔ)上,加快算法倫理建構(gòu),并推動(dòng)其實(shí)現(xiàn)。

二、技術(shù)不確定性下算法推薦新聞倫理風(fēng)險(xiǎn)的表征梳理

(一)技術(shù)本身不確定性下算法推薦新聞的倫理風(fēng)險(xiǎn)

算法作為一種尚未成熟且具有顛覆性影響的技術(shù),本身面臨著道德、法律等諸多層面的風(fēng)險(xiǎn)挑戰(zhàn),其在新聞?lì)I(lǐng)域的應(yīng)用也引發(fā)了諸多類型的倫理風(fēng)險(xiǎn)。技術(shù)本身不確定性下算法推薦新聞的倫理風(fēng)險(xiǎn)主要表現(xiàn)在以下幾個(gè)方面:一是算法推薦新聞本身存在倫理風(fēng)險(xiǎn)。算法推薦新聞分發(fā)平臺(tái)不遵守道德要求和法律規(guī)范,使人的意志因素融入算法和算法推薦新聞的技術(shù)中,導(dǎo)致算法面臨不可避免的偏差和黑箱,增加算法運(yùn)行的不可控因素[5]。例如,2016年3月23日,微軟公司發(fā)布了人工智能(AI)聊天機(jī)器人Tay,但不到一天,Tay在與人類的互動(dòng)中將好壞學(xué)了個(gè)遍,變成了一個(gè)種族歧視者,微軟公司不得不將其“下崗”。Tay的故事凸顯了機(jī)器學(xué)習(xí)程序開發(fā)者面臨的一個(gè)障礙:算法偏差[6]。二是算法在部分領(lǐng)域的應(yīng)用引發(fā)了極大的倫理爭議。如今,算法被應(yīng)用在大數(shù)據(jù)精準(zhǔn)營銷中,包括搜狗用戶畫像挖掘、用戶評分預(yù)測、機(jī)場客流量分布預(yù)測等諸多領(lǐng)域,但算法在多場域的應(yīng)用并非沒有負(fù)面影響,例如在百度在線網(wǎng)絡(luò)技術(shù)(北京)有限公司等與北京字節(jié)跳動(dòng)科技有限公司不正當(dāng)競爭糾紛一案中,字節(jié)跳動(dòng)公司主張本文引言所述人民網(wǎng)文章僅是針對算法推薦,并未專門針對今日頭條(1)參見:北京知識(shí)產(chǎn)權(quán)法院(2019)京73民終1908號民事判決書。。人民網(wǎng)算法推薦文章是否針對今日頭條暫且不論,但這無疑是給有關(guān)主體帶來了倫理風(fēng)險(xiǎn)和不良后果。三是算法推薦新聞帶來信息數(shù)據(jù)保護(hù)風(fēng)險(xiǎn)。在新聞行業(yè),基于算法的新聞分發(fā)平臺(tái),如Google News等主導(dǎo)著新聞受眾獲取新聞的數(shù)量、類型和偏好,越來越集中且具有壟斷性的新聞平臺(tái)控制著大量新聞受眾的個(gè)人信息數(shù)據(jù),這也使侵犯新聞受眾隱私的事件層出不窮,但被侵犯群體卻難以獲得有效賠償[7]。例如,西班牙公民岡薩雷斯(González)要求發(fā)布者刪除與他有關(guān)的任何個(gè)人信息,或改變算法搜索結(jié)果保護(hù)他的隱私,該案是“被遺忘權(quán)”的經(jīng)典案例。此外,新聞受眾對信息數(shù)據(jù)的主導(dǎo)權(quán)也逐漸被轉(zhuǎn)移到掌握用戶特性、標(biāo)簽等的算法推薦新聞分發(fā)平臺(tái)手中。四是算法推薦新聞的負(fù)外部性逐漸凸顯。有學(xué)者指出,人工智能算法的負(fù)外部性表現(xiàn)在影響現(xiàn)有社會(huì)秩序的秩序性、連續(xù)性和確定性方面,從而引發(fā)社會(huì)道德危機(jī),加劇人類社會(huì)未來發(fā)展的不確定性[8]。實(shí)際上,算法推薦新聞的負(fù)外部性也有相同表現(xiàn),例如算法規(guī)則程序,過程的不透明、不公開等技術(shù)黑箱缺陷,對社會(huì)公平形成挑戰(zhàn),這種不平等將進(jìn)一步加大層級間的智能鴻溝,非智能社會(huì)人群向后退卻,成為技術(shù)哲學(xué)意義上的“準(zhǔn)人類”甚至“非社會(huì)人”[9]。

(二)技術(shù)認(rèn)知不確定性下算法推薦新聞的倫理風(fēng)險(xiǎn)

目前,算法推薦新聞仍處于弱算法階段,其倫理風(fēng)險(xiǎn)問題尚未被充分重視。但是,隨著技術(shù)進(jìn)步,算法推薦新聞將邁入強(qiáng)算法階段,且極有可能全面超越人類認(rèn)知,這將使算法推薦新聞可能因失去倫理約束而陷入技術(shù)霸權(quán)的奴役之下。正如有學(xué)者指出,“人往往陷入被自然‘座架’指引的解蔽之路而無法脫身境地,解蔽此過程的方法暗藏危險(xiǎn),因?yàn)槿酥饾u被技術(shù)綁架:人即技術(shù),技術(shù)即人”[10]。具體而言,囿于技術(shù)認(rèn)知能力不足等困境,使新聞從業(yè)者對算法推薦新聞的倫理風(fēng)險(xiǎn)缺乏清晰認(rèn)知,更遑論對其進(jìn)行有效規(guī)制,但算法推薦新聞缺乏約束必然會(huì)帶來嚴(yán)重的倫理風(fēng)險(xiǎn)。例如,有學(xué)者指出,深度學(xué)習(xí)算法可能連設(shè)計(jì)者都不知道它是如何決策,那么要在系統(tǒng)中發(fā)現(xiàn)是否存在歧視、偏見以及探究其根源,在技術(shù)上比較困難[11]。英國杜倫郡警察等運(yùn)用算法開發(fā)了評估工具“HART”,以預(yù)測嫌疑人繼續(xù)犯罪的風(fēng)險(xiǎn)。然而,該工具將郵政編碼作為預(yù)測因子區(qū)別對待窮人、富人,被認(rèn)為“涉嫌”歧視窮人[12],這無疑是警方在開發(fā)之初難以預(yù)見到的。隨著智能化水平的提升,算法推薦技術(shù)將具備更強(qiáng)的自主學(xué)習(xí)和自動(dòng)決策能力,自動(dòng)駕駛系統(tǒng)等已經(jīng)在特定場景中部分或全部代替了人類的決策和行動(dòng),這將進(jìn)一步加劇對算法及算法推薦新聞?wù)J知的不確定性。當(dāng)算法推薦新聞分發(fā)平臺(tái)自動(dòng)默認(rèn)將新奇、低俗作為新聞分發(fā)偏好,并基于此進(jìn)行個(gè)性化推薦時(shí),算法推薦新聞就會(huì)成為滋生謠言的幫兇。此外,算法推薦新聞分發(fā)平臺(tái)和新聞從業(yè)者可能存在經(jīng)濟(jì)動(dòng)機(jī),致使人們對算法推薦新聞的認(rèn)知出現(xiàn)不確定性,由此進(jìn)一步引發(fā)倫理風(fēng)險(xiǎn)。例如,用戶訪問google.com以查找有關(guān)病癥的專家建議時(shí)可能會(huì)同時(shí)收到疾病控制中心和Google Health的建議。然而,觀察發(fā)現(xiàn)Google將其提供的(不一定是最好的)服務(wù)置于Google搜索結(jié)果的頂部。由此可見,技術(shù)認(rèn)知不確定性引發(fā)的倫理風(fēng)險(xiǎn)之根源既有客觀能力的局限,也有主觀倫理底線的失守。

(三)技術(shù)制度不確定性下算法推薦新聞的倫理風(fēng)險(xiǎn)

法律規(guī)范和倫理體系的不完善使算法推薦新聞的倫理風(fēng)險(xiǎn)進(jìn)一步加劇,算法推薦新聞將不斷侵蝕作為“人”的主體性。其一,現(xiàn)有規(guī)制算法推薦新聞倫理風(fēng)險(xiǎn)的制度存在失靈。例如,美國聯(lián)邦貿(mào)易委員會(huì)(Federal Trade Commission,F(xiàn)TC)要求Everalbum公司刪除客戶數(shù)據(jù)以及算法,Everalbum使用面部識(shí)別技術(shù)將用戶照片自動(dòng)分組,在默認(rèn)情況下為所有用戶啟用了面部識(shí)別,且無法手動(dòng)關(guān)閉。FTC與Paravision達(dá)成協(xié)議:該公司違反了《聯(lián)邦貿(mào)易委員會(huì)法案》(FederalTradeCommissionAct)第5a條中關(guān)于禁止不公平或欺騙性行為和慣例的規(guī)定,Everalbum同意對內(nèi)容進(jìn)行刪除。但是,該公司在應(yīng)用關(guān)閉之前還在推銷產(chǎn)品,聲稱其口罩人臉識(shí)別算法在美國國家標(biāo)準(zhǔn)技術(shù)研究所(NIST)的人臉識(shí)別算法測試(FRVT)中獲得了準(zhǔn)確率第二的好成績[13]。由此可見,現(xiàn)有規(guī)制算法推薦新聞倫理風(fēng)險(xiǎn)的有關(guān)制度存在失靈和威懾力不足等掣肘。其二,倫理規(guī)范體系的不完善使算法推薦新聞引發(fā)的倫理風(fēng)險(xiǎn)缺乏明確的規(guī)制手段和方向。與我國相比,域外規(guī)制算法倫理風(fēng)險(xiǎn)的制度體系較為完備。例如,《關(guān)于算法透明性和可問責(zé)性的聲明》(StatementonAlgorithmicTransparencyandAccountability)、《人工智能時(shí)代:確立以人為本的歐洲戰(zhàn)略》(TheAgeofArtificialIntelligence:TowardsaEuropeanStrategyforHuman-CentricMachines)、《可信人工智能倫理指南》(DraftEthicsGuidelinesforTrustworthyAI)等,歐盟《單一數(shù)字市場版權(quán)指令》要求臉書、You Tube等平臺(tái)加強(qiáng)版權(quán)審核。就我國而言,針對算法推薦新聞可能引發(fā)的“技術(shù)霸權(quán)”“責(zé)任缺口”等倫理風(fēng)險(xiǎn),僅有《意見》作為規(guī)范依據(jù)。

三、技術(shù)不確定性下算法推薦新聞倫理風(fēng)險(xiǎn)的原因探析

(一)技術(shù)本身不確定性向度:“數(shù)學(xué)洗腦”與主體性缺失

技術(shù)本身不確定性下算法推薦新聞倫理風(fēng)險(xiǎn)生成之根源,既包括算法本身的風(fēng)險(xiǎn)暴露不足,也包括“數(shù)學(xué)洗腦”(mathwashing)帶來的技術(shù)依賴。目前算法推薦新聞是按照新聞從業(yè)者的意愿編輯生成,體現(xiàn)為算法推薦新聞對人類需求的滿足,但這也使人們?nèi)菀妆弧跋茨X”。Kickstarter眾籌公司的數(shù)據(jù)副總裁Fred Benenson創(chuàng)造了“數(shù)學(xué)洗腦”這一名詞,這個(gè)合成詞的靈感來自“pinkwashing”“greenwashing”或 “whitewashing”等,其核心要義在于批駁使用數(shù)學(xué)術(shù)語(算法、模型等)來掩蓋主觀現(xiàn)實(shí),不能因使用了數(shù)學(xué),就忽視了數(shù)據(jù)的內(nèi)在主觀性,使用數(shù)據(jù)構(gòu)建的任何東西都將反映收集數(shù)據(jù)時(shí)的偏見和決定[14]。進(jìn)一步看,在強(qiáng)人工智能技術(shù)時(shí)代,算法可能形成與人主體相平行的新主體類型(平行主體),生成強(qiáng)人工智能主體的主體性,而在超強(qiáng)人工智能技術(shù)時(shí)代,算法可能形成超越人主體的全新主體(超主體),但這是人主體無法理解的超人主體性[15]。實(shí)際上,實(shí)踐已經(jīng)為此作了證成。2017年3月,歐洲議會(huì)投票接受了法律事務(wù)委員會(huì)提交的關(guān)于機(jī)器人、人工智能的報(bào)告,該報(bào)告創(chuàng)新性地提出應(yīng)該開發(fā)適用于機(jī)器人和超級人工智能的“電子人格”[16]。沙特阿拉伯還授予香港漢森機(jī)器人公司開發(fā)的表情機(jī)器人索菲亞以“公民身份”。可以說,算法的語言和思維將不斷接近智能發(fā)展的“奇點(diǎn)”,甚至可能具有哥德爾反思能力,從而接近人類,給“人”的主體性帶來挑戰(zhàn)[17]。對此,無論是古希臘時(shí)期普羅太戈拉提出的“人是萬物的尺度”的判定,還是蘇格拉底“認(rèn)識(shí)你自己”的命題,都在強(qiáng)調(diào)人類自我意識(shí)和自身價(jià)值[18]。因此,算法推薦新聞遵循何種倫理,需要及時(shí)以制度形式明確下來,而這種制度無疑需要具有主體性的“人”來建構(gòu)。

(二)技術(shù)認(rèn)知不確定性向度:能力不足與底線失守

技術(shù)認(rèn)知不確定性下算法推薦新聞的倫理風(fēng)險(xiǎn)除與新聞從業(yè)者的客觀認(rèn)知能力不足有關(guān)外,也與相關(guān)新聞從業(yè)者的主觀倫理底線失守密切相關(guān)。一方面,智能時(shí)代新聞從業(yè)者所具備的新聞專業(yè)性、技術(shù)能力、新聞倫理和社會(huì)責(zé)任意識(shí)等能力存在諸多不足。例如,新聞網(wǎng)站REDDIT曾經(jīng)向一些專家透露過它的排名算法,但研究人員發(fā)現(xiàn)專家們經(jīng)常對算法的工作原理持不同意見,很難完全理解它的工作原理[19]。專家尚且如此,對于普通人而言,認(rèn)知能力不足將使算法公開更無實(shí)質(zhì)意義。但是,規(guī)制算法推薦新聞倫理風(fēng)險(xiǎn)需要算法本身滿足可解釋性的要求,這使新聞從業(yè)者在認(rèn)知能力等方面將面臨更大的挑戰(zhàn)。理由在于,算法技術(shù)本身分為多種形態(tài),簡單算法解釋具有可行性,但是深度學(xué)習(xí)算法是一種具有自主學(xué)習(xí)能力的動(dòng)態(tài)算法,其會(huì)不斷吸收新的信息,構(gòu)建更復(fù)雜的算法模型[20],故很難對其進(jìn)行有效、深入、及時(shí)的解釋。另一方面,算法推薦新聞分發(fā)平臺(tái)和新聞從業(yè)者可能存在倫理底線失守情形。例如抖音是算法推薦機(jī)制,即平臺(tái)只會(huì)推薦用戶喜歡和關(guān)注的內(nèi)容,相關(guān)主體如引路燈公司的KPI考核指標(biāo)也是按照這個(gè)規(guī)則來進(jìn)行的,假如用戶有不喜歡的內(nèi)容,就很難實(shí)現(xiàn)完播,沒有實(shí)現(xiàn)完播就不會(huì)計(jì)入流量池里(2)參見:福建省廈門市思明區(qū)人民法院(2020)閩0203民初19500號民事判決書。。在此種營利模式下,有關(guān)主體很可能從營利動(dòng)機(jī)出發(fā)應(yīng)用算法技術(shù),這無疑將加劇算法推薦新聞引發(fā)的倫理風(fēng)險(xiǎn),也使得全面認(rèn)知算法推薦新聞的倫理風(fēng)險(xiǎn)及其規(guī)制理路面臨更大挑戰(zhàn),這種挑戰(zhàn)在專業(yè)的算法推薦新聞分發(fā)平臺(tái)那里將更為突出。算法推薦新聞分發(fā)平臺(tái)加速了所謂的“新聞民主化”改革,實(shí)現(xiàn)了新聞生產(chǎn)主導(dǎo)權(quán)的下移,這種轉(zhuǎn)變很容易引發(fā)新聞無序競爭的問題,造成新聞價(jià)值選擇與流量偏向的整體失衡[21]。

(三)技術(shù)制度不確定性向度:法律規(guī)范與倫理體系不完善

在算法推薦技術(shù)已經(jīng)廣泛應(yīng)用到傳播實(shí)踐的當(dāng)下,用什么標(biāo)準(zhǔn)判斷算法推薦新聞的個(gè)性化推薦是否恰當(dāng)?如存在不當(dāng)之處,應(yīng)當(dāng)以何標(biāo)準(zhǔn)來約束和規(guī)范這種不恰當(dāng)?shù)默F(xiàn)象?就此而言,從宏觀視角來看,《中華人民共和國民法典》《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國個(gè)人信息保護(hù)法》(以下簡稱《個(gè)人信息保護(hù)法》)等對算法推薦新聞的倫理風(fēng)險(xiǎn)規(guī)制具有一定作用。從微觀視角來看,可以從移動(dòng)互聯(lián)網(wǎng)應(yīng)用程序(application program,App)的算法應(yīng)用和算法推薦新聞分發(fā)平臺(tái)兩個(gè)視角進(jìn)行梳理:有關(guān)App算法應(yīng)用的法律規(guī)范,如《常見類型移動(dòng)互聯(lián)網(wǎng)應(yīng)用程序必要個(gè)人信息范圍規(guī)定》第4條規(guī)定App不得因?yàn)橛脩舨煌馓峁┓潜匾獋€(gè)人信息而拒絕用戶使用其基本功能服務(wù),此規(guī)定為App的算法應(yīng)用提供了參照適用規(guī)范;有關(guān)算法推薦新聞分發(fā)平臺(tái)的法律規(guī)范,如《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》第12條規(guī)定網(wǎng)絡(luò)信息平臺(tái)采用算法推薦技術(shù)推送信息的,應(yīng)當(dāng)建立健全人工干預(yù)、用戶自主選擇等機(jī)制,同時(shí)《意見》規(guī)定應(yīng)當(dāng)建立算法安全責(zé)任和科技倫理審查制度,以及對算法應(yīng)用的結(jié)果負(fù)主體責(zé)任等。以上法律規(guī)范和已有的技術(shù)倫理、新聞倫理等倫理規(guī)范能夠?qū)λ惴ㄍ扑]新聞的倫理風(fēng)險(xiǎn)進(jìn)行初步規(guī)制,但算法推薦新聞的新穎性使得已有倫理形態(tài)難以有效滿足算法推薦新聞的倫理規(guī)范需要,這也是算法推薦新聞倫理風(fēng)險(xiǎn)生成的制度不確定性根源。申言之,算法推薦新聞作為一種新興技術(shù),已有倫理形態(tài)逐漸無法有效規(guī)制其倫理風(fēng)險(xiǎn)問題,亟需建構(gòu)算法推薦新聞的倫理規(guī)范體系。

四、技術(shù)不確定性下算法推薦新聞倫理風(fēng)險(xiǎn)的規(guī)制原則

(一)技術(shù)本身不確定性向度:新聞透明原則

新聞透明原則是新聞基本原則之一,也是算法推薦新聞倫理風(fēng)險(xiǎn)規(guī)制需要遵循的基本原則。2001年,比爾·科瓦齊和湯姆·羅森斯蒂爾在《新聞的十大基本原則:新聞從業(yè)者須知和公眾的期待》(TheElementsofJournalism:WhatNewspeopleShouldKnowandthePublicShouldExpect)中較早系統(tǒng)性地提出“透明性原則”(rule of transparency)。從未來新聞學(xué)視角來看,算法、大數(shù)據(jù)給傳統(tǒng)新聞模式帶來了顛覆性挑戰(zhàn),作為新聞基本原則的新聞透明原則需與時(shí)俱進(jìn),對新模式、新技術(shù)、新業(yè)態(tài)予以規(guī)范和指引,正如有學(xué)者沿著“技術(shù)道德化”的思路,認(rèn)為應(yīng)當(dāng)將新聞透明原則納入算法設(shè)計(jì)的“套路”[22]。在算法推薦新聞時(shí)代,已經(jīng)規(guī)范化、制度化的算法透明原則能夠?yàn)樾侣勍该髟瓌t的實(shí)現(xiàn)提供范式支撐和法律基礎(chǔ),例如《個(gè)人信息保護(hù)法》第24條已經(jīng)明確規(guī)定了算法透明原則,《新一代人工智能倫理規(guī)范》同樣規(guī)定要提升算法透明性。換言之,建立在“可見”和“可知”基礎(chǔ)上的新聞透明原則,在數(shù)字時(shí)代不僅包含內(nèi)容透明,還應(yīng)當(dāng)涉及平臺(tái)透明和算法透明[23]。因此,需要把新聞透明原則這一倫理規(guī)范植入算法設(shè)計(jì)中,以算法透明推動(dòng)新聞透明。2010年,邁克爾·卡爾森將透明性劃分為“公開式透明”(disclosure transparency)和“參與式透明”(participatory transparency),前者指新聞從業(yè)者解釋、公開新聞選擇和生產(chǎn)方式,后者意為邀請新聞受眾參與新聞制作過程[24]。由此,在技術(shù)本身不確定性下算法推薦新聞倫理風(fēng)險(xiǎn)的規(guī)制方面,應(yīng)當(dāng)堅(jiān)持以下兩個(gè)方面的規(guī)制思路:其一,公開式透明。新聞透明原則要求算法首先實(shí)現(xiàn)透明,以保證其可以實(shí)現(xiàn)被檢驗(yàn)和被監(jiān)督[25]。公開式透明是規(guī)制算法推薦新聞倫理風(fēng)險(xiǎn)的重要手段之一,算法透明度不僅包括程序公開,還包括數(shù)據(jù)公開和算法開源等。需要指出的是,公開式透明并不是無限度的,其需要以確保公信力、消除偏見、保護(hù)公共利益和實(shí)現(xiàn)最小傷害等作為評價(jià)算法透明度是否“適度”的重要標(biāo)準(zhǔn)[26]。其二,參與式透明。參與式透明意在將算法透明原則建立在新聞受眾充分參與基礎(chǔ)之上,對于算法推薦新聞的相關(guān)倫理風(fēng)險(xiǎn)進(jìn)行預(yù)估和監(jiān)督。此外,參與式透明還需要嚴(yán)格制定新聞從業(yè)者的職業(yè)道德標(biāo)準(zhǔn),增強(qiáng)新聞從業(yè)者的責(zé)任感,提高識(shí)別和分析算法推薦新聞倫理風(fēng)險(xiǎn)的能力,避免使其陷入算法推薦新聞的“技術(shù)拜物教”之中。

(二)技術(shù)認(rèn)知不確定性向度:價(jià)值中立原則

技術(shù)認(rèn)知不確定性下算法推薦新聞倫理風(fēng)險(xiǎn)的規(guī)制需要新聞從業(yè)者等秉持價(jià)值中立原則。技術(shù)是否中立本質(zhì)上是價(jià)值是否中立,技術(shù)無法左右人類,最終的結(jié)果都是人類自己的選擇[27]。在1984年環(huán)球影業(yè)訴索尼一案中形成了“索尼規(guī)則”,也即技術(shù)中立原則,認(rèn)為只要符合“實(shí)質(zhì)性非侵權(quán)使用”的標(biāo)準(zhǔn),技術(shù)產(chǎn)品就不構(gòu)成輔助侵權(quán),無論該技術(shù)用于何種目的[28]。實(shí)際上,技術(shù)中立的本質(zhì)在于價(jià)值是否中立,算法推薦新聞取決于它的經(jīng)驗(yàn)(數(shù)據(jù))和價(jià)值觀(機(jī)器學(xué)習(xí)算法),經(jīng)驗(yàn)難免有偏誤,價(jià)值觀也免不了有所偏好,算法背后充斥著人類價(jià)值的介入,致使算法推薦新聞的價(jià)值非中立性難以絕對消除。因此,我們需要努力將算法價(jià)值非中立性帶來的影響限制在可接受的范圍之內(nèi),型構(gòu)安全、公平、透明的算法價(jià)值體系。當(dāng)下,在規(guī)制算法推薦新聞倫理風(fēng)險(xiǎn)的問題上,對于新聞從業(yè)者在行業(yè)內(nèi)的自我約束和認(rèn)知能力提升等方面的論述和分析仍顯不足,這可能是由算法推薦新聞的商業(yè)邏輯決定的,算法技術(shù)畢竟不是抽象的數(shù)學(xué),里面必然包含著價(jià)值觀的嵌入,如“利用技術(shù)的‘偽中立性’幫助自身實(shí)現(xiàn)特定的訴求”[29]。但是,如果新聞從業(yè)者等僅僅秉承商業(yè)邏輯,依賴算法的自主設(shè)定,不僅會(huì)使新聞生產(chǎn)失去獨(dú)立性,還會(huì)沖擊傳統(tǒng)新聞的價(jià)值中立觀,導(dǎo)致算法推薦新聞的價(jià)值糾纏[30]。質(zhì)言之,算法推薦新聞在提高新聞采集、生產(chǎn)效率的同時(shí)對新聞從業(yè)者等的技術(shù)觀、新聞?dòng)^帶來沖擊,這要求新聞從業(yè)者等要堅(jiān)持以價(jià)值中立原則為指導(dǎo),確立“人”的主體性地位,避免新聞從業(yè)者等成為技術(shù)附庸和金錢奴隸。此外,價(jià)值中立原則的實(shí)現(xiàn)還需要有媒介素養(yǎng)的新聞受眾的有力監(jiān)督,新聞受眾對違背倫理的現(xiàn)象進(jìn)行批評和監(jiān)督,對防范和規(guī)制算法推薦新聞的倫理風(fēng)險(xiǎn)同樣重要。

(三)技術(shù)制度不確定性向度:德法共治原則

2020年12月,中共中央印發(fā)的《法治社會(huì)建設(shè)實(shí)施綱要(2020-2025年)》明確提出,要“堅(jiān)持依法治網(wǎng)和以德潤網(wǎng)相結(jié)合”。其中,法治著重于在社會(huì)分化中確立秩序,而德治則努力彌合社會(huì)分化中的感情疏遠(yuǎn)和價(jià)值裂痕,二者發(fā)揮相互補(bǔ)充的作用[31]。囿于算法推薦新聞及其倫理風(fēng)險(xiǎn)規(guī)制的倫理規(guī)范體系不完善的現(xiàn)狀,現(xiàn)階段亟需加快算法推薦新聞倫理規(guī)范體系和法律問責(zé)制度的完善,堅(jiān)持德法共治,并發(fā)揮二者的協(xié)同作用。目前,我們應(yīng)當(dāng)同時(shí)從兩個(gè)方面著手:其一,加快省思正在變革中的新聞倫理、技術(shù)倫理,以及重構(gòu)新的算法推薦新聞倫理體系;其二,針對算法推薦新聞的倫理風(fēng)險(xiǎn),建立完整、有效的法律規(guī)制體系,筑牢算法推薦新聞倫理風(fēng)險(xiǎn)規(guī)制的最后屏障。

五、技術(shù)不確定性下算法推薦新聞倫理風(fēng)險(xiǎn)的法律規(guī)制進(jìn)路

(一)技術(shù)本身不確定性向度:算法公開與權(quán)利保障

一方面,有限度的算法公開是技術(shù)本身不確定性下算法推薦新聞倫理風(fēng)險(xiǎn)規(guī)制的重要范式。算法公開應(yīng)該是一個(gè)有意義的公共系統(tǒng)和決策系統(tǒng),而非指機(jī)械性的算法架構(gòu)或源代碼的公開,機(jī)械性的算法公開可能是無意義的,這種公開不能為相關(guān)主體提供有意義的決策參考[32]。同時(shí),新聞受眾可能難以有效閱讀、理解有關(guān)信息,造成“透明謬誤”。因此,算法推薦新聞的算法公開應(yīng)當(dāng)具體問題具體分析。第一,在公開信息的范圍上具體問題具體分析。例如,算法涉及銀行貸款、保護(hù)專有信息或合法商業(yè)利益以及如金融和醫(yī)療保健等隱私信息時(shí),公開這些信息可能受到相關(guān)法律法規(guī)的限制。那么,對于此類信息的公開要進(jìn)行分類研判,審慎對待。第二,在算法公開的解釋方法上具體問題具體分析。算法解釋方法主要包括模型中心解釋(model centric explanations,MCEs)和主體中心解釋(subject centric explanations,SCEs)兩種,其中模型中心解釋主要涵括相關(guān)參數(shù)、性能指標(biāo)等,針對的主要是算法技術(shù)本身的信息;主體中心解釋是建立在輸入記錄的基礎(chǔ)上所作的解釋,此種方法對尋求個(gè)人救濟(jì)的數(shù)據(jù)主體來說可能更有優(yōu)勢,但其質(zhì)量也可能因算法系統(tǒng)的多角度性質(zhì)及多樣化個(gè)人數(shù)據(jù)類型等因素而降低,正如有學(xué)者指出MCEs和SCEs遠(yuǎn)非完美的解決方案[33]。本文認(rèn)為,算法推薦新聞的解釋方法需要結(jié)合二者之優(yōu)勢,在實(shí)踐理性指引下尋找創(chuàng)新的解釋和公開模式及路徑。

另一方面,算法解釋權(quán)、數(shù)據(jù)權(quán)利等保障能夠?qū)夹g(shù)本身不確定性下算法推薦新聞倫理風(fēng)險(xiǎn)規(guī)制發(fā)揮重要作用。算法解釋權(quán)意圖直觀地打開“算法黑箱”并提高問責(zé)制,其是指認(rèn)為自身利益可能被算法的機(jī)器學(xué)習(xí)和自動(dòng)決策影響的人,有權(quán)知道個(gè)人數(shù)據(jù)自動(dòng)處理的邏輯,并要求改正算法錯(cuò)誤[34]。同時(shí),算法推薦新聞倫理風(fēng)險(xiǎn)規(guī)制需要以算法規(guī)制思維協(xié)調(diào)受眾數(shù)據(jù)權(quán)利與數(shù)據(jù)治理的關(guān)系,如果說加強(qiáng)身份數(shù)據(jù)采集、挖掘和算法標(biāo)準(zhǔn)的倫理規(guī)制是一種軟規(guī)制的話,安全嵌入設(shè)計(jì)程序的規(guī)制則是一種硬規(guī)制,通過加密、反追蹤和自動(dòng)銷毀等程序,防止濫用受眾數(shù)字身份及其相關(guān)數(shù)據(jù)[35]。除了算法解釋權(quán)、數(shù)據(jù)權(quán)利之外,在《通用數(shù)據(jù)保護(hù)條例》(GeneralDataProtectionRegulation,GDPR)中還包括其他與算法治理相關(guān)的權(quán)利規(guī)定,例如被遺忘權(quán)和數(shù)據(jù)可攜性等,還有學(xué)者指出算法治理中的新興權(quán)利主要有個(gè)人數(shù)據(jù)保護(hù)的相關(guān)權(quán)利、算法解釋權(quán)、免受自動(dòng)化決策權(quán)、有意義的人類控制權(quán)及事后的人工審核權(quán)[36]。以上權(quán)利分類對算法推薦新聞倫理風(fēng)險(xiǎn)規(guī)制問題的研究具有重要意義,但最重要的還是通過制度建構(gòu)來保障這些權(quán)利的行使。

(二)技術(shù)認(rèn)知不確定性向度:計(jì)算思維與倫理堅(jiān)守

新聞從業(yè)者“計(jì)算思維”的養(yǎng)成是規(guī)制技術(shù)認(rèn)知不確定性下算法推薦新聞倫理風(fēng)險(xiǎn)的重要方面。美國卡內(nèi)基·梅隆大學(xué)的周以真(Jeannette M Wing)教授于2006年首次提出了“計(jì)算思維”的概念,其是指運(yùn)用計(jì)算機(jī)科學(xué)的基礎(chǔ)概念進(jìn)行問題求解、系統(tǒng)設(shè)計(jì)以及人類行為理解等涵蓋計(jì)算機(jī)科學(xué)的一系列思維活動(dòng)[37]?,F(xiàn)階段,新聞從業(yè)者的計(jì)算思維需要加快進(jìn)化到3.0階段,即計(jì)算思維在不同個(gè)體參與的人機(jī)交互過程中體現(xiàn)出的問題解決能力,并依據(jù)有關(guān)計(jì)算的流程與模型或者針對所面對的問題,參與構(gòu)建適合問題解決的計(jì)算模型來創(chuàng)新性地解決問題[38]。實(shí)際上,國內(nèi)外已有多項(xiàng)政策文件強(qiáng)調(diào)了計(jì)算思維和技術(shù)能力的重要性(3)例如,2018年9月17日發(fā)布《教育部 中共中央宣傳部關(guān)于提高高校新聞傳播人才培養(yǎng)能力 實(shí)施卓越新聞傳播人才教育培養(yǎng)計(jì)劃2.0的意見》,指出要形成遵循新聞傳播規(guī)律和人才成長規(guī)律的全媒化復(fù)合型專家型新聞傳播人才培養(yǎng)體系。同時(shí),聯(lián)合國教科文組織在2019年發(fā)布《教育中的人工智能:可持續(xù)發(fā)展的機(jī)遇和挑戰(zhàn)》中同樣指出,學(xué)習(xí)者是否擁有創(chuàng)造開發(fā)與數(shù)字解碼新技術(shù)等新技能,成為AI時(shí)代衡量人才的新標(biāo)準(zhǔn)。。由此可見,新聞從業(yè)者計(jì)算思維的養(yǎng)成是算法推薦新聞倫理風(fēng)險(xiǎn)規(guī)制的重要方面。此外,新聞受眾也需要提高知識(shí)素養(yǎng)、數(shù)字素養(yǎng),提高正確分辨、選擇和評價(jià)算法推薦新聞內(nèi)容的能力,這對于規(guī)制技術(shù)認(rèn)知不確定性下算法推薦新聞的倫理風(fēng)險(xiǎn)同樣重要。

倫理,需要依靠自律。除了計(jì)算思維的養(yǎng)成,新聞從業(yè)者的倫理堅(jiān)守是規(guī)制技術(shù)認(rèn)知不確定性下算法推薦新聞倫理風(fēng)險(xiǎn)的防線。新聞從業(yè)者應(yīng)當(dāng)加強(qiáng)自律,將公共利益置于經(jīng)濟(jì)利益之上,堅(jiān)持正確的新聞價(jià)值觀,充分發(fā)揮在新聞傳播中的主體性作用,維護(hù)算法推薦新聞在新聞實(shí)踐中的倫理合規(guī)。同時(shí),算法推薦新聞分發(fā)平臺(tái)需要在設(shè)計(jì)算法規(guī)則時(shí)分配更多的權(quán)重在公共價(jià)值和人文關(guān)懷方面,增加對公平、正義、人性尊嚴(yán)的考量。必要時(shí),行政、法律力量需要介入打破技術(shù)與資本的壟斷,以達(dá)到平衡工具理性與價(jià)值理性之間關(guān)系的目的[39]。總之,在算法推薦新聞時(shí)代要加強(qiáng)對新聞從業(yè)者和算法推薦新聞分發(fā)平臺(tái)的倫理約束,正確處理、規(guī)制技術(shù)給新聞?lì)I(lǐng)域帶來的倫理風(fēng)險(xiǎn)。

(三)技術(shù)制度不確定性向度:倫理結(jié)構(gòu)化與法律問責(zé)

推動(dòng)算法推薦新聞倫理結(jié)構(gòu)化是技術(shù)制度不確定性下倫理風(fēng)險(xiǎn)防控的最后屏障和有力保障。倫理結(jié)構(gòu)化過程是指規(guī)范化、制度化、系統(tǒng)化的邏輯構(gòu)成,具有科學(xué)性和同一性的評價(jià)標(biāo)準(zhǔn)和方法,并逐步推動(dòng)倫理規(guī)范的制度化和規(guī)范化[40]。

首先,規(guī)范構(gòu)造是規(guī)制算法推薦新聞倫理風(fēng)險(xiǎn)的前提性條件。法律和倫理規(guī)范能夠?yàn)橐?guī)制算法推薦新聞倫理風(fēng)險(xiǎn)指明方向,需要在算法推薦新聞的生成伊始設(shè)定其倫理要求。正如《意見》指出要健全算法安全治理政策法規(guī),加快制定算法管理規(guī)定,并制定標(biāo)準(zhǔn)、指南等配套文件。但與法律不同的是,倫理規(guī)范是規(guī)制算法推薦新聞倫理風(fēng)險(xiǎn)的直接標(biāo)準(zhǔn),不具有法律的強(qiáng)制性。當(dāng)人工智能算法發(fā)展到比人類決策更準(zhǔn)確、更少歧視的階段時(shí),算法倫理規(guī)范的設(shè)定可能需要設(shè)計(jì)超越人類倫理的雙重標(biāo)準(zhǔn)。換言之,當(dāng)算法真正具有哥德爾反思能力抑或“公民身份”時(shí),算法推薦新聞的倫理規(guī)范可能需要重構(gòu)與現(xiàn)有人類倫理、新聞倫理不同的倫理規(guī)范體系,以此填補(bǔ)可能出現(xiàn)的“責(zé)任缺口”。

其次,加強(qiáng)算法推薦新聞的倫理標(biāo)準(zhǔn)化、算法備案與算法審計(jì)。倫理標(biāo)準(zhǔn)化是指將算法推薦新聞相關(guān)的倫理因素如透明度、可解釋性、新聞受眾態(tài)度等各種指標(biāo)納入倫理規(guī)范設(shè)計(jì)過程之中,推動(dòng)算法推薦新聞倫理標(biāo)準(zhǔn)的制度化、體系化。如此,規(guī)制算法推薦新聞的倫理風(fēng)險(xiǎn)就具有現(xiàn)實(shí)可行性,同時(shí)在倫理標(biāo)準(zhǔn)制度化、體系化之后,算法備案和算法審計(jì)就有了用武之地。算法備案是規(guī)范算法應(yīng)用的事前規(guī)制手段,對于App的算法備案,可參照適用《移動(dòng)互聯(lián)網(wǎng)應(yīng)用程序信息服務(wù)管理規(guī)定》第5條的規(guī)定,要求移動(dòng)互聯(lián)網(wǎng)應(yīng)用程序(App)的算法應(yīng)用應(yīng)當(dāng)依法取得相關(guān)資質(zhì)、履行備案手續(xù);對于算法推薦新聞分發(fā)平臺(tái)的算法備案,國家互聯(lián)網(wǎng)信息辦公室發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定(征求意見稿)》第20條進(jìn)行了明確規(guī)定,即具有輿論屬性或者社會(huì)動(dòng)員能力的算法推薦服務(wù)提供者應(yīng)當(dāng)履行備案手續(xù)。就算法審計(jì)而言,有學(xué)者區(qū)分的代碼審計(jì)、非侵入式用戶審計(jì)、抓取式審計(jì)、馬甲審計(jì)、協(xié)同或眾包審計(jì)等五種算法審計(jì)方式能夠?qū)崿F(xiàn)對App算法應(yīng)用的審計(jì)和算法推薦新聞分發(fā)平臺(tái)的算法審計(jì)。具體而言,對App算法應(yīng)用的算法審計(jì),可采用非侵入式用戶審計(jì)等方式,在用戶同意的情況下獲取用戶的搜索和查詢結(jié)果進(jìn)行推斷;對于算法推薦新聞分發(fā)平臺(tái)的算法審計(jì)可采用代碼審計(jì)等方式。由此可見,在倫理標(biāo)準(zhǔn)化基礎(chǔ)上多樣化的算法審計(jì)機(jī)制能夠?qū)λ惴ㄍ扑]新聞倫理風(fēng)險(xiǎn)的規(guī)制發(fā)揮重要作用。

最后,設(shè)立算法推薦新聞的監(jiān)管機(jī)構(gòu)并強(qiáng)化問責(zé)法律制度。就監(jiān)管機(jī)構(gòu)設(shè)立而言,歐洲科學(xué)和新技術(shù)倫理小組、英國上議院人工智能委員會(huì)等專門監(jiān)管機(jī)構(gòu)在人員構(gòu)成上主要包括負(fù)責(zé)立法的議會(huì)成員、國家數(shù)據(jù)保護(hù)機(jī)構(gòu)成員、學(xué)者和公民等,能夠監(jiān)控、維護(hù)算法系統(tǒng)的負(fù)責(zé)任秩序,對算法推薦新聞倫理風(fēng)險(xiǎn)的規(guī)制具有重要作用。2019年澳大利亞競爭與消費(fèi)者委員會(huì)宣布計(jì)劃設(shè)立專門分支機(jī)構(gòu),以監(jiān)管算法運(yùn)行。在我國,中國消費(fèi)者協(xié)會(huì)曾建議國家設(shè)立算法倫理專門機(jī)構(gòu)。本文認(rèn)為,由國家互聯(lián)網(wǎng)信息辦公室、中央宣傳部等部委、學(xué)者、公民代表等組建算法倫理的專門監(jiān)管機(jī)構(gòu)以規(guī)制算法推薦新聞倫理風(fēng)險(xiǎn)具有必要性和可行性。監(jiān)管機(jī)構(gòu)需根據(jù)《意見》要求構(gòu)建算法風(fēng)險(xiǎn)監(jiān)測、算法安全評估、科技倫理審查、算法備案管理和違規(guī)行為處置一體化的監(jiān)管體系。就算法問責(zé)體系而言,對App算法應(yīng)用的問責(zé),2021年4月,工業(yè)和信息化部信息通信管理局發(fā)布的《移動(dòng)互聯(lián)網(wǎng)應(yīng)用程序個(gè)人信息保護(hù)管理暫行規(guī)定(征求意見稿)》第8條明確規(guī)定了移動(dòng)互聯(lián)網(wǎng)應(yīng)用程序(App)與第三方服務(wù)(算法推薦服務(wù))承擔(dān)連帶責(zé)任的情形;對算法推薦新聞分發(fā)平臺(tái)的問責(zé),主要包括算法說明責(zé)任和算法安全評估責(zé)任等,具體而言,《個(gè)人信息保護(hù)法》第24條的規(guī)定為算法推薦新聞分發(fā)平臺(tái)設(shè)定了算法說明責(zé)任;國家互聯(lián)網(wǎng)信息辦公室關(guān)于《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定(征求意見稿)》第14條的規(guī)定為算法推薦新聞分發(fā)平臺(tái)設(shè)定了算法安全評估責(zé)任。下一步,需加強(qiáng)算法問責(zé)的可操作性,制定責(zé)任清單、厘清責(zé)任邊界,推動(dòng)主體責(zé)任的充分落實(shí)。

六、結(jié)語

算法推薦新聞的衍生有其社會(huì)基礎(chǔ),但也引發(fā)了多方面、多層次的倫理危機(jī),目前有關(guān)規(guī)制其倫理風(fēng)險(xiǎn)的探索仍不深入。本文轉(zhuǎn)換視角,在技術(shù)不確定性下對算法推薦新聞的倫理風(fēng)險(xiǎn)及其法律規(guī)制問題進(jìn)行了初步探討,旨在不斷夯實(shí)算法推薦新聞的倫理根基,將有關(guān)倫理風(fēng)險(xiǎn)約束在倫理尤其是約束在法律的框架之中,以法治手段尋求大數(shù)據(jù)時(shí)代算法推薦新聞的技術(shù)不確定性問題的解決方案,使算法推薦新聞逐步邁向更大程度的“確定性”,從而更接近算法推薦新聞的正義目標(biāo)。

猜你喜歡
規(guī)制不確定性倫理
《心之死》的趣味與倫理焦慮
隨機(jī)不確定性影響下某航炮發(fā)射動(dòng)力學(xué)仿真
控制股東濫用權(quán)利規(guī)制的司法觀察及漏洞填補(bǔ)
《白噪音》中后現(xiàn)代聲景的死亡倫理思考
倫理批評與文學(xué)倫理學(xué)
完善地方政府行政作為法律規(guī)制的思考
中國銀行業(yè)的未來:不確定性與希望并存
華語科幻電影中的“倫理性”想象
廣義直覺模糊軟集的格結(jié)構(gòu)
內(nèi)容規(guī)制
中阳县| 石棉县| 安龙县| 蓝田县| 新龙县| 宁陵县| 天津市| 武冈市| 巴林右旗| 平凉市| 宝丰县| 望谟县| 大荔县| 淮北市| 招远市| 芦溪县| 仙桃市| 当雄县| 沙雅县| 苍溪县| 巫溪县| 兴宁市| 马山县| 上蔡县| 新巴尔虎右旗| 青阳县| 改则县| 新沂市| 华阴市| 连江县| 景洪市| 江都市| 紫云| 汝南县| 德钦县| 建湖县| 格尔木市| 兴安盟| 抚顺市| 临汾市| 呼和浩特市|