国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

新聞生產(chǎn)中的算法風(fēng)險(xiǎn):成因、類型與對(duì)策*

2018-02-08 02:31□文│張
中國(guó)出版 2018年13期
關(guān)鍵詞:人工智能算法

□文│張 超

智媒時(shí)代新聞業(yè)正經(jīng)歷“算法轉(zhuǎn)向”(algorithmic turn),人工智能技術(shù)被視為下一代新聞生產(chǎn)的“標(biāo)配”,滲透到從選題到內(nèi)容分發(fā)各個(gè)新聞生產(chǎn)環(huán)節(jié),如機(jī)器人新聞、個(gè)性化新聞推送、智能檢校、用戶評(píng)論審查、自動(dòng)事實(shí)核查、自動(dòng)生成圖表、聊天機(jī)器人、數(shù)據(jù)挖掘與分析等。早在2015年,美聯(lián)社就在“2015~2020戰(zhàn)略規(guī)劃”中計(jì)劃2020年前實(shí)現(xiàn)80%的新聞內(nèi)容生產(chǎn)自動(dòng)化。

與此同時(shí),人類正處于貝克所描述的“風(fēng)險(xiǎn)社會(huì)”之中,技術(shù)的發(fā)展讓各種風(fēng)險(xiǎn)形態(tài)不斷“生產(chǎn)”出來。人工智能也不例外。人工智能的核心是數(shù)據(jù)、算法和計(jì)算力。隨著人類從弱人工智能階段奔向強(qiáng)人工智能階段,因人們對(duì)算法的過度依賴和算法本身的局限所導(dǎo)致的算法風(fēng)險(xiǎn)(algorithmic risks)將與日俱增。

新聞業(yè)的合法基石在于向公眾提供可信賴的新聞信息服務(wù)。當(dāng)人工智能技術(shù)滲入新聞生產(chǎn)時(shí),新聞從業(yè)者需要對(duì)新技術(shù)保持審慎態(tài)度、提防算法風(fēng)險(xiǎn)。雖然人們主觀上認(rèn)為人工智能技術(shù)比人更可靠,實(shí)際上如果算法出錯(cuò),波及面更廣、后果更嚴(yán)重。在對(duì)人工智能技術(shù)的憧憬中,國(guó)內(nèi)外新聞傳播領(lǐng)域重在關(guān)注算法在新聞生產(chǎn)中的應(yīng)用、局限、影響、算法權(quán)力等問題,對(duì)算法風(fēng)險(xiǎn)認(rèn)識(shí)不足、研究薄弱。算法風(fēng)險(xiǎn)何以產(chǎn)生?新聞生產(chǎn)會(huì)遇到哪些算法風(fēng)險(xiǎn)?如何應(yīng)對(duì)?本文嘗試彌補(bǔ)當(dāng)前算法研究的這一“短板”,對(duì)算法風(fēng)險(xiǎn)進(jìn)行系統(tǒng)、深入研究。

一、算法風(fēng)險(xiǎn)的成因

社會(huì)風(fēng)險(xiǎn)在本質(zhì)上是屬于人的主體性實(shí)踐活動(dòng)。[1]算法風(fēng)險(xiǎn)的產(chǎn)生既與算法系統(tǒng)自身的局限有關(guān),也與利益相關(guān)者對(duì)算法的態(tài)度有關(guān)。算法風(fēng)險(xiǎn)的產(chǎn)生機(jī)制主要包括3個(gè)方面。

1.算法缺陷:技術(shù)本身的不完美

算法并不完美,有優(yōu)劣和適用性之分,世界上只有更好的算法,沒有完美的算法。算法運(yùn)行系統(tǒng)包括輸入數(shù)據(jù)(input data)、算法設(shè)計(jì)(algorithm design)、輸出結(jié)果(output decisions)3個(gè)環(huán)節(jié)。任何一個(gè)環(huán)節(jié)存在問題都將導(dǎo)致算法風(fēng)險(xiǎn)的產(chǎn)生。

輸入數(shù)據(jù)存在問題。設(shè)計(jì)算法時(shí),設(shè)計(jì)者需要用數(shù)據(jù)對(duì)算法進(jìn)行訓(xùn)練。訓(xùn)練時(shí)采用的數(shù)據(jù)和實(shí)際輸入的數(shù)據(jù)在數(shù)據(jù)質(zhì)量上重合度越高,越能得出符合預(yù)期目標(biāo)的結(jié)論數(shù)據(jù)。如果用于訓(xùn)練算法的數(shù)據(jù)存在缺陷(如不完整、陳舊、不相關(guān)),無論算法設(shè)計(jì)得多么完美,最后的數(shù)據(jù)輸出也是錯(cuò)誤的。如果訓(xùn)練算法的數(shù)據(jù)本身包含偏見,就會(huì)導(dǎo)致“偏見進(jìn),偏見出”。

算法設(shè)計(jì)存在問題。算法設(shè)計(jì)旨在解決特定問題,卻無法回避設(shè)計(jì)缺陷這一現(xiàn)實(shí)。如果出現(xiàn)有缺陷的假設(shè)或判斷、不恰當(dāng)?shù)慕<夹g(shù)、錯(cuò)誤的編碼、[2]設(shè)計(jì)者的偏見等問題,算法設(shè)計(jì)就會(huì)引發(fā)算法風(fēng)險(xiǎn)。

解讀輸出結(jié)果存在問題。當(dāng)算法通過數(shù)據(jù)輸入得出特定的數(shù)據(jù)輸出時(shí),輸出的數(shù)據(jù)不會(huì)自我解釋,需要人對(duì)其進(jìn)行解讀。如果解讀者對(duì)數(shù)據(jù)結(jié)果的認(rèn)識(shí)有誤或忽視了基本假設(shè),就會(huì)出現(xiàn)解讀錯(cuò)誤,進(jìn)而導(dǎo)致算法風(fēng)險(xiǎn)。

2.“數(shù)學(xué)洗腦”:對(duì)算法的絕對(duì)信任

對(duì)某些專業(yè)知識(shí)的無知會(huì)成為人們信任某種技術(shù)的基礎(chǔ),同樣也會(huì)帶來風(fēng)險(xiǎn)。算法由于復(fù)雜和晦澀被視為“黑箱”,對(duì)于以文科知識(shí)背景為主的新聞從業(yè)者和沒有相關(guān)專業(yè)知識(shí)的一般公眾而言,算法常被視為中立的、權(quán)威的、科學(xué)的。一些媒體公司也以此為賣點(diǎn),聲稱其算法系統(tǒng)沒有價(jià)值觀,部分公眾對(duì)這些宣傳容易信以為真。這種認(rèn)為“利用算法、模型等數(shù)學(xué)方法重塑一個(gè)更加客觀的現(xiàn)實(shí)世界”的想法被稱為“數(shù)學(xué)洗腦”(mathwashing)。[3]

當(dāng)“數(shù)學(xué)洗腦”成為社會(huì)共識(shí)后,人們便無視算法的潛在風(fēng)險(xiǎn),甚至認(rèn)為算法沒有風(fēng)險(xiǎn),這種錯(cuò)誤認(rèn)識(shí)便會(huì)成為算法風(fēng)險(xiǎn)的來源,最終讓算法從人的“代理者”變成人的“控制者”。

3.“算法知溝”:潛在風(fēng)險(xiǎn)的有意掩蓋

算法設(shè)計(jì)者和使用者之間存在一個(gè)難以彌合的“算法知溝”。算法所有者可能會(huì)利用這種“算法知溝”實(shí)現(xiàn)自己的某些意圖。

在新聞生產(chǎn)中,對(duì)算法風(fēng)險(xiǎn)的掩蓋都是為了特定利益:一是免除自己可能要承擔(dān)的責(zé)任。例如一些媒體標(biāo)榜“技術(shù)中立”,聲稱自己的算法不存在缺陷,為的是贏得用戶信任、免除可能承擔(dān)的倫理和法律責(zé)任。二是為了獲得更大的商業(yè)利益。如果媒體承認(rèn)算法有缺陷、有風(fēng)險(xiǎn),會(huì)導(dǎo)致用戶流失,影響媒體品牌聲譽(yù)。比如在新聞推送中,商業(yè)推薦所占的權(quán)重會(huì)更大一些,失范內(nèi)容因稀缺性而產(chǎn)生的暴利也更容易被推送給用戶,[4]但是媒體卻聲稱這是基于用戶的數(shù)據(jù),而非算法故意為之。

二、新聞生產(chǎn)中的算法風(fēng)險(xiǎn)類型

當(dāng)算法成為新聞生產(chǎn)的新中介時(shí),算法風(fēng)險(xiǎn)自然會(huì)在新聞生產(chǎn)中產(chǎn)生,總體來看包括以下5類風(fēng)險(xiǎn)。

1.失實(shí)風(fēng)險(xiǎn)

當(dāng)算法應(yīng)用于新聞內(nèi)容生產(chǎn)環(huán)節(jié)可能會(huì)產(chǎn)生失實(shí)風(fēng)險(xiǎn)。失實(shí)風(fēng)險(xiǎn)是算法得出的錯(cuò)誤結(jié)論導(dǎo)致內(nèi)容失實(shí)、信息錯(cuò)誤,影響整個(gè)新聞報(bào)道的準(zhǔn)確性和真實(shí)性。失實(shí)風(fēng)險(xiǎn)主要由算法設(shè)計(jì)本身的局限性和輸入數(shù)據(jù)的錯(cuò)誤導(dǎo)致的。

例如《洛杉磯時(shí)報(bào)》為了調(diào)查警察局低估犯罪數(shù)據(jù)設(shè)計(jì)了一個(gè)機(jī)器學(xué)習(xí)算法,結(jié)果算法出錯(cuò)率達(dá)24%,需要用人工進(jìn)行復(fù)核。[5]在2016年美國(guó)總統(tǒng)大選報(bào)道中,美國(guó)多家媒體的數(shù)據(jù)新聞?lì)A(yù)測(cè)遭遇“滑鐵盧”,其中一個(gè)重要原因是民調(diào)數(shù)據(jù)出現(xiàn)系統(tǒng)性的樣本偏差。由于民調(diào)數(shù)據(jù)出錯(cuò),甚至連續(xù)兩次預(yù)測(cè)準(zhǔn)美國(guó)總統(tǒng)大選結(jié)果的納特·西爾弗也預(yù)測(cè)失敗,數(shù)據(jù)新聞的聲譽(yù)遭受重創(chuàng)。在機(jī)器人新聞寫作中,如果基礎(chǔ)數(shù)據(jù)或處理數(shù)據(jù)的算法包含錯(cuò)誤,撰稿軟件可能會(huì)產(chǎn)生大量錯(cuò)誤的報(bào)道。[6]因此數(shù)據(jù)、算法看上去客觀、權(quán)威,生產(chǎn)出來的并不一定是事實(shí)和真相。

2.決策風(fēng)險(xiǎn)

決策風(fēng)險(xiǎn)是指由于人們過于相信算法,對(duì)某些決定進(jìn)行思考、判斷時(shí)出現(xiàn)錯(cuò)誤。對(duì)于新聞媒體而言,決策風(fēng)險(xiǎn)主要出現(xiàn)在個(gè)性化新聞推薦中:輕則推送的內(nèi)容不符合“用戶畫像”;重則真假新聞不分,導(dǎo)致假新聞廣為傳播。

目前不同媒體依賴的算法推薦系統(tǒng)不盡相同。無論哪種推薦系統(tǒng),都有自身的不足,需要不斷完善,否則容易產(chǎn)生錯(cuò)誤的判斷。當(dāng)臉書(facebook)完全用算法推送熱門新聞話題后,謠言、假新聞就成了“常客”?!拔宋宋埂保˙uzzfeed)網(wǎng)站的數(shù)據(jù)新聞《空中間諜》(Spies in the Skies)用算法分析飛機(jī)數(shù)據(jù)、揭秘美國(guó)空軍的秘密活動(dòng),但算法會(huì)把一些跳傘運(yùn)動(dòng)錯(cuò)誤識(shí)別為間諜機(jī)。[7]

再如一些數(shù)據(jù)新聞采用“計(jì)算器”的方式幫助用戶進(jìn)行決策,但沒有人關(guān)心這種計(jì)算器是如何計(jì)算出來的,計(jì)算錯(cuò)了,人們的決策也錯(cuò)了。更重要的是這里的風(fēng)險(xiǎn)不只是眼前的決策風(fēng)險(xiǎn),更在于人們會(huì)越來越依賴算法,從而失去對(duì)一些事物的獨(dú)立判斷:算法替代人成為決策主體,人的主體性被物化。

3.偏見風(fēng)險(xiǎn)

偏見風(fēng)險(xiǎn)的產(chǎn)生由于算法運(yùn)行系統(tǒng)中的偏見因素導(dǎo)致偏見的結(jié)果輸出。算法偏見存在于算法設(shè)計(jì)和運(yùn)行的每一個(gè)環(huán)節(jié),包括算法設(shè)計(jì)者的偏見、輸入數(shù)據(jù)的偏見和算法局限的偏見。

研究顯示,應(yīng)用于語言的自動(dòng)化方法必然會(huì)學(xué)習(xí)人類語言使用中固有的人類偏見。[8]2018年4月“快手”首席執(zhí)行官(CEO)宿華針對(duì)快手平臺(tái)有大量低俗內(nèi)容在“快手”官方微博道歉,承認(rèn)“(‘快手’)社區(qū)運(yùn)行用到的算法是有價(jià)值觀的,因?yàn)樗惴ǖ谋澈笫侨耍惴ǖ膬r(jià)值觀就是人的價(jià)值觀,算法的缺陷是價(jià)值觀上的缺陷”。

曾任職于“臉書趨勢(shì)”(Facebook Trending)的工程師喬納森·科倫承認(rèn),臉書的算法都是對(duì)人類行為的數(shù)據(jù)收集和學(xué)習(xí),人類帶來的缺陷和偏見,連算法創(chuàng)制者都暫時(shí)無法解決。[9]在個(gè)性化新聞推送中,基于個(gè)人偏好的推薦系統(tǒng)將進(jìn)一步固化“信息繭房”和“回聲室效應(yīng)”,讓后真相時(shí)代的人們無視廣闊的社會(huì)現(xiàn)實(shí),只相信自己愿意相信的東西。

4.隱私風(fēng)險(xiǎn)

隱私風(fēng)險(xiǎn)的產(chǎn)生因個(gè)人數(shù)據(jù)而起。算法的運(yùn)行離不開數(shù)據(jù),而個(gè)性化新聞推薦、用戶分析等服務(wù)需要個(gè)人數(shù)據(jù)。無論作為一種技術(shù)目標(biāo),還是一種服務(wù)目標(biāo),搜集的個(gè)人數(shù)據(jù)越多,算法對(duì)用戶的“了解”就越準(zhǔn)確。算法所有者可能會(huì)無視用戶的隱私保護(hù):一方面過度搜集用戶個(gè)人數(shù)據(jù),例如將個(gè)人敏感數(shù)據(jù)納入收集范圍;另一方面對(duì)個(gè)人數(shù)據(jù)缺少有效保護(hù),隨意流轉(zhuǎn)數(shù)據(jù),導(dǎo)致個(gè)人數(shù)據(jù)泄露。

路透新聞研究所《數(shù)字新聞報(bào)告2016》的數(shù)據(jù)顯示,49%的英國(guó)和美國(guó)受訪者對(duì)算法推薦影響個(gè)人隱私表示擔(dān)憂。2018年3月16日臉書爆出個(gè)人數(shù)據(jù)泄露丑聞,劍橋分析公司(Cambridge Analytica)借助2014~2015年間在臉書推出的一款心理測(cè)驗(yàn)在未經(jīng)同意下盜用高達(dá)5000萬用戶的個(gè)人信息,用于美國(guó)總統(tǒng)大選時(shí)為特朗普進(jìn)行精準(zhǔn)的廣告投放,影響了選舉結(jié)果。[10]大數(shù)據(jù)時(shí)代,個(gè)人數(shù)據(jù)被多個(gè)終端、平臺(tái)所收集,被各種算法“監(jiān)視”,隱私風(fēng)險(xiǎn)隨時(shí)可能發(fā)生。雖然有人提出將個(gè)人數(shù)據(jù)處理時(shí)用匿名的方式規(guī)避隱私風(fēng)險(xiǎn),但不可否認(rèn)的是,多個(gè)匿名數(shù)據(jù)建立關(guān)聯(lián)依然可以識(shí)別出特定的個(gè)體。不讓個(gè)人數(shù)據(jù)“裸奔”,需要更有效的防護(hù)措施。

5.聲譽(yù)風(fēng)險(xiǎn)

媒體聲譽(yù)是人們根據(jù)媒體的行為對(duì)媒體進(jìn)行的整體性評(píng)價(jià),是媒介主體的一項(xiàng)總體性的無形資產(chǎn)。[11]良好的聲譽(yù)是媒體重要的社會(huì)資本,能從各方面提升媒體的競(jìng)爭(zhēng)力。

媒體聲譽(yù)的構(gòu)成主要取決于專業(yè)能力和社會(huì)責(zé)任。在傳統(tǒng)媒體時(shí)代,媒體聲譽(yù)管理的重點(diǎn)在于記者的專業(yè)實(shí)踐。只要記者能勝任專業(yè)工作、體現(xiàn)社會(huì)責(zé)任,媒體自然就實(shí)現(xiàn)了公信力、影響力。智媒時(shí)代,算法的存在讓媒體聲譽(yù)管理變得更為復(fù)雜和不可控。作為人工物,算法不僅不能保證客觀、公正,算法帶來的失實(shí)風(fēng)險(xiǎn)、決策風(fēng)險(xiǎn)、偏見風(fēng)險(xiǎn)、隱私風(fēng)險(xiǎn)直接導(dǎo)致聲譽(yù)風(fēng)險(xiǎn),這些風(fēng)險(xiǎn)在技術(shù)上是無法避免的。

美國(guó)愛德曼國(guó)際公關(guān)公司發(fā)布的《2018年全球信任度調(diào)查報(bào)告》顯示媒體是全球最不受信任的機(jī)構(gòu)。尤其在西方國(guó)家,媒體的公眾信任度很低。許多媒體采用算法的動(dòng)因之一是讓新聞生產(chǎn)“客觀”“權(quán)威”。如果媒體忽視算法風(fēng)險(xiǎn),很可能使原本脆弱的媒體聲譽(yù)雪上加霜。2018年3月臉書個(gè)人數(shù)據(jù)泄露事件發(fā)生后,用戶對(duì)臉書的好感凈值較2017年10月下降28個(gè)百分點(diǎn),總好感率為48%。[12]

三、算法風(fēng)險(xiǎn)的應(yīng)對(duì)策略

算法是把“雙刃劍”,新聞業(yè)需要在創(chuàng)新和風(fēng)險(xiǎn)中找到平衡。算法風(fēng)險(xiǎn)因人而生,應(yīng)對(duì)算法風(fēng)險(xiǎn)也要以規(guī)制人的行為為重點(diǎn),同時(shí)應(yīng)對(duì)算法風(fēng)險(xiǎn)是一個(gè)系統(tǒng)工程,筆者認(rèn)為可以從4個(gè)層面著手。

1.自律層面:構(gòu)筑新聞生產(chǎn)的算法責(zé)任倫理

法律、法規(guī)的制定永遠(yuǎn)落后于新技術(shù)的發(fā)展,在應(yīng)對(duì)和處理算法風(fēng)險(xiǎn)上,算法倫理的探討與共識(shí)應(yīng)走在前列。目前國(guó)外科學(xué)技術(shù)界提出了很多涉及算法倫理的倡議,如阿西洛馬人工智能原則(Asilomar AI Principles)、美國(guó)計(jì)算機(jī)協(xié)會(huì)提出的算法透明和可責(zé)性七項(xiàng)原則。

新技術(shù)條件下的新聞倫理也需要做出調(diào)整,以應(yīng)對(duì)不斷拓展的新聞邊界和不斷涌現(xiàn)的新技術(shù)、新問題,智媒時(shí)代的新聞倫理應(yīng)是融合技術(shù)倫理的“混合倫理”,筆者認(rèn)為應(yīng)當(dāng)用責(zé)任倫理的視角認(rèn)識(shí)和構(gòu)筑算法倫理,即“算法責(zé)任倫理”。

責(zé)任倫理最早由馬克斯·韋伯提出,是相對(duì)于信念倫理而言的。信念倫理的價(jià)值根據(jù)在于行為者的目的、動(dòng)機(jī)和意圖,拒絕對(duì)行為的后果承擔(dān)責(zé)任。責(zé)任倫理則相反,強(qiáng)調(diào)行為后果的價(jià)值和意義,認(rèn)為人應(yīng)當(dāng)積極對(duì)自己的行為承擔(dān)責(zé)任,理性而審慎地行動(dòng)。[13]

在技術(shù)領(lǐng)域,技術(shù)員在設(shè)計(jì)程序、攻克問題時(shí)往往強(qiáng)調(diào)技術(shù)的工具理性和特定技術(shù)目標(biāo)的達(dá)成,較少涉及價(jià)值理性。一些企業(yè)追逐開發(fā)一切技術(shù)上可能被開發(fā)的事物,忽視了技術(shù)造成的全面影響,出現(xiàn)“計(jì)算機(jī)和信息技術(shù)的非道德神話”。[14]當(dāng)算法介入新聞生產(chǎn)時(shí),不能因?yàn)樗^的“技術(shù)中立”,就無視責(zé)任的承擔(dān)、無視技術(shù)本身所附著的風(fēng)險(xiǎn)和價(jià)值觀。新聞生產(chǎn)中的算法價(jià)值觀,首先是體現(xiàn)公共利益的,而不是符合少數(shù)人的利益。英國(guó)“媒體改革同盟”2018年3月發(fā)布的《英國(guó)廣播公司的未來》報(bào)告認(rèn)為,英國(guó)廣播公司(BBC)的算法邏輯應(yīng)該以公共服務(wù)為目的,同時(shí)給予執(zhí)照費(fèi)繳納者權(quán)利參與甚至控制算法的調(diào)整。

新聞生產(chǎn)的算法責(zé)任倫理體系應(yīng)當(dāng)包括公平、準(zhǔn)確、透明、可解釋、可審計(jì)、責(zé)任等原則。①公平。算法運(yùn)行系統(tǒng)的設(shè)計(jì)需要體現(xiàn)社會(huì)公平,考慮社會(huì)的多元性和不同的價(jià)值觀,盡可能避免因偏見的數(shù)據(jù)或偏見的算法設(shè)計(jì)導(dǎo)致對(duì)某一特定群體的歧視。因此算法設(shè)計(jì)的公平需要納入利益相關(guān)者(stakeholders)的利益。關(guān)于個(gè)人決策的算法都應(yīng)該被評(píng)估其歧視性影響,評(píng)估的結(jié)果和標(biāo)準(zhǔn)應(yīng)該被公開發(fā)布并加以解釋。[15]②準(zhǔn)確。無論是輸入時(shí)的數(shù)據(jù)錯(cuò)誤,還是輸出時(shí)統(tǒng)計(jì)上的不確定性(statistical uncertainty),算法總會(huì)存在錯(cuò)誤。需要識(shí)別、記錄和測(cè)試整個(gè)算法及其數(shù)據(jù)源的誤差和不確定性。[16]③透明。讓利益相關(guān)者知道某一算法的設(shè)計(jì)意圖、設(shè)計(jì)目標(biāo)、運(yùn)行效率、適用條件和存在的缺陷,了解算法的運(yùn)行機(jī)制和作出特定決定的原因。[17]④可解釋。算法系統(tǒng)產(chǎn)生的任何決策都應(yīng)該向利益相關(guān)者進(jìn)行解釋。這些解釋必須便于利益相關(guān)者理解,而不是用專業(yè)的技術(shù)知識(shí)“應(yīng)付”利益相關(guān)者。⑤可審計(jì)。開發(fā)算法時(shí)應(yīng)該允許第三方分析和檢查算法。⑥責(zé)任。遵守法律、法規(guī),如果出現(xiàn)錯(cuò)誤,應(yīng)由責(zé)任主體及時(shí)修復(fù)、中止服務(wù),并及時(shí)更正,對(duì)造成的損失承擔(dān)責(zé)任。

2.他律層面:制定監(jiān)管新聞算法的法律法規(guī)

當(dāng)前部分國(guó)家和地區(qū)已將人工智能立法提上日程。2017年12月美國(guó)國(guó)會(huì)提出《人工智能未來法案》(Future of Artificial Intelligence Act of 2017),如果經(jīng)兩院通過,該法案將成為美國(guó)第一個(gè)針對(duì)人工智能的聯(lián)邦法案。紐約為了解決政務(wù)系統(tǒng)算法歧視問題于2017年12月通過了算法問責(zé)法案。2018年5月生效的歐盟 《一般性數(shù)據(jù)保護(hù)法案》(General Data Protection Regulation,GDPR)給予用戶申請(qǐng)某項(xiàng)基于算法得出結(jié)論的解釋權(quán)。中國(guó)在《新一代人工智能發(fā)展規(guī)劃》中提出要加強(qiáng)人工智能相關(guān)法律問題研究,開展與人工智能應(yīng)用相關(guān)的民事與刑事責(zé)任確認(rèn)、隱私和產(chǎn)權(quán)保護(hù)、信息安全利用等法律問題研究,建立追溯和問責(zé)制度,明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任等。

當(dāng)政務(wù)系統(tǒng)的算法成為記者的調(diào)查對(duì)象之時(shí),應(yīng)用于新聞生產(chǎn)中的算法同樣需要立法監(jiān)管。由于算法性質(zhì)多種多樣,有基于公共利益的算法、基于商業(yè)利益的算法和二者兼具的算法,相關(guān)部門在立法時(shí)應(yīng)充分考慮新聞業(yè)和新聞算法的特殊性,制定有效的監(jiān)管措施,既保障新聞生產(chǎn)的技術(shù)創(chuàng)新,又盡可能避免算法帶來“副作用”。

在立法中設(shè)立第三方調(diào)查機(jī)構(gòu)極為必要。由于社會(huì)上大部分算法不是開源算法,第三方調(diào)查機(jī)構(gòu)的設(shè)立有助于避免借調(diào)查之名侵犯知識(shí)產(chǎn)權(quán)事件的發(fā)生。紐約市計(jì)劃成立由自動(dòng)化決策系統(tǒng)專家和受自動(dòng)化決策系統(tǒng)影響的公民組織代表組成的工作組,專門監(jiān)督市政機(jī)構(gòu)使用的自動(dòng)決策算法的公平性、問責(zé)性和透明度。[18]

3.社會(huì)層面:提升利益相關(guān)者的算法素養(yǎng)

智媒時(shí)代“你相信誰的報(bào)道”將變成“你相信哪個(gè)算法”。彌合“算法知溝”,減少和規(guī)避算法風(fēng)險(xiǎn),需要利益相關(guān)者具備算法的基本常識(shí)、批判地看待算法、提升算法素養(yǎng)。算法素養(yǎng)是公眾所具備的認(rèn)識(shí)、評(píng)判、運(yùn)用算法的態(tài)度、能力與規(guī)范。

新聞生產(chǎn)中的算法利益相關(guān)者包括:①記者和編輯。他們利用程序員開發(fā)的算法產(chǎn)品進(jìn)行用戶分析、數(shù)據(jù)分析、輿情監(jiān)測(cè)、新聞資源整合。如《衛(wèi)報(bào)》內(nèi)部的“孤兒”(Ophan)分析平臺(tái),幫助記者、編輯簡(jiǎn)便地處理受眾數(shù)據(jù)和分析工作。如果記者、編輯不具備算法素養(yǎng),只會(huì)使用算法程序,將使整個(gè)新聞生產(chǎn)過程“唯技術(shù)論”。②受眾。他們利用媒體提供的算法產(chǎn)品進(jìn)行新聞消費(fèi)或決策。如果受眾不具備算法素養(yǎng),將使其新聞消費(fèi)或決策過程盲從、被動(dòng),甚至誤導(dǎo)。

利益相關(guān)者的算法素養(yǎng)包括三個(gè)層次:①態(tài)度層面,對(duì)算法的設(shè)計(jì)和運(yùn)行原理有一定的認(rèn)識(shí),對(duì)算法本身及其結(jié)論的得出持批判態(tài)度。②能力層面,掌握常見算法的設(shè)計(jì)能力,對(duì)試驗(yàn)數(shù)據(jù)、算法設(shè)計(jì)、結(jié)果輸出有一定的辨別、判斷和解釋能力。③規(guī)范層面,算法應(yīng)用合理、合法,遵循專業(yè)規(guī)范和社會(huì)規(guī)范。

2018年中國(guó)將算法課程列入全國(guó)高中新課標(biāo),提高學(xué)生在程序設(shè)計(jì)、計(jì)算思維、算法方面的思維能力。在社會(huì)層面,算法素養(yǎng)應(yīng)像媒介素養(yǎng)一樣,成為公眾知識(shí)素質(zhì)的重要組成部分。公眾的算法素養(yǎng)提高了,對(duì)算法的迷信和盲從就少了,算法風(fēng)險(xiǎn)也就更能從容應(yīng)對(duì)了。

4.媒體層面:建立算法風(fēng)險(xiǎn)的應(yīng)對(duì)機(jī)制

隨著人工智能技術(shù)的發(fā)展,算法風(fēng)險(xiǎn)將成為新聞業(yè)的新常態(tài),可以預(yù)見未來因算法風(fēng)險(xiǎn)帶來的媒體聲譽(yù)風(fēng)險(xiǎn)將成為媒體風(fēng)險(xiǎn)管理、危機(jī)管理的重要議題。作為責(zé)任主體的媒體需要建立一套完善的算法風(fēng)險(xiǎn)應(yīng)對(duì)機(jī)制,以減少傷害、降低損失、完善服務(wù)、挽回聲譽(yù)。

筆者認(rèn)為算法風(fēng)險(xiǎn)的應(yīng)對(duì)機(jī)制包括四個(gè)階段。①算法風(fēng)險(xiǎn)的預(yù)防階段。這一階段重在“預(yù)防”:通過監(jiān)督算法產(chǎn)品設(shè)計(jì)過程中對(duì)專業(yè)標(biāo)準(zhǔn)和新聞倫理的落實(shí)情況,將算法風(fēng)險(xiǎn)的發(fā)生幾率降到最低。②算法風(fēng)險(xiǎn)的監(jiān)測(cè)階段。這一階段重在“監(jiān)測(cè)”:設(shè)計(jì)好的算法已經(jīng)應(yīng)用于新聞生產(chǎn),媒體需對(duì)算法系統(tǒng)的運(yùn)行制定一個(gè)風(fēng)險(xiǎn)評(píng)估標(biāo)準(zhǔn),進(jìn)行日常監(jiān)測(cè)。當(dāng)發(fā)現(xiàn)算法缺陷或潛在風(fēng)險(xiǎn)時(shí),視情況決定是否中止算法系統(tǒng)及相關(guān)服務(wù)?!敖袢疹^條”算法架構(gòu)師曹歡歡表示,“今日頭條”在日常會(huì)不斷糾偏,設(shè)計(jì)、監(jiān)督并管理算法模型。③算法風(fēng)險(xiǎn)的發(fā)生與處理階段。這一階段重在“告知”:當(dāng)算法風(fēng)險(xiǎn)發(fā)生后,媒體應(yīng)通過各種傳播渠道“即時(shí)”告知公眾算法風(fēng)險(xiǎn)的發(fā)生,發(fā)出警示信息,并采用措施進(jìn)行應(yīng)對(duì)處理,如立刻停止算法系統(tǒng)的運(yùn)行、解釋算法風(fēng)險(xiǎn)產(chǎn)生的原因、對(duì)算法缺陷進(jìn)行修復(fù)、第一時(shí)間回應(yīng)公眾關(guān)切。④算法風(fēng)險(xiǎn)的聲譽(yù)修復(fù)階段。這一階段重在“修復(fù)”:媒體需總結(jié)處理應(yīng)對(duì)算法風(fēng)險(xiǎn)的經(jīng)驗(yàn),評(píng)估此次算法風(fēng)險(xiǎn)對(duì)媒體聲譽(yù)的影響,彌補(bǔ)利益相關(guān)者損失,向利益相關(guān)者進(jìn)行解釋、說明,積極開展聲譽(yù)修復(fù)行動(dòng)。

猜你喜歡
人工智能算法
我校新增“人工智能”本科專業(yè)
抑制OFDM系統(tǒng)峰均比的DHT-SCF聯(lián)合算法
基于Lévy飛行的一種改進(jìn)鯨魚算法
Travellng thg World Full—time for Rree
2019:人工智能
進(jìn)位加法的兩種算法
人工智能與就業(yè)
數(shù)讀人工智能
下一幕,人工智能!
下一幕,人工智能!
新巴尔虎右旗| 慈利县| 安乡县| 九台市| 景东| 茂名市| 于都县| 江华| 神农架林区| 交口县| 城口县| 嘉峪关市| 新乐市| 和林格尔县| 南乐县| 康马县| 陇川县| 酒泉市| 四川省| 湘潭市| 绥棱县| 九台市| 延寿县| 葫芦岛市| 克东县| 江达县| 榕江县| 桃源县| 南投县| 崇仁县| 曲麻莱县| 许昌市| 贞丰县| 台北市| 南皮县| 塔河县| 正镶白旗| 依兰县| 互助| 灵台县| 宁远县|