● 畢文佳
隨著5G 時(shí)代的來臨,人工智能技術(shù)已普遍應(yīng)用于新聞生產(chǎn)的各環(huán)節(jié)中。在人工智能媒體發(fā)展探索的過程中,倫理失范現(xiàn)象不斷產(chǎn)生??萍际且环N能力,向善是一種選擇,本文將探尋智能新聞生產(chǎn)的困境及突圍路徑。
困境一:多元主體參與新聞生產(chǎn),內(nèi)容客觀性真實(shí)性失守。在新聞專業(yè)領(lǐng)域,新聞內(nèi)容需要客觀真實(shí)地反映事實(shí),在以往傳統(tǒng)的“把關(guān)人”時(shí)代,新聞的真實(shí)性、客觀性主要依賴于新聞從業(yè)者的職業(yè)素養(yǎng)與道德操守。隨著新聞傳播領(lǐng)域的智能化轉(zhuǎn)向,越來越多的非新聞專業(yè)領(lǐng)域算法工程師、盈利目的明確的產(chǎn)品經(jīng)理、網(wǎng)絡(luò)新聞高頻互動(dòng)轉(zhuǎn)發(fā)的受眾在平臺(tái)化的媒介生態(tài)中共生,對于算法的建構(gòu)偏向及新聞內(nèi)容生產(chǎn)分發(fā)都有著重要影響,算法的研發(fā)設(shè)計(jì)偏見使得多元參與主體的情感立場悄然介入,影響著新聞內(nèi)容的真實(shí)客觀。
困境二:算法不透明,個(gè)人數(shù)據(jù)隱私屢遭侵犯。算法設(shè)計(jì)依托的是機(jī)器自主學(xué)習(xí)技術(shù),從數(shù)據(jù)輸入、數(shù)據(jù)產(chǎn)品輸出的流程來看,新聞內(nèi)容生產(chǎn)流程被納入人類無法識別的“生產(chǎn)黑箱”。算法新聞最重要的倫理問題是利益鏈條的“數(shù)據(jù)共享”,在萬物互聯(lián)的媒介生態(tài)下,個(gè)人數(shù)據(jù)隱私保護(hù)只是紙上談兵,用戶的年齡、性別、工作、愛好等信息會(huì)被精確記錄。
困境三:責(zé)任歸屬不明確,問責(zé)機(jī)制不完善。人工智能創(chuàng)作既不是作者主體基于情感而進(jìn)行的個(gè)人創(chuàng)作,也不是簡單的復(fù)制粘貼,而是在數(shù)據(jù)分析和套用模板的基礎(chǔ)上產(chǎn)生的具有較大重復(fù)性的機(jī)器作品。作品創(chuàng)作上既缺乏知識生產(chǎn)的獨(dú)創(chuàng)性,也涉及創(chuàng)作過程中產(chǎn)生的版權(quán)侵權(quán)問題。在快速發(fā)展的智能新聞生產(chǎn)領(lǐng)域,尚未形成可溯源的、完善的新聞問責(zé)機(jī)制,一旦發(fā)生失范現(xiàn)象,很難進(jìn)行追責(zé)。
困境四:內(nèi)容生產(chǎn)同質(zhì)化,報(bào)道模式刻板單一。由網(wǎng)絡(luò)過濾器通過探尋受眾興趣,對用戶進(jìn)行精準(zhǔn)畫像后產(chǎn)生的信息推送,在信息傳輸窄化的過程中,單一的分發(fā)模式,同質(zhì)化的信息重構(gòu)會(huì)把受眾禁錮在“牢固的繭房”之中。所帶來的圈層固化和群體極化現(xiàn)象,影響著受眾個(gè)體的媒介素養(yǎng)以及公眾的價(jià)值認(rèn)知。同質(zhì)化內(nèi)容的覆蓋及單一報(bào)道模式的裹挾,阻礙了公共多元化信息的傳播。
困境五:算法歧視視域下的權(quán)利與權(quán)力沖突。算法歧視指計(jì)算機(jī)系統(tǒng)可以有序地、不公平地歧視某些個(gè)人或群體,使之有利于他人。歧視類型主要分為設(shè)計(jì)者偏見型、數(shù)據(jù)瑕疵型、技術(shù)缺陷型以及經(jīng)濟(jì)利益驅(qū)動(dòng)型,特別是在涉及政治元素的新聞報(bào)道中算法歧視顯著,具體表現(xiàn)為文化偏見、技術(shù)偏見、突發(fā)偏見應(yīng)用于算法程序的設(shè)計(jì)、重構(gòu)及補(bǔ)充。在新聞生產(chǎn)中,新聞傳媒業(yè)的“瞭望者”身份被算法歧視剝奪,而機(jī)器深度學(xué)習(xí)的異化也造成了多元參與者的權(quán)利與權(quán)力的沖突。如雅虎旗下的Flickr 將黑人程序員照片打上“猿猴”的標(biāo)簽進(jìn)行有色人種的歧視;微軟公司AI 聊天機(jī)器人Tay 將臟話與種族歧視的思想輸入進(jìn)了學(xué)習(xí)程序;Facebook 利用爬蟲技術(shù)收集用戶數(shù)據(jù)并通過算法進(jìn)行“個(gè)性化塑造”,干預(yù)總統(tǒng)大選。
面對人工智能技術(shù)參與新聞生產(chǎn)過程中產(chǎn)生的倫理問題,全球新聞業(yè)都在探尋解決的路徑。
路徑一:共筑數(shù)據(jù)安全壁壘,加強(qiáng)國際間合作,建構(gòu)健康媒介生態(tài)。2018 年,Partnership on AI 宣布百度公司成為其中國籍的首位成員,百度將與Partnership on AI 中的其他成員一同致力于AI 研發(fā)標(biāo)準(zhǔn)和全球性AI 政策制定,讓AI 技術(shù)健康發(fā)展[1]。在人工智能領(lǐng)域,中國政府及中國企業(yè)作為全球人工智能技術(shù)發(fā)展的引領(lǐng)開拓者,以切實(shí)有力的行動(dòng)加強(qiáng)國際間關(guān)于倫理問題的合作,探索全球人工智能治理體系,共同促進(jìn)全球人工智能倫理問題的解決,促進(jìn)全球人工智能技術(shù)在各個(gè)領(lǐng)域的發(fā)展。
路徑二:提升人工智能技術(shù)水平,制定智能生產(chǎn)原則。目前,智能算法在運(yùn)用中還存在一些難以突破的瓶頸,例如數(shù)據(jù)的搜集、語義的理解、可靠性較差等,政府、企業(yè)機(jī)構(gòu)和算法工程師需要在技術(shù)上進(jìn)行更高層次的研發(fā),提升人工智能深度學(xué)習(xí)的能力。同時(shí),在基礎(chǔ)建設(shè)、數(shù)據(jù)處理、硬件設(shè)施建設(shè)、服務(wù)和安全隱私等方面,加快制定人工智能發(fā)展的技術(shù)標(biāo)準(zhǔn)和規(guī)范體系,減少人工智能在實(shí)際運(yùn)用中出現(xiàn)的倫理問題。
建立公約原則,規(guī)避倫理風(fēng)險(xiǎn)。(1)透明性原則是基礎(chǔ)。透明則意味著公開,要增強(qiáng)透明性,首先就要公開生產(chǎn)和傳播過程中的相關(guān)信息。接受社會(huì)監(jiān)督,保證信息的可追溯性,具體體現(xiàn)為:在文章顯眼的地方標(biāo)注機(jī)器人生產(chǎn);表明涉及和傳播的算法工程師和公司名稱;如果涉及審核和監(jiān)督過程,還要標(biāo)記審核人員的姓名,保證新聞生產(chǎn)的可溯源性和可追責(zé)性。(2)知情同意原則是前提。人工智能在新聞分發(fā)階段應(yīng)用最高頻的就是個(gè)性化的智能分發(fā),呈現(xiàn)受眾精準(zhǔn)畫像的千人千面分發(fā),此舉不可避免地會(huì)涉及對用戶隱私數(shù)據(jù)的搜集和使用,例如用戶的年齡、性別、愛好、近期點(diǎn)擊瀏覽的內(nèi)容等。因此,要做到讓受眾知情同意,并可以隨時(shí)終止對其數(shù)據(jù)的抓取。(3)風(fēng)險(xiǎn)可控原則是關(guān)鍵。對于新技術(shù)的發(fā)展和使用都要在認(rèn)知其優(yōu)劣的基礎(chǔ)上進(jìn)行,首先,應(yīng)謹(jǐn)慎選擇報(bào)道的范圍和領(lǐng)域。其次,要精準(zhǔn)地選擇數(shù)據(jù)源,合理規(guī)范處理數(shù)據(jù)源。在選擇數(shù)據(jù)源時(shí),一方面要保證其來源的合法性,不得以侵犯他人隱私為由獲得數(shù)據(jù);另一方面要保證數(shù)據(jù)源的完整性和真實(shí)性,當(dāng)數(shù)據(jù)源虛假或片面時(shí),基于數(shù)據(jù)庫所產(chǎn)生的新聞也會(huì)出現(xiàn)虛假和片面的情況。(4)糾察更正原則是保障。在傳統(tǒng)新聞生產(chǎn)過程中,嚴(yán)格的編審制度和固定的分發(fā)流程是對信息高質(zhì)量的保障,對于不慎出現(xiàn)的失實(shí)及失誤做出更正和解釋是新聞媒體應(yīng)盡的義務(wù),真實(shí)是新聞的生命,智能新聞在生產(chǎn)的過程中也必須堅(jiān)守這一原則。由于智能化新聞生產(chǎn)的快速性和海量性,對于每一篇新聞進(jìn)行逐字逐句的內(nèi)容核實(shí)難度較大,因此我們必須有選擇性地對內(nèi)容進(jìn)行糾察,如涉及個(gè)人隱私的、關(guān)系到重大社會(huì)利益的信息必須進(jìn)行核實(shí)之后再發(fā)布,如在新聞發(fā)布后發(fā)現(xiàn)該內(nèi)容出現(xiàn)問題也必須在第一時(shí)間進(jìn)行更正,并且要保證將修改之后的信息通過原渠道方式傳送給受眾。各大新媒體平臺(tái)要設(shè)置內(nèi)容監(jiān)督和舉報(bào)機(jī)制,通過廣大用戶的監(jiān)督來及時(shí)發(fā)現(xiàn)錯(cuò)誤,以保證在最大程度上減少錯(cuò)誤信息帶來的不利影響。
路徑三:加強(qiáng)新聞從業(yè)人員的規(guī)范化培養(yǎng),增強(qiáng)社會(huì)治理參與的主體意識。算法新聞是新聞生產(chǎn)的工具和手段,不具備傳統(tǒng)新聞生產(chǎn)的自主性和自由性,智能新聞是機(jī)器按照人的主體意愿生產(chǎn)出來的內(nèi)容產(chǎn)品,人機(jī)協(xié)同的核心依然體現(xiàn)人的主觀性。所以,在新聞生產(chǎn)的具體的實(shí)踐中,加強(qiáng)算法工程師、媒體經(jīng)理人、新聞從業(yè)者等人才的規(guī)范化培養(yǎng),增強(qiáng)社會(huì)治理的責(zé)任意識,是突破倫理困境的必由之路。(1)加強(qiáng)專業(yè)領(lǐng)域的復(fù)合型人才培養(yǎng)。重視培養(yǎng)和輸出具備交叉學(xué)科背景、技術(shù)實(shí)踐能力的復(fù)合型人工智能人才。(2)重視從業(yè)者的職業(yè)道德提升培養(yǎng)。重點(diǎn)立足于新型智能新聞行業(yè)的政策法規(guī)、公序良俗。(3)貫徹共建共治共享理念及社會(huì)治理參與的主體意識。提升媒體從業(yè)者的社會(huì)責(zé)任感、社會(huì)參與感,明確其媒介生態(tài)構(gòu)建的角色身份及社會(huì)治理參與的主體地位。
路徑四:逐步建構(gòu)健康合理的數(shù)據(jù)法律環(huán)境。在人工智能飛速發(fā)展的時(shí)代,法律呈現(xiàn)出滯后性,國際社會(huì)要合作建構(gòu)合理的國際數(shù)據(jù)法律環(huán)境,為信息的健康生產(chǎn)傳播、媒介健康生態(tài)的建構(gòu)保駕護(hù)航。
針對數(shù)據(jù)隱私和數(shù)據(jù)濫用的問題,歐盟早在1995 年就在相關(guān)數(shù)據(jù)保護(hù)法律中提出了“被遺忘權(quán)”[2]的概念,2012 年通過“岡薩雷斯訴谷歌案”確認(rèn)了這一法律制度。美國在2015 年也設(shè)立了“橡皮擦”法案,來確保未成年人的信息受到保護(hù)。中國在此基礎(chǔ)之上探討“被遺忘權(quán)”的本土化問題,學(xué)術(shù)界也表達(dá)了認(rèn)可的態(tài)度。國際上許多國家已經(jīng)提出人工智能領(lǐng)域涉及算法倫理規(guī)制的倡議,前有阿西洛馬人工智能原則,后有美國計(jì)算機(jī)協(xié)會(huì)提出的算法透明與追責(zé)原則。2018 年5 月生效的歐盟《通用數(shù)據(jù)保護(hù)條例》給予公眾最大限度的隱私數(shù)據(jù)保護(hù)。2019 年中國政府提出了“六大政策”推動(dòng)新一代人工智能的發(fā)展,加強(qiáng)人工智能相關(guān)法律、倫理和社會(huì)問題研究,建立保障人工智能健康發(fā)展的法律法規(guī)和倫理道德框架[3]。在歐洲憲法中,當(dāng)個(gè)人資料“被收集或以其他方式處理”時(shí),便會(huì)觸發(fā)保護(hù)資料法例。在荷蘭,對自愿參與在線個(gè)性化服務(wù)的研究必須遵守相關(guān)的法律和道德框架。
總之,隨著人工智能的快速發(fā)展和落地應(yīng)用,人工智能技術(shù)的安全性已經(jīng)成為全球各國共同面臨的問題,世界各國應(yīng)從倫理道德合作研究、技術(shù)標(biāo)準(zhǔn)制定、構(gòu)建健康的法律環(huán)境等方面加強(qiáng)國際間的合作,共同面對這一新技術(shù)帶來的新問題,為人工智能的安全應(yīng)用保駕護(hù)航。