国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

深度偽造對媒體與人類的致命威脅

2021-05-07 03:09劉建明
新聞愛好者 2021年4期

劉建明

【摘要】生成對抗網(wǎng)絡(luò)偽造的假新聞與視頻,正在操縱美國及多國媒體,成為人類的公害。深度偽造引起人們對假信息的擔憂,對好戰(zhàn)分子可能利用假視頻引發(fā)世界大戰(zhàn)或核戰(zhàn)爭充滿恐懼。AI技術(shù)的魔獸一旦被放出籠子,對媒體的威脅已難以遏制,大量媒體的新聞專業(yè)精神已被無情地劫持。

【關(guān)鍵詞】深度偽造;換臉技術(shù);媒體的迷途;人類的公害

美國大量媒體以炮制假消息而聞名于世,AI技術(shù)又給其瘋狂造假帶來法力。2020年4月26日晚,特朗普在Twitter上轉(zhuǎn)發(fā)了拜登“伸出舌頭,支支吾吾地胡言亂語”一通的視頻,諷刺競選對手的愚笨無能。依照推特的規(guī)定,他不得不在視頻旁貼上“深度偽造”(deepfake)的標簽。[1]深度偽造技術(shù)從業(yè)余愛好的實驗,演變?yōu)槊襟w造假的手段,已成為美國媒體危險的工具。美眾議院情報委員會主席亞當·希夫(Adam? Schiff)警告說,深度造假“讓惡意行動者煽動混亂、分裂或危機,有能力擾亂整個競選活動,包括總統(tǒng)競選”[2]?!吧疃葌卧臁币鹈癖姾驼绲膿鷳n,對以假亂真的消息和緋聞深感震驚。據(jù)英國《連線》(Wired)雜志報道,自2020年7月以來,至少有10萬多名女性被深度偽造創(chuàng)建了裸照,嚴重侵害了他人的隱私和名譽。

一、深度偽造技術(shù)的出爐

“深度偽造”是2014年由在蘋果公司工作的伊恩·古德費羅(Ian? Goodfello)為核心的小組發(fā)明的。[3]他利用多種樣本和數(shù)據(jù),采用相互檢驗和匡糾模型,把不同人的身體與面孔嫁接,轉(zhuǎn)而生成一個新的“真實”而活生生的視頻。這種技術(shù)是信息組構(gòu)和驗證其真假度的兩種數(shù)據(jù)程序的產(chǎn)物,難以發(fā)現(xiàn)其造假的痕跡。據(jù)英國《衛(wèi)報》報道,Deepfake一詞起源于2017年12月,一位自稱“deepfakes”的用戶制作了名為《神奇女俠》的假視頻,將著名演員的臉貼在他人裸體上,以展示淫穢表演賺取流量。社交網(wǎng)站傳播這類視頻或圖片,使換臉技術(shù)越來越逼真、生動和無所不能,報刊刊載這類圖片并附加文字說明,種種變態(tài)被渲染得越發(fā)透徹。[4]基于AI技術(shù)的深度偽造,把若干真實的視頻與音頻疊加與整合,制作出逼真的虛擬作品,精妙的換臉技術(shù)成為超凡入勝的絕技。

深度偽造還可將人臉從一種性別變形到另一種性別,建模于深度模仿(Deep? learning,又譯為深度學習)的數(shù)據(jù)程序,改變?nèi)宋锩娌康难凵窈托θ荨U麄€過程通過生成器(generator)和鑒別器(discriminator)的對證,在兩個數(shù)據(jù)網(wǎng)絡(luò)的對質(zhì)中生成新信息(Generative? Adversarial? Network)。鑒別器不斷驗證生成器新信息的罅漏,逐漸使新信息達到完全真實,當鑒別器不能識別虛擬信息與真實示例的區(qū)別時,一件嚴絲合縫的偽造品就出爐了。生成器作為發(fā)出受控指令的神經(jīng)網(wǎng)絡(luò)(又稱為前饋),經(jīng)過鑒別器的多次反饋逐步改善其象形數(shù)據(jù)的輸出,新的合成信息就越加逼真。在廣泛采樣基礎(chǔ)上的這種模擬過程,使偽造的視頻在真假信息節(jié)點的對抗中走向匹配,所以國內(nèi)通常把 Generative Adversarial Network(GAN)譯為生成對抗網(wǎng)絡(luò)。

伊恩·古德費羅和他的同事在2014年的論文中,最早介紹了生成對抗網(wǎng)絡(luò)的原理。他使用十幾個數(shù)學公式計算生成器信息函數(shù)輸出的差異,使其達到最小化,而鑒別器測試數(shù)據(jù)的差異又力求最大化,讓生成的偽造信息完全符合實例的原貌。[5]生成對抗網(wǎng)絡(luò)構(gòu)成自動編碼器,不斷調(diào)整與場景、年齡和性別相關(guān)的參數(shù),讓人物特別是政治人物說出他們在現(xiàn)實中沒有說的話,展示他們不曾有過的動作。

音頻風格在生成對抗網(wǎng)絡(luò)中隨同視頻轉(zhuǎn)換為頻譜圖,以相應(yīng)的時長和頻率表現(xiàn)聲音的強度。當音頻信號嵌入固定的視頻中,并同人物的口型相吻合,一則偽造人物說話的視頻便活起來。生成器結(jié)構(gòu)作為卷積神經(jīng)網(wǎng)絡(luò)①,把一個說話者的聲音變成另一個說話者的聲音,或把一段樂曲從古典音樂轉(zhuǎn)換成爵士樂,甚至能偽造大眾歡呼的場面,使逼真的景象歷歷在目。2020年2月,《時代》雜志網(wǎng)站使用深度偽造技術(shù),重現(xiàn)了馬丁·路德·金在1963年6月28日發(fā)表《我有一個夢想》的演講場景,許多用戶再次目睹了這個偉大歷史的一幕。

深度偽造最初流行于娛樂、電影和廣告制作,隨著技術(shù)進步達到難以察覺其虛假的程度,越來越被用于新聞報道,干預現(xiàn)實的政治生活。一些網(wǎng)站和電視臺不斷聲明使用深度偽造技術(shù),并不是要造謠生事、蠱惑受眾,而是要塑造和改善娛樂與政治的公共形象,正如有的媒體人所說:“我們從未打算讓我們的軟件幫助用戶傳播錯誤信息,我們只是想提高一下自己的能力?!薄拔覀儧Q定了一些基本規(guī)則:將在程序中專注于制作特定的基模,而不是在背景之外深度造假。只要是娛樂活動,而且是在米姆文化②范圍內(nèi),我們的內(nèi)容不會越過禁區(qū)?!盵6]最近兩年,這項技術(shù)已經(jīng)被不道德地使用,在英美引起廣泛爭議?!皬?016年起,生成對抗網(wǎng)絡(luò)開始出現(xiàn)在新聞文本中,并進入公眾意識,引起人們對‘越來越真實的假新聞和媒體操縱問題產(chǎn)生擔憂。”[7]魔獸一旦被放出籠子,對媒體的威脅已無法遏制,新聞專業(yè)精神也被無情地劫持。

二、美國媒體深度偽造的泛濫

deepfakes最早是為傳播色情而開發(fā)的,多用于騷擾女性,將她們的臉轉(zhuǎn)換成色情視頻。在第一個深度造假程序發(fā)布不久,美國紅迪網(wǎng)(Reddit)就充斥了以名人和政客為主角的假視頻。蓋蒂圖片社最新分析顯示,每個月都有數(shù)以千計的女明星、女演員和女音樂家為主角的“露點”假視頻被上傳到全球最大的色情網(wǎng)站上,每條未經(jīng)當事人同意的視頻獲得幾百萬流量,色情網(wǎng)站從未將其刪除。

在世界最大的三家色情網(wǎng)站XVideos、Xnxx和xHamster上,深度造假視頻一個月內(nèi)就被觀看數(shù)百萬甚至上千萬次,其訪問量在整個互聯(lián)網(wǎng)界排名前十。這些被廣告包圍著的色情視頻,幫助美國這些網(wǎng)站賺錢,遠遠超過亞馬遜和紅迪網(wǎng)。全球首家視覺威脅檢測公司(Sensity)首席執(zhí)行官兼首席科學家喬治·帕特里尼(Giorgio Patrini)說,該公司最近更名為“深度追蹤”(DeepTrace)公司,“除非有一個強有力的理由讓色情網(wǎng)站關(guān)閉并過濾它們,否則我堅信什么都不會發(fā)生”?!叭藗?nèi)匀豢梢宰杂缮蟼鬟@類材料,不會給數(shù)億人瀏覽的網(wǎng)站造成任何后果。”既然如此,大量色情網(wǎng)站已經(jīng)肆無忌憚地使用明星的臉造假,使網(wǎng)上色情波濤洶涌地蔓延開來。好萊塢女演員克里斯汀·貝爾(Kristen Bell)說,當她第一次發(fā)現(xiàn)“偽造”用的是她自己的臉,感到十分驚訝?!凹词官N上‘哦,這不是她的標簽,也很難想象我被人無償?shù)貏兿髁恕?。[8]

美國網(wǎng)絡(luò)上的“偽造品”呈指數(shù)級增長,2019年7月有14678個假視頻,其中96%是色情內(nèi)容,到2000年6月已攀升至49081件。多數(shù)假色情是在特定社區(qū)中發(fā)現(xiàn)的,并由這些社區(qū)創(chuàng)建,僅四大假色情網(wǎng)站的瀏覽量就超過1.34億。[9]Pornhub網(wǎng)站發(fā)布的數(shù)據(jù)顯示,它在2018年的總訪問量達到335億,平均每天訪客有9200萬。幾年中他們總共上傳了479萬個假視頻,消耗了4403PB流量。卡內(nèi)基國際和平基金會網(wǎng)絡(luò)政策倡議研究員喬恩·貝特曼(Jon Bateman)表示:“深度偽造作品的獨特之處在于,視聽元素對我們心理的影響比其他類型的媒體更大。即使在被揭穿后,社交媒體上這些‘廉價偽造品(Cheapfakes)或‘低俗偽造品(shallowfakes)也能改變公眾的看法。”人工智能使媒體得心應(yīng)手地操縱假新聞,讓任何人都能接觸到它,對公眾輿論的影響很容易達到使用者的目的。

當深度偽造用于政治人物,作為美國兩黨互毆的手段,卻成為公眾嘲笑政客品德卑劣的游戲。當年特朗普戰(zhàn)勝希拉里成為總統(tǒng)進入白宮,2017年網(wǎng)上流傳一段二人對跳迪斯科舞的視頻,“朗君與希妹”笑容可掬或似笑非笑地互拋飛眼,扭動腰肢,你來我往,看后讓人樂不可支。2019年5月24日下午5:36,特朗普在推特上發(fā)布了眾議院議長佩洛西一段經(jīng)過編輯的視頻,同時發(fā)表了“佩洛西在新聞發(fā)布會上口吃結(jié)巴”的推文。視頻當晚在??怂怪鞒秩硕嗖妓沟墓?jié)目上播放,佩洛西在說出“監(jiān)護”和“邊界”等詞時哆哆嗦嗦,話語含糊其辭,似乎喝醉了。這段偽造視頻在網(wǎng)上瘋傳很長時間。[10]美國麻省理工學院亞歷山大·阿米尼博士在2020年深度模仿入門課程的開幕式上,播放了他制作的一段視頻:他邀請了前總統(tǒng)奧巴馬參加培訓班。奧巴馬在視頻中說:“深度模仿正在改變很多領(lǐng)域,從機器人到醫(yī)學,以及介于兩者之間的一切。我通過視頻會議參加了這個課程的學習。”最后奧巴馬說:“事實上我沒有參加這次培訓,我被偽造了,這段視頻是用深度模仿和人工智能創(chuàng)建的。”當場的觀眾才恍然大悟,要不是“奧巴馬”自我揭穿偽造,人們還以為他真的參加了這次培訓。

美國共和黨和民主黨互撕其恥、互泄仇恨,常用深度偽造相互挖坑,對大眾了解政治真相構(gòu)成翳障。在2020年末總統(tǒng)大選中,為了阻止計票,特朗普和他的盟友在推特上發(fā)布了一段陰謀論的視頻:有人焚燒投給特朗普的選票。這段誤導視頻被推特刪除后,特朗普的盟友又拋出另一段假視頻,好像拜登承認選民造假,共和黨國會議員格林上傳“拜登正在努力防止選民欺詐”的情節(jié),渲染選舉舞弊是如何在幕后策劃的。經(jīng)福克斯新聞主播埃里克播出后,又發(fā)布在YouTube特朗普的主頁上,讓更多的人對總統(tǒng)選舉的合法性產(chǎn)生懷疑。

三、傳授深度偽造技術(shù)的美國網(wǎng)站

問題的嚴重性還在于,美國有多個網(wǎng)站公開向大眾傳授視頻偽造技術(shù),只要掌握了這套程序,任何人在電腦上都可制作不同程度的“深度偽造”品。格蕾絲·溫德海姆(Grace Windheim)大學畢業(yè)后在舊金山創(chuàng)業(yè)公司Kapwing擔任內(nèi)容創(chuàng)作員,負責管理YouTube頻道。2020年8月初,她在谷歌Trends網(wǎng)站上發(fā)現(xiàn)了一個“Baka Mitai”的假唱視頻,事后在YouTube上找到了這個造假程序,不到一天,她就將這首歌與視頻同步編制了一個新版本教程。她發(fā)布視頻說:“制作這些深度造假作品并疊加音頻不像你想得那么復雜,深度造假用于娛樂和惡搞之間有一條微妙的界限。在本教程中,我想說的是,‘你如何制作這款特殊的深度假唱,但可怕的是,這種腳本可以用來制作任何你想要的深度偽造?!盵11]溫德海姆這個deepfake程序,在2020年末已經(jīng)獲得超過1.2億的點擊量。

深度偽造正在美國興起,在其他國家的媒體上也在陸續(xù)出現(xiàn),一些網(wǎng)站紛紛向用戶傳授深度偽造技術(shù),用戶對制作假視頻感到非常“真實”和“好玩”。這類偽造品并非都用于丑化、歪曲或攻擊某人,很多人用其復活歷史、動態(tài)美術(shù)、自我欣賞或醫(yī)學研究。只要有圖片或視頻資料,人們就可再現(xiàn)栩栩如生的場景,讓文物活起來,甚至使“蒙娜麗莎”說話或發(fā)出笑聲。許多用戶對機器模仿、圖像識別和計算機視覺發(fā)生濃厚興趣,紛紛尋找專業(yè)網(wǎng)站學習深度造假技術(shù),一時機器偽造軟件在美國“洛陽紙貴”。

據(jù)美國學者比保姆·斯塔夫(Beebom Staff)介紹,美國有八個網(wǎng)站傳授偽造技術(shù)名聲在外,掌握了它們的制假程序,輕而易舉就會使用換臉技術(shù),這八個網(wǎng)站深受用戶歡迎。[12]它們分別是:(1)Deepfakes web β(深假網(wǎng)β)。瀏覽和掌握該網(wǎng)站的造假技術(shù),每小時付費兩美元。(2)AvengeThem(復仇者聯(lián)盟網(wǎng)),創(chuàng)建靜態(tài)3D人臉模型,訪問和學習該網(wǎng)站的技巧無須付費。(3)Reface(修臉網(wǎng)),展示一個名為Doublicat的深度偽造程序,指導人們制作有趣的表情包,幾秒鐘就可把一張臉疊加到“動圖”上。用戶可以免費使用這套程序,但程序內(nèi)難度大的技術(shù)需要用戶付費購買。(4)MachineTube(機器筒網(wǎng)),開發(fā)了一款Fake App桌面應(yīng)用程序,只要用戶有一個帶有高端GPU的電腦就能做出深度偽造視頻。在該網(wǎng)站學習Fake App不收費。(5)DeepFaceLab(深臉實驗室網(wǎng)),推出一個Windows程序,指導用戶創(chuàng)建深度假視頻,無須付費。(6)Deep Art(深厚藝術(shù)網(wǎng))在2020年11月開發(fā)了一款走紅的應(yīng)用軟件,根據(jù)古代建筑、繪畫和歷史遺跡,將任何圖片變成活的藝術(shù)品,諸如梵高、達·芬奇、米開朗基羅、畢加索等畫家的作品都可制成“動態(tài)”畫面。選擇這家網(wǎng)站學習,免費安裝Android/iOS(移動操作系統(tǒng)),但程序內(nèi)的高超技術(shù)仍需付費。(7)Face Swap(換臉網(wǎng))不僅是一款深度造假的應(yīng)用程序,還能產(chǎn)生3D效果。安裝Android免費,安裝iOS需付0.99美元。(8)微軟Face Swap網(wǎng),是微軟公司開發(fā)的一款應(yīng)用程序,使用圖像識別技術(shù)交換人臉,強大的引擎可讓用戶瞬間換臉,不留任何瑕疵。如果用戶對結(jié)果不滿意,可以調(diào)整膚色、亮度和轉(zhuǎn)頭等動作,還可改變用戶的發(fā)型、服裝和動畫場景。

用戶用這款技術(shù)自我拍照,興致勃勃地上傳網(wǎng)絡(luò)留影紀念,個個樂不思蜀。美國人普遍認為,媒體沒有理由過濾、刪除這類假視頻,正如xHamster網(wǎng)站副總裁亞歷克斯·霍金斯(Alex Hawkins)所說,“本公司對深度偽造沒有具體政策,像對待其他非雙方同意的內(nèi)容一樣對待它們”?!拔覀兺耆斫馊藗儗ι疃葌卧斓膽n慮,有人如果提出刪除的要求,經(jīng)過審查被認定假視頻確實沒有經(jīng)過本人同意,我們就把它移除?!盵13]深度偽造檢測公司Sensity提供的數(shù)據(jù)顯示,2020年前8個月每月有多達1000個深度偽造視頻上傳到色情網(wǎng)站,并向主流媒體擴散。大量媒體對深度偽造愛不釋手,已經(jīng)身陷招搖撞騙的迷途,不再是人類生存環(huán)境的守望者。

四、深度偽造的危害與社會風險

偽造技術(shù)引發(fā)美國人更大的擔憂是,它被用來操縱政治,威脅社會與人類安全?!渡疃葌卧炫c信息啟示錄》的作者尼娜·??耍∟ina Schick)認為,美國的信息生態(tài)系統(tǒng)正陷入腐敗,敵對玩家利用深度偽造這種腐敗方式給媒體造成嚴重威脅。她在2020年寫道:“視頻長期以來被認為是最無可指責的證據(jù),但是現(xiàn)在完全利用人工智能來造假,偽造品很快就能唾手可得。好萊塢女明星已經(jīng)成為深度造假色情作品的對象,她們的身份被竊取,并被用于有辱人格的目的。在未來,我們無法辨別什么是真實的,什么不是?,F(xiàn)任美國總統(tǒng)是一個喜歡使用‘假新聞的法西斯分子,很快我們可能會發(fā)現(xiàn)自己被一個能夠成功部署假新聞的法西斯分子所統(tǒng)治?!盵14]

深度偽造引發(fā)的假新聞激起人們嚴重的關(guān)切,尤其在2020年美國總統(tǒng)選舉中許多新聞讓人不敢相信。正如美國作家H.蘿莉所說,我們進入深度造假時代,深度造假是一種合成媒介。它可以是圖像,也可以是視頻或文本,都是人工智能生成的?!拔覀儸F(xiàn)在生活在一個相當瘋狂的時代,人類正面臨著巨大的挑戰(zhàn)。如果你試圖通過研究雙方的信息和論點建立一個有見地的觀點,你會有一個令人沮喪的發(fā)現(xiàn),雙方對事實和現(xiàn)實的解釋似乎完全不同。雙方都認為自己看到的東西是正確的,他們不是產(chǎn)生幻覺或瘋狂,就是一種純粹的邪惡?!盵15]新聞人對假新聞防不勝防,無法識別、無法審核,真?zhèn)坞y辨,媒體的權(quán)威性可能一落千丈。南卡羅萊納大學新聞與大眾傳播學院院長安德里亞·希克森(Andrea Hickerson)說:“在最基本的層面,深度偽造是偽裝真相的謊言,如果我們把它們當作真理或證據(jù),我們很容易得出錯誤的結(jié)論,從而可能帶來災(zāi)難性的后果?!薄白蠲黠@的例子是,像特朗普那樣的政客最廣泛地使用這項技術(shù)進行自我宣傳,讓廣大用戶分享他們精心制作的謠言。盡管它是膚淺的贗品并很快會被揭穿,但人們?nèi)匀幌嘈潘!比斯ぶ悄芄綡ypergiant Industries的首席執(zhí)行官本·拉姆表示:“問題不一定在于GAN技術(shù)。問題是,壞人目前擁有巨大的優(yōu)勢,而且媒體沒有適當?shù)慕鉀Q方案來應(yīng)對日益增長的威脅。deepfakes變得如此嚴重,即使提出了解決這一問題的辦法也為時已晚?!盵16]

如果任何東西都可以被偽造,包括現(xiàn)實客觀存在的證據(jù),那么一切都可以被否認,人們的道德將淪喪得無法挽救。這是因為“深度造假似乎會帶來三種主要的危險。第一種是,虛假的媒體貶低人們的智商,讓受眾產(chǎn)生錯誤行為,給人們造成直接損害。第二種可以說是更嚴重的一種,當我們都覺得自己無法再相信任何事情時,我們可能變得冷漠,拒絕承擔任何社會和公民義務(wù),或者基于完全的謊言做出糟糕的選擇。第三,當任何事情都可以被令人信服地偽造時,撒謊者很容易找到欺騙的機會和逃脫的理由?!盵17]

許多人敲響另一個警鐘:深度造假正在滲入金融領(lǐng)域,支付業(yè)務(wù)出現(xiàn)難以識破的騙局。美國聯(lián)邦貿(mào)易委員會報告稱,音頻深度造假很容易實施財務(wù)欺詐。2019年早些時候,一家公司的CEO被AI產(chǎn)生的聲音欺騙,將24.3萬美元轉(zhuǎn)入他認為是公司供應(yīng)商的銀行賬戶上,事后才知道他被騙了。同年一家英國能源公司向詐騙分子轉(zhuǎn)移了20萬英鎊,犯罪分子利用深度造假技術(shù)在電話中冒充德國母公司的首席執(zhí)行官。求知網(wǎng)站公司(KnowBe4)非洲內(nèi)容戰(zhàn)略高級副總裁安娜·科拉德補充說,犯罪分子以深度偽造很容易竊取他人賬戶,這類軟件預計在2021年會繼續(xù)增長,操縱人們支付的手段將更加狡猾?!笆謾C銀行木馬和惡意應(yīng)用程序普遍增多,加上手機用戶缺乏防范意識,金融犯罪將容易得手?!盵18]

2019年一款名為“ZAO”的換臉App(應(yīng)用程序)在我國網(wǎng)絡(luò)火爆,不少網(wǎng)友在朋友圈、微博上分享自己換臉后的短視頻。9月3日,工信部約談“ZAO”App相關(guān)負責人,要求其開展自查整改。[19]“換臉”技術(shù)嚴重威脅用戶的信用安全,收集、加工、存儲和擴散人臉信息給人的生存帶來巨大風險。在“刷臉”廣泛用于生活的多種場景的今天,換臉技術(shù)已成為人類公害,用戶的面部信息一旦被盜用,人們在“丟臉”之后,隨之可能存款被盜、被誣陷,喪失了清白和信譽。

美國和平人士中還充斥另一種恐懼,即深度偽造一旦被好戰(zhàn)分子利用,很可能引發(fā)世界大戰(zhàn)或核戰(zhàn)爭。他們想象,用戶使用多國軍隊演習的視頻制作若干國家對另幾個國家發(fā)動軍事進攻,攜帶核彈頭的導彈紛紛發(fā)射,飛向敵對大國。社交媒體一旦傳播這樣的假視頻,可能引起遭受進攻的國家發(fā)起反擊,一場烈焰沖天的人類浩劫就將降臨。2018年初,美國夏威夷緊急事務(wù)管理局的一名員工因失誤向公眾發(fā)出關(guān)于核彈來襲的公告,短時間內(nèi)引發(fā)巨大騷亂。[20]如果不法分子利用深度偽造發(fā)布類似虛假信息,社交媒體就成為戰(zhàn)爭的導火索,給一個國家以至全人類造成慘重的災(zāi)難。在一國之內(nèi),極端分子利用媒體發(fā)布偽造信息,進行暴力和恐怖煽動,一些民眾很容易被裹挾進去,給社會帶來嚴重的惡果。網(wǎng)絡(luò)平臺傳播此類信息引發(fā)暴亂,必然要承擔罪責,深度偽造對媒體的嚴重危害,讓媒體時時都命懸一線。

深度偽造正在迅速向歐洲、印度、南美和日本擴散,不僅演藝明星、政界、企業(yè)家被污名化或遭受欺詐,普通民眾也可能遭到誣陷,甚至被拖進“犯罪”的泥淖。巴西某些媒體不僅用深度偽造傳播色情視頻,而且編造政治家的虛假活動,引起許多人的恐慌。2019年7月25日,證人(WITNESS)媒體工作室在巴西圣保羅舉辦了一場名為“預防深度造假和合成媒體”的會議,討論如何應(yīng)對智能造假對國家的潛在威脅。日本櫻美林大學平和博教授說:“AI換臉技術(shù)目前以超高性能的速度發(fā)展,以前需要100張照片才能做到以假亂真的換臉,現(xiàn)在只需要一張即可,因為這一技術(shù)被泛濫使用,換臉侵權(quán)的犯罪案件已經(jīng)不僅僅局限于名人,連一般人也成為犯罪分子的目標?!盵21]

五、防范深度偽造的荊棘之路

許多美國人抵制深度偽造的呼聲正在高漲,從公眾、科技公司到政府機構(gòu)都提出媒體要把傳播偽造品列為職業(yè)禁忌。研究者一致認為,預防深度偽造首先需要受眾的獨立思考,不斷提高媒介素養(yǎng),對社會現(xiàn)象要有敏銳的辨別力。希克森(Andrea Hickerson)說:“保護自己不被深度偽造欺騙的最好方法是永遠不要只看表面現(xiàn)象,不能假設(shè)眼見為實。一般來說,人們在社交媒體上分享的東西都很草率,一旦看到它,應(yīng)該想想它是從哪里來的,誰或什么是原始來源?”[22]

科技被用于做壞事,最好由科技的正面用途來消除,美國有些科技研究機構(gòu)和公司正在開發(fā)深度偽造的檢測技術(shù)。美國卡內(nèi)基梅隆大學、華盛頓大學、斯坦福大學和馬克斯·普朗克信息研究所(Max Planck Institute for Informatics)等機構(gòu)的研究人員,都在設(shè)計如何識別偽造的軟件,試圖用科技消除科技的負面作用。Facebook公司已經(jīng)撥款1000萬美元用于檢測AI造假研究,借助區(qū)塊鏈技術(shù)追溯視頻來源,在這類視頻上傳時進行篩選和攔截。[23]華盛頓大學和艾倫人工智能研究所的研究人員在2019年推出一款名為Grover的可控文本生成模型和一個偽文本的檢測系統(tǒng),用以揭露機器生成的“神經(jīng)假新聞”(neural fake news),但其識別真假的能力極其有限,幾乎沒有媒體采用。

有人指出,隨著技術(shù)的不斷發(fā)展會產(chǎn)生更狡猾的虛假視頻,檢測深度偽造技術(shù)也許變得無效,打擊深度偽造已經(jīng)變成一場貓捉老鼠的追逐?!安还芪覀冏鍪裁?,制造并操縱假視頻的人總會想出辦法?!盵24]由于人工智能的對抗性質(zhì)和誘導方式,當出現(xiàn)一個足夠好的檢測器時,生成模型也會隨之變得更機智,力求有效地繞開它。在這個沒完沒了的貓捉老鼠的游戲中,只能不斷爭取開發(fā)更好的檢測器,粉碎深度偽造對人類的威脅。

美國政界人士期待法律發(fā)揮作用,采取果斷措施出臺法律條文消除人類這一公害,但至今收效甚微。2019年6月12日,美國國會提出《深度偽造責任法案》(Deep fAkes Accountability Act),立法的目的是“我們需要做好準備,防范外國競爭對手利用深度偽造技術(shù)散布虛假信息,干涉選舉活動”。6月28日,美國國會又通過了《2019年深度偽造報告法案》(Deepfake Report Act of 2019),要求美國國土安全部(DHS)定期發(fā)布關(guān)于深度造假技術(shù)的評估報告,回應(yīng)公眾對虛假信息負面影響的關(guān)切。2019年7月1日生效的美國弗吉尼亞州的反色情復仇修正法案,將“制作、傳播虛假的裸體或性視頻或圖像”以脅迫、騷擾或恐嚇他人的行為認定為刑事犯罪。加利福尼亞州、得克薩斯州和馬薩諸塞州等也在研究出臺相關(guān)法案來規(guī)制深度偽造。[25]但美國政界至今沒有提出嚴厲懲治使用深度偽造技術(shù)的措施。

美國網(wǎng)絡(luò)技術(shù)專家愛德華·西格爾(Edward Segal)綜合政界、商業(yè)人士和數(shù)字技術(shù)專家的建議,提出防范深度偽造的七種途徑:(1)媒體要聽取社會意見,政府要對媒體傳播虛假信息提出警告。(2)媒體對傳播內(nèi)容要事先進行自我評估。評估的重點是,哪些內(nèi)容易被誤解或掩蓋,什么樣的信息在公眾中能產(chǎn)生強烈的共鳴,媒體防止?jié)撛诘钠墼p存在什么弱點。(3)加強同社會各領(lǐng)域的溝通,直接與客戶、其他媒體和公眾對話,主動發(fā)現(xiàn)網(wǎng)絡(luò)安全漏洞。(4)在信息生態(tài)系統(tǒng)中預先確立話語權(quán)和品牌,主動接洽第三方驗證者,接受驗證機構(gòu)的批評與監(jiān)管。(5)媒體公司的員工需要經(jīng)常培訓,提高鑒別偽造信息的能力。(6)對上傳損害媒體聲譽的視頻要訴諸法律,通過法律解決問題。(7)用戶上傳信息違反平臺的服務(wù)條款,要立即刪除。[26]

令人沮喪的是,美國大部分媒體對拒絕深度偽造猶豫不決,總是想方設(shè)法留有余地。例如,2020年2月,推特盡管宣布禁止用戶上傳“可能影響公共安全或造成嚴重傷害后果”的合成視頻,但只要標出“偽造品”字樣,平臺是否刪除要視其后果。曾多次傳播虛假信息和仇恨言論的Facebook,拒絕從其Instagram平臺上刪除首席執(zhí)行官馬克·扎克伯格的深度偽造視頻。這是一段《華盛頓郵報》用演員的聲音篡改的真實畫面,臉書告訴CNN商業(yè)頻道,根據(jù)新的深度造假政策,該視頻不會被刪除。Facebook還曾拒絕刪除美國眾議院議長南?!づ迓逦鳎∟ancyPelosi)的虛假視頻。在社會輿論的壓力下,在2020年7月,臉書不得不向社會宣布,“刪除任何違反其關(guān)于裸體、圖像暴力、壓制選民或仇恨言論規(guī)定的視頻”[27]。不久,《華盛頓郵報》設(shè)立了“媒體求證委員會”(Media Forensics Committee),負責甄別深度偽造品,在評估其危害程度后才決定是否將其清除出網(wǎng)站和版面。

顯然,深度偽造在美國媒體上興風作浪,AI技術(shù)既無責也無罪,罪責在于使用AI技術(shù)的人及制度。美國的兩極分化充斥著社會仇恨,兩黨你死我活的相互誣陷和攻擊,以及媒體不擇手段地追求流量和利潤,是深度偽造在美國泛濫的根源。正如《人民日報》的評論文章《AI換臉,別只顧著好玩》指出的:“技術(shù)是中立的,但使用技術(shù)的人是有立場的?!盵28]

注 釋:

①參見百度百科“卷積神經(jīng)網(wǎng)絡(luò)”詞條,https://baike.baidu.com/item/卷積神經(jīng)網(wǎng)絡(luò)/17541100 ?fn=aladdin.

②參見百度百科“米姆文化”詞條。

參考文獻:

[1]David Covucci,Has this clip of Biden with his tongue out destroyed the fabric of democracy? The Daily Dot,Apr 27,2020.

[2]A.B. Gray,How Deepfakes Could Literally Change the Face of Movies.Fandom,Jun 24,2019.

[3]Kristina Libby, Deepfakes Are Amazing. Theyre Also Terrifying for Our Future. Popular Mechanics,Aug 13,2020.

[4]Alex Hern, Counter hate ...The Guardian (London), 25 Jan.2018.

[5]Ian Goodfellow,Generative adversarial networks,NIPS workshop,2014.

[6]Karen Hao,Memers are making deepfakes, and things are getting weird,MIT Technology Review,Aug 28,2020.

[7]Thomas Wood,Generative Adversarial Network.https://deepai.org/.

[8]Matt Burgess,Porn Sites Still Wont Take Down Nonconsensual deepfakes,WIRED,Aug 30.2020.

[9]Matt Burgess,Porn Sites Still Wont Take Down Nonconsensual deepfakes,WIRED,Aug 30.2020.

[10]Carly Minsky,‘Deepfakevideos:to believe or not believe? The financial times,Jan 26,2021.

[11]Karen Hao,Memers are making deepfakes, and things are getting weird,MIT Technology Review,Aug 28,2020.

[12]Beebom Staff,8Best Deepfake Apps and Websites You Can Try for Fun,Beebom Media,Dec 29,2020.

[13]Matt,Burgess,Porn Sites Still Wont Take Down Nonconsensual Deepfakes,WIRED,Aug 31,2020.

[14]Mike Stafford,‘Deep Fakes and the Infocalypseby Nina Schick,faithfulpundit.co.uk,Oct 14,2020.

[15]Hi Lori,Is seeing believing?Deepfakes and the information apocalypse,Oct 25,2020.https://www.betteratenglish.com/

[16]Sam Bocetta,Deepfakes are a problem,whats the solution?AT&T Business,Aug 5,2019.

[17]Hi Lori,Is seeing believing? Deepfakes and the information apocalypse,Oct 25,2020.https://www.betteratenglish.com/

[18]Schalk Burger,KnowBe4 warns of AI,deepfakes in social engineering attacks this year.Jan 27,2021.

[19]工信部就“ZAO”App網(wǎng)絡(luò)數(shù)據(jù)安全問題開展問詢約談[N].人民日報,2019-09-04.

[20]曹建峰.深度偽造技術(shù)的法律挑戰(zhàn)及應(yīng)對[J].信息安全與通信保密,2019(10):35-40.

[21]在日本的AI換臉,滋生各種問題[EB/OL].https://www.sohu.com/a/376201060_100207483.

[22]Kristina Libby,Deepfakes Are Amazing. Theyre Also Terrifying for Our Future. Popular Mechanics,Aug 13,2020.

[23]苗爭鳴.可怕的“深度偽造”技術(shù)[J].世界知識,2019(22):70-71.

[24]Madison Latiolas,Deepfakes,LSU Faculty Websites,Jan 2021.

[25]BBC:Virginia bans‘deepfakesand‘deepnudespornography (2019-07-02).https://www.bbc.com/news/technology-48839758

[26]Edward Segal,Deepfakes:7Ways To Guard Against This New Form Of Disinformation,F(xiàn)orbes.com,Jan 11,2021.

[27]Hadas Gold,F(xiàn)acebook tries to curb deepfake videos as 2020 election heats up ,CNN Business(2020-01-07).

[28]葉子.AI換臉,別只顧著好玩[N].人民日報(海外版),2019-09-08.

(作者為清華大學新聞與傳播學院教授)

編校:董方曉