李靜
AI繪畫:特朗普被警察逮捕。
人們曾信奉一些普遍的經(jīng)驗(yàn),例如“謠言止于智者” “有圖有真相”,但現(xiàn)在好了,謠言起于“智者”——人工智能,而被用來證實(shí)真相的圖片,也許本身即是謊言。當(dāng)?shù)貢r間4月4日,美國前總統(tǒng)特朗普正式以被告身份出席紐約州地方法院非法封口費(fèi)案件庭審現(xiàn)場時,很多人的第一反應(yīng)卻是:“假的吧?”因?yàn)椤疤乩势毡徊丁钡募傧⒑图僬掌呀?jīng)傳播快半個月了,當(dāng)事情真的發(fā)生時,人們反而不敢相信。
之前的假照片幾乎成為連續(xù)劇,每天都在上新——“特朗普在前面跑得氣喘吁吁,執(zhí)法人員在后面緊追不舍”,“特朗普遭到紐約市警察圍毆、逮捕,場面混亂”,“特朗普的鐵窗淚和獄中生活”,“特朗普火拼越獄”……幾乎是一部合格的好萊塢大片配置。
這些瘋傳的“特朗普系列”全部由AI制作生成,最早是信息調(diào)查網(wǎng)站bellingcat創(chuàng)始人、英國獨(dú)立記者艾略特·希金斯的惡作劇,他在網(wǎng)上讀到特朗普可能被逮捕的消息后靈機(jī)一動,想將這一事件“可視化”。于是,希金斯在AI繪圖工具M(jìn)idjourney上輸入相應(yīng)提示詞,例如“特朗普在被捕時摔倒了;新聞報(bào)道畫面?!彪S后,他將Midjourney生成的圖像發(fā)布在社交媒體上,并在帖子中寫道:“在等待特朗普被捕時,制作了特朗普被捕的圖片。”
網(wǎng)友轉(zhuǎn)發(fā)時可不會細(xì)看他寫了什么,僅僅兩天后這些內(nèi)容的瀏覽量已突破500萬次,圖片在經(jīng)由他人重新轉(zhuǎn)發(fā)后,騙到了很多人。有用戶在轉(zhuǎn)發(fā)時,配上“突發(fā)新聞:特朗普今晨在曼哈頓被捕”“震驚!特朗普被逮捕并押往聯(lián)邦監(jiān)獄”等文字。還有人疑惑地在圖片下提問:“為什么特朗普被捕的事沒上新聞?”
“在批量制造虛假但可信的圖像方面,AI已經(jīng)向前邁進(jìn)了巨大一步?!薄度A盛頓郵報(bào)》評論說。那么,這項(xiàng)技術(shù)的能力和可獲得性是否已經(jīng)大大超過了監(jiān)管和立法的反應(yīng)以及企業(yè)的控制,從此使得真相更加模糊?
“我只是在胡鬧而已?!毕=鹚菇邮懿稍L時說,事情的發(fā)酵速度讓這位始作俑者也始料未及,“我以為大概也就5個人會轉(zhuǎn)發(fā)?!边^去,制作一張假照片還需要一位photoshop高手做上整整一下午,而現(xiàn)在,用戶只需提供一個簡單的文字提示,這些工具就能迅速生成以假亂真的圖像,背景中往往還包含大量令人信服的細(xì)節(jié),更重要的是,其能夠高度模仿新聞機(jī)構(gòu)風(fēng)格的照片。
比如,在最近的中文互聯(lián)網(wǎng)上,不僅流傳特朗普被捕的圖像,還有大量AI生成的上世紀(jì)80年代、90年代的照片,這些照片中,無論是主角還是背景,都擁有非常真實(shí)的細(xì)節(jié),除此之外,還有人戲謔地把《星球大戰(zhàn)》中的角色或者機(jī)器人相當(dāng)真實(shí)地“鑲嵌”進(jìn)那些八九十年代的街頭圖像之中,由于細(xì)節(jié)過于逼真,看起來竟然一點(diǎn)都不違和。相當(dāng)多的人開始擔(dān)憂,也許未來不再有“真實(shí)”的歷史,人們的記憶也會被混淆。
AI繪畫:一些電影元素被“鑲嵌”進(jìn)上世紀(jì)八九十年代的生活場景。
有關(guān)AI對攝影界的影響,攝影師們有過討論。首先當(dāng)然是版權(quán)問題,因?yàn)樯善鞯臄?shù)據(jù)庫是通過在互聯(lián)網(wǎng)上抓取數(shù)十億張帶有相關(guān)文本描述和標(biāo)簽的圖像而構(gòu)成的。在其中,人工智能公司Stability AI受到了攝影師的集體侵權(quán)指控,Getty圖庫也備受詬病。而有關(guān)圖片質(zhì)量,攝影師們從專業(yè)角度認(rèn)為,AI還沒有能夠徹底以假亂真。
紐約的攝影師查理·英格曼對圖像生成器的圖片研究了一段時間,他發(fā)現(xiàn)人工智能對人類身體的理解是有限的,一個情感可能被定義為快樂,因?yàn)樵S多帶微笑的圖像都被標(biāo)記為“快樂”,但人工智能無法識別其他微妙的姿態(tài),例如放松的肩膀。哥倫比亞大學(xué)博士明妮·艾泰路發(fā)表文章說,當(dāng)使用Midjourney進(jìn)行圖像生成時,系統(tǒng)會反復(fù)出現(xiàn)刻板印象,例如,當(dāng)她在生成器中輸入“綠色的衣服”這樣的描述時,系統(tǒng)生成的總是黑人,她推斷Midjourney將明亮的顏色與黑人膚色聯(lián)系起來了。更不用說AI圖像還會有一種不自然的光澤和質(zhì)感,即便是寫實(shí)風(fēng)格。
曾拍攝過《算命》《老唐頭》等獨(dú)立紀(jì)錄片的導(dǎo)演徐童也注意到了這些“有意思的照片”,因?yàn)楸緦I(yè)為新聞攝影,后來又在不斷用紀(jì)錄片追隨“真相、真實(shí)、真理”,他格外關(guān)注AI的發(fā)展。“人工智能生成圖像還處于嬰兒時期。“徐童對《中國新聞周刊》說,AI生成的圖片對于專業(yè)人士而言尚不難辨別真?zhèn)?,專業(yè)攝影師們似乎也不認(rèn)為當(dāng)下它能夠?qū)θ藗兯枰恼鎸?shí)照片造成什么重大影響。但徐童也承認(rèn),AI的發(fā)展是迅速的,也許很快就進(jìn)化。在他看來,越來越逼真的AI生成圖像目前主要分兩類,要么是很容易辨別真?zhèn)蔚膽蛑o,某種程度像是民眾的黑色幽默,要么是對真實(shí)圖片的高度擬仿,例如那些80年代的街景,人們擔(dān)心的大約為后者。
但這樣的圖片在徐童眼中,類似于文物界的贗品,“普通人怎么能分清《蘭亭序》的真跡和《蘭亭序》的贗品?分不清。但畢竟還是有真跡在那,還是有專業(yè)的人能分清楚。”而即便人們看的是“贗品”,這個擬仿到位的“贗品”并不會覆蓋“真品”,也不會使人們對“真品”本身的感受和印象產(chǎn)生什么混淆,所以不必對“贗品”產(chǎn)生恐慌。
何況人們的記憶和對歷史的理解,有時候并不一定全部基于非虛構(gòu)信息和影像。學(xué)者王學(xué)泰曾經(jīng)在他的《游民文化與中國社會》等書中描繪過一種現(xiàn)象:宋朝以后,中國社會受戲曲、曲藝影響極大,例如清末,義和團(tuán)成員在重大活動中喜歡將裝束向歷史中的忠臣名將靠攏,例如黃忠、馬超等,他們的服飾參考正是戲曲中古人的樣貌。太平天國的裝束、官職以及作戰(zhàn)方式都曾向歷史學(xué)習(xí),他們學(xué)習(xí)的歷史其實(shí)是通俗文藝中所描述的歷史。
AI繪畫:OpenAI CEO山姆·阿爾特曼乘坐UFO,在中國鄉(xiāng)村留影。
復(fù)旦大學(xué)新聞學(xué)院教授湯景泰告訴《中國新聞周刊》,在那個時候,“戲曲不但建構(gòu)了一些人對于古代歷史的記憶,而且在塑造他們相應(yīng)的行為”,可以說,即便在有信史的情況下,虛構(gòu)的東西仍然在“參與我們相應(yīng)的一些集體記憶建構(gòu)?!庇绕鋵τ诤⒆雍褪芟鄳?yīng)教育比較少的人,恐怕一直以來都難以對虛構(gòu)和非虛構(gòu)內(nèi)容準(zhǔn)確地進(jìn)行分辨。
因此,湯景泰認(rèn)為,如今AI所制造的一切信息,最值得警惕的并非藝術(shù)、玩笑或歷史圖片,而是那些被故意制造出來的,欺騙、誤導(dǎo)他人的“謠言”,這些“謠言”會使很多無辜者受害,更令人擔(dān)憂的,是以謠言為代表的各類虛假信息往往深受現(xiàn)實(shí)政治權(quán)力結(jié)構(gòu)的影響,在潛移默化中影響特定問題的社會認(rèn)知,甚至引發(fā)社會動蕩。
不久前,一條“杭州市政府3月1號取消機(jī)動車依尾號限行”的“新聞稿”在互聯(lián)網(wǎng)上廣泛傳播。后來經(jīng)過警方調(diào)查,發(fā)現(xiàn)這是一條不實(shí)新聞——2月中旬,杭州一個小區(qū)業(yè)主群在討論ChatGPT,一位業(yè)主開玩笑說,嘗試用它寫篇杭州取消限行的新聞稿看看。隨后這位業(yè)主在群里直播了ChatGPT寫作過程,還把文章發(fā)群里。沒有圍觀全程的業(yè)主不明就里,以為是真的新聞,截圖轉(zhuǎn)發(fā),最后以訛傳訛。
自2004年美國傳播學(xué)者拉爾夫·凱伊斯提出“后真相時代”概念、2016年《牛津英語詞典》將其作為當(dāng)年的年度詞匯收藏和發(fā)布以來,“后真相”就成為人們不得不正視的新現(xiàn)象。所謂“后真相”,是指人們不再相信真相,只相信感覺,只愿意去聽、去看想聽和想看的東西。湯景泰告訴《中國新聞周刊》,從那個時候起,新聞倫理已經(jīng)開始不斷受到挑戰(zhàn)。隨著電腦技術(shù)不斷發(fā)展,2018年“深度偽造”(Deepfake)概念被學(xué)界提出,那時,人工智能已經(jīng)開始將圖片或視頻合并疊加到源圖片或視頻上,借助神經(jīng)網(wǎng)絡(luò)技術(shù)進(jìn)行大樣本學(xué)習(xí),將個人的聲音、面部表情及身體動作拼接合成虛假內(nèi)容。
在國內(nèi),第一次引起人們注意的“深度偽造”大概是2019年B站的一段視頻——94年版《射雕英雄傳》中朱茵的臉被換成楊冪,從服飾發(fā)型到神態(tài)動作都是原演員朱茵的,只有五官成了楊冪,卻絲毫不違和。那時AI的技術(shù)已經(jīng)引發(fā)人們的擔(dān)心,所以制作朱茵和楊冪換臉視頻的up主“換臉哥”下架了所有視頻并致歉,希望大家都尊重版權(quán)與肖像,專注于技術(shù)本身。
兩年后的2021年,劉昊然工作室向警方報(bào)案,因?yàn)橛腥擞肁I換臉技術(shù)發(fā)布偽造侮辱劉昊然的視頻。這時,AI換臉技術(shù)使用門檻已經(jīng)大幅降低,不再需要專業(yè)視頻博主的制作,稍微懂點(diǎn)技術(shù)就能做到。甚至開始形成黑色產(chǎn)業(yè)鏈,一位女明星的臉被AI換到了200多部色情視頻之中,在一些平臺以10塊、5塊一部的價格出售,網(wǎng)上還有商家提供視頻AI換臉的服務(wù),根據(jù)時間長短收費(fèi)。
當(dāng)這項(xiàng)技術(shù)發(fā)展到2023年,已經(jīng)實(shí)現(xiàn)大眾化應(yīng)用,幾天前,一張女子在地鐵上的照片被AI“一鍵脫衣”,造謠圖隨后在網(wǎng)上廣泛傳播。
謠言是最古老的傳播媒介,但制造一條逼真的謠言從未像今天這樣容易。以ChatGPT、Midjourney等為代表的人工智能技術(shù)不僅可以制造足以亂真的文字,還可以大大提高深度偽造技術(shù)的效率,對圖片、聲音、視頻等各種話語類型進(jìn)行偽造,實(shí)現(xiàn)謠言生產(chǎn)的多模態(tài),謠言的逼真性、擾亂認(rèn)知的能力幾乎達(dá)到前所未有的高度。謠言治理正面臨挑戰(zhàn)。
謠言的背后,其實(shí)反映某些真實(shí)的心理和情感。湯景泰擔(dān)心,制造過程越來越簡單的謠言,會借助現(xiàn)實(shí)中已有的矛盾,助長各個群體之間的進(jìn)一步撕裂,“特別是謠言武器化的趨勢,這幾年已經(jīng)越來越突出了。所以在這種情況之下,它必然會服務(wù)于現(xiàn)有的權(quán)力博弈?!崩?021年1月,特朗普支持者受到選舉舞弊謠言的煽動,暴力沖擊美國國會大廈。今年3月“特朗普被捕照”出現(xiàn)不久,網(wǎng)絡(luò)上也出現(xiàn)了“特朗普持槍反攻、活捉拜登和佩羅西”的主題假照片,非常清晰地顯示出美國政治的兩派斗爭。
2018年,美國麻省理工學(xué)院傳媒實(shí)驗(yàn)室發(fā)布過一項(xiàng)史上規(guī)模最大的假新聞研究成果。真信息在網(wǎng)絡(luò)空間傳播所用的時間是假信息所用時間的6倍,虛假信息的傳播速度、傳播深度和傳播范圍都要比真實(shí)信息傳播得更快、更深、范圍更廣,而虛假政治新聞的影響比恐怖主義、自然災(zāi)害、科學(xué)、城市傳說或金融方面的虛假新聞更為明顯。從傳播學(xué)層面看,重復(fù)作為一種強(qiáng)化價值理念的方式,展示了強(qiáng)大的認(rèn)同力量。
而揭露虛假信息并不總能改變?nèi)藗兊乃枷搿?017年11月發(fā)表在《Intelligence》雜志上的一項(xiàng)研究發(fā)現(xiàn),那些認(rèn)知能力較低的人在被告知一些消息為虛構(gòu)或者根本與事實(shí)相反后,仍無法改變原來的印象。美國麻省理工學(xué)院的研究成果也表明:“即使揭穿是由聲譽(yù)良好的事實(shí)檢查組織來完成,也無助于說服那些已經(jīng)相信虛假信息的人”。
AI繪畫:20世紀(jì)90年代的中國情侶。
可能是出于AI被用于欺詐、虛假信息傳播等不良用途的擔(dān)憂,今年3月31日意大利個人數(shù)據(jù)保護(hù)局(DPA)宣布禁止使用ChatGPT。4月3日德國數(shù)據(jù)保護(hù)專員也表示,德國可能會效仿意大利,封殺ChatGPT。亞馬遜、美國銀行、軟銀、高盛集團(tuán)等世界知名企業(yè)內(nèi)部,也已經(jīng)限制使用ChatGPT來處理工作。
每一次技術(shù)革命,都會給社會帶來巨大的變化、風(fēng)險和機(jī)遇,如今AI似乎在扮演著類似的角色。3月29日,特斯拉CEO馬斯克、硅谷人工智能知名專家蓋瑞·馬庫斯等上千名科技人士聯(lián)名發(fā)表了一封公開信,呼吁所有AI實(shí)驗(yàn)室立即暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)。馬庫斯說:“我現(xiàn)在并不擔(dān)心‘AGI風(fēng)險(我們無法控制的超級智能機(jī)器的風(fēng)險),在短期內(nèi)我擔(dān)心的是‘MAI風(fēng)險——平庸人工智能(MediocreAI)是不可靠的,但被廣泛部署?!边@一呼吁得到了不少關(guān)注與回應(yīng),截至當(dāng)?shù)貢r間3月31日,已有超2300人簽名。
但也有一些業(yè)內(nèi)人士對此持反對態(tài)度,例如Meta首席技術(shù)官(CTO)安德魯·博斯沃思,他認(rèn)為“很多時候,你必須先了解技術(shù)是如何發(fā)展的,然后才能知道如何保護(hù)人類并確保技術(shù)安全。這(要求暫停高級AI開發(fā))不僅不現(xiàn)實(shí),而且不會有效?!?/p>
一些科研團(tuán)隊(duì)已經(jīng)在研究利用AI來識別AI制造的虛假信息,用“魔法”打敗“魔法”。瑞士盧加諾大學(xué)人工智能教授邁克爾·布朗斯坦就在帶領(lǐng)團(tuán)隊(duì)開發(fā)一個使用人工智能檢測假新聞的項(xiàng)目。他的模型不僅分析假新聞的語義特征也包括傳播途徑,例如通過數(shù)據(jù)分析,他發(fā)現(xiàn)在社交網(wǎng)站上,假新聞的轉(zhuǎn)發(fā)量可能遠(yuǎn)遠(yuǎn)超過點(diǎn)贊量,而普通帖子的點(diǎn)贊量往往超過轉(zhuǎn)發(fā)量。通過各個維度的綜合計(jì)算,布朗斯坦的項(xiàng)目會給新聞條目評分。
但完全指望技術(shù)來解決虛假信息的問題,布朗斯坦認(rèn)為是幼稚的,他說:“這不僅僅是假新聞的問題,也是信任和缺乏批判性思維的問題,這可不是僅靠技術(shù)就能緩解的。這需要所有利益相關(guān)者的努力。”
然而企業(yè)標(biāo)準(zhǔn)和政府監(jiān)管這一層面目前顯然是缺失的,例如雖然因生成“特朗普被捕”圖像,希金斯的賬號被Midjourney封禁,但他并未被告知違反了哪些規(guī)定。
專注于新興技術(shù)研究的卡內(nèi)基國際事務(wù)倫理委員會研究員阿瑟·霍蘭德·米歇爾在接受《華盛頓郵報(bào)》采訪時說,他擔(dān)心世界還沒有為即將到來的“洪水”做好準(zhǔn)備,涉及普通人的偽造圖像將更難受到監(jiān)管,“從政策角度來說,我不確定我們是否準(zhǔn)備好應(yīng)對如此大規(guī)模、涉及社會各階層的虛假信息。要終止這一局面,可能將需要迄今無法想象的技術(shù)突破?!?/p>
2023年3月30日,聯(lián)合國教科文組織發(fā)表聲明,呼吁各國政府盡快實(shí)施已通過的首份人工智能倫理問題全球性協(xié)議《人工智能倫理問題建議書》。聲明說,行業(yè)自律顯然不足以避免這些倫理危害。因此,《人工智能倫理問題建議書》提供了工具,以確保人工智能的發(fā)展遵守法律,避免造成危害,并在危害發(fā)生時啟動問責(zé)和補(bǔ)救機(jī)制。
從人文科學(xué)與社會科學(xué)的角度看,湯景泰認(rèn)為面對人工智能技術(shù)可能帶來的謠言生產(chǎn)與傳播風(fēng)險,人類仍離不開人工智能技術(shù)的支持,但也要看到,謠言的傳播動因和心理機(jī)制有復(fù)雜的社會基礎(chǔ),根本癥結(jié)在于難以彌合的社會分歧,新聞的真實(shí)性與客觀性被解構(gòu),人們更愿意相信符合群體心理預(yù)期和情感的信息。因此,破解謠言的根本在于建構(gòu)一個可溝通性更強(qiáng)的社會。