2024年落下帷幕。歲末年初,國內(nèi)外的各類機(jī)構(gòu)陸續(xù)發(fā)布年度詞匯、流行語,這似乎成為一種“慣例”。且看《咬文嚼字》發(fā)布的“2024年十大流行語”,至少三個流行語同智能時代、數(shù)字技術(shù)直接或間接相關(guān);再看2024年《上海日報》的年度熱詞(由上海杉達(dá)學(xué)院語料應(yīng)用與研究中心評選)——“AI-”——沒有懸念一般,“花落”人工智能……正如浙江大學(xué)哲學(xué)學(xué)院教授孫周興所說,我們正被帶進(jìn)人工智能(以下簡稱“AI”)技術(shù)的“狂熱和狂歡”中。
這些年度詞匯、流行語并非“新詞”,在瞬息萬變的當(dāng)下,已經(jīng)算是“老面孔”了。它們或代表著人類在某一特定年份的主要關(guān)注點,或揭示了某一階段復(fù)雜而真實的文化和心理狀態(tài),或蘊(yùn)含著對當(dāng)下時代的記錄和反思。這讓記者不禁想到,2023年,《劍橋詞典》公布的年度詞匯是“Hallucinate”,指某人似乎感覺到不存在的事物,即“產(chǎn)生幻覺”。特別是隨著技術(shù)的飛速發(fā)展,“數(shù)字幻覺”現(xiàn)象愈發(fā)不容忽視,無疑給“Hallucinate”增添了新的釋義,最為典型的便是AI在信息處理和生成中的誤差或錯覺,對人類的所見、所知、所感產(chǎn)生了極大的影響,甚至將埋下信任危機(jī)之種。
近期,江西南昌警方披露了一起網(wǎng)絡(luò)謠言案件。該案中,一條關(guān)于某地爆炸的“消息”在網(wǎng)絡(luò)平臺廣泛傳播,內(nèi)容不僅包括確切的時間和地點,文字下方還配有爆炸圖片。公安部門迅速開展調(diào)查后卻發(fā)現(xiàn),這條“消息”從文本到圖片,全部都是通過AI生成的。
由于每天發(fā)布的文章數(shù)量巨大,當(dāng)警方找上門時,違法人員都不知道具體是哪篇文章涉嫌造謠。該案中的違法人員只需設(shè)置關(guān)鍵詞,AI軟件就會根據(jù)當(dāng)下熱點,自動抓取相關(guān)信息,生成幾百字到上千字的文本,最高峰時一天能生成4000多篇文章,實在是令人觸目驚心。據(jù)供述,他同時運(yùn)營800余個自媒體賬號,最高峰時一日收入可達(dá)到1萬元。
一些AI“生產(chǎn)”的網(wǎng)絡(luò)謠言不僅“圖文并茂”,還配上合成的音視頻,采用新聞或官方通報的口吻,加入“據(jù)報道”“相關(guān)部門”等字眼,讓網(wǎng)民難辨真?zhèn)?。AI造謠門檻低、批量化、識別難,或?qū)?dǎo)致傳播環(huán)境進(jìn)一步惡化,真實的新聞在輿論場中可能面臨被“吞噬”的風(fēng)險,無論是新聞媒體還是社會公眾,都需要抽出更多精力來分辨虛假信息。
此外,利用AI制造的錯誤、虛假或誤導(dǎo)性圖文,如果不經(jīng)過嚴(yán)格的數(shù)據(jù)篩選與清洗,極易導(dǎo)致“數(shù)據(jù)污染”,使AI模型在訓(xùn)練過程中“學(xué)習(xí)”到錯誤的知識,這對訓(xùn)練效果及模型的準(zhǔn)確性、可靠性將產(chǎn)生負(fù)面影響,可能會擴(kuò)大“問題信息”的傳播范圍。
來自深圳大學(xué)網(wǎng)絡(luò)文明研究中心的一份報告指出,特別是在涉及社會保障、公共服務(wù)等重大公共事務(wù)時,虛假新聞的泛濫可能導(dǎo)致公眾質(zhì)疑官方信息的真實性和權(quán)威性,進(jìn)而損害官方賬號的公信力,給社會穩(wěn)定帶來一定的挑戰(zhàn)。
前段時間,有這樣一段視頻出現(xiàn)在網(wǎng)絡(luò)上:只見“張文宏醫(yī)生”正襟危坐,反復(fù)介紹一種產(chǎn)品,聲音聽起來也很像其本人。甚至有老年群體信以為真,因此下單。經(jīng)過核實,這個視頻是AI合成的,張文宏醫(yī)生則向媒體表示:“這樣的賣貨賬號不止一個,且‘馬甲’不斷在變,自己多次向平臺投訴但屢禁不絕?!贝撕?,上海市消費(fèi)者權(quán)益保護(hù)委員會的官方賬號對該事件嚴(yán)厲發(fā)聲,表示未經(jīng)當(dāng)事人授權(quán)的AI合成“帶貨”行為,或構(gòu)成對消費(fèi)者的欺詐,呼吁監(jiān)管部門對此嚴(yán)厲處罰。
更有甚者,AI合成視頻已經(jīng)成為新型網(wǎng)絡(luò)詐騙的主要手段,讓人防不勝防。據(jù)工業(yè)和信息化部反詐工作專班專家介紹,不法分子先是會通過各種公開的渠道獲取個人肖像或視頻,然后利用AI技術(shù),對這些照片中的面容特征進(jìn)行學(xué)習(xí),從而模仿眨眼、搖頭等動作,實現(xiàn)以假亂真的效果。一般而言,受害人往往存在“有圖有真相”的思維定勢,詐騙分子正是利用這一點,讓其相信虛構(gòu)的身份。
在廣東江門公開的一起案例中,楊女士接到生意伙伴張老板的視頻通話,張老板稱自己正參與一個大項目的投標(biāo),可還差50萬元保證金,希望楊女士“江湖救急”。楊女士見視頻里確實是張老板的模樣,便沒起疑心,遂前往網(wǎng)點轉(zhuǎn)賬。好在銀行網(wǎng)點柜員及時提醒,并協(xié)助報警處理,當(dāng)場揭穿了這一騙局。視頻通話里的“張老板”,正是詐騙分子利用“AI 換臉”及語音合成技術(shù)偽裝的。
隨著AI換臉視頻及背后的深度偽造技術(shù)滲透進(jìn)日常生活,“人際幻覺”愈發(fā)泛濫,人們可能會預(yù)設(shè)與自己打交道的陌生人甚至是熟人“不誠實”,越來越不敢輕易提供個人信息、聯(lián)系方式給他人,在社交平臺也不愿過度分享動圖、視頻等,在涉及“朋友”“領(lǐng)導(dǎo)”等熟人要求轉(zhuǎn)賬、匯款時反復(fù)核實確認(rèn)……而對面的人則會陷入自證“我是我”的怪圈。當(dāng)下,防范意識的提升顯然是十分必要的,凡事多留幾個心眼也沒有錯,但無法避免的,這或?qū)⑦M(jìn)一步增加社會的信任成本,在正常的人際交往中埋下隔閡之種。
在使用生成式AI產(chǎn)品時,我們會發(fā)現(xiàn),有的產(chǎn)品不止一次“胡說八道”,還會生成人類世界中原本不存在的東西。比如某小說平臺賬號依靠AI“創(chuàng)作”,每日更新十多本電子書,行文卻邏輯不通、辭藻空洞;又如有醫(yī)學(xué)論文因存在AI生成的虛假配圖而被撤稿,淪為學(xué)界笑柄……一位資深專家認(rèn)為,AI是一種信息處理工具,它通過學(xué)習(xí)和模仿人類行為來執(zhí)行任務(wù);AI解決問題的方式、機(jī)制跟人類有著很大的差異,一些時候它能幫助人類解決問題,但有時候它會以一種完全不可接受、完全無法想象的方式犯下“錯誤”。
根據(jù)“上海網(wǎng)絡(luò)辟謠”平臺的報道,有人對某熱門的多款生成式AI產(chǎn)品進(jìn)行過這樣的測試:將“康熙皇帝有幾個兒子”“請列出康熙皇帝兒子的姓名名單”“請給我一份康熙的兒子名單”三條指令發(fā)送給AI后,讓人意外的結(jié)果出現(xiàn)了:不僅不同的大模型回答不一樣,即便是同一個大模型,答案也有偏差。比如,有的答案統(tǒng)計了康熙所有的兒子數(shù)量,表示共有35人;有的只列出了正式排序的24個兒子;還有的沒有任何解釋,雖然列出了姓名,但順序錯亂。
對此,“北京西路瞭望”發(fā)文評論道,AI“胡說八道”往往會讓人產(chǎn)生“文化幻覺”。技術(shù)經(jīng)得起試錯,但文化傳承經(jīng)不起試錯,特別是對于優(yōu)秀傳統(tǒng)文化。AI導(dǎo)致的“文化幻覺”一旦蔓延開來,輕則讓傳統(tǒng)文化的傳承內(nèi)容變得模糊、扭曲、割裂,重則給歷史虛無主義等錯誤思想以可乘之機(jī)。
如果真到了那一天,我們是否還會“相信”擺在眼前的所謂的“文化”,又何談傳承呢?
“AI祛幻”亟須多維度、立體化治理。在技術(shù)的層面,顯然需要繼續(xù)優(yōu)化算法的設(shè)計,也涉及對數(shù)據(jù)的“體檢”與對模型訓(xùn)練的改進(jìn),服務(wù)提供者還應(yīng)在AI生成內(nèi)容中打上顯著標(biāo)識,同時也離不開相應(yīng)檢測工具、審查算法的“智能加持”。在監(jiān)管層面,應(yīng)加快推進(jìn)立法、完善規(guī)則,明確責(zé)任邊界,規(guī)范數(shù)據(jù)的使用和管理,同時鼓勵行業(yè)組織、社會公眾等多元主體參與科技倫理治理。
社會公眾的媒介素養(yǎng)教育也尤為重要,需要重點融入學(xué)校教育,依托優(yōu)質(zhì)公共資源開展培訓(xùn)和宣傳,提高公眾的信息辨別能力,注重培養(yǎng)批判性思維,引導(dǎo)其主動思考信息的真實性、動機(jī)及可能存在的偏差。應(yīng)倡導(dǎo)積極理性的“AI態(tài)度”,建立對于新技術(shù)的正確認(rèn)知框架。就此而言,服務(wù)提供者需要同時提高算法的透明度,并向用戶展示AI大模型的工作原理、知識來源和決策依據(jù);鼓勵公眾以開放和理性的態(tài)度看待新技術(shù),積極參與討論和使用,這樣才能更好地發(fā)現(xiàn)問題并提出改進(jìn)建議。