有一種AI詐騙形式是聲音合成。具體的操作是,騙子通過(guò)騷擾電話等錄音來(lái)提取某人聲音,獲取素材后進(jìn)行聲音合成,從而可以用偽造的聲音騙過(guò)對(duì)方。谷歌就曾合成出可以假亂真的特朗普和奧巴馬的聲音。
最近,2019防范治理電信網(wǎng)絡(luò)詐騙論壇在中國(guó)互聯(lián)網(wǎng)大會(huì)期間舉行。據(jù)論壇內(nèi)容顯示,機(jī)器學(xué)習(xí)、人工智能、大數(shù)據(jù)等熱點(diǎn)技術(shù)已被犯罪分子用于實(shí)施詐騙。
詐騙手段不斷翻新,四種形式防不勝防
論壇上,中國(guó)傳媒大學(xué)政法學(xué)院法律系副主任鄭寧總結(jié)了4種AI(人工智能)詐騙形式。
第一種是轉(zhuǎn)發(fā)微信語(yǔ)音。騙子通過(guò)盜取微信號(hào),然后提出轉(zhuǎn)賬要求。如果有人要求語(yǔ)音回復(fù),騙子便通過(guò)提取語(yǔ)音文件或者安裝增強(qiáng)版微信,實(shí)現(xiàn)轉(zhuǎn)發(fā)語(yǔ)音,從而獲取信任。
第二種騙術(shù)是聲音合成。具體的操作是,騙子通過(guò)騷擾電話等錄音來(lái)提取某人聲音,獲取素材后進(jìn)行聲音合成,從而用偽造的聲音騙過(guò)對(duì)方。
鄭寧表示,通過(guò)神經(jīng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí)技術(shù)可以達(dá)到合成聲音的效果。第一個(gè)利用神經(jīng)網(wǎng)絡(luò)生成人類自然語(yǔ)音的,就是由倫敦人工智能公司深度指示器創(chuàng)建的波網(wǎng)。此技術(shù)通過(guò)使用真實(shí)語(yǔ)音記錄來(lái)直接模擬波形,能夠生成聽(tīng)起來(lái)相對(duì)真實(shí)的類人聲音。
據(jù)了解,谷歌人工智能實(shí)驗(yàn)室創(chuàng)立了七葉樹(shù)公司。在其網(wǎng)站上,可以聽(tīng)到官方合成的可以假亂真的特朗普和奧巴馬的聲音。美國(guó)有一名記者曾用機(jī)器合成的句子和家里人打電話,他的家人完全分不清真假。
“合成的聲音有明顯的痕跡,但波網(wǎng)可以把合成痕跡明顯的機(jī)器語(yǔ)音,轉(zhuǎn)換成更加流暢自然的語(yǔ)音,與人類聲音之間的差異大幅降低。而七葉樹(shù)則更進(jìn)一步,它可以基于音色、音調(diào)、音節(jié)、停頓等多種特征,來(lái)定義某個(gè)人的聲音,然后生成更加擬真的聲音?!编崒幷f(shuō)。
第三種是AI換臉。視頻通話的可信度明顯高于語(yǔ)音和電話,但利用AI換臉,騙子可以偽裝成任何人。
第四種是通過(guò)AI技術(shù)篩選受騙人群,通過(guò)分析公眾發(fā)布在網(wǎng)上的各類信息,騙子會(huì)根據(jù)所要實(shí)施的騙術(shù)對(duì)人群進(jìn)行篩選,從而選出目標(biāo)人群。
例如實(shí)施情感詐騙時(shí),可以篩選出經(jīng)常發(fā)布感情信息的人群;實(shí)施金融詐騙時(shí),可以篩選出經(jīng)常搜集投資信息的人群。
我們?cè)撊绾畏乐贡或_
詐騙手法在不斷翻新,廣大群眾該如何防止被騙呢?
鄭寧提出了兩點(diǎn)建議。第一是驗(yàn)證,在涉及錢款時(shí),民眾要通過(guò)電話等方式確認(rèn)對(duì)方是否為本人,在不能確定真實(shí)身份時(shí),可將到賬時(shí)間設(shè)定為“2小時(shí)到賬”或“24小時(shí)到賬”,以預(yù)留處理時(shí)間。
此外,可以選擇向?qū)Ψ姐y行匯款,避免通過(guò)微信等社交工具轉(zhuǎn)賬。因?yàn)槲⑿诺裙ぞ呔鶗?huì)綁定銀行卡,而向?qū)Ψ姐y行卡轉(zhuǎn)賬,一方面便于核實(shí)對(duì)方信息,確認(rèn)錢款去向;另一方面,對(duì)方能通過(guò)短信通知得知轉(zhuǎn)賬信息。
第二是保護(hù)個(gè)人信息,注重隱私保護(hù)。社交平臺(tái)的發(fā)展加大了保護(hù)個(gè)人信息的難度,民眾將越多的個(gè)人信息暴露在網(wǎng)絡(luò)上,遭受詐騙的概率越高。由于實(shí)施詐騙需要獲取當(dāng)事人的個(gè)人信息,網(wǎng)絡(luò)共享加上AI技術(shù),讓騙子搜集當(dāng)事人的個(gè)人信息更為便捷。因此,為避免騙子借用個(gè)人信息實(shí)施詐騙,民眾應(yīng)當(dāng)加強(qiáng)個(gè)人信息保護(hù)意識(shí),以防止騙子利用AI技術(shù)掌握大量個(gè)人信息并對(duì)人物性格、需求傾向等進(jìn)行刻畫(huà),從而有針對(duì)性地實(shí)施詐騙。
在中國(guó)人民大學(xué)法學(xué)院教授劉俊海看來(lái),預(yù)防被騙的關(guān)鍵就是人們要提高自我保護(hù)意識(shí)。他指出,親戚朋友間要相互提示,相互宣傳。由于中老年人被騙較多,青年人要及時(shí)做好家中老人的宣傳防范工作,提醒、告誡老年人接到電話、收到短信,只要是不認(rèn)識(shí)、不熟悉的人和事,均不要理睬,以免被騙。另外是拒絕誘惑,民眾應(yīng)當(dāng)避免占便宜心理,警惕陌生人提供的好處。
充分利用人工智能提升反詐騙精準(zhǔn)度
對(duì)于這種利用新技術(shù)的詐騙,該如何整治?
劉俊海表示,消費(fèi)者反映的最集中、最突出的問(wèn)題,往往是監(jiān)管機(jī)關(guān)、司法機(jī)關(guān)在監(jiān)管和執(zhí)法當(dāng)中的漏洞和盲區(qū)。規(guī)范監(jiān)管就應(yīng)當(dāng)致力于消除監(jiān)管漏洞、盲區(qū)以及真空地帶,真正打造一個(gè)信息共享、快捷高效、無(wú)縫對(duì)接、有機(jī)銜接的預(yù)防合作機(jī)制。
在鄭寧看來(lái),AI技術(shù)可以被用于詐騙,也可以被用于反詐騙。利用技術(shù)的方式不同,帶來(lái)的影響也不同。因此,在面對(duì)一項(xiàng)技術(shù)時(shí),不僅要關(guān)注技術(shù)本身,更要關(guān)注技術(shù)的用途,將技術(shù)用于提高生活質(zhì)量。