王淏
摘要:隨著計(jì)算機(jī)技術(shù)的不斷成熟,許多方便的計(jì)算機(jī)技術(shù)被運(yùn)用在我的在我們生活中,但在這一背景下也滋生了許多不法網(wǎng)絡(luò)行為,深度造假就是其中之一。深度造假利用機(jī)器學(xué)習(xí),對(duì)信息源進(jìn)行拆分,替換,能達(dá)到以假亂真的效果。 現(xiàn)階段,大部分民眾是通過(guò)自己眼睛,常識(shí)去判斷信息的真實(shí)性,深度造假這一技術(shù)會(huì)讓絕大部分民眾的信息識(shí)別能力大幅下降,沒(méi)有辦法準(zhǔn)確識(shí)別信息是否真實(shí),本文通過(guò)對(duì)deepfake進(jìn)行算法解析,并模擬多次fakeapp進(jìn)行數(shù)據(jù)模型訓(xùn)練,從多次實(shí)驗(yàn)?zāi)M中進(jìn)行歸納總結(jié),可出結(jié)論;深度造假在對(duì)生命周期進(jìn)行學(xué)習(xí)時(shí),只能模擬大體上的生命特征,但無(wú)法模擬細(xì)小的生命周期,如眨眼頻率,表情鮮活度。因此可以利用該特點(diǎn)對(duì)深度造假軟件進(jìn)行取證。
關(guān)鍵詞:深度造假;生命周期;deepfake;信息真實(shí)
1 引言
1.1 研究背景
隨著時(shí)代的不斷進(jìn)步,大數(shù)據(jù)的應(yīng)用越來(lái)越廣泛,人工智能即AI應(yīng)運(yùn)而生,逐漸被應(yīng)用在各個(gè)領(lǐng)域。然而隨著人工智能技術(shù)的不斷成熟,普及,隨之帶來(lái)的是一系列安全問(wèn)題。目前國(guó)外已經(jīng)出現(xiàn)的“深度造假”就是人工智能的一個(gè)體現(xiàn)。該程序是利用給程序進(jìn)行不斷的數(shù)據(jù)學(xué)習(xí),數(shù)據(jù)的大量“喂食”讓程序進(jìn)行一個(gè)數(shù)據(jù)模擬。
1.2 研究現(xiàn)狀
深度造假是利用一個(gè)程序的反復(fù)學(xué)習(xí),加深學(xué)習(xí),收集大量的數(shù)據(jù)資料推導(dǎo)出模型,并利用模型進(jìn)行造假活動(dòng)?!吧疃仍旒佟笨瓷先ヅc真人并無(wú)差別但是其本質(zhì)上就是模型模仿的過(guò)程。就像美國(guó)紐約大學(xué)法學(xué)兼職教授保羅·巴雷特說(shuō),簡(jiǎn)單來(lái)講,“深度造假”就是借助深度學(xué)習(xí)手段制作的虛假視頻。深度學(xué)習(xí)系統(tǒng)可以從多個(gè)角度研究目標(biāo)人物的照片和視頻,然后模仿其行為和說(shuō)話模式,從而制造出具有說(shuō)服力的虛假內(nèi)容。[1]這種“深度造假”的危險(xiǎn)在于,這種技術(shù)可以讓人相信原本并不真實(shí)存在的東西是真實(shí)的。
1.3 研究?jī)?nèi)容
本文從人工智能的本質(zhì)出發(fā)對(duì)其證明,探討了試圖證明神經(jīng)網(wǎng)絡(luò)的算法,模擬了深度學(xué)習(xí)所產(chǎn)生的深度造假運(yùn)行形式,并通過(guò)列舉了一系列范例揭示了人工智能取證系統(tǒng)可以針對(duì)哪一點(diǎn)進(jìn)行取證。
2 deepfake實(shí)際運(yùn)行模擬實(shí)驗(yàn)
為了驗(yàn)證本實(shí)驗(yàn)猜想,本文對(duì)深度造假進(jìn)行了模擬實(shí)驗(yàn),模擬deepfake的運(yùn)行過(guò)程,首先我們需要下載CUDA,CuDnn,VS2015等文件,并將其安裝在電腦中 ,接著下載fakeapp,并在其原路徑下壓解CORE文件。
由此將fakeAPP的日志環(huán)境,運(yùn)行條件搭建好,接下來(lái)進(jìn)行視頻素材人物解析,
注;本文在實(shí)驗(yàn)中采用了抖音軟件中某知名網(wǎng)紅視頻,以及演藝圈某知名明星視頻作為實(shí)驗(yàn)素材,(本人聲明以下為實(shí)驗(yàn)數(shù)據(jù),結(jié)果視頻第一時(shí)間刪除,并承諾一切相關(guān)視頻不得用于商業(yè)用途。)接著打開(kāi)fakeapp的軟件界面;
選中GET DATESET 出現(xiàn)如下界面,將實(shí)驗(yàn)素材放入程序中,這一步的目的是將視頻分割成圖片,然后從圖片中提取臉部。這個(gè)環(huán)節(jié)只需要填寫(xiě)兩個(gè)地方,一個(gè)是Vidoe視頻路徑,一個(gè)是幀率FPS,默認(rèn)為30。之后開(kāi)始運(yùn)行;
接著用同樣的方式操作FTM.mp4,最好得出兩個(gè)視頻素材的圖片,面部特征數(shù)據(jù)具體過(guò)程和上述過(guò)程一致,最后得出如圖; 接下來(lái)進(jìn)行第二步,訓(xùn)練模型模型是很重要的一個(gè)數(shù)據(jù)分析,也是一個(gè)極其消耗時(shí)間的東西。訓(xùn)練模型對(duì)電腦配置的要求也是比較高。本文實(shí)驗(yàn)時(shí)不具備高配置實(shí)驗(yàn)環(huán)境,因此用時(shí)3天建立了一個(gè)訓(xùn)練模型,Mode是模型的保存路徑? Data A: 被換的人臉Date B: 拿去換的人臉,
輸入路徑之后,點(diǎn)擊TRAIN開(kāi)始訓(xùn)練。稍等片刻下面就會(huì)顯示Loss A:xxxx ,LossB:xxxx 。 同時(shí)Model 目錄下除了四個(gè)文件。同時(shí)還會(huì)跳出一個(gè)有很多臉的預(yù)覽窗口。如圖;
這一個(gè)環(huán)節(jié)是非常耗時(shí)間的,一般需要幾天時(shí)間,在這期間我們可以關(guān)注上圖紅框內(nèi)的數(shù)值,當(dāng)兩者的數(shù)值差在0.01到0.02之間時(shí),人臉預(yù)覽圖越來(lái)越清晰,第二列第三列和第一列一樣清晰,這時(shí)候這個(gè)訓(xùn)練過(guò)程基本上就已經(jīng)結(jié)束了,接下來(lái)我們就可以開(kāi)始第三步的準(zhǔn)備工作,首先將訓(xùn)練模型整理好,檢查文件路徑,即可開(kāi)始第三步,生成視頻。生成視頻的過(guò)程分為幾個(gè)步驟。首先,輸入Model 路徑。Video路徑 頻率(30)然后,點(diǎn)擊Create。然后程序自動(dòng)開(kāi)始,處理過(guò)程可分成4個(gè)階段。生成圖片、截取臉部、合成圖片、合成視頻。如圖所示;
以上為其中一個(gè)實(shí)驗(yàn)過(guò)程,本次實(shí)驗(yàn)選取時(shí)間,空間為環(huán)境變量進(jìn)行多次實(shí)驗(yàn)?zāi)M,通過(guò)6次實(shí)驗(yàn)?zāi)M,得出以下圖表。
本實(shí)驗(yàn)通過(guò)對(duì)模型訓(xùn)練的時(shí)間進(jìn)行控制,來(lái)進(jìn)行實(shí)驗(yàn),從而來(lái)得到以上數(shù)據(jù),通過(guò)以上數(shù)據(jù)可以看出模型訓(xùn)練時(shí)間越短誤差值越大,其合成的視頻清晰度,相似度越低。而生命周期特征則是無(wú)論訓(xùn)練時(shí)間如何變化,一直在5~6之間來(lái)回波動(dòng),該實(shí)驗(yàn)說(shuō)明了模型訓(xùn)練的時(shí)間長(zhǎng)短并不影響生命周期特征的變化。這說(shuō)明了deepfake對(duì)生命周期的模擬是一個(gè)定值,不能精準(zhǔn)模擬,而模型訓(xùn)練的時(shí)間長(zhǎng)短只會(huì)影響其結(jié)果的清晰度與相似度。因此可以得出結(jié)論;人工智能取證系統(tǒng)針對(duì)深度造假的取證方向受生命周期尺度因子變化而變化,即;深度造假在對(duì)生命周期進(jìn)行學(xué)習(xí)時(shí),只能模擬大體上的生命特征,如;眨眼,表情等,但無(wú)法模擬細(xì)小的生命周期,如眨眼頻率,表情鮮活度。因此可以利用該特點(diǎn)對(duì)深度造假軟件進(jìn)行取證。
3 結(jié)論
通過(guò)實(shí)驗(yàn)?zāi)M算法解析,我們發(fā)現(xiàn),訓(xùn)練模型受到時(shí)間,環(huán)境的影響,其會(huì)使得其清晰度,相似度受到改變。而其生命周期特征是在一個(gè)特定的值來(lái)回波動(dòng)。從實(shí)驗(yàn)總結(jié)得出結(jié)論;人工智能取證系統(tǒng)針對(duì)深度造假的取證方向受生命周期尺度因子變化而變化,即;深度造假在對(duì)生命周期進(jìn)行學(xué)習(xí)時(shí),只能模擬大體上的生命特征,如;眨眼,表情等,但無(wú)法模擬細(xì)小的生命周期,如眨眼頻率,表情鮮活度。因此可以利用該特點(diǎn)對(duì)深度造假軟件進(jìn)行取證。
參考文獻(xiàn):
[1] 李鬼變李逵!“深度造假”視頻危害日益加劇,劉霞-《科技日?qǐng)?bào)》-2019.