国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

融合空間約束和梯度結(jié)構(gòu)信息的視頻篡改檢測算法

2019-10-18 11:37普菡黃添強翁彬肖輝黃維
關(guān)鍵詞:梯度約束圖像

普菡,黃添強,翁彬,肖輝,黃維

融合空間約束和梯度結(jié)構(gòu)信息的視頻篡改檢測算法

普菡1,2,3,黃添強1,2,3,翁彬1,2,3,肖輝1,2,3,黃維1,2,3

(1. 福建師范大學(xué)數(shù)學(xué)與信息學(xué)院,福建 福州 350007;2. 福建省大數(shù)據(jù)挖掘與應(yīng)用工程技術(shù)研究中心,福建 福州 350007;3. 數(shù)字福建大數(shù)據(jù)安全技術(shù)研究所,福建 福州 350007)

相鄰幀間相似性原理的傳統(tǒng)視頻被動取證方法會對畫面運動劇烈的視頻發(fā)生大量誤檢測,針對這個問題,提出了一種融合空間約束和梯度結(jié)構(gòu)信息的視頻篡改檢測方法。首先,利用空間約束準則,提取低運動區(qū)域和高紋理區(qū)域,并將兩個區(qū)域進行融合,獲取頑健的量化相關(guān)性豐富區(qū)域用于提取視頻最優(yōu)相似性特征;然后,改進原有特征的提取和描述方法,運用符合人類視覺系統(tǒng)特性的梯度結(jié)構(gòu)相似性GSSIM來計算空間約束相關(guān)性值,最后,利用切比雪夫不等式對篡改點進行定位。實驗證明,針對畫面運動劇烈的視頻,所提算法誤檢率更低,精確度更高。

空間約束;量化相關(guān)性豐富區(qū)域;梯度結(jié)構(gòu)相似性;畫面運動劇烈的視頻

1 引言

由于數(shù)字視頻的篡改檢測在司法取證、新聞媒體等方面有重要的意義,因此近年來國內(nèi)外對該領(lǐng)域展開了大量研究[1]。但現(xiàn)有的數(shù)字視頻取證技術(shù)大多針對畫面運動平緩的視頻,對畫面運動劇烈視頻的取證會造成大量誤檢測[2]。因此,針對畫面運動劇烈視頻的篡改取證是一個亟待解決的問題,具有重要的研究意義。

目前,國內(nèi)外的一些研究團隊關(guān)于視頻幀刪除篡改的研究已經(jīng)取得一定進展。Zhao等[3]首先通過比較視頻相鄰幀之間的HSV顏色直方圖的相似性進行幀間篡改的粗檢測,然后結(jié)合SURF特征提取和FLANN進行細檢測,進一步確認篡改點,但由于HSV顏色直方圖的基本原理是利用不同色彩在視頻幀中所占的比例,并沒有考慮不同色彩在視頻幀中的空間位置信息,故該特征不能很好地代表幀圖像信息,所以該方法的穩(wěn)健性有待提高;Sowmya等[4]通過時空三元特征關(guān)系(STTFR,spatiotemporal triad feature relationship)技術(shù)對任何給定視頻生成一個128 bit的信息數(shù)字,作為該視頻唯一的指紋,利用視頻時域上的篡改會破壞這種指紋的原理進行篡改取證,但該種方法屬于主動取證,需要預(yù)先獲得原始視頻,所以其實用性受到一定限制。Wang等[5]提出一種基于非負張量分解的視頻篡改檢測方法,但該方法對細微的幀刪除篡改和同源幀插入篡改會造成漏檢測,具有一定的局限性。Lin等[6]提出一種融合音頻的多通道視頻幀間篡改檢測方法,通過融合音頻通道和視頻幀序列通道的檢測結(jié)果進行檢測,然后結(jié)合QDCT特征進行細檢測定位,但對于無聲視頻和畫面運動劇烈的視頻,該方法不能體現(xiàn)出它的優(yōu)越性。Wang等[5]根據(jù)篡改視頻重壓縮保存后會導(dǎo)致離散余弦變換系數(shù)分布直方圖出現(xiàn)周期性偽影,以及運動估計誤差會顯現(xiàn)周期性尖峰進行篡改取證,但該方法在檢測含有噪聲的視頻時性能顯著下降,而且無法檢測到刪除幀數(shù)是GOP整數(shù)倍時的篡改,同樣不適用于使用恒定比特率編碼模型的視頻,所以該方法的適用局限性比較大。Liu等[6]提出了專門為H.264編碼視頻設(shè)計的幀刪除檢測方案,證明了在視頻幀刪除篡改的情況下P幀序列平均殘差會在時域上表現(xiàn)出周期性,但該方法只適應(yīng)于特定編碼的視頻。

由于視頻本身的時域冗余性,相鄰幀之間存在很大的相關(guān)性,所以基于視頻內(nèi)容連續(xù)性的檢測方法對于大部分遭受幀刪除篡改的視頻有良好的性能。傳統(tǒng)的幀刪除篡改檢測方法的主要步驟是:首先提取視頻幀特征,然后計算相鄰幀特征的相關(guān)性,最后通過相關(guān)性值出現(xiàn)的異常點進行篡改點的定位。然而,由于畫面運動比較劇烈的視頻相鄰幀之間的相關(guān)性波動比較大,傳統(tǒng)的檢測方法會對其造成大量誤檢測。因此,本文提出一種融合空間約束和梯度結(jié)構(gòu)信息的視頻篡改檢測方法,在更加精準地檢測到篡改位置的同時,大大降低了誤檢率。鑒于視頻的運動劇烈區(qū)域是影響檢測精確率的主要因素,故本文算法首先采用自適應(yīng)閾值最佳劃分法對待檢測視頻進行空間約束,提取出低運動和高紋理區(qū)域,然后把兩者進行融合,獲取最優(yōu)量化相關(guān)性豐富區(qū)域,并結(jié)合梯度結(jié)構(gòu)相似性特征梯度結(jié)構(gòu)相似性(GSSIM,gradient structure similarity)和GSSIM熵等方法,提高了特征的頑健性表達和檢測的準確率。

由于在視頻的量化相關(guān)性豐富區(qū)域提取的特征變化相對一致,所以該算法能夠適用于不同畫面運動劇烈程度的視頻;同時利用基于人類視覺特性的GSSIM特征的頑健性表達,該方法不限制視頻清晰程度以及視頻類型,能檢測到僅僅幾幀的細微篡改。使用空間約束和梯度結(jié)構(gòu)信息的結(jié)合方法,提高了檢測方法的頑健性,針對畫面運動劇烈的視頻,與現(xiàn)有算法[5-7]相比,誤檢率更低,精確率更高。

2 視頻空間約束

現(xiàn)有算法大多基于視頻相鄰幀之間的極大相關(guān)性原理進行篡改檢測。對于畫面運動劇烈的視頻,鑒于相鄰幀之間的相關(guān)性變化比較劇烈,僅利用傳統(tǒng)的檢測算法會造成大量誤檢測,因此可對視頻進行空間約束,獲取有利于篡改檢測的空間區(qū)域,提高檢測的精準率。視頻空間約束是結(jié)合視頻時空域上的相關(guān)信息對視頻幀進行空域上的約束,通過定義一定的約束條件,過濾掉一部分影響篡改檢測效果的區(qū)域,保留有利于篡改檢測的空間區(qū)域。

本文主要采用自適應(yīng)閾值最佳區(qū)域劃分法對視頻進行空間約束,主要流程如圖1所示,主要分為兩部分的內(nèi)容:①利用自適應(yīng)低運動區(qū)域劃分法獲取視頻的低運動區(qū)域;②首先通過自適應(yīng)高紋理區(qū)域劃分法實現(xiàn)對視頻高紋理區(qū)域的空間約束;然后融合低運動和高紋理區(qū)域,獲取有利于篡改檢測的量化相關(guān)性豐富區(qū)域。

2.1 自適應(yīng)低運動區(qū)域劃分法

2.1.1 背景模型的初始化

2.1.2 低運動區(qū)域的檢測

首先通過當(dāng)前幀與背景模型絕對差值的計算得到差圖像,然后利用自適應(yīng)閾值Th判斷得到差圖像對應(yīng)的二維掩碼,以此確定低運動區(qū)域。

圖1 視頻空間約束的流程

2.1.3 低運動區(qū)域的更新

由于視頻的畫面一直在變化,低運動區(qū)域也在實時變化,所以需要對低運動區(qū)域進行更新,主要包含兩種更新方法:①當(dāng)視頻的場景微小變化時,進行像素級更新;②當(dāng)視頻的場景變化大時,進行幀級更新。具體更新的方法如下。

方法1 像素級更新

當(dāng)?shù)瓦\動區(qū)域發(fā)生較大范圍變化時,僅使用像素級更新,較難達到很好的效果,需要利用接下來介紹的幀級更新方法。

方法2 幀級更新

當(dāng)?shù)瓦\動區(qū)域的面積小于整個幀圖像面積超過一定百分比時,說明低運動區(qū)域發(fā)生了較大范圍的變化。當(dāng)連續(xù)多幀圖像都出現(xiàn)這種情況時,需要利用上文低運動區(qū)域的檢測方法對該區(qū)域進行重新獲取。

圖2 差圖像的直方圖的簡化模型

步驟1 把直方圖的頻數(shù)最大值點和頻數(shù)最小值點進行連線,得到直線L。

步驟4 選取最大距離的點對應(yīng)的橫坐標(灰度值)作為二值掩碼式(5)的閾值。

2.2 量化相關(guān)性豐富區(qū)域

2.2.1 自適應(yīng)高紋理區(qū)域劃分法

步驟1 首先計算當(dāng)前幀灰度圖像對應(yīng)的梯度圖像的最小像素值和最大像素值,然后計算二者的平均值作為閾值的初始值。

步驟2 通過初始閾值把當(dāng)前幀劃分為高紋理區(qū)域和低紋理區(qū)域,然后分別計算兩區(qū)域梯度圖像的平均灰度值1和2,及兩區(qū)域梯度圖像的灰度分別占整個幀梯度圖像灰度的百分比1和2。

2.2.3 區(qū)域融合

3 篡改檢測算法

本文算法融合空間約束和梯度結(jié)構(gòu)信息對給定視頻進行篡改檢測。首先,通過自適應(yīng)低運動區(qū)域劃分法獲取視頻的低運動區(qū)域,并結(jié)合自適應(yīng)高紋理區(qū)域劃分法獲取視頻的高紋理區(qū)域;然后,把兩者進行融合,獲取有利于基于相鄰幀之間極大相關(guān)性原理檢測方法的量化相關(guān)性豐富區(qū)域;其次,基于人類視覺特性改進原有的特征提取和描述方法,在此區(qū)域上提取梯度結(jié)構(gòu)相似性特征GSSIM得到空間約束相關(guān)性值,并利用GSSIM商對其進行后處理;最后,利用切比雪夫不等式對篡改點進行定位。算法的具體流程如圖3所示。

3.1 視頻空間約束

考慮到視頻本身的特性,視頻的空間約束過程主要分為3部分:①首先對視頻進行預(yù)處理,然后對視頻的低運動區(qū)域進行空間約束;②視頻高紋理區(qū)域的空間約束;③視頻量化相關(guān)性豐富區(qū)域的空間約束。

步驟1 對視頻低運動區(qū)域的空間約束。

為了減少計算復(fù)雜度,把待檢測視頻轉(zhuǎn)換成幀序列圖像,并對得到的幀序列圖像進行灰度化的預(yù)處理。

畫面變化劇烈的視頻,由于原始視頻的高運動區(qū)域使相鄰幀之間相關(guān)性值比較小,使視頻幀間篡改點的相鄰兩幀之間相關(guān)性值也會變小[8],因此為了減少誤檢率,可以定義一定的約束條件,過濾掉視頻幀的高運動區(qū)域,獲取視頻的低運動區(qū)域。利用本文2.1節(jié)提出的自適應(yīng)低運動區(qū)域劃分法,對視頻低運動區(qū)域進行空間約束的主要步驟如圖4所示。首先,根據(jù)視頻場景信息構(gòu)建視頻的背景模型;其次,當(dāng)前幀和背景模型作差得到對應(yīng)的差圖像;然后,通過自適應(yīng)閾值判斷是否為低運動區(qū)域[9],并對低運動區(qū)域進行形態(tài)學(xué)操作來填補空隙和移除含有噪聲的小面積區(qū)域;最后,根據(jù)視頻場景的變化劇烈程度進行低運動區(qū)域的更新。

步驟2 對視頻高紋理區(qū)域的空間約束。

由于視頻幀的高紋理區(qū)域包含幀圖像大量的梯度信息和邊緣信息,所以對視頻高紋理區(qū)域進行空間約束可以確保特征提取的有效性和精準性[10]。利用2.2節(jié)提出的自適應(yīng)高紋理區(qū)域劃分法,對視頻高紋理區(qū)域進行空間約束的主要步驟如圖5所示。首先,計算視頻幀的梯度信息;然后,通過自適應(yīng)閾值的判斷得到視頻的高紋理區(qū)域;最后,通過形態(tài)學(xué)操作來填補空隙和移除含有噪聲的小面積區(qū)域。

步驟3 對視頻量化相關(guān)性豐富區(qū)域的空間約束。

為了避免造成誤檢測,可以獲取視頻的量化相關(guān)性豐富區(qū)域[11]。根據(jù)2.2節(jié)的內(nèi)容,對視頻的量化相關(guān)性豐富區(qū)域進行空間約束的主要步驟如圖6所示,首先,對低運動和高紋理區(qū)域進行融合,取兩個區(qū)域的交集;然后,通過形態(tài)學(xué)操作來填補空隙和移除含有噪聲的小面積區(qū)域,獲取視頻的最優(yōu)量化相關(guān)性豐富區(qū)域,實現(xiàn)對視頻的空間約束。

3.2 特征提取

由于人類視覺系統(tǒng)具有對圖像的邊緣梯度信息比較敏感的特性,而梯度信息本身可以很好地反映出圖像中微小的細節(jié)反差和紋理特征變化,因此可以將梯度作為重要的結(jié)構(gòu)信息[12]。基于這一特性,改進原有結(jié)構(gòu)相似性(SSIM,structural similarity)特征的提取和描述方法,在量化相關(guān)性豐富區(qū)域上采用梯度結(jié)構(gòu)相似性(GSSIM),度量相鄰幀的相似性。梯度結(jié)構(gòu)相似性主要把從原始圖像和梯度圖像提取到的局部信息融合[13],從而提升傳統(tǒng)SSIM在模糊圖像上的性能,其中,梯度圖像獲取的具體步驟是:首先把原始幀圖像進行Sobel邊緣檢測,然后進一步對其進行逐像素動態(tài)范圍壓縮,凸顯圖像的重要顯著特征[14]。GSSIM的定義如下

圖6 視頻量化相關(guān)性豐富區(qū)域的空間約束

最后將圖像塊之間的梯度結(jié)構(gòu)相似度取平均值(MGSSIM, mean gradient structural similarity),MGSSIM衡量的是兩幅圖像幀之間的相似度。兩幅圖像對應(yīng)的所有圖像塊GSSIM的均值可以由式(26)得出。

3.3 特征處理

根據(jù)人類視覺系統(tǒng)的視覺停留現(xiàn)象,為了人類在視覺上能夠感知連續(xù)的畫面,視頻的幀率一般是24~25 fp/s,所以相鄰幀之間的相關(guān)性非常大,而經(jīng)過人為幀刪除惡意篡改之后,篡改點的相鄰兩幀之間相關(guān)性變小。但不能簡單地通過分析相關(guān)性值的大小來判斷視頻是否被篡改[1],因為對于一個內(nèi)容非靜止的待檢測視頻,它的內(nèi)容變化程度是未知的,同一視頻的幀間相關(guān)性值也會出現(xiàn)變化。為了進一步消除視頻內(nèi)容運動變化對檢測結(jié)果造成的影響,本文用MGSSIM商替換MGSSIM,MGSSIM商的定義如式(28)所示。

3.4 篡改點的定位

本文使用切比雪夫不等式[15]定位異常點。切比雪夫不等式衡量的是隨機變量與均值之間的偏離程度,隨機變量越遠離平均值,概率越低?;谇斜妊┓虿坏仁降幕驹?,可以用其進行離群點檢測。切比雪夫不等式證明,對于任何一個隨機變量,它的任何一個取值與均值的距離都遵循一定的概率,的取值只與它的方差有關(guān)[5]。切比雪夫不等式定義如式(30)和式(31)所示。

4 實驗結(jié)果及分析

4.1 實驗設(shè)置

為了評估算法的檢測效果,本文在3個公開數(shù)據(jù)集上進行了實驗,分別是SULFA視頻庫(surrey university library for forensic analysis surrey university library for forensic analysis)[15]、CDNET視頻庫(a video database for testing change detection algorithms)[16],華南理工視頻篡改檢測數(shù)據(jù)庫VFDD(Video Forgery Detection Database) Version1.0[17],共約200個視頻。使用Adobe Premiere Pro CC軟件對所有待檢測視頻進行不同數(shù)量程度的幀刪除篡改,分別是5,10、20、25、50、75、100。本文的算法由Python和Matlab編程實現(xiàn)。以下為實驗所使用的計算機配置:中央處理器Intel(R) Xeon(R) CPU,16 GB內(nèi)存以及操作系統(tǒng)為Microsoft Windows 10PC。

4.2 實驗結(jié)果

為了驗證本文算法的有效性,分別針對不同運動劇烈程度的視頻進行不同程度的幀刪除篡改,具體步驟是:對所有視頻運行檢測算法并分析實驗結(jié)果,同時和現(xiàn)有方法的檢測結(jié)果進行比較和量化分析。為了驗證本算法的頑健性,分別從空間約束、梯度結(jié)構(gòu)相似度GSSIM兩個角度進行對比實驗,同時和現(xiàn)有的較優(yōu)算法進行實驗效果的比較分析。實驗的具體流程如下。①驗證空間約束對檢測算法準確率的影響,具體步驟是:對于運動變化劇烈和平緩的兩類視頻,在同等條件下,分別對這兩類視頻進行空間約束和不進行空間約束進行篡改檢測,對比實驗效果。②驗證GSSIM特征的頑健性,具體步驟是:在同等條件下,對畫面模糊和清晰的兩類視頻分別提取特征SSIM和GSSIM進行對比實驗。

4.2.1 對視頻進行空間約束的實驗結(jié)果

選取視頻Camera Road 01.avi進行空間約束實驗結(jié)果的展示說明。首先,運用自適應(yīng)的運動區(qū)域檢測算法對低運動區(qū)域進行空間約束。實驗結(jié)果如圖7所示,選取第8幀圖像構(gòu)建的原始背景模型如圖7(a)所示,第8幀的背景模型如圖7(b)所示,第8幀圖像如圖7(c)所示,圖7(b)和圖7(c)相減得到第8幀的差圖像如圖7(d)所示。對得到的差圖像進行直方圖統(tǒng)計如圖7(e)所示,利用2.1節(jié)低運動區(qū)域閾值的自適應(yīng)選取算法進行閾值的選取,該幀圖像的閾值選取為20,進而得到第8幀的二值化掩碼,如圖7(f)所示,其中黑色區(qū)域是檢測到的第8幀的低運動區(qū)域。然后,利用2.2節(jié)的方法對視頻的高紋理區(qū)域進行空間約束,閾值為150,實驗結(jié)果如圖8所示,白色區(qū)域即為高紋理區(qū)域。最后,對視頻幀的高紋理區(qū)域和低運動區(qū)域進行融合,取兩區(qū)域的交集,得到第8幀的量化相關(guān)性豐富區(qū)域,如圖9所示,實現(xiàn)對視頻的空間約束。

4.2.2 篡改檢測結(jié)果展示

針對視頻的幀刪除篡改,可以通過觀察檢測結(jié)果中被篡改的位置是否出現(xiàn)尖銳峰值,及是否會定位到異常點來判斷檢測效果。根據(jù)GSSIM商公式的計算,在一個篡改點的位置產(chǎn)生兩個異常點,相應(yīng)地會導(dǎo)致一對相鄰的峰值出現(xiàn),篡改點的位置用黑色圓圈標記。

圖8 視頻高紋理區(qū)域的空間約束

圖9 視頻量化相關(guān)性豐富區(qū)域的空間約束

(1)驗證本文算法對運動劇烈視頻的有效性

為了驗證本文方法的有效性,針對不同運動劇烈程度的視頻均進行了篡改檢測,檢測結(jié)果如圖10所示。對于畫面運動較為劇烈的視頻,選取的實驗視頻是SULFA視頻庫中fuji_2800_ road(1).avi,該視頻中記錄的是在高速公路上行駛的汽車,并對其在95幀處進行了10幀的幀刪除篡改(95~105),檢測結(jié)果如圖10(a)所示,可以觀察到在95幀處有尖銳明顯的峰值出現(xiàn),用黑色圓圈標記;如圖10(b)所示,實驗視頻是CDNET視頻庫中turbulence3.avi,turbulence分組的視頻畫面運動較為劇烈,并在238幀處進行了75幀的幀刪除篡改(238~313),可以觀察到在238幀處有尖銳明顯的峰值出現(xiàn),同時篡改點用黑色圓圈標記。對于畫面運動相對劇烈的視頻,選取的實驗視頻是HUANAN視頻庫中walkman. avi,該視頻記錄的是奔跑的行人,同時對該視頻在200幀處進行了25幀的幀刪除篡改(200~225),檢測結(jié)果如圖10(c)所示,可以觀察到在221幀處有尖銳明顯的峰值出現(xiàn),而且用黑色圓圈標記。如圖10(d)所示,實驗視頻是CDNET視頻庫中dynamicBackground的boats.avi,由于它是動態(tài)背景的視頻,所以整體畫面運動相對劇烈,同時在82幀處進行了20幀的幀刪除篡改(82~102),可以觀察到在82幀處有尖銳明顯的峰值出現(xiàn),用黑色圓圈標記。

圖10 運動變化劇烈視頻的篡改檢測結(jié)果

通過實驗證明,本文算法對不同運動劇烈程度的視頻檢測性能都比較良好,均能精準地把篡改點定位出來。

(2) 驗證空間約束效果的對比實驗

為了驗證本文算法所提的空間約束是否能提升檢測的準確率,在同等條件下,針對運動變化劇烈和運動變化平緩的兩類視頻,對視頻進行空間約束和不進行空間約束分別做對比實驗。

①運動變化劇烈的視頻

針對運動變化劇烈視頻的對比實驗結(jié)果如圖11所示,實驗視頻是CDNET視頻庫中Night Video的Video1.avi,并在36幀處進行了5幀的幀刪除篡改(36~51)。首先,對待檢測視頻不進行空間約束,篡改檢測的效果如圖11(a)所示??梢悦黠@看到被篡改的位置36幀處沒有出現(xiàn)尖銳的峰值,且并沒有定位到異常點,卻在92幀和151幀處標記了篡改點,存在嚴重的誤檢測。造成誤檢測的主要原因是該視頻的運動變化較為劇烈,從圖11(a)中可以觀察到該視頻相鄰幀的相關(guān)性波動很大,因為該視頻中存在高速運動的汽車,所以該視頻的運動變化非常劇烈。然后,對視頻進行空間約束,同樣的條件下,對得到的量化相關(guān)性豐富區(qū)域進行視頻篡改檢測,檢測效果如圖11(b)所示,可以觀察到在36幀處有尖銳明顯的峰值出現(xiàn),用黑色圓圈標記。

通過對比實驗,證明了對視頻進行適當(dāng)?shù)目臻g約束可以提高視頻篡改檢測的準確率,減少誤檢率。而且受視頻內(nèi)容變化的影響,現(xiàn)有算法對僅僅幾幀的刪除篡改往往檢測不到,但本文算法卻可以實現(xiàn)精確檢測。說明本文算法不僅能適應(yīng)于運動變化劇烈的視頻篡改,還同樣能檢測到幾幀的細微幀刪除篡改,具有很強的頑健性。

②運動變化平緩的視頻

針對運動變化平緩視頻的實驗結(jié)果如圖12所示,實驗視頻是HUNAN視頻庫中的Yvmaoqiu.avi,并在53幀處進行了25幀的幀刪除篡改(53~78)。首先,對視頻不進行空間約束,篡改檢測的結(jié)果如圖12(a)所示??梢钥吹奖淮鄹牡奈恢?3幀處出現(xiàn)尖銳的峰值,以及黑色圓圈標記的異常點。從圖像中可以觀察到該視頻相鄰幀的相關(guān)性波動很小,因為視頻中不存在高速運動的物體,所以該視頻的運動變化較為平緩。然后,對視頻進行空間約束,同樣的條件下,對空間約束區(qū)域進行篡改檢測,檢測效果如圖12(b)所示??梢杂^察到在53幀有尖銳明顯的峰值出現(xiàn),用黑色圓圈標記。通過對比實驗,說明本文算法同樣適用于運動變化平緩的視頻。

圖11 運動變化劇烈視頻的對比實驗

圖12 運動變化平緩視頻的對比實驗

(2) 驗證特征GSSIM的頑健性

基于人類視覺特性的原理改進SSIM的特征提取和描述方法,本文算法提出在量化相關(guān)性豐富區(qū)域上提取梯度結(jié)構(gòu)相似性GSSIM進行篡改檢測。為了驗證GSSIM特征具有較強的頑健性,能夠適用于畫面模糊視頻的特征提取。在同等條件下,針對畫面模糊和畫面清晰兩種類型的視頻,分別提取SSIM和GSSIM進行對比實驗。

①畫面模糊的視頻

針對畫面模糊視頻的對比實驗結(jié)果如圖13所示,實驗視頻是CDNET視頻庫中Night Video的Video1.avi,并在75幀處進行了20幀的幀刪除篡改(75~95)。首先,用Adobe Premiere Pro CC軟件對篡改后的視頻進行高斯模糊處理,其中模糊因子設(shè)為10;其次,對空間約束后的視頻提取SSIM特征進行篡改檢測,檢測的效果如圖13(a)所示,可以看到被篡改的位置75幀處并沒有出現(xiàn)尖銳的峰值,同時也沒有黑色圓圈標記的異常點,但在170幀處標記到了異常點,造成了誤檢測;然后,同樣的條件下,對視頻提取GSSIM特征進行篡改檢測,檢測效果如圖13(b)所示,可以觀察到在75幀有尖銳明顯的峰值出現(xiàn),用黑色圓圈標記。通過對比實驗,說明本文提出的GSSIM特征具有較強的頑健性,能夠適用于模糊視頻的篡改。

②畫面清晰的視頻

針對畫面清晰視頻的對比視頻實驗結(jié)果如圖14所示,實驗視頻是SULFA視頻庫中的02_original.avi,并在61幀處進行了20幀的幀刪除篡改(61~81)。首先,對空間約束后的視頻提取SSIM特征進行篡改檢測,檢測效果如圖14(a)所示,可以看到被篡改的位置61幀處出現(xiàn)尖銳的峰值,同時也有黑色圓圈標記的異常點;其次,同樣的條件下,對同樣的視頻提取GSSIM特征進行檢測,檢測效果如圖14(b)所示,可以觀察到在61幀處同樣有尖銳明顯的峰值出現(xiàn),而且用黑色圓圈進行了標記。通過對比實驗,說明本文算法提出的GSSIM特征適用于清晰視頻的篡改。

圖13 畫面模糊視頻的對比實驗

圖14 畫面清晰視頻的對比實驗

4.2.3 量化分析與討論

為了評價算法的性能,本文使用準確率(precision)、召回率(recall)對實驗結(jié)果進行分析,計算公式如下。

其中,N是檢測出的正確(correct)點數(shù),N是檢測出的錯誤(false)點數(shù),N是未檢測出(miss)的篡改點數(shù),即漏檢的篡改點的數(shù)量。

部分實驗結(jié)果如表1和表2所示,從表1中可以看出本文算法對不同視頻可以有效準確地檢測到不同程度的幀刪除篡改,其中篡改幀數(shù)為5幀時的召回率最低,原因是該篡改幀數(shù)較小,不足以影響到相鄰幀間的相關(guān)性值的變化,造成了漏檢的篡改點的數(shù)量較多;篡改幀數(shù)為100的檢測準確率最高,因為該篡改幀數(shù)較大,漏檢的篡改點的數(shù)量較少,同時誤檢率也比較低,所以精確率較高。表2是本文算法與對比文獻算法的性能比較結(jié)果,通過分析表2可以得出結(jié)論,本文通過空間約束對量化相關(guān)性豐富區(qū)域進行篡改檢測,在不同公開視頻數(shù)據(jù)庫上的檢測結(jié)果在準確率和召回率上總體均優(yōu)于文獻[5]和文獻[6]的算法。本文算法對CDNET庫中夜間視頻的檢測性能相對不太理想,但也優(yōu)于對比算法,原因可能是夜間視頻光線比較暗,對該類視頻提取到的幀特征不能很好地代表幀圖像內(nèi)容,所以算法在夜間視頻的檢測性能略微下降。

表1 視頻的幀刪除篡改檢測結(jié)果

表2 各算法性能比較結(jié)果

5 結(jié)束語

本文提出了融合空間約束和梯度結(jié)構(gòu)信息的視頻篡改檢測算法,首先對給定視頻進行空間約束,分別自適應(yīng)地提取出低運動和高紋理區(qū)域,把兩區(qū)域進行融合,獲取量化相關(guān)性豐富區(qū)域,通過在此區(qū)域上提取梯度結(jié)構(gòu)相似性特征GSSIM得到空間約束相關(guān)性值,并利用GSSIM商對空間約束相關(guān)性值進行后處理,最后利用切比雪夫不等式實現(xiàn)對篡改點的檢測和定位。通過對比實驗證明,對視頻進行空間約束可以過濾掉一些易造成誤檢的區(qū)域,使約束得到的量化相關(guān)性豐富區(qū)域的相鄰幀之間相關(guān)性值大小較為穩(wěn)定,使之能夠適用于運動變化劇烈視頻的篡改檢測;同時基于人類視覺系統(tǒng)的特性改進了原有的特征提取和描述方法,提出了檢測性能較好的梯度結(jié)構(gòu)相似性特征GSSIM,可以適用于模糊視頻的篡改取證。實驗證明本文算法具有很高的精確率、極低的誤檢率及較強的頑健性,不足之處在于對夜間視頻的篡改檢測性能不太好,這也是后繼需要重點研究的工作。

[1] 陳威兵,楊高波, 陳日超等. 數(shù)字視頻真實性和來源的被動取證[J]. 通信學(xué)報, 2011, 32(6).177-183.

CHEN W B, YANG G B, CHEN R C, et al. Digital video passive forensics for its authenticity and source[J]. Journal on Communications. 2011, 32(6).177-183.

[2] SINGH, RAAHAT DEVENDE R, AGGARWAL N. Video content authentication techniques: a comprehensive survey[J]. Multimedia Systems, 2018:1-30.

[3] ZHAO D N, WANG R K, LU Z M. Inter-frame passive-blind forgery detection for video shot based on similarity analysis[J]. Multimedia Tools & Applications, 2018(1):1-20.

[4] SOWMYA K N, CHENNAMMA H R, LALITHA R. Video authentication using spatio temporal relationship for tampering detection[J]. Journal of Information Security and Applications, 2018, 41:159-169.

[5] WANG W, FARID H. Exposing digital forgeries in video by detecting double MPEG compression[C]//8th Workshop on Multimedia and Security (MM&Sec’06). NY, 2016: 37-47.

[6] LIU H, LI S, BIAN S. Detecting frame deletion in H.264 video[C]//10th International Conference ISPEC. 2017: 262-270.

[7] 左建軍, 吳有富. 一種基于直方圖的實時自適應(yīng)閾值分割方法[J]. 畢節(jié)學(xué)院學(xué)報, 2014, 32(4):53-56.

ZUO J J, WU Y F. A real-time adaptive threshold segmentation method based on histogram[J]. Journal of Bijie University, 2014, 32(4): 53-56.

[8] 黃添強, 陳智文, 蘇立超, 等. 利用內(nèi)容連續(xù)性的數(shù)字視頻篡改檢測[J]. 南京大學(xué)學(xué)報(自然科學(xué)), 2011, 47(5):493-503.

HUANG T Q, CHEN Z W, SU L C, et al. Digital video forgeries detection based on content continuity[J]. Journal of Nanjing University(Natural Sciences), 2011, 47(5):493-503.

[9] 薛麗霞, 羅艷麗, 王佐成. 基于幀間差分的自適應(yīng)運動目標檢測方法[J]. 計算機應(yīng)用研究, 2011, 28(4):1551-1552.

XUE L X, LUO Y L, WANG Z C. Detection algorithm of adaptive moving objects based on frame difference method[J]. Application Research of Computers, 2011, 28(4):1551-1552.

[10] 王晅, 畢秀麗, 馬建峰, 等. 基于概率統(tǒng)計模型與圖像主紋理方向分析的非線性濾波算法[J]. 中國圖象圖形學(xué)報, 2018, 13(5):858-864.

WANG X, BI X L, MA J F, et al. Nonlinear filtering algorithm using probability statistic and main texture direction analysis based on randon transforms[J]. Journal of Image and Graphics, 2018, 13(5):858-864.

[11] AGHAMALEKI J A, BEHRAD A. Inter-frame video forgery detection and localization using intrinsic effects of double compression on quantization errors of video coding[J]. Signal Processing: Image Communication, 2016: 289-302.

[12] 孫健鈞, 趙巖, 王世剛. 基于圖像梯度信息強化的SIFT特征匹配算法改進[J]. 吉林大學(xué)學(xué)報(理學(xué)版), 2018, 56(1):82-88.

SUN J J, ZHAO Y, WANG S G. Improvement of SIFT feature matching algorithm based on image gradient information enhancement[J]. Journal of Jilin University (Science Edition), 2018, 56(1): 82-88.

[13] NERCESSIAN S, AGAIAN S S, PANETTA K. A. An image similarity measure using enhanced human visual system characteristics[C]//SPIE Defense, Security and Sensing. 2011.

[14] QADIR G, YAHAYA S, HO A T. Surrey university library for forensic analysis (SULFA) of video content[C]// IET Conference on Image Processing (IPR 2012). 2012: 1-6.

[15] HE Z. The data flow anomaly detection analysis based on LipChebyshev method[J]. Computer System Application, 2009, 18(10): 61-64.

[16] GOYETTE N, JODOIN P M, PORIKLI F, et al. Changedetection.net: a new change detection benchmark dataset[C]// Computer Vision & Pattern Recognition Workshops. 2014: 1-8.

[17] HU Y J, AL-HAMIDI S. Construction and evaluation of video forgery detection database[J]. Journal of South China University of Technology (Natural Science), 2017, 45(12): 57-64.

Video tampering detection algorithm based on spatial constraint and gradient structure information

PU Han1,2,3, HUANG Tianqiang1,2,3, WENG Bin1,2,3, XIAO Hui1,2,3, HUANG Wei1,2,3

1. Mathematics and Informatics, Fujian Normal University, Fuzhou 350007, China 2. Fujian Provincial Engineering Research Center of Big Data Analysis and Application, Fuzhou 350007, China 3. Digital Fujian Big Data Security Technology Institute,F(xiàn)uzhou 350007, China

The traditional video passive forensics method using only the principle of similarity between adjacent frames will cause a lot of false detection for the video with severe motion.Aiming at this problem, a video tamper detection method combining spatial constraints and gradient structure information was proposed. Firstly, the low motion region and the high texture region were extracted by using spatial constraint criteria. The two regions were merged to obtain the robust quantitative correlation rich regions for extracting video optimal similarity features. Then improving the extraction and description methods of the original features, and using the similarity of the gradient structure in accordance with the characteristics of the human visual system to calculate the spatial constraint correlation value. Finally, the tampering points were located by the Chebyshev inequality. Experiments show that the proposed algorithm has lower false detection rate and higher accuracy.

spatial constraints, the quantitative correlation rich regions, GSSIM(gradient structure similarity), videos with severe motion

普菡(1995? ),女,河南平輿人,福建師范大學(xué)碩士生,主要研究方向為信息安全、數(shù)字多媒體取證。

黃添強(1971? ),男,福建仙游人,博士,福建師范大學(xué)教授,主要研究方向為機器學(xué)習(xí)、數(shù)字多媒體取證。

翁彬(1981? ),男,福建福州人,博士,福建師范大學(xué)講師,主要研究方向為機器學(xué)習(xí)及應(yīng)用。

肖輝(1991? ),男,福建建甌人,福建師范大學(xué)碩士生,主要研究方向為信息安全、數(shù)字多媒體取證。

黃維(1994? ),女,福建莆田人,福建師范大學(xué)碩士生,主要研究方向為信息安全、數(shù)字多媒體取證。

TP393

A

10.11959/j.issn.2096?109x.2019052

2019?04?14;

2019?06?06

黃添強,fjhtq@fjnu.edu.cn

國家重點研發(fā)計劃專項基金資助項目(No.2018YFC1505805);應(yīng)用數(shù)學(xué)福建省高校重點實驗室基金資助項目(No.SX201803)

National Key Program for Developing Basic Science (No.2018YFC1505805),Applied Mathematics Fujian Provincial Key Laboratory Project (No.SX201803)

普菡, 黃添強, 翁彬, 等. 融合空間約束和梯度結(jié)構(gòu)信息的視頻篡改檢測算法[J]. 網(wǎng)絡(luò)與信息安全學(xué)報, 2019, 5(5): 64-79.

PU H, HUANG T Q, WENG B, et al. Video tampering detection algorithm based on spatial constraint and gradient structure information[J]. Chinese Journal of Network and Information Security, 2019, 5(5): 64-79.

猜你喜歡
梯度約束圖像
磁共振梯度偽影及常見故障排除探討
基于應(yīng)變梯度的微尺度金屬塑性行為研究
基于生成對抗網(wǎng)絡(luò)的CT圖像生成
淺析p-V圖像中的兩個疑難問題
巧用圖像中的點、線、面解題
一個具梯度項的p-Laplace 方程弱解的存在性
基于數(shù)字虛擬飛行的民機復(fù)飛爬升梯度評估
馬和騎師
適當(dāng)放手能讓孩子更好地自我約束
CAE軟件操作小百科(11)
隆子县| 临邑县| 天镇县| 邢台市| 靖安县| 米脂县| 江西省| 连云港市| 板桥市| 房山区| 建水县| 阳新县| 南溪县| 灵丘县| 溧阳市| 芜湖县| 扎鲁特旗| 福建省| 连州市| 贡嘎县| 合江县| 新疆| 民勤县| 大石桥市| 西乌珠穆沁旗| 庆元县| 奇台县| 萨迦县| 岳阳县| 晋中市| 贵阳市| 张家港市| 易门县| 青岛市| 略阳县| 勃利县| 惠来县| 会泽县| 郴州市| 光山县| 郸城县|