汪 澄,王小華,姚金良
(杭州電子科技大學(xué)計算機應(yīng)用技術(shù)研究所,浙江杭州310018)
近年來,由于傳統(tǒng)文字聊天方式簡單無味的缺點,許多新型的聊天方式應(yīng)運而生,視頻聊天和語音聊天是其中最為典型的兩種。如何確保新型聊天方式的安全性,抵制色情、暴力等內(nèi)容的出現(xiàn),凈化網(wǎng)絡(luò)聊天環(huán)境,是一個迫切需要解決的問題。當(dāng)今較為成熟的算法理論或應(yīng)用系統(tǒng)多數(shù)基于圖像來設(shè)計,基于視頻,特別是聊天視頻的預(yù)警系統(tǒng)或是防火墻系統(tǒng)較少[1-3]。因此,設(shè)計一個快速有效的基于聊天視頻的預(yù)警系統(tǒng)具有理論和現(xiàn)實意義。本文設(shè)計的是一個預(yù)警系統(tǒng)的核心模塊。該模塊基于普通二進制分類樹判別方式,結(jié)合了相似性,膚色,人臉等特征,對視頻聊天截圖(以下簡稱截圖)的敏感性進行判別,最后將結(jié)果反饋給管理者,從而達到視頻聊天安全性預(yù)警的目的。
視頻聊天安全預(yù)警系統(tǒng)分若干個時間片,從大量聊天視頻中截取圖片,生成一系列截圖序列。在對某段時間內(nèi)的截圖進行名稱排序、大小歸一化之后,交于核心處理模塊判別。
一張視頻截圖,在內(nèi)容上一般只包括在攝像頭前聊天的人和人身后的背景;在形式上包含一個ID號,它由房間號(每個用戶均不相同)和截圖時間兩部分組成,如圖1所示。如果兩幅相鄰截圖(這里所謂的相鄰截圖是指經(jīng)名稱排序、大小歸一化后存儲空間上相鄰的前后兩幅截圖)出自同一聊天視頻,即具有相同的房間號,則它們隸屬于同一個截圖序列。
本文設(shè)計的是整個預(yù)警系統(tǒng)的核心模塊,要解決的是一個兩類問題,即判別當(dāng)前截圖是非敏感的或是疑似敏感的。疑似敏感截圖對應(yīng)的是那些可能存在色情內(nèi)容的聊天視頻。將判別后的疑似敏感結(jié)果反饋給管理者,一方面,管理者可以去除機器未過濾的非敏感截圖,避免誤判現(xiàn)象;另一方面,管理者可以記錄敏感截圖來源的用戶。
為了保證系統(tǒng)的工作效率,在敏感性判別時,選用了一種快速有效的判別方法:普通二進制分類樹,如圖2所示。它是決策樹中最為流行的一種,需要回答的問題是“xi≤αi?”。圖2中,ti(i=1,2,…,n)表示第i次分類后的結(jié)果,xi(i=1,2,…,n)是各步驟所選用的特征,αi(i=1,2,…,n)為各特征對應(yīng)的閾值,ω1和ω2表示兩類結(jié)果。本文基于普通二進制分類樹的截圖敏感性判別系統(tǒng)如圖3所示。
圖1 視頻截圖實例
圖2 普通二進制分類樹
圖3 基于普通二進制分類樹的判別系統(tǒng)
一般情況下,用戶在聊天時,坐姿,神態(tài)等在較短時間內(nèi)不可能發(fā)生急劇改變,只是呈現(xiàn)較小的位移變化。因而可以通過相似性判別來提高系統(tǒng)的運行效率。對于同序列中兩幅具有較高相似度的截圖,無論兩者內(nèi)容是敏感的亦或非敏感,只需要考慮其中一幅截圖的敏感性即可;相反,如果兩幅截圖的相似性小于某一閾值,則需要分別考慮它們的敏感性。
本文選用了顏色直方圖匹配方法來判別兩幅截圖的相似性。顏色直方圖作為一種重要的基于顏色特征進行圖像檢索的方法,具有特征提取和相似度計算簡便,并且隨圖像尺度、旋轉(zhuǎn)等變化不敏感的特點[4]。本文通過計算兩幅截圖灰度直方圖之間的歸一化Bhattacharyya距離來表示匹配程度:
式中,H1和H2分別表示兩幅截圖的灰度直方圖,H1(i)和H2(i)表示直方圖中第i個bin所對應(yīng)的值。d是匹配結(jié)果,值越小,匹配程度越高。
為了提高相似性判別的魯棒性,當(dāng)當(dāng)前截圖處于某個序列中的第i(i=3,4,…)個位置時,需計算相鄰3幅截圖的灰度直方圖。若其對應(yīng)的直方圖與前兩幅相鄰截圖的直方圖之一匹配,則可將當(dāng)前截圖過濾,即無需考慮它的敏感性。
敏感圖像大多具有較多的裸露皮膚。本文提出了一種基于RGB顏色空間的簡單規(guī)則膚色模型來提取膚色點,該模型避免了顏色空間的轉(zhuǎn)換,具有快速有效的特點。通過如表1所示規(guī)則對膚色在RGB空間中的分布進行了刻畫。同時滿足4條規(guī)則的象素點為膚色點。實驗表明在該條件約束下,可使截圖中的膚色點漏檢率控制在4%以內(nèi),示例如圖4所示。
表1 膚色點3通道約束條件
用簡單膚色模型得到膚色mask之后,從形狀和紋理上對膚色進行精煉,由精煉后的膚色所占比例判別截圖敏感性。首先,提取mask中各個膚色塊的輪廓;然后,去除小面積或外接矩形長寬比失衡的膚色塊;最后對原圖進行Canny邊緣檢測,統(tǒng)計膚色mask中剩余膚色塊內(nèi)的Canny邊緣點數(shù),通過邊緣點數(shù)來描述膚色區(qū)域的紋理復(fù)雜度。真正的膚色一般較平滑,而邊緣點數(shù)較多的膚色點多數(shù)都是因背景色被誤檢造成。
在正常的視頻聊天場景中,人們會將人臉暴露在攝像頭前,因此,可以將人臉作為一個重要特征。本文采用基于Adaboost的正面人臉檢測算法[5]。
若原始截圖中不存在人臉,則將截圖旋轉(zhuǎn)后再檢測人臉,以提高檢出率。每次旋轉(zhuǎn)正負(fù)3°,最大角度為正負(fù)15°。人臉檢測實例如圖5所示,檢出的人臉用矩形框表示。
圖4 簡單膚色模型判別示例圖
圖5 人臉檢測示例圖
對檢測結(jié)果做如下處理:(1)無人臉,標(biāo)記成疑似敏感;(2)人臉數(shù)大于1,標(biāo)記成非敏感;(3)人臉數(shù)等于1且人臉外接矩形比例大于截圖尺寸的一半,標(biāo)記成非敏感;(4)人臉數(shù)等于1且人臉位置靠近截圖下方,標(biāo)記成非敏感;(5)人臉數(shù)等于1時的其它情況,考察人臉下方矩形框中經(jīng)膚色判別后檢出的膚色點個數(shù),若膚色比例超過矩形框面積的60%,則將該圖標(biāo)記成疑似敏感,否則標(biāo)記成非敏感。
本文建立了3個測試樣本集(樣本集中的截圖已經(jīng)過名稱排序,大小均被歸一化到176×144,單位為象素)。樣本集一包括敏感截圖430張,樣本集二包括非敏感截圖3 802張,樣本集三是樣本集一和二的集合,共4 232張。其中,樣本集一中所有截圖屬于不同截圖序列,即無法進行相似性判別;而樣本集二中存在同序列截圖。從穩(wěn)定性角度出發(fā),分別對3個樣本集測試,結(jié)果如表2所示。由表2中結(jié)果得到系統(tǒng)的兩個性能指標(biāo):
表2 實驗結(jié)果
召回率Prec=Npc/Np=369/430≈92.1%,誤檢率Perr=Nnpe/Nnp=430/3 802≈11.3%。其中,Npc表示敏感截圖被正確判斷的數(shù)目,Nnpe表示非敏感截圖被錯誤地判斷為敏感截圖的數(shù)目,Np表示敏感截圖總數(shù),Nnp表示所有非敏感截圖的數(shù)目。
在建立樣本集一時,選擇的是那些隸屬不同截圖序列的圖像,即不采用相似性判別方式。因為相似性判別只是為了提高系統(tǒng)的工作效率,而不同于膚色和人臉判別,從圖像內(nèi)容上進行敏感性判別。如樣本集一所述的測試方法,可以更準(zhǔn)確地測試系統(tǒng)的漏檢率。在實際應(yīng)用中,必然存在同一序列中多幅敏感截圖處于相鄰位置的情況。然而,相似性判別只會影響本系統(tǒng)漏檢率的計算,而不會影響最終的反饋結(jié)果。
分析樣本集一,漏檢截圖的產(chǎn)生主要因光線過亮或過暗,或人臉檢測發(fā)生錯誤引起;分析樣本集二,誤檢截圖的產(chǎn)生主要因為,背景的顏色和紋理特征接近于本系統(tǒng)中膚色模型,且無法檢出人臉;分析樣本集三,得出的結(jié)論是,系統(tǒng)可以處理約10張/s截圖,且相似性判別不影響系統(tǒng)的輸出結(jié)果。
針對當(dāng)前視頻聊天中存在的安全隱患,本文結(jié)合了相似性、膚色、人臉等特征,設(shè)計并實現(xiàn)了一個有效的視頻聊天截圖的敏感性判別系統(tǒng),構(gòu)成整個預(yù)警系統(tǒng)的核心模塊。將判別結(jié)果反饋給管理者,達到視頻聊天安全性預(yù)警的目的。本文后續(xù)工作在集中在保證高召回率的前提下,提取新的特征,盡可能減小誤檢率以及更好提升系統(tǒng)運行速率上。
[1]Forsyth D A,F(xiàn)leck M M.Identifying nude pictures[J].IEEE Workshop on Applications of Computer Vision,1996,3(1):103-108.
[2]孫慶杰,吳恩華.基于矩形擬合的人體檢測[J].軟件學(xué)報,2003,8(14):1 388-1 393.
[3]許強,江早,趙宏.一種新穎的智能網(wǎng)絡(luò)圖像內(nèi)容監(jiān)測系統(tǒng)模型[J].軟件學(xué)報,2002,13(3):424-432.
[4]孫君頂,趙珊.圖像低層特征提取與檢索技術(shù)[M].北京:電子工業(yè)出版社,2009:57-58.
[5]Viola P,Jones M.Rapid object detection using a boosted cascade of simple features[C].Hawaii:In Proceeding of IEEE Conference on Computer Vision and Pattern Recognition,2001:511 -518.