王昱蓉,白 靜,張雪英
(太原理工大學(xué) 信息工程學(xué)院,太原 030024)
人臉識(shí)別技術(shù)作為多學(xué)科領(lǐng)域的具有挑戰(zhàn)性的難題,覆蓋了數(shù)字圖像處理、模式識(shí)別、計(jì)算機(jī)視覺、心理學(xué)、數(shù)學(xué)等諸多學(xué)科的內(nèi)容,同時(shí)也廣泛地應(yīng)用于國家安全、軍事以及家庭生活等方面[1]。人臉識(shí)別算法的優(yōu)劣,很大程度上取決于人臉的特征提取及其精準(zhǔn)表示,良好的人臉表示可以使最簡單的分類器達(dá)到最好的識(shí)別效果。Gabor變換(Gabor Transform,GT)不僅可以獲取時(shí)間和頻率的最小不確定性,而且與人的視網(wǎng)膜神經(jīng)細(xì)胞的接受場模型具有驚人的相似性[2],是一種經(jīng)典的人臉特征提取方法。但是目前普遍采用的GT至少存在兩方面的缺陷:
1)GT通常取5尺度,8方向的基函數(shù),變換后的特征維數(shù)是變換前的40倍,致使系統(tǒng)冗余增加。
2)旋轉(zhuǎn)不變性對(duì)圖像識(shí)別非常重要,而GT的方向選擇性使其不具備旋轉(zhuǎn)不變性,在人臉圖像的平面旋轉(zhuǎn)時(shí)性能下降。
為解決上述問題,首先采用一種變形的GT,即環(huán)形對(duì)稱Gabor變換(Circularly Symmetrical Gabor Transform,CSGT)[3-5],用于提取人臉的多通道特征,它可以有效地克服GT的上述缺陷,并對(duì)各種干擾具有一定的魯棒性。然后,為了充分利用CSGT的特性,進(jìn)一步提高特征提取的準(zhǔn)確性以及實(shí)際應(yīng)用的靈活性,本文對(duì)CSGT提取的多通道特征進(jìn)行了優(yōu)化選擇和融合,有效地結(jié)合了紋理圖像檢索的紋理統(tǒng)計(jì)特征提取算法[6]和自適應(yīng)加權(quán)算法[7],提出了一種基于CSGT的人臉特征提取改進(jìn)算法——CSGT多通道紋理加權(quán)(Weighted Multichannel Texture of Circularly Symmetrical Gabor,CSGT-WMT)算法,該算法充分獲取了CSGT的魯棒局部紋理特征,有效解決了識(shí)別的“誤配準(zhǔn)問題”[8],提取出鑒別能力強(qiáng)的特征,減少數(shù)據(jù)冗余。最后,采用PCA加權(quán)算法降維,使用簡單的歐氏距離得到分類識(shí)別結(jié)果,實(shí)現(xiàn)人臉識(shí)別。
分別在ORL,Yale和FERET人臉庫上進(jìn)行實(shí)驗(yàn),相比于GT和其它傳統(tǒng)算法,以及CSGT和其改進(jìn)算法,本文算法識(shí)別率高,數(shù)據(jù)量小,可行性高,對(duì)光照、姿態(tài)、表情、局部形變等干擾具有很好的魯棒性,且靈活適應(yīng)于不同的人臉庫,具有很好的分類性能和實(shí)際應(yīng)用能力。
傳統(tǒng)Gabor濾波器核函數(shù)定義如下:
將式中與方向有關(guān)的頻率向量kuv加以修改,忽略補(bǔ)償直流成份,得到CSGT核函數(shù),定義為:
可見,CSGT是一個(gè)高斯函數(shù)約束的平面波。
σ決定窗口的寬度和波長的比例關(guān)系,
式中:φ為濾波器倍頻程帶寬;σ一般取2π。
對(duì)于一幅人臉圖像,經(jīng)過CSGT變換,即人臉圖像I(x,y)與CSGT核函數(shù)ψv的卷積,定義為:
Ov(x,y)為復(fù)數(shù),其幅值 Mv(x,y)為:
式中:Re(Ov(x,y))和Im(Ov(x,y))分別為 Ov(x,y)的實(shí)部和虛部。
因此,得到v(v=1,2,…,5)個(gè)尺度的幅度響應(yīng)Mv(x,y),因其比較穩(wěn)定,通常作為人臉圖像的CSGT多尺度特征[5],如圖1所示。
圖1 人臉圖像的CSGT多尺度特征
CSGT具有傳統(tǒng)GT的突顯局部紋理、多尺度分析等性質(zhì),還具有兩個(gè)重要性質(zhì):
1)冗余降低。CSGT的基函數(shù)明顯比傳統(tǒng)GT減小。傳統(tǒng)GT得到40個(gè)變換結(jié)果,而CSGT僅保留5個(gè)尺度上的變換結(jié)果,冗余量是傳統(tǒng)GT的1/8。
2)嚴(yán)格的旋轉(zhuǎn)不變性。旋轉(zhuǎn)不變性對(duì)圖像識(shí)別非常重要,而在實(shí)際應(yīng)用中,圖像的旋轉(zhuǎn)是任意的。GT的方向選擇是離散的,使其不具備旋轉(zhuǎn)不變性。如圖2,圖3所示。對(duì)于傳統(tǒng)GT,圖像先變換再旋轉(zhuǎn),與圖像先旋轉(zhuǎn)再變換,有所差別;而CSGT則不同,具有嚴(yán)格旋轉(zhuǎn)不變性。
圖2 傳統(tǒng)GT的旋轉(zhuǎn)敏感性測試
圖3 CSGT的旋轉(zhuǎn)不變性測試
人臉特征提取算法流程如圖4所示,在得到CSGT多尺度特征之后進(jìn)行改進(jìn),提出了一種基于CSGT的人臉特征提取改進(jìn)算法,具有兩點(diǎn)重要改進(jìn)。
2.1.1 CSGT特征優(yōu)選
CSGT變換后的幅度圖像突顯出了局部的紋理信息,但數(shù)據(jù)量是變換前圖像的5倍。因此,有必要對(duì)CSGT特征進(jìn)行優(yōu)選,減少冗余,提取重要的且利于識(shí)別的紋理信息。本文將紋理圖像檢索的紋理統(tǒng)計(jì)特征(Texture Statistical Feature,TSF)提取方法[6]與CSGT相結(jié)合,構(gòu)成了算法CSGT-TSF。該算法使用統(tǒng)計(jì)特征提取方法,有效解決識(shí)別的“誤配準(zhǔn)問題”;并結(jié)合子圖像的處理方式,充分獲取CSGT的魯棒局部紋理特征,減少數(shù)據(jù)冗余。由此構(gòu)建了人臉圖像的CSGT多通道紋理特征。
2.1.2 自適應(yīng)加權(quán)融合
在CSGT-TSF算法的基礎(chǔ)上,為了區(qū)分不同通道紋理統(tǒng)計(jì)特征的重要性,讓鑒別能力強(qiáng)的特征占主導(dǎo)地位,減少干擾因素的影響,提出了一種基于CSGT的人臉特征提取改進(jìn)算法——CSGT多通道紋理加權(quán)算法。該算法采用自適應(yīng)加權(quán)融合,動(dòng)態(tài)調(diào)整不同通道特征的權(quán)值w(1,2,…,10),融合得到最具鑒別能力的特征,即自適應(yīng)加權(quán)的CSGT紋理特征。該特征靈活適應(yīng)于不同的干擾變化。
圖4 CSGT-WMT人臉特征提取算法流程示意圖
CSGT-TSF算法首先將得到的人臉圖像的CSGT多尺度特征劃分子圖像,然后分別對(duì)每個(gè)子圖像進(jìn)行紋理統(tǒng)計(jì)特征提取,最后分別在各尺度上級(jí)聯(lián)子圖像紋理統(tǒng)計(jì)特征提取結(jié)果。
對(duì)于人臉圖像I,在CSGT多尺度特征圖像Mv(x,y)上劃分大小相同的子圖像,假設(shè)子圖像大小為m×n,個(gè)數(shù)為K,每個(gè)子圖像Ik(k=0,1,…K-1)的紋理統(tǒng)計(jì)特征均值μv,k和標(biāo)準(zhǔn)差σv,k分別為:
然后,在各尺度上分別級(jí)聯(lián)其子圖像的紋理統(tǒng)計(jì)特征均值μv,k和標(biāo)準(zhǔn)差σv,k,分別得到各尺度的均值紋理特征μv和標(biāo)準(zhǔn)差紋理特征σv,由它們構(gòu)成了人臉圖像I的多通道CSGT紋理特征(CSGT Texture Features,GTF),GTF用G表示,定義為:
CSGT-TSF算法得到的統(tǒng)計(jì)特征GTF克服了先前點(diǎn)對(duì)點(diǎn)識(shí)別的“誤配準(zhǔn)問題”,數(shù)據(jù)量為紋理統(tǒng)計(jì)前的2/(m×n)。
人臉圖像的每一個(gè)尺度信息在人臉識(shí)別中的貢獻(xiàn)大小是不同的,如果直接將得到的所有尺度的紋理統(tǒng)計(jì)特征直接級(jí)聯(lián)勢必會(huì)造成冗余及降低識(shí)別率[9]。因此,有必要區(qū)分不同通道的紋理統(tǒng)計(jì)特征的重要性,然后根據(jù)重要程度進(jìn)行特征的融合。
自適應(yīng)加權(quán)融合算法,靈活適應(yīng)于光照、姿態(tài)、表情、局部形變等干擾及人臉庫的變化,CSGTWMT算法在CSGT-TSF算法基礎(chǔ)上采用線性判別分析的優(yōu)化思想[10],得到訓(xùn)練樣本各個(gè)通道的紋理統(tǒng)計(jì)特征GTF在不同類別樣本的集中和離散程度,動(dòng)態(tài)調(diào)整不同通道GTF的權(quán)值大小,融合得到最具鑒別能力的特征。
首先分別計(jì)算GTF在第l(l=1,2,…,10)通道上的類內(nèi)方差和類間方差,定義為:
Gi,j,l為第i類第j樣本在第l通道上的GTF矢量。Gi,j,l(q)是特征矢量的第q個(gè)元素標(biāo)量。εi,l(q)是第i類訓(xùn)練樣本Gi,j,l(q)的均值,εl(q)是全部訓(xùn)練樣本Gi,j,l(q)的均值。N 為訓(xùn)練樣本總數(shù),k為樣本類別數(shù),ni為第i類樣本數(shù)。
式中:q∈{1,2,…,d};d為 GTF矢量長度。
因此,得到通道l的權(quán)值wl:
于是,可以根據(jù)wl(l=1,2,…,10)衡量每個(gè)通道的GTF的鑒別能力,進(jìn)一步,將所有通道的GTF加權(quán)求和,得到自適應(yīng)加權(quán)的CSGT紋理特征(A-daptive Weighted CSGT Texture Features,WGTF),WGTF用W 表示,定義為:
人臉樣本經(jīng)過CSGT-WMT算法,進(jìn)行CSGT特征優(yōu)化選擇和融合得到的樣本特征WGTF,提取并融合了最具鑒別能力的特征,削弱了鑒別能力不強(qiáng)的特征,以及減少光照、姿態(tài)等干擾,并且數(shù)據(jù)量減少為原始樣本的1/(m×n)。
為進(jìn)一步降低樣本維數(shù)實(shí)現(xiàn)空間分類,在沒有足夠的先驗(yàn)知識(shí)情況下,應(yīng)該平等的看待PCA的特征向量的每一個(gè)獨(dú)立分量,每個(gè)分量應(yīng)具有相同方差,因此本文采用PCA加權(quán)(Weighted PCA,WPCA)[11],對(duì) CSGT-WMT 得到的人臉特征 WGTF進(jìn)行降維,經(jīng)過WPCA,訓(xùn)練和測試樣本分別得到其對(duì)應(yīng)的投影向量。最后,采用簡單的歐氏距離進(jìn)行分類器設(shè)計(jì),實(shí)現(xiàn)最終的人臉識(shí)別。
實(shí)驗(yàn)分別在ORL、Yale和FERET 3個(gè)人臉庫上進(jìn)行,采用5尺度CSGT,5尺度8方向GT,下采樣和TSF分塊大小均為4×4,WPCA降維方式和歐氏距離分類器。首先,在ORL人臉庫上,對(duì)降維算法PCA和WPCA進(jìn)行對(duì)比,將GT+WPCA、CSGT+WPCA、CSGT-TSF+WPCA 和 CSGTWMT+WPCA進(jìn)行對(duì)比實(shí)驗(yàn)。然后,在Yale和FERET人臉庫上分別進(jìn)行CSGT基礎(chǔ)上的改進(jìn)實(shí)驗(yàn)及其對(duì)比。
ORL人臉庫包括40組人臉樣本,每組10張,共400張。每組是一個(gè)人包括姿態(tài)、表情和面部飾物等變化圖像,大小為112×92。表1給出了每種算法分別取不同數(shù)目訓(xùn)練樣本對(duì)應(yīng)得到的識(shí)別率結(jié)果,在訓(xùn)練樣本數(shù)為2~8時(shí),分別隨機(jī)選取訓(xùn)練樣本進(jìn)行30次實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果取平均;訓(xùn)練樣本數(shù)為9時(shí)使用排一法得到結(jié)果。表2給出了各算法在取不同數(shù)目的訓(xùn)練樣本下分別使用排一法識(shí)別的CPU運(yùn)行時(shí)間。從表1和表2可以看出,降維算法WPCA的識(shí)別率優(yōu)于PCA,且識(shí)別時(shí)間有所減少;CSGT+WPCA相比GT+WPCA的平均識(shí)別率有所提高,且數(shù)據(jù)量減少,識(shí)別時(shí)間明顯降低;改進(jìn)的CSGT-WMT+WPCA算法相比CSGT+WPCA,不僅識(shí)別率提高了,最高識(shí)別率可達(dá)到98.47%,而且數(shù)據(jù)量及運(yùn)行時(shí)間也有大幅度的減少。通過實(shí)驗(yàn)驗(yàn)證了CSGT優(yōu)于GT以及本文算法CSGT-WMT的有效性和可行性。
表1 ORL人臉庫上各種算法識(shí)別率 %
表2 ORL人臉庫各種算法識(shí)別時(shí)間 s
Yale人臉庫包括15個(gè)志愿者,每人11幅,共165幅人臉圖像,圖像大小為100×100。本文選擇每人前6張圖像作為訓(xùn)練樣本,其余作為測試樣本進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)包括表情和光照的變化,對(duì)比了CSGT+WPCA和其改進(jìn)實(shí)驗(yàn):CSGT-TSF+WPCA和CSGTWMT+WPCA。實(shí)驗(yàn)結(jié)果如圖5所示。
圖5 CSGT及其改進(jìn)算法在Yale上的實(shí)驗(yàn)比較
FERET人臉庫包括200個(gè)志愿者,每人7幅圖像,圖像大小為128×128。本文選取其中60個(gè)人的圖像,每人前4幅作為訓(xùn)練樣本,其余作為測試樣本進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)包括豐富的表情、光照和姿態(tài)等變化,對(duì)比了CSGT和其改進(jìn)算法。實(shí)驗(yàn)結(jié)果如圖6所示。
圖6 CSGT及其改進(jìn)算法在FERET的實(shí)驗(yàn)比較
由圖5、圖6可見,CSGT-TSF識(shí)別率相比CSGT有所改進(jìn),算法CSGT-WMT識(shí)別率在CSGT-TSF基礎(chǔ)上有很大提高,自適應(yīng)加權(quán)融合了最具鑒別能力的人臉特征,使之能降低不同干擾(光照,姿態(tài),表情)對(duì)其影響,其識(shí)別率在FERET人臉庫干擾增多的情況下與Yale人臉庫中的相比減小幅度不大,因此可以靈活適用于不同的人臉庫,具有很好的實(shí)際應(yīng)用能力。
提出的CSGT-WMT算法,識(shí)別率高,對(duì)光照、姿態(tài)、表情等影響具有很好的魯棒性,靈活適應(yīng)于不同的人臉庫,并且數(shù)據(jù)量小識(shí)別時(shí)間短可行性強(qiáng),相比CSGT和GT等方法具有明顯的優(yōu)勢,具有很高的實(shí)用價(jià)值。但隨著不同人臉庫干擾因素的增多,影響了識(shí)別率,因此有必要進(jìn)一步對(duì)各種干擾因素進(jìn)行綜合分析深入研究,使用復(fù)雜的分類器進(jìn)一步提高識(shí)別效果。
[1]張翠平,蘇光大.人臉識(shí)別技術(shù)綜述[J].中國圖象圖形學(xué)報(bào),2000,5(11):885.
[2]張國云,郭龍?jiān)?,吳健輝,胡文靜.計(jì)算機(jī)視覺與圖像識(shí)別[M].北京:科學(xué)出版社,2012.
[3]Zhu Zhenfeng,Tang Ming,Lu Hanqing.A New Robust Circular Gabor Based Object Matching by Using Weighted Hausdorff Distance[J].Pattern Recognition Letters,2004,25(4):515-523.
[4]Wang Huiyuan.Face Recognition Approaches Based on Linear Subspace and Circularly Symmetrical Gabor Transforms[D].Jinan,China:School of Information Science and Engineering,Shandong University,2007(in Chinese).
[5]王進(jìn)軍,王匯源,吳曉娟.基于環(huán)形對(duì)稱Gabor變換和PCA加權(quán)的人臉識(shí)別算法[J].模式識(shí)別與人工智能,2009,22(4):635-638.
[6]Manjunath B S,Ma W Y.Texture features for browsing and retrieval of image date[J].IEEE Trans.on PAMI,1996,18(8):837-842.
[7]楊青山,郭成安,金明錄.基于Gabor多通道加權(quán)優(yōu)化與系數(shù)表征的人臉識(shí)別方法[J].電子與信息學(xué)報(bào),2011,33(7):1620-1621.
[8]余磊,何中市.Gabor小波變換在人臉識(shí)別中的應(yīng)用研究[D].重慶大學(xué)計(jì)算機(jī)學(xué)院,2009.
[9]Amin M A,Yan H.An empirical study on the characteristics of Gabor representations for face recognition[J].International Journal of Pattern Recognition and Artificial Intelligence,2009,23(3):401-431.
[10]李文輝,高璐,林逸峰.特征選擇模糊加權(quán)多通道Gabor人臉識(shí)別[J].湖南大學(xué)學(xué)報(bào)(自然科學(xué)版),2013,40(4):87-93.
[11]Wang Huiyuan,Wu Xiaojuan.Weighted PCA Space and Its Application in Face Recognition[C]//Proc of the 5thInternational Conference on Machine Learning and Cybernetics,Guangzhou,China,2005,Ⅶ:4522-4527.