張力+梅偉健
摘 要:協(xié)同表示算法是人臉識(shí)別中非常典型的基于線性表示的算法,該算法因其操作簡(jiǎn)單,計(jì)算復(fù)雜度低等優(yōu)點(diǎn)已經(jīng)引起了廣泛關(guān)注。但是由于協(xié)同表示算法直接利用已有的圖像二維矩陣進(jìn)行算法操作,沒有考慮圖像中像素之間的差異,浪費(fèi)了一部分圖像中的有用特征。在協(xié)同表示的基礎(chǔ)上,提出了加入融合梯度信息的思想,同時(shí)利用水平方向上和垂直方向上的輪廓特征,達(dá)到提高算法識(shí)別率的結(jié)果。實(shí)驗(yàn)表明,提出的融合梯度的協(xié)同表示算法有效優(yōu)化了原始的協(xié)同表示算法的結(jié)果。
關(guān)鍵詞:人臉識(shí)別;協(xié)同表示分類;人臉輪廓特征;
中圖分類號(hào):TP391 文獻(xiàn)標(biāo)志碼:A
Improved Collaborative Representation Classification Algorithm Based Fusion Gradient
ZHANG Li,MEI Wei-jian
(School of Computer Science,Shaanxi Normal University,Xian,Shaanxi 710119,China)
Abstract:The collaborative representation based classification method is a typical and powerful tool applied in face recognition system.The algorithm has attracted wide attention because of its simple operation and low computational complexity.However,because the collaborative representation algorithm directly uses the existing two-dimensional image matrix,and does not take into account the differences between the pixels in the image,it wastes some of the useful features in the image.On the basis of collaborative representation,this paper puts forward the idea of adding fusion gradient information,and uses the facial contour features in horizontal direction and vertical direction to improve the recognition rate of this algorithm.Experiments show that the proposed algorithm of fusion gradient proposed in this paper can effectively optimize the result of the original collaborative representation algorithm.
Key words:face recognition;collaborative representation based classification method;facial contour features
1 引 言
目前,生物特征識(shí)別技術(shù)已經(jīng)日漸改變著人類的現(xiàn)實(shí)生活,比如最早發(fā)展起來的指紋識(shí)別,以及目前被廣泛應(yīng)用的虹膜識(shí)別。這些都是利用人類固有的生物特征來判斷該對(duì)象的身份。人臉識(shí)別也是一種典型的生物特征識(shí)別,目前人臉識(shí)別的應(yīng)用已經(jīng)給人類的現(xiàn)實(shí)生活帶來很大的便利,比如住宅區(qū)門禁系統(tǒng)以及企業(yè)考勤系統(tǒng)。但是由于人臉的采集具有不穩(wěn)定性,比如采集過程中由于采集環(huán)境光照的變化,以及采集過程中人臉表情的變化,甚至采集中出現(xiàn)的面部遮擋(眼鏡,口罩等)等等都會(huì)給人臉識(shí)別的精確度帶來嚴(yán)重的負(fù)面影響。因此如何達(dá)到穩(wěn)定的人臉識(shí)別正確率依然是目前所有研究人員關(guān)注的重點(diǎn)。
人臉識(shí)別研究發(fā)展至今,學(xué)者們已經(jīng)提出了許多經(jīng)典的人臉識(shí)別算法。其中基于稀疏表示的人臉識(shí)別算法因其顯著的魯棒性已經(jīng)引起了廣泛關(guān)注[1]。稀疏算法在1范數(shù)最小化的約束下保證用最少數(shù)量的訓(xùn)練樣本最好的表示測(cè)試樣本。但是由于1范數(shù)算法約束的復(fù)雜性,實(shí)際運(yùn)算量極大,消耗時(shí)間過長(zhǎng),而現(xiàn)實(shí)中使用的人臉識(shí)別系統(tǒng)對(duì)實(shí)時(shí)性有很高的要求,所以稀疏表示算法難以滿足該要求。后來學(xué)者們?cè)诰€性表示的啟發(fā)下提出了線性回歸分類算法[2],該算法利用同類樣本之間的線性表示進(jìn)行分類。但是由于人臉識(shí)別系統(tǒng)中包含的訓(xùn)練樣本有限,線性回歸算法在對(duì)訓(xùn)練樣本進(jìn)行線性表示時(shí)使用的基總是不完備的,這一點(diǎn)在很大程度上會(huì)導(dǎo)致識(shí)別精度不高。為了解決這個(gè)問題Zhang等人提出了協(xié)同表示算法[3],該算法使用2范數(shù)約束條件,能夠在不降低識(shí)別精度的情況下提高算法的識(shí)別效率。該算法一經(jīng)提出就因其簡(jiǎn)單易操作引起了學(xué)者們的廣泛關(guān)注,至今為止研究人員已經(jīng)提出了很多基于協(xié)同表示的改進(jìn)算法。比如Zhu提出了基于多尺度分塊的協(xié)同表示算法[4],該算法能夠解決訓(xùn)練樣本數(shù)量不足的情況下識(shí)別正確率驟然下降的問題。Yang考慮到不同的特征在線性表示和分類時(shí)所作的貢獻(xiàn)是不一樣的,同時(shí)利用特征的相似性和差異對(duì)特征的線性表示進(jìn)行靈活編碼,即松懈的協(xié)同表示算法[5]。另外Xu利用表示過程中樣本的貢獻(xiàn)差異提出了兩步分類的協(xié)同算法[6,7],該方法先從粗糙表示中挑選貢獻(xiàn)較大的訓(xùn)練樣本再經(jīng)過第二步的精細(xì)表示判斷出貢獻(xiàn)最大的那一類訓(xùn)練樣本。
本文提出了一種融合梯度的協(xié)同表示算法。為了更好的闡述一個(gè)人臉的輪廓信息,我們同時(shí)提取人臉的水平梯度信息endprint
和垂直梯度信息,通過將這兩類信息融合到協(xié)同表示中以達(dá)到提高人臉識(shí)別正確率的結(jié)果。實(shí)驗(yàn)證明,梯度信息的協(xié)同表示能夠幫助更精確的判斷測(cè)試樣本的類標(biāo)。
2 協(xié)同表示算法
在人臉識(shí)別系統(tǒng)中,我們把已知類標(biāo)的樣本叫做訓(xùn)練樣本,把未知的待定類標(biāo)的樣本叫做測(cè)試樣本。協(xié)同表示算法的基本思想是用人臉識(shí)別系統(tǒng)中已知類標(biāo)的樣本的線性組合來等價(jià)表示待定類標(biāo)的樣本,根據(jù)表示過程中每一類所做的貢獻(xiàn)大小來判斷測(cè)試樣本的類標(biāo)。協(xié)同表示算法認(rèn)為貢獻(xiàn)最大的那一類訓(xùn)練樣本與測(cè)試樣本最相似。下面簡(jiǎn)單介紹一下該算法的基本思想。
假定人臉識(shí)別系統(tǒng)中共有c個(gè)已注冊(cè)的對(duì)象,每一個(gè)對(duì)象有n個(gè)已采集到的人臉圖像樣本,即每一個(gè)對(duì)象包含n個(gè)訓(xùn)練樣本,我們用X=[X1,X2,...,Xc]表示一個(gè)包含所有訓(xùn)練樣本的矩陣,矩陣中的分塊矩陣Xi(i=1,...,c)表示第i類訓(xùn)練樣本集,Xi=[xi1,xi,2,...,xin],其中xij(j=1,...,n) 是將二維圖像矩陣按照列優(yōu)先的順序排列得到的列向量。我們用y表示將測(cè)試樣本的二維圖像矩陣用同種方法得到的列向量。協(xié)同表示算法構(gòu)建一個(gè)線性方程,
y=XA (1)
其中,A=[a1,a2,...,ac],ai=[ai1ai2...ain]是第i類訓(xùn)練樣本的表示系數(shù)。將式子(1)展開,
y=a11x11+...+a1nx1n+...ai1xi1+...+ai1xin+...+ac1xc1+...+acnxcn (2)
方程(1)的解可以由下式得出,
a=(XTX+μI)-1XTy(3)
其中μ是一個(gè)很小的正參數(shù),I為單位矩陣,我們用式(4)表示第i類訓(xùn)練樣本的總貢獻(xiàn),
gi=ai1xi1+ai2xi2+...+ainxin(4)
那么,定義第i類訓(xùn)練樣本的表示殘差ri=||y-gi||22。顯然某一類訓(xùn)練樣本的貢獻(xiàn)越大,表示殘差就越小。如果rq=mini{ri},那么就判斷測(cè)試樣本y的類別標(biāo)簽為q。
3 融合梯度的協(xié)同表示算法
3.1 水平梯度和垂直梯度
在這部分我們?cè)敿?xì)介紹一下本文提出的融合梯度的協(xié)同表示算法,首先簡(jiǎn)要介紹一下如何從原始人臉圖像中獲取梯度信息。假定二維人臉圖像矩陣為P∈Rs×t。
為了獲取人臉圖像的水平方向的梯度信息,我們依次用二維圖像矩陣的后一列減去前一列,即
V~i=Pi+1-Pi(i=1,...,t-1) ,
其中Vi表示水平梯度圖像的第i列,Pi+1 和Pi 分別表示原始圖像矩陣的第i+1 列和第i 列。下圖1是一個(gè)簡(jiǎn)單的4×4 矩陣的水平梯度構(gòu)建方式。
3.2 融合兩類梯度的協(xié)同表示算法
這部分我們簡(jiǎn)要概述一下本文提出的融合兩類梯度的協(xié)同表示算發(fā)的基本步驟。
第一步:用原始人臉圖像獲取每一類訓(xùn)練樣本在線性表示測(cè)試樣本時(shí)的表示殘差ri=||y-gi||22。詳細(xì)方法參考第2部分。
第二步:根據(jù)3.1部分的內(nèi)容,獲取每一個(gè)樣本(包括所有訓(xùn)練樣本和測(cè)試樣本)的水平梯度V~ 和垂直梯度V^ ,并分別將兩類梯度矩陣按照列優(yōu)先的順序轉(zhuǎn)換成列向量v~和v^形式。
第三步: 用所有樣本的水平梯度列向量v~代替第2部分協(xié)同表示中的樣本x線性表示測(cè)試樣本的水平梯度列向量,同樣的計(jì)算每一類的表示殘差r~i。用所有訓(xùn)練樣本的垂直梯度列向量v^代替第2部分協(xié)同表示算法中的樣本x線性表示測(cè)試樣本的垂直梯度列向量,并計(jì)算每一類的表示殘差,用r^i表示。
第四步:融合三種表示殘差,di=λ1ri+λ2r~i+λ3r^i ,其中λ1,λ2,λ3 分別是融合系數(shù),且λ1+λ2+λ3=1,λ1>λ2, λ1>λ3。
第五步:根據(jù)最終的表示殘差分類,如果dq=min{di}(i=1,...,c),那么就判定測(cè)試樣本屬于第q類。
4 融合梯度信息的協(xié)同表示算法的實(shí)驗(yàn)
為了驗(yàn)證融合梯度信息的協(xié)同表示算法對(duì)于人臉識(shí)別的有效性,我們?cè)谌齻€(gè)常用的人臉數(shù)據(jù)庫上進(jìn)行識(shí)別正確率的比較。人臉識(shí)別實(shí)驗(yàn)在一個(gè)數(shù)據(jù)庫上的基本設(shè)置是在每一類人臉圖像中挑選一定數(shù)量的樣本作為訓(xùn)練樣本,其余的用作測(cè)試樣本。然后用人臉識(shí)別算法判斷每一個(gè)測(cè)試樣本的類標(biāo)。最后跟人臉庫中這些測(cè)試樣本的真實(shí)類標(biāo)比較,得出識(shí)別正確率。為了驗(yàn)證本文提出的算法的有效性,我們?cè)诿恳粋€(gè)人臉數(shù)據(jù)庫上都進(jìn)行三種人臉識(shí)別算法的實(shí)驗(yàn),分別是線性回歸分類算法、原始的協(xié)同表示分類算法和本文提出的融合梯度的協(xié)同表示算法。
4.1 融合梯度信息的協(xié)同表示算法在FERET數(shù)據(jù)庫上的實(shí)驗(yàn)
FERET數(shù)據(jù)庫是由美國(guó)FERET項(xiàng)目創(chuàng)建的人臉數(shù)據(jù)庫,也是常用人臉庫中最大的人臉數(shù)據(jù)庫之一,實(shí)驗(yàn)中我們選用該庫的一個(gè)子集,子集中包含來自200個(gè)志愿者的1400張人臉圖像,每一個(gè)對(duì)象提供7張圖片。在實(shí)驗(yàn)前我們先將人臉圖像裁剪成40×40 大小。圖3是該人臉數(shù)據(jù)庫子集中若干對(duì)象的全部人臉圖像。實(shí)驗(yàn)中分別在每一類樣本中隨機(jī)選擇3,4,5個(gè)作為訓(xùn)練樣本,其余的當(dāng)做測(cè)試樣本進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)的識(shí)別正確率結(jié)果如表1所示,我們可以看出融合梯度信息以后可以得到優(yōu)于線性回歸分類和協(xié)同表示算法的正確識(shí)別率。比如,當(dāng)訓(xùn)練樣本個(gè)數(shù)為3時(shí),線性回歸分類和線性表示的正確識(shí)別率分別為66.12%和52.43%,而融合梯度信息以后識(shí)別率提高到71.35%。
4.2 融合梯度信息的協(xié)同表示算法在CMU PIE數(shù)據(jù)庫上的實(shí)驗(yàn)
CMU PIE數(shù)據(jù)庫也是目前常用來驗(yàn)證人臉識(shí)別算法的人臉數(shù)據(jù)庫之一,它包含68個(gè)個(gè)體的41368張人臉圖像,該實(shí)驗(yàn)中我們選用其中的一個(gè)子集,該子集包含由68個(gè)人提供的1632張人臉圖像,每人提供24張。在實(shí)驗(yàn)前我們先將圖像裁剪為32×32大小。圖4是該數(shù)據(jù)庫中某個(gè)對(duì)象的全部人臉圖像。實(shí)驗(yàn)中分別在每一類樣本中隨機(jī)選擇8,9,10個(gè)做為訓(xùn)練樣本,其他的作為測(cè)試樣本來驗(yàn)證算法的有效性。實(shí)驗(yàn)結(jié)果如表2所示。融合了梯度的協(xié)同表示算法的正確識(shí)別率要優(yōu)于其他兩種常用的基于表示的人臉識(shí)別算法。endprint
4.3 融合梯度信息的協(xié)同表示算法在ExtendedYaleB上的實(shí)驗(yàn)結(jié)果
ExtendedYaleB人臉數(shù)據(jù)庫是由耶魯大學(xué)創(chuàng)建,38個(gè)對(duì)象提供的共2432張人臉圖像,每一個(gè)志愿者提供64張人臉圖像。這些圖像在光照上有明顯的差異。圖5是該數(shù)據(jù)庫中某一個(gè)對(duì)象的部分人臉圖像。在實(shí)驗(yàn)中我們分別隨機(jī)在每一類中選擇3,4,5個(gè)人臉圖像作為訓(xùn)練樣本,其他的圖像做為測(cè)試樣本進(jìn)行算法的驗(yàn)證。實(shí)驗(yàn)結(jié)果如表3所示。
從三個(gè)數(shù)據(jù)庫上的實(shí)驗(yàn)可以看出,梯度信息的協(xié)同表示對(duì)于提高人臉識(shí)別的分類正確率是有效的。一方面融合梯度的協(xié)同表示避免了線性回歸算法的不完備基帶來的一定負(fù)面影,實(shí)驗(yàn)結(jié)果優(yōu)于線性回歸分類算法。另一方面,根據(jù)梯度信息獲取的方法可知,文中的兩類梯度信息都包含了人臉的輪廓特征,這些特征的加入增加了人臉的可分性。所以融合梯度信息以后的協(xié)同表示算法能夠獲得比原始協(xié)同表示算法高的識(shí)別正確率。
5 結(jié)束語
在協(xié)同表示的基礎(chǔ)上,提出了一種融合梯度信息的算法,利用梯度信息包含的輪廓特征提高了協(xié)同表示人臉識(shí)別的正確率。實(shí)驗(yàn)表明融合梯度信息以后可以得到優(yōu)于線性回歸分類和協(xié)同表示算法的識(shí)別率。
參考文獻(xiàn)
[1] WRIGHT J,YANG A Y,GANESH A,et al.Robust face recognition via sparse representation[J].IEEE Trans.Pattern Anal.Mach.Int.,2009,31:210-227.
[2] NASEEM I,TOGNERI R,BENNAMOUN M.Linear regression for face recognition[J].IEEE Trans.Pattern Anal.Mach.Int,2010,32:2106-2112.
[3] ZHANG D,YANG M,F(xiàn)ENG X.Sparse representation or collaborative representation: Which helps face recognition?[C].IEEE International Conference on Computer Vision,2011:471-478
[4] ZHU P,ZHANG L,HU Q,et al.Multi-scale patch based collaborative representation for face recognition with margin distribution optimization[M].Computer Vision.Springer Berlin Heidelberg,2012:822-835.
[5] YANG M,ZHANG D,ZHANG D,et al.Relaxed collaborative representation for pattern classification[C]// IEEE Conference on Computer Vision and Pattern Recognition.IEEE Computer Society,2012:2224-2231.
[6] XU Y,ZHANG D,YANG J,et al.A Two-Phase Test Sample Sparse Representation Method for Use With Face Recognition[J].IEEE Transactions on Circuits & Systems for Video Technology,2011,21(9):1255-1262.
[7] XU Y,ZHU X,LI Z,et al.Using the original and ‘symmetrical face training samples to perform representation based two-step face recognition[J].Pattern Recognition,2013,46(4):1151-1158.endprint