鄭俊偉
(四川大學計算機學院,成都 610065)
人臉識別技術是近年來被廣泛研究的熱點之一,人臉識別技術利用從人臉圖像提取有效的特征,然后將這些特征信息與數(shù)據(jù)庫中的人臉信息進行搜索比對,從而判斷這個人的身份信息。近幾年稀疏表示受到越來越多的關注,并且被應用于計算機視覺領域中。尤其是在Wright等人提出的稀疏表示分類方法[1]在人臉識別的應用中取得了很好的識別效果后。稀疏表示分類算法(SRC算法)是近年來新出現(xiàn)的一種人臉識別算法。它的基本思想是給定一個測試樣本,然后得到該樣本在所有訓練樣本構成的字典上的稀疏系數(shù),之后利用稀疏系數(shù)與訓練樣本重構測試樣本,最后將測試樣本分配給重構誤差最小的類別。SRC算法可以直接利用原始像素進行人臉識別,從而避免了預處理的過程。除此之外,SRC算法對表情變化、圖像遮擋具有一定程度的魯棒性。但是,在將稀疏表示人臉識別算法應用于實際中,常常需要在兩個方面進行改進。首先,是要突破人臉圖像對齊的假設,因為在實際環(huán)境中人臉的圖像是不對齊。但是更重要的是,在實際環(huán)境中,常常會發(fā)現(xiàn)可用的訓練樣本非常稀少。為此,大量的學者進行了各種各樣的嘗試,并提出了許多產(chǎn)生虛擬樣本的方案[2-15]。其中一種方案是利用原始訓練樣本和鏡像樣本來進行人臉識別。首先利用原始訓練樣本生成相應的鏡像樣本。然后將原始訓練樣本和相應的鏡像樣本結合產(chǎn)生一個新的訓練樣本,用于人臉識別。該方法讓可用的訓練樣本數(shù)變?yōu)樵瓉淼膬杀?。實驗結果表明,該方法不僅克服樣本稀少的問題,而且克服了人臉圖像的不對齊問題,并且在一定程度上消除了人臉圖像的姿態(tài)變化和光照變化的不利影響。另一種方案是先將人臉分成兩個大小相同的兩半。然后利用每一半分別產(chǎn)生一張“對稱”的虛擬臉。從而讓訓練樣本的數(shù)目變成原來的三倍。本文主要針對SRC算法在實際應用中,可用的訓練樣本少導致識別率低而提出的解決方案。文獻[16]提出一種基于多重表示的圖像分類新方法,該方法能夠為原始訓練樣本產(chǎn)生新的表示。并且能用圖片新的表示提高圖像分類的精度。
SRC算法的基本思想如下[1]:
假設第i類有足夠的訓練樣本,樣本圖像大小為w×h,第i類有ni個訓練樣本,把這ni個訓練樣本數(shù)據(jù)變 成 列 向 量 ,組 成 矩 陣 Ai, 即 Ai=[υi,1,υi,2,…,υi,n]∈Rm×ni,m=w×h。給定一幅新的第 i類的圖像y∈Rm,則y可以由第i類的所有訓練樣本近似線性表示:
其中,ai,j為標量,j=1,2,…,ni。
由于在識別之前y的類別未知,所以定義一個由所有類別的訓練樣本組成的矩陣A,假設訓練樣本有C個類,一共 n個,即則:
如果用A來表示y,那么式(1)可以重寫為:
x0=[0,…,0,ai,1,ai,2,…,ai,n,…,0,…,0]T∈ Rm×ni為系數(shù)向量,即與第i類對應的系數(shù)非零,而其他系數(shù)均為零。
在稀疏表示中,通常求解最小化ι1范數(shù)問題:
在圖像受到小的噪聲影響時,上式可以修改為:
其中,ε>0是誤差容忍度。
式(5)可以轉化為帶ι1數(shù)約束的最小二乘問題:
其中,λ>0是正則化參數(shù),用來平衡重構誤差和稀疏性。當通過求解式(5)或式(6)得到稀疏系數(shù)時,基于重構樣本和測試樣本之間的殘差來對測試樣本進行分類。對于第i類樣本,假設 βi:Rm→Rm為特征函數(shù),它選擇與第i類相關的系數(shù),即對于x∈Rm,δi(x)∈Rm是一個新的向量,這個向量中的非零元素對應x中與第i類相關的元素,而對應其它類的系數(shù)為0。使用δi()和訓練樣本組成的矩陣A,可以得到重構樣本。然后就可以把測試樣本分在最小重構誤差對應的類別中:
稀疏表示分類(SRC)算法的流程如下:
(1)輸入:由C類訓練樣本組成的矩陣A=[A1,A2,…,AC] ∈Rm×n,測試樣本 y∈Rm(可選參數(shù):容忍誤差ε>0);
(2)將y和A的列向量單位化;
(3)求解(5)或(6);
輸出:測試樣本的類別identity(y)=argmiinri(y)。
在文獻[16]中提出了一種基于多重表示的圖像分類新方法。該方法能夠為原始訓練樣本產(chǎn)生新的圖像表示。當將圖片的新表示與原始訓練樣本相結合用于圖像分類時,能夠有效提高圖像分類的精度。其定義如下
其中m=255,Iij表示圖像I在第i行、第j列的像素的灰度值,而Jij表示圖像J在第i行、第j列的像素的灰度值。受到以上模型的啟發(fā),本文提出了一種通過使用常數(shù)矩陣來獲得圖像新表示的方法。算法的模型如下:
假設存在C個類,每個類有n個樣本,樣本圖像的大小為w×h。則算法的具體流程如下:
(1)輸入:由C個類別的訓練樣本組成的矩陣A=[A1,A2,…,AC] ∈Rm×n,常量系數(shù) a;
(2)通過常量a與式子(9)計算得到常數(shù)矩陣B,其中常數(shù)矩陣為w行h列的矩陣;
(3)將常數(shù)矩陣B與每個訓練樣本A(ii=1,2,…,C)相加,獲得新的樣本,將新樣本組成矩陣,其中用表示增強后的樣本;
(4)將A與A'整合成一個新的訓練樣本,然后將其應用于SRC算法中;
(5)輸出:測試樣本的類別:identity(y)=argmiin ri(y)。
由前面關于SRC算法的介紹可知,SRC算法會將測試樣本分到最小重構誤差對應的類別。因此,重構誤差反映了測試樣本與類別的相關程度。即誤差越小,相關程度越高。
在這一小節(jié)將使用ORL人臉數(shù)據(jù)庫和COIL人臉數(shù)據(jù)庫進行實驗,用于驗證本文所提出的改進方法能提高算法的識別率。在實驗中,取數(shù)據(jù)庫第一個人的某張圖片做為測試樣本,然后分別使用SRC算法與改進后的SRC算法,計算該圖片與數(shù)據(jù)庫中各個人的誤差值。圖1展現(xiàn)了基于ORL人臉數(shù)據(jù)庫進行實驗的結果。圖2展現(xiàn)了基于COIL人臉數(shù)據(jù)庫進行實驗的結果。
圖1 使用ORL人臉數(shù)據(jù)庫進行實驗的結果
圖2 使用COIL人臉數(shù)據(jù)庫進行實驗的結果
本小節(jié)通過實驗來驗證本文所提出方法的通用性。在實驗中,除了通過SRC算法進行對比實驗之外,還使用 CRC 算法[17-20]、LRC 算法[21-24]、CFKNNC 算法[25]和INNC算法[26]進行對比實驗。使用的人臉數(shù)據(jù)庫有ORL人臉庫、FERET人臉庫、AR人臉庫和COIL人臉庫。
(1)ORL人臉庫
ORL是一個基于表情和姿態(tài)變化的人臉數(shù)據(jù)庫,該數(shù)據(jù)庫擁有400張人臉圖片,它們由40個人,每個人10張不同姿態(tài)和表情的人臉圖像組成。在實驗中,選擇每個人的前4張圖片作為訓練樣本,而其余的作為測試樣本。這里所選擇的常數(shù)系數(shù)為a=10。圖3展現(xiàn)了ORL人臉數(shù)據(jù)庫的部分訓練樣本與測試樣本。表1展現(xiàn)了本文所提方法在不同算法上進行對比實驗所得到的識別率。
(2)FERET人臉庫
FERET人臉數(shù)據(jù)庫總共擁有1400張人臉圖像,包括200個人的數(shù)據(jù),由每個人的7張不同光照和姿態(tài)的圖像構成。在實驗中,選擇每個人的前4張圖片作為訓練樣本,而將其余的作為測試樣本。這里所選擇的常數(shù)系數(shù)為a=10。圖4展現(xiàn)了FERET人臉數(shù)據(jù)庫的部分訓練樣本與測試樣本。表2展現(xiàn)了本文所提方法在不同算法上進行對比實驗所得到的識別率。
圖3 ORL人臉數(shù)據(jù)庫的部分訓練樣本
表1 基于ORL人臉數(shù)據(jù)庫的實驗結果
圖4 基于FERET人臉數(shù)據(jù)庫的部分訓練樣本
表2 基于FERET人臉數(shù)據(jù)庫的實驗結果
(3)AR人臉庫
AR人臉數(shù)據(jù)庫擁有超過4000張的人臉圖像,包括126個人的數(shù)據(jù),由每個人的不同光照、尺度和姿態(tài)的圖像構成。在實驗中,選擇每個人的前4張圖片作為訓練樣本,而將其余的作為測試樣本。這里所選擇的常數(shù)系數(shù)為a=10。圖5展現(xiàn)了AR人臉數(shù)據(jù)庫的部分訓練樣本與測試樣本。表格3展現(xiàn)了本文所提方法在不同算法上進行對比實驗所得到的識別率。
圖5 基于AR人臉數(shù)據(jù)庫的部分訓練樣本
表3 基于AR人臉數(shù)據(jù)庫的實驗結果
(4)COIL人臉庫
本實驗所使用的COIL數(shù)據(jù)庫總共包括1440張圖像,它由來自20個類別的72張圖像組成。在實驗中,選擇每個人的前4張圖片作為訓練樣本,而將其余的作為測試樣本。這里所選擇的常數(shù)系數(shù)為a=10。圖6展現(xiàn)了COIL人臉數(shù)據(jù)庫的部分訓練樣本與測試樣本。表4展現(xiàn)了本文所提方法在不同算法上進行對比實驗所得到的識別率。
1)從圖1可以看到SRC算法對測試樣本的分類有誤,因為最小重構誤差出現(xiàn)在第16個類別的位置。但改進后的SRC算法能將測試樣本分配到正確的類別。同樣的,通過圖2可以看到SRC算法對測試樣本的分類有誤,但改進后的SRC算法則將測試樣本分配到正確的類別中。通過以上實驗可以發(fā)現(xiàn)改進后的SRC算法能減少原本的SRC算法的錯誤匹配率,從而提高正確識別率。
2)將本文所提出的改進方法應用在除SRC算法以外的算法進行對比實驗,可以發(fā)現(xiàn)基于本文所提出的方法對其他算法進行改進,也能使其他算法的識別率有所提高,從而證明本文所提出的改進方法具有一定的通用性。
圖6 基于COIL數(shù)據(jù)庫的部分訓練樣本
表4 基于COIL人臉數(shù)據(jù)庫的實驗結果
本文主要針對SRC算法在實際應用中,可用的訓練樣本少導致識別率低而提出一種新的方法。該方法通過使用一個特定的常數(shù)矩陣與訓練樣本相加獲得新的訓練樣本,然后將新的訓練樣本與原始訓練樣本相結合產(chǎn)生一個新的數(shù)據(jù)集,從而解決在實際應用中,可用訓練樣本少而導致識別率低的問題。通過實驗表明,該方法不僅能增加可用的訓練樣本,而且可以提高識別率,除此之外,還證明了該方法具有一定的通用性。
[1]J Wright,AY Yang,A Ganesh,et a1.Robust Face Recognition Via Sparse Representation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2009,31(2):210-227.
[2]Y Xu,X Zhu,Z Li,G Liu,Y Lu and H Liu.Using the Original and‘Symmetricalface’Training Samples to Perform Representation Based two-step Face Recognition.Pattern Recognition,2013,46:1151-1158.
[3]Yong Xu,Zheng Zhang,Guang ming Lu and Jian Yang.Approximately Symmetrical Face Images For Image Preprocessing In Face Recognition and Sparse Representation Based Classification.Pattern Recognition,2016,54:68–82.
[4]Y Xu,X Fang,X Li,J Yang,J You,H Liu,S Teng.Data Uncertainty in Face Recognition.Transactions on Cybernetics,2014,44(10).
[5]P Ekman,J.C.Hager,W.V.Friesen.The Symmetry of Emotional and Deliberate Facial Actions.Psychophysiology,1981,18(2):101-106.
[6]B Tang,S Luo and H Huang.High Performance Face Recognition System by Creating Virtual Sample.In Proc.Int.Conf.Neur.Netw.Signal Process.2003:972-975.
[7]P.Niyogi,F(xiàn).Girosi,T.Poggio.Incorporating Prior Information in Machine Learning by Creating Virtual Examples.Proc.IEEE.1998,86(11):2196-2209.
[8]D.Jiang,Y.Hu,S.Yan,L.Zhang,H.Zhang,W.Gao.Efficient 3D Reconstruction for Face Recognition.Pattern Recognition,2005,38(6):787-798.
[9]S.N.Kautkar,G.A.Atkinson,M.L.Smith.Face Recognition in 2D and 2.5D Using Ridgelets and Photometric Stereo,Pattern Recognition,2012,45(9):3317-3327.
[10]N.P.H.Thian,S.Marcel,S.Bengio.Improving Face Authentication Using Virtual Samples.IEEE International Conference on Acoustics,Speech,and Signal Processing,2003:6-10.
[11]R Y.-S,O S.-Y.Simple Hybrid Classifier for Face Recognition with Adaptively Generated Virtual Data.Pattern Recognition Letters,2002,23(7):833-841.
[12]T.Vetter.Synthesis of Novel Views from a Single Face Image.International Journal of Computer Vision,1998,28(2):102-116.
[13]X.-T.Yuan,S.Yan.Visual Classification with Multi-Task Joint Sparse Repre-Sentation.IEEE Conference on Computer Vision and Pattern Recognition,2010:3493-3500.
[14]A.Sharma,A.Dubey,P.Tripathi,V.Kumar.Pose Invariant Virtual Classifiers from Single Training Image Using Novel Hybrid-Eigenfaces.Neurocomputing.2010,73(10–12):1868-1880.
[15]Y.Hu,D.Jiang,S.Yan,L.Zhang,H.Zhang.Automatic 3D Reconstruction for Face Recognition,2004:843-850.
[16]Y Xu,B Zhang,Z Zhong.Multiple Representations and Sparse Representation for Image Classification.Pattern Recognition Letters,2015:9-14.
[17]BA Olshausen,DJ Field.Sparse Coding with an Overcomplete Basis Set:a Strategy Employed by V1?Vision Research.1997,37(23):3311.
[18]W.E.Vinje,J.L.Gallant.Sparse Coding and Decorrelation in Primary Visual Cortex During Natural Vision.SCIENCE.2000,287(5456):1273-1276.
[19]M.Elad,M.Aharon.Image Denoising Via Sparse and Redundant Representations Over Learned Dictionaries.IEEE Trans.Image Processing.2006,15(12):3736-3745.
[20]S.H.Gao,I.W-H.Tsang,L-T.Chia.Kernel Sparse Representation for Image Classification and Face Recognition.Proc.European Conf.Computer Vision,2010.
[21]I.Naseem,R.Togneri,M.Bennamoun.Linear Regression for Face Recognition.Transactions on Pattern Analysis and Machine Intelligence.2010,32(11).
[22]P.N.Belhumeur,J.P.Hespanha,D.J.Kriegman.Eigenfaces vs.Fisherfaces:Recognition Using Class Specific Linear Projection.IEEE Trans.Pattern Analysis and Machine Intelligence,1997,19(7):711-720.
[23]R.Barsi,D.Jacobs.Lambertian Reflection and Linear Subspaces.IEEE Trans.Pattern Analysis and Machine Intelligence,2003,25(2):218-233.
[24]X.Chai,S.Shan,X.Chen,W.Gao.Locally Linear Regression for Pose Invariant Face Recognition.IEEE Trans.Image Processing.2007,16(7):1716-1725.
[25]Y.Xu,Q.Zhu,Z.Fan,D.Zhang,J.Mi,Z.Lai.Using the Idea of the Sparse Representation to Perform Coarse-to-Fine Face Recognition.Information Sciences,2013,238:138-148.
[26]Y.Xu,Q.Zhu,Y.Chen J.Pan.An Improvement to the Nearset Neighbor Classifier and Face Recogniton Experiments,2013:543-545.