丁蓮靜 劉光帥 李旭瑞 陳曉文
摘 要:針對人臉識別因光照、姿態(tài)、表情、遮擋及噪聲等多種因素的影響而導(dǎo)致的識別率不高的問題,提出一種加權(quán)信息熵(IEw)與自適應(yīng)閾值環(huán)形局部二值模式(ATRLBP)算子相結(jié)合的人臉識別方法(IE(w)ATR-LBP)。首先,從原始人臉圖像分塊提取信息熵,得到每個子塊的IEw;然后,利用ATRLBP算子分別對每個人臉子塊提取特征從而得到概率直方圖;最后,將各個塊的IEw與概率直方圖相乘,再串聯(lián)成為原始人臉圖像最后的特征直方圖,并利用支持向量機(jī)(SVM)對人臉進(jìn)行識別。在AR人臉庫的表情、光照、遮擋A和遮擋B四個數(shù)據(jù)集上,IE(w)ATR-LBP方法分別取得了98.37%、94.17%、98.20%和99.34%的識別率。在ORL人臉庫上,IE(w)ATR-LBP方法的最大識別率為99.85%;而且在ORL人臉庫5次不同訓(xùn)練樣本的實(shí)驗(yàn)中,與無噪聲時相比,加入高斯和椒鹽噪聲后的平均識別率分別下降了14.04和2.95個百分點(diǎn)。實(shí)驗(yàn)結(jié)果表明,IE(w)ATR-LBP方法能夠有效提高人臉在受光照、姿態(tài)、遮擋等影響時的識別率,尤其是存在表情變化及脈沖類噪聲干擾時的識別率。
關(guān)鍵詞:人臉識別;局部二值模式;加權(quán)信息熵;自適應(yīng)閾值;深度學(xué)習(xí)
中圖分類號:?TP391.4
文獻(xiàn)標(biāo)志碼:A
Face recognition combining weighted information entropy with enhanced local binary pattern
DING Lianjing, LIU Guangshuai*, LI Xurui, CHEN Xiaowen
School of Mechanical Engineering, Southwest Jiaotong University, Chengdu Sichuan 610031, China
Abstract:?Under the influence of illumination, pose, expression, occlusion and noise, the recognition rate of faces is excessively low, therefore a method combining weighted Information Entropy (IEw) with Adaptive-Threshold Ring Local Binary Pattern (ATRLBP) (IEwATR-LBP) was proposed. Firstly, the information entropy was extracted from the sub-blocks of the original face image, and then the IEw of each sub-block was obtained. Secondly, the probability histogram was obtained by using ATRLBP operator to extract the features of face sub-blocks. Finally, the final feature histogram of original face image was obtained by concatenating the multiplications of each IEw with the probability histogram, and the recognition result was calculated through Support Vector Machine (SVM). In the comparison experiments on the illumination, pose, expression and occlusion datasets from AR face database, the proposed method achieved recognition rates of 98.37%, 94.17%, 98.20%, and 99.34% respectively; meanwile, it also achieved the maximum recognition rate of 99.85% on ORL face database. And the average recognition rates in 5 experiments with different training samples were compared to conclude that the recognition rate of samples with Gauss noise was 14.04 percentage points lower than that of samples without noise, while the recognition rate of samples with salt & pepper noise was only 2.95 percentage points lower than that of samples without noise. Experimental results show that the proposed method can effectively improve the recognition rate of faces under the influence of illumination, pose, occlusion, expression and impulse noise.
本文提出了一種結(jié)合加權(quán)信息熵與自適應(yīng)閾值環(huán)形局部二值模式的人臉識別方法,利用信息熵對被分塊的人臉圖像信息加權(quán),以確定提取特征在識別中的比重,提出的環(huán)形局部模式算子在原始LBP基礎(chǔ)上,進(jìn)一步優(yōu)化了局部特征的提取方式,再加上自適應(yīng)閾值的融合,在增加抗干擾能力的同時,最后的人臉識別率有了顯著提高。實(shí)驗(yàn)結(jié)果表明,該方法能夠有效提高人臉在光照、姿態(tài)、遮擋、噪聲等影響下,尤其表情變化下的識別率。
1 局部二值模式及相關(guān)變體
1.1 LBP特征
LBP最初由Ojala等[13]提出來,被看作是一種灰度范圍內(nèi)的紋理度量。最起初的LBP算子定義為:在某中心像素及其周圍大小為3×3的矩形鄰域,將中心像素的每個鄰域像素值以該中心像素的灰度值為閾值進(jìn)行二值量化,大于或等于中心像素的像素值則編碼為1,小于則編碼為0,以此形成一個局部二進(jìn)制模式,將閾值化后的值(即0或者1)分別與對應(yīng)位置像素的權(quán)重相乘,8個乘積的和即為該鄰域的LBP值(即十進(jìn)制值)。具體計(jì)算方法舉例如圖 1所示。
編碼公式如下:
LBP(xc,yc)=∑ P-1 p=0 2ps(ip-ic);
s(x)= 1,?? x≥00, 其他
(1)
式中:(xc,yc)是中心像素,ic為其灰度值;P為鄰域內(nèi)除中心像素外像素總數(shù);第p個像素灰度值為ip;s(x)為符號函數(shù)。
LBP最終得到的直方圖維數(shù)為2P,即維數(shù)將會隨鄰域樣本點(diǎn)個數(shù)P的增加呈現(xiàn)指數(shù)形式的增加,所以O(shè)jala等[14]又提出了ULBP算子對原始LBP提取到的結(jié)果進(jìn)行映射降維,很大程度地降低了計(jì)算量。
1.2 CS-LBP特征
CS-LBP[15]是取關(guān)于中心點(diǎn)對稱的一對像素進(jìn)行差值計(jì)算,在LBP基礎(chǔ)上,CS-LBP減少了計(jì)算量,其計(jì)算量只有基本LBP的一半。它的編碼方式如下:
CS-LBPR,N,T(x,y)= ∑ (N/2)-1 i=0 s(ni-ni+(N+2))2i;
s(x)= 1,?? x≥T0, 其他
(2)
式中:ni和ni+(N+2)分別是關(guān)于中心點(diǎn)對稱兩個點(diǎn)的像素灰度值,N是計(jì)算區(qū)域內(nèi)除中心像素外的像素總數(shù),T為閾值。
1.3 MB-CSLBP特征
MB-CSLBP[16]是在CS-LBP基礎(chǔ)上,把圖像分成大小相等的正方形塊,然后求取各個塊的平均值,把CS-LBP算子中的單個像素點(diǎn)的灰度值替換成用塊所求得的平均灰度值,從而得到最后的二進(jìn)制編碼,該方法編碼過程舉例如圖2所示。與CS-LBP一樣,該算子與LBP算子相比,最后得到的維數(shù)較低,對噪聲具有魯棒性,同時也在某種程度上表達(dá)了圖像的宏觀結(jié)構(gòu),降低了圖像空間信息的損失,增強(qiáng)了分類效果。它的編碼方式如下:
MB-CSLBP=∑ 3 i=0 s(Bi-Bi+4)2i;
B=∑ L2-1 k=0 gk, s(x)= 1,?? x≥T0, 其他
(3)
式中:Bi為第i個正方形塊平均灰度值,gk為原圖像第k個像素點(diǎn)灰度值,L為正方形塊邊長,T為閾值。
2 加權(quán)信息熵
Shannon[23]在1948年提出了信息熵(Information Entropy,IE)的概念,將熱力學(xué)概率擴(kuò)展到系統(tǒng)各種信息源的發(fā)生概率,一個離散隨機(jī)信號X(x1,x2,…,xt)發(fā)生的概率為p(x1),p(x2),p(x3),…,p(xt),則它們的信息熵H(x)可以描述為:
H(x)=∑ t i=1 p(xi)lg ?1 p(xi)? =-∑ t i=1 p(xi)lgp(xi)
(4)
計(jì)算機(jī)采用高低電頻(開關(guān)數(shù)0或者1)進(jìn)行計(jì)算,取對數(shù)底為2,一幅數(shù)字圖像的f(x,y)信息熵E可以表示如下:
E=-∑ k k=1 pklb(pk);? 0≤pk≤1, ∑ 255 k=1 (pk)=1
(5)
式中:k表示像素級數(shù),由于選取的圖像為灰度人臉圖像,所以0≤k≤255,pk表示第k級像素點(diǎn)出現(xiàn)的概率。E表示信息的無序程度,其值越大,該類信息對最后的識別貢獻(xiàn)越低。假設(shè)人臉被分為m塊,第i塊信息熵Ei決定它在最后直方圖中的占比,Ei越大,則賦予它越小的權(quán)重。由此,定義信息偏差度:
di=1-Ei
(6)
得第i塊的權(quán)重為:
wi= di ∑ m i=1 di = 1-Ei m-∑ m i=1 Ei ;
wi∈(0,1),∑(wi)=1, i=1,2,…,m
(7)
3 本文方法
3.1 自適應(yīng)閾值環(huán)形局部二值模式
受MB-CSLBP算子啟發(fā),本文提出自適應(yīng)閾值環(huán)形局部二值模式(Adaptive Threshold Ring Local Binary Pattern, ATRLBP)提取人臉特征,如圖3,即以一個像素點(diǎn)nc為中心,結(jié)合其周圍的8個相鄰像素點(diǎn),形成一個3×3局部鄰域。首先,分別按環(huán)形作差值計(jì)算周圍8個像素,得到8對差值,其中差值形式有絕對值和非絕對值兩種,分別定義為yesABS、noABS;其次,將每個差值與閾值T比較,如果大于或等于T,該值為1,否則為0,生成8位二進(jìn)制編碼字符串,其中的閾值T為該鄰域塊均值大小的n(%)倍,n為自適應(yīng)值,范圍為[0.01,0.09],根據(jù)實(shí)驗(yàn)最終確定最佳值;最后,利用ULBP算子進(jìn)行降維映射(mapping)。對于一張256階灰度人臉圖,最終得到與原始圖像大小相同的結(jié)果矩陣,直方圖維數(shù)為59。編碼方式如下:
ATRLBP= s(n1-n2)20+s(n2-n3)21+, …,+s(n8-n1)27;
s(u)= 1,? u≥T0, 其他 ;
T=n× 1 P+1 ∑ P-1 i=0 (ni+nc)
(8)
式中:n1到n8為鄰域內(nèi)依次排列的8個像素點(diǎn),nc為中心像素點(diǎn)。
采用ATRLBP算子在ORL人臉庫分別隨機(jī)提取兩個人各5張圖片生成的人臉圖像紋理特征如圖4所示。
3.2 結(jié)合IE(w)的ATRLBP特征
文獻(xiàn)[24]首次在人臉識別中提出了分塊,由于增強(qiáng)了空間性,在一定程度上提高了識別率;但該方法只是單純地把人臉圖像劃分為橫豎N×N大小的子塊,并未討論劃分后的各個子塊所包含的信息對最終識別的貢獻(xiàn)。實(shí)際上,每個人臉子塊表達(dá)了不同的紋理細(xì)節(jié),對于具有豐富紋理細(xì)節(jié)的子塊,應(yīng)該賦予該子塊更大的權(quán)重,使最后得到的紋理特征最大限度反映人臉圖像。
由第2章知,對人臉圖像進(jìn)行分塊以保留人臉空間信息,采用ATRLBP算子提取出各個人臉子塊的紋理特征,將其與各個人臉子塊信息熵(IE)對應(yīng)的權(quán)值wi融合起來得到最后的特征直方圖V,并定義為IE(w)ATR-LBP,整個流程如圖5
所示。此處需要注意,為了準(zhǔn)確表示各個級別所得直方圖橫縱軸數(shù)值級別,圖5中所有直方圖來自實(shí)驗(yàn)中的隨機(jī)時刻,具 體數(shù)值并不對應(yīng)所顯示人臉圖片,只是作流程說明,但是所有直方圖橫縱軸所對應(yīng)的數(shù)值級別一致。
V =(w1v1,w2v2,…,wmvm)
(9)
式中:(v1,v2,…,vm)表示各個人臉子塊用本文ATRLBP算子
提取到的概率直方圖向量;(w1,w2,…,wm)分別為1到m塊的信息熵權(quán)重; V 為一張人臉圖像最終直方圖向量。
采用所提出的IE(w)ATR-LBP方法遍歷256階灰度人臉圖像一次,結(jié)果為28維,即最終得到256維直方圖;如果分塊4×4并統(tǒng)一映射降維,則一張人臉圖像的最終直方圖維數(shù)為59×16=944。
從ORL人臉庫隨機(jī)挑選一張人臉圖像,采用ATR-LBP算子,在有/無加權(quán)信息熵兩種情況下生成直方圖,如圖6所示,分塊大小為4×4。
4 差值形式與自適應(yīng)閾值的確定
確定差值形式與自適應(yīng)閾值
4.1 實(shí)驗(yàn)用人臉庫
本文所有實(shí)驗(yàn)均選用AR和ORL兩大標(biāo)準(zhǔn)人臉圖像數(shù)據(jù)庫作訓(xùn)練及測試用,其中的部分人臉圖像示例如圖7、8所示。
AR人臉庫由100人、每人26張彩色圖像組成,大小為 165×120。這些圖像均來自同一個體在兩個不同時期當(dāng)表情、遮擋、光照等一系列條件變化時的情況。前期拍攝出前13張照片,后13張來自于第二個時期,時間上前后相差僅僅14天。實(shí)驗(yàn)中所有圖像均為灰度化之后的圖像。圖7是其中一個個體的26張灰度圖,從左到右:第1張為原始參考;第2~4張為表情變化;第5~7張為光照變化,光源方向依次為右、左、正面;后6張為物品遮擋,包含遮擋集A(眼鏡)和遮擋集B(圍脖),同時附帶光照變化。
ORL人臉數(shù)據(jù)庫包含2年內(nèi)采集的40個人(不同年齡、性別、種族對象),每個人10張112×92大小的人臉灰度圖像,包括微小光照變化、表情變化(睜/閉眼,笑/不笑)、人臉細(xì)節(jié)(帶/不帶眼鏡)、人臉姿態(tài)變化、20%以內(nèi)的尺度變化等。該庫是目前使用最廣泛的標(biāo)準(zhǔn)人臉數(shù)據(jù)庫之一,它含有大量的比較結(jié)果。圖8是裁剪為80×80的兩個對象的例子。
4.2 差值形式
在AR、ORL人臉庫分別設(shè)置對比實(shí)驗(yàn),本文的所有分類任務(wù)均采用臺灣大學(xué)林智仁(Lin Chih-Jen)副教授等開發(fā)設(shè)計(jì)的libSVM分類器進(jìn)行分類識別,且識別率是10次識別的均值。mapping/noABS中mapping表示采用了統(tǒng)一描述算子降維,noABS表示環(huán)形相鄰點(diǎn)之間差值形式不采用絕對值,其余以此類推。
1)AR人臉數(shù)據(jù)庫。每個人有26張人臉圖像,從中隨機(jī)選取訓(xùn)練樣本數(shù)從1到13張,形成13次結(jié)果數(shù)據(jù),結(jié)果如圖9所示。
可以看出,在識別率方面,隨著訓(xùn)練樣本數(shù)量的增加,四種特征提取方法的識別率都呈現(xiàn)對數(shù)式增加。nomapping/noABS方法同樣本條件下識別率最高,當(dāng)訓(xùn)練樣本數(shù)達(dá)到13時,識別率高達(dá)98.30%;緊隨其后為mapping/noABS,其整體識別率與前者相差并不大,最高也能達(dá)到9786%;采用絕對值(yesABS)的方法的識別率較低。這說明降維或者不降維對本文提出的IE(w)ATR-LBP方法的識別率沒有決定性影響,如若采用絕對值的形式,得到的識別率較低。在歷時方面,noMapping/noABC與noMapping/yesABC兩種方法基本重合,計(jì)算量都很大;另外兩種方法計(jì)算量卻小很多。
2)ORL人臉數(shù)據(jù)庫。
每個人有10張樣本,從中隨機(jī)選取訓(xùn)練樣本數(shù)1到5,得到5次實(shí)驗(yàn)數(shù)據(jù),結(jié)果如圖10所示。
ORL人臉庫的實(shí)驗(yàn)結(jié)果表明,除去與AR人臉庫本身的差異外,兩組數(shù)據(jù)趨勢嚴(yán)格保持一致。
結(jié)合AR及ORL人臉庫實(shí)驗(yàn)結(jié)果,綜合考慮識別率和計(jì)算量,mapping/noABS是個很好的選擇,既達(dá)到了本文需要的識別精度,計(jì)算量也相對較少。
4.3 自適應(yīng)閾值
為了得到最佳自適應(yīng)閾值T,采用IE(w)ATR-LBP方法,在mapping/noABS模式下,取n值分別為0到0.09,步長為0.01的十組數(shù),分別針對AR和ORL人臉庫,得到十組實(shí)驗(yàn)結(jié)果,從而確定最終的n值。
AR人臉庫每個個體采用10個訓(xùn)練樣本,ORL人臉庫則采用4個訓(xùn)練樣本,實(shí)驗(yàn)結(jié)果如圖 11所示。從AR的實(shí)驗(yàn)結(jié)果來看,當(dāng)n=0.01時,有最大識別率,當(dāng)n=0時,識別率僅次于n=0.01時,且隨著n值增大,識別率呈滑坡式下降;ORL庫在n=0.03處達(dá)到最大識別率。
實(shí)驗(yàn)結(jié)果說明:閾值T可以增強(qiáng)ATRLBP算子在平滑圖像灰度差異方面的魯棒性,且最大識別率出現(xiàn)在n值的初期階段;造成識別率呈滑坡式下降的主要原因是T值過大(n值過大),導(dǎo)致被提取出的二值編碼全部為0。此外,從人臉圖像本身來看,局部鄰域內(nèi)像素值之間的差值非常小,對相鄰像素更是如此,所以,T應(yīng)該是一個在一定范圍內(nèi)的較小的正數(shù)。在人臉圖像特征提取過程中,本文采取對比實(shí)驗(yàn)最終確定n=0.02,即最終確定本文的ATRLBP算子形式為Mapping/noABS,且閾值T等于均值的0.02倍。
5 實(shí)驗(yàn)結(jié)果與分析
5.1 抗噪魯棒性驗(yàn)證
ORL人臉庫包含微小光照變化,用直方圖均衡方法去除光照影響,人為加入高斯和椒鹽兩種類型噪聲,驗(yàn)證在噪聲影響下本文方法的識別率,
結(jié)果如表 1所示??梢钥闯?,在不加噪聲情況下識別率最高為98.85%,最低為80.56%,說明IE(w)ATR-LBP方法對人臉表情及姿態(tài)變化具有良好魯棒性;加入高斯、椒鹽噪聲后識別率均有所下滑,但椒鹽識別率下滑不明顯,樣本數(shù)為1時下降了5.75個百分點(diǎn),樣本數(shù)為5時僅下降了0.27個百分點(diǎn);再次對比無噪聲、加入高斯噪聲和加入椒鹽噪聲在5次不同訓(xùn)練樣本實(shí)驗(yàn)下的平均識別率,加入高斯噪聲后的平均識別率下降了14.04個百分點(diǎn),而加入椒鹽噪聲后僅下降了2.95個百分點(diǎn),說明IE(w)ATR-LBP方法對脈沖類噪聲有良好的抗噪性。
5.2 不同方法對比驗(yàn)證
為了驗(yàn)證IE(w)ATR-LBP人臉識別方法在光照、人臉表情和姿態(tài)、遮擋等因素影響下的魯棒性,與部分方法分別在ORL與AR人臉庫進(jìn)行對比實(shí)驗(yàn),結(jié)果見表2~4。
在ORL人臉庫分別選取S=2及S=5張人臉圖像作訓(xùn)練樣本,剩余作測試樣本;將AR人臉庫分為四個集進(jìn)行實(shí)驗(yàn),分別是表情集、光照集、遮擋集A、遮擋集B,每個人臉集分別取3張人臉圖像作為訓(xùn)練樣本,剩余作測試樣本。SVM分類識別階段均采自10次結(jié)果的平均值,增加結(jié)果穩(wěn)定性。
表2是各對比方法在2張訓(xùn)練樣本與5張訓(xùn)練樣本兩種情況下的10次平均識別率,IE(w)ATR-LBP人臉識別方法基本能達(dá)到最高識別率,在S=5時有最大識別率98.85%。識別率大小與IE(w)ATR-LBP人臉識別方法最接近的是文獻(xiàn)[22]中提出的基于稀疏表示并且融合三種特征的人臉識別方法,但由于該方法融合了三種特征,如果不對數(shù)據(jù)作降維處理,計(jì)算量將非常大,若采取降維處理又將損失一定的特征信息,不能得到如此高的識別率。文獻(xiàn)[21]中提出的對人臉分塊加上信息熵的方式識別人臉,在本次實(shí)驗(yàn)中同樣得到了不錯的識別率,側(cè)面證明了IE(w)ATR-LBP人臉識別方法的可靠性,但由于本文改進(jìn)的LBP算子與該文提出的算子相比,不管是在特征有效性還是計(jì)算量上都更占優(yōu)勢,所以IE(w)ATR-LBP人臉識別方法也得到了更高的識別率。
由表3可知,AR人臉庫的實(shí)驗(yàn)結(jié)果趨勢基本與ORL人臉庫保持一致,本文方法在四個集中得到的識別率分別為98.37%、94.17%、98.20%、99.34%,其中在光照集的識別率不太理想,原因在于:1)光照變化導(dǎo)致人臉圖像的像素出現(xiàn)大范圍的改變;2)對于光照變化后的人臉圖像,IE(w)ATR-LBP方法的分塊處理導(dǎo)致不同光照下的人臉圖像所得特征結(jié)果差異很大。對比AR人臉庫其他3個數(shù)據(jù)集的識別率,IE(w)ATR-LBP方法區(qū)分局部特征改變的人臉圖像更加有效。
由于小樣本時對深度學(xué)習(xí)無太大意義,所以在ORL及AR兩個人臉庫的對比實(shí)驗(yàn)設(shè)置如下:采用五步交叉驗(yàn)證法進(jìn)行訓(xùn)練與測試,樣本分配比例設(shè)置為4∶ 1。即將各個人臉庫的總樣本均分為5份,實(shí)驗(yàn)時,選取其中4/5用來作訓(xùn)練,剩下的用作測試。對于ORL人臉庫,因?yàn)槊咳擞?0張人臉圖像,故對于每類人臉圖像,訓(xùn)練樣本數(shù)與測試樣本數(shù)的比例為8∶ 2,訓(xùn)練樣本總數(shù)為320個,每次隨機(jī)地選取2個樣本輸入訓(xùn)練,測試樣本總數(shù)為80。對于AR人臉庫,選擇其前一個時期的12張人臉圖像作為數(shù)據(jù)庫,故訓(xùn)練樣本數(shù)與測試樣本數(shù)的比例為9∶ 3。
由表4對比不同方法在兩個人臉庫上的識別率不難發(fā)現(xiàn),IE(w)ATR-LBP方法在10次均值下所得識別率均要高于對比方法。當(dāng)訓(xùn)練樣本數(shù)足夠大時,三種基于深度學(xué)習(xí)的方法確實(shí)能達(dá)到較高的識別率,但當(dāng)訓(xùn)練樣本數(shù)不足甚至是單樣本時,其識別率會嚴(yán)重下降,計(jì)算量也較大,而本文基于特征提取融合人臉輪廓空間信息的IE(w)ATR-LBP方法在低訓(xùn)練樣本數(shù)下更具優(yōu)勢。
6 結(jié)語
本文提出了加權(quán)信息熵與ATRLBP算子結(jié)合進(jìn)行人臉特征提取的方法IE(w)ATR-LBP。加權(quán)信息熵既很好地保留了原始人臉圖像的空間信息,也對人臉重要部分作了權(quán)值判斷;ATRLBP算子對人臉圖像局部區(qū)域進(jìn)行鄰域環(huán)形差值編碼,并用實(shí)驗(yàn)數(shù)據(jù)最終確定“差值形式”與“自適應(yīng)閾值T”。IE(w)ATR-LBP方法能夠有效提高人臉在光照、姿態(tài)、遮擋等因素,尤其表情變化及脈沖類噪聲干擾情況下的識別率。
由于采用的數(shù)據(jù)庫為現(xiàn)階段標(biāo)準(zhǔn)的人臉數(shù)據(jù)庫ORL及AR,IE(w)ATR-LBP方法在更復(fù)雜的自建庫中的通用性可能還不是很強(qiáng)。因此,下一步的研究方向是,提高算法在復(fù)雜度更高的人臉圖像中的識別率,以及進(jìn)一步提高人臉識別效率。
參考文獻(xiàn)
[1]?TURK M, PENTLAND A. Eigenfaces for recognition [J]. Journal of Cognitive Neuroscience,1991,3(1): 71-86.
[2]?CHELLAPPA R, WILSON C L, SIROHEY S. Human and machine recognition of faces: a survey [J]. Proceedings of the IEEE, 1995, 83(5): 705-741.
[3]?BELHUMEUR P N, HESPANHA J P, KRIEGMAN D J. Eigenfaces vs. Fisherfaces: recognition using class specific linear projection [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1997, 19(7): 711-720.
[4]?彭中亞,程國建.基于獨(dú)立成分分析和核向量機(jī)的人臉識別[J].計(jì)算機(jī)工程,2010,36(7):193-194. (PENG Z Y, CHENG G J. Face recognition based on independent component analysis and core vector machines [J]. Computer Engineering, 2010, 36(7):193-194.)
[5]?胡敏,余子璽,王曉華,等.G-LBP和方差投影交叉熵的人臉識別[J].圖學(xué)學(xué)報,2017,38(1):82-89. (HU M, YU Z X, WANG X H, et al. G-LBP and variance cross projection function for face recognition [J]. Journal of Graphics, 2017, 38(1): 82-89.)
[6]?梁淑芬,劉銀華,李立琛.基于LBP和深度學(xué)習(xí)的非限制條件下人臉識別算法[J].通信學(xué)報,2014,35(6):154-160. (LIANG S F, LIU Y H, LI L C. Face recognition under unconstrained based on LBP and deep learning [J]. Journal on Communications, 2014, 35(6): 154-160.)
[7]?LECUN Y, BOSER B, DENKER J S, et al. Backpropagation applied to handwritten zip code recognition [J]. Neural Computation, 1989, 1(4): 541-551.
[8]?SZEGEDY C, LIU W, JIA Y, et al. Going deeper with convolutions [C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2015: 1-9.
[9]?HE K, HANG X, REN S, et al. Deep residual learning for image recognition [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2016: 770-778.
[10]?楊瑞, 張?jiān)苽ィ?茍爽, 等. Gabor特征與深度信念網(wǎng)絡(luò)結(jié)合的人臉識別方法[J]. 傳感器與微系統(tǒng), 2017, 36(5): 68-70. (YANG R, ZHANG Y W, GOU S, et al. Face recognition algorithm based on Gabor feature and DBN [J]. Transducer and Microsystem Technologies, 2017, 36(5): 68-70.)
[11]?江大鵬, 楊彪, 鄒凌. 基于LBP卷積神經(jīng)網(wǎng)絡(luò)的面部表情識別[J]. 計(jì)算機(jī)工程與設(shè)計(jì), 2018, 39(7): 1971-1977. (JIANG D P, YANG B, ZOU L. Facial expression recognition based on local binary mode convolution neural network [J]. Computer Engineering and Design, 2018, 39(7): 1971-1977.)
[12]?SUN K, YIN X, YANG M, et al. The face recognition method based on CS-LBP and DBN [J]. Mathematical Problems in Engineering, 2018, 2018: No. 3620491.
[13]?OJALA T, PIETIKINEN M, HARWOOD D. A comparative study of texture measures with classification based on featured distributions [J]. Pattern Recognition, 1996, 29(1): 51-59.
[14]?OJALA T, PIETIKINEN M, MAENPAA T. Multiresolution gray-scale and rotation invariant texture classification with local binary patterns [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(7): 971-987.
[15]?HEIKKL M, PIETIKINEN M. A texture-based method for modeling the background and detection moving objects [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2006, 28(4): 657-662.
[16]?HEIKKIL M, PIETIKINEN M, SCHMID C. Description of interest regions with local binary patterns [J]. Pattern Recognition, 2009, 42(3): 425-436.
[17]?TAN X, TRIGGS B. Enhanced local texture feature sets for face recognition under difficult lighting conditions [J]. IEEE Transactions on Image Processing, 2010, 19(6): 1635-1650.
[18]?GUO Z, ZHANG L, ZHANG D. Rotation invariant texture classification using LBP Variance (LBPV) with global matching [J]. Pattern Recognition, 2010, 43(3): 706-719.
[19]?王燕, 王蕓蕓. 一種DCT和ELBP融合的人臉特征提取方法[J]. 計(jì)算機(jī)工程與應(yīng)用, 2017, 53(4): 170-175. (WANG Y, WANG Y Y. Face feature extraction method based on fusing DCT and ELBP features [J]. Computer Engineering and Applications, 2017, 53(4): 170-175.
[20]?WEI X, WANG H, GUO G, et al. Multiplex image representation for enhanced recognition [J]. International Journal of Machine Learning & Cybernetics, 2018, 9(3): 383-392.
[21]?張潔玉, 武小川. 加權(quán)局部二值模式的人臉特征提取[J]. 中國圖象圖形學(xué)報, 2018, 19(12): 1794-1801. (ZHANG J Y, WU X C. Feature extraction of faces based on a weighted local binary pattern [J]. Journal of Image and Graphics, 2018, 19(12): 1794-1801.)
[22]?木立生, 呂迎春. 基于稀疏表示與特征融合的人臉識別方法[J]. 現(xiàn)代電子技術(shù), 2018, 41(9): 83-86,90. (MU L S, LYU Y C. Face recognition method based on sparse representation and feature fusion [J]. Modern Electronics Technique, 2018, 41(9):83-86,90.)
[23]??SHANNON C E. A mathematical theory of communication [J]. ?Bell Labs Technical Journal, 1948, 27(3): 379-423.
[24]?AHONEN T, HADID A, PIETIKINEN M. Face recognition with local binary patterns [C]// Proceedings of the 2004 European Conference on Computer Vision, LNCS 3021. Berlin: Springer, 2004: 469-481.