狄嵐,矯慧文,梁久禎
(1. 江南大學(xué) 人工智能與計(jì)算機(jī)學(xué)院,江蘇 無錫 214122; 2. 道路交通安全公安部重點(diǎn)實(shí)驗(yàn)室,江蘇 無錫 214151; 3. 常州大學(xué) 信息科學(xué)與工程學(xué)院,江蘇 常州 213164)
近年來,深度學(xué)習(xí)進(jìn)入蓬勃發(fā)展時(shí)代,以深度學(xué)習(xí)為基礎(chǔ)的圖像識(shí)別[1-3]雖然識(shí)別準(zhǔn)確率高,但往往對(duì)硬件設(shè)備要求嚴(yán)格,具有訓(xùn)練時(shí)間長達(dá)數(shù)周、樣本量需求過大等不足之處。與之相比,基于稀疏表示的圖像識(shí)別訓(xùn)練簡單、對(duì)噪聲有強(qiáng)魯棒性,逐漸應(yīng)用在社會(huì)安全、經(jīng)濟(jì)工程等領(lǐng)域。
字典學(xué)習(xí)的目的是通過訓(xùn)練樣本圖片,習(xí)得可以表示給定信號(hào)的字典和編碼,共分為有監(jiān)督和無監(jiān)督兩種情況。經(jīng)典的無監(jiān)督字典學(xué)習(xí)如KSVD[4]算法,可以有效解決高維矩陣求解問題,廣泛應(yīng)用于圖像重建及圖像壓縮領(lǐng)域。而有監(jiān)督字典學(xué)習(xí)多應(yīng)用于圖像識(shí)別領(lǐng)域,如人臉識(shí)別、表情識(shí)別等。根據(jù)字典原子和訓(xùn)練標(biāo)簽之間的相關(guān)性,有監(jiān)督字典學(xué)習(xí)可分為類共享字典學(xué)習(xí)、類別特色字典學(xué)習(xí)、混合字典學(xué)習(xí)3類。
類共享字典學(xué)習(xí)如文獻(xiàn)[5-7]等,字典和稀疏編碼由所有訓(xùn)練樣本共同構(gòu)造,單個(gè)字典原子可表示全體數(shù)據(jù)類別。Zhang等[8]以KSVD算法為基礎(chǔ),在保證字典識(shí)別能力的基礎(chǔ)上引入分類誤差,提高線性分類器的分類能力。Jiang等[9]在其基礎(chǔ)上,增加標(biāo)簽一致性術(shù)語,提出標(biāo)簽一致性KSVD (LCKSVD)算法。Mairal等[10]提出了任務(wù)驅(qū)動(dòng)的字典學(xué)習(xí)框架。類共享字典在保留表示數(shù)據(jù)共性的同時(shí)丟失字典原子和類標(biāo)簽之間的關(guān)系,忽視了類別之間的差異性。
類別特色字典學(xué)習(xí)如文獻(xiàn)[11-13]等,每個(gè)字典原子對(duì)應(yīng)一類標(biāo)簽信息,通過類特定誤差進(jìn)行分類。Wright等[14]提出基于稀疏表示的分類框架(sparse representation based classification,SRC),自此,類別特色字典廣泛應(yīng)用于人臉分類器設(shè)計(jì)中。Sprechmann等[15]為每一類分別學(xué)習(xí)稀疏表示字典,Ramirez等[16]提出了一種結(jié)構(gòu)非相干字典學(xué)習(xí)模型,通過最小化字典的相干項(xiàng)來提高字典的學(xué)習(xí)效率。Yang等[17]提出了Fisher判別字典學(xué)習(xí)(fisher discrimination dictionary learning,FDDL),其中表示殘差和表示系數(shù)都實(shí)現(xiàn)了判別信息。2018年,Wang等[18]結(jié)合字典學(xué)習(xí)和局部約束思想,提出FDDLLCSRC方法。同年,Li等[19]在FDDL基礎(chǔ)上提出IKCFDDL算法,在字典學(xué)習(xí)基礎(chǔ)上增添K均值聚類思想,提升算法運(yùn)行效率。
混合字典即結(jié)合類共享字典與類別特色字典。Deng等[20]提出了基于擴(kuò)展稀疏表示的分類方法(extended SRC: undersampled face recognition via intraclass variant dictionary,ESRC),在學(xué)習(xí)類別特色字典的同時(shí)構(gòu)造類內(nèi)差異字典,即共享字典。受ESRC算法啟發(fā),2015年Li等[21]提出SCSDL算法,2017年提出CSICVDL算法[22],提取不同類別樣本中數(shù)據(jù)共性提升字典辨別力。這些混合字典學(xué)習(xí)方法在人臉識(shí)別方面表現(xiàn)良好,然而,在對(duì)于噪聲、異常值和遮擋等干擾情況時(shí)處理能力較差。
除上述問題以外,由于樣本數(shù)量受限,傳統(tǒng)字典學(xué)習(xí)習(xí)得的字典魯棒性差,不能完全表示數(shù)據(jù)組成的共性、特殊性、干擾性。針對(duì)此種情況,本文提出一種新的稀疏綜合字典學(xué)習(xí)的小樣本人臉識(shí)別模型(SCDL)。SCDL模型包括混合特色字典、擴(kuò)充干擾字典以及低秩字典3項(xiàng)。將類共享字典與類別特色字典以及Fisher準(zhǔn)則整合至混合特色字典模型中,在提取不同數(shù)據(jù)特殊性的同時(shí)捕捉數(shù)據(jù)之間的共性,利用擴(kuò)充干擾字典和低秩字典增強(qiáng)模型對(duì)異常情況(如遮擋、噪聲等)的處理能力。最后,本文針對(duì)模型提出一種新的分類策略,并在受限AR人臉數(shù)據(jù)庫、YaleB人臉數(shù)據(jù)庫和非受限LFW人臉數(shù)據(jù)庫進(jìn)行實(shí)驗(yàn),結(jié)果表明本文算法不僅可以取得較高分類率,并且在面對(duì)遮擋、噪聲等異常情況時(shí)較其余算法有更好的識(shí)別力和魯棒性。
設(shè)定訓(xùn)練數(shù)據(jù)集 A:
測試數(shù)據(jù)集合 Y :
式中:A 的每列表示一個(gè) m 維向量;Ai∈Rm×ni為第i 類訓(xùn)練數(shù)據(jù);為訓(xùn)練數(shù)據(jù)集樣本總數(shù);y表 示單個(gè)測試樣本。
稀疏表示(SRC)針對(duì)測試集 Y,以學(xué)習(xí)合適的字典 D 為手段,尋找能表達(dá) Y 的稀疏編碼 X,ESRC算法在此基礎(chǔ)上另學(xué)習(xí)一個(gè)類內(nèi)差異字典表示訓(xùn)練集 A 和測試集 Y 之間的變化,算法模型如下:
ESRC模型分為重構(gòu)誤差項(xiàng)與正則項(xiàng)兩部分,正則化參數(shù) λ >0 。稀疏編碼 a ,b 的快速求解可參考貪婪算法(如壓縮感知匹配追蹤[23]、稀疏自適應(yīng)匹配追蹤[24])或凸松弛算法(如最小絕對(duì)值收 縮選擇算法[25]、最小角度回歸算法[26])。
類別字典學(xué)習(xí)為每類數(shù)據(jù)單獨(dú)學(xué)習(xí)一個(gè)子字典,即習(xí)得的字典 D ={D1,D2,···,DK} 由 K 個(gè)子字典組成,算法模型如下:
對(duì)于單個(gè)測試樣本y,求得的稀疏系數(shù)為x={x1,x2,···,xK}。其中,Di表示第i類訓(xùn)練樣本的子字典,xi由Di重構(gòu)得到,重構(gòu)誤差為ei=‖y-Dixi‖2。
Fisher判別準(zhǔn)則以投影思想為核心,目的是使同類樣本盡可能集中的同時(shí),異類樣本盡可能疏散。
假定u0為稀疏編碼X的中心,ui表示各類稀疏編碼均值向量:
可定義類內(nèi)散度矩陣Sw(X)、類間散度矩陣SB(X):
稀疏綜合字典學(xué)習(xí)分類方法包括訓(xùn)練和測試兩大步驟,分為擴(kuò)充干擾字典、混合特色字典、低秩字典三大部分,采用分步優(yōu)化方法求解,充分提 取數(shù)據(jù)之間的共性、特殊性、干擾性。
2.1.1 擴(kuò)充干擾字典模型
對(duì)于一張圖片a,以圖片中線為軸,如圖1所示,分別得出左鏡像圖片a1、右鏡像圖片a2、全鏡像 圖片a3。
圖 1 鏡像圖片F(xiàn)ig. 1 Mirror image
以a為例,對(duì)于訓(xùn)練集A,求出左鏡像集A1,右鏡像集A2, 全鏡像集A3,以Fisher準(zhǔn)則為基礎(chǔ),分別計(jì)算出3個(gè)集合的類間散布系數(shù)與類內(nèi)散布系數(shù)之比作為權(quán)重w=[w1,w2,w3]。
集合A′=w1A1+w2A2+w3A3。以A′為訓(xùn)練集,提出擴(kuò)充干擾字典模型如下:
模型分為重構(gòu)誤差項(xiàng)、稀疏保證項(xiàng)和判別系數(shù)項(xiàng)3部分,其中,λ1>0 為正則項(xiàng)參數(shù),λ2>0 為判別系數(shù)項(xiàng)參數(shù)。下面依次論述模型每一項(xiàng)原理。
2.1.2 擴(kuò)充干擾字典優(yōu)化
式(1)為非凸函數(shù),其優(yōu)化過程如下所示:
1) 初始化字典Db。
2) 保證字典Db固定,更新稀疏編碼B。
目標(biāo)函數(shù)轉(zhuǎn)化為
使用文獻(xiàn)[27]中的方法求解稀疏編碼Bi∈RN×ni,γ =λ1/2。
3) 保證稀疏編碼B固定,更新字典Db。
本文逐個(gè)更新Db中的子字典,即當(dāng)更新第j個(gè)子字典時(shí),保證其他子字典Dj(i≠j) 不動(dòng),默認(rèn)更新完成。
4)重復(fù)2)和3),直到前后兩次的函數(shù) Q 的值滿足判斷條件為止。
擴(kuò)充干擾字典算法總體實(shí)現(xiàn)步驟如下:
輸入 訓(xùn)練樣本 A′,規(guī)范化參數(shù) γ;
輸出 字典Db和稀疏編碼 B 及相應(yīng)的標(biāo)簽。
1)初始化字典Db。
2)固定字典Db,更新稀疏編碼 B。初始化字典后,利用式(2)依次求解。
3)固定稀疏編碼 B,更新字典Db。利用式(3)依次更新。
4)重復(fù)2)和3),直到前后兩次的函數(shù)的值滿足 判斷條件為止。
2.2.1 混合特色字典模型
對(duì)于訓(xùn)練集 A 和測試集 Y,習(xí)得類共享字典Dc和由 K 個(gè)子字典組成的類別特色字典 D:D={D1,D2,···,DK}。根據(jù)Fisher判別準(zhǔn)則,混合特色字典模型如式(4):
2.2.2 混合特色字典優(yōu)化
式(4)為非凸函數(shù),其優(yōu)化過程如下所示:
1) 初始化字典D和Dc。
將訓(xùn)練數(shù)據(jù) A={A1,A2,···,AK} 的特征向量初始化為字典的原子,對(duì)字典 Dc歸一化,使其 l2范數(shù)為1;分別對(duì)字典 D 的每一類歸一化,使其 l2范數(shù)為1。
2) 保證字典 D 固定,更新稀疏編碼 X;保證字典 Dc固定,更新稀疏編碼 C。
3) 以章節(jié)2.1.2為例,固定稀疏編碼 X,更新字典 D;固定稀疏編碼 C ,更新字典 Dc。
4) 重復(fù)2)和3),直到前后兩次的函數(shù) Q 的值滿足判斷條件為止。
混合特色字典算法總體實(shí)現(xiàn)步驟如下:
輸入 訓(xùn)練樣本 A,規(guī)范化參數(shù) γ;
輸出 字典D和稀疏編碼 X,字典 Dc和稀疏編碼 C 及相應(yīng)的標(biāo)簽。
1)初始化字典D和Dc。
2)固定字典D,更新稀疏編碼 X;固定字典Dc,更新稀疏編碼 C;初始化字典后,利用式(5)、(6)依次求解。
3)固定稀疏編碼 X,更新字典 D;固定稀疏編碼 C,更新字典 Dc。
4)重復(fù)2)和3),直到前后兩次的函數(shù)的值滿足 判斷條件為止。
2.3.1 低秩字典模型
在人臉識(shí)別中,假設(shè)擾動(dòng)分量只占圖像特征的一小部分,即圖像的稀疏分量,使用矩陣低秩分解[28]方法從圖像中提取干擾成分(如噪聲、孤立點(diǎn)和遮擋)。
以如圖2所示,取圖片低秩分量 Ej作為訓(xùn)練集。其中,λ1>0 為正則項(xiàng)參數(shù),提出低秩字典模型如下:
2.3.2 低秩字典優(yōu)化
圖 2 原圖及低秩分量Fig. 2 Original graph and low rank components
3)以章節(jié)2.1.2為例,固定稀疏編碼P,更新字典Dp。
4)重復(fù)2)和3),直到前后兩次的函數(shù)的值滿足判斷條件為止。
低秩字典優(yōu)化算法總體實(shí)現(xiàn)步驟如下:
輸入 訓(xùn)練樣本E,規(guī)范化參數(shù) γ;
輸出 字典和稀疏系數(shù)P,及相應(yīng)的標(biāo)簽。
1)初始化字典Dp;
2)固定字典Dp,更新稀疏編碼P;
3)固定稀疏編碼P,更新字典Dp;
4)重復(fù)2)和3),直到前后兩次的函數(shù)的值滿足 判斷條件為止。
稀疏綜合字典學(xué)習(xí)的小樣本人臉識(shí)別算法分為3個(gè)子算法,利用訓(xùn)練數(shù)據(jù)A、輔助數(shù)據(jù)C構(gòu)造擴(kuò)充干擾字典、混合特色字典、低秩字典。算法流 程圖如圖3所示。
圖 3 算法流程Fig. 3 Algorithm flowchart
稀疏綜合字典學(xué)習(xí)的小樣本人臉識(shí)別算法總體實(shí)現(xiàn)步驟如下:
輸入 訓(xùn)練樣本A,輔助數(shù)據(jù)C,測試數(shù)據(jù)Y,參數(shù)λ1,λ2。
輸出 分類標(biāo)簽。
1)利用訓(xùn)練數(shù)據(jù)A構(gòu)造數(shù)據(jù)集A′,算法1習(xí)得擴(kuò)充干擾字典Db;
2)利用訓(xùn)練數(shù)據(jù)A及算法2習(xí)得混合特色字典D,Dc;
3)利用輔助數(shù)據(jù)C及算法3習(xí)得混合特色字典Dp;
4)利用式(8)、(9)得到樣本標(biāo)簽。
本文實(shí)驗(yàn)環(huán)境為64位Window 10操作系統(tǒng),內(nèi)存32 GB,Intel(R) Xeon(R) CPU E5-2 620 v4 @2.10 GHz,并用MatlabR2016b軟件編程實(shí)現(xiàn)。
實(shí)驗(yàn)選取AR人臉數(shù)據(jù)庫、YaleB人臉數(shù)據(jù)庫、LFW人臉數(shù)據(jù)庫進(jìn)行實(shí)驗(yàn),多次實(shí)驗(yàn)取平均值。圖像都經(jīng)過標(biāo)準(zhǔn)化處理,比較算法包括SRC、FDDL、CRC、ESRC、SVGDL和CSICVDL、SCSDL、FDDLLCSRC、LKCFDDL。
本文在AR人臉數(shù)據(jù)庫上設(shè)計(jì)兩個(gè)實(shí)驗(yàn)方案,實(shí)驗(yàn)1隨機(jī)選取100人,每人26張圖片分為5個(gè)集合,訓(xùn)練集合選取兩張標(biāo)準(zhǔn)人臉,其余按特點(diǎn)分為4個(gè)集合,作為不同的測試集。如圖4所示,集合S1為樣本內(nèi)所有表情變化圖片;集合S2為所有光照變化圖片;集合S3為所有眼鏡遮擋圖片;集合S4為所有圍巾遮擋圖片。
圖 4 AR人臉數(shù)據(jù)庫樣本(1)Fig. 4 Cropped face samples of AR database (1)
在具體實(shí)現(xiàn)過程中,隨機(jī)選取80人用于訓(xùn)練擴(kuò)充干擾字典和混合特色字典,其余20個(gè)人用于訓(xùn)練低秩字典。首先將數(shù)據(jù)集下采樣為 6 0×80,并采用PCA降至100維。各算法在AR數(shù)據(jù)庫的識(shí) 別率如表1所示。
表 1 算法在AR 庫上的實(shí)驗(yàn)結(jié)果 Table 1 Accuracy of different methods on Experiment1 of AR database
從表1可知,F(xiàn)DDL算法識(shí)別率高于SRC、CRC算法,說明提取數(shù)據(jù)特殊性的重要性,F(xiàn)DDLLCSRC、IKCFDDL算法在面對(duì)光照、表情變化時(shí)實(shí)驗(yàn)效果良好,然而對(duì)數(shù)據(jù)存在遮擋異常時(shí)處理效果欠缺。而CSICVDL、SCSDL、本文算法識(shí)別率高于FDDL、LKCFDDL等,說明了在提取特殊性之外,捕捉數(shù)據(jù)共性的必要性。本文算法性能較穩(wěn)定,混合特色字典提取了數(shù)據(jù)共性和特殊性,低秩字典、擴(kuò)充干擾字典增強(qiáng)算法魯棒性和容錯(cuò)能力,在所有集合都能達(dá)到最高識(shí)別率。
為探究本文算法對(duì)遮擋、光照、異常等情況的綜合處理能力,如圖5所示,實(shí)驗(yàn)2選取每人兩張正常狀態(tài)下的人臉圖片作為訓(xùn)練集,將圍巾遮擋、墨鏡遮擋作為測試集合。
圖 5 AR人臉數(shù)據(jù)庫樣本(2)Fig. 5 Cropped face samples of AR database(2)
將數(shù)據(jù)集下采樣為 6 0×80,采用PCA將數(shù)據(jù)降為 {50,150,250,350,450} 維。如圖6所示,本文算法在不同維度下皆取得最高識(shí)別率,在面對(duì)遮擋 等異常情況時(shí)表現(xiàn)最佳。
圖 6 AR人臉數(shù)據(jù)庫識(shí)別率Fig. 6 Accuracy of different methods on Experiment1 of AR database
本文在The extended Yale B 人臉數(shù)據(jù)庫上設(shè)計(jì)兩個(gè)實(shí)驗(yàn)。實(shí)驗(yàn)1中,每人隨機(jī)選取5圖片訓(xùn)練,其余圖片進(jìn)行測試。圖7表示其中一個(gè)訓(xùn)練樣本和部分測試樣本。
圖 7 YaleB人臉數(shù)據(jù)庫樣本Fig. 7 Cropped face samples of YaleB database
在具體實(shí)驗(yàn)時(shí),選取30個(gè)人訓(xùn)練擴(kuò)充干擾字典和混合特色字典,其余8個(gè)人用于訓(xùn)練低秩字典。將數(shù)據(jù)分別降維至 { 150,250,350,450,550} 維,各 算法在各維度上的識(shí)別率如表2所示。
表 2 算法在Yale B database庫上的實(shí)驗(yàn)結(jié)果Table 2 Accuracy of different methods on Experiment1 of Yale B database %
從表2可以看出,本文算法識(shí)別率高于其他算法,并隨著維數(shù)增多而增高。
為探究各算法魯棒性,實(shí)驗(yàn)2賦予算法不同的參數(shù)值,參數(shù)1與參數(shù)2 分別取值{0.001, 0.005,0.01, 0.05},參數(shù)1限制正則化項(xiàng)對(duì)識(shí)別率的影響,參數(shù)2限制稀疏編碼對(duì)識(shí)別率的影響,實(shí)驗(yàn)結(jié)果如圖8所示,本文算法與FDDL算法識(shí)別率隨參數(shù)1、2的取值增大而增大,并最終達(dá)到穩(wěn)定,本文算法識(shí)別率隨參數(shù)改變的波動(dòng)小,趨于平緩,魯棒性強(qiáng)。
圖 8 參數(shù)對(duì)YaleB人臉數(shù)據(jù)庫識(shí)別率的影響Fig. 8 The parameter analysis on the YaleB database
本文在非受限人臉數(shù)據(jù)庫LFW設(shè)計(jì)兩次實(shí)驗(yàn),如圖9所示,利用3d校正補(bǔ)齊因轉(zhuǎn)向、遮擋而缺失的特征信息。
實(shí)驗(yàn)一,選取單人圖片數(shù)量大于10張的158人作為實(shí)驗(yàn)數(shù)據(jù)。在具體實(shí)驗(yàn)時(shí),選取148個(gè)人訓(xùn)練擴(kuò)充干擾字典和混合特色字典,其余10個(gè)人用于訓(xùn)練低秩字典。如圖10所示,隨機(jī)選取每人10張圖片,5張圖片作為訓(xùn)練集,其余為測試集。將數(shù)據(jù)分別將至{50, 100, 150, 200,250}維,各算法在各維度上的識(shí)別率如表3所示。
圖 9 校正 LFW人臉數(shù)據(jù)庫Fig. 9 Correction of LFW Face Database
圖 10 LFW人臉數(shù)據(jù)庫樣本Fig. 10 Cropped face samples of LFW database
表 3 算法在LFW database 庫上的實(shí)驗(yàn)結(jié)果 Table 3 Accuracy of different methods on Experiment1 of LFW database
如表3所示,多數(shù)情況下算法的識(shí)別率隨維數(shù)增多而升高,本文算法優(yōu)于其他算法,但識(shí)別率整體不高,這可能是因?yàn)榍捌谛U斐傻男畔p失。
為驗(yàn)證低秩字典對(duì)算法影響,實(shí)驗(yàn)2隨機(jī)挑選19、39、59、79個(gè)人作為低秩字典訓(xùn)練數(shù)據(jù)及CSSVDL類內(nèi)差異字典輔助數(shù)據(jù),與基礎(chǔ)FDDL算法、包含輔助字典的CSSVDL算法進(jìn)行對(duì)比,各算法在各集合上的識(shí)別率如圖11所示。
圖 11 LFW人臉數(shù)據(jù)庫識(shí)別率Fig. 11 Accuracy of different methods on experiment1 of LFW database
從圖11可知,隨著構(gòu)筑類內(nèi)差異字典的輔助數(shù)據(jù)增加,CSSVDL算法的識(shí)別率大致增加。隨著構(gòu)筑低秩字典訓(xùn)練數(shù)據(jù)增加,本文算法識(shí)別率大致增加。本文算法、CSSVDL算法、FDDL算法在59人實(shí)驗(yàn)中識(shí)別率均受個(gè)別樣本選擇影響下降,本文算法和CSSVDL由于輔助數(shù)據(jù)捕捉數(shù)據(jù)共性,較FDDL算法有更好的魯棒性。在非受限人 臉數(shù)據(jù)庫LFW上,本文算法分類效果最優(yōu)。
3.5.1 復(fù)雜度分析
本文算法復(fù)雜度分為擴(kuò)充干擾字典、混合特色字典、低秩字典3個(gè)部分計(jì)算,每部分又分為更新稀疏編碼和更新字典兩步驟。
以擴(kuò)充干擾字典為例,設(shè)訓(xùn)練樣本個(gè)數(shù)為n,樣本特征維數(shù)為q,更新稀疏系數(shù)的時(shí)間復(fù)雜度為nO(q2nr),其中,r≥1.2 為常數(shù)。更新字典的時(shí)間復(fù)雜度為∑jnjO(2nq),其中,nj表示Di的原子個(gè)數(shù)。
擴(kuò)充干擾字典總復(fù)雜度為
3.5.2 運(yùn)行效率分析
為探究算法運(yùn)行效率,本文設(shè)計(jì)實(shí)驗(yàn)。如圖12所示,實(shí)驗(yàn)1取AR數(shù)據(jù)庫80人,每人前13張圖片 訓(xùn)練,其余圖片進(jìn)行測試。
圖 12 AR實(shí)驗(yàn)Fig. 12 Experiment on AR
實(shí)驗(yàn)2選取YALE數(shù)據(jù)庫,如圖13所示,每人前2張人臉圖像為訓(xùn)練集,剩余9張為測試圖像。隨機(jī)選取5人作為輔助數(shù)據(jù),數(shù)據(jù)庫其余人數(shù)作為訓(xùn)練和測試數(shù)據(jù),算法運(yùn)行時(shí)間及實(shí)驗(yàn)結(jié)果如表4所示。
圖 13 YALE實(shí)驗(yàn)Fig. 13 Experiment on YALE
表 4 AR及YALE庫實(shí)驗(yàn)Table 4 Experiment on AR and YALE
綜合表4可以看出,本文算法、CSSVDL算法、SCSDL算法由于輔助數(shù)據(jù)的構(gòu)建,雖然算法識(shí)別率提高,但算法運(yùn)行時(shí)間也隨之增加。兩實(shí)驗(yàn)中本文算法識(shí)別率最高,且運(yùn)行時(shí)間小于CSSVDL算法、SCSDL算法,證明本文算法具有更高的性價(jià)比。
本文提出稀疏綜合字典模型,加入Fisher判別準(zhǔn)則,學(xué)習(xí)混合特色字典提取數(shù)據(jù)共性和特殊性,學(xué)習(xí)擴(kuò)充干擾字典與低秩字典提取數(shù)據(jù)異常、干擾性,分別在AR、YaleB、LFW等人臉庫上進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)表明,在小樣本訓(xùn)練情境下,即使測試樣本與訓(xùn)練樣本存在較大差異如表情變化、遮擋等,本文仍能保持較好的性能。在實(shí)際應(yīng)用中還需進(jìn)一步探討算法對(duì)訓(xùn)練樣本的依賴性以及算法的穩(wěn)定性。