国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度學(xué)習(xí)特征的稀疏表示的人臉識(shí)別方法

2016-06-02 08:24馬曉張番棟封舉富
智能系統(tǒng)學(xué)報(bào) 2016年3期
關(guān)鍵詞:字典人臉人臉識(shí)別

馬曉,張番棟,封舉富

(1.北京大學(xué) 信息科學(xué)技術(shù)學(xué)院,北京 100871; 2.北京大學(xué) 機(jī)器感知與智能教育部重點(diǎn)實(shí)驗(yàn)室,北京 100871)

?

基于深度學(xué)習(xí)特征的稀疏表示的人臉識(shí)別方法

馬曉1,2,張番棟1,2,封舉富1,2

(1.北京大學(xué) 信息科學(xué)技術(shù)學(xué)院,北京 100871; 2.北京大學(xué) 機(jī)器感知與智能教育部重點(diǎn)實(shí)驗(yàn)室,北京 100871)

摘要:本文針對(duì)傳統(tǒng)的基于稀疏表示的人臉識(shí)別方法在小樣本情況下對(duì)類內(nèi)變化魯棒性不強(qiáng)的問題,從特征的層面入手,提出了基于深度學(xué)習(xí)特征的稀疏表示的人臉識(shí)別方法。本方法首先利用深度卷積神經(jīng)網(wǎng)絡(luò)提取對(duì)類內(nèi)變化不敏感的人臉特征,然后通過稀疏表示對(duì)所得人臉特征進(jìn)行表達(dá)分類。本文通過實(shí)驗(yàn),說明了深度學(xué)習(xí)得到的特征也具有一定的子空間特性,符合基于稀疏表示的人臉識(shí)別方法對(duì)于子空間的假設(shè)條件。實(shí)驗(yàn)證明,基于深度學(xué)習(xí)特征的稀疏表示的人臉識(shí)別方法具有較好的識(shí)別準(zhǔn)確度,對(duì)類內(nèi)變化具有很好的魯棒性,特別在小樣本問題中具有尤為突出的優(yōu)勢(shì)。

關(guān)鍵詞:機(jī)器學(xué)習(xí);生物特征識(shí)別;深度學(xué)習(xí);特征學(xué)習(xí);子空間;小樣本;稀疏表示;人臉識(shí)別

人臉識(shí)別是作為一項(xiàng)重要的生物識(shí)別技術(shù),在公安刑偵、企業(yè)管理、自助服務(wù)及互聯(lián)網(wǎng)金融方面都取得了廣泛的應(yīng)用。實(shí)際的人臉識(shí)別系統(tǒng)多遇到的是小樣本的人臉識(shí)別問題,即在識(shí)別中可以采集到的每個(gè)人的人臉樣本相對(duì)較少,而且采集環(huán)境通常是在不可控的自然環(huán)境下進(jìn)行的,人臉樣本常常含有諸如光照、姿態(tài)、遮擋、表情、噪聲等類內(nèi)變化。如何在含有較大干擾的小樣本人臉識(shí)別問題中取得魯棒的識(shí)別結(jié)果,便成了當(dāng)前許多人臉識(shí)別方面的研究工作所關(guān)心的問題。受稀疏編碼[1]和子空間方法[2-3]的啟發(fā),John Wright等[4]提出了基于稀疏表示的分類方法,在含遮擋、噪聲、光照的復(fù)雜環(huán)境下的人臉識(shí)別問題中取得了較好的效果。在John Wright工作的基礎(chǔ)上,一系列基于稀疏表示的分類方法的研究取得了一定的進(jìn)展,具有代表性的包括關(guān)于稀疏表示中字典學(xué)習(xí)的研究工作[5-7],稀疏表示的快速優(yōu)化策略[8-10],和關(guān)于添加對(duì)表示系數(shù)的不同約束的工作[11-13]。其中,Lei Zhang[14]指出了在基于稀疏表示的分類方法中協(xié)同性機(jī)制的地位,并提出了使用更松弛的二范數(shù)來約束訓(xùn)練字典表示系數(shù)的協(xié)同表示的分類方法。為了解決小樣本情況下單類訓(xùn)練集字典對(duì)類內(nèi)變化表達(dá)不充分的問題,文獻(xiàn)[15-18]創(chuàng)造性地將補(bǔ)償字典引入了基于稀疏表示的人臉識(shí)別的方法中,在小樣本的人臉識(shí)別問題中取得了一定的突破,但依然不能徹底分離訓(xùn)練集字典中類內(nèi)變化產(chǎn)生的干擾。

傳統(tǒng)的基于稀疏表示的方法本質(zhì)上依然基于樣本的灰度特征,利用稀疏線性表達(dá)來實(shí)現(xiàn)對(duì)類內(nèi)變化分量的分離。但對(duì)于實(shí)際問題,類內(nèi)變化相對(duì)比較復(fù)雜,如姿態(tài)、表情、復(fù)雜的光照,簡(jiǎn)單依靠線性表達(dá)很難將其分離出來。特別對(duì)于訓(xùn)練集字典極欠完備的小樣本問題,憑借有限的訓(xùn)練樣本更難實(shí)現(xiàn)這一目標(biāo)。為了解決這一問題,本文將人臉的灰度特征通過深度神經(jīng)網(wǎng)絡(luò)非線性映射到一個(gè)特征線性子空間內(nèi),這一映射保留了樣本分類相關(guān)的主要信息,去除了類內(nèi)變化信息的干擾,使得映射后的特征對(duì)類內(nèi)變化具有不變性且更有可區(qū)分性。然后,將該特征利用基于稀疏表示的分類方法進(jìn)行表達(dá)和識(shí)別。實(shí)驗(yàn)證明,本文方法在具有較大類內(nèi)變化的小樣本問題上效果尤其突出,且對(duì)于姿態(tài)、表情這類非線性疊加的類內(nèi)變化具有更好的魯棒性。

本文提出了基于深度學(xué)習(xí)特征的稀疏表示的人臉識(shí)別方法,將深度學(xué)習(xí)特征與稀疏表示相互結(jié)合,充分發(fā)揮了深度學(xué)習(xí)在特征學(xué)習(xí)方面的優(yōu)點(diǎn)和稀疏表示在小樣本識(shí)別上的優(yōu)點(diǎn)。通過實(shí)驗(yàn),在一定程度上說明了深度學(xué)習(xí)所得的特征具有線性子空間特性,并對(duì)深度學(xué)習(xí)所得特征進(jìn)行了較為系統(tǒng)的分析。

1相關(guān)工作

1.1基于稀疏表示的人臉識(shí)別方法

基于稀疏表示的分類方法(sparse representation based classification, SRC)[4]假設(shè)人臉圖像位于線性子空間中,測(cè)試樣本可以為所有類的訓(xùn)練樣本(字典)協(xié)同線性表達(dá),而測(cè)試樣本所屬類別的字典可以表示得更加稀疏(用較少的字典可以達(dá)到更好的重構(gòu))。在對(duì)表示系數(shù)增加稀疏性的約束后,求解所得的稀疏表示系數(shù)中非零項(xiàng)應(yīng)主要為測(cè)試樣本所屬類別字典的對(duì)應(yīng)項(xiàng),因此便可以根據(jù)哪類字典可以取得對(duì)測(cè)試樣本更小的重構(gòu)誤差來進(jìn)行分類,這便是SRC的工作原理。各步驟公式如下:

SRC表示過程:

(1)

SRC分類過程:

(2)

基于稀疏表示的分類方法能夠有效利用人臉圖像的子空間特性,不需要大量樣本進(jìn)行分類器的學(xué)習(xí),對(duì)噪聲具有較好的魯棒性。

基于稀疏表示的識(shí)別方法假設(shè)每類訓(xùn)練樣本(字典)都必須是完備的,每類訓(xùn)練樣本(字典)都有足夠的表達(dá)能力。這一假設(shè)在具有較大干擾(如光照、姿態(tài)、遮擋等)的小樣本問題中一般是不成立的。在小樣本且具有較大干擾的人臉識(shí)別問題中,測(cè)試圖片常常會(huì)被錯(cuò)分為具有相似類內(nèi)變化的字典的類中,而不是具有相同外貌變化的類中。為了消除小樣本情況下類內(nèi)變化的干擾,文獻(xiàn)[15-18]創(chuàng)造性地將補(bǔ)償字典引入了基于稀疏表示的人臉識(shí)別的方法中,在小樣本的人臉識(shí)別問題中取得了一定的突破,但依然不能徹底分離訓(xùn)練集字典中類內(nèi)變化。

1.2較大類內(nèi)變化干擾下的小樣本人臉識(shí)別問題

為了更好地分析子空間方法中類內(nèi)變化帶來的影響,Tang等[19]提出了統(tǒng)一子空間的理論概念。統(tǒng)一子空間理論認(rèn)為人臉圖像由原型成分、類內(nèi)變化成分和噪聲成分線性組合而成。如式(3)和圖1所示。

(3)

圖1 統(tǒng)一人臉子空間示意Fig.1 The unified face subspace

式中:μ為與人臉相貌相關(guān)的原型成分,ν為與人臉圖像的類內(nèi)變化成分(如光照、姿態(tài)、遮擋等),ε為噪聲成分。在人臉識(shí)別中需要盡可能地將與分類無關(guān)的成分μ和ε與分類相關(guān)的成分μ分離開來。但通常,μ、ν和ε3個(gè)成分之間具有較強(qiáng)的相關(guān)性,很難通過線性表示(即便是稀疏線性表示)將其有效地分離開來,或者將v和ε有效地去除掉。以人臉的姿態(tài)變化為例,同類人臉在不同姿態(tài)下的類內(nèi)差與不同人臉在統(tǒng)一姿態(tài)下的類內(nèi)差十分接近(均在外貌輪廓處有較大的響應(yīng)),很難通過有限的樣本和稀疏線性表示去除姿態(tài)對(duì)人臉圖像的影響。且這一問題,在小樣本的人臉圖像識(shí)別的問題中,變得更加棘手。

本文將人臉樣本從灰度空間投影到特征空間,然后在特征空間使用基于稀疏表示的分類方法進(jìn)行識(shí)別。對(duì)于投影后的特征,需要滿足如下2個(gè)條件:1)投影后的特征需要滿足線性子空間特性,這樣才能符合基于稀疏表示的分類方法的基本前提;2)投影后的特征對(duì)類內(nèi)變化不敏感,或者消除了類內(nèi)變化。為了有效解決小樣本問題,我們同時(shí)期望特征的學(xué)習(xí)可以通過外部數(shù)據(jù)來完成,然后遷移到小樣本的數(shù)據(jù)集上來。換句話說,也就要求所學(xué)得的特征具有一定的可遷移性。

傳統(tǒng)的特征如HOG、SIFT、LBP等不能很好地保證人臉圖像中的類內(nèi)變化可以被有效地去除,特別對(duì)于諸如姿態(tài)、遮擋、表情等這類比較復(fù)雜的類內(nèi)變化,同時(shí)變化后的特征一般不具有子空間特性,很難適用于基于稀疏表示的分類方法,使之發(fā)揮更大的效能。

1.3深度卷積神經(jīng)網(wǎng)絡(luò)

深度卷積神經(jīng)網(wǎng)絡(luò)(deep convolutional neural network, DCNN)是一種有監(jiān)督的深度學(xué)習(xí)模型,已成為當(dāng)前語音分析和圖像識(shí)別領(lǐng)域的研究熱點(diǎn)。 Lecun等早在1998年就提出了經(jīng)典的LeNet網(wǎng)絡(luò)[20], Hinton等使用的大規(guī)模深度CNN[21]在Imagenet這樣1 000類的分類問題上取得了非常好的結(jié)果。文獻(xiàn)[22-25]利用CNN網(wǎng)絡(luò)在人臉識(shí)別領(lǐng)域取得了較大的突破,成為目前工業(yè)界和學(xué)術(shù)界的主流算法。卷積網(wǎng)絡(luò)的核心思想是局部感受野、權(quán)值共享(或者權(quán)值復(fù)制)以及時(shí)間或空間亞采樣。CNN通常使用最后一層全連接隱層的值作為對(duì)輸入樣本所提取的特征,通過外部數(shù)據(jù)進(jìn)行的有監(jiān)督學(xué)習(xí),CNN可以保證所得的特征具有較好的對(duì)類內(nèi)變化的不變性。

為了更有效地解決復(fù)雜類內(nèi)變化條件下的小樣本人臉識(shí)別問題,本文結(jié)合近年來被深入研究和廣泛應(yīng)用到各類視覺問題的深度卷積網(wǎng)絡(luò),使用深度學(xué)習(xí)的方法來提取特征,然后與基于稀疏表示的方法相結(jié)合。使用深度學(xué)習(xí)得到的特征被諸多實(shí)驗(yàn)證明具有較好的可分性和遷移性,并對(duì)類內(nèi)變化具有較好的魯棒性。但其是否具有子空間特性這一問題卻很少被人關(guān)注。本文利用實(shí)驗(yàn)的方式,在一定程度上證明了深度學(xué)習(xí)所得的人臉特征具有較好的子空間特性,而且具有可遷移性和對(duì)類內(nèi)變化的不變性。

2基于深度學(xué)習(xí)特征的稀疏表示的人臉識(shí)別方法

本文結(jié)合基于深度學(xué)習(xí)的特征提取方法和基于稀疏表示的人臉識(shí)別方法,提出了兼顧二者所長(zhǎng)的基于深度學(xué)習(xí)特征的稀疏表示的人臉識(shí)別方法(sparse representation via deep learning features based classification,SRDLFC) 。SRDLFC對(duì)于含較大類內(nèi)變化的小樣本人臉識(shí)別問題具有較大的優(yōu)勢(shì)。

2.1SRDLFC整體流程

SRDLFC方法包括網(wǎng)絡(luò)學(xué)習(xí)和樣本識(shí)別兩個(gè)過程,樣本識(shí)別過程包括特征提取和稀疏分類兩個(gè)環(huán)節(jié),其中特征提取所用的CNN網(wǎng)絡(luò)需要通過外部數(shù)據(jù)進(jìn)行有監(jiān)督的學(xué)習(xí)和訓(xùn)練。整體流程如圖2。

圖2 SRDLFC方法流程圖Fig.2 The process of SRDLFC method

基于深度學(xué)習(xí)特征的稀疏表示的人臉識(shí)別方法(SRDLFC)如下。

1)網(wǎng)絡(luò)學(xué)習(xí)過程:

①利用外部數(shù)據(jù)學(xué)習(xí)特征提取的CNN網(wǎng)絡(luò)f(y).

2)樣本識(shí)別過程:

①對(duì)于測(cè)試樣本y,通過特征提取網(wǎng)絡(luò)提取深度學(xué)習(xí)特征y′=f(y)。

②對(duì)y′用特征空間的訓(xùn)練集字典X′進(jìn)行稀疏表示,得表示系數(shù)α′:

③通過訓(xùn)練集字典對(duì)測(cè)試樣本的表示殘差進(jìn)行分類:

2.2基于深度學(xué)習(xí)的特征提取方法

SRDLFC方法的特征提取過程是通過深度卷積神經(jīng)網(wǎng)絡(luò)完成的,本文所用的CNN網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

圖3 SRDLFC特征提取網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 The structure of SRDLFC’s feature extraction network

網(wǎng)絡(luò)各層具體參數(shù)如表1所示。

表1 SRDLFC特征提取網(wǎng)絡(luò)具體結(jié)構(gòu)

該網(wǎng)絡(luò)訓(xùn)練中使用的Dropout概率為50%,激活函數(shù)為Relu。

本文使用CASIA數(shù)據(jù)集[26]進(jìn)行訓(xùn)練, 數(shù)據(jù)集為不受控環(huán)境下采集到的人臉圖像,包含光照、遮擋、姿態(tài)。我們選用前7 000類約39萬人臉圖像作為數(shù)據(jù)進(jìn)行有監(jiān)督學(xué)習(xí),監(jiān)督學(xué)習(xí)中輸出為各類的標(biāo)簽。圖像使用DLIB開源庫[27]定位68個(gè)特征點(diǎn),然后進(jìn)行人臉對(duì)齊。我們使用FC1層作為人臉特征,使用cosine距離作為人臉特征的相似度度量,在LFW數(shù)據(jù)庫上測(cè)試得到了96.75%±0.57%人臉認(rèn)證準(zhǔn)確率,充分證明網(wǎng)絡(luò)學(xué)到的特征不僅擁有極強(qiáng)的判別性,而且具有良好的遷移性。

3基于深度學(xué)習(xí)的人臉特征分析

在基于深度學(xué)習(xí)特征的稀疏表示的人臉識(shí)別方法SRDLFC中,要求特征滿足線性子空間特性,且具有對(duì)類內(nèi)變化的不變性、較好的遷移性和可分性。下面對(duì)SRDLFC中所提取的深度學(xué)習(xí)特征進(jìn)行分析和討論。

3.1深度學(xué)習(xí)特征對(duì)類內(nèi)變化的不變性與可區(qū)分性

SRDLFC中特征提取CNN網(wǎng)絡(luò)的各層卷積核如圖4所示。

圖4 SRDLFC特征提取網(wǎng)絡(luò)的第一層卷積核示意 Fig.4 The first level’s convolutional filters of SRDLFC’s feature extraction network

從圖4可以看出,CNN底層主要提取一些與邊緣、角度、輪廓相關(guān)信息,具有一定的通用性。CNN高層逐漸提取出一些圖像結(jié)構(gòu)的信息。

以AR數(shù)據(jù)集的人臉圖像為例,將10類人臉樣本的深度學(xué)習(xí)特征進(jìn)行可視化,如圖5所示(每一列代表一個(gè)樣本的特征,每張子圖對(duì)應(yīng)一類人臉)。同一類的樣本,在經(jīng)過多層卷積和池化后,得到的特征圖是相似的,各個(gè)子圖有明顯的橫線紋理(說明同類對(duì)應(yīng)項(xiàng)上的特征值比較相似),說明深度學(xué)習(xí)特征具有對(duì)類變化較好的不變性。而不同類的樣本的特征圖明顯差異很大,這在一定程度上說明了CNN所提取的特征具有較好的可分性。

圖5 人臉圖像的深度學(xué)習(xí)特征可視化圖Fig.5 The visualization deep learning face features

3.2深度學(xué)習(xí)特征的子空間特性

SRDLFC將深度學(xué)習(xí)的特征與基于稀疏表示的人臉識(shí)別方法相結(jié)合,要求特征空間滿足人臉線性子空間的假設(shè)。CNN特征提取網(wǎng)絡(luò)實(shí)現(xiàn)了人臉灰度空間到深度學(xué)習(xí)特征空間的非線性映射,不一定能保證所得特征滿足人臉子空間假設(shè)。為了驗(yàn)證這一問題,本文進(jìn)行如下說明實(shí)驗(yàn)。

選擇AR中圖像作為測(cè)試樣本,對(duì)特征空間中任一個(gè)人臉樣本,將其用同類的特征空間內(nèi)的人臉樣本做稀疏線性表達(dá),記錄重構(gòu)誤差所占樣本能量的百分比;對(duì)特征空間中任一人臉樣本,將其用所有類的特征空間內(nèi)的人臉樣本做稀疏線性表達(dá),記錄重構(gòu)誤差所占樣本能量的百分比。訓(xùn)練集字典大小為每類20項(xiàng)。實(shí)驗(yàn)統(tǒng)計(jì)結(jié)果如表2所示。

表2 深度學(xué)習(xí)特征的類內(nèi)差類間差分布

在SRDLFC的稀疏線性表示的過程中得到的表示系數(shù)示例如圖6。

(a)示例樣本1

(b)示例樣本2

(c)示例樣本3

(d)示例樣本4圖6 SRDLFC在稀疏表示過程中的表示系數(shù)示例Fig.6 The represent coefficients in SRDLFC’s representation process

根據(jù)表2和圖6,可以看到在特征空間內(nèi)的人臉樣本可以很好地被本來樣本線性表達(dá),滿足子空間的條件。且其在被其他類樣本協(xié)同線性表達(dá)過程中,表達(dá)是稀疏的,且同類樣本表達(dá)更加稀疏,符合稀疏表示分類方法的適用條件。實(shí)驗(yàn)說明,深度學(xué)習(xí)特征具有一定的線性子空間特性。多層卷積和池化的非線性操作也有助于將人臉樣本投影到一個(gè)更好的線性子空間中。在這樣的線性特征子空間中,使用基于稀疏表示的分類方法進(jìn)行分類識(shí)別,具有更高的魯棒性和更好的識(shí)別效果。

4實(shí)驗(yàn)結(jié)果及分析

本文選擇AR和CMU PIE人臉數(shù)據(jù)庫進(jìn)行識(shí)別實(shí)驗(yàn),對(duì)應(yīng)不同類內(nèi)變化環(huán)境下的人臉識(shí)別情況。

4.1AR 人臉數(shù)據(jù)庫識(shí)別實(shí)驗(yàn)

AR數(shù)據(jù)庫包含大約100人的彩色圖像(每人約50張),含有光照、遮擋、表情的類內(nèi)變化的干擾。圖像使用DLLIB開源庫進(jìn)行人臉對(duì)齊。本文隨機(jī)選擇每類1~25張人臉圖像作為訓(xùn)練集字典,其余圖像做測(cè)試集,10次實(shí)驗(yàn)取平均值。對(duì)比方法為灰度特征+最近鄰分類(Pixel+NN)、灰度特征+Bayesian方法(Pixel+Bayesian)、灰度特征+稀疏表示分類方法(Pixel+SRC)、深度學(xué)習(xí)特征+最近鄰分類(DL+NN)、深度學(xué)習(xí)特征+Bayesian方法(DL +Bayesian)、深度學(xué)習(xí)特征+稀疏表示分類方法(DL +SRC,SRDLFC)。所得識(shí)別率結(jié)果如表3和圖7所示。

表3 AR數(shù)據(jù)庫中人臉識(shí)別結(jié)果 (每類字典數(shù)1~7)

圖7 AR數(shù)據(jù)庫中人臉識(shí)別結(jié)果Fig.7 Recognition results in AR

4.2CMU PIE 人臉數(shù)據(jù)庫識(shí)別實(shí)驗(yàn)

CMU-PIE數(shù)據(jù)庫包含68人的41368張彩色圖像(每人約50張),含有13種姿態(tài)、43種光照、4種表情的類內(nèi)變化的干擾。圖像使用DLIB開源庫進(jìn)行人臉對(duì)齊。

本文隨機(jī)選擇每類1-25張人臉圖像作為訓(xùn)練集字典,其余圖像做測(cè)試集,10次實(shí)驗(yàn)取平均值。對(duì)比方法同4.1章節(jié)。所得識(shí)別率結(jié)果如表4和圖8所示。

表4 CMU PIE數(shù)據(jù)庫中人臉識(shí)別結(jié)果 (每類字典數(shù)1~7)

圖8 CMU PIE數(shù)據(jù)庫中人臉識(shí)別結(jié)果Fig.8 Recognition results in CMU PIE

通過實(shí)驗(yàn)可以看到,基于深度學(xué)習(xí)特征的各類方法在較大類內(nèi)變化干擾的環(huán)境下均能有較大的提升,特別是本文提出的基于深度學(xué)習(xí)特征的稀疏表示的人臉識(shí)別方法,取得了較各類方法更加優(yōu)越的效果。SRDLFC較傳統(tǒng)的各類方法能夠提升 6%~60%,尤其在小樣本情況下更為明顯,體現(xiàn)了稀疏表示的特征具有較好的子空間特性、可分性、可遷移性及對(duì)類內(nèi)變化的不變性。而基于稀疏表示分類框架的應(yīng)用,更加有助于提升深度學(xué)習(xí)特征的分類準(zhǔn)確率,在較大類內(nèi)變化的小樣本的人臉識(shí)別問題中具有更大的優(yōu)勢(shì)。

5結(jié)束語

本文針對(duì)較大類內(nèi)變化干擾下的人臉識(shí)別問題,提出了基于深度學(xué)習(xí)特征稀疏表示的人臉識(shí)別方法SRDLFC。本文充分分析論證了基于深度學(xué)習(xí)所提取的人臉特征基本滿足線性子空間假設(shè),并具有較好的可分性、可遷移性及對(duì)類內(nèi)變化的不變性。本文將基于深度學(xué)習(xí)的特征應(yīng)用到稀疏表示的分類框架中,充分發(fā)揮兩者優(yōu)點(diǎn),實(shí)現(xiàn)識(shí)別率的提升。本文提出的SRDLFC算法,可以有效地應(yīng)對(duì)光照、姿態(tài)、表情、遮擋等類內(nèi)變化帶來的干擾,且在小樣本問題中具有較大的優(yōu)勢(shì)。未來的研究工作將進(jìn)一步對(duì)深度學(xué)習(xí)特征進(jìn)行研究分析,通過改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu)和損失函數(shù),使網(wǎng)絡(luò)所得特征更加滿足線性子空間約束,進(jìn)一步提升SRDLFC的識(shí)別效果,并嘗試做一些理論上的推導(dǎo)工作。滿足線性子空間約束,進(jìn)一步提升SRDLFC的識(shí)別效果,并嘗試做一些理論上的推導(dǎo)工作。

參考文獻(xiàn):

[1]DONOHO D L. Compressed sensing[J]. Information theory, 2006, 52(4): 1289-1306.

[2]LEE K C, HO J, KRIEGMAN D. Acquiring linear subspaces for face recognition under variable lighting[J]. Pattern analysis and machine intelligence, 2005, 27(5): 684-698.

[3]NASEEM I, TOGNERI R, BENNAMOUN M. Linear regression for face recognition[J]. Pattern analysis and machine intelligence, 2010, 32(11): 2106-2112.

[4]WRIGHT J, YANG A Y, GANESH A, et al. Robust face recognition via sparse representation[J]. Pattern analysis and machine intelligence, 2009, 31(2): 210-227.

[5]AHARON M, ELAD M, BRUCKSTEIN A. K-SVD: an algorithm for designing overcomplete dictionaries for sparse representation[J]. Signal processing, 2006, 54(11): 4311-4322.

[6]YANG M, ZHANG L, YANG J, et al. Metaface learning for sparse representation based face recognition[C]// Proceedings of the IEEE International Conference on Image Processing, Hong Kong, China, 2010, 119(5):1601-1604.

[7]YANG M, ZHANG D, FENG X, et al. Fisher discrimination dictionary learning for sparse representation[C]// Proceedings of the IEEE International Conference on Computer Vision. Barcelona, Spain, 2011, 24(4):543-550.

[8]YANG J, ZHANG Y. Alternating direction algorithms for l1-problems in compressive sensing[J]. arXiv: 0912.1185, 2009, (1):250-278.

[9]UJDAT D M, MALIOUTOV D M, ?ETIN M, et al. Homotopy continuation for sparse signal representation[C]// Proceedings of the IEEE International Conference on Acoustics, Speech, and Signal Processing,Philadelphia, USA, 2005:733-736.

[10]KOH K, KIM S J, BOYD S P. An interior-point method for large-scale l1-regularized logistic regression[J]. Journal of machine learning research, 2007, 8(8): 1519-1555.

[11]LIU Y, WU F, ZHANG Z. Sparse representation using nonnegative curds and whey[C]// Proceedings of the IEEE International Conference on Computer Vision and Pattern Recognition. San Francisco, USA, 2010, 119(5):3578-3585.

[12]GAO S, TSANG I W, Chia L, et al. Local features are not lonely-laplacian sparse coding for image classification[C]// Proceedings of the IEEE International Conference on Computer Vision and Pattern Recognition, San Francisco, USA, 2010, 23(3):3555-3561.

[13]FISER J, BERKES P, WHITE B. No evidence for active sparsification in the visual cortex[C]// Advances in Neural Information Processing Systems,Vancouver, B.C., Canada, 2009: 108-116.

[14]ZHANG D, YANG M, FENG X. Sparse representation or collaborative representation: which helps face recognition?[C]// Proceedings of the IEEE International Conference on Computer Vision. Barcelona, Spain, 2011, 6669(5):471-478.

[15]DENG W, HU J, GUO J. Extended SRC: undersampled face recognition via intraclass variant dictionary[J]. Pattern analysis and machine intelligence, IEEE transactions on, 2012, 34(9): 1864-1870.

[16]GUO J. In defense of sparsity based face recognition[C]// Proceedings of the IEEE International Conference on Computer Vision. Sydney, NSW, Australia, 2013, 9(4):399-406.

[17]SU Y, SHAN S, CHEN X, et al. Adaptive generic learning for face recognition from a single sample per person[C]// Proceedings of the IEEE International Conference on Computer Vision and Pattern Recognition. San Francisco, USA, 2010: 2699-2706.

[18]WEI C, WANG Y-F. Learning auxiliary dictionaries for undersampled face recognition[C]// Proceedings of the IEEE International Conference on Multimedia and Expo.San Jose, California, USA, 2013, 2013:1-6.

[19]WANG X, TANG X. Unified subspace analysis for face recognition[C]// null. Proceedings of the IEEE International Conference on Computer Vision. Nice, France, 2003:679-686.

[20]LECUN Y L, BOTTOU L, BENGIO Y, et al. Gradient-based learning applied to document recognition. Proc IEEE[J]. Proceedings of the IEEE, 1998, 86(11):2278-2324.

[21]KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks[C]// Advances in Neural Information Processing Systems.Lake Tahoe, Nevada, USA, 2012, 25:2012.

[22]TAIGMAN Y, YANG M, RANZATO M A, et al. Deepface: Closing the gap to human-level performance in face verification[C]// Proceedings of the IEEE International Conference on Computer Vision and Pattern Recognition. Columbus, OH, USA, 2014: 1701-1708.

[23]SUN Y, WANG X, TANG X. Deeply learned face representations are sparse, selective, and robust[J]. arXiv: 1412.1265, 2014.

[24]SZEGEDY C, LIU W, JIA Y, ET AL. Going deeper with convolutions[J]. arXiv: 1409.4842, 2014.

[25]SCHROFF F, KALENICHENKO D, PHILBIN J. FaceNet: A unified embedding for face recognition and clustering[J]. arXiv preprint arXiv:1503.03832, 2015.

[26]YI D, LEI Z, LIAO S, ET AL. Learning face representation from scratch[J]. arXiv preprint arXiv:1411.7923. 2014.

[27]V. KAZEMI AND J. SULLIVAN. One millisecond face alignment with an ensemble of regression trees[C]// Pro-

ceedings of the IEEE International Conference on Computer Vision and Pattern Recognition.Columbus, OH, USA, 2014:1867-1874.

馬曉,男,1990 年生,博士研究生,主要研究方向?yàn)闄C(jī)器學(xué)習(xí)、模式識(shí)別和子空間理論。

張番棟,男,1991 年生,博士研究生,主要研究方向?yàn)闄C(jī)器學(xué)習(xí)和生物特征識(shí)別。

封舉富,男,1967 年生,教授,博士生導(dǎo)師,博士,主要研究方向?yàn)閳D像處理、模式識(shí)別、機(jī)器學(xué)習(xí)和生物特征識(shí)別。主持參與國(guó)家自然科學(xué)基金、教育部新世紀(jì)優(yōu)秀人才支持計(jì)劃、“十一五”國(guó)家科技支撐計(jì)劃課題、973計(jì)劃等多項(xiàng)項(xiàng)目。曾獲中國(guó)高校科技二等獎(jiǎng)等多項(xiàng)獎(jiǎng)勵(lì)。

中文引用格式:馬曉,張番棟,封舉富.基于深度學(xué)習(xí)特征的稀疏表示的人臉識(shí)別方法[J]. 智能系統(tǒng)學(xué)報(bào), 2016, 11(3): 279-286.

英文引用格式:MA xiao, ZHANG fandong, FENG Jufu.Sparse representation via deep learning features based face recognition method[J]. CAAI transactions on intelligent systems, 2016,11(3): 279-286.

Sparse representation via deep learning features based face recognition method

MA Xiao1,2, ZHANG Fandong1,2, FENG Jufu1,2

(1. School of Electronics Engineering and Computer Science, Peking University, Beijing 100871, China; 2.Key Laboratory of Machine Perception (Ministry of Education) Department of Machine Intelligence, Peking University,Beijing 100871, China)

Abstract:Focusing on the problems that the traditional sparse representation based face recognition methods are not quite robust to intra-class variations, a novel Sparse Representation via Deep Learning Features based Classification (SRDLFC) method is proposed in this paper, employing a deep convolutional neural network to extract facial features and a sparse representation based framework to make classification. Experimental results in this paper also verifies the features extracted from deep convolutional network do satisfy the linear subspace assumption. The proposed SRDLFC proves to be quite effective and be robust to intra-class variations especially for under-sampled face recognition problems.

Keywords:machine learning; biometric recognition; deep learning; feature learning; subspace; under-sampled recognition; sparse representation; face recognition

作者簡(jiǎn)介:

中圖分類號(hào):TP391.4

文獻(xiàn)標(biāo)志碼:A

文章編號(hào):1673-4785(2016)03-0279-08

通信作者:馬曉. E-mail: maxiao2012@pku.edu.cn.

基金項(xiàng)目:國(guó)家自然科學(xué)基金項(xiàng)目(61333015); 國(guó)家重點(diǎn)基礎(chǔ)研究發(fā)展計(jì)劃(2011CB302400).

收稿日期:2016-03-16.網(wǎng)絡(luò)出版日期:2016-05-13.

DOI:10.11992/tis.2016030

網(wǎng)絡(luò)出版地址:http://www.cnki.net/kcms/detail/23.1538.TP.20160513.0919.012.html

猜你喜歡
字典人臉人臉識(shí)別
人臉識(shí)別 等
有特點(diǎn)的人臉
一起學(xué)畫人臉
揭開人臉識(shí)別的神秘面紗
人臉識(shí)別技術(shù)的基本原理與應(yīng)用
字典的由來
三國(guó)漫——人臉解鎖
大頭熊的字典
人臉識(shí)別在高校安全防范中的應(yīng)用
正版字典
冷水江市| 鄂伦春自治旗| 汪清县| 平塘县| 菏泽市| 东乌珠穆沁旗| 翼城县| 常德市| 崇义县| 若羌县| 高安市| 灵武市| 河曲县| 广德县| 滕州市| 郓城县| 仁化县| 延川县| 新闻| 噶尔县| 墨竹工卡县| 关岭| 皋兰县| 广汉市| 浦江县| 和田市| 确山县| 宜黄县| 伊宁县| 聊城市| 卓资县| 乌恰县| 沙洋县| 华安县| 满城县| 潢川县| 肇庆市| 镇巴县| 丹凤县| 盈江县| 古丈县|