国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

融合全局和局部方向特征的掌紋識(shí)別方法

2019-09-09 03:27陳曉蔓李書(shū)杰劉曉平
圖學(xué)學(xué)報(bào) 2019年4期
關(guān)鍵詞:掌紋濾波器局部

陳曉蔓,賈 偉,李書(shū)杰,劉曉平

融合全局和局部方向特征的掌紋識(shí)別方法

陳曉蔓,賈 偉,李書(shū)杰,劉曉平

(合肥工業(yè)大學(xué)計(jì)算機(jī)與信息學(xué)院,安徽 合肥 230009)

掌紋識(shí)別是受到較多關(guān)注的生物特征識(shí)別技術(shù)之一。在各類掌紋識(shí)別的方法中,基于方向特征的方法取得了很好的效果。為了進(jìn)一步提升識(shí)別精度,提出一種融合全局和局部方向特征的掌紋識(shí)別算法,主要融合了基于方向編碼的方法、基于方向特征局部描述子的方法和結(jié)合方向特征和相關(guān)濾波器的方法。其中前2種方法屬于空間域方法,可很好地提取掌紋的局部方向特征;而第3種方法屬于頻域方法,能有效地提取全局方向特征。在匹配值層對(duì)該3種方法的識(shí)別結(jié)果進(jìn)行融合。本文算法在2個(gè)掌紋數(shù)據(jù)庫(kù)上進(jìn)行了驗(yàn)證,實(shí)驗(yàn)結(jié)果表明,本文方法的識(shí)別性能明顯優(yōu)于其他幾種掌紋識(shí)別方法。

生物特征識(shí)別;掌紋識(shí)別;方向特征;信息融合;匹配值層融合

隨著整個(gè)社會(huì)進(jìn)一步的網(wǎng)絡(luò)化和數(shù)字化,越來(lái)越多的場(chǎng)合需要對(duì)人的真實(shí)身份進(jìn)行有效鑒別。而生物特征識(shí)別技術(shù)(biometrics)是最為有效的身份鑒別解決方案之一。所謂生物特征識(shí)別技術(shù)是利用人體本身所固有的物理或行為特征,通過(guò)圖像處理和模式識(shí)別等方法鑒別個(gè)人身份的技術(shù)[1],與傳統(tǒng)的基于密碼或ID卡的身份鑒別方式相比,具有可隨身攜帶、不易偽造且不用記憶等特點(diǎn),因此有更好的方便性、安全性、可靠性和有效性。近些年來(lái)該技術(shù)受到較多關(guān)注,目前,面向民用的身份鑒別,主要使用低分辨率掌紋識(shí)別技術(shù)[2-9]。低分辨率掌紋識(shí)別主要是指分辨率介于75~150 dpi的圖像,其特征包括掌線、紋理和紋線的方向等。低分辨率掌紋識(shí)別技術(shù)主要的優(yōu)點(diǎn)包括:①高判別性,掌紋具有豐富的特征,該系統(tǒng)精度高,即使是雙胞胎,也很容易進(jìn)行區(qū)分;②特征穩(wěn)定,由于手掌近似一個(gè)平面,特征變異相對(duì)較小,具有較好的穩(wěn)定性;③感興趣區(qū)域(region of interest,ROI)容易定位,通過(guò)手指連接區(qū)域很容易定位參考點(diǎn),從而切取出ROI;④圖像質(zhì)量高,使用普通的采集設(shè)備或智能手機(jī)等均可方便地采集到高質(zhì)量的掌紋圖像。

針對(duì)低分辨率掌紋識(shí)別,許多學(xué)者如ZHONG等[2]、ZHANG等[3]、KONG等[6]、FEI等[8]分別對(duì)各具特色的掌紋識(shí)別算法進(jìn)行了綜述總結(jié)。低分辨率掌紋識(shí)別算法可大致分為:基于線特征的方法、子空間學(xué)習(xí)的方法、方向編碼的方法、相關(guān)濾波器的方法、紋理的方法、局部描述子的方法和基于深度學(xué)習(xí)的方法等。

在掌紋的各類特征中,方向特征是最為重要的特征之一,主要因?yàn)檎萍y包含主線和褶皺線,其具有明顯的方向,對(duì)于光照、小的畸變等變異具有較好的魯棒性,因此取得了很好的識(shí)別效果,已經(jīng)成為掌紋識(shí)別領(lǐng)域最為重要的方法之一?;诜较蛱卣鞯姆椒ㄓ?種子類型,分別是基于方向編碼的方法、基于方向特征的局部描述子方法、結(jié)合方向特征和相關(guān)濾波器的識(shí)別方法。其中,前2種方法屬于空間域方法,而結(jié)合方向特征和相關(guān)濾波器的方法則是頻域方法。經(jīng)典的基于方向編碼的方法主要有competitive code (CompC)[10],sparse multi-scale competitive code (SMCC)[11],binary orientation co-occurrence vector (BOCV)[12],robust line orientation code (RLOC)[13]和ordinal code[14]等。以CompC方法為例,基于方向編碼方法的流程如圖1所示,首先采用6個(gè)方向的Gabor濾波器和競(jìng)爭(zhēng)規(guī)則提取掌紋像素的主方向特征,然后使用二進(jìn)制表示掌紋主方向特征,最后使用漢明距離進(jìn)行匹配。為了利用掌紋圖像的尺度信息,ZUO等[11]提出了采用稀疏編碼獲得魯棒的多尺度掌紋方向特征的SMCC算法;GUO等[12]提出的BOCV方法包含了多方向信息;JIA等[13]采用改進(jìn)的有限Radon變換(modified finite Radon transform, MFRAT)提取掌紋方向特征圖,即RLOC算法,并在匹配時(shí)采用一個(gè)像素對(duì)區(qū)域的匹配方式;SUN等[14]提出ordinal code方法,采用3組正交高斯濾波器提取掌紋方向特征。但基于方向編碼的方法也存在一定的缺點(diǎn),如在降采樣過(guò)程中,往往只使用一個(gè)方向值,而很多像素的方向信息被丟棄,未充分利用某個(gè)像素可能包含多個(gè)方向信息這一特點(diǎn),造成信息損失。為解決該問(wèn)題,文獻(xiàn)[15-16]提出了基于方向特征的局部描述子方法,提取掌紋的多個(gè)方向特征。以LLDP (local line directional pattern)方法為例,其流程如圖2所示。首先通過(guò)Gabor濾波器,對(duì)掌紋ROI圖像進(jìn)行多個(gè)方向的濾波,然后比較濾波后的各個(gè)方向的值,確定每個(gè)像素的多個(gè)方向,即最大方向、最小方向等,并按照一定的編碼規(guī)則確定該像素的方向編碼,最終形成整個(gè)圖像的方向特征編碼圖;為更好的表示局部信息,對(duì)方向特征編碼圖像進(jìn)行分塊,并構(gòu)建直方圖,將每個(gè)分塊的直方圖首尾相連,形成最終的直方圖,即局部描述子作為最終特征。方向圖同樣可看成一種圖像,因此JIA等[17]使用頻域方法對(duì)掌紋方向特征圖進(jìn)行特征提取和匹配,提出了結(jié)合BLPOC (band-limited phase-only correlation)和方向表達(dá)(directional representation, DR)的BLPOC_DR方法,該方法是一種全局方法,取得了較好的識(shí)別結(jié)果。BLPOC_DR方法的具體流程如圖3所示。通過(guò)對(duì)算法的分析可知,BLPOC_DR算法屬于全局特征提取的方法,而LLDP和CompC (或SMCC)算法屬于局部特征提取方法。

圖1 方向編碼方法的總體流程

圖2 基于方向特征的局部描述子方法的總體流程

圖3 BLPOC_DR方法的總體流程

針對(duì)魯棒的生物特征識(shí)別,文獻(xiàn)[18]指出基于單一特征的識(shí)別方法存在一定的局限性,因?yàn)槠錈o(wú)法完整的描述待識(shí)別目標(biāo),造成信息損失。為解決該問(wèn)題,采用多特征融合的方法,通過(guò)多種特征的信息互補(bǔ)可提升識(shí)別系統(tǒng)的準(zhǔn)確性。根據(jù)心理物理學(xué)和神經(jīng)生理學(xué)的研究,局部和全局信息?對(duì)人類視覺(jué)系統(tǒng)至關(guān)重要,且局部信息和全局信息處于不同但互補(bǔ)的狀態(tài)。全局特征(global representations, GR)反應(yīng)了圖像的整體結(jié)構(gòu),用于粗略的特征表示;而局部特征(local representations, LR)則更加注重圖像的細(xì)節(jié),反應(yīng)圖像局部區(qū)域內(nèi)更詳細(xì)的變化。因此,適當(dāng)?shù)亟M合局部和全局信息,可以達(dá)到更好的圖像識(shí)別效果。

融合GR和LR的識(shí)別方法,可以分成2種類型。類型I,通過(guò)不同方法分別提取GR和LR;類型II,采用相同的方法,在整幅圖像中提取GR,在子區(qū)域中提取LR。對(duì)于類型I的融合方式,融合函數(shù)可表示為

其中,level為融合的層次;GRLR為GR和LR的提取方法和。相似的,類型II的融合方式為

其中,為同一種特征提取方法。

為了進(jìn)一步提升掌紋識(shí)別系統(tǒng)的魯棒性,本文提出了一種采用上述2種類型,進(jìn)行混合融合的多特征識(shí)別方法。由于本文融合的是基于方向特征的方法,因此將其稱之為FDR (fusing directional representations)方法。FDR的主要思路為:①采用BLPOC從整幅方向特征圖中提取GR;②采用BLPOC在方向特征圖子區(qū)域提取LR,與GR進(jìn)行類型II的融合;③采用基于方向編碼的方法CompC(或SMCC)和基于方向信息描述子的算法LLDP分別提取掌紋的LR;④在匹配值層對(duì)3種算法進(jìn)行類型I的信息融合,得到最終的識(shí)別結(jié)果。BLPOC_DR,CompC (或SMCC)和LLDP都有很好的識(shí)別性能,而且機(jī)制并不相同,可以優(yōu)勢(shì)互補(bǔ),因此,F(xiàn)DR方法能取得更加優(yōu)異的識(shí)別結(jié)果。

1 相關(guān)工作

1.1 CompC方法簡(jiǎn)述

CompC算法采用6個(gè)不同方向的Gabor濾波器(θ)與掌紋ROI圖像進(jìn)行卷積來(lái)提取掌紋方向特征,即

其中,*為卷積操作;θ=π(–1)/6,=1,2,···,6。對(duì)于任意像素(,),卷積后得到6個(gè)方向的卷積結(jié)果m,選擇最小值對(duì)應(yīng)的方向下標(biāo)作為掌紋特征。

在CompC中,需對(duì)128×128大小的掌紋ROI進(jìn)行特征提取,所以匹配較耗時(shí),因此通過(guò)下采樣,形成32×32的特征圖。由于特征圖的值由1到6組成,因此,采用3位2進(jìn)制表示6個(gè)方向。在匹配階段,采用漢明距離計(jì)算2幅掌紋圖像的相似性。

1.2 SMCC方法簡(jiǎn)述

給定一幅掌紋圖像,塊z,y定義為掌紋圖像在(,)處生成的子圖,z,y首先需進(jìn)行歸一化,使得均值為0并統(tǒng)一標(biāo)準(zhǔn)差。接著采用稀疏表達(dá)對(duì)z,y編碼,即

1.3 LLDP方法簡(jiǎn)述

基于Gabor濾波器的LLDP描述子,首先采用12個(gè)方向Gabor濾波器對(duì)給定掌紋ROI圖像進(jìn)行濾波。令(θ)代表Gabor濾波器的實(shí)部,其中θ代表Gabor濾波器第個(gè)方向。將與12個(gè)方向的Gabor濾波器實(shí)部進(jìn)行卷積,對(duì)于像素點(diǎn)(,),其與第個(gè)方向的(θ)卷積結(jié)果可用m表示,如式(1)。

其中,為L(zhǎng)LDP編碼值;(,)為區(qū)域中的像素位置;(,)為在位置(,)上的LLDP編碼;為累加值,一般取1。獲得每個(gè)圖像塊的后,將每個(gè)子區(qū)域?qū)?yīng)的特征直方圖連接,生成掌紋圖像的特征直方圖。

其中,∏為直方圖連接操作;為圖像塊的數(shù)量。在匹配階段,使用1距離、卡方距離等方法計(jì)算直方圖之間的相似度。

1.4 BLPOC_DR方法簡(jiǎn)述

BLPOC_DR方法首先采用12個(gè)方向的MFRAT對(duì)掌紋圖像進(jìn)行濾波,對(duì)濾波結(jié)果{m,=1,2,···,12}排序,選擇出最小的m對(duì)應(yīng)的方向下標(biāo),替換原始掌紋像素,構(gòu)建掌紋的方向圖。

在生成的掌紋方向圖上,采用BLPOC進(jìn)行特征提取和匹配。給定2幅圖像(1,2)和(1,2),其大小為1×2,(1,2)和(1,2)分別為(1,2)和(1,2)的二維離散傅里葉變換,(1,2)的定義如下

其中,A(1,2)為幅度;(1,2)為相位。(1,2)采用相同的方法得到。歸一化的互功率譜W(1,2)表示為

通過(guò)式(8)可以看出,POC使用所有的傅里葉變換分量生成輸出平面。文獻(xiàn)[19]的研究表明,通過(guò)移除圖像的高頻分量且僅僅使用低頻分量可以達(dá)到提升識(shí)別效果的目的。設(shè)(1,2)和(1,2)的中心區(qū)域分別為(1,2)(1,2),大小為1×2。因此,BLPOC方程可定義為

(1,2)為一維向量,需要按字典順序?qū)⑵滢D(zhuǎn)化成2D矩陣,得到相關(guān)輸出平面(correlation output plane,COP)。在匹配階段,采用峰值旁瓣比(peak-to-sideloberation, PSR)作為相似性度量

其中,sidelobe為環(huán)繞峰值的旁瓣區(qū)域的均值;sidelobe是為旁瓣區(qū)域的標(biāo)準(zhǔn)差。

2 方 法

2.1 FDR方法

FDR方法首先使用BLPOC對(duì)全局方向圖和局部方向子圖分別進(jìn)行特征提取和匹配,進(jìn)行類型II的融合。然后使用LLDP和CompC(或SMCC)算法提取掌紋的局部特征,與類型II的融合結(jié)果進(jìn)行類型I的融合??梢钥闯觯現(xiàn)DR包含了2種類型的融合方式,是一種混合融合方法,可表示為

其中,Score Level代表融合的方式為匹配值融合。

BLPOC_DR算法采用BLPOC在掌紋的整體方向特征圖上,提取全局特征。來(lái)自不同的掌紋圖像可能包含相同的全局結(jié)構(gòu),所以,局部特征顯得尤為重要。為了提取掌紋的局部特征,需要對(duì)掌紋方向特征圖進(jìn)行分塊處理,對(duì)每一子塊,采用BLPOC進(jìn)行局部特征提取和匹配。最后,將BLPOC算法提取的全局特征和局部特征進(jìn)行匹配值融合,稱為BBLPOC_DR算法。

其中,1和2分別為BBLPOC_DR算法中的全局和局部特征權(quán)值。由于1區(qū)域的掌紋識(shí)別結(jié)果優(yōu)于其他子區(qū)域的識(shí)別結(jié)果,因此通常設(shè)置1和2為4和1。

其中,w,ww為權(quán)值,其取值大小取決于所采用的數(shù)據(jù)庫(kù)。

在FDR中,如果參與融合的算法包括CompC算法,將FDR命名為FDRC,如果CompC算法被SMCC算法取代,則將FDR命名為FDRS。圖4為本文提出的FDR方法的框架結(jié)構(gòu)。

2.2 FDR方法分析

在FDR方法中,CompC算法(或SMCC)由于采用6個(gè)方向的濾波器和下采樣等操作,會(huì)丟失部分信息,而B(niǎo)BLPOC_DR算法和LLDP算法采用的濾波器數(shù)量較多,能采集到更多的方向信息,因此對(duì)于CompC(或SMCC)存在的問(wèn)題可進(jìn)行一定程度的彌補(bǔ);BBLPOC_DR算法采用MFRAT濾波器提取掌紋的方向特征,若存在光照變化且MFRAT濾波器較小時(shí),提取的掌紋方向特征不夠魯棒,而CompC (或SMCC)采用尺寸較大的方向?yàn)V波器提取方向特征,可有效的應(yīng)對(duì)光照的變化,并與BBLPOC_DR算法形成互補(bǔ)。BBLPOC_DR屬于相關(guān)濾波器的算法,在提取特征時(shí)對(duì)于圖像間小的平移變異比較魯棒,而LLDP算法采用直方圖的方式表示掌紋特征,能夠有效的應(yīng)對(duì)數(shù)據(jù)庫(kù)中存在的旋轉(zhuǎn)變化。通過(guò)以上分析,可以得出,BBLPOC_DR、CompC(SMCC)、LLDP 3種算法,都有各自的優(yōu)缺點(diǎn),但3種算法能夠相互補(bǔ)充。FDR同時(shí)包含3種方法優(yōu)勢(shì),另外,3種方法的缺點(diǎn)可以在一定程度上相互克服。

圖4 匹配值融合的多方向特征掌紋識(shí)別算法

3 實(shí)驗(yàn)及結(jié)果分析

3.1 掌紋數(shù)據(jù)庫(kù)

為驗(yàn)證本文算法的有效性,在香港理工大學(xué)掌紋庫(kù)(Hong Kong Polytechnic University Palmprint II Database, PolyU II)和合肥工業(yè)大學(xué)掌紋庫(kù)(Hefei University of Technology, HFUT) 2個(gè)掌紋數(shù)據(jù)庫(kù)上進(jìn)行了實(shí)驗(yàn)驗(yàn)證,2個(gè)數(shù)據(jù)庫(kù)包含的掌紋ROI圖像大小均為128×128。表1為本文使用掌紋數(shù)據(jù)庫(kù)的情況。PolyU II數(shù)據(jù)庫(kù)包含由386個(gè)手掌提供的7 752幅掌紋圖像,數(shù)據(jù)分2階段采集,每個(gè)手掌2個(gè)階段分別采集約10幅掌紋圖像,其間隔為2個(gè)月。PolyU II數(shù)據(jù)庫(kù)自發(fā)布以來(lái),已經(jīng)成為最廣泛使用的掌紋數(shù)據(jù)庫(kù)。PolyU II數(shù)據(jù)庫(kù)中的4幅掌紋ROI圖像如圖5(a)所示。

表1 本文所使用的掌紋數(shù)據(jù)庫(kù)的細(xì)節(jié)信息

HFUT數(shù)據(jù)庫(kù)是由本實(shí)驗(yàn)室采集的掌紋數(shù)據(jù)庫(kù)。數(shù)據(jù)分2階段采集,從800個(gè)手掌接觸式采集掌紋,每個(gè)手掌2個(gè)階段分別采集約10幅掌紋圖像,其間隔為10天,整個(gè)數(shù)據(jù)庫(kù)包含16 000幅掌紋圖像,是相對(duì)比較大的掌紋數(shù)據(jù)庫(kù)。相較于PolyU II庫(kù),HFUT庫(kù)在采集時(shí)采用無(wú)釘式的掌紋采集方式,且在自然光下采集。HFUT數(shù)據(jù)庫(kù)中的4幅掌紋ROI圖像如圖5(b)所示。

圖5 不同掌紋數(shù)據(jù)庫(kù)的4幅ROI圖像

所有的實(shí)驗(yàn)均在具有Matlab R2017b的PC機(jī)上進(jìn)行。對(duì)于BBLPOC_DR算法,根據(jù)經(jīng)驗(yàn)將1的1和2值設(shè)為26,對(duì)其他子區(qū)域,將其1和2值設(shè)為22。在識(shí)別實(shí)驗(yàn)中,本文采用最近鄰算法作為分類器。本文將FDR算法與已有的算法如local binary pattern (LBP)[20],local derivative pattern (LTP)[21],local directional pattern (LDP)[22],enhanced local directional patterns (ELDP)[23],local directional number pattern (LDN)[24],histogram of oriented lines(HOL)[15],LLDP[16],RLOC[13],ordinal code[14],CompC[10]和SMCC[11]算法進(jìn)行識(shí)別性能比較。

3.2 識(shí)別性能測(cè)度

本文使用6個(gè)識(shí)別性測(cè)度對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行識(shí)別性能評(píng)估,包括正確識(shí)別率(accurate recognition rate, ARR),錯(cuò)誤接受率(false acceptance rate, FAR),錯(cuò)誤拒絕率(false rejection rate, FRR),等錯(cuò)率(equal error rate,EER),以及ZeroFAR,ZeroFRR等。FAR指授權(quán)用戶被錯(cuò)誤拒絕的比例;FRR是指非授權(quán)用戶被錯(cuò)誤接受的比例;EER是指FAR曲線和FRR曲線相交時(shí)候的值,此時(shí)FAR等于FRR。ZeroFAR是指FAR為0的時(shí)FRR的值;而ZeroFRR是指FRR為0時(shí)FAR的值。

3.3 本文算法在PolyU II庫(kù)上的性能評(píng)估

對(duì)于PolyU II庫(kù),首先對(duì)BLPOC_DR算法、BBLPOC_DR算法、CompC算法、SMCC算法、LLDP算法及其他的融合算法進(jìn)行評(píng)估。具體的,將PolyUII數(shù)據(jù)庫(kù)中第1階段的前3幅掌紋圖像用于訓(xùn)練,第2階段的所有掌紋圖像用于測(cè)試。在BBLPOC_DR和BLPOC_DR算法中,均采用9×9的MFRAT濾波器提取掌紋的方向特征。從表2的結(jié)果可以看出,BBLPOC_DR算法其識(shí)別性能要明顯優(yōu)于BLPOC_DR算法,由此證明,基于類型II的融合全局和局部掌紋特征的算法要明顯優(yōu)于僅僅基于全局掌紋特征的算法。從整體的實(shí)驗(yàn)結(jié)果可以看出,BBLPOC_DR算法、CompC算法、SMCC算法、LLDP算法均獲得了很好的識(shí)別率,說(shuō)明單一的方向特征表示方法在掌紋特征提取方面具有良好的性能。因此,在進(jìn)行多方向特征表示方法融合實(shí)驗(yàn)時(shí),可設(shè)定w,ww的值為1。對(duì)于融合的方向特征方法,EER均有明顯的降低。由于SMCC和CompC均為局部的方向編碼方法,其融合結(jié)果較其他方式差,因此表明了不同性質(zhì)的方法對(duì)于掌紋識(shí)別性能提升的重要性。LLDP和SMCC同屬于掌紋的LR提取方法,但LLDP為基于描述子的方法,SMCC屬于基于方向編碼的方法,兩者融合后的EER為0。表中FDRS和FDRC的EER也為0。

表3列出了本文方法與現(xiàn)有部分掌紋識(shí)別方法EER和ARR的對(duì)比。為了測(cè)試不同訓(xùn)練數(shù)據(jù)量對(duì)識(shí)別性能的影響,因此分別設(shè)置參與訓(xùn)練集的掌紋數(shù)量為1(1T),2(2T),3(3T)。從表3可以看出,當(dāng)僅使用1或2個(gè)圖像進(jìn)行訓(xùn)練時(shí),本文FDR方法的EER非常低;且當(dāng)有3個(gè)訓(xùn)練圖像時(shí),其EER值為0,說(shuō)明了本文方法的識(shí)別性能明顯優(yōu)于其他算法。圖6為PolyU II庫(kù)上各算法的ROC曲線。

表2 在PolyU II庫(kù)上的融合實(shí)驗(yàn)結(jié)果(%)

表3 在PolyU II庫(kù)上的掌紋識(shí)別方法性能比較(%)

3.4 本文算法在HFUT庫(kù)上的性能評(píng)估

對(duì)于HFUT數(shù)據(jù)庫(kù),同PolyU II庫(kù)類似,首先對(duì)單一的基于方向特征的掌紋識(shí)別方法和融合的方向特征表示方法進(jìn)行了性能評(píng)估。同樣的,采用數(shù)據(jù)庫(kù)中第1階段采集的3幅掌紋圖像作為訓(xùn)練集,第2階段采集的所有掌紋圖像作為測(cè)試集。對(duì)于BLPOC_DR和BBLPOC_DR,在圖像特征提取時(shí),采用的MFRAT濾波器的大小為11×11。表4為基于方向特征方法的識(shí)別結(jié)果。從表中可以看出,BBLPOC_DR算法要明顯優(yōu)于BLPOC_DR算法,且相較于LLDP,SMCC和CompC算法,BBLPOC_DR的識(shí)別性能最優(yōu)。因此在融合實(shí)驗(yàn)中,設(shè)定w的值為4,其余的加權(quán)參數(shù)為1。同樣的,F(xiàn)DRS和FDRC取得了最低的EER值。

圖6 PolyUII庫(kù)上的ROC曲線

表4 在HFUT庫(kù)上的融合實(shí)驗(yàn)結(jié)果(%)

表5給出了在HFUT庫(kù)上,本文的算法與其他掌紋識(shí)別算法的比較。實(shí)驗(yàn)結(jié)果表明,F(xiàn)DR方法在訓(xùn)練集數(shù)量為2時(shí),識(shí)別率達(dá)到了100%??梢钥闯?,本文方法的識(shí)別性能要明顯優(yōu)于其他方法。圖7為HFUT庫(kù)上各算法的ROC曲線。

表5 在HFUT庫(kù)上的掌紋識(shí)別方法性能比較(%)

圖7 HFUT庫(kù)上的ROC曲線

3.5 與其他多特征融合算法的比較

表6為本文FDR算法與其他多特征融合算法進(jìn)行的比較。實(shí)驗(yàn)中采用的訓(xùn)練集數(shù)量為3。根據(jù)表6可以看出,本文的FDR算法的識(shí)別性能明顯優(yōu)于其他多特征融合算法,因此,可以認(rèn)為,融合局部和全局掌紋方向特征的識(shí)別算法能夠取得非常理想的識(shí)別效果。

表6 FDR與其他多特征融合算法的比較

4 結(jié) 論

本文提出了融合局部和全局掌紋方向特征的FDR方法。其融合了3種基于方向特征的掌紋識(shí)別方法,分別為BBLPOC_DR算法,LLDP算法,CompC算法(或SMCC算法)。FDR算法充分利用了全局和局部特征融合的優(yōu)點(diǎn)和基于方向特征算法的識(shí)別性能優(yōu)勢(shì),同時(shí),所采用的3種掌紋識(shí)別方法之間能夠互相補(bǔ)充。因此,F(xiàn)DR能夠有效提升識(shí)別性能達(dá)到魯棒的掌紋識(shí)別目的。本文在2個(gè)掌紋數(shù)據(jù)庫(kù)上對(duì)FDR算法進(jìn)行了性能測(cè)試,實(shí)驗(yàn)證明,F(xiàn)DR算法的識(shí)別性能優(yōu)于其他幾種掌紋識(shí)別方法。

[1] JAIN A K, NANDAKUMAR K, ROSS A. 50 years of biometric research: Accomplishments, challenges, and opportunities [J]. Pattern Recognition Letters, 2016, 79: 80-105.

[2] ZHONG D X, DU X F, ZHONG K C. Decade progress of palmprint recognition: A brief survey [J]. Neurocomputing, 2019, 328: 16-28.

[3] ZHANG D, ZUO W M, YUE F. A comparative study of palmprint recognition algorithms [J]. ACM Computing Surveys, 2012, 44(1): 1-37.

[4] XU Y, FEI L K, WEN J, et al. Discriminative and robust competitive code for palmprint recognition [J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2018, 48(2): 232-241.

[5] KUMAR A. Toward more accurate matching of contactless palmprint images under less constrained environments [J]. IEEE Transactions on Information Forensics and Security, 2019, 14(1): 34-47.

[6] KONG A, ZHANG D, KAMEL M. A survey of palmprint recognition [J]. Pattern Recognition, 2009, 42(7): 1408-1418.

[7] FEI L K, ZHANG B, ZHANG W, et al. Local apparent and latent direction extraction for palmprint recognition [J]. Information Sciences, 2019, 473: 59-72.

[8] FEI L K, LU G M, JIA W, et al. Feature extraction methods for palmprint recognition: A survey and evaluation [J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2019, 49(2): 346-363.

[9] FEI L K. Local discriminant direction binary pattern for palmprint representation and recognition [EB/OL]. [2018-12-28]. https://ieeexplore.ieee.org/abstract/ document/8600369.

[10] ZHANG D, KONG W K, YOU J, et al. Online palmprint identification [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(9): 1041-1050.

[11] ZUO W M, LIN Z C, GUO Z H, et al. The multiscale competitive code via sparse representation for palmprint verification [C]//2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2010: 2265-2272.

[12] GUO Z H, ZHANG D, ZHANG L, et al. Palmprint verification using binary orientation co-occurrence vector [J]. Pattern Recognition Letters, 2009, 30(13): 1219-1227.

[13] JIA W, HUANG D S, ZHANG D. Palmprint verification based on robust line orientation code [J]. Pattern Recognition, 2008, 41(5): 1504-1513.

[14] SUN Z N, TAN T N, WANG Y H, et al. Ordinal palmprint represention for personal identification [C]// 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05). New York: IEEE Press, 2005: 279-284.

[15] JIA W, HU R X, LEI Y K, et al. Histogram of oriented lines for palmprint recognition[J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2014, 44(3): 385-395.

[16] LUO Y T, ZHAO L Y, ZHANG B, et al. Local line directional pattern for palmprint recognition [J]. Pattern Recognition, 2016, 50: 26-44.

[17] JIA W, ZHANG B, LU J T, et al. Palmprint recognition based on complete direction representation [J]. IEEE Transactions on Image Processing, 2017, 26(9): 4483-4498.

[18] ROSS A, JAIN A. Information fusion in biometrics [J]. Pattern Recognition Letters, 2003, 24(13): 2115-2125.

[19] MIYAZAWA K, ITO K, AOKI T, et al. An effective approach for iris recognition using phase-based image matching [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2008, 30(10): 1741-1756.

[20] OJALA T, PIETIKAINEN M, MAENPAA T. Multiresolution gray-scale and rotation invariant texture classification with local binary patterns [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(7): 971-987.

[21] ZHANG B C, GAO Y S, ZHAO S Q, et al. Local derivative pattern versus local binary pattern: Face recognition with high-order local pattern descriptor [J]. IEEE Transactions on Image Processing, 2010, 19(2): 533-544.

[22] JABID T. Robust facial expression recognition based on local directional pattern [J]. ETRI Journal, 2010, 32(5): 784-794.

[23] ZHONG F J, ZHANG J S. Face recognition with enhanced local directional patterns [J]. Neurocomputing, 2013, 119: 375-384.

[24] RAMIREZ RIVERA A, ROJAS CASTILLO J, OKSAM CHAE O. Local directional number pattern for face analysis: Face and expression recognition [J]. IEEE Transactions on Image Processing, 2013, 22(5): 1740-1752.

[25] KUMAR A, ZHANG D. Personal authentication using multiple palmprint representation [J]. Pattern Recognition, 2005, 38(10): 1695-1704.

[26] WU X Q, ZHANG D, WANG K Q. Fusion of phase and orientation information for palmprint authentication [J]. Pattern Analysis and Applications, 2006, 9(2-3): 103-111.

[27] JIA W, LING B, CHAU K W, et al. Palmprint identification using restricted fusion [J]. Applied Mathematics and Computation, 2008, 205(2): 927-934.

[28] NANNI L, LUMINI A. Ensemble of multiple palmprint representation [J]. Expert Systems with Applications, 2009, 36(3): 4485-4490.

[29] PRASAD S M, GOVINDAN V K, SATHIDEVI P S. Palmprint authentication using fusion of wavelet based representations [C]//2009 World Congress on Nature & Biologically Inspired Computing (NaBIC). New York: IEEE Press, 2009: 520-525.

[30] KUMAR A, SHEKHAR S. Personal identification using multibiometrics rank-level fusion [J]. IEEE Transactions on Systems, Man, and Cybernetics, Part c (Applications and Reviews), 2011, 41(5): 743-752.

[31] TABEJAMAAT M. Selective algorithm outline (SAO): An alternative approach for fusing different palm-print recognition algorithms [J]. Neural Processing Letters, 2016, 43(3): 709-726.

Palmprint Recognition Based on Fusing Global and Local Directional Features

CHEN Xiao-man, JIA Wei, LI Shu-jie, LIU Xiao-ping

(School of Computer Science and Information Engineering, Hefei University of Technology, Hefei Anhui 230009, China)

Palmprint recognition is one of the most popular biometrics identification technologies. Among the various methods of palmprint recognition, the method based on directional features has achieved good results. In order to further improve the recognition accuracy, a palmprint recognition algorithm combining global and local directional features is proposed, which mainly combines the method based on directional coding, the method based on local descriptor of directional features and the method of combining directional features and correlation filters. The first two methods belong to the spatial domain method, which can extract the local directional features of the palmprint. The third method belongs to the frequency domain method, which can effectively extract the global directional features. The recognition results of the three methods are merged at the score level. The algorithm is validated on two palmprint databases. The experimental results show that the recognition performance of this method is better than other palmprint recognition methods.

biometrics; palmprint recognition; directional representations; information fusion; score level fusion

TP 391

10.11996/JG.j.2095-302X.2019040671

A

2095-302X(2019)04-0671-10

2018-12-28;

定稿日期:2019-03-05

國(guó)家自然科學(xué)基金項(xiàng)目(61673157)

陳曉蔓(1994-),女,安徽淮南人,碩士研究生。主要研究方向?yàn)閳D像處理、生物特征識(shí)別。E-mail:xmchen1112@163.com

劉曉平(1964-),男,山東濟(jì)南人,教授,博士,博士生導(dǎo)師。主要研究方向?yàn)橛?jì)算機(jī)輔助設(shè)計(jì)、計(jì)算機(jī)圖形學(xué)。E-mail:lxp@hfut.edu.cn

猜你喜歡
掌紋濾波器局部
余弦相似度保持的掌紋識(shí)別算法
這一年很快就會(huì)過(guò)去 [外二首]
爨體蘭亭集序(局部)
凡·高《夜晚露天咖啡座》局部[荷蘭]
從濾波器理解卷積
開(kāi)關(guān)電源EMI濾波器的應(yīng)用方法探討
一種微帶交指濾波器的仿真
敲窗的鳥(niǎo)
丁學(xué)軍作品