国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于環(huán)形對(duì)稱Gabor多通道紋理加權(quán)的人臉識(shí)別

2014-10-26 07:33:36王昱蓉張雪英
關(guān)鍵詞:訓(xùn)練樣本識(shí)別率人臉識(shí)別

王昱蓉,白 靜,張雪英

(太原理工大學(xué) 信息工程學(xué)院,太原 030024)

人臉識(shí)別技術(shù)作為多學(xué)科領(lǐng)域的具有挑戰(zhàn)性的難題,覆蓋了數(shù)字圖像處理、模式識(shí)別、計(jì)算機(jī)視覺、心理學(xué)、數(shù)學(xué)等諸多學(xué)科的內(nèi)容,同時(shí)也廣泛地應(yīng)用于國家安全、軍事以及家庭生活等方面[1]。人臉識(shí)別算法的優(yōu)劣,很大程度上取決于人臉的特征提取及其精準(zhǔn)表示,良好的人臉表示可以使最簡單的分類器達(dá)到最好的識(shí)別效果。Gabor變換(Gabor Transform,GT)不僅可以獲取時(shí)間和頻率的最小不確定性,而且與人的視網(wǎng)膜神經(jīng)細(xì)胞的接受場模型具有驚人的相似性[2],是一種經(jīng)典的人臉特征提取方法。但是目前普遍采用的GT至少存在兩方面的缺陷:

1)GT通常取5尺度,8方向的基函數(shù),變換后的特征維數(shù)是變換前的40倍,致使系統(tǒng)冗余增加。

2)旋轉(zhuǎn)不變性對(duì)圖像識(shí)別非常重要,而GT的方向選擇性使其不具備旋轉(zhuǎn)不變性,在人臉圖像的平面旋轉(zhuǎn)時(shí)性能下降。

為解決上述問題,首先采用一種變形的GT,即環(huán)形對(duì)稱Gabor變換(Circularly Symmetrical Gabor Transform,CSGT)[3-5],用于提取人臉的多通道特征,它可以有效地克服GT的上述缺陷,并對(duì)各種干擾具有一定的魯棒性。然后,為了充分利用CSGT的特性,進(jìn)一步提高特征提取的準(zhǔn)確性以及實(shí)際應(yīng)用的靈活性,本文對(duì)CSGT提取的多通道特征進(jìn)行了優(yōu)化選擇和融合,有效地結(jié)合了紋理圖像檢索的紋理統(tǒng)計(jì)特征提取算法[6]和自適應(yīng)加權(quán)算法[7],提出了一種基于CSGT的人臉特征提取改進(jìn)算法——CSGT多通道紋理加權(quán)(Weighted Multichannel Texture of Circularly Symmetrical Gabor,CSGT-WMT)算法,該算法充分獲取了CSGT的魯棒局部紋理特征,有效解決了識(shí)別的“誤配準(zhǔn)問題”[8],提取出鑒別能力強(qiáng)的特征,減少數(shù)據(jù)冗余。最后,采用PCA加權(quán)算法降維,使用簡單的歐氏距離得到分類識(shí)別結(jié)果,實(shí)現(xiàn)人臉識(shí)別。

分別在ORL,Yale和FERET人臉庫上進(jìn)行實(shí)驗(yàn),相比于GT和其它傳統(tǒng)算法,以及CSGT和其改進(jìn)算法,本文算法識(shí)別率高,數(shù)據(jù)量小,可行性高,對(duì)光照、姿態(tài)、表情、局部形變等干擾具有很好的魯棒性,且靈活適應(yīng)于不同的人臉庫,具有很好的分類性能和實(shí)際應(yīng)用能力。

1 環(huán)形對(duì)稱Gabor變換

傳統(tǒng)Gabor濾波器核函數(shù)定義如下:

將式中與方向有關(guān)的頻率向量kuv加以修改,忽略補(bǔ)償直流成份,得到CSGT核函數(shù),定義為:

可見,CSGT是一個(gè)高斯函數(shù)約束的平面波。

σ決定窗口的寬度和波長的比例關(guān)系,

式中:φ為濾波器倍頻程帶寬;σ一般取2π。

對(duì)于一幅人臉圖像,經(jīng)過CSGT變換,即人臉圖像I(x,y)與CSGT核函數(shù)ψv的卷積,定義為:

Ov(x,y)為復(fù)數(shù),其幅值 Mv(x,y)為:

式中:Re(Ov(x,y))和Im(Ov(x,y))分別為 Ov(x,y)的實(shí)部和虛部。

因此,得到v(v=1,2,…,5)個(gè)尺度的幅度響應(yīng)Mv(x,y),因其比較穩(wěn)定,通常作為人臉圖像的CSGT多尺度特征[5],如圖1所示。

圖1 人臉圖像的CSGT多尺度特征

CSGT具有傳統(tǒng)GT的突顯局部紋理、多尺度分析等性質(zhì),還具有兩個(gè)重要性質(zhì):

1)冗余降低。CSGT的基函數(shù)明顯比傳統(tǒng)GT減小。傳統(tǒng)GT得到40個(gè)變換結(jié)果,而CSGT僅保留5個(gè)尺度上的變換結(jié)果,冗余量是傳統(tǒng)GT的1/8。

2)嚴(yán)格的旋轉(zhuǎn)不變性。旋轉(zhuǎn)不變性對(duì)圖像識(shí)別非常重要,而在實(shí)際應(yīng)用中,圖像的旋轉(zhuǎn)是任意的。GT的方向選擇是離散的,使其不具備旋轉(zhuǎn)不變性。如圖2,圖3所示。對(duì)于傳統(tǒng)GT,圖像先變換再旋轉(zhuǎn),與圖像先旋轉(zhuǎn)再變換,有所差別;而CSGT則不同,具有嚴(yán)格旋轉(zhuǎn)不變性。

圖2 傳統(tǒng)GT的旋轉(zhuǎn)敏感性測試

圖3 CSGT的旋轉(zhuǎn)不變性測試

2 基于CSGT的人臉特征提取改進(jìn)算法

2.1 算法描述

人臉特征提取算法流程如圖4所示,在得到CSGT多尺度特征之后進(jìn)行改進(jìn),提出了一種基于CSGT的人臉特征提取改進(jìn)算法,具有兩點(diǎn)重要改進(jìn)。

2.1.1 CSGT特征優(yōu)選

CSGT變換后的幅度圖像突顯出了局部的紋理信息,但數(shù)據(jù)量是變換前圖像的5倍。因此,有必要對(duì)CSGT特征進(jìn)行優(yōu)選,減少冗余,提取重要的且利于識(shí)別的紋理信息。本文將紋理圖像檢索的紋理統(tǒng)計(jì)特征(Texture Statistical Feature,TSF)提取方法[6]與CSGT相結(jié)合,構(gòu)成了算法CSGT-TSF。該算法使用統(tǒng)計(jì)特征提取方法,有效解決識(shí)別的“誤配準(zhǔn)問題”;并結(jié)合子圖像的處理方式,充分獲取CSGT的魯棒局部紋理特征,減少數(shù)據(jù)冗余。由此構(gòu)建了人臉圖像的CSGT多通道紋理特征。

2.1.2 自適應(yīng)加權(quán)融合

在CSGT-TSF算法的基礎(chǔ)上,為了區(qū)分不同通道紋理統(tǒng)計(jì)特征的重要性,讓鑒別能力強(qiáng)的特征占主導(dǎo)地位,減少干擾因素的影響,提出了一種基于CSGT的人臉特征提取改進(jìn)算法——CSGT多通道紋理加權(quán)算法。該算法采用自適應(yīng)加權(quán)融合,動(dòng)態(tài)調(diào)整不同通道特征的權(quán)值w(1,2,…,10),融合得到最具鑒別能力的特征,即自適應(yīng)加權(quán)的CSGT紋理特征。該特征靈活適應(yīng)于不同的干擾變化。

圖4 CSGT-WMT人臉特征提取算法流程示意圖

2.2 CSGT-TSF算法

CSGT-TSF算法首先將得到的人臉圖像的CSGT多尺度特征劃分子圖像,然后分別對(duì)每個(gè)子圖像進(jìn)行紋理統(tǒng)計(jì)特征提取,最后分別在各尺度上級(jí)聯(lián)子圖像紋理統(tǒng)計(jì)特征提取結(jié)果。

對(duì)于人臉圖像I,在CSGT多尺度特征圖像Mv(x,y)上劃分大小相同的子圖像,假設(shè)子圖像大小為m×n,個(gè)數(shù)為K,每個(gè)子圖像Ik(k=0,1,…K-1)的紋理統(tǒng)計(jì)特征均值μv,k和標(biāo)準(zhǔn)差σv,k分別為:

然后,在各尺度上分別級(jí)聯(lián)其子圖像的紋理統(tǒng)計(jì)特征均值μv,k和標(biāo)準(zhǔn)差σv,k,分別得到各尺度的均值紋理特征μv和標(biāo)準(zhǔn)差紋理特征σv,由它們構(gòu)成了人臉圖像I的多通道CSGT紋理特征(CSGT Texture Features,GTF),GTF用G表示,定義為:

CSGT-TSF算法得到的統(tǒng)計(jì)特征GTF克服了先前點(diǎn)對(duì)點(diǎn)識(shí)別的“誤配準(zhǔn)問題”,數(shù)據(jù)量為紋理統(tǒng)計(jì)前的2/(m×n)。

2.3 CSGT多通道紋理加權(quán)(CSGT-WMT)算法

人臉圖像的每一個(gè)尺度信息在人臉識(shí)別中的貢獻(xiàn)大小是不同的,如果直接將得到的所有尺度的紋理統(tǒng)計(jì)特征直接級(jí)聯(lián)勢必會(huì)造成冗余及降低識(shí)別率[9]。因此,有必要區(qū)分不同通道的紋理統(tǒng)計(jì)特征的重要性,然后根據(jù)重要程度進(jìn)行特征的融合。

自適應(yīng)加權(quán)融合算法,靈活適應(yīng)于光照、姿態(tài)、表情、局部形變等干擾及人臉庫的變化,CSGTWMT算法在CSGT-TSF算法基礎(chǔ)上采用線性判別分析的優(yōu)化思想[10],得到訓(xùn)練樣本各個(gè)通道的紋理統(tǒng)計(jì)特征GTF在不同類別樣本的集中和離散程度,動(dòng)態(tài)調(diào)整不同通道GTF的權(quán)值大小,融合得到最具鑒別能力的特征。

首先分別計(jì)算GTF在第l(l=1,2,…,10)通道上的類內(nèi)方差和類間方差,定義為:

Gi,j,l為第i類第j樣本在第l通道上的GTF矢量。Gi,j,l(q)是特征矢量的第q個(gè)元素標(biāo)量。εi,l(q)是第i類訓(xùn)練樣本Gi,j,l(q)的均值,εl(q)是全部訓(xùn)練樣本Gi,j,l(q)的均值。N 為訓(xùn)練樣本總數(shù),k為樣本類別數(shù),ni為第i類樣本數(shù)。

式中:q∈{1,2,…,d};d為 GTF矢量長度。

因此,得到通道l的權(quán)值wl:

于是,可以根據(jù)wl(l=1,2,…,10)衡量每個(gè)通道的GTF的鑒別能力,進(jìn)一步,將所有通道的GTF加權(quán)求和,得到自適應(yīng)加權(quán)的CSGT紋理特征(A-daptive Weighted CSGT Texture Features,WGTF),WGTF用W 表示,定義為:

人臉樣本經(jīng)過CSGT-WMT算法,進(jìn)行CSGT特征優(yōu)化選擇和融合得到的樣本特征WGTF,提取并融合了最具鑒別能力的特征,削弱了鑒別能力不強(qiáng)的特征,以及減少光照、姿態(tài)等干擾,并且數(shù)據(jù)量減少為原始樣本的1/(m×n)。

3 PCA加權(quán)降維及空間分類

為進(jìn)一步降低樣本維數(shù)實(shí)現(xiàn)空間分類,在沒有足夠的先驗(yàn)知識(shí)情況下,應(yīng)該平等的看待PCA的特征向量的每一個(gè)獨(dú)立分量,每個(gè)分量應(yīng)具有相同方差,因此本文采用PCA加權(quán)(Weighted PCA,WPCA)[11],對(duì) CSGT-WMT 得到的人臉特征 WGTF進(jìn)行降維,經(jīng)過WPCA,訓(xùn)練和測試樣本分別得到其對(duì)應(yīng)的投影向量。最后,采用簡單的歐氏距離進(jìn)行分類器設(shè)計(jì),實(shí)現(xiàn)最終的人臉識(shí)別。

4 實(shí)驗(yàn)結(jié)果與分析

實(shí)驗(yàn)分別在ORL、Yale和FERET 3個(gè)人臉庫上進(jìn)行,采用5尺度CSGT,5尺度8方向GT,下采樣和TSF分塊大小均為4×4,WPCA降維方式和歐氏距離分類器。首先,在ORL人臉庫上,對(duì)降維算法PCA和WPCA進(jìn)行對(duì)比,將GT+WPCA、CSGT+WPCA、CSGT-TSF+WPCA 和 CSGTWMT+WPCA進(jìn)行對(duì)比實(shí)驗(yàn)。然后,在Yale和FERET人臉庫上分別進(jìn)行CSGT基礎(chǔ)上的改進(jìn)實(shí)驗(yàn)及其對(duì)比。

ORL人臉庫包括40組人臉樣本,每組10張,共400張。每組是一個(gè)人包括姿態(tài)、表情和面部飾物等變化圖像,大小為112×92。表1給出了每種算法分別取不同數(shù)目訓(xùn)練樣本對(duì)應(yīng)得到的識(shí)別率結(jié)果,在訓(xùn)練樣本數(shù)為2~8時(shí),分別隨機(jī)選取訓(xùn)練樣本進(jìn)行30次實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果取平均;訓(xùn)練樣本數(shù)為9時(shí)使用排一法得到結(jié)果。表2給出了各算法在取不同數(shù)目的訓(xùn)練樣本下分別使用排一法識(shí)別的CPU運(yùn)行時(shí)間。從表1和表2可以看出,降維算法WPCA的識(shí)別率優(yōu)于PCA,且識(shí)別時(shí)間有所減少;CSGT+WPCA相比GT+WPCA的平均識(shí)別率有所提高,且數(shù)據(jù)量減少,識(shí)別時(shí)間明顯降低;改進(jìn)的CSGT-WMT+WPCA算法相比CSGT+WPCA,不僅識(shí)別率提高了,最高識(shí)別率可達(dá)到98.47%,而且數(shù)據(jù)量及運(yùn)行時(shí)間也有大幅度的減少。通過實(shí)驗(yàn)驗(yàn)證了CSGT優(yōu)于GT以及本文算法CSGT-WMT的有效性和可行性。

表1 ORL人臉庫上各種算法識(shí)別率 %

表2 ORL人臉庫各種算法識(shí)別時(shí)間 s

Yale人臉庫包括15個(gè)志愿者,每人11幅,共165幅人臉圖像,圖像大小為100×100。本文選擇每人前6張圖像作為訓(xùn)練樣本,其余作為測試樣本進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)包括表情和光照的變化,對(duì)比了CSGT+WPCA和其改進(jìn)實(shí)驗(yàn):CSGT-TSF+WPCA和CSGTWMT+WPCA。實(shí)驗(yàn)結(jié)果如圖5所示。

圖5 CSGT及其改進(jìn)算法在Yale上的實(shí)驗(yàn)比較

FERET人臉庫包括200個(gè)志愿者,每人7幅圖像,圖像大小為128×128。本文選取其中60個(gè)人的圖像,每人前4幅作為訓(xùn)練樣本,其余作為測試樣本進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)包括豐富的表情、光照和姿態(tài)等變化,對(duì)比了CSGT和其改進(jìn)算法。實(shí)驗(yàn)結(jié)果如圖6所示。

圖6 CSGT及其改進(jìn)算法在FERET的實(shí)驗(yàn)比較

由圖5、圖6可見,CSGT-TSF識(shí)別率相比CSGT有所改進(jìn),算法CSGT-WMT識(shí)別率在CSGT-TSF基礎(chǔ)上有很大提高,自適應(yīng)加權(quán)融合了最具鑒別能力的人臉特征,使之能降低不同干擾(光照,姿態(tài),表情)對(duì)其影響,其識(shí)別率在FERET人臉庫干擾增多的情況下與Yale人臉庫中的相比減小幅度不大,因此可以靈活適用于不同的人臉庫,具有很好的實(shí)際應(yīng)用能力。

5 結(jié)論

提出的CSGT-WMT算法,識(shí)別率高,對(duì)光照、姿態(tài)、表情等影響具有很好的魯棒性,靈活適應(yīng)于不同的人臉庫,并且數(shù)據(jù)量小識(shí)別時(shí)間短可行性強(qiáng),相比CSGT和GT等方法具有明顯的優(yōu)勢,具有很高的實(shí)用價(jià)值。但隨著不同人臉庫干擾因素的增多,影響了識(shí)別率,因此有必要進(jìn)一步對(duì)各種干擾因素進(jìn)行綜合分析深入研究,使用復(fù)雜的分類器進(jìn)一步提高識(shí)別效果。

[1]張翠平,蘇光大.人臉識(shí)別技術(shù)綜述[J].中國圖象圖形學(xué)報(bào),2000,5(11):885.

[2]張國云,郭龍?jiān)?,吳健輝,胡文靜.計(jì)算機(jī)視覺與圖像識(shí)別[M].北京:科學(xué)出版社,2012.

[3]Zhu Zhenfeng,Tang Ming,Lu Hanqing.A New Robust Circular Gabor Based Object Matching by Using Weighted Hausdorff Distance[J].Pattern Recognition Letters,2004,25(4):515-523.

[4]Wang Huiyuan.Face Recognition Approaches Based on Linear Subspace and Circularly Symmetrical Gabor Transforms[D].Jinan,China:School of Information Science and Engineering,Shandong University,2007(in Chinese).

[5]王進(jìn)軍,王匯源,吳曉娟.基于環(huán)形對(duì)稱Gabor變換和PCA加權(quán)的人臉識(shí)別算法[J].模式識(shí)別與人工智能,2009,22(4):635-638.

[6]Manjunath B S,Ma W Y.Texture features for browsing and retrieval of image date[J].IEEE Trans.on PAMI,1996,18(8):837-842.

[7]楊青山,郭成安,金明錄.基于Gabor多通道加權(quán)優(yōu)化與系數(shù)表征的人臉識(shí)別方法[J].電子與信息學(xué)報(bào),2011,33(7):1620-1621.

[8]余磊,何中市.Gabor小波變換在人臉識(shí)別中的應(yīng)用研究[D].重慶大學(xué)計(jì)算機(jī)學(xué)院,2009.

[9]Amin M A,Yan H.An empirical study on the characteristics of Gabor representations for face recognition[J].International Journal of Pattern Recognition and Artificial Intelligence,2009,23(3):401-431.

[10]李文輝,高璐,林逸峰.特征選擇模糊加權(quán)多通道Gabor人臉識(shí)別[J].湖南大學(xué)學(xué)報(bào)(自然科學(xué)版),2013,40(4):87-93.

[11]Wang Huiyuan,Wu Xiaojuan.Weighted PCA Space and Its Application in Face Recognition[C]//Proc of the 5thInternational Conference on Machine Learning and Cybernetics,Guangzhou,China,2005,Ⅶ:4522-4527.

猜你喜歡
訓(xùn)練樣本識(shí)別率人臉識(shí)別
人臉識(shí)別 等
揭開人臉識(shí)別的神秘面紗
基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測
人工智能
基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識(shí)別率的關(guān)系
提升高速公路MTC二次抓拍車牌識(shí)別率方案研究
寬帶光譜成像系統(tǒng)最優(yōu)訓(xùn)練樣本選擇方法研究
融合原始樣本和虛擬樣本的人臉識(shí)別算法
基于稀疏重構(gòu)的機(jī)載雷達(dá)訓(xùn)練樣本挑選方法
高速公路機(jī)電日常維護(hù)中車牌識(shí)別率分析系統(tǒng)的應(yīng)用
密云县| 万载县| 呈贡县| 新野县| 平舆县| 屏东市| 惠州市| 横峰县| 四子王旗| 聊城市| 出国| 六枝特区| 通河县| 叶城县| 大方县| 枣强县| 建瓯市| 江口县| 凤山市| 新源县| 包头市| 江西省| 花垣县| 浦县| 梁平县| 韶山市| 石狮市| 黑山县| 永和县| 三亚市| 万载县| 普格县| 渑池县| 原平市| 左贡县| 建平县| 胶南市| 刚察县| 金湖县| 永新县| 成安县|