国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種融合角點(diǎn)特征匹配的人臉優(yōu)化識(shí)別方法

2016-03-21 15:59陸興華梁建銘袁文聰郭梓俊
計(jì)算機(jī)時(shí)代 2016年3期
關(guān)鍵詞:身份驗(yàn)證人臉識(shí)別

陸興華++梁建銘++袁文聰++郭梓俊

摘 要: 提出一種融合角點(diǎn)特征匹配算法的人臉優(yōu)化識(shí)別方法。采用主成分分析方法對(duì)人臉圖像進(jìn)行三角剖分,通過統(tǒng)一框架下的紋理映射,對(duì)人臉在旋轉(zhuǎn)過程中的投影變換進(jìn)行人臉姿態(tài)變化輪廓提取和角點(diǎn)融合定位。采用模板匹配方法進(jìn)行角點(diǎn)特征提取,實(shí)現(xiàn)角點(diǎn)特征的匹配融合,達(dá)到人臉優(yōu)化識(shí)別的目的。仿真結(jié)果表明,該方法進(jìn)行人臉識(shí)別的準(zhǔn)確度較高,特征匹配性能較好,提高了安全身份認(rèn)證系統(tǒng)的性能。

關(guān)鍵詞: 人臉識(shí)別; 特征匹配; 身份驗(yàn)證

中圖分類號(hào):TP391 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1006-8228(2016)03-08-04

An optimized face recognition method with corner points feature matching

Lu Xinghua, Liang Jianming, Yuan Wencong, Guo Zijun

(Huali College Guangdong University of Technology, Guangzhou, Guangdong 511325, China)

Abstract: An optimized face recognition method with corner points feature matching is proposed. By using principal component analysis method for face image triangulation, through the texture mapping, the face pose variation contour is extracted and corner points are positioned. The corner feature extraction is performed by using the template matching method to make the face recognition optimized. The simulation results show that the accuracy of the method for face recognition is higher, and the feature matching performance is better, and the performance of the security identity authentication system based on the face recognition method is improved.

Key words: face recognition; feature matching; authentication

0 引言

研究人臉優(yōu)化識(shí)別算法,在安全身份認(rèn)證系統(tǒng)設(shè)計(jì)和視覺分析等領(lǐng)域具有重要的應(yīng)用意義[1]。人臉識(shí)別的研究涉及圖像處理、模式識(shí)別、認(rèn)知科學(xué)、人工智能等相關(guān)科學(xué)。傳統(tǒng)方法中,對(duì)人臉識(shí)別方法主要有基于主成分分析的人臉識(shí)別算法、基于模板匹配的人臉識(shí)別算法和基于小波變換的人臉識(shí)別算法等[2]。后來出現(xiàn)了很多改進(jìn)的方法,比如:子空間判別模型、LDA判別方法、增強(qiáng)判別方法等等[3-7]。采用上述方法,當(dāng)人臉面部特征的類內(nèi)離散度較小時(shí),人臉識(shí)別的準(zhǔn)確度不高[8-10]。本文提出一種融合角點(diǎn)特征匹配算法的人臉優(yōu)化識(shí)別方法。首先采用主成分分析方法對(duì)人臉圖像進(jìn)行三角剖分,然后進(jìn)行角點(diǎn)定位,采用模板匹配方法進(jìn)行角點(diǎn)特征提取,實(shí)現(xiàn)角點(diǎn)特征的匹配融合,達(dá)到人臉優(yōu)化識(shí)別的目的,最后通過仿真實(shí)驗(yàn)進(jìn)行了性能測試,展示了本文方法在提高人臉識(shí)別的準(zhǔn)確度方面的優(yōu)越性能,得出有效性結(jié)論。

1 人臉圖像三角剖分和特征點(diǎn)提取

1.1 人臉圖像三角剖分

首先獲取人臉樣本圖像中的信息,采用三角剖分方法進(jìn)行特征提取,其次是樣本圖像集的歸一化處理,對(duì)歸一化處理的數(shù)據(jù)進(jìn)行統(tǒng)計(jì)分析,選擇一組合適的訓(xùn)練集,一般是手動(dòng)標(biāo)記訓(xùn)練圖像中能充分說明圖像屬性特征的各個(gè)特征點(diǎn),每幅圖像標(biāo)記ν個(gè)特征點(diǎn)構(gòu)成形狀s。

采用PCA變換,對(duì)標(biāo)記好的形狀區(qū)域內(nèi)的對(duì)象紋理信息進(jìn)行圖像紋理集合特征提取,得到一個(gè)線性的統(tǒng)計(jì)形狀模型:

建立一個(gè)可逆的映射方程式,然后將這個(gè)表觀區(qū)域映射到一個(gè)已設(shè)定的基準(zhǔn)形狀網(wǎng)格,在該形狀網(wǎng)格內(nèi)進(jìn)行一致的參數(shù)采樣,再將它們映射回各自的紋理區(qū)域,通過統(tǒng)一框架下的紋理映射對(duì)人臉在旋轉(zhuǎn)過程中的投影變換進(jìn)行人臉姿態(tài)變化輪廓提取,得到基于主成分分析的人臉姿態(tài)變化輪廓提取結(jié)果,如圖1所示。

人臉圖像圍繞圖像的中點(diǎn)進(jìn)行仿射變換,選取窗口為3×3,使用三維空間中的旋轉(zhuǎn)投影進(jìn)行人臉圖像增強(qiáng)處理,且在不同的多媒體視覺特征采集環(huán)境下,對(duì)人臉在旋轉(zhuǎn)過程中的投影圖像進(jìn)行矯正分析,采用三角剖分得到兩幅不同大小的二值前景圖像,表示為N1×N2的人臉邊緣輪廓特征矩陣,輸出測試樣本y的類別:

其中,Wfinal是人臉的旋轉(zhuǎn)過程的權(quán)值矩陣W,Di是第i類訓(xùn)練樣本兩臉頰夾角,存在一個(gè)小波尺度變換系數(shù)f(n1,n2)和g(n1,n2),假定f(n1,n2)和g(n1,n2)的具有自相關(guān)性,得到一副三角剖分后的人臉圖像為S,大小為m×n,人臉發(fā)生垂直旋轉(zhuǎn)時(shí)平面上的網(wǎng)格點(diǎn)為{(x,y)|x=1,2,…,m y=1,2,…,n},通過三角剖分,以人臉剖分后的輪廓線為參照線,進(jìn)行邊緣輪廓特征提取,為人臉識(shí)別奠定基礎(chǔ)。選擇其中一個(gè)樣本得到的三角剖分結(jié)果如圖2所示。

1.2 角點(diǎn)特征檢測技術(shù)

在上述進(jìn)行圖像的三角剖分基礎(chǔ)上,進(jìn)行角點(diǎn)檢測,采用平面陣對(duì)特征信息進(jìn)行興趣點(diǎn)檢測和跟蹤,在多媒體視覺下提取人臉認(rèn)證信息的興趣點(diǎn)特征,得到感興趣點(diǎn)匹配的跟蹤量化值V(Mmi)的計(jì)算式為:

先利用高斯與圖像的卷積設(shè)計(jì)特征提取算法,再對(duì)歸一化后的紋理進(jìn)行PCA,實(shí)現(xiàn)了表觀建模。表觀模型可以表示為:

當(dāng)初始位置與目標(biāo)真實(shí)特征點(diǎn)的位置較近時(shí),更新形狀參數(shù),根據(jù)角點(diǎn)檢測結(jié)果,接近目標(biāo)的真實(shí)輪廓,得到輸出的角點(diǎn)特征的主方向判別函數(shù)為:

其中,是合成運(yùn)算。對(duì)上式進(jìn)行一階泰勒展開得到:

基于角點(diǎn)檢測結(jié)構(gòu),構(gòu)建人臉識(shí)別的頭部橫切面模型,如圖3所示。

圖3中,將人臉識(shí)別橫切面抽象成為一個(gè)等腰三角形。采用SURF算法,根據(jù)網(wǎng)格點(diǎn)在圖像中的不同位置,得到人臉信息特征點(diǎn)的三維成像在網(wǎng)格點(diǎn)(x',y')處的灰度值:

其中,TC為視點(diǎn)控制的偏移誤差,設(shè)Fm(x,y)為第m幀(x,y)處的像素灰度值,得到Md(Ci)表示Ci中的灰度像素特征。通過上述角點(diǎn)檢測結(jié)果,對(duì)人臉圖像進(jìn)行分塊處理,通過模板匹配進(jìn)行人臉識(shí)別。

2 人臉識(shí)別方法改進(jìn)實(shí)現(xiàn)

在上述進(jìn)行人臉圖像的三角剖分和角點(diǎn)檢測的基礎(chǔ)上,進(jìn)行角點(diǎn)定位,采用模板匹配方法進(jìn)行角點(diǎn)特征提取,實(shí)現(xiàn)角點(diǎn)特征的匹配融合,達(dá)到人臉優(yōu)化識(shí)別的目的,改進(jìn)算法的設(shè)計(jì)關(guān)鍵技術(shù)描述如下,假設(shè)人臉圖像位姿轉(zhuǎn)置j的廣義逆RRT為:θstart∈θfree(自由C-空間),結(jié)合圖3,得到正面人臉在p平面的投影圖像的垂直旋轉(zhuǎn)投影為:

其中,θ為左右旋轉(zhuǎn)的角度,兩臉頰單元尺度變換為pobj,S'在網(wǎng)格點(diǎn)(x',y')處的緊耦合集合gc,人臉姿態(tài)的目標(biāo)位形θgoal未知,在尺度空間內(nèi)進(jìn)行加權(quán),在使用600的滑窗來計(jì)算特征點(diǎn)的主方向,滿足非線性復(fù)雜系統(tǒng)的規(guī)劃路徑:τ:[0,1]→Cfree,使得映射τ[0]=θstart,τ[1]=θgoal,(pobj,gc)→f(θgoal),在建立基于參數(shù)化的統(tǒng)計(jì)紋理模型時(shí),計(jì)算協(xié)方差矩陣:

由于模板圖像A0(x)是常量,而且Jacobian矩陣、Hessian矩陣以及平均紋理的梯度值均與位置x無關(guān),可以根據(jù)檢測出的嘴角、眉毛、眼睛的具體位置調(diào)節(jié)初始形狀狀態(tài),使得初始化形狀更接近目標(biāo)的真實(shí)輪廓,根據(jù)紋理特征向量建立線性的統(tǒng)計(jì)參數(shù)化的紋理模型。在分析經(jīng)典方法不足的基礎(chǔ)上,采用增量主成分分析方法,假設(shè)前l(fā)個(gè)向量e1,e2,…,el兩兩關(guān)于矩陣D正交,得到人臉圖像的角點(diǎn)特征在核空間的投影為:

其中,K(:,xi)=[K(x1,xi),…,K(xm,xi)]T,當(dāng)時(shí),由可知:

通過上述處理,建立基于參數(shù)化的統(tǒng)計(jì)紋理模型,采用模板匹配方法,融合角點(diǎn)特征,實(shí)現(xiàn)識(shí)別,此時(shí)用高斯模糊隸屬度樣本集D表示人臉樣本庫中的測試樣本y,采集一個(gè)人臉數(shù)據(jù)庫用于建立統(tǒng)計(jì)樣本信息,實(shí)現(xiàn)人臉識(shí)別算法改進(jìn)。本文設(shè)計(jì)的人臉識(shí)別算法的實(shí)現(xiàn)步驟如下。

輸入:人臉識(shí)別系統(tǒng)的人臉數(shù)據(jù)采集節(jié)點(diǎn)的隸屬度樣本y和特征集D的每列;,l是訓(xùn)練集中的人臉信息的個(gè)數(shù)。

輸出:α

初始化參數(shù),從t=1開始:

⑴ 計(jì)算人臉數(shù)據(jù)灰度信息余項(xiàng)e(t)=y-Dα(t)。

⑵ 人臉圖像三角剖分,得到加權(quán)值:

⑶ 人臉圖像三角剖分后的單元尺度變換表示:,W(t)是擬合結(jié)果,。

對(duì)歸一化后的紋理進(jìn)行PCA:

當(dāng)t-1,則;

當(dāng)t>1,則;

其中0<β(t)<1,β(t)是步長。

⑷ 在[0 1]范圍內(nèi)通過融合角點(diǎn)特征匹配搜索方法得到,使。

⑸ 計(jì)算重構(gòu)的測試樣本,得到識(shí)別輸出結(jié)果:。

⑹ 如果不滿足收斂條件,令t=t+1。轉(zhuǎn)回到步驟⑴,直到滿足收斂條件或者達(dá)到最大迭代數(shù)。

⑺ 結(jié)束。

3 仿真實(shí)驗(yàn)與結(jié)果分析

為了測試本文設(shè)計(jì)的人臉識(shí)別方法在改善人臉識(shí)別精度和提高識(shí)別準(zhǔn)確度方面的性能,進(jìn)行仿真實(shí)驗(yàn)。本實(shí)驗(yàn)采用ORL人臉數(shù)據(jù)庫,含30個(gè)人,每個(gè)人10幅圖像,一共300幅圖像。選取每個(gè)人的前5幅圖像作為訓(xùn)練集樣本,其余的5幅圖像作為測試樣本集。每個(gè)人臉圖像被手工標(biāo)定43個(gè)特征點(diǎn),參數(shù)設(shè)置為:λmin=4,u=0.64,σ=2.0。在上述仿真環(huán)境和參數(shù)設(shè)定的基礎(chǔ)上,采用主成分分析方法對(duì)人臉圖像進(jìn)行三角剖分,然后進(jìn)行角點(diǎn)定位,采用模板匹配方法進(jìn)行角點(diǎn)特征提取。人臉數(shù)據(jù)庫的原始圖像加載結(jié)果如圖4所示。采用本文方法,得到本文輸出的人臉識(shí)別的特征匹配結(jié)果如圖5所示。

從圖5可見,本文方法通過融合人臉的角點(diǎn)特征匹配結(jié)果,實(shí)現(xiàn)人臉識(shí)別,有效提高了人臉識(shí)別的準(zhǔn)確度。以人臉特征匹配的擬合誤差為測試指標(biāo),得到仿真結(jié)果如表1。

采用不同方法,得到人臉識(shí)別的準(zhǔn)確度對(duì)比結(jié)果如圖6所示,從圖6結(jié)果可見,采用本文方法進(jìn)行人臉識(shí)別的準(zhǔn)確性最好,提高了識(shí)別性能。

4 結(jié)束語

通過人臉優(yōu)化識(shí)別技術(shù),提高視覺跟蹤和計(jì)算機(jī)視覺識(shí)別的水平,在人臉識(shí)別安全身份認(rèn)證系統(tǒng)設(shè)計(jì)中具有重要應(yīng)用價(jià)值。本文提出一種融合角點(diǎn)特征匹配算法的人臉優(yōu)化識(shí)別方法,首先采用主成分分析方法對(duì)人臉圖像進(jìn)行三角剖分,然后進(jìn)行角點(diǎn)定位,采用模板匹配方法進(jìn)行角點(diǎn)特征提取,實(shí)現(xiàn)角點(diǎn)特征的匹配融合,達(dá)到人臉優(yōu)化識(shí)別的目的。仿真實(shí)驗(yàn)結(jié)果表明,采用本文方法進(jìn)行人臉識(shí)別,其準(zhǔn)確程度較高,特征匹配性能較好,提高了人臉準(zhǔn)確認(rèn)證和識(shí)別的概率。

參考文獻(xiàn)(References):

[1] 閭素紅,任艷娜.Web方式人臉識(shí)別的設(shè)計(jì)與實(shí)現(xiàn)[J].科技通

報(bào),2012.28(9):186-188

[2] 許亦男,王士同.基于SLPP和張量分解相結(jié)合的人臉識(shí)別[J].

計(jì)算機(jī)應(yīng)用研究,2011.28(8):3145-3147

[3] Yang Meng, Zhang Lei, Yang Jian, et al. Regularized

robust coding for face recognition [J]. IEEE Transactions on Image Processing,2013.22(5):1753-1766

[4] LEE K, HO J, KRIEGMAN D. Acquiring linear subspaces

for face recognition under variable lighting[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2005.27(5):684-698

[5] 龔衛(wèi)國,黃瀟瑩,李偉紅.基于正弦變換的人臉姿態(tài)矯正及識(shí)

別研究[J].計(jì)算機(jī)工程與應(yīng)用,2010.46(22):213-216

[6] 喬勇軍,謝曉方,李德棟,孫濤.SURF特征匹配中的分塊加速

方法研究[J].激光與紅外,2011.41(6):691-696

[7] 蔡自興,彭夢(mèng),余伶俐.基于時(shí)序特性的自適應(yīng)增量主成分分

析的視覺跟蹤[J].電子與信息學(xué)報(bào),2015.37(11):2571-2577

[8] Bao C L, Wu Y, Linh H B, et al.. Real time robust L1

tracker using accelerated proximal gradient approach[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Rhode Island,2012:1830-1837

[9] Xie Yuan, Zhang Wen-sheng, Qu Yan-yun, et al..

Discriminative subspace learning with sparse representation view-based model for robust visual tracking[J]. Pattern Recognition,2014.47(3):1383-1394

[10] Wang Dong, Lu Hu-chuan, and Yang M H . Online

object tracking with sparse prototypes[J]. IEEE Transactions on Image Processing,2013.22(1):314-325

猜你喜歡
身份驗(yàn)證人臉識(shí)別
人臉識(shí)別 等
揭開人臉識(shí)別的神秘面紗
基于(2D)2PCA-LBP 的人臉識(shí)別方法的研究
人臉識(shí)別在高校安全防范中的應(yīng)用
人臉識(shí)別身份驗(yàn)證系統(tǒng)在養(yǎng)老保險(xiǎn)生存核查中的應(yīng)用
基于類獨(dú)立核稀疏表示的魯棒人臉識(shí)別
Endogenous neurotrophin-3 promotes neuronal sprouting from dorsal root ganglia
基于K-L變換和平均近鄰法的人臉識(shí)別
HID Global推動(dòng)多層身份驗(yàn)證解決方案
身份驗(yàn)證中基于主動(dòng)外觀模型的手形匹配