国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種人臉三維特征信息融合方法

2017-06-23 21:28陳思依郭萬(wàn)里
物聯(lián)網(wǎng)技術(shù) 2017年6期
關(guān)鍵詞:信息融合人臉識(shí)別

陳思依+郭萬(wàn)里

摘 要:針對(duì)現(xiàn)行人臉識(shí)別算法的識(shí)別安全問(wèn)題,文中提出了一種人臉三維特征信息的融合方法,用于身份認(rèn)證。該方法采用經(jīng)典的Gabor小波變換產(chǎn)生人臉正面與兩側(cè)面紋理特征矩陣,然后對(duì)正面與兩側(cè)的紋理特征分別建立共有特征矩陣,該方法產(chǎn)生的特征矩陣建立在人臉正面及雙側(cè)面視角可融合的基礎(chǔ)上,可一定程度規(guī)避單一視角的可仿冒性、環(huán)境弱魯棒性等問(wèn)題,從而可用改進(jìn)的最近鄰分類器對(duì)特征矩陣進(jìn)行識(shí)別。測(cè)試結(jié)果表明,該方法可實(shí)現(xiàn)較高的識(shí)別安全性,可用于安全級(jí)別較高的場(chǎng)合。

關(guān)鍵詞:人臉識(shí)別;Gabor小波變換;紋理特征;最近鄰;信息融合

中圖分類號(hào):TP391 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-1302(2017)06-00-04

0 引 言

在高度信息化的當(dāng)今和未來(lái)社會(huì),信息安全問(wèn)題與每個(gè)人的切身利益相關(guān),甚至涉及國(guó)家安全。傳統(tǒng)的身份認(rèn)證方法已不能滿足當(dāng)今社會(huì)發(fā)展的需求。以生物特征為基礎(chǔ)的身份識(shí)別技術(shù)如人臉、指紋、聲音、虹膜、筆跡和步態(tài)等,由于其固有的可靠性、便捷性和高效性,已成為一種發(fā)展趨勢(shì)[1-3]。其中,人臉識(shí)別技術(shù),尤因其無(wú)侵害性和采用用戶最自然、直觀的特性,在生物特征識(shí)別中應(yīng)用廣泛[4]。

傳統(tǒng)的二維人臉識(shí)別技術(shù)采用提取人臉正面特征的方法通過(guò)分類器進(jìn)行識(shí)別[5]。但二維人臉圖像容易受到光照、遮擋等因素的影響[6],或假照片的仿冒使得身份認(rèn)證系統(tǒng)的識(shí)別安全性下降。而目前已有的三維人臉識(shí)別技術(shù)中的第三維往往局限于單張圖像的灰度值[7,8],雖然準(zhǔn)確性不高,但拿照片仿冒的可能性仍然存在。

基于上述情況,可以將人臉識(shí)別與三維特征融合等技術(shù)相結(jié)合,設(shè)計(jì)安全的身份認(rèn)證技術(shù)。此技術(shù)由人臉圖像采集及預(yù)處理模塊,人臉特征提取模塊,人臉庫(kù)和人臉立體匹配等模塊組成,核心是人臉立體視覺(jué)擬合模塊中的特征信息融合方法。三維人臉識(shí)別身份認(rèn)證系統(tǒng)流程圖如圖1所示。

1 人臉主區(qū)域提取與優(yōu)化

人臉識(shí)別過(guò)程主要包含兩個(gè)基本步驟[9]:

(1)人臉檢測(cè)和定位,即從輸入圖像中精準(zhǔn)定位人臉并反饋人臉?biāo)谖恢?,將人臉從背景中分離出來(lái);

(2)對(duì)優(yōu)化的人臉圖像進(jìn)行特征提取與識(shí)別認(rèn)證。

本方法首先采用Viola-Jones算法對(duì)拍攝圖片進(jìn)行實(shí)時(shí)人臉檢測(cè),根據(jù)人臉檢測(cè)獲取的人臉圖像部分坐標(biāo),提取圖像人臉主要信息,在空域?qū)μ崛D像進(jìn)行去噪、補(bǔ)光、圖像增強(qiáng)等操作,突出處理部分圖像信息,為以后的特征提取建立良好的信息源[10]。

系統(tǒng)采用拉普拉斯濾波器對(duì)圖像進(jìn)行增強(qiáng)[11],圖像I(x,y)的拉普拉斯算子定義為:

通過(guò)將圖像與下列空間模板卷積,該表達(dá)式可在圖像中所有點(diǎn)實(shí)現(xiàn):

若用對(duì)角線元素替換空間二階導(dǎo)數(shù),可使用以下模板:

使用拉普拉斯算子對(duì)圖片進(jìn)行增強(qiáng)的公式為:

其中,I(x,y)為輸入圖像,g(x,y)為增強(qiáng)后的圖像。C為常數(shù)系數(shù),若模板的中心系數(shù)為正,則C取1;否則,C取-1。

圖2所示為圖像優(yōu)化前后對(duì)比圖。

2 人臉特征提取與匹配

2.1 Gabor小波變換提取特征

Gabor小波變換是窗函數(shù)為高斯函數(shù)的短時(shí)距傅立葉變換,它在提取目標(biāo)的局部空間和頻率域信息方面具有良好的特性如分辨力強(qiáng)、多尺度和多方向性[12]。其2D核函數(shù)定義如下:

其中,(x,y)為像素坐標(biāo)點(diǎn),u指Gabor小波的方向,k代表總方向的個(gè)數(shù), v代表Gabor小波的尺度因子,exp(-[k2(x2+y2)]/(2σ2))為高斯函數(shù),可以看成Gabor小波,用高斯窗口來(lái)限制振蕩函數(shù)的范圍,控制其局部有效,k/σ表示高斯窗口大小,在本方法中取σ=2π。

值得一提的是,為了減少光照等環(huán)境因素對(duì)人臉特征提取造成影響,式(8)中的exp(-σ2/2)可以使濾波器不受直流分量大小影響,從而增強(qiáng)環(huán)境魯棒性。接上式(8),對(duì)人臉圖像I(x,y)和Gabor小波核函數(shù)Ψu,v(x,y)進(jìn)行卷積:

本方法首先需要在采集圖像中選取5個(gè)尺度和8個(gè)方向,即提取每張采集圖像的40個(gè)復(fù)系數(shù)的Gabor小波紋理特征,再對(duì)它們?nèi)∧V?、向量化,最后將其順序排成矩陣形式。按照Gabor小波變換方法對(duì)試驗(yàn)測(cè)試中的一幅圖像進(jìn)行紋理特征提取,結(jié)果如圖3所示。

用上述方法對(duì)人臉正面的n個(gè)樣本進(jìn)行特征提取,將各特征向量聯(lián)合建立正面特征矩陣FF,作為正面識(shí)別的特征樣本庫(kù)。再以同樣的方式建立人臉雙側(cè)面特征樣本矩陣FSL,F(xiàn)SR,保存該樣本矩陣。

2.2 建立正面與雙側(cè)面相似度矩陣

對(duì)每一個(gè)需要錄入的人員采集 n個(gè)樣本信息,每個(gè)角度可得到n個(gè)特征向量,對(duì)這n個(gè)特征向量?jī)蓛芍g求歐氏距離Fi(i=1,2,3,…,n×(n-1)/2)。二維空間歐氏距離計(jì)算如下:

式中A、B分別表示歐氏距離的兩個(gè)特征向量。

本方法采用Fi表示任意兩個(gè)樣本之間的相似度,將Fi按序存入相似度矩陣FA即可得到M×1的相似度矩陣,其中M=n×(n-1)/2。

由此可以獲得三個(gè)角度的三個(gè)相似度矩陣,用于之后認(rèn)證功能中的樣本匹配。

2.3 改進(jìn)最近鄰分類器進(jìn)行特征匹配

人臉識(shí)別是高維小樣本問(wèn)題的一種。為了解決對(duì)高維小樣本數(shù)據(jù)的特征提取問(wèn)題,主成分分析PCA、fisherface、獨(dú)立成分分析ICA等經(jīng)典算法[13]被相繼發(fā)明。為了提高方法的可行性、降低復(fù)雜度,也可以先將高維人臉圖像向量轉(zhuǎn)換到低維特征子空間中,再進(jìn)行特征的提取并用分類器進(jìn)行分類與識(shí)別認(rèn)證。本方法運(yùn)用降維后的小樣本數(shù)據(jù),所以選取傳統(tǒng)的分類器方法對(duì)小樣本數(shù)據(jù)進(jìn)行識(shí)別,如貝葉斯分類器[14]、最近鄰分類器與最小距離分類器等,其中,最近鄰分類器在人臉識(shí)別中的應(yīng)用尤為廣泛。

最近鄰分類器選取所有類中的所有樣本做代表點(diǎn),將樣本X判別為最相近的樣本類,其性能與子空間中各類模式的分布特征密切相關(guān)。因此,最近鄰分類器可在很大程度上克服樣本均值向量因偏差造成影響等各類問(wèn)題[15]。設(shè)ωi類有判別函數(shù):

經(jīng)典的最近鄰分類器總能成功匹配到與測(cè)試樣本最相近的樣本,所以對(duì)不在庫(kù)中的測(cè)試值的識(shí)別能力很弱,因此本方法采用歐氏距離作為判別距離,設(shè)定距離最大值,對(duì)不在庫(kù)中的樣本給出較準(zhǔn)確的判別。

首先獲取樣本相似度矩陣,如人臉正面的相似度矩陣FA,建立測(cè)試值與樣本數(shù)據(jù)庫(kù)的歐氏距離矩陣,矩陣維度取決于樣本庫(kù),若樣本庫(kù)中某一類具有n個(gè)樣本,那么歐氏距離矩陣具有n個(gè)距離值,建立n×1距離矩陣。對(duì)比距離矩陣中最大值maxD與相似度矩陣中距離最大值maxA,同時(shí)設(shè)定判決器閾值N為測(cè)試成功時(shí)maxD與maxA之差,即有定義如下:

至此,三個(gè)判決條件分別為正面特征是否匹配,左側(cè)面特征是否匹配以及右側(cè)面特征是否匹配。正面及雙側(cè)面的檢測(cè)流程如圖4、圖5所示。

3 三維特征信息融合認(rèn)證算法

利用人臉正面和雙側(cè)臉特征矩陣,經(jīng)過(guò)計(jì)算合成融合特征矩陣,作為更為安全的認(rèn)證密鑰,對(duì)測(cè)試目標(biāo)進(jìn)行識(shí)別。

建立融合特征矩陣的前提是,待測(cè)試目標(biāo)必須提供立體視角的可觀測(cè)臉部,并且正面與側(cè)面的圖像必須在同一條件下采集[16]。

正面特征矩陣和雙側(cè)面特征矩陣皆為同一條件下獲取的N×M特征矩陣,故三個(gè)不同視角的圖像中存在三角形經(jīng)相似變換可以兩兩重疊。特征矩陣兩兩作差得:

式中,F(xiàn)F為正面特征矩陣,F(xiàn)SL,F(xiàn)SR為雙側(cè)面特征矩陣,F(xiàn)DL,F(xiàn)DR分別為左右側(cè)面矩陣差。

由于立體視角下拍攝的正面和側(cè)面圖像必然在某處重合,理想條件下,矩陣FDL,F(xiàn)DR中必有值為0的元素,所以遍歷兩個(gè)矩陣:

式中,F(xiàn)DL為左側(cè)面矩陣差,aij為FDL中的元素,λ為人臉庫(kù)中數(shù)據(jù)經(jīng)過(guò)統(tǒng)計(jì)分析得到的由于角度導(dǎo)致的人臉正側(cè)面偏差均值,ε為算法的絕對(duì)誤差,F(xiàn)FL為左側(cè)面融合特征矩陣,F(xiàn)F為正面特征矩陣,F(xiàn)SL為左側(cè)面特征矩陣。

同理,建立右側(cè)面融合特征矩陣FFusionR。經(jīng)上述方法得到唯一的融合特征矩陣,可作為識(shí)別的重要依據(jù)輸入改進(jìn)的最近鄰分類器。由于認(rèn)證裝置的三個(gè)攝像頭角度固定且快門(mén)時(shí)間并發(fā),在相同情況下同時(shí)偽造三個(gè)視角的圖片概率很小,所以此融合特征具有獨(dú)一性與不可偽造性。

至此,設(shè)立的判決條件有正面特征,左側(cè)面特征,右側(cè)面特征,左側(cè)面融合特征及右側(cè)面融合特征,認(rèn)證流程如圖6所示。開(kāi)始認(rèn)證后將經(jīng)過(guò)這五層精密篩選,缺一不可。

4 方法驗(yàn)證

為驗(yàn)證上述方法的可行性,對(duì)20名人員進(jìn)行臉部圖像采集與人臉識(shí)別檢驗(yàn)。其中20個(gè)人的編號(hào)為1~20,為了方便日后認(rèn)證,記錄20個(gè)人的姓名縮寫(xiě)(無(wú)重名)。

20個(gè)人的錄入現(xiàn)場(chǎng)照片和系統(tǒng)處理后的正面人臉圖像如圖7所示。

每個(gè)人在三個(gè)攝像頭前變換不同表情,錄入5組共15張照片,庫(kù)中共存信息圖片300幅。錄入結(jié)束后,將20人隨機(jī)排列進(jìn)行認(rèn)證,測(cè)試錯(cuò)誤拒絕率為FRR;再請(qǐng)10位非法用戶,即庫(kù)中不存在樣本的人來(lái)進(jìn)行認(rèn)證,測(cè)試錯(cuò)誤接受率為FAR。測(cè)試結(jié)果為:

經(jīng)過(guò)多次抽取20人的現(xiàn)場(chǎng)認(rèn)證,本方法能較好地識(shí)別授權(quán)人的立體視覺(jué)信息并成功判斷,實(shí)際準(zhǔn)確率達(dá)92.5%。

5 結(jié) 語(yǔ)

本文提出的一種人臉三維特征信息融合方法,作為重要判別條件從三個(gè)視角對(duì)人臉進(jìn)行識(shí)別認(rèn)證。同時(shí)改進(jìn)最近鄰分類器,引入對(duì)樣本內(nèi)歐氏距離的計(jì)算,可有效提高對(duì)假冒者的排除率。相比于傳統(tǒng)單一視角和雙目視覺(jué)人臉識(shí)別系統(tǒng),在算法上提高了識(shí)別速度;在硬件設(shè)備上降低了采集系統(tǒng)的復(fù)雜度,無(wú)需人們刻意配合,易于應(yīng)用在各種場(chǎng)合如機(jī)場(chǎng)、門(mén)禁、奧運(yùn)安檢等場(chǎng)合,具有廣闊的應(yīng)用前景。

參考文獻(xiàn)

[1]鄭方,艾斯卡爾·肉孜,王仁宇,等.生物特征識(shí)別技術(shù)綜述[J].信息安全研究,2016,2(1): 12-16.

[2] Haghighat M, Zonouz S, Abdel-Mottaleb M. CloudID: Trustworthy cloud-based and cross-enterprise biometric identification[J].Expert Systems with Applications,2015, 42(21):7905-7916.

[3] Perronnin F, Dugelay J L. an Introduction to biometrics and face recognition[C].IMAGE: ELearning Understanding Information Retrieval and Medical The First International Workshop, 2014.

[4]曹凱.基于特征描述子的人臉識(shí)別方法研究[D].西安:西安電子科技大學(xué),2014.

[5] Yan-Ning Zhang, Zhe Guo, Yong Xia. 2D representation of facial surfaces for multi-pose 3D face recognition[J].Pattern Recognition Letters, 2011,33 (5): 530-536.

[6]汪濟(jì)民, 陸建峰.基于卷積神經(jīng)網(wǎng)絡(luò)的人臉性別識(shí)別[J]. 現(xiàn)代電子技術(shù), 2015,38 (7):81-84.

[7] Ioannis A, Kakadiaris IA. A third dimension in face recognition[J].SPIE Newsroom,2012(1): 1-2.

[8]鄒國(guó)鋒,傅桂霞,李海濤,等.多姿態(tài)人臉識(shí)別綜述[J].模式識(shí)別與人工智能,2015,28(7):613-625.

[9]楊萬(wàn)振.人臉識(shí)別技術(shù)概述[J].計(jì)算機(jī)光盤(pán)軟件與應(yīng)用, 2012(5):49.

[10]賈海鵬,張?jiān)迫?,袁良,?基于OpenCL的Viola-Jones人臉檢測(cè)算法性能優(yōu)化研究[J].計(jì)算機(jī)學(xué)報(bào),2016,39(9): 1775-1789.

[11]王奕權(quán).圖像去霧與圖像增強(qiáng)算法研究[D].南京: 南京郵電大學(xué), 2015.

[12]王憲, 陸友桃,宋書(shū)林,等.基于Gabor小波變換與分塊PCA的人臉識(shí)別[J].計(jì)算機(jī)工程與應(yīng)用, 2012, 48(3):176-178.

[13]劉叢山,李祥寶,楊煜普.一種基于近鄰元分析的文本分類算法[J].計(jì)算機(jī)工程, 2012, 38(15):139-141.

[14]邸鵬,段利國(guó).一種新型樸素貝葉斯文本分類算法[J].數(shù)據(jù)采集與處理, 2014, 29(1):71-75.

[15]劉洋.基于CT影像的肺裂計(jì)算機(jī)輔助檢測(cè)方法研究[D]. 沈陽(yáng):沈陽(yáng)大學(xué), 2012.

[16] Abhishek Sharma, Murad Al Haj, Jonghyun Choi.?Robust pose invariant face recognition using coupled latent space discriminant analysis[J].Computer Vision and Image Understanding, 2012,116 (11): 1095-1110.

猜你喜歡
信息融合人臉識(shí)別
人臉識(shí)別 等
揭開(kāi)人臉識(shí)別的神秘面紗
基于(2D)2PCA-LBP 的人臉識(shí)別方法的研究
人臉識(shí)別在高校安全防范中的應(yīng)用
基于智能粒子濾波的多傳感器信息融合算法
大數(shù)據(jù)背景下的信號(hào)處理分析
多傳感器圖像融合技術(shù)
基于類獨(dú)立核稀疏表示的魯棒人臉識(shí)別
基于K-L變換和平均近鄰法的人臉識(shí)別
金堂县| 葫芦岛市| 民和| 巴楚县| 陇南市| 隆化县| 疏附县| 滕州市| 固安县| 茶陵县| 黄陵县| 昌江| 永康市| 通山县| 梧州市| 平安县| 伊金霍洛旗| 新龙县| 阿合奇县| 正镶白旗| 郓城县| 池州市| 乌兰浩特市| 青海省| 宣恩县| 泽州县| 吉木萨尔县| 封丘县| 麻栗坡县| 响水县| 宜兰县| 柘荣县| 新源县| 铜鼓县| 金川县| 城固县| 长春市| 宁阳县| 新泰市| 临朐县| 宜昌市|