国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)二次誤差測度及網(wǎng)格參數(shù)化的三維人臉本征屬性描述方法

2010-03-27 06:55張艷寧林增剛
電子與信息學(xué)報(bào) 2010年10期
關(guān)鍵詞:本征曲率人臉

郭 哲 張艷寧 林增剛

(陜西省語音圖像處理重點(diǎn)實(shí)驗(yàn)室西北工業(yè)大學(xué)計(jì)算機(jī)學(xué)院 西安 710129)

1 引言

近年來,隨著計(jì)算、存儲設(shè)備的飛速發(fā)展和3維數(shù)據(jù)采集技術(shù)的日益成熟,3維物體表面特征的有效描述,逐漸受到研究者的廣泛關(guān)注[1]。以人臉特征為例,相對于2維圖像而言,3維人臉數(shù)據(jù)包含了更多的空間形狀信息,能從本質(zhì)上克服2維人臉識別受光照、姿態(tài)變化的影響。但是,隨著數(shù)據(jù)采集設(shè)備精度的不斷提高,普通精度的人臉掃描數(shù)據(jù)也擁有幾萬到幾十萬個(gè)原始特征描述點(diǎn),巨大的數(shù)據(jù)計(jì)算量所引發(fā)的算法效率問題成為制約3維人臉識別在實(shí)際應(yīng)用中的主要瓶頸。因此,如何從高維數(shù)據(jù)中提取3維人臉的本征屬性,降低特征描述的復(fù)雜度成為3維人臉數(shù)據(jù)應(yīng)用的關(guān)鍵。

目前常用的3維人臉屬性描述方法有基于曲率的描述方法[2],局部幾何屬性描述方法[3],區(qū)域描述法[4]以及形狀變化模型[5,6]等。以上方法或采用局部屬性描述,不能保證全局屬性最優(yōu);或需要進(jìn)行大量的參數(shù)估計(jì),運(yùn)算復(fù)雜;同時(shí),以上方法都是在3維空間中對人臉表面特征進(jìn)行描述,因此相對復(fù)雜度要高于簡單的2維圖像。

為了降低人臉數(shù)據(jù)在3維空間中的描述復(fù)雜度,同時(shí)獲取與3維網(wǎng)格數(shù)據(jù)相應(yīng)且最小信息丟失的2維圖像描述,本文采用網(wǎng)格參數(shù)化方法對3維數(shù)據(jù)在2維平面上進(jìn)行映射投影。由于3維激光掃描儀獲取的人臉數(shù)據(jù)包含不規(guī)則三角網(wǎng)格,因此采用角度保持且能產(chǎn)生相對穩(wěn)定結(jié)果的保形同構(gòu)映射[7]來進(jìn)行網(wǎng)格的參數(shù)化。另外,由于3維人臉模型通常具有較高分辨率,可以對其進(jìn)行多分辨網(wǎng)格簡化;同時(shí)人臉表面特征分布具有不均勻性,在眼睛、鼻子,嘴巴等五官區(qū)域集中了人臉最為重要的個(gè)性特征,而臉頰,額頭等特征隱性區(qū)域則存在大量的冗余信息。因此,本文考慮對原始3維人臉網(wǎng)格模型進(jìn)行以保持五官區(qū)域特征為前提的模型簡化,用以提高計(jì)算效率。

基于以上分析,本文提出一種基于改進(jìn)二次誤差測度及網(wǎng)格參數(shù)化的3維人臉本征屬性描述方法。首先,對基于二次誤差測度(Quadric Error Metrics,QEM)[8]的模型簡化方法進(jìn)行分析,并對其進(jìn)行改進(jìn),使其能夠在保持人臉五官區(qū)域特性的前提下最大限度地簡化模型;其次,借鑒多分辨分析的思想,利用改進(jìn)的QEM方法得到原始人臉網(wǎng)格模型不同簡化率的多分辨簡化模型表示;然后,采用基于特征約束的保形同構(gòu)映射網(wǎng)格參數(shù)化方法對3維網(wǎng)格數(shù)據(jù)在2維平面進(jìn)行展開;最后,將3維人臉表面的本征屬性在2維圖像平面中進(jìn)行離散化表示。通過對國際公共3維人臉數(shù)據(jù)庫GavabDB[9]的特征可分性以及人臉識別實(shí)驗(yàn),證明了本文提出的特征屬性描述方法的有效性。

2 二次誤差測度改進(jìn)算法

2.1 二次誤差測度算法描述

文獻(xiàn)[8]提出基于QEM的邊收縮算法,在生成高質(zhì)量簡化模型的同時(shí),大大提高算法效率,成為改進(jìn)漸進(jìn)網(wǎng)格算法中最常用的一種誤差測度。QEM算法使用邊收縮操作生成的新頂點(diǎn)到相關(guān)三角平面距離的平方和作為誤差度量,能夠很好地保持模型的幾何形狀信息,因此理論上是一種非常完備的方法,能夠?qū)δP瓦M(jìn)行快速、高質(zhì)量的簡化。

但是,該算法存在以下缺陷,首先沒有考慮模型的細(xì)節(jié)特征,在簡化過程中會造成模型在保持較高整體幾何相似度的同時(shí),丟掉局部細(xì)節(jié)信息,如果直接將該方法用于人臉模型簡化,模型表面的大量細(xì)節(jié)特征會發(fā)生變形甚至丟失;其次,由于該算法采用邊收縮操作進(jìn)行模型圖元刪除,并沒有檢測邊折疊后三角形的形狀及其合法性,因此采用QEM算法對模型進(jìn)行簡化時(shí),多數(shù)情況下都會出現(xiàn)重疊三角形現(xiàn)象。這種重疊三角形的存在,產(chǎn)生了不合理的模型曲面形狀,對進(jìn)一步的模型簡化和后續(xù)模型處理帶來了巨大威脅。

2.2 改進(jìn)算法描述

為解決QEM算法存在重疊三角形及丟失局部細(xì)節(jié)信息的問題,必須在邊收縮操作之后對重疊三角形進(jìn)行消除,同時(shí)修正模型頂點(diǎn)的誤差度量方法,使其對人臉五官區(qū)域進(jìn)行最大特征保持?;谝陨纤枷?,作者提出一種QEM改進(jìn)算法,使用半邊折疊操作消除簡化中間模型中所存在的重疊三角形,同時(shí)建立基于曲率的自適應(yīng)加權(quán)誤差度量來保留模型的細(xì)節(jié)特征。改進(jìn)算法的具體描述如下:

算法1 消除重疊三角形問題

(1)搜索邊折疊后與vto相鄰三角面中所有的重疊三角形;

(2)若存在重疊三角形,進(jìn)入步驟3,否則退出;

(3)對于重疊三角形上的每一個(gè)頂點(diǎn),若其相鄰面全部都是重疊三角形,那么將其作為一個(gè)候選刪除點(diǎn);

(4)在所有的候選刪除點(diǎn)中,選擇鄰接面數(shù)最少的一個(gè)頂點(diǎn),作為當(dāng)前邊折疊的vfrom,選擇vfrom的任意一個(gè)相鄰頂點(diǎn)作為vto,collapse(vfrom,vto);

(5)返回步驟1。

其中,vfrom及vto分別表示半邊收縮操作中被刪除和被保留的頂點(diǎn);collapse(v1, v2)表示對v1、v2進(jìn)行半邊收縮操作。

算法2 特征保持的模型頂點(diǎn)誤差度量

(1)計(jì)算人臉模型頂點(diǎn)曲率的變化范圍,記作[cmin,cmax];

(2)令

則模型頂點(diǎn)曲率的存在區(qū)間可記為[?cmaxabs,cmaxabs];

(3)建立如下邊收縮代價(jià)加權(quán)函數(shù):

由此構(gòu)造特征保持的頂點(diǎn)誤差測度:

基于前述算法,改進(jìn)的QEM算法流程描述如下:

(1)對模型中的每個(gè)頂點(diǎn),根據(jù)算法2計(jì)算其收縮代價(jià)(ΔV)';

(2)若S=φ或簡化到指定結(jié)束條件,算法結(jié)束;

(3)取出頂點(diǎn)vmincost,collapse(vfrom,vto);

(4)如果邊折疊后vto的相鄰三角面存在重疊,執(zhí)行算法1;

(5)返回步驟(2)。其中vmincost表示當(dāng)前模型中半邊收縮代價(jià)最小的頂點(diǎn);S表示三角網(wǎng)格模型;φ表示沒有任何頂點(diǎn)和面片的空模型。

圖1給出了一個(gè)3維人臉模型簡化50%后的效果圖??梢钥闯鯭EM算法的簡化結(jié)果頂點(diǎn)分布比較均勻,沒有突出保留特征區(qū)域,而改進(jìn)算法的簡化結(jié)果在人臉眼睛、眉毛、嘴巴、鼻子等五官特征區(qū)域的頂點(diǎn)比較密集,保留了原始模型的大量特征,而額頭、腮部等特征不明顯區(qū)域的頂點(diǎn)則得到更為充分的簡化。由圖1(c),1(d)嘴部區(qū)域的比較可以看出,改進(jìn)算法的簡化結(jié)果在細(xì)節(jié)特征保持方面比QEM算法更加有效,細(xì)節(jié)更為豐富,具有更好的平滑性。

圖1 3維人臉模型簡化50%效果圖

3 多分辨人臉本征屬性描述圖

3.1 特征約束的網(wǎng)格參數(shù)化

為了利用保形同構(gòu)映射進(jìn)行網(wǎng)格簡化,需要建立3維人臉模型間的內(nèi)在特征約束關(guān)系。首先選擇人臉模型中曲率超過給定閾值[10]的點(diǎn)作為待選點(diǎn),再通過比較這些待選點(diǎn)所對應(yīng)的旋轉(zhuǎn)圖像(spinimage)[11]來檢測特征相應(yīng)性。由文獻(xiàn)[1]可知采用spin-image特征進(jìn)行匹配的結(jié)果對參數(shù)選擇不敏感,因此文中通過經(jīng)驗(yàn)確定的特征約束點(diǎn)為5,6個(gè)。

根據(jù)保形幾何理論,一個(gè)圓周拓?fù)涞?維表面能夠通過全局優(yōu)化同構(gòu)映射到一個(gè)2維區(qū)域中[12],這種映射可以是一對一,onto以及保形的。通過保形映射,3維人臉表面的每一個(gè)頂點(diǎn)都在2維平面上有唯一的一個(gè)對應(yīng)點(diǎn)。本文通過Harmonic能量最小來完成保形映射[13],并采用基準(zhǔn)模型和特征約束點(diǎn)對人臉模型進(jìn)行配準(zhǔn),最終得到有約束的保形平面展開。

不失一般性,本文考慮1環(huán)鄰域(1-ring)情況[7]。假設(shè)S'為由3維空間中的1-ring鄰域構(gòu)成的簡單網(wǎng)格,D'為S'的2維保形結(jié)構(gòu),如圖2所示。如果映射邊界固定,2維1-ring形變僅與中心節(jié)點(diǎn)ni相關(guān)。Dirichlet能量有著良好的角度保持特性,其能量函數(shù)為

其中|ni?nj|表示D'中邊(i, j)的邊長,N(i)為節(jié)點(diǎn)i的1-ring鄰接點(diǎn),αij如圖2所示夾角。令?E/?ni=0,則有如下公式:

對于整個(gè)人臉表面,由式(5)可以推導(dǎo)出:

其中D為平面域的2維坐標(biāo)向量,B為一個(gè)稀疏矩陣,可以表示為

圖2 3維1-ring展開

此時(shí),只要給定映射邊界和相應(yīng)的特征約束點(diǎn),就能夠得到對應(yīng)的2維平面展開:

為了簡便計(jì)算,D被分解為自由點(diǎn)集Dfree和指定點(diǎn)集Dspec兩部分,該稀疏線性系統(tǒng)能夠通過廣義極小殘差算法有效求解。圖3給出了一組3維人臉模型的多分辨2維保形同構(gòu)映射結(jié)果,文中,多分辨描述指原始精度3維人臉網(wǎng)格模型的不同簡化率結(jié)果。

3.2 多分辨人臉本征屬性描述圖

對于3維人臉表面數(shù)據(jù),首先借鑒多分辨分析的思想,采用本文2.2小節(jié)提出的改進(jìn)二次誤差測度算法對原始三角網(wǎng)格進(jìn)行不同簡化比率的網(wǎng)格簡化操作,文中分別進(jìn)行20%,50%,70%簡化率的網(wǎng)格簡化,得到原始網(wǎng)格數(shù)據(jù)相應(yīng)80%,50%以及30%精度的多分辨描述;其次,分別對得到的多分辨描述數(shù)據(jù),利用保形同構(gòu)映射將3維空間表面數(shù)據(jù)映射到有約束的保形2維圖像平面,如圖3所示。

通過上述步驟,我們已經(jīng)得到3維人臉表面的多分辨2維同構(gòu)保形映射平面。此時(shí),3維表面的多種不同本征屬性,如:法線、曲率以及紋理等,都可以在2維圖像平面中進(jìn)行離散化表示,這個(gè)重采樣過程可以通過對網(wǎng)格頂點(diǎn)像素屬性值的插值來實(shí)現(xiàn)。本文選擇離散均值曲率作為描述3維人臉表面的本征屬性,并采用雙線性插值方法來獲取與3維人臉表面相應(yīng)的2維本征屬性圖。圖4給出了3維人臉表面的一組多分辨2維本征屬性圖描述。由圖4(b)-4(e)可以看出,不同分辨率屬性圖都能有效描述曲率變化較大的面部五官區(qū)域,由于本文采用離散均值曲率作為屬性值,曲率的估計(jì)會受到網(wǎng)格精度的影響,因此低精度屬性圖在非五官區(qū)域相對高精度屬性圖存在較多的噪聲描述。

圖3 基于保形同構(gòu)映射的3維曲面展開結(jié)果(第1列為原始3維人臉模型,第2列至第5列分別為原精度,80%精度,50%精度,30%精度平面展開結(jié)果)

圖4 3維人臉表面數(shù)據(jù)的多分辨2維本征屬性圖

4 基于本征屬性的3維人臉模型匹配度量

在獲得兩個(gè)3維表面的2維屬性圖像后,3維表面的匹配問題就可以簡化為2維平面的匹配,對于2維平面中的映射,本文采用將目標(biāo)表面向參考表面的匹配通過匹配相應(yīng)的離散平面屬性圖來實(shí)現(xiàn)。

給定兩個(gè)有著圓周拓?fù)涞谋砻鍿1和S2,首先通過spin-image來獲取曲率變化較大頂點(diǎn)間的相應(yīng)性,然后通過引入內(nèi)部相應(yīng)性作為約束,兩表面相應(yīng)的2維平面屬性圖能夠通過第3小節(jié)的描述來獲取。此時(shí),兩表面間的歸一化相應(yīng)性系數(shù)MS1,S2以及相似性度量S(S1, S2)[14]可以通過對相應(yīng)2維平面屬性圖的計(jì)算獲得:

其中N為3維表面S1和S22維屬性圖中重疊部分頂點(diǎn)的個(gè)數(shù),表示表面Sk2維屬性圖中頂點(diǎn)i的屬性值,文中為離散均值曲率,k=1,2。由以上兩式可知,兩表面2維屬性圖相似度越高,MS1,S2越接近1,相應(yīng)的S(S1, S2)值越大;反之,MS1,S2與S(S1, S2)均趨于0。

由于本文提出的人臉本征屬性描述方法具有多分辨特性,因此對于每一種分辨率的屬性圖,就能夠通過式(9),式(10)獲得一組度量值。由此,通過粗精結(jié)合的策略可以將本文提出的人臉本征屬性描述方法有效地用于人臉配準(zhǔn)以及識別。具體來講,對于人臉配準(zhǔn)應(yīng)用,可以首先通過比較低精度屬性描述圖來獲取較為準(zhǔn)確的迭代初始參數(shù),然后提高屬性圖的分辨率對參數(shù)進(jìn)行逐級調(diào)整,最終達(dá)到理想的配準(zhǔn)要求;同理,對于人臉識別應(yīng)用,可以通過比較低精度屬性圖來排除大量干擾個(gè)體,有效縮小候選范圍,提高精識別效率。

5 實(shí)驗(yàn)結(jié)果與分析

5.1 實(shí)驗(yàn)數(shù)據(jù)

本文采用國際公共3維人臉數(shù)據(jù)庫GavabDB[9]進(jìn)行測試實(shí)驗(yàn)。該數(shù)據(jù)庫包含61個(gè)不同個(gè)體(45位男性,16位女性)的549個(gè)3維人臉掃描數(shù)據(jù),僅有表面形狀數(shù)據(jù),不包括相應(yīng)的紋理,每個(gè)個(gè)體包含9 幅不同姿態(tài)和表情的3維人臉數(shù)據(jù),分別為:2幅正面中性表情,4幅中性表情但存在姿態(tài)變化的數(shù)據(jù)(左偏,右偏,向上,向下)以及另外3幅正面姿態(tài)具有表情變化的數(shù)據(jù)(微笑,大笑,任意表情),所有被采集者均為白種人,年齡在18~40歲之間。對數(shù)據(jù)進(jìn)行去除噪聲,缺失區(qū)域補(bǔ)洞以及配準(zhǔn)等預(yù)處理操作,獲取實(shí)驗(yàn)所用人臉模型數(shù)據(jù)。實(shí)驗(yàn)主要測試本文提出的3維人臉本征屬性描述方法的有效性,由于該方法不考慮表情變化屬性,因此僅采用數(shù)據(jù)庫中正面及姿態(tài)變化的中性表情數(shù)據(jù),即61人的366個(gè)不同3維人臉數(shù)據(jù)。

5.2 實(shí)驗(yàn)結(jié)果與分析

本小節(jié)主要對本文提出的3維人臉本征屬性描述方法的有效性進(jìn)行測試,采用第4小節(jié)給出的歸一化相應(yīng)性系數(shù)以及相似性度量作為評估標(biāo)準(zhǔn)。由于實(shí)驗(yàn)數(shù)據(jù)中存在姿態(tài)變化造成數(shù)據(jù)缺失的情況,因此將實(shí)驗(yàn)數(shù)據(jù)分為正面無缺失數(shù)據(jù)子集(Frontal Neutral,F(xiàn)N)和多姿態(tài)缺失數(shù)據(jù)子集(Multi-pose Occlusion,MO),分別采用兩個(gè)不同子集對本文提出的方法進(jìn)行魯棒性測試。

5.2.1 相似度比較 本小節(jié)主要測試本文提出方法的有效性以及對數(shù)據(jù)缺失的魯棒性,對于FN子集,分別計(jì)算同一個(gè)體兩正面數(shù)據(jù)不同精度下2維屬性圖間的歸一化相應(yīng)性系數(shù);對于MO子集,由于存在數(shù)據(jù)缺失,實(shí)驗(yàn)通過比較正面完整數(shù)據(jù)與多姿態(tài)缺失數(shù)據(jù)間的多分辨屬性圖歸一化相應(yīng)性系數(shù)來實(shí)現(xiàn),平均匹配結(jié)果如圖5所示,為了體現(xiàn)改進(jìn)QEM算法的有效性,與原始QEM算法產(chǎn)生的屬性圖性能進(jìn)行比較。由于保形同構(gòu)映射對數(shù)據(jù)缺失造成的三角網(wǎng)格邊界變化影響不大,同時(shí),通過spin-image能夠動態(tài)獲取曲率變化較大頂點(diǎn)間的相應(yīng)性以及兩模型間的重疊頂點(diǎn),因此FN子集與MO子集的平均匹配結(jié)果差別不大。改進(jìn)的QEM算法能有效保留原始模型的重要五官區(qū)域特征,并對其他區(qū)域進(jìn)行更充分的簡化,因此基于改進(jìn)QEM算法的本征特征描述平均匹配系數(shù)要高于基于原始QEM算法特征描述的結(jié)果。

圖5 2維本征屬性圖相似度比較

由圖5可知,本文提出的基于改進(jìn)二次誤差測度及保形同構(gòu)映射的屬性描述方法能夠有效描述3維人臉的本征屬性,同時(shí)保持人臉重要的五官特征區(qū)域,并對精度變化不敏感,由于本文采用離散均值曲率作為網(wǎng)格頂點(diǎn)的屬性值,離散曲率估計(jì)會受到網(wǎng)格精度的影響,因此低精度屬性圖的匹配結(jié)果要比高精度匹配結(jié)果遜色,但簡化率 <30% 情況下的屬性圖之間結(jié)果差別不大。

5.2.2 識別率比較 本小節(jié)主要測試本文提出方法在人臉識別中的有效性,采用簡化率20%的本征屬性圖,并與基準(zhǔn)方法PCA以及基于曲率特征的方法進(jìn)行比較。同樣分別對FN和MO子集進(jìn)行識別實(shí)驗(yàn),對于FN子集,令其中一個(gè)正面中性表情人臉為訓(xùn)練樣本,另外一個(gè)為測試樣本;對于MO子集,仍然以一個(gè)正面中性表情人臉數(shù)據(jù)為訓(xùn)練樣本,其他姿態(tài)變化數(shù)據(jù)為測試樣本。使用最近鄰分類及第4小節(jié)中的相似性度量測度來評估不同特征的可分性,實(shí)驗(yàn)結(jié)果如表1所示。

表1 rank-one識別率比較

由實(shí)驗(yàn)結(jié)果可知,本文提出的3維人臉本征屬性方法具有良好的可分性,在FN數(shù)據(jù)集下的rankone識別率略高于基準(zhǔn)方法PCA以及傳統(tǒng)的基于曲率的方法。對于存在數(shù)據(jù)缺失的MO子集,由于PCA和曲率方法都是對原始3維空間點(diǎn)的幾何特征進(jìn)行描述,因此對數(shù)據(jù)缺失影響較大,識別率較低,僅為61.9%和75.2%;而本文方法采用對數(shù)據(jù)缺失造成的三角網(wǎng)格邊界變化影響不大的保形同構(gòu)映射來獲取3維人臉本征屬性的2維描述圖;同時(shí),通過spin-image所獲取的特征相應(yīng)性關(guān)系能根據(jù)模型表面形狀變化進(jìn)行動態(tài)調(diào)整,因此本文方法對數(shù)據(jù)缺失不敏感,對MO子集的rank-one識別率接近90%,遠(yuǎn)遠(yuǎn)高于PCA及曲率方法。

5.2.3 算法復(fù)雜度比較 3維人臉識別可有效提高人臉識別算法的魯棒性,但是,巨大的數(shù)據(jù)計(jì)算量使得算法復(fù)雜度會顯著增加,而在一些實(shí)時(shí)應(yīng)用中,對算法的復(fù)雜度會提出較高要求。本文提出的方法通過多分辨網(wǎng)格簡化及參數(shù)化技術(shù)將復(fù)雜的3維人臉識別問題簡化為2維圖像識別問題。為了分析本文算法的復(fù)雜度及高效性,分別計(jì)算本文方法100%精度、80%精度、50%精度下的本征屬性圖單次識別的時(shí)間,并與原始3維人臉模型曲率方法進(jìn)行單次識別的耗時(shí)進(jìn)行比較,實(shí)驗(yàn)結(jié)果如表2所示。

表2 不同算法效率比較

由實(shí)驗(yàn)結(jié)果可知,本文提出的多分辨3維人臉本征屬性方法在算法復(fù)雜度方面相對于傳統(tǒng)的基于3維數(shù)據(jù)的人臉識別有著較為明顯的優(yōu)勢。100%精度2維本征屬性圖單次識別所需時(shí)間為0.715 s,相比原始3維人臉模型曲率方法的0.951 s,已有明顯的提高。而80%精度和50%精度2維本征屬性圖在時(shí)間復(fù)雜度方面優(yōu)勢則更加明顯,單次識別僅需0.504 s和0.297 s。因此本文方法在算法復(fù)雜度和時(shí)間效率方面有著較明顯的優(yōu)勢。

6 結(jié)束語

本文基于模型簡化及網(wǎng)格參數(shù)化思想,提出一種3維人臉數(shù)據(jù)在2維空間的本征屬性描述方法。在該方法中,改進(jìn)的基于二次誤差測度的網(wǎng)格簡化方法能有效保持人臉五官區(qū)域特征,并對其他區(qū)域進(jìn)行最大限度的簡化,降低數(shù)據(jù)冗余;保形同構(gòu)映射方法能夠?qū)?維網(wǎng)格數(shù)據(jù)在2維平面進(jìn)行保形展開。因此,本文方法得到的2維本征屬性圖在保持3維人臉表面屬性的前提下,大大提高了計(jì)算效率。對GavabDB數(shù)據(jù)庫的實(shí)驗(yàn)結(jié)果表明,本文方法對數(shù)據(jù)缺失魯棒性較強(qiáng),不同精度屬性圖的特征保持性差別不大;與PCA以及基于曲率方法的識別結(jié)果相比,本文方法對無缺失以及缺失數(shù)據(jù)集的rank-one識別率均明顯高于基線算法。由于本文提出的方法具有多分辨屬性,因此可以有效用于粗精結(jié)合的人臉配準(zhǔn)及識別。同時(shí),保形同構(gòu)映射允許結(jié)合形狀及紋理信息,本文方法可擴(kuò)展應(yīng)用于帶紋理數(shù)據(jù)的3維人臉識別。

[1] Huber D, Kapuria A, and Donamukkala R, et al.. Parts based 3d object classification[C]. IEEE Computer Society Conference on Computer Vision and Pattern Recognition,Washington, D.C., USA, June 27-July 2, 2004: 82-89.

[2] Lee Y and Marshall D. Curvature based normalized 3D component facial image recognition using fuzzy integral [J].Applied Mathematics and Computation, 2008, 205(2):815-823.

[3] AlOsaimi F R, Bennamoun M, and Mian A. Integration of local and global geometrical cues for 3D face recognition [J].Pattern Recognition, 2008, 41(3): 1030-1040.

[4] Berretti S, Alberto D B, and Pietro P. Analysis and retrieval of 3D facial models using iso- geodesic stripes[C].International workshop on Content-based multimedia indexing, London, June 18-20, 2008: 257-264.

[5] Sung Jaewon and Kim Daijin. Pose robust facial expression recognition using view-based 2D+3D AAM [J]. IEEE Transactions on Systems, Man, and Cybernetics-Part A:Systems and Humans, 2008, 38(4): 852-866.

[6] Mayer C, Wimmer M, and Eggers M, et al.. Facial expression recognition with 3D deformable models[C]. 2nd International conferences on advances in computer human interactions,Cancun, Feb. 1-7, 2009: 26-31.

[7] Pan Gang, Han Song, and Wu Zhaohui. Hallucinating 3D facial shapes[C]. IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Anchorage, AK,June 23-28, 2008: 1-8.

[8] Garland M and Heckbert S. Surface simplification using quadric error metrics[C]. SIGGRAPH 97, Computer Graphics Proceedings, Annual Conference Series. Los Angeles, 1997: 209-216.

[9] Moreno A B and Sanchez A. GavabDB: A 3D face database[C]. 2nd COST Workshop on Biometrics, on the Internet, Vigo (Spain), March 2004: 75-80.

[10] Wang Sen, Wang Yang, and Jin Miao, et al.. Conformal geometry and its applications on 3D shape matching,recognition and stitching [J]. IEEE Transactions on Pattern Analysis Machine Intelligence, 2007, 29(7): 1209-1220.

[11] Johnson A and Hebert M. Using spin images for efficient object recognition in cluttered 3d scenes [J]. IEEE Transactions on Pattern Analysis Machine Intelligence, 1999,21(5): 433-449.

[12] Sheffer A, Praun E, and Rose K. Mesh parameterization methods and their applications [J]. Foundations and Trends in Computer Graphics and Vision, 2006, 2(2): 321-329.

[13] Desbrun M, Meyer M, and Alliez P. Intrinsic parameterization of surface meshes [C]. EUROGRAPHICS’02, Saarbrucken(Germany), Sep. 2-6, 2002: 210-218.

[14] Johnson A. Spin-images: A representation for 3D surface matching [D]. [Ph.D. dissertation], Robotics Institute, CMU,1997.

猜你喜歡
本征曲率人臉
大曲率沉管安裝關(guān)鍵技術(shù)研究
一類雙曲平均曲率流的對稱與整體解
基于本征正交分解的水平軸風(fēng)力機(jī)非定常尾跡特性分析
有特點(diǎn)的人臉
一起學(xué)畫人臉
KP和mKP可積系列的平方本征對稱和Miura變換
半正迷向曲率的四維Shrinking Gradient Ricci Solitons
三國漫——人臉解鎖
本征平方函數(shù)在變指數(shù)Herz及Herz-Hardy空間上的有界性
長得象人臉的十種動物
循化| 铜山县| 弥勒县| 楚雄市| 海安县| 穆棱市| 尼勒克县| 开江县| 卓资县| 孝感市| 锦屏县| 二连浩特市| 夹江县| 红河县| 天祝| 白山市| 盐城市| 杨浦区| 乐陵市| 宾阳县| 巧家县| 敦煌市| 大田县| 克东县| 屏边| 武定县| 高陵县| 博爱县| 巴里| 邵东县| 常山县| 河池市| 沽源县| 扶风县| 遂昌县| 南丹县| 东丽区| 南通市| 吉安县| 庆元县| 高清|