国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于視頻的人臉和步態(tài)自適應(yīng)融合身份識(shí)別

2015-06-22 14:40:00孔英會(huì)陳佩瑤
電視技術(shù) 2015年5期
關(guān)鍵詞:決策層步態(tài)人臉

孔英會(huì),陳佩瑤

(華北電力大學(xué) 電子與通信工程系,河北 保定 071003 )

基于視頻的人臉和步態(tài)自適應(yīng)融合身份識(shí)別

孔英會(huì),陳佩瑤

(華北電力大學(xué) 電子與通信工程系,河北 保定 071003 )

多生物特征融合的主要目的是利用其互補(bǔ)性來(lái)提高系統(tǒng)的識(shí)別性能。主要針對(duì)行走視頻中人臉和步態(tài)兩個(gè)生物特征融合的識(shí)別方法進(jìn)行研究,對(duì)多個(gè)角度視頻下的人臉和步態(tài)提出了基于決策層的自適應(yīng)加權(quán)融合方法,實(shí)驗(yàn)結(jié)果證明該方法的融合識(shí)別結(jié)果比單一生物識(shí)別方法以及最大法則、加權(quán)法則等融合算法具有更高的識(shí)別率。

視頻;人臉;步態(tài);自適應(yīng);融合

生物特征識(shí)別技術(shù)由于其可靠性高、安全性好、魯棒性強(qiáng)等優(yōu)勢(shì)日益受到關(guān)注。典型的生物特征包括指紋、手掌紋理、人臉、虹膜、人耳、聲音等[1]。目前的生物特征識(shí)別系統(tǒng)大多是基于單一生物特征的,然而在不同環(huán)境下單一的生物特征由于其局限性并不總能得到令人滿意的識(shí)別率。因此多生物特征融合系統(tǒng)應(yīng)運(yùn)而生,利用了生物特征之間在某些條件下的互補(bǔ)性來(lái)提高系統(tǒng)的識(shí)別性能。

隨著監(jiān)控視頻技術(shù)的發(fā)展,基于監(jiān)控視頻的身份識(shí)別受到廣泛關(guān)注,而監(jiān)控視頻下可以獲得的生物特征有人臉、步態(tài)、虹膜、膚色等,其中,由于人臉和步態(tài)都具有易獲得性和普遍性,并且在許多方面都具有互補(bǔ)性,所以融合人臉和步態(tài)的多生物特征識(shí)別技術(shù)有著很大的發(fā)展和研究潛力。信息融合識(shí)別方法中融合策略的選取對(duì)識(shí)別結(jié)果有明顯影響,目前關(guān)于融合人臉和步態(tài)所取得的研究成果有:Bir Bhanu等人[2]分別使用PCA和MDA從增強(qiáng)的側(cè)面人臉圖像(EFSI)和步態(tài)能量圖(GEI)中提取特征,然后在匹配分?jǐn)?shù)層上使用加法法則、乘法法則、最大法則等幾種融合策略將二者融合。李軼等人[3]采用基于傅里葉描繪子和關(guān)鍵點(diǎn)特征的方法提取步態(tài)特征,采用傅里葉變換和奇異值分解提取步態(tài)圖像中的側(cè)面人臉特征取,繼而在決策層上利用最大法則、加法法則和乘法法則對(duì)人臉和步態(tài)特征進(jìn)行融合。這些研究都使識(shí)別效果有了提升,但相對(duì)存在局限,因?yàn)槿诤喜呗曰静捎渺o態(tài)融合,未考慮數(shù)據(jù)變化產(chǎn)生的影響,而自適應(yīng)融合通過(guò)對(duì)實(shí)際數(shù)據(jù)進(jìn)行分析確定合理的權(quán)值分配策略,可進(jìn)一步提高識(shí)別性能。耿鑫等人[4]提出了一種可以根據(jù)實(shí)時(shí)外界條件而動(dòng)態(tài)調(diào)整的自適應(yīng)人臉和步態(tài)融合方法,在融合過(guò)程中考慮到了可能會(huì)影響到人臉和步態(tài)關(guān)系的兩個(gè)因素,即人體到攝像頭的距離和成像角度,取得了好的結(jié)果;張立峰等人[5]提出基于方差估計(jì)的多傳感器自適應(yīng)加權(quán)融合算法,可得到壓力傳感器數(shù)據(jù)中方差最小的數(shù)據(jù)融合值,提高了測(cè)量數(shù)據(jù)的準(zhǔn)確性。這些為本文的研究提供了有益的參考。

目前多數(shù)研究采用的人臉與步態(tài)融合方法并未考慮根據(jù)環(huán)境條件進(jìn)行實(shí)時(shí)調(diào)整和改變?nèi)诤蠙?quán)值,如最大法則、乘法法則、固定權(quán)值的加法法則等。本文通過(guò)在決策層上將每個(gè)生物特征的距離匹配值進(jìn)行自適應(yīng)分配權(quán)值以獲得最優(yōu)的聯(lián)合匹配分?jǐn)?shù),達(dá)到最好的信息融合結(jié)果,由于該融合權(quán)值會(huì)隨著不同的測(cè)試對(duì)象和角度發(fā)生變化,因此有一定的實(shí)時(shí)性和適應(yīng)性。

1 總體思路和結(jié)構(gòu)框架

本文研究?jī)?nèi)容和主要工作可分為以下4個(gè)部分:1)步態(tài)輪廓圖像的提取和步態(tài)能量圖的建立;2)基于Haar特征的人臉檢測(cè);3)人臉和步態(tài)數(shù)據(jù)庫(kù)的建立;4)使用非負(fù)矩陣分解NMF提取步態(tài)和人臉的特征,經(jīng)匹配后在決策層進(jìn)行自適應(yīng)融合得到識(shí)別結(jié)果。流程圖如圖1所示。

圖1 融合步態(tài)和人臉身份識(shí)別流程圖

2 從視頻幀中獲取標(biāo)準(zhǔn)歸一化步態(tài)和人臉圖像

2.1 步態(tài)圖像歸一化和步態(tài)能量圖的建立

在視頻監(jiān)控中步態(tài)是用于遠(yuǎn)距離身份識(shí)別的一個(gè)重要生物特征。獲得一個(gè)視頻中人體的運(yùn)動(dòng)信息和步態(tài)特征,要先從拍攝行走視頻序列中提取出標(biāo)準(zhǔn)的二值化步態(tài)輪廓圖像。步驟為: 1)使用基于高斯模型的背景差法分割出二值步態(tài)圖像; 2)使用膨脹、腐蝕等形態(tài)學(xué)運(yùn)算去掉二值圖像中的噪聲和空洞,完成圖像預(yù)處理; 3)通過(guò)將上半身剪影的質(zhì)心設(shè)為中心實(shí)現(xiàn)圖像的水平對(duì)齊,按比例調(diào)整每個(gè)輪廓圖像保證所有的剪影都有著相同的高度,得到統(tǒng)一尺寸的標(biāo)準(zhǔn)歸一化二值步態(tài)輪廓圖像,如圖2所示。

常規(guī)的人體行走可以視為周期性的動(dòng)作,人體按照一個(gè)穩(wěn)定的頻率進(jìn)行重復(fù)的動(dòng)作。因此,將整個(gè)步態(tài)序列劃分成多個(gè)周期是可行的。在一個(gè)歸一化的二值側(cè)影序列中,每一幀側(cè)影的下半身的時(shí)間序列信號(hào)指示出了步態(tài)的頻率和相位信息。假設(shè)二值化步態(tài)輪廓圖Bi(x,y,t)是在一個(gè)視頻序列的所有視頻幀中的第i個(gè)步態(tài)周期的時(shí)刻t所提取的,則灰度級(jí)的步態(tài)能量圖(GEI)[6]被定義為

(1)

圖2 從視頻序列中獲取標(biāo)準(zhǔn)歸一化二值步態(tài)圖像

式中:N是在一個(gè)步態(tài)周期內(nèi)的視頻幀數(shù)量;t是視頻序列的幀號(hào)數(shù);x和y則是歸一化的二值圖像B的坐標(biāo)值。圖3顯示了在一個(gè)步態(tài)周期內(nèi)0°、54°和90°的人體樣本側(cè)影圖像,最右是相應(yīng)的步態(tài)能量圖。它反映了側(cè)影的主要形狀和在步態(tài)周期上人體運(yùn)動(dòng)信息的變化,可作為步態(tài)識(shí)別的重要依據(jù)。

圖3 歸一化步態(tài)輪廓圖像及相應(yīng)步態(tài)能量圖

2.2 AdaBoost人臉檢測(cè)

目標(biāo)檢測(cè)方法最初由Paul Viola提出,并由Rainer Lienhart對(duì)這一方法進(jìn)行了改善。首先,利用上百幅樣本圖片的Haar特征進(jìn)行分類器訓(xùn)練,得到一個(gè)級(jí)聯(lián)的boosted分類器。訓(xùn)練樣本分為正例樣本和反例樣本,其中正例樣本是指待檢測(cè)目標(biāo)樣本,反例樣本指其他任意圖片,所有的樣本圖片都被歸一化為同樣的尺寸大小。分類器訓(xùn)練完以后,就可以應(yīng)用于輸入圖像中的感興趣區(qū)域的檢測(cè)。

對(duì)于每個(gè)類Haar特征,都可以生成一個(gè)分類器,其形式為

(2)

式中:x代表樣本;hi(x)為第i個(gè)類Haar特征hi在樣本上的取值;pi是分類方向符號(hào);fi為由特征hi構(gòu)成的分類器;θi為分類器fi的閾值。Adaboost算法的目的就是在分類器集合中尋找分類錯(cuò)誤最小的弱分類器,即尋找參數(shù)hi,pi,θi,在反復(fù)進(jìn)行多次迭代訓(xùn)練后,使分類錯(cuò)誤趨近于零,最后將這些弱分類器組合成強(qiáng)分類器。檢測(cè)到目標(biāo)區(qū)域分類器輸出為1,否則輸出為0。為了在整幅圖像中檢測(cè)未知大小的目標(biāo)物體,掃描程序通常需要移動(dòng)調(diào)整不同比例大小的搜索窗口對(duì)圖片進(jìn)行幾次掃描。在圖像檢測(cè)中,被檢窗口依次通過(guò)每一級(jí)分類器,全部通過(guò)每一級(jí)分類器檢測(cè)的區(qū)域即為目標(biāo)區(qū)域?;A(chǔ)分類器是至少有兩個(gè)葉結(jié)點(diǎn)的決策樹分類器。Haar特征是基礎(chǔ)分類器的輸入,該特征可以用來(lái)描述人臉、眼睛、嘴唇、鼻子、人體、車輛等目標(biāo)物體。擴(kuò)展的Haar特征[7]有4種,如圖4所示。

圖4 擴(kuò)展的Haar特征

2.3 利用Haar分類器從視頻幀中獲得標(biāo)準(zhǔn)化人臉圖像

要從行走視頻中獲得標(biāo)準(zhǔn)化的人臉圖像作為數(shù)據(jù)庫(kù),主要可分為3個(gè)步驟:1)利用訓(xùn)練好的行人全身檢測(cè)Haar級(jí)聯(lián)分類器對(duì)視頻幀進(jìn)行檢測(cè)得到行人全身;2)利用訓(xùn)練好的人臉檢測(cè)Haar級(jí)聯(lián)分類器從步驟1)中所得的行人全身圖像中獲得正面或者側(cè)面人臉;3)對(duì)步驟2)獲得的各種尺寸的低分辨率人臉圖像通過(guò)雙三次插值法得到統(tǒng)一尺寸的較高分辨率的人臉圖像,如圖5所示。

圖5 從視頻序列中獲取歸一化多角度人臉圖像

3 基于NMF的特征提取和決策層人臉與步態(tài)自適應(yīng)融合識(shí)別

3.1 基于NMF的人臉和步態(tài)特征提取

NMF是一種新的特征提取方法,它的思想是對(duì)基矩陣引入非負(fù)約束,把一個(gè)大的非負(fù)矩陣V分解成兩個(gè)非負(fù)矩陣矩陣W和H的乘積[8],即V=WH,從而提取到有意義的局部成分,克服其他子空間分解方法所出現(xiàn)的系數(shù)之間的正負(fù)相互抵消而使得特征削弱的現(xiàn)象,更好地反映局部特征,提高識(shí)別的準(zhǔn)確率。

基于NMF的人臉和步態(tài)特征提取是:首先讀入人臉和步態(tài)的訓(xùn)練圖像數(shù)據(jù)庫(kù),得到訓(xùn)練圖像矩陣V=[V1,V2,…,Vn],n為訓(xùn)練庫(kù)中圖像數(shù)量,列向量Vi代表一張訓(xùn)練圖像。通過(guò)NMF變換公式V=WH得到

(3)

式中:W=[W1,W2,…,Wn]為基矩陣:H=[H1,H2,…,Hn]為系數(shù)矩陣,W的每一列Wi為一幅基圖像,Hi為第i張訓(xùn)練圖像Vi在基圖像矩陣W=[W1,W2,…,Wn]上的投影后的系數(shù),訓(xùn)練庫(kù)中每張訓(xùn)練圖像近似為基圖像的線性組合,使用Hi代表Vi從而達(dá)到了降維和特征提取的目的,Wi則是基于NMF的基圖像。

3.2 人臉和步態(tài)的決策層自適應(yīng)融合方法

多特征融合技術(shù)的一個(gè)核心問(wèn)題就是融合策略問(wèn)題,即選擇在哪個(gè)層次級(jí)別上融合的問(wèn)題。根據(jù)生物特征識(shí)別的基本方法,目前多特征融合在四個(gè)層次[9]上進(jìn)行,即數(shù)據(jù)層、特征層、匹配層和決策層。也有人將在較高層次融合的匹配層和決策層統(tǒng)稱為決策層融合。

決策層融合的主要思想是分別對(duì)采集層、特征層和匹配層的處理進(jìn)行評(píng)估,然后利用數(shù)據(jù)融合的方法將評(píng)估結(jié)果在匹配層進(jìn)行表達(dá),使得各層的有效性和可靠性在最后的匹配計(jì)算中得到體現(xiàn),獲得更加客觀的識(shí)別結(jié)果。對(duì)于多生物特征的識(shí)別來(lái)說(shuō),匹配輸出的結(jié)果往往是一個(gè)多維的向量,向量中的每一個(gè)成員都表示一個(gè)不同來(lái)源的匹配結(jié)果,決策層融合算法的研究目的就是在這樣的一個(gè)向量空間做類內(nèi)和類間的劃分。本文采用的是在決策層上對(duì)兩組匹配值進(jìn)行自適應(yīng)融合以達(dá)到最優(yōu)識(shí)別效率。

對(duì)人臉和步態(tài)進(jìn)行NMF特征提取之后,需要分別獲得其歐氏距離匹配數(shù)組:將待測(cè)人臉或者步態(tài)圖像的一維特征列向量c對(duì)基圖像所形成的坐標(biāo)系上進(jìn)行投影S=c·W,得到投影矩陣,求出待測(cè)圖像與所有n幅訓(xùn)練圖像的歐氏距離,從而得到人臉或者步態(tài)的歐式距離匹配數(shù)組F={F1,F2,…,FN}以及G={G1,G2,…,GN}。分別得到人臉和步態(tài)距離匹配值數(shù)組之后,需要先將所得的歐氏距離數(shù)組進(jìn)行歸一化。本文使用線性歸一化方法[10]

(4)

式中:soriginal定義為輸出的原始匹配值;snorm為歸一化之后的匹配值。由此得到歸一化的匹配值數(shù)組Sf={Sf1,Sf2,…,SfN}和Sg={Sg1,Sg2,…,SgN},歸一化前后的匹配值分布如圖6所示,這種歸一化方法可以將原始匹配數(shù)組映射到[0,1]區(qū)間中去,且不會(huì)改變數(shù)據(jù)的分布形式。

圖6 不改變?cè)瓉?lái)曲線的分布?xì)w一化前后的匹配值分布

在得到人臉和步態(tài)的輸出匹配分?jǐn)?shù)后,如何分配各個(gè)子系統(tǒng)所占的權(quán)重以達(dá)到最好的融合效果是整個(gè)融合系統(tǒng)的核心問(wèn)題。而反映一個(gè)匹配分?jǐn)?shù)數(shù)組曲線的主要參數(shù)就是離散度。離散程度反映了一個(gè)數(shù)組的波動(dòng)大小,通常和兩個(gè)參數(shù)有關(guān),即均值μ和標(biāo)準(zhǔn)差σ,其中

(5)

(6)

式中:N為訓(xùn)練樣本的個(gè)數(shù)。標(biāo)準(zhǔn)差的大小反映了數(shù)組的均衡性、穩(wěn)定性、差異性等,標(biāo)準(zhǔn)差較大的說(shuō)明各個(gè)子系統(tǒng)得到的匹配分?jǐn)?shù)對(duì)類之間有較好的區(qū)分度。

(7)

(8)

由于本文中僅包含人臉和步態(tài)兩個(gè)生物特征,n=2,可得

(9)

(10)

由于每?jī)蓚€(gè)人臉和步態(tài)距離匹配值數(shù)組的變化和不同,所得的匹配離散度w=μ/σ2也在發(fā)生變化,因此相對(duì)于其他方法來(lái)說(shuō),該融合方法具有很好的實(shí)時(shí)性與自適應(yīng)性。

4 實(shí)驗(yàn)及結(jié)果分析

本實(shí)驗(yàn)采用中科院自動(dòng)化研究所建立的CASIA步態(tài)數(shù)據(jù)庫(kù)中的DatasetB提供的步態(tài)視頻來(lái)提取人臉和步態(tài)的圖像數(shù)據(jù)庫(kù)。DatasetB是一個(gè)大規(guī)模的多角度步態(tài)視頻數(shù)據(jù)庫(kù),其中共有124個(gè)人,每個(gè)人有11個(gè)視角(0°,18°,36°,…,180°),在3種行走條件下(普通條件、穿大衣、攜帶包裹條件)采集。實(shí)驗(yàn)選取了DatasetB中的前40個(gè)人在普通條件下的0°,54°,90°視角進(jìn)行人臉識(shí)別和步態(tài)識(shí)別。使用之前, 對(duì)數(shù)據(jù)庫(kù)中的數(shù)據(jù)進(jìn)行了一個(gè)粗略的篩選, 由于光照條件和背景干擾等問(wèn)題剔除了DatasetB中用于步態(tài)識(shí)別的5,28,34三個(gè)對(duì)象的視頻幀和用于人臉的5,15兩個(gè)對(duì)象的視頻幀數(shù)據(jù),這樣保留了DatasetB中的36個(gè)對(duì)象的正面行走數(shù)據(jù)用于完成訓(xùn)練和測(cè)試。對(duì)于這36個(gè)對(duì)象,實(shí)驗(yàn)從其中每人的6個(gè)普通條件行走視頻中任意選取2個(gè)視頻序列,一個(gè)用于訓(xùn)練數(shù)據(jù)庫(kù),一個(gè)作為測(cè)試庫(kù)。

本文主要利用普通行走條件下0°,54°,90°這3種角度的人臉和步態(tài)進(jìn)行融合實(shí)驗(yàn),分別為:0°行走視頻中的人臉和0°行走視頻中的步態(tài)融合,54°行走視頻中的人臉和54°行走視頻中的步態(tài)融合,以及雙視角條件下0°行走視頻中的人臉和90°行走視頻中的步態(tài)融合。為了方便人臉和步態(tài)的特征融合,首先將人臉圖像和步態(tài)能量圖歸一化成大小一致的二值化圖像,人臉和步態(tài)的訓(xùn)練數(shù)據(jù)庫(kù)和測(cè)試數(shù)據(jù)庫(kù)中分別有36幅圖像,如圖7所示。利用NMF提取特征向量并計(jì)算出測(cè)試圖像與所有訓(xùn)練圖像降維向量的歐氏距離,并得到歸一化的人臉和步態(tài)特征匹配值數(shù)組Sf={Sf1,Sf2…,SfN}和Sg={Sg1,Sg2…,SgN}。

本文分別采用最大法則、加入權(quán)值的加法法則和本文所提出的自適應(yīng)方法進(jìn)行融合。對(duì)于加入權(quán)值的加法法則, 選擇文獻(xiàn)[3]所使用的方法,選取的權(quán)值分別為步態(tài)和人臉的識(shí)別率,表1給出了0°行走視頻中人臉和步態(tài)相融合所得識(shí)別結(jié)果,表2給出了54°行走視頻中人臉和步態(tài)相融合所得識(shí)別結(jié)果,表3給出了雙視角下0°人臉和90°步態(tài)融合所得識(shí)別結(jié)果;圖8則展示了部分自適應(yīng)融合法則可以改善使用加法法則和最大法則判錯(cuò)的情況。

圖7 部分各角度的人臉和步態(tài)訓(xùn)練數(shù)據(jù)庫(kù)

融合方法僅人臉僅步態(tài)最大法則加法法則本文方法識(shí)別率/%69.4472.227586.1188.89

表2 54°行走視頻中人臉和步態(tài)相融合所得識(shí)別率

表3 雙視角下0°人臉和90°步態(tài)融合所得識(shí)別率

圖8展示了雙視角條件下使用各融合法則的部分判決結(jié)果,圖8a顯示了4號(hào)目標(biāo)使用加法法則判錯(cuò),自適應(yīng)融合法則判對(duì)的情況;圖8b顯示了11號(hào)目標(biāo)使用最大法則判錯(cuò),自適應(yīng)融合法則判對(duì)的情況。

圖8 雙視角條件下使用各融合法則的部分判決結(jié)果

從實(shí)驗(yàn)結(jié)果可以看出,無(wú)論采用何種角度組合方式和以上哪種融合方法,將人臉和步態(tài)特征融合后進(jìn)行識(shí)別的識(shí)別率都不低于采用單一特征的識(shí)別率,且采用本文所提出的決策層自適應(yīng)匹配融合方法通過(guò)最優(yōu)權(quán)值分配和總均方誤差的非線性規(guī)劃過(guò)程,可以改善最大法則和加法法則的判錯(cuò)情況,使得識(shí)別錯(cuò)誤率降低,具有很好的實(shí)時(shí)性和實(shí)用性。

5 結(jié)論

本文提出了一種采用視頻序列中多個(gè)角度的人臉和步態(tài)進(jìn)行自適應(yīng)融合的身份識(shí)別方法,首先采用步態(tài)能量圖對(duì)一個(gè)或多個(gè)步態(tài)周期內(nèi)的人體運(yùn)動(dòng)信息進(jìn)行描述,利用級(jí)聯(lián)的Haar分類器從視頻幀中檢測(cè)出人臉區(qū)域,然后利用非負(fù)矩陣分解NMF提取人臉和步態(tài)特征并分別獲取測(cè)試圖像到訓(xùn)練圖像庫(kù)的歐式距離數(shù)組集合,在決策層利用非線性規(guī)劃將每個(gè)生物特征的距離匹配值進(jìn)行自適應(yīng)分配權(quán)值以獲得最優(yōu)的聯(lián)合匹配分?jǐn)?shù),達(dá)到最好的信息融合結(jié)果,由于該融合權(quán)值會(huì)隨著不同的測(cè)試對(duì)象和角度發(fā)生變化,因此有一定的實(shí)時(shí)性和適應(yīng)性。實(shí)驗(yàn)結(jié)果表明,本文提出的融合方法的識(shí)別性能要優(yōu)于單一生物識(shí)別方法以及最大法則、加權(quán)法則等靜態(tài)融合算法,能達(dá)到很好的信息融合效果。

[1]NIINUMA K,PARK U,JAIN A K.Soft biometric traits for continuous user authentication[J].Information Forensics and Security,2004,5(4):771-780.

[2]ZHOU XL,BHANU B.Integrating face and gait for human recognition at a distance in video[J].IEEE Trans.System Man.and Cybernetics,2007,37(5):1119-1137.

[3]李軼,明東,王璐,等.融合步態(tài)和人臉特征的遠(yuǎn)距離身份識(shí)別研究[J].儀器儀表學(xué)報(bào),2011,32(2): 264-270.

[4]GENG Xin,WANG Liang,LI Ming, et al.Adaptive fusion of gait and face for human identification in video[J].Applications of Computer Vision,2008,7(9):1-6.

[5]李媛媛,張立峰.多傳感器自適應(yīng)加權(quán)融合算法及其應(yīng)用研究[J].自動(dòng)化與儀器儀表,2008(2):10-13 .

[6]唐春林.基于幀差能量圖遺傳算法的自遮擋步態(tài)識(shí)別[J].電視技術(shù),2014,38(5):173-177.

[7]郭磊,王秋光.Adaboost人臉檢測(cè)算法研究及OpenCv實(shí)現(xiàn)[J].哈爾濱理工大學(xué)學(xué)報(bào),2009,14(5):123-126 .

[8]WANG Yuxiong,ZHANG Yujin.Nonnegative matrix factorization:a comprehensive review [J].IEEE Trans.Knowledge and Data Engineering,2013,25(6):1337-1351.

[9]LIU Chengjun.Learning the uncorrelated,independent, and discriminating color spaces for face recognition[J].Information Forensics and Security,2008,3(2):213-222.

[10]周斌,林喜榮.量化層多生物特征融合的最佳權(quán)值[J].清華大學(xué)學(xué)報(bào),2008,48(2):192-195.

Adaptive Fusion of Multi-biometrics for Human Identification in Video

KONG Yinghui,CHEN Peiyao

(ElectronicsandCommunicationEngineering,NorthChinaElectricPowerUniversity,HebeiBaoding071003,China)

The purpose of multiple biometric fusion is to improve the recognition performance by utilizing their complementary.In this paper, the feature fusion recognition method of multi-view face and gait in video is studied, and a adaptive decision fusion method is proposed.The results show that the adaptive fusion features carry the most discriminating power compared to any individual biometric and other static fusion rules like MAX and SUM.

video; face; gait; adaptive; fusion

TP391.41

A

10.16280/j.videoe.2015.05.033

2014-07-12

【本文獻(xiàn)信息】孔英會(huì),陳佩瑤.基于視頻的人臉和步態(tài)自適應(yīng)融合身份識(shí)別[J].電視技術(shù),2015,39(5).

孔英會(huì)(1965— ),女,教授,主研智能信息處理,圖像處理;

陳佩瑤(1992— ),女,碩士,主研圖像處理。

責(zé)任編輯:閆雯雯

猜你喜歡
決策層步態(tài)人臉
小螞蟻與“三角步態(tài)”
國(guó)際體育組織“決策層”中的中國(guó)面孔
有特點(diǎn)的人臉
內(nèi)控時(shí)間背景下的中小學(xué)內(nèi)部控制建設(shè)路徑構(gòu)建
財(cái)訊(2019年24期)2019-09-03 05:37:05
基于面部和步態(tài)識(shí)別的兒童走失尋回系統(tǒng)
電子制作(2018年18期)2018-11-14 01:48:04
三國(guó)漫——人臉解鎖
基于Kinect的學(xué)步期幼兒自然步態(tài)提取
文化自覺(jué)對(duì)高職院校領(lǐng)導(dǎo)決策層的影響
大東方(2015年8期)2015-05-30 09:30:25
馬面部與人臉相似度驚人
便宜假肢能模仿正常步態(tài)
藁城市| 昆山市| 宣威市| 家居| 旅游| 富民县| 宁强县| 道孚县| 三台县| 鹤岗市| 元阳县| 诏安县| 汝城县| 平遥县| 德化县| 永胜县| 吉木乃县| 西华县| 崇左市| 裕民县| 彩票| 大同市| 二连浩特市| 孝昌县| 年辖:市辖区| 周宁县| 合山市| 东明县| 定陶县| 克山县| 永宁县| 电白县| 建宁县| 喀喇| 新丰县| 淮北市| 潼南县| 山阴县| 诸城市| 凤凰县| 长顺县|