關(guān)桂珍,楊天奇
暨南大學(xué) 信息科學(xué)技術(shù)學(xué)院,廣州 510632
步態(tài)識別作為生物識別技術(shù)的一種典型代表,相比其他識別技術(shù)(人臉識別、語音識別和虹膜識別等),因其可遠(yuǎn)距離識別、難以偽造和不需要配合等獨特優(yōu)勢成為研究熱點[1],并在門禁系統(tǒng)、醫(yī)療診斷和人機交互等領(lǐng)域具有很好的應(yīng)用前景。但在目前的研究發(fā)展中,各種約束因素(環(huán)境變化、服飾、攜帶條件等)使得步態(tài)識別在實際應(yīng)用上仍存在挑戰(zhàn)。
傳統(tǒng)的步態(tài)識別主要用普通的攝像機來記錄目標(biāo)的行走,大部分研究都基于所捕獲的個體輪廓圖使用非模型[2-3]或構(gòu)建模型[4-5]的方法進行步態(tài)分析?;诜悄P偷姆椒ㄓ嬎懔啃?,但對光照和背景敏感,當(dāng)目標(biāo)具有攜帶物或有遮擋物時,不準(zhǔn)確的步態(tài)輪廓成為研究難題。而構(gòu)建模型的方法是針對人體運動規(guī)律特征建立的,對環(huán)境、遮擋問題有很好的魯棒性,但是這類方法計算復(fù)雜,對序列圖像清晰度要求高。因此有必要研究一種計算量小,對視頻清晰度要求不太高,且當(dāng)受各種攜帶條件約束影響時仍具有魯棒性的新方法。
微軟在2010年發(fā)布了廉價、高性能配置的體感控制器Kinect,此后基于Kinect的研究已涉及到模式識別、虛擬現(xiàn)實和人機交互等各個領(lǐng)域。研究表明[6]可以用Kinect作為解釋和跟蹤三維人體姿態(tài)的運動捕捉系統(tǒng)。與傳統(tǒng)的彩色攝像頭相比,Kinect可以直接獲取人體骨骼關(guān)節(jié)點的三維數(shù)據(jù)。如Preis等人[7]基于骨骼信息定義了11個靜態(tài)生物特征與2個動態(tài)特征,但沒有很好地融合特征,從其實驗結(jié)果可看出,采用全部動靜態(tài)特征的識別率沒有只用一部分靜態(tài)特征的識別率高。Ball等人[8]提取了18個關(guān)于下肢體關(guān)節(jié)的角度變化的動態(tài)特性,Araujo等人[9]提取了骨骼長度和身高等總共11個特征作為靜態(tài)特征。這兩種方法只片面研究了動態(tài)或靜態(tài)特征,缺少其中一方面的信息會影響識別效果。Andersson等人[10-11]將基于鐘擺模型[4]提取出的下肢夾角的統(tǒng)計特征、步長、周期時間和速度作為特征,但這種方法只考慮了下肢的動態(tài)信息,不夠全面。Kastaniotis等人[12]提出使用稀疏表示對步態(tài)骨骼特征進行識別的方法。稀疏表示分類方法(sparse representation based classification,SRC)[13]利用最小化l1范式重構(gòu)測試樣本來提高識別效果,但代價是增加了計算復(fù)雜度。Zhang等人[14]在人臉識別中對稀疏表示與協(xié)同表示深入研究,發(fā)現(xiàn)是類之間的協(xié)同性起到了關(guān)鍵作用。相比稀疏表示,協(xié)同表示具有計算簡單、效果明顯等優(yōu)勢,因此在步態(tài)識別中值得進一步地探討協(xié)同表示識別方法。
研究表明[15]在行走過程中人體總質(zhì)心(total center of mass,TCOM)呈規(guī)律性變化。在基于輪廓圖的步態(tài)識別研究中,許多工作[16]將質(zhì)心作為一個重要的特征,但目前TCOM仍未被用到步態(tài)3D骨骼模型中。基于以上研究,本文提出一種基于TCOM與骨骼信息并結(jié)合協(xié)同表示分類器(collaborative representation based classification,CRC)進行特征融合的步態(tài)識別方法,以全面考慮問題。選擇Kinect采集的3D骨骼數(shù)據(jù)進行研究,對動態(tài)特征進行小波分解和頻譜分析,并通過把動態(tài)時間規(guī)整與協(xié)同表示結(jié)合將動態(tài)特征與靜態(tài)特征加權(quán)融合,最后根據(jù)最近鄰準(zhǔn)則進行分類識別。實驗使用Matlab對目前所知公開的樣本數(shù)量較大的UPCV數(shù)據(jù)庫[12]和Andersson等人[11]發(fā)布的數(shù)據(jù)庫進行仿真,結(jié)果表明,本文方法取得了較好的識別效果。
根據(jù)人體測量學(xué)可知,每個人的關(guān)節(jié)點位置和骨骼尺寸比例都不相同,在某種行動下體態(tài)也各不相同,理論上可根據(jù)人體關(guān)鍵關(guān)節(jié)點和骨骼模型進行身份識別。而在行走過程中質(zhì)心更是綜合人體信息的一個重要度量,在步態(tài)識別研究中,一般質(zhì)心都是基于輪廓圖用平均輪廓點的方法獲得的。質(zhì)心是指質(zhì)量中心,顯然在骨骼模型上單純地求各個關(guān)節(jié)點的坐標(biāo)平均值未能體現(xiàn)出質(zhì)心的定義,不夠精準(zhǔn)。于是本文使用在臨床評估上將Kinect用作動作捕捉系統(tǒng)來精準(zhǔn)測量TCOM的方法[17]。
Kinect能夠直接獲取20個骨骼關(guān)節(jié)點的三維坐標(biāo)?;谌梭w模型和整個身體運動關(guān)聯(lián)性[18],可把人體合理地分為15部分:頭部、軀干、左/右上臂、左/右前臂、左/右手部、盆骨、左/右大腿、左/右小腿和左/右腳部。根據(jù)人體模型的劃分和其參數(shù)(見表1)分別算出每個部分的分質(zhì)心(part center of mass,PCOM):
其中,i=1,2,…,15;xp、yp和zp是近端點的坐標(biāo)值;xd、yd和zd是遠(yuǎn)端點的坐標(biāo)值;wp和wd分別是近端點和遠(yuǎn)端點的坐標(biāo)值百分比系數(shù)。根據(jù)加權(quán)平均法,TCOM計算如式(2)。
其中,mi是第i個分區(qū)質(zhì)量;M是人體總質(zhì)量;xi、yi和zi是第i個PCOM的坐標(biāo)值。將提取的TCOM的三維坐標(biāo)投影到Z軸上,得到在X-Y坐標(biāo)系上質(zhì)心在骨骼模型中的軌跡如圖1所示。以上所用的樣本數(shù)據(jù)來自UPCV數(shù)據(jù)庫,Kincet放置在行走路徑的左側(cè),攝像頭方向與其形成30°角,因此原始數(shù)據(jù)會隨著與攝像頭的距離的改變而改變。可見,由上述方法提取出人在正常狀態(tài)下行走的質(zhì)心軌跡更為合理。
Fig.1 TCOM trajectory圖1 質(zhì)心軌跡
研究表明[15]選用人體質(zhì)心軌跡作為步態(tài)特征可以進行個體識別,但僅僅靠質(zhì)心作為唯一的信號輸入顯得過于單一。且每個人都是正常行走,質(zhì)心波動也不會有太大的顯著性差異,因此隨著樣本數(shù)量增加,質(zhì)心的運動軌跡的相似度也會增加,這種情況下會使識別效果變差。因此,本文將質(zhì)心與骨骼模型中其他具有豐富運動特征的步態(tài)信息結(jié)合,這樣既可以反應(yīng)人體在行走過程中各個部分的相對變化,又能使特征更為豐富和全面。
Table 1 Body segment parameters表1 人體分區(qū)參數(shù)
在人行走過程中,人體的四肢具有豐富動態(tài)信息,是關(guān)鍵的步態(tài)信息來源。雙腳質(zhì)心與總質(zhì)心之間形成的角度會隨著行走的步伐有著周期性的變化。同理,人在行走時腳著地到腳抬起也是個周期過程,可知總質(zhì)心到雙腳質(zhì)心之間所形成直線的距離也有著周期性的波動變化。除此外,在行走中手部也會隨之而擺動,這個動態(tài)信息也不可忽視,因此還選取了手前臂質(zhì)心、手上臂質(zhì)心與總質(zhì)心之間的角度作為特征。選取的動態(tài)特征分別記為Dyn1、Dyn2和Dyn3,如圖2(a)、(b)和(c)所示。
Fig.2 Primeval features圖2 原始特征
特征的計算分別如下:
其中,C為TCOM,Ci為第i個PCOM(見圖2中的標(biāo)注),且向量CiCj=Cj-Ci,|CiCj|為其模。在穿大衣的情況下,Kinect仍能獲取人體關(guān)節(jié)點,但若出現(xiàn)障礙物或突然改變方向時,關(guān)節(jié)點的位置會出現(xiàn)偏移而有誤差,因此提取出來的特征值也會受到影響。小波分解可通過伸縮平移對信號進行空間頻域的局部化分析,逐步將信號尺度細(xì)化,分解為低頻和高頻信息。其中的高頻信息是快速變化的部分,是信號的突變,存在著噪聲信息。提取出的步態(tài)動態(tài)特征實質(zhì)上是步態(tài)的離散信號,為了有效地消除外界干擾,對步態(tài)信號進行小波分解,保留低頻信息的同時對高頻信息進行軟閾值量化處理,再將處理過的信息進行小波重構(gòu)。
選用Haar小波[19]進行分解,設(shè)其基尺度函數(shù)為φ(t),基小波函數(shù)為ψ(t),k=0,1,…,2j-1。標(biāo)準(zhǔn)化后,可得尺度函數(shù)與小波函數(shù)如下:
為了避免丟失有用的步態(tài)信息,選擇進行單尺度小波分解,以達到消除干擾而又保留步態(tài)特征的效果。原信號的小波分解和本文選擇的軟閾值η的計算公式分別如下:
其中,cj(k)為尺度系數(shù);dj(k)為小波系數(shù);|X|為輸入信號的長度。
圖3給出了Dyn1特征的原信號和軟閾值量化的重構(gòu)信號??梢?,原信號中在第10幀附近時因干擾出現(xiàn)一些突出的局部極值,經(jīng)過小波分解后有效消除了這些干擾。雖然得到較好的周期信號,但是在時域上觀察時各個序列的特征值很類同,顯著性差異還不夠明顯。進一步突出特征的差異性和顯著性,選用離散傅里葉變換將重構(gòu)后的時域信號轉(zhuǎn)為分析其頻譜,變換公式如下:
其中,x為輸入信號;xc為核函數(shù)中心;σ為函數(shù)的寬度參數(shù);將通過高斯濾波函數(shù)后的信號記為Sg。為了進一步表征信號的動態(tài)特性,最后引入信號的差分譜,計算公式如下:
圖4給出了經(jīng)過高斯濾波的離散傅里葉變換后的相位、幅值、一階差分和二階差分圖,得到的頻域信息和差分信息構(gòu)成最終的步態(tài)動態(tài)特征。
Fig.3 Wavelet analysis of gait signal圖3 步態(tài)信號的小波分析
Fig.4 Spectrum and difference spectrum圖4 頻譜與差分譜
步態(tài)3D骨骼模型與其他模型相比,最明顯的優(yōu)勢在于骨骼模型很直觀地給出人體各個關(guān)節(jié)點的位置,可以直接測量出人體骨骼的長度。本文選擇了5個具有顯著性差異的個體固有特征,分別為高度、雙肩長、手臂長、上身軀干長和腿長。由于人體手臂和腿部具有對稱性,本文選取左右兩邊加和平均作為其長度值。第Pi個關(guān)節(jié)點到第Pj個關(guān)節(jié)點的骨骼長度,計算公式如下:
此外,人體四肢的PCOM到TCOM的距離也包含著重要信息,PCOM可由式(1)計算得到。由表1可以發(fā)現(xiàn),人體各分區(qū)的質(zhì)量占總質(zhì)量比值不同,且左右兩側(cè)是對稱的,選擇考慮右側(cè)的上臂、前臂、大腿和小腿這4部分質(zhì)心到總質(zhì)心的距離便足以,分別記為d1、d2、d3和d4。如圖2(d)所示,計算公式與式(9)相似。最后將這些距離度量的均值mean與標(biāo)準(zhǔn)差std作為最終的靜態(tài)特征Sta:
稀疏表示與協(xié)同表示的核心思想都是通過訓(xùn)練樣本與稀疏系數(shù)來重構(gòu)出測試樣本,以最小的重構(gòu)誤差作為分類依據(jù),若測試樣本屬于某一類,則除了該類以外其他系數(shù)都為0,因此稀疏系數(shù)a的求解成為分類的關(guān)鍵所在。設(shè)測試樣本為y,稀疏字典為X,求解問題如下:
其中,ε為常數(shù);p通常取0或1。而求解l0范式是NP難題,因此SRC采用l1范式去理論逼近l0范式[20],但由于其不可避免的迭代優(yōu)化步驟和需要其稀疏字典過完備的條件,使得求解過程仍存在耗時大、處理復(fù)雜等問題。協(xié)同表示[14]用l2范式來取代稀疏表示中的l1范式,并根據(jù)拉格朗日公式和正則化的最小二乘法可進一步將求解問題轉(zhuǎn)化如下:
式中,λ是正則化參數(shù)。第一項表示訓(xùn)練樣本的重構(gòu)程度,并通過與第二項求最小值來約束樣本,防止出現(xiàn)過擬合。根據(jù)最小二乘法求解如下:
這種方法不僅可穩(wěn)定地得到解,還可以使求得的系數(shù)具有稀疏性,降低了計算復(fù)雜度。
將步態(tài)骨骼模型與CRC識別方法結(jié)合,存在的關(guān)鍵問題是每個人不同的行走速度使得獲得的特征維度不同,特別是具有周期性的動態(tài)特征,而對每個特征進行維度歸整會導(dǎo)致信息的丟失。為了使CRC方法應(yīng)用到步態(tài)識別中,采用將動態(tài)時間規(guī)整(dynamic time warping,DTW)與CRC結(jié)合的方法解決以上問題。DTW方法可以對長度不一的信息進行直接度量,先使用DTW將特征值投影到相異空間,再通過CRC方法得到每個特征的匹配分?jǐn)?shù)并加權(quán)融合,最后根據(jù)最近鄰算法分類。
算法在步態(tài)骨骼模型中的CRC識別算法
輸入:步態(tài)3D骨骼數(shù)據(jù)庫。
輸出:識別率。
訓(xùn)練階段:
步驟1分別求出訓(xùn)練集中m個序列的原始動態(tài)特征,并進行小波分解得到低頻信息與高頻信息,對高頻信息進行軟閾值加權(quán)后重構(gòu)信號。
步驟2對每個重構(gòu)后的信號使用離散傅里葉變換和高斯濾波器,得到頻域譜。
步驟3分別求得每個頻域譜的一階差分和二階差分,得到差分譜,將頻域譜和差分譜結(jié)合構(gòu)成最終的動態(tài)特征DynR。
步驟4求出靜態(tài)特征StaR。
步驟5分別對每個特征使用DTW算法求得m×m的相異度量矩陣Xi。
步驟6對每個Xi去掉主對角線(值為0)的元素,采用最近鄰準(zhǔn)則得出每個特征的識別率作為匹配分?jǐn)?shù)si。
步驟7設(shè)定每個特征的權(quán)重為其錯誤率的倒數(shù),即wi=(1-si)-1。
識別階段:
步驟1分別求出n個測試樣本的最終的動態(tài)特征DynT和靜態(tài)特征StaT。
步驟2每個特征分別與訓(xùn)練集中的特征使用DTW算法求得m×n的相異度量矩陣Yi。
步驟3根據(jù)Xi和Yi計算出第i個特征的協(xié)同系數(shù),公式如下:
步驟4分別對每個特征按如下公式計算重構(gòu)殘差:
步驟5對得到的重構(gòu)殘差用Min-Max標(biāo)準(zhǔn)歸一化:
步驟6將每個特征所得的重構(gòu)殘差選用加權(quán)的加法融合得到最終的匹配分?jǐn)?shù),具體計算如下所示:
步驟7根據(jù)最近鄰準(zhǔn)則分類,得到識別率。
Andersson等人[11]建立了一個140個人的步態(tài)數(shù)據(jù)庫(Kinect gait raw dataset,KGRD),每個人從左到右以Kinect為圓心的半圓軌跡順時針行走,并且有一個轉(zhuǎn)盤用來確保Kinect能夠?qū)崟r跟蹤,以保證人體始終保持在Kinect攝像范圍內(nèi)。每個人來回走5次,每個序列大概有500~600幀數(shù)據(jù)。Kastaniotis等人[12]發(fā)布了含有30個人的UPCV步態(tài)骨骼數(shù)據(jù)庫,每個人包含有5個步態(tài)序列。目前,數(shù)量較大、公開的、基于骨骼的步態(tài)數(shù)據(jù)庫就是以上所提及到的數(shù)據(jù)庫。因此,本文采用這兩個數(shù)據(jù)庫進行實驗。經(jīng)研究發(fā)現(xiàn),KGRD數(shù)據(jù)庫因數(shù)據(jù)缺失、周期不足等問題,有少部分?jǐn)?shù)據(jù)無效,最終選取了130個樣本,每個樣本含有5個步態(tài)序列。另外,UPCV數(shù)據(jù)庫也存在同樣情況,因此對該數(shù)據(jù)庫的每個樣本選取了4個步態(tài)序列進行研究,一共120個步態(tài)序列。
Kinect攝像頭每秒可以捕捉30幀數(shù)據(jù),因此處理起來的數(shù)據(jù)量很大,特別是KGRD數(shù)據(jù)庫。為了減少計算量和運算時間,實驗選擇提取一個步態(tài)周期作為研究。圖5展示了在正常狀態(tài)下人行走時的骨骼姿態(tài)模型。
Fig.5 Skeleton model display during walking圖5 行走中的步態(tài)骨骼模型顯示
表2給出了本文方法使用不同數(shù)據(jù)庫的識別率。為了在不同數(shù)據(jù)庫之間進行比較,實驗中選取了相同的樣本數(shù)量。可以發(fā)現(xiàn),該方法在不同數(shù)據(jù)庫中得到的識別效果都比較好,具有一定的魯棒性。對比可得,不同數(shù)據(jù)庫對識別率有一定的影響,但識別的效果都不錯,在UPCV數(shù)據(jù)庫的識別效果最好,達到96.67%的識別率。
Table 2 Recognition rate in different databases表2 不同數(shù)據(jù)庫的識別率
為了驗證文中對特征的處理效果,對不同處理下的特征值在UPCV數(shù)據(jù)庫中進行了實驗。如表3所示,原始特征的識別效果不是很理想,但經(jīng)過小波分解和重構(gòu),識別率有所提升,消除外界干擾的影響起到了作用。最后將空間域轉(zhuǎn)到頻域上分析,提取特征的頻譜和差分譜,進一步提高了識別率。
Table 3 Recognition rate under different treatments表3 不同處理下的識別率
進一步檢驗提出方法的識別性能,引入受試者工作特征(receiver operating characteristic,ROC)曲線進行分析。規(guī)定不同的閾值,得到每個測試序列的真陽性率(true positive rate,TPR)和假陽性率(false positive rate,F(xiàn)PR)后進行求和平均,可以得到ROC曲線,如圖6所示。根據(jù)ROC曲線和曲線下的面積(area under curve,AUC)定義可知,越靠近左上角,AUC面積越大,識別算法的效果越好。由圖6(a)可見,動態(tài)和靜態(tài)特征融合后的識別效果比單獨動態(tài)或靜態(tài)特征的效果要好,圖6(b)展示了不同數(shù)據(jù)庫中使用此方法的效果都較為理想。ROC曲線里面通常用EER(equal error rate)作為衡量分類器的一個客觀標(biāo)準(zhǔn),是一條從(0,1)到(1,0)的直線,也就是真陽性率(TPR)=假陽性率(FPR)的值。
Fig.6 ROC curve圖6 ROC曲線
目前,國內(nèi)外基于Kinect獲取的骨骼模型的步態(tài)研究還在初步階段,一個完備的、公而有力的骨骼步態(tài)數(shù)據(jù)庫仍未被提出。因此,在骨骼步態(tài)研究中,大部分工作選用自己所采集的骨骼步態(tài)數(shù)據(jù),且數(shù)據(jù)庫的樣本數(shù)量較少(如10~20個人)。表4給出了本文方法與其他方法的識別率,在對比實驗時采用隨機選取的樣本數(shù)與相關(guān)方法中使用的數(shù)據(jù)集樣本數(shù)相同,進行10次隨機實驗并取平均值作為識別結(jié)果。經(jīng)對比可發(fā)現(xiàn),本文方法相對于其他方法總體性能都比較好,識別效果理想。
Table 4 Comparison of different methods表4 不同方法的比較
由于大部分工作都采用私有非公開的數(shù)據(jù)庫,且這些數(shù)據(jù)庫拍攝的角度、方向和距離等條件差異大。再者,每種方法使用不同的特征、不同的處理方法和不同的分類算法,導(dǎo)致了不同方法之間的對比困難和缺乏可比較性。為了得到不同方法選取的特征之間貢獻度的更有針對性的對比,將不同工作中的分類算法替換為基于DTW的最近鄰(nearest neighbor,NN)算法[21],并在公開的數(shù)據(jù)庫[12]中不同樣本數(shù)下進行實驗。實驗時同樣采取隨機樣本10次后取平均值得到最終識別率,如圖7所示。結(jié)果表明,本文對特征進行顯著性差異的增強處理和加權(quán)融合的有效處理,使得在相同數(shù)據(jù)、相同識別方法的情況下,特征貢獻效果優(yōu)于其他方法,且隨著樣本數(shù)增加,識別效果較為穩(wěn)定。
進一步使本文與其他方法有一個更科學(xué)和有說服力的比較,除了跟本領(lǐng)域一些先驅(qū)工作比較外,還與文獻[12]進行比較。該方法不僅建立UPCV數(shù)據(jù)庫,還基于骨骼模型采用稀疏表示作為分類器,與本文的CRC識別方法進行對比分析。表5給出了在UPCV數(shù)據(jù)庫中使用30個人進行稀疏表示方法與協(xié)同表示方法的比較結(jié)果,可見兩種方法的識別效果都不錯,本文的協(xié)同表示融合方法識別效果更優(yōu)。由此可見,本文的分析較為合理,提出的方法具有研究意義。
Fig.7 Recognition rate under different sample numbers圖7 不同樣本數(shù)下的識別率
Table 5 Comparison of SRC method表5 與SRC的比較
本文基于Kinect建立的步態(tài)骨骼模型與質(zhì)心信息結(jié)合,提取人體總質(zhì)心與四肢分質(zhì)心相關(guān)的動態(tài)和靜態(tài)特征,將動態(tài)特征進行小波變換后使用離散傅里葉變換的快速算法提取頻譜和差分譜,對特征的處理體現(xiàn)了步態(tài)關(guān)鍵信息之間的關(guān)聯(lián)性和協(xié)同性,提高了識別效果。最后給出協(xié)同表示與動態(tài)時間規(guī)整結(jié)合的方法,將步態(tài)特征進行加權(quán)融合,再按最近鄰原則分類,最終得到了理想的識別效果。Kinect相對傳統(tǒng)攝像頭處于優(yōu)勢的位置,在穿大衣、有攜帶物等條件下仍能獲取出人體關(guān)節(jié)點,解決了步態(tài)識別中由于穿著、攜帶物等原因出現(xiàn)的難題。后期將繼續(xù)對Kinect進行研究,進一步考慮Kinect可提供的深度圖像與骨骼模型相結(jié)合的步態(tài)識別。
[1]Li Yibo,Jiang Tianxiao,Qiao Zhihua,et al.General methods and development actuality of gait recognition[C]//Proceedings of the 2007 International Conference on Wavelet Analysis and Pattern Recognition,Beijing,Nov 2-4,2007.Piscataway,USA:IEEE,2007:1333-1340.
[2]Han Ju,Bhanu B.Individual recognition using gait energy image[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2006,28(2):316-322.
[3]Zhang Erhu,Zhao Yongwei,Xiong Wei.Active energy image plus 2DLPP for gait recognition[J].Signal Processing,2010,90(7):2295-2302.
[4]Cunado D,Nixon M S,Carter J N.Automatic extraction and description of human gait models for recognition purposes[J].Computer Vision&Image Understanding,2003,90(1):1-41.
[5]Lu Haiping,Plataniotis K N,Venetsanopoulos A N.A fullbody layered deformable model for automatic model-based gait recognition[J].EURASIP Journal on Advances in Signal Processing,2008:261317.
[6]Bonnechère B,Jansen B,Salvia P,et al.Validity and reliability of the Kinect within functional assessment activities:comparison with standard stereophotogrammetry[J].Gait&Posture,2013,39(1):593-598.
[7]Preis J,Kessel M,Linnhoff-Popien C,et al.Gait recognition with Kinect[C]//Proceedings of the 1st International Workshop on Kinect in Pervasive Computing,Newcastle,Jun 18-22,2012:1-4.
[8]Ball A,Rye D,Ramos F,et al.Unsupervised clustering of people from“skeleton”data[C]//Proceedings of the 7th Annual International Conference on Human-Robot Interaction,Boston,Mar 5-8,2012.New York:ACM,2012:225-226.
[9]Araujo R M,Gra?a G,Andersson V.Towards skeleton biometric identification using the microsoft kinect sensor[C]//Proceedings of the 28th Annual ACM Symposium on Applied Computing,Coimbra,Mar 18-22,2013.New York:ACM,2013:21-26.
[10]Andersson V O,Araujo R M.Full body person identification using the Kinect sensor[C]//Proceedings of the 26th International Conference on Tools with Artificial Intelligence,Limassol,Nov 10-12,2014.Washington:IEEE Computer Society,2014:627-633.
[11]Andersson V O,Araujo R M.Person identification using anthropometric and gait data from Kinect sensor[C]//Proceedings of the 29th AAAI Conference on Artificial Intelligence,Austin,Jan 25-30,2015.Menlo Park:AAAI,2015:425-431.
[12]Kastaniotis D,Theodorakopoulos I,Theoharatos C,et al.A framework for gait-based recognition using Kinect[J].Pattern Recognition Letters,2015,68:327-335.
[13]Wright J,Ma Yi,Mairal J,et al.Sparse representation for computer vision and pattern recognition[J].Proceedings of the IEEE,2010,98(6):1031-1044.
[14]Zhang Lei,Yang Meng,Feng Xiangchu.Sparse representation or collaborative representation:which helps face recognition?[C]//Proceedings of the 2011 International Conference on Computer Vision,Barcelona,Nov 6-13,2011.Washington:IEEE Computer Society,2011:471-478.
[15]Veeraraghavan A,Chowdhury A R,Chellappa R.Role of shape and kinematics in human movement analysis[C]//Proceedings of the 2004 Conference on Computer Vision and Pattern Recognition,Washington,Jun 27-Jul 2,2004.Washington:IEEE Computer Society,2004:730-737.
[16]Chen Xin,Yang Tianqi.Research on gravity center eliminating influence of dress on gait recognition[J].Computer Engineering andApplications,2016,52(5):141-146.
[17]Yeung L F,Cheng K C,Fong C H,et al.Evaluation of the Microsoft Kinect as a clinical assessment tool of body sway[J].Gait&Posture,2014,40(4):532-538.
[18]Winter DA.Biomechanics and motor control of human movement[M].4th ed.New York:John Wiley&Sons,Inc,2009.
[19]Sun Yankui.Wavelet transform and image processing technology[M].Beijing:Tsinghua University Press,2012.
[20]Wu Yang,Jarich V,Mukunoki M,et al.Collaborative representation for classification,sparse or non-sparse?[J].arXiv:1403.1353.
[21]Luo Zhengping,Liu Yanjun,Yang Tianqi.Gait recognition based on decomposition of optical flow components[J].Computer Science,2016,43(9):295-300.
附中文參考文獻:
[16]陳欣,楊天奇.不受服飾攜帶物影響的步態(tài)識別方法[J].計算機工程與應(yīng)用,2016,52(5):141-146.
[19]孫延奎.小波變換與圖像、圖形處理技術(shù)[M].北京:清華大學(xué)出版社,2012.
[21]羅正平,劉延鈞,楊天奇.光流分量分解的步態(tài)識別[J].計算機科學(xué),2016,43(9):295-300.