国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

利用SIFT特征聯(lián)合匹配的非剛體目標跟蹤算法

2015-08-17 11:23:50侯志強黃安奇余旺盛
關(guān)鍵詞:剛體尺度模板

侯志強,黃安奇,余旺盛,劉 翔

(空軍工程大學信息與導航學院,陜西西安710077)

利用SIFT特征聯(lián)合匹配的非剛體目標跟蹤算法

侯志強,黃安奇,余旺盛,劉 翔

(空軍工程大學信息與導航學院,陜西西安710077)

為了解決非剛體目標跟蹤過程中由目標形狀快速變化帶來的困難,提出了利用SIFT特征聯(lián)合匹配的非剛體目標跟蹤算法。首先分別提取目標模板和當前搜索區(qū)域的SIFT特征點;然后利用改進的聯(lián)合匹配策略在目標模板和當前搜索區(qū)域之間進行特征匹配;最后根據(jù)匹配結(jié)果確定目標在當前幀的位置和尺度。改進的聯(lián)合匹配策略在構(gòu)建相似度矩陣時,不但利用了具有旋轉(zhuǎn)和尺度不變性的SIFT特征向量,并且充分考慮了特征點的空間位置信息,有效提高了特征匹配的準確性。將這種改進的聯(lián)合匹配策略成功地引入到SIFT匹配跟蹤中,克服了傳統(tǒng)SIFT匹配算法用于非剛體目標跟蹤時的缺陷。實驗結(jié)果表明,該算法對目標的非剛性形變、尺度變化以及背景干擾都具有較強的魯棒性。

視覺跟蹤;非剛體目標;SIFT特征;聯(lián)合匹配

0 引 言

視覺跟蹤問題是計算機視覺領(lǐng)域中的一個重要問題,近年來被越來越多的學者所關(guān)注[1]。由于非剛體目標在運動過程中形狀和外觀都會不斷發(fā)生變化,從而使得對非剛體目標的跟蹤任務更具挑戰(zhàn)性。如何對運動目標建立一個簡單、準確、有效的外觀模型是解決非剛體目標跟蹤問題的關(guān)鍵。從選取模板形式的不同,可以將典型的非剛體目標跟蹤算法分為以下幾類:基于規(guī)則模板的跟蹤、基于變形模板的跟蹤、基于局部分塊的跟蹤和基于特征匹配的跟蹤。目前已有大量基于規(guī)則模板的算法用于非剛體目標的跟蹤中。經(jīng)典的Mean Shift算法[2]對簡單場景下的非剛體目標可以實現(xiàn)準確有效的跟蹤,但是對遮擋和背景干擾比較敏感,算法容易收斂到局部極值。文獻[3]通過偏最小二乘分析,使用在線學習獲得的多個表觀模型對目標進行描述。該算法由于同時利用了在線學習的目標及背景信息,能夠有效地減少跟蹤漂移問題。文獻[4]利用推土機距離(earth mover’s distance,EMD)提出了一種新的目標變化概率模型,并將其應用到跟蹤中。該算法針對剛體目標和非剛體目標都能取得較好的跟蹤性能。非剛體目標也可以使用參數(shù)化的變形模板來構(gòu)建目標模型,例如常用的主動輪廓模型(active contour models,ACM)[5]非常適合可變形目標的跟蹤。但是這類參數(shù)化模型的數(shù)學描述往往比較嚴格,并且這類算法耗時嚴重,從而限制了它們的使用。水平集算法作為一種可實現(xiàn)對目標的精確分割與跟蹤的理論框架也已經(jīng)成功應用到非剛體目標的跟蹤中[6]?;诰植糠謮K的跟蹤算法在對非剛體目標進行跟蹤時也表現(xiàn)出了較為出色的跟蹤性能[7-8]。文獻[8]在對目標進行分塊表示時利用了目標前景與背景間的差異信息,使得該算法對遮擋和背景干擾都具有較好的魯棒性。利用目標的特征點來進行建模是解決非剛體目標跟蹤的另一種思路,常用的特征點有角點[9]和SIFT特征點[10]等。文獻[11]通過提取目標的局部特征點來進行表觀特征描述,并利用傳統(tǒng)的特征匹配策略進行跟蹤。然而這種傳統(tǒng)的特征匹配跟蹤算法需要建立單個特征之間的對應關(guān)系,再通過求解仿射模型來確定跟蹤結(jié)果。該方法受非剛體目標特征點空間位置的變化擾動較大,因此跟蹤效果較差。文獻[12]針對傳統(tǒng)匹配跟蹤算法的缺陷,提出一種聯(lián)合匹配策略,將目標的局部特征集合看作一個整體并利用整體匹配最優(yōu)的原則來實現(xiàn)特征匹配。該算法實時性較好,對目標的非剛性形變適應性較強。但是該算法提取的Harris角點不具有尺度不變性,在尺度變化劇烈的情況下,會導致匹配點的數(shù)量明顯減少。同時該算法采用的灰度直方圖對光照變化以及背景干擾也都比較敏感,且該算法忽略了特征點重要的空間位置信息,容易發(fā)生誤匹配。

綜合考慮以上算法的優(yōu)缺點,本文提出一種利用SIFT特征聯(lián)合匹配的非剛體目標跟蹤算法。相對于文獻[12],本文在特征點的描述和相似度矩陣的構(gòu)造上更具優(yōu)勢。首先在特征點的描述上采用SIFT特征,增強了特征點的旋轉(zhuǎn)和尺度不變性以及抑制背景干擾的能力;然后通過考慮特征點的空間信息,對原始的相似度矩陣進行了改進,進一步提高了抗干擾能力和匹配準確性。相對于傳統(tǒng)的SIFT匹配跟蹤算法,本文由于采用了聯(lián)合匹配策略,能夠有效地處理目標的非剛性形變。

1 基于SIFT特征的表觀模型構(gòu)建

1.1 SIFT特征提取

SIFT特征是圖像的局部特征,該特征對旋轉(zhuǎn)、尺度縮放、亮度變化保持不變性,對視角變化、仿射變換、噪聲也保持一定程度的穩(wěn)定性。而文獻[12]使用的Harris角點只對旋轉(zhuǎn)具有不變性,而對于尺度不具有不變性。如圖1所示,目標原來的角點在尺度變大后變成了邊緣點,表明Harris角點不具有尺度不變性。

圖1 Harris角點不具有尺度不變性

SIFT算法依據(jù)其提出的高斯差分(difference of Gaussian,DOG)算子提取圖像在不同尺度上的特征點,利用具有不同均方差參數(shù)σ的高斯函數(shù)G(x,y,σ)將一幀圖像擴展到尺度空間的一系列圖像。特征點通過對相鄰尺度2幅圖像的差分D(x,y,σ)求局部極值得到,即

式中,L代表圖像的尺度空間;I(x,y)代表圖像在位置(x,y)處的像素值,二維高斯核函數(shù)為

式中,σ代表高斯正態(tài)分布的均方差,稱為尺度空間因子。在極值點所處的位置和尺度上,利用2×2的Hessian矩陣H作為穩(wěn)定性判別標準剔除不穩(wěn)定的特征點,以增強匹配穩(wěn)定性、提高抗噪聲能力。然后利用特征點鄰域像素的梯度方向分布特性為每個特征點指定方向信息,并為每個關(guān)鍵點生成l=128維的SIFT特征向量。將目標模板的特征點集合記為{p1,p2,…,pm},對應的特征向量集合記為{sp1,sp2,…,spm}。

1.2 目標模型表示

首先在初始幀手動選擇目標模板,此處模板為略大于目標的矩形;然后提取目標模板的SIFT特征。目標模型的具體表示如圖2所示。

圖2 目標模型表示樣例

至此,目標的表觀模型可表示為P={(p1,sp1),(p2,sp2),…,(pm,spm)}。

2 基于SIFT特征的聯(lián)合匹配

文獻[10]提出用Hough變換提取至少3對穩(wěn)定匹配的關(guān)鍵點對,然后構(gòu)建匹配點之間的仿射模型,通過求解模型的最小二乘解來確定參數(shù)。這種傳統(tǒng)的SIFT匹配算法用在剛體目標的圖像配準中能夠取得良好的效果,然而當目標發(fā)生非剛性形變時,由Hough變換提取的穩(wěn)定特征匹配數(shù)目可能少于3對,此時仿射模型便無法求解。并且,由非剛體目標形變引起的匹配點對之間相對位置的變化,會對仿射模型造成很大的擾動,最終導致較大的跟蹤誤差。

因此,本文借鑒文獻[12]中聯(lián)合匹配的思想,將目標模型中的所有SIFT特征點當作一個整體,通過整體匹配最優(yōu)的原則來確定SIFT特征點之間的匹配關(guān)系。在構(gòu)建相似度矩陣時,不但考慮了SIFT特征向量之間的相似度,并且加入了特征點的空間位置信息,有效地減少了誤匹配。本文進行SIFT特征匹配的思路為:首先構(gòu)建相似度矩陣;然后根據(jù)相似度矩陣將關(guān)鍵點的匹配問題轉(zhuǎn)化為平衡指派問題;最后通過確定使整體效益最優(yōu)的指派來確定關(guān)鍵點之間的匹配關(guān)系。

2.1 構(gòu)建相似度矩陣

設(shè)目標表觀模型為P={(pi,spi),當前搜索區(qū)域?qū)谋碛^模型為Q={(qj,sqj)。在聯(lián)合匹配策略中,使用Bhattacharyya系數(shù)來量測SIFT特征向量之間的相似度,即點pi與qj之間的SIFT特征相似度為

特征點集的離散程度反映了目標的尺度大小,為了進一步減少背景中的孤立特征點對特征匹配的干擾,提高跟蹤穩(wěn)定性,引入距離約束對特征匹配的精度進行優(yōu)化。設(shè)點qj與目標在上一幀的中心位置()之間的歐氏距離為:,則點pi與qj之間的距離相似度定義為

則點pi與qj之間的總體特征相似度為

式中,a為控制巴氏系數(shù)與距離約束比例關(guān)系的系數(shù)。計算出所有關(guān)鍵點之間的相似度,則相似度矩陣可表示為

對相似度矩陣進行歸一化處理,使其滿足標準的最優(yōu)化模型求解條件,其公式為

式中,ρmax和ρmin分別表示相似度矩陣ρ中元素的最大值和最小值,相似度矩陣R中的元素用rij表示。

2.2 匹配關(guān)系模型的建立與求解

對目標模型中任意的pi=(i∈{1,…,m}),在當前搜索區(qū)域中找到與之匹配的qj=(j∈{1,…,n}),并且要求pi與qj之間的特征相似度rij之和最大。這是一類典型的指派問題,可以將其描述為0-1規(guī)劃問題,即

式中,xij為匹配決策變量,當pi與qj匹配時,xij=1;否則,xij=0。

上述模型描述的問題為非平衡指派問題,可以通過在矩陣R中加入0元素將其轉(zhuǎn)化為平衡指派問題。此時,式(8)所描述的模型可轉(zhuǎn)化為標準的平衡指派問題模型:

上述模型可以用匈牙利算法(Hungarian algorithm,HA)[13]進行求解。

3 算法總結(jié)

3.1 算法描述

首先確定目標在當前幀的搜索區(qū)域,考慮目標運動過程在空間上的連續(xù)性,將搜索范圍設(shè)定為以上一幀跟蹤結(jié)果為中心的2倍于目標區(qū)域的范圍。搜索區(qū)域的設(shè)定大大減少了SIFT特征變換的計算量。

將本文算法與文獻[12]算法進行對比,來驗證本文算法在特征點描述上更具魯棒性。為保證實驗對比的公平性,此處2種聯(lián)合匹配策略都未加入距離約束。如圖3所示,其中圖3(a)和圖3(c)為文獻[12]基于Harris角點特征的匹配結(jié)果,圖3(b)和圖3(d)為本文基于SIFT特征的匹配結(jié)果。由圖3(a)和圖3(b)的對比結(jié)果可知,當目標的非剛性形變較大時,角點特征的穩(wěn)定性較差,目標在當前幀的匹配點聚集在目標的局部區(qū)域。由圖3(c)和圖3(d)的對比結(jié)果可知,基于Harris角點特征的匹配策略容易受背景中灰度相似目標的干擾。而基于SIFT特征的匹配策略對于劇烈的非剛性形變和灰度相似目標干擾,都具有較強的魯棒性。

圖3 不同局部特征的匹配結(jié)果對比

在構(gòu)建目標模型與當前幀候選模型的相似度矩陣時,通過引入距離約束來充分考慮特征點的空間位置信息,有效提高了抑制背景干擾的能力,降低了誤匹配的概率。需要特別說明的是,由于聯(lián)合匹配策略是通過整體匹配最優(yōu)的原則來確定特征點之間的匹配關(guān)系,而不是點到點的嚴格匹配,因此這里所說的誤匹配是指目標模板上的特征點匹配到當前幀背景上的特征點。為了驗證引入距離約束對提高匹配精度的有效性,進行如下對比。同樣,為了保證實驗對比的公平性,本文聯(lián)合匹配策略所使用的特征檢測子與原始聯(lián)合匹配策略一樣,均使用Harris角點檢測子。如圖4所示。

圖4 距離約束對匹配結(jié)果的影響

傳統(tǒng)的SIFT特征匹配追求點到點的嚴格匹配,這對于剛體目標來說一般會得到精度較高的匹配結(jié)果。對于非剛體目標,由于目標不斷發(fā)生著嚴重的非剛體形變,使用傳統(tǒng)的SIFT特征匹配將難以得到足夠的特征匹配點并容易產(chǎn)生誤匹配。對此,本文首次將改進的聯(lián)合匹配策略應用到SIFT特征匹配中。圖5(a)為使用傳統(tǒng)SIFT特征匹配策略的匹配結(jié)果,由于劇烈的非剛性形變使得成功匹配的特征點數(shù)量很少,且容易產(chǎn)生誤匹配。圖5(b)為使用本文聯(lián)合匹配策略的匹配結(jié)果,成功匹配的特征點數(shù)量很多,且沒有產(chǎn)生誤匹配。

圖5 特征匹配策略對比

在特征聯(lián)合匹配完成后,根據(jù)特征點集分布的離散程度來確定最終的跟蹤結(jié)果。本文以中心坐標(x,y)和目標尺度(h,w)來描述跟蹤結(jié)果。假設(shè)目標的初始位置和尺度分別為為所有特征點的坐標均值。目標在當前幀的坐標位置為)為特征聯(lián)合匹配得到的特征點坐標的均值。

當目標的尺度發(fā)生變化時,其內(nèi)部特征點坐標的方差也相應發(fā)生變化,目標縮小時方差隨之變小,目標變大時方差隨之變大。據(jù)此,可通過特征點坐標方差之間的比例關(guān)系將當前目標的尺度描述為(σxkh0/σx0,σykw0/σy0)。其中,(σx0,σy0)為模板特征點坐標的方差,(σxk,σyk)為聯(lián)合匹配所得特征點坐標的方差。圖6(a)為特征聯(lián)合匹配的結(jié)果,圖6(b)為目標跟蹤結(jié)果的最終描述。

圖6 跟蹤結(jié)果的最終描述

3.2 算法步驟

本文算法步驟的具體描述如下。

步驟1 在初始幀手動選擇目標模板,并提取目標模板的SIFT特征來構(gòu)建目標的表觀模型

步驟2 讀入新的視頻幀,并在當前搜索區(qū)域內(nèi)提取SIFT特征來構(gòu)建當前搜索區(qū)域的表觀模型

步驟3 依據(jù)聯(lián)合匹配策略,對提取的SIFT特征進行聯(lián)合匹配。

步驟4 依據(jù)特征聯(lián)合匹配的結(jié)果,確定目標的位置和尺度,并輸出當前幀的跟蹤結(jié)果。

步驟5 對目標的位置和尺度信息進行更新,并反饋到步驟2,進行下一幀的跟蹤。

4 實驗結(jié)果與分析

本文的仿真環(huán)境為:Intel G1610CPU,2G內(nèi)存,Windows XP系統(tǒng),MATLAB 7.12.0。對6組常用的非剛體目標視頻序列進行了跟蹤測試,并與目前優(yōu)秀的算法進行了對比分析,包括PLS[3],LOT[4]和TUJM[12]。目標的真實位置和尺度通過手工標定得到,圖7所示為對非剛體目標進行標定的樣例。為了便于對比分析,且保持結(jié)論的一般性,本文在測試算法性能時,目標模板的初始化是相同的。

圖7 非剛體目標標定樣例

4.1 Cartoon視頻序列

如圖8(a)所示,本段視頻序列中的運動目標在形狀、尺度和外觀上都發(fā)生著快速、劇烈的變化。PLS算法不能適應目標的快速變化以及背景特征的干擾,很快便丟失目標(從第25幀開始)。LOT算法在目標急速運動時也出現(xiàn)了丟失目標的情況(25~95幀)。TUJM算法和本文算法采用聯(lián)合匹配策略進行特征匹配,使得算法能夠適應目標的快速變化。相比TUJM算法,本文算法提取的SIFT特征點數(shù)目更多且更加穩(wěn)定,匹配結(jié)果更加準確。

4.2 Skaters視頻序列

本組實驗包含2組視頻(Skater1序列和Skater2序列)。其中Skater1視頻序列的跟蹤結(jié)果如圖8(b)所示。PLS算法能夠有效地抑制背景元素,但是跟蹤框逐漸收斂到了目標的中心位置。LOT算法在目標形變劇烈的情況下,跟蹤結(jié)果也出現(xiàn)較大偏差,如第88幀。TUJM算法和本文算法都實現(xiàn)了對目標的有效跟蹤,本文算法在尺度適應上具有更大優(yōu)勢。相比Skater1視頻序列,Skater2視頻序列的跟蹤場景更加復雜,不但有大量與目標特征相似的背景元素的干擾(225幀),而且有跟蹤視角的快速切換(從373~374幀),如圖8(c)所示。其他3種算法顯然不能夠有效地解決這些困難,而本文算法成功地完成了跟蹤任務。

4.3 Dancers視頻序列

本組實驗的2組視頻展示了2種風格不同的舞蹈(Dancer1序列和Dancer2序列),如圖8(d)和圖8(e)所示。Dancer1視頻序列的跟蹤場景較為簡單,但目標依然存在尺度和外觀的不斷變化,本文算法相比其他3種算法能夠更加有效地處理這些難題。相比Dancer1視頻序列,Dancer2視頻序列中目標的形變以及尺度變化更加快速、劇烈。PLS算法不能正確地適應目標的尺度變化。LOT算法能夠自動估計目標中存在的局部無序特征(local disorder,LD),并利用這些特征信息對目標實施有效的跟蹤,得到了較為準確的跟蹤結(jié)果。TUJM算法由于提取的Harris角點特征不具有尺度不變性,在目標形變劇烈的時候,匹配的特征點會明顯減少,造成跟蹤漂移(57~60幀)。本文算法提取的SIFT特征點具有良好的尺度不變性,因此在目標尺度變化劇烈的情況下,依然能夠?qū)δ繕藢嵤蚀_、魯棒的跟蹤。

圖8 跟蹤算法性能的定性比較

4.4 Deer視頻序列

如圖8(f)所示,本段視頻序列的背景特征與目標特征十分相似,且目標運動速度很快。LOT算法由于不能適應目標的快速運動和抑制背景特征的干擾,導致跟蹤框很快發(fā)散。PLS算法和TUJM算法由于不能正確地區(qū)分目標特征和背景特征,導致跟蹤出現(xiàn)較大偏差。而本文算法采用的SIFT特征在匹配時能夠很好地抑制背景元素的干擾,匹配結(jié)果更加準確。

4.5 定量分析

為了定量地評價跟蹤算法的性能,本文采用中心位置誤差和覆蓋率2項標準來對以上4種算法的跟蹤結(jié)果進行比較。圖9和圖10分別展示了各個算法在跟蹤視頻序列時的中心位置誤差和覆蓋率,同時表1和表2給出了各個算法的平均中心誤差和平均覆蓋率(其中,粗體展示的是最優(yōu)結(jié)果,粗斜體展示的是次優(yōu)結(jié)果)。由定量分析可知,PLS算法的跟蹤誤差最大,覆蓋率最低;TUJM算法和LOT算法在個別視頻序列下的跟蹤誤差較大,覆蓋率較低;而本文算法在各個視頻序列下的跟蹤結(jié)果都比較理想。

圖9 中心位置誤差比較

表1 目標平均中心位置誤差比較

表2 目標平均覆蓋率比較

PLS算法本質(zhì)上屬于基于分類的跟蹤算法,通過對前景元素和背景元素進行采樣并在線更新,構(gòu)建一個魯棒的分類器。該算法對剛體目標的跟蹤性能較好,但是在跟蹤非剛體目標時,很容易將跟蹤框收斂到目標的局部位置。LOT算法通過將目標的表觀信息和空間信息進行有效融合,提高了對非剛體目標的跟蹤性能。但是當目標形變劇烈或是受到大量與目標特征相似的背景元素干擾時,跟蹤性能明顯下降,如圖9和圖10(a)和圖10(f)所示。TUJM算法采用Harris算子進行關(guān)鍵點檢測,并采用灰度特征進行描述,能夠較好地適應非剛體目標的劇烈形變。但是Harris角點最大的缺陷在于其不具有尺度不變性,使得該算法提取的特征點不夠穩(wěn)定,特征點有時會集中在目標的局部位置,而且僅用灰度特征來描述關(guān)鍵點,很容易受到背景相似特征的干擾。相較于參考算法,本文采用SIFT特征對關(guān)鍵點進行描述,并有效利用了特征點的空間位置信息,使得該算法對目標的尺度變化、非剛性形變及背景干擾都具有較強的魯棒性,最終取得了更加準確的跟蹤結(jié)果。

6 結(jié) 論

針對非剛體目標的魯棒跟蹤問題,本文提出了一種利用SIFT特征聯(lián)合匹配的非剛體目標跟蹤算法。首先提取目標的SIFT特征點對目標模型進行描述,然后利用改進的聯(lián)合匹配策略實現(xiàn)SIFT特征的匹配,最后根據(jù)匹配結(jié)果確定目標的位置和尺度。與原始的聯(lián)合匹配策略相比,本文在特征點的描述和相似度矩陣的構(gòu)造上都進行了改進,并通過詳細的實驗對比分析,驗證了改進聯(lián)合匹配策略的優(yōu)勢。相較于傳統(tǒng)的SIFT匹配算法不適用于非剛體目標跟蹤的問題,改進后的SIFT聯(lián)合匹配算法能夠很好地適應目標的非剛性形變,且對目標的尺度和旋轉(zhuǎn)變化以及背景干擾,都具有較強的魯棒性。通過與目前優(yōu)秀的算法(stateof-the-art)進行對比,可以發(fā)現(xiàn)本文算法在跟蹤精度和穩(wěn)定性方面都具有較為出色的表現(xiàn)。需要指出的是:①本文算法在對更為復雜的背景條件和發(fā)生遮擋情況下目標的跟蹤性能有待提高。②對SIFT特征點進行有效的在線更新也是影響跟蹤性能的一個關(guān)鍵問題。下一步工作將著重解決這2個問題。

[1]Wu Y,Lim J,Yang M H.Online object tracking:a benchmark[C]∥Proc.of the Computer Vision and Pattern Recognition,2013:2411-2418.

[2]Comaniciu D,Ramesh V,Meer P.Real-time tracking of nonrigid objects using mean shift[C]∥Proc.of the Computer Vision and Pattern Recognition,2000:142-149.

[3]Qing W,F(xiàn)eng C,Wen L X,et al.Object tracking via partial least squares analysis[J].IEEE Trans.on Image Processing,2012,21(10):4454-4465.

[4]Shaul O,Aharon B,Dan L,et al.Locally orderless tracking[C]∥Proc.of the Computer Vision and Pattern Recognition,2012:1940-1947.

[5]Kass M,Witkin A,Terzopoulos D.Snakes:active contour models[J].International Journal of Computer Vision,1988,1(4):

321-331.

[6]Xiao C,Gan J,Hu X.Fast level set image and video segmentation using new evolution indicator operators[J].The Visual Computer,2013,29(1):27-39.

[7]Adam A,Rivlin E,Shimshoni I.Robust fragments-based tracking using the integral histogram[C]∥Proc.of the Computer Vision and Pattern Recognition,2006:798-805.

[8]Nejhum S M S,Ho J,Yang M H.Online visual tracking with histograms and articulating blocks[J].Computer Vision and Image Understanding,2010,114(8):901-914.

[9]Harris C,Stephens M.A combined corner and edge detector[C]∥Proc.of the Fourth Alvey Vision Conference,1988:147-151.

[10]Lowe D.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.

[11]Hare S,Saffari A,Torr P H S.Efficient online structured output learning for keypoint-based object tracking[C]∥Proc.of the Computer Vision and Pattern Recognition,2012:1894-1901.

[12]Yu W S,Hou Z Q,Tian X H,et al.Non-rigid object tracking using joint matching of local features[J].Journal of Xidian U-niversity,2014,41(6):183-189.(余旺盛,侯志強,田孝華,等.利用局部特征聯(lián)合匹配的非剛體目標跟蹤[J].西安電子科技大學學報,2014,41(6):183-189.)

[13]Kuhn H.The Hungarian method for assignment problem[J].

Naval Research Logistics,2005,2(1):7-21.

E-mail:hou-zhq@sohu.com

黃安奇(1988-),男,碩士研究生,主要研究方向為視覺跟蹤。

E-mail:13319270512@163.com

余旺盛(1985-),男,博士研究生,主要研究方向為圖像分割、視覺跟蹤。

E-mail:xing_fu_yu@sina.com

劉 翔(1990-),男,碩士研究生,主要研究方向為視覺跟蹤。

E-mail:liu_xiang000@126.com

Non-rigid object tracking based on joint matching of SIFT features

HOU Zhi-qiang,HUANG An-qi,YU Wang-sheng,LIU Xiang
(Information and Navigation Institute,Air Force Engineering University,Xi’an 710077,China)

To solve the problems in non-rigid object tracking,such as the significant and rapid variation in shape as well as appearance,an efficient tracking algorithm based on joint matching of SIFT features is proposed in this paper.Firstly,local SIFT key points of the object template and the current searching area are detected and described.Then,the key points are matched via the improved joint matching strategy,and the right matching pairs are picked out.Finally,the object’s location and size are calculated according to the matching results.When constructing the similarity matrix,the improved joint matching strategy exploits the rotation and scale invariance of SIFT features,and considers the spatial information of the key points,which effectively enhances the feature matching accuracy.This paper successfully introduces the improved matching strategy to the SIFT matching tracking,which overcomes the defect of the traditional SIFT matching algorithm in non-rigid object tracking.The experimental results indicate that the proposed algorithm is robust to object’s non-rigid deformation,scale change and background distraction.

visual tracking;non-rigid object;SIFT feature;joint matching

TP 391.4

A

10.3969/j.issn.1001-506X.2015.06.29

侯志強(1973-),男,教授,博士,主要研究方向為圖像處理、計算機視覺和信息融合。

1001-506X(2015)06-1417-07

2014-01-21;

2014-06-27;網(wǎng)絡(luò)優(yōu)先出版日期:2014-11-05。

網(wǎng)絡(luò)優(yōu)先出版地址:http://www.cnki.net/kcms/detail/11.2422.TN.20141105.1633.015.html

國家自然科學基金(61175029,61473309);陜西省自然科學基金(2011JM8015)資助課題

猜你喜歡
剛體尺度模板
鋁模板在高層建筑施工中的應用
鋁模板在高層建筑施工中的應用
差值法巧求剛體轉(zhuǎn)動慣量
財產(chǎn)的五大尺度和五重應對
車載冷發(fā)射系統(tǒng)多剛體動力學快速仿真研究
宇宙的尺度
太空探索(2016年5期)2016-07-12 15:17:55
鋁模板在高層建筑施工中的應用
城市綜改 可推廣的模板較少
剛體定點轉(zhuǎn)動的瞬軸、極面動態(tài)演示教具
物理實驗(2015年10期)2015-02-28 17:36:56
9
乐安县| 祁阳县| 永胜县| 东源县| 神池县| 揭西县| 精河县| 金寨县| 增城市| 九龙坡区| 东乡县| 年辖:市辖区| 徐汇区| 兴山县| 佛山市| 中江县| 潼南县| 南漳县| 旌德县| 离岛区| 南岸区| 兰溪市| 石嘴山市| 榕江县| 漳州市| 离岛区| 德清县| 通山县| 伽师县| 南通市| 柘城县| 乌拉特前旗| 张家口市| 洞口县| 仲巴县| 营口市| 莆田市| 安徽省| 乌拉特中旗| 文水县| 临夏县|