韓錕 楊窮千
摘? ?要:為解決相關(guān)濾波(Discriminative Correlation Filter,DCF)算法在快速運動、遮擋、尺度變化等復(fù)雜情景下的跟蹤失敗問題,提出一種融合運動狀態(tài)信息的高速相關(guān)濾波目標(biāo)跟蹤算法. 在傳統(tǒng)DCF算法基礎(chǔ)上做出以下改進:(1)在跟蹤框架中融入卡爾曼(Kalman)濾波器,利用目標(biāo)運動狀態(tài)信息對預(yù)測運動軌跡進行修正,以解決目標(biāo)復(fù)雜運動時易跟丟問題,提高跟蹤精度;(2)訓(xùn)練一個獨立的尺度相關(guān)濾波器進行目標(biāo)尺度預(yù)測,并利用主成分分析法(Principal Component Analysis,PCA)進行特征降維處理,提高跟蹤速度;(3)提出一種高置信度更新策略判斷是否對位置濾波器進行模板更新,以及是否采用Kalman濾波器預(yù)測位置作為目標(biāo)位置. 最后在OTB-100數(shù)據(jù)集上進行算法測試,提出算法平均精度與成功率分別達到74.8%與69.8%,平均幀率為84.37幀/s. 相較其他幾種主流算法,本文算法有效提高跟蹤性能,并保證了跟蹤速度,滿足實時性要求,在遮擋、背景模糊、運動模糊等復(fù)雜情況下能夠保持良好的跟蹤效果.
關(guān)鍵詞:目標(biāo)跟蹤;相關(guān)濾波;卡爾曼濾波;尺度估計;高置信度更新
中圖分類號:TP391? ? ? ? ? ? ? ? ? ? ? 文獻標(biāo)志碼:A
Abstract:In order to solve the problem of tracking failure caused by complex scenarios such as fast motion, occlusion and scale variation, a high-speed correlation filtering target tracking algorithm integrating motion state information is proposed. This paper makes three improvements based on the traditional Discriminative Correlation Filter: (1) The Kalman filter is added to the tracking process to modify the predicted position by using the motion state information, so as to deal with the tracking failure caused by fast motion and improve the tracking accuracy; (2) A separate filter for scale estimation is learned and the PCA method for dimension reduction of features is used to improve the tracking speed. (3) A high-confidence update strategy is proposed to determine whether the position filter is updated and whether the predicted position is transferred to Kalman filter for correction. The algorithm is tested on OTB-100 platform with several state-of-the-art tracking algorithms. Experiments show that our algorithm's average precision and success rate can reach 74.8% and 69.8%, respectively, and the average speed is 84.37 frames per second. Compared with other algorithms, the proposed algorithm can effectively improve the tracking performance, guarantee the tracking speed, and? keep good tracking effect under complex conditions such as occlusion, ambiguous background and fast motion.
Key words:object tracking;correlation filter;Kalman filter;scale estimation;high-confidence update strategy
目標(biāo)跟蹤技術(shù)是計算機視覺領(lǐng)域中的重要研究課題,被廣泛應(yīng)用于視頻監(jiān)控、人機交互、機器人等領(lǐng)域. 近年來,目標(biāo)跟蹤方法研究從傳統(tǒng)的光流法、均值漂移、粒子濾波等跟蹤算法向相關(guān)濾波與深度學(xué)習(xí)的方向發(fā)展. Bolme等[1]提出利用圖像灰度特征的輸出平方誤差最小濾波器(Mosse)將相關(guān)濾波引入跟蹤領(lǐng)域,突破了傳統(tǒng)跟蹤方法的束縛,以極高的準(zhǔn)確性及運行速度受到廣泛關(guān)注. 但該方法在訓(xùn)練分類器時只能獲取有限的訓(xùn)練樣本,在此基礎(chǔ)上,核循環(huán)結(jié)構(gòu)跟蹤器[2](CSK)利用循環(huán)移位實現(xiàn)稠密采樣,顯著提高訓(xùn)練樣本數(shù)量. 為構(gòu)建更準(zhǔn)確的目標(biāo)表征模型,研究人員將梯度直方圖[3](HOG)、顏色名 [4](CN),顏色直方圖[5](DAT)等人為特征代替灰度特征作為訓(xùn)練相關(guān)濾波器的顯著特征,提高了算法跟蹤穩(wěn)健性. 為更進一步提高濾波器判別力,多特征融合類[6-7]方法、深度學(xué)習(xí)類[8-9]方法開始出現(xiàn),Bhat等[10]提出的釋放深度特征的能量(UPDT)算法將深淺層特征分而治之,并通過最優(yōu)化融合,得到最優(yōu)定位結(jié)果,此方法有效地提高了算法跟蹤性能,但由于計算數(shù)據(jù)量的增大導(dǎo)致跟蹤速度大幅度下降.
跟蹤過程中在對目標(biāo)進行準(zhǔn)確定位的同時,還需保證跟蹤尺度與目標(biāo)尺度的一致性,自適應(yīng)尺度變化核相關(guān)濾波器[11](Samf)與判別式尺度空間跟蹤器[12](DSST)分別提出尺度池與尺度金字塔的思想進行目標(biāo)尺度估計,提高算法跟蹤成功率. 這兩種尺度估計策略被廣泛應(yīng)用于后續(xù)跟蹤算法[7-9]中. 此外在跟蹤過程中出現(xiàn)嚴(yán)重遮擋、形變等干擾時,目標(biāo)表征發(fā)生變化,易出現(xiàn)跟蹤漂移現(xiàn)象,需及時對跟蹤結(jié)果優(yōu)劣進行判斷并重新確定目標(biāo)位置. Wang等[13]提出將平均峰值相關(guān)能量APEC(Average Peak-to-CorRelation Energy)與響應(yīng)圖最大峰值Fmax作為模型置信度判定指標(biāo),決定是否進行目標(biāo)表征模板更新,有效抑制跟蹤框漂移對跟蹤精度的影響. Ma等[14]在跟蹤中融入檢測算法,判定跟蹤失敗時,對目標(biāo)進行重檢測,確定目標(biāo)正確位置,以保證算法長時性的跟蹤; 熊昌鎮(zhèn)等[15]將重檢測與上下文信息相融合提高算法穩(wěn)定性.
上述基于相關(guān)濾波跟蹤算法的改進都取得了較好的跟蹤效果,但同時犧牲了跟蹤速度. 而卡爾曼濾波器能夠綜合利用目標(biāo)運動狀態(tài)信息對目標(biāo)位置進行估計,且相較于多特征融合,深度卷積特征描述計算成本低. 因此本文提出將卡爾曼濾波器引入相關(guān)濾波框架,彌補其在由遮擋、超出視野等因素造成的目標(biāo)丟失情況下跟蹤性能的不足,提高跟蹤精度,保證跟蹤速度.
基于以上分析,本文提出一種融合運動狀態(tài)信息的高速目標(biāo)跟蹤算法,具體改進如下:(1)引入Kalman濾波算法對目標(biāo)運動狀態(tài)進行估計,在相關(guān)濾波跟蹤失敗時修正預(yù)測位置,提高算法跟蹤精度;(2)針對尺度變化問題,訓(xùn)練兩個獨立的濾波器,即位置濾波器和尺度濾波器,分別實現(xiàn)目標(biāo)的位置與尺度預(yù)測,并采用PCA分解對特征進行降維提高跟蹤速度;(3)提出一種高置信度更新策略,采用最大響應(yīng)Fmax與APEC兩個指標(biāo)衡量外觀表征模型置信度,當(dāng)指標(biāo)同時達到更新條件時更新位置濾波器,反之則不更新,且將卡爾曼濾波預(yù)測位置作為新一幀目標(biāo)位置. 通過對OTB-100數(shù)據(jù)集實驗測試,證明本文算法相較于其他主流算法跟蹤精度高,且具有顯著實時性優(yōu)勢.
1? ?相關(guān)濾波基本原理
傳統(tǒng)DCF算法原理為通過給定的一組目標(biāo)表征樣本,學(xué)習(xí)一個最優(yōu)的相關(guān)濾波器進行相似度度量,來尋找新一幀中的目標(biāo)位置. DCF算法利用循環(huán)矩陣特性進行密集采樣,在提高算法精度的同時極大的降低了計算復(fù)雜度,同時通過在傅里葉域進行操作計算,使得訓(xùn)練與檢測過程更加高效. DCF跟蹤算法主要包括分類器訓(xùn)練、目標(biāo)位置快速預(yù)測、參數(shù)更新3部分.
1.1? ?分類器訓(xùn)練
相關(guān)濾波算法采用嶺回歸分類器進行位置預(yù)測,利用循環(huán)移位獲取訓(xùn)練樣本,提取HOG特征,通過構(gòu)建最小化代價函數(shù)訓(xùn)練得到最優(yōu)濾波器h.
1.2? ?快速檢測
為了更加精確地檢測出目標(biāo)位置,DCF以t-1幀目標(biāo)位置為中心采集候選區(qū)域所有測試樣本,通過分類器測試計算其與目標(biāo)區(qū)域相似度,得到響應(yīng)輸出為:
1.3? ?參數(shù)更新
為保證跟蹤濾波器的穩(wěn)健性與準(zhǔn)確性,相關(guān)濾波器需在每一幀以固定比例對模型參數(shù)進行更新,以適應(yīng)跟蹤過程中目標(biāo)可能具有的平面旋轉(zhuǎn)、形變等變化.
2? ?算? ?法
本文針對DCF算法單一特征描述魯棒性不強,無法應(yīng)對目標(biāo)尺度大幅度變化,在發(fā)生快速運動、運動模糊、遮擋等情境下跟蹤失敗問題,提出一種融合運動狀態(tài)信息的高速相關(guān)濾波跟蹤方法. 算法流程如圖1所示,主要包括3部分:1)卡爾曼修正;2)快速尺度估計;3)高置信度模板更新. 為保證算法跟蹤速度,本文采用PCA特征降維后的HOG特征對目標(biāo)進行描述,首先利用位置濾波器與尺度濾波器在候選區(qū)域提取低維度特征對目標(biāo)位置與尺度進行估計,并將預(yù)測位置作為觀測值構(gòu)建卡爾曼濾波器;再通過高置信度指標(biāo)對位置預(yù)測結(jié)果可靠性進行判斷,若滿足置信度要求,則更新位置濾波器模板,反之不進行模板更新,且將卡爾曼濾波器估計結(jié)果作為目標(biāo)新位置,提高定位精度.
2.1? ?卡爾曼修正
相關(guān)濾波類算法中沒有利用目標(biāo)的運動狀態(tài)信息進行位置預(yù)測. 而Kalman濾波是一種對隨機動態(tài)系統(tǒng)狀態(tài)進行最優(yōu)估計的方法,聯(lián)合目標(biāo)速度與加速度等信息對下一幀位置進行預(yù)測,當(dāng)目標(biāo)發(fā)生快速運動、運動模糊、遮擋等情況時,能更準(zhǔn)確地預(yù)測出目標(biāo)位置[17],該方法計算成本低,能實現(xiàn)目標(biāo)快速跟蹤. 本文算法中將相關(guān)濾波的預(yù)測位置作為觀測值構(gòu)建卡爾曼濾波器,以修正目標(biāo)運動軌跡,在不影響跟蹤速度的前提下提高跟蹤精度.
卡爾曼濾波器的預(yù)測思想為通過構(gòu)建目標(biāo)動力學(xué)模型,聯(lián)合上一幀估計值對目標(biāo)當(dāng)前幀狀態(tài)預(yù)測,并將當(dāng)前幀觀測值作為反饋對預(yù)測狀態(tài)進行修正,得到最優(yōu)估計. 在第一幀初始化Kalman濾波器,獲取目標(biāo)中心點真實坐標(biāo)與坐標(biāo)軸上的速度分量構(gòu)建初始狀態(tài)向量,Kalman濾波器兩個狀態(tài)方程為:
2.2? ?特征降維與尺度估計
2.2.1? ?特征降維
在DCF算法中,提取HOG特征(33維)對目標(biāo)進行描述. 為提高算法跟蹤速度,本文提出對特征進行降維處理. 降維問題可表述為對當(dāng)前幀d維表征模型ut找到一個合適的降維映射矩陣Pt([d][~] × d),進而得到新的[d][~]維的特征描述向量[u][~]t . 通過對當(dāng)前模型重建誤差最小化構(gòu)造[d][~] × d映射矩陣Pt .
2.2.2? ?尺度估計
在DCF算法中,目標(biāo)跟蹤框的大小是恒定不變的,運動過程中,目標(biāo)尺度變大,固定尺寸的目標(biāo)框只能獲得目標(biāo)局部特征,而目標(biāo)尺度變小時,跟蹤框內(nèi)背景信息比例增大,將對目標(biāo)表征信息產(chǎn)生干擾. 本文借鑒DSST[12]算法,構(gòu)建一個一維尺度濾波器,單獨對目標(biāo)尺度進行預(yù)測,自適應(yīng)調(diào)整目標(biāo)框的大小.
尺度濾波器構(gòu)建訓(xùn)練樣本ft,scale的思路為:以位置濾波器的預(yù)測位置為中心,通過放縮提取不同大小的多尺度圖像塊In,構(gòu)建含有S個尺度的金字塔,如圖4所示,n∈-,…,,對每一層圖像塊In提取[d][~]s維的HOG特征. 尺度等級為n的訓(xùn)練樣本ft,scale是In的[d][~]s維特征描述.
本文算法中,位置濾波器特征維度[d][~]h = 18,尺度濾波器特征維度[d][~]s = 18,尺度等級S = 17. 由圖5可知,本文算法能夠根據(jù)目標(biāo)尺度變化自適應(yīng)調(diào)整目標(biāo)框尺度大小,比KCF算法跟蹤性能有了較大提升.
2.3? ?自適應(yīng)更新
相關(guān)濾波跟蹤中需要對模型參數(shù)進行更新,使濾波器表征模型能夠持續(xù)保證對目標(biāo)外觀的良好刻畫. 而傳統(tǒng)相關(guān)濾波在進行模型更新時并不考慮跟蹤結(jié)果,直接在每一幀采用固定比例進行參數(shù)更新,這種機制在目標(biāo)遭遇嚴(yán)重遮擋、或目標(biāo)丟失等情況時,會將背景干擾信息引入模型,造成濾波器的污染,導(dǎo)致跟蹤漂移甚至跟蹤失敗. 如圖6(b)所示,目標(biāo)被部分遮擋時,輸出響應(yīng)圖出現(xiàn)多峰,容易造成誤判,導(dǎo)致跟蹤失敗.
因此必須制定合適的指標(biāo)對目標(biāo)快速檢測結(jié)果優(yōu)劣進行判斷,自行分析目標(biāo)是否遭遇發(fā)生遮擋、形變等復(fù)雜挑戰(zhàn),以決定模型是否進行更新. 本文提出采用Fmax、APEC兩個指標(biāo)對跟蹤結(jié)果置信度進行判斷,F(xiàn)max指位置濾波器的最大響應(yīng)值,APEC值反映響應(yīng)圖整體波動情況. 圖像中目標(biāo)越清晰,輸出響應(yīng)圖峰值越尖銳,APEC越大;反之目標(biāo)被遮擋或消失時,響應(yīng)圖噪聲變大,APEC驟減[13],其計算公式如下:
式中:Fmax、Fmin、Fres(m,n)分別指大小為M×N的響應(yīng)圖中的最大響應(yīng)值、最小響應(yīng)值,以及每一像素點所對應(yīng)的響應(yīng)值.
在當(dāng)前幀,若Fmax與APEC均以一定的比例超過其歷史幀均值時,可認為算法此時置信度高,能夠達到較好的跟蹤效果,進行位置濾波器模板更新;若不滿足要求,則認為算法在該幀跟蹤置信度低,可能出現(xiàn)跟蹤失敗情況,則不進行模型更新并利用卡爾曼濾波對運動軌跡進行修正[20].
通過實驗設(shè)計與分析,文中β1、β2分別設(shè)為0.7與0.4.
圖7為在不同更新策略下的算法跟蹤結(jié)果與輸出響應(yīng)圖. 如圖7所示,在第256幀時,目標(biāo)被完全遮擋,輸出響應(yīng)圖出現(xiàn)多峰狀態(tài),F(xiàn)max、APEC相比準(zhǔn)確定位時均大幅度降低,在本文更新策略(Proposed)中,濾波器將選擇不更新模型,防止濾波器被錯誤噪聲信息污染. 在275幀,目標(biāo)重新出現(xiàn),本文算法找到正確峰值,能夠恢復(fù)對目標(biāo)的準(zhǔn)確定位,而采用每幀更新機制(Proposed-NU)時,在275幀中峰值位置并不是目標(biāo)正確位置,即出現(xiàn)偽峰,定位失敗.
3? ?實驗及結(jié)果分析
為了評估本文改進算法的有效性,將算法對OTB-100(Object tracking benchmark)[21]數(shù)據(jù)集中100個視頻序列進行跟蹤性能評估. 相關(guān)參數(shù)設(shè)置為:特征提取子窗口大小系數(shù)padding=2,歸一化參數(shù)λ = 0.01;學(xué)習(xí)速率η = 0.01;候選尺度個數(shù)為S = 17;兩濾波器特征維度[d][~]h = 18,[d][~]s = 17;模型自適應(yīng)更新比例系數(shù)β1 = 0.7,β2 = 0.4;實驗環(huán)境為Intel Corei5 -6400 CPU,主頻2.7 GHz,內(nèi)存8 GB計算機,matlab2014a軟件平臺.
在目標(biāo)跟蹤過程中有許多因素會對跟蹤算法造成影響,為了對算法進行客觀評價,將挑戰(zhàn)性因素分為11種:光照變化(Illumation Variation,IV)、平面外旋轉(zhuǎn)(Out-of-Plane Rotation,OPR)、尺度變化(Scale Variation,SV)、運動模糊(Motion Blur,MB)、遮擋(Occlusion,OCC)、形變(Deformation,DEF)、快速運動(Fast Motion,F(xiàn)M)、平面內(nèi)旋轉(zhuǎn)(In-of-Plane Rotation,IPR)、超出視野(Out-of-View,OV)、背景模糊(Background Clutters,BC)、低分辨率(Low Resolution,LR).
本文共設(shè)計了兩組實驗:(1)對OTB-100數(shù)據(jù)庫中所有視頻序列進行定量分析,其中包括整體跟蹤性能、跟蹤速度測試以及應(yīng)對不同挑戰(zhàn)因素時算法跟蹤性能測試,同時與KCF(HOG)[3]、DSST(HOG+尺度)[12]、Samf(HOG+CN+尺度)[11]、fDSST(HOG+尺度)[19]、CN(CN)[4]、CSK(灰度特征)[2]6種常用的優(yōu)秀跟蹤算法進行比較. (2)數(shù)據(jù)集中選取10組目標(biāo)出現(xiàn)嚴(yán)重遮擋、快速運動、光照變化等復(fù)雜情景視頻定性分析算法跟蹤性能.
3.1? ?定量分析
定量測試的評估標(biāo)準(zhǔn)為距離精度(DP)與重疊精度(OP),閾值分別設(shè)置為20像素與50%. 其中距離精度是指目標(biāo)預(yù)測中心位置與標(biāo)定中心位置像素距離小于某一設(shè)定閾值的幀數(shù)與總幀數(shù)的百分比;重疊精度是指預(yù)測目標(biāo)框與標(biāo)定目標(biāo)框之間的重疊面積與總面積的比值超過某一設(shè)定重疊閾值的視頻幀數(shù)與總幀數(shù)的百分比[22].
3.1.1? ?整體跟蹤性能測試
實驗對100個包含所有挑戰(zhàn)因素的視頻進行整體性能測試,分析算法跟蹤性能與跟蹤速度. 圖8為7種算法跟蹤精度圖與成功率圖. 表1給出閾值為20像素與50%時距離精度與重疊精度及平均跟蹤速度.
由圖8、表1可知,本文算法跟蹤距離精度為74.8%,成功率為69.8%,均優(yōu)于其他6種算法,相比原始KCF分別提高5.4%和15.1%;本文算法平均跟蹤速度為84.37 fps,相較于跟蹤性能較好的DSST和Samf算法具有顯著的實時性優(yōu)勢,說明本文特征降維操作能夠有效降低計算量. 本文算法僅采用單一HOG特征構(gòu)建外觀模型,利用Kalman濾波進行軌跡修正,相較于采用雙重特征融合的Samf算法成功率提高3.8%,跟蹤性能更好,且計算速度快,能夠滿足實時性要求.
3.1.2? ?不同屬性下跟蹤性能測試
為進一步評估算法在不同場景下的跟蹤性能,本文將上述7種算法對11種不同屬性下視頻序列分別進行測試. 表2、表3給出閾值為20像素與50%時的距離精度與重疊精度時的對比結(jié)果. 由表2、表3可知,本文算法在不同挑戰(zhàn)下大都能達到最優(yōu)或次優(yōu)的跟蹤效果. 尤其在超出視野(OV)、運動模糊(MB)、低分辨率(LR)等狀況下表現(xiàn)優(yōu)異,說明Kalman濾波能夠很好地利用目標(biāo)運動狀態(tài)信息預(yù)測目標(biāo)位置,彌補相關(guān)濾波在目標(biāo)丟失時跟蹤性能的不足,在遮擋屬性下(OCC),本文算法跟蹤效果能夠媲美采用雙重特征的Samf算法,說明本文高置信度更新以及位置修正策略能夠有效提高跟蹤精度;在尺度變化屬性下(SV),本文算法精度與成功率均高于具有尺度估計性能的Samf、fDSST、DSST,說明本文降維特征能夠滿足位置估計與尺度估計需求. 綜上所述,本文算法在各種復(fù)雜場景下均能保證良好的跟蹤效果且魯棒性強. 但在背景模糊(BC)與光照變化(IV)情況下,本文算法由于只采用單一HOG特征,判別力弱,且在目標(biāo)發(fā)生旋轉(zhuǎn)時,將無法充分利用其運動狀態(tài)信息提高跟蹤準(zhǔn)確度,跟蹤性能有待提高.
3.2? ?定性分析
為更直觀地對算法跟蹤性能進行分析,本文選取10組具有復(fù)雜背景的典型視頻進行定性分析.圖9為5種算法的跟蹤對比結(jié)果,CSK、CN與其他算法性能差距較大,此處不比較. 如圖9 (a) (b)所示,目標(biāo)均具有尺度變化與形變特性,當(dāng)目標(biāo)尺度變大或變小時,不具有尺度估計性能的算法將逐漸丟失目標(biāo),而本文算法能夠穩(wěn)定調(diào)整目標(biāo)框大小,保持準(zhǔn)確跟蹤;在Football、Freeman1視頻中目標(biāo)具有平面內(nèi)、外旋轉(zhuǎn)特性,圖9(c)中318幀與 9(d)中187幀,目標(biāo)發(fā)生旋轉(zhuǎn),大部分算法目標(biāo)框偏移,而本文算法由于分析目標(biāo)運動狀態(tài)信息而能夠保持精確定位; 在9(e)(f)中目標(biāo)經(jīng)歷了完全遮擋、重新出現(xiàn)、背景信息干擾的過程,由圖9可知本文算法采用高置信度更新策略,外觀表征模型不引入背景信息,能夠在遮擋或背景干擾情況后找回跟蹤目標(biāo),保持持續(xù)性的準(zhǔn)確跟蹤,而其他算法均丟失目標(biāo)且無法重新定位. 圖9 (g)( h)中目標(biāo)在短時內(nèi)出現(xiàn)快速運動、旋轉(zhuǎn)、形變、運動模糊等挑戰(zhàn),其他算法目標(biāo)框發(fā)生震蕩無法確定目標(biāo)位置,而本文算法使用了目標(biāo)運動信息,能夠穩(wěn)定預(yù)測目標(biāo)位置. 圖9(i)Bird1中174幀,目標(biāo)經(jīng)歷了長時的消失狀態(tài),在200幀目標(biāo)重新出現(xiàn)時,只有本文算法能夠重新找回目標(biāo)繼續(xù)跟蹤. 圖9(j)Girl2屬于長時跟蹤,目標(biāo)經(jīng)歷了嚴(yán)重遮擋、背景模糊、尺度變化、旋轉(zhuǎn)等復(fù)雜挑戰(zhàn),由圖9可知,本文算法能夠保持對目標(biāo)的尺度與位置準(zhǔn)確估計.
4? ?結(jié)? ?論
針對傳統(tǒng)相關(guān)濾波算法在遮擋、快速運動、尺度變化等復(fù)雜情景下無法準(zhǔn)確定位的問題,本文提出一種融合運動狀態(tài)信息的高速相關(guān)濾波目標(biāo)跟蹤算法,構(gòu)建Kalman濾波器在相關(guān)濾波跟蹤失敗時,對其預(yù)測運動軌跡進行修正,并單獨訓(xùn)練一個尺度濾波器對目標(biāo)尺度進行估計,采用Fmax和APEC對跟蹤結(jié)果可靠性進行判斷,判定置信度滿足要求時才對位置模板進行更新,反之則不更新,并利用卡爾曼濾波器對預(yù)測位置進行修正.
為保證跟蹤速度,本文只采用單一HOG特征構(gòu)建目標(biāo)外觀表征模型并對特征進行降維處理,采用降維特征訓(xùn)練位置與尺度濾波器. 相對多特征、深度特征,該算法判別力不強,但通過實驗證明,其仍能有效提高跟蹤性能,在尺度變化、超出視野、遮擋、運動模糊等復(fù)雜情景下能夠保持穩(wěn)健跟蹤,具有較好的準(zhǔn)確性與魯棒性. 本文算法在OTB-100數(shù)據(jù)集平均跟蹤速度為84.37 fps,能夠滿足工程應(yīng)用實時性要求.
參考文獻
[1]? ? BOLME D S,BEVERIDGE J R,DRAPER B A,et al. Visual object tracking using adaptive correlation filters[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. San Francisco:IEEE Computer Society,2010:2544—2550.
[2]? ? HENRIQUES J F,RUI C,MARTINS P,et al. Exploiting the circulant structure of tracking-by-detection with kernels[C]// Processings of European Conference on Computer Vision. Florence:Springer-Verlag,2012:702—715.
[3]? ? HENRIQUES J F,CASEIRO R,MARTINS P,et al. High-speed tracking with kernelized correlation filters [J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2015,37(3):583—596.
[4]? ? DANELLJAN M,KHAN F S,F(xiàn)ELSBERG M. Adaptive color attributes for real-time visual tracking [C]//Proceedings of 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus:IEEE Computer Society,2014:1090—1097.
[5]? ? BERTINETTO L,VALMADRE J,GOLODETZ S,et al. Staple:complementary learners for real-time tracking [C]//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas:IEEE Computer Society,2016:1401—1409.
[6]? ? 李雙雙,趙高鵬,王建宇. 基于特征融合和尺度自適應(yīng)的干擾感知目標(biāo)跟蹤[J]. 光學(xué)學(xué)報,2017,37(5):0515005.LI S S,ZHAO G P,WANG J Y. Distractor-aware object tracking based on multi-feature fusion and scale-adaption [J]. Acta Optica Sinica,2017,37(5):0515005. (In Chinese)
[7]? ? 李聰,鹿存躍,趙珣,等. 特征融合的尺度自適應(yīng)相關(guān)濾波跟蹤算法[J]. 光學(xué)學(xué)報,2018,38(5):0515001.LI C,LU C Y,ZHAO X,et al. Scale adaptive correlation filter tracking algorithm based on feature fusion [J].Acta Optia Sinica,2018,38(5):0515001. (In Chinese)
[8]? ? DANELLJAN M,BHAT G,KHAN F S,et al. ECO:efficient convolution operators for tracking [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, Hawaii:IEEE Computer Society,2017:6931—6939.
[9]? ? MA C,HUANG J B,YANG X,et al. Robust visual tracking via hierarchical convolutional features [J]. IEEE Transactions on Pattern? Analysis and Machine Intelligence,2019,41(11):2709—2723.
[10]? BHAT G,JOHNANDER J,MARTIN D,et al. Unveiling the power of deep tracking [C]//European Conference on Computer Vision. Munich:Springer,Cham,2018:493—509.
[11]? LI Y,ZHU J K. A scale adaptive kernel correlation filter tracker with feature integration[C]//European Conference on Computer Vision. Zurich:Springer,Cham,2014:254—265.
[12]? DANWLLJAN M,HAGER G,KHAN F S. Accurate scale estimation for robust visual tracking [C]//British Machine Vision Conference.Nottingham:Springer,Cham,2014:65.1—65.11.
[13]? WANG M,LIU Y,HUANG Z. Large margin object tracking with circulant feature maps [C]//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu,Hawaii:IEEE Computer Society,2017:4800—4808.
[14]? MA C,YANG X,ZHANG C,et al. Long-term correlation tracking [C]// Computer Vision and Pattern Recognition. Boston:IEEE,2015:5388—5396.
[15]? 熊昌鎮(zhèn),盧顏,閆佳慶. 融合上下文和重定位的加權(quán)相關(guān)濾波跟蹤算法[J]. 光學(xué)學(xué)報,2019,39(4):0415004.XIONG C Z,LU Y,YAN J Q. Weighted correlation filter tracking based on context and relocation [J]. Acta Optica Sinica,2019,39(4):0415004. (In Chinese).
[16]? 熊昌鎮(zhèn),趙璐璐,郭芬紅. 自適應(yīng)特征融合的核相關(guān)濾波跟蹤算法[J]. 計算機輔助設(shè)計與圖形學(xué)學(xué)報,2017,29(6):1068-1074.XIONG C Z,ZHAO L L,GUO F H. Kernelized correlation filters tracking based on adaptive feature fusion [J]. Journal of Computer-Aided Design & Computer Graphics,2017,29(6):1068—1074. (In Chinese)
[17]? 曲云騰,李平康,杜秀霞. 基于Kalman預(yù)測的人體運動目標(biāo)跟蹤[J]. 計算機系統(tǒng)應(yīng)用,2011,20(1):137—140.QU Y T,LI P K,DU X X. Moving human target tracking based on Kalman prediction [J]. Computer Systems & Applications,2011,20(1):137—140. (In Chinese)
[18]? 田亞蕾,馬杰,楊楠. 結(jié)合核相關(guān)濾波和Kalman預(yù)測的運動目標(biāo)跟蹤[J]. 小型微型計算機系統(tǒng),2018,10(10):2330—2334.TIAN Y L,MA J,YANG N. Moving target tracking based on kernelized correlation filter and Kalman predicting [J]. Journal of Chinese Computer Systems,2018,10(10):2330—2334. (In Chinese)
[19]? DANWLLJAN M,HAGER G,KHAN F S,et al. Discriminative scale space tracking [J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2017,39(8):1561—1575.
[20]? 林彬,李映.基于高置信度更新策略的高速相關(guān)濾波跟蹤算法[J]. 光學(xué)學(xué)報,2019,39(4):0415003.LIN B,LI Y,High-speed correlation tracking based on high-confidence updating strategy [J]. Acta Optica Sinica,2019,39(4):0415003. (In Chinese)
[21]? WU Y,LIM J,YANG M. Object tracking benchmark [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(8):1561—1575.
[22]? 沈秋,嚴(yán)小樂,劉霖楓,等. 基于自適應(yīng)特征選擇的多尺度相關(guān)濾波跟蹤[J]. 光學(xué)學(xué)報,2017,37(5):0515001.SHEN Q,YAN X L,LIU L F,et al. Multi-scale correlation filtering tracker based on adaptive feature selection [J]. Acta Optica Sinica,2017,37(5):0515001.(In Chinese)