理政 伍悠 張建明
摘要:針對(duì)目標(biāo)跟蹤中因嚴(yán)重遮擋、變形、快速運(yùn)動(dòng)等因素導(dǎo)致的跟蹤失敗問(wèn)題,提出一種基于相關(guān)濾波的重檢測(cè)跟蹤算法。首先使用相關(guān)濾波算法Staple對(duì)目標(biāo)進(jìn)行位置估計(jì),然后構(gòu)造一個(gè)檢測(cè)濾波器對(duì)Staple算法跟蹤結(jié)果進(jìn)行置信度檢測(cè),將檢測(cè)分?jǐn)?shù)作為跟蹤結(jié)果的置信度評(píng)估結(jié)果。若檢測(cè)分?jǐn)?shù)小于給定閾值,則激活在線SVM分類(lèi)器對(duì)跟蹤結(jié)果進(jìn)行重檢測(cè)。同時(shí)用檢測(cè)濾波器對(duì)SVM分類(lèi)結(jié)果進(jìn)行檢測(cè),若檢測(cè)分?jǐn)?shù)大于Staple跟蹤算法檢測(cè)分?jǐn)?shù),則采用SVM的跟蹤結(jié)果。在基準(zhǔn)數(shù)據(jù)集OTB-2013上的實(shí)驗(yàn)結(jié)果表明,該算法精度達(dá)到80.2%,成功率達(dá)到60.6%,整體性能優(yōu)于其它6種對(duì)比算法。
關(guān)鍵詞:目標(biāo)跟蹤;相關(guān)濾波;重檢測(cè);檢測(cè)濾波器;置信度評(píng)估
DOI:10. 11907/rjdk. 192813
中圖分類(lèi)號(hào):TP312文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-7800(2020)010-0055-06
Abstract: In order to avoid tracking failure caused by severe occlusion, deformation, fast motion and other factors in object tracking, a re-detection tracking algorithm based on correlation filter is proposed. Firstly, we use the correlation filter algorithm Staple to estimate the target position, and then a detection filter is constructed to run to confidence test of the tracking results of the Staple algorithm. The detection score of the detection filter is used as the confidence evaluation of the tracking results. If the detection score is less than the given threshold, the online SVM classifier is activated to detect the tracking results again. For SVM classification results, we use a detection filter to make detection. If the detection score is greater than the detection score of the Staple, we employ SVM tracking results. Experimental results on the dataset OTB-2013 show that the proposed algorithm achieves an accuracy of 80.2% and a success rate of 60.6%, and the overall performance is better than the other six compared algorithms.
Key Words: object tracking; correlation filter; re-detection; detection filter; confidence evaluation
0 引言
視覺(jué)目標(biāo)跟蹤是計(jì)算機(jī)視覺(jué)領(lǐng)域一個(gè)發(fā)展迅速的研究方向,在機(jī)器人、視頻監(jiān)視、人機(jī)交互等方面有著廣泛應(yīng)用[1-3]。目標(biāo)跟蹤通常是指在給定初始狀態(tài)(位置和大小)下,估計(jì)目標(biāo)在圖像序列中的空間軌跡。但由于受到遮擋、變形、光照變化、快速運(yùn)動(dòng)和背景雜波等因素影響,在多幀背景下尋找相應(yīng)目標(biāo)區(qū)域仍是一個(gè)具有挑戰(zhàn)性的問(wèn)題。
根據(jù)目標(biāo)外觀建模的不同,跟蹤方法可分為生成式方法[4-6]和判別式方法[7-9]。生成式跟蹤方法通常在忽略背景信息的基礎(chǔ)上對(duì)目標(biāo)外觀進(jìn)行建模,容易在復(fù)雜場(chǎng)景中漂移,而判別式跟蹤方法則將跟蹤任務(wù)當(dāng)作一個(gè)二分類(lèi)目標(biāo),將目標(biāo)與周?chē)尘皡^(qū)分開(kāi)來(lái)。相關(guān)濾波算法是典型的判別式跟蹤算法,基于相關(guān)濾波的跟蹤算法通過(guò)使用循環(huán)矩陣和快速傅立葉變換實(shí)現(xiàn)了高效率的計(jì)算,近年來(lái)已在多個(gè)跟蹤數(shù)據(jù)集[10-12]上顯示了較高的準(zhǔn)確性和魯棒性。
Bolme等[13]最先將相關(guān)濾波應(yīng)用于目標(biāo)跟蹤中,并提出MOSSE算法。隨后,研究者們對(duì)MOSSE算法進(jìn)行了改進(jìn)。2012年,Henriques等[14]提出具有循環(huán)結(jié)構(gòu)的檢測(cè)跟蹤 (Circulant Structure of Tracking-by-detection with Kernel,CSK)算法,其在MOSSE基礎(chǔ)上引入核方法,并利用相鄰子窗口的循環(huán)結(jié)構(gòu),快速學(xué)習(xí)密集采樣下的目標(biāo)外觀模型。核相關(guān)濾波器(High-speed Tracking with Kernelized Correlation Filters, KCF)[15]是CSK的擴(kuò)展版本,通過(guò)使用HOG特征代替灰度特征,將核相關(guān)濾波器由單通道擴(kuò)展到多通道,顯著提升了跟蹤性能;Danelljan等[16-17]引入顏色屬性對(duì)CSK算法進(jìn)行改進(jìn),又提出一種判別尺度空間跟蹤器算法,以實(shí)現(xiàn)實(shí)時(shí)尺度自適應(yīng)跟蹤;Bertineto等[18]提出Staple (Sum of Template And Pixel-wise Learners)算法,將相關(guān)濾波器與全局顏色直方圖相結(jié)合,對(duì)目標(biāo)形變和顏色變化具有較好的魯棒性。盡管基于相關(guān)濾波的方法取得了一定成果,但仍存在以下問(wèn)題:基于相關(guān)濾波的跟蹤器一般會(huì)在第一幀提取樣本,訓(xùn)練一個(gè)濾波器模型,為了適應(yīng)目標(biāo)的外觀變化,會(huì)在上一幀預(yù)測(cè)目標(biāo)周?chē)崛颖緦?duì)濾波器模型進(jìn)行更新,但在實(shí)際跟蹤過(guò)程中,目標(biāo)受到快速運(yùn)動(dòng)、變形、嚴(yán)重遮擋等因素影響,很容易發(fā)生跟蹤漂移。如果跟蹤漂移無(wú)法得到及時(shí)糾正,將會(huì)污染濾波器模型,從而導(dǎo)致跟蹤失敗。針對(duì)該問(wèn)題,Kalal等[19]將跟蹤任務(wù)分成跟蹤、學(xué)習(xí)和檢測(cè)3個(gè)模塊。跟蹤模塊用于跟蹤目標(biāo);檢測(cè)模塊用于估計(jì)跟蹤模塊誤差,若誤差很大,則改正跟蹤結(jié)果;學(xué)習(xí)模塊在預(yù)測(cè)過(guò)程中不斷修正負(fù)樣本庫(kù),以提高檢測(cè)模塊修正精度。但該方法每一幀都需要檢測(cè)跟蹤結(jié)果,計(jì)算量太大。
因此,針對(duì)相關(guān)濾波框架發(fā)生跟蹤漂移無(wú)法糾正的問(wèn)題,本文在相關(guān)濾波算法Staple基礎(chǔ)上引入重檢測(cè)機(jī)制。首先重新訓(xùn)練一個(gè)檢測(cè)濾波器用來(lái)計(jì)算跟蹤結(jié)果置信度,以確定是否跟蹤失敗,然后訓(xùn)練一個(gè)在線SVM分類(lèi)器用于重檢測(cè),當(dāng)出現(xiàn)跟蹤漂移或跟蹤失敗的情況時(shí),利用SVM重新修正跟蹤目標(biāo)。在基準(zhǔn)數(shù)據(jù)集OTB-2013上的實(shí)驗(yàn)結(jié)果表明,本文算法在精度和成功率上優(yōu)于其它算法。
1 Staple跟蹤算法
KCF[15]、DSST[17]等相關(guān)濾波算法采用HOG特征表達(dá)目標(biāo),其對(duì)運(yùn)動(dòng)模糊和光照變化魯棒性強(qiáng),但對(duì)目標(biāo)快速變形和快速運(yùn)動(dòng)不敏感。Staple算法根據(jù)顏色直方圖對(duì)目標(biāo)形變具有魯棒性的特點(diǎn),將HOG特征與顏色直方圖相結(jié)合,利用兩種特征的互補(bǔ)性取得了較高的跟蹤精度,速度也達(dá)到80fps,所以本文選擇Staple作為基礎(chǔ)的相關(guān)濾波算法。Staple算法解決了兩個(gè)嶺回歸(ridge regression)問(wèn)題,分別訓(xùn)練兩個(gè)跟蹤模型,一個(gè)是相關(guān)濾波器模型,另一個(gè)是顏色直方圖(color histogram)模型。Staple算法最后得到結(jié)果是兩個(gè)模型分?jǐn)?shù)的線性組合,具體表達(dá)式如下:
1.1 相關(guān)濾波器模型
在Staple中,提取包含目標(biāo)及周?chē)畔⒌膱D像塊[f],通過(guò)對(duì)圖像塊進(jìn)行循環(huán)移位得到訓(xùn)練樣本,然后提取訓(xùn)練樣本的d維HOG特征訓(xùn)練相關(guān)濾波器[h]。[fl]代表第[l]維HOG特征向量,其中[l∈1,2,...,d]。通過(guò)最小化以下?lián)p失函數(shù)求得最優(yōu)濾波器[h]:
通過(guò)傅里葉變換將式(2)轉(zhuǎn)換到頻域進(jìn)行計(jì)算,可快速求得式(2)的解,如式(3)所示。
每一幀通過(guò)最小化損失函數(shù)誤差訓(xùn)練一個(gè)最優(yōu)濾波器,會(huì)導(dǎo)致計(jì)算量較大,從而影響跟蹤器速度。在相關(guān)濾波器算法中,采用線性差值方式更新每一幀的濾波器,計(jì)算方式如下:
目標(biāo)位置由最大分?jǐn)?shù)所在位置決定。
1.2 顏色直方圖模型
顏色直方圖模型是通過(guò)計(jì)算每個(gè)像素屬于目標(biāo)前景的概率得到的。給定輸入圖像[I],[HIO]、[HIB]分別表示前景區(qū)域和背景區(qū)域的顏色直方圖,[HIΩ(b)][HIΩ(b)]表示區(qū)域[Ω∈I]上的顏色直方圖[H]在第[b]個(gè)區(qū)間的統(tǒng)計(jì)個(gè)數(shù),其中[Ω∈{O,B}]。由貝葉斯分類(lèi)器[20]可得在像素[x]的目標(biāo)似然概率為:
通過(guò)計(jì)算顏色直方圖可得到前景先驗(yàn)概率[P(x∈O|I)]和背景先驗(yàn)概率[P(x∈B|I)],如式(7)、式(8)所示。
2 本文算法實(shí)現(xiàn)
2.1 算法描述
圖1給出了本文算法總框架。給定新一幀圖像,以上一幀估計(jì)的位置為中心裁剪搜索區(qū)域,即圖1的紅色矩形框區(qū)域;然后使用Staple算法預(yù)測(cè)目標(biāo)位置,詳細(xì)過(guò)程見(jiàn)本文第1節(jié);以Staple跟蹤算法估計(jì)的目標(biāo)位置為中心,按照上一幀中的目標(biāo)大小比例裁剪圖像塊,使用檢測(cè)濾波器[HD]計(jì)算圖像塊的置信度分?jǐn)?shù)[yHD],詳細(xì)過(guò)程見(jiàn)2.2節(jié)。當(dāng)置信度分?jǐn)?shù)小于閾值[T1]時(shí),激活SVM分類(lèi)器,在Staple算法預(yù)估的位置重新進(jìn)行檢測(cè),SVM分?jǐn)?shù)最大的地方就是目標(biāo)所在位置;在獲得檢測(cè)結(jié)果后,也重新使用檢測(cè)濾波器[HD]對(duì)SVM分類(lèi)器結(jié)果作一個(gè)置信度評(píng)估,如果檢測(cè)出的置信度分?jǐn)?shù)[y''HD>yHD],則采用SVM重檢測(cè)結(jié)果,否則還是采用Staple算法跟蹤結(jié)果,詳細(xì)過(guò)程見(jiàn)2.3節(jié)。
2.2 置信度評(píng)估
對(duì)目標(biāo)重檢測(cè)算法而言,提供一個(gè)有效的置信度指標(biāo)判斷目標(biāo)是否跟蹤失敗是至關(guān)重要的。與以往相關(guān)濾波算法使用最大響應(yīng)值評(píng)估跟蹤置信度不同,本文方法通過(guò)訓(xùn)練另一個(gè)檢測(cè)濾波器評(píng)估跟蹤結(jié)果。在相關(guān)濾波跟蹤算法中,包括第1.1節(jié)中的濾波器模型H,在訓(xùn)練時(shí)都會(huì)考慮目標(biāo)區(qū)域與目標(biāo)周?chē)纳舷挛男畔?,如圖2中的紅色矩形框區(qū)域,從而使訓(xùn)練得到的濾波器包含更多判別信息,有利于從背景中檢測(cè)出目標(biāo)。為了適應(yīng)跟蹤過(guò)程中目標(biāo)外觀的變化,濾波器模型還會(huì)以一定速率進(jìn)行更新,但這種更新方案只能維持目標(biāo)外觀的短期記憶。當(dāng)目標(biāo)出現(xiàn)遮擋或劇烈形變時(shí),算法容易產(chǎn)生漂移,使得濾波器學(xué)習(xí)到污染后的樣本導(dǎo)致錯(cuò)誤更新。本文檢測(cè)濾波器[HD]是用置信度最高的目標(biāo)區(qū)域特征訓(xùn)練得到的,如圖2中的黃色矩形框區(qū)域。當(dāng)跟蹤器確定新一幀目標(biāo)位置后,從新的目標(biāo)位置處提取核心目標(biāo)區(qū)域特征,使用訓(xùn)練好的檢測(cè)濾波器與提取的特征作卷積操作,將其響應(yīng)作為跟蹤器的結(jié)果置信度。檢測(cè)濾波器[HD]與濾波器H求解方式相同,不同的是檢測(cè)濾波器只提取目標(biāo)核心區(qū)域的HOG特征。
為防止檢測(cè)濾波器污染,本文并不是每一幀都更新檢測(cè)濾波器[HD],而是僅在跟蹤結(jié)果可信,即檢測(cè)濾波器響應(yīng)分?jǐn)?shù)[yHD>T2]時(shí)更新,從而使檢測(cè)濾波器可以長(zhǎng)期存儲(chǔ)目標(biāo)外觀。
2.3 目標(biāo)重檢測(cè)
在大多數(shù)時(shí)間,視頻幀都是跟蹤難度較低的簡(jiǎn)單幀,且相鄰視頻幀之間目標(biāo)外觀變化緩慢。相關(guān)濾波算法Staple針對(duì)目標(biāo)外觀變化不大的簡(jiǎn)單幀可以有效定位,但當(dāng)目標(biāo)出現(xiàn)遮擋、快速運(yùn)動(dòng)、嚴(yán)重變形、背景雜亂等外觀發(fā)生較大變化時(shí),Staple算法則會(huì)出現(xiàn)預(yù)測(cè)誤差。在誤差不斷積累時(shí),跟蹤器將會(huì)跟丟目標(biāo)。一個(gè)魯棒性強(qiáng)的跟蹤算法需要重檢測(cè)機(jī)制恢復(fù)對(duì)目標(biāo)的跟蹤,本文使用一個(gè)SVM分類(lèi)器用于目標(biāo)重檢測(cè)。
對(duì)于需要進(jìn)行重檢測(cè)的幀,首先在目標(biāo)周?chē)崛颖荆糜?xùn)練好的SVM分類(lèi)器模型參數(shù)[wSVM]獲取分類(lèi)分?jǐn)?shù)[score],公式如下:
在本文方法中,對(duì)新一幀先使用Staple算法確定目標(biāo)位置,然后用檢測(cè)濾波器[HD]計(jì)算置信度分?jǐn)?shù)[yHD],計(jì)算方式如式(5)所示。當(dāng)置信度分?jǐn)?shù)[yHD]小于預(yù)先定義的閾值[T1]時(shí),調(diào)用一個(gè)在線SVM分類(lèi)器進(jìn)行重檢測(cè)。值得注意的是,在得到重檢測(cè)的位置后,本文會(huì)重新作一個(gè)置信度評(píng)估,用檢測(cè)濾波器對(duì)SVM分類(lèi)器得到的位置進(jìn)行檢測(cè),當(dāng)?shù)玫降捻憫?yīng)分?jǐn)?shù)[y''HD]大于[yHD]時(shí),才采用重檢測(cè)得到的位置,否則還是采用Staple算法預(yù)測(cè)的位置。以下為基于相關(guān)濾波的重檢測(cè)跟蹤算法流程。
輸入:第一幀目標(biāo)位置p0。
輸出:第t幀目標(biāo)位置pt 。
For t = 2: n
目標(biāo)位置估計(jì)
1. 在pt-1周?chē)眉臬@得第t幀的感興趣區(qū)域,分別用式(5)、式(9)計(jì)算濾波器響應(yīng)和顏色直方圖響應(yīng)分?jǐn)?shù)。
2. 使用式(1)計(jì)算濾波器響應(yīng)和顏色直方圖響應(yīng)分?jǐn)?shù)加權(quán)和,預(yù)估目標(biāo)位置[pt]。
置信度評(píng)估
3.在預(yù)估位置裁剪目標(biāo)大小的圖像塊,使用檢測(cè)濾波器[HD],根據(jù)式(5)計(jì)算置信度響應(yīng)分?jǐn)?shù)[yHD]。
目標(biāo)重檢測(cè)
4.如果[yHD 5. 在SVM預(yù)估位置裁剪目標(biāo)大小的圖像塊,使用檢測(cè)濾波器[HD],根據(jù)式(5)計(jì)算圖像塊的置信度響應(yīng)分?jǐn)?shù)[y''HD]。 6. 如果[y''HD>yHD],采用SVM預(yù)測(cè)的目標(biāo)位置。 模型(濾波器)更新 7.根據(jù)式(4)更新濾波器[H]。 8. 如果[yHD>T2],根據(jù)式(4)更新檢測(cè)濾波器[HD]。 END 3 實(shí)驗(yàn)與結(jié)果分析 3.1 實(shí)驗(yàn)環(huán)境及參數(shù)設(shè)置 本實(shí)驗(yàn)軟件平臺(tái)為Matlab R2017a,硬件運(yùn)行環(huán)境配置為Intel (R) Core (TM) i7-6700K 4.00 GHz CPU。本文使用的基準(zhǔn)數(shù)據(jù)集是OTB-2013,包含51個(gè)挑戰(zhàn)視頻。視頻中主要包括11種場(chǎng)景挑戰(zhàn)屬性:光照變化(IV)、尺度變化(SV)、遮擋(OCC)、形變(DEF)、運(yùn)動(dòng)模糊(MB)、快速運(yùn)動(dòng)(FM)、平面內(nèi)旋轉(zhuǎn)(IPR)、平面外旋轉(zhuǎn)(OPR)、低分辨率(LR)、出視野(OV)、背景雜亂(BC)。使用成功率(Success rate)和精度(Precision)兩個(gè)評(píng)價(jià)指標(biāo),給定預(yù)測(cè)框[b1]和真實(shí)框[b2],成功率為當(dāng)[b1?b0b1?b0>0.5]時(shí)幀數(shù)占總幀數(shù)的百分比,精度為估計(jì)中心位置誤差小于給定距離閾值(例如20個(gè)像素)的幀數(shù)占總幀數(shù)的百分比。 設(shè)置學(xué)習(xí)率[η]為0.025,正則化參數(shù)[λ]為0.001,參數(shù)[γ]為0.7。由于選擇不同閾值會(huì)影響實(shí)驗(yàn)效果,為了選擇合適的閾值[T1]和[T2],本文通過(guò)實(shí)驗(yàn)進(jìn)行探索。首先確定閾值[T1]、[T2]的大致區(qū)間,然后代入?yún)^(qū)間閾值,比較其實(shí)驗(yàn)結(jié)果,最后選出使實(shí)驗(yàn)效果最好的閾值。在本文方法中,并不是每一幀都會(huì)調(diào)用SVM作重檢測(cè),而是當(dāng)置信度分?jǐn)?shù)[yHD 3.2 定量分析 本文在OTB-2013數(shù)據(jù)集上與其它6種算法進(jìn)行對(duì)比,結(jié)果如圖3所示。其它6種算法包括Staple[18]、DSST[17]、TLD[19]、KCF[15]、MIL[8]、CSK[14],本文算法在所有對(duì)比算法中取得了最好成績(jī),精度達(dá)到80.2%,成功率達(dá)到60.6%。相比Staple算法,精度與成功率分別提高了1.7%和1.3%,說(shuō)明本文提出的重檢測(cè)機(jī)制是有效的。 3.3 屬性分析 為了更充分地評(píng)估本文算法的跟蹤性能,利用數(shù)據(jù)集OTB-2013的11個(gè)挑戰(zhàn)屬性對(duì)算法作進(jìn)一步評(píng)估。圖4是本文算法與其它6種算法針對(duì)11個(gè)不同挑戰(zhàn)屬性的精度圖。本文算法在平面外旋轉(zhuǎn)、遮擋、形變、運(yùn)動(dòng)模糊、快速運(yùn)動(dòng)、平面內(nèi)旋轉(zhuǎn)、背景雜亂等7個(gè)挑戰(zhàn)屬性上都排名第一,在低分辨率上僅次于Staple算法,排名第二。通過(guò)定量分析及挑戰(zhàn)屬性對(duì)比,本文算法相對(duì)其它算法具有更高的準(zhǔn)確性。 3.4 定性分析 本文算法與其它4個(gè)優(yōu)秀的跟蹤器(Staple[18]、TLD[19]、MIL[8]和CSK[14])在5個(gè)具有挑戰(zhàn)性的序列上進(jìn)行比較,如圖5所示。coke序列包含光照變化、平面內(nèi)旋轉(zhuǎn),前期各算法都能成功跟蹤,到后期出現(xiàn)光照變化和平面內(nèi)旋轉(zhuǎn)時(shí),MIL跟蹤失敗。在jogging序列的第77幀與soccer序列的第106幀,目標(biāo)都發(fā)生了遮擋,Staple算法與本文算法都跟蹤失敗,但在jogging序列的第124幀與soccer序列的第126幀,Staple算法跟丟目標(biāo)后未能重新跟蹤,而本文算法又再次成功跟蹤了目標(biāo),這得益于本文提出的重檢測(cè)機(jī)制。在跟蹤失敗的情況下,TLD算法也能夠重新檢測(cè)目標(biāo),但TLD方法無(wú)法像本文方法那樣充分利用目標(biāo)的上下文信息,因此在面對(duì)如skating視頻中明顯變形和快速運(yùn)動(dòng)的目標(biāo)時(shí)表現(xiàn)不佳。CSK也是基于相關(guān)濾波的算法,其在singer視頻上表現(xiàn)不太理想,原因是CSK僅使用了灰度特征,對(duì)目標(biāo)缺乏表達(dá)能力。 4 結(jié)語(yǔ) 本文在相關(guān)濾波算法Staple的基礎(chǔ)上加入重檢測(cè)機(jī)制。首先使用Staple算法用于目標(biāo)跟蹤,然后重新構(gòu)造一個(gè)檢測(cè)濾波器用于跟蹤結(jié)果的置信度評(píng)估。當(dāng)置信度較低時(shí),調(diào)用一個(gè)在線SVM分類(lèi)器進(jìn)行目標(biāo)重檢測(cè),提高了算法精度。為避免檢測(cè)濾波器被污染,只有在目標(biāo)具有高置信度的情況下才更新檢測(cè)濾波器。最后在基準(zhǔn)數(shù)據(jù)集OTB-2013上進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,該算法在準(zhǔn)確性和魯棒性方面均優(yōu)于其它6種對(duì)比算法。 參考文獻(xiàn): [1] 盧湖川,李佩霞,王棟. 目標(biāo)跟蹤算法綜述[J]. 模式識(shí)別與人工智能,2018,31(1):61-76. [2] 黃凱奇, 陳曉棠, 康運(yùn)鋒,等.? 智能視頻監(jiān)控技術(shù)綜述[J].? 計(jì)算機(jī)學(xué)報(bào), 2015, 20(6):1093-1118. [3] WANG N, SHI J, YEUNG D Y, et al. Understanding and diagnosing visual tracking systems[C]. IEEE International Conference on Computer Vision, 2015: 3101-3109. [4] SUI Y, ZHANG S, ZHANG L. Robust visual tracking via sparsity-induced subspace learning[J].? IEEE Transactions on Image Processing, 2015, 24(12):4686-4700. [5] ZHANG T, BIBI A, GHANEM B. In defense of sparse tracking: circulant sparse tracker [C].? IEEE Conference on Computer Vision and Pattern Recognition, 2016:3880-3888. [6] SUI Y, WANG G, TANG Y, et al. Tracking completion[C].? European Conference on Computer Vision, 2016:194-209. [7] NING J, YANG J, JIANG S, et al. Object tracking via dual linear structured SVM and explicit feature map[C].? IEEE Conference on Computer Vision and Pattern Recognition, 2016: 4266-4274. [8] BABENKO B, YANG M H, BELONGIE S. Robust object tracking with online multiple instance learning[J].? IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(8):1619-1632. [9] SUN H, LI J, CHANG J, et al. Efficient compressive sensing tracking via mixed classifier decision [J].? Science China Information Sciences, 2016, 59(7):072102. [10] WU Y, LIM J, YANG M H. Online object tracking: a benchmark [C].? IEEE Conference on Computer Vision and Pattern Recognition, 2013: 2411-2418. [11] WU Y, LIM J, YANG M H. Object tracking benchmark [J].? IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1834-1848. [12] KRISTAN M, MATAS J, LEONARDIS A, et al. The visual object tracking VOT2016 challenge results [C].? Amsterdam, 14th European Conference on Computer Vision, 2016: 777-823. [13] BOLME D S, BEVERIDGE J R, DRAPER B A, et al. Visual object tracking using adaptive correlation filters [C].? Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2010: 2544-2550. [14] HENRIQUES J F, CASEIRO R, MARTINS P, et al. Exploiting the circulant structure of tracking-by-detection with kernels [C].? Proceedings of the European Conference on Computer Vision, 2012: 702-715. [15] HENRIQUES J F, CASEIRO R, MARTINS P, et al. High-speed tracking with kernelized correlation filters [J].? IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3): 583-596. [16] DANELLJAN M, SHAHBAZ KHAN F, FELSBERG M, et al. Adaptive color attributes for real-time visual tracking [C].? IEEE Conference on Computer Vision and Pattern Recognition, 2014: 1090-1097. [17] DANELLJAN M, H?GER G, KHAN F, et al. Accurate scale estimation for robust visual tracking [C].? British Machine Vision Conference, 2014: 1-5. [18] BERTINETTO L, VALMADRE J, GOLODETZ S, et al. Staple: complementary learners for real-time tracking [C].? IEEE Conference on Computer Vision and Pattern Recognition, 2016: 1401-1409. [19] KALAL Z, MIKOLAJCZYK K, MATAS J. Tracking-learning-detection[J].? IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(7): 1409-1422. [20] POSSEGGER H, MAUTHNER T, BISCHOF H. In defense of color-based model-free tracking[C].? IEEE Conference on Computer Vision and Pattern Recognition, 2015: 2113-2120. (責(zé)任編輯:黃 ?。?/p>