施 偉 張 東 陳 慶 譚守標(biāo)* 張 驥
1(國(guó)網(wǎng)銅陵供電公司運(yùn)維檢修部 安徽 銅陵 244000)2(安徽大學(xué)計(jì)算智能與信號(hào)處理教育部重點(diǎn)實(shí)驗(yàn)室 安徽 合肥 230039)3(安徽南瑞繼遠(yuǎn)電網(wǎng)技術(shù)有限公司 安徽 合肥 230088)
?
一種快速精準(zhǔn)的核相關(guān)濾波器跟蹤算法
施 偉1張 東1陳 慶2譚守標(biāo)2*張 驥3
1(國(guó)網(wǎng)銅陵供電公司運(yùn)維檢修部 安徽 銅陵 244000)2(安徽大學(xué)計(jì)算智能與信號(hào)處理教育部重點(diǎn)實(shí)驗(yàn)室 安徽 合肥 230039)3(安徽南瑞繼遠(yuǎn)電網(wǎng)技術(shù)有限公司 安徽 合肥 230088)
針對(duì)核相關(guān)濾波器跟蹤算法在目標(biāo)尺度變化、快速運(yùn)動(dòng)及光照變化情況下跟蹤性能降低的問題,提出一種基于前瞻性更新及快速異判技術(shù)的核相關(guān)濾波器跟蹤算法。算法對(duì)目標(biāo)歷史狀態(tài)以逐漸遺忘的方式加以更新,同時(shí)引入狀態(tài)差分來提前應(yīng)對(duì)環(huán)境變化,并且利用哈希編碼匹配來控制分類器更新:首先對(duì)先前正確的目標(biāo)進(jìn)行哈希編碼,新來一幀分類得到的最終目標(biāo)同樣進(jìn)行哈希編碼來計(jì)算相似度;然后依據(jù)相似度決定是否更新分類器或者重檢測(cè)目標(biāo)。實(shí)驗(yàn)結(jié)果表明,該算法不僅對(duì)尺度變化、快速運(yùn)動(dòng)有很強(qiáng)的魯棒性.對(duì)其他屬性如光照變化、遮擋等也有較強(qiáng)的魯棒性。同時(shí)跟蹤仍然保存很高的速度,平均的處理速度可達(dá)100幀/s,能實(shí)現(xiàn)快速精準(zhǔn)的目標(biāo)跟蹤。
視覺跟蹤 離散PID 哈希匹配 相關(guān)濾波器
視覺跟蹤技術(shù)是機(jī)器視覺領(lǐng)域中的熱門研究課題,在各行各業(yè)應(yīng)用廣泛。如在電力安全生產(chǎn)中,為避免作業(yè)人員進(jìn)行危險(xiǎn)操作,可利用視覺跟蹤準(zhǔn)確分析目標(biāo)行為,發(fā)現(xiàn)異常行為及時(shí)報(bào)警,盡可能降低安全風(fēng)險(xiǎn)。由于位置、照明、運(yùn)動(dòng)、遮擋等因素的影響,目標(biāo)視覺跟蹤也是一個(gè)具有挑戰(zhàn)性的任務(wù)。在視覺跟蹤領(lǐng)域中,不同于多目標(biāo)跟蹤,單目標(biāo)跟蹤可以被看作是一個(gè)在線學(xué)習(xí)問題[1-2]。通過初始化一個(gè)目標(biāo)框來訓(xùn)練一個(gè)分類器,把目標(biāo)和周邊環(huán)境區(qū)分開,實(shí)現(xiàn)目標(biāo)的跟蹤。這個(gè)分類器需要實(shí)時(shí)更新從而有效檢測(cè)在隨后圖像幀出現(xiàn)的目標(biāo)。
一種有效的跟蹤方法是通過檢測(cè)目標(biāo)來跟蹤[3-7]。這直接源于機(jī)器學(xué)習(xí)中強(qiáng)大的判別方法的發(fā)展,及其在在線訓(xùn)練檢測(cè)方面的運(yùn)用。這種檢測(cè)器可以在線訓(xùn)練,因?yàn)樗鼈兲峁┐罅亢湍繕?biāo)有關(guān)的背景信息。
在本文中,我們提出了一個(gè)魯棒且高效的核相關(guān)濾波器跟蹤算法,它在頻域中使用了PID[8]更新和相關(guān)濾波器[9]思想構(gòu)建檢測(cè)器。為了有效地在頻域處理圖像信號(hào),我們使用了一個(gè)經(jīng)典的分析工具——循環(huán)矩陣。這意味著我們可以基于高斯核回歸結(jié)合相關(guān)濾波器來追蹤目標(biāo)。此外我們使用了哈希匹配技術(shù)來預(yù)判跟蹤出錯(cuò)情況并重新檢測(cè)目標(biāo)[10]。
1.1 相關(guān)濾波器追蹤
相關(guān)濾波器已被廣泛應(yīng)用于許多場(chǎng)景,如目標(biāo)檢測(cè)和識(shí)別[11]。由于操作已經(jīng)轉(zhuǎn)換入頻域進(jìn)行,相關(guān)濾波的計(jì)算效率很高,引起了目標(biāo)跟蹤領(lǐng)域?qū)W者的關(guān)注。Bolme等在灰度圖像上針對(duì)視覺跟蹤提出了學(xué)習(xí)的最小輸出誤差平方和濾波器(MOSSE)[9],可以對(duì)每幀的圖像目標(biāo)編碼更新。使用了相關(guān)濾波器,MOSSE跟蹤器的計(jì)算速度可達(dá)到數(shù)百幀每秒。Heriques等提出了在核空間使用相關(guān)濾波器的方法CSK[12],在現(xiàn)有的benchmark庫(kù)上測(cè)試達(dá)到了極高的速度。CSK方法建立在光照強(qiáng)度特征上,其改進(jìn)版本KCF[13]利用HOG特征將效果進(jìn)一步提高。Kalal等通過連續(xù)的相關(guān)響應(yīng)將上下文信息轉(zhuǎn)化為聯(lián)系起來進(jìn)行建模和濾波[14]。DSST跟蹤器采用HOG特征學(xué)習(xí)自適應(yīng)多尺度相關(guān)濾波器來處理目標(biāo)對(duì)象的尺寸變化[15]。然而,這些方法沒有解決的關(guān)鍵問題,就是在線模型更新。因此,這些相關(guān)跟蹤器容易漂移和難處理長(zhǎng)期閉塞的視角問題。
1.2 檢測(cè)跟蹤
最流行的檢測(cè)跟蹤方法是使用一個(gè)判別性的外觀模型[3,7,14,16]。受統(tǒng)計(jì)學(xué)習(xí)方法的啟發(fā),它在線訓(xùn)練一個(gè)分類器,來預(yù)測(cè)目標(biāo)是否存在于候選的目標(biāo)圖像塊中。這種分類,是在待測(cè)試的很多候選塊中找到與目標(biāo)最相似的候選塊作為預(yù)測(cè)的目標(biāo)位置。此外,位置也可以直接預(yù)測(cè)[4]。典型的檢測(cè)跟蹤例子包括那些基于支持向量機(jī)(SVM)[5]、隨機(jī)森林分類[7]。Bolme等[9]采用經(jīng)典的信號(hào)處理分析的方法,得到快速相關(guān)濾波器。我們的算法正是基于相關(guān)濾波器進(jìn)行下去的。
由于我們的目的是設(shè)計(jì)一種自適應(yīng)算法來跟蹤后續(xù)每幀中目標(biāo)的位置。我們把這個(gè)任務(wù)看成在線訓(xùn)練并評(píng)估測(cè)試候選塊,通過由相關(guān)濾波器得到的上下文聯(lián)系來評(píng)估訓(xùn)練。此外,我們?cè)O(shè)計(jì)一個(gè)預(yù)判斷器,使用高效計(jì)算的感知哈希來表示,用于檢測(cè)異常并處理。
2.1 核相關(guān)跟蹤
把相關(guān)過濾器考慮為一個(gè)分類器,它可以通過尋找輸入xi和它的訓(xùn)練標(biāo)簽yi之間的相關(guān)性來進(jìn)行訓(xùn)練。訓(xùn)練問題可以被視為一個(gè)嶺回歸問題或最大限度地減少目標(biāo)損失問題:
(1)
其中λ是防止過擬合的正則化系數(shù),l(·)是損失函數(shù),參數(shù)向量w可以閉環(huán)表示為:
w=(XTX+λI)-1XTy
(2)
這里X是由訓(xùn)練樣本組成的矩陣,y是其對(duì)應(yīng)的標(biāo)簽向量,I是個(gè)單位矩陣。為了提高計(jì)算效率,w可在頻域中求解:
w*=(XHX+λI)-1XHy
(3)
xH是x的Hermitian轉(zhuǎn)置。為了進(jìn)一步提高性能,可引入映射函數(shù)φ(xi),將輸入數(shù)據(jù)x映射到一個(gè)非線性的特征空間中,則w=∑iαiφ(xi),w的求解就轉(zhuǎn)換成α的求解。
f(xi)可表示為:
(4)
這里核函數(shù)k(xi,xj)=<φ(xi),φ(xj)>。假設(shè)x是個(gè)循環(huán)矩陣,那么k是個(gè)核矩陣可由Kij=k(Xi,Xj)得到,式(4)可求解:
α=(K+λI)-1y
(5)
同樣,將求解轉(zhuǎn)換到頻域,來避免矩陣的求逆過程。若k是循環(huán)矩陣,則:
(6)
(7)
在接下來的一幀,可以用樣本x和訓(xùn)練輸出參數(shù)α來檢測(cè)目標(biāo)。假設(shè)新來樣本z,可以計(jì)算:
(8)
f(z)是得分函數(shù),在頻域中更高效計(jì)算:
(9)
2.2 模型更新策略
為了提高模型的魯棒性,克服跟蹤目標(biāo)自身形變、變速、遮擋、背景光照改變、顏色干擾等因素造成跟蹤失敗問題,需要對(duì)模型進(jìn)行在線更新。常見的更新算法多是利用了本幀參數(shù)和前一幀或前幾幀信息,表現(xiàn)為一種歷史遺忘過程,如KCF算法[13]的αt=ηαt-1+(1-η)α,η是常量,大小代表學(xué)習(xí)率,能夠很好地適應(yīng)目標(biāo)外觀的變化。但是由于只有對(duì)前一幀的繼承,沒法對(duì)突發(fā)情況的預(yù)判,比如打斗、畫面顫抖,也容易在遮擋情況下跟蹤漂移,導(dǎo)致跟蹤失敗。
針對(duì)上述情況,本文提出一種能夠表征歷史信息和突發(fā)信息更新方式:
αi=P×α+I×∑α+D×(αi-αi-1)
(10)
Xfi=P×Xf+I×∑Xf+D×(Xfi-Xfi-1)
(11)
2.3 哈希匹配策略
(12)
mean_z是小矩陣的平均值,將z的每個(gè)值與均值比較,將大于均值的值設(shè)為1,小于均值的值設(shè)為0。改變矩陣維度為64×1的行列式,方便進(jìn)一步計(jì)算。在得到上下兩幀目標(biāo)塊的哈希編碼x、y后,我們計(jì)算其漢明距離用來表示相似度:
(13)
其中Δ代表漢明距離,為了方便比較,可以將其歸一化:
(14)
在計(jì)算矩陣的離散傅里葉變換時(shí)用的僅僅是余弦函數(shù),如果正弦函數(shù)也使用,表征的哈希碼效果會(huì)更好。
對(duì)于計(jì)算的漢明距離會(huì)與閾值比較,若大于閾值,則更新分類器;若小于閾值,仍然保持上一幀的位置,不更新分類器,同時(shí)擴(kuò)大下一幀的樣本采樣,持續(xù)若干幀小于閾值,則利用正確目標(biāo)的哈希編碼重新檢測(cè)目標(biāo)位置。
本節(jié)將在公認(rèn)的benchmark_tracker庫(kù)[19]上比較本文算法與一些最先進(jìn)的跟蹤算法的性能。對(duì)比的跟蹤算法包括CT[16]、TLD[14]、CSK[12]、Struck[4]、MTT[17]、OAB[6]、L1APG[18]。數(shù)據(jù)集是基準(zhǔn)庫(kù)中已經(jīng)標(biāo)記好的具有挑戰(zhàn)性的視頻。我們使用成功率作定量分析,從時(shí)間魯棒性(TRE)和空間魯棒性(SRE)來評(píng)估算法的魯棒性能。成功率圖的評(píng)估標(biāo)準(zhǔn)是邊界框的重疊率。假設(shè)算法跟蹤的邊界框?yàn)棣胻,人工標(biāo)定邊界框是γa,重疊率被定義為S=|γt∩γa|/|λt∪λa|,其中∩和∪分別表示邊界框的交集和并集,|·|指其框內(nèi)的像素點(diǎn)個(gè)數(shù)。為了估量算法在一系列幀中的性能,我們計(jì)算重疊率S大于給定的閾值to(比如to=0.5)的成功幀的數(shù)量。然后使用每一個(gè)成功率圖的曲線下面積(AUC)來給跟蹤算法進(jìn)行排序。為了更好地評(píng)估和分析跟蹤方法的優(yōu)點(diǎn)和缺點(diǎn),本文用6種常見屬性來標(biāo)注所有序列進(jìn)行分類,6種屬性如表1所示。
三是統(tǒng)籌整合監(jiān)督資源,加大監(jiān)督檢查力度。廣西計(jì)劃2018年開展兩次扶貧資金專項(xiàng)督查活動(dòng)。區(qū)直各成員單位應(yīng)積極選派業(yè)務(wù)骨干參加實(shí)地督查,提高督查質(zhì)量。各市專責(zé)小組要根據(jù)自治區(qū)的部署,自行組織督查組對(duì)自治區(qū)未抽查到的縣(市、區(qū))開展檢查,實(shí)現(xiàn)檢查范圍的全覆蓋。
表1 測(cè)試序列所標(biāo)注的屬性說明
評(píng)估跟蹤器的方法是,根據(jù)第一幀中的準(zhǔn)確位置進(jìn)行初始化,然后在一個(gè)測(cè)試序列中運(yùn)行算法,最后得出平均成功率。我們把這種方法稱為一次通過的評(píng)估(OPE)。然而跟蹤器可能對(duì)初始化非常敏感,并且在不同的初試幀給予不同的初始化會(huì)使其性能變得更差或更好。因此,我們使用時(shí)間魯棒性評(píng)估和空間魯棒性評(píng)估來評(píng)估跟蹤器對(duì)初始化的魯棒性,在時(shí)間上(即在不同幀開始跟蹤)和空間上(即以不同的邊界框開始跟蹤)擾亂初始化。
對(duì)于我們的算法和對(duì)比的算法,所有評(píng)估都使用了源碼的默認(rèn)參數(shù)。實(shí)驗(yàn)環(huán)境是Intel i5 2400 CPU(3.1 GHz)。對(duì)于OPE,每個(gè)跟蹤器進(jìn)行了超過29 000幀的測(cè)試,對(duì)于SRE,每個(gè)跟蹤器在每個(gè)序列中被評(píng)估了12次,對(duì)于TRE,每個(gè)視頻序列被分為20個(gè)片段進(jìn) 行評(píng)估。
3.1 整體性能評(píng)估
對(duì)于跟蹤器的整體性能,我們以成功率圖的形式展示在圖1-圖3中,其中我們使用AUC分?jǐn)?shù)值來對(duì)跟蹤器進(jìn)行總結(jié)和排名。由于使用了成功率的AUC評(píng)分評(píng)估了整體性能,比單一閾值的成功率圖和精確度圖更加準(zhǔn)確,下面我們只分析基于成功率的排名。
圖1 OPE成功率排名
圖3 TRE成功率排名
從圖1-圖3可以看出,OPE的平均性能略高于TRE的平均性能,因?yàn)槲覀儨y(cè)試的序列集是隨機(jī)從基準(zhǔn)庫(kù)中選擇的。當(dāng)測(cè)試視頻難度較大時(shí),OPE一次測(cè)試的結(jié)果平均值可能更高,當(dāng)測(cè)試難度降低,由于因?yàn)镺PE所測(cè)試的幀數(shù)少于TRE的從第一個(gè)片段到最后一個(gè)片段的幀數(shù)之和,跟蹤器在較短的序列中傾向于表現(xiàn)更好,TRE中的所有結(jié)果的平均值可能更高。另一方面,SRE的平均性能比TRE的平均性能更低,因?yàn)槌跏蓟`差可能會(huì)導(dǎo)致跟蹤器使用了不精確的表觀信息來更新,從而導(dǎo)致跟蹤框逐漸漂移。由于使用了異常判斷和具有前瞻性的更新算法,F(xiàn)SKCF在成功率上排名最高,其次是Struck,而TLD的變化較大,是由于其包含的重新檢測(cè)模塊能在長(zhǎng)序列中表現(xiàn)得更好。 在速度上,F(xiàn)SKCF和CSK的速度最高,因?yàn)槠溲h(huán)矩陣的結(jié)構(gòu)起到了關(guān)鍵的作用。
3.2 基于特性的性能分析
表2 8種算法在6種屬性下的SRE成功率
在尺度變化上,F(xiàn)SKCF雖然能夠穩(wěn)定的跟蹤目標(biāo),但是跟蹤的準(zhǔn)確度不高,即跟蹤的目標(biāo)區(qū)域可能遠(yuǎn)大于目標(biāo)本身,這會(huì)影響后期的跟蹤效果,甚至導(dǎo)致跟蹤偏移。因?yàn)槠淠繕?biāo)框的大小不變,在后續(xù)工作中,將考慮根據(jù)目標(biāo)尺寸自適應(yīng)改變跟蹤框尺寸來解決這一問題。同樣發(fā)現(xiàn)具有尺寸特性的算法在處理快速移動(dòng)問題時(shí)也具有優(yōu)勢(shì)。
此外,TLD在目標(biāo)旋轉(zhuǎn)的問題上,表現(xiàn)出其優(yōu)越性。這是得益于其重檢測(cè)模塊,而FSKCF的表現(xiàn)則相對(duì)較弱,是因?yàn)榕袛喈惓3闪⒑?,其分類器短暫暫停更新,?dǎo)致分類器不能及時(shí)處理目標(biāo)旋轉(zhuǎn)問題。如圖4所示,football測(cè)試集第300幀對(duì)目標(biāo)跟丟后,F(xiàn)SKCF算法錯(cuò)誤地將與未旋轉(zhuǎn)24號(hào)很像的38號(hào)作為目標(biāo)識(shí)別重新跟蹤。所以如何有效地處理平面內(nèi)和平面外旋轉(zhuǎn)問題,也將是FSKCF算法需要下一步研究的內(nèi)容。
圖4 紅色框-FSKCF 綠色框-TLD 藍(lán)色框-Struck
本文在核相關(guān)濾波器的基礎(chǔ)上對(duì)目標(biāo)跟蹤進(jìn)行前瞻性更新。同時(shí)采用快速哈希編碼,在每次分類器更新前對(duì)跟蹤結(jié)果進(jìn)行有效檢測(cè),使用有效的跟蹤結(jié)果來進(jìn)行分類器的更新,并對(duì)目標(biāo)遮擋和丟失做出相應(yīng)策略,大幅提高跟蹤性能。實(shí)驗(yàn)結(jié)果證明了本文算法的有效性和魯棒性。算法也存在兩方面的問題需要我們進(jìn)一步深入研究:
1) 目標(biāo)的跟蹤框是固定尺寸的,雖然我們的更新策略使得跟蹤器對(duì)尺度變化不敏感,但是FSKCF算法仍然不能獲取十分精準(zhǔn)的目標(biāo)區(qū)域。后期考慮利用更有效的哈希編碼方式來預(yù)測(cè)目標(biāo)的尺寸大小,結(jié)合目標(biāo)運(yùn)動(dòng)質(zhì)心位置自適應(yīng)的改變目標(biāo)框。
2) FSKCF算法能夠很好地對(duì)場(chǎng)景的突發(fā)情況進(jìn)行預(yù)判,然而對(duì)目標(biāo)自身變化沒有有效的處理,比如目標(biāo)平面外旋轉(zhuǎn)、剛性形變。后期工作將考慮對(duì)目標(biāo)哈希編碼時(shí)不再使用簡(jiǎn)單灰度值,而是選擇更有辨識(shí)力的特征來代替。
[1] Smeulders A W, Chu D M, Cucchiara R, et al. Visual Tracking: An Experimental Survey.[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2013, 36(7):1442-1468.
[2] Yang H, Shao L, Zheng F, et al. Recent advances and trends in visual tracking: A review[J]. Neurocomputing, 2011, 74(18): 3823-3831.
[3] Babenko B, Yang M H, Belongie S. Robust object tracking with online multiple instance learning[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(8): 1619-1632.
[4] Hare S, Saffari A, Torr P H S. Struck: Structured output tracking with kernels[C]//2011 International Conference on Computer Vision. IEEE, 2011: 263-270.
[5] Avidan S. Support vector tracking[J]. IEEE transactions on pattern analysis and machine intelligence, 2004, 26(8): 1064-1072.
[6] Grabner H, Leistner C, Bischof H. Semi-supervised on-line boosting for robust tracking[C]//European conference on computer vision. Springer Berlin Heidelberg, 2008: 234-247.
[7] Saffari A, Leistner C, Santner J, et al. On-line random forests[C]//12th International Conference on Computer Vision Workshops (ICCV Workshops), IEEE, 2009: 1393-1400.
[8] Bennett S. A history of control engineering, 1930-1955[M]. Institution of Engineering & Technology Isbn, 1993.
[9] Bolme D S, Beveridge J R, Draper B A, et al. Visual object tracking using adaptive correlation filters[C]//2010 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), IEEE, 2010: 2544-2550.
[10] 牛夏牧, 焦玉華. 感知哈希綜述[J]. 電子學(xué)報(bào), 2008, 36(7):1405-1411.
[11] Kumar B V K V, Mahalanobis A, Juday R D. Correlation pattern recognition[M]. Cambridge University Press, 2005.
[12] Henriques J F, Caseiro R, Martins P, et al. Exploiting the circulant structure of tracking-by-detection with kernels[C]//European conference on computer vision. Springer Berlin Heidelberg, 2012: 702-715.
[13] Henriques J F, Caseiro R, Martins P, et al. High-speed tracking with kernelized correlation filters[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3): 583-596.
[14] Kalal Z, Mikolajczyk K, Matas J. Tracking-learning-detection[J]. IEEE transactions on pattern analysis and machine intelligence, 2012, 34(7): 1409-1422.
[15] Danelljan M, H?ger G, Khan F, et al. Accurate scale estimation for robust visual tracking[C]//British Machine Vision Conference, Nottingham, September 1-5, 2014. BMVA Press, 2014.
[16] Zhang K, Zhang L, Yang M H. Real-time compressive tracking[C]//European Conference on Computer Vision. Springer Berlin Heidelberg, 2012: 864-877.
[17] Zhang T, Ghanem B, Liu S, et al. Robust visual tracking via multi-task sparse learning[C]//2012 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2012: 2042-2049.
[18] Bao C, Wu Y, Ling H, et al. Real time robust l1 tracker using accelerated proximal gradient approach[C]//2012 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2012: 1830-1837.
[19] Wu Y, Lim J, Yang M H. Online object tracking: A benchmark[C]// IEEE conference on computer vision and pattern recognition. 2013: 2411-2418.
A FAST AND ROBUST TRACKING ALGORITHM WITH KERNEL CORRELATION FILTER
Shi Wei1Zhang Dong1Chen Qing2Tan Shoubiao2*Zhang Ji3
1(DepartmentofOperationandMaintenance,StateGridTonglingPowerSupplyCompany,Tongling244000,Anhui,China)2(KeyLaboratoryofIntelligentComputingandSignalProcessing,MinistryofEducation,AnhuiUniversity,Hefei230039,Anhui,China)3(AnhuiJiyuanElectricPowerSystemTechCo.,Ltd.,Hefei230088,Anhui,China)
To solve the problems of scale variation, fast motion and illumination variation in the visual tracking, a Kernel Correlation Tracking algorithm based on forward looking updating and quick abnormality judging techniques is proposed. In this algorithm, history state information is updated gradually, and the differential signal of the target is adopted to early response to environmental changes. Meanwhile, the hash code matching is used to control the classifier updating: the previously correct targets have been hash encoded to calculate similarity of the hash code of the classification goal obtained by a new frame; and then the similarity is used to decide whether to update the classifier or whether to re-detect target. Experimental results indicate that the proposed algorithm not only can obtain improvement in scale change, fast motion, but also has strong robustness for other attributes, such as illumination variation and occlusion. Moreover, it still maintains high tracking efficiency with a speed of a hundred frames per second.
Visual tracking Discrete PID Hash match Correlation filters
2016-09-14。國(guó)家電網(wǎng)公司科技項(xiàng)目(5212D01502DB);國(guó)家自然科學(xué)基金項(xiàng)目(61201396,61301296)。施偉,高工,主研領(lǐng)域:電力調(diào)度管理。張東,高工。陳慶,碩士生。譚守標(biāo),副教授。張?bào)K,工程師。
TP391.41
A
10.3969/j.issn.1000-386x.2017.07.024