姜文濤,徐曉晴
1.遼寧工程技術(shù)大學(xué) 軟件學(xué)院,遼寧 葫蘆島 125105
2.遼寧工程技術(shù)大學(xué) 研究生院,遼寧 葫蘆島 125105
在現(xiàn)代化數(shù)字城市中,目標(biāo)跟蹤技術(shù)占據(jù)重要地位[1-6],在智能監(jiān)控[7]、現(xiàn)代化軍事[8]和醫(yī)學(xué)圖像[9]等領(lǐng)域被廣泛應(yīng)用。但實(shí)際生活場(chǎng)景較為復(fù)雜多變,這些不確定性給目標(biāo)跟蹤帶來(lái)了極大的挑戰(zhàn)[10]。因此,實(shí)現(xiàn)較為魯棒的目標(biāo)跟蹤仍是一項(xiàng)極具挑戰(zhàn)性的任務(wù)[11-13]。
相關(guān)濾波算法具有魯棒性強(qiáng)、速度快及精度高等特點(diǎn),近年來(lái)得到了國(guó)內(nèi)外廣泛的關(guān)注及應(yīng)用。2010年,Bolme等[14]將信號(hào)處理領(lǐng)域的相關(guān)濾波方法引入到目標(biāo)跟蹤領(lǐng)域,提出了最小輸出誤差平方和(minimum output sum of squared error,MOSSE)算法,該算法將計(jì)算轉(zhuǎn)換到頻域內(nèi),在頻域內(nèi)快速學(xué)習(xí)并檢測(cè),有效提高了跟蹤速度。2014 年,Danelljan 等[15]提出了判別型尺度空間跟蹤(discriminative scale space tracking,DSST)算法,增加了尺度濾波器,使獨(dú)立的尺度濾波器和位置濾波器分別學(xué)習(xí),可以較好地應(yīng)對(duì)尺度變化,提高了尺度自適應(yīng)能力。隨后,Henriques等[16]將多通道的HOG(histogram of oriented gradients)特征引入,提出了著名的核相關(guān)濾波(kernel correlation filters,KCF)算法,算法通過(guò)核函數(shù)將非線性問(wèn)題轉(zhuǎn)化為線性問(wèn)題,有效提高了模型跟蹤的準(zhǔn)確性。相關(guān)濾波算法采用循環(huán)移位策略進(jìn)行采樣,使算法易受邊界效應(yīng)影響。Danelljan等[17]在2015年提出了基于空間正則化的相關(guān)濾波(spatially regularized correlation filters,SRDCF)算法,在擴(kuò)大檢測(cè)區(qū)域的同時(shí),加入了空間正則化懲罰項(xiàng),有效緩解了邊界效應(yīng)。2016年,Bertinetto等[18]在DSST算法的基礎(chǔ)上融合了顏色直方圖特征,提出互補(bǔ)性實(shí)時(shí)跟蹤Staple算法,將相關(guān)濾波響應(yīng)和顏色直方圖概率響應(yīng)以固定權(quán)值進(jìn)行融合,根據(jù)融合后的響應(yīng)進(jìn)行目標(biāo)定位。隨后,Danelljan 等[19]提出了快速判別尺度空間跟蹤(fast discriminative scale space tracking,fDSST)算法,在DSST基礎(chǔ)上通過(guò)壓縮維數(shù)和線性插值方式,加快了算法的運(yùn)算速度。2017 年,Galoogahi 等[20]提出了背景感知相關(guān)濾波(background-aware correlation filters,BACF)算法,該算法聯(lián)合背景信息,擴(kuò)大循環(huán)采樣區(qū)域,剪裁出高質(zhì)量樣本并增加其數(shù)量,有效提高了算法定位精度。2018年,Li等[21]提出了時(shí)空正則化相關(guān)濾波器(spatial-temporal regularized correlation filters,STRCF)算法,加入了時(shí)間正則項(xiàng)并在跟蹤過(guò)程中只使用上一幀的信息,大幅度提高了算法的精度及速度。2019年,Huang等[22]引入抑制跟蹤異常機(jī)制,提出了畸變抑制正則化相關(guān)濾波(aberrance repressed correlation filters,ARCF)算法,有效避免了由響應(yīng)圖畸變?cè)斐傻母櫿`差累計(jì)問(wèn)題。2020年,Li等[23]提出了自動(dòng)時(shí)空正則化跟蹤(automatic spatio-temporal regularization tracking,AutoTrack)算法,多特征訓(xùn)練濾波器并自適應(yīng)調(diào)整正則化參數(shù),提高了跟蹤算法的魯棒性。2021年,Xu等[24]提出了自適應(yīng)信道選擇判別相關(guān)濾波器(adaptive channel selection with discriminative correlation filters,ACSDCF)算法,通過(guò)衡量多通道特征的相關(guān)性進(jìn)行通道的選擇,可以較好地應(yīng)對(duì)目標(biāo)變化。
以上相關(guān)濾波算法在各個(gè)方面都有不同程度的提高,但仍然存在著許多不足。當(dāng)目標(biāo)出現(xiàn)形變、快速移動(dòng)、運(yùn)動(dòng)模糊、相似物干擾以及遮擋時(shí),跟蹤效果不理想。大多相關(guān)濾波方法都是提取單特征進(jìn)行匹配并且每一幀都進(jìn)行模型更新,在復(fù)雜情況下跟蹤魯棒性較低。另外一些(如Staple)是將多特征以固定權(quán)值進(jìn)行融合,在不同的跟蹤情況下并不一定是最優(yōu)策略。本文針對(duì)以上問(wèn)題提出了強(qiáng)化前景感知的相關(guān)濾波目標(biāo)跟蹤,本文采用相關(guān)濾波器提取目標(biāo)的梯度方向直方圖(HOG)特征并進(jìn)行相關(guān)運(yùn)算得到目標(biāo)的相關(guān)濾波響應(yīng),同時(shí)將改進(jìn)的顏色直方圖干擾感知模型[25]引入,通過(guò)加強(qiáng)前景和背景顏色直方圖差異部分使得前景像素更加顯著,并通過(guò)其干擾感知模型預(yù)測(cè)存在的相似干擾區(qū)域并抑制。再將相關(guān)濾波響應(yīng)和顏色直方圖概率響應(yīng)自適應(yīng)加權(quán)融合,融合后的干擾感知響應(yīng)圖中最大值位置即為目標(biāo)位置,其融合權(quán)重通過(guò)利用顏色直方圖干擾感知模型計(jì)算目標(biāo)區(qū)域內(nèi)像素點(diǎn)為目標(biāo)的概率均值控制。最后通過(guò)平均峰相關(guān)能量(average peak-to correlation energy,APCE)值[26]和最大響應(yīng)值fmax設(shè)置高置信度判別條件,只有當(dāng)兩者值都以一定比例高于其歷史均值時(shí),認(rèn)為目標(biāo)跟蹤結(jié)果具有較高可信度,再通過(guò)計(jì)算幀差均值[27]判斷目標(biāo)或背景的變化幅度,當(dāng)變化較大時(shí)進(jìn)一步通過(guò)計(jì)算前后幀間歐式距離[28]判斷是目標(biāo)運(yùn)動(dòng)還是背景運(yùn)動(dòng),最后針對(duì)不同情況設(shè)置相應(yīng)的相關(guān)濾波模型更新學(xué)習(xí)率。
fDSST算法是基于DSST的改進(jìn)算法,在保障了算法魯棒性的前提下,對(duì)位置濾波器提取的HOG 特征采用主成分分析(principal component analysis,PCA)方法進(jìn)行壓縮降維,同時(shí)采用插值運(yùn)算,大大提升了跟蹤算法的實(shí)時(shí)性,從而本文選取此方法作為相關(guān)濾波部分的基算法。
首先,手動(dòng)選取跟蹤目標(biāo)的第一幀,循環(huán)采樣得到一系列目標(biāo)樣本x(n)∈R(d),fDSST 算法對(duì)目標(biāo)區(qū)域提取d維HOG 特征,記作x(l),l∈(1,2,…,d),l表示特征通道。通過(guò)構(gòu)建最小化相關(guān)響應(yīng)與期望輸出g之間的代價(jià)函數(shù)ε獲得最優(yōu)相關(guān)濾波器h(l),目標(biāo)函數(shù)如下:
式中,?為循環(huán)相關(guān)操作;g為高斯函數(shù)類型的期望輸出響應(yīng)分?jǐn)?shù);λ為正則化參數(shù),用于避免濾波器過(guò)擬合;h(l)、x(l)與g具有相同的大小及維數(shù)。
為了加速計(jì)算,將式(1)的線性最小二乘問(wèn)題通過(guò)Parseval公式轉(zhuǎn)化到傅里葉域進(jìn)行運(yùn)算,求解最優(yōu)相關(guān)濾波器H(l):
式中,H、G、X均表示其對(duì)應(yīng)量的離散傅里葉變換(dis crete Fouriertransform,DFT),表示復(fù)共軛。首先將H(l)轉(zhuǎn)化為式(3)的分?jǐn)?shù)形式,并采用如下更新策略:
為了提高算法的實(shí)時(shí)性,fDSST算法引入主成分分析法對(duì)特征進(jìn)行降維壓縮,從而減少快速傅里葉變換次數(shù)。更新目標(biāo)模板,再通過(guò)最小化目標(biāo)模板的重構(gòu)誤差ε構(gòu)建大小為的投影矩陣Rt,用于將高維特征投影到低維子空間。投影矩陣Rt通過(guò)式(4)獲取:
對(duì)于新一幀圖像,利用前一幀的目標(biāo)位置信息在特定的背景區(qū)域提取不同維度特征樣本,對(duì)其進(jìn)行壓縮降維后得到候選樣本zt,再經(jīng)快速傅里葉變換(fast Fourier transform,F(xiàn)FT)得到,計(jì)算得到最終的響應(yīng)分?jǐn)?shù)為:
對(duì)上式得到的響應(yīng)分?jǐn)?shù)Yt進(jìn)行傅里葉逆變換(inverse fast Fourier transform,IFFT)得到最終的濾波器響應(yīng)fcf,利用其最大響應(yīng)值定位目標(biāo)。相關(guān)濾波響應(yīng)fcf表達(dá)式如下:
為了更好地應(yīng)對(duì)跟蹤過(guò)程中目標(biāo)尺度不斷變化的問(wèn)題,在定位目標(biāo)后,采用尺度濾波器估計(jì)目標(biāo)的最佳尺度。尺度濾波器與位置濾波器有相似的濾波學(xué)習(xí)過(guò)程,首先構(gòu)造尺度金字塔,然后將尺度池中不同尺度通過(guò)相關(guān)濾波器濾波得到17 維的響應(yīng)向量,再對(duì)17 維響應(yīng)向量進(jìn)行插值得到33 維的尺度響應(yīng)向量,其中最大響應(yīng)尺度即為所求的目標(biāo)最優(yōu)尺度。尺度響應(yīng)的計(jì)算表達(dá)式如下:
本文在相關(guān)濾波算法的基礎(chǔ)上融合了增強(qiáng)前景的顏色直方圖干擾感知模型,將相關(guān)濾波算法得到的目標(biāo)響應(yīng)與顏色直方圖響應(yīng)自適應(yīng)加權(quán)融合得到最終的干擾感知響應(yīng)圖,利用此圖中最高峰位置定位目標(biāo)。最后通過(guò)平均峰相關(guān)能值和響應(yīng)圖最大值聯(lián)合判斷目標(biāo)跟蹤的可信度。當(dāng)跟蹤可信度較低時(shí)說(shuō)明目標(biāo)跟蹤不準(zhǔn)確或出現(xiàn)跟蹤漂移,不進(jìn)行模板更新;反之,通過(guò)幀差法判斷目標(biāo)變化程度,目標(biāo)變化程度較大時(shí)利用前后幀間歐式距離判斷屬于目標(biāo)變化或背景變化。每種情況設(shè)置不同的相關(guān)濾波模型的學(xué)習(xí)率以實(shí)現(xiàn)模型的自適應(yīng)更新。本文算法總體框架如圖1所示。
圖1 總體框架圖Fig.1 General frame diagram
為了提高算法在快速運(yùn)動(dòng)、形變、運(yùn)動(dòng)模糊及相似物干擾下的跟蹤魯棒性,將顏色直方圖干擾感知模型引入本文算法。相關(guān)濾波目標(biāo)跟蹤算法提取的特征通常為局部特征(HOG 特征),對(duì)運(yùn)動(dòng)模糊及光照變化不敏感,如圖2(a)所示,但在快速運(yùn)動(dòng)、形變等情況下跟蹤效果不佳,如圖3(a)所示。而統(tǒng)計(jì)目標(biāo)的全局顏色特征對(duì)目標(biāo)外觀變化及邊緣信息較為魯棒,可以有效彌補(bǔ)HOG 特征的局限性,如圖3(b)所示,但顏色直方圖干擾感知模型只關(guān)注顏色,不關(guān)注像素所處的位置,易受到相似背景顏色干擾,當(dāng)存在運(yùn)動(dòng)模糊及相似顏色背景時(shí),易出現(xiàn)跟蹤漂移,如圖2(b)所示,此時(shí)HOG特征可以較好地應(yīng)對(duì)顏色直方圖干擾感知模型的缺陷。因此將兩者結(jié)合可以有效彌補(bǔ)傳統(tǒng)相關(guān)濾波算法的缺點(diǎn),減少目標(biāo)丟失及漂移情況。為了驗(yàn)證融合特征目標(biāo)跟蹤的有效性,表1分別列出單特征和融合特征進(jìn)行目標(biāo)跟蹤的精確率。
表1 單特征及融合特征跟蹤精確率Table 1 Single feature and fusion feature tracking accuracy
圖2 運(yùn)動(dòng)模糊及相似顏色背景跟蹤序列Fig.2 Motion blur and similar color background tracking sequence
圖3 形變及快速跟蹤序列Fig.3 Deformation and fast motion tracking sequence
顏色直方圖干擾感知模型主要分為三部分:(1)前后背景分離。利用其背景對(duì)象模型將目標(biāo)像素從輸入幀中提取出來(lái)。(2)利用目標(biāo)擾動(dòng)模型預(yù)先檢測(cè)存在的相似干擾區(qū)域并對(duì)其進(jìn)行抑制。(3)融合目標(biāo)區(qū)域及干擾區(qū)域,得到融合后響應(yīng)圖。圖4為顏色直方圖干擾感知模型原理示意圖。
圖4 顏色直方圖干擾感知模型原理示意圖Fig.4 Schematic diagram of color histogram interference perception model
建立顏色直方圖干擾感知模型,為了將目標(biāo)前景像素和背景像素有效區(qū)分開(kāi),采用顏色直方圖的貝葉斯分類器對(duì)目標(biāo)像素以及背景像素進(jìn)行建模:
(1)背景對(duì)象模型。根據(jù)貝葉斯公式得到像素x屬于目標(biāo)區(qū)域的概率為:
式中,O和D分別為目標(biāo)像素區(qū)域和背景像素區(qū)域;P(?x|x∈O)為目標(biāo)區(qū)域O中像素x屬于區(qū)間?x的直方圖概率,P(?x|x∈D)為背景區(qū)域D中像素x屬于區(qū)間?x的直方圖概率,計(jì)算見(jiàn)式(10);P(x∈O|O,D,?x)為構(gòu)造的貝葉斯分類模型。
(2)前景增強(qiáng)的背景對(duì)象模型。在實(shí)際目標(biāo)跟蹤場(chǎng)景中,由于相似背景干擾造成的目標(biāo)跟蹤漂移尤為常見(jiàn)。當(dāng)相似背景干擾出現(xiàn)時(shí),背景像素被誤判屬于前景的概率較高,為了更加準(zhǔn)確地提取前景像素,本文提出了增強(qiáng)前景的顏色直方圖干擾感知模型,在傳統(tǒng)背景對(duì)象模型的基礎(chǔ)上重視前景與背景顏色差異部分并增強(qiáng)前景直方圖與背景直方圖顏色差異分量,增強(qiáng)了目標(biāo)像素在復(fù)雜背景下的顯著性,使得前景更加突出,更加準(zhǔn)確地將前景像素從背景中分離。圖5 為第t幀前景顏色直方圖和背景顏色直方圖對(duì)比,其橫坐標(biāo)為像素值,縱坐標(biāo)為像素值對(duì)應(yīng)的像素個(gè)數(shù),通過(guò)加強(qiáng)兩個(gè)直方圖中對(duì)應(yīng)的直方柱的差值達(dá)到強(qiáng)化前景像素的目的。因此對(duì)式(11)進(jìn)一步改進(jìn):
圖5 Green通道前后背景顏色直方圖Fig.5 Foreground color histogram and background color histogram of Green channel
其中,Δ=1+ζ?(P(?x|x∈O)-P(?x|x∈D));ζ為增強(qiáng)系數(shù),用于控制模型突出前景的程度;P(?x|x∈O)-P(?x|x∈D)為歸一化后的前景顏色直方圖和背景顏色直方圖的差值。差值越小Δ越趨近于1,此時(shí)P(x∈O|O,D,?x)值變化較小,而差值越大說(shuō)明像素點(diǎn)在兩個(gè)直方圖對(duì)應(yīng)的直方柱上差異越大,是前景相對(duì)突出的部分,Δ同樣增大,同時(shí)P(x∈O|O,D,?x)值也變大,說(shuō)明像素點(diǎn)x屬于目標(biāo)區(qū)域O的似然概率越大,從而計(jì)算得到突出前景的像素為目標(biāo)區(qū)域的概率,達(dá)到突出前景的目的。
(3)為了進(jìn)一步提高模型抗擾動(dòng)能力,引入目標(biāo)擾動(dòng)模型:
式中,K為目標(biāo)擾動(dòng)區(qū)域,即與目標(biāo)外觀相似區(qū)域。
(4)將改進(jìn)的背景對(duì)象模型與擾動(dòng)模型整合得到目標(biāo)的聯(lián)合概率模型如下:
式中,υ為設(shè)定的權(quán)重。
通過(guò)上式得到像素級(jí)顏色概率圖,搜索所有與預(yù)測(cè)尺度大小相等的目標(biāo)候選框Ot,i,采用積分法計(jì)算每個(gè)候選框內(nèi)像素屬于目標(biāo)區(qū)域的概率和,此概率和為對(duì)應(yīng)目標(biāo)框中心位置為目標(biāo)中心位置的概率,從而得到改進(jìn)的顏色直方圖干擾感知模型中心位置響應(yīng)圖fhist(I)。
式中,Pt(x)=P(x∈O|?x)為第t幀圖像中像素x為目標(biāo)區(qū)域的概率。
為了更加適應(yīng)光照及形變變化,對(duì)顏色直方圖概率模型進(jìn)行更新:
式中,ηtemp為模型更新學(xué)習(xí)率。
大多數(shù)現(xiàn)有的多特征融合算法都是以固定權(quán)值進(jìn)行線性融合,在復(fù)雜場(chǎng)景下并不一直是最優(yōu)策略,因此本文采用自適應(yīng)特征融合策略進(jìn)行相關(guān)濾波響應(yīng)和顏色直方圖干擾感知模型概率響應(yīng)的融合,其加權(quán)融合示意圖見(jiàn)圖6。
圖6 自適應(yīng)加權(quán)融合示意圖Fig.6 Diagram of adaptive weighted fusion
(1)當(dāng)判別器認(rèn)為像素點(diǎn)x屬于目標(biāo)時(shí),Pt(x)的值會(huì)增大,同時(shí)區(qū)域內(nèi)像素屬于目標(biāo)的概率均值也會(huì)變大,這時(shí)要增加算法對(duì)顏色直方圖干擾感知模型概率響應(yīng)的關(guān)注,此時(shí)利用顏色直方圖干擾感知模型計(jì)算目標(biāo)區(qū)域像素點(diǎn)為目標(biāo)的概率均值M來(lái)確定自適應(yīng)融合權(quán)值ω,即:
式中,O?為顏色直方圖干擾感知模型計(jì)算得到的目標(biāo)區(qū)域,即n為目標(biāo)區(qū)域O?中的像素個(gè)數(shù)。
考慮到概率均值M計(jì)算的準(zhǔn)確性,在計(jì)算像素點(diǎn)為目標(biāo)的概率均值M基礎(chǔ)上減掉像素點(diǎn)屬于環(huán)繞背景區(qū)域D的概率均值,確保了概率均值M的相對(duì)準(zhǔn)確性。因此將式(17)進(jìn)一步改進(jìn)得到更加精確的概率均值M′如下:
(2)在有顏色相似物體干擾下,由于顏色直方圖概率模型只關(guān)注顏色特征,不關(guān)注像素的具體位置,此時(shí)易將顏色相似的背景像素錯(cuò)判為目標(biāo)像素,Pt(x)值和概率均值M′同樣會(huì)增大,這時(shí)HOG 特征比顏色直方圖特征更加魯棒,應(yīng)減小顏色直方圖干擾感知模型概率響應(yīng)的權(quán)值并控制其所占權(quán)重ω小于0.5,防止學(xué)習(xí)到過(guò)多背景信息。因此設(shè)置閾值ρ,當(dāng)概率均值M′≥ρ時(shí),權(quán)重ω采用指數(shù)函數(shù)計(jì)算得到:
圖7為Skating序列下各特征跟蹤效果圖,圖7(a)為各特征在序列第220 幀到350 幀的跟蹤置信度曲線圖,其中第225~229 幀目標(biāo)發(fā)生形變、第273~278幀目標(biāo)發(fā)生快速運(yùn)動(dòng),HOG 特征跟蹤置信度較低。結(jié)合圖7(b)和圖7(c)可以看出,此時(shí)利用HOG特征跟蹤出現(xiàn)了嚴(yán)重的偏差,而顏色直方圖特征準(zhǔn)確率較高,此時(shí)本文算法增加顏色直方圖的融合權(quán)重,使得算法可以較為準(zhǔn)確地跟蹤到目標(biāo)。第317~322 幀目標(biāo)運(yùn)動(dòng)模糊,第337~345 幀存在相似顏色背景干擾,如圖7(d)及圖7(e)所示,顏色直方圖特征跟蹤結(jié)果誤差較大,此時(shí)本文算法選用指數(shù)函數(shù)降低了顏色直方圖算法融合權(quán)重,有效提升了算法的跟蹤性能及魯棒性?;趫D7的定量及定性分析,結(jié)果顯示本文算法控制權(quán)重具有可行性及有效性。
圖7 Skating序列各特征融合效果分析Fig.7 Analysis of fusion effect of Skating sequence features
最終融合后的干擾感知響應(yīng)為:
本文在目標(biāo)定位階段利用得到的最終擾動(dòng)感知響應(yīng)圖的最大位置定位目標(biāo)。該融合響應(yīng)圖最大值位置即是所尋求的目標(biāo)位置。
式中,Wt為確定的目標(biāo)最終位置。
在目標(biāo)連續(xù)跟蹤過(guò)程中,目標(biāo)必然受到形變、旋轉(zhuǎn)、快速運(yùn)動(dòng)及遮擋等噪聲影響,處于不斷變化的過(guò)程中。因此選擇一個(gè)合適的模板更新策略應(yīng)對(duì)不斷變化的情況,確保更新過(guò)程中不出現(xiàn)效果退化是目標(biāo)魯棒跟蹤的關(guān)鍵之一?,F(xiàn)有的目標(biāo)模型更新算法大多都是采取逐幀并且以固定學(xué)習(xí)率進(jìn)行更新,沒(méi)有考慮當(dāng)前幀跟蹤結(jié)果的可靠性及目標(biāo)的變化程度,可能導(dǎo)致誤差累計(jì),則在復(fù)雜情況下濾波器不能較好地跟蹤到目標(biāo),最后影響跟蹤效果。因此本文基于平均峰值相關(guān)能量值和響應(yīng)圖最大值fmax判斷目標(biāo)跟蹤的可靠性,并采用自適應(yīng)更新學(xué)習(xí)率策略更新相關(guān)濾波模板。自適應(yīng)模型更新策略流程如圖8所示。
圖8 自適應(yīng)模型更新策略流程圖Fig.8 Flow chart of adaptive model update strategy
(1)高置信度判定條件
fmax是以響應(yīng)圖的峰值從局部的角度反映跟蹤置信度,不考慮響應(yīng)圖的旁瓣值,APCE 值可以反映響應(yīng)圖震蕩變化程度,是從整體的角度反映跟蹤置信度。因此將兩個(gè)指標(biāo)互補(bǔ)結(jié)合可以更好地從多角度反映跟蹤過(guò)程是否出現(xiàn)異常情況,具有較好的普適性。當(dāng)跟蹤目標(biāo)較為明顯或受干擾較小時(shí),此時(shí)將得到較為理想的響應(yīng)圖,即響應(yīng)圖為單峰形式且APCE值較高;反之,當(dāng)目標(biāo)受到背景較大影響,遮擋甚至跟蹤丟失時(shí),APCE 值會(huì)極速減小。同時(shí),在整個(gè)跟蹤過(guò)程中目標(biāo)變化對(duì)響應(yīng)圖的影響具有連續(xù)性,因此將歷史幀置信度信息融入高置信度判定部分。只有在當(dāng)前幀的APCE值以σ1的比例超過(guò)歷史幀APCE均值且當(dāng)前幀fmax值以σ2的比例超過(guò)歷史幀fmax均值時(shí),才可認(rèn)為當(dāng)前幀的跟蹤結(jié)果具有較高的置信度,否則認(rèn)為出現(xiàn)異常情況,不進(jìn)行模型更新。只有同時(shí)滿足以下兩個(gè)條件時(shí),認(rèn)為當(dāng)前幀跟蹤結(jié)果具有較高置信度。
式中,APCEt為第t幀平均峰相關(guān)能量,計(jì)算公式見(jiàn)式(23);ft,max為第t幀響應(yīng)圖最大值;σ1及σ2為設(shè)定的比例系數(shù)。APCE值的計(jì)算公式如下:
式中,fmax為響應(yīng)圖的峰值;fmin為響應(yīng)圖的最低值;fx,y為坐標(biāo)(x,y)處的響應(yīng)值。
圖9為coke視頻序列在跟蹤過(guò)程中,各置信度分量變化情況,其中目標(biāo)從第28 幀到第42 幀出現(xiàn)遮擋。由圖可以看出,第31幀到第39幀,fmax曲線位于fmax置信度曲線下方,此時(shí)不符合式(22)所設(shè)條件,同理在第31幀到第40幀,APCE值位于APCE置信度曲線下方,不滿足高置信度條件。因此,跟蹤模型在第31幀到第40幀屬于低置信度區(qū)間,不進(jìn)行模型更新,有效避免了學(xué)習(xí)過(guò)多背景信息造成模型的錯(cuò)誤更新。
圖9 coke視頻序列跟蹤置信度分量變化Fig.9 Component changes of coke sequence tracking confidence
(2)自適應(yīng)更新模型學(xué)習(xí)率
在跟蹤過(guò)程中,當(dāng)目標(biāo)出現(xiàn)形變、旋轉(zhuǎn)和快速運(yùn)動(dòng)等情況時(shí),容易導(dǎo)致跟蹤漂移,這是因?yàn)楫?dāng)目標(biāo)發(fā)生較大變化時(shí),設(shè)置的固定學(xué)習(xí)率較小不能使模型快速學(xué)習(xí)到目標(biāo)的變化,只能學(xué)習(xí)當(dāng)前幀中較少的信息,從而導(dǎo)致跟蹤結(jié)果不準(zhǔn)確,如圖10(a)所示。若設(shè)置的學(xué)習(xí)率過(guò)大,一旦上一幀由于遮擋、形變、快速運(yùn)動(dòng)等因素導(dǎo)致跟蹤結(jié)果有偏差時(shí),模型會(huì)大量學(xué)習(xí)背景信息,誤差累計(jì)到一定程度模型可能會(huì)將背景誤判為跟蹤目標(biāo),導(dǎo)致目標(biāo)丟失,如圖10(b)所示。而圖10(c)為學(xué)習(xí)率適中的跟蹤效果,針對(duì)以上問(wèn)題,本文提出了聯(lián)合幀差法及前后幀間歐式距離判斷目標(biāo)的變化程度并設(shè)置相應(yīng)的相關(guān)濾波更新學(xué)習(xí)率,達(dá)到自適應(yīng)更新模型的目的。
圖10 不同學(xué)習(xí)率下的跟蹤效果圖Fig.10 Tracking renderings of different learning rates
①通過(guò)(1)判斷當(dāng)前幀跟蹤結(jié)果的置信度,當(dāng)置信度不滿足高置信度條件時(shí),不進(jìn)行模型更新,學(xué)習(xí)率保持不變。此時(shí)η=η1。
②當(dāng)置信度滿足高置信度條件時(shí)進(jìn)行模型更新,此時(shí)用式(24)幀差法判斷目標(biāo)的變化程度,設(shè)置閾值?,當(dāng)幀差均值α,說(shuō)明目標(biāo)或背景變化幅度較小,僅需設(shè)置較小的學(xué)習(xí)率,此時(shí)η=η2;反之說(shuō)明變化較劇烈,需要進(jìn)一步判斷是目標(biāo)變化還是背景發(fā)生變化。
式中,α為幀差均值;D(x,y)為前后兩幀圖像的灰度差;N、Q為差分圖像大小。
③通過(guò)②可判斷目標(biāo)或是背景變化的幅度,當(dāng)α≥?變化幅度較大時(shí),通過(guò)計(jì)算前后兩幀的歐氏距離β判斷目標(biāo)是否發(fā)生較大運(yùn)動(dòng),設(shè)置閾值Γ,當(dāng)歐式距離β<Γ時(shí),說(shuō)明目標(biāo)的移動(dòng)位移較小,可能是背景在發(fā)生變化,此時(shí)設(shè)置適中學(xué)習(xí)率η=η3;反之,當(dāng)α≥?且β≥Γ時(shí),說(shuō)明目標(biāo)發(fā)生了較大位移,此時(shí)目標(biāo)可能發(fā)生了較大的變化或處于快速運(yùn)動(dòng)狀態(tài),此時(shí)應(yīng)該設(shè)置較大的學(xué)習(xí)率,使算法可以更好地適應(yīng)目標(biāo)變化η=η4。
歐式距離β計(jì)算公式:
通過(guò)(1)和(2)判斷目標(biāo)狀態(tài)并根據(jù)其狀態(tài)設(shè)置不同的學(xué)習(xí)率η,保證在相鄰兩幀目標(biāo)變化較小時(shí)設(shè)置較小的學(xué)習(xí)率,目標(biāo)變化較大時(shí)設(shè)置較大學(xué)習(xí)率來(lái)加快對(duì)模型的更新,通過(guò)自適應(yīng)改變學(xué)習(xí)率可以使模型更好地跟蹤到目標(biāo)。
(1)建立初始幀樣本模型。手動(dòng)選定初始幀跟蹤目標(biāo)和目標(biāo)框位置(x,y)及其背景區(qū)域。
(2)濾波器訓(xùn)練。提取目標(biāo)的HOG特征,通過(guò)式(2)和式(9)訓(xùn)練二維位置濾波器和一維尺度濾波器,同時(shí)通過(guò)式(14)訓(xùn)練顏色直方圖干擾感知模型。
(3)定位目標(biāo)。截取目標(biāo)候選區(qū)域并提取特征,將其與上一幀訓(xùn)練得到的相關(guān)濾波器通過(guò)式(7)和式(8)進(jìn)行相關(guān)運(yùn)算,生成相關(guān)濾波響應(yīng)圖fcf(I)。同時(shí)利用改進(jìn)的顏色直方圖干擾感知模型通過(guò)式(14)計(jì)算像素屬于目標(biāo)區(qū)域的概率,然后代入式(15)得到顏色直方圖概率響應(yīng)fhist(I),最后通過(guò)式(18)和式(19)確定fcf(I)和fhist(I)的融合權(quán)重ω并代入式(20)計(jì)算融合后的干擾感知響應(yīng)圖f(I),此響應(yīng)圖最高峰位置即為目標(biāo)所在位置。
(4)高置信度判別。利用APCE值和最高響應(yīng)值fmax進(jìn)行可靠性判斷,通過(guò)判別結(jié)果轉(zhuǎn)至步驟(6)選擇相應(yīng)的更新策略。
(5)目標(biāo)尺度估計(jì)。根據(jù)式(9)創(chuàng)建尺度金字塔,利用尺度濾波器計(jì)算最大響應(yīng)求得目標(biāo)的最佳尺度。
(6)自適應(yīng)模型更新。步驟(4)判別跟蹤結(jié)果滿足高置信度條件時(shí),通過(guò)式(6)更新顏色直方圖干擾感知模型,同時(shí)利用式(24)及式(25)確定相關(guān)濾波自適應(yīng)更新學(xué)習(xí)率η,實(shí)現(xiàn)相關(guān)濾波模型的自適應(yīng)更新。
(7)輸出跟蹤結(jié)果。將跟蹤結(jié)果可視化輸出,跳轉(zhuǎn)至步驟(2)繼續(xù)跟蹤下一幀圖像目標(biāo)。
本文算法采用GUN Octave 作為實(shí)驗(yàn)測(cè)試開(kāi)發(fā)平臺(tái),處理器為Intel?CoreTMi5-9300H CPU,操作系統(tǒng)Windows 10,8 GB內(nèi)存。本文算法參數(shù)設(shè)置:相關(guān)濾波位置濾波器中,初始未壓縮的特征維度d=32,降維后的特征維度=17,正則化參數(shù)設(shè)置為λ=0.001。顏色直方圖干擾感知模型中:前景增強(qiáng)系數(shù)為ζ=9.5,聯(lián)合概率模型融合權(quán)重υ=0.3,模型學(xué)習(xí)率ηtemp=0.04。尺度模型中:尺度因子a=1.02,壓縮后的特征維數(shù)s=17。自適應(yīng)融合閾值ρ采用最優(yōu)化步長(zhǎng)逼近方式獲得:閾值ρ取值范圍為(0,1),根據(jù)設(shè)置的步長(zhǎng)由粗到精地找到最佳閾值ρ的大小。首先將起始步長(zhǎng)設(shè)置為0.1,根據(jù)逐次實(shí)驗(yàn)得到其最佳閾值大小為0.4。再以0.4為中心、以長(zhǎng)度為0.02的步長(zhǎng)為基準(zhǔn)在范圍(0.34,0.46)內(nèi)進(jìn)行逐次實(shí)驗(yàn)比較,其實(shí)驗(yàn)得到的最佳閾值的取值為ρ=0.38,最后以0.01長(zhǎng)度為基準(zhǔn)步長(zhǎng)在范圍(0.35,0.41)進(jìn)行對(duì)應(yīng)的實(shí)驗(yàn)比較,得到最終的最優(yōu)閾值取值為ρ=0.38。置信度比例值的設(shè)定:σ1=0.45,σ2=0.60。目標(biāo)更新學(xué)習(xí)率及其閾值大小的設(shè)定:幀差閾值及位移閾值同樣通過(guò)步長(zhǎng)逼近方式經(jīng)過(guò)多次實(shí)驗(yàn)比對(duì)獲得,其中幀差閾值設(shè)定為?=3.5,目標(biāo)位移閾值為Γ=11。四種學(xué)習(xí)率分別設(shè)置為η1=0,η2=0.005,η3=0.009,η4=0.02。
本文選取OTB100 數(shù)據(jù)集用于與其他主流算法進(jìn)行實(shí)驗(yàn)對(duì)比,OTB100數(shù)據(jù)集是目標(biāo)跟蹤實(shí)驗(yàn)中常用的數(shù)據(jù)集,其包含100個(gè)涉及了11種不同視覺(jué)目標(biāo)跟蹤挑戰(zhàn)屬性的視頻序列。OTB100 數(shù)據(jù)集包含的11 種屬性分別為:光照變化(illumination variation,IV)、尺度變化(scale variation,SV)、遮擋(occlusion,OCC)、非剛性變化(deformation,DEF)、運(yùn)動(dòng)模糊(motion blur,MB)、快速運(yùn)動(dòng)(fast motion,F(xiàn)M)、平面內(nèi)旋轉(zhuǎn)(in-plane rotation,IPR)、平面外旋轉(zhuǎn)(out-plane rotation,OPR)、超出視野(out of view,OV)、復(fù)雜背景(background clutter,BC)、低分辨率(low resolution,LR)。這11 種屬性可以更加清晰地、綜合地與其他算法進(jìn)行跟蹤性能的對(duì)比。本文算法采用一次性通過(guò)評(píng)估(one-pass evaluation,OPE)分析算法的性能及魯棒性,以第一幀標(biāo)注的目標(biāo)位置為初始位置,測(cè)試整個(gè)視頻序列組,將跟蹤成功率和精確率作為評(píng)價(jià)標(biāo)準(zhǔn)。
本文選取了8種主流算法進(jìn)行對(duì)比實(shí)驗(yàn),驗(yàn)證其有效性及魯棒性。對(duì)比算法分別為:STRCF、BACF、fDSST、Staple、ARCF、DeepSTRCF、AutoTrack、ACSDCF。
3.3.1 定量比較
圖11 為9 種算法在OTB100 數(shù)據(jù)集上的精確率和成功率曲線,本文算法的成功率為0.780,僅低于深度學(xué)習(xí)DeepSTRCF算法0.029,高于次優(yōu)ACSDCF算法0.016,精確率為0.838,低于深度學(xué)習(xí)DeepSTRCF算法0.011,高于次優(yōu)STRCF 算法0.021。本文在相關(guān)濾波的基礎(chǔ)上結(jié)合了強(qiáng)化前景的顏色直方圖干擾感知模型,有效彌補(bǔ)了相關(guān)濾波算法采用局部特征進(jìn)行特征提取時(shí),對(duì)于邊緣模糊情況下跟蹤精度較低的不足,因此提高了目標(biāo)在形變、運(yùn)動(dòng)模糊及快速運(yùn)動(dòng)挑戰(zhàn)下的魯棒性,整體性能最優(yōu)。最后,進(jìn)行異常分析和自適應(yīng)更新學(xué)習(xí)率,跟蹤異常出現(xiàn)時(shí),不更新模型,有效避免了學(xué)習(xí)過(guò)多背景信息造成的跟蹤漂移。由圖12 可見(jiàn),本文算法在形變屬性下成功率和精確率都達(dá)到了最高,分別是0.768和0.843。如圖13 所示,本文算法在運(yùn)動(dòng)模糊屬性下成功率和精確率達(dá)到了0.803 和0.814,遠(yuǎn)遠(yuǎn)超過(guò)其他算法。如圖14 所示,本文算法在快速運(yùn)動(dòng)屬性下成功率和精確率高達(dá)0.796和0.818,均位居第一。
圖11 9種跟蹤算法對(duì)比曲線Fig.11 Comparison curves of 9 tracking algorithms
圖13 9種跟蹤算法運(yùn)動(dòng)模糊屬性對(duì)比曲線Fig.13 Comparison curves of 9 tracking algorithms motion blur sequence
為了更加直觀地對(duì)比本文算法與其他算法在各屬性下的跟蹤效果,表2 和表3 分別列出了這9 種算法在OTB100 數(shù)據(jù)集上11 種視頻屬性下的跟蹤精確率和成功率。
表2 9種跟蹤算法在各屬性序列上的精確率得分Table 2 Precision scores of 9 tracking algorithms on attribute sequences
表3 9種跟蹤算法在各屬性序列上的成功率得分Table 3 Success scores of 9 tracking algorithms on attribute sequences
3.3.2 定性分析
為了更加直觀地比較本文算法和其他8 種算法在這11種屬性下的跟蹤效果,圖15列出了包含這11種屬性的部分視頻序列。
圖15 各算法跟蹤結(jié)果對(duì)比Fig.15 Comparison of tracking results of each algorithm
skiing序列中包含了形變、旋轉(zhuǎn)、背景雜亂、低分辨率及尺度變化等視頻屬性。在第11 幀時(shí),目標(biāo)發(fā)生了第一次旋轉(zhuǎn)及形變,導(dǎo)致ACSDCF、STRCF、ARCF、fDSST 及DeepSTRCF 算法均發(fā)生不同程度的漂移;到第15 幀時(shí),AutoTrack 和Staple 算法不能夠及時(shí)學(xué)習(xí)到目標(biāo)變化也逐漸發(fā)生漂移;在第22幀到第51幀,目標(biāo)不斷發(fā)生旋轉(zhuǎn)和形變,且背景較為雜亂導(dǎo)致目標(biāo)分辨率較低,而本文算法在傳統(tǒng)背景對(duì)象模型的基礎(chǔ)上突出了前后背景的顏色差異分量,更好地應(yīng)對(duì)雜亂背景,此時(shí)只有本文算法和BACF算法能夠準(zhǔn)確地跟蹤目標(biāo),其他算法均漂移到了背景上,導(dǎo)致目標(biāo)丟失;到第63 幀時(shí),目標(biāo)發(fā)生形變且遠(yuǎn)離攝像頭,造成目標(biāo)尺度發(fā)生變化,BACF算法不能適應(yīng)目標(biāo)的尺度變化導(dǎo)致跟蹤框較大,包含了較多的背景信息,降低了跟蹤精度。此時(shí)只有本文算法可以精確定位目標(biāo),其余算法均存在跟蹤誤差。
在Bolt2視頻序列中,目標(biāo)具有形變、尺度變化等屬性并存在大量相似物干擾。在第8幀時(shí),目標(biāo)發(fā)生自身形變,此時(shí)從圖中可以看出ACSDCF、STRCF、ARCF、AutoTrack、fDSST算法不能適應(yīng)目標(biāo)的變化,在跟蹤過(guò)程中學(xué)習(xí)到較多的背景信息,從而逐漸導(dǎo)致目標(biāo)跟蹤漂移,而本文算法采用自適應(yīng)更新學(xué)習(xí)率策略并結(jié)合了全局顏色特征可以更好地應(yīng)對(duì)目標(biāo)形變;在第11幀時(shí),ARCF及STRCF算法甚至跟蹤漂移到了目標(biāo)相似物上,而本文算法改進(jìn)了增強(qiáng)前景的背景對(duì)象模型,可以有效避免相似物的干擾;在第22幀到第33幀,目標(biāo)形變較大且出現(xiàn)自身尺度變化,DeepSTRCF、Staple、BACF算法逐漸發(fā)生不同程度的漂移,只跟蹤到了目標(biāo)的一部分,只有本文算法跟蹤較為準(zhǔn)確;到第86 幀,目標(biāo)一直發(fā)生形變及尺度變化,只有本文算法可以準(zhǔn)確地跟蹤到目標(biāo),其他算法均發(fā)生嚴(yán)重漂移。
DragonBaby視頻序列中包含快速運(yùn)動(dòng)、遮擋、旋轉(zhuǎn)、形變、出視野等屬性。第27幀到第32幀,目標(biāo)第一次發(fā)生旋轉(zhuǎn)并造成形變和自身遮擋,在翻轉(zhuǎn)開(kāi)始時(shí)(第27幀)除本文算法、ACSDCF、BACF算法,其他算法均發(fā)生漂移,第32幀目標(biāo)再次出現(xiàn)時(shí),BACF 和ACSDCF出現(xiàn)中度漂移,只有本文算法和DeepSTRCF算法較準(zhǔn)確地定位到目標(biāo);在第45幀時(shí),目標(biāo)由于快速運(yùn)動(dòng)造成運(yùn)動(dòng)模糊和出視野,此時(shí)僅有本文算法正確跟蹤到目標(biāo),其他算法不能較好地提取到目標(biāo)特征導(dǎo)致跟蹤漂移;在序列第82 幀到第91 幀,由于目標(biāo)再次發(fā)生快速運(yùn)動(dòng)及自身形變,僅本文算法和ACSDCF 可以準(zhǔn)確定位目標(biāo),其他算法不能較好地學(xué)習(xí)到目標(biāo)的變化,導(dǎo)致目標(biāo)丟失。本文引入了顏色直方圖模型,因此對(duì)目標(biāo)外觀變化及邊緣信息較為魯棒,可以較好地解決快速運(yùn)動(dòng)、形變及運(yùn)動(dòng)模糊造成的目標(biāo)丟失問(wèn)題。
在Girl2 視頻序列中,存在遮擋、形變、尺度變化及運(yùn)動(dòng)模糊等挑戰(zhàn)。從初始幀到第102幀,所有算法均可準(zhǔn)確地跟蹤到目標(biāo);第107幀到第134幀目標(biāo)出現(xiàn)遮擋,目標(biāo)被部分遮擋時(shí)(第107 幀),ARCF 和fDSST算法完全漂移,Staple、BACF算法也部分漂移到遮擋物上;到第135幀時(shí)遮擋結(jié)束,目標(biāo)再次出現(xiàn),從第135幀到第295幀,只有本文算法和ACSDCF算法可重新定位到目標(biāo),其余算法均發(fā)生嚴(yán)重漂移,丟失目標(biāo);第345幀時(shí),目標(biāo)自動(dòng)移動(dòng)到STRCF、DeepSTRCF算法目標(biāo)跟蹤框位置時(shí),STRCF 和DeepSTRCF 算法才重新跟蹤到目標(biāo);在第972幀時(shí),目標(biāo)出現(xiàn)形變及尺度變化,ACSDCF 算法不能適應(yīng)目標(biāo)的尺度變化,同時(shí)STRCF 及DeepSTRCF 算法也只能跟蹤到目標(biāo)的一部分,出現(xiàn)中度漂移。從初始幀到最后一幀只有本文算法可以準(zhǔn)確跟蹤目標(biāo),說(shuō)明本文算法對(duì)于遮擋、形變及尺度變化的魯棒性較高。
在BlurOwl 序列中,目標(biāo)具有快速運(yùn)動(dòng)、旋轉(zhuǎn)及運(yùn)動(dòng)模糊等屬性。從序列第47 幀到第52 幀目標(biāo)發(fā)生旋轉(zhuǎn)、快速運(yùn)動(dòng)并導(dǎo)致運(yùn)動(dòng)模糊,可以看到Staple、BACF、fDSST、ARCF 算法跟蹤精度顯著降低,出現(xiàn)一定程度的漂移;序列第68幀、第155幀及第443幀,攝像頭再次快速旋轉(zhuǎn)導(dǎo)致目標(biāo)模糊嚴(yán)重、分辨率較低、目標(biāo)邊緣特征極不明顯,此時(shí),DeepSTRCF、ACSDCF、AutoTrack 和STRCF 算法提取不到目標(biāo)的邊緣輪廓特征,出現(xiàn)嚴(yán)重漂移,只有文本算法準(zhǔn)確定位目標(biāo)。本文算法利用強(qiáng)化前景的顏色直方圖模型進(jìn)行顏色特征統(tǒng)計(jì),有效彌補(bǔ)了局部特征的缺陷,增強(qiáng)了目標(biāo)在快速運(yùn)動(dòng)及運(yùn)動(dòng)模糊等挑戰(zhàn)下的魯棒性,使算法較準(zhǔn)確地跟蹤到目標(biāo)。
在Matrix 視頻序列中,目標(biāo)背景比較復(fù)雜,存在光照變化、形變、快速運(yùn)動(dòng)等屬性。在第21 幀時(shí),目標(biāo)自身旋轉(zhuǎn),ARCF、AutoTrack算法首先丟失目標(biāo);在第36 幀,目標(biāo)發(fā)生旋轉(zhuǎn)及快速運(yùn)動(dòng),ARCF、STRCF、Staple、BACF、DeepSTRCF 及ACSDCF 算法陸續(xù)脫離正確位置,丟失目標(biāo);在序列第44 幀時(shí),出現(xiàn)嚴(yán)重光照變化,此時(shí)只有本文算法具有較高的適應(yīng)性,準(zhǔn)確跟蹤目標(biāo);在第50 幀到第72 幀,目標(biāo)一直處于復(fù)雜背景及光照變化條件下,同時(shí)目標(biāo)姿態(tài)也不斷發(fā)生變化,BACF 和ACSDCF 算法跟蹤精度較低,部分跟蹤框漂移到背景上,其他算法均丟失目標(biāo),僅本文算法精確定位目標(biāo)。
本文從OTB100 數(shù)據(jù)集中隨機(jī)選取了30 組視頻序列進(jìn)行算法的跟蹤實(shí)時(shí)性對(duì)比,以每秒讀取幀數(shù)的平均值作為跟蹤速度的評(píng)價(jià)指標(biāo),9種算法的測(cè)試結(jié)果如表4所示。結(jié)合表2及表3,結(jié)果顯示,相比其他算法,本文算法在保障了算法實(shí)時(shí)性的前提下,有效提高了跟蹤算法的性能。
表4 9種跟蹤算法在各屬性序列上的平均跟蹤速度Table 4 Average tracking speed of 9 tracking algorithms on attribute sequences 單位:FPS
針對(duì)傳統(tǒng)相關(guān)濾波算法通常提取局部特征(HOG 特征)導(dǎo)致目標(biāo)邊緣信息模糊或發(fā)生變化時(shí),跟蹤效果不佳的問(wèn)題,本文在相關(guān)濾波算法的基礎(chǔ)上自適應(yīng)融合了顏色直方圖干擾感知模型,兩者有效互補(bǔ)減少了跟蹤的局限性,且本文改進(jìn)了顏色直方圖干擾感知模型,增大前后背景顏色差異部分以達(dá)到強(qiáng)化突出前景的作用。因此,提高了目標(biāo)在形變、運(yùn)動(dòng)模糊、快速運(yùn)動(dòng)及相似物干擾等挑戰(zhàn)下的跟蹤魯棒性。同時(shí),進(jìn)行跟蹤異常判斷,當(dāng)跟蹤精度較低時(shí),不更新模型,有效避免了目標(biāo)錯(cuò)判及學(xué)習(xí)較多背景信息。另外,當(dāng)跟蹤置信度較高時(shí),自適應(yīng)更新學(xué)習(xí)率使得跟蹤模板可以較好地適應(yīng)目標(biāo)變化。本文算法在OTB100數(shù)據(jù)集上進(jìn)行了大量的對(duì)比實(shí)驗(yàn),本文的成功率和精確率均高于其他8種主流算法,表明本文算法具有較高的跟蹤準(zhǔn)確性及魯棒性。本文算法雖滿足跟蹤實(shí)時(shí)性,但為了進(jìn)一步提高算法速度,在今后的工作中考慮將相關(guān)濾波算法與深度學(xué)習(xí)算法進(jìn)行結(jié)合。