米向榮,曹建芳
(忻州師范學(xué)院 計(jì)算機(jī)科學(xué)與技術(shù)系,山西 忻州 034000)
最近提出了大量優(yōu)秀的跟蹤算法[1],黃清泉等[2]將局部背景信息引入到目標(biāo)直方圖模型中,提高了復(fù)雜情況下的跟蹤性能;顧鑫等[3]利用局部加權(quán)直方圖構(gòu)建目標(biāo)模型,將目標(biāo)上下文信息引入到目標(biāo)直方圖模型中,增強(qiáng)了目標(biāo)外觀模型的表觀能力;修春波等[4]基于顯著性直方圖的目標(biāo)跟蹤方法,分別計(jì)算目標(biāo)區(qū)域與背景區(qū)域的顏色顯著性值,弱化背景干擾,提高跟蹤魯棒性;郭金朋等[5]等將SURF特征與Camshift算法進(jìn)行融合,對(duì)目標(biāo)模板進(jìn)行實(shí)時(shí)在線匹配,解決了復(fù)雜背景下相似目標(biāo)干擾問題;Horst
等[6]提出基于顏色直方圖的干擾感知跟蹤(distractor-aware-tracking,DAT),通過引入干擾感知模型解決復(fù)雜場景下的相似目標(biāo)混淆問題和跟蹤漂移問題,取得了不錯(cuò)的效果。
然而,上述跟蹤算法都沒能解決劇烈光照變化、情況下的魯棒目標(biāo)跟蹤問題,本文在DAT算法的基礎(chǔ)上提出基于局部敏感直方圖的魯棒目標(biāo)跟蹤。通過局部敏感直方圖計(jì)算光照不變特征,提高劇烈光照變化情況下的目標(biāo)外觀模型魯棒性;引入干擾感知模型,將干擾感知模型和顏色概率模型進(jìn)行加權(quán)融合,以此解決復(fù)雜背景情況下的目標(biāo)跟蹤漂移問題;通過尺度自適應(yīng)策略,解決目標(biāo)尺度估計(jì)問題;最后利用公開數(shù)據(jù)集[7]測(cè)試本文算法性能。
文獻(xiàn)[6]提出干擾感知跟蹤,其在顏色直方圖跟蹤算法上,引入干擾感知模型,有效降低了復(fù)雜情況下的跟蹤漂移問題,提高了跟蹤魯棒性。干擾感知跟蹤主要分為目標(biāo)顏色概率模型和干擾感知模型,下面對(duì)干擾感知跟蹤進(jìn)行簡單介紹:
為了對(duì)目標(biāo)與背景進(jìn)行區(qū)分,利用貝葉斯分類器對(duì)目標(biāo)像素進(jìn)行建模,則有
(1)
這里P(x∈O|O,BG,bx)表示像素x屬于目標(biāo)的概率,O,BG分別表示目標(biāo)區(qū)域、背景區(qū)域,Ω表示區(qū)域O和BG的集合,P(x∈O)和P(x∈BG)表示像素x屬于區(qū)域O和BG區(qū)域的概率,P(bx|x∈O)和P(bx|x∈BG)表示區(qū)域O和BG中屬于區(qū)間bx。
(2)
(3)
這里|·|表示計(jì)算區(qū)域內(nèi)像素個(gè)數(shù)。
則式(1)可以簡化為
(4)
同時(shí)為了提高算法在復(fù)雜場景下的抗干擾能力,引入干擾感知模型(即目標(biāo)-擾動(dòng)概率模型),其定義為
(5)
最終目標(biāo)聯(lián)合概率模型為
P(x∈O|bx)=βP(x∈O,BG,bx)+
(1-β)P(x∈O,S,bx)
(6)
這里β表示模型融合權(quán)重因子,這里設(shè)置為0.5。然后,計(jì)算目標(biāo)概率似然響應(yīng)圖有
(7)
這里|W|表示搜索窗口內(nèi)的像素個(gè)數(shù),P(xi,j)表示像素xi,j屬于目標(biāo)的似然概率。似然響應(yīng)圖中最大響應(yīng)所在位置就是目標(biāo)所在位置。
為了解決劇烈光照情況下的跟蹤漂移問題,本文提出基于局部敏感直方圖的魯棒目標(biāo)跟蹤,圖1為本文算法流程。
圖1 本文算法流程
傳統(tǒng)的圖像直方圖是統(tǒng)計(jì)特定灰度值出現(xiàn)的次數(shù),而局部敏感直方圖[8](local sensitive histogram,LSH)是對(duì)一個(gè)像素周圍的像素進(jìn)行統(tǒng)計(jì),計(jì)算對(duì)應(yīng)像素點(diǎn)的直方圖,然后通過加權(quán)形式計(jì)算每個(gè)點(diǎn)的直方圖信息。在計(jì)算局部敏感直方圖時(shí)考慮像素的位置信息,越靠近目標(biāo)像素中心的像素點(diǎn)權(quán)重系數(shù)越大
(8)
這里W表示直方圖統(tǒng)計(jì)像素個(gè)數(shù),α是距離懲罰系數(shù),p與q表示像素位置,B表示灰度級(jí)數(shù),Q(Iq,b)用于判別q位置處的像素值Iq是否等于像素b,如果Iq=b則Q=1,否則Q=0。
利用局部敏感直方圖可以計(jì)算光照不變特征(illumination invariant feature,IFF),其定義為
(9)
最后通過目標(biāo)顏色概率模型和干擾感知模型,計(jì)算目標(biāo)聯(lián)合概率,最后目標(biāo)似然概率響應(yīng)圖為
(10)
(11)
采用線性插值的方法對(duì)目標(biāo)外觀模型更新
(12)
為了保證目標(biāo)尺度估計(jì)的魯棒性,采用線性插值的方法對(duì)目標(biāo)尺度進(jìn)行更新
(13)
本文算法的實(shí)驗(yàn)平臺(tái)為VS2013,所有實(shí)驗(yàn)均在intel i7-7700k CPU,主頻4.2 GHZ,內(nèi)存32 G的PC上進(jìn)行。本文算法的參數(shù)設(shè)置為:模型融合權(quán)重因子β設(shè)置為0.5,常數(shù)k為0.1,權(quán)重因子α設(shè)置為0.5,目標(biāo)外觀模型學(xué)習(xí)速率γ為0.1,目標(biāo)尺度狀態(tài)學(xué)習(xí)速率φ為0.2。
利用8組公開數(shù)據(jù)集測(cè)試本文算法在劇烈光照變化、尺度變化和背景嘈雜等情況下的性能,同時(shí)與6種算法進(jìn)行比較:KCF[9]、LSHT[8]、DAT[6]、Struck[10]、TLD[11]和LOT[12],記錄不同算法的整體精確度圖和成功率圖以及在不同序列上的跟蹤誤差(又叫中心位置誤差)。
中心位置誤差(center location error,CLE):指跟蹤目標(biāo)真實(shí)中心坐標(biāo)與跟蹤得到的目標(biāo)位置之間的歐式距離。
精確度圖(precision plot):表示跟蹤目標(biāo)的CLE小于指定閾值的幀數(shù)占跟蹤序列幀數(shù)的比例。當(dāng)閾值取為20時(shí),表示算法的精確度得分。
成功率圖(success plot):表示跟蹤目標(biāo)窗口與真實(shí)目標(biāo)窗口之間重疊率大于指定閾值的幀數(shù)占總幀數(shù)的百分比。一般閾值設(shè)置為0.5時(shí),獲取算法的成功率得分,但是為了保證算法的魯棒性,這里用成功率曲線下的面積表示算法的成功率。
測(cè)試視頻序列屬性,見表1。
3.1.1 劇烈光照變化情況下特征分析
圖2是劇烈光照變化情況下的圖像處理結(jié)果。在圖2(a)中顯示弱光和正常情況的圖像,圖2(b)中是經(jīng)過局部敏感直方圖處理之后的圖像,從處理結(jié)果中看出局部敏感直方圖能最大限度地降低光照變化對(duì)圖像的影響,說明本文算法利用局部敏感直方圖解決光照變化的方法是有效的。
表1 測(cè)試視頻序列屬性
圖2 劇烈光照變化情況下的光照不變特征
3.1.2 不同屬性視頻序列上跟蹤結(jié)果分析
劇烈光照變化情況下跟蹤情況分析:圖3為劇烈光照變化情況下7種算法的實(shí)際跟蹤情況。在劇烈光照變化情況下,目標(biāo)外觀模型發(fā)生劇烈變化,此時(shí)極易出現(xiàn)跟蹤漂移或跟蹤失敗現(xiàn)象。例如,在圖3(b)threllis序列中跟蹤人臉從#166到#311幀,人臉受到劇烈光線照射,面部特征發(fā)生劇烈變化,此時(shí)跟蹤器容易發(fā)生跟蹤失敗。從圖3(b)第#311幀看出只有本文算法、Struck和KCF算法能較為準(zhǔn)確的跟指定目標(biāo),而其它算法均出現(xiàn)較大的跟蹤漂移,甚至跟蹤失敗,如LOT算法(因?yàn)槠渲饕玫氖腔叶忍卣?,?duì)光照變化較為敏感,在劇烈光照變化情況下極易跟蹤失敗,而本文算法通過利用局部敏感直方圖構(gòu)建光照不變特征,極大降低了光照變化的影響)。同時(shí)在man、human8和coke_c等序列中,跟蹤目標(biāo)所受到的主要挑戰(zhàn)是劇烈光照變化。通過圖3中7種算法實(shí)際跟蹤情況分析,看出本文算法能很解決劇烈光照變化情況下的跟蹤問題。
尺度變化情況下的跟蹤情況分析:在圖4(a)和圖4(b)中目標(biāo)外觀模型(大小)發(fā)生尺度變化。在目標(biāo)跟蹤算法中,若目標(biāo)發(fā)生外觀模型的變化,容易造成跟蹤器跟蹤漂移問題,而本文利用自適應(yīng)尺度分割方法,有效解決了目標(biāo)尺度變化問題,提高了跟蹤精確性。例如在圖4(a)dog序列中,從第#1到第#91幀,狗發(fā)生尺度變化,因?yàn)镵CF算法與Struck算法不具備尺度估計(jì)策略,所以無法解決尺度變化情況下跟蹤漂移問題,降低了跟蹤魯棒性。而在圖4(b)中,目標(biāo)同樣發(fā)生尺度變化,發(fā)現(xiàn)雖然DAT算法具有尺度變化策略,但是DAT算法還是發(fā)生跟蹤失敗,這是因?yàn)镈AT算法在灰度圖像上進(jìn)行跟蹤時(shí),其利用的是單通道的灰度特征,因此效果很差。通過圖4(a)和圖4(b)看出本文算法能很好地解決目標(biāo)尺度變化問題。
圖3 劇烈光照變化情況下的跟蹤情況
圖4 目標(biāo)劇烈尺度變化和背景嘈雜情況下的跟蹤情況
背景嘈雜情況下的跟蹤情況分析:在圖4(c)和圖4(d)中跟蹤目標(biāo)處于復(fù)雜的背景中,此時(shí)受背景干擾極易發(fā)生跟蹤漂移和跟蹤失敗。本文算法因?yàn)槔酶蓴_感知模型,因此能很好解決背景嘈雜情況下的目標(biāo)干擾。例如,在圖4(c)crossing第#26、#86和#105幀,受背景干擾的影響,LOT、TLD和LSHT算法發(fā)生跟蹤失敗,而本文算法和DAT因?yàn)榫哂懈蓴_感知模型,因此能很好解決背景嘈雜情況下的跟蹤漂移問題。
為了更好分析本文算法的優(yōu)缺點(diǎn),分別記錄本文算法與其它6種算法在測(cè)試序列上的整體精確度圖和成功率圖(圖5)。同時(shí),記錄此7種算法在不同視頻序列上的跟蹤誤差(圖6和圖7)。
從圖5中看出本文算法的精確度得分和成功率得分分別為0.999和0.721,在7種算法中排名第一,說明本文算法能很好的解決目標(biāo)光照變化、尺度變化和背景嘈雜情況下的精確目標(biāo)跟蹤任務(wù)。同時(shí)測(cè)試本文算法在測(cè)試序列上的平均速度為21.2FPS,滿足實(shí)時(shí)性要求。
圖6和圖7記錄7種算法在8個(gè)視頻序列上的跟蹤誤差。從coke_c、human8、man和threllis序列上的跟蹤誤差看出,傳統(tǒng)的基于直方圖模型的跟蹤算法(如DAT、LSHT和LOT)對(duì)光照變化較敏感,當(dāng)跟蹤目標(biāo)受到光照變化的影響,其外觀模型發(fā)生劇烈變化,此時(shí)極易發(fā)生跟蹤漂移,因此跟蹤誤差加大。而本文算法通過利用局部敏感直方圖和干擾感知模型很好解決了問題。在目標(biāo)發(fā)生尺度變化和背景嘈雜的情況下,本文算法的跟蹤誤差均小于DAT和LSHT算法,說明本文算法的尺度估計(jì)策略和干擾感知模型時(shí)有效的。
針對(duì)劇烈光照變化、尺度變化和背景嘈雜問題,提出了一種基于局部敏感直方圖的魯棒目標(biāo)跟蹤算法,利用局部敏感直方圖構(gòu)建魯棒的目標(biāo)顏色概率模型,降低劇烈光照情況下的跟蹤漂移問題,提高跟蹤精度;然后引入直方圖干擾感知模型,通過加權(quán)融合的方式獲取目標(biāo)直方圖概率模型,估計(jì)目標(biāo)位置變化;最后通過自適應(yīng)尺度估計(jì)策略解決目標(biāo)尺度估計(jì)問題。實(shí)驗(yàn)結(jié)果表明,本文算法能很好解決復(fù)雜情況下的精確目標(biāo)跟蹤任務(wù),具有一定研究價(jià)值。
圖5 算法整體跟蹤精確度和成功率
圖6 算法在coke_c,human8,man,threllis序列上的跟蹤誤差情況
圖7 算法在dog,dog1,crossing,subway序列的跟蹤誤差情況