国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于顏色塊重檢的自適應抗遮擋目標跟蹤算法

2022-09-06 11:09陳富健謝維信
計算機工程與應用 2022年17期
關鍵詞:跟蹤器濾波器閾值

陳富健,謝維信

深圳大學ATR國防科技重點實驗室,廣東 深圳 518060

在目標跟蹤過程中,目標往往因被物體遮擋造成丟失,導致跟蹤器無法繼續(xù)精準跟蹤目標。為解決這一難題,提高跟蹤器在遮擋條件下的跟蹤魯棒性和跟蹤精度,需為跟蹤器設計不同的抗遮擋機制。Kalal等[1]首先提出將目標檢測模塊和目標跟蹤模塊相互結合的機制,達到在目標丟失時跟蹤器能夠依賴目標檢測模塊找回目標的目的。但由于該算法使用特征點跟蹤的模式,跟蹤精度較低。為提高跟蹤精度,Ma等[2]在相關濾波器的基礎上,提出一種相關濾波算法和隨機蕨分類器結合的跟蹤算法LCT,有效提高了目標跟蹤的精度。Ma等[3]進一步改進目標檢測器,提出了LCT+跟蹤器,利用支持向量機替換隨機蕨分類器,但目標檢測的范圍依然有局限性。Zhao等[4]改進了LCT跟蹤器,利用生成的候選框來判斷候選框內的邊緣與目標邊緣的相似性檢測目標,實現(xiàn)了目標的全局檢測。Hu等[5]在LCT的基礎上,利用深度學習的方法YOLOv3[6]替換其檢測器,改進了跟蹤器的性能。Wang 等[7]利用改進的平均峰值相關能量判別標準初始化YOLOv3檢測器和跟蹤器。Li等[8]也在相關濾波器的基礎上提出了一種分塊的目標跟蹤方法,該方法將目標切割成多塊進行分別處理,能夠有效處理遮擋的情況,但忽視了目標完整的全局信息,造成跟蹤的精度不高。為解決這一問題,王任華等[9]提出了一種全局與局部分塊聯(lián)合的方法,同時考慮全局模型和分塊信息進行跟蹤。Dai 等[10]設計了一個元更新器,結合幾何線索、判別線索和外觀線索判斷在長期跟蹤過程中是否需要更新跟蹤器以提高跟蹤器的長期跟蹤能力。

為解決該算法存在目標檢測范圍具有局限性的問題,在LCT+基準算法的基礎上,提出了基于顏色塊重檢的自適應抗遮擋目標跟蹤算法。首先提取初始幀目標的顏色塊信息,當目標發(fā)生跟丟時,利用該顏色塊信息進行目標重檢測。提出的目標檢測方法能對全局圖像范圍進行目標的重檢測,擴大了目標檢測的范圍,有效定位丟失的目標,提高了在遮擋情況下目標跟蹤的魯棒性。

1 LCT+算法基本原理

1.1 核相關濾波原理

LCT+的基準跟蹤器主要基于文獻[11]的核相關濾波器。為獲得核相關濾波器w,基于循環(huán)矩陣的性質對大小為M×N的輸入圖像進行密集采樣后,分別在水平和垂直方向進行m、n個像素點的循環(huán)移位操作得到樣本xm,n。并且每個樣本對應的標簽y(m,n)符合高斯分布,則濾波器w可由式(1)給出:

f表示樣本xm,n和濾波器w的相關操作,λ表示正則化系數(shù)。式(1)根據(jù)離散傅里葉變換的性質,可得到式(2):

系數(shù)α可定義為:

F 和F-1分別表示傅里葉變換和傅里葉反變換。kxx表示核相關,在算法中使用的是高斯核,根據(jù)循環(huán)矩陣的性質,其可定義為:

⊙表示對應位置元素的相乘。當輸入新的圖像z時,則響應圖為:

響應圖y最大值所在點的位置為目標的中心位置。

1.2 尺度自適應

為獲得目標的最佳尺度,對目標圖像構建尺度金字塔。若當前目標圖像的尺度大小為W×H,K表示尺度因子,構建尺度空間為:

計算每個大小為sW×sH圖像塊的響應值,則輸出最大響應的尺度因子s,即為最優(yōu)尺度。

1.3 支持向量機重檢測

LCT+算法采用支持向量機作為目標重檢測模塊。若當前幀相關濾波器的響應值大于設定閾值,表明目標被正常跟蹤,則提取當前幀目標的特征來訓練支持向量機,以適應目標不斷變化的狀態(tài)。若當前幀相關濾波器的響應閾值小于設定閾值,表明目標處于跟丟狀態(tài),則激活支持向量機對目標進行重檢測。

2 本文算法

2.1 算法框架

為解決LCT+算法無法對全局圖像進行目標重檢測的問題,提出基于顏色塊重檢的自適應抗遮擋目標跟蹤算法。在目標運動過程中,目標的顏色信息在大部分情況下不會發(fā)生太大的改變。即使目標在運動過程中發(fā)生了形變,只要其顏色信息不變就能對目標進行重檢測。該算法只需在初始幀中獲取目標的顏色塊信息,不像SVM 檢測器時刻對目標進行特征的學習訓練,可有效提高目標跟蹤的速率。重檢測采取的方法根據(jù)初始幀目標的顏色塊信息對目標丟失幀進行顏色分割和形態(tài)學處理。由于該方法較為簡潔,不會對跟蹤器造成太大的負擔,可有效提高跟蹤效率。并且其能重新檢測全局圖像中的目標,擴大了目標檢測的范圍。

如圖1 所示,該算法由兩部分構成,包括初始幀目標的顏色塊分割模塊與目標重檢測模塊。在初始幀目標的顏色塊分割模塊中,對初始幀目標進行分割處理得到顏色塊,以便應用在目標檢測模塊中。為得到分割的顏色塊,通過建立顏色似然圖、二值化和區(qū)域生長來進行處理。在目標檢測模塊中,根據(jù)在上一個模塊中分割得到的初始幀目標顏色塊信息對丟失幀進行顏色分割并進行圖像形態(tài)學處理,然后和初始幀目標顏色塊匹配。若匹配成功則定位到候選目標。將該候選目標輸入到相關濾波器,若響應值大于閾值則確定為最終目標,重新定位目標。

2.2 初始幀目標顏色分割模塊

初始幀目標顏色塊分割模塊主要包括兩個部分:得到抑制背景的目標圖像和計算該圖像的顏色塊。為了更加準確地計算目標的顏色塊信息,需將目標附近的背景干擾進行剔除,否則將影響到顏色塊的分割進而影響到后續(xù)目標重檢測的執(zhí)行。因此為得到抑制背景的目標圖像,采用對目標圖像建立顏色似然圖的方法,計算目標圖像的顏色塊則采用彩色圖像區(qū)域生長的方法。通過結合這兩種方法,最終得到目標的顏色塊,如圖1(g)所示。

2.2.1 顏色似然圖建立

顏色似然圖的建立采用文獻[12-13]中的方法,截取目標區(qū)域和其附近的背景區(qū)域,根據(jù)式(7)、(8)分別計算如圖1(b)所示的目標似然圖和如圖1(c)所示的背景顏色似然圖:

圖1 基于顏色塊重檢的自適應抗遮擋目標跟蹤算法框架Fig.1 Framework of adaptive anti-occlusion target tracking algorithm based on color block re-detection

其中,bx表示輸入圖像I對應的像素點x所對應的顏色通道值b,O表示目標區(qū)域,S表示背景區(qū)域,|· |表示統(tǒng)計該區(qū)域的數(shù)量值大小。其中,由式(7)和(8)結合可得式(9):

通過上式計算得到如圖1(d)所示的抑制背景的目標顏色似然圖后,對該目標顏色似然圖進行二值化處理得到濾波模板,利用該濾波模板與初始幀的目標進行點乘濾波,可得到抑制背景后的目標圖像。

2.2.2 彩色圖像區(qū)域生長

獲得抑制背景的目標圖像后,采用彩色圖像區(qū)域生長的方法對目標圖像進行自適應顏色塊分割,以獲取目標的顏色塊信息。彩色區(qū)域生長算法的步驟如下:

步驟1制定種子陣列模板。如圖2(a)所示,在濾波模板中隨機選取一個種子點進行區(qū)域生長。區(qū)域生長規(guī)則滿足8連通域。

步驟2顏色像素點差值計算。當圖2(b)的輸入目標圖像的像素點與種子點在8 鄰域之間的對應顏色像素點的差值小于設定閾值時,將該點添加到種子點陣列中。更新種子陣列后,繼續(xù)與輸入目標圖像進行計算。其中,顏色像素點之間的差值計算滿足:

其中,R、G、B表示向量a和z的RGB顏色分量。a表示種子陣列模板,z表示目標圖像。

步驟3當前次彩色圖像區(qū)域生長停止條件。根據(jù)步驟2循環(huán)往復計算,直至種子陣列不再增長則輸出彩色區(qū)域生長的圖像,如圖2(c)所示。其中,圖2 的虛線框內表示當前次彩色圖像區(qū)域生長的狀態(tài)。

步驟4新濾波目標的計算。當計算完一個彩色圖像生長區(qū)域后,將圖2(a)的濾波模板減去圖2(d)的種子陣列模板得到圖2(e)的新濾波模板。

步驟5新輸入目標圖像的計算。圖2(e)的新濾波模板與圖2(b)的輸入目標圖像進行點乘運算,濾波后得到圖2(f)的新輸入目標圖像。

步驟6重復上述步驟計算新的分割區(qū)域。根據(jù)新輸入的目標圖像進行彩色圖像區(qū)域生長,重復步驟1~步驟3,計算得到圖2(g)的下一個分割出的區(qū)域。重復步驟4 和步驟5 得到新輸入目標圖像,繼續(xù)循環(huán)往復直至所有區(qū)域被分割完畢。

圖2 彩色圖像區(qū)域生長示意圖Fig.2 Schematic diagram of region growth in color image

步驟7判斷分割區(qū)域是否保留。利用彩色圖像區(qū)域生長算法分割輸入目標圖像得到不同的區(qū)域后,最終判斷分割區(qū)域的連通域是否大于設定閾值,如果大于設定的閾值,則保留該分割區(qū)域,最終結果如圖2(k)所示。其中,該閾值的設定為:

其中,h和w分別表示輸入目標圖像的高度和寬度,α表示系數(shù),S表示連通域閾值大小。當分割區(qū)域的連通域大于上式任意一個條件,保留該分割區(qū)域。

經過步驟1~步驟7后,輸入目標圖像被分割成多個顏色塊區(qū)域,選取大于閾值的顏色塊區(qū)域作為后續(xù)目標檢測的顏色分割以及匹配的標準。

2.3 目標重檢測

2.3.1 顏色分割

通過顏色分割的方法來檢測丟失幀中的目標,其能夠對全局圖像進行處理,避免LCT+算法中檢測范圍的局限性。在進行顏色分割時,根據(jù)2.2.2小節(jié)步驟2中的式(10)可得顏色分割的閾值,其中R、G、B表示向量a和z的RGB 顏色分量。a表示丟失幀圖像,z表示2.2.2小節(jié)中得到的顏色塊。

如圖1所示,經過2.2節(jié)得到圖1(g)中的顏色塊后,對圖1(h)的丟失幀進行顏色分割,得到圖1(i)的顏色分割結果。

2.3.2 形態(tài)學處理

如圖1(i)所示,顏色分割后的圖像還存在噪聲點等情況。且在顏色分割過程中存在分割誤差,導致分割后的顏色塊可能會出現(xiàn)孔洞。為了更加準確地匹配初始幀目標的顏色塊,采用形態(tài)學中的連通域方法和孔洞填充處理噪聲點。

對圖1(i)中的顏色分割后的圖像進行孔洞填充,使其形狀接近于初始幀目標的顏色塊。采用連通域方法計算其連通域大小,刪除小的連通域,即過濾噪聲點,得到圖1(j)的圖像。

2.3.3 目標匹配

顏色塊匹配利用初始幀目標顏色塊的幾何信息和顏色分割處理后圖像中的顏色塊幾何信息進行匹配,定義匹配置信度score為:

下標tgt表示初始幀目標的顏色塊,det表示檢測到的顏色塊,A表示連通域的大小,s表示尺度因子,AR表示該連通域大小占該顏色塊框大小的比率,LWR表示該顏色塊長寬的比率,L表示顏色塊的長度,W表示顏色塊的寬度,Cct表示目標丟失前的中心坐標,Cdet表示檢測到顏色塊的中心坐標,hw表示初始幀目標顏色塊的最長邊,n表示目標丟失幀的數(shù)量。式中r=‖Cct-Cdetj‖/(2×hw×n)表示隨著丟失幀數(shù)量n的累加,能不斷擴大重檢測的范圍。當丟失幀數(shù)量n較小時,目標重檢范圍隨之減小,從而避免檢測到遠處的干擾物。因為隨著丟失幀數(shù)量n的累加,若‖Cct-Cdetj‖的差值越大,總體上r的值和原來變化不大,則置信度score變化不大?!珻ct-Cdetj‖表示目標丟失前位置和檢測到顏色塊的距離,‖Cct-Cdetj‖的差值越大而置信度score變化不大,這表明能檢測到的顏色塊范圍也越廣。根據(jù)式(12)計算得到置信度最大的顏色塊,然后基于該顏色塊計算該目標的中心位置坐標,獲得候選目標。

由于在重檢測過程中可能遇到具有相似顏色的干擾物,因此還需進一步驗證顏色塊匹配計算得到的候選目標。在LCT+算法中,相關濾波器的特征訓練基于HOG特征和HOI特征,這兩種特征對于目標形變、平移變換等情況適應性較好。將得到的候選目標輸入到相關濾波器中,若響應值大于1.3×max_response,表明該候選目標為真正的目標,max_response表示上一幀相關濾波器的響應值。

如圖3所示,以紅色顏色塊為例說明目標匹配的過程。在2.3 節(jié)中獲得了在初始幀目標中分割的顏色塊,如圖3(c)所示。通過式(12)計算圖3(a)中初始幀目標顏色塊和圖3(b)中丟失幀分割出顏色塊的置信度,結果分別為0.38 和0.56。判斷置信度是否大于閾值Ts=0.48,大于該閾值后取最優(yōu)顏色塊,如圖3(f)所示。然后在丟失幀圖像中定位到候選目標的位置,并截取該候目標所在的區(qū)域,并將候選目標輸入到相關濾波器中。

相關濾波器經過訓練后已知目標模板特征和系數(shù)矩陣α。提取候選目標的特征后,根據(jù)式(4)計算候選目標的特征與已知目標模板特征的核相關kxz。根據(jù)式(5),計算核相關kxz和已知系數(shù)矩陣α的響應圖y,最終結果如圖3(k)所示。該響應圖的峰值大小response為0.38。若相關濾波器的響應值輸出大于閾值1.3×max_resopnse,確定為正確目標。由于在上一幀中max_resopnse=0.137,因此該候選目標的響應值大小response>1.3×max_response=0.178 1,確定該候選目標為正確目標并在丟失幀中進行定位,最終目標重檢測成功,如圖3(l)所示。

重新檢測到目標后,根據(jù)該重檢目標更新相關濾波器和尺度s。尺度更新是指對重檢目標建立尺度金字塔,取最優(yōu)尺度s,如圖3(m)所示。提取重檢目標的特征更新相關濾波器,如圖3(o)所示,基于該特征更新目標模板特征以及計算得到系數(shù)矩陣α,并更新該系數(shù)矩陣α。

圖3 顏色塊匹配過程Fig.3 Process of color block matching

2.3.4 目標定位

在2.3.3小節(jié)中,若顏色塊匹配則定位目標,但此時顏色塊的坐標和目標的中心坐標并不一致,需定位到目標的中心位置上。由于顏色塊的位置和目標的中心位置存在一定的關系,可根據(jù)初始幀目標的顏色塊位置和中心位置推斷出所檢測到目標的中心位置,由式(13)和(14)計算出目標的中心位置:

(xtgt1,ytgt1)表示初始幀目標的中心位置(如圖4(a)和圖4(b)紅色星號所示),(xtgt2,ytgt2)表示其顏色塊的中心位置(如圖4(b)藍色星號所示)。(xdet1,ydet1)表示丟失幀中目標顏色塊的中心位置(如圖4(c)藍色星號所示),(xdet2,ydet2)表示丟失幀中目標的中心位置(如圖4(c)紅色星號所示),s表示尺度因子。

圖4 目標定位過程Fig.4 Process of target location

如圖4所示為目標定位的過程,計算圖4(b)初始幀目標的中心位置和其顏色塊中心位置的距離:

則d=(d1,d2)=(-2.0,-25.5 )。當目標丟失后,如圖4(c)所示,重新檢測出顏色塊的中心位置,根據(jù)初始幀目標中心位置和其顏色塊中心位置的距離d以及尺度因子s=0.9,計算該重檢測目標的中心位置:

則(xdet2,ydet2)=(297.3,231.27),最終定位目標的中心位置坐標結果如圖4(d)所示。

2.4 算法流程圖

圖5為算法的流程圖,主要分成初始化幀目標顏色塊分割和目標重檢測。

圖5 算法流程圖Fig.5 Flow chart of this algorithm

初始幀目標顏色塊分割的流程如下:首先,計算初始幀的目標和背景顏色似然圖。其次抑制目標附近的背景,對彩色圖像進行區(qū)域生長分割獲得顏色塊。經過上述初始化步驟操作后,使用相關濾波跟蹤目標,若視頻序列幀都被處理完后結束運行,否則持續(xù)判斷目標是否丟失。若目標丟失則進行目標重檢測,如果沒有發(fā)生目標丟失則繼續(xù)進行相關濾波目標跟蹤。

目標重檢測利用顏色塊信息對丟失幀進行顏色分割,將分割后的圖像進行形態(tài)學處理并判斷分割的顏色塊和初始幀目標顏色塊是否匹配。若匹配失敗則繼續(xù)進行目標重檢測,若匹配成功則定位到候選目標上,并將該候選目標輸入到相關濾波器進行計算,當響應值大于閾值,輸出所檢測到的目標定位,最后繼續(xù)進行相關濾波跟蹤。

3 實驗結果與分析

3.1 評估指標

OTB50 和OTB100 公開數(shù)據(jù)集涵蓋了大量的具有挑戰(zhàn)性情況的視頻集,例如目標遮擋、目標形變、目標旋轉、背景干擾、目標形變、目標快速運動等情況,能夠有效驗證目標跟蹤算法的有效性。

根據(jù)在文獻[14]中的定義,采用距離精度和成功率作為目標跟蹤性能的評估指標。成功率指在所有視頻序列幀中,目標框的重疊率Op=|rdet?rtgt|/|rdet?rtgt|小于設定閾值T0的幀數(shù)占所有視頻序列幀數(shù)的比率,該比率的范圍為[0,1] ,T0設置為0.5。其中rdet指跟蹤器得到的目標框,rtgt指標注的目標框,?和?表示兩個目標框像素的并集和交集,|· |表示統(tǒng)計該目標框區(qū)域的像素點的數(shù)量。距離精度指在所有的視頻序列幀中,跟蹤得到目標框中心位置和標注目標框中心位置之間的誤差值,小于設定閾值T1的幀數(shù),占所有視頻序列幀數(shù)的比率,T1設定為20像素大小。

成功率和距離精度均以標注框的第一幀初始化跟蹤器,依據(jù)跟蹤器輸出的跟蹤結果評估目標跟蹤算法,該評估方法稱為一次性通過評估(one-pass evaluation,OPE)。本文主要評估目標的抗遮擋性能,因此采用OPE的評估方法能夠準確地計算各個算法在OTB數(shù)據(jù)集上的抗遮擋性能。

3.2 實驗參數(shù)

本文所提算法的核相關濾波器的參數(shù)設置和基準算法LCT+所設置的一致。在彩色圖像區(qū)域生長參數(shù)的設置上,系數(shù)α設為0.1,連通域S設為150。在顏色分割的參數(shù)設置上,分割系數(shù)D設為5/128。在形態(tài)學處理的參數(shù)設置上,匹配閾值Ts設為0.48。

算法的實驗代碼在LCT+的開源MATLAB 代碼上進行改進,刪除了支持向量機重檢測模塊,增加了基于顏色塊的自適應目標重檢測模塊。在算法驗證的實驗中,使用的電腦配置為Intel Core i5-8300 2.3 GHz 的CPU和8 GB的RAM。

3.3 定量分析

圖6 和圖7 為所提算法和其他一些主流算法如fDSST[15]、LCT+[3]、DSST[16]、KCF[17]、MRCT[18]在OTB50和OTB100數(shù)據(jù)集上的算法精度和成功曲線圖。如圖6所示,在OTB50數(shù)據(jù)集上,對比基準算法LCT+,所提算法在距離精度和成功率分別提高了0.038和0.028。如圖7所示,在OTB100 數(shù)據(jù)集上,對比基準算法LCT+,所提算法在距離精度和成功率分別提高了0.033 和0.020。所提算法不僅提高了基準算法的精度,而且超過上述幾個主流跟蹤算法fDSST、DSST、KCF 和MRCT,表明所提算法在目標跟蹤上具有較高的精度。

圖6 OTB50數(shù)據(jù)集的測試結果Fig.6 Results of one-pass evaluation in OTB50 dataset

圖7 OTB100數(shù)據(jù)集的測試結果Fig.7 Results of one-pass evaluation in OTB100 dataset

為了驗證所提算法的抗遮擋性能,選取OTB50 和OTB100 中存在遮擋情況的視頻集進行算法評估,如圖8和圖9所示。由圖8可知,在OTB50遮擋數(shù)據(jù)集上,相比LCT+算法,所提算法在距離精度和成功率分別提高了0.066和0.049;由圖9可知,在OTB100遮擋數(shù)據(jù)集上,相比LCT+算法,所提算法在距離精度和成功率分別提高了0.075 和0.048,并且相比其他一些主流算法,在成功率和距離精度上都相對較優(yōu)。在OTB50 和OTB100數(shù)據(jù)上的測試表明基于顏色塊的自適應跟蹤算法能夠有效處理目標被遮擋的情況,實現(xiàn)了目標的重新檢測并定位,有效提高了目標的精度。

圖8 OTB50中遮擋數(shù)據(jù)集的測試結果Fig.8 Results of one-pass evaluation in OTB50 occlusion video sequence

圖9 OTB100中遮擋數(shù)據(jù)集的測試結果Fig.9 Results of one-pass evaluation in OTB100 occlusion video sequence

表1為跟蹤器運行速率的對比,由于所提算法的檢測過程比基準算法LCT+簡單,并且不必對SVM分類器進行訓練,其跟蹤速率有所提高。

表1 算法運行速度對比Table 1 Comparison of algorithms running speed

在OTB50和OTB100的視頻數(shù)據(jù)集中,具有低分率(low resolution,LR)、出視野(out-of-view,OV)、背景雜波(background clutters,BC)、平面外旋轉(out-of-plane rotation,OPR)、平面內旋轉(in-plane rotation,IPR)、快速運動(fast motion,F(xiàn)M)、運動模糊(motion blur,MB)、非剛體變形(deformation,DEF)、尺度變化(scale variation,SV)、光照變化(illumination variation,IV)、遮擋(occlusion,OCC)一共11種情況。

在OTB50 和OTB100 中不同屬性干擾下的成功率和距離精度實驗結果分別如表2 和表3 所示。其中,表中的粗體字表示最優(yōu)結果,下劃線表示次優(yōu)結果。

表3 在OTB50和OTB100上不同屬性算法的距離精度對比Table 3 Comparison of distance precision of algorithms with different attributes on OTB50 and OTB100

由表2 可知,在OTB50 的成功率結果中,所提算法在OCC、OV、DEF 和IPR 這4 個屬性上都表現(xiàn)最優(yōu),并且其余多個屬性表現(xiàn)次優(yōu)。在OTB100 的成功率結果中,所提算法在OCC、OV、SV、DEF、MB、FM、IPR和OV這8個屬性上都表現(xiàn)最優(yōu),并且其余的屬性表現(xiàn)次優(yōu)。

表2 在OTB50和OTB100上不同屬性算法的成功率對比Table 2 Comparison of success rate of algorithms with different attributes on OTB50 and OTB100

由表3 可知,在OTB50 的距離精度結果中,本文算法在OCC、OV、SV、DEF、IPR 和LR 這6 個屬性上都表現(xiàn)最優(yōu),并且其余多個屬性表現(xiàn)次優(yōu)。在OTB100的距離精度結果中,所提算法在除了BC屬性上都表現(xiàn)最優(yōu)。

3.4 定性分析

為了可視化所提算法的抗遮擋性能效果,挑選了6個具有代表性的視頻集,將所提算法與其他幾個主流跟蹤算法進行比較,跟蹤結果如圖10所示。表4為這5個視頻集分別具有的屬性值。其中,這6個視頻集都具有遮擋屬性,并且還包含其他的屬性值。

表4 視頻序列對應的屬性Table 4 Corresponding attributes of video sequence

如圖10所示,從上到下分別為Girl2、Walking2、Jogging2、Panda、Skating2-1、Skating2-2視頻集。在Girl2視頻序列中第112幀發(fā)生目標被遮擋的情況,而且目標相比于第10 幀中行人已經轉身,目標發(fā)生了較大的變化。所提算法依然能夠通過顏色塊分割后進行目標重檢測,并在第129幀中重新找回目標且準確定位到目標上,而其他跟蹤算法由于被遮擋物干擾而將目標跟丟。

目標在Walking2和Jogging2的第257幀,第53幀中都被不同程度地遮擋,通過顏色塊檢測器,所提算法重新跟上目標,而LCT+算法和其他部分算法跟丟了目標。

在Panda、Skating2-1和Skating2-2視頻集中,由于發(fā)生了遮擋、目標形變等情況,LCT+跟蹤器產生了偏移,并且其他跟蹤器也都存在不同程度的偏移,造成了目標丟失。例如,在Panda視頻集的第378幀和Skating2-1視頻集第90 幀,LCT+跟蹤器跟丟目標后無法再跟上目標。雖然目標相比初始幀發(fā)生了形變,但所提算法依然能在判斷目標跟丟后通過顏色塊信息重新檢測目標,持續(xù)跟蹤目標。在Skating2-2視頻集的第49幀中LCT+算法和所提算法由于目標形變、快速變化跟丟目標,但在第198幀中所提算法又重新檢測并持續(xù)跟蹤目標。

因此,所提算法在目標發(fā)生形變時依然能夠檢測出目標,并在目標發(fā)生遮擋重新出現(xiàn)時也檢測出目標,表明所提算法在抗遮擋上具有較優(yōu)的性能與較好的魯棒性。

圖11為圖10中視頻集對應點的中心位置誤差的波形圖。波形圖的值越大,表明跟蹤到目標框中心位置和標注目標框中心位置的距離誤差值越大,跟蹤器越不穩(wěn)定;值越小表明跟蹤到的目標框中心位置和標注目標框中心位置的距離誤差值越小,跟蹤器越穩(wěn)定。在出現(xiàn)目標被遮擋的情況時,所提算法對應的波動較大,經過基于顏色塊的重檢測目后,波動減少。因此,跟蹤器能較好地進行跟蹤,而其他跟蹤器的波動相比本文跟蹤器波動較大。

圖10 所提算法與其他5種跟蹤算法在6個視頻序列中的定性比較Fig.10 Qualitative comparison between proposed algorithm and five other tracking algorithms in six video sequence

圖11 所提算法在其中6個視頻序列中與其他跟蹤算法的對比Fig.11 Comparison of proposed algorithm with other tracking algorithms in six video sequences

所提算法采取基于顏色塊重檢的自適應抗遮擋策略,當檢測到目標丟失后,基于初始幀目標的顏色塊信息進行目標重檢測,較好地處理目標被遮擋的情況,能夠長期穩(wěn)定地進行目標跟蹤。

4 結束語

基于顏色塊重檢的自適應抗遮擋目標跟蹤算法能夠在提取初始幀目標的顏色塊信息后,根據(jù)顏色塊信息重檢測跟丟的目標并進行匹配,最終重新跟蹤目標。該算法利用顏色塊檢測模塊替換了LCT+算法中的支持向量機檢測模塊,實現(xiàn)了目標的全局檢測。通過在OTB上的實驗表明,所提算法改善了目標的抗遮擋性能,有效提高了目標跟蹤的速度和精度,實現(xiàn)了目標的魯棒性跟蹤。在下一步的工作中,將致力于研究初始幀目標模板的更新問題,通過更新該模板從而更新顏色塊信息以提高重檢測的精度,提高跟蹤器的魯棒性。

猜你喜歡
跟蹤器濾波器閾值
光伏跟蹤器陣列跟蹤精度的測算方法研究
土石壩壩體失穩(wěn)破壞降水閾值的確定方法
采用紅細胞沉降率和C-反應蛋白作為假體周圍感染的閾值
淺析一種風光儲一體化跟蹤器
從濾波器理解卷積
超長待機的自行車位置跟蹤器
開關電源EMI濾波器的應用方法探討
一種微帶交指濾波器的仿真
雙向多軌跡判定方法在目標跟蹤中的應用研究
基于TMS320C6678的SAR方位向預濾波器的并行實現(xiàn)