熊昌鎮(zhèn),李 言
(城市道路交通智能控制技術(shù)北京市重點(diǎn)實(shí)驗(yàn)室(北方工業(yè)大學(xué)),北京100144)
計(jì)算機(jī)視覺(jué)是人工智能領(lǐng)域重要的研究分支,其中視覺(jué)目標(biāo)跟蹤技術(shù)更是重中之重。即在初始幀中確定目標(biāo)的坐標(biāo)和尺寸,在后續(xù)幀中能夠通過(guò)跟蹤框描述出目標(biāo)的運(yùn)動(dòng)軌跡。該技術(shù)運(yùn)用于安全監(jiān)控、競(jìng)技體育、人機(jī)交互等領(lǐng)域。與其他深度學(xué)習(xí)的跟蹤算法相比,基于孿生網(wǎng)絡(luò)的目標(biāo)跟蹤算法在跟蹤速度上有著絕對(duì)的優(yōu)勢(shì),因此近年來(lái)吸引了眾多的研究者,基于孿生網(wǎng)絡(luò)的跟蹤算法也得到了快速的發(fā)展。
孿生網(wǎng)絡(luò)跟蹤算法就是衡量模板圖像在待檢測(cè)圖像上某一區(qū)域的相似程度。孿生神經(jīng)網(wǎng)絡(luò)有兩個(gè)輸入,即模板圖像和待檢測(cè)圖像,將這兩個(gè)輸入送入兩個(gè)相同的神經(jīng)網(wǎng)絡(luò),這兩個(gè)神經(jīng)網(wǎng)絡(luò)分別將輸入映射到新的空間,形成輸入在新空間中的表示;然后通過(guò)計(jì)算,評(píng)價(jià)兩個(gè)輸入的相似度。Bertinetto等[1]提出了全卷積孿生網(wǎng)絡(luò)跟蹤(Fully-Convolutional Siamese networks for object tracking,SiameseFC)算法,提取特征的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)[2-4]離線訓(xùn)練,該網(wǎng)絡(luò)只有卷積層和池化層,是典型的全卷積神經(jīng)網(wǎng)絡(luò),在線不更新策略,使得跟蹤速度可以達(dá)到實(shí)時(shí),58 幀/s的速度遠(yuǎn)超其他深度學(xué)習(xí)的跟蹤算法。Guo 等[5]提出了動(dòng)態(tài)孿生網(wǎng)絡(luò)跟蹤(learning Dynamic Siamese network for visual object tracking,DSiam)算法,在SiameseFC 的框架中增加了目標(biāo)形變和背景抑制層,提高了跟蹤器的判斷能力。Li 等[6]提出了高效的孿生區(qū)域推薦網(wǎng)絡(luò)跟蹤(High performance visual tracking with Siamese Region Proposal Network,SiamRPN)算法,將區(qū)域推薦網(wǎng)絡(luò)(Region Proposal Network,RPN)與孿生網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行了結(jié)合,RPN 有兩個(gè)分支,一路用于區(qū)分前景和背景,一路用于對(duì)跟蹤框的回歸,有效地提高了跟蹤的精度。Zhu等[7]提出了基于干擾物感知的孿生網(wǎng)絡(luò)跟蹤(Distractor-aware Siamese networks for visual object tracking,DaSiamRPN)算 法 ,在SiamRPN 的基礎(chǔ)上提出了增量學(xué)習(xí),為了選擇出更好的跟蹤框,在訓(xùn)練中添加了三類樣本對(duì),有效地提高了跟蹤器的泛化能力。Wang 等[8]提出的快速在線目標(biāo)跟蹤與分割(Fast Online Object Tracking and Segmentation,SiamMask)算法將提取特征的淺層網(wǎng)絡(luò)AlexNet[9]換成了更深層網(wǎng)絡(luò)的ResNet(Residual neural Network,ResNet)[10],并在 RPN 并行加入掩膜分支進(jìn)一步提高了跟蹤的準(zhǔn)確率。
綜上所述,現(xiàn)有基于孿生網(wǎng)絡(luò)的跟蹤算法在跟蹤時(shí)不需要在線學(xué)習(xí),模板(目標(biāo))特征只根據(jù)預(yù)處理的第一幀圖片進(jìn)行提取,之后不再進(jìn)行更新,雖然速度上表現(xiàn)優(yōu)異,能夠達(dá)到實(shí)時(shí)跟蹤的要求,但是由此導(dǎo)致模板特征不能很好地適應(yīng)目標(biāo)的表征變化;另外,在SiamMask 的掩膜分支中,模板路淺層特征含有冗余性,會(huì)污染生成的目標(biāo)掩膜,使得跟蹤精確性沒(méi)有進(jìn)一步提高。
針對(duì)基于孿生網(wǎng)絡(luò)的跟蹤算法出現(xiàn)的上述問(wèn)題,本文對(duì)快速在線目標(biāo)跟蹤與分割算法進(jìn)行了以下幾點(diǎn)改進(jìn):1)為了提高模板特征的表達(dá)能力,通過(guò)設(shè)置學(xué)習(xí)率,利用第一幀提取的模板特征與后續(xù)幀提取的模板特征進(jìn)行學(xué)習(xí),這樣能夠豐富模板特征的語(yǔ)義信息,提高算法的魯棒性;2)在得到目標(biāo)掩膜(mask)的過(guò)程中,稀釋了模板路降維的特征,減少了冗余特征的信息干擾,提高了算法的精確性。最后為了驗(yàn)證本文算法的有效性,在兩個(gè)具有挑戰(zhàn)性的數(shù)據(jù)集上進(jìn)行了詳細(xì)的實(shí)驗(yàn),并與幾個(gè)近期具有代表性的跟蹤算法進(jìn)行比較,實(shí)驗(yàn)結(jié)果表明本文所提方法得到了很有競(jìng)爭(zhēng)力的結(jié)果。
為了保持跟蹤器的精確性和實(shí)時(shí)性,采用了全卷積孿生網(wǎng)絡(luò)的框架。另外,為了證明本文方法的有效性,將在本節(jié)介紹SiameseFC、加入RPN 的SiamRPN 以及視頻對(duì)象跟蹤和半監(jiān)督視頻對(duì)象分割算法SiamMask,在第2 章介紹本文的改進(jìn)方法。
Bertinetto 等[1]提出的 SiameseFC 算法共有兩個(gè)分支:一路為模板分支,一路為待檢測(cè)分支。全卷積孿生網(wǎng)絡(luò)是線下訓(xùn)練的,作用于模板分支的模板圖像z 和待檢測(cè)分支的待檢測(cè)圖像x,輸出為一維響應(yīng)圖。在響應(yīng)圖中找到得分最高的點(diǎn),通過(guò)雙三次插值算法反向計(jì)算,找到目標(biāo)的位置。該算法的模板路圖像是經(jīng)過(guò)第一幀圖像預(yù)處理得到的,在跟蹤過(guò)程中不進(jìn)行更新。這兩個(gè)輸入由同一個(gè)CNN 進(jìn)行處理,生成的兩個(gè)相互關(guān)聯(lián)的特征圖根據(jù)式(1)得到相似度響應(yīng)圖:
式中:f(z)、f(x)分別是模板圖像和待檢測(cè)圖像由CNN 提取的特征;*為卷積操作。網(wǎng)絡(luò)中的最優(yōu)參數(shù)ω是采用隨機(jī)梯度下降訓(xùn)練得到的,從大型可視化數(shù)據(jù)庫(kù)(ImageNet Large Scale Visual Recognition Challenge,ILSVRC)[11]中選取了大量的圖片對(duì)(zi,xi),給定相應(yīng)的標(biāo)簽響應(yīng)圖Yi∈ {-1,+ 1},然后最小化式(2)的邏輯回歸損失函數(shù)L(·):
式中,N為訓(xùn)練樣本數(shù)。
Li等[6]在 SiameseFC 的基礎(chǔ)上提出了 SiamRPN 算法,該算法大幅提高了跟蹤速度,原因是加入了RPN,RPN 有兩個(gè)輸出:
式中φ(z)、φ(x)分別為模板特征和待檢測(cè)圖像特征。其中:是分類分支的輸出,包含 2k 個(gè)通道向量,通過(guò) softmax損失分類,區(qū)分前景和背景是回歸分支的輸出,包含4k 個(gè)通道向量,使用了可變寬高比的邊界框預(yù)測(cè)目標(biāo)的尺度和位置,解決了SiameseFC 中計(jì)算多個(gè)目標(biāo)尺度而減緩跟蹤速度的問(wèn)題,速度最高可達(dá)到200 幀/s。該算法將SiameseFC與Faster R-CNN 巧妙地聯(lián)系起來(lái),RPN 并行計(jì)算,有效地提高了跟蹤精度。
SiamMask算法[8]能夠并行完成視頻目標(biāo)跟蹤任務(wù)和視頻目標(biāo)分割任務(wù),沿用了SiameseFC 的跟蹤框架,將提取特征的AlexNet 換為深層網(wǎng)絡(luò)ResNet,將一維的響應(yīng)圖拓展到了多維,在RPN 原有的回歸分支和分類分支的基礎(chǔ)上,加入掩膜分支用于目標(biāo)分割,能夠更好地定位目標(biāo)。在三個(gè)分支訓(xùn)練了三個(gè)子網(wǎng)絡(luò),主干網(wǎng)絡(luò)與子網(wǎng)絡(luò)均采用離線端到端的訓(xùn)練方式,掩膜分支利用logistic回歸損失:
式中:θ、φ 為主干網(wǎng)絡(luò)與子網(wǎng)絡(luò)的參數(shù);yn為第n 個(gè)候選響應(yīng)窗口的標(biāo)簽為第n個(gè)候選相應(yīng)窗口中像素(i,j)對(duì)應(yīng)的掩碼標(biāo)簽;為分割網(wǎng)絡(luò)預(yù)測(cè)結(jié)果。SiamMask總損失函數(shù)為:
式中:Lscore、Lbox分別為分類分支損失和回歸分支損失,λ1、λ2、λ3為權(quán)值。
本文算法的框架如圖1 所示。在視頻第一幀確定跟蹤目標(biāo),利用相同的CNN對(duì)模板圖像z和待檢測(cè)圖像x進(jìn)行特征提取。為了適應(yīng)目標(biāo)表征變化,從第二幀開(kāi)始,每幀計(jì)算一次模板特征,并與第一幀模板特征進(jìn)行融合學(xué)習(xí),更新后的模板特征與待檢測(cè)圖像特征進(jìn)行卷積計(jì)算得到多維響應(yīng)圖。另外,為了得到更精確的目標(biāo)掩膜,在掩膜分支加入了加權(quán)融合策略,減少了冗余特征的干擾。
圖1 所提算法框架Fig. 1 Framework of the proposed algorithm
深度卷積神經(jīng)網(wǎng)絡(luò)提取的特征有很好的表達(dá)能力。淺層卷積提取的特征包含目標(biāo)的空間信息,能很好地區(qū)分背景干擾;深層卷積提取的特征包含目標(biāo)的語(yǔ)義信息,能很好地區(qū)分相同類別的物體。SiamMask 選用了深層網(wǎng)絡(luò)ResNet 的Conv4_3 層的特征,模板特征僅在初始幀進(jìn)行提取,在跟蹤過(guò)程中不進(jìn)行更新,待檢測(cè)圖像特征與模板特征進(jìn)行多維相似度度量計(jì)算,得到用于定位的多維響應(yīng)圖;但由于模板特征固定不變,當(dāng)目標(biāo)被嚴(yán)重遮擋或者發(fā)生形變時(shí),容易出現(xiàn)跟蹤失敗的情況。所以通過(guò)設(shè)置學(xué)習(xí)率對(duì)模板特征更新,使模板特征能夠更好地適應(yīng)目標(biāo)的表征變化。
圖1上路即模板路(從模板圖像z到更新后的模板特征),首先通過(guò)CNN 提取初始幀模板特征并保留,第二幀以第一幀獲取的目標(biāo)中心點(diǎn)為中心截取127× 127× 3 的圖片塊,再通過(guò)CNN 對(duì)圖片塊提取特征,將提取的第二幀模板特征與第一幀模板特征進(jìn)行加權(quán)融合。選取第一幀模板特征進(jìn)行融合是因?yàn)槟繕?biāo)是在非遮擋下提取的特征,包含的目標(biāo)語(yǔ)義信息最為豐富。每一幀都進(jìn)行此操作,極大地豐富了模板特征的語(yǔ)義信息,經(jīng)過(guò)學(xué)習(xí)的模板特征與待檢測(cè)圖像提取的特征進(jìn)行卷積操作,得到的多維響應(yīng)圖更加精準(zhǔn)。模板特征更新公式為:
式中:η 為學(xué)習(xí)率;f1(z)為第一幀圖像提取的模板特征;fi(z)為第i幀圖像提取的模板特征。
掩膜細(xì)化模塊如圖2 所示。多維響應(yīng)圖被分成大小相等的單位候選響應(yīng)窗口,候選響應(yīng)窗口表示模板圖像與待檢測(cè)圖像在某一區(qū)域的相似度。通過(guò)分類分支找到多維響應(yīng)圖中得分最高的候選響應(yīng)窗口,通過(guò)上采樣的方式,將低分辨率的特征圖與高分辨率的特征圖進(jìn)行融合。
圖2 掩膜細(xì)化模塊Fig. 2 Mask refinement module
在融合的過(guò)程中,將模板圖像z 提取的第一層、第二層和第三層特征通過(guò)降維的方式與候選響應(yīng)窗口上采樣的特征直接相加,在這個(gè)過(guò)程中,包含目標(biāo)空間信息的通道被舍棄,包含背景干擾信息的通道被保留,導(dǎo)致目標(biāo)分割定位不準(zhǔn)確。在保留模板特征空間信息的前提下,對(duì)其進(jìn)行加權(quán),將更多的注意力放在上采樣的優(yōu)質(zhì)特征上,以減小降維特征對(duì)上采樣特征的干擾。該方法經(jīng)實(shí)驗(yàn)證明,模板圖像z 提取的第二層和第三層卷積降維特征對(duì)上采樣的特征干擾最大。在跟蹤過(guò)程中,為了保證跟蹤器的性能,需要設(shè)置合理的融合權(quán)重以充分發(fā)揮特征的表現(xiàn)能力。所以,將第二層降維特征與上采樣特征進(jìn)行加權(quán)融合,其融合權(quán)重比例為1∶1.25,第三層降維特征與上采樣特征融合比例為1∶2。該特征融合公式為:
為了評(píng)估本文改進(jìn)算法的有效性,選用VOT2016[12]、VOT2018[13]這兩個(gè)被廣泛應(yīng)用以及具有挑戰(zhàn)性的數(shù)據(jù)集進(jìn)行測(cè)試,這兩個(gè)數(shù)據(jù)集均有60組長(zhǎng)短不一的視頻,包含6種視覺(jué)干擾,每組視頻序列中至少包含一種視覺(jué)干擾,具有代表性。
實(shí) 驗(yàn) 平 臺(tái) 為 ubuntu16.04 系 統(tǒng) 下 的 PyCharm PROFESSIONAL2017,所有跟蹤實(shí)驗(yàn)均在配置為Intel Core i5-4590CPU,GTX 1060 GPU,內(nèi)存為16 GB 的計(jì)算機(jī)上完成。實(shí)驗(yàn)中采用的評(píng)價(jià)標(biāo)準(zhǔn)為精確性(Accuracy)、魯棒性(Robustness)以及預(yù)期平均重疊率(Expected Average Overlap Rate,EAO),其中Accuracy 是根據(jù)跟蹤算法預(yù)測(cè)的目標(biāo)框與標(biāo)注的真實(shí)框的重疊率計(jì)算得到的。首先計(jì)算第t 幀的重疊率:
式中Nvalid表示視頻序列的長(zhǎng)度。Robustness 用來(lái)測(cè)試跟蹤算法的穩(wěn)定性,數(shù)值越大,表示穩(wěn)定性越差,如下式所示:
式中:F(k)為跟蹤算法在跟蹤的第k 次重復(fù)中的失敗次數(shù)。EAO 是根據(jù)精確性和魯棒性計(jì)算得到的,將數(shù)據(jù)集中所有序列按長(zhǎng)度Ns分類,計(jì)算長(zhǎng)度為Ns的視頻序列每一幀一次性的準(zhǔn)確性,然后計(jì)算每個(gè)長(zhǎng)度為Ns視頻序列的準(zhǔn)確性,通過(guò)下式得出該長(zhǎng)度Ns的EAO值:
最后對(duì)不同長(zhǎng)度的EAO 值求平均,設(shè)序列長(zhǎng)度范圍為[Nmin,Nmax],則:
EAO為一個(gè)數(shù)值,可用此值評(píng)測(cè)跟蹤算法的綜合性能;使用每秒鐘處理的幀數(shù)(Frames Per Second,F(xiàn)PS)評(píng)估跟蹤的速度,即實(shí)時(shí)性。
本部分實(shí)驗(yàn)對(duì)比模板更新過(guò)程中不同學(xué)習(xí)率對(duì)跟蹤過(guò)程的影響和掩膜細(xì)化模塊根據(jù)不同權(quán)重融合特征對(duì)結(jié)果的影響,并做了可視化對(duì)比實(shí)驗(yàn)。
3.1.1 不同學(xué)習(xí)率對(duì)比實(shí)驗(yàn)
本文算法通過(guò)設(shè)置學(xué)習(xí)率的方式去更新模板,使得模板特征能夠更好地適應(yīng)目標(biāo)的表征變化。在測(cè)試的眾多學(xué)習(xí)率中選出了四組不同的學(xué)習(xí)率在VOT2016 和VOT2018 上進(jìn)行了測(cè)試,以精確性和預(yù)期平均重疊率EAO 對(duì)跟蹤結(jié)果進(jìn)行評(píng)估,實(shí)驗(yàn)結(jié)果如表1 所示。學(xué)習(xí)率為0 是SiamMask 算法的實(shí)驗(yàn)結(jié)果,當(dāng)把學(xué)習(xí)率設(shè)置為0.06時(shí)精確性和EAO 在VOT2016和VOT2018 中提升幅度較為明顯,表明通過(guò)學(xué)習(xí)目標(biāo)變化后的模板特征有效地提高了跟蹤器的魯棒性。
3.1.2 不同權(quán)重融合特征的對(duì)比實(shí)驗(yàn)
SiamMask 算法在掩膜細(xì)化模塊將含有空間信息的高維特征降維后直接與相同通道數(shù)的候選響應(yīng)窗口上采樣的特征相加,為了減少因?yàn)榻稻S帶來(lái)的冗余特征干擾,在本實(shí)驗(yàn)中對(duì)模板圖像z所提取的第二層(Conv2)以及第三層(Conv3)降維后特征乘以不同的權(quán)重系數(shù)再進(jìn)行相加操作,實(shí)驗(yàn)結(jié)果如表2 所示。權(quán)重系數(shù)是通過(guò)反復(fù)實(shí)驗(yàn)得到的,表中選取了三組有代表性的權(quán)值進(jìn)行比較,這三組權(quán)值均提高了跟蹤性能,其中對(duì)Conv2 乘以0.8 和對(duì)Conv3 乘以0.5 時(shí)跟蹤效果最好,說(shuō)明稀釋模板圖像z降維特征再融合的方式有效,最終選取權(quán)重系數(shù)為0.8和0.5。
表1 不同學(xué)習(xí)率時(shí)的性能對(duì)比Tab. 1 Performance comparison with different learning rates
表2 不同權(quán)值時(shí)的性能對(duì)比Tab. 2 Performance comparison with different weights
在VOT2016 數(shù)據(jù)集中選取了四種基于孿生網(wǎng)絡(luò)框架的算法和兩種主流算法進(jìn)行對(duì)比,分別是:SiameseFC 算法[1]、SiamRPN 算法[6]、DaSiamRPN[7]以及 SiamMask[8]算法、ECO 算法[14]和 CCOT 算法[15],實(shí)驗(yàn)結(jié)果如表 3 所示,本文算法的精確性和魯棒性均優(yōu)于其他六種對(duì)比算法。另外,在VOT2016 數(shù)據(jù)集測(cè)試中,本文算法的EAO 比SiamMask 算法高了1.7 個(gè)百分點(diǎn),比VOT2016 短時(shí)跟蹤挑戰(zhàn)賽冠軍CCOT 算法高了11.9個(gè)百分點(diǎn),并沒(méi)有因?yàn)楦倪M(jìn)策略影響跟蹤速度,仍達(dá)到實(shí)時(shí)跟蹤的要求。
表3 VOT2016上7種算法的結(jié)果對(duì)比Tab. 3 Result comparison of 7 algorithm on VOT2016
在VOT2018 數(shù)據(jù)集中選取了六種基于孿生網(wǎng)絡(luò)框架的算法進(jìn)行比較,分別是:SiameseFC 算法[1]、SiamRPN 算法[6]、DaSiamRPN[7]、SiamMask[8]算 法 、DSiam[5]算 法 以 及SA_Siam_R[16],精確性、魯棒性和實(shí)時(shí)性的實(shí)驗(yàn)結(jié)果如表 4 所示。在VOT2018 數(shù)據(jù)集測(cè)試中,本文所提算法的EAO 高于VOT2018短時(shí)跟蹤挑戰(zhàn)賽冠軍EAO 為0.389的自適應(yīng)學(xué)習(xí)的判別式相關(guān)濾波器(Learning Adaptive Discriminative Correlation Filters,LADCF)算法[17],EAO、精確性和魯棒性均高于其他六種基于孿生網(wǎng)絡(luò)框架的算法。
表4 VOT2018上7種算法的結(jié)果對(duì)比Tab. 4 Result comparison of seven algorithms on VOT2018
圖3 給出了四種基于孿生網(wǎng)絡(luò)的跟蹤算法在graduate、girl、gymnastics1、car1這四組數(shù)據(jù)上的跟蹤效果。
圖3 四種跟蹤算法的部分跟蹤結(jié)果對(duì)比Fig.3 Comparison of tracking results of four tracking algorithms
在圖3(a)的graduate 視頻序列中,主要的干擾因素是遮擋,在目標(biāo)被遮擋前,四種算法均可以較好地定位到目標(biāo),在第287 幀左右時(shí),目標(biāo)發(fā)生遮擋,SiameseFC 算法和DSiam 算法出現(xiàn)了明顯的跟蹤偏差,本文算法和SiamMask 依然能夠準(zhǔn)確地跟蹤目標(biāo);在圖3(b)的girl 視頻序列中,主要的干擾因素也是遮擋,在第106 幀左右時(shí),目標(biāo)發(fā)生遮擋,SiameseFC 和DSiam 跟丟目標(biāo),SiamMask 出現(xiàn)了跟蹤偏移的現(xiàn)象,遮擋結(jié)束后本文文算法在視頻的第139 幀依然穩(wěn)定跟蹤到目標(biāo),其他三種算法全部跟丟目標(biāo);在圖3(c)的gymnastics1 視頻序列中,主要的干擾因素是形變,從圖中可以看出目標(biāo)從發(fā)生形變到最后一幀,本文算法和SiamMask 有良好的穩(wěn)定性;在圖3(d)的car1 視頻序列中,主要的干擾因素是模糊運(yùn)動(dòng),目標(biāo)在模糊運(yùn)動(dòng)前,本文算法與SiamMask 有較好的跟蹤效果,在第683 幀左右時(shí),目標(biāo)發(fā)生模糊運(yùn)動(dòng),可以看出四種算法均出現(xiàn)了明顯的偏移現(xiàn)象。綜上所述,在目標(biāo)發(fā)生遮擋、形變時(shí)本文算法能夠更好地跟蹤目標(biāo)。
SiamMask 算法的跟蹤效果優(yōu)于其他基于孿生網(wǎng)絡(luò)框架的跟蹤算法,由于深度卷積特征具有超高的表征能力,所以性能比較穩(wěn)定,但出現(xiàn)類內(nèi)物體干擾或者目標(biāo)被嚴(yán)重遮擋時(shí),會(huì)出現(xiàn)跟蹤丟失或者跟錯(cuò)的情況,因此本文做出以下改進(jìn):首先,利用第一幀模板特征通過(guò)設(shè)置學(xué)習(xí)率與后續(xù)幀提取的模板特征進(jìn)行融合學(xué)習(xí),豐富了模板特征的語(yǔ)義信息,增強(qiáng)了特征的表現(xiàn)力,提高了跟蹤器的魯棒性;同時(shí),在掩膜細(xì)化模塊對(duì)降維特征進(jìn)行了加權(quán)操作,減少了冗余特征的干擾,提高了跟蹤精確性。在VOT2016 和VOT2018 數(shù)據(jù)集上進(jìn)行測(cè)試,并對(duì)不同學(xué)習(xí)率和不同權(quán)重對(duì)跟蹤效果的影響進(jìn)行了分析,結(jié)果顯示本文算法在VOT2016 數(shù)據(jù)集中測(cè)試的EAO 比SiamMask 算法高 1.7 個(gè)百分點(diǎn),在 VOT2018 中比 SiamMask 算法高1 個(gè)百分點(diǎn),實(shí)驗(yàn)結(jié)果均優(yōu)于其他對(duì)比算法,從而驗(yàn)證了本改進(jìn)算法的有效性;而且在兩個(gè)數(shù)據(jù)集測(cè)試速度均超過(guò)了34 幀/s,滿足實(shí)時(shí)跟蹤的要求。下一步工作將針對(duì)快速移動(dòng)和模糊運(yùn)動(dòng)干擾,進(jìn)一步提高目標(biāo)跟蹤的效果。