国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于自適應(yīng)尺度變換與特征融合的目標(biāo)跟蹤

2024-01-01 00:00:00牛思杰汪志鋒朱晶晶
指揮控制與仿真 2024年4期
關(guān)鍵詞:特征融合

摘 要:針對(duì)傳統(tǒng)核相關(guān)濾波算法在目標(biāo)被遮擋或發(fā)生運(yùn)動(dòng)模糊時(shí)跟蹤效果不佳的情況,為了達(dá)到運(yùn)動(dòng)目標(biāo)的實(shí)時(shí)穩(wěn)定跟蹤,提高跟蹤系統(tǒng)的精度和成功率,提出一種基于核相關(guān)濾波的具有尺度自適應(yīng)和特征融合的目標(biāo)跟蹤方法。 首先在特征提取過(guò)程中,通過(guò)在原有的方向梯度直方圖特征后添加顏色特征來(lái)提高目標(biāo)特征的識(shí)別能力,即將HOG 特征與 CN 特征相融合,然后構(gòu)建尺度金字塔來(lái)進(jìn)行尺度估計(jì)以達(dá)到目標(biāo)的尺度自適應(yīng),最后通過(guò)多峰值檢測(cè)機(jī)制實(shí)現(xiàn)模型的更新。 通過(guò)在 OTB2015 數(shù)據(jù)集中進(jìn)行測(cè)試,算法的精確率和成功率有了進(jìn)一步提升,該算法能夠準(zhǔn)確地識(shí)別出目標(biāo),并對(duì)目標(biāo)進(jìn)行有效跟蹤。

關(guān)鍵詞:目標(biāo)跟蹤技術(shù); 相關(guān)濾波; 特征融合; 尺度變化; 多峰值檢測(cè)

中圖分類號(hào):TP391

文獻(xiàn)標(biāo)志碼:A

DOI:10.3969/ j.issn.1673?3819.2024.04.011

Target tracking based on adaptive scale transform and feature fusionNIU Sijie, WANG Zhifeng, ZHU Jingjing

(Shanghai Polytechnic University, Shanghai 201209, China)

Abstract: In order to achieve real?time stable tracking of moving targets and improve the accuracy and success rate of thetracking system, a kernel correlation filtering?based target tracking method with scale adaptation and feature fusion is pro?posed to address the situation that the traditional kernel correlation filtering algorithm does not track well when the target isobscured or motion blurred. Firstly, in the feature extraction process, color features are added after the original directionalgradient histogram features to improve the recognition capability of target features, that is HOG features are fused with CNfeatures, then a scale pyramid is constructed to perform scale estimation to achieve scale adaptation of the target, and finallythe model is updated through a multi?peak detection mechanism. Through testing on the OTB2015 dataset, the accuracy andsuccess rate of the algorithm has been further improved, and the algorithm is able to accurately identify targets and trackthem effectively.

Key words: target tracking technology; correlation filtering; feature fusion; scaling; multi peak detection

近年來(lái),運(yùn)動(dòng)目標(biāo)跟蹤在多個(gè)領(lǐng)域有著越來(lái)越廣泛的應(yīng)用,例如在智能監(jiān)控、人機(jī)交互、軍事、安防和工業(yè)設(shè)備生產(chǎn)等領(lǐng)域 [1?3] 。 目標(biāo)跟蹤也在機(jī)器人導(dǎo)航系統(tǒng)占據(jù)核心位置,但在實(shí)際的跟蹤過(guò)程中,外界的環(huán)境變化會(huì)對(duì)跟蹤效果產(chǎn)生許多影響 [4?5] ,如外界光照變化、遮擋、目標(biāo)尺度變化等,因此,如何在復(fù)雜場(chǎng)景下實(shí)現(xiàn)目標(biāo)跟蹤的尺度自適應(yīng)與特征融合 [6] ,提高目標(biāo)跟蹤的精度和準(zhǔn)確度是行業(yè)的研究熱點(diǎn)。 常見(jiàn)的跟蹤方法有背景差分法、光速流法、邊緣檢測(cè)算法 [7?8] 。

最初 BOLME 等 [9] 教授利用模板圖片上訓(xùn)練好的濾波器去對(duì)目標(biāo)物體的外表建模,提出了最小輸出平方誤差和(MOSSE)跟蹤算法,此算法是一種判別式跟蹤算法,首次將灰度特征引入算法中,并利用卷積算子實(shí)現(xiàn)從頻域到空域的轉(zhuǎn)換,提高了跟蹤的速度。 之后,相關(guān)研究者引用了 MOSSE 方法提出了 CSK 跟蹤算法 [10] ,CSK 把線性分類器運(yùn)用到相關(guān)濾波中來(lái)求解相關(guān)問(wèn)題,但此算法也僅僅用到了 gray(灰度)特征,在跟蹤精度的提升上有一定局限性。 隨后,HENRIQUES等 [11] 教授通過(guò)擴(kuò)展 CSK 跟蹤算法,提出核相關(guān)濾波跟蹤算法,單通道的灰度特征有效擴(kuò)展到了多通道的方向梯度直方圖特征,跟蹤的準(zhǔn)確率得到提升。 但當(dāng)目標(biāo)的尺度發(fā)生變化(例如形變)、外界的遮擋、相似目標(biāo)干擾、超出目標(biāo)框等因素影響時(shí),用核相關(guān)濾波跟蹤算法進(jìn)行跟蹤仍然會(huì)漏掉目標(biāo),一旦跟蹤框偏離目標(biāo),之后就很難繼續(xù)進(jìn)行跟蹤。 YIN 等人將平均峰值相關(guān)能量 APCE 引入模型更新階段 [12?13] (average peak?to corre?lation energy),提高了對(duì)于單個(gè)目標(biāo)的跟蹤性能。

1 核相關(guān)濾波跟蹤算法

KCF 算法使用核方法將輸入圖像塊映射到高維特征空間中進(jìn)行處理,即使用高斯核函數(shù)來(lái)對(duì)特征進(jìn)行映射。 該算法的主要思路是通過(guò)循環(huán)矩陣在目標(biāo)區(qū)域中采集正負(fù)樣本,并采用嶺回歸算法對(duì)目標(biāo)進(jìn)行訓(xùn)練,然后再通過(guò)傅里葉空間中循環(huán)矩陣?yán)锏囊环N可對(duì)角化特性對(duì)矩陣進(jìn)行變換運(yùn)算成元素的點(diǎn)積,即將卷積操作轉(zhuǎn)換為點(diǎn)乘操作,有效降低了運(yùn)算量,提高了跟蹤的速度,使算法滿足了實(shí)時(shí)性要求。 同時(shí) KCF 算法在頻域中進(jìn)行特征匹配,使用矩陣傅里葉空間對(duì)角化來(lái)解決對(duì)偶問(wèn)題和一些一般約束以簡(jiǎn)化計(jì)算,這種方法有助于將多通道數(shù)據(jù)納入算法。

3 實(shí)驗(yàn)結(jié)果和對(duì)比分析

為驗(yàn)證文中所提運(yùn)動(dòng)目標(biāo)跟蹤算法的準(zhǔn)確率和成功率,本文選取跟蹤領(lǐng)域權(quán)威公開(kāi)的數(shù)據(jù)集 OTB?2015 [16] 進(jìn)行驗(yàn)證,并選取了 3 段復(fù)雜環(huán)境下的視頻序列,所選視頻序列面臨的挑戰(zhàn)有尺寸變化、抖動(dòng)、遮擋、運(yùn)動(dòng)模糊,見(jiàn)表 1。

本文實(shí)驗(yàn)環(huán)境為 Intel?i7,內(nèi)存為 16 GB,實(shí)驗(yàn)運(yùn)行平臺(tái)為 MATLAB2021b,高斯核標(biāo)準(zhǔn)差 σ 是 0. 5,學(xué)習(xí)因子 η 是 0. 02,正則化系數(shù) λ 是 0. 000 1。

3. 1 實(shí)驗(yàn)數(shù)據(jù)集和評(píng)價(jià)指標(biāo)

本研究使用的數(shù)據(jù)集為 OTB02015,該數(shù)據(jù)集在OTB2013 的基礎(chǔ)上增加至 100 個(gè)視頻序列,包括室內(nèi)和室外的視頻序列。 數(shù)據(jù)集的每個(gè)視頻序列都包含多種屬性,這些屬性分別為尺度變化、光照變化、目標(biāo)形變、障礙物遮擋、運(yùn)動(dòng)模糊、平面內(nèi)旋轉(zhuǎn)、平面外旋轉(zhuǎn)、快速移動(dòng)等。 本研究基于 OTB2015 數(shù)據(jù)集和相應(yīng)的環(huán)境條件,測(cè)試了改進(jìn)的算法以及當(dāng)前熱門的目標(biāo)跟蹤算法,并與之進(jìn)行對(duì)比。 實(shí)驗(yàn)選用一次通過(guò)率(OPE)作 為 標(biāo) 準(zhǔn), 計(jì) 算 了 成 功 率 ( success ) 和 精 確 度(precision)。 OPE 表示為每個(gè)不同的圖像序列只運(yùn)行一次。 本實(shí)驗(yàn)的評(píng)價(jià)指標(biāo)包括距離精度的平均值和平均重疊率精度的平均值 [17?18] 。 距離精度也即精確度,描述的是視頻序列里中心誤差低于某個(gè)閾值的幀數(shù)與視頻序列總幀數(shù)的比值,能有效反映算法的魯棒性。

3. 1. 1 成功率圖

成功率圖展示了算法在不同跟蹤閾值下的成功率和重疊閾值之間的關(guān)系。 成功率指的是算法成功跟蹤目標(biāo)的幀數(shù)占所有測(cè)試幀數(shù)的比例,而重疊率定義為area S G ∩S T ( )area S G ∪S T ( ),S G 代表跟蹤目標(biāo)的實(shí)際位置,S T 代表跟蹤目標(biāo)框的中心位置,即兩個(gè)邊界框交集內(nèi)的像素點(diǎn)個(gè)數(shù)/ 兩個(gè)邊界框并集內(nèi)的像素點(diǎn)個(gè)數(shù)。 如果在跟蹤的過(guò)程中,視頻序列每一幀的重疊率大于一定的閾值,表示跟蹤成功。

3. 1. 2 精確度圖

算法通過(guò)計(jì)算中心位置偏差(CLE)作為參數(shù)指標(biāo)可以反映算法準(zhǔn)確度。 目標(biāo)框與視頻序列中每個(gè)幀的中心位置之間的距離就代表了中心位置偏差值。 在精度圖中,通常會(huì)繪制多條曲線,每條曲線代表一種不同的目標(biāo)跟蹤算法或參數(shù)設(shè)置。 曲線上的每個(gè)點(diǎn)表示一個(gè)閾值,橫坐標(biāo)是該閾值下的位置誤差率,縱坐標(biāo)是該閾值下的準(zhǔn)確率。 曲線越靠近圖像右上角,代表該算法在該閾值下的性能越好。

3. 2 對(duì)比實(shí)驗(yàn)定量分析

為驗(yàn)證本文算法的精度與成功率,研究人員將本文的算法與當(dāng)前熱門的算法進(jìn)行對(duì)比,它們分別為原KCF 算法、SRDCF 算法、STAPLE 算法和 DSST 算法,對(duì)比的各序列成功率與精確度如圖 2 所示。 測(cè)試時(shí)選取了 OTB2015 中較為經(jīng)典的序列,如圖 3 woman 序列,圖4 suv 序列,圖 5 dog1 序列。

5 種算法的跟蹤性能如表 2 所示,可以得出,本文的改進(jìn)算法 OUR 的精確度為 81. 4%,相較于其他幾個(gè)算法分別提升了 2. 5%、3. 1%、11. 9%、12. 8%,成功率為 62. 9%,相較于其他幾個(gè)算法分別提升了 3. 1%、5. 1%、11. 2%、15. 2%,也明顯優(yōu)于改進(jìn)前的算法。

本文研究者通過(guò)分析 woman 序列中 5 種算法的跟蹤過(guò)程發(fā)現(xiàn),在 woman 序列中,從第 250 幀可看出,最初各個(gè)算法均能正常跟蹤。 在第 260 幀時(shí)當(dāng)行人繼續(xù)前進(jìn)時(shí),部分算法開(kāi)始出現(xiàn)目標(biāo)框漂移的現(xiàn)象。 在第345 幀時(shí),行人的尺度漸漸發(fā)生變化,但本文改進(jìn)后的跟蹤器依然可以根據(jù)行人的尺度進(jìn)行變化,其他跟蹤器繼續(xù)漂移。

本文研究者通過(guò)分析 SUV 序列中 5 種算法的跟蹤過(guò)程發(fā)現(xiàn),在 SUV 序列中,該視頻序列全程窗口在晃動(dòng),在第 89 幀時(shí),跟蹤器還能進(jìn)行正常跟蹤,由于視頻序列中目標(biāo)的快速移動(dòng),在第 160 幀時(shí)各個(gè)跟蹤器均出現(xiàn)目標(biāo)框漂移的現(xiàn)象,在第 240 幀時(shí),在一些算法中可能會(huì)出現(xiàn)跟蹤失敗的情況,而本文改進(jìn)后的算法可以正常進(jìn)行跟蹤。

本文研究者通過(guò)分析 dog1 序列中 5 種算法的跟蹤過(guò)程發(fā)現(xiàn),在 dog1 序列第 199 幀時(shí),各個(gè)跟蹤算法都能進(jìn)行穩(wěn)定跟蹤;在第 316 幀時(shí),由于目標(biāo)左右晃動(dòng),個(gè)別跟蹤器跟蹤失敗,但本目標(biāo)跟蹤算法仍能穩(wěn)定跟蹤;在第 906 幀時(shí),目標(biāo)的尺度發(fā)生變化,但本跟蹤算法的跟蹤框能夠根據(jù)目標(biāo)的大小調(diào)整尺度,其他跟蹤算法跟蹤失敗。

4 結(jié)束語(yǔ)

本文針對(duì)傳統(tǒng)核相關(guān)濾波算法在目標(biāo)出現(xiàn)遮擋、變形、尺度變化等干擾時(shí)跟蹤精度不佳的情況,在核相關(guān)濾波的基礎(chǔ)上,提出了一種融合 HOG 特征和 CN 特征的目標(biāo)跟蹤方法。 同時(shí)采用尺度濾波器構(gòu)建尺度金字塔,以實(shí)現(xiàn)目標(biāo)跟蹤框的尺度自適應(yīng),有效解決了跟蹤過(guò)程中因目標(biāo)尺度變化導(dǎo)致跟蹤不準(zhǔn)確的問(wèn)題。

參考文獻(xiàn):

[1] DANELLJAN M, BHAT G, KHAN F S, et al. ATOM:accurate tracking by overlap maximization [ C] / /2019IEEE/ CVF Conference on Computer Vision and PatternRecognition (CVPR). Long Beach, 2020: 4 655?4 664.

[2] SU Z Z, JI H B, TIAN C, et al. A robust Poisson multi?Bernoulli filter for multi?target tracking based onarithmetic average fusion[J]. Chinese Journal of Aeronau?tics, 2023, 36(2): 179?190.

[3] XIE L, WANG P L, SONG S H, et al. Perceptive mobilenetwork with distributed target monitoring terminals:leaking communication energy for sensing [ J]. IEEETransactions on Wireless Communications, 2022, 21(12): 10 193?10 207.

[4]HENRIQUES J F, CASEIRO R, MARTINS P, et al.High?speed tracking with kernelized correlation filters[J].IEEE Transactions on Pattern Analysis and Machine Intel?ligence, 2015, 37(3): 583?596.

[5] 胡昭華, 張倩. 自動(dòng)全局上下文感知相關(guān)濾波器跟蹤算法[J]. 南京信息工程大學(xué)學(xué)報(bào)(自然科學(xué)版),2023, 15(1): 66?75.HU Z H, ZHANG Q. Correlation filter tracking algorithmbased on automatic global context awareness[J]. Journalof Nanjing University of Information Science & Technology(Natural Science Edition), 2023, 15(1): 66?75.

[6] ZHANG Z P, PENG H W, FU J L, et al. Ocean: object?aware anchor?free tracking [ M ] / / Computer Vision—ECCV 2020. Cham: Springer International Publishing,2020: 771?787.

[7]SUN M J, XIAO J M, LIM E G, et al. Fast templatematching and update for video object tracking and segmen?tation[C] / /2020 IEEE/ CVF Conference on Computer Vi?sion and Pattern Recognition (CVPR). Seattle, 2020: 10788?10 796.

[8] 張宇, 張焱, 石志廣, 等. 基于圖像衍生的紅外無(wú)人機(jī)圖像仿真方法研究[J]. 光學(xué)學(xué)報(bào), 2022, 42(2):99?112.ZHANG Y, ZHANG Y, SHI Z G, et al. Image simulationmethod of infrared UAV based on image derivation[J].Acta Optica Sinica, 2022, 42(2): 99?112.

[9] DUBUISSON S, GONZALES C. A survey of datasets forvisual tracking [ J]. Machine Vision and Applications,2016, 27(1): 23?52.

[10] 楊文煥, 翟雨, 殷亞萍, 等. 一種多目標(biāo)檢測(cè)跟蹤算法研究[J]. 河北科技大學(xué)學(xué)報(bào), 2022, 43(2): 127?136.YANG W H, ZHAI Y, YIN Y P, et al. Research on amulti?target detection and tracking algorithm[J]. Journalof Hebei University of Science and Technology, 2022, 43(2): 127?136.

[11] 周正松, 陳虹君, 周紅. 基于多特征融合的尺度自適應(yīng) KCF 目標(biāo)跟蹤算法[J]. 四川大學(xué)學(xué)報(bào)(自然科學(xué)版), 2020, 57(4): 697?703.ZHOU Z S, CHEN H J, ZHOU H. Scale?adaptive kernelcorrelation filtering tracking algorithm based on multi?feature fusion[J]. Journal of Sichuan University(NaturalScience Edition), 2020, 57(4): 697?703.

[12] YIN J B, WANG W G, MENG Q H, et al. A unified ob?ject motion and affinity model for online multi?objecttracking[C] / /2020 IEEE/ CVF Conference on ComputerVision and Pattern Recognition (CVPR). Seattle, 2020:6 767?6 776.

[13] SAMDURKAR A S, KAMBLE S D, THAKUR N V, etal. Overview of object detection and tracking based onblock matching techniques [ C ] / / Proceedings of theSecond International Conference on Research in Intelligentand Computing in Engineering", " Annals of ComputerScience and Information Systems. 2017: 15?20.

[14] SHI D M, CHEN X. Research on visual object trackingalgorithm based on improved twin network[J]. Journal ofPhysics: Conference Series, 2021, 1966(1): 012006.

[15] HENRIQUES J F, CASEIRO R, MARTINS P, et al. Ex?ploiting the circulant structure of tracking?by?detectionwith kernels [ M ] / / Computer Vision—ECCV 2012.Berlin, Heidelberg: Springer Berlin Heidelberg, 2012:702?715.

[16] WU Y, LIM J, YANG M H. Object tracking benchmark[J]. IEEE Transactions on Pattern Analysis and MachineIntelligence, 2015, 37(9): 1 834?1 848.

[17] 張哲, 孫瑾, 楊劉濤. 融合相關(guān)濾波與關(guān)鍵點(diǎn)匹配的跟蹤算法[J]. 光學(xué)學(xué)報(bào), 2019, 39(2): 259?267.ZHANG Z, SUN J, YANG L T. Tracking algorithm basedon correlation filter fusing with keypoint matching [ J].Acta Optica Sinica, 2019, 39(2): 259?267.

[18] 陳志旺, 劉旺. 特征融合和自校正的多尺度改進(jìn) KCF目標(biāo)跟蹤算法研究[J]. 高技術(shù)通訊, 2022, 32(4):337?350.CHEN Z W, LIU W. Research on improved multi?scaleKCF target tracking algorithm based on features fusion andself?correction [ J]. Chinese High Technology Letters,2022, 32(4): 337?350.

(責(zé)任編輯:胡前進(jìn))

猜你喜歡
特征融合
多特征融合的粒子濾波紅外單目標(biāo)跟蹤
基于稀疏表示與特征融合的人臉識(shí)別方法
一種“客觀度量”和“深度學(xué)習(xí)”共同驅(qū)動(dòng)的立體匹配方法
多特征融合的紋理圖像分類研究
語(yǔ)譜圖傅里葉變換的二字漢語(yǔ)詞匯語(yǔ)音識(shí)別
基于多特征融合的圖像匹配算法
人體行為特征融合與行為識(shí)別的分析
基于移動(dòng)端的樹木葉片識(shí)別方法的研究
科技資訊(2017年11期)2017-06-09 18:28:13
基于SIFT特征的港口內(nèi)艦船檢測(cè)方法
融合整體與局部特征的車輛型號(hào)識(shí)別方法
湟中县| 吉水县| 泽州县| 高邮市| 外汇| 德钦县| 周宁县| 伊通| 霍邱县| 麦盖提县| 瑞昌市| 南江县| 宝坻区| 顺义区| 闽侯县| 当阳市| 分宜县| 龙海市| 全椒县| 黄浦区| 沂南县| 沈丘县| 登封市| 岢岚县| 仪陇县| 文成县| 邢台市| 水城县| 赤壁市| 怀来县| 梅州市| 灵丘县| 来宾市| 休宁县| 吉木萨尔县| 涪陵区| 合肥市| 平武县| 阿勒泰市| 阿拉尔市| 腾冲县|