吳 翔, 鐘雨軒, 岳琪琪, 李小毛
基于深度學(xué)習(xí)的尺度自適應(yīng)海面目標(biāo)跟蹤算法
吳 翔1, 鐘雨軒2, 岳琪琪1, 李小毛1
(1. 上海大學(xué) 機(jī)電工程與自動(dòng)化學(xué)院, 上海, 200444; 2. 上海大學(xué) 計(jì)算機(jī)工程與科學(xué)學(xué)院, 上海, 200444)
相比于普通場(chǎng)景的目標(biāo)跟蹤, 無(wú)人艇海面目標(biāo)跟蹤具有目標(biāo)尺度變化大、目標(biāo)抖動(dòng)劇烈和視角變化大等獨(dú)特挑戰(zhàn)。針對(duì)此, 文中提出了基于深度學(xué)習(xí)的尺度自適應(yīng)海面目標(biāo)跟蹤算法, 以樣本中心點(diǎn)是否落在真實(shí)目標(biāo)框內(nèi)對(duì)樣本進(jìn)行分類, 直接回歸中心點(diǎn)到目標(biāo)框上下左右的距離預(yù)測(cè)目標(biāo)框的位置和尺度。同時(shí), 建立了海面目標(biāo)跟蹤算法評(píng)估平臺(tái), 以驗(yàn)證所提算法的有效性。試驗(yàn)結(jié)果表明, 文中算法相比基于錨框的算法跟蹤位置精度提升了4.8%, 成功率提升了11.49%, 有效解決了目標(biāo)尺度自適應(yīng)問(wèn)題。
無(wú)人艇; 尺度自適應(yīng); 深度學(xué)習(xí); 目標(biāo)跟蹤
無(wú)人艇是一種能夠自主航行的水面運(yùn)動(dòng)平臺(tái), 在軍用和民用等領(lǐng)域都發(fā)揮著巨大作用。視覺(jué)感知是無(wú)人艇環(huán)境感知的重要組成部分, 能為無(wú)人艇提供豐富的海面目標(biāo)外觀信息。海面目標(biāo)跟蹤作為視覺(jué)感知的重要研究任務(wù), 對(duì)于海面目標(biāo)行為分析等方面有著重要意義[1]。海面目標(biāo)跟蹤任務(wù)的定義為: 根據(jù)海面圖像序列第1幀中海面目標(biāo)的信息, 該任務(wù)負(fù)責(zé)在之后的每一幀圖像中定位出該目標(biāo)[2-3]。不同于普通場(chǎng)景的目標(biāo)跟蹤任務(wù), 海面目標(biāo)跟蹤雖背景較為簡(jiǎn)單, 但具有目標(biāo)尺度變化大(見(jiàn)圖1)等特點(diǎn)。
圖1 目標(biāo)尺度變化
目前較流行的目標(biāo)跟蹤算法有基于相關(guān)濾波器跟蹤算法和基于孿生網(wǎng)絡(luò)跟蹤算法?;谙嚓P(guān)濾波器跟蹤算法通過(guò)循環(huán)樣本集訓(xùn)練一個(gè)二維濾波器來(lái)尋找圖像中目標(biāo)的位置, 并根據(jù)循環(huán)矩陣在傅里葉域?qū)腔男再|(zhì), 將復(fù)雜的時(shí)域運(yùn)算轉(zhuǎn)化到傅里葉域元素間的點(diǎn)乘運(yùn)算, 大大減少了運(yùn)算量, 提高了跟蹤算法效率[4]。在基于相關(guān)濾波器的跟蹤算法中, 解決目標(biāo)尺度問(wèn)題的算法包括判別式尺度空間跟蹤(discriminative scale space tracking, DSST)算法[5]、多特征尺度自適應(yīng)(scale adaptive multiple feature, SAMF)算法[6]、核相關(guān)濾波器與檢測(cè)建議(kernelized correlation filter with detection proposal, KCFDP)算法[7]、可伸縮核相關(guān)濾波器(scalable kernel correlation filter, SKCF)算法[8]、積分邊界中心相關(guān)濾波器(integrating boun- dary and center correlation filter, IBCCF)算法[9]等, 該類目標(biāo)跟蹤算法大部分使用手工特征, 或使用應(yīng)用于分類任務(wù)的預(yù)訓(xùn)練網(wǎng)絡(luò)提取特征, 無(wú)法形成端到端的訓(xùn)練。
2016年, Bertinetto等[10]首次將孿生網(wǎng)絡(luò)用于視覺(jué)目標(biāo)跟蹤領(lǐng)域, 提出SiamFC跟蹤器, 該跟蹤器采用第1幀作為模板, 在后續(xù)幀中通過(guò)相似性匹配尋找目標(biāo)位置, 通過(guò)采樣3種不同尺度樣本分別與模板幀作相似性匹配以獲得最佳尺度。Li等[11]將目標(biāo)檢測(cè)領(lǐng)域的區(qū)域建議網(wǎng)絡(luò)(region proposal network, RPN)[12]引入到跟蹤器中, 提出SiamRPN跟蹤器, 該跟蹤器對(duì)每一個(gè)候選區(qū)域設(shè)置尺度以及長(zhǎng)寬比不同的框, 將其稱為錨框(anchor), 對(duì)錨框進(jìn)行分類和回歸, 更好地預(yù)測(cè)了目標(biāo)尺度, 提高了跟蹤器的速度和定位精度。基于錨框的目標(biāo)跟蹤算法雖然獲得了很好的效果, 但是其對(duì)尺度的預(yù)測(cè)效果受錨框的限制, 需要仔細(xì)調(diào)節(jié)與之相關(guān)的超參數(shù), 對(duì)于已經(jīng)訓(xùn)練好的網(wǎng)絡(luò), 錨框的尺寸和長(zhǎng)寬比是固定的, 因此不適用于尺度變化較大的場(chǎng)景。
文中使用基于深度學(xué)習(xí)的算法, 能夠提取到特征表達(dá)能力更強(qiáng)且更適用于目標(biāo)跟蹤任務(wù)的深度特征。同時(shí), 文中提出的尺度自適應(yīng)目標(biāo)跟蹤算法是不依賴于錨框的, 由候選區(qū)域的中心點(diǎn)是否在真實(shí)目標(biāo)框(groundtruth, GT)內(nèi)判斷正負(fù)樣本, 然后直接回歸點(diǎn)到GT上下左右的距離, 更適用于海面目標(biāo)尺度變化大的場(chǎng)景。同時(shí), 為了驗(yàn)證文中算法的有效性, 搭建了海面目標(biāo)跟蹤算法評(píng)估平臺(tái), 選取尺度變化大的視頻序列進(jìn)行定性和定量分析, 試驗(yàn)結(jié)果表明文中算法能夠更好的應(yīng)對(duì)目標(biāo)大尺度變化。
圖2 孿生網(wǎng)絡(luò)結(jié)構(gòu)圖
將SiamRPN跟蹤器應(yīng)用于海面目標(biāo)跟蹤數(shù)據(jù)集, 發(fā)現(xiàn)其表現(xiàn)效果并不好。在分析其原因之前, 首先簡(jiǎn)單介紹SiamRPN跟蹤器的目標(biāo)跟蹤過(guò)程。SiamRPN跟蹤器共有17×17個(gè)候選區(qū)域, 對(duì)于每一個(gè)候選區(qū)域設(shè)置尺度以及長(zhǎng)寬比不同的錨框, 在訓(xùn)練過(guò)程中根據(jù)錨框與GT的交并比(intersection-over-union, IOU)大小對(duì)錨框分類, 設(shè)置分類標(biāo)簽, 將與GT的IOU大于0.6的錨框設(shè)置為正樣本, 其余設(shè)置為負(fù)樣本, 最后再將錨框向GT回歸。如上所述, 基于錨框的目標(biāo)跟蹤算法的訓(xùn)練過(guò)程注定其表現(xiàn)效果對(duì)錨框的尺寸、長(zhǎng)寬比和數(shù)目非常敏感, 與錨框相關(guān)的超參數(shù)需要針對(duì)不同對(duì)象大小或長(zhǎng)寬比進(jìn)行仔細(xì)的調(diào)節(jié)。而且目標(biāo)跟蹤的對(duì)象為視頻序列, 由于海面船只目標(biāo)跟蹤數(shù)據(jù)集的特點(diǎn), 即跟蹤的船只目標(biāo)尺度在整個(gè)序列中變化較大, 注定錨框的設(shè)置不能很好地適應(yīng)每一幀目標(biāo)。圖3是錨框與GT的可視化圖, 圖4表示海面目標(biāo)數(shù)據(jù)集中一個(gè)尺度變化大的序列SingleShip05視頻中, 錨框與GT最大的交并比幀數(shù)的變化曲線圖, 從圖中可以看出, IOU值越大比例越少, 說(shuō)明對(duì)于大多數(shù)圖像其錨框的設(shè)置并不是很合理, 也表明基于錨框的算法在處理形變較大的候選對(duì)象時(shí)比較困難, 而且設(shè)置的錨框數(shù)量越多, 網(wǎng)絡(luò)的維度也越大, 增加了計(jì)算量。文中提出的目標(biāo)尺度自適應(yīng)算法是基于無(wú)錨框(anchor-free)的, 對(duì)候選區(qū)域的分類是基于點(diǎn)的, 可以保證正樣本的中心點(diǎn)一定落于GT內(nèi), 然后直接回歸點(diǎn)到目標(biāo)框上下左右的距離來(lái)確定目標(biāo)的位置和尺度, 更適用于海面目標(biāo)大尺度變化的場(chǎng)景。
圖3 SingleShip05視頻中錨框與GT可視化圖
圖4 SingleShip05視頻中錨框與GT最大交并比變化曲線
圖5 標(biāo)簽設(shè)計(jì)示意圖
Fig. 5 Diagram of label design
1.3.1 網(wǎng)絡(luò)結(jié)構(gòu)
圖6 文中算法網(wǎng)絡(luò)結(jié)構(gòu)圖
1.3.2 損失
分類分支采用焦點(diǎn)損失(focal loss)[14], 表示為
回歸分支采用交并比損失(IOU loss), 表示為
總的損失為
1.3.3 網(wǎng)絡(luò)訓(xùn)練
如圖7所示, 上下2行對(duì)應(yīng)為1個(gè)訓(xùn)練圖像對(duì), 每個(gè)圖像對(duì)都是從同一個(gè)視頻序列中隨機(jī)獲得。對(duì)圖像進(jìn)行預(yù)處理, 第1行圖像大小為127 px×127 px, 第2行圖像大小為255 px×255 px, 若大小超過(guò)了原圖像的大小, 則用圖像紅綠藍(lán)三通道的平均像素值填充圖像。
圖7 訓(xùn)練圖像對(duì)
Fig. 7 Training image pairs
1.3.4 跟蹤過(guò)程
文中算法目標(biāo)跟蹤過(guò)程的輸入與SiamFC相同。模板分支固定為第1幀, 因此只需要計(jì)算1次, 將當(dāng)前幀搜索圖像塊輸入網(wǎng)絡(luò), 網(wǎng)絡(luò)前向傳播獲得分類和回歸的結(jié)果。將分類輸出和回歸輸出分別表示為
以安裝在水面無(wú)人艇上的環(huán)境感知攝像機(jī)拍攝的真實(shí)圖像序列作為文中算法性能評(píng)估的測(cè)試數(shù)據(jù)集, 并按照OTB100目標(biāo)跟蹤數(shù)據(jù)集[2-3]公開(kāi)的統(tǒng)一標(biāo)準(zhǔn)進(jìn)行人工標(biāo)注。采集的海面數(shù)據(jù)集包含30個(gè)圖像序列, 其中包括目標(biāo)被遮擋、目標(biāo)平面外旋轉(zhuǎn)、目標(biāo)超出視野、目標(biāo)尺度變化和背光等情況。
基于上述測(cè)試數(shù)據(jù)定性分析文中算法的有效性, 定量評(píng)估文中算法的成功率和精確度。通常利用精確度和成功率曲線圖對(duì)跟蹤算法的性能進(jìn)行排名, 用曲線與橫縱坐標(biāo)所圍成的面積來(lái)量化表示, 其取值范圍為0~1, 越接近1代表算法的跟蹤效果越好。精確度曲線圖的橫坐標(biāo)為中心距離閾值, 縱坐標(biāo)為中心距離小于對(duì)應(yīng)橫坐標(biāo)閾值幀數(shù)與視頻總幀數(shù)的比值。中心距離定義為跟蹤算法得到的目標(biāo)框的中心坐標(biāo)與GT的中心坐標(biāo)之間的歐式距離, 即
從式(10)可以看出, 精確度評(píng)估只考慮了目標(biāo)框的位置而沒(méi)有考慮目標(biāo)框的尺度, 常用于評(píng)估目標(biāo)尺度固定的跟蹤算法的精度。因此進(jìn)一步使用成功率曲線圖評(píng)估算法性能。成功率曲線圖的橫坐標(biāo)為重疊率閾值, 縱坐標(biāo)為重疊率超過(guò)對(duì)應(yīng)的橫坐標(biāo)閾值的幀數(shù)與視頻總幀數(shù)的比值。重疊率數(shù)值越大表示計(jì)算結(jié)果越理想。
使用一次性通過(guò)評(píng)估(one-pass evaluation, OPE)和時(shí)間魯棒性評(píng)估(temporal robustness eva- luation, TRE)來(lái)評(píng)估文中算法的性能。OPE在視頻的第1幀利用真實(shí)的目標(biāo)位置對(duì)跟蹤算法進(jìn)行初始化, 使用跟蹤算法得到后續(xù)幀中目標(biāo)的位置。TRE評(píng)估首先將整個(gè)跟蹤序列去除掉目標(biāo)不存在的圖像幀, 然后將剩下的圖像幀平均分為若干段, 將每個(gè)時(shí)間段的初始位置設(shè)定為跟蹤的初始幀, 跟蹤器被初始化并運(yùn)行直到序列結(jié)束。
選擇SiamFC和SiamDW[15]2個(gè)跟蹤算法與文中算法進(jìn)行對(duì)比(SiamDW算法在SiamRPN算法的基礎(chǔ)上對(duì)基礎(chǔ)特征提取網(wǎng)絡(luò)進(jìn)行了改進(jìn), 與文中算法的基礎(chǔ)特征提取網(wǎng)絡(luò)相同, 因此選擇該算法進(jìn)行對(duì)比)。圖8為不同目標(biāo)跟蹤算法和GT的可視化結(jié)果, 圖中紅框表示GT; 黃框表示SiamFC算法的跟蹤結(jié)果; 綠框表示SiamDW算法的跟蹤結(jié)果; 藍(lán)框表示文中算法的跟蹤結(jié)果。從圖8第1、2行可以看出, 相較于SiamFC算法和SiamDW算法, 文中算法能夠較好地處理目標(biāo)尺度由小變大和由大變小的情況, 且位置精度能夠得到保障。從第2行可以看出, 文中算法能夠很好地處理超出視野的情況, 而SiamFC這種通過(guò)尺度采樣預(yù)測(cè)目標(biāo)最佳尺度的算法在超出視野的情況下尺度預(yù)測(cè)效果很差。
圖9為采用OPE評(píng)估的跟蹤算法精確度和成功率曲線, 其中圖9(a)為在30個(gè)海面目標(biāo)跟蹤數(shù)據(jù)集上的評(píng)估結(jié)果, 圖9(b)為在挑選的目標(biāo)尺度變化大的海面目標(biāo)跟蹤數(shù)據(jù)集上的評(píng)估結(jié)果, 圖中SiamR表示文中算法。從圖9(a)中可以看出, 文中算法表現(xiàn)性能較好, 精確度達(dá)到87%, 成功率達(dá)到59.9%, 分別比SiamDW算法提升4.8%和11.49%。3種算法的精確度差別不大, 但在成功率方面SiamDW算法較低, 主要原因是對(duì)于目標(biāo)大尺度變化情況, 基于錨框的目標(biāo)跟蹤算法效果較差。從圖9(b)中可以看出, 在目標(biāo)大尺度變化的數(shù)據(jù)集上, 文中算法比其他2種算法的效果提升更多, 也進(jìn)一步證明了文中算法能夠更好地適應(yīng)海面目標(biāo)尺度變化大的情況。
圖8 目標(biāo)跟蹤效果可視化圖
圖10為在30個(gè)海面目標(biāo)跟蹤數(shù)據(jù)集上通過(guò)時(shí)間魯棒性評(píng)估的跟蹤算法精確度和成功率曲線, 從圖中可以看出, 文中算法的魯棒性較好, 但與SiamFC算法的差距較小, 其主要原因是, 將圖像幀分為若干段后, 處于后面時(shí)間段的序列所包含的圖像幀較少, 在圖像幀較少的序列中目標(biāo)尺度變化很小, 無(wú)法凸顯文中算法的優(yōu)越性。
圖9 OPE評(píng)估精確度和成功率曲線
Fig. 9 Precision and success rate curves of OPE
圖10 TPE評(píng)估精確度與成功率曲線
Fig. 10 Precision and sucess rate curves of TPE
基于深度學(xué)習(xí)的尺度自適應(yīng)海面目標(biāo)跟蹤算法提出一種新的尺度自適應(yīng)方法, 該算法采用孿生網(wǎng)絡(luò)結(jié)構(gòu), 直接回歸候選區(qū)域中心點(diǎn)獲得最終目標(biāo)框, 而不再依賴于錨框, 更適用于目標(biāo)尺度變化較大的海面船只目標(biāo)跟蹤。為了驗(yàn)證文中算法的有效性, 在基于真實(shí)應(yīng)用場(chǎng)景建立的無(wú)人艇海面目標(biāo)跟蹤測(cè)試序列中進(jìn)行了定量和定性分析。試驗(yàn)表明, 相比基于錨框的算法, 文中算法能夠更有效地解決海面目標(biāo)跟蹤場(chǎng)景中目標(biāo)尺度自適應(yīng)問(wèn)題, 跟蹤精度達(dá)到87%, 跟蹤成功率達(dá)到59.9%。
[1] 彭艷, 陳加宏, 李小毛, 等. 時(shí)空上下文融合的無(wú)人艇 海面目標(biāo)跟蹤[J]. 中國(guó)科學(xué): 技術(shù)科學(xué), 2018, 48(12): 1357-1372.
Peng Yan, Chen Jia-hong, Li Xiao-mao, et al. Sea Surface Object Tracking for USV with Spatio-Temporal Context
Fusion[J]. Scientia Sinica Technologica, 2018, 48(12): 1357-1372.
[2] Wu Y, Lim J, Yang M H. Online Object Tracking: a Benchmark[C]//IEEE Conference on Computer Vision and Pattern Recognition. Portland, OR, USA: IEEE, 2013: 2411-2418.
[3] Wu Y, Lim J, Yang M H. Object Tracking Benchmark[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1834-1848.
[4] Henriques J F, Caseiro R, Martins P, et al. High-Speed Tracking with Kernelized Correlation Filters[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3): 583-596.
[5] Danelljan M, Hager G, Khan F S, et al. Discriminative Scale Space Tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(8): 1561-1575.
[6] Li Y, Zhu J. A Scale Adaptive Kernel Correlation Filter Tracker with Feature Integration[C]//European Conference on Computer Vision. Zurich, Switzerland: ECCV, 2014: 254-265.
[7] Huang D, Luo L, Wen M, et al. Enable Scale and Aspect Ratio Adaptability in Visual Tracking with Detection Proposals[C]//Proceedings of the British Machine Vision Conference. Swansea, UK: BMVC, 2015.
[8] Montero A S, Lang J, Laganiere R. Scalable Kernel Correlation Filter with Sparse Feature Integration[C]//2015 IEEE International Conference on Computer Vision Workshop (ICCVW). Santiago, Chile: IEEE, 2015: 587- 594.
[9] Li F, Yao Y, Li P, et al. Integrating Boundary and Center Correlation Filters for Visual Tracking with Aspect Ratio Variation[C]//IEEE International Conference on Computer Vision. Shenzhen, China: IEEE, 2017: 2001-2009.
[10] Bertinetto L, Valmadre J, Henriques J F, et al. Fully- convolutional Siamese Networks for Object Tracking[C]// European Conference on Computer Vision. Amsterdam, Netherlands: ECCV, 2016: 850-865.
[11] Li B, Yan J, Wu W, et al. High Performance Visual Tracking with Siamese Region Proposal Network[C]// IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA: IEEE, 2018: 8971-8980.
[12] Ren S, He K, Girshick R, et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.
[13] Tian Z, Shen C, Chen H, et al. FCOS: Fully Convolutional One-Stage Object Detection[C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV). South Korea: IEEE, 2020.
[14] Lin T Y, Goyal P, Girshick R, et al. Focal Loss for Dense Object Detection[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2020, 42(2): 318-327.
[15] Zhang Z, Peng H. Deeper and Wider Siamese Networks for Real-Time Visual Tracking[EB/OL]. [2019-03-28]. https://arxiv.org/abs/1901.01660?context=cs.
1. 楊向鋒, 熊淑貞, 石磊. 聲自導(dǎo)魚(yú)雷目標(biāo)跟蹤誤差仿真與分析[J]. 水下無(wú)人系統(tǒng)學(xué)報(bào), 2020, 28(5).
2. 王香, 張永林. 基于RBF神經(jīng)網(wǎng)絡(luò)的AUV路徑跟蹤分?jǐn)?shù)階滑??刂芠J]. 水下無(wú)人系統(tǒng)學(xué)報(bào), 2020, 28(3).
3. 霍宇彤, 郭晨, 于浩淼. 欠驅(qū)動(dòng)AUV三維路徑跟蹤RBF神經(jīng)網(wǎng)絡(luò)積分滑??刂芠J]. 水下無(wú)人系統(tǒng)學(xué)報(bào), 2020, 28(2).
4. 程帥, 張秦南, 王立文. 一種機(jī)動(dòng)目標(biāo)運(yùn)動(dòng)要素估計(jì)算法[J]. 水下無(wú)人系統(tǒng)學(xué)報(bào), 2020, 28(1).
5. 王斌, 溫泉, 范世東. 基于Huber M-CKF的UUV目標(biāo)跟蹤算法[J]. 水下無(wú)人系統(tǒng)學(xué)報(bào), 2020, 28(1).
6. 李鑫, 黃茹楠, 丁寧. 輸入受限的自主水下航行器自適應(yīng)反演控制[J]. 水下無(wú)人系統(tǒng)學(xué)報(bào), 2019, 27(6).
7. 桑宏強(qiáng), 于佩元, 孫秀軍. 基于航向補(bǔ)償?shù)乃禄铏C(jī)路徑跟蹤控制方法[J]. 水下無(wú)人系統(tǒng)學(xué)報(bào), 2019, 27(5).
8. 杜金香, 許恒博, 祝鵬. 一種角度加權(quán)的最小二乘目標(biāo)定位算法[J]. 水下無(wú)人系統(tǒng)學(xué)報(bào), 2019, 27(5).
9. 姚金藝, 曾慶軍, 周啟潤(rùn), 等. 全驅(qū)動(dòng)AUV系統(tǒng)路徑跟蹤設(shè)計(jì)與實(shí)現(xiàn)[J]. 水下無(wú)人系統(tǒng)學(xué)報(bào), 2019, 27(4).
10. 李娟, 張建新, 楊莉娟, 等. 未知環(huán)境下UUV動(dòng)態(tài)目標(biāo)跟蹤導(dǎo)引方法[J]. 水下無(wú)人系統(tǒng)學(xué)報(bào), 2019, 27(3).
11. 張思宇, 何心怡, 張馳, 等. 水下多目標(biāo)跟蹤技術(shù)現(xiàn)狀與展望[J]. 水下無(wú)人系統(tǒng)學(xué)報(bào), 2018, 26(6).
Scale Adaptive Sea Surface Target Tracking Algorithm Based on Deep Learning
WU Xiang1, ZHONG Yu-xuang2*, YUE Qi-qi1, LI Xiao-mao1
(1. School of Mechatronic Engineering and Automation, Shanghai University, Shanghai 200444, China; 2. School of Computer Engineering and Science, Shanghai University, Shanghai 200444, China)
Compared with target tracking in common scenes, sea surface target tracking presents unique challenges such as changes in the target scale and perspective as well as intense dithering of targets.Accordingly, a scale-adaptive sea surface target tracking algorithm based on deep learning is proposed. The algorithm classifies samples according to whether the central point of the sample falls to the ground truth and then regresses the distances from the target location to the four sides of the bounding box to predict the position and scale of the target.An evaluation platform for the sea surface target tracking algorithm is also establishedto verify the effectiveness of the proposed algorithm. Experimental results show that compared with the anchor-based algorithm, the tracking accuracy of the proposed algorithm is improved by 4.8% and its success rate is improved by 11.49%, thus effectively solving the problem of target scale adaptation.
unmanned surface vessel; scale adaptation; deep learning; target tracking
吳翔, 鐘雨軒, 岳琪琪, 等. 基于深度學(xué)習(xí)的尺度自適應(yīng)海面目標(biāo)跟蹤算法[J]. 水下無(wú)人系統(tǒng)學(xué)報(bào), 2020, 28(6): 618-625.
U664.82; TP273.2
A
2096-3920(2020)06-0618-08
10.11993/j.issn.2096-3920.2020.06.005
2020-10-15;
2020-12-02.
國(guó)家重點(diǎn)研發(fā)計(jì)劃資助項(xiàng)目(2017YFC0806700); 科技部重點(diǎn)研發(fā)計(jì)劃項(xiàng)目(No.2018YFF0103400); 上海市科學(xué)技術(shù)委員會(huì)科研計(jì)劃項(xiàng)目(No.17DZ1205001)
吳 翔(1991-), 男, 在讀碩士, 初級(jí)工程師, 主要研究方向?yàn)闊o(wú)人艇自動(dòng)控制.
(責(zé)任編輯: 陳 曦)