摘" 要: 為提高基于激光雷達(dá)的三維多目標(biāo)跟蹤準(zhǔn)確度,提出一種基于檢測(cè)的3D多目標(biāo)跟蹤算法。使用深度神經(jīng)網(wǎng)絡(luò)從激光點(diǎn)云中獲取目標(biāo)的位置信息后,對(duì)目標(biāo)跟蹤算法中的關(guān)聯(lián)策略進(jìn)行了優(yōu)化。首先,估計(jì)出目標(biāo)的速度信息,與位置信息一同納入觀測(cè)值,在BEV視角下使用卡爾曼濾波器對(duì)目標(biāo)的狀態(tài)進(jìn)行預(yù)測(cè)與更新;然后,基于目標(biāo)與激光雷達(dá)的距離來評(píng)估目標(biāo)位置的不確定度,用于修正觀測(cè)模型中的協(xié)方差矩陣;最后,在馬氏距離中添加對(duì)目標(biāo)測(cè)量的不確定性加權(quán)項(xiàng),使用匈牙利算法進(jìn)行數(shù)據(jù)關(guān)聯(lián)。在大規(guī)模自動(dòng)駕駛數(shù)據(jù)集Nuscenes上對(duì)所提算法進(jìn)行了測(cè)試,得出其跟蹤精度超過了現(xiàn)有的基線方法。消融實(shí)驗(yàn)結(jié)果表明,所提出的改進(jìn)措施能有效提高三維多目標(biāo)跟蹤的性能。
關(guān)鍵詞: 三維多目標(biāo)跟蹤; 關(guān)聯(lián)策略; 激光雷達(dá)點(diǎn)云; 不確定度評(píng)估; 卡爾曼濾波器; 協(xié)方差矩陣; 馬氏距離; 匈牙利算法
中圖分類號(hào): TN958.98?34; TP391" " " " " " " " " "文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " " 文章編號(hào): 1004?373X(2024)16?0085?05
3D multi?object tracking algorithm with improved association strategy
YI Kefu1, WEN Zhaocheng2, HU Rongdong3
(1. College of Automotive and Mechanical Engineering, Changsha University of Science amp; Technology, Changsha 410000, China;
2. School of Traffic and Transportation Engineering, Changsha University of Science amp; Technology, Changsha 410000, China;
3. Changsha Intelligent Driving Institute Co., Ltd., Changsha 410208, China)
Abstract: In order to enhance the accuracy of three?dimensional (3D) multi?object tracking based on lidar, a detection?based 3D multi?target tracking algorithm is proposed. After using deep neural networks to obtain target position information from lidar point clouds, the correlation strategy in the target tracking algorithm is optimized. The velocity information of the target is estimated and incorporated into the observations along with the position information. A Kalman filter is used to predict and update the target states in the bird's eye view (BEV) perspective. The uncertainty of target position is evaluated based on the distance between the target and lidar, which is used to correct the covariance matrix in the observation model. An uncertainty weighting term for target measurement is introduced into the Mahalanobis distance, and the Hungarian algorithm is utilized for the data association. The proposed algorithm was tested on the large?scale autonomous driving dataset Nuscenes, and it was found that its tracking accuracy exceeded existing baseline methods. The results of the ablation experiments indicate that the proposed improvement measures can effectively improve the performance of 3D multi?object tracking.
Keywords: 3D multi?object tracking; association strategy; lidar point cloud; uncertainty assessment; Kalman filter; covariance matrix; Mahalanobis distance; Hungarian algorithm
0" 引" 言
激光雷達(dá)點(diǎn)云多目標(biāo)跟蹤方法可以劃分為基于端到端的跟蹤方法和基于檢測(cè)的跟蹤方法。前者無需人工干預(yù)就可以取得不錯(cuò)的跟蹤效果,但需要大量數(shù)據(jù)且耗費(fèi)大量計(jì)算資源[1?2]?;跈z測(cè)的跟蹤方法[3?4]需要選定合適的目標(biāo)檢測(cè)器、運(yùn)動(dòng)模型和關(guān)聯(lián)策略,相對(duì)于基于端到端的跟蹤方法來說,基于檢測(cè)的跟蹤方法易于解耦且更依賴于先驗(yàn)的運(yùn)動(dòng)規(guī)律,對(duì)處理遮擋等情況更為有效,且具有實(shí)時(shí)性高、可解釋性好的特點(diǎn),更符合實(shí)際道路行駛的要求。
基于檢測(cè)的跟蹤方法通常使用卡爾曼濾波方法來對(duì)目標(biāo)進(jìn)行預(yù)測(cè)。以往的方法大多聚焦于對(duì)運(yùn)動(dòng)模型和關(guān)聯(lián)方法的改進(jìn)[4?5],而忽視了對(duì)于觀測(cè)信息的充分利用;且這些方法通常僅將目標(biāo)的位置信息作為觀測(cè)值而放棄使用速度信息。但隨著檢測(cè)器的越發(fā)完善,檢測(cè)出的速度信息越發(fā)準(zhǔn)確,速度信息將成為濾波過程中的重要矯正信息。同時(shí),激光雷達(dá)點(diǎn)云的特性導(dǎo)致遠(yuǎn)距離點(diǎn)云稀疏,因此距離激光雷達(dá)越遠(yuǎn)的目標(biāo)的檢測(cè)置信度越低,即目標(biāo)的位置信息和速度信息的不確定度越大。通過目標(biāo)與激光雷達(dá)的距離計(jì)算出目標(biāo)信息的不確定度并將其納入濾波預(yù)測(cè)過程以及數(shù)據(jù)關(guān)聯(lián)過程,可以有效減少點(diǎn)云稀疏性為目標(biāo)跟蹤過程帶來的負(fù)面影響。
針對(duì)上述問題,本文提出了一種基于檢測(cè)的點(diǎn)云多目標(biāo)跟蹤算法。利用神經(jīng)網(wǎng)絡(luò)檢測(cè)器從點(diǎn)云數(shù)據(jù)中提取目標(biāo)在BEV視角下的位置信息,并結(jié)合前后幀數(shù)據(jù)計(jì)算目標(biāo)速度;采用恒速卡爾曼濾波模型預(yù)測(cè)航跡狀態(tài),并依據(jù)觀測(cè)模型得到該航跡的預(yù)測(cè)測(cè)量值。最后,通過計(jì)算當(dāng)前幀檢測(cè)測(cè)量值與上一幀航跡預(yù)測(cè)測(cè)量值的馬氏距離,構(gòu)建損失矩陣,并利用匈牙利匹配算法實(shí)現(xiàn)檢測(cè)與航跡的數(shù)據(jù)關(guān)聯(lián)。為增強(qiáng)跟蹤算法的準(zhǔn)確性和魯棒性,本文對(duì)跟蹤算法進(jìn)行了三個(gè)關(guān)鍵改進(jìn)。
1) 在觀測(cè)模型中引入速度信息作為測(cè)量值,使得跟蹤更為穩(wěn)定。
2) 根據(jù)目標(biāo)與激光雷達(dá)的距離估計(jì)檢測(cè)目標(biāo)的位置不確定度,進(jìn)而計(jì)算觀測(cè)模型的測(cè)量協(xié)方差矩陣,提高了跟蹤的準(zhǔn)確性。
3) 采用馬氏距離代替常用的IoU作為航跡與檢測(cè)間的距離度量,有效地避免了檢測(cè)與航跡的不確定性。
通過消融實(shí)驗(yàn)驗(yàn)證,本文方法在處理復(fù)雜場(chǎng)景下的3D多目標(biāo)跟蹤任務(wù)中展現(xiàn)出了優(yōu)越的性能,尤其在處理目標(biāo)遮擋、交叉等復(fù)雜情況時(shí),表現(xiàn)出了明顯的優(yōu)勢(shì)。
1" 3D多目標(biāo)跟蹤系統(tǒng)設(shè)計(jì)
本文提出的NU3DMOT算法由以下三個(gè)部分組成。
1) 從基于神經(jīng)網(wǎng)絡(luò)的3D目標(biāo)檢測(cè)器中獲取檢測(cè)結(jié)果,并將檢測(cè)結(jié)果以點(diǎn)的方式呈現(xiàn)。
2) 通過改進(jìn)的恒速模型卡爾曼濾波器對(duì)目標(biāo)進(jìn)行預(yù)測(cè)以及更新。
3) 進(jìn)行分層數(shù)據(jù)關(guān)聯(lián),并結(jié)合手動(dòng)調(diào)整的生命周期管理系統(tǒng)對(duì)航跡進(jìn)行管理。
NU3DMOT算法整體框架如圖1所示。
1.1" 點(diǎn)云數(shù)據(jù)處理與目標(biāo)檢測(cè)
近年來,出現(xiàn)了許多優(yōu)秀的目標(biāo)檢測(cè)算法,如Pointpillars[6]和PV?RCNN[7]。本文采用CenterPoint[8]作為目標(biāo)檢測(cè)算法,其應(yīng)用范圍廣,更便于本文算法與其他算法比較。目標(biāo)檢測(cè)模塊如圖1中3D檢測(cè)模塊所示,原始點(diǎn)云經(jīng)過3D骨干網(wǎng)絡(luò)(3D Backbone)處理得到特征圖,再經(jīng)過2D?CNN架構(gòu)的檢測(cè)頭得到BEV視角下的目標(biāo)中心點(diǎn),并根據(jù)中心特征回歸其他特征得到目標(biāo)尺寸以及朝向。采用額外分支預(yù)測(cè)相鄰特征圖之間的目標(biāo)位置偏移,獲取速度信息,最終將目標(biāo)的信息表示成[zk=(px,vx,py,vy)],并作為觀測(cè)值,其中參數(shù)依次為目標(biāo)的x坐標(biāo)、x方向的速度、y坐標(biāo)以及y方向的速度。相比于其他利用卡爾曼濾波的多目標(biāo)跟蹤算法,本文算法在觀測(cè)值中加入了速度信息,更加貼合目標(biāo)的真實(shí)運(yùn)動(dòng)狀態(tài),明顯提升了多目標(biāo)跟蹤效果。
1.2" 航跡狀態(tài)預(yù)測(cè)
航跡狀態(tài)預(yù)測(cè)的關(guān)鍵是建立合適的運(yùn)動(dòng)模型。吳開陽等建立了一個(gè)恒定角速度模型[9],但其狀態(tài)變量多達(dá)11維,大大增加了計(jì)算量,而本文僅使用4維向量[zk=(px,vx,py,vy)]表示狀態(tài)變量,其中[(px,py)]表示在BEV視角下的目標(biāo)中心點(diǎn)坐標(biāo),[(vx,vy)]表示目標(biāo)的分速度。整體模塊設(shè)計(jì)如圖1中的航跡濾波模塊所示,目標(biāo)狀態(tài)在經(jīng)過預(yù)測(cè)模型、觀測(cè)模型以及狀態(tài)更新后得到新一幀的后驗(yàn)估計(jì)。
恒速模型卡爾曼濾波預(yù)測(cè)模型如式(1)所示。
[xk|k-1=Fkxk-1|k-1Pk|k-1=FkPk-1|k-1FTk+Qk] (1)
式中:[xk-1|k-1]表示k-1時(shí)刻目標(biāo)狀態(tài)后驗(yàn)估計(jì);[xk|k-1]表示目標(biāo)狀態(tài)在k時(shí)刻通過系統(tǒng)狀態(tài)轉(zhuǎn)移矩陣[Fk]預(yù)測(cè)的目標(biāo)狀態(tài)先驗(yàn)估計(jì);[Pk-1|k-1]表示k-1時(shí)刻的預(yù)測(cè)協(xié)方差矩陣;[Pk|k-1]表示在k時(shí)刻預(yù)測(cè)步驟產(chǎn)生的預(yù)測(cè)協(xié)方差矩陣。假設(shè)過程噪聲即x、y軸方向的加速度滿足0均值高斯分布,[Qk]即為過程噪聲協(xié)方差矩陣。預(yù)測(cè)模型得到的先驗(yàn)估計(jì)經(jīng)過觀測(cè)模型處理得到后驗(yàn)估計(jì),觀測(cè)模型公式如式(2)所示。
[zk=Hxk|k-1Sk=HkPk|k-1HTk+Rk] (2)
式中:[H]為觀測(cè)矩陣;[xk|k-1]為先驗(yàn)估計(jì),兩者相乘可以將先驗(yàn)估計(jì)轉(zhuǎn)換至觀測(cè)空間得到目標(biāo)的預(yù)測(cè)測(cè)量值[zk],以便在狀態(tài)更新步驟中與真實(shí)觀測(cè)值進(jìn)行比較;[Sk]為新息協(xié)方差矩陣,其作用是估計(jì)殘差的不確定度大??;[Rk]為檢測(cè)誤差協(xié)方差矩陣。最后進(jìn)行狀態(tài)更新步驟,得到卡爾曼濾波增益以及后驗(yàn)估計(jì)等,狀態(tài)更新步驟如式(3)所示。
[yk=zk-zkKk=Pk|k-1HTkS-1kxk|k=xk|k-1+KkykPk|k=Pk|k-1-KkHkPk|k-1] (3)
式中:[yk]為觀測(cè)值[zk]與預(yù)測(cè)觀測(cè)值[zk]的殘差;[Kk]為卡爾曼濾波增益;[xk|k]為k時(shí)刻目標(biāo)的后驗(yàn)估計(jì);[Pk|k]為k時(shí)刻的預(yù)測(cè)協(xié)方差矩陣。
1.3" 估計(jì)目標(biāo)位置的不確定度
基于點(diǎn)云的目標(biāo)檢測(cè)無需像基于相機(jī)的目標(biāo)檢測(cè)一樣進(jìn)行不同平面之間的坐標(biāo)系轉(zhuǎn)換,檢測(cè)誤差相對(duì)較小,但由于點(diǎn)云的稀疏性以及測(cè)量目標(biāo)距離傳感器的距離過遠(yuǎn),在檢測(cè)與跟蹤過程中依然存在誤差。大部分使用卡爾曼濾波算法進(jìn)行預(yù)測(cè)的方法均采用固定的參數(shù)作為觀測(cè)噪聲協(xié)方差[Rk]中的值,并未考慮檢測(cè)目標(biāo)物與檢測(cè)原點(diǎn)的距離遠(yuǎn)近對(duì)測(cè)量造成的影響。針對(duì)此,NU3DMOT使用了一種自適應(yīng)方法來計(jì)算目標(biāo)位置的不確定度,并將其納入卡爾曼濾波的觀測(cè)噪聲協(xié)方差矩陣中,提高了跟蹤效果以及魯棒性。以距離為度量,認(rèn)為離傳感器越遠(yuǎn)的目標(biāo)不確定性越大,首先根據(jù)自身位置以及測(cè)量目標(biāo)計(jì)算歐氏距離,并歸一化以及平滑數(shù)據(jù)后進(jìn)行平方操作,以此結(jié)果作為目標(biāo)位置以及速度信息的不確定度系數(shù),再經(jīng)過計(jì)算得出位置以及速度信息對(duì)應(yīng)的不確定度值??柭鼮V波中的觀測(cè)噪聲協(xié)方差矩陣[Rk]可以量化測(cè)量值的誤差或不確定性,將計(jì)算出的不確定度作為觀測(cè)向量[zk]中各個(gè)參數(shù)對(duì)應(yīng)的[Rk]中的值,優(yōu)化了卡爾曼濾波的觀測(cè)過程。
1.4" 數(shù)據(jù)關(guān)聯(lián)與匹配優(yōu)化
k時(shí)刻的預(yù)測(cè)目標(biāo)需要與k+1時(shí)刻的檢測(cè)目標(biāo)關(guān)聯(lián)起來。本文選擇匈牙利匹配算法作為NU3DMOT的基礎(chǔ)數(shù)據(jù)關(guān)聯(lián)算法,其將多個(gè)元素之間的關(guān)聯(lián)問題轉(zhuǎn)化為最優(yōu)的分配問題,并找到最佳的匹配方案。同時(shí),針對(duì)不同置信度的目標(biāo),通過多次使用匈牙利算法分層次優(yōu)化數(shù)據(jù)關(guān)聯(lián)過程,提升了關(guān)聯(lián)效率。在關(guān)聯(lián)度量的選取上,大部分算法如AB3DMOT[10]選取3D檢測(cè)框的交并比作為關(guān)聯(lián)度量,其計(jì)算量巨大且容易造成錯(cuò)誤關(guān)聯(lián);而NU3DMOT使用馬氏距離作為關(guān)聯(lián)度量,并考慮了不確定度的影響,更好地反映了樣本之間的關(guān)系。整體設(shè)計(jì)如圖1中目標(biāo)關(guān)聯(lián)模塊所示,馬氏距離計(jì)算公式如式(4)所示。
[d=ykSkyTk+lnSk] (4)
式中:[yk]為測(cè)量殘差;[Sk]為測(cè)量協(xié)方差矩陣;[lnSk]為殘差協(xié)方差矩陣行列式的對(duì)數(shù)。這樣,確保了數(shù)據(jù)關(guān)聯(lián)決策不僅考慮測(cè)量和預(yù)測(cè)的差異,還考慮了測(cè)量的不確定性,將在對(duì)象跟蹤中產(chǎn)生可靠的關(guān)聯(lián)決策,同時(shí),選取合適的生命周期管理航跡,使跟蹤算法魯棒性更強(qiáng)。
2" 實(shí)" 驗(yàn)
為驗(yàn)證上述跟蹤方法在實(shí)際復(fù)雜環(huán)境中的跟蹤性能,在公開數(shù)據(jù)集Nuscenes[11]上對(duì)算法進(jìn)行評(píng)估,算法實(shí)現(xiàn)由C++編寫。
2.1" 離線實(shí)驗(yàn)
2.1.1" Nuscenes數(shù)據(jù)集
本文使用Nuscenes跟蹤數(shù)據(jù)集。相比于只提供前視圖真值的KITTI數(shù)據(jù)集[10],Nuscenes數(shù)據(jù)集提供環(huán)視真值注釋且道路情況更復(fù)雜,也更具挑戰(zhàn)性。本文在擁有150個(gè)場(chǎng)景且包含真值數(shù)據(jù)的驗(yàn)證集以及擁有150個(gè)場(chǎng)景但不包含真值數(shù)據(jù)的測(cè)試集上,對(duì)提出的NU3DMOT算法進(jìn)行驗(yàn)證。
2.1.2" 評(píng)價(jià)指標(biāo)
傳統(tǒng)的目標(biāo)跟蹤評(píng)價(jià)指標(biāo),如多目標(biāo)跟蹤精度(MOTA)、多目標(biāo)跟蹤準(zhǔn)確度(MOTP)[12]等沒有考慮低置信度目標(biāo)對(duì)跟蹤過程帶來的不利影響。Weng X等人針對(duì)這一問題提出了新的評(píng)估指標(biāo)且被Nuscenes數(shù)據(jù)集用于評(píng)估多目標(biāo)跟蹤效果[13]。其中,最重要的指標(biāo)是平均多目標(biāo)跟蹤精度(AMTOA)以及平均多目標(biāo)跟蹤準(zhǔn)確度(AMTOP)。
2.1.3" 實(shí)驗(yàn)結(jié)果
圖2為連續(xù)4幀的跟蹤效果展示圖。
圖中第1列為Nuscenes數(shù)據(jù)集采集車輛的前視攝像頭采集的道路圖像,第2列為車輛的激光雷達(dá)點(diǎn)云數(shù)據(jù)圖,圖的正中間為車頂搭載激光雷達(dá)傳感器的車輛,包絡(luò)框?yàn)镃enterPoint算法檢測(cè)出的目標(biāo)物體,字母D序列代表檢測(cè)目標(biāo)id,字母T序列代表跟蹤目標(biāo)id,通過“?”連接,代表檢測(cè)目標(biāo)與跟蹤目標(biāo)的關(guān)聯(lián)情況。由圖2可知,在前3幀中采集車輛前方較遠(yuǎn)車目標(biāo)被較近車目標(biāo)遮擋,在第1幀、第2幀、第4幀中,盡管檢測(cè)器在不同幀賦予了車輛不同的檢測(cè)id,但這些檢測(cè)id依然可以與跟蹤器賦予的唯一跟蹤id正確關(guān)聯(lián);而在第3幀中,由于較遠(yuǎn)車輛受遮擋嚴(yán)重,檢測(cè)器并沒有給出有效的檢測(cè)id,但由于跟蹤器出色的魯棒性,依然通過預(yù)測(cè)為較遠(yuǎn)車輛保留了跟蹤id,且在第4幀正確地將較遠(yuǎn)車輛匹配至正確的軌跡。
表1為常用的3D多目標(biāo)跟蹤算法在Nuscenes測(cè)試集上的結(jié)果。
由表1結(jié)果可知,NU3DMOT的AMOTA指標(biāo)比同樣使用卡爾曼濾波模型的Nuscenes數(shù)據(jù)集基線算法AB3DMOT高出46.9%。盡管AMOTA指標(biāo)略低于CenterPoint算法,但NU3DMOT僅需要單個(gè)CPU運(yùn)行速度即可達(dá)到1 000 f/s,而CenterPoint算法需要耗費(fèi)大量算力且速度僅為16 f/s。NU3DMOT算法的AMOTP指標(biāo)低于除CenterPoint外的其他幾種基于運(yùn)動(dòng)模型的算法,說明在建立運(yùn)動(dòng)模型的過程中加入目標(biāo)的檢測(cè)包絡(luò)框參數(shù)并非是完全必要的,且這種做法會(huì)大大降低算法運(yùn)行的速度,這也從側(cè)面反映了本文算法的簡潔性。NU3DMOT算法的IDS指標(biāo)優(yōu)于基線算法,但低于部分算法,其原因可能是恒速卡爾曼濾波模型對(duì)機(jī)動(dòng)車轉(zhuǎn)向等情況并不靈敏。
2.2" 消融實(shí)驗(yàn)
為了驗(yàn)證觀測(cè)矩陣中添加速度信息給多目標(biāo)跟蹤算法帶來的提升,在驗(yàn)證集上對(duì)車類別進(jìn)行實(shí)驗(yàn)。評(píng)價(jià)指標(biāo)為AMOTA,結(jié)果如表2所示。
由實(shí)驗(yàn)結(jié)果可知,將速度信息添加至觀測(cè)矩陣時(shí),AMOTA指標(biāo)比未帶速度信息時(shí)高出1%。
針對(duì)觀測(cè)模型中引入的目標(biāo)自適應(yīng)不確定度,在驗(yàn)證集車類別上進(jìn)行實(shí)驗(yàn),對(duì)比的評(píng)價(jià)指標(biāo)為AMOTA以及IDS。實(shí)驗(yàn)對(duì)比結(jié)果如表3所示。
由表3可知,自適應(yīng)不確定度方法在跟蹤效果上要優(yōu)于固定不確定度為常數(shù)時(shí)的跟蹤效果,能有效提高多目標(biāo)跟蹤算法的魯棒性。
為了驗(yàn)證結(jié)合不確定度的改進(jìn)馬氏距離的有效性,本文在Nuscenes驗(yàn)證集上利用歐氏距離、馬氏距離以及改進(jìn)的馬氏距離對(duì)全類別目標(biāo)進(jìn)行實(shí)驗(yàn)驗(yàn)證,對(duì)比的評(píng)價(jià)指標(biāo)為AMOTA以及IDS,結(jié)果如表4所示。
由表4可知,利用改進(jìn)馬氏距離作為關(guān)聯(lián)閾值時(shí),多目標(biāo)跟蹤算法效果要優(yōu)于另外兩種關(guān)聯(lián)閾值方法。其中AMOTA指標(biāo)分別高出7.7%和0.8%,相較于其他方法,改進(jìn)馬氏距離能更準(zhǔn)確地關(guān)聯(lián)目標(biāo);同時(shí),IDS指標(biāo)也顯著低于另外兩種方法,這說明改進(jìn)馬氏距離能夠提高多目標(biāo)跟蹤系統(tǒng)的魯棒性。
3" 結(jié)" 論
本文針對(duì)復(fù)雜道路情況,提出了一個(gè)基于運(yùn)動(dòng)模型的NU3DMOT算法。首先,將速度信息納入觀測(cè)值中,對(duì)預(yù)測(cè)信息進(jìn)行矯正,提升了多目標(biāo)跟蹤效果;同時(shí),利用位置信息考量不確定度以修正觀測(cè)模型中的測(cè)量協(xié)方差矩陣,優(yōu)化卡爾曼濾波過程中對(duì)觀測(cè)信息的利用;然后,對(duì)馬氏距離做出改進(jìn),綜合考慮目標(biāo)檢測(cè)不確定度的影響,并作為關(guān)聯(lián)度量;最后,利用匈牙利算法進(jìn)行分層數(shù)據(jù)關(guān)聯(lián)。經(jīng)過Nuscenes數(shù)據(jù)集的驗(yàn)證集和測(cè)試集實(shí)驗(yàn)證明,所提方法能夠有效提高多目標(biāo)跟蹤效果,AMOTA比基線算法高出46.9%,有明顯優(yōu)勢(shì)。
注:本文通訊作者為易可夫。
參考文獻(xiàn)
[1] 張弘,萬家旭,陳海波,等.BEVTrack:基于難例挖掘訓(xùn)練的端到端三維多目標(biāo)跟蹤方法[J].信號(hào)處理,2024,40(1):152?165.
[2] 程鑫,周經(jīng)美,劉霈源,等.基于任務(wù)聯(lián)合的三維車輛檢測(cè)與跟蹤集成算法[J].中國公路學(xué)報(bào),2023,36(9):288?301.
[3] 董艷秋,萬旺根,王旭智,等.基于中心點(diǎn)距離關(guān)聯(lián)的三維多目標(biāo)跟蹤算法[J].工業(yè)控制計(jì)算機(jī),2023,36(12):12?14.
[4] 張華旭,劉崢,雷祖芳,等.基于改進(jìn)數(shù)據(jù)關(guān)聯(lián)的三維多目標(biāo)跟蹤算法[J].激光雜志,2024,45(1):191?197.
[5] 陳伯云,陸安江,周驊,等.激光點(diǎn)云中三維多目標(biāo)在線跟蹤方法[J].激光雜志,2023,44(4):68?73.
[6] LANG A H, VORA S, CAESAR H, et al. Pointpillars: fast encoders for object detection from point clouds [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. [S.l.]: IEEE, 2019: 12697?12705.
[7] SHI S, GUO C, JIANG L, et al. PV?RCNN: point?voxel feature set abstraction for 3d object detection [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle, USA: IEEE, 2020: 10529?10538.
[8] YIN T, ZHOU X, KRAHENBUHL P. Center?based 3D object detection and tracking [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville, TN, USA: IEEE, 2021: 11784?11793.
[9] 吳開陽,秦文虎,云中華,等.基于激光雷達(dá)的三維多目標(biāo)檢測(cè)與跟蹤[J].傳感器與微系統(tǒng),2023,42(1):122?125.
[10] GEIGER A, LENZ P, URTASUN R. Are we ready for autonomous driving? The KITTI vision benchmark suite [C]// 2012 IEEE Conference on Computer Vision and Pattern Recognition. Providence, RI, USA: IEEE, 2012: 3354?3361.
[11] CAESAR H, BANKITI V, LANG A H, et al. Nuscenes: a multimodal dataset for autonomous driving [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle, USA: IEEE, 2020: 11621?11631.
[12] BERNARDIN K, ELBS A, STIEFELHAGEN R. Multiple object tracking performance metrics and evaluation in a smart room environment [EB/OL]. [2023?04?17]. https://cvhci.anthropomatik.kit.edu/~stiefel/papers/ECCV2006WorkshopCameraReady.pdf.
[13] WENG X, WANG J, HELD D, et al. 3D multi?object tracking: a baseline and new evaluation metrics [C]// 2020 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Las Vegas, NV, USA: IEEE, 2020: 10359?10366.
[14] CHIU H, LI J, AMBRU? R, et al. Probabilistic 3D multi?modal, multi?object tracking for autonomous driving [C]// 2021 IEEE International Conference on Robotics and Automation (ICRA). Xi’an: IEEE, 2021: 14227?14233.
[15] PANG S, MORRIS D, RADHA H. 3D multi?object tracking using random finite set?based multiple measurement models filtering (RFS?m3) for autonomous vehicles [C]// 2021 IEEE International Conference on Robotics and Automation (ICRA). Xi’an: IEEE, 2021: 13701?13707.