李 凱,林宇舜
(福建農(nóng)林大學(xué) 交通與土木工程學(xué)院,福州 350108)
近年來,隨著汽車數(shù)量迅速增長(zhǎng),車輛違章現(xiàn)象時(shí)有發(fā)生,為交通管理帶來巨大壓力。目前,在特定交通場(chǎng)景下,基于視頻的目標(biāo)檢測(cè)跟蹤算法雖然取得了一定成果,但極易受到外界環(huán)境的干擾,無法滿足實(shí)時(shí)魯棒的跟蹤需求。因此,利用深度學(xué)習(xí)算法研究在復(fù)雜交通場(chǎng)景下提升跟蹤的準(zhǔn)確性及實(shí)時(shí)性十分必要。
縱觀整個(gè)目標(biāo)跟蹤算法的發(fā)展歷程,按其工作原理,可分為生成式模型和判別式模型。其中,比較經(jīng)典的生成式模型有卡爾曼濾波、Camshift算法等[1-2]。判別式模型主要包含了相關(guān)濾波和深度學(xué)習(xí)算法,比較著名的相關(guān)濾波算法有KCF算法、CN算法等[3-4];深度學(xué)習(xí)算法主要有MDNet算法、SRDCF算法等[5-6]。通常深度學(xué)習(xí)算法跟蹤的準(zhǔn)確率要優(yōu)于生成式模型和相關(guān)濾波,然而深度學(xué)習(xí)模型訓(xùn)練時(shí)需要通過多層網(wǎng)絡(luò)訓(xùn)練分類器,導(dǎo)致網(wǎng)絡(luò)傳遞需要經(jīng)過大量的計(jì)算過程,實(shí)時(shí)性較低。
研究發(fā)現(xiàn),判別式模型不論是速度還是準(zhǔn)確率均優(yōu)于生成式模型。因此,在后續(xù)研究中廣大學(xué)者應(yīng)針對(duì)判別式模型的不足,不斷對(duì)算法實(shí)施改進(jìn)和完善。Pan等[7]提出一種多模態(tài)目標(biāo)檢測(cè)技術(shù)來改善目標(biāo)定位精度,同時(shí)還利用高置信度跟蹤結(jié)果的反饋來避免模型損壞問題,通過加入深度特征,提升模型性能。ECO算法是在C-COT算法的基礎(chǔ)上提出,它分別從降低模型更新的次數(shù)、減少冗余樣本集以及去掉貢獻(xiàn)小的濾波器3個(gè)方面對(duì)算法進(jìn)行改進(jìn),由于目標(biāo)運(yùn)動(dòng)速度過快,導(dǎo)致分類器的性能效果降低[8-9]。在SRDCF算法基礎(chǔ)上,DeepSRDCF將固定值的學(xué)習(xí)率改變?yōu)樽赃m應(yīng)函數(shù)值,同時(shí)運(yùn)用了卷積神經(jīng)網(wǎng)絡(luò)來提高分類的可靠性[10-11]。SORT多目標(biāo)跟蹤算法,通過計(jì)算上幀與幀目標(biāo)檢測(cè)框之間的IOU距離,結(jié)合匈牙利算法的關(guān)聯(lián)匹配,實(shí)現(xiàn)目標(biāo)跟蹤[12]。Deep SORT算法的提出有效解決了遮擋問題,根據(jù)運(yùn)動(dòng)信息以及外觀信息將預(yù)測(cè)的軌跡和檢測(cè)結(jié)果進(jìn)行匹配,同時(shí)引入了深度學(xué)習(xí)特征方法,有效減少了ID Switch的次數(shù),但卻難以滿足實(shí)時(shí)性[13]。黃鎵輝等[14]為解決傳統(tǒng)相關(guān)濾波算法對(duì)無人機(jī)(UAV)拍攝視頻中的車輛進(jìn)行跟蹤時(shí),因目標(biāo)車輛尺度變化而產(chǎn)生模型漂移問題,提出了一種改進(jìn)的尺度自適應(yīng)車輛跟蹤算法,實(shí)現(xiàn)對(duì)目標(biāo)車輛尺度的自適應(yīng)。胡習(xí)之等[15]提出一種融合Camshift和YOLOv4的車輛目標(biāo)檢測(cè)算法,滿足了車流量檢測(cè)系統(tǒng)的實(shí)時(shí)性和準(zhǔn)確性,但在復(fù)雜場(chǎng)景中其表現(xiàn)效果一般。許小偉等[16]為研究現(xiàn)有車輛目標(biāo)檢測(cè)算法的檢測(cè)精度與檢測(cè)速度相矛盾問題,提出了一種小型化的改進(jìn)YOLOv3深度卷積網(wǎng)絡(luò)實(shí)時(shí)車輛檢測(cè)及跟蹤算法,但精度略有不足。
為實(shí)現(xiàn)在復(fù)雜交通背景下的車輛實(shí)時(shí)魯棒跟蹤,采用深度學(xué)習(xí)算法,提出了基于卡爾曼濾波與動(dòng)態(tài)卷積的輕量級(jí)跟蹤方法,并在公開的UA-DETRAC車輛數(shù)據(jù)集上進(jìn)行測(cè)試,驗(yàn)證該方法的實(shí)時(shí)性及抗遮擋性。
卡爾曼濾波作為一種高效的回歸數(shù)據(jù)處理算法,可以根據(jù)檢測(cè)得到目標(biāo)位置信息(即使存在噪聲的干擾),對(duì)下一幀的目標(biāo)走向進(jìn)行預(yù)測(cè)。因此,被廣泛應(yīng)用于機(jī)器人導(dǎo)航、導(dǎo)彈的追蹤以及圖像處理等場(chǎng)景中。文中采用卡爾曼濾波對(duì)車輛運(yùn)動(dòng)狀態(tài)進(jìn)行估計(jì),主要包含預(yù)測(cè)和更新兩部分。其中,預(yù)測(cè)部分是車輛在移動(dòng)的過程中,將上一時(shí)刻檢測(cè)到的車輛信息作為初始條件,借助狀態(tài)轉(zhuǎn)移函數(shù)來預(yù)測(cè)車輛位置,需要估計(jì)跟蹤軌跡(track)的兩個(gè)狀態(tài)均值(mean)和方差(covariance):均值為x=[cx, cy,r,h, vx, vy, vr, vh],表示車輛的位置信息。cx和cy表示檢測(cè)框的中心坐標(biāo),r為長(zhǎng)寬比,h為寬,其余表示各自的速度變化值。協(xié)方差是在狀態(tài)估計(jì)中狀態(tài)轉(zhuǎn)移矩陣由狀態(tài)量與其導(dǎo)數(shù)構(gòu)成,表示車輛速度和位置的相關(guān)性。
X=Ax
(1)
式中:A為狀態(tài)轉(zhuǎn)移矩陣,x為軌跡在t-1時(shí)刻的均值。
基于t-1時(shí)刻的狀態(tài)x,可以預(yù)測(cè)在t時(shí)刻的狀態(tài)X。根據(jù)t-1時(shí)刻的協(xié)方差PK-1和系統(tǒng)噪聲矩陣Q,預(yù)測(cè)t時(shí)刻的協(xié)方差矩陣P,如式(2)所示。
P=APK-1AT+Q
(2)
在構(gòu)建新的軌跡之前,通過對(duì)當(dāng)前幀的檢測(cè)并提取特征結(jié)果,采用卡爾曼濾波去預(yù)測(cè)這些軌跡在當(dāng)前幀位置均值與協(xié)方差。然后根據(jù)預(yù)測(cè)的均值和協(xié)方差進(jìn)行軌跡與檢測(cè)結(jié)果(detection)的匹配。將軌跡與新檢測(cè)目標(biāo)的檢測(cè)結(jié)果采用余弦距離進(jìn)行表觀特征匹配,利用馬氏距離對(duì)基于表觀特征的相似度矩陣進(jìn)行修正。
更新部分則是當(dāng)對(duì)軌跡匹配成功之后,需要對(duì)其各種數(shù)據(jù)根據(jù)匹配對(duì)的檢測(cè)結(jié)果進(jìn)行更新。通過預(yù)測(cè)值與檢測(cè)的目標(biāo)值不斷預(yù)測(cè)和更新計(jì)算,使更新目標(biāo)的狀態(tài)得到優(yōu)化,即通過從預(yù)測(cè)到更新再到預(yù)測(cè)的方式對(duì)車輛運(yùn)動(dòng)狀態(tài)進(jìn)行更新。
K=PHT(HPHT+R)-1
(3)
XK=X+K(YK-HX)
(4)
PK=(I-KH)P
(5)
在式(3)中K表示卡爾曼增益,卡爾曼增益用于估計(jì)誤差的重要程度,H將軌跡的均值向量映射到檢測(cè)空間,R為檢測(cè)器的噪聲矩陣。式(4)中,YK-HX計(jì)算了檢測(cè)結(jié)果和軌跡的均值誤差,得到更新后的均值向量XK和式(5)中的協(xié)方差矩陣PK。
1.2.1 動(dòng)態(tài)卷積
與傳統(tǒng)特征提取網(wǎng)絡(luò)中的靜態(tài)卷積相比,動(dòng)態(tài)卷積對(duì)特征提取能力更強(qiáng)。因?yàn)樗梢愿鶕?jù)輸入圖像的不同,動(dòng)態(tài)生成多個(gè)并行的卷積核進(jìn)行調(diào)節(jié)卷積參數(shù)。其實(shí)現(xiàn)過程與SENet相類似[17],兩者均采用注意力機(jī)制思想,但側(cè)重點(diǎn)卻有不同,其中動(dòng)態(tài)卷積是基于卷積核,而SENet是基于通道數(shù)。
動(dòng)態(tài)卷積網(wǎng)絡(luò)是由注意力機(jī)制模型計(jì)算卷積核權(quán)重以及卷積核的加權(quán)求和兩部分組成。如圖1所示,基于注意力機(jī)制計(jì)算權(quán)重網(wǎng)絡(luò)框架相對(duì)簡(jiǎn)單,由全平均池化層和兩層全連接層組成。而在對(duì)多個(gè)卷積核進(jìn)行加權(quán)求和時(shí),由于卷積核的尺寸較小,造成的額外計(jì)算量也非常少。
圖1 動(dòng)態(tài)卷積運(yùn)算流程
隨著不同特征的輸入,將動(dòng)態(tài)生成的權(quán)重值分別與對(duì)應(yīng)的卷積核相乘再相加,使得聚合而成的卷積不再是一個(gè)簡(jiǎn)單的線性函數(shù),而是通過注意力對(duì)卷積核進(jìn)行非線性加強(qiáng),不僅不會(huì)對(duì)網(wǎng)絡(luò)的深度造成影響,還大大降低了額外的計(jì)算成本,而且模型的表達(dá)能力更強(qiáng),使得基于動(dòng)態(tài)卷積的神經(jīng)網(wǎng)絡(luò)具有更強(qiáng)的特征提取能力。
1.2.2 基于動(dòng)態(tài)卷積的輕量級(jí)網(wǎng)絡(luò)
針對(duì)遮擋問題會(huì)引起IDSW較高的情況,首先在ResNet網(wǎng)絡(luò)中引入了動(dòng)態(tài)卷積[18],加強(qiáng)特征的提取能力,從而降低IDSW的轉(zhuǎn)化次數(shù)。由于ResNet網(wǎng)絡(luò)結(jié)構(gòu)比較復(fù)雜,特征提取需要消耗大量時(shí)間,為滿足車輛跟蹤的實(shí)時(shí)性需求,選取了網(wǎng)絡(luò)結(jié)構(gòu)相對(duì)比較簡(jiǎn)單的Shufflenet網(wǎng)絡(luò)[19],對(duì)ResNet網(wǎng)絡(luò)進(jìn)行替換。此外,輕量級(jí)特征提取網(wǎng)絡(luò)造成精度損失較大,選擇將原網(wǎng)絡(luò)中的靜態(tài)卷積改為動(dòng)態(tài)卷積,并通過實(shí)驗(yàn)驗(yàn)證加入動(dòng)態(tài)卷積的輕量級(jí)特征提取網(wǎng)絡(luò)對(duì)跟蹤性能提升的有效性。
為提升特征提取網(wǎng)絡(luò)的表達(dá)效果,首先將ResNet網(wǎng)絡(luò)中的靜態(tài)卷積替換為動(dòng)態(tài)卷積,具體操作如圖2所示,通過注意力機(jī)制思想,根據(jù)不同圖像的輸入特征動(dòng)態(tài)生成相應(yīng)卷積核(Dy-Conv)[20],利用生成的動(dòng)態(tài)卷積核更新濾波器,并在圖像上滑動(dòng),將權(quán)重矩陣與輸入作內(nèi)積處理以提取相關(guān)特征。由于原ResNet網(wǎng)絡(luò)是由多個(gè)殘差塊構(gòu)成,因此,在做內(nèi)積之前還需要將原特征圖進(jìn)行降維處理,然后將二者進(jìn)行拼接,經(jīng)Relu函數(shù)處理后,作為殘差模塊的輸出。構(gòu)成基于動(dòng)態(tài)卷積的ResNet(ResNet with Dynamic Convolution)特征提取網(wǎng)絡(luò),簡(jiǎn)稱Dy-ResNet特征提取網(wǎng)絡(luò)。
圖2 基于動(dòng)態(tài)卷積的Resnet部分結(jié)構(gòu)
然而,ResNet網(wǎng)絡(luò)結(jié)構(gòu)本身相對(duì)復(fù)雜,對(duì)特征進(jìn)行提取時(shí)需要消耗大量的時(shí)間,影響了跟蹤的實(shí)時(shí)性。因此,為了提升跟蹤速度,采用更加輕型的Shufflenet特征提取網(wǎng)絡(luò),由于在該網(wǎng)絡(luò)中使用了通道分離操作,大大減少網(wǎng)絡(luò)分支,節(jié)約了計(jì)算成本。由于網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單,在特征提取時(shí)含有大量噪聲干擾,影響實(shí)驗(yàn)效果,在不影響Shufflenet整體網(wǎng)絡(luò)結(jié)構(gòu)的條件下,將其靜態(tài)卷積替換為動(dòng)態(tài)卷積。ResNet與加入動(dòng)態(tài)卷積的Shufflenet網(wǎng)絡(luò)相比,在模型精度沒有太大損失的情況下,加快特征提取速度,提升跟蹤的實(shí)時(shí)性。部分基于動(dòng)態(tài)卷積的Shufflenet(Shufflenet with Dynamic Convolution)網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,簡(jiǎn)稱Dy-Shufflenet。
圖3 基于動(dòng)態(tài)卷積的Shufflenet部分結(jié)構(gòu)
最后通過采用veri數(shù)據(jù)集對(duì)加入動(dòng)態(tài)卷積前后的ResNet與Shufflenet特征提取網(wǎng)絡(luò)進(jìn)行訓(xùn)練[21],得到車輛的重識(shí)別模型,并將其導(dǎo)入到車輛的跟蹤算法中,用作車輛的表觀特征提取,對(duì)于圖3檢測(cè)框中每一輛車都會(huì)得到一組128維的特征向量,用作后續(xù)車輛跟蹤的相似度計(jì)算。
為了實(shí)現(xiàn)對(duì)車輛的實(shí)時(shí)魯棒跟蹤,首先需要對(duì)當(dāng)前視頻中的車輛進(jìn)行檢測(cè),得到各個(gè)車輛的運(yùn)動(dòng)信息,即候選框參數(shù),將其作為跟蹤模型的初始化,利用卡爾曼濾波對(duì)目標(biāo)車輛的候選框進(jìn)行預(yù)測(cè)。同時(shí),為降低由遮擋問題帶來的IDSW,提高跟蹤效率,采用基于Dy-Shufflenet特征提取模型對(duì)檢測(cè)框中車輛的表觀特征進(jìn)行提取,即每個(gè)檢測(cè)框中車輛都會(huì)得到一組128維的特征向量,將其用于相鄰幀間車輛的相似度計(jì)算。當(dāng)目標(biāo)首次出現(xiàn),則為其分配一個(gè)卡爾曼跟蹤器,更新相應(yīng)參數(shù)值;若該目標(biāo)并非首次出現(xiàn),則計(jì)算前后兩幀的車輛運(yùn)動(dòng)特征的馬氏距離和表觀特征的余弦距離,最后采用匈牙利算法利用目標(biāo)車輛的運(yùn)動(dòng)特征與表觀特征進(jìn)行關(guān)聯(lián)。當(dāng)前后幀間的對(duì)應(yīng)目標(biāo)成功匹配,則更新卡爾曼濾波器參數(shù)值,同時(shí)對(duì)下一幀該目標(biāo)出現(xiàn)的位置進(jìn)行預(yù)測(cè),并將檢測(cè)框中的目標(biāo)特征轉(zhuǎn)為128維的特征向量?jī)?chǔ)存下來;而對(duì)于沒有匹配成功的檢測(cè)結(jié)果,則將其定義為新目標(biāo),并為其分配新的卡爾曼濾波器進(jìn)行后續(xù)幀預(yù)測(cè);倘若出現(xiàn)沒有匹配的跟蹤結(jié)果,則可能由于遮擋使得車輛暫時(shí)消失而沒有被檢測(cè)出來,那么繼續(xù)采用對(duì)應(yīng)的卡爾曼濾波器進(jìn)行下一幀的預(yù)測(cè)而保持當(dāng)前的特征不變,當(dāng)連續(xù)6幀后仍未匹配成功,則將其刪除,并判定其已經(jīng)從視線中消失。跟蹤整體流程如圖4所示。
圖4 車輛跟蹤結(jié)構(gòu)
實(shí)驗(yàn)采用Pytorch深度學(xué)習(xí)框架,以Win10作為操作系統(tǒng),GPU型號(hào)為GTX 1660Ti,處理器為intel core i7-9700。訓(xùn)練重識(shí)別模型所采用的訓(xùn)練數(shù)據(jù)集為veri,該數(shù)據(jù)集是利用20臺(tái)不同角度的攝像機(jī),耗時(shí)24 h拍攝而成,共含有776輛車的圖像50 000多張。相同的車輛會(huì)在不同攝像機(jī)視角出現(xiàn),經(jīng)過處理后的數(shù)據(jù)集中包含的每個(gè)角度圖片相對(duì)比較均勻,大概在6張左右。為提升ID特征識(shí)別的準(zhǔn)確效果,從不同角度為每輛車挑選40~60張圖片,構(gòu)成訓(xùn)練集,利用訓(xùn)練的重識(shí)別模型進(jìn)行跟蹤性能評(píng)估。
1)加載ResNet101預(yù)訓(xùn)練模型,進(jìn)行權(quán)值初始化;
2)輸入veri訓(xùn)練數(shù)據(jù)集,分別使用ResNet,Shufflenet,Dy-ResNet以及Dy-Shufflenet重識(shí)別算法進(jìn)行卷積層和池化層處理,完成圖像特征提取和壓縮;
3)將提取的特征圖像傳入RPN,經(jīng)過處理得到候選區(qū)域;
4)將候選區(qū)域和特征圖傳入全連接層進(jìn)行識(shí)別分類。
利用公開的UA-DETRAC車輛數(shù)據(jù)集對(duì)跟蹤性能進(jìn)行評(píng)價(jià)[22],并驗(yàn)證文中所提車輛跟蹤方法的有效性。該數(shù)據(jù)主要拍攝于北京和天津的24個(gè)不同道路、天橋等地,視頻總量超過14萬幀,共含有8 250輛車以及121萬個(gè)標(biāo)記邊界框,其中包含了晴天、雨天、夜間及多云4個(gè)天氣場(chǎng)景。
實(shí)驗(yàn)選取常用的跟蹤評(píng)價(jià)指標(biāo):MOTA(Multiple Object Tracking Accuracy)、MOTP(Multiple Object Tracking Precision)、MT(Mostly Tracked)、ML (Mostly Lost)、ID Switch、FM (Fragmentation)、FP (False Positive)以及FN (False Negative)。通過計(jì)算8個(gè)指標(biāo)來衡量跟蹤算法的有效性。其中,MOTA是衡量多目標(biāo)跟蹤過程中所有發(fā)生的匹配錯(cuò)誤指標(biāo);MOTP主要量化檢測(cè)器的定位精度;MT表示真實(shí)目標(biāo)與跟蹤結(jié)果至少在80%的時(shí)間內(nèi)能夠成功匹配的數(shù)量占所有被跟蹤目標(biāo)的比例;ML表示真實(shí)目標(biāo)與跟蹤結(jié)果在小于20%的時(shí)間內(nèi)匹配成功的數(shù)量占所有跟蹤目標(biāo)的百分比;ID Switch表示為真實(shí)目標(biāo)所分配的ID發(fā)生變化的次數(shù);FM表示在跟蹤過程中被中斷的次數(shù);FN表示模型將正類樣本預(yù)測(cè)為負(fù)類,而FP則是模型將負(fù)類樣本預(yù)測(cè)為正類。
對(duì)于給定的車輛視頻,首先利用基于深度學(xué)習(xí)的車輛檢測(cè)算法,得到檢測(cè)輸出結(jié)果,并對(duì)框中的目標(biāo)進(jìn)行表觀特征與運(yùn)動(dòng)特征提取,并通過計(jì)算前后兩幀目標(biāo)運(yùn)動(dòng)特征與表觀特征的相似度,采用匈牙利算法對(duì)度量值進(jìn)行最小權(quán)值匹配,完成數(shù)據(jù)的關(guān)聯(lián),實(shí)現(xiàn)車輛跟蹤。為了對(duì)比不同特征提取網(wǎng)絡(luò)的重識(shí)別跟蹤算法對(duì)跟蹤性能影響,隨機(jī)挑選了視頻中含有遮擋車輛的片段,利用基于注意力機(jī)制與多尺度融合的車輛檢測(cè)算法進(jìn)行初始化檢測(cè),分別使用ResNet,Shufflenet,Dy-ResNet以及Dy-Shufflenet重識(shí)別模型與卡爾曼濾波相結(jié)合實(shí)現(xiàn)對(duì)遮擋車輛的跟蹤,最終得到在不同重識(shí)別方法下的對(duì)測(cè)試集中40個(gè)視頻序列(其中包含車輛個(gè)數(shù)為3 300,幀數(shù)為54 723,標(biāo)注框個(gè)數(shù)為37萬)的跟蹤評(píng)價(jià)結(jié)果,具體實(shí)驗(yàn)結(jié)果數(shù)據(jù)如表1所示。
從表1可以看出,采用ResNet方法時(shí)MOTA的值達(dá)到了77.83%,跟蹤速度僅為20幀/s,隨著動(dòng)態(tài)卷積的加入,Dy-ResNet的MOTA有了明顯提升,達(dá)到了82.57%,但跟蹤速度卻降低了25%。而采用輕量級(jí)Shufflenet方法的MOTA值只有74.54%,但跟蹤速度卻達(dá)到了27幀/s。雖然Dy-Shufflenet的重識(shí)別方法與Shufflenet相比,跟蹤速度僅僅相差了2幀/s,但MOTA值卻提升了5.71%。此外,與優(yōu)化前的ResNet方法相比,MOTA達(dá)到了80.25%,比ResNet特征提取方法提高了2.42%,并且IDSW也有了顯著降低,減少了近10%,優(yōu)化后的跟蹤速度提升了25%,表明文中提出的基于Dy-Shufflenet的車輛跟蹤方法具有一定抗遮擋性與實(shí)時(shí)性。
為進(jìn)一步探究ResNet與Dy-Shufflenet的抗遮擋性能,隨機(jī)選取了兩段含有遮擋車輛的視頻序列,視頻跟蹤效果如圖5所示。其中,實(shí)線跟蹤框?yàn)槲闹懈櫵惴ǖ母櫧Y(jié)果,虛線跟蹤框?yàn)閭鹘y(tǒng)的ResNet重識(shí)別跟蹤結(jié)果。
由圖5(a)可知,在ID為32的車輛(箭頭所指)被遮擋之前,兩種算法的跟蹤效果基本保持一致;在經(jīng)過ID為27的車輛時(shí)被遮擋,導(dǎo)致ID為32的跟蹤框暫時(shí)消失;圖5(b)則是ID為32的車輛在被遮擋后重新出現(xiàn)時(shí),傳統(tǒng)的ResNet重識(shí)別算法出現(xiàn)了跟蹤框的部分偏差,只能在大體上對(duì)車輛進(jìn)行跟蹤,而文中Dy-Shufflenet重識(shí)別算法仍然能夠進(jìn)行準(zhǔn)確框選。兩者在基于重識(shí)別特征提取方法都能夠進(jìn)行匹配的同時(shí),也得益于多尺度融合與注意力機(jī)制的車輛檢測(cè)算法對(duì)其跟蹤軌跡進(jìn)行校正的作用,表明文中的跟蹤方法保持了良好的魯棒性。
由圖5(c)可知,在ID為37(箭頭所指)的出租車被遮擋之前,兩種跟蹤算法賦予的ID相同;經(jīng)ID為39的公交車長(zhǎng)時(shí)間遮擋,圖5(d)中原出租車再次出現(xiàn)時(shí),傳統(tǒng)的ResNet重識(shí)別算法會(huì)導(dǎo)致目標(biāo)ID發(fā)生變化,使得ID由37轉(zhuǎn)化為45,而文中Dy-Shufflenet重識(shí)別算法仍然能夠賦予準(zhǔn)確的ID標(biāo)識(shí),實(shí)現(xiàn)準(zhǔn)確跟蹤。表明當(dāng)遇到長(zhǎng)時(shí)間遮擋情況時(shí),文中跟蹤方法仍能夠準(zhǔn)確對(duì)目標(biāo)進(jìn)行跟蹤,魯棒性更強(qiáng)。
此外,分別采用ResNet與Dy-Shufflenet方法對(duì)圖5中的兩段視頻跟蹤效果進(jìn)行定量分析,實(shí)驗(yàn)結(jié)果如表2所示。從表2可以看出,對(duì)于第一個(gè)視頻片段,文中方法的MOTA值比ResNet提高了4.4%,其中IDSW降低了13%,F(xiàn)P與FN分別降低了9%和20.3%,同時(shí),跟蹤速率提升了35%;而對(duì)于第二個(gè)視頻片段,雖然該片段中車輛較多,但該方法仍優(yōu)于ResNet方法。
圖5 ResNet與Dy- Shufflenet對(duì)遮擋目標(biāo)重識(shí)別效果示例
表2 不同視頻序列跟蹤評(píng)價(jià)比對(duì)結(jié)果
1)車輛之間存在遮擋問題為車輛的檢測(cè)跟蹤帶來嚴(yán)重干擾,對(duì)于交通管理部門而言,準(zhǔn)確實(shí)時(shí)獲取車輛信息十分必要。然而在復(fù)雜的交通場(chǎng)景下極易受到外界因素的影響,無法滿足持續(xù)魯棒的跟蹤需求。
2)針對(duì)車輛之間的遮擋與實(shí)時(shí)性問題,提出了卡爾曼濾波與動(dòng)態(tài)卷積的輕量化車輛重識(shí)別方法實(shí)現(xiàn)對(duì)車輛的跟蹤,并在UA-DETRAC車輛數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)測(cè)試和分析,實(shí)驗(yàn)結(jié)果顯示該跟蹤方法與傳統(tǒng)的ResNet重識(shí)別跟蹤算法相比,MOTA提升了2.42%,IDSW明顯降低了10%,速度也提升了25%。
3)文中提出的車輛跟蹤算法在具有一定抗遮擋能力的同時(shí),還能滿足實(shí)時(shí)性需求,從而為交通管理部門及時(shí)有效地獲取交通信息和智能化交通管控提供強(qiáng)有力的支撐。