馮加明,儲茂祥,楊永輝,鞏榮芬
(遼寧科技大學(xué) 電子與信息工程學(xué)院,遼寧 鞍山 114051)
近年來,隨著現(xiàn)代科技的飛速發(fā)展,汽車保有量逐年增多,汽車套牌的犯罪率也逐漸增高。為了減輕對交通管理部門的壓力,人們開始對車輛進行識別來確認(rèn)車輛的型號,然后通過車輛的型號與車牌的匹配關(guān)系來確認(rèn)車輛是否套牌,從而減少了人力管控資源?;诖吮尘?,車輛識別技術(shù)應(yīng)運而生。在車輛識別的方法中最簡單方法便是通過圖像的方式,即通過交通攝像頭拍攝交通圖像,然后通過模式識別的方法識別交通圖像中的車輛。而要識別交通圖像中的車輛,首要任務(wù)是檢測出圖像中的車輛信息,主要包括車牌、車標(biāo)、車臉。
目前,車輛信息檢測的方法眾多,可總結(jié)為兩類,即傳統(tǒng)學(xué)習(xí)方法和深度學(xué)習(xí)方法。傳統(tǒng)學(xué)習(xí)方法主要通過研究車牌、車標(biāo)、車臉的特點,提取相應(yīng)的特征,然后通過滑動窗口的方式對車輛信息進行檢測。Zakaria等[1]使用梯度直方圖特征和支持向量機相結(jié)合的方法進行車輛檢測;張小琴等[2]利用車輛的對稱特征檢測車臉,然后通過提取車臉的梯度直方圖特征結(jié)合支持向量機的方法識別車輛。上述傳統(tǒng)學(xué)習(xí)方法能夠檢測出圖像中的目標(biāo),但是提取車輛信息的特征比較簡單,算法穩(wěn)定性容易受到環(huán)境變化的影響。隨著近幾年深度學(xué)習(xí)的興起,RCNN[3]、Fast R-CNN[4]、Faster R-CNN[5]、SSD[6]以及YOLO系列[7-9]等基于深度學(xué)習(xí)方法的目標(biāo)檢測算法相繼出現(xiàn)。Huang等[10]采用Faster-RCNN算法與VGG-16、ResNet-50網(wǎng)絡(luò)結(jié)構(gòu)相結(jié)合的方法識別道路監(jiān)控中的車標(biāo);Chen等[11]使用SSD目標(biāo)檢測算法實現(xiàn)了交通監(jiān)控視頻中的車輛檢測以及車輛計數(shù);He等[12]通過卷積神經(jīng)網(wǎng)絡(luò)的快速深度學(xué)習(xí)算法檢測視頻中的車輛,并與雷達相結(jié)合來提高車輛檢測的性能;桑軍等[13]提出了一種Faster-RCNN算法與ZF、VGG-16、ResNet-101網(wǎng)絡(luò)結(jié)構(gòu)相結(jié)合的車型識別策略;Yang等[14]提出了一種Faster-RCNN與三級級聯(lián)卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合的車輛零件檢測方法。上述深度學(xué)習(xí)方法能夠自動提取圖像中更適合車輛信息的特征,很好地解決了算法對環(huán)境的影響,但是對于小尺寸的目標(biāo)檢測效果差,且檢測速度較慢,不能滿足實時檢測的需求。
隨著YOLOv3算法的出現(xiàn),檢測速度以及小目標(biāo)檢測性能都有很大提升。Krittayanawach等[15]通過壓縮YOLOv3算法模型結(jié)構(gòu)進行車輛檢測;Chen等[16]受到Y(jié)OLOv3算法的啟發(fā),提出了一種級聯(lián)特征金字塔網(wǎng)絡(luò)的淺層模型用于交通流量中的車輛檢測。目前,YOLOv3算法在智慧交通領(lǐng)域中主要應(yīng)用于交通監(jiān)控中車輛的檢測,而應(yīng)用于車輛信息檢測的研究并不多見。筆者將改進的YOLOv3-fass算法應(yīng)用于多類車輛信息的檢測,旨在更快、更穩(wěn)定、更精準(zhǔn)地實現(xiàn)圖像中多類車輛信息的同時檢測。
YOLOv3算法采用DarkNet-53的網(wǎng)絡(luò)結(jié)構(gòu)提取圖像中車輛信息的特征,并采用多尺度的檢測方式實現(xiàn)圖像中目標(biāo)的檢測。數(shù)據(jù)集中的圖像歸一化到416×416尺寸,送入算法網(wǎng)絡(luò)結(jié)構(gòu)中進行車輛信息的檢測。DarkNet-53網(wǎng)絡(luò)結(jié)構(gòu)中采用了大量含有1×1和3×3卷積核的殘差網(wǎng)絡(luò)結(jié)構(gòu)。殘差網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。
圖1 殘差網(wǎng)絡(luò)結(jié)構(gòu)圖Fig. 1 Schematic diagram of residual network
殘差網(wǎng)絡(luò)結(jié)構(gòu)的殘差函數(shù)為
F(x)=H(x)-x,
(1)
式中:F(x)表示殘差網(wǎng)絡(luò)結(jié)構(gòu)的殘差函數(shù);H(x)表示殘差網(wǎng)絡(luò)結(jié)構(gòu)的輸出值;x表示殘差網(wǎng)絡(luò)結(jié)構(gòu)的輸入值。
YOLOv3算法網(wǎng)絡(luò)結(jié)構(gòu)的輸入圖像經(jīng)過5次步長為2的卷積層進行下采樣,分別得到208×208,104×104,52×52,26×26,13×13共5個尺度的特征圖。YOLOv3算法將13×13,26×26,52×52尺度上的特征圖輸入到檢測網(wǎng)絡(luò)中進行多尺度檢測。YOLOv3算法將9組錨框平均分配在檢測網(wǎng)絡(luò)的3個尺度上,每個尺度的每個錨點分配3組錨框,共計生成10 647個錨框。YOLOv3算法使用Adam優(yōu)化器,首先采用回歸的方式對錨框進行類別、置信度和預(yù)測框的預(yù)測;然后根據(jù)每個預(yù)測框的得分使用NMS算法選出最終的預(yù)測框。最后,根據(jù)特征圖與原圖的關(guān)系將預(yù)測框映射到原圖上,完成圖像中車輛信息的定位。
置信度的計算公式為
C=Pr(object)×I,
(2)
(3)
式中:C表示置信度;Pr(object)表示預(yù)測框中檢測到目標(biāo)的概率;I表示預(yù)測框與真值框區(qū)域的交并比。
在NMS算法中預(yù)測框中目標(biāo)的得分計算公式為
S=C×Pr(logo|object),
(4)
式中:S表示預(yù)測框的得分;Pr(logo|object)表示車標(biāo)類別的條件概率。
在對YOLOv3算法的研究中發(fā)現(xiàn)了一系列問題,諸如YOLOv3算法對于小尺寸車輛信息的檢測穩(wěn)定性差,參與運算的參數(shù)量大等。針對以上問題,筆者基于YOLOv3算法提出了更適合車輛信息檢測的YOLOv3-fass算法。YOLOv3-fass算法的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。網(wǎng)絡(luò)結(jié)構(gòu)主要包括兩部分:主網(wǎng)絡(luò)、檢測網(wǎng)絡(luò),其中主網(wǎng)絡(luò)由網(wǎng)絡(luò)主干和網(wǎng)絡(luò)支路組成。主網(wǎng)絡(luò)含有輸入模塊、卷積層模塊、下采樣模塊、節(jié)點1~5模塊、殘差1、殘差2、殘差5模塊以及池化模塊;檢測網(wǎng)絡(luò)含有4個輸入,檢測層(1)~(4)模塊以及卷積層4模塊、卷積層7模塊、2個卷積層5模塊。其中輸入模塊表示網(wǎng)絡(luò)的輸入圖像,卷積層模塊表示對輸入圖像做卷積的卷積層,下采樣模塊表示步長為2的卷積層,節(jié)點1~5模塊表示2個下采樣模塊融合后的特征圖,殘差1表示含有1個殘差網(wǎng)絡(luò)結(jié)構(gòu),殘差2表示含有2個殘差網(wǎng)絡(luò)結(jié)構(gòu),殘差5表示含有5個殘差網(wǎng)絡(luò)結(jié)構(gòu),池化模塊表示步長為2的最大池化層,檢測層(1)~(4)模塊表示檢測網(wǎng)絡(luò)的4個輸出檢測層,卷積層4模塊表示4個卷積層,卷積層7模塊表示7個卷積層,卷積層5模塊表示5個卷積層。
圖2 YOLOv3-fass算法的網(wǎng)絡(luò)結(jié)構(gòu)圖Fig. 2 Network structure of YOLOv3-fass algorithm
以下為YOLOv3-fass算法的說明。
1)簡化網(wǎng)絡(luò)結(jié)構(gòu)。 YOLOv3算法含有大量參與運算的參數(shù),一方面會導(dǎo)致車輛信息檢測速度的下降,另一方面當(dāng)數(shù)據(jù)集樣本數(shù)量較少時算法容易產(chǎn)生過擬合。為了降低算法的參數(shù)量,筆者將網(wǎng)絡(luò)結(jié)構(gòu)中的殘差網(wǎng)絡(luò)結(jié)構(gòu)和濾波器的數(shù)量進行了適度的調(diào)整,分別把網(wǎng)絡(luò)主干中2,4,8,16,32倍下采樣后的殘差網(wǎng)絡(luò)結(jié)構(gòu)的數(shù)量調(diào)整為1,2,5,5,2個,同時把YOLOv3-fass算法的網(wǎng)絡(luò)結(jié)構(gòu)中所有卷積層的通道數(shù)降低50%,從而降低了網(wǎng)絡(luò)結(jié)構(gòu)的復(fù)雜程度,在提高車輛信息檢測效率的同時也避免了算法產(chǎn)生過擬合現(xiàn)象。
2)添加網(wǎng)絡(luò)支路。DarkNet-53網(wǎng)絡(luò)結(jié)構(gòu)僅采用一個下采樣模塊作為下采樣層,在特征圖傳遞過程中圖像特征信息損失較多。為了以上問題,在網(wǎng)絡(luò)結(jié)構(gòu)中添加了一條含有5個下采樣模塊的網(wǎng)絡(luò)支路,使該支路上的5個下采樣模塊與網(wǎng)絡(luò)主干中相同尺度特征層的下采樣模塊具有相同的通道數(shù)量,并將網(wǎng)絡(luò)主干與網(wǎng)絡(luò)支路上的相同尺度的下采樣模塊進行特征融合,節(jié)點1~5模塊便是融合之后的特征圖。該設(shè)計通過添加網(wǎng)絡(luò)支路,在特征圖傳遞過程中減少了信息的損失,同時融合了特征圖的深、淺層特征,也增強了網(wǎng)絡(luò)結(jié)構(gòu)的表征能力。
3)添加尺度跳連結(jié)構(gòu)。為了提高網(wǎng)絡(luò)結(jié)構(gòu)中淺層特征的復(fù)用率并保證相鄰尺度特征圖的融合,YOLOv3-fass算法在網(wǎng)絡(luò)主干的208×208,104×104,52×52,26×26相鄰兩個尺度之間添加了含有池化模塊的3個尺度跳連結(jié)構(gòu),將下采樣模塊的輸出作為尺度跳連結(jié)構(gòu)的輸入,并將3個尺度跳連結(jié)構(gòu)的輸出分別與殘差2模塊中的第1個殘差網(wǎng)絡(luò)結(jié)構(gòu)的輸出、殘差5模塊中的第3個殘差網(wǎng)絡(luò)結(jié)構(gòu)的輸出進行特征圖的融合。網(wǎng)絡(luò)結(jié)構(gòu)融合了淺層特征,增強了表征能力,也起到了防止梯度彌散的作用。
4)增加檢測尺度。為了更精準(zhǔn)地檢測小尺寸的車輛信息,在YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上增加了1個檢測網(wǎng)絡(luò)的檢測尺度。改進的檢測網(wǎng)絡(luò)如圖2的檢測網(wǎng)絡(luò)部分所示,首先將檢測網(wǎng)絡(luò)的3尺度檢測改為4尺度檢測,其次參考文獻[17]中的方法,在檢測網(wǎng)絡(luò)中增加了密集連接結(jié)構(gòu),即各檢測尺度之間采用2,4,8倍上采樣進行連接,最后將主網(wǎng)絡(luò)的第2個殘差2模塊、節(jié)點4、節(jié)點3、節(jié)點2模塊分別與上采樣的特征圖融合之后輸入到檢測網(wǎng)絡(luò)中。通過增加檢測尺度使錨框的數(shù)量增加至原來的4倍之多,提高了車輛信息的檢出率;同時將融合特征圖作為檢測網(wǎng)絡(luò)的輸入信息以及增加密集連接結(jié)構(gòu),提高了檢測網(wǎng)絡(luò)輸入特征圖的可靠性。
5)K-均值聚類與手動調(diào)節(jié)相結(jié)合。在本文算法中,檢測網(wǎng)絡(luò)包含了4個檢測尺度,每個檢測尺度分配3組錨框值,共需12組錨框值,并采用K-均值方法聚類出12組錨框值。由于車輛數(shù)據(jù)集中標(biāo)注的車輛信息的形狀、車臉及車牌均為長方形且數(shù)量占比大,車標(biāo)的形狀多數(shù)近似正方形且在數(shù)據(jù)集中數(shù)量占比小,僅采用K-均值方法聚類的12組錨框值準(zhǔn)確度不夠。因此,筆者采用K-均值方法對車輛信息數(shù)據(jù)集進行錨框的聚類,然后通過手動調(diào)節(jié)的方式對聚類出的12組錨框值進行適當(dāng)?shù)恼{(diào)整。因為車標(biāo)尺寸較小,所以只需要調(diào)整負(fù)責(zé)小目標(biāo)檢測的檢測尺度上的錨框值,即調(diào)整前9組錨框值。將每3組中的長寬之差絕對值最小的一組錨框值調(diào)整到長寬之差絕對值小于5的范圍內(nèi)。最終,確定的12組錨框值為:(7,7),(19,9),(24,17),(33,29),(46,15),(66,20), (50,50),(94,26),(113,47),(203,76),(270,113),(312,180)。通過K-Means聚類與手動調(diào)節(jié)相結(jié)合的方法進行錨框的聚類,提高了YOLOv3-fass算法檢測的準(zhǔn)確度。
6) 采用遷移學(xué)習(xí)機制。針對數(shù)據(jù)集樣本較少的情況,采用遷移學(xué)習(xí)機制對網(wǎng)絡(luò)模型進行微調(diào)訓(xùn)練。為了加快網(wǎng)絡(luò)的收斂速度,首先在Pascal voc2012數(shù)據(jù)集上訓(xùn)練YOLOv3-fass算法模型,生成新的模型權(quán)重文件W1,然后把W1文件作為預(yù)訓(xùn)練權(quán)重文件,在自研的車輛數(shù)據(jù)集上微調(diào)YOLOV3-fass算法模型,得到最終的權(quán)重文件。研究中采用遷移學(xué)習(xí)機制對YOLOv3-fass算法進行微調(diào),一方面在訓(xùn)練過程中能夠使模型更快地收斂,另一方面,能夠避免算法因數(shù)據(jù)集樣本較少而產(chǎn)生過擬合。
首先為遷移學(xué)習(xí)準(zhǔn)備了Pascal voc2012標(biāo)準(zhǔn)數(shù)據(jù)集,然后準(zhǔn)備了自研的車輛數(shù)據(jù)集,用于微調(diào)本文算法。車輛數(shù)據(jù)集中的圖片均來自校園和街道,共包含2 000張圖像,圖例如圖3中(a)~(h)所示。使用LabelImg工具在車輛數(shù)據(jù)集中標(biāo)記了2 300個車標(biāo),2 360個車牌,2 520個車臉。將數(shù)據(jù)集按8∶ 1∶ 1的比例分成訓(xùn)練集、驗證集和測試集,分別用于模型的訓(xùn)練、驗證以及測試過程。
圖3 車輛數(shù)據(jù)集圖例Fig. 3 Legend of vehicle dataset
實驗中使用的服務(wù)器設(shè)備的型號為超微6027AX-TRF,內(nèi)存為32 G,硬盤為2 T,顯卡為TITAN-XP,操作系統(tǒng)為Ubuntu 16.04。在實驗中采用旋轉(zhuǎn)角度、飽和度、曝光度和色調(diào)共4種數(shù)據(jù)增強策略,具體參數(shù)配置如表1所示。在實驗中,對本文算法以下指標(biāo)進行了比較:交并比、查準(zhǔn)率、平均精度均值、平均精度、召回率、單張圖片檢測時間以及模型文件大小(Ubuntu 16.04環(huán)境下)。
表1 參數(shù)配置
分別使用YOLOv3算法和YOLOv3-fass算法迭代10 000次的模型對實例圖像中的車輛信息做了檢測試驗。圖4為YOLOv3-fass算法和YOLOv3算法在實例圖像上的車輛信息檢測對比圖,其中圖4中的(a)~(d)為YOLOv3-fass算法的車輛信息檢測圖,圖4中的(e)~(h)為YOLOv3算法的車輛信息檢測圖,圖中綠色框為車臉框,紅色框為車標(biāo)框,黃色框為車牌框??梢钥闯?,圖4中的(e)(g)(h)出現(xiàn)了車輛信息嚴(yán)重漏檢的情況;圖4中的(a)(e)(f)(h)出現(xiàn)了車輛信息錯檢的情況;在圖4(a)中,YOLOv3-fass算法能夠?qū)D像中遠(yuǎn)處的所有車臉及部分車牌成功地檢測出來,而(e)中,YOLOv3算法僅僅檢測出遠(yuǎn)處的一個車牌,漏檢情況較為嚴(yán)重。通過本實驗中的兩組對比圖,可以發(fā)現(xiàn)YOLOv3-fass算法能夠檢測出更多的車輛信息,而且更適合檢測圖像中的小尺寸車輛信息。
圖4 YOLOv3-fass算法與YOLOv3算法車輛信息檢測對比圖Fig. 4 Comparison of vehicle information detection of YOLOv3-fass algorithm and YOLOv3 algorithm
按照表1中的數(shù)據(jù)配置訓(xùn)練參數(shù),將YOLOv3-fass算法與YOLOv3、YOLOv3-spp、YOLOv3-tiny算法做了對比實驗。為了驗證YOLOv3-fass算法的網(wǎng)絡(luò)結(jié)構(gòu)對算法性能的影響,將YOLOv3算法的DarkNet-53網(wǎng)絡(luò)結(jié)構(gòu)換成DenseNet201、ResNet50經(jīng)典網(wǎng)絡(luò)結(jié)構(gòu),并做了實驗對比。在實驗中,以上6種算法在車輛數(shù)據(jù)集的訓(xùn)練集上進行多尺度訓(xùn)練并迭代10 000次,按照以下的方式保存模型文件:迭代1 000次以內(nèi)每迭代100次保存一次模型文件,迭代1 000次以后每迭代500次保存一次模型文件,共計保存了28個模型文件。最后在車輛數(shù)據(jù)集的測試集上對保存的6種模型文件做了測試,并將相應(yīng)的指標(biāo)數(shù)據(jù)記錄在表2中??梢钥闯?,YOLOv3-fass算法的單張圖片檢測時間相比YOLOv3算法縮短了50%,同時交并比、召回率及平均精度均值指標(biāo)都有不同程度的提高;YOLOv3-fass算法的單張圖片的檢測速度僅慢于YOLOv3-tiny算法,但是,其交并比、召回率、平均精度均值指標(biāo)比YOLOv3-tiny算法分別提高了9.26%,9.00%,6.62%;YOLOv3-fass算法與DenseNet 201、Resnet 50、YOLOv3-spp相比,單張圖片的檢時間分別快17.9,8.5,11.1 ms,且其交并比、召回率、平均精度均值指標(biāo)也都有大幅的提升;YOLOv3-fass算法的模型文件內(nèi)存僅比YOLOv3-tiny算法的模型文件大12.7 MB,且遠(yuǎn)小于其他4種算法的模型文件,降低算法網(wǎng)絡(luò)的參數(shù)量能夠提升檢測速度,也能夠避免算法產(chǎn)生過擬合現(xiàn)象。綜上所述,YOLOv3-fass算法不僅在車輛信息的檢測速度上有了大幅的提高,而且其交并比、召回率及平均精度均值也都有小幅提高。
表2 6種算法性能指標(biāo)對比表
如圖5、圖6所示,實驗驗證了6種算法的車標(biāo)平均精度以及3類車輛信息平均精度均值的穩(wěn)定性,并繪制了車標(biāo)平均精度和車輛信息平均精度均值的穩(wěn)定性對比圖。
圖5為6種算法的車標(biāo)平均精度穩(wěn)定性對比圖,從圖中可以看出,YOLOv3-fass算法的車標(biāo)平均精度提升速度最快,且在迭代2 000次之后車標(biāo)平均精度曲線趨于穩(wěn)定,相比之下ResNet 50的車標(biāo)平均精度曲線在迭代3 500次之后也能達到相對穩(wěn)定的態(tài)勢,但其曲線的平滑度以及車標(biāo)平均精度值均弱于YOLOv3-fass算法;YOLOv3和YOLOv3-spp算法的車標(biāo)平均精度在訓(xùn)練過程中出現(xiàn)了多次的嚴(yán)重下跌,而且其提升速度和車標(biāo)平均精度大小均弱于YOLOv3-fass算法;YOLOv3-tiny,DenseNet 201的車標(biāo)平均精度曲線均嚴(yán)重偏離其他算法。綜上所述YOLOv3-fass算法的車標(biāo)平均精度的穩(wěn)定性更好,更適合檢測車輛數(shù)據(jù)集中的小尺寸車輛信息。
圖5 車標(biāo)平均精度穩(wěn)定性對比圖Fig. 5 Stability of average accuracy of vehicle logo with six algorithms
圖6為6種算法的車輛信息平均精度均值穩(wěn)定性對比圖,從圖中可以看出,YOLOv3-tiny算法與DenseNet 201算法的車輛信息平均精度均值曲線位于其他4種算法的下方且嚴(yán)重偏離,其穩(wěn)定性差;YOLOv3和YOLOv3-spp算法的車輛信息平均精度均值曲線隨著迭代次數(shù)的增加均出現(xiàn)了不同程度的震蕩,而且位于YOLOv3-fass算法的下方;ResNet 50的車輛信息平均精度均值曲線的穩(wěn)定性以及平均精度均值均弱于YOLOv3-fass算法。綜上所述,在車輛數(shù)據(jù)集上隨著迭代次數(shù)的增加YOLOv3-fass算法的車輛信息的平均精度均值更加穩(wěn)定。
圖6 車輛信息平均精度均值穩(wěn)定性對比圖Fig. 6 Stability of vehicle information mean average accuracy with six algorithms
通過以上實驗對比,可以得出結(jié)論,YOLOv3-fass算法更適合車輛信息的檢測。為了進一步確認(rèn)在何種條件下YOLOv3-fass算法能夠取得更佳的實驗效果,進行了以下實驗:首先YOLOv3-fass算法在車輛數(shù)據(jù)集上迭代10 000次并保存實驗?zāi)P停蝗缓筮x擇320×320,352×352,384×384,416×416,448×448,480×480,512×512,544×544,576×576,608×608共10個尺寸作為輸入圖像的尺寸,選擇0.5和0.75作為閾值(NMS),進行10次測試實驗,并記錄在不同輸入尺寸、不同閾值(NMS)時實驗的交并比和查準(zhǔn)率,表3為實驗測試數(shù)據(jù),其中閾值(NMS)為0.50時對應(yīng)交并比和查準(zhǔn)率各為1時的數(shù)據(jù),閾值(NMS)為0.75時對應(yīng)交并比和查準(zhǔn)率各為2時的數(shù)據(jù)。通過分析數(shù)據(jù)可以得出,當(dāng)輸入圖像尺寸為448×448時,2種閾值(NMS)情況下算法的交并比均能夠達到最優(yōu)值,并且在閾值(NMS)為0.75時,查準(zhǔn)率更高。因此在輸入圖像尺寸為448×448、閾值(NMS)為0.75時,YOLOv3-fass算法的車輛信息檢測效果更好。
表3 YOLOv3-fass算法的多條件性能指標(biāo)
針對研究中發(fā)現(xiàn)的一系列問題,筆者對YOLOv3算法進行了改進,并提出了YOLOv3-fass算法。經(jīng)過實驗驗證,改進后算法的穩(wěn)定性更好,且能夠更精準(zhǔn)地檢測出圖像中的車輛信息,相比原始YOLOv3算法,單張圖像的檢測時間降低了50%。另外對比了在不同輸入尺寸、不同閾值時YOLOv3-fass算法的交并比、查準(zhǔn)率性能指標(biāo),最終得出結(jié)論,當(dāng)圖像尺寸為448×448、閾值(NMS)為0.75時,YOLOv3-fass算法能夠取得更佳的檢測效果。但是,本文算法在檢測車輛信息時仍存在一定的缺陷,如圖像中的車輛信息處于復(fù)雜場景中時,易出現(xiàn)錯檢的情況。今后將針對發(fā)現(xiàn)的問題進行相應(yīng)的改進,提高算法在復(fù)雜場景中車輛信息檢測的性能。