国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于YOLOv4-Efficient的目標檢測和識別

2022-05-05 07:20史健婷劉文斌安祥澤
智能計算機與應用 2022年3期
關鍵詞:卷積特征提取精度

史健婷,李 旭,2,劉文斌,安祥澤,2

(1黑龍江科技大學 計算機與信息工程學院,哈爾濱 150022;2黑龍江科技大學 研究生學院,哈爾濱 150022)

0 引 言

目標檢測是計算機視覺和數(shù)字圖像處理的一個熱門方向,廣泛應用于視頻監(jiān)控、自動駕駛、航空航天等諸多領域。近年來目標檢測成為研究和應用的主攻領域,再加上深度學習的廣泛運用,目標檢測得到了更加快速的發(fā)展。

目前主流的目標檢測算法大概可以分為兩大類:

(1)One-Stage目標檢測算法,這類算法不需要候選區(qū)域階段,直接對物體進行檢測和識別。YOLO系列就是一階段的代表性算法,速度較快,但精確度較差;

(2)Two-Stage目標檢測算法,這類算法主要分為兩個階段,第一階段是產(chǎn)生候選區(qū)域,也就是目標的大概位置;第二階段對所產(chǎn)生的候選區(qū)域進行類別和位置信息的預測識別。R-CNN是兩階段的代表性算法,雖速度較慢,但有較高的精度。兩類算法各有優(yōu)勢,隨著研究的不斷深入,兩類算法都在做著改進,并能在速度和準確度上取得很好的表現(xiàn)。

隨著網(wǎng)絡的深度不斷加深,為了獲得更多的目標信息,勢必要擴大網(wǎng)絡的通道數(shù),這樣就會帶來大量的參數(shù)運算。本文將 EfficientNet網(wǎng)絡和YOLOv4中的檢測網(wǎng)絡相結(jié)合,以達到參數(shù)量的大量減少,檢測速度盡可能提高的目標檢測算法。

1 相關算法

1.1 YOLOv4算法

YOLOv4是YOLOv3的改進版,在其基礎上融合了許多創(chuàng)新性的小技巧。YOLOv4可以分為4部分,其中包括:輸入端、BackBone主干網(wǎng)絡、Neck、Prediction。

輸入端的創(chuàng)新,主要是訓練時對輸入端的改進,包括Mosaic數(shù)據(jù)增強等;BackBone主干網(wǎng)絡是將各種創(chuàng)新結(jié)合起來,其中包括:CSPDarknet53、Mish激活函數(shù)、Dropblock等;Neck部分是在BackBone和最后的輸出層之間插入一些層,如YOLOv4中的SPP模塊、FPN+PAN結(jié)構(gòu);Prediction部分主要改進訓練時的損失函數(shù)_。YOLOv4的網(wǎng)絡結(jié)構(gòu)如圖1所示。

圖1 YOLOv4網(wǎng)絡結(jié)構(gòu)圖Fig.1 YOLOv4 network structure diagram

若以輸入的圖像尺寸為416×416為例,其處理過程如下:

圖像進行Mosaic數(shù)據(jù)增強后,主干提取網(wǎng)絡CSPDarknet53進行特征提取,將提取到的特征進行SPP 3次不同尺度的最大池化,并通過PANet進行特征融合;將不同尺度的特征圖進行融合,獲得3種尺度的特征圖(52×52、26×26、13×13);最后分別對這3種不同尺度的特征圖進行分類回歸預測結(jié)果。

1.2 EfficientNet算法

EfficientNet算法具有的特點:利用殘差結(jié)構(gòu)來提高網(wǎng)絡的深度,通過更深層次的神經(jīng)網(wǎng)絡實現(xiàn)更多特征信息的提取;改變每一層提取的特征層數(shù),實現(xiàn)更多層的特征提取,來提升寬度;通過增大輸入圖片的分辨率,使網(wǎng)絡學習到更加豐富的內(nèi)容,達到提高精確度的目的。

EfficientNet使用一組固定的縮放系數(shù)統(tǒng)一縮放網(wǎng)絡深度、寬度和分辨率,網(wǎng)絡可以平衡縮放,進入網(wǎng)絡中圖像的分辨率、網(wǎng)絡寬度和網(wǎng)絡深度,減少了模型參數(shù)量,增強了特征提取能力,使網(wǎng)絡的速度和精度達到最佳。EfficientNet有多個MBConv模塊。其總體的設計思路是Inverted residuals結(jié)構(gòu)和殘差結(jié)構(gòu),首先進行1?1卷積操作進行升維,在3?3或5?5的深度可分離卷積后,增加了一個通道的注意力機制,最后利用1?1卷積進行降維后,增加一個大的殘差邊,進行特征層的相加操作。MBConv模塊如圖2所示。

1.3 CIOU損失函數(shù)

YOLOv4在損失函數(shù)方面,將作為回歸。為了使目標框回歸更加穩(wěn)定,收斂的更快,考慮了多重因素。其中包括:目標框與錨框之間的距離,重疊率、尺度以及懲罰項,提高定位的精度,防止出現(xiàn)與(真實框和預測框的交集和并集之比)在訓練過程中相同的發(fā)散問題。如式(1):

式中:、b分別表示錨框和目標框的中心點;為計算兩個中心點的歐式距離;為權(quán)重系數(shù);為長寬比相似性;、分別表示預測框的寬度和高度;w、h分別表示真實框的寬度和高度。

圖2 MBConv模塊結(jié)構(gòu)Fig.2 MBConv module structure diagram

2 YOLOv4-Efficient網(wǎng)絡結(jié)構(gòu)

2.1 主干提取網(wǎng)絡

YOLOv4中CSPDarknet53主干特征提取網(wǎng)絡的提取能力和檢測精度非常強,在各個領域都有非常優(yōu)秀的表現(xiàn)。但主干巨大的參數(shù)量對計算設備的性能有著較高的要求,使其對車輛的實時監(jiān)測和算法的移植有較高的難度。YOLOv4-tiny雖然具有較低的參數(shù)量,較快的檢測速度,但是特征提取能力和泛化能力較差,在復雜的場景變化中檢測能力較差,對物體識別效果不太理想。

依據(jù)上述分析結(jié)果,為了解決既提高速度又具備較強檢測能力的問題,將特征提取的主干換成EfficientNet輕量級網(wǎng)絡,因其具有較少的參數(shù)量和較高的特征提取能力,可以大大減少運算時間提高實時監(jiān)測能力,并且該算法可以移植到較低算力的設備上。YOLOv4-Efficient網(wǎng)絡結(jié)構(gòu)如圖3所示。

EfficientNet系列網(wǎng)絡有8種不同類型的模型,可以應對不同的場景。如:應對自動駕駛中對車輛的檢測時,考慮到速度和精度,可選擇EfficientNet-B2模型,將EfficientNet-B2最后的池化層和全連接層去掉之后,代替YOLOv4原始的CSPDarknet53特征提取網(wǎng)絡。EfficientNet-B2網(wǎng)絡結(jié)構(gòu)見表1。

圖3 YOLOv4-Efficient網(wǎng)絡結(jié)構(gòu)Fig.3 YOLOv4-Efficient network structure

表1 EfficientNet-B2網(wǎng)絡結(jié)構(gòu)Tab.1 EfficientNet-B2 network structure

2.2 改進PANet特征融合

本文對PANet特征融合的改進主要涉及兩個方面:一是引入深度可分離卷積,二是在進行特征融合上采樣時,加入了SENet注意力模塊。

由于PANet中使用了大量的卷積,會導致巨大的參數(shù)量,所以在PANet中引入了深度可分離卷積,使PANet特征金字塔部分的參數(shù)量大幅度減少,提高整個模型的檢測速度。

深度可分離卷積分為逐通道卷積和逐點卷積。在逐通道卷積中,一個卷積核負責一個通道,一個通道只被一個卷積核卷積。如圖4所示。

圖4 逐通道卷積結(jié)構(gòu)Fig.4 Channel by channel convolution structure

逐點卷積運算和常規(guī)卷積運算類似,其卷積核尺寸為1×1×M(上一層的通道數(shù))。這里的卷積運算會將逐通道卷積產(chǎn)生特征圖,在深度方向上進行加權(quán)組合,生成新的特征圖。有幾個卷積核就輸出幾個特征圖。

為了使不同的特征層進行融合時保證其關鍵信息得到加強,所以在PANet特征融合進行上采樣時加入SENet(Squeeze-and-Excitation Network,即“壓縮和激勵”SE塊)。SE塊通過控制scale的大小,將一些重要特征進行增強,而對一些不重要的特征進行抑制,從而讓提取到的特征有更強的指向性。SE模塊的結(jié)構(gòu)如圖5所示。

圖5 SE模塊結(jié)構(gòu)圖Fig.5 SE module structure diagram

圖中:sq()代表Squeeze過程;ex()代表Excitation過程;sc()是將Excitation得到的結(jié)果作為權(quán)重,乘到輸入特征上。

3 實驗結(jié)果與分析

本次實驗環(huán)境配置中,軟件環(huán)境為:python3.6編程語言、CUDA版本為11.2、深度學習框架pytorch1.2;硬件環(huán)境配置:GPU為RTX1050,CPU為i7-7700HQ。通過標注和處理1521張來自BDD100K自動駕駛的圖片,構(gòu)成本次實驗的數(shù)據(jù)集。

實驗中,將改進的YOLOv4-Efficient模型與YOLOv4模型、YOLOv4-tiny進行對比。在輸入圖片分辨率為416?416的情況下,通過精度()、參數(shù)量()、召回率()和平均準確率()等性能指標進行評價。計算公式如式(5)(6):

式中:為圖像中車的區(qū)域,預測為車的正確情況;為圖像中為車的區(qū)域,預測為不是車錯誤情況;為實際不是車的區(qū)域,但是預測此區(qū)域是車的情況。

將YOLOv4-Efficient與YOLOv4,YOLOv4-tiny模型進行對比測試,測試結(jié)果見表2。

表2 模型檢測性能對比Tab.2 Performance comparison of models

通過表中數(shù)據(jù)可以看出,本文算法整體性要優(yōu)于YOLOv4和YOLOv4-tiny。在平均準確率()和召回率()對比中,明顯高于YOLOv4-tiny;在參數(shù)量和精度方面要優(yōu)于YOLOv4;在平均準確率和召回率方面略低于YOLOv4。進行綜合對比后,在減少近4倍的參數(shù)量后,仍然有較好的檢測性能。pr曲線和精度曲線如圖6~7所示。

圖6 pr曲線Fig.6 Pr curve

圖7 精度曲線Fig.7 Precision curve

利用YOLOv4-Efficient測試結(jié)果如圖8所示。

圖8 測試結(jié)果Fig.8 Test result

4 結(jié)束語

本文在YOLOv4的基礎上提出了一種輕量級的車輛檢測算法YOLOv4-Efficient,將YOLOv4的主干提取網(wǎng)絡改為EfficientNet-B2后,在保證檢測精度的情況下,減少了模型的參數(shù)量,提高了檢測速度。相比YOLOv4的參數(shù)量,改進后的模型參數(shù)量少了近4倍。經(jīng)過實驗對比,在YOLOv4-Efficient對車輛的檢測中,參數(shù)量和精度方面要優(yōu)于YOLOv4,其精度達到了94.29%,參數(shù)量也僅僅有60.52 M,改進后的模型更適合于移動端的設備。后期工作中,在提高模型數(shù)據(jù)量來增強魯棒性的同時,還要進一步研究在不同復雜環(huán)境和天氣下對目標的檢測。

猜你喜歡
卷積特征提取精度
基于不同快速星歷的GAMIT解算精度分析
同步定位與建圖特征提取和匹配算法研究
基于全卷積神經(jīng)網(wǎng)絡的豬背膘厚快速準確測定
基于圖像處理與卷積神經(jīng)網(wǎng)絡的零件識別
基于深度卷積網(wǎng)絡與空洞卷積融合的人群計數(shù)
基于MED—MOMEDA的風電齒輪箱復合故障特征提取研究
近似邊界精度信息熵的屬性約簡
卷積神經(jīng)網(wǎng)絡概述
基于曲率局部二值模式的深度圖像手勢特征提取
電力系統(tǒng)短期負荷預測方法與預測精度
惠来县| 葵青区| 耒阳市| 成都市| 沈阳市| 谢通门县| 舞阳县| 乌拉特中旗| 中超| 颍上县| 双柏县| 托里县| 临邑县| 镇坪县| 海兴县| 安义县| 丁青县| 塘沽区| 南涧| 玉树县| 南宫市| 灵石县| 轮台县| 德格县| 寻乌县| 额敏县| 德江县| 霞浦县| 闻喜县| 柳江县| 伊春市| 镇平县| 曲水县| 光山县| 克东县| 壤塘县| 黑山县| 获嘉县| 三亚市| 高州市| 晋宁县|