国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進YOLO v3的飛行目標檢測算法研究

2024-12-31 00:00:00李玉虎
機電信息 2024年23期
關(guān)鍵詞:深度學習

摘 要:飛行目標往往呈現(xiàn)為十幾個像素點的小目標,對其準確檢測是黑飛反制、管控等應用中首要解決的問題。鑒于此,提出一種基于改進YOLO v3的方法提高飛行目標的檢測能力。首先為避免梯度消失,增強特征的復用,在特征檢測層引入殘差網(wǎng)絡;其次為提高小目標的檢測能力,增加對4倍下采樣特征的檢測;然后通過數(shù)據(jù)集對未改進YOLO v3和改進后YOLO v3進行訓練獲取模型;最后將Faster R-CNN、未改進YOLO v3和改進后YOLO v3進行實驗對比,數(shù)據(jù)顯示改進后YOLO v3的準確度提升14個百分點以上,能較好地檢測出飛行目標。

關(guān)鍵詞:飛行目標檢測;YOLO v3;深度學習

中圖分類號:TP391" " 文獻標志碼:A" " 文章編號:1671-0797(2024)23-0081-04

DOI:10.19514/j.cnki.cn32-1628/tm.2024.23.018

0" " 引言

深度學習方法是當下十分熱門的研究領域,與傳統(tǒng)學習算法[1-2]相比不需要人工設計特征提取,其通過神經(jīng)網(wǎng)絡對大量數(shù)據(jù)的學習,得到一個能夠準確描述數(shù)據(jù)深層次特征的模型,是一步到位的學習方法,識別效果取決于訓練集數(shù)據(jù)量和學習網(wǎng)絡結(jié)構(gòu)的設計。深度網(wǎng)絡一般參數(shù)量大,所需內(nèi)存較大,訓練數(shù)據(jù)量大且計算過程復雜,一般要借助GPU加速運算[3]。

YOLO(You Only Look Once) v3是Redmon[4]等人在YOLO v2的基礎上融入ResNet網(wǎng)絡而來[5],主要特點有以下幾個方面:

1)Darknet-53結(jié)構(gòu)。隨著網(wǎng)絡加深,網(wǎng)絡的優(yōu)化更加艱難,理論上,越深的網(wǎng)絡,效果應該越好,但實際上,過深的網(wǎng)絡會產(chǎn)生退化問題,效果反而不如相對較淺的網(wǎng)絡[6],因此Darknet-53借鑒深度殘差網(wǎng)絡設計策略,使用Skip Shotcut連接方式構(gòu)建殘差單元,解決深層網(wǎng)絡梯度消失和爆炸問題,保證深層網(wǎng)絡下仍能收斂,特征表達更豐富[7]。

2)多尺度特征融合。YOLO v2中通過轉(zhuǎn)移層將高分辨率特征抽取后拼接在低分辨率特征后,這種做法不改變最終輸出特征的尺度,而改變特征深度,一定程度上破壞了高分辨率特征的結(jié)構(gòu)信息。YOLO v3使用了upsample(上采樣)操作[8],并將大特征圖和小特征圖upsample后的特征圖進行concat,最終輸出三個尺度的特征金字塔,這樣的特征圖既包含豐富的高層抽象特征,又包含精確的位置信息特征[9]。在三個不同的尺度特征下做目標檢測,能夠適應多種不同大小的目標檢測任務。

3)邏輯回歸。YOLO v3中也采用先驗框策略,在每個尺度上設置3個先驗框,3個尺度共設置9個先驗框,采用K-means算法對數(shù)據(jù)集Ground Truth聚類生成先驗框尺寸。YOLO v3用邏輯回歸(logistic regression)為每一個候選框預測一個目標評分(objectness score),如果某個先驗框與Ground Truth的重疊區(qū)域為9個先驗框的最大值,則相對應目標評分置1,即將該先驗框與Ground Truth相匹配,后續(xù)計算誤差時,僅考慮最佳先驗框與Ground Truth的誤差,其他先驗框不會對坐標或類預測造成任何損失。

4)類別預測。針對同一目標給予多種類型標注時,不再采用softMax分類器,而選擇獨立logistic分類器,在訓練過程中,使用二元交叉熵損失進行類預測。

1" " 改進YOLO v3結(jié)構(gòu)

YOLO v3中特征提取部分引入殘差網(wǎng)絡的思想,而目標檢測層仍然采用常規(guī)卷積形式,為避免梯度消失,增強特征的復用,受殘差網(wǎng)絡的啟發(fā),將6個DBL單元分解為2個殘差單元和2個DBL單元,如圖1所示。

特征圖的分辨率會影響目標檢測性能指標,低分辨率特征圖用來表達深層次信息,但其對小目標的語義信息丟失嚴重,一般用作大目標檢測,在攝像機視頻畫面中,飛機占據(jù)少部分像素位置,呈現(xiàn)為較小目標。YOLO v3對8倍、16倍、32倍下采樣特征進行目標檢測,此時對小目標的檢測能力較弱,本文舍棄32倍特征的目標檢測,而增加對4倍下采樣特征的檢測,為保留深層特征信息,仍將32倍特征進行上采樣后與16倍特征結(jié)合,以此增強對小目標檢測的能力。改進后的結(jié)構(gòu)如圖2所示。

2" " 改進YOLO v3網(wǎng)絡訓練

本文研究對象為飛機目標,所搜集數(shù)據(jù)集總計4 000張圖片,其中訓練集3 200張,驗證集800張,通過打標工具LabelImg進行標注,標注完成自動生成

.xml文件。由于數(shù)據(jù)集數(shù)量有限,若對網(wǎng)絡中所有參數(shù)進行訓練,則會產(chǎn)生過擬合現(xiàn)象,模型的泛化能力變差,YOLO v3作者已在ImageNet數(shù)據(jù)集上對Darknet-53結(jié)構(gòu)進行了預訓練,得到了前74層權(quán)重,由于網(wǎng)絡的改進位置在檢測部分,所以在特征提取部分遷移預訓練權(quán)重,僅對深層的檢測、回歸網(wǎng)絡進行訓練。訓練分兩步進行,總共進行200 epoch(所有圖像訓練一輪),第一步訓練100 epoch,設置學習率為0.001,第二次訓練設置學習率0.000 1,若連續(xù)三輪次損失值沒有減小,則學習率降為十分之一,若達到200 epoch或連續(xù)10 epoch損失值沒有減小,則終止訓練。

圖3給出了訓練過程中損失值與epoch的關(guān)系,其中▲線為YOLO v3,lt;E:\雜志\2024\2024年機電\2024-12期\2024-23期\2024-12月機電正文\圖標.jpggt;線代表改進的YOLO v3,改進結(jié)構(gòu)在前40個epoch loss迅速下降至1以下,約60 epoch下降至0.5以下,并逐漸趨于穩(wěn)定,改進后的結(jié)構(gòu)loss值整體要低于未改進結(jié)構(gòu)。圖4給出了Avg IOU與epoch的關(guān)系,改進結(jié)構(gòu)在第50 epoch左右達到0.7,并逐漸穩(wěn)定在0.85,與未改進結(jié)構(gòu)相比,在第37 epoch相交后,改進結(jié)構(gòu)的Avg IOU始終高于未改進結(jié)構(gòu)。在訓練過程中,訓練100 epoch后,每隔10 epoch保存一次模型,首先選出mAP(mean Average Precision)最高的模型作為實驗模型,通過驗證集篩選,YOLO v3在第180 epoch處模型、改進YOLO v3在190 epoch處模型mAP最高。

3" " 實驗結(jié)果及分析

在高性能計算機上訓練得到網(wǎng)絡模型后,在常規(guī)配置計算機(CPU為8核3.5 GHz,內(nèi)存8 GB,GPU GTX1050的臺式計算機)上進行效果驗證。本文對改進YOLO v3、YOLO v3、Faster R-CNN模型進行對比,其中改進YOLO v3和未改進YOLO v3模型由自主訓練而得,F(xiàn)aster R-CNN則選用官方模型作為實驗模型,實驗視頻為航展飛行視頻。

圖5(a)列為Faster R-CNN實驗效果,雖然對小目標具有較好的識別能力,但單幀處理耗時約1.3 s,顯然不能滿足實時處理的要求。圖5(b)為未改進YOLO v3實驗效果,單幀處理耗時約300 ms,但存在兩個問題:其一,識別置信度相比Faster R-CNN模型較低;其二,對小目標檢測能力較差,例如第555幀中,目標完全不能識別。圖5(c)為改進YOLO v3實驗效果,單幀處理耗時340 ms左右,相比未改進模型,檢測網(wǎng)絡的改進中多加入了一次上采樣處理,對大尺度特征圖進行檢測,這是耗時增加的主要原因,也正因為此改進,對小目標的識別能力得到提升。

三種算法對比數(shù)據(jù)如表1所示,其中準確率為置信閾值設置為0.5的條件下正確識別目標與實際目標的比值。

就準確率而言,改進后的YOLO v3相比未改進YOLO v3提升了約14個百分點,而Faster R-CNN準確率最低,其主要原因是采用的官方模型未進行個人數(shù)據(jù)集專項訓練。本文在考慮準確率的同時處理速度也是重要指標,在研究之初,官方模型運行速度耗時較長,距離實時處理要求較遠,因此,未對Faster R-CNN網(wǎng)絡進行專項訓練。就處理速度而言,改進YOLO v3雖然單幀耗時有所增加,但仍然在同一量級。

4" " 結(jié)束語

本文在YOLO v3的基礎上,為避免梯度消失,增強特征的復用,受殘差網(wǎng)絡的啟發(fā),在特征檢測層引入殘差網(wǎng)絡。針對小目標難以檢測的問題,增加對4倍下采樣特征的檢測,并將32倍特征進行上采樣與16倍特征結(jié)合,增強對小目標檢測的能力。通過與Faster R-CNN、未改進YOLO v3對比,實驗顯示,檢測準確率提升了14個百分點,能夠較好地實現(xiàn)小目標的檢測。

[參考文獻]

[1] NASSIH B,AMINE A,NGADI M,et al.DCT and HOG Feature Sets Combined with BPNN for Efficient Face Classification[J].Procedia Computer Science,2019,148:116-125.

[2] OJALA T,PIETIKAINEN M,MAENPAA T.Multiresolution gray-scale and rotation invariant texture classification with local binary patterns[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(7):971-987.

[3] 劉曉楠,王正平,賀云濤,等.基于深度學習的小目標檢測研究綜述[J].戰(zhàn)術(shù)導彈技術(shù),2019(1):100-107.

[4] REDMON J,F(xiàn)ARHADI A.YOLO v3:an incremental improvement[EB/OL].(2020-02-11)[2024-07-28].https://pjreddie.

com/media/files/papers/YOLOv3.pdf.

[5] 歐陽繼紅,王梓明,劉思光.改進多尺度特征的YOLO_v4目標檢測方法[J].吉林大學學報(理學版),2022,60(6):1349-1355.

[6] 耿創(chuàng),宋品德,曹立佳.YOLO算法在目標檢測中的研究進展[J].兵器裝備工程學報,2022,43(9):162-173.

[7] 邵延華,張鐸,楚紅雨,等.基于深度學習的YOLO目標檢測綜述[J].電子與信息學報,2022,44(10):3697-3708.

[8] 張麗瑩,龐春江,王新穎,等.基于改進YOLO v3的多尺度目標檢測算法[J].計算機應用,2022,42(8):2423-2431.

[9] 蔡偉,徐佩偉,楊志勇,等.復雜背景下紅外圖像弱小目標檢測[J].應用光學,2021,42(4):643-650.

收稿日期:2024-08-23

作者簡介:李玉虎(1995—),男,山東濟寧人,碩士,助理實驗師,研究方向:測控技術(shù)與儀器、自動化技術(shù)。

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構(gòu)建
面向大數(shù)據(jù)遠程開放實驗平臺構(gòu)建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
利用網(wǎng)絡技術(shù)促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學習場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
东阳市| 彭水| 汤原县| 长宁区| 离岛区| 栾川县| 兴化市| 皋兰县| 平湖市| 浪卡子县| 天长市| 普定县| 多伦县| 屯留县| 广水市| 赤水市| 盐边县| 洛宁县| 姜堰市| 厦门市| 安远县| 乳源| 石屏县| 六安市| 伊宁县| 乐昌市| 阿拉善盟| 崇州市| 东山县| 濉溪县| 错那县| 沧州市| 句容市| 沾化县| 渭源县| 盱眙县| 上犹县| 化德县| 靖边县| 古蔺县| 屏南县|