国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于PSN?YOLOv7的光學(xué)遙感圖像目標(biāo)檢測(cè)

2024-11-02 00:00:00陳鑫鈺陳媛媛廉永健耿艷兵張楠劉圣仁張玲郡
現(xiàn)代電子技術(shù) 2024年21期
關(guān)鍵詞:多尺度目標(biāo)檢測(cè)深度學(xué)習(xí)

摘 "要: 針對(duì)光學(xué)遙感圖像因目標(biāo)尺度差異大,小目標(biāo)特征信息不足導(dǎo)致的檢測(cè)精度低、誤檢、漏檢問(wèn)題,文中提出一種基于PSN?YOLOv7的光學(xué)遙感圖像目標(biāo)檢測(cè)方法。首先,增加一個(gè)160×160的小目標(biāo)檢測(cè)層,增強(qiáng)網(wǎng)絡(luò)的多尺度目標(biāo)檢測(cè)能力;其次,提出改進(jìn)的ELAN?P和ELAN?WS模塊,在減少計(jì)算量和參數(shù)量的同時(shí),增強(qiáng)全局理解能力減少目標(biāo)特征信息的損失,有效改善誤檢;最后,提出MNI損失函數(shù)改進(jìn)YOLOv7的CIoU位置損失函數(shù),抑制小目標(biāo)造成網(wǎng)絡(luò)損失不平衡的影響,從而減少目標(biāo)漏檢的情況。在DIOR公開(kāi)遙感圖像數(shù)據(jù)集上進(jìn)行訓(xùn)練與測(cè)試,實(shí)驗(yàn)對(duì)比結(jié)果表明,所提方法檢測(cè)精度mAP@0.5為92.3%,比YOLOv7網(wǎng)絡(luò)提高了3.2%,且計(jì)算量和參數(shù)量與原YOLOv7網(wǎng)絡(luò)相當(dāng),提升檢測(cè)精度的同時(shí)保證了網(wǎng)絡(luò)的性能平衡。

關(guān)鍵詞: 光學(xué)遙感圖像; 目標(biāo)檢測(cè); 損失函數(shù); 多尺度; 深度學(xué)習(xí); 特征信息

中圖分類號(hào): TN911.73?34; TP751.1 " " " " " " " "文獻(xiàn)標(biāo)識(shí)碼: A " " " " " " " " " 文章編號(hào): 1004?373X(2024)21?0119?06

Optical remote sensing image object detection based on PSN?YOLOv7

CHEN Xinyu1, CHEN Yuanyuan1, LIAN Yongjian2, GENG Yanbing2, ZHANG Nan1, LIU Shengren1, ZHANG Lingjun2

(1. School of Information and Communication Engineering, North University of China, Taiyuan 030051, China;

2. School of Computer Science and Technology, North University of China, Taiyuan 030051, China)

Abstract: In view of the low detection accuracy, 1 detection and missing detection in optical remote sensing images caused by large difference in object scale and insufficient feature information of small objects, a method of optical remote sensing image object detection based on PSN?YOLOv7 is proposed. A 160×160 small object detection layer is added to enhance the multi?scale object detection capability of the network. The improved ELAN?P (ELAN is the abbreviation of efficient layer aggregation network) and ELAN?WS modules are put forward to strengthen the global understanding ability, reduce the loss of feature information and improve detection effectively while reducing the calculation burden and parameters. The MNI (mixed loss function of NWD and IoU) loss function is proposed to improve the CIoU (complete IoU) position loss function of YOLOv7 to suppress the influence of network loss imbalance caused by small objects, so as to reduce the missing detection of objects. Training and testing were carried out on public remote sensing image dataset DIOR. The results of comparison experiments show that the detection accuracy mAP@0.5 of the proposed method is 92.3%, which is 3.2% higher than that of YOLOv7 network, and its calculation burden and parameters are equivalent to those of the original YOLOv7 network. It can be seen from the above that the proposed algorithm improves the detection accuracy and ensures the performance balance of the network.

Keywords: optical remote sensing image; object detection; loss function; multi?scale; deep learning; feature information

0 "引 "言

光學(xué)遙感圖像目標(biāo)檢測(cè)指利用算法對(duì)感興趣的遙感圖像目標(biāo)自動(dòng)分類與定位,在情報(bào)偵察和災(zāi)害救援等領(lǐng)域有重要作用[1?2]。傳統(tǒng)目標(biāo)檢測(cè)算法通過(guò)支持向量機(jī)[3](Support Vector Machine, SVM)和K?means[4]等分類器檢測(cè),但需要手工構(gòu)建特征。深度學(xué)習(xí)目標(biāo)檢測(cè)算法主要基于anchor?base,分為兩階段模型的R?CNN[5?7]系列、單階段模型的SSD[8]和YOLO系列[9?11],單階段和兩階段算法各有優(yōu)點(diǎn),單階段算法檢測(cè)速度快,兩階段算法檢測(cè)精度高。

通用的深度學(xué)習(xí)算法僅能完成普通的檢測(cè)任務(wù),但對(duì)于多尺度、密集分布及背景復(fù)雜等場(chǎng)景檢測(cè)效果不理想[12]。

針對(duì)此問(wèn)題,國(guó)內(nèi)外學(xué)者進(jìn)行了一系列研究,文獻(xiàn)[13]在SSD算法的基礎(chǔ)上,添加跳躍連接解決層數(shù)增加導(dǎo)致的性能退化問(wèn)題,同時(shí)引入特征融合機(jī)制提高檢測(cè)精度,但計(jì)算量嚴(yán)重增加。文獻(xiàn)[14]引入RepLKDeXt模塊簡(jiǎn)化了YOLOv7模型并增加了模型的適用范圍,但參數(shù)量較大。文獻(xiàn)[15]對(duì)YOLOv3模型進(jìn)行改進(jìn),加快檢測(cè)速度的同時(shí)提升了漏檢率,但檢測(cè)模糊物體的能力較弱。文獻(xiàn)[16]提出了一種新的目標(biāo)檢測(cè)器CF2PN,它通過(guò)多層次、多尺度的特征融合方法,解決了高分辨率遙感圖像中目標(biāo)尺寸差異大的問(wèn)題,但復(fù)雜場(chǎng)景下的檢測(cè)性能差。

本文針對(duì)上述問(wèn)題,以及光學(xué)遙感圖像因目標(biāo)尺度差異大,前景和背景極度不平衡所導(dǎo)致的檢測(cè)精度低、誤檢、漏檢問(wèn)題,對(duì)YOLOv7目標(biāo)檢測(cè)網(wǎng)絡(luò)做出改進(jìn)與性能優(yōu)化,提出一種基于PSN?YOLOv7(PSA?SCConv?NWD with YOLOv7)的光學(xué)遙感圖像目標(biāo)檢測(cè)算法。本文所作的改進(jìn)與創(chuàng)新如下。

1) 在YOLOv7網(wǎng)絡(luò)的head部分增加一個(gè)160×160的小目標(biāo)檢測(cè)層,增強(qiáng)網(wǎng)絡(luò)的多尺度目標(biāo)檢測(cè)能力,并從主干引入新的特征提取分支獲取更多特征信息。

2) 提出新的特征提取模塊ELAN?P和ELAN?WS,減少計(jì)算量和參數(shù)量的同時(shí),減少目標(biāo)特征信息的損失并抑制無(wú)用信息的提取,減小算法的誤檢率。

3) 提出MNI損失函數(shù)改進(jìn)YOLOv7的位置損失函數(shù)CIoU,減少小目標(biāo)對(duì)網(wǎng)絡(luò)造成的損失不平衡影響,進(jìn)一步減少目標(biāo)漏檢的情況。

4) 調(diào)整網(wǎng)絡(luò)的先驗(yàn)框,進(jìn)一步提升算法的檢測(cè)精度。

1 "PSN?YOLOv7目標(biāo)檢測(cè)網(wǎng)絡(luò)

1.1 "新增小目標(biāo)檢測(cè)層

光學(xué)遙感圖像目標(biāo)尺度變化大且包含許多小目標(biāo),雖然YOLOv7網(wǎng)絡(luò)具有多尺度(80×80、40×40、20×20三個(gè)不同的檢測(cè)頭)檢測(cè)能力來(lái)分別檢測(cè)大、中、小目標(biāo),但80×80檢測(cè)頭得到的特征圖是經(jīng)過(guò)多次卷積和主干網(wǎng)絡(luò)的8倍下采樣融合生成,在此過(guò)程中淺層特征信息大量丟失,且圖像中占像素較少的小目標(biāo)特征信息丟失更加嚴(yán)重,從而造成小目標(biāo)的漏檢問(wèn)題。本文使用的數(shù)據(jù)集圖像像素大小為800×800,而小目標(biāo)占比[17]為10%。考慮到上述問(wèn)題,根據(jù)感受野的原理和保持網(wǎng)絡(luò)多尺度特征檢測(cè)的能力,在YOLOv7網(wǎng)絡(luò)的head部分直接新增一個(gè)160×160的檢測(cè)頭,可以將輸入圖像的每個(gè)網(wǎng)格單元最小化至5×5,極大提升模型對(duì)小目標(biāo)的檢測(cè)能力。

此外,考慮到隨著網(wǎng)絡(luò)深度的增加,深層網(wǎng)絡(luò)能夠獲取到的小目標(biāo)特征信息在底層十分有限,且包含大量噪聲及冗余特征,本文從主干網(wǎng)絡(luò)引入新的特征提取層,通過(guò)重構(gòu)與融合操作整合特征信息,并抑制噪聲和冗余特征,構(gòu)建并行多分支特征融合網(wǎng)絡(luò)獲取更多的有效特征信息。PSN?YOLOv7的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

1.2 "改進(jìn)的ELAN?P和ELAN?WS結(jié)構(gòu)

光學(xué)遙感圖像中背景復(fù)雜和前景極度不平衡,背景占據(jù)圖像中的大部分區(qū)域,且圖像中目標(biāo)尺度不一,因此特征提取模塊的構(gòu)建十分關(guān)鍵。YOLOv7網(wǎng)絡(luò)中特征提取主要由ELAN(Efficient Layer Aggregation Network)與ELAN?WS模塊完成,這兩個(gè)模塊由大量CBS模塊堆疊而成,雖能有效提取特征信息,但大量堆疊時(shí)容易造成細(xì)節(jié)損失且只能捕獲局部信息,對(duì)于小目標(biāo)的檢測(cè)尤其不利。

因此,本文將PSA[18](Pyramid Squeeze Attention)注意力機(jī)制嵌入到ELAN結(jié)構(gòu)中建立遠(yuǎn)程通道依賴關(guān)系,獲取更多的特征信息。將PSA注意力機(jī)制直接嵌入ELAN中,計(jì)算量和參數(shù)量大大增加,故使用深度可分離卷積將PSA注意力機(jī)制改進(jìn)為L(zhǎng)PSA(Lighter Pyramid Squeeze Attention)模塊。改進(jìn)后的ELAN?P結(jié)構(gòu)如圖2所示。

考慮到主干網(wǎng)絡(luò)中的ELAN模塊已提取到大量特征信息,而ELAN?WS模塊是為進(jìn)一步加強(qiáng)特征提取能力獲取更豐富的特征信息,但光學(xué)遙感圖像中背景像素占比遠(yuǎn)高于目標(biāo),此時(shí)得到的特征中會(huì)含有大量無(wú)用的信息,并且大量的無(wú)用信息會(huì)嚴(yán)重影響網(wǎng)絡(luò)的檢測(cè)能力。為解決此問(wèn)題,使用SCConv[19](Spatial and Channel Reconstruction Convolution)改進(jìn)CBS(Conv?BN?SiLU)模塊,并嵌入到ELAN?WS結(jié)構(gòu)中,抑制多余的特征信息提升目標(biāo)檢測(cè)的精度,減少模型計(jì)算量和參數(shù)量的同時(shí)減小內(nèi)存訪問(wèn)成本,提高模型訓(xùn)練效率。改進(jìn)后的ELAN?WS模塊結(jié)構(gòu)如圖3所示。

1.3 "MNI損失函數(shù)

光學(xué)遙感圖像中的目標(biāo)方向是隨機(jī)分布的,且一張圖像中包含的目標(biāo)非常多,不同物體邊界框交叉重疊容易漏檢和錯(cuò)檢。使用IoU[20](Intersection over Union)計(jì)算損失函數(shù)具有非負(fù)性、尺度不變性等優(yōu)點(diǎn),但無(wú)法解決以下情況:

1) 不同方向上兩個(gè)相同交叉級(jí)別IoU完全相等,此時(shí)無(wú)法判斷預(yù)測(cè)的準(zhǔn)確性。

2) 兩個(gè)目標(biāo)沒(méi)有重疊時(shí),IoU為0、梯度為0,網(wǎng)絡(luò)更新停止。NWD[21](Normalized Wasserstein Distance)的主要優(yōu)點(diǎn)是沒(méi)有重疊或重疊時(shí)可以忽略不計(jì),它也可以使用度量分布的相似度來(lái)計(jì)算損失函數(shù),可以有效改善小目標(biāo)的檢測(cè)精度與漏檢問(wèn)題,但NWD需要解決最優(yōu)運(yùn)輸問(wèn)題,計(jì)算復(fù)雜度高。

考慮到光學(xué)遙感數(shù)據(jù)集中目標(biāo)是多尺度的,因此使用MNI(Mixed Loss Function of NWD and IoU)損失函數(shù)計(jì)算位置損失,即使用NWD和IoU度量的混合損失函數(shù)。設(shè)水平邊界框[H]=([xc],[yc],[w],[h]),則MNI損失函數(shù)定義如下:

[LMNI=1-λIoU-(1-λ)NWD+ε] (1)

[NWD=e-DC] (2)

[IoU=Area?AreaGTArea?AreaGT] (3)

[D=(xc-xGTc)2+(yc-yGTc)2+(w-wGT)2+(h-hGT)2Δ2] (4)

式中:[λ]為超參數(shù),計(jì)算損失函數(shù)時(shí)用來(lái)調(diào)節(jié)NWD和IoU的比例;[ε]=10-6是一個(gè)誤差校正系數(shù);[C]為常數(shù),是數(shù)據(jù)集中目標(biāo)的絕對(duì)平均尺寸;([xGTc],[yGTc])、[wGT]、[hGT]分別是真實(shí)框的中心坐標(biāo)以及寬高;[Δ]=2,是一個(gè)常數(shù);[Area]和[AreaGT]分別為預(yù)測(cè)框和真實(shí)框。

2 "實(shí) "驗(yàn)

2.1 "數(shù)據(jù)集及預(yù)處理

實(shí)驗(yàn)使用公開(kāi)的光學(xué)遙感圖像數(shù)據(jù)集DIOR,其涵蓋20個(gè)對(duì)象類,每幅圖像像素為800×800,空間分辨率為0.5~30 m,且在不同季節(jié)、天氣等場(chǎng)景下獲得。實(shí)驗(yàn)中訓(xùn)練集、驗(yàn)證集、測(cè)試集的比例為7∶1∶2。先驗(yàn)框的大小對(duì)于檢測(cè)精度有著不小的影響,因此,本文使用K?means聚類算法為DIOR數(shù)據(jù)集重新生成先驗(yàn)框,每個(gè)檢測(cè)頭設(shè)定3組先驗(yàn)框,具體配置如表1所示。

2.2 "實(shí)驗(yàn)環(huán)境與參數(shù)設(shè)置

實(shí)驗(yàn)基于RTX6000(GPU)計(jì)算機(jī),環(huán)境搭建于Windows 10操作系統(tǒng)下的Python 3.6,PyTorch 1.9,CUDA 10.2。訓(xùn)練時(shí)初始學(xué)習(xí)率設(shè)置為0.01,最小學(xué)習(xí)率為0.001。采用SGD優(yōu)化器更新網(wǎng)絡(luò)參數(shù),batch?size為16,epoch為200。

2.3 "性能評(píng)價(jià)指標(biāo)

本文的性能評(píng)價(jià)指標(biāo)有:[P]、[R]、AP、mAP@0.5、Params和GFLOPs。[P]、[R]分別為目標(biāo)的查準(zhǔn)率和召回率;Params為參數(shù)量,用來(lái)衡量算法的空間復(fù)雜度;GFLOPs為計(jì)算量,用來(lái)衡量算法的時(shí)間復(fù)雜度;FPS為每秒傳輸幀數(shù),用來(lái)衡量模型的推理速度。

網(wǎng)絡(luò)的樣本有正樣本和負(fù)樣本之分,由于網(wǎng)絡(luò)的影響,對(duì)于樣本的識(shí)別有差異。定義TP為正樣本被識(shí)別為正類,F(xiàn)N為正樣本被識(shí)別為負(fù)類,TN為負(fù)樣本被識(shí)別為負(fù)類,F(xiàn)P為負(fù)樣本被識(shí)別為正類。查準(zhǔn)率和召回率如式(5)和式(6)所示:

[Precision=TPTP+FP] (5)

[Recall=TPTP+FN] (6)

AP為Precision?Recall曲線在Recall從0~1的積分。一般來(lái)說(shuō),AP值越高,該網(wǎng)絡(luò)對(duì)于某單類別目標(biāo)的檢測(cè)性能較好。設(shè)Precision?Recall曲線的函數(shù)為[f(x)],則公式定義為式(7)。

[AP=01f(x)dx] (7)

mAP為數(shù)據(jù)集中所有類別AP值的平均值,可以衡量所有訓(xùn)練類別的性能,mAP越大,說(shuō)明訓(xùn)練好的模型性能越優(yōu)良。mAP定義見(jiàn)式(8):

[mAP=t=1TAPtT] (8)

式中[T]為總類別數(shù)。

2.4 "超參數(shù)實(shí)驗(yàn)

[λ]為調(diào)節(jié)IoU和NWD比例的超參數(shù)。為檢驗(yàn)NWD改進(jìn)網(wǎng)絡(luò)的有效性,在添加160×160檢測(cè)頭的網(wǎng)絡(luò)上設(shè)計(jì)實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表2所示。

分析表2中的實(shí)驗(yàn)結(jié)果,以IoU為0.5的標(biāo)準(zhǔn)判斷,當(dāng)[λ]=0.2,計(jì)算損失函數(shù)時(shí)IoU和NWD的比例為1∶4,數(shù)據(jù)集中的小目標(biāo)檢測(cè)精度有所提高,mAP@0.5達(dá)到了最大值90.6;當(dāng)IoU在0.5~0.95區(qū)間取值,以整個(gè)區(qū)間的精度為判斷標(biāo)準(zhǔn),[λ]=0.5時(shí),mAP@0.5:0.95達(dá)到了最大值66.7,IoU和NWD的比例為1∶1時(shí)在整個(gè)區(qū)間達(dá)到了最優(yōu)值,各尺度目標(biāo)檢測(cè)精度均得到了較好的提升。經(jīng)過(guò)實(shí)驗(yàn)驗(yàn)證與數(shù)據(jù)分析,當(dāng)[λ]=0.2時(shí),mAP@0.5達(dá)到了最大值,且mAP@0.5:0.95僅比最優(yōu)值小0.2%,故將[λ]=0.2確定為最優(yōu)超參數(shù)值。

2.5 "消融實(shí)驗(yàn)

為驗(yàn)證PSN?YOLOv7目標(biāo)檢測(cè)網(wǎng)絡(luò)的有效性以及提出的各種改進(jìn)措施對(duì)遙感圖像目標(biāo)檢測(cè)性能的提升作用,以YOLOv7為基準(zhǔn)模型進(jìn)行了一系列消融實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表3所示,表中“√”代表改進(jìn)使用了此模塊。

分析表3消融實(shí)驗(yàn)結(jié)果,可得出如下結(jié)論。

1) 改進(jìn)1是加入160×160檢測(cè)頭以及新的特征提取層,相較于YOLOv7,改進(jìn)1的精度有所增長(zhǎng),主要原因是提升了小目標(biāo)的檢測(cè)精度,但參數(shù)量和計(jì)算量大幅增加。

2) 改進(jìn)2是在改進(jìn)1的基礎(chǔ)上,使用新的MNI損失函數(shù)計(jì)算網(wǎng)絡(luò)的位置損失,召回率提升1.3%,證明此改進(jìn)方法有效提升了小目標(biāo)的位置損失對(duì)網(wǎng)絡(luò)帶來(lái)的影響。

3) 改進(jìn)3和改進(jìn)4是在改進(jìn)1的基礎(chǔ)上,分別將ELAN?P和ELAN?WS模塊嵌入到新的網(wǎng)絡(luò)中,此兩種改進(jìn)方法的查準(zhǔn)率分別提升2%和1.4%,同時(shí)檢測(cè)精度分別提升1.7%、1.1%,證明網(wǎng)絡(luò)提取特征的能力加強(qiáng),且改進(jìn)后的網(wǎng)絡(luò)參數(shù)量和計(jì)算量有所下降。

4) 改進(jìn)5和改進(jìn)6在改進(jìn)3和改進(jìn)4的基礎(chǔ)上使用MNI計(jì)算損失函數(shù),保持查準(zhǔn)率的同時(shí),兩者的召回率均提高1.9%,證明位置回歸對(duì)于網(wǎng)絡(luò)的影響減小,模型的魯棒性增強(qiáng)。

5) 改進(jìn)7是將ELAN?P和ELAN?WS模塊同時(shí)嵌入到改進(jìn)1的網(wǎng)絡(luò)中,查準(zhǔn)率提升2.1%,檢測(cè)精度提升1.8%,證明網(wǎng)絡(luò)提取特征能力增強(qiáng)的同時(shí)剔除無(wú)用信息的能力也得到增強(qiáng)。

6) PSN?YOLOv7是在改進(jìn)7的基礎(chǔ)上使用MNI計(jì)算損失函數(shù),相較于基準(zhǔn)模型YOLOv7,查準(zhǔn)率提升3.4%,召回率提升2.4%,檢測(cè)精度提升3.2%,參數(shù)量持平,GFLOPs僅增長(zhǎng)1.1。

2.6 "對(duì)比實(shí)驗(yàn)

為了驗(yàn)證PSN?YOLO算法的優(yōu)越性,將本文設(shè)計(jì)算法與其他主流算法進(jìn)行對(duì)比。表4給出了不同算法的實(shí)驗(yàn)結(jié)果。

由表4的實(shí)驗(yàn)結(jié)果可知:PSN?YOLOv7算法的性能明顯優(yōu)于Faster?RCNN、SSD、YOLOv3等經(jīng)典目標(biāo)檢測(cè)算法,檢測(cè)精度提高的同時(shí)保證了模型的檢測(cè)速度;PSN?YOLOv7算法的查準(zhǔn)率僅比YOLOv5低0.1%,推理速度僅比YOLOv8減少了4.1 f/s,而召回率和檢測(cè)精度高于所有算法。

2.7 "檢測(cè)結(jié)果可視化分析

挑選出6個(gè)背景復(fù)雜、易誤檢、易漏檢的場(chǎng)景可視化,進(jìn)一步展示PSN?YOLOv7算法的優(yōu)越性。圖4a)、圖4b)分別為YOLOv7、PSN?YOLOv7算法的預(yù)測(cè)結(jié)果,可以看出PSN?YOLOv7的檢測(cè)精度在各場(chǎng)景中均優(yōu)于YOLOv7,展示出了PSN?YOLOv7算法的優(yōu)越性。圖4c)、圖4d)分別為YOLOv7、PSN?YOLOv7算法的熱力圖可視化結(jié)果,可以看出,YOLOv7算法有誤檢目標(biāo),且提取冗余特征信息過(guò)多,降低檢測(cè)精度的同時(shí)大量增加了算法的復(fù)雜度。相比之下,PSN?YOLOv7算法具有更強(qiáng)的特征提取能力,能夠提取到更多關(guān)鍵的語(yǔ)義信息和細(xì)節(jié)特征,抑制了大量的冗余特征,更加關(guān)注目標(biāo)所在區(qū)域,減少了目標(biāo)誤檢的情況,從而大幅提升了目標(biāo)的檢測(cè)精度。

3 "結(jié) "語(yǔ)

本文以YOLOv7為基準(zhǔn)模型,針對(duì)光學(xué)遙感圖像受多尺度與背景復(fù)雜的影響而導(dǎo)致檢測(cè)精度低、誤檢、漏檢的問(wèn)題,通過(guò)多種改進(jìn)措施,提出了一種光學(xué)遙感圖像目標(biāo)檢測(cè)算法PSN?YOLOv7。新增160×160的檢測(cè)頭增強(qiáng)了網(wǎng)絡(luò)檢測(cè)小目標(biāo)的能力;ELAN?P和ELAN?WS模塊加強(qiáng)了網(wǎng)絡(luò)提取特征的能力,并抑制無(wú)用信息的影響,誤檢目標(biāo)大量減少,配合新增的檢測(cè)頭使得網(wǎng)絡(luò)擁有良好的多尺度檢測(cè)能力。進(jìn)一步使用改進(jìn)的MNI損失函數(shù)計(jì)算位置損失,抑制了小目標(biāo)損失造成的網(wǎng)絡(luò)不平衡,減小了模型的誤檢率,同時(shí)增加了模型的魯棒性與泛化能力。保持高檢測(cè)精度的同時(shí)平衡了模型各方面的性能,可以滿足光學(xué)遙感圖像目標(biāo)檢測(cè)的需求。

注:本文通訊作者為陳媛媛。

參考文獻(xiàn)

[1] 聶光濤,黃華.光學(xué)遙感圖像目標(biāo)檢測(cè)算法綜述[J].自動(dòng)化學(xué)報(bào),2021,47(8):1749?1768.

[2] 馮長(zhǎng)峰,王春平,付強(qiáng),等.基于深度學(xué)習(xí)的光學(xué)遙感圖像目標(biāo)檢測(cè)綜述[J].激光與紅外,2023,53(9):1309?1319.

[3] OSUNA E, FREUND R M, GIROSIT F. Training support vector machines: An application to face detection [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 1997: 130?136.

[4] KAYASAL U. Magnetometer aided inertial navigation system: Modeling and simulation of a navigation system with an IMU and a magnetometer [M]. United Kingdom: LAMBERT Academic Publishing, 2009: 74?77.

[5] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2014: 580?587.

[6] REN S Q, HE K M, GIRSHICK R B, et al. Faster R?CNN: Towards real?time object detection with region proposal networks [J]. IEEE transactions on pattern analysis and machine intelligence, 2017, 39(6): 1137?1149.

[7] HE K M, GKIOXARI G, DOLLAR P, et al. Mask R?CNN [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2017: 2980?2988.

[8] LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single shot MultiBox detector [C]// Proceedings of European Conference on Computer Vision. Heidelberg: Springer, 2016: 21?37.

[9] REDMON J, FARHADI A. YOLOv3: An incremental improvement [EB/OL]. [2018?08?13]. http://arxiv.org/abs/1804.02767.

[10] WANG C Y, BOCHKOVSKIY A, LIAO H Y M. Scaled?YOLOv4: Scaling cross stage partial network [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2021: 13029?13038.

[11] WANG C Y, BOCHKOVSKIY A, LIAO H Y M. YOLOv7: Trainable bag?of?freebies sets new state?of?the?art for real?time object detectors [EB/OL]. [2023?09?30]. https://doi.org/10.48550/arXiv.2207.02696.

[12] 付宏建,白宏陽(yáng),郭宏偉,等.融合多注意力機(jī)制的光學(xué)遙感圖像目標(biāo)檢測(cè)方法[J].光子學(xué)報(bào),2022,51(12):312?320.

[13] 裴偉,許晏銘,朱永英,等.改進(jìn)的SSD航拍目標(biāo)檢測(cè)方法[J].軟件學(xué)報(bào),2019,30(3):738?758.

[14] 李安達(dá),吳瑞明,李旭東.改進(jìn)YOLOv7的小目標(biāo)檢測(cè)算法研究[J].計(jì)算機(jī)工程與應(yīng)用,2024,60(1):122?134.

[15] XU D, WU Y. FE?YOLO: A feature enhancement network for remote sensing target detection [J]. Remote sensing, 2021, 13: 1311.

[16] HUANG W, LI G, CHEN Q, et al. CF2PN: A cross?scale feature fusion pyramid network based remote sensing target detection [J]. Remote sensing, 2021, 13(5): 847.

[17] LI Z, WANG Y, ZHANG N, et al. Deep learning?based object detection techniques for remote sensing images: A survey [J]. Remote sensing, 2022, 14(10): 2385.

[18] ZHANG H, ZU K K, LU J, et al. EPSANet: An efficient pyramid squeeze attention block on convolutional neural network [EB/OL]. [2021?05?30]. https://api.semanticscholar.org/CorpusID:236177840.

[19] LI J F, WEN Y, HE L H. SCConv: Spatial and channel reconstruction convolution for feature redundancy [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2023: 6153?6162.

[20] YU J H, JIANG Y N, WANG Z Y, et al. UnitBox: An advanced object detection network [EB/OL]. [2018?08?13]. http://arxiv.org/abs/1608.01471.

[21] WANG J W, XU C, YANG W, et al. A normalized Gaussian Wasserstein distance for tiny object detection [EB/OL]. [2022?12?15]. https://arxiv.org/abs/2110.13389.

作者簡(jiǎn)介:陳鑫鈺(1997—),男,甘肅平?jīng)鋈?,碩士研究生,研究方向?yàn)橛?jì)算機(jī)視覺(jué)和目標(biāo)檢測(cè)。

陳媛媛(1980—),女,山西太原人,博士研究生,教授,博士生導(dǎo)師,研究方向?yàn)楣怆娦畔⑻幚砑夹g(shù)。

猜你喜歡
多尺度目標(biāo)檢測(cè)深度學(xué)習(xí)
海綿城市建設(shè)研究進(jìn)展與若干問(wèn)題探討
一種基于多尺度數(shù)學(xué)形態(tài)學(xué)的心電信號(hào)去噪方法
多尺度高效用水評(píng)價(jià)
視頻中目標(biāo)檢測(cè)算法研究
軟件(2016年4期)2017-01-20 09:38:03
行為識(shí)別中的人體運(yùn)動(dòng)目標(biāo)檢測(cè)方法
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
軟件工程(2016年8期)2016-10-25 15:47:34
移動(dòng)機(jī)器人圖像目標(biāo)識(shí)別
含山县| 正定县| 靖西县| 沐川县| 赤壁市| 清镇市| 临潭县| 祁阳县| 五大连池市| 乌海市| 皋兰县| 长垣县| 临猗县| 浦县| 台北县| 犍为县| 岳普湖县| 吉安县| 西贡区| 河西区| 克什克腾旗| 洪江市| 汨罗市| 灵台县| 新津县| 德化县| 嵊泗县| 湖州市| 富蕴县| 石柱| 永德县| 诸城市| 读书| 玉溪市| 阿鲁科尔沁旗| 大姚县| 新郑市| 合作市| 丹凤县| 巩留县| 新源县|