国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于多尺寸特征疊加的SAR艦船目標檢測方法

2021-05-06 14:50魏松杰張澤棟徐臻劉梅林陳偉
湖南大學學報·自然科學版 2021年4期
關鍵詞:目標檢測

魏松杰 張澤棟 徐臻 劉梅林 陳偉

摘 ? 要:針對SAR圖像中艦船目標的檢測問題,單純基于深度學習的圖像處理技術難以達到檢測準確性和實時性要求. SAR圖像中目標尺寸較小,且易受噪聲、光斑干擾,傳統(tǒng)方法難以提取精細特征并克服復雜條件下的背景干擾. 針對以上問題,設計基于YOLOv3檢測框架的端到端檢測模型,借鑒了殘差模塊結構來避免網(wǎng)絡退化問題. 同時結合深層與淺層的不同尺寸特征圖檢測,使用目標基礎特征提取網(wǎng)絡參數(shù)來避免重復訓練初始化過程. 針對SAR 圖像中海上艦船成像小目標的特點改進優(yōu)化了神經(jīng)網(wǎng)絡結構,實現(xiàn)SAR海面廣域艦船目標識別分類算法,并對檢測模型進行輕量化壓縮處理. 構建SAR圖像艦船目標數(shù)據(jù)集并進行了多次目標檢測識別分類實驗,體現(xiàn)了提出的檢測方法在復雜場景下有可靠的抗干擾能力和準確的目標檢測識別性能.

關鍵詞:SAR圖像;目標檢測;多尺度特征;深度神經(jīng)網(wǎng)絡

中圖分類號:TN 957.52 ? ? ? ? ? ? ? ? ? ? ? ? ?文獻標志碼:A

Method of Vessel Target Detection in SAR Images Based

on Multi-scale Feature Superposition

WEI Songjie1,ZHANG Zedong1,XU Zhen1,LIU Meilin2,3,CHEN Wei1

(1. School of Computer Science and Engineering,Nanjing University of Science and Technology,Nanjing 210094,China;

2. School of Aeronautics and Astronautics,Shanghai Jiao Tong University,Shanghai 200240,China;

3. Shanghai Institute of Satellite Engineering,Shanghai 200240,China)

Abstract:For marine vessel target detection in SAR images,deep learning technology alone usually has difficulty in satisfying the detection requirements in accuracy and timeliness. Vessel targets in SAR image are of small sizes and resolutions,which are easily interfered by noise and spot interruption. It is challenging to extract subtle features and eliminate background interference under complex conditions. To overcome the above problems,we propose an end-to-end new detection model based on YOLOv3 framework. The residual module structure is used to avoid network degradation. Combined with deep and shallow feature detection of different target sizes,we extract network parameters for basic features to avoid training from scratch. At the same time,according to the characteristics of small vessel targets in SAR image,the neural network structure is further optimized to achieve fast target detection and categorization in wide-area SAR images,and the detection model is compressed and light-weighted. We construct and utilize a SAR image dataset with different vessel targets for target detection and classification test. The experimental results show that the proposed detection method shows significant anti-jamming ability and detection performance in complex scenes.

Key words:SAR image;target detection;multi-scale features;deep neural network

艦船目標檢測在海洋監(jiān)測和國土安全領域的作用愈發(fā)重要,包括海事安全、海上交通、海洋污染防治和邊境管制方面具有較為廣泛的應用[1]. 合成孔徑雷達(Synthetic Aperture Radar,SAR)通過保證相參性的脈沖發(fā)射信號,具有較高的分辨率,可以全天時、全天候工作,自問世以來,就在民用遙感、測繪和軍事目標探測領域展現(xiàn)出優(yōu)秀的能力[2],隨著海洋船舶技術的發(fā)展,Sentinel-1、ERS系列和高分系列等衛(wèi)星相繼出現(xiàn),基于SAR圖像的艦船目標檢測應用場景和應用效果不斷擴展提高.

恒虛警處理(CFAR)可以對潛在的艦船區(qū)域進行提取,通過既定的檢測方法確定閾值,輸入信號中根據(jù)閾值確定像素是否為目標像素,為保持虛警的概率,閾值會根據(jù)輸入中的噪聲以適當?shù)囊?guī)則保持恒定,并降低噪聲、雜波等干擾對虛警率的影響. 針對目標運動時的距離分量導致方位偏移問題,文獻[3]通過線性積分和長度歸一化技術,將線性特征轉化為點特征來構建概率模型實現(xiàn)CFAR檢測. 文獻[4]提出了一種基于非對稱映射和選擇性濾波方法的自適應閾值單元平均恒虛警率船舶檢測算法,實驗證明使用所提出的過濾步驟可以降低虛警率,且不降低檢測率.

計算機視覺領域的優(yōu)秀目標檢測與框架不斷推陳出新,基于深度學習的目標檢測技術已經(jīng)逐漸代替?zhèn)鹘y(tǒng)的方法,成為目標檢測領域的主流技術,而卷積神經(jīng)網(wǎng)絡(Convolutional Neural Networks,CNN)[5]憑借其良好的特征自提取能力,共享卷積參數(shù)等天然優(yōu)勢,已經(jīng)廣泛地應用在目標檢測領域. 基于卷積神經(jīng)網(wǎng)絡的檢測方法主要分為基于候選區(qū)域的雙階段目標檢測方法與單次目標檢測方法. 其中以R-CNN[6]、Fast R-CNN[7]、Faster R-CNN[8]、R-FCN[9]和Mask R-CNN[10]為代表的基于候選區(qū)域的雙階段目標檢測方法通過特征圖提取候選區(qū)域,判斷錨點屬于前景或背景,利用邊框回歸與分類器修正得到檢測目標分類信息和位置坐標. 而YOLO[11]就是基于回歸策略的單階段檢測方法,直接使用一個卷積神經(jīng)網(wǎng)絡同時預測邊界框的位置和類別. SSD[12]以YOLO 基于回歸的思想為基礎,使用小卷積濾波器預測目標類別和偏移,并通過將其應用于多個特征映射可以達到多尺度檢測. 之后在YOLO和SSD的基礎上又衍生出了YOLOv2[13]、YOLOv3[14]、RetinaNet[15]、RefineDet[16]、M2Det[17]等算法,在檢測精度和效率上更加優(yōu)秀.

以上述多個目標檢測算法為基礎,文獻[18]以RetinaNet為基礎結構,對特征金字塔網(wǎng)絡進行改進,提升特征的提取效果,使用遷移學習等方法,相比原算法有更高的準確率. 文獻[19]針對小目標密集難以檢測問題,針對艦船目標設計不同尺度的轉換功能,連接到多個特征地圖以獲取多比例尺特征,加入上下文特征以輔助復雜目標的檢測,達到了較好的檢測性能. 文獻[20]設計包括兩層結構的級聯(lián)卷積框架,首先對目標初步的快速篩選,然后借鑒遷移學習方法初始化特征提取網(wǎng)絡,結合矩形旋轉框等技術可以保證達到較好的檢測精度的條件下優(yōu)化了檢測效率. 文獻[21]提出一種多輸入分辨率CNN模型,模型中不同輸入分辨率的組合提高了提取特征的能力,在多類別通用數(shù)據(jù)集上交叉評估,分類精度得以提高. 文獻[22]在Faster-RCNN網(wǎng)絡的基礎上針對SAR圖像艦船目標調整錨框大小以及損失函數(shù),檢測精度和效率有相應的提高,并制作了艦船檢測領域的數(shù)據(jù)集,包含上千圖片和不同形態(tài)、特點的目標,為艦船目標檢測領域提供了良好的檢測樣本. 文獻[23]提出一種基于多尺度特征融合的卷積神經(jīng)網(wǎng)絡來生成更加豐富的語義信息,在SAR圖像艦船目標識別體現(xiàn)出較好的效果. 本文同樣以多尺度特征融合為主要思想,在特征融合過程中應用更深層次的特征圖,增加一次融合操作,此外特別針對艦船目標獨有特征設計篩選過程,完成SAR圖像艦船目標的識別,同時完成艦船目標的分類功能.

針對SAR艦船目標中不同尺度目標對檢測結果的影響,本文借鑒YOLOv3檢測算法中可變尺度特征圖和回歸策略,設計了多層次特征檢測的卷積神經(jīng)網(wǎng)絡,通過改進YOLOv3模型增強網(wǎng)絡對不同尺度艦船目標的適應能力,對多種尺度的檢測目標使用相適應特征圖進行提取,對檢測損失函數(shù)進行相應的改進,模型通過共享參數(shù)和剪枝壓縮進行輕量化處理,同時建立了包含四種類別的艦船檢測數(shù)據(jù)集,使用預訓練權重等方法,進行了多組對比分析實驗進行驗證.

1 ? 模型方法

模型的整體流程如圖1所示,圖中數(shù)字對應文中相應章節(jié). 首先對原始的SAR圖像進行圖像的預處理操作,然后將圖像裁剪成適合神經(jīng)網(wǎng)絡接受的大小,通過特征疊加網(wǎng)絡得到不同尺寸的特征圖,對每種特征圖的預測結果進行篩選,區(qū)分正負樣本,然后通過計算損失函數(shù)的大小來確定最終檢測結果.

1.1 ? 模型設計流程

1.1.1 ? 殘差網(wǎng)絡模塊

基于前饋神經(jīng)網(wǎng)絡的結構,隨著隱藏層數(shù)的增加,對輸入特征抽象層次越來越高,可提取不同層次特征越豐富,由此增加網(wǎng)絡的寬度和深度可以對網(wǎng)絡的性能有相應的提升,但隨著網(wǎng)絡層數(shù)的不斷增加,由于樣本中噪聲干擾或模型復雜度過高,在反向傳播過程中網(wǎng)絡權值參數(shù)的連乘產生梯度彌散或爆炸問題.

殘差網(wǎng)絡(Residual Network) 的出現(xiàn)很好地解決了這些問題,對于網(wǎng)絡層數(shù)的增加而出現(xiàn)的退化問題,使得在中間某一層已經(jīng)達到了較好的參數(shù)調整,所以更深層次的網(wǎng)絡至少保證了不低于低層次的網(wǎng)絡,恒等快捷連接(shortcut connection)可以使映射對輸出的變化更靈敏,由于其學習的是兩層參數(shù)之間的差值,比直接擬合效果的作用占比更大,所以在訓練更深網(wǎng)絡的同時,可以保證性能不會退化,殘差網(wǎng)絡中的殘差模塊結構如圖2所示. 這樣的結構對于恒等映射,上一層的輸出x到更深一層的輸出H(x),參數(shù)的學習調整函數(shù)F(x)會不斷擬合兩者相等的關系,而殘差結構會學習F(x)=H(x)-x這個差值,因為相比通過非線性層來擬合,將殘差推到0會更加容易. 使用這種殘差學習方法沒有減小回傳損失,但差值的學習對比原來線性學習的參數(shù)量更小,相當于增加了對損失誤差的靈敏度,在不斷增加網(wǎng)絡層數(shù)后也可以保持精度的平穩(wěn)率.

1.1.2 ? 網(wǎng)絡結構

特征融合結構如圖3所示,其基本原理借鑒YOLOv3目標檢測算法,通常卷積操作會獲得更高層次的語義信息,但隨著多次下采樣操作,對于艦船等低分辨率小目標提取的信息不足,增加特征融合結構,利用特征金字塔中不同尺寸特征圖結合檢測有利于提取不同分辨率、多尺寸目標的語義信息.

特征提取網(wǎng)絡如圖4所示,由兩種步長3×3和1×1的卷積層疊加而成.

檢測的基本過程是產生不同尺寸的先驗框,通過損失函數(shù)不斷調節(jié)位置,使用非極大值抑制算法根據(jù)目標分類得到的邊界框概率排序后,去掉概率得分較低的邊框得到結果,篩選出預設閾值以上的集合.

對于尺寸為416×416的原始圖片會生成4種不同尺寸的特征圖,如圖5所示,對應提取不同分辨率的語義信息,因為直接使用多尺度特征圖分別進行不同的檢測生成的參數(shù)量過大,為此多尺度特征圖通過上采樣與淺層特征融合可以使小目標可以同時關注低分辨率的部分特征與全局信息.

如原始圖片尺寸為416×416,經(jīng)過5次卷積操作和后隨的2步長的池化操作,其中一個輸出的張量為13×13×255,為了使用深層特征,經(jīng)過步長為2的上采樣后,將特征層維度與26×26的特征圖保持一致進行后續(xù)的處理.

同樣26×26的張量也經(jīng)過步長為2的上采樣與第一次下采樣后的特征圖維度相同,同樣深淺層特征融合分別為61層和85層,36層和97層,此外經(jīng)過對YOLOv3特征融合網(wǎng)絡的增改,進一步將11層與步長為2 上采樣后的109層特征融合,從而更加充分地發(fā)揮層次結合的優(yōu)勢. 不同尺寸的特征圖的感受野映射原始圖片區(qū)域大小不同,將語義更強但尺寸更小的特征圖增加分辨率,融合更多語義信息達到多尺度檢測的目的. SAR圖像中艦船目標相比其他目標有其獨有的特點,本文考慮表1中多種特征設計網(wǎng)絡結構.

SAR圖像中的艦船若處在運動狀態(tài)中通常會展現(xiàn)尾跡,在圖像中體現(xiàn)為船尾后的白色像素軌跡,這也是識別為艦船目標的重要特征,通過在特征融合之前增加卷積層數(shù),更有效地提取目標的局部特征.

此外,實驗中使用的為10 m分辨率的SAR圖像,根據(jù)查閱常用民用艦船的最大最小尺寸約為10 m到460 m,考慮船身的長寬比及高度等特點,映射到圖像中像素約占10到200像素點,在檢測框篩選階段設置相應的閾值篩選掉不符合尺度的目標,同時設置船身長寬比例臨界值為1到10,目標長寬比例越界的篩選掉. 同樣,除非在港口停泊處,在海面艦船航向中,方向基本水平一致,通過計算初步篩選目標艦船的斜率考慮艦船集群的大致航行方向計算平均斜率,在檢測框篩選階段篩選目標斜率與平均斜率差值大于0.5的目標,船身與水平方向的斜率可以由目標像素的坐標位置(Xmin,Ymin),(Xmax,Ymax)推算得出,見圖6.

1.1.3 ? 損失函數(shù)設置

網(wǎng)絡將輸入圖像劃分成S×S個網(wǎng)格,每個網(wǎng)格會預先產生3種尺寸的邊界框,若網(wǎng)格中心點置于目標則會由其負責檢測. 每個網(wǎng)格預測出檢測物體邊界框的4個偏移坐標、以及置信度得分,但因為YOLOv3采用了多個尺度的特征融合,邊界框的實際數(shù)量較大. 因為每種規(guī)模特征圖對應4個邊界框,所以得到的張量是S×S×[3×(4+1+80)]即255的張量深度,其中包含邊框左上角的橫縱坐標和邊框的長寬、邊框置信度以及默認80種分類預測.

損失函數(shù)為網(wǎng)絡預測結果與真實結果之間的偏差,這里損失函數(shù)由邊框的位置誤差、邊框的置信度誤差和對象分類的誤差三部分組成.

通過設置預測邊界框與真實邊界框的交并比來評估位置誤差(見圖7),在使用非極大抑制法篩選時考慮真實目標框與預測框之間的重疊面積和邊框中心點位置,加速回歸效率,使用DIoU(Distance-IoU)邊框回歸機制(見圖8).

IoU的測量標準只有bounding box與ground truth的面積重疊比率,考慮加入兩個框之間相對距離與并集所在最小矩形的相對大小,如下式:

式中:c表示bounding box的中心,c*表示ground truth的中心,E為對兩點計算歐幾里得度量,在二維圖像上即兩點間距離,d表示兩者并集所在最小矩形的對角線長度,通過這種IoU損失可在預測框與真實框分離或中心點處于同一水平線時,由于閉包約束可以更快地降低損失,加快收斂.

式中:w和h分別是ground truth的寬和高,x和y為左上角坐標點,α和β為權重平衡因子,共S × S個柵格,B為當前柵格中預測框總數(shù),Kobji ? ?為i號柵格中檢測到的目標,Kobjij ? ?為i號柵格中編號為j的預測框檢測到的目標,Knoobjij ? ? ?為i號柵格中編號為j的預測框未檢測到的目標. Cji為預測框是否負責某個對象的參數(shù)置信度分數(shù),P ji為分類概率,對應的真實框參數(shù)信息分別為.

1)預測框的位置誤差:

Kobjij ? ?會將DIoU比較大的那個預測框加入誤差計算. 對于尺寸較大對象框的長寬,通過取平方根,以避免靈敏度降低,同時降低誤差敏感性較大的小尺寸對象的作用,所以使用平方根平衡兩種尺寸預測框對位置誤差產生的影響.

2)預測框的置信度誤差:

根據(jù)交叉熵來表示置信度誤差,包括邊界框是否為前后景及是否包含目標的置信分數(shù),為避免非目標置信分數(shù)對整體置信誤差的負面影響過大,產生混淆,通過乘以權重因子β減少不含檢測目標的預測框對損失函數(shù)的作用占比,這里設置β ?= -0.3.

3)對象分類的誤差:

若i號柵格編號為j的預測框中不包含目標,此項誤差損失不會參與計算,對象分類的損失誤差同樣使用交叉熵損失函數(shù)進行收斂.

1.2 ? 模型壓縮

通常情況下經(jīng)過卷積神經(jīng)網(wǎng)絡多輪訓練所得的模型中會存在冗余信息,隨著模型復雜度的增加,所得的模型需要計算的浮點數(shù)操作會越來越大,模型體積也會過大,這樣不利于模型在存儲空間、運算資源受限的平臺上部署使用,因此需要針對網(wǎng)絡模型特點對其進行壓縮操作,本文用于深度壓縮的方法有權值參數(shù)共享和剪枝兩種.

1.2.1 ? 權值參數(shù)共享

權重參數(shù)共享可以顯著減少網(wǎng)絡所使用的參數(shù)量,圖片經(jīng)過卷積操作后,與特征圖之間的映射關系存儲了大量參數(shù),通過隨機散列函數(shù)將參數(shù)重分配,使得部分重復參數(shù)可以共同使用,網(wǎng)絡參數(shù)矩陣經(jīng)過聚類等方式重新存儲,使用較少的參數(shù)可以替換原參數(shù)矩陣.

權重參數(shù)共享存儲如圖9所示,假設兩層神經(jīng)元之間的參數(shù)由矩陣V表示,經(jīng)過散列存儲的參數(shù)集由R表示,重新分配的參數(shù)經(jīng)過不同散列函數(shù)映射,由原來28個參數(shù)降低到6個,壓縮了4倍,由于原來重復的參數(shù)信息都在集合R中,基本上保持泛化性能的同時,大大減少了神經(jīng)網(wǎng)絡的存儲需求.

1.2.2 ? 剪枝

神經(jīng)網(wǎng)絡的各層連接通常如圖10所示,相鄰兩層的的神經(jīng)元連接數(shù)目較多,其中有很多冗余單元,如果不對密集網(wǎng)絡進行裁剪操作會產生大量浮點乘法計算. 兩層之間每條連接線都有相應的權值,通過去除權值貢獻較低的連接,即將較小的權重置零來去除神經(jīng)鍵,若某一神經(jīng)元與上下兩層的連接權重都為零則去除次神經(jīng)元,這樣在基本保證模型準確率的前提下大大減少了參數(shù)量,將原權值矩陣稀疏化,從而降低網(wǎng)絡的復雜度.

裁剪部分主要針對BN層進行,BN層引入了γ和β兩個可學習重構參數(shù). 針對每次反向傳播過程,對L1正則梯度和BN層的梯度進行結合,設置一個有序列表存儲裁剪BN層中γ參數(shù),設置裁剪閾值為0.9進行裁剪. 未經(jīng)過閾值篩選的γ 通道去掉其權值大小,重新得到本層的結構并將β參數(shù)與后續(xù)的卷積模塊中BN的運行方差參數(shù)結合計算.

2 ? 實驗結果與分析

2.1 ? 實驗平臺與數(shù)據(jù)集

實驗所使用的計算機硬件平臺是64位Windows10操作系統(tǒng),中央處理器為Intel(R) Core(TM) i5-8300H CPU@ 2.3GHz,獨立顯卡型號為NVIDIA GTX 1080,16 GB內存,CUDA加速環(huán)境為CUDA 8.0和cudnn 6.0,采用的網(wǎng)絡開發(fā)框架為Darknet.

實驗數(shù)據(jù)集采集自歐洲航天局哥白尼計劃(GMES)中的地球觀測衛(wèi)星哨兵一號(Sentinel-1)衛(wèi)星所拍攝的雷達影像,采集時間為2017-06-26 T 23:03:40.552573到2017-06-26 T 23:04:05.551041,數(shù)據(jù)類型為IW GRD(干涉寬幅模式的地距多視產品),對諾??烁邸⑹サ貋喐绺?、迪拜港等大型港口附近的艦船圖像目標進行處理,制作了PASCAL-VOC格式艦船目標遙感數(shù)據(jù)集,人工標注了4種不同種類的民用艦船. SAR圖像分為方位和距離分辨率,方位分辨率為不同波束的方位向所能辨別的兩目標之間最小距離,距離分辨率為同一方位角距離雷達不同被區(qū)分的最小距離.

該數(shù)據(jù)集包含不同距離分辨率(5 ~ 20 m)以及不同背景下(近岸、近海)不同尺寸的艦船目標,樣本場景的多樣性保證了訓練出來的模型有更強的泛化能力,同時采用旋轉和反轉兩種方式對數(shù)據(jù)集進行樣本擴充,共計1 241個目標,以4 ∶ 1劃分為訓練集和測試集. 本文使用開源工具 LabelImg 對數(shù)據(jù)集中的遙感圖像進行了人工標注,圖片標注后,都會對應生成相同文件名且后綴為.xml 的文件,該文件依次記錄了對應圖片中所有標注框的位置和目標類別等信息.

2.2 ? 網(wǎng)絡訓練

使用在ImageNet數(shù)據(jù)集上預先訓練好的特征提取網(wǎng)絡模型,對訓練參數(shù)進行調整.

模型優(yōu)化算法的方法采用隨機梯度下降法(SGD),批量大小取64更新控制訓練樣本量,學習速率在訓練開始為0.001,設置學習率衰減系數(shù)0.000 5防止過擬合,為使批處理訓練時權值參數(shù)震蕩加速收斂,使用帶有動量因子梯度代替原梯度進行參數(shù)更新,默認設為 0.9. 訓練過程中損失函數(shù)的變化情況如圖11所示,經(jīng)過20 000步迭代后網(wǎng)絡基本收斂.

2.3 ? 實驗結果評估

為評估算法的檢測效果,采用如下式所示標準對檢測器的性能進行定量化描述:

式中:Ntp表示正確檢測的樣本數(shù),Nfp表示錯誤檢測的樣本數(shù),Nfn表示漏檢目標的樣本數(shù),準確率(precision)表示在所有被預測的目標樣本中,預測正確的比例,召回率(recall)表示預測正確的樣本數(shù)在所有真實樣本數(shù)中的比例. 同時,使用如下式所示的F1值來表示算法的綜合性能.

首先對測試集的實驗結果進行分析,測試結果如表2所示.

圖12給出一些典型的測試結果例圖,其中檢測出的各類目標分別用不同的方框標記出來. 不同場景下算法的檢測結果如圖13所示. 其中圖13的第一行、第二行為海面艦船目標檢測結果,該場景下艦船的特點是目標相對背景較小,容易造成漏檢以及定位不準的問題,部分目標有較嚴重的拖尾痕跡,算法可以較為準確地完成對海面艦船目標的檢測. 圖13的第三行為復雜背景下的近岸艦船目標檢測,該類艦船目標特點是背景復雜,艦船目標與岸邊建筑難以區(qū)分,有若干港口處模糊小目標漏檢. 可以看出,算法對河道、港口等多種背景下不同尺寸的艦船目標均有較好的檢測效果.其次,為測試算法的泛化能力,同時準備了馬六甲海峽、安特衛(wèi)普港和長三角等大型港口的若干原始大幅面SAR圖像進行測試,測試圖片幅面平均為25501×16731像素,對比另外兩種檢測算法部分檢測結果如圖13所示,實驗表明,本文方法完成端到端的檢測,平均準確率為91.39%,召回率為93.03%,F(xiàn)1值為92.20%,可以達到對SAR圖像艦船目標的有效處理.

表3以幀/s(Frame per second)給出了檢測程序運行的效率,有助于評估本文方法的實時數(shù)據(jù)處理和目標檢測的性能.

表3同時給出了本文方法與其它目標檢測算法在艦船數(shù)據(jù)集上的測試性能對比,本文方法的準確率為91.39%,比SSD和Faster-RCNN分別提高了4.03%和2.13%,得益于網(wǎng)絡結合深層特征的多尺度檢測,采用特征映射模塊和殘差網(wǎng)絡模塊,獲得了更豐富的語義信息.

本文對實驗用的模型進行了壓縮,并測試了壓縮后模型的識別能力. 良好的模型壓縮方法在保證不損害檢測效率的前提下追求更大的空間節(jié)省和更快的運行效率. 表4描述了模型壓縮前后的識別正確率、壓縮率以及效率. 由表可知,本文提出的權值參數(shù)共享+剪枝的方法將模型從272 MB壓縮到了34 MB,壓縮了8倍,并且精度僅損失1.23%,證實了壓縮方法的有效性.

3 ? 結 ? 論

本文設計了一種基于YOLOv3框架的水面SAR遙感圖像中艦船目標快速識別和分類方法,通過采集并標注SAR圖像艦船目標樣本,制作相應的數(shù)據(jù)集用于模型訓練,結合殘差單元與多尺度訓練,增強網(wǎng)絡對不同尺寸目標尤其小目標的良好適應性,針對艦船目標特點設計網(wǎng)絡檢測、篩選過程. 采用基于相對距離的邊框交并比策略與權重因子的損失函數(shù),提高收斂速度與檢測效果,使用權值參數(shù)共享和剪枝方法對模型進行輕量化處理. 端到端的訓練簡化了訓練流程,無需人為進行子問題的劃分,且通過實驗表明模型對新數(shù)據(jù)集有較好的適應能力. 同時本文研究也為星載SAR等目標識別系統(tǒng)的設施提出了新的思路,基于卷積神經(jīng)網(wǎng)絡等深度學習方法的SAR圖像艦船目標檢測預計將面向實時、廣域、高速、精準的應用需求不斷發(fā)展完善.

參考文獻

[1] ? ?尹雅,黃海,張志祥. 基于光學遙感圖像的艦船目標檢測技術研究[J]. 計算機科學,2019,46(3):82—87.

YIN Y,HUANG H,ZHANG Z X. Research on ship detection technology based on optical remote sensing image [J]. Computer Science,2019,46(3):82—87. (In Chinese)

[2] ? ?汪元美. 合成孔徑雷達參量對圖象質量的影響[J]. 湖南大學學報(自然科學版),1983(1):28—49.

WANG Y M. Influence of SAR parameters on image quality[J]. Journal of Hunan University(Natural Sciences),1983(1):28—49.(In Chinese)

[3] ? ?NAN J,WANG C,ZHANG B,et al. Ship wake CFAR detection algorithm in SAR images based on length normalized scan[C]//2013 IEEE International Geoscience & Remote Sensing Symposium Igarss. July 21-26,2013,Melbourne,VIC,Australia,IEEE,2013:3562—3565.

[4] ? ?AVOLIO C,COSTANTINI M,MARTINO G D,et al. A method for the reduction of ship-detection false alarms due to SAR azimuth ambiguity[C]//2014 IEEE Geoscience & Remote Sensing Symposium. July 13-18,2014,Quebec city,QC,Canada,IEEE,2014:3694—3697.

[5] ? ?KRIZHEVSKY A,SUTSKEVER I,HINTON G E. Imagenet classification with deep convolutional neural networks[J]. Communication of the ACM,2017,60(6):84—90.

[6] ? ?GIRSHICK R,DONAHUE J,DARRELL T,et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//2014 IEEE conference on computer vision and pattern recognition,June 23-28,2014,Columbus,OH,USA:IEEE,2014:580—587.

[7] ? ?GIRSHICK R. Fast R-CNN[C]//2015 IEEE International Conference on Computer Vision,Dec.7-13,2015,Santiago,Chile,IEEE,2015: 1440—1448.

[8] ? ?REN S,HE K,GIRSHICK R,et al. Faster R-CNN: Towards real-time object detection with region proposal networks [J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2015,39(6): 1137—1149.

[9] ? ?DAI J F,LI Y,HE K M,el at. R-FCN: object detection via region-based fully convolutional networks [EB/OL]. 2016:arXiv:1605.06409[cs.cv]. https://arXiv.org/abs/1605.06409.

[10] ?HE K,GKIOXARI G,DOLLAR P,et al. Mask R-CNN[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2020, 42(2):386—397.

[11] ?REDMON J,DIVVALA S,GIRSHICK R,et al. You only look once: Unified,real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition,June 27-30,2016,Las Vegas,NV,USA,2016: 779—788.

[12] ?LIU W,ANGUELOV D,ERHAN D,et al. SSD: Single shot multibox detector[M]//Computer vision-ECCV 2016,Cham:Springer International Publishing,2016,21—37.

[13] ?REDMON J,F(xiàn)ARHADI A. YOLO9000: Better,faster,stronger[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition,July 21-26,2017,Honolulu,HI,USA,IEEE,2017:6517—6525.

[14] ?REDMON J,F(xiàn)ARHADI A. Yolov3: An incremental improvement [J]. ArXiv Preprint ArXiv:1804.02767,2018.

[15] ?LIN T Y ,GOYAL P ,GIRSHICK R ,et al. Focal loss for dense object detection[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2020,42(2):318—327.

[16] ?ZHANG S,WEN L,BIAN X,et al. Single-shot refinement neural network for object detection[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,Jun. 19-21,2018,Salt Lake City,Utah,USA,IEEE. 2018: 4203—4212.

[17] ?ZHAO Q,SHENG T,WANG Y,et al. M2Det: A single-shot object detector based on multi-level feature pyramid network[J]. Proceedings of the AAAI Conference on Artificial Intelligence,2019,33:9259—9266.

[18] ?劉潔瑜,趙彤,劉敏. 基于RetinaNet的SAR圖像艦船目標檢測[J]. 湖南大學學報(自然科學版),2020,47(2):85—91.

LIU J Y,ZHAO T,LIU M. Ship target detection in SAR image based on RetinaNet[J]. Journal of Hunan University(Natural Sciences),2020,47(2):85—91.(In Chinese)

[19] ?GUI Y C,LI X H,XUE L,et al. A scale transfer convolution network for small ship detection in SAR images[C]//2019 IEEE 8th Joint International Information Technology and Artificial Intelligence Conference (ITAIC). Chongqing,China,IEEE,2019:1845—1849.

[20] ?陳慧元,劉澤宇,郭煒煒,等. 基于級聯(lián)卷積神經(jīng)網(wǎng)絡的大場景遙感圖像艦船目標快速檢測方法[J]. 雷達學報,2019,8(3):413—424.

CHEN H Y,LIU Z Y,GUO W W,et al. Fast detection method of ship target in large scene remote sensing image based on cascaded convolutional neural network[J] . Journal of Radars,2019,8(3):413—424. (In Chinese)

[21] ?BENTES C,VELOTTO D,TINGS B. Ship classification in TerraSAR-X images with convolutional neural networks[J]. IEEE Journal of Oceanic Engineering,2017,43(1):258—266.

[22] ?李健偉,曲長文,彭書娟,等. 基于卷積神經(jīng)網(wǎng)絡的SAR圖像艦船目標檢測[J]. 系統(tǒng)工程與電子技術,2018,40(9):1953—1959.

LI J W,QU C W,PENG S J,et al. Ship target detection in SAR image based on convolutional neural network[J]. Journal of Systems Engineering and Electronics,2018,40(9):1953—1959. (In Chinese)

[23] ?楊龍,蘇娟,黃華,等. 一種基于深層次多尺度特征融合CNN的SAR圖像艦船目標檢測算法[J]. 光學學報,2020,40(2):132—140.

YANG L,SU J,HUANG H,et al. SAR Ship detection based on convolutional neural network with deep multiscale feature fusion[J]. Acta Optica Sinica,2020,40(2):132—140. (In Chinese)

收稿日期:2020-07-22

基金項目:國家自然科學基金資助項目(61802186, 61472189),National Natural Science Foundation of China(61802186, 61472189);上海航天科技創(chuàng)新基金(SAST2019-033),SAST Innovation Fund(SAST2019-033)

作者簡介:魏松杰(1977—),男,天津人,南京理工大學副教授,博士

通信聯(lián)系人,E-mail:zandyz@njust.edu.cn

猜你喜歡
目標檢測
多視角目標檢測與跟蹤技術的研究與實現(xiàn)
視頻中目標檢測算法研究
行為識別中的人體運動目標檢測方法
移動機器人圖像目標識別
基于背景建模法的運動目標檢測
基于P3電位的目標檢測研究
智能視頻技術在電力系統(tǒng)領域的應用
相關K分布雜波中擴展目標積累檢測性能分析
基于連通域標記的目標檢測算法設計與實現(xiàn)
一種改進的峰均功率比判源方法
新巴尔虎右旗| 岗巴县| 连城县| 花垣县| 胶州市| 克什克腾旗| 霍州市| 夹江县| 广丰县| 福贡县| 张家口市| 阳春市| 石渠县| 台中市| 太康县| 子长县| 宜兰县| 泽州县| 泰和县| 德州市| 仙居县| 周宁县| 托克托县| 观塘区| 吉木乃县| 仁寿县| 长垣县| 诸暨市| 邮箱| 沅陵县| 新民市| 荣昌县| 务川| 都昌县| 资中县| 论坛| 政和县| 东莞市| 清丰县| 义马市| 宁都县|