国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

采用深度學習的多方位角SAR圖像目標識別研究

2018-08-20 06:15:46
信號處理 2018年5期
關鍵詞:彩色圖像方位角識別率

鄒 浩 林 赟 洪 文

(1. 中國科學院空間信息處理與應用系統(tǒng)技術重點實驗室,北京 100190;2. 中國科學院電子學研究所,北京 100190;3. 中國科學院大學,北京 100049)

1 引言

合成孔徑雷達是一種主動式微波遙感設備,它通過發(fā)射電磁波并接收回波對目標進行成像,其特殊的成像機理使其不受光照和氣候的影響,能夠全天時、全天候地對地面觀測目標進行高分辨地成像,因此適用于軍事偵查、遙感測繪、地球科學、水文地礦等領域,具有很高的軍用價值和民用價值[1-3]。與光學圖像不同,SAR圖像中含有大量的相干斑噪聲[4],嚴重影響了圖像質量,對目標的檢測和識別有較大的影響。此外,由于透視伸縮、陰影、疊掩等SAR影像固有的變形現(xiàn)象,SAR圖像對目標觀測方位角的變化十分敏感[5],即便觀測方位角間隔不大,目標在SAR圖像中的形態(tài)也不盡相同。這給SAR圖像解譯和地物目標識別帶來了特殊的難題。

近年來,深度學習(Deep Learning,DL)在自然語言處理、語音識別、目標檢測、圖像分類、人機博弈、自動駕駛等模式識別領域取得了長足的發(fā)展和輝煌的成績,各行各業(yè)對深度學習方面的人才需求大增[6]。常用的深度學習算法有卷積神經網絡[7]、深度置信網絡(Deep Belief Network,BDN)[8]、循環(huán)神經網絡(Recurrent Neural Network,RNN)[9],等等,其中,在目標檢測、目標識別等計算機視覺領域使用最為廣泛的算法則是卷積神經網絡。計算機計算性能的指數(shù)級別提升和互聯(lián)網海量數(shù)據的便捷獲取將深度學習推向新的高潮。2012年,在ImageNet舉辦的大規(guī)模圖像分類競賽(ImageNet Large Scale Visual Recognition Challenge,ILSVRC)中,Krizhevsky等人[10]設計了一個具有8層網絡結構的AlexNet深度學習網絡,以15.3%的Top5錯誤率奪得冠軍,該錯誤率遠低于之前26%的最低錯誤率。Szegedy等人[11]于2014年設計了一個擁有22層網絡結構的Google Inception網絡,在降低參數(shù)量和計算量的同時,以6.67%的Top5錯誤率獲得冠軍。在2015年,He等人[12]將網絡層次繼續(xù)加深,提出的152層的殘差網絡(Residual Network,ResNet)將錯誤率繼續(xù)降低至3.57%,超越了人工標注的5%的錯誤率。

目前,基于深度學習的光學圖像目標識別算法已被廣泛應用到SAR圖像目標識別中,并取得了不錯的正確識別率(Probability of Correct Cognition,PCC)。2014年,Chen等人[13]設計了一個單隱層卷積神經網絡對SAR圖像目標進行識別,在經典的10大類軍事目標數(shù)據集上獲得了84.7%的正確識別率。2016年,田壯壯等人[14]將類別可分性度量正則化項添加到了損失函數(shù)中,并利用支持向量機(Support Vector Machine,SVM)對卷積神經網絡提取出的特征圖(Feature map)進行分類,提高了網絡的類別區(qū)分能力。同樣在2016年,Chen等人[15]針對目前SAR圖像數(shù)據規(guī)模比較小、對觀測條件敏感等客觀條件,設計了一個擁有5個卷積層(Convolutional layer)和3個池化層(Pooling layer)的卷積神經網絡,他們用卷積層替換了全連接層,并取得了99.13%的識別率。不過他們通過在數(shù)據集上對圖像進行隨機裁剪和翻轉的方法增強訓練數(shù)據集,將圖像訓練樣本數(shù)量擴大到了原來的10倍,這將導致訓練時間的增加。2017年,F(xiàn)urukawa等人[16]借鑒了殘差網絡的設計思想,針對SAR圖像目標識別設計出一個擁有18個卷積層的網絡結構,并通過隨機裁剪等數(shù)據增強方法取得了極高的識別率。不過該網絡擁有高達百萬數(shù)量級別的龐大參數(shù),訓練網絡時將占用巨大的計算資源以及耗費大量的時間,參數(shù)數(shù)量存在冗余,尚有待優(yōu)化。

上述這些SAR目標識別方法都只是利用了目標的單一方位角觀測圖像,并沒有考慮到SAR圖像數(shù)據的獲取特點,即雷達可以從多個方位角對目標進行成像,這些圖像中目標的信息存在一定的冗余。而且,這些方法(除文獻[15]外)只對形態(tài)差異較大的目標數(shù)據集的識別率情況進行了討論,而沒有考慮形態(tài)差異很小的目標數(shù)據集的識別率情況。本文設計了一個利用同一目標的多方位角SAR圖像進行目標識別的卷積神經網絡,選取的3幅同目標SAR圖像在方位角上是連續(xù)獲取的,它們被分別當作彩色圖像的R、G、B三個通道的圖像輸入到網絡中。此外,在本文設計的卷積神經網絡中,每次卷積運算后緊接著一次批歸一化(Batch Normalization,BN)處理[17],以提升網絡的容納能力,最后一個池化層通過尺度壓縮將特征圖展平(Flatten)。該網絡一共有4個卷積層和4個池化層,以及一個全連接層(Fully connected layer),具有參數(shù)規(guī)模小和正確識別率高的特點。

2 網絡結構

卷積神經網絡的前幾層一般由卷積層和池化層交替構成,后面則是若干全連接層,最后接入Softmax回歸進行分類識別。其中卷積層用來學習圖像中不同的特征,池化層是為了在尺度空間上保證特征的層次性,全連接層則可以被看作是高維空間的一個分類器,Softmax回歸將識別結果以歸于各個類別的概率輸出。本文設計的網絡共有4個卷積層和4個池化層,以及1個全連接層,其整體結構如圖1所示,其中卷積層用“Conv”表示,“15@5×5”表示該卷積層共有15個尺寸為5×5的卷積核,激活函數(shù)(Activation function)選用修正線性單元(Rectified Linear Unit,ReLU),池化層選用最大池化(Max pooling),“2×2”表示該池化層的下采樣窗口的尺寸為2×2。所有卷積核的步長(Stride)均設置為1,特征圖四周無補0操作,所有下采樣窗口的滑動步長均設置為2。

圖1 網絡整體架構Fig.1 Network architecture

單幅SAR圖像的尺寸被裁剪成80×80,一共輸入3幅,即輸入的偽彩色圖像的尺寸為80×80×3。第1個卷積層共有15個尺寸為5×5的卷積核,輸出是15個尺寸為76×76的特征圖,經過第1個池化層后特征圖的尺寸變?yōu)?8×38。第2個卷積層共有30個尺寸為5×5的卷積核,輸出是30個尺寸為34×34的特征圖,經過第2個池化層后特征圖的尺寸變?yōu)?7×17。第3個卷積層共有60個尺寸為6×6的卷積核,輸出是60個尺寸為12×12的特征圖,經過第3個池化層后特征圖的尺寸變?yōu)?×6。第4個卷積層共有120個尺寸為5×5的卷積核,輸出是120個尺寸為2×2的特征圖,經過第4個池化層后特征圖的尺寸變?yōu)?×1,該池化層通過尺度壓縮實現(xiàn)了特征圖的展平操作。120個1×1的特征圖即一個120維的向量,經過1個全連接層后輸出到N個節(jié)點,每個節(jié)點經過Softmax處理后輸出該目標歸于各個類別的概率,這里N表示目標的類別數(shù)量。

2.1 網絡的輸入

卷積網絡的輸入為一幅偽彩色圖像,它的R、G、B三個通道的圖像分別是在連續(xù)方位角上獲取的同一目標的三幅SAR圖像。不妨設這三幅圖像分別為Aθ1、Aθ2和Aθ3,其中θi(i=1,2,3)為飛行平臺獲取圖像Aθi時的方位角角度,那么偽彩色圖像的三個通道可以表示為

(1)

這里,rotate(X,φ)表示將圖像X逆時針旋轉了φ度。因此,偽彩色圖像可以表示為

A=cat(R,G,B)

(2)

其中cat(·)表示圖像疊加操作。

圖2是在不同方位角獲取的同一目標的SAR圖像及其偽彩色圖像,其中圖2(a)~(f)分別是在方位角為73.8°、74.8°、75.8°、78.8°、82.8°和83.8°處獲取的,它們在方位角上是連續(xù)的。觀測方位角的差異使得SAR圖像中目標具有不同的形態(tài),即便方位角角度差很小,但是由此而引起的圖像變化卻不容忽視。圖2(g)~(j)是圖2(a)~(f)中連續(xù)的三幅圖像合成的偽彩色圖像,圖2(g)對應著圖2(a)~(c),圖2(h)對應著圖2(b)~(d),以此類推。彩色信息賦予了目標更豐富的內容,彩色信息的差異則是觀測方位角差異在目標成像上的體現(xiàn)。

在真實場景中,我們可能無法提前獲取目標的具體朝向,也就無法直接獲取目標的地面真實信息,

圖2 同一目標的SAR圖像(a)~(f)和偽彩色圖像(g)~(j)Fig.2 SAR images (a)~(f) and pseudo-color images (g)~(j) of the same target

也即無法預知θ1、θ2和θ3的值,但是飛行平臺在獲取圖像數(shù)據的過程中可以獲取到相鄰兩個觀測方位角的角度差,即θ2-θ3和θ2-θ1是可以計算出來的。因此,飛行平臺只需在連續(xù)的3個方位角獲取目標的SAR圖像即可滿足本文設計的卷積網絡的要求。

2.2 引入批歸一化

批歸一化本質上是為了解決網絡在反向傳播(Back Propagation,BP)過程中的梯度不穩(wěn)定問題,以加快網絡的收斂速度。若令

(3)

表示網絡從第l-1層傳播到第l層,即網絡的前向傳播,其中ωl為第l層的權重參數(shù)矩陣,hl為第l層的節(jié)點。那么從第l層傳播到第l-1層,即網絡的反向傳播可以表示為

(4)

其中Δl為反向傳播過程中第l層的差值。

當網絡從第l層反向傳播到第k(k

(5)

(6)

(7)

接著對其作白化處理,即

(8)

批歸一化會改變原始數(shù)據的分布,會使得大部分數(shù)據被拉至激活函數(shù)中間的線性部分,而在深層網絡中非線性變換是至關重要的。因此,為了在非線性和梯度之間做個權衡,引入兩個參數(shù)γ和β進行對數(shù)據自動調整:

(9)

參數(shù)γ和β分別對數(shù)據做尺度變換和平移變換,是需要網絡自己去權衡和學習的。

2.3 學習率的設計

本文采用小批量隨機梯度下降法(Mini-batch Stochastic Gradient Decent,MSGD)[18]對整個網絡進行訓練,并使用參數(shù)為0.9的動量(Momentum)來保持梯度下降的慣性方向,以增強網絡訓練的穩(wěn)定性。在初始訓練時給定一個稍大的初始學習率υ0,每當訓練完d輪訓練數(shù)據集后,使學習率下降到之前的α倍,即

(10)

其中i(i≥1)為訓練輪數(shù)。本文中,υ0取0.001,d取5,α取0.5。

3 實驗結果與分析

本文使用了由Sandia National Laboratory提供的SAR圖像數(shù)據集——靜止目標獲取與識別(Moving and Stationary Target Acquisition and Recognition,MSTAR)數(shù)據集。在該數(shù)據集中,所有圖像的分辨率為0.3 m×0.3 m,方位向從0°到360°覆蓋了每個目標,涵蓋了不同類別、不同型號、不同方位角、不同俯視角的軍事目標,其中公開可用的只有小部分。本文分別在經典的10大類目標數(shù)據集和8種T72坦克目標數(shù)據集上各自做了實驗,以驗證本文提出的利用目標多方位角SAR圖像進行目標識別的方法的可行性和有效性,并與其他卷積神經網絡方法在識別精度和網絡參數(shù)數(shù)量上作了對比分析。在訓練網絡和測試網絡的時候,輸入的均是在連續(xù)方位角上獲取的同一目標的3幅SAR圖像。

3.1 實驗一

實驗一用到的SAR圖像數(shù)據為經典的10大類目標(分別為T62,T72,BMP2,BRDM2,BTR60,BTR70,D7,ZIL131,ZSU23/4,2S1)圖像,它們各自的光學圖像和同一方位向下的SAR圖像如圖3所示,從圖中可以看出,不同目標的光學圖像具有很大的差異,對應的SAR圖像也存在人眼可辨的差別。表1是實驗一用到的訓練樣本和測試樣本的型號及其數(shù)量,其中在17°俯視角下獲取的SAR圖像用于訓練,在15°俯視角下獲取的SAR圖像用于測試。

表2是實驗一的正確識別率混淆矩陣,混淆矩陣中每一行表示目標所屬的真實類別,每一列表示卷積網絡的預測結果。從表中可以發(fā)現(xiàn),除了目標BTR60未達到百分之百的識別外,其他9類目標均得到了完全的識別,整體識別率達到99.92%,這說明本文搭建的卷積網絡能夠有效地對SAR目標進行識別。利用多幅同目標SAR圖像作為輸入的策略增加了目標的信息,網絡通過反向傳播能夠捕獲到這些重要的信息,從而提高目標識別正確率。

表3是本文方法與其他方法的對比,分別從網絡參數(shù)數(shù)量和正確識別率兩個方面進行了對比分析。從文獻[15-16][19-20]可以看出,目標的正確識別率與網絡參數(shù)數(shù)量有關,隨著參數(shù)數(shù)量的增加正確識別率也隨之升高,說明針對含有大量相干斑噪聲的SAR圖像而言,過少的參數(shù)不足以挖掘出不同類別目標之間的特征,會導致較低的識別率。為了達到99.56%的識別率,文獻[16]使用了上百萬數(shù)量級別的參數(shù),這在訓練網絡和測試網絡時會占

圖3 實驗一中目標的光學圖像和SAR圖像Fig.3 Optical images and SAR images of targets in experiment ONE

目標型號2S1BMP2BRDM2BTR60BTR70D7T62T72ZIL131ZSU234訓練集(17°)299233298256233299299232299299測試集(15°)274195274195196274273196274274

表2 實驗一的混淆矩陣

用大量的計算資源,效率也會很低。在具有99%以上識別率的方法中,本文方法用最少的參數(shù),卻獲得了最高的識別率,這一方面得益于本文使用多幅同目標圖像作為網絡訓練和測試的輸入,另一方面和網絡的設計也分不開。在該數(shù)據集上,本文方法具有高達99.92%的識別精度,說明本文利用多方位角SAR圖像在卷積神經網絡中進行目標識別的方法是一種有效的SAR圖像目標識別方法。

表3 與其他方法的比較

3.2 實驗二

實驗二同樣用到了MSTAR數(shù)據,不過此次的目標均為T72坦克,只是它們的具體型號不同,分別為A04、A05、A07、A10、A32、A62、A63和A64,共計8種目標。圖4是實驗二用到的8種不同型號的T72坦克的光學圖像和在同一方位向下SAR圖像,從它們的光學圖像中可以看出,這8種T72坦克具有相似的外形,難以區(qū)分,而人眼幾乎無法從它們的SAR圖像中判別出它們的所屬型號,這給SAR圖像目標識別帶來了挑戰(zhàn)性的難題。表4是實驗二用到的訓練樣本和測試樣本的型號及其數(shù)量,其中在17°俯視角下獲取的SAR圖像用于訓練,在15°俯視角下獲取的SAR圖像用于測試。

表5和表6是實驗二的正確識別率混淆矩陣,其中表5是輸入為單幅目標圖像得到的識別結果,表6是輸入為3幅同目標圖像(作為1幅偽彩色圖像)得到的識別結果,我們并未改變網絡的結構和超參數(shù),只是對輸入做了修改。從表中可以發(fā)現(xiàn),利用3幅圖像作為輸入時的整體正確識別率較單幅圖像相比提高了7.58%,各個目標的識別率也都有所提升,其中目標A63從84.56%的識別率提升到98.18%,足足提升了13.62%,這說明多幅圖像能夠攜帶目標更多的信息,卷積網絡正是捕獲了這些信息,提高目標正確識別率。在同類別不同型號目標的識別問題上,本文方法能夠獲得98.49%的識別率,說明本文方法在同類別不同型號的目標識別問題上具有較強的魯棒性。

圖4 實驗二中8種不同型號的T72坦克的光學圖像和SAR圖像Fig.4 Optical images and SAR images of 8 different types of T72 tank in experiment TWO

表4 實驗二的數(shù)據集

當卷積網絡的輸入為單幅SAR圖像和3幅SAR圖像時,第1、第2個卷積層分別得到的特征圖如圖5所示,其中第1個卷積層共得到15張?zhí)卣鲌D,尺寸為76×76,第2個卷積層共得到30張?zhí)卣鲌D,尺寸為34×34。圖5(a)和圖5(c)是輸入分別為單幅圖像和3幅圖像時第1個卷積層獲取的特征圖,從圖中可以看出,圖5(a)中的特征圖受原始SAR圖像中相干斑噪聲的影響十分嚴重,目標及其陰影在特征圖中表現(xiàn)得并不明顯,甚至在有些特征圖中幾乎難以辨別出目標,目標周圍的環(huán)境噪聲被放大。而圖5(c)中的特征圖幾乎不受到相干斑的影響,目標所在位置清晰可見,目標及其陰影的輪廓也十分明顯,目標周圍的環(huán)境噪聲得到抑制,這說明將3幅圖像作為1幅偽彩色圖像輸入到卷積網絡中增加了目標的信息,卷積網絡通過反向傳播優(yōu)化參數(shù),能夠捕獲到這些有用的信息。圖5(b)和圖5(d)是輸入分別為單幅圖像和3幅圖像時第2個卷積層獲取的特征圖,從圖中可以發(fā)現(xiàn),圖5(b)中的特征圖開始變得紊亂,而圖5(d)中的特征圖依舊十分清晰,即圖5(d)提取出的特征要比圖5(b)好很多,而更好的特征則意味著更高的正確識別率。

表5 實驗二的混淆矩陣(單幅圖像)

表6 實驗二的混淆矩陣(3幅圖像)

圖5 輸入分別為單幅圖像和3幅圖像時,不同卷積層中的特征圖Fig.5 Feature maps of different conv. layers, when input is a single image or three images

一方面卷積核提取出的特征圖的質量好壞影響著整體識別性能,另一方面,卷積核的個數(shù)同樣對識別性能有所影響。在用深度學習做圖像識別領域中,一般地,后一層卷積層中卷積核的數(shù)量是前一層的兩倍,也就是說,如果第1個卷積層有s個卷積核,那么第k(k≥2)層卷積層則有2k-1·s個卷積核,本文的網絡亦采用了這樣的設計策略。圖6展示了目標整體識別率隨卷積核的數(shù)量變化的示意圖,可以看出,識別率受卷積核的數(shù)量的影響頗大。當卷積核較少時,隨著其數(shù)量的增加,正確識別率急速上升;但當卷積核較多時,隨著其數(shù)量的增加,正確識別率上升緩慢,甚至幾乎不再上升。卷積核的多少決定著特征圖的數(shù)量,太少的卷積核不利于獲得可觀的目標識別率,而過多的卷積核不但對提高目標識別率幫助不大,還會在訓練階段占用大量的計算資源和訓練時間。

圖6 正確識別率與卷積核的數(shù)量的關系Fig.6 Relationship of PCC and the number ofconvolution kernels

4 結論

本文提出了一種利用多方位角SAR圖像在卷積神經網絡中進行目標識別的方法,并設計了一個用于SAR圖像目標識別的卷積神經網絡架構,通過將3幅同目標圖像作為一幅偽彩色圖像輸入到網絡中,降低了目標方位敏感性,提高了目標識別率。在經典的10大類目標識別數(shù)據集上,本文方法用少量的網絡參數(shù)取得了最高的識別率,在同類別不同型號的目標識別問題上,本文方法也達到了98.49%的識別率,這得益于良好的網絡結構設計和在網絡輸入方式上的改進。實驗結果表明,即便在小規(guī)模的數(shù)據集上,利用多方位角SAR圖像能夠顯著提高目標識別率,在同類別不同型號的目標識別問題上有著可觀的識別率,本文方法是一種有效的合成孔徑雷達目標識別方法。

[1] 蓋旭剛, 陳晉汶, 韓俊,等. 合成孔徑雷達的現(xiàn)狀與發(fā)展趨勢[J]. 飛航導彈, 2011(3):82- 86.

Gai Xugang, Chen Jinwen, Han Jun, et al. Present Situation and Development Trend of Synthetic Aperture Radar[J]. Aerodynamic Missile Journal, 2011(3):82- 86.(in Chinese)

[2] 張紅, 王超, 張波,等. 高分辨率SAR圖像目標識別[M]. 北京:科學出版社, 2009:4-7.

Zhang Hong, Wang Chao, Zhang Bo, et al. High Resolution SAR Image Target Recognition[M]. Beijing: Science Press, 2009:4-7.(in Chinese)

[3] Moreira A, Prats-Iraola P, Younis M, et al. A Tutorial on Synthetic Aperture Radar[J]. IEEE Geoscience and Remote Sensing Magazine, 2013, 1(1):6- 43.

[4] 王瑞霞,林偉,毛軍.基于小波變換和PCA的SAR圖像相干斑抑制[J].計算機工程,2008,34(20):235-237.

Wang Ruixia, Lin Wei, Mao Jun. Speckle Suppression for SAR Image Based on Wavelet Transform and PCA[J]. Computer Engineering,2008,34(20):235-237.(in Chinese)

[5] O’Sullivan J A, Devore M D,Kedia V, et al. SAR ATR Performance Using a Conditionally Gaussian Model[J]. IEEE Transactions on Aerospace and Electronic Systems, 2001, 37(1):91-108.

[6] 徐豐,王海鵬,金亞秋.深度學習在SAR目標識別與地物分類中的應用[J].雷達學報,2017,6(2):136-148.

Xu Feng, Wang Haipeng, Jin Yaqiu. Deep Learning as Applied in SAR Target Recognition and Terrain Classification[J]. Journal of Radars, 2017, 6(2):136-148.(in Chinese)

[7] LEcun Y, Bottou L, Bengio Y, et al. Gradient-Based Learning Applied to Document Recognition[J]. Proceedings of the IEEE, 1998, 86(11):2278-2324.

[8] Hinton G E,Osindero S, Teh Y W. A Fast Learning Algorithm for Deep Belief Nets[J]. Neural Computation, 2014, 18(7):1527-1554.

[9] Williams R J,Zipser D. A Learning Algorithm for Continually Running Fully Recurrent Neural Networks[J]. Neural Computation. 1989, 1(2): 270-280.

[10] Krizhevsky A, Sutskever I, Hinton G E. ImageNet Classification with Deep Convolutional Neural Networks[C]∥International Conference on Neural Information Processing Systems. Nevada, USA: Curran Associates Inc, 2012: 1097-1105.

[11] Szegedy C, Liu W, Jia Y, et al. Going Deeper with Convolutions[C]∥Computer Vision and Pattern Recognition. Boston, USA: IEEE, 2015: 1-9.

[12] He K, Zhang X, Ren S, et al. Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification[C]∥IEEE International Conference on Computer Vision, Washington DC, USA: IEEE, 2015:1026-1034.

[13] Chen S, Wang H. SAR Target Recognition Based on Deep Learning[C]∥International Conference on Data Science and Advanced Analytics. Shanghai, China: IEEE, 2015:541-547.

[14] 田壯壯, 占榮輝, 胡杰民,等. 基于卷積神經網絡的SAR圖像目標識別研究[J]. 雷達學報, 2016, 5(3):320-325.

Tian Zhuangzhuang, Zhan Ronghui, Hu Jiemin, et al. SAR ATR Based on Convolutional Neural Network[J]. Journal of Radars, 2016, 5(3): 320-325.(in Chinese)

[15] Chen S, Wang H, Xu F, et al. Target Classification Using the Deep Convolutional Networks for SAR Images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(8): 4806- 4817.

[16] Furukawa H. Deep Learning for Target Classification from SAR Imagery: Data Augmentation and Translation Invariance[J].IEICE Technical Report, 2017, 117(182):11-17.

[17] Loffe S, Szegedy C. Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift[C]∥International Conference on Machine Learning. Lille, France: JMLR.org, 2015:448- 456.

[18] Qian Q, Jin R, Yi J, et al. Efficient Distance Metric Learning by Adaptive Sampling and Mini-Batch Stochastic Gradient Descent[J]. Machine Learning, 2015, 99(3):353-372.

[19] Morgan D A E. Deep Convolutional Neural Networks for ATR from SAR Imagery[C]∥Algorithms for Synthetic Aperture Radar Imagery XII. Maryland, USA: SPIE Defense and Security, 2015:94750F.

[20] 劉寒穎, 張耀天, 張玉璽,等. 基于深度學習的SAR目標識別及FPGA實現(xiàn)[C]∥第十一屆全國信號和智能信息處理與應用學術年會會議. 貴陽, 中國: 計算機工程應用, 2017:371-375.

Liu Hanying, Zhang Yaotian, Zhang Yuxi, et al. SAR Target Recognition and FPGA Implementation Based on Deep Learning[C]∥Eleventh Annual National Conference on Signal and Intelligent Information Processing and Application. Guiyang, China: Computer Engineering and Applications, 2017:371-375.(in Chinese)

猜你喜歡
彩色圖像方位角識別率
探究無線電方位在無線電領航教學中的作用和意義
卷宗(2021年2期)2021-03-09 07:57:24
近地磁尾方位角流期間的場向電流增強
基于類圖像處理與向量化的大數(shù)據腳本攻擊智能檢測
計算機工程(2020年3期)2020-03-19 12:24:50
基于FPGA的實時彩色圖像邊緣檢測
電子制作(2019年16期)2019-09-27 09:34:46
基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識別率的關系
提升高速公路MTC二次抓拍車牌識別率方案研究
基于最大加權投影求解的彩色圖像灰度化對比度保留算法
自動化學報(2017年5期)2017-05-14 06:20:56
高速公路機電日常維護中車牌識別率分析系統(tǒng)的應用
向量內外積在直線坐標方位角反算中的應用研究
河南科技(2015年18期)2015-11-25 08:50:14
基于顏色恒常性的彩色圖像分割方法
新昌县| 页游| 建宁县| 东阳市| 涿鹿县| 夹江县| 吴江市| 广西| 梅河口市| 沅江市| 泾川县| 朝阳区| 红河县| 阿拉善盟| 辰溪县| 凤翔县| 肥乡县| 新建县| 樟树市| 响水县| 兴隆县| 吴旗县| 石河子市| 阳曲县| 石柱| 丰都县| 博爱县| 东港市| 长顺县| 诏安县| 高邑县| 琼海市| 邢台县| 巴塘县| 霞浦县| 云安县| 西华县| 年辖:市辖区| 尤溪县| 金寨县| 奉新县|