国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于F-CNN的雷達(dá)目標(biāo)辨識(shí)算法

2019-03-22 05:41
關(guān)鍵詞:識(shí)別率精簡(jiǎn)卷積

, , ,

(1.國(guó)防科技大學(xué)電子對(duì)抗學(xué)院, 安徽合肥 230031;2.空軍研究院戰(zhàn)略預(yù)警研究所, 北京 100089)

0 引 言

近年來,隨著電子戰(zhàn)的重要性日益凸顯,敵我雙方對(duì)電磁頻譜的爭(zhēng)奪逐漸加劇,雷達(dá)干擾技術(shù)迅速發(fā)展且相關(guān)新興技術(shù)被廣泛應(yīng)用[1]。同時(shí),雷達(dá)抗干擾技術(shù)也獲得相應(yīng)的發(fā)展。但是,這些抗干擾措施[2-4]更多依賴人工判斷和設(shè)定,缺乏客觀性和精確性,這也成為制約雷達(dá)抗干擾技術(shù)發(fā)展的關(guān)鍵因素之一[5]。

近些年,深度學(xué)習(xí)算法研究發(fā)展迅速,將相關(guān)算法應(yīng)用到電子戰(zhàn)中正逐漸成為雷達(dá)抗干擾研究的新趨勢(shì)[6]。姚毅等將卷積神經(jīng)網(wǎng)絡(luò)(Convolu-tional Neural Network, CNN)運(yùn)用到雷達(dá)反欺騙干擾領(lǐng)域[7],不依賴設(shè)計(jì)者的經(jīng)驗(yàn),采用數(shù)據(jù)訓(xùn)練,取得了98.83%的識(shí)別率。但是,姚毅等搭建的卷積神經(jīng)網(wǎng)絡(luò)存在識(shí)別參數(shù)龐大的問題,不利于實(shí)時(shí)處理。

本文提出了一種基于分解卷積神經(jīng)網(wǎng)絡(luò)(Factorized Convolutional Neural Network, F-CNN)的雷達(dá)目標(biāo)辨識(shí)算法。以深度可分離卷積[7](Depthwise Separable Convolution, DSC)結(jié)構(gòu)為基礎(chǔ)搭建分解卷積神經(jīng)網(wǎng)絡(luò),以及對(duì)分解卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行精簡(jiǎn)[8],使用實(shí)測(cè)數(shù)據(jù)對(duì)兩個(gè)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練和測(cè)試,并對(duì)結(jié)果進(jìn)行分析討論。

1 分解卷積神經(jīng)網(wǎng)絡(luò)的模型結(jié)構(gòu)

本節(jié)詳細(xì)介紹具體的卷積結(jié)構(gòu)(深度可分離卷積結(jié)構(gòu))及網(wǎng)絡(luò)模型(分解卷積神經(jīng)網(wǎng)絡(luò)模型)。

1.1 深度可分離卷積的結(jié)構(gòu)

假設(shè)輸入圖像矩陣I∈h×w×m,其中h表示圖像的高,w表示圖像的寬,m表示圖像通道數(shù);卷積核矩陣K∈k×k×m×n,其中k表示卷積核尺寸,n表示卷積核數(shù)。在標(biāo)準(zhǔn)卷積運(yùn)算中,取步長(zhǎng)為1,且對(duì)邊界不進(jìn)行補(bǔ)零操作時(shí),輸出圖像矩陣為O∈(h-k+1)×(w-k+1)×n。計(jì)算公式[7]為

I(y+u-1,x+v-1,i)

1≤y≤h-k+1,1≤x≤w-k+1,1≤j≤n

(1)

式中,O(y,x,j)表示標(biāo)準(zhǔn)卷積輸出圖像矩陣O的第(y,x,j)個(gè)元素。式(1)其他矩陣類似O(y,x,j)表述的含義與其含義相似。

式(1)的計(jì)算量為

C1=k2mnhw

(2)

標(biāo)準(zhǔn)卷積的卷積核模型如圖1所示。

圖1 標(biāo)準(zhǔn)卷積核

深度可分離卷積是將標(biāo)準(zhǔn)卷積運(yùn)算分解為逐通道卷積(Depthwise Convolution,DC)和逐點(diǎn)卷積(Pointwise Convolution,PC)。逐通道卷積過濾輸入圖像,提取特征。逐點(diǎn)卷積則是將提取的特征進(jìn)行加權(quán)合并。

逐通道卷積的卷積核和逐點(diǎn)卷積的卷積核模型分別如圖2和圖3所示。

圖2 逐通道卷積核

圖3 逐點(diǎn)卷積核

給定輸入圖像矩陣,逐通道卷積核P∈k×k×1×m,逐點(diǎn)卷積核Q∈1×1×m×n。在卷積運(yùn)算步長(zhǎng)為1,且對(duì)邊界不進(jìn)行補(bǔ)零操作時(shí),通過分解卷積運(yùn)算,可以得到輸出圖像矩陣。計(jì)算過程如下:

逐通道卷積公式[7]為

I(y+u-1,x+v-1,j)

1≤m≤h-k+1, 1≤n≤w-k+1, 1≤j≤m

(3)

式中,G(m,n,j)表示逐通道卷積后輸出矩陣G中的第(m,n,j)個(gè)元素。式(3)其他矩陣類似G(m,n,j)表述的含義與其含義相似。

逐點(diǎn)卷積公式[7]為

1≤y≤h-k+1, 1≤x≤w-k+1, 1≤l≤n

(4)

式(4)其他矩陣類似G(m,n,j)表述的含義與其含義相似。

深度可分離卷積的計(jì)算量為

C2=k2mhw+mnhw

(5)

深度可分離卷積的計(jì)算量與標(biāo)準(zhǔn)卷積的計(jì)算量之比,可以得到如下結(jié)果:

(6)

式中,當(dāng)k=5,n=32時(shí),η≈7%,即相同情況下深度可分離卷積運(yùn)算的計(jì)算量?jī)H有標(biāo)準(zhǔn)卷積運(yùn)算的7%。

1.2 模型搭建與訓(xùn)練

參照卷積神經(jīng)網(wǎng)絡(luò)的經(jīng)典模型LeNet-5[9],并比照卷積神經(jīng)網(wǎng)絡(luò)模型[7],搭建分解卷積神經(jīng)網(wǎng)絡(luò)。其網(wǎng)絡(luò)框圖如圖4所示。

圖4 分解卷積神經(jīng)網(wǎng)絡(luò)框圖

分解卷積神經(jīng)網(wǎng)絡(luò)由1個(gè)輸入層、3個(gè)卷積層(1個(gè)標(biāo)準(zhǔn)卷積和2個(gè)分解卷積)、1個(gè)池化層、2個(gè)全連接層、1個(gè)輸出層組成。實(shí)際運(yùn)算中,為了及時(shí)有效地調(diào)整數(shù)據(jù),需要引入塊歸一化(Batch Normalization)操作[10]、激活(Activation)操作[11]、平整(Flatten)操作、棄離(Dropout)操作。塊歸一化操作可使輸出服從均值為0、方差為1的標(biāo)準(zhǔn)正態(tài)分布。引入激活函數(shù)可以添加輸出的非線性因素。平整操作則是將矩陣?yán)斐上蛄?,便于全連接層進(jìn)行特征提取。棄離操作是為了有效減少過擬合的情況。

各個(gè)層級(jí)輸出樣本大小和參數(shù)數(shù)量如表1所示。

表1 分解卷積神經(jīng)網(wǎng)絡(luò)輸出樣本大小和參數(shù)數(shù)量統(tǒng)計(jì)

注:輸出大小中的“None”表示不限制輸出和輸入的數(shù)量。

分解卷積神經(jīng)網(wǎng)絡(luò)模型中,6個(gè)層級(jí)共使用了5 929 283個(gè)參數(shù),是卷積神經(jīng)網(wǎng)絡(luò)參數(shù)數(shù)量的近3倍。同時(shí)全連接層參數(shù)數(shù)目占總參數(shù)數(shù)目的99.75%。

參數(shù)數(shù)量過多將會(huì)嚴(yán)重影響識(shí)別的速率,為此對(duì)該網(wǎng)絡(luò)模型進(jìn)行精簡(jiǎn),搭建精簡(jiǎn)分解卷積神經(jīng)網(wǎng)絡(luò)。在原網(wǎng)絡(luò)層數(shù)不變的前提下減少卷積核數(shù)和第一個(gè)全連接層連接節(jié)點(diǎn)數(shù)。精簡(jiǎn)分解卷積神經(jīng)網(wǎng)絡(luò)框圖如圖5所示。

圖5 精簡(jiǎn)分解卷積神經(jīng)網(wǎng)絡(luò)框圖

精簡(jiǎn)分解卷積神經(jīng)網(wǎng)絡(luò)與分解卷積神經(jīng)網(wǎng)絡(luò)相比較,各個(gè)層級(jí)的參數(shù)數(shù)量均減少,而全連接層參數(shù)數(shù)量減少得最多。各個(gè)層級(jí)輸出大小和參數(shù)數(shù)量統(tǒng)計(jì)如表2所示。

表2 精簡(jiǎn)分解卷積神經(jīng)網(wǎng)絡(luò)輸出樣本大小和參數(shù)數(shù)量統(tǒng)計(jì)

注:“None”表示對(duì)輸出圖片的數(shù)量并沒有限制。

精簡(jiǎn)分解卷積神經(jīng)網(wǎng)絡(luò)中6個(gè)層級(jí)共使用186 371個(gè)參數(shù),全連接層參數(shù)依舊占到了全部參數(shù)的99%以上。

2 網(wǎng)絡(luò)模型的訓(xùn)練與測(cè)試

本節(jié)主要講述用實(shí)測(cè)數(shù)據(jù)樣本對(duì)兩個(gè)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練和測(cè)試,并對(duì)測(cè)試結(jié)果進(jìn)行比較分析。

實(shí)驗(yàn)數(shù)據(jù)均為實(shí)測(cè)數(shù)據(jù),數(shù)據(jù)包括真實(shí)目標(biāo)樣本、地雜波樣本、密集假目標(biāo)樣本。數(shù)據(jù)二維平面顯示如圖6所示。

圖6 某型雷達(dá)實(shí)測(cè)數(shù)據(jù)不同樣本平面顯示

對(duì)采集到的數(shù)據(jù)進(jìn)行合理切塊和數(shù)據(jù)擴(kuò)充。組建相應(yīng)的訓(xùn)練集和測(cè)試集,對(duì)搭建好的網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練和測(cè)試。數(shù)據(jù)擴(kuò)充可以彌補(bǔ)數(shù)據(jù)量不足的缺點(diǎn),增加訓(xùn)練集和測(cè)試集。擴(kuò)充方式如圖7所示。

圖7 數(shù)據(jù)擴(kuò)充

網(wǎng)絡(luò)模型的訓(xùn)練和測(cè)試均是基于Keras深度學(xué)習(xí)框架,采用Python語言編寫程序。實(shí)驗(yàn)使用的具體硬件平臺(tái)為CPU:Inter Xeon E5-2620 v3 @2.4 GHz,GPU:GTX TITAN X。

采用與卷積神經(jīng)網(wǎng)絡(luò)相同的數(shù)據(jù)對(duì)模型進(jìn)行訓(xùn)練和測(cè)試,在每一輪迭代結(jié)束后統(tǒng)計(jì)識(shí)別率,可以得到如圖8所示的統(tǒng)計(jì)結(jié)果。

圖8 3種模型識(shí)別率比較

圖8表明,分解卷積神經(jīng)網(wǎng)絡(luò)和精簡(jiǎn)分解卷積神經(jīng)網(wǎng)絡(luò)在經(jīng)過3次迭代之后,其識(shí)別率均比卷積神經(jīng)網(wǎng)絡(luò)更高。

3種模型由于卷積結(jié)構(gòu)、卷積核尺寸和全連接層連接節(jié)點(diǎn)不同,使得其識(shí)別率和參數(shù)數(shù)量?jī)煞N性能均存在差異。對(duì)兩種性能進(jìn)行統(tǒng)計(jì),得到表3。

表3 3種網(wǎng)絡(luò)模型綜合性能分析

表3表明分解卷積神經(jīng)網(wǎng)絡(luò)的識(shí)別率最高,但是參數(shù)數(shù)量也是最多,是卷積神經(jīng)網(wǎng)絡(luò)的近3倍。精簡(jiǎn)分解卷積神經(jīng)網(wǎng)絡(luò)識(shí)別率也較高,參數(shù)數(shù)量卻僅占卷積神經(jīng)網(wǎng)絡(luò)的8.56%。

3 結(jié)束語

雷達(dá)目標(biāo)辨識(shí)是雷達(dá)抗干擾的基礎(chǔ)。本文提出了基于分解卷積神經(jīng)網(wǎng)絡(luò)的雷達(dá)目標(biāo)辨識(shí)算法,實(shí)測(cè)雷達(dá)數(shù)據(jù)處理結(jié)果表明,分解卷積神經(jīng)網(wǎng)絡(luò)的識(shí)別率在卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上再提升近一個(gè)百分點(diǎn),但是網(wǎng)絡(luò)參數(shù)量龐大,不利于實(shí)時(shí)高效處理。精簡(jiǎn)分解卷積神經(jīng)網(wǎng)絡(luò)在卷積神經(jīng)網(wǎng)絡(luò)識(shí)別率的基礎(chǔ)上提升0.4個(gè)百分點(diǎn),參數(shù)數(shù)量大幅度減少,僅占卷積神經(jīng)網(wǎng)絡(luò)參數(shù)數(shù)量的8.56%。與卷積神經(jīng)網(wǎng)絡(luò)相比較,本文所提的算法對(duì)真實(shí)目標(biāo)樣本、地雜波樣本、密集假目標(biāo)樣本均能提升辨識(shí)準(zhǔn)確率。如何對(duì)真實(shí)目標(biāo)進(jìn)行詳細(xì)區(qū)分將是下一步的研究重點(diǎn)。

猜你喜歡
識(shí)別率精簡(jiǎn)卷積
一種基于卷積神經(jīng)網(wǎng)絡(luò)的地磁基準(zhǔn)圖構(gòu)建方法
基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
一種并行不對(duì)稱空洞卷積模塊①
基于區(qū)域分割的多視角點(diǎn)云精簡(jiǎn)算法
很美,很暖,很享受 Unison Research(優(yōu)力聲) MAX Mini書架音箱 Simply Italy精簡(jiǎn)意大利真空管合并放大器
從濾波器理解卷積
精簡(jiǎn)、綜合、用足——神木持續(xù)優(yōu)化考核機(jī)制
檔案數(shù)字化過程中OCR技術(shù)的應(yīng)用分析
基于PCA與MLP感知器的人臉圖像辨識(shí)技術(shù)
科技文檔中數(shù)學(xué)表達(dá)式的結(jié)構(gòu)分析與識(shí)別