, , ,
(1.國(guó)防科技大學(xué)電子對(duì)抗學(xué)院, 安徽合肥 230031;2.空軍研究院戰(zhàn)略預(yù)警研究所, 北京 100089)
近年來,隨著電子戰(zhàn)的重要性日益凸顯,敵我雙方對(duì)電磁頻譜的爭(zhēng)奪逐漸加劇,雷達(dá)干擾技術(shù)迅速發(fā)展且相關(guān)新興技術(shù)被廣泛應(yīng)用[1]。同時(shí),雷達(dá)抗干擾技術(shù)也獲得相應(yīng)的發(fā)展。但是,這些抗干擾措施[2-4]更多依賴人工判斷和設(shè)定,缺乏客觀性和精確性,這也成為制約雷達(dá)抗干擾技術(shù)發(fā)展的關(guān)鍵因素之一[5]。
近些年,深度學(xué)習(xí)算法研究發(fā)展迅速,將相關(guān)算法應(yīng)用到電子戰(zhàn)中正逐漸成為雷達(dá)抗干擾研究的新趨勢(shì)[6]。姚毅等將卷積神經(jīng)網(wǎng)絡(luò)(Convolu-tional Neural Network, CNN)運(yùn)用到雷達(dá)反欺騙干擾領(lǐng)域[7],不依賴設(shè)計(jì)者的經(jīng)驗(yàn),采用數(shù)據(jù)訓(xùn)練,取得了98.83%的識(shí)別率。但是,姚毅等搭建的卷積神經(jīng)網(wǎng)絡(luò)存在識(shí)別參數(shù)龐大的問題,不利于實(shí)時(shí)處理。
本文提出了一種基于分解卷積神經(jīng)網(wǎng)絡(luò)(Factorized Convolutional Neural Network, F-CNN)的雷達(dá)目標(biāo)辨識(shí)算法。以深度可分離卷積[7](Depthwise Separable Convolution, DSC)結(jié)構(gòu)為基礎(chǔ)搭建分解卷積神經(jīng)網(wǎng)絡(luò),以及對(duì)分解卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行精簡(jiǎn)[8],使用實(shí)測(cè)數(shù)據(jù)對(duì)兩個(gè)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練和測(cè)試,并對(duì)結(jié)果進(jìn)行分析討論。
本節(jié)詳細(xì)介紹具體的卷積結(jié)構(gòu)(深度可分離卷積結(jié)構(gòu))及網(wǎng)絡(luò)模型(分解卷積神經(jīng)網(wǎng)絡(luò)模型)。
假設(shè)輸入圖像矩陣I∈h×w×m,其中h表示圖像的高,w表示圖像的寬,m表示圖像通道數(shù);卷積核矩陣K∈k×k×m×n,其中k表示卷積核尺寸,n表示卷積核數(shù)。在標(biāo)準(zhǔn)卷積運(yùn)算中,取步長(zhǎng)為1,且對(duì)邊界不進(jìn)行補(bǔ)零操作時(shí),輸出圖像矩陣為O∈(h-k+1)×(w-k+1)×n。計(jì)算公式[7]為
I(y+u-1,x+v-1,i)
1≤y≤h-k+1,1≤x≤w-k+1,1≤j≤n
(1)
式中,O(y,x,j)表示標(biāo)準(zhǔn)卷積輸出圖像矩陣O的第(y,x,j)個(gè)元素。式(1)其他矩陣類似O(y,x,j)表述的含義與其含義相似。
式(1)的計(jì)算量為
C1=k2mnhw
(2)
標(biāo)準(zhǔn)卷積的卷積核模型如圖1所示。
圖1 標(biāo)準(zhǔn)卷積核
深度可分離卷積是將標(biāo)準(zhǔn)卷積運(yùn)算分解為逐通道卷積(Depthwise Convolution,DC)和逐點(diǎn)卷積(Pointwise Convolution,PC)。逐通道卷積過濾輸入圖像,提取特征。逐點(diǎn)卷積則是將提取的特征進(jìn)行加權(quán)合并。
逐通道卷積的卷積核和逐點(diǎn)卷積的卷積核模型分別如圖2和圖3所示。
圖2 逐通道卷積核
圖3 逐點(diǎn)卷積核
給定輸入圖像矩陣,逐通道卷積核P∈k×k×1×m,逐點(diǎn)卷積核Q∈1×1×m×n。在卷積運(yùn)算步長(zhǎng)為1,且對(duì)邊界不進(jìn)行補(bǔ)零操作時(shí),通過分解卷積運(yùn)算,可以得到輸出圖像矩陣。計(jì)算過程如下:
逐通道卷積公式[7]為
I(y+u-1,x+v-1,j)
1≤m≤h-k+1, 1≤n≤w-k+1, 1≤j≤m
(3)
式中,G(m,n,j)表示逐通道卷積后輸出矩陣G中的第(m,n,j)個(gè)元素。式(3)其他矩陣類似G(m,n,j)表述的含義與其含義相似。
逐點(diǎn)卷積公式[7]為
1≤y≤h-k+1, 1≤x≤w-k+1, 1≤l≤n
(4)
式(4)其他矩陣類似G(m,n,j)表述的含義與其含義相似。
深度可分離卷積的計(jì)算量為
C2=k2mhw+mnhw
(5)
深度可分離卷積的計(jì)算量與標(biāo)準(zhǔn)卷積的計(jì)算量之比,可以得到如下結(jié)果:
(6)
式中,當(dāng)k=5,n=32時(shí),η≈7%,即相同情況下深度可分離卷積運(yùn)算的計(jì)算量?jī)H有標(biāo)準(zhǔn)卷積運(yùn)算的7%。
參照卷積神經(jīng)網(wǎng)絡(luò)的經(jīng)典模型LeNet-5[9],并比照卷積神經(jīng)網(wǎng)絡(luò)模型[7],搭建分解卷積神經(jīng)網(wǎng)絡(luò)。其網(wǎng)絡(luò)框圖如圖4所示。
圖4 分解卷積神經(jīng)網(wǎng)絡(luò)框圖
分解卷積神經(jīng)網(wǎng)絡(luò)由1個(gè)輸入層、3個(gè)卷積層(1個(gè)標(biāo)準(zhǔn)卷積和2個(gè)分解卷積)、1個(gè)池化層、2個(gè)全連接層、1個(gè)輸出層組成。實(shí)際運(yùn)算中,為了及時(shí)有效地調(diào)整數(shù)據(jù),需要引入塊歸一化(Batch Normalization)操作[10]、激活(Activation)操作[11]、平整(Flatten)操作、棄離(Dropout)操作。塊歸一化操作可使輸出服從均值為0、方差為1的標(biāo)準(zhǔn)正態(tài)分布。引入激活函數(shù)可以添加輸出的非線性因素。平整操作則是將矩陣?yán)斐上蛄?,便于全連接層進(jìn)行特征提取。棄離操作是為了有效減少過擬合的情況。
各個(gè)層級(jí)輸出樣本大小和參數(shù)數(shù)量如表1所示。
表1 分解卷積神經(jīng)網(wǎng)絡(luò)輸出樣本大小和參數(shù)數(shù)量統(tǒng)計(jì)
注:輸出大小中的“None”表示不限制輸出和輸入的數(shù)量。
分解卷積神經(jīng)網(wǎng)絡(luò)模型中,6個(gè)層級(jí)共使用了5 929 283個(gè)參數(shù),是卷積神經(jīng)網(wǎng)絡(luò)參數(shù)數(shù)量的近3倍。同時(shí)全連接層參數(shù)數(shù)目占總參數(shù)數(shù)目的99.75%。
參數(shù)數(shù)量過多將會(huì)嚴(yán)重影響識(shí)別的速率,為此對(duì)該網(wǎng)絡(luò)模型進(jìn)行精簡(jiǎn),搭建精簡(jiǎn)分解卷積神經(jīng)網(wǎng)絡(luò)。在原網(wǎng)絡(luò)層數(shù)不變的前提下減少卷積核數(shù)和第一個(gè)全連接層連接節(jié)點(diǎn)數(shù)。精簡(jiǎn)分解卷積神經(jīng)網(wǎng)絡(luò)框圖如圖5所示。
圖5 精簡(jiǎn)分解卷積神經(jīng)網(wǎng)絡(luò)框圖
精簡(jiǎn)分解卷積神經(jīng)網(wǎng)絡(luò)與分解卷積神經(jīng)網(wǎng)絡(luò)相比較,各個(gè)層級(jí)的參數(shù)數(shù)量均減少,而全連接層參數(shù)數(shù)量減少得最多。各個(gè)層級(jí)輸出大小和參數(shù)數(shù)量統(tǒng)計(jì)如表2所示。
表2 精簡(jiǎn)分解卷積神經(jīng)網(wǎng)絡(luò)輸出樣本大小和參數(shù)數(shù)量統(tǒng)計(jì)
注:“None”表示對(duì)輸出圖片的數(shù)量并沒有限制。
精簡(jiǎn)分解卷積神經(jīng)網(wǎng)絡(luò)中6個(gè)層級(jí)共使用186 371個(gè)參數(shù),全連接層參數(shù)依舊占到了全部參數(shù)的99%以上。
本節(jié)主要講述用實(shí)測(cè)數(shù)據(jù)樣本對(duì)兩個(gè)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練和測(cè)試,并對(duì)測(cè)試結(jié)果進(jìn)行比較分析。
實(shí)驗(yàn)數(shù)據(jù)均為實(shí)測(cè)數(shù)據(jù),數(shù)據(jù)包括真實(shí)目標(biāo)樣本、地雜波樣本、密集假目標(biāo)樣本。數(shù)據(jù)二維平面顯示如圖6所示。
圖6 某型雷達(dá)實(shí)測(cè)數(shù)據(jù)不同樣本平面顯示
對(duì)采集到的數(shù)據(jù)進(jìn)行合理切塊和數(shù)據(jù)擴(kuò)充。組建相應(yīng)的訓(xùn)練集和測(cè)試集,對(duì)搭建好的網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練和測(cè)試。數(shù)據(jù)擴(kuò)充可以彌補(bǔ)數(shù)據(jù)量不足的缺點(diǎn),增加訓(xùn)練集和測(cè)試集。擴(kuò)充方式如圖7所示。
圖7 數(shù)據(jù)擴(kuò)充
網(wǎng)絡(luò)模型的訓(xùn)練和測(cè)試均是基于Keras深度學(xué)習(xí)框架,采用Python語言編寫程序。實(shí)驗(yàn)使用的具體硬件平臺(tái)為CPU:Inter Xeon E5-2620 v3 @2.4 GHz,GPU:GTX TITAN X。
采用與卷積神經(jīng)網(wǎng)絡(luò)相同的數(shù)據(jù)對(duì)模型進(jìn)行訓(xùn)練和測(cè)試,在每一輪迭代結(jié)束后統(tǒng)計(jì)識(shí)別率,可以得到如圖8所示的統(tǒng)計(jì)結(jié)果。
圖8 3種模型識(shí)別率比較
圖8表明,分解卷積神經(jīng)網(wǎng)絡(luò)和精簡(jiǎn)分解卷積神經(jīng)網(wǎng)絡(luò)在經(jīng)過3次迭代之后,其識(shí)別率均比卷積神經(jīng)網(wǎng)絡(luò)更高。
3種模型由于卷積結(jié)構(gòu)、卷積核尺寸和全連接層連接節(jié)點(diǎn)不同,使得其識(shí)別率和參數(shù)數(shù)量?jī)煞N性能均存在差異。對(duì)兩種性能進(jìn)行統(tǒng)計(jì),得到表3。
表3 3種網(wǎng)絡(luò)模型綜合性能分析
表3表明分解卷積神經(jīng)網(wǎng)絡(luò)的識(shí)別率最高,但是參數(shù)數(shù)量也是最多,是卷積神經(jīng)網(wǎng)絡(luò)的近3倍。精簡(jiǎn)分解卷積神經(jīng)網(wǎng)絡(luò)識(shí)別率也較高,參數(shù)數(shù)量卻僅占卷積神經(jīng)網(wǎng)絡(luò)的8.56%。
雷達(dá)目標(biāo)辨識(shí)是雷達(dá)抗干擾的基礎(chǔ)。本文提出了基于分解卷積神經(jīng)網(wǎng)絡(luò)的雷達(dá)目標(biāo)辨識(shí)算法,實(shí)測(cè)雷達(dá)數(shù)據(jù)處理結(jié)果表明,分解卷積神經(jīng)網(wǎng)絡(luò)的識(shí)別率在卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上再提升近一個(gè)百分點(diǎn),但是網(wǎng)絡(luò)參數(shù)量龐大,不利于實(shí)時(shí)高效處理。精簡(jiǎn)分解卷積神經(jīng)網(wǎng)絡(luò)在卷積神經(jīng)網(wǎng)絡(luò)識(shí)別率的基礎(chǔ)上提升0.4個(gè)百分點(diǎn),參數(shù)數(shù)量大幅度減少,僅占卷積神經(jīng)網(wǎng)絡(luò)參數(shù)數(shù)量的8.56%。與卷積神經(jīng)網(wǎng)絡(luò)相比較,本文所提的算法對(duì)真實(shí)目標(biāo)樣本、地雜波樣本、密集假目標(biāo)樣本均能提升辨識(shí)準(zhǔn)確率。如何對(duì)真實(shí)目標(biāo)進(jìn)行詳細(xì)區(qū)分將是下一步的研究重點(diǎn)。