蘇琮智,王美玲,楊承志,吳宏超
(空軍航空大學 航空作戰(zhàn)勤務學院,長春 130022)
近年來,深度學習算法在雷達輻射源信號識別領域獲得了廣泛應用,卷積神經網絡(Convolutional Neural Network,CNN)是最經典的模型之一。CNN利用權值共享、局部感知的思想大大降低了網絡的復雜度和計算成本,可以高效地處理多維圖像,特別是在二維圖像處理上優(yōu)勢巨大[1]。因此,可以直接將對雷達輻射源信號進行一定的變換后提取到的二維圖像輸入CNN網絡,網絡將自動提取雷達輻射源信號的深層隱藏特征并進行分類識別。
當訓練數(shù)據(jù)充足時,利用深度學習進行雷達輻射源識別可以達到較高的正確率并具有較強的魯棒性,相比傳統(tǒng)的算法有較大的提升,但同時也存在不足之處:在低信噪比下網絡提取深層次特征更加困難,對輻射源的識別準確率還有待提高;許多用于識別的神經網絡網絡層數(shù)較深、參數(shù)過多,網絡的時間復雜度和空間復雜度較大,因此訓練速度慢、計算量龐大。
EfficientNet[2]是用一種新的模型縮放方法構建的網絡,相比以前的卷積神經網絡在準確性和效率方面更優(yōu)秀。本文以EfficientNet-B0為基礎框架,通過使用卷積注意力模塊(Convolutional Block Attention Module,CBAM)替換壓縮和激勵(Squeeze and Excitation,SE)模塊改進網絡中的移動倒置瓶頸卷積(Mobile inverted Bottleneck Convolution,MBConv)模塊,增強了網絡提取多種特征的能力;分析了ReLU和h-Swish相比于Swish激活函數(shù)的優(yōu)勢,在網絡不同深度使用不同的激活函數(shù)以兼顧網絡的訓練速度和識別精度,添加了標簽平滑機制并對時頻圖進行CutMix數(shù)據(jù)增強,防止網絡產生過擬合,能夠對9種不同調制信號進行有效識別,整體平均識別率達到了99.25%。
時頻分析方法結合分析非平穩(wěn)信號的時域和頻域兩個維度,可以直接反映信號在這兩個維度的映射關系,從而得到信號的相關調制信息,能夠更加直觀地分析和處理信號。Choi-Williams分布(Choi-Williams Distribution,CWD)[3]是一種典型的二次型時頻分布,可以有效抑制交叉項,也能保持良好的時頻分辨率。
本文采用CWD對輻射源信號進行時頻變換獲取時頻圖,其核函數(shù)是指數(shù)核函數(shù),即
(1)
式中:v表示頻偏;τ表示時移。由核函數(shù)得到CWD的數(shù)學表達式為
(2)
式中:t表示時間變量;ω表示角頻率變量;s(u)表示時間信號;*表示復數(shù)共軛;σ表示衰減系數(shù),通常設置σ∈[0.1,10],選擇合適的數(shù)值能夠增強時頻性能。
CutMix[4]是一種數(shù)據(jù)增強策略,具體做法是通過對訓練圖像A進行剪切和粘貼補丁,將一部分區(qū)域剪切但不像Cutout[5]方法填充0像素,而是隨機選擇訓練集中的另一張B圖像,并以B圖像的區(qū)域像素值對A圖剪裁區(qū)域進行填充,其中真實標簽的混合與補丁的面積成正比,即兩個樣本隨機加權求和,樣本的標簽對應加權求和。
圖1所示為CutMix方法處理效果。
(a)處理前
在對圖像做歸一化處理以后,在訓練集中抽選出的一張調制方式為P2的CWD時頻圖a,其未經過CutMix方法處理,然后隨機選取樣本中另一張圖像截取對應的剪裁區(qū)域對a圖剪裁區(qū)域進行填充得到b圖,隨機選取的是一張調制方式為2FSK的圖像,可以明顯看出b圖中的“補丁”,使用該方法時“補丁”面積大小隨機生成。
該方法對比于其他數(shù)據(jù)增強方法如Cutout和Mixup training[6],Cutmix相當于更換某個零件,模型更容易區(qū)分樣本中的異類,能夠增強網絡學習局部特征從而增強模型泛化能力,提高訓練效率,并且能夠保持訓練代價不變。
卷積神經網絡通常通過增加深度、寬度和圖像分辨率中的一個來獲得更高的精度,然而這一般也意味這消耗更多資源。EfficientNet提出了一種原則性的復合縮放方法即使用一組固定的縮放系數(shù)來均勻地縮放網絡的寬度、深度和分辨率來擴大網絡的規(guī)模,使用一個新的baseline網絡并擴展獲得EfficientNetB0-B7系列網絡,最簡單的B0網絡的識別效果在ImageNet數(shù)據(jù)集上也超過了ResNet50、InceptionV2等網絡,在5個常用的傳輸學習數(shù)據(jù)集上達到了最先進的精度,并且網絡的參數(shù)擁有數(shù)量級的減少。EfficientNet-B0為基線網絡,其網絡結構如表1所示。
表1 EfficientNet-B0基線網絡結構
EfficientNet-B0的網絡結構分為9個階段,第一個階段為3×3的普通卷積,步長為2,連接批量歸一化(Batch Normalization,BN)層和Swish激活函數(shù);第2~8個階段都是移動倒置瓶頸卷積(Mobile inverted Bottleneck Convolution,MBConv),在每個階段該模塊重復的次數(shù)對應層數(shù)Li;最后一個階段為1×1卷積、全局平均池化和全連接層可添加Softmax激活函數(shù)進行分類。
原MBConv模塊是EfficientNet的核心模塊,該模塊來源于MobileNetV2[7]中的移動倒置瓶頸模塊,并添加了壓縮和激勵模塊[8]進行優(yōu)化,激活函數(shù)選擇Swish,其結構如圖2所示。
圖2 MBConv結構
SE模塊在應用中通過對卷積中的特征圖進行處理,只對卷積中不同的通道進行關注,相比之下,卷積注意力模塊(Convolutional Block Attention Module,CBAM)[9]依次應用了通道注意力模塊(Channel Attention Module,CAM)和空間注意力模塊(Spatial Attention Module,SAM),通過給予需要強調或抑制的信息不同權重有助于網絡內的信息流動,在卷積中有更好的效果,其中CAM和SAM結構如圖3和圖4所示。CAM模塊生成的通道注意力和輸入的特征圖相乘得到的特征圖將作為SAM模塊的輸入,SAM模塊輸出的空間注意力和該模塊輸入的特征圖做乘操作,從而得到最終的特征圖。
圖3 CAM結構
圖4 SAM結構
在EfficientNet原始網絡中,網絡第1個和第9個卷積模塊以及網絡2~8模塊對應的MBConv結構中使用的都是Swish激活函數(shù)[10]。Swish激活函數(shù)在深度神經網絡中的效果比ReLU激活函數(shù)好,但是計算時間更慢,其函數(shù)的表達式如下:
f(x)=x·sigmoid(βx)。
(3)
公式(3)中的β是可訓練的參數(shù)。Swish激活函數(shù)無上界、有下界、平滑、非單調,可以豐富神經網絡層的表現(xiàn)能力,但該激活函數(shù)計算量比較大,計算和求導時間復雜。
相比于Swish激活函數(shù),h-Swish激活函數(shù)求導過程更加簡單,在效果影響不大的情況下能夠使計算量大大降低。h-Swish激活函數(shù)其實就是來自h-Sigmoid激活函數(shù),該函數(shù)的表達式如下:
f(x)=x·ReLU6(x+3)/6。
(4)
式中:
ReLU6=min(ReLU,6)。
(5)
在MobileNetV3[11]中,Swish的大多數(shù)好處是在更深的層實現(xiàn)的,因此只在網絡的后半部分采用了h-Swish激活函數(shù)。
首先,對EfficientNet-B0網絡中的MBConv模塊進行改進,用CBAM模塊將網絡中的原MBConv模塊中的SE模塊替換,使網絡同時關注兩個維度上的特征信息,抑制不重要的特征信息,加強對圖像深層特征的提取得到改進的MBConv模塊。改進后的結構如圖5所示。
圖5 改進的MBConv結構
改進的MBConv包含CBAM模塊,CBAM模塊的輸入是深度卷積后得到的特征圖,其中的通道注意力和空間注意力由圖3和圖4所示的CAM、SAM結構輸出得到;分別關注卷積中的通道和空間信息,輸出的新特征圖經過卷積后若形狀不變則添加短連接并使用DropOut正則化,針對原始EfficientNet-B0網絡,替換階段2~8的所有MBConv模塊,保持網絡的其他結構不變。
其次,考慮到隨著網絡的加深,特征圖分辨率減小,為了減弱應用非線性函數(shù)的成本,兼顧不同激活函數(shù)對于識別效果和識別速度的影響,而且h-Swish激活函數(shù)計算量小于Swish激活函數(shù),在深層表現(xiàn)明顯,可以彌補只用ReLU產生的精度損失,在網絡前端選擇采用ReLU,在網絡后端采用h-Swish,通過在不同位置選擇不同的激活函數(shù)得到多種組合,進行實驗和分析以后選擇綜合效果最好的一組。
通過改進MBConv模塊和調整網絡的激活函數(shù)得到了改進后的EfficientNet網絡。
標簽平滑[12](Label Smoothing)是一種正則化方法,主要用于分類問題,作用是擾動目標變量,防止網絡太過于相信真實標簽即網絡過度自信,可以將正確類的概率值更接近其他類的概率值,能夠改善模型的泛化能力,其公式如下:
(6)
(7)
式中:ce(x)表示x的標準交叉熵損失,例如-lb(p(x));i是正確的類;N是類的數(shù)量。標簽平滑鼓勵網絡的輸出接近帶權重比例的正確類,同時讓輸出與不正確的帶權重比例的錯誤類保持等距。
Step1 建立改進后的EfficientNet網絡。
Step2 獲取信號時頻圖像并進行預處理:對雷達信號的仿真數(shù)據(jù)進行CWD變換得到時頻圖像,用雙線性插值法將圖像大小設置為224×224,對圖像進行歸一化處理,將其像素范圍壓縮至[0,1],處理后時頻圖像的維度將變?yōu)閇224,224,3]。
Step3 為時頻圖像添加標簽,把標簽轉換為one-hot編碼形式。
Step4 數(shù)據(jù)集制作:將時頻圖像與標簽一起組成數(shù)據(jù)集,將生成的數(shù)據(jù)集按照6∶2∶2的比例分為訓練集、驗證集和測試集。對訓練樣本圖像做CutMix增強處理,對樣本標簽做標簽平滑處理。訓練集用于訓練網絡、優(yōu)化參數(shù);驗證集在訓練集迭代訓練時驗證模型的泛化能力,以此來調整訓練選擇的各項參數(shù);測試集用來評估模型最終的泛化能力即模型識別能力。
Step5 模型訓練:將訓練樣本輸入網絡進行訓練。
Step6 信號識別:加載模型參數(shù),輸入測試集的樣本,對信號調制方式進行識別預測。
本文實驗遠程連接服務器進行訓練,服務器的操作系統(tǒng)為Ubuntu20.04.1,GPU的型號為NVIDIA Tesla V100,顯存16 GB。實驗使用python3.6編程語言,選擇深度學習模型框架tensorflow2.0.0-gpu。
本文按照不同調制信號的信號模型并參考文獻[13]的參數(shù)設置,使用Matlab生成了雷達輻射源信號的9種不同脈內調制方式(2FSK、4FSK、2PSK、4PSK、LFM、P1、P2、P3、P4)的數(shù)據(jù)集,實驗數(shù)據(jù)集的結構組成如下:
樣本長度:時域信號為2 048個采樣點;
信號形式為CWD時頻圖;
信號維度為[224,224,3];
信噪比范圍為-10~8 dB,間隔步長2 dB;
單一信噪比單一調制類型的樣本個數(shù)為1 024個。
針對本文數(shù)據(jù)集,設置網絡訓練各項參數(shù),batchsize設置為32,損失函數(shù)選擇交叉熵損失函數(shù),優(yōu)化器選擇Adam,因網絡收斂快,總的訓練輪數(shù)設置為50輪次,驗證頻率設置為1,每訓練一輪驗證模型一次。初始學習率設置為1×10-3,并設置學習率下降機制,若驗證集損失保持3輪不下降則縮小學習率為原來的一半。為節(jié)省時間,防止網絡過擬合,設置早停機制,當驗證集的損失在訓練5輪沒有下降時認為網絡收斂則結束訓練,保存模型的最優(yōu)參數(shù)。
實驗1為了探究用CBAM注意力機制改進模型的效果,對比分析采用CBAM改進后的EfficientNet-B0網絡和原始EfficientNet-B0網絡的識別效果,輸入數(shù)據(jù)不采用CutMix數(shù)據(jù)增強,樣本標簽都不使用標簽平滑只是將其變換為one-hot編碼,用不同信噪比的所有調制類型的數(shù)據(jù)進行測試,兩種模型的識別效果如圖6所示。
圖6 改進前后網絡性能對比
由圖6可知,兩個模型在信噪比高于0 dB時識別準確率都能夠達到100%。這是因為信噪比較高時,圖像特征信息強,不同調制信號的時頻圖差別大,更加容易提取特征進行識別。改進后的EfficientNet-B0網絡在信噪比-8 dB時識別準確率達到了96.40%,明顯高于原始MBConv模塊組成的網絡,說明本文改進的模型有更好的識別能力。
激活函數(shù)作為CNN的重要單元,能夠給網絡帶來非線性的特征,激活函數(shù)的大量使用對模型效果影響較大。實驗2為了選擇適合的激活函數(shù),進行不同組合和實驗,其中的1~9階段如表1所示對應改進型EfficientNet-B0的網絡結構,其中的MBConv模塊都添加了CBAM后的改進模塊,根據(jù)激活函數(shù)的特點,固定第一層卷積層使用ReLU,最后一層卷積層使用h-Swish,通過改變2~8階段所有MBConv模塊使用的激活函數(shù),得到8個不同組合,網絡原始的激活函數(shù)全部都是Swish,組合0就是用沒有改變激活函數(shù)的改進型網絡,激活函數(shù)應用于對應的整個階段i,在卷積層和BN層以后使用,對8個不同組合所對應網絡進行訓練,然后對測試集進行測試。每個組合使用的激活函數(shù)以及測試結果可掃描本文OSID碼查看。
由實驗結果可知,使用h-Swish激活函數(shù)能夠保持網絡的識別精度但比Swish計算更快,使用ReLU激活函數(shù)能夠加快網絡訓練速度,但是一定程度上會帶來精度損失。組合4網絡在第5階段之后才使用h-Swish激活函數(shù),此時特征圖大小為14×14,應用非線性函數(shù)的成本減弱,對比于ReLU提高了網絡精度。實驗結果表明,組合4網絡對比于僅用CBAM改進后的網絡能夠保持識別精度并且很大程度上加快了網絡的訓練速度,因此選擇組合4對應的網絡作為本文最終的改進EfficientNet模型。
模型改進前后的參數(shù)和識別準確率如表2所示。由表2可知,改進后的網絡參數(shù)增加很少,這是因為引入了CBAM模塊帶了少量的參數(shù)增加。改進后的模型在不斷訓練時能夠同時關注通道和空間兩個維度上的特征信息,訓練速度比原始MBConv組成的B0網絡略慢,但是識別效果提升顯著,在-10 dB時,改進后的網絡識別準確率提高了7.97%;通過改變網絡的激活函數(shù),與單獨改進網絡結構相比網絡訓練速度加快62 ms/step,訓練效率提升了23.7%,在一輪迭代訓練中,可以減少107.1 s時間,并且不會影響識別準確率,證明通過改變激活函數(shù),網絡得到了有效的改進。
表2 改進前后模型的對比
實驗3為了進一步了解標簽平滑機制、CutMix數(shù)據(jù)增強對對模型泛化能力的影響,以測試集的正確率和損失為評價標準進行多次消融實驗,實驗結果如表3所示。由表3可知,模型在添加了標簽平滑機制和使用CutMix數(shù)據(jù)增強以后,識別準確率都得到了提高,加入了標簽平滑機制以后識別率提升了0.2%,加入了CutMix數(shù)據(jù)增強識別準確率提升了0.54%,同時加入兩種方法識別率提升了0.62%,最終整體的識別率達到了99.25%。
表3 不同方法對模型識別率的影響
為進一步分析模型的識別效果,利用訓練保存的最終模型在信噪比-10 dB的測試集進行測試識別,識別率達到了94.24%,其混淆矩陣如圖7所示,可以看出識別錯誤主要發(fā)生在多相碼調制類型中,特別是P1和P4碼;P1、P2碼信號是對線性調頻波形的階梯型近似,當信噪比降低時時頻圖像中的階梯型特征會逐漸消失,因此會影響識別效果。
圖7 -10 dB條件模型識別結果混淆矩陣
實驗4為了驗證本文提出的改進EfficientNet網絡模型性能,選取了在圖像分類識別中常用的網絡模型AlexNet、InceptionV3、SE-Resnet50、DenseNet121、VGG19進行對比,除InceptionV3網絡數(shù)據(jù)輸入大小為299×299外,其余網絡輸入均為224×224。數(shù)據(jù)集預處理和訓練設置相同,用混合信噪比的數(shù)據(jù)進行測試,測試結果如表4所示。
表4 網絡對比
表4中顯示了各個網絡空間復雜度和模型識別準確率的對比,網絡的空間復雜度一般指模型的參數(shù)數(shù)量,體現(xiàn)為模型本身的體積,模型參數(shù)越多,訓練該模型時就需要更多的數(shù)據(jù)。本文構建的改進EfficientNet網絡模型空間復雜度很小,模型參數(shù)量相比于其他網絡呈倍數(shù)減少;VGG19的參數(shù)量達到了改進EfficientNet的31倍之多,所選取的6個網絡的整體準確率都達到了96%以上。這是由于本文構建的數(shù)據(jù)集數(shù)量充足,參數(shù)量大的模型擁有足夠的數(shù)據(jù)進行訓練,并且進行了數(shù)據(jù)增強,識別性能有所提高。相比于SE-Resnet50,改進EfficientNet參數(shù)約為SE-Resnet50的1/4,SE-Resnet50的識別準確率也達到98.47%,是因為在Resnet50的基礎上添加了SE模塊,殘差連接和通道注意力增強了模型的泛化能力??偟膩碚f,本文改進EfficientNet模型參數(shù)更少,識別準確率也更高,能夠更好地識別雷達輻射源信號。
實驗5對本文提出的方法和其他識別雷達信號的深度學習方法進行了比較,選取了近兩年來的文獻采用的識別方法。文獻[14]構建了改進型AlexNet網絡,調整了卷積核的大小和全連接層的節(jié)點數(shù),網絡參數(shù)量相比于原始AlexNet網絡有所減少,但同樣較多達到了3.365×107;文獻[15]構建了擴張殘差網絡DRN,減少了原始殘差網絡的每一組卷積的通道數(shù),但設置每層的殘差單元數(shù)只為1,網絡層數(shù)較少,因此參數(shù)量為1.24×106;文獻[16]構建了SE-ResNeXt網絡,在殘差結構中用分組卷積替換分支結構,同時添加了SE模塊,并對每層的殘差單元數(shù)進行調整,參數(shù)量達到了3.951×107。三篇文獻中都使用了CWD時頻分析方法,網絡最后都使用Softmax分類器輸出。在相同實驗條件下進行訓練,圖8顯示了三篇文獻中的方法和本文方法對9類雷達輻射源信號在不同信噪比條件下的識別準確率。
如圖8所示,四種方法在信噪比大于-4 dB時識別準確率都到了98%,但是隨著信噪比的降低,文獻[14]和文獻[15]的識別效果降低較多,特別是文獻[15]識別效果最差。因為其模型DNR雖然參數(shù)量較少,但是模型設計過于簡單,僅包含9個卷積層,特征提取能力低于其他三個模型,總體識別率也最低。本文提出的方法識別效果好于其他三種方法,在信噪比-10 dB時,對9種調制信號的綜合識別率達到了94.24%,比文獻[14]和文獻[15]的方法分別高出了7.65%和9.59%。文獻[16]提出的方法識別效果略低于本文方法,體現(xiàn)了SE-ResNeXt網絡在低信噪比條件下同樣可以有效識別雷達信號,但是網絡參數(shù)多,達到了本文模型參數(shù)的8.9倍??傮w來說,對雷達輻射源信號調制方式進行識別中,本文提出的方法相比于其他深度學習方法參數(shù)量少,識別效果好,具有一定的優(yōu)越性。
本文針對雷達信號調制方式的在低信噪比條件下的識別問題,搭建了基于EfficientNet的改進網絡模型,使用卷積注意力模塊改進模型加強模型對雷達信號時頻圖的通道、空間有用特征的關注,通過對非線性激活函數(shù)的效果分析優(yōu)化網絡訓練,采用CWD分布進行時頻分析,對得到的時頻圖做CutMix數(shù)據(jù)增強處理以增強模型對困難樣本的識別能力。經實驗證實,本文提出的方法網絡空間復雜度低,參數(shù)量大大低于經典圖像識別網絡,與現(xiàn)有的利用深度學習的方法相比,在低信噪比條件下對信號的多種調制方式具有更高的識別準確率。在模型的時間復雜度的優(yōu)化方面,還可以繼續(xù)研究。