劉鑄華,齊永梅,劉正成
(中國船舶重工集團公司第七二三研究所,江蘇 揚州 225101)
雷達利用目標回波來獲得目標的信息,從而發(fā)現(xiàn)和測定目標。在雷達目標環(huán)境中,目標以外的其他散射體的回波稱為雷達雜波。在雷達探測目標時,目標的回波強度可能遠低于這些不期望得到的回波強度,因此當目標處于特別強的雜波環(huán)境中時,雷達對目標的檢測難度大大增加[1]。在作戰(zhàn)指揮時,如果態(tài)勢中存在大量的虛假航跡,必然會給指揮員的作戰(zhàn)決策帶來嚴重的干擾[2-3]。由于雜波是不可避免的,信號處理和數(shù)據(jù)處理的一個重要任務(wù)就是盡可能地對雜波和雜波產(chǎn)生的疑似點跡進行過濾[4-5]。
人工神經(jīng)網(wǎng)絡(luò)是模擬生物的神經(jīng)網(wǎng)絡(luò)處理信息的系統(tǒng),其原理為:利用大量的歷史數(shù)據(jù),逐層提取數(shù)據(jù)的特征,尋找數(shù)據(jù)與標簽的關(guān)系,按照舊數(shù)據(jù)得出的規(guī)律提取新數(shù)據(jù)的特征并進行合理的推斷、分類、預(yù)測[6]。2006年,Hinton教授提出,有多個隱層的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)具有更強的學(xué)習(xí)能力,這引起了學(xué)術(shù)界、工業(yè)界對深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的再次探索[7]。深度學(xué)習(xí)的快速發(fā)展,給雷達目標檢測提供了一些新的啟發(fā)。在雷達海量大數(shù)據(jù)背景下,研究基于深度學(xué)習(xí)的雷達點跡分類方法,輔助過濾雜波點跡,對虛假航跡抑制具有重要意義。
在訓(xùn)練神經(jīng)網(wǎng)絡(luò)的過程中,通常需要對原始數(shù)據(jù)進行預(yù)處理。在一些實際問題中,我們得到的樣本數(shù)據(jù)都是多個維度的,即一個樣本是用多個特征來表征的[8]。這些特征的量綱和數(shù)值的量級都是不一樣的,如果直接使用原始的數(shù)據(jù)值,那么每個特征的影響程度將是不一樣的,而通過數(shù)據(jù)預(yù)處理,可以使得不同的特征具有相同的尺度[9]。全連接神經(jīng)網(wǎng)絡(luò)的訓(xùn)練需要大量的雷達點跡數(shù)據(jù),數(shù)據(jù)預(yù)處理在算法中起著重要作用。本文以TensorFlow作為深度學(xué)習(xí)的基礎(chǔ)框架,搭建全連接神經(jīng)網(wǎng)絡(luò)用于雷達點跡的分類,研究不同數(shù)據(jù)預(yù)處理方法對模型效果的影響。
使用的數(shù)據(jù)全部采用雷達實測點跡數(shù)據(jù),根據(jù)劇情對數(shù)據(jù)中的每個點跡進行標注,雜波標簽為0,目標標簽為1。利用其中大部分數(shù)據(jù)對模型進行訓(xùn)練,再留一部分數(shù)據(jù)用于驗證模型。用于模型訓(xùn)練的數(shù)據(jù)集稱為訓(xùn)練集數(shù)據(jù),用于模型驗證的數(shù)據(jù)稱為驗證集數(shù)據(jù)。
通過整理,針對點跡數(shù)據(jù),本文提取如下幾種信息(包括位置信息、特征信息),具體如表1所示。
表1 點跡數(shù)據(jù)信息
本文搭建的全連接神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。
圖1 全連接神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
網(wǎng)絡(luò)層數(shù)為4層,隱藏層節(jié)點數(shù)分別為64,128,32。作為神經(jīng)網(wǎng)絡(luò)輸入的特征向量直接從點跡文件中獲取,激活函數(shù)為ReLU函數(shù),損失函數(shù)則為期望輸出與真實輸出的加權(quán)交叉熵,加權(quán)的目的是盡量降低目標損失率。
網(wǎng)絡(luò)訓(xùn)練步驟如下:
(1) 初始化。初始化訓(xùn)練次數(shù)為0,初始化權(quán)重為截斷的正態(tài)分布噪聲,標準差設(shè)為0.1,初始化偏置為0.1,初始學(xué)習(xí)速率為0.001,每訓(xùn)練10輪后學(xué)習(xí)率乘以衰減系數(shù)0.99。
(2) 前向傳播。從訓(xùn)練數(shù)據(jù)集中隨機抽取512個特征數(shù)據(jù)輸入網(wǎng)絡(luò),逐層計算各層網(wǎng)絡(luò)的輸出,獲得預(yù)測值。
(3) 反向傳播。得到輸出層的真實值后,根據(jù)優(yōu)化損失函數(shù)計算真實值與數(shù)據(jù)標簽的誤差,更新網(wǎng)絡(luò)連接權(quán)值和偏置量。
(4) 迭代訓(xùn)練。通過步驟(2)、(3),完成一次訓(xùn)練,訓(xùn)練數(shù)加1。然后使用當前狀態(tài)的網(wǎng)絡(luò)對驗證數(shù)據(jù)集進行分類,得到分類準確率、目標損失率和雜波濾除率。若訓(xùn)練數(shù)大于5 000,停止訓(xùn)練,否則轉(zhuǎn)至步驟(2)繼續(xù)。
本文將綜合利用準確率、目標損失率和雜波濾除率對比采用不同數(shù)據(jù)預(yù)處理的全連接神經(jīng)網(wǎng)絡(luò)模型效果。下面對3個模型效果對比指標進行說明。
準確率是一個用于評估分類模型的指標,是指模型預(yù)測正確的結(jié)果所占的比例,公式如下:
(1)
式中:A為準確率;TP為目標分類正確數(shù);TN為雜波分類正確數(shù);N為樣本總數(shù)。
在本文雷達雜波和真實目標分類問題研究中,漏警可能造成很嚴重的損失,也就是說將目標判為雜波的代價要遠高于將雜波判為目標的代價。因此對比模型效果時,目標損失率也是一個重要指標,公式如下:
(2)
式中:γt為目標損失率;FN為目標判為雜波數(shù);TP為目標分類正確數(shù)。
在降低目標損失率的同時,要盡量濾除雜波,其公式如下:
(3)
式中:γc為雜波濾除率;TN為雜波分類正確數(shù);FP為雜波判為目標數(shù)。
數(shù)據(jù)預(yù)處理是指在構(gòu)建模型前對原始數(shù)據(jù)進行的處理。由于不同原始生成的點跡數(shù)據(jù)之間的數(shù)值跨度比較大,為得到高質(zhì)量的模型學(xué)習(xí)效果,需要對原始數(shù)據(jù)進行預(yù)處理。最常用的方法有最小值處理、最大最小值處理、0-1標準化以及零均值化方法,處理公式如下:
(1) 最小值處理
X=X/Xmin
(4)
(2) 最大最小值處理
X=(X-Xmin)/(Xmax-Xmin)
(5)
(3) 0-1標準化
(6)
(4) 零均值化
X=X-μ
(7)
式中:X表示所有樣本;Xmax為樣本數(shù)據(jù)的最大值;Xmin為樣本數(shù)據(jù)的最小值;μ為樣本數(shù)據(jù)的均值;σ為樣本數(shù)據(jù)的標準差。
這些方法都是分別歸一化輸入信息向量的每一個特征值向量,也就是說對輸入樣本空間的每組列向量進行歸一化。
常用數(shù)據(jù)預(yù)處理方法,沒有考慮不同特征參量之間的聯(lián)系[10],所以本文提出的最大最小值聯(lián)合處理方法,同時對樣本空間的行和列向量都進行最大最小值處理,具體處理公式如下:
(8)
(9)
本文雷達點跡分類問題中選擇系數(shù)n=2,將輸入點跡特征參數(shù)全部歸一化到-1~1。
本文進行了5種數(shù)據(jù)預(yù)處理的性能對比,在相同的模型參數(shù)設(shè)置下,得到的實驗結(jié)果如表2所示。
表2 不同數(shù)據(jù)處理方式對比表
每100次迭代記錄訓(xùn)練準確率和目標損失率,不同數(shù)據(jù)處理方式下,準確率和目標損失率隨迭代次數(shù)變化對比圖如圖2、圖3所示。
圖2 不同數(shù)據(jù)處理方式準確率對比圖
圖3 不同數(shù)據(jù)處理方式_目標損失率對比圖
結(jié)果表明,數(shù)據(jù)預(yù)處理方式不同,產(chǎn)生的訓(xùn)練效果有明顯的差距,綜合考慮在降低目標損失率的情況下,盡量使準確率和雜波濾除率提高,本文所使用的數(shù)據(jù)預(yù)處理方法使模型分類精度達到94%,相對于常用數(shù)據(jù)預(yù)處理方法分類準確率分別提高19%、12%、8%和11%,同時目標損失率和雜波濾除率相較常用數(shù)據(jù)預(yù)處理方法也達到最小,模型的收斂速度更快。不同于常用數(shù)據(jù)預(yù)處理方法的單一性,本文方法不僅消除了不同特征的量綱和數(shù)值差異影響,同時也增加了不同特征參量之間的聯(lián)系,使模型有更好的訓(xùn)練效果,更好地模擬了雷達點跡的數(shù)據(jù)特性。
本文搭建了基于全連接神經(jīng)網(wǎng)絡(luò)的雷達點跡分類模型,選擇合適的模型效果評估指標,研究不同數(shù)據(jù)預(yù)處理方式對模型效果的影響。通過實驗結(jié)果可知,不同的預(yù)處理方式對模型效果的影響有所不同,本文所用方法相較于常用方法,不僅加快了模型收斂速度,同時也提高了模型分類精度,得出的結(jié)論對后續(xù)的研究具有很好的指導(dǎo)意義。數(shù)據(jù)預(yù)處理只是模型訓(xùn)練的第一步,我們還可以研究如何優(yōu)化、調(diào)整模型超參數(shù),使模型最終效果達到最佳??傊€有很多方面值得去探索。