譚笑楓 李夕海 劉繼昊 李廣帥 于曉彤
(火箭軍工程大學(xué) 西安 710025)
作為國際監(jiān)測系統(tǒng)(International Monitoring System,IMS)四種技術(shù)中的一種,次聲波為有效監(jiān)測大氣層核試驗以及地面或水面核爆炸提供了重要幫助[1-2]。次聲監(jiān)測技術(shù)同樣可以作為火山噴發(fā)、海嘯、天然地震等地質(zhì)災(zāi)害的重要監(jiān)測手段[3]。
次聲事件的監(jiān)測與識別研究應(yīng)用廣泛,是核爆探測、自然災(zāi)害預(yù)測、大氣環(huán)境研究、生物效應(yīng)等方面研究的重要組成部分[4-6]。次聲事件的監(jiān)測和分類識別工作往往是一起的,為提升核爆和地質(zhì)災(zāi)害的監(jiān)測能力,采取相應(yīng)措施從而正確識別次聲事件,是有效的途徑之一[7]。因此,開展次聲事件的分類研究,對于國家安全和地球物理研究具有重要意義。
20世紀(jì)50年代以來,關(guān)于次聲事件的分類任務(wù),國內(nèi)外學(xué)者對此進(jìn)行了深入的探索,主要利用聲學(xué)信號處理理論,分別在時域頻域提取特征,進(jìn)而用于分類識別。然而,由于次聲的多徑效應(yīng),導(dǎo)致原來的信號失真,或者產(chǎn)生錯誤,分類識別率不高。為提高識別率,需要多特征、復(fù)雜特征進(jìn)行綜合識別。在國際上,Chilo 等[8]等指出小波變換是獲取次聲事件“指紋”的方式之一。Cannata等[9]成功運用聚類、分類算法結(jié)合特征提取技術(shù)實現(xiàn)對意大利埃特納火山口的定位。Thomas 等[10]將分類算法和次聲陣列檢測法結(jié)合起來,對雪崩災(zāi)害實現(xiàn)預(yù)警,其預(yù)警錯誤率可降至0.1。在國內(nèi),姜楠等[11]提出將次聲信號的固有模態(tài)函數(shù)(Intrinsic mode function,IMF)的分量比作為特征,再采用支持向量機(Support veotor maohine,SVM)完成分類,可對天然地震、火箭發(fā)射、管道爆破進(jìn)行有效分類識別。楊婷婷等[12]將次聲信號模態(tài)分解(Empirical mode decomposition,EMD)后的奇異譜熵作為特征,采用最小二乘支持向量機(Least squares support vector machine,LSSVM)作為分類器,能夠?qū)瘜W(xué)爆炸和礦道爆炸完成較好分類識別。明舒晴[13]提出IMF 顯著頻率特征提取方法,采用聚類算法,實現(xiàn)對火山噴發(fā)、地震等3 類地災(zāi)次聲事件的有效分類。隨著人工神經(jīng)網(wǎng)絡(luò)的興起,復(fù)雜特征與人工神經(jīng)網(wǎng)絡(luò)相結(jié)合的方法逐漸應(yīng)用到了次聲事件的分類識別中,對于次聲事件識別效果的有效提高提供了幫助[14-15]。
盡管如此,由于多徑效應(yīng)以及不同類別次聲事件信號差異性表征的困難,直接利用現(xiàn)有數(shù)據(jù)進(jìn)行分類識別,會出現(xiàn)次聲信號特征聚集性不強、識別率不夠高的結(jié)果。為提高識別率,傳統(tǒng)分類方法需要進(jìn)行多步數(shù)據(jù)預(yù)處理工作提取出較優(yōu)的特征組合,并選擇合適的分類方法實現(xiàn)次聲事件的分類識別,這樣的信號處理過程相對復(fù)雜,這對次聲事件的分類工作提出了挑戰(zhàn)。針對這一問題,本文考慮引用深度學(xué)習(xí)(Deep learning)技術(shù)來解決。近年來,深度學(xué)習(xí)在人工智能計算上成效突出。作為深度學(xué)習(xí)的一種,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural networks,CNN)具備強大的特征提取和學(xué)習(xí)的能力,能夠提取到人工無法描述的特征,并完成分類識別,在數(shù)字識別、圖像分類與識別、噪聲去除等領(lǐng)域上都得到了很好的應(yīng)用[16-18]?;贑NN 強大的特征提取功能,本文將數(shù)據(jù)預(yù)處理過程簡化,提取簡單的特征作為CNN 的輸入,利用CNN 完成特征提取、模型訓(xùn)練和分類識別的工作。
本文利用Welch 功率譜變換進(jìn)行簡單的特征提取,采用改進(jìn)CNN 完成分類工作,并基于收集整理的包含815個化學(xué)爆炸(簡稱化爆)和天然地震(簡稱地震)次聲信號數(shù)據(jù)集,使用BP 網(wǎng)絡(luò)和一維LeNet-5網(wǎng)絡(luò)進(jìn)行分類對比分析。
由于條約組織有較多的次聲臺站用于獲取次聲信號,因此,本文統(tǒng)一使用從CTBTO官網(wǎng)上收集到的次聲信號數(shù)據(jù)進(jìn)行分析,選用信道為BDF格式的數(shù)據(jù)。其主要原因是基于其他信道格式(BD、SD)的數(shù)據(jù)量較少,提取到的特征參數(shù)不能夠充分表征次聲事件,也不利于分類判別時訓(xùn)練及測試樣本的構(gòu)造。針對BDF格式的數(shù)據(jù)具體操作如下:
步驟1 讀取從CTBTO 官網(wǎng)上下載的原始數(shù)據(jù)(.w文件),尋找信道為BDF格式的數(shù)據(jù);
步驟2 統(tǒng)一采樣頻率,將采樣頻率高于20 Hz的數(shù)據(jù)進(jìn)行重新采樣;
步驟3 將采樣點數(shù)不夠的數(shù)據(jù)進(jìn)行人為的補齊或去除;
步驟4 判斷提取到的臺站數(shù)據(jù)信息中有無重復(fù)成分,重復(fù)予以去除,不重復(fù)予以保留。
經(jīng)過上述步驟,得到次聲信號共2512 個,包含化爆次聲信號2107 個、地震次聲信號405 個,其中每個信號包含完整的事件,長度為3000 個點。為了保證數(shù)據(jù)平衡,采用降采樣的方法,從2107 個化爆次聲數(shù)據(jù)中隨機抽取410 個樣本,與405 個地震次聲數(shù)據(jù)組成815 個次聲信號的原始數(shù)據(jù)集。其中的化爆和地震次聲事件波形示意圖如圖1所示。
圖1 兩類次聲事件波形示意圖Fig.1 Two types of infrasound event waveform diagram
利用815 個次聲事件信號建立數(shù)據(jù)集。數(shù)據(jù)集包括訓(xùn)練集、驗證集和測試集,分別用于網(wǎng)絡(luò)模型的訓(xùn)練、驗證和測試。3個集合分別包含地震樣本和化爆次聲樣本。在保證訓(xùn)練集、驗證集和測試集中兩類樣本數(shù)量大致相同的情況下進(jìn)行隨機抽取,按照訓(xùn)練集樣本數(shù)量占比80%、驗證集和測試集樣本數(shù)量各占比10%,即三者比值為8:1:1建立數(shù)據(jù)集。
1.2.1 提取功率譜特征
功率譜作為聲學(xué)信號分析的重要方法,表示了信號功率隨著頻率的變化關(guān)系,將其作為特征能夠更好地凸顯出地震和化爆信號的差異。本文采用Welch平均周期法[19],對次聲事件原信號進(jìn)行功率譜估計。把信號長度為n的數(shù)據(jù)分成M段,其中每段長度為N(允許存在重疊的部分),對每段信號分別完成功率譜計算,取其結(jié)果的平均值得到功率譜估計結(jié)果。根據(jù)經(jīng)驗,采用漢寧窗代替矩形窗,用于解決旁瓣過大造成的功率譜的失真現(xiàn)象。每段功率譜可以表示為[20]
其中,n代表次聲信號采樣數(shù)據(jù)點數(shù),U表示歸一化因子,目的是為使得到的功率譜為接近無偏估計。具體表示為
其中,d(n)為漢寧窗,因此,平均功率譜可以由式(3)表示:
可以把功率譜轉(zhuǎn)換為分貝表示[21]
通過上述方法,可以將次聲信號原始數(shù)據(jù)進(jìn)行功率譜估計。本文對信號進(jìn)行平均采樣,每段次聲信號x(n)為3000 個采樣點,將數(shù)據(jù)進(jìn)行分段處理。經(jīng)過功率譜計算后,就把3000 個點的時域次聲信號x(n)處理為頻率范圍在0-10 Hz 的功率譜值。圖2即表示化爆和地震次聲的Welch功率譜示意圖。
從圖2可以看出,化爆的功率譜值主要集中在0.3~0.6 之間,地震的功率譜值主要集中在0.35~0.65 之間,兩類事件的功率譜值在范圍和趨勢上存在差異。
圖2 Welch 功率譜示意圖Fig.2 Welch power spectrum diagram
將1.1 節(jié)建立的數(shù)據(jù)集中的次聲數(shù)據(jù)進(jìn)行Welch 功率譜估計特征提取,得到所有次聲信號樣本的功率譜特征。
1.2.2 提取IMF分量比特征
將次聲信號進(jìn)行EMD 分解,可以得到次聲信號的n階IMF分量和一個殘差量。計算每個IMF分量的能量,可以篩選出能量最大的前m個分量,m個分量的總能量大于等于整體能量的85%以上。將前m個分量的能量兩兩相比,可以得到一個新的特征向量,即IMF分量比[11]。
具體IMF分量比特征提取的步驟如下:
(1)將次聲信號進(jìn)行EMD 分解,得到n個IMF分量和1個殘差量;
(2)計算每個IMF分量的能量;
(3)將得到的能量值兩兩相比,得到IMF 分量比。
整個過程如圖3所示。
圖3 IMF 分量比特征提取和分類過程Fig.3 IMF component ratio feature extraction and classification process
圖4 IMF 分量比特征示意圖Fig.4 IMF component ratio feature diagram
1.2.3 提取IMF奇異譜熵特征
IMF 奇異譜熵就是將IMF 分量進(jìn)行相空間的重新構(gòu)建,獲得一個軌跡矩陣,然后對該矩陣進(jìn)行奇異值分解,按照一定條件選擇前m個最大值,計算奇異譜熵值。具體操作如下[12]:
(1)在(N -n+1)×n維的相空間中嵌入IMF分量cj(t),得到軌跡矩陣:
其中,n代表嵌入向量的維數(shù);N代表采樣點數(shù);cji(t)為第j階IMF分量的第i個采樣值。
(2)計算Xj(t)的奇異值。Xj(t)可以被分解為兩個相互正交的矩陣U、V和一個對角矩陣Λ的乘積的形式(三個矩陣的維度分別為(N-n+1)×(N-n+1)、n×n和(N-n+1)×n)。所求的信號奇異值,即為Λ中主對角線上的元素λb,其個數(shù)l需要滿足公式
因此,可以得到奇異值分解的表達(dá)式:
(3)選擇特征維數(shù)。基于降維和信息量兩個角度綜合考慮,既要盡可能選擇少量的維度,又要保證保留較多的信息量。因此只選取前q個最大的對角矩陣的元素作為特征,但前q個元素需要包含信號85%以上的信息,即q需要滿足
(4)計算奇異譜熵:
本文使用IMF 奇異譜熵前二維特征作為功率譜的對比特征,特征如圖5所示。
圖5 IMF 奇異譜熵特征示意圖Fig.5 IMF singular spectural entropy feature diagram
BP 神經(jīng)網(wǎng)絡(luò)是1986年Rumelhart 和McClelland 等提出的,是一種基于誤差逆?zhèn)鞑ニ惴ㄓ?xùn)練的多層前饋神經(jīng)網(wǎng)絡(luò),用于前向多層神經(jīng)網(wǎng)絡(luò)的反向傳播學(xué)習(xí)算法,也是神經(jīng)網(wǎng)絡(luò)模型中應(yīng)用最廣泛且最重要的一類學(xué)習(xí)算法。它具有理論依據(jù)堅實、推導(dǎo)過程嚴(yán)謹(jǐn)及通用性好的優(yōu)點,是深度學(xué)習(xí)算法的基礎(chǔ)。
用BP 神經(jīng)網(wǎng)絡(luò)對次聲信號進(jìn)行分類識別,需要確定輸入層、輸出層和隱藏層節(jié)點數(shù)。輸入層節(jié)點數(shù)I為輸入信號特征的長度,輸出層節(jié)點數(shù)O為數(shù)據(jù)類別數(shù),本文為實現(xiàn)地震和化爆分類識別,即輸出節(jié)點數(shù)為2,隱藏層節(jié)點數(shù)根據(jù)經(jīng)驗公式(10)確定:
其中,node為隱藏層節(jié)點數(shù)量,I和O分別為輸入層和輸出層的節(jié)點數(shù)量,T為調(diào)節(jié)參數(shù),取值范圍為1至10。本文中T分別取值1、4、10,當(dāng)輸入層為功率譜信號(257 個點)時,隱藏層節(jié)點數(shù)node 分別取值17、20、26。
LeNet-5 網(wǎng)絡(luò)是Lecun[22]在1998年提出的經(jīng)典的CNN,在手寫體字符識別上效果顯著。如圖6所示,LeNet-5 網(wǎng)絡(luò)總共分為5 層,分別由兩組卷積層和池化層以及一個全連接層組成。卷積層完成特征的提取工作,池化層通過下采樣實現(xiàn)減少網(wǎng)絡(luò)參數(shù)以減小計算量,全連接層能將學(xué)到的特征映射到樣本標(biāo)記空間,即起到“分類器”的作用。LeNet-5網(wǎng)絡(luò)非常簡單,卷積層數(shù)和參數(shù)相對較少,學(xué)習(xí)時間相對較快。作為一個十分成功的深度CNN模型,目前多個方面得到應(yīng)用,例如在銀行系統(tǒng)中用于識別支票上的數(shù)字等。
圖6 LeNet-5 網(wǎng)絡(luò)結(jié)構(gòu)Fig.6 LeNet-5 network structure
由于次聲信號為一維數(shù)據(jù),為適應(yīng)次聲數(shù)據(jù)處理,在LeNet-5網(wǎng)絡(luò)中,統(tǒng)一采用一維卷積核實現(xiàn)卷積操作,即卷積層卷積核由5×5 改為1×5,池化層由2×2改為1×2。以功率譜信號作為輸入為例,并將二維LeNet-5 網(wǎng)絡(luò)改變成一維卷積網(wǎng)絡(luò)后,其網(wǎng)絡(luò)結(jié)構(gòu)如圖7所示。
圖7 一維LeNet-5 網(wǎng)絡(luò)結(jié)構(gòu)Fig.7 1-D LeNet-5 network structure
由于樣本本身數(shù)量有限,采用過于深層的卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練容易導(dǎo)致過擬合的現(xiàn)象。本文采用淺層的CNN 作為研究對象,盡量精簡網(wǎng)絡(luò)結(jié)構(gòu),達(dá)到較少的樣本也能實現(xiàn)深度學(xué)習(xí)的目的。選用網(wǎng)絡(luò)結(jié)構(gòu)較為簡單的LeNet-5神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)作為基礎(chǔ)網(wǎng)絡(luò)進(jìn)行設(shè)計改進(jìn)。本文改進(jìn)之后的網(wǎng)絡(luò)結(jié)構(gòu)模型如圖8所示。
圖8 改進(jìn)CNN 網(wǎng)絡(luò)結(jié)構(gòu)Fig.8 Improved CNN network structure
如圖8(a)所示,改進(jìn)CNN-5網(wǎng)絡(luò)第一層卷積層輸入通道數(shù)為1、輸出通道數(shù)為128,卷積核大小為1×5,輸入和輸出數(shù)據(jù)大小都為1×257;第二層池化層輸入和輸出通道數(shù)均為256,輸入數(shù)據(jù)大小為1×257,輸出數(shù)據(jù)大小為1×129;第三層卷積層輸入通道數(shù)為128,輸出通道數(shù)為256,卷積核采用1×3、1×5、1×7三路卷積,輸入輸出數(shù)據(jù)大小都為1×129;第四層池化層池化層輸入和輸出通道數(shù)均為256,輸入數(shù)據(jù)大小為1×129,輸出數(shù)據(jù)大小為1×65;第五層為全連接層及分類器。
相比“LeNet-5”網(wǎng)絡(luò),本文主要做了以下三個方面的改進(jìn):
(1)改變卷積核參數(shù),其中第一層卷積層保持不變,依舊采用1×5的大小,第三層運用分路卷積、加權(quán)融合的思想,分別使用1×3、1×5、1×7 的卷積核,卷積結(jié)果分別乘以系數(shù)1/3,再將結(jié)果相加得到第三層卷積層特征圖,池化層統(tǒng)一使用1×2卷積核,采用最大池化方式;
(2)為提高網(wǎng)絡(luò)學(xué)習(xí)能力,增加卷積核種類,第一層卷積層和第二層池化層由6 種增加為128 種,第三層卷積層和第四層池化層由16 種增加為256種,第五層全連接層由120種增加為512種;
(3)卷積過程中對特征圖進(jìn)行邊界補零,保證特征圖卷積前后的大小保持一致,便于進(jìn)行分路卷積,加權(quán)融合操作。
如圖8(b)和圖8(c)所示,在改進(jìn)CNN-5網(wǎng)的基礎(chǔ)上,在第二層池化層和第三層卷積層之間,分別再加入1 至2 層卷積層作為比較,得到改進(jìn)CNN-6 和改進(jìn)CNN-7 網(wǎng)絡(luò)。其中添加的卷積層卷積核大小為1×5,種類數(shù)量為256種。
將1.2 節(jié)中每類數(shù)據(jù)集的信號作為網(wǎng)絡(luò)的輸入x,將化爆樣本標(biāo)注為1(正類),將地震樣本標(biāo)注為0(負(fù)類),并進(jìn)行one-hot 編碼,作為真實值y_,將經(jīng)過網(wǎng)絡(luò)的輸出值y作為預(yù)測值。網(wǎng)絡(luò)訓(xùn)練的目的就是讓訓(xùn)練集的預(yù)測值y的分布與真實值y_的分布盡可能保持一致,即y的分布與真實值y_的分布之間的差值盡量的小,可將二者差值定義為損失函數(shù)。本文采用交叉熵?fù)p失函數(shù),并采用Adam 算法對網(wǎng)絡(luò)模型進(jìn)行基于梯度下降的優(yōu)化,使得參數(shù)更加平穩(wěn)。
此外,本文還采用了L2 規(guī)格化和50%的dropout 防止過擬合問題,使用滑動平均模型用于控制變量的更新幅度,使網(wǎng)絡(luò)結(jié)構(gòu)更穩(wěn)定。最后使用softmax 作為分類器,完成化爆和地震的分類。
如果神經(jīng)網(wǎng)絡(luò)輸出的預(yù)測值y與真實值y_相同時,那么認(rèn)為網(wǎng)絡(luò)能夠正確得識別出該類次聲事件。通過比較神經(jīng)網(wǎng)絡(luò)輸出的預(yù)測值y與真實值y_可以得到4 個統(tǒng)計量:Ture Positive (TP,真實值為1 且被網(wǎng)絡(luò)預(yù)測為1)、False Positive (FP,真實值為0 但被網(wǎng)絡(luò)預(yù)測為1)、False Negative (FN,真實值為1 但被網(wǎng)絡(luò)預(yù)測為0)、Ture Negative (TN,真實值為0且被網(wǎng)絡(luò)預(yù)測為0)?;赥P、FP、FN、TN四個統(tǒng)計量可以得到準(zhǔn)確率、假陽性率和假陰性率和調(diào)和平均數(shù)4 個評價指標(biāo)。利用以上4 個指標(biāo)可以根據(jù)實驗結(jié)果對網(wǎng)絡(luò)準(zhǔn)確性和穩(wěn)定性進(jìn)行較為可靠的分析。
3.1.1 準(zhǔn)確率
準(zhǔn)確率(Accuracy,ACC)表示所有樣本被正確分類的比例,其公式表達(dá)為
其中,NTP表示真實值為1 的樣本被正確分類的數(shù)目,NTN表示真實值為0 的樣本被正確分類的數(shù)目,NFP表示真實為0 的樣本被錯誤分類的數(shù)目,NFN表示真實為1 的樣本被錯誤分類的數(shù)目。ACC的取值范圍為[0,1],值越接近1,分類性能越好。
3.1.2 假陽性率
假陽性率(False positive rate,F(xiàn)PR)表示真實值為0 但被預(yù)測為1 的樣本數(shù)量在所有真實值為0的樣本中占的比例,其公式表達(dá)為FPR取值范圍為[0,1],值越接近0,分類性能越好。
3.1.3 假陰性率
假陰性率(False negative rate,F(xiàn)NR)表示真實值為1 但被預(yù)測為0 的樣本數(shù)量在所有真實值為1的樣本中占的比例,其公式表達(dá)為
FNR取值范圍為[0,1],值越接近0,分類性能越好。
3.1.4 調(diào)和平均數(shù)
當(dāng)存在極偏數(shù)據(jù)時,單獨使用FPR 和FNR 很難對整體的分類性能進(jìn)行客觀評價,需要使用一個兩者兼顧的指標(biāo)。調(diào)和平均數(shù)(Harmonic average,HA)是假陽性率FPR 和假陰性率FNR 的兼顧指標(biāo),是1-FPR和1-FNR的平均數(shù)。HA值的性質(zhì)是,只有當(dāng)FPR和FNR 兩者都非常低的時候,它們的HA 值才會高,如果其中之一很低,HA 值會被拉得接近于那個很低的數(shù)。其公式表達(dá)為
HA取值范圍為[0,1],值越接近1,分類性能越好。
共設(shè)計兩組對比實驗,即相同輸入和不同網(wǎng)絡(luò)的對比實驗以及相同網(wǎng)絡(luò)和不同輸入的對比實驗。
3.2.1 相同輸入和不同網(wǎng)絡(luò)
將Welch 功率譜作為第一類對比實驗的輸入,BP 網(wǎng)絡(luò)(隱藏層節(jié)點數(shù)分別為17、20、26)、一維LeNet-5網(wǎng)絡(luò)和改進(jìn)CNN,得到分類識別結(jié)果。
3.2.2 相同網(wǎng)絡(luò)和不同輸入
將原次聲信號、Welch 功率譜、IMF 分量比和IMF 奇異譜熵分別作為網(wǎng)絡(luò)輸入,送入改進(jìn)CNN中,得到分類識別結(jié)果。
3.2.3 實驗平臺和參數(shù)設(shè)置
本文使用的操作系統(tǒng)為Windows10,使用CUDA10.0 和cuDNN7.4 加速訓(xùn)練;使用NVIDIA Quadro P4000 (8G 內(nèi)存);使用網(wǎng)絡(luò)開發(fā)框架為Tensorflow1.14;用python 進(jìn)行編程;使用CPU為Intel(R)Core(TM)i7-8700 CPU@3.20 GHz 3.19 GHz。
每次分類實驗共進(jìn)行12000 次訓(xùn)練,每次從訓(xùn)練集中按照順序抽取8 個樣本輸入網(wǎng)絡(luò)進(jìn)行訓(xùn)練,即batch_size 設(shè)置為8,訓(xùn)練集抽取完成一個批次(epoch)后對訓(xùn)練集進(jìn)行一次打亂。若將訓(xùn)練集樣本數(shù)定義為data_size,則每個批次可以表示為
每訓(xùn)練100 次記錄一次損失函數(shù)、訓(xùn)練準(zhǔn)確率和測試準(zhǔn)確率。訓(xùn)練和測試結(jié)束后分別計算驗證集的準(zhǔn)確率、假陽性率和假陰性率和調(diào)和平均數(shù)。
3.3.1 相同輸入和不同網(wǎng)絡(luò)的實驗結(jié)果分析
七類不同網(wǎng)絡(luò)的訓(xùn)練損失,訓(xùn)練和測試準(zhǔn)確率如圖9~10所示。
圖9 七類不同網(wǎng)絡(luò)結(jié)構(gòu)的訓(xùn)練損失Fig.9 Seven different network structure training costs
圖10 七類不同網(wǎng)絡(luò)結(jié)構(gòu)的訓(xùn)練和驗證準(zhǔn)確率Fig.10 Seven different network structure training and testing accuracy
通過圖9~10 可以看出,BP17、BP20 和BP26三個網(wǎng)絡(luò)的訓(xùn)練損失值長時間保持在0.69~0.695之間,收斂趨勢不明顯,網(wǎng)絡(luò)訓(xùn)練準(zhǔn)確率和驗證準(zhǔn)確率都在40%~60%內(nèi)上下浮動。由于此分類為二分類,所以準(zhǔn)確率在50%以下不具有分類識別意義。由此可見,BP 網(wǎng)絡(luò)無法對次聲信號功率譜進(jìn)行有效訓(xùn)練分類。
相比BP網(wǎng)絡(luò),一維LeNet-5網(wǎng)絡(luò)的損失數(shù)值要更低,收斂性更強,訓(xùn)練準(zhǔn)確率和驗證準(zhǔn)確率可以都能達(dá)到60%左右,比BP網(wǎng)絡(luò)提高10%以上,可見LeNet-5 網(wǎng)絡(luò)對次聲信號功率譜可以進(jìn)行一定的訓(xùn)練分類,但分類效果還有待加強。
在改進(jìn)CNN 網(wǎng)絡(luò)中,網(wǎng)絡(luò)的訓(xùn)練損失都可以收斂到0.5~0.6 之間。訓(xùn)練準(zhǔn)確率能夠達(dá)到70%~85%。驗證精度最高的是改進(jìn)CNN-5 網(wǎng)絡(luò),能夠達(dá)到80%,改進(jìn)CNN-6 和改進(jìn)CNN-7 都能達(dá)到75%以上,精度明顯高于其他網(wǎng)絡(luò)。
計算七類不同網(wǎng)絡(luò)結(jié)構(gòu)關(guān)于測試集四個評價指標(biāo),結(jié)果如表1所示。
表1 七類不同網(wǎng)絡(luò)結(jié)構(gòu)的分類評價指標(biāo)Table 1 Classification evaluation index of seven different network structures
表1中每個評價指標(biāo)的最優(yōu)值都以加粗的形式表示。從表1中可以看出,改進(jìn)CNN-5 網(wǎng)絡(luò)的四項評價指標(biāo)均優(yōu)于其他(ACC、HA 最高,F(xiàn)PR、FNR最低)。相比第二名改進(jìn)CNN-6 網(wǎng)絡(luò),改進(jìn)CNN-5網(wǎng)絡(luò)測試準(zhǔn)確率提升了8.67%,假陽性率降低了5%,假陰性率降低了9.76%,HA 值提升了7.22%。因此可以得出,改進(jìn)CNN-5網(wǎng)絡(luò)在七類網(wǎng)絡(luò)中分類效果最顯著。
為驗證改進(jìn)CNN-5 的穩(wěn)定性,重復(fù)1.1 節(jié)中生成數(shù)據(jù)集的操作20 次,得到20 個不同的數(shù)據(jù)集,重復(fù)上述實驗方法,得到七類網(wǎng)絡(luò)的分類實驗結(jié)果,如圖11所示。
圖11 二十組數(shù)據(jù)集的七種網(wǎng)絡(luò)的分類結(jié)果Fig.11 The classification results of seven networks in twenty datasets
從圖11中可以看出,改進(jìn)CNN-5和改進(jìn)CNN-6 網(wǎng)絡(luò)分類精度明顯優(yōu)于其他網(wǎng)絡(luò),而改進(jìn)CNN-5網(wǎng)絡(luò)平均測試準(zhǔn)確率比改進(jìn)CNN-6 網(wǎng)絡(luò)高7.28%,因此,改進(jìn)CNN-5網(wǎng)絡(luò)的分類效果相對更好。
3.3.2 相同網(wǎng)絡(luò)和不同輸入的實驗結(jié)果分析
依次對原信號、Welch功率譜特征、IMF分量比特征[11]和IMF 奇異譜熵特征[12]進(jìn)行歸一化。四種不同輸入特征的訓(xùn)練損失,訓(xùn)練和測試準(zhǔn)確率如圖12~13所示。
通過圖12~13可以看出,原信號和IMF 分量比特征的訓(xùn)練損失最后保持在0.65 左右,訓(xùn)練精度都在65%左右,驗證精度在60%以下,說明網(wǎng)絡(luò)能夠?qū)深愄卣鬟M(jìn)行一定程度的訓(xùn)練,但分類結(jié)果不夠理想。但進(jìn)行IMF 分量比特征提取后,損失函數(shù)收斂速度得到提高。
圖12 四種不同輸入特征的訓(xùn)練損失Fig.12 Four different network structure training costs
圖13 四種不同輸入特征的訓(xùn)練和驗證準(zhǔn)確率Fig.13 Four different network structure training and testing accuracy
相比IMF分量比,IMF 奇異譜熵的損失數(shù)值要更低,收斂更快,訓(xùn)練準(zhǔn)確率和驗證準(zhǔn)確率可以分別達(dá)到79%和78%,比IMF分量比提高14%以上。
而使用功率譜特征作為網(wǎng)絡(luò)輸入時,訓(xùn)練損失都可以收斂到0.5 以下,為四種特征最優(yōu),訓(xùn)練準(zhǔn)確率能夠達(dá)到84%以上,驗證準(zhǔn)確率也能夠保持在80%,精度要優(yōu)于其他輸入特征。綜上所述,利用次聲信號的功率譜特征作為神經(jīng)網(wǎng)絡(luò)的輸入,得到的分類效果最好。
計算以上四種輸入特征基于測試集的四個評價指標(biāo),結(jié)果如表2所示。
表2 四種不同輸入特征的分類評價指標(biāo)Table 2 Classified evaluation index of four different input characteristics
表2中每個評價指標(biāo)的最優(yōu)值都以加粗的形式表示??梢钥闯?,Welch 功率譜特征的四項評價指標(biāo)均優(yōu)于其他特征(ACC、HA 最高,F(xiàn)PR、FNR 最低)。相比第二名IMF奇異譜熵,Welch 功率譜測試準(zhǔn)確率提升了3.94%,假陽性率降低了4.33%,假陰性率降低了0.12%,HA 值提升了2.49%。因此可以得出,Welch功率譜特征作為輸入時,分類識別測試精度最佳。值得注意的是,原信號測試準(zhǔn)確率只能達(dá)到58%,進(jìn)行功率譜特征提取后,測試準(zhǔn)確率能夠達(dá)到82%,上升了24%,說明進(jìn)行功率譜提取是必要的。
為驗證其穩(wěn)定性,將3.3.1 節(jié)中得到20 個不同的數(shù)據(jù)集中的樣本信號分別提取上述三種特征,重復(fù)上述實驗方法,得到四類輸入的實驗結(jié)果,如圖14所示。
圖14 二十組數(shù)據(jù)集的四種特征的分類結(jié)果Fig.14 The results of the classification of four features in twenty data sets
從圖14 中可以看出,功率譜和IMF 奇異譜熵的分類精度明顯優(yōu)于IMF 分量比和原信號,而功率譜的平均準(zhǔn)確率比IMF 奇異譜熵高0.96%。因此,采用功率譜作為網(wǎng)絡(luò)輸入的分類效果相對更好。
本文通過建立CNN 模型和數(shù)據(jù)集完成模型訓(xùn)練,實現(xiàn)化爆和地震的次聲事件的分類識別。實驗證明CNN 的復(fù)雜特征提取能力能夠簡化傳統(tǒng)方法特征提取過程,同時能夠提高分類識別結(jié)果。
自然界中次聲源種類繁多,次聲事件不局限于化學(xué)爆炸和天然地震兩種。深度學(xué)習(xí)具有處理多分類問題的優(yōu)勢,要實現(xiàn)多類次聲事件的分類識別,需要建立一個不同類型(核爆、天然地震、化學(xué)爆炸、礦山爆炸、火箭發(fā)射等)的數(shù)據(jù)庫。下一步工作中,將搜集更多類型的次聲事件數(shù)據(jù),并探究適宜次聲數(shù)據(jù)的數(shù)據(jù)增強方法,選用更適合多分類的神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,完成多類次聲事件的分類識別工作。