国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于ADASYN與改進(jìn)殘差網(wǎng)絡(luò)的入侵流量檢測識別

2022-11-19 08:12:38唐璽博張立民鐘兆根
關(guān)鍵詞:準(zhǔn)確率卷積流量

唐璽博, 張立民, 鐘兆根

(1. 海軍航空大學(xué)信息融合研究所, 山東 煙臺 264001; 2. 海軍航空大學(xué)航空基礎(chǔ)學(xué)院, 山東 煙臺 264001)

0 引 言

入侵檢測是指在計(jì)算機(jī)及數(shù)據(jù)網(wǎng)絡(luò)正常開放運(yùn)行的同時(shí),對其進(jìn)行的一種安全監(jiān)測和保障。入侵檢測的目標(biāo)是實(shí)時(shí)識別系統(tǒng)內(nèi)部人員及外部入侵人員對計(jì)算機(jī)系統(tǒng)未經(jīng)授權(quán)的使用[1]。迅速發(fā)展的互聯(lián)網(wǎng)技術(shù)在給予人們便利生活的同時(shí),也使得計(jì)算機(jī)系統(tǒng)面臨著惡意攻擊、網(wǎng)絡(luò)病毒等安全威脅,這使得入侵檢測技術(shù)日益成為保證網(wǎng)絡(luò)信息安全的重要技術(shù)手段。目前,與防火墻等傳統(tǒng)網(wǎng)絡(luò)防御技術(shù)相比,網(wǎng)絡(luò)入侵檢測系統(tǒng)(network intrusion detection system, NIDS)能夠更好地對網(wǎng)絡(luò)異常流量進(jìn)行檢測識別,從而防止網(wǎng)絡(luò)受到可能的入侵,以確保其機(jī)密性、完整性和可用性[2]。

隨著互聯(lián)網(wǎng)技術(shù)的巨大發(fā)展,網(wǎng)絡(luò)節(jié)點(diǎn)與規(guī)模在全球范圍內(nèi)迅速擴(kuò)張,網(wǎng)絡(luò)需處理的數(shù)據(jù)信息量呈爆炸式增長,同時(shí)大量新出現(xiàn)的協(xié)議均使用動(dòng)態(tài)端口分配技術(shù),端口易被重定向,這使傳統(tǒng)的流量監(jiān)測技術(shù)如基于端口的流量檢測方法[3]對于入侵流量的檢測效果較差。為了有效滿足入侵檢測技術(shù)的需求,人們廣泛嘗試采用機(jī)器學(xué)習(xí)與深度學(xué)習(xí)技術(shù)對網(wǎng)絡(luò)流量進(jìn)行處理。其中,基于機(jī)器學(xué)習(xí)的入侵檢測系統(tǒng)需依靠特征工程對網(wǎng)絡(luò)流量進(jìn)行特征的篩選與剔除,從而實(shí)現(xiàn)對入侵流量的特征學(xué)習(xí)以完成檢測識別。文獻(xiàn)[4]提出基于支持向量機(jī)的螞蟻系統(tǒng)(ant system with support vector machine, ASVM)模型,采用蟻群算法對特征進(jìn)行過濾選擇,而后利用支持向量機(jī)(support vector machine, SVM)對縮減的特征集進(jìn)行訓(xùn)練和測試,在規(guī)范化的KDD99數(shù)據(jù)集上對正常流量與入侵流量進(jìn)行二分類的準(zhǔn)確率達(dá)到84.28%。文獻(xiàn)[5]提出一種自學(xué)習(xí)入侵檢測系統(tǒng)對數(shù)據(jù)集進(jìn)行特征學(xué)習(xí)和降維,提升了SVM對攻擊的預(yù)測精度,在NSL-KDD數(shù)據(jù)集進(jìn)行流量監(jiān)測分類實(shí)驗(yàn),其二分類準(zhǔn)確率達(dá)到84.96%,五分類準(zhǔn)確率達(dá)到80.48%。文獻(xiàn)[6]提出一種自適應(yīng)集成學(xué)習(xí)模型,通過構(gòu)造多決策樹以提升入侵檢測性能,在NSL-KDD數(shù)據(jù)集的檢測準(zhǔn)確率達(dá)到85.2%。機(jī)器學(xué)習(xí)技術(shù)在網(wǎng)絡(luò)流量監(jiān)測上的應(yīng)用廣泛,但依賴于特征降維和篩選,對于原始形式的自然數(shù)據(jù)處理能力有限,需要利用其他方法先對數(shù)據(jù)集進(jìn)行特征預(yù)處理,否則難以對入侵流量達(dá)到較好的識別效果。同時(shí),上述機(jī)器學(xué)習(xí)技術(shù)提出的模型存在識別準(zhǔn)確率較低、泛化性不強(qiáng)的問題。

深度學(xué)習(xí)通過對非線性模塊的組合應(yīng)用,能夠?qū)W習(xí)高維數(shù)據(jù)中的復(fù)雜結(jié)構(gòu)[7],因此具備處理原始數(shù)據(jù)集的能力,無需采用其他算法構(gòu)建特征處理器。文獻(xiàn)[8]提出多卷積層的雙向長短時(shí)記憶與注意機(jī)制(bi-directional long short-term memory and attention mechanism with multiple convolutional layers, BAT-MC)模型,結(jié)合了雙向長短時(shí)記憶(bi-directional long short term memory, BLSTM)和注意機(jī)制,采用卷積層對數(shù)據(jù)集進(jìn)行處理,能夠自動(dòng)完成網(wǎng)絡(luò)流量層次結(jié)構(gòu)的學(xué)習(xí),在NSL-KDD數(shù)據(jù)集上進(jìn)行流量檢測分類實(shí)驗(yàn),其五分類準(zhǔn)確率為84.25%。文獻(xiàn)[9]提出一種基于長短時(shí)記憶(long short term memory, LSTM)與改進(jìn)殘差網(wǎng)絡(luò)優(yōu)化的異常流量檢測方法,提高了LSTM層的特征適應(yīng)性,在NSL-KDD與來自Fsecrurify開源網(wǎng)站應(yīng)用防火墻(Web application fivewall, WAF)混合數(shù)據(jù)集上二分類和五分類的準(zhǔn)確率分別為92.3%和89.3%。文獻(xiàn)[10]提出一種帶邏輯回歸的稀疏自動(dòng)編碼器,通過堆疊自動(dòng)編碼器創(chuàng)建深度網(wǎng)絡(luò),在NSL-KDD數(shù)據(jù)集二分類準(zhǔn)確率達(dá)到84.6%。文獻(xiàn)[11]提出一種基于自動(dòng)編碼器和變分自動(dòng)編碼器及單類支持向量機(jī)(one-class support vector machine, OCSVM)的半監(jiān)督深度學(xué)習(xí)入侵檢測方法,對CICIDS2017數(shù)據(jù)集進(jìn)行檢測識別,結(jié)果顯示變分自編碼器(variational auto-encoder, VAE)的分類效果最佳,接受者操作特性曲線(receiver operating characteristic curve, ROC)下面積值(area under the curve of ROC, AUC)達(dá)到0.759 6。

上述模型相比于機(jī)器學(xué)習(xí)方法,在識別準(zhǔn)確率上均有所提升,但仍具備提升空間。大部分研究對于數(shù)據(jù)都未進(jìn)行合理的預(yù)處理,尤其對于不平衡數(shù)據(jù)集,直接采用歸一化處理,這直接導(dǎo)致神經(jīng)網(wǎng)絡(luò)忽略對小樣本的特征學(xué)習(xí),進(jìn)而導(dǎo)致小樣本的識別率低下,特征選擇出現(xiàn)偏差,泛化性不強(qiáng)?;谝陨蠁栴},本文采用了自適應(yīng)合成(adaptive synthetic, ADASYN)采樣方法在預(yù)處理階段對NSL-KDD數(shù)據(jù)集中的小樣本數(shù)據(jù)(如來自遠(yuǎn)程主機(jī)的未授權(quán)訪問(unauthorized access from a remote machine to a local machine, R2L)、未授權(quán)的本地超級用戶特權(quán)訪問(unauthorized access to local superuser privileges by a local unprivileged user, U2R)類型)進(jìn)行過采樣,使經(jīng)過上采樣之后的攻擊類型流量及正常流量在數(shù)據(jù)集中各自占比相差不大,將不平衡數(shù)據(jù)集采樣成為平衡數(shù)據(jù)集,再輸入到深度學(xué)習(xí)網(wǎng)絡(luò)中使神經(jīng)網(wǎng)絡(luò)能夠?qū)?種流量類型都進(jìn)行充分的學(xué)習(xí),避免小樣本的數(shù)據(jù)特征被淹沒在數(shù)據(jù)集中。采用改進(jìn)的殘差網(wǎng)絡(luò)作為訓(xùn)練模型,有效地解決了常用深度學(xué)習(xí)網(wǎng)絡(luò)在訓(xùn)練過程中出現(xiàn)的過擬合以及梯度消失的問題,并且在二分類及多分類的情況下,均取得了較高的分類準(zhǔn)確率,在精確率、召回率等指標(biāo)上誤報(bào)率低,具備較強(qiáng)的泛化性,有較高的工程應(yīng)用價(jià)值。

1 入侵流量檢測模型與處理

本節(jié)介紹卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks, CNN)等網(wǎng)絡(luò)。

1.1 CNN

CNN是由卷積層、池化層以及全連接層等通過交叉堆疊構(gòu)成的一種前饋神經(jīng)網(wǎng)絡(luò)。CNN具有局部連接、權(quán)重共享的特性,與全連接的網(wǎng)絡(luò)相比使用的參數(shù)更少,并在一定程度上具有平移、縮放和旋轉(zhuǎn)不變性[12]?;窘Y(jié)構(gòu)是包含卷積層、池化層、全連接層等。

卷積層的作用是依照卷積核的大小對圖像進(jìn)行相應(yīng)的局部特征提取。卷積層的神經(jīng)元是一維的,但是一維的卷積層難以對二維圖像進(jìn)行特征提取。為了提高圖像區(qū)域信息的利用率,卷積層的神經(jīng)元通常搭建為三維結(jié)構(gòu),其大小為高度M×寬度N×深度D,由D個(gè)M×N大小的特征映射構(gòu)成。如果特征映射的圖像為彩色圖像,則輸入層深度D=3;如果輸入為灰度圖像,則輸入層深度D=1。本文將協(xié)議數(shù)據(jù)處理成二維矩陣后,即相當(dāng)于灰度圖像輸入。卷積層的運(yùn)算過程可表示為

(1)

式中:Wp為卷積核;X為輸入特征映射;bp為標(biāo)量偏置;f(·) 為非線性激活函數(shù);Yp為輸出特征映射。卷積層通過對輸入特征進(jìn)行卷積運(yùn)算并引入非線性,從而實(shí)現(xiàn)局部特征的提取。

池化層能夠有效減少網(wǎng)絡(luò)中神經(jīng)節(jié)點(diǎn)的數(shù)量,對局部連接產(chǎn)生的大量特征信息進(jìn)行采樣,對高維數(shù)據(jù)進(jìn)行降維,方法包括進(jìn)行最大池化和平均池化,通過對特征信息進(jìn)行據(jù)合同及處理,可以降低算法運(yùn)行耗時(shí),保留重要特征信息,防止訓(xùn)練產(chǎn)生過擬合現(xiàn)象。全連接層一般處于交替堆疊的卷積層和池化層之后,一般有0~2層,作用是調(diào)整特征輸出數(shù)量,神經(jīng)元數(shù)等于分類數(shù)。

1.2 LSTM網(wǎng)絡(luò)

循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network, RNN)具備短期記憶能力,對于處理具有序列關(guān)系的信息十分有效。但是當(dāng)輸入序列比較長時(shí),將出現(xiàn)梯度爆炸或梯度消失的問題,即長程依賴問題[13]。LSTM網(wǎng)絡(luò)通過引入門控機(jī)制的方法來解決此問題,通過信息的有用程度進(jìn)行權(quán)重確定,包括向神經(jīng)元中引入新信息、遺忘、輸出的權(quán)重,以此來控制信息的累積速度。LSTM網(wǎng)絡(luò)引入了3種門,分別是輸入門it、遺忘門ft、輸出門ot。其中,ft表示上一個(gè)時(shí)刻的內(nèi)部狀態(tài)遺忘信息權(quán)重;it表示當(dāng)前時(shí)刻候選狀態(tài)保存信息權(quán)重;ot表示當(dāng)前時(shí)刻輸出給外部狀態(tài)信息權(quán)重。3個(gè)門均以一定比例允許信息通過,其計(jì)算方式為

(2)

圖1 LSTM網(wǎng)絡(luò)的循環(huán)單元結(jié)構(gòu)圖

LSTM單元可以使網(wǎng)絡(luò)建立一種長時(shí)序依賴關(guān)系,各計(jì)算狀態(tài)為

(3)

(4)

ht=ot⊙tanh(ct)

(5)

式中:⊙表示向量元素相乘。

1.3 殘差神經(jīng)網(wǎng)絡(luò)

在深度學(xué)習(xí)網(wǎng)絡(luò)中,層數(shù)越多,對數(shù)據(jù)特征的提取就會越細(xì)致全面,但當(dāng)深層次的網(wǎng)絡(luò)收斂時(shí)再增加網(wǎng)絡(luò)層數(shù),神經(jīng)網(wǎng)絡(luò)將會出現(xiàn)退化現(xiàn)象:隨著網(wǎng)絡(luò)的深度不斷增加,網(wǎng)絡(luò)訓(xùn)練的精度先上升達(dá)到飽和,然后出現(xiàn)下降。這種現(xiàn)象不是由過擬合產(chǎn)生,而是因?yàn)槎嘤嗟木W(wǎng)絡(luò)對非恒等映射的參數(shù)進(jìn)行學(xué)習(xí)造成的。而殘差神經(jīng)網(wǎng)絡(luò)通過在深層網(wǎng)絡(luò)中增加跳躍連接,構(gòu)成殘差塊,能夠起到優(yōu)化訓(xùn)練、解決退化問題的效果。殘差塊的結(jié)構(gòu)如圖2所示。

圖2 殘差塊結(jié)構(gòu)

將期望的底層映射設(shè)為H(x),將堆疊的非線性層擬合的映射表示為F(x)。此時(shí)映射關(guān)系為

H(x)=F(x)+x

(6)

式中:x為輸入;F(x)為殘差函數(shù)。由文獻(xiàn)[14]可知,當(dāng)H(x)為恒等映射時(shí),信號可由一個(gè)單元直接傳遞到其他任何單元,此時(shí)模型的訓(xùn)練損失和測試誤差達(dá)到最小。在恒等映射為算法參數(shù)最優(yōu)的情況下,相比于用堆疊非線性層來擬合恒等映射,令殘差函數(shù)F(x)為0來構(gòu)造恒等映射更加容易,算法難度更低[15]。

殘差網(wǎng)絡(luò)采用恒等變換和跳躍連接的方式解決了深度學(xué)習(xí)網(wǎng)絡(luò)的層數(shù)退化問題,跳躍連接保護(hù)了信息的完整性,網(wǎng)絡(luò)只需學(xué)習(xí)輸入與輸出的差別部分,復(fù)雜度降低;恒等變換有效拓展了網(wǎng)絡(luò)深度,能夠避免因?yàn)樯疃仍黾訉?dǎo)致的梯度消失和訓(xùn)練難度提升,隨著層數(shù)增加,殘差網(wǎng)絡(luò)的性能不會下降,而是會有一定程度的提升[16],這提升了網(wǎng)絡(luò)的性能與可遷移性。

1.4 不平衡數(shù)據(jù)集及處理方法

不平衡數(shù)據(jù)集指各個(gè)類別數(shù)據(jù)的樣本數(shù)目相差巨大的數(shù)據(jù)集。以二分類問題為例,假設(shè)數(shù)據(jù)集為Q,S1和S2為數(shù)據(jù)子集,且S1∪S2=Q、S1∩S2=?,此時(shí)可通過不平衡比率IBR=S1/S2的取值來界定數(shù)據(jù)集的不平衡程度。IBR的取值越接近1,則不平衡程度越小;IBR的取值越接近0和∞,則不平衡程度越大[17]。

訓(xùn)練集數(shù)據(jù)不平衡是實(shí)際應(yīng)用問題中的常見情況,例如在信用欺詐交易識別中,所收集的數(shù)據(jù)絕大部分是正常交易,只有極少數(shù)交易是不正常的。在二分類數(shù)據(jù)集中,若樣本比例大于10∶1,則很難建立起有效的深度學(xué)習(xí)分類器,大部分算法將忽略少數(shù)數(shù)據(jù)集的特征數(shù)據(jù),而大多數(shù)的不平衡數(shù)據(jù)集的少數(shù)樣本才是數(shù)據(jù)集的關(guān)鍵樣本,此時(shí)準(zhǔn)確率這一評價(jià)指標(biāo)將失效。

對于不平衡數(shù)據(jù)集的處理方法,可以采用擴(kuò)充數(shù)據(jù)集、重采樣、屬性值隨機(jī)采樣等手段對數(shù)據(jù)集進(jìn)行改善。在固定使用NSL-KDD數(shù)據(jù)集的情況下,難以在相同情況下進(jìn)行數(shù)據(jù)集的擴(kuò)充;重采樣可以分為過采樣與欠采樣,過采樣即對小類樣本進(jìn)行上采樣,使采樣個(gè)數(shù)大于樣本個(gè)數(shù),欠采樣則是減少大類樣本的個(gè)數(shù),采樣算法容易實(shí)現(xiàn),但可能會增大模型偏差,并對于不同類別的數(shù)據(jù)需要采用不同的比例;屬性值隨機(jī)采樣在樣本的每個(gè)屬性空間都隨機(jī)取值組合成為一個(gè)新樣本,能夠有效增加小樣本的數(shù)量,但引入隨機(jī)性易打破樣本原有的線性關(guān)系,并且需要增設(shè)限定條件以防產(chǎn)生現(xiàn)實(shí)中不存在的數(shù)據(jù)。

2 基于ADASYN與改進(jìn)殘差網(wǎng)絡(luò)(residual network, ResNet)的入侵流量檢測模型

2.1 數(shù)據(jù)集分析與采樣

1999年舉辦的KDD杯數(shù)據(jù)挖掘工具競賽以收集流量記錄為目的,以建立一個(gè)可區(qū)分攻擊流量和正常流量的網(wǎng)絡(luò)入侵檢測模型,大量互聯(lián)網(wǎng)流量記錄被KDD99數(shù)據(jù)集收錄,該數(shù)據(jù)集包括了41個(gè)特征指標(biāo),共5類數(shù)據(jù)[18],而后經(jīng)過新布倫瑞克大學(xué)進(jìn)行修訂和清理產(chǎn)生了NSL-KDD數(shù)據(jù)集[19]。相比于KDD99數(shù)據(jù)集,NSL-KDD數(shù)據(jù)集訓(xùn)練集中不含冗余記錄,測試集中無重復(fù)數(shù)據(jù)[20],對于算法性能的檢測更加準(zhǔn)確,訓(xùn)練集和測試集的數(shù)據(jù)量設(shè)置合理,無需進(jìn)行篩選和選擇,更適合作為入侵流量檢測模型的訓(xùn)練數(shù)據(jù)集。

NSL-KDD數(shù)據(jù)集由正常流量及4種攻擊流量組成,攻擊流量類型分別為:DoS、Probing、R2L、U2R。每種攻擊類型下又細(xì)分有若干小類別的攻擊流量,為了統(tǒng)計(jì)識別便利,采用數(shù)據(jù)集給出的5個(gè)大類進(jìn)行分類識別。測試集的部分流量屬于未在訓(xùn)練集中出現(xiàn)的小類別,將這一部分流量進(jìn)行剔除。本文采用數(shù)據(jù)集的KDDTrain+作為訓(xùn)練集,KDDTest+作為測試集,各數(shù)據(jù)類型的分布如表1所示[21]。

表1 各類型數(shù)據(jù)分布

由表1可知,訓(xùn)練集和測試集都存在明顯的數(shù)據(jù)不平衡現(xiàn)象,最小的樣本僅占比0.04%,樣本比例高達(dá)1 336.5∶1,需要對數(shù)據(jù)集進(jìn)行平衡化的處理。R2L數(shù)據(jù)的特點(diǎn)在于,測試集的數(shù)量大于訓(xùn)練集數(shù)量,這說明檢測模型在訓(xùn)練集上將難以充分學(xué)習(xí)R2L的特征并在測試集中準(zhǔn)確分類。基于以上問題,本文采用ADASYN方法進(jìn)行升采樣,對訓(xùn)練集中的小樣本數(shù)據(jù)進(jìn)行擴(kuò)充。ADASYN算法步驟如下[22]。

步驟 1數(shù)據(jù)集小樣本選擇,對Normal、DoS、Probing、R2L、U2R進(jìn)行樣本編號,將小樣本數(shù)據(jù)相加得到總數(shù)ms,大樣本數(shù)據(jù)數(shù)量為ml。

步驟 2計(jì)算樣本間的不平衡程度d=ms/ml,其中d

步驟 3計(jì)算待合成的樣本Q=β(ml-ms),其中參數(shù)β∈(0,1],表示新樣本的不平衡程度。

步驟 6合成新樣本,對于小樣本的n維向量xi的k個(gè)鄰近樣本中隨機(jī)選取一個(gè)小樣本xzi,新合成樣本為:Li=xi+λ(xzi-xi),其中λ∈(0,1]為隨機(jī)數(shù)。

2.2 殘差網(wǎng)絡(luò)構(gòu)建

和CNN一次僅進(jìn)行一種尺寸的卷積核運(yùn)算相比,Inception模塊使用多尺寸卷積,有1×1,3×3和5×5共3種卷積核[23],能夠同時(shí)進(jìn)行多個(gè)卷積路徑,增加了網(wǎng)絡(luò)的寬度,可以使網(wǎng)絡(luò)同時(shí)對稀疏和非稀疏特征進(jìn)行學(xué)習(xí),獲得一個(gè)強(qiáng)相關(guān)的特征集合。而添加了殘差網(wǎng)絡(luò)的Inception網(wǎng)絡(luò),通過跳躍連接使Inception塊得到簡化,并加深了網(wǎng)絡(luò)層數(shù)[24],獲得了更好的泛化性和準(zhǔn)確度。文章引入Inception-ResNet的部分模塊,并針對NSL-KDD數(shù)據(jù)集對參數(shù)進(jìn)行優(yōu)化改進(jìn),構(gòu)建進(jìn)行分類識別的殘差網(wǎng)絡(luò)模型,圖3為模型結(jié)構(gòu)示意圖。

圖3 改進(jìn)殘差網(wǎng)絡(luò)結(jié)構(gòu)

Stem模塊由卷積層和池化層堆疊構(gòu)成,在Inception模塊之前引入,能夠加深網(wǎng)絡(luò)結(jié)構(gòu),擴(kuò)充數(shù)據(jù)維數(shù)。卷積層采用padding=same形式,濾波器數(shù)量標(biāo)注在卷積層的括號中。Stem結(jié)構(gòu)如圖4所示。

圖4 Stem模塊結(jié)構(gòu)

Inception-ResNet-A模塊的主要作用是提取淺層特征信息,輸入特征尺寸為11×11,所有卷積核都采用padding=same形式,1×1卷積核的作用為調(diào)整濾波器輸出維數(shù),以減少計(jì)算復(fù)雜度、匹配輸入和輸出維度。Inception-ResNet-A結(jié)構(gòu)如圖5所示。

圖5 Inception-ResNet-A模塊結(jié)構(gòu)

特征降維Reduction模塊也是由Inception模塊修改而來,在其基礎(chǔ)上減少了卷積運(yùn)算,增加池化運(yùn)算。相比于單獨(dú)的池化層,并行的卷積運(yùn)算能夠引入額外的特征以彌補(bǔ)池化壓縮維度的過程中丟失的特征信息。Reduction-A模塊的輸入尺寸為11×11,輸出尺寸為5×5,運(yùn)算模塊中標(biāo)注“V”的表示padding=valid,否則表示padding=same。Reduction-A的結(jié)構(gòu)如圖6所示。

圖6 Reduction-A模塊結(jié)構(gòu)

Inception-ResNet-B模塊可以提取數(shù)據(jù)深層的特征信息,輸入、輸出尺寸均為5×5,所有卷積核都采用padding=same形式,模塊結(jié)構(gòu)如圖7所示。

圖7 Inception-ResNet-B模塊結(jié)構(gòu)

Reduction-B模塊的輸入尺寸為5×5,輸出尺寸為2×2,對特征進(jìn)行了進(jìn)一步壓縮,模塊結(jié)構(gòu)如圖8所示。經(jīng)過以上處理后,對數(shù)據(jù)進(jìn)行全局池化處理,將特征向量壓縮為1×1的尺寸輸出,相比于直接添加全連接能夠減少計(jì)算量,避免過擬合的發(fā)生。在經(jīng)過全局池化后添加參數(shù)為0.25的Dropout層,降低神經(jīng)元之間的相互耦合,減少過擬合情況的發(fā)生。之后,將數(shù)據(jù)輸入到全連接層,利用Softmax函數(shù)完成對分類類別的輸出。

圖8 Reduction-B模塊結(jié)構(gòu)

3 實(shí)驗(yàn)分析

3.1 數(shù)據(jù)預(yù)處理

NSL-KDD數(shù)據(jù)集中每個(gè)樣本均有42維特征和一個(gè)標(biāo)簽class組成,其中accuracy特征表示21種機(jī)器學(xué)習(xí)模型中能成功識別該樣本的個(gè)數(shù),對于模型的訓(xùn)練無實(shí)際意義,因此舍去。數(shù)據(jù)集預(yù)處理的步驟如圖9所示。

圖9 數(shù)據(jù)預(yù)處理

在剩余的41維特征中有3類非數(shù)據(jù)類型的特征,分別是protocol_type、service、flag。針對非數(shù)據(jù)類型的特征,應(yīng)當(dāng)按照每種特征的類型數(shù)設(shè)置one-hot編碼,將非數(shù)據(jù)特征轉(zhuǎn)換為數(shù)據(jù)特征。同時(shí),對數(shù)據(jù)類型的特征需要進(jìn)行歸一化處理以減少不同維度特征的數(shù)據(jù)差異,文章采用min-max歸一化,其表達(dá)式為

(7)

數(shù)據(jù)經(jīng)過ADASYN升采樣后,新產(chǎn)生的小樣本數(shù)據(jù)其One-hot編碼部分為連續(xù)型小數(shù),需要進(jìn)行取整以獲取貼近實(shí)際的數(shù)據(jù)。采樣完畢后訓(xùn)練集的數(shù)據(jù)分布如表2所示,觀察可知升采樣后攻擊流量及正常流量的占比基本相同,數(shù)據(jù)集各樣本達(dá)到平衡。為保證數(shù)據(jù)的隨機(jī)性,需要對數(shù)據(jù)進(jìn)行隨機(jī)亂序排列。經(jīng)統(tǒng)計(jì)發(fā)現(xiàn),數(shù)據(jù)中特征num_file_creations在訓(xùn)練集、測試集的所有樣本中的取值均為0,為無效特征,故將其剔除。3種非數(shù)據(jù)類型的特征protocol_type、service、flag分別轉(zhuǎn)化為3、70、11位的One-hot編碼,與數(shù)據(jù)特征進(jìn)行組合得到121維的特征向量,為了更好發(fā)揮卷積層的運(yùn)算效果,將其轉(zhuǎn)換成尺寸為11×11的二維特征向量。

表2 升采樣后的訓(xùn)練集數(shù)據(jù)

3.2 模型參數(shù)與評估指標(biāo)

模型架構(gòu)采用圖3的結(jié)構(gòu),為確定模型最佳訓(xùn)練輪數(shù),從訓(xùn)練集中按數(shù)據(jù)類型隨機(jī)抽取20%的數(shù)據(jù)作為驗(yàn)證集,進(jìn)行輪數(shù)epoch=50次的訓(xùn)練,得到的準(zhǔn)確率及損失函數(shù)如圖10所示。由變化曲線可知,在訓(xùn)練輪數(shù)為0~30輪時(shí),驗(yàn)證集的分類準(zhǔn)確率先升高,后保持穩(wěn)定;當(dāng)訓(xùn)練輪數(shù)epoch>30時(shí),驗(yàn)證集的分類準(zhǔn)確率開始下降并在epoch>45輪后出現(xiàn)明顯振蕩,相應(yīng)的損失函數(shù)取值上升并且在epoch>45輪后出現(xiàn)明顯振蕩,這說明模型在訓(xùn)練后期出現(xiàn)了過擬合現(xiàn)象,算法性能開始下降。因此,本文將實(shí)驗(yàn)?zāi)P偷挠?xùn)練輪數(shù)設(shè)置為30輪。

圖10 驗(yàn)證集準(zhǔn)確率及損失函數(shù)變化曲線

此外,模型采用的優(yōu)化器類型為Adam優(yōu)化器,具備快速收斂、自適應(yīng)學(xué)習(xí)率的能力,參數(shù)設(shè)置為β1=0.9,β2=0.99。批處理大小設(shè)置為64,算法使用categorical-crossentropy作為損失函數(shù)。

實(shí)驗(yàn)采用準(zhǔn)確率Accuracy、精確率Precision、召回率Recall、調(diào)和平均值F1對多分類中各算法的性能進(jìn)行評價(jià),各性能指標(biāo)的計(jì)算公式[25]為

(8)

式中:TP表示被正確分類的正例數(shù)量;FN表示被錯(cuò)分為負(fù)例的正例數(shù)量;TN表示被正確分類的負(fù)例數(shù)量;FP表示被錯(cuò)分為正例的負(fù)例數(shù)量。

在二分類的評估中,還使用AUC值及ROC曲線作為評價(jià)指標(biāo)。其中準(zhǔn)確率值越高,算法的總體性能就越好;精確率和召回率值高,算法的誤報(bào)率越低。AUC值是ROC曲線下的面積大小,對于二分類問題而言,AUC取值越大,模型預(yù)測的準(zhǔn)確率越高。

3.3 模型性能對比驗(yàn)證

為了與實(shí)驗(yàn)?zāi)P彤a(chǎn)生對照,本文還設(shè)計(jì)了3種由經(jīng)典深度學(xué)習(xí)方法構(gòu)成的算法進(jìn)行對比實(shí)驗(yàn),各網(wǎng)絡(luò)結(jié)構(gòu)如表3所示。

結(jié)構(gòu)表中各層命名及變量說明如下:FC(X)中X表示全連接層中包含的節(jié)點(diǎn)數(shù)目,取值為m表示該值等于分類數(shù);DR(X)中X表示dropout層中隨機(jī)將神經(jīng)元輸出置零的比例;LSTM(X)中X表示輸出空間的維數(shù);Conv(X,Y,Z,N,M)中各個(gè)參數(shù)的含義為:X表示該卷積層中用到的過濾器個(gè)數(shù),Y、Z分別表示卷積核的寬度和高度,N表示步長,M表示padding的狀態(tài),如果寫成“V”則表示設(shè)置為“Valid”,如果寫成“S”則表示設(shè)置為“Same”;MaxPool(X,Y,N,M)中各個(gè)參數(shù)的含義為:X、Y分別表示池化層的寬度和高度,N表示步長,M表示padding的狀態(tài),命名規(guī)則同上。

為了進(jìn)一步確定經(jīng)典深度學(xué)習(xí)算法及本文實(shí)驗(yàn)算法對測試集進(jìn)行分類識別的最佳訓(xùn)練輪數(shù),本文利用KDDTrain+對4種算法進(jìn)行訓(xùn)練,然后使用4種算法對測試集KDDTest+內(nèi)的數(shù)據(jù)進(jìn)行分類識別,觀察不同訓(xùn)練輪數(shù)下各算法的識別準(zhǔn)確率和損失函數(shù),以研究每種算法取得最佳效果時(shí)對應(yīng)的訓(xùn)練輪數(shù)。訓(xùn)練總輪數(shù)設(shè)為50輪,圖11和圖12分別為4種算法在不同訓(xùn)練輪數(shù)下對測試集數(shù)據(jù)識別的準(zhǔn)確率及損失函數(shù)曲線。

圖11 各算法準(zhǔn)確率變化曲線(測試集)

圖12 各算法損失函數(shù)變化曲線(測試集)

從圖11和圖12的變化曲線可以發(fā)現(xiàn),4種算法對測試集的識別準(zhǔn)確率呈現(xiàn)快速收斂的特點(diǎn),在5輪以內(nèi)的訓(xùn)練輪數(shù)就能夠達(dá)到較高的性能指標(biāo),并且隨著訓(xùn)練輪數(shù)增加,準(zhǔn)確率和損失函數(shù)呈現(xiàn)振蕩的特點(diǎn),這與算法采用的Adam優(yōu)化器特征相一致,即Adam優(yōu)化器采用自適應(yīng)學(xué)習(xí)率設(shè)置,在優(yōu)化后期對于學(xué)習(xí)率的調(diào)節(jié)會導(dǎo)致模型收斂結(jié)果的振蕩。由圖11可知,4種算法均在30輪內(nèi)取到了準(zhǔn)確率最大值,即Resnet算法在第23輪、CNN算法在第4輪、DNN算法在第18輪、LSTM算法在第10輪實(shí)現(xiàn)了模型的最佳分類效果。在訓(xùn)練輪數(shù)epoch>30輪后,4種算法準(zhǔn)確率處于較低水平,損失函數(shù)振蕩幅度加大且取值逐步上升,這說明訓(xùn)練輪數(shù)大于30輪后,算法均出現(xiàn)了不同程度的過擬合狀態(tài),這與模型在驗(yàn)證集上的表現(xiàn)相吻合。

在這種情況下,為了取到經(jīng)典深度學(xué)習(xí)算法及改進(jìn)Resnet模型的最佳識別效果,文章采用Keras框架中的callbacks.EarlyStopping進(jìn)行訓(xùn)練的提前終止,以保證在節(jié)約內(nèi)存的條件下輸出模型不會錯(cuò)過最佳訓(xùn)練效果。以圖11和圖12各算法的振蕩情況為參考,將提前終止的耐心度設(shè)置為8,即當(dāng)模型輸出的準(zhǔn)確率連續(xù)8輪都小于之前能達(dá)到的最大值時(shí),模型將終止訓(xùn)練并輸出之前訓(xùn)練的最佳模型。同時(shí)為了避免各算法出現(xiàn)過擬合現(xiàn)象,將訓(xùn)練輪數(shù)上限設(shè)置為30輪。為了對比模型的性能差異,經(jīng)典深度學(xué)習(xí)模型的訓(xùn)練輪數(shù)、優(yōu)化器、損失函數(shù)類型與改進(jìn)的Resnet模型保持一致。

3.3.1 多分類性能對比分析

本節(jié)分別使用CNN、LSTM、DNN、改進(jìn)Resnet模型對原數(shù)據(jù)訓(xùn)練集KDDTrain+和經(jīng)過ADASYN采樣的新訓(xùn)練集進(jìn)行學(xué)習(xí),以測試集KDDTest+作為兩次學(xué)習(xí)的測試集,分別在有重采樣和無重采樣的情況下對比各模型對攻擊流量的分類識別性能,并對重采樣前后各模型自身的性能變化進(jìn)行比較以驗(yàn)證ADASYN重采樣的有效性。圖13和圖14分別為各模型在原訓(xùn)練集和重采樣訓(xùn)練集下學(xué)習(xí)后的性能評估圖??梢钥闯?各模型的性能指標(biāo)均是精確率最高、準(zhǔn)確率和召回率次之,調(diào)和平均值最小。無論是否進(jìn)行ADASYN采樣,改進(jìn)的Resnet網(wǎng)絡(luò)的4項(xiàng)性能指標(biāo)均高于經(jīng)典的深度學(xué)習(xí)網(wǎng)絡(luò),并且在新訓(xùn)練集上兩者的差異更加明顯。

圖13 各模型性能評估(原訓(xùn)練集)

圖14 各模型性能評估(新訓(xùn)練集)

由于實(shí)驗(yàn)中測試集不變,因此該組實(shí)驗(yàn)結(jié)果說明了在多分類問題的情況下,改進(jìn)Resnet模型的各性能均優(yōu)于CNN、DNN、LSTM等經(jīng)典深度學(xué)習(xí)網(wǎng)絡(luò),驗(yàn)證了模型解決多分類問題的有效性和泛化性。殘差網(wǎng)絡(luò)的設(shè)計(jì)是基于堆疊卷積池化層并添加跳躍連接,提升了網(wǎng)絡(luò)深度,本文的模型又向其中添加Inception模塊使模型網(wǎng)絡(luò)寬度變寬,最終使得改進(jìn)的Resnet網(wǎng)絡(luò)在特征提取、分類識別方面性能獲得提升。

為了驗(yàn)證多分類情況下ADASYN采樣的有效性,將基于原訓(xùn)練集和新訓(xùn)練集得到的模型性能指標(biāo)進(jìn)行對比,如表4所示。由表4可知,除了LSTM模型的精確率、召回率在過采樣后出現(xiàn)了極小的下降,其余的模型在采樣后的新訓(xùn)練集下得到的所有性能指標(biāo)均高于原訓(xùn)練集,這驗(yàn)證了ADASYN過采樣的有效性。其中改進(jìn)的Resnet網(wǎng)絡(luò)在采樣前后性能提升的最大,采樣前后的混淆矩陣如表5所示。

表4 各模型性能指標(biāo)對比

表5 無上采樣的改進(jìn)Resnet混淆矩陣(多分類)

表5數(shù)據(jù)由兩部分構(gòu)成,第一部分是由預(yù)測類型與實(shí)際類型相構(gòu)成的混淆矩陣,為表格內(nèi)容前5行,其中行表頭表示將測試集樣本預(yù)測為該類型流量,列表頭表示測試集樣本的實(shí)際類型;第二部分是5種類型流量在測試集預(yù)測的精確率與召回率,為表格內(nèi)容的后2行。表5是模型在無ADASYN上采樣的原訓(xùn)練集下訓(xùn)練,并在測試集上得到的預(yù)測結(jié)果,表6是在新訓(xùn)練集上得到的相應(yīng)測試結(jié)果。

表6 含上采樣的改進(jìn)Resnet混淆矩陣(多分類)

對比表5和表6可得出以下結(jié)論:

(1) 在新訓(xùn)練集上得到的模型,對測試集正確預(yù)測分類的結(jié)果更好。除Normal流量的預(yù)測數(shù)量有極小的減少外,其余4種攻擊流量在新訓(xùn)練集的模型下正確預(yù)測的數(shù)量都得到了較大提升,其中R2L的正確預(yù)測數(shù)量增加的最明顯,數(shù)量由541增加至850,增加了36.35%。

(2) U2R類型流量在不進(jìn)行上采樣時(shí)的模型上正確分類的個(gè)數(shù)為0,精確率和召回率值都為0,因?yàn)樵谠?xùn)練集中U2R的樣本數(shù)量極少,不平衡的數(shù)據(jù)分布導(dǎo)致算法在學(xué)習(xí)過程中直接忽略了U2R的特征信息,導(dǎo)致模型不具備檢測U2R類型流量的能力,這說明了采用殘差網(wǎng)絡(luò)進(jìn)行入侵檢測時(shí),解決數(shù)據(jù)集不平衡問題的必要性。在進(jìn)行了上采樣后,各類數(shù)據(jù)分布變得平衡,算法在學(xué)習(xí)過程中所有類型的特征信息都可學(xué)習(xí)提取,因此對于5種流量類型都可進(jìn)行有效的分類,算法的泛化性和可靠性得以提升。其中U2R的召回率的上升最明顯,增加了51.35%。

(3) 兩種情況下算法都將大部分R2L類型的流量誤判為Normal類型,其原因在于R2L流量在訓(xùn)練集中的數(shù)量少于在測試集的數(shù)量,因此算法在學(xué)習(xí)中無法完全掌握測試集中R2L的特征信息。這說明NSL-KDD數(shù)據(jù)集存在一定的數(shù)據(jù)劃分不合理性。

3.3.2 二分類性能對比分析

在入侵流量檢測的實(shí)際應(yīng)用中,通常也使用二分類的手段對流量進(jìn)行劃分,從而方便快捷地篩選找出入侵流量并進(jìn)行處理。為了檢驗(yàn)在二分類情況下ADASYN采樣及改進(jìn)Resnet網(wǎng)絡(luò)的分類性能,將4種攻擊流量標(biāo)簽進(jìn)行合并,統(tǒng)一改寫為“Attack”類型,便得到了用于二分類檢測識別的訓(xùn)練集和測試集。圖15和圖16為4種算法模型在二分類情況下的,分別在沒有ADASYN采樣的原訓(xùn)練集和有上采樣的新訓(xùn)練集下訓(xùn)練的測試集評估結(jié)果。

圖15 二分類模型性能評估(原訓(xùn)練集)

圖16 二分類模型性能評估(新訓(xùn)練集)

由圖可知,在原訓(xùn)練集下得到的模型中,CNN在測試集中的性能最優(yōu),準(zhǔn)確率為88.01%,精確率達(dá)到89.30%,改進(jìn)Resnet網(wǎng)絡(luò)的性能其次;而在新訓(xùn)練集下得到的模型中,改進(jìn)Resnet網(wǎng)絡(luò)的性能得到了明顯提高,性能為4種模型中最優(yōu),性能的提高程度比多分類情況下的上采樣還要大,其中準(zhǔn)確率達(dá)到91.88%,提升了4.47%,精確率達(dá)到91.94%,提升了2.92%。

經(jīng)過上采樣后,4種模型在測試集的性能均得到不同程度的提高,這說明了在二分類情況下,ADASYN上采樣的方法依舊能夠有效改善數(shù)據(jù)的不平衡性,使算法對特征信息的提取更加全面,提升了算法的分類準(zhǔn)確率和泛化性。而改進(jìn)的Resnet網(wǎng)絡(luò)在各項(xiàng)指標(biāo)上都優(yōu)于其他模型,這體現(xiàn)出改進(jìn)殘差網(wǎng)絡(luò)對于二分類的流量檢測識別具有更好的適應(yīng)性,算法結(jié)構(gòu)和參數(shù)設(shè)計(jì)合理。

表7和表8給出了在二分類的情況下改進(jìn)Resnet網(wǎng)絡(luò)在原訓(xùn)練集和新訓(xùn)練集下的測試集預(yù)測混淆矩陣。表格數(shù)據(jù)由兩部分組成,第1部分是由預(yù)測類型與實(shí)際類型相構(gòu)成的混淆矩陣,其中行表頭表示將測試集樣本預(yù)測為該類型流量,列表頭表示測試集樣本的實(shí)際類型;第2部分為Normal流量與Attack流量在測試集上預(yù)測的精確率和召回率。由表可知,在新訓(xùn)練集下得到的改進(jìn)Resnet模型對Attack流量的正確分類數(shù)量明顯提升,Attack流量的TN樣本數(shù)量上升、FN樣本數(shù)量下降也使得Normal流量的精確率及Attack流量的召回率提升,這充分說明了在經(jīng)過ADASYN采樣后,模型對于Attack流量的特征信息學(xué)習(xí)更加充分,算法的總體分類能力得到提升。

表7 無上采樣的改進(jìn)Resnet混淆矩陣(二分類)

表8 含上采樣的改進(jìn)Resnet混淆矩陣(二分類)

通過比較表7和表8,發(fā)現(xiàn)在二分類的情況下,測試集的TN樣本數(shù)量更多,FP、FN樣本數(shù)量更少,整體的分類性能也是二分類情況優(yōu)于多分類情況,這說明在二分類情況下,改進(jìn)Resnet網(wǎng)絡(luò)的分類效果更好,對入侵流量有更準(zhǔn)確的檢測能力,缺點(diǎn)在于二分類無法對入侵流量的類型進(jìn)行細(xì)化區(qū)分。

二分類問題中,ROC曲線及其下面積AUC值可以用作衡量分類器的分類效率及平衡性,因?yàn)锳UC不受先驗(yàn)概率及閾值的影響[26],AUC取值為[0,1],取值越大,算法的預(yù)測準(zhǔn)確率越高;ROC曲線的變化不受正負(fù)樣本數(shù)據(jù)分布的影響,能夠客觀反映出模型的分類性能。圖17、圖18分別給出了4種算法在原訓(xùn)練集、新訓(xùn)練集下得到的模型在測試集中的ROC曲線圖,其中實(shí)線代表將Normal流量作為正例繪制的ROC曲線,虛線代表將Attack流量作為正例繪制的ROC曲線。

圖17 模型測試集ROC曲線(原訓(xùn)練集)

圖18 模型測試集ROC曲線(新訓(xùn)練集)

表9表示使用ADASYN采樣前后的各模型測試集預(yù)測的AUC值。

表9 模型測試集AUC值

結(jié)合觀察圖17、圖18和表9,可以得出如下結(jié)論:

(1) 4種算法在經(jīng)過上采樣的訓(xùn)練集中得到的模型AUC值均大于在原訓(xùn)練集中得到的模型,而ROC曲線基本不受測試集數(shù)據(jù)不平衡的影響,導(dǎo)致AUC值提高的根本原因就是模型的分類能力提高,因?yàn)樵诮?jīng)過ADASYN采樣的訓(xùn)練集上,大幅提高了小樣本數(shù)量,使模型在訓(xùn)練過程中不會忽略小樣本的特征信息,提高了模型識別的泛化性和準(zhǔn)確性。

(2) 在上采樣后的ROC曲線中,改進(jìn)的Resnet模型AUC值高于其他3種模型,ROC曲線更加飽滿,貼近左上角。這表明改進(jìn)Resnet模型的分類效果優(yōu)于其他模型,這一結(jié)論與圖15、圖16和表7的結(jié)果相一致,充分說明了本文提出的算法在二分類的情況下能夠獲得最高的準(zhǔn)確率和AUC,并且誤報(bào)率低,具備良好的入侵流量檢測能力。

3.4 算法性能驗(yàn)證

本節(jié)為驗(yàn)證算法模型的實(shí)際性能和應(yīng)用價(jià)值,采用文獻(xiàn)[5,9]提出的算法與本文算法進(jìn)行性能對比,分別在多分類和二分類的情況下針對準(zhǔn)確率、精確率、召回率和F1值進(jìn)行評估。其中,文獻(xiàn)[5,9]采用NSL-KDD的原始KDDTrain+作為訓(xùn)練集,本文提出的改進(jìn)Resnet算法采用經(jīng)ADASYN采樣后的數(shù)據(jù)集作為訓(xùn)練集進(jìn)行訓(xùn)練。結(jié)果如圖19和圖20所示。

圖19 算法性能比較(多分類)

圖20 算法性能比較(二分類)

由圖可知,文獻(xiàn)[5]采用的STL-IDS進(jìn)行特征降維,并使用SVM進(jìn)行分類識別,雖然具備較高的精確率,但是在多分類和二分類情況下均存在準(zhǔn)確率、召回率低下的問題,尤其是多分類情況下算法的召回率只有68.29%,這表明算法在查全率上存在較大缺陷,各性能指標(biāo)效果差異大。文獻(xiàn)[9]算法采用堆疊LSTM和空洞殘差網(wǎng)絡(luò)進(jìn)行構(gòu)建,和本文的改進(jìn)殘差網(wǎng)絡(luò)具備一定相似性,在多分類情況下F1值取值較低,整體各個(gè)性能指標(biāo)表現(xiàn)均衡,在查準(zhǔn)率和查全率上都具備較好的性能。

相比于兩種文獻(xiàn)算法,本文提出的改進(jìn)Resnet算法在經(jīng)ADASYN上采樣的訓(xùn)練集上得到的模型在多分類和二分類情況上都具備最高的準(zhǔn)確率和最低的誤報(bào)率。這充分說明了算法設(shè)計(jì)的合理性,模型分類識別具備較高的準(zhǔn)確性和泛化性,可靠性良好。

4 結(jié)束語

本文提出了一種基于Inception-ResNet模塊改進(jìn)的殘差神經(jīng)網(wǎng)絡(luò)模型,算法通過添加跳躍連接的方式增加了網(wǎng)絡(luò)深度,解決了網(wǎng)絡(luò)過深導(dǎo)致性能下降的問題,同時(shí)使用Inception-ResNet模塊拓寬了網(wǎng)絡(luò)寬度,利用特征降維模塊有效減少了池化過程中的特征丟失。通過ADASYN對數(shù)據(jù)訓(xùn)練集進(jìn)行上采樣,改善小樣本在不平衡數(shù)據(jù)集中的分布,解決了深度學(xué)習(xí)網(wǎng)絡(luò)在不平衡數(shù)據(jù)集的學(xué)習(xí)中易忽略小樣本特征信息的問題,通過采樣前后的對比說明了自適應(yīng)合成采樣對于算法性能提高的重要作用。

文章最后在多分類、二分類情況下分別對經(jīng)典深度學(xué)習(xí)算法和改進(jìn)Resnet算法進(jìn)行性能評估,并進(jìn)行算法的效能對比,使用的指標(biāo)包括準(zhǔn)確率、精確率、召回率、調(diào)和平均值、ROC曲線和AUC值。實(shí)驗(yàn)結(jié)果表明,在多分類的情況下,改進(jìn)的Resnet算法在上采樣訓(xùn)練集下得到的模型準(zhǔn)確率可達(dá)到89.40%,二分類時(shí)為91.88%,均在所有算法中達(dá)到最高,同時(shí)算法的誤報(bào)率低、泛化性好,具備較高的可靠性和工程應(yīng)用價(jià)值。

猜你喜歡
準(zhǔn)確率卷積流量
冰墩墩背后的流量密碼
玩具世界(2022年2期)2022-06-15 07:35:36
基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
張曉明:流量決定勝負(fù)!三大流量高地裂變無限可能!
乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
健康之家(2021年19期)2021-05-23 11:17:39
不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
尋找書業(yè)新流量
出版人(2020年4期)2020-11-14 08:34:26
從濾波器理解卷積
電子制作(2019年11期)2019-07-04 00:34:38
高速公路車牌識別標(biāo)識站準(zhǔn)確率驗(yàn)證法
基于傅里葉域卷積表示的目標(biāo)跟蹤算法
祁连县| 上栗县| 咸丰县| 纳雍县| 永仁县| 清新县| 鄂托克前旗| 南投市| 仁怀市| 新疆| 略阳县| 四会市| 榆社县| 衡阳县| 喜德县| 安泽县| 普兰店市| 旺苍县| 宜章县| 松滋市| 武陟县| 宣城市| 涿鹿县| 水富县| 宾阳县| 上杭县| 日喀则市| 九龙县| 海盐县| 西乡县| 谷城县| 尉犁县| 得荣县| 长治县| 泰和县| 深泽县| 临沭县| 阳信县| 武汉市| 天长市| 洞头县|