郭旭東 李小敏 敬如雪 高玉琢
摘 要:針對(duì)傳統(tǒng)淺層的入侵檢測方法無法有效解決高維網(wǎng)絡(luò)入侵?jǐn)?shù)據(jù)的問題,提出了一種基于堆疊稀疏去噪自編碼器(SSDA)網(wǎng)絡(luò)的入侵檢測方法。首先,利用堆疊稀疏去噪自編碼器網(wǎng)絡(luò)SSDA對(duì)入侵?jǐn)?shù)據(jù)進(jìn)行降維操作;然后,將高度抽象后的低維數(shù)據(jù)作為輸入,利用softmax分類器進(jìn)行入侵檢測;最后,又在SSDA方法的基礎(chǔ)之上提出了一種改進(jìn)模型(ISSDA),即在傳統(tǒng)稀疏去噪自編碼器的基礎(chǔ)上增加新的約束條件,以此來提高深度網(wǎng)絡(luò)對(duì)原始入侵?jǐn)?shù)據(jù)的解碼能力以及模型的入侵檢測性能。實(shí)驗(yàn)結(jié)果證明,ISSDA方法與SSDA方法相比,對(duì)4種類型的攻擊的檢測準(zhǔn)確率提高了將近5%,也有效地降低了誤報(bào)率。
關(guān)鍵詞:自編碼網(wǎng)絡(luò);稀疏去噪;入侵檢測;特征降維;softmax
中圖分類號(hào): TP393
文獻(xiàn)標(biāo)志碼:A
文章編號(hào):1001-9081(2019)03-0769-05
Abstract: In order to solve the problem that traditional intrusion detection methods can not effectively solve instrusion data in high-dimensional networks, an intrusion detection method based on Stacked Sparse Denosing Autoencoder (SSDA) network was proposed. Firstly, a stacked sparse denoising autoencoderSSDA was used to perform dimensionality reduction on the intrusion data. Then, the highly abstracted low-dimensional data was used as input data of softmax classifier to realize intrusion detection. Finally, in order to improve original intrusion data decoding ability of the network and intrusion detection ability of the model, an Improved model based on SSDA (ISSDA) was proposed, with new constraints added to the autoencoder. The experimental results show that compared with SSDA, ISSAD's detection accuracy of four types of attacks was improved by about 5%, and the false positive rate of ISSAD was also effectively reduced.
Key words: autoencoder network;sparse denoising;intrusion detection;feature reduction;softmax
0 引言
自2015年起,深度學(xué)習(xí)逐步應(yīng)用于網(wǎng)絡(luò)空間安全(Cyberspace Security)的研究,引起了學(xué)術(shù)界的廣泛關(guān)注。深度學(xué)習(xí)應(yīng)用于網(wǎng)絡(luò)空間安全,主要在惡意代碼檢測和入侵檢測兩個(gè)領(lǐng)域[1-8]。傳統(tǒng)的機(jī)器學(xué)習(xí)方法,依賴于特征工程,無法避免人工提取特征帶來的錯(cuò)誤。深度學(xué)習(xí)由于其特殊的層級(jí)結(jié)構(gòu)可以自主識(shí)別攻擊特征,提高了檢測效率,降低了誤報(bào)率。Deng等[9]將深度學(xué)習(xí)模型分為:生成模型(Generative Model)、識(shí)別模型(Discriminative Model)和混合模型(Hybrid Model)。生成模型是通過學(xué)習(xí)數(shù)據(jù)的高階相關(guān)性來生成新的數(shù)據(jù),包括循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)、深度信念網(wǎng)絡(luò)(Deep Belief Net, DBN)和自編碼器(AutoEncoder, AE)等,其中DBN和AE是主要的特征提取方法。自編碼網(wǎng)絡(luò)是Hinton在2006年提出的,該方法已經(jīng)成為大數(shù)據(jù)和人工智能的一個(gè)熱潮。2014年,李春林博士等[5]將自編碼網(wǎng)絡(luò)模型應(yīng)用到入侵檢測領(lǐng)域,實(shí)現(xiàn)對(duì)網(wǎng)絡(luò)特征的提取,通過softmax分類器對(duì)特征數(shù)據(jù)進(jìn)行分類,驗(yàn)證了該方法的有效性。 文獻(xiàn)[6]先采用AE進(jìn)行降維,然后采用DBN進(jìn)行分類。Niyaz等[7]首先使用1-to-n encoding方法進(jìn)行特征編碼得到121維特征,然后采用稀疏自編碼進(jìn)行無監(jiān)督的降維,最后通過softmax回歸來訓(xùn)練分類器。高妮等[8]提出了一種基于自編碼網(wǎng)絡(luò)的支持向量機(jī)(Support Vector Machine, SVM)入侵檢測模型,該模型采用多層無監(jiān)督的限制玻爾茲曼機(jī)建立高維空間和低維空間的雙向映射的自編碼網(wǎng)絡(luò)結(jié)構(gòu),然后用基于反向傳播網(wǎng)絡(luò)的自編網(wǎng)絡(luò)進(jìn)行權(quán)值微調(diào),最后用SVM算法進(jìn)行入侵識(shí)別。
傳統(tǒng)的自編碼網(wǎng)絡(luò)通過最小化重構(gòu)誤差來逼近真實(shí)數(shù)據(jù),僅僅考慮了輸入和輸出的整體近似性,沒有考慮輸入和輸出的局部近似性,降低了解碼數(shù)據(jù)的準(zhǔn)確性。受文獻(xiàn)[10]提出融合梯度差信息的稀疏去噪自編碼網(wǎng)絡(luò)(Sparse Denoising AutoEncoder, Sparse DAE)用于異常行為檢測的啟發(fā),本文通過改進(jìn)傳統(tǒng)的自編碼網(wǎng)絡(luò),強(qiáng)調(diào)解碼階段的局部相似性來提高自編碼網(wǎng)絡(luò)對(duì)入侵?jǐn)?shù)據(jù)的解碼準(zhǔn)確性,從而提高入侵識(shí)別的性能。
1 稀疏去噪自編碼網(wǎng)絡(luò)
自編碼器可以看作是由兩個(gè)部分組成:一個(gè)由函數(shù)f(x)表示的編碼器和一個(gè)生成重構(gòu)的解碼器g(x)。如圖1所示的自編碼網(wǎng)絡(luò)架構(gòu),包含一個(gè)可見層、一個(gè)隱含層和一個(gè)輸出層。從可見層到隱含層的轉(zhuǎn)換是f(x)表示的編碼過程(encoder),從隱含層到輸出層的轉(zhuǎn)換是g(x)表示的解碼過程(decoder)。自編碼經(jīng)過訓(xùn)練后只是簡單地嘗試將輸入復(fù)制到輸出,保留原始數(shù)據(jù)的信息,并不能確保獲得有用的特征表示。編碼和解碼過程可由以下式子表示:
實(shí)際應(yīng)用中,為了減小權(quán)重的幅度,防止模型過擬合,損失函數(shù)一般要加入懲罰項(xiàng),如式(6)加入系數(shù)正則項(xiàng)后的損失函數(shù):
為了不讓自編碼器去嘗試逼近一個(gè)沒有什么特別用處的恒等函數(shù),通常需要向自編碼器強(qiáng)加一些約束,讓它只能夠近似地復(fù)制訓(xùn)練數(shù)據(jù)相似的輸入。這些約束強(qiáng)制模型考慮輸入數(shù)據(jù)的哪些部分需要被優(yōu)先復(fù)制,因此它往往能學(xué)習(xí)到數(shù)據(jù)的有用特征表示。自編碼神經(jīng)網(wǎng)絡(luò)的隱藏神經(jīng)元的數(shù)量較大(可能比輸入數(shù)據(jù)的維度還多)時(shí),施加一些限制條件(如稀疏限制),那么自編碼網(wǎng)絡(luò)即使在隱藏神經(jīng)元較多的情況下仍然可以發(fā)現(xiàn)輸入數(shù)據(jù)中的一些有趣的結(jié)構(gòu)。自編碼的稀疏性要求是受生物醫(yī)學(xué)的啟發(fā),在生物神經(jīng)網(wǎng)絡(luò)中,大量部分神經(jīng)在同一時(shí)刻都是處于抑制狀態(tài),只有少量神經(jīng)網(wǎng)絡(luò)才被激發(fā)。假設(shè)自編碼網(wǎng)絡(luò)中激活函數(shù)為sigmoid函數(shù),那么當(dāng)神經(jīng)元的輸出接近于1的時(shí)候是激活狀態(tài),而輸出接近于0時(shí)是抑制狀態(tài)。如果激活函數(shù)是tanh函數(shù),那么當(dāng)神經(jīng)元的輸出為-1時(shí)是被抑制的。如式(7)表示隱藏神經(jīng)元j的平均活躍度(在訓(xùn)練集上取平均):
為了使得自編碼器可以學(xué)到一個(gè)有用的結(jié)果,除了像稀疏自編碼器一樣給代價(jià)函數(shù)添加額外的懲罰項(xiàng),還可以通過改變重構(gòu)誤差項(xiàng)來達(dá)到目的。Vincent等[11]在稀疏自編碼的基礎(chǔ)上提出了降噪自編碼,去噪自編碼器(Denoising AutoEncoder, DAE)是通過引入一個(gè)損壞過程,得到受損數(shù)據(jù)作為輸入,并訓(xùn)練來預(yù)測原始未被損壞數(shù)據(jù)作為輸出的自編碼器。DAE的訓(xùn)練過程如圖2所示。從訓(xùn)練樣本中采集一個(gè)訓(xùn)練樣本x,經(jīng)獲得編碼器的輸入,h為編碼后的結(jié)果,r為解碼后結(jié)果,即x的重構(gòu)。去噪自編碼器的損失函數(shù)仍是對(duì)原始輸入x與輸出r的重構(gòu)誤差L(x,r)。
2 基于堆疊稀疏去噪自編碼器的入侵檢測
堆疊稀疏去噪自編碼器(Stacked Sparse Denoising Autoencoder, SSDA)是由多個(gè)稀疏去噪自編碼堆疊組合而成,前一層的隱藏層輸出作為下一層的輸入。Hinton等[12]提出了一種新的貪婪逐層非監(jiān)督算法來初始化深度學(xué)習(xí)網(wǎng)絡(luò),Vincent等[11]使用此算法來初始化基于降噪自編碼器的堆疊去噪自編碼器(Stacked Denoising Autoencoder, SDA)。SDA初始化方法的有效性在多個(gè)數(shù)據(jù)集上得到了驗(yàn)證[13]。本文采用逐層貪婪算法進(jìn)行無監(jiān)督預(yù)訓(xùn)練,然后在網(wǎng)絡(luò)的最后一層添加softmax分類器,使得整個(gè)網(wǎng)絡(luò)成為具有分層特征提取和數(shù)據(jù)分類的多重感知器。對(duì)構(gòu)建的具有分類功能的神經(jīng)網(wǎng)絡(luò),采用基于梯度下降的算法進(jìn)行有監(jiān)督的微調(diào),最小化預(yù)測誤差,不斷調(diào)整整個(gè)網(wǎng)絡(luò)的參數(shù)。
2.1 入侵檢測模型設(shè)計(jì)
基于堆疊稀疏去噪自編碼器的入侵檢測模型的架構(gòu)如圖3所示,包含3個(gè)階段:數(shù)據(jù)預(yù)處理、基于堆疊稀疏去噪自編碼器的特征提取和基于softmax分類器的入侵識(shí)別。
數(shù)據(jù)處理階段:包含兩個(gè)步驟,分別是采用屬性映射的方法進(jìn)行數(shù)據(jù)集的符號(hào)數(shù)值化、數(shù)據(jù)的最小最大規(guī)范化處理。詳見4.1和4.2節(jié)內(nèi)容。
基于堆疊稀疏去噪自編碼器的特征提取階段:文獻(xiàn)[8]詳細(xì)討論了網(wǎng)絡(luò)深度、隱藏層節(jié)點(diǎn)數(shù)、輸出層節(jié)點(diǎn)數(shù)等對(duì)入侵檢測性能的影響。本文采用該文提出的5層深度結(jié)構(gòu),即輸入層節(jié)點(diǎn)數(shù)為122,第一隱藏層為110,之后的層數(shù)依次為80、50、25和5。
基于softmax的入侵識(shí)別:softmax分類器的原理及實(shí)現(xiàn)本文不作詳細(xì)闡述?;趕oftmax的入侵識(shí)別模型,是將特征提取模型提取的5維高度抽象數(shù)據(jù)作為輸入,進(jìn)行分類檢測,從而實(shí)現(xiàn)入侵識(shí)別。
2.2 檢測模型的訓(xùn)練
在堆疊稀疏去噪自編碼器的最后一層加入softmax分類器,組合成一個(gè)具有分層特征提取和分類識(shí)別的多重感知器。特征提取模塊采用逐層無監(jiān)督訓(xùn)練,softmax分類器利用特征提取模塊的最后一隱藏層的輸出和原始數(shù)據(jù)標(biāo)簽作為輸入進(jìn)行有監(jiān)督的訓(xùn)練。最終將逐層訓(xùn)練和有監(jiān)督訓(xùn)練得到的參數(shù)作為整個(gè)深度網(wǎng)絡(luò)的初始參數(shù),然后對(duì)整個(gè)網(wǎng)絡(luò)采用有監(jiān)督的方式進(jìn)行微調(diào)。這個(gè)逐層貪婪過程被證明比隨機(jī)初始化權(quán)值更能產(chǎn)生一個(gè)較好的局部極值,在某些任務(wù)上達(dá)到了較好的泛化性能。
基于堆疊稀疏去噪自編碼器的入侵檢測模型的訓(xùn)練算法如下:
輸入:經(jīng)過高維映射和歸一化的122維數(shù)據(jù)x,加入一定噪聲比例ρ的數(shù)據(jù)。
輸出:網(wǎng)絡(luò)最優(yōu)參數(shù)值θ1、θ2、θ3、θ4、θ5和θ6。
步驟1 基于堆疊稀疏去噪自編碼器的特征提取模型,網(wǎng)絡(luò)結(jié)構(gòu)為122-110-80-50-25-5。將訓(xùn)練數(shù)據(jù)作為輸入,利用圖2 表示的訓(xùn)練過程采用基于梯度下降的優(yōu)化方法,最小化式(10)進(jìn)行訓(xùn)練,得到第一層的網(wǎng)絡(luò)參數(shù)θ1,最后利用原始數(shù)據(jù)x和參數(shù)θ1計(jì)算第一隱藏層輸出h1。
步驟2 將步驟1得到的輸出h1加入一定噪聲比例ρ后得到的數(shù)據(jù)作為第二層的輸入,然后同樣訓(xùn)練方法進(jìn)行訓(xùn)練,得到第二層的網(wǎng)絡(luò)參數(shù)θ2,并利用h1和θ2計(jì)算第二隱藏層輸出h2。
步驟3 重復(fù)步驟1步驟2,逐層訓(xùn)練得到權(quán)值參數(shù)θ1、θ2、θ3、θ4和θ5。然后利用h5和原始數(shù)據(jù)標(biāo)簽作為softmax分類器的輸入,對(duì)分類器進(jìn)行有監(jiān)督的訓(xùn)練從而得到參數(shù)θ6。
步驟4 將上述步驟得到的權(quán)值參數(shù)θ1~θ6作為整個(gè)網(wǎng)絡(luò)的初始參數(shù),即預(yù)訓(xùn)練此深度網(wǎng)絡(luò),并將原始未添加噪聲的訓(xùn)練數(shù)據(jù)作為輸入,計(jì)算預(yù)測值與目標(biāo)的損失函數(shù),利用各種優(yōu)化方法計(jì)算最小值附近的參數(shù),作為整個(gè)網(wǎng)絡(luò)的最優(yōu)參數(shù)。
3 基于改進(jìn)的堆疊稀疏去噪自編碼器網(wǎng)絡(luò)入侵檢測(Improved Stacked Sparse Denoising Autoencoder, ISSDA)基于ISSDA的入侵檢測基于改進(jìn)堆疊稀疏去噪自編碼器網(wǎng)絡(luò)入侵檢測基于ISSDA的網(wǎng)絡(luò)入侵檢測
網(wǎng)絡(luò)攻擊行為往往伴隨著多個(gè)緊密聯(lián)系的入侵特征信息,如本文采用的KDD '99[14]數(shù)據(jù)集中41項(xiàng)特征屬性,前9項(xiàng)屬性包含了一些連接的基本屬性,10~22為內(nèi)容特征,23~31為基于時(shí)間的網(wǎng)絡(luò)流量統(tǒng)計(jì)特征,最后10項(xiàng)為基于主機(jī)的網(wǎng)絡(luò)流量統(tǒng)計(jì)特征?;谙∈鐳AE自編碼網(wǎng)絡(luò)的對(duì)入侵特征進(jìn)行抽取時(shí),沒有充分考慮到屬性特征間特有的關(guān)系。本文提出一種改進(jìn)的稀疏DAE改進(jìn)的堆疊稀疏去噪自編碼器(Improved Stacked Sparse Denoising Autoencoder, ISSDA)網(wǎng)絡(luò),將反映屬性特征關(guān)系的信息項(xiàng)作為懲罰項(xiàng)加入到損失函數(shù)中提高自編碼網(wǎng)絡(luò)的解碼性能。設(shè)D=Ax為原始數(shù)據(jù)x的特征關(guān)系矩陣,D′=Ar為輸出數(shù)據(jù)r的特征關(guān)系矩陣,A本質(zhì)為表達(dá)線性操作的矩陣,所以
為特征關(guān)系信息項(xiàng),此時(shí)的代價(jià)函數(shù)由式(10)變?yōu)椋?/p>
如圖4所示,本文提出的基于改進(jìn)的堆疊稀疏去噪自編碼模型較原來的堆疊稀疏去噪自編碼模型不同之處在于,堆疊稀疏去噪自編碼網(wǎng)絡(luò)的第一層代價(jià)函數(shù)為式(12),其余幾層的代價(jià)函數(shù)仍為式(10)。其預(yù)訓(xùn)練訓(xùn)練方式仍采用無監(jiān)督的逐層貪婪訓(xùn)練和有監(jiān)督的整體網(wǎng)絡(luò)微調(diào)。
4 實(shí)驗(yàn)分析
4.1 實(shí)驗(yàn)數(shù)據(jù)
本文采用KDD '99數(shù)據(jù)集作為模型原始數(shù)據(jù),KDD '99數(shù)據(jù)集是目前入侵檢測領(lǐng)域比較權(quán)威的測試數(shù)據(jù)集,它是由麻省理工學(xué)院林肯(Lincon)實(shí)驗(yàn)室模擬美國空軍局域網(wǎng)環(huán)境而建立的網(wǎng)絡(luò)流量測試數(shù)據(jù)集。本文采用的10%的KDD '99數(shù)據(jù)集包含494021個(gè)實(shí)例訓(xùn)練數(shù)據(jù)和311029個(gè)測試數(shù)據(jù)。主要包括四種類型的攻擊:拒絕服務(wù)攻擊(Denial of Service, DoS)、遠(yuǎn)程到本地攻擊(Remote to Local, R2L)、未經(jīng)授權(quán)且試圖獲取超級(jí)用戶個(gè)root權(quán)限訪問(User to Root, U2R)以及端口監(jiān)視或掃描(Probe)。數(shù)據(jù)集的每條數(shù)據(jù)有42項(xiàng)屬性記錄,其中前41個(gè)為屬性特征,最后一個(gè)為類標(biāo)簽屬性。41個(gè)屬性特征中包含38個(gè)數(shù)字屬性特征和3個(gè)符號(hào)型數(shù)據(jù)特征。
為了驗(yàn)證本文提出的改進(jìn)方法的有效性,隨機(jī)選擇三組數(shù)據(jù)樣本集,如表1。
4.2 數(shù)據(jù)預(yù)處理
本文采用高維映射方法進(jìn)行符號(hào)數(shù)值化處理。符號(hào)型屬性特征protocol_type含有3種類型:tcp、udp和icmp,將其分別映射成[1,0,0],[0,1,0]和[0,0,1]。符號(hào)型屬性特征service有70種符號(hào)取值,flag有11種符號(hào)取值,可以通過建立符號(hào)值與其相應(yīng)數(shù)值的映射關(guān)系從而實(shí)現(xiàn)數(shù)值化。照此方式進(jìn)行數(shù)值化,將原本的41維特征數(shù)據(jù)變換為122維,增加特征的可識(shí)別性。
為了消除各屬性之間的量綱影響,還需作歸一化處理。本文采用最大最小化規(guī)范對(duì)訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)進(jìn)行歸一化處理,即將數(shù)據(jù)歸一化到[0,1]范圍。公式如下:
4.3 實(shí)驗(yàn)結(jié)果分析
為驗(yàn)證本文提出的改進(jìn)模型的有效性,為此設(shè)計(jì)了以下實(shí)驗(yàn):
實(shí)驗(yàn)1 模型改進(jìn)前后的性能對(duì)比分析。
實(shí)驗(yàn)2 分析改進(jìn)模型較原始模型對(duì)入侵檢測性能的影響,以及和其他模型的對(duì)比。
4.3.1 模型的性能比較
改進(jìn)的稀疏去噪自編碼器模型是通過加入新的約束項(xiàng)來提高網(wǎng)絡(luò)的解碼性能。在入侵檢測的應(yīng)用中,本文加入屬性特性信息約束項(xiàng),提高原始入侵?jǐn)?shù)據(jù)與重構(gòu)數(shù)據(jù)的局部近似性,從而盡可能得到更加有效的高層特征抽象表示?;诟倪M(jìn)的堆疊稀疏去砸自編碼器的特征提取模型,是將改進(jìn)后的稀疏去噪自編碼器作為堆疊模型的第一層,來得到更加有效首次約簡特征。第一層隱藏層的表達(dá)能力決定了上層的特征抽取能力。神經(jīng)元節(jié)點(diǎn)數(shù)的增多會(huì)提高網(wǎng)絡(luò)的非線性逼近能力,但也會(huì)降低網(wǎng)絡(luò)的泛化能力[15]。文獻(xiàn)[8]討論了第一層隱藏層節(jié)點(diǎn)數(shù)對(duì)入侵識(shí)別性能的影響,本文采用該論文提出的第一層最優(yōu)節(jié)點(diǎn)數(shù)來分析比較網(wǎng)絡(luò)改進(jìn)前后的解碼效果。如圖5為改進(jìn)后的稀疏DAE與稀疏DAE損失值達(dá)到收斂后的對(duì)比分析。
如表2所示,表中對(duì)比分析了基于ISSDA的入侵檢測模型和基于SSDA入侵檢測模型的入侵識(shí)別性能。
由圖5和表2可以看出,改進(jìn)的稀疏去噪自編碼器在算法達(dá)到收斂時(shí)損失值低于稀疏去噪自編碼器。由三組數(shù)據(jù)的分類準(zhǔn)確率(Accuracy,AC)和檢測率(Detection Rate,DR)可以看出,基于改進(jìn)的稀疏去噪自編碼器的檢測模型(ISSDA)相對(duì)于基于稀疏去噪自編碼器的檢測模型(SSDA)在不同數(shù)據(jù)集上整體的檢測性能都有所提高,這也證明了改進(jìn)方法的有效性。
4.3.2 與其他模型比較
文獻(xiàn)[16]已經(jīng)驗(yàn)證了基于約簡后的特征子集的分類器整體性能高于基于所有特征集的分類器。所以本文的實(shí)驗(yàn)分析只對(duì)基于特征降維算法的入侵檢測模型作了分析比較,如表3所示,本文設(shè)置實(shí)驗(yàn)在數(shù)據(jù)集S1上分析比較了不同分類模型對(duì)于不同攻擊類別的檢測率DR和誤報(bào)率(False Alarm Rate, FAR)。實(shí)驗(yàn)結(jié)果表示本文提出的基于ISSDA的改進(jìn)模型的分類性能優(yōu)于基于SSDA的模型,對(duì)4種類型的攻擊的檢測準(zhǔn)確率整體提升了將近5%,誤報(bào)率也明顯降低。與AN5-SVM-5模型[8]相比,在R2L、U2L和Probe攻擊類型上性能較優(yōu)于該模型,而在Normal和DoS攻擊類別上基本持平。
基于特征降維算法的入侵檢測方法在準(zhǔn)確率和誤報(bào)率上有所提升和下降,但是在考慮模型的檢測率的同時(shí),也必須要考慮模型的訓(xùn)練時(shí)間和測試時(shí)間。所以,本文進(jìn)行了不同模型的訓(xùn)練時(shí)間和測試時(shí)間的對(duì)比分析實(shí)驗(yàn)。
如圖6所示,其中訓(xùn)練時(shí)間是特征降維模塊的訓(xùn)練時(shí)間,ISSDA方法相對(duì)SSDA方法額外增加了屬性特征信息的計(jì)算環(huán)節(jié)和約束,所以ISSDA方法的三組數(shù)據(jù)集的訓(xùn)練時(shí)間均高于SSDA方法。與其他兩種檢測方法相比,ISSDA方法與AN5-SVM-5方法的訓(xùn)練時(shí)間沒有特別顯著的差異,但是卻要低于KPCA-GA-SVM方法。
圖7所示的是不同分類方法在測試數(shù)據(jù)集上進(jìn)行攻擊檢測的消耗時(shí)間的對(duì)比。從圖中可以看出,ISSDA方法檢測時(shí)間高于SSDA方法和AN5-SVM-5方法,低于KCPA-GA-SVM方法。
綜上,雖然ISSDA訓(xùn)練時(shí)間和測試時(shí)間有所上升,但是相對(duì)于改進(jìn)方法帶來的檢測準(zhǔn)確率的提升和誤報(bào)率的下降,模型的整體性能還是有著不可忽視的提升。
5 結(jié)語
本文首先介紹了基于堆疊稀疏去噪自編碼網(wǎng)絡(luò)的入侵檢測模型的原理及模型的設(shè)計(jì)實(shí)現(xiàn)。其次,又針對(duì)利用傳統(tǒng)的自編碼器進(jìn)行高維網(wǎng)絡(luò)攻擊數(shù)據(jù)的降維操作,并不能有效學(xué)習(xí)到網(wǎng)絡(luò)攻擊數(shù)據(jù)屬性特征間的關(guān)系信息的問題,提出了一種改進(jìn)方法,即在傳統(tǒng)的稀疏去噪自編碼網(wǎng)絡(luò)的基礎(chǔ)上,通過加入新的約束項(xiàng),盡可能提高網(wǎng)絡(luò)的局部近似性的學(xué)習(xí)能力,提高網(wǎng)絡(luò)的解碼能力,從而提高模型的入侵檢測性能。實(shí)驗(yàn)結(jié)果證明加入特征信息約束項(xiàng)后的自編碼器相對(duì)于原始自編碼提高了整個(gè)模型的入侵檢測性能,同時(shí)也提供了一種研究思路,即如何能提高高維網(wǎng)絡(luò)入侵?jǐn)?shù)據(jù)的降維準(zhǔn)確性。最后,本文提出的檢測方法屬于監(jiān)督學(xué)習(xí)的范疇,而實(shí)際中出現(xiàn)的新型未知攻擊,在沒有其標(biāo)記數(shù)據(jù)的情況下,本文提出的檢測方法不具有檢測該攻擊的能力,所以這也正是今后進(jìn)一步的研究方向之一。
參考文獻(xiàn) (References)
[1] PASCANU R, STOKES J W, SANOSSIAN H, et al. Malware classification with recurrent networks [C]// Proceedings of the 2015 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE, 2015: 1916-1920.
[2] WANG X, YIU S M. A multi-task learning model for malware classification with useful file access pattern from API call sequence [EB/OL]. [2018-07-04]. https://arxiv.org/pdf/1610.05945.
[3] RHODE M, BURNAP P, JONES K. Early-stage malware prediction using recurrent neural networks [EB/OL]. [2018-07-04]. https://arxiv.org/pdf/1708.03513.
[4] YUAN Z, LU Y Q, WANG Z, et al. Droid-Sec: deep learning in android malware detection [J]. ACM SIGCOMM Computer Communication Review, 2014, 44(4): 371-372.
[5] 李春林,黃月江,王宏,等. 一種基于深度學(xué)習(xí)的網(wǎng)絡(luò)入侵檢測方法[J].信息安全與通信保密,2014(10):68-71.(LI C L, HUANG Y J, WANG H, et al. Detection of network intrusion based on deep learning [J]. Information Security and Communications Privacy, 2014(10): 68-71.)
[6] LI Y, MA R, JIAO R. A hybrid malicious code detection method based on deep learning [J]. International Journal of Software Engineering and Its Applications, 2015, 9(5): 205-216.
[7] JAVAID A, NIYAZ Q, SUN W, et al. A deep learning approach for network intrusion detection system [C]// Proceedings of the 9th EAI International Conference on Bio-inspired Information and Communications Technologies. New York: BICT. 2016: 21-26.
[8] 高妮,高嶺,賀毅岳,等. 基于自編碼網(wǎng)絡(luò)特征降維的輕量級(jí)入侵檢測模型[J].電子學(xué)報(bào),2017,45(3):730-739.(GAO N, GAO L, HE Y Y, et al. A lightweight intrusion detection model based on autoencoder network with feature reduction [J]. Acta Electronica Sinica, 2017,45(3):730-739.)
[9] DENG L, YU D. Deep learning: methods and applications [J]. Foundations and Trends in Signal Processing, 2014, 7(3/4): 197-387.
[10] 袁靜,章毓晉.融合梯度信息的稀疏去噪自編碼網(wǎng)絡(luò)在異常行為檢測中的應(yīng)用[J].自動(dòng)化學(xué)報(bào),2017,43(4):604-610.(YUAN J, ZHANG Y J. Application of sparse denoising auto encoder network with gradient difference information for abnormal action detection[J]. Acta Automatica Sinica, 2017, 43(3): 604-610.)
[11] DENG L, YU D. Deep learning: methods and applications [J]. Foundations and Trends in Signal Processing, 2014, 7(3/4): 197-387.【和9一樣?
[11] VINCENT P, LAROCHELLE H, BENGIO Y, et al. Extracting and composing robust features with denoising autoencoders [C]// Proceedings of the 25th International Conference on Machine Learning. New York:ACM, 2008: 1096-1103.
[12] HINTON G,OSINDERO S,TEH Y W. A fast learning algorithm for deep belief nets [J]. Neural Computation, 2006,18(7): 1527-1554.
[13] BENGIO Y, LAMBLIN P, POPOVICI D, et al. Greedy layer-wise training of deep networks [C]// Proceedings of the 19th International Conference on Neural Information Processing Systems. Cambridge, MA: MIT Press, 2006: 153-160.
[14] University of California. KDD Cup 99[DB/OL]. [2018-07-18]. http://kdd.ics.uci.edu/databases/kddcup99/kddcup99.html.
[15] LAROCHELLE H, BENGIO Y, LOURADOUR J, et al. Exploring strategies for training deep neural networks [J]. Journal of Machine Learning Research, 2009, 10(6): 1-40.
[16] KUANG F,XU W,ZHANG S. A novel hybrid KPCA and SVM with GA model for intrusion detection [J]. Applied Soft Computing, 2014, 18(4): 178-184.