爨 瑩,吳 越
(西安石油大學(xué) 計(jì)算機(jī)學(xué)院,陜西 西安 710065)
時(shí)間序列數(shù)據(jù)是生活中常見(jiàn)的一種數(shù)據(jù),在時(shí)間順序上具有一定規(guī)律,且大量存在于金融貿(mào)易、工業(yè)生產(chǎn)、環(huán)境保護(hù)、網(wǎng)絡(luò)安全等眾多領(lǐng)域。時(shí)間序列異常檢測(cè)在生產(chǎn)和生活中有著重要的作用,如在網(wǎng)絡(luò)安全領(lǐng)域中分析網(wǎng)絡(luò)異常行為,在金融領(lǐng)域中識(shí)別欺詐交易等。
傳統(tǒng)時(shí)間序列異常檢測(cè)方法(統(tǒng)計(jì)學(xué)方法或聚類方法),如高斯模型、ARIMA、K?means、IForest 等都屬于統(tǒng)計(jì)機(jī)器學(xué)習(xí)的范疇。這些方法基本在每個(gè)時(shí)刻訓(xùn)練模型以預(yù)測(cè)下一時(shí)刻,若觀測(cè)點(diǎn)與預(yù)測(cè)值相差太遠(yuǎn),則將該點(diǎn)視為異常。這類方法的不足之處在于忽視了時(shí)間序列數(shù)據(jù)的序列特性,無(wú)法挖掘序列中的異常序列模式。本文提出基于Seq2Seq 深度自編碼器的時(shí)間序列異常檢測(cè)方法,使用Bi?LSTM 網(wǎng)絡(luò)作為自編碼器對(duì)輸入序列進(jìn)行編碼壓縮和解碼重建,此方法能夠更好地挖掘時(shí)序數(shù)據(jù)中的異常序列模式。
深度自編碼器(Deep Autoencoder,DAE)是一種無(wú)監(jiān)督或自監(jiān)督算法,其本質(zhì)是一種數(shù)據(jù)壓縮算法。構(gòu)建一個(gè)深度自編碼器需要兩個(gè)部分:編碼器(Encoder)和解碼器(Decoder)。編碼器將輸入壓縮為潛在空間表征,解碼器將潛在空間表征重建為輸出,編碼器和解碼器都是神經(jīng)網(wǎng)絡(luò)。編碼和解碼方法都是由模型自動(dòng)學(xué)習(xí)輸入數(shù)據(jù)得到的,深度自編碼器的結(jié)構(gòu)如圖1所示。
圖1 深度自編碼器結(jié)構(gòu)
深度自編碼器主要有以下三個(gè)特點(diǎn):
1)數(shù)據(jù)相關(guān)性。自編碼器只能編碼與之前類似的數(shù)據(jù)。
2)數(shù)據(jù)有損性。自編碼器解碼得到的輸出與原始輸入相比會(huì)有信息損失。
3)自動(dòng)學(xué)習(xí)性。自動(dòng)編碼器從數(shù)據(jù)中自動(dòng)學(xué)習(xí)編碼和解碼的方法。
長(zhǎng)短期記憶(Long Short?Term Memory,LSTM)網(wǎng)絡(luò)是為解決循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks,RNN)中梯度消失的問(wèn)題提出的一種網(wǎng)絡(luò)結(jié)構(gòu)。LSTM單元可以處理長(zhǎng)度可變的序列,并捕獲其中的長(zhǎng)期依賴性和非線性關(guān)系,已成為處理序列數(shù)據(jù)的標(biāo)準(zhǔn)方法。根據(jù)LSTM 單元提出的自學(xué)習(xí)門控方法,能確定LSTM單元是否記憶之前的狀態(tài)或是否存儲(chǔ)當(dāng)前數(shù)據(jù)中的信息。LSTM 單元內(nèi)部運(yùn)算過(guò)程如圖2 所示。
圖2 LSTM 單元內(nèi)部運(yùn)算過(guò)程圖
設(shè)時(shí)的輸入序列為向量x,輸出為h,LSTM 單元內(nèi)部計(jì)算過(guò)程如下:
式中:c是時(shí)記憶單元中的狀態(tài)向量;c是-1 時(shí)記憶單元中的狀態(tài)向量;,和是參數(shù)矩陣和偏差向量;“⊙”表示元素積運(yùn)算。此外,f表示遺忘門(Forget Gate),其作用是存儲(chǔ)舊信息的權(quán)重向量;i表示輸入門(Input Gate),用于獲取新信息的權(quán)重向量;o示輸出門(Output Gate),用于輸出待輸出的候選向量。在激活函數(shù)中,σ表示sigmoid 函數(shù);σ和σ表示tanh 函數(shù)。
雙向長(zhǎng)短期記憶(Bi?directional Long Short?Term Memory,Bi?LSTM)網(wǎng)絡(luò)通過(guò)引入第二層LSTM 單元來(lái)擴(kuò)展單向LSTM 網(wǎng)絡(luò),其可以在前后兩個(gè)方向上同時(shí)處理輸入序列。在第二層中,隱含層單元的序列順序相反,因此該網(wǎng)絡(luò)可以同時(shí)利用過(guò)去和未來(lái)的序列信息。Bi?LSTM 網(wǎng)絡(luò)結(jié)構(gòu)圖如圖3 所示。
圖3 Bi?LSTM 網(wǎng)絡(luò)結(jié)構(gòu)圖
Seq2Seq 模型屬于自編碼器結(jié)構(gòu)中的一類,常用于文本翻譯、語(yǔ)音生成等自然語(yǔ)言處理領(lǐng)域。基本思想是用編碼器將輸入序列壓縮成指定長(zhǎng)度的向量,再用解碼器將編碼向量解碼成指定長(zhǎng)度的序列。
針對(duì)時(shí)間序列異常檢測(cè)而言,假設(shè)樣本中異常序列數(shù)量相對(duì)于正常序列來(lái)說(shuō)是極少數(shù)的。在使用深度自動(dòng)編碼器的情況下,訓(xùn)練模型以學(xué)習(xí)正常時(shí)間序列中的序列模式。那么當(dāng)時(shí)間序列輸入深度自編碼器中時(shí),對(duì)于多數(shù)正常序列,模型可以很容易地發(fā)現(xiàn)并記住其中的序列模式,其重建誤差相對(duì)可能較?。环粗畬?duì)于少數(shù)異常序列,模型很難對(duì)其序列模式進(jìn)行挖掘,則重建誤差相對(duì)可能較大。
因此對(duì)于輸入的時(shí)間序列,若經(jīng)過(guò)模型編碼重建后與原始序列差異較大的話,則可以認(rèn)為當(dāng)前序列中可能存在異常,并可以進(jìn)一步發(fā)現(xiàn)異常數(shù)據(jù)點(diǎn)?;赟eq2Seq 深度自編碼器的時(shí)間序列異常檢測(cè)模型,使用Bi?LSTM 網(wǎng)絡(luò)作為自編碼器對(duì)輸入序列進(jìn)行編碼和重建。通過(guò)計(jì)算重建序列與原始序列之間的重建誤差,并設(shè)置重建異常比率以獲取誤差閾值,將重建誤差大于閾值的序列視為異常序列。異常檢測(cè)模型的主要步驟如圖4 所示。
圖4 異常檢測(cè)模型主要步驟
實(shí)驗(yàn)中所用到的時(shí)間序列數(shù)據(jù)為北京地區(qū)每小時(shí)PM數(shù)據(jù),數(shù)據(jù)集來(lái)自 UCI Machine Learning Repository,范圍為2010?01?01—2014?12?31。數(shù)據(jù)集共43 824 個(gè)樣本,對(duì)于缺失值使用同一天數(shù)據(jù)的平均值替換,經(jīng)過(guò)處理后的時(shí)間序列數(shù)據(jù)如圖5 所示。
圖5 PM2.5時(shí)間序列數(shù)據(jù)
對(duì)數(shù)據(jù)進(jìn)行2 天重采樣,即用時(shí)間窗口大小為48 h的時(shí)序數(shù)據(jù)作為輸入序列,重采樣后的數(shù)據(jù)集共913 個(gè)樣本。其中使用70%作為訓(xùn)練集,20%作為驗(yàn)證集,10%作為測(cè)試集。
本文使用基于Python 的Tensorflow 2 深度學(xué)習(xí)庫(kù)構(gòu)建Bi?LSTM深度自編碼器模型。實(shí)驗(yàn)環(huán)境為Windows 10 64 位,CPU 為I7?8750h,顯卡為GTX 1060 6 GB,內(nèi)存為8 GB。
首先使用MinMaxScaler 方法將數(shù)據(jù)歸一化,采用順序方式(Sequential)構(gòu)建網(wǎng)絡(luò)模型。編碼器和解碼器均定義為Bi?LSTM 層,共7 層,其單元數(shù)量分別為64,48,32,12,32,48,64,前6 層均返回序列。接下來(lái)定義Dropout 層,Dropout 比率為0.2。最后一層定義Dense全連接層,共有48 個(gè)單元,激活函數(shù)為線性整流函數(shù)(ReLU)。模型編譯時(shí),使用均方誤差(Mean Square Error,MSE)作為損失函數(shù)(Loss),使用Adam 作為和優(yōu)化算法(Optimizer),學(xué)習(xí)率(LR)設(shè)為0.000 1。模型訓(xùn)練時(shí),設(shè)置批次訓(xùn)練樣本數(shù)(Batch_size)為32,訓(xùn)練輪次(Epoch)為50。
在實(shí)驗(yàn)中,使用重建序列和原始序列對(duì)應(yīng)元素差值的二范數(shù)(2?Norm)作為重建誤差指標(biāo)。設(shè)序列重建前后對(duì)應(yīng)的元素差為向量=(,,…,x),該數(shù)值越大說(shuō)明重建誤差越大。重建誤差指標(biāo)如下:
經(jīng)過(guò)50 輪訓(xùn)練后,模型在訓(xùn)練集和驗(yàn)證集上的損失見(jiàn)圖6。從圖6 可以看出,模型在訓(xùn)練集上的最終損失約為0.000 51,在測(cè)試集上的最終損失約為0.000 39。
圖6 模型訓(xùn)練損失圖
模型訓(xùn)練完成后,將重建異常比率設(shè)為0.99,得到重建誤差閾值約為0.400 5。模型在訓(xùn)練集和驗(yàn)證集上的異常檢測(cè)結(jié)果如圖7 所示。
圖7 訓(xùn)練集驗(yàn)證集異常檢測(cè)結(jié)果
從圖7 可以知道,模型在訓(xùn)練集和驗(yàn)證集上共檢測(cè)到10 個(gè)異常序列,其編號(hào)分別為22,39,40,227,334,376,555,562,711,779。對(duì)異常序列711 重建前后進(jìn)行可視化如圖8 所示。
圖8 異常序列711 重建結(jié)果對(duì)比
從圖8 可以看出,異常序列711 在前42 h 一直處于較平緩狀態(tài),PM值最大在200 μg/m左右。因此模型可以較好地重建這一部分序列,重建誤差較小。在43~47 h 之間,PM值先劇增后迅速減少,序列出現(xiàn)劇烈變化。模型無(wú)法重建預(yù)測(cè)這一部分序列,重建誤差過(guò)大,因此將此序列視為異常。接下來(lái)使用模型在測(cè)試集上進(jìn)行檢測(cè),結(jié)果如圖9 所示。從圖9 可以看出,模型在測(cè)試集上共檢測(cè)到12 個(gè)異常序列,對(duì)異常序列901 重建前后進(jìn)行可視化,如圖10 所示。
圖9 測(cè)試集異常檢測(cè)結(jié)果
圖10 異常序列901 重建結(jié)果對(duì)比
從圖10 可以看出,異常序列901 在20 h 左右和25~35 h 的PM值均為0 μg/m,且在35 h 后序列急速上升。模型較好地重建了35 h 后的上升序列,但無(wú)法有效重建兩段為0 的時(shí)間序列,重建誤差大于閾值,因此將此序列視為異常。
在時(shí)間序列異常檢測(cè)任務(wù)中,除了監(jiān)督算法外,基于無(wú)監(jiān)督的異常檢測(cè)方法也值得考慮。本文提出一種新的無(wú)監(jiān)督時(shí)間序列異常檢測(cè)方法,此方法基于Seq2Seq 模型,利用Bi?LSTM 深度自編碼器對(duì)序列的重建效果來(lái)發(fā)現(xiàn)異常序列。異常序列的發(fā)現(xiàn)取決于模型對(duì)原始序列的重建效果,該方法能更好地挖掘時(shí)間序列中的異常序列模式。通過(guò)在空氣質(zhì)量數(shù)據(jù)上的實(shí)驗(yàn),證明了該方法的可行性,模型初步達(dá)到了不錯(cuò)的檢測(cè)效果,為時(shí)間序列異常檢測(cè)提供了新的方法。