,, ,,2
(1.北京航天測控技術(shù)有限公司,北京 100041; 2.北京市高速交通工具智能診斷與健康管理重點實驗室,北京 100041)
航空、航天、航海和高鐵等領(lǐng)域復(fù)雜的系統(tǒng)組成和精密的設(shè)備部件,以及各種復(fù)雜的運行環(huán)境和工況,使得系統(tǒng)的可靠運行和維修保障面臨很大的挑戰(zhàn)[1-2]。故障診斷技術(shù)就是通過傳感器采集反映設(shè)備或部件相關(guān)信息的數(shù)據(jù),進行分析后判斷和預(yù)測設(shè)備及其內(nèi)部組件的故障情況,從而決定其能否正常運行或需要進行維修和防護[3]。
采用多個傳感器對復(fù)雜設(shè)備進行監(jiān)測,能夠擴展獲取信息的物理屬性、空間范圍或時間范圍,從而更全面的反映設(shè)備的狀態(tài)。例如,對電機的監(jiān)測可采用電流、電壓、溫度以及不同安裝位置的振動傳感器。與單傳感器數(shù)據(jù)相比,多傳感器數(shù)據(jù)增加了信息的多樣性和完整性,理論上利用多傳感器數(shù)據(jù)進行故障診斷可獲得更高的準(zhǔn)確度,但同時也需要更復(fù)雜的診斷模型。
近年來,利用多傳感器數(shù)據(jù)進行故障診斷方面取得了大量的研究成果[4],根據(jù)數(shù)據(jù)融合層級的不同,這些方法可分為以下三種類型:(1)原始數(shù)據(jù)融合:對各路傳感器采集的信號直接進行融合,一般用于同種物理量不同傳感器信號之間的融合,使其從多維信號降為單信號再進行故障判別;(2)信號特征融合:對各傳感器采集的信號進行時域或頻域分析,提取特征量后再進行融合,從而在降低特征空間的維度;(3)診斷結(jié)果融合:對每路傳感器信號進行單獨的故障診斷,再對診斷結(jié)果采用某種策略進行融合,例如三取二判決等。
以上三種方法均存在一定的局限性:原始數(shù)據(jù)融合和信號特征量融合只能用于相同性質(zhì)物理量的融合,無法處理不同性質(zhì)物理量的測量信號,而且降維操作不可避免將造成信息損失;診斷結(jié)果融合方法將每路傳感器信號單獨處理,沒有利用各路傳感器之間的關(guān)聯(lián)信息,實際上無論采用哪種策略進行判決都很難適應(yīng)復(fù)雜多變的工況。從原理上說,只有完整利用各傳感器采集的原始數(shù)據(jù),才能夠最大程度地挖掘數(shù)據(jù)的蘊含的故障特征,為故障診斷提供更全面的信息基礎(chǔ)。
深度學(xué)習(xí)(Deep Learning)是機器學(xué)習(xí)領(lǐng)域的一種新興方法,具備強大的自動特征提取能力,已經(jīng)在圖像、語音識別等領(lǐng)域已經(jīng)取得了輝煌的成果[5]。深度置信網(wǎng)絡(luò)(DBNs ,Deep Belief Networks)是深度學(xué)習(xí)的經(jīng)典模型之一,已經(jīng)成功應(yīng)用于旋轉(zhuǎn)機械的故障診斷中[6]。但DBNs因其原理所限僅適合于單傳感器信號的故障診斷。雖然有研究將多傳感器信號拼接或融合為單路信號用DBNs進行處理,但因未利用多傳感器信號間的關(guān)聯(lián)信息而非最佳方案。深度卷積網(wǎng)絡(luò)(CNNs ,Convolutional Neural Networks)作為深度學(xué)習(xí)(Deep Learning)的另一種經(jīng)典模型,同樣具備強大原始數(shù)據(jù)特征提取能力,成功應(yīng)用于多個應(yīng)用領(lǐng)域,如人臉識別、圖像導(dǎo)航、醫(yī)學(xué)圖像處理等[6]。CNNs還因其輸入數(shù)據(jù)為點陣和卷積運算的特點更加適用于多傳感器數(shù)據(jù)的分析處理。
本文研究了基于CNNs模型對多傳感器數(shù)據(jù)開展故障診斷的一般過程,通過截取相同時段的多傳感器采集數(shù)據(jù)形成測量數(shù)據(jù)幀,利用多個卷積層的若干卷積核在測量數(shù)據(jù)幀內(nèi)部及相鄰時域幀之間進行卷積運算,實現(xiàn)自動提取特征。該方法對原始數(shù)據(jù)直接處理,并通過卷積運算充分利用多路數(shù)據(jù)之間的關(guān)聯(lián)信息,避免了以往數(shù)據(jù)降維操作帶來的信息損失。采用本方法分別對機器人故障數(shù)據(jù)集REF和軸流風(fēng)機數(shù)據(jù)集BI02進行了處理分析,結(jié)果表明該方法對大規(guī)模數(shù)據(jù)集和小規(guī)模數(shù)據(jù)集均能取得理想效果。
CNNs模型的發(fā)現(xiàn)是受到了動物視覺系統(tǒng)結(jié)構(gòu)原理的啟發(fā)[7],通過十余年的發(fā)展已成為圖像處理領(lǐng)域最重要的模型之一。
CNNs一般由卷積層、池化層、全連接層和分類器組成,如圖1所示。其中卷積層和池化層組合在一起在前段使用,而全連接層和分類器組合在后端使用。卷積層、池化層、全連接層的自由組合連接,賦予CNNs極大的靈活性和適應(yīng)性,在實際應(yīng)用中可建立層數(shù)較多的深度網(wǎng)絡(luò)以提取更高層次的特征信息。
圖1 CNNs組成結(jié)構(gòu)
卷積層包含一定數(shù)量的濾波器,在設(shè)置權(quán)重和偏置矩陣后對輸入數(shù)據(jù)進行卷積計算,抽取特征形成特征面(feature map)。每個濾波器中的神經(jīng)元通過一組權(quán)值被連接到原始數(shù)據(jù)或上一層特征面的局部區(qū)域,即卷積層中的神經(jīng)元與其輸入層中的特征面進行局部連接。同一個濾波器中的所有神經(jīng)元共享一組權(quán)重,從而大幅度減少計算量。
設(shè)卷積層的輸入為矩陣X,M和N列是輸入數(shù)據(jù)行數(shù)和列數(shù),則卷積層的輸出如式(1):
Ccn=f(X*Wcn+bcn)
(1)
其中:*為卷積操作符,Ccn是該卷積層第cn個特征面,cn是濾波器數(shù)量;Wcn是第cn個濾波器的權(quán)重矩陣,bcn是該濾波器的偏置量;f是激活函數(shù)。
在一般人工神經(jīng)網(wǎng)絡(luò)應(yīng)用中一般使用飽和非線性函數(shù)如sigmoid函數(shù),tanh函數(shù)等。但相比較于飽和非線性函數(shù),不飽和非線性函數(shù)能夠解決梯度爆炸、梯度消失等問題,同時其也能夠加快收斂速度,因此成為深度網(wǎng)絡(luò)的首選。
本文選用的激活函數(shù)為ReLU函數(shù),其計算公式為:
fcov(x)=max(0,x)
(2)
CNNs的卷積層通過卷積操作提取輸入的不同特征,第一層卷積層提取低級特征如邊緣、線條、角落,更高層的卷積層提取更高級的特征,這也是深度卷積網(wǎng)絡(luò)的意義所在。
池化層(pooling layer,也稱為取樣層)緊跟在卷積層之后,以卷積層輸出的特征面作為輸入,旨在通過降低特征面的分辨率來獲得具有空間不變性的特征。卷積層的一個特征面與池化層中的相應(yīng)特征面一一對應(yīng),起到二次提取特征的作用。
常用的池化函數(shù)有最大池化、均值池化和隨機池化。文獻(xiàn)[8]通過分析得出:最大池化特別適用于分離非常稀疏的特征,能夠獲得一個更好的分類性能。
本文采用如下所示的最大池化函數(shù),其中S是池化塊區(qū)域。
(3)
所有池化塊的輸出Pcn將組合在一起形成池化層的輸出,經(jīng)過池化操作以后數(shù)據(jù)的行列尺寸將減少MS和NS倍,其中MS和NS為池化塊S的行列尺寸。
在經(jīng)過若干卷積層和池化層組合后,數(shù)據(jù)將進入全連接層和分類器進行最后的處理。CNNs中的全連接層和分類器與傳統(tǒng)人工神經(jīng)網(wǎng)絡(luò)中的沒有區(qū)別。本文采用全連接層加上softmax分類器作為CNNs的最后輸出部分,假設(shè)任務(wù)為K類分類問題,按下式計算輸出:
其中:Wj和bj為權(quán)重和偏置量,O為CNNs最終分類結(jié)果。
CNNs可選用其它分類算法,但因為訓(xùn)練算法也多采用BP算法,所以選取的分類器必須支持BP算法。同時,為了避免訓(xùn)練過擬合,常在全連接層中常采用dropout這種正則化方法,在訓(xùn)練過程中隨機選取某些隱層節(jié)點失效,這些節(jié)點不參加某次前向和后向傳播,從而使得CNNs的神經(jīng)元學(xué)習(xí)過程更具更魯棒性。
采用CNNs模型進行故障診斷分為兩個階段:模型訓(xùn)練和診斷應(yīng)用,如圖2所示。其中模型訓(xùn)練階段利用樣本數(shù)據(jù)對網(wǎng)絡(luò)模型進行監(jiān)督訓(xùn)練,診斷應(yīng)用階段即利用訓(xùn)練好的模型對采集數(shù)據(jù)進行分類。
圖2 CNNs故障診斷步驟
在模型訓(xùn)練階段包括以下步驟:
1)測量數(shù)據(jù)幀設(shè)計。
CNNs模型的輸入為二維矩陣,根據(jù)這一特點定義測量數(shù)據(jù)幀如圖3所示。
圖3 測量數(shù)據(jù)幀
其中:M是傳感器/數(shù)據(jù)通道數(shù)量,N為截取采樣點的數(shù)量。N的選取比較關(guān)鍵,如N取值過小不能包含緩變信號全周期,將無法全面反映信號內(nèi)容;如N取值過大,會減少訓(xùn)練樣本數(shù)量。因此,應(yīng)綜合樣本信號的周期特性、采樣數(shù)據(jù)總量來權(quán)衡決定N的取值。
2)樣本歸一化。
測量數(shù)據(jù)幀中各通道測量數(shù)據(jù)有不同的量綱及量程,為避免具有不同物理意義和量綱的輸入變量不平等使用,防止凈輸入絕對值過大引起的神經(jīng)元輸出飽和現(xiàn)象,保證輸出數(shù)據(jù)中數(shù)值小的不被吞食,必須將量綱的數(shù)值經(jīng)過變換化為無量綱的純量,即進行歸一化處理。
3)網(wǎng)絡(luò)參數(shù)設(shè)置與訓(xùn)練。
CNNs網(wǎng)絡(luò)參數(shù)設(shè)置項包括:卷積層和池化層數(shù)量、卷積核維度和數(shù)量、全連接層數(shù)量、分類器類型、優(yōu)化算法等。CNNs網(wǎng)絡(luò)訓(xùn)練中主要采用BP算法,其實質(zhì)是梯度下降算法。在實際應(yīng)用中針對學(xué)習(xí)速率的設(shè)置產(chǎn)生了很多優(yōu)化算法。選擇合適的優(yōu)化算法讓網(wǎng)絡(luò)用最快的訓(xùn)練次數(shù)達(dá)到理想的精度。常用算法包括SGD、Adam、Adagrad等,實際應(yīng)用中可根據(jù)測量幀大小、樣本的數(shù)量以及計算資源選擇合適的優(yōu)化算法。
在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的時候經(jīng)常會出現(xiàn)欠擬合和過擬合這兩個問題,將導(dǎo)致訓(xùn)練精度過低或測試精度與訓(xùn)練精度差別過大,從而造成模型不可用。解決方法包括重新清洗數(shù)據(jù)、增大數(shù)據(jù)的訓(xùn)練量、采用正則化方法、采用dropout方法等,可在訓(xùn)練過程中根據(jù)模型收斂情況選用。
在模型訓(xùn)練完成之后可用于對采集數(shù)據(jù)的故障診斷分類,其步驟包括:按照格式要求截取采集的數(shù)據(jù)組成測量數(shù)據(jù)幀;將測量數(shù)據(jù)幀歸一化計算;將歸一化后的數(shù)據(jù)幀作為CNNs輸入進行前向傳播計算;根據(jù)分類結(jié)果后查找相應(yīng)標(biāo)簽得到故障類型。
本文選用兩個數(shù)據(jù)集:Robot Execution Failure(REF)數(shù)據(jù)集[9]和某型軸流風(fēng)機故障數(shù)據(jù)集(BI02),分別作為典型的小樣本數(shù)據(jù)和大樣本數(shù)據(jù)案例進行試驗。
機器人故障數(shù)據(jù)集(REF,robot execution failure)是葡萄牙新里斯本大學(xué)公布的機器人故障監(jiān)測數(shù)據(jù),分別對某型號機器人不同部位安裝力和力矩測量傳感器采集共6路數(shù)據(jù)。REF共5 個子數(shù)據(jù)集,本文選取第一個子數(shù)據(jù)集LP-1 作為實驗數(shù)據(jù)集,共88個樣本,每個樣本包含15條測量數(shù)據(jù),每個樣本均分別標(biāo)記為normal、collision、fr_collision或obstruction這四個類型中的一種。
因LP-1提供的數(shù)據(jù)在采集時已經(jīng)按照15×6維度進行分組,因此測量數(shù)據(jù)幀維度選定為M=15,N=6,其測量數(shù)據(jù)幀波形圖如圖4所示。
圖4 LP-1樣本測量數(shù)據(jù)幀
在數(shù)據(jù)集里隨機選取80%作為訓(xùn)練樣本,剩余20%作為測試樣本。
CNNs網(wǎng)絡(luò)采用兩個卷積層(卷積核尺寸為5、個數(shù)分別為16和32)、兩個池化層(尺寸為2的max-pooling)、兩個全連接層和Softmax分類器,采用SGD優(yōu)化算法。
因訓(xùn)練樣本個數(shù)只有70個,在實驗初期出現(xiàn)較嚴(yán)重的過擬合現(xiàn)象,所以采用隨機加噪聲數(shù)據(jù)對樣本進行擴展,噪聲類型為隨機高斯白噪聲,擴展后樣本數(shù)量為560個。測試樣本數(shù)量不變。
采用擴展后樣本對網(wǎng)絡(luò)進行預(yù)訓(xùn)練,其準(zhǔn)確度曲線如圖5。
圖5 LP-1數(shù)據(jù)集訓(xùn)練準(zhǔn)確度曲線
訓(xùn)練次數(shù)10 000次后準(zhǔn)確度達(dá)到0.94,輸入測試樣本得到的測試準(zhǔn)確度為0.91,高于文獻(xiàn)[10]中列出的幾種方法,取得較好的效果。
此數(shù)據(jù)集為某型軸流風(fēng)機(BI02)進行故障試驗時采集的數(shù)據(jù),工作狀態(tài)分別為正常(N)、轉(zhuǎn)子不平衡(F1)和軸承裂縫(F2),測量參數(shù)為電流、轉(zhuǎn)速、振動頻率、輸入功率、空氣流量、空氣壓力數(shù)據(jù),采樣頻率為12 kHz,測量時間持續(xù)1 000 S,每種工作狀態(tài)采集1 200萬條數(shù)據(jù)記錄,屬于較大規(guī)模數(shù)據(jù)集。
此數(shù)據(jù)集中截取每200個采樣點為一個測量數(shù)據(jù)幀,即測量數(shù)據(jù)幀維度M=200,N=5,其測量數(shù)據(jù)幀波形圖如圖6。
圖6 BI02樣本測量數(shù)據(jù)幀
在數(shù)據(jù)集里隨機選取80%作為訓(xùn)練樣本,剩余20%作為測試樣本。
CNNs網(wǎng)絡(luò)采用兩個卷積層(卷積核尺寸為5、個數(shù)分別為32和64)、兩個池化層(尺寸為2的 max-pooling)、兩個全連接層和Softmax分類器。
此次訓(xùn)練樣本個數(shù)較大,受實驗計算機內(nèi)存限制,每批次訓(xùn)練1 000個樣本,采用Adam優(yōu)化算法,其準(zhǔn)確度曲線如圖7。
圖7 BI02數(shù)據(jù)集訓(xùn)練準(zhǔn)確度曲線
經(jīng)過1輪共126批次訓(xùn)練準(zhǔn)確度達(dá)到0.99,測試準(zhǔn)確度達(dá)到0.99,取得較好的分類效果。
本文提出了一種基于CNNs網(wǎng)絡(luò)用于故障診斷的方法,可直接和完整地利用多傳感器采集的原始數(shù)據(jù)進行故障分類診斷,明確了模型訓(xùn)練和應(yīng)用的流程步驟。通過對小規(guī)模故障數(shù)據(jù)集REF和大規(guī)模故障數(shù)據(jù)集BI02進行故障分類診斷試驗,取得較好效果,驗證了CNNs模型對不同規(guī)模數(shù)據(jù)集的適應(yīng)性。
該方法在工程應(yīng)用中還具有以下優(yōu)勢:(1)直接利用原始數(shù)據(jù),故障特征由CNNs網(wǎng)絡(luò)自動提取而無需人工設(shè)計算法處理,技術(shù)門檻大幅度降低;(2)同步處理多路傳感器信號,具備效率優(yōu)勢;(3)模型具備普適性,可廣泛應(yīng)用到各種信號的故障檢測當(dāng)中,可建立領(lǐng)域通用的面向故障檢測的CNNs模型訓(xùn)練和應(yīng)用平臺。
以CNNs為代表的深度學(xué)習(xí)方法可從各類型試驗數(shù)據(jù)中挖掘高層次特征信息,后續(xù)將利用深度學(xué)習(xí)方法針對大型復(fù)雜系統(tǒng)在線故障實時診斷和預(yù)警進行應(yīng)用研究,推廣其在工程中的實際應(yīng)用。
[1] 傅建中. 智能制造裝備的發(fā)展現(xiàn)狀與趨勢[J].機電工程, 2014 , 31 ( 8) :959-962.
[2] 李 睿,郭迎清,吳文斐. 航空發(fā)動機傳感器故障診斷設(shè)計與驗證綜合仿真平臺[J]. 計算機測量與控制,2010, 18(3).
[3] 吳明強,史 慧,朱曉華,等. 故障診斷專家系統(tǒng)研究的現(xiàn)狀與展望. 計算機測量與控制,2005,(13)12.
[4] 王國彪,何正嘉, 陳雪峰,等. 機械故障診斷基礎(chǔ)研究何去何從 [J] . 機械工程學(xué)報, 2013, 49 ( 1): 63-72.
[5] Bengio, Yoshua, Hinton G E. Deep learning [J]. Nature, 2015,521(14539): 436-444.
[6] 葛強強. 基于深度置信網(wǎng)絡(luò)的數(shù)據(jù)驅(qū)動故障診斷方法研究[D]. 哈爾濱工業(yè)大學(xué), 2016.
[7] Hyeon-Joong Yoo. Deep convolution neural networks in computer vision: a review [C]. IEIE Transactions on Smart Processing and Computing,2015, 4(1):35-43.
[8] Y-Lan Boureau, Jean Ponce, Yann LeCun. A theoretical analysis of feature pooling in visual recognition [C]. International Conference on Machine Learning, 2010, 32(4):111-118.
[9] Robot Execution Failures (REF)[Z/OL]. https://archive.ics.uci.edu/ml/machine-learning-databases/robotfailure-mld/.
[10] 李正欣, 郭建勝等. 多元時間序列相似性度量方法[J]. 控制與決策,2017, 32 (2):368-372.