孫龐博,符 琦,陳安華,蔣云霞
(湖南科技大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院,湖南 湘潭 411201)
滾動(dòng)軸承是機(jī)械設(shè)備中的核心部件之一,其運(yùn)行狀況關(guān)系到設(shè)備能否安全高效地運(yùn)行,而設(shè)備長(zhǎng)時(shí)間運(yùn)行在惡劣的工作環(huán)境中,使軸承成為了旋轉(zhuǎn)機(jī)械設(shè)備中最易損傷的部件之一[1]。故障診斷是提高機(jī)械使用可靠性,保障機(jī)械各部件長(zhǎng)周期穩(wěn)定運(yùn)行,減少因故障停機(jī)帶來(lái)經(jīng)濟(jì)損失的一種重要技術(shù)。傳統(tǒng)的故障診斷方法借助專(zhuān)家領(lǐng)域知識(shí)從信號(hào)中人工提取特征,但由于信號(hào)的非線(xiàn)性、非穩(wěn)態(tài)等特點(diǎn),特征的提取與選擇,以及診斷模型的建立與分析過(guò)程相當(dāng)費(fèi)時(shí)費(fèi)力,因此,如何高效地提取有區(qū)分度的特征并對(duì)故障進(jìn)行準(zhǔn)確識(shí)別成為故障診斷領(lǐng)域的研究熱點(diǎn)和難點(diǎn)[2]。
近年來(lái),作為人工智能技術(shù)之一的深度學(xué)習(xí)方法發(fā)展迅速,由于其可以從海量數(shù)據(jù)中自主學(xué)習(xí)并提取特征數(shù)據(jù),現(xiàn)已成功地應(yīng)用于智能故障診斷等領(lǐng)域。深度學(xué)習(xí)方法常用的網(wǎng)絡(luò)模型包括深度自編碼器 DAE(Deep AutoEncoder)、卷積神經(jīng)網(wǎng)絡(luò)CNN(Convolutional Neural Network)、深度信念網(wǎng)絡(luò)DBN(Deep Belief Network)和深度殘差網(wǎng)絡(luò)DRN(Deep Residual Network)等。這些網(wǎng)絡(luò)模型通過(guò)對(duì)一維~三維輸入數(shù)據(jù)進(jìn)行原始時(shí)域信號(hào)預(yù)處理,提升模型的診斷效果。Sun 等[3]和Zhao等[4]分別通過(guò)小波包分析將原始振動(dòng)信號(hào)轉(zhuǎn)換為二維信號(hào),并分別作為DRN模型和CNN模型的輸入,提高了模型的效果;Shao等[5]提出一種改進(jìn)的DBN模型,實(shí)現(xiàn)對(duì)故障特征的自動(dòng)提取,克服了傳統(tǒng)方法依賴(lài)手動(dòng)設(shè)計(jì)特征的缺點(diǎn)。上述研究成果均在一定程度上提升了診斷模型的效果和故障分類(lèi)的準(zhǔn)確率,但也存在一些不足,如CNN模型需要對(duì)輸入數(shù)據(jù)進(jìn)行適應(yīng)性改進(jìn)或數(shù)據(jù)轉(zhuǎn)換,DBN模型只能處理布爾量,無(wú)法直接處理實(shí)數(shù)域問(wèn)題等,且大多數(shù)研究的實(shí)驗(yàn)效果都是基于故障樣本充足的前提條件,在小樣本故障數(shù)據(jù)條件下,上述方法將因無(wú)法學(xué)習(xí)到足夠多的故障樣本數(shù)據(jù)而導(dǎo)致效率低下。
因此,本文將以小樣本故障數(shù)據(jù)為研究對(duì)象,基于變分自編碼器VAE(Variational AutoEncoder)[6]原理,提出一種基于半監(jiān)督VAE(SemiVAE)和LightGBM(Light Gradient Boosting Machine)分類(lèi)模型的組合模型LSVAE(LightGBM-SemiVAE)。LSVAE可通過(guò)SemiVAE提取小樣本數(shù)據(jù)的潛在特征,再利用LightGBM網(wǎng)絡(luò)模型進(jìn)行故障分類(lèi),并通過(guò)貝葉斯優(yōu)化提升性能,從而克服傳統(tǒng)VAE固有的生成的圖像模糊、區(qū)分性較差等缺點(diǎn),提升機(jī)械設(shè)備故障診斷效率。
Figure 1 Structure of the variational autoencoder圖1 變分自編碼器結(jié)構(gòu)
(1)
(2)
(3)
由于均值μ和標(biāo)準(zhǔn)差σ由神經(jīng)網(wǎng)絡(luò)計(jì)算,在隨機(jī)采樣的過(guò)程中無(wú)法求導(dǎo),但是可以對(duì)采樣的結(jié)果求導(dǎo),因此可以通過(guò)反向傳播優(yōu)化網(wǎng)絡(luò)性能。
雖然VAE通過(guò)引入變分下界使其在計(jì)算的過(guò)程中避免了復(fù)雜邊界似然概率的計(jì)算,但也會(huì)帶來(lái)新的問(wèn)題,如生成數(shù)據(jù)趨于模糊,導(dǎo)致分類(lèi)模型準(zhǔn)確率下降等。
LightGBM[8]是一種分布式的梯度提升決策樹(shù)增強(qiáng)框架,主要采用了直方圖(Histogram)算法[9]和受深度限制的葉子生長(zhǎng)(Leaf-wise)策略[10]相結(jié)合的思想,通過(guò)T棵弱回歸樹(shù)線(xiàn)性組合為強(qiáng)回歸樹(shù),如式(4)所示,最終實(shí)現(xiàn)對(duì)大數(shù)據(jù)集或小批量數(shù)據(jù)樣本的分類(lèi)或回歸。
(4)
其中,F(xiàn)(x)為最終的輸出值,ft(x)為第t棵弱回歸樹(shù)的輸出值。
在LightGBM中,(1)Histogram算法將連續(xù)型的特征值數(shù)據(jù)離散化為k個(gè)值,以生成寬為k的直方圖,并將離散的訓(xùn)練數(shù)據(jù)值作為索引積累到直方圖上,當(dāng)遍歷結(jié)束后,通過(guò)直方圖的離散值來(lái)尋找決策樹(shù)的最優(yōu)分割點(diǎn);(2)Leaf-wise策略在每次遍歷所有葉節(jié)點(diǎn)時(shí),找到分裂增益最大的葉節(jié)點(diǎn)(如圖2中的黑色節(jié)點(diǎn))繼續(xù)分裂過(guò)程,并通過(guò)增加最大深度限制來(lái)控制決策樹(shù)的訪問(wèn)深度和葉節(jié)點(diǎn)數(shù)量,從而避免過(guò)擬合現(xiàn)象和降低模型復(fù)雜度。
Figure 2 Growth process of Leaf-wise strategy圖2 Leaf-wise策略生長(zhǎng)過(guò)程
在進(jìn)行數(shù)據(jù)并行的時(shí)候,LightGBM 可通過(guò)Histogram作差加速,一個(gè)葉節(jié)點(diǎn)的直方圖可以通過(guò)其父節(jié)點(diǎn)與兄弟節(jié)點(diǎn)的直方圖作差計(jì)算得到。利用該方法,LightGBM在構(gòu)造葉節(jié)點(diǎn)時(shí),可以通過(guò)少量的計(jì)算得到它兄弟葉節(jié)點(diǎn)的直方圖,使計(jì)算量大幅度降低。
LightGBM模型中有諸多需要手工調(diào)節(jié)的超參數(shù),如最大樹(shù)深度、執(zhí)行分裂的最小信息增益、單位樹(shù)的葉節(jié)點(diǎn)數(shù)等,這些參數(shù)的合理設(shè)置決定了模型預(yù)測(cè)結(jié)果的擬合速率和準(zhǔn)確率等性能指標(biāo)。傳統(tǒng)的調(diào)參方法有隨機(jī)搜索和網(wǎng)格搜索[11,12]等。其中,網(wǎng)格搜索是固定步長(zhǎng)的窮舉搜索法,對(duì)坐標(biāo)空間中的每個(gè)點(diǎn)都進(jìn)行計(jì)算,即可找到已知參數(shù)中的最優(yōu)參數(shù)。但是,若網(wǎng)格步長(zhǎng)不夠小,網(wǎng)格搜索出來(lái)的最優(yōu)參數(shù)可能與真實(shí)最優(yōu)參數(shù)有較大距離;當(dāng)步長(zhǎng)足夠小時(shí),雖然可以找到全局最優(yōu)參數(shù),但是當(dāng)坐標(biāo)空間范圍較大時(shí),又可能導(dǎo)致大量無(wú)效的計(jì)算,使計(jì)算時(shí)間呈指數(shù)級(jí)上升。由于LightGBM模型參數(shù)眾多,參數(shù)取值范圍較大,若采用網(wǎng)格搜索參數(shù),需要進(jìn)行大量的計(jì)算,所以網(wǎng)格搜索不適用,而隨機(jī)搜索又難以找到全局最優(yōu)解,因此需要新的方法來(lái)解決LightGBM超參數(shù)優(yōu)化問(wèn)題。
具有主動(dòng)優(yōu)化特性的貝葉斯優(yōu)化方法[13]對(duì)于復(fù)雜參數(shù)優(yōu)化問(wèn)題是一個(gè)有效的解決辦法,該方法通過(guò)基于序列模型的優(yōu)化來(lái)尋找全局最優(yōu)解。貝葉斯優(yōu)化本質(zhì)上是使用概率代理模型來(lái)擬合真實(shí)函數(shù),并根據(jù)擬合結(jié)果選擇最優(yōu)評(píng)估點(diǎn)進(jìn)行下一步的評(píng)估,進(jìn)而減少非必要的采樣[14]。由貝葉斯定理可知(如式(5)所示),該方法利用已知信息對(duì)先驗(yàn)概率進(jìn)行修正,進(jìn)而計(jì)算出后驗(yàn)概率,同時(shí)可利用完整有效的歷史評(píng)估結(jié)果來(lái)提高搜索效率。
(5)
其中,Y表示參數(shù)模型的參數(shù);P(Y)表示先驗(yàn)概率模型;D為已觀測(cè)向量集合;P(Y|D)表示目標(biāo)函數(shù)的代理,由似然分布P(D|Y)修正得到。在每一次迭代后,更新概率代理模型,通過(guò)最大化采集函數(shù),計(jì)算出新的評(píng)估點(diǎn),并將其作為輸入再次傳入系統(tǒng)進(jìn)行迭代,獲取新的輸出,以此更新已觀測(cè)集合D和概率代理模型。
在參數(shù)模型中,常見(jiàn)的概率模型有高斯過(guò)程(Gaussian Processes)和樹(shù)狀結(jié)構(gòu)Parzen估計(jì)方法TPE(Tree-structured Parzen Estimator)等,其中高斯過(guò)程具有高靈活性與可擴(kuò)展性,在高斯過(guò)程中生成的多維高斯分布在理論上能夠擬合任意線(xiàn)性/非線(xiàn)性函數(shù),故本文提出的面向小樣本數(shù)據(jù)學(xué)習(xí)的多分類(lèi)算法中選擇高斯過(guò)程對(duì)代理進(jìn)行建模;采集函數(shù)則是采用了基于提升的策略EI(Expected Improvement),其具有參數(shù)少、可平衡深度與寬度之間的關(guān)系等優(yōu)點(diǎn)。
在利用貝葉斯對(duì)LightGBM超參數(shù)優(yōu)化的過(guò)程中,需要選擇未知函數(shù)中的幾個(gè)已知點(diǎn)作為先驗(yàn)事件,假設(shè)已選點(diǎn)服從多維高斯分布,根據(jù)高斯分布公式,可以計(jì)算出每一個(gè)點(diǎn)的均值與方差,即高斯過(guò)程由一個(gè)均值函數(shù)與一個(gè)半正定的協(xié)方差函數(shù)構(gòu)成。假設(shè)x為輸入數(shù)據(jù)集數(shù)據(jù),在給定均值向量與協(xié)方差矩陣2個(gè)參數(shù)的條件下,參數(shù)Y將服從如式(6)所示的聯(lián)合正態(tài)分布,以便對(duì)觀測(cè)值yn與yn+1之間的關(guān)系進(jìn)行遞推計(jì)算。
(6)
若協(xié)方差矩陣(即核矩陣)記為K,因Y服從多正態(tài)分布,根據(jù)訓(xùn)練集可以計(jì)算得最優(yōu)核矩陣,進(jìn)而得出后驗(yàn)估計(jì)測(cè)試集Y*。根據(jù)高斯過(guò)程的相關(guān)性質(zhì),觀測(cè)值集合y與預(yù)測(cè)函數(shù)值集合y*服從如式(7)所示的聯(lián)合分布[15]:
(7)
其中,K*=[k(x*,x1),k(x*,x2),…,k(x*,xn)],K**=k(x*,x*)。
計(jì)算出聯(lián)合分布后即可求預(yù)測(cè)數(shù)據(jù)y*的條件分布p(y*|y):
最后以均值作為預(yù)測(cè)數(shù)據(jù)的估計(jì)值,如式(8)所示:
(8)
組合預(yù)測(cè)模型LSVAE主要由半監(jiān)督變分自編碼器SemiVAE、多分類(lèi)器LightGBM和貝葉斯超參數(shù)優(yōu)化器3部分組成,如圖3所示。
Figure 3 LSVAE model圖3 LSVAE模型
圖3中,SemiVAE利用標(biāo)簽數(shù)據(jù)對(duì)小樣本空間數(shù)據(jù)進(jìn)行半監(jiān)督學(xué)習(xí),以獲得數(shù)據(jù)特征和隱變量Z;LightGBM基于隱變量Z的值進(jìn)行多分類(lèi)計(jì)算,并將結(jié)果反饋給SemiVAE計(jì)算損失,以便提高下一步訓(xùn)練的準(zhǔn)確率;貝葉斯優(yōu)化器則負(fù)責(zé)根據(jù)當(dāng)前的計(jì)算結(jié)果對(duì)LightGBM的超參數(shù)進(jìn)行自適應(yīng)調(diào)整。
本文模型使用半監(jiān)督變分自編碼器(SemiVAE)的編碼過(guò)程得到均值向量μ和標(biāo)準(zhǔn)差向量σ,并通過(guò)重參數(shù)化技巧計(jì)算得隱變量Z,然后利用隱變量Z進(jìn)行解碼(Decoder)得到重建數(shù)據(jù),其網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。
Figure 4 Network structure of LSVAE圖4 LSVAE模型網(wǎng)絡(luò)結(jié)構(gòu)
4.1.1 編碼(Encoder)過(guò)程
SemiVAE所用編碼網(wǎng)絡(luò)的輸入長(zhǎng)度為256的序列,通過(guò)折疊形成16*16的二維序列。網(wǎng)絡(luò)包括4個(gè)卷積層、2個(gè)池化層和1個(gè)全連接層。每層卷積層后會(huì)有一個(gè)ReLU激活函數(shù)。卷積核為3*3,步長(zhǎng)為1。經(jīng)過(guò)卷積后并伸展會(huì)形成長(zhǎng)度為1 024的特征向量。再經(jīng)過(guò)編碼網(wǎng)絡(luò)后,會(huì)得到長(zhǎng)度為20的特征向量,即為變分自編碼器的均值向量與標(biāo)準(zhǔn)差向量,通過(guò)變換即可得到隱變量Z。
4.1.2 解碼(Decoder)過(guò)程
解碼網(wǎng)絡(luò)對(duì)應(yīng)編碼網(wǎng)絡(luò),參數(shù)規(guī)格相同,即4個(gè)反卷積層、2個(gè)池化層,也采用ReLU激活函數(shù),通過(guò)反卷積將低維特征映射成高維特征,再映射到低維度空間,最后輸出長(zhǎng)度為256(16*16)的序列。
損失函數(shù)能夠提升準(zhǔn)確率,降低過(guò)擬合程度以及對(duì)抗欠擬合,所以損失函數(shù)的選擇對(duì)計(jì)算結(jié)果有很大的影響。本文對(duì)損失函數(shù)的定義如式(9)所示。
Loss=κxeχxe+κklχkl+κreχre
(9)
其中,χxe表示交叉熵?fù)p失,χkl表示正則項(xiàng)損失,χre表示重建損失,超參數(shù)分別預(yù)設(shè)為κxe=2,κkl=1,κre=2。損失函數(shù)涉及到的交叉熵用于對(duì)抗模型趨近于模糊的懶惰性,提高準(zhǔn)確率;KL散度為了增加泛化能力,顯式建模隱變量分布。
4.2.1 交叉熵?fù)p失χxe
在半監(jiān)督下,交叉熵用來(lái)衡量預(yù)測(cè)分布與真實(shí)分布之間的差異,在分類(lèi)不明顯的情況下可以對(duì)抗生成數(shù)據(jù)趨于模糊的缺點(diǎn),使得輸入數(shù)據(jù)對(duì)應(yīng)的潛變量更具有區(qū)分性,具體計(jì)算公式如式(10)所示:
(10)
其中,xi表示輸入數(shù)據(jù)集X的第i組,p(xi)表示真實(shí)分布,q(xi)表示預(yù)測(cè)分布。
4.2.2 正則項(xiàng)損失χkl
KL散度作用是比較2個(gè)概率分布的接近程度,SemiVAE與標(biāo)準(zhǔn)自編碼器的區(qū)別在于對(duì)編碼器添加約束,強(qiáng)迫它服從單位正態(tài)分布,進(jìn)而限制隱變量Z空間的稀疏性,提高了泛化能力。相關(guān)計(jì)算公式如式(11)所示:
(11)
其中,σi表示標(biāo)準(zhǔn)差的第i個(gè)元素,μi表示L2正則項(xiàng),J表示數(shù)據(jù)量。
4.2.3 重建損失χre
重建損失是指重建圖像與真實(shí)圖像的差異,通常表示為在多維空間中的歐幾里得距離的平方,即均方誤差,如式(12)所示:
(12)
其中,x′i為重建圖像,xi為真實(shí)圖像。
LSVAE模型所用算法偽代碼如算法1所示。
算法1LSVAE偽代碼
1.fori=1,2,…,epochsdo
2.SampleXtin minibatch;
4.Sampling:Zt←μZt+ε⊙σZ,ε~N(0,1);
5./*μZt是Zt的均值向量,σZt是Zt的標(biāo)準(zhǔn)差向量,Zt為第t次迭代的隱變量,ε采樣于標(biāo)準(zhǔn)正態(tài)分布N(0,1)*/
6.Decoder:μXt←fθ(Zt);//μXt是Xt的均值向量
7.Compute cross entropy loss:
9.Compute relative entropy loss:
11.Compute reconstruction loss:
13.Fuse the three loss:
14.Loss=κxeχxe+κklχld+κreχre;
15.Back-propagate the gradients:
16.g←compute gradientθ,γ(θ,;Xt,ε);
18. //until maximum iteration reached
19.endfor
5.1.1 數(shù)據(jù)源說(shuō)明
本文使用的數(shù)據(jù)集來(lái)自凱斯西儲(chǔ)大學(xué)CWRU(Case Western Reserve University)滾動(dòng)軸承數(shù)據(jù)中心[16],該中心提供對(duì)軸承和軸承故障的測(cè)試數(shù)據(jù),是世界上公認(rèn)且流行的軸承故障診斷數(shù)據(jù)集。
CWRU滾動(dòng)軸承數(shù)據(jù)的實(shí)驗(yàn)平臺(tái)由一個(gè)1.5 KW的電動(dòng)機(jī)(左)、一個(gè)扭矩傳感器及編碼器(中)、一個(gè)功率測(cè)試計(jì)(右)和電子控制器(未顯示)組成,如圖5所示。待檢測(cè)的軸承支撐著電機(jī)的轉(zhuǎn)軸,風(fēng)扇端軸承型號(hào)為SKF6203,采樣頻率為12 KHz,驅(qū)動(dòng)端的軸承型號(hào)為SKF6205,采樣頻率分別為12 KHz和48 KHz。
Figure 5 Rolling bearing fault data acquisition experimental bench圖5 滾動(dòng)軸承數(shù)據(jù)采集實(shí)驗(yàn)平臺(tái)
CWRU軸承數(shù)據(jù)集中的滾動(dòng)軸承有4種狀態(tài),分別是正常狀態(tài)、內(nèi)圈故障狀態(tài)、外圈故障狀態(tài)和滾動(dòng)體故障狀態(tài)。軸承的損傷來(lái)源于電火花加工時(shí)造成的單點(diǎn)損傷。SKF軸承用于檢測(cè)3種直徑為0.177 8 mm,0.355 6 mm,0.533 4 mm的損傷,NTN軸承用于檢測(cè)直徑為0.711 2 mm,1.016 mm的損傷。將特殊加工過(guò)的故障軸承裝入實(shí)驗(yàn)平臺(tái)中,分別在0 hp, 1 hp, 2 hp和3 hp(hp為馬力)的電機(jī)負(fù)載下記錄振動(dòng)加速度信號(hào)數(shù)據(jù),共獲得8個(gè)正常樣本、53個(gè)外圈損傷樣本、23個(gè)內(nèi)圈損傷樣本和11個(gè)滾動(dòng)體損傷樣本。
5.1.2 數(shù)據(jù)集預(yù)處理
本實(shí)驗(yàn)將CWRU提供的軸承數(shù)據(jù)依據(jù)電機(jī)運(yùn)行馬力的不同分成3個(gè)數(shù)據(jù)集,每個(gè)數(shù)據(jù)集包含一個(gè)正常軸承數(shù)據(jù)、0.177 8 mm的3類(lèi)故障數(shù)據(jù)和0.355 6 mm的3類(lèi)故障數(shù)據(jù),共7類(lèi)數(shù)據(jù),如表1所示。分別按照長(zhǎng)度為128,256和512個(gè)數(shù)據(jù)點(diǎn)進(jìn)行截取,并對(duì)其采用Min-Max線(xiàn)性歸一化處理后,利用傅里葉變換為雙邊幅度譜數(shù)據(jù),以便進(jìn)行后續(xù)算法驗(yàn)證。
訓(xùn)練樣本使用了數(shù)據(jù)集增強(qiáng)技術(shù),一組實(shí)驗(yàn)數(shù)據(jù)共包含了電機(jī)負(fù)載分別在1 hp, 2 hp和3 hp狀態(tài)下采集的3類(lèi)數(shù)據(jù),其中訓(xùn)練樣本數(shù)為每一類(lèi)數(shù)據(jù)40*s個(gè)(s∈{1,2,4,8}),測(cè)試集樣本包含1 000個(gè)數(shù)據(jù),且互不相交。
本文使用Python語(yǔ)言和TensorFlow開(kāi)源框架[17]1.9版本搭建了模型開(kāi)發(fā)與測(cè)試環(huán)境,模型數(shù)據(jù)流過(guò)程如圖3所示。輸入數(shù)據(jù)首先進(jìn)入編碼器,編碼為潛變量,并進(jìn)入分類(lèi)器,然后解碼,計(jì)算損失值,更新各參數(shù),最后再輸入測(cè)試數(shù)據(jù)測(cè)試模型效果。
為觀察數(shù)據(jù)的數(shù)據(jù)量對(duì)結(jié)果的影響,按數(shù)據(jù)量和數(shù)據(jù)長(zhǎng)度的不同,分別將本文與經(jīng)典的KNN、CNN模型進(jìn)行了測(cè)試對(duì)比,實(shí)驗(yàn)所用數(shù)據(jù)總量不超過(guò)7*80*512個(gè)樣本。實(shí)驗(yàn)將測(cè)試10組數(shù)據(jù)分別改變每類(lèi)數(shù)據(jù)量和單位數(shù)據(jù)長(zhǎng)度進(jìn)行測(cè)試對(duì)比,分組命名規(guī)則為:類(lèi)別數(shù)*每類(lèi)數(shù)量*單位數(shù)據(jù)長(zhǎng)度l,對(duì)比分析的數(shù)據(jù)維度以l(l∈{128,256,512})進(jìn)行替代計(jì)算,分別為7*40*l,7*80*l,7*l*128,7*l*256,如圖6a~圖6d所示,測(cè)試規(guī)格如表2所示,編碼器參數(shù)預(yù)設(shè)值如表3所示。
從圖6的對(duì)比分析可知,傳統(tǒng)網(wǎng)絡(luò)模型KNN
Table 2 Grouping format of data sets 表2 數(shù)據(jù)集分組規(guī)格
Table 3 Encoder parameter default values表3 編碼器參數(shù)預(yù)設(shè)值
和CNN在小樣本空間較小的情況下,對(duì)軸承故障分類(lèi)診斷的準(zhǔn)確率均低于LSVAE的,這主要是本文所使用的軸承數(shù)據(jù)是多組數(shù)據(jù)相關(guān)性較大的一維時(shí)序信號(hào),而一般情況下CNN在二維數(shù)據(jù)上的表現(xiàn)會(huì)更好一些,如果將一維信號(hào)折疊,再將網(wǎng)絡(luò)結(jié)構(gòu)更改一下,確實(shí)可以提高準(zhǔn)確率,但是模型相應(yīng)地也會(huì)變復(fù)雜,進(jìn)而導(dǎo)致需要的數(shù)據(jù)量增加,所以在小樣本學(xué)習(xí)中CNN的表現(xiàn)難以達(dá)到預(yù)期;KNN可以在高維度空間中根據(jù)距離進(jìn)行有效聚類(lèi)分析,但是對(duì)于具有較大數(shù)據(jù)相關(guān)性的時(shí)間序列數(shù)據(jù),難以利用距離直接進(jìn)行特征提取和分析。本文提出的LSVAE通過(guò)SemiVAE迭代過(guò)程自適應(yīng)進(jìn)行特征提取與學(xué)習(xí),同時(shí)在一定程度上避免了欠擬合的情況,再利用貝葉斯優(yōu)化超參數(shù)改善過(guò)擬合的情況,從而在小樣本數(shù)據(jù)學(xué)習(xí)中表現(xiàn)出了較優(yōu)越的性能。
Table 1 Grouping description of Data Sets表1 數(shù)據(jù)集分組描述
Figure 6 Comparison of different network models圖6 不同網(wǎng)絡(luò)模型對(duì)比
針對(duì)旋轉(zhuǎn)機(jī)械設(shè)備中滾動(dòng)軸承部件的故障數(shù)據(jù)分析與分類(lèi)診斷問(wèn)題,本文提出了一種結(jié)合變分自編碼器與LightGMB分類(lèi)模型的小樣本學(xué)習(xí)模型LSVAE,并通過(guò)貝葉斯超參數(shù)優(yōu)化增強(qiáng)性能,使得模型可以通過(guò)訓(xùn)練小批量的數(shù)據(jù),得到良好的分類(lèi)結(jié)果。實(shí)驗(yàn)結(jié)果表明:
(1)LSVAE模型可以從較小批量的時(shí)序信號(hào)中提取出有效的故障特征,且結(jié)果有著較高的準(zhǔn)確率。
(2)相比于其他深度神經(jīng)網(wǎng)絡(luò)模型(CNN等),LSVAE在小批量數(shù)據(jù)測(cè)試中結(jié)果更穩(wěn)定。