王尉旭
摘??要:正則化彈性網(wǎng)絡(luò)是一種強(qiáng)大的深度學(xué)習(xí)模型,結(jié)合線性回歸和邏輯回歸的特點(diǎn),可以同時(shí)進(jìn)行特征選擇和參數(shù)控制,避免了傳統(tǒng)正則化的部分局限性。離散傅里葉變換特征提取是一種常用的信號(hào)處理方法,可以提取信號(hào)中的特定頻率的特征,在眾多領(lǐng)域都有著廣泛的應(yīng)用。通過(guò)彈性網(wǎng)絡(luò)正則化和加窗離散傅里葉變換的信號(hào)分析技術(shù)結(jié)合,進(jìn)行了相應(yīng)的研究和應(yīng)用。以凱斯西儲(chǔ)大學(xué)故障軸承振動(dòng)數(shù)據(jù)為例,進(jìn)行信號(hào)分析處理,再經(jīng)過(guò)神經(jīng)網(wǎng)絡(luò)模型的學(xué)習(xí)和預(yù)測(cè),從而得到了一個(gè)準(zhǔn)確率較高的彈性網(wǎng)絡(luò)模型。其方法對(duì)于眾多復(fù)雜的問(wèn)題都有著重要的研究?jī)r(jià)值。
關(guān)鍵詞:深度神經(jīng)網(wǎng)模型???正則化彈性網(wǎng)絡(luò)???數(shù)據(jù)分析工具???信號(hào)處理
中圖分類號(hào):TP183
Research?and?Application?Based?on?the?Combination?of?Data?Analysis?and?the?Deep?Neural?Network
WANG?Weixu
Chongqing?Jiaotong?University,?Chongqing,?400074?China
Abstract:?A?regularized?elastic?net?is?a?powerful?deep?learning?model,?which?can?combine?the?characteristics?of?linear?regression?and?logistic?regression?to?perform?both?feature?selection?and?parameter?control,?avoiding?some?of?the?limitations?of?traditional?regularization.?Discrete?Fourier?transform?feature?extraction?is?a?commonly-used?signal?processing?method?that?can?extract?specific?frequency?features?from?signals,?and?it?has?a?wide?range?of?applications?in?many?fields.?This?article?combines?the?signal?analysis?technology?of?elastic?net?regularization?and?windowed?discrete?Fourier?transform?to?conduct?corresponding?research?and?applications.?This?article?takes?the?vibration?data?of?faulty?bearings?from?Case?Western?Reserve?University?as?an?example,?performs?signal?analysis?and?processing,?and?then?obtains?an?elastic?net?model?with?high?accuracy?through?the?learning?and?predicting?of?the?neural?network?model.?This?method?is?of?great?research?value?for?many?complex?problems.???Key?Words:?Deep?neural?network?model?;??Regularized?elastic?net;??Data?analysis?tool?;??Signal?processing
隨著科技的飛速發(fā)展,人工智能技術(shù)逐漸滲透到各個(gè)領(lǐng)域,為人類社會(huì)帶來(lái)了前所未有的變革。而神經(jīng)網(wǎng)絡(luò)的研究和應(yīng)用備受關(guān)注。正則化彈性網(wǎng)絡(luò)是一種重要的神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)模型,有著線性回歸和邏輯回歸的優(yōu)點(diǎn),廣泛應(yīng)用于圖像識(shí)別、自然語(yǔ)言處理等領(lǐng)域,其能夠更好地處理非線性化問(wèn)題。傅里葉變換峰值特征提取是利用傅里葉變換來(lái)識(shí)別和提取信號(hào)中的重要特征方法,這種強(qiáng)大的數(shù)據(jù)分析工具,可以幫助我們更好地去了解信號(hào)和數(shù)據(jù)的內(nèi)在結(jié)構(gòu)和特征。
本文旨在探討傅里葉變換數(shù)據(jù)分析工具與正則化彈性網(wǎng)絡(luò)結(jié)合的技術(shù)原理和應(yīng)用,通過(guò)深入剖析其中的正則化彈性網(wǎng)絡(luò)和傅里葉變換峰值提取結(jié)合的基本原理和算法,揭示其內(nèi)在的規(guī)律和特點(diǎn),為進(jìn)一步的研究和應(yīng)用奠定基礎(chǔ)。
在應(yīng)用方面,本文將詳細(xì)介紹正則化彈性網(wǎng)絡(luò)和傅里葉變換特征提取的應(yīng)用。通過(guò)滾動(dòng)軸承故障診斷為例,本文將證明正則化彈性網(wǎng)絡(luò)和傅里葉變換特征提取的數(shù)據(jù)分析方法在信號(hào)數(shù)據(jù)處理的應(yīng)用效果和優(yōu)勢(shì),為相關(guān)領(lǐng)域的研究和實(shí)踐提供有力支持。
最后,本文將對(duì)正則化彈性網(wǎng)絡(luò)和傅里葉變換特征提取的應(yīng)用前景進(jìn)行展望。希望通過(guò)本文的研究,能夠進(jìn)一步推動(dòng)神經(jīng)網(wǎng)絡(luò)人工智能領(lǐng)域的發(fā)展,為人類社會(huì)的進(jìn)步和發(fā)展做出更大的貢獻(xiàn)。
1?正則化彈性網(wǎng)絡(luò)
1.1??正則化彈性網(wǎng)絡(luò)概述
正則化彈性網(wǎng)絡(luò)是強(qiáng)大的深度學(xué)習(xí)模型,結(jié)合了線性回歸和邏輯回歸的優(yōu)點(diǎn),將神經(jīng)網(wǎng)絡(luò)的參數(shù)進(jìn)行稀疏化約束,對(duì)于稀疏化特征篩選,引入L1正則項(xiàng),在模型中完成特征篩選[1],通過(guò)L1范數(shù)和L2范數(shù)作為正則項(xiàng)來(lái)優(yōu)化模型的損失函數(shù)。通過(guò)不斷地調(diào)整參數(shù),控制權(quán)重限制的程度,進(jìn)一步優(yōu)化模型的復(fù)雜度和泛化能力之間的平衡,使得模型的預(yù)測(cè)誤差最小化,能夠處理高維數(shù)據(jù)和復(fù)雜的非線性問(wèn)題。
正則化彈性網(wǎng)絡(luò)的優(yōu)點(diǎn)這就是能夠同時(shí)實(shí)現(xiàn)特征選擇和模型復(fù)雜度控制。所以,彈性網(wǎng)絡(luò)在高緯數(shù)據(jù)集和特征相關(guān)性較高的情況下表現(xiàn)出色。更是可以在復(fù)雜的問(wèn)題中,實(shí)現(xiàn)有效解,不會(huì)產(chǎn)生交叉的路徑。在特征選擇、回歸分析、圖像處理、自然語(yǔ)言處理、推薦系統(tǒng)和生物信息學(xué)等領(lǐng)域有著廣泛的應(yīng)用。
1.2?正則化彈性網(wǎng)絡(luò)原理
正則化彈性網(wǎng)絡(luò)的原理主要基于線性模型的優(yōu)化,通過(guò)添加L1范數(shù)和L2范數(shù)的懲罰項(xiàng),對(duì)線性模型進(jìn)行正則化,對(duì)這兩個(gè)正則化項(xiàng)的權(quán)重調(diào)節(jié)來(lái)控制模型的特征選擇和模型復(fù)雜度。
彈性網(wǎng)絡(luò)中的L1范數(shù)的懲罰項(xiàng)促使部分特征權(quán)重變?yōu)?來(lái)實(shí)現(xiàn)特征選擇,而L2范數(shù)的懲罰項(xiàng)來(lái)控制模型的復(fù)雜度,所以通過(guò)調(diào)整這兩個(gè)正則化項(xiàng)的權(quán)重,來(lái)找到一個(gè)較為良好的平衡點(diǎn),提高模型泛化能力。
2?傅里葉變換特征提取
頻域特征的基礎(chǔ)是傅里葉變換[2],傅里葉特征抽取是一種常見的信號(hào)處理技術(shù),它通過(guò)傅里葉變換來(lái)提取信號(hào)的特征。這種方法將信號(hào)從時(shí)間域轉(zhuǎn)換為頻率領(lǐng)域,然后通過(guò)對(duì)信號(hào)進(jìn)行頻域分析,將信分解成為一系列不同頻率和振幅的正弦波的疊加。通過(guò)頻譜分析,我們能夠了解信號(hào)在各個(gè)頻率上的能量分布,從而提取出信號(hào)的特征信息。
傅里葉特征提取應(yīng)用于眾多領(lǐng)域,例如音頻處理、圖像處理、信號(hào)處理等。在音頻處理中,可以利用傅里葉特征提取來(lái)提取音頻信號(hào)的頻譜特征,用于音頻分類、聲音識(shí)別等任務(wù)。在圖像處理中,可以將圖像轉(zhuǎn)換為頻率域表示后,提取圖像的頻譜特征用于圖像分類、圖像識(shí)別等任務(wù)。
3??正則化彈性網(wǎng)絡(luò)和離散傅里葉變換特征提取結(jié)合在軸承故障診斷中的應(yīng)用
3.1??凱斯西儲(chǔ)振動(dòng)數(shù)據(jù)分析處理
本文選取了凱斯西儲(chǔ)大學(xué)的軸承振動(dòng)數(shù)據(jù)作為數(shù)據(jù)集進(jìn)行數(shù)據(jù)分析和神經(jīng)網(wǎng)絡(luò)訓(xùn)練[3],常見的故障特征提取方法包括時(shí)域特征、頻域特征和時(shí)頻域特征[4],所以研究人員選用傅里葉特征提取來(lái)解決軸承故障類型故障診斷的多分類問(wèn)題。
將振動(dòng)數(shù)據(jù)進(jìn)行歸一化處理后進(jìn)行Blackman窗口函數(shù)加窗處理。Blackman窗口函數(shù)是一種常用的窗函數(shù),具有較窄的主瓣寬度和較低的旁瓣高度,能夠提供較好的頻率分辨率和較小的頻譜泄漏。在故障診斷領(lǐng)域,Blackman窗口函數(shù)可以對(duì)振動(dòng)信號(hào)進(jìn)行增強(qiáng)處理,突出信號(hào)中的特定頻率成分,提取特征,以用于模式識(shí)別算法,如向量機(jī)和本文使用的人工神經(jīng)網(wǎng)絡(luò)。
傅里葉變換可以將信號(hào)從時(shí)域轉(zhuǎn)換到頻域,其基本思路是將信號(hào)轉(zhuǎn)換為一組正弦波的線性組合,將信號(hào)分解成不同頻率的分量,用于信號(hào)的頻率分析。
離散傅里葉變換是傅里葉變換的一種離散形式,在離散傅里葉變換中,信號(hào)只在特定的時(shí)間點(diǎn)上有值,用于處理離散信號(hào),如數(shù)字信號(hào)、離散傳感器信號(hào)。離散傅里葉變換將離散信號(hào)轉(zhuǎn)換為復(fù)數(shù)序列,每個(gè)復(fù)數(shù)對(duì)應(yīng)一個(gè)頻率分量,從而將離散信號(hào)轉(zhuǎn)換到頻率,對(duì)于一個(gè)有限長(zhǎng)度的離散信號(hào),x其離散傅里葉變換可以用以下公式表示:
X[k]?=?∑_{n=0}^{N-1}?x[n]?*?e^{-i2πk*n/N}
這個(gè)公式表示,離散傅立葉變換將每個(gè)樣本x乘以e^{-i2πk*n/N},然后將所有的乘積進(jìn)行求和,其中表示第k個(gè)頻率分量的振幅。
加窗離散傅里葉變換后的頻率信號(hào),有利于分析信號(hào)的頻率成分,在故障診斷領(lǐng)域中可以反映出不同故障的特有頻率,對(duì)于本文的軸承故障診斷數(shù)據(jù)應(yīng)提取其高幅峰值頻率。本文對(duì)歸一化后幅值大小前20的頻率數(shù)據(jù)進(jìn)行記錄并排序,用于神經(jīng)網(wǎng)絡(luò)輸入。
3.2??正則化彈性網(wǎng)絡(luò)的Matlab構(gòu)建
fitnet函數(shù)用于創(chuàng)建一個(gè)具有一層隱藏層的神經(jīng)網(wǎng)絡(luò)函數(shù),通過(guò)使用基于誤差的反向傳播算法進(jìn)行網(wǎng)絡(luò)訓(xùn)練。該函數(shù)在網(wǎng)絡(luò)輸入時(shí)會(huì)自動(dòng)將數(shù)據(jù)進(jìn)行適當(dāng)?shù)念A(yù)處理,如歸一化、標(biāo)準(zhǔn)化。在使用fitnet訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),Matlab會(huì)自動(dòng)使用trainlm函數(shù)進(jìn)行正則化,包括L1和L2正則化。
Trainlm函數(shù)使用Levenberg-Marquardt算法來(lái)訓(xùn)練多層感知器LMP,該算法是一種迭代優(yōu)化算法,用于解決最小二乘優(yōu)化問(wèn)題。該函數(shù)與fitnet函數(shù)結(jié)合時(shí),Trainlm函數(shù)會(huì)自動(dòng)計(jì)算L1和L2正則化項(xiàng)的權(quán)重,并最小化帶正則化的損失函數(shù),有助于在訓(xùn)練過(guò)程中自動(dòng)調(diào)整正則化強(qiáng)度,從而得到一個(gè)具有良好泛化能力的彈性網(wǎng)神經(jīng)網(wǎng)絡(luò)模型。
L1正則化式:
將其加入損失函數(shù)(表示為loss),變成:
是超參數(shù)。除了能夠約束參數(shù)量級(jí)之外,L1正則化還能起到稀疏化參數(shù)的作用。
L2正則化式:
L2代表求權(quán)重的歐幾里得范數(shù),也叫作L2范數(shù):
假設(shè)待正則的網(wǎng)絡(luò)層參數(shù)為,L2正則式為:
將其加入損失函數(shù)(表示為loss),變成:
上述式中,是一個(gè)模型中的超參數(shù),一般被稱作為正則化參數(shù)。
在Matlab中fitnet?函數(shù)中,L1實(shí)現(xiàn)的公式:
,其中,W是模型矩陣,取其絕對(duì)值然后求和。
L2則是用Matlab中的vecnorm函數(shù)可以實(shí)現(xiàn)。通過(guò)計(jì)算矩陣的范數(shù)來(lái)實(shí)現(xiàn)。公式如下:
L2=norm(A,2)A?是模型矩陣,對(duì)于矩陣中每一個(gè)元素平方后求和,然后取平方根。
彈性網(wǎng)絡(luò)正則化則是結(jié)合L1和L2正則化,正則化式:
3.2.3??配置網(wǎng)絡(luò)參數(shù)
(1)傳遞函數(shù)。
本文選取Tansig函數(shù)作為隱藏層激活函數(shù)。
Tansig函數(shù)是神經(jīng)網(wǎng)絡(luò)模型中的一種常用的激活函數(shù),其非線性映射能力強(qiáng),可以將輸入值非線性映射到輸出值,從而有效地解決線性不可分的問(wèn)題。Tansig函數(shù)還有計(jì)算效率高的優(yōu)點(diǎn),其采用簡(jiǎn)單的數(shù)學(xué)公式和計(jì)算方法,速度快。
(2)隱藏層節(jié)點(diǎn)個(gè)數(shù)。
根據(jù)樣本數(shù)據(jù)和問(wèn)題的復(fù)雜程度,本文設(shè)置了一層隱藏層以避免網(wǎng)絡(luò)復(fù)雜化、網(wǎng)絡(luò)訓(xùn)練時(shí)間過(guò)長(zhǎng)和出現(xiàn)過(guò)擬合的傾向。
隱藏層節(jié)點(diǎn)數(shù)應(yīng)小于訓(xùn)練樣本數(shù)減一,否則網(wǎng)絡(luò)模型的系統(tǒng)誤差與訓(xùn)練樣本的特性無(wú)關(guān)而趨于零,即建立的網(wǎng)絡(luò)模型沒(méi)有泛化能力,也沒(méi)有任何使用價(jià)值[5]。
訓(xùn)練樣本數(shù)必須多于網(wǎng)絡(luò)模型的連接權(quán)數(shù),一般為其的2~10倍,否則樣本必須分成幾部分且必須采用“輪流訓(xùn)練”的方法才能得到可靠的神經(jīng)網(wǎng)絡(luò)[5]。
本次網(wǎng)絡(luò)訓(xùn)練樣本量為2?717,輸入特征序列長(zhǎng)度為20,輸出層節(jié)點(diǎn)數(shù)即分類類別為32,得到隱藏層節(jié)點(diǎn)數(shù)范圍應(yīng)在6~25之間,因此研究人員選取中間數(shù)15作為隱藏層節(jié)點(diǎn)個(gè)數(shù)。
(3)性能指標(biāo)。
本文選取了MSE作為彈性網(wǎng)神經(jīng)網(wǎng)絡(luò)訓(xùn)練的訓(xùn)練指標(biāo),MSE易于計(jì)算和理解,值越小,模型的性能越好。并且,MSE適用于各種不同類型的模型和數(shù)據(jù)集,對(duì)于分類問(wèn)題,MSE能夠作為評(píng)估性能的有效指標(biāo)。
(4)設(shè)置目標(biāo)誤差1。
3.3??模型訓(xùn)練及驗(yàn)證
將樣本集隨機(jī)打亂后劃分為訓(xùn)練集和測(cè)試集,測(cè)試集用于評(píng)估驗(yàn)證該模型的分類正確率。通過(guò)Matlab神經(jīng)網(wǎng)絡(luò)工具箱對(duì)該網(wǎng)絡(luò)進(jìn)行代碼實(shí)現(xiàn),在訓(xùn)練集樣進(jìn)行訓(xùn)練后,得到彈性網(wǎng)神經(jīng)網(wǎng)絡(luò)模型,各參數(shù)如圖?1所示。
圖?1展示了模型預(yù)測(cè)輸出和目標(biāo)輸出之間的誤差分布情況,將訓(xùn)練數(shù)據(jù)集的每個(gè)樣本的誤差進(jìn)行統(tǒng)計(jì),并進(jìn)行分組,可以直觀地看出模型在不同誤差范圍內(nèi)的表現(xiàn),以及是否存在異常點(diǎn)。
圖?2是訓(xùn)練過(guò)程變化圖,圖二中第一個(gè)曲線表示了訓(xùn)練過(guò)程,顯示了訓(xùn)練過(guò)程中每一次誤差迭代的變化,用于了解網(wǎng)絡(luò)的改進(jìn)過(guò)程;第二個(gè)是訓(xùn)練誤差的曲線,用于評(píng)估模型在未見過(guò)的數(shù)據(jù)上的性能;第三個(gè)曲線表示了權(quán)重和偏置的變化,顯示了權(quán)重和偏置參數(shù)隨迭代次數(shù)的變化;
用測(cè)試集對(duì)模型驗(yàn)證評(píng)估。
準(zhǔn)確率驗(yàn)證:對(duì)于分類問(wèn)題,準(zhǔn)確率能直觀地體現(xiàn)神經(jīng)網(wǎng)絡(luò)的性能,表明模型的泛化能力,能夠在新數(shù)據(jù)上進(jìn)行有效的推斷。
準(zhǔn)確率計(jì)算過(guò)程:將測(cè)試集預(yù)測(cè)輸出矩陣進(jìn)行二值化處理,即每列(一份樣本輸出)中最大概率化為1,其余概率化為0,與測(cè)試集的預(yù)期輸出矩陣進(jìn)行比較,得到該測(cè)試集經(jīng)過(guò)本神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)的準(zhǔn)確率。
本模型經(jīng)過(guò)多次初始化并訓(xùn)練,求得模型的準(zhǔn)確率范圍在0.965~0.980,準(zhǔn)確率高,說(shuō)明模型對(duì)于軸承故障類型診斷問(wèn)題的解決能力強(qiáng)。
4??結(jié)論
本文以凱斯西儲(chǔ)大學(xué)的正常及各故障類型的振動(dòng)數(shù)據(jù)為例,對(duì)信號(hào)分析和神經(jīng)網(wǎng)絡(luò)結(jié)合方法進(jìn)行研究應(yīng)用。將振動(dòng)信號(hào)進(jìn)行歸一化處理后進(jìn)行Blackman窗口函數(shù)進(jìn)行加窗處理。從而對(duì)振動(dòng)信號(hào)進(jìn)行增強(qiáng)并提取特征。然后經(jīng)過(guò)離散傅里葉變換將信號(hào)從時(shí)域轉(zhuǎn)換為頻域,根據(jù)不同軸承故障類型具有獨(dú)有的高幅度高頻特征頻率,對(duì)幅頻譜進(jìn)行峰值提取,以最高的20個(gè)幅值對(duì)應(yīng)的頻率歸一化處理后作為正則化彈性網(wǎng)絡(luò)的訓(xùn)練樣本,選擇神經(jīng)網(wǎng)絡(luò)的訓(xùn)練函數(shù)并調(diào)整各參數(shù),經(jīng)驗(yàn)證后,得到準(zhǔn)確率較高的神經(jīng)網(wǎng)絡(luò)模型。本文方法得到的神經(jīng)網(wǎng)絡(luò)模型高效準(zhǔn)確,足以證明該結(jié)合方法有效且具有良好的前景。
正則化彈性網(wǎng)絡(luò)在回歸和分類問(wèn)題上表現(xiàn)出色。在醫(yī)療、金融等眾多領(lǐng)域都取得了顯著的成果。隨著計(jì)算能力的提升和算法的優(yōu)化,正則化彈性網(wǎng)絡(luò)的性能也將會(huì)不斷優(yōu)化。
而離散傅里葉變換提供了對(duì)信號(hào)頻率特性的深入理解,在許多應(yīng)用中具有重要的價(jià)值。隨著計(jì)算能力的提升,未來(lái)可以利用更高效的方法實(shí)現(xiàn)離散傅里葉變換特征提取,可以將其探索于其他更廣泛的領(lǐng)域。
總之,隨著技術(shù)的不斷進(jìn)步和應(yīng)用需求的不斷提升,信號(hào)分析技術(shù)與神經(jīng)網(wǎng)絡(luò)技術(shù)的結(jié)合方法將會(huì)是一種高效準(zhǔn)確的信號(hào)處理技術(shù),將會(huì)為各種實(shí)際應(yīng)用提供更好的支持。
參考文獻(xiàn)