国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于BP神經(jīng)網(wǎng)絡(luò)的井下機(jī)電節(jié)能研究

2018-09-01 04:28張躍輝
山西煤炭 2018年4期
關(guān)鍵詞:權(quán)值神經(jīng)元神經(jīng)網(wǎng)絡(luò)

張躍輝

(山西新村煤業(yè)有限公司,山西 長(zhǎng)治 046000)

在井下機(jī)電設(shè)備中,以井下掘進(jìn)機(jī)電氣設(shè)備耗電量為最大,此類設(shè)備中,大功耗電氣設(shè)備有電力變壓器、電動(dòng)機(jī)、帶式輸送機(jī)和掘進(jìn)機(jī)四種。而電力變壓器又是輸電網(wǎng)絡(luò)中的主要設(shè)備,是電力安全傳送的重要保障。隨著井下供電需求的增加,電力變壓器容量越來越大,其帶來的能量耗損問題也日益凸顯。電力變壓器的能量耗損主要是運(yùn)行過程中的空載和負(fù)載,二者均可由試驗(yàn)獲得。實(shí)際生產(chǎn)中,既要保證低空載損耗,還要降低負(fù)載損耗,這就要求統(tǒng)籌優(yōu)化好兩者之間的比例。

20世紀(jì)70年代,奧地利學(xué)者計(jì)算變壓器電流時(shí)忽略了集膚效應(yīng),然后從其它方面提高了算法精度;隨后的德國(guó)科學(xué)家,在忽略集膚效應(yīng)的基礎(chǔ)之上,又建立了變壓器中各個(gè)參數(shù)在不同頻率影響下轉(zhuǎn)換的數(shù)學(xué)模型,依次優(yōu)化各個(gè)參數(shù)[1]。傳統(tǒng)的BP神經(jīng)網(wǎng)絡(luò)中使用的是常數(shù)學(xué)習(xí)率,本文擬從均方誤差與權(quán)值的角度出發(fā),每個(gè)迭代步產(chǎn)生誤差后都進(jìn)行調(diào)整,即對(duì)各層的權(quán)值進(jìn)行動(dòng)態(tài)調(diào)節(jié),此法亦稱為自適應(yīng)步長(zhǎng)法。具體來說就是用隨機(jī)選擇的歸一化樣本來訓(xùn)練和預(yù)測(cè)方法,預(yù)測(cè)井下掘進(jìn)機(jī)的電壓。當(dāng)求得預(yù)測(cè)值與真實(shí)值間的誤差≤0.04,說明改進(jìn)的方法有效。

2 神經(jīng)網(wǎng)絡(luò)原理

2.1 神經(jīng)網(wǎng)絡(luò)模型

人工神經(jīng)網(wǎng)絡(luò)簡(jiǎn)稱ANN網(wǎng)絡(luò),是受動(dòng)物神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)啟發(fā),讓要實(shí)現(xiàn)的原理或功能自己進(jìn)行模擬和訓(xùn)練,即具備自學(xué)能力。人工神經(jīng)網(wǎng)絡(luò)單元與單元之間由權(quán)值連結(jié),神經(jīng)網(wǎng)絡(luò)的好壞直接取決于權(quán)值[2]。選擇不同的權(quán)值,得到不同的神經(jīng)網(wǎng)絡(luò),其訓(xùn)練效果也不同。神經(jīng)網(wǎng)絡(luò)是由多個(gè)神經(jīng)元組成,包括輸入層、中間層、輸出層,每個(gè)神經(jīng)元在輸入數(shù)據(jù)后都能輸出單一的結(jié)果[3]。按照拓?fù)浣Y(jié)構(gòu)的分類原理,可將人工神經(jīng)網(wǎng)絡(luò)分為前饋型和反饋型。后者應(yīng)用范圍最廣,但是也要求較高的計(jì)算能力和反饋調(diào)節(jié)能力,結(jié)構(gòu)也較前者復(fù)雜。神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法,是每次迭代之后,權(quán)值都會(huì)根據(jù)記憶和自身優(yōu)化能力進(jìn)行調(diào)整。神經(jīng)網(wǎng)絡(luò)的穩(wěn)定輸出取決于網(wǎng)絡(luò)內(nèi)部結(jié)構(gòu)的權(quán)值和輸入數(shù)據(jù)。輸入數(shù)據(jù)的隨機(jī)性越大,誤差越大。反饋型神經(jīng)網(wǎng)絡(luò)的缺點(diǎn)在于,網(wǎng)絡(luò)訓(xùn)練的權(quán)值要朝著誤差遞減的方向進(jìn)行訓(xùn)練,在這種情況下會(huì)產(chǎn)生一種偽狀態(tài)(局部極小值),不能實(shí)現(xiàn)全局最優(yōu)收斂。前饋型神經(jīng)網(wǎng)絡(luò)中,權(quán)值處理方向都指向數(shù)據(jù)輸出方向,即方向單一。換言之,在神經(jīng)網(wǎng)絡(luò)方法訓(xùn)練過程中,各層神經(jīng)元之間的權(quán)值是相互關(guān)聯(lián)的,表示輸入層和輸出層間的關(guān)系,沒有訓(xùn)練的神經(jīng)網(wǎng)絡(luò),其權(quán)值就沒有意義,所以該網(wǎng)絡(luò)不能被用來預(yù)測(cè)數(shù)據(jù)[4],神經(jīng)網(wǎng)絡(luò)權(quán)值系統(tǒng)圖見圖1。

圖1 神經(jīng)網(wǎng)絡(luò)權(quán)值系統(tǒng)圖Fig.1 Weight system of neural network

本文擬選用前饋型神經(jīng)網(wǎng)絡(luò)中的經(jīng)典算法——BP神經(jīng)網(wǎng)絡(luò)算法來預(yù)測(cè)電壓。利用其單向的訓(xùn)練學(xué)習(xí)方法,可以將輸入的預(yù)測(cè)數(shù)據(jù)從此神經(jīng)網(wǎng)絡(luò)中優(yōu)化輸出。

圖1是神經(jīng)網(wǎng)絡(luò)的一個(gè)典型模型——多入單出的非線性模型。n表示數(shù)據(jù)輸入個(gè)數(shù),X表示系統(tǒng)輸入信號(hào),W表示權(quán)矢量,f(·)是激活函數(shù)。具體步驟如下:①訓(xùn)練樣本X被作為輸入信號(hào)輸入,通過調(diào)整權(quán)系數(shù)W,得到相應(yīng)的結(jié)果,然后輸出;②把期望的數(shù)字信號(hào)當(dāng)成訓(xùn)練的信號(hào),與①中結(jié)果進(jìn)行比較,得到誤差;③用得到的誤差去控制和修改權(quán)系數(shù)W。如果將上圖輸出結(jié)果記為u的話,則有:

u=∑WiXi=W1X1+W2X2+…+WnXn.

(1)

式中,i=1,2,…,n表示樣本數(shù)。

用期望輸出信號(hào)Y(t)和u對(duì)比,得到誤差信號(hào)m,然后利用誤差m沿誤差減小的方向調(diào)整權(quán)值,直到滿足系統(tǒng)設(shè)定誤差。學(xué)習(xí)過程結(jié)束的標(biāo)志是實(shí)際輸出值u和期望輸出值Y(t)無限逼近。

2.2 傳統(tǒng)BP神經(jīng)網(wǎng)絡(luò)算法

傳統(tǒng)的BP神經(jīng)網(wǎng)絡(luò)原理包含:向前傳輸數(shù)據(jù),反向傳輸輸出值與樣本值間的誤差,動(dòng)態(tài)修正權(quán)值。在傳統(tǒng)的三層BP網(wǎng)絡(luò)算法中,設(shè)輸入層、隱含層、輸出層分別含有神經(jīng)元A、B、C個(gè),對(duì)應(yīng)的某一神經(jīng)單元符號(hào)為xi、ym、zn。記xl到y(tǒng)m的權(quán)值為Wlm,ym到zn的權(quán)值為Wmn,設(shè)定傳遞函數(shù),于是得到網(wǎng)絡(luò)結(jié)構(gòu)圖,見圖2。

圖2 三層BP網(wǎng)絡(luò)Fig.2 Three-layer BP network

根據(jù)網(wǎng)絡(luò)順序,記輸入與輸出分別為u、v,系統(tǒng)輸出的表達(dá)式為:

(2)

式中:C為輸出結(jié)果C的向量。

期望函數(shù)為:

D(n)=[d1,d2,…,dC].

(3)

2.2.1工作信號(hào)正向傳播

輸入n個(gè)信號(hào),輸入層輸出:

(4)

(5)

假設(shè)f(·)為sigmoid函數(shù),則網(wǎng)絡(luò)隱含層的第i個(gè)神經(jīng)元的輸出等于:

(6)

(7)

網(wǎng)絡(luò)輸出層第j個(gè)神經(jīng)元的輸出為:

(8)

其相應(yīng)的誤差為

(9)

整個(gè)網(wǎng)絡(luò)的總誤差可表示為:

(10)

2.2.2誤差信號(hào)反向傳播

1)調(diào)整隱含層與輸出層間的連接權(quán)值:

=ΔWbc(n)+Wbc(n) .

(11)

此時(shí)偏導(dǎo)可表示為:

(12)

其中,

再將傳遞函數(shù)用其導(dǎo)數(shù)表示,可以得到梯度值如下式:

(13)

再經(jīng)權(quán)值修正量修正后可得到局部梯度如下:

(14)

又因?yàn)樯窠?jīng)元的局部梯度的傳遞函數(shù)通常是線性的,可知其導(dǎo)數(shù)為1。

2)誤差信號(hào)向前傳播,對(duì)輸入層與隱含層之間的權(quán)值Wab進(jìn)行調(diào)整。與上一步類似,應(yīng)有:

(15)

同樣的,有局部梯度為:

(16)

上式中,f(n)為sigmoid函數(shù)。由于隱含層不可見,因此無法直接求出誤差對(duì)該層輸出值的偏導(dǎo),于是需要上一步計(jì)算中求得的輸出層節(jié)點(diǎn)的局部梯度:

(17)

故有:

(18)

至此,整個(gè)神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程結(jié)束,簡(jiǎn)言之,修正權(quán)值等于系η,局部梯度δ,輸出值υ的積,即:可將過程簡(jiǎn)化表示如下:

ΔW=ηδv.

(19)

3 改進(jìn)的BP神經(jīng)網(wǎng)絡(luò)法

3.1 改進(jìn)內(nèi)容

傳統(tǒng)的BP神經(jīng)網(wǎng)絡(luò)算法中,結(jié)果的收斂速度很大程度上取決于常量值學(xué)習(xí)率,即影響訓(xùn)練時(shí)間和訓(xùn)練結(jié)果。本文從學(xué)習(xí)率常數(shù)出發(fā),將傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率常數(shù)修改成自適應(yīng)變化的學(xué)習(xí)率常數(shù),即記錄每次迭代產(chǎn)生的均方誤差,及時(shí)調(diào)整學(xué)習(xí)率。改進(jìn)算法為:

(20)

改進(jìn)算法所對(duì)應(yīng)的權(quán)值變化為:

(21)

改進(jìn)后的神經(jīng)網(wǎng)絡(luò)算法可以具體的描述為以下步驟:①選取樣本庫(kù),設(shè)定網(wǎng)絡(luò)結(jié)構(gòu),初始化網(wǎng)絡(luò)權(quán)值和閾值,并且設(shè)定訓(xùn)練誤差允許值ε;②輸入樣本;③輸出結(jié)果,計(jì)算各層輸出誤差,再通過訓(xùn)練樣本求得樣本總體的誤差;④調(diào)整各層的權(quán)值;⑤迭代n+1次,分別向前和反向進(jìn)行計(jì)算,直到誤差滿足設(shè)定的閾值,訓(xùn)練結(jié)束。

3.2 改進(jìn)后神經(jīng)網(wǎng)絡(luò)應(yīng)用

本文從煤礦實(shí)際情況出發(fā),建立井下掘進(jìn)機(jī)電壓的非線性模型,利用BP神經(jīng)網(wǎng)絡(luò)建立配電系統(tǒng)中的電壓預(yù)測(cè)結(jié)構(gòu)。具體分為以下步驟:

1)選擇和組織樣本數(shù)據(jù)。選取在區(qū)間[-30,30]上的電壓,擴(kuò)大樣本容量,并對(duì)端口數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化處理。

2)建立網(wǎng)絡(luò)結(jié)構(gòu)。建立三層BP網(wǎng)絡(luò)模型,設(shè)定網(wǎng)絡(luò)節(jié)點(diǎn)輸入數(shù)為10,網(wǎng)絡(luò)節(jié)點(diǎn)輸出數(shù)為3。根據(jù)Hecht-Nielsen理論[7],訓(xùn)練過程中的隱含節(jié)點(diǎn)數(shù)等于2X+1(X為輸入節(jié)點(diǎn)數(shù)目)。于是,拓?fù)渚W(wǎng)絡(luò)結(jié)構(gòu)就是10×21×3。采集10次數(shù)據(jù),將結(jié)果作為10維向量輸入,輸出一個(gè)3維向量。

3)系統(tǒng)仿真。設(shè)定采樣周期為30ms;用二階慣性系統(tǒng)隨機(jī)選擇數(shù)據(jù),并將數(shù)據(jù)歸一化處理;電壓標(biāo)準(zhǔn)值設(shè)定為220V,波動(dòng)區(qū)間[-30,30];開始訓(xùn)練和測(cè)試。具體的測(cè)試矢量限于篇幅不再列出,直接給出改進(jìn)的訓(xùn)練曲線見圖3,并將改進(jìn)后曲線同改進(jìn)前曲線做對(duì)比。

圖3 樣本曲線對(duì)比Fig.3 Comparison of sample curves

通過對(duì)比可以看出,預(yù)測(cè)曲線與實(shí)際曲線基本是吻合的,誤差最大處為0.04,可以接受。而且發(fā)現(xiàn),傳統(tǒng)方法迭代需要234次達(dá)到的精度,改進(jìn)后的迭代算法只需5次就能達(dá)到,極大地提升了運(yùn)算效率。

4 結(jié)束語

本文推導(dǎo)了神經(jīng)網(wǎng)絡(luò)的算法,闡明了傳統(tǒng)BP神經(jīng)網(wǎng)絡(luò)在迭代和誤差精度上的不足之處。然后通過利用自適應(yīng)步長(zhǎng)法及時(shí)調(diào)整輸入層、隱含層、輸出層間的權(quán)值,擴(kuò)大樣本容量,歸一化樣本;將改進(jìn)的算法用于實(shí)踐,得到誤差較小的預(yù)測(cè)值。

猜你喜歡
權(quán)值神經(jīng)元神經(jīng)網(wǎng)絡(luò)
一種融合時(shí)間權(quán)值和用戶行為序列的電影推薦模型
CONTENTS
神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
躍動(dòng)的神經(jīng)元——波蘭Brain Embassy聯(lián)合辦公
基于權(quán)值動(dòng)量的RBM加速學(xué)習(xí)算法研究
基于多維度特征權(quán)值動(dòng)態(tài)更新的用戶推薦模型研究
基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
ERK1/2介導(dǎo)姜黃素抑制STS誘導(dǎo)神經(jīng)元毒性損傷的作用
毫米波導(dǎo)引頭預(yù)定回路改進(jìn)單神經(jīng)元控制