国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

中國實驗快堆傳感器數(shù)據(jù)挖掘有效性研究

2021-07-28 12:59蔣煜卿陳樹明
科技創(chuàng)新導(dǎo)報 2021年9期
關(guān)鍵詞:傳感器

蔣煜卿 陳樹明

DOI:10.16660/j.cnki.1674-098X.2101-5640-0498

摘? 要:將人工神經(jīng)網(wǎng)絡(luò)的方法引入中國實驗快堆傳感器數(shù)據(jù)分析,通過機器學(xué)習(xí)的方式,建立出入口鈉溫作為輸出、堆功率等多個變量為輸入的模型。通過比較不同優(yōu)化算法下測試集的預(yù)測值和實際值之間誤差,進行模型的調(diào)整。在最優(yōu)算法下,判斷最終模型的泛用性。實驗結(jié)果表明,通過人工神經(jīng)網(wǎng)絡(luò)方式建立的出入口鈉溫模型,擬合結(jié)果較好,可以實現(xiàn)通過其余冗余傳感器間接得到目標(biāo)傳感器數(shù)據(jù)大致區(qū)間范圍,實現(xiàn)非冗余傳感器故障有效監(jiān)測。

關(guān)鍵詞:人工神經(jīng)網(wǎng)絡(luò)模型? 中國實驗快堆? 傳感器? 模型調(diào)試

中圖分類號:TP212 ? ? ? ? ?文獻標(biāo)識碼:A? ? ? ? ? ? ? ? ? ?文章編號:1674-098X(2021)03(c)-0123-06

Research on the Effectiveness of Sensor Data Mining of China Experimental Fast Reactor

JIANG Yuqing? CHEN Shuming*

(China Academy of Atomic Energy, Beijing, 102413 China)

Abstract: The artificial neural network method is introduced into the data analysis of the China experimental fast reactor sensor, and a model is established based on machine learning. The output of the model is the inlet and outlet temperature of sodium, while the input of the model includes reactor power and other variables. Through comparing the error between the predicted value and the actual value of the test group under different optimization algorithms, the model parameters are adjusted and optimized. Under the optimal algorithm, the universality of the final model is judged. The final result shows that the inlet and outlet sodium temperature model established by artificial neural network has a good fitting result, which can achieve the approximate interval range of the target sensor data indirectly through other redundant sensors, and realize the effective monitoring of non-redundant sensor faults.

Key Words: Artificial neural network model; China experimental fast reactor; Sensor model debugging

在中國實驗快堆運行過程中,傳感器作為其控制和監(jiān)測系統(tǒng)的重要環(huán)節(jié),對于快堆的安全性有著舉足輕重的地位。在快堆中設(shè)置大量冗余儀表,以防止單一儀表損壞后影響操縱員判斷。對于儀表狀態(tài)的監(jiān)測,多采用周期性的儀表檢測方法,經(jīng)濟性不高,并且伴隨拆卸損壞的風(fēng)險。至于傳感器產(chǎn)生的大量數(shù)據(jù),使用程度較低。

傳感器狀態(tài)監(jiān)測方法包含兩類,一類是采用冗余傳感器進行直接對比驗證,另一類是使用解析方法進行間接對比驗證。這種解析冗余主要包含基于解析模型、基于知識和基于數(shù)據(jù)驅(qū)動的方法。其中數(shù)據(jù)挖掘方法是目前最為熱門的一種數(shù)據(jù)處理方法,通過訓(xùn)練集得到不同時間序列數(shù)據(jù)的相互關(guān)系后,在測試集進行驗證。因此,可以把快堆多組傳感器當(dāng)作多組時間序列數(shù)據(jù)挖掘問題來研究。

1? 傳感器狀態(tài)監(jiān)測的常用方法

傳感器狀態(tài)監(jiān)測通常使用設(shè)置大量冗余儀表的方式,通過對同一測量不同儀表數(shù)據(jù)之間的對比,實現(xiàn)最為簡單的傳感器狀態(tài)判斷。但這種物理冗余的方式,一是會帶來經(jīng)濟成本的增加,二是難以避免共同失效,三是堆內(nèi)無法滿足全部設(shè)置冗余儀表的條件。因此,引入了基于解析冗余的方法,從而達到與基于物理冗余的方法相互補充的目的。基于解析冗余的方法,主要分為三類,分別是基于解析模型的方法、基于知識的方法和基于數(shù)據(jù)驅(qū)動的方法[1]。

基于解析模型的方法,重點是需要精確的模型對狀態(tài)參數(shù)進行估計,進而對實際值和估計值形成的殘差進行統(tǒng)計分析,主要包括參數(shù)估計法、等價空間法和狀態(tài)估計法。對于快堆而言,其設(shè)計復(fù)雜,參數(shù)之間存在大量的相互關(guān)聯(lián)性,因此難以推導(dǎo)出精確的傳感器數(shù)學(xué)模型。

基于知識的方法,重點是需要定性模型和專家知識的結(jié)合,要通過因果分析的手段評估系統(tǒng)狀態(tài),主要包括專家系統(tǒng)推理法、模糊推理法、故障樹分析法和符號有向圖。對于快堆而言,其因果關(guān)系較為復(fù)雜,難以準(zhǔn)確通過分散表征進行判斷。

基于數(shù)據(jù)驅(qū)動的方法,和前兩種方法相比,專注于傳感器輸出數(shù)據(jù)的具體分析,主要包括直接處理方法、信號融合方法以及統(tǒng)計方法。直接處理方法主要是通過傅立葉變化發(fā)現(xiàn)信號在頻域的異常情況;信號融合方法是通過多個關(guān)聯(lián)傳感器數(shù)據(jù)變化來映射某個傳感器的狀態(tài),但這種方法通常會與其他方法組合使用,使得對于狀態(tài)的判斷更為全面和準(zhǔn)確;統(tǒng)計方法應(yīng)用范圍最廣,包括人工神經(jīng)網(wǎng)絡(luò)、主元分析法、多元狀態(tài)估計等。

本文主要采用機器學(xué)習(xí)中反向傳播的人工神經(jīng)網(wǎng)絡(luò)方法,基于快堆傳感器數(shù)據(jù)進行學(xué)習(xí),并形成針對傳感器數(shù)據(jù)預(yù)測的模型。

2? 基于人工神經(jīng)網(wǎng)絡(luò)方法的傳感器狀態(tài)監(jiān)測

人工神經(jīng)網(wǎng)絡(luò)方法是一種廣泛使用的數(shù)據(jù)多元統(tǒng)計分析方法。基于神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)算法參考了人類大腦接觸并學(xué)習(xí)新事物的步驟,它使用拓?fù)浞绞綄⒈姸嗵幚碓M行連接,每個處理元之間通過賦權(quán)和函數(shù)進行并行信息處理。一般來說,人工神經(jīng)網(wǎng)絡(luò)方法有兩個階段,分別是學(xué)習(xí)訓(xùn)練和驗證測試階段。學(xué)習(xí)訓(xùn)練階段就是對神經(jīng)網(wǎng)絡(luò)進行教學(xué)和調(diào)試,在這個過程中,需要選擇合適的網(wǎng)絡(luò)結(jié)構(gòu)、層數(shù)、算法,以匹配不同規(guī)模和復(fù)雜度的系統(tǒng);驗證階段就是對學(xué)習(xí)階段產(chǎn)生的模型加以驗證,以判斷模型的精確程度。

神經(jīng)網(wǎng)絡(luò)中最基本的成分是神經(jīng)元,每一個神經(jīng)元都有多個輸入,對每一個輸入都會分配一個權(quán)重,在測試的過程中,每個連接上的權(quán)重都不會發(fā)生改變,但是在訓(xùn)練過程中,必須改變這些權(quán)重值來使結(jié)果最優(yōu)化。神經(jīng)元的數(shù)學(xué)表達式如下式所示。

式中,y代表神經(jīng)元的輸出值,wn代表神經(jīng)元的輸入權(quán)重值,m代表常數(shù)項,f(x)為變化函數(shù),其中輸入權(quán)重值和常數(shù)項是通過機器學(xué)習(xí)計算當(dāng)前神經(jīng)元節(jié)點誤差項后,通過反向傳播的方式計算獲得。

神經(jīng)網(wǎng)絡(luò)雖然是一種非常復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu),但是它的排列非常規(guī)整,呈層狀排布,從細(xì)節(jié)看,是大量簡單神經(jīng)元的集合體。神經(jīng)網(wǎng)絡(luò)的輸入層,輸入擬合模型的自變量;它的輸出層,輸出擬合模型的結(jié)果。輸入層與輸出層神經(jīng)元個數(shù)一般對應(yīng)于輸入和輸出的數(shù)據(jù)序列量。因此,神經(jīng)網(wǎng)絡(luò)的核心是隱藏層,隱藏層會完成數(shù)據(jù)的分析與擬合。神經(jīng)網(wǎng)絡(luò)的每一層隱藏層,其內(nèi)部神經(jīng)元的結(jié)構(gòu)都保持高度一致,并且彼此之間并不直接相連,也不跨層相連。圖1就是一個非常簡單的神經(jīng)網(wǎng)絡(luò)構(gòu)造圖,圖中包含三層隱藏層。圖中每個神經(jīng)元的中樞都有一個變化函數(shù),如果沒有變化函數(shù)f(x),該網(wǎng)絡(luò)只是多個線性方程的疊加,輸出結(jié)果依然為線性結(jié)果。因此神經(jīng)網(wǎng)絡(luò)需要加入變化函數(shù)f(x),從而使得模型能夠?qū)W習(xí)非線性數(shù)據(jù)并加以分析。

變化函數(shù)一般為階躍函數(shù),但也有一些是線性函數(shù),需要視具體應(yīng)用場景而定。常用變化函數(shù)包括Sigmoid、Tanh、ReLU等。

Sigmoid函數(shù)公式如下式所示,它將輸出值歸一化到(0,1)。在一些誤差反向傳播的場景下,需要反向調(diào)整權(quán)重時,一般會率先計算出輸出層的損失值,然后將該損失值向上傳遞,進行模型中參數(shù)的逐級優(yōu)化,但因為Sigmoid函數(shù)在求導(dǎo)后會使得損失值導(dǎo)數(shù)逐漸向0接近,出現(xiàn)梯度消失的情況,也就是說不能再對權(quán)重進行優(yōu)化[2]。

Tanh函數(shù)公式如下式所示,它是在Sigmoid函數(shù)上做了一些優(yōu)化,解決了Sigmoid始終為正的問題,其取值范圍為(-1,1),但依然存在Sigmoid函數(shù)無法繼續(xù)優(yōu)化權(quán)重的問題。

ReLU函數(shù)公式如下式所示,它存在一個最小值0,因此相比于Sigmoid函數(shù)和Tanh函數(shù)更為簡單,后兩者都需要計算指數(shù),一旦數(shù)據(jù)量很大,就會帶來巨額的計算量。但ReLU函數(shù)的局限性在于,負(fù)輸入在經(jīng)過該ReLU單元時被永遠(yuǎn)置為0,因此無法參與后續(xù)的數(shù)據(jù)更迭。在使用中,一旦學(xué)習(xí)率超過模型能夠承受的范圍,就會導(dǎo)致超量神經(jīng)元失去響應(yīng),參數(shù)無法更新,模型無法繼續(xù)學(xué)習(xí),進而導(dǎo)致訓(xùn)練失敗[3];但如果學(xué)習(xí)率處于模型能夠承受的范圍內(nèi),這種變化函數(shù)可以降低神經(jīng)網(wǎng)絡(luò)的復(fù)雜性,進而減小過度擬合的可能性,使得模型相對更為精巧。

本項目中采用拉直層方式,即變化函數(shù)為f(x)=x,類似于ReLU函數(shù)。在神經(jīng)網(wǎng)絡(luò)中,隱藏層作為主要學(xué)習(xí)層,隱藏層的層數(shù)越多,該網(wǎng)絡(luò)結(jié)構(gòu)可學(xué)習(xí)的規(guī)則越復(fù)雜,但是一味增加網(wǎng)絡(luò)深度會造成前端隱藏層獲得學(xué)習(xí)規(guī)則,可是經(jīng)過多層傳遞后被遺忘。因此網(wǎng)絡(luò)結(jié)構(gòu)并非越多越好,需要根據(jù)數(shù)據(jù)情況進行調(diào)試。

在將數(shù)據(jù)帶入模型之前,還需要進行預(yù)處理,通常都采用歸一化的方式。在機器學(xué)習(xí)中,不同的輸入數(shù)據(jù)序列的范圍和大小都有非常大的區(qū)別,如果直接把數(shù)據(jù)帶入算法,會導(dǎo)致個別序列對整體計算結(jié)果的變化遠(yuǎn)超其他序列。這種僅僅因為數(shù)值較大而判斷其對整體計算結(jié)果有很大影響的情況,顯而易見是不合理的,會影響數(shù)據(jù)預(yù)測的結(jié)果,為了消除輸入數(shù)據(jù)序列之間的范圍和大小影響,需要進行歸一化。初始數(shù)據(jù)經(jīng)過預(yù)處理后,各輸入數(shù)據(jù)序列處于同一數(shù)量級。歸一化方法如下式所示。

深度神經(jīng)網(wǎng)絡(luò)的優(yōu)勢在于,它可以在沒有預(yù)先假設(shè)的前提下,找到一種映射關(guān)系,這種關(guān)系中最重要的兩個參數(shù),就是上文中提到的權(quán)重值和偏置項。這兩個參數(shù)都是通過損失函數(shù)確定。但是,損失函數(shù)并不是越小越好,如果只是單純追求損失函數(shù)最小化,就很可能會出現(xiàn)過度擬合的問題。過度擬合在數(shù)據(jù)上的表現(xiàn)為,這種擬合關(guān)系能非常好地預(yù)測訓(xùn)練模型的結(jié)果,但是由于缺乏普適性,在應(yīng)用于測試數(shù)據(jù)時,預(yù)測誤差會很大。

3? 人工神經(jīng)網(wǎng)絡(luò)模型調(diào)試

在本項目中,首先將初始數(shù)據(jù)序列按時間點重新劃分,將同一時刻采集到的各傳感器數(shù)據(jù)值作為一個單組,形成一個全新的時間序列,而后隨機抽取該時間序列的80%用于神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)訓(xùn)練階段,再將剩余的20%用于驗證測試階段。通過訓(xùn)練數(shù)據(jù)集得到的擬合關(guān)系,將其應(yīng)用于驗證數(shù)據(jù)集,通過擬合結(jié)果和真實結(jié)果的差異性判斷該模型的泛化能力。本次項目中間熱交換器出入口鈉溫的神經(jīng)網(wǎng)絡(luò)模型中,主要采用堆核功率、堆頂防護罩內(nèi)腔壓力、入口蒸餾水流量、出入口鈉流量、蒸發(fā)器給水流量、鈉泵流量、過熱器入口鈉溫、堆芯出口鈉溫、蒸汽發(fā)生器出口鈉溫作為輸入,中間熱交換器出口鈉溫、中間熱交換器入口鈉溫作為輸出。

首先將隱藏網(wǎng)絡(luò)層設(shè)置為兩層,使用L2型正則化方法優(yōu)化梯度下降公式,用于防止神經(jīng)網(wǎng)絡(luò)模型出現(xiàn)過度擬合的情況[4],正則化后梯度下降公式如下式所示。

式中,m為當(dāng)前層的數(shù)據(jù)個數(shù),yi代表第i個真實值,代表第i個預(yù)測值,代表第j個權(quán)重項,λ是模型復(fù)雜度的懲罰項,可以通過調(diào)整λ大小改變模型復(fù)雜度,用以提高模型泛化預(yù)測的精度。

項目首先采用自適應(yīng)梯度下降(Adam)優(yōu)化算法,該算法可以提升神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練速度,使模型在短時間內(nèi)收斂。在設(shè)定隱藏層為兩層、初步迭代次數(shù)為1000次后,模型均方誤差如圖2所示。

從圖2中可以看出,當(dāng)訓(xùn)練迭代次數(shù)達到200次左右時,模型在驗證測試數(shù)據(jù)集中的均方誤差已經(jīng)漸平不再繼續(xù)下降,這時如果不停止繼續(xù)訓(xùn)練,模型后續(xù)學(xué)到的規(guī)則為冗余的無用規(guī)則。因此在迭代200次后停止訓(xùn)練,此時學(xué)習(xí)訓(xùn)練集和測試驗證集的均方誤差分別為5.57和5.35。

在模型訓(xùn)練結(jié)束之后,將訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)批量帶入模型,查看模型訓(xùn)練集和測試集分別對應(yīng)的進出口溫度真實值與預(yù)測值的誤差分布情況。

由圖3和圖4可以看出,模型在隱藏層設(shè)置為兩層、迭代次數(shù)設(shè)置為200次時,部分情況下預(yù)測誤差相差較大。因此該模型結(jié)構(gòu)仍需調(diào)整以提高模型的預(yù)測準(zhǔn)確度,通過增加網(wǎng)絡(luò)隱藏層至三層后,模型針對訓(xùn)練集均方誤差縮減至2.04,測試集均方誤差縮減至1.92,進出口溫度真實值與預(yù)測值的誤差分布情況如圖5和圖6所示。

此時模型預(yù)測在訓(xùn)練集和測試集表現(xiàn)均較好。為了判斷模型是否可以具備更好的效果,基于當(dāng)前的模型訓(xùn)練結(jié)果,通過隨機梯度下降(sgd)優(yōu)化算法驗證模型是否處于全局最優(yōu)解。隨機梯度下降算法是為了防止模型陷入局部最優(yōu)點而設(shè)計的,該算法通過加入隨機梯度使模型可以跳出鞍點和局部最優(yōu)點,但同時該算法也增加了大量的計算過程,因此需要更多的學(xué)習(xí)步驟去優(yōu)化模型[5-6]。圖7是模型經(jīng)過1000次迭代后的均方誤差。

由圖7所示,模型分別在迭代180次、210次、320次、400次、500次、580次等位置附近多次出現(xiàn)極值點,但是在這些極值點對應(yīng)的最低均方誤差也高達10.9,測試集中最低的均方誤差則更高,達到11.06。隨機梯度下降算法下最低的兩種誤差均大于Adam算法迭代后的均方誤差值,因此經(jīng)過Adam算法訓(xùn)練后的模型為當(dāng)前最優(yōu)模型。

4? 結(jié)語

本文采用基于人工神經(jīng)網(wǎng)絡(luò)的方法對快堆傳感器數(shù)據(jù)進行分析,使用中國實驗快堆開堆實際數(shù)據(jù)建立了關(guān)于中間熱交換器出入口鈉溫的神經(jīng)網(wǎng)絡(luò)模型。就模型結(jié)果而言,通過堆芯出口鈉溫、堆核功率、堆頂防護罩內(nèi)腔壓力等參數(shù),擬合出的中間熱交換器出入口鈉溫模型,具有較好的泛用性。對于快堆非冗余傳感器,可以通過類似方式,通過其余冗余傳感器的擬合關(guān)系,得到目標(biāo)傳感器數(shù)據(jù)的大致區(qū)間范圍,實現(xiàn)非冗余傳感器故障有效監(jiān)測。因為這種監(jiān)測方式不需要進行物理拆卸和停堆,所以具有很好的經(jīng)濟性。

參考文獻

[1] 李偉.核電廠傳感器狀態(tài)監(jiān)測方法研究[D].哈爾濱:哈爾濱工程大學(xué),2018.

[2] 黃毅,段修生,孫世宇,等.基于改進sigmoid激活函數(shù)的深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練算法研究[J].計算機測量與控制,2017,25(2):126-129.

[3] 蔣昂波,王維維.ReLU激活函數(shù)優(yōu)化研究[J].傳感器與微系統(tǒng),2018,37(2):50-52.

[4] 張欣怡,袁宏俊.正則化和交叉驗證在組合預(yù)測模型中的應(yīng)用[J].計算機系統(tǒng)應(yīng)用,2020,29(4):18-23.

[5] 譚濤.基于卷積神經(jīng)網(wǎng)絡(luò)的隨機梯度下降優(yōu)化算法研究[D].重慶:西南大學(xué),2020.

[6] 張晉晶.基于隨機梯度下降的神經(jīng)網(wǎng)絡(luò)權(quán)重優(yōu)化算法[D].重慶:西南大學(xué),2018.

猜你喜歡
傳感器
像鱷魚皮般的傳感器
MXenes材料在傳感器中的應(yīng)用
康奈爾大學(xué)制造出可拉伸傳感器
艦船測風(fēng)傳感器安裝位置數(shù)值仿真
簡述傳感器在物聯(lián)網(wǎng)中的應(yīng)用
“傳感器新聞”會帶來什么
TS系列紅外傳感器在嵌入式控制系統(tǒng)中的應(yīng)用
跟蹤導(dǎo)練(三)2
光電傳感器在自動檢測和分揀中的應(yīng)用
基于感知數(shù)據(jù)分析的傳感器網(wǎng)絡(luò)覆蓋控制
盱眙县| 婺源县| 天台县| 泰顺县| 寿阳县| 呈贡县| 福安市| 谢通门县| 天台县| 四平市| 江孜县| 石河子市| 上犹县| 巴楚县| 玉田县| 文成县| 红安县| 安岳县| 罗定市| 什邡市| 梅州市| 万安县| 镇江市| 耿马| 腾冲县| 涪陵区| 五峰| 监利县| 苏州市| 普格县| 澄迈县| 峨山| 合肥市| 浪卡子县| 天长市| 江油市| 昔阳县| 锡林浩特市| 汶上县| 钦州市| 丹江口市|