国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度學習的示功圖多混合故障診斷

2022-05-12 06:08魏航信
機電工程技術(shù) 2022年3期
關(guān)鍵詞:示功圖卷積神經(jīng)網(wǎng)絡(luò)

魏航信,張 青

(西安石油大學機械工程學院,西安 710065)

0 引言

基于抽油機示功圖的工況識別是石油生產(chǎn)中的一個重要問題,特別是在智慧油田。傳統(tǒng)的方法是基于BP神經(jīng)網(wǎng)絡(luò),RBF神經(jīng)網(wǎng)絡(luò)[1-2],支持向量機(SVM)[3]或電功圖[4-5],這些方法正確率低。

近年來,深度學習算法在圖像識別、故障診斷[6]等方面得到了廣泛的應(yīng)用。卷積神經(jīng)網(wǎng)絡(luò)(CNN)已經(jīng)成為一個強大的、通用的深度學習模型[7-9]。許多研究者對CNN的結(jié)構(gòu)及其在圖像分類識別中的應(yīng)用進行了成功的研究。Verma A[10]提出了一種壓縮卷積神經(jīng)網(wǎng)絡(luò)模型,即CNDS,該模型尺寸小,速度快。Pathak A R[11]研究了深度學習在計算機視覺領(lǐng)域的應(yīng)用,如圖像分類、模式識別。A Kolsch[12]對卷積神經(jīng)網(wǎng)絡(luò)進行了改進,提出了用于文檔圖像分類實時訓練和測試的極限學習機,可以減少訓練次數(shù),提高識別精度。

由于抽油機示功圖用圖形表示,因此可以采用深度學習算法進行識別。與傳統(tǒng)方法相比,深度學習可以自動識別圖像特征,不需要計算特征參數(shù)。因此,深度神經(jīng)網(wǎng)絡(luò)方法尤其適用于示功圖圖像識別[13-14]。

目前常用的文本識別系統(tǒng)是LeNet-5和Alexnet。但是Alexnet有很多參數(shù),卷積核需要傳回,訓練時間長[15]。MNIST數(shù)據(jù)集的LeNet-5分類準確率可達99.2%。然而,示功圖比文本圖像復雜。此外,LeNet-5分類的每個類別都是單獨的,即LeNet-5網(wǎng)絡(luò)對于一個輸入圖像只能輸出一種類型的模式(工作條件)。但抽油機的一張示功圖可能代表兩類。因此,LeNet-5不能直接用于示功圖識別。

由于神經(jīng)網(wǎng)絡(luò)參數(shù)的選擇需要經(jīng)驗和實驗,并且神經(jīng)網(wǎng)絡(luò)的參數(shù)也不是最優(yōu)的。因此,需要一種最優(yōu)方法來確定神經(jīng)網(wǎng)絡(luò)的參數(shù)。本文采用粒子群優(yōu)化(PSO)算法[16-17]。

為此,本文設(shè)計了一種改進的神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)有3個卷積子層和3個池化子層。每個卷積的初始化特征映射數(shù)分別為10、10、10。初始化時,每個池化子層的特征映射數(shù)也分別為10、10和10。然后用PSO對參數(shù)進行優(yōu)化。在CNN識別出輸入示功圖的特征變量后,全連接神經(jīng)網(wǎng)絡(luò)可以將其分類為12種類型。

1 示功圖種類

根據(jù)延長油田等特低滲透油田油井工況,常見的工況有12種,如圖1所示。

圖1 常見的抽油機工況對應(yīng)的示功圖

2 深度學習算法

2.1 改進的深度學習神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

使用現(xiàn)場采集的示功圖一般為.txt文件,分為兩列,第一列為懸點位移,第二列為懸點載荷。為了進行示功圖可視化診斷,首先將示功圖數(shù)據(jù)繪制成圖形,然后將其輸入神經(jīng)網(wǎng)絡(luò)。

根據(jù)示功圖診斷特點,建立了示功圖識別神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),如圖2所示。網(wǎng)絡(luò)有9層,該網(wǎng)絡(luò)的輸入信號為示功圖,像素大小為68×68,輸出信號是油井的工況。卷積層為C1、C3、C5,池化層為S2、S4、S6。第一層C1有d1個特征圖,卷積核為5×5,C1的輸出是64×64;第二層S2有d1個特征圖,輸出為32×32;第三層C3有d2個特征圖,卷積核為5×5,C3的輸出是28×28;第四層S4有d2個特征圖,輸出為14×14;第五層C5有d3個特征圖,卷積核為5×5,C5輸出是10×10;第六層S6有d3個特征圖,輸出為5×5。F7、F8、F9為全連接層,F(xiàn)7、F8分別有10個節(jié)點,F(xiàn)9分別有12個節(jié)點。最后一層F9是分類層,其為一種分類器,可以將輸入的示功圖分成1或者2類。

圖2 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示意圖

2.2 CNN網(wǎng)絡(luò)結(jié)構(gòu)算法

輸入層C1、C3、C5的輸出如下:

C1層之后是ReLU激活函數(shù)。ReLU對輸入的每個元素執(zhí)行閾值操作,其中任何小于0的值都被設(shè)為0。

式中:i=1,3,5;對于C1,j=1,2,…,d1;對于C3,j=1,2,…,d2;對于C5,j=1,2,…,d3;O為每個卷積神經(jīng)網(wǎng)絡(luò)的輸出,b為網(wǎng)絡(luò)的偏置,a和m為中間變量,ReLU為激活函數(shù)。

對于池化層,輸出可以寫成:

式中:i=2,4,6;對于S2,j=1,2,…,d1;對于S4,j=1,2,…,d2;對于S6,j=1,2,…,d3;O為每個池化層的輸出;gij為特征圖的增益參數(shù);Ni為特征的子采樣率。

全連接神經(jīng)網(wǎng)絡(luò)F7和F8如下:

激活函數(shù)為:

式中:yi為第9層網(wǎng)絡(luò)的輸出,1>yi>0且

輸出層F9是一個分類器,與傳統(tǒng)分類器不同,該層輸出的故障類型不是排它性的單一故障種類。

2.3 神經(jīng)網(wǎng)絡(luò)PSO優(yōu)化

深度學習神經(jīng)網(wǎng)絡(luò)的層數(shù)和節(jié)點數(shù)對其性能有很大的影響。網(wǎng)絡(luò)中節(jié)點過多會減慢學習速度,而節(jié)點過少則會降低訓練精度。因此,有必要選擇合理數(shù)量的神經(jīng)網(wǎng)絡(luò)節(jié)點和層數(shù)[18]。對于所建立的深度學習神經(jīng)網(wǎng)絡(luò)模型,采用粒子群優(yōu)化學習算法對深度學習神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)進行優(yōu)化[19]。通過優(yōu)化節(jié)點數(shù)、網(wǎng)絡(luò)層數(shù)和學習速率,可提高深度學習神經(jīng)網(wǎng)絡(luò)的訓練精度,縮短訓練時間。

PSO優(yōu)化深度學習神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。包括數(shù)據(jù)獲取、神經(jīng)網(wǎng)絡(luò)模型訓練與優(yōu)化和神經(jīng)網(wǎng)絡(luò)模型測試3個模塊。在數(shù)據(jù)獲取模塊中,將示功圖數(shù)據(jù)轉(zhuǎn)換為標準圖像;在模型訓練優(yōu)化模塊中,采用PSO算法對深度學習神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)和參數(shù)進行優(yōu)化;在模型測試模塊中,對訓練好的神經(jīng)網(wǎng)絡(luò)進行測試,以驗證其故障診斷的正確性。具體步驟如下。

圖3 PSO優(yōu)化后的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

(1)采集示功圖信號。數(shù)據(jù)的格式為文本文件,有兩列。第一列數(shù)據(jù)為荷載(kN),第二列數(shù)據(jù)為懸點位移(m)。

(2)將示功圖的文本文件轉(zhuǎn)化為標準圖像,具體過程見3.1節(jié)。

(3)初始化卷積神經(jīng)網(wǎng)絡(luò)和全連接網(wǎng)絡(luò)的參數(shù)。CNN的初始層數(shù)為3,學習速率為0.000 5。

(4)利用粒子群算法搜索每個參數(shù)的局部最優(yōu)位和全局最優(yōu)位置,然后對其進行修正。公式如下:

(5)更新神經(jīng)網(wǎng)絡(luò)的權(quán)值后,用一組測試樣本計算神經(jīng)網(wǎng)絡(luò)的準確率。如果精度不是最高,則返回步驟(4),否則返回步驟(6)。

(6)將PSO優(yōu)化后的參數(shù)引入深度學習神經(jīng)網(wǎng)絡(luò),對示功圖進行診斷。

3 示功圖識別

3.1 神經(jīng)網(wǎng)絡(luò)的實驗環(huán)境及部分參數(shù)

示功圖的故障診斷是在電腦上進行的,其中計算機硬件為:CPUAMDFX(tm)3.80 GHz,內(nèi)存單元8 GHz,軟件為Matlab R2018a。

在延長油田采集了12種示功圖2 000張。將每個圖像都根據(jù)經(jīng)驗進行標記,然后將1 400幅圖像作為訓練樣本,600幅圖像作為測試樣本。

從油田采集的示功圖數(shù)據(jù)為文本文件,然而輸入的訓練數(shù)據(jù)是一個示功圖,像素為68×68,因此,需要將文本文件轉(zhuǎn)換為標準圖像。流程如圖4所示,具體如下。

圖4 訓練樣本的制作

(1)用Matlab將所采集到的數(shù)據(jù)繪制成示功圖,如圖4(a)所示;

(2)刪除示功圖周圍的空間,使圖最大化,如圖4(b)所示;

(3)將圖形保存為圖像(.jpg);

(4)在Matlab中重新加載圖像,壓縮到68×68,并將該彩色圖像變成灰色圖像,然后把它保存到一個變量中,將矩陣歸一化,如圖4(c)所示;

(5)矩陣可以作為神經(jīng)網(wǎng)絡(luò)的訓練樣本,示功圖的訓練圖像如圖4(d)所示。

3.2 神經(jīng)網(wǎng)絡(luò)訓練

由于示功圖有12個類別,神經(jīng)網(wǎng)絡(luò)的輸出層可以分12類。例如,如果神經(jīng)網(wǎng)絡(luò)將示功圖診斷為第5類,則第5個元素為1,其他元素均為0。需注意,一張示功圖可能包含兩種工況,因此本文的神經(jīng)網(wǎng)絡(luò)可以對同一訓練樣本的示功圖進行兩種故障類型的分類。例如,一個示功圖在有類型4和類型5兩種故障類型,則訓練標簽為[0 0 0 1 1 0 0 0 0 0 0 0]。

以神經(jīng)網(wǎng)絡(luò)訓練時迭代次數(shù)最少為優(yōu)化目標,用PSO算法對神經(jīng)網(wǎng)絡(luò)節(jié)點數(shù)進行優(yōu)化,優(yōu)化過程如圖5所示,優(yōu)化了3個卷積層的節(jié)點數(shù),圖中顯示了其中2個卷積層節(jié)點數(shù)。最少的訓練迭代次數(shù)為109。經(jīng)過PSO優(yōu)化后神經(jīng)網(wǎng)絡(luò)節(jié)點數(shù):卷積層節(jié)點數(shù)分別為20、16、16,其維數(shù)為64×64×20、28×28×16、10×10×16,池化層節(jié)點數(shù)分別為20、16、16,其維數(shù)為32×32×20、14×14×16、5×5×16。

圖5 神經(jīng)網(wǎng)絡(luò)節(jié)點數(shù)及PSO優(yōu)化過程

對PSO優(yōu)化后的神經(jīng)網(wǎng)絡(luò)模型進行訓練,此時模型在訓練集上的準確率達到了99.4%,在測試集上的識別精度為94%,如圖6所示。

圖6 PSO優(yōu)化后的神經(jīng)網(wǎng)絡(luò)訓練過程

為了比較本文提出的模型的性能,將AlexNet、CNN、PSO優(yōu)化后的CNN網(wǎng)絡(luò)結(jié)構(gòu)性能進行比較,結(jié)果如圖7所示,可以看到經(jīng)過PSO優(yōu)化后的CNN在快速收斂的同時,其預測精度高于其他模型;此外由于樣本數(shù)據(jù)規(guī)模較小,所以CNN網(wǎng)絡(luò)模型存在欠擬合;相較于PSO優(yōu)化后的CNN模型,AlexNet在訓練收斂速度以及結(jié)果預測精度均有一定的差距。

圖7 不同網(wǎng)絡(luò)性能比較

3.3 神經(jīng)網(wǎng)絡(luò)對示功圖的識別結(jié)果

利用測試樣本對神經(jīng)網(wǎng)絡(luò)進行測試,以兩張示功圖為例,如圖8所示。第一個示功圖屬于第2類工況。通過對圖像的識別,神經(jīng)網(wǎng)絡(luò)輸出為[0 0.902 0.011 0 0 0 0 0.217 0 0 0 0]。所以可以確定其應(yīng)該是第2類(供液不足)。對于第2個示功圖,屬于第4類和第5類工況。這個示功圖有兩類故障類型,神經(jīng)網(wǎng)絡(luò)的輸出為[0 0 0.002 0.807 0.901 0.001 0 0 0 0 0 0]??梢钥吹?,第4個元素是0.807,第5個元素是0.901。結(jié)果表明,該神經(jīng)網(wǎng)絡(luò)可以識別兩種故障類型。

圖8 示功圖診斷

通過多次訓練,識別結(jié)果如表1所示,由表可知,平均識別正確率為94%,對示功圖的平均識別時間為0.021 s。從而驗證了本文所提出的神經(jīng)網(wǎng)絡(luò)的可靠性和準確性。

表1 訓練和測試神經(jīng)網(wǎng)絡(luò)精確度

4 結(jié)束語

本文研究了一種基于深度學習的油井工況識別方法。設(shè)計了改進的深度學習神經(jīng)網(wǎng)絡(luò),包括CNN和全連接網(wǎng)絡(luò)?;谏疃葘W習的神經(jīng)網(wǎng)絡(luò)訓練包括前饋傳遞和反向傳播傳遞。在前饋傳遞過程中,將示功圖輸入神經(jīng)網(wǎng)絡(luò),計算期望輸出與實際輸出之間的誤差。在反向傳播通過過程中,根據(jù)誤差和學習速率對權(quán)值和偏差值進行修正。采用PSO對深度學習神經(jīng)網(wǎng)絡(luò)進行優(yōu)化。利用2 000張示功圖模擬神經(jīng)網(wǎng)絡(luò)的訓練過程和測試過程。對示功圖的平均識別時間為0.021s,訓練精度為99.4%,識別精度為94%,驗證了該神經(jīng)網(wǎng)絡(luò)的可靠性和準確性。

猜你喜歡
示功圖卷積神經(jīng)網(wǎng)絡(luò)
基于遞歸模糊神經(jīng)網(wǎng)絡(luò)的風電平滑控制策略
示功圖診斷單井液量異常的系統(tǒng)建設(shè)分析
基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
淺談示功圖在油田節(jié)能監(jiān)測工作中的應(yīng)用
基于CNN遷移學習的示功圖圖形分類預警
卷積神經(jīng)網(wǎng)絡(luò)的分析與設(shè)計
神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
從濾波器理解卷積
基于神經(jīng)網(wǎng)絡(luò)的中小學生情感分析
基于模式識別技術(shù)的油井工況診斷
四子王旗| 临颍县| 磴口县| 政和县| 舒兰市| 凭祥市| 辽源市| 遵义县| 木兰县| 丰原市| 星子县| 县级市| 红河县| 赤城县| 张北县| 法库县| 平定县| 东丰县| 扎兰屯市| 和顺县| 塔城市| 中西区| 渝中区| 肥东县| 鞍山市| 乌兰浩特市| 文成县| 莎车县| 三门峡市| 东乡县| 且末县| 万山特区| 苍山县| 思茅市| 偏关县| 桂平市| 云林县| 成安县| 开鲁县| 静乐县| 庄浪县|