国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

油井工況智能監(jiān)測與風(fēng)險(xiǎn)防控技術(shù)研究

2020-04-01 08:37
河南科學(xué) 2020年1期
關(guān)鍵詞:示功圖油井特征提取

王 勇

(北京交通大學(xué)國家經(jīng)濟(jì)安全研究院,北京 100044)

有桿抽油是采油中最常用的方法[1],實(shí)時(shí)監(jiān)控抽油機(jī)的工作狀態(tài)對于避免低效生產(chǎn)、防控生產(chǎn)隱患具有重要意義[2-4],其中工況診斷是其中重要的內(nèi)容之一,而工況診斷主要利用抽油井的示功圖進(jìn)行[5]. 近年來,隨著油田信息化建設(shè)的不斷完善,在井內(nèi)安裝了實(shí)時(shí)傳感器,傳感器按照一定的頻率進(jìn)行數(shù)據(jù)采集,實(shí)現(xiàn)示功圖實(shí)時(shí)測量、數(shù)據(jù)實(shí)時(shí)采集,形成了龐大的數(shù)據(jù)量. 傳統(tǒng)的示功圖識別方法無法實(shí)時(shí)處理如此大的工作量,同時(shí)現(xiàn)場工程師的經(jīng)驗(yàn)和知識會影響到識別的準(zhǔn)確性[6-8]. 隨著智能技術(shù)的發(fā)展,示功圖的自動識別方法逐漸形成,例如決策樹法[9]、灰色關(guān)聯(lián)分析法[10]、模式識別法[11]等,但這些方法精度較低[12]. 為了解決這些問題,引入了卷積神經(jīng)網(wǎng)絡(luò)模型,進(jìn)而利用監(jiān)督誤差反向傳播算法對基于卷積神經(jīng)網(wǎng)絡(luò)模型的示功圖識別模型進(jìn)行了訓(xùn)練和測試,實(shí)現(xiàn)工況的智能監(jiān)測與風(fēng)險(xiǎn)防范.

1 卷積神經(jīng)網(wǎng)絡(luò)

1.1 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

人工神經(jīng)網(wǎng)絡(luò)[13-15]是近年來熱度較高的智能方法之一,在多個(gè)領(lǐng)域得到了廣泛應(yīng)用,其中卷積神經(jīng)網(wǎng)絡(luò)[16](Convolutional Neural Networks,CNN)由于處理速度快、精度高,應(yīng)用更為廣泛. 卷積神經(jīng)網(wǎng)絡(luò)是一種前饋人工神經(jīng)網(wǎng)絡(luò),通過模擬動物視覺皮層組織建立神經(jīng)元的連接模式,實(shí)現(xiàn)了多層感知器的變異,從而避免了顯式特征的提取過程,大大提高了視覺識別的準(zhǔn)確性,目前CNN已在圖像和視頻識別[17]、推薦系統(tǒng)[18]和自然語言處理[19]等方面實(shí)現(xiàn)了廣泛的應(yīng)用. CNN結(jié)構(gòu)包括多個(gè)特征提取階段和一個(gè)分類器,且特征提取階段包括卷積層和下采樣層,其工作原理為:在每個(gè)特征提取階段,通過卷積運(yùn)算輸出更高層次的特征,并作為下一特征提取階段的輸入,直到最后一個(gè)特征提取階段,并將最后一個(gè)特征提取階段得到的輸出作為分類器的輸入,進(jìn)而實(shí)現(xiàn)識別與分類.

1.2 卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練

CNN通過學(xué)習(xí)得到輸入和輸出之間的映射關(guān)系,且通過設(shè)置網(wǎng)絡(luò)權(quán)值來體現(xiàn)這種映射關(guān)系,從而將逐層提取輸入數(shù)據(jù)特征的能力賦予CNN. 筆者基于監(jiān)督誤差反向傳播算法對CNN網(wǎng)絡(luò)進(jìn)行了學(xué)習(xí)訓(xùn)練,設(shè)置系統(tǒng)誤差函數(shù)為輸出誤差的平方和,在訓(xùn)練過程中,將誤差的計(jì)算結(jié)果不斷反向傳回,對應(yīng)更新網(wǎng)絡(luò)權(quán)值,CNN進(jìn)行重新學(xué)習(xí),直到系統(tǒng)誤差滿足要求. 整個(gè)訓(xùn)練過程包括正向傳播輸入信號和反向傳播計(jì)算誤差兩個(gè)過程. 正向傳播時(shí),CNN的輸入層直接獲取樣本圖像數(shù)據(jù),根據(jù)網(wǎng)絡(luò)權(quán)值逐層提取數(shù)據(jù)特征并通過中間隱藏層轉(zhuǎn)換輸出到輸出層. 反向傳播時(shí),計(jì)算原始樣本結(jié)果與正向傳播輸出之間的誤差,并通過反向傳播算法調(diào)整整個(gè)網(wǎng)絡(luò)的權(quán)重,以獲得最佳性能. CNN的詳細(xì)流程如下.

1.2.1 正向傳播

1)從訓(xùn)練集中抽取一個(gè)樣本,并將樣本數(shù)據(jù)輸入CNN.

2)首先進(jìn)行卷積運(yùn)算、下采樣運(yùn)算和分類器正向傳播輸入的樣本數(shù)據(jù),計(jì)算得到實(shí)際輸出,見公式(1).

式中:x為樣本數(shù)據(jù);y為輸出;tan h表示雙曲正切激活函數(shù);bij表示特征映射的偏差參數(shù);oij表示特征映射;r和c表示樣本的行數(shù)和列數(shù);gij表示特征圖oij的增益參數(shù);Ni表示第i層的次采樣率.

1.2.2 反向傳播

S1P與其受體的相互作用在膿毒癥早期可增強(qiáng)固有免疫并抑制適應(yīng)性免疫反應(yīng),促進(jìn)病原體清除,減輕膿毒癥早期的炎癥反應(yīng),減少組織和器官損傷,提高患者生存率。然而,在膿毒癥晚期免疫抑制階段,S1P持續(xù)減弱適應(yīng)性免疫反應(yīng)可導(dǎo)致二重感染的概率升高。

1)設(shè)置系統(tǒng)誤差函數(shù)為輸出誤差的平方和,計(jì)算實(shí)際輸出和理想輸出之間的誤差和;

式中:J為誤差和.

2)將誤差的計(jì)算結(jié)果反向傳回CNN,對應(yīng)更新網(wǎng)絡(luò)權(quán)值.

式中:α 為反向?qū)W習(xí)速率.

實(shí)際應(yīng)用過程中,通常采用批量訓(xùn)練技術(shù)進(jìn)行網(wǎng)絡(luò)的訓(xùn)練,在給出多個(gè)輸入和目標(biāo)后更新權(quán)重和偏差.

2 油井工況智能監(jiān)測與風(fēng)險(xiǎn)防控方法

CNN在圖像識別中的優(yōu)勢可以很好地在示功圖的識別過程中發(fā)揮,圖1為基于CNN的示功圖識別流程圖,包括數(shù)據(jù)采集、數(shù)據(jù)處理、結(jié)果輸出三個(gè)過程.

2.1 示功圖標(biāo)準(zhǔn)化

為了縮短訓(xùn)練時(shí)間,提高學(xué)習(xí)的收斂速度,有必要對網(wǎng)絡(luò)輸入數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化. 將原始的指標(biāo)圖作為CNN 的輸入,預(yù)處理成歸一化的二值圖像. 該模型將抽油機(jī)的位移矢量S和載荷矢量F繪制成64×64的二值圖像. 該圖使用位移矢量作為x軸,界限設(shè)置為[min(S),max(S)];使用載荷矢量作為y軸,界限設(shè)置為[min(F),max(F)].

2.2 CNN輸出設(shè)置

CNN 輸出層的神經(jīng)元數(shù)量等于定義的工況數(shù)量. 當(dāng)向CNN輸入一個(gè)示功圖時(shí),輸出層中只有一個(gè)神經(jīng)元獲得值1,剩余的神經(jīng)元輸出為0. CNN 的理想輸出模式如表1所示.

圖1 基于CNN的示功圖識別過程Fig.1 Dynamometer recognition process based on CNN

圖2 典型示功圖Fig.2 Typical dynamometer diagram

表1 CNN 模型的理想輸出模式Tab.1 Ideal output mode of CNN model

2.3 模型網(wǎng)格描述

本文采用的CNN指標(biāo)圖識別模型的結(jié)構(gòu)為LeNet-5[20]. LeNet-5包含兩個(gè)特征提取階段和一個(gè)神經(jīng)網(wǎng)絡(luò)分類器,見圖3.

圖3 具有兩個(gè)特征提取階段的CNN典型結(jié)構(gòu)Fig.3 Typical CNN structure with two feature extraction stages

本文設(shè)計(jì)將進(jìn)行標(biāo)準(zhǔn)化后的64×64灰度圖像作為CNN模型的輸入,通過訓(xùn)練學(xué)習(xí)得到一個(gè)8×1列向量作為輸出. CNN網(wǎng)絡(luò)的第一個(gè)特征提取階段包括卷積層C1和下采樣層S2.

C1層通過4個(gè)5×5的卷積核對原始圖像進(jìn)行卷積得到. 這使得C1層包含4個(gè)60×60的特征圖. 在C1層中,原始圖像和每個(gè)特征圖之間有1個(gè)5×5的卷積核和1個(gè)偏差. 需要訓(xùn)練的重量數(shù)為4×(5×5+1)=104.

在C1層的特征圖上,通過一對一的下采樣操作得到S2層. 下采樣分辨率設(shè)置為2×2. 因此,S2層中的特征圖尺寸為30×30,特征圖的數(shù)量為4. 每個(gè)下采樣操作都包含兩個(gè)訓(xùn)練參數(shù),即乘法偏差和加法偏差.S2層的重量為4×(1+1)=8.

CNN網(wǎng)絡(luò)的第二個(gè)特征提取階段包括卷積層C3和次采樣層S4. 卷積層C3共計(jì)14個(gè)卷積核的大小為5×5的特征映射,其分辨率為26×26. 每一個(gè)特征映射都與S2層的映射連接. 這樣的連接在減少了C3和S2層之間的連接數(shù)量的同時(shí)破壞網(wǎng)絡(luò)連接的對稱性. C3層和S2層之間的連接見圖4所示,圖中數(shù)字代表C3和S2層所包含的網(wǎng)絡(luò)映射. C3層所需權(quán)重?cái)?shù)量為5×5×14+14×1=364.

由于下采樣層S4的下采樣分辨率仍為2×2,因此輸出的結(jié)果為14個(gè)13×13的特征圖. 另外,每一個(gè)下采樣操作通過調(diào)整兩個(gè)訓(xùn)練參數(shù)實(shí)現(xiàn),故S4層的權(quán)重?cái)?shù)量為14×2=28.

C5層是卷積層,每個(gè)特征映射都連接到S4層的所有特征映射. 這種連接類型通常稱為完全連接. C5層包含120個(gè)1×1的特征圖,也可以看作是120維的列向量. 該層的卷積核大小為13×13. S4 層與C5 層連接數(shù)量為120×(13×13×14+1)=284 040,即權(quán)重?cái)?shù)量為284 040.

F6 層是1 個(gè)包含84 個(gè)節(jié)點(diǎn)的BP 神經(jīng)網(wǎng)絡(luò)的隱層. 該層權(quán)重?cái)?shù)量為84×(120+1)=10 164.

輸出層包含8 個(gè)節(jié)點(diǎn),得到1×8 的輸出列向量,矢量中最大值元素的位置對應(yīng)于網(wǎng)絡(luò)的分類結(jié)果.

2.4 實(shí)驗(yàn)結(jié)果

圖4 C3層與S2層的連接Fig.4 Connection between C3 and S2

利用從實(shí)際油田采集的示功圖集,對所提出的CNN 模型進(jìn)行了訓(xùn)練,從而驗(yàn)證模型的有效性. 數(shù)據(jù)集包括70口井的超過120 000張示功圖. 對示功圖均采用人工標(biāo)識方式進(jìn)行標(biāo)識為8類,形成包含32 000張示功圖的訓(xùn)練集. 針對每種工況隨機(jī)抽取80%作為訓(xùn)練集,其余作為測試集. 訓(xùn)練示功圖總數(shù)25 600張,測試示功圖總數(shù)6400張. 每種工作條件下的樣品數(shù)量如圖5所示.

圖5 實(shí)驗(yàn)樣本分布圖Fig.5 Distribution of experimental samples

在訓(xùn)練CNN模型之前,需要確定相關(guān)參數(shù),具體包括學(xué)習(xí)率η和訓(xùn)練次數(shù)s. 對于學(xué)習(xí)率η,過大的訓(xùn)練率可能導(dǎo)致訓(xùn)練過程不穩(wěn)定,過小的訓(xùn)練率會減慢訓(xùn)練的收斂速度,使訓(xùn)練周期過長,容易陷入局部最優(yōu).對于訓(xùn)練次數(shù)s,應(yīng)仔細(xì)確定訓(xùn)練次數(shù),以確保CNN得到充分的訓(xùn)練,同時(shí)不會過擬合. 根據(jù)前人的研究工作,本文模型選擇了學(xué)習(xí)率η=0.5,訓(xùn)練次數(shù)s=20.

本文CNN模型訓(xùn)練時(shí)間為5126 s,訓(xùn)練過程完成后,用測試樣本和訓(xùn)練樣本驗(yàn)證模型的識別精度,結(jié)果表明,訓(xùn)練樣本的識別誤差為1.53%,測試樣本的識別誤差為1.75%,基于CNN的示功圖識別模型的準(zhǔn)確度達(dá)到95%以上. CNN模型識別示功圖所需的平均時(shí)間僅為2.3 ms. 從結(jié)果可以看出,CNN模型的性能優(yōu)越.基于CNN的示功圖分類識別模型可以將油井實(shí)時(shí)采集的數(shù)據(jù)進(jìn)行分析評價(jià),實(shí)時(shí)智能監(jiān)控油井運(yùn)行狀況,提出風(fēng)險(xiǎn)預(yù)警,大大增強(qiáng)了規(guī)避風(fēng)險(xiǎn)的概率.

3 實(shí)際應(yīng)用效果

基于本文提出的方法,以國內(nèi)某油田為應(yīng)用對象,搜集了該油田近200萬組油井生產(chǎn)監(jiān)測數(shù)據(jù),對該數(shù)據(jù)進(jìn)行整理、清洗等前期預(yù)處理工作后繪制了相應(yīng)的示功圖圖片,并從中篩選建立了包含30余種工況的訓(xùn)練集. 通過該訓(xùn)練集對本文提出的CNN網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到了針對該油田的油井工況智能分析神經(jīng)網(wǎng)絡(luò),并形成了一套油井工況智能分析系統(tǒng),實(shí)現(xiàn)從數(shù)據(jù)采集到風(fēng)險(xiǎn)管控的全過程.

利用基于CNN模型所建立的油井工況智能分析系統(tǒng),對該油田的三個(gè)區(qū)塊開展智能生產(chǎn)管理,2018年度應(yīng)用情況表明:應(yīng)用本系統(tǒng)后,采油系統(tǒng)效率總體提升2.67%,工況合格率提升11%,防范風(fēng)險(xiǎn)成功率提高60%.

4 結(jié)論

1)基于深度學(xué)習(xí)技術(shù)建立了一套油井工況智能監(jiān)測與風(fēng)險(xiǎn)防控方法,實(shí)現(xiàn)了油井工況的自動評估、智能管理和防范風(fēng)險(xiǎn)的目標(biāo).

2)利用監(jiān)督誤差反向傳播算法對基于卷積神經(jīng)網(wǎng)絡(luò)模型的示功圖識別模型進(jìn)行了訓(xùn)練和測試,實(shí)驗(yàn)結(jié)果表明,基于深度學(xué)習(xí)技術(shù)的示功圖識別模型的準(zhǔn)確度達(dá)到95%以上.

3)礦場應(yīng)用后采油系統(tǒng)效率總體提升2.67%,工況合格率提升11%,防范風(fēng)險(xiǎn)成功率提高60%,具有一定的推廣價(jià)值.

猜你喜歡
示功圖油井特征提取
示功圖診斷單井液量異常的系統(tǒng)建設(shè)分析
油井遭襲
淺談示功圖在油田節(jié)能監(jiān)測工作中的應(yīng)用
油井復(fù)合解堵劑的性能評價(jià)
基于CNN遷移學(xué)習(xí)的示功圖圖形分類預(yù)警
面向剩余油挖潛的單油井控制區(qū)域劃分方法研究
空間目標(biāo)的ISAR成像及輪廓特征提取
基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
基于特征提取的繪本閱讀機(jī)器人設(shè)計(jì)方案
基于Daubechies(dbN)的飛行器音頻特征提取