国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于單目視覺的石化作業(yè)區(qū)外因明火感知與測(cè)量方法

2024-04-26 15:48:08段志偉豆全輝邵女
化工自動(dòng)化及儀表 2024年2期
關(guān)鍵詞:注意力機(jī)制圖像處理

段志偉 豆全輝 邵女

基金項(xiàng)目:國家自然科學(xué)基金(批準(zhǔn)號(hào):51474069)資助的課題。

作者簡(jiǎn)介:段志偉(1980-),副教授,從事測(cè)控技術(shù)與儀器的研究。

通訊作者:豆全輝(1996-),碩士研究生,從事工業(yè)自動(dòng)化與智能儀器的研究,18325795623@126.com。

引用本文:段志偉,豆全輝,邵女.基于單目視覺的石化作業(yè)區(qū)外因明火感知與測(cè)量方法[J].化工自動(dòng)化及儀表,2024,

51(2):199-206;318.

DOI:10.20030/j.cnki.1000-3932.202402008

摘 要 針對(duì)目前石化作業(yè)區(qū)外因火災(zāi)監(jiān)測(cè)方法大都沒有火源定位功能的現(xiàn)狀,提出基于單目視覺的外因明火感知與測(cè)量方法。首先改進(jìn)YOLO v7深度學(xué)習(xí)網(wǎng)絡(luò)的SiLU激活函數(shù),并引入注意力機(jī)制CBAM,使感知網(wǎng)絡(luò)獲得更好的準(zhǔn)確性、互適性;隨后基于相機(jī)成像原理建立物距與像素、分辨率等因子的多元關(guān)系測(cè)量模型進(jìn)行距離預(yù)測(cè)。實(shí)驗(yàn)表明:優(yōu)化后的網(wǎng)絡(luò)mAP_0.5值提升了2.2%,Precision值提升了5.0%,預(yù)測(cè)距離誤差率絕對(duì)值小于3.1%。

關(guān)鍵詞 單目視覺 明火感知 YOLO v7深度學(xué)習(xí) 圖像處理 注意力機(jī)制 多元關(guān)系

中圖分類號(hào) TP393.08?? 文獻(xiàn)標(biāo)志碼 A?? 文章編號(hào) 1000-3932(2024)02-0199-09

石化產(chǎn)業(yè)為我國現(xiàn)代化建設(shè)、科技化發(fā)展提供了有力支撐,但也存在著一定的安全問題[1]。因此,采取有效的石化作業(yè)區(qū)外因明火感知與定位具有重要意義。石化作業(yè)區(qū)外因明火主要來自機(jī)器熱源或人為活動(dòng)導(dǎo)致。前期小火源如果不能被及時(shí)發(fā)現(xiàn),極易擴(kuò)大,因此實(shí)時(shí)感知并定位石化作業(yè)區(qū)明火,能夠及時(shí)為消防人員和智慧消防系統(tǒng)提供信息反饋,有效防止火災(zāi)的發(fā)生。傳統(tǒng)的明火識(shí)別與預(yù)警模塊由感溫、感煙等傳感器組成,監(jiān)測(cè)范圍有限、檢測(cè)速度滯后,并且沒有測(cè)量定位功能[2]。筆者借助深度學(xué)習(xí)圖像處理網(wǎng)絡(luò)

YOLO,利用二維圖像結(jié)合深度信息源途徑模擬并完成單目視覺明火感知與測(cè)量作業(yè),以實(shí)現(xiàn)可視化并降低成本,為石化、造紙、紡織等場(chǎng)所的外因明火提供更準(zhǔn)確的感知、定位和較準(zhǔn)確的距離反饋。

1 算法原理

1.1 明火感知算法

1.1.1 YOLO v7網(wǎng)絡(luò)架構(gòu)

YOLO v7網(wǎng)絡(luò)主體由輸入端(input)、骨干網(wǎng)絡(luò)(backbone)、檢測(cè)頭(head)3部分組成,輸入端對(duì)圖片進(jìn)行預(yù)處理對(duì)齊成640×640×3規(guī)格的RGB圖片,由骨干網(wǎng)絡(luò)層得到3層輸出,在檢測(cè)頭層通過骨干網(wǎng)絡(luò)繼續(xù)輸出3層不同大小的特征圖,經(jīng)過Rep-VGG block和卷積對(duì)圖像進(jìn)行分類、前后背景分類和邊框預(yù)測(cè)后,最終輸出檢測(cè)結(jié)果[3,4]。

1.1.2 激活函數(shù)

激活函數(shù)位于骨干網(wǎng)絡(luò)層,作用是將神經(jīng)網(wǎng)絡(luò)非線性化。骨干網(wǎng)絡(luò)整體結(jié)構(gòu)由ELAN、MP-Conv、CBS模塊組成。SiLU激活函數(shù)位于CBS模塊中,CBS模塊由CBS-Conv(卷積層)+BN(Batch Norm)+SiLU組成[5]。從圖1所示的CBS模塊結(jié)構(gòu)可以看出,該模塊里有3種顏色,3種顏色對(duì)應(yīng)的卷積核k和步長s不同。

合適的激活函數(shù)能加快網(wǎng)絡(luò)的學(xué)習(xí)速度和性能。對(duì)比SiLU和Mish激活函數(shù),兩者都具有4個(gè)特點(diǎn):

a. 無上界,防止網(wǎng)絡(luò)飽和。

b. 有下界,能夠提高網(wǎng)絡(luò)的正則化效果。

c. 平滑。首先,與ReLU相比,在零值點(diǎn)連續(xù),可以減少一些不可預(yù)測(cè)的問題;其次,可以使網(wǎng)絡(luò)更容易優(yōu)化,提高泛化性能,一些較小的負(fù)輸入可以保留為負(fù)輸出,以提高網(wǎng)絡(luò)的可解釋性和梯度流。

d. 非單調(diào)。相對(duì)于ReLU,Mish具有連續(xù)可微特性,能夠有效避免奇點(diǎn),更好地執(zhí)行梯度優(yōu)化。

雖然SiLU激活函數(shù)和Mish激活函數(shù)都具有一致的特性和很相似的函數(shù)曲線,但是SiLU激活函數(shù)存在計(jì)算量大、網(wǎng)絡(luò)性能不穩(wěn)定的問題。如圖2所示,在一階導(dǎo)上界平滑過程中,Mish不僅表現(xiàn)出更小的閾值θ(圖2中θ、θ分別表示SiLU′激活函數(shù)和Mish′激活函數(shù)的上界閾值,不難看出θ<

θ),并且Mish表現(xiàn)出更快的平穩(wěn)度r(圖2中r、r分別表示SiLU′激活函數(shù)和Mish′激活函數(shù)從峰值逐漸趨于平穩(wěn)時(shí)的長度,不難看出r<r)。文獻(xiàn)[6]也提到,Mish激活函數(shù)在深度卷積層中表現(xiàn)出了更好的穩(wěn)定性,并且準(zhǔn)確度分別比SiLU和ReLU高出0.5%和1.7%[6]。

圖2 SiLU和Mish函數(shù)一階導(dǎo)數(shù)對(duì)比

1.1.3 CBAM注意力機(jī)制

為了提高YOLO v7網(wǎng)絡(luò)對(duì)外因明火目標(biāo)特征的提取效果,引入注意力機(jī)制是必要的。CBAM是一種前饋卷積神經(jīng)網(wǎng)絡(luò)簡(jiǎn)單而有效的注意模塊,即在給定輸入一個(gè)中間特征圖(Input Feature),該模塊會(huì)沿著兩個(gè)獨(dú)立的維度(通道和空間)依次推斷注意力圖,即通道注意力模塊(Channel Attention Module,CAM)和空間注意力模塊(Spartial Attention Module,SAM),這樣的好處是不僅節(jié)約了參數(shù)和計(jì)算力,還保證它能夠作為即插即用模塊集成到現(xiàn)有網(wǎng)絡(luò)架構(gòu)[7],CBAM注意力機(jī)制結(jié)構(gòu)如圖3所示。

本優(yōu)化算法是以YOLO v7網(wǎng)絡(luò)為基礎(chǔ)架構(gòu),為適應(yīng)石化作業(yè)區(qū)外因明火目標(biāo)的特征學(xué)習(xí),提高檢測(cè)性能和精度,將YOLO v7原CBS模塊中的SiLU激活函數(shù)替換為Mish激活函數(shù),并加入CBAM(Convolutional Block Attention Modul)注意力機(jī)制。優(yōu)化后的網(wǎng)絡(luò)模型如圖4所示,綠色部分即為優(yōu)化部分。

1.2 單目視覺測(cè)量模型

單目攝像頭成像可以簡(jiǎn)化為小孔成像模型,相當(dāng)于被拍攝物體的像通過小孔投影到感光元件CCD/CMOS上,即可得到倒立的實(shí)像,經(jīng)由傳感器將光信號(hào)轉(zhuǎn)換為模擬信號(hào)后發(fā)送至A/D轉(zhuǎn)換器,經(jīng)過數(shù)字信號(hào)處理器處理后將數(shù)據(jù)傳輸給CPU由LCD顯示出來或由MCU存儲(chǔ)圖像,此時(shí)即為人眼看到的像素圖像[8]。

單目視覺成像原理如圖5所示。

本研究使用的HBV-1714單目攝像頭具有80°視場(chǎng)角、3 mm可變焦距、支持無畸變拍攝、搭配OV9750傳感器(1/3英寸(1英寸=25.4 mm))、CMOS感光芯片(感光面長4.8 mm、寬3.6 mm),并且OV9750傳感器能夠在SXGA (1 280×960)分辨率下工作,具有60幀/秒(即FPS=60)的10位輸出,或45幀/秒的12位輸出。

根據(jù)單目視覺成像原理,攝像頭將拍攝的目標(biāo)從三維場(chǎng)景映射到二維平面上,圖6所示為單目視覺多元關(guān)系測(cè)量模型,該模型共涉及3個(gè)平面[9]:

a. 所示目標(biāo)位于原平面①;

b. 成像平面②,單目攝像頭透鏡中心點(diǎn)O所在水平光軸交②于點(diǎn)O′;

c. 像素平面③,長a、寬b(分辨率a×b=1280×960),目標(biāo)錨框長w(像素)、寬h(像素)。

YOLO v7網(wǎng)絡(luò)以平面③左上角為坐標(biāo)原點(diǎn)建立像素坐標(biāo)系O(u,v),目標(biāo)錨框左上點(diǎn)的像素坐標(biāo)為(u,v),右下點(diǎn)的像素坐標(biāo)(u,v),令目標(biāo)錨框中心點(diǎn)坐標(biāo)為(u,v)。

由圖6可知,△ABO∽△A′B′O,所以AB/A′B′=BO/B′O。因?yàn)锳B=H,BO=Zc,A′B′=(0.5h+|v-0.5b|)·K,B′O=(v+Δi),Δi=O′B′為水平偏移參數(shù),隨著目標(biāo)橫坐標(biāo)u的變化而變化,Δi=|u-0.5a|·K。綜上可得:

Zc=(1)

由圖6和式(1)可知,首先要根據(jù)實(shí)驗(yàn)環(huán)境求出參數(shù)V。模擬實(shí)驗(yàn),在高為50 cm處固定無俯仰角攝像頭,通過給定目標(biāo)位于光軸中線Zc=

200 cm時(shí),使用模型進(jìn)行檢測(cè)并輸出目標(biāo)錨框框選信息:目標(biāo)錨框高h(yuǎn)=58(像素),目標(biāo)錨框左上點(diǎn)坐標(biāo)(u,v)=(612,606),目標(biāo)錨框右下點(diǎn)坐標(biāo)(u,v)=(670,664),得到的目標(biāo)框中心點(diǎn)坐標(biāo)

(u,v)=((u-u)+u,(v-v)+v)=(641,635),代入式(1)求得V≈541695K。

考慮由于人為測(cè)量導(dǎo)致的偶然誤差和機(jī)械誤差,引入糾正系數(shù)η,得V=(541695±η)·K。

2 實(shí)驗(yàn)與結(jié)果分析

2.1 準(zhǔn)備工作

實(shí)驗(yàn)條件:模擬石化作業(yè)區(qū)外因明火條件,于室內(nèi)安全器皿內(nèi)點(diǎn)燃紙張產(chǎn)生明火;實(shí)驗(yàn)選用聯(lián)想R7200拯救者筆記本,Intel(R)Core(TM)i5-7300HQ CPU,8 GB內(nèi)存,NVIDIA GeForce GTX 1050Ti 4G獨(dú)立顯卡;在Windows 10 64位操作系統(tǒng)安裝Pytorch深度學(xué)習(xí)框架訓(xùn)練檢測(cè)模型,版本python 3.6,CUDA Version為11.7,torch為1.10,編譯器Pycharm。

深度學(xué)習(xí)網(wǎng)絡(luò)數(shù)據(jù)集準(zhǔn)備:使用Make Sense平臺(tái)將開源明火數(shù)據(jù)集640×640的2 471張圖片進(jìn)行標(biāo)注,并將訓(xùn)練集、驗(yàn)證集、測(cè)試集按照0.75:0.15:0.15分配。

實(shí)驗(yàn)以mAP_0.5、精確率P(Precision)及FPS(幀/秒)等指標(biāo)作為明火感知模型性能的評(píng)價(jià)指標(biāo)[11]。為更快獲得檢測(cè)模型幀率,設(shè)置檢測(cè)批大小為32(即每次驗(yàn)證batchsize=32個(gè)樣本,實(shí)現(xiàn)32個(gè)樣本每幀)。

2.2 明火感知

如圖7所示, YOLO v7每次迭代學(xué)習(xí)300輪(即Epoch=300輪),在步長20(即step=20),藍(lán)色柱狀圖表示mAP_0.5值,紅色柱狀圖表示抬升值:迭代學(xué)習(xí)0~20輪內(nèi)mAP_0.5值抬升最明顯,從10.7%抬升至62.1%,抬升值為51.4%;迭代120~140輪內(nèi)mAP_0.5值抬升幾乎為零;迭代140~300輪內(nèi)mAP_0.5值抬升值為負(fù),出現(xiàn)過擬合現(xiàn)象。

圖7 mAP_0.5值變化統(tǒng)計(jì)圖

進(jìn)一步觀察兩個(gè)損失指標(biāo)val/box_loss和

val/obj_loss值(val/box_loss是一種常見的機(jī)器學(xué)習(xí)指標(biāo),用于評(píng)估模型在驗(yàn)證集上的性能和訓(xùn)練過程中預(yù)測(cè)的目標(biāo)錨框損失情況;val/obj_loss常用于評(píng)估訓(xùn)練過程中的損失情況),損失指標(biāo)

val/box_loss和val/obj_loss的表現(xiàn)如圖8所示。

圖8 損失指標(biāo)val/box_loss和val/obj_loss的表現(xiàn)

觀察圖8a中val/box_loss值的表現(xiàn),在迭代100~150輪學(xué)習(xí)區(qū)間,預(yù)測(cè)的目標(biāo)錨框損失值早已趨于穩(wěn)定。觀察圖8b中val/obj_loss值的表現(xiàn),在迭代學(xué)習(xí)100~150輪時(shí)也已趨于穩(wěn)定,隨后出現(xiàn)了抬升;從而進(jìn)一步判斷出過擬合區(qū)間。綜合考慮,固定迭代周期為120輪/次。

原模型與優(yōu)化后的模型對(duì)比數(shù)據(jù)見表1。在Epoch為120輪時(shí),優(yōu)化激活函數(shù)對(duì)比其他激活函數(shù)的實(shí)驗(yàn)結(jié)果,相比于其他激活函數(shù),改進(jìn)了Mish激活函數(shù)網(wǎng)絡(luò)的mAP_0.5值和P值最高,分別為75.2%和81.3%,mAP_0.5值優(yōu)于原網(wǎng)絡(luò)0.3%,P值優(yōu)于原網(wǎng)絡(luò)5.8%;對(duì)于不同注意力機(jī)制的對(duì)比實(shí)驗(yàn),在Epoch為120時(shí),更改激活函數(shù)為Mish函數(shù),并在Head層加入注意力機(jī)制,相比于CA注意力機(jī)制,加入CBAM注意力機(jī)制的mAP_0.5值和P值最高,分別為77.1%和80.5%,mAP_0.5值和P值分別優(yōu)于CA注意力機(jī)制1.6%和6.2%。

圖9所示為優(yōu)化前、后mAP_0.5值與P值對(duì)比結(jié)果,經(jīng)平滑處理后,mAP_0.5值和P值變化為紅色曲線,其結(jié)果均較好于原網(wǎng)絡(luò)藍(lán)色曲線。

圖9 優(yōu)化前、后mAP_0.5值與P值對(duì)比結(jié)果

以上實(shí)驗(yàn)證明,在Epoch為120輪、優(yōu)化激活函數(shù)為Mish、在Head層加入CBAM注意力機(jī)制,相比于最初的網(wǎng)絡(luò)模型有很大提升,優(yōu)化后的mAP_0.5值從74.9%抬升至77.1%,提升了2.2%;P值從75.5%抬升至80.5%,提升了5%;并且優(yōu)化后的網(wǎng)絡(luò)模型FPS值提高為原網(wǎng)絡(luò)FPS值的28.4%,表明改進(jìn)方法能夠?yàn)槭鳂I(yè)區(qū)外因明火提供更準(zhǔn)確的感知。

2.3 單目視覺測(cè)量驗(yàn)證

模擬實(shí)驗(yàn)作業(yè)區(qū),在固定攝像頭高度H為

50 cm時(shí),根據(jù)圖6像素平面內(nèi)坐標(biāo)系O(u,v)和目標(biāo)在世界坐標(biāo)系中的大小,可知Zc預(yù)測(cè)值的影響因子主要來自橫坐標(biāo)u0的水平偏移和縱坐標(biāo)v0的變化?,F(xiàn)基于優(yōu)化后的明火感知網(wǎng)絡(luò),測(cè)試單目測(cè)距模型,驗(yàn)證以下兩種情況:

a. 情況一,目標(biāo)位于所在平面中線(straight);

b. 情況二,目標(biāo)位于所在平面中線兩側(cè)(左側(cè)bias_left、右側(cè)bias_right),由于目標(biāo)位于平面兩側(cè)情況相同,在式(1)中|u0-0.5a|得以體現(xiàn),因此本實(shí)驗(yàn)只需驗(yàn)證右側(cè)即可。

如圖10所示的驗(yàn)證結(jié)果,目標(biāo)分別位于平面中線和右側(cè);將實(shí)際距離與預(yù)測(cè)距離的誤差繪制為條形統(tǒng)計(jì)圖,如圖11所示。

針對(duì)情況一(圖10a),straight在80~200 cm,實(shí)驗(yàn)驗(yàn)證了2×13組,即A1和A2兩組各13種不同位置,在Zc為80~200 cm、位置步長10 cm(step=10)時(shí)的預(yù)測(cè)情況,預(yù)測(cè)距離與實(shí)際距離存在的誤差如圖11a的straight=80~200 cm誤差統(tǒng)計(jì)所示;針對(duì)情況二(圖10b),bias_right在90~160 cm,

圖10 目標(biāo)分別位于平面中線和右側(cè)預(yù)測(cè)情況

驗(yàn)證了2×8組,即B1和B2兩組各8種不同位置,在Zc為90~160 cm、相同位置步長時(shí)的預(yù)測(cè)情況,預(yù)測(cè)距離與實(shí)際距離的誤差如圖11b的bias_right=90~160 cm誤差統(tǒng)計(jì)所示。

圖11 目標(biāo)分別位于平面中線和右側(cè)

預(yù)測(cè)誤差統(tǒng)計(jì)

分析圖11a:由A組的預(yù)測(cè)表現(xiàn)可知,誤差范圍在-1.4~5.4 cm,最大誤差率不大于3.1%;分析圖11b中B組的預(yù)測(cè)表現(xiàn)可知,誤差范圍在-1.9~4.7 cm,最大誤差率不大于2.9%,基本滿足短距離內(nèi)目標(biāo)測(cè)量的可接受誤差。

2.4 消融實(shí)驗(yàn)

現(xiàn)用消融實(shí)驗(yàn)驗(yàn)證優(yōu)化后的感知網(wǎng)絡(luò)對(duì)比YOLO v5中不同權(quán)重文件5s、5m、m6的學(xué)習(xí)結(jié)果,詳見表2,可以看出,改進(jìn)后的YOLO v7網(wǎng)絡(luò)的mAP_0.5值、P值、FPS值均優(yōu)于YOLO v5網(wǎng)絡(luò)。

進(jìn)一步對(duì)比加入單目測(cè)距模型后的優(yōu)化網(wǎng)絡(luò)與原始網(wǎng)絡(luò)的性能,明火目標(biāo)分別位于所在平面中線左側(cè)bias_left=120 cm、平面中線straight=130 cm、平面中線右側(cè)bias_right=120 cm時(shí),原網(wǎng)絡(luò)/優(yōu)化后網(wǎng)絡(luò)模型感知與測(cè)距效果對(duì)比結(jié)果如圖12所示。

分析圖12,通過對(duì)比第1組,在bias_left=

120 cm時(shí),原模型目標(biāo)預(yù)測(cè)值mAP_0.5=74%、Zc=117.8 cm,優(yōu)化后的模型目標(biāo)預(yù)測(cè)值mAP_0.5=32%、Zc=120.0 cm;對(duì)比第2組,在straight=130 cm的原模型出現(xiàn)了漏檢情況,而優(yōu)化后的模型目標(biāo)預(yù)測(cè)值mAP_0.5=69%、Zc=132.2 cm;對(duì)比第3組,在bias_right=120 cm時(shí)原模型目標(biāo)預(yù)測(cè)值mAP_0.5=74%,Zc=119.5 cm,優(yōu)化后的模型目標(biāo)預(yù)測(cè)值mAP_0.5=65%,Zc=120.2 cm,以上3組對(duì)照實(shí)驗(yàn)表明優(yōu)化后的網(wǎng)絡(luò)模型降低了漏檢率且距離感知更為準(zhǔn)確。

由以上實(shí)驗(yàn)結(jié)果可知,筆者提出的感知與測(cè)量方法對(duì)外因明火目標(biāo)的感知體現(xiàn)了更好的感知效果,對(duì)目標(biāo)錨的框選體現(xiàn)了較好的定位能力。

3 結(jié)束語

筆者通過模擬石化作業(yè)區(qū)外因明火初期火情,提出基于單目視覺的化工作業(yè)區(qū)外因明火中心感知與測(cè)量系統(tǒng)。經(jīng)過對(duì)目標(biāo)位于兩種情況——兩組21個(gè)不同位置的驗(yàn)證,實(shí)驗(yàn)表明優(yōu)化后的YOLO v7網(wǎng)絡(luò)在加入了多元關(guān)系測(cè)量模型后,對(duì)外因明火感知有更好的適應(yīng)性,能夠做到明火目標(biāo)框中心定位和測(cè)量的可視化,可為石化、造紙、紡織等場(chǎng)所作業(yè)區(qū)等,明令禁火場(chǎng)所的消防工作提供可視化感知與明火定位和較好的距離反饋的積極參考。

參 考 文 獻(xiàn)

[1] 王志芳,謝文奮,李大寶.煉油裝置報(bào)警優(yōu)化治理[J].化工自動(dòng)化及儀表,2022,49(3):394-397;400.

[2] 王一旭,肖小玲,王鵬飛,等.改進(jìn)YOLO v5s的小目標(biāo)煙霧火焰檢測(cè)算法[J].計(jì)算機(jī)工程與應(yīng)用,2023,59(1):72-81.

[3] 李淑娟,任朋欣,薛丁丹,等.基于YOLOv3目標(biāo)檢測(cè)的液位測(cè)量方法研究[J].化工自動(dòng)化及儀表,2022,

49(3):280-285.

[4] 吳興輝,何赟澤,周輝,等.改進(jìn)YOLO v7算法下的監(jiān)控水域環(huán)境人員識(shí)別研究[J/OL].電子測(cè)量與儀器學(xué)報(bào):1-11[2023-04-21].

[5] MUNIR A, SAGHEER A,AREEJ F, et al.Deep Tran-

sfer Learning-Based Animal Face Identification Model Empowered with Vision-Based Hybrid Approach[J].Applied Sciences,2023,13(2):1178-1197.

[6]?? MISRA D. Mish:A Self Regularized Non-Monotonic Activation Function[J].arXiv:Machine Learning,2019.

10.48500/arXiv.1908.08681.

[7]?? LUO M L,XU L H,YANG Y L,et al.Laboratory Flame Smoke Detection Based on an Improved YOLOX Algorithm[J].Applied Sciences,2022,12(24):12876.

[8] 盧偉,鄒明萱,施浩楠,等.基于YOLO v5-TL的褐菇采摘視覺識(shí)別-測(cè)量-定位技術(shù)[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2022,53(11):341-348.

[9] SHI Z,XU Z M,WANG T X.A method for detecting pedestrian height and distance based on monocular vision technology[J].Measurement,2022. https://www.medsci.cn/sci/show_paper.asp?id=b9eac1c3e7965099.

[10] 王冠寧,陳濤,米文忠,等.基于凸殼理論的監(jiān)控?cái)z像頭部分遮擋場(chǎng)景下火焰定位方法[J].清華大學(xué)學(xué)報(bào)(自然科學(xué)版),2022,62(2):277-284.

[11] 李善誠.石化真火模擬訓(xùn)練裝置池火模擬效果評(píng)價(jià)[J].消防科學(xué)與技術(shù),2021,40(3):398-401.

(收稿日期:2023-04-23,修回日期:2023-05-16)

Sensing and Measurement Method for External Causesincurred Open Flames in Petrochemical Operation Area Based on Monocular Vision

DUAN Zhiwei, DOU Quanhui, SHAO Nv

(School of Physics and Electronic Engineering, Northeast Petroleum University)

Abstract?? Considering the fact that most external fire monitoring methods for petrochemical areas have no fire sourcepositioning function, an external causesincurred fire sensing and measurement system based on monocular vision was proposed. Firstly, having SiLU activation function of YOLO v7 deep learning network improved and attention mechanism CBAM introduced to raise sensing networks accuracy and interoperability; secondly, having the camera imaging based to establish multivariate relationship measurement model of the object distance, pixel, resolution and other factors so as to predict the distance. Experimental results show that, the mAP_0.5 value and Precision value of the optimized network can be increase by 2.2% and 5.0%, respectively, and the absolute value of predicted distance error rate is less than 3.1%.

Key words?? monocular vision, open fire sensing, YOLO v7 deep learning, image processing, attention mechanism, multiple relations

猜你喜歡
注意力機(jī)制圖像處理
面向短文本的網(wǎng)絡(luò)輿情話題
基于自注意力與動(dòng)態(tài)路由的文本建模方法
基于深度學(xué)習(xí)的問題回答技術(shù)研究
基于圖像處理的機(jī)器人精確抓取的設(shè)計(jì)與實(shí)現(xiàn)
機(jī)器學(xué)習(xí)在圖像處理中的應(yīng)用
電子制作(2018年18期)2018-11-14 01:48:20
基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
基于注意力機(jī)制的雙向LSTM模型在中文商品評(píng)論情感分類中的研究
軟件工程(2017年11期)2018-01-05 08:06:09
InsunKBQA:一個(gè)基于知識(shí)庫的問答系統(tǒng)
模糊圖像處理,刑事偵查利器
圖像處理技術(shù)的實(shí)戰(zhàn)應(yīng)用
灵宝市| 宝兴县| 苏尼特左旗| 德保县| 营口市| 南郑县| 小金县| 汶川县| 丰宁| 黑河市| 嘉荫县| 买车| 保靖县| 孟村| 秭归县| 洪泽县| 桓台县| 会理县| 和静县| 军事| 马边| 腾冲县| 昂仁县| 梅州市| 桦川县| 康平县| 耿马| 犍为县| 台安县| 甘谷县| 五指山市| 辉县市| 尼木县| 扶余县| 绵竹市| 铁力市| 石阡县| 清水河县| 汕尾市| 赫章县| 林芝县|