国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度學(xué)習(xí)的糧庫測控技術(shù)研究進(jìn)展

2021-03-16 03:28:48李智慧
中國糧油學(xué)報(bào) 2021年2期
關(guān)鍵詞:糧庫準(zhǔn)確率卷積

高 輝 甄 彤 李智慧

(糧食信息處理與控制重點(diǎn)實(shí)驗(yàn)室;河南工業(yè)大學(xué)信息科學(xué)與工程學(xué)院,鄭州 450001)

目前,中國糧食的播種面積約為17.41億畝,糧食總產(chǎn)量達(dá)6.64億t,糧食的產(chǎn)量及消費(fèi)量均占到全球糧食生產(chǎn)量與消費(fèi)量的四分之一[1,2]。

糧庫測控技術(shù)通過計(jì)算機(jī)、傳感器、攝像頭等設(shè)備對糧庫人員、糧區(qū)環(huán)境及運(yùn)輸中的糧情變化進(jìn)行實(shí)時(shí)檢測[3]。對運(yùn)糧車的可視化追溯[4],包括車輛檢測、車型識別以及檢測車輛的車牌、車身顏色等信息,確保出入庫車輛一致;對糧食裝卸倉房動態(tài)視頻跟蹤,確保在指定倉庫作業(yè)。庫區(qū)人員監(jiān)控[5]包括對庫區(qū)內(nèi)工作人員識別考勤;監(jiān)控倉內(nèi)作業(yè)人員的摔倒等異常行為。糧庫倉房的監(jiān)控包括監(jiān)測識別害蟲、發(fā)霉、發(fā)芽及溫濕度[6];監(jiān)控倉房內(nèi)的火焰、煙霧等情況;通過監(jiān)控糧面高度、空間體積,結(jié)合糧食品種倉房信息進(jìn)行數(shù)量檢測。

現(xiàn)有車輛檢測主要是光流法,計(jì)算復(fù)雜,易受光照影響[7];幀間差分法,對于靜止、塞車車輛的檢出有所困難[8];背景建模法,受光照、背景中非車輛對象移動等影響大[9]。車牌識別有模板匹配[10]、特征統(tǒng)計(jì)[11]和機(jī)器學(xué)習(xí)等,前兩種方法復(fù)雜度低,但魯棒性不強(qiáng),相似字符易出錯。機(jī)器學(xué)習(xí)方法[12]理論精度與實(shí)際效果有差距。車型識別主要利用車輛的前臉特征[13],根據(jù)車牌、車標(biāo)、車燈、空間曲線特征等進(jìn)行分類,正確率有待提高。車輛跟蹤[14]特征點(diǎn)的選擇好壞直接影響跟蹤效果。現(xiàn)有人員識別基于子空間的整體特征提取方法有線性判別分析(LDA)、主成分分析(PCA)等[15]?;诰植刻卣髯R別方法有Gabor特征、LBP特征等,相比子空間方法只考慮模式全局特征,更多考慮空間特征分布。行為識別手工提取特征方法[16],包括輪廓剪影、運(yùn)動軌跡(IDT)等,經(jīng)典IDT算法分類效果好,但特征維度較高,運(yùn)算資源消耗過大。現(xiàn)有儲糧害蟲檢測[17-19]主要有聲檢測法,聲音信號常常受到傳感器、環(huán)境噪聲影響;取樣檢測法側(cè)重人工檢測,工作量較大,考慮因素較多;近紅外檢測法不易檢測蟲害較輕的糧食,受糧堆濕度影響較大;電導(dǎo)率檢測法只能檢測活蟲,不適用于蟲卵、幼蟲的檢測?,F(xiàn)有糧堆溫度預(yù)測模型[20,21]主要有基于三傳理論的計(jì)算模型、利用有限元法建立溫度場的預(yù)測模型,模型預(yù)測方法對大量非線性數(shù)據(jù)處理能力相對較弱。

深度學(xué)習(xí)網(wǎng)絡(luò)通過構(gòu)建大量神經(jīng)元節(jié)點(diǎn)和多層隱含層結(jié)構(gòu),將底層特征轉(zhuǎn)化為更加抽象的高層特征,實(shí)現(xiàn)復(fù)雜函數(shù)的逼近,建立起從輸入到輸出的關(guān)系。該方法具備特征自動提取,完美的函數(shù)擬合能力,強(qiáng)大的特征表達(dá)能力,多類別物體檢測,網(wǎng)絡(luò)靈活性、可移植性好等特點(diǎn)[22,23]。除此之外,我國糧庫測控系統(tǒng)主要面臨檢測項(xiàng)目單一、糧庫測控技術(shù)落后以及精度偏低等問題。故本文通過總結(jié)各種檢測、識別、跟蹤、預(yù)測算法的優(yōu)缺點(diǎn),著重突出新一代深度學(xué)習(xí)技術(shù)與糧庫系統(tǒng)的結(jié)合,將為智能化糧庫的實(shí)現(xiàn)做出貢獻(xiàn)。

1 基于深度學(xué)習(xí)的糧庫出入庫車輛檢測

1.1 車輛檢測

朱立志[24]利用RPN網(wǎng)絡(luò)將特征圖上的特征點(diǎn)映射到輸入圖像相應(yīng)位置,繪制區(qū)域建議框,通過計(jì)算IoU確定訓(xùn)練樣本,最終利用分類層確定前景、背景,根據(jù)回歸層預(yù)測坐標(biāo)值。Faster R-CNN網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

圖1 Faster R-CNN網(wǎng)絡(luò)結(jié)構(gòu)

結(jié)果顯示,在光線微暗等復(fù)雜背景下,對車輛檢測準(zhǔn)確率達(dá)到90%。泛化能力測試,結(jié)果準(zhǔn)確率達(dá)到80%。

劉肯等[25]利用Skip connection思想改進(jìn)YOLO算法,輸入直接進(jìn)入后面的layer,避免梯度消失的同時(shí),加強(qiáng)層之間的特征關(guān)系。對比發(fā)現(xiàn),YOLO算法檢測準(zhǔn)確率達(dá)83.4%,改進(jìn)后的YOLO-D算法檢測準(zhǔn)確率達(dá)到87.1%。YOLO及SSD網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

曹偉[26]認(rèn)為YOLO算法實(shí)時(shí)性好,但檢測準(zhǔn)確率較低。對Faster R-CNN的可靠性上給予肯定,但認(rèn)為實(shí)際車輛方位多樣、道路復(fù)雜,需進(jìn)一步研究。故提出一種利用不同卷積層上的特征進(jìn)行多尺度預(yù)測的SSD算法,車輛檢測網(wǎng)絡(luò)結(jié)構(gòu)前面使用VGG-16網(wǎng)絡(luò)作為基礎(chǔ),后面網(wǎng)絡(luò)添加幾個(gè)由大到小的額外卷積層,實(shí)現(xiàn)多尺度特征圖檢測。在相同檢測樣本條件下,該算法檢測準(zhǔn)確率達(dá)到90.1%,高于Faster R-CNN的88.4%。陳夢[27]在SSD算法基礎(chǔ)上通過金字塔式多尺度窮盡搜索法改進(jìn)SSD檢測器,相同條件下,改進(jìn)的SSD算法檢測率達(dá)到98.80%,高于原始SSD算法的97.13%。但對小目標(biāo)來說,檢測準(zhǔn)確率和檢測速度不是太過理想。

1.2 車牌識別

蒙特卡洛方法首先生成一個(gè)均值為0,標(biāo)準(zhǔn)差為0.01的正態(tài)分布隨機(jī)矩陣,判斷隨機(jī)矩陣是否符合一致分布,循環(huán)迭代,直到生成符合要求的卷積核。李達(dá)[28]利用蒙特卡洛方法對卷積核初始化方法進(jìn)行優(yōu)化,通過CNN網(wǎng)絡(luò)過濾疑似車牌區(qū)域,使用滑動窗口掃描車牌圖像,獲取特征圖,通過識別器識別字符,篩選最優(yōu)解。

結(jié)果顯示,CNN網(wǎng)絡(luò)特征提取效率高,對光照不均勻、車牌傾斜等具有很好魯棒性。但其方法和步驟比較繁瑣,不能實(shí)現(xiàn)實(shí)時(shí)檢測。

高路[29]直接從RPN產(chǎn)生的候選區(qū)域?qū)?yīng)的特征圖中識別車牌字符,通過BRNN將車牌識別視為序列標(biāo)記問題解決,選擇CTC作為損失函數(shù),實(shí)現(xiàn)端到端檢測識別。BRNN網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

圖2 SSD及YOLO網(wǎng)絡(luò)結(jié)構(gòu)

圖3 BRNN網(wǎng)絡(luò)結(jié)構(gòu)

和基于Faster R-CNN檢測出車牌,再經(jīng)裁剪送入BRNN進(jìn)行識別的兩階段方法相比較,端到端的方法在3種數(shù)據(jù)集上7字符平均識別率為81.64%,識別速度320 ms,優(yōu)于兩階段方法。但在復(fù)雜場景下,仍不滿足實(shí)時(shí)性要求。

陳強(qiáng)等[30]利用CRNN直接整行循環(huán)卷積識別,循環(huán)層使用多個(gè)雙向傳播的LSTM組件預(yù)測標(biāo)簽分布,再使用轉(zhuǎn)錄層將預(yù)測變?yōu)閷?shí)際標(biāo)簽序列。實(shí)現(xiàn)發(fā)現(xiàn),字符識別準(zhǔn)確率達(dá)98.06%。且能適應(yīng)黑暗、強(qiáng)光、車身反光、雨雪天氣、車牌距離很遠(yuǎn)或很近、車牌歪斜等情況。CRNN網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

圖4 CRNN網(wǎng)絡(luò)結(jié)構(gòu)

王瀟凡[31]采用將CNN、LSTM型循環(huán)神經(jīng)網(wǎng)絡(luò)與CTC目標(biāo)函數(shù)進(jìn)行網(wǎng)絡(luò)模型融合,進(jìn)行無分割字符序列識別,使用4層卷積、池化提取特征,雙層LSTM作為隱含層網(wǎng)絡(luò),CTC將LSTM習(xí)得的特征向量解碼為字符。識別精度達(dá)到95.5%,單個(gè)樣本識別時(shí)間為0.07 s?;谘h(huán)神經(jīng)網(wǎng)絡(luò)的OCR車牌識別網(wǎng)絡(luò)如圖5所示。

圖5 基于循環(huán)神經(jīng)網(wǎng)絡(luò)的OCR車牌識別網(wǎng)絡(luò)

針對小數(shù)據(jù)集,識別精度較高,但該網(wǎng)絡(luò)識別字符序列的實(shí)時(shí)性有待提高。

1.3 車型識別

級聯(lián)MT-CNN網(wǎng)絡(luò),通常應(yīng)用于需要同時(shí)進(jìn)行位置預(yù)測、分類等至少兩種學(xué)習(xí)任務(wù)[32]。利用MT-GooGleNet網(wǎng)絡(luò)模型進(jìn)行車輛定位,再送入車型分類的神經(jīng)網(wǎng)絡(luò)中,挖掘出車輛的制造商家、型號與生產(chǎn)年代。

在GooGleNet網(wǎng)絡(luò)基礎(chǔ)上增加3組對比實(shí)驗(yàn),分別進(jìn)行網(wǎng)絡(luò)數(shù)據(jù)增強(qiáng)、網(wǎng)絡(luò)預(yù)訓(xùn)練及同時(shí)進(jìn)行數(shù)據(jù)增強(qiáng)與預(yù)訓(xùn)練,最高識別正確率達(dá)85%,該方法能有效分離相似車型。但需不斷更新車型數(shù)據(jù)庫,另外在雨雪極端天氣下的車型識別需進(jìn)一步研究。

劉輝[33]基于深度殘差單元的結(jié)構(gòu)級聯(lián),將大型數(shù)據(jù)集的分類準(zhǔn)確度提升到新高度。實(shí)驗(yàn)通過對比ResNet-50 和 ResNet-101,對于20次測試的分類top-5的準(zhǔn)確率,Resnet-50平均準(zhǔn)確率達(dá)93.7%,優(yōu)于Resnet-101的90.5%。泛化能力測試上,以GoogleNet網(wǎng)絡(luò)為參照,ResNet-50的網(wǎng)絡(luò)分類抗干擾能力遠(yuǎn)遠(yuǎn)高于GoogleNet網(wǎng)絡(luò),但精確識別還需要進(jìn)一步研究。

吳雙敬[34]提出多階段卷積神經(jīng)網(wǎng)絡(luò)(MS-CNN)解決車型精確識別問題,在ResNet-50基礎(chǔ)上進(jìn)行優(yōu)化,網(wǎng)絡(luò)S4層后進(jìn)行空間金字塔池化(SPP),通過SPP多級池化,提取特征圖中多尺度信息;網(wǎng)絡(luò)S5層后增加1×1卷積,并利用全局平均池化代替全連接層,實(shí)現(xiàn)信息整合、降維,減少過擬合。在MTV-1638s數(shù)據(jù)集實(shí)驗(yàn)顯示,MS-CNN車型識別精度為95.51%,略高于ResNet網(wǎng)絡(luò)。

周野[35]提出MS-B-CNN算法進(jìn)一步研究車型精確識別問題。B-CNN中網(wǎng)絡(luò)A主要完成細(xì)粒度圖像的區(qū)域檢測,網(wǎng)絡(luò)B完成提取網(wǎng)絡(luò)A檢測到的特征,對K個(gè)角度下提取的卷積特征進(jìn)行線性融合,用融合特征訓(xùn)練模型分類器實(shí)現(xiàn)分類。網(wǎng)絡(luò)模型如圖6所示。

圖6 MS-B-CNN網(wǎng)絡(luò)結(jié)構(gòu)

實(shí)驗(yàn)發(fā)現(xiàn),基于MS-B-CNN的多尺度特征融合的平均正確率達(dá)到93.63%,應(yīng)用在車輛正面和背面角度,識別準(zhǔn)確率達(dá)95.73%和95.26%,更好的基礎(chǔ)網(wǎng)絡(luò)會進(jìn)一步提升識別效果。

1.4 車輛跟蹤

車輛跟蹤的實(shí)現(xiàn)結(jié)合運(yùn)動檢測、車輛識別及跟蹤三個(gè)模塊[26]。運(yùn)動檢測模塊通過高斯混合背景建模,篩選出運(yùn)動區(qū)域。多尺度特征圖預(yù)測的SSD車輛檢測算法提取圖像特征,區(qū)分是否存在車輛。車輛跟蹤利用Kalman濾波算法預(yù)測視頻車輛的下一幀位置坐標(biāo),利用Camshift算法迭代搜索當(dāng)前幀的實(shí)際位置,循環(huán)往復(fù),直至目標(biāo)車輛丟失為止。結(jié)果顯示,該方法對車輛的跟蹤實(shí)時(shí)性好,準(zhǔn)確性高,但對小目標(biāo)車輛的檢測跟蹤效果還需進(jìn)一步研究。

杜省[36]研究三種車輛跟蹤算法,基于k稀疏深度降噪自編碼器的目標(biāo)跟蹤算法采用深度降噪自編碼器作為離線訓(xùn)練模型,學(xué)習(xí)目標(biāo)的通用特征,通過引入k稀疏限制構(gòu)造分類神經(jīng)網(wǎng)絡(luò),學(xué)習(xí)輸入的不變性特征,輸出特征向量空間點(diǎn)的置信度,根據(jù)粒子置信度計(jì)算概率并更新權(quán)值以決策車輛位置;相比前者,基于多深度自編碼器融合的目標(biāo)跟蹤在離線訓(xùn)練模型時(shí)利用兩個(gè)深度自編碼器學(xué)習(xí)灰度特征和梯度特征,進(jìn)行線性融合;基于多深度自編碼器自適應(yīng)融合的目標(biāo)跟蹤不僅利用兩個(gè)深度自編碼器學(xué)習(xí)灰度特征和梯度特征,而且構(gòu)建兩個(gè)分類神經(jīng)網(wǎng)絡(luò),結(jié)合粒子濾波算法,根據(jù)不同特征圖的粒子分布情況,選取前10%置信度最大的粒子作為最優(yōu)粒子,自適應(yīng)確定特征融合權(quán)值,最終實(shí)現(xiàn)目標(biāo)狀態(tài)估計(jì)。實(shí)驗(yàn)顯示,三種方法的跟蹤準(zhǔn)確性和跟蹤魯棒性取得較好效果。

2 基于深度學(xué)習(xí)的糧庫人臉識別及行為識別

2.1 人臉識別

BP網(wǎng)絡(luò)人臉識別使用滑動窗口獲取Harr的矩形特征,網(wǎng)絡(luò)訓(xùn)練利用反向傳播算法將最后產(chǎn)生的誤差逆向回傳網(wǎng)絡(luò)模型,循環(huán)迭代使參數(shù)最優(yōu),然后進(jìn)行人臉圖片的特征提取。將待測人臉的特征向量與人臉特征數(shù)據(jù)庫相對比,判定人員身份。該系統(tǒng)能穩(wěn)定、實(shí)時(shí)的進(jìn)行人臉提取。但該網(wǎng)絡(luò)需大量樣本訓(xùn)練,且存儲空間較大。

萬士寧[15]通過保留原始VGG-16底層網(wǎng)絡(luò)模型,增加Block5的卷積核,去掉全連接層-1與全連接層-2,縮減參數(shù)數(shù)量和計(jì)算存儲時(shí)間。前12卷積層參數(shù)采用Karen Simonyan公布的VGG-16權(quán)值參數(shù),其余層重新訓(xùn)練。網(wǎng)絡(luò)人臉識別準(zhǔn)確率達(dá)94.0%。但對于復(fù)雜圖片(未預(yù)處理)識別效果稍差,需要更多圖片訓(xùn)練提高泛化能力。根據(jù)上述缺點(diǎn),采用34層Residual卷積神經(jīng)網(wǎng)絡(luò),用滑動步長2的卷積操作代替Pooling,網(wǎng)絡(luò)初始化方法采用隨機(jī)初始化。網(wǎng)絡(luò)人臉識別準(zhǔn)確率達(dá)96.0%。該方法網(wǎng)絡(luò)層次較深,適用Casia-WebFaceResidual Netork等大型數(shù)據(jù)集。

圖7 multi-CNN網(wǎng)絡(luò)

圖8 雙通道DCNN網(wǎng)絡(luò)結(jié)構(gòu)

柯鵬飛等[37]提出一種基于改進(jìn)CNN網(wǎng)絡(luò)和集成學(xué)習(xí)方法,由兩個(gè)CNN組成一個(gè)multi-CNN,采用投票法集成策略將多個(gè)學(xué)習(xí)器結(jié)果凸組合并為最終結(jié)果。CNN網(wǎng)絡(luò)前兩層卷積核采用5×5,最后一層采用3×3卷積核,每層后采用2×2池化,Residual單元分別利用1×1、3×3、1×1卷積核控制輸入向量與輸出向量,最終采用平均池化層代替全連接層。multi-CNN網(wǎng)絡(luò)模型如圖7所示。

實(shí)驗(yàn)顯示,在Color FERET、AR和ORL數(shù)據(jù)集的識別率分別達(dá) 98.89%、99.67%和100%。

2.2 行為識別

雙流卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行行為識別時(shí),重點(diǎn)是通過獨(dú)立的時(shí)間和空間雙通道進(jìn)行行為特征提取及融合,即空間通道是通過視頻中靜止的每一幀RGB圖像來提取靜態(tài)特征信息,時(shí)間通道是提取每一幀水平方向和豎直方向上的光流分量及光流幅值,來表征動態(tài)特征信息。再通過加權(quán)平均的方法將各自通道的單幀對象轉(zhuǎn)換為空間通道視頻特征與時(shí)間通道視頻特征,實(shí)現(xiàn)時(shí)空信息融合,給出綜合判定結(jié)果。通過實(shí)驗(yàn),在KTH行為數(shù)據(jù)集上獲得96.18%的識別準(zhǔn)確率[38,39]。雙通道DCNN網(wǎng)絡(luò)結(jié)構(gòu)如圖8所示。

實(shí)驗(yàn)發(fā)現(xiàn),雙流卷積神經(jīng)網(wǎng)絡(luò)的行為識別取得較好識別效果。但離實(shí)際應(yīng)用還有一定距離,網(wǎng)絡(luò)訓(xùn)練需要更多的數(shù)據(jù)支持,往往還需要考慮動作的時(shí)序信息。

3 基于深度學(xué)習(xí)的儲糧安全測控技術(shù)

3.1 火焰識別

糧庫的重點(diǎn)工作基本都放在預(yù)防為主,即對溫度和濕度的監(jiān)控以及使用煙火報(bào)警器的預(yù)警,伴隨深度學(xué)習(xí)在各領(lǐng)域蔓延,利用神經(jīng)網(wǎng)絡(luò)進(jìn)行煙火識別的研究逐步拓展。

R-FCN+ResNet火焰檢測模型,第一部分采用ResNet深度卷積網(wǎng)絡(luò)自動提取特征;第二部分R-FCN通過特征譜圖捕獲疑似火焰區(qū)域集合,給出分?jǐn)?shù)圖;第三部分設(shè)為二次分類模型,根據(jù)給出的位置信息,截取原始圖片中的火焰圖像,送進(jìn)ResNet中進(jìn)行二次識別[40]。

結(jié)果顯示,該方法對Biilkkent大學(xué)的視頻數(shù)據(jù)集上的識別精度達(dá)到98.25%,并且誤報(bào)率低、穩(wěn)定、可靠。

3.2 糧蟲識別

劉治財(cái)[17]分別對比Faster R-CNN、R-FCN和YOLO網(wǎng)絡(luò),基于VGG-16、ResNet-101為基礎(chǔ)的Faster R-CNN算法在測試數(shù)據(jù)集上的平均準(zhǔn)確率達(dá)74.24%、81.36%,因ResNet-101網(wǎng)絡(luò)存在大量重復(fù)計(jì)算,故在該網(wǎng)絡(luò)基礎(chǔ)上,采用R-FCN算法,平均準(zhǔn)確率達(dá)83.44%。YOLO算法在Google-Net網(wǎng)絡(luò)上,平均準(zhǔn)確率只達(dá)到68.77%。為了進(jìn)一步提高精度,基于R-FCN算法,將基礎(chǔ)網(wǎng)絡(luò)改為網(wǎng)絡(luò)更深但是參數(shù)更少的DesNet-121網(wǎng)絡(luò),平均準(zhǔn)確率達(dá)到85.28%。

高雅[18]選取糧倉表面、糧蟲較多的位置及墻壁,搜集糧蟲圖片,形成數(shù)據(jù)集;在Keras框架下運(yùn)用Sequential模型,調(diào)整不同的激活函數(shù),對比七層CNN與九層CNN,并對九層CNN進(jìn)行隨機(jī)失活方法(Dropout)的參數(shù)優(yōu)化,對比不同卷積神經(jīng)網(wǎng)絡(luò)模型下的訓(xùn)練集及驗(yàn)證集的識別準(zhǔn)確率。

實(shí)現(xiàn)顯示,Relu函數(shù)的識別準(zhǔn)確率較高,迭代次數(shù)少,曲線平滑。在此基礎(chǔ)上對比兩種不同卷積神經(jīng)網(wǎng)絡(luò),七層卷積神經(jīng)網(wǎng)絡(luò)在迭代20次時(shí),驗(yàn)證數(shù)據(jù)集的識別準(zhǔn)確率為80%,改進(jìn)后的九層卷積神經(jīng)網(wǎng)絡(luò)在迭代10次時(shí),驗(yàn)證數(shù)據(jù)集的識別準(zhǔn)確率為98.6%。但該方法未能實(shí)現(xiàn)對多個(gè)生長期及多種類糧蟲的識別,實(shí)時(shí)識別有待進(jìn)一步研發(fā)。

3.3 糧堆溫度預(yù)測

糧食儲藏過程中,影響最大的便是溫度。 BP網(wǎng)絡(luò)將影響因子作為輸入數(shù)據(jù),將實(shí)際溫度作為輸出結(jié)果,在預(yù)測結(jié)果與實(shí)際結(jié)果的誤差大于期望值時(shí),對誤差進(jìn)行反向傳播,更新各層神經(jīng)元的權(quán)值和閾值。因BP神經(jīng)網(wǎng)絡(luò)的初始閾值和權(quán)值是自己學(xué)得,具有隨機(jī)性,因此提出GANPSO-BP算法,通過粒子群算法尋覓目標(biāo)最優(yōu)解,并對粒子的慣性權(quán)重和閾值進(jìn)行優(yōu)化,同時(shí)利用遺傳算法對尋優(yōu)過程進(jìn)行優(yōu)化[41]。

測試數(shù)據(jù)來自華東某糧庫2016年前11個(gè)月的糧倉數(shù)據(jù),以此預(yù)測12月份糧倉中糧堆底層的平均溫度。對比BP,PSO-BP和GANPSO-BP算法,GANPSO-BP算法的預(yù)測結(jié)果誤差數(shù)值相對較小,穩(wěn)定性較高。

在考慮小數(shù)據(jù)量的情況下,提出基于循環(huán)神經(jīng)網(wǎng)絡(luò)的糧倉溫度時(shí)間序列預(yù)測方法,而RNN網(wǎng)絡(luò)容易出現(xiàn)梯度消失與梯度爆炸,提出基于循環(huán)神經(jīng)網(wǎng)絡(luò)-長短時(shí)記憶法(RNN-LSTM)糧倉溫度時(shí)間序列預(yù)測模型。

LSTM模型在原有RNN模型的基礎(chǔ)上,增加了選擇性學(xué)習(xí)的細(xì)胞狀態(tài),主要通過遺忘門、輸入門和輸出門來控制細(xì)胞狀態(tài)。CLSTM是在LSTM基礎(chǔ)上的變形,把遺忘門與輸入門合并為新的門限單元。實(shí)驗(yàn)對比,選用CLSTM作為預(yù)測模型細(xì)胞體,選用改進(jìn)SRelu激活函數(shù),選擇L2正則化,提升泛化能力。由于梯度下降算法造成冗余計(jì)算,故采用隨機(jī)梯度下降算法,有效避免使用所有樣本進(jìn)行參數(shù)更新[42]。CLSTM單元模塊圖如圖9所示。

圖9 CLSTM單元模塊圖

測試數(shù)據(jù)來自山東某糧庫2015年全年和2016年前十個(gè)月的糧倉數(shù)據(jù),以此預(yù)測2016年后兩個(gè)月情況。輸入數(shù)據(jù)包括糧倉外部溫濕度、糧倉內(nèi)部溫濕度及糧堆溫度,主要預(yù)測糧堆底層溫度的平均溫度。通過在相同條件下對比RNN、LSTM、GRU及CLSTM方法,CLSTM均方誤差最低,而改進(jìn)后的CLSTM方法預(yù)測結(jié)果更好。

3.4 糧食籽粒檢測與計(jì)數(shù)

糧食籽粒檢測與計(jì)數(shù)主要使用圖像處理,分水嶺算法、大津閾值法等,都有一些無法克服的缺點(diǎn),為更加準(zhǔn)確的識別粘連籽粒,基于深度學(xué)習(xí)的糧食籽粒檢測與計(jì)數(shù)的方法及裝置走進(jìn)視野[43]。

網(wǎng)絡(luò)模型的構(gòu)建,主要包括小目標(biāo)特征提取、密集特征提取及目標(biāo)檢測。特征提取主要通過密集連接各個(gè)卷積層,并在各層間增加篩選策略,根據(jù)刪除連接后精度的變化情況,篩選出最優(yōu)連接。目標(biāo)檢測通過生成目標(biāo)候選框及標(biāo)注概率值的方法,采用雙線性插值方法提高圖像特征。訓(xùn)練模型,直至誤差很小。

對于實(shí)際糧食籽粒數(shù)9 033顆,檢測出9 068顆,正確檢測出9 024顆,9顆漏檢,誤檢44顆。

3.5 糧庫視頻監(jiān)控圖像去霧

在糧庫中,糧食的出入運(yùn)輸、裝卸、糧面翻動等作業(yè),都會產(chǎn)生大量的粉塵,并結(jié)合霧霾等天氣因素,獲取的圖像的顏色、紋理等細(xì)節(jié)信息嚴(yán)重弱化[44,45]。

去霧圖像的獲取取決于大氣散射模型中全局大氣光及圖像透光率的準(zhǔn)確估計(jì),而圖像中的亮白色區(qū)域往往對大氣光估計(jì)造成影響。通過四叉樹分解法對大氣光進(jìn)行估計(jì),即把圖像以遞歸形式分割四象限,將最終區(qū)域的亮度平均值作為大氣光。圖像透光率依托多尺度卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征學(xué)習(xí)及特征融合獲得粗濾圖,與灰度圖像融合后得到細(xì)化圖像,利用大氣散射模型生成清晰圖像。利用2 000幅清晰圖像,根據(jù)大氣散射模型以及透射率隨景物到成像設(shè)備的距離成反比,生成霧霾圖像數(shù)據(jù)集,進(jìn)行訓(xùn)練。霧塵圖像處理流程如圖10所示。

圖10 霧塵圖像處理流程

結(jié)果顯示,該方法在圖像邊緣的處理結(jié)果好,提取效果對視覺更舒服,顏色比較亮,對天空區(qū)域及亮白色區(qū)域的處理比較自然,較好的去除霧氣,不僅適用合成圖像,而且適用真實(shí)圖像。

4 結(jié)論

對比發(fā)現(xiàn),F(xiàn)aster R-CNN兩階段檢測模型,精度高,但是運(yùn)算速度慢、訓(xùn)練起來相對困難,YoLo單階段檢測模型,運(yùn)算速度快,效率高,但是精度較差;深度學(xué)習(xí)方法對基礎(chǔ)網(wǎng)絡(luò)的依賴性較強(qiáng),通過選擇高性能的基礎(chǔ)網(wǎng)絡(luò)能從根本上提高識別效率;在此基礎(chǔ)上,通過改進(jìn)網(wǎng)絡(luò)模型架構(gòu)、選擇適當(dāng)激活函數(shù)、平衡網(wǎng)絡(luò)參數(shù)、優(yōu)化卷積核初始方法、保證大數(shù)據(jù)集樣本訓(xùn)練、進(jìn)行特征網(wǎng)絡(luò)融合等,可進(jìn)一步提高識別效果;與此同時(shí),深度學(xué)習(xí)方法的檢測識別、預(yù)測等效果參差不齊,對于高性能骨干網(wǎng)絡(luò)的構(gòu)建、更加豐富的圖像信息的獲取、小目標(biāo)物體的高精度檢測、多類別復(fù)雜環(huán)境檢測、檢測算法的輕量化需求等,將是深度學(xué)習(xí)獲得全面推廣必須克服的困難。

近年來,我國已建立健全中央、省、市、縣四級糧食儲備體系,第四代依托無線傳感網(wǎng)絡(luò)的糧庫測控系統(tǒng)逐漸開始部署,依托現(xiàn)有常規(guī)檢測方法的優(yōu)勢,嘗試性利用深度學(xué)習(xí)的一些成熟方法進(jìn)行補(bǔ)漏,從實(shí)踐挖掘出深度學(xué)習(xí)方法的不足之處,逐步完善,將進(jìn)一步建立健全糧庫測控系統(tǒng)。

猜你喜歡
糧庫準(zhǔn)確率卷積
基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
健康之家(2021年19期)2021-05-23 11:17:39
不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
從濾波器理解卷積
電子制作(2019年11期)2019-07-04 00:34:38
糧庫竣工
糧庫里的機(jī)器人
高速公路車牌識別標(biāo)識站準(zhǔn)確率驗(yàn)證法
基于傅里葉域卷積表示的目標(biāo)跟蹤算法
我為抗日政府管糧庫
新野县| 海南省| 察隅县| 黄骅市| 米脂县| 永定县| 普兰县| 寿阳县| 岐山县| 上犹县| 运城市| 吉安市| 汕头市| 甘孜| 新源县| 罗江县| 高雄市| 磐安县| 永川市| 遵化市| 镶黄旗| 阳泉市| 松溪县| 景德镇市| 麻江县| 哈巴河县| 石林| 仲巴县| 贞丰县| 句容市| 玉龙| 安福县| 香河县| 莱芜市| 滨海县| 毕节市| 襄垣县| 衡水市| 宁国市| 米易县| 崇礼县|