国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

融合聚類算法與YOLO-v3 網(wǎng)絡(luò)在果蔬種植防蟲害中的應(yīng)用研究

2022-02-08 14:34:26
關(guān)鍵詞:蟲害果蔬害蟲

武 珊

(青海高等職業(yè)技術(shù)學(xué)院,青海 海東 810600)

在農(nóng)業(yè)信息化技術(shù)不斷發(fā)展的當(dāng)下,果蔬的蟲害防治依舊面臨害蟲檢測(cè)效率低下的問題,同時(shí)也導(dǎo)致了農(nóng)藥智能噴灑精度低的狀況。果蔬種植的蟲害防治不僅要依靠田間實(shí)地調(diào)查,同時(shí)也需要依靠機(jī)器學(xué)習(xí)算法來提高效率、節(jié)約資源[1]。YOLO神經(jīng)網(wǎng)絡(luò)檢測(cè)算法一經(jīng)提出,便被國(guó)內(nèi)外學(xué)者不斷地發(fā)展和完善,在目標(biāo)檢測(cè)場(chǎng)景中,應(yīng)用效果越發(fā)突出[2]。而ISODATA聚類分析方法增加了對(duì)聚類結(jié)果的“合并”和“分裂”操作,避免了K-means算法隨機(jī)K值的缺陷[3]。筆者將兩者融合,應(yīng)用于果蔬種植的蟲害檢測(cè)識(shí)別中,旨在提高蟲害檢測(cè)的效率和精度,從而減少農(nóng)業(yè)生產(chǎn)中的資源浪費(fèi)。

1 文獻(xiàn)綜述

針對(duì)智能交通檢測(cè)圖像中小目標(biāo)檢測(cè)率低的問題,楊飛等[4]提出了一種YOLO-v3的改進(jìn)方法,并通過SPP模塊實(shí)現(xiàn)了局部特征和全局特征的融合提取,試驗(yàn)結(jié)果表明:改進(jìn)后的YOLO-v3算法能有效地檢測(cè)小目標(biāo),對(duì)小目標(biāo)的平均準(zhǔn)確率具有顯著的提升。同樣,基于智能交通圖像中小目標(biāo)檢測(cè)問題,黃開啟等[5]則對(duì)YOLO-v3的Darknet-53網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行了優(yōu)化調(diào)整,結(jié)果表明:改進(jìn)算法在小目標(biāo)檢測(cè)中的平均準(zhǔn)確率為78.8%,取得了較好的小目標(biāo)檢測(cè)效果。王霏等[6]則提出了基于改進(jìn)YOLO-v3算法的文本檢測(cè)方法,用于改善深度學(xué)習(xí)中文本檢測(cè)算法存在的運(yùn)行速度慢、模型體積大等問題,結(jié)果表明:該改進(jìn)算法精度比YOLO-v3提高了7個(gè)百分點(diǎn),檢測(cè)速度最高可達(dá)22幀/s,與同類算法相比,具有更快的檢測(cè)速度和更小的模型體積。于博文等[7]則將改進(jìn)的YOLO-v3算法應(yīng)用于軍事目標(biāo)檢測(cè)中,在軍事目標(biāo)圖像數(shù)據(jù)集中測(cè)試結(jié)果表明:該算法具有較好的檢測(cè)性能,可為戰(zhàn)場(chǎng)態(tài)勢(shì)生成、分析提供有效的輔助技術(shù)支持。在垃圾分類方面,王子鵬等[8]引入MobileNetv3網(wǎng)絡(luò)替代YOLO-v3的主干網(wǎng)絡(luò)Darknet53,試驗(yàn)表明:該算法能夠滿足邊緣計(jì)算設(shè)備的要求,具備潛在的商業(yè)應(yīng)用價(jià)值。屈文謙等[9]提出了基于YOLO-v3的電網(wǎng)作業(yè)現(xiàn)場(chǎng)安全帽佩戴檢測(cè)算法,有效檢測(cè)電網(wǎng)作業(yè)人員不規(guī)范佩戴安全帽行為,結(jié)果表明:算法在復(fù)雜作業(yè)場(chǎng)景下能夠?qū)崿F(xiàn)有效的檢測(cè),可為避免電網(wǎng)作業(yè)人員安全隱患提供技術(shù)參考。劉寅[10]融合K-means聚類算法和YOLO-v3網(wǎng)絡(luò),用于教室內(nèi)的人物目標(biāo)識(shí)別場(chǎng)景,試驗(yàn)表明:改進(jìn)后的YOLO-v3網(wǎng)絡(luò)模型的識(shí)別精度提高了19.11%,但識(shí)別速度有所下降。在信息化控制領(lǐng)域,朱江等[11]提出了一種基于YOLO-v3的端到端的抓取檢測(cè)方法,應(yīng)用于機(jī)器人抓取系統(tǒng)的檢測(cè)模塊,試驗(yàn)表明:基于YOLO-v3的抓取檢測(cè)算法可以有效地提高檢測(cè)的精度和速度。陳耀祖等[12]使用模糊ISODATA動(dòng)態(tài)聚類算法,對(duì)YOLO-v4網(wǎng)絡(luò)的先驗(yàn)框數(shù)目進(jìn)行優(yōu)化,該方法應(yīng)用于智能交通的行駛車輛的要素檢測(cè)時(shí),訓(xùn)練集中的類間平均準(zhǔn)確率為98.56%,檢測(cè)幀頻為41.43幀/s。ISODATA聚類算法同樣被王磊等[13]應(yīng)用于地理信息檢測(cè)領(lǐng)域,試驗(yàn)表明:該模型滿足洪水變化監(jiān)測(cè)的需求,可用于洪水易發(fā)區(qū)的洪澇災(zāi)害災(zāi)情分析。

在農(nóng)業(yè)果蔬種植中的蟲害防治方面,張建[14]因地制宜地分析了不同區(qū)域的蘋果樹常見病蟲害,同時(shí),分析了其對(duì)應(yīng)的治理技術(shù)。國(guó)內(nèi)學(xué)者薄曉華[15]分析了林業(yè)技術(shù)對(duì)治理林業(yè)病蟲害的作用,期望通過減少了林業(yè)病蟲害,達(dá)到保護(hù)生態(tài)環(huán)境的目的。類成敏等[16]提出了一種基于多尺度注意力殘差網(wǎng)絡(luò)的桃樹害蟲圖像識(shí)別模型,試驗(yàn)表明:該模型識(shí)別準(zhǔn)確率為93.27%,取得了較好的識(shí)別效果。姚青等[17]提出了基于雙線性注意力網(wǎng)絡(luò)的農(nóng)業(yè)燈誘害蟲細(xì)粒度圖像識(shí)別模型,試驗(yàn)表明:基于雙線性注意力網(wǎng)絡(luò)的農(nóng)業(yè)燈誘害蟲細(xì)粒度圖像識(shí)別模型,可以自動(dòng)識(shí)別6類相似的19種農(nóng)業(yè)燈誘害蟲,提高了農(nóng)業(yè)燈誘害蟲自動(dòng)識(shí)別的準(zhǔn)確率。劉迦南等[18]將LIBSVM工具應(yīng)用于害蟲性別判別中,結(jié)果表明:利用該方法可以對(duì)害蟲性別作出有效判別。

綜上所述,國(guó)內(nèi)學(xué)者在應(yīng)對(duì)農(nóng)業(yè)和林業(yè)領(lǐng)域的病蟲時(shí),不僅通過地域信息與氣候信息的整合,也利用了深度學(xué)習(xí)、機(jī)器學(xué)習(xí)算法,如SVM和雙線性特征提取等前沿技術(shù)。本研究也從基于CNN網(wǎng)絡(luò)的位置回歸算法YOLO中探索了提高果蔬害蟲識(shí)別精度的模型。YOLO-v3網(wǎng)絡(luò)在國(guó)內(nèi)學(xué)者的探索開發(fā)中已然趨于成熟,在智能角度、電氣工程和軍事檢測(cè)中均有應(yīng)用。本研究也通過融合ISODATA聚類算法和YOLO網(wǎng)絡(luò)檢測(cè)技術(shù)識(shí)別果蔬害蟲,期望為果蔬的蟲害防治和檢測(cè)提供科學(xué)識(shí)別模型的支持。

2 果蔬種植防蟲害的YOLO-v3目標(biāo)檢測(cè)模型的構(gòu)建

2.1 YOLO-v3網(wǎng)絡(luò)的圖像數(shù)據(jù)提取

在計(jì)算機(jī)硬件條件落后的前幾十年,傳統(tǒng)的目標(biāo)檢測(cè)算法通常利用圖像HOG特征提取與分類器算法決策完成。隨著計(jì)算機(jī)技術(shù)和算力資源的不斷發(fā)展,圖像特征提取的方法從人工經(jīng)驗(yàn)構(gòu)建發(fā)展為了HOG算法提取,再發(fā)展到現(xiàn)在常用的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)識(shí)別[19]。在目標(biāo)檢測(cè)算法更新的過程中,圖像識(shí)別的精度和計(jì)算效率也不斷提高。雷世威等[20]構(gòu)建的YOLO-v3(You Only Look Once-v3)果蔬蟲害目標(biāo)檢測(cè)原理是基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)回歸。單一的CNN網(wǎng)絡(luò)隨著圖像數(shù)據(jù)量的增加會(huì)出現(xiàn)梯度消失的問題,導(dǎo)致識(shí)別分類精度下降。因此,研究引入YOLO-v3方法主要是通過其殘差網(wǎng)絡(luò)結(jié)構(gòu)避免CNN模型損失值居高不下的震蕩狀態(tài)。CNN網(wǎng)絡(luò)在圖像目標(biāo)檢測(cè)中的應(yīng)用結(jié)構(gòu)如圖1所示。

由圖1可以看出,卷積神經(jīng)網(wǎng)絡(luò)在圖像目標(biāo)識(shí)別中的卷積層的運(yùn)算為核心模塊,包括了卷積運(yùn)算、池化運(yùn)算以及激勵(lì)函數(shù)運(yùn)算3個(gè)數(shù)據(jù)處理層。其余結(jié)構(gòu)部分包括圖像數(shù)據(jù)預(yù)處理的圖片輸入層和結(jié)果輸出層。本次研究應(yīng)用到的激勵(lì)函數(shù)計(jì)算表達(dá)公式如式(1)所示。

圖1 CNN網(wǎng)絡(luò)在圖像目標(biāo)檢測(cè)中的應(yīng)用結(jié)構(gòu)

式(1)為卷積神經(jīng)網(wǎng)絡(luò)的ELU激勵(lì)函數(shù),其中α表示修正數(shù)據(jù)分布的常數(shù)。CNN網(wǎng)絡(luò)中的卷積運(yùn)算首先需要對(duì)果蔬的病蟲害圖像進(jìn)行預(yù)處理。研究針對(duì)果蔬蟲害構(gòu)建圖像數(shù)據(jù)集,首先通過平移圖像擴(kuò)充數(shù)據(jù)量,增加CNN模型的運(yùn)算精度,其圖像在平移操作之后的矩陣表述如式(2)所示。

式(2)中,M表示平移后的圖像矩陣模型。(x0,y0)表示原圖像的像素位置,(x1,y1)表示平移后的圖像像素位置?!鱴和△y分別表示圖像在橫從坐標(biāo)上的移動(dòng)量。此外,通過對(duì)圖像的水平翻轉(zhuǎn)和垂直翻轉(zhuǎn)同樣可以擴(kuò)充圖像數(shù)據(jù)量,其矩陣模型表述如式(3)所示。

式(3)中,M2和M3分別表示圖像水平翻轉(zhuǎn)和垂直翻轉(zhuǎn)之后的圖像矩陣模型。(x2,y2)和(x3,y3)分別表示圖像水平翻轉(zhuǎn)和垂直翻轉(zhuǎn)之后的像素點(diǎn)位置,w和h分別表示圖像的寬度和高度。針對(duì)網(wǎng)絡(luò)爬取的蟲害圖像數(shù)據(jù)集的缺點(diǎn),為了準(zhǔn)確地檢測(cè)果蔬害蟲,研究采用非整體標(biāo)注方法平衡蟲害的整體像素,避免害蟲在圖像中像素點(diǎn)的分布不均而導(dǎo)致的農(nóng)藥噴灑定位精度下降,其中,用于檢測(cè)圖像像素點(diǎn)比例的有效像素比(Effective Pixel Proportion, EPP)的計(jì)算公式如式(4)所示。

式(4)中,SO和SM分別表示有效像素?cái)?shù)和圖像最大像素?cái)?shù)。

2.2 基于聚類算法的YOLO-v3特征提取網(wǎng)絡(luò)識(shí)別優(yōu)化方法

卷積神經(jīng)網(wǎng)絡(luò)在應(yīng)用于果蔬的蟲害識(shí)別時(shí),輸出結(jié)果并非傳統(tǒng)分類的最大概率顯示,而是通過計(jì)算得出害蟲屬于哪種分類。作為在CNN網(wǎng)絡(luò)回歸中應(yīng)用最廣泛的方法之一,Darknet-53是YOLO-v3模型的核心結(jié)構(gòu)[21]。由于模型將要利用不同的特征提取尺度獲得圖像的特征信息,因此,首先需要對(duì)圖像進(jìn)行柵格化處理。通過算法的位置回歸計(jì)算得出害蟲所在的柵格塊位置,并引入傳統(tǒng)RCNN網(wǎng)絡(luò)中的提取預(yù)選框方法(Region Proposal Network, RPN)分辨出檢測(cè)柵格塊的害蟲目標(biāo)個(gè)數(shù)[22]。YOLO-v3模型的損失函數(shù)包括了像素點(diǎn)位置的損失、圖像高寬值的損失、置信度的損失以及分類類別的損失。模型的邊界框位置損失函數(shù)由像素點(diǎn)位置的損失、圖像高寬值的損失組成,其表述如式(5)所示。

式(5)中,lB為邊界框位置損失函數(shù),l(x,y)為像素點(diǎn)位置的損失,l(wh)表示圖像高寬值的損失。i和j分別表示柵格預(yù)測(cè)的編號(hào)和預(yù)測(cè)網(wǎng)格邊界框的編號(hào)。S2表示圖像的柵格總數(shù),N表示單個(gè)網(wǎng)格的預(yù)測(cè)邊界框數(shù)量。(xi,yi)為預(yù)測(cè)邊界框的中心點(diǎn)位置,(則表示實(shí)際的邊界框中心點(diǎn)位置。式中的 權(quán)重參數(shù)等于1時(shí),表示待檢測(cè)網(wǎng)格中確有害蟲目標(biāo),否則權(quán)重為0.1。同時(shí),模型的置信度損失數(shù)學(xué)表述如式(6)所示。

式(6)中,lC表示模型的置信度損失,^ic表示實(shí)際檢測(cè)目標(biāo)的置信度,ci表示預(yù)測(cè)目標(biāo)的置信度。I表示檢測(cè)單元格內(nèi)沒有損失的參數(shù),權(quán)重參數(shù)為1時(shí),表示待檢測(cè)網(wǎng)格中沒有害蟲目標(biāo),否則權(quán)重為0。最后,模型的類別損失數(shù)學(xué)表述為式(7)。

式(7)中,lca表示模型的類別損失,a表示類別,pi(a)表示第i個(gè)柵格中的檢測(cè)目標(biāo)屬于類別a的預(yù)測(cè)概率,^ ( )ip a則表示第i個(gè)柵格中的檢測(cè)目標(biāo)屬于類別a的實(shí)際概率。研究采用啟發(fā)式的迭代自組織聚類算法(Iterative self-organizing clustering algorithm, ISODATA)獲取anchor boxs。設(shè)定K0個(gè)初始聚類中心,其合集表示為Z={z1,z2,…,zK0},設(shè)定初始聚類中心之后,計(jì)算樣本與各聚類中心的距離,距離最小時(shí),表明樣本屬于該聚類,即:

式(8)中,Dx表示樣本x與初始聚類中心zi的距離值最小。樣本根據(jù)初始分類完成之后,判斷聚類的樣本數(shù)量,如果數(shù)量小于最小該聚類域的最小樣本數(shù)量,則取消該聚類,令K=K-1,并重新計(jì)算聚類中心距離進(jìn)行分配。分配完成之后計(jì)算所用聚類樣本的中心點(diǎn),修改聚類中心,其公式用式(9)表示。

式(9)中,Ni表示聚類zi中的所用樣本數(shù)量。重新確定聚類中心之后,判斷分裂與合并操作,即K ≤K0/2時(shí),進(jìn)行分裂操作;K>K0/2時(shí),進(jìn)行合并操作。合并操作的思路為計(jì)算聚類中心的距離,將最小距離的2個(gè)聚類合并為1個(gè)聚類,并使K=K-1。分裂操作需要求得每個(gè)聚類中樣本距離的標(biāo)準(zhǔn)差向量,表示為σi=(σ1i,σ2i, …,σni)T,其中每個(gè)向量的分量計(jì)算公式如式(10)所示。

式(10)中,σij表示聚類zi內(nèi)樣本到聚類中心的標(biāo)準(zhǔn)差向量分量,Ni表示聚類zi中的所用樣本數(shù)量,j表示樣本的特征向量的維數(shù)。求得標(biāo)準(zhǔn)差向量之后取最大值,當(dāng)最大值大于聚類域中的樣本標(biāo)準(zhǔn)差時(shí),則將聚類zi分裂為2個(gè)聚類,并令K=K+1。分裂完成之后,重新將聚類中心設(shè)定為初始聚類進(jìn)行迭代,直到達(dá)到最大迭代次數(shù)。

由于研究的蟲害樣本數(shù)據(jù)集來源于網(wǎng)絡(luò)爬取,圖像的寬高和大小均不統(tǒng)一,影響CNN卷積網(wǎng)絡(luò)的圖像輸入。出于兼顧模型全局特征提取和局部特征提取的目的,研究在YOLO-v3的卷積層中加入空間金字塔池化(Space Pyramid Pooling, SPP)結(jié)構(gòu)??臻g金字塔池化可以有效提升特征的表達(dá)能力,同時(shí)產(chǎn)生固定的特征向量??臻g金字塔池化結(jié)構(gòu)如圖2所示。

假設(shè)輸入圖像的大小為WI×HI×CI,分別表示圖像的寬、高以及通道數(shù)。輸出圖像大小為n×n× Co,分別表示池化數(shù)量和輸出通道數(shù)。根據(jù)以上參數(shù),計(jì)算池化層核心大小為池化層步長(zhǎng)為同時(shí),池化層的Padding計(jì)算公式如式(11)所示。

得出卷積網(wǎng)絡(luò)池化層的參數(shù)則可以得出輸出圖像的大小,其寬、高表述如式(12)所示。

式(12)中,WO和HO表示輸出圖像的寬和高。最后,將輸入圖像的大小參數(shù),分別代入輸出圖像

大小的計(jì)算公式,可以得出以下數(shù)學(xué)表述。

如式(13)所示,可以得出WO=n,HO=n,表明空間金字塔池化結(jié)構(gòu)接受輸入圖像的不同大小。根據(jù)以上YOLO-v3融合迭代自組織聚類算法的果蔬蟲害圖像聚類識(shí)別,將模型的流程結(jié)構(gòu)用圖3表示。

圖3 融合迭代自組織聚類與YOLO-v3網(wǎng)絡(luò)的蟲害圖像識(shí)別模型優(yōu)化流程

如圖3所示,研究所構(gòu)建的YOLO-v3蟲害識(shí)別模型在圖像預(yù)處理階段,通過平移翻轉(zhuǎn)圖像解決了數(shù)據(jù)集樣本數(shù)量較少的問題。在圖像特征提取階段采用了非整體標(biāo)注方法,用于分辨檢測(cè)柵格塊的害蟲目標(biāo)個(gè)數(shù)。在卷積層池化階段,引入了空間金字塔池化結(jié)構(gòu),解決了網(wǎng)絡(luò)爬取圖像大小尺寸不統(tǒng)一的問題。最后,在聚類階段選擇迭代自組織聚類算法,應(yīng)對(duì)傳統(tǒng)K-Means算法的K值隨機(jī)性問題和對(duì)網(wǎng)絡(luò)爬取蟲害圖像數(shù)據(jù)樣本噪聲要求苛刻的問題。

3 改進(jìn)YOLO-v3模型在果蔬蟲害檢測(cè)中的應(yīng)用研究

3.1 YOLO-v3果蔬蟲害檢測(cè)模型的仿真訓(xùn)練

本次試驗(yàn)的訓(xùn)練數(shù)據(jù)集來源于網(wǎng)絡(luò)圖像爬取,圖像包括了夏、秋兩季常見的5種果蔬植物害蟲。害蟲圖像數(shù)據(jù)集共計(jì)9455個(gè)樣本,其中,1100個(gè)預(yù)留為測(cè)試樣本,其余8355個(gè)樣本劃分為訓(xùn)練樣本。具體的果蔬害蟲圖像樣本見表1。

從表1中可以看出,本次用于仿真試驗(yàn)的圖像數(shù)據(jù)集包括了菜青蟲、葉蟬、桑天牛、蝽象、飛蛾5種。仿真試驗(yàn)主要應(yīng)用的軟件平臺(tái)為PyCharm,設(shè)置仿真訓(xùn)練的最大迭代次數(shù)為8000次,學(xué)習(xí)率為0.01,權(quán)重衰減為0.0005。將訓(xùn)練完成的模型代入其余訓(xùn)練樣本中,進(jìn)行最大次數(shù)為100的仿真訓(xùn)練,對(duì)比傳統(tǒng)YOLO-v3網(wǎng)絡(luò)模型與優(yōu)化后YOLO-v3果蔬蟲害識(shí)別模型在訓(xùn)練過程中的識(shí)別精度,具體如圖4所示。

圖4 傳統(tǒng)YOLO-v3網(wǎng)絡(luò)模型與優(yōu)化YOLO-v3 的訓(xùn)練結(jié)果

表1 圖像樣本數(shù)據(jù)集參數(shù)以及改進(jìn)的YOLO-v3模型參數(shù)

從圖4可以看出,優(yōu)化后的YOLO-v3網(wǎng)絡(luò)模型與傳統(tǒng)模型在迭代次數(shù)超過40次之后,模型識(shí)別精度趨于平穩(wěn)。優(yōu)化后的模型的精度在0.8~0.9區(qū)間內(nèi)浮動(dòng),而傳統(tǒng)的YOLO-v3則在0.7~0.8的精度值區(qū)間內(nèi)變化。同時(shí),本次試驗(yàn)的優(yōu)化模型的損失值在迭代次數(shù)超過40次后,大部分變化均在0.00~0.75之間。完成模型的訓(xùn)練之后,試驗(yàn)將優(yōu)化模型中的圖像非整體標(biāo)注方法與傳統(tǒng)的整體標(biāo)注方法對(duì)比,在測(cè)試樣本中隨機(jī)選擇30份圖像樣本,對(duì)比不同標(biāo)注方法對(duì)模型識(shí)別性能的影響,具體測(cè)試結(jié)果如圖5所示。

圖5 不同標(biāo)注方法下YOLO-v3模型的害蟲識(shí)別性能

圖5 中縱軸的1~5分別表示菜青蟲、葉蟬、桑天牛、蝽象、飛蛾5種害蟲種類。從折線圖可以得知,本次30份樣本測(cè)試中,采用非整體標(biāo)注方法優(yōu)化YOLO-v3模型僅有3處識(shí)別錯(cuò)誤,識(shí)別準(zhǔn)確率為90%;而采用整體標(biāo)注方法的YOLO-v3模型共出現(xiàn)了6處識(shí)別失誤,識(shí)別準(zhǔn)確率為80%。試驗(yàn)表明:YOLO-v3模型在處理圖像樣本時(shí),采用非整體標(biāo)注方法可以有效地保持模型的分類性能,非整體標(biāo)注方法比整體標(biāo)注方法更可靠。在確定了模型的圖像樣本處理方法之后,本次試驗(yàn)將對(duì)有效像素比的數(shù)值選擇進(jìn)行仿真測(cè)試,驗(yàn)證有效像素比的取值對(duì)模型精度性能的影響。本次試驗(yàn)的測(cè)試樣本從1100個(gè)樣本中隨機(jī)選取,有效像素比參數(shù)取值為30%、60%、80%、90%,分別在圖中以字母a、b、c、d表示,對(duì)比結(jié)果見圖6。

由圖6可以看出,在有效像素比值的不同取值情況下,模型的識(shí)別精度整體與迭代次數(shù)呈正相關(guān)。當(dāng)測(cè)試樣本的迭代次數(shù)為70次時(shí),模型的識(shí)別精度最高為采用80%比值的模型,其mAP為90.2%。其次為90% EPP值的YOLO-v3模型,模型的mAP為81.8%。而在60%和30%有效像素比值情況下,模型的最高精度分別為78.1%和62.1%,其值遠(yuǎn)低于90%和80% EPP的情況,因此不作考慮。在圖6中,90% EPP的模型最高mAP出現(xiàn)在迭代次數(shù)為50次的時(shí)候,而在迭代次數(shù)大于50次時(shí),模型的精度反而下降。表明在高像素比的情況下,模型的非整體標(biāo)注圖像方法反而使模型損失了更多的圖像特征信息。本次試驗(yàn)的最大訓(xùn)練迭代次數(shù)超過了50次,因此研究的YOLO-v3模型的圖像有效像素比參數(shù)取值為80%。至此,模型的訓(xùn)練和參數(shù)校對(duì)完成,以下試驗(yàn)部分將對(duì)模型進(jìn)行對(duì)比,參考不同信息的圖像,對(duì)模型的識(shí)別檢測(cè)性能進(jìn)行全面分析。

圖6 不同有效像素比參數(shù)下YOLO-v3模型的害蟲識(shí)別性能

3.2 YOLO-v3果蔬蟲害檢測(cè)模型的性能測(cè)試

為了突出迭代自組織聚類算法和YOLO-v3網(wǎng)絡(luò)模型在果蔬害蟲識(shí)別檢測(cè)中的優(yōu)越性能,試驗(yàn)將1100份測(cè)試樣本數(shù)據(jù)全部代入Faster-RCNN、SSD-300、傳 統(tǒng)YOLO-v3和 優(yōu) 化YOLO-v3模 型中,不同種類害蟲的識(shí)別精度情況如圖7所示。

圖7 不同種類害蟲的識(shí)別精度情況

從圖7可以看出,整體的識(shí)別精度上優(yōu)化YOLO -v3優(yōu)于其他算法。在菜青蟲的圖像識(shí)別中,優(yōu)化YOLO-v3模型的識(shí)別率為86.6%,比Faster-RCNN模型高2.2個(gè)百分點(diǎn),比SSD-300算法高7.5個(gè)百分點(diǎn),比傳統(tǒng)YOLO-v3模型高1.1個(gè)百分點(diǎn)。而在飛蛾的識(shí)別中,優(yōu)化YOLO-v3模型的識(shí)別率同樣最高,為87.8%。桑天牛圖像識(shí)別中,優(yōu)化YOLO-v3模型的識(shí)別率為92.1%,比第2高的Faster-RCNN模型多出1.9個(gè)百分點(diǎn)。而在蝽象和葉蟬的圖像識(shí)別中,優(yōu)化YOLO-v3模型的識(shí)別率為89.8%和88.3%。模型的蟲害綜合識(shí)別精度如表2所示。

表2 4種算法模型的綜合識(shí)別精度和識(shí)別速度情況

由表2可知,在綜合識(shí)別精度上,最高的算法模型為優(yōu)化的YOLO-v3網(wǎng)絡(luò),其mAP為88.92%,比Faster-RCNN高3.7個(gè)百分點(diǎn)。而在識(shí)別速度上,速度最快的為SSD-300,速度為41幀/s,其次為傳統(tǒng)YOLO-v3模型,速度為25幀/s。研究?jī)?yōu)化的YOLO-v3網(wǎng)絡(luò)在速度上僅比傳統(tǒng)YOLO-v3模型低4幀/s。試驗(yàn)表明:模型在對(duì)比害蟲等小目標(biāo)圖像內(nèi),精度性能優(yōu)越。因此,試驗(yàn)將對(duì)比不同模型在馬鈴薯、大白菜、梨樹以及蘋果樹圖像中的蟲害檢測(cè)效果,具體結(jié)果如圖8所示。

圖8 不同種類果蔬的蟲害識(shí)別精度情況

從圖8中可以看出,在馬鈴薯蟲害的圖像識(shí)別中,優(yōu)化YOLO-v3模型的識(shí)別精度為88.91%。在大白菜蟲害的圖像識(shí)別中,優(yōu)化YOLO-v3模型的識(shí)別精度為86.27%。在梨樹蟲害的圖像識(shí)別中,優(yōu)化YOLO-v3模型的識(shí)別精度為88.91%。在蘋果樹蟲害的圖像識(shí)別中,優(yōu)化YOLO-v3模型的識(shí)別精度為85.21%。在果蔬植物圖像背景的影響下,模型的綜合識(shí)別精度如表3所示。

表3 4種算法模型的綜合識(shí)別精度和識(shí)別速度情況

由表3可知,在綜合識(shí)別精度上,最高的算法模型為優(yōu)化的YOLO-v3網(wǎng)絡(luò),其mAP為87.32%,比傳統(tǒng)YOLO-v3模型高4.4個(gè)百分點(diǎn)。而在識(shí)別速度上,速度最快的為SSD-300,速度為26幀/s,其次為研究構(gòu)建的優(yōu)化YOLO-v3模型,速度為17幀/s。試驗(yàn)表明:模型在對(duì)比果蔬植物背景的蟲害目標(biāo)檢測(cè)中,精度、性能保持穩(wěn)定。最后,試驗(yàn)隨機(jī)從測(cè)試數(shù)據(jù)集中抽取50個(gè)樣本,測(cè)試模型的識(shí)別精度,具體見圖9。

圖9 優(yōu)化YOLO-v3模型的識(shí)別測(cè)試

圖9中縱軸的1~5分別表示菜青蟲、葉蟬、桑天牛、蝽象、飛蛾5種害蟲種類。從折線圖可以得知,本次50份樣本測(cè)試中,識(shí)別正確的樣本共計(jì)45份,識(shí)別準(zhǔn)確率為90%。

4 結(jié)論

出于確定模型參數(shù)并驗(yàn)證模型性能的目的,研究在構(gòu)建了蟲害圖像數(shù)據(jù)集后,經(jīng)過仿真訓(xùn)練和不同參數(shù)結(jié)果的測(cè)試試驗(yàn),確定了EPP參數(shù)為80%的同時(shí),也驗(yàn)證了非整體標(biāo)注圖像處理方法的有效性。以害蟲種類和果蔬圖像背景為區(qū)分,研究進(jìn)行了2次模型的識(shí)別精度和檢測(cè)速度對(duì)比。在害蟲種類識(shí)別的訓(xùn)練中,優(yōu)化的YOLO-v3網(wǎng)絡(luò)mAP為88.92%,比Faster-RCNN高3.7個(gè)百分點(diǎn)。而在果蔬圖像背景測(cè)試中,優(yōu)化的YOLO-v3網(wǎng)絡(luò)mAP為87.32%,比傳統(tǒng)YOLO-v3模型高4.4個(gè)百分點(diǎn)。試驗(yàn)表明:在不同的圖像目標(biāo)分類中,研究構(gòu)建的YOLO-v3模型比Faster-RCNN和傳統(tǒng)YOLO-v3網(wǎng)絡(luò)精度更高,測(cè)試性能更穩(wěn)定。本次試驗(yàn)的不足之處在于2次測(cè)試試驗(yàn)的數(shù)據(jù)來源單一,缺乏實(shí)際數(shù)據(jù)樣本進(jìn)行對(duì)比,模型的實(shí)際應(yīng)用效果有待進(jìn)一步確定。

猜你喜歡
蟲害果蔬害蟲
蝸牛一覺能睡多久?
冬季果樹常見蛀干害蟲的防治
桃樹主要蟲害及防治方法
河北果樹(2020年4期)2020-11-26 06:05:04
奇思妙想的果蔬們
童話世界(2019年26期)2019-09-24 10:57:56
不用農(nóng)藥也能治蟲害
清洗果蔬農(nóng)殘 你做對(duì)了嗎
這些果蔬能保護(hù)呼吸道
淺析白三葉的蟲害防治
行道樹香櫞主要蟲害及其防治
棗樹害蟲的無公害防治
康保县| 罗江县| 阿拉善左旗| 电白县| 绥化市| 久治县| 桂东县| 如皋市| 聂拉木县| 博兴县| 邮箱| 东阳市| 丽江市| 水富县| 延川县| 新竹县| 锡林郭勒盟| 永胜县| 志丹县| 筠连县| 炎陵县| 宁远县| 永川市| 鹤峰县| 湖州市| 定边县| 恩施市| 扎兰屯市| 香港 | 汶上县| 台东市| 鱼台县| 突泉县| 南阳市| 芦山县| 托里县| 平舆县| 泸水县| 安化县| 许昌县| 泰来县|