張會(huì)敏 吉秉彧 謝澤奇
摘要:玉米是我國(guó)主要的農(nóng)業(yè)糧食作物,害蟲嚴(yán)重影響其產(chǎn)量和質(zhì)量。為快速、準(zhǔn)確地識(shí)別玉米害蟲,針對(duì)現(xiàn)有卷積神經(jīng)網(wǎng)絡(luò)識(shí)別方法需要大量數(shù)據(jù)集和關(guān)鍵特征易丟失等問題,提出一種基于多尺度注意力機(jī)制網(wǎng)絡(luò)(MCANet)的玉米害蟲識(shí)別方法。首先,該方法采用空間金字塔循環(huán)(SPR)模塊提取不同害蟲圖像的類型和位置信息;其次,在特征融合模塊中引入多級(jí)通道注意力機(jī)制模塊,以保障高維語義信息與低維特征的有效融合;同時(shí)將多尺度空洞卷積模塊引入多級(jí)通道注意力網(wǎng)絡(luò)模型,構(gòu)建多尺度多通道注意力網(wǎng)絡(luò)模型,來提取多尺度判別特征,提高模型的識(shí)別效率;最后,在1個(gè)較小的玉米害蟲圖像數(shù)據(jù)集上進(jìn)行試驗(yàn),實(shí)現(xiàn)對(duì)玉米紅緣燈蛾、葉夜蛾、玉米黏蟲、玉米螟害蟲的識(shí)別,當(dāng)訓(xùn)練樣本與測(cè)試樣本之比為90 ∶10時(shí),玉米害蟲識(shí)別準(zhǔn)確率高達(dá)91.60%,與多尺度殘差神經(jīng)網(wǎng)絡(luò)(MSRNN)、改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)(ICNN)、VGG-ICNN、輕量級(jí)CNN(LWCNN)相比,識(shí)別率分別提高24.40、18.77、8.00、4.40百分比。結(jié)果表明,該方法在小訓(xùn)練樣本集中具有較強(qiáng)的魯棒性和較高的識(shí)別率,為農(nóng)作物病蟲害智能化防治提供技術(shù)支持。
關(guān)鍵詞:玉米害蟲;多尺度空洞模塊;空間金字塔循環(huán)模塊;多尺度注意力機(jī)制網(wǎng)絡(luò)
中圖分類號(hào):TP391.41文獻(xiàn)標(biāo)志碼:A
文章編號(hào):1002-1302(2024)09-0241-07
我國(guó)是農(nóng)業(yè)大國(guó),玉米是我國(guó)典型的農(nóng)作物之一,穩(wěn)定玉米產(chǎn)量對(duì)糧食安全、農(nóng)民增收和國(guó)民經(jīng)濟(jì)具有重要意義,但玉米害蟲是降低玉米質(zhì)量和產(chǎn)量的直接因素[1]?;谌斯ぶ悄芗夹g(shù)的農(nóng)作物害蟲自動(dòng)識(shí)別具有快速、精確、實(shí)時(shí)等優(yōu)點(diǎn),能夠協(xié)助農(nóng)耕人員及時(shí)采取有效的防治措施[2-4]。因大田中的害蟲具有各種形狀、姿態(tài)和背景干擾等因素,農(nóng)作物害蟲的檢測(cè)和識(shí)別是一項(xiàng)意義重大且具有挑戰(zhàn)性的課題。
深度學(xué)習(xí)在復(fù)雜圖像的分割和特征提取方面有著明顯的優(yōu)勢(shì),在圖像檢測(cè)和識(shí)別等方面均優(yōu)于目前最有效的傳統(tǒng)模式識(shí)別算法。卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,簡(jiǎn)稱CNN)通過訓(xùn)練來學(xué)習(xí)圖像的多層次特征,比如圖案、顏色、紋理等。農(nóng)作物害蟲具有這些特征,CNN適用于害蟲的檢測(cè)和識(shí)別[5]。因此,CNN是作物害蟲檢測(cè)的一種有效方法。Patel等比較了3種廣泛使用的深度學(xué)習(xí)模型應(yīng)用于飛行昆蟲識(shí)別的性能[6]。Nanni等提出一種將顯著性方法和CNN相結(jié)合的自動(dòng)分類器,其中采用顯著性方法對(duì)圖像進(jìn)行預(yù)處理,訓(xùn)練4種不同的CNN模型[7]。程曦等分別使用GoogLeNet和AlexNet模型對(duì)儲(chǔ)糧害蟲圖像進(jìn)行識(shí)別,準(zhǔn)確率均達(dá)到95%以上[8]。趙輝等提出將注意力機(jī)制與 YOLO v7 模型相結(jié)合的害蟲識(shí)別方法,該方法可抑制復(fù)雜背景,更好地獲得害蟲目標(biāo)位置信息,并在實(shí)際農(nóng)田中驗(yàn)證算法的有效性[9]。Liu等提出一種基于深度學(xué)習(xí)的端到端的大規(guī)模多類害蟲檢測(cè)分類方法,該方法可以生成各種尺度的高質(zhì)量融合特征用于目標(biāo)檢測(cè),顯著提高了傳統(tǒng)檢測(cè)框架的準(zhǔn)確性,但在該方法中,小對(duì)象容易在深層丟失,同時(shí)上下文線索也會(huì)被削弱[10]。作物害蟲的檢測(cè)與識(shí)別一直面臨著困難,因?yàn)樘镩g的小害蟲會(huì)降低害蟲檢測(cè)的準(zhǔn)確性。熊夢(mèng)園等提出一種基于改進(jìn)遷移學(xué)習(xí)模型的玉米葉片病害檢測(cè)與識(shí)別方法,該方法將CBAM注意力機(jī)制和FPN特征金字塔網(wǎng)絡(luò)融入到ResNet模型,取得較好的識(shí)別效果[11]。李靜等提出一種基于改進(jìn)GoogLeNet模型的玉米螟害蟲識(shí)別方法,該方法通過遷移學(xué)習(xí)將GoogLeNet的Inception-v4
網(wǎng)絡(luò)結(jié)構(gòu)知識(shí)轉(zhuǎn)移到玉米螟害蟲識(shí)別的任務(wù)上,同時(shí)利用Inception模塊擁有多尺度卷積核提取多尺度玉米螟害蟲分布特征的能力構(gòu)建網(wǎng)絡(luò)模型,引入批標(biāo)準(zhǔn)化(batch normalization,簡(jiǎn)稱BN)操作加速優(yōu)化模型網(wǎng)絡(luò)訓(xùn)練,該方法在玉米螟害蟲識(shí)別中獲得較好的識(shí)別效果[12]。汪健等提出一種基于深度殘差網(wǎng)絡(luò)與遷移學(xué)習(xí)的水稻害蟲圖像識(shí)別方法,該方法主要將遷移學(xué)習(xí)方法應(yīng)用到ResNet34網(wǎng)絡(luò),并進(jìn)行算法改進(jìn),提升網(wǎng)絡(luò)性能,對(duì)水稻病害蟲圖像具有較高的識(shí)別結(jié)果[13]。
基于前人的研究,在多尺度卷積起始模塊和注意力機(jī)制的啟發(fā)下,本研究構(gòu)建了基于多尺度注意力機(jī)制卷積神經(jīng)網(wǎng)絡(luò)模型的玉米害蟲識(shí)別方法,旨在降低對(duì)模型訓(xùn)練樣本量的依賴,實(shí)現(xiàn)在有限訓(xùn)練樣本條件下獲取多類別樣本間的共同特征。
1 材料與方法
1.1 圖像數(shù)據(jù)采集
本算法使用的數(shù)據(jù)集主要通過佳能D7100、華為Mate50等圖像采集設(shè)備獲取。在陜西楊凌農(nóng)業(yè)示范園,采集紅緣燈蛾、葉夜蛾、玉米黏蟲、玉米螟等4種常見的玉米害蟲圖像進(jìn)行試驗(yàn),在田間采集每種害蟲圖像各250幅,共1 000幅,每幅害蟲圖像的分辨率都統(tǒng)一設(shè)置為1 024像素×768像素,玉米害蟲圖像如圖1-a所示。
由圖1可知,每種害蟲的大小、顏色、姿態(tài)、背景圖像、位置等各有差異。為增加圖像集數(shù)量,便于加快網(wǎng)絡(luò)訓(xùn)練,本研究將采集到的每幅圖像的分辨率都統(tǒng)一調(diào)整為416像素×416像素,轉(zhuǎn)換成RGB 3通道圖作為網(wǎng)絡(luò)的數(shù)據(jù)輸入。為擴(kuò)大數(shù)據(jù)集,利用Python圖像增強(qiáng)技術(shù)將每幅圖像分別旋轉(zhuǎn)90°、180°,然后再將圖像進(jìn)行模糊、增加噪聲、變亮、變暗、翻轉(zhuǎn)等形式的預(yù)處理,將每幅原始圖像擴(kuò)增為18幅,如圖1-b所示;最后構(gòu)建1個(gè)包含18 000幅圖像的擴(kuò)展數(shù)據(jù)集。
1.2 多級(jí)通道注意力機(jī)制網(wǎng)絡(luò)模型
1.2.1 通道注意力機(jī)制
在CNN學(xué)習(xí)過程中,不同深度的卷積層獲取的特征圖不同,其中淺層卷積層能夠獲取圖像的局部特征,隨著卷積層的增加,卷積核的局部感受野增大,從而獲取圖像的全局特征。由于淺層卷積學(xué)習(xí)的特征對(duì)局部特征信息敏感,而深層卷積層對(duì)局部信息變化不敏感,因此很可能產(chǎn)生特征丟失現(xiàn)象。為防止網(wǎng)絡(luò)學(xué)習(xí)出現(xiàn)特征丟失,采用通道注意力機(jī)制,將特征信息的全局分布響應(yīng)在特征通道中,使淺層卷積能夠獲取全局感受野,同時(shí)深層卷積也可提取到有用的特征信息,且抑制無用的特征。通道注意力機(jī)制結(jié)構(gòu)如圖2所示,其中H、W和C分別表示卷積核的長(zhǎng)度、寬度和通道中的特征圖數(shù)量,F(xiàn)tr表示卷積操作,F(xiàn)tr輸出用U來表示,U=U1,U2,…,Uc,F(xiàn)sq表示特征權(quán)重提取操作,F(xiàn)表示特征通道權(quán)重更新,F(xiàn)scale為特征圖權(quán)重映射,X[DD(-*2]~表示特征映射Uc和標(biāo)量Sc之間的對(duì)應(yīng)通道乘積。
在具體的通道注意力機(jī)制操作過程中,首先使用全局平均池化操作獲取每個(gè)通道的權(quán)重值,然后使用全連接層、ReLU激活函數(shù)和Sigmoid激活函數(shù)獲取不同的特征權(quán)重, 最后使用點(diǎn)乘操作獲取具有通道注意力機(jī)制的特征圖。通道注意力機(jī)制的計(jì)算過程如下。
(1)特征權(quán)重提?。?/p>
式中:H、W、C分別表示卷積核長(zhǎng)度、寬度和通道中的特征圖數(shù)量;i和j表示特征圖中的每個(gè)像素點(diǎn)。
(2)權(quán)重更新操作:
式中:δ表示ReLU激活函數(shù);σ表示Sigmoid激活函數(shù);Fex表示特征通道權(quán)重更新;W1表示降維層參數(shù);W2表示升維層參數(shù);W1∈R(c[]r)×c,W2∈Rc×(c[]r),z∈Rc。
式中:Sc表示通道C中的權(quán)重參數(shù);Uc表示特征映射,Uc∈RH×W。
1.2.2 空間金字塔循環(huán)結(jié)構(gòu)
在作物害蟲圖像檢測(cè)過程中,不同的害蟲類型對(duì)檢測(cè)算法的精度有很大影響。因此,在MCANet構(gòu)建過程中,使用空間金字塔循環(huán)(spatial pyramid recirculating,簡(jiǎn)稱SPR)模塊提取不同害蟲圖像的類型和位置信息。使用空間金字塔結(jié)構(gòu)提取多尺度信息,并使用循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,簡(jiǎn)稱RNN)實(shí)現(xiàn)不同尺度的信息傳遞,能夠顯著增強(qiáng)SPR模塊的特征提取能力,空間金字塔循環(huán)模塊的結(jié)構(gòu)如圖3所示。
為了獲取不同尺度的特征信息,首先使用雙線性插值對(duì)輸入特征進(jìn)行尺度調(diào)整,然后對(duì)每個(gè)特征圖執(zhí)行卷積操作,其中所有的卷積核尺寸為3×3,輸出通道為256。在構(gòu)建SPR模塊時(shí),需要考慮特征下采樣的數(shù)量和尺度,當(dāng)下采樣尺度較小時(shí),網(wǎng)絡(luò)參數(shù)將增加,從而導(dǎo)致計(jì)算參數(shù)的數(shù)量增加;如果下采樣倍數(shù)較大,將造成網(wǎng)絡(luò)性能下降,因此,在MCANet中使用2次下采樣操作來構(gòu)建SPR模塊。由于不同的卷積核可以提取不同的圖像特征信息,而不同的特征信息之間存在相互關(guān)系,例如類別信息和位置信息等,因此,SPR模塊使用RNN建立不同特征信息之間的相互關(guān)系,從而增強(qiáng)網(wǎng)絡(luò)模型的特征提取能力。
1.2.3 卷積特征融合
卷積特征融合模塊主要用于不同卷積層的特征融合,其輸入為不同卷積層的特征圖,而輸出為融合后的特征圖。卷積特征融合模塊的結(jié)構(gòu)如圖4所示。在該模塊中,使用雙線性插值算法對(duì)輸入的特征圖進(jìn)行4倍上采樣,然后將插值結(jié)果作為1×1卷積層的輸入。為使特征融合模塊更好地指導(dǎo)網(wǎng)絡(luò)檢測(cè)結(jié)果,將淺層低維特征融入高維特征。在特征融合過程中,常用的方法是直接在通道維度上連接具有相同特征尺寸的高維特征和低維特征,然后使用多次卷積運(yùn)算增加網(wǎng)絡(luò)的復(fù)雜度,其結(jié)構(gòu)如圖4-a所示。但是簡(jiǎn)單的連接方法無法充分使用多個(gè)卷積網(wǎng)絡(luò)層,導(dǎo)致無法有效地組合低維特征和高維特征,為更好地執(zhí)行特征融合操作,在特征融合模塊中引入多級(jí)通道注意力機(jī)制模塊,以保障高維語義信息與低維特征的有效融合,其結(jié)構(gòu)如圖4-b所示。
在卷積特征融合模塊中,通過連接操作將圖像中的高維特征和低維特征進(jìn)行融合,利用多次卷積操作得到特征F1,然后在特征F1的通道維度上引入注意力機(jī)制。卷積特征融合計(jì)算公式為
式中:W1表示每個(gè)通道的權(quán)重值;σ表示Sigmoid函數(shù);F1和F2分別表示卷積層特征和融合后的特征。
1.2.4 多尺度空洞模塊Inception
Inception是一個(gè)多尺度卷積網(wǎng)絡(luò)模塊,能夠并行組合不同的卷積層,由不同卷積層提取的特征在深度、維度上拼接以形成更深的矩陣,提取不同尺度特征,其結(jié)構(gòu)如圖5所示。
1.2.5 多級(jí)通道注意力網(wǎng)絡(luò)模型
多級(jí)通道注意力網(wǎng)絡(luò)模型MCANet是基于編碼-解碼結(jié)構(gòu)(encoder-decoder,簡(jiǎn)稱ED)的端到端的作物害蟲檢測(cè)模型,其中輸入為任意尺寸大小的圖像,輸出為檢測(cè)結(jié)果。MCANet的整體結(jié)構(gòu)如圖6所示,包括3組并行的編碼-解碼結(jié)構(gòu),用于處理RGB圖像
的3個(gè)不同通道。在ED中使用卷積(Conv)和反卷積(Deconv)操作,其中卷積階段使用VGGNet模型作為特征提取網(wǎng)絡(luò),隨著卷積層的增加,特征圖的大小逐漸減小,這可以解釋為下采樣過程。下采樣有利于提取圖像的高級(jí)特征,但可能導(dǎo)致圖像檢測(cè)過程中特征信息的丟失,因此在反卷積階段重構(gòu)得到特征圖,并逐漸增大特征圖尺寸,直到輸出結(jié)果為輸入大小為止,這可解釋為上采樣過程。
為提高網(wǎng)絡(luò)對(duì)小目標(biāo)區(qū)域的特征提取能力,在每個(gè)池化層的操作前引入通道注意力機(jī)制,能夠?yàn)槊總€(gè)像素點(diǎn)提供全局特征信息,并增強(qiáng)有用特征表達(dá)。在每個(gè)ED之間使用SRP增強(qiáng)不同大小特征的信息交換。為提高網(wǎng)絡(luò)提取多尺度目標(biāo)的能力,尤其是小尺度目標(biāo)和邊緣信息,采用多層次通道注意力機(jī)制形成特征融合塊,提供更豐富的特征信息,用于融合全局語義信息和局部細(xì)節(jié)信息,從而獲得更好的識(shí)別效果。
2 試驗(yàn)
為表明MCANet進(jìn)行作物害蟲識(shí)別的有效性,進(jìn)行試驗(yàn)驗(yàn)證。將MCANet訓(xùn)練的批處理大小設(shè)為25,迭代次數(shù)設(shè)為3 000,學(xué)習(xí)率設(shè)為1.5×10-4,Adam作為模型的優(yōu)化器。為驗(yàn)證本算法的有效性,試驗(yàn)于2023年9—10月在IBM服務(wù)器上進(jìn)行,試驗(yàn)環(huán)境為Ubuntu 14.04操作系統(tǒng)、內(nèi)存32 G、核心硬件運(yùn)算平臺(tái)為Intel i7 CPU Ti GPU1080,深度學(xué)習(xí)架構(gòu)為tersonflow 2.0,編程語言為Python 3.9。
對(duì)4種網(wǎng)絡(luò)VGG16[14]、SCapsNet[15]、ACapsNet[16]和本算法進(jìn)行5折交差驗(yàn)證對(duì)比試驗(yàn),識(shí)別率隨迭代次數(shù)變化結(jié)果如圖7所示。由圖7可以看出,當(dāng)?shù)螖?shù)達(dá)到1 000次后,本算法趨于收斂,其收斂效果和準(zhǔn)確率明顯高于其他3種模型。表明空洞Inception收斂速度最快、害蟲識(shí)別效果更好,引入特征融合模塊的卷積層使用空洞Inception可以提高害蟲識(shí)別的準(zhǔn)確率。
從圖7可以看出,本算法和SCapsNet的收斂效果明顯優(yōu)于VGG16。主要原因是本算法和SCapsNet引入了多尺度卷積Inception模塊,使Inception模塊替代了SCNN中的卷積層,解決了CNN中最大池化導(dǎo)致重要信息丟失的問題;本算法與SCapsNet的主要區(qū)別在于本算法的卷積層為空洞多尺度卷積Inception,減少了網(wǎng)絡(luò)訓(xùn)練參數(shù),加速了網(wǎng)絡(luò)收斂。
為了說明本算法能夠在訓(xùn)練樣本有限情況下的有效性,將本算法與4種近期的作物害蟲識(shí)別方法,即多尺度殘差神經(jīng)網(wǎng)絡(luò)(MSRNN)[17]、改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)(ICNN)[18]、VGG-ICNN[19]和輕量級(jí)CNN(LWCNN)[20]在原始圖像數(shù)據(jù)集上進(jìn)行驗(yàn)證試驗(yàn),訓(xùn)練樣本數(shù)與測(cè)試樣本數(shù)之比為m ∶n, 其中m為每類害蟲的訓(xùn)練樣本數(shù),n為每類害蟲的測(cè)試樣本數(shù)。選擇迭代次數(shù)為3 000次,重復(fù)試驗(yàn)5次,平均識(shí)別率見表1。
由表1可以看出,當(dāng)訓(xùn)練樣本數(shù)越來越少時(shí),基于所有模型的害蟲識(shí)別方法的識(shí)別率越來越低,但輕量級(jí)CNN和本算法的識(shí)別率比其他3種算法降低幅度小,且本研究算法的降低幅度最小,當(dāng)m ∶n= 10 ∶90,即訓(xùn)練樣本為10幅、測(cè)試樣本為90幅圖像時(shí),本算法識(shí)別率達(dá)到了83.18%,盡管識(shí)別率降低了8.42百分點(diǎn),但比MSRNN、ICNN、VGG-ICNN、LWCNN分別高42.39、32.80、35.30、34.22百分點(diǎn),主要原因是本算法可有效提高網(wǎng)絡(luò)提取多尺度目標(biāo)的能力,尤其是小尺度目標(biāo)和邊緣信息,采用多層次的通道注意力機(jī)制形成特征融合塊,提供更豐富的特征,用于融合全局語義信息和局部細(xì)節(jié)信息,從而獲得更好的識(shí)別效果。試驗(yàn)結(jié)果表明,本算法能夠在訓(xùn)練樣本比較少的情況下達(dá)到較高的識(shí)別率。
可視化本算法卷積模塊的部分輸出如圖8所示,可以看出,本算法能夠捕獲害蟲的細(xì)節(jié)信息,隨著網(wǎng)絡(luò)的加深,網(wǎng)絡(luò)層提取的特征越來越抽象,低級(jí)卷積特征圖包含了害蟲的基本輪廓特征,即網(wǎng)絡(luò)的較淺層提取物體的空間特征;而高級(jí)卷積特征圖包含害蟲的細(xì)節(jié)特征,采用不同卷積核能夠?qū)W習(xí)圖像中的不同特征,充分提取關(guān)注部分圖像的顯著區(qū)域。同時(shí),特征圖分辨率越來越低,表明提取的特征不僅抽象,還具有精細(xì)的特點(diǎn)。
3 結(jié)論
針對(duì)實(shí)際大田作物害蟲葉片圖像較少,包含遮擋和復(fù)雜背景,且不同時(shí)期害蟲的大小、形狀和顏色差異較大等特點(diǎn),本研究提出一種基于多級(jí)通道注意力機(jī)制網(wǎng)絡(luò)的玉米害蟲識(shí)別方法,該方法采用空間金字塔循環(huán)模塊提取不同害蟲圖像的類型和位置信息,在特征融合模塊中引入多級(jí)通道注意力機(jī)制模塊,以保障高維語義信息與低維特征的有效融合,同時(shí)將多尺度空洞卷積模塊Inception引入多級(jí)通道注意力網(wǎng)絡(luò)模型,構(gòu)建多尺度多通道注意力網(wǎng)絡(luò)模型,提取多尺度判別特征,提高模型的識(shí)別效率。結(jié)果表明, 本算法具有良好的害蟲檢測(cè)識(shí)別率和泛化性,可為其他農(nóng)作物害蟲檢測(cè)與識(shí)別的進(jìn)一步研究提供參考。
參考文獻(xiàn):
[1]王大慶,祿 琳,于興龍,等. 基于深度遷移學(xué)習(xí)的EfficientNet玉米葉部病害識(shí)別[J]. 東北農(nóng)業(yè)大學(xué)學(xué)報(bào),2023,54(5):66-76.
[2]翟肇裕,曹益飛,徐煥良,等. 農(nóng)作物病蟲害識(shí)別關(guān)鍵技術(shù)研究綜述[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2021,52(7):1-18.
[3]Si M M,Deng M H,Han Y. Using deep learning for soybean pest and disease classification in farmland[J]. Journal of Northeast Agricultural University(English Edition),2019,26(1):64-72.
[4]徐 聰,王旭啟,劉 裕. 一種改進(jìn)可形變FCN的農(nóng)作物害蟲檢測(cè)方法[J]. 江蘇農(nóng)業(yè)科學(xué),2022,50(9):211-219.
[5]Türkogˇlu M,Hanbay D. Plant disease and pest detection using deep learning-based features[J]. Turkish Journal of Electrical Engineering & Computer Sciences,2019,27(3):1636-1651.
[6]Patel D J,Bhatt N. Insect identification among deep learnings meta-
architectures using TensorFlow[J]. International Journal of Engineering and Advanced Technology,2019,9(1):1910-1914.
[7]Nanni L,Maguolo G,Pancino F. Insect pest image detection and recognition based on bio-inspired methods[J]. Ecological Informatics,2020,57:101089.
[8]程 曦,吳云志,張友華,等. 基于深度卷積神經(jīng)網(wǎng)絡(luò)的儲(chǔ)糧害蟲圖像識(shí)別[J]. 中國(guó)農(nóng)學(xué)通報(bào),2018,34(1):154-158.
[9]趙 輝,黃 鏢,王紅君,等. 基于改進(jìn)YOLO v7的農(nóng)田復(fù)雜環(huán)境下害蟲識(shí)別算法研究[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2023,54(10):246-254.
[10]Liu L,Wang R J,Xie C J,et al. PestNet:an end-to-end deep learning approach for large-scale multi-class pest detection and classification[J]. IEEE Access,2019,7:45301-45312.
[11]熊夢(mèng)園,詹 煒,桂連友,等. 基于ResNet模型的玉米葉片病害檢測(cè)與識(shí)別[J]. 江蘇農(nóng)業(yè)科學(xué),2023,51(8):164-170.
[12]李 靜,陳桂芬,安 宇. 基于優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)的玉米螟蟲害圖像識(shí)別[J]. 華南農(nóng)業(yè)大學(xué)學(xué)報(bào),2020,41(3):110-116.
[13]汪 健,梁興建,雷 剛. 基于深度殘差網(wǎng)絡(luò)與遷移學(xué)習(xí)的水稻蟲害圖像識(shí)別[J]. 中國(guó)農(nóng)機(jī)化學(xué)報(bào),2023,44(9):198-204.
[14]Paoletti M E,Haut J M,F(xiàn)ernandez-Beltran R,et al. Capsule networks for hyperspectral image classification[J]. IEEE Transactions on Geoscience and Remote Sensing,2019,57(4):2145-2160.[HJ2mm]
[15]Chicco D. Siamese neural networks:an overview[J]. Artificial Neural Networks,2021,2190:73-94.
[16]張會(huì)敏,謝澤奇,張善文. 基于注意力膠囊網(wǎng)絡(luò)的作物病害識(shí)別方法[J]. 江蘇農(nóng)業(yè)科學(xué),2022,50(6):101-106.
[17]何 欣,李書琴,劉 斌. 基于多尺度殘差神經(jīng)網(wǎng)絡(luò)的葡萄葉片病害識(shí)別[J]. 計(jì)算機(jī)工程,2021,47(5):285-291,300.
[18]鮑文霞,黃雪峰,胡根生,等. 基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)模型的玉米葉部病害識(shí)別[J]. 農(nóng)業(yè)工程學(xué)報(bào),2021,37(6):160-167.
[19]Thakur P S,Sheorey T,Ojha A. VGG-ICNN:a Lightweight CNN model for crop disease identification[J]. Multimedia Tools and Applications,2023,82(1):497-520.
[20]孟 亮,郭小燕,杜佳舉,等. 一種輕量級(jí)CNN農(nóng)作物病害圖像識(shí)別模型[J]. 江蘇農(nóng)業(yè)學(xué)報(bào),2021,37(5):1143-1150.
收稿日期:2023-10-19
基金項(xiàng)目:國(guó)家自然科學(xué)基金(編號(hào):62072378);河南省教育廳高等學(xué)校重點(diǎn)科研項(xiàng)目(編號(hào):20A520045);信陽農(nóng)林學(xué)院2022年校青年基金(編號(hào):QN2022031)。
作者簡(jiǎn)介:張會(huì)敏(1981—),女,河南漯河人,碩士,副教授,研究方向?yàn)橛?jì)算機(jī)應(yīng)用與圖像處理。E-mail:513102773@qq.com。
通信作者:謝澤奇,碩士,教授,研究方向?yàn)橛?jì)算機(jī)應(yīng)用。E-mail:xzq0413@163.com。