施杰 林雙雙 張威 陳立暢 張毅杰 楊琳琳
摘要: ?針對復雜環(huán)境下目前現有的玉米病蟲害檢測方法的精度不理想、模型復雜、難以在移動端部署等問題,本研究提出了基于輕量化改進型YOLOv5s的玉米病蟲害檢測方法。首先,采用輕量級網絡GhostNet替換原始YOLOv5s模型中特征提取網絡和特征融合網絡的卷積層,降低模型的計算量和參數量,提高運行速度,以滿足移動端的部署要求;其次,為彌補GhostNet所帶來的檢測精度下降缺陷,在模型的主干特征提取網絡中引入注意力機制,更加全面地評估特征權值,以增強玉米病蟲害的特征,減弱無關信息的干擾,提升檢測性能;最后,將模型的損失函數由CIOU替換為EIOU,以增強模型對目標的精確定位能力,從而提升模型的收斂速度和回歸精度。試驗結果表明,改進模型相比原始YOLOv5s模型在對供試玉米病蟲害檢測中,P、R和mAP分別提高了1.9個百分點、2.2個百分點和2.0個百分點,分別達到了94.6%、80.2%和88.8%;在保持較高檢測精度的同時,模型的計算量、參數量和模型大小分別減少了50.6%、52.9%和50.4%,解決了檢測模型在移動端的部署問題。
關鍵詞: ?玉米; 病蟲害; 檢測模型; YOLOv5s; 輕量化
中圖分類號: ?TP391.41;S432 ???文獻標識碼: A ???文章編號: ?1000-4440(2024)03-0427-11
A corn disease and pest detection method based on lightweight improved YOLOv5s
SHI Jie1,2, LIN Shuang-shuang1, ZHANG Wei1, CHEN Li-chang1, ZHANG Yi-jie1, YANG Lin-lin1,2
(1.Faculty of Mechanical and Electrical Engineering, Yunnan Agricultural University, Kunming 650201, China; 2.The Key Laboratory for Crop Production and Smart Agriculture of Yunnan Province, Kunming 650201, China)
Abstract: ??Aiming at the problems of unsatisfactory detection accuracy, complex model and difficult deployment on mobile terminals in the existing maize disease and pest detection methods in complex environments, this study proposed a maize disease and pest detection method based on lightweight improved YOLOv5s. Firstly, the lightweight network GhostNet was used to replace the convolutional layer in the feature extraction network and feature fusion network in the original YOLOv5s model, which reduced the calculation and parameter amount of the model and improved the running speed to meet the deployment requirements of the mobile terminal. Secondly, in order to compensate for the problem of detection accuracy degradation caused by GhostNet, the normalization-based attention module (NAM) was introduced into the backbone feature extraction network of the model to evaluate the feature weights more comprehensively, so as to enhance the characteristics of corn diseases and pests, weaken the interference of irrelevant information, and improve the detection performance. Finally, the loss function of the model was replaced by EIOU from CIOU to enhance the models ability to accurately locate the target, so as to improve the convergence speed and regression accuracy of the model. The experimental results showed that compared with the original YOLOv5s model, the P, R and mAP of the final improved model increased by 1.9 percentage points, 2.2 percentage points and 2.0 percentage points, respectively, reaching 94.6%, 80.2% and 88.8%. While maintaining high detection accuracy, the calculation amount, parameter amount and capacity of the model were reduced by 50.6%, 52.9% and 50.4%, which solved the deployment problem of the detection model on the mobile terminal.
Key words: ?corn; pests and diseases; detection model; YOLOv5s; lightweight
玉米是中國主要糧食作物,其種植面積和產量長期穩(wěn)居三大谷物之首。近年來,玉米飼用消費和工業(yè)消費對玉米的需求均持續(xù)增長,玉米產業(yè)的健康穩(wěn)定發(fā)展對國家糧食安全意義重大[1]。研究結果表明,玉米生長期間的病蟲害問題是影響其產量和質量的主要因素。因此,對玉米常見病蟲害進行早期診斷與防治是獲得豐產的重要舉措[2-3]。
農作物在種植期間依靠人工來觀測病蟲害的傳統管理模式,存在著主觀性強、工作量大等問題。隨著人工智能和大數據技術的不斷發(fā)展,利用基于深度學習的機器視覺技術對圖像特征信息進行提取[3-6],能有效解決病蟲害檢測準確率低、效率低等問題,這也是農作物種植管理智能化的重要研究方向。許多學者在這方面開展了大量研究。黃麗明等[7]利用可分離卷積和倒殘差結構對YOLOv4算法進行改進,以提高松材線蟲害識別的精度和效率,試驗結果表明,改進后的算法平均精度達到80.85%,參數大小為44.20 MB;劉天真等[8]利用SE Block結構改善了YOLOv3對自然場景下冬棗果實特征的提取能力,使平均精度達到82.01%,實現了冬棗的快速精準識別;Farjon等[9]使用Faster R-CNN算法檢測蘋果花,模型檢測精度為68.00%;Ferentinos等[10]使用健康與患病的葉片來訓練卷積神經網絡模型,用于識別相應的患病葉片,檢測精度達到99.53%;蘇俊楷等[11]對YOLOv5的主干網絡和頸部網絡進行改進,使玉米病害的檢測精度達到95.93%;徐會杰等[12]提出了YOLOv3-Corn的玉米葉片病蟲害檢測模型,該模型使用Darkknet-53作為特征提取網絡,并利用聚類算法選取先驗框分別匹配到檢測層中進行目標識別,模型檢測精度為93.31%。
雖然隨著技術發(fā)展檢測精度得到提升,但仍存在參數量大、模型復雜等問題,無法將其部署到邊緣端移動設備中進行應用。周維等[13]針對水稻病蟲害檢測精度低、速度慢、模型復雜度高、部署困難等問題,對YOLOv4進行改進,結果表明,改進后模型檢測精度達到79.38%,模型權重大小為42.45 MB;邢潔潔等[14]就垃圾檢測算法在農田復雜環(huán)境下檢測精度不高、模型復雜等問題,對YOLOv5s進行輕量化改進,試驗結果表明,模型最終精度達到了90.90%,在保持精度的同時大幅減少模型復雜度,滿足了邊緣計算設備對模型的性能需求;張振國等[15]為解決紅花采摘機器人在檢測時的精度低與實時性差的問題,提出GSC-YOLOv3算法,該算法先進行輕量化改進,再使用空間金字塔和注意力機制提高模型檢測精度,檢測結果表明,在測試集下的檢測精度達到91.89%,取得良好的效果。王衛(wèi)星等[16]為實時準確檢測荔枝病蟲害,以YOLOv4為基礎進行輕量化改進,同時使用新特征融合方法和注意力機制,最終模型內存占用量比原始模型減小84%,檢測精度提升4.13個百分點,為農作物病蟲害實時檢測研究提供參考。
以上關于農作物病蟲害檢測的研究已經取得了較大進展,但針對玉米病蟲害檢測方面的研究較少。為解決玉米病蟲害檢測方法在復雜環(huán)境下檢測精度不理想、模型復雜、難以在移動端部署等問題,本研究擬以YOLOv5s模型為基礎,提出一種基于輕量化改進型的玉米病蟲害檢測方法。首先,采用輕量級網絡GhostNet來替換原有模型中特征提取網絡和特征融合網絡的卷積層,以生成有效特征并降低模型復雜度,同時,引入注意力機制(Normalization-based attention module,NAM),減弱無關信息干擾特征,提高模型對玉米病蟲害的檢測性能。然后,再通過優(yōu)化損失函數,來提升模型的收斂速度和回歸精度,以滿足復雜環(huán)境下的病蟲害檢測需求。最后,通過在自建數據集上的試驗驗證改進模型的有效性。
1 材料與方法
1.1 數據采集
本研究檢測的對象為玉米病蟲害圖像。有研究結果顯示,黏蟲、灰飛虱、銹病和斑病是玉米生長過程中最為常見的病蟲害,也是影響玉米產量和質量的主要因素之一[17-19],因此選擇這4種病蟲害圖像為研究對象,其病蟲害樣本圖像見圖1。
模型訓練后的魯棒性和泛化性受到數據集質量的影響,為了降低數據集對模型的影響,本研究自建了玉米病蟲害數據集。數據集的數據來源:在云南農業(yè)大學玉米種植試驗田內采集的病蟲害圖像,在云南省昭通市昭陽區(qū)玉米種植田內采集的病蟲害圖像和源自網絡的玉米病蟲害圖像。圖像的采集時間為2022年7-9月,為滿足數據集多樣性的要求,分別在晴天、陰天和雨天,以正面、側面、仰視等不同拍攝角度進行數據圖像的采集,圖像中包含了密集、稀疏、重疊、順光、逆光等不同背景噪聲的圖像。圖2為采集的部分圖像樣本。
1.2 數據集制作
首先,對采集的圖像進行旋轉、平移、變亮、變暗、高斯噪聲、椒鹽噪聲等數據增強處理,以實現數據集的擴展和多樣化,從而提高模型訓練的魯棒性與泛化性。然后,采用labelImg工具對經數據增強后的1 985張圖像進行特征標注。分別將玉米黏蟲、灰飛虱、銹病和斑病標注為N、H、X和B 4個類別(標注時為避免由不同人標注而產生的細小差別,所有標注均為同一人完成,再由另一人檢查以保證數據集標簽的準確性。),并將其類別信息和位置信息保存為XML文件,再轉換為YOLOv5s所需要的TXT格式文件。最后,劃分訓練集、驗證集和測試集,供模型訓練和測試使用。表1為玉米病蟲害圖像數據集的詳細信息。
1.3 YOLOv5s模型
YOLO系列算法[20-22]采用回歸思想,憑借檢測精度高、推理速度快等優(yōu)勢,能夠快速完成目標檢測任務,在很多領域都取得了較為滿意的結果,已成為主流算法之一。隨著技術的發(fā)展,YOLOv5s也一直被各領域的學者不斷完善與優(yōu)化,并展現出非常不錯的性能。YOLOv5s算法由輸入端、主干網絡、頸部網絡以及預測頭[23]構成,其框架圖如圖3所示。
1.4 改進YOLOv5s模型
在移動端邊緣計算設備的目標檢測任務中,模型檢測精度、速度和體積大小是評價模型性能的重要指標。對于單階段目標檢測,YOLO系列算法在檢測精度和速度上都具有明顯優(yōu)勢,而YOLOv5s更是繼承了YOLOv1~YOLOv4的特點,成為目標檢測領域的首選網絡[14]。因此,本研究擬針對移動端邊緣計算設備能力受限的問題,研究了一種模型輕量化、添加注意力機制和優(yōu)化損失函數的YOLOv5s改進模型,運用于玉米病蟲害的目標檢測。
1.4.1 引入輕量化GhostNet模塊 ?傳統卷積神經網絡提取圖片特征時,會產生特征信息冗余、計算量和參數量大等問題,YOLOv5s具有較高檢測精度也是由于其網絡龐大,難以直接在移動端邊緣計算設備進行部署,必須減少計算量和參數量。
通過在YOLOv5s中引入GhostNet[24]網絡進行輕量化改進。GhostNet是一種新型的輕量化網絡,其利用簡單的線性操作生成豐富的特征圖,從而避免大量卷積運算,以減少模型計算量和參數量。Ghost Module利用1×1卷積對輸入的玉米病蟲害圖像目標特征進行縮減,再使用逐層卷積得到額外的特征圖,最后將二者的結果進行堆疊生成新的病蟲害目標特征圖,以此消除特征信息冗余,并獲得輕量化模型。Ghost Bottlencks是由Ghost Module組成的瓶頸結構(圖4),可分為主干部分和殘差部分。當我們需要對特征層的寬和高進行壓縮的時候,將Ghost Bottlencks的Stride設為2,便可對特征層的寬和高進行壓縮,此時,加入一個步長為2×2的深度可分離卷積在主干網絡的2個Ghost Module中對特征層進行壓縮,在殘差部分也會加入一個步長為2×2的深度可分離卷積和1×1的普通卷積。
1.4.2 添加注意力機制 ?圖像背景中存在雜草、土地和光線遮擋等問題導致對玉米病蟲害的目標檢測更為復雜。通過添加注意力機制可以增強模型對特征的捕捉能力,提高模型檢測精度。玉米病蟲害特征信息在圖像中占比較小,模型更需減少對無關特征信息的關注度。所以,可以在YOLOv5s中添加基于標準化的注意力機制(Normalization-based attention module,NAM)[25]。NAM利用權重影響因子來增強顯著性權值,從而提高注意力機制的性能。它通過批量歸一化(Batch normalization,BN)[26]的比例因子來表示權重的重要程度,避免了像其他注意力機制一樣使用全連接層和卷積層而造成計算量大的弊端。
NAM基于卷積注意力機制(Convolutional block attention module,CBAM)[27],又設計了通道和空間注意力子模塊,如圖5所示。以BN中的比例因子去計算通道方差用以表示通道注意力模塊中權重的重要性,計算公式見公式(1)~公式(5)。
在玉米病蟲害檢測任務中,NAM能夠更加全面地評估特征權值,以增強玉米病蟲害的特征,減弱復雜背景與無關信息的干擾,從而增強模型的魯棒性和泛化能力,提升檢測性能。
γi和λi:縮放因子;ωi:權重;Mc和Ms:通道注意力模塊和空間注意力模塊的輸出特征。
Bout=BN(Bin)=γ Bin-μB ?σ2B+ε ?+β (1)
Wγ= γi ∑ ?i=0 γi ?(2)
Wλ= λi ∑ ?i=0 λi ?(3)
Mc=Sigmoid{Wγ[BN(F1)]} (4)
Ms=Sigmoid{Wλ[BNs(F2)]} (5)
式中,μB和σB:小批量B的均值和標準差;
γ和β:可訓練的仿射變換參數(尺度和位移);γi和λi:通道注意力模塊和空間注意力模塊的每個通道的比例因子;Wγ和Wλ:γi和λi的注意力權重;Mc和Ms:通道注意力模塊和空間注意力模塊的輸出特征。F1和F2:輸入特征變量。
1.4.3 邊框損失函數優(yōu)化 ?在模型訓練中損失函數發(fā)揮了重要作用,其能夠評估模型預測框與真實框之間的距離。大多數算法選擇標準性能度量(IoU)作為損失函數[28]。但是,當真實框與預測框IoU部分重疊或不重疊時便無法反映出二者的重合度和距離,使得模型無法進行訓練。YOLOv5s模型使用CIoU損失函數,它將兩框之間的中心點距離、縱橫比和重疊面積考慮進去,使目標邊框回歸更加穩(wěn)定。CIoU損失函數見公式(6)~公式(9)。
LCIoU=1-IoU+ ρ2(b,bgt) c2 +av (6)
a= v (1-IoU)+v ?(7)
v= 4 π2 (arctan wgt hgt - arctan w h )2 (8)
IoU= ?A∩B A∪B ??(9)
式中,h和w:預測框的高和寬;
b和bgt:預測框中心點和目標框中心點;
a和v:分別為權重系數和長寬比一致性的參數;
hgt和wgt:真實框的高和寬;
ρ2:兩框中心點間的歐式距離;
c:同時包含兩框最小封閉包矩形框的對角線距離;
IoU:損失函數; A :真實框的集合; B :預測框的集合。
雖然CIoU損失函數彌補了IoU損失函數的不足,但還是忽略了邊框尺寸與其置信度存在的真實差異。針對這一問題,Zhang等[29]提出了EIoU(Efficient intersection over union)損失函數。EIoU損失函數的懲罰項是將縱橫比影響因子拆開,計算目標框和錨框的長、寬,它包括標準性能度量損失、中心點距離損失和寬高損失三部分。EIoU損失函數公式(10)~公式(11)。
EIoU=IoU- ?r2(b,bgt) c2 - ?r2(w,wgt) c2w - ?r2(h,hgt) c2h ?(10)
LEIoU=1-EIoU (11)
式中,ch:覆蓋預測框和真實框的最小外接框的高;
cw:覆蓋預測框和真實框的最小外接框的寬。
在邊框回歸損失中,EIoU損失函數解決了其他損失函數所存在的問題,表現出良好的性能,所以本研究將采用EIoU損失函數來對模型進行改進。最終改進的YOLOv5s模型如圖6所示。
1.5 試驗準備
1.5.1 試驗平臺及環(huán)境 ?本研究是基于深度學習框架Pytorch進行的模型構建與改進,在64位Windows10系統上進行模型訓練與測試。試驗平臺: 中央處理器(CPU)為AMD RYZEN R7 6800H 3.20 GHz、內存16 G,圖像處理器(GPU)為NCIDIA GE Force RTX 3060,顯存為6 G。試驗環(huán)境:python3.8,Pytorch1.10.1。為提高網絡訓練速度,使用GPU進行加速,軟件版本為CUDA11.3和CUDNN8.2.1。
1.5.2 模型評價指標 ?在玉米病蟲害檢測模型的試驗研究中,采用精確率(P)、召回率(R)、平均精度均值(mAP)、計算量(FLOPs)、參數量(Parameters)和模型大小作為模型性能評價指標。其中精確率、召回率和平均精度均值計算公式為公式(12)~公式(14)。
P= TP TP+FP ×100% (12)
R= TP TP+FN ×100% (13)
mAP=? K K=1 AP(K) K ?(14)
式中,TP:檢測正確的樣本數量;FP:檢測錯誤的樣本數量;FN:檢測遺漏的樣本數量;K:檢測類別數;AP:P-R曲線所圍成的面積;P:檢測正確的樣本占所有檢測樣本數量的比例;R:檢測正確的樣本占所有檢測樣本中正確樣本數量的比例;mAP:所有類別AP值的平均值。
2 結果與分析
為驗證本研究所提出的YOLOv5s改進模型的優(yōu)越性,在相同試驗環(huán)境下使用同一數據集進行試驗驗證。
2.1 YOLOv5模型輕量化結果
由于YOLOv5s模型提取圖像特征時會產生特征信息冗余以及計算量和參數量大等問題,影響了其在移動端的部署應用,本研究對YOLOv5s模型進行不同程度的輕量化模塊替換,并進行了對比試驗,結果見表2。從試驗結果來看,經輕量化改進的YOLOv5s-G1、YOLOv5s-G2和YOLOv5s-G模型在計算量、參數量和模型大小方面都大幅下降,其中YOLOv5s-G1分別減少32.9%、27.1%和27.0%,YOLOv5s-G2分別減少45.6%、41.4%和39.7%,YOLOv5s-G分別減少50.6%、52.9%和50.4%,可見YOLOv5s-G的輕量化效果最好。但模型輕量化后,網絡的深度、卷積量和特征提取能力也下降了,導致P、R和mAP值都下降。其中,YOLOv5s-G2的mAP值相比原模型下降了7.1個百分點;YOLOv5s-G1的mAP值下降3.3個百分點,降幅最??;YOLOv5s-G是改進后輕量化效果最好的模型,且mAP僅比YOLOv5s-G1低1.3個百分點。證明在YOLOv5s模型中引入GhostNet能夠實現輕量化,但是檢測精度也有所下降,達不到移動端的應用需求。因此,以YOLOv5s-G為基礎進一步改進,提升其檢測精度。
2.2 添加注意力機制結果
通過引入注意力機制(NAM)來加強模型對目標特征的捕捉能力,使模型學習到更多有效信息,以提升檢測精度。為了驗證添加NAM后對YOLOv5s-G模型檢測精度的影響,進行了對比試驗。由表3可知,YOLOv5s-G-N[引入注意力機制(NAM)的YOLOv5s-G模型]在計算量、參數量和模型大小基本不變的情況下,P、R和mAP分別提升了4.9個百分點、4.3個百分點和4.9個百分點。這是由于引入NAM后,玉米病蟲害特征得到增強,復雜背景與無關信息干擾減弱,從而提升了模型檢測精度。
YOLOv5s:原始模型;YOLOv5s-G1:將主干網絡中的Conv、C3模塊替換為GhostConv、C3Ghost模塊的輕量化改進模型;YOLOv5s-G2:對主干網絡進行輕量化改進,而頸部網絡中僅是C3模塊替換為C3Ghost模塊的改進模型;YOLOv5s-G:將主干網絡和頸部網絡都進行輕量化的改進模型。
2.3 邊框損失函數優(yōu)化結果
本研究對比了EIoU損失函數和CIoU損失函數對YOLOv5s模型性能的影響。圖7為經200輪迭代后,2種采用不同損失函數的YOLOv5s模型的損失曲線??梢奅IoU損失函數和CIoU損失函數都表現出了較快的預測回歸過程,但在收斂速度上EIoU損失函數更為優(yōu)越。
為進一步驗證EIoU損失函數對YOLOv5s-G-N輕量化改進模型的效果,本研究將YOLOv5s-G-N-E模型(經過EIoU損失函數優(yōu)化的YOLOv5s-G-N模型)與YOLOv5s-G-N模型行了試驗對比。由表4可知,YOLOv5s-G-N-E模型在計算量、參數量和模型大小不變的情況下,P、R、mAP分別提高了0.9個百分點、0.1個百分點和1.7個百分點。究其原因是由于EIoU損失函數彌補了CIoU損失函數邊界框尺寸與其置信度存在的真實差異,使目標框與錨框相差最小,從而改善了模型性能。
2.4 模型有效性
2.4.1 消融試驗 ?結果(表5)顯示,Ⅰ是原始YOLOv5s模型,其對玉米病蟲害檢測的mAP為86.8%;Ⅱ是采用輕量化網絡改進的模型,其mAP降低至82.2%;Ⅲ是在輕量化基礎上引入NAM的模型,其mAP提升至87.1%;Ⅳ是在Ⅲ模型中將損失函數替換為EIoU的模型,其mAP更是提升至88.8%。綜上,本研究對YOLOv5s模型的改進是有效的。
Ⅰ是原始YOLOv5s模型;Ⅱ是采用輕量化網絡改進的模型;Ⅲ是在輕量化基礎上引入NAM機制的模型;Ⅳ是在Ⅲ模型中將損失函數替換為EIoU的模型。
2.4.2 YOLOv5s-G-N-E模型的性能 ?將YOLOv5s-G-N-E模型與原始YOLOv5s模型進行對比試驗。由表6可知,除了斑病檢測在R、mAP上有所下降外,在對所有類別病蟲害檢測中,YOLOv5s-G-N-E模型的P、R和mAP比原始YOLOv5s模型提高了1.9個百分點、2.2個百分點和2.0個百分點,分別達到94.6%、80.2%和88.8%;特別是對黏蟲和灰飛虱的檢測,P和R值提升較為明顯。同時,YOLOv5s-G-N-E模型的計算量、參數量和模型大小都分別降低至50.6%、52.9%和50.4%。由此說明,YOLOv5s-G-N-E模型比原始YOLOv5s模型更輕量化,但仍然保持了較高的檢測精度,適于在移動端進行部署應用。
為了更直觀地比較YOLOv5s-G-N-E模型與原始YOLOv5s模型對玉米病蟲害的檢測效果,采用玉米病蟲害測試集圖像進行檢測,其中檢測效果如圖8所示。從圖8可知,在復雜環(huán)境、種植密集的情況下,原始YOLOv5s模型由于受到嚴重背景干擾,出現可信度低、斑病漏檢和錯檢等情況,影響了模型的檢測效果。而YOLOv5s-G-N-E模型由于引入注意力機制和優(yōu)化了邊框損失函數,能夠全面地評估目標特征權值,并使得目標框與錨框相差最小,從而增強玉米病蟲害的特征,減弱復雜背景與無關信息干擾特征,進而提升了模型的檢測精度。
2.4.3 不同檢測模型性能對比 ?為了驗證YOLOv5s-G-N-E模型優(yōu)越性,本研究將其與目前主流的目標檢測模型(Faster-RCNN、YOLOv5x、YOLOv5s、YOLOv7-Tiny)進了試驗對比。由表7可知,Faster-RCNN相較于其他模型在計算量、參數量和模型大小方面均比較大,且平均精度均值只有75.3%,無法滿足檢測要求;YOLOv5x的平均精度均值能夠達到89.4%,但計算量、參數量和模型龐大,嚴重占用了芯片的計算資源,不適用于移動端的部署;YOLOv5s與YOLOv7-Tiny各方面的性能指標相近,但綜合性能不及本研究的YOLOv5s-G-N-E模型。YOLOv5s-G-N-E模型雖然在平均精度均值上比YOLOv7-Tiny低1.6個百分點,但在計算量、參數量和模型大小上有明顯優(yōu)勢,在滿足移動端設備應用要求的同時還能節(jié)省計算資源。
3 結 論
(1)本研究以YOLOv5s模型為基礎,采用輕量級網絡GhostNet對其進行輕量化改進,再通過添加注意力機制(NAM)增強特征,并用損失函數EIOU代替CIOU提升模型的收斂速度和回歸精度,得到了改進后的YOLOv5s-G-N-E模型。并將其與Faster-RCNN、YOLOv5x、YOLOv5s和YOLOv7-Tiny模型進行性能對比,結果表明YOLOv5s-G-N-E模型在保持較小計算量、參數量和模型大小的同時,取得了較高的檢測精度。
(2)在不同環(huán)境下采集了玉米病蟲害圖像,通過數據增強方法對圖片集進行擴充,建立了玉米病蟲害數據集,用于模型的訓練和驗證。經測試本研究所構建的YOLOv5s-G-N-E模型對供試玉米病蟲害檢測的P、R和mAP分別為94.6%、80.2%和88.8%,同時在計算量、參數量和模型大小方面分別減少50.6%、52.9%和50.4%。本研究所構建的YOLOv5s-G-N-E模型在復雜背景下的檢測精度優(yōu)于原始模型,為玉米病蟲害目標檢測提供了新的模型,并為檢測模型在移動端設備上的部署應用提供了選擇。
(3)由于條件所限,本研究建立的玉米病蟲害圖像數據集樣本有限,后續(xù)研究將進一步對數據集進行補充,再結合遷移學習以提升檢測模型的泛化能力。
參考文獻:
[1] ?代瑞熙,徐偉平. 中國玉米增產潛力預測[J]. 農業(yè)展望,2022,18(3):41-49.
[2] 王文明. 玉米常見病蟲害防治措施探討[J]. 農業(yè)開發(fā)與裝備,2017(12):149-151.
[3] 安艷麗. 玉米常見病害的識別與防治[J]. 農業(yè)與技術,2017,37(18):44.
[4] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2016,39(6):1137-1149.
[5] THEODORIDIS S,KOUTROUMBAS K. Lecture notes in computer science[J]. Algorithmica,2016,540(8):169-195.
[6] 陳桂珍,龔聲蓉. 計算機視覺及模式識別技術在農業(yè)生產領域的應用[J]. 江蘇農業(yè)科學,2015,43(8):409-413.
[7] 黃麗明,王懿祥,徐 琪,等. 采用YOLO算法和無人機影像的松材線蟲病異常變色木識別[J]. 農業(yè)工程學報,2021,37(14):197-203.
[8] 劉天真,滕桂法,苑迎春,等. 基于改進YOLOv3的自然場景下冬棗果實識別方法[J]. 農業(yè)機械學報,2021,52(5):17-25.
[9] FARJON G, KRIKEB O, HILLEL A B, et al. Detection and counting of flowers on apple trees for better chemical thinning decisions[J]. Precision Agriculture,2019,21(3):503-521.
[10] FERENTINOS K P. Deep learning models for plant disease detection and diagnosis[J]. Computers and Electronics in Agriculture,2018,145:311-318.
[11] 蘇俊楷,段先華,葉趙兵. 改進YOLOv5算法的玉米病害檢測研究[J]. 計算機科學與探索,2023,17(4):933-941.
[12] 徐會杰,黃儀龍,劉 曼. 基于改進YOLOv3模型的玉米葉片病蟲害檢測與識別研究[J]. 南京農業(yè)大學學報,2022,45(6):1276-1285.
[13] 周 維,牛永真,王亞煒,等. 基于改進的YOLOv4-GhostNet水稻病蟲害識別方法[J]. 江蘇農業(yè)學報,2022,38(3):685-695.
[14] 邢潔潔,謝定進,楊然兵,等. 基于YOLOv5s的農田垃圾輕量化檢測方法[J]. 農業(yè)工程學報,2022,38(19):153-161.
[15] 張振國,邢振宇,趙敏義,等. 改進YOLOv3的復雜環(huán)境下紅花絲檢測方法[J]. 農業(yè)工程學報,2023,39(3):162-170.
[16] 王衛(wèi)星,劉澤乾,高 鵬,等. 基于改進YOLOv4的荔枝病蟲害檢測模型[J]. 農業(yè)機械學報,2023,54(5):227-235.
[17] 陳玉沖,龍夢玲,郭 輝,等. 灰飛虱研究的文獻計量分析[J]. 江蘇科技信息,2021,38(15):22-25,53.
[18] 楊春媛. 玉米常見病害的發(fā)病癥狀及防治措施[J]. 鄉(xiāng)村科技,2017(24):63-64.
[19] 路興濤,吳翠霞,張 勇,等. 玉米灰飛虱與粗縮病的發(fā)生規(guī)律及綜合防治策略[J]. 安徽農業(yè)科學,2013,41(19):8168-8169.
[20] ?REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once:unified,real-time object detection[C]. New York:IEEE,2016.
[21] REDMON J, FARHADI A. YOLOv3:an incremental improvement[J]. arXiv Preprint,2018.DOI:10.48550/arXiv.1804.02767.
[22] BOCHKOVSKIY A, WANG C Y, LIAO H Y M. YOLOv4:optimal speed and accuracy of object detection[J]. arXiv Preprint,2020.DOI:10.48550/arXiv.2004.10934.
[23] 郭 磊,王邱龍,薛 偉,等. 基于改進YOLOv5的小目標檢測算法[J]. 電子科技大學學報,2022,51(2):251-258.
[24] 李文婧,徐國偉,孔維剛,等. 基于改進YOLOv4的植物葉莖交點目標檢測研究[J]. 計算機工程與應用,2022,58(4):221-228.
[25] LIU Y C,SHAO Z R,TENG Y,et al. NAM:normalization-based attention module[J]. arXiv Preprint,2021.DOI:10.48550/arXiv.2111.12419.
[26] 孔德鵬,常天慶,戴文君,等. 基于排序選擇和精英引導的改進人工蜂群算法[J]. 控制與決策,2019,34(4):781-786.
[27] WOO S, PARK J, LEE J Y, et al. CBAM: convolutional block attention module[M]. Cham:Springer International Publishing,2018.
[28] YU J, JIANG Y, WANG Z, et al. Unitbox: an advanced object detection network[J]. ACM,2016.DOI:10.1145/2964284.2967274.
[29] ZHANG Y F, REN W, HANG Z, et al. Focal and efficient IOU loss for accurate bounding box regression[J]. Neurocomputing,2022,506:146-157.
(責任編輯:陳海霞)