李宗南 蔣怡 王思 李源洪 黃平 魏鵬
摘要:為應(yīng)用深度學(xué)習(xí)模型實現(xiàn)機(jī)器快速準(zhǔn)確識別農(nóng)田惡性雜草,以田間常見的2種飛蓬屬入侵植物為對象,采集樣本圖像并標(biāo)注雜草目標(biāo),基于網(wǎng)絡(luò)結(jié)構(gòu)深度、寬度可調(diào)的一階段目標(biāo)檢測模型YOLOv5搭建訓(xùn)練平臺和嵌入式測試平臺,訓(xùn)練14組具有不同網(wǎng)絡(luò)層和卷積核的模型權(quán)重,驗證模型精度及檢測幀率。結(jié)果表明:不同網(wǎng)絡(luò)結(jié)構(gòu)深度、寬度設(shè)置的YOLOv5模型識別飛蓬屬入侵植物的平均精度為91.8%~95.1%,有8組權(quán)重的平均精度優(yōu)于YOLOv3的,合理增加網(wǎng)絡(luò)層和卷積核能提高模型精度;YOLOv5在訓(xùn)練平臺的幀率為28~109fps之間,在測試平臺的幀率為12~58fps之間,有12組權(quán)重的幀率比YOLOv3的有顯著提高,幀率受平臺算力限制并隨網(wǎng)絡(luò)層和卷積核增加而下降,在算力較低的嵌入式系統(tǒng)中實現(xiàn)實時檢測需平衡模型網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)置。該研究結(jié)果可為搭建農(nóng)田雜草智能感知系統(tǒng)提供參考。
關(guān)鍵詞:深度學(xué)習(xí);目標(biāo)檢測;卷積神經(jīng)網(wǎng)絡(luò);入侵植物;雜草;智慧農(nóng)業(yè)
中圖分類號:S24
文獻(xiàn)標(biāo)識碼:A
文章編號:20955553 (2023) 070200
07
Object detection of invasive Erigeron L. plants base on YOLOv5
Li Zongnan, Jiang Yi, Wang Si, Li Yuanhong, Huang Ping, Wei Peng
(Institute of Remote Sensing and Digital Agriculture, Sichuan Academy of Agricultural Sciences,
Chengdu, 610066, China)
Abstract: In order to achieve fast and accurate identification of malignant weeds in agricultural fields using deep learning models, this study took two common invasive plants of Erigeron L. in the fields, collected sample images and labeled weed targets, and built a training platform and an embedded test platform based on YOLOv5 with adjustable depth and width of network structure. Fourteen groups of model weights with different network layers and convolution kernels were trained, and the accuracy and detection frame rate were evaluated. The results showed that the average precision of YOLOv5 with different network structure depth and width settings for identifying invasive plants ranged from 91.8% to 95.1%. Eight groups of weights achieved higher average precision than YOLOv3, indicating that the increase of network layers and convolution kernels can improve the model accuracy. The results also showed that frame rates of YOLOv5 were between 28 to 109 fps on the training platform and between 12 to 58 fps on the test platform. Twelve sets of weights exhibited significantly improved frame rates compared to YOLOv3. The frame rate is limited by the computing capability of the platform and decreases with the increase of network layers and convolution kernels. To realize real-time detection in the embedded system with low compute capability, a balanced network structure setting is needed. The results of this study can provide a reference for building an intelligent weed sensing system in agricultural fields.
Keywords: deep learning; object detection; CNN; invasive plants; weeds; smart agriculture
0 引言
外來入侵植物對中國自然生態(tài)系統(tǒng)、農(nóng)業(yè)生產(chǎn)系統(tǒng)有嚴(yán)重危害[12]。自2003年以來,中國已發(fā)布4批共計70種危害性大的外來入侵物種,其中入侵植物40種涉及14科。入侵植物中菊科比例最多,有17種,且大部分成為農(nóng)業(yè)惡性雜草。在農(nóng)田環(huán)境中,惡性雜草通過陽光、水分、養(yǎng)分等資源競爭及化感作用影響作物生長,是降低農(nóng)產(chǎn)品產(chǎn)量和品質(zhì)的重要因子之一[25]。雜草防治的方法包括農(nóng)業(yè)防治、生物防治、物理機(jī)械防治、化學(xué)防治等[1]。農(nóng)業(yè)防治包括輪作、間作、套作、耕翻整地、綠肥作物種植、田間水肥管理、綜合種養(yǎng)、覆蓋地膜等方式[3, 5]。惡性雜草在作物苗期中極易瘋狂生長,在農(nóng)業(yè)防治措施不能有效控制雜草的情況下,需人工進(jìn)一步使用工具、機(jī)械、化學(xué)藥劑等直接防治雜草[4]。隨著中國農(nóng)業(yè)勞動力減少、農(nóng)業(yè)生產(chǎn)逐步向規(guī)?;I(yè)化方式發(fā)展,除草機(jī)械逐步被應(yīng)用于農(nóng)田、果園場景以提高除草效率[6]。智能除草機(jī)械集成智能感知、精準(zhǔn)定位、精準(zhǔn)操作、定量施用等子系統(tǒng),具有降低勞動強(qiáng)度、提高效率、減少污染等潛力,研發(fā)適于不同環(huán)境、滿足不同作物管理需求的智能除草機(jī)器成為農(nóng)業(yè)雜草防控的重要發(fā)展方向[78]。
雜草的機(jī)器視覺識別作為智能除草的關(guān)鍵技術(shù)之一[9],通過彩色、光譜、深度等傳感器獲取數(shù)據(jù),經(jīng)特征分析與處理,達(dá)到區(qū)分雜草與土壤背景、作物的目的[1014]。早期目標(biāo)檢測方法通過顏色[10, 12]、光譜指數(shù)[13, 15]、深度圖像[16]等特征建立突出雜草、作物及土壤背景的指標(biāo),使用閾值分割[12]、人工神經(jīng)網(wǎng)絡(luò)[10, 14, 17]、支持向量機(jī)[1819]等算法實現(xiàn)雜草目標(biāo)識別,普遍沒有使用滑動窗口檢測目標(biāo),存在準(zhǔn)確率低、不規(guī)則目標(biāo)檢測的魯棒性較差等問題。隨深度學(xué)習(xí)算法的發(fā)展[20],目標(biāo)識別與檢測形成以圖像區(qū)域提取的兩階段目標(biāo)檢測模型和直接對類別和位置進(jìn)行回歸確定的一階段目標(biāo)檢測模型二大類。前者代表算法為Faster R-CNN[21],后者代表算法有SSD[22]、YOLO[23]等?;谏疃葘W(xué)習(xí)模型的目標(biāo)檢測法已成為當(dāng)前雜草機(jī)器視覺識別應(yīng)用的主要選擇[24]。國外研究顯示基于無人機(jī)影像和卷積神經(jīng)網(wǎng)絡(luò)的大豆田雜草識別精度優(yōu)于98%[25];不同結(jié)構(gòu)的深度卷積神經(jīng)網(wǎng)絡(luò)模型識別不同類型雜草的性能存在較大差異[26]。國內(nèi)研究基于Faster R-CNN[2728]、YOLO v3[29]等深度學(xué)習(xí)目標(biāo)檢測模型進(jìn)行棉田雜草識別訓(xùn)練。對比Faster R-CNN先提取目標(biāo)候選框后分類的二階段目標(biāo)檢測,YOLO算法將目標(biāo)分類問題和目標(biāo)位置確定問題通過回歸方法統(tǒng)一求取,檢測速度更快,實時性更佳,成為諸多實時目標(biāo)檢測場景的首選方法,并得到廣泛的改進(jìn)和應(yīng)用。
針對當(dāng)前農(nóng)業(yè)惡性雜草智能感知、防治需求,該研究開展基于YOLOv5模型的雜草智能識別算法性能評測。受氣候、耕作模式和種植制度等因素影響,雜草群落的空間分布和演替有區(qū)域差異,部分雜草在特定范圍形成優(yōu)勢群落,危害農(nóng)業(yè);因此該研究選擇中國西南地區(qū)常見的2種菊科飛蓬屬入侵植物為識別對象,采集農(nóng)田、果園、田間道路兩旁等多種環(huán)境下的雜草圖片建立樣本數(shù)據(jù)集,訓(xùn)練并檢驗?zāi)P?,為機(jī)器感知、防治惡性雜草提供技術(shù)參考。
1 數(shù)據(jù)與方法
1.1 數(shù)據(jù)采集與標(biāo)注
使用彩色相機(jī)以垂直地面的視場角度為主采集雜草圖片。于2021年6—8月分4次在成都市周邊果園、農(nóng)田內(nèi)共獲取雜草自苗期到開花期的圖片共計438幅。飛蓬屬(Erigeron L.),被子植物門菊科植物,多年生、稀一年生或二年生草本,或半灌木,全屬約有200種以上,主要分布于歐洲、亞洲大陸及北美洲,少數(shù)也分布于非洲和大洋洲,我國有35種,主要集中于新疆和西南部山區(qū)[30]。小蓬草(學(xué)名:Erigeron canadensis L.,異名:Conyza canadensis)、蘇門白酒草(學(xué)名:Erigeron sumatrensis Retz.,異名:Conyza sumatrensis),均為菊科飛蓬屬,于2014年進(jìn)入中國外來入侵物種名單(第三批),如圖1所示。該研究參考中國科學(xué)院植物研究所“植物志-植物物種信息系統(tǒng)”物種信息系統(tǒng)(http://www.iplant.cn/)提供的圖像,對采集的圖像進(jìn)行識別。使用Labelme標(biāo)注圖像中的目標(biāo)雜草,完成雜草標(biāo)簽共計1465個。完成標(biāo)注后,轉(zhuǎn)為YOLO模型運(yùn)行所需文件格式。
1.2 模型與試驗平臺
1.2.1 YOLOv5模型
YOLO自2015年發(fā)布v1版,到2020年已發(fā)展到v5版,其發(fā)展和改進(jìn)借鑒空間金字塔池化(SPP)[31]、殘差網(wǎng)絡(luò)(ResNet)[32]、跨階段網(wǎng)絡(luò)(CSP)[33]、特征圖金字塔網(wǎng)絡(luò)(FPN)[34]、路徑聚合網(wǎng)絡(luò)(PAN)[35]等相關(guān)深度學(xué)習(xí)研究成果。YOLOv5的網(wǎng)絡(luò)結(jié)構(gòu)分為輸入(Input)、骨干(Backbone)、頸部(Neck)、頭部(Heads)等四個部分。v5版目前仍持續(xù)發(fā)布更新,該研究選擇v5版第五次正式釋放的版本。以YOLOv5s為例,該模型網(wǎng)絡(luò)結(jié)構(gòu)示意見圖2,其中,Conv為卷積操作,Concat為張量拼接操作,Res為殘差網(wǎng)絡(luò)組件。CBL為卷積、批量歸一化(BN)、Likely激活三者相連的網(wǎng)絡(luò)結(jié)構(gòu);SPP使用3個尺度的最大池化核和1個連接進(jìn)行池化操作。Focus網(wǎng)絡(luò)層的操作是對圖片各通道數(shù)據(jù)每隔一個像素取一個值形成切片,然后堆疊。CSP1、CSP2為兩種不同結(jié)構(gòu)的跨階段局部網(wǎng)絡(luò),前者用于Backbone,后者用于Neck,在CSP1網(wǎng)絡(luò)層中使用殘差網(wǎng)絡(luò)。
Iuput部分具有Mosaic數(shù)據(jù)增強(qiáng)、自適應(yīng)錨框計算、自適應(yīng)圖片縮放等功能,實現(xiàn)數(shù)據(jù)集豐富和訓(xùn)練速度提升。Backbone部分包括Focus、CBL、CSP1等網(wǎng)絡(luò)結(jié)構(gòu),實現(xiàn)多視野感受、多特征提取。Neck部分包括CBL、CSP2、SPP、上采樣(改進(jìn)的FPN)、下采樣(改進(jìn)的PAN)結(jié)構(gòu),通過上采樣、下采樣、連接等實現(xiàn)多尺度特征融合。Heads部分采用CIoU_loss損失函數(shù)、DIoU-NMS非極大值抑制算法[36]實現(xiàn)目標(biāo)類型識別和位置確定。通過設(shè)置Backbone和Neck部分不同的網(wǎng)絡(luò)深度和寬度,可調(diào)節(jié)模型的網(wǎng)絡(luò)層和卷積核數(shù)量。
1.2.2 訓(xùn)練平臺
訓(xùn)練平臺硬件配置主要包括i9-11900F中央處理器、128 GB內(nèi)存、Quadro RTX 4000 GPU(顯存8 GB、CUDA核2 304個)。軟件配置主要包括Windows 10操作系統(tǒng)、CUDA11.1、cudnn8.0.5、Pytorch1.8、YOLOv5。
1.2.3 模型設(shè)置及訓(xùn)練
YOLOv5的第五次發(fā)行版公開了4個不同深度和寬度網(wǎng)絡(luò)的預(yù)訓(xùn)練權(quán)重文件,分別為YOLOv5s.pt、YOLOv5m.pt、YOLOv5l.pt、YOLOv5x.pt。該研究以此4個權(quán)重文件,通過調(diào)整各模型的寬度設(shè)置,形成14個具有不同網(wǎng)絡(luò)層和卷積核的模型,具體見表1。限于訓(xùn)練平臺GPU顯存,各模型權(quán)重訓(xùn)練的bitch size、image size均設(shè)置為4和640,訓(xùn)練次數(shù)Epoch設(shè)置為300。訓(xùn)練和測試的樣本數(shù)比例為0.85∶0.15。
1.2.4 模型精度評價
為評價YOLOv5模型不同網(wǎng)絡(luò)結(jié)構(gòu)設(shè)置的性能,以YOLOv3模型為參考,使用準(zhǔn)確率(Precision,P)、召回率(Recall,R)、平均精度(Average Precision,AP)3項指標(biāo)評價模型檢測雜草的精度。
P=TPTP+FP×100%
R=TPTP+FN×100%
AP=1n∑nk=1P(k)·ΔR(k)
式中:
TP——模型檢測為正的正樣本數(shù);
FP——模型檢測為正的負(fù)樣本數(shù);
FN——模型檢測為負(fù)的正樣本;
ΔR——
區(qū)間(k,k+1)的召回率變化值。
P反映模型檢測的錯檢情況,R反映模型檢測的漏檢情況。AP綜合反映模型的精度,由精確率和召回率變化情況決定,該研究使用交并比等于0.5的平均精度。
1.2.5 運(yùn)行幀率測試
使用幀率評價模型在平臺上運(yùn)行時處理圖像的效率。幀率是反映模型和平臺數(shù)據(jù)處理效率的指標(biāo),機(jī)器進(jìn)行實時檢測時,檢測幀率需大于圖像采集幀率,以保證不漏檢。一般流暢的實時監(jiān)測要求圖像采集幀率大于24幀。該研究在訓(xùn)練平臺和測試平臺上測試不同模型的幀率。
測試平臺采用Jetson Xavier NX嵌入式計算板,該板集成6核ARM CPU、8GB內(nèi)存、384個CUDA核,軟件平臺為Ubuntu18.04、CUDA10.2、cudnn8.0.5、Python3.6、Pytorch1.8、TensorTR,YOLOv5。測試平臺上使用engine格式的權(quán)重文件。engine文件是pt文件經(jīng)TensorRT轉(zhuǎn)換得到,轉(zhuǎn)換后模型使用INT8和FP16精度的數(shù)據(jù)計算,且部分運(yùn)算合并,從而實現(xiàn)低算力嵌入式測試平臺的運(yùn)算加速。
2 結(jié)果與分析
2.1 不同網(wǎng)絡(luò)結(jié)構(gòu)深度、寬度設(shè)置的模型精度
使用14組不同設(shè)置的YOLOv5檢測2種入侵植物,準(zhǔn)確率為86.9%~94.1%,召回率為83.2%~91.9%,平均精度為91.8%~95.1%,具體各組設(shè)置的精度見表2。從表2可以看出,在固定網(wǎng)絡(luò)層數(shù)的情況下,增加卷積核具有提高模型精度的潛力,但在網(wǎng)絡(luò)層較少的結(jié)構(gòu)中增加過多的卷積核則可能降低AP,具體表現(xiàn)為:YOLOv5s在寬度設(shè)置為0.50時的AP高于設(shè)置為0.25的;YOLOv5m在寬度設(shè)置為0.75時的AP高于設(shè)置為0.5的,但較之設(shè)置為0.25時的AP無提高;YOLOv5l隨寬度設(shè)置由0.25逐步增加到1.00,AP表現(xiàn)為先增后減。在固定卷積核數(shù)的情況下,增加網(wǎng)絡(luò)層數(shù)具有提高模型目標(biāo)精度的潛力,但在卷積核較少的結(jié)構(gòu)中設(shè)置過多的網(wǎng)絡(luò)層亦可能降低AP,具體表現(xiàn)為:當(dāng)寬度設(shè)置為0.25時,深度設(shè)置值更大的YOLOv5m較YOLOv5s的AP提高,但具有更大深度設(shè)置值的YOLOv5l與YOLOv5x的AP均低于YOLOv5m;寬度設(shè)置為0.50、0.75、1.00時,深度設(shè)置最大的YOLOv5x的AP高于其他的。綜上,單一增加過多的網(wǎng)絡(luò)層數(shù)或卷積核數(shù)可能會導(dǎo)致模型平均精度下降,同時合理增加網(wǎng)絡(luò)層和卷積核有助于最大限度地提高模型識別雜草的精度。
對比YOLOv3,YOLOv5有3組設(shè)置的AP略有降低,有3組設(shè)置的AP與之相同,有8組設(shè)置的AP有提高。其中YOLOv5x-050、YOLOv5x-125較YOLOv3的分別提高1.5和2.8個百分點(diǎn)。三者檢測飛蓬屬入侵植物的效果見圖3,YOLOv5x-050、YOLOv5x-125漏檢數(shù)量比YOLOv3少,符合各模型的召回率表現(xiàn)。
2.2 不同網(wǎng)絡(luò)結(jié)構(gòu)深度、寬度設(shè)置的幀率
從表3可以看出,訓(xùn)練平臺中,YOLOv5模型14組不同設(shè)置的檢測幀率在28~109fps之間,有12組設(shè)置的幀率較YOLOv3有明顯提升。嵌入式測試平臺中,YOLOv5不同設(shè)置的檢測幀率在12~58fps之間,低于訓(xùn)練平臺。模型在訓(xùn)練平臺和測試平臺上運(yùn)行的幀率均隨深度、寬度設(shè)置值增加而逐步降低。較高算力的訓(xùn)練平臺中,模型各組設(shè)置的檢測幀率均超過視頻常用的24fps;較低算力的測試平臺中,有3組設(shè)置的幀率低于24fps,其中平均精度最高的YOLOv5x-125受限于網(wǎng)絡(luò)層和卷積層多、計算量大,其幀率僅為12fps,未達(dá)到實時檢測的要求。因此在算力較低的嵌入式系統(tǒng)中實現(xiàn)實時檢測需平衡網(wǎng)絡(luò)結(jié)構(gòu)設(shè)置,需選擇次優(yōu)AP的模型深度、寬度設(shè)置,以保證數(shù)據(jù)流暢處理。該研究中,YOLOv5x-050在測試平臺的幀率為33fps,AP僅次于YOLOv5x-125,滿足實時高精度檢測要求。
3 討論
該研究對中國西南地區(qū)常見的小蓬草和蘇門白酒草進(jìn)行有監(jiān)督的機(jī)器學(xué)習(xí)識別,目標(biāo)識別精度受模型性能和樣本影響。模型方面,YOLO系列模型持續(xù)改進(jìn),不斷集成諸多網(wǎng)絡(luò)層的優(yōu)點(diǎn),使之性能水平逐步提高。該研究通過設(shè)置不同的網(wǎng)絡(luò)深度和寬度參數(shù)調(diào)整YOLOv5模型網(wǎng)絡(luò)結(jié)構(gòu),評選滿足算力要求且精度最優(yōu)的入侵植物檢測模型權(quán)重,結(jié)果表明調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)能小幅度提高檢測精度,合理設(shè)置YOLOv5的網(wǎng)絡(luò)層和卷積核數(shù)量能獲得比YOLOv3更優(yōu)的精度和檢測效率。樣本方面,該研究采集的樣本數(shù)據(jù)量僅能滿足小飛蓬和蘇門白酒草2種入侵植物的檢測。國內(nèi)各地的外來入侵植物種類及優(yōu)勢群落不同,為滿足實際的雜草檢測還需采集和豐富樣本數(shù)據(jù),以構(gòu)建能識別多種惡性雜草的目標(biāo)檢測模型。為保證樣本數(shù)據(jù)質(zhì)量,圖片采集時,拍攝角度、距離、曝光時間等影響圖片效果的因素應(yīng)按更為規(guī)范統(tǒng)一的方式進(jìn)行。為構(gòu)建更為精細(xì)的識別模型、獲取更多植物的種類信息,目標(biāo)植物的屬、種及植物生長期等具體信息應(yīng)標(biāo)注說明。
4 結(jié)論
1) 通過采集飛蓬屬小蓬草、蘇門白酒草2種外來入侵植物的樣本數(shù)據(jù),搭建基于YOLOv5模型的訓(xùn)練平臺和測試平臺,訓(xùn)練14組具有不同網(wǎng)絡(luò)層和卷積核的模型權(quán)重,模型經(jīng)精度檢驗及性能測試。
2) 不同網(wǎng)絡(luò)深度、寬度設(shè)置的YOLOv5模型識別飛蓬屬入侵植物的平均精度為91.8%~95.1%,有8組網(wǎng)絡(luò)結(jié)構(gòu)設(shè)置的平均精度優(yōu)于YOLOv3;YOLOv5在訓(xùn)練平臺的幀率為28~109fps之間,在嵌入式測試平臺的幀率為12~58fps之間,有12組網(wǎng)絡(luò)結(jié)構(gòu)設(shè)置的幀率比YOLOv3的有顯著提高。基于YOLOv5深度學(xué)習(xí)模型能實現(xiàn)快速準(zhǔn)確的外來入侵植物檢測,該研究各項測試結(jié)果可為下一步搭建雜草機(jī)器檢測系統(tǒng)、配置平臺算力等工作提供參考依據(jù)。
參 考 文 獻(xiàn)
[1] 萬方浩, 侯有明, 蔣明星. 入侵生物學(xué)[M]. 北京: 科學(xué)出版社, 2015.
[2] 閆小玲, 壽海洋, 馬金雙. 中國外來入侵植物研究現(xiàn)狀及存在的問題[J]. 植物分類與資源學(xué)報, 2012, 34(3): 287-313.
Yan Xiaoling, Shou Haiyang, Ma Jinshuang. The problem and status of the alien invasive plants in China [J]. Plant Diversity and Resources, 2012, 34(3): 287-313.
[3] 趙玉信, 楊惠敏. 作物格局、土壤耕作和水肥管理對農(nóng)田雜草發(fā)生的影響及其調(diào)控機(jī)制[J]. 草業(yè)學(xué)報, 2015, 24(8): 199-210.
Zhao Yuxin, Yang Huimin. Effects of crop pattern, tillage practice and water and fertilizer management on weeds and their control mechanisms [J]. Acta Prataculturae Sinica, 2015, 24(8): 199-210.
[4] 李香菊. 近年我國農(nóng)田雜草防控中的突出問題與治理對策[J]. 植物保護(hù), 2018, 44(5): 77-84.
Li Xiangju. Main problems and management strategies of weeds in agricultural fields in China in recent years [J]. Plant Protection, 2018, 44(5): 77-84.
[5] 孫金秋, 任相亮, 胡紅巖, 等. 農(nóng)田雜草群落演替的影響因素綜述[J]. 雜草學(xué)報, 2019, 37(2): 1-9.
Sun Jinqiu, Ren Xiangliang, Hu Hongyan, et al. The factors influencing weed community succession in the crop field [J]. Journal of Weed Science, 2019, 37(2): 1-9.
[6] 呂沐華, 丁珠玉. 基于機(jī)器視覺的果園噴藥除草機(jī)器人視覺系統(tǒng)設(shè)計[J]. 中國農(nóng)機(jī)化學(xué)報, 2021, 42(5): 42-48.
Lü Muhua, Ding Zhuyu. Design of visual systems for orchard spraying weeding robot based on machine vision [J]. Journal of Chinese Agricultural Mechanization, 2021, 42(5): 42-48.
[7] 傅雷揚(yáng), 李紹穩(wěn), 張樂, 等. 田間除草機(jī)器人研究進(jìn)展綜述[J]. 機(jī)器人, 2021, 43(6): 751-768.
Fu Leiyang, Li Shaowen, Zhang Le, et al. Research progress on field weeding robots: A review [J]. Robot, 2021, 43(6): 751-768.
[8] 蘭天, 李端玲, 張忠海, 等. 智能農(nóng)業(yè)除草機(jī)器人研究現(xiàn)狀與趨勢分析[J]. 計算機(jī)測量與控制, 2021, 29(5): 1-7.
Lan Tian, Li Duanling, Zhang Zhonghai, et al. Analysis on research status and trend of intelligent agricultural weeding robot [J]. Computer Measurement & Control, 2021, 29(5): 1-7.
[9] Aichen W, Wen Z, Xinhua W. A review on weed detection using ground-based machine vision and image processing techniques [J]. Computers and Electronics in Agriculture, 2019, 158: 226-240.
[10] Aitkenhead M J, Dalgetty I A, Mullins C E, et al. Weed and crop discrimination using image analysis and artificial intelligence methods [J]. Computers and Electronics in Agriculture, 2003, 39(3): 157-171.
[11] 毛文華, 曹晶晶, 姜紅花, 等. 基于多特征的田間雜草識別方法[J]. 農(nóng)業(yè)工程學(xué)報, 2007, 122(11): 206-209.
Mao Wenhua, Cao Jingjing, Jiang Honghua, et al. In-field weed detection method based on multi-features [J]. Transactions of the CSAE, 2007, 23(11): 206-209.
[12] 毛罕平, 胡波, 張艷誠, 等. 雜草識別中顏色特征和閾值分割算法的優(yōu)化[J]. 農(nóng)業(yè)工程學(xué)報, 2007, 23(9): 154-158.
Mao Hanping, Hu Bo, Zhang Yancheng, et al. Optimization of color index and threshold segmentation in weed recognition [J]. Transactions of the CSAE, 2007, 23(9): 154-158.
[13] 趙川源, 何東健, 喬永亮. 基于多光譜圖像和數(shù)據(jù)挖掘的多特征雜草識別方法[J]. 農(nóng)業(yè)工程學(xué)報, 2013, 29(2): 192-198.
Zhao Chuanyuan, He Dongjian, Qiao Yongliang. Identification method of multi-feature weed based on multi-spectral images and data mining [J]. Transactions of the CSAE, 2013, 29(2): 192-198.
[14] Granitto P M, Verdes P F, Ceccatto H A. Large-scale investigation of weed seed identification by machine vision [J]. Computers and Electronics in Agriculture, 2005, 47(1): 15-24.
[15] Alchanatis V, Ridel L, Hetzroni A, et al. Weed detection in multi-spectral images of cotton fields [J]. Computers and Electronics in Agriculture, 2005, 47(3): 243-260.
[16] Piron A, Leemans V, Lebeau F, et al. Improving in-row weed detection in multispectral stereoscopic images [J]. Computers and Electronics in Agriculture, 2009, 69(1): 73-79.
[17] Torres-sospedra J, Nebot P. Two-stage procedure based on smoothed ensembles of neural networks applied to weed detection in orange groves [J]. Biosystems Engineering, 2014, 123: 40-55.
[18] Pérez-Ortiz M, Pea J M, Gutiérrez P A, et al. A semi-supervised system for weed mapping in sunflower crops using unmanned aerial vehicles and a crop row detection method [J]. Applied Soft Computing, 2015, 37: 533-544.
[19] Bakhshipour A, Jafari A. Evaluation of support vector machine and artificial neural networks in weed detection using shape features [J]. Computers and Electronics in Agriculture, 2018, 145: 153-160.
[20] Lecun Y, Bengio Y, Hinton G E. Deep learning [J]. Nature, 2015, 521(7553): 436-444.
[21] Shaoqing R, Kaiming H, Ross G, et al. Faster R-CNN: Towards real-time object detection with region proposal networks [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.
[22] Wei L, Dragomir A, Dumitru E, et al. SSD: Single shot multibox detector [C]. Springer International Publishing, 2016: 21-37.
[23] Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real-time object detection [C]. IEEE Conference on Computer Vision and Pattern Recognition. 2016: 779-788.
[24] Hasan A S M, Sohel F, Diepeveen D, et al. A survey of deep learning techniques for weed detection from images [J]. Computers and Electronics in Agriculture, 2021, 184.
[25] Alessandro D S F, Matte Freitas D, Gercina G D S, et al. Weed detection in soybean crops using ConvNets [J]. Computers and Electronics in Agriculture, 2017, 143: 314-324.
[26] Yu J, Sharpe S M, Schumann A W, et al. Deep learning for image-based weed detection in turf grass [J]. European Journal of Agronomy, 2019, 104: 78-84.
[27] 樊湘鵬, 周建平, 許燕, 等. 基于優(yōu)化Faster R-CNN的棉花苗期雜草識別與定位[J]. 農(nóng)業(yè)機(jī)械學(xué)報, 2021, 52(5): 26-34.
Fan Xiangpeng, Zhou Jianping, Xu Yan, et al. Identification and localization of weeds based on optimized Faster R-CNN in cotton seedling stage under natural conditions [J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(5): 26-34.
[28] 李春明, 逯杉婷, 遠(yuǎn)松靈, 等. 基于Faster R-CNN的除草機(jī)器人雜草識別算法[J]. 中國農(nóng)機(jī)化學(xué)報, 2019, 40(12): 171-176.
Li Chunming, Lu Shanting, Yuan Songling, et al. Weed identification algorithm of weeding robot based on Faster R-CNN [J]. Journal of Chinese Agricultural Mechanization, 2019, 40(12): 171-176.
[29] 薛金利, 戴建國, 趙慶展, 等. 基于低空無人機(jī)影像和YOLOv3實現(xiàn)棉田雜草檢測[J]. 石河子大學(xué)學(xué)報(自然科學(xué)版), 2019, 37(1): 21-27.
Xue Jinli, Dai Jianguo, Zhao Qingzhan, et al. Cotton field weed detection based on low-altitude drone image and YOLOv3 [J]. Journal of Shihezi University(Natural Science), 2019, 37(1): 21-27.
[30] 中國植物志編輯委員會. 中國植物志[M]. 北京: 科學(xué)出版社, 1985.
[31] He Kaiming, Zhang Xiangyu, Ren Shaoqing, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1904-1916.
[32] He Kaiming, Zhang Xiangyu, Ren Shaoqing, et al. Deep residual learning for image recognition [C]. IEEE Conference on Computer Vision and Pattern Recognition, 2016: 770-778.
[33] Wang C Y, Liao H Y M, Wu Y H, et al. CSPNet: A new backbone that can enhance learning capability of CNN [C]. Proceedings of the IEEE/CVF conference on computer vision and pattern recognition workshops. 2020: 390-391.
[34] Lin T Y, Pollr P, Girshick R, et al. Feature pyramid networks for object detection [C]. IEEE Conference on Computer Vision and Pattern Recognition, 2017: 936-944.
[35] Shu L, Lu Q, Haifang Q, et al. Path aggregation network for instance segmentation [C]. IEEE Conference on Computer Vision and Pattern Recognition, 2018: 8759-8768.
[36] Zheng Z, Wang P, Liu W, et al. Distance-IoU loss: Faster and better learning for bounding box regression [C]. Proceedings of the AAAI conference on artificial intelligence. 2020, 34(7): 12993-13000.