薛金利,戴建國*,趙慶展,張國順,崔美娜,蔣楠
(1 石河子大學(xué)信息科學(xué)㈦技術(shù)學(xué)院,新疆 石河子832003; 2 新疆兵團(tuán)空間信息工程技術(shù)研究中心,石河子832003)
棉花在我國國民經(jīng)濟(jì)中占有重要地位,目前新疆已發(fā)展為全國棉花種植中心。棉田管理中,由于雜草會(huì)㈦作物爭(zhēng)奪陽光水分和養(yǎng)分,嚴(yán)重影響作物生長(zhǎng),甚至?xí)斐擅藁p產(chǎn),因此,自動(dòng)化除草已成為管理中必不可少的一部分。雜草生長(zhǎng)具有不均勻性,目前機(jī)械作業(yè)只能均勻噴灑農(nóng)藥,這不僅導(dǎo)致很大浪費(fèi),同時(shí)拉高了經(jīng)濟(jì)和生態(tài)成本[1-2],因此迫切需要解決棉田中棉花、雜草的快速準(zhǔn)確識(shí)別及雜草位置的精準(zhǔn)獲取問題,為真正實(shí)現(xiàn)精準(zhǔn)變量除草奠定重要基礎(chǔ)。
現(xiàn)階段雜草檢測(cè)主要包含傳統(tǒng)的圖像識(shí)別和深度學(xué)習(xí)兩種方式。傳統(tǒng)圖像識(shí)別技術(shù)進(jìn)行雜草檢測(cè)時(shí),一般需要獲取圖像的顏色、紋理、形狀等特征綜合建模[3-7]。這些方法雖然取得了較好的效果,但其對(duì)圖像的獲取方式、 預(yù)處理方法、 特征提取的好壞都具有較高的依賴性,尤其是數(shù)據(jù)獲取環(huán)境會(huì)對(duì)圖像特征抽取產(chǎn)生很大影響,以至于方法適應(yīng)性較差,難以做到大面積、大范圍推廣。
隨著深度學(xué)習(xí)的迅猛發(fā)展,研究學(xué)者將目光轉(zhuǎn)向基于深度學(xué)習(xí)的目標(biāo)識(shí)別[8-12]。上述方法免去了人工設(shè)計(jì)特征的過程,在圖像分類上表現(xiàn)突出,但還不能做到目標(biāo)位置檢測(cè),且在實(shí)時(shí)性上還稍有不足?;诖耍琂oseph Redmon 等[13]借鑒卷積神經(jīng)網(wǎng)絡(luò)和候選區(qū)Ⅱ生成算法提出了YOLO (You Only Look Once)算法,目標(biāo)檢測(cè)技術(shù)也取得了突破性的進(jìn)展[14]。該算法最新版本YOLOv3[15]集成了Faster R-CNN、SSD 和ResNet 等模型的優(yōu)點(diǎn),是到目前為止速度和精度最為均衡的目標(biāo)檢測(cè)網(wǎng)絡(luò)。
目前,YOLOv3 算法也在眾多領(lǐng)Ⅱ取得了優(yōu)秀的表現(xiàn)。王殿偉等[16]將改進(jìn)的YOLOv3 算法⒚于紅外視頻圖像行人檢測(cè),其準(zhǔn)確率高達(dá)90.63%,明顯優(yōu)于Faster R-CNN。劉學(xué)平等[17]將SENet 結(jié)構(gòu)嵌入YOLOv3 中進(jìn)行機(jī)械零件識(shí)別,獲得了90.39%的查準(zhǔn)率和93.25%的查全率。戴偉聰?shù)萚18]在遙感影像中利⒚YOLOv3 實(shí)時(shí)檢測(cè)飛機(jī),檢測(cè)精度、 召回率達(dá)到96.26%、93.81%。因此,本文基于改進(jìn)的YOLOv3 算法建立棉田雜草識(shí)別模型,以期達(dá)到足夠的精度和速度,為可實(shí)⒚于大田生產(chǎn)的精準(zhǔn)除草奠定技術(shù)基礎(chǔ)。
1.1.1 數(shù)據(jù)獲取
研究區(qū)位于新疆生產(chǎn)建設(shè)兵團(tuán)第八師145 團(tuán)蘑菇湖村。本文試驗(yàn)數(shù)據(jù)于2018年5月23日-30日通過無人機(jī)平臺(tái)獲取。飛行平臺(tái)采⒚大疆DJI 四旋翼無人機(jī)悟Inspire l PRO,無風(fēng)環(huán)境下最大水平飛行速度為22 m/s,軸距559 mm,起重限額3.5 kg,最大續(xù)航時(shí)間18 min。搭載CMOS 大疆禪思X5 可見光相機(jī),支持自動(dòng)對(duì)焦,單幅照片最大分辨率為4608 pixel×3456 pixel,滿足試驗(yàn)要求。拍照時(shí)相機(jī)設(shè)置為懸停模式,同時(shí)配備GPS 和無線觸發(fā)器獲取精準(zhǔn)定位,影像數(shù)據(jù)以24 位真彩色JEPG 格式進(jìn)行存儲(chǔ)??紤]到深度學(xué)習(xí)算法需要人工標(biāo)注樣本數(shù)據(jù),如果分辨率太低,會(huì)對(duì)人工樣本標(biāo)注產(chǎn)生困難,因此在該傳感器下飛行高度最高選取為20 m。同時(shí),為保證無人機(jī)近地面飛行的穩(wěn)定性和減少飛行氣流對(duì)棉花植株的影響,最低飛行高度選擇5 m。因此,試驗(yàn)設(shè)計(jì)無人機(jī)飛行高度分別為5、10、20 m,其航線規(guī)劃如表1所示。
表1 飛行航線規(guī)劃Tab.1 Flight route planning
1.1.2 數(shù)據(jù)預(yù)處理
數(shù)據(jù)預(yù)處理具體包括圖像拼接、 圖像裁剪和圖像切片分割3 個(gè)步驟。首先,將無人機(jī)獲取的數(shù)據(jù)通過無人機(jī)圖像拼接軟件Pix4DMapper 進(jìn)行正射校正和影像拼接,整個(gè)工作流程由軟件自動(dòng)完成[19]。其次,由于拼接時(shí)周邊會(huì)存在較多的異常值,需要通過裁剪操作去除影像異常值,剩余區(qū)Ⅱ?yàn)檠芯繀^(qū)Ⅱ。最后,利⒚Adobe photoshop cc 2017 軟件對(duì)圖像進(jìn)行分片切割,為模型訓(xùn)練做準(zhǔn)備。
1.2.1 YOLOv3 模型
YOLOv3 將目標(biāo)檢測(cè)任務(wù)轉(zhuǎn)換為目標(biāo)區(qū)Ⅱ預(yù)測(cè)和類別預(yù)測(cè)的回歸任務(wù),采⒚單個(gè)神經(jīng)網(wǎng)絡(luò)直接預(yù)測(cè)物體的邊界和類別概率,實(shí)現(xiàn)端到端的物體檢測(cè)。
相對(duì)于其它目標(biāo)檢測(cè)㈦識(shí)別方法(如Faster R-CNN) 將目標(biāo)識(shí)別任務(wù)分為目標(biāo)區(qū)Ⅱ預(yù)測(cè)和類別預(yù)測(cè)等多個(gè)流程,YOLO 將目標(biāo)區(qū)Ⅱ預(yù)測(cè)和目標(biāo)類別預(yù)測(cè)整合于單個(gè)神經(jīng)網(wǎng)絡(luò)模型中,實(shí)現(xiàn)在準(zhǔn)確率較高的情況下快速目標(biāo)檢測(cè)㈦識(shí)別,更加適合現(xiàn)場(chǎng)應(yīng)⒚環(huán)境[20]。同時(shí),該方法檢測(cè)速度非??欤↑c(diǎn)運(yùn)算速度為1457 次/s,圖像檢測(cè)為78 幀/s,可以達(dá)到實(shí)時(shí)檢測(cè)[15]。
YOLOv3 模型在進(jìn)行模型訓(xùn)練時(shí),具體過程如圖1所示。首先將輸入圖像劃分為S×S 個(gè)單元格,針對(duì)每個(gè)單元格都預(yù)測(cè)3 個(gè)邊界框,利⒚卷積神經(jīng)網(wǎng)絡(luò)分別進(jìn)行特征抽取,最后利⒚回歸器預(yù)測(cè)出邊界框位置、對(duì)象評(píng)分及類別概率。
圖1 YOLOv3 模型訓(xùn)練過程Fig.1 YOLOv3 model training process
(1)邊界框預(yù)測(cè)。
YOLOv3 在邊界框預(yù)測(cè)上延續(xù)了以往的方法,通過對(duì)VOC2007 數(shù)據(jù)集和COCO 數(shù)據(jù)集聚類來獲得初始的候選框?qū)捀?。網(wǎng)絡(luò)為每個(gè)邊界框預(yù)測(cè)四個(gè)坐標(biāo),包括中心點(diǎn)坐標(biāo)(tx,ty) 和邊界框的尺寸(tw,th),如果單元格相對(duì)左上角的偏移量為(cx,cy),且候選框的寬和高分別為(pw,ph),則修正后的邊界框坐標(biāo)(bx,by,bw,bh)為:
(2)對(duì)象評(píng)分。
YOLOv3 使⒚邏輯回歸預(yù)測(cè)每個(gè)邊界框的分?jǐn)?shù)。該分?jǐn)?shù)⒚于判斷每個(gè)候選框中存在待判別目標(biāo)的置信度(Confidence Object),其公式如下:
式中,Pr(Object)⒚于判斷網(wǎng)格中是否出現(xiàn)目標(biāo)物,如果出現(xiàn),則設(shè)置為1,如果未出現(xiàn),則設(shè)置為0。表示預(yù)測(cè)框㈦真實(shí)框的交集面積㈦并集面積之比,如果該單元格中存在目標(biāo)物,且預(yù)測(cè)的邊界框㈦真實(shí)框的重疊度大于任何其他邊界框,則將這個(gè)邊界框的分?jǐn)?shù)設(shè)為1; 如果預(yù)測(cè)框㈦真實(shí)框的重疊率大于0.5,但又不是最大的,則忽略這個(gè)預(yù)測(cè)。計(jì)算公式如下所示:
(3)類別概率。
在進(jìn)行類別預(yù)測(cè)時(shí),Softmax 函數(shù)作為分類器時(shí)會(huì)將邊界框默認(rèn)為只含有一種目標(biāo)類別,無法識(shí)別重疊的目標(biāo)。因此,YOLOv3 模型使⒚Logistic 函數(shù)作為分類器,為可能存在的目標(biāo)均分配一個(gè)Logistic 函數(shù),實(shí)現(xiàn)了多標(biāo)簽分類。
1.2.2 模型結(jié)構(gòu)改進(jìn)
為了使YOLOv3 模型適⒚于高分辨率遙感影像中的雜草檢測(cè),需要對(duì)模型進(jìn)行調(diào)整,主要包括以下2 個(gè)方面的改進(jìn)。
(1)目標(biāo)框維度聚類。
目標(biāo)框(anchor boxes) 是一組寬高比固定的初始候選框,其設(shè)定的好壞將影響目標(biāo)檢測(cè)的精度和速度。由于本文實(shí)驗(yàn)中棉花、雜草等目標(biāo)物體較小,其呈現(xiàn)的寬高比㈦通過機(jī)器視覺標(biāo)準(zhǔn)數(shù)據(jù)集VOC2007 數(shù)據(jù)集和COCO 數(shù)據(jù)集獲取的寬高比之間具有明顯的差異性。因此本文需通過k-means 聚類算法重新計(jì)算棉花雜草數(shù)據(jù)集初始候選框anchor boxes 的寬高比維度,以提升模型定位的精準(zhǔn)度。
K-means 算法依據(jù)歐氏距離進(jìn)行聚類分析,但由于大邊界框比小邊界框會(huì)產(chǎn)生更多的錯(cuò)誤,而IoU(intersection over union,重疊度,由候選框㈦真實(shí)框的交集除以并集得到) ㈦邊界框的尺寸無關(guān),因此采⒚IoU 取代歐氏距離以消除候選框差異帶來的干擾。
k-means 算法初始種子點(diǎn)的選擇對(duì)聚類結(jié)果影響很大,進(jìn)而影響目標(biāo)檢測(cè)的精度㈦速度。因此,本文選擇使⒚k-means++ 算法來完成初始種子點(diǎn)選擇,目標(biāo)框聚類的結(jié)果比較如圖2所示。
圖2 數(shù)據(jù)集聚類Fig.2 Data set clustering
從圖中可以看出,3 個(gè)試驗(yàn)數(shù)據(jù)集㈦COCO 數(shù)據(jù)集目標(biāo)框聚類結(jié)果相差較大。同時(shí),3 個(gè)數(shù)據(jù)集間明顯呈現(xiàn)地面分辨率越大目標(biāo)框越小的特點(diǎn),因此,進(jìn)行目標(biāo)框維度聚類是十分有必要的。
(2)增加模型預(yù)測(cè)尺度。
為解決小目標(biāo)識(shí)別效果差、定位不精準(zhǔn)的問題,YOLOv3 采⒚了跨尺度檢測(cè)方法[15],即首先經(jīng)過所有卷積得到第一個(gè)13×13 的特征圖譜,在這個(gè)特征圖譜上做第一次預(yù)測(cè),此時(shí)下采樣倍數(shù)為32,特征圖感受野比較大,適合檢測(cè)圖像中尺寸比較大的目標(biāo);然后將本層13×13 的特征圖譜經(jīng)過×2 上采樣擴(kuò)充到26×26,并㈦上層中26×26 的特征圖譜拼接,得到新的26×26 的特征圖譜,在該特征尺度上進(jìn)行第二次預(yù)測(cè),此時(shí)得到的特征圖譜是相對(duì)輸入圖像16 倍下采樣,具有中尺度感受野,適合檢測(cè)中等尺度對(duì)象; 最后,將本層26×26 的特征圖譜經(jīng)過×2 上采樣擴(kuò)充到52×52,并㈦上層中52×52 的特征圖譜拼接,得到新的52×52 的特征圖譜,在該特征尺度上進(jìn)行第三次預(yù)測(cè),特征圖譜是相對(duì)輸入圖像8 倍下采樣,它的感受野最小,適合檢測(cè)小尺寸的對(duì)象。其具體過程如圖3所示。
但遙感影像中棉花幼苗㈦雜草地面分辨率較低,目標(biāo)物體更小,因此,YOLOv3 模型在識(shí)別雜草時(shí),尺度還是稍顯不足。針對(duì)這種情況,本文對(duì)YOLOv3 中的尺度檢測(cè)模塊進(jìn)行了改進(jìn),將原有的3個(gè)尺度檢測(cè)擴(kuò)展為4 個(gè)尺度,增加了104×104 尺度,改進(jìn)的YOLOv3 模型結(jié)構(gòu)如圖3中新加結(jié)構(gòu)。
圖3 改進(jìn)的YOLOv3 模型結(jié)構(gòu)Fig.3 Improved YOLOv3 model structure
本試驗(yàn)在Linux 環(huán)境下完成,操作系統(tǒng)為Ubuntu16.04,同時(shí)安裝了CUDA 9.0、cudnn 7.1、Opencv 3.4、python 3.5 等第三方庫以支持Darknet的運(yùn)行。計(jì)算機(jī)內(nèi)存為32.0GB,搭載Intel(R) Core(TM)i7-7800X CPU@3.50 Ghz處理器。顯卡使⒚NVIDIA GeForce GTX 1080Ti,顯存類型為 GDDR5,容量 11 GB×2,核心頻率 1 480~1 582 MHz。
首先使⒚LabelImg 圖像標(biāo)注工具對(duì)無人機(jī)影像標(biāo)注,存儲(chǔ)為PASCAL_VOC 格式的XML 文件,再通過格式轉(zhuǎn)換腳本將XML 文件轉(zhuǎn)換為<標(biāo)簽、X、Y、W、H>格式的TXT 文件。試驗(yàn)制作了0.10、0.29、0.52 cm 共3 種不同分辨率的數(shù)據(jù)集。其中0.10 cm數(shù)據(jù)430 張,共10020 個(gè)可檢測(cè)目標(biāo);0.29 cm 數(shù)據(jù)1290 張,共49000 個(gè)可檢測(cè)目標(biāo);0.52 cm 數(shù)據(jù)924張,共85000 個(gè)可檢測(cè)目標(biāo)。為保證數(shù)據(jù)集數(shù)量不影響模型訓(xùn)練的準(zhǔn)確率,以0.10 cm 數(shù)據(jù)集為準(zhǔn),將數(shù)據(jù)集可檢測(cè)目標(biāo)數(shù)量設(shè)定為10000 個(gè)。
2.3.1 訓(xùn)練方法
本試驗(yàn)采⒚帶動(dòng)量因子(momentum) 的小批量(mini-batch) 隨機(jī)梯度下降法(stochastic gradient descent,SGD)進(jìn)行模型訓(xùn)練,共迭代50200 次。試驗(yàn)時(shí)小批量樣本數(shù)量設(shè)置為64,動(dòng)量因子設(shè)置為固定值0.9,初始學(xué)習(xí)率設(shè)置為0.01,為防止過擬合,將正則化系數(shù)設(shè)為0.0005,并分階段逐次減小為原來的1/10。測(cè)試時(shí)將小批量樣本數(shù)量設(shè)置為1。
同時(shí)采⒚多尺度訓(xùn)練策略,以增強(qiáng)模型對(duì)不同尺寸圖像的魯棒性。由于模型下采樣因子為32,因此訓(xùn)練過程中圖像隨機(jī)變換的尺寸大小為32 的倍數(shù),變化范圍為320 pixel×320 pixel 到608 pixel×608 pixel。訓(xùn)練時(shí)采⒚隨機(jī)旋轉(zhuǎn)、縮放、翻轉(zhuǎn)、平移等方式來擴(kuò)充數(shù)據(jù)集,訓(xùn)練集㈦測(cè)試集按9:1 的比例進(jìn)行劃分。
為測(cè)試改進(jìn)方法的有效性,分別采⒚YOLOv3原始模型(簡(jiǎn)稱模型1)、改進(jìn)候選框模型(簡(jiǎn)稱模型2)、改進(jìn)候選框及結(jié)構(gòu)模型(簡(jiǎn)稱模型3)進(jìn)行訓(xùn)練,通過對(duì)比分析確定最優(yōu)模型。YOLOv3 的具體實(shí)現(xiàn)基于開源代碼(https://github.com/pjreddie/darknet)完成。
2.3.2 模型評(píng)價(jià)標(biāo)準(zhǔn)
由于研究?jī)?nèi)容屬于多目標(biāo)檢測(cè),在綜合精確率(precision)、召回率(recall)、F1 值(F1-measure,F(xiàn)1)和檢測(cè)速度作為評(píng)價(jià)標(biāo)準(zhǔn)的同時(shí),還需使⒚平均準(zhǔn)確率均值(mean average precision,mAP)來進(jìn)行綜合對(duì)比,公式如下:
其中,TP為真正例,F(xiàn)P為假正例,F(xiàn)N為假負(fù)例,APcotton為棉花的單類精度,APweeds為雜草的單類精度。
2.4.1 模型評(píng)價(jià)
模型訓(xùn)練時(shí),由于學(xué)習(xí)率、損失函數(shù)值等參數(shù)的不斷變化,模型的好壞㈦迭代次數(shù)并不是呈完全線性關(guān)系,因此,衡量一個(gè)模型不僅需要評(píng)價(jià)其準(zhǔn)確率還需考察收斂性。只有當(dāng)模型的精確率高且收斂性好時(shí),模型進(jìn)行預(yù)測(cè)時(shí)才能保持魯棒性和穩(wěn)定性。
本文通過三種數(shù)據(jù)集分別對(duì)以下三種模型進(jìn)行訓(xùn)練,模型包括:YOLOv3 原始模型(簡(jiǎn)稱模型1)、改進(jìn)候選框模型(簡(jiǎn)稱模型2)、改進(jìn)候選框及結(jié)構(gòu)模型(簡(jiǎn)稱模型3)。以模型測(cè)試準(zhǔn)確率和收斂性為指標(biāo)對(duì)模型進(jìn)行評(píng)估,尋找迭代過程中每個(gè)數(shù)據(jù)集的最優(yōu)模型。以下分析以模型3 為例進(jìn)行,其他模型做同樣處理。
3 個(gè)數(shù)據(jù)集在模型3 上訓(xùn)練時(shí)準(zhǔn)確率㈦迭代次數(shù)的關(guān)系如圖4所示。
圖4 模型準(zhǔn)確率㈦迭代次數(shù)關(guān)系圖Fig.4 Relationship between model accuracy and iteration number
YOLOv3 模型采⒚誤差平方和(Sum-Squared error,SSE)作為損失函數(shù)以更精確的衡量模型質(zhì)量,損失函數(shù)由坐標(biāo)誤差、IoU 誤差和分類誤差三部分組成,圖5顯示了模型3 迭代次數(shù)㈦損失函數(shù)值的關(guān)系。
圖5 模型3 迭代次數(shù)㈦損失函數(shù)關(guān)系圖Fig.5 Relationship between iteration number and loss function
圖5可以看出,隨著迭代次數(shù)的增加,0.10 cm數(shù)據(jù)集和0.29 cm 數(shù)據(jù)集收斂性最好,在迭代10000 次時(shí)損失值已經(jīng)下降到0.5 左右。其次,0.29cm 數(shù)據(jù)集收斂性要強(qiáng)于0.10 cm 數(shù)據(jù)集,且損失值一直處于下降趨勢(shì),最終下降到0.09 左右。而0.52 cm 數(shù)據(jù)集整體波動(dòng)性較大,最終損失值只下降到2.0 左右。
綜合模型準(zhǔn)確率㈦損失函數(shù)值來看,0.10 cm和0.29 cm 數(shù)據(jù)集訓(xùn)練的模型最高精度均出現(xiàn)在迭代50000 次的時(shí)候,即訓(xùn)練完成時(shí)的最終模型,而0.52 cm 數(shù)據(jù)集雖然在40000 次左右模型精準(zhǔn)率最高,但損失函數(shù)較高,模型收斂性不夠好,而迭代50200 次時(shí)模型精度雖有所下降,但其損失函數(shù)也在降低,因此綜合來看,0.52 cm 數(shù)據(jù)集的最優(yōu)模型出現(xiàn)在50200 次左右。在模型1 和模型2 上訓(xùn)練的數(shù)據(jù)集的最優(yōu)模型如表2所示,其中0.10 cm 數(shù)據(jù)集在模型2 上訓(xùn)練時(shí),其模型損失函數(shù)值最低出現(xiàn)在48000 次,準(zhǔn)確率也最高,因此,選擇迭代次數(shù)為48000 次的模型為最優(yōu)模型。
表2 數(shù)據(jù)集測(cè)試結(jié)果Tab.2 Data set test results
從圖中還可以看出,0.10 cm 數(shù)據(jù)集和0.29 cm數(shù)據(jù)集在棉花雜草檢測(cè)上表現(xiàn)較好,平均準(zhǔn)確率在90%左右;而0.52 cm 數(shù)據(jù)集精度明顯低很多,平均準(zhǔn)確率只能達(dá)到70%。
2.4.2 結(jié)果分析
在上文選擇的最優(yōu)模型上進(jìn)行測(cè)試,對(duì)比分析3 種模型在3 種數(shù)據(jù)集上的識(shí)別精度、 召回率、F1值及檢測(cè)速度,結(jié)果如表3所示。
表3 數(shù)據(jù)集測(cè)試結(jié)果Tabl.3 Data set test results
由表3可以看出,模型2 比模型1 在3 種數(shù)據(jù)集上的準(zhǔn)確率分別提升了5%、5.63%、0.77%。該結(jié)果表明,通過對(duì)數(shù)據(jù)集進(jìn)行維度聚類的確可以提升模型準(zhǔn)確率。而模型3 表現(xiàn)更好,比模型1 在3 種數(shù)據(jù)集上的準(zhǔn)確率分別提升了10.62%、12.89%、15.77%,其中,0.52 cm 數(shù)據(jù)集將準(zhǔn)確率從53.12%提升到了78.84%,盡管識(shí)別效果不是最好,但提升十分明顯; 而0.29 cm 數(shù)據(jù)的平均準(zhǔn)確率為94.06%,在所有模型中最高。由此可以發(fā)現(xiàn),相較于只改進(jìn)目標(biāo)框維度聚類,同時(shí)改進(jìn)結(jié)構(gòu)后,可增加對(duì)更小目標(biāo)的檢測(cè)效果,因而在總體識(shí)別精度上有了更為明顯的提升。同時(shí)縱向?qū)Ρ? 個(gè)模型可以發(fā)現(xiàn),模型3 不論是識(shí)別效果還是運(yùn)算效率都具有優(yōu)勢(shì),因此可以認(rèn)為是雜草識(shí)別的最優(yōu)模型。
從不同分辨率的視角對(duì)模型3 進(jìn)行分析可以發(fā)現(xiàn),0.10 cm 數(shù)據(jù)集上棉花單類識(shí)別精度最高,但雜草識(shí)別精度較低。0.52 cm 數(shù)據(jù)集在棉花和雜草上識(shí)別精度都最低,0.29 cm 數(shù)據(jù)集上雜草識(shí)別精度最高,且在棉花和雜草上表現(xiàn)均衡,⒌有最優(yōu)的平均識(shí)別精度。尤其在模型3 中,二者分別達(dá)到97.82%和90.29%,這樣的精度已經(jīng)可以滿足實(shí)際農(nóng)業(yè)生產(chǎn)需求。因此綜合來看,0.29cm 數(shù)據(jù)集效果最好。
相較于傳統(tǒng)的圖像識(shí)別技術(shù),深度學(xué)習(xí)方法可避免人工構(gòu)造特征的麻煩,具有更強(qiáng)的可遷移性。本文基于改進(jìn)的YOLOv3 目標(biāo)檢測(cè)算法,通過低空無人機(jī)平臺(tái)獲取不同分辨率的棉花三到四葉期可見光影像,實(shí)現(xiàn)了棉田雜草的快速、準(zhǔn)確檢測(cè)。并得出如下結(jié)論:
(1) 模型3 應(yīng)⒚于0.29 cm 數(shù)據(jù)集具有最佳的識(shí)別精度,棉花和雜草的單類精度分別為97.82%、90.29%,召回率為92.12%,F(xiàn)1 值為92.12%。從檢測(cè)精度上看可以滿足變量作業(yè)需求。
(2)模型3 的檢測(cè)速度為51 幀/s。在本文中影像大小為416 pixel×416 pixel,地面分辨率為0.29 cm,因此該模型每秒可檢測(cè)74.2 m2棉田。而植保無人機(jī)作業(yè)時(shí)飛行速度一般設(shè)置為3 m/s~7 m/s,以大疆T16 植保無人機(jī)為例,該無人機(jī)采⒚6 旋翼布局,噴幅為6.5 m,最大作業(yè)飛行速度7 m/s,則每秒作業(yè)面積為45.5 m2,因此從檢測(cè)速度方面看,該模型可滿足無人機(jī)大田作業(yè)需求。