摘要:板栗人工采收效率低、勞動強(qiáng)度大、易傷人,基于機(jī)器視覺的無人機(jī)采摘板栗栗蓬既高效又安全、為了快速識別和準(zhǔn)確定位自然環(huán)境下板栗栗蓬目標(biāo),提出一種改進(jìn)YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)的YOLOvc栗蓬目標(biāo)檢測方法。通過在網(wǎng)絡(luò)YOLOv3層前端添加融合通道注意力與空間注意力機(jī)制的CBAM注意力機(jī)制模塊,提高深度學(xué)習(xí)網(wǎng)絡(luò)模型對小栗蓬目標(biāo)特征提取能力。在YOLOv3原有損失函數(shù)基礎(chǔ)上添加焦點(diǎn)損失函數(shù),提高對栗蓬遮擋等難分樣本的檢測識別能力。試驗(yàn)結(jié)果表明,YOLOvc算法能夠有效檢測板栗栗蓬,其查準(zhǔn)率和平均精度分別達(dá)到89.35%、89.37%。消融試驗(yàn)對比結(jié)果顯示,改進(jìn)YOLOv3卷積神經(jīng)網(wǎng)絡(luò)對板栗樹上栗蓬的檢測識別精度比YOLOv3提高2.21%。研究結(jié)果表明,對YOLOv3添加注意力機(jī)制和焦點(diǎn)損失函數(shù)的深度學(xué)習(xí)算法YOLOvc可有效實(shí)現(xiàn)板栗樹上栗蓬檢測定位,為無人機(jī)采收板栗提供有效技術(shù)支持。
關(guān)鍵詞:板栗栗蓬;YOLOv3;目標(biāo)檢測;CBAM;焦點(diǎn)損失
中圖分類號:S225; TS736+.4 文獻(xiàn)標(biāo)識碼:A 文章編號:2095?5553 (2024) 11?0209?06
Object detection method for chestnut peng in the tree based on improved YOLOv3
Li Zhichen, Ling Xiujun, Li Hongqiu, Luo Weiping
(School of Mechanical & Electrical Engineering, Jinling Institute of Technology, Nanjing, 211169, China)
Abstract: The artificial harvesting of Chinese chestnut is low efficiency, high labor intensity and easy to hurt people. Chestnut positioning and picking by unmanned aerial vehicle (UAV) based on machine vision are both efficient and safe. To quickly identify and accurately locate chestnut targets in natural environment, a YOLOvc chestnut target detection method with improved YOLOv3 network structure is proposed. By adding the CBAM attention mechanism module integrating channel attention and spatial attenti47b5abdeb02d5c27ccdd86c653218d3bon mechanism to the front end of the network YOLOv3 layer, the extracting little target features ability of deep learning network model 0d19dc94f693f5d5c46eae06bd149a8bis improved. Secondly, the focal loss function is added on the basis of the original loss function of YOLOv3 to improve the detection and identification ability of difficult samples such as chestnut occlusion. The results show that YOLOvc algorithm can effectively detect chestnut, its accuracy rate and average accuracy are 89.35% and 89.37% respectively.The results of the ablation experiments showed that the precision of improved YOLOv3 convolutional neural network was 2.21% higher than the YOLOv3. The research results show that the deep learning algorithm YOLOvc by adding attention mechanism and focus loss function to YOLOv3 can effectively realize chestnut detection and localization on trees and provide effective technical support for chestnut harvesting by UAV.
Keywords: chestnut peng; YOLOv3; object detection; CBAM; focal loss
0 引言
板栗營養(yǎng)豐富、香甜可口,是人們喜愛的干果零食,經(jīng)常食用具有益氣健脾、補(bǔ)腎強(qiáng)筋等保健作用,我國板栗種植面積居于世界首位。板栗采收主要有兩種方法:人工撿拾完全成熟后自然掉落板栗果和用長桿敲打板栗蓬再收集打落栗蓬,這兩種板栗采收方法效率較低。在山東省五蓮縣,大多采用第二種方法采收板栗,每年都有敲打高空栗蓬脫落傷到人頭部甚至是眼睛的事件發(fā)生。隨著農(nóng)村壯勞力外出務(wù)工,老人已經(jīng)沒有能力爬到丘陵的山腰及山頂,從而放棄采收成熟板栗,浪費(fèi)掉自然贈與的綠色食品。
針對板栗采收人工成本髙、采收難問題,板栗采收機(jī)能降低板栗種植成本和提高農(nóng)民收入。華中農(nóng)業(yè)大學(xué)研制完成拍打式板栗采收機(jī),該機(jī)不僅能夠適合平地和低丘陵山地板栗采收,而且隨動式板栗收集車能自動跟隨并收集掉落板栗,使采收效率大大提高,為板栗收獲機(jī)械進(jìn)一步研制提供有力方案[1]。但該機(jī)對海拔高坡度陡的山腰和山頂板栗采收顯得無能為力,無人機(jī)采收不失為一個(gè)更好方案。采摘無人機(jī)通過自身末端采摘器,可對陡坡山地果樹高空采摘作業(yè),實(shí)現(xiàn)對高處果實(shí)采摘,能夠提高效率、降低成本和安全風(fēng)險(xiǎn)。國內(nèi)外已經(jīng)開展對采摘無人機(jī)研究,以色列在2020年推出果園采摘無人機(jī),該機(jī)采用視覺識別和定位果實(shí),通過前身機(jī)械臂包住果實(shí)旋轉(zhuǎn),從而收獲果實(shí)[2]。張?zhí)姨依酶倪M(jìn)可拓設(shè)計(jì)方法設(shè)計(jì)無人機(jī)水果采摘機(jī),運(yùn)用雙目視覺對采摘仿真結(jié)果顯示,視覺能夠準(zhǔn)確獲取果實(shí)目標(biāo)三維信息[3]。雒鷹初步設(shè)計(jì)紅松果采摘無人機(jī),該機(jī)實(shí)現(xiàn)視覺對松果識別與定位,通過遙控?zé)o人機(jī)機(jī)械手完成對松果剪切采摘[4]。
視覺識別系統(tǒng)是采摘無人機(jī)或機(jī)器人系統(tǒng)的組成部分,對目標(biāo)檢測識別定位具有重要作用。隨著深度學(xué)習(xí)在農(nóng)作物檢測中興起,深度學(xué)習(xí)目標(biāo)檢測方法逐步取代傳統(tǒng)機(jī)器視覺方法,YOLO就是一種基于深度學(xué)習(xí)的物體目標(biāo)檢測算法,該算法運(yùn)算時(shí)間短、速度快、成本低,適合農(nóng)產(chǎn)品目標(biāo)檢測。許多研究學(xué)者利用YOLO系列算法實(shí)現(xiàn)了果實(shí)目標(biāo)高效檢測識別。劉小剛等[5]利用改進(jìn)YOLOv3識別方法在復(fù)雜環(huán)境中對草莓連續(xù)識別檢測,成熟草莓識別準(zhǔn)確率為97.14%,并且對復(fù)雜環(huán)境具有良好魯棒性。宋懷波等[6?7]利用YOLOv5s卷積神經(jīng)網(wǎng)絡(luò)模型檢測識別油茶果,對遮擋和弱光線環(huán)境下油茶果實(shí)現(xiàn)了高精度識別與定位,并提出一種融合高效通道注意力機(jī)制的改進(jìn)YOLOv7模型實(shí)現(xiàn)了蘋果幼果快速準(zhǔn)確檢測。陳仁凡等[8]提出一種基于改進(jìn)輕量化YOLOv5s模型用于溫室草莓成熟度檢測,速度快、準(zhǔn)確率高,能夠?qū)崿F(xiàn)草莓生長狀態(tài)監(jiān)測。劉莫塵等[9]借鑒人體姿態(tài)檢測算法改進(jìn)YOLOv8-Pose模型識別紅熟期草莓與果柄關(guān)鍵點(diǎn)檢測,識別與檢測的精度高且對遮擋、光線和拍攝角度等影響均具有較好的魯棒性。張伏等[10]提出一種基于改進(jìn)YOLOv4-LITE神經(jīng)網(wǎng)絡(luò)的圣女果識別定位方法,該方法具有識別速度快、識別準(zhǔn)確率高、輕量化特點(diǎn)。李天華等[11]提出一種基于YOLOv4與HSV相結(jié)合的識別成熟期番茄方法,該方法通過HSV處理,對自然環(huán)境下成熟期番茄識別的正確率達(dá)到94.77%。黃麗明等[12]利用深度可分離卷積和倒殘差結(jié)構(gòu)改進(jìn)YOLOv4算法,提高識別無人機(jī)遙感影像上松材線蟲病異常變色木的精度和效率。鮑文霞等[13]通過添加坐標(biāo)注意力機(jī)制和轉(zhuǎn)換預(yù)測頭為Transformer方法,設(shè)計(jì)一種麥穗檢測模型,提高了無人機(jī)圖像麥穗計(jì)數(shù)精度。汪斌斌等[14]使用無人機(jī)采集試驗(yàn)田玉米雄穗影像,分析了不同YOLO模型對不同品種和不同種植密度玉米雄穗的識別檢測效果。
上述文獻(xiàn)雖然實(shí)現(xiàn)了某些農(nóng)產(chǎn)品的識別檢測,但如何實(shí)現(xiàn)栗蓬準(zhǔn)確識別與定位以及栗蓬成熟度判別是板栗無人機(jī)采摘必須首先解決的問題。雖然YOLO已經(jīng)發(fā)展到v8版本,但YOLOv3在目標(biāo)檢測領(lǐng)域算法成熟、能夠高效率地高速運(yùn)行、目標(biāo)檢測識別速度和精度高,可實(shí)現(xiàn)端到端的目標(biāo)識別檢測,所以應(yīng)用仍然非常廣泛。板栗栗蓬體積不大,在板栗樹上分布密集。栗蓬鄰接和遮擋現(xiàn)象很多,在自然場景下受光照變化影響較難識別,所以鮮有板栗栗蓬檢測的文獻(xiàn)。本研究通過增加焦點(diǎn)損失函數(shù)(Focal Loss)和在卷積模塊中添加注意力機(jī)制對YOLOv3算法改進(jìn),利用改進(jìn)YOLOv3模型對板栗樹上栗蓬自動檢測識別,為今后無人機(jī)采摘板栗打下理論基礎(chǔ)。
1 材料與方法
1.1 圖像采集及數(shù)據(jù)集制作
試驗(yàn)數(shù)據(jù)采集于山東省五蓮縣松柏鎮(zhèn)李家峪村后山板栗林,如圖1(a)所示。五蓮縣地處黃海之濱的魯東南低山丘陵區(qū),海拔高度在18~706 m之間,地理坐標(biāo)為東經(jīng)118°55′~119°32′,北緯35°32′~35°59′,五蓮縣屬溫帶季風(fēng)氣候,一年四季周期性變化明顯,季節(jié)性降水明顯,日照充足,熱能豐富。年平均氣溫13.2 ℃,歷年平均降雨量747 mm。五蓮的地理位置和氣候特點(diǎn)適合板栗生長并且品質(zhì)優(yōu)良,但由于地處丘陵導(dǎo)致采摘困難。
板栗成熟果實(shí)為暗紅色呈開口狀態(tài),但栗農(nóng)為防止板栗果脫落,在板栗栗蓬還沒有開口的時(shí)候就收獲回去再脫蓬,因此大部分栗蓬在收獲時(shí)還呈綠色狀態(tài),與板栗樹葉顏色一致,增加檢測識別難度,用小米手機(jī)拍攝于2023年9月29日—10月3日,相機(jī)分辨率為2 976像素×3 968像素,為保證板栗樹樣本多樣性,分別在不同時(shí)間段、不同天氣狀況下和不同遮擋條件下拍攝板栗樹栗蓬圖像,既有順光拍攝圖像又有逆光拍攝圖像。為增加圖像地域適應(yīng)性,還有小部分圖像來自于百度圖片。原始圖像如圖1(a)所示,圖1(b)是百度下載圖片,圖1(c)是逆太陽光拍攝板栗樹上栗蓬圖片,圖1(d)是順太陽光拍攝板栗樹上密集分布栗蓬圖像。共獲取942幅影像,將所有圖像分為訓(xùn)練和驗(yàn)證2組,其中訓(xùn)練組有844幅圖像,驗(yàn)證組圖像數(shù)量為98幅。
采用Labelme工具手工標(biāo)注包圍板栗栗蓬矩形框,生成json標(biāo)簽文件。研究者編寫一個(gè)由json轉(zhuǎn)換成txt文件的腳本,利用這個(gè)腳本把人工標(biāo)注json標(biāo)簽文件轉(zhuǎn)換成txt文件,板栗栗蓬識別目的是僅僅識別栗蓬這一類目標(biāo),因此圖像被分為栗蓬目標(biāo)與背景兩類。
1.2 試驗(yàn)設(shè)備及參數(shù)設(shè)置
研究模型訓(xùn)練和測試均在同一環(huán)境下運(yùn)行,軟件環(huán)境為64位Windows10專業(yè)版系統(tǒng),處理器為AMD Ryzen5 3550,主板版本為SDK0 L77769 WIN,16 GB運(yùn)行內(nèi)存,PyTorch深度學(xué)習(xí)框架。根據(jù)以往對卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于農(nóng)產(chǎn)品檢的測研究,自適應(yīng)矩估計(jì)(Adaptive moment estimation,Adam)優(yōu)化器是最優(yōu)優(yōu)化函數(shù)[15],動量因子設(shè)置為0.9,學(xué)習(xí)率參數(shù)數(shù)值設(shè)置為0.001,由于訓(xùn)練用計(jì)算機(jī)內(nèi)存較小,模型超參數(shù)設(shè)置批樣本(batch size)數(shù)量為8。
1.3 基于改進(jìn)YOLOv3的栗蓬識別模型
You Only Look Once(YOLO)通過CNN網(wǎng)絡(luò)模型把圖像分成多個(gè)網(wǎng)格,再預(yù)測每個(gè)網(wǎng)格內(nèi)存在目標(biāo)的邊框位置和類別概率,從而實(shí)現(xiàn)端到端目標(biāo)檢測。YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)主要有輸入層(Input)、主干網(wǎng)絡(luò)層(DarkNet53)和預(yù)測識別層(YOLO)3個(gè)部分組成。與YOLOv1和YOLOv2相比,YOLOv3加入更多特征提取層,并改進(jìn)損失函數(shù),準(zhǔn)確率和速度得以提高。針對YOLOv3損失函數(shù)反向傳播沒有關(guān)注難分樣本問題,改進(jìn)的YOLOv3增加焦點(diǎn)損失函數(shù)。同時(shí)對YOLOv3存在的特征提取不足問題,在DarkNet53尾部卷積中加入注意力機(jī)制。
1.3.1 增加損失函數(shù)
通過對比板栗栗蓬圖像發(fā)現(xiàn),有些圖像是在逆光條件下拍攝,有些圖像有很多個(gè)栗蓬(栗蓬密集),還有部分圖像栗蓬很小,這些圖像屬于難以檢測樣本,對模型影響很大,而易分樣本本身就容易被檢測識別,其訓(xùn)練損失主導(dǎo)YOLOv3模型整體損失,從而導(dǎo)致在訓(xùn)練過程中損失反向傳播對權(quán)重參數(shù)更新沒有更多地關(guān)注難分樣本,使得神經(jīng)網(wǎng)絡(luò)模型對難分樣本檢測識別能力依舊很低。焦點(diǎn)損失函數(shù)還能解決正負(fù)樣本不平衡問題,黃鍵等[16]通過對YOLOX-S模型引入焦點(diǎn)損失函數(shù),在訓(xùn)練過程中緩解正負(fù)樣本不平衡的影響和更加關(guān)注難分樣本,平均目標(biāo)檢測精度提高3.88%。龍燕等[17]提出一種融合聯(lián)合交并比和焦點(diǎn)損失的損失函數(shù),檢測性能提高,同時(shí)正負(fù)樣本比例失衡帶來的誤差降低,樹上蘋果檢測準(zhǔn)確率為96.0%,檢測精度均值為96.3%。馬馳等[18]通過引入焦點(diǎn)損失函數(shù)對YOLO算法改進(jìn),對穴盤甘藍(lán)炭疽病、細(xì)菌性黑斑病、褐斑病、黑腐病檢測精度得到提高。為了提高YOLOv3模型對難分栗蓬樣本檢測識別能力,在原有3個(gè)損失函數(shù)基礎(chǔ)上,增加焦點(diǎn)損失函數(shù)(Focal Loss),如式(1)所示,其中[pt]是檢測到某個(gè)物體的置信度,[αt]用來平衡正負(fù)樣本數(shù)量,[γ]取值為2,[(1-pt)γ]可更加關(guān)注難分樣本。
[FL(pt)=-αt(1-pt)γlog(pt)] (1)
1.3.2 注意力機(jī)制
通道注意力機(jī)制在深度學(xué)習(xí)網(wǎng)絡(luò)模型中可對不同特征通道加權(quán)平均,通道注意力機(jī)制算法:(1)計(jì)算每個(gè)通道特征圖的全局最大特征和平均特征;(2)輸入多層感知機(jī),得到每個(gè)通道重要程度;(3)通道重要程度權(quán)重與原特征圖相乘;(4)運(yùn)用Sigmoid激活函數(shù)進(jìn)行非線性變換,得到最終輸出特征圖。
空間注意力機(jī)制能夠定位到圖像中與任務(wù)相關(guān)區(qū)域,并抑制無用信息,空間注意力機(jī)制算法:(1)將每個(gè)特征點(diǎn)在通道方向平均池化和最大池化,堆疊生成特征描述符;(2)用通道數(shù)為1的卷積將特征描述符連接和卷積操作;(3)運(yùn)用Sigmoid激活函數(shù)非線性變換后得到輸入特征圖每個(gè)特征點(diǎn)權(quán)重值;(4)將權(quán)重值與原特征圖相乘得到最終輸出特征圖。
將通道注意力和空間注意力結(jié)合起來的CBAM(Convolutional Block Attention Module)注意力機(jī)制模塊可以提高深度學(xué)習(xí)網(wǎng)絡(luò)模型感知能力,從而在不增加網(wǎng)絡(luò)復(fù)雜性的情況下改善卷積網(wǎng)絡(luò)檢測性能,其結(jié)構(gòu)如圖2所示。陳思卓等[19]在網(wǎng)絡(luò)底端過渡區(qū)域引入注意力模塊CBAM實(shí)現(xiàn)了胸水腫瘤細(xì)胞團(tuán)塊的有效分割。任治洲等[20]在卷積神經(jīng)網(wǎng)絡(luò)Mobile Net V2上加入CBAM注意力機(jī)制對四種小麥籽粒(赤霉病粒、腥黑穗病粒、破損粒和正常粒)分類,準(zhǔn)確率、精準(zhǔn)率、召回率分別得到提升。
1.4 網(wǎng)絡(luò)結(jié)構(gòu)
深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)在沿用YOLOv3整體布局基礎(chǔ)上,在已有置信度損失函數(shù)、類別損失、回歸損失(檢測框四個(gè)偏移量)的基礎(chǔ)上增加焦點(diǎn)損失函數(shù),在Darknet-53最后三個(gè)模塊和YOLO檢測層之間添加CBAM注意力機(jī)制,綜合這兩個(gè)方面改進(jìn)YOLO網(wǎng)絡(luò)結(jié)構(gòu),如圖3所示,將該網(wǎng)絡(luò)命名為YOLOvc,改進(jìn)的栗蓬檢測網(wǎng)絡(luò)既能夠檢測大的栗蓬目標(biāo),也能夠檢測小的栗蓬目標(biāo),每個(gè)YOLO層各有3個(gè)錨(anchor),檢測框有1個(gè)類別、4個(gè)框偏移量和1個(gè)置信度共6個(gè)數(shù)據(jù)。為方便栗蓬識別效果比較,將僅僅增加焦點(diǎn)損失函數(shù)的網(wǎng)絡(luò)命名為YOLOvf,把僅僅添加注意力機(jī)制的深度學(xué)習(xí)網(wǎng)絡(luò)稱作YOLOva。
1.5 評價(jià)指標(biāo)
板栗樹上栗蓬檢測只有栗蓬一個(gè)類,利用查準(zhǔn)率P、平均精度AP來評估改進(jìn)YOLOv3模型對栗蓬檢測識別性能,計(jì)算AP需要先計(jì)算查準(zhǔn)率和查全率R以及重疊度IOU,如式(2)~式(4)所示。
[P=TPTP+FP=TPAD] (2)
[R=TPTP+FN=TPAGT] (3)
[IOU=area(Bp∩Bgt)area(Bp∪Bgt)] (4)
式中: TP——正確預(yù)測為正樣本數(shù)量,在栗蓬檢測中就是[IOU>IOUT]栗蓬檢測框數(shù)量,在栗蓬檢測過程中,[IOUT]值設(shè)置為0.5;
[IOU]——檢測框與栗蓬真實(shí)框的交并比;
FP——錯(cuò)誤預(yù)測為正樣本數(shù)量,在栗蓬檢測中就是[IOU≤IOUT]的栗蓬檢測框數(shù)量或者是檢測到同一個(gè)栗蓬的多余檢測框數(shù)量;
FN——錯(cuò)誤預(yù)測為負(fù)樣本數(shù)量,在栗蓬檢測中就是實(shí)際是栗蓬而未檢測到的栗蓬數(shù)量;
[AD]——檢測到所有栗蓬框數(shù)量;
[AGT]——圖像中所有栗蓬數(shù)量;
[Bp]——栗蓬檢測框;
[Bgt]——栗蓬真實(shí)框。
理論上計(jì)算AP的方法:首先計(jì)算栗蓬檢測識別的[P]和[R]值,其次繪制[P]-[R]曲線,最后計(jì)算曲線包圍面積,AP就等于該面積。栗蓬檢測識別的AP算法步驟:(1)對檢測到每個(gè)栗蓬框標(biāo)上序號,計(jì)算每個(gè)栗蓬檢測框的[TP]、[FP]和[FN];(2)對檢測到的所有栗蓬框按置信度從大到小有序排列,根據(jù)累積的[TP]、[FP]和[FN]計(jì)算每一個(gè)檢測框[P]和[R]值。(3)根據(jù)[P]和[R]值對畫出[P-R]曲線,用插值法計(jì)算曲線下面積,該面積就是AP值。
2 結(jié)果與討論
2.1 訓(xùn)練策略和消融試驗(yàn)
利用844幅栗蓬圖像對YOLOv3、YOLOvf 、YOLOva和YOLOvc網(wǎng)絡(luò)迭代訓(xùn)練200個(gè)epoch,每10個(gè)epoch保存一次網(wǎng)絡(luò)權(quán)重模型,用驗(yàn)證栗蓬圖像測試這20個(gè)權(quán)重模型,選取最優(yōu)權(quán)重模型評價(jià)4個(gè)卷積神經(jīng)網(wǎng)絡(luò),具體指標(biāo)如表1所示。
無論是添加焦點(diǎn)函數(shù)還是注意力機(jī)制,可以使網(wǎng)絡(luò)性能迅速達(dá)到最佳值,添加焦點(diǎn)函數(shù)的YOLOvf網(wǎng)絡(luò)在訓(xùn)練80個(gè)epoch就能使栗蓬查準(zhǔn)率達(dá)到最高值,添加注意力機(jī)制的YOLOva網(wǎng)絡(luò)在訓(xùn)練70個(gè)epoch就能使栗蓬檢測查準(zhǔn)率達(dá)到最高值,同時(shí)添加焦點(diǎn)函數(shù)和注意力機(jī)制的YOLOvc也比YOLOv3能以少的時(shí)間達(dá)到最佳值。
分別對YOLOv3、YOLOvf、YOLOva和YOLOvc四種深度學(xué)習(xí)網(wǎng)絡(luò)模型實(shí)施測試消融試驗(yàn),每個(gè)模型測試評估指標(biāo)如表1所示。四個(gè)網(wǎng)絡(luò)模型所占內(nèi)存空間基本一致,添加焦點(diǎn)損失不增加權(quán)重參數(shù),僅僅影響訓(xùn)練速度,增加注意力機(jī)制后增加參數(shù)也有限,四個(gè)網(wǎng)絡(luò)模型對單幅板栗栗蓬圖像檢測時(shí)間都是123 ms。
YOLOvf、YOLOva網(wǎng)絡(luò)對樹上栗蓬檢測性能比YOLOv3略高一些,從試驗(yàn)的結(jié)果看,在損失函數(shù)中添加焦點(diǎn)損失函數(shù),有效改善板栗栗蓬的識別檢測性能,通過加入CBAM注意力機(jī)制,也可改善板栗栗蓬的識別檢測性能。改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)YOLOvc對栗蓬檢測查準(zhǔn)率和平均精度比YOLOv3高出2.21個(gè)百分點(diǎn)和2.16個(gè)百分點(diǎn)。通過數(shù)據(jù)對比可以得出,通過增加焦點(diǎn)損失函數(shù)和注意力機(jī)制改進(jìn)YOLOv3神經(jīng)網(wǎng)絡(luò)提升了對板栗栗蓬果實(shí)信息挖掘能力,進(jìn)一步提高栗蓬果實(shí)特征提取能力。綜合比較這些評估指標(biāo),改進(jìn)的YOLOv3模型對栗蓬檢測具有更好性能。
2.2 影響精度的因素分析
通過YOLOvc神經(jīng)網(wǎng)絡(luò)模型對栗蓬檢測識別結(jié)果分析,對于在不強(qiáng)也不弱光線下的圖像,YOLOvc能夠全部正確地檢測到栗蓬目標(biāo),如圖4(a)所示。盡管添加注意力機(jī)制,小目標(biāo)栗蓬識別還比較困難,對于密集分布栗蓬圖像,其栗蓬目標(biāo)往往比較小,栗蓬顏色與樹葉顏色一致,難以檢測識別,在識別栗蓬密集小目標(biāo)果實(shí)圖像時(shí),存在個(gè)別漏檢情況,如圖4(b)所示。對于光照條件不好的情況,如逆光拍攝圖像,往往栗蓬目標(biāo)模糊,難以識別,如圖4(c)所示,這幅圖像中肉眼也難以檢測栗蓬目標(biāo),所以YOLOvc也未能檢測到栗蓬目標(biāo)。由于增加焦點(diǎn)損失函數(shù),YOLOvc對板栗樹葉遮擋栗蓬不敏感,通過比照分析,對于樹葉遮擋栗蓬面積不超過80%的遮擋栗蓬目標(biāo)都能正確地識別。圖像分辨率也影響栗蓬檢測,分辨率高的栗蓬目標(biāo)清晰,分辨率低的栗蓬目標(biāo)特征不明顯,容易產(chǎn)生漏檢。
3 結(jié)論
1) 無人機(jī)板栗采摘靈活性高、適應(yīng)性強(qiáng)和效率高,是解決山區(qū)板栗收獲難題的良好途徑。無人機(jī)板栗采摘關(guān)鍵點(diǎn)是利用視覺檢測識別板栗樹上栗蓬。在研究中通過增加焦點(diǎn)損失函數(shù)和添加注意力機(jī)制改進(jìn)YOLOv3,改進(jìn)算法自動識別板栗栗蓬的平均精度、查準(zhǔn)率分別達(dá)到89.37% 和89.35%,與YOLOv3相比分別提高2.21%和2.16%,說明改進(jìn)YOLOv3網(wǎng)絡(luò)模型用于樹上栗蓬目標(biāo)識別是可行的。
2) 針對板栗栗蓬無人機(jī)采摘視覺目標(biāo)檢測識別問題,改進(jìn)YOLOv3模型算法降低其特征冗余度,滿足識別程序?qū)τ布O(shè)備的要求,模型檢測速度快,檢測單幅板栗圖像的耗時(shí)僅為123 ms,對樹上栗蓬識別效率和實(shí)時(shí)性高,完全能夠滿足無人機(jī)采摘板栗的需要,模型體積小,具備更好的移植潛力。
在今后研究中需要將改進(jìn)的網(wǎng)絡(luò)模型YOLOvc部署到無人機(jī)設(shè)備,從而完成板栗采摘場景下的板栗樹上栗蓬檢測,且需要進(jìn)一步研究栗蓬相對無人機(jī)的位置,為無人機(jī)機(jī)械手采摘提供三維坐標(biāo)。
參 考 文 獻(xiàn)
[ 1 ] 宗望遠(yuǎn), 黃木昌, 肖洋軼, 等. 板栗收獲拍打式落果裝置設(shè)計(jì)與試驗(yàn)[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2022, 37(18): 1-10.
Zong Wangyuan, Huang Muchang, Xiao Yangyi, et al. Design and experiment of the fruit?beating dropping device for chestnut harvesters [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022, 37(18): 1-10.
[ 2 ] Yaniv M. System and method for mapping and building database for harvesting?dilution tasks using aerial drones [P]. EP Patent: 3500877B1, 2021-09-29.
[ 3 ] 張?zhí)姨? 基于可拓設(shè)計(jì)的無人機(jī)水果采摘的結(jié)構(gòu)設(shè)計(jì)[D]. 廣州: 廣東工業(yè)大學(xué), 2016.
Zhang Taotao. The design of the structure about UAV fruit picker based on the extension design [D]. Guangzhou: Guangdong University of Technology, 2016.
[ 4 ] 雒鷹, 程鴻遠(yuǎn), 孟黎鵬, 等. 利用無人機(jī)采摘紅松球果初探[J]. 林業(yè)機(jī)械與木工設(shè)備, 2022, 50(1): 64-66.
Luo Ying, Cheng Hongyuan, Meng Lipeng, et al. Preliminary study on picking pinus koraiensis cones using unmanned aerial vehicles [J]. Forestry Machinery and Wood Working Equipment, 2022, 50(1): 64-66.
[ 5 ] 劉小剛, 范誠, 李加念, 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的草莓識別方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2020, 51(2): 237-244.
Liu Xiaogang, Fan Cheng, Li Jianian, et al. Identification method of strawberry based on convolutional neural network [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(2): 237-244.
[ 6 ] 宋懷波, 王亞男, 王云飛, 等. 基于YOLOv5s的自然場景油茶果識別方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2022, 53(7): 234-242.
Song Huaibo, Wang Yanan, Wang Yunfei, et al. Camellia fruit detection in natural scene based on YOLOv5s [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(7): 234-242.
[ 7 ] 宋懷波, 馬寶玲, 尚鈺瑩, 等. 基于YOLOv7 ECA模型的蘋果幼果檢測[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2023, 54(6): 233-242.
Song Huaibo, Ma Baoling, Shang Yuying, et al. Detection of young apple fruits based on YOLOv7 ECA model [J]. Transactions of the Chinese Society for Agricultural Machinery, 2023, 54(6): 233-242.
[ 8 ] 陳仁凡, 謝知, 林晨. 基于YOLO-ODM的溫室草莓成熟度的快速檢測[J]. 華中農(nóng)業(yè)大學(xué)學(xué)報(bào), 2023, 42(4): 262-269.
Chen Renfan, Xie Zhi, Lin Chen. YOLO-ODM based rapid detection of strawberry [J]. Journal of Huazhong Agricultural University, 2023, 42(4): 262-269.
[ 9 ] 劉莫塵, 褚鎮(zhèn)源, 崔明詩, 等. 基于改進(jìn)YOLO v8-Pose的紅熟期草莓識別和果柄關(guān)鍵點(diǎn)檢測[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2023(S2): 244-251.
Liu Mochen, Chu Zhenyuan, Cui Mingshi, et al. Red ripe strawberry recognition and stem key point detection based on improved YOLO v8-Pose [J]. Transactions of the Chinese Society for Agricultural Machinery, 2023(S2): 244-251.
[10] 張伏, 陳自均, 鮑若飛, 等. 基于改進(jìn)型YOLOv4-LITE輕量級神經(jīng)網(wǎng)絡(luò)的密集圣女果識別[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2021, 37(16): 270-278.
Zhang Fu, Chen Zijun, Bao Ruofei, et al. Recognition of dense cherry tomatoes based on improved YOLOv4-LITE lightweight neural network [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(16): 270-278.
[11] 李天華, 孫萌, 丁小明, 等. 基于YOLO v4+HSV的成熟期番茄識別方法[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2021, 37(21): 183-190.
Li Tianhua, Sun Meng, Ding Xiaoming, et al. Tomato recognition method at the ripening stage based on YOLO v4 and HSV [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(21): 183-190.
[12] 黃麗明, 王懿祥, 徐琪, 等. 采用YOLO算法和無人機(jī)影像的松材線蟲病異常變色木識別[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2021, 37(14): 197-203.
Huang Liming, Wang Yixiang, Xu Qi, et al. Recognition of abnormally discolored trees caused by pine wilt disease using YOLO algorithm and UAV images [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(14): 197-203.
[13] 鮑文霞, 謝文杰, 胡根生, 等. 基于TPH-YOLO的無人機(jī)圖像麥穗計(jì)數(shù)方法[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2023, 39(1): 155-161.
Bao Wenxia, Xie Wenjie, Hu Gensheng, et al. Wheat ear counting method in UAV images based on TPH-YOLO [J]. Transactions of the Chinese Society of Agricultural Engineering, 2023, 39(1): 155-161.
[14] 汪斌斌, 楊貴軍, 楊浩, 等. 基于YOLO_X和遷移學(xué)習(xí)的無人機(jī)影像玉米雄穗檢測[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2022, 38(15): 53-62.
Wang Binbin, Yang Guijun, Yang Hao, et al. UAV images for detecting maize tassel based on YOLO_X and transfer learning [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022, 38(15): 53-62.
[15] 李志臣, 凌秀軍, 李鴻秋, 等. 基于改進(jìn)ShuffleNet的板栗分級方法[J]. 山東農(nóng)業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版), 2023, 54(2): 299-307.
Li Zhichen, Ling Xiujun, Li Hongqiu, et al. Chestnut grading method based on improved shuffleNet [J]. Journal of Shandong Agricultural University (Natural Science Edition), 2023, 54(2): 299-307.
[16] 黃鍵, 徐偉峰, 蘇攀, 等. 基于YOLOX-S的車窗狀態(tài)識別算法[J]. 吉林大學(xué)學(xué)報(bào)(理學(xué)版), 2023, 61(4): 875-882.
Huang Jian, Xu Weifeng, Su Pan, et al. Car window state recognition algorithm based on YOLOX-S [J]. Journal of Jilin University(Science Edition), 2023, 61(4): 875-882.
[17] 龍燕, 李南南, 高研, 等. 基于改進(jìn)FCOS網(wǎng)絡(luò)的自然環(huán)境下蘋果檢測[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2021, 37(12): 307-313.
Long Yan, Li Nannan, Gao Yan, et al. Apple fruit detection under natural condition using improved FCOS network [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(12): 307-313.
[18] 馬馳, 吳華瑞, 于會山. 基于YOLOX的穴盤甘藍(lán)病害檢測方法[J]. 江蘇農(nóng)業(yè)科學(xué), 2023, 51(8): 193-202.
[19] 陳思卓, 趙萌, 石凡, 等. 過參數(shù)卷積與CBAM融合的胸腔積液腫瘤細(xì)胞團(tuán)塊分割網(wǎng)絡(luò)[J]. 中國圖象圖形學(xué)報(bào), 2023, 28(10): 3243-3254.
Chen Sizhuo, Zhao Meng, Shi Fan, et al. Over?parametric convolution and attention mechanism fused pleural effusion tumor cell clump segmentation network [J]. Journal of Image and Graphics, 2023, 28(10): 3243-3254.
[20] 任治洲, 梁琨, 王澤宇, 等. 結(jié)合改進(jìn)CBAM和MobileNet V2算法對小麥病斑粒分類[J]. 南京農(nóng)業(yè)大學(xué)學(xué)報(bào), 2024, 47(3): 583-591.
Ren Zhizhou, Liang Kun, Wang Zeyu, et al. Combining improved CBAM and MobileNet V2 algorithms for classifying diseased wheat kernels [J]. Journal of Nanjing Agricultural University, 2024, 47(3): 583-591.
中國農(nóng)機(jī)化學(xué)報(bào)2024年11期