龔惟新,楊 珍,李 凱,郝 偉,何 智,丁辛亭,崔永杰
基于改進(jìn)YOLOv5s的自然環(huán)境下獼猴桃花朵檢測方法
龔惟新,楊 珍,李 凱,郝 偉,何 智,丁辛亭,崔永杰※
(1. 西北農(nóng)林科技大學(xué)機(jī)械與電子工程學(xué)院,楊凌 712100;2. 農(nóng)業(yè)農(nóng)村部農(nóng)業(yè)物聯(lián)網(wǎng)重點(diǎn)實(shí)驗(yàn)室,楊凌 712100;3.陜西省農(nóng)業(yè)信息感知與智能服務(wù)重點(diǎn)實(shí)驗(yàn)室,楊凌 712100)
為實(shí)現(xiàn)對(duì)獼猴桃花朵的快速準(zhǔn)確檢測,該研究提出了一種基于改進(jìn)YOLOv5s的獼猴桃花朵檢測模型YOLOv5s_S_N_CB_CA,并通過對(duì)比試驗(yàn)進(jìn)行了精度驗(yàn)證。在YOLOv5s基礎(chǔ)上引入C3HB模塊和交叉注意力(criss-cross attention,CCA)模塊增強(qiáng)特征提取能力,結(jié)合樣本切分和加入負(fù)樣本處理方法進(jìn)一步提升模型精度。改進(jìn)模型的檢測精確率為85.21%,召回率為90%,模型大小為14.6 MB,交并比(intersection over union,IoU)為0.5下的均值平均精度(mAP0.5)為92.45%,比僅進(jìn)行樣本縮放處理的原始YOLOv5s提高了31.91個(gè)百分點(diǎn),檢測速度為35.47 幀/s,比原始YOLOv5s提高了34.15%。使用改進(jìn)模型對(duì)自然環(huán)境下不同天氣、晴天不同時(shí)段光照強(qiáng)度下的獼猴桃花朵進(jìn)行檢測,結(jié)果表明模型檢測晴天、陰天下獼猴桃花朵的mAP0.5分別為91.96%、91.15%,比原始YOLOv5s分別高出2.55、2.25個(gè)百分點(diǎn);檢測晴天9:00-11:00、15:00-17:00光強(qiáng)下獼猴桃花朵的mAP0.5分別為92.11%、92.10%,比原始YOLOv5s分別高出2.20、1.32個(gè)百分點(diǎn)。結(jié)果表明,該研究提出的基于改進(jìn)YOLOv5s的獼猴桃花朵檢測模型在保持輕量化的同時(shí),檢測精度高、速度快,可實(shí)現(xiàn)對(duì)自然環(huán)境下獼猴桃花朵的有效檢測。
圖像處理;模型;目標(biāo)檢測;獼猴桃花朵;改進(jìn)YOLOv5s;自然環(huán)境
授粉對(duì)于提高獼猴桃果實(shí)產(chǎn)量,增強(qiáng)果實(shí)品質(zhì)至關(guān)重要。對(duì)于獼猴桃果樹等無法自花授粉的雌雄異株植物,常借助風(fēng)媒、蟲媒及人工輔助授粉等傳統(tǒng)授粉方式進(jìn)行授粉,從而確保獼猴桃的優(yōu)質(zhì)高產(chǎn)[1-2]。但傳統(tǒng)授粉方式存在一定缺陷,例如:蟲媒受天氣影響較大,遇風(fēng)雨天氣會(huì)導(dǎo)致昆蟲無法正常授粉[3],且因環(huán)境污染導(dǎo)致授粉昆蟲數(shù)量減少的情況也時(shí)有發(fā)生[4-5];人工輔助授粉中的花對(duì)花授粉、毛筆點(diǎn)授、簡易授粉器授粉和電動(dòng)授粉槍授粉等方式,對(duì)授粉精度、花粉用量均有較高要求,且勞動(dòng)強(qiáng)度大,耗時(shí)費(fèi)力[6]。因此,為解決上述問題,保證獼猴桃花朵授粉率和獼猴桃掛果率[7-8],很多專家學(xué)者提出利用自動(dòng)化授粉的作業(yè)方式,引入農(nóng)業(yè)機(jī)器人技術(shù),對(duì)獼猴桃開展有關(guān)自動(dòng)化授粉智能裝備方面的研究。
對(duì)于獼猴桃自動(dòng)化授粉裝備而言,最重要是實(shí)現(xiàn)對(duì)獼猴桃花朵目標(biāo)的精準(zhǔn)檢測,為后續(xù)授粉機(jī)械的作業(yè)路徑規(guī)劃、末端執(zhí)行器的精準(zhǔn)對(duì)靶授粉提供有利保障[9-10]。隨著卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)的出現(xiàn),深度學(xué)習(xí)技術(shù)以其優(yōu)良的特征提取能力及泛化能力逐漸運(yùn)用于果蔬花朵及花卉的識(shí)別上[11]?;谏疃葘W(xué)習(xí)的目標(biāo)檢測算法可分為基于區(qū)域提取的雙階段(two-stage)框架和基于回歸的單階段(one-stage)框架,其中雙階段框架在處理過程中先確定出樣本的候選框,接著對(duì)樣本通過CNN網(wǎng)絡(luò)分類[12],檢測精度較高,但實(shí)時(shí)性較差,其代表性算法包括R-CNN、Faster R-CNN等;單階段框架在處理時(shí)不產(chǎn)生候選框,直接在一定的回歸分析基礎(chǔ)上實(shí)現(xiàn)目標(biāo)檢測,檢測速度較快,其代表性算法包括YOLO、SSD等。
在果蔬花朵及花卉檢測領(lǐng)域,許多專家學(xué)者針對(duì)兩類目標(biāo)檢測算法開展了相關(guān)研究。在針對(duì)基于區(qū)域提取的目標(biāo)檢測算法研究中,F(xiàn)ARJON等[13]提出了一種基于Faster-RCNN網(wǎng)絡(luò)進(jìn)行蘋果花識(shí)別算法,并使用線性回歸方法進(jìn)行預(yù)測花朵密度計(jì)算,之后根據(jù)開花量衰減時(shí)間預(yù)估開花峰值期預(yù)估,用于輔助蘋果疏花決策。劉浩洲等[14]提出一種基于-means聚類的獼猴桃花朵識(shí)別方法,通過-means 聚類分割,然后由經(jīng)過訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行分類選出花蕊圖像,完成獼猴桃花朵識(shí)別,識(shí)別成功率為92.5%。林君宇等[15]針對(duì)10種常見觀賞花卉,提供一個(gè)包含4種花卉的共16種葉部病癥的圖像數(shù)據(jù)集,設(shè)計(jì)并實(shí)現(xiàn)基于卷積神經(jīng)網(wǎng)絡(luò)的分類模型,集成為花卉分類-病癥識(shí)別一體化工具,該工具可實(shí)現(xiàn)95.3%的花卉分類準(zhǔn)確率和88.2%的疾病識(shí)別準(zhǔn)確率。WILLIAMS等[16]設(shè)計(jì)了一種獼猴桃授粉機(jī)器人,應(yīng)用全卷積神經(jīng)網(wǎng)絡(luò)機(jī)器視覺系統(tǒng)對(duì)獼猴桃花朵進(jìn)行識(shí)別,識(shí)別準(zhǔn)確率達(dá)到90%以上,授粉率為79.5%,相較人工授粉效率仍存在一定差距。此類基于區(qū)域提取的雙階段目標(biāo)檢測算法具有較高的檢測精度,但難以進(jìn)行實(shí)時(shí)性檢測,無法滿足農(nóng)業(yè)智能裝備實(shí)時(shí)性、高效性的作業(yè)要求。
在針對(duì)基于回歸的目標(biāo)檢測算法研究中,XIA等[17]提出了一種基于TensorFlow平臺(tái)的Inception-v3模型,利用遷移學(xué)習(xí)技術(shù)在ImageNet中的花卉數(shù)據(jù)集中構(gòu)建了花卉識(shí)別模型,該模型在Oxford17 和Oxford102花朵數(shù)據(jù)集上的分類準(zhǔn)確率分別為95%和94%。SUN等[18]提出了一種基于DeepLab-ResNet語義分割網(wǎng)絡(luò)的蘋果花、桃花和梨花檢測方法,該方法將語義分割技術(shù)與水平集實(shí)現(xiàn)的形狀約束活動(dòng)輪廓相結(jié)合,在桃花、梨花和蘋果花朵數(shù)據(jù)集上的平均F1分?jǐn)?shù)為80.9%。此類基于回歸的雙階段目標(biāo)檢測算法在保持較高檢測精度的同時(shí),具有較高的檢測速度,可實(shí)現(xiàn)實(shí)時(shí)檢測,能夠滿足農(nóng)業(yè)智能裝備的高效作業(yè)要求。
目前,基于深度學(xué)習(xí)的果蔬花朵及花卉檢測,多針對(duì)生長分布較為稀疏、規(guī)整且背景簡單的常見水果花朵和觀賞花卉,如蘋果花[19]、向日葵[15]等。自然環(huán)境中的獼猴桃花朵呈簇狀密集生長分布,花朵間緊密粘連,存在相互重疊或遮擋;獼猴桃所處生長環(huán)境露天無遮蔽,其棚架栽培的管種模式使得部分花朵易受枝葉遮擋及不穩(wěn)定光照影響,這些干擾因素均為獼猴桃花朵的檢測帶來了一定的難度和挑戰(zhàn)。
因此,針對(duì)自然環(huán)境下存在復(fù)雜背景的獼猴桃花朵,本研究提出一種基于改進(jìn)YOLOv5s的獼猴桃花朵檢測方法,通過改進(jìn)YOLOv5s的骨干網(wǎng)絡(luò)和預(yù)測層結(jié)構(gòu),結(jié)合一定的樣本處理方法,從而實(shí)現(xiàn)對(duì)自然環(huán)境下獼猴桃花朵的準(zhǔn)確快速檢測。本研究可為獼猴桃自動(dòng)化授粉裝備信息感知系統(tǒng)的搭建提供理論依據(jù)和技術(shù)支撐。
本文主要研究對(duì)象是“海沃德”品種的獼猴桃花朵,所采集花朵圖像來自陜西省眉縣西北農(nóng)林科技大學(xué)獼猴桃試驗(yàn)站(4°7'39″N,107°59'50″E,海拔約648 m)。圖像采集設(shè)備為索尼(SONY)Alpha7Ⅱ(a7M2K)全畫幅微單數(shù)碼相機(jī),焦距、曝光和拍攝模式均為自動(dòng),圖像分辨率為6 000×4 000像素,拍攝時(shí)間為 2022年5月3日至5月11日,時(shí)段為09:00-17:00。拍攝形式為定點(diǎn)拍攝,模擬授粉機(jī)械的作業(yè)方式,通過三腳架固定設(shè)備位置,沿豎直方向自下而上以仰視視角進(jìn)行拍攝,圖像設(shè)備距離地面(0.9±0.1)m。
在圖像采集過程中,針對(duì)不同天氣(晴天和陰天)、晴天不同時(shí)段光照強(qiáng)度(早晨09:00-11:00和下午15:00-17:00)下的獼猴桃花朵進(jìn)行圖像采集,同時(shí)考慮花葉間遮擋情況,采集了無遮擋、花朵間相互遮擋和枝葉遮擋3種情況下的花朵圖像(圖1),確保所構(gòu)建試驗(yàn)樣本數(shù)據(jù)庫的全面性。所采集試驗(yàn)樣本圖像共1 032幅,如表1所示。
圖1 3種不同遮擋情況
表1 采集圖像詳細(xì)信息
為提升網(wǎng)絡(luò)泛化能力,從采集的1 032幅獼猴桃花朵樣本圖像中選取部分圖像,通過Comic Enhancer Pro軟件亮度增強(qiáng)20%和40%各282幅,亮度減弱20%和40%各282幅,對(duì)比度增強(qiáng)20%和40%各282幅、對(duì)比度減弱20%和40%各282幅,僅銳化1級(jí)、銳化3級(jí)、銳化4級(jí)各280幅。增強(qiáng)后的圖像數(shù)量達(dá)到3 096幅。圖像增強(qiáng)處理后得到的圖像加上原始圖像共4 128幅。
使用LabelImg工具對(duì)構(gòu)建的數(shù)據(jù)集進(jìn)行手動(dòng)標(biāo)注,對(duì)目標(biāo)以最小外接矩形框進(jìn)行標(biāo)注。本研究將標(biāo)注目標(biāo)即待檢獼猴桃花朵分為3類,包括獼猴桃花苞(bud)、獼猴桃花(flower)以及已自然授粉的獼猴桃花朵(pollinated),如圖2所示。隨后將4 128幅圖像按照7∶2∶1的比例分為訓(xùn)練集(2 889幅)、驗(yàn)證集(826幅)和測試集(413幅)進(jìn)行模型訓(xùn)練和試驗(yàn)。
圖2 標(biāo)注目標(biāo)類別
YOLOv5網(wǎng)絡(luò)因其體積小,計(jì)算速度快的優(yōu)點(diǎn),被廣泛應(yīng)用于各種目標(biāo)檢測場景下,其根據(jù)網(wǎng)絡(luò)深度差異可分為YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x。為滿足本研究的輕量化需求,選用復(fù)雜度較低的YOLOv5s檢測模型,能夠在確保較高檢測精度的前提下,保持較小的儲(chǔ)存占用和較快的識(shí)別速度[20],有利于在移動(dòng)設(shè)備上的搭載和實(shí)現(xiàn)[21-22]。
YOLOv5s主要結(jié)構(gòu)包括輸入端、骨干網(wǎng)絡(luò)(backbone)、頸部網(wǎng)絡(luò)(neck)和預(yù)測層(prediction)4個(gè)部分[23]。其輸入端用于對(duì)圖像進(jìn)行數(shù)據(jù)增強(qiáng),并對(duì)圖像處理策略和錨框生成機(jī)制進(jìn)行優(yōu)化。backbone用于提取圖像中的特征圖,沿用CSPDarknet53結(jié)構(gòu),應(yīng)用跨階段連接方式融合特征,可以有效緩解梯度消失的問題,并減少網(wǎng)絡(luò)參數(shù)的數(shù)量[24-26]。neck部分使用特征金字塔網(wǎng)絡(luò)(feature pyramid networks,F(xiàn)PN)結(jié)構(gòu)和路徑聚合網(wǎng)絡(luò)(path aggregation network,PAN)結(jié)構(gòu)增強(qiáng)特征,從而有效豐富特征信息,進(jìn)而提高預(yù)測準(zhǔn)確性。prediction部分應(yīng)用網(wǎng)絡(luò)提取的特征,對(duì)預(yù)測目標(biāo)的類別概率和位置信息進(jìn)行推理,獲得網(wǎng)絡(luò)輸出信息。
本研究針對(duì)自然環(huán)境下的獼猴桃花朵目標(biāo)檢測,在YOLOv5s的基礎(chǔ)上,提出一種改進(jìn)的YOLOv5s網(wǎng)絡(luò)模型。由于獼猴桃花朵生長密集,花朵間存在相互重疊或遮擋,且受露天棚架模式下的光照影響,花朵特征在圖像中可能存在表征不清晰的情況,因此需要通過改進(jìn)網(wǎng)絡(luò)模型,增強(qiáng)對(duì)花朵粘連、遮擋及不同光照等情況下的特征提取能力,提高檢測精度?;谝陨峡紤],對(duì)模型的主要改進(jìn)點(diǎn)包括:在主干網(wǎng)絡(luò)中引入C3HB模塊[27],用以增強(qiáng)特征提取能力;在預(yù)測層中引入交叉注意力(criss-cross attention,CCA)模塊[28],達(dá)到進(jìn)一步提升檢測精度的目的。改進(jìn)后的YOLOv5s網(wǎng)絡(luò)模型有望在保持輕量化和較快檢測速度的前提下,進(jìn)一步提升在自然環(huán)境下對(duì)獼猴桃花朵的識(shí)別精度。改進(jìn)后的YOLOv5s結(jié)構(gòu)如圖3所示。
注:CBS為Conv+BN+SiLU,Conv為卷積操作,BN為歸一化操作,SiLU為Sigmoid加權(quán)線性組合激活函數(shù),SPPF為快速空間金字塔池化結(jié)構(gòu),Upsampling為上采樣操作,Concat為特征融合函數(shù),Maxpool為最大池化操作。
1.2.1 C3HB模塊
C3HB模塊主要由CBS模塊、Horblock模塊和Concat操作組成(圖4a)。Horblock模塊來源于HorNet[29],其結(jié)合了ViT(vision transformer)和CNN的優(yōu)點(diǎn)提出遞歸門控卷積(recursive gated convolutions),通過遞歸設(shè)計(jì),執(zhí)行高效、可擴(kuò)展和平移的高階空間信息交互。圖4b、4c展示了Horblock模塊及遞歸門控卷積(gConv)的結(jié)構(gòu),遞歸門控卷積由標(biāo)準(zhǔn)卷積、逐元素乘法和線性投影層組成,具有類似于自注意力的自適應(yīng)混合功能。
C3HB模塊的運(yùn)行流程如下:
1)輸入的初始特征信息會(huì)分配到2條分支中;
2)將輸入特征信息的通道數(shù)減半,一部分特征信息通過分支1的CBS模塊進(jìn)行特征提取,另一部分通過分支2的Horblock模塊和CBS模塊進(jìn)行特征提?。?/p>
3)2條分支輸出的特征信息使用Concat操作深度連接;
4)最后通過一個(gè)CBS模塊進(jìn)行特征增強(qiáng),使得輸出C3HB模塊的特征信息大小與輸入C3HB模塊的大小相同。
相較于原始YOLOv5模型,引入C3HB模塊增強(qiáng)了網(wǎng)絡(luò)學(xué)習(xí)能力,以輕量級(jí)的方式減少了計(jì)算瓶頸和內(nèi)存成本。改進(jìn)后的模型增強(qiáng)了提取圖像中花朵細(xì)節(jié)的能力,通過學(xué)習(xí)更準(zhǔn)確的花朵特征,以期實(shí)現(xiàn)對(duì)圖像中粘連、重疊的獼猴桃花朵有效檢測。
注:n為某一特征和其周邊特征相互作用的階數(shù);C為每一階的通道維度數(shù)。
1.2.2 CCA模塊
棚架栽培模式下生長的獼猴桃花朵露天無遮蔽,圖像背景中包含光線直射、陰影、枝葉、天空等復(fù)雜背景,影響模型對(duì)花朵的檢測精度。為進(jìn)一步提升模型提取復(fù)雜背景下花朵特征的能力,本研究在YOLOv5s的預(yù)測層引入交叉注意力模塊對(duì)模型進(jìn)行改進(jìn),以期進(jìn)一步適應(yīng)自然環(huán)境下對(duì)獼猴桃花朵的快速檢測。
交叉注意力(CCA)模塊用于獲取全局上下文信息。該模塊可以捕獲每個(gè)像素在水平和垂直方向上的上下文信息,基于非局部注意力模塊,利用兩次注意力加權(quán),并用多個(gè)稀疏注意力圖代替單個(gè)密集注意力圖,節(jié)省計(jì)算資源的消耗[30]。CCA模塊結(jié)構(gòu)如圖5所示。
注:H為局部特征圖;Q、K、V分別為H經(jīng)降維后生成的特征圖;A為Q和K經(jīng)Affinity和Softmax運(yùn)算后生成的注意力圖;為H經(jīng)CCA運(yùn)算后生成的新特征圖。
其處理流程如下[28]:
1)將局部特征圖輸入交叉注意力模塊,該模塊首先應(yīng)用2個(gè)1×1的卷積層進(jìn)行降維,生成2個(gè)特征圖和;
2)通過Affinity和Softmax運(yùn)算進(jìn)一步生成注意力圖;
Affinity運(yùn)算式如下:
3)將輸入第三個(gè)1×1的卷積層中進(jìn)行降維,生成特征圖,將其與2)中生成的注意力圖進(jìn)行Aggregation運(yùn)算;
Aggregation運(yùn)算式如下:
本文使用Pycharm對(duì)YOLOv5s網(wǎng)絡(luò)模型進(jìn)行構(gòu)建與改進(jìn),試驗(yàn)與訓(xùn)練所用操作系統(tǒng)為Windows10,處理器為Intel Xeon E5-1650 v4,3.6 GMz,內(nèi)存32 G,顯卡為Nvidia GeForce RTX 3060Ti,顯存8 G,編程語言為Python3.7。
本文采用5個(gè)指標(biāo)用于評(píng)價(jià)獼猴桃花朵檢測模型,分別為精確率(precision,)、召回率(recall,)、均值平均精度(mean average precision,mAP)、模型大小和檢測速度,并采用交并比(intersection over union,IoU)用于準(zhǔn)確度的評(píng)價(jià)。、、mAP和IoU的具體計(jì)算方法可見參考文獻(xiàn)[31-33]。
改進(jìn)獼猴桃花朵檢測模型共訓(xùn)練300輪次,訓(xùn)練初期模型值、值、mAP0.5(IoU=0.5)值增長較快,此時(shí)模型學(xué)習(xí)效率高、損失值快速收斂;迭代至250次左右時(shí),、、mAP0.5趨于穩(wěn)定,損失值收斂至0.024左右;300次迭代后,模型的值為83.42%,值為90%,mAP0.5為92.39%。圖6為模型訓(xùn)練中值、值、mAP0.5值變化趨勢圖。
圖6 模型訓(xùn)練中P、R、mAP0.5變化趨勢
為了評(píng)價(jià)本文提出的YOLOv5s改進(jìn)方法對(duì)獼猴桃花朵檢測的有效性,在其余結(jié)構(gòu)保持不變的條件下對(duì)YOLOv5s原始模型進(jìn)行不同改進(jìn)(表2),并對(duì)訓(xùn)練集樣本進(jìn)行不同處理,之后進(jìn)行訓(xùn)練,訓(xùn)練輪次為300,得到包括本文提出的改進(jìn)模型在內(nèi)的5種YOLOv5s改進(jìn)模型。再利用測試集對(duì)上述5個(gè)模型的mAP0.5(IoU= 0.5)值和mAP0.5~0.95(IoU= 0.5~0.95)值進(jìn)行評(píng)估。5種模型的性能對(duì)比如表2所示。
表2 5種改進(jìn)方法和樣本處理方法的模型性能對(duì)比
注:Z(Zoom)表示加入樣本縮放處理,S(Segmentation)表示加入樣本切分處理,N(Negative Sample)表示加入負(fù)樣本,CB表示引入C3HB模塊,CA表示引入CCA模塊,F(xiàn)(Focal loss)表示引入焦點(diǎn)損失函數(shù)。
Note: Z (Zoom) indicates the addition of sample scaling, S (Segmentation) indicates the addition of sample slicing, N (Negative Sample) indicates the addition of negative sample, CB indicates the addition of C3HB module, CA indicates the addition of CCA module, and F (Focal loss) indicates the addition of focal loss function.
分析表2可知:改進(jìn)模型YOLOv5s_S_N_CB_CA檢測獼猴桃花朵測試集的mAP0.5值和mAP0.5~0.95值分別為92.45%和75.14%,比其余改進(jìn)模型YOLOv5s_Z1、YOLOv5s_Z2、YOLOv5s_S_N和YOLOv5s_S_N_CB_ CA_F的mAP0.5分別高出31.91、38.32、2.55、1.08個(gè)百分點(diǎn),mAP0.5~0.95分別高出34.38、42.93、1.92、1.37個(gè)百分點(diǎn)。
結(jié)果表明,在對(duì)訓(xùn)練集樣本進(jìn)行切分處理,并加入負(fù)樣本后,可使改進(jìn)模型檢測獼猴桃花朵時(shí)的mAP0.5和mAP0.5~0.95具有較大提升;當(dāng)繼續(xù)引入C3HB模塊和CCA模塊后,引入后的改進(jìn)模型檢測精度有了進(jìn)一步提升;在前述改進(jìn)的基礎(chǔ)上繼續(xù)引入焦點(diǎn)損失函數(shù),則引入后的模型檢測精度會(huì)出現(xiàn)小幅下降。
分析出現(xiàn)以上結(jié)果的原因如下:
1)對(duì)原始樣本圖像進(jìn)行切分處理,可以提高需檢測的獼猴桃花朵像素在切分后圖像像素中的占比,相較于縮放處理能夠避免圖像信息損失;加入負(fù)樣本訓(xùn)練進(jìn)一步增強(qiáng)了模型的學(xué)習(xí)能力,提高檢測精度。
2)在原始YOLOv5模型中引入C3HB模塊和CCA模塊后,模型特征提取能力增強(qiáng),檢測精度進(jìn)一步提升。
3)模型中引入Focal loss能夠均衡模型對(duì)數(shù)量不同的樣本的學(xué)習(xí)能力,但其易受噪聲影響,對(duì)標(biāo)注精度要求高,若樣本中出現(xiàn)離群點(diǎn)(outliers)則會(huì)導(dǎo)致過擬合,使得檢測精度下降。
由此表明,本文提出的YOLOv5s_S_N_CB_CA模型,其改進(jìn)方法對(duì)獼猴桃花朵具有較好的檢測精度,相較于其他改進(jìn)模型具有一定優(yōu)勢,表明了本研究所提模型改進(jìn)方法的有效性。
為了評(píng)價(jià)本文提出的YOLOv5s_S_N_CB_CA模型對(duì)獼猴桃花朵的檢測效果,選用原始YOLOv5s、YOLOv4[34]和SSD[35]與YOLOv5s_S_N_CB_CA進(jìn)行性能對(duì)比,利用2.1節(jié)中樣本切分為640×640(像素)并加入負(fù)樣本的訓(xùn)練集,分別對(duì)原始YOLOv5s模型、YOLOv4模型和SSD模型進(jìn)行訓(xùn)練,訓(xùn)練輪次為300,之后利用測試集對(duì)上述4種已訓(xùn)練完畢的檢測模型開展性能測試評(píng)估,4種檢測模型的性能比較如表3所示。
表3 4種目標(biāo)檢測模型性能對(duì)比
分析表3測試結(jié)果可以得出:本文提出的改進(jìn)模型YOLOv5s_S_N_CB_CA檢測獼猴桃花朵的精確率雖比YOLOv4和SSD分別低0.90和0.72個(gè)百分點(diǎn),比YOLOv5s高2.36個(gè)百分點(diǎn),但其值分別比YOLOv4和SSD高7.00和12.00個(gè)百分點(diǎn),比YOLOv5s高2.00個(gè)百分點(diǎn),mAP0.5分別比YOLOv5s、YOLOv4和SSD高2.55、9.95和13.64個(gè)百分點(diǎn),其模型大小比YOLOv5s大5.80%,但分別比YOLOv4和SSD小93.37%和83.39%,檢測速度分別比YOLOv5s、YOLOv4和SSD快34.15%、144.62%和20.03%。
分析出現(xiàn)以上結(jié)果的原因如下:
1)本文模型在YOLOv5s基礎(chǔ)上引入了C3HB模塊和CCA模塊,增加了模型復(fù)雜程度,使得模型大小相較于YOLOv5s小幅增加,但檢測精確率、召回率、mAP0.5和檢測速度均有所提升。
2)本文模型基于YOLOv5s,相較于YOLOv4,其在Backbone和Neck加入了改進(jìn)CSP結(jié)構(gòu),同時(shí)減少數(shù)據(jù)增強(qiáng)方式,并加入了自適應(yīng)錨框等改進(jìn)策略[34],使得其在不顯著降低檢測精確率的同時(shí),提升召回率、mAP0.5和檢測速度,并大幅降低了模型大小。
3)YOLO系列網(wǎng)絡(luò)模型與SSD網(wǎng)絡(luò)模型在結(jié)構(gòu)有上較大區(qū)別,其中YOLO的Backbone采用的Darknet53比SSD采用的VGG具有更強(qiáng)的特征提取能力。此外,SSD中加入了YOLO沒有的先驗(yàn)框[35]。在整體綜合性能上兩者較為接近,而加入本文所提改進(jìn)后使得改進(jìn)后的YOLOv5s在召回率、mAP0.5和檢測速度上均優(yōu)于SSD。
結(jié)果表明,本文提出的改進(jìn)模型YOLOv5s_S_N_CB_CA在綜合性能上相較于其他目標(biāo)檢測模型具有一定優(yōu)勢,能夠?qū)崿F(xiàn)獼猴桃花朵的準(zhǔn)確、快速檢測,且模型輕量,有利于遷移應(yīng)用,可為獼猴桃自動(dòng)化授粉裝備的發(fā)展提供一定的技術(shù)支持。
為了評(píng)價(jià)本文改進(jìn)模型YOLOv5s_S_N_CB_CA對(duì)不同天氣和不同時(shí)段光照強(qiáng)度的適應(yīng)性,使用測試集中按不同天氣情況和晴天不同時(shí)段分類的獼猴桃花朵圖像對(duì)YOLOv5s_S_N_CB_CA模型和原始YOLOv5s模型進(jìn)行測試,表4為不同天氣和晴天不同時(shí)段下兩種模型對(duì)獼猴桃花朵的檢測效果。
表4 不同天氣和晴天不同時(shí)段下2種目標(biāo)檢測模型性能對(duì)比
1)YOLOv5s_S_N_CB_CA對(duì)晴天、陰天下的獼猴桃花朵檢測效果如圖7a~7b所示。由表4可知,YOLOv5s_ S_N_CB_CA檢測晴天、陰天天氣下的獼猴桃花朵的值分別為85.17%、83.88%,分別比YOLOv5s高出2.51、2.49個(gè)百分點(diǎn);值分別為90%、89%,分別比YOLOv5s高出2.00、1.00個(gè)百分點(diǎn);mAP0.5值分別為91.96%、91.15%,分別比YOLOv5s高出2.55、2.25個(gè)百分點(diǎn)。結(jié)果表明,在晴天和陰天兩種天氣下,本文改進(jìn)模型YOLOv5s_S_N_CB_CA均可以識(shí)別出獼猴桃花朵,且精度較高。
2)YOLOv5s_S_N_CB_CA對(duì)晴天不同時(shí)段下的獼猴桃花朵檢測效果如圖7c~7d所示。由表4可知,YOLOv5s_S_N_CB_CA檢測晴天9:00-11:00和15:00-17:00時(shí)段下獼猴桃花朵的值分別為84.47%、84.79%,分別比YOLOv5s高出2.17、2.24個(gè)百分點(diǎn);值分別為89%、89%,分別比YOLOv5s高出1.00、2.00個(gè)百分點(diǎn);mAP0.5值分別為92.11%、91.10%,分別比YOLOv5s高出2.20、1.32個(gè)百分點(diǎn)。結(jié)果表明,對(duì)于晴天9:00-11:00和15:00-17:00兩種時(shí)段下的光照強(qiáng)度,本文改進(jìn)模型YOLOv5s_S_N_CB_CA均可以識(shí)別出獼猴桃花朵,且精度較高。
圖7 不同天氣、晴天不同時(shí)段的檢測效果圖
為評(píng)價(jià)本文改進(jìn)模型YOLOv5s_S_N_CB_CA檢測獼猴桃花朵的效果,將訓(xùn)練好的模型通過310幅測試集圖像進(jìn)行檢測精度驗(yàn)證。結(jié)果表明,YOLOv5s_S_N_CB_CA檢測獼猴桃花朵的值為85.21%,值為90%,mAP0.5值為92.45%,模型大小為14.6 MB,檢測速度為35.47幀/s。
檢測實(shí)例如圖8a~8c所示,圖中每個(gè)獼猴桃花苞、獼猴桃花及已自然授粉花朵均可被準(zhǔn)確識(shí)別。其中,花和花苞檢測置信度的平均值在0.90以上,已自然授花朵檢測置信度的平均值在0.80以上,表明該模型可以有效檢測出獼猴桃花苞、獼猴桃花及已自然授粉花朵,且置信度較高。此外,對(duì)于在更復(fù)雜場景中所采集的圖像,如廣域視場范圍內(nèi)3類花朵共存、花朵間重疊遮擋和花朵密集分布的情況,本文改進(jìn)模型YOLOv5s_S_N_CB_CA均可實(shí)現(xiàn)有效檢測(圖8d~8f)。
在利用本文所提模型YOLOv5s_S_N_C3HB_CCA對(duì)驗(yàn)證集圖像中的獼猴桃花朵進(jìn)行檢測時(shí),仍會(huì)出現(xiàn)如圖9所示的漏檢和誤檢情況,由圖可以看出:部分獼猴桃花和花苞被漏檢(圖9a、9b中藍(lán)圈所示),同時(shí)也存在葉片被誤檢為花苞(圖9c中藍(lán)圈所示)和花苞被誤檢為花(圖9d中藍(lán)圈所示)等情況。分析出現(xiàn)漏檢和被誤檢的可能原因如下:
1)YOLOv5s_S_N_C3HB_CCA模型對(duì)于形狀較規(guī)則且分布較稀疏的獼猴桃花朵檢測效果較好,但自然環(huán)境下的獼猴桃花朵生長較為密集且呈簇狀分布,花朵間易出現(xiàn)相互重疊或遮擋等情況。如圖9a、9b中藍(lán)圈所示,當(dāng)遮擋或重疊現(xiàn)象較為嚴(yán)重時(shí),處于上層的獼猴桃花朵會(huì)遮擋住下層的獼猴桃花朵的大部分特征,導(dǎo)致圖像中上層獼猴桃花朵特征明顯,而下層獼猴桃花朵特征難以表征。模型在處理此類情況時(shí)難以提取下層花朵特征,導(dǎo)致檢測時(shí)出現(xiàn)僅上層花朵成功檢出,而下層花朵無法檢出的情況,造成漏檢。
2)自然環(huán)境下所采集的獼猴桃花朵圖像,其成像質(zhì)量受天氣和光照強(qiáng)度等因素影響較大,光線分布不均與遮擋情況的存在,引起圖像中某些花朵的局部區(qū)域光線較暗,與葉片所處的背景對(duì)比度較低,導(dǎo)致模型對(duì)花朵特征的辨別與提取存在一定困難。如圖9c中藍(lán)圈所示,由于棚架下葉片對(duì)光線的遮擋,光照強(qiáng)度較低,致使獼猴桃花苞局部區(qū)域與面積較小的葉片呈現(xiàn)出近似的特征,導(dǎo)致模型在處理此類情況時(shí),誤將面積較小的葉片識(shí)別為獼猴桃花苞,造成誤檢。
注:圖中方框內(nèi)為檢測出的獼猴桃花朵。藍(lán)色方框內(nèi)為獼猴桃花苞;粉色方框內(nèi)為獼猴桃花;紅色方框內(nèi)為已授粉的花朵。
注:9a中左側(cè)藍(lán)圈內(nèi)為漏檢的獼猴桃花,右側(cè)藍(lán)圈內(nèi)為漏檢的花苞;9b中藍(lán)圈內(nèi)為漏檢的獼猴桃花;9c中藍(lán)圈內(nèi)為被誤檢為花苞的葉片;9d中藍(lán)圈內(nèi)為被誤檢為獼猴桃花的花苞。
3)獼猴桃花苞在特定生長時(shí)期內(nèi),會(huì)出現(xiàn)大部分花瓣包裹花蕊而個(gè)別花瓣展開的情況,或是花瓣略微展開,僅暴露一小部分花蕊的情況,此時(shí)獼猴桃花苞會(huì)呈現(xiàn)出與開放的獼猴桃花近似的特征,如圖9d中藍(lán)圈所示。但此類情況下花瓣尚未完全展開,花蕊并未充分暴露出,尚不滿足授粉條件,故本文中將此類情況下的獼猴桃花朵歸類為花苞,以符合人工授粉要求,避免授粉失敗。但由于此類情況下的花苞存在與花近似的特征,導(dǎo)致模型在處理此類情況時(shí),誤將此類獼猴桃花苞識(shí)別為獼猴桃花,造成誤檢。
本文基于YOLOv5s構(gòu)建了改進(jìn)獼猴桃花朵檢測模型YOLOv5s_S_N_CB_CA,實(shí)現(xiàn)了對(duì)自然環(huán)境下獼猴桃花朵的快速準(zhǔn)確檢測。主要結(jié)論如下:
1)本文基于YOLOv5s提出了改進(jìn)模型YOLOv5s_S_N_CB_CA,其檢測獼猴桃花、花苞和已自然授粉花朵的平均精確率(precision,)為85.21%,召回率(recall,)為90%,在backbone中引入C3HB模塊、在prediction中引入CCA模塊后,交并比為0.5時(shí)的均值平均精度(mean average precision with IoU of 0.5,mAP0.5)達(dá)到92.45%,模型大小為14.6 MB,檢測速度為35.47 幀/s。通過改進(jìn)實(shí)現(xiàn)了對(duì)自然環(huán)境下獼猴桃花朵的準(zhǔn)確、快速檢測。通過,提出了改進(jìn)模型YOLOv5s_S_N_CB_CA,
2)本文將YOLOv5s_S_N_CB_CA與其他4種基于YOLOv5s的改進(jìn)模型、原始YOLOv5s、YOLOv4和SSD 的性能進(jìn)行對(duì)比,結(jié)果表明YOLOv5s_S_N_CB_CA在檢測精度、檢測速度和模型大小上均優(yōu)于其他對(duì)比模型,說明其對(duì)獼猴桃花朵具有較好的檢測效果。此外,檢測不同天氣和晴天不同時(shí)段下的獼猴桃花朵時(shí),YOLOv5s_S_N_CB_CA都能達(dá)到91%以上的mAP0.5值,說明其具有較好的魯棒性。
本文提出YOLOv5s_S_N_CB_CA模型對(duì)于生長過于密集和遮擋嚴(yán)重的花朵、低光照強(qiáng)度下和特定生長期下的花苞存在部分漏檢和誤檢的情況。后續(xù)將繼續(xù)探索新的改進(jìn)方案,進(jìn)一步優(yōu)化復(fù)雜情況下對(duì)獼猴桃花朵的檢測效果。
[1] 歐陽芳,王麗娜,閆卓,等. 中國農(nóng)業(yè)生態(tài)系統(tǒng)昆蟲授粉功能量與服務(wù)價(jià)值評(píng)估[J]. 生態(tài)學(xué)報(bào),2019,39(1):131-145. OUYANG Fang, WANG Lina, YAN Zhuo, et al. Evaluation of insect pollination and service value in China's agricultural ecosystems[J]. Acta Ecologica Sinica, 2019, 39(1): 131-145. (in Chinese with English abstract)
[2] 張立微,張紅玉. 傳粉昆蟲生態(tài)作用研究進(jìn)展[J]. 江蘇農(nóng)業(yè)科學(xué),2015,43(7):9-13. ZHANG Liwei, ZHANG Hongyu. Progress in the study of the ecological role of pollinators[J]. Jiangsu Agricultural Sciences, 2015, 43(7): 9-13. (in Chinese with English abstract)
[3] BUTCHER C L, RUBIN B Y, ANDERSON S L, et al. Pollen dispersal patterns differ among sites for a wind‐pollinated species and an insect‐pollinated species[J]. American Journal of Botany, 2020, 107(11): 1504-1517.
[4] BIESMEIJER J C, ROBERTS S P M, REEMER M, et al. Parallel declines in pollinators and insect-pollinated plants in Britain and the Netherlands[J]. Science, 2006, 313(5785): 351-354.
[5] DECOURTYE A, ALAUX C, LE Conte Y, et al. Toward the protection of bees and pollination under global change: Present and future perspectives in a challenging applied science[J]. Current opinion in insect science, 2019, 35: 123-131.
[6] 劉浩洲. 基于信息感知的獼猴桃噴霧授粉方法研究[D]. 楊凌:西北農(nóng)林科技大學(xué),2019. LIU Haozhou. Kiwifruit Spray Pollination Method Based on Information Perception[D]. Yangling: Northwest A&F University, 2019. (in Chinese with English abstract)
[7] SáNCHEZ-ESTRADA A, CUEVAS J. Pollination strategies to improve fruit set in orchards of ‘Manzanillo’ olive in a nontraditional producing country, Mexico[J]. HortTechnology, 2019, 29(3): 258-264.
[8] CHECHETKA S A, YU Y, TANGE M, et al. Materially engineered artificial pollinators[J]. Chem, 2017, 2(2): 224-239.
[9] LI K, ZHAI L, PAN H, et al. Identification of the operating position and orientation of a robotic kiwifruit pollinator[J]. Biosystems Engineering, 2022, 222: 29-44.
[10] LI K, HUO Y, LIU Y, et al. Design of a lightweight robotic arm for kiwifruit pollination[J]. Computers and Electronics in Agriculture, 2022, 198: 107114.
[11] 樊湘鵬,許燕,周建平,等. 基于遷移學(xué)習(xí)和改進(jìn)CNN的葡萄葉部病害檢測系統(tǒng)[J]. 農(nóng)業(yè)工程學(xué)報(bào),2021,37(6):151-159. FAN Xiangpeng, XU Yan, ZHOU Jianping, et al. Detection system for grape leaf diseases based on transfer learning and updated CNN[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(6): 151-159. (in Chinese with English abstract)
[12] 寧健,馬淼,柴立臣,等. 深度學(xué)習(xí)的目標(biāo)檢測算法綜述[J]. 信息記錄材料,2022,23(10):1-4. NING Jian, MA Miao, CHAI Lichen, et al. A survey of deep learning object detection algorithms[J]. Information Recording Materials, 2022, 23(10): 1-4. (in Chinese with English abstract)
[13] FARJON G, KRIKEB O, HILLEL A B, et al. Detection and counting of flowers on apple trees for better chemical thinning decisions[J]. Precision Agriculture, 2020, 21(3): 503-521.
[14] 劉浩洲,陳禮鵬,穆龍濤,等. 基于K-means聚類的獼猴桃花朵識(shí)別方法[J]. 農(nóng)機(jī)化研究,2020,42(2):22-26. LIU Haozhou, CHEN Lipeng, MU Longtao, et al. A recognition method of kiwifruit flowers based on K-means clustering[J]. Acta Automatica Sinica, 2020, 42(2): 22-26. (in Chinese with English abstract)
[15] 林君宇,李奕萱,鄭聰尉,等. 應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)識(shí)別花卉及其病癥[J]. 小型微型計(jì)算機(jī)系統(tǒng),2019,40(6):1330-1335. LIN Junyu, LI Yixuan, ZHENG Congwei, et al. Classifying flowers and their diseases by using convolutional neural network[J]. Journal of Chinese Computer Systems. (in Chinese with English abstract)
[16] WILLIAMS H, NEJATI M, HUSSEIN S, et al. Autonomous pollination of individual kiwifruit flowers: Toward a robotic kiwifruit pollinator[J]. Journal of Field Robotics, 2020, 37(2): 246-262.
[17] XIA X, XU C, NAN B. Inception-v3 for flower classification[C]//2017 2nd international conference on image, vision and computing (ICIVC). Chengdu: IEEE, 2017: 783-787.
[18] SUN K, WANG X, LIU S, et al. Apple, peach, and pear flower detection using semantic segmentation network and shape constraint level set[J]. Computers and Electronics in Agriculture, 2021, 185: 106150.
[19] 尚鈺瑩,張倩如,宋懷波. 基于YOLOv5s的深度學(xué)習(xí)在自然場景蘋果花朵檢測中的應(yīng)用[J]. 農(nóng)業(yè)工程學(xué)報(bào),2022,38(9):222-229. SHANG Yuying, ZHANG Qianru, SONG Huaibo. Application of deep learning based on YOLOv5s to apple flower detection in natural scenes[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(9): 222-229. (in Chinese with English abstract)
[20] 孫豐剛,王云露,蘭鵬,等. 基于改進(jìn)YOLOv5s和遷移學(xué)習(xí)的蘋果果實(shí)病害識(shí)別方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2022,38(11):171-179. SUN Fenggang, WANG Yunlu, LAN Peng, et al. Identification of apple fruit diseases using improved YOLOv5s and transfer learning[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(11): 171-179. (in Chinese with English abstract)
[21] YAO J, QI J, ZHANG J, et al. A real-time detection algorithm for Kiwifruit defects based on YOLOv5[J]. Electronics, 2021, 10(14): 1711.
[22] MALTA A, MENDES M, FARINHA T. Augmented reality maintenance assistant using YOLOv5[J]. Applied Sciences, 2021, 11(11): 4758.
[23] QI J, LIU X, LIU K, et al. An improved YOLOv5 model based on visual attention mechanism: Application to recognition of tomato virus disease[J]. Computers and Electronics in Agriculture, 2022, 194(7): 178-201.
[24] 林清平,張麒麟,肖蕾. 采用改進(jìn)YOLOv5網(wǎng)絡(luò)的遙感圖像目標(biāo)識(shí)別方法[J]. 空軍預(yù)警學(xué)院學(xué)報(bào),2021,35(2):117-120. LIN Qingping, ZHANG Qilin, XIAO Lei. Method of remote sensing image target recognition based on improved YOLOv5 network[J]. Journal of Air Force Early Warning Academy, 2021, 35(2): 117-120. (in Chinese with English abstract)
[25] 楊曉玲,江偉欣,袁浩然. 基于YOLOv5的交通標(biāo)志識(shí)別檢測[J]. 信息技術(shù)與信息化,2021(4):28-30. YANG Xiaoling, JIANG Weixin, YUAN Haoran. Traffic sign recognition and detection based on YOLOv5[J]. Information Technology and Informatization, 2021(4): 28-30. (in Chinese with English abstract)
[26] LIU Y, LU B H, PENG J, et al. Research on the use of YOLOv5 object detection algorithm in mask wearing recognition[J]. World Scientific Research Journal, 2020, 6(11): 276-284.
[27] AN Q, WANG K, LI Z, et al. Real-Time Monitoring method of strawberry fruit growth state based on YOLO improved model[J]. IEEE Access, 2022, 10: 124363-124372.
[28] HUANG Z, WANG X, HUANG L, et al. Ccnet: Criss-cross attention for semantic segmentation[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. Seoul, Korea: IEEE, 2019: 603-612.
[29] RAO Y, ZHAO W, TANG Y, et al. Hornet: Efficient high-order spatial interactions with recursive gated convolutions[J]. Advances in Neural Information Processing Systems, 2022, 35: 10353-10366.
[30] 戚小莎,曾靜,吉根林. 雙交叉注意力自編碼器改進(jìn)視頻異常檢測[J]. 南京師大學(xué)報(bào)(自然科學(xué)版),2023,46(1):110-119. QI Xiaosha, ZENG Jing, JI Genlin. Improved video anomaly detection with dual criss-cross attention auto encoder[J]. Journal of Nanjing Normal University(Natural Science Edition), 2023, 46(1): 110-119. (in Chinese with English abstract)
[31] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: Unified, real-time object detection[C]// Computer Vision and Pattern Recognition. Las Vegas, NV, USA: IEEE, 2016: 779-788.
[32] REDMON J, FARHADI A. YOLO9000: Better, faster, stronger[C]// Computer Vision and Pattern Recognition. Honolulu, HI, USA: IEEE, 2017: 6517-6525.
[33] JIANG B, LUO R, MAO J, et al. Acquisition of Localization Confidence for Accurate Object Detection[C]//Computer Vision–ECCV 2018. Cham, Switzerland: Springer International Publishing, 2018: 816-832.
[34] ALEXEY B, WANG C, LIAO H. YOLOv4: Optimal speed and accuracy of object detection[J/OL]. (2020-04-23)[2023-01-05]. https: //www. researchgate. net/publication/340883401.
[35] LIU W, DRAGOMIR A, DUMITRU E, et al. SSD: Single shot multibox detector[C]// Computer Vision–ECCV 2016. Cham, Switzerland: Springer International Publishing, 2016: 21-37.
Detecting kiwi flowers in natural environments using an improved YOLOv5s
GONG Weixin, YANG Zhen, LI Kai, HAO Wei, HE Zhi, DING Xinting, CUI Yongjie※
(1.,,712100,; 2.,,712100,; 3.,712100,)
Artificial pollination can be essential to improve the fruit quality in kiwifruit production. An efficient detection of kiwifruit flowers is one of the key technologies in the automatic pollination machinery. In this study, an improved YOLOv5s model (YOLOv5s_S_N_CB_CA) was proposed to rapidly and accurately detect the kiwifruit flowers. The C3HB module and criss-cross attention (CCA) were added into the YOLOv5s. The sample slicing was combined to add the negative sample processing, in order to enhance the feature extraction of the model for the kiwifruit flowers, particularly for the detection accuracy and detection speed of the model. A total of 1032 images of kiwifruit flowers were collected from a trellised kiwifruit orchard grown in a natural environment, including 779 images on sunny days and 253 images on cloudy days. Two periods of light conditions under sunny days were considered, including 726 images of kiwifruit flowers under the 9:00-11:00 and 378 images of kiwifruit flowers under the 15:00-17:00. Two occlusion cases were selected, with 726 images of kiwi flowers with occlusion and 306 images of kiwi flowers without occlusion. The captured images of kiwifruit flowers were classified into three categories, including kiwifruit buds, kiwifruit flowers, and pollinated kiwifruit flowers. Three targets were labelled separately, and then sent to the improved YOLOv5s model for training. A total of 300 iterations of training were implemented for the improved model. The results showed that the improved model shared the detection accuracy of 85.21%, the recall of 90%, the mean average precision (mAP) of 92.45% at an intersection over union (IoU) ratio of 0.5, a model size of 14.6 MB, and a detection speed of 35.47 frames/s. Compared with the four improved YOLOv5s models with only sample scaling or two resolutions, sample slicing, and adding negative samples, the C3HB-CCA module and focal loss function, the mAP0.5were improved 31.91, 38.32, 2.55, and 1.08 percentage points, respectively, while the mean average accuracy at IoU of 0.5-0.95 ( mAP0.5-0.95) by 34.38, 42.93, 1.92, and 1.37 percentage points, respectively. The improved model increased the recall by 2.00, 7.00, and 12.00 percentage points, compared with the original, YOLOv4, and SSD model, respectively, while the mAP0.5was improved by 2.55, 9.95, 13.64 percentage points, and 34.15%, 144.62%, and 20.03% improvement in the detection speed, respectively. The original and improved models were then used to detect the kiwifruit flowers under different weather light intensities, or under different light intensities at the different times of the day on sunny days. The results showed that the improved model had 85.17% and 83.88% accuracy, 90% and 89% recall, and 91.96% and 91.15% mAP0.5for the detection of the kiwifruit flowers under sunny and cloudy skies, respectively. The improved model shared 84.47% and 84.79% accuracy, 89% and 89% recall, and 92.11% and 92.10% mAP0.5for the detection of kiwifruit flowers in 9:00-11:00 and 15:00-17:00 on sunny day, respectively. The better performance was achieved in the improved model, compared with the original. Therefore, the improved YOLOv5s-based detection model was achieved in the rapid and accurate detection of kiwifruit flowers with the high robustness while maintaining lightweight. The finding can also provide the technical support to develop the automated pollination equipment for kiwifruit.
image processing; model; target detection; kiwi flowers; improved YOLOv5s; natural environments
10.11975/j.issn.1002-6819.202301031
S24;TP391.4
A
1002-6819(2023)-06-0177-09
龔惟新,楊珍,李凱,等. 基于改進(jìn)YOLOv5s的自然環(huán)境下獼猴桃花朵檢測方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2023,39(6):177-185.doi:10.11975/j.issn.1002-6819.202301031 http://www.tcsae.org
GONG Weixin, YANG Zhen, LI Kai, et al. Detecting kiwi flowers in natural environments using an improved YOLOv5s[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2023, 39(6): 177-185. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.202301031 http://www.tcsae.org
2023-01-07
2023-02-07
國家自然科學(xué)基金項(xiàng)目(31971805);國家重點(diǎn)研發(fā)計(jì)劃項(xiàng)目(2019YFD1002401);陜西省重點(diǎn)研發(fā)計(jì)劃項(xiàng)目(2019ZDLNY02-04)
龔惟新,研究方向?yàn)橹悄芑瘷z測與控制。Email:gwx919@nwafu.edu.cn
崔永杰,博士,教授,博士生導(dǎo)師,研究方向?yàn)楝F(xiàn)代農(nóng)業(yè)裝備與技術(shù)。Email:cuiyongjie@nwsuaf.edu.cn