史方青,王虎林,黃華
(蘭州理工大學(xué)機(jī)電工程學(xué)院,蘭州市,730000)
馬鈴薯具有極高的營養(yǎng)與藥用價值,其加工產(chǎn)品被廣泛應(yīng)用于我國醫(yī)藥、農(nóng)業(yè)、食品等行業(yè)。2019年農(nóng)業(yè)農(nóng)村部指出要大力推進(jìn)馬鈴薯主食開發(fā),明確了馬鈴薯產(chǎn)業(yè)的國家糧食安全策略、農(nóng)業(yè)供給側(cè)結(jié)構(gòu)性改革中的作用及目標(biāo)[1]。馬鈴薯產(chǎn)業(yè)的機(jī)械化水平逐年提高,如馬鈴薯播種機(jī)械化[2]及馬鈴薯分級機(jī)械化[3]等。然而有關(guān)馬鈴薯切種機(jī)械化的研究較少,且主要依賴于人工,存在勞動力短缺、效率低、費(fèi)用較高等問題,故實(shí)現(xiàn)馬鈴薯切種機(jī)自動切種是必然需求,芽眼的準(zhǔn)確識別是該功能實(shí)現(xiàn)的前提。
芽眼識別是馬鈴薯切種機(jī)實(shí)現(xiàn)自動切種的先決條件,但目前國內(nèi)外針對芽眼識別的研究卻相對較少。李玉華等[4]在三維幾何空間內(nèi)通過對S分量的分析,利用四特征綜合判定準(zhǔn)則對芽眼縱向識別,并根據(jù)芽眼的橫向特點(diǎn)進(jìn)行篩選,結(jié)果表明該方法的識別準(zhǔn)確率可達(dá)91.48%;呂釗欽等提出一種基于Gabor特征的馬鈴薯芽眼識別方法,結(jié)果表明該方法的識別準(zhǔn)確率為93.4%;Xi等[5]通過將混沌變量映射到K均值算法的變量中,用混沌變量代替其尋找全局最優(yōu)值,結(jié)果表明芽眼總的分割精度為98.87%。上述方法均為淺層特征提取,無法適應(yīng)隨機(jī)條件下的馬鈴薯芽眼識別,判別能力相對較弱,均無法同時保證檢測性能及識別速度。
卷積神經(jīng)網(wǎng)絡(luò)以其高性能特征提取、覆蓋范圍廣、適應(yīng)能力強(qiáng)等優(yōu)點(diǎn),被廣泛應(yīng)用于農(nóng)業(yè)中[6-8]。目前深度卷積神經(jīng)網(wǎng)絡(luò)已發(fā)展為兩大類,其一為兩階段處理模型,如Faster R-CNN[9]、Mask R-CNN[10]等,其二為端到端的一階段處理模型,如SSD[11]、YOLO[12-14]系列等。席芮等[15]通過對Faster R-CNN網(wǎng)絡(luò)的改進(jìn)實(shí)現(xiàn)了馬鈴薯芽眼的識別,結(jié)果表明該模型識別精度為96.32%,召回率為90.85%;劉小剛等[8]在復(fù)雜環(huán)境中通過改進(jìn)的YOLOv3網(wǎng)絡(luò)連續(xù)識別草莓,結(jié)果表明該模型針對測試集的mAP值可達(dá)87.51%;趙德安等[16]通過YOLOv3網(wǎng)絡(luò)對不同光線環(huán)境中存在遮擋、粘連及套袋等多種情況的果實(shí)進(jìn)行了識別定位,結(jié)果表明該模型識別準(zhǔn)確率為97%,召回率為90%。
基于上述分析,本文提出基于卷積神經(jīng)網(wǎng)絡(luò)的馬鈴薯芽眼識別方法。通過自然光條件下拍攝的圖像建立數(shù)據(jù)庫,經(jīng)過圖像預(yù)處理及數(shù)據(jù)增廣擴(kuò)充數(shù)據(jù)集以增加網(wǎng)絡(luò)的魯棒性。在YOLOv3網(wǎng)絡(luò)的高性能特征提取下,經(jīng)過卷積、上采樣等操作實(shí)現(xiàn)馬鈴薯芽眼的快速、準(zhǔn)確識別,為馬鈴薯切種機(jī)自動切種奠定了基礎(chǔ)。
為了識別馬鈴薯芽眼,需采集相關(guān)圖像建立數(shù)據(jù)庫,包括訓(xùn)練集、驗(yàn)證集及測試集。本文測試用馬鈴薯出自甘肅省永昌縣,品種為大西洋。為了使馬鈴薯芽眼識別環(huán)境貼近現(xiàn)實(shí),選擇于自然光良好的環(huán)境中對含有芽眼的馬鈴薯進(jìn)行多方位拍攝,以貼合后期馬鈴薯切種機(jī)芽眼識別時的環(huán)境。圖像采集設(shè)備為數(shù)碼單反相機(jī),型號為NikonD3400。初始采集圖像并篩選得到圖像630張,均為jpg格式。為了提高處理效率并減少數(shù)據(jù)運(yùn)算量,將圖像大小壓縮為600像素×800像素。為了擴(kuò)充數(shù)據(jù)集,通過對原始圖像進(jìn)行裁剪、旋轉(zhuǎn)、縮放、色度增強(qiáng)等數(shù)據(jù)增廣操作,單種處理或者多種組合處理以得到馬鈴薯芽眼數(shù)據(jù)集,數(shù)據(jù)增廣結(jié)果如圖1所示。
圖1 數(shù)據(jù)增廣結(jié)果
對每一張馬鈴薯芽眼圖像使用LabelImg工具進(jìn)行手動標(biāo)注,如圖2所示。其中矩形框用于馬鈴薯芽眼的識別,統(tǒng)一保存為PASCAL VOC格式,使用的注釋為PASCAL VOC中xml文件,最終獲得6 072張圖像。其中測試集608張,訓(xùn)練集5 464張,驗(yàn)證集于訓(xùn)練集中隨機(jī)選取,最終驗(yàn)證集與訓(xùn)練集比例呈1∶9。
圖2 數(shù)據(jù)標(biāo)注
1.2.1 YOLO系列模型
YOLO系列模型是目前比較流行的算法之一,它不同于兩階段處理模型,該系列模型均為端到端的一階段處理模型。YOLOv1[12]網(wǎng)絡(luò)結(jié)構(gòu)較為輕量,但存在識別物體精準(zhǔn)性較差、召回率不高、較小目標(biāo)和鄰近目標(biāo)識別效果不佳等問題;YOLOv2[13]網(wǎng)絡(luò)使用了Darknet-19網(wǎng)絡(luò),并引入BN層加速模型收斂,模型中均采用卷積層與先驗(yàn)框,去掉了以往含有的全連接層。同時采用了k-means聚類直接預(yù)測網(wǎng)格單元的相對位置,一定程度上提高了模型的識別準(zhǔn)確度;YOLOv3[14]網(wǎng)絡(luò)在YOLOv2的基礎(chǔ)上做了進(jìn)一步的提升,使用了分類器Darknet-53以及多尺度預(yù)測,在類別預(yù)測方面將原來的單標(biāo)簽分類改為了多標(biāo)簽分類。上述變化不但增強(qiáng)了網(wǎng)絡(luò)的提取能力,而且在進(jìn)一步提高小目標(biāo)檢測精度的基礎(chǔ)上加快了網(wǎng)絡(luò)的運(yùn)算速度。YOLOv3網(wǎng)絡(luò)的訓(xùn)練測試流程如圖3所示。
圖3 訓(xùn)練測試流程
1.2.2 YOLOv3模型結(jié)構(gòu)
YOLOv3網(wǎng)絡(luò)通過回歸方法提取目標(biāo)特征,直接使用單個神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)輸入圖像的目標(biāo)檢測識別與分類。其為深度卷積神經(jīng)網(wǎng)絡(luò)YOLO的改進(jìn),具有實(shí)時性、泛化能力強(qiáng)以及準(zhǔn)確度高等優(yōu)點(diǎn),是目前主流的檢測算法之一。
表1為YOLOv3模型與其他模型均在COCO數(shù)據(jù)集上測試的速度與精度對比[15]。
表1 YOLOv3模型與其他模型對比Tab. 1 Comparison of YOLOv3 model with other models
由表1可以看出,YOLOv3模型檢測速度相較于其他模型快,本文綜合比較模型的輸入尺寸后,可知YOLOv3-320模型輸入尺寸小、用時少,但精度欠佳;YOLOv3-608模型檢測精度高,但輸入圖像尺寸大,處理用時長;YOLOv3-416模型檢測精度較高,檢測精度及測試時長較為合適,在保持檢測精度的基礎(chǔ)上也確保了較少的處理時長。因此,結(jié)合本文測試平臺的顯卡及內(nèi)存要求,選擇用YOLOv3-416模型進(jìn)行芽眼的準(zhǔn)確識別。
YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示,DBL層(Darknetconv2d-BN-Leaky)為YOLOv3網(wǎng)絡(luò)的基本組件,由卷積(CONV)、批量歸一化(Batch normalization)、Leaky ReLU操作組成。普通的ReLU函數(shù)是將所有負(fù)值均設(shè)為零,而Leaky ReLU函數(shù)則是給所有負(fù)值賦予一個非零斜率,數(shù)學(xué)表達(dá)式為
(1)
式中:ai——(1,+∞)區(qū)間內(nèi)的固定參數(shù)。
本文中YOLOv3網(wǎng)絡(luò)的初始輸入大小為416×416的圖像,通過多層深度卷積降維,最終降維為3個維度,即有3個分支,由多尺度檢測y1、y2、y3組成,如圖4所示。其中,多尺度檢測y1適用于大目標(biāo)檢測,輸出維度為13×13×18;多尺度檢測y2適用于中目標(biāo)的檢測,輸出維度為26×26×18;多尺度檢測y3適用于小目標(biāo)的檢測,輸出維度為52×52×18。Resn表示Res_block含有多少個Res_unit,n代表數(shù)字,如res1,res2等。YOLOv3借鑒了ResNet的殘差結(jié)構(gòu),其中殘差卷積就是進(jìn)行一次3×3、步長為2的卷積。保存卷積層后再進(jìn)行一次1×1的卷積和3×3的卷積,將該結(jié)果與最后的卷積層一同作為最后的輸出。同時由于ResNet擁有較深的網(wǎng)絡(luò)結(jié)構(gòu),為提高準(zhǔn)確度使用了殘差單元以獲得高維特征。Res_unit×n表示含有n個殘差單元;concat表示張量拼接,即將Darknet的中間層與后面某一層的上采樣拼接,以擴(kuò)充張量的維度;Add表示張量相加,不擴(kuò)充維度。
圖4 YOLOv3結(jié)構(gòu)圖
YOLOv3網(wǎng)絡(luò)預(yù)測圖片方式采用端對端的檢測,其將整張圖片分為S×S個區(qū)域,當(dāng)被識別對象的中心落在上述任意區(qū)域時,對應(yīng)的網(wǎng)絡(luò)會進(jìn)行預(yù)測,目標(biāo)邊界框原理圖如圖5所示。其中,虛線矩形框表示預(yù)設(shè)邊界框,實(shí)線矩形框表示以YOLOv3網(wǎng)絡(luò)預(yù)測的偏移量計(jì)算的預(yù)測邊界框,由預(yù)設(shè)邊界框到最終預(yù)測邊界框的轉(zhuǎn)換如式(2)~式(5)所示。
bx=σ(tx)+cx
(2)
by=σ(ty)+cy
(3)
bw=pwetw
(4)
bh=pheth
(5)
其中,(cx,cy)表示預(yù)設(shè)邊界框在特征圖上的中心坐標(biāo),(pw,ph)表示預(yù)設(shè)邊界框在特征圖上的寬與高,(tx,ty)表示YOLOv3網(wǎng)絡(luò)預(yù)測邊界框的中心偏移量,(tw,th)表示網(wǎng)絡(luò)預(yù)測邊界框的寬高縮放比,(bx,by,bw,bh)為最終預(yù)測的目標(biāo)邊界框。且σ(x)函數(shù)可以將預(yù)測偏移量縮放在0~1之間,從而加速收斂。
圖5 YOLOv3邊界框原理圖
本文為了更好地評估訓(xùn)練模型的魯棒性及準(zhǔn)確性,測試選擇精度(Precision)和召回率(Recall)作為評價指標(biāo)。相應(yīng)的計(jì)算公式如式(6)~式(8)所示。
(6)
(7)
(8)
式中:Tp——真正樣本數(shù);
Fp——假正樣本數(shù);
FN——假負(fù)樣本數(shù);
R——召回率;
P——精確度;
F1——精確度P和召回率R的調(diào)和平均值。
為了更詳細(xì)評價識別馬鈴薯芽眼的訓(xùn)練模型,測試同時選擇識別平均精度mAP值進(jìn)行評價。mAP值即每個類別AP的平均值,AP為P-R曲線下方整體的面積,具體計(jì)算如式(9)所示。
(9)
式中:k——閾值;
N——引用閾值的數(shù)量。
金元時期的詞學(xué)是對南北宋詞學(xué)理論的發(fā)展。王若虛認(rèn)為詞本色如詩,其《滹南詩話》卷中:“蓋詩詞只是一理,不容異觀。”[7]669元好問推崇詩詞同質(zhì),其《新軒樂府引》稱贊蘇軾以詩化詞的“一洗萬古凡馬空”的氣象。
本文馬鈴薯芽眼識別測試平臺使用windows10(64位)專業(yè)版,NVIDIA GeForce RTX 2080 GPU顯卡加速測試進(jìn)程,32 GB內(nèi)存,10核20線程計(jì)算機(jī)處理器,2.4 GHz,使用python3.6.2版本,以pytorch1.2版本為處理框架,以cuda10.0版本的計(jì)算框架及cuDNN7.6.3版本的配置加速庫,在VScode調(diào)試平臺上進(jìn)行。
本文采用YOLOv3網(wǎng)絡(luò)實(shí)現(xiàn)馬鈴薯芽眼的識別檢測,需訓(xùn)練得到最優(yōu)模型權(quán)重,故訓(xùn)練前期需設(shè)置相關(guān)參數(shù)并進(jìn)行調(diào)整,網(wǎng)絡(luò)參數(shù)選擇及訓(xùn)練策略具體如下。
1) 參數(shù)設(shè)置:選擇基于模型參數(shù)的遷移學(xué)習(xí)實(shí)現(xiàn)網(wǎng)絡(luò)的訓(xùn)練,預(yù)訓(xùn)練模型使用PASCAL VOC數(shù)據(jù)集的通用模型,設(shè)置訓(xùn)練epoch為100次,動量因子設(shè)置為0.92,衰減系數(shù)設(shè)置為5×10-4。學(xué)習(xí)率調(diào)整策略采用steps,前50個epoch訓(xùn)練凍結(jié)一部分網(wǎng)絡(luò)進(jìn)行,初始學(xué)習(xí)率設(shè)置為1×10-3,批處理尺寸設(shè)置為8;后50個epoch訓(xùn)練將前期凍結(jié)的網(wǎng)絡(luò)部分解凍,全部進(jìn)行訓(xùn)練,初始學(xué)習(xí)率設(shè)置為1×10-4,批處理尺寸設(shè)置為4。
2) 訓(xùn)練策略:網(wǎng)絡(luò)訓(xùn)練過程采用多尺度訓(xùn)練策略,初始統(tǒng)一裁剪圖片大小為416像素×416像素,均使用padding填充,使圖像不失真。同時通過調(diào)整色度、色調(diào)、增加透視變幻等方式再次生成更多樣本,增加網(wǎng)絡(luò)模型識別檢測的準(zhǔn)確度及魯棒性。
本研究以相同的數(shù)據(jù)集于同一試驗(yàn)平臺上試驗(yàn),對YOLOv3、YOLOv4-tiny、Faster R-CNN及SSD模型進(jìn)行訓(xùn)練,同時以相同的測試集進(jìn)行識別對比分析,具體定量識別結(jié)果如表2及表3所示。
由表2可知,YOLOv3模型識別馬鈴薯芽眼最終精確度P為97.97%,召回率R為96.61%,調(diào)和平均值F1為97%。相較于YOLOv4-tiny、Faster R-CNN及SSD這三種模型,馬鈴薯芽眼的識別精確度P較前兩種分別提升了4.64個百分點(diǎn)和27.59個百分點(diǎn)。召回率R較這三種模型則分別提高了8.79個百分點(diǎn),3.43個百分點(diǎn)以及31.8個百分點(diǎn),尤其較SSD模型提升優(yōu)化較高。最終縱觀調(diào)和平均值F1,YOLOv3模型達(dá)到97%,分別高于其他三種模型7個百分點(diǎn),17個百分點(diǎn)及19個百分點(diǎn),相比較而言均有較大的性能提升。
由表3可知,YOLOv3模型識別平均精度mAP值高達(dá)98.44%,平均每幅圖像的識別時間為0.018 s。相比較于YOLOv4-tiny、Faster R-CNN及SSD這三種模型,平均檢測精度分別提升了5.81個百分點(diǎn),7.71個百分點(diǎn)以及6.68個百分點(diǎn),平均每幅圖像的識別時間差距不大。由此可以看出,使用YOLOv3模型識別馬鈴薯芽眼的綜合性能均比較優(yōu)良,具有更高的魯棒性和精確性。
表2 馬鈴薯芽眼識別結(jié)果比較Tab. 2 Comparison of potato buds recognition results
表3 同一測試集下不同識別模型的mAP值Tab. 3 mAP values of different recognition modelsunder the same test set
使用YOLOv3、YOLOv4-tiny、Faster R-CNN及SSD模型對馬鈴薯芽眼識別結(jié)果的P-R曲線如圖5所示。由表3可知,YOLOv3模型的識別平均精度mAP值高達(dá)98.44%,其余三種模型的識別平均精度mAP值均在90%左右,P-R曲線已經(jīng)基本遍布整個坐標(biāo)系。相較于其他三種模型,YOLOv3模型的P-R曲線相對平滑且穩(wěn)定,從圖5可以看出YOLOv3基本處于曲線最上方。綜上所述,YOLOv3模型整體綜合性能指標(biāo)要優(yōu)于其他三種模型。
為了更清晰地顯示YOLOv3網(wǎng)絡(luò)優(yōu)良的識別結(jié)果,將識別結(jié)果可視化如圖6、圖7所示。圖6(a)為只含有單個無遮擋芽眼的樣本識別結(jié)果,圖6(b)為含有多個遮擋芽眼的樣本識別結(jié)果,圖6(c)為含有機(jī)械損傷、蟲眼及雜質(zhì)的樣本識別結(jié)果。圖7為YOLOv3網(wǎng)絡(luò)對馬鈴薯芽眼在不同處理?xiàng)l件下的識別結(jié)果。
圖6 部分樣本測試識別結(jié)果
原圖 亮度減弱 色度增強(qiáng)
隨機(jī)旋轉(zhuǎn)+鏡像+色度增加+高斯噪聲 高斯噪聲+隨機(jī)旋轉(zhuǎn)+亮度增強(qiáng)
圖6(a)中YOLOv3、YOLOv4-tiny、Faster R-CNN及SSD網(wǎng)絡(luò)中芽眼的識別置信度分別為1.00、1.00、1.00、0.98;圖6(b)中YOLOv3、YOLOv4-tiny、Faster R-CNN及SSD網(wǎng)絡(luò)中芽眼的識別置信度分別在0.99~1.00、0.80~1.00、0.91~1.00、0.79~0.99之間,且YOLOv3中置信度為1.00的芽眼約占92%,而其他三種網(wǎng)絡(luò)中置信度為1.00的芽眼均在92%以下;圖6(c)中YOLOv3、YOLOv4-tiny、Faster R-CNN及SSD網(wǎng)絡(luò)中芽眼的識別置信度分別在0.91~1.00、0.79~1.00、0.58~0.99、0.85~0.86之間,且YOLOv3中置信度為1.00的芽眼占60%,其他三種網(wǎng)絡(luò)中置信度為1.00的芽眼均在60%以下。綜上所述,YOLOv3網(wǎng)絡(luò)不論對單個無遮擋芽眼的樣本,多個有遮擋芽眼的樣本,還是含有機(jī)械損傷、蟲眼、雜質(zhì)等的樣本,識別率均較高,且置信度相對來說處于一個平穩(wěn)且較高的狀態(tài)。而YOLOv4-tiny、Faster R-CNN及SSD模型在識別含有多個有遮擋芽眼的樣本時,雖然基本識別出圖片中芽眼,但識別的置信度相較于YOLOv3網(wǎng)絡(luò)低。當(dāng)檢測識別含有機(jī)械損傷、蟲眼、雜質(zhì)等的樣本時,四種網(wǎng)絡(luò)均能在較大程度上識別出芽眼,但YOLOv3網(wǎng)絡(luò)明顯識別檢測效果更優(yōu),置信度較高。而YOLOv4-tiny、Faster R-CNN及SSD網(wǎng)絡(luò)未能在干擾因素較大的情況下識別出所有的馬鈴薯芽眼,識別精度較YOLOv3低。同樣的,由圖7可得,無論圖片進(jìn)行調(diào)整亮度、色度,還是增加高斯噪聲、隨機(jī)旋轉(zhuǎn)等操作,YOLOv3網(wǎng)絡(luò)均能較好識別出馬鈴薯芽眼,表明該網(wǎng)絡(luò)具有良好的環(huán)境適應(yīng)性。
綜上所述,使用YOLOv3網(wǎng)絡(luò)對馬鈴薯芽眼識別的效果較好,且識別時間也較快,滿足處理過程中對機(jī)械設(shè)備的要求,為馬鈴薯智能切種機(jī)的實(shí)現(xiàn)奠定了基礎(chǔ)。
為了實(shí)現(xiàn)馬鈴薯種薯智能切塊,需要實(shí)現(xiàn)馬鈴薯芽眼的準(zhǔn)確、快速識別,實(shí)際工作中包含進(jìn)料給料操作、芽眼識別與標(biāo)記操作、馬鈴薯種薯三維重建操作、切刀路徑規(guī)劃操作及切種實(shí)現(xiàn)等步驟,通過控制系統(tǒng)實(shí)現(xiàn)調(diào)配。首先在投入馬鈴薯種薯后,需實(shí)現(xiàn)實(shí)時采集圖像,以保證及時完成馬鈴薯芽眼的識別;接著需進(jìn)行三維重建以實(shí)現(xiàn)切種規(guī)劃,即將馬鈴薯芽眼識別圖像的位置特征映射于三維重建中,實(shí)現(xiàn)芽眼的三維定位;最后,刀具通過由馬鈴薯芽眼位置而確定的切種路徑進(jìn)行切種。
本文對馬鈴薯芽眼的準(zhǔn)確、快速識別做了一定的研究,彌補(bǔ)了目前市面上存在馬鈴薯切種機(jī)無芽眼識別功能,最大程度上降低了種薯的浪費(fèi)率,提高了馬鈴薯種薯的出芽率,為后續(xù)自動化切種奠定了基礎(chǔ)。
1) 本文針對目前馬鈴薯切種機(jī)均無芽眼識別功能的問題,以馬鈴薯切種機(jī)于自然光環(huán)境下工作為研究背景,利用在實(shí)際環(huán)境中拍攝到的圖片建立馬鈴薯芽眼數(shù)據(jù)庫,并搭建了YOLOv3網(wǎng)絡(luò)實(shí)現(xiàn)馬鈴薯芽眼的快速、準(zhǔn)確識別。
2) 在自然光下拍攝RGB圖像,對拍攝到的圖像進(jìn)行預(yù)處理,通過裁剪、旋轉(zhuǎn)、縮放、色度增強(qiáng)等操作,單一或者多個組合實(shí)現(xiàn)了數(shù)據(jù)增廣,以此建立了馬鈴薯芽眼數(shù)據(jù)庫,包括含有單個無遮擋芽眼的樣本、含有多個遮擋芽眼的樣本以及含有機(jī)械損傷、蟲眼及雜質(zhì)的樣本這三類。
3) YOLOv3網(wǎng)絡(luò)在面向含有單個無遮擋芽眼的樣本,含有多個遮擋芽眼的樣本以及含有機(jī)械損傷、蟲眼及雜質(zhì)的樣本這三類不同樣本時,均能夠快速準(zhǔn)確地檢測識別出馬鈴薯芽眼,效果優(yōu)于YOLOv4-tiny、Faster R-CNN及SSD網(wǎng)絡(luò)。
4) YOLOv3網(wǎng)絡(luò)使用測試集測試時,精確度P為97.97%,召回率R為96.61%,調(diào)和平均值F1為97%。相較于YOLOv4-tiny、Faster R-CNN及SSD這三種網(wǎng)絡(luò),馬鈴薯芽眼的識別精確度較前兩種分別提升了4.64個百分點(diǎn)和4.05個百分點(diǎn)。且召回率分別提高了8.79個百分點(diǎn),10.42個百分點(diǎn)以及31.8個百分點(diǎn);平均檢測精度mAP值高達(dá)98.44%。綜合P-R曲線的效果,可知YOLOv3網(wǎng)絡(luò)的綜合識別檢測性能優(yōu)于YOLOv4-tiny、Faster R-CNN及SSD網(wǎng)絡(luò),達(dá)到了馬鈴薯切種機(jī)實(shí)現(xiàn)自動化切種的識別要求。