熊俊濤 劉 振 湯林越 林 睿 卜榕彬 彭紅星
(華南農(nóng)業(yè)大學(xué)數(shù)學(xué)與信息學(xué)院, 廣州 510642)
果蔬采摘是農(nóng)業(yè)生產(chǎn)中勞動強度大、季節(jié)性強的一個重要環(huán)節(jié),目前國內(nèi)果蔬采摘作業(yè)基本依靠人工完成,其自動化程度仍然很低[1-2]。機器視覺技術(shù)能實現(xiàn)采摘機器人對目標(biāo)的精確定位,因此開發(fā)具有視覺功能的果蔬采摘機器人,對提高農(nóng)業(yè)生產(chǎn)力有較大的應(yīng)用價值與較強的現(xiàn)實意義。
國內(nèi)外在水果檢測方面的研究取得了一定的進展[3-9],但研究對象主要偏向于與背景顏色差異明顯的水果,而對未成熟或者成熟后為綠色的水果檢測的相關(guān)研究相對較少,這是由于綠色水果果實與葉子顏色很相近,識別難度較大,識別準確率較低。
目前一些綠色水果的識別研究成果,如KURTULMUS等[10]結(jié)合顏色、圓形Gabor紋理特征和“特征果”算法來檢測綠色柑橘類水果,其檢測的柑橘果實在圖像中的直徑為130~210像素,檢測準確率為75.3%,漏檢率為24.7%,錯檢率為27.3%。張春龍等[11]在環(huán)形閃光燈條件下采集了夜間蘋果樹圖像,設(shè)計了以歸一化的g分量和HSV顏色空間中H、S分量為特征參數(shù)的支持向量機分類器和以超綠算子為特征的閾值分類器的集成方法,實現(xiàn)了綠色蘋果在自然環(huán)境中的有效識別。ZHAO等[12]結(jié)合顏色特征和絕對變換差值和(Sum of absolute transformed difference, SATD)來檢測未成熟的綠色柑橘,其算法檢測綠色柑橘的準確率為83.4%,漏檢率為16.6%,錯檢率為10.7%。以上對綠色水果的識別方法主要是基于顏色特征和紋理特征,需結(jié)合多種紋理特征對綠色水果進行識別,識別準確率較其他顏色的水果也較低,而且不同品種的綠色水果顏色特征和紋理特征都會有些差異,即使同一品種的綠色水果果實在圖像中的尺寸不同或在不同光照強度下其顏色特征和紋理特征也會發(fā)生改變,因此綠色水果的視覺檢測較為困難。
深度學(xué)習(xí)作為一種特征學(xué)習(xí)方法,其通過對樣本的學(xué)習(xí),可以得到較好的識別模型,如趙源深等[13]利用結(jié)合Haar-like特征和AdaBoost對番茄進行識別,其對測試集中成熟番茄的識別成功率達93.3%;高震宇等[14]通過卷積神經(jīng)網(wǎng)絡(luò)對茶葉進行分選,其對各類茶葉的識別準確率都不低于90%,平均識別準確率為92.4%。
Faster RCNN[15]是繼R-CNN[16]和Fast R-CNN[17]后REN等提出的最新的目標(biāo)檢測方法,其具有較快的檢測速度,同時也具有較高的識別準確率和泛化性能。桑軍等[18]將Faster RCNN用于道路監(jiān)控車輛的車型識別,車型識別率達91.3%;JIANG等[19]將Faster RCNN應(yīng)用于人臉識別,得到較好的識別結(jié)果。
本文基于深度學(xué)習(xí)方法的識別模型準確度高、運算速度快的特點,以綠色柑橘為主要研究對象,利用Faster RCNN方法進行不同光照和不同尺寸的綠色柑橘識別,考慮自然環(huán)境的多種情況,篩選的訓(xùn)練樣本包含不同尺寸和不同光照角度的綠色柑橘圖像,設(shè)計一種自然環(huán)境下樹上綠色柑橘的視覺檢測方法,為農(nóng)業(yè)生產(chǎn)中綠色水果的視覺檢測研究提供技術(shù)支持。
本文以綠色柑橘為研究對象,進行自然環(huán)境下綠色柑橘的識別研究。設(shè)計了柑橘圖像采集試驗,圖像采集的時間為2016年11月5日08:00—16:00,使用尼康D5300采集圖像,圖像分辨率為2 992像素×2 000像素,在晴天環(huán)境下從側(cè)光、順光和逆光多個光照角度進行拍攝,拍攝距離為50~110 cm,共拍攝2 126幅圖像,其中以圖像中的綠色柑橘區(qū)域作為正樣本,圖像中的枝葉背景作為負樣本,根據(jù)光照角度和柑橘在圖像中的尺寸,以保證圖像數(shù)據(jù)的多樣性為原則對圖像進行篩選,最終經(jīng)過人工篩選,所得數(shù)據(jù)集包含拍攝圖像1 500幅,數(shù)據(jù)集包含了不同光照角度和不同拍攝距離的柑橘圖像,在本研究中,隨機抽取80%的數(shù)據(jù),即1 200幅圖像作為訓(xùn)練集,剩余的300幅圖像作為驗證集。
綠色柑橘的果實與葉子顏色非常相近,在不同光照角度下顏色特征會發(fā)生改變,很難根據(jù)其顏色特征進行識別。本文對自然環(huán)境下采集的綠色柑橘圖像進行顏色特征分析,圖1為順光條件下綠色柑橘圖像的12個顏色分量圖像。在12個顏色分量中,正常光照環(huán)境下H分量和Cb分量的圖像中果實和背景具有較大的對比度,可以選擇這2個分量進一步分析不同光照角度下的柑橘圖像。
圖1 不同顏色分量下的順光柑橘圖像Fig.1 Side lighting citrus images under different color components
圖2為不同光照角度下柑橘在H分量和Cb分量的圖像,在順光光照角度下,果實區(qū)域與背景對比都較為明顯,能看到明顯的果實區(qū)域,而在側(cè)光環(huán)境下,Cb分量圖像只有在光照照射到的一側(cè)果實區(qū)域顏色特征才較為明顯,而在H分量下果實區(qū)域與背景對比并不明顯,在逆光環(huán)境下Cb分量和H分量都很難區(qū)分出果實區(qū)域。
圖2 不同光照角度下柑橘的H分量和Cb分量圖像Fig.2 H and Cb component images of citrus under different illumination angles
綜上所述,自然環(huán)境下綠色柑橘與葉子顏色相近,其顏色特征在不同的光照角度下也不同,利用傳統(tǒng)分割算法很難達到較好的識別效果。因此本文采用機器學(xué)習(xí)的方法對自然環(huán)境下綠色柑橘進行識別,由于自然環(huán)境下采集柑橘圖像會存在不同光照角度、不同拍攝距離、柑橘自身大小不同、果實遮擋粘連等情況,采集的圖像本身具有比較復(fù)雜的結(jié)構(gòu)。為了適用不同的情況,提高Faster RCNN網(wǎng)絡(luò)模型的泛化性能,在數(shù)據(jù)篩選階段,通過選擇不同類型的訓(xùn)練樣本來逼近圖像樣本的真實分布,使圖像數(shù)據(jù)具有以下多樣性特征:首先是光照角度多樣性,如側(cè)光、順光和逆光;其次是面積尺度的多樣性,本文以柑橘果實面積的像素半徑作為度量標(biāo)準,基于攝像機標(biāo)定的最佳拍攝距離為50~110 cm來確定柑橘樣本的像素半徑和像素面積標(biāo)準。部分訓(xùn)練樣本示例如圖3所示。
圖3 樣本多樣性示例Fig.3 Examples of sample diversity
本文以深度學(xué)習(xí)方法來解決自然環(huán)境中綠色柑橘的檢測問題,選擇Faster RCNN作為綠色柑橘識別模型,caffe作為深度學(xué)習(xí)框架,首先配置caffe的運行環(huán)境,并將篩選出來的圖像數(shù)據(jù)按照PASCAL VOC2007檢測標(biāo)準進行存儲和標(biāo)注,基于預(yù)訓(xùn)練模型進行微調(diào),使預(yù)訓(xùn)練模型可用于求解本文的研究問題,算法流程如圖4所示。
圖4 基于Faster RCNN綠色柑橘識別算法流程Fig.4 Flow chart of green citrus recognition algorithm based on Faster RCNN
在訓(xùn)練模型與優(yōu)化參數(shù)之前,需要先確定預(yù)訓(xùn)練模型以及損失函數(shù)。Faster RCNN提供了3個預(yù)訓(xùn)練好的模型,分別對應(yīng)小型、中型和大型網(wǎng)絡(luò),每個網(wǎng)絡(luò)都有與之對應(yīng)的配置文件,當(dāng)需要對參數(shù)進行修改時,可以通過配置文件快捷實現(xiàn)[20]??紤]到試驗對象只有綠色柑橘和背景2個類別,綜合考慮計算資源和檢測效果等因素,選擇中型網(wǎng)絡(luò)作為預(yù)訓(xùn)練模型。Faster RCNN結(jié)構(gòu)示意圖如圖5所示。
圖5 Faster RCNN結(jié)構(gòu)示意圖Fig.5 Structure diagram of Faster RCNN
1.3.1批處理大小
一般情況下,為準確計算損失函數(shù)對參數(shù)的梯度,需要對整個數(shù)據(jù)集上的每個樣本進行計算,對于深度網(wǎng)絡(luò)而言,這樣的計算量十分巨大。因此,在實踐中傾向于從數(shù)據(jù)集中分批隨機采樣少量的樣本,然后計算這些批樣本上的平均值。這種采樣策略被稱為minbatch或隨機minibatch,基于minibatch的梯度下降方法被稱為隨機梯度下降。隨機梯度下降更新參數(shù)的算法如下[21]。
算法1:隨機梯度下降(SGD)在第k個訓(xùn)練迭代的更新
while沒有達到停止準則do
從訓(xùn)練集中隨機采樣包含m個樣本{x(1),x(2),…,x(m)}的minibatch,對應(yīng)目標(biāo)為y(i)。
應(yīng)用更新:θ←θ-g
end while
試驗分別測試了minibatch為32、64、128和256時,模型在測試集上的檢測精度,結(jié)果如表1所示。
表1 不同批處理對應(yīng)的模型檢測精度Tab.1 Detection accuracy of model with different batch sizes %
分析minibatch大小與MAP的變化關(guān)系,可以看出,試驗選定的范圍內(nèi),minibatch取得越大,MAP也相應(yīng)隨之有所提高,但MAP的增量并非是minibatch線性增量,而是小于線性的。如minibatch從64增加到128以及從128增加到256是成倍的增加,但是與之相應(yīng)的MAP兩次都只提高了約2個百分點。
考慮到增大minibatch后,訓(xùn)練時間增加明顯,參數(shù)的學(xué)習(xí)也顯得更加緩慢,而小的minibatch訓(xùn)練時需要較小的學(xué)習(xí)速率以維持穩(wěn)定性。綜合以上兩點,試驗在此階段暫時選擇候選minibatch大小為64和128。
1.3.2學(xué)習(xí)速率和動量
學(xué)習(xí)速率和動量的選取直接影響檢測網(wǎng)絡(luò)的訓(xùn)練速度和結(jié)果,本文選取一些較常用的學(xué)習(xí)速率和動量作為候選值,通過試驗確定較為合適的學(xué)習(xí)速率和動量。試驗選擇0.1、0.01和0.001作為初始學(xué)習(xí)速率的候選值,以0.5、0.9和0.99作為動量系數(shù)α的候選值,以1.3.1節(jié)中選擇的64和128作為批處理s候選值?;谶@些候選值設(shè)計了多組對比試驗,首先確定了學(xué)習(xí)速率,接著確定批處理大小,最終確定動量的大小。參數(shù)的組合情況和測試結(jié)果如表2所示。
表2 不同參數(shù)組合對應(yīng)的測試精度Tab.2 Detection accuracy of different parameter combinations
試驗首先在不加入動量,批處理大小設(shè)置為64的基礎(chǔ)上,測試了不同學(xué)習(xí)速率對檢測精度的影響,其中當(dāng)學(xué)習(xí)速率為0.1時,訓(xùn)練出現(xiàn)發(fā)散,可能原因為0.1作為初始學(xué)習(xí)速率過大。學(xué)習(xí)速率為0.001時,MAP略小于0.01對應(yīng)的值,可能原因為0.001相對于0.01對應(yīng)的損失函數(shù)值迭代到極小值鄰域較慢。據(jù)此,在第4組試驗中,確定0.01為初始學(xué)習(xí)速率,對比第2組和第4組,當(dāng)批處理取128時的MAP比批處理取64時的MAP高。最終,試驗在第4組參數(shù)的條件下加入動量,分別測試了動量系數(shù)為0.5、0.9和0.99時的MAP,由表2可以看出,動量系數(shù)為0.9時取得的MAP最高。因此,試驗最終確定初始學(xué)習(xí)速率為0.01,批處理為128,動量系數(shù)為0.9。
使用上節(jié)得到的超參數(shù),基于原始訓(xùn)練集,對模型進行訓(xùn)練以學(xué)習(xí)模型參數(shù)。該階段使用的訓(xùn)練集為原始數(shù)據(jù)集,模型參數(shù)使用Xavier方法初始化,當(dāng)檢測網(wǎng)絡(luò)和RPN網(wǎng)絡(luò)迭代到20 000和40 000步時,損失函數(shù)值趨于平穩(wěn),如圖6所示為Faster RCNN第2輪訓(xùn)練時,RPN網(wǎng)絡(luò)和檢測網(wǎng)絡(luò)的損失值變化曲線。最終損失函數(shù)值穩(wěn)定在[0.1,0.2]區(qū)間的鄰域內(nèi),模型在驗證集上的MAP為85.49%,使用GeForce GTX 1080顯卡運行檢測一幅綠色柑橘圖像的平均時間為0.4 s。
圖6 Faster RCNN訓(xùn)練階段損失值變化情況Fig.6 Changing conditions of loss value in training stage of Faster RCNN
分析誤差出現(xiàn)的原因可能在于:試驗數(shù)據(jù)考慮了多種狀態(tài)的樣本,可能在某些狀態(tài)下,柑橘的特征不如其他狀態(tài)明顯,比如逆光和陰天等條件下收集到的樣本,從而提高了錯誤識別率。另一個可能原因在于,模型對小尺度的物體檢測不敏感,比如遠距離拍攝的柑橘圖像,圖像中的柑橘尺度較小,不容易被檢測到。為了直觀感受Faster RCNN的檢測效果,使用該模型在測試圖像上進行效果測試,得到的部分檢測結(jié)果如圖7所示。
圖7 Faster RCNN部分檢測結(jié)果示例Fig.7 Examples of detection results for Faster RCNN
為了進一步驗證模型的有效性,試驗選擇基于Otsu閾值分割法的傳統(tǒng)圖像處理方法作為參照,對比Faster RCNN和Otsu 2種算法的檢測效果。分別從圖像中果實個數(shù)、果實面積半徑和拍攝的光照角度3個方面進行對比分析,每個分析變量又分別設(shè)置了3次對比試驗。為了對比2種算法的檢測效果,首先需要對檢測效果和評價指標(biāo)進行約定。
由于正確率和召回率在某些情況下會出現(xiàn)矛盾情況,所以需要綜合考慮。Faster RCNN中使用了MAP,是基于候選框的類別概率排序,而Otsu算法并沒有根據(jù)概率或其他參考值對包圍框進行排序,同時,Otsu算法每次產(chǎn)生的包圍框個數(shù)較少,使用少量包圍框樣本的召回率和正確率來計算MAP會存在計算復(fù)雜度與計算誤差相對較大的問題。因此,本試驗定義一個F值作為對比評價指標(biāo),具體計算公式為
(1)
其中,P、R分別表示正確率和召回率,P等于模型檢索到的正確的正樣本數(shù)除以模型檢索到的正樣本總數(shù);R等于模型檢索到的正確的正樣本數(shù)除以所有正樣本總數(shù)。
在試驗中,為每個對比條件收集100個樣本,同時為所有對比條件收集30個背景樣本,每次對比試驗中,從每個條件的100個樣本和30個背景樣本的組合集中隨機抽取100個樣本,組成該次試驗的測試集,將測試集中的背景樣本作為負樣本,其余樣本作為正樣本。若算法能有效檢測出正樣本中超過50%的柑橘目標(biāo),則認為該正樣本被檢索到,利用被檢索到的正樣本數(shù)、被檢索到的所有樣本數(shù)和正樣本總數(shù)計算召回率和正確率進而得到F值。每個對比條件重復(fù)3次對比試驗,取3個F值的均值作為評價結(jié)果。
在實際柑橘圖像中,往往包含不同個數(shù)的果實對象,對檢測造成不同的影響,如在單果圖像中,果實對象一般比較完整清晰,識別難度低,在多果圖像中,有可能存在果實粘連甚至相互遮擋等情況,增加了檢測的難度。因此本節(jié)對比試驗共設(shè)置了3個梯度,分別為圖像中具有1個果實、2~5個果實以及5個以上果實,目的是對比2種算法在圖像包含不同果實個數(shù)下的檢測性能,分析2種算法在哪個梯度范圍內(nèi)表現(xiàn)較佳。圖8為2種算法對含不同個數(shù)果實圖像的檢測效果。
圖8 2種算法對含不同個數(shù)果實圖像的檢測效果Fig.8 Detection results of two algorithms on images with different amounts of fruits
試驗首先從原始測試集中隨機抽取若干幅圖像,對應(yīng)3個梯度進行分類,再次隨機抽取直到3個梯度類別中均達到100幅圖像,在每個梯度的樣本中加入30幅背景圖像組成該梯度的數(shù)據(jù)集。分3次從每個梯度的數(shù)據(jù)集中抽取出100幅作為試驗的測試集,使用2種算法對測試集的圖像進行檢測,檢測結(jié)果如表3所示。
表3 含不同個數(shù)果實的圖像對比試驗結(jié)果Tab.3 Comparison results of images with different amounts of fruit %
表3中的綜合結(jié)果計算方式為:將每次試驗的數(shù)據(jù)集樣本數(shù)、正樣本總數(shù)、被檢測到的樣本數(shù)和被檢測到的正樣本數(shù)分別求和,然后采用與每次試驗相同的方法計算總體的召回率、正確率和F值。從綜合結(jié)果來看,F(xiàn)aster RCNN的檢測效果優(yōu)于Otsu,F(xiàn)aster RCNN的F值比Otsu的F值高22.24個百分點,特別是對于果實個數(shù)大于5的圖像,F(xiàn)aster RCNN的F值約為Otsu的2倍,說明相對于Otsu,F(xiàn)aster RCNN不僅能提高其對單果的檢測精度,而且能夠?qū)Χ喙M行較精確的檢測。經(jīng)過分析,使用Faster RCNN多果識別效果比單果識別效果差的主要原因是多果靠得太近或存在相互遮擋時,被識別成是一個果實區(qū)域,或被遮擋太多的果實沒有被識別出來。
與不同果實個數(shù)的情況類似,如果圖像中的果實半徑較大,則枝葉背景對識別過程的影響相對較小,如果果實半徑較小,則往往出現(xiàn)被枝葉遮擋,難以檢測等情況。與2.2節(jié)試驗方法相同,結(jié)合攝像機標(biāo)定的有效拍攝距離50~110 cm,分別設(shè)置了3個測試梯度:半徑大于50像素,半徑在30~50像素之間,半徑在30像素以下。圖9為2種算法對不同尺寸果實的檢測效果圖像。
依照2.1節(jié)的抽樣方法,從原始測試集中分別抽取出3個梯度的試驗數(shù)據(jù)。對每個梯度相應(yīng)的測試樣本,使用2種算法分別進行3次檢測試驗,得到的統(tǒng)計結(jié)果如表4所示。
從表4可以看出,2種算法的最佳檢測效果均出現(xiàn)在半徑大于50像素范圍,F(xiàn)aster RCNN的F值為85.76%,比Otsu高出約17個百分點,同時相對于另外2個對比條件,2種算法在半徑小于30像素的試驗組中均表現(xiàn)較差,F(xiàn)aster RCNN的F值為54.84%,Otsu的F值為27.45%。綜上數(shù)據(jù)可知,F(xiàn)aster RCNN對果實半徑大于30像素的圖像的檢測效果較好,可以用于識別半徑大于30像素的果實。而Faster RCNN在半徑小于30像素的圖像上表現(xiàn)不足的可能原因為樣本豐富度不夠,采集圖像時拍攝的半徑較小果實圖像較少,導(dǎo)致半徑較小果實數(shù)據(jù)集的樣本較少。
表4 不同半徑的果實對比試驗結(jié)果Tab.4 Comparison results of fruit with different radii %
前兩組試驗主要分析了果實個數(shù)和面積因素對檢測效果的影響,在試驗數(shù)據(jù)中,除了以上內(nèi)部因素外,還存在其他外部影響因素,比如拍攝時的光照角度。本節(jié)試驗選擇了側(cè)光、順光和逆光作為研究變量,設(shè)計了3個對比試驗進行分析。圖10為2種算法對不同光照角度下果實的檢測效果。
圖10 2種算法對不同光照角度下果實的檢測效果Fig.10 Detection results of two algorithms on fruit under different illumination angles
從圖10可以看出,側(cè)光時,果實與枝葉的顏色相近,但紋理差異較明顯,在順光條件下,果實和枝葉的局部表面亮度增強,部分遮擋的枝葉會在果實表面留有陰影,在逆光條件下,果實與枝葉的亮度均變暗,顏色與紋理差異均不明顯。試驗使用與2.2節(jié)相同的方法,針對3種光照角度,通過重復(fù)隨機抽樣采集了3組測試集,使用2種算法對每組測試集分別進行3次檢測試驗,統(tǒng)計結(jié)果如表5所示。
表5 不同光照角度果實的對比試驗結(jié)果Tab.5 Comparison result of fruit under different illumination angles %
從表5可以看出,不同光照下Otsu算法的檢測效果均低于Faster RCNN,同時兩種檢測算法的檢測效果在側(cè)光條件下達到最佳,在逆光時兩種算法的檢測效果最差,經(jīng)過分析導(dǎo)致逆光條件下檢測效果差的原因為:逆光條件下,果實和樹葉在圖像中顯現(xiàn)的灰度均很低,邊緣沒有明顯的梯度,紋理特征也被弱化,大大增加了該條件下的檢測難度。
綜上所述,3組對比試驗證明了基于Faster RCNN算法進行綠色柑橘檢測的有效性,試驗結(jié)果表明,F(xiàn)aster RCNN算法不僅適用于單果的檢測,對于多果的檢測精度也較高,可用于果園采摘機器人的定位檢測,同時,適用于對中小面積半徑的果實的檢測,可用于中小型果園的產(chǎn)量預(yù)估。
(1)提出了一種基于Faster RCNN的綠色柑橘視覺檢測方法,基于Faster RCNN深度框架,結(jié)合自然環(huán)境綠色柑橘的顏色特征,通過多次模型的參數(shù)調(diào)整,確定了適用于綠色柑橘檢測的學(xué)習(xí)速率、批處理大小和動量系數(shù),最終訓(xùn)練得到的模型在驗證集上的MAP為85.49%,檢測一幅圖像的平均運行時間為0.4 s,滿足實時檢測的要求。
(2)為了驗證該方法的有效性和可行性,設(shè)計了3種條件下的對比試驗,從圖像中柑橘的個數(shù)、柑橘的半徑和自然環(huán)境下拍攝柑橘圖像的光照角度3方面進行Faster RCNN檢測柑橘的效果分析,與Otsu檢測結(jié)果進行對比分析,F(xiàn)aster RCNN具有較高的泛化性能以及檢測精度。
1陳磊,陳帝伊,馬孝義. 果蔬采摘機器人的研究[J]. 農(nóng)機化研究, 2011,33(1): 224-227.
CHEN Lei,CHEN Diyi,MA Xiaoyi. Researching on the fruit and vegetable harvesting robot[J]. Journal of Agricultural Mechanization Research, 2011,33(1): 224-227.(in Chinese)
2徐銘辰,牛媛媛,余永昌. 果蔬采摘機器人研究綜述[J]. 安徽農(nóng)業(yè)科學(xué), 2014(31): 11024-11027.
XU Mingchen, NIU Yuanyuan, YU Yongchang. Review of research on picking robots of fruits and vegetables[J]. Journal of Anhui Agricultural Sciences, 2014(31): 11024-11027. (in Chinese)
3ARIVAZHAGAN S, SHEBIAH R N, NIDHYANANDHAN S S, et al. Fruit recognition using color and texture features[J]. Journal of Emerging Trends in Computing and Information Sciences, 2010, 2(1): 90-94.
4XU Y, IMOU K, KAIZU Y, et al. Two-stage approach for detecting slightly overlapping strawberries using HOG descriptor[J]. Biosystems Engineering, 2013, 115(2): 144-153.
5MOGHIMI A, AGHKHANI M H, MAHMOOD R, et al. A robo-vision algorithm for automatic harvesting of green bell pepper[C]∥ASABE Annual International Meeting,2015: 2-10.
7馬曉丹, 劉剛, 周薇, 等. 基于量子遺傳模糊神經(jīng)網(wǎng)絡(luò)的蘋果果實識別[J/OL]. 農(nóng)業(yè)機械學(xué)報, 2013, 44(12): 227-232,251.http:∥www.j-csam.org/jcsam/ch/reader/view_abstract.aspx?file_no=20131238&flag=1. DOI:10.6041/j.issn.1000-1298.2013.12.038.
MA Xiaodan, LIU Gang, ZHOU Wei, et al. Apple recognition based on fuzzy neural network and quantum genetic algorithm[J/OL]. Transactions of the Chinese Society for Agricultural Machinery, 2013, 44(12): 227-232, 251. (in Chinese)
8宋西平, 李國琴, 羅陸鋒, 等. 基于HSI色彩空間與FFCM聚類的葡萄圖像分割[J]. 農(nóng)機化研究, 2015,37(10): 40-44.
SONG Xiping, LI Guoqin, LUO Lufeng, et al. Segmentation of grapes image based on HSI color space and FFCM clustering algorithm[J]. Journal of Agricultural Mechanization Research, 2015,37(10):40-44. (in Chinese)
9沈甜. 蘋果采摘機器人重疊果實快速動態(tài)識別及定位研究[D]. 鎮(zhèn)江: 江蘇大學(xué), 2016.
SHEN Tian. Research on fast dynamic recognition and location of overlapping fruit for apple harvesting robot[D]. Zhenjiang: Jiangsu University, 2016. (in Chinese)
10KURTULMUS F, LEE W S, VARDAR A. Green citrus detection using ‘eigenfruit’, color and circular Gabor texture features under natural outdoor conditions[J]. Computers and Electronics in Agriculture, 2011, 78:140-149.
11張春龍, 張楫, 張俊雄, 等. 近色背景中樹上綠色蘋果識別方法[J/OL]. 農(nóng)業(yè)機械學(xué)報, 2014, 45(10): 277-281.http:∥www.j-csam.org/jcsam/ch/reader/view_abstract.aspx?file_no=20141043&flag=1. DOI:10.6041/j.issn.1000-1298.2014.10.043.
ZHANG Chunlong, ZHANG Ji, ZHANG Junxiong, et al. Recognition of green apple in similar backgroud[J/OL]. Transactions of the Chinese Society for Agricultural Machinery, 2014, 45(10):277-281. (in Chinese)
12ZHAO Chuanyuan, LEE Won Suk, HE Dongjian. Immature green citrus detection based on colour feature and sum of absolute transformed difference (SATD) using colour images in the citrus grove[J]. Computers and Electronics in Agriculture, 2016, 124: 243-253.
13趙源深, 貢亮, 周斌,等. 番茄采摘機器人非顏色編碼化目標(biāo)識別算法研究[J/OL]. 農(nóng)業(yè)機械學(xué)報, 2016, 47(7):1-7.http:∥www.j-csam.org/jcsam/ch/reader/view_abstract.aspx?file_no=20160701&flag=1. DOI:10.6041/j.issn.1000-1298.2016.07.001.
ZHAO Yuanshen, GONG Liang, ZHOU Bin, et al. Object recognition algorithm of tomato harvesting robot using non-color coding approach[J/OL]. Transactions of the Chinese Society for Agricultural Machinery,2016, 47(7):1-7. (in Chinese)
14高震宇,王安,劉勇,等. 基于卷積神經(jīng)網(wǎng)絡(luò)的鮮茶葉智能分選系統(tǒng)研究[J/OL]. 農(nóng)業(yè)機械學(xué)報,2017,48(7):53-58.http:∥www.j-csam.org/jcsam/ch/reader/view_abstract.aspx?file_no=20170707&flag=1. DOI:10.6041/j.issn.1000-1298.2017.07.007.
GAO Zhenyu, WANG An, LIU Yong, et al. Intelligent fresh-tea-leaves sorting system research based on convolution neural network[J/OL]. Transactions of the Chinese Society for Agricultural Machinery, 2017, 48(7): 53-58. (in Chinese)
15REN Shaoqing, HE Kaiming, GIRSHICK R, et al. Faster RCNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6):1137-1149.
16GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]∥IEEE Conference on Computer Vision and Pattern Recognition, 2014: 580-587.
17GIRSHICK R. Fast-RCNN[C]∥IEEE International Conference on Computer Vision, 2015: 1440-1448.
18桑軍,郭沛,項志立,等. Faster-RCNN的車型識別分析[J]. 重慶大學(xué)學(xué)報:自然科學(xué)版, 2017,40(7): 32-36.
SANG Jun,GUO Pei,XIANG Zhili,et al. Vehicle detection based on Faster-RCNN[J]. Journal of Chongqing University:Natural Science Edition,2017,40(7): 32-36.(in Chinese)
19JIANG H, LEARNEDMILLER E. Face detection with the Faster RCNN[C]∥2017 12th IEEE International Conference on Automatic Face & Gesture Recognition,2016:650-657.
20SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[J]. Computer Science, 2014, ArXiv Preprint ArXiv: 1409.1556.
21LECUN Y, BOSER B, DENKER J S, et al. Backpropagation applied to handwritten zip code recognition[J]. Neural Computation, 1989, 1(4): 541-551.