劉 哲,黃文準(zhǔn),王利平
?
基于改進(jìn)K-means聚類算法的大田麥穗自動計數(shù)
劉 哲,黃文準(zhǔn),王利平
(西京學(xué)院信息工程學(xué)院,西安 710123)
單位種植面積的小麥麥穗數(shù)量是評估小麥產(chǎn)量和小麥種植密度的一個重要參量。為了實現(xiàn)高效、自動地麥穗計數(shù),該文提出了基于改進(jìn)K-means的小麥麥穗計數(shù)方法。該方法建立從圖像低層顏色特征到圖像中包含麥穗的一個直接分類關(guān)系,從而不需要再對圖像進(jìn)行分割或檢測。以顏色特征聚類為基礎(chǔ)的這種方法能夠估計麥穗在空間局部區(qū)域中數(shù)量,并且在不需要訓(xùn)練的情況下更具有可擴展性。統(tǒng)計試驗結(jié)果表明,該文算法能夠適應(yīng)不同光照環(huán)境,麥穗計數(shù)的準(zhǔn)確率達(dá)到94.69%,超過了傳統(tǒng)基于圖像顏色特征和紋理特征分割的麥穗計數(shù)方法93.1%的準(zhǔn)確率。
圖像分割;圖像處理;算法;麥穗計數(shù);K-means;聚類
小麥種植密度不僅影響小麥生長對水、肥料的需求,而且影響小麥群體內(nèi)的通風(fēng)和透光,進(jìn)而影響到小麥個體的生長發(fā)育,從而影響小麥的產(chǎn)量[1-2]。單位小麥種植面積的麥穗數(shù)是實現(xiàn)局部范圍小麥產(chǎn)量預(yù)測和種植密度評估的重要參數(shù)之一。目前國內(nèi)外已有研究學(xué)者將圖像處理和視頻監(jiān)控技術(shù)應(yīng)用于作物生長監(jiān)控中,并且對小麥產(chǎn)量預(yù)測做了一些有意義的研究工作,尤其是在基于圖像處理技術(shù)的小麥麥穗自動計數(shù)方面做了一些探索。國內(nèi),劉濤等[3]提出了利用圖像的顏色特征和紋理特征對大田環(huán)境下麥穗圖像進(jìn)行分割,該方法在麥穗圖像沒有粘連時計數(shù)精度較高可達(dá)到93%,當(dāng)麥穗粘連時該方法精度較差。范夢陽等[4]提出了提取麥穗的顏色、紋理特征,采用SVM 學(xué)習(xí)的方法,精確提取小麥麥穗輪廓,同時構(gòu)建麥穗特征數(shù)據(jù)庫,對麥穗的二值圖像細(xì)化得到麥穗骨架;最后通過計算麥穗骨架的數(shù)量以及麥穗骨架有效交點的數(shù)量得到圖像中麥穗的數(shù)量,統(tǒng)計的平均計數(shù)精度達(dá)到93.1%。趙鋒等[5]提出一種基于乳熟期小麥麥穗顏色特征以及選取Haar特征的AdaBoost算法相結(jié)合的麥穗檢測方法,并以綜合紋理、形狀的LBP特征來取代Haar特征對Adaboost算法改進(jìn)。Zhu等[6]和Cointault 等[7]分別設(shè)計了一種箱式結(jié)構(gòu)的麥穗計數(shù)系統(tǒng),該系統(tǒng)四周用黑色材料進(jìn)行蒙皮,內(nèi)部裝有彩色攝像機和光源,這種設(shè)計能有效地避免太陽光和遮擋陰影對成像的影響,運用圖像處理技術(shù)實現(xiàn)對麥穗精確計數(shù),但是該系統(tǒng)結(jié)構(gòu)復(fù)雜、不便于移動,影響了該系統(tǒng)的運用。Jose等[8]提出利用拉普拉斯頻域濾波器去除圖像中高頻和低頻部分,然后用中值濾波器去除麥穗圖像的噪聲,最后找到圖像的局部峰值的個數(shù),從而實現(xiàn)麥穗的計數(shù)。Dornbusch等[9]提出基于RGB圖像,利用邊緣檢測、膨脹腐蝕、孔洞區(qū)域填充等方法對麥穗進(jìn)行計數(shù),并且對在不同氮條件下生長的5種無芒小麥品種進(jìn)行檢測試驗,麥穗計數(shù)準(zhǔn)確率達(dá)到91%。
其他類似的應(yīng)用有,如用高分辨率的天頂RGB圖像來估計樹的密度[10-14],使用了與上述文獻(xiàn)類似的圖像處理技術(shù)。在通過航空和高分辨率衛(wèi)星圖像進(jìn)行樹冠檢測時,經(jīng)常使用平滑濾波器來簡化樹冠形式并降低圖像噪聲,同時,局部極大值濾波器也被應(yīng)用于高分辨率空間圖像以檢測可能的樹冠中心。針對水果測量和識別應(yīng)用(如蘋果、藍(lán)莓、葡萄、芒果等),系統(tǒng)在RGB色彩空間中使用了高分辨率的圖像以優(yōu)化目標(biāo)對象的圖像特征,然后進(jìn)行分割處理任務(wù)[15-23]。作物密度是用于管理農(nóng)作物和估算產(chǎn)量的關(guān)鍵農(nóng)藝性狀,用高分辨率RGB相機拍攝的RGB圖像被分類以識別對應(yīng)于植物的綠色像素,提取裁剪行并識別連接的組件(對象),然后訓(xùn)練神經(jīng)網(wǎng)絡(luò),使用對象特征估計對象中的植物數(shù)量[24]。一些學(xué)者基于像素水平的顏色特征[25-27]和紋理特征[26-31]分割果穗,處理速度快,但極易產(chǎn)生噪聲。通過生成候選區(qū)域,判定候選區(qū)域的類別(穗或背景),可提高分割準(zhǔn)確度。深度卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)是近幾年來興起的一種適用于圖像分析的深度學(xué)習(xí)模型[32-33],已成功應(yīng)用于農(nóng)業(yè)圖像識別與分割。在作物果穗識別與分割方面,Pound等[34]利用CNN實現(xiàn)了小麥特征部位如根尖、穗尖、穗基部等的識別。Xiong等[35]提出了一種基于超像素分割和CNN的稻穗分割算法-Panicle-SEG,能很好地應(yīng)用于不同品種及生育期的大田稻穗分割,該算 法缺點在于需要構(gòu)建大量的樣本庫進(jìn)行訓(xùn)練,算法耗時較長。
上述方法都是基于圖像的顏色特征、紋理特征、Haar特征等,運用圖像分割技術(shù)或者SVM方法來實現(xiàn)麥穗計數(shù)。本文提出基于改進(jìn)的K-means算法麥穗數(shù)量估計方法,該方法通過顏色特征,建立從圖像低層特征到圖像中包含麥穗數(shù)的一個直接映射關(guān)系,從而不需要再對目標(biāo)進(jìn)行分割或檢測。這是一種充分利用麥穗圖像顏色特征,將局部區(qū)域內(nèi)提取的子區(qū)域面積特征作為麥穗判斷依據(jù),從而把聚類區(qū)域內(nèi)的子區(qū)域數(shù)作為麥穗數(shù)估計值輸出避免了目標(biāo)檢測和定位的任務(wù)。
麥穗圖像于2017年5月中下旬和2018年5月中下旬在寶雞農(nóng)科院試驗場拍攝,此時小麥正處于灌漿期,生長態(tài)勢良好。攝像機選用陜西維視MV-E工業(yè)相機,該相機為1 000萬像素,采用千兆以太網(wǎng)絡(luò)進(jìn)行傳輸,相機功耗低、散熱良好,具有圖像質(zhì)量清晰、色彩還原性好和工作穩(wěn)定等特點,支持IO信號輸入輸出。小麥品種主要以西農(nóng)979為主,在晴天逆光條件下垂直拍攝,拍攝高度距離地面150 cm,拍照時間10:00—14:00。另外為了驗證本文提出算法的可行性,本文從相關(guān)文獻(xiàn)和網(wǎng)絡(luò)收集了相關(guān)大量的麥穗圖片進(jìn)行算法的驗證。圖1給出了部分試驗樣本圖像。
圖1 麥穗圖像
圖1所示的圖像求反色,結(jié)果如圖2所示。由圖2可以看出,反色圖像體現(xiàn)的更加明顯,麥穗圖像的顏色值、耕地顏色值、葉子和莖稈顏色值三者有明顯的差異?;谝陨戏治?,可以用圖像聚類算法對麥穗圖像進(jìn)行聚類,從而提取出麥穗。
K-means是聚類算法中一種典型的基于距離的聚類算法,采用歐式距離作為相似性的評價指標(biāo),即認(rèn)為2個對象的距離越近,其相似度就越大。該算法認(rèn)為簇是由空間歐式距離靠近的對象組成的,因此把得到緊湊且獨立的簇作為最終目標(biāo)。該算法通過預(yù)先設(shè)定的值及每個類別的初始聚類中心對相似的數(shù)據(jù)點進(jìn)行劃分。并通過劃分后的聚類中心與本聚類中其他點之間距離均值迭代優(yōu)化獲得最優(yōu)的聚類結(jié)果。
由K-means算法可以看出,該算法存在以下2個缺點:1)該算法中是事先給定的,這個值的選定是非常難以估計的。很多時候,事先并不知道給定的數(shù)據(jù)集應(yīng)該分成多少個類別才最合適;2)算法中,首先需要根據(jù)初始聚類中心來確定一個初始劃分,然后對初始劃分進(jìn)行優(yōu)化。這個初始聚類中心的選擇對聚類結(jié)果有較大的影響,如果初始值選擇的不好,可能無法得到有效的聚類結(jié)果。
1)本身的密度大,即它被密度不超過它的鄰居包圍;
2)與其他類之間的類間距大。
在此定義2個參數(shù)ρ和δ,ρ表示第個數(shù)據(jù)點的局部密度,δ表示第個數(shù)據(jù)點與最近鄰類間距離。首先,求出數(shù)據(jù)x與數(shù)據(jù)集中其他數(shù)據(jù)點x之間的距離d,于是
式中代表密度值最大的個數(shù)據(jù)點,本文選取2。由上面的分析可以看出,當(dāng)ρ和δ的值都很大時,可以選取x為聚類中心。
按照上文,計算出每個像素點的(ρ,δ),設(shè)t=ρδ,依據(jù)麥穗圖像由麥穗、耕地和麥葉麥莖3部分構(gòu)成,選取t值最大的3個像素點作為麥穗圖像的3個聚類中心,然后依據(jù)相近原則,將所有像素點進(jìn)行聚類。
1)傳統(tǒng)的K-means算法的聚類準(zhǔn)則函數(shù)值都明顯大于改進(jìn)K-means算法的聚類準(zhǔn)則函數(shù)值,聚類準(zhǔn)則函數(shù)代表類內(nèi)距離,聚類準(zhǔn)則函數(shù)值越小代表算法的聚類結(jié)效果更好。另外,對于每個數(shù)據(jù)集,改進(jìn)K-means算法的聚類準(zhǔn)確率都明顯高于傳統(tǒng)K-means算法,改進(jìn)K-means算法聚類結(jié)果更優(yōu),證實了改進(jìn)K-means算法中選擇的初始聚類中心比較理想。
注:ρi表示第i個數(shù)據(jù)點的局部密度,δi表示第i個數(shù)據(jù)點與最近鄰類間距離;圖中數(shù)字表示數(shù)據(jù)編號。
表1 聚類算法性能比較
2)改進(jìn)K-means算法運行時間上遠(yuǎn)小于傳統(tǒng)的K-means算法。隨著類別數(shù)和數(shù)據(jù)量的增加,傳統(tǒng)K-means算法運行時間消耗快速增加,而改進(jìn)K-means算法運行時間消耗增長緩慢。在實際應(yīng)用中,為了得到較準(zhǔn)確的聚類結(jié)果,通常都要多次執(zhí)行K-means算法,而采用本文的改進(jìn)算法只需執(zhí)行一次,因此在時間性能上,本文的改進(jìn)算法要遠(yuǎn)遠(yuǎn)優(yōu)于傳統(tǒng)K-means算法。
3)改進(jìn)K-means算法能夠準(zhǔn)確地計算出類別數(shù)和聚類中心,在隨著數(shù)據(jù)量和類別數(shù)增大,改進(jìn)K-means算法在計算聚類數(shù)時會出些錯誤。
利用改進(jìn)的K-means算法對圖1所示麥穗圖像進(jìn)行分類,結(jié)果如圖4所示,可以看出,利用本文提出的聚類算法能將麥穗、耕地、麥葉和莖稈很好地區(qū)分出來。
圖4 利用改進(jìn)的K-means聚類算法對麥穗圖像分割結(jié)果
根據(jù)上述分類結(jié)果,麥穗圖像中綠色區(qū)域代表麥穗部分,提取出只含有麥穗的圖像并進(jìn)行二值化,二值化后的結(jié)果如圖5所示。從二值化圖可以看出,圖中絕大部分二值化區(qū)域是麥穗圖像,少部分過小或過大的二值化區(qū)域是由葉子影響造成。麥穗計數(shù)步驟如下:
1)將圖像中的各個孤立連通區(qū)域找出并標(biāo)記;
2)計算各個不同二值區(qū)域的面積,面積用區(qū)域的像素數(shù)表示;
3)運用本文提出的面積濾波器對二值化區(qū)域進(jìn)行濾波,過濾掉面積過小或過大的連通區(qū)域;
4)對剩余的二值化連通區(qū)域運用改進(jìn)K-means聚類進(jìn)行計數(shù),得到麥穗的數(shù)量。
根據(jù)萊特準(zhǔn)則,當(dāng)時,為異常值予以剔除。經(jīng)過面積濾波后,濾除了面積極大極小非麥穗連通區(qū)域,剩下連通區(qū)域就為麥穗。麥穗計數(shù)算法流程圖如圖6所示。
圖6 麥穗計數(shù)算法流程圖
為了驗證本文算法的有效性,于2017年5月初至2017年6月中旬、2018年5月初至2018年6月中旬,在寶雞農(nóng)業(yè)科學(xué)院采集了500幅小麥圖片。在晴天逆光條件下垂直拍攝,拍攝高度距離地面150 cm,設(shè)計了以下3種試驗。
1)選擇不同的顏色特征空間,分析本文算法在不同顏色特征空間對麥穗圖像的分類效果;
2)在不同光照條件、小麥不同密集程度和不同拍攝角度下本文算法的適應(yīng)性分析;
3)通過試驗,比較本文麥穗計數(shù)方法與其他自動麥穗計數(shù)方法的準(zhǔn)確率及計數(shù)效率。
本文通過選取麥穗圖像的(,,)顏色空間,運用改進(jìn)的K-means聚類算法對麥穗圖像進(jìn)行分類,取得了比較好的分類效果,如圖3所示。為了進(jìn)一步分析不同顏色特征空間對麥穗圖像分類效果的影響,同時考慮到麥穗圖像顏色空間中綠色分量占比大于其他2個顏色分量,所以選取在超綠顏色特征值空間E與綠色特征空間進(jìn)行本文算法分類效果驗證試驗。
為了便于比較分析,分別選取圖1c和1d在綠色和超綠色2個特征空間進(jìn)行比較分析。圖7給出了這2幅圖像中麥穗、耕地、葉子和莖稈在綠色和超綠色特征空間的直方圖。由圖可以看出:1)在綠色空間基本上可以把麥穗、耕地、葉子區(qū)分開,麥穗與耕地、葉片具有明顯的差異,可以利用閾值分割進(jìn)行提取,但也有少量葉片在顏色特征上與麥穗接近,會影響麥穗的提取效果;2)在超綠色空間可以把麥穗、耕地、葉子區(qū)分的更為明顯,目標(biāo)的效果分類效果更好。根據(jù)對500幅圖像的分析,超綠顏色空間更適合于麥穗分割。圖8給出了圖1 c和1d在超綠顏色特征空間的運用分文算法的分割結(jié)果,與圖4相比分割效果更優(yōu)。所以,在下一步實際推廣應(yīng)用中選用超率顏色特征空間。
圖8 基于超綠空間的改進(jìn)K-means圖像分割圖
拍照時間于2018年5月初至2018年6月中旬的上午10:00至下午14:00,拍照天氣覆蓋了陰天、多云和晴天,拍照方式有垂直拍攝和側(cè)拍,拍攝高度距離地面150 cm,太陽光有垂直照射、傾斜照射,拍攝的圖片涵蓋了小麥不同生長期。根據(jù)試驗結(jié)果統(tǒng)計,本文方法能較好地實現(xiàn)小麥麥穗的自動標(biāo)記和計數(shù),且計數(shù)準(zhǔn)確率高。圖9給出了部分處理結(jié)果,分別對應(yīng)小麥的開花期、灌漿期和成熟期,而且對應(yīng)了不同小麥密集程度。從處理結(jié)果可以看出,本文算法能適應(yīng)復(fù)雜光照情況、不同小麥密集程度和傾斜角度拍照等情況,在實現(xiàn)小麥自動計數(shù)方面,具有一定的適應(yīng)性和拓展性。
圖9 本文算法適應(yīng)性分析結(jié)果圖
從試驗采集的500幅圖像中挑選出12幅圖像,分別運用本文算法和人工計數(shù)方法進(jìn)行麥穗計數(shù),統(tǒng)計結(jié)果如表2所示。
表2 人工計數(shù)與算法計數(shù)統(tǒng)計比較
由表2可以看出,統(tǒng)計的平均計數(shù)精度是94.69%,趙峰等[25]提出的基于改進(jìn)的AdaBoost算法精度約為84.3%,而基于Haar 特征的AdaBoost算法的精度約為67.1%。范夢陽等[4]采用提取麥穗的顏色、紋理特征,采用SVM 學(xué)習(xí)的方法的平均測量精度是93.1%。劉濤等[3]提出利用顏色特征和紋理特征分割麥穗和粘連區(qū)域麥穗個數(shù)的計算方法,通過對撒播和條播各35幅樣本圖像進(jìn)行計數(shù)試驗,準(zhǔn)確率為95.77%。本算法的計數(shù)精度高于上述前3種方法,略微低于上述最后一種方法,能滿足大田環(huán)境下小麥麥穗統(tǒng)計的需求。
將試驗中采集的500幅麥穗圖像,分別運用趙峰 等[25]、范夢陽等[4]、劉濤等[3]提出的算法和本文提出算法進(jìn)行麥穗計數(shù),統(tǒng)計每種算法的計數(shù)效率。經(jīng)統(tǒng)計,本文算法的麥穗計數(shù)效率分別是以上3種文獻(xiàn)中算法計數(shù)效率的2倍以上,分別為2.2、2.45、3.13倍。
圖10為麥穗利用算法計數(shù)和人工計數(shù)結(jié)果的1:1比較圖??梢钥闯觯m然算法計數(shù)較人工計數(shù)值較為偏高一些,但總體上兩者仍具有一致性,相關(guān)系數(shù)2=0.923。統(tǒng)計誤差在2.17%~7.41%之間,平均為5.31%。以上比較分析表明,說明利用本文方法可以有效地進(jìn)行麥穗自動計數(shù),且精度較高。
圖10 人工計數(shù)和算法計數(shù)的回歸分析
針對傳統(tǒng)的基于圖像顏色特征、紋理特征、Haar特征的麥穗圖像計數(shù)方法存在效率低和計數(shù)準(zhǔn)確率不高等問題,本文提出基于改進(jìn)的K-means算法麥穗數(shù)量估計方法。該方法通過顏色特征,建立從圖像低層特征到圖像中包含麥穗數(shù)的一個直接映射關(guān)系,從而不需要再對目標(biāo)進(jìn)行分割或檢測。這類方法更加適應(yīng)于復(fù)雜的光照和密集麥穗的場景,相比基于圖像分割的方法有更高的計算效率。在本文算法中將提取密集麥穗圖像中的局部顏色特征,最終圖片中的麥穗數(shù)估計值由改進(jìn)的K-means算法獲得。該方法能充分利用麥穗圖像顏色特征,局部區(qū)域內(nèi)提取的局部區(qū)域面積特征作為麥穗判斷依據(jù),聚類區(qū)域內(nèi)的子區(qū)域數(shù)作為麥穗數(shù)估計值輸出從而避免了目標(biāo)檢測和定位的任務(wù),也可以大大提高麥穗計數(shù)的準(zhǔn)確率。
1)提出了改進(jìn)的K-means聚類方法,該方法能夠自動提取出聚類中心和自動實現(xiàn)聚類,大大拓展了k-means聚類方法的準(zhǔn)確性和提高了聚類效率。該方法運用在麥穗自動計數(shù)中,平均計數(shù)精度為94.69%,計數(shù)效率是傳統(tǒng)自動麥穗計數(shù)方法的2倍以上。
2)本文算法能適應(yīng)復(fù)雜光照、不同小麥密集程度和傾斜角度拍照等情況,在實現(xiàn)小麥自動計數(shù)方面,具有較強的適應(yīng)性和拓展性。
[1] Olsen J, Kristensen L, Weiner J. Influence of sowing density and spatial pattern of spring wheat () on the suppression of different weed species[J]. Weed Biol Manag, 2006,34(6): 165?173.
[2] Olsen J, Weiner J. The influence of Triticum aestivum density, sowing pattern and nitrogen fertilization on leaf area index and its spatial variation[J].Basic Appl Ecol, 2007, 43(8): 252?265.
[3] 劉濤,孫成明,王力堅,等. 基于圖像處理技術(shù)的大田麥穗計數(shù)[J]. 農(nóng)業(yè)機械學(xué)報,2014,45(2):282?290.Liu Tao, Sun Chengming, Wang Lijian, et al. In-field wheatearcounting based on image processing technology[J]. Transactions of the Chinese Society for Agricultural Machinery, 2014, 45(2): 282?290.(in Chinese with English abstract)
[4] 范夢陽,馬欽,劉峻明,等. 基于機器視覺的大田環(huán)境小麥麥穗計數(shù)方法[J]. 農(nóng)業(yè)機械學(xué)報,2015,46(12):234-239. Fan Mengyang, Ma Qin, Liu Junming, et al. Counting method of wheat ear in field based on machine vision technology[J]. Transactions of the Chinese Society for Agricultural Machinery, 2015, 46(12): 234?239. (in Chinese with English abstract)
[5] 趙鋒,王克儉,苑迎春. 基于顏色特征和AdaBoost算法的麥穗識別的研究[J]. 作物雜志,2014,34(1):140-145. Zhao Feng, Wang Kejian, Yuan Yingchun. Study on wheat spike identification based on color features and adaboost algorithm[J]. Crops, 2014, 34(1):140?145. (in Chinese with English abstract)
[6] Zhu Y, Cao Z, Lu H, et al. In-field automatic observation of wheat heading stage using computer vision[J]. Biosyst Eng, 2016, 53(143): 28?41.
[7] Cointault F, Guerin D, Guillemin J, et al. In-field Triticum aestivum ear counting using colour-texture image analysis[J]. N Z J Crop Hortic Sci., 2008, 21(36): 117?130.
[8] Jose A. Fernandez-Gallego, Shawn C Kefauver, et al. Wheat ear counting in?field conditions: High throughput and low?cost approach using RGB images[J]. Plant Methods, 2018, 14(22): 21?33.
[9] Dornbusch T, Hawkesford M, Jansen M, et al. Digital field phenotyping by LemnaTec[Z]. Aachen: LemnaTec, 2015.
[10] Erikson M. Species classification of individually segmented tree crowns in high-resolution aerial images using radiometric and morphologic image measures[J]. Remote Sens Environ, 2004, 32(91): 469?477.
[11] Leckie D G, Gougeon F A, Tinis S, et al. Automated tree recognition in old growth conifer stands with high resolution digital imagery[J]. Remote Sens Environ, 2005, 33(94): 311?326.
[12] Leckie D G, Gougeon F A, Walsworth N, et al. Stand delineation and composition estimation using semi automated individual tree crown analysis[J]. Remote Sens Environ, 2003, 31(85): 355?369.
[13] Pouliot D A, King D J, Bell F W, et al. Automated tree crown detection and delineation in high-resolution digital camera imagery of coniferous forest regeneration[J]. Remote Sens Environ., 2002, 30(82): 322?334.
[14] Wulder M, Niemann K O, Goodenough D G. Local maximum filtering for the extraction of tree locations and basal area from high spatial resolution imagery[J]. Remote Sens Environ, 2000, 28(73): 103?114.
[15] Font D, Pallejà T, Tresanchez M, et al. Counting red grapes in vineyards by detecting specular spherical reflection peaks in RGB images obtained at night with artificial illumination[J]. Comput Electron Agric, 2014, 26(108): 105?117.
[16] Stajnko D, Lakota M, Ho?evar M. Estimation of number and diameter of apple fruits in an orchard during the growing season by thermal imaging[J]. Comput Electron Agric, 2004, 16(42): 31?42.
[17] Tian L F, Slaughter D C. Environmentally adaptive segmentation algorithm for outdoor image segmentation[J]. Comput Electron Agric,1998, 21: 153?168.
[18] Arroyo J, Guijarro M, Pajares G. An instance-based learning approach for thresholding in crop images under different outdoor conditions[J]. Comput Electron Agric, 2016, 28(127): 669?679.
[19] Guijarro M, Pajares G, Riomoros I, et al. Automatic segmentation of relevant textures in agricultural images[J]. Comput Electron Agric, 2011, 75(1): 75?83.
[20] Li H, Lee W S, Wang K. Identifying blueberry fruit of different growth stages using natural outdoor color images[J]. Comput Electron Agric, 2014, 106: 91?101.
[21] Payne A B, Walsh K B, Subedi P P, et al. Estimation of mango crop yield using image analysis : Segmentation method[J]. Comput Electron Agric, 2013, 25(91): 57?64.
[22] Payne A, Walsh K, Subedi P, et al. Estimating mango crop yield using image analysis using fruit at “stone hardening” stage and night time imaging[J]. Comput Electron Agric, 2014, 100: 160?167.
[23] Ruiz-Ruiz G, Gómez-Gil J, Navas-Gracia L M. Testing different color spaces based on hue for the environmentally adaptive segmentation algorithm (EASA)[J]. Comput Electron Agric, 2009, 68(1): 88?96.
[24] Liu Shouyang, Fred Baret, Denis Allard, et al. A method to estimate plant density and plant spacing heterogeneity: Application to wheat crops[J]. Plant Methods, 2017, 8(3): 1-10.
[25] 趙鋒. 基于顏色特征和改進(jìn)AdaBoost算法的麥穗識別的研究[D]. 保定:河北農(nóng)業(yè)大學(xué),2014. Zhao Feng. Research on Wheat Spike Identification Based on Color Features and Improved AdaBoost Algorithm [D]. Baoding: Agricultural University of Hebei, 2014. (in Chinese with English abstract)
[26] 陳含,呂行軍,田鳳珍,等. 基于Sobel 算子邊緣檢測的麥穗圖像分割[J]. 農(nóng)機化研究,2013,35(3):33?36. Chen Han, Lü Xingjun, Tian Fengzhen, et al. Wheat panicle image segmentation based on sobel operator-edge detection [J]. Journal of Agricultural Mechanization Research, 2013,35(3): 33-36. (in Chinese with English abstract)
[27] Tang W, Zhang Y, Zhang D, et al. Corn tassel detection based on image processing [C]// International Workshop on Image Processing and Optical Engineering. International Society for Optics and Photonics, 2012, 8335:83350J-1-83350J-7.
[28] Cointault F, Guerin D, Guillemin J P, et al. In- field Triticum aestivum ear counting using colour-texture image analysis[J]. New Zealand Journal of Crop and Horticultural Science, 2008, 36(2): 117-130.
[29] Frédéric C, Frédéric J, Gilles R, et al. Texture, color and frequential proxy-detection image processing for crop Characterization in a Context of Precision Agriculture[M]. Godwin Aflakpui: Agricultural Science, 2012.
[30] Zhu Y, Cao Z, Lu H, et al. In-field automatic observation of wheat heading stage using computer vision[J]. Biosystems Engineering, 2016, 143: 28-41.
[31] Duan L, Huang C, Chen G, et al. Determination of rice panicle numbers during heading by multi-angle imaging[J]. The Crop Journal, 2015, 3(3): 211-219.
[32] Lecun Y, Bengio Y, Hinton G. Deep learning[J]. Nature, 2015, 521(7553): 436-444.
[33] 周云成,許童羽,鄧寒冰,等.基于面向通道分組卷積網(wǎng)絡(luò)的番茄主要器官實時識別[J].農(nóng)業(yè)工程學(xué)報,2018,34(10):153-162. Zhou Yuncheng, Xu Tongyu, Deng Hanbing, et al. Real-time recognition of main organs in tomato based on channel wise group convolutional network[J].Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE),2018,34(10):153-162. (in Chinese with English abstract)
[34] Pound M P, Atkinson J A, Townsend A J, et al. Deep machine learning provides state-of-the-art performance in image-based plant phenotyping[J]. Gigascience, 2017, 6(10): 1-10.
[35] Xiong X, Duan L, Liu L, et al. Panicle-SEG: A robust image segmentation method for rice panicles in the field based on deep learning and superpixel optimization[J]. Plant Methods, 2017, 13(1): 104-113.
Field wheat ear counting automatically based on improved K-means clustering algorithm
Liu Zhe, Huang Wenzhun, Wang Liping
(710123,)
The amount of wheat ears per unit area is an important parameter for assessing wheat yield and wheat planting density. Generally, phenotype parameters should be obtained by manual count technique which is time-consuming and needs great effort. Aiming at the traditional image segmentation method based on color feature, texture feature and Haar feature, in this paper, we proposed an improved K-means algorithm for estimating the number of wheat ears. This method established a direct mapping relationship from the low-level features of the image to the number of wheat ears in the image through the color feature so that the target did not need to be segmented or detected. This type of method was more suitable for complex lighting and dense wheat ears, and had higher computational efficiency than counting methods based on image segmentation. This method made full use of the color feature of wheat ear image, took the area feature of local region extracted from local region as the basis of wheat ear judgment, and used the number of sub-regions in clustering region as the estimation value of wheat ear number, thus avoiding the task of target detection and location, and greatly improving the accuracy of Wheat ear counting. According to classification results of K-means method, the wheat ear image was divided into three regions. The green area pixel value representing the wheat eat region was set to 255, the pixel value of other areas was set to 0, so the binary image of wheat ears was obtained. Most of the binarized areas in the image were wheat ears, and a small part of the binarized area that was too small or too large was caused by the leaves. Following the steps were used to count wheat ears: 1) extracting the connected regions of the binary image and labeling them; 2) calculating the area of each connected region, the area was represented by the number of pixels in the region; 3) using the following method to filter out the connected region where the area was too small or too large; 4) finally, the number of wheat ears was obtained by counting the retained binary regions. This method established a direct classification relation from the image color feature of the lower layer to the image containing wheat ears so that the image did not need to be segmented or detected. Based on color feature clustering, this method could estimate the number of wheat ears in local area of space, and it was more scalable without training. The average prediction precision of the total wheatear number in a wheatear image for 12 wheatear images was 94.69%. And the Statistical error of the total wheatear number was between 2.17% and 7.41%, the average statistical error was 5.31%. The statistical experiment results showed that the accuracy of this algorithm to wheat ear counting was better than the traditional method based on image color feature and texture feature.
image segmentation; image processing; algorithms; wheat ear counting; K-means; clustering
劉 哲,黃文準(zhǔn),王利平. 基于改進(jìn)K-means聚類算法的大田麥穗自動計數(shù)[J]. 農(nóng)業(yè)工程學(xué)報,2019,35(3):174-181. doi:10.11975/j.issn.1002-6819.2019.03.022 http://www.tcsae.org
Liu Zhe, Huang Wenzhun, Wang Liping. Field wheat ear counting automatically based on improved K-means clustering algorithm[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2019, 35(3): 174-181. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2019.03.022 http://www.tcsae.org
2018-08-02
2019-01-11
國家自然科學(xué)基金資助項目(61473237);陜西省科技廳重點研發(fā)項目資助(2017ZDXM-NY-088)
劉 哲,教授,博士,主要研究方向模式識別、人工智能、智慧農(nóng)業(yè)。Email:757417366@qq.com
10.11975/j.issn.1002-6819.2019.03.022
S126
A
1002-6819(2019)-03-0174-08