国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于顏色與面積特征的方格蔟蠶繭分割定位算法與試驗(yàn)

2018-04-02 05:55劉莫塵許榮浩李法德宋占華閆銀發(fā)韓守強(qiáng)
關(guān)鍵詞:蠶繭畸變方格

劉莫塵 許榮浩 李法德 宋占華 閆銀發(fā) 韓守強(qiáng)

(1.山東農(nóng)業(yè)大學(xué)機(jī)械與電子工程學(xué)院, 泰安 271018; 2.山東省園藝機(jī)械與裝備重點(diǎn)實(shí)驗(yàn)室,泰安 271018)

0 引言

為提高蠶繭質(zhì)量,我國推廣使用方格蔟用于蠶蟲上蔟,方格蔟具有孔格數(shù)目多、結(jié)構(gòu)合理、吸水性好、保存方便等特點(diǎn),但我國的方格蔟多為紙板方格蔟,并且紙質(zhì)質(zhì)量良莠不齊,方格蔟在使用過程中極易發(fā)生扭曲變形,造成方格分布不規(guī)則,當(dāng)采繭機(jī)械對變形的方格蔟進(jìn)行蠶繭采摘時(shí),由于擠壓會直接導(dǎo)致方格蔟破損,因此我國對蠶繭的采摘主要以人工為主,效率低下。我國雖然已有多款蠶繭采摘設(shè)備,但是,這些蠶繭采摘設(shè)備智能化水平較低,采繭過程中,對變形的方格蔟會造成二次損害[1],使其失去使用價(jià)值。

國外蠶繭采繭機(jī)報(bào)道較少,只有日本一直推行著省力化蠶繭技術(shù),其采繭機(jī)的研制也由來已久,并發(fā)展了多種類型的采繭機(jī)[2]。日本的方格蔟均為竹制方格蔟和硬紙板方格蔟,框架比較堅(jiān)固,不易發(fā)生變形,利于機(jī)構(gòu)采收。而我國方格蔟多為紙板,且質(zhì)量差,易發(fā)生變形損壞,日本的采繭機(jī)械并不適用于我國方格蔟。為改善我國蠶繭采摘設(shè)備落后,易損傷方格蔟的現(xiàn)狀,研制一種適用于我國紙制方格蔟的蠶繭采摘設(shè)備極為重要。

機(jī)器視覺作為農(nóng)業(yè)機(jī)器人外部傳感器最大信息源,是農(nóng)業(yè)機(jī)器人研究領(lǐng)域的關(guān)鍵技術(shù)之一。但由于農(nóng)業(yè)對象的多樣性及作業(yè)環(huán)境的復(fù)雜性,尚未有一種通用的目標(biāo)識別算法[3]。近年來,國內(nèi)學(xué)者通過機(jī)器視覺對采摘后的蠶繭進(jìn)行分類,金航峰[4]通過光譜和高光譜圖像技術(shù)對蠶繭品質(zhì)的無損檢測進(jìn)行了研究。宋亞杰等[5]通過采集單個(gè)蠶繭圖像并對其進(jìn)行處理,根據(jù)數(shù)學(xué)形態(tài)學(xué)的方法,判斷蠶繭的質(zhì)量。周志宇等[6]對單個(gè)蠶繭圖像進(jìn)行采集處理,將蠶繭看成橢圓形從而求其表面積。甘勇[7]利用光電技術(shù)和圖像處理技術(shù)計(jì)算蠶繭干繭繭殼厚度。喬樂領(lǐng)[8]通過圖像處理技術(shù)提出了一種對采摘后的蠶繭進(jìn)行篩選計(jì)數(shù)的系統(tǒng)。陳浩等[9]通過圖像處理對蠶繭表面污斑面積進(jìn)行自動檢測,得到了一種智能化的選繭輔助檢驗(yàn)方法。

綜上所述,目前并未有將機(jī)器視覺應(yīng)用于蠶繭采摘機(jī)械中的相關(guān)研究。

為提高蠶繭采摘設(shè)備的智能化水平,減少采繭設(shè)備對方格蔟的損傷,探索將機(jī)器視覺直接應(yīng)用于蠶繭采摘中,對方格蔟中的蠶繭進(jìn)行精確定位采摘,解決變形方格蔟蠶繭無法使用機(jī)械采繭的難題,本文提出一種基于顏色與面積特征的方格蔟蠶繭分割定位算法,直接對方格蔟與其中的蠶繭進(jìn)行分割,并進(jìn)行視覺測量和蠶繭定位,消除方格蔟變形對蠶繭定位的影響。

1 試驗(yàn)工具與圖像采集裝置

方格蔟由山東農(nóng)業(yè)大學(xué)馬莊蠶桑實(shí)驗(yàn)站提供,尺寸為540 mm×390 mm,采用Omnivision 公司的ov5647型攝像頭,視場角為160°。在室內(nèi)自然光下拍攝整張方格蔟圖像時(shí),攝像頭位于方格蔟中心上方75 cm處,圖像分辨率為640像素×320像素。用于圖像處理的硬件平臺為Raspberry Pi 3b,Raspbian操作系統(tǒng),ARM Cortex-A53 1.2 GHz處理器,軟件為Python2.7和OpenCV3.2機(jī)器視覺庫。蠶繭采摘設(shè)備為直角坐標(biāo)式方格蔟自動采繭機(jī),如圖1所示。X軸導(dǎo)軌為2個(gè)由傳動軸連接的同步導(dǎo)軌,長1 m;Y軸導(dǎo)軌帶有電磁采摘器,長1 m,于X軸導(dǎo)軌上運(yùn)動。電磁采摘器由一個(gè)行程60 mm、單次往返時(shí)間0.5 s的電磁鐵和一個(gè)采繭頭組成,用于采摘蠶繭。X軸導(dǎo)軌、Y軸導(dǎo)軌和電磁采摘器共同組成直角坐標(biāo)式蠶繭采摘機(jī)構(gòu)。

圖1 直角坐標(biāo)式自動采繭機(jī)Fig.1 Cartesian coordinate automatic cocoon harvestor1.機(jī)架 2.工作臺 3.X軸導(dǎo)軌 4.X軸步進(jìn)電動機(jī) 5.傳動軸6.攝像頭 7.Y軸導(dǎo)軌 8.Y軸步進(jìn)電動機(jī) 9.電磁采摘器 10.蠶繭方格蔟 11.方格蔟夾持裝置

Raspberry Pi 3b控制攝像頭采集方格蔟圖像,并對圖像中方格蔟蠶繭進(jìn)行分割和視覺測量定位,生成方格蔟中蠶繭中心點(diǎn)坐標(biāo),進(jìn)而控制X軸、Y軸步進(jìn)電動機(jī)將電磁采摘器定位到蠶繭位置,控制電磁采摘器接通電源,實(shí)現(xiàn)電磁采摘器對蠶繭的定位采摘,然后切斷電磁采摘器電源,釋放電磁采摘器準(zhǔn)備下一個(gè)蠶繭的采摘。其工作流程圖如圖2所示。

圖2 直角坐標(biāo)式自動采繭機(jī)工作流程圖Fig.2 Flow chart of Cartesian coordinate automatic cocoon harvestor

2 圖像畸變矯正方法

因?yàn)樾枰獙πQ繭進(jìn)行視覺測量定位,而蠶繭在圖像上的坐標(biāo)與蠶繭在笛卡爾空間的三維坐標(biāo)關(guān)系由攝像機(jī)成像幾何模型決定,該幾何模型的參數(shù)稱為攝像機(jī)參數(shù),求取這些幾何參數(shù)需要通過攝像機(jī)標(biāo)定實(shí)現(xiàn)[10]。攝像機(jī)相對于世界坐標(biāo)系的位置及標(biāo)定精度直接影響著機(jī)器視覺的定位精度。

由于攝像機(jī)實(shí)際拍攝的圖像會存在畸變[11],而在攝像機(jī)鏡頭具有大畸變時(shí),如果忽略畸變而求取攝像機(jī)的內(nèi)外參數(shù),必然會因?yàn)橐牖兿禂?shù)而使求得的參數(shù)存在很大誤差。因此可以先進(jìn)行畸變矯正再標(biāo)定其他參數(shù)。利用圖像空間的Brown畸變模型的畸變矯正方法[12]對圖像進(jìn)行矯正,再在無畸變的圖像上進(jìn)行攝像機(jī)其他線性參數(shù)的標(biāo)定,這樣的標(biāo)定不需要在線性參數(shù)與畸變參數(shù)之間進(jìn)行反復(fù)標(biāo)記,計(jì)算量較小,效率較高[13]。

攝像機(jī)鏡頭的畸變包括徑向畸變和切向畸變,Brown畸變模型考慮了徑向畸變和切向畸變。圖像空間下的Brown畸變模型為

(1)

其中

(ud,vd)=(u,v)-(u0,v0)
(u′d,v′d)=(u′,v′)-(u0,v0)

式中(u′d,v′d)——消除畸變后相對參考點(diǎn)的圖像坐標(biāo)

(ud,vd)——畸變圖像相對參考點(diǎn)的圖像坐標(biāo)

k1——2階徑向畸變系數(shù)

k2——4階徑向畸變系數(shù)

k3——6階徑向畸變系數(shù)

p1、p2——切向畸變系數(shù)

r——圖像到參考點(diǎn)的距離

(u,v)——實(shí)際圖像坐標(biāo)

(u0,v0)——光軸中心點(diǎn)圖像坐標(biāo)

(u′,v′)——消除畸變后的圖像坐標(biāo)

圖3a為攝像機(jī)采集的原始圖像,經(jīng)過矯正后的圖像如圖3b所示,減小了徑向畸變對視覺測量的影響。

圖3 畸變矯正Fig.3 Distortion rectifying

3 蠶繭分割及蠶繭視覺測量定位算法

3.1 復(fù)雜背景下蠶繭圖像分割算法

3.1.1圖像預(yù)處理

圖像預(yù)處理將畸變矯正后的圖像灰度化。在數(shù)字圖像處理中一般先將各種格式的圖像轉(zhuǎn)換成灰度圖像,以減少處理圖像的數(shù)據(jù)量[14]?;叶葓D像的描述與彩色圖像一樣仍然反映了整幅圖像的整體和局部的色度和亮度等級的分布和特征。假設(shè)f(x,y)代表一幅圖像,Y(x,y)表示點(diǎn)(x,y)處的灰度,R(x,y)表示點(diǎn)(x,y)處的R分量值,G(x,y)表示點(diǎn)(x,y)處的G分量值,B(x,y)表示點(diǎn)(x,y)處的B分量值,則點(diǎn)(x,y)處的灰度為

Y(x,y)=0.299R(x,y)+0.587G(x,y)+0.114B(x,y)

(2)

畸變矯正后的圖像如圖4a所示,經(jīng)過灰度變換后的圖像如圖4b所示。

圖4 圖像預(yù)處理Fig.4 Images preprocessing

3.1.2圖像Mean Shift聚類

Mean Shift是一種基于非參數(shù)核函數(shù)的密度估計(jì)算法[15],將Mean Shift算法應(yīng)用于圖像分割時(shí),灰度圖像如圖5a所示,Mean Shift聚類后圖像如圖5b所示。

圖5 Mean Shift聚類Fig.5 Mean Shift clustering

假設(shè)圖像由像素x組成,取核函數(shù)為K(s),定義Mean Shift偏移向量為

(3)

式中w(s)——權(quán)值函數(shù)

S——x的子集

對圖5a灰度圖像進(jìn)行Mean Shift聚類后,結(jié)果如圖5b所示,可以看出Mean Shift聚類突出了蠶繭區(qū)域,保留了蠶繭的基本特征,并消除了光照及圖像背景對蠶繭圖像的影響。

3.1.3蠶繭與方格蔟閾值分割和形態(tài)學(xué)處理

對于暗背景上由亮物體組成的圖像f(x,y),從背景提取目標(biāo)的方法是選取閾值T來分離這2類圖像[16]。滿足f(x,y)≥T的任何圖像點(diǎn)被稱為物體點(diǎn),其他的點(diǎn)稱為背景點(diǎn)(在亮背景上的暗物體也一樣)。閾值處理后的圖像被定義為

(4)

式中a——目標(biāo)像素值

b——背景像素值

為了便于處理,使分割后的圖像以白色為目標(biāo),黑色為背景,故令a=1(白),b=0(黑),T為常數(shù)[17]。選取T=135,對Mean Shift聚類后的灰度圖像進(jìn)行閾值分割,結(jié)果如圖6a所示。

圖6 圖像閾值分割及開運(yùn)算結(jié)果Fig.6 Threshold segmentation and opening operation

對蠶繭圖像進(jìn)行初步閾值分割后,刪除了方格蔟邊框及對蠶繭產(chǎn)生影響的其他區(qū)域,只保留了蠶繭區(qū)域。因蠶繭區(qū)域灰度存在不同,容易對灰度較小的區(qū)域造成過分割,故對分割后的二值圖像進(jìn)行一系列形態(tài)學(xué)操作修飾,以刪除過分割的部分,保持蠶繭的基本形狀。圖像的形態(tài)學(xué)操作是由一組形態(tài)學(xué)的代數(shù)運(yùn)算子組成的[18],基本操作包括膨脹、腐蝕、開運(yùn)算和閉運(yùn)算,其中腐蝕和膨脹是兩種最基本也是最重要的形態(tài)學(xué)運(yùn)算,開運(yùn)算與閉運(yùn)算都是由膨脹和腐蝕復(fù)合而成[19]。本文中,首先對圖像進(jìn)行閾值分割,然后對分割后的二值圖像進(jìn)行開運(yùn)算,去除噪點(diǎn)并使分割后的蠶繭保持它們的基本形狀[20]。

開運(yùn)算是先腐蝕后膨脹,使用結(jié)構(gòu)元素S對A進(jìn)行開運(yùn)算,記作A°S,可表示為

A°S=(A?S)⊕S

(5)

式中A——待處理的圖像區(qū)域

開運(yùn)算先用S對A進(jìn)行簡單的腐蝕操作,然后用S對得到的結(jié)果進(jìn)行膨脹操作。

將像素在圖像中的整型位置坐標(biāo)用z=(z1,z2)表示,z∈Z,其中Z為二元整數(shù)有序偶集合。將一幅圖像或者圖像中1個(gè)感興趣的區(qū)域稱為集合,用大寫字母A、B、C等表示。

對于Z上的集合A和S,使用S對A進(jìn)行膨脹,記作

A⊕S={()z∩A≠?}

(6)

對于Z2上的集合A和S,使用S對A進(jìn)行腐蝕,記作

A?S={z|(S)z?A}

(7)

開運(yùn)算后的圖像如圖6b所示。

圖7 圖像面積特征提取結(jié)果Fig.7 Feature extraction of image area

3.1.4基于面積閾值的蠶繭提取

對圖像進(jìn)行開運(yùn)算處理后,仍有許多像素以噪聲的形式存在,主要是目標(biāo)對象或蠶繭部分被誤判為背景而形成的[22],如圖7a所示。選擇面積法濾波[23]提取蠶繭,一個(gè)連通域的面積定義為連通域中像素的數(shù)目,設(shè)定面積閾值(m1,m2),m2>m1,計(jì)算蠶繭區(qū)所有白色連通域的面積M,則蠶繭面積與噪點(diǎn)面積關(guān)系為

(8)

為了更好地消除噪點(diǎn)對蠶繭的影響,經(jīng)過多次試驗(yàn),面積閾值選取(100,600)時(shí),對蠶繭提取效果最好,經(jīng)過面積法的提取,可以得到提取后的蠶繭圖像及各蠶繭連通域的中心點(diǎn)如圖7b所示。

3.2 攝像機(jī)標(biāo)定及蠶繭定位算法

3.2.1攝像機(jī)標(biāo)定方法

視覺系統(tǒng)涉及3個(gè)坐標(biāo)系:世界坐標(biāo)系(Xw,Yw,Zw),攝像機(jī)坐標(biāo)系(Xc,Yc,Zc),圖像坐標(biāo)系(u,v)[24]。方格蔟固定在工作臺上,方格蔟垂直方向Z的值固定不變,因此蠶繭在方格蔟內(nèi)水平面的位置只由X、Y坐標(biāo)決定,可采用單目二維視覺系統(tǒng)。對于單目二維視距測量,其攝像機(jī)垂直于工作臺平面安裝,攝像機(jī)的位置和內(nèi)外參數(shù)[25]固定。采集原理如圖8所示。

圖8 單目二維視覺測量坐標(biāo)系Fig.8 Monocular two-dimensional vision measurement coordinate system

世界坐標(biāo)到圖像坐標(biāo)的轉(zhuǎn)換關(guān)系[26]為

(9)

其中

式中n——Xw軸在攝像機(jī)坐標(biāo)系OcXcYcZc的方向向量

o——Yw軸在攝像機(jī)坐標(biāo)系OcXcYcZc的方向向量

a——Zw軸在攝像機(jī)坐標(biāo)系OcXcYcZc的方向向量

t——OwXwYwZw的坐標(biāo)原點(diǎn)在攝像機(jī)坐標(biāo)系OcXcYcZc中的位置

對于圖8所示的單目二維視覺測量系統(tǒng),有

式中d——光軸中心點(diǎn)Oc到景物中心點(diǎn)Ow距離

將R、t代入式(9),化簡后得

(10)

式中f——攝像機(jī)焦距

內(nèi)參數(shù)采用四參數(shù)攝像機(jī)模型,對于工作平面上的兩點(diǎn)P1(xw1,yw1,0)和P2(xw2,yw2,0),由式(10)可得P1與P2兩點(diǎn)圖像坐標(biāo)之間的關(guān)系為

(11)

式中kx——X軸方向的放大系數(shù)

ky——Y軸方向的放大系數(shù)

(u1,v1)——點(diǎn)P1的圖像坐標(biāo)

(u2,v2)——點(diǎn)P2的圖像坐標(biāo)

kxd與kyd的計(jì)算公式為

(12)

其中

式中kxd、kyd——標(biāo)定的攝像機(jī)參數(shù)

因此理論上只需確定兩點(diǎn)在世界坐標(biāo)中的距離和在圖像坐標(biāo)中對應(yīng)的距離,就可以通過式(12)計(jì)算攝像機(jī)參數(shù)。

為了減小攝像機(jī)標(biāo)定參數(shù)的誤差,得到更加精確的攝像機(jī)參數(shù),可采用取多個(gè)點(diǎn)求平均值的方法,來確定攝像機(jī)標(biāo)定參數(shù)。方法如下:采集i組點(diǎn),每組點(diǎn)包含2個(gè)坐標(biāo)點(diǎn)Pi1和Pi2,其世界坐標(biāo)為(xi1,yi1,0)和(xi2,yi2,0),對應(yīng)的圖像坐標(biāo)為(ui1,vi1)和(ui2,vi2),則可由式(12)得到i個(gè)kxd和i個(gè)kyd,則第i個(gè)kxd記作kxdi,第i個(gè)kyd記作kydi。則kxd、kyd的平均值計(jì)算公式為

(13)

3.2.2蠶繭視覺測量與定位算法

設(shè)第k個(gè)蠶繭中心點(diǎn)圖像坐標(biāo)為Cck(uk,vk),世界坐標(biāo)原點(diǎn)所對應(yīng)的圖像坐標(biāo)為Oc(u0,v0),則第k個(gè)蠶繭的世界坐標(biāo)Cwk(xwk,ywk)為

(14)

采用特征點(diǎn)的實(shí)際坐標(biāo)與標(biāo)定坐標(biāo)之間的歐氏距離作為標(biāo)定偏差D[27]。則標(biāo)定偏差D為

(15)

式中(Xi,Yi)——實(shí)際坐標(biāo)值

(xi,yi)——標(biāo)定坐標(biāo)值

圖像坐標(biāo)系以圖像左上角第一個(gè)像素點(diǎn)作為原點(diǎn),世界坐標(biāo)系則以圖像左上角第一個(gè)蠶繭的中心點(diǎn)為原點(diǎn),在方格蔟上尋找10個(gè)蠶繭中心點(diǎn)作為已知點(diǎn),使用游標(biāo)卡尺分別測出10個(gè)已知蠶繭中心點(diǎn)的空間坐標(biāo)(Xi,Yi)(i=1,2,…,10)。已知10個(gè)蠶繭中心點(diǎn)在圖像上的坐標(biāo)(ui,vi),通過式(14)分別計(jì)算得到10個(gè)已知點(diǎn)的標(biāo)定坐標(biāo)(xi,yi),通過式(15)分別計(jì)算10個(gè)蠶繭中心點(diǎn)標(biāo)定坐標(biāo)與世界坐標(biāo)的標(biāo)定偏差。得到的蠶繭質(zhì)心位置坐標(biāo)信息如表1所示。由表1可知,蠶繭質(zhì)心位置坐標(biāo)標(biāo)定偏差最大為6.0 mm。

表1 蠶繭質(zhì)心的位置坐標(biāo)信息Tab.1 Location information of centroid of cocoon

4 算法性能測試與試驗(yàn)結(jié)果分析

通過基于機(jī)器視覺的直角坐標(biāo)式方格蔟自動采繭機(jī)對算法進(jìn)行試驗(yàn)測試,采繭機(jī)如圖9所示。

圖9 基于機(jī)器視覺的直角坐標(biāo)式方格蔟自動采繭機(jī)樣機(jī)Fig.9 Mock-up of Cartesian coordinate automatic cocoon harvestor based on machine vision

隨機(jī)選取10張方格蔟,使用基于顏色與面積特征的方格蔟蠶繭分割算法對方格蔟內(nèi)的蠶繭進(jìn)行識別、定位和采摘試驗(yàn),并對試驗(yàn)數(shù)據(jù)進(jìn)行整理。

4.1 方格蔟蠶繭檢測正確率

使用檢測正確率[28]衡量蠶繭被識別的程度。檢測正確率為單張方格蔟中被識別蠶繭數(shù)與總蠶繭數(shù)之比,計(jì)算公式為

(16)

式中Rs——檢測正確率

Ns——單張方格蔟中被識別的蠶繭數(shù)

Nc——單張方格蔟中的總蠶繭數(shù)

檢測統(tǒng)計(jì)結(jié)果如表2所示,蠶繭檢測正確率為96.88%,滿足蠶繭采摘對蠶繭檢測正確率的要求。

表2 蠶繭檢測正確率Tab.2 Correct ratio of cocoon detection

4.2 蠶繭定位精度

使用整體最大偏差衡量定位精度,整體最大偏差定義為所有方格蔟標(biāo)定偏差的最大值

Er=max(er1,er2,…,erN)

(17)

式中Er——整體最大偏差

N——方格蔟個(gè)數(shù)

er——某張方格蔟的最大定位偏差

本文隨機(jī)選取10張方格蔟,故N=10。計(jì)算統(tǒng)計(jì)結(jié)果如表3所示,10張方格蔟中蠶繭定位坐標(biāo)的最大偏差為6.0 mm,滿足蠶繭采摘定位精度的要求。

4.3 蠶繭采摘結(jié)果分析

對選取的10張方格蔟蠶繭進(jìn)行采摘試驗(yàn),試驗(yàn)過程中,樣機(jī)運(yùn)行平穩(wěn),能夠有效地完成蠶繭定位采摘。試驗(yàn)結(jié)果如表4所示,效果如圖10所示。

表3 整體最大偏差Tab.3 Overall maximum deviation

在蠶繭采摘過程中,對蠶繭檢測正確率可達(dá)96.88%,蠶繭位置坐標(biāo)最大定位誤差為6.0 mm,滿足蠶繭采摘精度要求。采摘一張方格蔟所需時(shí)間小于等于50 s,比人工采繭效率提高4~5倍。

圖10 蠶繭采摘效果圖Fig.10 Picking effect images

5 結(jié)論

(1) 提出的基于顏色與面積特征的方格蔟蠶繭分割算法,消除方格蔟變形對蠶繭定位的影響。通過Brown畸變模型對采集到的原始圖像進(jìn)行畸變矯正,然后采用Mean Shift聚類、閾值分割、形態(tài)學(xué)處理及面積閾值法對矯正后的圖像進(jìn)行處理,對復(fù)雜背景下的方格蔟和蠶繭進(jìn)行有效分割,滿足將蠶繭從變形方格蔟中分割的要求。

(2) 提出的蠶繭視覺測量及定位算法,通過攝像機(jī)標(biāo)定及取多個(gè)點(diǎn)求平均值方法,對蠶繭進(jìn)行定位,定位準(zhǔn)確,定位誤差小于6.0 mm,可用于蠶繭采摘機(jī)械對蠶繭進(jìn)行定點(diǎn)采摘。

(3) 隨機(jī)選取 10張方格蔟,通過基于機(jī)器視覺的直角坐標(biāo)式方格蔟自動采繭機(jī)對方格蔟中的蠶繭進(jìn)行分割與定位試驗(yàn),蠶繭分割檢測正確率為96.88%,蠶繭位置坐標(biāo)最大定位誤差為6.0 mm,滿足蠶繭采摘機(jī)械對蠶繭進(jìn)行定位采摘的精度要求。

1陳超科. 方格蔟自動采繭機(jī)的研制[D]. 泰安:山東農(nóng)業(yè)大學(xué),2017.

2川名茂, 沈云岳. 全自動選繭機(jī)的開發(fā)[J]. 絲綢,1988(11): 44-45.

3蔡健榮,周小軍,李玉良,等. 基于機(jī)器視覺自然場景下成熟柑橘識別[J]. 農(nóng)業(yè)工程學(xué)報(bào),2008, 24(1): 175-178.

CAI Jianrong, ZHOU Xiaojun, LI Yuliang, et al. Recognition of mature orange in natural scene based on machine vision[J]. Transactions of the CSAE, 2008, 24(1): 175-178.(in Chinese)

4金航峰. 基于光譜和高光譜圖像技術(shù)的蠶繭品質(zhì)無損檢測研究[D]. 杭州:浙江大學(xué),2013.

5宋亞杰,謝守勇,冉瑞龍. 機(jī)器視覺技術(shù)在蠶繭無損檢測中的應(yīng)用研究[J]. 現(xiàn)代農(nóng)業(yè)裝備,2006(9):48-51.

SONG Yajie, XIE Shouyong, RAN Ruilong. Applied research on machine vision technology in non-destructive test of cocoon [J]. Modern Agricultural Equipments, 2006(9): 48-51. (in Chinese)

6周志宇,劉喜昂,楊東鶴. 機(jī)器視覺在蠶繭表面積測量中的應(yīng)用[J]. 紡織學(xué)報(bào),2006, 27(12): 29-31.

ZHOU Zhiyu, LIU Xi’ang, YANG Donghe. Application of machine vision in measurement of cocoon superficial area[J]. Journal of Textile Research, 2006, 27(12): 29-31. (in Chinese)

7甘勇.基于圖像處理技術(shù)的干繭繭殼厚度計(jì)算方法[J]. 絲綢,2006(11):46-48.

GAN Yong. Calculation method for shell thickness of dried cocoon based on image processing[J]. Journal of Silk, 2006(11): 46-48. (in Chinese)

8喬樂領(lǐng). 基于圖像處理的蠶繭自動計(jì)數(shù)系統(tǒng)的研究[D]. 杭州:浙江理工大學(xué),2013.

9陳浩,楊崢,劉霞,等. 基于MATLAB的桑蠶繭選繭輔助檢驗(yàn)方法的研究[J]. 絲綢,2016(3): 32-36.

CHEN Hao, YANG Zheng, LIU Xia, et al. Study on auxiliary testing method for mulberry silkworm cocoon sorting based on MATLAB[J]. Journal of Silk, 2016(3): 32-36. (in Chinese)

10馬頌德,張正友. 計(jì)算機(jī)視覺——計(jì)算理論與算法基礎(chǔ)[M]. 北京:科學(xué)出版社,1998:52.

11CHATTERJEE C, ROYCHOWDHURY V P. Algorithms for coplanar camera calibration[J]. Machine Vision and Applications, 2000, 12(2): 84-97.

12高瞻宇,顧營迎,劉宇航,等. 采用簡化Brown模型及改進(jìn)BFGS法的相機(jī)自標(biāo)定[J]. 光學(xué)精密工程,2017, 25(9):2532-2540.

GAO Zhanyu, GU Yingying, LIU Yuhang,et al. Self-calibration based on simplified Brown non-linear camera model and modified BFGS algorithm[J]. Optics and Precision Engineering, 2017,25(9): 2532-2540. (in Chinese)

13XU D, LI Y F, TAN M. A method for calibration cameras with large distortion in lens[J]. Optical Engineering, 2006, 45(4): 0436021-0436028.

14呂朝輝,陳曉光,吳文福,等.基于雙目立體視覺的秧苗直立度自動測定系統(tǒng)[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2002, 33(1): 60-62.

Lü Chaohui, CHEN Xiaoguang, WU Wenfu, et al. Automatic measuring system of seeding perpendicularity based on bonocular stereo vision[J]. Transactions of the Chinese Society for Agricultural Machinery, 2002, 33(1): 60-62. (in Chinese)

15CONMANICIU D, MEER P. Mean shift: a robust approach toward feature space analysis[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(5): 603-619.

16胡煉,羅錫文,曾山,等. 基于機(jī)器視覺的株間機(jī)械除草裝置的作物是別與定位方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2013,29(10): 12-18.

HU Lian, LUO Xiwen, ZENG Shan, et al. Plant recongnition and localization for intra-row mechanical weeding device based on machine vision[J]. Transactions of the CSAE, 2013, 29(10): 12-18. (in Chinese)

17丁為民,趙思琪,趙三秦,等. 基于機(jī)器視覺的果樹樹冠體積測量方法研究[J/OL]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2016, 47(6): 1-10. http:∥www.j-csam.org/jcsam/ch/reader/view_abstract.aspx?flag=1&file_no=20160601&journal_id=jcsam. DIO:10.6041/j.issn.1000-1298.2016.06.001.

DING Weimin, ZHAO Siqi, ZHAO Sanqin, et all. Measurement methods of fruit tree canopy volume based on machine vision[J/OL]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(6): 1-10. (in Chinese)

18MARAGOS P. Differential morphology and image processing[J]. IEEE Transactions on Image Processing, 1996, 5(6): 922-937.

19李冠林,馬占鴻,王海光. 基于支持向量機(jī)的小麥條銹病和葉銹病圖像識別[J]. 中國農(nóng)業(yè)大學(xué)學(xué)報(bào),2012,17(2): 72-79.

LI Guanlin, MA Zhanhong, WANG Haiguang. Image recognition of wheat stripe rust and wheat leaf rust based on support vector machine[J]. Journal of China Agricultural University, 2012,17(2): 72-79. (in Chinese)

20宋宇,劉永博,劉路,等. 基于機(jī)器視覺的玉米根莖導(dǎo)航基準(zhǔn)線提取方法[J/OL]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2017,48(2): 38-44.http:∥www.j-csam.org/jcsam/ch/reader/view_abstract.aspx?flag=1&file_no=20170205&journal_id=jcsam. DOI:10.6041/j.issn.1000-1298.2017.02.005.

SONG Yu, LIU Yongbo, LIU Lu, et al. Extraction method of vavigation baseline of corn roots based on machine vision[J/OL]. Transactions of the Chinese Society for Agricultural Machinery, 2017, 48(2): 38-44. (in Chinese)

21GONZALEZ R C, WOODS R E. 數(shù)字圖像處理[M]. 阮秋琦, 阮宇智,譯. 2版. 北京: 電子工業(yè)出版社, 2003: 423-424.

22蔣煥煜,彭永石,申川,等. 基于雙目立體視覺技術(shù)的成熟番茄識別與定位[J]. 農(nóng)業(yè)工程學(xué)報(bào),2008, 24(8): 279-283.

JIANG Huanyu, PENG Yongshi, SHEN Chuan, et al. Recognizing and locating ripe tomatoes based on binocular stereo vision technology[J]. Transactions of the CSAE, 2008, 24(8): 279-283. (in Chinese)

23沈?qū)殗?,陳樹人,尹建軍,? 基于顏色特征的棉田綠色雜草圖像識別方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2009, 25(6): 163-167.

SHEN Baoguo, CHEN Shuren, YIN Jianjun, et al. Image recognition of green weeds in cotton fields based on color feature[J]. Transactions of the CSAE, 2009, 25(6): 163-167. (in Chinese)

24SUN Qiucheng,HOU Yueqian,TAN Qingchang. A new method of camera calibration based on segmentation model[J]. Optik, 2013, 124(24): 6991-6995.

25湯一平,王偉羊,朱威,等. 基于機(jī)器視覺的茶隴識別與采茶機(jī)導(dǎo)航方法[J/OL]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2016, 47(1): 45-50.http:∥www.j-csam.org/jcsam/ch/reader/view_abstract.aspx?flag=1&file_no=20160107&journal_id=jcsam. DOI:10.6041/j.issn.1000-1298.2016.01.007.

TANG Yiping, WANG Weiyang, ZHU Wei, et al. Tea ridge identification and navigation method for tea-plucking machine based on machine vision[J/OL]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(1): 45-50. (in Chinese)

26王躍勇,于海業(yè),劉媛媛. 基于雙目立體視覺的機(jī)械手移栽穴盤定位方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2016, 32(5): 43-49.

WANG Yueyong, YU Haiye, LIU Yuanyuan. Mechanical transplanting plug tray localization method based on binocular stereo vision[J]. Transactions of the CSAE, 2016, 32(5): 43-49. (in Chinese)

27尹建軍,沈?qū)殗?,陳樹人,? 基于機(jī)器視覺的田間雜草定位技術(shù)[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2010,41(6): 163-166.

YIN Jianjun, SHEN Baoguo, CHEN Shuren, et al. Position technology of filed weed based on machine vision[J]. Transactions of the Chinese Society for Agricultural Machinery, 2010, 41(6): 163-166. (in Chinese)

28黃福珍,蘇劍波. 人臉檢測[M]. 上海:上海交通大學(xué)出版社,2006:12.

猜你喜歡
蠶繭畸變方格
大型焊接容器局部熱處理防畸變工裝優(yōu)化設(shè)計(jì)
方格里填數(shù)
蠶繭與飛蝶
提高鳴龍鎮(zhèn)蠶繭質(zhì)量的措施探討
重視蠶病綜合防治 提高蠶繭質(zhì)量
方格里填數(shù)
幾何特性對薄壁箱梁畸變效應(yīng)的影響
分方格
分方格
在Lightroom中校正鏡頭與透視畸變
高要市| 昌平区| 蓬溪县| 瑞丽市| 乡城县| 淄博市| 喀喇沁旗| 麟游县| 云和县| 乌海市| 双峰县| 阿拉善左旗| 前郭尔| 苏州市| 桐柏县| 墨脱县| 任丘市| 蒙城县| 镇平县| 孝感市| 灵川县| 定陶县| 连平县| 什邡市| 韶关市| 诸城市| 阳西县| 沁阳市| 睢宁县| 清水县| 来安县| 个旧市| 大宁县| 临桂县| 金昌市| 分宜县| 湟中县| 南和县| 顺义区| 堆龙德庆县| 准格尔旗|