高 寧
(揚州工業(yè)職業(yè)技術(shù)學(xué)院 揚州 225127)
?
求取橢圓中心的改進Hough算法設(shè)計*
高 寧
(揚州工業(yè)職業(yè)技術(shù)學(xué)院 揚州 225127)
針對工業(yè)機器視覺檢測中,對橢圓圖像中心提取的需要,提出了一種基于最大內(nèi)切圓法來求取橢圓中心的完整實現(xiàn)方法。方法中采用了改進的Hough變換快速地檢測出橢圓的最大內(nèi)切圓,并把該內(nèi)切圓的圓心坐標當(dāng)作所求的橢圓圓心坐標。實驗表明,該方法能自動檢測出橢圓的中心坐標,精度較高,快速性好,魯棒性較強,同時簡單易行,很好地滿足了實際工程中的機器視覺檢測的需要。
橢圓中心; Hough變換; 內(nèi)切圓; 機器視覺
Class Number TP274
在機器視覺的實際運用中,經(jīng)常要處理固件的圖像特征,如被測工件上的定位孔、標定參照物上特征圖像等。尤其是在對工件上的圓孔進行放料時,如果兩者的圓心不能完全一致,會影響地工件的質(zhì)量甚至報廢。因此,如何實現(xiàn)橢圓中心的自動快速的識別,具有十分重要的意義。
目前,橢圓檢測算法的研究主要包括:模板匹配法、最小二乘法[1]、小波變換法[2]、基于GVF模型法[3]以及Hough變換法[4]等,其中模板匹配法,小波變換法和基于GVF模型法能夠?qū)崿F(xiàn)準確的橢圓輪廓的提取,但存儲量大,計算復(fù)雜,比較耗時。最小二乘法抗干擾能力差,容易受外界的干擾而影響精度。常規(guī)的Hough變換法,是先通過廣義的Hough變換,將橢圓提取出來[5]。其參數(shù)空間的位數(shù)需要用到五維,因而也需要大量的存儲空間和計算空間。在本文中,對其進行了改進,使其能快速的檢測出橢圓的最大內(nèi)切圓,其計算的參數(shù)空間只需兩維,并進行了仿真,效果是客觀的,達到了預(yù)期的目的。
Hough變換是利用圖像空間到參數(shù)空間的映射來進行直線檢測[6~8]。它的基本思想是利用點與線的對偶性:圖像空間中共線的點對應(yīng)參數(shù)空間中相交的直線;參數(shù)空間中相交于同一點的直線對應(yīng)于圖像空間中共線的點,通過統(tǒng)計參數(shù)空間中每一點的穿越直線數(shù)可以檢測出圖像空間中的直線。Hough變換是曲線檢測領(lǐng)域中最有效的方法,其主要優(yōu)點為:它對于圖像中的噪聲點不敏感,利用其得到的結(jié)果可有效地濾除噪聲的影響。
傳統(tǒng)的Hough變換用于檢測圓時,由圓的方程(x-p)2+(x-q)2=r2可知,具有三個參數(shù),所以就需要在三維參數(shù)空間上進行統(tǒng)計[9~10]。但傳統(tǒng)的Hough變換存在幾個較大的缺陷,如提取的參數(shù)受參數(shù)空間的量化間隔制約,計算量大,每個邊緣點映射成參數(shù)空間的一個曲面,是一到多的映射,以及占用內(nèi)存較大等。
本文所設(shè)計的改進Hough變換法的思路是:在檢測圓(x-p)2+(x-q)2=r2時,兩邊對x求導(dǎo),則可得:
(1)
這表示參數(shù)a,b不獨立,利用這個關(guān)系,解上式則只需要求解兩維參數(shù)了,大大減小了計算量。下面以極坐標的形式來具體討論其算法。
2.1 Hough檢測圓
Hough變換用于檢測圓時,任意圓的一般極坐標表示形式為
(2)
由式(1)可知得
(3)
把式(2)的兩個方程相除,可得:
(4)
由于圓上任意一點的切線方向都會與圓上另外一點的切線方向相同,而且這兩個點的中點必為圓心,所以連接圓上任兩個切線斜率相同的點,它們的中點坐標即為圓心坐標了。
2.2 改進Hough檢測橢圓圓心
Hough變換用于檢測橢圓時,橢圓如圖1,任意橢圓的一般極坐標表示形式為[4]
(5)
由式(4)可知:
(6)
將式(5)兩個方程相除,可得
(7)
由于橢圓上任意一點的切線方向也會與橢圓上另外一點的切線方向相同,而且這兩個點的中點為橢圓的中心,所以連接橢圓上任兩個切線斜率相同的點,它們的中點坐標即為橢圓圓心的坐標了。
圖1 橢圓的坐標表示
在用Hough變換檢測橢圓時,需求解p,q,a,b,θ五個參數(shù),進而需建立五維坐標系才可求解出橢圓的圓心,而在求取圓時,只要求取兩個參數(shù)即可,所以本文提出通過求取最大內(nèi)切圓的圓心,進而來求取橢圓的圓心的改進Hough變換法。
任何一個橢圓都有且只有一個最大內(nèi)切圓,而且內(nèi)切圓的圓心與橢圓的中心是同一個點。基于此規(guī)則,本文所設(shè)計的改進Hough變換法算法實現(xiàn)的具體步驟如下:
1) 先將待檢測圖像進行預(yù)處理。濾波去除干擾,再將圖像二值化,用canny算子進行輪廓提取。二值化時,盡量使包含橢圓之外的圖像部分像素值為零,這樣可以很大程度上減小后續(xù)圖像處理的計算量。
2) 然后,估計橢圓最大內(nèi)切圓的圓的半徑,并對圖像進行改進的Hough變換;
3) 接著,從所檢測出圓的半徑最小值出發(fā),當(dāng)判斷樹圓上僅只有兩點是橢圓上,且圓中不在包含有橢圓的其他的點時,即可認為該圓心為橢圓的中心;
4) 最后,將檢測出的內(nèi)切圓在圖像中顯示,即可看出是不是本文所要求的橢圓中心。
本文以一個項目中工件上的定位孔為例進行仿真。如圖2所示,欲要將鐵棒以液壓作為動力嵌入到底盤的圓孔中,鐵棒的端頭處,存在倒角,在液壓下,可以完成嵌入的工作。但由于鐵棒圓心與底盤的圓心存在一個偏差,容易導(dǎo)致鐵棒變形,影響產(chǎn)品質(zhì)量。所以在放鐵棒之前,先糾正底盤橢圓形圓孔的位置,如圖3所示,即檢測出圓孔的橢圓中心的坐標,再與標準的中心進行比較,即可計算出底盤需要偏轉(zhuǎn)的角度和方向。待底盤偏轉(zhuǎn)后,再嵌入鐵棒。
圖2 圓柱形鐵棒與橢圓形圓孔嵌入結(jié)合圖
圖3 放鐵棒前的底盤橢圓形圓孔位置
將圖3用本文設(shè)計的改進Hough變換算法進行仿真,可得仿真結(jié)果圖,如圖4所示,圖中藍色正圓即可認為是底盤橢圓形圓孔的最大內(nèi)切圓。仿真結(jié)果可以看出,本文設(shè)計的算法能夠很好地標定出橢圓的中心坐標,假設(shè)為(x1,y1),再與轉(zhuǎn)準點(x0,y0)進行比較,通過式(8)可以計算出底盤需要偏轉(zhuǎn)的角度。在實驗中,效果很好,大大提升了產(chǎn)品的質(zhì)量。
圖4 橢圓圓心定位結(jié)果圖
(8)
式中,r表底盤圓心到標準小圓心的距離,θ表底盤應(yīng)轉(zhuǎn)的角度。
本文通過對Hough變換進行改進,通過檢測橢圓最大內(nèi)切圓,并計算其圓心坐標來求取橢圓中心的方法,實現(xiàn)了工業(yè)中工件上的定位孔橢圓中心的自動提取。通過仿真可知,該方法可以實現(xiàn)橢圓中心的有效識別,定位精度較高,具有較強的魯棒性。與此同時,克服了傳統(tǒng)Hough變換法計算量較大的缺點,極大地減小了圖像處理過程中的計算量。簡單易行,能夠很好地滿足了實際生產(chǎn)中的機器視覺檢測的需要。
[1] 韓冰,上官晉太,李艷玲.基于最小二乘法的一種橢圓中心定位方法[J].長治學(xué)院學(xué)報,2009,26(5):66-68. HAN Bing, SHANGGUAN Jintai, LI Yanling. An Ellipse Center Location Method Based on Least Square Method[J]. Journal of Changzhi University,2009,26(5):66-68.
[2] 楊莎莎, 田小平,王小剛.基于小波包變換和圓形鄰域特征的圖像融合[J].計算機測量與控制,2013,21(7):1923-1926. YANG Shasha, TIAN Xiaoping, WANG Xiaogang. Image Fusion Algorithm Based on Wavelet Packet Transform and Characteristics of Circular neighborhood for Image[J].Computer Measurement and Control,2013,21(7):1923-1926.
[3] 李秀成,陳韜亦.淺析GVF模型在圖像分割中的改進應(yīng)用[J].工業(yè)和信息化教育,2014,12:82. LI Xiucheng, CHEN Taoyi. Analysis of GVF Model in Image Segmentation in the Improvement of Application[J]. Industry and Information Technology Education,2014,12:82.
[4] 趙京東.用兩步Hough變換檢測圓[J].計算機應(yīng)用,2008,28(7):1761-1763. ZHAO Jingdong. Using Tow-Steps Hough Transform to Detection Ellipses[J]. Computer Applications,2008,28(7):1761-1763.
[5] 夏磊,蔡超.一種用Hough變換檢測圓的快速算法[J].計算機應(yīng)用研究,2007,24(10):197-199. XIA Lei, CAI Chao. New Fast Algorithm of Hough Transform Detection of Circles[J]. Application Research of Computers,2007,24(10):197-199.
[6] 呂繼武,于偉,鄭偉.一種基于改進的HOUGH變換的車輪檢測方法[J].電子技術(shù)與軟件工程,2014(13):121. LV Jiwu, YU Wei, ZHENG Wei. A Wheel Detection Method Based on Improved HOUGH Transform[J]. Electronic Technology and Software Engineering,2014(13):121.
[7] Bober M, Kittler J. A hough transform based hierarchical algorithm for motion segmentation[C]//Time-Varying Image Processing and Moving Object Recognition: Proceedings of the 4th International Workshop Florence,2013:335.
[8] Mukhopadhyay P, Chaudhuri B B. A survey of Hough Transform[J]. Pattern Recognition,2015,48(3):993-1010.
[9] 葉峰,陳燦杰,賴乙宗.基于有序Hough變換的快速圓檢測算法[J].光學(xué)精密工程,2014,22(4):1105-1111. YE Feng, CHEN Chanjie, LAI Yizong. Fast Circle Detection Algorithm Using Sequenced Hough Transform[J]. Optics and Precision Engineering,2014,22(4):1105-1111.
[10] 曾文靜,張鐵棟,萬磊.基于Hough變換的水下管道檢測方法[J].儀器儀表學(xué)報,2012,33(1):76-84. ZENG Wenjing, ZHANG Tiedong, WAN Lei. Underwater Pipeline Detection Based on Hough Transform [J]. Chinese Journal of Scientific Instrument,2012,33(1):76-84.
Design of Improved Hough Transform Method of Locating Ellipse Center
GAO Ning
(Yangzhou Polytechnic Institute, Yangzhou 225127)
This paper deals with a complete method to locate the ellipse center based on the maximum inscribed circle, in order to meet the need of location of ellipse center in the industrial machine vision inspection. In this paper, an improved Hough transform is used to locate the ellipse center rapidly. Meanwhile, the center of the inscribed circle can be regarded as the target coordinate of the ellipse center. Experiment shows that the method can automatically locate the ellipse center coordinate in a minute, with high precision and strong robustness. Thanks to the high precision and strong robustness, the method is scientifically practical and easy to use in industrial production.
ellipse center, Hough transform, inscribed circle, machine vision
2016年5月13日,
2016年6月23日
高寧,女,碩士研究生,助教,研究方向:控制理論與方法、智能機器人。
TP274
10.3969/j.issn.1672-9722.2016.11.009