国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

刀具磨損圖像視差圖的非標定方法

2016-12-23 02:02:24朱愛斌何大勇鄒超陳渭
西安交通大學學報 2016年3期
關鍵詞:視差標定校正

朱愛斌,何大勇,鄒超,陳渭

(西安交通大學現(xiàn)代設計及轉子軸承系統(tǒng)教育部重點實驗室,710049,西安)

?

刀具磨損圖像視差圖的非標定方法

朱愛斌,何大勇,鄒超,陳渭

(西安交通大學現(xiàn)代設計及轉子軸承系統(tǒng)教育部重點實驗室,710049,西安)

刀具磨損檢測的視場范圍很小、現(xiàn)場工況復雜(存在機床護罩和刀具保持架的遮擋),而以往對攝像機進行標定的方法多用于大視場環(huán)境,并不適合于加工現(xiàn)場的刀具磨損檢測。為此,文中提出一種采用非標定雙目視覺方法獲取刀具磨損圖像視差圖的方法,無需標定參考物和人工干預。首先,利用SURF(speeded-up robust features)算法檢測圖像對中的特征點;其次,利用8點算法計算基本矩陣,再利用極點無窮遠變換完成圖像對的校正;最后,利用基本區(qū)域匹配方法完成圖像對視差的計算。進行了加工現(xiàn)場的磨損刀具圖像獲取實驗,先對比了重構出的刀具視差圖輪廓與實際輪廓,接著分析了刀具視差圖的精度。結果顯示,重構輪廓與實際輪廓基本相符,重構出的視差圖的絕對誤差在5個像素點以下,相對誤差在10%至30%之間,說明在小視場和復雜工況下,用非標定方法獲取的刀具視差圖能夠滿足現(xiàn)場檢測的精度要求,并且該方法具有靈活和高效的特點。

刀具磨損;視差圖;非標定方法;雙目視覺

在雙目視覺中,視差是指空間一點在2幅圖像中形成的2個成像點坐標上的差異。視差圖是以原圖為大小、以各個視差值為元素的圖像。刀具磨損圖像的視差圖能夠間接反映出刀具磨損表面的深度信息,對于刀具磨損表面的三維重構具有重要意義[1-2]。通過獲取磨損表面的三維信息,可以對刀具磨損狀態(tài)進行有效檢測,從而減少機床故障的停機時間,提高自動化加工效率。對雙目視覺中采用標定方式獲得視差圖的方法而言,需要標定攝像機以獲得其內外參數,然后進行圖像對校正和視差計算[3]。張鋮偉等介紹了攝像機標定的基本方法和步驟,并比較了不同標定方法的特點[4]。Zhou等提出了一種改進的隨機抽樣一致算法,并借助標定板準確地計算出了攝像機的內外參數[5]。劉亞菲采用標定的雙目視覺方法,對大型工件的焊接位置進行了測量[6]。王琳等采用張正友標定法對2個攝像機進行標定,計算出了橋梁裂縫的長度和寬度[7]。許薛軍等采用基于Tsai標定法的雙目視覺方法,對公路邊坡位移進行了識別[8]。Wang等針對大視場視覺測量應用,提出了兩步標定法用于計算攝像機參數[9]。但是,以上標定方法都是在大視場范圍進行的,并且需要標定參考物和人工干預??紤]到刀具磨損檢測的視場范圍很小并且現(xiàn)場工況復雜(存在機床護罩和刀具保持架的遮擋),放置標定參考物很不方便,且加工時無法進行人工干預,所以標定的方法不適合加工現(xiàn)場的刀具磨損檢測。

針對上述情況并結合現(xiàn)場刀具磨損檢測的特點,本文提出采用非標定雙目視覺方法獲取刀具磨損圖像的視差圖,通過對比重構出的視差圖輪廓與實際輪廓之間的差異來分析視差圖的精度。結果顯示,非標定方法能夠適應小視場和復雜工況,具有靈活和高效的特點。

1 雙目視覺方法基本原理

雙目視覺方法可以理解為通過三維空間物體在左右2個攝像機成像平面上形成的數字圖像,反推出三維空間物體點在世界坐標系中的坐標的過程。

在理想條件下,左右2個攝像機的成像平面平行,如圖1所示,可以利用三角測距原理確定空間點P的深度值。點P的深度計算公式[10]為

(1)

式中:f為攝像機焦距;B為左右攝像機光心的基線距離;dx為視差。

圖1 三角測距原理圖

2 刀具磨損圖像視差圖獲取算法

獲取刀具磨損圖像的視差圖對重構出刀具磨損表面的深度信息具有重要意義。由前面的分析可知,要獲取視差圖必須先使左右成像平面平行,而實際情況下左右成像平面并不平行,如圖2所示。

圖2 空間一點成像示意圖

因此,需要對左右成像平面進行校正,使得左右成像平面平行,這樣才可以進行視差計算??梢圆捎脴硕▍⒖嘉飳z像機進行標定,根據標定得到的攝像機內外參數對左右攝像頭獲取的圖像進行校正[3]。但是,由于刀具磨損檢測的視場范圍很小,刀具磨損檢測現(xiàn)場工況復雜,放置標定參考物很不方便,且加工時無法進行人工干預,所以利用標定方法進行校正的實用性較差。

本文提出采用非標定方法對左右2幅刀具磨損圖像進行校正。在圖2中,極線l1與l2在PO1O2三點構成的平面內,這個線面關系約束稱為極線約束,在數學上用基本矩陣來表示極線約束。基本矩陣代表了左右2幅圖像對應點之間的關系,通過基本矩陣對2個對應點之間的幾何關系進行約束,可以使2幅圖像的畸變最小。這種方法不需要進行標定,處理過程稱為極線約束下的圖像校正。

利用非標定雙目視覺獲取視差圖的基本過程如如3所示。

圖3 非標定雙目視覺獲取視差圖過程

2.1 用SURF算法提取圖像對特征點

SURF(speeded-up robust features)算法由Bay等提出[11],是一種尺度和旋轉不變的檢測子和描述子,用來檢測圖像中的特征點。

為了保證檢測子和描述子的尺度不變性,需要在不同尺度下對圖像進行特征點檢測。SURF算法使用不同大小的方形濾波器與圖像進行卷積,濾波器則通過高斯函數進行加權。SURF算法利用特征點的近似Hessian矩陣作為特征點的響應。對于尺度為σ、坐標為x=(x,y)的圖像點,Hessian矩陣定義為

(2)

式中:Lxx為圖像點處灰度值與高斯函數二階導數的卷積;Lxy、Lyx和Lyy的含義與Lxx類似。高斯函數為

(3)

2.2 基本矩陣的計算

基本矩陣包含了圖像對應匹配特征點的極線約束,建立了左右圖像中對應點集的映射關系。假設矩陣F是圖像對(I1,I2)的基本矩陣,P1=(x,y,1)T和P2=(x′,y′,1)T(齊次坐標)分別是2幅圖像上對應的特征點,那么基本矩陣和2個特征點之間有如下關系[10]

(4)

另外,基本矩陣F和左、右極點J1、J2之間的關系[10]為

(5)

若將基本矩陣元素用f及下標表示,則式(4)變?yōu)?/p>

x′xf11+x′yf12+x′f13+y′xf21+

y′yf22+y′f23+xf31+yf32+f33=0

(6)

若有n個對應特征點,則式(6)可寫成如下矩陣形式

Af=0

(7)

本文采用由Longuet-Higgins提出的8點算法[12],該算法只需要8個匹配的特征點即可求解出基本矩陣,運算速度快。

8點算法計算基本矩陣的流程如下。

(3)去坐標變換?;揪仃嘑=t′TF′t,其中F為原來特征點對應的基本矩陣。

2.3 圖像對校正

使左右2個成像平面完全平行的過程稱為圖像對的校正,如圖4所示。

(a)校正前 (b)校正后圖4 圖像對校正原理

由圖4可知,校正之后圖像對的極點被映射到無窮遠處,并且對應極線平行。問題轉化為先計算左校正矩陣H將左極點映射到無窮遠,再計算右校正矩陣H′將右極點映射到無窮遠,同時要注意在計算H′時要滿足校正后的圖像畸變最小。

先計算左校正矩陣H。假設點u0位于原點,左極點J1=(m,0,1)T位于x軸,考慮如下變換

(8)

該變換將極點(m,0,1)T映射到無窮遠點(m,0,0)T,而一個任意點(u,v,1)T在上述變換的映射下將變?yōu)?u,v,1)T=(u,v,1-u/f)T。

所以,對任意興趣點u0和左極點J1,左校正變換可以表示為

H=GRT

(9)

式中:G將左極點J1變換到無窮遠;R將左極點J1變換到x軸;T將興趣點u0變換到原點。

再計算右校正矩陣H′,并保證校正后圖像畸變最小。為保證圖像畸變最小,采用如下判別標準[10]

(10)

另外,基本矩陣F可以表示成

F=[J2]×M

(11)

式中:[J2]×為右極點J2向量形成的反對稱矩陣;M為非奇異矩陣。

用左校正矩陣H表示右校正矩陣H′

H=(I+H′J2aT)H′M

(12)

式中:a為特定向量。

由于H′將右極點J2映射到無窮遠點(1,0,0)T,即H′J2=(1,0,0)T,那么有

(13)

從而有H=AH′M,即

H′=A-1HM-1

(14)

(15)

式(15)是一個線性最小二乘估計問題,利用線性方法就可以求解出未知參數a、b和c,從而得到A。至此,左右校正矩陣H和H′已全部求出。上述圖像校正過程總結如下:

(1)得到基本矩陣,根據式(5)計算圖像對的對應極點;

(2)計算圖像對的左校正矩陣H;

(3)依據畸變最小原則,計算圖像對的右校正矩陣H′;

(4)根據得到的2個校正矩陣分別對2幅圖像做校正變換。

2.4 利用基本區(qū)域匹配算法的圖像對匹配

校正后的圖像對匹配點的橫坐標相同,只需要在另外一幅圖像中相同的橫軸上搜尋對應的匹配點。這里利用基本區(qū)域匹配算法執(zhí)行圖像對的立體匹配。基本區(qū)域匹配是以圖像中的點為中心構建一個固定大小的區(qū)域,以像素灰度平均絕對誤差Ema為指標,計算一幅圖像的某個區(qū)域內像素點的灰度值與另外一幅圖像的相同橫坐標軸上相同大小區(qū)域內像素點的像素灰度平均絕對誤差[13]。在通常情況下,固定某一幅圖像的一個點坐標之后,遍歷另外一幅圖像中相同橫坐標的點,像素灰度平均絕對誤差最小的點即為匹配點。像素灰度平均絕對誤差定義如下

Ema(x,y)=

(16)

式中:模板半徑i取為3;f(x,y)是(x,y)處的像素點灰度值。

3 加工現(xiàn)場刀具磨損圖像獲取實驗

3.1 重構輪廓形狀分析

為了在加工現(xiàn)場進行刀具磨損檢測,采用微距攝像頭,用磁性表座對攝像頭進行固定。實驗在G-CNC6135數控車床上進行,回刀時在車床上進行檢測,刀具為45°YW2型硬質合金焊接車刀。使用自行開發(fā)的軟件獲取圖像,實驗裝置如圖5和圖6所示。

圖5 現(xiàn)場刀具磨損檢測裝置

圖6 檢測細節(jié)

首先,針對背景與結構關系簡單、對比度低的問題對圖像進行預處理;接著,使用SURF算法對圖像特征點進行檢測,得到大量的對應匹配點;然后,根據對應匹配點計算出基本矩陣,再經過極點無窮遠變換得到校正后的圖像對。過程如圖7和圖8所示,可以看出,校正后的圖像畸變較小,并且相同位置圖像特征點的橫坐標相同。

(a)左圖像特征點檢測 (b)右圖像特征點檢測圖7 SURF算法檢測到的焊接車刀匹配點

(a)校正后的左圖像 (b)校正后的右圖像圖8 校正后的焊接車刀左右圖像對

最后,使用基本區(qū)域匹配方法獲取焊接車刀視差圖,結果如圖9所示。

圖9 刀具磨損圖像視差圖

下面,通過觀察3個關鍵位置處的輪廓,對重構出的刀具磨損區(qū)域視差圖進行輪廓形狀分析。為了減少噪聲,使用均值濾波模板對視差圖做均值濾波處理。選取的特征位置為上下2個刀尖與刀刃中部,選取方式如圖10所示。

(a)下刀尖特征點坐標

(b)刀刃特征點坐標圖10 下刀尖與刀刃特征點坐標

圖10a中,下刀尖特征點的坐標(坐標單位均為像素,下同)分別為(615,215)、(615,240)和(615,245),原點是左上角頂點,橫軸為水平方向。圖10b中,刀刃特征點坐標分別為(545,190)、(545,205)和(545,230)。類似地,選取上刀尖特征點坐標分別為(455,155)、(455,185)和(455,200)。選取這些點所在直線經過的各位置的視差值形成刀具磨損表面輪廓,如圖11a~11c所示。

(a)下刀尖視差圖輪廓 (b)刀刃視差圖輪廓

(c)上刀尖視差圖輪廓 (d)顯微鏡下的輪廓圖11 特征位置處視差圖輪廓與顯微鏡下的輪廓

圖11d是由奧林巴斯OLS4000共聚焦顯微鏡獲得的刀具磨損表面輪廓形狀,顯微鏡水平分辨率為0.12 μm,垂直分辨率為0.01 μm??梢钥吹?圖中刀具磨損區(qū)域是一個斜坡。將圖11a~11c分別與圖11d作對比,發(fā)現(xiàn)重構出的視差圖中磨損區(qū)域輪廓也呈斜坡狀,與實際輪廓基本一致。

3.2 重構精度分析

由于圖像校正過程可以近似認為是剛體變換,所以刀具表面的幾何元素相對位置不發(fā)生改變,但由于校正后的圖像是原圖像的重采樣,所以幾何元素的長度與相對距離會發(fā)生改變。選取幾何位置關系沒有發(fā)生改變的刀具上下刀尖位置處的邊界距離進行畸變系數計算,以減少校正過程產生的測量誤差。如圖12a所示,沿刀具前刀面的3個邊界分別作3條直線相交于2點,分別為(319,115)與(525,227)。在圖12b中,用相似方法求得2個交點的坐標為(326,288)和(614,407)。

(a)原圖特征線段

(b)視差圖特征線段圖12 視差圖相對原圖的畸變系數計算

計算圖12a與圖12b中所取線段的長度,將兩者的比值作為后面磨損區(qū)域寬度測量中的畸變系數[14]。計算結果:原圖特征線段長度為234.48像素;視差圖特征線段長度為311.62像素;線性畸變系數為1.33。

接下來進行視差圖磨損區(qū)域測量寬度的精度分析。選取測量的第一個特征磨損區(qū)域為刀刃。為測量刀刃最小磨損寬度值,按圖13a所示方法做3條直線交于2點,坐標分別為(527,225)和(523,233)。類似地,圖13b中2點的坐標分別為(412,139)和(418,126)。

(b)視差圖中的磨損寬度圖13 刀刃最小磨損寬度測量

(a)原圖中的磨損寬度

(b)視差圖中的磨損寬度圖14 刀尖特征位置一的磨損寬度測量

選取測量的第二個和第三個特征磨損區(qū)域為上刀尖處的2個凸點。在圖14a中,過上刀尖磨損外邊界作一條直線,向磨損內邊界推移此直線直到與磨損內邊界相接觸,前刀面左邊界與上述直線交于一點,即所求凸點,過此凸點作直線的垂線,該垂線段即代表磨損區(qū)域寬度。圖14a中所取點的坐標為(303,138)和(307,162),圖14b中所取點的坐標為(399,159)和(407,195)。

在圖15中,用類似方法求取垂線段。圖15a中所取點的坐標為(355,134)和(358,157),圖15b中所取點的坐標為(468,150)和(473,178)。

(a)原圖中的磨損寬度

(b)視差圖中的磨損寬度圖15 刀尖特征位置二的磨損寬度測量

根據上述坐標,計算所需測量處磨損區(qū)域的寬度,并將畸變校正后原圖中的磨損區(qū)域寬度值與視差圖得到的磨損區(qū)域寬度值進行對比,3個磨損區(qū)域的寬度值對比結果見表1。

表1 刀具特征位置磨損區(qū)域檢測寬度的

w0:原圖磨損區(qū)域寬度;w1:畸變系數校正后原圖磨損區(qū)域寬度;w2:視差圖磨損區(qū)域寬度;Eabs:絕對誤差;δ:相對誤差。

分析表1的數據可以發(fā)現(xiàn),測量得到的磨損區(qū)域寬度絕對誤差在5像素以下,相對誤差在10%至30%之間。

綜合上述重構出的視差圖的輪廓分析與精度分析結果,發(fā)現(xiàn)重構出的視差圖中的刀具輪廓與實際刀具輪廓形狀基本相符,且重構出的磨損區(qū)域寬度的絕對誤差在5像素以下,相對誤差在10%至30%之間,表明采用非標定方法獲取的刀具磨損圖像的視差圖基本能夠滿足加工現(xiàn)場的刀具磨損檢測要求,且具有靈活和高效的特點。

4 結 論

本文提出了一種采用非標定雙目視覺方法獲取刀具磨損圖像視差圖的方法,無需獲取攝像機的內外參數,無需標定參考物和人工干預即可完成圖像對的校正和視差圖獲取。分析表明:采用本文方法重構出的刀具視差圖輪廓與實際輪廓基本相符;分析視差圖測量得到的磨損區(qū)域寬度與原圖測量得到的磨損區(qū)域寬度,可知現(xiàn)場加工環(huán)境中非標定雙目視覺方法的測量精度可以達到5像素以下,相對誤差在10%至30%之間。造成誤差的因素涉及攝像頭像素及感光性能、現(xiàn)場光源條件、車床的輕微振動、視差圖獲取算法等,未來可通過采用更高質量的攝像頭、設置附加光源、完善圖像處理算法等途徑來提高精度。

本文的研究表明,非標定雙目視覺方法無需對攝像機進行標定,能夠在復雜工況下獲取刀具磨損圖像的視差圖,且視差圖的精度基本能夠滿足加工現(xiàn)場刀具磨損檢測的要求,具有靈活和高效的特點。未來的工作重點將放在提高刀具磨損圖像視差圖的精度方面。

[1] CERCE L, PUSAVEC F, KOPAC J. 3D cutting tool-wear monitoring in the process [J]. Journal of Mechanical Science and Technology, 2015, 29(9): 3885-3895.

[2] WANG Z, LI B, ZHOU Y. Fast 3D reconstruction of tool wear based on monocular vision and multi-color structured light illuminator [C]∥Proceedings of International Symposium on Optoelectronic Technology and Application. Bellingham, WA, USA: SPIE, 2014: 93011D.

[3] FORSYTH D, PONCE J. Computer vision: a modern approach [M]. 2nd ed. New York, USA: Pearson, 2011: 32-43.

[4] 張鋮偉, 王彪, 徐貴力. 攝像機標定方法研究 [J]. 計算機技術與發(fā)展, 2010, 20(11): 174-179. ZHANG Chengwei, WANG Biao, XU Guili. Research of camera calibration methods [J]. Computer Technology and Development, 2000, 20(11): 174-179.

[5] ZHOU F, CUI Y, WANG Y, et al. Accurate and robust estimation of camera parameters using RANSAC [J]. Optics and Lasers in Engineering, 2013, 51(3): 197-212.

[6] 劉亞菲. 大型工件焊接雙目視覺測量及精度研究 [D]. 上海: 華東理工大學, 2013.

[7] 王琳, 趙健康, 夏軒, 等. 基于雙目立體視覺技術的橋梁裂縫測量系統(tǒng) [J]. 計算機應用, 2015, 35(3): 901-904. WANG Lin, ZHAO Jiankang, XIA Xuan, et al. Bridge crack measurement system based on binocular stereo vision technology [J]. Journal of Computer Applications, 2015, 35(3): 901-904.

[8] 許薛軍, 張肖宇. 基于雙目視覺的公路邊坡表面位移識別方法 [J]. 中國公路學報, 2015, 28(4): 27-34. XU Xuejun, ZHANG Xiaoyu. Highway slope displacement identification method based on binocular vision [J]. China Journal of Highway and Transport, 2015, 28(4): 27-34.

[9] WANG Z, WU Z, ZHEN X, et al. A two-step calibration method of a large FOV binocular stereovision sensor for onsite measurement [J]. Measurement, 2015, 62(2): 15-24.

[10]HARTLEY R, ZISSERMAN A. Multiple view geometry in computer vision [M]. 2nd ed. Cambrige, England, UK: Cambridge University Press, 2004: 295-305.

[11]BAY H, ESS A, TUYTELAARS T, et al. Speeded-up robust features (SURF) [J]. Computer Vision and Image Understanding, 2008, 110(3): 346-359.

[12]LONGUET-HIGGINS H C. A computer algorithm for reconstructing a scene from two projections [J]. Nature, 1981, 293(36): 133-135.

[13]HASSEN W, AMIRI H. Block matching algorithms for motion estimation [C]∥Proceedings of IEEE International Conference on e-Learning in Industrial Electronics. Piscataway, NJ, USA: IEEE, 2013: 136-139.

[14]胡浩強. 基于不完整信息圖像融合的刀具磨損檢測技術研究 [D]. 西安: 西安交通大學, 2015.

[本刊相關文獻鏈接]

張鵬,陳湘軍,阮雅端,等.采用稀疏SIFT特征的車型識別方法.2015,49(12):137-143.[doi:10.7652/xjtuxb201512 022]

崔汪莉,衛(wèi)軍胡,紀鵬,等.基于加權局部梯度直方圖的頭部三維姿態(tài)估計.2015,49(11):71-76.[doi:10.7652/xjtuxb 201511012]

周遠,周玉生,劉權,等.一種適用于圖像拼接的DSIFT算法研究.2015,49(9):84-90.[doi:10.7652/xjtuxb201509015]

劉凱,張立民,孫永威,等.利用深度玻爾茲曼機與典型相關分析的自動圖像標注算法.2015,49(6):33-38.[doi:10.7652/xjtuxb201506006]

朱愛斌,胡浩強,何大勇,等.采用頻域融合方法的砂輪刀具磨損三維重構技術.2015,49(5):82-86.[doi:10.7652/xjtuxb201505013]

郝雯潔,齊春.一種魯棒的稀疏信號重構算法.2015,49(4):98-103.[doi:10.7652/xjtuxb201504016]

范優(yōu)飛,胡紅利,楊帆,等.一種48電極可配置電容層析成像系統(tǒng)模型.2015,49(4):110-115.[doi:10.7652/xjtuxb2015 04018]

唐曉慶,范賜恩,劉鑫.基于邊緣保持濾波的單幅圖像快速去霧.2015,49(3):143-150.[doi:10.7652/xjtuxb201503022]

劉天良,鄭海紅,羅圣美,等.改進的混合動靜態(tài)背景的分割方法.2015,49(2):25-30.[doi:10.7652/xjtuxb201502005]

李鵬,楊旸,方濤.應用視覺顯著性的快速有偏聚類超像素算法.2015,49(1):112-117.[doi:10.7652/xjtuxb201501019]

楊曄,潘希德,莊健.一種針對超聲檢測圖像的自適應閾值設置方法.2015,49(1):127-132.[doi:10.7652/xjtuxb201501 021]

陳倩倩,張磊,徐剛,等.利用多通道聯(lián)合稀疏重建的干涉逆合成孔徑雷達三維成像算法.2014,48(12):100-106.[doi:10.7652/xjtuxb201412016]

侯興松,張?zhí)m.方向提升小波變換域稀疏濾波的自然圖像貝葉斯壓縮感知.2014,48(10):15-21.[doi:10.7652/xjtuxb 201410003]

李博,馮松,毛軍紅.在線圖像可視鐵譜LED陣列反射光源設計與實現(xiàn).2014,48(10):29-34.[doi:10.7652/xjtuxb2014 10005]

(編輯 葛趙青)

Uncalibrated Method for Disparity Map of Tool Wear Images

ZHU Aibin,HE Dayong,ZOU Chao,CHEN Wei

(Key Laboratory of Education Ministry for Modern Design & Rotor-Bearing System, Xi’an Jiaotong University, Xi’an 710049, China)

The field of view of tool wear detection is small, and the site condition is complex (e.g., the blocking of machine cover and tool holder exists). Whereas the traditional method that needs camera calibration is mostly used in large field of view, which is not suitable for on-site tool wear detection. An uncalibrated method based on binocular vision is proposed in this paper for obtaining the disparity map of tool wear images without calibration reference or man-induced intervention. Firstly, SURF (speeded-up robust features) algorithm is used to detect the images’ feature points. Then, the 8-point algorithm is adopted to estimate the fundamental matrix; next, image correction is completed by pole infinity transform. Finally, the disparity map is obtained by basic block matching algorithm. On-site experiments were conducted to obtain the tool wear images, and the analysis on profile and accuracy of the reconstructed disparity map was performed. The results show that the reconstructed profile is basically consistent with the actual profile; the absolute error of the reconstructed disparity map is less than 5 pixels and the relative error is between 10% and 30%, meaning that the disparity map obtained by the uncalibrated method in small field of view and complex site condition can meet the accuracy requirement for on-site detection, and this method is also flexible and effective.

tool wear; disparity map; uncalibrated method; binocular vision

10.7652/xjtuxb201603002

2015-09-18。 作者簡介:朱愛斌(1975—),男,副教授。 基金項目:國家自然科學基金資助項目(51175409)。

時間:2015-12-31

http:∥www.cnki.net/kcms/detail/61.1069.T.20151231.1129.004.html

TH113.2

:A

:0253-987X(2016)03-0008-08

猜你喜歡
視差標定校正
基于自適應窗的立體相機視差圖優(yōu)化方法研究
劉光第《南旋記》校正
國學(2020年1期)2020-06-29 15:15:30
使用朗仁H6 Pro標定北汽紳寶轉向角傳感器
基于梯度域引導濾波的視差精煉迭代算法
一類具有校正隔離率隨機SIQS模型的絕滅性與分布
機內校正
基于勻速率26位置法的iIMU-FSAS光纖陀螺儀標定
船載高精度星敏感器安裝角的標定
基于分割樹的視差圖修復算法研究
立體視差對瞳孔直徑影響的研究
濮阳县| 永康市| 盐池县| 余干县| 安仁县| 永定县| 南投县| 桐柏县| 中西区| 临朐县| 安新县| 安丘市| 遵义县| 湘西| 克东县| 双牌县| 瓮安县| 保亭| 大兴区| 黄浦区| 通山县| 洛宁县| 定南县| 忻城县| 庆元县| 屏东县| 湘潭县| 西丰县| 桃园市| 南乐县| 天祝| 同江市| 岳池县| 额尔古纳市| 乌审旗| 无棣县| 科尔| 临海市| 东阳市| 体育| 鲜城|