国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

線結構光視覺傳感器機器人手眼關系標定

2019-11-16 11:06陸藝沈添秀郭小娟郭斌
中國測試 2019年10期
關鍵詞:標定工業(yè)機器人

陸藝 沈添秀 郭小娟 郭斌

摘要:為實現對工業(yè)機器人手眼關系的標定,提出一種基于線結構光視覺傳感器的手眼關系標定方法。該方法在標定時,將一個平面靶標作為參考物固定在工業(yè)機器人工作空間內,控制工業(yè)機器人末端運動以帶動線結構光視覺傳感器作多組變位姿運動,獲取在不同位姿狀態(tài)下的平面靶標圖像并對其進行圖像處理。通過對圖像上固定特征點的測量,以及建立線結構光視覺傳感器模型和手眼關系模型實現對線結構光內參數和手眼關系的標定。用棋盤格標定板進行測量實驗驗證,實驗結果表明該方法準確度為0.036mm,即優(yōu)于40μm,可用于工業(yè)機器人的測量應用。

關鍵詞:手眼關系;線結構光傳感器;標定;工業(yè)機器人

中圖分類號:TP242.2 文獻標志碼:A 文章編號:1674-5124(2019)10-0006-04

0 引言

工業(yè)機器人廣泛應用在工業(yè)制造領域,通常需要將測量傳感器安裝在機器人末端,以獲取被測物的三維信息。因此可將線結構光視覺傳感器安裝于六軸工業(yè)機器人末端,構成基于線結構光的機器人視覺測量系統。該系統可通過控制機器人以不同位

收稿日期:2018-10-30;收到修改稿日期:2018-12-17

基金項目:浙江省基礎公益研究計劃項目(LGG18E050009);浙江省科技計劃項目重大科技專項(2018001063)

作者簡介:陸藝(1979-),男,江蘇揚州市人,副教授,碩士,研究方向為精密檢測技術、汽車零部件自動化測試。姿運動,從而對目標點進行測量獲得測量坐標系與目標點之間位置關系。要實現上述測量過程,需要先對線結構光傳感器內參數和機器人手眼關系進行標定。其中線結構光傳感器內參數標定根據靶標不同分為三維標定[1-2]和二維標定[3]兩種。三維標定靶標具有一定精度,但靶標成本和工藝要求高。二維靶標制作簡單、效率高,標定精度能滿足不同場合的測量需要。手眼關系標定方法通常有有限場景點法[4],平面靶標法[5-7],標準球法[8]等。其中手眼關系轉換矩陣的求解可通過兩步分離法[9]或單步法[10-11]得到,單步法可一步得到旋轉向量、平移向量,兩步分離法分兩步得到旋轉向量、平移向量,它存在累積誤差。

為此提出基于線結構光視覺傳感器的手眼關系標定的方法。該方法采用二維平面靶標進行標定,并通過單步法求解手眼關系。它簡化工業(yè)機器人測量系統的標定過程,僅通過控制機器人末端作位姿運動同時得到攝像機內外參數,線結構光內參數以及手眼關系,保證較高精度。以研華LNC-56000型六軸工業(yè)機器人為實驗平臺進行標定和測量實驗,驗證該方法的有效性。

1 系統標定原理

1.1 線結構光視覺傳感器模型

線結構光傳感器數學模型如圖1所示,該傳感器包括CCD相機以及線激光器兩部分。其中被測點尸在圖像坐標系OUV下坐標為(u,v),在相機坐標系OcXcYcZc下坐標為(xc,yc,zc),在世界坐標系OwXwYwZw下坐標為(xw,yw,zw),像面坐標系為OXY,相機主點坐標為(u0,v0)。

結合上述模型,根據相機的投影變換模型,被測點尸在圖像坐標系和相機坐標系的關系為式(1),相機坐標系和世界坐標系的關系為式(2):其中kx,ky為相機X軸、Y軸放大系數,MC為相機內參數矩陣,CMW為相機坐標和世界坐標轉換關系外參數矩陣,包括旋轉矩陣R和平移矩陣T。

假設在相機坐標系下光平面方程表示為:

z=Ax+By+C(3)

結合式(1)和式(3),可得到點P在相機坐標下的坐標為:

根據以上過程,已知光平面在相機下的方程即可得知空間某一點在相機坐標系下的坐標。式中kx,ky,u0,v0即為需要標定的相機內參數,光平面方程系數A,B,C即為待標定的結構光內參數。

1.2 確定線結構光內參數

采用如圖2所示的棋盤格標定板作為平面靶標,棋盤格為7×7的方形靶標,棋盤格大小為11mm×11mm。將標定板固定放置在工業(yè)機器人工作空間內,控制工業(yè)機器人帶動線結構光傳感器不同姿態(tài)得到靶標圖像。通過張正友標定法[12]獲得相機內外參數MC,CMW,即kx、ky、u0、v0和靶標坐標系與相機坐標系的轉換矩陣。靶標上角點和激光條形成交點,這些交點都為光平面上的點,將它們作為標定線結構光內參數的標定特征點。由式(2)得到這些特征點在相機坐標系下的坐標。通過使機器人末端帶動線結構光傳感器運動到不同位置,獲取多組標定特征點在相機坐標系下的坐標,由此可擬合相機坐標系下的光平面方程,獲得線結構光內參數A、B、C。

1.3 手眼關系模型

把線結構光視覺傳感器安裝在工業(yè)機器人末端,由此構成機器人視覺測量系統。按照圖3所示建立坐標系,其中Ob為機器人基坐標系,Qw為世界坐標系,Oe為工業(yè)機器人末端坐標系,Oc為相機坐標系。

由1.1和1.2可知,激光器投射出的光平面與被測物體相交形成光條,根據相機內參數及線結構光傳感器內參數即可得到被測點在相機坐標系下的坐標??刂茩C器人運動到不同位姿,通過式(5)將被測點的坐標統一到世界坐標系即機器人基坐標系下,便可獲得被測物體三維數據。

Pb=A60XPc(5)其中Pb為被測點P在機器人基坐標下的坐標;Pc為被測點尸在相機坐標系Oc下的坐標;A60為D-H[13]運動學建模的機器人末端坐標系De相對于基坐標系Ob的坐標轉換矩陣;X為待標定的手眼關系矩陣即傳感器坐標系Oc相對于機器人末端的坐標變換,為常矩陣。

1.4 手眼關系標定

同樣使用棋盤格作為標定靶標,選取棋盤格上的固定點作為手眼標定特征點,把棋盤格固定在機器人工作空間內,機器人帶動傳感器不同位姿下拍攝該點,并使該點處于激光面上。由1.3可知該點在傳感器坐標系下坐標記為Pc在機器人基坐標下的坐標記為Pb,手眼矩陣記為X,分別以齊次坐標表示它們?yōu)椋?/p>

對固定點進行n次測量,則有:

可由式(9)建立方程組:

對上述方程組進行求解,可得到手眼矩陣X。

2 標定實驗及結果

線結構光視覺傳感器中選用分辨率為1280×960的相機,波長為650nm的紅外線一字線激光器,搭建完成的機器人視覺測量系統。

針對線結構光的機器人視覺測量系統進行標定的實驗步驟如下:1)在激光器關閉情況下,使機器人在不同位姿拍攝20張棋盤格圖片,用于相機內外參數的標定,并使其中2個姿態(tài)得到圖片能夠適用于光平面標定(激光線與某行角點重合);2)在拍攝1)中的2個特殊位置的圖片時打開激光器,得到帶激光線的棋盤格靶標照片;3)利用1)中獲取的圖像,通過Matlab標定工具箱得到相機的內參數,以及2張?zhí)厥馕恢玫耐鈪担ㄆ灞P格相對于相機的旋轉矩陣);4)根據3),利用2)中的獲取的帶激光線特征點的圖像數據標定線結構光內參數;5)打開激光器從不同位姿拍攝9組圖像中包含固定點圖片;6)根據4)中得到的結果,利用5)中的數據,得到手眼矩陣。按照上述標定步驟,得到攝像機內夕滲數為:

線結構光內參數為:

A=-0.4602;B=0.0049;C=481.6375

手眼矩陣為:

3 精度驗證實驗

在完成上述標定工作后,設計如下實驗對測量系統精度進行驗證。在圖4中的兩個位置對棋盤格所示角點A、B、…、F,G、H、…、L進行測量,驗證線結構光內參數和手眼關系的標定結果。在機器人工作空間內放置棋盤格,棋盤格每個格子邊長規(guī)格為11mm×11mm(準確度3μm)。由上述方法標定的線結構光視覺傳感器讀出各待測點在傳感器坐標系下的三維坐標,并通過手眼關系結果轉換到機器人基座標下,得到相應線段AB,BC,…,KL的測量尺寸,將實際測得尺寸與標準尺寸比較。驗證實驗示意圖如圖4所示。

分別在不同姿態(tài)下進行5次實驗,實驗結果統計如表1所示。從表中數據可知,取測量結果的平均值并求得其標準差為0.036mm,即該測量系統精度優(yōu)于40μm。

4 結束語

本文構建了一種基于線結構光的工業(yè)機器人視覺測量系統,并針對該系統提出基于線結構光傳感器的手眼關系標定,減小了因線結構光參數的變化對整體測量精度的影響,使用同一標定靶標簡略了標定步驟。該方法在獲取用于相機標定靶標圖像時,同時得到標定線結構光內參數的圖像,在不同位姿變化中,基于單點約束標定了手眼關系。最后通過測量棋盤格標定板進行精度驗證,實驗結果表明該方法具有較高測量精度即優(yōu)于40μm,可以應用于工業(yè)機器人測量。

參考文獻

[1]DUAN F J,LIU F M,YE S H.A new accurate method for thecalibration of line structured light sensor[J].Chinese Journalof Scientific Instrument,2000,21(1):108-110.

[2]WANG W,LI A,MA Z,et al.An automated method to robotcalibration using line-structure-light vision sensor[C]//IEEEInternational Conference on Automation and Logistics.IEEE,2009:1896-1899.

[3]FAN J,JING F,FANG Z,et al.A simple calibration methodof structured light plane parameters for welding robots[C]//Chinese Control Conference.2016:6127-6132.

[4]XU H X,WANG Y N,WAN Q,et al.A self-calf-brationapproach to hand-eye relation of robot[J].Robot,2008,30(4):373-378.

[5]KEFERSTEIN C P,MARXER M.Testing bench for lasertriangulation sensors[J].Sensor Review,1998,18(3):183-187.

[6]WEI Z,XIE M,ZHANG G.Calibration method for linestructured light vision sensor based on vanish points andlines[C]//International Conference on Pattern Recognition.IEEE,2010:794-797.

[7]沈波波,許嘉璐,孔明.基于線結構光的空調四通換向閥高度測量[J].中國測試,2018(3):33-37.

[8]LIU Z,LI X J,LI F J,et al.Calibration method for line-structured light vision sensor based on a single ball target[J].Optics and Lasers in Engineering,2015,69:20-28.

[9]解則曉,牟楠,遲書凱,等.結構光內參數和機器人手眼關系的同時標定[J].激光與紅外,2017,47(9):1142-1148.

[10]熊會元,宗志堅,高群.一種線結構光視覺傳感器手眼標定方法及仿真[J].系統仿真學報,2010(9):2223-2226.

[11]王金橋,段發(fā)階,伯恩,等.線結構光掃描傳感器結構參數一體化標定[J].傳感技術學報,2014(9):1196-1201.

[12]ZHANG Z.A flexible new technique for cameracalibration[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2000,22(11):1330-1334.

[13]SHAH S V,SAHA S K,DUTT J K.Denavit-Hartenbergparameterization ofeuler angles[J].Journal ofComputational&Nonlinear Dynamics,2012,7(2):021006-021006-10.

(編輯:劉楊)

猜你喜歡
標定工業(yè)機器人
集成到實際開發(fā)環(huán)境中的虛擬發(fā)動機標定技術
摻水抽油井產量標定試驗與影響因素分析
摻水抽油井產量標定試驗與影響因素分析
CT系統參數標定及成像—2
CT系統參數標定及成像—2
基于傅立葉變換的CT系統參數標定成像方法探究
基于傅立葉變換的CT系統參數標定成像方法探究
標定電流與額定最大電流的探討
淺談工業(yè)機器人的安全生產
基于力傳感器的工業(yè)機器人力控試驗系統的研制
宁河县| 永吉县| 辽阳市| 昔阳县| 秀山| 平凉市| 柯坪县| 洪湖市| 房山区| 沛县| 新化县| 嘉义县| 北京市| 东港市| 逊克县| 于都县| 茶陵县| 柘城县| 九台市| 阿勒泰市| 白银市| 沛县| 扎囊县| 红河县| 周宁县| 栾城县| 大荔县| 海门市| 泽普县| 嵊州市| 美姑县| 太谷县| 鄢陵县| 蛟河市| 康定县| 秀山| 长海县| 莲花县| 永吉县| 内丘县| 华池县|