国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于機器視覺的衛(wèi)星天線模塊自動精密裝配技術

2022-05-24 03:12:14閆俊杰王紅偉于功敬張忠海
測控技術 2022年5期
關鍵詞:位姿標定坐標系

閆俊杰,王紅偉,于功敬,張忠海

(北京航天測控技術有限公司,北京 100041)

衛(wèi)星天線作為星間鏈路核心裝備,具有裝配尺寸精度高、星載模塊小巧緊湊、裝配工序煩瑣等特點[1],因此,現階段主要采用人工進行裝配,裝配精度及一致性差,產品質量難管控[2]。隨著近幾年國內外衛(wèi)星部署戰(zhàn)略的不斷推進,衛(wèi)星需求數量不斷增加,衛(wèi)星制造逐步由單件生產模式向批量生產模式發(fā)展[3],傳統(tǒng)手工裝配方式無論從質量上還是效率上均無法滿足要求,因此亟需將自動精密裝配技術引入到衛(wèi)星等航天產品的裝調過程中,以提高產品的裝配質量和效率。

目前,國外衛(wèi)星天線裝配基本實現自動化、數字化,其中Orbital ATK公司建造的一條具有18個工作站的衛(wèi)星生產線,實現了一周裝配一顆衛(wèi)星的生產水平[4]。國內主要針對部分特定型號天線進行了自動化裝配嘗試,但設備普遍具有通用性低、操作煩瑣、柔性差等不足[5-6]。在自動化精密裝配方面,目前基于機器視覺的工業(yè)機器人自動裝配系統(tǒng)大多為Eye-to-Hand[7-8]系統(tǒng),應用于工件抓取一致性好或裝配目標點不變的情況下[9-10]。另外,為保證裝配精度等因素,系統(tǒng)中執(zhí)行機構多選用直角坐標機器人或SCARA機器人[11],降低了系統(tǒng)的靈活性以及角度調節(jié)能力。文獻[12]將深度學習方法引入到機器人物體識別與抓取中,該方法適用于復雜場景中的物體識別與抓取,但定位精度和成功率較低,目前在工業(yè)現場工件精密裝配場景中還未廣泛應用。文獻[13]針對衛(wèi)星大型部件裝配提出一種基于力-位混合控制的機械臂輔助裝配方法,在工件接觸后通過力-位關系實時對工件位置進行調整,該方法需針對每種產品摸索其對應的力-位關系曲線,要求系統(tǒng)具有較高的實時性,裝配耗時較長。文獻[14]提出一種基于數據配準的工件配合表面最佳接觸狀態(tài)確定方法,該方法在裝配前需要獲取工件精確的三維模型,裝配時需要實時獲取工件的相對位置關系,不適合于接觸面復雜的細針孔類工件的裝配,且成本高、效率低。文獻[15]提出了基于6自由度機器人和激光跟蹤儀的閉環(huán)控制裝配系統(tǒng),該系統(tǒng)定位精度高,但在裝配前需要人工放置靶標,在運行過程中需要根據產品尺寸合理規(guī)劃運動路徑、考慮遮擋及測量范圍等因素,因此操作煩瑣,通用性差。

本文對基于機器視覺[16-17]的6自由度機器人自動裝配技術進行了研究,針對相控陣天線T/R模塊[18]裝配精度高、尺寸一致性差等特點,建立了Eye-in-Hand[19]和Eye-to-Hand[7]混合的自動裝配系統(tǒng),兩系統(tǒng)共用同一臺六軸工業(yè)機器人,通過像素坐標系、相機坐標系、工具坐標系、機器人基坐標系之間的相互轉換,實現系統(tǒng)整體坐標系統(tǒng)一。裝配過程中,通過工業(yè)相機獲取工件圖像,通過OpenCV開源庫[20]對圖像進行分析處理從而確定工件在像素坐標系中的位置坐標,利用坐標變換將像素坐標轉換為機器人基坐標,并將坐標信息發(fā)送給機器人控制器,機器人手臂執(zhí)行裝配動作,并最終在Visual Studio 2013平臺下完成對整套系統(tǒng)控制軟件程序的開發(fā)。

1 系統(tǒng)總體設計

天線模塊A和模塊B外形如圖1所示,裝配時需將模塊A通過連接器裝配到模塊B上。

圖1 天線模塊

裝配系統(tǒng)硬件平臺如圖2所示,機器人和相機Ⅱ固定安裝在基座平臺上,相機Ⅰ和抓取工具安裝在機器人末端法蘭盤上,天線模塊通過托盤在傳送鏈上運送到指定位置后,通過相機拍照并進行圖像處理獲取模塊A、模塊B的像素位置坐標,然后通過坐標變換將像素坐標轉換為機器人坐標位置,最終機器人抓取模塊A并將其裝配到模塊B上。由于連接器在模塊上的安裝存在位置誤差及模塊外殼加工存在尺寸誤差,因此在裝配時通過相機Ⅱ對抓起后的模塊A進行定位,通過相機Ⅰ對模塊B進行定位,定位位置均直接為連接器中心。

圖2 實例系統(tǒng)平臺

系統(tǒng)模型如圖3所示,其中相機Ⅰ與機器人、末端工具組成Eye-in-Hand系統(tǒng),相機Ⅱ與機器人、末端工具組成Eye-to-Hand系統(tǒng),模塊A和模塊B為待裝配的天線部件。Cbase為機器人基坐標系,Ctool為機器人末端工具坐標系,CcamⅠ和CcamⅡ分別為相機Ⅰ和相機Ⅱ的相機坐標系,CpixⅠ和CpixⅡ分別為相機Ⅰ和相機Ⅱ的像素坐標系,CworldⅠ和CworldⅡ分別為相機Ⅰ和相機Ⅱ標定時的世界坐標系。

圖3 機器視覺系統(tǒng)模型

系統(tǒng)裝配過程及坐標變換如下。

首先機器人帶動相機Ⅰ移動到模塊A上方對其進行拍照以確定抓取位置。通過圖像處理獲取模塊A在CpixⅠ中的坐標PPartA_Up_In_PixⅠ;對PPartA_Up_In_PixⅠ進行坐標變換得到模塊A在CcamⅠ下的坐標PPartA_Up_In_CamⅠ;通過PPartA_Up_In_CamⅠ和相機Ⅰ在Ctool下的坐標PCamⅠ_In_Tool可以得到模塊A在Ctool下的坐標PPartA_Up_In_Tool;通過PPartA_Up_In_Tool和機器人末端工具在Cbase下的坐標PTool_In_Base可以得到模塊A在Cbase下的坐標PPartA_Up_In_Base;通過PPartA_Up_In_Base即可控制機器人移動到目標點PRobot_Aim_Catch對模塊A進行抓取。

機器人抓取模塊A后移動到相機Ⅱ上方對其底端連接器進行拍照以確定模塊A的裝配位置。通過圖像處理獲取模塊A在CpixⅡ中的坐標PPartA_Down_In_PixⅡ;對PPartA_Down_In_PixⅡ進行坐標變換得到模塊A在CcamⅡ下的坐標PPartA_Down_In_CamⅡ;通過PPartA_Down_In_CamⅡ和相機Ⅱ在Cbase下的坐標PCamⅡ_In_Base可以得到模塊A的裝配點在基坐標系下的坐標PPartA_Down_In_Base。

確定模塊A的裝配位置后,機器人帶動相機Ⅰ移動到模塊B上方對其連接器進行拍照以確定模塊B的裝配位置,坐標轉換過程與確定模塊A抓取位置相同,最終得到模塊B在Cbase下的坐標PPartB_In_Base。根據PPartB_In_Base和PPartA_Down_In_Base控制機器人移動到目標點PRobot_Aim_Assem對模塊A和模塊B進行裝配。

上述坐標變換過程如圖4所示。其中PPartA_Up_In_PixⅠ到PPartA_Up_In_CamⅠ、PPartA_Down_In_PixⅡ到PPartA_Down_In_CamⅡ及PPartB_In_PixⅠ到PPartB_In_CamⅠ的變換可通過相機內外參標定實現;PTool_In_Base可通過機器人工具標定獲得;PCamⅠ_In_Tool可通過Eye-in-Hand系統(tǒng)標定獲得;PCamⅡ_In_Base可通過Eye-to-Hand系統(tǒng)標定獲得。

圖4 坐標變換過程

2 天線模塊圖像處理與位置識別

天線模塊圖像處理主要是確定連接器中心位置像素坐標,圖像處理過程包括顏色空間轉換、閾值分割、區(qū)域連通、邊緣提取、圓擬合、直線擬合、求取中心點等。

以天線模塊A為例,待處理圖像如圖5所示,通過連接器中15根插針確定模塊位置。

圖5 模塊A位置識別原始圖像

首先對圖像進行預處理,在原圖上粗略截取感興趣區(qū)域(Region of Interest,ROI),然后將ROI由RGB空間轉換到HSV(Hue,Saturation,Value)空間,并對特征明顯的S通道圖像進行閾值分割,分割時采用動態(tài)閾值分割法以減小光線變化的影響。對閾值分割后的圖像進行開運算以及膨脹等形態(tài)學操作以消除微小噪聲并填充輪廓區(qū)域,對輪廓進行篩選后可得到連接器區(qū)域,圖像預處理過程如圖6所示。

圖6 圖像預處理

以得到的連接器區(qū)域為蒙版在原圖G通道上截取精確的ROI區(qū)域,并對該區(qū)域進行銳化以強化特征,對銳化后的圖像進行基于Canny算子的亞像素輪廓提取,并對輪廓進行篩選最終可得到15根插針的外形輪廓,對輪廓進行圓擬合可得到15組輪廓中心坐標,通過坐標平均即可計算出連接器中心位置像素坐標,通過15組坐標數據進行最小二乘直線擬合即可得到連接器角度,圖像處理過程如圖7所示。

圖7 連接器位置識別

3 坐標系標定及轉換

3.1 相機內外參標定

首先進行相機內外參標定以對相機進行校準,其標定模型[21]如圖8所示,先通過標定板上已知點確定相機的內參數(焦距、主點、比例因子、畸變系數等)和外參數(平移參數和旋轉參數),然后即可通過內外參數確定像素坐標系下任意點P′與其在世界坐標系下對應點P的坐標轉換關系[22]:

圖8 相機內外參標定模型

(1)

式中:(XW,YW,ZW)為空間點P在世界坐標系中的坐標;R和T分別為相機坐標系相對于世界坐標系的旋轉矩陣和平移矩陣;f為焦距,dx、dy為相機中感光器件每個像素物理尺寸的長和寬;u0、v0為光軸與像素平面的交點;(u,v)為透視投影點P′在像素坐標系中的坐標。

相機Ⅰ標定時各部分相對位置關系如圖9所示,標定板固定在平臺上,機器人帶動相機Ⅰ對標定板進行拍照獲取圖像進行標定。

圖9 相機Ⅰ內/外參標定

為保證標定的準確性,應盡量控制機械臂帶動相機以不同姿態(tài)對標定板進行拍照,每幅圖像中標定板圖像一般占整幅圖像的1/3左右[23],并最終使標定板覆蓋整幅圖像,標定圖像如圖10所示,標定結果如表1、表2所示,標定誤差(角點重投影誤差)為0.1937像素。

圖10 相機Ⅰ標定圖像

表1 相機Ⅰ內參標定結果

表2 相機Ⅰ外參標定結果

相機Ⅱ標定時各部分相對位置關系如圖11所示,標定板固定在機器人末端,機器人帶動標定板運動到不同位姿,相機Ⅱ對標定板進行拍照獲取圖像進行標定。標定結果如表3、表4所示,標定誤差(角點重投影誤差)為0.1583像素。

圖11 相機Ⅱ內外參標定

表3 相機Ⅱ內參標定結果

表4 相機Ⅱ外參標定結果

3.2 六軸機器人末端工具標定

機器人工具標定模型[24]如圖12所示,末端工具標定的目的即為確定工具坐標系到機器人基坐標系的轉換關系。

圖12 工具坐標系標定

機器人工具坐標系與基坐標系之間的轉換關系可表示為[26]

(2)

式中:RE和TE為末端法蘭坐標系相對于基坐標系的旋轉和平移矩陣;RT和TT為工具坐標系相對于末端法蘭坐標系的旋轉和平移矩陣。其中,RE和TE可通過機器人正運動學求解,則機器人工具標定只需求解RT和TT中的參數。

標定時各部分相對位置關系如圖13所示,分別通過四點法和三點法求得平移矩陣和旋轉矩陣[25],標定結果如表5所示。

圖13 機器人末端工具標定

表5 機器人末端工具標定結果

3.3 手眼標定

3.3.1 Eye-in-Hand系統(tǒng)標定

Eye-in-Hand系統(tǒng)手眼標定模型[28]如圖14所示,其中Cbase為機器人基坐標系,Ctool為機器人末端工具坐標系,Ccam為相機坐標系,Cobj為標定板坐標系。

圖14 Eye-in-Hand系統(tǒng)各坐標系轉換關系示意圖

標定時,標定板固定不動,控制機器人帶動相機運動到不同位姿對標定板進行拍照,每次標定出當前位姿下相機與標定板的位置關系(相機外參數),同時根據機器人末端工具的位姿最終計算得到相機坐標系到機器人末端工具坐標系的變換矩陣,其中機器人末端工具的位姿可通過機器人六點工具標定獲得。機器人運動前后相機坐標系、末端工具坐標系和標定板坐標系相對位置變化如圖15所示。

圖15 Eye-in-Hand系統(tǒng)下機器人移動前后各坐標系示意圖

設機器人運動前后空間中一點P在坐標系中的坐標分別為Pcam1,Pcam2,Ptool1,Ptool2,通過上述描述可得如下關系式:

(3)

(4)

(5)

(6)

由式(3)與式(5)得:

(7)

由式(4)與式(6)得:

雪蓮原產于喜馬拉雅山脈,扎根于高山草甸土之中。雪蓮不喜歡生長在平緩地區(qū),只有在海拔三四千米左右的高原山坡和冰磧巖縫之中才能看到它的身影。高山地帶的氣候十分寒冷,可以低至零下幾十攝氏度,并且常年風雪交加,再加上空氣稀薄缺氧,一般的植物在這樣惡劣的環(huán)境中根本無法存活,但是雪蓮這種菊科草本植物卻可以在如此嚴峻的氣候條件下頑強地活下來。

(8)

聯立式(7)與式(8)得:

(9)

AX=XB

(10)

式(10)即為Eye-in-Hand系統(tǒng)手眼標定的基本方程式,其依據是機器人移動前后相機坐標系與機器人末端工具坐標系的相對位置關系不變。其中,A、B可分別通過相機標定和機器人工具標定獲得,均為已知量,最終可求解出相機與末端工具之間的位姿關系矩陣X。

Eye-in-Hand系統(tǒng)標定時各部分相對位置關系與相機Ⅰ內外參標定時各部分位置關系相同,如圖9所示,標定板固定在平臺上,機器人帶動相機Ⅰ對標定板進行拍照獲取圖像進行標定。

拍照時,應盡量控制機械臂帶動相機以不同姿態(tài)對標定板進行拍照,同時記錄每一次拍照時機器人末端工具相對于基坐標系的位姿信息,標定圖像及對應的末端工具姿態(tài)信息如圖16所示。

圖16 Eye-in-Hand標定圖像及末端工具位姿

獲取標定圖像后,通過調用OpenCV函數庫讀取標定圖像、標定板描述文件、末端工具位姿信息文件,然后進行特征提取等,最終得到標定結果。軟件處理流程及效果如圖17所示,標定結果即相機Ⅰ在機器人末端工具坐標系下的位姿如表6所示,標定誤差如表7所示。

圖17 Eye-in-Hand標定流程及效果

表6 Eye-in-Hand標定結果

表7 Eye-in-Hand標定誤差

3.3.2 Eye-to-Hand系統(tǒng)標定

Eye-to-Hand系統(tǒng)手眼標定模型[29]如圖18所示,相機固定向上安裝,其中Cbase為機器人基坐標系,Ctool為機器人末端工具坐標系,Ccam為相機坐標系,Cobj為標定板坐標系。

圖18 Eye-to-Hand系統(tǒng)各坐標系轉換關系示意圖

標定時,相機固定不動,將標定板固定在機器人末端工具上,通過機器人帶動標定板運動到不同位姿,然后通過相機對標定板進行拍照標定,從而確定相機坐標系相對于機器人基坐標系的變換關系。機器人運動前后相機坐標系、標定板坐標系、末端工具坐標系和機器人基坐標系相對位置變化如圖19所示。

圖19 Eye-to-Hand系統(tǒng)下機器人移動前后各坐標系示意圖

設機器人運動前后空間中一點Q在坐標系中的坐標分別為Qobj1、Qobj2、Qtool1、Qtool2、Qcam、Qbase,通過上述描述可得如下關系式:

(11)

(12)

(13)

(14)

由式(11)~式(14)可得

(15)

(16)

聯立式(15)、式(16)并進行矩陣變換,最終可得

(17)

CG=GD

(18)

式(18)即為Eye-to-Hand系統(tǒng)手眼標定的基本方程式,其中,C、D可分別通過機器人工具標定和相機標定獲得,均為已知量,最終可求解出相機坐標系相對于機器人基坐標系之間的轉換矩陣G。

Eye-to-Hand系統(tǒng)標定時各部分相對位置關系與相機Ⅱ內外參標定時各部分位置關系相同,如圖11所示,標定板固定在機器人末端,機器人帶動標定板運動到不同位姿,相機Ⅱ對標定板進行拍照獲取標定圖像,同樣需記錄每一次拍照時機器人末端工具相對于基座坐標系的位姿信息,標定圖像及對應的末端工具姿態(tài)信息如圖20所示。

圖20 Eye-to-Hand標定圖像及末端工具位姿

獲取標定圖像后,通過調用OpenCV函數庫讀取標定圖像、標定板描述文件、末端工具位姿信息文件,然后進行特征提取等,最終得到標定結果。軟件處理流程與Eye-in-Hand系統(tǒng)標定相似,標定結果即相機Ⅱ在機器人基坐標系下的位姿如表8所示,標定誤差如表9所示。

表8 Eye-to-Hand標定結果

表9 Eye-to-Hand標定誤差

3.4 系統(tǒng)驗證與分析

通過攝影測量系統(tǒng)對裝配結果進行測量。攝影測量系統(tǒng)由多個相機、基準尺、編碼標志點、測量標志點等組成,測量時將測量標志點粘貼于物體表面,系統(tǒng)通過識別測量標志點從而得到目標物體在測量系統(tǒng)坐標系下的位置[30]。實驗中所用攝影測量系統(tǒng)在測量范圍為2 m時的測量精度為±20 μm。

首先將標志點粘貼到模塊A表面,然后將模塊A手動裝配到模塊B上,松開手使其處于自由狀態(tài),如圖21(a)所示,此時,通過攝影測量系統(tǒng)測量模塊A的位置,如圖21(b)所示,并將此位置作為真實位置。

圖21 測量裝配真實位置

將模塊A拆下,模塊B固定不動,通過裝配系統(tǒng)自動將模塊A裝配到模塊B上,并通過攝影測量系統(tǒng)測量此時模塊A的位置,如圖22所示,將此位置作為系統(tǒng)定位位置。通過對比裝配系統(tǒng)定位位置與真實位置之間的偏差即可得到系統(tǒng)裝配誤差。

圖22 測量自動裝配位置

共進行9次裝配實驗,裝配過程中自動裝配系統(tǒng)均能完成天線模塊的自動裝配,裝配點位置誤差如表10所示,平均位置誤差為±0.037689 mm,系統(tǒng)運行效果如圖23所示。

表10 實際位置與系統(tǒng)定位結果對比

圖23 系統(tǒng)運行效果

4 結束語

本文介紹的基于機器視覺的衛(wèi)星天線模塊自動精密裝配技術完成了相機內外參標定、機器人末端工具標定、Eye-in-Hand系統(tǒng)手眼標定、Eye-to-Hand系統(tǒng)手眼標定,根據采集到的圖像信息,經過圖像處理和坐標變換得到機器人的目標位姿,并通過以太網將數據傳輸到機器人控制系統(tǒng),實現了對天線模塊的自動精密裝配。經實驗驗證,系統(tǒng)滿足50 μm裝配公差天線模塊的自動精密裝配要求,實驗結果達到預期要求,且該技術已成功應用于航天領域高精密復雜衛(wèi)星產品的自動化裝配中,由此證明所提出的基于機器視覺的衛(wèi)星天線模塊自動精密裝配技術具有較強的實用價值。

猜你喜歡
位姿標定坐標系
使用朗仁H6 Pro標定北汽紳寶轉向角傳感器
解密坐標系中的平移變換
坐標系背后的故事
數學大世界(2018年1期)2018-04-12 05:39:03
基于勻速率26位置法的iIMU-FSAS光纖陀螺儀標定
基于重心坐標系的平面幾何證明的探討
中等數學(2017年2期)2017-06-01 12:21:50
基于共面直線迭代加權最小二乘的相機位姿估計
基于CAD模型的單目六自由度位姿測量
船載高精度星敏感器安裝角的標定
小型四旋翼飛行器位姿建模及其仿真
基于Harris-張正友平面標定法的攝像機標定算法
射洪县| 贺兰县| 赣榆县| 惠东县| 安多县| 湘阴县| 藁城市| 牟定县| 烟台市| 德江县| 邯郸市| 正蓝旗| 嘉荫县| 新余市| 寿光市| 罗田县| 东山县| 九龙坡区| 乐都县| 永登县| 洛扎县| 泸定县| 京山县| 临泉县| 图木舒克市| 石楼县| 会理县| 延寿县| 新邵县| 青龙| 顺平县| 谷城县| 永德县| 鄂伦春自治旗| 井陉县| 盐城市| 东源县| 万宁市| 西充县| 贵定县| 雅江县|