王 文 忠, 高 金 剛, 李 錕, 楊 利, 楊 旭
( 1.長春工程學(xué)院 工程訓(xùn)練中心, 吉林 長春 130012;2.長春工程學(xué)院 機電工程學(xué)院, 吉林 長春 130012;3.吉林大學(xué) 機械科學(xué)與工程學(xué)院, 吉林 長春 130022 )
在結(jié)構(gòu)化環(huán)境和重復(fù)作業(yè)任務(wù)方面,傳統(tǒng)的工業(yè)機器人已大量投入使用.對于完全未知的非結(jié)構(gòu)化環(huán)境,機器人在完成任務(wù)(子任務(wù))的過程中需要與周圍環(huán)境進行交互.現(xiàn)階段機器人的智能和自主能力仍很薄弱,這對如何實現(xiàn)現(xiàn)代機器人與人在相同的非結(jié)構(gòu)化空間和環(huán)境中協(xié)同作業(yè),實時在線完成非確定性的任務(wù)提出了新的要求.在提升作業(yè)能力、改善人機交互方面,需要突破三維環(huán)境感知、規(guī)劃和導(dǎo)航等單元技術(shù)[1].為使機器人在任務(wù)空間中準(zhǔn)確定位需要解決環(huán)境地圖的識別和路徑規(guī)劃、全區(qū)域搜索遍歷和局部搜索等技術(shù)問題,學(xué)者們應(yīng)用了度量法、拓撲法、遺傳算法及模糊邏輯算法等[2-5].由于具有占用存儲資源少和可實時完成路徑規(guī)劃的優(yōu)點,模糊邏輯算法得到廣泛應(yīng)用.對于解決在線感知能力、在線實時交互、動態(tài)未知環(huán)境中自主作業(yè)等問題[1],Johnson等利用激光距離傳感器對機器人的工作曲面進行3D識別和定位[6],Hamel等結(jié)合人機交互與激光和視覺技術(shù)實現(xiàn)了未知環(huán)境的感知和建模[7],Ramos等研究了利用圖像與傳感器實現(xiàn)物體圖像特征信息的提取[8],Kaltsoukalas等將機器視覺傳感數(shù)據(jù)和相關(guān)方法結(jié)合研究了焊接路徑規(guī)劃[9],郭玉波等[10]分析了正交雙目立體視覺獲取特征信息的檢測誤差模型.
本文提出一種研磨機器人在加工未知曲面模型的情況下,能夠自主搜索待加工區(qū)域特征的算法.
如圖1所示,整個研磨機器人系統(tǒng)由機器人本體、PMAC卡控制系統(tǒng)、數(shù)據(jù)及視覺處理工作站、視覺傳感器組成.
自主研磨機器人系統(tǒng)的計算機通過RS-232 接口與機器人控制器之間實現(xiàn)通信,工作站主要負責(zé)視覺傳感器的圖像采集和信息處理,并給PMAC卡控制系統(tǒng)發(fā)送機器人的運動指令;自主研磨機器人的PMAC卡控制器負責(zé)接收工作站運動命令和機器人各關(guān)節(jié)狀態(tài)信息并控制機器人各關(guān)節(jié)在加工過程中的協(xié)調(diào)運動,數(shù)據(jù)及視覺處理系統(tǒng)在 Windows 操作系統(tǒng)下用Visual C++ 2010平臺統(tǒng)一集成開發(fā).
圖1 自主研磨機器人系統(tǒng)
為使自主研磨機器人具有對整個待加工曲面進行實時遍歷搜索的能力,本文提出一種機器人可以從未知曲面的任意位置出發(fā),在加工過程中實時制訂搜索策略,應(yīng)用模糊邏輯算法對局部未知曲面進行實時路徑規(guī)劃方法.同時通過機器人直角坐標(biāo)移動平臺的光柵尺反饋信息來標(biāo)記已加工區(qū)域和未加工區(qū)域的屬性,并指定搜索陷阱和逃離策略,避免系統(tǒng)進入死循環(huán)[2],保證機器人具有實現(xiàn)全區(qū)域搜索能力.
根據(jù)本文的自主研磨機器人結(jié)構(gòu),系統(tǒng)采用行切法軌跡規(guī)劃的走刀方式.在研磨機器人每次執(zhí)行加工路徑的過程中,首先將相機A確定的待加工曲面的局部輪廓A′與相機B確定的待加工曲面的局部輪廓B′的交點作為起刀點,并沿著局部輪廓B′的方向進行該輪廓的加工;加工完該段輪廓后,沿著輪廓A′的方向移動一個切削行距,然后重復(fù)上述加工過程.機器人系統(tǒng)的實時局部路徑規(guī)劃主要利用相機A、B所采集待加工曲面的表面輪廓特征信息來完成.正交雙目立體視覺模型如圖2所示,自主研磨機器人共有兩個相機,相機固接于研磨工具的末端,位于與機器人的兩個互相垂直的絲杠同方向,在兩個互相垂直的絲杠方向上分別安裝有光柵尺,通過光柵尺可得到在兩個絲杠方向上的移動距離.相機A的相機坐標(biāo)系和圖像坐標(biāo)系為Oa-XaYaZa和O1-x1y1,相機B的相機坐標(biāo)系和圖像坐標(biāo)系為Ob-XbYbZb和O2-x2y2,研磨工具上線段PQ在O1-x1y1和O2-x2y2的投影為p1q1和p2q2[11-13],系統(tǒng)通過獲得操作臂整體部分距每個絲杠導(dǎo)軌兩端的實時距離,控制機器人的操作臂整體部分在Y軸與Z軸的運動,Y軸的運動范圍為0~100 mm,Z軸的運動范圍為0~200 mm[14].
圖2 正交雙目立體視覺模型
在研磨機器人加工過程中,基于光柵尺反饋的距離信息,利用數(shù)據(jù)融合得到機器人左、右、上、下方向上操作臂整體與絲杠導(dǎo)軌兩端之間的距離,并將其作為模糊控制器的輸入,其中左、右和上、下方向距離數(shù)值的論域分別為[0,100] mm與[0,200] mm,其模糊集合定義為{NEAR,F(xiàn)AR},分別代表操作臂整體與絲杠導(dǎo)軌兩端較近、較遠.沿著左、右方向的模糊集合定義為{LF,LN,Z,RN,RF},其中LF、LN、Z、RN、RF分別代表設(shè)定操作臂整體方位的左向較大、左向較小、中間不動、右向較小、右向較大.沿著上、下方向的模糊集合定義為{UF,UN,Z,DN,DF},其中UF、UN、Z、DN、DF分別代表設(shè)定操作臂整體方位的向上較大、向上較小、中間不動、向下較小、向下較大(規(guī)定機器人沿著Y1的正向為左,沿著Y1的負向為右,沿著Z1的正向為上,沿著Z1的負向為下[14]).
機器人在Y軸方向上的運動距離取決于相機B獲得的當(dāng)前待加工曲面的局部輪廓信息的模糊推理結(jié)果,該信息通過模糊推理后作為模糊控制器的輸出,模糊集合定義為{TLF,TLN,TZ,TRN,TRF},其中TLF、TLN、TZ、TRN、TRF分別代表機器人向左移動較大、向左移動較小、中間、向右移動較小、向右移動較大.同樣在Z軸方向上的運動距離取決于相機A獲得的當(dāng)前待加工曲面的局部輪廓信息的模糊推理結(jié)果,該信息通過模糊推理后作為模糊控制器的輸出,模糊集合定義為{TUF,TUN,TZ,TDN,TDF},其中TUF、TUN、TZ、TDN、TDF分別代表機器人向上移動較大、向上移動較小、中間、向下移動較小、向下移動較大.
圖3表示了Y軸與Z軸的模糊控制器輸入輸出變量所對應(yīng)的隸屬度,通過經(jīng)驗得到對應(yīng)的輸入輸出變量之間的關(guān)系.在大量實驗結(jié)果的基礎(chǔ)上,利用Matlab工具箱和模糊推理算法生成模糊控制表,作為研磨機器人實時規(guī)劃運動軌跡的依據(jù).
圖3 模糊控制隸屬度函數(shù)
基于全區(qū)域的模糊邏輯搜索策略根據(jù)機器人系統(tǒng)的直角坐標(biāo)移動平臺在Y軸與Z軸的最大移動距離和機器人各關(guān)節(jié)光柵尺反饋的信息,在線將搜索區(qū)域劃分成多個長方形網(wǎng)格區(qū)域.每個長方形網(wǎng)格是可一次研磨搜索的最大區(qū)域,全區(qū)域加工算法由基于加工路徑規(guī)劃的連續(xù)加工策略與逃離單次網(wǎng)格加工死循環(huán)策略構(gòu)成.
研磨機器人從當(dāng)前位置開始,在連續(xù)加工每個長方形網(wǎng)格區(qū)域時,依次按照前述的模糊邏輯所規(guī)劃的路徑進行加工,可以完成對當(dāng)前區(qū)域的加工.然后,根據(jù)對已加工完的區(qū)域獲取的當(dāng)前區(qū)域邊界信息,判定新的加工方向,選擇新的待加工區(qū)域.當(dāng)機器人到達一個新的未加工網(wǎng)格時,機器人將進行目標(biāo)區(qū)域識別,若其是不符合加工條件的區(qū)域,則繼續(xù)應(yīng)用模糊邏輯所規(guī)劃的路徑搜索下一個網(wǎng)格位置.在加工過程中,當(dāng)機器人通過已加工網(wǎng)格區(qū)域的次數(shù)大于設(shè)定的閾值時,則判定機器人已經(jīng)處于搜索陷阱,實施搜索陷阱逃離策略.
機器人的加工過程通過未加工網(wǎng)格位置鏈表和已加工網(wǎng)格位置鏈表來記錄,其算法的過程如下:
Step2判斷研磨機器人是否陷入了搜索陷阱,若記錄連續(xù)搜索位置的次數(shù)n大于等于某一設(shè)定值N,轉(zhuǎn)入Step 3,當(dāng)n N= ;N≥0 (1) 式中:Se為設(shè)定的搜索網(wǎng)格的面積,S為整個搜索區(qū)域的面積. Step3系統(tǒng)查詢機器人未搜索位置鏈表中與當(dāng)前位置距離最近的未搜索網(wǎng)格位置,并控制機器人運動到該未搜索位置,如果查詢時未搜索位置鏈表為空,則退出搜索.在機器人運動到未搜索位置時,PMAC卡控制系統(tǒng)將實時跟蹤和計算指定的未搜索位置與機器人當(dāng)前位置之間的方位,并利用模糊控制算法實現(xiàn)機器人到達指定網(wǎng)格的最優(yōu)規(guī)劃路徑.當(dāng)機器人移動到未搜索網(wǎng)格位置時,系統(tǒng)將該網(wǎng)格節(jié)點添加到已搜索位置鏈表中,并從未搜索位置鏈表中刪除該網(wǎng)格節(jié)點,設(shè)定N=N/2,n=0,并將機器人的當(dāng)前位置記錄為Pi,然后轉(zhuǎn)入Step 4. 計算機器人連續(xù)搜索算法中未搜索網(wǎng)格坐標(biāo)的方法為若Z軸或Y軸與其兩端對應(yīng)的極限位置之間距離大于某一設(shè)定值D,則判定可能有未搜索網(wǎng)格,并根據(jù)搜索網(wǎng)格的大小計算各個未搜索區(qū)域的坐標(biāo)位置. 設(shè)在機器人當(dāng)前坐標(biāo)系Oo中有待搜索點P,它與Yo軸的夾角為αo,OoP長度為d,P點在當(dāng)前坐標(biāo)系Oo中坐標(biāo)為Po=(yozoθo)T,θo為P點在當(dāng)前坐標(biāo)系Oo中的方位角.機器人當(dāng)前坐標(biāo)系原點Oo在基坐標(biāo)系Ob中的坐標(biāo)為Oob=(yobzobθob)T,θob為機器人當(dāng)前坐標(biāo)系原點Oo在基坐標(biāo)系Ob中的方位角.待搜索點P在基坐標(biāo)系中的坐標(biāo)為Pb=(pbypbzθb)T,θb為待搜索點P在基坐標(biāo)系中的方位角,由圖4得 yo=dcosαo (2) θb=θo+αo (3) 圖4 正交坐標(biāo)平臺運動 每次研磨加工前,自主研磨機器人首先自動回到由直角坐標(biāo)構(gòu)成的移動平臺原點,即由相機A確定的待加工曲面的局部輪廓A′與相機B確定的待加工曲面的局部輪廓B′的交點,作為起刀點.然后根據(jù)相機B確定的待加工曲面的局部輪廓B′選擇沿著該輪廓向左或者向右進行加工,研磨工具頭加工到曲面邊界后,再根據(jù)相機A確定的待加工曲面的局部輪廓A′選擇向上或者向下進行走刀. 對于相機A確定的待加工曲面的局部輪廓A′與相機B確定的待加工曲面的局部輪廓B′,如果由兩者對應(yīng)的輪廓特征得到的激光線出現(xiàn)了梯度變化大的情況,且超出了預(yù)先設(shè)定的誤差值,即判斷該處為局部輪廓A′或者局部輪廓B′邊界. 輪廓邊界判斷算法的基本步驟如下: (1)圖像預(yù)處理 目標(biāo)輪廓如圖5(a)所示,利用Otsu大津閾值法[15]的最佳閾值對加工過程中采集的圖像進行預(yù)處理,并利用拋物線擬合法對激光線中心進行提取,獲得激光線的深度信息圖,即目標(biāo)輪廓高度信息. (2)填充丟失的數(shù)據(jù)點與三次B樣條曲線擬合 由于提取的激光線是間斷的,如圖5(b)所示,對于這些間斷的激光線,可以應(yīng)用三次均勻B樣條曲線算法對這些點進行擬合[14]. (3) 輪廓邊界判定 對于擬合后的三次B樣條曲線(圖5(c)),如出現(xiàn)梯度變化大的點,超出了預(yù)先設(shè)定的誤差值,即判斷該處為邊界. (a) 原始圖像 (b) 提取后的激光線 (c) 三次均勻B樣條曲線處理后激光線 圖5 局部輪廓的邊界 Fig.5 Local curve boundary 為了驗證本文自主搜索技術(shù)與基于待加工輪廓的選擇和邊界識別方法的可行性,選用了圖6所示的加工樣件,加工樣件為球面,球面的曲率半徑R=478 mm,底面為直徑為58 mm的圓. 分別獲取機器人在基坐標(biāo)系的位置和加工的目標(biāo)點在機器人當(dāng)前坐標(biāo)系的位置,通過式(2)與式(3),求取加工的目標(biāo)點在基坐標(biāo)系中的位置坐標(biāo). 以研磨機器人從加工樣件的中心開始加工為例,利用上述搜索方法加工曲面的實驗結(jié)果見圖7,加工軌跡分為4個區(qū)域,依次從A→B→C→D實現(xiàn)對整個區(qū)域的加工. 圖7 研磨機器人自主加工曲面實驗結(jié)果 本文針對正交雙目立體視覺的研磨機器人對未知待加工曲面的加工問題,提出了一種基于未知曲面的自主搜索方法.應(yīng)用了基于模糊邏輯的自主搜索方法,該方法包括基于模糊邏輯的全區(qū)域覆蓋搜索算法和待加工曲面邊界確定算法.實驗過程驗證,上述算法可在任意位置開始搜索,并且具有較好的選擇走刀方向和加工區(qū)域的功能,并有效地解決了基于正交雙目立體視覺的研磨機器人的自主搜索問題,能夠很好地完成自主研磨機器人在未知曲面模型中搜索待加工區(qū)域的任務(wù). [1] 高 峰,郭為忠. 中國機器人的發(fā)展戰(zhàn)略思考[J]. 機械工程學(xué)報, 2016,52(7):1-5. GAO Feng, GUO Weizhong. Thinking of the development strategy of robots in China [J].JournalofMechanicalEngineering, 2016,52(7):1-5. (in Chinese) [2] 肖 瀟,方勇純,賀 鋒,等. 未知環(huán)境下移動機器人自主搜索技術(shù)研究[J]. 機器人, 2007,29(3):224-228. XIAO Xiao, FANG Yongchun, HE Feng,etal. Autonomous search technology for mobile robots under unknown environments[J].Robot, 2007,29(3):224-228. (in Chinese) [3] 王醒策,張汝波,顧國昌. 基于勢場柵格法的機器人全局路徑規(guī)劃[J]. 哈爾濱工程大學(xué)學(xué)報, 2003,24(2):170-174. WANG Xingce, ZHANG Rubo, GU Guochang. Potential grid based global path planning for robots [J].JournalofHarbinEngineeringUniversity, 2003,24(2):170-174. (in Chinese) [4] 蔡自興,肖 正,于金霞. 動態(tài)環(huán)境中移動機器人地圖構(gòu)建的研究進展[J]. 控制工程, 2007,14(3):231-235. CAI Zixing, XIAO Zheng, YU Jinxia. Advances on map building with mobile robots in dynamic environments[J].ControlEngineeringofChina, 2007,14(3):231-235. (in Chinese) [5] BISWAS J, VELOSO M. WiFi localization and navigation for autonomous indoor mobile robots [C] //2010IEEEInternationalConferenceonRoboticsandAutomation. Anchorage: IEEE, 2010:4379-4384. [6] JOHNSON A, LEGER P, HOFFMAN R,etal. 3D object modeling and recognition for telerobotic manipulation [J].JournalofEngineeringandAppliedScience, 1995,1(1):103-110. [7] HAMEL W R, KRESS R L. Elements of telerobotics necessary for waste clean up automation [C] //2001IEEEInternationalConferenceonRoboticsandAutomation. Seoul: IEEE, 2001:393-400. [8] RAMOS F, UPCROFT B, KUMAR S,etal. A Bayesian approach for place recognition [J].RoboticsandAutonomousSystems, 2012,60(4):487-497. [9] KALTSOUKALAS K, MAKRIS S, CHRYSSOLOURIS G. On generating the motion of industrial robot manipulators [J].RoboticsandComputer-IntegratedManufacturing, 2015,32:65-71. [10] 郭玉波,姚 郁. 雙目視覺測量系統(tǒng)結(jié)構(gòu)參數(shù)優(yōu)化問題研究[J]. 紅外與激光工程, 2006,35(z1):506-510. GUO Yubo, YAO Yu. Structural parameter optimization of binocular vision measuring system [J].InfraredandLaserEngineering, 2006,35(z1):506-510. (in Chinese) [11] SONG Weidong, MIAO Zhenjiang, WU Hao. Automatic calibration method based on improved camera calibration template [C] //5thIETInternationalConferenceonWireless,MobileandMultimediaNetworks,ICWMMN2013. Beijing: Institution of Engineering and Technology, 2013:301-305. [12] LI Jia, DUAN Ping, WANG Jinliang. Binocular stereo vision calibration experiment based on essential matrix [C] //Proceedingsof2015IEEEInternationalConferenceonComputerandCommunications,ICCC2015. Chengdu: IEEE, 2015:250-254. [13] 任秉銀,柴立仁,魏 坤,等. 正交雙目視覺長軸類零件裝配端位姿檢測方法[J]. 哈爾濱工業(yè)大學(xué)學(xué)報, 2017,49(1):60-65. REN Bingyin, CHAI Liren, WEI Kun,etal. A method for measuring 3D pose of assembly end of long shaft part using orthogonal binocular stereovision [J].JournalofHarbinInstituteofTechnology, 2017,49(1) :60-65. (in Chinese) [14] 王文忠. 新型自主研磨作業(yè)機器人系統(tǒng)的研究[D]. 長春:吉林大學(xué), 2011. WANG Wenzhong. Research on a new robot system for autonomous grinding[D]. Changchun:Jilin University, 2011. (in Chinese) [15] 何志勇,孫立寧,黃偉國,等. 基于Otsu準(zhǔn)則和直線截距直方圖的閾值分割[J]. 光學(xué)精密工程, 2012,20(10):2315-2323. HE Zhiyong, SUN Lining, HUANG Weiguo,etal. Thresholding segmentation algorithm based on Otsu criterion and line intercept histogram [J].OpticsandPrecisionEngineering, 2012,20(10):2315-2323. (in Chinese)
zo=dsinαo3 研磨工具頭的軌跡規(guī)劃及待加工曲面邊界確定
3.1 研磨工具頭的軌跡規(guī)劃
3.2 待加工曲面邊界確定
4 實驗結(jié)果
5 結(jié) 語