国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

結(jié)合深度學(xué)習(xí)的機(jī)械臂視覺抓取控制

2018-06-28 11:42白成超宋俊霖
載人航天 2018年3期
關(guān)鍵詞:滑模坐標(biāo)系動(dòng)力學(xué)

白成超,晏 卓,宋俊霖

(1.哈爾濱工業(yè)大學(xué)航天工程系,哈爾濱150001;2.西安航空動(dòng)力試驗(yàn)技術(shù)研究所,西安710000)

1 引言

人類航天活動(dòng)產(chǎn)生了大量的空間碎片和太空垃圾,嚴(yán)重威脅航天器的正常運(yùn)行,有必要對(duì)其進(jìn)行監(jiān)控管理和回收[1]。機(jī)械臂是完成這個(gè)任務(wù)的重要工具,可以抓取接近航天器的太空垃圾,使其脫離軌道,從而有效地保護(hù)航天器[1]。機(jī)械臂抓取目標(biāo)首先需要知道目標(biāo)的位置,這就需要利用傳感器檢測(cè)與識(shí)別技術(shù)識(shí)別出目標(biāo),同時(shí)計(jì)算出其準(zhǔn)確的空間位置,因傳感器的類型不同,識(shí)別原理也不同,本文主要基于相機(jī)來研究視覺精確識(shí)別。

機(jī)械臂視覺抓取在常規(guī)的機(jī)器人學(xué)、控制理論的基礎(chǔ)上,融合了計(jì)算機(jī)視覺理論、深度學(xué)習(xí)和人工智能等學(xué)科,具有重要的科研和應(yīng)用價(jià)值[2]。其中涉及的目標(biāo)檢測(cè)技術(shù)在視覺領(lǐng)域是現(xiàn)在非常熱門的研究方向,傳統(tǒng)目標(biāo)檢測(cè)通常是靜態(tài)檢測(cè),而且目標(biāo)單一,目標(biāo)檢測(cè)受到外形、大小、視角的變化以及外部光照的變化等因素的影響,因而所提取的特征泛化能力不強(qiáng),魯棒性較差,通常需要對(duì)每一個(gè)特定目標(biāo)都提出相適應(yīng)的算法[2],難以適應(yīng)新物體。

基于深度學(xué)習(xí)的目標(biāo)識(shí)別與定位是近年來的研究熱點(diǎn),尤其是深度學(xué)習(xí)中卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展直接促進(jìn)了目標(biāo)識(shí)別和定位任務(wù)的進(jìn)步。近幾年的CVPR、ECCV等國(guó)際計(jì)算機(jī)視覺頂級(jí)會(huì)議不斷有新的深度學(xué)習(xí)網(wǎng)絡(luò)模型提出,并不斷刷新各種大規(guī)模圖像競(jìng)賽的精度。目標(biāo)檢測(cè)的精度和速度是兩個(gè)主要的問題,基于區(qū)域選擇的R?CNN系列網(wǎng)絡(luò)與 End?to?End的 YOLO、SSD 等網(wǎng)絡(luò)在速度和精度上均有較大的進(jìn)步[3]。

機(jī)械臂視覺抓取系統(tǒng)中基于深度學(xué)習(xí)的視覺識(shí)別可通過對(duì)深度卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練實(shí)現(xiàn)多目標(biāo)快速識(shí)別而不必更改識(shí)別算法。這需要搜集被檢測(cè)目標(biāo)的大量圖像制作標(biāo)準(zhǔn)的訓(xùn)練集,利用前述基于深度神經(jīng)網(wǎng)絡(luò)的目標(biāo)識(shí)別算法對(duì)數(shù)據(jù)集進(jìn)行離線訓(xùn)練,將得到的模型用于在線識(shí)別。R?CNN系列算法[3?4]是目前主流的用于機(jī)械臂抓取的深度學(xué)習(xí)目標(biāo)檢測(cè)算法,但是速度上并不能滿足實(shí)時(shí)的要求。本文基于回歸的思想搭建深度神經(jīng)網(wǎng)絡(luò),并通過改進(jìn)YOLO算法進(jìn)行識(shí)別率及實(shí)時(shí)性的驗(yàn)證,即在小樣本環(huán)境下,給定輸入圖像,直接在圖像上回歸出目標(biāo)位置和目標(biāo)類別,并同時(shí)滿足實(shí)時(shí)檢測(cè)的要求。

2 基于深度學(xué)習(xí)的多目標(biāo)識(shí)別算法

本文用于機(jī)械臂待抓取目標(biāo)識(shí)別的深度學(xué)習(xí)多目標(biāo)識(shí)別算法使用YOLO算法[3],其流程如圖1所示:

1)采集攝像頭原始圖像,將原圖劃分為S×S的網(wǎng)格。

2)每一個(gè)網(wǎng)格會(huì)預(yù)測(cè) B個(gè) bounding box(Object在圖片所占的矩形框,下面記為bbox)和confidence(置信度)得分,記錄的五元素具體為(x,y,w,h,P(Object)?IOU), 其中 P(Object) 表示當(dāng)前位置是一個(gè)Object的概率,IOU預(yù)測(cè)的是重疊概率。其中x、y是中心坐標(biāo);w、h是bbox的寬度和高度。

3)計(jì)算每一個(gè)網(wǎng)格預(yù)測(cè)的類別概率Ci=P(Classi|Object)。

圖1 YOLO算法流程Fig.1 Flow chart of YOLO algorithm

YOLO算法利用卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)目標(biāo)識(shí)別模型,并在PASCAL VOC數(shù)據(jù)集上進(jìn)行評(píng)估。網(wǎng)絡(luò)的初始卷積層從圖像中提取特征,而全連接層預(yù)測(cè)輸出類別概率和相應(yīng)圖像坐標(biāo)。網(wǎng)絡(luò)結(jié)構(gòu)參考同樣應(yīng)用于圖像分類的GoogLeNet模型[4],有24個(gè)卷積層,然后是2個(gè)全連接層,如圖2所示。

在網(wǎng)絡(luò)訓(xùn)練誤差中,大bbox和小bbox權(quán)值相同。另外,網(wǎng)絡(luò)訓(xùn)練誤差的度量方式應(yīng)該反映出大bbox的小偏差與小bbox的小偏差相比更不顯著。為了解決這個(gè)問題,回歸的是bbox寬度和高度的平方根,而不是直接的寬度和高度。YOLO在每個(gè)網(wǎng)格中預(yù)測(cè)出多個(gè)bbox。在訓(xùn)練網(wǎng)絡(luò)時(shí),對(duì)每個(gè)類別,只需要用一個(gè)bbox來負(fù)責(zé)該類別的所示,涉及的D?H參數(shù)及各軸慣性參數(shù)可參考用戶手冊(cè)[5]。

圖2 YOLO算法使用的卷積網(wǎng)絡(luò)[3]Fig.2 Convolution networks for YOLO algorithms[3]

回歸[3]。網(wǎng)絡(luò)輸出得到的代價(jià)函數(shù)如式(1):

如果目標(biāo)在網(wǎng)格,損失函數(shù)會(huì)懲罰分類錯(cuò)誤。如果預(yù)測(cè)器起作用,該損失函數(shù)也懲罰bbox的坐標(biāo)誤差。訓(xùn)練結(jié)束后通過該回歸方程便可以實(shí)時(shí)預(yù)測(cè)目標(biāo)類別及目標(biāo)在圖像坐標(biāo)系中的坐標(biāo),通過計(jì)算其中心深度得到目標(biāo)在相機(jī)坐標(biāo)系中的三維位置。

圖3 WAM 的 4?DOF 和 D?H 坐標(biāo)系[5]Fig.3 WAM 4?DOF dimensions and D?H frames[5]

3 機(jī)械臂控制系統(tǒng)設(shè)計(jì)

3.1 機(jī)械臂系統(tǒng)

本文所用到的機(jī)械臂是4自由度Barrett WAM機(jī)械臂,其結(jié)構(gòu)(未安裝機(jī)械手時(shí))如圖3

3.2 相機(jī)與機(jī)械臂標(biāo)定

上述基于深度學(xué)習(xí)的目標(biāo)識(shí)別算法獲得目標(biāo)坐標(biāo)在相機(jī)坐標(biāo)系下,而機(jī)械臂的運(yùn)動(dòng)和控制基于的自身參考坐標(biāo)系,因此需要將相機(jī)坐標(biāo)系下的三維點(diǎn)轉(zhuǎn)化為機(jī)械臂坐標(biāo)系下的三維點(diǎn),這個(gè)過程需要進(jìn)行標(biāo)定。

在機(jī)械臂與攝像機(jī)標(biāo)定問題中,可由機(jī)械臂內(nèi)部傳感器得到機(jī)械臂末端執(zhí)行器在機(jī)械臂坐標(biāo)系下的三維坐標(biāo),通過雙目立體視覺計(jì)算出末端執(zhí)行器在攝像機(jī)坐標(biāo)系下的三維坐標(biāo)(通過第二章得到)。操作機(jī)械臂改變末端執(zhí)行器位置我們便可以得到一組點(diǎn)在不同坐標(biāo)系下的坐標(biāo)值。

問題轉(zhuǎn)化為已知空間中的同一組點(diǎn)在不同坐標(biāo)系(攝像機(jī)坐標(biāo)系、機(jī)械臂坐標(biāo)系)下的坐標(biāo)?= {(Xi,X′i)}, 計(jì)算兩個(gè)坐標(biāo)之間的變換矩陣。Xi是由齊次向量表示的第i個(gè)三維點(diǎn),X是4×N矩陣包含了N個(gè)點(diǎn),這些點(diǎn)均由齊次向量表示。得到一組對(duì)應(yīng)點(diǎn)后,問題變成在3D剛性場(chǎng)景的找最優(yōu)Γr的點(diǎn)云配準(zhǔn)問題,可以為式(2)所示最小二乘問題:

Γr需要滿足SE(3)的所有約束。利用李群結(jié)構(gòu)SE(3)及其相關(guān)李代數(shù)se(3)可以將約束問題可以轉(zhuǎn)化為無(wú)約束優(yōu)化問題。定義代價(jià)函數(shù)如式(3):

其中 C(ω,v) =d(exp(ω,v)Xi,X′), 為了后面計(jì)算 Jacobian矩陣方便,令 d(·,·) =‖·‖2L2。

在對(duì)代價(jià)函數(shù)化簡(jiǎn)之前,有必要對(duì)輸入數(shù)據(jù)進(jìn)行規(guī)范化操作。這有利于防止收斂到錯(cuò)誤的解,且減少所需的迭代次數(shù)。分別對(duì)點(diǎn)集X和X′計(jì)算如下轉(zhuǎn)換矩陣:

對(duì)所有點(diǎn)進(jìn)行規(guī)范化操作i= wXi,′i=w′X′i。對(duì)規(guī)范化后的點(diǎn)進(jìn)行后續(xù)優(yōu)化操作,當(dāng)找到最優(yōu)的 (,)?時(shí),真實(shí)的最優(yōu)解可通過式(4)計(jì)算:

求代價(jià)函數(shù)對(duì) se(3)的Jacobian矩陣如式(5):

將上述算法記為算法3,其流程總結(jié)如下:

1)將X和X′標(biāo)準(zhǔn)化,并且計(jì)算w和w′;

2)生成標(biāo)準(zhǔn)化后的點(diǎn)集,?i= wXi,′i= w′X′i;

3)利用標(biāo)準(zhǔn)化后的點(diǎn)集X和X′計(jì)算M;

4)x隨機(jī)取一組數(shù)x0∈R R6,滿足‖x0‖ <π,其中x為優(yōu)化變量 ω,v( );

5)利用梯度下降法優(yōu)化代價(jià)函數(shù),不斷迭代x直到它收斂于x?;

6) 利用 exp將 x?映射到 SE(3),得到(,)?。

(R,T)?= w′-1(,)?w, 算法結(jié)束,得到攝像機(jī)坐標(biāo)系與機(jī)械臂坐標(biāo)系之間的變換關(guān)系。在第二章通過深度學(xué)習(xí)算法可以獲得目標(biāo)在攝像機(jī)坐標(biāo)系下的三維坐標(biāo),利用這里的位姿變換關(guān)系可以轉(zhuǎn)化為機(jī)械臂坐標(biāo)系的三維坐標(biāo),這樣便可以用于后續(xù)機(jī)械臂的路徑規(guī)劃即期望軌跡的計(jì)算。

3.3 期望軌跡計(jì)算

利用前述系列算法已經(jīng)可以獲得目標(biāo)在機(jī)械臂坐標(biāo)系下的三維坐標(biāo),現(xiàn)在將為機(jī)械臂從初始點(diǎn)到目標(biāo)點(diǎn)規(guī)劃一條合理的路徑,這里采用MoveIt!工具包[6],運(yùn)動(dòng)規(guī)劃算法基于第三方運(yùn)動(dòng)學(xué)庫(kù) OMPL(Open Motion Plan Library)。

利用Rviz和MoveIt!使模型在ROS系統(tǒng)進(jìn)行運(yùn)動(dòng)仿真時(shí)可視,這樣的話,給定機(jī)械臂末端執(zhí)行器的起點(diǎn)和終點(diǎn)位置及姿態(tài),OMPL庫(kù)就可以在線完成運(yùn)動(dòng)規(guī)劃。機(jī)械臂模型利用MoveIt!在從初始位姿到目標(biāo)位姿的運(yùn)動(dòng)規(guī)劃仿真如圖4所示。

3.4 基于李群李代數(shù)的機(jī)械臂動(dòng)力學(xué)模型

機(jī)械臂逆動(dòng)力學(xué)通常用于計(jì)算使動(dòng)力學(xué)系統(tǒng)沿著規(guī)定的關(guān)節(jié)軌跡運(yùn)動(dòng)所需的關(guān)節(jié)力矩,假設(shè)機(jī)械臂各關(guān)節(jié)角及角速度(θ,θ·)已知(期望軌跡計(jì)算)。通過給定的關(guān)節(jié)加速度θ¨計(jì)算關(guān)節(jié)力矩τ。另一方面,機(jī)械臂正動(dòng)力學(xué)通常用于積分加速度得到系統(tǒng)下一個(gè)時(shí)間步長(zhǎng)的狀態(tài)(θ,)仿真系統(tǒng)的運(yùn)動(dòng)[7-9],利用給定的關(guān)節(jié)力矩 τ 計(jì)算關(guān)節(jié)加速度。定義如下變量:

圖4 利用MoveIt!完成運(yùn)動(dòng)規(guī)劃Fig.4 Motion planning made by MoveIt!

i:第i個(gè)關(guān)節(jié)的索引;

λ(i):第i個(gè)關(guān)節(jié)父關(guān)節(jié)的索引;

μ(i):第i個(gè)關(guān)節(jié)子關(guān)節(jié)的索引;

{i}:第i個(gè)關(guān)節(jié)的固連坐標(biāo)系;

T:坐標(biāo)變換矩陣;

Ii:第i個(gè)關(guān)節(jié)的廣義慣量;

Vi:{i}系下第i個(gè)關(guān)節(jié)的廣義速度;

Fi:第i個(gè)關(guān)節(jié)所受的廣義力;

令將逆動(dòng)力學(xué)算法記為算法1,計(jì)算逆動(dòng)力學(xué)的算法包含下面兩個(gè)遞推過程,總結(jié)如下:

1)前向遞推

2)反向遞推

將正動(dòng)力學(xué)算法記為算法2,計(jì)算系統(tǒng)正動(dòng)力學(xué)的算法包含三個(gè)遞推過程。假設(shè)機(jī)械臂各關(guān)節(jié)角及角速度已知(期望軌跡計(jì)算)。通過給定的關(guān)節(jié)加速度計(jì)算關(guān)節(jié)力矩。

遞推過程如下:

1)前向遞推

2)反向遞推

3)前向遞推

3.5 滑??刂坡?/h3>

相比于其他非線性控制方法,滑??刂浦饕獌?yōu)點(diǎn)是對(duì)動(dòng)力學(xué)建模誤差和外部干擾具有良好的魯棒性[10]。 將機(jī)械臂動(dòng)力學(xué)方程(6)、(7)總結(jié)如式(11):

其中d為干擾力矩向量,表示機(jī)械臂真實(shí)動(dòng)力學(xué)模型與名義動(dòng)力學(xué)模型的偏差。下面給出兩個(gè)假設(shè)[11]:

1)‖M-1(θ)‖≤α,這里α為有界正常數(shù)。

2)干擾力矩向量d= [d1d2d3d4]T也是有界的,即 ‖di‖ ≤ βi,i = 1,2,3,4。

這樣機(jī)械臂動(dòng)力學(xué)模型可以用式(12)表示:

定義跟蹤誤差:e?x-xd,設(shè)滑模面為式(13):

這里 λ = diag(λ1,λ2,λ3,λ4),λ1、λ2、λ3、λ4為正常數(shù)。首先需要設(shè)計(jì)控制律u使得S趨于O。設(shè)計(jì)Lyapunov函數(shù)如式(14):

這里 Κ = diag( k1,k2,k3,k4),k1、k2、k3、k4為正常數(shù)。將u代入得式(17):

對(duì)時(shí)間求導(dǎo)得加速度矩陣如式(15):

從而控制律可設(shè)計(jì)為式(16):

如果滿足 ki> αβi, 將有V·< O, 這樣便保證了系統(tǒng)在Lyapunov意義下是穩(wěn)定的,即保證跟蹤誤差會(huì)收斂于0。代入公式(16)可得式(18):

滑??刂朴幸粋€(gè)非連續(xù)項(xiàng)K sgn(S),當(dāng)選取合適的K時(shí)它將使得滑模控制對(duì)干擾具有魯棒性。但是,另一方面,該項(xiàng)也帶來了抖震,為了減小抖震,使用邊界層方法,即用si/( si+ε)代替sgn(si),這里ε代表邊界層寬度。

4 機(jī)械臂抓取試驗(yàn)系統(tǒng)的相關(guān)驗(yàn)證

4.1 抓取系統(tǒng)簡(jiǎn)介

本系統(tǒng)設(shè)計(jì)方案考慮到雙目攝像機(jī)能夠從不同角度實(shí)時(shí)獲取目標(biāo)物體的圖像信息,以便可以較為容易地得到目標(biāo)的三維坐標(biāo),故而采用雙目視覺系統(tǒng)。從系統(tǒng)工作的實(shí)時(shí)性考慮,采用固定攝像機(jī)的結(jié)構(gòu),減少系統(tǒng)的計(jì)算壓力,提高相應(yīng)速度,并且將雙目相機(jī)固定在機(jī)械臂工作臺(tái)的一側(cè),并且從安全穩(wěn)定性考慮,將其放在機(jī)械臂操作空間之外。搭建的基于視覺的機(jī)械臂控制系統(tǒng)如圖5所示,主要由兩大核心部分組成:視覺目標(biāo)識(shí)別系統(tǒng)和機(jī)械臂控制系統(tǒng)。

圖5 抓取系統(tǒng)方案Fig.5 Scheme of capture system

在操作機(jī)械臂前提前利用深度學(xué)習(xí)算法訓(xùn)練好多目標(biāo)識(shí)別模型,采集需要辨識(shí)的目標(biāo)圖像,構(gòu)建數(shù)據(jù)集,利用數(shù)據(jù)集對(duì)深度卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練,并通過正則化及非凸優(yōu)化調(diào)整網(wǎng)絡(luò)權(quán)值,提高網(wǎng)絡(luò)泛化能力。系統(tǒng)上電后,雙目攝像頭采集視頻信號(hào)將圖像信息傳送至上位機(jī),上位機(jī)對(duì)采集的圖像信號(hào)分析,利用已經(jīng)訓(xùn)練好的深度卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)目標(biāo)的識(shí)別,通過雙目視覺系統(tǒng)得到所需的目標(biāo)物體的位置信息,上位機(jī)在得到目標(biāo)位置信息后通過機(jī)械臂運(yùn)動(dòng)學(xué)逆解或者軌跡優(yōu)化算法計(jì)算得到機(jī)械手欲達(dá)到這個(gè)位置每個(gè)關(guān)節(jié)需要轉(zhuǎn)動(dòng)的角度,根據(jù)控制算法實(shí)時(shí)計(jì)算控制器輸出,通過上位機(jī)軟件發(fā)出相應(yīng)的控制指令驅(qū)動(dòng)機(jī)械臂控制系統(tǒng)的控制器使各關(guān)節(jié)轉(zhuǎn)動(dòng)相應(yīng)的角度,以使機(jī)械手準(zhǔn)確抓取指定物體。

下面主要驗(yàn)證基于深度神經(jīng)網(wǎng)絡(luò)的多類目標(biāo)識(shí)別與定位、機(jī)械臂的滑??刂埔约氨苷献ト∧繕?biāo)。

4.2 目標(biāo)識(shí)別試驗(yàn)

考慮NVIDIA公司的 Jetson TX1(圖6)具有Teraflops級(jí)的浮點(diǎn)計(jì)算能力和強(qiáng)大的軟件堆棧以及超低能耗,足以負(fù)載實(shí)時(shí)目標(biāo)識(shí)別的應(yīng)用和開發(fā),因此本文所用基于深度學(xué)習(xí)的YOLO算法使用此板卡實(shí)現(xiàn)。

圖6 TX1的GPU板卡及開發(fā)者套件[12]Fig.6 TX1 GPU board and Developer Suite[12]

YOLO所依賴的深度學(xué)習(xí)框架為darknet,模型訓(xùn)練所需的超參數(shù)設(shè)置如下:1)基礎(chǔ)學(xué)習(xí)率learning_rate 為 0.001;2) 學(xué)習(xí)率的衰減策略 pol?icy為“steps”,步長(zhǎng) stepsize 為 40000;3) 學(xué)習(xí)率的變化比率 scales為0.1;4)最大迭代次數(shù) max_batche為 80200;5) 動(dòng)量 momentum 為 0.9;6) 權(quán)重衰減項(xiàng) decay為0.0005。

識(shí)別算法神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如表1所示。

表1 網(wǎng)絡(luò)結(jié)構(gòu)Table 1 Network structure

訓(xùn)練過程如下:

1)首先是數(shù)據(jù)的準(zhǔn)備,目前驗(yàn)證目標(biāo)識(shí)別算法可以通過一些標(biāo)準(zhǔn)數(shù)據(jù)集,如Kitti數(shù)據(jù)集。如果數(shù)據(jù)集不標(biāo)準(zhǔn),需要將數(shù)據(jù)集轉(zhuǎn)化為標(biāo)準(zhǔn)數(shù)據(jù)集的形式,常見的有VOC格式。

2)然后通過YOLO算法訓(xùn)練神經(jīng)網(wǎng)絡(luò)連接權(quán)值,生成權(quán)值文件,這個(gè)訓(xùn)練過程可以通過TX1的GPU加速。

通過圖7所示結(jié)果可以看出,YOLO算法識(shí)別出了包括顯示屏、椅子、杯子、人等對(duì)象,對(duì)多類目標(biāo)實(shí)現(xiàn)了較好的識(shí)別與較精準(zhǔn)的定位。

圖7 測(cè)試結(jié)果Fig.7 Test results

4.3 滑??刂乞?yàn)證

針對(duì)本文所用滑??刂坡?,首先設(shè)計(jì)一個(gè)仿真算例。該示例用于跟蹤一個(gè)參考軌跡 θd(t),其表達(dá)式為: θd(t) = [0.1 + 0.5sin0.6 t -1.5708 0 3.14]T, 設(shè) 初 始 條 件 為 θ(0) =[0 - 1.5708 0 3.14]T, 控制律的相關(guān)參數(shù)為: λ = 20Ι4×4、Κ = 25Ι4×4、ε = [0.5 0.5 0.5 0.5]T, 仿真的采樣時(shí)間為 0.001 s。 得到圖 8 所示結(jié)果。

圖8 關(guān)節(jié)角1參考軌跡跟蹤仿真結(jié)果Fig.8 Simulation results of joint angle 1 in trajectory tracking experiments

由上圖可知滑??刂圃诟櫿臆壽E時(shí)響應(yīng)速度很快,在0.21 s時(shí)誤差即在2%。控制力矩在初始時(shí)刻較大,隨著實(shí)際關(guān)節(jié)軌跡趨近于期望關(guān)節(jié)軌跡,控制力矩將趨于0。

通過該仿真試驗(yàn)可知該控制律控制精度滿足控制要求,下面完成實(shí)物試驗(yàn)。

在WAM機(jī)械臂的Ubuntu12.04實(shí)時(shí)操作系統(tǒng)上用C++編寫控制程序?qū)崿F(xiàn)上述控制算法。由PC機(jī)通過Socket協(xié)議向機(jī)械臂發(fā)出控制指令,從而實(shí)現(xiàn)對(duì)機(jī)械臂的實(shí)時(shí)控制。本試驗(yàn)用于跟蹤一個(gè)參考軌跡θd(t),其表達(dá)式為:θ (t)

d初始條件為θ(0) = [0.1 - 0.6854 0.1 1.6708]T, 控制律的相關(guān)參數(shù)設(shè)為 λ = 70Ι4×4、Κ = 50Ι4×4、ε= [0.5 0.5 0.5 0.5]T。 得到如圖9所示結(jié)果。

由多關(guān)節(jié)聯(lián)動(dòng)試驗(yàn)可知,滑模控制可以對(duì)多關(guān)節(jié)同時(shí)進(jìn)行高精度跟蹤。

4.4 避障抓取試驗(yàn)

如圖10~11所示,在完成目標(biāo)識(shí)別與定位后,通過期望軌跡計(jì)算得到有效關(guān)節(jié)軌跡,控制機(jī)械臂跟蹤該路徑,同時(shí)還需要避免各關(guān)節(jié)與障礙物的碰撞,在空間足夠的地方,張開Bhand?280機(jī)械手,然后在接近目標(biāo)的位置處實(shí)施抓取動(dòng)作。在目標(biāo)位置完成抓取后,機(jī)械臂需要收回到基座,這時(shí)同樣需要避免各關(guān)節(jié)與障礙物的碰撞。最終的抓取試驗(yàn)是成功的。

5 結(jié)論

本文通過仿真驗(yàn)證及實(shí)物抓取驗(yàn)證,實(shí)現(xiàn)了基于深度學(xué)習(xí)的的目標(biāo)快速精確識(shí)別,能在小樣本環(huán)境下快速給出目標(biāo)的分類及定位信息,為抓取規(guī)劃控制提供了前提。同時(shí)從實(shí)際機(jī)械臂運(yùn)行精度可以得出所設(shè)計(jì)滑??刂坡删哂惺褂每煽啃浴5壳皩?shí)驗(yàn)環(huán)境相對(duì)單一,驗(yàn)證任務(wù)相對(duì)簡(jiǎn)單,后續(xù)將在本文的基礎(chǔ)上在高動(dòng)態(tài)環(huán)境下復(fù)雜多目標(biāo)識(shí)別,協(xié)同抓取等方面展開進(jìn)一步研究。

圖10 機(jī)械臂避障抓取目標(biāo)過程Fig.10 The process of obstacle avoidance and target capture by the robotic arm

圖11 機(jī)械臂抓取目標(biāo)后返回避障過程Fig.11 The process of obstacle avoidance and retur?ning after target grasping of the robotic arm

[1] 鄧樺.機(jī)械臂空間目標(biāo)視覺抓取的研究[D].哈爾濱:哈爾濱工業(yè)大學(xué),2013.

Deng Hua.Research on Visual Capture of Robot Arm with Spatial Target[D].Harbin: Harbin Institute of Technology,2013.(in Chinese)

[2] 于灝洋.基于雙目視覺的伺服機(jī)械臂運(yùn)動(dòng)控制研究[D].大連:大連理工大學(xué),2016.

Yu Haoyang.Research on Motion Control of Servo Arm based on Binocular Vision [D].Dalian: Dalian University of Tech?nology, 2016.(in Chinese)

[ 3 ] Redmon J, Divvala S, Girshick R, et al.You only look once: Unified, real?time object detection[C] //Proceedings of the IEEE Conference on Computer Vision and Pattern Rec?ognition.2016: 779?788.

[ 4 ] Redmon J, Farhadi A.YOLO9000: better, faster, stronger[J].arXiv preprint arXiv: 1612.08242, 2016.

[5] The WAMTMArm [EB/OL].https://www.barrett.com/wam?arm/.

[6] 孟韶南,梁雁冰,師恒.基于ROS平臺(tái)的六自由度機(jī)械臂運(yùn)動(dòng)規(guī)劃[J].上海交通大學(xué)學(xué)報(bào), 2016(S1):94?97.

Meng Shaonan, Liang Yanbing, Shi Heng.Motion planning of six degree of freedom robot arm based on ROSplatform[J].Journal of Shanghai Jiao Tong University, 2016(S1): 94?97.(in Chinese)

[7] 劉鵬,王強(qiáng),張偉.機(jī)械臂動(dòng)力學(xué)建模及控制仿真[J].自動(dòng)化與儀表, 2017(03): 9?12.

猜你喜歡
滑模坐標(biāo)系動(dòng)力學(xué)
《空氣動(dòng)力學(xué)學(xué)報(bào)》征稿簡(jiǎn)則
小天體環(huán)的軌道動(dòng)力學(xué)
艦船科學(xué)技術(shù)(2022年10期)2022-06-17
滑模及分?jǐn)?shù)階理論在電機(jī)控制系統(tǒng)中的應(yīng)用
獨(dú)立坐標(biāo)系橢球變換與坐標(biāo)換算
具有Markov切換的非線性隨機(jī)SIQS傳染病模型的動(dòng)力學(xué)行為
科學(xué)技術(shù)創(chuàng)新(2021年35期)2022-01-14
大直徑庫(kù)體滑模施工技術(shù)應(yīng)用研究
坐標(biāo)系背后的故事
三角函數(shù)的坐標(biāo)系模型
南漳县| 梁河县| 吉木乃县| 岗巴县| 太保市| 武汉市| 大丰市| 曲阜市| 黄山市| 榆中县| 巴林左旗| 类乌齐县| 延安市| 盐池县| 舒兰市| 江安县| 揭西县| 越西县| 澄江县| 疏勒县| 布拖县| 保康县| 山东省| 喀喇沁旗| 板桥市| 荆州市| 临夏县| 淮滨县| 望都县| 桃源县| 沙河市| 靖西县| 富宁县| 融水| 樟树市| 凌云县| 隆化县| 阳城县| 祁门县| 涿鹿县| 乌兰县|