吳偉國(guó), 栗 華, 高力揚(yáng)
(哈爾濱工業(yè)大學(xué) 機(jī)電工程學(xué)院, 哈爾濱 150001)
?
人體步行捕捉下的雙足機(jī)器人跟隨步行與實(shí)驗(yàn)
吳偉國(guó), 栗 華, 高力揚(yáng)
(哈爾濱工業(yè)大學(xué) 機(jī)電工程學(xué)院, 哈爾濱 150001)
為深入研究服務(wù)型仿人機(jī)器人實(shí)時(shí)跟隨人步行的問(wèn)題,提出了基于人體步行運(yùn)動(dòng)捕捉的雙足機(jī)器人步行樣本生成方法,并進(jìn)行了機(jī)器人-人跟隨步行實(shí)驗(yàn).對(duì)PS三維運(yùn)動(dòng)捕捉系統(tǒng)在線獲取的人體步行樣本進(jìn)行運(yùn)動(dòng)學(xué)匹配并考慮機(jī)器人關(guān)節(jié)極限約束條件后,得到機(jī)器人步行樣本,構(gòu)建機(jī)器人仿人步行的樣本庫(kù);根據(jù)笛卡爾空間和關(guān)節(jié)空間內(nèi)的運(yùn)動(dòng)參數(shù)定義機(jī)器人與人的步行相似度綜合評(píng)價(jià),提出基于相似度評(píng)價(jià)的在線樣本檢索方法,以“關(guān)節(jié)角距離”為評(píng)價(jià)選取拼接點(diǎn),實(shí)現(xiàn)樣本在線拼接的樣本過(guò)渡方法,解決了機(jī)器人跟隨人進(jìn)行變速步行的問(wèn)題;完成了雙足機(jī)器人跟隨不同人進(jìn)行穩(wěn)定步行的實(shí)驗(yàn),跟隨過(guò)程中的距離誤差不超過(guò)±52 mm,跟隨結(jié)束后的位置誤差不超過(guò)±10 mm.
仿人雙足步行機(jī)器人;跟隨步行;步行相似性評(píng)價(jià);步行樣本切換;運(yùn)動(dòng)捕捉
在服務(wù)、救援、維修等需要人-機(jī)器人交互或配合的任務(wù)中,機(jī)器人能夠跟隨所服務(wù)或配合的對(duì)象是完成此類任務(wù)的前提條件.
在以機(jī)器人為對(duì)象的人體運(yùn)動(dòng)重構(gòu)方面, Kim等[1]與Pollard等[2]利用幾何比例調(diào)節(jié)的方法,實(shí)現(xiàn)了人體與機(jī)器人運(yùn)動(dòng)學(xué)匹配;Yamane等[3]和Boutin等[4]基于倒立擺模型在運(yùn)動(dòng)重構(gòu)過(guò)程中添加了平衡約束,從而保證機(jī)器人的穩(wěn)定性; Liu等[5]應(yīng)用ZMP模糊控制器獲得運(yùn)動(dòng)重構(gòu)后樣本的穩(wěn)定性; Yi等[6]提出了基于生物力學(xué)驅(qū)動(dòng)的擾動(dòng)恢復(fù)控制器,實(shí)現(xiàn)了小型仿人機(jī)器人在線模仿人體全身運(yùn)動(dòng); Vuga等[7]基于機(jī)器人動(dòng)力學(xué)方程的零空間進(jìn)行運(yùn)動(dòng)重構(gòu)中的平衡調(diào)整,該方法能夠在平衡條件允許下較好地保留運(yùn)動(dòng)相似度;Munirathinam等[8]采用基于連續(xù)時(shí)間縮放和關(guān)節(jié)修正的方法,在NAO機(jī)器人上復(fù)現(xiàn)踢腿動(dòng)作; Miura等[9]以運(yùn)動(dòng)相似度最大化為原則修正步行參數(shù),使HRP-4C機(jī)器人動(dòng)作更加擬人化.
另一方面,Nakazawa等[10]和張利格等[11]將人體運(yùn)動(dòng)進(jìn)行細(xì)分整理后拼接成新的運(yùn)動(dòng)施加給機(jī)器人,前者在HRP機(jī)器人上復(fù)現(xiàn)了人體舞蹈動(dòng)作,后者實(shí)現(xiàn)了BHR-2機(jī)器人刀術(shù)表演.還在一些類似研究[12-15]采用此類劃分運(yùn)動(dòng)基元的方法,該方法除可對(duì)人體動(dòng)作進(jìn)行模仿外,還可作為動(dòng)作識(shí)別及新動(dòng)作拼接生成的基礎(chǔ).
此外,智能算法也被引入到人體步行運(yùn)動(dòng)重構(gòu)之中.Christopher等[16]通過(guò)訓(xùn)練與機(jī)器人各關(guān)節(jié)對(duì)應(yīng)的神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了運(yùn)動(dòng)捕捉數(shù)據(jù)與機(jī)器人關(guān)節(jié)角的匹配; Hwang等[17]利用基于逆運(yùn)動(dòng)學(xué)神經(jīng)網(wǎng)絡(luò)算法減少了運(yùn)動(dòng)匹配計(jì)算時(shí)間; Rempis[18]提出了一種通過(guò)穩(wěn)定步行樣本對(duì)捕捉樣本進(jìn)行修正的新型神經(jīng)網(wǎng)絡(luò).
為使機(jī)器人在滿足步行穩(wěn)定性的同時(shí),盡可能提高運(yùn)動(dòng)“相仿性”以完善仿生運(yùn)動(dòng),研究者定義了一些相似性評(píng)價(jià):趙曉軍等[19]以對(duì)應(yīng)關(guān)節(jié)角的接近程度衡量運(yùn)動(dòng)相似性;張利格等[11]在其基礎(chǔ)上加入機(jī)器人與人體運(yùn)動(dòng)節(jié)奏的相似性;柯文德[20]綜合考慮運(yùn)動(dòng)時(shí)空特性與動(dòng)作節(jié)奏提出了相似性定義.以上相似性分析都集中在關(guān)節(jié)空間中,未體現(xiàn)機(jī)器人與人體運(yùn)動(dòng)不同的根本原因,即人體與機(jī)器人在肢體長(zhǎng)度等運(yùn)動(dòng)學(xué)參數(shù)上的差異.
本文采用幾何變換的方法對(duì)由三維運(yùn)動(dòng)捕捉系統(tǒng)得到的人體步行運(yùn)動(dòng)數(shù)據(jù)進(jìn)行重構(gòu),并考慮機(jī)器人關(guān)節(jié)極限約束得到機(jī)器人步行運(yùn)動(dòng)樣本,構(gòu)建仿人雙足步行機(jī)器人樣本庫(kù),在此基礎(chǔ)上提出根據(jù)所跟隨對(duì)象的步行參數(shù)在線檢索、修正、拼接機(jī)器人步行樣本以實(shí)現(xiàn)機(jī)器人實(shí)時(shí)跟隨人步行的方法,并進(jìn)行了對(duì)不同跟隨對(duì)象的跟隨步行實(shí)驗(yàn).
1.1 仿人雙足步行機(jī)器人
如圖1(a)所示,所使用的雙足機(jī)器人為自行研制的類人及類人猿型機(jī)器人“GOROBOT-II”的雙足部分,有12個(gè)自由度,髖、膝、踝關(guān)節(jié)各有3、1、2個(gè)自由度,由Maxon伺服電動(dòng)機(jī)+同步齒形帶傳動(dòng)+諧波齒輪減速器驅(qū)動(dòng)各個(gè)關(guān)節(jié),其機(jī)構(gòu)如圖1(b)所示,a3、a4、a6分別為220、184、86 mm,兩踝關(guān)節(jié)間距為125 mm,腳的長(zhǎng)、寬為160 mm×100 mm;軀干搭載智能伺服驅(qū)動(dòng)與控制器、電源以及通信模塊,質(zhì)量約22 kg.
(a)雙足機(jī)器人照片 (b)雙足機(jī)器人機(jī)構(gòu)簡(jiǎn)圖
Fig.1 GOROBOT-II humanoid biped robot and its mechanism
1.2 PhaseSpace三維運(yùn)動(dòng)捕捉系統(tǒng)
PhaseSpace(PS)三維運(yùn)動(dòng)捕捉系統(tǒng)是PhaseSpace公司生產(chǎn)的主動(dòng)式光學(xué)捕捉系統(tǒng).其硬件主要包括主機(jī)服務(wù)器、相機(jī)、LED標(biāo)識(shí)點(diǎn)、演出服、校正桿、控制器、基站等.光學(xué)相機(jī)分辨率達(dá)3 600×3 600 PPI,為雙眼結(jié)構(gòu)設(shè)計(jì),視角均為60°,掃描速度最高可達(dá)480 Hz.捕捉距離不超過(guò)10 m時(shí)捕捉精度可達(dá)1 mm.本文用8個(gè)相機(jī)左右各4個(gè)分兩列布置,捕捉場(chǎng)景及LED在人身位置如圖2所示.
圖2 PS系統(tǒng)對(duì)人體步行捕捉場(chǎng)景及LED位置
Fig.2 Scene of human walking captured by PS system and LED distribution demonstration
2.1 人體下肢各關(guān)節(jié)中心位置的確定
貼于捕捉服上的LED標(biāo)識(shí)點(diǎn)只能布置于關(guān)節(jié)外側(cè),因此需根據(jù)捕捉數(shù)據(jù)計(jì)算人體關(guān)節(jié)中心位置,進(jìn)而確定:大腿、小腿長(zhǎng)度、兩腿間距、步幅等參數(shù).由于人體髖、踝關(guān)節(jié)是側(cè)偏和俯仰運(yùn)動(dòng)復(fù)合的球形關(guān)節(jié),如圖3所示復(fù)合運(yùn)動(dòng)在二維平面內(nèi)的投影為近似圓形,半徑取決于標(biāo)識(shí)點(diǎn)與關(guān)節(jié)中心的相對(duì)位置.其中,坐標(biāo)系O0-X0Y0Z0是標(biāo)定PS系統(tǒng)時(shí)確定的世界坐標(biāo)系,O-xyz為關(guān)節(jié)中心坐標(biāo)系,則求關(guān)節(jié)中心問(wèn)題轉(zhuǎn)化為已知圓上部分離散點(diǎn)坐標(biāo)求圓心O坐標(biāo)(A0, B0, C0)的問(wèn)題.
圖3 世界坐標(biāo)系內(nèi)人體運(yùn)動(dòng)捕捉的關(guān)節(jié)運(yùn)動(dòng)投影
Fig.3 Joint motion projection of the captured human motion in base coordinate frame
所捕捉到的標(biāo)識(shí)點(diǎn)坐標(biāo)以(Xi, Yi, Zi)表示,i=1,2,…, n,設(shè)其在X0Y0平面內(nèi)的投影點(diǎn)分布于圓心為(A0, B0)、半徑為R的圓上:
(1)
若以di表示標(biāo)志點(diǎn)到圓心的距離,則可定義誤差函數(shù)σi=di2-R2,將其代入式(1)中,有
求解如下無(wú)約束最優(yōu)化問(wèn)題:
可得最優(yōu)解為
A0=-(HD-EG)/(CG-D2)/2,
B0=-(HC-ED)/(D2-CG)/2.
其中:
對(duì)xz、yz、xz平面內(nèi)標(biāo)志點(diǎn)投影分別應(yīng)用上述方法,可求出關(guān)節(jié)中心的三組圓心坐標(biāo),取平均值即為人體關(guān)節(jié)中心位置坐標(biāo).由關(guān)節(jié)中心軌跡通過(guò)逆運(yùn)動(dòng)學(xué)可解出各關(guān)節(jié)角.
2.2 人體步行樣本的獲取及預(yù)處理
人體步行捕捉的主要目標(biāo)為髖、膝、踝三關(guān)節(jié)的運(yùn)動(dòng),因此設(shè)置了如圖4(a)所示的LED粘貼位置,其中字母A~E分別代表貼點(diǎn)處LED燈的發(fā)光類型,主動(dòng)式光學(xué)相機(jī)布置位置如圖4(b)所示.
(a)標(biāo)志點(diǎn)粘貼位置及LED燈發(fā)光類型 (b) 光學(xué)相機(jī)分布示意圖
圖4 LED標(biāo)識(shí)點(diǎn)粘貼位置及主動(dòng)式光學(xué)相機(jī)布置示意圖
Fig.4 LED location and active optical camera distribution
捕捉得到的數(shù)據(jù)為每個(gè)采樣時(shí)刻各標(biāo)識(shí)點(diǎn)在坐標(biāo)系O0-X0Y0Z0中的三維坐標(biāo)值.圖5為一組捕捉得到的人體髖關(guān)節(jié)標(biāo)識(shí)點(diǎn)的原始軌跡曲線.
捕捉誤差及人體抖動(dòng)使原始軌跡不平滑,且捕捉期間LED標(biāo)識(shí)點(diǎn)被遮擋將使軌跡曲線不連續(xù),因此本文采用拉格朗日線性插值方法對(duì)其進(jìn)行預(yù)處理.利用原始數(shù)據(jù)可提取人、機(jī)器人步行參數(shù)(步長(zhǎng)、步高、步速、步行周期等),及人體幾何特征(肢體長(zhǎng)度、踝高、兩髖及兩踝間的距離等).
圖5 捕捉到的髖關(guān)節(jié)標(biāo)識(shí)點(diǎn)LED位移原始軌跡
人體與機(jī)器人機(jī)構(gòu)、幾何參數(shù)存在差異,因此人體關(guān)節(jié)角并不能直接施加給機(jī)器人,需考慮關(guān)節(jié)角度、角速度極限等約束條件進(jìn)行運(yùn)動(dòng)學(xué)匹配.
3.1 樣本的幾何縮放匹配
設(shè)kij為縮放比例,cRk為機(jī)器人步行參數(shù),cHk為人體步行參數(shù),則有
kij=cRk/cHk.
其中i=1,2依次代表髖、踝關(guān)節(jié);j=1~3,依次代表前向、側(cè)向和豎直方向;ki1為步長(zhǎng)比;ki2為兩髖、兩踝間距比例;ki3為下肢長(zhǎng)度、踝高比例.
設(shè)[x y z]T、[x′ y′ z′]T分別為幾何縮放前后關(guān)節(jié)位置矢量,則有如下矩陣變換關(guān)系:
將得到的標(biāo)志點(diǎn)坐標(biāo)隨踝關(guān)節(jié)標(biāo)志點(diǎn)平移至坐標(biāo)原點(diǎn)O0附近,圖6所示為一組原始人體運(yùn)動(dòng)和經(jīng)比例縮放后機(jī)器人運(yùn)動(dòng)的棍圖軌跡,縮放后基本保持原有的步行周期性特征且步態(tài)一致.
圖6 人體步行樣本按機(jī)器人-人幾何縮放前后步行軌跡
Fig.6 Walking trajectory of the captured human’s walking pattern before and after the geometric scaling
圖7為經(jīng)預(yù)處理和逆運(yùn)動(dòng)學(xué)解算出的人體運(yùn)動(dòng)關(guān)節(jié)角曲線和經(jīng)幾何縮放及逆運(yùn)動(dòng)解算出的機(jī)器人關(guān)節(jié)角曲線,二者關(guān)節(jié)角呈現(xiàn)出一定差異.
圖7 人體步行樣本按機(jī)器人-人幾何縮放前后關(guān)節(jié)角曲線
Fig.7 Joint angle curves of the captured human’s walking pattern before and after the geometric scaling
3.2 樣本的關(guān)節(jié)極限約束處理
θimin≤θi≤θimax,
人體在運(yùn)動(dòng)時(shí),橫滾方向擺動(dòng)較小,一般不超關(guān)節(jié)角極限;而俯仰角變化較大,易出現(xiàn)超越機(jī)器人關(guān)節(jié)極限的情況.髖、膝、踝3個(gè)關(guān)節(jié)的俯仰角分別為θ3、θ4、θ5,機(jī)器人在腳底始終保持水平姿勢(shì)的運(yùn)動(dòng)中,有如下關(guān)系:
θ4=θ3+θ5.
當(dāng)某關(guān)節(jié)角超越關(guān)節(jié)極限時(shí)可考慮3種調(diào)整方案,這里以踝關(guān)節(jié)為例進(jìn)行說(shuō)明:1)在水平方向微調(diào)質(zhì)心(圖8(a));2)僅調(diào)整髖關(guān)節(jié)俯仰角(圖8(b));3)僅調(diào)整膝關(guān)節(jié)俯仰角(圖8(c)).
通過(guò)對(duì)比,方案1需要同時(shí)調(diào)整3個(gè)俯仰角,質(zhì)心速度只有水平分量;方案2、3只需調(diào)整兩個(gè)俯仰角,但質(zhì)心速度存在豎直分量,削弱了機(jī)器人的步行抓地能力,且固定某一關(guān)節(jié)角不變的條件過(guò)于嚴(yán)格.同時(shí)考慮到“GOROBOT-II”型機(jī)器人踝關(guān)節(jié)俯仰運(yùn)動(dòng)范圍可達(dá)[-20°~-+75°],因此選擇方案1.調(diào)整時(shí)首先確定超越關(guān)節(jié)極限的區(qū)間[t1,t3]及達(dá)到最大值的時(shí)刻t2;而后將t2時(shí)刻的θ5調(diào)整到關(guān)節(jié)極限內(nèi),并在鄰域[t1-ts, t3+ts]內(nèi)以五次樣條插值重新規(guī)劃θ5以保證區(qū)間邊界點(diǎn)角度、角速度的連續(xù)性.
(a)水平移動(dòng)質(zhì)心 (b)調(diào)整髖關(guān)節(jié) (c)調(diào)整膝關(guān)節(jié)
圖8 機(jī)器人關(guān)節(jié)角超過(guò)關(guān)節(jié)極限的3種處理方式
Fig.8 Three dealing methods of the situation when the joint angle limitation is violated
3.3 人體非平腳著地而機(jī)器人平腳著地的著地補(bǔ)償
人體步行時(shí)非平腳著地,而GOROBOT-II型機(jī)器人為平板腳掌,行走時(shí)需平腳著地.如圖9所示,需對(duì)關(guān)節(jié)角進(jìn)行補(bǔ)償,才能保證機(jī)器人平腳步行.
(a)平腳著地 (b)非平腳著地 (c)補(bǔ)償角θΔ
圖9 平腳著地、非平腳著地與補(bǔ)償量θΔ
Fig.9 Flat foot landing, tilting foot landing and the compensation angle θΔ
補(bǔ)償角θΔ(腳底與地面夾角)有如下關(guān)系:
θ4=θ3+θ5+θΔ.
本文把各關(guān)節(jié)角距離關(guān)節(jié)極限的裕度比例作為分配系數(shù),將θΔ分配給其余關(guān)節(jié)的俯仰角.設(shè)各關(guān)節(jié)的調(diào)整量為Δθi(i=3,4,5),則有
Δθ3+Δθ4+Δθ5=θΔ,
θimin≤θi(t)+Δθi≤θimax,
其中:wi=θΔ/min{|θi(t)-θimin|, |θi(t)-θimax|}.
3.4 步行樣本的擬合
變換后的原始關(guān)節(jié)角波動(dòng)較大,不宜直接施加給機(jī)器人,因此對(duì)其進(jìn)行平滑處理,常用的方法有濾波和擬合.濾波采用平均值濾波,如式(2)所示.擬合考慮如下3種形式:正弦函數(shù)拓展式、高斯函數(shù)以及傅里葉函數(shù),如式(3)~(5)所示:
f(x)=(f(x-nΔx)+f(x-(n-1)Δx)+…+ f(x+nΔx))/(2n+1),
(2)
(3)
(4)
(5)
大量實(shí)驗(yàn)數(shù)據(jù)的擬合效果證明,從方差和、擬合系數(shù)以及均方根誤差對(duì)這3種擬合形式進(jìn)行對(duì)比來(lái)看,正弦函數(shù)拓展形式與傅里葉形式對(duì)關(guān)節(jié)角的擬合效果明顯優(yōu)于高斯函數(shù)形式;在同等項(xiàng)數(shù)下,正弦函數(shù)拓展形式的擬合效果優(yōu)于傅里葉形式.因此,在擬合形式中,優(yōu)先選擇正弦函數(shù)拓展形式(即式(3)).考慮到人體運(yùn)動(dòng)噪聲較大以及實(shí)驗(yàn)數(shù)據(jù)的擬合效果,擬合項(xiàng)數(shù)選擇8項(xiàng).
機(jī)器人與人運(yùn)動(dòng)的差異不僅體現(xiàn)在關(guān)節(jié)空間的參數(shù)上,也體現(xiàn)在笛卡爾空間內(nèi)的各項(xiàng)參數(shù)上,由此選?。旱芽柨臻g內(nèi)的步長(zhǎng)、步高、步行周期以及突出步行節(jié)奏性差異的“占空比”(單腳支撐期與雙腳支撐期的比值)作為關(guān)鍵參數(shù),分別定義S1~S4共4個(gè)相似度評(píng)價(jià):
其中:l、h、T、tS、tD分別為步長(zhǎng)、步高、步行周期、單腳支撐期、雙腳支撐期;下標(biāo)i=1,2,…,n; n為步行步數(shù).
則笛卡爾空間內(nèi)運(yùn)動(dòng)相似性為
其中:βi為[0,1]范圍內(nèi)的加權(quán)系數(shù),且Σβi=1.
在關(guān)節(jié)空間內(nèi)選取關(guān)節(jié)角度和關(guān)節(jié)角速度衡量相似性,關(guān)節(jié)空間內(nèi)的相似性定義為
S=αSC+(1-α)SJ.
式中:α為笛卡爾空間內(nèi)相似性的權(quán)值系數(shù);S1、S2、S3、S4、SC、SJ取值為[0,1],其取值越接近于1,則表明機(jī)器人與人體運(yùn)動(dòng)相似性越高.
5.1 步行樣本庫(kù)的構(gòu)建
步行樣本庫(kù)分為兩層,即檢索表和樣本表.檢索表結(jié)構(gòu)如圖10所示.存儲(chǔ)每組樣本的步行參數(shù)及人體特征信息,為相似樣本檢索提供評(píng)價(jià)依據(jù).
圖10 步行樣本檢索表結(jié)構(gòu)
樣本表為樣本庫(kù)主體,按檢索表順序存儲(chǔ)經(jīng)過(guò)仿真和實(shí)驗(yàn)驗(yàn)證能夠穩(wěn)定步行,并由不同被采樣者的不同的捕捉數(shù)據(jù)變換得到的機(jī)器人步行樣本.
對(duì)捕捉原始數(shù)據(jù)進(jìn)行插值后提取人體步行參數(shù):步長(zhǎng)、步行周期及步速參數(shù).本文選擇粘貼于鞋上的腳部標(biāo)識(shí)點(diǎn)作為關(guān)鍵標(biāo)識(shí)點(diǎn),將抬腳時(shí)刻、抬腳最高時(shí)刻以及落地時(shí)刻作為步行參數(shù)提取的關(guān)鍵姿勢(shì)幀,并定義人體腳著地的判別條件:
(6)
式中:δ1為高度誤差限;yf、y0f分別為腳部標(biāo)識(shí)點(diǎn)當(dāng)前高度和初始高度.若順次的兩個(gè)滿足式(6)的時(shí)刻腳部標(biāo)志點(diǎn)在前進(jìn)方向的距離大于δ2,則確定該距離為步長(zhǎng);這兩個(gè)時(shí)刻依次為該步的抬腳初始時(shí)刻和落地時(shí)刻;連續(xù)兩次抬腳時(shí)刻差值為步行周期.設(shè)x(ti)、x(ti-1)分別為ti、ti-1時(shí)刻標(biāo)識(shí)點(diǎn)前進(jìn)方向坐標(biāo)值,則步長(zhǎng)判斷條件為
提取人體步行參數(shù)的分析過(guò)程如圖11所示.
圖11 提取人體步行參數(shù)的流程圖
5.2 跟隨步行控制與相似步行樣本的檢索
本文以跟隨過(guò)程中人與機(jī)器人之間的距離誤差e評(píng)價(jià)跟隨效果,故而定義如下PD控制律:
式中:α1、α2、α3分別為權(quán)值系數(shù),α1+α2+α3=1.步行速度與步長(zhǎng)、步行周期相關(guān),且跟隨步行強(qiáng)調(diào)速度的接近程度,故權(quán)值系數(shù)中α3取值大于α1、α2.
若有多個(gè)樣本相似度相同,則比較檢索表中人體特征信息與當(dāng)前被跟蹤者的人體特征信息,選擇相近的樣本, 為避免頻繁切換步行樣本,上述控制過(guò)程僅在每個(gè)步行周期中進(jìn)行一次,且選定新樣本后計(jì)算其與當(dāng)前樣本的相似度值Sf-1,若Sf-1≥β則保留原樣本;反之則在下一個(gè)步行周期開始更換樣本.
5.3 拼接點(diǎn)的查找及運(yùn)動(dòng)過(guò)渡
為完成機(jī)器人當(dāng)前樣本到所選樣本的樣本拼接,需選擇合適的拼接點(diǎn),即機(jī)器人姿態(tài)具有最大相似性的時(shí)刻.與常用的姿態(tài)相似性評(píng)價(jià)指標(biāo)如:歐幾里得距離、四元數(shù)距離[21]以及在動(dòng)畫領(lǐng)域中基于點(diǎn)云的判斷方法[22]不同,本文定義“關(guān)節(jié)角距離”以衡量機(jī)器人兩個(gè)姿態(tài)下的關(guān)節(jié)角的差異:
本文將拼接點(diǎn)的查找限定于穩(wěn)定性較好的雙腳支撐期內(nèi),選取具有最小關(guān)節(jié)角距離的時(shí)刻作為拼接點(diǎn).由于拼接點(diǎn)處機(jī)器人的姿態(tài)并非完全一致,還需進(jìn)行兩個(gè)姿態(tài)間的運(yùn)動(dòng)過(guò)渡.此過(guò)程類似于機(jī)器人的軌跡規(guī)劃,即已知兩時(shí)刻關(guān)節(jié)空間內(nèi)各關(guān)節(jié)角以及角速度等信息,通過(guò)插入新的關(guān)節(jié)角度,得到完整關(guān)節(jié)軌跡.跟隨步行控制的流程如圖12所示.
圖12 基于樣本庫(kù)的在線步行樣本生成流程圖
Fig.12 Process of online walking pattern generation based on pattern set
6.1 步行樣本庫(kù)樣本的步行仿真與實(shí)驗(yàn)
利用ADAMS軟件建立GOROBOT-II機(jī)器人雙足部分虛擬樣機(jī)模型,機(jī)器人腳掌與地面之間接觸參數(shù)設(shè)置如表1所示.以數(shù)據(jù)文件形式將機(jī)器人-人體運(yùn)動(dòng)學(xué)匹配生成的步行樣本導(dǎo)入ADAMS,進(jìn)行步行仿真,仿真視頻截圖見圖13.
圖13 運(yùn)動(dòng)學(xué)匹配后步行樣本仿真視頻截圖
Fig.13 Simulation video capture of a transformed walking pattern example
本例中步行樣本分為加速段、中間步行段和減速段,分別包含下蹲階段和加速步樣本、經(jīng)運(yùn)動(dòng)學(xué)匹配后的人體步行循環(huán)樣本、減速步和身體直立階段樣本,時(shí)間分別為11.45、13.80、10.95 s.由于人體步長(zhǎng)不均衡,故經(jīng)運(yùn)動(dòng)學(xué)匹配后,步長(zhǎng)平均值為200 mm,步行速度為104 m/h.
經(jīng)仿真驗(yàn)證穩(wěn)定步行能力后的步行實(shí)驗(yàn)如圖14所示,實(shí)現(xiàn)穩(wěn)定步行,則為樣本庫(kù)中成功樣本.
表1 機(jī)器人腳掌與地面接觸參數(shù)設(shè)置
Tab.1 Contact parameter setting between robot’s feet and ground
剛度/(N·mm-1)力貢獻(xiàn)指數(shù)阻尼/(Ns·mm-1)穿透深度/mm靜摩擦系數(shù)動(dòng)摩擦系數(shù)1×1051.51000.10.80.3
圖14 離線樣本步行實(shí)驗(yàn)(一例)視頻截圖(光滑瓷磚地面)
6.2 機(jī)器人跟隨人步行實(shí)驗(yàn)
跟隨步行運(yùn)動(dòng)控制按如下步驟進(jìn)行:1)按采樣周期捕捉人體步行樣本;2)實(shí)時(shí)提取人體步行參數(shù);3)在機(jī)器人步行樣本庫(kù)中檢索相似樣本;4)查找拼接點(diǎn)規(guī)劃過(guò)渡軌跡;5)執(zhí)行新樣本,按步行樣本的關(guān)節(jié)軌跡控制機(jī)器人跟隨人步行.
限于篇幅,這里只給出機(jī)器人分別跟隨兩名身高不同并以不同步速前向步行的男性青年人的實(shí)驗(yàn)實(shí)例,其中機(jī)器人腿長(zhǎng)490 mm,約為被跟隨者腿長(zhǎng)的一半.開始步行時(shí),機(jī)器人滯后被跟隨者1個(gè)周期,以使機(jī)器人完成下蹲準(zhǔn)備動(dòng)作,并便于系統(tǒng)提取人體下肢和步行參數(shù),判斷人體步行步態(tài)特征.兩組實(shí)驗(yàn)被跟隨者身高分別為1.75、1.78 m;步長(zhǎng)均為200 mm;步行周期分別為7.20、8.18 s;步速分別約為100、88 m/h.機(jī)器人的樣本軌跡追蹤誤差的最大值為0.24°,滿足步行樣本執(zhí)行的要求.圖15、16分別為兩組實(shí)驗(yàn)中機(jī)器人跟隨人前向步行時(shí)的跟隨位置誤差曲線,最大前向跟隨位置誤差分別為52、49 mm.圖17、18分別為這兩組跟隨步行實(shí)驗(yàn)視頻截圖.
圖15 第1組跟隨步行實(shí)驗(yàn)跟隨誤差曲線
圖16 第2組跟隨步行實(shí)驗(yàn)跟隨誤差曲線
圖17 機(jī)器人跟隨人步行實(shí)驗(yàn)視頻截圖(第1組:跟隨身高1.75 m男性青年)(光滑瓷磚地面)
圖18 機(jī)器人跟隨人步行實(shí)驗(yàn)視頻截圖(第2組:跟隨身高1.78 m男性青年)(光滑瓷磚地面)
1)基于幾何縮放和關(guān)節(jié)角安全裕度最大的原則,給出了考慮關(guān)節(jié)角度、角速度極限的由人體運(yùn)動(dòng)捕捉數(shù)據(jù)生成實(shí)際機(jī)器人可用步行樣本的方法,提出了笛卡爾空間、關(guān)節(jié)空間內(nèi)機(jī)器人-人的運(yùn)動(dòng)相似度綜合評(píng)價(jià)指標(biāo),提出了基于跟隨距離誤差和相似樣本檢索的機(jī)器人跟隨步行控制方法;
2)利用PhaseSpace三維運(yùn)動(dòng)捕捉系統(tǒng)捕捉了大量人體步行樣本,變換為機(jī)器人步行樣本后經(jīng)仿真與離線步行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,機(jī)器人能夠穩(wěn)定步行,驗(yàn)證了基于人體運(yùn)動(dòng)捕捉的步行樣本生成方法的可行性和有效性,并建立了機(jī)器人穩(wěn)定步行樣本庫(kù);
3)進(jìn)行了在線控制機(jī)器人跟隨不同步速、不同被跟隨者的跟隨步行實(shí)驗(yàn),跟隨過(guò)程中最大跟隨距離誤差為52 mm,跟隨結(jié)束后跟隨距離誤差在±10 mm內(nèi),實(shí)驗(yàn)驗(yàn)證了機(jī)器人實(shí)時(shí)在線跟隨步行控制方法的有效性.
目前,捕捉得到不同身高不同步速人的步行樣本較豐富,但經(jīng)離線樣本步行實(shí)驗(yàn)驗(yàn)證有效的樣本還有限,后續(xù)尚需經(jīng)大量的機(jī)器人步行實(shí)驗(yàn)驗(yàn)證后擴(kuò)充樣本庫(kù),并且進(jìn)一步研究快速跟隨步行下,在線調(diào)整拼接相似性樣本對(duì)步行穩(wěn)定性的影響.
[1] KIM J Y, KIM Y S.Walking pattern mapping algorithm using fourier fitting and geometric approach for biped humanoid robots[C]//Proc 9th IEEE-RAS Conf on Humanoid Robots.Piscataway: IEEE Press, 2009: 243-249.DOI: 10.1109/ICHR.2009.5379571.
[2] POLLARD N S, HODGINS J K, RILEY M J, et al.Adapting human motion for the control of a humanoid robot[C]//Proc 2002 IEEE Conf on Robotics and Automation.Piscataway: IEEE Press, 2002: 1390-1397.DOI: 10.1109/ROBOT.2002.1014737.
[3] YAMANE K, HODGINS J.Control-aware mapping of human motion data with stepping for humanoid robots[C]//Proc 2010 IEEE/RSJ Conf on Intelligent Robots and Systems.Piscataway: IEEE Press, 2010: 726-733.DOI: 10.1109/IROS.2010.5652781.
[4] BOUTIN L, EON A, ZEGHLOUL S, et al.From human motion capture to humanoid locomotion imitation application to the robots HRP-2 and HOAP-3[J].Robotica, 2011, 29(2): 325-334.DOI: 10.1017/S0263574710000172.
[5] LIU H Y, WANG W J.Image recognition and force measurement application in the humanoid robot Imitation[C]//Proc IEEE Transactions on Instrumentation and Measurement.Piscataway: IEEE Press, 2012: 149-161.DOI: 10.1109/TIM.2011.2161025.
[6] YI S J, MCGILL S G, ZHANG B T, et al.Active stabilization of a humanoid robot for real-time imitation of a human operator[C]//Proc 12th IEEE-RAS Conf on Humanoid Robots.Piscataway: IEEE Press, 2012: 761-766.DOI: 10.1109/HUMANOIDS.2012.6651605.
[7] VUGA R, OGRINC M, GAMS A, et al.Motion capture and reinforcement learning of dynamically stable humanoid movement primitives[C]//Proc 2013 IEEE Conf on Robotics and Automation.Piscataway: IEEE Press, 2013: 5284-5290.DOI: 10.1109/ICRA.2013.6631333.
[8] MUNIRATHINAM K, CHEVALLEREAU C, SAKKA S.Offline imitation of a human motion by a humanoid robot under balance constraint[J].Mechanisms and Machine Science, 2014, 20: 269-282.DOI: 10.1007/978-3-319-05431-5_18.
[9]MIURA K, MORISAWA M, NAKAOKA S et al.Robot motion remix based on motion capture data towards human-like locomotion of humanoid robots[C]//Proc IEEE/RAS Conf on Humanoid Robots.Piscataway: IEEE Press, 2009: 7-10.DOI: 10.1109/ICHR.2009.5379535.
[10]NAKAZAWA A, NAKAOKA S, IKEUCHI K, et al.Imitating human dance motions through motion structure analysis[C]//2002 IEEE/RSJ Conf on Intelligent Robots and Systems.Piscataway: IEEE Press, 2002: 2539-2544.DOI: 10.1109/IRDS.2002.1041652.
[11] 張利格,黃強(qiáng),楊潔,等.仿人機(jī)器人復(fù)雜動(dòng)態(tài)動(dòng)作設(shè)計(jì)及相似性研究[J].自動(dòng)化學(xué)報(bào),2007,33(5):522-528.
ZHANG Lige, HUANG Qiang, YANG Jie, et al.Design of humanoid complicated dynamic motion with similarity considered[J].Acta Automatica Sinica, 2007, 33(5): 522-528.
[12]MATARIC M J.Getting humanoids to move and imitate[J].Intelligent Systems, 2000, 15(4): 18-24.DOI: 10.1109/5254.867908.
[13]BENTIVEGNA D C, ATKESON C G.Learning similar tasks from observation and practice[C]// Proc IEEE/RSJ Conf on Intelligent Robots and Systems.Piscataway: IEEE Press, 2006: 4994-5000.DOI: 10.1109/IROS.2006.281989.
[14]TAKANO W, YAMANE K, YAMAMOTO S K, et al.Primitive communication based on motion recognition and generation with hierarchical mimesis model[C]//Proc of the IEEE Conf on Robotics and Automation.Piscataway: IEEE Press, 2006: 3602-3609.DOI: 10.1109/ROBOT.2006.1642252.
[15]LEE D, KUNORI H, NAKAMURA Y.Association of whole body motion from tool knowledge for humanoid robots[C]//Proc IEEE/RSJ International Conf on Intelligent Robots and Systems.Piscataway: IEEE Press, 2008: 2867-2874.DOI: 10.1109/IROS.2008.4650611.
[16]CHRISTOPHER S C, ANTON B, EDWARD R.Teleoperation of a humanoid robot using full-body motion capture, example movements, and machine learning[C]//Proc 2012 Australasian Conf on Robotics and Automation.Piscataway: IEEE Press, 2012: 1969-2016.
[17]HWANG C L, CHEN B L, SYU H T, et al.Humanoid robot’s visual imitation of 3-D motion of a human subject using neural-network-based inverse kinematics[J].IEEE Systems Journal, 2016, 10(2): 685-696.DOI: 10.1109/JSYST.2014.2343236.
[18]REMPIS C W.A neural network to capture demonstrated motions on a humanoid robot to rapidly create complex central pattern generators as reusable neural building blocks[C]//Proc of the 2013 IEEE Conf on Robotics and Automation.Piscataway: IEEE Press, 2013: 5291-5296.DOI: 0.1109/ICRA.2013.6631334.
[19] 趙曉軍,黃強(qiáng),彭朝琴,等.基于人體運(yùn)動(dòng)的仿人型機(jī)器人動(dòng)作的運(yùn)動(dòng)學(xué)匹配[J].機(jī)器人,2005,27(4):358-361.
ZHAO Xiaojun, HUANG Qiang, PENG Zhaoqin, et al.Kinematics mapping of humanoid motion based on human motion[J].Robot, 2005, 27(4): 358-361.
[20] 柯文德.基于人體運(yùn)動(dòng)相似性的仿人機(jī)器人運(yùn)動(dòng)規(guī)劃關(guān)鍵技術(shù)研究[D].哈爾濱:哈爾濱工業(yè)大學(xué),2013.
KE Wende.Research on key technologies of motion planning humanoid robot based on similarity locomotion of human actor[D].Harbin: Harbin Institute of Technology, 2013.
[21] 彭偉.基于人體運(yùn)動(dòng)捕獲數(shù)據(jù)的運(yùn)動(dòng)編輯技術(shù)研究與實(shí)現(xiàn)[D].長(zhǎng)沙:湖南大學(xué),2012.
PENG Wei.The research and implementation on motion edit technology based on human motion capture data[D].Changsha: Hunan University, 2012.
[22]KOVAR L, GLEICHER M, PIGHIN F.Motion graphs[C]// Proc 29 Annual Conf on Computer Graphics and Interactive Techniques.Piscataway: IEEE Press, 2002: 473-482.DOI: 10.1109/TVCG.2012.149.
(編輯 楊 波)
Follow-walking motions of a biped robot and its experimental research based on human walking capturing
WU Weiguo, LI Hua, GAO Liyang
(School of Mechatronics Engineering, Harbin Institute of Technology, Harbin 150001, China)
Respect to the issue of serving humanoid robots following human, walking pattern generation based on human walking capturing is studied, and experimental study of following walking between a biped robot and human is conducted.Considering the motion capability limitation of the robot, human walking patterns obtained online by PS three-dimensional capture system are matched to the robot in kinematics aspect to generate robots’ walking patterns and to build a library for them.Similarities between the robot and human are defined by parameters in both the Cartesian space and the joint space.The similarity based method of choosing walking patterns online and the “joint angle distance” based method of pattern transition are proposed to solve the problem of following walking with varying velocity.Finally, the experiments of biped robot following different people are conducted, in which stable walking is achieved.The following distance error is in the range of ±52 mm during the following process and the position error is no more than ±10 mm after the following process ended.
humanoid biped walking robot; following walking; walking similarity evaluation; walking pattern switching; motion capture
10.11918/j.issn.0367-6234.2017.01.003
2016-07-12
國(guó)家高技術(shù)研究發(fā)展計(jì)劃(2012AA041601)
吳偉國(guó)(1966—),男,教授,博士生導(dǎo)師
吳偉國(guó),wuwg@hit.edu.cn.
TP242.6
A
0367-6234(2017)01-0021-09