李紅波,冉光勇,吳 渝,丁林建
(重慶郵電大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院網(wǎng)絡(luò)智能研究所,重慶400065)
虛擬人骨骼動(dòng)畫(huà)是角色動(dòng)畫(huà)領(lǐng)域的主要研究?jī)?nèi)容[1],其制作技術(shù)除人工調(diào)整關(guān)鍵幀形成骨骼動(dòng)畫(huà)外,還有基于視覺(jué)與運(yùn)動(dòng)捕獲數(shù)據(jù)的方法。
基于視覺(jué)方法[2]的一般流程是:通過(guò)對(duì)包含人體運(yùn)動(dòng)序列的視覺(jué)素材進(jìn)行跟蹤分析,提取運(yùn)動(dòng)序列,接著對(duì)運(yùn)動(dòng)序列進(jìn)行條件約束等處理,以此得到骨骼動(dòng)畫(huà)。該方法成本低、運(yùn)動(dòng)類(lèi)型較豐富,但存在以下3方面不足:1)利用二維數(shù)據(jù)生成三維運(yùn)動(dòng)數(shù)據(jù)存在信息缺失的問(wèn)題[3];2)人體運(yùn)動(dòng)序列的獲取過(guò)程易受關(guān)照強(qiáng)度影響,抗光照干擾能力弱[4];3)提前準(zhǔn)備視覺(jué)素材的做法不能滿(mǎn)足交互式環(huán)境對(duì)實(shí)時(shí)性的要求。
基于運(yùn)動(dòng)捕獲數(shù)據(jù)的方法通常需要價(jià)格昂貴的運(yùn)動(dòng)捕捉設(shè)備,并且需要捕捉對(duì)象在關(guān)節(jié)點(diǎn)處佩戴光、電學(xué)設(shè)備,致使人體運(yùn)動(dòng)靈活性低,動(dòng)作獲取成本高[5]。Park等[6]提出了一種基于光學(xué)標(biāo)記點(diǎn)的方法,密集的標(biāo)記點(diǎn)集合提高了運(yùn)動(dòng)真實(shí)性,但降低了計(jì)算效率,無(wú)法滿(mǎn)足實(shí)時(shí)性需求。Casas等[7]通過(guò)使用4D運(yùn)動(dòng)圖,將不同部分捕獲數(shù)據(jù)進(jìn)行分塊匹配與連接,以此生成骨骼動(dòng)畫(huà)。該方法能夠滿(mǎn)足較多運(yùn)動(dòng)類(lèi)型需求,但是容易出現(xiàn)裂縫現(xiàn)象。Boboc等[8]提出了一種基于前向運(yùn)動(dòng)學(xué)的骨骼動(dòng)畫(huà)方法,該方法以Kinect提取到的捕捉對(duì)象骨骼數(shù)據(jù)為基礎(chǔ),使用前向運(yùn)動(dòng)學(xué)求解角色模型關(guān)節(jié)點(diǎn)坐標(biāo)數(shù)據(jù),并對(duì)坐標(biāo)數(shù)據(jù)進(jìn)行平滑處理,使用處理后的數(shù)據(jù)調(diào)整模型,得到骨骼動(dòng)畫(huà),此方法實(shí)時(shí)性強(qiáng),但角色模型的運(yùn)動(dòng)與真實(shí)運(yùn)動(dòng)之間存在較大差別,同時(shí),固定運(yùn)動(dòng)參數(shù)的做法降低了模型適用性。
針對(duì)上述問(wèn)題,本文提出了一種新的解決方法,通過(guò)在Kinect骨骼模型的每個(gè)關(guān)節(jié)點(diǎn)處建立虛擬坐標(biāo)系,對(duì)捕捉對(duì)象的單幀姿態(tài)進(jìn)行抽象空間位形描述,利用位形數(shù)據(jù)求解關(guān)節(jié)點(diǎn)骨骼旋轉(zhuǎn)矩陣,使用骨骼旋轉(zhuǎn)矩陣對(duì)角色模型進(jìn)行從端到根的關(guān)節(jié)方向與位置調(diào)節(jié)。實(shí)驗(yàn)結(jié)果表明,本文提出方法的實(shí)時(shí)性能與抗光照能力強(qiáng),角色模型運(yùn)動(dòng)與真實(shí)運(yùn)動(dòng)相似度高。
Kinect人體骨骼簡(jiǎn)化模型,如圖1所示,包含了人體主要的20個(gè)關(guān)節(jié)節(jié)點(diǎn),由19個(gè)骨骼段組成。按照人體構(gòu)造結(jié)構(gòu),任意2個(gè)關(guān)節(jié)之間建立Kinect關(guān)節(jié)點(diǎn)父子關(guān)系,形成一個(gè)簡(jiǎn)化的最小人體骨骼模型。其中,臀部中心關(guān)節(jié)點(diǎn)是整個(gè)人體骨骼模型的根節(jié)點(diǎn),它的三維坐標(biāo)數(shù)據(jù)完全決定了整個(gè)人體的移動(dòng)軌跡。臀部中心關(guān)節(jié)點(diǎn)有6個(gè)自由度,分別為3個(gè)平移自由度與3個(gè)旋轉(zhuǎn)自由度,其他節(jié)點(diǎn)僅僅包括3個(gè)旋轉(zhuǎn)自由度。
圖1 Kinect骨骼模型Fig.1 Kinect skeleton model
為了對(duì)骨骼動(dòng)畫(huà)原理進(jìn)行描述,設(shè)p(j)代表關(guān)節(jié)點(diǎn)j的父節(jié)點(diǎn),R(j)代表從父節(jié)點(diǎn)p(j)的局部坐標(biāo)系到子節(jié)點(diǎn)j的局部坐標(biāo)系的變化矩陣,則對(duì)于任意的骨骼關(guān)節(jié)點(diǎn)j,從根節(jié)點(diǎn)局部坐標(biāo)系轉(zhuǎn)化到j(luò)的局部坐標(biāo)系可以用矩陣F(j)表示[9]為
當(dāng)人體姿態(tài)發(fā)生變化時(shí),我們用T(j)表示某一幀關(guān)節(jié)點(diǎn)j的骨骼旋轉(zhuǎn)矩陣,則j在這一幀的變化矩陣為
假設(shè)網(wǎng)格節(jié)點(diǎn)v附著于骨骼關(guān)節(jié)點(diǎn)j,v'為人體姿態(tài)發(fā)生變化后v在骨骼關(guān)節(jié)點(diǎn)j下的新位置,則新位置的計(jì)算公式為
在幀渲染時(shí),通過(guò)(3)式便可求得皮膚頂點(diǎn)的新位置。
基于視覺(jué)生成骨骼動(dòng)畫(huà)的方法雖然與實(shí)際運(yùn)動(dòng)情況較符合,但缺乏實(shí)時(shí)性且需要較為嚴(yán)格的光照條件。基于運(yùn)動(dòng)捕獲數(shù)據(jù)的方法需要價(jià)格高昂的設(shè)備,且運(yùn)動(dòng)靈活性低。Boboc等提出的基于前向運(yùn)動(dòng)學(xué)的方法,雖然克服了此問(wèn)題且具備較強(qiáng)實(shí)時(shí)性,但角色模型骨骼運(yùn)動(dòng)與實(shí)際運(yùn)動(dòng)之間存在較大偏差。針對(duì)以上問(wèn)題,本文提出了一種新的骨骼動(dòng)畫(huà)方法。具體思路如下:首先利用Kinect設(shè)備捕獲的骨骼數(shù)據(jù),建模描述人體任意時(shí)刻的運(yùn)動(dòng)姿態(tài),然后根據(jù)人體前后幀運(yùn)動(dòng)之間的聯(lián)系,確定角色模型關(guān)節(jié)點(diǎn)骨骼旋轉(zhuǎn)矩陣,最后對(duì)捕獲對(duì)象空間位移變化進(jìn)行處理,實(shí)時(shí)調(diào)整模型空間位置形成骨骼動(dòng)畫(huà)。
按照上述描述,本文提出的骨骼動(dòng)畫(huà)方法可概括為以下4個(gè)階段:1)初始姿態(tài)假定:對(duì)角色模型初始姿態(tài)進(jìn)行固定;2)單幀姿態(tài)建模描述:利用Kinect SDK應(yīng)用程序接口,獲取骨骼狀態(tài)、提取骨骼關(guān)節(jié)點(diǎn)三維坐標(biāo)數(shù)據(jù),利用骨骼數(shù)據(jù)對(duì)關(guān)節(jié)點(diǎn)位形進(jìn)行數(shù)學(xué)描述,將人體運(yùn)動(dòng)姿態(tài)變化問(wèn)題轉(zhuǎn)化為旋轉(zhuǎn)平移問(wèn)題;3)骨骼旋轉(zhuǎn)矩陣求解:以關(guān)節(jié)點(diǎn)單位方向基向量為基礎(chǔ)求解骨骼旋轉(zhuǎn)矩陣T(j),利用骨骼旋轉(zhuǎn)矩陣對(duì)關(guān)節(jié)點(diǎn)方向進(jìn)行調(diào)節(jié);4)根節(jié)點(diǎn)位移:更新根節(jié)點(diǎn)位置,體現(xiàn)角色模型空間位移變化,得到最終結(jié)果。
由于不同美工制作的角色模型形態(tài)各不相同,因此,模型間必定存在骨骼長(zhǎng)短不一致,關(guān)節(jié)點(diǎn)旋轉(zhuǎn)角度不相等,各個(gè)關(guān)節(jié)點(diǎn)在父節(jié)點(diǎn)空間中相對(duì)位置不同等差異。這些差異將導(dǎo)致即使對(duì)不同角色模型應(yīng)用相同骨骼數(shù)據(jù)也無(wú)法生成一致的骨骼動(dòng)畫(huà)。因此,為了生成符合特定角色模型的骨骼動(dòng)畫(huà),需統(tǒng)一角色模型初始姿態(tài)。本文中角色模型的初始姿態(tài)設(shè)定為直立。
Kinect骨骼數(shù)據(jù)是非層次、非樹(shù)形的三維數(shù)據(jù),由于各數(shù)據(jù)之間不存在任何的相關(guān)聯(lián)系,因此,無(wú)法直接利用Kinect骨骼數(shù)據(jù)來(lái)對(duì)角色模型運(yùn)動(dòng)姿態(tài)進(jìn)行調(diào)整。為了提取蘊(yùn)含于骨骼數(shù)據(jù)中運(yùn)動(dòng)者的旋轉(zhuǎn)平移信息,本文運(yùn)用剛體運(yùn)動(dòng)學(xué)中關(guān)于剛體方位的定義來(lái)對(duì)單幀圖形中人體運(yùn)動(dòng)姿態(tài)進(jìn)行描述。
為了規(guī)定空間中某個(gè)關(guān)節(jié)點(diǎn)的方位,建立一直角坐標(biāo)系{B}與關(guān)節(jié)點(diǎn)固接。用坐標(biāo)系{B}的3個(gè)單位主矢量[x y z]相對(duì)于參考坐標(biāo)系{S}的方向余弦組成的三維矩陣來(lái)對(duì)關(guān)節(jié)點(diǎn)方位進(jìn)行描述,記三維矩陣為OBS。
由迪納維特-哈坦伯格提出的D-H坐標(biāo)系描述法是目前常用的坐標(biāo)系建立方法,D-H坐標(biāo)系描述法規(guī)定:在各個(gè)主要部位上固定坐標(biāo)系,坐標(biāo)系的Z軸與關(guān)節(jié)點(diǎn)的軸線(xiàn)重合,而X軸則是沿著相鄰2個(gè)Z軸的公垂線(xiàn),Y軸可由右手坐標(biāo)系來(lái)確定。本文在D-H描述法的基礎(chǔ)上,結(jié)合人體結(jié)構(gòu)特征,提出了一種新的關(guān)節(jié)點(diǎn)坐標(biāo)系建立方法,具體步驟如下。
1)選擇在垂直切面上與離待建立坐標(biāo)系關(guān)節(jié)點(diǎn)最近的關(guān)節(jié)點(diǎn)為向量末端,待建立坐標(biāo)系關(guān)節(jié)點(diǎn)為首端,建立Y軸,若垂直切面無(wú)最近關(guān)節(jié)點(diǎn),則選正Y軸方向作為關(guān)節(jié)點(diǎn)Y軸方向;
2)在水平切面上選擇與待建立坐標(biāo)系關(guān)節(jié)點(diǎn)最近的關(guān)節(jié)點(diǎn)為向量末端,待建立坐標(biāo)系關(guān)節(jié)點(diǎn)為首端,建立向量AB,若無(wú),則設(shè):AB=(100);
3)根據(jù)空間解析幾何相關(guān)知識(shí)可知,X軸垂直于Y軸和AB,那么X軸的方向可由(4)式求得。
(4)式中:X=m11m21m31);Y=(m12m22m32)。
4)因?yàn)閆軸垂直于以X和Y軸為方向的平面,故Z軸方向可按(5)式求得
方向?yàn)閺腦軸逆時(shí)針繞到Y(jié)軸。
按照上述步驟即可得到每個(gè)關(guān)節(jié)點(diǎn)的方位矩陣,設(shè)方位矩陣為OB,表示為
(6)式中,Z=(m13m23m33)。
設(shè)參考坐標(biāo)系{S}的3個(gè)單位向量分別為e1,e2,e3,坐標(biāo)系{B}的3個(gè)單位向量分別為x1,x2,x3,則{S}與{B}之間的方向余弦aij為
由于世界坐標(biāo)系為標(biāo)準(zhǔn)單位基向量,表示為
依據(jù)(7)式可知,任意關(guān)節(jié)點(diǎn)的方向矩陣即為坐標(biāo)系基向量
考慮捕捉對(duì)象姿態(tài)發(fā)生變化后的情形,以左臂肘關(guān)節(jié)向上微微抬起,其他關(guān)節(jié)相對(duì)位置無(wú)變化為例,其他運(yùn)動(dòng)同理。
圖2 肘關(guān)節(jié)向上抬起Fig.2 Lifting up the left wrist
圖2中,實(shí)線(xiàn)為后一幀手部位置,虛線(xiàn)為前一幀手部位置。其中,坐標(biāo)系{B}描述了前一幀左手肘的方位,坐標(biāo)系{A}描述了后一幀左手肘的方位,{B}與{A}有共同的坐標(biāo)原點(diǎn),但是方位不同,記{B}為 PB=(iBjBkB),{A}為 PA=(iAjAkA)。其中 iB,jB,kB,iA,jA,kA分別為 {B}與{A}的單位主矢量。在關(guān)節(jié)對(duì)應(yīng)皮膚上取一點(diǎn),假設(shè)為P,設(shè)P在兩坐標(biāo)系中的坐標(biāo)分量分別為(APxAPyAPz)與(BPxBPyBzP),根據(jù)坐標(biāo)旋y轉(zhuǎn)原理可以得到
則關(guān)節(jié)點(diǎn)骨骼旋轉(zhuǎn)矩陣為
則可得關(guān)節(jié)點(diǎn)骨骼旋轉(zhuǎn)矩陣,結(jié)合(2)式可知最終關(guān)節(jié)點(diǎn)變化矩陣為
由于在運(yùn)動(dòng)數(shù)據(jù)處理階段忽略了角色模型根節(jié)點(diǎn)在世界坐標(biāo)系下的平移與縱向運(yùn)動(dòng),因此,需要對(duì)根節(jié)點(diǎn)做額外的位移處理。由于Kinect坐標(biāo)系與游戲引擎坐標(biāo)系在基本度量單位長(zhǎng)度的定義上存在不同,導(dǎo)致直接應(yīng)用捕捉對(duì)象根節(jié)點(diǎn)數(shù)據(jù)到游戲引擎中會(huì)產(chǎn)生失真現(xiàn)象,故需對(duì)根節(jié)點(diǎn)數(shù)據(jù)進(jìn)行處理。設(shè)Kinect與游戲引擎基本度量單位長(zhǎng)度差距為n,若在Kinect世界坐標(biāo)系中,運(yùn)動(dòng)捕捉對(duì)象根節(jié)點(diǎn)在前后幀之間的位移為 Moffset=(mx,my,mz),則在游戲引擎中角色模型根節(jié)點(diǎn)的位移為
假設(shè)角色模型關(guān)節(jié)點(diǎn)總數(shù)為n。根據(jù)前文描述,本文方法可歸納為以下步驟。
1)檢測(cè)Kinect骨骼狀態(tài),若檢測(cè)到骨骼則進(jìn)入2),否則繼續(xù)檢測(cè);
2)置i為0,如果i<n,則進(jìn)入3),否則轉(zhuǎn)到6);
3)依據(jù)改進(jìn)的D-H坐標(biāo)系描述法求解OB,依據(jù)(9)式得到OBS;
4)使用前后幀方位矩陣,利用(11)式求解關(guān)節(jié)點(diǎn)骨骼旋轉(zhuǎn)矩陣;
5)i=i+1,返回2);
6)利用骨骼旋轉(zhuǎn)矩陣調(diào)節(jié)關(guān)節(jié)點(diǎn);
7)利用(13)式調(diào)整根節(jié)點(diǎn);
8)結(jié)束,重新進(jìn)入1)。
從上述描述可知,求解各個(gè)關(guān)節(jié)點(diǎn)的骨骼關(guān)節(jié)矩陣是本文方法的基本操作。根據(jù)系統(tǒng)運(yùn)行步驟可知,本文方法在一次完整的執(zhí)行過(guò)程中的基本操作執(zhí)行次數(shù)為O(n)。
鑒于公開(kāi)的視頻數(shù)據(jù)庫(kù)數(shù)據(jù)量較大,且一般進(jìn)行了數(shù)據(jù)壓縮存儲(chǔ),存在信息缺失的問(wèn)題,這會(huì)對(duì)本文的后續(xù)特征點(diǎn)提取產(chǎn)生干擾。因此,本文實(shí)驗(yàn)部分以Kinect設(shè)備檢測(cè)到的捕獲對(duì)象骨骼數(shù)據(jù)作為實(shí)驗(yàn)數(shù)據(jù)來(lái)源。為了說(shuō)明本文方法的有效性,確保對(duì)比實(shí)驗(yàn)的公平性,共設(shè)計(jì)了3組試驗(yàn)方案,分別為光照對(duì)比試驗(yàn)、運(yùn)動(dòng)實(shí)時(shí)性試驗(yàn)和模型運(yùn)動(dòng)精度對(duì)比試驗(yàn)。
Boboc等提出的基于前向運(yùn)動(dòng)學(xué)的方法與本文方法都基于Kinect平臺(tái)且該方法具有較強(qiáng)實(shí)時(shí)性,同屬于國(guó)外較新研究成果,故選擇該方法作為模型運(yùn)動(dòng)精度試驗(yàn)對(duì)比對(duì)象。光照對(duì)比實(shí)驗(yàn)主要是在弱光照條件下進(jìn)行特征點(diǎn)提取對(duì)比,基于視覺(jué)的方法特征點(diǎn)提取采用的是目前主流的surf算法。
本文硬件實(shí)驗(yàn)環(huán)境為:Intel Core i3 3.30 GHz CPU,內(nèi)存4 GByte,操作系統(tǒng)為 Windows 7,開(kāi)發(fā)環(huán)境為Visual Studio 2010,OGRE和Kinect SDK。
圖3、圖4分別展示了本文方法在正常光照條件下(320 lux)及弱光照條件下(10 lux)的模型運(yùn)動(dòng)情況。圖5給出了二者的關(guān)節(jié)點(diǎn)識(shí)別效果。
浙江大學(xué)莊越挺指出:基于視覺(jué)的方法在人體運(yùn)動(dòng)捕獲中,常用的特征點(diǎn)跟蹤提取算法對(duì)光照條件非常敏感。從圖5可以看出,魯棒性較強(qiáng)的特征點(diǎn)跟蹤提取算法surf在光照強(qiáng)度為10 lux時(shí)失效,而本文方法在10 lux時(shí)仍能準(zhǔn)確獲取人體各關(guān)節(jié)點(diǎn)的三維坐標(biāo),求解骨骼旋轉(zhuǎn)矩陣,實(shí)現(xiàn)骨骼動(dòng)畫(huà)。從圖5還可知,本文方法相對(duì)于基于視覺(jué)的方法,對(duì)捕捉對(duì)象所穿衣物與背景之間的顏色差別要求更低,色差敏感度較弱,能更佳地應(yīng)對(duì)復(fù)雜工作環(huán)境。
實(shí)時(shí)性的實(shí)驗(yàn)結(jié)果如圖3所示,每一幅圖中右下角方框用于顯示人體運(yùn)動(dòng)情況,左上方為角色模型實(shí)時(shí)運(yùn)動(dòng)情況。本文方法從提取骨骼數(shù)據(jù)到角色模型做出相應(yīng)動(dòng)作只需0.007 s,遠(yuǎn)小于Kinect提供的數(shù)據(jù)時(shí)間間隔0.033 s和人類(lèi)視覺(jué)停留時(shí)間0.042 s。因此,本文方法能夠?qū)崟r(shí)處理Kinect提取到的骨骼數(shù)據(jù),克服視覺(jué)類(lèi)方法缺乏實(shí)時(shí)性的問(wèn)題,且生成的骨骼動(dòng)畫(huà)平滑性高,連續(xù)性強(qiáng)。
Boboc等以前向運(yùn)動(dòng)學(xué)為基礎(chǔ),通過(guò)前向運(yùn)動(dòng)學(xué)求解關(guān)節(jié)點(diǎn)坐標(biāo)數(shù)據(jù),并對(duì)坐標(biāo)數(shù)據(jù)進(jìn)行平滑處理,然后使用處理后的數(shù)據(jù)調(diào)整模型,從而產(chǎn)生連貫且平滑的角色運(yùn)動(dòng)。圖6展示了2種方法在復(fù)雜運(yùn)動(dòng)與簡(jiǎn)單運(yùn)動(dòng)2種模式下的角色運(yùn)動(dòng)效果。其中,簡(jiǎn)單運(yùn)動(dòng)包括雙手向上伸直,頭部低垂2種;復(fù)雜運(yùn)動(dòng)包括雙手叉腰、腿后踢加腰前傾,以及左右手并攏加腰后傾、腿部斜踢2種。通過(guò)比較可以發(fā)現(xiàn),本文方法中角色模型與捕捉對(duì)象的運(yùn)動(dòng)更加接近,運(yùn)動(dòng)精度更高。
本文以關(guān)節(jié)點(diǎn)實(shí)際位置與計(jì)算位置之間的歐拉距離來(lái)衡量姿態(tài)誤差,相應(yīng)的計(jì)算公式為
(15)式中:avg_error表示平均誤差;n代表關(guān)節(jié)點(diǎn)總數(shù);ts表示關(guān)節(jié)點(diǎn)真實(shí)位置;cs表示計(jì)算出的位置;md表示最大歐拉距離。利用(14)-(15)式對(duì)每幀結(jié)果計(jì)算關(guān)節(jié)點(diǎn)平均誤差,而后對(duì)所有幀平均誤差取均值,通過(guò)實(shí)驗(yàn)測(cè)試可知,本文方法的模型運(yùn)動(dòng)誤差為4.2%,而B(niǎo)oboc等提出的方法為7.4%。因此,本文方法得到的骨骼動(dòng)畫(huà)和實(shí)際情況更加相符合。
圖3 正常光照條件下實(shí)驗(yàn)及實(shí)時(shí)性效果Fig.3 Experimental results under normal light conditions and the real-time effects
圖4 弱光照條件下實(shí)驗(yàn)Fig.4 Experimental results under weak light conditions
圖5 關(guān)節(jié)點(diǎn)識(shí)別Fig.5 Joints identification
本文利用Kinect設(shè)備獲取的骨骼數(shù)據(jù),提出了一種新的骨骼動(dòng)畫(huà)方法。實(shí)驗(yàn)表明,此方法相比現(xiàn)有解決方法有更強(qiáng)的實(shí)時(shí)性,更好的抗光照干擾能力和更佳的運(yùn)動(dòng)精度。目前Kinect設(shè)備提供的骨骼數(shù)據(jù)容易出現(xiàn)劇烈抖動(dòng)現(xiàn)象,下一步將重點(diǎn)研究如何對(duì)Kinect設(shè)備捕獲的數(shù)據(jù)進(jìn)行濾波處理,降低數(shù)據(jù)抖動(dòng)帶來(lái)的誤差。
圖6 模型運(yùn)動(dòng)精度對(duì)比Fig.6 Comparison of model motion accuracy
[1]ISMAIL I,SUNAR M S,BASORI A H.Dynamic Motion Control Editor for Virtual Human[J].International Journal of Interactive Digital Media,2013,1(1):14-17.
[2]ISMAIL I,KOLIVAND H,SUNAR M S,et al.An Overview on Dynamic 3D Character Motion Techniques in Virtual Environments[J].Life Science Journal,2013,10(3):846-890.
[3]尚華強(qiáng).基于Kinect的虛擬人物動(dòng)作仿真研究[D].杭州電子科技大學(xué),2013.SHANG Huaqiang.Simulation study of virtual movement based on Kinect[D].Hangzhou:Hangzhou Dianzi University,2013.
[4]羅忠祥,莊越挺,潘云鶴,等.視頻中不完全運(yùn)動(dòng)特征的跟蹤算法[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2003,15(6):730-735.LUO Zhongxiang,ZHUANG Tingyue,PAN Yunhe,et al.Incomplete motion feature tracking algorithm in video sequences[J].Journal of Computer-aided Design & Computer Graphics,2003,15(6):730-735.
[5]TONG X,XU P,YAN X.Research on skeleton animation motion data based on Kinect[C]//IEEE.Computational Intelligence and Design(ISCID),2012 Fifth International Symposium.New York:IEEE Press,2012,2:347-350.
[6]PARK S I,HODGINS J K.Data-driven modeling of skin and muscle deformation[J].ACM Transactions on Graphics(TOG),2008,27(3):96.
[7]CASAS D,TEJERA M,GUILLEMAUT J Y,et al.4D parametric motion graphs for interactive animation[C]//ACM.Proceedings of the ACM SIGGRAPH Symposium on Interactive 3D Graphics and Games.New York,USA:ACM,2012:103-110.
[8]BOBOC R G,TOMA M I,PANFIR A N,et al.Learning new skills by a humanoid robot through imitation[C]//IEEE.Computational Intelligence and Informatics(CINTI),2013 IEEE 14th International Symposium.New York:IEEE Press,2013:515-519.
[9]況鷹.基于Kinect運(yùn)動(dòng)捕獲的三維虛擬試衣[D].廣東:華南理工大學(xué),2012.KUANG Ying.3D virtual try-on based on Kinect motion capture[D].Guangdong:South China University of Technology,2012.