侯永隆, 寧 濤, 王 可
(1. 北京航空航天大學(xué)機(jī)械工程及自動(dòng)化學(xué)院,北京 100191;2. 北京瑞風(fēng)協(xié)同科技股份有限公司,北京 100098)
基于光學(xué)運(yùn)動(dòng)捕捉的虛擬人體標(biāo)定技術(shù)
侯永隆1, 寧 濤1, 王 可2
(1. 北京航空航天大學(xué)機(jī)械工程及自動(dòng)化學(xué)院,北京 100191;2. 北京瑞風(fēng)協(xié)同科技股份有限公司,北京 100098)
分析關(guān)節(jié)對(duì)骨骼段運(yùn)動(dòng)的約束,基于光學(xué)運(yùn)動(dòng)捕捉設(shè)備給出兩種關(guān)節(jié)中心參數(shù)估計(jì)模型——雙骨骼段模型和球模型。對(duì)兩種模型分別給出最小二乘解法,通過求解線性方程組得到關(guān)節(jié)中心位置。利用虛擬鉸鏈測(cè)試了兩種解法的精度,選取精度較高的雙骨骼段模型,結(jié)合虛擬人的關(guān)節(jié)結(jié)構(gòu)提出一種虛擬人體標(biāo)定技術(shù)。比較某表演者四肢的測(cè)量值和標(biāo)定值,得出標(biāo)定誤差在 4.3%以內(nèi)。對(duì)標(biāo)定后的虛擬人進(jìn)行驅(qū)動(dòng),標(biāo)定后的虛擬人逼真地復(fù)制了表演者的動(dòng)作,并減少了肢體交叉。
光學(xué)運(yùn)動(dòng)捕捉;關(guān)節(jié)中心參數(shù)估計(jì);最小二乘法;虛擬人體標(biāo)定
在傳統(tǒng)的制造業(yè)中產(chǎn)品的可維修性驗(yàn)證評(píng)估依賴于物理樣機(jī),設(shè)計(jì)和制造中的缺陷在后期的裝配和維修中才能發(fā)現(xiàn),影響了效率,增加了產(chǎn)品成本。隨著數(shù)字樣機(jī)技術(shù)和虛擬現(xiàn)實(shí)技術(shù)的發(fā)展,虛擬維修技術(shù)和虛擬裝配技術(shù)逐漸應(yīng)用于制造業(yè)等工業(yè)領(lǐng)域。
虛擬維修作為一門新興的科學(xué)技術(shù),剛出現(xiàn)就引起了國內(nèi)外研究者的廣泛關(guān)注[1]。賓夕法尼亞大學(xué)人體建模和仿真中心開發(fā)了Jack軟件,可以根據(jù)人體尺寸進(jìn)行動(dòng)態(tài)縮放,可對(duì)虛擬產(chǎn)品設(shè)計(jì)通過虛擬人進(jìn)行測(cè)試,還可通過動(dòng)作參數(shù)化描述(Parameterized Action Representation, PAR)將自然語言轉(zhuǎn)化為虛擬人可執(zhí)行的基本動(dòng)素(Basic Motion)[2,3]。法國Dassault公司開發(fā)的Delmia已經(jīng)實(shí)現(xiàn)虛擬人的行走、攀爬、使用簡單工具進(jìn)行維修仿真。蔣科藝等人基于Jack系統(tǒng)建立了沉浸式虛擬維修仿真原型系統(tǒng),并以某機(jī)構(gòu)的拆裝為例對(duì)其進(jìn)行了初步的應(yīng)用驗(yàn)證[4]。北京航空航天大學(xué)陳善敏等將光學(xué)捕捉設(shè)備、數(shù)據(jù)手套、陀螺儀引入虛擬維修系統(tǒng),提出了一種虛擬人驅(qū)動(dòng)算法,建立了沉浸式的虛擬維修場景[5]。
虛擬人是模擬和仿真的核心,虛擬人與表演者的匹配程度決定了虛擬人復(fù)制表演者動(dòng)作的精確度。如果虛擬人的尺寸大于表演者的尺寸則在仿真時(shí)容易發(fā)生肢體交叉,如圖1所示;在沉浸式維修仿真中表演者實(shí)際未和物體接觸,虛擬人卻已經(jīng)與物理樣機(jī)發(fā)生碰撞,影響了沉浸感。同樣若虛擬人尺寸小于表演者尺寸,表演者和物體接觸,虛擬人卻仍未與物理樣機(jī)發(fā)生碰撞,同樣會(huì)影響沉浸感。
圖1 虛擬人肢體交叉
Jack和Delmia雖然提供了驅(qū)動(dòng)虛擬人的接口,可以建立沉浸式的虛擬維修系統(tǒng),然而它們的虛擬人體模型庫都是基于國外人體測(cè)量學(xué)數(shù)據(jù)庫建立的,無法做到表演者和虛擬人的匹配。文獻(xiàn)[6]基于國標(biāo)人體測(cè)量學(xué)通過三次樣條插值在Jack軟件中建立了人體模型庫,然而在虛擬人建模中,我們關(guān)心的是旋轉(zhuǎn)關(guān)節(jié)中心之間的距離而非人體測(cè)量學(xué)意義上的關(guān)節(jié)長度。
用手動(dòng)測(cè)量的方式獲取表演者的重要人體尺寸不僅操作繁瑣且無法準(zhǔn)確測(cè)量旋轉(zhuǎn)關(guān)節(jié)中心的距離。本文首先結(jié)合我國成年人人體尺寸標(biāo)準(zhǔn)建立了虛擬人體模型;其次分析關(guān)節(jié)對(duì)骨骼段的運(yùn)動(dòng)約束給出兩種關(guān)節(jié)中心參數(shù)估計(jì)模型;最后利用光學(xué)運(yùn)動(dòng)捕捉設(shè)備,如圖2所示,左圖為表演者和測(cè)量標(biāo)記點(diǎn);右圖為光學(xué)相機(jī)獲取表演者的運(yùn)動(dòng)數(shù)據(jù)計(jì)算主要關(guān)節(jié)的關(guān)節(jié)中心,提出一種快速自動(dòng)虛擬人標(biāo)定技術(shù)并給出了標(biāo)定精度。
圖2 光學(xué)運(yùn)動(dòng)捕捉設(shè)備
為了能在網(wǎng)絡(luò)中表述虛擬人,兩個(gè)重要的國際標(biāo)準(zhǔn)VRML和MPEG-4都提供了虛擬人的描述標(biāo)準(zhǔn)。參考VRML標(biāo)準(zhǔn)和MPEG-4標(biāo)準(zhǔn),考慮人體各關(guān)節(jié)的自由度及仿真和模擬的真實(shí)性,在我國成年人人體尺寸標(biāo)準(zhǔn)—GB10000—88的基礎(chǔ)上基于VS2008、OpenGL開發(fā)了58個(gè)骨骼段,46個(gè)關(guān)節(jié),177個(gè)自由度的虛擬人體模型,界面如圖3所示。
圖3 虛擬人體模型界面
圖4(a)為虛擬人的所有骨骼段,共有58段;圖4(b)標(biāo)識(shí)了骨骼段和關(guān)節(jié)序號(hào),其中手部(包含38個(gè)骨骼段)未繪出。如圖4(b)所示,虛擬人為樹形結(jié)構(gòu)。根關(guān)節(jié)為0號(hào)關(guān)節(jié),有3個(gè)平移自由度和3個(gè)旋轉(zhuǎn)自由度,控制整個(gè)虛擬人的位置和朝向。每個(gè)段有3個(gè)自由度控制著各骨骼段的朝向。
圖4 虛擬人骨骼段及關(guān)節(jié)
光學(xué)式運(yùn)動(dòng)捕捉設(shè)備因其表演者活動(dòng)范圍大,無電纜、機(jī)械裝置的限制,而被廣泛應(yīng)用。我們的系統(tǒng)中采用光學(xué)捕捉設(shè)備來獲取人體運(yùn)動(dòng)數(shù)據(jù),并將3個(gè)標(biāo)記點(diǎn)固定到一個(gè)板上構(gòu)成標(biāo)記點(diǎn)組(Trackables),從而保證了標(biāo)記點(diǎn)組的剛體特性,如圖5所示。
圖5 標(biāo)記點(diǎn)組
虛擬人體標(biāo)定的目的是獲取表演者主要骨骼段長度并將這些尺寸賦予虛擬人,而表演者骨骼段長度的獲取可通過求解關(guān)節(jié)中心的距離獲得,因此關(guān)節(jié)中心的參數(shù)估計(jì)成為虛擬人體標(biāo)定的核心。分析關(guān)節(jié)對(duì)骨骼段運(yùn)動(dòng)的約束結(jié)合光學(xué)捕捉設(shè)備的特點(diǎn)得出兩種關(guān)節(jié)中心參數(shù)估計(jì)模型。
雙骨骼段模型:如圖6所示,如果骨骼段i和j上都至少有3個(gè)標(biāo)記點(diǎn),則對(duì)于每一個(gè)骨骼段可以分別建立一個(gè)局部坐標(biāo)系。將連接兩骨骼段的關(guān)節(jié)i在它們的局部坐標(biāo)系中的局部坐標(biāo)變換到世界坐標(biāo)系中,兩者應(yīng)相等[7,8]。
圖6 雙骨骼段模型
球模型:如圖7所示,根據(jù)骨骼段s1上的3個(gè)標(biāo)記點(diǎn) A、B、C的坐標(biāo)建立一個(gè)局部坐標(biāo)系f1,將段s2上的3個(gè)標(biāo)記點(diǎn)M、N、P的坐標(biāo)變換到f1中,3個(gè)標(biāo)記點(diǎn)M、N、P的運(yùn)動(dòng)軌跡為以關(guān)節(jié)J的中心為球心,以各點(diǎn)到關(guān)節(jié)中心的距離為半徑的球面[9-12]。
圖7 球模型
針對(duì)每種模型本文分別提出了一種最小二乘算法,均能快速得到解析解。
2.1 雙骨骼段模型最小二乘法求解
用光學(xué)捕捉設(shè)備獲得N幀標(biāo)記點(diǎn)(Marker)在世界坐標(biāo)系中的坐標(biāo),將第i幀同一關(guān)節(jié)的兩相鄰骨骼段 s1和 s2上的標(biāo)記點(diǎn)組構(gòu)成的局部坐標(biāo)系分別記為。關(guān)節(jié)中心在中的坐標(biāo)分別為。記R1、t1分別為將(a, b, c)變換到世界坐標(biāo)系的旋轉(zhuǎn)矩陣和平移向量, R2、 t2分別為將(d, e, f)變換到世界坐標(biāo)系的旋轉(zhuǎn)矩陣和平移向量。則有記則有一幀捕捉數(shù)據(jù)可以得到3個(gè)等式,N幀共得到3N個(gè)等式。第 i個(gè)等式的形式為:由此得優(yōu)化目標(biāo)函數(shù)
對(duì)式(1)求偏導(dǎo),整理得
2.2 球模型最小二乘法求解
同樣通過光學(xué)捕捉設(shè)備獲得 N幀標(biāo)記點(diǎn)在世界坐標(biāo)系中的坐標(biāo),對(duì)于第i幀可以通過骨骼段 s1上標(biāo)記點(diǎn) A、B、C的坐標(biāo)建立局部坐標(biāo)系,將骨骼段 s2上標(biāo)記點(diǎn) M在世界坐標(biāo)系中的坐標(biāo)變換到局部坐標(biāo)系中,變換后坐標(biāo)為,設(shè)關(guān)節(jié)中心在局部坐標(biāo)系中的坐標(biāo)為CM=(a, b, c),M到關(guān)節(jié)中心的距離為r。由此可得:
展開得:
整理式(4)得:
其中,
以肘關(guān)節(jié)為例,如圖8所示,記錄1000幀小臂上的標(biāo)記點(diǎn)變換到由大臂標(biāo)記點(diǎn)組構(gòu)建的局部坐標(biāo)系中的坐標(biāo),使用OpenGL將其繪制出來,從不同的視角我們看出坐標(biāo)變換后小臂上的標(biāo)記點(diǎn)的運(yùn)動(dòng)軌跡的確為一球。
圖8 小臂標(biāo)記點(diǎn)運(yùn)動(dòng)軌跡
2.3 兩種模型的精度
為了測(cè)試兩種模型的精度,本文用虛擬鉸鏈和虛擬標(biāo)記點(diǎn)來模擬關(guān)節(jié)。對(duì)于虛擬標(biāo)記點(diǎn)加入隨機(jī)誤差,精確關(guān)節(jié)中心坐標(biāo)為(0, 50, 200),利用兩種模型分別對(duì)關(guān)節(jié)中心求解三次,球模型平均誤差為 6.21mm,雙骨骼段模型的平均誤差為4.50mm。這是由于對(duì)于球模型不僅需要用標(biāo)記點(diǎn)建立局部坐標(biāo)系,還需要將相鄰骨骼段的標(biāo)記點(diǎn)變換到該坐標(biāo)系中,誤差會(huì)產(chǎn)生累積,而雙骨骼段模型僅需建立坐標(biāo)系即可,沒有標(biāo)記點(diǎn)坐標(biāo)誤差的二次累積。
被標(biāo)定的表演者充分運(yùn)動(dòng)各關(guān)節(jié),光學(xué)運(yùn)動(dòng)捕捉設(shè)備捕捉表演者的運(yùn)動(dòng)數(shù)據(jù),利用關(guān)節(jié)中心參數(shù)估計(jì)算法可以求解關(guān)節(jié)中心的位置。計(jì)算相鄰關(guān)節(jié)的距離即可得到表演者主要骨骼段的尺寸。
3.1 虛擬人主要骨骼段標(biāo)定
由于實(shí)際標(biāo)定中標(biāo)記點(diǎn)組并不是牢固地綁定在骨骼上,皮膚、肌肉和衣服的滑動(dòng)影響了標(biāo)記點(diǎn)組的剛體特性,同時(shí)光學(xué)捕捉設(shè)備存在識(shí)別錯(cuò)誤和噪聲,這些都會(huì)影響標(biāo)定的精度。利用關(guān)節(jié)中心參數(shù)估計(jì)算法可得各關(guān)節(jié)在其相關(guān)聯(lián)的骨骼段上的標(biāo)記點(diǎn)組所構(gòu)成的局部坐標(biāo)系中的坐標(biāo),將該局部坐標(biāo)變換到世界坐標(biāo)系中,計(jì)算相鄰關(guān)節(jié)的距離即可得到表演者主要骨骼段的尺寸。在實(shí)際標(biāo)定時(shí)選取精度更高的雙骨骼段最小二乘算法進(jìn)行求解。記錄1000幀各標(biāo)記點(diǎn)組的世界坐標(biāo)。當(dāng)兩幀捕捉數(shù)據(jù)時(shí)間間隔較短時(shí),捕獲的運(yùn)動(dòng)數(shù)據(jù)會(huì)比較接近,為此每隔0.2s記錄一次捕捉數(shù)據(jù),用標(biāo)記點(diǎn)組的3個(gè)點(diǎn)構(gòu)建一個(gè)局部坐標(biāo)系,當(dāng)1000幀數(shù)據(jù)記錄完畢時(shí)可由1000幀數(shù)據(jù)建立各關(guān)節(jié)的約束方程,求解方程可得各關(guān)節(jié)在局部坐標(biāo)系中的坐標(biāo),將局部坐標(biāo)變換到世界坐標(biāo)系中可得一些標(biāo)定約束如肩高,腳踝高等。
記得到的初始標(biāo)定數(shù)據(jù)為:大臂長:Lua;小臂長:Lfa;大腿長:Lth;小腿長:Lsh;肩寬:Wsld;肩高:Hsld;腳踝高:Hank。這幾個(gè)參數(shù)是標(biāo)定的關(guān)鍵,其它主要骨骼段或包含在軀干內(nèi)或可移動(dòng)范圍較小可以通過對(duì)原始尺寸的縮放得到(主要骨骼段參看圖4(b))。
LIniSegi為骨骼段i的標(biāo)定前長度,cos(i, Z)為骨骼段i和世界坐標(biāo)系Z軸的夾角余弦。將骨骼段12、0、1、4按系數(shù) ScaleCoe1縮放得到標(biāo)定后的長度 LCalSegi。
Stature為表演者的身高,其實(shí)際尺寸可由測(cè)量獲得。利用 ScaleCoe2縮放得到段2、3標(biāo)定后的長度。
根據(jù) ScaleCoe3得段5標(biāo)定后的尺寸,至此虛擬人的各骨骼段的尺寸(手、足骨骼段除外)標(biāo)定完成。整個(gè)虛擬人的標(biāo)定流程如圖 9所示。
圖9 虛擬人體標(biāo)定流程圖
3.2 標(biāo)定精度
因標(biāo)記點(diǎn)到關(guān)節(jié)中心的距離為定值,故距離的變化可衡量標(biāo)定的精度?,F(xiàn)以肘關(guān)節(jié)和小臂上標(biāo)記點(diǎn)組重心的距離為例測(cè)試標(biāo)定精度。左肘關(guān)節(jié)與左臂標(biāo)記點(diǎn)的距離記為 DistL,右肘關(guān)節(jié)與右臂標(biāo)記點(diǎn)的距離記為DistR。
表1 肘關(guān)節(jié)與小臂標(biāo)記點(diǎn)距離
由表 1得左臂標(biāo)記點(diǎn)與肘關(guān)節(jié)最大距離出現(xiàn)在6000幀,最小距離出現(xiàn)在3000幀,兩者差值為 7.69mm;右臂標(biāo)記點(diǎn)與肘關(guān)節(jié)最大距離出現(xiàn)在5000幀,最小距離出現(xiàn)在1000幀,兩者差值為5.65mm。
表 1的數(shù)據(jù)間接反映了標(biāo)定具有較高的精度,然而卻不夠直觀。為了給出衡量標(biāo)定精度的基準(zhǔn),我們測(cè)量了身高為1740mm的表演者的四肢長度。在標(biāo)定中我們求得的是關(guān)節(jié)中心到關(guān)節(jié)中心的距離,用測(cè)量工具測(cè)量時(shí)很難精確確定關(guān)節(jié)中心,因此,測(cè)量值可能會(huì)帶有較大誤差,然而卻仍能為我們提供一個(gè)合理的估計(jì)。在測(cè)量時(shí)由于髖關(guān)節(jié)的位置較難確定,故沒有測(cè)量大腿的長度。各骨骼段的測(cè)量值分別為:左大臂—298mm,左小臂—257mm,右大臂—295mm,右小臂—255mm,左小腿—394mm,右小腿—397mm。利用4組捕捉數(shù)據(jù)對(duì)表演者進(jìn)行了標(biāo)定,四肢的標(biāo)定長度如表2所示。
表2 四肢標(biāo)定值
由表2數(shù)據(jù)求得各骨骼段的平均標(biāo)定誤差:左大臂:6mm;左小臂:2.5mm;右大臂:12.75mm;右小臂:2mm;左小腿:13mm;右小腿:10.5mm。由此計(jì)算得到各骨骼段的標(biāo)定誤差在 4.3%之內(nèi)。由生物力學(xué)文獻(xiàn)[13]可知人體關(guān)節(jié)并不是精確的旋轉(zhuǎn)關(guān)節(jié),在一個(gè)正常的行走循環(huán)中膝關(guān)節(jié)中心上下平均移動(dòng)7mm、前后14.3mm、側(cè)向5.6mm,因此標(biāo)定誤差在13mm以內(nèi)達(dá)到了較高精度。
虛擬人標(biāo)定完成后,利用本課題組開發(fā)的驅(qū)動(dòng)算法對(duì)虛擬人進(jìn)行驅(qū)動(dòng),圖 10為虛擬人與表演者的動(dòng)作對(duì)比,可以看出虛擬人較為逼真地復(fù)制了表演者的動(dòng)作且在表演者肢體接近時(shí)未出現(xiàn)肢體干涉現(xiàn)象。
本文分析關(guān)節(jié)對(duì)骨骼段的約束建立了關(guān)節(jié)參數(shù)估計(jì)模型,并分別給出了最小二乘解法,兩種模型均可通過解線性方程組得到關(guān)節(jié)中心位置。利用光學(xué)運(yùn)動(dòng)捕捉設(shè)備捕獲多幀表演者的運(yùn)動(dòng)數(shù)據(jù),基于雙骨骼段模型最小二乘算法,提出一種虛擬人體標(biāo)定技術(shù),實(shí)現(xiàn)了虛擬人的精確標(biāo)定。以某表演者四肢的測(cè)量長度為基準(zhǔn)得出標(biāo)定誤差在4.3%之內(nèi)。對(duì)標(biāo)定后的虛擬人進(jìn)行驅(qū)動(dòng),虛擬人較為逼真地復(fù)制了表演者的動(dòng)作,減少了肢體交叉。
圖10 虛擬人與表演者動(dòng)作對(duì)比
在后續(xù)工作中可用本文提出的虛擬人體標(biāo)定技術(shù)標(biāo)定不同身高百分位的表演者,建立符合我國人口數(shù)據(jù)的本土化的虛擬人體模型庫。
[1] 劉 佳, 劉 毅. 虛擬維修技術(shù)發(fā)展綜述[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào), 2009, 21(11): 1519-1534.
[2] Badler N, Bindiganavale R N, Allbeck J, et al. Parameterized action representation and natural language instructions for dynamic behavior modification of embodied agents [R]. SS-00-02,2000.
[3] Bindiganavale R N. Building parameterized action representations from observation [D]. Philadelphia, USA: University of Pennsylvania, 2000.
[4] 蔣科藝, 郝建平. 沉浸式虛擬維修仿真系統(tǒng)及其實(shí)現(xiàn)[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào), 2005, 17(15): 1120-1123.
[5] Chen Shanmin, Ning Tao, Wang Ke. Motion control of virtual human based on optical motion capture in immersive virtual maintenance system [C]// Proceedings-2011 International Conference on Virtual Reality and Visualization(ICVRV'11). Piscataway: IEEE Computer Society, 2011: 52-56.
[6] 王 維, 李 焱, 賀漢根. 基于國標(biāo)人體測(cè)量學(xué)數(shù)據(jù)的虛擬人縮放方法 [J]. 計(jì)算機(jī)仿真, 2006, 23(7): 219-222.
[7] O’Brien J F, Bodenheimer Jr R E, Brostow G J, et al. Automatic joint parameter estimation from magnetic motion capture data [C]//Michael M, Torsten M. Proceedings of Graphics Interface 2000. Montreal, Canada: Taylor & Francis, 2000,53-60.
[8] Ringer M, Lasenby J. A procedure for automatically estimating model parameters in optical motion capture [J]. Image and Vision Computing, 2004, 22: 843-850.
[9] Silaghi M C, Plankers R, Boulic R, et al. Local and global skeleton fitting techniques for optical motion capture [J]. Modeling and Motion Capture Techniques for Virtual Environments, 1998, 1537: 26-40.
[10] Kirk A G, O’Brien J F, Forsyth D A. Skeletal parameter estimation from optical motion capture data [C]//Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2005: 782-788.
[11] Gamage S S H U, Lasenby J. New least squares solutions for estimating the average center of rotation and the axis of rotation [J]. Journal of Biomechanics, 2002, 35: 87-93.
[12] Chang L Y, Pollard N S. Constrained least-squares optimization for robust estimation of center of rotation [J]. Journal of Biomechanics, 2007, 40: 1392-1400.
[13] Lafortune M A, Cavanagh P R, Sommer H J, et al. Three-dimensional kinematics of the human knee during walking [J]. Journal of Biomechanics, 1992, 25(4): 347-357.
A Technique for Virtual Human Calibration Based on Optical Motion Capture
Hou Yonglong1, Ning Tao1, Wang Ke2
(1. School of Mechanical Engineering and Automation, Beijing University of Aeronautics and Astronautics, Beijing 100191, China; 2. Beijing Rainfe Technology Co., Ltd, Beijing 100098, China )
Based on optical motion capture, two joint center estimation models: Bi-segment Model and Sphere Model are given by analyzing the motion of segments constrained by joints. For each model a least squares solution is presented respectively and the joint center location could be acquired by solving a linear equation. A virtual linkage is used to test the accuracy of the two least squares solutions. Using the Bi-segment Model which is more accurate, a technique for virtual human calibration is proposed based on the topology of the virtual human. The comparison of measured values and calibrated values of a performer demonstrates errors for limbs are less than 4.3%. Finally, the calibrated virtual human is driven. The result shows the virtual human can mimic the performer vividly and limbs intersection cases are reduced.
optical motion capture; joint center estimation; least squares solution; virtual human calibration
A
2095-302X (2013)05-0126-06
2013-02-04;定稿日期:2013-04-07
國家自然科學(xué)基金資助項(xiàng)目(51075021)
侯永?。?989-),男,山東濰坊人,碩士研究生,主要研究方向?yàn)镃AD/CAM、虛擬現(xiàn)實(shí)。E-mail:houylong@126.com
TP 391.9