国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

視覺手勢識別技術在航天虛擬訓練中的應用研究

2014-11-20 08:42康金蘭晁建剛林萬洪
載人航天 2014年3期
關鍵詞:手勢指尖部件

康金蘭,晁建剛,林萬洪,熊 穎,楊 進

(1.中國航天員科研訓練中心,北京100194;2.人因工程重點實驗室,北京100194)

1 引言

手勢識別是一種人機交互技術,以人手部的動作直接控制計算機的輸入。隨著技術的發(fā)展,使用攝像頭捕捉手勢的計算機視覺技術成為了手勢識別的主流方式[1]。手勢無論是靜態(tài)或動態(tài),首先需通過視頻采集設備獲取圖像,并通過圖像處理進行手的檢測和分割,之后對手勢圖像加以分析,提取圖像特征,再根據(jù)特征將已分離的手勢按照一定的方法識別出來,最后將識別結果轉化為驅動計算機運行的交互語義[2]。

近年來手勢識別技術的發(fā)展迅猛,在許多領域有著廣泛的應用前景。在我國未來空間站任務階段將開展長期有人照料的空間科學實驗任務,隨著需求的不斷增強,飛行任務越來越繁重,為提高航天員執(zhí)行任務的效率及成功率,地面訓練需要適應空間站內部空間大、設備多,操作復雜等特點,考慮艙外設備的維護維修、艙內設備組裝等工作,因此將引入基于虛擬現(xiàn)實的訓練系統(tǒng),視覺手勢識別技術正是其中的關鍵環(huán)節(jié)之一。

目前國內動態(tài)手勢識別以研究手的運動軌跡識別為主[3],這在很大程度上難以滿足航天員訓練需要。本文針對我國載人航天任務日益增長的訓練需求,以航天員在軌組裝艙內某醫(yī)學防護鍛煉設備為研究對象,進行視覺手勢識別技術研究,著力解決在航天員虛擬訓練背景下,典型動態(tài)手勢的識別及交互設計等內容。以組裝過程中的抓取、(抓取后的)拖動、釋放為例,分析了航天虛擬組裝訓練的典型手勢,研究了基于Kinect的手勢識別方法,建立了航天虛擬組裝訓練三維場景,首次設計并實現(xiàn)了基于視覺手勢識別的航天虛擬訓練系統(tǒng),最后,設計了仿真實驗,對手勢識別方法的有效性進行了驗證。

2 系統(tǒng)設計與實現(xiàn)

2.1 系統(tǒng)框架

本文以當前的主流工具——光場攝像機(Kinect)為視頻采集設備,OpenNI和Nite為主要視覺識別軟件,OpenCV輔助進行識別算法計算,以irrlicht圖形引擎建立虛擬三維交互場景,在VC2010環(huán)境下實現(xiàn)編碼。研究平臺體系結構如圖1所示。

圖1 系統(tǒng)體系結構圖Fig.1 System architecture

視覺計算平臺負責手勢圖像的采集及底層處理,視覺手勢識別系統(tǒng)負責運動手勢的關鍵算法實現(xiàn),交互規(guī)范/規(guī)則負責手勢交互語義的定義;場景部分負責建立虛擬的三維設備場景,并根據(jù)動態(tài)手勢驅動設備部件組裝;管理界面負責頂層界面管理。

建立的視覺手勢人機交互系統(tǒng)框圖如圖2所示。

圖2 手勢識別人機交互系統(tǒng)Fig.2 Man-machine interactive system based on gesture recognition

首先,通過Kinect獲取深度圖像的數(shù)據(jù)流,系統(tǒng)根據(jù)手勢的深度位置分割出手勢,得到手勢的二值圖像;其次,根據(jù)指尖特征,分割出指尖并有效跟蹤目標和運動;再次,根據(jù)手勢特征進行分析,生成模型參數(shù),根據(jù)模型參數(shù)對手勢進行分類并按需要定義交互語義;最后,系統(tǒng)根據(jù)交互語義去驅動手勢裝配物體。

2.2 手勢檢測及分割

準確、合理地分離手勢與背景是提高識別效率和準確率的一個重要前提[4]。Kinect除了能夠提供RGB顏色信息外,還能利用紅外線提供深度信息,這就為手勢的檢測提供了極大的便利,因為紅外深度信息與背景的區(qū)分度遠大于顏色信息與運動信息,使得手勢檢測的大部分工作能夠由硬件直接完成[3]。本文在手勢檢測和分割部分充分利用Kinect提供的深度圖像信息進行處理,不僅可以解決因使用場合的不同和光照環(huán)境等的變化造成的手勢區(qū)域檢測不準的問題,而且能夠較好的去除類膚色區(qū)域。

本文假定人手離攝像機最近,且距離在1 m范圍內。利用Openni手部分析模塊很容易跟蹤檢測到手的質心,根據(jù)手心坐標,選取感興趣區(qū)域作為手勢分割的目標。通過分析在軌組裝的幾種特定手勢,我們取深度圖像中原像素點的深度值在手質心深度值d±8 cm范圍內的點的集合作為分割出來的手勢圖像,并將其進行二值化處理,分割前后的圖像如圖3(a)和(b)所示。

圖3 手勢分割Fig.3 Gesture segmentation

2.3 指尖檢測與跟蹤

想要滿足組裝操作的需求,僅僅一個手的質心點顯然不夠,而指尖是手勢識別中最為常用的特征點[5]。目前,指尖檢測算法中,常用的是模板匹配和輪廓曲率分析兩種方法[6]。但模版匹配方法必須遍歷整個手勢圖像而導致實時效率不高[7],因此本文采用手勢圖像輪廓曲率分析的方法,通過對手輪廓圖像進行分析來檢測指尖,進而檢測出拇指并實時跟蹤。

首先將圖像輪廓上的點依次存入數(shù)組中,利用K-curvature算法計算任意一點的近似曲率。如圖4a所示,對圖中的點P1,計算P1和P2之間的向量與P1和P3之間向量的夾角是否在一定范圍內,從而判斷它是否為指尖。經(jīng)過多次測試驗證,取P2、P3與P1間隔20個像素點,且向量夾角角度取0~55度,識別結果比較理想。向量夾角不在該范圍內的認為是非指尖,例如圖4(a)中的T1點。圖4(b)是通過該方法識別出來的結果,橙色圓圈標識的是手指尖。

圖4 指尖檢測Fig.4 Fingertips Detection

根據(jù)在所有相鄰指尖點的距離中,拇指和食指指尖距離最遠的特點,很容易檢測到拇指,如圖4b所示。

2.4 Kalman濾波

由于手在運動過程中會有一些變化,Kinect攝像頭也會產(chǎn)生噪聲,使得對指尖的三維位置不能穩(wěn)定地跟蹤。通過Kalman濾波,用前幀指尖位置預測下幀指尖位置,根據(jù)預測位置將指尖區(qū)域設置為圖像的感興趣區(qū)域(ROI,Region ofinterest),有效提高分割速度[8]。跟蹤過程為:

1)利用Kalman濾波器預測當前幀的指尖位置,設置ROI區(qū)域是以預測指尖點為中心,大小為80×80的窗口。

2)目標匹配。在連續(xù)兩幀中,指尖運動假定為勻速,則Kalman濾波器的狀態(tài)向量如式(1)。

式中X(t),Y(t),Z(t)是指尖在三維中的坐標位置,Vx(t),Vy(t),Vz(t)指在每一幀中指尖點的速度,則狀態(tài)方程和觀測方程分別為:

其中,wt是過程噪聲,具有高斯分布;vt是測量誤差,F(xiàn)為狀態(tài)轉化矩陣,H為觀測矩陣。

由此,通過指尖在t幀之前的位置來預測它在t幀時刻的位置。但Kinect本身存在局限性,有時會出現(xiàn)很大誤差,導致指尖出現(xiàn)抖動。為防止預測與指尖的實際位置相差太大,利用手質心點與指尖深度相差不大的先驗知識,可設定指尖深度在手質心點深度±8 cm范圍內。

3)更新Kalman濾波狀態(tài),用匹配好的指尖位置作為下一幀的預測值來更新Kalman濾波狀態(tài),達到穩(wěn)定跟蹤指尖的目的。

2.5 手勢分析與交互語義的定義

手勢的表觀特征[5]包括手指數(shù)、手指的指尖點、指根點以及指間的夾角等具有標志性的信息。通過指尖檢測得到多個指尖,利用指尖個數(shù)狀態(tài)、指尖向量和手指相對運動軌跡來劃分手勢類型,并根據(jù)不同場景中的具體應用進行交互語義的描述。虛擬組裝過程中的物體操作主要包括對物體的抓取、移動、釋放等操作,具體定義如下:

1)抓取(Grasp)。當手的拇指指尖點與食指指尖點接觸(距離小于5個像素點),且接觸點在物體的包圍盒內時,定義為抓取操作。

2)移動(Move)。當物體處于抓取狀態(tài),且手質心位置發(fā)生變化時,定義此手勢為抓取移動狀態(tài),抓取到的物體隨手的移動而移動。

3)釋放(Free)。當手拇指指尖與食指指尖不接觸時(距離大于5個像素點),定義為釋放動作,物體被放開。

利用本文描述的指尖檢測與跟蹤方法,首先從手勢特征圖像中識別出指尖,并判斷出拇指和食指,之后進行穩(wěn)定地跟蹤,然后根據(jù)兩手指的位置關系以及是否接觸到操作的部件來識別當前手勢的含義。

3 實驗與驗證

采用本文描述的手勢檢測及識別方法,進行在軌組裝設備虛擬操作訓練實驗。首先將三維虛擬設備各部件放置在固定位置上,虛擬手模型隨識別的手的質心位置變化,當手移動到虛擬部件的包圍盒內時,該虛擬部件變色,以表明手接觸到該部件;當進行抓取操作時,輸出聲音表明識別到抓取操作;當手處于抓取操作狀態(tài)并移動時,虛擬部件跟隨移動;程序中通過在相應的位置上顯示已抓取部件的線框圖,并以閃爍的綠色提醒訓練對象將該部件移動到該位置進行組裝,移動到正確組裝位置后,該部件線框圖變成紅色,表示位置正確可以釋放,釋放后即完成了這一步的正確組裝。仿真結果如圖5所示。

圖5 組裝實驗演示圖Fig.5 Sketch map of assembly experiment

圖6 識別出的手勢圖像Fig.6 Gesture image recognized

圖6 (a)和(b)是采用本文描述的手勢識別方法識別出來的兩種特定操作手勢。實驗過程中選取5個人在不同的光照條件和復雜背景下進行在軌組裝操作訓練,組裝過程中每個特定動作重復10遍,得到的實驗結果如表1所示。從表中的數(shù)據(jù)可以看出,采用本文的方法進行特定手勢識別,識別效率較高,且具有較強的魯棒性,可以達到組裝訓練的目的。

表1 組裝手勢識別率Table 1 Recognition rate of assembly gestures

說明:本文將實際組裝操作過程中的手勢簡化為特定的三種手勢,用于組裝操作流程上的訓練;文本描述的手勢識別方法適用于基于這三種特定手勢的虛擬組裝訓練,但對于實際操作中可能涉及到的旋擰、插拔等復雜操作不太適用,針對一些復雜組裝手勢的識別將在后續(xù)的工作中繼續(xù)研究。

4 結論

本文在分析未來空間站階段航天員地面模擬訓練需求的基礎上,研究了基于Kinect的視覺手勢識別技術在載人航天失重防護設備組裝訓練上的應用。首先利用OpenNI和Nite檢測到動態(tài)手勢,再利用Kinect深度信息有效地分割手勢,并采用手勢圖像輪廓曲率分析方法識別出手指尖,結合Kalman濾波進行穩(wěn)定跟蹤。根據(jù)識別的拇指與食指的位置關系以及手勢的定義識別出組裝的特定手勢。實驗結果表明,本文描述的方法對組裝訓練的特定手勢有較高的識別率,在不同光照和復雜背景下魯棒性強;該方法可應用于載人航天在軌設備虛擬組裝訓練中。

[1]鄧瑞,周玲玲,應忍冬.基于Kinect深度信息的手勢提取與識別研究[J].計算機應用研究,2013,30(4):1263-1265.

[2]任潔.基于立體視覺的手勢跟蹤識別及人機交互應用[D].南京:南京大學,2013.

[3]陶麗君,李翠華等.基于Kinect傳感器深度信息的動態(tài)手勢識別[J].廈門大學學報,2013,52(4):493-497.

[4]王艷,張奇志.基于Kinect深度信息的手勢識別[J].北京科技大學學報,2013,28(1):22-26.

[5]陳艷艷,陳正鳴,周小芹.基于Kinect的手勢識別及在虛擬裝配技術中的應用[J].電子設計工程,2013,21(10):4-7.

[6]Shuai Yang,PrashanPremaratne,Peter Vial.Hand Gesture Recognition[C]//Proceedings of 2013 5th IEEE International Conference on Broadband Network&Multimedia Technology.Guilin,China:IEEE,2013:23-27.

[7]Li Y.Hand gesture recognition on using Kinect[C]//Software Engineering and Service Science(ICSESS),2012 IEEE 3rd International Conference on.Beijing,China:IEEE,2012:196-199.

[8]Jagdish L Raheja,Ankit Chaudhary,KunalSingal.Tracking of Fingertips and Centers of Palm using Kinect[C]//Proceeding on Third International Conference on Computational Intelligence,Modelling& Simulation.2011:248-252.

猜你喜歡
手勢指尖部件
治理“指尖亂像”不宜一散了之
漢字部件的避讓變形
奧迪e-tron純電動汽車的高電壓部件(下)
虔誠之花在指尖綻放
一種陀飛輪表的雙秒輪結構
挑戰(zhàn)!神秘手勢
現(xiàn)代漢字的兩種分析法與國家文字規(guī)范(四)
指尖童話
勝利的手勢
美甲窺探指尖也美妝
双柏县| 宁海县| 襄汾县| 东阳市| 昌吉市| 乐都县| 蒲江县| 获嘉县| 临泽县| 大同县| 洪雅县| 尚义县| 新余市| 高陵县| 香港 | 山东| 阳山县| 习水县| 建平县| 武清区| 微博| 扶绥县| 遂平县| 宁晋县| 城固县| 拉孜县| 兖州市| 普兰店市| 玛曲县| 淄博市| 金塔县| 阿坝县| 磴口县| 成都市| 鲜城| 黎城县| 永定县| 平原县| 如东县| 布尔津县| 息烽县|