国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于LabVIEW與智能機器人的人體姿態(tài)檢測

2017-04-18 18:03張帥旗劉子龍張彬韓光鮮
軟件導(dǎo)刊 2017年2期
關(guān)鍵詞:智能機器人

張帥旗 劉子龍 張彬 韓光鮮

摘要 針對老年人或者殘疾人獨自行走時,可能發(fā)生意外事故而得不到及時處理等問題,提出一種解決方案:智能機器人在保持安全距離的前提下,能夠跟隨獨居老人或殘疾人移動,在移動過程中能夠?qū)崟r監(jiān)測老年人的人體姿態(tài)變化,以便及時關(guān)注老年人的生活狀況。該方案以Microsoft Kinect為硬件基礎(chǔ) ,結(jié)合模式識別算法在LabVIEW平臺上來實現(xiàn)人體姿態(tài)檢測,相比采用傳統(tǒng)的RGB或者深度圖像做姿態(tài)匹配時需要建立大量樣本庫,采用Kinect的骨骼圖來檢測人體姿態(tài),只需要根據(jù)Kinect的三維坐標就可以判斷出人體的各種姿態(tài),應(yīng)用價值較大。

關(guān)鍵詞 智能機器人;Microsoft Kinect;LabVIEW;姿態(tài)檢測

DOI DOI: 10.11907/rjdk.162797

中圖分類號: TP301

文獻標識碼: A 文章編號 文章編號: 16727800(2017)002001603

0 引言

人體姿態(tài)實時檢測是智能服務(wù)機器人的一大特點,近年來逐漸成為機器人研究領(lǐng)域的重點[1]。通過實時的人體姿態(tài)檢測,該服務(wù)器機器人可以對被跟隨者的實時狀態(tài)是否安全作出相應(yīng)判斷,然后進行及時的事故處理,可用于殘障人士、獨居老人等社會弱勢群體的日常監(jiān)護中。一旦檢測并判斷出被跟隨者有類似跌倒的緊急情況,智能機器人報警模塊會立刻發(fā)出警報,尋求幫助。

過去研究者大多采用RGB圖像檢測人體姿態(tài),不僅需要大量的樣本庫供機器人進行學(xué)習(xí)和匹配,而且受周圍光線影響容易導(dǎo)致姿態(tài)檢測判斷失誤;也有很多研究者采用Kinect的深度圖,此方法同樣需要建立大量樣本庫。雖然以上方法都能較準確地實現(xiàn)人體姿態(tài)檢測的目的,但是都需要建立大量的樣本庫,都有各自應(yīng)用場合的局限性[2]。

本方案采用Kinect的骨骼圖來檢測人體姿態(tài),骨骼圖中包含人體20個關(guān)節(jié)點,并將每個關(guān)節(jié)點標注為Kinect的三維坐標,根據(jù)坐標值的變化可以準確判斷出人體各種姿態(tài)。首先在機器人上安裝一臺miniPC,通過 Microsoft的SDK獲取骨骼圖。Kinect本身采集到的是深度圖和RGB圖,然后經(jīng)過SDK中的相關(guān)算法處理才得到骨骼圖。使用骨骼圖雖然需要相應(yīng)的硬件支持,但是可以不用建立大量的樣本庫,并且可以精確地檢測到各種人體姿態(tài)??傮w來看,采用Kinect的骨骼圖來實現(xiàn)人體姿態(tài)的檢測擁有良好的應(yīng)用前景。

1 人體姿態(tài)檢測原理分析

1.1 智能服務(wù)機器人及Kinect模塊

該智能跟隨服務(wù)機器人如圖1(左圖)所示,該服務(wù)機器人具有智能跟隨、自動避障、實時人體姿態(tài)檢測以及遠程監(jiān)控等功能。人體姿態(tài)檢測模塊采用的傳感器是Microsoft的Kinect模塊,如圖1(右圖)所示,模塊有3個攝像鏡頭,中間的RGB攝像鏡頭主要用來負責采集彩色圖像信息,其兩邊的3D DEPTH SENSORS攝像頭主要用來采集深度數(shù)據(jù)。比如場景中物體到攝像頭的距離,此外模塊還擁有強大的隨著對焦物體移動的技術(shù)。隨著對焦物體的移動,其底座上的馬達也會跟著轉(zhuǎn)動,能夠?qū)\動物體進行實時拍攝,以便后續(xù)用于人體姿態(tài)檢測處理。

1.2 Kinect 骨骼圖

Microsoft還使用模式識別算法,根據(jù)RGB圖像和深度圖生成人體骨骼圖,可實時顯示Kinect攝像頭前人體的20個關(guān)節(jié)點,如圖2所示,同時還能將每個關(guān)節(jié)點用坐標(x,y,z)表示出其相對于Kinect的位置,從Kinect感應(yīng)器的視角來看,假設(shè)HIP CENTER為坐標原點,以坐標原點向左的直線作為坐標系軸的負向,以坐標原點向上的直線作為坐標系軸的正向,Kinect感應(yīng)的方向作為坐標系的z。這為人們檢測人體姿態(tài)提供了極大地便利,在該方案中主要是檢測人體是否處于跌倒狀態(tài),以便更好地實現(xiàn)對獨居老人的監(jiān)護功能[3]。因此,可以用圖2中的頭部關(guān)節(jié)點坐標中的值來判斷獨居老人是否處于跌倒狀態(tài),即當小于某個值時即認為老人此時已經(jīng)處于跌倒狀態(tài),此時機器人會觸發(fā)報警裝置,并發(fā)生報警信號,使得能夠在第一時間里及時處理事故,更好地監(jiān)控老年人的生活狀態(tài)。

2 人體姿態(tài)檢測的LabVIEW程序設(shè)計

2.1 LabVIEW介紹

LabVIEW是美國NI公司開發(fā)的編程語言,與其它語言最大的不同是其采用圖形化編輯方式。使用LabVIEW進行軟件開發(fā),其流程相對簡單、高效。

LabVIEW最大的優(yōu)點是在硬件一定情況下,可以通過修改流程圖或者框圖,實現(xiàn)不同儀表的功能[4]。使用LabVIEW進行原理研究、算法設(shè)計,并最終實現(xiàn)系統(tǒng)功能時,極大提高了工程師的設(shè)計效率,同時使用LabVIEW Real-Time工具進行并發(fā)編程時,可以對相應(yīng)的嵌入式開發(fā)平臺進行多核支持,比如在此智能機器人的硬件平臺下,使用LabVIEW進行人體姿態(tài)軟件開發(fā),具有簡單、高效的特點。

2.2 人體姿態(tài)檢測程序設(shè)計

LabVIEW程序架構(gòu)主要分為兩部分,前面板由輸入及顯示兩種類型的控件組成,程序的框圖包含檢測程序的全部代碼,如圖3所示。A處所指的矩形框內(nèi)容是初始化Kinect以及模式設(shè)置,該處選擇“Skeleton and Video”模式,并初始化獲取骨骼圖的狀態(tài);B處所指的矩形框里的內(nèi)容即是While內(nèi)部循環(huán)主程序,包括讀取Skeleton and Video模塊、2DPicture模塊、3D Skeleton模塊以及關(guān)節(jié)點協(xié)同控制等模塊,實時讀取骨骼圖和視頻的原始坐標數(shù)據(jù),并由這些實時的原始坐標數(shù)據(jù)生成RGB視頻以及骨骼圖[5];C處所指的矩形框是在While循環(huán)停止后執(zhí)行,用于結(jié)束對Kinect的調(diào)用。

3 實驗結(jié)果與分析

運行圖3的LabVIEW程序設(shè)計,分別對人體處于直立和摔倒狀態(tài)時進行姿態(tài)檢測,然后從20個關(guān)節(jié)點的坐標數(shù)據(jù)中取出頭部的坐標數(shù)據(jù),并用表示高度的y值判斷是否跌倒,當y小于-0.39時,則認為此時檢測的目標出現(xiàn)跌倒狀態(tài)。在LabVIEW中可以使用變量的值決定是否觸發(fā)語音警報,當檢測正常狀態(tài)時,此時指示燈常綠,此時人體姿態(tài)的檢測結(jié)果如圖4所示;當檢測到跌倒狀態(tài)時,“Fall”指示燈由綠變紅,此時人體姿態(tài)檢測結(jié)果如圖5所示。在LabVIEW程序運行過程中,Joint Coordinates顯示模塊是在While循環(huán)停止后執(zhí)行,用于結(jié)束對Kinect的調(diào)用,最后Labview的錯誤處理機制會檢查程序執(zhí)行中的錯誤,若有錯誤則在圖4、圖5的輸出接口處顯示出錯誤代碼,否則停止整個程序的運行。

人體姿態(tài)檢測的程序是在miniPC(即上位機)中運行,通過Labview的網(wǎng)絡(luò)共享變量將“Fall”變量的值傳給myRIO,從而決定是否觸發(fā)語音警報并暫停機器人的運動[6]。

4 結(jié)語

本方案所設(shè)計的智能跟隨服務(wù)機器人能夠?qū)崿F(xiàn)人體的實時姿態(tài)檢測,相比采用傳統(tǒng)的RGB或者深度圖像,在不需要建立大量樣本庫的情況下,即能對老年人或者智障人士生活狀態(tài)進行實時檢測,然而要實現(xiàn)更好的智能監(jiān)護功能,仍需要對智能機器人的其它功能作進一步優(yōu)化,比如在智能跟隨、語音交互方面進行改進。在智能跟隨方面,在電機的最大轉(zhuǎn)速不能使機器人快速跟隨移動目標的情況下,使智能機器人與目標對象保持更小的安全距離,在語音交互方面,可以進一步優(yōu)化交互的方式和功能。

參考文獻:

[1] I S CHOI,J S CHOI.VFH based obstacle avoidance system for leaderfollowing formation control[C].Seoul:2013 44th International Symposium on Robotics (ISR),2013:14.

[2] 曹雛清.面向多方式人際交互的肢體動作識別研究[D].哈爾濱:哈爾濱工業(yè)大學(xué),2012.

[3] 林志強.面向智能服務(wù)機器人的物體感知研究[D].合肥:中國科學(xué)技術(shù)大學(xué),2014.

[4] 馬瓊雄.基于視覺的服務(wù)機器人人機交互技術(shù)研究[D].廣州:華南理工大學(xué),2014.

[5] 黃彬.智能空間中人的行為識別與理解[D].濟南:山東大學(xué),2010.

[6] 謝炯坤.面向人機互動的自然語言理解的研究[D].合肥:中國科學(xué)技術(shù)大學(xué),2015.

(責任編輯:孫 娟)

猜你喜歡
智能機器人
智能機器人實踐課程自主創(chuàng)新能力培養(yǎng)研究
梧州市| 沙湾县| 鄂温| 读书| 南岸区| 阜新市| 新化县| 沙田区| 泰顺县| 沂水县| 普格县| 手游| 南通市| 永定县| 普宁市| 阆中市| 巴东县| 沛县| 三河市| 达尔| 临颍县| 长子县| 阳春市| 兴化市| 宜君县| 荣成市| 裕民县| 大余县| 昌都县| 太仆寺旗| 天峻县| 泰兴市| 宜章县| 玉树县| 宁化县| 崇阳县| 息烽县| 壤塘县| 神农架林区| 梓潼县| 化州市|