国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于Kinect的PPT控制系統(tǒng)研究*

2014-07-31 19:15朱明茗景紅
中國教育信息化·高教職教 2014年5期
關鍵詞:高校教學

朱明茗+景紅

摘 要:在高校中,運用PPT課件的多媒體教學已經(jīng)成為一種非常重要的課堂教學活動形式。本文對基于基本輸入設備的PPT控制系統(tǒng)在教學運用中存在的主要問題進行了分析,并簡要介紹了Kinect的基本功能和應用優(yōu)勢。在此基礎上,本文詳細闡述了如何實現(xiàn)Kinect對PPT的控制。

關鍵詞:PPT;高校教學;Kinect

中圖分類號:TP316 文獻標志碼:A 文章編號:1673-8454(2014)09-0080-02

一、引言

PPT最初開發(fā)的目的是用于公眾場合的演講,它具有完善的多媒體處理功能和很多靈活的控制方式,且相對于其他技術更簡單易學。近年來,PPT在高校教學中的應用更是廣泛,幾乎成為了不可或缺的工具。PPT的使用,大大提高了教師傳授知識的效率,使老師從完全板書中得到解放,而且PPT中可以添加圖像、聲音、視頻等多媒體內容,更加有利于教師對教學內容的表達,提高了教師的授課效果。

PPT顯示的都是標準文字,更清晰易讀,使學生不必要去“猜”教師板書中的文字,從而提高了學生對課程內容的理解和課程筆記的質量。并且PPT可保存和復制的特性,彌補了板書的實時性所帶來的缺陷,即便是在課后復習中,學生也很容易重現(xiàn)教師的授課思路,有利于學生對知識的掌握。

但是,PPT在廣泛應用的同時,隨之帶來的問題也不容忽視,如在師生時間的交互性和效率上。如今課堂中,教師一般通過鼠標、鍵盤來控制PPT。由于鼠標、鍵盤與講臺綁在一起,這就將教師限制在了講臺之上。這樣在某種程度上增加了學生和教師之間的距離感,減少了師生之間的交流,降低教學過程中的互動性,從而影響教學質量。激光筆在使用的靈活性方面得到改善,但“光點的晃來晃去”也常常擾亂了學生的視線。

Kinect是一種3D體感攝影機,它能夠準確地追蹤人體骨骼,識別人體的動作并實時處理。人們可以站在Kinect前做出各種動作來與計算機交互,而不需要佩帶或接觸任何輸入設備。通過將Kinect體感設備與PPT結合,教師對PPT的控制具有更大的靈活性,進而提高了課堂教學效率。

二、Kinect簡介

Kinect是微軟在2010發(fā)布Xbox 360時,將其作為體感周邊外設一起推出的。Kinect提供了一種全新的操作方式,它通過語言、手勢、動作,以自然用戶界面實現(xiàn)操作。

如圖1所示,Kinect有兩個3D深度攝像頭和一個RGB攝像頭。左邊的深度攝像頭發(fā)射紅外光譜,覆蓋整個Kinect的可視范圍;右邊的紅外線接收器,接收并讀取反射散斑,進而創(chuàng)建Kinect可視范圍內的深度圖像。中間的RGB彩色攝像頭,拍攝可視范圍內的彩色圖像,配合3D攝像頭實現(xiàn)Kinect的圖像識別檢測操作。Kinect的下部是一個麥克風陣列,由4個麥克風組成,用來采集和定位聲音,同時幫助過濾背景噪聲,使其作為語音識別的命令。Kinect的底座內置仰角控制馬達,可通過編程控制Kinect的拍攝角度,使攝像頭本體能夠看到的范圍更廣泛。

三、基于Kinect的PPT控制系統(tǒng)的設計

本系統(tǒng)通過使用OpenNI/NITE平臺,設計并實現(xiàn)Kinect對手勢的獲取與識別。目前,OpenNI/NITE只支持4種手勢,即Wave(揮手),Click(點),RaiseHand(舉手),MovingHand(移動手)。在這里設定當用戶Click時,表示翻入“下一頁”,當用戶“RaiseHand”時,表示翻入“上一頁”。具體實現(xiàn)流程如圖2所示。

1.實例化context對象,聲明深度和手勢生產(chǎn)節(jié)點

Context對象保存了應用程序使用OpenNI的完整狀態(tài),首先對Context對象聲明和初始化;其次,聲明生產(chǎn)節(jié)點Generator。Generator根據(jù)聲明的類型不同,生成所需要的數(shù)據(jù),供其他生產(chǎn)節(jié)點使用。最后,通過Context對象,保存DepthGenerator和GestureGenerator生產(chǎn)鏈。關鍵代碼如下:

// initial context

xn::Context mContext;

eRes = mContext.Init();

//create depth generator

xn::DepthGeneratormDepthGenerator;

eRes = mDepthGenerator.Create( mContext );

// initial gesture generator

xn::GestureGeneratormGesture;

eRes = mGesture.Create( mContext );

2.添加識別的手勢

GestureGenerator主要用于手勢識別,這里通過使用AddGesture函數(shù)將“RaiseHand”和“Click”兩個手勢動作加入。具體實現(xiàn)如下:

// add“Click”

eRes =mGesture.AddGesture( "Click", NULL );

// add“RaiseHand”

eRes =mGesture.AddGesture( "RaiseHand", NULL );

3.聲明回調函數(shù)

當需要的手勢被識別出來時,需要通過回調函數(shù)具體處理。在這里,通過聲明RegisterGestureCallBacks()函數(shù)來登記GestureGenerator的回調函數(shù)GestureRecognized()和GestureProcess(),從而實現(xiàn)對偵測到的手勢的處理。其中,當手勢結束時,調用GestureRecognized(),當手勢在執(zhí)行中時,調用GestureProcess()?;卣{函數(shù)形式如下:

mGesture.RegisterGestureCallbacks( GRecognized, GProgress, NULL, hHandle );

其中,GRecognized為圖像處理后的回調函數(shù),Progress是手勢進行中的回調函數(shù),hHandle是傳入用戶的數(shù)據(jù)。

4.處理識別手勢

GRecognized()函數(shù)對識別出的手勢進行具體的處理。當手勢識別出來時,將具體手勢信息參數(shù)傳入本函數(shù)中,當參數(shù)名稱為“RaiseHand”時,系統(tǒng)發(fā)出“向上翻”的命令,當參數(shù)名稱為“Click”時,需提供發(fā)出“向下翻”命令。處理函數(shù)形式如下:

void XN_CALLBACK_TYPE GRecognized( xn::GestureGenerator &generator, const XnChar *strGesture,

const XnPoint3D *pIDPosition, const XnPoint3D *pEndPosition, void *pCookie );

其中,generator為發(fā)現(xiàn)手勢的生產(chǎn)節(jié)點,strGesture存儲被識別的手勢名稱,iPDPosition與pEndPosition為手勢的起始與終止位置,pCookie為傳入的用戶參數(shù)。

5.實驗結果

如圖3展示了動作識別的結果和手部的坐標數(shù)據(jù)。系統(tǒng)通過識別出的手部動作,觸發(fā)鍵盤事件,進而實現(xiàn)控制PPT翻頁功能。

四、結束語

PPT課件在高校課堂中應用的比重越來越大,以PPT課件為基礎的教學系統(tǒng)中存在的弊端也不容忽視。本文通過Kinect實現(xiàn)手勢控制PPT,對以后針對Kinect的PPT控制系統(tǒng)的開發(fā)和優(yōu)化有一定的實用和參考價值。

參考文獻:

[1]馬建榮,章蘇靜,李鳳.基于體感技術的親子互動游戲設計與實現(xiàn)[J].中國電化教育,2012.

[2]heresy.OPENNI的手勢偵測.http://viml.nchc.org.tw/.

(編輯:楊馥紅)

endprint

摘 要:在高校中,運用PPT課件的多媒體教學已經(jīng)成為一種非常重要的課堂教學活動形式。本文對基于基本輸入設備的PPT控制系統(tǒng)在教學運用中存在的主要問題進行了分析,并簡要介紹了Kinect的基本功能和應用優(yōu)勢。在此基礎上,本文詳細闡述了如何實現(xiàn)Kinect對PPT的控制。

關鍵詞:PPT;高校教學;Kinect

中圖分類號:TP316 文獻標志碼:A 文章編號:1673-8454(2014)09-0080-02

一、引言

PPT最初開發(fā)的目的是用于公眾場合的演講,它具有完善的多媒體處理功能和很多靈活的控制方式,且相對于其他技術更簡單易學。近年來,PPT在高校教學中的應用更是廣泛,幾乎成為了不可或缺的工具。PPT的使用,大大提高了教師傳授知識的效率,使老師從完全板書中得到解放,而且PPT中可以添加圖像、聲音、視頻等多媒體內容,更加有利于教師對教學內容的表達,提高了教師的授課效果。

PPT顯示的都是標準文字,更清晰易讀,使學生不必要去“猜”教師板書中的文字,從而提高了學生對課程內容的理解和課程筆記的質量。并且PPT可保存和復制的特性,彌補了板書的實時性所帶來的缺陷,即便是在課后復習中,學生也很容易重現(xiàn)教師的授課思路,有利于學生對知識的掌握。

但是,PPT在廣泛應用的同時,隨之帶來的問題也不容忽視,如在師生時間的交互性和效率上。如今課堂中,教師一般通過鼠標、鍵盤來控制PPT。由于鼠標、鍵盤與講臺綁在一起,這就將教師限制在了講臺之上。這樣在某種程度上增加了學生和教師之間的距離感,減少了師生之間的交流,降低教學過程中的互動性,從而影響教學質量。激光筆在使用的靈活性方面得到改善,但“光點的晃來晃去”也常常擾亂了學生的視線。

Kinect是一種3D體感攝影機,它能夠準確地追蹤人體骨骼,識別人體的動作并實時處理。人們可以站在Kinect前做出各種動作來與計算機交互,而不需要佩帶或接觸任何輸入設備。通過將Kinect體感設備與PPT結合,教師對PPT的控制具有更大的靈活性,進而提高了課堂教學效率。

二、Kinect簡介

Kinect是微軟在2010發(fā)布Xbox 360時,將其作為體感周邊外設一起推出的。Kinect提供了一種全新的操作方式,它通過語言、手勢、動作,以自然用戶界面實現(xiàn)操作。

如圖1所示,Kinect有兩個3D深度攝像頭和一個RGB攝像頭。左邊的深度攝像頭發(fā)射紅外光譜,覆蓋整個Kinect的可視范圍;右邊的紅外線接收器,接收并讀取反射散斑,進而創(chuàng)建Kinect可視范圍內的深度圖像。中間的RGB彩色攝像頭,拍攝可視范圍內的彩色圖像,配合3D攝像頭實現(xiàn)Kinect的圖像識別檢測操作。Kinect的下部是一個麥克風陣列,由4個麥克風組成,用來采集和定位聲音,同時幫助過濾背景噪聲,使其作為語音識別的命令。Kinect的底座內置仰角控制馬達,可通過編程控制Kinect的拍攝角度,使攝像頭本體能夠看到的范圍更廣泛。

三、基于Kinect的PPT控制系統(tǒng)的設計

本系統(tǒng)通過使用OpenNI/NITE平臺,設計并實現(xiàn)Kinect對手勢的獲取與識別。目前,OpenNI/NITE只支持4種手勢,即Wave(揮手),Click(點),RaiseHand(舉手),MovingHand(移動手)。在這里設定當用戶Click時,表示翻入“下一頁”,當用戶“RaiseHand”時,表示翻入“上一頁”。具體實現(xiàn)流程如圖2所示。

1.實例化context對象,聲明深度和手勢生產(chǎn)節(jié)點

Context對象保存了應用程序使用OpenNI的完整狀態(tài),首先對Context對象聲明和初始化;其次,聲明生產(chǎn)節(jié)點Generator。Generator根據(jù)聲明的類型不同,生成所需要的數(shù)據(jù),供其他生產(chǎn)節(jié)點使用。最后,通過Context對象,保存DepthGenerator和GestureGenerator生產(chǎn)鏈。關鍵代碼如下:

// initial context

xn::Context mContext;

eRes = mContext.Init();

//create depth generator

xn::DepthGeneratormDepthGenerator;

eRes = mDepthGenerator.Create( mContext );

// initial gesture generator

xn::GestureGeneratormGesture;

eRes = mGesture.Create( mContext );

2.添加識別的手勢

GestureGenerator主要用于手勢識別,這里通過使用AddGesture函數(shù)將“RaiseHand”和“Click”兩個手勢動作加入。具體實現(xiàn)如下:

// add“Click”

eRes =mGesture.AddGesture( "Click", NULL );

// add“RaiseHand”

eRes =mGesture.AddGesture( "RaiseHand", NULL );

3.聲明回調函數(shù)

當需要的手勢被識別出來時,需要通過回調函數(shù)具體處理。在這里,通過聲明RegisterGestureCallBacks()函數(shù)來登記GestureGenerator的回調函數(shù)GestureRecognized()和GestureProcess(),從而實現(xiàn)對偵測到的手勢的處理。其中,當手勢結束時,調用GestureRecognized(),當手勢在執(zhí)行中時,調用GestureProcess()?;卣{函數(shù)形式如下:

mGesture.RegisterGestureCallbacks( GRecognized, GProgress, NULL, hHandle );

其中,GRecognized為圖像處理后的回調函數(shù),Progress是手勢進行中的回調函數(shù),hHandle是傳入用戶的數(shù)據(jù)。

4.處理識別手勢

GRecognized()函數(shù)對識別出的手勢進行具體的處理。當手勢識別出來時,將具體手勢信息參數(shù)傳入本函數(shù)中,當參數(shù)名稱為“RaiseHand”時,系統(tǒng)發(fā)出“向上翻”的命令,當參數(shù)名稱為“Click”時,需提供發(fā)出“向下翻”命令。處理函數(shù)形式如下:

void XN_CALLBACK_TYPE GRecognized( xn::GestureGenerator &generator, const XnChar *strGesture,

const XnPoint3D *pIDPosition, const XnPoint3D *pEndPosition, void *pCookie );

其中,generator為發(fā)現(xiàn)手勢的生產(chǎn)節(jié)點,strGesture存儲被識別的手勢名稱,iPDPosition與pEndPosition為手勢的起始與終止位置,pCookie為傳入的用戶參數(shù)。

5.實驗結果

如圖3展示了動作識別的結果和手部的坐標數(shù)據(jù)。系統(tǒng)通過識別出的手部動作,觸發(fā)鍵盤事件,進而實現(xiàn)控制PPT翻頁功能。

四、結束語

PPT課件在高校課堂中應用的比重越來越大,以PPT課件為基礎的教學系統(tǒng)中存在的弊端也不容忽視。本文通過Kinect實現(xiàn)手勢控制PPT,對以后針對Kinect的PPT控制系統(tǒng)的開發(fā)和優(yōu)化有一定的實用和參考價值。

參考文獻:

[1]馬建榮,章蘇靜,李鳳.基于體感技術的親子互動游戲設計與實現(xiàn)[J].中國電化教育,2012.

[2]heresy.OPENNI的手勢偵測.http://viml.nchc.org.tw/.

(編輯:楊馥紅)

endprint

摘 要:在高校中,運用PPT課件的多媒體教學已經(jīng)成為一種非常重要的課堂教學活動形式。本文對基于基本輸入設備的PPT控制系統(tǒng)在教學運用中存在的主要問題進行了分析,并簡要介紹了Kinect的基本功能和應用優(yōu)勢。在此基礎上,本文詳細闡述了如何實現(xiàn)Kinect對PPT的控制。

關鍵詞:PPT;高校教學;Kinect

中圖分類號:TP316 文獻標志碼:A 文章編號:1673-8454(2014)09-0080-02

一、引言

PPT最初開發(fā)的目的是用于公眾場合的演講,它具有完善的多媒體處理功能和很多靈活的控制方式,且相對于其他技術更簡單易學。近年來,PPT在高校教學中的應用更是廣泛,幾乎成為了不可或缺的工具。PPT的使用,大大提高了教師傳授知識的效率,使老師從完全板書中得到解放,而且PPT中可以添加圖像、聲音、視頻等多媒體內容,更加有利于教師對教學內容的表達,提高了教師的授課效果。

PPT顯示的都是標準文字,更清晰易讀,使學生不必要去“猜”教師板書中的文字,從而提高了學生對課程內容的理解和課程筆記的質量。并且PPT可保存和復制的特性,彌補了板書的實時性所帶來的缺陷,即便是在課后復習中,學生也很容易重現(xiàn)教師的授課思路,有利于學生對知識的掌握。

但是,PPT在廣泛應用的同時,隨之帶來的問題也不容忽視,如在師生時間的交互性和效率上。如今課堂中,教師一般通過鼠標、鍵盤來控制PPT。由于鼠標、鍵盤與講臺綁在一起,這就將教師限制在了講臺之上。這樣在某種程度上增加了學生和教師之間的距離感,減少了師生之間的交流,降低教學過程中的互動性,從而影響教學質量。激光筆在使用的靈活性方面得到改善,但“光點的晃來晃去”也常常擾亂了學生的視線。

Kinect是一種3D體感攝影機,它能夠準確地追蹤人體骨骼,識別人體的動作并實時處理。人們可以站在Kinect前做出各種動作來與計算機交互,而不需要佩帶或接觸任何輸入設備。通過將Kinect體感設備與PPT結合,教師對PPT的控制具有更大的靈活性,進而提高了課堂教學效率。

二、Kinect簡介

Kinect是微軟在2010發(fā)布Xbox 360時,將其作為體感周邊外設一起推出的。Kinect提供了一種全新的操作方式,它通過語言、手勢、動作,以自然用戶界面實現(xiàn)操作。

如圖1所示,Kinect有兩個3D深度攝像頭和一個RGB攝像頭。左邊的深度攝像頭發(fā)射紅外光譜,覆蓋整個Kinect的可視范圍;右邊的紅外線接收器,接收并讀取反射散斑,進而創(chuàng)建Kinect可視范圍內的深度圖像。中間的RGB彩色攝像頭,拍攝可視范圍內的彩色圖像,配合3D攝像頭實現(xiàn)Kinect的圖像識別檢測操作。Kinect的下部是一個麥克風陣列,由4個麥克風組成,用來采集和定位聲音,同時幫助過濾背景噪聲,使其作為語音識別的命令。Kinect的底座內置仰角控制馬達,可通過編程控制Kinect的拍攝角度,使攝像頭本體能夠看到的范圍更廣泛。

三、基于Kinect的PPT控制系統(tǒng)的設計

本系統(tǒng)通過使用OpenNI/NITE平臺,設計并實現(xiàn)Kinect對手勢的獲取與識別。目前,OpenNI/NITE只支持4種手勢,即Wave(揮手),Click(點),RaiseHand(舉手),MovingHand(移動手)。在這里設定當用戶Click時,表示翻入“下一頁”,當用戶“RaiseHand”時,表示翻入“上一頁”。具體實現(xiàn)流程如圖2所示。

1.實例化context對象,聲明深度和手勢生產(chǎn)節(jié)點

Context對象保存了應用程序使用OpenNI的完整狀態(tài),首先對Context對象聲明和初始化;其次,聲明生產(chǎn)節(jié)點Generator。Generator根據(jù)聲明的類型不同,生成所需要的數(shù)據(jù),供其他生產(chǎn)節(jié)點使用。最后,通過Context對象,保存DepthGenerator和GestureGenerator生產(chǎn)鏈。關鍵代碼如下:

// initial context

xn::Context mContext;

eRes = mContext.Init();

//create depth generator

xn::DepthGeneratormDepthGenerator;

eRes = mDepthGenerator.Create( mContext );

// initial gesture generator

xn::GestureGeneratormGesture;

eRes = mGesture.Create( mContext );

2.添加識別的手勢

GestureGenerator主要用于手勢識別,這里通過使用AddGesture函數(shù)將“RaiseHand”和“Click”兩個手勢動作加入。具體實現(xiàn)如下:

// add“Click”

eRes =mGesture.AddGesture( "Click", NULL );

// add“RaiseHand”

eRes =mGesture.AddGesture( "RaiseHand", NULL );

3.聲明回調函數(shù)

當需要的手勢被識別出來時,需要通過回調函數(shù)具體處理。在這里,通過聲明RegisterGestureCallBacks()函數(shù)來登記GestureGenerator的回調函數(shù)GestureRecognized()和GestureProcess(),從而實現(xiàn)對偵測到的手勢的處理。其中,當手勢結束時,調用GestureRecognized(),當手勢在執(zhí)行中時,調用GestureProcess()?;卣{函數(shù)形式如下:

mGesture.RegisterGestureCallbacks( GRecognized, GProgress, NULL, hHandle );

其中,GRecognized為圖像處理后的回調函數(shù),Progress是手勢進行中的回調函數(shù),hHandle是傳入用戶的數(shù)據(jù)。

4.處理識別手勢

GRecognized()函數(shù)對識別出的手勢進行具體的處理。當手勢識別出來時,將具體手勢信息參數(shù)傳入本函數(shù)中,當參數(shù)名稱為“RaiseHand”時,系統(tǒng)發(fā)出“向上翻”的命令,當參數(shù)名稱為“Click”時,需提供發(fā)出“向下翻”命令。處理函數(shù)形式如下:

void XN_CALLBACK_TYPE GRecognized( xn::GestureGenerator &generator, const XnChar *strGesture,

const XnPoint3D *pIDPosition, const XnPoint3D *pEndPosition, void *pCookie );

其中,generator為發(fā)現(xiàn)手勢的生產(chǎn)節(jié)點,strGesture存儲被識別的手勢名稱,iPDPosition與pEndPosition為手勢的起始與終止位置,pCookie為傳入的用戶參數(shù)。

5.實驗結果

如圖3展示了動作識別的結果和手部的坐標數(shù)據(jù)。系統(tǒng)通過識別出的手部動作,觸發(fā)鍵盤事件,進而實現(xiàn)控制PPT翻頁功能。

四、結束語

PPT課件在高校課堂中應用的比重越來越大,以PPT課件為基礎的教學系統(tǒng)中存在的弊端也不容忽視。本文通過Kinect實現(xiàn)手勢控制PPT,對以后針對Kinect的PPT控制系統(tǒng)的開發(fā)和優(yōu)化有一定的實用和參考價值。

參考文獻:

[1]馬建榮,章蘇靜,李鳳.基于體感技術的親子互動游戲設計與實現(xiàn)[J].中國電化教育,2012.

[2]heresy.OPENNI的手勢偵測.http://viml.nchc.org.tw/.

(編輯:楊馥紅)

endprint

猜你喜歡
高校教學
從教育的本質意義淺談微課的作用地位
關于未來“會診化”高校教學模式構建
白朗县| 乌兰县| 道真| 西昌市| 田东县| 林口县| 星子县| 昌邑市| 涡阳县| 河曲县| 江门市| 望奎县| 麦盖提县| 绿春县| 都昌县| 五指山市| 东港市| 西畴县| 卢龙县| 南通市| 南江县| 葵青区| 甘孜| 榆林市| 长岭县| 泉州市| 微山县| 镇康县| 邻水| 佛山市| 内黄县| 江永县| 大冶市| 南丰县| 苏尼特右旗| 增城市| 济源市| 台中市| 辽源市| 鹤山市| 丹凤县|