国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度學(xué)習(xí)的手勢(shì)識(shí)別研究

2019-12-12 06:05沈雅婷
軟件導(dǎo)刊 2019年11期
關(guān)鍵詞:手勢(shì)識(shí)別特征提取深度學(xué)習(xí)

沈雅婷

摘 要:目前一些相對(duì)成熟的手勢(shì)識(shí)別算法,如基于模板匹配的方法、基于人工神經(jīng)網(wǎng)絡(luò)的方法以及基于隱馬爾科夫模型的方法,都存在計(jì)算復(fù)雜的劣勢(shì),而基于深度學(xué)習(xí)的手勢(shì)識(shí)別具有一定優(yōu)勢(shì)。通過(guò)深度學(xué)習(xí)提取多層網(wǎng)絡(luò)簡(jiǎn)化的高價(jià)值易用特征,通過(guò)向量等表示,簡(jiǎn)化算法以實(shí)現(xiàn)良好的識(shí)別效果。通過(guò)攝像頭采集室內(nèi)復(fù)雜背景下的手勢(shì)圖像,在計(jì)算能力、存儲(chǔ)能力強(qiáng)大的PC平臺(tái)通過(guò)深度學(xué)習(xí)處理圖像,提取特征,然后進(jìn)行分類(lèi)識(shí)別,能提高識(shí)別準(zhǔn)確率。通過(guò)改進(jìn)硬件或算法還可提高識(shí)別效率及安全性。

關(guān)鍵詞:深度圖像;預(yù)處理;特征提取;深度學(xué)習(xí);手勢(shì)識(shí)別

0 引言

手勢(shì)是人機(jī)交互的一種重要手段,是簡(jiǎn)單且自然的交流方式[1]。手勢(shì)識(shí)別是計(jì)算機(jī)科學(xué)和語(yǔ)言技術(shù)研究的主題。手勢(shì)識(shí)別可通俗解釋為通過(guò)計(jì)算機(jī)理解人體語(yǔ)言,無(wú)需直接接觸機(jī)械設(shè)備即可使人類(lèi)和機(jī)器進(jìn)行自然交互[2]。手勢(shì)識(shí)別在人機(jī)交互智能領(lǐng)域起著重要作用,但由于其在相對(duì)復(fù)雜的環(huán)境中處理困難,因此需要探究出更加適宜的方法。

早期大多通過(guò)有線技術(shù)連接計(jì)算機(jī)系統(tǒng)和用戶(hù),從而將用戶(hù)手勢(shì)信息準(zhǔn)確地傳送給識(shí)別系統(tǒng),完成手勢(shì)識(shí)別[3]。如數(shù)據(jù)手套通過(guò)傳感器將諸如用戶(hù)手的位置和方向數(shù)據(jù)信息發(fā)送給計(jì)算機(jī),再通過(guò)機(jī)器學(xué)習(xí)算法進(jìn)行識(shí)別。雖檢測(cè)效果良好,但穿戴過(guò)程給操作者帶來(lái)極大不便且價(jià)格昂貴[4]。此后,數(shù)據(jù)手套被光學(xué)標(biāo)記方法所取代。光學(xué)標(biāo)志放置在人手上,就可將手的位置和變化通過(guò)紅外線傳給系統(tǒng)屏幕。該方法效果良好,但仍需復(fù)雜設(shè)備。雖然外部設(shè)備干預(yù)可以提高手勢(shì)識(shí)別的準(zhǔn)確性和穩(wěn)定性,但無(wú)法實(shí)現(xiàn)手勢(shì)的自然表達(dá)。為此,自然手勢(shì)識(shí)別被針對(duì)視覺(jué)的手勢(shì)識(shí)別取而代之[5]。

許多專(zhuān)家學(xué)者傾向于使用深度學(xué)習(xí)研究手勢(shì)識(shí)別。視覺(jué)手勢(shì)識(shí)別(即識(shí)別自然手勢(shì))可以使用手勢(shì)來(lái)控制或與設(shè)備交互,無(wú)需接觸設(shè)備。由視頻設(shè)備捕獲的手勢(shì)圖像序列通過(guò)計(jì)算機(jī)技術(shù)處理,該過(guò)程可以是相關(guān)的深度學(xué)習(xí)算法經(jīng)過(guò)復(fù)雜網(wǎng)絡(luò)結(jié)構(gòu)層的篩選提煉,獲取高價(jià)值的特征[6]。視覺(jué)手勢(shì)識(shí)別分割易受硬件之類(lèi)的外部環(huán)境影響,導(dǎo)致通常使用的機(jī)器學(xué)習(xí)算法識(shí)別精度偏低。因此,基于深度學(xué)習(xí)的手勢(shì)識(shí)別成為熱門(mén)研究領(lǐng)域[7]。

1 視覺(jué)手勢(shì)識(shí)別與流程

手勢(shì)識(shí)別基本流程如圖1所示。

首先,通過(guò)攝像頭捕獲圖像信息流,之后進(jìn)行預(yù)處理,如過(guò)濾噪聲數(shù)據(jù)(手勢(shì)檢索和分割);然后輸入識(shí)別系統(tǒng),針對(duì)手勢(shì)特征運(yùn)用深度學(xué)習(xí)進(jìn)行特征提取;最后通過(guò)訓(xùn)練完成分類(lèi)算法以及系統(tǒng)定義的人工語(yǔ)法進(jìn)行識(shí)別輸出[8]。

靜態(tài)手勢(shì)和動(dòng)態(tài)手勢(shì)的特征提取和分析過(guò)程不一樣,靜態(tài)手勢(shì)只需通過(guò)各種方法對(duì)圖像進(jìn)行判斷,動(dòng)態(tài)手勢(shì)是一個(gè)變化過(guò)程,是一段時(shí)間內(nèi)的動(dòng)作集合,因此系統(tǒng)需要定義動(dòng)態(tài)手勢(shì)的開(kāi)始和結(jié)束時(shí)間戳。動(dòng)態(tài)手勢(shì)通過(guò)一些手段能夠成為靜態(tài)手勢(shì) [9]。

針對(duì)視覺(jué)的手勢(shì)識(shí)別重點(diǎn)在于圖像處理,手勢(shì)的特征提取直接影響最終的識(shí)別結(jié)果(本文提及的手勢(shì)識(shí)別即針對(duì)視覺(jué)的手勢(shì)識(shí)別)[10]。傳統(tǒng)的針對(duì)視覺(jué)的手勢(shì)識(shí)別包含多種算法,如何提高手勢(shì)識(shí)別的一致性和魯棒性一直是研究重點(diǎn)[11]。

2 相關(guān)技術(shù)及發(fā)展

通過(guò)神經(jīng)網(wǎng)絡(luò)對(duì)手勢(shì)進(jìn)行識(shí)別研究較多,但由于手勢(shì)軌跡的維數(shù)較大導(dǎo)致神經(jīng)網(wǎng)絡(luò)節(jié)點(diǎn)較多,從而使整個(gè)網(wǎng)絡(luò)復(fù)雜計(jì)算量增大[12]。研究發(fā)現(xiàn)通過(guò)深度學(xué)習(xí)算法限制玻爾茲曼機(jī)對(duì)手勢(shì)軌跡進(jìn)行特征提取,進(jìn)而使用神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練識(shí)別,比單純使用神經(jīng)網(wǎng)絡(luò)算法識(shí)別率要高。

深度學(xué)習(xí)作為一種新型的機(jī)器學(xué)習(xí)算法被廣泛研究,有很多深度學(xué)習(xí)模型,如自動(dòng)編碼器、去噪聲自動(dòng)編碼器、卷積神經(jīng)網(wǎng)絡(luò)、深度信念網(wǎng)和限制玻爾茲曼機(jī)等[13]。在ASL數(shù)據(jù)集中,不管是訓(xùn)練集還是測(cè)試集,普通手勢(shì)識(shí)別算法準(zhǔn)確性都不及深度學(xué)習(xí)算法。因?yàn)樯疃饶P湍軌蛴行Ю枚鄬泳W(wǎng)絡(luò),通過(guò)層層抽象的方式深度提取輸入數(shù)據(jù)的深層特征[14]。

本文首先通過(guò)深度學(xué)習(xí)算法對(duì)手勢(shì)軌跡進(jìn)行特征提取,然后對(duì)處理后的軌跡應(yīng)用分類(lèi)算法(如分類(lèi)器softmax)進(jìn)行識(shí)別[15]。

詳細(xì)流程如下:①通過(guò)Kinect采集深度圖像,如MNIST、ASL數(shù)據(jù)集,可壓縮,可加密、輸入;②對(duì)圖像進(jìn)行預(yù)處理,例如噪音過(guò)濾等(手勢(shì)檢索與分割);③通過(guò)深度學(xué)習(xí)算法對(duì)傳入的手勢(shì)數(shù)據(jù)進(jìn)行高價(jià)值特征提取,數(shù)據(jù)特征可用向量等表示;④通過(guò)對(duì)樣本訓(xùn)練獲得分類(lèi)器,然后通過(guò)分類(lèi)器對(duì)提取后的高價(jià)值特征數(shù)據(jù)進(jìn)行分類(lèi)識(shí)別[16];⑤輸出(按要求描述相應(yīng)手勢(shì),通過(guò)相應(yīng)的描述驅(qū)動(dòng)對(duì)應(yīng)程序)。

2.1 特征提取——深度學(xué)習(xí)

特征在手勢(shì)識(shí)別建模過(guò)程中起著十分重要的作用[17]。人手特征分為基于圖像外觀的特征和基于人手模型的特征[18]。基于圖像外觀特征簡(jiǎn)單易操作,基于人手模型特征可以識(shí)別更復(fù)雜的人手動(dòng)作,但要求是深度圖像,最終算法的準(zhǔn)確性由特征良好性決定[19]。手工選擇需要專(zhuān)業(yè)知識(shí)和大量時(shí)間進(jìn)行調(diào)整,十分困難,完全憑借運(yùn)氣和經(jīng)驗(yàn)[20]。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的新領(lǐng)域,深度學(xué)習(xí)構(gòu)建的模型具有多層結(jié)構(gòu),原樣本空間經(jīng)過(guò)對(duì)海量數(shù)據(jù)的訓(xùn)練逐層轉(zhuǎn)換為一個(gè)新的特征空間,從而能學(xué)習(xí)出更有用的特征。這類(lèi)似于人類(lèi)從原始信號(hào)的低級(jí)抽象,逐漸往高級(jí)抽象迭代,并且在高級(jí)抽象層執(zhí)行終極分類(lèi)或預(yù)測(cè),獲取高的準(zhǔn)確性 [21]。

2.1.1 深度學(xué)習(xí)基本思想

2.1.2 深度學(xué)習(xí)訓(xùn)練過(guò)程

(1)采用自下而上的無(wú)監(jiān)督學(xué)習(xí)。①逐層構(gòu)建單層神經(jīng)元;②使用wake-sleep算法對(duì)每一層進(jìn)行調(diào)整,一次僅調(diào)整一層,逐層調(diào)整。這個(gè)過(guò)程可看作是一個(gè)特征學(xué)習(xí)過(guò)程,這是與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)相比最大的不同[22]。

(2)自頂向下的監(jiān)督學(xué)習(xí)。將學(xué)習(xí)獲取的每層參數(shù)作為第一步,在頂部編碼層添加如Logistic回歸、SVM等分類(lèi)器,然后通過(guò)對(duì)已標(biāo)記數(shù)據(jù)的監(jiān)督學(xué)習(xí),使用梯度下降法微調(diào)網(wǎng)絡(luò)參數(shù)[23]。

2.1.3 深度學(xué)習(xí)模型與方法

(1)自動(dòng)編碼器(AutoEncoder)。將input信號(hào)輸入到encoder編碼產(chǎn)生code,即輸入的表示是code,然后通過(guò)decoder解碼,如果輸出信息類(lèi)似于輸入信號(hào)input(理想情況下相同),那么code是可用的[24]。因此,通過(guò)調(diào)整encoder和decoder參數(shù)以最小化重構(gòu)誤差,獲得輸入input信號(hào)的第一個(gè)表示,即code[25]。

(2)稀疏自動(dòng)編碼器(Sparse AutoEncoder)。將[L1]的Regularity約束添加到AutoEncoder上([L1]主要是將每層中的大多數(shù)節(jié)點(diǎn)約束為0,只有少數(shù)不為0),就可以得到Sparse AutoEncoder法[26]。

(3)降噪自動(dòng)編碼器(Denosing AutoEncoder)。在自動(dòng)編碼器基礎(chǔ)上,噪聲添加于訓(xùn)練數(shù)據(jù)中,自動(dòng)編碼器必須通過(guò)學(xué)習(xí)去除該噪聲獲得未被污染的輸入[32]。因此,編碼器通過(guò)學(xué)習(xí)穩(wěn)健表示輸入信號(hào),其泛化能力優(yōu)于普通編碼器。

(4)限制玻爾茲曼機(jī)(Resricted Boltzmann Machine)。假設(shè)相同層中的節(jié)點(diǎn)之間沒(méi)有鏈接,一層是可見(jiàn)層,即輸入數(shù)據(jù)層[v],一層是隱藏層[h]。若假設(shè)所有節(jié)點(diǎn)都是[0,1]隨機(jī)變量節(jié)點(diǎn),全概率分布[pv,h]滿足Boltzmann分布,稱(chēng)為RBM[33]。

(5)深度置信網(wǎng)絡(luò)(Deep Believe Network)。由幾個(gè)RBM結(jié)構(gòu)單元組成,堆棧中每個(gè)RBM單元的可見(jiàn)層神經(jīng)元數(shù)量等于之前RBM單元中隱藏層神經(jīng)元數(shù)量[34]。使用輸入樣本訓(xùn)練第一層RBM單元,并使用輸出訓(xùn)練第二層RBM模型,通過(guò)堆棧增加層使模型性能得以改善。

(6)深度玻爾茲曼機(jī)(Deep Boltzmann Machine)。增加RBM隱藏層中的層數(shù)可以獲得DBM,訓(xùn)練方法是首先使用無(wú)監(jiān)督的預(yù)訓(xùn)練方法獲得初始權(quán)值,然后使用場(chǎng)均值算法,最后再用監(jiān)督方式進(jìn)行微調(diào)[35]。

(7)卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks)。卷積神經(jīng)網(wǎng)絡(luò)具有多層,每層通過(guò)多個(gè)二維平面組成,每個(gè)平面通過(guò)許多獨(dú)立神經(jīng)元組成,它是第一個(gè)成功訓(xùn)練多層網(wǎng)絡(luò)結(jié)構(gòu)的學(xué)習(xí)算法[36]。

2.2 不采用深度學(xué)習(xí)特征提取的手勢(shì)識(shí)別方法

手勢(shì)識(shí)別是通過(guò)分析手勢(shì)的特征判斷手勢(shì)類(lèi)型的過(guò)程[37],特征的優(yōu)秀程度對(duì)手勢(shì)判斷的準(zhǔn)確性有很大影響[38]。常用的手勢(shì)識(shí)別方法有基于模板匹配的方法、基于人工神經(jīng)網(wǎng)絡(luò)的方法和基于隱馬爾科夫模型的方法[39]。上述幾種方法對(duì)比如表1所示。

3 實(shí)驗(yàn)分析

對(duì)特征提取和手勢(shì)分類(lèi)相關(guān)算法的研究和改進(jìn):首先通過(guò)深度學(xué)習(xí)算法進(jìn)行高價(jià)值特征提取,數(shù)據(jù)特征可用向量等表示,然后通過(guò)傳統(tǒng)機(jī)器學(xué)習(xí)分類(lèi)算法進(jìn)行手勢(shì)分類(lèi)[40]。

用于實(shí)驗(yàn)的手勢(shì)圖片中,手勢(shì)通常在復(fù)雜的環(huán)境中,如各種復(fù)雜背景因素、過(guò)亮或過(guò)暗的光、或與采集設(shè)備距離不同[41]。手勢(shì)數(shù)據(jù)大小不確定,太大需壓縮,可通過(guò)H.264算法對(duì)其進(jìn)行壓縮。手勢(shì)數(shù)據(jù)可預(yù)處理,過(guò)濾噪音。實(shí)驗(yàn)數(shù)據(jù)通常是小型MNIST數(shù)據(jù)集和ASL手勢(shì)數(shù)據(jù)集,或者由Kinect在復(fù)雜室內(nèi)背景中直接拍攝RGB手勢(shì)圖像。使用Kinect通過(guò)紅外線發(fā)射與接收獲取深度圖像更好,易于手勢(shì)分割,能提高識(shí)別準(zhǔn)確度[42]。Kinect是微軟2010年推出的體感外設(shè),深度攝像頭獲取人手運(yùn)動(dòng)的視頻信息,接著分割出人手前景。由于深度圖像中的每個(gè)像素點(diǎn)的值對(duì)應(yīng)于攝像頭距離場(chǎng)景中點(diǎn)的深度值,因此容易分割[43]。手部分割方法包括閾值分割、像素點(diǎn)聚類(lèi)、結(jié)合彩色圖像和深度圖像等[44]。要有足夠的訓(xùn)練樣本,以便能訓(xùn)練出高精準(zhǔn)度的分類(lèi)器[45]。

硬件配置:建議處理器主頻達(dá)到雙核2.66GHz。深度數(shù)據(jù)采集輸入設(shè)備[46]: Kinect for XBOX360(用于PC輸入需裝驅(qū)動(dòng))或Kinect for Windows攝像頭。

安全性:建議對(duì)傳輸過(guò)程進(jìn)行加密,并可通過(guò)開(kāi)源加密算法OpenSSL對(duì)壓縮數(shù)據(jù)進(jìn)行加密[47]。

4 應(yīng)用分析

隨著人工智能的不斷發(fā)展,人機(jī)交互對(duì)傳統(tǒng)接觸式交互方式提出了挑戰(zhàn),新一代交互方式將以無(wú)接觸、高效自然的交互為主流[48],目前手勢(shì)交互已成為熱門(mén)話題[49]。手勢(shì)識(shí)別增強(qiáng)了現(xiàn)有的人機(jī)交互模式,實(shí)現(xiàn)更直接、更自然、更和諧的人機(jī)對(duì)話,并將帶來(lái)新的應(yīng)用,如手語(yǔ)識(shí)別[50]。

5 結(jié)語(yǔ)

手勢(shì)識(shí)別研究進(jìn)展對(duì)交互速度的發(fā)展至關(guān)重要,改進(jìn)的手勢(shì)識(shí)別技術(shù)為人機(jī)交互提供一種新的非接觸式交互模式。運(yùn)用深度學(xué)習(xí)通過(guò)多層網(wǎng)絡(luò)結(jié)構(gòu),從Kinect獲取深度圖像,基于深度學(xué)習(xí)解決實(shí)際應(yīng)用中的手勢(shì)識(shí)別高價(jià)值特征提取問(wèn)題,以及用向量等表示數(shù)據(jù)特征問(wèn)題。

目前手勢(shì)識(shí)別研究仍集中在追求高精確度的算法技術(shù)層面,將來(lái)應(yīng)整合心理學(xué)和人體工程學(xué)等研究成果,提高算法性能。

參考文獻(xiàn):

[1] 張雨晨,甘俊英,余飛,等. 基于深度學(xué)習(xí)的應(yīng)急手勢(shì)識(shí)別算法研究[J]. 五邑大學(xué)學(xué)報(bào):自然科學(xué)版, 2018,132(2):57-63.

[2] BOBICK A F, WILSON A D. A state-based approach to the representation and recognition of gesture[J]. IEEE Trans Pattern Analysis & Machine Intelligence,1997,19(12):1325-1337.

[3] KOHLER M. Special topics of gesture recognition applied in intelligent home environments[C].International Gesture Workshop, 1997:285-296.

[4] 常津津,羅兵,楊銳,等. 基于深度學(xué)習(xí)的交警指揮手勢(shì)識(shí)別[J]. 五邑大學(xué)學(xué)報(bào):自然科學(xué)版, 2018,132(2):42-48,70.

[5] JIA P, HU H H, LU T, et al. Head gesture recognition for hands‐free control of an intelligent wheelchair[J]. Industrial Robot An International Journal, 2007, 34(1):60-68.

[6] 張勛, 陳亮, 胡誠(chéng),等. 一種基于深度學(xué)習(xí)的靜態(tài)手勢(shì)實(shí)時(shí)識(shí)別方法[J]. 現(xiàn)代計(jì)算機(jī), 2017(34):8-13.

[7] VILLARREAL M, FRIDMAN EA, AMENGUAL A, et al. The neural substrate of gesture recognition[J]. Neuropsychologia, 2008, 46(9):2371-2382.

[8] FROLOVA D, STERN H, BERMAN S. Most probable longest common subsequence for recognition of gesture character input[J]. IEEE Transactions on Cybernetics, 2013, 43(3):871-880.

[9] 郭雷. 手勢(shì)識(shí)別中手分割算法[J]. 軟件, 2015, 36(4):81-83.

[10] YING W X. Recognition of complex dynamic gesture based on HMM-FNN model[J]. Journal of Software,2008,19(9):2302-2312.

[11] FERRO J M, MARTINS I P, MARIANO G, et al. CT scan correlates of gesture recognition[J]. Neurol Neurosurg Psychiatry, 1983, 46(10):943-952.

[12] 郭迎,吳蘊(yùn)翔. 人工智能背景下的無(wú)人機(jī)手勢(shì)識(shí)別設(shè)計(jì)研究[J]. 科技創(chuàng)新與應(yīng)用, 2018, 242(22):44-45.

[13] TORIGE A, KONO T. Human-interface by recognition of human gesture with image processing-recognition of gesture to specify moving direction[C]. IEEE International Workshop on Robot and Human Communication,1992:105-110.

[14] 桑農(nóng),倪子涵. 復(fù)雜場(chǎng)景下基于R-FCN的手勢(shì)識(shí)別[J]. 華中科技大學(xué)學(xué)報(bào):自然科學(xué)版, 2017(10):54-58.

[15] NAM Y,WOHN N,LEE-KWANG H. Modeling and recognition of hand gesture using colored Petri nets[J]. IEEE Transactions on Systems, Man, and Cybernetics -Part A: Systems and Humans, 2002, 29(5):514-521.

[16] PAULRAJ M P, YAACOB S, DESA H, et al. Extraction of head and hand gesture features for recognition of sign language[C]. IEEE International Conference on Electronic Design,2008:1-6.

[17] 易生, 梁華剛, 茹鋒. 基于多列深度3D卷積神經(jīng)網(wǎng)絡(luò)的手勢(shì)識(shí)別[J]. 計(jì)算機(jī)工程, 2017, 43(8):243-248.

[18] 郭雷. 動(dòng)態(tài)手勢(shì)識(shí)別技術(shù)綜述[J]. 軟件導(dǎo)刊, 2015, 14(7):8-10.

[19] HE G F, PARK J W, KANG S K, et al. Development of gesture recognition-based serious games[C]. IEEE-EMBS International Conference on Biomedical and Health Informatics, 2012:922-925.

[20] FR?HLICH M,WACHSMUTH I. Gesture recognition of the upper limbs — from signal to symbol[C]. International Gesture Workshop on Gesture and Sign Language in Human-Computer Interaction. Springer-Verlag, 1997:173-184.

[21] FR?HLICH M, WACHSMUTH I. Gesture recognition of the upper limbs — from signal to symbol[C]. International Gesture Workshop on Gesture and Sign Language in Human-computer Interaction, 1997:173-184.

[22] RAUTARAY S S, AGRAWAL A. Design of gesture recognition system for dynamic user interface[C]. IEEE International Conference on Technology Enhanced Education, 2012:1-6.

[23] PICKERING C A. The search for a safer driver interface: a review of gesture recognition human machine interface[J]. Computing & Control Engineering Journal, 2005, 16(1):34-40.

[24] OSHITA M, MATSUNAGA T. Automatic learning of gesture recognition model using SOM and SVM[C]. International Symposium on Advances in Visual Computing,2010:751-759.

[25] VO M T, WAIBEL A. Multi-modal HCI:combination of gesture and speech recognition[C]. Human-Computer Interaction, INTERACT ‘93, IFIP TC13 International Conference on Human-Computer Interaction, 1993:69-70.

[26] KAWASHIMA M, SHIMADA A, TANIGUCHI R I. Early recognition of gesture patterns using sparse code of self-organizing map[C]. International Workshop on Advances in Self-Organizing Maps, 2009:116-123.

[27] ZHANG X, CHEN X, ZHAO Z Y, et al. Research on gesture definition and electrode placementin pattern recognition of hand gesture action SEMG[C].International Conference on Medical Biometrics, 2008:33-40.

[28] NAKAYA Y,NAKAKUKI T,HIKITA M,et al. A practical approach for recognition of hand gesture and distinction of its singularity[C].IEEE International Conference on Automation and Logistics, 2010:474-479.

[29] SCHWARTZ R L, BARRETT A M, CRUCIAN G P, et al. Dissociation of gesture and object recognition.[J]. Neurology, 1998, 50(4):1186-1188.

[30] DADGOSTAR F, SARRAFZADEH A, FAN C, et al. Modeling and recognition of gesture signals in 2d space: a comparison of nn and svm approaches[C]. IEEE International Conference on TOOLS with Artificial Intelligence, 2008:701-704.

[31] BHATT J, LOBO N D V, SHAH M, et al. Automatic recognition of baby gesture[C]. IEEE International Conference on TOOLS with Artificial Intelligence, 2003:610-615.

[32] KRIARA L, ALSUP M, CORBELLINI G, et al. RFID shakables:pairing radio-frequency identification tags with the help of gesture recognition[C]. ACM Conference on Emerging NETWORKING Experiments and Technologies, 2013:327-332.

[33] LUíS TARRATACA. The current feasibility of gesture recognition for a smartphone using J2ME[C]. ACM Symposium on Applied Computing, 2009:1642-1649.

[34] RASHID O, AL-HAMADI A, MICHAELIS B. Integration of gesture and posture recognition systems for interpreting dynamic meanings using particle filter[C]. Soft Computing and Pattern Recognition, 2011:47-50.

[35] TORIGE A, KUNO K. Human-interface by recognition of human gesture with image processing-recognition of speed change and rapid reaction on motion change[C]. IEEE International Workshop on Robot and Human Communication. 2002:250-255.

[36] YI Z, WU S H, YUAN L, et al. Applications and recognition of gesture trajectory using HMM[J]. Semiconductor Optoelectronics, 2015, 36(4):650-656.

[37] GEETHA M, MANJUSHA C, UNNIKRISHNAN P, et al. A vision based dynamic gesture recognition of indian sign language on Kinect based depth images[C]. International Conference on Emerging Trends in Communication, Control, Signal Processing & Computing Applications, 2014:1-7.

[38] TAN W, WU C, ZHAO S, et al. Recognition of dynamic hand gesture based on SCHMM model[C]. Control and Decision Conference, 2009:2478-2482.

[39] SHIMADA A, KAWASHIMA M, TANIGUCHI R I. Improvement of early recognition of gesture patterns based on a self-organizing map[J]. Artificial Life & Robotics, 2011, 16(2):198-201.

[40] STAMENOVA V, ALMEIDA Q A, BLACK S E, et al. Hemispheric differences in the production and recognition of gesture errors[J]. Brain & Cognition, 2007, 63(2):198-199.

[41] LI Z, ANTAO T, YANG L. Hand gesture recognition of sEMG based on modified kohonen network[C]. International Conference on Electronics, Communications and Control, 2011:1476-1479.

[42] ZHENG W, ZHANG D. Handbutton: gesture recognition of transceiver-free object by using wireless networks[C].IEEE International Conference on Communications, 2015:6640-6645.

[43] TAO Y, YUAN G E, WANG L. The method of gesture recognition based on moment invariants[J]. Computer Engineering, 2004, 30(18):127-129.

[44] MORIMOTO K, MIYAJIMA C, KITAOKA N, et al. Statistical segmentation and recognition of fingertip trajectories for a gesture interface[C]. International Conference on Multimodal Interfaces. 2007:54-57.

[45] TAN T D, GUO Z M. Research on location and gesture recognition of hand based on binocular stereo-vision[J]. Computer Engineering & Design, 2012, 33(1):259-264.

[46] KO Y. Hash-based early recognition of gesture patterns[J]. Artificial Life & Robotics, 2013, 17(3-4):476-482.

[47] GEETHA M, ASWATHI P V. Dynamic gesture recognition of Indian sign language considering local motion of hand using spatial location of key maximum curvature points[C]. Intelligent Computational Systems. IEEE, 2013:86-91.

[48] CHOI C, AHN J H, BYUN H. Visual recognition of aircraft marshalling signals using gesture phase analysis[C].Intelligent Vehicles Symposium. IEEE, 2008:853-858.

[49] IRTEZA K M, AHSAN S M M, DEB R C. Recognition of hand gesture using hidden Markov model[C]. International Conference on Computer and Information Technology, 2013:150-154.

[50] ZHANG H, WANG Y, DENG C. Application of gesture recognition based on simulated annealing BP neural network[C].International Conference on Electronic and Mechanical Engineering and Information Technology, 2011:178-181.

(責(zé)任編輯:杜能鋼)

猜你喜歡
手勢(shì)識(shí)別特征提取深度學(xué)習(xí)
基于Daubechies(dbN)的飛行器音頻特征提取
Bagging RCSP腦電特征提取算法
基于手勢(shì)識(shí)別的工業(yè)機(jī)器人操作控制方法
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
基于MED和循環(huán)域解調(diào)的多故障特征提取
Walsh變換在滾動(dòng)軸承早期故障特征提取中的應(yīng)用
饶平县| 固始县| 婺源县| 平和县| 浦江县| 隆德县| 宁南县| 北安市| 夹江县| 库伦旗| 临颍县| 陇西县| 铜陵市| 安康市| 阜城县| 泰州市| 烟台市| 太和县| 辽阳市| 兴化市| 瓦房店市| 信阳市| 宁都县| 云霄县| 和平区| 沾益县| 嘉善县| 罗平县| 武夷山市| 长春市| 宁南县| 黔东| 贵溪市| 贞丰县| 临猗县| 双桥区| 吉林省| 龙岩市| 集安市| 诏安县| 鄂托克前旗|