国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于卷積神經(jīng)網(wǎng)絡的動作識別骨架特征研究

2020-11-20 00:29:36仇思宇仇德成趙國營
河西學院學報 2020年5期
關鍵詞:骨架紋理卷積

仇思宇 仇德成 趙國營

(1.武漢數(shù)字工程研究所,湖北 武漢 430200;2.河西學院信息技術與傳媒學院,甘肅 張掖 734000;3.中國人民解放軍32738部隊信息服務室,河南 鄭州 450053)

1 緒論

動作識別在計算機視覺中有重要的作用,并具有廣泛的應用,例如人機交互,視頻監(jiān)視,機器人技術,游戲控制等[1,2].通常,人體可以看作是具有剛性骨骼和鉸接關節(jié)的關節(jié)系統(tǒng),而人體的動作可以表示為骨骼的運動[3].目前,基于低成本的深度傳感器與實時骨架估計算法[4,5],可以提供相對可靠的關節(jié)坐標,基于這些坐標,已經(jīng)開發(fā)出有效的動作識別方法[3,6,7].

2 研究背景

姿勢隨時間的動態(tài)變化可以建模為時間序列問題,這對于連續(xù)的動作識別至關重要[8-10].骨骼關節(jié)坐標可用于表示人類的姿勢及其關于時間的演變.基于手工提取骨架特征[3,11,12]的方法具有依賴算法設計者對骨架和人體骨骼構(gòu)造的先驗知識的缺點,且在不同數(shù)據(jù)集中可能會使模型表現(xiàn)出不同的泛化性能,而基于深度學習技術的方法則可以彌補上述缺點.當前,主要有兩種使用深度學習技術來捕獲骨架序列中的時空信息的方法:循環(huán)神經(jīng)網(wǎng)絡(RNN)和卷積神經(jīng)網(wǎng)絡(CNN).

2.1 卷積神經(jīng)網(wǎng)絡

卷積神經(jīng)網(wǎng)絡直接從骨架序列編碼的紋理圖像中提取信息. Wang P 等的文章中使用關節(jié)軌跡圖(JTM)將每個時間實例的身體聯(lián)合軌跡(位置、運動方向和運動幅度)編碼為HSV圖像[13].Hou Y等的文章提出在圖像中空間信息由位置表示、動態(tài)信息由顏色表示[14].Li C等的文章采用骨架光學光譜(SOS)來編碼動態(tài)時空信息[15],采用關節(jié)距離作為空間特征,并使用顏色條進行顏色編碼.在圖像中,每一行紋理捕獲空間信息,而每一列紋理捕獲時間信息.當前,用于編碼的空間特征相對簡單.

2.2 循環(huán)神經(jīng)網(wǎng)絡

循環(huán)神經(jīng)網(wǎng)絡又稱遞歸神經(jīng)網(wǎng)絡,采用循環(huán)神經(jīng)網(wǎng)絡來從提取的空間骨架特征中捕獲時間信息.由于信息的順序流動,性能很大程度上取決于提取的空間骨架特征的有效性.而且,時間信息很容易過分強調(diào),尤其是在訓練數(shù)據(jù)不足時,容易導致過擬合[13].

3 特征選擇

本文使用的方法如圖1所示,包括五個主要組成部分,即從輸入骨架序列中提取空間特征,關鍵特征選擇,從關鍵特征中進行紋理彩色圖像編碼,卷積神經(jīng)網(wǎng)絡模塊預訓練以及分數(shù)融合的神經(jīng)網(wǎng)絡訓練.

從關節(jié)時空位置提取出來的特征有多種,通過選擇特定的關節(jié)組合提取特征并進行顏色編碼,可以產(chǎn)生多種紋理圖像.卷積神經(jīng)網(wǎng)絡會分別在每種圖像上進行訓練,訓練后的卷積網(wǎng)絡作為特征提取模塊放置在網(wǎng)絡的前端.由兩層全連接層組成的分數(shù)融合模塊作為網(wǎng)絡的后端,以完成最終的動作識別.

圖1 多特征動作識別模型整體結(jié)構(gòu)

3.1 特征提取

本節(jié)研究的空間特征包括在Yang X和Tian YL的文章中介紹的絕對關節(jié)位置J 和相對關節(jié)位置Jr,以及在Zhang S等人的文章中介紹的關節(jié)-關節(jié)距離JJd 、關節(jié)-關節(jié)向量JJv 、關節(jié)-關節(jié)方向JJo 、關節(jié)-線距離JLd 和線-線角LLa[16-18],實驗中使用J 、Jr、JJo、JLd 和LLa 作為姿態(tài)序列每一幀的特征.

通過選擇關鍵關節(jié)和關鍵線的方式可以減少組合數(shù)量來進行特征選擇.關鍵關節(jié)和關鍵線的選擇遵循以下原則:所選特征應包含盡可能多的信息,并且對于視點和動作是不變的.基于運動主要位于骨架末端且通常是局部特征才具有識別力的觀點[17],我們采用Zhang S等人的方法從主要動作執(zhí)行者中選擇39條線,得到612維JLd 特征和741維LLa 特征.

Li C等作者的文章中,彩色紋理圖像被用來編碼空間特征以捕獲動作的時間信息[15].具體而言,圖像中的每一列代表一幀中的空間特征,而每一行代表特定特征的序列.給定具有T 幀的骨架序列,為每幀提取S 維特征,形成的S×T 的特征矩陣編碼為H×W 大小的彩色紋理圖像以作為網(wǎng)絡的輸入.

3.2 網(wǎng)絡結(jié)構(gòu)設定

卷積模塊由多個卷積層和池化層順序組合而成.為防止過擬合,正則化和dropout等方法被應用在神經(jīng)網(wǎng)絡中.

3.3 多特征模塊的分數(shù)融合

本文采用如圖2所示的網(wǎng)絡結(jié)構(gòu)作為卷積模塊.給定一個測試骨架序列,將生成M 種類型的紋理圖像,并使用訓練后的模型識別每種類型的紋理圖像.然后,通過乘法將卷積模塊的輸出(分數(shù))融合為最終分數(shù),這已得到了驗證[19,20].融合過程如下:

其中s 是卷積模塊輸出的分數(shù)向量,k 則代表動作標簽的序號,而arg max(·)是用于找到最大元素的對應序號的函數(shù).

圖2 預處理模塊網(wǎng)絡結(jié)構(gòu)

4 實驗與評估

該模型在MSR Action3D 數(shù)據(jù)集上進行了評估.該數(shù)據(jù)集包含用于動作識別的深度點云和關節(jié)位置信息.它具有20 個不同動作類別的560 個有效樣本,這些樣本是由20 位動作執(zhí)行者執(zhí)行(每組執(zhí)行3次).此數(shù)據(jù)集具有挑戰(zhàn)性,且數(shù)據(jù)量較小,因此不額外劃分驗證集,直接采用測試集作為驗證集.實驗采用跨目標的方法評估模型的準確性:即將50%的動作執(zhí)行者的樣本劃分為測試集,剩余50%的動作執(zhí)行者的樣本劃分為測試集.

表1 模型訓練參數(shù)

4.1 數(shù)據(jù)集與測試方法

實驗環(huán)境是Google公司為深度學習研究者免費提供的Colaboratory服務器.該服務器配備了Tesla T4 GPU,16GB顯存,16GB的內(nèi)存.實驗模型在此環(huán)境下平均每批數(shù)據(jù)僅需計算353毫秒.訓練中使用的模型訓練參數(shù)見表1.

圖3 同一樣本不同特征的圖像編碼結(jié)果

表2 特征提取方法的精確度

表3 不同模型精確度對比

4.2 模型測試結(jié)果

由圖3所展示的不同動作的樣本生成的紋理圖像中可以得出,實驗所選特征是具有辨別力的.

表2列出了各個特征提取方法進行試驗后的結(jié)果,以及分數(shù)融合的結(jié)果.評估的五個特征,對每個特征都使用不同的關節(jié)、線的選擇方法進行了評估.從表2中可以看出,基于單個結(jié)果和融合結(jié)果的比較,JJv 特征是最好的關節(jié)-關節(jié)特征.而JLd 是五種特征中最好的特征,這與Zhang S等人的結(jié)果相吻合.實驗結(jié)果表明,對于此任務,某些關節(jié)存在噪音.其他不同模型精確度對比結(jié)果在表3中,與基于手工特征的方法和基于深度學習的某些方法相比,本文所提出的方法精確度為81.31%,獲得了較好的結(jié)果.

猜你喜歡
骨架紋理卷積
淺談管狀骨架噴涂方法
基于3D-Winograd的快速卷積算法設計及FPGA實現(xiàn)
骨架密度對炭/炭多孔骨架壓力浸滲銅的影響
基于BM3D的復雜紋理區(qū)域圖像去噪
軟件(2020年3期)2020-04-20 01:45:18
從濾波器理解卷積
電子制作(2019年11期)2019-07-04 00:34:38
使用紋理疊加添加藝術畫特效
基于傅里葉域卷積表示的目標跟蹤算法
TEXTURE ON TEXTURE質(zhì)地上的紋理
Coco薇(2017年8期)2017-08-03 15:23:38
消除凹凸紋理有妙招!
Coco薇(2015年5期)2016-03-29 23:22:15
內(nèi)支撐骨架封抽技術在突出煤層瓦斯抽采中的應用
中國煤層氣(2014年3期)2014-08-07 03:07:45
边坝县| 南平市| 天等县| 大足县| 高青县| 新沂市| 吉隆县| 博爱县| 喀喇| 澄迈县| 商洛市| 桃园县| 清流县| 浠水县| 沙洋县| 赫章县| 视频| 石柱| 滦平县| 香港 | 壤塘县| 南召县| 兴文县| 陇西县| 纳雍县| 郓城县| 朝阳区| 平昌县| 南丰县| 弥渡县| 阜南县| 稻城县| 昌黎县| 舟曲县| 上虞市| 思南县| 乳源| 阿图什市| 吕梁市| 化隆| 南郑县|