国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于RGB-D的人臉表情識(shí)別研究

2016-03-24 02:43:59吳會(huì)霞陶青川龔雪友
現(xiàn)代計(jì)算機(jī) 2016年8期
關(guān)鍵詞:識(shí)別率人臉分類器

吳會(huì)霞,陶青川,龔雪友

(四川大學(xué)電子信息學(xué)院,成都 610065)

基于RGB-D的人臉表情識(shí)別研究

吳會(huì)霞,陶青川,龔雪友

(四川大學(xué)電子信息學(xué)院,成都 610065)

針對(duì)二維人臉表情識(shí)別在復(fù)雜光照及光照條件較差時(shí),識(shí)別準(zhǔn)確率較低的問題,提出一種基于RGB-D的融合多分類器的面部表情識(shí)別的算法。該算法首先在圖像的彩色信息(Y、Cr、Q)和深度信息(D)上分別提取其LPQ,Gabor,LBP以及HOG特征信息,并對(duì)提取的高維特征信息做線性降維(PCA)及特征空間轉(zhuǎn)換(LDA),而后用最近鄰分類法得到各表情弱分類器,并用AdaBoost算法權(quán)重分配弱分類器從而生成強(qiáng)分類器,最后用Bayes進(jìn)行多分類器的融合,統(tǒng)計(jì)輸出平均識(shí)別率。在具有復(fù)雜光照條件變化的人臉表情庫CurtinFaces和KinectFaceDB上,該算法平均識(shí)別率最高達(dá)到98.80%。試驗(yàn)結(jié)果表明:比較于單獨(dú)彩色圖像的表情識(shí)別算法,深度信息的融合能夠更加明顯的提升面部表情識(shí)別的識(shí)別率,并且具有一定的應(yīng)用價(jià)值。

表情識(shí)別;RGB-D;深度信息;AdaBoost

0 引言

一直以來在計(jì)算機(jī)視覺領(lǐng)域,人臉表情識(shí)別有著重要的研究意義,在過去的十幾年里,眾多研究學(xué)者為此做出了大量的努力,在二維人臉表情識(shí)別方面取得了一些研究成果[1],涌現(xiàn)了一大批優(yōu)秀的算法。但是由于二維圖像的局限性,在實(shí)際應(yīng)用環(huán)境中當(dāng)某些因素發(fā)生改變時(shí),例如姿態(tài)、光照、遮擋物和面部整形,對(duì)于同一個(gè)人的兩張RGB圖像,這些可變因素可以引起圖像表達(dá)信息的不同,從而導(dǎo)致識(shí)別算法性能降低,很難再有突破性的進(jìn)展。因此,研究學(xué)者開始使用對(duì)光照和姿態(tài)具有魯棒性的三維數(shù)據(jù)進(jìn)行表情識(shí)別。

在BU-3DFE上,Wang等人[2]通過提取原始面部特征,使用LDA分類器進(jìn)行表情識(shí)別,平均識(shí)別率最高達(dá)83.6%;在同樣的表情庫上,Soyel和Demirel[3]采用從面部特征點(diǎn)的三維分布反演得到六個(gè)距離向量,然后通過神經(jīng)網(wǎng)絡(luò)(PNN)分類表情使平均識(shí)別率最高達(dá)到87.8%;在FEEDB上,Mariusz[4]對(duì)數(shù)據(jù)庫使用兩種不同的標(biāo)準(zhǔn)分別進(jìn)行描述,從而創(chuàng)建了兩種不同的格式的RGB-D圖像表達(dá),使表情識(shí)別率達(dá)到90%;在Curtin-Face上,Billy Y.L.Li[5]采用多模態(tài)的稀疏編碼后重建誤差,從而計(jì)算測試圖像與訓(xùn)練圖像的相似度量,并通過Z得分技術(shù)進(jìn)行表情識(shí)別,最終平均識(shí)別率為91.3%。目前,由于用Kinect采集的人臉庫沒有面向公眾使用,所以只有少數(shù)人在表情識(shí)別領(lǐng)域使用深度信息完成了一定程度上的表情識(shí)別。

通過以上的分析,在低質(zhì)量低成本且復(fù)雜光照條件下,為了有效地解決因姿勢、表情變化導(dǎo)致三維表情識(shí)別識(shí)別率較低的問題,提出了一種基于RGB-D的多特征融合的表情識(shí)別算法,首先,為了獲得更全面的表情信息,在提取彩色圖像信息(RGB)的同時(shí),提取圖像深度信息(D),從而在不同條件下保存了更多的面部細(xì)節(jié)信息,使得到的圖像信息能夠提供一個(gè)相對(duì)彈性表示的人臉表情;然后在轉(zhuǎn)換后的色彩空間(YCrQ)及深度信息(D)上分別單獨(dú)提取其LPQ,Gabor,LBP以及HOG特征,并對(duì)提取的高維特征信息做線性降維(PCA)及特征空間轉(zhuǎn)換(LDA),把同一類表情在各分量上提取的單特征均值作為一種表情模板,分別計(jì)算測試樣本到各表情模板的歐氏距離;再利用最近鄰距離比較生成弱分類器,通過AdaBoost權(quán)重分配訓(xùn)練弱分類器形成強(qiáng)分類器,最后用Bayes融合多特征多分類器,統(tǒng)計(jì)得出最終的表情識(shí)別率。本文算法系統(tǒng)框圖如圖1所示。

圖1 算法系統(tǒng)框圖

1 算法分析

采用Kinect得到的圖像數(shù)據(jù)以6 D點(diǎn)云(XYZRGB)形式保存,本文提出的預(yù)處理方法使給定的6 D點(diǎn)云生成RGB圖像和深度圖,RGB圖像提供紋理信息和表面信息,而深度圖提供每個(gè)像素到傳感器的距離,深度信息是每個(gè)像素點(diǎn)到傳感器的距離的表示,用幾何形狀與灰度值表征。預(yù)處理過程如圖2所示[4]。

(1)圖像重建:在給定6D點(diǎn)云上提取第4、5及6通道即R、G、B分量三維重建彩色圖像,并提取第3通道即D分量重建深度圖像。

(2)圖像裁剪:三維重建得到的彩色圖像及深度圖像有480×640個(gè)像素點(diǎn),首先需要手工標(biāo)定左右眼的位置,從而計(jì)算出左右兩眼之間的距離d,再根據(jù)圖3所示的人臉各個(gè)部分比例關(guān)系可以裁剪得到人臉表情區(qū)域,設(shè)左右眼間距離為d,則純表情區(qū)域矩形寬為1.8d,高為2.2d,兩眼分別位于(0.6d,0.4d)、(0.6d,1.4d)處。這樣可以有效地避免頸部和頭發(fā)等區(qū)域的干擾,另一方面也保證了人臉特征位置的一致性,最終合理裁剪得出人臉表情區(qū)域。

圖2 圖像預(yù)處理過程

圖3 臉部特征比例關(guān)系

(3)尺度歸一化:雖然裁剪之后的表情圖像長寬比例一致,但其大小不一,因此需要通過放縮變換將所有的圖像變換為大小一致的圖像,即尺度歸一化。其思想是把尺寸各不相同的人臉圖像變換為統(tǒng)一的標(biāo)準(zhǔn)尺寸圖像以便于人臉特征的提取。基于此,本文采用了速度較快、效果較好的雙線形插值方法[4],將彩色圖像和深度圖像尺度歸一化為64×64大小的圖像。

研究表明,基于彩色信息的面部特征能夠有效降低人臉識(shí)別和表情識(shí)別的錯(cuò)誤率[6-7]。S.M.Lajevardi等人基于R、G、B彩色分量的表情識(shí)別有效地提高了表情識(shí)別率,但卻缺少考慮多種光照條件下表情的變化;Hong Ren Wu等人的研究表明在不同的光照條件變化下基于YCrCb空間下的識(shí)別率要高于RGB色彩空間,且YIQ空間對(duì)彩色信息進(jìn)行編碼后所得的信息冗余最少[8]。根據(jù)以上研究,本文選擇在YCrQ空間提取特征信息[9],且圖像由RGB空間線性轉(zhuǎn)化到Y(jié)CrQ空間的公式如(1)所示:

LPQ是具有圖像模糊不變性的特征算子[11-12],LBP是用來反映圖像區(qū)域信息的特征算子[13-14]。HOG是描述圖像的局部梯度方向特征信息的特征算子[15]。Gabor變換是加Gauss窗的傅里葉變換,Gabor函數(shù)能夠在頻域的不同方向、不同尺度上提取特征信息[16-17]。經(jīng)過預(yù)處理之后的樣本均歸一化為64×64像素大小,然后將彩色圖像和深度圖劃分為8×8的互不重疊的子區(qū)域,然后對(duì)每個(gè)子區(qū)域做窗口大小為5×5的LPQ與LBP變換。把分區(qū)域統(tǒng)計(jì)的LPQ直方圖與LBP直方圖分別串聯(lián)起來,每個(gè)樣本表情即可表示為64×256=16384維列向量。HOG提取特征時(shí),每個(gè)子區(qū)域又包含4個(gè)4×4大小的胞,將其表示為一個(gè)9維的向量,每個(gè)樣本表情圖像即可表示為4×9×64=2304維列向量。Gabor變換時(shí),用40個(gè)濾波器提取的Gabor特征的維數(shù)為40×64×64=163840,經(jīng)下采樣之后得到的樣本特征向量維數(shù)為7840維。

根據(jù)上述算法本文在各分量(YCrQ-D)上,提取LPQ、LBP、HOG和Gabor等16種特征,提取特征示意圖如圖4所示。

人臉表情圖像經(jīng)提取特征后得到的高維度特征,通過主成分分析法(PCA)進(jìn)行線性降維。PCA算法通過計(jì)算LPQ等特征矩陣的最大相關(guān)向量組,即取p個(gè)特征值貢獻(xiàn)率為99%時(shí)對(duì)應(yīng)的特征向量組(p稱為特征維數(shù)),本文中通過在驗(yàn)證集上的相關(guān)實(shí)驗(yàn)分析得到各個(gè)分量在各個(gè)特征下的特征維數(shù)p。然后采用線性鑒別準(zhǔn)則(LDA)將PCA降維后的樣本進(jìn)行空間轉(zhuǎn)換,使投影在子空間的樣本具有高內(nèi)聚且低耦合,從而使樣本數(shù)據(jù)有最好的分類效果。

圖4 各分量特征提取示意圖

實(shí)驗(yàn)中在訓(xùn)練樣本集上對(duì)高維特征向量做PCA和LDA處理,用每類表情平均向量作為模板向量,且對(duì)測試樣本特征向量也做相同的降維處理,并計(jì)算與每類表情模板之間的歐氏距離,最后用最近鄰法得到表情基礎(chǔ)分類結(jié)果。

2 分類器的選擇及分類器融合

研究表明,多分類器融合的表情識(shí)別比單分類器識(shí)別具有更好的性能。本文首先在最近鄰法產(chǎn)生的基礎(chǔ)分類器的基礎(chǔ)上用通過AdaBoost權(quán)重分配弱分類器形成強(qiáng)分類器,最后用Bayes融合多特征多分類器,統(tǒng)計(jì)得出最終的識(shí)別率。

AdaBoost算法通過訓(xùn)練弱分類器迭代分配樣本權(quán)重形成強(qiáng)分類器。AdaBoost算法迭代訓(xùn)練詳細(xì)過程如下:

假設(shè)給定一組樣本(x1,y1),…,(xm,ym),xi∈X,yi∈Y,xi為表情圖像,yi為表情圖像的類別號(hào)。yi∈(1,…,6),m為總的表情數(shù),實(shí)驗(yàn)中首先將每個(gè)樣本的權(quán)重初始化為(3)式:

其中,每次迭代過程中的樣本權(quán)重為Dt,t為訓(xùn)練次數(shù),t=1,…,T。

(1)針對(duì)某一弱分類器可知樣本和相應(yīng)類別號(hào)的對(duì)應(yīng)關(guān)系ht∶X→Y,ht為分類器。

(2)計(jì)算樣本集在當(dāng)前分類器及權(quán)重下的分類錯(cuò)誤率,如果著t>1/2或是t=T-1則跳出迭代:

(3)由(4)式可得到參數(shù)琢t滿足(5)式

(5)得到最終的分類器滿足(6)式:

本文中通過在驗(yàn)證集上的相關(guān)實(shí)驗(yàn)分析各個(gè)分量在各個(gè)特征下取迭代次數(shù)T等于10。

實(shí)驗(yàn)中將AdaBoost生成的強(qiáng)分類器作為貝葉斯分類器的輸入樣本進(jìn)行分類。在進(jìn)行貝葉斯融合之前,先計(jì)算各分類器的先驗(yàn)概率值和條件概率值。首先,本文中假設(shè)各特征屬性相互獨(dú)立,則可以得到各分類器的先驗(yàn)概率;其次,通過在訓(xùn)練樣本集上的訓(xùn)練,得到在每個(gè)分類器下的各個(gè)表情圖像的條件概率密度。最后,要獲得某一樣本的條件概率密度時(shí),運(yùn)用貝葉斯算法計(jì)算以上各分類器的分類結(jié)果,其計(jì)算過程是通過混淆矩陣來實(shí)現(xiàn)的。

3 實(shí)驗(yàn)結(jié)果與分析

CurtinFace人臉庫由52名不同的受試者組成,其中男性42名,女性10名。分別拍攝每位受試者在不同光照、不同表情及不同姿態(tài)下的人臉圖像共5000多張。在本文實(shí)驗(yàn)中,分別選取每個(gè)受試者的7張表情圖像進(jìn)行實(shí)驗(yàn)分析,即7種表情為微笑、驚訝、悲傷、厭惡、生氣、恐懼及中性表情,共計(jì)364張,預(yù)處理后的表情如圖5所示,驗(yàn)證該算法在多種不同條件變化下的識(shí)別性能。

實(shí)驗(yàn)中按照十折交叉驗(yàn)證隨機(jī)選取訓(xùn)練樣本集、驗(yàn)證樣本集與測試樣本集,且在訓(xùn)練樣本集上訓(xùn)練得到實(shí)驗(yàn)相關(guān)參數(shù),通過驗(yàn)證樣本集進(jìn)行驗(yàn)證參數(shù)的有效性,在測試樣本集上測試表情識(shí)別算法的識(shí)別率。

圖5 CurtinFace人臉表情示意圖(a)彩色圖像(b)深度圖像

對(duì)于不同的色彩分量(YCrQ)和深度信息分量(D),實(shí)驗(yàn)中提取的4類特征分別用最近鄰分類法形成的16種弱分類器,各自識(shí)別率如表1所示。

表1 CurtinFaces各分量單特征的識(shí)別率(%)

然后將各分量單特征的基礎(chǔ)分類器用AdaBoost算法形成強(qiáng)分類器,實(shí)驗(yàn)中通過在驗(yàn)證樣本集上驗(yàn)證得到迭代次數(shù)T選取10次識(shí)別效果最好。從而統(tǒng)計(jì)各強(qiáng)分類器的識(shí)別率,如下表2。

表2 AdaBoost算法下各強(qiáng)分類器的識(shí)別率(%)

將用AdaBoost算法得到的每個(gè)特征下的強(qiáng)分類器再用傳統(tǒng)貝葉斯算法進(jìn)行多分類器融合,分別為彩色分量融合(Y+Cr+Q)和彩色分量結(jié)合深度信息分量融合(Y+Cr+Q+D)兩種情況,并加以比較,如圖6所示。

在本文實(shí)驗(yàn)中,我們評(píng)估系統(tǒng)對(duì)面部表情的變化,基于每個(gè)人的一個(gè)RGB-D測試圖像進(jìn)行識(shí)別。上表中列出彩色分量Y、Cr、Q融合以及彩色分量結(jié)合深度信息D的融合,表明深度信息的融合能使算法識(shí)別率得到明顯的改善。識(shí)別精度最好的為HOG特征下的各分類器融合,達(dá)到98.90%的識(shí)別率;而不包含深度信息D的識(shí)別時(shí),可以看到,在Gabor特征下的識(shí)別率僅為84.62%。此外,預(yù)處理過程對(duì)基于RGB-D的表情識(shí)別也起到了至關(guān)重要的作用,且圖像的深度信息對(duì)RGB數(shù)據(jù)有對(duì)稱填充作用[4]。

圖6 CurtinFace庫上多分量融合識(shí)別率

KinectFaceDB[18]由EURECOM研究所用Kinect拍攝獲得,人臉庫由包含52人(其中男性38名,女性14名)組成。在相隔半個(gè)月的兩個(gè)時(shí)間階段,分別采集受試者在不同的光照條件下的不同的面部表情和不同遮擋物下的人臉圖像,由此得到S1樣本和S2樣本集。即在每一階段,拍攝得到中性表情、微笑、張嘴、左側(cè)面、右側(cè)面、遮擋眼睛、遮擋鼻子、用紙遮擋和強(qiáng)光照。因本文實(shí)驗(yàn)需要,只選取其中一部分照片作為實(shí)驗(yàn)圖像,如圖7所示,從左到右依次為中性表情、微笑、張嘴、強(qiáng)光照表情以及每個(gè)表情相對(duì)應(yīng)的深度圖。

圖7 KinectFaceDB人臉庫示例

本文實(shí)驗(yàn)中選取受試者兩個(gè)時(shí)間階段下的面部表情圖像和光照?qǐng)D像共計(jì)416張。參照算法在CurtinFace人臉庫上的處理及實(shí)驗(yàn)步驟,在KinectFaceDB上的實(shí)驗(yàn)結(jié)果如表3、表4及圖8、圖9所示:

表3 KinectFaceDB-S1庫各分量上單特征識(shí)別率(%)

圖8 KinectFaceDB-S1庫上各特征識(shí)別率

表4 KinectFaceDB-S2庫各分量上單特征識(shí)別率(%)

圖9 KinectFaceDB-S2上各特征識(shí)別率

實(shí)驗(yàn)結(jié)果表明:在KinectFaceDB上,彩色信息分量結(jié)合深度信息分量的表情識(shí)別也能有效地改善算法的識(shí)別率,由此也說明了該算法的優(yōu)越性。

據(jù)了解,近幾年使用CurtinFaces和KinectFaceDB進(jìn)行表情識(shí)別相關(guān)的研究較少,各算法之間沒有直接的可比性。下表5中,簡單總結(jié)了一些相關(guān)人臉表情識(shí)別的方法。

表5 現(xiàn)有相關(guān)方法的性能對(duì)比

上表中,UR3D-S采用了面部對(duì)稱性的方法進(jìn)行表情識(shí)別,與本文方法不同之處在于他們使用高分辨率的三維數(shù)據(jù),且在UND+UHD庫上表情識(shí)別的平均識(shí)別率為83.70%。Mian等人在FRGC庫上提出了一種基于2D+3D的表情識(shí)別,使得識(shí)別率達(dá)到95.37%。由此,通過比較可知,本文算法的識(shí)別精度98.90%均優(yōu)于上述方法。

4 結(jié)語

圖像的深度信息是對(duì)三維人臉表情識(shí)別研究和分析的一個(gè)重大突破,可以在一定程度上解決由于光照和姿態(tài)等因素帶來的識(shí)別率較低的問題。本文提出的一種基于RGB-D的融合多分類器的面部表情識(shí)別算法,通過在CurtinFaces和KinectFaceDB人臉庫上的實(shí)驗(yàn)表明,該算法的表情識(shí)別精度明顯高于傳統(tǒng)表情識(shí)別算法。對(duì)于基于深度信息的人臉表情識(shí)別系統(tǒng)的設(shè)計(jì)將是本文下一步的研究工作,從而使系統(tǒng)更具有實(shí)用性。

[1]Sherin Aly,Andrea Trubanova,Lynn Abbott,Susan White,Amira Youssef.A Kinect-based RGBD+Time Dataset for Spontaneous and Non-Spontaneous Facial Expression Recognition.

[2]J.Wang,L.Yin,X.Wei,Y.Sun.3D Facial Expression Recognition Based on Primitive Surface Feature Distribution.Computer Vision Pattern Recognition,2:1399-1406,2006.

[3]Hamit Soyel,Hasan Demirel.3D Facial Expression Recognition with Geometrically Localized Facial Features,23rd International Symposium on ISCIS,2008.

[4]Mariusz Szwoch.On Facial Expressions and Emotions RGB-D Database

[5]Billy Y.L.Li,Ajmal S.Mian,Wanquan Liu,Aneesh Krishna.Using Kinect for Face Recognition Under Varying Poses,Expressions, Illumination and Disguise.

[6]Lee S H,Choijy,Roym,et al.Local Color Vector Binary Patterns from Multichannel Face Images for Face Recognition.IEEE Transactions on Image Processing,2012,21(4):2347-2353.

[7]Lajevardi S M,Wu HR.Facial Expression Recognition in Perceptual Color Space.IEEE Transactions on Image Processing,2012,21(8):3721-3733.

[8]Liu Z,Liu C.Fusion of Complementary Discrete Cosine Features in the YIQ Color Space for Face Recognition.Computer Vision and Image Understanding,2008,111(3):149-262.

[9]Gonzalez R C,Woods R E,Eddins S L.Digital Image Processing using MATLAB.Pearson Education India,2004.

[10]Liu Z,Wu W,Tao Q,et al.Facial Expression Recognition Using a New Image Representation and Multiple Feature Fusion.Intelligent Science and Intelligent Data Engineering.Springer Berlin Heidelberg,2013:441-449.

[11]Ojansivu V,Heikkil.Blur Insensitive Texture Classification Using Local Phase Quantization.Image and Signal Processing 2008:236-243.

[12]Nanni L,Lumini A.Heterogeneous Bag of Features for Object/Scene Recognition.Applied Soft Computing,2013;13(4):2171-2178.

[13]Ojala T,Pietikainen M,Maenpaa T.Multiresolution Gray-Scale and Rotation Invariant Texture Classification with Local Binary Patterns.IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(7):971-987.

[14]Guo Y,Zhao G,Pietikinen M.Discriminative Features for Texture Description.Pattern Recognition,2012,45(10):3834-3843.

[15]Liu H,Xu T,Wang X,et al.Related HOG Features for Human Detection Using Cascaded AdaBoost and SVM Classifiers.Advances in Multimedia Modeling.Springer Berlin Heidelberg,2013:345-355.

[16]Gu W,Xiang C,Venkatesh Y V,et al.Facial Expression Recognition Using Radial Encoding of Local Gabor Features and Classifier Synthesis.Pattern Recognition,2012,45(1):80-91.

[17]Bairagi B K,Chatterjee A,Das S C,et al.Expressions Invariant Face Recognition Using SURF and Gabor Features.2012 Third International Conference on Emerging Applications of Information Technology(EAIT),IEEE,2012:170-173.

[18]Rui Min,Neslihan Kose,Jean-Luc Dugelay,KinectFaceDB:A Kinect Database for Face Recognition,Systems,Man,and Cybernetics: Systems,IEEE Transactions on,vol.44,no.11,pp.1534,1548,Nov.2014,doi:10.1109/TSMC.2014.2331215

[19]G.Passalis,P.Perakis,T.Theoharis,I.Kakadiaris.Using Facial Symmetry to Handle Pose Variations in Real-World 3D Face Recognition.IEEE Trans.on Pattern Anal.and Machine Intel.,33(10):1938-1951,2011.

[20]A.Mian,M.Bennamoun,R.Owens.An Efficient Multimodal 2D-3D Hybrid Approach to Automatic Face Recognition.IEEE Trans. on Pattern Anal.and Machine Intel.,29(11):1927-1943,2007.

Facial Expression Recognition Based on RGB-D

WU Hui-xia,TAO Qing-chuan,GONG Xue-you

(College of Electronic Information,Sichuan University,Chengdu 610065)

For two-dimensional facial expression recognition complex when poor lighting and illumination conditions,a low recognition rate of prob-lem,proposes a facial expression recognition algorithm based on multi-feature RGB-D fusion.Extracts their LPQ,Gabor,LBP and HOG feature information in image color information(Y,Cr,Q)and depth information(D)on,and the extraction of high-dimensional feature in-formation does linear dimensionality reduction(PCA)and feature space conversion(LDA),and then gives each face of weak classifiers nearest neighbor classification,and with AdaBoost algorithm weight distribution of weak classifiers to generate strong classifier,and finally with Bayes multi-classifier fusion,statistical output average recognition rate.With complex changes in lighting conditions and facial ex-pression libraries CurtinFaces KinectFaceDB,the algorithm average recognition rate of up to 98.80%.The results showed that:compared to a separate color image expression recognition algorithm,the fusion depth information can be more significantly improved the recognition rate of facial expression recognition,and has a certain value.

Expression Recognition;RGB-D;Depth Information;AdaBoost

1007-1423(2016)08-0066-07

10.3969/j.issn.1007-1423.2016.08.014

吳會(huì)霞(1993-),女,河北邯鄲市人碩士,研究方向?yàn)橛?jì)算機(jī)應(yīng)用與圖像識(shí)別

2016-01-28

2016-03-05

陶青川(1972-),男,四川南充人,副教授,研究方向?yàn)槟J阶R(shí)別與智能系統(tǒng)、計(jì)算機(jī)應(yīng)用與圖像識(shí)別

龔雪友(1991-),女,四川瀘州人,碩士,研究方向?yàn)殡娮优c通信工程

猜你喜歡
識(shí)別率人臉分類器
有特點(diǎn)的人臉
基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測
基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識(shí)別率的關(guān)系
三國漫——人臉解鎖
提升高速公路MTC二次抓拍車牌識(shí)別率方案研究
BP-GA光照分類器在車道線識(shí)別中的應(yīng)用
電子測試(2018年1期)2018-04-18 11:52:35
加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
高速公路機(jī)電日常維護(hù)中車牌識(shí)別率分析系統(tǒng)的應(yīng)用
馬面部與人臉相似度驚人
崇明县| 贡嘎县| 林甸县| 正镶白旗| 南昌县| 故城县| 军事| 平乐县| 胶南市| 娄烦县| 桂平市| 曲沃县| 莒南县| 河西区| 遂川县| 枣庄市| 吴川市| 云阳县| 浪卡子县| 渭南市| 塔城市| 昌吉市| 建水县| 花莲市| 桐梓县| 象州县| 江门市| 朝阳市| 正蓝旗| 登封市| 申扎县| 教育| 达拉特旗| 天全县| 根河市| 石狮市| 湛江市| 宜城市| 绥滨县| 东乡族自治县| 白城市|