国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于ASM局部定位和特征三角形的列車駕駛員頭部姿態(tài)估計(jì)

2016-05-08 09:31:41王增才王曉錦張萬枝
鐵道學(xué)報(bào) 2016年9期
關(guān)鍵詞:人臉頭部姿態(tài)

趙 磊, 王增才, 王曉錦, 張萬枝

(山東大學(xué) 機(jī)械工程學(xué)院,山東 濟(jì)南 250061)

列車與其他交通方式(如汽車和飛機(jī))相比,安全性較高,但是一旦發(fā)生事故,帶來的人員傷亡和經(jīng)濟(jì)損失是巨大的,而駕駛員注意力不集中占列車事故發(fā)生原因比例最高[1],在列車長時(shí)間高速行駛的時(shí)候,單調(diào)的駕駛環(huán)境非常容易引發(fā)駕駛員的疲勞,因此為了保證駕駛員和旅客的人身安全,對(duì)駕駛員疲勞的識(shí)別是非常有必要的,而頭部姿態(tài)的變化對(duì)駕駛員面部疲勞特征參數(shù)的分析有很大的影響。因此,頭部姿態(tài)估計(jì)是一個(gè)非常重要的檢測(cè)對(duì)象。

目前的頭部姿態(tài)估計(jì)的方法主要分為兩類:基于2D面部特征的估計(jì)和基于3D面部特征估計(jì)。前一種估計(jì)方法主要是建立2D的面部特征與3D的頭部姿態(tài)參數(shù)的數(shù)學(xué)關(guān)系,利用2D面部特征的學(xué)習(xí)方法對(duì)頭部姿態(tài)進(jìn)行估計(jì)。其中比較代表性的是Wu等[2]通過對(duì)面部的5個(gè)特征點(diǎn)進(jìn)行多粒子濾波器跟蹤,通過已精確定位頭部5個(gè)特征點(diǎn)之間的相對(duì)幾何關(guān)系對(duì)頭部姿態(tài)進(jìn)行分析;陳振學(xué)等[3]利用Adaboost算法對(duì)眼睛和嘴巴進(jìn)行和定位,通過分析這3個(gè)點(diǎn)構(gòu)成的特征三角對(duì)頭部姿態(tài)進(jìn)行估計(jì);朱淑亮等[4]借助人臉正面的圖像信息建立人臉特征三角形,詳細(xì)分析了3種頭部姿態(tài);劉志勇和王玨[5]利用流形學(xué)習(xí)中的局部線性嵌入算法計(jì)算頭部姿態(tài)參數(shù);路玉峰等[6]采用非線性核變換的算法分析頭部姿態(tài)參數(shù),取得了較好的精度;張萬枝等[7]采用Adaboost算法對(duì)駕駛員的眼睛進(jìn)行定位,然后在眼睛已定位的基礎(chǔ)上利用H分量確定嘴巴位置,建立面部三角形,根據(jù)三角形的位置變化對(duì)頭部姿態(tài)進(jìn)行估計(jì);劉袁緣等[8]提出了樹結(jié)構(gòu)分層隨機(jī)森林在非約束環(huán)境下的多類頭部姿態(tài)估計(jì),該方法采用一種樹結(jié)構(gòu)分層隨機(jī)森林算法,分層估計(jì)多自由度下的頭部姿態(tài),實(shí)驗(yàn)結(jié)果表明所提算法在不同質(zhì)量的圖像上都有很好的估計(jì)準(zhǔn)確率和魯棒性?;?D的頭部姿態(tài)估計(jì)主要是在多個(gè)視角下采集多幅圖像建立三維頭部模型,并以此分析頭部姿態(tài)。其中代表性的有:LI[9]利用多個(gè)攝像頭對(duì)面部進(jìn)行檢測(cè),對(duì)頭部進(jìn)行三維重建,根據(jù)每個(gè)人頭部的3D姿態(tài)改變和紋理參數(shù)進(jìn)行姿態(tài)估計(jì);Rodham[10]采用激光掃描儀得到一個(gè)三維數(shù)據(jù)學(xué)習(xí)形變模型,根據(jù)該模型學(xué)習(xí)功能對(duì)頭部旋轉(zhuǎn)參數(shù)進(jìn)行分析;Fanelli G等[11]將隨機(jī)森林法用于3D圖像的頭部姿態(tài)識(shí)別,取得了良好的效果;張偉[12]采用Candide模型實(shí)現(xiàn)了駕駛員頭部的個(gè)體三維重建,并通過三維模型配準(zhǔn)完成了駕駛員初始姿態(tài)角的確定。

本文采用基于2D的面部特征三角形進(jìn)行頭部姿態(tài)估計(jì)。之前的研究方法采用的是以眼睛和嘴巴作為面部特征三角形的頂點(diǎn),但是在嘴巴狀態(tài)改變的情況下,嘴巴定位不準(zhǔn),導(dǎo)致頭部參數(shù)估計(jì)誤差較大,其定位效果如圖1所示;在對(duì)三角形建模之后,沒有提出在線初始化面部三角形的基準(zhǔn)參數(shù)的方法,即頭部各個(gè)方向轉(zhuǎn)角都為0的面部三角形參數(shù),導(dǎo)致該算法無法在線自動(dòng)估計(jì)不同駕駛員的頭部姿態(tài)。

本文提出對(duì)嘴部變化相對(duì)穩(wěn)定的鼻子和雙眼作為定位特征點(diǎn)構(gòu)建三角形進(jìn)行頭部姿態(tài)分析的頭部姿態(tài)估計(jì)方法。首先采用基于主動(dòng)形狀模型(ASM)的局部定位算法對(duì)眼睛和鼻子進(jìn)行定位;然后建立基于左眼、右眼和鼻子下部的定位點(diǎn)來構(gòu)建面部特征三角形,采用自檢測(cè)方法對(duì)面部特征三角型進(jìn)行初始化,構(gòu)建正面三角形基準(zhǔn)參數(shù),對(duì)頭部姿態(tài)與關(guān)鍵點(diǎn)位置的關(guān)系進(jìn)行建模,根據(jù)特征點(diǎn)的位置變化進(jìn)行頭部姿態(tài)估計(jì)。最后對(duì)基于眼睛和鼻子作為特征點(diǎn)的面部特征三角形分析方法的性能進(jìn)行實(shí)驗(yàn)檢測(cè)。

1 基于ASM模型的面部特征局部定位

1.1 ASM模型算法

基于點(diǎn)分布模型的ASM算法通過一組特征點(diǎn)描述目標(biāo)的形狀。ASM算法由全局形狀模型和局部紋理模型組成,在檢測(cè)過程中交替作用,使得模型定位形狀逐步收斂[13],通過模型對(duì)人臉進(jìn)行定位結(jié)果見圖2。

全局形狀模型訓(xùn)練樣本是對(duì)大量人臉圖像進(jìn)行手工標(biāo)記,然后通過主成分分析(PCA)得到。本文選取58個(gè)特征點(diǎn)模擬人臉。

根據(jù)上文的設(shè)置,可用式(1)體現(xiàn)的向量來表示人臉的形狀。

x=(x1,y1,x2,y2,…,x58,y58)

( 1 )

( 2 )

訓(xùn)練樣本的協(xié)方差矩陣W為

( 3 )

W的特征向量為

Wpk=λkpk

( 4 )

式中:λk是W的特征值;pk是λk特征值對(duì)應(yīng)的特征向量。

根據(jù)PCA理論,特征值λk越大對(duì)應(yīng)的特征向量pk的變化對(duì)整體模型越重要。選取前M個(gè)特征值對(duì)應(yīng)的特征向量構(gòu)成新的矩陣P,其中

P=[p1,p2,…,pM]λ1>λ2>…>λM

( 5 )

則人臉形狀均可以在新的主軸系下為

( 6 )

式中:b=(b1,b2,…,bM)T是權(quán)值向量。

局部紋理模型是在全局形狀模型中每個(gè)特征點(diǎn)的法線方向上采樣像素點(diǎn)進(jìn)行統(tǒng)計(jì)分析得到見圖3。

設(shè)定訓(xùn)練樣本中的一個(gè)特征點(diǎn)位Hj(j=1,2,…,58)的采樣向量(采樣的點(diǎn)數(shù)為k)為

Hj=xj1,yj1,xj2,yj2,…,xjk,yjkT

( 7 )

( 8 )

選用大于200個(gè)訓(xùn)練樣本進(jìn)行訓(xùn)練,訓(xùn)練完成后可用于對(duì)駕駛員面部區(qū)域進(jìn)行的定位。

1.2 基于圖像增強(qiáng)的ASM模型局部定位算法

通過實(shí)際的實(shí)驗(yàn)和前人的總結(jié)[12]在駕駛環(huán)境光照變化或者駕駛員頭部姿態(tài)和面部表情變化較大的情況下時(shí),采用ASM進(jìn)行面部特征的全局定位會(huì)產(chǎn)生較大的偏差,魯棒性差;因此需要從光照和頭部姿態(tài)兩個(gè)方面解決面部定位的精度問題。

針對(duì)駕駛室光線的變化,本文引進(jìn)了基于Retinex理論的車載視覺系統(tǒng)圖像增強(qiáng)算法[14]。首先將圖像從RGB彩色空間轉(zhuǎn)換到Y(jié)CbCr彩色空間,提取Y亮度分量低頻部分,采用多尺度Retinex(MSR)算法對(duì)Y分量低頻部分進(jìn)行光照補(bǔ)償,然后經(jīng)圖像濾波后,將Y分量與原來的Cb、Cr分量進(jìn)行逆變換,生成新圖像,并對(duì)像素值平移和壓縮,將新圖像從YCbCr彩色空間轉(zhuǎn)換到RGB彩色空間,得最終圖像。其增強(qiáng)效果見圖4。

采用Adoboost算法[15]對(duì)人臉進(jìn)行粗略定位,在獲得人臉概略位置的基礎(chǔ)上對(duì)人臉進(jìn)行全局ASM配準(zhǔn),進(jìn)一步對(duì)人臉特征的位置進(jìn)行定位。前人研究發(fā)現(xiàn)[14],在頭部姿態(tài)和表情改變的時(shí)候,面部輪廓運(yùn)動(dòng)范圍較大,所以當(dāng)頭部姿態(tài)改變較大時(shí),外輪廓的定位點(diǎn)定位不準(zhǔn),發(fā)生偏移現(xiàn)象,但眼睛周圍構(gòu)成的局部面部區(qū)域相對(duì)于整個(gè)面部有很好的聚類性,且在駕駛員姿態(tài)變化時(shí),這一區(qū)域的ASM模型相對(duì)穩(wěn)定。從圖5可見,在不同的頭部姿態(tài)下,眼睛和鼻子區(qū)域相對(duì)于對(duì)其他特征(嘴巴和外輪廓),定位的魯棒性較強(qiáng),雖然在頭部姿態(tài)變化較大的情況下仍然有少量誤差,但與其他特征相比偏移量較小。因此在全局ASM模型定位的基礎(chǔ)上,通過計(jì)算模型上點(diǎn)的坐標(biāo)提取了眼睛和鼻子所在位置的區(qū)域,在此區(qū)域內(nèi)分別對(duì)眼睛和鼻子進(jìn)行由粗略到精確的策略來進(jìn)行局部二次定位。

首先根據(jù)ASM模型中眼部點(diǎn)的位置來提取眼睛區(qū)域,通過擴(kuò)展的Haar特征,采用級(jí)聯(lián)的方式,重復(fù)采用Adaboost方法訓(xùn)練眼睛分類器,在該區(qū)域中進(jìn)行眼睛定位。眼睛的訓(xùn)練樣本選擇以瞳孔為中心、眉毛為上界外接矩形為眼睛訓(xùn)練樣本,樣本來自CMU等多個(gè)人臉庫。經(jīng)過歸一化后圖像大小為25×25像素,共計(jì)4 862幀[7]。眼睛區(qū)域提取后進(jìn)行二次定位的方法可進(jìn)一步縮小函數(shù)的搜索區(qū)域,從而提高了眼睛提取精度,其提取區(qū)域和定位結(jié)果見圖6。

在實(shí)驗(yàn)中Adaboost訓(xùn)練鼻子的分類器定位的準(zhǔn)確性不高,而通常情況下鼻子下方兩個(gè)鼻孔的灰度值與周圍的灰度值相差很大,因此可以根據(jù)該特點(diǎn)進(jìn)行定位。首先根據(jù)ASM模型提取鼻子區(qū)域,提取結(jié)果見圖7(a);然后對(duì)鼻孔區(qū)域采用積分投影法求其兩鼻孔區(qū)域的重心,再對(duì)兩個(gè)鼻孔的重心求平均值可定位鼻子下端,鼻子定位結(jié)果見圖7(b)。

最終定位結(jié)果見圖8。從圖8可見,基于圖像增強(qiáng)的ASM局部定位算法魯棒性較好;與以眼睛和嘴巴作為面部三角形的定位點(diǎn)相比,嘴巴大幅度張開和閉合的時(shí)候依然能夠保證定位的精度,不會(huì)在頭部姿勢(shì)不改變的前提下,隨著嘴巴大小改變而使鼻子定位點(diǎn)發(fā)生位移,造成對(duì)頭部姿態(tài)估計(jì)精度不高。

2 基于面部特征三角形的頭部姿態(tài)分析

2.1 特征三角形的建立

駕駛員頭部運(yùn)動(dòng)時(shí)的姿態(tài)分析主要是基于3個(gè)坐標(biāo)軸的旋轉(zhuǎn)角度,如頭部的上下、左右旋轉(zhuǎn)以及偏頭等,駕駛員的視頻圖像中,面部的各個(gè)部位的位置隨著頭部姿勢(shì)的變化而改變[7],其中眼睛和鼻子是面部在不同表情下相對(duì)位置最穩(wěn)定的點(diǎn),因此只要定位出兩只眼睛和鼻子底部的位置,就可以對(duì)頭部姿態(tài)準(zhǔn)確估計(jì)。圖9中設(shè)圖像的垂直方向?yàn)閦軸,水平方向?yàn)閤軸,垂直圖像方向?yàn)閥軸;O(x1,y1)、P(x2,y2)和Q(x3,y3)分別為左眼、右眼和鼻子的定位點(diǎn),其中這3個(gè)點(diǎn)的坐標(biāo)值是相對(duì)于圖像的坐標(biāo)原點(diǎn)計(jì)算。而三角形每個(gè)點(diǎn)對(duì)邊的長度分別由o、p和q表示。

根據(jù)上圖和人臉的特征可以得出,當(dāng)人臉正對(duì)圖像的時(shí)候,該面部三角形為等腰三角形;當(dāng)頭部發(fā)生擺動(dòng)、點(diǎn)頭和偏頭時(shí)面部的3個(gè)特征點(diǎn)在圖像中的相對(duì)位置發(fā)生變化,從而引起三角形的幾何形狀發(fā)生變化,因此通過分析面部特征三角形的變化可以推算出當(dāng)前的頭部姿勢(shì)。

根據(jù)三角形3個(gè)特征點(diǎn)的位置坐標(biāo)可以得出ΔOPQ的3個(gè)邊的邊長為

( 9 )

(10)

(11)

而根據(jù)三角形內(nèi)角定理可得,3個(gè)頂點(diǎn)O、P、Q對(duì)應(yīng)的三角形內(nèi)角∠O、∠P、∠Q大小分別為

(12)

(13)

∠Q=180°-∠P-∠O

(14)

以q為底邊ΔOPQ的高h(yuǎn)為

(15)

2.2 面部特征三角形初始化

與人臉特征點(diǎn)檢測(cè)技術(shù)的其他應(yīng)用不同,該算法需要駕駛員頭部各個(gè)方向的旋轉(zhuǎn)角為0的面部三角形作為頭部姿態(tài)估計(jì)的基準(zhǔn),而且駕駛員面部特征不同也導(dǎo)致了其正面的特征三角形的參數(shù)也各不相同。因此,在分析駕駛員頭部姿態(tài)與面部三角形的關(guān)系之前,要對(duì)面部三角形做初始化處理,即找到駕駛員頭部3個(gè)方向旋轉(zhuǎn)角度為0時(shí)的面部特征三角形,以該三角形的參數(shù)作為基準(zhǔn),將其他頭部狀態(tài)的面部三角形與之比較,估計(jì)其姿態(tài)參數(shù)。

在行車過程中,可采用自檢測(cè)初始化方法對(duì)駕駛員正面特征三角形進(jìn)行基準(zhǔn)識(shí)別,即在駕駛員駕駛過程中前20 min對(duì)駕駛員的面部三角形進(jìn)行檢測(cè)。當(dāng)駕駛員轉(zhuǎn)頭角度為0時(shí),面部三角形∠O=∠P,即為等腰三角形。當(dāng)駕駛員頭部上下運(yùn)動(dòng)角度為0時(shí),面部特征三角形中以q為底的三角形的高h(yuǎn)是在自檢測(cè)期間的最大值。當(dāng)駕駛員頭部左右擺動(dòng)度數(shù)為0的時(shí)候,三角形的高h(yuǎn)與圖像y軸的角度為0,具體計(jì)算方法在后說明。在初始化時(shí)間內(nèi)的自檢測(cè)過程中,檢測(cè)每一幀圖像的面部三角形參數(shù)并存儲(chǔ),對(duì)以上的條件按照一定的閾值進(jìn)行分析,如果達(dá)到上述3個(gè)條件中的1個(gè)條件時(shí),即可認(rèn)為該條件符合的參數(shù)為正面三角形初始參數(shù),當(dāng)以上3個(gè)條件都滿足后,面部特征三角形的初始化完成。

2.3 頭部姿態(tài)與面部特征三角形建模分析

駕駛員頭部的轉(zhuǎn)動(dòng)即繞著豎直方向(z軸)轉(zhuǎn)動(dòng),見圖10,面部三角形投影到視頻圖像上(x-z平面)可以發(fā)現(xiàn)其形狀已經(jīng)發(fā)生變化,不再是等腰三角形。

從圖8可見,頭部偏轉(zhuǎn)方向所對(duì)應(yīng)的特征點(diǎn)的角變大,當(dāng)頭部向左運(yùn)動(dòng)時(shí)∠O>∠P,反之∠P>∠O;根據(jù)頭部旋轉(zhuǎn)原理頭部的轉(zhuǎn)動(dòng)的角度為

(16)

式中:q′為轉(zhuǎn)頭時(shí)兩眼之間的距離。轉(zhuǎn)頭時(shí)三角形以邊q為底的高h(yuǎn)不變。

駕駛員低頭與抬頭的時(shí)候是頭部繞著x軸轉(zhuǎn)動(dòng),見圖11。此時(shí)將面部三角形投影到x-z平面,可以看出三角形中兩個(gè)鼻子和左眼及右眼的邊長同時(shí)增大(減小),同時(shí)對(duì)應(yīng)的以邊q為底的高h(yuǎn)發(fā)生變化。

根據(jù)點(diǎn)頭(抬頭)原理,點(diǎn)頭(抬頭)角度α為

(17)

偏頭時(shí)頭部繞y軸旋轉(zhuǎn),見圖12,此時(shí)面部特征三角形的形狀和邊長不發(fā)生變化。但q不再平行于x軸,而是旋轉(zhuǎn)一定的角度。

設(shè)頭部擺動(dòng)角度為γ,則擺動(dòng)角度與面部三角形的偏轉(zhuǎn)角度相同,當(dāng)y2>y3頭部左擺,擺動(dòng)角為

(18)

當(dāng)y2

(19)

3 實(shí)驗(yàn)與討論

3.1 特征定位性能檢測(cè)

為了驗(yàn)證本文面部特征定位方法的準(zhǔn)確性,從IMM_FACE人臉數(shù)據(jù)庫中提取30位不同年齡、表情和頭部姿態(tài)的人臉圖像一共150張,其中分別采用文獻(xiàn)[7]算法和本文算法對(duì)面部特征點(diǎn)進(jìn)行定位。實(shí)驗(yàn)平臺(tái)為Windows7,處理器為Intel Core i3-3220,主頻為3.30 GHz,內(nèi)存為4 GB,軟件為OpenCV 2.4.3,其定位結(jié)果見表1。實(shí)驗(yàn)結(jié)果顯示:其中誤檢率表示在檢測(cè)中檢測(cè)出不相關(guān)特征情況所占的比例。本文算法與文獻(xiàn)[7]的定位方法相比,在人不同嘴部變化的條件下,檢測(cè)率和檢測(cè)精度都高于文獻(xiàn)[7]。

表1 面部特征檢測(cè)結(jié)果對(duì)比

3.2 頭部姿態(tài)估計(jì)性能檢測(cè)

頭部姿態(tài)估計(jì)的試驗(yàn)方法見圖13。將角尺用綁帶固定在被測(cè)試者的頭部,并對(duì)其初始位置進(jìn)行校正。分別利用固定的3個(gè)攝像機(jī)采集被測(cè)試者不同頭部姿態(tài)和不同嘴巴狀態(tài)的正面,側(cè)面和頭頂部的圖像,采用手工標(biāo)定角尺位置和角度點(diǎn)來估計(jì)頭部的實(shí)際姿態(tài)。

計(jì)算正面圖像上部的角尺旋轉(zhuǎn)角度可以得到偏頭角度,見圖13(a);計(jì)算側(cè)面頭部角尺旋轉(zhuǎn)角度可以得到點(diǎn)頭角度,見圖13(b);計(jì)算頭頂部方向的角尺旋轉(zhuǎn)角度可以得到轉(zhuǎn)頭角度,見圖13(c)。本文頭部參數(shù)約定向上抬頭、向左轉(zhuǎn)和向右偏頭的角度值為正值,向下點(diǎn)頭、向右偏頭和向右偏頭的角度值均為負(fù)值。采集被測(cè)試者5種頭部姿態(tài),不同下嘴巴狀態(tài)的圖像共10張,每種頭部姿態(tài)的圖像兩張;然后采用本文方法和文獻(xiàn)[7]方法對(duì)圖像中被實(shí)驗(yàn)者的頭部姿態(tài)進(jìn)行估計(jì),圖14為實(shí)驗(yàn)錄像中提取的不同嘴部狀態(tài)下的部分姿態(tài)的正面圖像,面部特征參數(shù)檢測(cè)結(jié)果如表2所示。其中圖14(a)、14(c)、14(d)、14(e)、14(g)和14(i)分別為嘴巴閉合時(shí)的正面,頭部姿態(tài)圖像,圖14(b)、14(d)、14(f)、14(h)和14(j)分別為嘴巴張開時(shí)頭部姿態(tài)圖像,其頭部姿態(tài)分別與圖14(a)、14(c)、14(e)、14(g)和14(i)相同。

表2 頭部姿態(tài)值 (°)

根據(jù)圖14和表2可見:本文方法在不同頭部姿態(tài)的檢測(cè)結(jié)果與圖中的頭部姿態(tài)實(shí)際測(cè)量值基本一致,在相同的頭部姿態(tài)條件下,本文方法在嘴巴不同狀態(tài)情況下的姿態(tài)估計(jì)的誤差基本在3°以內(nèi)。文獻(xiàn)[7]方法和本文方法相比,在轉(zhuǎn)頭和偏頭角度估計(jì)的精度基本相同,但是文獻(xiàn)[7]的方法由于嘴巴形狀變化,嘴巴位置定位不穩(wěn)定,導(dǎo)致定位精度不高,從而影響了點(diǎn)頭角度的檢測(cè)準(zhǔn)確性,且同樣頭部姿態(tài)情況下,嘴巴狀態(tài)不同時(shí),點(diǎn)頭角度差別較大;如圖14(e)和圖14(f)的點(diǎn)頭估計(jì)值結(jié)果可以看出,估計(jì)值與實(shí)際測(cè)量值誤差較大,且當(dāng)嘴巴張開時(shí)h值增大,導(dǎo)致點(diǎn)頭角度值與實(shí)際值相比誤差明顯。通過上述比較,本文方法對(duì)頭部姿態(tài)角度的計(jì)算有明顯的優(yōu)勢(shì),能夠?qū)Σ煌彀蜖顟B(tài)下的駕駛員的頭部姿態(tài)進(jìn)行估計(jì)。

4 結(jié)論

本文提出一種新的基于ASM局部定位和人臉特征三角形的駕駛員頭部姿態(tài)估計(jì)方法。該方法采用了基于Retinex理論圖像增強(qiáng)算法去除光照影響;利用ASM算法進(jìn)行面部定位,根據(jù)定位參數(shù)提取眼睛和鼻子作為局部定位區(qū)域,接著分別對(duì)眼睛和鼻子進(jìn)行定位,提取特征點(diǎn)并構(gòu)建面部特征三角形;然后采用自檢測(cè)的方法建立面部三角形初始化參數(shù),建立了頭部姿態(tài)和面部三角形的數(shù)學(xué)關(guān)系模型,根據(jù)三角形的位置變化進(jìn)行頭部姿態(tài)估計(jì);最后對(duì)實(shí)驗(yàn)樣本進(jìn)行頭部姿態(tài)分析。實(shí)驗(yàn)表明,在一定的條件下,該方法定位性能較好,且由于眼睛和鼻子在人嘴巴狀態(tài)變化時(shí)的位置比較穩(wěn)定,因此以鼻子和眼睛為特征點(diǎn)的面部三角形能實(shí)現(xiàn)不同嘴巴大小情況下的估計(jì),可以滿足列車駕駛員在不同狀態(tài)下頭部姿態(tài)的監(jiān)控。頭部姿態(tài)估計(jì)在實(shí)際應(yīng)用中除了不同駕駛員特點(diǎn)和光照條件改變外,還有在駕駛過程中駕駛員頭部轉(zhuǎn)角過大導(dǎo)致無法檢測(cè)面部特征和手部遮擋等影響因素本文沒有考慮。這些因素也是將來主要的研究方向。

參考文獻(xiàn):

[1] 李強(qiáng). 基于PERCLOS的列車司機(jī)駕駛疲勞研究[D].北京:北京交通大學(xué),2014.

[2] WU Junwen, TRIVEDI M M. A Two-state Head Pose Estimation Framework and Evaluation[J].Pattern Recognition,2008,41(3):1 138-1 158.

[3] 陳振學(xué),常發(fā)亮,劉春生,等.基于Adaboost算法和人臉特征三角形的姿態(tài)參數(shù)估計(jì)[J].武漢大學(xué)學(xué)報(bào)·信息科學(xué)版,2011,36(10):1 164-1 168.

CHEN Zhenxue, CHANG Faliang, LIU Chunsheng. Pose Parameters Estimate Based on Adaboost Algorithm and Facial Feature Triangle[J]. Geomatics and Information Science of Wuhan University,2011,36(10):1 164-1 168.

[4] 朱淑亮, 王增才, 王樹梁, 等. 頭部多角度的眼睛定位與狀態(tài)分析[J]. 重慶大學(xué)學(xué)報(bào), 2010, 33(11): 20-26.

ZHU Shuliang, WANG Zengcai, WANG Shuliang, et al. Eye Localization and State Analysis of Head Multi-position in Color Image[J]. Journal of Chongqing University, 2010, 33(11): 20-26.

[5] 劉志勇, 王玨. 流行學(xué)習(xí)方法及其在頭部姿勢(shì)估計(jì)中的應(yīng)用[J]. 貴州大學(xué)學(xué)報(bào)(自然科學(xué)版),2010,27(4): 63-66.

LIU Zhiyong, WANG Jue. Manifold Learning and Its Application on Head Pose Estimation[J]. Journal of Guizhou University:Natural Sciences,2010,27(4): 63-66.

[6] 路玉峰, 王增才, 李學(xué)勇. 基于核主元分析的頭部姿勢(shì)估計(jì)[J]. 光電工程, 2008, 35(8): 63-66.

LU Yufeng, WANG Zengcai, LI Xueyong. Head Pose Estimation Based on Kernel Principal Component Analysis[J]. Opto-Electronic Engineering, 2008, 35(8): 63-66.

[7] 張萬枝, 王增才, 基于面部特征三角形的機(jī)車駕駛員頭部姿態(tài)參數(shù)估計(jì)[J].鐵道學(xué)報(bào), 2013, 35(11): 39-44.

ZHANG Wanzhi, WANG Zengcai. Estimation of Pose Parameters of Vehicle Drivers Based on Facial Feature Triangle[J]. Journal of The China Railway Society, 2014, 35(11): 39-44.

[8] 劉袁緣, 陳靚影, 余侃,等. 基于數(shù)結(jié)構(gòu)分層隨機(jī)森林在非約束環(huán)境下的頭部姿態(tài)估計(jì)[J]. 電子與信息學(xué)報(bào), 2015, 37(3): 544-551.

LIU Yuanyuan,CHEN Liangying, YU kan, et al. Head Pose Estimation Based on Tree-structure Cascaded Random Forests in Unconstrained Environment[J]. Journal of Electronics & Information Technology,2015,37(3):544-551.

[9] LI Yongming, GONG Shaogang, HEATHER L. Recognizing Trajectories of Facial Identities Using Kernel Discriminate Analysis[J].Image and Vision Computing, 2008,21(13-14):1 077-1 086.

[10] ROMDHANI S, BLANZ V, VETTER T. Face Identification by Fitting 3D Morphable Model Using Linear Shape and Texture Function[C]// Proceedings of 2002 European Conference on Computer Vision (ECCV’02). London, UK:Spring-Verlag, 2002: 3-19.

[11] FANELLI G, GALL J, VAN G L. Real Time Head Pose Estimation with Random Regression Forests[C]// Proceedings of 24th IEEE Conference on Computer Vision and Pattern Recognition(CVPR).New York: IEEE, 2011: 617-624.

[12] 張偉. 基于機(jī)器視覺的駕駛?cè)似跔顟B(tài)識(shí)別關(guān)鍵問題研究[D].北京:清華大學(xué),2011.

[13] COOTES T F, TWINING C J, BABALOLA K O, et al. Diffeomorphic Statistical Shape Models[J]. Image and Vision Computing, 2008, 26(3): 326-332.

[14] 張萬枝, 王增才, 李云霞,等. 駕駛員疲勞檢測(cè)中的彩色圖像增強(qiáng)算法[J]. 光電子·激光, 2012, 23(8):1 545-1 549.

ZHANG Wanzhi, WANG Zengcai, LI Yunxia, et al. An Algorithm of Color Image Enhancement for Driver Fatigue Detection[J]. Journal of Optoelectronics Laster, 2012, 23(8):1 545-1 549.

[15] VIOLA P, JONES M J. Rapid Object Detection Using a Boosted Cascade of Simple Features[C]// Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE,2001:511-518.

猜你喜歡
人臉頭部姿態(tài)
有特點(diǎn)的人臉
頭部按摩治療老伴失憶
火箭的頭部為什么是圓鈍形?
軍事文摘(2020年22期)2021-01-04 02:16:38
攀爬的姿態(tài)
三國漫——人臉解鎖
全新一代宋的新姿態(tài)
汽車觀察(2018年9期)2018-10-23 05:46:40
跑與走的姿態(tài)
中國自行車(2018年8期)2018-09-26 06:53:44
自適應(yīng)統(tǒng)計(jì)迭代重建算法在頭部低劑量CT掃描中的應(yīng)用
馬面部與人臉相似度驚人
長得象人臉的十種動(dòng)物
奇聞怪事(2014年5期)2014-05-13 21:43:01
西华县| 得荣县| 荆州市| 新乐市| 改则县| 河北省| 资中县| 永吉县| 盈江县| 沈阳市| 米脂县| 伊春市| 连南| 胶南市| 桓仁| 南京市| 大竹县| 邳州市| 讷河市| 新蔡县| 孟州市| 师宗县| 迭部县| 阿克苏市| 北京市| 曲靖市| 炉霍县| 海淀区| 十堰市| 沧州市| 普安县| 余姚市| 潮安县| 齐齐哈尔市| 浦东新区| 平果县| 军事| 沁水县| 栾川县| 徐闻县| 嵩明县|