林淦斌
摘 要:針對(duì)儲(chǔ)物柜存取貨物場(chǎng)景的實(shí)際情況和人員行為的特點(diǎn),提出一種通過(guò)融合時(shí)間調(diào)整機(jī)制控制前景融入背景的改進(jìn)型混合高斯建模檢測(cè)方法,并引入手臂識(shí)別機(jī)制。融合時(shí)間調(diào)整機(jī)制減小了由于人員停止運(yùn)動(dòng)而錯(cuò)誤決策為背景的可能性;手臂識(shí)別算法模型有效地識(shí)別人員伸手動(dòng)作。實(shí)驗(yàn)結(jié)果表明,該方法可以簡(jiǎn)單有效地從連續(xù)的圖像序列中檢測(cè)出人員在儲(chǔ)物柜場(chǎng)景下的存取貨物行為。
關(guān)鍵詞:混合高斯模型 時(shí)間調(diào)整機(jī)制 手臂識(shí)別 存取貨行為檢測(cè)
中圖分類號(hào):TP391 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1674-098X(2015)01(c)-0052-03
儲(chǔ)物柜場(chǎng)景存取貨物行為檢測(cè)的主要任務(wù)是從連續(xù)的圖像序列中判別出從運(yùn)動(dòng)到靜止于儲(chǔ)物柜前并伸出胳膊打開儲(chǔ)物柜存取貨物的人員。傳統(tǒng)監(jiān)控應(yīng)用場(chǎng)景下,攝像頭常開記錄下每一個(gè)時(shí)刻攝像頭覆蓋區(qū)域的畫面;然而,當(dāng)事件未發(fā)生時(shí)候所獲取的視頻往往沒(méi)有任何價(jià)值而又無(wú)差別地占用了存儲(chǔ)空間,且長(zhǎng)時(shí)間處于工作狀態(tài)下的攝像頭功耗較大。儲(chǔ)物柜場(chǎng)景下,通常關(guān)心的是儲(chǔ)物柜中的貨物是否被誤取,因此只需有人員打開儲(chǔ)物柜事件發(fā)生時(shí)觸發(fā)攝像頭記錄存儲(chǔ)當(dāng)前時(shí)刻視頻以供翻查佐證?;谠搼?yīng)用場(chǎng)景,檢測(cè)系統(tǒng)需要實(shí)現(xiàn)兩個(gè)功能:首先,如何把從運(yùn)動(dòng)到靜止于儲(chǔ)物柜前的人員從圖像序列中提取出來(lái);其次,如何從提取出來(lái)的人員前景圖像中判別人員是否有伸出胳膊動(dòng)作從而觸發(fā)攝像頭錄像并存儲(chǔ)。
根據(jù)儲(chǔ)物柜存取貨物場(chǎng)景的實(shí)際情況和人員行為的特點(diǎn),本文改進(jìn)傳統(tǒng)的混合高斯模型,提出一種通過(guò)融合時(shí)間調(diào)整機(jī)制控制前景融入背景的改進(jìn)型混合高斯建模檢測(cè)方法,并引入手臂識(shí)別機(jī)制,具體檢測(cè)流程如圖1所示。實(shí)驗(yàn)結(jié)果表明該方法有良好的魯棒性和自適應(yīng)性,可用于儲(chǔ)物柜場(chǎng)景存取貨物行為檢測(cè)。
1 改進(jìn)型混合高斯背景模型
1.1 混合高斯背景模型
背景模型對(duì)目標(biāo)的識(shí)別和跟蹤至關(guān)重要。目前已有的大多數(shù)背景提取算法或基于靜態(tài)背景,或計(jì)算復(fù)雜,難以應(yīng)用于光照緩慢變化和背景存在小幅度重復(fù)運(yùn)動(dòng)視頻的實(shí)時(shí)處理。其中,背景差法[1]對(duì)環(huán)境的變化(如光照等)較敏感,且分割精度易受噪聲影響。幀差法[2]不能完全提取出所有相關(guān)的特征像素點(diǎn),在運(yùn)動(dòng)實(shí)體內(nèi)部容易產(chǎn)生空洞現(xiàn)象。光流法[3]需要多次迭代運(yùn)算,時(shí)間消耗大?;旌细咚鼓P蚚4]由于采用多個(gè)高斯分布加權(quán)建模,能夠描述像素值分布的雙峰或多峰狀態(tài),對(duì)背景的自適應(yīng)性高,在時(shí)空效率都適中的情況下能提供相對(duì)精確的背景模型,而引起了眾多從事目標(biāo)檢測(cè)與跟蹤[5-6]、視頻監(jiān)控[7]等相關(guān)領(lǐng)域的專家和學(xué)者的關(guān)注。
單高斯背景模型(Single Gaussian Background Model,SGBM)的基本思想是:將圖像中每一個(gè)像素點(diǎn)的顏色值看成是一個(gè)隨機(jī)過(guò)程X,并假設(shè)該點(diǎn)的某一像素值出現(xiàn)的概率服從高斯分布?;旌细咚贡尘澳P停℅aussian Mixture Model)是在SGBM中將單個(gè)高斯分布作為相應(yīng)某一像素值的概率密度分布,對(duì)其進(jìn)行了擴(kuò)展,通過(guò)多個(gè)高斯概率密度函數(shù)的加權(quán)平均來(lái)平滑地近似任意形狀的密度分布函數(shù)。令I(lǐng)(x,y,t)表示像素點(diǎn)(x,y)在t時(shí)刻的像素值,則有
其中α為學(xué)習(xí)率,取值在0~1之間。如果第i個(gè)高斯分布與當(dāng)前像素匹配,則Di,t=1,否則Di,t=0。
1.2 基于融合時(shí)間調(diào)整機(jī)制的背景模型
儲(chǔ)物柜場(chǎng)景中經(jīng)常存在人員突然停止并長(zhǎng)時(shí)間站立在某柜子前的情況,混合高斯模型很難正確檢測(cè)出運(yùn)動(dòng)速度緩慢的物體,尤其當(dāng)運(yùn)動(dòng)目標(biāo)突然停止運(yùn)動(dòng)時(shí),容易把靜止目標(biāo)融入背景。本文根據(jù)該場(chǎng)景的特點(diǎn),對(duì)傳統(tǒng)的混合高斯模型進(jìn)行了改進(jìn),具體步驟如下:
背景學(xué)習(xí)階段——由于儲(chǔ)物柜場(chǎng)景中背景相對(duì)固定,不會(huì)經(jīng)常發(fā)生變化,所以可以在背景學(xué)習(xí)階段賦值很高的學(xué)習(xí)率α快速建立背景;而且,該階段中越靠前出現(xiàn)的圖片幀是背景的可能性越大,因此算法中設(shè)置越靠前的圖片幀學(xué)習(xí)率越大,并設(shè)置一個(gè)學(xué)習(xí)周期。
背景更新階段——儲(chǔ)物柜場(chǎng)景中時(shí)常會(huì)出現(xiàn)人員突然停止并長(zhǎng)時(shí)間站立在某柜子前的情況,因此該階段算法中通過(guò)設(shè)置很小的學(xué)習(xí)率來(lái)避免將靜止的人員融入背景。
通過(guò)如上所述的融合時(shí)間調(diào)整機(jī)制,可以十分簡(jiǎn)便且有效地控制儲(chǔ)物柜場(chǎng)景中前景融入背景的時(shí)間。
1.3 實(shí)驗(yàn)結(jié)果
為了檢驗(yàn)算法的有效性,在VC++2010平臺(tái)下,分別對(duì)傳統(tǒng)混合高斯背景模型和本文改進(jìn)方法進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)數(shù)據(jù)所拍攝視頻片段每幀圖像大小為640×480像素。視頻流中進(jìn)入場(chǎng)景的人員在363幀停止行進(jìn)站立于儲(chǔ)物柜前進(jìn)行操作,直到597幀之后繼續(xù)有大幅度動(dòng)作。圖2為部分實(shí)驗(yàn)結(jié)果,圖縱列分別表示363幀、390幀、420幀和596幀的前景提取結(jié)果。對(duì)比實(shí)驗(yàn)結(jié)果可以看出該文方法可以正確檢測(cè)出長(zhǎng)時(shí)間靜止人員。
2 手臂識(shí)別算法模型
2.1 算法流程
手部識(shí)別算法是基于站立在儲(chǔ)物柜前人員的高斯前景圖像進(jìn)行分析的。根據(jù)前景提取結(jié)果經(jīng)由數(shù)學(xué)形態(tài)學(xué)平滑處理后,對(duì)每一個(gè)目標(biāo)利用“爬蟲法”[8]提取出目標(biāo)外接矩形框作為興趣區(qū)域,隨后對(duì)區(qū)域內(nèi)前景進(jìn)行手部識(shí)別。具體算法分析流程如下:
在高斯前景圖像上,對(duì)矩形框區(qū)域進(jìn)行分析;
在矩形框區(qū)域,對(duì)高斯前景圖像做X軸和Y軸投影;
在X軸的投影上,分析投影的柱狀圖取閾值thr(thr可根據(jù)實(shí)際情況訓(xùn)練調(diào)試),將柱狀圖中各柱體同thr比較,提取出小于thr的柱子X(jué)坐標(biāo);
分析上一步提取出的柱子,檢測(cè)其連通性,提取出連通區(qū)最長(zhǎng)的一段,認(rèn)為該段就是手臂;
分析最長(zhǎng)段的兩端,如果一端柱狀圖明顯高于另一端,那么就認(rèn)為該端是身體軀干部分,另外一端是手部。
2.2 實(shí)驗(yàn)結(jié)果
依據(jù)上述算法流程,實(shí)驗(yàn)結(jié)果分別選取一幀進(jìn)行顯示,效果圖如圖3所示。圖中紅色方框表示所識(shí)別到的胳膊部分,黃色方框表示在胳膊基礎(chǔ)上進(jìn)一步識(shí)別到的手部大致位置。實(shí)驗(yàn)結(jié)果表明,該算法可以有效地從提取出來(lái)的人員前景圖像中判別人員是否有伸出胳膊動(dòng)作。
3 結(jié)束語(yǔ)
該文提出一種通過(guò)融合時(shí)間調(diào)整機(jī)制控制前景融入背景的改進(jìn)型混合高斯建模檢測(cè)方法,并引入手臂識(shí)別算法模型。融合時(shí)間調(diào)整機(jī)制控制了前景融入背景的時(shí)間,減小了由于人員停止運(yùn)動(dòng)而錯(cuò)誤決策為背景的可能性;手臂識(shí)別算法模型有效地識(shí)別人員伸手動(dòng)作。實(shí)驗(yàn)結(jié)果表明,這套方法可以簡(jiǎn)單有效地從連續(xù)的圖像序列中檢測(cè)出人員在儲(chǔ)物柜場(chǎng)景下的存取貨物行為。
參考文獻(xiàn)
[1] Haritaoglu I,Harwood D, Davis L S G.A human body part labeling system using silhouettes[C]//Fourteenth International Conference on Pattern Recognition,1998:77-82.
[2] 洪炳熔,賀懷清.虛擬人的步行和跑步運(yùn)動(dòng)控制方法的研究[J].高科技通訊,2001(3):91-95.
[3] Meyer D,Denzler J,Niemann H.Model based extraction of articulated objects in image sequences for gait analysis[C]//Proc IEEE International Conference on Image Processing,Santa Barbara,California,1997:78-81.
[4] 李志慧,張長(zhǎng)海,曲昭偉,等.交通流視頻檢測(cè)中背景模型與陰影檢測(cè)算法[J].吉林大學(xué)學(xué)報(bào):工學(xué)版,2006,36(6):993-997.
[5] 王勇,譚毅華,田金文.基于陰影消除和混合高斯模型的視頻分割算法[J].光電工程,2008,35(3):21-25.
[6] 彭可,陳燕紅,唐宜清.一種室內(nèi)環(huán)境的運(yùn)動(dòng)目標(biāo)檢測(cè)混合算法[J].計(jì)算機(jī)工程與應(yīng)用,2008,44(5):239-241.
[7] Pavlidis I,Morellas V,Tsiamyrtzis P,et al.Urban surveillance system:From the laboratory to the commercial world[J].Proceedings of the IEEE,2001,89(10):1478-1497.
[8] 崔鳳魁,張豐收,白露,等.二值圖像目標(biāo)鄰域點(diǎn)法邊界跟蹤算法[J].洛陽(yáng)工學(xué)院學(xué)報(bào),2001,22(1):28-30.