張代齊
(四川大學(xué)計(jì)算機(jī)學(xué)院,成都 610065)
前景物體檢測(cè)是一種在計(jì)算機(jī)視覺領(lǐng)域中經(jīng)常需要處理的基礎(chǔ)任務(wù),處理這種任務(wù)的方法大多是建立一種背景模型,并使得該模型隨著視頻的播放逐幀更新。而在實(shí)際的應(yīng)用場(chǎng)景中經(jīng)常會(huì)出現(xiàn)光照劇烈改變的情形,比如開關(guān)燈或開關(guān)門時(shí)。對(duì)于逐幀更新背景模型的前景檢測(cè)方法來說,由于在突然變化的光照的條件下由于變化前后的圖像無法相互匹配,導(dǎo)致背景模型無法得到有效的更新,所以很難獲得較好的檢測(cè)結(jié)果[1]。
在前景檢測(cè)領(lǐng)域最為著名的算法是Stauffer and Grimson[2]提出的將每個(gè)像素都用高斯混合模型進(jìn)行擬合的自適應(yīng)背景模型更新算法(MoG)。該算法通過計(jì)算每個(gè)像素對(duì)于屬于其所對(duì)應(yīng)的高斯混合模型的概率來判斷其是否屬于背景。由于該算法會(huì)根據(jù)數(shù)據(jù)的更新時(shí)會(huì)以一定的學(xué)習(xí)速率更新相應(yīng)模型的參數(shù),所以在光照平緩變化的場(chǎng)景下這種算法具有較好的魯棒性。在這種算法出現(xiàn)后,很多科研人員對(duì)前景檢測(cè)領(lǐng)域進(jìn)行了相關(guān)研究。例如,Klare與Sarkar[3]所提出的一種基于顏色、梯度以及紋理等總共13種特征的構(gòu)建高斯混合背景模型的算法,它有效地減少了誤檢區(qū)域;Noriega[4]等則提出一種通過對(duì)顏色以及梯度方向構(gòu)建區(qū)域直方圖來檢測(cè)前景;Zivkovic與Heijden[5]使用遞歸的方式來替換MoG算法中的學(xué)習(xí)更新步驟,從而具有較好的光照不變性;Pilet等[6]利用光照和空間共同構(gòu)建似然模型,并將被光源遮擋的區(qū)域劃分為背景。
相對(duì)的,另一些科研人員想通過對(duì)具有光照不變特征的相關(guān)研究去解決光照劇烈變化時(shí)誤檢的問題:Zhang等[7]聯(lián)合傳統(tǒng)混合高斯模型算法以及圖像的邊緣信息去消除檢測(cè)時(shí)陰影的影響;Xue等[8]將數(shù)據(jù)進(jìn)行聚類預(yù)處理后再進(jìn)行MoG算法,從而消除光照變化的影響;Narayana等[9]提出了基于內(nèi)核的基于分?jǐn)?shù)的背景減法方案。
盡管上述算法相對(duì)原始MoG算法有了較好的提升,但在光照快速變化的環(huán)境下仍然不能取得好的檢測(cè)結(jié)果。
本文算法主要分為三步如圖1所示:首先為預(yù)處理階段,該階段將前景圖像與背景圖像由原始的RGB顏色空間轉(zhuǎn)化為一種基于人類感知的具有光照不變性的顏色空間[10],在轉(zhuǎn)化后在新的顏色空間中,圖像中的像素點(diǎn)具有“當(dāng)處于同種光照變化時(shí)像素與像素之間的向量差值不變”的特性。
下一階段為前景判斷階段,在這個(gè)階段中先將前景圖像與背景圖像對(duì)新顏色空間的三個(gè)通道逐個(gè)相減得到差值圖。對(duì)三個(gè)通道分別按數(shù)值大小統(tǒng)計(jì)每個(gè)數(shù)值的個(gè)數(shù)從而得到具有一定特性的通道直方圖。該統(tǒng)計(jì)步驟將光照變化的區(qū)域的差值表示為直方圖中較高區(qū)域而前景區(qū)域則表示為較低區(qū)域。將每個(gè)通道的統(tǒng)計(jì)直方圖中較為明顯的峰值用混合高斯函數(shù)擬合,擬合出來的函數(shù)可近似看作光照變化似然函數(shù)。通過光照變化似然函數(shù)計(jì)算每個(gè)像素點(diǎn)屬于前景的概率。最后設(shè)定適合的閾值判斷前景點(diǎn)。
最后一個(gè)階段為后處理階段,有時(shí)候由于光照不均勻,導(dǎo)致部分光照變化區(qū)域不屬于直方圖較高區(qū)域從而使得檢測(cè)錯(cuò)誤,此時(shí)逐個(gè)對(duì)比判斷為前景像素背景圖像與前景圖像像素周圍像素的最大差值,當(dāng)對(duì)比結(jié)果較大時(shí)認(rèn)為該點(diǎn)為確定前景像素,最后按確定前景像素的位置信息判斷不確定點(diǎn)是否為前景像素。
為了獲得光照不變性的特性,首先將原圖像由原本的RGB顏色空間轉(zhuǎn)化為一種基于人類感知的具光照不變性的顏色空間,轉(zhuǎn)化為該顏色空間后當(dāng)光照改變時(shí)像素之間差值不變。具體轉(zhuǎn)化公式如下所示:
圖1 算法流程圖
其中:
x為原RGB空間中每個(gè)像素的顏色向量。
對(duì)新的顏色空間中的三個(gè)通道的值分別用(P,C,S)表示,對(duì)每個(gè)像素位置分別計(jì)算( )ΔP,ΔC,ΔS
圖2
下標(biāo)b和c分別表示背景圖像與檢測(cè)圖像。將三個(gè)通道的差值以一定單位分別進(jìn)行統(tǒng)計(jì)得到三個(gè)通道的差值直方,圖如圖 2(b)(c)(d)所示。由于新顏色空間中光照變化時(shí)像素間差值不變,所以前景與背景圖像的差值圖中背景區(qū)域的三個(gè)通道的值應(yīng)該相近,而前景物體與背景產(chǎn)生的差值則與背景區(qū)域的差值相異,于是該直方圖的每一柱的高度都可近似的表示屬于該差值的像素屬于背景的概率。由此,本文選擇使用混合高斯函數(shù)擬合該直方圖的數(shù)值分布,直方圖中顯著峰數(shù)即表明混合高斯分布中高斯函數(shù)的個(gè)數(shù),位置即表明對(duì)應(yīng)高斯函數(shù)的均值,最后使用EM算法對(duì)直方圖擬合出相應(yīng)混合高斯函數(shù),如圖 2(e)(f)(g)所示。對(duì)一個(gè)通道的直方圖中每一柱所對(duì)應(yīng)的像素點(diǎn),其屬于背景的概率為該柱在多個(gè)高斯分布中取得的最大概率值:
下標(biāo)b表示屬于背景的概率,gn則表示某一高斯分布。而其屬于前景的概率即為:
下標(biāo)f表示像素屬于前景的概率下標(biāo)*b表示在*通道直方圖中該像素屬于背景的概率。
最后設(shè)定合適的閾值?當(dāng)pf(x)<?即判斷為前景像素點(diǎn)。
由于光照不均勻等原因,某些部分的背景場(chǎng)景容易被誤檢測(cè)為前景區(qū)域,如圖3(a),對(duì)于這些區(qū)域可以通過判斷其背景圖像以及前景圖像對(duì)應(yīng)的鄰域最大差值來判斷是否為可靠前景點(diǎn):
圖3
(a)初始檢測(cè)結(jié)果,紅框標(biāo)注區(qū)域?yàn)檎`檢測(cè)區(qū)域(b)紅色像素為可靠前景點(diǎn)白色為不可靠前景點(diǎn)(c)最終結(jié)果
下標(biāo)i和j表示像素點(diǎn)鄰域內(nèi)任意像素點(diǎn),x表示背景圖像的像素值,f(x)則表示檢測(cè)圖像的像素值,使用q(x)表示度量結(jié)果。設(shè)定合適的 β判斷q(x)>β的像素點(diǎn)為可靠前景點(diǎn),如圖3(b)所示。最后對(duì)每個(gè)不可靠前景點(diǎn)都做上、下、左、右四個(gè)方向的延伸,當(dāng)延伸碰到可靠像素點(diǎn)時(shí)則標(biāo)記加1,當(dāng)最后標(biāo)記大于2時(shí)即判斷為前景點(diǎn),如圖3(c)所示。
我們將本文算法與現(xiàn)階段運(yùn)用較為廣泛的GMM[2]算法在光照變化劇烈的情況下進(jìn)行比較,運(yùn)行結(jié)果如圖4所示。結(jié)果表明,在光照劇烈變化的情況下GMM算法由于像素值的變化超出了其計(jì)算范圍導(dǎo)致其檢測(cè)結(jié)果有很大的誤差,而本文的算法則基本檢測(cè)出了前景物體的范圍。
本文通過利用一種具有光照不變性的顏色空間提出一種能夠在劇烈光照變化的場(chǎng)景下檢測(cè)前景的前圖4第一列為背景圖像 第二列為待檢測(cè)圖像第三列為本文提出算法計(jì)算結(jié)果,白色像素為檢測(cè)為前景的區(qū)域第四列為GMM算法計(jì)算結(jié)果,白色像素為檢測(cè)為前景的區(qū)域景檢測(cè)算法。本文提出的算法在常用前景檢測(cè)算法無法正常發(fā)揮作用的光照變化場(chǎng)景下能夠較好地檢出相應(yīng)的前景區(qū)域。其可以進(jìn)一步改進(jìn)的地方在于其前景檢測(cè)的范圍仍可以更加精確,且運(yùn)算速度還達(dá)不到實(shí)時(shí),可以進(jìn)一步優(yōu)化。
圖4
第一列為背景圖像第二列為待檢測(cè)圖像第三列為本文提出算法計(jì)算結(jié)果,白色像素為檢測(cè)為前景的區(qū)域第四列為GMM算法計(jì)算結(jié)果,白色像素為檢測(cè)為前景的區(qū)域
參考文獻(xiàn):
[1]F.J.López-Rubio,E.López-Rubio.Local Color Transformation Analysis for Sudden Illumination Change Detection.in Image and Vision Computing,2015,37:31-47.
[2]C.Stauffer,W.E.L.Grimson.Adaptive Background Mixture Models for Real-Time Tracking.in Proc.IEEE Comput.Vis.Pattern Recog.(CVPR),Jun.1999:246-252.
[3]B.Klare,S.Sarkar.Background Subtraction in Varying Illuminations Using an Ensemble Based on an Enlarged Feature Set.in Proc.IEEE Comput.Vis.Pattern Recog.Workshops(CVPRW),Jun.2009:66-73.
[4]P.Noriega,O.Bernier.Real Time Illumination Invariant Background Subtraction Using Local Kernel Histograms.in Proc.Brit.Mach.Vis.Assoc.(BMVC),Sep.2006:1-10.
[5]Z.Zivkovic,F(xiàn).V.D.Heijden.Efficient Adaptive Density Estimation Per Image Pixel for the Task of Background Subtraction.Pattern Recognit.Lett.,Jul.2006,27(7):773-780.
[6]J.Pilet,C.Strecha,P.Fua.Making Background Subtraction Robust Tosudden Illumination Changes.in Proc.Eur.Conf.Comput.Vis.(ECCV),Oct.2008:567-580.
[7]W.Zhang,X.Fang,X.K.Yang,Q.M.J.Wu.Moving Cast Shadows Detection Using Ratio Edge.IEEE Trans.Multimedia,Jun.2007,9(6):1202-1214.
[8]G.Xue,J.Sun,L.Song.Background Subtraction Based on Phase and Distance Transform Under Sudden Illumination Change.in Proc.IEEE Int.Conf.Image Process.(ICIP),Sep.2010:3465-3468.
[9]M.Narayana,A.Hanson,E.L.Miller.Background Modeling Using Adaptive Pixelwise Kernel Variances in a Hybrid Feature Space.in Proc.IEEE Comput.Vis.Pattern Recog.(CVPR),Jun.2012:2104-2111.
[10]H.Y.Chong,S.J.Gortler,T.Zickler.A Perception-Based Color Space for Illumination-Invariant Image Processing.in SIGGRAPH,2008:1-7.