李 潔,楊孟拓,劉雪琴,宋煥生,李文敏
(長安大學(xué) 信息學(xué)院,陜西 西安 710064)
目前常用的基于視頻的目標(biāo)檢測算法主要有3種:光流法[1-3],幀間差法[4-5],背景差法[6-7]。由于光流法計算量較大,因此在實際中不經(jīng)常使用;幀間差法能夠適應(yīng)快速變化的環(huán)境,但檢測出的運動目標(biāo)位置不夠精確。背景差法實現(xiàn)簡單,程序復(fù)雜性低,能保持目標(biāo)的完整性,因此得到了廣泛的應(yīng)用[8]。所以,如何提取出準(zhǔn)確的背景至關(guān)重要。
迄今為止,國內(nèi)外諸多專家已經(jīng)提出了很多算法。比如多幀圖像平均法,就是把一段時間內(nèi)圖像序列進(jìn)行累加,然后再平均得到近似的背景圖像,該算法實現(xiàn)簡單,計算量較小,但是對于車流量較大的路段,該方法很容易把前景目標(biāo)混入背景里,提取的效果不甚理想。Gloyer B[9]提出的中值濾波法,在背景像素出現(xiàn)概率較大時,提取的效果很好,但是在背景像素出現(xiàn)概率較小時,該算法就會失效。Friedmand等人提出了單高斯模型[10],即分別獲得背景、前景和陰影的高斯分布,并將這3個高斯分布的加權(quán)值作為像素的灰度值,然后通過EM算法獲得模型參數(shù),但是一般情況下背景都是比較復(fù)雜的,所以對背景僅采用一個高斯分布是不夠的。因而提出了混合高斯模型[11-12],它是一種自適應(yīng)的背景建模方法,其核心思想是為每一個像素點建立多個隨時間變換的高斯統(tǒng)計模型,但也存在一些缺點:背景模型的收斂速度慢;對光照變化敏感。Surendra[13]算法的原理是把當(dāng)前幀中的像素點分為前景點和背景點兩類。當(dāng)前幀的背景點的像素值與背景圖中的對應(yīng)點加權(quán)平均,作為當(dāng)前背景中像素值。前景點處則保持原來背景值不變。該算法的核心在于通過直方圖統(tǒng)計和經(jīng)驗取值而區(qū)分當(dāng)前幀中的前景點和背景點,但是此算法在前景物體較多,情況復(fù)雜時會引入噪聲。
在復(fù)雜的道路場景,以上方法還是不能消除一些光照及噪聲的影響,不能夠滿足實際的要求。為此,本文提出了一種改進(jìn)的道路背景提取和更新算法。
下面介紹兩種最常用的背景提取算法,多幀圖像平均法和統(tǒng)計中值法。
多幀圖像平均法的原理是把車輛看作噪聲,用累加后進(jìn)行平均的方法消除噪聲,所以可以利用車輛在一段時間內(nèi)的序列圖像求和再平均來得到背景圖像。計算公式如下
式中:imagei(x,y)表示第i幀(x,y)點處的像素值,Background(x,y)表示點(x,y)的背景圖像,N表示平均幀數(shù)。
該算法的特點是計算比較簡便。但是發(fā)現(xiàn)通過平均法得到的背景圖像往往會出現(xiàn)亮度分布不均的現(xiàn)象。這是由于在車流量較大的情況下,該算法會將車輛信息誤認(rèn)為是背景信息,而隨著平均幀數(shù)的增加,背景的可信度也會增加。由于在實際生活中交通狀況是比較復(fù)雜的,因此多幀圖像平均算法顯然不能有效地滿足復(fù)雜環(huán)境的需求。
統(tǒng)計中值法是一種能有效抑制噪聲的處理技術(shù)。統(tǒng)計中值法較平均法的優(yōu)點是它可以克服均值濾波給圖像造成的模糊影響,而且在抑制噪聲的同時,能保持良好的邊緣性,進(jìn)而獲得較為滿意的背景。
統(tǒng)計中值法的基本思想是先統(tǒng)計一段時間內(nèi)某一個像素點的值,然后用這些值的中值作為背景像素。
分析以上的算法,它們對于比較復(fù)雜的場景都有一定的局限性,得出的結(jié)果并不令人滿意,所以,本文提出了一種新的算法,它克服了場景復(fù)雜時道路背景提取困難或者提取結(jié)果失真的弊端,能在較短的時間內(nèi)提取出準(zhǔn)確性較高的背景,而且能夠消除光照和噪聲對于背景的影響,為后續(xù)的車輛檢測提供了很好的基礎(chǔ)。
下文介紹算法的基本思想及具體步驟:
1)圖像分塊
由于單個像素所代表的信息量比較少,而且很容易受到噪聲的干擾,所以把圖像分成一個個小塊來處理,每個小塊包含h×w個像素,這樣不僅能夠結(jié)合周圍區(qū)域的信息,而且能夠抑制噪聲的影響。
分塊后的圖像大小記為
式中:row和col分別代表分塊后行的塊數(shù)和列的塊數(shù);H和W分別代表原圖像列像素和行像素;h和w分別代表每一塊的列像素和行像素。
2)圖像拉伸
對于天氣情況比較惡劣的視頻,如果直接處理,難度比較大,而且準(zhǔn)確性不高,所以先對原始圖像進(jìn)行拉伸處理,提高圖像的對比度,方便以后的處理。
處理的表達(dá)式如下
式中:CurrentFrame(x,y)表示當(dāng)前幀(x,y)點處的像素值;min和max分別為拉伸的下界和上界,處理結(jié)果如圖1所示。
圖1 拉伸對比圖
3)對于拉伸圖像后的每一塊,都進(jìn)行以下運算
式中:PreFrame(x,y)表示前一幀(x,y)點處的像素值。記錄此時的bloVal(t),按需要本文記錄離當(dāng)前幀最近的N幀。
4)然后根據(jù)以下公式判斷
式中:Th為閾值,Counter(p,q)表示塊(p,q)計數(shù)器值。在bloVal(t)大于等于Th的情況下,進(jìn)行快慢變化的判斷,如果為慢變,Counter(p,q)++;如果為快變,則Counter(p,q)=0。
下面介紹具體快慢變化的判斷準(zhǔn)則:
因為單純按照一個閾值的大小就決定計數(shù)器的值,具有一定的局限性,可能因為一些光照的變化而影響結(jié)果的準(zhǔn)確性,所以要區(qū)分是車輛的影響還是光照的影響(見圖2),具體的實現(xiàn)步驟如下:
(1)計算歷史bloVal(t)的均值和方差,公式為
(2)如果當(dāng)前的bloVal(t)超過了閾值Th,但是它所對應(yīng)的歷史均值和方差滿足以下公式
式中:λ〉0,一般λ=3,base=20。滿足公式則表示該塊是慢變(光照變化)引起的,否則是快變(車輛經(jīng)過)引起的。
圖2 塊(p,q)的bloVal(t)值的變化
5)重復(fù)步驟3)和步驟4),直到Counter(p,q)達(dá)到一定的閾值Ths時,保存此時bloVal(t)的值作為一個參考狀態(tài),本文保存距離當(dāng)前幀最近的兩個參考狀態(tài),離當(dāng)前幀比較近的一個記錄為bloValL(s),比較遠(yuǎn)的一個記錄為bloValF(t),如圖3所示。
圖3 塊(p,q)計數(shù)器值的變化過程
6)判斷Counter(p,q)是否大于Ths,如果大于,并且滿足
則令
式中:CounterPeek(p,q)為塊(p,q)歷史最大值,Thb為閾值。否則重復(fù)步驟3)、步驟4)和步驟5)繼續(xù)進(jìn)行判斷。
7)當(dāng)Counter(p,q)的值首次大于閾值Tha(Tha〉Ths),則將此塊當(dāng)前幀的灰度值保存為初始背景,如圖3所示,表達(dá)式為
如果Counter(p,q)的值不是首次大于閾值Tha,則轉(zhuǎn)到下一步驟執(zhí)行。
8)按照加權(quán)系數(shù)法對該塊背景進(jìn)行實時更新,表達(dá)式為
式中:α為權(quán)系數(shù),0〈α〈1。
本文給出了兩種不同的場景對本文的算法進(jìn)行驗證,并與其他背景提取算法進(jìn)行比較。第一種場景攝于西安市南二環(huán),時間為下午,圖像較為清晰,但是車流量大,有光照的影響。第二種場景攝于上海市申江高速公路,時間為晚上,圖像質(zhì)量比較差,光線弱,并且有路燈和車燈的影響。
在第一種場景中(見圖4),均值法提取的背景出現(xiàn)了大面積的失真,與實際路面的像素值相差較大;統(tǒng)計中值法對于近景部分的背景基本滿足要求,但是遠(yuǎn)景部分(圓圈所標(biāo)記的范圍)和實際背景不符;本文算法不管是在近景部分還是遠(yuǎn)景部分,都能提取出較為準(zhǔn)確的背景。
圖4 場景一算法比較
在第二中場景中(見圖5),由于圖像質(zhì)量的原因,從圖中似乎不能明顯地看出各種算法提取出的背景有什么不同,鑒于此,這里同時給出了車輛檢測的結(jié)果,以便于觀察對比。均值法檢測出的二值圖像上方出現(xiàn)了很多干擾,這是由于燈光或者車燈的影響造成的;統(tǒng)計中值法在二值圖像上方出現(xiàn)的干擾有所減少,但是出現(xiàn)了一些噪聲點不能消除;本文的算法能夠消除燈光以及噪聲的影響,準(zhǔn)確地檢測出車輛,提取效果較為理想。
圖5 場景二算法比較
對于場景復(fù)雜的道路,提取背景相對比較困難,本文通過統(tǒng)計相鄰幀的變化情況,得到持續(xù)不變區(qū)域的特征,再針對這些特征進(jìn)行分析比較,最后將狀態(tài)相近的區(qū)域進(jìn)行累加,并通過實時更新得到最終的背景。實驗表明,該算法能夠克服場景復(fù)雜時提取背景失真的弊端,并且能夠很好地消除光照和噪聲的干擾,為后續(xù)的車輛檢測提供了可靠的依據(jù)。
[1] ENKELMANN W.Investigation of multigrid algorithms for the estimation of optical flow fields in image seauences[J].Computer Vision,Graphics and Image Processing,1998(43):150-177.
[2] LIU Y,HUANG T S.Determing straight line correspondences from intensity images[J].Pattern Recongnition,1991,24(6):489-504.
[3] 王新余,張桂林.基于光流的運動目標(biāo)實時檢測方法研究[J].計算機工程與應(yīng)用,2004(1):43-46.
[4] WANG Junwei,WANG Dingwei.Particle swarm optimization with a leader and followers[J].Progress in Natural Science,2008,18(11):1437-1443.
[5] LONG W,YANG Y.Stationary background generation:an alternative to the difference of two images[J].Pattern Recognition,1990,23(12):1351-1359.
[6] 李志勇,沈振康,楊衛(wèi)平,等.動態(tài)圖像分析[M].北京:國防工業(yè)出版社,1999.
[7] 朱秋煜,李琦銘,陳岳川.基于視差和幀差的圖割優(yōu)化運動目標(biāo)分割算法[J].電視技術(shù),2012,36(13):135-139.
[8] LUCAS B,KANADE T.An iterative image registration technique with an application to stereo vision[EB/OL].[2012-08-20].http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.49.2019.
[9]GLOYER B,AGHAIAN H K,SIU K Y,et al.Vehicle detection and tracking for freeway traffic monitoring[C]//Proc.1994 Conference Record of the Twenty-Eighth Asilomar Conference on Signals,Systems and Computers.Pacific Grove,CA:[s.n.],1994:970-974.
[10] FRIEDMAN N,RUSSELL S.Image segmentation in video sequences:A probabilistic approach[EB/OL].[2012-08-20].http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.38.7356.
[11] STAUFFER C,GRIMSON W E L.Adaptive background mixture models for real-time tracking[J].The Artificial Intelligence Laboratory Massachusetts Institute of Technology,1999(2):246-252.
[12] 王源,陳亞軍.基于高斯混合模型的EM學(xué)習(xí)算法[J].山西師范大學(xué)學(xué)報:自然科學(xué)版,2005,19(1):46-49.
[13] 吳眾山,雷蘊奇,吳綠芳,等.一種實用的背景提取與更新算法[J].廈門大學(xué)學(xué)報,2008,47(3):348-352.