巨志勇 彭彥妮
摘 要:常用的幾種背景提取算法在車流量較大的情況下提取的背景效果較差。在某些目標(biāo)檢測區(qū)域較少的場景中,若將所有像素進行檢測,會浪費許多時間。針對這些問題,提出一種新的背景提取算法。先將視頻幀進行分割,再對分割出的檢測帶依次進行車輛存在檢測,最終自動選取視頻中沒有車輛的車道塊并將其拼接成完整背景幀,最后利用Lab空間色度與亮度相互獨立的特性提取目標(biāo)。該算法能夠充分提取前景圖像,不會丟失車輛目標(biāo)。相比傳統(tǒng)算法,該算法準(zhǔn)確性較高。
關(guān)鍵詞:背景建模;區(qū)域分割;Lab色彩空間;背景相減;形態(tài)學(xué)處理;運動目標(biāo)檢測
DOI:10.11907/rjdk.172791
中圖分類號:TP317.4
文獻標(biāo)識碼:A 文章編號:1672-7800(2018)005-0183-04
Abstract:The commonly-used background extraction methods may not bring about satisfactory effects in the case of heavy traffic, because a large amount of time is consumed when all of the pixels need to be detected, even though less object detection areas exist in images. To solve the problems,we propose a new background extraction method. Firstly, the video frames were divided into blocks. Secondly, vehicles were detected in those blocks through a series of processes. Then, frame lane blocks, with no vehicles detected, was selected automatically to constitute the complete background frame. Finally, objectives were extracted by using quality of independence of brightness and color in Lab color space. This method could fully extract foreground without losing vehicles and has higher accuracy comparing with other traditional methods.
Key Words:background modeling; region segmentation; Lab color space; background subtraction; morphological processing; moving object detection
0 引言
通過視頻獲取交通信息是計算機視覺領(lǐng)域的研究熱點之一,有效的運動目標(biāo)提取為后續(xù)的處理奠定了基礎(chǔ)。運動目標(biāo)檢測方法有幀差法、光流法[1]、背景相減法[1-2]等。幀差法實時性較高,計算量小,但若目標(biāo)運動緩慢,則易出現(xiàn)漏檢現(xiàn)象。光流法準(zhǔn)確性較高,但計算復(fù)雜,難以滿足實時性。背景相減法因其計算量小、精度高,已成為運用較普遍的前景提取算法,常用的有多幀求平均法、統(tǒng)計直方圖法[3]、混合高斯模型法[4-6]等。
背景相減法對運動目標(biāo)進行檢測步驟:①背景提取。穩(wěn)定的背景能夠大大減小運動區(qū)域檢測的誤差率,從而充分提取前景目標(biāo);②運動區(qū)域分割。通過設(shè)定好的閾值對待檢測像素與背景點像素的差值分類,差值較大為運動目標(biāo),較小為背景;③前景目標(biāo)檢測。得到的運動區(qū)域往往不僅包含運動目標(biāo),還包含因光照不均等原因產(chǎn)生的圖像噪聲,因此要通過一定的形態(tài)學(xué)去噪,將非前景目標(biāo)干擾部分去除,最終得到所需要的前景目標(biāo)。
文獻[7]對以背景相減法為基礎(chǔ)的ViBe算法進行了改進,通過建立一個閃爍程度矩陣,對鬼影程度進行自適應(yīng)判斷,從而消除算法缺陷,使得檢測率大幅度提升。文獻[8]提出一種非參數(shù)的核密度估計方法,通過對每個像素點進行估計,計算其為背景像素的概率。但該算法計算量較大,占用時間較長。文獻[9]提出一種color算法,將RGB空間中的像素以亮度失真和色度失真來分類,能有效將前景與陰影部分進行分離。由于RGB空間亮度、色度的非獨立性導(dǎo)致閾值選取較難,本文通過對視頻幀進行分割后,自動選取無車輛車道背景塊進行拼接,以形成較穩(wěn)定的背景。再將color算法轉(zhuǎn)換至Lab彩色空間進行前景圖像提取[10],最后進行形態(tài)學(xué)處理,得到有效的前景目標(biāo)。改進的算法對車輛目標(biāo)檢測更準(zhǔn)確,并且對陰影部分能夠精確檢測并標(biāo)記。
1 改進的背景建模方法
在車流量大的交通視頻中,同一位置的像素點為背景像素點的比例較小。在紅燈情況下,等候紅燈的車輛由于其靜止或運動緩慢,通過多幀求均值或統(tǒng)計直方圖均被當(dāng)作背景提取,導(dǎo)致所得到的背景與實際背景相差較大?;旌细咚鼓P头ǖ纫恍┗诮y(tǒng)計模型的背景提取算法雖有較好效果,但建模時間較久。另外,圖像中有很大一部分背景是非道路區(qū)域,對全部像素點建模會導(dǎo)致建模時間較長。
一般的交通路段都存在左轉(zhuǎn)、直行、右轉(zhuǎn)車道,且對不同車道采用分流行駛的方法管制交通。因此,在非交通擁堵情況下,不同車道均可能出現(xiàn)無車輛通行情況。由于交通攝像頭擺設(shè)位置多在十字路口,會導(dǎo)致視頻圖像存在遠景車輛小于近景車輛的視覺誤差和路面顏色不均現(xiàn)象。因此,將每幀的待檢測區(qū)域按車道線分為9個塊,對每個車道塊分別進行檢測,步驟如下:①背景初始化。讀取視頻中的某一幀作初始背景,并選擇第一個待檢測車道塊;②讀取視頻第一幀進行車道線分割,獲得待檢測車道;③對待檢測車道進行邊緣檢測,計算其邊緣密度。通過經(jīng)驗設(shè)定的閾值判斷若邊緣密度大于閾值,則表示有車輛存在,小于閾值則無車輛存在;④若判斷車道存在車輛,則讀取視頻下一幀,再從第②步重復(fù);若判斷車道不存在車輛,則進行下一步;⑤將不存在車輛的車道塊像素點覆蓋至初始化背景中,選擇第2個待檢測車道塊,繼續(xù)循環(huán)第②步;⑥所有車道塊像素點均覆蓋完成后,輸出背景幀background,完成背景提取。
1.1 車道線標(biāo)記及分割
雖然車道均為直線,但因攝像頭安置的位置會導(dǎo)致車道前段與后段直線角度不一致。本文選擇用兩點式的直線方程標(biāo)定車道[11]。設(shè)兩點坐標(biāo)為(x1,y1),(x2,y2),則過兩點的直線方程Ax+By+C=0中的系數(shù)為:
得到的車道區(qū)域如圖1所示,有6條車道。
將分割開的車道線進行灰度處理后進行以下步驟:
其中A1,B1,C1,A2,B2,C2為被分割車道左右兩條直線的方程系數(shù)。圖2為右轉(zhuǎn)車道及直行車道的前半部分效果。
2.2 車輛存在檢測及圖像選取
檢測車輛存在的一般方法為邊緣檢測法[12-13]。邊緣信息比背景信息波動更明顯,因此檢測效果很好。通過對不同邊緣檢測算子進行對比得出結(jié)論:roberts算子更適用于車道檢測。通過roberts算子進行邊緣檢測的檢測帶中,i(x,y)像素值為255的邊緣像素,非邊緣像素值為0。通過統(tǒng)計檢測區(qū)域內(nèi)邊緣像素總數(shù)所占檢測帶像素總數(shù)的比例,定義邊緣密度:
通過邊緣密度d設(shè)定閾值T1,使用公式(4)來判斷車道內(nèi)有無車輛。無車輛為0,有車輛為1。判斷當(dāng)前檢測區(qū)域無車輛時,停止對此區(qū)域進行檢測,將此幀的檢測車道賦值到初始化背景中,再對下一條車道進行檢測。其中,初始化背景為視頻中的任意一幀。
本文前半段車道閾值T1選取在0.052 5~0.052 8之間,后半段車道閾值T1選取在0.08~0.11之間,這樣能保證車道選取時均為無車輛車道。
車輛在交通路口的平均行駛速度一般為8m/s,因此在檢測到車輛存在后幾秒的時間段內(nèi)仍有車輛存在。為了節(jié)約時間,采用按一定時間間隔讀取幀的方法進行檢測。由于直行和左轉(zhuǎn)車道有紅燈時段,當(dāng)邊緣密度大于一定閾值T2時(即有較多車輛排隊時),可以跳過紅燈等待時間,以避免非關(guān)鍵幀,減少檢測時間,此處閾值T2選擇為0.053。
圖3(a)為對前100幀求平均值所得到的背景,能明顯看出有車輛痕跡。圖(b)為對300幀求平均值得到的背景。一部分車道效果得到優(yōu)化,但直行已進入紅燈等候區(qū)域,停止車輛增多,車輛像素被當(dāng)作背景像素建模。
圖4(a)為背景初始化提取的背景幀,圖4(b)為本文自動選取無車輛幀塊拼接得到的背景圖像效果,可以看出無明顯車輛,并且接近真實場景,效果優(yōu)于其它算法。
2 改進的color算法及運動目標(biāo)提取
2.1 改進的color算法
文獻[9]提出了在RGB色彩空間中,將亮度與色度分開提取前景目標(biāo)及陰影的算法。定義的亮度失真(α)與色度失真(CD)分別為:
其中βi為像素i的待檢測像素值與背景像素值的總體差異。
由圖6、圖7可以看出,相比傳統(tǒng)的背景相減法,本文算法能夠更加完整地檢測出車道中的所有車輛。
2.2 運動目標(biāo)提取
將運動區(qū)域充分提取后,需對圖像進行一系列形態(tài)學(xué)處理[14-15],以去除噪聲及非目標(biāo)區(qū)域。本文采用的處理方法如下:①用sobel算子對公式(9)所得到的二值圖像β進行邊緣檢測,將目標(biāo)車輛的邊緣檢測出來,見圖8(a);②大小為2的點模板做膨脹處理,聯(lián)通各邊緣檢測點,形成閉合區(qū)域,見圖8(b);③填充閉合區(qū)域,確保后續(xù)使用開運算,在將非目標(biāo)區(qū)域的噪點進行去除時不會將目標(biāo)區(qū)域當(dāng)作噪點去除,見圖8(c);④使用大小為10的方形模板對圖像做開運算,將目標(biāo)運動區(qū)域保留下來,非目標(biāo)區(qū)域作為噪點去除,見圖8(d)。
4 實驗結(jié)果及分析
實驗平臺為主頻1.9GHz,Intel i3CPU,內(nèi)存4.0G的64位Win10系統(tǒng),MATLAB R2015b,所使用的視頻幀速率為24幀/秒,大小為640×480的視頻。檢測率如表1所示。
圖9為3組不同算法的結(jié)果,圖9(a)為視頻中讀取的幀,圖9(b)為幀差法,圖9(c)為以多幀求平均法為背景模型的背景相減法,圖9(d)為本文算法。
通過實驗可以看出,在綠燈時段,幀差法可以較好地將目標(biāo)車輛提取出來。但在紅燈時段,停止的車輛無法被檢測出來。以傳統(tǒng)的背景相減法結(jié)合多幀求平均法提取的背景,很難檢測出與背景顏色相近的車輛。本文算法在車輛行駛時段檢測率高達90%以上,車輛停止時段由于車輛遮擋導(dǎo)致檢測率下降,但仍比另外兩種方法效果要好。本文算法不僅能較完整地檢測出運動車輛,還能將紅燈時段停止車輛及車身顏色與背景相近的車輛檢測出來,比其它傳統(tǒng)算法效果更好。
5 結(jié)語
根據(jù)前后車道段差異及車輛特性進行車道分割檢測,通過自動選取無車輛背景進行拼接,從而形成最接近真實場景的背景圖像。再利用Lab空間亮度與色度相互獨立的特性,將運動目標(biāo)區(qū)域充分提取,以確保車輛不會被漏檢。實驗證明,改進的方法能夠充分提取視頻中的遠近景車輛,并且紅燈時段車輛變化較小時也不會出現(xiàn)漏檢現(xiàn)象。但是,由于無車輛背景選取的閾值為經(jīng)驗值,視頻場景變化則閾值選取也要變化,為滿足閾值選取能夠達到自適應(yīng),算法仍需改進。
參考文獻:
[1] 付浩海,邊蓓蓓.基于幀間差分和背景相減的運動目標(biāo)檢測和提取算法研究[J].長春工程學(xué)院學(xué)報:自然科學(xué)版,2015,16(3):116-118.
[2] 陳亞東.基于視頻的車輛違章行為檢測研究[D].合肥:安徽大學(xué),2015.
[3] 郭永濤,宋煥生,賀昱曜.視頻交通監(jiān)控系統(tǒng)中背景提取算法[J].電視技術(shù),2006,30(5):91-93.
[4] 李偉,陳臨強,殷偉亮.基于自適應(yīng)學(xué)習(xí)率的背景建模方法[J].計算機工程,2011,37(15):187-189.
[5] ZIVKOVIC Z. Improved adaptive Gaussian mixture model for background subtraction[C].Pattern Recognition, ICPR 2004. Proceedings of the 17th International Conference on. IEEE,2004:28-31.
[6] 李勁菊,朱青,王耀南.一種復(fù)雜背景下運動目標(biāo)檢測與跟蹤方法[J].儀器儀表學(xué)報,2010,31(10):2242-2247.
[7] 莫邵文,鄧新蒲,王帥,等.基于改進視覺背景提取的運動目標(biāo)檢測算法[J].光學(xué)學(xué)報,2016,36(6):204-213.
[8] ELGAMMAL A, DURAISWAMI R, HARWOOD D, et al. Background and foreground modeling using nonparametric kernel density estimation for visual surveillance[J]. Proceedings of the IEEE,2002,90(7):1151-1163.
[9] THANARAT HORPRASERT, DAVID HARWOOD, LARRY DAVIS. A statistical approach for real-time robust background subtraction and shadow detection[J]. Proc Int Conf Computer Vision. IEEE Frame Rate Workshop,1999(2):1-19.
[10] JU ZHIYONG, HE XIAOLEI, WANG CHAONAN. Moving object and shadow detection algorithm using lab color space[C].International Conference on Machinery, Materials and Information Technology Applications(ICMMITA 2016),2016:79-85.
[11] 趙冉陽,張心言,吳志紅.基于復(fù)式滑動窗口的車輛排隊長度檢測方法[J].計算機技術(shù)與發(fā)展,2015,25(11):17-22.
[12] 朱孝山,李德玉,賈俊芳.基于改進Canny邊緣檢測算法的車輛排隊長度檢測方法[J].山西大學(xué)學(xué)報:自然科學(xué)版,2011,34(3):368-373.
[13] 何芝娟,陳小雕.一種基于YUV空間的彩色邊緣檢測算法[J].杭州電子科技大學(xué)學(xué)報,2012,32(6):49-52.
[14] OGE MARQUES.實用MATLAB圖像和視頻處理[M].章毓晉,譯.北京:清華大學(xué)出版社,2013.
[15] 何坤,鄭秀清,張永來.紋理模糊的圖像分割[J].四川大學(xué)學(xué)報:工程科學(xué)版,2015,47(4):111-117.
(責(zé)任編輯:杜能鋼)