陳景濤,楊志剛,程 力,王華磊
(重慶交通大學 機電與汽車工程學院,重慶 400074)
近幾年,動態(tài)目標檢測[1]是一個研究的熱點,主要是由于它在智能監(jiān)控、工業(yè)檢測、醫(yī)學分析、軍事等領域具有廣泛的應用前景和潛在的經濟價值。它還是目標檢測、識別和對目標行為進行描述和理解的基礎。因此國內外許多檢測、監(jiān)控、識別等相關領域的研究人員都對此進行了比較深入的研究。方法種類繁多,光流法[2-3]、幀差法[4-5]和減背景法[6]等是當今通常使用的方法。
其中,光流法的優(yōu)點在于光流不僅攜帶了目標的運動信息,而且攜帶了三維景物的結構信息,在場景信息未知情況下,能很好地檢測出運動對象,檢測準確度高,但光流法計算量大、實時性差。雖然減背景法和幀差法都具有實現簡單、實時性高的優(yōu)點,但各自都有自身的缺點。減背景法在已知簡單背景下,檢測效果好,但存在背景獲取困難、受光照影響嚴重且更新難等問題;幀差法受光照影響小,利用幀間灰度或梯度信息進行逐點比較,提取運動目標,對動背景檢測效果不理想。而SAD[7]正是減背景法和幀差法的特殊情況,二者的優(yōu)缺點SAD也兼而有之。由此可見,每種單一的方法都很難滿足在運動的車輛上進行動態(tài)目標檢測的需要。經過查閱資料及相關研究,我們決定聯(lián)合兩種能夠互補優(yōu)缺點的算法,即利用光流法與SAD算法各自的優(yōu)點,提出了我們的研究課題。
基于SAD的穩(wěn)定視頻法是一種模板匹配法,它的核心就是模板匹配模塊。首先設需要運用的模板大小為M×N,時刻t和t+1的圖像灰度值分別為f(x,y,t)和f(x,y,t+1),然后使用模板匹配塊來計算在每個像素點的差分絕對值,如下式所示。
通過式(1)將輸入圖像的像素點與模板上對應的像素點進行SAD運算,而計算結果中的SAD值最小的那個像素點正是檢測區(qū)域內的最佳模板位置,而模板所覆蓋的區(qū)域正是檢測目標原始運動的區(qū)域,因此就可獲得目標運動的原始位置信息,將該信息與輸入的目標信息進行處理之后就可獲得檢測目標與其原始位置的位移矢量。平移模塊就會利用這個矢量來轉換每幀的圖像,由此來消除不必要的攝像頭平移運動或振動帶來的圖像干擾問題,從而獲得穩(wěn)定的視頻流。具體的Simulink仿真模型如圖1所示,仿真結果如圖2所示。
光流法的主要任務就是計算光流場[8],通常有基于全局光流場和特征點光流場兩種方法。最經典的全局光流場計算方法是L-K(Lucas & Kanade)法[9]和H-S(Hom & Schunck)法[10]。得到全局光流場后,通過比較運動目標與背景之間的運動差異對運動目標進行光流分割,缺點是計算量大,這個缺點可以用一些方法來彌補;特征點光流法通過特征匹配求特征點處的流速,具有計算量小、快速靈活的特點,但稀疏的光流場很難精確地提取運動目標的形狀。
下面所討論求光流的方法主要是參考Horn和Schunck在1981年發(fā)表的該方面的理論,即用全局平滑約束條件與基本約束光流方程聯(lián)合求解光流值。通過一些數學運算就可以將此方法簡化成關于下面的式子[8]。
本文處理的都是視頻圖像,因此需要處理的是一個圖像序列。在此處,我們?yōu)榱藴p少計算量,彌補H-S法的缺點,提高效率及實時性,利用一次迭代的結果進行初始化圖像序列中的當前圖像對。下面是在圖像序列中進行的光流計算的步驟。
(1)首先對圖像中的每個像素點(i,j)的光流值進行估計,并將此估計值作為初始值賦給c(i,j)。
(2)對目前正處理的圖像進行編號,設m為它的序列號。并估計接下來的那幅圖像中的每個像素,如下所示。
(3)返回第2步,對下一幅圖像繼續(xù)處理直到處理完圖像序列中每一幅圖像,才退出來終止。
系統(tǒng)的結構主要由視頻輸入部分、SAD &Stablization部分、光流計算部分、閥值與區(qū)域濾波部分以及視頻顯示部分(包括Stablization Video和最終結果顯示)組成。
具體如圖3所示的Simulink仿真模型,首先通過視頻輸入設備獲取視頻,然后將其經過SAD &Stablization模塊處理,消除不必要的攝像頭的平移運動或振動帶來的圖像干擾問題,從而獲得穩(wěn)定的視頻流,處理后的結果如圖2(b)所示。在前面的過程中也獲得了運動目標區(qū)域的檢測并將其提取出來,之后將這個帶有目標區(qū)域的穩(wěn)定視頻流送進H-S光流算法模塊,讓其進行處理得到該區(qū)域的光流場如圖5(a)所示。最后再通過閥值與區(qū)域濾波模塊獲得我們需要的閥值結果如圖5(b)所示以及最終的目標檢測結果如圖5(c)所示。
仿真試驗以主頻為2.10 GHz的CPU,2 GB內存的32位的普通PC機為硬件平臺,采用Matlab/Simulink進行系統(tǒng)建模和仿真,結果如下。
通過觀察上面的仿真結果以及圖像上的光流點的分布如圖4(a),可以看出在沒有加入SAD穩(wěn)定算法時,整個圖片幾乎每個角落都有光流的蹤跡。閥值結果圖4(b)給我們的感覺就是運動部分比較分散,連車輛前面的道路以及樹木等非目標的移動都被很明顯地檢測出來了,這樣得出的結果就如圖4(c)所示,精確度不高,重要區(qū)域檢測的重合度導致車輛分辨能力降低。而將經過SAD穩(wěn)定算法處理后的視頻進行光流檢測的結果如圖5(a),明顯感覺到光流點的分布比較集中,最重要的是集中在了車輛前方的運動目標上,觀察閥值結果的圖5(b)中發(fā)現盡管在周圍有零星的白點,那可能是一些不可避免的干擾,總體來看白色區(qū)域集中在目標區(qū)域中,這樣更加確定光流點分布的精確度比較高。最后的結果如圖5(c)所示,檢測結果符合要求。
比較經過兩種圖像信息處理方法處理的結果很明顯地看出,SAD算法與光流法結合的方法效果很好。SAD算法不僅計算出相鄰兩幀圖像存在一致的運動偏移,還根據該偏移矢量消除了視頻序列幀間出現的偏差,使車輛前方目標車輛區(qū)域的檢測很明確,并且將旁邊車道上的運動車輛區(qū)域獨立地檢測出來,如圖5(c)所示。另外,在SAD算法運用的過程中,就將運動區(qū)域與非運動區(qū)域加以分開,如圖5(a)所示,在后面光流運算過程中可以僅在運動區(qū)域檢測動態(tài)目標的信息,如此就可以減少運算量,在實時性上有一定的提高。本文主要是在比較理想的背景下運用軟件仿真檢測的,對于復雜背景下不是太合適,但也是對這方面的一個探索,在此基礎上我們還會研究更進一步的方法來適應復雜背景下運動車輛的目標檢測問題。
References)
[1]BARON J, FLEET D,BEAUCHEMIN S. Performance of Optical Flow Techniques[J].International Journal of Computer Vision,1994,12(1):43-77.
[2]COLLINS R,LIPTON A,KANADE T,et al. A System for Video Surveillance and Monitoring[R]. CMU-RITR-00-12,2000.
[3]FEJES S,DAVIS L S. What Can Projections of Flow Fields Tell Us About the Visual Motion[C]. Proc of the 6th International Conference on Computer Vision,1998:979-986.
[4]HARITAOGLU I,HARWOOD D,DAVIS L W. Real-Time Surveillance of People and Their Activities[J].IEEE Trans Pattern Analysis and Machine Intelligence,2000,22(8):809-830.
[5]PARAGIOS N,DERICHE R. Geodesic Active Contours and Level Sets for the Detection and Tracking of Moving Objects[J]. IEEE Transactions on Pattern Analysis and Machine Interface,2000,22(3):266-280.
[6]LIPTON A,FUJIYOSHI H,PATIL R. Moving Target Classification and Tracking from Real-Time Video[C].Proceedings Fourth IEEE Workshop on Applications of Computer Vision. WACV'98 (Cat. No.98EX201). U.S.:Princeton,NJ,1998:8-14.
[7]向友君,雷娜,余衛(wèi)宇,等. 運動估計算法匹配準則研究[J].計算機科學,2009,36(9):279.
Xiang Youjun,Lei Na,Yu Weiyu,et al .Research of Block Matching Criterion for Motion Estimation[J].Computer Science. 2009,36(9):279.(in Chinese)
[8]GROSSBERG S,MINGOLLAA E. Neural Dynamics of Visual Motion Perception:Local Detection and Global Grouping[C]. Carpenter G A,Grossberg eds.Neural Networks for Vision and Image Processing.Massachusetts:MIT Press,1992:293-842.
[9]LUCAS B,KANADE T. An Iterative Image Registration Technique with an Application to Stereo Vision[C]. Proc.of DARPA IU Workshop,1981:121-130.
[10]HORN B K,SCHUNCK B G. Determining Optical Flow[J]. Artificial Intelligence,1981,17(1-3):185-204.