張?chǎng)侮?陳娟+孔堯+孫海威+高亞紅+汪羚
摘要摘要:隨著信息化進(jìn)程不斷加快,信息技術(shù)極大促進(jìn)了視頻監(jiān)控技術(shù)的發(fā)展??衫糜?jì)算機(jī)視覺(jué)方法自動(dòng)分析攝像機(jī)拍錄的圖像序列,從而有效跟蹤、識(shí)別和檢測(cè)動(dòng)態(tài)場(chǎng)景中的目標(biāo)。研究移動(dòng)智能終端視頻監(jiān)控系統(tǒng)及其相關(guān)技術(shù),提出一種適用于移動(dòng)終端的智能視頻監(jiān)控系統(tǒng),搭建視頻監(jiān)控服務(wù)器,設(shè)計(jì)快速行人檢測(cè)算法。
關(guān)鍵詞關(guān)鍵詞:移動(dòng)視頻監(jiān)控;跟蹤識(shí)別;行人檢測(cè)
DOIDOI:10.11907/rjdk.162189
中圖分類號(hào):TP319文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào)文章編號(hào):16727800(2017)001006004
針對(duì)上述傳統(tǒng)監(jiān)控系統(tǒng)中存在的各種缺陷,智能監(jiān)控系統(tǒng)(Intelligent Video Surveillance, IVS)能夠很好地解決這些問(wèn)題。通過(guò)計(jì)算機(jī)對(duì)視頻場(chǎng)景中的大量圖像信息數(shù)據(jù)進(jìn)行實(shí)時(shí)、快速處理,并濾除不需要的背景信息,抽取與監(jiān)控場(chǎng)景相關(guān)的前景信息,進(jìn)而對(duì)感興趣的目標(biāo)進(jìn)行分析和描述。
1移動(dòng)智能視頻監(jiān)控系統(tǒng)關(guān)鍵技術(shù)1.1智能視頻監(jiān)控算法框架
智能視頻監(jiān)控研究的主要內(nèi)容就是如何從原始視頻數(shù)據(jù)中提取出符合人類認(rèn)知的語(yǔ)義理解[4],即希望計(jì)算機(jī)能和人一樣自動(dòng)分析理解視頻數(shù)據(jù)。一般而言,智能視頻監(jiān)控對(duì)視頻圖像的處理可以分為以下3個(gè)層次:
(1)底層。從視頻圖像采集終端獲取圖像序列,對(duì)感興趣目標(biāo)進(jìn)行檢測(cè)和跟蹤,以便對(duì)目標(biāo)進(jìn)行后續(xù)處理分析,主要解決目標(biāo)在哪里的問(wèn)題。
(2)中層。在底層的基礎(chǔ)上提取運(yùn)動(dòng)目標(biāo)的各種信息,并進(jìn)行相關(guān)判斷及目標(biāo)識(shí)別。目標(biāo)識(shí)別是為了對(duì)目標(biāo)進(jìn)行分類,進(jìn)而識(shí)別目標(biāo)的身份,可分為目標(biāo)分類和個(gè)體識(shí)別。中層分析為底層處理到高層行為理解搭建了橋梁,填補(bǔ)了底層與高層之間的語(yǔ)義間隔,主要是為了解決目標(biāo)是什么的問(wèn)題。
(3)高層。高層處理完成對(duì)目標(biāo)的行為進(jìn)行分析和理解。高層的語(yǔ)義蘊(yùn)含著特定的語(yǔ)義場(chǎng)景,往往和具體的應(yīng)用緊密相關(guān)。行為分析可以分為姿態(tài)識(shí)別、行為識(shí)別和事件分析,主要是為了解決目標(biāo)在干什么的問(wèn)題。
總之智能視頻監(jiān)控研究的主要目的就是要讓計(jì)算機(jī)回答感興趣目標(biāo)在哪里?是什么?在干什么?甚至預(yù)測(cè)感興趣目標(biāo)下一步的行為。
1.2移動(dòng)智能視頻監(jiān)控系統(tǒng)的關(guān)鍵算法
1.2.1CENTRIST算法的具體計(jì)算步驟
(1)對(duì)待處理圖像進(jìn)行灰度化、平滑濾波濾波器為Sobel算子(見(jiàn)圖2),可以看出濾波后能夠消除局部紋理特征并提取出基本的邊緣信息。
(2)根據(jù)步驟Step1所得圖像I像素間的大小關(guān)系構(gòu)造一個(gè)新的圖像I′,只需要關(guān)注像素大小的關(guān)系,如式(1)所示。圖像I有2<8、32、38、96、64,則圖像I′
1.2.2支持向量機(jī)分類算(SVM)
在實(shí)際監(jiān)控預(yù)警中,如果對(duì)每一張圖都進(jìn)行描述符提取以及通過(guò)線性分類器判決是否包含行人,無(wú)疑浪費(fèi)運(yùn)算資源和存儲(chǔ)資源。本文將行人檢測(cè)分為以下幾個(gè)主要部分:
(1)圖像采集以及參數(shù)設(shè)定。本算法中主要是設(shè)定用于運(yùn)動(dòng)檢測(cè)的計(jì)數(shù)器i;初始設(shè)置為0值。
(2)圖像預(yù)處理:包括色彩空間變換、去噪以及灰度化等。本算法檢測(cè)前需要對(duì)彩色視頻圖像進(jìn)行灰度化處理,并采用Gamma公式壓縮圖像大小。
(3)運(yùn)動(dòng)檢測(cè):判斷視頻圖像中是否有運(yùn)動(dòng)物體闖入,為了防止由于亮度突變等環(huán)境變化影響判斷,需要連續(xù)多幀圖像檢測(cè)到運(yùn)動(dòng)目標(biāo)闖入才會(huì)進(jìn)行下一步行人檢測(cè)。此時(shí)需要將計(jì)數(shù)器i重新設(shè)置為0,以便于下次檢測(cè)重新開(kāi)始計(jì)數(shù)。
(4)行人檢測(cè):當(dāng)步驟3連續(xù)檢測(cè)出運(yùn)動(dòng)物體i值超過(guò)設(shè)定的閾值后,開(kāi)始進(jìn)行行人檢測(cè)。主要通過(guò)提取當(dāng)前幀的CENTRIST描述符,并用已經(jīng)訓(xùn)練好的線性SVM分類器[10]判決闖入的運(yùn)動(dòng)物體是否是行人。
3實(shí)驗(yàn)結(jié)果
本實(shí)驗(yàn)采用INRIA的標(biāo)準(zhǔn)行人數(shù)據(jù)庫(kù),其包括一個(gè)訓(xùn)練庫(kù)和一個(gè)測(cè)試庫(kù)。其訓(xùn)練庫(kù)共包含2 416個(gè)正樣本和3 000多個(gè)負(fù)樣本;測(cè)試庫(kù)包含1 126個(gè)正樣本。所有樣本的尺寸大小都為108×36個(gè)像素如圖4所示。測(cè)試集中包括各種不同光照條件、多種行走姿態(tài)、不同穿著和視角的行人。
首先使用INRIA庫(kù)訓(xùn)練出線性SVM分類器,并重新檢測(cè)圖像源圖像(見(jiàn)圖5(a)),結(jié)果如圖5(b)所示。對(duì)比實(shí)驗(yàn)結(jié)果可以發(fā)現(xiàn),對(duì)于正常高度的行人以及遮擋不是很明顯的圖像CENTRIST+SVM檢測(cè)效果要明顯好于默認(rèn)樣本訓(xùn)練的。
4結(jié)語(yǔ)
本文主要分析了行人檢測(cè)經(jīng)典算法HOG+SVM,并分析對(duì)其在視頻監(jiān)控系統(tǒng)中運(yùn)算速度慢以及檢測(cè)效果不理想等缺點(diǎn),在此基礎(chǔ)上提出了兩項(xiàng)改進(jìn):①用CENTRIST代替HOG描述符,實(shí)驗(yàn)表明在行人檢測(cè)中分類效果沒(méi)有明顯降低的情況下,前者的提取速度是后者的7倍左右;②針對(duì)行人檢測(cè)中支持向量維數(shù)太高嚴(yán)重影響檢測(cè)速度的缺點(diǎn),提出了一種快速SVM分類方法,通過(guò)轉(zhuǎn)換矩陣的映射降低支持向量的維數(shù),從而加快分類決策的速度。
圖5實(shí)驗(yàn)對(duì)比
參考文獻(xiàn):
[1]黃凱奇.智能視頻監(jiān)控技術(shù)綜述[J].計(jì)算機(jī)學(xué)報(bào),2015,38(6):12251224.
[2]高素萍.智能小區(qū)安防系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[J].電氣應(yīng)用, 2006, 25(6): 120124.
[3]蔣馨.淺析國(guó)外智能視頻監(jiān)控技術(shù)的發(fā)展及應(yīng)用[J].中國(guó)安防, 2011 (10): 105108.
[4]T MATSUYAMA.Cooperative distributed vision:dynamic integration of visual perception, action, and communication[Z].KI'99, 1999:7588.
[5]RUAZ I, PIAO J, SHIN H.Human detection by using CENTRIST features for thermal images[C].International Conference Computer Graphics, Visualization, Computer Vision and Image Processing,2013.
[6]YANG H Y, WANG X Y, WANG Q Y, et al.LSSVM based image segmentation using color and texture information[J].Journal of Visual Communication and Image Representation, 2012, 23(7): 10951112.
[7]HWANG Y S, KWAK J C, LEE K Y.Implementation of a pedestrian detection device based on CENTRIST for an embedded environment[J].Advanced Science and Technology Letters Embedded Ubiquitous, SERSC, 2014(46):123127.
[8]LIU Q, ZHUANG J, KONG S.Detection of pedestrians at night time using learningbased method and head validation[C]//Imaging Systems and Techniques (IST), 2012 IEEE International Conference on.IEEE, 2012: 398402.
[9]DU Y, LU X, CHEN L, et al.An interval type2 TS fuzzy classification system based on PSO and SVM for gender recognition[J].Multimedia Tools and Applications,2014(12):111.
[10]ZHAO J, CHAI J, MEN G.A fast quasidense matching algorithm with an adaptive window[C].Control and Decision Conference, 2009.CCDC'09.Chinese.IEEE, 2009: 43754379.