国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種運(yùn)動背景下視覺注意輔助的目標(biāo)檢測方法

2018-10-09 06:08李鵬王延江
關(guān)鍵詞:匹配目標(biāo)檢測

李鵬 王延江

摘 要:針對運(yùn)動背景下序列圖像中前景目標(biāo)難以準(zhǔn)確檢測的問題,提出了一種視覺注意輔助ViBe算法的目標(biāo)檢測方法.首先利用提出的“記憶窗”隨機(jī)抽樣一致性算法估計(jì)出背景運(yùn)動模型,再將補(bǔ)償后的幀圖像送入視覺顯著性輔助ViBe算法進(jìn)行目標(biāo)檢測,其中背景更新因子由圖像的二維熵和顯著性共同決定,同時(shí),顯著性特征也被用來對“鬼影”效應(yīng)進(jìn)行濾波抑制.實(shí)驗(yàn)結(jié)果表明,在缺乏運(yùn)動前景目標(biāo)的先驗(yàn)知識的情況下,本方法能夠有效地解決通常方法對運(yùn)動背景中的目標(biāo)難以甚至無法檢測的問題,并且具有較高的魯棒性和檢測效率.

關(guān)鍵詞:視覺注意;匹配;目標(biāo)檢測;置信度

中圖分類號:TP391.4 文獻(xiàn)標(biāo)志碼:A

Abstract: It is difficult to detect the foreground targets accurately in the sequence images in the situation of moving background. According to the characteristics of the targets in moving backgrounds, a fast visual saliencyaided ViBe method was proposed. The “memory window” random sample consensus algorithm was first proposed to estimate the background motion model. Then, the compensated frames were delivered into the detection algorithm with adaptive background updating factor determined by the twodimensional entropy and saliency of the image. The saliency was also used to suppress the “ghost” effect. Experimental results show that, in the absence of prior knowledge of the moving foreground targets, the proposed method can effectively detect targets in the situation of moving background, and it also has good robustness and high efficiency.

Key words: visual attention;matching;target detection;confidence

運(yùn)動目標(biāo)檢測是計(jì)算機(jī)視覺領(lǐng)域研究的熱點(diǎn)之一.根據(jù)攝像頭是否保持靜止,可分為靜態(tài)背景下的檢測和運(yùn)動背景下的檢測[1].其中,運(yùn)動背景下的目標(biāo)檢測由于整體場景發(fā)生移動、旋轉(zhuǎn)或抖動,增加了檢測的難度.

基于圖像序列(或視頻)的目標(biāo)檢測常用的方法[2]主要有幀差法、背景差法和光流法等.幀差法所提取的運(yùn)動目標(biāo)內(nèi)部易產(chǎn)生空洞甚至因快速運(yùn)動造成不連續(xù)現(xiàn)象,雖然目前的三幀差法、五幀差法等對此有一定改善,但效果仍欠佳.背景差分法的檢測效果依賴于背景模型的準(zhǔn)確性,其中高斯混合模型(Gaussian Mixture Model,GMM)是應(yīng)用廣泛的方法之一[3].GMM對于靜態(tài)背景下的檢測有良好的魯棒性,但是其更新學(xué)習(xí)的方式運(yùn)算代價(jià)較大.ViBe[4]算法是近年提出的一種像素級的快速有效且易于實(shí)現(xiàn)的背景建模算法,它利用首幀即可初始化背景模型,對靜態(tài)背景下的運(yùn)動目標(biāo)能取得良好的檢測效果.光流法是近年來運(yùn)動目標(biāo)檢測的一個(gè)研究熱點(diǎn),其在運(yùn)動邊界處的計(jì)算誤差較大,而且算法中亮度恒定的假設(shè)通常會被光照變化和噪聲破壞,此時(shí)將難以得到準(zhǔn)確的目標(biāo)運(yùn)動信息.Liu等[5]在彩色圖像的基礎(chǔ)上提出了SIFT流方法,利用了SIFT描述子的尺度、旋轉(zhuǎn)和仿射不變性.雖然SIFT流相較傳統(tǒng)光流法提高了運(yùn)動檢測效果,但計(jì)算代價(jià)過大,因此處理效率較低.

事實(shí)上,在運(yùn)動背景下檢測運(yùn)動目標(biāo),往往需要對背景進(jìn)行全局運(yùn)動補(bǔ)償[6],其核心是通過相鄰幀背景中對應(yīng)數(shù)據(jù)點(diǎn)間的匹配來估計(jì)全局背景運(yùn)動參數(shù),從而將檢測行為“轉(zhuǎn)化”到靜態(tài)背景情形下.Kim等人[7]提出了一種基于多單應(yīng)性矩陣的運(yùn)動背景下的目標(biāo)檢測方法,能較好地檢測到目標(biāo),但檢測出的目標(biāo)形狀往往不完整或有較大空隙,且該方法處理效率較低.Yang等人[8]提出一種基于空時(shí)特征的背景建模方法,通過無記憶的更新策略對背景模型進(jìn)行更新來提取運(yùn)動目標(biāo).該方法也能較準(zhǔn)確地定位運(yùn)動成份,但卻容易造成目標(biāo)的割裂.隨機(jī)抽樣一致性(random sample consensus,RANSAC)算法[9]具有易于實(shí)現(xiàn)和魯棒性高的優(yōu)點(diǎn),是當(dāng)前最流行的一種全局參數(shù)估計(jì)算法.但其主要缺點(diǎn)是迭代次數(shù)隨“局外點(diǎn)(outliers)”比例的增加而急劇增長,導(dǎo)致算法效率顯著降低.文獻(xiàn)[10-11]提出了快速RANSAC算法,利用預(yù)檢驗(yàn)或者在局內(nèi)點(diǎn)集中重抽樣等辦法,大大提高了算法的收斂速度.近年來,研究人員在目標(biāo)檢測中引入視覺注意機(jī)制來提高檢測準(zhǔn)確度,文獻(xiàn)[12]采用視覺注意機(jī)制結(jié)合粒子窗的方法,通過建立多級分類器來檢測運(yùn)動目標(biāo),取得了較好效果.但是該模型需要訓(xùn)練Adaboost或SVM分類器,不具備實(shí)時(shí)性.文獻(xiàn)[13]基于視覺注意檢測行人,并規(guī)劃了注意焦點(diǎn)路徑,該方法雖能檢測到目標(biāo)的顯著位置,但難以獲得目標(biāo)的整體形態(tài)輪廓.

根據(jù)運(yùn)動背景下目標(biāo)檢測的特點(diǎn),本文提出了一種視覺注意輔助的快速運(yùn)動目標(biāo)檢測方法.首先提出了記憶窗隨機(jī)抽樣一致性(memory window random sample consensus,MWRANSAC)算法,將人類視覺系統(tǒng)(Human Visual System,HVS)的瞬時(shí)記憶特性應(yīng)用到數(shù)據(jù)點(diǎn)的傳播建模,對各匹配數(shù)據(jù)點(diǎn)對(pointpair)按照其置信度的大小進(jìn)行重要性抽樣,提高了算法的收斂速度.為了得到運(yùn)動前景目標(biāo),將視覺注意機(jī)制引入至ViBe框架,利用視覺注意機(jī)制輔助生成動態(tài)背景更新因子,同時(shí)視覺注意也被用來對“鬼影(ghost)”進(jìn)行有效的抑制.

1 MWRANSAC算法

HVS具有快速檢測、搜索感興趣目標(biāo)的能力.視覺和心理學(xué)的研究表明,在缺乏運(yùn)動目標(biāo)的形狀和運(yùn)動規(guī)律等先驗(yàn)知識的情況下, HVS的瞬時(shí)記憶功能對運(yùn)動目標(biāo)的檢測具有一定促進(jìn)作用[14-16].受此啟發(fā),本文提出一種快速的MWRANSAC算法,對各數(shù)據(jù)點(diǎn)按照滑動窗內(nèi)歷史信息賦予其可變權(quán)重,根據(jù)權(quán)重大小進(jìn)行重要性抽樣,從而加速RANSAC算法的執(zhí)行.

1.1 RANSAC 算法

1.2 基于滑動窗的數(shù)據(jù)點(diǎn)置信傳播

1.2.1 數(shù)據(jù)點(diǎn)的映射

令圖像序列的第t幀記作It,我們首先采用簡單快速的FAST算法檢測出角點(diǎn)[19],其中的角點(diǎn)定義為鄰域內(nèi)有足夠多的像素點(diǎn)處于不同的灰度階的像素點(diǎn).由于序列中各幀的角點(diǎn)數(shù)并非固定,對It保留最顯著的Nct個(gè)角點(diǎn)組成該幀的角點(diǎn)集: Pt=pitNcti=1,其中pit表示It的第i個(gè)角點(diǎn).定義It的數(shù)據(jù)點(diǎn)集Dt為Pt與前一幀數(shù)據(jù)點(diǎn)集Dt-1在It的映射集的并集,即有:PtDt.兩相鄰幀間的匹配點(diǎn)映射采用金字塔LucasKanade(LK) 稀疏光流方法獲得[20],相鄰幀(不失一般性,分別記作 It-1和It)間的數(shù)據(jù)點(diǎn)映射示意圖如圖1所示.其中,黑實(shí)心圓點(diǎn)表示該幀中的角點(diǎn)數(shù)據(jù)點(diǎn),空心圓點(diǎn)表示非角點(diǎn)數(shù)據(jù)點(diǎn);各有向線段表示鄰幀各點(diǎn)間的匹配映射.第i對匹配點(diǎn)對中兩個(gè)點(diǎn)的坐標(biāo)分別記作(xit,yit)和(xi′t,yi′t),點(diǎn)對間的位移向量記作vit.需要注意的是,由于各幀角點(diǎn)提取的獨(dú)立性,It-1中的角點(diǎn)在It中的匹配點(diǎn)不一定再是角點(diǎn);It-1中的非角點(diǎn)(首幀除外)在It中的對應(yīng)點(diǎn)也可能首次或再次成為角點(diǎn).相鄰兩幀間由于場景的全局運(yùn)動使得部分?jǐn)?shù)據(jù)點(diǎn)在幀邊緣處進(jìn)入或者離開場景,導(dǎo)致這些點(diǎn)無法找到正確的對應(yīng)點(diǎn)而形成誤匹配.實(shí)驗(yàn)表明,這些邊緣點(diǎn)的光流矢量大小易于很小或者很大,因此本節(jié)算法中設(shè)定兩個(gè)閾值Tbtm和Ttop以去除誤匹配點(diǎn).

1)鬼影效應(yīng).當(dāng)首幀中存在前景運(yùn)動目標(biāo)時(shí),由于目標(biāo)像素也會作為背景加入到初始背景模型中,因此即使當(dāng)運(yùn)動目標(biāo)移動走后,在其原處也會誤檢測到“目標(biāo)”,形成所謂的鬼影.圖2是我們用人工二值圖像序列得到的鬼影示意圖.序列中只包含一個(gè)大小5×5像素的方形運(yùn)動目標(biāo)(顯示為白色).由于第1幀包含運(yùn)動目標(biāo),從第2幀開始的后續(xù)幀中ViBe除順利檢測出運(yùn)動目標(biāo)外(圖2的第2行),也在對應(yīng)于首幀原目標(biāo)位置處誤檢測到鬼影.

雖然隨著序列檢測過程的進(jìn)行鬼影會逐漸變小乃至消除,但由于其一般具有幾十到上百幀的持續(xù)時(shí)間(以上人工序列中鬼影持續(xù)到第24幀),將嚴(yán)重影響目標(biāo)檢測結(jié)果的準(zhǔn)確性.

2)固定背景更新因子.在背景模型更新過程中,并不是在每一幀數(shù)據(jù)都進(jìn)行更新,而是按一定的更新概率1/φ(通常取φ=16),算法計(jì)算量較小,但這也意味著背景樣本集只有1/16的概率得到更新,當(dāng)背景變化很快時(shí),背景模型無法適應(yīng)這一變化,導(dǎo)致檢測性能下降.

2.2 視覺注意機(jī)制下的背景更新

為了克服ViBe的鬼影效應(yīng)以及固定背景更新因子所帶來的問題,我們引入視覺注意機(jī)制.

2.2.1 綜合顯著圖的提取

HVS對于運(yùn)動的或者與周圍反差較大的物體反應(yīng)較為敏感[23].根據(jù)這一視覺感知特性,本文提取空域靜態(tài)顯著特征和時(shí)域運(yùn)動顯著特征,并動態(tài)加權(quán)融合得到綜合顯著性圖.

靜態(tài)視覺注意數(shù)學(xué)模型大體上可分為認(rèn)知模型、決策論模型、頻域模型和圖論模型等[24].相較之下,我們選擇運(yùn)算速度具有優(yōu)勢的頻域模型作為本文靜態(tài)顯著性(圖)的提取模型.其中,Hou 等人[25]提出了利用“圖像簽名(Image Signature ,IS )”算子對顯著性進(jìn)行描述,在離散余弦(Discrete CosineTransform,DCT ) 變換域中定義符號函數(shù),通過對重構(gòu)圖像平滑濾波提取顯著區(qū)域.徐超等人[12]的實(shí)驗(yàn)表明,IS頻域模型具有快速的平均運(yùn)行時(shí)間,同時(shí)所提取的顯著圖也具有較高的綜合準(zhǔn)確度.因此本文采用IS模型作為靜態(tài)顯著性的獲取手段.

實(shí)驗(yàn)表明,采用上述再初始化方法在絕大多數(shù)情況下經(jīng)過連續(xù)11幀左右即可較好地抑制鬼影.之所以很難在更短的時(shí)間內(nèi)完全抑制鬼影,是由于視覺顯著圖往往并不具備精細(xì)的目標(biāo)輪廓,因而在算法從第2幀開始執(zhí)行的初始幾幀,顯著區(qū)域往往與鬼影區(qū)域有一定的重疊或“粘連”,這在一定程度上影響了再初始化的執(zhí)行效果.因此,本文算法只在第2幀開始的后續(xù)11幀內(nèi)進(jìn)行鬼影抑制,而不必在視頻序列的每一幀都執(zhí)行,這樣在保證較好的抑制效果的同時(shí)兼顧了較低的計(jì)算量.

2.3 方法總結(jié)

整體檢測方法的基本過程如下:

1) 提取FAST角點(diǎn),用提出的MWRANSAC 算法獲取鄰幀間的全局運(yùn)動模型Mbest .

2) 用Mbest對幀圖像進(jìn)行運(yùn)動補(bǔ)償,以消除圖像的全局運(yùn)動.

3) 幀圖像送入改進(jìn)的ViBe檢測框架.求取顯著圖,以顯著圖和二維熵協(xié)同產(chǎn)生動態(tài)的背景更新因子φ:在背景變化較快的情形下減小φ的值,變化較慢的情形下增加φ的值.用顯著圖對得到的前景二值圖像進(jìn)行濾波,并結(jié)合再初始化操作來抑制鬼影效應(yīng).方法的整體流程如圖6所示.

3 實(shí)驗(yàn)結(jié)果與分析

為了驗(yàn)證本文方法的有效性,我們選擇來自4個(gè)數(shù)據(jù)庫的動態(tài)視頻序列進(jìn)行目標(biāo)檢測實(shí)驗(yàn),并與ViBe、SIFT流、文獻(xiàn)[7]、文獻(xiàn)[8]、文獻(xiàn)[13]檢測方法以及本文MWRANSAC算法運(yùn)動補(bǔ)償后直接采用ViBe算法不采用動態(tài)更新因子的情形(以下簡稱為“靜態(tài)模型”)進(jìn)行比較.實(shí)驗(yàn)環(huán)境為CoreTMi7 CPU 處理器,16 GB內(nèi)存,Windows 7操作系統(tǒng)的個(gè)人電腦,使用Matlab平臺+(圖像處理工具箱和視覺顯著性工具箱).本文測試的總共9個(gè)視頻序列名稱及其參數(shù)如表1所示,這些序列包括了運(yùn)動或動態(tài)背景下對剛性或非剛性目標(biāo)的檢測情形,它們分別取自于權(quán)威的change detection檢測視頻集[28],序列6~序列9(序列6去掉了下方的日期標(biāo)簽條),VIVID數(shù)據(jù)庫[29](序列1),慕尼黑理工大學(xué)形變目標(biāo)跟蹤數(shù)據(jù)庫[30](序列2~序列3)以及FBMS 數(shù)據(jù)庫[31](序列4~序列5).這些序列中,序列6~序列9所有幀的目標(biāo)塊的Ground truth 數(shù)據(jù)庫已經(jīng)給出,序列4~序列5中原數(shù)據(jù)庫給出部分幀的Ground truth,其余序列中目標(biāo)的 Ground truth我們?nèi)斯?biāo)注.序列1~序列3的Ground truth也由人工標(biāo)注產(chǎn)生.

3.2 MWRANSAC算法實(shí)驗(yàn)結(jié)果與分析

圖8是本文第1節(jié)MWRANSAC算法與未采用記憶機(jī)制的原始RANSAC算法[9]、文獻(xiàn)[32]的基于子圖像塊匹配以及文獻(xiàn)[7]的基于多單應(yīng)性矩陣計(jì)算的運(yùn)動補(bǔ)償算法的抽樣比較結(jié)果.我們選擇文獻(xiàn)[7]和[32]中提出的補(bǔ)償算法作為比較是因?yàn)樗鼈兎謩e較好地代表了目前全局運(yùn)動補(bǔ)償方法中基于傳統(tǒng)特征匹配的單單應(yīng)性矩陣(singlehomography matrix)和基于分組的多單應(yīng)性矩陣(multihomography matrix)兩類方法.從圖中直觀地看到,與圖8(g)的傳統(tǒng)幀差法相比,各補(bǔ)償算法(圖8(c)~圖8(f))在效果上都得到了改善.而這其中,文獻(xiàn)[32]和本文的MWRANSAC算法取得了相近的最好的補(bǔ)償效果.

式中:(i,j)表示像素位置坐標(biāo).由全部測試視頻序列計(jì)算得到的平均灰度差均值和平均計(jì)算時(shí)間見表2.文獻(xiàn)[7]的平均灰度差均值只有2.84,具有最好的補(bǔ)償效果,本文MWRANSAC算法的平均灰度差均值為2.91,意味著兩種算法補(bǔ)償效果相近;但從計(jì)算時(shí)間上看,MWRANSAC則具有最高的計(jì)算效率,僅為0.016 s,明顯低于文獻(xiàn)[7]算法.綜合來看,相比其他算法本文MWRANSAC算法在保證了較好的補(bǔ)償效果的同時(shí)兼顧了良好的計(jì)算效率.

3.3 檢測實(shí)驗(yàn)結(jié)果與分析

3.3.1 定性分析

圖9是各種方法針對剛性目標(biāo)進(jìn)行檢測的抽樣結(jié)果對比.其中,第1行為源圖像,第2行為基準(zhǔn)(Ground truth)檢測結(jié)果,第3行到最后1行分別為各算法的對應(yīng)檢測結(jié)果.圖的第1列是跟隨拍攝形成的運(yùn)動背景情形下的遠(yuǎn)距離單個(gè)運(yùn)動目標(biāo)檢測;第2列是攝像頭抖動造成的運(yùn)動背景情形下的單目標(biāo)檢測;第3列是遠(yuǎn)距離多個(gè)目標(biāo)的跟隨檢測情形. 由圖9可知,在運(yùn)動背景情形下,ViBe方法將許多瑣碎背景區(qū)域檢測為前景,因此已經(jīng)不能正確地檢測出前景目標(biāo).SIFT流方法在缺少前景目標(biāo)先驗(yàn)信息的情況下,依靠矢量流的大小和方向信息也只可得到包含背景區(qū)域的大片塊狀前景,而無法得到確切的運(yùn)動前景目標(biāo).文獻(xiàn)[13]方法采用了視覺注意機(jī)制,但是在運(yùn)動背景的情形下也無法得到較為準(zhǔn)確的前景目標(biāo).文獻(xiàn)[7]、文獻(xiàn)[8]模型得到的結(jié)果直觀上好于前述幾種方法,但是依然可以看到明顯的噪聲團(tuán)塊.本文方法無論在平臺移動的跟隨拍攝或平臺抖動造成的背景運(yùn)動情形中,對于運(yùn)動目標(biāo)都可以得到較好的檢測效果,這樣,在后續(xù)的分割過程中輔以一定的形態(tài)學(xué)運(yùn)算去噪后即容易得到前景目標(biāo).圖9中也看到,未采用動態(tài)背景更新因子的靜態(tài)模型得到的檢測效果要次于動態(tài)更新因子情形,這是因?yàn)檫\(yùn)動補(bǔ)償?shù)恼`差使得背景細(xì)節(jié)發(fā)生不可避免的波動,由此降低了經(jīng)典ViBe算法的檢測效果.

圖10是各種方法針對非剛性目標(biāo)進(jìn)行檢測的對比結(jié)果抽樣.其中,第1列是平臺跟隨拍攝形成的運(yùn)動背景情形下的遠(yuǎn)距離單運(yùn)動目標(biāo)檢測;第2、3列分別是運(yùn)動背景下較近距離的單目標(biāo)和多目標(biāo)檢測情形.同樣,在背景運(yùn)動的情形下,ViBe算法無法正確檢測出前景目標(biāo),只有當(dāng)目標(biāo)個(gè)體較大(較近距離)時(shí),檢測出的目標(biāo)前景點(diǎn)較多;SIFT 流方法在背景全局運(yùn)動大于前景局部運(yùn)動情況下(第1列的滑雪者、第2列的騎手),發(fā)生嚴(yán)重的前景檢測為背景、背景區(qū)域檢測為前景的“倒置”情況,由此,在不知道目標(biāo)先驗(yàn)信息的前提下也無法得到運(yùn)動前景目標(biāo).文獻(xiàn)[13]方法利用視覺注意機(jī)制得到的檢測結(jié)果總體上好于前幾種方法,但是也存在大量背景誤檢測為前景的情況.而文獻(xiàn)[7]和文獻(xiàn)[8]檢測效果顯然優(yōu)于上述3種方法,但依然存在較為明顯的噪聲塊,且檢測到的目標(biāo)并不完整.本文方法依然可以對于不同情形下的運(yùn)動目標(biāo)得到較好的檢測結(jié)果,同樣,靜態(tài)模型由于前期采用了運(yùn)動補(bǔ)償,直觀上取得的效果僅次于采用動態(tài)更新因子的本文方法.

我們還測試了本文方法在動態(tài)背景下的目標(biāo)檢測性能(圖11).在本文中,動態(tài)背景特指攝像頭雖然靜止,但背景隨時(shí)間發(fā)生頻繁動態(tài)變化的情形(如背景是動態(tài)的波浪),它可以視作介于靜止背景和運(yùn)動背景之間的一種特例.從圖11中看到,幾種檢測方法的檢測效果總體上均要好于運(yùn)動背景的情形,這是由于沒有了背景的整體運(yùn)動,檢測問題變得相對簡單,各方法只需要處理背景的瑣碎擾動.直觀上,在這幾種方法中,本文方法有著最為準(zhǔn)確的檢測結(jié)果.這說明,本文方法不僅可以處理運(yùn)動背景下的目標(biāo)檢測,也可以處理動態(tài)背景的情形.事實(shí)上,在動態(tài)背景的情形下已經(jīng)不需要對整體運(yùn)動參數(shù)進(jìn)行估計(jì),經(jīng)過視覺注意輔助的ViBe算法就可實(shí)現(xiàn)目標(biāo)的檢測,而此時(shí)本文中靜態(tài)模型也就褪變?yōu)閭鹘y(tǒng)的ViBe算法.

任取序列8,得到其檢測成功比率演變規(guī)律如圖13所示.由圖13可知,隨著序列目標(biāo)檢測的進(jìn)行,各算法的成功比率逐漸趨于穩(wěn)定,其中本文方法擁有最高值,ViBe和靜態(tài)模型曲線發(fā)生了重疊.全部9個(gè)序列的檢測成功比率具體值則由表3給出.

從表3中可以看到,ViBe、SIFT流和文獻(xiàn)[13]方法在運(yùn)動背景的情形下的成功比率非常低,甚至為0;在動態(tài)背景(序列7~9)的情況下這一情況得到改善,但整體仍然不佳.文獻(xiàn)[7] 、文獻(xiàn)[8]和靜態(tài)模型在整體上的檢測表現(xiàn)則要好得多,而本文方法在運(yùn)動背景和動態(tài)背景情形下的表現(xiàn)平衡,具有最高的平均檢測成功比率.

4 結(jié) 論

針對背景整體發(fā)生運(yùn)動時(shí)難以準(zhǔn)確檢測前景運(yùn)動目標(biāo)的問題,提出了一種基于視覺注意機(jī)制改進(jìn)的ViBe框架的目標(biāo)檢測方法.首先通過記憶窗隨機(jī)抽樣一致性算法得到整體背景運(yùn)動模型,對幀圖像進(jìn)行運(yùn)動補(bǔ)償,再利用視覺注意輔助的自適應(yīng)背景更新的ViBe算法進(jìn)行目標(biāo)檢測,其中二維熵和顯著性共同控制背景更新因子的自適應(yīng)取值.顯著性也被用來快速抑制“鬼影”,以克服其在運(yùn)動目標(biāo)檢測中的干擾.實(shí)驗(yàn)表明,本文方法對運(yùn)動背景或動態(tài)背景下的剛性、非剛性目標(biāo)以及單目標(biāo)和多目標(biāo)都具有良好的檢測能力.

然而,我們也發(fā)現(xiàn)本文方法在檢測大運(yùn)動目標(biāo)(場景空間占比超過1/3)時(shí)效果欠佳,這是由于此時(shí)鄰幀間匹配點(diǎn)對集中包含了較多的前景點(diǎn),因而造成對背景運(yùn)動的整體估計(jì)欠準(zhǔn)確.在未來的工作中,我們考慮融合空間上下文顯著性對背景區(qū)域進(jìn)行預(yù)判,以進(jìn)一步提升檢測的魯棒性.

參考文獻(xiàn)

[1] 周許超,屠大維,陳勇,等.基于相位相關(guān)和差分相乘的動態(tài)背景下運(yùn)動目標(biāo)檢測[J].儀器儀表學(xué)報(bào),2010,31(5): 980-988.

ZHOU X C,TU D W,CHEN Y,et al.Moving object detection under dynamic background based on phasecorrelation and differential multiplication[J].Chinese Journal of Scientific Instrument ,2010 ,31(5):980-988.(In Chinese)

[2] 解曉萌.復(fù)雜背景下運(yùn)動目標(biāo)檢測和識別關(guān)鍵技術(shù)研究[D].廣州:華南理工大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院,2012:1-30.

XIE X M.Research on key techniques of moving object detection and recognition in complex background[D].Guangzhou:School of Computer Science & Engineering,South China University of Technology,2012:1-30.(In Chinese)

[3] CELIK T.Bayesian change detection based on spatial sampling and Gaussian mixture model[J].Pattern Recognition Letters,2011,32(12): 1635-1642.

[4] BARNICH O,VAN DROOGENBROECK M.VIBE: A universal background subtraction algorithm for video sequences[J].IEEE Transactions on Image Processing,2011,20(6):1709-1724.

[5] LIU C,YUEN J,TORRALBA A,et al.SIFT flow:Dense correspondence across scenes and its applications[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(5):978-994.

[6] 齊美彬,汪巍,蔣建國,等.動態(tài)場景下的快速目標(biāo)檢測算法[J].電子測量與儀器學(xué)報(bào),2011,25(9):756-761.

QI M B,WANG W,JIANG J G,et al.Rapid moving object detection under a dynamic scene[J].Journal of Electronic Measurement and Instrument,2011,25(9):756-761.(In Chinese)

[7] KIM S,YANG D W,PARK H W,et al.A disparitybased adaptive multihomography method for moving target detection based on global motion compensation[J].IEEE Transactions on Circuits and Systems for Video Technology,2016,26(8):1407-1420.

[8] YANG Y,ZHANG Q,WANG P,et al.Moving object detection for dynamic background scenes based on spatiotemporal model[J].Advances in Multimedia,2017(28):1-9.

[9] HARLEY R,ZISSERMAN A.Multiple view geometry in computer vision[M].2nd ed.Cambridge:Cambridge University Press,2003:116-123.

[10]陳付幸,王潤生.基于預(yù)檢驗(yàn)的快速隨機(jī)抽樣一致性算法[J].軟件學(xué)報(bào),2005,16 (8):1431-1437.

CHEN F X,WANG R S.Fast RANSAC with preview model parameters evaluation[J].Journal of Software,2005,16(8):1431-1437.(In Chinese)

[11]肖春寶,馮大政,馮祥衛(wèi).重抽樣優(yōu)化的快速隨機(jī)抽樣一致性算法[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2016,28(4):606-613.

XIAO C B,F(xiàn)ENG D Z,F(xiàn)ENG X W.Fast RANSAC algorithm with resample optimization [J].Journal of ComputerAided Design & Computer Graphics,2016,28(4):606-613.(In Chinese)

[12]徐超,高敏,楊鎖昌,等.視覺注意機(jī)制下的粒子窗快速目標(biāo)檢測[J].光學(xué)精密工程,2015,23(11): 3227-3237.

XU C,GAO M,YANG S C,et al.Visual attention mechanismaided fast target detection by particle window[J].Optics and Precision Engineering,2015,23(11):3227-3237.(In Chinese)

[13]黎寧,龔元,許莙苓,等.視覺注意機(jī)制下結(jié)合語義特征的行人檢測[J].中國圖象圖形學(xué)報(bào),2016 ,21 (6) :723-733.

LI N,GONG Y,XU J L,et al.Semantic featurebased visual attention model for pedestrian detection[J].Journal of Image and Graphics,2016,21 (6):723-733.(In Chinese)

[14]李彬寅,許百華,崔翔宇,等.圖像記憶對動態(tài)搜索的影響[J].心理學(xué)報(bào),2010,42 (4):485-495.

LI B Y,XU B H,CUI X Y,et al.The role of iconic memory in visual search under dynamic condition[J].Acta Psychologica Sinica,2010,42 (4):485-495.(In Chinese)

[15]鮑旭輝,姬鳴,黃杰,等.視覺長時(shí)記憶激活度對促進(jìn)視覺短時(shí)記憶的影響[J].心理學(xué)報(bào),2014,46(8):1086-1093.

BAO X H,JI M,HUANG J,et al.The effects of activation levels of visual longterm memory on visual shortterm memory[J].Acta Psychologica Sinica,2014,46(8):1086-1093.(In Chinese)

[16]SPERLING G.The information available in brief visual presentations[J].Psychological Monographs: General and Applied,1960,74(11):1-29.

[17]FISCHLER M A,BOLLES R C.Random sample consensus:A paradigm for model fitting with applications to image analysis and automated cartography[J].Communications of the ACM,1981,24(6): 381-395.

[18]劉相濱,鄒北驥.一種基于RANSAC的柱面圖像配準(zhǔn)算法[J].湖南大學(xué)學(xué)報(bào)(自然科學(xué)版),2010,37(8):79-82.

LIU X B,ZOU B J.A RANSACbased cylindrical image registration algorithm[J].Journal of Hunan University(Natural Sciences),2010,37 (8):79-82.(In Chinese)

[19]ROSTEN E,DRUMMOND T.Machine learing for highspeed corer detection[C]//Proceedings of the 9th European Conference on Computer Vision.Berlin,Germany:Springer,2006:430-443.

[20]BOUGUET J.Pyramidal implementation of the LucasKanade feature tracker:Description of the algorithm[R].California,USA: Intel Microprocessor Research Labs,2000.

[21]張見雙,張紅民,羅永濤,等.一種改進(jìn)的Harris角點(diǎn)檢測的圖像配準(zhǔn)方法[J].激光與紅外,2017 ,47 (2) :230-233.

ZHANG J S,ZHANG H M,LUO Y T,et al.Image registration method based on improved Harris corner detection algorithm[J].Laser and Infrared,2017,47 (2):230-233.(In Chinese)

[22]蔡軍,鄒鵬,沈弼龍,等.基于改進(jìn)輪盤賭策略的反饋式模糊測試方法[J].四川大學(xué)學(xué)報(bào)(工程科學(xué)版),2016,48(2):132-138.

CAI J,ZOU P,SHEN B L,et al.Feedback fuzzing based on improved roulette wheel selection strategy[J].Journal of Sichuan University(Engineering Science Edition),2016,48(2):132-138.(In Chinese)

[23]付建中.普通心理學(xué)[M].北京:清華大學(xué)出版社,2012: 67-81.

FU J Z.Understanding psychology[M].Beijing:Tsinghua University Press,2012: 67-81.(In Chinese)

[24]黎萬義,王鵬,喬紅.引入視覺注意機(jī)制的目標(biāo)跟蹤方法綜述[J].自動化學(xué)報(bào),2014,40 (4):561-576.

LI W Y,WANG P,QIAO H.A survey of visual attention based methods for object tracking[J].Acta Automatic Sinica,2014,40(4):561-576.(In Chinese)

[25]HOU X,HAREL J,KOCH C,et al.Image signature:Highlighting sparse salient regions[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(1):194-201.

[26]周鶯,柳偉,張基宏.基于內(nèi)容感知的可分級視頻碼流排序方法[J].信號處理,2013,29(8):1012-1018.

ZHOU Y,LIU W,ZHANG J H.Contentaware based sorting approach of scalable video bit stream[J].Signal Processing,2013,29(8):1012-1018.(In Chinese)

[27]VAN DROOGENBROECK M,PAQUOT O.Background subtraction: Experiments and improvements for VIBE[C]//Proceedings of the 25th IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Washington DC,USA:IEEE Computer Society,2012:32-37.

[28]WANG Y,JODOIN P,PORIKLI F,et al.CDnet 2014: An expanded change detection benchmark dataset[C]//Proceedings of the 27th IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Washington DC,USA:IEEE Computer Society,2014:393-400.

[29]COLLINS R,ZHOU X,TEH S K.An open source tracking testbed and evaluation web site[C]//Proceedings of IEEE International Workshop on Performance Evaluation of Tracking and Surveillance.Washington DC,USA: IEEE Computer Society,2005:17-24.

[30]BELAGIANNIS V,SCHUBERT F,NAVAB N,et al.Segmentation based particle filtering for realtime 2D object tracking[C]//Proceedings of the 12th European Conference on Computer Vision.Berlin,Germany:Springer,2012: 842-855.

[31]ILG E,MAYER N,SAIKIA T,et al.FlowNet 2.0:Evolution of optical flow estimation with deep networks[C]//Proceedings of the 30th IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Washington DC,USA:IEEE Computer Society,2017:2461-2470.

[32]王棟,朱虹,康凱,等.基于背景補(bǔ)償引導(dǎo)的動態(tài)場景下目標(biāo)跟蹤算法[J].儀器儀表學(xué)報(bào),2014,30(6):1433-1440.

WANG D,ZHU H,KANG K,et al.arget tracking algorithm based on background compensation in dynamic scene[J].Chinese Journal of Scientific Instrument,2014,30(6):1433-1440.(In Chinese)

[33]SUHR J K,JUNG H G,LI G,et al.Background compensation for pantiltzoom cameras using 1D feature matching and outlier rejection[J].IEEE Transactions on Circuits and Systems for Video Technology,2011,21(3):371-377.

[34]LAZAREVICMCMANUS N,RENNO J,MAKRIS D,et al.An objectbased comparative methodology for motion detection based on the Fmsure[J].Computer Vision and Image Understanding,2008,111(1): 74-85.

猜你喜歡
匹配目標(biāo)檢測
視頻中目標(biāo)檢測算法研究
某車型正面碰撞駕駛員側(cè)約束系統(tǒng)匹配研究
行為識別中的人體運(yùn)動目標(biāo)檢測方法
中職學(xué)生職業(yè)性向測評維度與就業(yè)崗位匹配研究
基于新型雙頻匹配電路的雙頻低噪聲放大器設(shè)計(jì)
工程車輛柴油機(jī)與液力變矩器的功率匹配及優(yōu)化分析
氣質(zhì)類型在檔案工作中的應(yīng)用
移動機(jī)器人圖像目標(biāo)識別
低噪聲放大器設(shè)計(jì)
基于背景建模法的運(yùn)動目標(biāo)檢測
云阳县| 共和县| 滁州市| 湘潭县| 晋江市| 宕昌县| 上饶县| 张家川| 漳平市| 昌吉市| 民和| 宣武区| 双流县| 府谷县| 中阳县| 武穴市| 长寿区| 周至县| 卓尼县| 西安市| 荥经县| 田阳县| 广州市| 内乡县| 忻州市| 庆元县| 顺义区| 东兰县| 济阳县| 斗六市| 南江县| 民县| 兴隆县| 独山县| 南安市| 水富县| 太保市| 军事| 绥滨县| 邹平县| 平顶山市|