国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于顯著前景塊模型的貝葉斯目標(biāo)跟蹤

2016-02-27 01:53方賢勇
關(guān)鍵詞:矩形框小塊直方圖

王 安,方賢勇

(安徽大學(xué) 計算機(jī)科學(xué)與技術(shù)學(xué)院,安徽 合肥 230601)

基于顯著前景塊模型的貝葉斯目標(biāo)跟蹤

王 安,方賢勇

(安徽大學(xué) 計算機(jī)科學(xué)與技術(shù)學(xué)院,安徽 合肥 230601)

光照變化、背景混淆、形態(tài)變化等仍然是視頻目標(biāo)跟蹤中具有挑戰(zhàn)性的問題,有效、自適應(yīng)的外觀模型是基于外觀模型的目標(biāo)跟蹤方法用以克服這些問題的關(guān)鍵。針對此問題,提出了一種基于顯著前景塊模型的在線貝葉斯目標(biāo)跟蹤方法。首先,提出一種精確顯著的前景提取方法,建立基于塊的顯著前景塊模型,可以有效抑制非前景因素的影響。同時,提出一種與顯著前景塊模型適應(yīng)的模板更新方法,有效適應(yīng)目標(biāo)前景的變化。然后,結(jié)合多層背景塊模型,獲得有效、自適應(yīng)的基于塊的外觀模型。最后,建立基于貝葉斯框架的目標(biāo)跟蹤方法。經(jīng)過多組具有挑戰(zhàn)性的視頻序列測試,該跟蹤方法可以有效抑制光照變化、背景混淆及形態(tài)變化等問題,具有較好的自適應(yīng)性。通過對比實(shí)驗,結(jié)果表明該跟蹤方法較現(xiàn)有常見的方法有較強(qiáng)的魯棒性和較好的精確性。

目標(biāo)跟蹤;外觀模型;顯著前景模型;模板更新

0 引 言

目標(biāo)跟蹤是計算機(jī)視覺領(lǐng)域一項基本的研究課題,在許多領(lǐng)域得到了廣泛應(yīng)用,如視頻監(jiān)控、目標(biāo)識別、機(jī)器人、事件分析和無人駕駛汽車等。目前,提出了許多跟蹤方法,但是,為了獲得有效穩(wěn)定的跟蹤,仍然存在一些挑戰(zhàn)性的問題,如光照變化、目標(biāo)幾何變形、快速移動、局部遮擋和背景混淆等。針對這些問題,文中提出了一種基于顯著前景塊模型的在線貝葉斯目標(biāo)跟蹤方法。

外觀模型(appearance model)是跟蹤的基礎(chǔ)[1-2],其有效性和適應(yīng)性決定了目標(biāo)跟蹤的精確性和魯棒性。目前的外觀模型可以粗略地分為三類:基于整體的模型(bounding-box model)[3-4]、基于部件的模型(part-based model)[1,5]和基于塊的模型(patch-based model)[6-7]?;谡w模型的方法失去了局部空間信息的描述,對目標(biāo)遮擋、變形等情況非常敏感?;诓考P偷姆椒ㄐ枰獙Ω鱾€部件分別初始化、訓(xùn)練和跟蹤,增加了計算復(fù)雜度,在實(shí)時在線的應(yīng)用中受到限制。Jia等[6]和Kwon等[7]提出了基于塊的方法,在目標(biāo)匹配方面具有一定的靈活性和適應(yīng)性。但是它們都僅考慮了前景外觀信息,沒有考慮背景信息,當(dāng)背景中包含與前景相似的區(qū)域時可能會導(dǎo)致目標(biāo)漂移。同時考慮前景和背景信息的外觀建模方法在前背景區(qū)分上明顯優(yōu)于只考慮前景建模的方法[8]。針對目前的問題,文中采用基于塊的外觀模型,通過提取各塊的顏色統(tǒng)計直方圖特征,建立外觀模型。基于塊的外觀模型可以很好地提取和保留圖像局部信息,并具有較好的適應(yīng)性。同時,為了獲得更好的前景和背景區(qū)分效果,文中同時進(jìn)行前景和背景建模。

在大多數(shù)在線目標(biāo)跟蹤方法中,目標(biāo)通常用矩形框來標(biāo)記[1,3-7]。矩形框內(nèi)不僅包含了全部的目標(biāo)前景信息,同時包含了部分背景信息。包含的背景信息,在一定程度上影響了目標(biāo)前景與背景的區(qū)分性,在跟蹤效果上有所削弱。Lee等[9]提出了一種較為精確的前景提取方法,但是當(dāng)目標(biāo)前景本身包含與背景相似的區(qū)域時,其跟蹤的有效性和穩(wěn)定性受到影響。針對此問題,文中提出了一種提取精確的顯著前景的方法,建立基于塊的顯著前景塊模型,可以有效增強(qiáng)目標(biāo)前景和背景的區(qū)分,最終獲得準(zhǔn)確可信的目標(biāo)跟蹤。

綜合上述分析,為了克服視頻目標(biāo)領(lǐng)域仍然存在的挑戰(zhàn)性問題,如光照變化、背景混淆、目標(biāo)變形等,同時彌補(bǔ)目前多數(shù)跟蹤方法中前景模型的精確性不足,文中首先提出一種提取精確的顯著前景的方法。該方法在第一幀中把標(biāo)記目標(biāo)的矩形框分割成多個小塊并統(tǒng)計每塊的顏色直方圖,以目標(biāo)矩形框外部周圍背景區(qū)域為參照,計算選擇目標(biāo)區(qū)域顯著塊來建立顯著前景模板。同時,提出了一種與顯著前景塊模型適應(yīng)的模板更新方法,根據(jù)每幀的跟蹤結(jié)果提取有效前景特征來補(bǔ)充更新前景模板特征。在此基礎(chǔ)上,結(jié)合多層背景塊模型,建立基于塊的外觀模型。最后,基于貝葉斯框架,建立了基于顯著前景塊模型的在線貝葉斯目標(biāo)跟蹤方法。

1 基于顯著前景塊模型和多層背景塊模型的外觀模型

基于塊的外觀模型可以很好地提取和保留圖像局部信息,并具有較好的適應(yīng)性。首先將視頻圖像劃分為多個小塊,分別提取顏色直方圖。顏色直方圖采用HSV顏色空間,每個通道劃分16個容器區(qū)間,三個通道共48個容器區(qū)間。文中對目標(biāo)前景和背景分別使用基于塊的特征提取和建模方法。

1.1 顯著前景塊模型

通常,目標(biāo)前景與周圍背景存在一定的差異。如圖1(a),目標(biāo)本身與背景差異較大,前景與背景可以較好地區(qū)分。但是,現(xiàn)實(shí)世界中,受到光照等因素的影響,目標(biāo)物體的表面可能并不都是與背景容易區(qū)分的。如圖1(b),由于光照強(qiáng)度較弱,目標(biāo)區(qū)域出現(xiàn)明暗不一的現(xiàn)象,有些區(qū)域比較明顯,有些區(qū)域較暗且與背景的差異較小。圖1(c)顯示了圖1(b)中左圖經(jīng)過灰度化并直方圖均衡化的結(jié)果,可以直觀較清晰地區(qū)分目標(biāo)前景較為明顯的區(qū)域。若把較暗的部分作為前景模板特征,會影響目標(biāo)的區(qū)分性,最終影響目標(biāo)的檢測與跟蹤。人類的視覺機(jī)制[10]是通過目標(biāo)與背景的顯著性差異來觀察追蹤事物的。文中提出了一種提取精確、顯著的目標(biāo)前景的方法,該方法綜合利用前景和背景信息,獲取目標(biāo)的顯著區(qū)域,并提取顏色直方圖作為前景特征模板。

圖1 分別基于顯著前景和全部目標(biāo)框的概率分布圖

在第一幀,通過手動標(biāo)記或目標(biāo)檢測算法獲得目標(biāo)前景區(qū)域,通常用矩形框標(biāo)記。目標(biāo)矩形框區(qū)域不僅包含整個目標(biāo)前景,同時包含背景信息,影響目標(biāo)表示的穩(wěn)定性和有效性。文中提出的提取精確顯著目標(biāo)前景的方法就是排除矩形框內(nèi)與背景相似的區(qū)域,保留顯著前景區(qū)域。如圖1(a)、(b)所示,左圖為原始圖像,中間上下兩幅分別標(biāo)記了基于顯著前景的前景區(qū)域和基于全部目標(biāo)框的前景區(qū)域,右邊上下兩幅為對應(yīng)的前景概率分布圖??梢钥闯觯@著的前景提取提高了前景概率的準(zhǔn)確性,顯著前景區(qū)域的前景概率較大,而與背景相似的前景區(qū)域的前景概率較小,較符合真實(shí)的計算結(jié)果和觀察現(xiàn)象。

從圖中觀察到,目標(biāo)矩形框的外部周圍是背景信息,與目標(biāo)矩形框內(nèi)的背景信息相似。目標(biāo)前景信息多集中在目標(biāo)矩形框的中間部分。定義目標(biāo)矩形框區(qū)域為Ω,同時定義一個與Ω同心的擴(kuò)張矩形框區(qū)域ΩE和收縮矩形框區(qū)域ΩS。區(qū)域ΩE-Ω表示擴(kuò)張部分的背景區(qū)域,標(biāo)記為ΩB。設(shè)Ω的大小為w×h,則ΩE的大小為(w+16)×(h+16),ΩS的大小為0.6w×0.6h。將ΩE劃分為8×8大小且不互相重疊的小塊,并統(tǒng)計每塊的HSV顏色直方圖。文獻(xiàn)[11]定義一個像素的顯著值為該像素到其他像素的顏色距離度量之和,據(jù)此文中提出下面的計算公式,分別計算Ω內(nèi)每塊相對于ΩS的顯著值SS(i)和相對于ΩB的顯著值SB(i)。其中,i代表第i小塊。SS(i)表示在ΩS中與第i小塊顏色直方圖最接近的K個小塊的顏色直方圖的距離之和。

(1)

其中,h(i)表示Ω中第i小塊的顏色直方圖;hS(j)表示ΩS中第j小塊的顏色直方圖。

同樣的,SB(i)表示在ΩB中與第i小塊顏色直方圖最接近的K個小塊的顏色直方圖的距離之和。

(2)

其中,hB(j)表示ΩB中第j小塊的顏色直方圖。

可以發(fā)現(xiàn),當(dāng)?shù)趇小塊包含背景信息越少時,SB(i)較大,SS(i)較小,小塊i前景的概率越大。用式(3)表示小塊前景置信度:

(3)

當(dāng)SS(i)>SB(i)時,φ(i)<0,此時取φ(i)=0。當(dāng)SS(i)

在式(1)、式(2)中,當(dāng)參數(shù)K取值較大,第i塊本身的信息會受到很大的影響,這里選擇K=4。計算得到各小塊的前景置信度后,選擇φ(i)>γ的小塊作為前景塊,提取前景塊的顏色統(tǒng)計直方圖特征作為顯著前景模板。這里取γ=0.5。

1.2 多層背景塊模型

基于塊的外觀模型在處理光照變化、目標(biāo)形變等問題上有一定的優(yōu)勢。但是,劃分小塊的方法也會削弱前景背景的區(qū)分性。為了獲得更多豐富的背景信息,更好地將背景區(qū)域從前景區(qū)域中分離,減少因劃分小塊而削弱前背景區(qū)分的影響,文中建立了多層背景塊模型。

首先將輸入圖像劃分為互不重疊的8×8小塊,每個位置的小塊j,其顏色直方圖為Bj。在第一幀,對于目標(biāo)矩形框外部的背景部分,其背景顏色直方圖由對應(yīng)位置小塊的顏色直方圖表示;對于目標(biāo)矩形框內(nèi)部的小塊,選擇靠近小塊幾何距離最近的矩形框外部背景小塊的顏色直方圖來表示。如圖2所示,B1、B3的值分別來自于B2、B4。從第二幀開始,檢測跟蹤到目標(biāo)位置后,更新目標(biāo)矩形框區(qū)域外部的背景塊,將此幀對應(yīng)位置的小塊背景信息加入背景模板中對應(yīng)位置的小塊背景信息容器隊列,容器隊列保留十幀的數(shù)據(jù)。

圖2 圖1(b)中視頻序列David首幀的背景模型

2 在線貝葉斯目標(biāo)跟蹤方法

在線的目標(biāo)跟蹤是在第一幀手動標(biāo)注或目標(biāo)檢測算法檢測目標(biāo)區(qū)域,提取其特征建立特征模板,然后從第二幀開始跟蹤目標(biāo)并更新目標(biāo)模板。貝葉斯框架是在當(dāng)前觀察情況下根據(jù)先前的跟蹤結(jié)果及觀察情況進(jìn)行當(dāng)前狀態(tài)的搜索預(yù)測。在第t幀,以t-1幀獲得的目標(biāo)位置為中心,設(shè)置目標(biāo)搜索區(qū)域Rt。在搜索區(qū)域Rt內(nèi),利用前景模板和背景模板,計算各小塊內(nèi)像素的前景概率。根據(jù)貝葉斯跟蹤框架,搜索跟蹤區(qū)域內(nèi)使得貝葉斯后驗概率最大的位置作為跟蹤結(jié)果。為了提高跟蹤的穩(wěn)定性和精確度,克服背景混淆、形變、局部遮擋等因素引發(fā)的目標(biāo)漂移問題,文中同時采用結(jié)合目標(biāo)前景的模板掩碼來跟蹤。同時,光照變化等因素會改變目標(biāo)前景的顏色特征,于是文中提出了一種適應(yīng)前景顯著模型的模板更新方法,增強(qiáng)前景特征描述,提高前景背景區(qū)分效果,有效抑制光照變化帶來的前景塊誤檢和漏檢等問題。

2.1 前景概率

假設(shè)第t-1幀,目標(biāo)大小為w×h,則在第t幀,目標(biāo)搜索區(qū)域Rt大小為(w+2δ)×(h+2δ),與第t-1幀的目標(biāo)矩形框區(qū)域同心。同樣,將目標(biāo)搜索Rt劃分為互相不重疊的8×8像素的小塊,對每一小塊i提取顏色直方圖h(i)。然后,通過概率計算獲得每個小塊內(nèi)像素的前景概率。

首先,對搜索區(qū)域內(nèi)的每一小塊i,用k近鄰方法[12]從前景模板中選擇與小塊顏色直方圖距離最近的兩個小塊,計算得到它們的顏色直方圖距離之和DF(i)。

(4)

其中,h(i)表示第i小塊的顏色直方圖;hF(j)表示從前景模板中選擇的第j小塊的顏色直方圖。

其次,再從背景模板中選擇與小塊直方圖距離最近的兩個小塊。為了減少背景混淆因素的影響,從與小塊幾何距離較近的25個小塊中選擇。計算得到它們的顏色直方圖距離之和DB(i)。

(5)

其中,h(i)表示第i小塊的顏色直方圖;hB(j)表示從背景模板中選擇的第j小塊的顏色直方圖。

這樣,小塊i內(nèi)的像素u的前景概率表示為:

(6)

當(dāng)DF(i)越小,DB(i)越大,F(xiàn)(u)趨向于1;反之,趨向于0。將F(u)歸一化到[0,1]區(qū)間,當(dāng)歸一化結(jié)果小于0.8時,F(xiàn)(u)=0。

2.2 在線貝葉斯目標(biāo)跟蹤

在貝葉斯框架下,假設(shè)xt和zt分別表示第t幀的狀態(tài)和觀察值,在給定觀察值zs:t={zs,zs+1,…,zt}(s

p(xt|zs:t)=αtp(zt|xt)p(xt|zs:t-1)

(7)

其中,αt為正規(guī)化項;p(zt|xt)為似然概率;p(xt|zs:t-1)為先驗概率。

(8)

文中對先驗概率采用了平均分布模型,p(xt|zs:t-1)為常數(shù),則

(9)

在搜索區(qū)域搜索目標(biāo)的位置,根據(jù)一般的目標(biāo)搜索方法,似然概率p(zt|xt)應(yīng)該是搜索滑動窗口內(nèi)像素的前景概率值之和。但是考慮到可能的背景噪聲影響,加入了目標(biāo)輪廓信息,即目標(biāo)前景的模板掩碼,可以有效抑制背景混淆和局部遮擋帶來的目標(biāo)漂移問題,如圖3所示。將目標(biāo)前景的模板掩碼記為ωm。所以,似然概率p(zt|xt)表示為滑動窗口內(nèi)像素的前景概率與目標(biāo)前景的模板掩碼的相似度。

目標(biāo)前景的模板掩碼的值在第一幀中由目標(biāo)矩形框內(nèi)像素的前景概率初始化。

圖3 結(jié)合目標(biāo)前景的模板掩碼的目標(biāo)跟蹤示意圖

2.3 在線模板更新

在目標(biāo)跟蹤過程中,隨著外部光照變化、背景變化,以及目標(biāo)自身的結(jié)構(gòu)形態(tài)變化,統(tǒng)一不變的目標(biāo)模型是不能適應(yīng)的。模型更新是在線目標(biāo)跟蹤非常關(guān)鍵的一步,它影響了目標(biāo)模板的適應(yīng)性和跟蹤的魯棒性。

顯著前景模板更新:隨著光照的變化,目標(biāo)物體表面的顏色也跟著變化。為了適應(yīng)目標(biāo)的變化,同背景模型相似,也采用多層的目標(biāo)顯著前景塊模型。在t幀,得到目標(biāo)位置后,把目標(biāo)矩形框區(qū)域內(nèi)的前景小塊的顏色直方圖加入到目標(biāo)前景特征模板中。為了盡可能消除背景噪聲的影響,根據(jù)目標(biāo)前景的模板掩碼,當(dāng)小塊對應(yīng)的模板掩碼的值ωm(·)>0.75,則將其顏色統(tǒng)計直方圖特征加入前景模板中。前景模板中只保留包含當(dāng)前幀的前5幀的數(shù)據(jù)。

模板掩碼更新:目標(biāo)的形態(tài)也在時刻變化,根據(jù)在t幀得到的前景區(qū)域及所對應(yīng)的前景概率值,對目標(biāo)前景的模板掩碼作如下更新操作:

(11)

這里λ取0.999 5。

跟蹤過程中可能出現(xiàn)最佳的目標(biāo)位置可信度較低,當(dāng)p(zt|xt)>0.75時,更新模板。

3 實(shí)驗結(jié)果

文中分別在10組視頻數(shù)據(jù)對提出的跟蹤方法進(jìn)行性能測試:Basketball(576×432)、BlurCar1(640×480)、David(320×240)、Gym(426×234)、Lemming(640×480)、Liquor(640×480)、Occlusion1(352×288)、Skating2(640×352)、Tiger2(640×480、Trellis(320×240)。這些數(shù)據(jù)均可從http://www.visual-tracking.net[13]獲取。數(shù)據(jù)的平均幀數(shù)為861幀,文中提出的算法用C++實(shí)現(xiàn)且沒有經(jīng)過優(yōu)化,在3.0GHz處理器、8Gbyte內(nèi)存的計算機(jī)上達(dá)到了平均6.6幀每秒。選擇四種跟蹤方法與文中提出的方法進(jìn)行比較:CT[14]、LSHT[5]、PPT[9]、DAT[15]。同時,為了從實(shí)驗上加強(qiáng)證明顯著前景模型的有效性,采用以目標(biāo)矩形框內(nèi)的全部(bounding-box)作為前景特征提取,與文中提出的基于顯著前景塊模型的跟蹤方法形成對比。

3.1 定性分析

圖4給出了CT、LSHT、PPT、DAT及基于全部目標(biāo)矩形框的跟蹤方法(Non-Salient Foreground,Non-SF)和文中跟蹤方法(Salient Foreground,SF(Proposed))對2組圖像序列的跟蹤結(jié)果和定性比較。視頻序列Basketball、Gym、Skating2中目標(biāo)物體存在較大的姿態(tài)結(jié)構(gòu)變化及遮擋,Basketball、BlurCar1存在目標(biāo)快速運(yùn)動和相機(jī)抖動。如Basketball(見圖4(a))的#647,因目標(biāo)的姿態(tài)變化和背景混淆,對比的方法缺乏有效的模板適應(yīng)能力,目標(biāo)跟蹤結(jié)果發(fā)生漂移或錯誤。而文中方法是建立在基于塊的外觀模型上,同時結(jié)合目標(biāo)模板掩碼,具有較好的適應(yīng)性,抑制了目標(biāo)漂移,可以有效跟蹤到精確的結(jié)果。

圖4 文中跟蹤方法和其他四種方法的跟蹤結(jié)果示例

David、Lemming、Liquor、Trellis、Tiger2等序列,光照變化劇烈,目標(biāo)表面顏色特征變化較大。如David(見圖4(b))的#292,目標(biāo)表面的光照由初始的較暗變到較為明亮,目標(biāo)顏色變化較大,且初始目標(biāo)特征不明顯,目標(biāo)框內(nèi)包含較多背景信息。對比方法采用整框為前景建立模板,受到過多背景因素的影響,同時對光照的劇烈變化適應(yīng)能力弱,跟蹤結(jié)果不準(zhǔn)確。而文中方法基于顯著前景,獲得了目標(biāo)前景的精確表達(dá),有效處理了背景信息的影響,同時實(shí)時更新前景模板,對光照的變化有很強(qiáng)的適應(yīng)能力,跟蹤效果明顯較好。

3.2 定量分析

表1 六種跟蹤方法的平均中心誤差統(tǒng)計結(jié)果

(ACE代表平均中心誤差(AverageCenterError))

文中給出了在固定重疊率閾值下的成功率,即PASCAL統(tǒng)計得分方法[17],該方法可以在總體上較好地評估跟蹤結(jié)果的準(zhǔn)確率和穩(wěn)定性,見表2。這里固定重疊率閾值為0.5。

表1和表2分別展示了六種跟蹤方法對10組數(shù)據(jù)的平均中心誤差和給定閾值的成功率。相較其他跟蹤方法,文中方法總體上具有較低的平均中心誤差和較高的成功率。視頻序列Gym,因為目標(biāo)姿態(tài)尺度與初始狀態(tài)變化較大,所以在中心誤差較小的情況下成功率仍然較低。

表2 六種跟蹤方法的成功率統(tǒng)計結(jié)果

(重疊閾值為0.5,SR代表成功率(SuccessRate))

3.3 實(shí)驗結(jié)論

實(shí)驗從定性和定量兩個方面評價和分析了跟蹤結(jié)果的優(yōu)劣。在選取的十組具有挑戰(zhàn)性的視頻序列中進(jìn)行目標(biāo)跟蹤測試,相比CT、LSHT、PPT、DAT這四種方法,文中方法在整體上取得了較好的效果。同時,與文中方法形成對比的基于整框的跟蹤方法,其效果明顯較差,進(jìn)一步充分表明了顯著前景塊模型明顯提高了跟蹤的精確性和魯棒性。實(shí)驗結(jié)果表明,文中方法有效處理了跟蹤問題中的挑戰(zhàn)性因素,如光照變化、背景混淆、形態(tài)變化以及遮擋等,獲得了精確魯棒的跟蹤效果。

4 結(jié)束語

針對目前視頻目標(biāo)跟蹤領(lǐng)域仍然存在的問題,如光照變化、背景混淆、形態(tài)變化等,文中提出了一種基于顯著前景塊模型的在線貝葉斯目標(biāo)跟蹤算法。一方面,通過顯著前景的提取,提高了前景模型的精確性,削弱了目標(biāo)框中背景因素的影響,并且增強(qiáng)了前景背景的區(qū)分。另一方面,通過建立多層背景模型并結(jié)合目標(biāo)前景模板掩碼,有效抑制了背景混淆、形態(tài)變化的影響。同時,目標(biāo)模板的實(shí)時更新增強(qiáng)了模板的適應(yīng)性和魯棒性。

由于文中在目標(biāo)尺度變化問題上沒有做針對性的處理,盡管在有些視頻數(shù)據(jù)中跟蹤結(jié)果的中心誤差相對較小,但成功率會有所降低。未來的工作將會圍繞尺度自適應(yīng)問題,以期在保持較小的中心誤差下獲得更好的成功率。

[1] Zhang L,van der Maaten L.Structure preserving object tracking[C]//Proceedings of IEEE conference on computer vision and pattern recognition.Portland,Oregon,USA:IEEE,2013:1838-1845.

[2] Li X,Hu W,Shen C,et al.A survey of appearance models in visual object tracking[J].ACM Transactions on Intelligent Systems and Technology,2013,4(4):58.

[3] Comaniciu D,Ramesh V,Meer P.Kernel-based object tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,25(5):564-577.

[4] Hare S, Saffari A, Torr P.Struck:structured output tracking with kernels[C]//Proceedings of international conference on computer vision.Barcelona,Spain:IEEE,2011:263-270.

[5] He S,Yang Q,Lau R W,et al.Visual tracking via locality sensitive histograms[C]//Proceedings of IEEE conference on computer vision and pattern recognition.Portland,Oregon,USA:IEEE,2013:2427-2434.

[6] Jia X,Lu H C,Yang M H.Visual tracking via adaptive structural local sparse appearance model[C]//Proceedings of IEEE conference on computer vision and pattern recognition.Providence,Rhode Island,USA:IEEE,2012:1822-1829.

[7] Kwon J,Lee K M.Highly non-rigid object tracking via patch-based dynamic appearance modeling[J].IEEE Transaction on Pattern Analysis and Machine Intelligence,2013,35(10):2427-2441.

[8] Minka T. Discriminative models, not discriminative training[R].[s.l.]:Microsoft Research,2005.

[9] Lee D Y,Sim J Y,Kim C S.Visual tracking using pertinent patch selection and masking[C]//Proceedings of IEEE conference on computer vision and pattern recognition.Boston,USA:IEEE,2014:3486-3493.

[10] Mahadevan V, Vasconcelos N. Biologically inspired object tracking using center-surround saliency mechanisms[J].IEEE Transaction on Pattern Analysis and Machine Intelligence,2013,35(3):541-554.

[11] Cheng M M,Zhang G X,Mitra N J,et al.Global contrast based salient region detection[C]//Proceedings of IEEE conference on computer vision and pattern recognition.Colorado,USA:IEEE,2011:409-416.

[12] Muja M,Lowe D G.Fast approximate nearest neighbors with automatic algorithm configuration[C]//International conference on computer vision theory and applications.Lisboa,Portugal:INSTICC Press,2009:331-340.

[13] Wu Y,Lim J,Yang M H.Visual tracking benchmark[EB/OL].[2015-12-14].http://www.visual-tracking.net.

[14] Zhang K,Zhang L,Yang M H.Real-time compressive tracking[C]//Proceedings of European conference on computer vision.Florence,Italy:IEEE,2012:864-877.

[15] Possegger H, Mauthner T, Bischof H.In defense of color-based model-free tracking[C]//Proceedings of IEEE conference on computer vision and pattern recognition.Boston,USA:IEEE,2015:2113-2120.

[16] Wu Y,Lim J,Yang M H.Online object tracking:a benchmark[C]//Proceedings of IEEE conference on computer vision and pattern recognition.Los Alamitos,USA:IEEE Computer Society Press,2013:2411-2418.

[17] Everingham M,Gool L,Williams C,et al.The pascal visual object classes (VOC) challenge[J].International Journal of Computer Vision,2010,88(2):303-338.

Bayesian Object Tracking Based on Salient Foreground Patch Model

WANG An,FANG Xian-yong

(School of Computer Science and Technology,Anhui University,Hefei 230601,China)

Illumination variation,background clutter and deformation are still challenging problems in visual object tracking.Efficient self-adapting appearance model can be one of the keys to overcome these limits.In view of these problems,a new online Bayesian tracking method is put forward based on salient foreground patch model.First,a new method is introduced to extract an accurate and salient foreground for constructing a patch-based salient foreground model.The foreground patch model can effectively suppress the affections of non-foreground factors.A template update method is also presented to adapt the changes of foreground.Then,an efficient and self-adapting patch-based appearance model incorporating the patch-based multiple background patch model is obtained.Finally,the objects can be tracked based on the Bayesian framework.Experiment on more groups video sequence test with challenge demonstrates that the proposed tracking algorithm can effectively suppress the illumination variation,background clutter and deformation and outperform conventional tracking algorithms in robustness and accuracy.

object tracking;appearance model;salient foreground model;template updating

2016-01-10

2016-04-20

時間:2016-10-24

國家自然科學(xué)基金資助項目(61502005);安徽省自然科學(xué)基金(1308085QF100,1408085MF113)

王 安(1990-),男,碩士研究生,研究方向為圖像處理和計算機(jī)視覺;方賢勇,教授,通訊作者,研究方向為計算機(jī)圖形學(xué)和計算機(jī)視覺。

http://www.cnki.net/kcms/detail/61.1450.TP.20161024.1105.012.html

TP301

A

1673-629X(2016)11-0025-06

10.3969/j.issn.1673-629X.2016.11.006

猜你喜歡
矩形框小塊直方圖
符合差分隱私的流數(shù)據(jù)統(tǒng)計直方圖發(fā)布
多模態(tài)卷積神經(jīng)網(wǎng)絡(luò)的物體抓取檢測
治毛囊炎
一種汽車式起重機(jī)防傾翻方法的研究
用直方圖控制畫面影調(diào)
養(yǎng)顏美容的青椒料理道
讓時間可觸摸
共享單車有了“家”
中考頻數(shù)分布直方圖題型展示
燉羊肉的小竅門