国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種自適應(yīng)雙門(mén)限與KLT融合的目標(biāo)跟蹤方法

2020-05-14 07:09:22
關(guān)鍵詞:門(mén)限像素點(diǎn)灰度

高 捷

(民航中南空管局 通信導(dǎo)航監(jiān)視部,廣州 510405)

E-mail:gaojie028@126.com

1 引 言

隨著全球經(jīng)濟(jì)的快速增長(zhǎng),計(jì)算機(jī)分析與處理、電子產(chǎn)業(yè)等高新技術(shù)的快速發(fā)展,將計(jì)算機(jī)圖形圖像處理技術(shù)作為研究基礎(chǔ)的復(fù)雜視頻監(jiān)控系統(tǒng),目前已經(jīng)快速地適用于人類(lèi)現(xiàn)實(shí)生活中,而目標(biāo)檢測(cè)與跟蹤研究是智能視頻監(jiān)控系統(tǒng)開(kāi)發(fā)中必不可少的問(wèn)題[1,2].運(yùn)動(dòng)目標(biāo)跟蹤,通過(guò)手動(dòng)或者自動(dòng)標(biāo)記感興趣的運(yùn)動(dòng)目標(biāo),通過(guò)建立該目標(biāo)的顏色、邊界、位置和角點(diǎn)等描述特征,然后在后續(xù)的每一幀視頻幀上利用前述特征找到該目標(biāo)的位置,從而找到目標(biāo)的連續(xù)運(yùn)動(dòng)軌跡.大多數(shù)目標(biāo)跟蹤根據(jù)對(duì)運(yùn)動(dòng)目標(biāo)特征的主流目標(biāo)跟蹤方法大致被劃分為下面四類(lèi)方法:利用點(diǎn)特征進(jìn)行跟蹤[3]、利用核函數(shù)進(jìn)行跟蹤[4]、利用團(tuán)塊進(jìn)行跟蹤[5]及利用特征進(jìn)行跟蹤[6].

基于點(diǎn)特征的跟蹤方法是需要找到視頻序列中一組特定的點(diǎn)集之內(nèi)元素的相互間對(duì)應(yīng)關(guān)系.然而點(diǎn)集內(nèi)的點(diǎn)的對(duì)應(yīng)問(wèn)題卻是相當(dāng)復(fù)雜.當(dāng)目標(biāo)被遮擋、目標(biāo)快速運(yùn)動(dòng)時(shí),點(diǎn)元素的對(duì)應(yīng)及點(diǎn)元素的舍棄都是復(fù)雜問(wèn)題.其優(yōu)點(diǎn)是對(duì)較小的運(yùn)動(dòng)目標(biāo)跟蹤效果較好,因?yàn)槟繕?biāo)很小,簡(jiǎn)化為點(diǎn)來(lái)代替團(tuán)塊跟蹤,缺點(diǎn)是不僅需要目標(biāo)檢測(cè)算法來(lái)做支撐,而且當(dāng)目標(biāo)物體尺度很大時(shí),點(diǎn)代替目標(biāo)就很不合理,以至于會(huì)把二維的信息幾乎全部丟棄.基于核函數(shù)的跟蹤方法是通過(guò)標(biāo)記出來(lái)的初始模板和候選模板之間的直方圖采用一定的度量方法.將其大致分為兩類(lèi):基于密度的模型、基于多角度的模型[7].其中基于密度的目標(biāo)描述和跟蹤的過(guò)程計(jì)算量相對(duì)小,因此在圖像分割和目標(biāo)跟蹤中都應(yīng)用相當(dāng)廣泛;然而基于多角度的目標(biāo)描述和跟蹤的過(guò)程計(jì)算量相對(duì)較高,因此不適合在圖像分割和目標(biāo)跟蹤中應(yīng)用[8].基于團(tuán)塊的跟蹤方法是利用特定的矩形或者橢圓標(biāo)示并且跟蹤目標(biāo),利用該團(tuán)塊的顏色信息、邊緣信息以及圖像的紋理信息作為后續(xù)的搜索目標(biāo)的基礎(chǔ)條件[9].文獻(xiàn)[6]提及的基于特征的目標(biāo)跟蹤方法中常用的圖像特征包括顏色直方圖、目標(biāo)邊緣、角點(diǎn)特征等.其中這些特征中的角點(diǎn)特征由于可以包攬很多的目標(biāo)的信息在目標(biāo)跟蹤中其應(yīng)用相對(duì)廣泛一些.

本文針對(duì)視頻監(jiān)控場(chǎng)景中運(yùn)動(dòng)目標(biāo)種類(lèi)多(行人、車(chē)輛及航空器等)、運(yùn)動(dòng)目標(biāo)姿態(tài)特征多(快速運(yùn)動(dòng)的目標(biāo)、場(chǎng)景中緩慢移動(dòng)的目標(biāo)及場(chǎng)景中逗留的目標(biāo)等)的特點(diǎn),提出了一種自適應(yīng)雙門(mén)限與KLT融合的目標(biāo)跟蹤方法.其基本思想是首先采用自適應(yīng)雙門(mén)限運(yùn)動(dòng)目標(biāo)檢測(cè)以獲得高門(mén)限和低門(mén)限二值圖像信息,同時(shí)將雙門(mén)限二值圖像信息與KLT目標(biāo)特征點(diǎn)跟蹤進(jìn)行融合處理.如果KLT找到的特征點(diǎn)大部分在雙門(mén)限目標(biāo)的輪廓內(nèi),標(biāo)記該輪廓為目標(biāo)輪廓;否則,使用KLT特征點(diǎn)來(lái)確定目標(biāo)的輪廓,最終實(shí)現(xiàn)場(chǎng)面不同環(huán)境中多類(lèi)動(dòng)目標(biāo)體的可靠、準(zhǔn)確跟蹤.根據(jù)不同監(jiān)控場(chǎng)景中行人、車(chē)輛及航空器等多類(lèi)動(dòng)目標(biāo)體,利用本文算法與文獻(xiàn)[6]方法分別驗(yàn)證了跟蹤效果及性能.

2 自適應(yīng)雙門(mén)限目標(biāo)檢測(cè)

2.1 初始背景提取

首先利用原始視頻圖像的所有像素點(diǎn)(x,y)通過(guò)時(shí)間軸各自計(jì)算n幀視頻序列之前該點(diǎn)的灰度值,同時(shí)計(jì)算其沿時(shí)間軸生成相應(yīng)的灰度直方圖Gray(x,y,0),Gray(x,y,1),… Gray(x,y,255),同時(shí)將沿時(shí)間軸計(jì)算獲得的灰度直方圖里頻率生成最大的灰度值用于其像素點(diǎn)(x,y)最初的背景灰度值,如下統(tǒng)計(jì)公式:

Background(x,y)=MAX(Gray(x,y,0),…Gray(x,y,255))

(1)

通過(guò)以上公式,可知利用視頻幀序列中前n幀計(jì)算圖像序列中所有像素點(diǎn)的初始灰度值,獲取初始的背景圖像.

2.2 背景的匹配更新

考慮到真實(shí)場(chǎng)景下背景會(huì)隨著時(shí)間的推移而變化造成初始背景的不斷改變,需對(duì)背景圖像做更新處理.本文根據(jù)視頻序列中緩沖幀機(jī)制進(jìn)行背景更新的方法,把原始視頻序列導(dǎo)入到緩沖幀中,利用緩沖幀具有屏蔽過(guò)濾及中間緩沖的功能.再進(jìn)行快速計(jì)算,從而實(shí)現(xiàn)背景圖像不斷的匹配和更新,如圖1所示為本文背景匹配更新的結(jié)構(gòu)圖.該計(jì)算流程簡(jiǎn)單、快速,同時(shí)能解決因短暫停留目標(biāo)導(dǎo)致背景圖像噪聲多的影響,滿(mǎn)足背景圖像實(shí)時(shí)、可靠的更新過(guò)程.

圖1 背景圖像的更新結(jié)構(gòu)圖

引入緩沖幀機(jī)制對(duì)背景進(jìn)行匹配和更新策略,主要分為如下實(shí)時(shí)視頻序列緩沖幀的更新過(guò)程、匹配過(guò)程、背景圖像的修正和更新過(guò)程三個(gè)方面.

1)實(shí)時(shí)視頻序列緩沖幀的更新過(guò)程:首先將初始緩沖幀Q0(x,y)及初始背景模型B0(x,y)引入初始背景圖像.同時(shí)在后續(xù)的實(shí)時(shí)視頻監(jiān)視中,緩沖幀會(huì)利用視頻幀序列中具有的圖像信息通過(guò)迭代的方式進(jìn)行統(tǒng)計(jì),從而根據(jù)監(jiān)視環(huán)境的變化而不斷改變.其迭代更新公式為:

QT(x,y)=QT-1(x,y)+α*sgn[LT(x,y)-QT-1(x,y)]

(2)

其中,QT(x,y)表示實(shí)時(shí)視頻序列圖像上像素點(diǎn)(x,y)中緩沖幀的灰度值,QT-1(x,y)表示在T-1時(shí)刻視頻圖像上像素點(diǎn)(x,y)中緩沖幀的灰度值;LT(x,y)表示實(shí)時(shí)視頻序列圖像上像素點(diǎn)(x,y)的灰度值.α表示參數(shù)變量,由以下公式?jīng)Q定:

(3)

2)匹配過(guò)程:在獲得實(shí)時(shí)視頻幀序列后,采用實(shí)時(shí)視頻幀序列對(duì)緩沖幀中的所以像素點(diǎn)做匹配和標(biāo)記處理.當(dāng)|LT(x,y)-QT(x,y)|<=1成立時(shí),標(biāo)記該像素點(diǎn)匹配成功;如果不成立,剔除該像素點(diǎn).

3)背景圖像的修正和更新過(guò)程:利用步驟2)完成匹配后,標(biāo)記完成緩沖幀中所有像素點(diǎn),下面采用標(biāo)記的像素點(diǎn)來(lái)更新當(dāng)前的背景圖像,其計(jì)算過(guò)程如下:

BT(x,y)=BT-1(x,y)+β*sgn[QT(x,y)-BT-1(x,y)]

(4)

式中,BT(x,y)表示在T時(shí)刻獲得的背景圖像,BT-1(x,y)表示在T-1時(shí)刻獲得的背景圖像,QT(x,y)表示實(shí)時(shí)視頻序列緩沖幀中標(biāo)記成功后像素點(diǎn)的灰度值.β表示參數(shù)變量,由以下公式?jīng)Q定:

(5)

采用不同監(jiān)控場(chǎng)景下具有的實(shí)時(shí)圖像信息進(jìn)行背景圖像的不斷更新,從而過(guò)濾短暫停留的目標(biāo)和慢動(dòng)目標(biāo)給背景圖像帶來(lái)的干擾和噪聲,以保證提取到干凈的背景圖像.

2.3 雙門(mén)限二值圖像信息獲取

結(jié)合上述的視頻幀序列中引入緩沖幀機(jī)制進(jìn)行背景不斷更新的基礎(chǔ)上,獲得魯棒性較好的背景圖像,接下來(lái)的目標(biāo)檢測(cè)算法對(duì)于簡(jiǎn)單進(jìn)行背景圖像與前景圖像差分中門(mén)限值獲取尤為重要.本文通過(guò)自適應(yīng)門(mén)限值統(tǒng)計(jì)方法來(lái)解決差分閾值選取難的問(wèn)題,提出了基于自適應(yīng)雙門(mén)限的目標(biāo)檢測(cè)方法如圖2所示,其主要實(shí)現(xiàn)步驟如下:

1)通過(guò)獲取不同監(jiān)視場(chǎng)景下的實(shí)時(shí)視頻幀序列,提取初始背景圖像,然后引入實(shí)時(shí)視頻幀中緩沖幀機(jī)制對(duì)背景圖像進(jìn)行不斷更新;

2)將實(shí)時(shí)視頻幀序列圖像與更新提取的背景圖像做差二值化處理,從而得到灰度差分圖像;

3)統(tǒng)計(jì)并計(jì)算步驟2)中灰度差分圖像的均值V及標(biāo)準(zhǔn)方差θ;

4)根據(jù)步驟3)計(jì)算出的數(shù)值,可建立公式計(jì)算高門(mén)限值MH及低門(mén)限值ML:

ML=V+4θ

(6)

MH=M+10θ

(7)

5)根據(jù)式(6)、式(7)分別計(jì)算出高門(mén)限值和低門(mén)限值,同時(shí)進(jìn)行二值化處理獲得動(dòng)目標(biāo)體的大致前景區(qū)域;

6)將二值化前景圖像采用腐蝕和膨脹處理以剔除噪聲干擾;

7)統(tǒng)計(jì)高門(mén)限二值圖像里目標(biāo)塊面積R>RTH的所有像素區(qū)域,將其劃分為RHI;

8)統(tǒng)計(jì)高門(mén)限二值圖像里所有RHI對(duì)應(yīng)的低門(mén)限二值圖像塊中像素面積R>RTL的所有像素區(qū)域,將其劃分為RLI;

9)計(jì)算同一目標(biāo)在實(shí)時(shí)視頻幀圖像中持續(xù)出現(xiàn)的次數(shù)y,同時(shí)將計(jì)算出的次數(shù)y與固定閾值G做比較.假如y≥G,那么此目標(biāo)塊是前景目標(biāo),否則為噪聲目標(biāo),將其剔除.

圖2 雙門(mén)限二值化信息獲取流程圖

3 目標(biāo)跟蹤

根據(jù)上述自適應(yīng)的雙門(mén)限運(yùn)動(dòng)目標(biāo)檢測(cè)方法來(lái)完成復(fù)雜監(jiān)控場(chǎng)景下運(yùn)動(dòng)目標(biāo)精確檢測(cè)之后,針對(duì)運(yùn)動(dòng)目標(biāo)種類(lèi)多(行人、車(chē)輛及航空器等)、運(yùn)動(dòng)目標(biāo)姿態(tài)特征多(快速運(yùn)動(dòng)的目標(biāo)、場(chǎng)景中緩慢移動(dòng)的目標(biāo)及場(chǎng)景中逗留的目標(biāo)等)的特點(diǎn),采用基于特征點(diǎn)的KLT(Kanade-Lucas-Tomasi)[10,11]跟蹤方法來(lái)解決場(chǎng)景中運(yùn)動(dòng)目標(biāo)的持續(xù)穩(wěn)定跟蹤.

3.1 Harris角點(diǎn)檢測(cè)

計(jì)算灰度圖像中像素點(diǎn)A在x,y方向處的梯度值:

x=A?(-1,0,1)=?A/?x

(8)

y=A?(-1,0,1)T=?A/?y

(9)

(10)

Z=det(P)-k*trace2(P)>T

(11)

其中,det(P)是矩陣P的兩個(gè)特征值積,trace(P)是矩陣N 的兩個(gè)特征值和,T為固定閾值,k為常數(shù),其取值0.04~0.06.當(dāng)該點(diǎn)Z值大于閾值T時(shí),判定為角點(diǎn).

3.2 KLT目標(biāo)跟蹤

針對(duì)以上通過(guò)Harris提取出待跟蹤的特征點(diǎn),并在亮度不變的情況下,定義一個(gè)以該特征點(diǎn)為中心的跟蹤小區(qū)域V,在t時(shí)刻的灰度圖像中像素點(diǎn)為G(x,y,t),其中,x,y為該特征點(diǎn)的坐標(biāo).該跟蹤小區(qū)域內(nèi)的像素點(diǎn)G(x,y,t)可通過(guò)之前時(shí)刻灰度圖像中跟蹤小窗口內(nèi)的每個(gè)像素進(jìn)行相應(yīng)位移變化關(guān)系得到,其式如下:

G(x,y,t)=G(x+sx,y+sy,t+θ)

(12)

式中,sx,sy表示像素點(diǎn)位移的變化,θ表示時(shí)間變化,設(shè)s=(sx,sy)為像素點(diǎn)的平移變化關(guān)系,KLT算法就是求解位移變化量s,從而對(duì)選定特征點(diǎn)區(qū)域跟蹤.

對(duì)于像素點(diǎn)為中心的窗口W,結(jié)合式(12),可計(jì)算出像素點(diǎn)平移過(guò)程中帶來(lái)的誤差量φ,其表達(dá)式為:

(13)

把G(x+sx,y+sy,t+θ)進(jìn)行一階泰勒級(jí)數(shù)展開(kāi),然后帶入式(13)中,并令誤差量φ的微分等于0,可得到

V*s=e

(14)

s=V-1*e

(15)

針對(duì)以上的KLT跟蹤算法的計(jì)算步驟推導(dǎo),其實(shí)現(xiàn)步驟如下:

1)通過(guò)Harris角點(diǎn)檢測(cè)算法檢測(cè)第一幀視頻圖像中運(yùn)動(dòng)目標(biāo)的特征點(diǎn),并讀取特征點(diǎn)的橫坐標(biāo)和縱坐標(biāo);

2)利用局部非極大值抑制的方法篩選出比較穩(wěn)定的特征點(diǎn),并在每15幀視頻圖像序列進(jìn)行特征點(diǎn)的提取更新(即重復(fù)步驟1)-步驟2));

3)利用挑選出來(lái)的穩(wěn)定特征點(diǎn)當(dāng)做運(yùn)動(dòng)目標(biāo)的待跟蹤點(diǎn),并利用KLT算法跟蹤式子計(jì)算出兩幀圖像的一系列位移信息對(duì)(位移量);

4)通過(guò)位移量求平均值的方法得到兩幀視頻圖像中特征點(diǎn)的位移值,最終實(shí)現(xiàn)目標(biāo)跟蹤.

綜上所述,本文采用的運(yùn)動(dòng)目標(biāo)跟蹤主要是Harris角點(diǎn)檢測(cè)算法和KLT跟蹤算法兩大主要的部分構(gòu)成.針對(duì)室外視頻監(jiān)視場(chǎng)景下場(chǎng)景背景是固定不變的特定場(chǎng)景應(yīng)用,并通過(guò)自適應(yīng)雙門(mén)限的運(yùn)動(dòng)目標(biāo)檢測(cè)方法進(jìn)行了前景目標(biāo)區(qū)域的精確檢測(cè),因此采用KLT跟蹤算法會(huì)取得良好的跟蹤精度和跟蹤效率.然而,在實(shí)際應(yīng)用中KLT跟蹤算法在運(yùn)動(dòng)目標(biāo)進(jìn)行跟蹤時(shí)也可能帶來(lái)目標(biāo)跟蹤的漂移現(xiàn)象.

3.3 KLT跟蹤算法的漂移問(wèn)題

本文考慮到如果直接采用KLT跟蹤算法來(lái)跟蹤Harris角點(diǎn)檢測(cè)算法檢測(cè)出來(lái)的特征點(diǎn)會(huì)帶來(lái)一些問(wèn)題:在用雙門(mén)限檢測(cè)出目標(biāo)后就交由KLT算法進(jìn)行跟蹤,由于噪聲、目標(biāo)圈定時(shí)同時(shí)圈定了部分背景等原因,在不進(jìn)行其他任何干預(yù)的條件下,目標(biāo)的特征點(diǎn)會(huì)出現(xiàn)漂移甚至跟蹤丟失.在場(chǎng)景復(fù)雜條件下進(jìn)行初步測(cè)試結(jié)果可知,對(duì)于某些運(yùn)動(dòng)目標(biāo),KLT跟蹤算法只能夠正確的跟蹤幾幀視頻圖像中的目標(biāo),而不能達(dá)到持續(xù)穩(wěn)定的跟蹤效果,最終出現(xiàn)目標(biāo)跟蹤的丟失及錯(cuò)誤跟蹤的現(xiàn)象.因此,通過(guò)實(shí)驗(yàn)分析,總結(jié)得出下面的一系列錯(cuò)誤跟蹤的情況,如圖3所示.

圖3 目標(biāo)跟蹤出現(xiàn)的漂移現(xiàn)象圖

1)目標(biāo)范圍被標(biāo)定太?。哼@是由于KLT跟蹤算法使用的特征檢測(cè)只能夠檢測(cè)到一部分運(yùn)動(dòng)物體某部分的特征所致.在這種情況下,由于目標(biāo)中穩(wěn)定特征點(diǎn)的存在,基本上可以長(zhǎng)時(shí)間的跟蹤目標(biāo).但是,在跟蹤過(guò)程中KLT算法圈定的目標(biāo)逐漸變小,直至消失,最終出現(xiàn)丟失目標(biāo)的情況;

2)目標(biāo)范圍被標(biāo)定過(guò)大:只是由于KLT算法提取到了背景中的某些特征信息.這種情況下會(huì)導(dǎo)致圈定的目標(biāo)范圍越來(lái)越大,導(dǎo)致跟蹤過(guò)程中KLT算法計(jì)算圈定的目標(biāo)逐漸變大,直至跟蹤到一個(gè)特征點(diǎn)豐富的區(qū)域(此區(qū)域有可能不包含正確的目標(biāo)),最終也出現(xiàn)丟失目標(biāo)的情況;

3)跟蹤過(guò)程中KLT跟蹤算法只是穩(wěn)定圈定了部分目標(biāo).顯然,如果漂移點(diǎn)超過(guò)一定的數(shù)量時(shí),將會(huì)給以后在連續(xù)視頻圖像序列幀之間的位移變化關(guān)系的計(jì)算上帶來(lái)一定的誤差.而且,隨著目標(biāo)跟蹤的不斷持續(xù),漂移帶來(lái)的累積誤差將會(huì)逐漸增大,加之跟蹤點(diǎn)的丟失,最終導(dǎo)致目標(biāo)跟蹤失敗的出現(xiàn).分析得出的主要原因被歸納為以下幾點(diǎn):

1)由于雙門(mén)限檢測(cè)方法檢測(cè)目標(biāo)的依據(jù)是通過(guò)時(shí)域?yàn)V波的原理,若雙門(mén)限檢測(cè)到的候選目標(biāo)在視頻圖像中連續(xù)出現(xiàn)的次數(shù)大于某個(gè)設(shè)定門(mén)限值就認(rèn)為是正確的目標(biāo),但是并沒(méi)有考慮到每次是否精確的圈定目標(biāo),這造成有可能在交給KLT算法跟蹤時(shí)目標(biāo)就沒(méi)有被正確圈定.特別是對(duì)于緩慢變化的目標(biāo),背景提取算法萬(wàn)一將其某部分識(shí)別為背景,從而導(dǎo)致正確識(shí)別到了部分目標(biāo)或是將本來(lái)不是目標(biāo)的區(qū)域識(shí)別為目標(biāo);

2)由于出現(xiàn)KLT算法在跟蹤目標(biāo)上的正確特征點(diǎn)數(shù)目不夠,就會(huì)導(dǎo)致目標(biāo)的某部分區(qū)域沒(méi)有提取出相應(yīng)的特征點(diǎn),從而在跟蹤的時(shí)候這部分區(qū)域被錯(cuò)誤的識(shí)別為背景,最終被逐漸地忽略掉;

3)由于該KLT算法易受跟蹤到的錯(cuò)誤特征點(diǎn)影響.主要是識(shí)別出多個(gè)上一幀圈定目標(biāo)范圍內(nèi)非目標(biāo)區(qū)域的特征點(diǎn).

3.4 改進(jìn)KLT目標(biāo)跟蹤

針對(duì)KLT算法在跟蹤過(guò)程中出現(xiàn)的漂移問(wèn)題,通過(guò)低門(mén)限背景二值圖像的信息進(jìn)行處理相結(jié)合,最終可以取得比較有效的目標(biāo)跟蹤效果,本論文采用以下方法來(lái)解決以上的問(wèn)題,其主要步驟如下:

1)結(jié)合雙門(mén)限二值圖像的信息來(lái)進(jìn)行目標(biāo)跟蹤.由于雙門(mén)限方法的計(jì)算量小,對(duì)動(dòng)目標(biāo)提取較為準(zhǔn)確,于是考慮在目標(biāo)丟失時(shí)才使用KLT算法進(jìn)行跟蹤.

2)使用KLT特征提取方法確定有效的特征點(diǎn)及其匹配;

3)計(jì)算低門(mén)限二值化后圖像中的目標(biāo)輪廓;

4)基于KLT特征點(diǎn)和雙門(mén)限目標(biāo)檢測(cè)的聯(lián)合跟蹤.如果KLT算法找到的特征點(diǎn)大部分在雙門(mén)限目標(biāo)的輪廓內(nèi),標(biāo)記該輪廓為目標(biāo)輪廓;否則,使用KLT特征點(diǎn)來(lái)決定目標(biāo)的輪廓.

4 實(shí)驗(yàn)仿真與分析

搭建測(cè)試驗(yàn)證實(shí)驗(yàn)的硬件環(huán)境CPU:Intel 至強(qiáng) 銀牌4114 @ 2.20GHz;內(nèi)存:16G;Win10 64位操作系統(tǒng),程序編譯軟件:Microsoft Visual Studio 2015;庫(kù)文件:OpenCV4.1.2.本次實(shí)驗(yàn)采集的測(cè)試錄像分別采集了一段時(shí)間的學(xué)校路口、路口停車(chē)場(chǎng)(分辨率均為320×240@25fps)及機(jī)場(chǎng)空側(cè)區(qū)(分辨率為1280×720@25fps).針對(duì)不同監(jiān)視場(chǎng)景進(jìn)行了文獻(xiàn)[6]方法(KLT特征點(diǎn)跟蹤)和本文運(yùn)動(dòng)目標(biāo)跟蹤算法的測(cè)試與對(duì)比.

圖4 行人跟蹤測(cè)試對(duì)比效果圖

圖4為某校內(nèi)截取的視頻監(jiān)控圖像,本實(shí)驗(yàn)是對(duì)單個(gè)行人分別進(jìn)行兩種目標(biāo)跟蹤算法的測(cè)試與對(duì)比結(jié)果.圖4中分別提取了監(jiān)控視頻圖像序列中的第120、150、165、172幀圖像進(jìn)行處理,行人目標(biāo)的運(yùn)動(dòng)軌跡是由近至遠(yuǎn)行走的.圖4(a)為文獻(xiàn)[6]方法對(duì)行人的跟蹤效果,剛開(kāi)始跟蹤時(shí)還是能夠圈定運(yùn)動(dòng)目標(biāo),隨著目標(biāo)越來(lái)越小,目標(biāo)特征點(diǎn)不是很明顯,其穩(wěn)定性也不斷下降,以至于出現(xiàn)跟蹤失效的情況.圖4(b)由于結(jié)合了Harris角點(diǎn)算法來(lái)檢測(cè)特征點(diǎn),本文跟蹤算法不僅準(zhǔn)確的定位目標(biāo),而且能夠穩(wěn)定進(jìn)行跟蹤.表1為圖4中行人的定位信息表,將圈定目標(biāo)所繪的矩形框的中心位置作為行人定位的位置(把視頻圖像左上角的位置當(dāng)做坐標(biāo)的原點(diǎn)),表1中數(shù)據(jù)可知,本文跟蹤方法在目標(biāo)定位準(zhǔn)確性上比文獻(xiàn)[6]跟蹤方法更好.

表1 行人跟蹤的定位信息對(duì)比

Table 1 Comparison locating information of pedestrian tracking

幀數(shù)真實(shí)位置文獻(xiàn)[6]方法本文跟蹤方法文獻(xiàn)[6]誤差/像素本文誤差/像素120(162,144)(160,146)(161,143)2.82841.4142150(142,103)(145,98)(143,101)5.83102.2361165(135,90)(129,95)(134,91)7.81021.4142172(129,81)無(wú)(128,83)100.00002.2361

圖5 行人跟蹤精度對(duì)比圖

圖5為實(shí)驗(yàn)截取的上述行人監(jiān)視視頻圖像中135幀視頻圖像序列進(jìn)行的跟蹤軌跡測(cè)試對(duì)比,可以明顯看出兩種跟蹤方法在測(cè)試中行人軌跡與行人真實(shí)軌跡之間的偏差大小,由圖5可知,本文跟蹤方法獲得的跟蹤軌跡相對(duì)誤差比較穩(wěn)定.

圖6 車(chē)輛跟蹤測(cè)試對(duì)比效果圖

接下來(lái),圖6為車(chē)輛監(jiān)控視頻圖像進(jìn)行兩種跟蹤方法測(cè)試.分別提取出第121、142、160、182幀的跟蹤效果圖,目標(biāo)車(chē)輛行駛軌跡為前景-轉(zhuǎn)彎-停車(chē)的過(guò)程.圖6(a)為文獻(xiàn)[6]方法對(duì)黑色車(chē)輛進(jìn)行跟蹤的結(jié)果;圖6(b)為本文跟蹤方法對(duì)黑色車(chē)輛進(jìn)行跟蹤的結(jié)果.從這段視頻的跟蹤效果上不能直觀的分辨出兩種跟蹤算法的優(yōu)劣.表2為圖6中黑色車(chē)輛的定位信息表,由表2可知,本文跟蹤算法在跟蹤進(jìn)度上還是略好于文獻(xiàn)[6]方法.

表2 車(chē)輛跟蹤的定位信息對(duì)比

Table 2 Comparison locating information of vehicle tracking

幀數(shù)真實(shí)位置文獻(xiàn)[6]方法本文跟蹤方法文獻(xiàn)[6]誤差/像素本文誤差/像素121(56,128)(57,127)(57,127)1.41421.4142142(155,112)(153,114)(154,113)2.82841.4142160(165,110)(163,113)(164,112)3.60562.2361182(182,75)(183,78)(183,74)3.16231.4142

最后,為了進(jìn)一步驗(yàn)證本文跟蹤方法的自適應(yīng)性和穩(wěn)定性,針對(duì)機(jī)場(chǎng)復(fù)雜天氣情況下的運(yùn)動(dòng)目標(biāo)進(jìn)行本文跟蹤方法的測(cè)試.圖7(a)為天氣晴朗下機(jī)場(chǎng)航空器跟蹤結(jié)果(幀數(shù)從左到右從上到下分別為:50幀、94幀、106幀),圖7(b)為霧天低能見(jiàn)度狀況下機(jī)場(chǎng)航空器跟蹤結(jié)果(幀數(shù)從左到右從上到下分別為:220幀、403幀、421幀).通過(guò)在復(fù)雜天氣情況下對(duì)機(jī)場(chǎng)航空器進(jìn)行的跟蹤實(shí)驗(yàn)可知,本文跟蹤方法能夠在晴天以及天氣能見(jiàn)度較低的情況下,實(shí)現(xiàn)比較穩(wěn)定的跟蹤效果,在一定程度上滿(mǎn)足了實(shí)際應(yīng)用的需求.

圖7 復(fù)雜天氣條件下航空器跟蹤效果圖

5 結(jié)束語(yǔ)

本文通過(guò)在不同監(jiān)視場(chǎng)景下,對(duì)行人、車(chē)輛和航空器等多類(lèi)動(dòng)目標(biāo)體進(jìn)行運(yùn)動(dòng)目標(biāo)跟蹤研究,提出了一種自適應(yīng)雙門(mén)限與KLT融合的目標(biāo)跟蹤方法.該方法首先采用自適應(yīng)雙門(mén)限運(yùn)動(dòng)目標(biāo)檢測(cè)獲得高門(mén)限和低門(mén)限二值圖像信息,同時(shí)將雙門(mén)限二值圖像信息與KLT目標(biāo)特征點(diǎn)跟蹤進(jìn)行融合處理.如果KLT找到的特征點(diǎn)大部分在雙門(mén)限目標(biāo)的輪廓內(nèi),標(biāo)記該輪廓為目標(biāo)輪廓;否則,使用KLT特征點(diǎn)來(lái)確定目標(biāo)的輪廓,最終實(shí)現(xiàn)場(chǎng)面復(fù)雜環(huán)境下運(yùn)動(dòng)目標(biāo)的持續(xù)、準(zhǔn)確跟蹤.通過(guò)實(shí)驗(yàn)驗(yàn)證了本文跟蹤方法可解決跟蹤過(guò)程出現(xiàn)的漂移問(wèn)題,對(duì)目標(biāo)可進(jìn)行穩(wěn)定可靠跟蹤,同時(shí)對(duì)低能見(jiàn)度天氣下具備一定的適應(yīng)性.

在下一步的研究中,重點(diǎn)針對(duì)復(fù)雜監(jiān)視場(chǎng)景中多類(lèi)目標(biāo)同時(shí)跟蹤、目標(biāo)運(yùn)動(dòng)遮擋及基于深度學(xué)習(xí)的目標(biāo)跟蹤算法展開(kāi)進(jìn)一步研究和探索,以滿(mǎn)足在實(shí)際生活中數(shù)字化、網(wǎng)絡(luò)化及智能化實(shí)時(shí)視頻監(jiān)控系統(tǒng)[12-14]的需要.

猜你喜歡
門(mén)限像素點(diǎn)灰度
采用改進(jìn)導(dǎo)重法的拓?fù)浣Y(jié)構(gòu)灰度單元過(guò)濾技術(shù)
基于規(guī)則的HEV邏輯門(mén)限控制策略
地方債對(duì)經(jīng)濟(jì)增長(zhǎng)的門(mén)限效應(yīng)及地區(qū)差異研究
基于灰度拉伸的圖像水位識(shí)別方法研究
隨機(jī)失效門(mén)限下指數(shù)退化軌道模型的分析與應(yīng)用
基于canvas的前端數(shù)據(jù)加密
基于最大加權(quán)投影求解的彩色圖像灰度化對(duì)比度保留算法
基于逐像素點(diǎn)深度卷積網(wǎng)絡(luò)分割模型的上皮和間質(zhì)組織分割
基于灰度線性建模的亞像素圖像抖動(dòng)量計(jì)算
生產(chǎn)性服務(wù)業(yè)集聚與工業(yè)集聚的非線性效應(yīng)——基于門(mén)限回歸模型的分析
湖湘論壇(2015年3期)2015-12-01 04:20:17
萨嘎县| 资源县| 洛扎县| 太和县| 永靖县| 镇安县| 双峰县| 新平| 莲花县| 泸定县| 盐池县| 安平县| 潢川县| 治多县| 庆元县| 随州市| 仁布县| 九寨沟县| 巴林右旗| 嵊州市| 百色市| 武陟县| 九龙县| 旬邑县| 宜州市| 昆明市| 牙克石市| 攀枝花市| 安庆市| 五台县| 五莲县| 乌兰察布市| 秦皇岛市| 淅川县| 五家渠市| 芜湖县| 天峨县| 德格县| 黑水县| 安陆市| 天长市|