高 捷
(民航中南空管局 通信導(dǎo)航監(jiān)視部,廣州 510405)
E-mail:gaojie028@126.com
隨著全球經(jīng)濟(jì)的快速增長(zhǎng),計(jì)算機(jī)分析與處理、電子產(chǎn)業(yè)等高新技術(shù)的快速發(fā)展,將計(jì)算機(jī)圖形圖像處理技術(shù)作為研究基礎(chǔ)的復(fù)雜視頻監(jiān)控系統(tǒng),目前已經(jīng)快速地適用于人類(lèi)現(xiàn)實(shí)生活中,而目標(biāo)檢測(cè)與跟蹤研究是智能視頻監(jiān)控系統(tǒng)開(kāi)發(fā)中必不可少的問(wèn)題[1,2].運(yùn)動(dòng)目標(biāo)跟蹤,通過(guò)手動(dòng)或者自動(dòng)標(biāo)記感興趣的運(yùn)動(dòng)目標(biāo),通過(guò)建立該目標(biāo)的顏色、邊界、位置和角點(diǎn)等描述特征,然后在后續(xù)的每一幀視頻幀上利用前述特征找到該目標(biāo)的位置,從而找到目標(biāo)的連續(xù)運(yùn)動(dòng)軌跡.大多數(shù)目標(biāo)跟蹤根據(jù)對(duì)運(yùn)動(dòng)目標(biāo)特征的主流目標(biāo)跟蹤方法大致被劃分為下面四類(lèi)方法:利用點(diǎn)特征進(jìn)行跟蹤[3]、利用核函數(shù)進(jìn)行跟蹤[4]、利用團(tuán)塊進(jìn)行跟蹤[5]及利用特征進(jìn)行跟蹤[6].
基于點(diǎn)特征的跟蹤方法是需要找到視頻序列中一組特定的點(diǎn)集之內(nèi)元素的相互間對(duì)應(yīng)關(guān)系.然而點(diǎn)集內(nèi)的點(diǎn)的對(duì)應(yīng)問(wèn)題卻是相當(dāng)復(fù)雜.當(dāng)目標(biāo)被遮擋、目標(biāo)快速運(yùn)動(dòng)時(shí),點(diǎn)元素的對(duì)應(yīng)及點(diǎn)元素的舍棄都是復(fù)雜問(wèn)題.其優(yōu)點(diǎn)是對(duì)較小的運(yùn)動(dòng)目標(biāo)跟蹤效果較好,因?yàn)槟繕?biāo)很小,簡(jiǎn)化為點(diǎn)來(lái)代替團(tuán)塊跟蹤,缺點(diǎn)是不僅需要目標(biāo)檢測(cè)算法來(lái)做支撐,而且當(dāng)目標(biāo)物體尺度很大時(shí),點(diǎn)代替目標(biāo)就很不合理,以至于會(huì)把二維的信息幾乎全部丟棄.基于核函數(shù)的跟蹤方法是通過(guò)標(biāo)記出來(lái)的初始模板和候選模板之間的直方圖采用一定的度量方法.將其大致分為兩類(lèi):基于密度的模型、基于多角度的模型[7].其中基于密度的目標(biāo)描述和跟蹤的過(guò)程計(jì)算量相對(duì)小,因此在圖像分割和目標(biāo)跟蹤中都應(yīng)用相當(dāng)廣泛;然而基于多角度的目標(biāo)描述和跟蹤的過(guò)程計(jì)算量相對(duì)較高,因此不適合在圖像分割和目標(biāo)跟蹤中應(yīng)用[8].基于團(tuán)塊的跟蹤方法是利用特定的矩形或者橢圓標(biāo)示并且跟蹤目標(biāo),利用該團(tuán)塊的顏色信息、邊緣信息以及圖像的紋理信息作為后續(xù)的搜索目標(biāo)的基礎(chǔ)條件[9].文獻(xiàn)[6]提及的基于特征的目標(biāo)跟蹤方法中常用的圖像特征包括顏色直方圖、目標(biāo)邊緣、角點(diǎn)特征等.其中這些特征中的角點(diǎn)特征由于可以包攬很多的目標(biāo)的信息在目標(biāo)跟蹤中其應(yīng)用相對(duì)廣泛一些.
本文針對(duì)視頻監(jiān)控場(chǎng)景中運(yùn)動(dòng)目標(biāo)種類(lèi)多(行人、車(chē)輛及航空器等)、運(yùn)動(dòng)目標(biāo)姿態(tài)特征多(快速運(yùn)動(dòng)的目標(biāo)、場(chǎng)景中緩慢移動(dòng)的目標(biāo)及場(chǎng)景中逗留的目標(biāo)等)的特點(diǎn),提出了一種自適應(yīng)雙門(mén)限與KLT融合的目標(biāo)跟蹤方法.其基本思想是首先采用自適應(yīng)雙門(mén)限運(yùn)動(dòng)目標(biāo)檢測(cè)以獲得高門(mén)限和低門(mén)限二值圖像信息,同時(shí)將雙門(mén)限二值圖像信息與KLT目標(biāo)特征點(diǎn)跟蹤進(jìn)行融合處理.如果KLT找到的特征點(diǎn)大部分在雙門(mén)限目標(biāo)的輪廓內(nèi),標(biāo)記該輪廓為目標(biāo)輪廓;否則,使用KLT特征點(diǎn)來(lái)確定目標(biāo)的輪廓,最終實(shí)現(xiàn)場(chǎng)面不同環(huán)境中多類(lèi)動(dòng)目標(biāo)體的可靠、準(zhǔn)確跟蹤.根據(jù)不同監(jiān)控場(chǎng)景中行人、車(chē)輛及航空器等多類(lèi)動(dòng)目標(biāo)體,利用本文算法與文獻(xiàn)[6]方法分別驗(yàn)證了跟蹤效果及性能.
首先利用原始視頻圖像的所有像素點(diǎn)(x,y)通過(guò)時(shí)間軸各自計(jì)算n幀視頻序列之前該點(diǎn)的灰度值,同時(shí)計(jì)算其沿時(shí)間軸生成相應(yīng)的灰度直方圖Gray(x,y,0),Gray(x,y,1),… Gray(x,y,255),同時(shí)將沿時(shí)間軸計(jì)算獲得的灰度直方圖里頻率生成最大的灰度值用于其像素點(diǎn)(x,y)最初的背景灰度值,如下統(tǒng)計(jì)公式:
Background(x,y)=MAX(Gray(x,y,0),…Gray(x,y,255))
(1)
通過(guò)以上公式,可知利用視頻幀序列中前n幀計(jì)算圖像序列中所有像素點(diǎn)的初始灰度值,獲取初始的背景圖像.
考慮到真實(shí)場(chǎng)景下背景會(huì)隨著時(shí)間的推移而變化造成初始背景的不斷改變,需對(duì)背景圖像做更新處理.本文根據(jù)視頻序列中緩沖幀機(jī)制進(jìn)行背景更新的方法,把原始視頻序列導(dǎo)入到緩沖幀中,利用緩沖幀具有屏蔽過(guò)濾及中間緩沖的功能.再進(jìn)行快速計(jì)算,從而實(shí)現(xiàn)背景圖像不斷的匹配和更新,如圖1所示為本文背景匹配更新的結(jié)構(gòu)圖.該計(jì)算流程簡(jiǎn)單、快速,同時(shí)能解決因短暫停留目標(biāo)導(dǎo)致背景圖像噪聲多的影響,滿(mǎn)足背景圖像實(shí)時(shí)、可靠的更新過(guò)程.
圖1 背景圖像的更新結(jié)構(gòu)圖
引入緩沖幀機(jī)制對(duì)背景進(jìn)行匹配和更新策略,主要分為如下實(shí)時(shí)視頻序列緩沖幀的更新過(guò)程、匹配過(guò)程、背景圖像的修正和更新過(guò)程三個(gè)方面.
1)實(shí)時(shí)視頻序列緩沖幀的更新過(guò)程:首先將初始緩沖幀Q0(x,y)及初始背景模型B0(x,y)引入初始背景圖像.同時(shí)在后續(xù)的實(shí)時(shí)視頻監(jiān)視中,緩沖幀會(huì)利用視頻幀序列中具有的圖像信息通過(guò)迭代的方式進(jìn)行統(tǒng)計(jì),從而根據(jù)監(jiān)視環(huán)境的變化而不斷改變.其迭代更新公式為:
QT(x,y)=QT-1(x,y)+α*sgn[LT(x,y)-QT-1(x,y)]
(2)
其中,QT(x,y)表示實(shí)時(shí)視頻序列圖像上像素點(diǎn)(x,y)中緩沖幀的灰度值,QT-1(x,y)表示在T-1時(shí)刻視頻圖像上像素點(diǎn)(x,y)中緩沖幀的灰度值;LT(x,y)表示實(shí)時(shí)視頻序列圖像上像素點(diǎn)(x,y)的灰度值.α表示參數(shù)變量,由以下公式?jīng)Q定:
(3)
2)匹配過(guò)程:在獲得實(shí)時(shí)視頻幀序列后,采用實(shí)時(shí)視頻幀序列對(duì)緩沖幀中的所以像素點(diǎn)做匹配和標(biāo)記處理.當(dāng)|LT(x,y)-QT(x,y)|<=1成立時(shí),標(biāo)記該像素點(diǎn)匹配成功;如果不成立,剔除該像素點(diǎn).
3)背景圖像的修正和更新過(guò)程:利用步驟2)完成匹配后,標(biāo)記完成緩沖幀中所有像素點(diǎn),下面采用標(biāo)記的像素點(diǎn)來(lái)更新當(dāng)前的背景圖像,其計(jì)算過(guò)程如下:
BT(x,y)=BT-1(x,y)+β*sgn[QT(x,y)-BT-1(x,y)]
(4)
式中,BT(x,y)表示在T時(shí)刻獲得的背景圖像,BT-1(x,y)表示在T-1時(shí)刻獲得的背景圖像,QT(x,y)表示實(shí)時(shí)視頻序列緩沖幀中標(biāo)記成功后像素點(diǎn)的灰度值.β表示參數(shù)變量,由以下公式?jīng)Q定:
(5)
采用不同監(jiān)控場(chǎng)景下具有的實(shí)時(shí)圖像信息進(jìn)行背景圖像的不斷更新,從而過(guò)濾短暫停留的目標(biāo)和慢動(dòng)目標(biāo)給背景圖像帶來(lái)的干擾和噪聲,以保證提取到干凈的背景圖像.
結(jié)合上述的視頻幀序列中引入緩沖幀機(jī)制進(jìn)行背景不斷更新的基礎(chǔ)上,獲得魯棒性較好的背景圖像,接下來(lái)的目標(biāo)檢測(cè)算法對(duì)于簡(jiǎn)單進(jìn)行背景圖像與前景圖像差分中門(mén)限值獲取尤為重要.本文通過(guò)自適應(yīng)門(mén)限值統(tǒng)計(jì)方法來(lái)解決差分閾值選取難的問(wèn)題,提出了基于自適應(yīng)雙門(mén)限的目標(biāo)檢測(cè)方法如圖2所示,其主要實(shí)現(xiàn)步驟如下:
1)通過(guò)獲取不同監(jiān)視場(chǎng)景下的實(shí)時(shí)視頻幀序列,提取初始背景圖像,然后引入實(shí)時(shí)視頻幀中緩沖幀機(jī)制對(duì)背景圖像進(jìn)行不斷更新;
2)將實(shí)時(shí)視頻幀序列圖像與更新提取的背景圖像做差二值化處理,從而得到灰度差分圖像;
3)統(tǒng)計(jì)并計(jì)算步驟2)中灰度差分圖像的均值V及標(biāo)準(zhǔn)方差θ;
4)根據(jù)步驟3)計(jì)算出的數(shù)值,可建立公式計(jì)算高門(mén)限值MH及低門(mén)限值ML:
ML=V+4θ
(6)
MH=M+10θ
(7)
5)根據(jù)式(6)、式(7)分別計(jì)算出高門(mén)限值和低門(mén)限值,同時(shí)進(jìn)行二值化處理獲得動(dòng)目標(biāo)體的大致前景區(qū)域;
6)將二值化前景圖像采用腐蝕和膨脹處理以剔除噪聲干擾;
7)統(tǒng)計(jì)高門(mén)限二值圖像里目標(biāo)塊面積R>RTH的所有像素區(qū)域,將其劃分為RHI;
8)統(tǒng)計(jì)高門(mén)限二值圖像里所有RHI對(duì)應(yīng)的低門(mén)限二值圖像塊中像素面積R>RTL的所有像素區(qū)域,將其劃分為RLI;
9)計(jì)算同一目標(biāo)在實(shí)時(shí)視頻幀圖像中持續(xù)出現(xiàn)的次數(shù)y,同時(shí)將計(jì)算出的次數(shù)y與固定閾值G做比較.假如y≥G,那么此目標(biāo)塊是前景目標(biāo),否則為噪聲目標(biāo),將其剔除.
圖2 雙門(mén)限二值化信息獲取流程圖
根據(jù)上述自適應(yīng)的雙門(mén)限運(yùn)動(dòng)目標(biāo)檢測(cè)方法來(lái)完成復(fù)雜監(jiān)控場(chǎng)景下運(yùn)動(dòng)目標(biāo)精確檢測(cè)之后,針對(duì)運(yùn)動(dòng)目標(biāo)種類(lèi)多(行人、車(chē)輛及航空器等)、運(yùn)動(dòng)目標(biāo)姿態(tài)特征多(快速運(yùn)動(dòng)的目標(biāo)、場(chǎng)景中緩慢移動(dòng)的目標(biāo)及場(chǎng)景中逗留的目標(biāo)等)的特點(diǎn),采用基于特征點(diǎn)的KLT(Kanade-Lucas-Tomasi)[10,11]跟蹤方法來(lái)解決場(chǎng)景中運(yùn)動(dòng)目標(biāo)的持續(xù)穩(wěn)定跟蹤.
計(jì)算灰度圖像中像素點(diǎn)A在x,y方向處的梯度值:
x=A?(-1,0,1)=?A/?x
(8)
y=A?(-1,0,1)T=?A/?y
(9)
(10)
Z=det(P)-k*trace2(P)>T
(11)
其中,det(P)是矩陣P的兩個(gè)特征值積,trace(P)是矩陣N 的兩個(gè)特征值和,T為固定閾值,k為常數(shù),其取值0.04~0.06.當(dāng)該點(diǎn)Z值大于閾值T時(shí),判定為角點(diǎn).
針對(duì)以上通過(guò)Harris提取出待跟蹤的特征點(diǎn),并在亮度不變的情況下,定義一個(gè)以該特征點(diǎn)為中心的跟蹤小區(qū)域V,在t時(shí)刻的灰度圖像中像素點(diǎn)為G(x,y,t),其中,x,y為該特征點(diǎn)的坐標(biāo).該跟蹤小區(qū)域內(nèi)的像素點(diǎn)G(x,y,t)可通過(guò)之前時(shí)刻灰度圖像中跟蹤小窗口內(nèi)的每個(gè)像素進(jìn)行相應(yīng)位移變化關(guān)系得到,其式如下:
G(x,y,t)=G(x+sx,y+sy,t+θ)
(12)
式中,sx,sy表示像素點(diǎn)位移的變化,θ表示時(shí)間變化,設(shè)s=(sx,sy)為像素點(diǎn)的平移變化關(guān)系,KLT算法就是求解位移變化量s,從而對(duì)選定特征點(diǎn)區(qū)域跟蹤.
對(duì)于像素點(diǎn)為中心的窗口W,結(jié)合式(12),可計(jì)算出像素點(diǎn)平移過(guò)程中帶來(lái)的誤差量φ,其表達(dá)式為:
(13)
把G(x+sx,y+sy,t+θ)進(jìn)行一階泰勒級(jí)數(shù)展開(kāi),然后帶入式(13)中,并令誤差量φ的微分等于0,可得到
V*s=e
(14)
s=V-1*e
(15)
針對(duì)以上的KLT跟蹤算法的計(jì)算步驟推導(dǎo),其實(shí)現(xiàn)步驟如下:
1)通過(guò)Harris角點(diǎn)檢測(cè)算法檢測(cè)第一幀視頻圖像中運(yùn)動(dòng)目標(biāo)的特征點(diǎn),并讀取特征點(diǎn)的橫坐標(biāo)和縱坐標(biāo);
2)利用局部非極大值抑制的方法篩選出比較穩(wěn)定的特征點(diǎn),并在每15幀視頻圖像序列進(jìn)行特征點(diǎn)的提取更新(即重復(fù)步驟1)-步驟2));
3)利用挑選出來(lái)的穩(wěn)定特征點(diǎn)當(dāng)做運(yùn)動(dòng)目標(biāo)的待跟蹤點(diǎn),并利用KLT算法跟蹤式子計(jì)算出兩幀圖像的一系列位移信息對(duì)(位移量);
4)通過(guò)位移量求平均值的方法得到兩幀視頻圖像中特征點(diǎn)的位移值,最終實(shí)現(xiàn)目標(biāo)跟蹤.
綜上所述,本文采用的運(yùn)動(dòng)目標(biāo)跟蹤主要是Harris角點(diǎn)檢測(cè)算法和KLT跟蹤算法兩大主要的部分構(gòu)成.針對(duì)室外視頻監(jiān)視場(chǎng)景下場(chǎng)景背景是固定不變的特定場(chǎng)景應(yīng)用,并通過(guò)自適應(yīng)雙門(mén)限的運(yùn)動(dòng)目標(biāo)檢測(cè)方法進(jìn)行了前景目標(biāo)區(qū)域的精確檢測(cè),因此采用KLT跟蹤算法會(huì)取得良好的跟蹤精度和跟蹤效率.然而,在實(shí)際應(yīng)用中KLT跟蹤算法在運(yùn)動(dòng)目標(biāo)進(jìn)行跟蹤時(shí)也可能帶來(lái)目標(biāo)跟蹤的漂移現(xiàn)象.
本文考慮到如果直接采用KLT跟蹤算法來(lái)跟蹤Harris角點(diǎn)檢測(cè)算法檢測(cè)出來(lái)的特征點(diǎn)會(huì)帶來(lái)一些問(wèn)題:在用雙門(mén)限檢測(cè)出目標(biāo)后就交由KLT算法進(jìn)行跟蹤,由于噪聲、目標(biāo)圈定時(shí)同時(shí)圈定了部分背景等原因,在不進(jìn)行其他任何干預(yù)的條件下,目標(biāo)的特征點(diǎn)會(huì)出現(xiàn)漂移甚至跟蹤丟失.在場(chǎng)景復(fù)雜條件下進(jìn)行初步測(cè)試結(jié)果可知,對(duì)于某些運(yùn)動(dòng)目標(biāo),KLT跟蹤算法只能夠正確的跟蹤幾幀視頻圖像中的目標(biāo),而不能達(dá)到持續(xù)穩(wěn)定的跟蹤效果,最終出現(xiàn)目標(biāo)跟蹤的丟失及錯(cuò)誤跟蹤的現(xiàn)象.因此,通過(guò)實(shí)驗(yàn)分析,總結(jié)得出下面的一系列錯(cuò)誤跟蹤的情況,如圖3所示.
圖3 目標(biāo)跟蹤出現(xiàn)的漂移現(xiàn)象圖
1)目標(biāo)范圍被標(biāo)定太?。哼@是由于KLT跟蹤算法使用的特征檢測(cè)只能夠檢測(cè)到一部分運(yùn)動(dòng)物體某部分的特征所致.在這種情況下,由于目標(biāo)中穩(wěn)定特征點(diǎn)的存在,基本上可以長(zhǎng)時(shí)間的跟蹤目標(biāo).但是,在跟蹤過(guò)程中KLT算法圈定的目標(biāo)逐漸變小,直至消失,最終出現(xiàn)丟失目標(biāo)的情況;
2)目標(biāo)范圍被標(biāo)定過(guò)大:只是由于KLT算法提取到了背景中的某些特征信息.這種情況下會(huì)導(dǎo)致圈定的目標(biāo)范圍越來(lái)越大,導(dǎo)致跟蹤過(guò)程中KLT算法計(jì)算圈定的目標(biāo)逐漸變大,直至跟蹤到一個(gè)特征點(diǎn)豐富的區(qū)域(此區(qū)域有可能不包含正確的目標(biāo)),最終也出現(xiàn)丟失目標(biāo)的情況;
3)跟蹤過(guò)程中KLT跟蹤算法只是穩(wěn)定圈定了部分目標(biāo).顯然,如果漂移點(diǎn)超過(guò)一定的數(shù)量時(shí),將會(huì)給以后在連續(xù)視頻圖像序列幀之間的位移變化關(guān)系的計(jì)算上帶來(lái)一定的誤差.而且,隨著目標(biāo)跟蹤的不斷持續(xù),漂移帶來(lái)的累積誤差將會(huì)逐漸增大,加之跟蹤點(diǎn)的丟失,最終導(dǎo)致目標(biāo)跟蹤失敗的出現(xiàn).分析得出的主要原因被歸納為以下幾點(diǎn):
1)由于雙門(mén)限檢測(cè)方法檢測(cè)目標(biāo)的依據(jù)是通過(guò)時(shí)域?yàn)V波的原理,若雙門(mén)限檢測(cè)到的候選目標(biāo)在視頻圖像中連續(xù)出現(xiàn)的次數(shù)大于某個(gè)設(shè)定門(mén)限值就認(rèn)為是正確的目標(biāo),但是并沒(méi)有考慮到每次是否精確的圈定目標(biāo),這造成有可能在交給KLT算法跟蹤時(shí)目標(biāo)就沒(méi)有被正確圈定.特別是對(duì)于緩慢變化的目標(biāo),背景提取算法萬(wàn)一將其某部分識(shí)別為背景,從而導(dǎo)致正確識(shí)別到了部分目標(biāo)或是將本來(lái)不是目標(biāo)的區(qū)域識(shí)別為目標(biāo);
2)由于出現(xiàn)KLT算法在跟蹤目標(biāo)上的正確特征點(diǎn)數(shù)目不夠,就會(huì)導(dǎo)致目標(biāo)的某部分區(qū)域沒(méi)有提取出相應(yīng)的特征點(diǎn),從而在跟蹤的時(shí)候這部分區(qū)域被錯(cuò)誤的識(shí)別為背景,最終被逐漸地忽略掉;
3)由于該KLT算法易受跟蹤到的錯(cuò)誤特征點(diǎn)影響.主要是識(shí)別出多個(gè)上一幀圈定目標(biāo)范圍內(nèi)非目標(biāo)區(qū)域的特征點(diǎn).
針對(duì)KLT算法在跟蹤過(guò)程中出現(xiàn)的漂移問(wèn)題,通過(guò)低門(mén)限背景二值圖像的信息進(jìn)行處理相結(jié)合,最終可以取得比較有效的目標(biāo)跟蹤效果,本論文采用以下方法來(lái)解決以上的問(wèn)題,其主要步驟如下:
1)結(jié)合雙門(mén)限二值圖像的信息來(lái)進(jìn)行目標(biāo)跟蹤.由于雙門(mén)限方法的計(jì)算量小,對(duì)動(dòng)目標(biāo)提取較為準(zhǔn)確,于是考慮在目標(biāo)丟失時(shí)才使用KLT算法進(jìn)行跟蹤.
2)使用KLT特征提取方法確定有效的特征點(diǎn)及其匹配;
3)計(jì)算低門(mén)限二值化后圖像中的目標(biāo)輪廓;
4)基于KLT特征點(diǎn)和雙門(mén)限目標(biāo)檢測(cè)的聯(lián)合跟蹤.如果KLT算法找到的特征點(diǎn)大部分在雙門(mén)限目標(biāo)的輪廓內(nèi),標(biāo)記該輪廓為目標(biāo)輪廓;否則,使用KLT特征點(diǎn)來(lái)決定目標(biāo)的輪廓.
搭建測(cè)試驗(yàn)證實(shí)驗(yàn)的硬件環(huán)境CPU:Intel 至強(qiáng) 銀牌4114 @ 2.20GHz;內(nèi)存:16G;Win10 64位操作系統(tǒng),程序編譯軟件:Microsoft Visual Studio 2015;庫(kù)文件:OpenCV4.1.2.本次實(shí)驗(yàn)采集的測(cè)試錄像分別采集了一段時(shí)間的學(xué)校路口、路口停車(chē)場(chǎng)(分辨率均為320×240@25fps)及機(jī)場(chǎng)空側(cè)區(qū)(分辨率為1280×720@25fps).針對(duì)不同監(jiān)視場(chǎng)景進(jìn)行了文獻(xiàn)[6]方法(KLT特征點(diǎn)跟蹤)和本文運(yùn)動(dòng)目標(biāo)跟蹤算法的測(cè)試與對(duì)比.
圖4 行人跟蹤測(cè)試對(duì)比效果圖
圖4為某校內(nèi)截取的視頻監(jiān)控圖像,本實(shí)驗(yàn)是對(duì)單個(gè)行人分別進(jìn)行兩種目標(biāo)跟蹤算法的測(cè)試與對(duì)比結(jié)果.圖4中分別提取了監(jiān)控視頻圖像序列中的第120、150、165、172幀圖像進(jìn)行處理,行人目標(biāo)的運(yùn)動(dòng)軌跡是由近至遠(yuǎn)行走的.圖4(a)為文獻(xiàn)[6]方法對(duì)行人的跟蹤效果,剛開(kāi)始跟蹤時(shí)還是能夠圈定運(yùn)動(dòng)目標(biāo),隨著目標(biāo)越來(lái)越小,目標(biāo)特征點(diǎn)不是很明顯,其穩(wěn)定性也不斷下降,以至于出現(xiàn)跟蹤失效的情況.圖4(b)由于結(jié)合了Harris角點(diǎn)算法來(lái)檢測(cè)特征點(diǎn),本文跟蹤算法不僅準(zhǔn)確的定位目標(biāo),而且能夠穩(wěn)定進(jìn)行跟蹤.表1為圖4中行人的定位信息表,將圈定目標(biāo)所繪的矩形框的中心位置作為行人定位的位置(把視頻圖像左上角的位置當(dāng)做坐標(biāo)的原點(diǎn)),表1中數(shù)據(jù)可知,本文跟蹤方法在目標(biāo)定位準(zhǔn)確性上比文獻(xiàn)[6]跟蹤方法更好.
表1 行人跟蹤的定位信息對(duì)比
Table 1 Comparison locating information of pedestrian tracking
幀數(shù)真實(shí)位置文獻(xiàn)[6]方法本文跟蹤方法文獻(xiàn)[6]誤差/像素本文誤差/像素120(162,144)(160,146)(161,143)2.82841.4142150(142,103)(145,98)(143,101)5.83102.2361165(135,90)(129,95)(134,91)7.81021.4142172(129,81)無(wú)(128,83)100.00002.2361
圖5 行人跟蹤精度對(duì)比圖
圖5為實(shí)驗(yàn)截取的上述行人監(jiān)視視頻圖像中135幀視頻圖像序列進(jìn)行的跟蹤軌跡測(cè)試對(duì)比,可以明顯看出兩種跟蹤方法在測(cè)試中行人軌跡與行人真實(shí)軌跡之間的偏差大小,由圖5可知,本文跟蹤方法獲得的跟蹤軌跡相對(duì)誤差比較穩(wěn)定.
圖6 車(chē)輛跟蹤測(cè)試對(duì)比效果圖
接下來(lái),圖6為車(chē)輛監(jiān)控視頻圖像進(jìn)行兩種跟蹤方法測(cè)試.分別提取出第121、142、160、182幀的跟蹤效果圖,目標(biāo)車(chē)輛行駛軌跡為前景-轉(zhuǎn)彎-停車(chē)的過(guò)程.圖6(a)為文獻(xiàn)[6]方法對(duì)黑色車(chē)輛進(jìn)行跟蹤的結(jié)果;圖6(b)為本文跟蹤方法對(duì)黑色車(chē)輛進(jìn)行跟蹤的結(jié)果.從這段視頻的跟蹤效果上不能直觀的分辨出兩種跟蹤算法的優(yōu)劣.表2為圖6中黑色車(chē)輛的定位信息表,由表2可知,本文跟蹤算法在跟蹤進(jìn)度上還是略好于文獻(xiàn)[6]方法.
表2 車(chē)輛跟蹤的定位信息對(duì)比
Table 2 Comparison locating information of vehicle tracking
幀數(shù)真實(shí)位置文獻(xiàn)[6]方法本文跟蹤方法文獻(xiàn)[6]誤差/像素本文誤差/像素121(56,128)(57,127)(57,127)1.41421.4142142(155,112)(153,114)(154,113)2.82841.4142160(165,110)(163,113)(164,112)3.60562.2361182(182,75)(183,78)(183,74)3.16231.4142
最后,為了進(jìn)一步驗(yàn)證本文跟蹤方法的自適應(yīng)性和穩(wěn)定性,針對(duì)機(jī)場(chǎng)復(fù)雜天氣情況下的運(yùn)動(dòng)目標(biāo)進(jìn)行本文跟蹤方法的測(cè)試.圖7(a)為天氣晴朗下機(jī)場(chǎng)航空器跟蹤結(jié)果(幀數(shù)從左到右從上到下分別為:50幀、94幀、106幀),圖7(b)為霧天低能見(jiàn)度狀況下機(jī)場(chǎng)航空器跟蹤結(jié)果(幀數(shù)從左到右從上到下分別為:220幀、403幀、421幀).通過(guò)在復(fù)雜天氣情況下對(duì)機(jī)場(chǎng)航空器進(jìn)行的跟蹤實(shí)驗(yàn)可知,本文跟蹤方法能夠在晴天以及天氣能見(jiàn)度較低的情況下,實(shí)現(xiàn)比較穩(wěn)定的跟蹤效果,在一定程度上滿(mǎn)足了實(shí)際應(yīng)用的需求.
圖7 復(fù)雜天氣條件下航空器跟蹤效果圖
本文通過(guò)在不同監(jiān)視場(chǎng)景下,對(duì)行人、車(chē)輛和航空器等多類(lèi)動(dòng)目標(biāo)體進(jìn)行運(yùn)動(dòng)目標(biāo)跟蹤研究,提出了一種自適應(yīng)雙門(mén)限與KLT融合的目標(biāo)跟蹤方法.該方法首先采用自適應(yīng)雙門(mén)限運(yùn)動(dòng)目標(biāo)檢測(cè)獲得高門(mén)限和低門(mén)限二值圖像信息,同時(shí)將雙門(mén)限二值圖像信息與KLT目標(biāo)特征點(diǎn)跟蹤進(jìn)行融合處理.如果KLT找到的特征點(diǎn)大部分在雙門(mén)限目標(biāo)的輪廓內(nèi),標(biāo)記該輪廓為目標(biāo)輪廓;否則,使用KLT特征點(diǎn)來(lái)確定目標(biāo)的輪廓,最終實(shí)現(xiàn)場(chǎng)面復(fù)雜環(huán)境下運(yùn)動(dòng)目標(biāo)的持續(xù)、準(zhǔn)確跟蹤.通過(guò)實(shí)驗(yàn)驗(yàn)證了本文跟蹤方法可解決跟蹤過(guò)程出現(xiàn)的漂移問(wèn)題,對(duì)目標(biāo)可進(jìn)行穩(wěn)定可靠跟蹤,同時(shí)對(duì)低能見(jiàn)度天氣下具備一定的適應(yīng)性.
在下一步的研究中,重點(diǎn)針對(duì)復(fù)雜監(jiān)視場(chǎng)景中多類(lèi)目標(biāo)同時(shí)跟蹤、目標(biāo)運(yùn)動(dòng)遮擋及基于深度學(xué)習(xí)的目標(biāo)跟蹤算法展開(kāi)進(jìn)一步研究和探索,以滿(mǎn)足在實(shí)際生活中數(shù)字化、網(wǎng)絡(luò)化及智能化實(shí)時(shí)視頻監(jiān)控系統(tǒng)[12-14]的需要.