仇大偉,劉靜
(山東中醫(yī)藥大學(xué)理工學(xué)院,山東濟(jì)南250355)
目標(biāo)跟蹤是計(jì)算機(jī)視覺領(lǐng)域中的一個(gè)重要問題,在視頻會(huì)議、目標(biāo)監(jiān)控和人機(jī)交互中有著廣泛應(yīng)用。目標(biāo)跟蹤的主要目的是在動(dòng)態(tài)變化的場景下連續(xù)、可靠地獲取目標(biāo)的準(zhǔn)確位置[1],多年來,研究者們對(duì)此進(jìn)行了大量研究,提出了一些目標(biāo)跟蹤算法。概括起來,目標(biāo)跟蹤算法可以分為以下四種類型[2]:基于梯度的方法通過最小化代價(jià)函數(shù)定位后續(xù)幀中的目標(biāo);基于知識(shí)的方法使用形狀、輪廓等先驗(yàn)知識(shí)跟蹤目標(biāo);基于學(xué)習(xí)的方法借助模式識(shí)別算法首先學(xué)習(xí)目標(biāo)模型,然后在后續(xù)幀中搜索目標(biāo);基于特征的方法使用提取的諸如亮度、顏色和邊緣等特征跟蹤目標(biāo)。
主動(dòng)輪廓模型[3]自1988年提出后,一直是圖像分割領(lǐng)域的研究熱點(diǎn),但是輪廓的初始化、運(yùn)算速度等問題使其很難應(yīng)用于目標(biāo)跟蹤的研究中?;趯W(xué)習(xí)的方法[2,4-6]主要使用神經(jīng)網(wǎng)絡(luò)、徑向基函數(shù)網(wǎng)絡(luò)和支持向量機(jī)等方法進(jìn)行目標(biāo)跟蹤。該方法允許進(jìn)行復(fù)雜的、非線性目標(biāo)建模,且可以動(dòng)態(tài)地進(jìn)行模型更新。然而,基于學(xué)習(xí)的方法一般用于特定的目標(biāo)跟蹤,且需要離線學(xué)習(xí)大量樣本,通用性較差。近年來,基于特征的目標(biāo)跟蹤方法引起了研究者的廣泛關(guān)注。均值偏移跟蹤[7](mean shift tracking,MST)及其改進(jìn)算法主要利用顏色直方圖表示目標(biāo),自提出以來得到了廣泛應(yīng)用。然而,該類算法假定目標(biāo)的直方圖在跟蹤過程中不會(huì)發(fā)生較大改變,實(shí)際上,由于光照強(qiáng)度、觀測角度、目標(biāo)遠(yuǎn)近以及遮擋等情況的變化,目標(biāo)在運(yùn)動(dòng)過程中常常會(huì)發(fā)生較大改變。針對(duì)不斷變化的目標(biāo)外形,Nejhum等[8]提出一種使用直方圖跟蹤目標(biāo)的算法,該算法利用目標(biāo)窗口中的若干小的矩形框表示目標(biāo),小矩形框的位置在算法運(yùn)行過程中自適應(yīng)地確定,該算法能夠跟蹤在運(yùn)動(dòng)過程中外形有較大變化的目標(biāo)。然而,該算法每次都需掃描整個(gè)圖像以確定目標(biāo)的大體位置,表示目標(biāo)的小矩形框的調(diào)整和再定位、目標(biāo)模型的更新等方面也需要做出進(jìn)一步的改進(jìn)。
研究人員將局部不變特征應(yīng)用于目標(biāo)跟蹤,也取得了較好的效果。Tang等[9]使用基于SIFT(scale invariant feature transform,SIFT)的屬性關(guān)系圖(attributed relational graph,ARG)表示目標(biāo),在幾個(gè)連續(xù)的幀中總是出現(xiàn)的特征被認(rèn)為是穩(wěn)定的特征,用于構(gòu)建圖;反之,較少出現(xiàn)的特征則從圖中刪除。然而,在實(shí)際的視覺目標(biāo)跟蹤過程中,由于外觀、光照等的變化,這樣穩(wěn)定的特征比較少。Carrera等[10]根據(jù)SURF(speeded-up robust features)算法提出了一種魯棒的目標(biāo)跟蹤算法,該算法使用Harris算子檢測目標(biāo)區(qū)域中的興趣點(diǎn),使用SURF描述算子對(duì)興趣點(diǎn)進(jìn)行表示,在目標(biāo)跟蹤過程中,使用UKF(unscented kalman filter)預(yù)測目標(biāo)中心位置。實(shí)驗(yàn)表明,該算法在目標(biāo)旋轉(zhuǎn)、尺度變化等情況下,魯棒性較好。然而,在目標(biāo)姿態(tài)、外觀發(fā)生改變的情況下,該算法未能及時(shí)更新目標(biāo)模型。
為減少計(jì)算量,有效應(yīng)對(duì)目標(biāo)跟蹤過程中的遮擋、目標(biāo)外觀變化等情況,本文提出了一種基于SURF的目標(biāo)跟蹤算法。
SURF算法是Bay等[11-12]在2006年提出的一種具有尺度、旋轉(zhuǎn)不變性的圖像局部特征檢測和描述算子。該算法不但在性能上達(dá)到或超過了目前常用的基于Harris、基于Hessian矩陣的方法和SIFT等算法,而且其執(zhí)行速度更快。
SURF算法的興趣點(diǎn)檢測算子基于Hessian矩陣,這樣可以利用積分圖像,極大地減少時(shí)間。
對(duì)于圖像中的一個(gè)像素點(diǎn)X=(x,y),在尺度σ下該點(diǎn)處的Hessian矩陣定義為
文獻(xiàn)[13-14]中已經(jīng)表明高斯核在尺度空間分析中性能優(yōu)良,實(shí)際應(yīng)用時(shí)須將其離散化。在SURF算法中,將二階高斯微分算子近似為如圖1所示的盒形濾波。使用這些算子SURF算法不但以較低的開銷在積分圖像上進(jìn)行計(jì)算,且計(jì)算時(shí)間獨(dú)立于濾波大小。
圖1中的高斯二階微分算子可記為Dxx、Dyy和Dyy。Hessian矩陣的行列式為
Lxx、Lyy和Lxy分別為Dxx、Dyy和Dxy與輸入圖像在某像素點(diǎn)處卷積,權(quán)值w按如下方式計(jì)算
式中,|·|F為F-范數(shù)。
興趣點(diǎn)從不同尺度檢測,尺度空間通常表示為一個(gè)圖像金字塔。由于積分圖像的使用,SURF算法可以通過不斷增大濾波而不是減小圖像進(jìn)行尺度空間分析,如圖2所示,左圖表示不斷減少圖像大小進(jìn)行尺度空間分析,SURF算法使用右圖所示方法,使用相同大小的輸入圖像,通過不斷增大濾波大小進(jìn)行尺度空間分析。
圖1 高斯二階微分算子Fig.1 Gaussian second-order partial derivative operator in x-,y-and xy-directions
尺度空間分成不同分組,為了使濾波大小為奇數(shù)且保證中心像素的存在,相鄰濾波必須增大至少2像素。對(duì)于每一新的尺度空間分組,濾波增大加倍(從6~12到24~48)。在SURF算法中,第1分組的濾波大小分別為9、15、21、27,第2分組至第4分組中的濾波大小分別為15、27、39、51;27、51、75、99;51、99、147、195。
SURF算法運(yùn)用非最大化抑制和插值方法尋找興趣點(diǎn)。
圖2 尺度空間分析Fig.2 Scale space analysis
為提取興趣點(diǎn)的描述,首先構(gòu)造一個(gè)以興趣點(diǎn)為中心,沿興趣點(diǎn)方向的窗口,窗口大小為20s。該窗口被劃分成4×4的小區(qū)域,在每個(gè)小區(qū)域計(jì)算Haar小波響應(yīng),水平方向記為 dx,垂直方向記為 dy(濾波大小為2s)。dx和dy與以興趣點(diǎn)為中心高斯分布(σ=3.3s)進(jìn)行加權(quán)。在每個(gè)小區(qū)域中計(jì)算向量v=(Σ dx,Σ dy,Σ |dx|,Σ |dy|),連接4×4個(gè)小區(qū)域的向量,就可得到一個(gè)長度為64的向量。
圖3 興趣點(diǎn)方向的指定Fig.3 Orientation assignment for the interest point
興趣點(diǎn)的匹配基于向量間的距離,一般使用馬氏(Mahalanobis)距離或歐氏(Euclidean)距離。
在目標(biāo)跟蹤中,目標(biāo)的表示、目標(biāo)的檢測、遮擋情況的處理、目標(biāo)大小的縮放、目標(biāo)模型的更新等是需要著重解決的幾個(gè)問題,在本算法中,我們針對(duì)這幾個(gè)問題提出了基于SURF的目標(biāo)跟蹤算法。
基于SURF的目標(biāo)跟蹤算法以第1幀圖像中矩形框界定的目標(biāo)為輸入,后續(xù)幀中表示目標(biāo)位置的矩形框作為輸出。該算法的總體框架見圖4。
算法獲得輸入后,對(duì)于每一幀新的圖像,為減少計(jì)算量,不是在整個(gè)圖像中搜索目標(biāo),而是首先根據(jù)目標(biāo)的運(yùn)動(dòng)狀態(tài),計(jì)算目標(biāo)搜索區(qū)域。算法在目標(biāo)搜索區(qū)域中檢測SURF點(diǎn),將SURF點(diǎn)與目標(biāo)模型中的SURF點(diǎn)進(jìn)行比較,計(jì)算最佳匹配SURF點(diǎn)。然后,根據(jù)最佳匹配SURF點(diǎn)的個(gè)數(shù),判定目標(biāo)是否發(fā)生遮擋。若發(fā)生遮擋,則根據(jù)獲得的匹配SURF點(diǎn)在目標(biāo)模型中相對(duì)應(yīng)的SURF點(diǎn),計(jì)算目標(biāo)中心,根據(jù)SURF點(diǎn)及其鄰近R、G、B直方圖計(jì)算目標(biāo)的實(shí)際位置。若目標(biāo)未發(fā)生遮擋,則根據(jù)檢測到的最佳匹配SURF點(diǎn),計(jì)算目標(biāo)中心,根據(jù)SURF點(diǎn)鄰近R、G、B直方圖縮放跟蹤窗口,計(jì)算目標(biāo)的最佳大小和位置。并根據(jù)獲得的目標(biāo)窗口,重新計(jì)算窗口內(nèi)SURF點(diǎn)及其鄰近R、G、B直方圖,對(duì)目標(biāo)模型進(jìn)行更新,以反映目標(biāo)的最新變化。
圖4 算法框架圖Fig.4 Flowchart of the tracking process
目標(biāo)檢測是視覺跟蹤的中心任務(wù)之一。本節(jié)的主要任務(wù)是計(jì)算目標(biāo)的搜索區(qū)域,然后在該區(qū)域中檢測目標(biāo)的SURF點(diǎn),這些點(diǎn)作為目標(biāo)的主要特征點(diǎn),確定了目標(biāo)的大致位置,為后面計(jì)算目標(biāo)的準(zhǔn)確位置做必要的準(zhǔn)備。
2.1.1 目標(biāo)表示
本文提出的算法屬于基于特征的目標(biāo)跟蹤算法。算法首先檢測目標(biāo)區(qū)域中的SURF點(diǎn),然后計(jì)算每個(gè)SURF點(diǎn)鄰近的R、G、B直方圖,以SURF點(diǎn)和R、G、B直方圖來表示目標(biāo)。如圖5所示,以目標(biāo)跟蹤窗口內(nèi)的若干小矩形框的R、G、B直方圖表示目標(biāo)。在對(duì)跟蹤的目標(biāo)進(jìn)行直方圖的相似度比較時(shí),不同的小矩形框賦以不同權(quán)值,離目標(biāo)中心近的賦以較大權(quán)值,離目標(biāo)中心較遠(yuǎn)的賦以較小權(quán)值,權(quán)值在算法運(yùn)行過程中動(dòng)態(tài)確定(權(quán)值的計(jì)算見2.3節(jié))。在目標(biāo)跟蹤框中不可避免地會(huì)包含很多背景像素,對(duì)離目標(biāo)中心較遠(yuǎn)的小矩形框直方圖賦以較小權(quán)值,可以降低其對(duì)目標(biāo)表示的影響,以便較準(zhǔn)確地檢測到目標(biāo),提高跟蹤的精度。
圖5 目標(biāo)的表示Fig.5 Target representation
2.1.2 目標(biāo)搜索區(qū)域的計(jì)算
為減少算法的計(jì)算成本,加快算法的執(zhí)行速度,本算法不是掃描整個(gè)輸入圖像檢測目標(biāo),而是根據(jù)上一幀圖像中目標(biāo)的位置和速度,在當(dāng)前幀中掃描目標(biāo)可能的鄰近區(qū)域,進(jìn)而確定目標(biāo)的準(zhǔn)確位置。目標(biāo)可能鄰近區(qū)域,即目標(biāo)搜索區(qū)域的計(jì)算方法為:
其中,testRect和targetRect分別表示當(dāng)前幀的目標(biāo)搜索區(qū)域和上一幀的目標(biāo)區(qū)域。其第一、第二分量表示矩形區(qū)域左上角坐標(biāo),第三、第四分量分別表示矩形區(qū)域的寬度和高度。dx和dy分別表示目標(biāo)在x和y方向上的速度,此處我們假定目標(biāo)沿右下角方向移動(dòng),若目標(biāo)向其他方向移動(dòng),目標(biāo)搜索區(qū)域可相應(yīng)向該方向增長。step_w和step_h分別表示矩形區(qū)域在寬度和高度方向上需要增加的量,其計(jì)算方法如下
其中,sw和sh分別表示目標(biāo)搜索區(qū)域在寬度和高度方向上的增長系數(shù),一般選擇0.1~0.3,本文中sw和sh均設(shè)置為0.2。
目標(biāo)搜索區(qū)域的計(jì)算見圖6,圖中虛線框?yàn)樯弦粠瑘D像中檢測到的目標(biāo)的準(zhǔn)確位置,點(diǎn)線框?yàn)樵繕?biāo)位置進(jìn)行擴(kuò)展后的區(qū)域。
圖6 目標(biāo)搜索區(qū)域的計(jì)算Fig.6 Computation of target searching area
2.1.3 SURF點(diǎn)的檢測
確定了目標(biāo)搜索區(qū)域后,應(yīng)用SURF算法檢測該區(qū)域中的SURF點(diǎn),一般來說,在目標(biāo)搜索區(qū)域中檢測到的SURF點(diǎn)將多于目標(biāo)模型中SURF點(diǎn)的數(shù)量。為計(jì)算最佳匹配SURF點(diǎn),我們首先計(jì)算目標(biāo)搜索區(qū)域與目標(biāo)模型中SURF點(diǎn)的歐氏距離
其中,TI(i)表示在目標(biāo)搜索區(qū)域中檢測到的第i個(gè)SURF點(diǎn),TS(k)表示目標(biāo)模型中的第k個(gè)SURF點(diǎn)。對(duì)于歐氏距離小于某一閾值θdist的SURF點(diǎn),我們選定為最佳匹配點(diǎn),其中θdist的值在算法運(yùn)行過程中動(dòng)態(tài)確定,一般為上一幀最佳SURF匹配點(diǎn)歐氏距離的最大值。
檢測到的最佳SURF匹配點(diǎn)即為目標(biāo)的大致位置,為計(jì)算目標(biāo)的準(zhǔn)確位置,需要計(jì)算目標(biāo)的中心位置,為此算法將判斷目標(biāo)是否發(fā)生遮擋。
為簡單起見,算法根據(jù)如下原則,判斷目標(biāo)是否發(fā)生遮擋,并進(jìn)行相應(yīng)處理:
(1)若未檢測到匹配點(diǎn),則目標(biāo)發(fā)生完全遮擋,在后續(xù)幀中,再次檢測到與目標(biāo)模型中相匹配的SURF點(diǎn)時(shí),標(biāo)志著目標(biāo)再次出現(xiàn)。
(2)若匹配點(diǎn)的個(gè)數(shù)少于上一幀中最佳匹配點(diǎn)個(gè)數(shù)的75%,則目標(biāo)發(fā)生部分遮擋。此時(shí),目標(biāo)中心根據(jù)目標(biāo)模型中相應(yīng)匹配點(diǎn)到中心的距離來計(jì)算,為方便說明,我們進(jìn)行如下符號(hào)約定:目標(biāo)模型中目標(biāo)中心位置為O?
,目標(biāo)模型中相應(yīng)最佳SURF匹配點(diǎn)的位置為P?i,因此,目標(biāo)中心到該點(diǎn)的距離為
如圖7所示。從而,當(dāng)前幀目標(biāo)中心的估計(jì)值為
其中,n為檢測到的最佳匹配SURF點(diǎn)的個(gè)數(shù)。
圖7 目標(biāo)發(fā)生遮擋時(shí)的目標(biāo)中心位置計(jì)算Fig.7 Computation of the center position of a shaded target
圖8 目標(biāo)未發(fā)生遮擋時(shí)的目標(biāo)中心位置計(jì)算Fig.8 Computation of the center position without a shaded target
(3)否則,目標(biāo)未發(fā)生遮擋,根據(jù)檢測到的最佳SURF匹配點(diǎn)計(jì)算目標(biāo)中心位置,見圖8,目標(biāo)中心的估計(jì)值為
檢測到當(dāng)前幀目標(biāo)中心的估計(jì)值后,算法將根據(jù)最佳匹配SURF點(diǎn)鄰近的顏色直方圖來計(jì)算目標(biāo)的準(zhǔn)確位置。
根據(jù)上一幀中目標(biāo)跟蹤窗口的大小,在當(dāng)前幀中,算法隨機(jī)改變跟蹤窗口的寬度和高度,對(duì)于每一個(gè)窗口W'=S(W,winw,winh),其中W為上一幀中目標(biāo)跟蹤窗口,winw和winh分別為寬度和高度方向上窗口大小改變系數(shù),本文中我們選取0.8≤winw,winh≤1.2。算法計(jì)算在該窗口內(nèi),最近匹配SURF點(diǎn)鄰近的R、G、B直方圖,并與目標(biāo)模型中相應(yīng)SURF點(diǎn)的R、G、B直方圖進(jìn)行比較,返回相似度最高的窗口大小,即
式中,n為最佳匹配SURF點(diǎn)的個(gè)數(shù),θ(i)為相應(yīng)于第i個(gè)匹配點(diǎn)的目標(biāo)模型中的SURF點(diǎn),λi為第i個(gè)SURF點(diǎn)鄰近直方圖的權(quán)重系數(shù),在算法運(yùn)行過程中動(dòng)態(tài)改變,其計(jì)算方法為
其中,b為直方圖箱子索引號(hào),Hi為目標(biāo)搜索區(qū)域中第i個(gè)SURF點(diǎn)鄰近的原始直方圖。ρ(·)度量目標(biāo)區(qū)域和目標(biāo)模板的R、G、B直方圖的接近程度,本文對(duì)R、G、B三個(gè)分量采用相同權(quán)重,即均為1/3,算法采用Bhattacharyya距離
上式中,N為直方圖箱數(shù)。
因?yàn)樵诒疚闹校繕?biāo)跟蹤窗口和直方圖的計(jì)算均是矩形框,所以可以采用積分直方圖以加快算法的執(zhí)行速度。
由于姿態(tài)改變、光線變化以及場景改變等因素的影響,目標(biāo)在運(yùn)動(dòng)過程中其特征不斷發(fā)生變化,目標(biāo)模型應(yīng)及時(shí)反映這些變化。因此,模型更新也是影響目標(biāo)跟蹤效果的一個(gè)重要方面。為此,本文提出了一種在線更新目標(biāo)模型的策略。
在遮擋發(fā)生前,系統(tǒng)保存有最近未發(fā)生遮擋的前M(本文中,我們?cè)O(shè)置M為10)幀圖像中的目標(biāo)特征(SURF點(diǎn)、鄰近直方圖)。若當(dāng)前幀中目標(biāo)未發(fā)生遮擋,則根據(jù)2.3中計(jì)算目標(biāo)的準(zhǔn)確跟蹤窗口,重新計(jì)算跟蹤窗口內(nèi)的SURF點(diǎn)鄰近的R、G、B直方圖,將SURF點(diǎn)即R、G、B直方圖保存到目標(biāo)模型中,若目標(biāo)模型中的幀數(shù)超過M,則刪除最前幀中的目標(biāo)特征。
若當(dāng)前幀中目標(biāo)發(fā)生遮擋,停止更新目標(biāo)模型,根據(jù)匹配的最佳SURF點(diǎn)及目標(biāo)模型,估計(jì)可能的目標(biāo)中心位置,計(jì)算SURF點(diǎn)鄰近R、G、B直方圖,輸出目標(biāo)未遮擋部分。
為了評(píng)價(jià)所提出算法的性能,通過幾個(gè)實(shí)驗(yàn)對(duì)其進(jìn)行測試,主要針對(duì)目標(biāo)縮放、遮擋情況的處理。經(jīng)典均值偏移(MST)算法[7]應(yīng)用較為廣泛,因此本文選擇該算法作為對(duì)比算法。本文將選用PETS[15-16]作為測試數(shù)據(jù)集,該數(shù)據(jù)集在目標(biāo)跟蹤領(lǐng)域作為測試數(shù)據(jù)集得到了廣泛應(yīng)用。
本次實(shí)驗(yàn)使用PETS2001[15]中數(shù)據(jù)集,在該數(shù)據(jù)集的視頻中,目標(biāo)由遠(yuǎn)至近,跟蹤目標(biāo)逐漸變大,圖像大小為768×576。圖9為使用不同算法的部分跟蹤結(jié)果,其中左側(cè)為經(jīng)典MST算法的部分跟蹤結(jié)果,右側(cè)為本文提出算法的跟蹤結(jié)果。實(shí)驗(yàn)中本文算法選用的參數(shù)為:最優(yōu)匹配SURF點(diǎn)個(gè)數(shù)為12,目標(biāo)模型中歷史幀數(shù)為10,R、G、B直方圖箱數(shù)為128。圖9中從上到下依次為第329、333、343、360、379幀圖像。
圖9 目標(biāo)發(fā)生縮放情況下的不同方法的跟蹤結(jié)果比較Fig.9 Comparisons of tracking results of different algorithms for a zoomer target
從圖9中可以看出,在目標(biāo)大小發(fā)生變化的情況下,本文提出的算法可以較好地適應(yīng)目標(biāo)大小的變化,而經(jīng)典MST算法在第360幀己不能很好地適應(yīng)目標(biāo)大小的變化,最終只能定位到目標(biāo)的一部分。
在本節(jié)中,我們使用PETS2007[16]中的數(shù)據(jù)集,圖像大小為720×576。圖10為使用不同算法的部分跟蹤結(jié)果,其中左側(cè)為經(jīng)典MST算法的部分跟蹤結(jié)果,右側(cè)為本文提出算法的跟蹤結(jié)果。實(shí)驗(yàn)中本文算法選用的參數(shù)為:最優(yōu)匹配SURF點(diǎn)個(gè)數(shù)為12,目標(biāo)模型中歷史幀數(shù)為10,R、G、B直方圖箱數(shù)為128。圖10中從上到下依次為第10、47、75、110幀圖像。
從圖10可以看出,從第47幀開始,經(jīng)典MST算法的跟蹤結(jié)果即開始偏離目標(biāo),在第75幀中,經(jīng)典MST算法已經(jīng)失去了目標(biāo)。而本文提出的算法,即使在有遮擋的情況下,也可較好地跟蹤目標(biāo),說明了本文算法的有效性。
圖10 目標(biāo)發(fā)生遮擋情況下的不同方法的跟蹤結(jié)果比較Fig.10 Comparisons of tracking results of different algorithms for a shaded target
本節(jié)從以下三個(gè)方面說明不同參數(shù)的選擇對(duì)目標(biāo)跟蹤結(jié)果的影響。
3.3.1 SURF特征點(diǎn)個(gè)數(shù)的選擇
SURF特征點(diǎn)并不是越多越好,如圖11所示,從上到下依次為SURF特征點(diǎn)數(shù)4、8、12、16的跟蹤結(jié)果。左側(cè)分別表示不同參數(shù)下PETS2001[15]中第349幀的跟蹤結(jié)果,右側(cè)分別表示不同參數(shù)下第379幀的跟蹤結(jié)果。
文獻(xiàn)[8]中通過實(shí)驗(yàn)說明了使用單一直方圖進(jìn)行目標(biāo)跟蹤時(shí),常常得不到令人滿意的跟蹤效果。從圖11中也可以看出,SURF特征點(diǎn)選取得少,算法雖然也能較準(zhǔn)確地跟蹤到目標(biāo),但是并不能準(zhǔn)確地定位到完整的目標(biāo)大小。這是因?yàn)镾URF特征點(diǎn)較少,這些特征點(diǎn)只能代表目標(biāo)的局部特征,其R、G、B直方圖表示目標(biāo)的區(qū)分性不足。反之,SURF特征點(diǎn)選取得越多,跟蹤結(jié)果受目標(biāo)周邊背景特征點(diǎn)的影響越大;再者,SURF特征點(diǎn)越多,每個(gè)特征點(diǎn)的鄰近區(qū)域越小,其R、G、B直方圖在最終目標(biāo)跟蹤結(jié)果中所占的權(quán)重也越小。所以,應(yīng)選取適當(dāng)數(shù)量的SURF特征點(diǎn)。實(shí)驗(yàn)表明,目標(biāo)跟蹤過程中,一般選取SURF特征點(diǎn)的數(shù)量為目標(biāo)區(qū)域中檢測到的SURF特征點(diǎn)數(shù)量的1/3,跟蹤效果較好。
圖11 不同SURF特征點(diǎn)個(gè)數(shù)下的跟蹤結(jié)果比較Fig.11 Comparisons of tracking results corresponding to different numbers of SURF feature points
3.3.2 目標(biāo)模型中歷史幀數(shù)量的選擇
直覺上,跟蹤目標(biāo)的特征在連續(xù)幀中相似度較大。因此,目標(biāo)模型中歷史幀數(shù)一般不會(huì)設(shè)置較大。
表1 目標(biāo)在歷史幀中的相似度比較Table 1 Object similarity comparison among the past frames
我們?cè)谶x取的SURF特征點(diǎn)數(shù)分別為4、8、12、16的情況下,多次進(jìn)行實(shí)驗(yàn),在目標(biāo)模型的最優(yōu)SURF特征點(diǎn)匹配中,歷史幀的使用情況如表1所示。從表1可以看出,當(dāng)前幀中的SURF特征點(diǎn)主要與前3幀相匹配。所以,目標(biāo)模型中歷史幀數(shù)一般設(shè)置為3~5。
3.3.3 直方圖中箱數(shù)量的選擇
對(duì)于RGB圖像來說,直方圖的箱數(shù)最大為256。實(shí)驗(yàn)表明,箱數(shù)越大,越能較好地表示目標(biāo)的特征。箱數(shù)的大小對(duì)算法的運(yùn)行速度影響不顯著。
本文根據(jù)SURF相比于SIFT等特征提取方法在性能、執(zhí)行速度等方面的優(yōu)點(diǎn),提出了一種基于SURF的目標(biāo)跟蹤和在線目標(biāo)模型更新算法,該方法的時(shí)間復(fù)雜度較低,執(zhí)行速度快,并能夠在線實(shí)時(shí)更新目標(biāo)模型。對(duì)于目標(biāo)運(yùn)動(dòng)過程中突然改變運(yùn)動(dòng)方向,以及光照突然變化的場景下的目標(biāo)跟蹤算法是今后研究的方向。
[1]HU W M,TAN T N,WANG L,et al.A survey on visual surveillance of object motion and behaviors[J].IEEE Transactions on Systems,Man and Cybernetics,Part C,2004,34(3):334 -352.
[2]BABU R V,SURESH S,MAKUR A.Online adaptive radial basis function networks for robust object tracking[J].Computer Vision and Image Understanding,2010,114(3):297-310.
[3]KASS M,WITKIN A,TERZOPOULOS D.Snakes:Active contour models[J].International Journal of Computer Vision,1988,1(4):321-331.
[4]MUSAVI M,AHMED W,CHAN K H,et al.On the training of radial basis function classifiers[J].Neural Networks,1992,5(4):595-603.
[5]AVIDAN S.Support vector tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2004,26(8):1064-1072.
[6]AVIDAN S.Ensemble tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,29(2):261 -271.
[7]COMANICIU D,RAMESH V,Meer P.Kernel-based object tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,25(5):564-577.
[8]NEJHUM S M,HO J,YANG M H.Online visual tracking with histograms and articulating blocks[J].Computer Vision and Image Understanding,2010,114(8):901-914.
[9]TANG F,TAO H.Object tracking with dynamic feature graph[C]//2nd Joint IEEE International Workshop on Visual Surveillance and Performance Evaluation of Tracking and Surveillance,2005.Piscataway:IEEE,2005:25-32.
[10]CARRERA G,SAVAGE J,MAYOL-CUEVAS W.Robust feature descriptors for efficient vision-based tracking[M]//Progress in Pattern Recognition,Image Analysis and Applications.Berlin:Springer,2007,4756:251 -260.
[11]BAY H,TUYTELAARS T,van GOOL L.Surf:Speeded up robust features[C]//Computer Vision – ECCV 2006.Berlin:Springer,2006:404 -417.
[12]BAY H,ESS A,TUYTELAARS T,et al.Speeded-up robust features(surf)[J].Computer Vision and Image Understanding,2008:110(3):346-359.
[13]KOENDERINK J J.The structure of images[J].Biological Cybernetics,1984,50(5):363 -370.
[14]LINDEBERG T.Scale-space for discrete signals[J].IEEE Trans Pattern Anal Mach Intell,1990,12(3):234 -254.
[15]PETS.Sequence 2[EB/OL].[2014-02-10].ftp://ftp.cs.rdg.ac.uk/pub/PETS2001/.
[16]PETS.Sequence 3[EB/OL].[2014-02-10].ftp://ftp.cs.rdg.ac.uk/pub/PETS2007/.