殷鶴楠 佟國香
摘 要:針對(duì)視覺跟蹤中運(yùn)動(dòng)目標(biāo)的魯棒性問題,提出一種基于卷積神經(jīng)網(wǎng)絡(luò)結(jié)合稀疏自動(dòng)編碼器的特征提取方法進(jìn)行圖像目標(biāo)跟蹤。該方法首先將大量有標(biāo)注數(shù)據(jù)集輸入到卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行預(yù)訓(xùn)練,然后使用這些卷積特征無監(jiān)督的訓(xùn)練稀疏自編碼器得到稀疏特征,并利用該特征對(duì)目標(biāo)進(jìn)行描述。最后結(jié)合兩種經(jīng)典的跟蹤方法,采用Meanshift與卡爾曼濾波對(duì)目標(biāo)進(jìn)行實(shí)時(shí)跟蹤。結(jié)果表明,利用深度學(xué)習(xí)模型代替以往人工提取特征的方式能夠更好地描述目標(biāo)模型,對(duì)光照變化、尺度變化、遮擋等都具有良好的適應(yīng)性,以及較好的實(shí)時(shí)性。
關(guān)鍵詞:目標(biāo)跟蹤;卷積神經(jīng)網(wǎng)絡(luò);稀疏自編碼器;特征提取
DOI:10.11907/rjdk.173023
中圖分類號(hào):TP301
文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-7800(2018)006-0022-05
Abstract:In this paper, we propose a new method for tracking the moving object in vision tracking based on CNN-AE feature extraction. Firstly, a large number of labeled data sets are inputted to the convolution neural network for pre-training. Then these convolution features are obtained from unsupervised training on sparse self-encoders. Thereafter, the obtained feature the target. Finally, the two classical tracking methods including Meanshift and Kalman filter are used to track the targets in real time. The results show that this method can better describe the target model, and it has good adaptability to illumination change, scale change, occlusion and so on, and also has better real-time performance.
Key Words:target tracking; convolutional neural network; sparse automatic encoder; feature extraction
0 引言
隨著計(jì)算機(jī)視覺技術(shù)的發(fā)展,視覺跟蹤在各個(gè)領(lǐng)域應(yīng)用廣泛,尤其在人機(jī)交互中,其具有以人為中心、簡單、高效、人性化等特點(diǎn),是人機(jī)交互中的重要組成部分。特征是計(jì)算機(jī)視覺研究過程中的重點(diǎn),尋找好的特征表示目標(biāo)是一項(xiàng)非常重要的任務(wù)。優(yōu)秀的特征應(yīng)該能夠有效抵擋目標(biāo)形變、尺度、旋轉(zhuǎn)等對(duì)其造成的影響,以往許多表現(xiàn)性良好的特征提取方法都是由人工設(shè)計(jì),如SIFT[1-2]方法。針對(duì)不同問題,也可以設(shè)計(jì)不同的特征提取方法,但是人工提取特征也有許多缺點(diǎn),如設(shè)計(jì)周期長,需要了解其它行業(yè)知識(shí)等,有時(shí)運(yùn)氣和經(jīng)驗(yàn)也能影響提取的特征性能。
近年來,深度神經(jīng)網(wǎng)絡(luò)成為人們關(guān)注的熱點(diǎn),并且在特征提取中取得了非常好的效果。深度神經(jīng)網(wǎng)絡(luò)能夠打破傳統(tǒng)人工提取特征的復(fù)雜過程,利用計(jì)算機(jī)自動(dòng)學(xué)習(xí)并提取所需特征。深度神經(jīng)網(wǎng)絡(luò)模型有多種層次結(jié)構(gòu),其中應(yīng)用最廣泛的是卷積神經(jīng)網(wǎng)絡(luò)(CNN),其是為識(shí)別二維形狀而設(shè)計(jì)的一個(gè)多層感知器,該網(wǎng)絡(luò)結(jié)構(gòu)對(duì)平移、比例縮放、傾斜或共他形式的變形具有高度不變性,因此在人臉檢測(cè)[3]、文本分析[4]、語音識(shí)別[5]等各方面都表現(xiàn)優(yōu)異。并且近年來,一些深度模型也開始應(yīng)用于其它領(lǐng)域。馮鑫等[6]將深度學(xué)習(xí)方法運(yùn)用在紅外與可見光融合方面,提出一種基于深度模型分割的可見光融合算法,有效克服了紅外與可見光圖像融合時(shí)受噪聲等因素干擾導(dǎo)致的輪廓不鮮明、對(duì)比度低的缺點(diǎn)。
基于目標(biāo)特征的跟蹤方法是視覺跟蹤中的一類重要方法,通過目標(biāo)描述、特征提取、運(yùn)動(dòng)估計(jì)等步驟預(yù)測(cè)下一個(gè)視頻幀中的目標(biāo)位置。目標(biāo)跟蹤最直接的方法是模板匹配—?dú)w一化互相關(guān)系數(shù)[7]。每個(gè)候選樣本窗口均勻分布在前一幀目標(biāo)周圍,使用歸一化互相關(guān)系數(shù)進(jìn)行對(duì)比,分?jǐn)?shù)最高的被選為新的位置。Meanshift[8-10]是著名的跟蹤算法,其利用直方圖匹配代替像素空間信息。該方法對(duì)目標(biāo)自由基變化有較好的適應(yīng)性,一般使用顏色直方圖對(duì)目標(biāo)進(jìn)行描述。近幾年也不斷有新的跟蹤算法出現(xiàn),如TLD[11]算法,該算法也引入了一種在線學(xué)習(xí)方法,對(duì)目標(biāo)模型和特征不斷進(jìn)行更新,從而使算法更加穩(wěn)定,在目標(biāo)跟蹤過程中可不受遮擋、形變等問題影響;高文等[12]提出一種反饋式學(xué)習(xí)方法,提高了算法在目標(biāo)跟蹤問題中的判別能力和容錯(cuò)能力,對(duì)于目標(biāo)的各種形變都有較好的適應(yīng)性。但這些跟蹤方法在描述目標(biāo)模型時(shí)都需要人工提取特征,費(fèi)時(shí)費(fèi)力。文獻(xiàn)[13]中介紹了一種基于CNN的目標(biāo)跟蹤方法,提出一種新的CNN結(jié)構(gòu),從而將CNN應(yīng)用于圖像跟蹤領(lǐng)域,并且提高了跟蹤精度與速度。通過與其它跟蹤算法的對(duì)比,該方法精確度突出,但是實(shí)時(shí)性較差。將特征使用稀疏表示可以降低計(jì)算復(fù)雜度,田猛等[14]提出基于稀疏表示與先驗(yàn)概率的方法對(duì)目標(biāo)進(jìn)行跟蹤,有效解決了噪聲、旋轉(zhuǎn)、遮擋等復(fù)雜背景下的目標(biāo)問題。
為了解決在視覺跟蹤領(lǐng)域特征提取不便的問題,本文提出一種卷積神經(jīng)網(wǎng)絡(luò)與稀疏自動(dòng)編碼器模型(CNN-AE),并在Meanshift的卡爾曼濾波框架下實(shí)現(xiàn)目標(biāo)跟蹤。本文與其它算法的不同點(diǎn)在于:在圖像預(yù)處理后,利用卷積神經(jīng)網(wǎng)絡(luò)模型提取目標(biāo)特征,將得到的特征輸入稀疏自動(dòng)編碼器進(jìn)行無監(jiān)督學(xué)習(xí),減少特征冗余。跟蹤階段采用傳統(tǒng)跟蹤方法Meanshift和卡爾曼濾波對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行跟蹤和預(yù)測(cè),而不繼續(xù)采用網(wǎng)絡(luò)模型,以提高實(shí)時(shí)性。經(jīng)過分析,本文算法的跟蹤精度和速度都優(yōu)于3種主流目標(biāo)跟蹤模型。
1 CNN-AE深度特征提取
1.1 卷積神經(jīng)網(wǎng)絡(luò)
卷積神經(jīng)網(wǎng)絡(luò)由一個(gè)或多個(gè)卷積層和頂端的全連通層組成,同時(shí)包括關(guān)聯(lián)權(quán)重和池化層。該結(jié)構(gòu)使卷積神經(jīng)網(wǎng)絡(luò)能夠更好地利用數(shù)據(jù)二維結(jié)構(gòu),因此在語音和圖像識(shí)別方面有較好的結(jié)果。圖1為卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu),其由輸入層、卷積層、池化層、全連接層以及輸出層組成。
本文提出的卷積神經(jīng)網(wǎng)絡(luò)在提取目標(biāo)圖像抽象特征時(shí),主要采用3類處理層:C層卷積濾波層、S層池化/下采樣層、N層非線性層,各層具體實(shí)現(xiàn)如下:
1.2 稀疏自編碼器
在特征提取階段,使用卷積神經(jīng)網(wǎng)絡(luò)模型學(xué)習(xí)圖像中隱藏的特征,之后本文使用一種被稱為稀疏自編碼器的神經(jīng)網(wǎng)絡(luò)模型降低特征維度。此模型具有對(duì)稱特質(zhì),如圖3所示,其主要使用無監(jiān)督方法進(jìn)一步學(xué)習(xí)數(shù)據(jù)集特征。
該模型一般由編碼和解碼兩部分組成。在編碼模塊中,輸入由非線性激活函數(shù)映射到隱藏層,激活函數(shù)如下:
其中W為權(quán)重,b為偏執(zhí)。激活函數(shù)為sigmod函數(shù)。在解碼模塊中,隱藏層同樣可采用非線性激活函數(shù)將其映射到輸出層,表達(dá)式和輸入層類似,輸出的是卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練得出的特征向量。
為了求出網(wǎng)絡(luò)參數(shù)的最優(yōu)解,可以最小化損失函數(shù),公式如下:
式(4)中的第一項(xiàng)表示所有n個(gè)訓(xùn)練樣本的重建誤差,通過計(jì)算p和p-j兩個(gè)分布之間的KL距離強(qiáng)制系數(shù)約束。這里p是指隱藏單元的目標(biāo)激活函數(shù),p= 1n∑n-i=1[h-j]-i 是所有示例中j個(gè)隱藏節(jié)點(diǎn)的平均激活函數(shù),[h-j]-i是第i個(gè)示例中第j個(gè)隱藏節(jié)點(diǎn)的激活函數(shù)。為了提高泛化能力、減少過度擬合,可以采取一些解決方案。例如,可以將權(quán)重衰減懲罰項(xiàng)加入到損失函數(shù)中,也可采用類似去噪自編碼器在輸入中加入噪聲,或者使用舍棄法[15]。
本文使用舍棄方法優(yōu)化網(wǎng)絡(luò)模型,該方法的主要思想是,在訓(xùn)練中刪除一部分隱藏節(jié)點(diǎn),即將某節(jié)點(diǎn)直接從網(wǎng)絡(luò)中移除。節(jié)點(diǎn)選擇一般是隨機(jī)的,剩下節(jié)點(diǎn)將被組成一個(gè)規(guī)模更小的網(wǎng)絡(luò)。例如,對(duì)于上述稀疏自編碼器,舍棄方法如下:
其中*代表矩陣點(diǎn)積,r是伯努利獨(dú)立分布向量。Bernoulli為伯努利分布,p一般設(shè)置為0.5。在測(cè)試時(shí),權(quán)重被設(shè)置為pW,并且網(wǎng)絡(luò)中不包含被舍棄的節(jié)點(diǎn)。
為了優(yōu)化式(6)中的損失函數(shù),首先初始化常數(shù)向量θ為非常接近于0的實(shí)數(shù)。然后可以使用一種被稱為L-BFGS的二階優(yōu)化方法,它是基于BFGS更新過程的準(zhǔn)牛頓法。為了減少參數(shù)數(shù)量,可以共享編碼層與解碼層的權(quán)值,即W(d)=W(e)T。
值得注意的是,可以建立更多隱藏層組成一個(gè)深度學(xué)習(xí)框架,這里幾個(gè)AE組成的深度學(xué)習(xí)框架被稱作棧式稀疏自編碼器。與其它深度網(wǎng)絡(luò)相同,學(xué)習(xí)到的特征可作為輸入送到類似支持向量機(jī)的線性分類器中,或者在隱藏層的頂部添加logistic回歸層進(jìn)行多分類任務(wù)。由于本文工作為圖像跟蹤,所以不加入分類模型,而是與后續(xù)跟蹤算法結(jié)合,達(dá)到目標(biāo)跟蹤的目的。
2 目標(biāo)跟蹤方法
2.1 MeanShift目標(biāo)跟蹤
2.2 目標(biāo)運(yùn)動(dòng)估計(jì)
卡爾曼濾波是一種利用線性系統(tǒng)方程,通過系統(tǒng)輸入輸出觀測(cè),對(duì)目標(biāo)狀態(tài)序列作最小方差估計(jì)的方法。由于其并不會(huì)消耗太大的計(jì)算量,所以能達(dá)到實(shí)時(shí)計(jì)算的效果。本文使用卡爾曼濾波改進(jìn)目標(biāo)跟蹤,達(dá)到對(duì)目標(biāo)運(yùn)動(dòng)的估計(jì)??柭鼮V波線性系統(tǒng)方程分別如式(13)和式(14)所示:
在Meanshift目標(biāo)跟蹤方法中,巴氏系數(shù)會(huì)評(píng)估目標(biāo)和模型相似性。當(dāng)跟蹤目標(biāo)被其它物體或背景堵塞時(shí),巴氏系數(shù)會(huì)動(dòng)態(tài)降低。因此,通過定義T-h判定是否有堵塞發(fā)生。
根據(jù)巴氏系數(shù),卡爾曼濾波系統(tǒng)能夠自動(dòng)估計(jì)目標(biāo)中心位置。具體算法流程如下:
T是一個(gè)很大的常數(shù),所以卡爾曼濾波的后驗(yàn)估計(jì)約等于其預(yù)測(cè)值,并且λ∈[0,1]為遺忘因子。λ越小,則σ2-1(t-1)和σ2-2(t)更新越快。
結(jié)合深度神經(jīng)網(wǎng)絡(luò)特征提取,本文算法步驟如圖4所示,首先離線訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),對(duì)數(shù)據(jù)集進(jìn)行預(yù)訓(xùn)練,然后利用稀疏自編碼器對(duì)得到的特征進(jìn)行無監(jiān)督學(xué)習(xí),最后利用提取的特征對(duì)目標(biāo)進(jìn)行描述。利用該特征向量,使用卡爾曼濾波改進(jìn)的Meanshift算法對(duì)目標(biāo)進(jìn)行跟蹤定位。
3 實(shí)驗(yàn)結(jié)果及分析
為驗(yàn)證本文算法有效性,使用VOC2010數(shù)據(jù)集作為離線訓(xùn)練樣本集,為了與MIL[16]、VTD[17]、IVT[18]3種算法進(jìn)行比較,將所有訓(xùn)練圖像預(yù)先轉(zhuǎn)換成灰度圖,模板大小為32×32。實(shí)驗(yàn)環(huán)境:CPU為Intel Core-i7 2630QM 2GHz的PC機(jī),內(nèi)存16GB;顯存為2G;軟件環(huán)境為VC2015+OpenCV3.0。
實(shí)驗(yàn)首先對(duì)數(shù)據(jù)集進(jìn)行特征提取,首先使用卷積神經(jīng)網(wǎng)絡(luò)對(duì)視頻流進(jìn)行有標(biāo)注訓(xùn)練,得到特征如圖5第一部分所示。由于特征量仍然較大,所以本文提出采用稀疏自編碼器對(duì)其進(jìn)行稀疏化,以減小后續(xù)目標(biāo)運(yùn)動(dòng)估計(jì)算法的計(jì)算量。
目標(biāo)運(yùn)動(dòng)估計(jì)方面分別從遮擋時(shí)跟蹤效果、跟蹤誤差平均值以及算法效率3方面與其它跟蹤算法進(jìn)行比較。由于傳統(tǒng)的Meanshift算法采用顏色直方圖方式描述目標(biāo)模型,而本文算法采用深度神經(jīng)網(wǎng)絡(luò)提取目標(biāo)特征,所以本文算法對(duì)目標(biāo)跟蹤有一定精確度。在遮擋方面,由于本文使用的是線下特征訓(xùn)練方法,對(duì)于遮擋問題有一定缺陷,所以結(jié)合了卡爾曼濾波方法,對(duì)目標(biāo)位置進(jìn)行預(yù)估,使遮擋時(shí)的跟蹤效果有顯著提高。當(dāng)物體與運(yùn)動(dòng)速度過快時(shí),也能有效地預(yù)測(cè)出位置。
實(shí)驗(yàn)效果如圖6所示(見封二彩圖),本文選用幾個(gè)常用的跟蹤算法與本文算法作比較,可明顯看出本文算法精確度較高。在跟蹤過程中,由于特征豐富,所以無論形變還是旋轉(zhuǎn)都不會(huì)影響算法跟蹤效果。遮擋方面,雖然加入了卡爾曼濾波,由于本模型沒有加入在線更新,所以對(duì)于遮擋的目標(biāo)運(yùn)動(dòng)估計(jì)仍有所欠缺,但是加入在線更新的算法后由于計(jì)算量增加會(huì)使幀率有所下降,所以本文算法是一種折中。
表1中對(duì)幾種跟蹤算法進(jìn)行比較,本文算法跟蹤其中某些視頻序列的成功率較高,平均值相比于其它算法也具有一定優(yōu)勢(shì)。本文算法的視頻跟蹤速度穩(wěn)定在大約12fps,符合一般實(shí)時(shí)視頻跟蹤要求。
本文選取5個(gè)視頻序列進(jìn)行跟蹤分析,分別為:公路路況、直升機(jī)、士兵、賽車、老虎。由于每個(gè)視頻序列的幀數(shù)不同,所以本文平均截取每個(gè)視頻序列中的7幅圖進(jìn)行展示。首先在路況跟蹤方面,路況是生活中最為常見的一種場(chǎng)景,在行車記錄、高速公路監(jiān)控等領(lǐng)域有著廣泛應(yīng)用。本文對(duì)前方行車的跟蹤過程中,視頻序列最開始由于變化較小,所以各個(gè)算法都非常穩(wěn)定;隨著路況變得復(fù)雜,視頻序列中出現(xiàn)模糊,導(dǎo)致特征單一類的算法出現(xiàn)跟蹤失敗,而特征豐富與在線學(xué)習(xí)類算法跟蹤效果良好;在跟蹤最后階段,路況回穩(wěn),特征單一算法跟蹤丟失,本文算法跟蹤效果回穩(wěn)。
其次,直升機(jī)視頻序列的特點(diǎn)是背景穩(wěn)定,但是目標(biāo)特征變化較大,所以對(duì)特征模板在線更新度要求較高。在視頻序列開始所有算法表現(xiàn)良好,跟蹤穩(wěn)定;隨著直升機(jī)目標(biāo)遠(yuǎn)離,基于顏色模型的算法跟蹤失敗,本文算法表現(xiàn)良好;在視頻序列最后,直升機(jī)目標(biāo)幾乎消失在視頻序列中,所有算法誤差率都較大。
士兵序列在本文中跟蹤難度最高,因?yàn)槭勘卣鲙缀跖c背景相同,所以需要建立復(fù)雜的目標(biāo)模型才能對(duì)其進(jìn)行跟蹤。在視頻序列前半部分,由于本文算法使用深度神經(jīng)網(wǎng)絡(luò)提取了大量特征,對(duì)目標(biāo)模型的描述非常豐富,所以表現(xiàn)良好,其它算法的誤差都慢慢升高。隨著目標(biāo)逐漸凸顯,部分算法出現(xiàn)回穩(wěn)。
賽車視頻序列中,目標(biāo)顏色模型與背景相似,并且有尺度變化,所以單一顏色模型無法很好地進(jìn)行運(yùn)動(dòng)估計(jì)。在視頻前半部分,各算法表現(xiàn)良好,隨著賽車的角度變化,使用顏色模型的算法誤差增加,隨后跟蹤失敗。由于本文算法相當(dāng)于提取了顏色、尺度等多種類型特征,所以跟蹤效果良好。
最后老虎視頻序列由于存在遮擋情況,預(yù)測(cè)效果較差的算法無法持續(xù)進(jìn)行跟蹤,在遮擋部分會(huì)失敗。本文算法提取了豐富的目標(biāo)特征,并且加入了卡爾曼濾波進(jìn)行預(yù)測(cè)補(bǔ)償,在遮擋剛剛開始時(shí)跟蹤穩(wěn)定,但在目標(biāo)幾乎完全被遮擋時(shí)中心點(diǎn)誤差急劇增大,導(dǎo)致跟蹤失敗。
通過上述分析可以得出,本文算法由于使用了深度特征提取方式,所以對(duì)目標(biāo)模型的描述極其豐富,對(duì)目標(biāo)的旋轉(zhuǎn)、縮放、平移、光照變化、仿射變換等狀況跟蹤都很穩(wěn)定,并且在特征提取后使用稀疏自動(dòng)編碼器對(duì)特征向量進(jìn)行壓縮,相對(duì)于其它深度特征提取模型其幀率更高。由于本文為線下訓(xùn)練方式,沒有良好的在線更新,所以在跟蹤算法中加入了卡爾曼濾波,可以對(duì)目標(biāo)運(yùn)動(dòng)進(jìn)行預(yù)測(cè),保證不會(huì)跟蹤丟失。在同一平臺(tái)上本文算法對(duì)與另外3種跟蹤算法進(jìn)行比較,如表1所示,其中前面數(shù)字代表成功率,后面數(shù)字代表中心點(diǎn)誤差。
4 結(jié)語
本文提出CNN-AE方法對(duì)圖像進(jìn)行特征提取,并采用卡爾曼濾波的Meanshift視頻運(yùn)動(dòng)目標(biāo)跟蹤算法對(duì)目標(biāo)運(yùn)動(dòng)進(jìn)行估計(jì)。與傳統(tǒng)算法相比,該算法具有明顯優(yōu)勢(shì)。首先,由于深度神經(jīng)網(wǎng)絡(luò)運(yùn)算量較大,目標(biāo)跟蹤又對(duì)實(shí)時(shí)性要求較高,所以選擇較小的數(shù)據(jù)庫進(jìn)行特征提?。蝗缓笫褂镁矸e神經(jīng)網(wǎng)絡(luò)自動(dòng)提取目標(biāo)模型特征,取代了傳統(tǒng)手工提取特征的方法,大大降低了開發(fā)周期;最后使用將兩種傳統(tǒng)目標(biāo)跟蹤算法相結(jié)合的方式對(duì)模型進(jìn)行跟蹤定位,兩種算法具有各自的優(yōu)勢(shì),并且速度都很快,但由于以往模型不夠準(zhǔn)確,所以精度不高。在結(jié)合深度提取特征之后,該跟蹤方法的跟蹤精度得到顯著提升。實(shí)驗(yàn)結(jié)果表明,該算法可以進(jìn)行目標(biāo)跟蹤定位,且具有較好的魯棒性。但深度神經(jīng)網(wǎng)絡(luò)的引入增加了算法復(fù)雜性,若減少數(shù)據(jù)量又會(huì)降低精度,所以今后需對(duì)算法作進(jìn)一步優(yōu)化,使算法更加簡潔,并增強(qiáng)實(shí)時(shí)性。
參考文獻(xiàn):
[1] LOWE D G, LOWE D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004,60(2):91-110.
[2] ZHOU H, YUAN Y, SHI C. Object tracking using SIFT features and mean shift[J]. Computer Vision & Image Understanding, 2009,113(3):345-352.
[3] CHEN Y N, HAN C C, WANG C T, et al. A CNN-based face detector with a simple feature map and a coarse-to-fine classifier- withdrawn[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2009,99:1.
[4] 杜昌順,黃磊.分段卷積神經(jīng)網(wǎng)絡(luò)在文本情感分析中的應(yīng)用[J].計(jì)算機(jī)工程與科學(xué),2017,39(1):173-179.
[5] 張晴晴,劉勇,潘接林,等.基于卷積神經(jīng)網(wǎng)絡(luò)的連續(xù)語音識(shí)別[J].北京科技大學(xué)學(xué)報(bào),2015,37(9):1212-1217.
[6] 馮鑫,李川,胡開群.基于深度玻爾茲曼模型的紅外與可見光圖像融合[J].物理學(xué)報(bào),2014,63(18):211-219.
[7] HANEBECK U D. Template matching using fast normalized cross correlation[C].Aerospace/Defense Sensing, Simulation, and Controls. International Society for Optics and Photonics, 2001:95-102.
[8] CHANG F L, LIU X. Target tracking algorithm based on meanshift and Kalmanfilter[J]. Computer Engineering & Applications, 2007,43(12):50-52.
[9] SALHI A. Object tracking system usingcamshift, meanshift and Kalmanfilter[J]. World Academy of Science Engineering & Technology, 2012,6:674.
[10] JIAN S. A fast meanshift algorithm-based target tracking system[J]. Sensors, 2012,12(6):8218.
[11] KALAL Z, MIKOLAJCZYK K, MATAS J. Tracking-learning-detection[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2012,34(7):1409.
[12] 高文,湯洋,朱明.目標(biāo)跟蹤中目標(biāo)模型更新問題的半監(jiān)督學(xué)習(xí)算法研究[J].物理學(xué)報(bào),2015,64(1):105-113.
[13] LI H, LI Y, PORIKLI F. Deeptrack: learning discriminative feature representations online for robust visual tracking[J]. IEEE Transactions on Image Processing, 2016,25(4):1834-1848.
[14] 田猛,路成,周健,等.聯(lián)合模板先驗(yàn)概率和稀疏表示的目標(biāo)跟蹤[J].中國圖象圖形學(xué)報(bào),2016,21(11):1455-1463.
[15] VINCENT P, LAROCHELLE H, LAJOIE I, et al. Stacked denoisingautoencoders: learning useful representations in a deep network with a local denoisingcriterion[J]. Journal of Machine Learning Research, 2010,11(12):3371-3408.
[16] BABENKO B, YANG M H, BELONGIE S. Robust object tracking with online multiple instance learning[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2011,33(8):1619-32.
[17] KWON J, LEE K M. Visual tracking decomposition[J]. Computer Vision and Pattern Recognition. IEEE, 2010:1269-1276.
[18] ROSS D A, LIM J, LIN R S, et al. Incremental learning for robust visual tracking[J]. International Journal of Computer Vision, 2008,77(1-3):125-141.
(責(zé)任編輯:黃 ?。?/p>