魏冬梅
(1. 西華大學(xué) 計(jì)算機(jī)與軟件工程學(xué)院, 成都 610039; 2. 西南財(cái)經(jīng)大學(xué) 管理科學(xué)與工程學(xué)院, 成都 610074)
近年來(lái),移動(dòng)網(wǎng)絡(luò)目標(biāo)跟蹤已成為視覺(jué)跟蹤的重要組成部分之一.移動(dòng)網(wǎng)絡(luò)目標(biāo)跟蹤被應(yīng)用到多個(gè)領(lǐng)域,并成為眾多學(xué)者和專(zhuān)家研究的熱門(mén)話題[1-2].雖然目前已有許多優(yōu)良的跟蹤算法,但是由于移動(dòng)目標(biāo)在運(yùn)動(dòng)過(guò)程中存在太多不確定性,導(dǎo)致移動(dòng)目標(biāo)跟蹤仍存在著較多待解決的難題[3-4].目前跟蹤算法基本上由判別類(lèi)和生成類(lèi)組成,判別類(lèi)是指將跟蹤問(wèn)題進(jìn)行二值分類(lèi)轉(zhuǎn)換,該方法易計(jì)算,效率高;生成類(lèi)是指根據(jù)目標(biāo)模板對(duì)圖像進(jìn)行相似區(qū)域的搜索,以此確定跟蹤的目標(biāo)位置,該方法計(jì)算難度大,結(jié)構(gòu)復(fù)雜[5-6].鄭志材等[7]以拓?fù)渥鴺?biāo)為基礎(chǔ)研究了移動(dòng)目標(biāo)跟蹤方法,通過(guò)分析優(yōu)化后的拓?fù)渌惴ㄉ尚碌淖鴺?biāo)向量,降低圖像邊緣壓縮,利用虛擬坐標(biāo)獲取移動(dòng)目標(biāo)的跟蹤位置.李靜等[8]利用局部搜索樹(shù)研究移動(dòng)目標(biāo)追蹤方法,通過(guò)傳感器獲取的時(shí)間信息對(duì)移動(dòng)目標(biāo)的位置進(jìn)行預(yù)測(cè),利用局部遞歸方式進(jìn)行移動(dòng)目標(biāo)的跟蹤路徑搜索.雖然上述方法都能有效實(shí)現(xiàn)移動(dòng)網(wǎng)絡(luò)目標(biāo)的跟蹤,但是對(duì)于移動(dòng)過(guò)程中產(chǎn)生的遮擋、形變和模糊等問(wèn)題仍無(wú)法解決.卷積神經(jīng)網(wǎng)絡(luò)(CNN)能夠有效對(duì)網(wǎng)絡(luò)模型進(jìn)行優(yōu)化,降低模型復(fù)雜程度,具備局部感知的能力,實(shí)現(xiàn)各層特征之間參數(shù)的共享[9].基于此,本文提出基于卷積神經(jīng)網(wǎng)絡(luò)的移動(dòng)網(wǎng)絡(luò)目標(biāo)跟蹤與控制方法.在目標(biāo)跟蹤分析過(guò)程中,利用傳感器采集移動(dòng)網(wǎng)絡(luò)目標(biāo)圖像,通過(guò)構(gòu)建CNN模型,提取采集圖像的多尺度特征,結(jié)合濾波算法獲取響應(yīng)圖,根據(jù)響應(yīng)最大值實(shí)現(xiàn)移動(dòng)目標(biāo)的自適應(yīng)跟蹤與控制.
移動(dòng)網(wǎng)絡(luò)目標(biāo)跟蹤通過(guò)濾波算法轉(zhuǎn)換為在線回歸,根據(jù)回歸誤差的最小化進(jìn)行最佳濾波模板的求解,跟蹤求解公式為
(1)
式中:X為全部樣本,X∈Rn×n,主要包括目標(biāo)模板和其通過(guò)循環(huán)偏移所產(chǎn)生的樣本集;y為跟蹤響應(yīng)的目標(biāo)期望值;λ和v分別為正則化參數(shù)和濾波參數(shù).
將式(1)引入對(duì)偶域內(nèi)進(jìn)行閉環(huán)求解,計(jì)算公式為
(2)
式中:a′、y′和x′均為傅里葉轉(zhuǎn)換后的數(shù)值;x為目標(biāo)模板;x′*為共軛復(fù)數(shù).
通過(guò)濾波算法進(jìn)行移動(dòng)網(wǎng)絡(luò)目標(biāo)響應(yīng)圖的求解,計(jì)算公式為
h′(Z,a)=k′xZa′
(3)
式中,k′xZ=XZT,Z為循環(huán)數(shù)據(jù)矩陣.移動(dòng)網(wǎng)絡(luò)目標(biāo)的位置即為響應(yīng)圖的響應(yīng)最大值.
由于相關(guān)濾波算法在面對(duì)復(fù)雜情況的目標(biāo)跟蹤時(shí)無(wú)法提供精準(zhǔn)的移動(dòng)網(wǎng)絡(luò)目標(biāo)模型,且其期望響應(yīng)值難以跟隨復(fù)雜跟蹤情況自適應(yīng)變化,導(dǎo)致跟蹤難度較大,以相關(guān)濾波算法為基礎(chǔ),提出基于卷積神經(jīng)網(wǎng)絡(luò)的移動(dòng)網(wǎng)絡(luò)目標(biāo)跟蹤與控制方法,通過(guò)卷積神經(jīng)網(wǎng)絡(luò)(CNN)的簡(jiǎn)單框架進(jìn)行圖像層次特征的學(xué)習(xí)[10-11].
在移動(dòng)網(wǎng)絡(luò)目標(biāo)跟蹤與控制研究中,將尺度空間中的若干個(gè)尺度內(nèi)引入CNN權(quán)值,對(duì)圖像所有像素目標(biāo)進(jìn)行識(shí)別并分類(lèi)預(yù)測(cè)[12].采用拉普拉斯濾波對(duì)輸入圖像I進(jìn)行快速局部操作,確保圖像中的細(xì)節(jié)得以增強(qiáng).構(gòu)建圖像I的多尺度As(高斯金字塔),其中,s∈{1,2,…,n},A1與I為相同尺度,具體變化如圖1所示.
圖1 目標(biāo)圖像多尺度高斯金字塔示意圖
圖1中,I為輸入圖像,A1為第一尺度高斯金字塔,A2為第二尺度高斯金字塔,A3為第三尺度高斯金字塔,上下層圖像之間的關(guān)系為:上層面積為下層面積的4倍,上層分辨率為下層分辨率的2倍.假設(shè)卷積神經(jīng)網(wǎng)絡(luò)模型為fs,模型內(nèi)部參數(shù)為θs,則該網(wǎng)絡(luò)中全部模型參數(shù)可以跨越尺度進(jìn)行共享,即
θs=θ0(s∈{1,2,…,n})
(4)
式中,θ0為CNN模型參數(shù)的初始值.設(shè)CNN網(wǎng)絡(luò)存在的階段數(shù)為L(zhǎng),則有
fs(Xs;θs)=WLHL-1
(5)
式中:W為權(quán)值矩陣;Xs為輸出通道數(shù);H為輸出,且H0=Xs.在L階段之前的所有隱藏階段l輸出為
Hl=pool(tanh(WlHl-1+bl))
(6)
式中:l∈{1,2,…,L-1};pool()為池化操作;tanh()為激活函數(shù);bl為偏置向量.模型訓(xùn)練參數(shù)θs由Wl和bl構(gòu)成.
利用上采樣方式對(duì)尺寸進(jìn)行統(tǒng)一,將不同尺寸圖像特征進(jìn)行組合,以此生成立體特征矩陣,即
F=[f1,u(f2),…,u(fn)]
(7)
式中,u()為采樣函數(shù).
設(shè)n=16,特征提取流程如圖2所示.通過(guò)尺度空間進(jìn)行的權(quán)值共享可促使網(wǎng)絡(luò)學(xué)習(xí)具備不變尺寸的特性,降低網(wǎng)絡(luò)發(fā)生過(guò)擬合幾率.訓(xùn)練模型中參與的尺度越多,提取的特征效果越好[13-14].
濾波算法的響應(yīng)目標(biāo)分別與移動(dòng)網(wǎng)絡(luò)目標(biāo)的外觀模型和運(yùn)行信息相關(guān),在式(1)中引入跟蹤目標(biāo)的運(yùn)動(dòng)信息[15],則有
(8)
(9)
(10)
式中:G′=[X′-I′],I′T=[I,I,…,I];T=[I,0];Q=[0,I].由式(10)可知,問(wèn)題由濾波聯(lián)合轉(zhuǎn)換為二次凸優(yōu)化[16],將式(10)引入對(duì)偶域內(nèi)進(jìn)行閉環(huán)求解,即
(11)
(12)
(13)
通過(guò)式(11)對(duì)各層卷積響應(yīng)進(jìn)行濾波參數(shù)的計(jì)算,以此獲得最優(yōu)參數(shù),通過(guò)獲取的最優(yōu)參數(shù)展開(kāi)響應(yīng)圖計(jì)算[17-18],則有
(14)
式中:e為濾波參數(shù);D為當(dāng)前層特征維數(shù);P-1為逆轉(zhuǎn)換傅里葉.
為了提升移動(dòng)網(wǎng)絡(luò)目標(biāo)跟蹤與控制的魯棒性,利用特征響應(yīng)圖和加權(quán)融合方法獲取目標(biāo)最終響應(yīng)圖,即
(15)
式中:S為卷積特征池,即卷積特征利用的總層數(shù);w為響應(yīng)權(quán)重.最終響應(yīng)圖ht中的響應(yīng)最大值位置即為移動(dòng)網(wǎng)絡(luò)目標(biāo)位置,通過(guò)尋找該位置實(shí)現(xiàn)目標(biāo)的自適應(yīng)跟蹤與控制.最終響應(yīng)圖如圖3所示.
圖3 最終響應(yīng)圖
仿真實(shí)驗(yàn)開(kāi)發(fā)工具為MATLAB,利用內(nèi)存為8 GB的計(jì)算機(jī)實(shí)現(xiàn)跟蹤算法.以O(shè)TB數(shù)據(jù)庫(kù)中的8組傳感器網(wǎng)絡(luò)獲取的移動(dòng)網(wǎng)絡(luò)目標(biāo)視頻序列為實(shí)驗(yàn)對(duì)象,高斯核為0.15,正則化因子為λ1=1×10-2,λ2=1×10-4,學(xué)習(xí)速率為1×10-3,提取的第8層卷積特征F8為1,第9層卷積特征F9為0.2,第10層卷積特征F10為0.2,第13層卷積特征F13為2×10-2,第14層卷積特征F14為3×10-2,第15層卷積特征F15為1×10-2,樣本模板數(shù)量為7.
本文使用隨機(jī)梯度下降法對(duì)移動(dòng)網(wǎng)絡(luò)目標(biāo)進(jìn)行訓(xùn)練,為提高訓(xùn)練效率,使用遷移學(xué)習(xí)方法.網(wǎng)絡(luò)訓(xùn)練時(shí),首先對(duì)網(wǎng)絡(luò)參數(shù)進(jìn)行初始化處理,初始學(xué)習(xí)率設(shè)定為0.002,權(quán)重衰減率設(shè)定為0.000 6,動(dòng)量因子為0.7,驗(yàn)證周期為2 000,當(dāng)模型準(zhǔn)確率達(dá)到收斂時(shí)停止訓(xùn)練,耗時(shí)40 h,結(jié)果僅保留概率值大于0.6的區(qū)域.訓(xùn)練損失曲線如圖4所示.
圖4 訓(xùn)練損失曲線
結(jié)果表明,隨著迭代次數(shù)的增加,訓(xùn)練集產(chǎn)生的損失逐漸降低,當(dāng)?shù)螖?shù)達(dá)到1 000次后,損失降至0.25,說(shuō)明模型訓(xùn)練效果良好.訓(xùn)練損失基本收斂到穩(wěn)定值,表明其達(dá)到預(yù)期訓(xùn)練效果.
利用本文方法對(duì)移動(dòng)網(wǎng)絡(luò)目標(biāo)的8組圖像進(jìn)行像素目標(biāo)識(shí)別實(shí)驗(yàn),其中,8組圖像可有效驗(yàn)證本文方法的準(zhǔn)確率.通過(guò)多次實(shí)驗(yàn)后,統(tǒng)計(jì)實(shí)驗(yàn)結(jié)果如圖5所示.由圖5可知,本文方法利用多尺度特征進(jìn)行各圖像像素目標(biāo)識(shí)別能夠獲得良好的識(shí)別效果,其中識(shí)別準(zhǔn)確率最高為97.48%,最低為93.85%,8組圖像平均識(shí)別準(zhǔn)確率為95.41%.由于多尺度特征為高層次、涵蓋全方位圖像信息的抽象特征,能夠?qū)D像中所有目標(biāo)自然屬性進(jìn)行更好地表達(dá),另外,不一樣尺度的圖像具備相同的CNN結(jié)構(gòu),促使圖像在提取局部特征過(guò)程中的范圍隨著圖像尺度的減小而增大,因此能夠保證從原始圖像中以從小到大的順序進(jìn)行分層特征提取,從而實(shí)現(xiàn)精準(zhǔn)識(shí)別像素目標(biāo)的目的.
圖5 像素目標(biāo)識(shí)別結(jié)果
采用本文方法分別與文獻(xiàn)[7]以拓?fù)渥鴺?biāo)為基礎(chǔ)研究的移動(dòng)目標(biāo)跟蹤方法和文獻(xiàn)[8]以UAV與UGS協(xié)同為基礎(chǔ)研究的移動(dòng)目標(biāo)追蹤方法進(jìn)行跟蹤性能比較,分別進(jìn)行跟蹤精確度(DP)、跟蹤成功率(SR)和跟蹤中心位置誤差(CLE)的對(duì)比實(shí)驗(yàn),三種指標(biāo)計(jì)算公式為
(16)
(17)
(18)
式中:K(p)和Ktotal分別為跟蹤目標(biāo)距離小于實(shí)際中心位置的幀數(shù)和總幀數(shù);Rtrack和Rgt分別為跟蹤目標(biāo)區(qū)域和實(shí)際目標(biāo)區(qū)域;xtrack和ytrack為目標(biāo)跟蹤的位置中心坐標(biāo);xgt和ygt為目標(biāo)中心的坐標(biāo).當(dāng)SR大于0.5時(shí),即跟蹤成功.
三種方法的跟蹤精確度實(shí)驗(yàn)結(jié)果如圖6所示.由圖6可知,三種跟蹤方法在跟蹤精度上存在著較大差距,本文方法平均跟蹤精確度為97.18%,文獻(xiàn)[7]方法和文獻(xiàn)[8]方法的平均跟蹤精確度為81.28%、88.3%,本文方法比文獻(xiàn)[7]方法和文獻(xiàn)[8]方法分別高15.9%和8.88%.三種方法的跟蹤精度均隨著視頻幀數(shù)的增加呈不規(guī)律降低,但是本文方法波動(dòng)較小,表明該方法具備移動(dòng)網(wǎng)絡(luò)目標(biāo)跟蹤的穩(wěn)定性.
圖6 跟蹤精確度實(shí)驗(yàn)結(jié)果
三種方法的跟蹤成功率實(shí)驗(yàn)結(jié)果如圖7所示.由圖7可知,本文方法具有更高的移動(dòng)網(wǎng)絡(luò)目標(biāo)跟蹤成功率,本文方法平均跟蹤成功率為95.93%,文獻(xiàn)[7]方法的平均成功率為84.94%,本文方法比文獻(xiàn)[7]方法的平均成功率高10.99%,文獻(xiàn)[8]方法的平均成功率為87.51%,本文方法比文獻(xiàn)[8]方法的平均成功率高8.42%.
圖7 跟蹤成功率實(shí)驗(yàn)結(jié)果
目標(biāo)跟蹤實(shí)驗(yàn)結(jié)果如圖8所示.由圖8可以看出,本文方法的跟蹤結(jié)果更接近移動(dòng)網(wǎng)絡(luò)目標(biāo)的實(shí)際運(yùn)動(dòng)軌跡,通過(guò)計(jì)算可知本文方法的中心位置平均誤差為4.38 mm,文獻(xiàn)[7]方法平均誤差為16.85 mm,文獻(xiàn)[8]方法平均誤差為12.08 mm.
圖8 目標(biāo)跟蹤對(duì)比結(jié)果
采用誤差評(píng)價(jià)指標(biāo)均方根誤差(RMSE)評(píng)估跟蹤算法所得值與實(shí)際位置值之間的差距,均方根誤差計(jì)算公式為
(19)
式中,errj為跟蹤算法所得值與實(shí)際位置值之間的差值.目標(biāo)跟蹤軌跡如圖9所示.
圖9 目標(biāo)跟蹤軌跡
三種方法目標(biāo)跟蹤位置的誤差實(shí)驗(yàn)結(jié)果如圖10所示.由圖10可知,文獻(xiàn)[7]方法的誤差幅值最大,文獻(xiàn)[8]方法的誤差幅值次之,本文方法的誤差幅值最小,表明本文方法在移動(dòng)網(wǎng)絡(luò)目標(biāo)跟蹤與控制過(guò)程中具有更好的跟蹤效果.
圖10 誤差幅值曲線
針對(duì)移動(dòng)網(wǎng)絡(luò)目標(biāo)的跟蹤與控制,本文基于卷積神經(jīng)網(wǎng)絡(luò)的跟蹤與控制方法,通過(guò)濾波算法對(duì)濾波響應(yīng)進(jìn)行計(jì)算,確定移動(dòng)網(wǎng)絡(luò)目標(biāo)的位置,結(jié)合CNN的簡(jiǎn)單框架進(jìn)行圖像層次特征的學(xué)習(xí),提取卷積多尺度特征,通過(guò)濾波算法獲取最優(yōu)濾波響應(yīng),促使移動(dòng)網(wǎng)絡(luò)目標(biāo)響應(yīng)能夠隨著目標(biāo)實(shí)際運(yùn)動(dòng)而產(chǎn)生自適應(yīng)改變,以此獲取最優(yōu)的跟蹤效果.