黃 珍,潘 穎
(蘭州文理學(xué)院 數(shù)字媒體學(xué)院,甘肅 蘭州 730000)
隨著視頻圖像處理技術(shù)的發(fā)展,在復(fù)雜場(chǎng)景中進(jìn)行視頻圖像采集,根據(jù)采集的復(fù)雜場(chǎng)景視頻圖像進(jìn)行目標(biāo)跟蹤識(shí)別,提高目標(biāo)的主動(dòng)跟蹤和探測(cè)能力,研究復(fù)雜場(chǎng)景視頻圖像的跟蹤方法在實(shí)現(xiàn)移動(dòng)目標(biāo)檢測(cè)中具有重要意義。相關(guān)的復(fù)雜場(chǎng)景視頻圖像跟蹤方法研究在交通視頻監(jiān)控、紅外目標(biāo)探測(cè)等領(lǐng)域展示了較好的應(yīng)用前景,受到人們的極大關(guān)注[1]。張麗紅等人針對(duì)高頻成像聲吶多目標(biāo)跟蹤中聲成像的不穩(wěn)定問(wèn)題,在基于檢測(cè)前跟蹤的聲吶圖像序列尺度不變特征變換(Scale Invariant Feature Transform, SIFT)的基礎(chǔ)上,提出了一種結(jié)合對(duì)數(shù)變換的聲吶圖像序列SIFT特征跟蹤方法[2]。該方法利用對(duì)數(shù)變換進(jìn)行圖像預(yù)處理,進(jìn)而利用聲吶圖像序列SIFT特征進(jìn)行多目標(biāo)跟;位寶燕等人將時(shí)空上下文視覺(jué)(STC)單目標(biāo)跟蹤算法應(yīng)用于多目標(biāo)跟蹤。該算法通過(guò)構(gòu)造各目標(biāo)和其上下文區(qū)域的時(shí)空關(guān)系模型,計(jì)算置信圖得到下一幀圖像的目標(biāo)位置,并且對(duì)窗口大小進(jìn)行自適應(yīng)變換,當(dāng)目標(biāo)發(fā)生旋轉(zhuǎn)等姿態(tài)變化或者尺度變化時(shí),窗口可以根據(jù)目標(biāo)變化而變化[3]。石治國(guó)等人在多目標(biāo)跟蹤過(guò)程中,針對(duì)概率假設(shè)密度濾波器難以正確估計(jì)目標(biāo)個(gè)數(shù)和目標(biāo)狀態(tài)問(wèn)題,提出一種新的基于邊緣粒子濾波的改進(jìn)算法。算法運(yùn)用Rao-Blackwellized思想,將目標(biāo)狀態(tài)分解為線性和非線性模型的結(jié)構(gòu),采用RBPF濾波方法預(yù)測(cè)與估計(jì)概率假設(shè)密度濾波器中目標(biāo)的非線性狀態(tài),使用卡爾曼濾波方法對(duì)線性狀態(tài)進(jìn)行預(yù)測(cè)與估計(jì),以更好地提高目標(biāo)狀態(tài)估計(jì)精度,降低了計(jì)算的復(fù)雜度[4]。
基于上述觀點(diǎn),對(duì)復(fù)雜場(chǎng)景視頻圖像的檢測(cè)是建立在圖像的3維視覺(jué)信息融合基礎(chǔ)上,結(jié)合特征優(yōu)化識(shí)別方法進(jìn)行復(fù)雜場(chǎng)景視頻圖像的信息融合,構(gòu)建復(fù)雜場(chǎng)景視頻圖像的目標(biāo)跟蹤模型,提高復(fù)雜場(chǎng)景視頻圖像多目標(biāo)跟蹤能力。本文提出基于移動(dòng)增強(qiáng)現(xiàn)實(shí)技術(shù)的復(fù)雜場(chǎng)景視頻圖像多目標(biāo)跟蹤方法。采用模糊信息度特征提取方法實(shí)現(xiàn)復(fù)雜場(chǎng)景視頻圖像的特征提取,通過(guò)移動(dòng)增強(qiáng)現(xiàn)實(shí)技術(shù)進(jìn)行復(fù)雜場(chǎng)景視頻圖像多目標(biāo)跟蹤過(guò)程中的自適應(yīng)尋優(yōu),實(shí)現(xiàn)復(fù)雜場(chǎng)景視頻圖像多目標(biāo)跟蹤,最后進(jìn)行仿真測(cè)試分析。
為了實(shí)現(xiàn)基于移動(dòng)增強(qiáng)現(xiàn)實(shí)技術(shù)的復(fù)雜場(chǎng)景視頻圖像多目標(biāo)跟蹤,需要構(gòu)建復(fù)雜場(chǎng)景視頻圖像的3維成像模型[5]。采用邊緣特征分割和Harris角點(diǎn)特征檢測(cè)方法進(jìn)行復(fù)雜場(chǎng)景視頻圖像的多維尺度分解,在D維空間中進(jìn)行復(fù)雜場(chǎng)景視頻圖像的動(dòng)態(tài)采集和信息融合。采用多模態(tài)空間分布式重建方法進(jìn)行復(fù)雜場(chǎng)景視頻圖像的動(dòng)態(tài)特征重構(gòu),結(jié)合3D模型重構(gòu)方法進(jìn)行復(fù)雜場(chǎng)景視頻圖像的信息跟蹤識(shí)別,設(shè)定3個(gè)方向,分別為x、y、z,提取復(fù)雜場(chǎng)景視頻圖像的關(guān)鍵動(dòng)態(tài)特征量,采用幀特征匹配方法,進(jìn)行復(fù)雜場(chǎng)景視頻圖像的動(dòng)態(tài)跟蹤控制,提高復(fù)雜場(chǎng)景視頻圖像的信息跟蹤和特征識(shí)別能力,建立復(fù)雜場(chǎng)景視頻圖像的3維成像模型,表示為:
u=G(x,y;t);
(1)
(2)
其中,△u為復(fù)雜場(chǎng)景視頻圖像的區(qū)域邊緣輪廓特征分量,△x表示復(fù)雜場(chǎng)景視頻圖像在梯度方向的像素特征分布強(qiáng)度,σ為復(fù)雜場(chǎng)景視頻圖像在2維粗糙集表面的紋理分布。
根據(jù)復(fù)雜場(chǎng)景視頻圖像的相似度分布進(jìn)行3維信息重組,提取復(fù)雜場(chǎng)景視頻圖像的相鄰幀特征量,結(jié)合匹配濾波檢測(cè)的方法,進(jìn)行復(fù)雜場(chǎng)景視頻圖像的高維濾波處理,在復(fù)雜運(yùn)動(dòng)條件下,多目標(biāo)跟蹤的場(chǎng)景融合濾波檢測(cè)為:
gi=〈f,dγ0〉dγ0+σ。
(3)
其中〈f,dγ0〉表示復(fù)雜場(chǎng)景視頻圖像的像素特征點(diǎn)在dγ0方向上的統(tǒng)計(jì)特征分布集。
根據(jù)時(shí)間維度的關(guān)聯(lián)性,建立復(fù)雜場(chǎng)景視頻圖像的視頻分布集,利用背景建模的方法,進(jìn)行目標(biāo)的自動(dòng)跟蹤檢測(cè),得到特征配準(zhǔn)結(jié)果f(gi)為:
(4)
由此獲得復(fù)雜場(chǎng)景視頻圖像的特征匹配集。
根據(jù)外輪廓的位置信息分布,進(jìn)行多目標(biāo)跟蹤過(guò)程中的速度信息匹配,得到模板大小為M×N,重建復(fù)雜場(chǎng)景視頻圖像的灰色關(guān)聯(lián)特征分布集[6],得到視頻運(yùn)動(dòng)目標(biāo)的匹配函數(shù)式為:
(5)
結(jié)合檢測(cè)跟蹤的方法,進(jìn)行區(qū)域匹配,根據(jù)目標(biāo)的尺度和姿態(tài)信息進(jìn)行深度融合,提高復(fù)雜場(chǎng)景視頻圖像的檢測(cè)和識(shí)別能力[7]。
采用邊緣特征分割和Harris角點(diǎn)特征檢測(cè)方法進(jìn)行復(fù)雜場(chǎng)景視頻圖像的多維尺度分解,構(gòu)建目標(biāo)圖像的3維成像模型。采用邊緣特征分割和Harris角點(diǎn)特征檢測(cè)方法進(jìn)行復(fù)雜場(chǎng)景視頻圖像的多維尺度分解[8],構(gòu)建目標(biāo)圖像的3維成像模型,得到紋理結(jié)果分布為:
s(k)=Φ·s(k-1)+w(k),
(6)
其中
(7)
根據(jù)復(fù)雜場(chǎng)景視頻圖像的紋理、細(xì)節(jié)區(qū)域進(jìn)行圖像的3維紋理結(jié)構(gòu)重組,提取模糊復(fù)雜場(chǎng)景視頻圖像增強(qiáng)表達(dá)式為:
(1-t(x))。
(8)
其中,t(x)為自相關(guān)函數(shù),Ac為復(fù)雜場(chǎng)景視頻圖像的多維卷積特征量,Ic(y)為復(fù)雜場(chǎng)景視頻圖像的透射強(qiáng)度。設(shè)J(x)t(x)為后向散射總功率,使用高斯自相關(guān)特征匹配方法,進(jìn)行復(fù)雜場(chǎng)景視頻圖像的信息增強(qiáng)處理[9]。
在構(gòu)建復(fù)雜場(chǎng)景視頻圖像的3維成像模型,采用邊緣特征分割和Harris角點(diǎn)特征檢測(cè)方法進(jìn)行復(fù)雜場(chǎng)景視頻圖像的多維尺度分解的基礎(chǔ)上,進(jìn)行復(fù)雜場(chǎng)景視頻圖像的像素序列重組,實(shí)現(xiàn)多目標(biāo)跟蹤,提出基于移動(dòng)增強(qiáng)現(xiàn)實(shí)技術(shù)的復(fù)雜場(chǎng)景視頻圖像多目標(biāo)跟蹤方法。構(gòu)建目標(biāo)圖像的3維成像模型,得到復(fù)雜場(chǎng)景視頻圖像虛擬重構(gòu)的正態(tài)分布函數(shù)為:
w(dij)=f(|xi-xj|)=
(9)
重建復(fù)雜場(chǎng)景視頻圖像的灰度直方圖,得到圖像W的R、G、B分量,在復(fù)雜場(chǎng)景視頻圖像的動(dòng)態(tài)目標(biāo)移動(dòng)方向,得到復(fù)雜場(chǎng)景視頻圖像的特征分辨率為AR、AG、AB,用(xi,xj,d,t)表示復(fù)雜場(chǎng)景視頻圖像的模糊關(guān)聯(lián)分布矩陣,得到復(fù)雜場(chǎng)景視頻圖像的相關(guān)性特征點(diǎn)分布為:
IDFi(v)=log(n/Fi(v)),
(10)
其中,n表示復(fù)雜場(chǎng)景視頻圖像中動(dòng)態(tài)目標(biāo)的個(gè)數(shù),fi(v)表示點(diǎn)目標(biāo)的外法向量,由于不同目標(biāo)的速度和方位不同,輸出為:
D={Si,j(t),Ti,j(t),Ui,j(t)},
(11)
其中,Si,j(t)表示3維視覺(jué)下復(fù)雜場(chǎng)景視頻圖像輪廓線,Ti,j(t)表示3維空間目標(biāo)的自相關(guān)特征匹配,Ui,j(t)表示復(fù)雜場(chǎng)景視頻圖像成像的稠密度光流特征分布,由此構(gòu)建復(fù)雜場(chǎng)景視頻圖像的像素序列重組模型,根據(jù)復(fù)雜場(chǎng)景視頻圖像像素重構(gòu)結(jié)果進(jìn)行多目標(biāo)跟蹤[10]。
采用移動(dòng)增強(qiáng)顯示技術(shù),進(jìn)行復(fù)雜場(chǎng)景視頻圖像多目標(biāo)跟蹤,在區(qū)域輪廓分布集中,得到復(fù)雜場(chǎng)景視頻圖像多目標(biāo)跟蹤的模板特征匹配集S′,對(duì)模糊的復(fù)雜場(chǎng)景視頻圖像進(jìn)行邊緣輪廓特征檢測(cè),提取紅外序列多目標(biāo)的邊緣特征點(diǎn)(x′,y′),計(jì)算復(fù)雜場(chǎng)景視頻圖像多目標(biāo)跟蹤的光流分布集為:
(12)
定義復(fù)雜場(chǎng)景視頻圖像超分辨率重建的模板特征分布函數(shù),采用灰度像素融合的方法,進(jìn)行復(fù)雜場(chǎng)景視頻圖像多目標(biāo)跟蹤的光流計(jì)算和灰度投影識(shí)別,復(fù)雜場(chǎng)景視頻圖像多目標(biāo)跟蹤的模糊迭代式為:
rβ(X)=RβX-RβX1。
(13)
采用高分辨率的3維重建和移動(dòng)增強(qiáng)方法,進(jìn)行復(fù)雜場(chǎng)景視頻圖像多目標(biāo)序列重構(gòu),得到目標(biāo)跟蹤的光流分布特征為:
(14)
其中:Lxx(x,σ)是復(fù)雜場(chǎng)景視頻圖像的模板匹配系數(shù),Lxy和Lyy為復(fù)雜場(chǎng)景視頻圖像特征匹配系數(shù)和低頻系數(shù)。
通過(guò)模糊信息融合和聚類分析方法,實(shí)現(xiàn)復(fù)雜場(chǎng)景視頻圖像的多目標(biāo)跟蹤,輸出為:
(15)
其中,ai表示復(fù)雜場(chǎng)景視頻圖像成像場(chǎng)景的邊緣特征分布系數(shù),j(w,e)為超像素特征序列重構(gòu)系數(shù),φ(xi)為復(fù)雜場(chǎng)景視頻圖像的灰度特征量。
為了測(cè)試本文方法在實(shí)現(xiàn)復(fù)雜場(chǎng)景視頻圖像多目標(biāo)跟蹤中的應(yīng)用性能,進(jìn)行實(shí)驗(yàn)分析。實(shí)驗(yàn)以交通視頻圖像為研究對(duì)象,進(jìn)行交通復(fù)雜場(chǎng)景視頻下的多目標(biāo)跟蹤識(shí)別,目標(biāo)場(chǎng)模板參數(shù)為120×120、像素跟蹤的強(qiáng)度為80dB、幀匹配系數(shù)為0.86,以2組不同場(chǎng)景下的交通視頻為研究對(duì)象,得到AIS Dataset數(shù)據(jù)庫(kù)中不同幀下的視頻采樣如圖1所示。
以圖1的視頻為研究對(duì)象,進(jìn)行目標(biāo)跟蹤識(shí)別,得到結(jié)果如圖2所示。
分析圖2得知,所提方法能有效實(shí)現(xiàn)復(fù)雜場(chǎng)景視頻的多目標(biāo)跟蹤,目標(biāo)跟蹤的特征匹配性較好。
為了達(dá)成追蹤效果的精度對(duì)比,采用下列公式對(duì)第i個(gè)復(fù)雜場(chǎng)景視頻圖像的分層追蹤精度進(jìn)行計(jì)算:
(16)
式(16)內(nèi),第i個(gè)目標(biāo)的實(shí)際方位與最終的追蹤定位分別表示為Ci和Ri。所得的precision數(shù)值表明的是與實(shí)際方位的追蹤精度。
為了進(jìn)一步驗(yàn)證所提方法多目標(biāo)跟蹤精度,對(duì)比文獻(xiàn)[2]、[3]方法,實(shí)驗(yàn)結(jié)果如表1所示。
表1 不同方法追蹤結(jié)果統(tǒng)計(jì)表
將表1中3種算法的分層追蹤結(jié)果代入偏差計(jì)算公式,運(yùn)算得出的偏差結(jié)果對(duì)比。結(jié)果見(jiàn)圖4。
分析圖4得出,采用該方法進(jìn)行復(fù)雜場(chǎng)景視頻圖像多目標(biāo)跟蹤的精度較高,圖像成像的分辨能力較好,目標(biāo)跟蹤識(shí)別和動(dòng)態(tài)分布性較好。
通過(guò)交通視頻的目標(biāo)跟蹤研究,提出基于移動(dòng)增強(qiáng)現(xiàn)實(shí)技術(shù)的復(fù)雜場(chǎng)景視頻圖像多目標(biāo)跟蹤方法。采用動(dòng)態(tài)信息融合的方法,進(jìn)行復(fù)雜場(chǎng)景視頻圖像的跟蹤識(shí)別,實(shí)現(xiàn)復(fù)雜場(chǎng)景視頻圖像的多目標(biāo)跟蹤,通過(guò)移動(dòng)增強(qiáng)現(xiàn)實(shí)技術(shù)進(jìn)行復(fù)雜場(chǎng)景視頻圖像多目標(biāo)跟蹤過(guò)程中的自適應(yīng)尋優(yōu),提高復(fù)雜場(chǎng)景視頻圖像多目標(biāo)跟蹤的準(zhǔn)確性。分析得知,采用本文方法進(jìn)行復(fù)雜場(chǎng)景視頻圖像多目標(biāo)跟蹤的準(zhǔn)確度較高,目標(biāo)跟蹤的特征匹配性較好,可提高交通視頻中的多目標(biāo)跟蹤識(shí)別能力。