国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

多攝像機(jī)在無重疊區(qū)域的目標(biāo)匹配算法

2015-10-28 09:02:27王曉麗陸小鋒陸亨立
電視技術(shù) 2015年10期
關(guān)鍵詞:時(shí)空顏色矩陣

王曉麗,陸小鋒,陸亨立

(上海大學(xué)通信與信息工程學(xué)院,上海200444)

多攝像機(jī)在無重疊區(qū)域的目標(biāo)匹配算法

王曉麗,陸小鋒,陸亨立

(上海大學(xué)通信與信息工程學(xué)院,上海200444)

基于顏色特征的目標(biāo)匹配方法具有很好的區(qū)分性和直觀性,但是特征本身受光線變化、背景復(fù)雜度等影響而對(duì)于目標(biāo)識(shí)別準(zhǔn)確率存在差異。針對(duì)這一現(xiàn)狀,提出了一種新的基于時(shí)空局部特征和顏色特征的目標(biāo)匹配方法。利用時(shí)空局部特征3-D LSK對(duì)待測(cè)視頻中的運(yùn)動(dòng)目標(biāo)進(jìn)行行為識(shí)別,識(shí)別出具有相同行為目標(biāo)。再結(jié)合目標(biāo)的顏色特征,通過基于區(qū)域權(quán)重(Weighted Region Matching)的顏色匹配方法來識(shí)別出具有相同顏色的目標(biāo)。對(duì)無重疊區(qū)域的多個(gè)測(cè)試視頻進(jìn)行的相關(guān)實(shí)驗(yàn)表明,該算法能夠有效識(shí)別出普通場(chǎng)景下的不同目標(biāo),對(duì)于衣著顏色相近的不同目標(biāo)也有很高的識(shí)別率。

顏色特征;時(shí)空局部特征;無重疊區(qū)域

【本文獻(xiàn)信息】王曉麗,陸小鋒,陸亨立.多攝像機(jī)在無重疊區(qū)域的目標(biāo)匹配算法[J].電視技術(shù),2015,39(10).

智能視覺監(jiān)控是當(dāng)今計(jì)算機(jī)領(lǐng)域的一個(gè)研究熱點(diǎn),其中的一個(gè)關(guān)鍵問題是實(shí)現(xiàn)多攝像機(jī)場(chǎng)景下的運(yùn)動(dòng)目標(biāo)識(shí)別,而特征匹配是比較典型的目標(biāo)識(shí)別算法[1-11]。

外部世界對(duì)物體提供了豐富的顏色信息,顏色作為物體表面的基本特征,是進(jìn)行物體識(shí)別和認(rèn)知必不可少的信息。常用的顏色特征匹配方法中,經(jīng)典的算法是基于顏色直方圖(Color-histogram)的目標(biāo)匹配方法,該方法的基本思想是將目標(biāo)之間的匹配轉(zhuǎn)換為對(duì)應(yīng)的直方圖之間的距離相似度衡量。D.Comaniciu在文獻(xiàn)[1]中采用將Color-histogram與巴氏距離相結(jié)合的方法來尋找最佳匹配目標(biāo)的位置。在此基礎(chǔ)上Omar Oreifej在文獻(xiàn)[3]中提出了基于區(qū)域權(quán)重的顏色特征匹配方法(Weighted Region Matching,WRM),按照顏色特征的不同把目標(biāo)分成若干個(gè)權(quán)重不同的小區(qū)域,通過判斷區(qū)域間的相似性來進(jìn)行目標(biāo)匹配。該方法在保證了很好的魯棒性的同時(shí)又提高了目標(biāo)的識(shí)別性能。但是由于顏色特征本身受光線變化、背景復(fù)雜度等因素影響而對(duì)于不同場(chǎng)景中目標(biāo)的識(shí)別準(zhǔn)確率存在差異,為了提高該算法的魯棒性,引入時(shí)空局部特征3-D LSK,改善WRM算法對(duì)光照變化敏感的缺陷。

近年來,基于時(shí)空局部特征的運(yùn)動(dòng)表征方法越來越多的用于視頻中的動(dòng)作識(shí)別問題,相關(guān)人員已經(jīng)提出多種特征檢測(cè)和描述方法。相關(guān)的文獻(xiàn)結(jié)果表明,基于時(shí)空特征的運(yùn)動(dòng)表示能夠更好地適應(yīng)光照變化、運(yùn)動(dòng)者的穿著、運(yùn)動(dòng)差異等環(huán)境因素的影響,取得更好的識(shí)別效果。因此,本文引入時(shí)空局部特征來改善顏色特征對(duì)光照敏感的缺陷,提高算法魯棒性。首先對(duì)未經(jīng)預(yù)處理的檢索視頻(Query)和目標(biāo)視頻(Target)提取時(shí)空局部轉(zhuǎn)向核(Space-time Local Steering Kernel,3-D LSK)作為人體行為的描述子,基于矩陣余弦相似性的非參數(shù)檢驗(yàn),利用特征匹配方法實(shí)現(xiàn)簡(jiǎn)單行為識(shí)別,然后再利用目標(biāo)的顏色特征,通過基于區(qū)域權(quán)重(Weighted Region Matching)的顏色匹配方法來識(shí)別出具有相同顏色的目標(biāo)。對(duì)無重疊區(qū)域的多個(gè)測(cè)試視頻進(jìn)行的相關(guān)實(shí)驗(yàn)表明,本文提供的算法能夠有效識(shí)別出普通場(chǎng)景下的不同目標(biāo),對(duì)于衣著顏色相近的不同目標(biāo)有很高的識(shí)別率。

1 算法的基本思想

現(xiàn)在想要解決的問題是:在無重疊區(qū)域拍攝的多個(gè)測(cè)試視頻中,算法能夠準(zhǔn)確地識(shí)別出目標(biāo)人物(target)。

在簡(jiǎn)單場(chǎng)景下拍攝了多個(gè)測(cè)試視頻(query),在視頻中目標(biāo)的衣著、基本輪廓和運(yùn)動(dòng)行為是清晰可見的。通過這些信息,要求算法能在這一系列query中尋找出target。這就是一個(gè)投票者(voter)和候選人(candidate)的問題。如圖1所示,把target圖像定義為voters,把query圖像定義為candidates。因此問題就轉(zhuǎn)換成了從candidates中尋找出voters最為匹配的結(jié)果。

圖1 投票者-候選人示意圖

問題的難點(diǎn)在于candidates中可能有多個(gè)和voters衣著顏色相近的對(duì)象,那么僅僅用基于區(qū)域權(quán)重(Weighted Region Matching,WRM)的顏色匹配方法就不能很好地識(shí)別出voters。所以在此基礎(chǔ)上,對(duì)算法進(jìn)行改進(jìn)。由于人的運(yùn)動(dòng)行為具有好的魯棒性和特殊性,引入時(shí)空局部特征3-D LSK的人體行為識(shí)別方法,通過時(shí)空局部特征和顏色特征相結(jié)合的方法,來有效地識(shí)別出voters。

2 基于WRM的特征匹配方法

Weighted Region Matching[3]算法是一種基于區(qū)域權(quán)重的顏色特征匹配算法,對(duì)輸入的query圖像要進(jìn)行一系列處理,具體過程如圖2所示,分別為:目標(biāo)檢測(cè);目標(biāo)分割;特征匹配。

圖2 WRM算法框圖

對(duì)圖像進(jìn)行目標(biāo)檢測(cè)和分割后,得到voters和candidates的兩組圖像數(shù)據(jù)。定義voters的圖像組為V={vi;i=1,2,…,n},定義candidates的圖像組為C={cj;j=1,2,…,m},其中vi和cj為每組圖像的某個(gè)具體對(duì)象。那么cj成為target的概率為

式中:P()vi,i=1,2,3,…,n為先驗(yàn)概率。假設(shè)wi是vj的權(quán)重是cj和vi間的歸一化距離,則式(1)可改寫為

式中:τ為常量。式(2)類似于混合高斯模型,由此公式可知,WRM的重點(diǎn)在于對(duì)D()cj,vi和wi的計(jì)算。

2.1目標(biāo)檢檢測(cè)和分割

本文采用混合高斯背景建模來提取運(yùn)動(dòng)目標(biāo),使用M個(gè)高斯模型來描述圖像中各個(gè)像素點(diǎn)的特征,在獲得新一幀圖像后更新混合高斯模型,用當(dāng)前圖像中的每一個(gè)像素點(diǎn)與混合高斯模型匹配,如果成功則判定該點(diǎn)為背景點(diǎn),否則為前景點(diǎn)。Zivkovic在文獻(xiàn)[7]中提出了一種自適應(yīng)的M維混合高斯模型算法,假設(shè)圖像中的像素在RGB空間中t時(shí)刻的取值為x那么采樣點(diǎn)x符合的混合高斯分布概率密度函數(shù)為

2.2計(jì)算EMD距離

從顏色特征提取的角度來說,Mean-Shift[8]平滑和分割算法是一款非常優(yōu)秀的算法,在分割過程中,它能夠突出圖像中的各個(gè)區(qū)域并且使各個(gè)區(qū)域內(nèi)平坦。因此本文選用Mean-Shift算法對(duì)candidate和voter進(jìn)行平滑和分割,把目標(biāo)根據(jù)顏色特征的不同分割為不同的幾個(gè)區(qū)域。如圖3所示,用EMD[9-10]算法(Earth Mover Distance)計(jì)算candidate和voter間的距離,就轉(zhuǎn)化為計(jì)算對(duì)應(yīng)區(qū)域顏色直方圖間的距離。

圖3 計(jì)算EMD距離

計(jì)算EMD的方法來最初是用于解決運(yùn)輸問題,其實(shí)質(zhì)是雙向網(wǎng)絡(luò)最優(yōu)路徑的選擇問題。運(yùn)輸問題的描述如下:

假設(shè)有幾個(gè)供應(yīng)商,每個(gè)供應(yīng)商都有一定數(shù)量的貨物,需要供應(yīng)給幾個(gè)零售商。每個(gè)零售商都有一個(gè)購買能力的上限,在任何供應(yīng)商與零售商之間運(yùn)輸一個(gè)單位貨物的成本是給定的。傳輸問題就是尋找最小代價(jià)貨物流,貨物從供應(yīng)商流向零售商,這些貨物能滿足零售商的要求。

運(yùn)輸問題的目的就是找到一組路徑F=[fij]也就是供應(yīng)商與零售商之間的對(duì)應(yīng)關(guān)系,當(dāng)使用這種雙向?qū)?yīng)關(guān)系時(shí),能夠最小化運(yùn)輸貨物所要付出的代價(jià),即

它有如下約束條件:fij≥0,它規(guī)定了貨物的運(yùn)輸只是從供應(yīng)商到零售商的方向,并不返回。是供應(yīng)商pi的總供貨量,它說明運(yùn)輸貨物的總量要小于所有供應(yīng)商貨物的總和是零售商qj的總需求量,它規(guī)定了所有零售商的需求都要被滿足顯然總的需求量應(yīng)該小于總的供貨量。

將該線性流程移植到特征分布的比較中,定義candidate在HSV空間的顏色直方圖分布P={p1,…,pm}為供應(yīng)商,voter在HSV空間的顏色直方圖分布Q={q1,…,qn}為零售商,其中P、Q均為HSV彩色空間的色調(diào)。定義地面距離矩陣D=[dij,其中dij是pi和qj]之間的地面距離,它是任何距離的度量,可根據(jù)具體處理問題的不同靈活選擇。本文選擇JD[9]距離(Jeffrey-Divergence)作為地面距離,相對(duì)于傳統(tǒng)相似性度量方法,JD在顏色直方圖的計(jì)算中具有數(shù)值穩(wěn)定性和對(duì)稱性,對(duì)噪聲魯棒性好等良好特性。由此在式(2)中candidate與voter特征分布間的距離為

2.3計(jì)算voter的權(quán)重

用Mean-Shift圖像分割算法把voter分割為幾個(gè)區(qū)域,每個(gè)區(qū)域都包含了target的信息,但是有些區(qū)域可能本身含有噪聲或是在目標(biāo)提取時(shí)引入了噪聲。因此,需要對(duì)每個(gè)區(qū)域的權(quán)重進(jìn)行計(jì)算,使得包含target信息最多的區(qū)域權(quán)重最大。定義voter中的區(qū)域?yàn)镽={rk},則區(qū)域rk的權(quán)重wk為

式中:wkpr是歸一化的PageRank權(quán)重,wks是根據(jù)區(qū)域大小進(jìn)kk行歸一化的權(quán)重。因此在式(2)中voter的權(quán)重wi就是區(qū)域權(quán)重的的總和,對(duì)其進(jìn)行歸一化得

3 基于3-D LSK的人體行為識(shí)別方法

雖然顏色特征有具有很好的區(qū)分性和直觀性,且對(duì)目標(biāo)的形狀和姿態(tài)的依賴小,但是由于特征本身受光線變化、背景復(fù)雜度等因素影響而對(duì)于不同場(chǎng)景中目標(biāo)的識(shí)別準(zhǔn)確率存在差異。在此基礎(chǔ)上,引入時(shí)空局部特征3-D LSK的人體行為識(shí)別方法來改善顏色特征匹配的不足,算法系統(tǒng)框圖如圖4所示。

首先利用MACH Filter對(duì)Target視頻進(jìn)行學(xué)習(xí)訓(xùn)練,得到魯棒性強(qiáng)的時(shí)空匹配模板;然后分別提取Query和時(shí)空模板的3-D Lsk,即WQ、WT,并進(jìn)行PCA[11]降維,得到對(duì)應(yīng)的時(shí)空局部特征FQ、FT;計(jì)算FQ與FT的矩陣余弦相似性RV,將RV與對(duì)應(yīng)的閾值τ進(jìn)行比較,從而實(shí)現(xiàn)簡(jiǎn)單行為的識(shí)別。對(duì)于相同行為的幀再進(jìn)行WRM算法來判斷query中的目標(biāo)是否為voter,其算法框架如圖4所示。

3.1MACH Filter構(gòu)造時(shí)空模板

MACH Filter是由綜合鑒別函數(shù)(Synthetic Discriminant Function,SDF)演變而來的。針對(duì)一組同類的人體行為實(shí)例,SDF濾波器通過對(duì)4個(gè)性能指標(biāo)的優(yōu)化,將訓(xùn)練視頻圖像結(jié)合成一個(gè)復(fù)合模板。這4個(gè)性能指標(biāo)分別是:平均相關(guān)高度(Average Correlation Height,ACH)、平均相關(guān)能量(Average Correlation Energy,ACE)、平均相似性度量(Average Similarity Measure,ASM)、輸出噪聲方差(Output Noise Variance,ONV)。MACH Filter是SDF的最佳折衷結(jié)果,它具有3個(gè)優(yōu)點(diǎn):容易探測(cè)到相關(guān)峰、畸變?nèi)莶钶^大、有效抑制復(fù)雜背景噪聲的能力。本文利用MACH Filter對(duì)Target視頻進(jìn)行訓(xùn)練,得到Target視頻中目標(biāo)行為的時(shí)空模板,如圖5所示。

圖4 結(jié)合3-DLSK和WRM的目標(biāo)匹配算法

圖5 構(gòu)造時(shí)空模板

首先用Sobel算子得到視頻圖像的邊緣信息,將時(shí)空信息轉(zhuǎn)換為頻域信息,即對(duì)視頻庫中不同對(duì)象的同一行為作三維快速傅里葉變換

式中:f(x,y,t)表示每一幀視頻圖像的像素值;M、N分別表示圖像的行數(shù)和列數(shù);L表示視頻的幀數(shù);F()u,v,w表示經(jīng)過3-D FFT后的頻域結(jié)果。通過式(9)合成MACH Filter對(duì)視頻圖像進(jìn)行頻域?yàn)V波,再作三維快速傅里葉反變換構(gòu)造時(shí)空模板

式中:mx表示視頻圖像的向量xi的平均值;α,β,γ是用來權(quán)衡濾波器性能的參數(shù);C表示對(duì)角線噪聲協(xié)方差矩陣;Dx表示訓(xùn)練視頻中象征平均功率譜密度的對(duì)角矩陣,其定義如式(10)所示;Sx表示對(duì)角線平均相似度矩陣,其定義如式(11)所示。

式中:Ne=L×M×N為訓(xùn)練視頻中像素點(diǎn)的總數(shù);Xi表示關(guān)于xi的對(duì)角矩陣;Mx表示關(guān)于mx的對(duì)角矩陣。通過MACH Filter最大限度地增強(qiáng)ACH,并降低ACE、ASM和ONV,得到的時(shí)空模板具有很強(qiáng)的魯棒性。

3.23-D LSK特征提取

3-D LSK最初應(yīng)用于圖像降噪、插值、銳化和目標(biāo)檢測(cè),其核心思想是通過梯度估計(jì)分析空域和時(shí)域上的像素差異,獲取圖像的局部結(jié)構(gòu)信息,以此來確定一個(gè)經(jīng)典核函數(shù)的形狀和大小。根據(jù)3-D LSK的定義,其計(jì)算以及歸一化處理如下

利用式(12)、(13)分別計(jì)算Query和Target的3-D LSK,即WQ、WT;然后對(duì)WQ和WT采用PCA降維,僅保留貢獻(xiàn)率為80%信息量的d個(gè)特征值;以此構(gòu)造矩陣AQ、AT并投影到WQ、WT,得到降維后的特征矩陣FQ、FT即為本算法提取的時(shí)空局部特征

3.3度量矩陣余弦相似性算法設(shè)計(jì)

為了分析FQ與FT之間的“距離”,提出一種基于離散余弦相似度的非參數(shù)檢驗(yàn)方法,其原理類似于計(jì)算夾角余弦距離。特征矩陣FQ與FT的余弦相似度定義如式(16)所示。

最后,利用式(17)計(jì)算矩陣FQ與FT的矩陣余弦相似性(Resemblance Volume,RV),RV即表示測(cè)試視頻與目標(biāo)視頻在時(shí)空坐標(biāo)上每一個(gè)像素的匹配程度。顯然,由于ρi表示特征矩陣FQ與FT的余弦相似性,RV取值隨著ρi的增大而增大。

3.4非參數(shù)檢驗(yàn)

通過控制置信水平來自適應(yīng)生成閾值τ,將RV(i)與閾值進(jìn)行比較,從而檢測(cè)Query中和Target行為相匹配的幀,實(shí)現(xiàn)行為識(shí)別。其基本運(yùn)算流程如下:

1)選擇一個(gè)合適的置信水平值α,即最大容許的誤檢率。

2)按照從小到大排列的p(i)值,f(p(i))即為關(guān)于p(i)的函數(shù)。

4)由p(γ)確定閾值τ,并判定RV(i)值大于τ的像素包含與Target相似的行為信息。

在用3-D LSK時(shí)空局部特征對(duì)Query進(jìn)行處理后,得到了和Target中具有相似行為的幀,再對(duì)這些幀提取顏色特征,用第3節(jié)所述的WRM算法進(jìn)行特征匹配,最終在query中找到和Target行為相同、顏色特征相同的目標(biāo)。

4 實(shí)驗(yàn)結(jié)果及分析

本文選用的測(cè)試視頻主要來源于實(shí)驗(yàn)錄制視頻集。根據(jù)實(shí)驗(yàn)所需,根據(jù)目標(biāo)顏色和運(yùn)動(dòng)行為的不同選取了簡(jiǎn)單場(chǎng)景下的6個(gè)視頻集。分別為2個(gè)Target視頻,4個(gè)Query視頻,具體信息如表1所示。

表1 實(shí)驗(yàn)所選用的6個(gè)視頻數(shù)據(jù)集的相關(guān)信息

圖6為6個(gè)視頻的實(shí)際場(chǎng)景圖,每個(gè)視頻各為40幀,其中圖6a、圖6b作為Target視頻,圖6c~f作為Query視頻。分別用WRM匹配算法、結(jié)合WRM和3-D LSK匹配算法進(jìn)行兩組對(duì)比實(shí)驗(yàn)。

圖66 個(gè)視頻的實(shí)際場(chǎng)景圖

實(shí)驗(yàn)一是以T1為Target,在Q1、Q2、Q4中尋找與T1中匹配的目標(biāo),實(shí)驗(yàn)結(jié)果如表2所示。對(duì)比T1、Q1的實(shí)驗(yàn)結(jié)果,可以知道T1和Q1中的目標(biāo)顏色相近,行為相同。WRM算法檢測(cè)出Q1中有21幀的目標(biāo)和T1匹配,結(jié)合3-D LSK和WRM的算法檢測(cè)出Q1中有12幀和目標(biāo)T1匹配。但顯而易見Q1中的目標(biāo)并非T1中的目標(biāo),所以這兩種算法得出的結(jié)果都是錯(cuò)判的。但改進(jìn)后算法的錯(cuò)檢率為30%,優(yōu)于原來的WRM算法。

表2 在Q1、Q2、Q4的視頻集中檢測(cè)T1中的目標(biāo)

對(duì)比T1、Q2的實(shí)驗(yàn)結(jié)果,可以知道T1和Q2中的目標(biāo)顏色相近,行為相同。WRM算法檢測(cè)出Q2中有20幀的目標(biāo)和T1匹配,結(jié)合3-D LSK和WRM的算法檢測(cè)出Q2中有15幀和目標(biāo)T1匹配。知道Q2中的目標(biāo)就是T1中的目標(biāo),所以這兩種算法得出的結(jié)果都正確的,因此錯(cuò)檢率都為0%。

對(duì)比T1、Q3的實(shí)驗(yàn)結(jié)果,可以知道T1和Q3中的目標(biāo)顏色相近,行為不同。WRM算法檢測(cè)出Q3中有40幀的目標(biāo)和T1匹配,結(jié)合3-D LSK和WRM的算法檢測(cè)出Q3中的目標(biāo)和T1完全不匹配。但顯而易見Q3中的目標(biāo)并非T1中的目標(biāo),所以WRM的算法的錯(cuò)檢率是100%,它完全錯(cuò)判了目標(biāo)。而結(jié)合3-D LSK和WRM的算法就能完全區(qū)分出目標(biāo)的不同,效果十分優(yōu)于WRM算法。

實(shí)驗(yàn)二是以T2為Target,在Q1、Q3、Q4中尋找與T2中匹配的目標(biāo),實(shí)驗(yàn)結(jié)果如表3所示。對(duì)比T2、Q1的實(shí)驗(yàn)結(jié)果,可以知道T2和Q1中的目標(biāo)顏色不同,行為相同。WRM算法檢測(cè)出Q1中有8幀的目標(biāo)和T2匹配,結(jié)合3-D LSK和WRM的算法檢測(cè)出Q1中有6幀和目標(biāo)T2匹配。但顯而易見Q1中的目標(biāo)并非T2中的目標(biāo),所以這兩種算法得出的結(jié)果都是錯(cuò)判的。但改進(jìn)后算法的錯(cuò)檢率為15%,優(yōu)于原來的WRM算法。

表3 在Q1、Q3、Q4的視頻集中檢測(cè)T2中的目標(biāo)

對(duì)比T2、Q3的實(shí)驗(yàn)結(jié)果,可以知道T2和Q3中的目標(biāo)顏色相近,行為相同。WRM算法檢測(cè)出Q3中有40幀的目標(biāo)和T2匹配,結(jié)合3-D LSK和WRM的算法檢測(cè)出Q3中有31幀和目標(biāo)T2匹配。知道Q3中的目標(biāo)就是T2中的目標(biāo),所以這兩種算法得出的結(jié)果都正確的,因此錯(cuò)檢率都為0%。

對(duì)比T2、Q4的實(shí)驗(yàn)結(jié)果,可以知道T2和Q4中的目標(biāo)顏色不同,行為不同。兩種算法都檢測(cè)出Q4中的目標(biāo)和T2完全不匹配。因此對(duì)于顏色不同,行為不同的情況,兩種算法效果相同。

綜合表1和表2的實(shí)驗(yàn)數(shù)據(jù)可以發(fā)現(xiàn),對(duì)于顏色不同,行為不同的目標(biāo)間匹配,兩種算法檢測(cè)效果完全相同。對(duì)于顏色不同,行為相同和衣著顏色相同,行為相同的目標(biāo)間匹配,兩種算法檢測(cè)效果基本相近。對(duì)于顏色相同,但行為不同的目標(biāo)匹配,結(jié)合3-D LSK和WRM算法的效果要優(yōu)于WRM的效果。

5 結(jié)束語

本文針對(duì)視頻監(jiān)控中目標(biāo)匹配的難點(diǎn)問題,在基于WRM顏色特征匹配的基礎(chǔ)上,提出一種新的結(jié)合3-D LSK和WRM的目標(biāo)匹配算法。該方法先對(duì)待測(cè)視頻中的運(yùn)動(dòng)目標(biāo)進(jìn)行行為識(shí)別,識(shí)別出具有相同行為目標(biāo)。然后在利用目標(biāo)的顏色特征,通過基于區(qū)域權(quán)重的顏色匹配方法來識(shí)別出具有相同顏色的目標(biāo)。與近期文獻(xiàn)的結(jié)果相比,本方法對(duì)于顏色相近、行為不同的目標(biāo)間的匹配有顯著的識(shí)別效果。

[1]COMANICIU D,RAMESH V,MEER P.Real-time tracking of non-rigid objects using mean shift[C]//Proc.IEEE Conference on Computer Vision and Pattern Recognition.[S.l.]:IEEE Press,2000:142-149.

[2]LOWE D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.

[3]OREIFEJ O,MEHRAN R,SHAH M.Human identity recognition in aerial images[C]//Proc.IEEE Conference on Computer Vision and Pattern Recognition(CVPR 2010).[S.l.]:IEEE Press,2010:709-716.

[4]NIEBLES J C,WANG H,F(xiàn)EI F L.Unsupervised learning of human action categories using spatial-temporal words[J].International Journal of Computer Vision,2008,79(3):299-318.

[5]RYOO M S,AGGARWAL J K.Spatio-temporal relationship match:video structure comparison for recognition of complex human activities[C]//Proc.IEEE 12th International Conference on Computer Vision.[S.l.]:IEEE Press,2009:1593-1600.

[6]SEO H J,MILANFAR P.Action recognition from one example[J]. IEEE Trans.Pattern Analysis and Machine Intelligence,2011,33(5):867-882.

[7]ZIVKOVIC Z.Improved adaptive Gaussian mixture model for background subtraction[C]//Proc.17th IEEE International Conference on Pattern Recognition(ICPR 2004).[S.l.]:IEEE Press,2004:28-31.

[8]CUI J,MA D L,YU M Y,et al.Research of remote sensing image segmentation based on mean shift and region merging[J].Applied Mechanics and Materials,2011(90):2836-2839.

[9]PUZICHA J,BUHMANN J M,RUBNER Y,et al.Empirical evaluation of dissimilarity measures for color and texture[C]// Proc.7th IEEE International Conference on Computer Vision,1999.[S.l.]:IEEE Press,1999:1165-1172.

[10]RUBNER Y,TOMASI C,GUIBAS L J.The earth mover's distance as a metric for image retrieval[J].International Journal of Computer Vision,2000,40(2):99-121.

[11]王鶴,謝剛.基于PCA-SIFT特征的目標(biāo)識(shí)別算法[J].電視技術(shù),2013,37(15):30-32.

Target Matching Algorithm in Multiple Non-overlapping Cameras

WANG Xiaoli,LU Xiaofeng,LU Hengli
(School of Communication and Information Engineering,Shanghai University,Shanghai 200444,China)

The target matching method of color features has good distinction and intuition,but small dependence on the shape and attitude of the target.Due to factors such as illumination change and background complexity,the performance of the object matching method varies in different scenarios.With respect to the current situation,this paper proposes a new target matching algorithm,combining with space-time local features and color features.Firstly,3-D LSK(space-time local steering kernel)features are used to identify the behavior of moving targets in video. ThencolorfeaturesandWeightedRegionMatchingmethodareusedtoidentifytargetswiththesamecolor. Experimental results on several test videos in non-overlapping areas show that the new algorithm can effectively identify the different targets in common scenarios,especially for different targets dressed similar color.

color features;space-time local features;non-overlapping area

TP391

A

10.16280/j.videoe.2015.10.003

時(shí)雯

2014-07-23

王曉麗,女,研究生,主研圖像處理。

猜你喜歡
時(shí)空顏色矩陣
跨越時(shí)空的相遇
鏡中的時(shí)空穿梭
玩一次時(shí)空大“穿越”
認(rèn)識(shí)顏色
初等行變換與初等列變換并用求逆矩陣
時(shí)空之門
特殊顏色的水
矩陣
南都周刊(2015年1期)2015-09-10 07:22:44
矩陣
南都周刊(2015年3期)2015-09-10 07:22:44
矩陣
南都周刊(2015年4期)2015-09-10 07:22:44
峨眉山市| 贞丰县| 兰州市| 朝阳县| 平阳县| 长治市| 自贡市| 太原市| 梓潼县| 武清区| 通城县| 新民市| 上犹县| 且末县| 句容市| 襄城县| 梁平县| 林周县| 清新县| 信阳市| 安丘市| 大余县| 阿尔山市| 休宁县| 广平县| 白河县| 天门市| 大连市| 巴塘县| 广昌县| 麦盖提县| 凭祥市| 滦平县| 临澧县| 阳城县| 乐至县| 泰来县| 延津县| 儋州市| 万源市| 化州市|