国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

融合像素與紋理特征的人群人數(shù)統(tǒng)計方法研究

2015-02-21 08:10:07徐麥平張二虎陳亞軍
西安理工大學(xué)學(xué)報 2015年3期
關(guān)鍵詞:前景紋理背景

徐麥平,張二虎,陳亞軍

(西安理工大學(xué) 印刷包裝與數(shù)字媒體學(xué)院,陜西 西安 710048)

融合像素與紋理特征的人群人數(shù)統(tǒng)計方法研究

徐麥平,張二虎,陳亞軍

(西安理工大學(xué) 印刷包裝與數(shù)字媒體學(xué)院,陜西 西安 710048)

公共場景監(jiān)控下的人群人數(shù)統(tǒng)計是公共安全管理中的一個重要內(nèi)容。針對復(fù)雜場景監(jiān)控的情況,本文提出一種融合像素與紋理特征的人群人數(shù)統(tǒng)計方法。首先,通過改進(jìn)的視覺背景提取方法得到高精度的前景目標(biāo);然后,提取ROI區(qū)域前景像素統(tǒng)計特征與紋理特征并引入閾值判別機制;最后,對閾值上下的圖像分別采用基于紋理特征的回歸算法和基于像素統(tǒng)計特征的線性擬合算法來得到人群人數(shù)。實驗結(jié)果表明,本文方法相較于傳統(tǒng)算法,可以適應(yīng)于不同密度場景下的人群人數(shù)統(tǒng)計,且計算簡單,統(tǒng)計精度高。

人群人數(shù)統(tǒng)計; 背景建模; 像素統(tǒng)計特征; 紋理特征; SVR回歸模型

經(jīng)濟的快速發(fā)展和人們社會活動的不斷增加,使得像交通樞紐、大型活動現(xiàn)場、大型商場及廣場等公共場所的人流量越來越大,伴隨而來的是人群災(zāi)難性事件的頻發(fā)。近年來,許多國家和地區(qū)相繼啟動了基于視頻分析的群體安全態(tài)勢問題研究,其中人群人數(shù)統(tǒng)計是一個關(guān)鍵問題,已經(jīng)成為目前計算機視覺領(lǐng)域研究的熱點問題[1-2]。通過人群人數(shù)的動態(tài)變化反推出異常事件,對公共安全及事件預(yù)警有著非常重要的意義。

近年來對人群人數(shù)統(tǒng)計的研究重點集中于區(qū)域式場景下的人數(shù)統(tǒng)計[3-6]。目前有代表性的方法可以分為兩類:一類是基于目標(biāo)檢測跟蹤或提取目標(biāo)特征點的方式,例如文獻(xiàn)[7]基于形狀特性檢測人體;文獻(xiàn)[8]利用骨架圖來檢測人的頭部,從而得出人數(shù);文獻(xiàn)[9]采用基于跟蹤并對軌跡線進(jìn)行聚類的方法進(jìn)行人數(shù)統(tǒng)計,最終的聚類數(shù)即為人數(shù)。由于這類方法都依賴于對前景運動目標(biāo)的準(zhǔn)確檢測、分割和跟蹤,對于人群人數(shù)較多、遮擋比較嚴(yán)重的情況下,統(tǒng)計會出現(xiàn)較大偏差。另一類是找到視頻圖像序列中某些特征與人群人數(shù)之間的關(guān)系,采用提取分割特征或紋理特征回歸的方式對人群進(jìn)行計數(shù)。例如文獻(xiàn)[10]利用邊緣方向和前景面積作為分割特征,并采用神經(jīng)網(wǎng)絡(luò)回歸的方法進(jìn)行人數(shù)統(tǒng)計;文獻(xiàn)[11]首先采用三幀差分檢測出前景人群目標(biāo),然后使用SURF方法提取特征點并構(gòu)造特征向量,通過SVR方法回歸出人群人數(shù)。這類方式對于非簡單場景下的處理通常要比基于檢測的方式效果好,但是仍然不能滿足復(fù)雜場景下進(jìn)行精確人數(shù)統(tǒng)計的要求。

針對復(fù)雜場景精確提取前景目標(biāo),進(jìn)而利用統(tǒng)計像素特征與紋理特征回歸出人群人數(shù)的問題,本文提出一種融合像素與紋理特征的人群人數(shù)統(tǒng)計方法。首先,通過ViBe(Visual Background Extractor,ViBe)視覺背景提取方法得到高精度的人群前景目標(biāo);然后,提取前景分割特征并引入閾值判別機制;最后,對閾值上下的圖像分別采用基于紋理特征的支持向量回歸方法和基于分割特征的線性回歸方法來得到人群人數(shù)。通過實驗比較,所提方法相對于傳統(tǒng)方法,具有較高的統(tǒng)計精度。圖1是本文方法的流程圖。

1 基于ViBe的人群前景目標(biāo)提取

背景減法是目前視頻檢測算法中最常用的一種前景目標(biāo)檢測方法。背景減法的關(guān)鍵是對背景模型的建模和更新,一般的背景建模方法對突發(fā)運動和光照突變比較敏感且需要多幀進(jìn)行學(xué)習(xí),且實時性普遍不高。針對人群場景下背景復(fù)雜、光照變化大、要求檢測速度快的特點,本文引入ViBe算法。

ViBe算法[12]是近年來提出的一種快速背景提取和運動目標(biāo)檢測算法,該算法的核心包括背景模型初始化、前景檢測以及背景模型更新三個部分。該算法的實時性和魯棒性較高,且易于實現(xiàn),但其缺點是在光照方面處理不足,針對此缺陷,本文使用空域和時域相結(jié)合的背景模型更新策略來解決光照變化的影響。

1.1 背景模型初始化

ViBe是基于概率統(tǒng)計的一種背景建模方法,首先假設(shè)像素點及其鄰域像素服從等同的時域分布,以等概率的方式隨機地抽取若干鄰域像素點來建立背景模型。

ViBe使用第一幀進(jìn)行背景模型的初始化。對于第一幀中的每個像素點x,從其m鄰域中等概率地隨機多次選取N個像素灰度值vi(i=1,2,…,N),作為該像素點的背景模型,如式(1)所示。

(1)

一般m?N,在文獻(xiàn)[12]中取m=8,N=20。

1.2 前景檢測

背景模型初始化完畢之后,就可以從視頻序列第二幀開始進(jìn)行前景檢測并對背景模型進(jìn)行更新。判斷新來一幀某x位置像素值v(x)是否為前景目標(biāo)的準(zhǔn)則是:設(shè)定閾值R,計算{v(x)-R,v(x)+R}區(qū)間與x的背景模型M(x)相交的樣本值的個數(shù),如式(2)所示。

(2)

若計算出的相交的樣本值個數(shù)大于某一閾值,則當(dāng)前像素x被判為背景像素,否則為前景像素。

1.3 背景模型更新

ViBe算法采用保守的方法進(jìn)行背景模型的更新,只有當(dāng)前像素被判為背景像素時才對當(dāng)前像素的背景模型進(jìn)行更新。由于ViBe采用第一幀進(jìn)行背景模型的初始化,第一幀中很可能含有前景目標(biāo),這樣背景模型中也就可能含有前景目標(biāo)值,從而造成后續(xù)的誤檢。同時,如果某一位置的像素多次被檢測為前景目標(biāo),則很可能是出現(xiàn)了誤判。為了應(yīng)對這些情況,文中引入糾錯機制,即如果某一位置像素連續(xù)20次被檢測為前景像素,則也將其引入到背景模型更新當(dāng)中。

對于需要更新背景模型的像素x,以1/φ的概率來更新x的背景模型M(x),即從M(x)的N個樣本值中隨機地選擇一個用v(x)來代替。為了保持像素鄰域空間的一致性,ViBe算法也采用1/φ的概率對其鄰域像素的背景模型進(jìn)行更新,隨機地選擇其中一個鄰域像素的背景模型,從該模型中再隨機地選擇一個樣本值用v(x)來代替。

在背景模型的更新過程中,如果光照發(fā)生了較大的變化或者場景出現(xiàn)大范圍的轉(zhuǎn)換,背景模型將有較大的變化,需要及時進(jìn)行快速地更新,現(xiàn)有的ViBe算法的背景更新方法不能夠適應(yīng)這一要求。為此,文中引入判斷機制對這一情況進(jìn)行判斷,如果背景發(fā)生了較大的變換,則重新對背景模型進(jìn)行初始化,以此來快速解決如場景光線突變、場景大范圍轉(zhuǎn)換等全局變化。

在背景沒有太大變化的情況下,每次背景模型更新像素點的個數(shù)nold應(yīng)該是相近的。所以可以根據(jù)每次背景更新像素點的個數(shù), 用第一幀更新像素

點的個數(shù)作為參考值,與下一幀更新的個數(shù)nup作比較,見式(3):

(3)

如果差值滿足式(3),表明背景發(fā)生了較大的變化,則重新對背景模型進(jìn)行初始化。由于ViBe算法的背景模型初始化非常簡單和快速,所以重新初始化不會降低系統(tǒng)的實時性,這比混合高斯提取前景目標(biāo)效果較好。

1.4 形態(tài)學(xué)后處理

對ViBe前景檢測的結(jié)果進(jìn)行形態(tài)學(xué)處理,即進(jìn)行形態(tài)學(xué)開運算和閉運算操作,去除細(xì)小目標(biāo)和空洞填充,得到更為精確的前景目標(biāo)。

圖2(a)給出了一幅人群圖像,圖2(b)是采用本文方法提取的結(jié)果,圖2(c)是采用典型的混合高斯模型GMM提取的結(jié)果,可以看出采用本文算法提取的結(jié)果更為準(zhǔn)確。

2 閾值判別機制

現(xiàn)有研究結(jié)果[13-14]表明:在低密度人群情況下,人群人數(shù)與前景像素數(shù)存在遞增關(guān)系,通過簡單的線性擬合即可得到人群人數(shù);在高密度人群情況下,采用紋理特征對人群人數(shù)進(jìn)行表征更加有效,并可通過回歸的方法計算出人群人數(shù)。為了將這兩種情況融為一體,采用文獻(xiàn)[13]的方法引入閾值判別機制,以人群前景邊緣像素數(shù)作為設(shè)定閾值T的依據(jù),當(dāng)前景像素數(shù)小于閾值T時,采用線性擬合方法得到人群人數(shù),大于T時采用紋理特征的回歸方法計算。

3 基于像素統(tǒng)計的低密度人群人數(shù)擬合方法

對于前景像素的提取,在相機固定的場景下直接提取感興趣區(qū)域ROI的像素,進(jìn)一步采用Canny邊緣提取的方法提取邊緣,將邊緣像素數(shù)作為人群人數(shù)估計時擬合用的統(tǒng)計特征。為了消除場景遠(yuǎn)近效應(yīng)的影響,在得到邊緣像素后采用基于內(nèi)插權(quán)重的透視矯正方法[15]對邊緣像素個數(shù)進(jìn)行加權(quán)求和。

訓(xùn)練階段,建立邊緣像素數(shù)與人群人數(shù)之間的線性模型,如式(4)所示,并采用最小二乘法對模型參數(shù)進(jìn)行求解。

y=ax+b

(4)

式中x為加權(quán)后的邊緣像素數(shù),y為擬合后得到的人群人數(shù)。

4 融合LBP與GLCM高密度人群人數(shù)回歸方法

高密度人群呈現(xiàn)較細(xì)的紋理模式,因此可以通過提取紋理特征,并用回歸的方式估計人群人數(shù)。本文采用融合局部二值模式LBP(Local Binary Pattern,LBP)特征與灰度共生矩陣GLCM的方法來提取高密度人群的紋理特征,并用支持向量機回歸方法建立高密度人群人數(shù)回歸模型。

4.1 融合LBP與GLCM的人群紋理特征提取

LBP是一種描述圖像局部紋理特征的無參數(shù)算子,且對均勻光照變化不敏感,算子計算復(fù)雜度低等。但對于8鄰域的LBP算子計算出的紋理特征最大可以達(dá)到256維,這將給后續(xù)特征回歸運算帶來很大不便。針對這種問題,一般的解決方案是對其進(jìn)行特征降維操作,這就不可避免造成紋理特征的損失。而用于分析灰度共生矩陣(Gray-level Co-occurrence Matrix,GLCM)的Haralick特征,其共有14個表現(xiàn)紋理的特征,而對比度、相關(guān)性、能量、逆差矩這4個特征相互獨立,互不包含。所以本文采用融合LBP和GLCM的紋理特征提取方法。首先用基本的LBP算子即8鄰域LBP算子對人群圖像進(jìn)行紋理運算,得到LBP圖像;然后計算LBP圖像的GLCM;最后采用GLCM的能量、對比度、熵和逆差矩描述圖像的紋理特征。其具體計算步驟如下。

1) 選取基本的LBP算子,對圖像的每個像素采用公式(5)計算LBP值,得到LBP圖像。

(5)

式中取半徑R=1,P=8,gc為當(dāng)前待處理像素,gp為其鄰域像素。

3) 計算各個方向灰度共生矩陣的能量、熵、對比度、逆差距,并將求得的各個方向的4個特征值級聯(lián)起來作為圖像的紋理特征。具體如下。

能量特征(Energy):

(6)

熵(Entropy):

(7)

對比度(Contrast):

(8)

逆差距(Homogeneity):

(9)

4.2 SVR回歸模型的建立

支持向量回歸機(Support Vector Regression,SVR)是一個功能強大的非線性回歸模型,它建立在VC維理論基礎(chǔ)上,采用結(jié)構(gòu)風(fēng)險最小化原則,具有結(jié)構(gòu)簡單、全局最優(yōu)解泛化能力強的特點,因此用SVR作為回歸模型,建立圖像特征和人群人數(shù)之間的數(shù)學(xué)關(guān)系。

設(shè)訓(xùn)練集樣本為:

T={(xi,yi),xi∈Rm,yi∈R,i=1,2,…,n}

SVR將輸入向量通過非線性映射函數(shù)φ(x)映射到高維特征空間,建立如下的最優(yōu)決策函數(shù):

(10)

式中,w為權(quán)重向量,b為閾值。

引入不敏感損失函數(shù)ε,SVR回歸分析可以表示為如下約束優(yōu)化問題:

(11)

對于式(11),引入拉格朗日函數(shù)可以將其轉(zhuǎn)換為對偶問題的凸二次規(guī)劃的優(yōu)化求解,從而獲得該問題的最優(yōu)解:

(12)

式中K(xi,x)為核函數(shù),本文選擇如下的高斯徑向基核函數(shù):

(13)

本文使用臺灣大學(xué)林智仁博士等用C++實現(xiàn)的SVM庫,它可以解決回歸、分類及分布估計等問題。此軟件包在windows下只提供DOS工具集,主要包括訓(xùn)練工具svm-train.exe、預(yù)測工具svm-predict.exe和數(shù)據(jù)縮放工具svm-scale.exe等,文中使用這三個工具集,其中參數(shù)尋優(yōu)使用網(wǎng)格尋優(yōu)方法,在python中找到最優(yōu)參數(shù)。

5 實驗結(jié)果與分析

5.1 實驗數(shù)據(jù)集及評價指標(biāo)

實驗所用人群數(shù)據(jù)集有兩個:一個來自文獻(xiàn)[16],視頻是圣地亞哥加州大學(xué)(University of California,San Diego,簡稱UCSD)一個人行道上的靜止攝像頭拍攝的;另一個來自于文獻(xiàn)[17],視頻拍攝于某一商場店鋪外(簡稱MALL)。

根據(jù)Polus[18]在1983年中的研究:一個人所占的面積小于0.5 m2或者1 m2以內(nèi)有超過2人的則認(rèn)為是人群高密度環(huán)境。本論文中所選用的UCSD與MALL數(shù)據(jù)庫,mask所覆蓋的區(qū)域面積分別為20 m2和10 m2,其中UCSD數(shù)據(jù)集的人群人數(shù)在7~31之間,MALL數(shù)據(jù)集的人群人數(shù)在0~17之間。從人群人數(shù)可以看出,每幀圖像總的人數(shù)并沒有達(dá)到高密度的要求,但是在其中的某一小塊區(qū)域人群人數(shù)卻超出了相對應(yīng)的面積所能容納的最多人數(shù),且從不同視角看到人群遮擋的程度也不相同。

圖3給出了這兩個數(shù)據(jù)集上各一幅圖像,可以看出其中紅色區(qū)域所標(biāo)示的部分具有較高的人群密度。在UCSD數(shù)據(jù)集上,可以看出遮擋基本達(dá)到了個人的1/3。而在MALL數(shù)據(jù)集上,遮擋狀況達(dá)到了個人的2/3甚至是全部。

實驗結(jié)果用平均絕對誤差(MeanAbsoluteError)指標(biāo)來度量。假設(shè)人群的真實人數(shù)為p(i),i=1,2,…,n,估計數(shù)據(jù)是y(i),i=1,2,…,n,則平均絕對誤差MAE的計算公式為:

(14)

5.2 實驗結(jié)果及分析

實驗比較了采用高斯混合GMM建模方法和ViBe背景建模下的效果,同時比較了采用傳統(tǒng)的GLCM與本文的融合LBP與GLCM的特征提取方的結(jié)果比較。

對于MALL數(shù)據(jù)集,通過實驗確定閾值T為5,從MALL集中選擇了1 200幅圖像,由人工標(biāo)定出其真實人數(shù),用其中的500幅圖像進(jìn)行建模,700幅圖像進(jìn)行測試。對于UCSD數(shù)據(jù)集,閾值T選為17,取500幅圖像進(jìn)行模型訓(xùn)練,另取500幅圖像進(jìn)行測試。實驗結(jié)果如表1所示。從表1可以看出,采用ViBe的背景建模方法所得實驗結(jié)果要好于經(jīng)典的GMM方法,同時采用LBP+GLCM的紋理特征提取方法要好于只采用GLCM的方法。

圖4、圖5分別給出了測試用的MALL的700幅圖像與UCSD的500幅圖像中手工標(biāo)定出的實際人數(shù)和估計出的人數(shù)的實驗結(jié)果,其中紅點代表實際人數(shù),綠點代表估計人數(shù)。

從圖4、5可以看出,本文算法估計的人數(shù)曲線在參考值上下小范圍內(nèi)波動,測試稀疏與中等密度人群的誤差約為1~2人,測試中高密度人群的誤差約為1~4之間。

另外,為了驗證本文方法適用所提出的遮擋條件,從UCSD整個數(shù)據(jù)集中挑選出遮擋比較嚴(yán)重的視頻序列共400幀做測試,測試的序列都屬于中高密度人群環(huán)境,每幀的人數(shù)都在25以上,統(tǒng)計精度MAE可以達(dá)到0.143。從MALL整個數(shù)據(jù)集中挑選出遮擋比較嚴(yán)重的視頻序列共100幀做測試,測試的序列屬于中高密度人群環(huán)境,每幀的人數(shù)都在12以上,統(tǒng)計精度MAE可以達(dá)到0.126。圖6給出了UCSD的400幀遮擋較嚴(yán)重的圖像中標(biāo)定出的實際人數(shù)和估計出的人數(shù)的實驗結(jié)果,其中紅點代表實際人數(shù),綠點代表估計人數(shù)。從圖中可以看出,估計的人數(shù)曲線在參考值上下小范圍內(nèi)波動,人數(shù)誤差約為1~4之間。

從以上結(jié)果可以看出,本文算法在人群稀疏場景和人群密集場景均取得了較好的結(jié)果,因此是一種準(zhǔn)確率高且適用性強的人群人數(shù)統(tǒng)計方法。在配置為Intel i7-3770 @3.4 GHz處理器的電腦上測試,對大小為320×240的圖像,每幀的全過程處理用時為0.1 s,即每秒可處理10幀,具有較高的運算速度。由于本文在提取前景目標(biāo)時使用ViBe算法,具有占用內(nèi)存少、計算簡單、性能優(yōu)于GMM等優(yōu)點,可以比較容易地移植到嵌入式平臺,有望滿足實時處理的要求。

6 結(jié) 論

本文提出了一種融合像素與紋理特征的人群人數(shù)統(tǒng)計方法。該方法能夠較為精準(zhǔn)地提取到人群前景目標(biāo),統(tǒng)計精度高,計算速度快。實驗結(jié)果表明,相對于傳統(tǒng)方法,本方法在人群稀疏場景和人群密集場景情況下均有較好的統(tǒng)計結(jié)果,且本系統(tǒng)的實時性與魯棒性較高,可以移植至嵌入式平臺中降低軟硬件系統(tǒng)的開發(fā)成本。由于實驗中兩個人群數(shù)據(jù)庫中的人數(shù)較少,今后需要針對大規(guī)模的人群人數(shù)統(tǒng)計問題進(jìn)行進(jìn)一步的研究。

[1]David Ryan, Simon Denman, Clinton Fookes, et al. Scene invariant multi camera crowd counting [J]. Pattern Recognition Letters, 2014, 44: 98-112

[2]James Ferryman, Anna-Louise Ellis. Performance evaluation of crowd image analysis using the PETS2009 dataset [J]. Pattern Recognition Letters, 2014, 44: 3-15.

[3]覃勛輝, 王修飛, 周曦, 等. 多種人群密度場景下的人群計數(shù) [J]. 中國圖象圖形學(xué)報, 2013,18(4): 392-398. Qin Xunhui, Wang Xiufei, Zhou Xi, et al. Counting people in various crowed density scenes using support vector regression [J]. Journal of Image and Graphics, 2013, 18(4): 392-398.

[4]薛陳. 復(fù)雜場景下的人數(shù)統(tǒng)計 [D]. 天津: 天津大學(xué), 2012. Xue Chen. People counting system in complex scenario [D]. Tianjin: Tianjin University, 2012.

[5]Xiong Guogang, Cheng Jun, Wu Xinyu, et al. An energy model approach to people counting for abnormal crowd behavior detection [J]. Neurocomputing, 2012, 83:121-135.

[6]Ma Huadong, Zeng Chengbin,Ling Charles X. A reliable people counting system via mutiple cameras [J]. ACM Transactions on Intelligent Systems and Technology, 2012, 3(2):15-20.

[7]Lan Dong, Vasu Parameswaran, Visvanathan Ramesh, et al.Fast crowd segmentation using shape indexing [C]. IEEE 11th International Conference on Computer Vision, Princeton University,2007: 14-21.

[8]Djamel Merad, Kheir Eddine AzizNicolas Thome. Fast people counting using head detection from skeleton graph [C]. 2010 Seventh IEEE International Conference on Advan ced Video and Signal Based Surveillance, Springer,2010: 233-240.

[9]Gianluca Antonini, Jean Philippe Thiran. Counting pedestrians in video sequences using trajectory clustering [J]. IEEE Transaction on Circuits and System for Video Technology,2006,16(8): 1008-1020.

[10]Kong D, Gray D, Tao H.Counting pedestrians in crowds using viewpoint invariant training[C]. Proceedings of the British Machine Vision Conference 2005, Oxford, UK, 2005.

[11]Liang Ronghua, Zhu Yuge, Wang Haixia. Counting crowd flow based on feature points [J]. Neurocomputing, 2014, 13(10): 377-384.

[12]Barnich O, Van Droogenbroeck M. ViBe: A universal back ground subtraction algorithm for video sequences [J]. IEEE Transactions on Image Processing, 2011, 20(6):1709-1724.

[13]李寅, 王貴錦, 林行剛. 結(jié)合局部和全局特征的人群密度估計算法 [J]. 清華大學(xué)學(xué)報: 自然科學(xué)版,2013, 53(4): 542-545. Li Yin, Wang Guijin, Lin Xinggang. Crowd density estimation algorithm combining local and global features [J]. Journal of Tsinghua University(Science and Technology), 2013, 53(4): 542-545.

[14]李虎, 張二虎, 段敬紅. 基于PCA和多元統(tǒng)計回歸的人群人數(shù)統(tǒng)計方法 [J]. 計算機工程與應(yīng)用, 2012, 50(11): 206-209. Li Hu, Zhang Erhu, Duan Jinghong. Crowd counting method based on PCA and multivariate statistical regression [J]. Computer Engineering and Applications, 2012, 50(11): 206-209.

[15]楊華, 蘇杭, 鄭世寶. 大規(guī)模群體密度估計算法 [D]. 上海: 上海交通大學(xué), 2010. Yang Hua, Su Hang, Zheng Shibao. Large-scale crowd density estimation [D]. Shanghai: Shanghai Jiaotong University, 2010.

[16]Chan Antoni, Zhang-Sheng, Liang Nuno. Privacy preserving crowd monitoring: counting people without people models or tracking [C]. IEEE Conference on Computer Vision and Pattern Recognition, Anchorage, 2008.

[17]Chen K, Loy C C, Gong S, et al. Feature mining for localised crowd counting [C]. British Machine Vision Conference, Springer, 2012.

[18]Schofer J, Ushpiz A, Polus A. Pedestrian flow and level of service [J]. Journal of Transportation Engineering, 1983,109(1):46-56.

(責(zé)任編輯 王衛(wèi)勛)

Fusion methods of pixels and texture feature for crowd counting

XU Maiping,ZHANG Erhu,CHEN Yajun

(Faculty of Printing, Packaging Engineering and Digital Media Technology, Xi’an University of Technology,Xi’an 710048, China)

The crowd counting under the public scene monitoring is an important part of public security management. For the case of complex scenes monitoring, this paper suggests a kind of fusion methods of pixels and texture feature for crowd counting. Firstly, the algorithm obtain a highly accurate foreground object by the improved visual background extraction; and then, it extracts the ROI foreground pixels statistical characteristics and texture features and introduces a threshold determination mechanism; finally, images of the upper and lower thresholds are based on texture features with regression algorithm and the statistical characteristics of the pixel fitting algorithm to get the number of the crowd. The experiment results show that the algorithm in this paper has the characteristic of a simple calculation and high statistical accuracy, which can be adapted to the people number statistics at different density scene compared with the traditional methods.

crowd counting; background modeling; statistical features of pixels; texture features; SVR regression model

1006-4710(2015)03-0340-07

2014-12-14

陜西省教育廳科研計劃資助項目(14JK1524);西安市碑林區(qū)科技計劃資助項目(GX1404);陜西省自然科學(xué)基金資助項目(2014JM2-6111)。

徐麥平,女,碩士生,研究方向為數(shù)字圖像處理與模式識別。E-mail:1062810430@qq.com。

張二虎,男,教授,博導(dǎo),研究方向為圖像處理、模式識別與智能信息處理。E-mail:eh-zhang@xaut.edu.cn。

TP391.4

A

猜你喜歡
前景紋理背景
“新四化”背景下汽車NVH的發(fā)展趨勢
我國旅游房地產(chǎn)開發(fā)前景的探討
《論持久戰(zhàn)》的寫作背景
四種作物 北方種植有前景
基于BM3D的復(fù)雜紋理區(qū)域圖像去噪
軟件(2020年3期)2020-04-20 01:45:18
離岸央票:需求與前景
中國外匯(2019年11期)2019-08-27 02:06:32
使用紋理疊加添加藝術(shù)畫特效
TEXTURE ON TEXTURE質(zhì)地上的紋理
Coco薇(2017年8期)2017-08-03 15:23:38
晚清外語翻譯人才培養(yǎng)的背景
量子糾纏的來歷及應(yīng)用前景
太空探索(2016年10期)2016-07-10 12:07:01
信宜市| 南充市| 浦城县| 黔江区| 屯留县| 贡嘎县| 德江县| 汪清县| 平定县| 江永县| 靖边县| 黑龙江省| 饶平县| 长顺县| 海淀区| 绥芬河市| 娄底市| 中方县| 安化县| 长顺县| 芦山县| 通江县| 莱阳市| 平邑县| 泗洪县| 文水县| 丹巴县| 渑池县| 呼和浩特市| 保德县| 汶川县| 东阳市| 元氏县| 始兴县| 囊谦县| 榆社县| 广水市| 防城港市| 姚安县| 桂林市| 永福县|