国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于時(shí)空熵分析的組合高斯背景建模方法*

2012-06-25 01:21:08宋佳聲胡國(guó)清
關(guān)鍵詞:掩碼前景高斯

宋佳聲 胡國(guó)清

(華南理工大學(xué)機(jī)械與汽車(chē)工程學(xué)院,廣東廣州510640)

從復(fù)雜的監(jiān)控場(chǎng)景中提取出運(yùn)動(dòng)的前景目標(biāo)是智能監(jiān)控系統(tǒng)的首要問(wèn)題.如果有一個(gè)自適應(yīng)場(chǎng)景變化的背景模型,就可以通過(guò)背景減法分割出前景目標(biāo).高斯分布函數(shù)常被用來(lái)對(duì)場(chǎng)景背景進(jìn)行建模.文獻(xiàn)[1]中用單個(gè)高斯模型(SGM)對(duì)場(chǎng)景進(jìn)行建模,適用于室內(nèi)單純的場(chǎng)景中.文獻(xiàn)[2]中提出的混合高斯模型(GMM),雖然提高了前景分割的準(zhǔn)確性,但模態(tài)數(shù)固定以及學(xué)習(xí)因子統(tǒng)一使其存在收斂與更新速度慢、對(duì)背景變化的適應(yīng)能力與對(duì)前景異常的感知能力無(wú)法兼顧的問(wèn)題[3].為此,文獻(xiàn)[4]中將混合高斯模型的更新區(qū)分為背景學(xué)習(xí)和背景更新兩個(gè)階段,在不同的階段采用不同的參數(shù)估計(jì)算法;文獻(xiàn)[5]中通過(guò)對(duì)匹配數(shù)據(jù)個(gè)數(shù)的統(tǒng)計(jì)自適應(yīng)地實(shí)時(shí)調(diào)整學(xué)習(xí)因子和模態(tài)個(gè)數(shù);文獻(xiàn)[6]中通過(guò)引入懲罰因子提出了一種自適應(yīng)最小化模態(tài)個(gè)數(shù)的混合高斯模型;為避免繁瑣的高斯模型參數(shù)估計(jì)問(wèn)題,文獻(xiàn)[7]中提出了一種固定窗口長(zhǎng)度的非參數(shù)方法,但大量的數(shù)據(jù)存儲(chǔ)要求以及復(fù)雜的計(jì)算限制了其應(yīng)用;近年來(lái)人們提出了許多改進(jìn)的算法[8];文獻(xiàn)[9]中利用球面均值聚類(lèi)算法找到光照改變時(shí)的顏色空間特征,據(jù)此為混合高斯模型參數(shù)更新提供了準(zhǔn)確方向;文獻(xiàn)[10]中提出了兩種不同的學(xué)習(xí)因子,分別用于均值和方差的實(shí)時(shí)更新;文獻(xiàn)[11]中將場(chǎng)景劃分為背景、陰影、靜態(tài)前景和移動(dòng)前景4種區(qū)域,每個(gè)區(qū)域使用不同的模態(tài)學(xué)習(xí)因子,從而形成對(duì)混合高斯模型更新的反饋機(jī)制;文獻(xiàn)[12]中提出了一種基于顏色、邊緣和紋理的混合視覺(jué)特征的高斯建模方法;文獻(xiàn)[13]中將偏差均值作為判斷模型是否與當(dāng)前像素值匹配的閾值參數(shù);文獻(xiàn)[14]中在混合高斯模型的框架下,通過(guò)改變計(jì)算策略來(lái)提高參數(shù)的更新速度,改善了GMM的實(shí)時(shí)性;文獻(xiàn)[15]中通過(guò)統(tǒng)計(jì)模態(tài)匹配個(gè)數(shù)和引入懲罰因子來(lái)優(yōu)化GMM的模態(tài)個(gè)數(shù)以及相應(yīng)參數(shù)的更新速度.

為提高視頻監(jiān)控系統(tǒng)中背景高斯模型的更新速度,文中提出了基于時(shí)空熵分析的組合高斯背景建模方法(CGM),即對(duì)場(chǎng)景的不同區(qū)域使用不同的模型和更新機(jī)制.根據(jù)檢測(cè)的全局特征的變化來(lái)實(shí)現(xiàn)不同模型之間的切換.文中通過(guò)時(shí)空采樣模型獲取像素顏色值在時(shí)域和空域的變化特征,進(jìn)而檢測(cè)出邊緣或輪廓線(xiàn)所對(duì)應(yīng)的像素區(qū)域.最后通過(guò)實(shí)驗(yàn)驗(yàn)證所提建模方法的有效性.

1 場(chǎng)景運(yùn)動(dòng)復(fù)雜性分析

1.1 場(chǎng)景運(yùn)動(dòng)復(fù)雜度的時(shí)空信息熵表示

場(chǎng)景中的像素是復(fù)雜多變的,其原因有自然景物的擾動(dòng)、傳感器的振顫、投影和光照的改變、顏色的二義性、前景運(yùn)動(dòng)的不確定性和遮擋等.這里的“復(fù)雜”是指本體論意義上的復(fù)雜性[16],體現(xiàn)為場(chǎng)景圖像空間中像素的多樣性和差異性,文中具體指像素顏色值在時(shí)域和空域變化的劇烈程度.場(chǎng)景運(yùn)動(dòng)復(fù)雜度是對(duì)像素變化劇烈程度的一種定量描述.文獻(xiàn)[17]中從組合論的角度給出了復(fù)雜度的定義:一個(gè)系統(tǒng)(廣義集合)的復(fù)雜度反映的是該集合內(nèi)元素的種類(lèi)以及各類(lèi)中包含的元素個(gè)數(shù)等特征,體現(xiàn)為集合內(nèi)部狀態(tài)的豐富程度和差異程度,這種內(nèi)部復(fù)雜度的計(jì)算公式為

式中,K為廣義集合內(nèi)不同標(biāo)志值的個(gè)數(shù),nk為第k類(lèi)個(gè)體的數(shù)量,N為總個(gè)體數(shù).據(jù)此可知,系統(tǒng)的復(fù)雜度是與其內(nèi)部個(gè)體特征差異性相關(guān)聯(lián)的,它是對(duì)個(gè)體特征差異性和多樣性的一種度量:個(gè)體差異越大,總體復(fù)雜度越大;個(gè)體差異越小,總體復(fù)雜度越小.

圖1 計(jì)算場(chǎng)景復(fù)雜度的采樣空間Fig.1 Sampling space for calculating of scene complexity

監(jiān)控系統(tǒng)得到的場(chǎng)景圖像序列除了存在空間分布的差異性外,還有時(shí)間軸上分布的差異性.因此,文中建立圖1所示的采樣空間:時(shí)間滑窗長(zhǎng)為L(zhǎng),空間窗長(zhǎng)為W,則采樣空間的總樣本數(shù)為Np=W2L.根據(jù)式(1),將每個(gè)像素領(lǐng)域內(nèi)的時(shí)空灰度分布的差異程度作為該像素的運(yùn)動(dòng)復(fù)雜度,稱(chēng)為像素熵值.為簡(jiǎn)化計(jì)算,將像素p按圖1所示的采樣空間中的樣本多通道顏色值轉(zhuǎn)化為單通道灰度值f(p),并對(duì)該灰度值按照式(2)進(jìn)行壓縮,其中Lg為壓縮后的最大灰度,fmax為樣本空間的最大采樣值.壓縮后的灰度級(jí)將大大減少,既保留了差異性,又減小了后續(xù)信息熵的計(jì)算.

統(tǒng)計(jì)各個(gè)灰度級(jí)g(g為0~Lg的整數(shù))的采樣值個(gè)數(shù),將像素p的采樣空間中灰度為g的像素個(gè)數(shù)記為np,g,根據(jù)式(1)可知該像素點(diǎn)的熵值為

1.2 基于時(shí)空熵的場(chǎng)景區(qū)域分割

在大多數(shù)監(jiān)控場(chǎng)合,每個(gè)攝像頭所監(jiān)控的區(qū)域是固定的,區(qū)域中背景的顏色值也是相對(duì)穩(wěn)定的.但在一些特殊的情況(如攝像頭朝向的調(diào)整、光線(xiàn)的突然變化、背景某些區(qū)域永久性的移入/移出等)下,監(jiān)控區(qū)域也會(huì)產(chǎn)生突然的、大范圍的變化.此時(shí),場(chǎng)景的運(yùn)動(dòng)復(fù)雜度可能發(fā)生很大的變化,必須根據(jù)新的場(chǎng)景更新相應(yīng)的運(yùn)動(dòng)復(fù)雜度.如果沒(méi)有及時(shí)更新場(chǎng)景的復(fù)雜度,將造成基于該場(chǎng)景復(fù)雜度的背景模型的偏差,進(jìn)而導(dǎo)致大量前景目標(biāo)的誤檢.為此,文中通過(guò)設(shè)定一個(gè)前景區(qū)域大小的閾值FT來(lái)檢測(cè)這種變化.如果前景區(qū)域面積大于該閾值,則重新計(jì)算場(chǎng)景運(yùn)動(dòng)復(fù)雜度,并據(jù)此調(diào)整背景模型,具體流程見(jiàn)圖2.

圖2 基于場(chǎng)景復(fù)雜性的前景檢測(cè)流程圖Fig.2 Flowchart of foreground detection based on scene complexity

場(chǎng)景復(fù)雜性分析的目的是為背景建模提供先驗(yàn)知識(shí),即掩碼圖.如圖2所示,根據(jù)式(3)計(jì)算各個(gè)像素在各自采樣空間中的運(yùn)動(dòng)復(fù)雜度,得到熵值E(p).然后,將所有像素的熵值轉(zhuǎn)化為256個(gè)灰階單通道圖像,構(gòu)成一幅熵值圖.灰階所描述的是像素的運(yùn)動(dòng)復(fù)雜度,其值越大則時(shí)域或空域變化越劇烈.為簡(jiǎn)化計(jì)算,將這些像素分成2類(lèi),分別代表圖像的2類(lèi)不同區(qū)域.為了保證分割后這2類(lèi)區(qū)域的差異性,采用最大熵閾值分割的方法進(jìn)行分割,得到一個(gè)二值化圖像模板,即掩碼圖.對(duì)圖3(a)所示的視頻圖像進(jìn)行復(fù)雜度分析和最大熵閾值分割,結(jié)果如圖3(b)、3(c)所示.將圖像空間分為2類(lèi)區(qū)域:(1)灰度值為0的黑色區(qū)域,對(duì)應(yīng)于原場(chǎng)景中顏色值相對(duì)均勻、穩(wěn)定的區(qū)域,文中稱(chēng)為穩(wěn)定區(qū)域;(2)灰度值為255的白色區(qū)域,對(duì)應(yīng)于原圖像中顏色值富于變化的區(qū)域,多為邊界或顏色值存在反復(fù)波動(dòng)的區(qū)域,稱(chēng)為動(dòng)態(tài)區(qū)域.在監(jiān)控系統(tǒng)中,一般黑色區(qū)域占較大面積,如圖3中穩(wěn)定區(qū)域的像素占總像素的84.32%.

圖3 場(chǎng)景復(fù)雜度分析過(guò)程圖Fig.3 Procedure images of analysis on scene complexity

2 基于掩碼的背景組合高斯模型

2.1 場(chǎng)景的背景建模

根據(jù)場(chǎng)景復(fù)雜性分析輸出的掩碼圖,對(duì)處于穩(wěn)定區(qū)域的像素采用單模態(tài)的高斯模型,對(duì)處于動(dòng)態(tài)區(qū)域的像素采用多模態(tài)的高斯模型.在動(dòng)態(tài)區(qū)域,每個(gè)像素的顏色值采用K個(gè)高斯模態(tài)建模,設(shè)第k個(gè)模態(tài)的均值為 μk,標(biāo)準(zhǔn)方差為 σk,先驗(yàn)概率為 ωk,參數(shù)集為 Θk={ωk,θk},其中 θk={μk,σk}.為避免復(fù)雜的矩陣求逆運(yùn)算,假設(shè)像素顏色值的紅色、綠色和藍(lán)色分量相互獨(dú)立,且具有相同的方差.像素顏色值的某個(gè)分量x的概率密度函數(shù)可表示為

設(shè)某像素有T個(gè)顏色值,對(duì)其中任意一個(gè)顏色值xt,先根據(jù)貝葉斯后驗(yàn)概率判定它屬于哪個(gè)高斯模態(tài),然后對(duì)含有該模態(tài)參數(shù)的似然函數(shù)求偏導(dǎo),從而求得似然函數(shù)的最大值,由此得到如下估計(jì)量:

最后,將K個(gè)高斯分量按照ωk/σk從大到小的順序排列,選取其中前B個(gè)高斯模態(tài)作為背景的一個(gè)建模,其中為小于1的預(yù)設(shè)正數(shù).如果xt屬于這B個(gè)模態(tài),則xt為背景;否則xt為前景.

對(duì)處于穩(wěn)定區(qū)域的像素,其顏色值x分布采用單高斯模態(tài)建模.具體過(guò)程如下:對(duì)任意一個(gè)采樣值xt,根據(jù)它與模態(tài)中心的馬氏距離判定它是否屬于該模態(tài),如果屬于,則采用指數(shù)平滑學(xué)習(xí)進(jìn)行模態(tài)參數(shù)估計(jì),否則模態(tài)參數(shù)保持不變.

2.2 背景參數(shù)更新

對(duì)于采用背景減法得到前景目標(biāo)的分割算法而言,背景維護(hù)是最為關(guān)鍵的問(wèn)題.由于在圖像的2類(lèi)不同區(qū)域所采用的模態(tài)個(gè)數(shù)是不同的,因而相應(yīng)的更新算法也不一樣.在動(dòng)態(tài)區(qū)域,根據(jù)背景模型參數(shù)的估計(jì)式可以得到

對(duì)于穩(wěn)定區(qū)域,由于采用的是單模態(tài),因而省去了模態(tài)匹配的過(guò)程,但需要判斷顏色值與背景值的距離.根據(jù)正態(tài)分布的特征,取95%的置信區(qū)間為背景更新區(qū)間:如果顏色值處在背景值的約2個(gè)標(biāo)準(zhǔn)差之外,則不予采信,不做背景更新操作;如果顏色值處在置信區(qū)間內(nèi),則按式(11)、(12)進(jìn)行背景更新,其中ρ為預(yù)設(shè)的學(xué)習(xí)因子.

2.3 模型切換

假設(shè)t時(shí)刻的掩碼圖為m.如果根據(jù)圖2所示的流程檢測(cè)到前景面積的變化大于預(yù)設(shè)閾值,則重新計(jì)算掩碼圖,記為m'.通過(guò)比較這兩個(gè)掩碼圖可以知道場(chǎng)景中兩類(lèi)區(qū)域的變化情況,即像素點(diǎn)p(i,j)有如下2種情況:

(1)m(i,j)=0,m'(i,j)=255,像素背景模型由單模態(tài)變?yōu)槎嗄B(tài),將原模型中的單模態(tài)作為多模態(tài)模型中權(quán)值為1的模態(tài).

(2)m(i,j)=255,m'(i,j)=0,像素背景模型由多模態(tài)變?yōu)閱文B(tài),選取多模態(tài)模型中權(quán)值最大者初始化單模態(tài)背景模型.

2.4 算法步驟

文中組合高斯背景建模算法主要包括2個(gè)步驟:(1)初始化模型.通過(guò)場(chǎng)景時(shí)空熵值的計(jì)算得到場(chǎng)景的運(yùn)動(dòng)復(fù)雜度圖像,再通過(guò)最大熵閾值分割法得到像素分組的掩碼圖像(模板),按照該模板對(duì)穩(wěn)定區(qū)域和動(dòng)態(tài)區(qū)域分別進(jìn)行高斯模態(tài)的初始化.(2)更新背景模型.采用背景減法分割運(yùn)動(dòng)目標(biāo),按照掩碼圖像對(duì)不同區(qū)域采用不同的更新策略.

根據(jù)L幀圖像(總像素為M×N)初始化背景模型的偽代碼如下:

根據(jù)圖1定義的采樣空間,對(duì)像素p進(jìn)行灰度

采樣,得到f(p);

根據(jù)式(2)對(duì)f(p)進(jìn)行灰度壓縮;

根據(jù)式(3)計(jì)算像素p的時(shí)空熵值E(p);

END FOR

根據(jù)最大熵閾值分割法將熵值圖E劃分為兩類(lèi)

區(qū)域,得到二值化圖像模板m;

更新背景模型的偽代碼如下:

3 算法評(píng)價(jià)

為驗(yàn)證文中模型(CGM)的分割效果,在聯(lián)想ThinkPad-R60計(jì)算機(jī)上進(jìn)行實(shí)驗(yàn),并與SGM[1]和模態(tài)數(shù)固定(模態(tài)數(shù)為5)的GMM[2]進(jìn)行比較.實(shí)驗(yàn)程序采用C語(yǔ)言編寫(xiě).為客觀地比較,實(shí)驗(yàn)程序中不含有形態(tài)學(xué)的濾波處理.選用PETS庫(kù)中的視頻進(jìn)行了實(shí)驗(yàn),結(jié)果如圖4、5所示.

圖4 視頻PetsD2TeC1第950幀的分割結(jié)果Fig.4 Segmentation results of frame 950 in video PetsD2TeC1

圖5 視頻IndoorGTTest2第920幀的分割結(jié)果Fig.5 Segmentation results of frame 920 in video IndoorGTTest2

從圖4可知:SGM存在明顯的誤檢,將背景中各種實(shí)物的輪廓、擺動(dòng)的樹(shù)葉、直立的路燈柱及紋理與顏色的分界線(xiàn)誤分割為前景,這些區(qū)域正是位于相應(yīng)掩碼圖中白色顯示的區(qū)域;GMM與GCM都采用了多模態(tài)建模區(qū)域,故能很好地解決誤檢問(wèn)題.

從圖5可知:SGM將場(chǎng)景中的輪廓、邊緣及光照強(qiáng)度突變的區(qū)域誤檢為前景;GMM與CGM的檢測(cè)結(jié)果大致相同且誤檢相對(duì)較少.

為進(jìn)一步定量分析3種背景模型的分類(lèi)效果,以像素為單位統(tǒng)計(jì)每幀中前景和背景的像素?cái)?shù),得到 4 個(gè)統(tǒng)計(jì)量 NTP、NFP、NFN和 NTN.其中,NTP表示真實(shí)前景區(qū)域中被檢測(cè)為前景的像素?cái)?shù),NFP表示真實(shí)背景區(qū)域中被誤檢為前景的像素?cái)?shù),NFN表示真實(shí)前景區(qū)域中被誤檢為背景的像素?cái)?shù),NTN表示真實(shí)背景區(qū)域中被檢測(cè)為背景的像素?cái)?shù).衡量當(dāng)前幀分割效果的指標(biāo)有檢出率(RD)、誤警率(RFA)、準(zhǔn)確率(RA),計(jì)算式如下:

考慮到NTN相對(duì)于NTP而言是一個(gè)很大的值,因此RA的分子分母中均無(wú)NTN項(xiàng).

實(shí)驗(yàn)統(tǒng)計(jì)第200幀以后的1000幀視頻PetsD2TeC1的前景分割結(jié)果(檢測(cè)階段的更新公式中設(shè)定t=200),如圖6所示,GMM與CGM的接受者操作特征比較接近,均遠(yuǎn)遠(yuǎn)高于SGM.對(duì)1000幀分割結(jié)果進(jìn)行統(tǒng)計(jì),得到GMM、CGM和SGM的平均準(zhǔn)確率分別為 0.76、0.75、0.56,說(shuō)明 CGM 前景分割的準(zhǔn)確性接近于GMM,遠(yuǎn)優(yōu)于SGM.

圖6 3種背景模型的接受者操作特征曲線(xiàn)Fig.6 Receiver operating characteristic curves of three background models

模型運(yùn)行時(shí)間主要包括模型初始化時(shí)間和模型更新時(shí)間.表1給出了3種模型處理視頻PetsD2TeC1的運(yùn)行時(shí)間,CGM消耗了較多的初始化時(shí)間,這主要是由場(chǎng)景分析中掩碼圖的計(jì)算量較大造成的.對(duì)于固定攝像頭的監(jiān)控系統(tǒng),背景相對(duì)固定,初始化只發(fā)生在安裝初期及前景面積變化大于規(guī)定閾值時(shí),故CGM的初始化時(shí)間通常還是可以容忍的.CGM在初始化之后背景更新、前景分割的運(yùn)算速度較快(接近于SGM),這有利于提高系統(tǒng)的實(shí)時(shí)性.

表1 3種背景模型的運(yùn)行時(shí)間比較Table 1 Comparison of running time among three background models

綜上所述,SGM存在明顯的誤檢;GMM的分割效果最為理想,但較耗時(shí);CGM雖然需要消耗較多的初始化時(shí)間,但背景更新用時(shí)較少,分割效果比較理想,表現(xiàn)出較好的實(shí)時(shí)性,即它在分割效果上接近于GMM,而運(yùn)行時(shí)間上接近于SGM.

4 結(jié)語(yǔ)

在固定攝像頭的監(jiān)視系統(tǒng)中,其場(chǎng)景固定,視頻背景穩(wěn)定,文中針對(duì)此類(lèi)應(yīng)用提出了一種基于時(shí)空熵分析的組合高斯背景建模方法.首先分析場(chǎng)景的運(yùn)動(dòng)復(fù)雜性,建立像素顏色值的采樣時(shí)空模型,并據(jù)此得到場(chǎng)景的運(yùn)動(dòng)復(fù)雜度;在隨后的測(cè)量中,根據(jù)前景檢測(cè)結(jié)果更新場(chǎng)景運(yùn)動(dòng)復(fù)雜度.然后利用最大熵閾值分割方法對(duì)場(chǎng)景圖像的像素進(jìn)行分類(lèi),將場(chǎng)景圖像分為穩(wěn)定區(qū)域和動(dòng)態(tài)區(qū)域,形成差異性明顯的掩碼圖像,再對(duì)不同區(qū)域采用不同的高斯模型及更新算法.實(shí)驗(yàn)結(jié)果表明,該模型能夠保證分割效果,減少分割運(yùn)算時(shí)間,提高系統(tǒng)的實(shí)時(shí)性,但模型的初始化耗時(shí)較長(zhǎng).文中使用較大的前景面積變化閾值以減少掩碼圖像更新的次數(shù),這在大多數(shù)場(chǎng)合是適用的.像素顏色值的二義性、前景陰影的誤檢等問(wèn)題有待進(jìn)一步研究.

[1]Wren C,Azarbayejani A,Darrell T,et al.Pfinder:realtime tracking of the human body[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(7):780-785.

[2]Stauffer C,Grimson W E L.Adaptive background mixture models for real-time tracking[C]∥Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Fort Collins:IEEE,1999:246-252.

[3]Power P Wayne,Schoonees Johann A.Understanding background mixture models for foreground segmentation[C]∥Proceedings Image and Vision Computing.New Zealand:University of Auckland,2002:267-271.

[4]KaewTraKulPong P,Bowden R.An improved adaptive background mixture model for real-time tracking with shadow detection[C]∥Proceedings of the 2nd European Workshop on Advanced Video Based Surveillance Systems.London:Kluwer Academic Publishers,2001:1-5.

[5]Lee D.Effective Gaussian mixture learning for video background subtraction [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(5):827-832.

[6]Zivkovic Z.Improved adaptive Gaussian mixture model for background subtraction[C]∥Proceedings of the 17th International Conference on Pattern Recognition.Cambridge:IEEE,2004:28-31.

[7]Elgammal A,Duraiswami R,Harwood D,et al.Background and foreground modeling using nonparametric kernel density estimation for visual surveillance[C]∥Proceedings of the IEEE,2002,90(7):1151-1163.

[8]宋佳聲.動(dòng)態(tài)場(chǎng)景的自適應(yīng)高斯混合模型的研究[J].計(jì)算機(jī)工程與應(yīng)用,2012,48(1):8-12.Song Jia-sheng.Study of adaptive Gaussian mixture models for dynamic scenes[J].Computer Engineering and Applications,2012,48(1):8-12.

[9]Li Dawei,Xu Lihong,Goodman Erik.Online background learning for illumination-robustforeground detection[C]∥Proceedings of the 11th International Conference on Control,Automation,Robotics and Vision.Singapore:IEEE,2010:1093-1100.

[10]Bouttefroy P L M,Bouzerdoum A,Phung S L,et al.On the analysis of background subtraction techniques using Gaussian mixture models[C]∥Proceedings of the 35th International Conference on Acoustics,Speech,and Signal Processing.Dallas:IEEE,2010:4025-4045.

[11]Lin Horng-hong,Chuang Jen-Hui,Liu Tyng-Luh.Regularized background adaptation:a novel learning rate control scheme for Gaussian mixture modeling[J].IEEE Transactions on Image Processing,2011,20(3):822-836.

[12]常曉夫,張文生,董維山.基于多種類(lèi)視覺(jué)特征的混合高斯背景模型[J].中國(guó)圖象圖形學(xué)報(bào),2011,16(5):829-834.Chang Xiao-fu,Zhang Wen-sheng,Dong Wei-shan.Mixture of Gaussian background modeling method based on multi-category visual features[J].Journal of Image and Graphics,2011,16(5):829-834.

[13]白向峰,李艾華,李喜來(lái).新型背景混合高斯模型[J].中國(guó)圖象圖形學(xué)報(bào),2011,16(6):983-988.Bai Xiang-feng,Li Ai-hua,Li Xi-lai.A novel background Gaussian mixture model[J].Journal of Image and Graphics,2011,16(6):983-988.

[14]Gorur P,Amrutur B.Speeded up Gaussian mixture model algorithm for background subtraction[C]∥Proceedings of the 8th IEEE International Conference on Advanced Video and Signal Based Surveillance.Klagenfurt:IEEE,2011:386-391.

[15]Chen Z,Ellis T.Self-adaptive Gaussian mixture model for urban traffic monitoring system[C]∥Proceeding of IEEE InternationalConferenceon ComputerVision Workshops.Barcelona:IEEE,2011:1769-1776.

[16]苗東升.論復(fù)雜性 [J].自然辯證法通訊,2000,22(6):87-92.Miao Dong-sheng.On complexity[J].Journal of Dialectics of Nature,2000,22(6):87-92.

[17]張學(xué)文.組成論[M].合肥:中國(guó)科學(xué)技術(shù)大學(xué)出版社,2003:19-87.

猜你喜歡
掩碼前景高斯
小高斯的大發(fā)現(xiàn)
我國(guó)旅游房地產(chǎn)開(kāi)發(fā)前景的探討
四種作物 北方種植有前景
離岸央票:需求與前景
天才數(shù)學(xué)家——高斯
低面積復(fù)雜度AES低熵掩碼方案的研究
基于布爾異或掩碼轉(zhuǎn)算術(shù)加法掩碼的安全設(shè)計(jì)*
量子糾纏的來(lái)歷及應(yīng)用前景
太空探索(2016年10期)2016-07-10 12:07:01
基于掩碼的區(qū)域增長(zhǎng)相位解纏方法
有限域上高斯正規(guī)基的一個(gè)注記
景洪市| 榆中县| 武宣县| 东平县| 葫芦岛市| 韶山市| 保康县| 红河县| 华阴市| 连山| 泽州县| 汤阴县| 夹江县| 乡宁县| 利辛县| 陇西县| 永春县| 卢氏县| 安阳县| 山东省| 翼城县| 麟游县| 罗山县| 进贤县| 乌审旗| 红河县| 嘉兴市| 青海省| 瑞金市| 洪雅县| 台南县| 南昌市| 南溪县| 南开区| 孙吴县| 鹤壁市| 中江县| 剑河县| 平果县| 景德镇市| 锡林郭勒盟|