国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于高斯混合模型的光照自適應背景減法

2012-11-22 03:40:20楊文濤鄭國柱鄭立新楊雪
湖北大學學報(自然科學版) 2012年3期
關(guān)鍵詞:高斯分布像素點高斯

楊文濤,鄭國柱,鄭立新,楊雪

(1.華中科技大學電子科學與技術(shù)系,湖北 武漢 430074;2.School of Electronic Engineering,Columbia University,NewYork,USA)

隨著社會的不斷發(fā)展,智能化的監(jiān)控系統(tǒng)在工業(yè)生產(chǎn)、交通監(jiān)控、銀行安全等各個領(lǐng)域起著越來越重要的作用,實時視頻監(jiān)控系統(tǒng)越來越受到青睞. 在實時視頻監(jiān)控系統(tǒng)的應用中,從視頻序列準確地實時獲得運動的物體非常關(guān)鍵,要求運動物體檢測算法有足夠快的處理速度和良好的提取效果.目前有很多典型算法實現(xiàn)視頻序列中的運動物體提取,如高斯混合模型[1-8]、時間差分法[9-10]、非參數(shù)模型[11]、中值濾波法[12]等算法,每種算法都有自己的優(yōu)點和不足.

本文中提出基于高斯混合模型的帶有光照自適應的背景減法,對快速光照變化下的前景提取有較好的處理效果. 采用每次只關(guān)心適合設(shè)定條件的那部分包含背景的單高斯分布,只更新感興趣的那部分高斯分布,另一部分不感興趣的高斯分布在高斯混合模型中的權(quán)重很小,幾乎不影響像素點場景的整體分布和背景分布,可以忽略其對背景提取的影響,這樣可以在不影響背景更新的情況下減少要更新的高斯分布. 由于引入了背景圖像光照補償,由光照變化引起的輸入視頻圖像亮度的變化而引起的前景提取錯誤的情況可以得到更好的處理.

1 算法分析

1.1算法思想為了在光照快速變化時能得到更好的分割效果,并且減少運算量,本文中考慮用一種改進的基于高斯混合模型的背景減法. 對每個像素點用不固定個數(shù)且不超過5個的高斯分布來模擬像素點的場景分布,對每個像素點的像素值的分布的更新分3個階段,每個階段都衰減一些不感興趣的高斯分布,這樣每個像素點的感興趣的高斯分布的個數(shù)會隨時間而衰減直至只有穩(wěn)定個數(shù)的包含背景分布的高斯分布.從感興趣的高斯分布中得到背景,對提取的背景進行光照補償,然后進行背景減法,從而減少運算量,改善背景減法的效果.

1.2 算法實體

1.2.1 算法初始化 第一幀圖像到來時每個像素點用一個高斯分布初始化

X0為第一幀圖像的像素值,μk=0,t=0=X0為第一幀圖像的像素點高斯分布的均值,σk=0,t=0=30為標準差,ωk=0,t=0=1為權(quán)重.

1.2.2 獲取感興趣的高斯分布集合 初始化完成后,從輸入視頻中,每得到一幀圖像就去更新每個像素點的高斯混合分布.為了衰減要更新的高斯分布的個數(shù),把參數(shù)更新分為3個階段,在每一個階段通過高斯分布的的權(quán)重ωi,t-1>Tw,找出對應于每個像素點的感興趣的高斯分布集合,這些高斯分布的參數(shù)是要更新的,第一階段的權(quán)重經(jīng)驗閾值取0.025,第二階段取0.050,第三階段取0.100.根據(jù)閾值得到每個階段幀數(shù)的下限值,從而知道每個階段是哪些幀.

不同的更新階段是通過幀數(shù)來劃分的.更新的第一個階段,是從第一幀到第Tfr幀,感興趣的分布的權(quán)重閾值經(jīng)驗值Tw=0.025.根據(jù)改進的算法的參數(shù)更新方法及公式(3)-(11),基于通過權(quán)重選取感興趣高斯分布的原則,取閾值Tw=0.025,希望感興趣的高斯分布包含了背景信息的一個分布集合,并且這個集合在前40幀生成. 這個集合實際上是把像素點的場景分布較完整的逼近,包括了背景、移動物體、影子等. 如果在第一階段的第40幀后出現(xiàn)了一個像素值,根據(jù)更新條件,若這個像素值無法更新集合里的高斯分布,則這個像素值將不會產(chǎn)生作用,因為感興趣的高斯分布只在集合里. 交通正常的情況下,40幀的圖像里面可以包含豐富的背景信息,40幀后的輸入圖像可以用于對已經(jīng)得到的背景分布進行參數(shù)微調(diào),這些微調(diào)通常是緩慢場景變化造成的.

為了得到第一階段幀數(shù)的下限,可以考慮一種極端情況,在第40幀,像素點的輸入像素值正好無法更新高斯分布集合,增加一個權(quán)重為0.025的高斯分布. 考慮特殊情況,因為逼近像素點場景分布的高斯分布最多為5個,而權(quán)重和為1,權(quán)重最大的高斯分布的權(quán)重大于(1-Tw)/4,約為0.25,背景分布的權(quán)重會≥0.25,這里假定權(quán)重最大的背景高斯分布fbg在40幀后一直沒有可以更新它的像素值出現(xiàn)直至第Tfr幀. 為了在集合里充分保留所有的描述背景的分布,希望這個分布在第二個更新階段前未被衰減掉,根據(jù)更新標識為i的高斯分布的更新方式,fbg的權(quán)重從第40幀開始衰減的公式為:

ωn=40ω40/n,n>40

(1)

fbg分布在第n幀的權(quán)重為ωn,在更新的第二階段,舍去權(quán)重小于經(jīng)驗閾值為0.05的高斯分布,所以第二階段之前fbg的權(quán)重經(jīng)驗閾值應不小于0.05 ,fbg才有機會進入第二階段的更新從而穩(wěn)定已經(jīng)形成的高斯分布集合里的背景高斯分布,讓已經(jīng)存在的背景分布盡可能的存在于每一個更新階段中,即到第Tfr幀時,fbg的權(quán)重要不小于0.05,由公式(1)得到n≤200,取Tfr=200.

第二階段,在已有的高斯分布集合里進一步舍去不是描述背景的高斯分布. 在第Tfr幀到Tfr2幀取感興趣分布的權(quán)重經(jīng)驗閾值Tw為0.05,為了得到第二階段的幀數(shù)下限,根據(jù)第一階段的特殊情況處理方式,根據(jù)公式(4)、公式(7)和公式(9),從第Tfr幀開始衰減的公式為:

ωn=200ω200/n,n>200

(2)

背景分布fbg分布在第n幀的權(quán)重為ωn,因為第三階段感興趣分布的權(quán)重經(jīng)驗閾值為0.1, 希望背景分布在這個階段前不被衰減掉,即到第Tfr2幀時fbg權(quán)重要不小于0.1,由公式(2)得到n≤500,取閾值Tfr2為500.

第三階段,取感興趣分布的權(quán)重經(jīng)驗閾值為0.1,進一步衰減不是背景的高斯分布.

(3)

此時刻這個像素點的場景分布用N個高斯分布來描述. 在第t幀用像素值分別減去感興趣的每個單高斯分布的期望值,如果|Xt-μi,t-1|≤2.5σi,t-1,那么這個像素值可以更新標識為i的高斯分布,更新方式如下:ωi,t=(1-α)ωi,t-1+α

(4)

μi,t=(1-ρ)μi,t-1+ρXt

(5)

(6)

(7)

(8)

感興趣的高斯分布但是當前標識不為i,只更新權(quán)重,ωj,t=(1-α)ωj,t-1,j≠i

(9)

更新后,對權(quán)重歸一化.

在第一階段前40幀中,如果第t幀的像素點(x,y)的像素值無法更新感興趣的k個高斯分布,就替換或增加一個單高斯分布μk+1,t=Xt,σk+1,t為一個小的初始值30,

(10)

(11)

對權(quán)重歸一化,感興趣的高斯分布和新的高斯分布成為這個像素點的高斯混合分布.

1.2.4 背景圖像的光照補償 通常情況下,普通的高斯混合模型能夠描述比較復雜的場景,能夠比較好的處理視頻里有緩慢移動物體或光照緩慢變化的情況,但是在光照突變等產(chǎn)生的輸入視頻圖像整體亮度快速變化而高斯混合模型的背景來不及更新的時候,前景提取就會產(chǎn)生錯誤.

本文中提出的帶有光照自適應改進的高斯混合模型,減少了由這些因素引起的前景提取錯誤,對輸入的圖像和對應的從本文中改進的高斯混合模型提取的背景圖像灰度化,分別從這兩幀圖像抽取若干個坐標對應的點,這些點盡量選擇輸入視頻圖像的背景像素點. 首先通過邊緣算法得到輸入視頻圖像的邊緣圖像,通過在輸入視頻的邊緣圖像按等間距行等間距列的取點,行距為drow=heightimg/40,如果所在行是奇數(shù)行,就從右向左每隔widthimg/80個像素點取一個點,取點的列坐標范圍為(2widthimg/3,widthimg),如果是偶數(shù)行,從左向右每隔widthimg/80個像素點取點,取點的列坐標范圍為(0,widthimg/3).

(12)

(13)

取點求和結(jié)束后取得這兩個和的差值,計算這兩個和的差值對于所取的像素點個數(shù)pixelcount的平均值,Ecps=(sumin-sumbg)/pixelcount

(14)

為了減少光照突變時引起的前景提取錯誤,把這個平均值加入背景減法時背景灰度圖像每個像素點的灰度值,作為對背景圖像的光照補償.

1.2.5 背景減法提取前景 在第t幀圖像輸入前,首先獲取經(jīng)過光照補償?shù)谋尘盎叶葓D像,用輸入的第t幀灰度圖像減去t時刻的背景灰度圖像,當某個像素點的灰度值差值大于經(jīng)驗閾值Tforeground時,取閾值為20,并認為這個點是前景像素點.

2 實驗仿真

帶有光照自適應改進的高斯混合模型在320*240交通視頻和關(guān)燈測試視頻下測試.用本文中改進的高斯混合模型算法,交通視頻中每一幀圖像高斯混合模型中像素點個數(shù)隨高斯分布個數(shù)的增加而逐漸減少,運算量隨幀數(shù)增加而減小,如表1所示.

表1 圖像的高斯分布個數(shù)隨幀數(shù)的變化

表2 交通視頻序列中不同的灰度差值所占的幀數(shù)

由于光照變化,交通視頻輸入圖像和本文中改進的算法提取的背景在灰度上的差值,如表2所示. 從實驗中得到,由于光照變化,交通視頻的第1126幀輸入視頻和用高斯混合模型提取的背景的灰度值相差15.

圖1、圖2、圖3顯示的是本文中改進的高斯混合模型算法與普通的高斯混合模型算法的實驗結(jié)果的比較.圖1(a)原視頻圖像第1126幀,圖1(b)普通的高斯混合模型提取的背景圖像,圖1(c)普通的高斯混合模型提取的前景圖像. 圖2(a)原視頻圖像第1126幀,圖2(b)本文中改進的高斯混合模型算法提取的背景圖像,圖2(c)本文中改進的高斯混合模型算法提取的前景圖像.圖3(a)突然關(guān)燈后的的場景,圖3(b)普通的高斯混合模型在關(guān)燈后提取的背景,圖3(c)本文中改進的高斯混合模型算法在關(guān)燈后提取的背景.

3 結(jié)論

在Core(TM)2 Duo 2.0 GHz 處理器2.0 G內(nèi)存的機器VC++ 6.0平臺上做對比實驗,在光照突然變化等環(huán)境下造成的輸入視頻圖像整體的亮度突然變化時,帶有光照自適應的改進的高斯混合模型的背景減法的前景提取效果比普通的高斯混合模型好,從實驗可以看出,用改進的基于高斯混合模型的背景減法處理輸入視頻圖像幀率比用普通的高斯混合模型處理輸入視頻圖像幀率要高22.5%以上. 當算法程序運行足夠長的時間后,出現(xiàn)一個物體長期停在某個地方的情況,停留的物體將不會被認為是背景,這樣會造成錯誤. 只有再重新初始化,才會消除這種錯誤,所以這對算法初始化有一定的要求,在交通非堵塞的時候初始化比較適宜.

[1] Stauffer C, Grimson W. Adaptive background mixture models for real-time tracking[C].Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Fort Collins, Colorado, 1999:246-252.

[2] Piccardi M. Background subtraction techniques:a review[J].Proc of IEEE Int Conf Syst, Man Cybern, Hague, Netherlands, 2004:3099-3104.

[3] Zivkovic Z. Improved adaptive gaussian mixture model for background subtraction[J] .Proc International Conf:Pattern Recognition, 2004,2:28-31.

[4] Shen C, Lin X, Shi Y. Moving object tracking under varying illumination conditions[J].Pattern Recognition Letters, 2006,27(14):1632-1643.

[5] Mcivor A. Background subtraction techniques[J].In Proceedings of Image & Vision Computing New Zealand 2000 IVCNZ’, Reveal Limited, Auckland, New Zealand,2000:182-185.

[6] 楊莉,張弘,李玉山.視頻運動對象的自動分割[J].計算機輔助設(shè)計與圖報, 2004,16 (3):3012306.

[7] 劉潔,張東來.關(guān)于自適應高斯混合背景模型的更新算法的研究[J].微計算機信息, 2006, 22 (22):241-242.

[8] 李紅寶,徐建閩,林培群,等. 交通視頻背景估計動態(tài)高斯混合模型[J].交通信息安全, 2009,4:8-11.

[9] Harville M. A framework for high-level feedback to adaptive, per-pixel mixture-of-Gaussian background models[C].Proceedings of European Conference on Computer Vision. Copenhagen, Denmark, 2002, 3:543-560.

[10] Cucchiara R, Piccardi M, Prati A. Detecting moving objects, ghosts,and shadows in video streams[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(10):1337-1342.

[11] Elgammal A, Harwood D, Davis L. Non-parametric model forbackground subtraction[C].Proceedings of International Conference on Computer Vision, Kerkyra, Greece, 1999:751-767.

[12] Cutler R, Davis L. View-based detection[C].Proceedings of International Conference on Pattern Recognition,Brisbane, Australia, 1998:495-500.

猜你喜歡
高斯分布像素點高斯
小高斯的大發(fā)現(xiàn)
利用Box-Cox變換對移動通信中小區(qū)級業(yè)務(wù)流量分布的研究
2種非對稱廣義高斯分布模型的構(gòu)造
天才數(shù)學家——高斯
基于canvas的前端數(shù)據(jù)加密
一種基于改進混合高斯模型的前景檢測
基于逐像素點深度卷積網(wǎng)絡(luò)分割模型的上皮和間質(zhì)組織分割
有限域上高斯正規(guī)基的一個注記
基于Node-Cell結(jié)構(gòu)的HEVC幀內(nèi)編碼
一種改進的混合高斯模型背景估計方法*
万全县| 平果县| 慈溪市| 洮南市| 湖州市| 新干县| 滨海县| 宜春市| 府谷县| 长治县| 察雅县| 新建县| 札达县| 裕民县| 内江市| 高淳县| 麻城市| 尼勒克县| 淄博市| 临颍县| 太谷县| 金坛市| 正宁县| 荃湾区| 永宁县| 沽源县| 连山| 灵川县| 寿宁县| 荃湾区| 孟津县| 沁源县| 安远县| 合江县| 湖州市| 简阳市| 农安县| 安阳市| 蓝山县| 石城县| 宁城县|