国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

面向視頻傳感器網(wǎng)絡(luò)的視頻壓縮方法設(shè)計

2015-05-30 10:48:04陳龍飛余濤
計算機時代 2015年4期

陳龍飛 余濤

摘 要: 視頻傳感器網(wǎng)絡(luò)在監(jiān)控過程中會產(chǎn)生大量數(shù)據(jù),為此提出一種改進的基于對象的視頻壓縮方法。首先,運用改進的混合高斯模型進行背景建模;其次,提出宏塊分類方法,對視頻幀圖像進行宏塊分類;然后,利用宏塊分類結(jié)果,實現(xiàn)前景和背景的分離;最后,分別對前景和背景進行壓縮,形成各自的編碼流。實驗結(jié)果表明,該方法具有比MPEG-4更強的壓縮能力,滿足視頻傳感器網(wǎng)絡(luò)的視頻壓縮需求。

關(guān)鍵詞: 視頻傳感器網(wǎng)絡(luò); 視頻壓縮; 混合高斯; 背景減除法; 視頻對象

中圖分類號:TP391.4 文獻標(biāo)志碼:A 文章編號:1006-8228(2015)04-06-03

Abstract: In the monitoring process, the video sensor networks will produce large amounts of data. For this problem, this paper presents an improved method for object-based video compression. Firstly, the improved Gaussian mixture model is used to model background. Secondly, macroblock classification method is proposed to classify the macroblock of video frame image. Thirdly, the results of macroblock classification is used to realize the separation between foreground and background. Finally, foreground and background are separately compressed to form a respective encoded streams. Experimental results show that the method is stronger than the MPEG-4 and meet the needs of video compression in video sensor networks.

Key words: video sensor networks; video compression; GMM; background subtraction; video object

0 引言

視頻傳感器網(wǎng)絡(luò)(video sensor network,VSN)作為無線傳感器網(wǎng)絡(luò)的典型應(yīng)用實例[1],具有重要的研究價值和應(yīng)用意義。VSN主要應(yīng)用于視頻監(jiān)控的各個領(lǐng)域,如智能交通、環(huán)境監(jiān)測、公共安全和緊急救援等。VSN在幫助人們獲得豐富的視頻信息資源的同時,也產(chǎn)生了海量的數(shù)據(jù),不利于視頻的傳輸和存儲,因此對其進行壓縮具有重大意義。文獻[2]采用MJPEG2000編碼方法,只進行幀內(nèi)編碼,編碼簡單,但壓縮能力有限。文獻[3]采用MPEG-4編碼方法,利用了運動補償技術(shù)進行幀間編碼,進一步提高編碼能力。文獻[4]考慮到前景與背景間的不同,分別對前景對象和背景采用MPEG-4和JPEG2000進行編碼,編碼能力得到極大提高,缺點是采用兩種不同的編碼方案,額外增加了VSN的資源開銷。本文提出一種改進的基于對象的視頻編碼方法,結(jié)合背景減除法和改進的混合高斯背景建模方法,對當(dāng)前幀圖像進行宏塊分類,實現(xiàn)前景與背景的分離,形成各自獨立的編碼流。

1 方法概述

從監(jiān)控目的出發(fā),視頻幀圖像可以分為有研究價值的監(jiān)控對象和起參考作用的背景[5]。其中,監(jiān)控對象是主要研究對象,壓縮時要盡量保持不失真;而背景不是主要研究對象,可以進行高比率壓縮。本文的視頻壓縮算法的流程如圖1所示。首先利用改進的高斯混合模型進行背景的建模與更新;再運用背景減除法,通過比較當(dāng)前幀和參考背景之間的不同,對當(dāng)前幀中的宏塊進行分類;然后,根據(jù)宏塊的分類結(jié)果,構(gòu)建純背景圖像和提取前景對象;最后,根據(jù)MPGE-4編碼框架,對前景對象進行形狀編碼、紋理編碼和運動編碼,而對背景進行高比率的幀內(nèi)編碼。

2 背景減除法

運動目標(biāo)檢測方法一般分為光流法、幀間差分法和背景減除法三種[6]。光流法計算十分復(fù)雜,運算量巨大,且抗噪性能比較差,難以滿足實時性檢測。幀間差分法雖然運算簡單,實時性好,但往往不能完整提取運動對象。而背景減除法可以提取出完整的運動目標(biāo),運算復(fù)雜度不高,且實時性較好,是固定攝像機下運動目標(biāo)檢測最常用的方法。

背景減除法的困難點在于,背景可能是動態(tài)變化的,引起背景變化的原因包括背景自然景物的擾動、光照的變化和攝像機的輕微晃動等。因此,如何在背景存在變化的情況下,建立起具有魯棒性的背景模型是背景減除法的關(guān)鍵所在。

3 基于混合高斯的背景建模

在眾多背景建模方法中,混合高斯模型(Gaussian Mixture Model,GMM)能有效地對背景進行建模,并能隨著背景的變化而自適應(yīng)調(diào)整。因此,在背景減除法的運動目標(biāo)檢測中經(jīng)常采用GMM為其背景建模。前期GMM通常采用EM算法估計混合高斯模型參數(shù),但由于EM算法固有的缺陷限制了其應(yīng)用,目前GMM基本采用在線K均值估計的統(tǒng)計建模方法[7]。本文采用GRIMSON等人提出的混合高斯模型方法對顏色特征進行建模,并針對其學(xué)習(xí)率α是固定的缺點進行改進。

4 宏塊分類

根據(jù)當(dāng)前幀與參考背景幀之間的不同,可以將當(dāng)前幀中的宏塊分為四種類型:含有運動對象像素點的運動對象宏塊,記為oMB;與oMB相對應(yīng)的,被運動對象遮擋的背景宏塊,記為pMB;背景區(qū)域的變化是由噪聲引起的靜態(tài)背景宏塊,記為sMB;由光照和景物干擾(如水面波紋,樹枝晃動)等引起變化的動態(tài)背景宏塊,記為dMB。其中,pMB主要是為了后面構(gòu)造純背景圖像而提出的。判斷準(zhǔn)則如下:

⑴ 當(dāng)SAD=0時,將宏塊標(biāo)記為sMB;

⑵ 當(dāng)0

⑶ 當(dāng)SAD>TH時,將宏塊標(biāo)記為oMB,通過參考背景圖像對應(yīng)位置上的宏塊就可以獲得pMB。

然后,在確定了集合S1中所有塊的狀態(tài)后,再對集合S0進行處理。由于集合S0中的每一個宏塊的上下左右四個相鄰塊均屬于集合S1,這四個相鄰宏塊的狀態(tài)已經(jīng)確定。因此本文采用如下的方法來判定集合S0塊的狀態(tài):當(dāng)四個相鄰塊中有兩個或者兩個以上的狀態(tài)為oMB時,則判定這個屬oMB,否則判定為sMB。

5 建立純背景圖像和提取運動對象

6 MPEG-4編碼的實現(xiàn)

當(dāng)前,最常用的MPEG-4視頻編碼器有兩種:OpenDivX和Xvid,其中Xvid是從OpenDivX上發(fā)展而來的,并且開放源代碼。因此,本文在寫入視頻時采用Xvid編碼器來實現(xiàn)。OpenCV是一個開源的跨平臺的計算機視覺庫,集成了大量的視頻編碼算法,用于進行視頻編碼設(shè)置,其函數(shù)如下:

cvCreateVideoWriter(filename,fourcc,fps,frame_size,int is_color=1) ⑻

其中,filename指明了待存儲的視頻文件名;fourcc表明壓縮格式,本文在此處設(shè)為-1,結(jié)合Xvid編碼器,根據(jù)需要設(shè)置編碼方式和相關(guān)參數(shù);fps是被創(chuàng)建視頻流的幀率;frame_size是視頻流的大??;is_color=1表明寫入彩色幀。

7 實驗結(jié)果與分析

本實驗所使用的計算機性能是Intel(R) Core(TM)i5-2400 CPU @ 3.0 GHz 3 GHz,4 GB的內(nèi)存,windows7操作系統(tǒng),編程工具采用Microsoft Visual Studio 6.0,視覺庫為OpenCV1.0,并調(diào)用Xvid編碼器。

首先,魯棒性的背景模型是實現(xiàn)運動對象和背景分離的難點和關(guān)鍵所在。本文采用基于混合高斯的背景建模方法,其改進前后的效果比較如圖3所示,改進的方法能更接近真實的場景背景。

其次,基于16×16像素大小的宏塊改進方法,減少了計算量,降低了VSN節(jié)點資源的消耗,其分類效果如圖4所示。

最后,根據(jù)MPEG-4的編碼框架思想調(diào)用Xvid編碼器,對純背景圖像和運動對象分別進行壓縮,形成各自獨立的編碼流。在視頻格式、分辨率、播放速度和時間都不發(fā)生變化的條件下,該方法的實驗結(jié)果如表1所示。壓縮后的視頻大小比原文件減小3769KB,與經(jīng)過MPEG-4壓縮的視頻相比減小760KB,這表明本文方法具有更高的壓縮效果。

8 結(jié)束語

本文采用一種基于對象的視頻壓縮的改進方法。該方法結(jié)合背景減除法的思想和高斯混合背景模型,并對運動檢測方法進行改進;對視頻幀中的宏塊進行分類,再利用分類的結(jié)果,構(gòu)建純背景,分離前景對象和背景;最后對前景對象和背景分別進行壓縮,形成各自獨立的編碼流。實驗結(jié)果表明,該方法具有較好的壓縮效果,適合視頻傳感器網(wǎng)絡(luò)上的視頻壓縮。同時,對于復(fù)雜背景的建立和更新具有很好的魯棒性。然而,仍然存在一些待解決的問題,如對靜止宏塊和噪聲宏塊的閾值選取,如何在不增加計算量的情況下,做到閾值的自適應(yīng),這也是下一步研究的重點。

參考文獻:

[1] 蔡康.視頻傳感器網(wǎng)絡(luò)應(yīng)用關(guān)鍵技術(shù)研究[D].華南理工大學(xué),2012.

[2] J. Meessen, C. Parisot, X. Desurmont, and J.-F. Delaigle, “Sceneanalysis for reducing motion JPEG 2000 video surveillance delivery bandwidth and complexity,” in Proc. IEEE Int. Conf. Image Processing, Genova, Italy, Sep. 2005.

[3] A. Vetro, T. Haga, K. Sumi, and H. Sun, “Object-based codingfor long-term archive of surveillance video,” in Proc. IEEE Int. Conf. Multimedia and Expo, Jul. 2003.2:417-420

[4] R. V. Babu and A. Makur, “Object-based surveillance video compression using foreground motion compensation,” in Proc. IEEE Int. Conf. Control, Automation, Robotics and Vision,2006.12:1-6

[5] 劉雪冬,李慶,毛瑞雪.基于增強對象的監(jiān)控視頻編碼算法[J].計算機工程,2011.13:224-226

[6] 李鴻.基于混合高斯模型的運動檢測及陰影消除算法研究[D].中國民航大學(xué),2013.

[7] C. Stauffer and W. Grimson, “Adaptive background mixturemodels for real-time tracking,”in Proc. IEEE Conf. Computer Vision and Pattern Recognition,1999.2:246-252

[8] 熊哲源.無線多媒體傳感器網(wǎng)絡(luò)圖像編碼算法研究[D].中南大學(xué),2012.

许昌市| 富源县| 洛川县| 井陉县| 玉林市| 临朐县| 花莲市| 上栗县| 宜兰市| 阿尔山市| 仁布县| 辽宁省| 池州市| 柘城县| 合川市| 宁波市| 洪江市| 天峨县| 祥云县| 温泉县| 韩城市| 长子县| 白城市| 深泽县| 安宁市| 南乐县| 乌拉特前旗| 随州市| 鄂托克旗| 澜沧| 开阳县| 聊城市| 托克逊县| 津市市| 观塘区| 余江县| 水富县| 永登县| 浪卡子县| 曲水县| 渭源县|