郭繼昌,許 穎,鞏家昌
(天津大學(xué)電子信息工程學(xué)院,天津 300072)
一種高效低時(shí)延的多視點(diǎn)分布式視頻編碼
郭繼昌,許 穎,鞏家昌
(天津大學(xué)電子信息工程學(xué)院,天津300072)
分布式視頻編碼是一種可以將編碼端復(fù)雜度轉(zhuǎn)移到解碼端的視頻編碼方式.多視點(diǎn)分布式視頻編碼在視點(diǎn)內(nèi)部大都采用運(yùn)動(dòng)補(bǔ)償內(nèi)插法來(lái)降低時(shí)間冗余,但是因?yàn)檫\(yùn)動(dòng)補(bǔ)償內(nèi)插法的解碼順序與視頻順序不一致,從而導(dǎo)致視頻解碼出現(xiàn)時(shí)延.因此,基于運(yùn)動(dòng)補(bǔ)償外推法提出了一種高效低時(shí)延的多視點(diǎn)分布式視頻編解碼方法.此外,一般運(yùn)動(dòng)補(bǔ)償外推法的重構(gòu)質(zhì)量要低于運(yùn)動(dòng)補(bǔ)償內(nèi)插法.在使用運(yùn)動(dòng)補(bǔ)償外推法降低時(shí)間冗余的基礎(chǔ)上,使用視差矢量?jī)?nèi)插法降低視點(diǎn)間冗余,經(jīng)過(guò)融合算法提高重構(gòu)質(zhì)量.實(shí)驗(yàn)證明,所提出的這種高效低時(shí)延的多視點(diǎn)分布式視頻編碼,在重構(gòu)質(zhì)量相當(dāng)?shù)那闆r下,解碼時(shí)間降低了0.3,s.
分布式視頻編碼;多視點(diǎn);低時(shí)延;運(yùn)動(dòng)補(bǔ)償外推法;重構(gòu)質(zhì)量
分布式視頻編碼(distributed video coding,DVC)是1976年由Slepian和Wolf[1]、Wyner和Ziv[2]以信息編碼理論方式提出的,典型的編碼算法有斯坦福大學(xué)提出的Wyner-Ziv視頻編碼[3]、加州大學(xué)伯克利分校提出的PRISM視頻編碼[4]以及歐洲D(zhuǎn)ISCOVER組提出的DISCOVER視頻編碼[5].這些分布式視頻編碼都是在編碼端對(duì)各個(gè)視頻幀進(jìn)行獨(dú)立編碼,編碼方式類(lèi)似于傳統(tǒng)的幀內(nèi)編碼.在解碼端,利用相鄰解碼幀之間時(shí)域的高度相關(guān)性,對(duì)解碼幀進(jìn)行運(yùn)動(dòng)估計(jì),通過(guò)運(yùn)動(dòng)補(bǔ)償插值法獲得邊信息,然后利用邊信息和從編碼端傳送過(guò)來(lái)的輔助校驗(yàn)信息進(jìn)行解碼,最后獲得高質(zhì)量的重構(gòu)幀.
針對(duì)多視點(diǎn)分布式視頻編碼,Ouaret等[6]和Guo等[7]提出的多視點(diǎn)分布式視頻編碼系統(tǒng)中,視點(diǎn)分為關(guān)鍵視點(diǎn)和非關(guān)鍵視點(diǎn),僅非關(guān)鍵視點(diǎn)采用DVC編解碼方法,沒(méi)有充分利用多個(gè)視點(diǎn)間的相關(guān)性;Huang等[8]提出的多視點(diǎn)分布式視頻編碼系統(tǒng)中,視點(diǎn)也分為關(guān)鍵視點(diǎn)與非關(guān)鍵視點(diǎn),在非關(guān)鍵視點(diǎn)內(nèi)部通過(guò)外推法獲得邊信息,雖然沒(méi)有充分利用視點(diǎn)間的相關(guān)性,但在一定程度上降低了系統(tǒng)時(shí)延;Kodavalla等[9]提出的多視點(diǎn)分布式視頻編碼中,時(shí)間邊信息的獲取是通過(guò)運(yùn)動(dòng)補(bǔ)償內(nèi)插法(MCI),系統(tǒng)存在一定的解碼時(shí)延;武曉嘉等[10]提出了一種多視點(diǎn)立體視頻分布式壓縮感知編解碼模型,這種模型可以利用壓縮感知降低采樣率,利用分布式信源編碼將編碼端的復(fù)雜度轉(zhuǎn)移到解碼端.但在這種模型中,非關(guān)鍵幀的時(shí)間邊信息采用運(yùn)動(dòng)補(bǔ)償內(nèi)插法,在解碼端產(chǎn)生一定的解碼時(shí)延.
筆者提出的多視點(diǎn)分布式視頻編碼是基于DISCOVER結(jié)構(gòu)的,編碼端獨(dú)立編碼,解碼端聯(lián)合解碼.在解碼端采用運(yùn)動(dòng)補(bǔ)償外推法(MCE)來(lái)降低時(shí)間冗余,且運(yùn)動(dòng)補(bǔ)償外推法的解碼順序與顯示順序一致,大大降低了視頻的解碼時(shí)延.在視點(diǎn)間采用視差矢量?jī)?nèi)插法來(lái)降低視點(diǎn)間冗余,經(jīng)過(guò)融合算法,提高了重構(gòu)幀質(zhì)量.總之,這種高效低時(shí)延的多視點(diǎn)分布式視頻編碼方法,采用運(yùn)動(dòng)矢量外推法降低解碼時(shí)延,采用邊信息融合算法提高視頻的重構(gòu)質(zhì)量.在重構(gòu)質(zhì)量有限降低的情況下,大大降低了系統(tǒng)時(shí)延.
運(yùn)動(dòng)補(bǔ)償內(nèi)插法[11-13]是一種獲取時(shí)間邊信息的有效方法,但是它存在一個(gè)很大的缺陷,即它的解碼順序與顯示順序不一致.圖1是單個(gè)視點(diǎn)GOP=9時(shí)的解碼順序示意.
圖1 單個(gè)視點(diǎn)GOP=9的解碼順序示意Fig.1 Sketch map of monoview GOP=9 decoding order
如圖1所示,這個(gè)視頻的顯示順序是從左至右的,兩端的幀(關(guān)鍵幀,K幀)為已解碼幀,視頻的解碼順序是:1號(hào)、2號(hào)幀通過(guò)運(yùn)動(dòng)補(bǔ)償內(nèi)插法內(nèi)插得到3號(hào)幀的時(shí)間邊信息,解碼重構(gòu)3號(hào)幀;然后3號(hào)幀(非關(guān)鍵幀,WZ幀)作為已解碼幀,與1號(hào)幀內(nèi)插得到4號(hào)幀的時(shí)間邊信息,解碼重構(gòu)4號(hào)幀;1號(hào)幀與4號(hào)幀內(nèi)插得到5號(hào)幀的時(shí)間邊信息,解碼重構(gòu)5號(hào)幀,以此類(lèi)推.幀內(nèi)的標(biāo)號(hào)是采用運(yùn)動(dòng)補(bǔ)償內(nèi)插法解碼的順序.
運(yùn)動(dòng)補(bǔ)償內(nèi)插法采用雙向運(yùn)動(dòng)估計(jì)、運(yùn)動(dòng)補(bǔ)償,所以通過(guò)運(yùn)動(dòng)補(bǔ)償內(nèi)插法得到的時(shí)間邊信息質(zhì)量比運(yùn)動(dòng)補(bǔ)償外推法高一些.但是這是以犧牲解碼時(shí)延為代價(jià)的,解碼時(shí)延包括傳輸時(shí)延和解碼關(guān)鍵幀的時(shí)延.
圖2是基于DISCOVER結(jié)構(gòu)[5]的多視點(diǎn)分布式視頻編碼系統(tǒng)框圖,編碼端首先將各視點(diǎn)中的視頻序列分為兩類(lèi).一類(lèi)稱(chēng)為關(guān)鍵幀(K幀),采用傳統(tǒng)的H.264/AVC(類(lèi)似I幀)進(jìn)行編碼和解碼重構(gòu).另一類(lèi)稱(chēng)為非關(guān)鍵幀(WZ幀),WZ幀采用分布式視頻編碼方法對(duì)其進(jìn)行編碼:首先,將每一個(gè)WZ幀進(jìn)行基于塊的DCT變換,將變換后的系數(shù)進(jìn)行量化;然后按照量化系數(shù)進(jìn)行比特面排序后送到信道編碼器中,進(jìn)行信道編碼產(chǎn)生校驗(yàn)比特;最后編碼器部分將校驗(yàn)比特發(fā)送到解碼端.在解碼端,首先通過(guò)H.264/AVC對(duì)K幀解碼重構(gòu);根據(jù)已經(jīng)解碼的前2個(gè)K幀通過(guò)運(yùn)動(dòng)補(bǔ)償外推法生成時(shí)間邊信息,并根據(jù)與之相鄰的2個(gè)視點(diǎn)的K幀經(jīng)過(guò)視差矢量?jī)?nèi)插法獲得視點(diǎn)間邊信息,將視點(diǎn)間邊信息與時(shí)間邊信息進(jìn)行融合獲得最終的融合邊信息;將邊信息和原始WZ幀的差異看作是虛擬信道中的相關(guān)噪聲,利用Laplacian模型能夠很好地估計(jì)殘差的分布;接下來(lái)采用和編碼端相同的變換方法對(duì)邊信息依次進(jìn)行反量化,得到WZ幀變換系數(shù)的估值;利用虛擬噪聲模型計(jì)算出信息比特送入信道解碼器,信道解碼器根據(jù)編碼端傳過(guò)來(lái)的校驗(yàn)比特對(duì)邊信息進(jìn)行校驗(yàn);然后根據(jù)虛擬信道模型和邊信息系數(shù)實(shí)現(xiàn)非關(guān)鍵幀重構(gòu),最后通過(guò)IDCT變換得到WZ幀,和已解碼K幀一起通過(guò)多路復(fù)用得到最終解碼視頻流.
圖2 多視點(diǎn)分布式視頻編碼系統(tǒng)示意Fig.2 Multi-view distributed video coding system diagram
3.1 時(shí)間邊信息
在同一個(gè)視點(diǎn)內(nèi)部,幀與幀之間具有極高的相似性,在3個(gè)連續(xù)的幀中,物體的運(yùn)動(dòng)基本位于一條直線上.因此,WZ幀中的時(shí)間邊信息可以通過(guò)運(yùn)動(dòng)補(bǔ)償外推法獲得,參考幀是當(dāng)前幀的前2幀.筆者采用的運(yùn)動(dòng)補(bǔ)償外推法有以下2個(gè)步驟.
(1)通過(guò)參考幀進(jìn)行運(yùn)動(dòng)估計(jì).
通過(guò)參考幀進(jìn)行的運(yùn)動(dòng)估計(jì)是運(yùn)用3DRS算法[14]進(jìn)行運(yùn)動(dòng)匹配的,選擇這種算法的原因是可以運(yùn)用特征點(diǎn)計(jì)算運(yùn)動(dòng)矢量,從而可以預(yù)測(cè)一個(gè)運(yùn)動(dòng)區(qū)域,使得在運(yùn)動(dòng)物體邊界部分不會(huì)出現(xiàn)重影.記Xt和Yt分別表示第n個(gè)視點(diǎn)t時(shí)刻的幀信息、解碼端解碼出的邊信息.記t-2和t-1為已解碼的前2幀信息.
記X幀中位置(x,y)的像素值為X(x,y),mv(xi,yi)是由t-2幀中位置(xi,yi)處指向t-1幀的運(yùn)動(dòng)矢量.隨后運(yùn)動(dòng)矢量通過(guò)一個(gè)加權(quán)矢量中值濾波器[15]進(jìn)行平滑處理.記S={mv(xi,yi),i=1,2,…,M};M表示候選運(yùn)動(dòng)矢量的個(gè)數(shù).
式中iω為候選運(yùn)動(dòng)矢量的權(quán)重,iω的計(jì)算式為
式中Δ1(xi,yi)、Δ2(xi,yi)分別表示幀的像素位置(xi,yi)的橫向、縱向梯度的一范數(shù).
式(2)中分子加1是為了防止出現(xiàn)mv(xi,yi)為0時(shí),導(dǎo)致式(1)恒為0,不能達(dá)到選擇候選運(yùn)動(dòng)矢量的目的.
(2)基于運(yùn)動(dòng)矢量的外推法得到當(dāng)前幀.
因?yàn)閹g的時(shí)間相關(guān)性較大,在相鄰幀中運(yùn)動(dòng)物體可以認(rèn)為是在一條直線上運(yùn)動(dòng),可以由已經(jīng)解碼的前兩幀根據(jù)式(1)中求得的運(yùn)動(dòng)矢量解碼出t時(shí)刻幀的時(shí)間邊信息為
式中mvx、mvy分別為運(yùn)動(dòng)矢量mv的橫向分量、縱向分量.
運(yùn)動(dòng)補(bǔ)償外推法如圖3所示.
圖3 運(yùn)動(dòng)補(bǔ)償外推法Fig.3 Motion compensation extrapolation method
3.2視點(diǎn)間邊信息
多視點(diǎn)視頻序列中含有大量的冗余數(shù)據(jù),在多視點(diǎn)視頻系統(tǒng)中,視點(diǎn)間邊信息的生成主要依賴(lài)于視點(diǎn)間的相關(guān)性,視點(diǎn)間邊信息通過(guò)視差矢量?jī)?nèi)插法獲得.經(jīng)過(guò)視差補(bǔ)償預(yù)測(cè)[16-18],獲得視差矢量MV.視點(diǎn)間邊信息獲得如圖4所示.定義I[ n,t,x,y]表示第n個(gè)視點(diǎn)在t時(shí)刻所在幀中(x,y)位置處的像素值,則第n個(gè)視點(diǎn)的像素值可以通過(guò)已解碼的第n-1和n+1個(gè)視點(diǎn)內(nèi)插得到,即
式中:MVl,x、MVl,y分別為左視點(diǎn)到中間視點(diǎn)視差矢量MVl的橫向分量、縱向分量;MVr,x、MVr,y分別為右視點(diǎn)到中間視點(diǎn)視差矢量MVr的橫向分量、縱向分量.則第n個(gè)視點(diǎn)t時(shí)刻幀的視點(diǎn)間邊信息為
圖4 視差矢量?jī)?nèi)插法Fig.4 Disparity vector interpolation method
3.3邊信息融合
WZ幀中最好的邊信息是指預(yù)測(cè)最準(zhǔn)確的邊信息.在不同運(yùn)動(dòng)場(chǎng)景下時(shí)間邊信息與視點(diǎn)間邊信息的重構(gòu)質(zhì)量不同,在運(yùn)動(dòng)劇烈的情況下視點(diǎn)間邊信息的重構(gòu)效果好,運(yùn)動(dòng)平緩的情況時(shí)間邊信息的重構(gòu)效果好,如果能夠充分利用兩種邊信息的優(yōu)點(diǎn),將兩種邊信息進(jìn)行融合,可以大大提高WZ幀的重構(gòu)質(zhì)量.
假設(shè)GOP=2,筆者提出的多視點(diǎn)分布式視頻編碼的幀排列方式如圖5所示.
中間視點(diǎn)(2號(hào)視點(diǎn))的WZ幀的視點(diǎn)間邊信息通過(guò)視差矢量?jī)?nèi)插法由左右視點(diǎn)(1號(hào)視點(diǎn)、3號(hào)視點(diǎn))內(nèi)插獲得,時(shí)間邊信息通過(guò)中間視點(diǎn)內(nèi)部已解碼的前兩幀通過(guò)運(yùn)動(dòng)補(bǔ)償外推法獲得.當(dāng)前幀可以通過(guò)融合函數(shù)將視點(diǎn)間邊信息與時(shí)間邊信息進(jìn)行融合,筆者所提的邊信息融合算法是參照文獻(xiàn)[19]進(jìn)行改進(jìn)的.
圖5 多視點(diǎn)視頻編碼的幀排列方式Fig.5 Multiview video coding frame arrangement
[19]中的融合函數(shù)為
定義
式中:vf和vb分別為前向、后向運(yùn)動(dòng)矢量;vl和vr分別為左、右視差矢量.
因?yàn)楸疚脑谝朁c(diǎn)內(nèi)部采用運(yùn)動(dòng)補(bǔ)償外推法獲取時(shí)間邊信息,只有一個(gè)方向的運(yùn)動(dòng)矢量,且在運(yùn)動(dòng)劇烈視頻中視點(diǎn)間邊信息質(zhì)量相對(duì)較好,所以希望視點(diǎn)間邊信息在融合邊信息中所占的比例大一些,因此選擇f(x)(隨著x的增大,f(x)無(wú)限接近于1)作為視點(diǎn)間邊信息的權(quán)重.記視點(diǎn)間邊信息為Yn,時(shí)間邊信息為Yt,mv為運(yùn)動(dòng)矢量,MVl和MVr分別為左、右視點(diǎn)到中間視點(diǎn)的視差矢量,第n個(gè)視點(diǎn)在t時(shí)刻的融合后的邊信息為Yn,t.
改進(jìn)的融合函數(shù)為
圖6是根據(jù)所提的邊信息生成方法對(duì)“Breakdancers”標(biāo)準(zhǔn)序列中cam1第6幀的重構(gòu)結(jié)果. 由圖6可以看出,時(shí)間邊信息中運(yùn)動(dòng)較劇烈的中間部分重構(gòu)質(zhì)量較差,運(yùn)動(dòng)平緩的邊緣部分重構(gòu)質(zhì)量較好;視點(diǎn)間邊信息中運(yùn)動(dòng)劇烈的邊緣中間部分重構(gòu)質(zhì)量較好,運(yùn)動(dòng)平緩的邊緣部分重構(gòu)質(zhì)量較差;融合邊信息重構(gòu)圖像的整體質(zhì)量有所提高.
圖6 多視點(diǎn)分布式視頻編碼的邊信息重構(gòu)結(jié)果Fig.6Side information reconstruction results map based on multi-view distributed video coding
4.1運(yùn)動(dòng)補(bǔ)償外推法與運(yùn)動(dòng)補(bǔ)償內(nèi)插法的解碼時(shí)間比較
筆者提出的基于運(yùn)動(dòng)補(bǔ)償外推法的多視點(diǎn)分布式視頻編碼系統(tǒng)的目的是在保證重構(gòu)質(zhì)量有限降低的情況下,盡可能多地降低系統(tǒng)的解碼時(shí)延.為了驗(yàn)證所提的運(yùn)動(dòng)補(bǔ)償外推法比運(yùn)動(dòng)補(bǔ)償內(nèi)插法的解碼時(shí)延短,進(jìn)行了一系列針對(duì)WZ幀的解碼時(shí)間的仿真實(shí)驗(yàn).分別選擇3個(gè)QCIF標(biāo)準(zhǔn)視頻序列(“Mother-Daughter”、“News”、“Soccer”)、3個(gè)CIF標(biāo)準(zhǔn)視頻序列(“Hall”、“News”、“Soccer”)和2組3視點(diǎn)視頻序列(“Ballet”、“Breakdancers”)的前50幀進(jìn)行解碼時(shí)間的比較,為了降低整體的運(yùn)行時(shí)間,將2組3視點(diǎn)視頻序列降維到512×384.實(shí)驗(yàn)用計(jì)算機(jī)主要參數(shù)為:Intel(R)core(TM)i5-2400,CPU@3.10,GHz 3.09,GHz.實(shí)驗(yàn)結(jié)果如表1所示.
由表1可以看出,采用運(yùn)動(dòng)補(bǔ)償外推法的WZ幀的重構(gòu)質(zhì)量均略低于采用運(yùn)動(dòng)補(bǔ)償內(nèi)插法的重構(gòu)質(zhì)量.但在解碼時(shí)間上,QCIF標(biāo)準(zhǔn)視頻序列下采用運(yùn)動(dòng)補(bǔ)償外推法的WZ幀的解碼時(shí)間比采用運(yùn)動(dòng)補(bǔ)償內(nèi)插法的解碼時(shí)間少0.13,s;CIF標(biāo)準(zhǔn)視頻序列下,采用運(yùn)動(dòng)補(bǔ)償外推法的WZ幀的解碼時(shí)間少0.12,s;多視點(diǎn)視頻序列下,采用運(yùn)動(dòng)補(bǔ)償外推法的WZ幀的解碼時(shí)間少0.30,s.
4.2單個(gè)視點(diǎn)運(yùn)動(dòng)補(bǔ)償外推法與運(yùn)動(dòng)補(bǔ)償內(nèi)插法的
重構(gòu)幀質(zhì)量比較
為了驗(yàn)證筆者提出的外推法生成時(shí)間邊信息與運(yùn)動(dòng)補(bǔ)償內(nèi)插法生成時(shí)間邊信息的性能,在圖2所示的系統(tǒng)中,分別采用運(yùn)動(dòng)補(bǔ)償外推法和運(yùn)動(dòng)補(bǔ)償內(nèi)插法[13],對(duì)比研究解碼重構(gòu)視頻的PSNR.仿真實(shí)驗(yàn)采用了運(yùn)動(dòng)程度由低到高的“Hall”、“Mother-Daughter”、“Foreman”、“Carphone”、“Coastguard”和“Soccer”6個(gè)QCIF格式(176×144)標(biāo)準(zhǔn)測(cè)試序列的100幀,Y∶U∶V為4∶2∶0,其中設(shè)定的GOP大小為2.實(shí)驗(yàn)中使用峰值信噪比(PSNR,單位為dB)來(lái)衡量解碼恢復(fù)圖像的客觀質(zhì)量.
表1 運(yùn)動(dòng)補(bǔ)償外推法與運(yùn)動(dòng)補(bǔ)償內(nèi)插法非關(guān)鍵幀解碼時(shí)間比較Tab.1 Decoding time comparison of decoding WZ frame between motion compensation extrapolation method and motion compensated interpolation method
由圖7所示的6個(gè)序列測(cè)試結(jié)果圖可以看出,在運(yùn)動(dòng)劇烈程度較低的時(shí)候,所提的運(yùn)動(dòng)補(bǔ)償外推法與運(yùn)動(dòng)補(bǔ)償內(nèi)插法重構(gòu)WZ幀的質(zhì)量基本不差,如“Hall”序列,外推法與內(nèi)插法的PSNR基本一致.隨著運(yùn)動(dòng)劇烈程度的增加,外推法的重構(gòu)質(zhì)量比內(nèi)插法的重構(gòu)質(zhì)量要低一些,如“Soccer”序列,外推法重構(gòu)幀PSNR比內(nèi)插法重構(gòu)幀PSNR低1.5,dB左右,這是因?yàn)檫\(yùn)動(dòng)補(bǔ)償內(nèi)插法的時(shí)間邊信息是從前、后兩個(gè)方向進(jìn)行運(yùn)動(dòng)估計(jì)、運(yùn)動(dòng)補(bǔ)償?shù)?,外推法僅從一個(gè)方向進(jìn)行了運(yùn)動(dòng)估計(jì)、運(yùn)動(dòng)補(bǔ)償,所以重構(gòu)質(zhì)量外推法要比內(nèi)插法差一些.
4.3多視點(diǎn)運(yùn)動(dòng)補(bǔ)償外推法與運(yùn)動(dòng)補(bǔ)償內(nèi)插法的重構(gòu)幀RD比較
上述實(shí)驗(yàn)比較了在單個(gè)視點(diǎn)中外推法、內(nèi)插法生成時(shí)間邊信息重構(gòu)幀質(zhì)量.由于多個(gè)視點(diǎn)中,WZ幀的邊信息還包括視點(diǎn)間邊信息,在采用不同生成時(shí)間邊信息的方法時(shí),融合后的邊信息也不同,所以為了比較多視點(diǎn)運(yùn)動(dòng)補(bǔ)償內(nèi)插法與外推法的重構(gòu)幀質(zhì)量比較,選取了2組3視點(diǎn)標(biāo)準(zhǔn)測(cè)試序列“Ballet”、“Breakdancers”(1,024×768,100幀),幀率為15幀/s. 將3視點(diǎn)“Ballet”、“Breakdancers”標(biāo)準(zhǔn)測(cè)試序列的中間視點(diǎn)的K幀采用H.264(I幀)編解碼,WZ幀分別采用基于運(yùn)動(dòng)補(bǔ)償外推法的多視點(diǎn)分布式視頻編碼、基于運(yùn)動(dòng)補(bǔ)償內(nèi)插法的多視點(diǎn)分布式視頻編解碼,在不同比特率下,對(duì)中間視點(diǎn)的100幀進(jìn)行平均RD比較,實(shí)驗(yàn)結(jié)果如圖8所示.由圖8可以看出,本文采用的外推法PSNR與內(nèi)插法PSNR基本相當(dāng),最大差值不足0.2,dB,經(jīng)過(guò)融合的邊信息PSNR值均要高于單純時(shí)間邊信息重構(gòu)幀的PSNR,并且采用兩種方法的多視點(diǎn)分布式視頻編碼的WZ幀重構(gòu)質(zhì)量相差很小.
圖7 運(yùn)動(dòng)補(bǔ)償外推法與運(yùn)動(dòng)補(bǔ)償內(nèi)插法重構(gòu)非關(guān)鍵幀客觀質(zhì)量比較Fig.7 Reconstruction objective quality comparison of WZ frame between motion compensation extrapolation method and motion compensated interpolation method
圖8 多視點(diǎn)運(yùn)動(dòng)補(bǔ)償外推法與內(nèi)插法的中間視點(diǎn)幀RD比較Fig.8 RD comparison between multi-view movement extrapolation method and interpolation method
筆者提出了一種高效低時(shí)延的多視點(diǎn)分布式視
頻編碼,在視點(diǎn)內(nèi)部采用運(yùn)動(dòng)補(bǔ)償外推法獲得時(shí)間邊信息,經(jīng)過(guò)與視點(diǎn)間邊信息融合后獲得融合后的邊信息,再經(jīng)過(guò)反量化重構(gòu)得到解碼信息.實(shí)驗(yàn)證明,所提的編碼系統(tǒng),WZ幀的重構(gòu)質(zhì)量接近于內(nèi)插法重構(gòu)的WZ幀質(zhì)量,而且將運(yùn)動(dòng)補(bǔ)償外推法應(yīng)用于多視點(diǎn)分布式視頻編碼中,可以大大降低系統(tǒng)時(shí)延.運(yùn)動(dòng)補(bǔ)償外推法在運(yùn)動(dòng)劇烈的視頻情況下,獲取時(shí)間邊信息與內(nèi)插法獲取時(shí)間邊信息的重構(gòu)質(zhì)量有一定差距,仍有改進(jìn)的空間;此外,如何改進(jìn)候選運(yùn)動(dòng)矢量來(lái)提高時(shí)間邊信息重構(gòu)質(zhì)量,是下一步的研究重點(diǎn).
參考文獻(xiàn):
[1]Slepian D,Wolf ,J. Noiseless coding of correlated information sources[J]. IEEE Transactions on Information Theory,1973,19(4):471-480.
[2]Wyner A D,Ziv J. The rate-distortion function for source coding with side information at the decoder[J]. IEEE Transactions on Information Theory,1976,22(1):1-10.
[3]Aaron A,Zhang R,Girod B. Wyner-Ziv coding of motion video[C]// Conference Record of the Thirty-Sixth Asilomar Conference on Signals,Systems and Computers. Pacific Grove,USA,2002:240-244.
[4]Puri R,Majumdar A,Ramchandran K. PRISM:A video coding paradigm with motion estimation at the decoder[J]. IEEE Transactions on Image Processing,2007,16(10):2436-2448.
[5]Artigas X,Ascenso J,Dalai M,et al. The discover codec:Architecture,techniques and evaluation [C]// Picture Coding Symposium. Lisbon,Portugal,2007: 1103-1120.
[6]Ouaret M,Dufaux F,Ebrahimi T. Iterative multiview side information for enhanced reconstruction in distributed video coding [J]. EURASIP Journal on Image and Video Processing,2009,2009:591915-1-591915-7.
[7]Guo X,Lu Y,Wu F,et al. Distributed multi-view video coding[C]//Proc SPIE 6077,Visual Communications and Image Processing 2006. Korea,2006: 60770T-8.
[8]Huang X,Brites C,Ascenso J,et al. Distributed video coding with multiple side information[C]// IEEE Picture Coding Symposium. Chicago,USA,2009:1-4.
[9]Kodavalla V K,Mohan P G K. Multi-view distributed video coding[C]// 2012 International Conference on Devices,Circuits and Systems(ICDCS). Coimbatore,India,2012:614-618.
[10]武曉嘉,郭繼昌,姜 丹,等. 一種多視點(diǎn)立體視頻分布式壓縮感知編解碼模型[J]. 天津大學(xué)學(xué)報(bào),2012,45(10):895-902.
Wu Xiaojia,Guo Jichang,Jiang Dan,et al. A distributed compress sensing codec model in multi-view stereo video[J]. Journal of Tianjin University,2012,45(10):895-902(in Chinese).
[11]Abou-Elailah A,F(xiàn)arah J,Cagnazzo M,et al. Improved side information generation for distributed video coding[C]// 2011 3rd European Workshop on Visual Information Processing(EUVIP). Carins,Qld,Australia,2011:42-49.
[12]Verbist F,Deligiannis N,Jacobs M,et al. Probabilistic motion-compensated prediction in distributed video coding[J]. Multimedia Tools and Applications,2013,66:405-430.
[13]Monteiro P,Ascenso J,Pereira F. Perspective transform motion modeling for improved side information creation[J]. EURASIP Journal on Advances in Signal Processing,2013,2013(1):189.
[14]Heinrich A,Bartels C,van der Vleuten R J,et al. Optimization of hierarchical 3DRS motion estimators for picture rate conversion[J]. IEEE Journal of Selected Topics in Signal Processing,2011,5(2):262-274.
[15]Zhang Y,Zhao D,Liu H,et al. Side information generation with auto regressive model for low-delay distributed video coding[J]. Journal of Visual Communication and Image Representation,2012,23(1):229-236.
[16]Shimizu S,Kitahara M,Kimata H,et al. View scalable multiview video coding using 3-D warping with depth map[J]. IEEE Transactions on Circuits and Systems for Video Technology,2007,17(11):1485-1495.
[17]Avci A,De Cock J,Lambert P,et al. Efficient disparity vector prediction schemes with modified P frame for 2D camera arrays[J]. Journal of Visual Communication and Image Representation,2012,23(2):287-292.
[18]Merkle P,Smolic A,Muller K,et al. Efficient prediction structures for multiview video coding[J]. IEEE Transactions on Circuits and Systems for Video Technology,2007,17(11):1461-1473.
[19]Jiang Dan,Guo Jichang,Wu Xiaojia. Low-complexity distributed multi-view video coding for wireless video sensor networks based on compressive sensing theory[J]. Neurocomputing,2013,120(23):415-421.
(責(zé)任編輯:孫立華)
An Efficient Low-Delay Multi-View Distributed Video Coding
Guo Jichang,Xu Ying,Gong Jiachang
(School of Electronic Information Engineering,Tianjin University,Tianjin 300072,China)
Distributed video coding(DVC)is a video coding solution for shifting coding complexity from encoder to decoder. Multi-view distributed video coding(MDVC)mainly uses the motion compensation interpolation(MCI)to reduce the temporal redundancies inside the viewpoint. But the decoding order of MCI is inconsistent with the video sequence,which leads to decoding delay. Based on motion compensation extrapolation(MCE),an efficient lowdelay MDVC was proposed. In addition,the general MCE reconstruction quality is lower than that of the MCI method. On the basis of the MCE,the disparity vector interpolation was employed to reduce the interview redundancies,while fusion algorithm was applied to improve the reconstruction quality. Results show that the decoding time of the presented method is reduced by 0.3 s in the case of reconstruction quality of equal quality.
distributed video coding;multi-view;low-delay;motion compensation extrapolation;reconstruction quality
TN391
A
0493-2137(2015)12-1111-07
10.11784/tdxbz201403068
2014-03-21;
2014-06-20.
教育部高等學(xué)校博士學(xué)科點(diǎn)專(zhuān)項(xiàng)科研基金資助項(xiàng)目(20120032110034).
郭繼昌(1966—),男,博士,教授.
郭繼昌,jcguo@tju.edu.cn.
網(wǎng)絡(luò)出版時(shí)間:2014-09-29. 網(wǎng)絡(luò)出版地址:http://www.cnki.net/kcms/doi/10.11784/tdxbz201403068.html.