国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于多時(shí)-空相關(guān)的AVS2快速幀間預(yù)測(cè)算法

2016-12-29 06:04李國平王國中趙海武滕國偉
電視技術(shù) 2016年12期
關(guān)鍵詞:節(jié)省復(fù)雜度紋理

陳 芳,李國平,王國中,趙海武,滕國偉

(上海大學(xué) 通信與信息工程學(xué)院,上海 200444)

?

基于多時(shí)-空相關(guān)的AVS2快速幀間預(yù)測(cè)算法

陳 芳,李國平,王國中,趙海武,滕國偉

(上海大學(xué) 通信與信息工程學(xué)院,上海 200444)

針對(duì)新一代視頻標(biāo)準(zhǔn)AVS2引進(jìn)四叉樹分割、多參考幀等技術(shù)而帶來的幀間預(yù)測(cè)復(fù)雜度增加的問題,提出一種基于多時(shí)-空相關(guān)的快速幀間預(yù)測(cè)算法。該算法利用上下層相鄰編碼單元(Coding Unit, CU)和空時(shí)域相鄰CU在預(yù)測(cè)模式選擇上的相關(guān)性,計(jì)算當(dāng)前CU的模式復(fù)雜度,根據(jù)復(fù)雜度為當(dāng)前CU分配合適的候選預(yù)測(cè)模式;同時(shí)利用相鄰預(yù)測(cè)單元(Prediction Unit, PU)在參考幀選擇上的相關(guān)性,計(jì)算當(dāng)前PU的參考幀索引,根據(jù)索引為當(dāng)前PU分配合適的候選參考幀。實(shí)驗(yàn)表明,該算法在BD-Rate(Bjontegaard delta bit rate)增加1.22%,BD-PSNR(Bjontegaard delta peak signal-to-noise rate)降低0.04 dB的前提下,平均減少47.54%的編碼時(shí)間。

AVS2;多時(shí)-空相關(guān);模式復(fù)雜度;預(yù)測(cè)模式;參考幀

為了滿足高分辨率視頻的需求,進(jìn)一步提高視頻壓縮率,AVS工作組歷時(shí)3年制作完成了新一代擁有自主知識(shí)產(chǎn)權(quán)的視頻編碼標(biāo)準(zhǔn)AVS2[1],它的編碼效率與最新國際標(biāo)準(zhǔn)H.265/HEVC相當(dāng),比上一代國家標(biāo)準(zhǔn)AVS1以及上一代國際標(biāo)準(zhǔn)H.264/AVC的效率提高1倍。特別對(duì)于監(jiān)控視頻等場(chǎng)景類視頻,AVS2壓縮效率又翻了一番,達(dá)到H.264/AVC的4倍。

AVS2引入了一些新的編碼工具[2]以提升編碼效率,如大尺寸四叉樹編碼單元?jiǎng)澐?、多參考幀預(yù)測(cè)、編碼單元非對(duì)稱分割、多角度幀內(nèi)預(yù)測(cè)和像素自適應(yīng)補(bǔ)償濾波等。這些技術(shù)在提高編碼效率的同時(shí),也顯著增加了編碼復(fù)雜度。為了實(shí)現(xiàn)AVS2在電視直播、視頻會(huì)議等視頻通信系統(tǒng)中的實(shí)時(shí)應(yīng)用,必須降低其編碼的計(jì)算復(fù)雜度。

在AVS2編碼標(biāo)準(zhǔn)中,幀間預(yù)測(cè)占據(jù)著大量的編碼時(shí)間,因此如何降低幀間預(yù)測(cè)的復(fù)雜度成為降低編碼復(fù)雜度的關(guān)鍵。目前,針對(duì)幀間預(yù)測(cè)快速算法的研究主要有兩種:一是模式快速選擇,基于空時(shí)域相鄰塊的相關(guān)性和一些已知的編碼參數(shù)對(duì)當(dāng)前塊的劃分模式或預(yù)測(cè)模式提前判決。如文獻(xiàn)[3]利用上層相鄰塊和空時(shí)域相鄰塊的預(yù)測(cè)模式計(jì)算當(dāng)前塊的預(yù)測(cè)模式復(fù)雜度,根據(jù)復(fù)雜度為當(dāng)前塊分配合理的預(yù)測(cè)模式,跳過不需要的模式。這種方法充分利用了相鄰塊間的相關(guān)性,準(zhǔn)確地預(yù)測(cè)了模式候選值。鄭蕭楨等提出了一種非對(duì)稱運(yùn)動(dòng)劃分(Asymmetric Motion Partitions, AMP)快速?zèng)Q策機(jī)制[4],利用水平、垂直非方形劃分模式的一致性,將對(duì)稱非方形劃分模式作為判斷是否使用非對(duì)稱非方形劃分的依據(jù)。這種方法充分利用了模式間的紋理相關(guān)性為AMP模式提前作出判決。二是參考幀快速選擇,減少各模式下參與運(yùn)動(dòng)估計(jì)的參考幀數(shù)目。如文獻(xiàn)[5]以運(yùn)動(dòng)矢量差值為閾值,選擇適當(dāng)?shù)南噜弶K的最佳參考圖像獲得當(dāng)前塊的參考圖像集,減少參考幀遍歷的冗余。

文獻(xiàn)[3]雖然取得了較好的效果,但只是基于HEVC模型中幀間預(yù)測(cè)的特征統(tǒng)計(jì)對(duì)模式快速選擇。由于AVS2在編碼單元類型、運(yùn)動(dòng)矢量預(yù)測(cè)、率失真代價(jià)計(jì)算等方面和HEVC有很大的不同,該算法并不能直接應(yīng)用在AVS2中。文獻(xiàn)[4]和[5]分別只是針對(duì)AVS2模型中的AMP特殊模式和參考幀選擇作出優(yōu)化,降低的編碼時(shí)間有限?;贏VS2的預(yù)測(cè)模式和參考幀選擇的特征,本文提出了一種新的算法,充分利用具有較強(qiáng)相關(guān)性的下層相鄰的4個(gè)塊和空時(shí)域相鄰塊的預(yù)測(cè)模式獲得當(dāng)前塊的候選模式,同時(shí)利用相鄰塊的參考幀索引預(yù)測(cè)當(dāng)前塊的候選參考幀,減少遍歷預(yù)測(cè)模式和參考幀的時(shí)間。

1 AVS2幀間預(yù)測(cè)關(guān)鍵技術(shù)介紹

1.1 預(yù)測(cè)模式選擇

AVS2采用了更加靈活的編碼結(jié)構(gòu),包括編碼單元(Coding Unit,CU)、預(yù)測(cè)單元(Prediction Unit,PU)和變換單元(Transform Unit,TU)。一幅圖像被分割成固定大小的編碼樹單元(Coding Tree Unit,CTU),CTU按照四叉樹的迭代方式劃分為一系列的CU。CU尺寸范圍為8×8至64×64。CU又被劃分為一個(gè)或多個(gè)PU和TU。

圖1 CU的預(yù)測(cè)模式

如圖1所示,幀間預(yù)測(cè)時(shí)CU有8種幀間預(yù)測(cè)模式(NO_SPLIT,HOR_SYM,VER_SYM,CROSS_SPLIT,HOR_UP,HOR_DOWN,VER_LEFT,VER_RIGHT)和4種幀內(nèi)預(yù)測(cè)模式(I_NO_SPLIT,I_CROSS_SPLIT,I_HOR,I_VER)。CU的幀間預(yù)測(cè)模式還包括SKIP和DIRECT兩種特殊模式。

AVS2模型采用率失真優(yōu)化方式?jīng)Q定最佳預(yù)測(cè)模式。遍歷圖1中所有預(yù)測(cè)模式,分別根據(jù)式(1)計(jì)算每種模式對(duì)應(yīng)的率失真代價(jià),選擇代價(jià)最小的模式作為最佳預(yù)測(cè)模式。

J(s,c,mode|QP,λmode)=SAD(s,c,mode|QP)+

λmodegR(s,c,mode|QF)

(1)

式中:mode為當(dāng)前預(yù)測(cè)模式;SAD表示在給定量化參數(shù)QP的條件下,當(dāng)前mode的重建塊c與原始?jí)Ks的絕對(duì)誤差和;λmode是拉格朗日乘子;R表示編碼運(yùn)動(dòng)矢量殘差、參考幀索引和變換塊系數(shù)等語法元素需要的比特?cái)?shù)。

1.2 參考幀選擇

AVS2模型采用率失真優(yōu)化方法選擇最優(yōu)參考幀。在當(dāng)前預(yù)測(cè)模式下對(duì)CU進(jìn)行編碼時(shí),對(duì)該CU的每個(gè)PU分別做運(yùn)動(dòng)估計(jì),利用式(2)從參考幀配置集中選擇率失真代價(jià)最小的參考幀作為當(dāng)前PU的最佳參考圖像。這種方法需要遍歷參考配置集中的每個(gè)參考幀。

J(mv,ref|λmotion)=SAD(s,r(ref,mv))+λmotion×

(R(mvd)+R(ref))

(2)

式中:ref為當(dāng)前PU選擇的參考幀;SAD表示原始?jí)Ks與參考?jí)Kr(ref,mv)的絕對(duì)誤差和;mv是當(dāng)前PU相對(duì)于參考?jí)K的運(yùn)動(dòng)矢量;;R表示編碼運(yùn)動(dòng)矢量殘差(mvd)和ref需要的比特?cái)?shù)。

根據(jù)上述分析,確定一個(gè)CU的最終劃分形式,需要遍歷CU的14種預(yù)測(cè)模式和CU下PU的每個(gè)參考幀,這使得幀間預(yù)測(cè)的復(fù)雜度很大。然而,相鄰CU在預(yù)測(cè)模式選擇和參考幀選擇上具有很大相關(guān)性,可以根據(jù)這種相關(guān)性減少遍歷帶來的復(fù)雜度。本文將統(tǒng)計(jì)相鄰CU的相關(guān)性,并根據(jù)相鄰CU的相關(guān)因子和編碼信息為當(dāng)前CU分配合適的預(yù)測(cè)模式和參考幀。

2 快速幀間預(yù)測(cè)算法

2.1 相鄰CU的相關(guān)性分析

本文采用的相鄰CU的位置關(guān)系如圖2所示。CU_curr為當(dāng)前編碼CU;CU_nextdepth為相鄰的下層深度的4個(gè)CU;CU_left,CU_leftup,CU_up,CU_rightup分別為空域相鄰的左、左上、上和右上CU;CU_belcol和CU_aftcol為前后相鄰幀的對(duì)應(yīng)位置CU。AVS2模型采用類似四叉樹后序遍歷的方式對(duì)CU遍歷,因此在編碼當(dāng)前CU時(shí),這些相鄰CU均是已編碼CU,獲取它們的信息不會(huì)增加計(jì)算復(fù)雜度。

圖2 當(dāng)前CU與相鄰CU的位置關(guān)系

幀間預(yù)測(cè)時(shí),兩個(gè)相鄰CU間的運(yùn)動(dòng)一致性越高,相關(guān)性越強(qiáng)。為了統(tǒng)計(jì)相鄰CU的相關(guān)性,本文以AVS2參考軟件RD14.0為平臺(tái),絕對(duì)誤差和(SAD)為相關(guān)性的指標(biāo)。以CU_left為例,由RD14.0的傳統(tǒng)方法預(yù)測(cè)CU_left,可以得到CU_left在最佳編碼模式(包括最佳的預(yù)測(cè)模式、參考幀、運(yùn)動(dòng)矢量)下的SAD。CU_curr不作幀間預(yù)測(cè),直接利用CU_left的最佳編碼模式編碼,同樣可得CU_curr的SAD。若這兩個(gè)CU的SAD值越接近,則它們的運(yùn)動(dòng)一致性越高,相關(guān)性越強(qiáng)。類似地,可統(tǒng)計(jì)得到當(dāng)前CU與其他相鄰CU的相關(guān)性。

定義相關(guān)性因子RF表示各相鄰CU間的相關(guān)性,RF的計(jì)算公式為

(3)

式中:SADnei表示相鄰CU在最佳編碼模式下的SAD;SADcurr表示當(dāng)前CU用相鄰CU的最佳編碼模式編碼得到的SAD。計(jì)算下層的每個(gè)CU的RF時(shí),由于尺寸是當(dāng)前CU的1/4,為了使SADnei與SADcurr具有可比性,取實(shí)際得到的下層CU的SAD值的4倍帶入SADnei。

相鄰CU的相關(guān)性因子RF如表1所示。表中“(×)”中的數(shù)字表示CU的個(gè)數(shù)。這些相鄰CU的相關(guān)性均大于0.5,說明相鄰CU與當(dāng)前編碼CU均具有較強(qiáng)的相關(guān)性。由于自然序列中水平和垂直的運(yùn)動(dòng)最頻繁,左邊和上邊CU的相關(guān)性最強(qiáng)。下一深度的4個(gè)CU和當(dāng)前CU具有內(nèi)容的重復(fù)性,相關(guān)性其次。前后幀對(duì)應(yīng)位置的CU相關(guān)性相對(duì)最小。

表1 各相鄰CU的相關(guān)因子RF

2.2 預(yù)測(cè)模式快速選擇

紋理簡單、運(yùn)動(dòng)平緩的CU選擇簡單的預(yù)測(cè)模式以減少編碼比特率,而紋理復(fù)雜、運(yùn)動(dòng)劇烈的CU選擇復(fù)雜的預(yù)測(cè)模式增加預(yù)測(cè)準(zhǔn)確度。因此,表2針對(duì)不同運(yùn)動(dòng)和紋理的CU,將CU的預(yù)測(cè)模式分為5類,定義模式復(fù)雜度因子MCF表征其運(yùn)動(dòng)和紋理的復(fù)雜度。

表2中MCF值的分配由實(shí)驗(yàn)所得。每種預(yù)測(cè)模式對(duì)應(yīng)一個(gè)MCF值,簡單的預(yù)測(cè)模式對(duì)應(yīng)較小的MCF值,復(fù)雜的預(yù)測(cè)模式對(duì)應(yīng)較大的MCF值。相鄰CU編碼選出最佳的預(yù)測(cè)模式后,根據(jù)表2將預(yù)測(cè)模式映射為相應(yīng)的MCF值,結(jié)合表1中的相關(guān)因子RF,可預(yù)測(cè)當(dāng)前CU的MCF值。根據(jù)預(yù)測(cè)得到的MCF值可為當(dāng)前CU分配合適的候選預(yù)測(cè)模式。

表2 預(yù)測(cè)模式分類及與MCF的對(duì)應(yīng)

定義由相鄰CU預(yù)測(cè)得到的當(dāng)前CU的模式復(fù)雜因子為PMCF,即

(4)

式中:N取為9;MCFi表示各相鄰CU的模式復(fù)雜度因子MCF;RFi表示相鄰CU的相關(guān)因子RF;Ei表示相鄰CU是否存在。Ei=1表示相鄰CU存在,Ei=0則表示不存在。由表2可得PMCF的取值范圍為[0,5]。

PMCF很大程度上反映了當(dāng)前CU的預(yù)測(cè)模式復(fù)雜度,根據(jù)PMCF的取值為CU分配適當(dāng)?shù)暮蜻x預(yù)測(cè)模式,分配公式為

(5)

式中:{MODEcand}表示當(dāng)前CU的候選預(yù)測(cè)模式;Num表示相鄰CU的存在數(shù)量。當(dāng)Num>N/2且相鄰CU都選擇SKIP模式時(shí),PMCF=0,說明當(dāng)前CU無運(yùn)動(dòng)且紋理很簡單,當(dāng)前CU只選擇C1為預(yù)測(cè)模式;當(dāng)02時(shí),預(yù)測(cè)當(dāng)前CU的紋理簡單且運(yùn)動(dòng)平緩,因此選擇C1,C2,C3三種簡單的模式為當(dāng)前CU的候選預(yù)測(cè)模式;當(dāng)PMCF>T2且Num>2時(shí),預(yù)測(cè)當(dāng)前CU的紋理復(fù)雜且運(yùn)動(dòng)劇烈,因此選擇C4,C5兩種復(fù)雜的模式,由于C1模式編碼比特?cái)?shù)少,因此CU復(fù)雜時(shí)也考慮添加C1模式;否則,遍歷所有的模式。T1和T2根據(jù)實(shí)驗(yàn)分別取值為1和4。

2.3 參考幀快速選擇

自然視頻序列中當(dāng)前幀與相鄰幀的相關(guān)性大于與遠(yuǎn)端參考幀的相關(guān)性,相鄰幀被選為最佳參考幀的概率遠(yuǎn)大于其他參考幀[6]。因此可利用視頻的特征減少對(duì)參考幀的搜索,減少編碼計(jì)算復(fù)雜度。

表1的數(shù)據(jù)顯示,相鄰CU具有強(qiáng)相關(guān)性。相鄰PU也具有類似的相關(guān)性。本文利用相鄰PU的最佳參考幀索引預(yù)測(cè)當(dāng)前PU的參考幀索引值,根據(jù)預(yù)測(cè)得到的索引值為當(dāng)前PU分配合適的候選參考幀,去除參考幀遍歷的冗余。前后幀對(duì)應(yīng)位置的PU對(duì)當(dāng)前PU參考幀選擇的參考意義較小,本文所選的相鄰PU不包含前后幀對(duì)應(yīng)位置的PU。相鄰PU的位置關(guān)系類似圖2中相鄰CU的位置關(guān)系。

定義由相鄰PU預(yù)測(cè)得到的當(dāng)前PU的參考幀索引為PRI。類似PMCF計(jì)算公式,PRI的計(jì)算公式為

(6)

式中:N取為7;RIi為各相鄰PU的最佳參考幀索引,RIi按照與當(dāng)前幀距離由近到遠(yuǎn)依次取值為1,2,3,…,M-1,M為總參考幀數(shù);RFi表示相鄰PU的相關(guān)因子RF,本文采用表1中的相關(guān)性因子;Ei表示相鄰PU是否存在,Ei=1表示相鄰PU存在,Ei=0則表示不存在。

根據(jù)PRI的取值為當(dāng)前PU分配候選的參考幀。候選參考幀的分配為

(7)

式中:{REFcand}為PU的候選參考幀;Num表示相鄰PU的存在數(shù)量。當(dāng)Num>N/2且PRI=0時(shí),相鄰PU都選擇最近的參考幀,說明當(dāng)前PU與最近參考幀中的參考?jí)K的相關(guān)性最強(qiáng),當(dāng)前PU選擇最近參考幀為最佳參考幀;當(dāng)Num>2且PRI

3 實(shí)驗(yàn)結(jié)果

為了驗(yàn)證本文提出的快速幀間算法的有效性,在AVS2最新參考軟件RD14.0中實(shí)現(xiàn)本文算法,選擇不同分辨率和不同運(yùn)動(dòng)紋理程度的序列進(jìn)行測(cè)試,實(shí)驗(yàn)具體配置如表3所示。采用峰值信噪比差值(Bjontegaard delta peak signal-to-noise rate, BD-PSNR)和編碼比特率差值(Bjontegaard delta bit rate, BD-Rate)[7]分別衡量視頻序列中圖像失真程度和壓縮效率,評(píng)估算法的整體率失真特性。編碼時(shí)間變化則用ΔT表示,即

(8)

式中,TRD和Tpro分別表示RD14.0中傳統(tǒng)方法和所提的快速算法的編碼時(shí)間。

本文除了和RD14.0的傳統(tǒng)方法對(duì)比之外,還選擇在RD14.0的基礎(chǔ)上對(duì)文獻(xiàn)[5]的算法進(jìn)行橫向?qū)Ρ龋Y(jié)果如表4所示。由表4可得,文獻(xiàn)[5]的算法相對(duì)于RD14.0傳統(tǒng)方法在BD-Rate增加3.00%,BD-PSNR降低0.1 dB的前提下,平均減少32.04%的編碼時(shí)間。而本文算法相對(duì)于RD14.0傳統(tǒng)方法在BD-Rate增加1.22%,BD-PSNR降低0.04 dB的前提下,平均減少47.54%的編碼時(shí)間。因此,本文算法比傳統(tǒng)方法節(jié)省了較多時(shí)間,而且與文獻(xiàn)[5]的算法相比,本文算法不僅額外節(jié)省15.5%的時(shí)間,而且BD-Rate降低1.78%,BD-PSNR增加0.06 dB。

表3 實(shí)驗(yàn)測(cè)試條件

表4 各算法與RD14.0對(duì)比的結(jié)果

對(duì)于運(yùn)動(dòng)速度較快的RaceHorses和紋理相對(duì)復(fù)雜的City,本文所提算法節(jié)省的時(shí)間較少。而對(duì)于運(yùn)動(dòng)緩慢的Crew和紋理相對(duì)簡單的BasketballDrive,本文所提算法節(jié)省的時(shí)間較多。由于Crew存在鏡頭閃爍,Cactus旋轉(zhuǎn)運(yùn)動(dòng)較多,候選的預(yù)測(cè)模式和參考幀誤差相對(duì)其他序列較大,視頻質(zhì)量下降較多。

選擇實(shí)驗(yàn)數(shù)據(jù)中BD-Rate增加較多,BD-PSNR降低較多的序列Crew和Cactus繪制RD曲線。如圖3所示,本文算法與RD14.0方法的RD曲線基本重合,對(duì)這兩種序列的編碼效率影響很小。因此可證本文算法對(duì)于視頻編碼質(zhì)量和壓縮效率影響很小。

圖3 本文算法與RD14.0傳統(tǒng)方法的的RD曲線

選擇實(shí)驗(yàn)數(shù)據(jù)中時(shí)間節(jié)省較少的序列RaceHorses和City,分別繪制4個(gè)不同QP下,文獻(xiàn)[5]和本文算法較RD14.0中傳統(tǒng)方法的時(shí)間節(jié)省圖。如圖4所示,橫坐標(biāo)為編碼的QP,縱坐標(biāo)為相對(duì)于RD14.0的編碼時(shí)間節(jié)省。由圖4中走勢(shì)可得,隨著QP的增加,快速算法的時(shí)間節(jié)省越多,本文算法相對(duì)于RD14.0中的傳統(tǒng)方法時(shí)間節(jié)省較多。而且和文獻(xiàn)[5]比較,本文算法也能額外節(jié)省不少時(shí)間。因此,本文的快速算法是有效的。

圖4 各算法相對(duì)于RD14.0傳統(tǒng)方法的時(shí)間節(jié)省圖

4 小結(jié)

本文重點(diǎn)研究了在AVS2的幀間預(yù)測(cè)中,使用多劃分模式、多參考幀技術(shù)帶來的編碼復(fù)雜度增加問題。針對(duì)這一問題,本文創(chuàng)新性地使用與當(dāng)前編碼CU有著強(qiáng)相關(guān)性的下一深度的4個(gè)CU的編碼信息,并結(jié)合空時(shí)域相鄰CU的編碼信息。統(tǒng)計(jì)這些相鄰CU的相關(guān)性,并由相鄰CU的相關(guān)因子和預(yù)測(cè)模式為當(dāng)前CU分配合理的候選預(yù)測(cè)模式,同時(shí)利用相鄰PU的相關(guān)因子和參考幀索引預(yù)測(cè)當(dāng)前PU的候選參考幀,避免了預(yù)測(cè)模式和參考幀遍歷的冗余。實(shí)驗(yàn)結(jié)果表明,本文算法與RD14.0的傳統(tǒng)方法相比,在BD-Rate增加1.22%,BD-PSNR降低0.04 dB的前提下,平均減少47.54%的編碼時(shí)間。與文獻(xiàn)[5]的算法相比,不僅節(jié)省15.5%的時(shí)間,而且BD-Rate降低1.78%,BD-PSNR增加0.06 dB。由此可見,本文算法在視頻質(zhì)量和比特率損失很小的情況下,編碼時(shí)間節(jié)省較多。

[1] HE Z C,YU L, ZHENG X Z, et al. Framework of AVS2-video coding[C]//Proc. the 20th IEEE International Conference on Image Processing. Piscataway: IEEE,2013: 1515-1519.

[2] 馬思偉.AVS視頻編碼標(biāo)準(zhǔn)技術(shù)回顧及最新進(jìn)展[J].計(jì)算機(jī)研究與發(fā)展,2015,52(1):27-37.

[3] SHEN L Q, ZHANG Z Y, LIU Z. Adaptive inter-mode decision for HEVC jointly utilizing inter-level and spatiotemporal correlations[J]. IEEE transactions on circuits and systems for video technology,2014,24(10): 1709-1722.

[4] 鄭蕭楨.AVS_M3012:AVS快速?zèng)Q策機(jī)[EB/OL]. [2016-04-10]. ftp://124.207.250.92/public/avsdoc/1212_Beijing/contrib/.

[5] 林琪,趙海武,王國中,等.面向AVS2的快速幀間預(yù)測(cè)算法[J].電視技術(shù),2014,38(17):76-84.

[6] 張淑芳,李華.基于H.264的多參考幀快速選擇算法[J].電子學(xué)報(bào),2009,37(1):62-66.

[7] BJONTEGAARD G. Calculation of average PSNR difference between RD-curves[EB/OL]. [2016-04-10]. http://ftp3.itu.ch/av-arch/video-site/0104-Aus/.

陳 芳(1992— ),女,碩士生,主研視頻編解碼技術(shù);

李國平(1974— ),碩士生導(dǎo)師,主研視頻編解碼技術(shù)、復(fù)用技術(shù)等;

王國中(1962— ),博士生導(dǎo)師,主研視頻編碼與多媒體通信、圖像處理等;

趙海武(1973— ),碩士生導(dǎo)師,主研視頻編解碼技術(shù)、復(fù)用技術(shù)等;

滕國偉(1975— ),碩士生導(dǎo)師,主研視頻編解碼技術(shù)、智能視頻分析等。

責(zé)任編輯:薛 京

Fast inter-frame prediction algorithm for AVS2 based on multiple temporal-spatial correlations

CHEN Fang, LI Guoping, WANG Guozhong, ZHAO Haiwu, TENG Guowei

(ShanghaiUniversity,SchoolofCommunicationandInformationEngineering,Shanghai200444,China)

The complexity of inter-frame prediction is increased in the new generation video standard AVS2 by introducing the technology of quad-tree division, multiple reference frames, etc. To solve the problem, a fasted inter-frame prediction algorithm based on multiple temporal-spatial correlations is proposed. The mode complexity of current coding unit(CU) is calculated by the correlations of adjacent depth and adjacent temporal-spatial CU in terms of the selection of prediction mode, then the appropriate candidates of prediction mode are distributed according to the mode complexity. At the same time, the reference index of current prediction unit(PU) is calculated by the correlations of adjacent PU in terms of the selection of reference frame, then the appropriate candidates of reference frame are distributed according to the reference index. Experimental results show that, the proposed algorithm can reduce the encoding time by 47.54% on average, with a 1.22% increase of Bjontegaard delta bit rate(BD-Rate) and a 0.04dB decrease of Bjontegaard delta peak signal-to-noise rate(BD-PSNR).

AVS2; multiple temporal-spatial correlation; mode complexity; prediction mode; reference frame

國家自然科學(xué)基金項(xiàng)目(61271212);國家“863”計(jì)劃項(xiàng)目(2015AA015903)

陳芳,李國平,王國中,等.基于多時(shí)-空相關(guān)的AVS2快速幀間預(yù)測(cè)算法[J]. 電視技術(shù),2016,40(12):1-6. CHEN F, LI G P, WANG G Z,et al.Fast inter-frame prediction algorithm for AVS2 based on multiple temporal-spatial correlations[J]. Video engineering,2016,40(12):1-6.

TN919.81

A

10.16280/j.videoe.2016.12.001

2016-05-20

猜你喜歡
節(jié)省復(fù)雜度紋理
節(jié)省疲勞癥
基于BM3D的復(fù)雜紋理區(qū)域圖像去噪
Empa 創(chuàng)新氣門總成可節(jié)省燃油約20%
一種低復(fù)雜度的慣性/GNSS矢量深組合方法
使用紋理疊加添加藝術(shù)畫特效
TEXTURE ON TEXTURE質(zhì)地上的紋理
人生有三件事不能節(jié)省
求圖上廣探樹的時(shí)間復(fù)雜度
消除凹凸紋理有妙招!
某雷達(dá)導(dǎo)51 頭中心控制軟件圈復(fù)雜度分析與改進(jìn)
珠海市| 芜湖县| 改则县| 阿瓦提县| 临洮县| 武陟县| 同仁县| 临沂市| 秦安县| 吴江市| 陆良县| 彰化市| 颍上县| 桑植县| 新野县| 芦溪县| 玉环县| 胶州市| 辉南县| 新营市| 广东省| 仙居县| 新和县| 苍山县| 中超| 三门峡市| 常山县| 安新县| 老河口市| 锦州市| 阆中市| 辽阳市| 龙里县| 三河市| 龙海市| 信宜市| 丹凤县| 台北县| 元阳县| 鲁甸县| 阳山县|