鄭明魁,蘇凱雄,王衛(wèi)星,蘭誠(chéng)棟,楊秀芝
(福州大學(xué) 物理與信息工程學(xué)院,福建 福州 350108)
最小可覺(jué)察誤差(JND,just noticeable distortion)[1]用于表示人眼不能察覺(jué)的最大圖像失真,體現(xiàn)了人眼對(duì)圖像改變的容忍度。在圖像處理領(lǐng)域,JND可以用來(lái)度量人眼對(duì)圖像中不同區(qū)域失真的敏感性。近年來(lái),JND模型在基于視覺(jué)特性的視頻圖像編碼[1,2]、數(shù)字水印[3]、圖像質(zhì)量評(píng)價(jià)[4]等方面受到廣泛關(guān)注。目前已有多個(gè)JND模型被提出,這些JND模型主要可以分為2類:基于像素域的JND模型和基于變換域的JND模型。
像素域 JND模型能在像素域上更為直觀地給出JND閾值,在視頻編碼時(shí)常常用于運(yùn)動(dòng)估計(jì)以及預(yù)測(cè)殘差的濾波。Yang等人提出了經(jīng)典的非線性相加掩蔽模型(NAMM,nonlinear additively masking model)[1],該方法兼顧了亮度自適應(yīng)掩蔽和對(duì)比度掩蔽的重疊效應(yīng)。Liu等人在NAMM 模型的基礎(chǔ)上,通過(guò)全變分(TV,total variation)分解對(duì)圖像中的紋理以及結(jié)構(gòu)分量賦以不同加權(quán)值,使像素域JND模型具有更好的計(jì)算精度[5]。Wu等人則在計(jì)算紋理掩蓋時(shí)進(jìn)一步考慮了人眼對(duì)規(guī)則區(qū)域與非規(guī)則區(qū)域不同的敏感性,提出一種基于亮度自適應(yīng)與結(jié)構(gòu)相似性的JND模型[6]。
變換域 JND模型可以方便地把對(duì)比度敏感函數(shù)(CSF,contrast sensitivity function)引入模型中,具有較高的精度。由于大多數(shù)的圖像編碼標(biāo)準(zhǔn)都采用了DCT變換,因此基于DCT域的JND模型得到了很多研究者的關(guān)注。Ahumada等人通過(guò)計(jì)算空域CSF函數(shù)得到灰度圖像的JND模型[7],在此基礎(chǔ)上,Watson提出了DCTune方法,進(jìn)一步考慮了亮度自適應(yīng)、對(duì)比度掩蔽等特性對(duì) JND的影響[8]。Zhang等人通過(guò)加入亮度自適應(yīng)因子和對(duì)比度掩蔽因子,使得 JND模型具有更高的精度[9]。Jia等人將物體的運(yùn)動(dòng)等因素引入到JND模型中,提出了一種更精確的視頻圖像JND模型[10]。Wei等人則將伽馬校正引入到JND模型,提出新的亮度自適應(yīng)和對(duì)比度掩蔽因子計(jì)算方法[11]。Ma等人在Wei的基礎(chǔ)上提出自適應(yīng)塊大小的JND模型,將通常8×8尺寸的JND模型擴(kuò)展到16×16[12]。最近,Luo等人把Wei的JND模型推廣到4×4,并用于擴(kuò)展基于H.264的視覺(jué)特性視頻編碼[13]。
變換域 JND模型需要考慮人眼對(duì)不同亮度以及對(duì)比度掩蓋等特性的敏感度,在計(jì)算對(duì)比度掩蓋時(shí)使用Canny濾波來(lái)判斷區(qū)域的類型并賦予不同的加權(quán)值,由于Canny算子主要用于邊緣檢測(cè),這種方法在計(jì)算紋理區(qū)域的 JND時(shí)存在誤判低估的問(wèn)題。為了提高JND閾值的估計(jì)精度,本文采用一種預(yù)先紋理分解的方法,使用了紋理分量計(jì)算對(duì)比度掩蓋因子并與其他模型進(jìn)行仿真對(duì)比;為了去除更多的視覺(jué)冗余,提高圖像編碼效率,本文把改進(jìn)的JND模型用于圖像編碼,考慮到編碼的兼容性以及輔助信息對(duì)編碼效率的影響,設(shè)計(jì)了一種基于JND模型的量化方法;最后通過(guò)理論分析與仿真對(duì)本文的編碼方法與JPEG等編碼方法進(jìn)行對(duì)比。
基于DCT變換域的JND模型描述為空間對(duì)比度敏感函數(shù)、亮度自適應(yīng)因子和對(duì)比度掩蓋因子三者的乘積[9],為
其中,JCSF(i,j)是空間對(duì)比度敏感函數(shù),體現(xiàn)了索引號(hào)為(i,j)的DCT系數(shù)基本的JND閾值,其計(jì)算公式為[11]
其中,s表示集合效應(yīng);φi、φj分別表示DCT歸一化系數(shù);ωij為DCT系數(shù)的空間頻率;r+(1-r cosφij)代表人眼的傾斜效應(yīng);φij代表相應(yīng)DCT系數(shù)的方向角。本文中取s=0.25,r取經(jīng)驗(yàn)值0.6。
式(1)中的Alum是亮度自適應(yīng)加權(quán)因子。亮度自適應(yīng)掩蔽效應(yīng)使人眼對(duì)圖像中的不同亮度區(qū)域敏感度不同。亮度自適應(yīng)加權(quán)因子Alum與局部區(qū)域的平均亮度有關(guān)。具體為
Fcontrast(i,j)是對(duì)比度掩蓋加權(quán)因子,考慮到子帶系數(shù)自身的掩蓋效應(yīng),最后得到的對(duì)比度掩蓋加權(quán)因子如式(4)所示[11]。
計(jì)算對(duì)比度掩蓋加權(quán)因子時(shí)先將圖像塊劃分成3類:平滑區(qū)、邊緣和紋理區(qū),然后對(duì)不同的區(qū)域進(jìn)行不同的加權(quán)。其中,平滑與邊緣區(qū)域的加權(quán)ψ=1;由于人眼對(duì)紋理區(qū)域低頻系數(shù)的敏感度相對(duì)較小,因此加權(quán)系數(shù)ψ=2.25,而高頻系數(shù)的加權(quán)ψ=1.25。
在計(jì)算對(duì)比度掩蓋加權(quán)因子 Fcontrast(i,j)時(shí),首先對(duì)圖像進(jìn)行Canny濾波獲得各分塊的邊緣像素,通過(guò)計(jì)算邊緣像素的分布情況劃分區(qū)域類別,通常情況下平滑區(qū)域的邊緣像素較少,而紋理區(qū)域的邊緣像素較多,其劃分的方法如式(5)所示[11~13],其中,ρedgel表示邊緣像素在整個(gè)分塊中的比例。
Canny濾波主要用于邊緣檢測(cè),通過(guò)搜索局部鄰域內(nèi)的像素變化強(qiáng)度獲得邊緣像素,它并不是專門針對(duì)區(qū)域劃分而設(shè)計(jì)[5]的。在實(shí)現(xiàn)Canny濾波的過(guò)程中,算法對(duì)圖像進(jìn)行高斯平滑濾波以及計(jì)算圖像的梯度幅值和方向后,為了保證邊緣的精確定位,使用了非極大值抑制的方法,將其他非局部極大值的像素清零以得到細(xì)化的邊緣。這個(gè)過(guò)程就使許多紋理區(qū)域的像素也被清零,將影響紋理區(qū)域判別的準(zhǔn)確性。由于紋理區(qū)域能夠容納更多的視覺(jué)誤差,其JND閾值也相對(duì)較大,如果該區(qū)域被錯(cuò)誤劃分,JND閾值將被低估。
由于人眼對(duì)平滑與邊緣區(qū)域比較敏感,它們的加權(quán)是相同的,提高JND閾值估計(jì)主要依靠紋理區(qū)域的精確劃分。為了更精確地劃分區(qū)域類型,本文使用了紋理分解的方法,只對(duì)分解獲得的紋理分量進(jìn)行Canny濾波,減少邊緣像素的影響,提高了JND的計(jì)算精度?;诳傋兎值慕Y(jié)構(gòu)紋理分解方法,采用邊界變分函數(shù)和振蕩函數(shù)分別模擬圖像的結(jié)構(gòu)信息和紋理信息,通過(guò)求解邊界變分函數(shù)的空間最小化問(wèn)題來(lái)有效的分解圖像,因此,在圖像的結(jié)構(gòu)紋理分解中受到廣泛關(guān)注。本文正是采用基于總變分的結(jié)構(gòu)紋理分解方法,如式(6)所示[14],其中f為原圖像,u為圖像的結(jié)構(gòu)分量,主要包含平滑以及輪廓邊緣信息;v=f-u則體現(xiàn)了圖像的紋理分量,以一階范數(shù)的形式作為保真項(xiàng)。經(jīng)過(guò)紋理分解后的圖像如圖1所示,其中,圖1(c)為圖像的紋理分量。
圖1 基于TV-L1的結(jié)構(gòu)紋理分解示意
使用Canny算子分別對(duì)原圖像與紋理分量進(jìn)行濾波,如圖2所示。由圖2(a)可以看出,Lena圖像的頭發(fā)區(qū)域在采用Canny算子直接對(duì)原圖像進(jìn)行濾波時(shí),許多紋理像素被清零,有些區(qū)域?qū)⒈徽`判為非紋理區(qū)域;圖2(b)采用紋理分量濾波的方法,結(jié)構(gòu)紋理分解使圖像減少了邊緣像素的干擾,這些區(qū)域保留著較多的紋理像素;圖2(c)與圖2(d)分別為不同方法的紋理判別結(jié)果,白色區(qū)域表示紋理部分,由圖2(d)可知采用紋理分量濾波的方式提高了判別的精確度,避免了JND低估的問(wèn)題。
圖2 紋理分量Canny濾波示意
圖3為基于紋理分解的變換域JND改進(jìn)模型的計(jì)算流程,在計(jì)算空間對(duì)比度敏感函數(shù)與亮度自適應(yīng)因子時(shí)采用了傳統(tǒng)的方法,但在計(jì)算對(duì)比度掩蓋Fcontrast(i,j)時(shí),先對(duì)圖像進(jìn)行紋理分解,然后對(duì)紋理分量v進(jìn)行Canny濾波和區(qū)域劃分,計(jì)算出更精確的Fcontrast(i,j),最后使用式(1)獲得JND閾值。
圖3 基于紋理分解的變換域JND改進(jìn)模型流程
在相同的視覺(jué)質(zhì)量下,獲得的JND閾值越大,其性能越好。為了評(píng)估 JND模型的優(yōu)劣,通常將JND值作為噪聲加入到原始圖像中,如式(7)所示。其中,C(k,i,j)表示原始圖像第k個(gè)分塊在(i,j)索引處的DCT系數(shù),J ND(k,i,j)為該系數(shù)對(duì)應(yīng)的JND閾值,Srandom隨機(jī)取+1或者?1,CJND(k,i,j)為加入噪聲后的DCT系數(shù)。
性能較好的 JND模型在相同的視覺(jué)質(zhì)量下應(yīng)能容忍更多的噪聲,即允許更多噪聲加入原始圖像中。一般用峰值信噪比(PSNR,peak signal to noise ratio)來(lái)表征加入噪聲的大小,JND閾值越大,所加入的JND噪聲能量越多,加噪后圖像的PSNR就越小,JND模型就越接近于視覺(jué)特性。
對(duì)本文所提出的變換域 JND改進(jìn)模型進(jìn)行仿真分析,并與其他變換域模型進(jìn)行比較。仿真中使用了 10張不同內(nèi)容與空域復(fù)雜度的測(cè)試圖像,如表1所示。仿真時(shí)把JND閾值作為噪聲,隨機(jī)加入到原始圖像中。Wei等人提出的JND模型與DCTune模型以及Zhang的模型相比,能容納更多的噪聲,對(duì)于512×512的圖像平均PSNR分別下降了0.61 dB與0.90 dB,同時(shí)獲得更好的視覺(jué)質(zhì)量[11]。文獻(xiàn)[12]與文獻(xiàn)[13]也是基于Wei的模型,但把DCT的塊尺寸分別擴(kuò)展到4×4與16×16,本文的模型面向常見(jiàn)的 8×8尺寸,因此主要與文獻(xiàn)[11]的模型對(duì)比。由表1第2列與第3列數(shù)據(jù)對(duì)比可以看出,本文所提出的改進(jìn)模型與文獻(xiàn)[11]所提出的JND算法相比,平均PSNR下降了0.479 dB。
圖4顯示了Lena圖像在不同模型下的JND閾值,圖4(c)為本文模型增加的紋理區(qū)域,由圖中可知,在平坦區(qū)域,2種算法的JND相同,但是改進(jìn)模型能精確判斷更多的紋理區(qū)域,相應(yīng)區(qū)域的JND閾值也隨之增加。
圖4 不同模型JND閾值對(duì)比
本文進(jìn)一步對(duì)加噪處理圖像進(jìn)行主觀質(zhì)量測(cè)試,把改進(jìn)的模型與文獻(xiàn)[11]的模型進(jìn)行比較。比較時(shí),將經(jīng)過(guò)加噪的圖像分別顯示在顯示器左右兩側(cè)。為了避免可能產(chǎn)生的偏見(jiàn),兩幅圖像的顯示位置是隨機(jī)產(chǎn)生的,并且 10幅圖像的顯示次序也是隨機(jī)的。實(shí)驗(yàn)采用LG W1942SY顯示器,觀測(cè)者距離為顯示高度的4倍。觀測(cè)人數(shù)10人,其中3人為女性。所有觀測(cè)者被要求對(duì)圖像進(jìn)行評(píng)分,評(píng)分標(biāo)準(zhǔn)如表2所示。表1第3列給出了觀測(cè)者對(duì)各圖像的平均得分,負(fù)值表示本文提出的模型觀測(cè)質(zhì)量?jī)?yōu)于其他模型,正值則相反;得分越接近零,表示視覺(jué)質(zhì)量越接近。
表1 本文模型與文獻(xiàn)[11]對(duì)比
表2 主觀質(zhì)量評(píng)分標(biāo)準(zhǔn)
由表1可以看到,本文所提出的模型與文獻(xiàn)[11]提出的模型相比,主觀評(píng)價(jià)質(zhì)量非常接近,平均質(zhì)量稍好于文獻(xiàn)[11],主要原因在于本文的算法主要改進(jìn)紋理區(qū)域的JND,人眼對(duì)這些區(qū)域的敏感度較低,可以容納更多的噪聲,在JND閾值提高的同時(shí)人眼不會(huì)感覺(jué)到圖像的變化;同時(shí),只對(duì)紋理分量進(jìn)行濾波判斷,減少了邊緣像素的影響,避免了某些邊緣區(qū)域可能被誤判為紋理而使 JND閾值高估的情況,由于人眼對(duì)邊緣區(qū)域比較敏感,這種方法將減少誤判的機(jī)率。圖5分別給出了利用本文模型與文獻(xiàn)[11]模型加噪處理后的Lena測(cè)試圖像,從主觀上觀察,兩者質(zhì)量非常接近。
圖5 利用文獻(xiàn)[11]模型以及本文模型加噪處理后的Lena測(cè)試圖像
由于本文的算法在計(jì)算JND閾值時(shí),需要先對(duì)圖像進(jìn)行紋理分解,因此在計(jì)算復(fù)雜度上有所增加。仿真實(shí)驗(yàn)基于酷睿i3-530,CPU主頻為2.93 GHz,2G內(nèi)存,仿真軟件采用Matlab 7.11.0版本。由表1第5列與第6列數(shù)據(jù)對(duì)比可以看出,本文所提出的改進(jìn)模型與文獻(xiàn)[11]的算法相比,平均時(shí)間增加了0.285 s,而且圖像尺寸越大,紋理分解需要的時(shí)間也越多,計(jì)算復(fù)雜度也相應(yīng)增加。
由以上的實(shí)驗(yàn)可知,本文提出的改進(jìn)模型能容忍更多的噪聲,在相同的主觀質(zhì)量下,能夠去除更多的視覺(jué)冗余,經(jīng)過(guò)噪聲處理后圖像的PSNR也更低,與文獻(xiàn)[11]所提出的JND算法相比,平均PSNR下降了0.479 dB。
目前的圖像視頻編碼標(biāo)準(zhǔn)主要建立在香農(nóng)信息論基礎(chǔ)之上,用概率統(tǒng)計(jì)模型描述信源,其壓縮思想主要從去除數(shù)據(jù)冗余方面出發(fā),較少考慮視覺(jué)上的冗余特性。文獻(xiàn)[15]引入人類視覺(jué)特性,對(duì)不同的 DCT系數(shù)進(jìn)行加權(quán),設(shè)計(jì)了一種基于視覺(jué)特性的量化表,該算法在相同的PSNR下比JPEG節(jié)省更多的碼率。本文嘗試將改進(jìn)的變換域JND模型用于JPEG圖像編碼。由于人眼對(duì)不同類別區(qū)域的敏感度不同,因此可以將體現(xiàn)敏感程度的JND閾值結(jié)合到量化過(guò)程中,在不同敏感區(qū)域使用不同的量化步長(zhǎng)。
對(duì)于量化步長(zhǎng)Q,其最大的量化誤差為Q/2;如果進(jìn)一步考慮了視覺(jué)冗余,在視覺(jué)質(zhì)量不變的情況下量化步長(zhǎng)可以適當(dāng)增加為Q+ΔQ,其對(duì)應(yīng)的最大的量化誤差為Q/2+ΔQ/2。與原來(lái)的誤差相比,考慮視覺(jué)冗余增加量化步長(zhǎng)后產(chǎn)生的誤差增加了Δ Q/2,如果誤差增加量ΔQ/2沒(méi)有超過(guò)JND閾值,人眼將不會(huì)覺(jué)察到這個(gè)變化。即要求
最后得到的量化步長(zhǎng)為
由于不同內(nèi)容圖像的JNDDCT(i,j)不同,為了能正確解碼,需要將體現(xiàn) JNDDCT(i,j)的輔助邊信息加入到碼流中,這會(huì)使壓縮碼率增加,同時(shí)不兼容原有的編碼標(biāo)準(zhǔn)。為了減少輔助邊信息的傳輸,本文考慮對(duì) JNDDCT(i,j)進(jìn)行適當(dāng)調(diào)整。JNDDCT(i,j)與空間對(duì)比度敏感函數(shù)、亮度自適應(yīng)因子和對(duì)比度掩蓋三者有關(guān),其中空間對(duì)比度敏感函數(shù)JCSF(i,j)與圖像的內(nèi)容無(wú)關(guān),解碼端可以預(yù)先獲得,因此JCSF(i,j)不需要加入碼流;亮度自適應(yīng)因子Alum與平均亮度有關(guān),而 DCT系數(shù)的直流分量直接體現(xiàn)了平均亮度的水平,式(10)表示了JPEG編碼標(biāo)準(zhǔn)中DCT直流系數(shù)DC與平均亮度的關(guān)系,其中,N=8,為圖像分塊的尺寸。為了減少輔助信息的傳輸,對(duì)直流系數(shù) DC量化時(shí) JND只采用視覺(jué)基本閾值JCSF(i,j)部分的值,這樣不需要傳輸相關(guān)的數(shù)據(jù)解碼器就可以很方便地獲得直流分量,用式(10)計(jì)算出平均亮度后,就可以獲得亮度自適應(yīng)因子Alum。
對(duì)比度掩蓋加權(quán)因子 Fcontrast(i,j)與圖像塊的區(qū)域劃分有關(guān),將紋理區(qū)域的加權(quán)系數(shù)統(tǒng)一調(diào)整為ψ=1.25,并忽略子帶系數(shù)自身的掩蓋效應(yīng),這種調(diào)整會(huì)使JND閾值減少,但是也減少了輔助邊信息的傳輸。由于平滑區(qū)域與邊緣區(qū)域的加權(quán)都是ψ=1,紋理區(qū)域的加權(quán)系數(shù)都統(tǒng)一為ψ=1.25,因此每個(gè)塊在編碼時(shí)只需要額外增加塊區(qū)域類型信息就可以使解碼端計(jì)算出 Fcontrast(i,j)。在JPEG編碼標(biāo)準(zhǔn)中,每個(gè)塊經(jīng)過(guò)哈夫曼編碼以后都會(huì)以EOB結(jié)尾,標(biāo)準(zhǔn)表中亮度系數(shù)的EOB為1010,實(shí)際上塊區(qū)域類型信息可以與EOB 一起判斷,根據(jù)霍夫曼編碼的唯一性原則選取了另一個(gè)碼值1001[16]與1010聯(lián)合判斷,其中1010表示當(dāng)前塊為邊緣或者平坦區(qū)域,1001則表示當(dāng)前塊為紋理區(qū)域。這種編碼方法使編碼端在不需要增加任何比特?cái)?shù)據(jù)的同時(shí)把塊區(qū)域類型信息嵌入到碼流,解碼端很容易從改進(jìn)的 EOB信息中判斷出塊類型并計(jì)算出量化步長(zhǎng)。
對(duì)10張測(cè)試圖像分別使用JPEG基本系統(tǒng),文獻(xiàn)[15]以及本文改進(jìn)的編碼方法進(jìn)行壓縮,其中256×256與512×512尺寸各5張,JPEG編碼采用缺省的亮度信號(hào)量化表,本文的量化步長(zhǎng)在缺省量化表的基礎(chǔ)上利用式(9)計(jì)算,編碼結(jié)果如表3所示。由于隨著圖像尺寸的增加,JND閾值也會(huì)提高[11],量化步長(zhǎng)的增加使得本文算法對(duì)512×512圖像的壓縮性能提高稍大一些,與JPEG編碼相比本文的算法平均碼率減少了 14.7%,與文獻(xiàn)[15]相比本文算法平均碼率減少了10.7%。
表3 JPEG編碼算法、文獻(xiàn)[15]以及本文編碼算法碼率對(duì)比
PSNR在評(píng)價(jià)圖像質(zhì)量時(shí)不能體現(xiàn)人眼的視覺(jué)特性,本文將不同編碼方法的重構(gòu)圖像使用基于結(jié)構(gòu)相似度(SSIM,structural similarity)的評(píng)價(jià)方法進(jìn)行客觀質(zhì)量對(duì)比[17],如表4所示。SSIM模型通過(guò)計(jì)算圖像亮度、對(duì)比度和結(jié)構(gòu)的相似性來(lái)度量圖像質(zhì)量的好壞,SSIM值越接近1則圖像的質(zhì)量就越好,由表4可知本文編碼方法的重建圖像與JPEG以及文獻(xiàn)[15]的編碼重建圖像非常接近,雖然SSIM值稍小一些,比JPEG標(biāo)準(zhǔn)平均減少了0.013,比文獻(xiàn)[15]的重建圖像平均減少0.014,但并不意味著實(shí)際的主觀圖像質(zhì)量就偏差,因?yàn)镾SIM算法主要考慮圖像的結(jié)構(gòu)相似性,較少考慮到人眼對(duì)不同類型區(qū)域的敏感性。進(jìn)一步對(duì)重構(gòu)圖像的主觀質(zhì)量進(jìn)行測(cè)試,把改進(jìn)算法的重構(gòu)圖像分別與JPEG編碼以及文獻(xiàn)[15]進(jìn)行比較,測(cè)試方法與之前的主觀評(píng)價(jià)實(shí)驗(yàn)類似,結(jié)果如表4第5列與第 6列所示,3種編碼方法的重構(gòu)圖像主觀質(zhì)量非常相近。圖 6為L(zhǎng)ena圖像使用不同編碼算法后的重構(gòu)結(jié)果,本文算法所獲得的重構(gòu)圖像與 JPEG非常接近,但是碼率下降了13.6%,與文獻(xiàn)[15]相比碼率減少了9.7%。因此,本文提出的基于JND模型的圖像編碼方法在節(jié)省更多碼率的同時(shí)仍然保持了相似的視覺(jué)質(zhì)量。
表4 JPEG、文獻(xiàn)[15]以及本文編碼算法重構(gòu)圖像質(zhì)量對(duì)比
圖6 JPEG編碼、文獻(xiàn)[15]以及本文編碼算法重構(gòu)圖像對(duì)比
在編碼復(fù)雜度方面,本文的方法對(duì)不同的圖像編碼時(shí)需要先計(jì)算JND閾值,因此編碼時(shí)間有所增加,仿真結(jié)果如表5所示。與JPEG編碼標(biāo)準(zhǔn)相比,本文算法編碼時(shí)間平均增加16.7%左右;由于文獻(xiàn)[15]需要對(duì)不同的DCT系數(shù)進(jìn)行加權(quán)相乘,因此與文獻(xiàn)[15]相比本文算法增加了 7.9%的編碼復(fù)雜度。
表5 JPEG編碼算法、文獻(xiàn)[15]以及本文編碼算法復(fù)雜度對(duì)比
變換域 JND模型主要與人眼對(duì)圖像的頻率敏感度以及掩蔽特性等因素有關(guān),具體由基本視覺(jué)閾值、平均亮度以及對(duì)比度掩蓋因子3個(gè)方面組成。對(duì)比度掩蔽使得人眼對(duì)紋理區(qū)域的噪聲容忍度相對(duì)較高,而對(duì)平坦區(qū)域以及邊緣區(qū)域的噪聲比較敏感。本文在計(jì)算對(duì)比度掩蓋因子時(shí)先對(duì)圖像進(jìn)行結(jié)構(gòu)紋理分解,然后只對(duì)紋理分量濾波并判斷區(qū)域類型,這種方法去除了邊緣像素的干擾,提高了對(duì)比度掩蓋因子計(jì)算的精度。仿真實(shí)驗(yàn)表明,本文的方法能獲得更高的 JND閾值,平均減少視覺(jué)冗余達(dá)到0.479 dB。
本文在改進(jìn)JND模型的基礎(chǔ)上,將其用于靜止圖像編碼,設(shè)計(jì)了一種基于JND模型的量化方法??紤]到編碼的兼容性以及輔助信息對(duì)編碼效率的影響,在量化之前對(duì)JND模型進(jìn)行折中處理,雖然會(huì)使JND閾值有所下降,但總的碼率得到較大的提高。仿真結(jié)果表明,與JPEG編碼標(biāo)準(zhǔn)相比,本文的算法在相似的視覺(jué)質(zhì)量下能去除更多的視覺(jué)冗余,并且不需要增加額外的比特?cái)?shù)據(jù),同時(shí)保持與JPEG編碼標(biāo)準(zhǔn)的兼容,能平均節(jié)省碼率 14.7%左右。由于本文編碼方法需要計(jì)算圖像的JND閾值,因此在計(jì)算復(fù)雜度上還有待改進(jìn)。該編碼思路不僅適用于靜止圖像編碼,也可以用于基于視覺(jué)特性的視頻編碼,在下一步的研究中,擬將該方法用于下一代的高效視頻編碼標(biāo)準(zhǔn)HEVC中,以進(jìn)一步提高HEVC的編碼效率。
[1]YANY X K,LIN W S,LU Z K,et al. Just noticeable distortion model and its applications in video coding[J]. Signal Processing: Image Communication,2005,20(7):662-680.
[2]MATTEO N,FERNANDO P. Advanced H.264/AVC-based perceptual video: coding: architecture,tools,and assessment[J]. IEEE Transaction on Circuits and Systems for Video Technology,2011,21(6):766-782.
[3]PHIBANG N,BEGHDADI A,LUONG M. Perceptual watermarking robust to JPEG compression attack[A]. Proceedings of the 5th International Symposium on Communications Control and Signal Processing[C]. Rome,Italy,2012.1-4.
[4]HSU M C,WU G L,CHIEN S Y. Combination of SSIM and JND with content-transition classification for image quality assessment[A]. Visual Communications and Image Processing (VCIP)[C]. San Diego,USA,2012.1-6.
[5]LIU A,LIN W S,PAUL M,et al. Just noticeable difference for image with decomposition model for separating edge and texture regions[J].IEEE Transaction on Circuits and Systems for video Technology,2010,20(11):1648-1652.
[6]WU J J,QI F,SHI G M. Self-similarity based structural regularity for just noticeable difference estimation[J]. Journal of Visual Communication and Image Representation,2012,23(6):845-852.
[7]AHUMADA A J,PETERSON H A. Luminance-model-based DCT quantization for color image compression[A]. Hum. Vision Visual Process. Digital Display III[C]. 1992.365-374.
[8]WATSON A B. DCTune: a technique for visual optimization of DCT quantization matrices for individual images[A]. Proceedings of Society for Information Display Digest of Technical[C]. San Diego,USA,1993.946-949.
[9]ZHANG X H,LIN W S,XUE P. Improved estimation for just- noticeable visual distortion[J]. Signal Processing,2005,84(4):795-808.
[10]JIA Y,LIN W S,KASSIM A A. Estimating just noticeable distortion for video[J]. IEEE Transactions on Circuits and Systems for Video Technology,2006,16(7):820-829.
[11]WEI Z Y,NGAN K N. Spatio-temporal just noticeable distortion profile for grey scale image video in DCT domain[J]. IEEE Transactions on Circuits and Systems for Video Technology,2009,19(3): 337-346.
[12]MA L,NGAN K N. Adaptive block-size transform based just-noticeable difference model for images/videos[J]. Signal Processing: Image Communication,2011,26(3):162-174.
[13]LUO Z Y,SONG L,ZHENG S B,et al. H.264/AVC perceptual optimization coding based on JND-directed coefficient suppression[J].IEEE Transactions on Circuits and Systems for Video Technology,2013,23(6):935-948.
[14]YIN W,GOLDFARB D,OSHER S. A comparison of three total variation based texture extraction models[J]. Journal of Visual Communication and Image Representation,2007,18(3):240-252.
[15]WANG C Y,LEE S M,CHANG L W. Designing JPEG quantization tables based on human visual system[J]. Signal Processing: Image Communication,2001,16(5):501-506.
[16]潘榕,劉昱,侯正信等. 基于局部 DCT系數(shù)的圖像壓縮感知編碼與重構(gòu)[J]. 自動(dòng)化學(xué)報(bào),2011,37(6):674-681.PAN R,LIU Y,HOU Z X,et al. Image coding and reconstruction via compressed sensing based on partial DCT coefficients[J]. Acta Automatica Sinica,2011,37(6):674-681.
[17]WANG Z,BOVIK A C,SHEIKH H R,et al. Image quality assessment:from error measurement to structural similarity[J]. IEEE Transactions on Image Process,2004,13(4): 600-612.