夏裕建,孫 涵
(南京航空航天大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,江蘇 南京 210016)
自然圖像指的是通過設(shè)備獲取的客觀世界的圖形化描述,是對(duì)客觀世界的真實(shí)描述,例如風(fēng)景人物照、衛(wèi)星遙感圖等。與計(jì)算機(jī)生成的人工圖像在統(tǒng)計(jì)上毫無規(guī)律的情況不同,自然圖像被發(fā)現(xiàn)存在著內(nèi)在的統(tǒng)計(jì)規(guī)律,已知的自然圖像特性有以下幾點(diǎn):自相似性、尺度不變性、非高斯性和邊緣主導(dǎo)特性、高維奇異性[1]。
自相似性是指自然圖像的局部和全局較為相似,尺度不變性指的是自然圖像的統(tǒng)計(jì)規(guī)律并不隨圖像尺寸的變化而變化,邊緣主導(dǎo)性指的是Ann B.Lee和David Mumford[2]發(fā)現(xiàn)的邊緣占據(jù)自然圖像中的主導(dǎo)部分的特性,高維奇異性指的就是圖像的邊緣實(shí)際上是非連續(xù)點(diǎn)連接而成的曲線而不是孤立的非連續(xù)點(diǎn)。
近幾年來,研究人員也建立了不少統(tǒng)計(jì)模型來描述自然圖像的統(tǒng)計(jì)特性,并對(duì)無參考圖像質(zhì)量評(píng)價(jià)進(jìn)行了深入的研究,提出了一些有效的無參考的圖像質(zhì)量評(píng)價(jià)方法。無參考圖像質(zhì)量評(píng)價(jià)方法主要可以分為針對(duì)特定失真類型的無參考圖像質(zhì)量評(píng)價(jià)算法和通用的無參考圖像質(zhì)量評(píng)價(jià)算法2 種。其中,自然場景統(tǒng)計(jì)(NSS)模型在無參考圖像質(zhì)量評(píng)價(jià)算法中得到成功的應(yīng)用,使得NSS 模型受到越來越多的關(guān)注。
針對(duì)特定失真類型的無參考圖像質(zhì)量評(píng)價(jià)需要已知圖像失真類型來對(duì)圖像質(zhì)量進(jìn)行評(píng)價(jià)。Wang 等人針對(duì)JPEG 壓縮圖像,計(jì)算平均塊邊界的差異、塊內(nèi)活動(dòng)以及零交叉密度,通過函數(shù)擬合方法來計(jì)算圖像質(zhì)量[3]。Narvekar 等人提出JNB(Just Noticeable Blur)模型得到模糊圖像的質(zhì)量評(píng)價(jià)方法[4]。Z.M.P.Sazzad 等人提出了針對(duì)JPEG 2000 失真圖像的質(zhì)量評(píng)價(jià)模型[5]。X.Zhu 等人基于局部梯度信息建立模型,提出了針對(duì)圖像模糊和噪聲的評(píng)價(jià)方法[6]。H.R.Sheikh 與A.C.Bovik 等人利用NSS 模型來預(yù)測JPEG2000 壓縮過的圖像的質(zhì)量[7]。
而通用型無參考圖像質(zhì)量評(píng)價(jià)不需要已知圖像失真類型,具有更廣泛的應(yīng)用價(jià)值。Moorthy 和Bovik提出了一個(gè)基于兩步模型的NR-IQA 算法BIQI[8],包括失真類型分類以及針對(duì)特定失真類型的質(zhì)量評(píng)價(jià)步驟,其中也使用了NSS 特征。后來,Moorthy 和Bovik 又利用該模型在小波域提取出相關(guān)NSS 特征來對(duì)圖像質(zhì)量進(jìn)行預(yù)測,提出DIIVINE[9]算法。Saad 等人提出了BLIINDS-II[10]算法,該算法在離散余弦變換域提取NSS 特征來對(duì)圖像質(zhì)量進(jìn)行評(píng)價(jià)。Mittal等人提出BRISQUE[11]算法,該算法利用局部歸一化亮度因子的NSS 特征來量化圖像中的失真,提取特征之后利用SVM 和SVR 來評(píng)價(jià)圖像質(zhì)量。Bovik 等人提出NIQE[12]算法,該算法利用BRISQUE 算法中提取出來的特征,利用多元高斯模型來建立模型擬合提取出的特征,最后計(jì)算從失真圖像塊中提取的擬合MVG 模型特征與從自然圖像集中提取的特征間的距離作為圖像質(zhì)量的評(píng)價(jià)。NIQE 算法不需要對(duì)失真類型做出判斷,也無需對(duì)主觀分值進(jìn)行訓(xùn)練,實(shí)現(xiàn)了盲評(píng)價(jià)。
以上算法中,基于特定失真類型的無參考圖像質(zhì)量診斷算法需要事先知道圖像的失真類型,這在實(shí)際應(yīng)用中是比較困難的。而通用型算法則大多需要利用已知主觀評(píng)分的圖像,采用機(jī)器學(xué)習(xí)的方法訓(xùn)練數(shù)據(jù)得到模型。NIQE 算法無需這些過程,但是其評(píng)價(jià)性能一般,且耗時(shí)也較長。本文認(rèn)真研究了以上算法,在NIQE 算法的基礎(chǔ)上進(jìn)行改進(jìn),利用梯度強(qiáng)度代替NIQE 算法中的方差來選取自然圖像的興趣區(qū)域,然后提取NSS 特征進(jìn)行建模。實(shí)驗(yàn)證明,本文的算法與NIQE 相比,Pearson 相關(guān)系數(shù)和Spearman 相關(guān)系數(shù)有所提高,與主觀評(píng)價(jià)結(jié)果更為一致。
改進(jìn)的算法描述如下,首先利用人工選取的自然圖像來建立自然圖像的多元高斯分布(Multivariate Gaussian,MVG)模型。具體建模步驟如下:
1)對(duì)自然圖像進(jìn)行預(yù)處理,灰度化之后計(jì)算圖像的歸一化亮度系數(shù);
2)對(duì)預(yù)處理后的圖像進(jìn)行分塊處理,同時(shí)計(jì)算圖像的梯度信息;
3)根據(jù)梯度強(qiáng)度進(jìn)行興趣區(qū)域的選取;
4)再在選取的圖像塊中提取出建立模型所需要的空域NSS 特征;
5)根據(jù)提出來的空域特征建立自然圖像的MVG模型。
然后根據(jù)同樣的步驟提取測試圖像的空域NSS 特征,建立測試圖像的MVG 模型,對(duì)于測試圖像不需要選取興趣區(qū)域的步驟,具體原因見1.4 節(jié)相關(guān)說明。
最終根據(jù)建立的自然圖像和測試圖像的MVG 模型,計(jì)算模型之間的距離,即測試圖像與自然圖像在NSS 規(guī)律上的偏離程度,并用此偏離程度來度量測試圖像的質(zhì)量。
下文將對(duì)建立MVG 模型的各個(gè)步驟逐一進(jìn)行詳細(xì)的說明。
對(duì)圖像進(jìn)行預(yù)處理主要是為了計(jì)算出圖像的歸一化亮度系數(shù)。預(yù)處理首先將彩色圖像轉(zhuǎn)為灰度圖像,然后根據(jù)圖像分塊大小進(jìn)行裁剪圖像邊界的處理,保證分塊階段順利進(jìn)行并減少計(jì)算量,然后對(duì)圖像的每一個(gè)像素通過以下公式來計(jì)算圖像歸一化亮度系數(shù)(i,j)。
在式(1)~式(3)中,I (i,j)為對(duì)應(yīng)的原始圖像的灰度值,i∈{1,2,…,M},j∈{1,2,…,N},M 和N 分別為圖像的高度和寬度,c 為一個(gè)較小的常量,是為了防止分母接近于0 的時(shí)候造成的計(jì)算結(jié)果不穩(wěn)定的情況。μ (i,j)和σ (i,j)分別為加權(quán)的均值和方差,維圓對(duì)稱高斯加權(quán)函數(shù)。求得的歸一化系數(shù)被稱之是一個(gè)二為歸一化亮度(MSCN)系數(shù)。
Ruderman[13]認(rèn)為自然圖像的歸一化亮度系數(shù)的統(tǒng)計(jì)特征趨向于服從廣義高斯密度分布,而對(duì)于引入失真的圖像,該歸一化亮度系數(shù)的統(tǒng)計(jì)分布就會(huì)偏離高斯分布,所以這種偏離的程度就可以用來度量圖像的失真程度。本算法思想就是通過比較測試圖像和自然圖像的歸一化亮度系數(shù)的不同,計(jì)算測試圖像和自然圖像的歸一化亮度系數(shù)的距離來評(píng)價(jià)圖像質(zhì)量。
原始圖像及預(yù)處理過后的灰度圖像如圖1 所示,對(duì)照原圖中添加的線條可以看出,灰度圖像較原圖右側(cè)和下側(cè)都有被裁剪的部分。
圖1 原始圖像與預(yù)處理后的灰度圖像對(duì)比
由1.1 節(jié)計(jì)算出圖像的歸一化亮度系數(shù)之后,對(duì)自然圖像進(jìn)行分塊,分塊大小為P ×P。后續(xù)提取圖像的空域NSS 特征就是從各個(gè)分塊圖像中分別提取的,由于人眼更傾向于從圖像中更清晰的部分來判斷圖像質(zhì)量高低,所以本文對(duì)分塊后的圖像提取興趣區(qū)域,選擇相對(duì)更清晰的圖像分塊來進(jìn)行后續(xù)的空域NSS 特征提取。進(jìn)行興趣區(qū)域提取之后,由于只需要對(duì)圖像興趣區(qū)域中的圖像塊進(jìn)行特征提取,能提高算法性能。
本算法中提取圖像興趣區(qū)域是提取出圖像中的高頻部分以選取圖像中的清晰區(qū)域,圖像的清晰度可以看作圖像細(xì)節(jié)的保真程度,邊緣細(xì)節(jié)部分保留的越多,圖像越清晰。目前清晰度評(píng)價(jià)方法主要有基于空域的梯度函數(shù)算法、基于頻域的頻域變換算法以及基于圖像信息的熵函數(shù)評(píng)價(jià)算法。本算法是基于提取空域的NSS 特征,采用了基于空域的梯度函數(shù)的算法來進(jìn)行圖像清晰度評(píng)價(jià)準(zhǔn)則最終用來進(jìn)行興趣區(qū)域的選取。
本文采用的提取興趣區(qū)域的算法首先利用差分代替求導(dǎo)計(jì)算圖像的水平、垂直方向的梯度值,具體計(jì)算公式如式(4)、式(5)所示:
式(4)、式(5)中,輸入圖像為經(jīng)過上文預(yù)處理步驟后的處理過邊界的灰度圖像,I(x,y)為該灰度圖像的亮度值。ΔxI(x,y)與ΔyI(x,y)分別為圖像點(diǎn)的水平和垂直方向的梯度值。
然后利用上面計(jì)算得到的水平和垂直梯度值計(jì)算得到圖像的梯度算子,具體計(jì)算公式如式(6):
式(6)中G(x,y)代表圖像的梯度算子即本文使用的清晰度評(píng)價(jià)值,式中min 函數(shù)是進(jìn)行越界處理的步驟,即將計(jì)算得到梯度大于255 的像素點(diǎn)賦值為255。然后對(duì)上文計(jì)算得到的梯度圖像進(jìn)行二值化,最終得到二值化后的圖像。最終求得的梯度圖像及二值化圖像如圖2 所示。
圖2 梯度圖像及二值化圖像示意圖
本文把通過上述步驟得到的二值化圖像作為最終提取興趣區(qū)域的基礎(chǔ),通過確定圖像塊是否位于二值化圖像的興趣目標(biāo)內(nèi)來選取興趣區(qū)域。對(duì)于圖像塊的選取,采用的原則是只要圖像塊中有超過一定比例的像素點(diǎn)在興趣目標(biāo)內(nèi),則認(rèn)為該圖像塊對(duì)于質(zhì)量評(píng)價(jià)是有效的,選定該圖像塊作為后續(xù)特征提取的輸入。具體公式如式(7)所示:
式(7)中G(i,j)為二值化圖像的像素值,取值為1 或者0;row 和col 分別為預(yù)處理步驟中對(duì)圖像進(jìn)行分塊得到的圖像塊的行和列的寬度;m 和n 分別為進(jìn)行預(yù)處理之后的圖像的長和寬;γ 為本文求得的圖像塊興趣相關(guān)度的評(píng)價(jià)值。對(duì)于一個(gè)圖像塊,使用取舍原則取其中γ 值大于一定值的圖像塊作為興趣圖像塊。
最終原圖及提取的興趣區(qū)域示意如圖3 所示,本文選取了NIQE 中選取自然圖像清晰區(qū)塊的算法效果圖進(jìn)行對(duì)比,可以看到本算法基本可以選取到圖像中的興趣目標(biāo),對(duì)于目標(biāo)興趣區(qū)塊來說比NIQE 算法選取的目標(biāo)興趣區(qū)塊更為完整、合理。
圖3 本文算法與NIQE 算法求得的興趣圖像塊對(duì)比
經(jīng)過以上步驟的處理,得到興趣區(qū)域內(nèi)的圖像分塊,用于建立MVG 模型的空域NSS 特征就是從這些圖像塊中提出來的。研究發(fā)現(xiàn),廣義高斯密度函數(shù)(Generalized Gaussian Distribution,GGD)能夠有效地捕獲自然圖像和失真圖像的MSCN 系數(shù)的統(tǒng)計(jì)規(guī)律[14]。廣義高斯密度函數(shù)如式(8)所示:
式(8)中,Γ(·)是gamma 函數(shù)。
式(9)中參數(shù)α 決定了高斯分布的形狀,σ2決定了高斯分布的方差,當(dāng)α 為1 時(shí),該分布就退化為拉普拉斯分布。
因此,對(duì)于一幅圖像,GGD 模型提取了2 個(gè)參數(shù)(α,σ2)來評(píng)價(jià)圖像質(zhì)量,這2 個(gè)參數(shù)可以使用文獻(xiàn)[15]中提到的基于時(shí)刻匹配的方法進(jìn)行估算。
觀察發(fā)現(xiàn),自然圖像相鄰像素歸一化亮度系數(shù)的乘積也符合一定的統(tǒng)計(jì)規(guī)律,可以表示圖像的結(jié)構(gòu)信息,而失真的引入會(huì)減弱這種結(jié)構(gòu)性,因此,相鄰像素的歸一化亮度系數(shù)乘積也可以用來評(píng)價(jià)圖像的質(zhì)量。
本文對(duì)自然圖像,在水平、垂直、主對(duì)角線、副對(duì)角線4 個(gè)方向提取結(jié)構(gòu)信息,具體如下:
其中i∈{0,1,…,M-2},j∈{1,2,…,N-2},M 和N分別為圖像的高度和寬度。
圖像中相鄰像素的歸一化亮度系數(shù)乘積可以用非對(duì)稱的廣義高斯模型(Asymmetric Generalized Gaussian Distribution,AGGD)來近似模擬[16]。零均值的非對(duì)稱廣義高斯分布的表達(dá)式如式(10)所示:
AGGD 參數(shù)可以使用文獻(xiàn)[16]中提到的基于時(shí)刻匹配的算法進(jìn)行估算。AGGD 的平均值η 也提取出來作為特征:
這樣,對(duì)于每一幅圖像,在灰度空間對(duì)MSCN 系數(shù)建立GGD 模型提取2 個(gè)特征(α,σ2),并在水平、垂直、主對(duì)角線、副對(duì)角線4 個(gè)方向計(jì)算對(duì)相鄰像素的MSCN 系數(shù)乘積建模,在每個(gè)方向上提取(η,v,)四個(gè)特征,共有18個(gè)特征用于評(píng)價(jià)圖像的質(zhì)量。為了更好地捕獲結(jié)構(gòu)信息,該方法又對(duì)圖像進(jìn)行2 倍下采樣,使用同樣的方法再提取出18 個(gè)特征,最終得到36 維的特征向量用于最終的質(zhì)量評(píng)價(jià),提取出的特征如表1 所示。
表1 提取的特征
上述步驟從自然圖像中選定的興趣區(qū)域圖像分塊計(jì)算得到了36 維的空域NSS 特征,通過式(12)MVG 密度函數(shù)來匹配這些特征,可以很好地表現(xiàn)這些特征的信息。
式(12)中(x1,...,xk)是計(jì)算得到的NSS 特征,ν 和Σ 代表了使用最大似然估計(jì)程序估算得到的MVG 模型的均值和協(xié)方差矩陣[17]。
通過對(duì)選取的一系列自然圖像進(jìn)行以上步驟最終得到自然圖像的MVG 模型。前面提到本文算法是通過計(jì)算自然圖像MVG 模型和測試圖像MVG 模型的距離來評(píng)價(jià)圖像質(zhì)量的。
建立測試圖像的MVG 模型跟建立自然圖像的MVG 模型步驟相似,同樣需要經(jīng)過預(yù)處理、對(duì)圖像分塊、提取空域特征、建立MVG 模型等步驟。與建立自然圖像MVG 模型不同的是,在建立測試圖像MVG模型時(shí)沒有引入興趣區(qū)域選取的步驟,而是針對(duì)整幅圖像建立MVG 模型的。具體原因是因?yàn)槭д鎴D像中不清晰就意味著失真的存在,如果忽視不清晰的圖像分塊,將會(huì)導(dǎo)致對(duì)失真嚴(yán)重程度的誤判。而且失真的引入也會(huì)對(duì)興趣區(qū)域的提取造成干擾,可能出現(xiàn)對(duì)于一幅失真嚴(yán)重的圖像并不存在一個(gè)明顯的興趣區(qū)域的極端情況。
最終,失真圖像的質(zhì)量被表示為自然圖像MVG模型和測試圖像MVG 模型的距離,測試圖像和自然圖像MVG 模型距離的計(jì)算公式如式(13):
式(13)中ν1和ν2是自然圖像MVG 模型和測試圖像MVG 模型的均值向量,Σ1和Σ2是自然圖像MVG 模型和測試圖像MVG 模型的協(xié)方差矩陣。
本文使用LIVE IQA 圖像數(shù)據(jù)庫[18]來對(duì)本算法進(jìn)行測試。LIVE IQA 圖像數(shù)據(jù)庫是由29 幅原始參考圖像以及779 幅失真圖像組成。失真圖像是由原始參考圖像通過不同類型的失真運(yùn)算得到的,失真類型包括以下幾種:JPEG2000 壓縮失真、JPEG 壓縮失真、白噪聲、高斯模糊失真以及Fast-Fading 失真。LIVE IQA 圖像數(shù)據(jù)庫中的每一幅失真圖像都提供有對(duì)應(yīng)的DMOS(Difference Mean Opinion Scores)分值來代表該圖像的主觀評(píng)價(jià)分值,DMOS 分值范圍為0到100,值越大代表圖像主觀評(píng)分越差,參考圖像的DMOS 值為0。
為了對(duì)比客觀評(píng)價(jià)算法的優(yōu)劣,本文采用Spearman 等級(jí)次序相關(guān)系數(shù)(Spearman's Rank Ordered Correlation Coefficient,SROCC)和Pearson 線性相關(guān)系數(shù)(Pearson's Linear Correlation Coefficient,PLCC)來驗(yàn)證客觀評(píng)價(jià)加過和主觀評(píng)價(jià)結(jié)果直接緊密程度。計(jì)算得到的SROCC 與PLCC 兩者的值越大,表示算法的性能越好。本文使用的SROCC 與PLCC 參數(shù)的計(jì)算公式如式(14)、式(15)所示:
為了更好地測試本算法的性能,本文選取了全參考圖像質(zhì)量評(píng)價(jià)算法PSNR 與無參考圖像質(zhì)量評(píng)價(jià)算法NIQE[12]算法來與本算法進(jìn)行比較,通過比較各算法的SROCC 和PLCC 評(píng)分來評(píng)價(jià)算法效果,并對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行比較。實(shí)驗(yàn)中計(jì)算過程重復(fù)多次,最終取多次實(shí)驗(yàn)結(jié)果的平均值作為實(shí)驗(yàn)的最終結(jié)果。具體結(jié)果如表2、表3 所示。
表2 實(shí)驗(yàn)SROCC 得分
表3 實(shí)驗(yàn)PLCC 得分
由上可知,對(duì)于全參考圖像質(zhì)量評(píng)價(jià)算法PSNR,本文提出的算法在JP2K 壓縮、JPEG 壓縮、白噪聲、高斯模糊失真類型上的評(píng)價(jià)效果上全面優(yōu)于全參考評(píng)價(jià)方法PSNR,在Fast-Fading 失真類型的評(píng)價(jià)效果差距不大,可以接受。由此可見本文算法較全參考圖像質(zhì)量評(píng)價(jià)算法有一定的優(yōu)勢。
對(duì)于無參考圖像質(zhì)量評(píng)價(jià)算法NIQE,通過上述表格可以看出,由于對(duì)興趣區(qū)域的選取更加合理,本算法在JP2K 壓縮、JPEG 壓縮、白噪聲、高斯模糊的失真類型與全類型失真的評(píng)價(jià)效果較NIQE 算法都有所提升,而在Fast-Fading 失真類型的評(píng)價(jià)結(jié)果差距較小,可以接受。
總體而言,本算法在NIQE 基礎(chǔ)上加上了興趣區(qū)域的選取,更好地提取了興趣特征,故本算法優(yōu)于PSNR 算法且較NIQE 算法效果有了一定的提升。
本文在經(jīng)典的無參考圖像質(zhì)量評(píng)價(jià)算法NIQE的基礎(chǔ)上進(jìn)行了改進(jìn),利用空域自然場景統(tǒng)計(jì)特征,修改了原算法中自然圖像MVG 模型建立過程中選擇興趣圖像區(qū)塊的算法為梯度密度的方法,提出了一種無需機(jī)器學(xué)習(xí)參與的無參考圖像質(zhì)量評(píng)價(jià)算法。該算法無需事先知道圖像失真類型,也無需利用主觀評(píng)分來訓(xùn)練,僅僅利用圖像的自然場景統(tǒng)計(jì)特征來進(jìn)行計(jì)算獲得圖像質(zhì)量。實(shí)驗(yàn)證明,該算法與人類主觀判斷較為一致,跟NIQE 算法相比算法效果有所提升,且評(píng)價(jià)效果不遜色于當(dāng)前主流無參考圖像質(zhì)量評(píng)價(jià)算法的效果。
本文提出的圖像質(zhì)量評(píng)價(jià)方法的思路也可以擴(kuò)展到視頻質(zhì)量評(píng)價(jià)領(lǐng)域。在視頻質(zhì)量診斷領(lǐng)域,對(duì)應(yīng)的方法為先提取出運(yùn)動(dòng)目標(biāo)區(qū)域,作為視頻幀的興趣區(qū)域,然后基于提取的興趣區(qū)域進(jìn)行視頻質(zhì)量評(píng)價(jià)算法的設(shè)計(jì),這樣可以大大減少運(yùn)算量,在實(shí)時(shí)性要求比較高的場景有很大的應(yīng)用前景。
[1]高新波,路文.視覺信息質(zhì)量評(píng)價(jià)方法[M].西安:西安電子科技大學(xué)出版社,2011:114-115.
[2]Lee A B,Pedersen K S,Mumford D.The nonlinear statistics of high-contrast patches in natural images[J].International Journal of Computer Vision,2003,54(1-3):83-103.
[3]Wang Z,Bovik A C,Evan B L.Blind measurement of blocking artifacts in images[C]// Proceedings of IEEE 2000 International Conference on Image Processing.2000,3:981-984.
[4]Narvekar N D,Karam L J.A no-reference image blur metric based on the cumulative probability of blur detection(CPBD)[J].IEEE Transactions on Image Processing,2011,20(9):2678-2683.
[5]Parvez Sazzad Z M,Kawayoke Y,Horita Y.No reference image quality assessment for JPEG2000 based on spatial features[J].Signal Processing:Image Communication,2008,23(4):257-268.
[6]Zhu X,Milanfar P.A no-reference sharpness metric sensitive to blur and noise[C]// IEEE 2009 International Workshop on Quality of Multimedia Experience(QoMEx).2009:64-69.
[7]Sheikh H R,Bovik A C,Cormack L.No-reference quality assessment using natural scene statistics:JPEG2000[J].IEEE Transactions on Image Processing,2005,14(11):1918-1927.
[8]Moorthy A K,Bovik A C.A two-step framework for constructing blind image quality indices[J].Signal Processing Letters,IEEE,2010,17(5):513-516.
[9]Moorthy A K,Bovik A C.Blind image quality assessment:From natural scene statistics to perceptual quality[J].IEEE Transactions on Image Processing,2011,20(12):3350-3364.
[10]Saad M A,Bovik A C,Charrier C.Blind image quality assessment:A natural scene statistics approach in the DCT domain[J].IEEE Transactions on Image Processing,2012,21(8):3339-3352.
[11]Mittal A,Moorthy A K,Bovik A C.No-reference image quality assessment in the spatial domain[J].IEEE Transactions on Image Processing,2012,21(12):4695-4708.
[12]Mittal A,Soundararajan R,Bovik A C.Making a“completely blind”image quality analyzer[J].Signal Processing Letters,IEEE,2013,20(3):209-212.
[13]Ruderman D L.The statistics of natural images[J].Network:Computation in Neural Systems,1994,5(4):517-548.
[14]Moorthy A K,Bovik A C.Statistics of natural image distortions[C]// IEEE 2010 International Conference on Acoustics Speech and Signal Processing(ICASSP),2010:962-965.
[15]Sharifi K,Leon-Garcia A.Estimation of shape parameter for generalized Gaussian distributions in subband decompositions of video[J].IEEE Transactions on Circuits and Systems for Video Technology,1995,5(1):52-56.
[16]Lasmar N E,Stitou Y,Berthoumieu Y.Multiscale skewed heavy tailed model for texture analysis[C]// IEEE 2009 the 16th IEEE International Conference on Image Processing(ICIP).2009:2281-2284.
[17]Bishop C M.Pattern Recognition and Machine Learning[M].New York:Springer,2006:200-202.
[18]Sheikh H R,Wang Z,Cormack L,et al.LIVEImage Quality Assessment Database Release 2[EB/OL].http://live.ece.utexas.edu/research/quality,2007-07-17.