国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于支持向量回歸的立體圖像客觀質(zhì)量評(píng)價(jià)模型

2012-04-29 06:38:24顧珊波蔣剛毅
電子與信息學(xué)報(bào) 2012年2期
關(guān)鍵詞:視點(diǎn)立體主觀

顧珊波 邵 楓 蔣剛毅 郁 梅

(寧波大學(xué)信息科學(xué)與工程學(xué)院 寧波 315211)

1 引言

隨著圖像編碼技術(shù)和立體顯示技術(shù)的迅速發(fā)展,立體圖像技術(shù)越來(lái)越受到廣泛的關(guān)注與應(yīng)用[1,2],已成為當(dāng)前的一個(gè)研究熱點(diǎn)。立體圖像技術(shù)利用人眼的雙目視差原理,雙目各自獨(dú)立地接收來(lái)自同一場(chǎng)景的左右視點(diǎn)圖像,并通過(guò)大腦融合形成雙目視差,從而欣賞到具有深度感和逼真感的立體圖像[3]。然而由于采集系統(tǒng)、存儲(chǔ)壓縮及傳輸設(shè)備的影響,立體圖像會(huì)不可避免地引入一系列的失真,與單通道圖像相比,立體圖像需要同時(shí)保證兩個(gè)通道的圖像質(zhì)量,對(duì)其進(jìn)行質(zhì)量評(píng)價(jià)具有非常重要的意義。然而,目前對(duì)立體圖像質(zhì)量還缺乏有效的客觀評(píng)價(jià)方法,因此,建立有效的立體圖像客觀質(zhì)量評(píng)價(jià)模型具有十分重要的意義。

立體圖像客觀質(zhì)量評(píng)價(jià)方法主要可以分為兩類:(1)基于深度或視差信息的立體圖像質(zhì)量評(píng)價(jià)[4,5]。然而,由于目前視差/深度估計(jì)技術(shù)的局限,如何有效地對(duì)深度圖或視差圖質(zhì)量進(jìn)行評(píng)價(jià)以真實(shí)地表征立體感知特性,仍然是立體圖像客觀質(zhì)量評(píng)價(jià)中的難點(diǎn)問(wèn)題之一;(2)將平面圖像質(zhì)量評(píng)價(jià)方法應(yīng)用于立體圖像質(zhì)量評(píng)價(jià)[6,7]。然而,對(duì)立體圖像的左右視點(diǎn)圖像進(jìn)行融合產(chǎn)生立體感的過(guò)程還難以用簡(jiǎn)單的數(shù)學(xué)方法來(lái)表示,并且左右視點(diǎn)圖像之間還存在相互影響,對(duì)左右視點(diǎn)圖像進(jìn)行簡(jiǎn)單線性加權(quán)難以有效地評(píng)價(jià)立體圖像質(zhì)量。因此,研究符合人類視覺(jué)特性的立體圖像客觀質(zhì)量評(píng)價(jià)模型是一個(gè)重要的研究問(wèn)題。

人類視覺(jué)系統(tǒng)是一個(gè)極其復(fù)雜的信息處理系統(tǒng),人眼往往會(huì)習(xí)慣性地對(duì)主眼所看到的事物更加敏感,文獻(xiàn)[8]通過(guò)實(shí)驗(yàn)測(cè)量發(fā)現(xiàn)絕大多數(shù)人的右眼為主眼,也就是說(shuō)人眼對(duì)立體圖像中右視點(diǎn)圖像的質(zhì)量失真比較敏感,并且人眼對(duì)圖像的認(rèn)知是非均勻的,對(duì)不同類型的失真會(huì)產(chǎn)生不同的敏感度;文獻(xiàn)[9]的實(shí)驗(yàn)結(jié)果表明不同的失真類型對(duì)于立體圖像質(zhì)量的影響是各異的,對(duì)于塊效應(yīng),其立體質(zhì)量評(píng)價(jià)分值大約是左右通道評(píng)價(jià)分值的平均值,而對(duì)于模糊失真,其立體圖像質(zhì)量主要取決于質(zhì)量較好的那個(gè)視點(diǎn),并且左右視點(diǎn)圖像的質(zhì)量差異會(huì)影響最終的立體感知效果;文獻(xiàn)[10]通過(guò)主觀感知實(shí)驗(yàn)驗(yàn)證了不同失真類型的立體圖像的主觀感知質(zhì)量的權(quán)重偏好。因此,在設(shè)計(jì)立體圖像客觀質(zhì)量評(píng)價(jià)模型時(shí),一方面要考慮不同失真類型對(duì)立體圖像質(zhì)量的影響以提高質(zhì)量評(píng)價(jià)效果,另一方面又要考慮如何通過(guò)左右視點(diǎn)圖像質(zhì)量的差異來(lái)反映立體感知效果。

本文根據(jù)立體圖像的不同失真類型以及左右視點(diǎn)間的質(zhì)量差異對(duì)立體感知的影響,提出了一種基于支持向量回歸(Support Vector Regression, SVR)的立體圖像客觀質(zhì)量評(píng)價(jià)模型。首先通過(guò)奇異值分解(Singular Value Decomposition, SVD)提取出立體圖像特征信息,然后通過(guò)SVR建立立體圖像特征與主觀評(píng)價(jià)值的關(guān)系,從而預(yù)測(cè)得到立體圖像質(zhì)量的客觀評(píng)價(jià)值。與現(xiàn)有的立體圖像質(zhì)量評(píng)價(jià)方法相比,本方法采用能較好地反映圖像質(zhì)量差異的奇異值作為立體圖像特征信息,并結(jié)合SVR技術(shù)進(jìn)行高維樣本的非線性回歸,避免了對(duì)人類視覺(jué)系統(tǒng)的相關(guān)特性與機(jī)理的復(fù)雜模擬過(guò)程,且能較好地反映立體圖像質(zhì)量。

2 基于SVR的立體圖像質(zhì)量評(píng)價(jià)方法

由于目前對(duì)人類視覺(jué)特性中影響立體視覺(jué)的感知因素仍然沒(méi)有很好的認(rèn)識(shí),研究立體圖像中各種感知特性對(duì)立體圖像質(zhì)量的影響是立體圖像質(zhì)量評(píng)價(jià)中的一個(gè)難點(diǎn)。本文通過(guò)建立立體圖像特征與立體圖像主觀評(píng)價(jià)值之間的關(guān)系模型,探索影響立體圖像質(zhì)量的各種感知線索信息,提出了一種基于SVR的立體圖像客觀質(zhì)量評(píng)價(jià)模型,其框架如圖1所示。首先通過(guò)SVD提取出立體圖像特征,然后通過(guò) SVR建立立體圖像特征與主觀評(píng)價(jià)值之間的關(guān)系模型,獲取最能反映立體圖像質(zhì)量的感知線索信息,最后根據(jù)獲取的感知線索信息來(lái)預(yù)測(cè)得出立體圖像質(zhì)量的客觀評(píng)價(jià)值。其中,立體圖像特征提取、左右視點(diǎn)圖像質(zhì)量關(guān)系分析和基于 SVR的立體圖像特征融合是本模型的關(guān)鍵技術(shù)。

圖1 基于SVR的立體圖像客觀質(zhì)量評(píng)價(jià)模型框圖

2.1 立體圖像特征向量提取

對(duì)于一個(gè)大小為M×N的圖像,可以用M×N的矩陣I表示。通過(guò)奇異值分解法將矩陣I表示為I=USVT,其中U和V分別為M×M和N×N的正交矩陣,S為M×N維的對(duì)角矩陣,S矩陣的對(duì)角元素稱為圖像I的奇異值。由于圖像奇異值具有較好的穩(wěn)定性且能夠較好地反映圖像的質(zhì)量變化情況[11],故本文使用奇異值作為立體圖像的特征信息。記矩陣I的奇異值矢量T=(σ1,σ2,…,σi,…,σn),其中,n=min(M,N),σi表示矩陣的第i個(gè)奇異值。

其中Xl和Xr的元素值越大,表明圖像失真越嚴(yán)重,圖像質(zhì)量也就越差。

由于立體圖像是通過(guò)左右兩個(gè)視點(diǎn)以及兩者之間的深度信息表現(xiàn)出來(lái)的,而左右視點(diǎn)圖像的質(zhì)量差異能反映立體感的強(qiáng)弱,并最終影響立體圖像質(zhì)量[9]。因此,立體圖像特征矢量X與左右視點(diǎn)圖像特征矢量Xl和Xr的關(guān)系可以表示為

其中g(shù)(?)表示立體圖像特征矢量與左右視點(diǎn)圖像特征矢量的關(guān)系函數(shù)。

由于人類視覺(jué)系統(tǒng)的復(fù)雜性,對(duì)左右視點(diǎn)圖像進(jìn)行融合產(chǎn)生立體感的過(guò)程還難以用簡(jiǎn)單的數(shù)學(xué)方法來(lái)表示。本文通過(guò)實(shí)驗(yàn)發(fā)現(xiàn),對(duì)左右視點(diǎn)圖像特征矢量進(jìn)行線性加權(quán),并通過(guò)SVR預(yù)測(cè)得到的客觀評(píng)價(jià)值與主觀評(píng)價(jià)值之間具有較強(qiáng)的相關(guān)性,因此,將立體圖像特征矢量X表示為左右視點(diǎn)圖像特征矢量Xl和Xr的線性加權(quán)

其中wl和wr分別表示左右視點(diǎn)的權(quán)值比重。

2.2 左右視點(diǎn)圖像質(zhì)量關(guān)系分析

本文通過(guò) SVR來(lái)建立對(duì)稱立體圖像左右視點(diǎn)圖像質(zhì)量與立體感知的關(guān)系模型,以客觀評(píng)價(jià)值與主觀評(píng)價(jià)值之間的 Spearman等級(jí)相關(guān)系數(shù)(SROCC)來(lái)評(píng)價(jià)立體感知質(zhì)量的性能,左右視點(diǎn)的最優(yōu)權(quán)值比重wl和wr通過(guò)式(5)確立

表1為通過(guò)式(5)確定的各種失真類型的最優(yōu)權(quán)值比重。從表中可以看出,通過(guò)SROCC最優(yōu)得到的權(quán)值比重滿足wl≤wr關(guān)系,說(shuō)明了人眼對(duì)右視點(diǎn)圖像的質(zhì)量失真比較敏感,對(duì)于以塊效應(yīng)為主的JPEG 失真,其立體圖像特征矢量為左右特征矢量的加權(quán)平均,也體現(xiàn)了其立體質(zhì)量評(píng)價(jià)分值大約是左右通道評(píng)價(jià)分值的平均值。

表1 客觀評(píng)價(jià)模型中對(duì)應(yīng)的各種類型失真的權(quán)值比重

2.3 基于SVR的立體圖像特征融合

特征提取是立體圖像質(zhì)量預(yù)測(cè)的關(guān)鍵,而立體圖像特征融合對(duì)建立有效的立體圖像質(zhì)量評(píng)價(jià)模型也具有重要作用。本模型中,基于SVR的立體圖像特征融合過(guò)程主要包含以下2個(gè)階段:

(1)訓(xùn)練階段:輸入SVR的訓(xùn)練樣本{Xp,yp},其中Xp為第p組立體圖像的特征矢量,yp為第p組的主觀評(píng)分差值(Difference Mean Opinion Score,DMOS);p=1,2,…,pm,pm為訓(xùn)練樣本數(shù)目。SVR首先選擇一個(gè)非線性變換把原始空間中的數(shù)據(jù)映射到一個(gè)高維特征空間中,再在高維特征空間中進(jìn)行線性估計(jì),構(gòu)造最優(yōu)線性函數(shù),其過(guò)程表示為

其中w={wi,i=1,2,…,pm}為函數(shù)的權(quán)重矢量,b為偏置項(xiàng),k(X,Xi)為特征矢量X的核函數(shù)。

目前常用的核函數(shù)有多項(xiàng)式核、徑向基(Radial Basis Function, RBF)核、多層感知機(jī)核[12]。RBF核函數(shù)是一個(gè)普適的核函數(shù),適用于任意分布的樣本,在本文使用指數(shù)徑向基函數(shù)(Exponential Radial Basis Function, ERBF)作為核函數(shù)

其中γ為核參數(shù),定義了從原始空間到高維特征空間中的非線性映射。

在ε-SVR[13]中,SVR引入ε不敏感參數(shù)使訓(xùn)練得到的預(yù)測(cè)值f(X)與目標(biāo)值y的誤差最小,從而優(yōu)化w和b參數(shù):

(2)測(cè)試階段:提供qm組測(cè)試立體圖像特征矢量Xq及對(duì)應(yīng)的主觀評(píng)分差值yq,q=1,2,…,qm,用測(cè)試樣本{Xq,yq}來(lái)測(cè)試訓(xùn)練所得w和b參數(shù)性能,預(yù)測(cè)得到測(cè)試立體圖像的客觀評(píng)價(jià)值Q。

由于在主觀質(zhì)量評(píng)價(jià)實(shí)驗(yàn)中會(huì)引入一些非線性因素,需要將模型的客觀評(píng)價(jià)值Q做4參數(shù)Logistic函數(shù)非線性擬合[14],最終得到客觀模型預(yù)測(cè)值DMOSp

其中a,b,c和d為常量;abs()為取絕對(duì)值操作。

本文按照 VQEG 對(duì)客觀質(zhì)量評(píng)價(jià)方法的檢驗(yàn)標(biāo)準(zhǔn)[14],利用非線性回歸后的客觀模型預(yù)測(cè)值DMOSp與主觀評(píng)價(jià)所得的DMOS的相關(guān)性來(lái)度量客觀評(píng)價(jià)方法的性能,使用以下4個(gè)性能指標(biāo)對(duì)該模型進(jìn)行評(píng)價(jià):

(1)線性相關(guān)系數(shù)(CC):用Pearson線性相關(guān)系數(shù)CC來(lái)反映客觀評(píng)價(jià)模型預(yù)測(cè)的精確性,其計(jì)算公式如下:

其中N表示測(cè)試的失真立體圖像的數(shù)目。Pearson相關(guān)系數(shù)取值范圍為區(qū)間[-1, 1],其絕對(duì)值越接近1,表明客觀模型預(yù)測(cè)值DMOSp與主觀評(píng)價(jià)所得的DMOS之間的相關(guān)性越好,客觀評(píng)價(jià)模型預(yù)測(cè)越準(zhǔn)確。

(2)Spearman等級(jí)相關(guān)系數(shù)(SROCC):用Spearman等級(jí)相關(guān)系數(shù)來(lái)衡量客觀模型的單調(diào)性,其計(jì)算公式如下:

(3)異常值比率指標(biāo)(OR):該指標(biāo)主要反映客觀模型的離散程度,即預(yù)測(cè)值 DMOSp與主觀評(píng)價(jià)所得的 DMOS的差異大于某一閾值的失真立體圖像數(shù)目所占的比例。OR值的范圍為區(qū)間[0, 1],值越接近 0,則表明客觀模型的一致性越好。如果第i幅失真立體圖像滿足以下條件:

則認(rèn)為第i幅失真立體圖像為異常值,其中,S(i)表示第i幅失真立體圖像對(duì)應(yīng)的DMOS值的標(biāo)準(zhǔn)差。

(4)均方根誤差(RMSE):以RMSE來(lái)對(duì)客觀模型的準(zhǔn)確性進(jìn)行度量,其值越小,表示客觀評(píng)價(jià)算法對(duì)主觀評(píng)分值的預(yù)測(cè)越準(zhǔn)確,模型的性能越好;反之,則越差。

3 實(shí)驗(yàn)結(jié)果及分析

本文采用寧波大學(xué)建立的對(duì)稱立體圖像測(cè)試庫(kù)進(jìn)行測(cè)試,該測(cè)試庫(kù)的原始立體圖像由 Mobile 3DTV和MPEG提供[15],其選取考慮了相機(jī)間距、背景復(fù)雜度、亮度、清晰度、分辨率及立體感等因素,其中原始左視點(diǎn)圖像如圖2所示。該測(cè)試立體圖像庫(kù)分別對(duì)原始左右視點(diǎn)圖像添加 5種失真類型:JPEG壓縮、JPEG2000壓縮、高斯模糊、高斯白噪聲和H.264壓縮,共得到312組失真立體圖像,并給出了每組失真立體圖像的DMOS值。

3.1 測(cè)試方法及SVR參數(shù)選擇

圖2 立體數(shù)據(jù)庫(kù)中原始立體圖像的左圖像

SVR的性能取決于一組好的參數(shù),如正則化參數(shù)C、不敏感參數(shù)ε以及RBF核參數(shù)γ等。正規(guī)化參數(shù)C和不敏感參數(shù)ε取C=100,ε=0.01; RBF核參數(shù)γ的選取應(yīng)該反映輸入樣本值的范圍,由于不同失真立體圖像奇異值變化不穩(wěn)定,γ的選取應(yīng)能反映不同失真特征值的變化情況。根據(jù)實(shí)驗(yàn)數(shù)據(jù)統(tǒng)計(jì)結(jié)果,高斯模型失真,JPEG 2000壓縮失真,JPEG壓縮失真,白噪聲失真和H.264壓縮失真的γ值依次為54, 52, 42, 130, 116。

本文采用5-折交叉驗(yàn)證來(lái)測(cè)試本模型的評(píng)價(jià)效果。首先,將不同失真類型的立體圖像分為互不相交的5組子集,然后利用隨機(jī)選擇的4組訓(xùn)練結(jié)果,對(duì)給定的一組參數(shù)建立回歸模型,最后利用剩余一組立體圖像估計(jì)參數(shù)性能。重復(fù)執(zhí)行上述的過(guò)程,對(duì)每個(gè)子集進(jìn)行測(cè)試,將5組測(cè)試數(shù)據(jù)的平均結(jié)果作為各失真類型的立體圖像質(zhì)量的客觀評(píng)價(jià)值。

3.2 性能比較

為了驗(yàn)證本模型的有效性,將本模型方法與基于奇異值分解的質(zhì)量評(píng)價(jià)方法[10](Mean Singular Value Decomposition, MSVD)和基于結(jié)構(gòu)相似度的質(zhì)量評(píng)價(jià)方法[16](Mean Structure Similarity Index Metric, MSSIM)的性能進(jìn)行比較。由于 MSVD和MSSIM評(píng)價(jià)方法主要應(yīng)用于平面圖像質(zhì)量評(píng)價(jià),不能簡(jiǎn)單地應(yīng)用于立體圖像質(zhì)量評(píng)價(jià)。因此,在本文中,對(duì)左右視點(diǎn)圖像分別采用MSVD和MSSIM方法進(jìn)行評(píng)價(jià),將左右視點(diǎn)圖像的評(píng)價(jià)值采用表1的權(quán)值比重進(jìn)行加權(quán),得到最終的立體圖像質(zhì)量的客觀評(píng)價(jià)值。

表2給出了本方法與MSVD和MSSIM方法的各項(xiàng)性能指標(biāo),并對(duì)本方法采用5-折交叉驗(yàn)證法和10-折交叉驗(yàn)證法的測(cè)試結(jié)果進(jìn)行比較。由表中數(shù)據(jù)可知,采用5-折交叉驗(yàn)證法和10-折交叉驗(yàn)證法的測(cè)試結(jié)果非常相近,說(shuō)明了本文方法受訓(xùn)練樣本數(shù)影響非常小,Duan等人[17]通過(guò)實(shí)驗(yàn)建議采用5-折交叉驗(yàn)證比較合適,同時(shí)考慮到算法的復(fù)雜度,本文采用5-折交叉驗(yàn)證法作為測(cè)試本模型參數(shù)性能的主要方法。并且,本文方法的CC值在0.93以上,SROCC在0.94以上,均方根誤差RMSE接近6, OR值為0.00%,均優(yōu)于其它兩種方法的各個(gè)評(píng)價(jià)指標(biāo)。不同失真類型下反映準(zhǔn)確性和單調(diào)性的 CC和 SROCC評(píng)價(jià)指標(biāo)如表3和表4所示,MSVD方法在某些失真類型下性能指標(biāo)會(huì)優(yōu)于本方法,但總體評(píng)價(jià)性能低于本方法。

圖3為給出了3種評(píng)價(jià)方法的客觀評(píng)價(jià)值Q與DMOS值的散點(diǎn)圖,散點(diǎn)越集中,說(shuō)明客觀模型與主觀感知的一致性越好。圖中曲線代表 4參數(shù)Logistic函數(shù)非線性擬合結(jié)果,其表達(dá)式如式(9)所示。圖3(a)和3(b)分別給出了本方法采用5-折交叉驗(yàn)證和 10-折交叉驗(yàn)證的散點(diǎn)圖,其客觀評(píng)價(jià)值Q越小,立體圖像質(zhì)量越好,本文提出的基于SVR的立體圖像客觀質(zhì)量評(píng)價(jià)模型散點(diǎn)圖比較集中,與主觀評(píng)價(jià)數(shù)據(jù)之間的吻合度較高;圖3(c)給出了MSVD方法的散點(diǎn)圖,其客觀評(píng)價(jià)值Q越接近于0,立體圖像質(zhì)量越好。圖3(d)給出了MSSIM方法的散點(diǎn)圖,其客觀評(píng)價(jià)值Q越接近于1,立體圖像質(zhì)量越好。圖3(c)和圖3(d)的客觀評(píng)價(jià)值與主觀評(píng)價(jià)值總體呈現(xiàn)非線性關(guān)系,MSVD評(píng)價(jià)方法對(duì)評(píng)價(jià)較差質(zhì)量圖像時(shí)沒(méi)有很好地區(qū)分開(kāi)人眼對(duì)立體圖像的主觀感知,而 MSSIM 評(píng)價(jià)方法得到的客觀評(píng)價(jià)值與主觀評(píng)價(jià)值的相關(guān)性不高,兩者對(duì)應(yīng)點(diǎn)比較離散。

4 結(jié)束語(yǔ)

本文通過(guò)分析人類視覺(jué)特性和立體圖像特征,提出了一種基于支持向量回歸(Support Vector Regression, SVR)的立體圖像客觀質(zhì)量評(píng)價(jià)模型。本模型通過(guò)分析左右視點(diǎn)圖像質(zhì)量關(guān)系建立立體圖像特征與立體圖像主觀評(píng)價(jià)值之間的關(guān)系模型。本模型采用具有較好穩(wěn)定性能夠反映圖像質(zhì)量差異的奇異值作為立體圖像特征信息,并結(jié)合SVR進(jìn)行特征融合,避免了對(duì)人類視覺(jué)系統(tǒng)的相關(guān)特性與機(jī)理的復(fù)雜模擬過(guò)程,能較好地反映立體圖像質(zhì)量。實(shí)驗(yàn)結(jié)果表明,基于SVR的客觀質(zhì)量評(píng)價(jià)模型能夠準(zhǔn)確地預(yù)測(cè)人眼對(duì)立體圖像的主觀感知。在本文的基礎(chǔ)上,接下來(lái)將考慮建立無(wú)參考的立體圖像質(zhì)量評(píng)價(jià)模型,從而進(jìn)一步完善模型的評(píng)價(jià)性能。

表2 各評(píng)價(jià)方法的各項(xiàng)性能指標(biāo)比較結(jié)果

表3 不同失真類型的CC性能指標(biāo)比較結(jié)果

表4 不同失真類型的SROCC性能指標(biāo)比較結(jié)果

圖3 各評(píng)價(jià)方法的客觀評(píng)價(jià)值Q與DMOS值的散點(diǎn)圖

[1]Zilly F, Kluger J, and Kauff P. Production rules for stereo acquisition[J].Proceedings of the IEEE, 2011, 99(4): 590-606.

[2]蔣剛毅, 黃大江, 王旭, 等. 圖像質(zhì)量評(píng)價(jià)方法研究進(jìn)展[J].電子與信息學(xué)報(bào), 2010, 32(1): 219-226.Jiang Gang-yi, Huang Da-jiang, Wang Xu,et al.. Overview on image quality assessment methods[J].Journal of Electronics&Information Technology, 2010, 32(1): 219-226.

[3]Urey H, Chellappan K V, Erden E,et al.. State of the art in stereoscopic and autostereoscoic displays[J].Proceedings of the IEEE, 2011, 99(4): 540-555.

[4]Lambooij M, IJsselsteijn W, Bouwhuis D G,et al.. Evaluation of stereoscopic images: beyond 2D quality[J].IEEE Transactions on Broadcasting, 2011, 57(2): 432-444.

[5]Mittal A, Moorthy A K, Ghosh J,et al.. Algorithmic assessment of 3D quality of experience for images and videos[C]. Proc. IEEE Digital Signal Processing Workshop,Arizona, USA, January 2011: 338-343.

[6]沈麗麗, 侯春萍, 張卓筠, 等. 基于三維特征和結(jié)構(gòu)相似度的圖像質(zhì)量評(píng)價(jià)方法[J]. 光電子?激光, 2010, 21(11): 1713-1719.Shen Li-li, Hou Chun-ping, Zhang Zhuo-yun,et al.. A stereo image quality evaluation method based on three dimensional characteristics and structural similarity[J].Journal of Optoelectronics Laser, 2010, 21(11): 1713-1719.

[7]Parvez Sazzad Z M, Yamanaka S, and Horita Y. Continuous stereoscopic video quality evaluation[C]. Proc. of SPIE, San Jose, California, January 2010, 7524: 75241E.

[8]Gündo?an N ü, Yazici A C, and im?ek A. A study on dominant eye measurement[J].International Journal of Ophthalmology, 2008, 8(10): 1980-1986.

[9]Stelmach L B and Tam W J. Stereoscopic image coding:effect of disparate image-quality in left and right eye views[J].Signal Processing: Image Communication, 1998, 14(1-2):111-117.

[10]Wang X, Yu M, Yang Y,et al.. Research on subjective stereoscopic image quality assessment[C]. Proc. of SPIE, San Jose, California, USA, January 2009, 7255: 1-10.

[11]Shnayderman A, Gusev A, and Eskicioglu A M. An SVD-based grayscale image quality measure for local and global assessment[J].IEEE Transactions on Image Processing,2006, 15(2): 422-429.

[12]Zhang X G. Introduction to statistical learning theory and support vector machines[J].Acta Automation Sinica, 2000,26(1): 32-41.

[13]Scholkopf B and Smola A. Learning with Kernels: Support Vector Machines, Regularization, and Beyond[M]. MIT Press,Cambridge, MA, 2002: 17-19.

[14]Brunnstrom K, Hands D, Speranza F,et al.. VQEG validation and ITU standardization of objective perceptual video quality metrics [Standards in a Nutshell][J].IEEE Signal Processing Magazine, 2009, 26(3): 96-101.

[15]Smolic A, Tech G, and Brust H. Report on generation of stereo video data base[R]. Mobile3DTV Technical Report D2.1, 2010: 1-44.

[16]Wang Z, Bovik A C, Sheikh H R,et al.. Image quality assessment: from error visibility to structural similarity[J].IEEE Transactions on Image Processing, 2004, 13(4):600-612.

[17]Duan K, Keerthi S S, and Poo A N. Evaluation of simple performance measures for tuning SVM hyperparameters[J].Neurocomputing, 2003, 51(4): 41-59.

猜你喜歡
視點(diǎn)立體主觀
“美好生活”從主觀愿望到執(zhí)政理念的歷史性提升
念個(gè)立體咒
加一點(diǎn)兒主觀感受的調(diào)料
刑法主觀解釋論的提倡
法律方法(2018年2期)2018-07-13 03:22:06
立體登陸
炫酷立體卡
視點(diǎn)
河南電力(2016年5期)2016-02-06 02:11:24
讓你每天一元錢,物超所值——《今日視點(diǎn)—2014精萃》序
新聞前哨(2015年2期)2015-03-11 19:29:22
兩會(huì)視點(diǎn)
尋找新的視點(diǎn)
镇平县| 丹东市| 沈丘县| 招远市| 新平| 武隆县| 甘孜县| 弋阳县| 阿鲁科尔沁旗| 城步| 辽源市| 临泽县| 鄢陵县| 名山县| 石渠县| 罗平县| 保山市| 兴安县| 剑川县| 玉溪市| 禹城市| 龙井市| 辽源市| 察哈| 浦县| 邓州市| 肥乡县| 乌兰县| 汶上县| 东城区| 武义县| 梁平县| 古浪县| 沂源县| 巴青县| 榆社县| 建湖县| 方城县| 曲阜市| 乐清市| 青河县|