劉雨鑫 楊環(huán) 蘇洪磊 劉祺 陳添鑫 龍春意
摘要:
為了實(shí)現(xiàn)對(duì)3D點(diǎn)云質(zhì)量有效監(jiān)控,提出一種基于v-SVR的無參考3D點(diǎn)云質(zhì)量評(píng)估模型。首先,分析失真點(diǎn)云編碼相關(guān)參數(shù)與主觀質(zhì)量之間的關(guān)系,確定編碼設(shè)置對(duì)主觀質(zhì)量的影響。其次,分析相同編碼設(shè)置下不同內(nèi)容特性對(duì)主觀質(zhì)量的影響,并提出了一個(gè)能夠估計(jì)表征點(diǎn)云內(nèi)容特性的幾何特性因子和紋理特性因子的模型。最后,將量化參數(shù)、位置量化尺度、紋理特征因子、幾何特征因子作為v-SVR的輸入?yún)?shù),主觀質(zhì)量分?jǐn)?shù)作為輸出參數(shù),訓(xùn)練并得出一個(gè)反映人眼視覺特性的無參考3D點(diǎn)云質(zhì)量評(píng)估模型。實(shí)驗(yàn)結(jié)果表明,與其他典型點(diǎn)云質(zhì)量評(píng)估模型(Pointssim、PSNR-Y、PCMrr)相比,本文模型得到客觀質(zhì)量分?jǐn)?shù)與主觀質(zhì)量分?jǐn)?shù)的皮爾森相關(guān)系數(shù)分別提高了03265、01855、01748,均方根誤差分別下降了63174、38350、36050。
關(guān)鍵詞:
點(diǎn)云質(zhì)量評(píng)估(PCQA);基于幾何的點(diǎn)云壓縮(G-PCC);無參考;3D點(diǎn)云;支持向量回歸(SVR)
中圖分類號(hào):TN919.8
文獻(xiàn)標(biāo)志碼:A
收稿日期:2020-12-29
基金項(xiàng)目:
山東省重點(diǎn)研發(fā)計(jì)劃(批準(zhǔn)號(hào):2019GGX101021)資助;山東省自然科學(xué)基金(批準(zhǔn)號(hào):ZR2018PF002)資助。
通信作者:
楊環(huán),女,博士,副教授,主要研究方向?yàn)閳D像/視頻處理與分析、視覺感知建模及質(zhì)量評(píng)估、機(jī)器學(xué)習(xí)等。E-mail:cathy_yanghuan@hotmail.com。
3D點(diǎn)云是由分散在三維空間中大量非結(jié)構(gòu)化的三維點(diǎn)組成,這些點(diǎn)不僅具有幾何信息,還具有相應(yīng)屬性(RGB顏色,表面法向量,不透明度,反射率等)。目前,隨著沉浸式媒體通訊的迅速發(fā)展,日常生活中出現(xiàn)了越來越多的3D點(diǎn)云應(yīng)用,如沉浸式通話、智能購物、數(shù)字博物館等。但是,一個(gè)典型的高質(zhì)量點(diǎn)云需要數(shù)百萬甚至數(shù)十億個(gè)點(diǎn),不僅存儲(chǔ)不便,也難以實(shí)現(xiàn)實(shí)時(shí)傳輸。因此國際標(biāo)準(zhǔn)動(dòng)態(tài)圖像專家組(Moving Picture Experts Group, MPEG)提出多種3D點(diǎn)云壓縮(Point Cloud Compression,PCC)技術(shù)[1],其中對(duì)于動(dòng)態(tài)點(diǎn)云壓縮通常使用基于視頻的點(diǎn)云壓縮(Video-based Point Cloud Compression,V-PCC),靜態(tài)點(diǎn)云壓縮通常使用基于幾何的點(diǎn)云壓縮(Geometry-based Point Cloud Compression,G-PCC)。在G-PCC中幾何編碼方式分為八叉樹(Octree)方式和Trisoup方式,屬性編碼方式分為區(qū)域自適應(yīng)分層變換( Region Adaptive Hierarchical Transform,RAHT)、基于插值的層次最近鄰預(yù)測(Predicting Transform,PT)、帶有更新和提升步驟的基于插值的層次最近鄰預(yù)測(Lifting Transform,LT)。G-PCC提供了高編碼性能,超越了許多編碼方法,成為目前最流行的3D點(diǎn)云壓縮方法之一。根據(jù)不同的應(yīng)用場景終端及傳輸帶寬,在編碼過程中對(duì)3D點(diǎn)云進(jìn)行不同程度的壓縮,會(huì)造成3D點(diǎn)云質(zhì)量的下降,最終影響用戶的視覺體驗(yàn)。人眼主觀評(píng)測是視覺體驗(yàn)的最真實(shí)反映,但主觀評(píng)測耗時(shí)耗力且不能實(shí)現(xiàn)實(shí)時(shí)評(píng)測及反饋,為了更好地衡量壓縮后點(diǎn)云的質(zhì)量,需開發(fā)3D點(diǎn)云質(zhì)量客觀評(píng)價(jià)模型來模擬人類視覺系統(tǒng)(Human Visual System,HVS)感知機(jī)制并進(jìn)行建模,進(jìn)而給出量化指標(biāo)。3D點(diǎn)云客觀質(zhì)量不僅可以作為對(duì)比不同點(diǎn)云壓縮算法性能的指標(biāo),還可以作為壓縮算法參數(shù)調(diào)整的依據(jù),動(dòng)態(tài)調(diào)整3D點(diǎn)云壓縮的視覺效果,以達(dá)到評(píng)估和優(yōu)化的目的。在3D點(diǎn)云客觀質(zhì)量評(píng)估中,根據(jù)對(duì)原始點(diǎn)云信息的利用將質(zhì)量評(píng)估模型分為三類:全參考(Full Reference, FR)、部分參考(Reduced Reference,RR)、無參考(No Reference,NR)。FR模型是3D點(diǎn)云質(zhì)量評(píng)估中現(xiàn)有最多的模型,可以利用來自整個(gè)原始點(diǎn)云的信息來估計(jì)失真。FR模型主要分為基于點(diǎn)的[2-11]、基于投影的[12-15]以及基于圖的[16]質(zhì)量評(píng)估模型。其中,基于點(diǎn)的FR模型中,文獻(xiàn)[2]認(rèn)為訪問幾何分布取決于歐氏距離或沿法向量的投影誤差;文獻(xiàn)[3]認(rèn)為使用顏色直方圖和相關(guān)圖來評(píng)估一個(gè)失真點(diǎn)云相對(duì)于參考點(diǎn)云的損失,以獲得一個(gè)點(diǎn)云質(zhì)量評(píng)估(Point Cloud Quality Assessment,PCQA)指標(biāo)。文獻(xiàn)[6]提出通過計(jì)算局部表面近似相似度來預(yù)測幾何形變,提出了角相似度度量。文獻(xiàn)[7-8]提出了基于顏色分量的點(diǎn)對(duì)點(diǎn)PSNR (Peak signal-to-noise Ratio, PSNR-Y)來評(píng)價(jià)彩色點(diǎn)云的紋理失真。這個(gè)度量是PSNR在三維空間的擴(kuò)展,因此也繼承了PSNR評(píng)價(jià)2D圖像的缺點(diǎn)。Alexiou等[9-11]利用相似度[17]的思想分別提出了三種度量指標(biāo),其度量準(zhǔn)確性在圖像質(zhì)量評(píng)價(jià)領(lǐng)域得到了證明。從參考點(diǎn)云和失真點(diǎn)云中分別提取幾何特征、法線特征、曲率特征和顏色特征,然后評(píng)估幾何特征和顏色特征的相似性,獲得客觀評(píng)分。除了這些基于點(diǎn)的模型外,還有基于投影的模型,基于投影的PSNR (Peak signal-to-noise Ratio, PSNRp),基于投影的結(jié)構(gòu)相似性(Structual Similarity, SSIMp),基于投影的多尺度結(jié)構(gòu)相似性(Multi-scale Structual Similarity, MS-SSIMp)和基于投影的像素域視覺信息保真度( Visual Information Fidelity Pixel-based, VIFPp) [12-15]。當(dāng)無法獲取原始點(diǎn)云時(shí),使用RR和NR模型評(píng)估點(diǎn)云質(zhì)量更有優(yōu)勢。RR模型利用原始點(diǎn)云提取特征參數(shù)作為邊帶信息傳輸?shù)浇獯a端,在解碼端提取失真點(diǎn)云中的特征參數(shù)與原始點(diǎn)云的特征參數(shù)進(jìn)行運(yùn)算得到失真點(diǎn)云的質(zhì)量。Viola等[18]提出了一個(gè)RR度量,其從給定的參考點(diǎn)云中提取基于幾何、基于亮度和基于法線的特征。這些特征作為邊帶信息隨點(diǎn)云信息一起傳輸,并在接收端與失真點(diǎn)云中提取的特征進(jìn)行計(jì)算,以評(píng)估其失真點(diǎn)云的感知質(zhì)量,并通過線性優(yōu)化算法找到所提出特征的最佳組合。因?yàn)镽R模型需要邊帶信息和完全解碼,所以要想實(shí)現(xiàn)對(duì)網(wǎng)絡(luò)節(jié)點(diǎn)中大規(guī)模點(diǎn)云碼流質(zhì)量的實(shí)時(shí)監(jiān)控,NR模型成為最佳選擇。NR模型不需要原始點(diǎn)云信息的依賴,只需要對(duì)編碼比特流進(jìn)行解析及重構(gòu)點(diǎn)云即可計(jì)算失真點(diǎn)云的質(zhì)量分?jǐn)?shù)。此外,無參考質(zhì)量評(píng)估具有傳輸數(shù)據(jù)少、高實(shí)時(shí)性、計(jì)算復(fù)雜度低的優(yōu)點(diǎn),可以應(yīng)用于任何3D點(diǎn)云業(yè)務(wù)相關(guān)領(lǐng)域,具有普適性。目前所知道針對(duì)點(diǎn)云提出的NR模型只有文獻(xiàn)[19],提出基于比特率和觀測距離估計(jì)質(zhì)量等級(jí)的模型,但并未考慮HVS。本文結(jié)合v-SVR提出一種NR模型,考慮HVS在主觀實(shí)驗(yàn)時(shí)產(chǎn)生的空間掩蓋效應(yīng),即分析相同編碼情況下不同內(nèi)容特性點(diǎn)云的MOS,確定點(diǎn)云紋理和幾何內(nèi)容特性對(duì)MOS的影響,并提出分別能夠表示點(diǎn)云幾何和紋理內(nèi)容特性的幾何特征因子、屬性特征因子。在解碼端通過解析比特流中的信息和提取重構(gòu)點(diǎn)云中的特征作為輸入變量,點(diǎn)云質(zhì)量分?jǐn)?shù)作為輸出變量,采用v-SVR進(jìn)行訓(xùn)練,得到一個(gè)能夠反映人類視覺特性的無參考3D點(diǎn)云質(zhì)量評(píng)估模型,該模型適用于G-PCC編碼的無參考3D點(diǎn)云質(zhì)量評(píng)估并能夠準(zhǔn)確預(yù)測“Octree-LT”編碼失真的3D點(diǎn)云質(zhì)量分?jǐn)?shù),可以準(zhǔn)確得到符合人眼視覺系統(tǒng)的客觀質(zhì)量分?jǐn)?shù),使得客觀質(zhì)量分?jǐn)?shù)與主觀視覺效果具有更好的一致性。
3 主觀實(shí)驗(yàn)
本文選擇WPC[15]中20個(gè)點(diǎn)云進(jìn)行G-PCC(Octree-LT,版本V.11)壓縮,屬性上量化參數(shù)選取28、34、40、46,幾何上位置量化尺度選取0125、025、05,其余編碼參數(shù)為缺省值。將解碼后得到240個(gè)失真點(diǎn)云和20個(gè)原始點(diǎn)云使用Pccrenderer (版本V.5)[26]進(jìn)行渲染,渲染所用的參數(shù)設(shè)置如表1所示。其中,渲染時(shí)將點(diǎn)云的幾何中心作為圓的中心,選擇水平圓和垂直圓作為虛擬相機(jī)路徑(如圖5所示),連續(xù)在這些圓上產(chǎn)生視點(diǎn),將每個(gè)失真點(diǎn)云和原始點(diǎn)云水平的連接生成一個(gè)視頻序列展示。
主觀測試基于BT-50013標(biāo)準(zhǔn)[27]。共30人參與測試,所有測試人員的視力正?;虺C正視力正常。為了使測試者在正式測試前了解點(diǎn)云的各種失真情況,在訓(xùn)練環(huán)節(jié)中向測試者展示了12個(gè)不同點(diǎn)云不同編碼參數(shù)的失真點(diǎn)云。正式測試時(shí)每人進(jìn)行240個(gè)失真點(diǎn)云打分,每個(gè)測試者的整個(gè)測試時(shí)間約為1小時(shí)20分鐘,為防止測試人員長時(shí)間看屏幕導(dǎo)致視覺疲勞,測試分為3節(jié),設(shè)置每展示80個(gè)點(diǎn)云后休息5分鐘。最終每個(gè)點(diǎn)云對(duì)應(yīng)著30個(gè)主觀評(píng)分,所以一共得到 7 200個(gè)主觀分?jǐn)?shù)。
測試結(jié)束后將主觀分?jǐn)?shù)轉(zhuǎn)化為Z-scores,采用離群值去除方案檢測是否有離群值[24]。再將Z-scores線性縮放調(diào)整到范圍 [0,100]。每個(gè)失真點(diǎn)云的MOS通過所有有效的并且已經(jīng)縮放調(diào)整的Z-scores進(jìn)行平均值計(jì)算得到。MOS分布的直方圖如圖6所示,可知失真點(diǎn)云質(zhì)量分?jǐn)?shù)分布范圍很廣。圖7所示為所有測試人員對(duì)每個(gè)失真點(diǎn)云打出分?jǐn)?shù)的標(biāo)準(zhǔn)差,可知標(biāo)準(zhǔn)差較小,說明整體測試人員表現(xiàn)較好。通過計(jì)算每個(gè)測試人員的分?jǐn)?shù)與MOS之間的皮爾森線性相關(guān)系數(shù) (Pearson Linear Correlation Coefficient,PLCC)和斯皮爾曼秩相關(guān)系數(shù)(Spearman Rank-order Correlation Coefficient,SRCC)來估計(jì)個(gè)體受試者的表現(xiàn),在圖8中展示計(jì)算結(jié)果。每個(gè)受試者與MOS之間的PLCC和SRCC的平均值分別高達(dá)0829 6、0827 6,表明大部分個(gè)體之間的表現(xiàn)基本一致。
4 實(shí)驗(yàn)結(jié)果分析
本文軟件系統(tǒng)的回歸算法主要在臺(tái)灣大學(xué)開發(fā)的Mtlab版LIBSVM工具箱的基礎(chǔ)上[28]使用v-SVR對(duì)點(diǎn)云的質(zhì)量分?jǐn)?shù)進(jìn)行回歸預(yù)測實(shí)驗(yàn)。選取WPC中不同內(nèi)容特性的點(diǎn)云(Bag、Banana、Biscuits、Cake、Cauliflower、Flowerpot、Glasses_case、Honeydew_melon、House、Litchi)作為訓(xùn)練集點(diǎn)云,選擇不同內(nèi)容特性的點(diǎn)云(Mushroom、Pen_container、Pineapple、Ping-pong_bat、Puer_tea、Pumpkin、Ship、Statue、Stone、Tool_box)作為測試集點(diǎn)云。編碼選取G-PCC(Octree-LT),量化參數(shù)選取28、34、40、46,位置量化尺度選取0125、025、05,其余編碼參數(shù)為缺省值。將點(diǎn)云訓(xùn)練集數(shù)據(jù)放入LIBSVM中選用v-SVR進(jìn)行模型訓(xùn)練,核函數(shù)使用多項(xiàng)式核函數(shù)。由于核函數(shù)參數(shù)(λ,d,γ)選取不合適會(huì)導(dǎo)致過擬合或者欠擬合現(xiàn)象,所以核參數(shù)選擇很大程度上關(guān)系到整個(gè)回歸預(yù)測結(jié)果的精度。由于λ,d影響較大,分別選取不同λ,d的值訓(xùn)練模型而將其他參數(shù)設(shè)置為默認(rèn)值,通過比較訓(xùn)練出的模型在測試樣本上的表現(xiàn)來選擇最佳參數(shù)組合。表2給出了使用不同參數(shù)組合方式進(jìn)行模型訓(xùn)練的結(jié)果,經(jīng)過對(duì)比選取出最優(yōu)參數(shù)組合(λ=061,d=2,γ=0)。其中λ,d,γ分別對(duì)應(yīng)LIBSVM中的參數(shù)(gamma=061,degree=2,coef0=0)。預(yù)測準(zhǔn)確率使用客觀質(zhì)量分?jǐn)?shù)與主觀質(zhì)量分?jǐn)?shù)之間的均方根誤差 ( Root Mean Squard Error,RMSE )、平均絕對(duì)誤差 (Mean Absolute Error ,MAE )、皮爾森線性相關(guān)系數(shù)(Pearson Linear Correlation Coefficient,PLCC)、肯德爾等級(jí)相關(guān)系數(shù)(Kendall rank-order correlation coefficient,KRCC)、斯皮爾曼秩相關(guān)系數(shù)(Spearman Rank-order Correlation Coefficient,SRCC )來表現(xiàn)。其中RMSE和MAE是反映預(yù)測值與被預(yù)測值之間差異程度的一種度量,表示客觀質(zhì)量分?jǐn)?shù)與主觀質(zhì)量分?jǐn)?shù)之間的差異程度。PLCC描述客觀質(zhì)量分?jǐn)?shù)和主觀質(zhì)量分?jǐn)?shù)之間的線性相關(guān)性,KRCC是用來測量兩組數(shù)據(jù)之間的相關(guān)性的統(tǒng)計(jì)值。PLCC、KRCC的絕對(duì)值越大,相關(guān)性越強(qiáng)。SRCC 是度量兩個(gè)組數(shù)據(jù)之間單調(diào)關(guān)系強(qiáng)弱的相關(guān)系數(shù),如果一個(gè)變量是另外一個(gè)變量的嚴(yán)格單調(diào)函數(shù),則系數(shù)為1或-1,表示完全相關(guān)(強(qiáng)相關(guān))。表3所示為全參考模型Pointssim[9]、PSNR-Y [8]和部分參考模型PCMrr[18]與本文的模型性能參數(shù)比較??芍琒VR-PCQA相比其他模型具有更高的PLCC、SRCC、KRCC,相比其他模型具有更好的預(yù)測單調(diào)性和相關(guān)性;SVR-PCQA所得的RMSE、MAE相比其他模型小,說明SVR-PCQA具有更高的預(yù)測精準(zhǔn)度。圖9給出了主觀質(zhì)量分?jǐn)?shù)分別與4種模型所得的客觀分?jǐn)?shù)的散點(diǎn)圖,通過比較圖中(a)、(b)、(c)、(d),可知本文模型具有更高的預(yù)測精準(zhǔn)度。
5 結(jié)論
本文提出了一種適用于G-PCC(Octree-LT)編碼且基于v-SVR的無參考3D點(diǎn)云質(zhì)量評(píng)估模型。通過分析量化參數(shù)和位置量化尺度對(duì)點(diǎn)云失真的影響,建立模型基本關(guān)系??紤]點(diǎn)云的內(nèi)容特性對(duì)于人類視覺評(píng)估點(diǎn)云質(zhì)量時(shí)產(chǎn)生的空間掩蓋效應(yīng),分析幾何特性和紋理特性同樣是影響點(diǎn)云質(zhì)量的重要因素,并提出表示點(diǎn)云幾何特性和紋理特性的幾何特性因子和紋理特性因子。通過比特流的包頭解析得到量化參數(shù)和位置量化尺度,對(duì)于解碼端的失真點(diǎn)云進(jìn)行特征提取得到幾何特征因子和紋理特征因子,并利用上述信息結(jié)合v-SVR進(jìn)而建立一個(gè)符合人類視覺的無參考3D點(diǎn)云質(zhì)量評(píng)估模型。實(shí)驗(yàn)結(jié)果表明,本文模型所得客觀質(zhì)量分?jǐn)?shù)與MOS有較好的一致性。
參考文獻(xiàn)
[1]SCHWARZ S, PREDA M, BARONCINI V, et al. Emerging MPEG standards for point cloud compression[J]. IEEE Journal on Emerging and Selected Topics in Circuits and Systems, 2018, 9(1): 133-148.
[2]TIAN D, OCHIMIZU H, FENG C, et al. Geometric distortion metrics for point cloud compression[C]//2017 IEEE International Conference on Image Processing (ICIP), Beijing, 2017: 3460-3464.
[3]VIOLA I, SUBRAMANYAM S, CESAR P. A color-based objective quality metric for point cloud contents[C]//12th International Conference on Quality of Multimedia Experience (QoMEX 2020), Athlone, 2020.
[4]TIAN D, OCHIMIZU H, FENG C, et al. Evaluation metrics for point cloud compression[J]. ISO/IEC MPEG2016 M, 2017, 39316.
[5]TIAN D, OCHIMIZU H, FENG C, et al. Updates and integration of evaluation metric software for PCC[J]. ISO/IEC JTC1/SC29/WG11 MPEG2017 M, 2017, 40522.
[6]ALEXIOU E, EBRAHIMI T. Point cloud quality assessment metric based on angular similarity[C]//2018 IEEE International Conference on Multimedia and Expo (ICME), San Diego, 2018: 1-6.
[7]MEKURIA R, BLOM K, CESAR P. Design, implementation, and evaluation of a point cloud codec for tele-immersive video[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2016, 27(4): 828-842.
[8]MEKURIA R N, LI Z, TULVAN C, et al. Evaluation criteria for PCC (point cloud compression)[J]. ISO/IEC JTC1/SC29/WG11 MPEG,N16332, 2016.
[9]ALEXIOU E, EBRAHIMI T. Towards a point cloud structural similarity metric[C]//2020 IEEE International Conference on Multimedia & Expo Workshops (ICMEW), London, 2020: 1-6.
[10] MEYNET G, NEHME Y, DIGNE J, et al. PCQM: A Full-Reference Quality Metric for Colored 3D point Clouds[C]//12th International Conference on Quality of Multimedia Experience (QoMEX 2020), Athlone, 2020.
[11] HUA L, YU M, JIANG G, et al. VQA-CPC: a novel visual quality assessment metric of color point clouds[C]//Optoelectronic Imaging and Multimedia Technology VII. International Society for Optics and Photonics, 2020, 11550: 1155012.
[12] TORLIG E M, ALEXIOU E, FONSECA T A, et al. A novel methodology for quality assessment of voxelized point clouds[C]//Applications of Digital Image Processing XLI. International Society for Optics and Photonics, 2018, 10752: 107520I.
[13] ALEXIOU E, EBRAHIMI T. Exploiting user interactivity in quality assessment of point cloud imaging[C]//2019 Eleventh International Conference on Quality of Multimedia Experience (QoMEX), Berlin, 2019: 1-6.
[14] ALEXIOU E, VIOLA I, BORGES T M, et al. A comprehensive study of the rate-distortion performance in MPEG point cloud compression[J]. APSIPA Transactions on Signal and Information Processing, 2019, 8:e27.
[15] SU H, DUANMU Z, LIU W, et al. Perceptual quality assessment of 3D point clouds[C]//2019 IEEE International Conference on Image Processing (ICIP), Taiwan, 2019: 3182-3186.
[16] YANG Q, MA Z, XU Y, et al. Inferring point cloud quality via graph similarity[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020,doi:10.1109/TPAMI.2020.3047083.
[17] WANG Z, BOVIK A C, SHEIKH H R, et al. Image quality assessment: From error visibility to structural similarity[J]. IEEE transactions on image processing, 2004, 13(4): 600-612.
[18] VIOLA I, CESAR P. A reduced reference metric for visual quality evaluation of point cloud contents[J]. IEEE Signal Processing Letters, 2020, 27: 1660-1664.
[19] CAO K, XU Y, COSMAN P. Visual quality of compressed mesh and point cloud sequences[J]. IEEE Access, 2020, 8: 171203-171217.
[20] 蘇洪磊. 基于碼流的網(wǎng)絡(luò)視頻無參考質(zhì)量評(píng)估研究[D]. 西安:西安電子科技大學(xué), 2014.
[21] WINKLER S, KUNT M, VAN DEN BRANDEN LAMBRECHT C J. Vision and video: Models and applications[M]. Springer, Boston, MA, 2001.
[22] RUSU R B, COUSINS S. 3D is here: Point cloud library (PCL)[C]//2011 IEEE international conference on robotics and automation, Shanghai, 2011: 1-4.
[23] ITU I. Parameter values for the hdtv standards for production and international programme exchange[J]. Recommendation ITU-R BT, 2002: 709-5.
[24] CORTES C, VAPNIK V. Support-vector networks[J]. Machine Learning, 1995, 20(3): 273-297.
[25] HSU C W, CHANG C C, LIN C J. A practical guide to support vector classification[J].[2020-11-12] http://www. csie. ntu. edu. tw/~ cjlin/papers/guide/guide. pdf.
[26] GUEDE C, RICARD J, LASSERRE S, et al. Technicolor point cloud renderer[J]. ISO/IEC JTC1/SC29/WG11 MPEG, M40229, 2017:18.
[27] SERIES B T. Methodology for the subjective assessment of the quality of television pictures[J]. Recommendation ITU-R BT, 2012: 500-13.
[28] CHANG C C. LIBSVM: a library for support vector machines[J]. ACM Transactions on Intelligent Systems and Technology (TIST), 2011, 2(3): 1-27.
Abstract:
In order to effectively monitor the quality of 3D point clouds, a no-reference quality assessment model of 3D point clouds based on v-SVR is proposed. Firstly, the relationship between encoding parameters from the distorted point cloud and the subjective quality is analysed. Then the impact of the encoding settings on the subjective quality can be obtained. Secondly, the impact of content characteristic on the subjective quality can be determined under the same encoding settings. Then two models to estimate the geometric and textural characteristic factors respectively is proposed, both of which can characterize the point cloud content. Finally, quantization parameters, location quantization scales, texture feature factors, and geometric feature factors as the input parameters of v-SVR and the subjective quality scores as the output parameters. As a result, a no-reference quality assessment model of 3D point clouds is got which can reflect human visual characteristics. Experimental results show that compared with other typical point cloud quality evaluation models, Pointssim, PSNR-Y and PCMrr, the Pearson Correlation Coefficient of the proposed model is increased by 03265, 01855 and 01748 respectively, and the Root Mean Square Error is decreased by 63174, 38350, and 36050 respectively.
Keywords:
Point cloud quality assessment; G-PCC; No-reference; 3D point cloud; SVR