李厚強(qiáng) 李禮 李竹
摘要:點(diǎn)云編碼是支撐點(diǎn)云廣泛應(yīng)用的關(guān)鍵技術(shù)之一,是近期技術(shù)研究和標(biāo)準(zhǔn)化領(lǐng)域的熱點(diǎn)。對(duì)點(diǎn)云幾何信息和屬性信息編碼技術(shù)演進(jìn)進(jìn)行了回顧,并針對(duì)稠密點(diǎn)云和稀疏點(diǎn)云的幾種典型編碼方法的編碼效率進(jìn)行了比較。未來點(diǎn)云編碼研究將集中于利用幀間預(yù)測(cè)去除動(dòng)態(tài)點(diǎn)云的不同幀之間的相關(guān)性,以及端到端點(diǎn)云編碼、任務(wù)驅(qū)動(dòng)的點(diǎn)云編碼等方面。
關(guān)鍵詞:3D點(diǎn)云編碼;幾何信息編碼;屬性信息編碼
Abstract: 3D point cloud compression is one of the key technologies supporting the widespread use of point clouds. Recently, it is one of the focuses for both research and standardization groups. The latest advance of the compression technologies for both the 3D point cloud geometry and attribute information is reviewed. Compression efficiencies of several typical compression technologies for both the 3D dense and sparse point clouds are compared. In the future, more studies will focus on inter-frame prediction to exploit the correlations between different frames in 3D dynamic point clouds, end-to-end point cloud compression, and task-driven point cloud compression.
Keywords: 3D point cloud compression; geometry information coding; attribute information coding
點(diǎn)云是一系列高維空間點(diǎn)(例如三維空間點(diǎn))的集合。每一個(gè)點(diǎn)包含幾何信息(x, y, z)以及顏色和反射率等屬性信息。根據(jù)點(diǎn)云中點(diǎn)的密度,點(diǎn)云可以粗略地分為稠密點(diǎn)云和稀疏點(diǎn)云。稠密點(diǎn)云可以用來精細(xì)重建3D物體例如人物等,可被廣泛應(yīng)用于虛擬現(xiàn)實(shí)和增強(qiáng)現(xiàn)實(shí)。稠密點(diǎn)云重建的 3D物體支持6自由度,相比360°全景視頻僅能支持3自由度,可以給用戶帶來更好的視覺體驗(yàn)。稀疏點(diǎn)云可以高精度重建3D場(chǎng)景,結(jié)合2D攝像頭采集的高清圖像視頻,可被用于自動(dòng)駕駛和機(jī)器人視覺等應(yīng)用中。由于點(diǎn)云數(shù)據(jù)量巨大,點(diǎn)云編碼成為了上述應(yīng)用中不可或缺的一環(huán)。相比成熟的圖像視頻編碼技術(shù),點(diǎn)云編碼由于其獨(dú)有的特點(diǎn)成為近期的研究熱點(diǎn)。圖像視頻中的像素在2D空間中均勻分布,而點(diǎn)云中的點(diǎn)在3D空間的分布是稀疏且無規(guī)律的。點(diǎn)云的稀疏性是指3D空間僅有很小一部分3D位置被點(diǎn)占用。從壓縮的角度來看,相比于編碼整個(gè)3D空間,僅僅編碼被占用的部分信息會(huì)更加高效。同時(shí),點(diǎn)云的無規(guī)律性使得點(diǎn)云的不同點(diǎn)之間的相關(guān)性難以被有效去除。點(diǎn)云編碼可以根據(jù)其包含的信息分為兩個(gè)部分:幾何信息編碼指明空間中哪些位置存在3D點(diǎn),屬性信息編碼指明空間中3D點(diǎn)的顏色和反射率等屬性信息。在大部分點(diǎn)云編碼算法中,都是先編碼幾何信息,然后基于重建的幾何信息和原始點(diǎn)云對(duì)點(diǎn)云進(jìn)行重著色,最后編碼重著色之后的屬性信息。
1 幾何信息編碼
幾何信息編碼主要分為3類:基于樹結(jié)構(gòu)的方法、基于表面近似的方法、基于映射的方法。下面我們將分別對(duì)這些方法進(jìn)行詳細(xì)介紹。
1.1 基于樹結(jié)構(gòu)的方法
基于樹結(jié)構(gòu)的方法是最直接的幾何信息編碼方法。其基本思想是對(duì)包含點(diǎn)云的最小立方體以樹的形式進(jìn)行迭代劃分,如果劃分完的子立方體包含點(diǎn),則編碼“1”,且會(huì)被進(jìn)一步劃分;不包含點(diǎn),則編碼“0”,且不會(huì)被進(jìn)一步劃分。在基于樹結(jié)構(gòu)的方法中,使用的樹結(jié)構(gòu)通常為八叉樹和二叉樹。
早在21世紀(jì)初,基于八叉樹的方法就被用于編碼點(diǎn)云[1]。基于八叉樹的方法首先迭代地把包含點(diǎn)云的最小立方體劃分為8個(gè)子正方體,然后用一個(gè)字節(jié)編碼8個(gè)子正方體是否包含點(diǎn)這一信息。由于父節(jié)點(diǎn)和子節(jié)點(diǎn),以及相鄰節(jié)點(diǎn)的字節(jié)之間存在很強(qiáng)的相關(guān)性,通常使用基于上下文的算術(shù)編碼進(jìn)一步去除該相關(guān)性。由于該方法簡單有效,它在國際動(dòng)態(tài)圖像專家組征集的所有稀疏點(diǎn)云編碼方法中取得了優(yōu)勝,最終發(fā)展成為基于幾何信息的點(diǎn)云編碼標(biāo)準(zhǔn)之一[2]。為了進(jìn)一步提升編碼效率,我們提出了使用該字節(jié)中1的個(gè)數(shù)和組合來代表該字節(jié),1的個(gè)數(shù)和組合也可以使用父節(jié)點(diǎn)和鄰近節(jié)點(diǎn)近似成的面來估計(jì)[1]。八叉樹的主要缺點(diǎn)是表征八叉樹需要的比特?cái)?shù)會(huì)隨著樹深度的增加而急劇增加,所以使用二叉樹來編碼幾何信息的方法被提出[3]。點(diǎn)云編碼使用基于數(shù)據(jù)的二叉樹可以一定程度上緩解因深度增加所需要的比特?cái)?shù),但是基于數(shù)據(jù)而非空間的二叉樹需要編碼分割節(jié)點(diǎn)信息,尤其在樹的深度較淺時(shí)會(huì)消耗大量比特。
1.2 基于表面近似的方法
因?yàn)橥暾c(diǎn)云很難被近似成一個(gè)參數(shù)化的表面,所以基于表面近似的方法通常與基于樹的方法結(jié)合使用。首先使用八叉樹或二叉樹把點(diǎn)云分割成互不包含的小立方體,然后小立方體被近似成表面以進(jìn)一步編碼。表面近似的方法的本質(zhì)是降維,編碼一個(gè)小立方體相當(dāng)于編碼三維信息,而把小立方體近似成一個(gè)表面則僅需要編碼二維信息。
在所有基于表面近似的方法中,最常用的表面是平面。我們首先對(duì)點(diǎn)云進(jìn)行八叉樹劃分,劃分到一定的深度后,再使用平面對(duì)立方體中的點(diǎn)進(jìn)行近似,編碼平面與立方體的交點(diǎn)來代表平面,最后對(duì)平面進(jìn)行采樣恢復(fù)最終的點(diǎn)。該方法在國際運(yùn)動(dòng)圖像專家組征集的所有靜態(tài)稠密點(diǎn)云編碼方法中取得了優(yōu)勝,最終發(fā)展成為基于幾何信息的點(diǎn)云編碼標(biāo)準(zhǔn)之一 [2]。除了使用八叉樹作為樹分割的方式,二叉樹也可以作為一種樹分割的方式來使用。除了使用采樣來恢復(fù)最終的點(diǎn),也可以使用四叉樹對(duì)近似形成的平面進(jìn)行基于樹結(jié)構(gòu)的編碼[3]。基于平面的編碼方法相比于基于樹的編碼方法,在低碼率上可以帶來明顯的性能提升,但是由于平面近似始終存在誤差,基于平面的編碼方法無法實(shí)現(xiàn)無損編碼。除此之外,為了進(jìn)一步提升表面近似精度,二階曲面也被用于表面近似[4],但是二階曲面相比平面需要傳輸更多的頭信息,這會(huì)導(dǎo)致編碼性能提升有限。
1.3 基于映射的方法
基于映射的方法最初是針對(duì)網(wǎng)格(mesh)編碼設(shè)計(jì)的。近些年來,基于映射的方法逐漸開始被用于點(diǎn)云編碼?;谟成涞姆椒ǖ幕舅枷胧前腰c(diǎn)云從3D空間映射到2D空間,然后使用成熟的2D圖像視頻編碼方法進(jìn)行編碼。此方法的核心在于找到一種合適的映射,既能在投影的過程中減少點(diǎn)的損失,又能使投影之后的圖像視頻具有較高的時(shí)空相關(guān)性以更好地利用2D圖像視頻編碼方法中高效的預(yù)測(cè)技術(shù)。
為了盡可能在投影過程中減少點(diǎn)的丟失,我們以一定順序掃描點(diǎn)云八叉樹,把3D點(diǎn)云轉(zhuǎn)化為2D圖像或視頻[5]。這種投影方式不會(huì)造成任何點(diǎn)的丟失,但形成的2D圖像視頻時(shí)空相關(guān)性弱,編碼效率低。為了提高2D圖像視頻的時(shí)空相關(guān)性,我們提出把點(diǎn)云完整地投影到包圍著該點(diǎn)云的圓柱體或立方體上[6]。此方法的2D圖像視頻編碼效率高,但會(huì)造成部分被遮擋的連續(xù)點(diǎn)丟失,從而導(dǎo)致3D點(diǎn)云質(zhì)量較差。為了兼顧投影點(diǎn)的數(shù)量和2D圖像視頻編碼效率,我們提出把具有相似法向量的點(diǎn)按片投影到包圍該點(diǎn)云的立方體上,不同的點(diǎn)云會(huì)形成幾十到數(shù)百個(gè)片[2]。此基于片的投影不會(huì)導(dǎo)致被遮擋的連續(xù)大量點(diǎn)丟失,因?yàn)樗鼈儠?huì)形成一個(gè)新的片投影到2D空間。此外,基于片的投影方法把具有相似法向量的點(diǎn)投影成一個(gè)片,使得屬于同一個(gè)片的點(diǎn)的深度方差較小,有利于提升編碼效率。該方法在國際運(yùn)動(dòng)圖像專家組征集的所有動(dòng)態(tài)點(diǎn)云編碼方法中取得了優(yōu)勝,最終發(fā)展成為基于視頻的點(diǎn)云編碼標(biāo)準(zhǔn)[2]。
2 屬性信息編碼
屬性信息編碼主要可以分為3類:基于變換的方法、基于預(yù)測(cè)的方法、基于映射的方法。下面我們將分別對(duì)這些方法進(jìn)行詳細(xì)介紹。
2.1 基于變換的方法
變換是編碼中一種常用的去相關(guān)方法?;谧儞Q的屬性信息編碼方法的基本思想是利用重建的幾何信息來設(shè)計(jì)一個(gè)內(nèi)容自適應(yīng)的屬性信息變換,以去除屬性信息之間的相關(guān)性。去除相關(guān)性之后的屬性信息經(jīng)過量化和熵編碼后形成屬性信息碼流。
為了充分利用已經(jīng)編碼的幾何信息,我們提出使用圖變換的方法對(duì)屬性信息進(jìn)行變換編碼[7]。首先根據(jù)點(diǎn)與點(diǎn)之間的距離構(gòu)建圖,然后對(duì)圖拉普拉斯矩陣進(jìn)行特征值分解,最后使用特征向量構(gòu)建的變換對(duì)屬性信息進(jìn)行變換。除此之外,我們還提出使用高斯過程來近似點(diǎn)與點(diǎn)之間的關(guān)系,推導(dǎo)出高斯過程對(duì)應(yīng)的K-L變換來編碼屬性信息[8]。上述方法能達(dá)到較好的編碼性能,但是需要進(jìn)行復(fù)雜的特征值分解。這會(huì)導(dǎo)致很高的復(fù)雜度,不利于實(shí)際使用。為了更好地取得編碼性能和復(fù)雜度之間平衡,我們提出使用基于區(qū)域的自適應(yīng)分層變換對(duì)屬性信息進(jìn)行編碼[9]?;趨^(qū)域的自適應(yīng)分層變換本質(zhì)上是加權(quán)Haar小波變換。根據(jù)八叉樹的每一個(gè)子節(jié)點(diǎn)包含的點(diǎn)的數(shù)量,對(duì)屬性信息進(jìn)行加權(quán)小波變換,以利用幾何信息?;趨^(qū)域的自適應(yīng)分層變換被基于幾何信息的點(diǎn)云編碼標(biāo)準(zhǔn)采納,成為被推薦的靜態(tài)點(diǎn)云屬性編碼方法[2]。除了以上常規(guī)的基于變換的編碼方法,基于幾何信息的稀疏表達(dá)變換也被用于壓縮屬性信息[10],但是稀疏位置信息的編碼限制了其效率。
2.2 基于預(yù)測(cè)的方法
除了變換以外,預(yù)測(cè)也是一種常用于編碼的去相關(guān)方法。不同于變換對(duì)信號(hào)進(jìn)行旋轉(zhuǎn)使得其更適合編碼,預(yù)測(cè)本質(zhì)上是以已編碼的信息作為條件,使用條件熵代替原信號(hào)的熵,從而提升編碼效率。和變換一樣,預(yù)測(cè)之后的信號(hào)經(jīng)過量化和熵編碼后形成碼流。
在圖像視頻編碼中,基于鄰近已重建圖像塊對(duì)當(dāng)前圖像塊進(jìn)行預(yù)測(cè),在各代圖像視頻編碼標(biāo)準(zhǔn)中一直沿用。在基于八叉樹的幾何信息編碼中,點(diǎn)云被分割成多個(gè)等大的小立方體,基于鄰近已經(jīng)重建的小立方體的屬性信息對(duì)當(dāng)前小立方體進(jìn)行預(yù)測(cè),是2D預(yù)測(cè)編碼到3D預(yù)測(cè)編碼的一個(gè)簡單擴(kuò)展[11]。但是一方面,點(diǎn)云的稀疏性導(dǎo)致鄰近可用預(yù)測(cè)塊較少,3D預(yù)測(cè)不如2D預(yù)測(cè)有效;另一方面,如果想要使3D預(yù)測(cè)和2D預(yù)測(cè)一樣精細(xì),在3D空間進(jìn)行預(yù)測(cè)編碼需要使用比2D空間多得多的預(yù)測(cè)方向。因此,針對(duì)3D點(diǎn)云進(jìn)行類似圖像視頻的預(yù)測(cè)并不高效。3D點(diǎn)云屬性信息預(yù)測(cè)通常使用分層預(yù)測(cè)[2]。我們把點(diǎn)云屬性信息分成不同的層進(jìn)行逐層編碼,并使用已經(jīng)編碼的層對(duì)待編碼的層進(jìn)行加權(quán)預(yù)測(cè)。在此種方法的發(fā)展過程中,涌現(xiàn)出了多種點(diǎn)云分層方式:基于點(diǎn)與點(diǎn)之間距離的分層方法,以及基于二叉樹的分層方法等。
除此之外,我們還提出了基于提升的方式使用編碼殘差來進(jìn)一步修正層間預(yù)測(cè),以更好地提升性能[2]。由于分層預(yù)測(cè)的方法在編碼性能和復(fù)雜度之間取得了很好的均衡,該方法被基于幾何信息的點(diǎn)云編碼標(biāo)準(zhǔn)采納,成為了推薦的屬性壓縮方法之一。
2.3 基于映射的方法
大部分屬性信息編碼方法利用幾何信息去除屬性信息之間的相關(guān)性,以提升編碼效率;但是基于映射的屬性編碼方法則有所不同,它采用與基于映射的幾何編碼方法相同的投影方式,然后使用成熟的視頻編碼技術(shù)對(duì)重著色之后的屬性視頻進(jìn)行編碼。從基本的流程上來說,基于映射的屬性編碼方法和基于映射的幾何編碼方法并沒有太大不同。在不使用幾何信息的情況下,基于高效成熟的2D圖像視頻編碼技術(shù)已經(jīng)能夠取得非常好的性能?;谝呀?jīng)編碼的幾何信息,我們對(duì)屬性2D圖像視頻編碼器進(jìn)行運(yùn)動(dòng)矢量預(yù)測(cè)率,并對(duì)失真方面進(jìn)行優(yōu)化[12],這使得基于映射的屬性視頻編碼方法取得了進(jìn)一步的性能提升?;谟成涞膶傩孕畔嚎s方法和基于映射的幾何信息壓縮方法組成了基于視頻的點(diǎn)云編碼標(biāo)準(zhǔn)[2]。
3 點(diǎn)云傳統(tǒng)編碼方法的比較
3.1 幾何信息壓縮性能
基于映射的方法和基于表面近似的方法都不適合稀疏點(diǎn)云,所以稀疏點(diǎn)云幾何信息幾乎只能使用基于樹的方法進(jìn)行壓縮。不同于稀疏點(diǎn)云,稠密點(diǎn)云幾何信息可以使用上述3種方法進(jìn)行壓縮。表1給出了相對(duì)于表面近似的方法,基于映射的方法、基于樹結(jié)構(gòu)的方法壓縮稠密點(diǎn)云幾何信息的率失真性能結(jié)果。表1中,D1表示點(diǎn)到點(diǎn)的距離,D2表示點(diǎn)到平面的距離;數(shù)字表示相同點(diǎn)云幾何信息質(zhì)量下的碼率變化。從表1可以看出,針對(duì)稠密點(diǎn)云,基于映射的方法會(huì)比基于表面近似的方法帶來顯著的性能提升,在相同的點(diǎn)到點(diǎn)和點(diǎn)到平面的距離下,基于映射的方法分別會(huì)帶來近80%和70%的碼率節(jié)省。此外,基于樹的方法相比于基于表面近似的方法,需要額外90%和70%的比特?cái)?shù)。綜上所述,基于映射的方法可以帶來最好的稠密點(diǎn)云幾何信息壓縮效果。
3.2 屬性信息壓縮性能
針對(duì)稠密點(diǎn)云屬性信息,基于變換、預(yù)測(cè)和映射的方法均可以使用。但是基于映射的屬性信息壓縮方法通常和基于映射的幾何信息壓縮方法結(jié)合起來使用,而基于變換和預(yù)測(cè)的方法通常和基于樹和表面的幾何信息壓縮方法結(jié)合起來使用。不同的幾何信息壓縮方法會(huì)帶來不同的重著色之后的點(diǎn)云,所以很難單獨(dú)對(duì)基于映射的方法和基于預(yù)測(cè)和變換的方法進(jìn)行直接對(duì)比。表2給出了使用基于變換的方法和基于預(yù)測(cè)的方法壓縮稠密點(diǎn)云屬性信息的率失真性能比較。從表2可以看出,相比于基于預(yù)測(cè)的方法,基于變換的方法對(duì)于亮度分量會(huì)帶來大約3.6%的碼率增加,對(duì)于色度分量的性能損失則更加明顯。因此,針對(duì)稠密點(diǎn)云,基于預(yù)測(cè)的方法可以帶來比基于變換的方法更好的屬性信息壓縮性能。
針對(duì)稀疏點(diǎn)云屬性信息,基于映射的方法難以使用,所以我們主要對(duì)基于變換的方法和基于預(yù)測(cè)的方法進(jìn)行了對(duì)比,率失真性能如表3所示。從表3可以看出,針對(duì)稀疏點(diǎn)云屬性信息,相比基于預(yù)測(cè)的方法,基于變換的方法能帶來大約3%的碼率節(jié)省。綜上所述,基于變換的方法是目前業(yè)界效果比較好的稀疏點(diǎn)云屬性信息壓縮方法。
4 點(diǎn)云編碼最新進(jìn)展和發(fā)展方向
近幾年來,點(diǎn)云幾何和屬性信息編碼技術(shù)的發(fā)展取得了長足進(jìn)步,但是和傳統(tǒng)的圖像視頻編碼標(biāo)準(zhǔn)所能達(dá)到的編碼效率相比,仍有較大的距離。如何進(jìn)一步提升編碼性能是點(diǎn)云編碼未來發(fā)展的目標(biāo)之一。
幀間預(yù)測(cè)是傳統(tǒng)視頻編碼中提升壓縮效率最顯著的部分,但是對(duì)于動(dòng)態(tài)點(diǎn)云而言,幀間預(yù)測(cè)效率目前還遠(yuǎn)遠(yuǎn)不夠。對(duì)于稠密動(dòng)態(tài)點(diǎn)云幀間預(yù)測(cè),基于片的映射方法取得了目前最優(yōu)的性能,但基于片的映射方法仍存在兩個(gè)問題:首先,點(diǎn)云按片映射到2D視頻的過程復(fù)雜度很高,不同于視頻編碼存在成熟的市場(chǎng)優(yōu)化方案,此映射過程目前還不適合實(shí)時(shí)應(yīng)用;另外,按片映射過程不可避免地破壞了視頻的時(shí)空相關(guān)性。盡管一些人們嘗試在視頻編碼過程中通過尋找3D空間對(duì)應(yīng)塊來解決此問題[12],但如何從更源頭產(chǎn)生時(shí)空更連續(xù)的視頻仍然是稠密動(dòng)態(tài)點(diǎn)云編碼中一個(gè)非常關(guān)鍵的問題。對(duì)于稀疏動(dòng)態(tài)點(diǎn)云幀間預(yù)測(cè),需要直接在3D空間進(jìn)行運(yùn)動(dòng)估計(jì)和運(yùn)動(dòng)補(bǔ)償。但由于相鄰點(diǎn)云幀點(diǎn)數(shù)不完全相同,且不同點(diǎn)之間不存在和視頻中像素一樣的一一對(duì)應(yīng)關(guān)系,所以3D運(yùn)動(dòng)估計(jì)和運(yùn)動(dòng)補(bǔ)償是業(yè)界一個(gè)非常困難的問題,目前還沒有一個(gè)成熟的解決方案。
基于深度學(xué)習(xí)的端到端圖像視頻編碼近期取得了長足的進(jìn)步,幾乎達(dá)到或超越了傳統(tǒng)圖像視頻編碼的性能,這就促進(jìn)了以端到端的方式對(duì)點(diǎn)云進(jìn)行壓縮編碼的方法的使用。端到端點(diǎn)云幾何屬性信息壓縮是目前的研究熱點(diǎn)[13]。幾何信息編碼使用3D普通或稀疏卷積神經(jīng)網(wǎng)絡(luò)來編碼每個(gè)空間位置是否存在3D點(diǎn)這一信息;屬性信息編碼使用神經(jīng)網(wǎng)絡(luò)結(jié)合坐標(biāo)信息編碼對(duì)應(yīng)的顏色和反射率等。目前端到端點(diǎn)云編碼僅在稠密靜態(tài)點(diǎn)云方面取得了較好的效果,而針對(duì)稀疏點(diǎn)云和動(dòng)態(tài)點(diǎn)云,目前都沒有較好的解決方案。另外,稀疏點(diǎn)云主要針對(duì)機(jī)器視覺,易于被端到端點(diǎn)云壓縮利用,也是未來非常值得嘗試的方向。
5 結(jié)束語
點(diǎn)云幾何和屬性信息編碼是支撐點(diǎn)云廣泛應(yīng)用的關(guān)鍵技術(shù)之一。點(diǎn)云幾何和屬性信息編碼近些年來取得了長足的進(jìn)步,但在幀間預(yù)測(cè)、編碼應(yīng)用等方面仍有許多懸而未決的問題。未來人們需要進(jìn)一步研究幀間預(yù)測(cè)、基于深度學(xué)習(xí)的端到端點(diǎn)云編碼等技術(shù),以更高層的應(yīng)用為目標(biāo)設(shè)計(jì)更高效的點(diǎn)云幾何和屬性信息壓縮技術(shù)。
參考文獻(xiàn)
[1] SCHNABEL R, KLEIN R. Octree-based pointcloud compression [C]//IEEE VGTC conference on Point-Based Graphics. Goslar, Germany: IEEE VGTC, 2006, (6): 111-120
[2] SCHWARZ S, PREDA M, BARONCINI V, et al. Emerging MPEG standards for point cloud compression [J]. IEEE journal on emerging and selected topics in circuits and systems, 2019, 9(1): 133-148. DOI:10.1109/jetcas.2018.2885981
[3] KATHARIYA B, LI L, LI Z, et al. Scalable point cloud geometry coding with binary tree embedded quadtree [C]//2018 IEEE International Conference on Multimedia and Expo(ICME). San Diego, CA, USA: IEEE, 2018: 1-6. DOI:10.1109/icme.2018.8486481
[4] XU Y Z, ZHU W J, XU Y L, et al. Dynamic point cloud geometry compression via patch-wise polynomial fitting [C]//ICASSP 2019-2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Brighton, United Kingdom: IEEE, 2019: 2287-2291. DOI:10.1109/icassp.2019.8682413
[5] BUDAGAVI M, FARAMARZI E, HO T, et al. Samsungs response to CfP for point cloud compres- sion (Category 2) [R]. Macau, China, 2017
[6] HE L Y, ZHU W J, XU Y L. Best-effort projection based attribute compression for 3D point cloud [C]//2017 23rd Asia-Pacific Conference on Communications (APCC). Perth, Australia: IEEE, 2017: 1-6. DOI:10.23919/ apcc.2017.8304078
[7] ZHANG C, FLORENCIO D, LOOP C. Point cloud attribute compression with graph transform [C]//2014 IEEE International Conference on Image Processing (ICIP). Paris, France: IEEE, 2014: 2066-2070. DOI:10.1109/ icip.2014.7025414
[8] DE QUEIROZ R L, CHOU P A. Transform coding for point clouds using a Gaussian process model [J]. IEEE transactions on image processing, 2017, 26(7): 3507-3517. DOI:10.1109/tip.2017.2699922
[9] DE QUEIROZ R L, CHOU P A. Compression of 3D point clouds using a region-adaptive hierarchical transform [J]. IEEE transactions on image processing, 2016, 25(8): 3947-3956. DOI:10.1109/tip.2016.2575005
[10] GU S, HOU J H, ZENG H Q, et al. 3D point cloud attribute compression using geometry-guided sparse representation [J]. IEEE transactions on image processing, 2020, 29: 796-808. DOI:10.1109/tip.2019.2936738
[11] COHEN R A, TIAN D, VETRO A. Point cloud attribute compression using 3-D intra prediction and shape-adaptive transforms [C]//2016 Data Compression Conference (DCC). Snowbird, UT, USA: IEEE, 2016: 141-150. DOI:10.1109/dcc.2016.67
[12] LI L, LI Z, ZAKHARCHENKO V, et al. Advanced 3D motion prediction for video-based dynamic point cloud compression [J]. IEEE transactions on image processing, 2020, 29: 289-302. DOI:10.1109/tip.2019.2931621
[13] QUACH M, VALENZISE G, DUFAUX F. Learning convolutional transforms for lossy point cloud geometry compression [C]//2019 IEEE International Conference on Image Processing (ICIP). Taipei, Taiwan, China: IEEE, 2019: 4320-4324. DOI:10.1109/icip.2019.8803413
作者簡介
李厚強(qiáng),中國科學(xué)技術(shù)大學(xué)教授;主要研究領(lǐng)域?yàn)橐曨l編碼與通信、圖像處理與計(jì)算機(jī)視覺、多媒體信息檢索等;主持國家基金委重點(diǎn)項(xiàng)目、“973”項(xiàng)目、“863”項(xiàng)目等國家級(jí)科研項(xiàng)目10余項(xiàng);獲2019年國家技術(shù)發(fā)明二等獎(jiǎng)(排名第2)、2015年國家自然科學(xué)二等獎(jiǎng)(排名第2)、2012年安徽省科學(xué)技術(shù)一等獎(jiǎng)(排名第1);發(fā)表論文200余篇,獲授權(quán)發(fā)明專利60余項(xiàng),被視頻編碼國際標(biāo)準(zhǔn)采納提案45項(xiàng)。
李禮,中國科學(xué)技術(shù)大學(xué)特任研究員;主要研究領(lǐng)域?yàn)閳D像視頻編碼、3D點(diǎn)云編碼等;獲2019國家技術(shù)發(fā)明二等獎(jiǎng)(排名第5);發(fā)表論文50余篇,獲授權(quán)發(fā)明專利9項(xiàng),被視頻編碼國際標(biāo)準(zhǔn)采納提案8項(xiàng)。
李竹,美國密蘇里大學(xué)堪薩斯分校副教授;主要研究領(lǐng)域?yàn)閳D像視頻編碼、圖像視頻處理、圖像視頻通信等;獲國際會(huì)議ICIP 2006最佳論文獎(jiǎng);發(fā)表論文100余篇,獲授權(quán)美國發(fā)明專利40余項(xiàng)。