国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于共軛透視相關(guān)相機(jī)的光場圖像渲染與顯示

2023-06-16 06:54:26周夢滔樓益民胡娟梅馮玉順吳鋒民
光子學(xué)報 2023年4期
關(guān)鍵詞:掃描線光場共軛

周夢滔,樓益民,胡娟梅,馮玉順,吳鋒民

(浙江理工大學(xué) 物理系 浙江省光場調(diào)控技術(shù)重點實驗室,杭州 310018)

0 引言

光場顯示技術(shù)能夠為觀察者提供雙目視差、運動視差、單眼調(diào)焦、消隱等豐富的三維觀感,是距離全息顯示效果最近的一種非全息類的3D 顯示技術(shù)[1-2]。光場顯示技術(shù)在工農(nóng)業(yè)生產(chǎn)、日常生活、軍事國防、游戲娛樂等各個領(lǐng)域都有廣泛的應(yīng)用,是一種平臺性技術(shù),所以備受關(guān)注。如何高效地采集光場信息數(shù)據(jù)是光場顯示技術(shù)中的重要環(huán)節(jié),也是3D 顯示的信息源頭。光場信息采集方法主要包括光學(xué)生成技術(shù)和數(shù)字渲染技術(shù)兩類。光學(xué)生成技術(shù)包括相機(jī)陣列采集和光場相機(jī)采集技術(shù)等[3-4]。這類方法可以采集真實場景的光場信息,但是采集系統(tǒng)復(fù)雜,需要精密校準(zhǔn)。數(shù)字渲染技術(shù)利用計算機(jī)生成光場信息,靈活方便且可以結(jié)合計算機(jī)圖形學(xué)技術(shù)實現(xiàn)特殊的藝術(shù)效果,是領(lǐng)域內(nèi)的研究熱點[5-6]。

數(shù)字渲染技術(shù)根據(jù)所處理的數(shù)據(jù)對象的不同可以分為基于圖像的渲染(Image Based Rendering,IBR)和基于模型的渲染(Model Based Rendering,MBR)。IBR 主要處理的數(shù)據(jù)對象是2D 的圖像數(shù)據(jù),而MBR主要處理的數(shù)據(jù)對象是3D 的模型數(shù)據(jù)。IBR 方法通過變形插值生成新視點圖像,提升了渲染速度。但是由于數(shù)據(jù)源中的空間信息不完備,會造成渲染質(zhì)量的下降。MBR 方法利用虛擬相機(jī)渲染生成新視點圖像,可以獲得高質(zhì)量的光場圖像,但是渲染效率有待提升。

MBR 算法主要包括單視點渲染法(Single Viewpoint Rendering,SVR)、多視點渲染算法(Multiple Viewpoint Rendering,MVR)、光線追蹤渲染算法(Ray Tracing Rendering,RTR)和并行多視點多邊形光柵化渲染算法(Parallel Multi-view Polygon Rasterization,PMPR)等[7]。1978年,IGARASHI Y 等提出計算生成光場圖像的方法,該方法逐視點、逐頂點的對光場圖像進(jìn)行渲染,其渲染時間隨著視點數(shù)目線性增加,存在大量冗余計算,效率較低[8]。1998年, HALLE M 提出了一種MVR 算法,該算法以SVR 為基礎(chǔ),利用不同視點圖像之間的相關(guān)性將渲染速度提升了一個數(shù)量級,并且可以使用圖形處理器(Graphic Progressing Unit,GPU)硬件進(jìn)行加速計算[9]。2017年,邢樹軍等提出了一種基于逆向光線追蹤技術(shù)的高效RTR 算法,該算法直接對3D 場景中的光信息進(jìn)行逐光線地采樣,通過追蹤大量光線和場景的碰撞實現(xiàn)新視點圖像的渲染,獲得了逼真的效果,并且利用層次化包圍盒結(jié)構(gòu)顯著縮短了渲染時間。但是,由于RTR 算法的計算量巨大,尚未能實現(xiàn)復(fù)雜場景的實時渲染[10]。2020年,管延鑫等提出了一種PMPR 算法,這種算法利用幾何相關(guān)性和并行光柵化技術(shù)構(gòu)建了一種超多視點光場圖像的渲染管線,進(jìn)一步提升了渲染速率[11]。在場景復(fù)雜度為200 萬面片、總分辨率為7 680×4 320 的情況下,渲染速率達(dá)到60 幀/s,但由于該算法沒有考慮光照模型和紋理映射等因素,其渲染的圖像質(zhì)量受限,且不能和傳統(tǒng)的圖形硬件渲染管線相兼容。

上述渲染算法,無論是IBR 還是MBR 方法都需要先計算獲得多視點圖像,然后通過編碼將多視點圖像轉(zhuǎn)化為光場圖像[12-13],最后將這種光場圖像輸入到光場顯示系統(tǒng),實現(xiàn)深度正確的3D 顯示。為了簡化渲染流程,進(jìn)一步提升渲染效率,本文提出了一種基于共軛透視相關(guān)相機(jī)的光場圖像快速渲染方法。通過構(gòu)建共軛透視相機(jī)利用一步渲染即可實現(xiàn)光場圖像的輸出,解決了深度反轉(zhuǎn)問題;然后利用相鄰視點之間的圖像的透視相關(guān)性減少了重復(fù)計算,實現(xiàn)了光場圖像的快速渲染;最后搭建了與之匹配的光場顯示系統(tǒng),實現(xiàn)了虛擬場景的3D 顯示。所提算法省去了光場圖像的編碼過程,且具有渲染時間獨立于視點數(shù)的特點,可以實現(xiàn)數(shù)以萬計視點的光場信息的快速獲取。該算法還與現(xiàn)有的紋理、光照算法相兼容,大幅提升了渲染的質(zhì)量。

1 基本原理

1.1 傳統(tǒng)光場圖像采集及顯示原理

光場顯示包括信息采集和信息顯示兩個過程,如圖1 所示。信息采集過程首先讀取3D 模型數(shù)據(jù),然后設(shè)立M×N個虛擬相機(jī)陣列對顯示目標(biāo)的多視點圖像信息進(jìn)行采集,再通過圖像編碼將多視點信息轉(zhuǎn)化為光場圖像信息。最后將光場圖像輸入顯示系統(tǒng)實現(xiàn)目標(biāo)場景的3D 顯示。

圖1 傳統(tǒng)光場圖像的采集及顯示原理Fig.1 The recording and displaying principle of traditional light field image

光場信息的采集時間包括模型數(shù)據(jù)的讀取時間、多視點圖像的渲染時間、圖像編碼時間和圖像轉(zhuǎn)輸時間。其中從多視點圖像到光場圖像的編碼過程是為了匹配信息采集系統(tǒng)所記錄的光場參數(shù)和顯示系統(tǒng)輸出的光場參數(shù)之間的差異。目前對光場信息的獲取算法的優(yōu)化和提升主要集中在多視點圖像的獲取過程中。鮮有考慮多視點圖像采集和圖像編碼過程的同步優(yōu)化,從而限制了渲染效率的提升。

1.2 共軛透視相機(jī)渲染原理

為提高渲染效率,利用光場采集和顯示信息之間的參數(shù)關(guān)系設(shè)計了一種共軛透視相機(jī),實現(xiàn)了光場圖像的一步采集,免去了圖像編碼過程。圖2 為不同相機(jī)的記錄視景體和投影視景體之間的關(guān)系,其中圖2(a)為傳統(tǒng)透視相機(jī)的視景體及其投影效果,在其視景體所張的立體角內(nèi)設(shè)置了近裁剪平面和遠(yuǎn)裁剪平面。在兩個裁剪平面之間的3D 物體以相機(jī)坐標(biāo)為投影中心在近裁剪平面上形成投影圖像。它所獲得的圖像與人眼觀察該場景獲得的圖像效果類似,具有正透視關(guān)系,其透視投影矩陣為P,可表示為

圖2 記錄視景體與投影視景體間的關(guān)系Fig.2 Relationship of recording frustum and displaying frustum

式中,n為視錐體近面裁剪面的z坐標(biāo),f為遠(yuǎn)裁剪面的z坐標(biāo),r、t分別為視錐體近裁剪面上的x、y坐標(biāo)。這種投影方式獲得的圖像具有近大遠(yuǎn)小的比例關(guān)系和近景物體遮擋遠(yuǎn)景物體的消隱關(guān)系,光照模型一般為正常的馮氏模型[14]。圖2(b)為共軛透視相機(jī)的視景體及其投影效果。區(qū)別于傳統(tǒng)的透視相機(jī),在兩個裁剪平面之間的三維物體以相機(jī)坐標(biāo)為投影中心在遠(yuǎn)裁剪平面上形成投影圖像,其透視投影矩陣為Pc,可表示為

式中,r′、t′分別為視錐體遠(yuǎn)裁剪面上的x、y坐標(biāo)。這種相機(jī)所拍攝的物體具有近小遠(yuǎn)大的比例關(guān)系和遠(yuǎn)景物體遮擋近景物體的消隱關(guān)系,光照模型為馮氏光源的共軛光源。圖2(c)為光場顯示過程的投影視景體。對比圖2(b)可知,除了光線傳播方向相反外,圖2(c)的投影參數(shù)與圖2(b)完全相同。所以利用共軛透視相機(jī)可以直接獲得與顯示參數(shù)匹配的光場圖像。通常,光場圖像包含多個共軛透視投影相機(jī)渲染的圖像單元。其各個單元的圖像內(nèi)容和位置坐標(biāo)與投影顯示單元的圖像內(nèi)容和位置坐標(biāo)一一對應(yīng),所以利用共軛相機(jī)記錄的光場圖像可以省去圖像編碼步驟,直接輸入顯示系統(tǒng)合成3D 圖像。

1.3 共軛透視相關(guān)相機(jī)渲染管線

隨著相機(jī)陣列規(guī)模的擴(kuò)大,所需計算的共軛透視投影圖像的數(shù)量也快速增加。為提升渲染效率,利用相鄰共軛相機(jī)之間的透視相關(guān)性對渲染過程進(jìn)行了加速。透視相關(guān)性描述的是一種從不同位置觀察到的靜態(tài)場景的圖像之間的相似性。這種相似性源于場景的幾何形態(tài)和紋理的變化與相機(jī)的位置之間存在的映射關(guān)系,這種關(guān)系在極平面坐標(biāo)系中更為明確[15]。

如圖3,對于空間中的一個3D 物點v0或者v1,其在相機(jī)陣列的像平面上記錄的多視點圖像在極平面坐標(biāo)系中可以用一條斜率為k的直線段進(jìn)行描述。其中k由物點的深度和相機(jī)的焦距確定。線段的兩個端點由左右兩個端點相機(jī)記錄的該點的圖像的坐標(biāo)確定。對于3D 空間中由v0和v1定義的一條直線段,其在相機(jī)陣列中記錄的圖像在極平面坐標(biāo)系中可以表示為由兩條不同斜率的直線和兩條邊緣平行線圍成的陰影區(qū)域,如圖3(c)。對于3D 空間中的多邊形,可以根據(jù)掃描線將其切割成一系列直線段,每一個直線段將在極平面坐標(biāo)系中形成一個類似的陰影區(qū)域,這個區(qū)域定義為多邊形切片軌跡(Polygon Slice Track,PST)。根據(jù)上述映射關(guān)系利用對PST 的插值來代替矢量運算從而加速光場圖像的渲染。

圖3 極平面坐標(biāo)系中三維物體的透視相關(guān)性Fig.3 Perspective coherence of three-dimensional objects in polar plane coordinate system

根據(jù)正常相機(jī)和共軛相機(jī)的深度映射關(guān)系和相鄰共軛相機(jī)間的透視相關(guān)性,利用應(yīng)用程序接口OpenGL 設(shè)計了一套基于共軛相機(jī)的透視相關(guān)性的渲染管線,如圖4 所示,稱之為共軛多視點渲染(Conjugate Multiple Viewpoint Rendering,CMVR)算法。該算法首先讀取3D 模型數(shù)據(jù),利用頂點緩沖對象(Vertex Buffer Objects,VBO)技術(shù)存儲解析后的模型的頂點數(shù)據(jù)(包括位置坐標(biāo)、索引坐標(biāo)、紋理坐標(biāo)、法向量等)。利用頂點著色器將頂點數(shù)據(jù)組裝成三角形傳入幾何著色器。在幾何著色器中將同一組三角形對象根據(jù)左右相機(jī)參數(shù)進(jìn)行坐標(biāo)系轉(zhuǎn)換,使其在屏幕坐標(biāo)系下生成兩組三角形對象,并將轉(zhuǎn)換后的兩組三角形對象的數(shù)據(jù)通過變換反饋技術(shù)(Transform Feedback,TFB)直接映射到本地端。接下來在本地端利用掃描線算法將三角形進(jìn)行切片處理,并根據(jù)掃描線的y值將三角形切片添加到掃描線切片列表中。當(dāng)所有三角形完成掃描線切片處理后,需要根據(jù)掃描線從下往上的方向?qū)η衅斜磉M(jìn)行排序處理。當(dāng)一行掃描線排序完成后,直接將當(dāng)前掃描線的數(shù)據(jù)利用VBO 技術(shù)直接傳遞給頂點著色器,在歸一化坐標(biāo)系(Normalized Device Coordinates,NDC)下將其組裝成線段供后續(xù)生成PST 使用。這樣做的好處是不需要保存所有掃描線切片列表的數(shù)據(jù),不僅節(jié)省了內(nèi)存硬件資源,也充分發(fā)揮了中央處理器(Central Progressing Unit,CPU)和GPU 之間的交互優(yōu)勢,從而提升了算法的渲染效率。之后利用幾何著色器可生成新頂點的特性,根據(jù)透視相關(guān)性將頂點著色器傳入的線段切片端點v0和v1轉(zhuǎn)換成斜率為kv0和kv1的兩條直線,其中斜率為kv0的直線的端點為v0R、v0L,斜率為kv1的直線的端點為v1R、v1L。當(dāng)PST 的四個頂點v0R、v0L、v1R和v1L生成后,將其組裝成三角形傳入片段著色器,并利用幀緩沖區(qū)(Frame buffer Objects,F(xiàn)BO)對PST 進(jìn)行離屏光柵化渲染。使用FBO 技術(shù)可以拓展默認(rèn)幀緩沖區(qū)的大小限制。當(dāng)掃描線切片列表中一條掃描線上所有的切片生成的PST在FBO1中光柵化完成后,得到當(dāng)前掃描線在極平面坐標(biāo)系下的極平面圖像(Epipolar Plane Image,EPI)。最后根據(jù)EPI 在光場圖中的位置將其傳入到FBO2,當(dāng)所有的掃描線完成EPI 的渲染并傳入FBO2后,就可將FBO2中得到的光場圖輸出到光場顯示設(shè)備實現(xiàn)3D 顯示。

圖4 基于共軛透視相關(guān)性的CMVR 算法的渲染管線流程Fig.4 Rendering pipeline flow of CMVR algorithm using conjugate perspective coherence

2 實驗結(jié)果與分析

2.1 單視角共軛相機(jī)渲染實驗

為了驗證共軛透視相機(jī)的渲染效果,首先設(shè)計了單視角渲染實驗。如圖5,所渲染的對象是一個賽車模型,渲染的分辨率為222×222。圖5(a)、(b)分別是傳統(tǒng)透視相機(jī)和共軛透視相機(jī)渲染的圖像。經(jīng)對比可知,圖5(a)具有正透視投影效果。最明顯的特征是相機(jī)拍攝到的是靠近相機(jī)一側(cè)的車門和車輪,即近景遮擋遠(yuǎn)景。而且靠近相機(jī)近裁剪面的車輪(左)大于遠(yuǎn)離相機(jī)近裁剪面的車輪(右),即近大遠(yuǎn)小。圖5(b)則相反。相機(jī)拍攝到的是遠(yuǎn)離相機(jī)一側(cè)的車門和車輪,包括圖5(a)中被遮擋的車尾和尾翼,即遠(yuǎn)景遮擋近景。而且靠近相機(jī)遠(yuǎn)裁剪面的車輪(右)小于遠(yuǎn)離相機(jī)遠(yuǎn)裁剪面的車輪(左),即近小遠(yuǎn)大。圖中的光照模型采用無限遠(yuǎn)光源。圖5(a)中的光線從靠近相機(jī)的一側(cè)射向遠(yuǎn)離相機(jī)的一側(cè)。圖5(b)中的光線是其共軛方向,即從遠(yuǎn)離相機(jī)的一側(cè)射向相機(jī)。上述特征說明了共軛相機(jī)的有效性。

圖5 單視角渲染結(jié)果Fig.5 Single view rendering results

2.2 共軛透視相關(guān)相機(jī)光場圖像渲染實驗

利用透視相關(guān)性可以加速光場圖像的渲染。為驗證渲染算法的有效性,對圖5 中的車模型利用圖4 所示算法進(jìn)行了光場圖像的渲染實驗。渲染結(jié)果如圖6。圖6(a)是其中一條掃描線的EPI 圖像。該圖由許多不同斜率的直線段構(gòu)成,每一條直線段都記錄了一個具有一定深度的3D 物點,很好地體現(xiàn)出了相機(jī)之間的透視相關(guān)性。圖中的插圖分別為左右兩邊白色方框區(qū)域的放大圖,可以清楚地觀察到圖像由暗到明的漸變過程,說明所提算法可以較好地渲染光照陰影效果。圖6(b)為利用CMVR 算法渲染的由18×10 個單元構(gòu)成的基元圖陣列(Elemental Image Arrays,EIA)形成的光場圖,右上角的插圖為白色方框區(qū)域的放大圖,該插圖與圖5(b)所示的視圖具有相同的視點、相同的分辨率和相同的相機(jī)參數(shù)。不同的是圖5(b)是由OpenGL 的渲染管線渲染的結(jié)果。為了定量評估渲染質(zhì)量,以圖5(b)為基準(zhǔn)計算了兩者的結(jié)構(gòu)相似度(Structure Similarity Index Measure,SSIM)。SSIM 是一種衡量兩幅圖像相似程度的指標(biāo),取值區(qū)間為0 到1,越接近1 說明兩者差別越小,圖像質(zhì)量越高。結(jié)果顯示兩者之間的結(jié)構(gòu)相似度達(dá)到了0.94,說明CMVR算法可以獲得與基于商業(yè)應(yīng)用程序接口的渲染管線相媲美的效果,很好地證明了CMVR 算法的有效性。

圖6 車模型的光場圖像渲染結(jié)果Fig.6 Rendering results of the light field image of the car model

為了驗證光場圖的實際顯示效果的正確性,將光場圖輸入到如圖7 所示的光場顯示系統(tǒng)進(jìn)行顯示實驗。該顯示系統(tǒng)主要由光源、LCD 顯示屏幕、透鏡陣列、散射屏構(gòu)成。光場顯示系統(tǒng)的具體參數(shù)如表1。其3D 顯示效果如圖8,其中圖8(a)~(e)分別顯示了3D 圖像的左、中、右、上、下五個視角的觀察效果。結(jié)果顯示3D圖像具有很好的水平視差和垂直視差,光場圖通過顯示系統(tǒng)在空間中合成了正確的3D 圖像,且具有良好的立體效果,證明了所提算法的正確性。

表1 顯示設(shè)備參數(shù)Table 1 Display device parameters

圖7 實驗顯示系統(tǒng)與光路Fig.7 Experimental display system and light path

圖8 三維圖像的左、中、右、上、下五個視角的觀察效果Fig.8 Five perspective views of left, middle, right, top and bottom of the 3D image

2.3 算法對比分析

所提算法在可編程OpenGL 圖形渲染管線的基礎(chǔ)上,利用CPU 和GPU 之間的交互技術(shù)實現(xiàn)了多視點渲染,充分發(fā)揮了硬件優(yōu)勢,大幅提高了渲染效率。為證明算法的效率優(yōu)勢,將本算法與傳統(tǒng)SVR 算法進(jìn)行了比較,設(shè)計了兩個渲染實驗。實驗所用的個人電腦配置了Intel(R)Core(TM)i7-10510U CPU@1.80 GHz,8.00 GB RAM 和NVIDIA GeForce MX250 圖形顯卡。為了更清楚地分析兩種算法的渲染效率,主要對比了兩種算法的核心計算過程所需要的時間,實驗中統(tǒng)計的時間不包含讀取模型的時間和保存渲染結(jié)果的時間,理論上兩種算法讀取同一模型和保存相同的數(shù)據(jù)所需要的時間是一樣的。

實驗一測試了兩種算法對相同復(fù)雜度的幾何模型不同視點數(shù)目的光場圖的渲染性能,對比渲染時間隨著渲染視點數(shù)目變化而變化的趨勢。實驗選用的Ball 模型包括55 140 個三角形、29 189 個頂點。如圖9 所示,通過實驗發(fā)現(xiàn),和預(yù)期一樣SVR 算法的渲染時間隨著視點數(shù)的增加而線性增加。但是利用其渲染不同分辨率的圖像所需的時間幾乎不發(fā)生變化,也就是說SVR 算法對圖像分辨率不敏感。對于CMVR 算法,當(dāng)圖像分辨率一定時,其渲染時間隨著視點數(shù)的增加而幾乎不變。因為由單視點渲染實驗對圖像分辨率不敏感的特性可知,在相同的條件下,光柵化不同分辨率的PST 的時間也幾乎是一個定值。即所提算法的渲染時間對視點數(shù)目不敏感,有利于密集視點光場圖的渲染。當(dāng)視點數(shù)目一定時,CMVR 算法所需時間隨著圖像分辨的增加而增加。這是由于CMVR 算法需要將三角形處理成多邊形切片,當(dāng)分辨率增大時,同一個三角形需要處理的切片數(shù)會增加,切片處理的時間隨之增加。因此CMVR 算法是受分辨率影響的。當(dāng)光柵化PST 減少的時間等于切片支出的時間時,達(dá)到收支平衡,之后CMVR 算法開始發(fā)揮出算法優(yōu)勢。

圖9 同一模型不同分辨率條件下兩種算法的渲染時間與視點數(shù)目的關(guān)系Fig.9 The relationship between the rendering time of the two algorithms and the number of viewpoints under the condition of different resolutions of the same model

實驗二測試了兩種算法對相同圖像分辨率不同復(fù)雜度的幾何模型的渲染性能,同樣測試渲染時間隨著渲染視點數(shù)目變化而變化的趨勢。實驗選用的car 模型包括5 207 個三角形、2 907 個頂點,heart 模型包括14 979 個三角形、8 242 個頂點,ball 模型的參數(shù)和實驗一相同。如圖10 所示,對于SVR 算法,在相同圖像分辨率的情況下,對于所有不同的視點數(shù)目,算法所需的時間都隨著模型中頂點數(shù)量和三角形面片數(shù)量的增加而增加。因為隨著模型復(fù)雜度的增加,所需的坐標(biāo)變換和光柵化等相關(guān)的計算量將隨之增加。故SVR 算法受模型復(fù)雜度的影響。對于CMVR 算法,在相同圖像分辨率的情況下,對于所有不同的視點數(shù)目,算法所需時間同樣都隨著模型復(fù)雜度的提高而增加。故CMVR 算法也受模型復(fù)雜度的影響。因為三角形面片的增加會導(dǎo)致需要處理的切片數(shù)量增加,所以切片的時間出現(xiàn)一定程度的增加,但是由于光柵化PST 的時間對視點數(shù)目不敏感,所以其渲染時間隨著視點變化基本趨于穩(wěn)定。同樣當(dāng)光柵化PST 減少的時間等于切片支出的時間時,達(dá)到收支平衡。所以對于不同復(fù)雜度的模型,兩種算法的交點不同,也就是收支平衡點不同。過了平衡點之后,CMVR 算法繼續(xù)開始發(fā)揮出算法優(yōu)勢。

圖10 不同模型同一分辨率條件下兩種算法的渲染時間與視點數(shù)目的關(guān)系Fig.10 The relationship between the rendering time of the two algorithms and the number of viewpoints under the condition of different models and the same resolution

3 結(jié)論

本文提出并驗證了一種基于共軛透視相關(guān)相機(jī)的光場圖像渲染方法。利用正常透視相機(jī)和共軛透視相機(jī)之間的深度映射關(guān)系省去了傳統(tǒng)光場圖生成過程中的圖像編碼流程,實現(xiàn)了深度正確的光場圖像的一步渲染。在此基礎(chǔ)上利用共軛透視相機(jī)之間的透視相關(guān)性進(jìn)一步提高了光場圖的生成效率。結(jié)合CPU 和GPU 混合編程技術(shù),利用可編程的OpenGL 圖形渲染管線實現(xiàn)了所提出的CMVR 算法。通過兩組對比實驗證明CMVR 算法對視點數(shù)目不敏感,特別適合超多視點光場圖的生成。而且這種算法能夠兼容圖形學(xué)中的紋理、光照等技術(shù)實現(xiàn)逼真的渲染效果。最后利用自行搭建的光場顯示系統(tǒng)合成了虛擬模型的3D 圖像,其具有良好立體效果。所提出的CMVR 算法在提高渲染效率的同時可以實現(xiàn)逼真場景的渲染和顯示,有望在光場顯示領(lǐng)域推廣應(yīng)用。

猜你喜歡
掃描線光場共軛
基于場景的掃描線非均勻性校正算法
一個帶重啟步的改進(jìn)PRP型譜共軛梯度法
一個改進(jìn)的WYL型三項共軛梯度法
巧用共軛妙解題
一種自適應(yīng)Dai-Liao共軛梯度法
利用新型光場顯微鏡高速記錄神經(jīng)元活動和血流動態(tài)變化
科學(xué)(2020年5期)2020-01-05 07:03:12
基于掃描線模型的機(jī)載激光點云濾波算法
壓縮混沌光場的量子統(tǒng)計性質(zhì)研究
掃描線點云數(shù)據(jù)的曲面重構(gòu)技術(shù)研究
集成光場三維顯示亮度均勻性校正方法
绥棱县| 泸水县| 滁州市| 闽侯县| 扬州市| 沧州市| 阿克苏市| 青海省| 许昌县| 昌吉市| 广宁县| 灵台县| 濮阳县| 陕西省| 苏尼特左旗| 丰县| 高唐县| 儋州市| 贵州省| 辰溪县| 汕尾市| 古丈县| 永新县| 佛冈县| 泌阳县| 湖口县| 磐石市| 双江| 当阳市| 杭州市| 定襄县| 万安县| 玉门市| 巨野县| 新晃| 大石桥市| 阿克苏市| 固镇县| 郎溪县| 柘荣县| 邵东县|