簡(jiǎn)洪登,范湘濤
(1.中國(guó)科學(xué)院 遙感與數(shù)字地球研究所 數(shù)字地球重點(diǎn)實(shí)驗(yàn)室,北京100094;2.中國(guó)科學(xué)院大學(xué),北京100049)
實(shí)時(shí)視頻與三維場(chǎng)景融合技術(shù)在大范圍增強(qiáng)虛擬環(huán)境(augmented virtual environment,AVE)[1-3]的構(gòu)建、真實(shí)感環(huán)境模擬以及三維視頻監(jiān)控等方面發(fā)揮著重要作用。通過(guò)軟件解碼的方式將傳感器網(wǎng)絡(luò)獲取的實(shí)時(shí)視頻流讀入到三維仿真系統(tǒng)中,然后運(yùn)用投影紋理映射技術(shù) (projective texture mapping)[4]將其作為紋理投影到三維模型上,從而構(gòu)建一個(gè)真實(shí)感強(qiáng)的三維虛擬場(chǎng)景。然而,直接使用投影紋理映射技術(shù)將視頻映射到三維模型上會(huì)出現(xiàn)反向投影、紋理拉伸等現(xiàn)象,嚴(yán)重影響增強(qiáng)虛擬環(huán)境的真實(shí)感和可視化效果。Cass Everitt[5]在闡述投影紋理映射技術(shù)時(shí)討論了反向投影現(xiàn)象的產(chǎn)生并簡(jiǎn)單分析了原因。Ulrich Neumann和Ismail Oner Sebe等[1,6]在運(yùn)用增強(qiáng)虛擬環(huán)境進(jìn)行三維視頻監(jiān)控的過(guò)程中發(fā)現(xiàn),以攝像機(jī)視角觀察場(chǎng)景能獲得很好的效果,但以其它視角觀察場(chǎng)景會(huì)出現(xiàn)明顯的紋理拉伸現(xiàn)象。另外,為了獲取大范圍的實(shí)時(shí)場(chǎng)景,需要將多路實(shí)時(shí)視頻同時(shí)映射到三維模型上,但由于不同攝像機(jī)獲取的視頻清晰度、色彩明暗程度不一,當(dāng)視頻流之間存在重疊區(qū)域時(shí),紋理映射之后會(huì)出現(xiàn)明顯的拼縫現(xiàn)象[7,8],需要對(duì)投影后的視頻紋理進(jìn)行進(jìn)一步的融合處理。
OpenGL著色語(yǔ)言 (OpenGL shading language,GLSL)是一種用于OpenGL 的高級(jí)過(guò)程著色語(yǔ)言[9],它采用類似C語(yǔ)言的詞法和語(yǔ)法結(jié)構(gòu),數(shù)據(jù)類型豐富,大量?jī)?nèi)置的函數(shù)組提供了實(shí)現(xiàn)著色算法所需要的許多功能[10],能夠在OpenGL的渲染管線中對(duì)頂點(diǎn)和片元進(jìn)行自定義處理以達(dá)到滿意的效果。本文首先介紹投影紋理映射的基本原理,并針對(duì)反向投影、紋理拉伸等現(xiàn)象,運(yùn)用GLSL 進(jìn)行相應(yīng)的算法改進(jìn),然后在片元著色器中增加了自定義的圖像融合算法對(duì)視頻重疊區(qū)域進(jìn)行處理,從而構(gòu)建大范圍的、色彩均衡的增強(qiáng)虛擬環(huán)境。
三維場(chǎng)景中模型的紋理生成方式通常有兩種:一是通過(guò)軟件或程序直接為模型的頂點(diǎn)指定相應(yīng)紋理坐標(biāo),從而使紋理映射到模型表面;二是通過(guò)視點(diǎn)矩陣、投影矩陣等參數(shù)的設(shè)置來(lái)自動(dòng)生成紋理坐標(biāo)。投影紋理映射是自動(dòng)生成紋理坐標(biāo)的一種方式,最早由Segal等于1992年提出[4],用于將紋理映射到物體上,就像使用投影儀將幻燈片投影到墻上一樣[5]。這種紋理映射的方式不需要指定紋理坐標(biāo),只需通過(guò)視點(diǎn)矩陣和投影矩陣等參數(shù)的設(shè)置來(lái)實(shí)現(xiàn)紋理坐標(biāo)和頂點(diǎn)坐標(biāo)的實(shí)時(shí)對(duì)應(yīng)。
在計(jì)算投影紋理映射坐標(biāo)時(shí),首先將頂點(diǎn)從模型坐標(biāo)系轉(zhuǎn)換到場(chǎng)景的相機(jī)坐標(biāo)系中,然后轉(zhuǎn)換到世界坐標(biāo)系,之后將世界坐標(biāo)系坐標(biāo)轉(zhuǎn)換到以投影點(diǎn)為中心的投影坐標(biāo)系,再轉(zhuǎn)換到投影裁剪坐標(biāo)系,最后將獲得的投影頂點(diǎn)坐標(biāo)歸一化到 [0,1]空間中,得到投影紋理坐標(biāo)[11],流程如圖1所示。
圖1 計(jì)算投影紋理映射坐標(biāo)流程
用公式表示投影紋理映射坐標(biāo)計(jì)算過(guò)程,即為
式中(vx,vy,vz,vw)T表示頂點(diǎn)在物體坐標(biāo)系下的坐標(biāo),(s,t,r,q)T表示紋理坐標(biāo),Vw表示頂點(diǎn)在世界坐標(biāo)系下的坐標(biāo),它是將頂點(diǎn)從相機(jī)坐標(biāo)系向投影坐標(biāo)系轉(zhuǎn)換的紐帶,Mmv表示場(chǎng)景相機(jī)的模型視圖變換矩陣,Minv表示相機(jī)視圖矩陣的逆矩陣,Mpv表示投影視圖變換矩陣,Pp表示投影變換矩陣,N 表示歸一化矩陣,其值為
在GLSL的頂點(diǎn)著色器中,頂點(diǎn)的物體坐標(biāo)(vx,vy,vz,vw)T和相機(jī)的模型視圖矩陣Mmv可分別由gl_Vertex和gl_M(jìn)odelViewMatrix 表示[12],Minv、Mpv、Pp等參數(shù)需要程序以 “一致性變量”的形式傳入著色器。頂點(diǎn)著色器計(jì)算完紋理坐標(biāo)后,通過(guò)內(nèi)置的易變變量gl_TexCoord[i](i表示紋理通道編號(hào))傳入片元著色器進(jìn)行紋理查詢和顏色計(jì)算。
圖2 反向投影處理流程
圖3 反向投影錯(cuò)誤及修正
傳感器網(wǎng)絡(luò)中的攝像機(jī)獲取的視頻流是一幅幅連續(xù)的二維圖像,沒(méi)有深度信息,并且在攝像機(jī)視域內(nèi),較遠(yuǎn)的物體會(huì)被較近的物體遮擋,即只有具有較小深度值的物體的紋理才能反映在視頻圖像上。然而在使用投影紋理映射技術(shù)進(jìn)行視頻紋理的投影時(shí),由于在進(jìn)行紋理查詢過(guò)程中沒(méi)有考慮場(chǎng)景深度的影響,所有處于虛擬投影機(jī)視域內(nèi)的模型都會(huì)被投影上相應(yīng)的紋理,深度值較大的物體不應(yīng)該有視頻紋理,卻會(huì)被投影上錯(cuò)誤的紋理。因此在對(duì)視頻進(jìn)行投影映射之前,需要確定哪些三維模型的表面應(yīng)該有紋理,哪些三維模型的表面應(yīng)該被忽略[13,14]。由于涉及到場(chǎng)景深度的問(wèn)題,我們可以在GLSL 中進(jìn)行深度測(cè)試,過(guò)濾掉不符合條件的紋理映射,具體步驟如下:
(1)獲取深度圖。深度圖保存了場(chǎng)景中各點(diǎn)相對(duì)于攝像機(jī)的距離,如果場(chǎng)景中某個(gè)點(diǎn)被較近的點(diǎn)所遮擋,那么深度圖中只保存較近點(diǎn)的深度值。要獲取場(chǎng)景的深度圖,首先在投影機(jī)的位置上設(shè)置一臺(tái)虛擬的相機(jī) (即深度相機(jī)),深度相機(jī)的各個(gè)參數(shù) (坐標(biāo)、方向、近裁面和遠(yuǎn)裁面的距離、視場(chǎng)角、圖像長(zhǎng)寬比等)與投影紋理映射中的虛擬投影機(jī)的參數(shù)相同,然后以相機(jī)為中心渲染整個(gè)場(chǎng)景,獲取場(chǎng)景的深度信息,并將其與一個(gè)二維紋理對(duì)象相關(guān)聯(lián)。
(2)將深度圖傳入片元著色器。將二維紋理作為sampler2D 類型的一致性變量傳入片元著色器,以備深度測(cè)試使用。如果現(xiàn)實(shí)中攝像機(jī)的位置和方向不發(fā)生變化,獲取的視頻圖像的背景也相對(duì)不變,深度圖也不需要更新。如果攝像機(jī)視域內(nèi)的場(chǎng)景發(fā)生了變化,則使用深度相機(jī)重新獲取并更新深度圖。
(3)深度測(cè)試。在片元著色器中進(jìn)行視頻紋理查詢前,判斷當(dāng)前紋理坐標(biāo)對(duì)應(yīng)的實(shí)際深度值 (curDepth)是否大于深度圖上對(duì)應(yīng)的像素值 (depth),如果大于則跳過(guò)此次視頻紋理的查詢階段。當(dāng)前紋理坐標(biāo)對(duì)應(yīng)的實(shí)際深度值可由式 (4)進(jìn)行計(jì)算
在實(shí)際計(jì)算中,考慮到計(jì)算機(jī)保存深度圖時(shí)的舍入誤差和計(jì)算誤差,我們可以設(shè)定一個(gè)較小的閾值Δd,將curDepth >depth+Δd作為紋理查詢的過(guò)濾條件,以保證應(yīng)該有視頻紋理的模型表面都被投影上視頻紋理。運(yùn)用GLSL進(jìn)行投影紋理映射的深度測(cè)試的過(guò)程如圖4所示。對(duì)投影紋理進(jìn)行深度測(cè)試前后的對(duì)比效果將在實(shí)驗(yàn)結(jié)果中加以詳述。
圖4 深度測(cè)試流程
為了能夠在虛擬三維場(chǎng)景中瀏覽大范圍的現(xiàn)實(shí)場(chǎng)景,需要將多路實(shí)時(shí)視頻同時(shí)投影在三維模型上。在進(jìn)行多路視頻紋理映射時(shí),首先為每路視頻賦一個(gè)紋理通道,然后按照紋理通道的編號(hào)從小到大依次進(jìn)行紋理渲染。如果相鄰的兩路視頻存在重疊區(qū)域且投影后沒(méi)做任何融合處理,那么通道較大的視頻紋理會(huì)直接將重疊部分的視頻紋理覆蓋掉,從而產(chǎn)生明顯的拼縫,因此在進(jìn)行視頻紋理映射的同時(shí),還要對(duì)視頻紋理之間的重疊區(qū)域進(jìn)行融合,使大范圍的視頻紋理相協(xié)調(diào)、紋理間過(guò)渡更加平滑。
在通常的圖像處理中,我們?cè)谌魏螘r(shí)候都可以輕易地獲取某個(gè)坐標(biāo)對(duì)應(yīng)的像素值、重疊區(qū)域的坐標(biāo)范圍,而運(yùn)用GLSL對(duì)紋理進(jìn)行融合有很多不同之處:首先,GLSL在每幀的渲染中實(shí)時(shí)計(jì)算每個(gè)頂點(diǎn)的紋理坐標(biāo)并進(jìn)行顏色計(jì)算,如果在計(jì)算當(dāng)前頂點(diǎn)對(duì)應(yīng)的紋理坐標(biāo)的顏色時(shí)需要用到其它點(diǎn)的顏色值作為參考,則必須根據(jù)當(dāng)前的紋理坐標(biāo)進(jìn)行推算,無(wú)法直接得到;其次,每張紋理的有效坐標(biāo)都是 [0,1],由于不同紋理圖像的大小、方向等可能各不相同,對(duì)應(yīng)到模型表面的大小、坐標(biāo)朝向、坐標(biāo)分量增長(zhǎng)方向也不盡相同,紋理坐標(biāo)系的差異給紋理坐標(biāo)的定位和顏色的融合帶來(lái)了很多困難。此外,不同紋理的上下左右位置關(guān)系也會(huì)對(duì)融合算法造成影響,在算法設(shè)計(jì)時(shí)需要進(jìn)行分類討論。在多重視頻紋理的融合中,各個(gè)攝像機(jī)的視域大小相近、視頻圖像的大小相同,對(duì)應(yīng)到模型表面的紋理大小也近似相同,因此在融合過(guò)程中需要著重考慮紋理坐標(biāo)系方向和紋理位置關(guān)系對(duì)紋理融合造成的影響。
由于GLSL在每幀的渲染中都需要實(shí)時(shí)計(jì)算每個(gè)頂點(diǎn)的紋理坐標(biāo)、計(jì)算并融合多個(gè)紋理通道的片元顏色,因此紋理融合的算法應(yīng)該盡量簡(jiǎn)單高效。針對(duì)紋理的位置關(guān)系和算法要求,本文提出了兩種基于GLSL 的紋理融合算法:橫向加權(quán)融合算法和對(duì)角加權(quán)融合算法。
橫向加權(quán)融合指的是在GLSL片元著色器中沿紋理的s坐標(biāo)方向?qū)y理重疊區(qū)域進(jìn)行加權(quán)融合,核心思想與數(shù)字圖像處理中的漸入漸出融合[15]類似,其步驟為:①根據(jù)當(dāng)前頂點(diǎn)對(duì)應(yīng)的不同通道的紋理坐標(biāo)推算紋理重疊區(qū)域的橫向最大距離Smax;②根據(jù)當(dāng)前通道的紋理坐標(biāo)和Smax計(jì)算當(dāng)前通道的紋理值的權(quán)重α;③計(jì)算將當(dāng)前通道的紋理進(jìn)行融合后的片元顏色值,然后將其傳入下一個(gè)紋理通道。假設(shè)當(dāng)前通道為2,紋理坐標(biāo)為(s2,t2),對(duì)應(yīng)的紋理值為color2,上一個(gè)紋理通道 (通道1)的紋理坐標(biāo)為(s1,t1),經(jīng)通道1融合后的片元顏色值為color1,經(jīng)過(guò)通道2 融合后的片元顏色值為color,則有
橫向加權(quán)融合算法計(jì)算簡(jiǎn)單,對(duì)t坐標(biāo)相同或色彩相差不大的紋理具有很好的融合效果 (如圖5 (a)所示,測(cè)試圖片為兩幅顏色和紋理特征均有較大差異的草地圖片),但對(duì)于t坐標(biāo)有較大差異的紋理,在縱向的拼接處會(huì)有明顯的拼縫 (如圖5 (b)所示)。
對(duì)角加權(quán)融合指的是在紋理重疊區(qū)域沿對(duì)角方向進(jìn)行加權(quán)融合,如圖6所示,紋理通道2在上,其權(quán)值沿向量的方向逐漸增加,通道1的權(quán)值逐漸減小。對(duì)角加權(quán)融合算法的步驟為:①根據(jù)當(dāng)前頂點(diǎn)對(duì)應(yīng)的不同通道的紋理坐標(biāo)推算紋理重疊區(qū)域的橫向最大距離Smax和縱向最大距離Tmax;②建立局部坐標(biāo)系,根據(jù)直線BD 的斜率得到當(dāng)前紋理坐標(biāo)所在的直線方程;③計(jì)算當(dāng)前通道的權(quán)重α;④計(jì)算將當(dāng)前通道的紋理進(jìn)行融合后的片元顏色值,然后將其傳入下一個(gè)紋理通道。
圖5 橫向加權(quán)平均算法融合效果及不足
圖6 對(duì)角加權(quán)算法原理
將F 的坐標(biāo)帶入直線EF 方程可求得m,然后求得當(dāng)前通道的權(quán)值為
根據(jù)式 (7)計(jì)算經(jīng)過(guò)當(dāng)前通道的紋理融合后的片元顏色值,然后將其傳入下一個(gè)紋理通道繼續(xù)進(jìn)行融合。根據(jù)紋理之間的位置關(guān)系,式 (10)列舉了不同情況下的權(quán)值,可將其直接應(yīng)用于片元著色器中,省略中間的推理步驟,提高片元著色器的效率
為了驗(yàn)證投影紋理映射方法的改進(jìn)效果和多重視頻紋理融合效果,本文使用建筑結(jié)構(gòu)較為復(fù)雜的室內(nèi)場(chǎng)景作為試驗(yàn)場(chǎng)地,程序測(cè)試所用的計(jì)算機(jī)為普通配置的計(jì)算機(jī)(處理器:Inter Core2 Quad Q8400;內(nèi)存:4 GB;顯卡:NVIDIA GT240,顯存:1GB)。使用本文所論述的反向投影處理算法、深度測(cè)試算法和紋理融合算法對(duì)多重投影紋理進(jìn)行處理的前后結(jié)果如圖7至圖9所示 (對(duì)反向投影錯(cuò)誤的處理只需在GLSL 中加入簡(jiǎn)單的判斷即可,這此處不再予以顯示)。圖7表示的是直接使用投影紋理映射算法的結(jié)果,其中A 指的是原本透明的玻璃變得不透明;B 指的是兩幅視頻紋理的連接處,由于兩幅紋理存在一定的色彩差異,未經(jīng)處理的視頻連接處有很明顯的拼縫;C 指的是錯(cuò)誤的投影紋理,因?yàn)樵跀z像機(jī)視域中這幾處模型的位置靠后,深度值較大,它們會(huì)被前面的模型遮擋住,攝像機(jī)只會(huì)獲取到前面模型的紋理。實(shí)驗(yàn)過(guò)程中進(jìn)行了視頻紋理的反向投影剔除和深度測(cè)試,并采用對(duì)角加權(quán)算法對(duì)多重視頻紋理進(jìn)行融合。圖8是經(jīng)算法處理后的結(jié)果,玻璃變得透明,視頻紋理的連接處變得很平滑,錯(cuò)誤的投影紋理被深度測(cè)試算法剔除掉,顯示的是模型本身的紋理。圖9表示的是使用3路實(shí)時(shí)視頻與三維模型融合后的場(chǎng)景,視頻重疊區(qū)域色彩過(guò)渡比較平滑,整體融合效果較好。
圖7 直接使用投影紋理映射算法的結(jié)果
圖8 經(jīng)算法處理后的結(jié)果
圖9 三路視頻與模型融合后的場(chǎng)景
為了測(cè)試使用GLSL 進(jìn)行多重視頻紋理融合對(duì)渲染效率的影響,本文對(duì)比了不同場(chǎng)景下、不同數(shù)量的靜止圖片(JPG 格式)和實(shí)時(shí)視頻的渲染結(jié)果 (見(jiàn)表1),用于測(cè)試的模型三角面數(shù)分別為34萬(wàn)、102萬(wàn)和204萬(wàn),顯卡內(nèi)存為1GB。
表1 不同紋理類型渲染效率/fps
從渲染結(jié)果中可以看出,在場(chǎng)景三角面數(shù)相同的情況下,使用實(shí)時(shí)視頻作為投影紋理與使用靜止圖片的渲染效率相差不多;隨著投影紋理數(shù)目的增加,場(chǎng)景的幀率會(huì)稍有下降;隨著場(chǎng)景三角面數(shù)的增多,場(chǎng)景幀率有所下降,且使用實(shí)時(shí)視頻作為投影紋理的幀率比使用靜止圖片的幀率下降稍快,但場(chǎng)景依然能保持較高的幀率 (大于40fps)。
實(shí)驗(yàn)結(jié)果分析如下:使用實(shí)時(shí)視頻作為投影紋理時(shí),程序使用多線程的方式對(duì)碼流進(jìn)行解碼,完成一幀的解碼工作后,將解碼后的圖像作為紋理投影到三維模型上,這個(gè)過(guò)程比直接使用靜止圖像作為投影紋理的過(guò)程多了解碼和紋理替換的步驟,所以幀率會(huì)偏低;隨著場(chǎng)景三角面數(shù)的增加,對(duì)系統(tǒng)資源的需求也增加,場(chǎng)景幀率的差異也將變大 (由不足一幀變化到3-5幀)。另外,將自定義的算法加入到GLSL的片元著色其中對(duì)場(chǎng)景進(jìn)行渲染也會(huì)增加系統(tǒng)負(fù)擔(dān)。總體來(lái)講,將GLSL 應(yīng)用于多重視頻紋理與三維模型的融合能達(dá)到很好的效果,并且不會(huì)影響三維場(chǎng)景的實(shí)時(shí)流暢顯示。
本文針對(duì)構(gòu)建增強(qiáng)虛擬環(huán)境的需求和投影紋理映射算法的不足,實(shí)現(xiàn)了基于GLSL 的反向投影的修正算法和深度測(cè)試算法,提出并實(shí)現(xiàn)了基于GLSL 的多重紋理橫向加權(quán)融合算法和對(duì)角加權(quán)融合算法。實(shí)驗(yàn)結(jié)果表明,使用本文所論述的多重視頻紋理的投影和融合算法能達(dá)到很好的實(shí)時(shí)視頻與三維場(chǎng)景融合效果,各路視頻投影正確,視頻重疊區(qū)域色彩過(guò)渡比較平滑,同時(shí)能夠在顯存為1GB的計(jì)算機(jī)上使包含200萬(wàn)三角面和6路實(shí)時(shí)視頻的三維場(chǎng)景的運(yùn)行幀率保持在40fps以上,不會(huì)影響三維場(chǎng)景的實(shí)時(shí)流暢顯示,適用于基于實(shí)時(shí)視頻的增強(qiáng)虛擬環(huán)境構(gòu)建。然而,視頻與三維場(chǎng)景的融合對(duì)虛擬場(chǎng)景的真實(shí)度要求較高,當(dāng)虛擬場(chǎng)景與現(xiàn)實(shí)場(chǎng)景差別較大,或現(xiàn)實(shí)場(chǎng)景發(fā)生變化特別是出現(xiàn)運(yùn)動(dòng)前景時(shí),虛擬場(chǎng)景的模型無(wú)法實(shí)時(shí)更新,會(huì)出現(xiàn)紋理投影錯(cuò)誤、運(yùn)動(dòng)前景扭曲并投影到背景模型上等現(xiàn)象,需要將運(yùn)動(dòng)前景從視頻中分割出來(lái),并制作成三維模型插入到場(chǎng)景中的正確位置上,這些問(wèn)題的高效解決還有待進(jìn)一步研究。
[1]Ulrich Neumann,You Suya,Hu Jinhui,et al.Augmented virtual environments:Dynamic fusion of imagery and 3D models[C]//Proceedings Virtual Reality.IEEE,2003,61-67.
[2]Ulrich Neumann,You Suya.Modeling and video projection for augmented virtual environments [P].US:US00583275B2,2009-09-01.
[3]LIU Qifang,ZHAO Gang,HE Bin.Moving target retrieval method based on track constraint for AVE surveillance system[J].Computer Engineering and Design,2012,33 (9):3475-3480 (in Chinese).[劉啟芳,趙剛,何彬.AVE 監(jiān)控系統(tǒng)中基于軌跡約束的目標(biāo)檢索方法 [J].計(jì)算機(jī)工程與設(shè)計(jì),2012,33 (9):3475-3480.]
[4]Mark Segal,Carl Korobkin,Rolf van Widenfelt,et al.Fast shadows and lighting effects using texture mapping [C]//SIGGRAPH Proceedings of the 19th Annual Conference on Computer Graphics and Interactive Techniques,1992:249-252.
[5]Cass Everitt.Projective texture mapping [EB/OL].https://developer.nvidia.com/sites/default/files/akamai/gamedev/docs/projective_texture_mapping.pdf,2001/2013.
[6]Ismail Oner Sebe,Hu Jinhui,You,et al.3Dvideo surveillance with augmented virtual environments [C]//First ACM SIGMM International Workshop on Video Surveillance,2003:107-112.
[7]Jeferson R Silva,Thiago T Santos,Carlos H Morimoto.Automatic camera control in virtual environments augmented using multiple sparse videos[J].Computers &Graphics,2011,35(2):412-421.
[8]MA Yuanye,ZHAO Gang,HE Bin.Design and implementation of a fused system with 3DGIS and multiple-videos [J].Computer Applications and Software,2012,29 (6):109-112(in Chinese).[馬原野,趙剛,何彬.3DGIS與多視頻融合系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn) [J].計(jì)算機(jī)應(yīng)用與軟件,2012,29 (6):109-112.]
[9]Randi J Rost,Bill M Licea-Kane,Dan Ginsburg,et al.Open-GL shading language [M].3rd ed.Boston:Addison Wesley Professional,2009.
[10]CHEN Jixuan,WANG Yigang.GLSL shader edting environment based on OSG [J].Computer Systems & Applications,2011,20 (3):153-156 (in Chinese).[陳繼選,王毅剛.基于OSG 的GLSL 著色器編譯環(huán)境 [J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2011,20 (3):153-156.]
[11]QIU Feiyue,ZHAO Bole,ZHANG Weize,et al.Research of spherical inclined projection correction method based on projective texture mapping and its application [J].Chinese Journal of Biomedical Engineering,2012,31 (5):697-703 (in Chinese).[邱飛岳,趙柏樂(lè),張維澤,等.基于投影紋理映射的球面斜投影校正方法研究及其應(yīng)用 [J].中國(guó)生物醫(yī)學(xué)工程學(xué)報(bào),2012,31 (5):697-703.]
[12]Dave Shreiner,The Khronos OpenGL ARB Working Group.OpenGL programming guide [M].7th ed.LI Jun,XU Bo,transl.Beijing:China Machine Press,2011 (in Chinese).[Dave Shreiner,The Khronos OpenGL ARB Working Group.OpenGL編程指南 [M].7 版.李軍,徐波,譯.北京:機(jī)械工業(yè)出版社,2011.]
[13]Milosavljevi c'A,Dimitrijevi c'A,Ran cˇi c'D.GIS-augmented video surveillance [J].International Journal of Geographical Information Science,2010,24 (9):1415-1433.
[14]ZHAO Kai,QUAN Chunlai,AI Fei,et al.Rending of live video on 3D model[J].Computer Engineering and Design,2009,30 (22):5221-5224 (in Chinese). [趙凱,全春來(lái),艾飛,等.視頻圖像在三維模型中的渲染 [J].計(jì)算機(jī)工程與設(shè)計(jì),2009,30 (22):5221-5224.]
[15]RUAN Qin.Research on video image stitching technique in real-time system [D].Wuhan:Huazhong University of Science and Technology,2011 (in Chinese).[阮芹.實(shí)時(shí)視頻拼接系統(tǒng)關(guān)鍵技術(shù)研究 [D].武漢:華中科技大學(xué),2011.]