陳瑞林,鄭 宇,張曉燕(通信作者),廖加銘
(廈門大學嘉庚學院信息科學與技術學院 福建 漳州 363105)
隨著科技發(fā)展,基于序列圖像的三維重建技術是計算機視覺和計算機圖形學技術相結(jié)合產(chǎn)生的一門新技術。本文基于序列圖像進行三維重建,首先采用空間投影的點云分割方法,利用靶標世界坐標系實現(xiàn)空間投影的點云分割方法得到相關點云數(shù)據(jù)。再利用光線投射算法將深度圖像中的每個2D點反向投影到三維空間中,之后再將3D點投影到RGB圖像中創(chuàng)建點云完成深度數(shù)據(jù)融合。最后使用改進的ICP獲得被測物體的完整幾何信息,將不同視角即不同參考坐標下的兩組或者多組點云統(tǒng)一到同一坐標系下,進行點云的配準,完成三維重建。
序列圖像進行三維重建是計算機視覺技術領域的一大研究熱點。目前算法大多是依次進行初配準和精確配準來有效提高重建精度。郭清達等[1]提出了一種基于攝像機位姿估計的目標圖像特征點方法,能夠較好地獲得點云初配準值。孫殿柱等[2]提出一種結(jié)合二維序列圖像的點云初始配準法,大大提高配準重疊區(qū)域較小的點云的準確率,同時穩(wěn)健性和配準效率也明顯提高。點云精確配準是通過迭代的方法,近年來最為主要的算法就是ICP(Iterative Closest Point)算法及其相關改進[3]。李艷芳[4]提出一種基于從點到面的距離誤差測度函數(shù)結(jié)合特征的點云配準思想方法,這種方法相較于傳統(tǒng)ICP算法能夠展現(xiàn)出更高的配準精度和運行效率。李聰波等[5]提出一種對ICP算法的改進算法。該算法設定曲率和距離閾值,剔除其中的損傷點云,配準點云對應點的準確性和精確配準運行的快速性也能夠在一定程度上得到保證。
本文采用了一種基于空間投影的點云拼接算法[6],通過建立靶標坐標系與點云區(qū)域的模型獲得所對應的點云區(qū)域。再利用光線投射算法重建目標的色彩和紋理信息,然后將3D點投影到RGB圖像中創(chuàng)建點云。最后使用改進的ICP算法得到重建物體的完整幾何信息,流程如圖1所示。
圖1 本文算法流程圖
本文通過棋盤格來建立世界坐標系,確定重建目標對象在世界坐標系中的位置,將深度相機掃描生成的點云數(shù)據(jù)轉(zhuǎn)換到相機坐標系中,利用靶標世界坐標系實現(xiàn)點云分割。如圖2(a)所示,左上角的pc(xc,yc,zc)是相機坐標系中的點云,pw(xw,yw,zw)是世界坐標系中的點云。根據(jù)圖2(b)的靶標板坐標系所示,兩個坐標(對應紅色和藍色坐標系)對應位置存在一定的偏移。為了進行校正,本文使用補償?shù)姆绞?。設圖中靶標的厚度為Δz,世界坐標系的原點在待測區(qū)域X、Y軸對應的偏移量分別為Δx和Δy。圖2(c)中的Pwl(Xwl,Ywl,Zwl)就是經(jīng)過偏移補償后的點云坐標,可通過手動測量或參考目標物模型:
圖2 靶標世界坐標系
在得到旋轉(zhuǎn)投影后場景的二維圖像后,采用圖像閾值分割快速地得到目標閾值范圍,還原后得到場景分割的目標點云。世界坐標系中的點云Pwl(Xwl,Ywl,Zwl),將其變換到場景點云的俯視角時,有:
其中,p(xu,yu,zu)是通過視角轉(zhuǎn)換后的點云,對應轉(zhuǎn)換視角的旋轉(zhuǎn)矩陣,為轉(zhuǎn)換視角的平移矩陣,t3×1為攝像機外參數(shù)的位移矩陣。公式中的[xuyuzu1]是由于該矩陣是由視角轉(zhuǎn)換矩陣和平移矩陣組成,構(gòu)成的是四維空間,因此兩個坐標作為點乘運算,還需在原點云坐標P中加一個分量,即1。
通過基于空間投影的點云分割進行轉(zhuǎn)換與計算得到如圖3的序列圖像點云數(shù)據(jù)。不同的點云顏色則代表目標區(qū)域?qū)淖鴺酥怠?/p>
圖3 序列圖像對應點云分割結(jié)果圖
本文基于RGB-D通過兩個攝像頭掃描彩色RGB圖像以及深度圖像。為了使重建出來的結(jié)果既有色彩和紋理信息,又能提高重建精確度,首先通過光線投射法獲取重建對象的色彩和紋理信息,再進行彩色點云拼接[7]。主要步驟:
第一步,獲取有重疊區(qū)域的三維點云。
第二步,確定相機內(nèi)參矩陣,對三維點云進行兩次投影得到RGB圖像。
第三步,對2D圖像進行預處理,利用SIFT算法得到兩次投影的二維圖像對應點,并利用RANSAC算法剔除點云中的錯誤點。
第四步,用二維圖像對應信息返回投影之前三維點的對應信息,為后續(xù)使用ICP算法提供良好初始值。
通過上述方法得到如圖4所示既有顏色信息,又有深度信息的點云拼接結(jié)果。
圖4 本文序列圖像的深度圖像投影融合結(jié)果
傳統(tǒng)的ICP算法為使誤差函數(shù)能夠盡可能地小,按照一定的條件約束,分別在待匹配的目標點云P和源點云Q中,找到最鄰近點(pi,qi),然后計算出最優(yōu)匹配參數(shù)R和t。誤差函數(shù)為E(R,t)為:
傳統(tǒng)ICP算法雖然計算相對簡單且直觀,但容易產(chǎn)生大量錯誤點對,影響最終結(jié)果。因此本文使用改進的ICP算法求解點云拼接矩陣,算法思路是:假設有兩片點云P={pi∈R3,1≤i≤m}和Q={qi∈R3,1≤i≤n},且兩種之間存在相似重疊部分,二維像素與三維點之間存在對應的關系,所以P中特征點pi可以直接對應到qi,則m=n。式子如(6)所示:
本文具體步驟是:首先,求出P、Q質(zhì)心以及質(zhì)心平移量,得到新點集,并計算出協(xié)方差矩陣,然后對求出的協(xié)方差矩陣進行奇異值分解,不斷進行迭代,直至誤差E(R,t)小于一定閾值后結(jié)束迭代。
采用本文算法對圖5的序列圖像進行了重建,結(jié)果如圖6所示;把特征篩選和提取方面改成SURF算法進行重建,結(jié)果如圖7所示。
圖5 初始序列圖像
圖6 本文重建結(jié)果
圖7 使用SURF提取特征點的重建結(jié)果
比較本文與SURF算法這兩種不同方法重建的結(jié)果,可以明顯看出,本文結(jié)果能夠重建出完整的人體和人臉,且不受背景影響,具有豐富的色彩信息與紋理。兩種算法的運行時間和特征點數(shù)量如表1所示,也可以看出本文算法的優(yōu)勢。
表1 兩種算法運行時間和特征點數(shù)量比較
可以看出本文的方法在重建精度、紋理信息、運行速度等方面有了一定的提升。
本文通過光線投影算法以及深度圖像與RGB圖像融合、點云配準改進的ICP算法,提高了序列圖像三維重建的精度。通過對實驗的結(jié)果對比分析,本文方法能夠在一定程度上提高三維重建準確度和完整度。