趙陽(yáng) 謝馳港
摘要:設(shè)計(jì)開(kāi)發(fā)了一套基于雙目視覺(jué)的三維全景圖像生成系統(tǒng)。首先對(duì)利用雙目視覺(jué)平臺(tái)獲取的一對(duì)圖像進(jìn)行三維重獲取了點(diǎn)云數(shù)據(jù)。然后將雙目視覺(jué)平臺(tái)旋轉(zhuǎn)過(guò)一定角度,采集第二對(duì)圖像再次生成點(diǎn)云數(shù)據(jù),針對(duì)相鄰兩個(gè)時(shí)刻獲取到的點(diǎn)云數(shù)據(jù)進(jìn)行拼接,最后生成了具有較寬視角的三維全景圖像。實(shí)驗(yàn)結(jié)果表明基于雙目視覺(jué)生成三圍全景圖像僅僅利用兩臺(tái)工業(yè)相機(jī)便可生成具有較寬視角的三維全景圖像,具有很好的性價(jià)比。
關(guān)鍵詞:雙目視覺(jué) 三維重建 點(diǎn)云預(yù)處理 點(diǎn)云匹配 點(diǎn)云拼接
中圖分類(lèi)號(hào):TP18 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1007-9416(2016)07-0074-01
1 引言
在我們的日常生活,學(xué)習(xí)和工作中,我們通常會(huì)需要拍攝具有較寬視角的三維全景圖像,當(dāng)我們使用普通相機(jī)來(lái)拍攝這些視野較寬的全景圖像時(shí)會(huì)遇到不能拍攝完整場(chǎng)景的情況,更不可能得到三維全景圖像[1]。本文研究了一種基于雙目視覺(jué)的三維全景圖像生成技術(shù)。
2 獲取點(diǎn)云數(shù)據(jù)
為了獲取點(diǎn)云數(shù)據(jù)在進(jìn)行圖像采集之前需要進(jìn)行相機(jī)標(biāo)定,進(jìn)行相機(jī)標(biāo)定后在t1時(shí)刻采集具有部分重疊區(qū)域的圖像left1與right1,再對(duì)雙目視覺(jué)平臺(tái)進(jìn)行旋轉(zhuǎn)一定的角度,在t2時(shí)刻采集具有部分重疊區(qū)域的圖像left2與right2,然后對(duì)采集得到的每對(duì)圖像分別進(jìn)行稀疏匹配,圖像校正,稠密匹配,三維重建生成點(diǎn)云文件cloud1,cloud2。在相機(jī)標(biāo)定模塊本文采用傳統(tǒng)的相機(jī)標(biāo)定法來(lái)實(shí)現(xiàn)相機(jī)標(biāo)定,稀疏匹配采用Harris來(lái)找出特征點(diǎn),RANSAC進(jìn)行匹配。在對(duì)圖像進(jìn)行校正時(shí)采用的是Hartley方法,在進(jìn)行稠密匹配時(shí)采用的是基于圖像的最小切割立體匹配算法,三維重建采用的是最小二乘的歐氏空間三維重建方法,并用Open GL對(duì)生成的點(diǎn)云文件進(jìn)行了顯示。
3 點(diǎn)云拼接
具體拼接過(guò)程如下:
設(shè)雙目視覺(jué)獲取點(diǎn)云文件1中的所有點(diǎn)云所在的坐標(biāo)系是O1X1Y1Z1,點(diǎn)云文件2中所有點(diǎn)云所在坐標(biāo)系為O2X2Y2Z2。將坐標(biāo)系O1X1Y1Z1中所有點(diǎn)云與坐標(biāo)系O2X2Y2Z2中所有點(diǎn)云進(jìn)行拼接,其實(shí)就是通過(guò)重疊區(qū)域的點(diǎn)云的坐標(biāo)變換來(lái)將坐標(biāo)系O2X2Y2Z2中所有點(diǎn)云變換到坐標(biāo)系O1X1Y1Z1中。如公式(1)。在
公式(1)中R是比例和旋轉(zhuǎn)因子,T為平移變換因子,如果求出了最佳的旋轉(zhuǎn)矩陣R和平移矩陣T就可以把坐標(biāo)系O2X2Y2Z2中所有點(diǎn)集轉(zhuǎn)換到坐標(biāo)系O1X1Y1Z1中就可以實(shí)現(xiàn)相鄰點(diǎn)云文件的拼接[2]。
(1)
4 結(jié)語(yǔ)
拼接生成具有較寬視角的三維全景圖像如圖1所示。通過(guò)圖1可以看出本文研究的基于雙目視覺(jué)平臺(tái)來(lái)獲得三維全景圖像的方案可以生獲得具有較寬視角的三維全景圖像。
參考文獻(xiàn)
[1]耿曉玲.大視場(chǎng)視頻全景圖拼接方法研究[D].[碩士學(xué)位論文].青島:中國(guó)海洋大學(xué),2009.
[2]Besl P M,Kay N. A method for Registration of 3-D Shapes[J].IEEE Transactions on Pattern Analysis and Machine Intelligence (PAMI),1992,14(2):239-256.