黃身勇 蔣國平
摘 要:三維重構(gòu)是計算機視覺方法。本文采用數(shù)字圖像方法對深基坑進行了三維重構(gòu)研究,分析了三維重構(gòu)中SIFT和RANSAC等算法的參數(shù)對計算性能的影響,通過選取合適的參數(shù),使得RANSAC算法能夠在滿足精度要求的前提下速度更快。同時,將計算得到的參數(shù)應(yīng)用于實際深基坑三維重構(gòu),既滿足了工程精度,又達到了計算速度的要求。
關(guān)鍵詞:深基坑;三維重構(gòu);計算機視覺
中圖分類號:TU753文獻標識碼:A文章編號:1003-5168(2021)16-0010-05
Abstract: 3D reconstruction is a computer vision method. In this paper, the digital image method was used to study the three-dimensional reconstruction of deep foundation pit, and the influence of the parameters of sift and RANSAC algorithms on the calculation performance was analyzed. By selecting appropriate parameters, the RANSAC algorithm can be faster on the premise of meeting the accuracy requirements. At the same time, the calculated parameters are applied to the actual three-dimensional reconstruction of deep foundation pit, which not only meets the engineering accuracy, but also meets the requirements of calculation speed.
Keywords: deep foundation pit;3D reconstruction;computer vision
隨著計算機硬件的快速發(fā)展,三維物體重構(gòu)技術(shù)也得到了廣泛應(yīng)用。三維重構(gòu)算法比較多,Newcombe等人在2011年提出的KinectFusion,可以在不需要RGB圖像而只用深度圖像的情況下建立三維模型[1]。Zhou等人通過對圖像序列進行劃分,實現(xiàn)了計算每一個小塊之間的位姿變換,然后再融合的算法[2-4]。Whelan等人通過Kintinuous和ElasticFusion算法實現(xiàn)了消費級RGB-D相機三維高質(zhì)量重構(gòu)[5-8]。2017年,斯坦福大學(xué)提出的BundleFusion算法[9],基于RGB-D進行稠密三維重建。三維重構(gòu)技術(shù)在計算機視覺領(lǐng)域得到了快速發(fā)展,其是深基坑施工過程中變形監(jiān)測一個重要的手段。但是,三維重構(gòu)技術(shù)涉及大量的算法和參數(shù)設(shè)置,在工程實時性要求較高的情況下,需要選擇合適的參數(shù),以便達到實時三維重構(gòu)的要求。
1 工程概況
本研究就某大型工程中的深基坑進行三維重構(gòu),為后續(xù)的實時檢測和監(jiān)測提供完善的數(shù)字化模型。工程現(xiàn)場場景非常大,采用數(shù)字化建模可以節(jié)省大量的時間和人力。由于工程基本是屬于靜態(tài)的,因此,本文使用的相機的工作頻率是2 Hz,圖像分辨率為1 280×1 024。對工程現(xiàn)場進行圖像采集,采集要求是:相機與相機之間至少有60%的重疊度,同時要改變相機與被拍攝對象的距離來增加圖像數(shù)量,以實現(xiàn)同一個位置具有充分的數(shù)據(jù),能夠更加精準地重構(gòu)三維數(shù)據(jù)模型。圖1是拍攝的部分圖像。
2 三維重構(gòu)理論
2.1 相機成像模型與坐標系
相機采用中心成像模型,具體的模型會涉及三種坐標系:世界坐標系、相機坐標系和圖像坐標系[10]。相機坐標系、世界坐標系與圖像坐標系之間的關(guān)系見圖2。相機在不同的位置進行拍攝,就會產(chǎn)生不同的坐標系。當相機兩次拍攝了同一個點時,可以建立如下方程:
2.2 特征提取
本文采用尺度不變特征變換(Scale-Invariant Feature Transform,SIFT)進行特征提取[11]。SIFT特征是基于物體的一些局部特征點,與影像大小和旋轉(zhuǎn)無關(guān),對光線、噪聲、微視角改變的容忍度也相當高,魯棒性強,適合用來提取尺度變換和旋轉(zhuǎn)角度變換的各種圖像特征點,準確性高。本文所采用的圖像的分辨率為1 280×1 024,如果特征點計算太多,在后續(xù)的特征點匹配過程中丟棄的特征點也會增多,同時計算量會成倍增加。為了均衡性能與精度,這里每幅圖像提取100到1 000個特征點,則所得到的SIFT的特征點如圖2所示。從每幅圖的特征點密度來看,能很好地滿足工程需要。
2.3 特征匹配
采用一致性RANSAC(RANdom SAmple Consensus)八點算法進行特征點匹配。該方法是由Fischler和Bolles在1981年所引入的魯棒性方法[12]。RANSAC算法的輸入是一組觀測數(shù)據(jù),一個可以解釋或者適應(yīng)于觀測數(shù)據(jù)的參數(shù)化模型,一些可信的參數(shù)。RANSAC通過反復(fù)選擇數(shù)據(jù)中的一組隨機子集來達成目標。將被選取的子集假設(shè)為局內(nèi)點,并用下述方法進行驗證:①有一個模型適應(yīng)于數(shù)據(jù)子集,即所有的未知參數(shù)都能從假設(shè)的子集數(shù)據(jù)計算得出;②用①中得到的模型去測試其他數(shù)據(jù),如果某個點適用于估計的模型,認為它也是該子集內(nèi)的數(shù)據(jù)點;③如果有足夠多的點被歸類為假設(shè)的數(shù)據(jù)子集,那么估計的模型就足夠合理;④用所有假設(shè)的數(shù)據(jù)子集去重新估計模型(如使用最小二乘法),因為它僅僅被初始的假設(shè)數(shù)據(jù)子集估計過;⑤通過估計數(shù)據(jù)子集內(nèi)的點與模型的錯誤率來評估模型;⑥上述過程被重復(fù)執(zhí)行固定的次數(shù),每次產(chǎn)生的模型要么因為數(shù)據(jù)子集點太少而被舍棄,要么因為比現(xiàn)有的模型更好而被選用。
根據(jù)式(1)和式(2)進行推導(dǎo)得到:
式中:[F]是基礎(chǔ)矩陣。
將其寫為式(5)的形式。
方程(5)共有8個未知數(shù),因此只需要兩張圖像8個對應(yīng)特征點來計算基礎(chǔ)矩陣[F]。
實驗中圖像分辨率采用1 280×1 024,通過RANSAC八點算法得到特征點匹配結(jié)果。圖4(a)列出了圖像1和2的特征點匹配關(guān)系,圖4(b)列出了圖像2和3的特征點匹配關(guān)系。從兩幅圖可以看出,特征點匹配結(jié)果是一致的。
2.4 光束法平差
理想狀態(tài)下,對場景中任意三維點P,由從每個視圖所對應(yīng)的的攝像機的光心發(fā)射出來并經(jīng)過圖像中P對應(yīng)的像素后的光線,都將交于P這一點,對于所有三維點,則形成相當多的光束;實際過程中,由于噪聲等的存在,每條光線幾乎不可能匯聚于一點,因此,在求解過程中,需要不斷地對待求信息進行調(diào)整,以使最終光線能交于點P。對[m]幀,每幀含[N]個特征點的目標函數(shù)為:
2.5 稠密點云匹配算法
稠密點云通過兩兩圖像之間的同名特征點的時差來計算位置關(guān)系。通常有兩種算法[13-14],即局部窗匹配算法和全局優(yōu)化算法。局部窗匹配算法通過比較圖像之間相同窗口內(nèi)的像素灰度相似性來確定兩窗口的中心是否匹配。因此,選擇合適的窗口大小和清晰度對于計算是十分重要的。全局優(yōu)化算法通過優(yōu)化某一個視差函數(shù)來求解匹配問題,其計算結(jié)果會優(yōu)于局部窗匹配算法,數(shù)據(jù)量也會增大,導(dǎo)致計算速度下降。
3 三維重構(gòu)實驗與分析
根據(jù)上述三維重構(gòu)理論,對計算中主要耗時并且易于調(diào)整的兩部分進行數(shù)值實驗,即SIFT和RANSAC算法,對SIFT算法中涉及的組數(shù)、組內(nèi)層數(shù)進行了計算,同時對RANSAC算法中特征點的數(shù)量進行了匹配計算。通過這些參數(shù)的調(diào)整來分析計算圖像的時間以及重投影誤差,從而對比出一組適合工程需要的、性價比較高的參數(shù),將其作為實際工程測量需要的參數(shù),具體測試的參數(shù)如表1所示,其重投影誤差最大為0.671個像素。在實際計算過程中,特征點本身也會存在誤差,從大量的特征點中選擇最優(yōu)點依賴于特征點的數(shù)量,數(shù)量減小其精度也會下降,但是計算速度會明顯提升。根據(jù)本文對工程的需求,將其重投影精度設(shè)置在0.5個像素以內(nèi),因此,根據(jù)需要,選擇序號為5的一組參數(shù),其組數(shù)設(shè)置為2,組內(nèi)層數(shù)為4,特征點取前256個進行RANSAC算法。
將測試得到的參數(shù)應(yīng)用于實際工程進行處理分析,依次計算得到特征點、特征點匹配等。然后對圖像進行重構(gòu),其空間點重投影平均誤差為0.46,重構(gòu)后的圖像如圖5所示。
4 結(jié)論
本文通過多視角數(shù)字圖像對實際工程中的深基坑進行三維重構(gòu)。在精度允許的范圍內(nèi),為了提高三維重構(gòu)的速度,對SIFT算法的組數(shù)和組內(nèi)層數(shù),以及RANSAC算法的特征點數(shù)量進行測試分析,得到了在0.5個像素計算精度下的具體參數(shù)。同時,將該參數(shù)應(yīng)用于實際深基坑三維重構(gòu),既滿足了工程精度,又達到了計算速度的要求。
參考文獻:
[1] CHOI S,ZHOU Q Y,KOLTUN V . Robust reconstruction of indoor scenes[C]// IEEE Conference on Computer Vision & Pattern Recognition. IEEE,2015.
[2] ZHOU Q Y,KOLTUN V. Dense Scene Reconstruction with Points of Interest[J].ACM Transactions on Graphics (TOG),2013(4):1-8.
[3]ZHOU Q Y,MILLER S ,KOLTUN V.Elastic Fragments for Dense Scene Reconstruction[C]// IEEE International Conference on Computer Vision. IEEE,2013.
[4]ZHOU Q Y,KOLTUN V .Simultaneous Localization and Calibration: Self-Calibration of Consumer Depth Cameras[C]// Computer Vision & Pattern Recognition. IEEE, 2014.
[5] WHELAN T ,KAESS M ,JOHANNSSON H ,et al. Real-time large-scale dense RGB-D SLAM with volumetric fusion[J]. The International Journal of Robotics Research,2015(4-5):598-626.
[6] WHELAN T ,KAESS M ,LEONARD J J ,et al. Deformation-based loop closure for large scale dense RGB-D SLAM[C]//2013 IEEE/RSJ International Conference on Intelligent Robots and Systems. IEEE, 2014.
[7] WHELAN T ,JOHANNSSON H ,KAESS M ,et al. Robust real-time visual odometry for dense RGB-D mapping[C]//2013 IEEE International Conference on Robotics and Automation. IEEE,2013.
[8]WHELAN T,KAESS M,F(xiàn)ALLON M,et al. Kintinuous: Spatially Extended KinectFusion [C]//RSS Workshop on RGB-D: Advanced Reasoning with Depth Cameras. 2012.
[9]DAI A ,MATTHIAS NIEβNER,ZOLLHOEFER M ,et al. BundleFusion: Real-time Globally Consistent 3D Reconstruction using On-the-fly Surface Re-integration[J]. ACM Transactions on Graphics,2017(3):76a.
[10]馬宏德,張征友.計算機視覺:計算理論與算法基礎(chǔ)[M].北京:科學(xué)出版社,1998.
[11]LOWE D G . Distinctive Image Features from Scale-Invariant Keypoints[J]. International Journal of Computer Vision, 2004,(2):91-110.
[12]FISCHLER M A ,BOLLES R C . Random Sample Consensus: A Paradigm for Model Fitting with Applications To Image Analysis and Automated Cartography[J]. Communications of the ACM,1981 (6):381-395.
[13]唐麗.由手提相機獲得的序列圖像進行三維重建[D].西安:西安電子科技大學(xué),2003.
[14]劉小莉.雙目立體視覺稠密視差算法研究[D].重慶:重慶大學(xué),2008.