国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

視覺與慣性傳感器融合的SLAM技術(shù)綜述

2020-12-03 12:03楊觀賜王霄遠蔣亞汶
關(guān)鍵詞:建圖位姿慣性

楊觀賜,王霄遠,蔣亞汶,李 楊

(貴州大學(xué) 現(xiàn)代制造技術(shù)教育部重點實驗室,貴州 貴陽 550025)

同時定位和建圖(simultaneous localization and mapping, SLAM)[1-2]是指將移動機器人置于未知環(huán)境中的未知位置時,移動機器人自動逐步構(gòu)建與環(huán)境一致的地圖,并同時使用該地圖確定其自身在地圖中的位置。SLAM系統(tǒng)由前端和后端組成,前端主要負責執(zhí)行數(shù)據(jù)關(guān)聯(lián),后端主要負責狀態(tài)推斷。在確保計算效率的同時,如何確保地圖和位姿估計的全局一致性和高精度,如何解決非線性、數(shù)據(jù)關(guān)聯(lián)和界標特性等問題引起了眾多學(xué)者的關(guān)注。

典型SLAM解決方案[3]主要利用視覺傳感器,雖然取得了不錯的效果,但是當移動機器人處于低紋理、光照變化和圖像模糊、以及高速運動時表現(xiàn)欠佳。視覺傳感器低速運行時能夠有較精確地環(huán)境特征跟蹤表現(xiàn),但是隨著速度的增大,特征跟蹤的準確性迅速降低;慣性傳感器(inertial measurement unit,IMU)能夠跟隨運動速度變化,不受運動場景和運動速度的限制而準確測量出角速度和線性加速度,但是當其長時間運行時,IMU因其自身偏置而產(chǎn)生估計累計漂移[3-4]。融合使用視覺和慣性傳感器可以提供豐富的運動和環(huán)境結(jié)構(gòu)信息。為了發(fā)揮視覺傳感器和IMU的優(yōu)勢,規(guī)避它們的劣勢,人們研制了視覺傳感器和IMU融合的SLAM(visual-inertial SLAM, VI-SLAM)系統(tǒng)(見圖1)[5],采用基于優(yōu)化或基于濾波的技術(shù)采集物理量,然后運用特定的方法估算這些物理量,從而獲得對自身運動和場景結(jié)構(gòu)的可靠估計[6-7]。

圖1 幾種典型的視覺慣性傳感器

當前,VI-SLAM已廣泛應(yīng)用于機器人導(dǎo)航[5,12-18],無人機[19-27],增強現(xiàn)實[28-32],虛擬現(xiàn)實[33]以及無人駕駛[34]等領(lǐng)域,而傳感器的校準、系統(tǒng)的初始化、數(shù)據(jù)的處理和融合方法、閉環(huán)檢測的精度和效率等因素都會對VI-SLAM系統(tǒng)產(chǎn)生影響[8]。為了更好地把握VI-SLAM領(lǐng)域取得的成果,本文從VI-SLAM系統(tǒng)、視覺慣性里程計、定位和建圖技術(shù)以及VI-SLAM的研究平臺方面進行了綜述,并展望了發(fā)展趨勢。

1 視覺慣性SLAM系統(tǒng)技術(shù)分類

圖2是VI-SLAM系統(tǒng)的框架結(jié)構(gòu)圖。系統(tǒng)啟動時,首先校準傳感器;系統(tǒng)運行過程中,不同傳感器分別采集環(huán)境結(jié)構(gòu)信息和機器人運動信息;在預(yù)處理所采集的數(shù)據(jù)后,使用不同的融合策略進行數(shù)據(jù)融合;最后利用融合的數(shù)據(jù)實現(xiàn)定位和建圖。接下來,將綜述基于關(guān)鍵幀的VI-SLAM系統(tǒng)、稠密VI-SLAM系統(tǒng)、緊密耦合的VI-SLAM系統(tǒng)和協(xié)作式的VI-SLAM系統(tǒng)的技術(shù)特點。

圖2 視覺慣性SLAM系統(tǒng)的框架

1.1 基于關(guān)鍵幀的VI-SLAM系統(tǒng)

對于傳感器數(shù)據(jù)的融合,基于過濾的融合策略與非線性優(yōu)化方法相比,后者在魯棒性、精度和計算復(fù)雜度上更具優(yōu)勢。文獻[35]將慣性測量數(shù)據(jù)集成到基于關(guān)鍵幀的視覺SLAM中,將IMU誤差項以全概率的方式與界標重投影誤差集成在一起進行聯(lián)合優(yōu)化非線性成本函數(shù),并利用“關(guān)鍵幀”概念邊緣化過去狀態(tài)部分來維持有限大小的優(yōu)化窗口,從而確保實時性操作。文獻[36]提出了基于關(guān)鍵幀的視覺慣性協(xié)作式同時定位和建圖框架,在建圖和定位高效協(xié)作方面具有優(yōu)勢。文獻[37]提出的基于關(guān)鍵幀的單目和雙目相機視覺慣性融合的SLAM系統(tǒng),能夠獲得更好的局部一致軌跡和地圖估計,并通過局部跟蹤、位姿圖優(yōu)化和閉環(huán)檢測實現(xiàn)VI-SLAM的定位準確性和全局一致性。此外,它能夠根據(jù)先前構(gòu)建的地圖進行重新定位并繼續(xù)執(zhí)行SLAM。文獻[38]提出的實時單目VI-SLAM系統(tǒng)在消除漂移方面性能良好,它通過融合單目視覺慣性里程計特征實現(xiàn)重定位,然后執(zhí)行4-DOF位姿圖優(yōu)化校正漂移。此系統(tǒng)可以通過重用地圖和重新定位相機獲得機器人在已有地圖中的絕對位姿,通過全局位姿圖優(yōu)化將當前地圖與先前地圖合并。

1.2 稠密VI-SLAM系統(tǒng)

文獻[39]提出的稠密VI-SLAM系統(tǒng),可以同時優(yōu)化相機的位姿、速度、IMU偏置和重力方向,構(gòu)建稠密的環(huán)境3D場景地圖。文獻[40]構(gòu)建了一種基于動態(tài)網(wǎng)格與雙目攝像頭的稠密視覺慣性SLAM系統(tǒng)。該系統(tǒng)將空間劃分為網(wǎng)格,在線重建場景的完全稠密地圖。文獻[41]研究了具有結(jié)構(gòu)約束的稠密平面慣性SLAM框架。它使用手持式RGB-D傳感器和IMU重建大型室內(nèi)環(huán)境的稠密3D模型,通過結(jié)構(gòu)約束減少輸出建圖中的漂移和失真。文獻[42]提出的方法能夠從攝像頭的運動情況和稀疏深度推斷稠密深度信息,從極稀疏的點云中恢復(fù)場景幾何形狀。文獻[10]使用直接法同時優(yōu)化IMU測量和視覺數(shù)據(jù),形成了基于直接法的VI-SLAM,可以用于實時的場景稠密地圖在線重建和跟蹤。而為了平衡精度和計算效率,文獻[43]提出了基于半直接法的VI-SLAM,它集成了特征法的準確性和直接法的快速性,在估計機器人的運動和稀疏場景的結(jié)構(gòu)方面具有優(yōu)勢。

1.3 緊密耦合的VI-SLAM系統(tǒng)

移動機器人具有實時定位和地建圖功能才能真正自主地運行。其路徑規(guī)劃和決策依賴于機器人對周圍環(huán)境的及時準確建圖和狀態(tài)估計。對此,文獻[44]提出了基于傳感器時間同步校準的緊密耦合實時VI-SLAM框架,它能夠在動態(tài)的環(huán)境中進行準確、實時的位姿估計和建圖。文獻[45]提出的多合一多傳感器視覺慣性融合SLAM,通過同步和校準多傳感器,實現(xiàn)緊密耦合的視覺慣性跟蹤和并行建圖。此方法能夠與其他傳感器模態(tài)松散耦合。由于視覺慣性系統(tǒng)具有非線性的特點,其性能在很大程度上取決于初始值的準確性,因此,文獻[46]提出了提高初始狀態(tài)估計準確性的方法。即:在已知重力大小的基礎(chǔ)上,通過優(yōu)化其切線空間上的二維誤差狀態(tài)細化估計的重力矢量,然后分別估計加速度計的偏置。此外,它還提出了確定何時初始化成功的自動終止條件,一旦初始狀態(tài)估計收斂,就使用初始估計值啟動非線性緊密耦合的VI-SLAM系統(tǒng)。

鑒于視覺慣性里程計(visual-inertial odometry, VIO)方法缺乏閉合回路的能力,并且即使傳感器不斷地重新訪問同一位置,軌跡估計也會出現(xiàn)累積漂移,文獻[47]提出了一種新穎的緊密耦合的VI-SLAM系統(tǒng)。該系統(tǒng)可以閉合回路并重用其地圖,能在已建圖的區(qū)域?qū)崿F(xiàn)對傳感器的零漂移定位;其局部建圖線程在插入新的關(guān)鍵幀之后將執(zhí)行局部BA(bundle adjustment),優(yōu)化最后N個關(guān)鍵幀和由這些關(guān)鍵幀所觀察到的所有點特征。為了獲得魯棒的SLAM,文獻[48]提出了可以實時匹配全局最優(yōu)結(jié)果的基于緊密耦合的非線性優(yōu)化單目VI-SLAM。此系統(tǒng)采用多線程、異步自適應(yīng)數(shù)值優(yōu)化求解器,自適應(yīng)地識別SLAM圖的邊界條件并進行同步和異步求解。為了實現(xiàn)移動機器人重啟后快速的實時定位,文獻[49]提出了基于地圖元素與關(guān)鍵幀數(shù)據(jù)庫的離線地圖構(gòu)建方法,并通過序列化方法進行保存與加載,之后,設(shè)計了基于離線地圖的加載重定位方法,并形成了離線地圖與建圖軌跡的可視化方法。此系統(tǒng)能根據(jù)所得離線地圖進行重定位和全局定位跟蹤。

1.4 協(xié)作式VI-SLAM系統(tǒng)

近年來,協(xié)作式VI-SLAM系統(tǒng)研究也得到了快速的發(fā)展。針對多個單目攝像頭,文獻[50]研究了兩個智能體間協(xié)作實現(xiàn)VIO的方法;文獻[51]提出了基于交換的視覺慣性數(shù)據(jù)包的分散數(shù)據(jù)共享方法;文獻[52]利用多攝像頭采集的數(shù)據(jù)融合慣性測量數(shù)據(jù)進行在線校準初始化。圍繞同時存在攝像頭-IMU和雙目攝像頭的慣性里程計系統(tǒng),文獻[53]設(shè)計了可以在線估計初始值并同時校準傳感器的方法;文獻[54]通過融合事件相機和慣性測量數(shù)據(jù),提供準確的狀態(tài)估計。文獻[55]將較大室內(nèi)空間內(nèi)多個用戶在不同時刻使用移動設(shè)備收集的視覺和慣性測量數(shù)據(jù)進行融合,從而實現(xiàn)協(xié)作建圖。協(xié)作式VI-SLAM系統(tǒng)能夠最大限度地感知周圍環(huán)境、提供豐富的傳感數(shù)據(jù)供系統(tǒng)使用。雖然在環(huán)境退化的情況下,系統(tǒng)也能表現(xiàn)出高精度和魯棒性,但是協(xié)作式VI-SLAM系統(tǒng)要求較大的計算能力。

2 視覺慣性里程計

視覺慣性里程計使用相機與IMU采集的數(shù)據(jù)進行融合以估算機器人狀態(tài)。VIO系統(tǒng)將來自視覺傳感器和IMU的數(shù)據(jù)融合處理,獲得對視覺傳感器運動的更好測量。機器人高速運動時,相機幀之間可能無法進行特征匹配,IMU可以提供信息,使系統(tǒng)仍然保持較準確的位姿估計。同時,視覺圖像信息可以彌補機器人低速運動時IMU存在的漂移問題[56]。在VIO和VI-SLAM系統(tǒng)中,視覺圖像和IMU采集數(shù)據(jù)主要使用基于濾波方法或非線性優(yōu)化方法進行數(shù)據(jù)融合。根據(jù)傳感器融合測量方法不同,VIO系統(tǒng)分為松耦合和緊密耦合的方法。松耦合方法分別對圖像和IMU數(shù)據(jù)進行預(yù)處理,然后進行融合;緊密耦合方法則直接融合相機和IMU的原始測量值找到最佳估計。表1是視覺慣性傳感器數(shù)據(jù)融合方法的比較情況。與松耦合方法相比,緊密耦合方法更準確,更可靠[57]。

表1 融合方法對比

圖3是視覺慣性里程計的結(jié)構(gòu)圖。VIO方法主要分為基于傳統(tǒng)的方法和基于深度學(xué)習(xí)的方法。其中,傳統(tǒng)的方法又細分為5類:基于擴展卡爾曼濾波器(extended Kalman filter,EKF)的VIO,基于點線特征的VIO,基于優(yōu)化的VIO,基于直接方法的VIO和基于事件相機的VIO。值得注意的是,雖然當前基于事件相機的VIO方法較少,但是由于事件相機具有擅長捕捉亮度變化、在較暗和強光場景下也能輸出有效數(shù)據(jù)的特點,基于事件相機的VIO方法值得期待,因此對此類方法進行了單獨分析?;谏疃葘W(xué)習(xí)的方法又細分為基于端到端學(xué)習(xí)的方法和基于監(jiān)督學(xué)習(xí)的方法。

圖3 視覺慣性里程計結(jié)構(gòu)圖

2.1 基于傳統(tǒng)方法的VIO

2.1.1基于EKF的VIO

為充分利用視覺和慣性傳感器采集的信息,文獻[58]提出基于擴展卡爾曼濾波器的半直接VIO方法,該方法幾乎可以在原始傳感器級別上緊密融合視覺傳感器和慣性測量數(shù)據(jù),同時結(jié)合了緊密耦合的視覺慣性擴展卡爾曼濾波器的優(yōu)點以及直接光度法的魯棒性和精度。文獻[59]提出的基于全密集緊密耦合直接濾波的VIO方法同時估計所有像素的深度和機器人狀態(tài),通過向狀態(tài)向量添加深度和強度信息,能夠一步更新所有條目。文獻[60]提出以機器人為中心的基于擴展卡爾曼濾波器的直接VIO框架。該方法以機器人為中心,結(jié)合光度誤差的直接反饋,通過迭代擴展卡爾曼濾波器處理界標跟蹤,可以實現(xiàn)多相機支持,對相機和IMU進行在線校準。文獻[61]直接使用圖像塊的像素強度誤差來實現(xiàn)精確的跟蹤性能,具有良好的魯棒性。

考慮到濾波器中計算雅可比的標準方法會導(dǎo)致準確性下降,文獻[62]提出的多狀態(tài)約束卡爾曼濾波器算法主要包括3個部分: EKF誤差狀態(tài)轉(zhuǎn)換矩陣的封閉式計算、定向誤差的參數(shù)化、在過濾器中選擇線性化的點。在此基礎(chǔ)上,文獻[63]提出的基于濾波器的雙目VIO方法,在計算效率和魯棒性方面表現(xiàn)更優(yōu)。與此同時,文獻[64]基于文獻[62]的框架,通過構(gòu)建新的初始化方法設(shè)計了一種新的VIO算法,能夠通過分析跟蹤的特征自動檢測靜止場景,并根據(jù)靜態(tài)IMU數(shù)據(jù)初始化濾波器狀態(tài)。文獻[65]提出了一種實時VIO算法。該算法通過確保其線性化系統(tǒng)模型的正確可讀,對相機-IMU校準參數(shù)進行在線估算,從而確保實現(xiàn)一致性的估計。為了確保提供的測量信息足以在線校準相機的固有參數(shù),文獻[66]設(shè)計了視覺慣性系統(tǒng)的非線性可觀測性分析方法,通過在線校準相機固有參數(shù)提高位姿估計的準確性。而文獻[67]提出的基于RGB-D相機和IMU的VIO方法,不僅可以估算相機的運動軌跡,還可以在線校準重力場和相機與IMU之間的相對位姿以提高位姿估計準確性,并通過迭代優(yōu)化減少線性誤差。此外,文獻[68]將IMU測量值與相機提供的視覺特征軌跡的觀察結(jié)果相融合,實時生成高精度狀態(tài)估計值。

2.1.2基于點線特征的VIO

相比于點特征,線特征能夠提供更多的環(huán)境幾何結(jié)構(gòu)信息,在無法可靠檢測或跟蹤點特征的低紋理環(huán)境或照明變化場景中,線特征可以有效提高系統(tǒng)的魯棒性。為了同時使用點和線特征,文獻[69]提出了基于濾波的緊密耦合雙目視覺慣性里程計系統(tǒng)。此系統(tǒng)在滑動窗口上對點和線要素進行處理,并使用閉環(huán)技術(shù)減少累計漂移。為了解決相機軌跡估計的問題并構(gòu)建基于慣性測量和視覺觀察結(jié)構(gòu)的3D地圖,文獻[57]提出了基于點線特征的緊密耦合VIO系統(tǒng)。系統(tǒng)主要包含兩個模塊:前端負責傳播IMU主體狀態(tài),檢測/匹配點線特征(見圖4),后端用于估計和優(yōu)化自身狀態(tài)。文獻[70]通過構(gòu)建具有幾何信息的環(huán)境特征圖,合并IMU測量數(shù)據(jù)為視覺定位算法提供先驗和比例信息。然后,基于稀疏圖像對準的運動估計獲得初始位姿估計,進一步執(zhí)行特征對準以獲得子像素級特征相關(guān)性。最后,通過最小化局部地圖點和線的重投影誤差,獲得高精度的位姿和3D界標。文獻[71]通過使用平行線的圖像投影相交點消除角度漂移,從而提高了基于特征的VIO精度。文獻[72]簡化了基于融合點和線特征匹配的方法和VIO初始化策略。在VIO初始化過程中,將恒定速度約束應(yīng)用于運動中的機器人,動態(tài)地加快了初始狀態(tài)變量的獲取;通過優(yōu)化滑動窗口模型構(gòu)造點特征和由線特征表征的稀疏圖。

圖4 視覺慣性傳感器、點和線觀測示意圖[57]

2.1.3基于優(yōu)化的VIO

雖然VIO能夠通過非線性優(yōu)化獲得較高精度的狀態(tài)估計,但是隨著運行時間增長、運動軌跡增長,實時優(yōu)化變得不可行。鑒于此,文獻[73]將選定關(guān)鍵幀之間的慣性測量值預(yù)先集成到單個相對運動約束中。為了更好地利用視覺慣性測量值、減少線性化導(dǎo)致的次優(yōu)性,文獻[8]提出了基于關(guān)鍵幀的緊密耦合視覺慣性融合框架。此方法中,速度和IMU偏置作為時間序列,利用線性化和邊緣化獲取關(guān)鍵幀、估計位姿以及輸出稀疏地標的3D地圖。文獻[74]通過特征檢測和稀疏光流算法跟蹤特征,將加速度計偏置納入測量模型,采用緊密耦合的非線性優(yōu)化方法將預(yù)集成的IMU測量值與雙目攝像頭的視覺測量值進行融合,進而提高了系統(tǒng)的準確性和效率。

2.1.4基于直接方法的VIO

文獻[75]提出的緊密耦合的直接雙目VIO方法,將雙目相機與IMU結(jié)合,可以實時準確地估計相機運動,實現(xiàn)對環(huán)境的半密集3D重建。鑒于單目視覺里程計無法測距,基于直接稀疏的單目里程計算法,文獻[76]提出了直接的緊密耦合的VIO系統(tǒng)。此系統(tǒng)通過添加IMU和最小化能量函數(shù)中的光度和IMU測量誤差,估計相機的位姿和稀疏場景幾何形狀。文獻[77]研究了融合IMU和雙目攝像頭的直接稀疏VIO方法,能夠獲得可讀的半稠密地圖,重建3D場景。

2.1.5基于事件相機的VIO

基于事件相機的VIO,通過異步檢測相機上所有像素的圖像強度變化構(gòu)建視覺感應(yīng)模型。相機高速率捕獲場景變化,可以處理非??斓倪\動而不會出現(xiàn)圖像模糊,文獻[78]提出了融合事件相機和慣性測量數(shù)據(jù)的VIO方法。此方法可以精確跟蹤相機6自由度位姿,以較小的漂移來跟蹤較長的相機軌跡。文獻[79]考慮重疊時空窗口中的事件,通過使用當前的相機運動和場景結(jié)構(gòu)進行對準,從而產(chǎn)生補償運動的事件幀,然后將所獲得的特征軌跡集成到基于關(guān)鍵幀的非線性優(yōu)化VIO算法,從而實現(xiàn)相機的6自由度位姿、速度和IMU偏置的估計。

2.2 基于深度學(xué)習(xí)的VIO

傳統(tǒng)的視覺慣性融合方法依賴于已有圖像特征,在無特征區(qū)域、運動模糊、環(huán)境中的動態(tài)元素多和照明變化大、以及無紋理場景等情況下表現(xiàn)不佳,這限制了其應(yīng)用。深度學(xué)習(xí)方法因其強大的特征提取能力,能從高維數(shù)據(jù)中輸出有意義的特征,這為視覺慣性融合提供了新途徑。

2.2.1基于端到端學(xué)習(xí)的方法

文獻[80]研究了以機器人為中心的EKF端到端可訓(xùn)練VIO算法。它的EKF在IMU的基礎(chǔ)上傳播其狀態(tài),并在更新步驟中融合了來自深度學(xué)習(xí)網(wǎng)絡(luò)的視覺相對位姿測量值和噪音;系統(tǒng)通過反向傳播進行端到端訓(xùn)練,能根據(jù)目標優(yōu)化整個系統(tǒng)。為了增強SLAM系統(tǒng)的魯棒性,文獻[56]提出了一種端到端慣性網(wǎng)絡(luò)模型。此模型能夠建模相機位姿和IMU之間的關(guān)系,能夠根據(jù)圖像序列預(yù)測相機的旋轉(zhuǎn)等復(fù)雜的運動軌跡。為了處理不完備的傳感數(shù)據(jù),文獻[81]提出了一種新穎的端到端學(xué)習(xí)傳感器數(shù)據(jù)融合框架。此框架能夠融合單目攝像頭圖像和慣性測量數(shù)據(jù),能夠選擇性地處理傳感器模態(tài)特征,并按比例生成魯棒的軌跡估計。受處理原始高維數(shù)據(jù)的深度學(xué)習(xí)模型啟發(fā),文獻[82]設(shè)計了用于執(zhí)行VIO的完全可訓(xùn)練的端到端遞歸網(wǎng)絡(luò)訓(xùn)練模型。該方法將VIO視為逐序列回歸問題,將中間特征進行數(shù)據(jù)融合,通過自適應(yīng)學(xué)習(xí)校準錯誤以緩解漂移。

2.2.2基于監(jiān)督學(xué)習(xí)的方法

為了集成深度學(xué)習(xí)和傳統(tǒng)VIO方法的優(yōu)點,文獻[83]將傳統(tǒng)的VIO方法集成到端到端的無監(jiān)督的深度神經(jīng)網(wǎng)絡(luò)。通過引導(dǎo)學(xué)習(xí)的深度圖像比例估計按比例縮放的軌跡,在學(xué)習(xí)的過程中執(zhí)行VIO估計場景深度。文獻[84]提出了無監(jiān)督的深度神經(jīng)網(wǎng)絡(luò)框架,將來自不同參考系的未校準的、時間上松散的同步多模態(tài)數(shù)據(jù)組進行里程計估計;通過整合IMU測量并生成假設(shè)軌跡,根據(jù)縮放后的圖像投影誤差的雅可比矩陣相對于像素坐標的空間網(wǎng)格,在線校正假設(shè)軌跡估計。文獻[85]提出使用在線糾錯模塊解決定位問題。通過訓(xùn)練,檢測和糾正中間網(wǎng)絡(luò)輸出的誤差,并最小化所產(chǎn)生的誤差估計。

針對動態(tài)目標和無紋理場景,文獻[86]研究了從3D幾何約束中獲取監(jiān)督信號的自監(jiān)督端對端單目VIO網(wǎng)絡(luò)(DeepVIO)。通過融合網(wǎng)絡(luò)的姿態(tài)反饋,更新IMU的附加偏置,改善IMU位姿估計,根據(jù)3D圖像序列估算視覺慣性傳感器的絕對軌跡。表2是基于深度學(xué)習(xí)的VIO方法特點總結(jié)。

表2 基于深度學(xué)習(xí)的VIO方法總結(jié)

3 定位與建圖

實現(xiàn)高精度和高效率的同時定位與建圖是機器人在復(fù)雜環(huán)境下執(zhí)行特定任務(wù)的前提。本小節(jié)將綜述具有代表性的基于視覺慣性傳感器融合的同時定位與建圖方法。

3.1 定位

在長時間的運行過程中,估計器的漂移往往會破壞與全局地圖的對準。文獻[87]提出的實時快速定位系統(tǒng),集成了VIO和定位功能,運用已構(gòu)建的地圖消除估計器漂移的影響。文獻[88]將VIO估計器的局部地圖合并到全局一致性的地圖中,然后針對該地圖執(zhí)行在線重新定位,以削減VIO系統(tǒng)中的漂移。

由于大型地圖定位技術(shù)存在高計算復(fù)雜性以及高模型內(nèi)存消耗,因此當前的方法要么局限于小型工作區(qū),要么依賴服務(wù)器端系統(tǒng)在跟蹤本地位姿的同時查詢?nèi)帜P团c之匹配。文獻[89]提出了針對全局3D地圖估計和相機位姿跟蹤的框架,將全局位姿估計融合到視覺慣性SLAM系統(tǒng)中,使用搜索結(jié)構(gòu)加快在地圖中的全局定位,能夠在資源有限的移動平臺上執(zhí)行實時姿態(tài)估計和跟蹤。文獻[90]提出了以機器人為中心的視覺慣性導(dǎo)航系統(tǒng)。它通過所設(shè)計的高效、輕巧的機器人視覺慣性里程計算法,僅使用單目視覺讓機器人能夠在充滿挑戰(zhàn)的環(huán)境中實現(xiàn)一致的定位。

3.2 建圖

視覺傳感器和IMU在自我運動估計和環(huán)境建圖中可作為互補傳感器用于增強SLAM系統(tǒng)的魯棒性。對于全局一致性的建圖,將視覺信息和慣性信息組合起來充滿挑戰(zhàn)。通常,大多數(shù)系統(tǒng)的特征提取都作用在具有較大時間間隔的關(guān)鍵幀上,這使得慣性數(shù)據(jù)隨著時間間隔的持續(xù),其蘊含的有用信息量減少。文獻[91]提出使用非線性因子恢復(fù)從VIO中提取包含在關(guān)鍵幀之間累計的視覺和慣性信息,用于實現(xiàn)視覺慣性全局一致性的建圖。文獻[92]構(gòu)建了將所生成的本地深度圖和全局地圖融合與維護的方法,提出了實時視覺慣性建圖系統(tǒng)。而針對傳感器的起始姿勢轉(zhuǎn)換未知的問題,文獻[55]提出了使用多個傳感器在不同時段收集的數(shù)據(jù)進行協(xié)作建圖的方法。此方法將協(xié)作建圖算法轉(zhuǎn)化為約束優(yōu)化問題,在觀察的點和線要素之間施加幾何約束,將各個傳感器獨立估計的軌跡和地圖融合成一張地圖。針對動態(tài)復(fù)雜環(huán)境下系統(tǒng)長期運行導(dǎo)致的問題,文獻[93]提出了基于自回歸建模和地圖預(yù)測的長期單目視覺慣性SLAM。首先根據(jù)存儲模型將地圖點分為靜態(tài)和半靜態(tài)地圖點,然后對從時間序列模型中獲取的半靜態(tài)地圖點的不同狀態(tài)進行建模和預(yù)測。如果預(yù)測結(jié)果不理想,則將預(yù)測圖與當前圖融合,從而利于下一幀獲得更好的預(yù)測效果。

4 視覺慣性融合研究平臺

這一節(jié)綜述當前用于VI-SLAM研究的平臺:Maplab、VINS-Mono、VINS-RGBD、VersaVINS和OpenVINS。表3是它們的簡要比較統(tǒng)計表。

表3 VI-SLAM研究平臺比較

Maplab[94]是一個通用的視覺慣性建圖和定位的開放框架。該框架提供多會話建圖工具集合,支撐地圖合并、視覺慣性批處理優(yōu)化和回環(huán)閉合。其在線前端可以創(chuàng)建視覺慣性地圖、跟蹤本地化地圖中的全局無漂移位姿。

VINS-Mono[11]是一種單目視覺慣性狀態(tài)估計器。系統(tǒng)從測量數(shù)據(jù)預(yù)處理開始,初始化過程提供所有必要的值來引導(dǎo)基于非線性優(yōu)化的VIO;帶有重定位模塊的VIO緊密集成了預(yù)集成的IMU測量值,特征觀察和從閉環(huán)中重新檢測到的特征;最后,位姿圖模塊執(zhí)行4-DOF全局優(yōu)化以消除漂移并實現(xiàn)重用目的,同時系統(tǒng)還可以通過有效的保存和加載地圖來實現(xiàn)地圖的重用。

VINS-RGBD[95]是基于VINS-Mono提出、用于機器人的軌跡估計和建圖。它擴展了VINS-Mono系統(tǒng),在初始化過程以及VIO階段使用深度數(shù)據(jù)。系統(tǒng)集成了基于二次采樣深度數(shù)據(jù)和八叉樹濾波的建圖系統(tǒng)以支持回環(huán)閉合在內(nèi)的實時建圖。

VersaVIS[9]是一種開放式多功能多相機視覺慣性傳感器研究平臺,支持各種相機和IMU的傳感器融合,可支持移動機器人部署、集成和擴展應(yīng)用程序。該平臺支持IMU執(zhí)行多臺相機的時間同步,能夠?qū)崿F(xiàn)視覺慣性SLAM、多相機應(yīng)用、多模式建圖、重建和基于對象的建圖。

OpenVINS[96]集成了塊滑動窗口卡爾曼濾波器,支持相機參數(shù)在線校準和時間偏移校準;具有不同表示形式和一致性的第一雅可比估計的SLAM界標處理功能;提供狀態(tài)管理的模塊化系統(tǒng)、可擴展的視覺慣性系統(tǒng)模擬器以及用于算法評估的工具箱。

5 未來的發(fā)展趨勢

在過去的十幾年中,由于傳感器技術(shù)、計算機計算性能和深度學(xué)習(xí)的快速發(fā)展,視覺慣性融合的SLAM技術(shù)領(lǐng)域取得了突破性進展。在工程實際中,由于機器人所處環(huán)境結(jié)構(gòu)的復(fù)雜性、傳感器自身的局限性、初始化精度和傳感器校準以及數(shù)據(jù)融合的處理方式等問題,VI-SLAM仍然面臨諸多挑戰(zhàn),以下幾個方面可能是值得關(guān)注的方向。

(1)視覺-慣性傳感器在線校準。相機-IMU的空間位置校準和校準參數(shù)在系統(tǒng)長時間的運行過程中經(jīng)常會發(fā)生漂移,從而引起后續(xù)定位和建圖累計誤差。當前,雖然已經(jīng)有很多學(xué)者研究了傳感器的校準方法,但是往往僅針對有限的參數(shù)或者特定型號的傳感器進行校準,且實時性表現(xiàn)仍然欠佳。因此,高效的視覺-慣性傳感器在線校準方法是值得深入研究的方面。

(2)基于深度學(xué)習(xí)的狀態(tài)估計。在實際的運行過程中,高精度可靠的狀態(tài)估計是機器人實現(xiàn)自主功能的重要前提。近年來,深度學(xué)習(xí)方法得到了快速的發(fā)展,在圖像特征提取和匹配方向出現(xiàn)了很多優(yōu)秀的方法,提供了直接處理原始、高維數(shù)據(jù)的能力,而無需使用領(lǐng)域知識通過人工制作的特征提取器[80-81,85]。同時,基于深度學(xué)習(xí)的圖像處理方法在應(yīng)對視覺退化環(huán)境,如快速運動、運動模糊和光照變化等因素具有較強的適應(yīng)性。因此,如何直接利用深度學(xué)習(xí)的方式,從傳感器采集數(shù)據(jù)同本地或者更高級別的數(shù)據(jù)特征、知識圖譜融合學(xué)習(xí),形成智能高效的狀態(tài)估計方法是一個有前景的方面。

(3)VI-SLAM系統(tǒng)化閉環(huán)檢測。如果機器人能夠進行精準的閉環(huán)檢測,則可以在節(jié)省計算量的同時顯著地減少軌跡估計的累計誤差,從而提高定位精度和建圖效率。雖然文獻[43,97-98]中的方法可以實現(xiàn)閉環(huán)檢測的功能,但也有許多需要提升的方面。突破視覺慣性閉環(huán)檢測的新理論和新方法,對于提高機器人自主探索環(huán)境的能力,提高軌跡估計的精度和效率、定位和建圖的能力具有重要意義。

(4)VI-SLAM系統(tǒng)自主環(huán)境感知。魯棒的SLAM自主感知要求能夠自主進行高級別的場景理解和自主無人執(zhí)行高級別任務(wù)[99]。如何構(gòu)建可用于指導(dǎo)完成高級別任務(wù)的豐富語義地圖,如何提高VI-SLAM系統(tǒng)感知環(huán)境和數(shù)據(jù)并具備認知能力等是值得深入研究的方面。

6 結(jié)束語

視覺慣性傳感器的互補融合使用極大地促進了SLAM技術(shù)的發(fā)展,尤其是在VIO方向;結(jié)合深度學(xué)習(xí)方法也取得了不錯的效果。目前,視覺慣性傳感器互補融合的研究中一部分成果已經(jīng)得到了實際的應(yīng)用。但是,VI-SLAM系統(tǒng)在實際運行時,機器人所處的環(huán)境是復(fù)雜的、外界干擾因素也是多樣的,這讓VI-SLAM的推廣應(yīng)用變得困難。在未來,隨著智能機器人技術(shù)的發(fā)展,機器人所能實現(xiàn)的功能將會越來越復(fù)雜,因此在實現(xiàn)高精度、高效率的定位和建圖方面依然有很多的研究工作要做。只有實現(xiàn)實時的、高精度、魯棒的VI-SLAM系統(tǒng),才能促進VI-SLAM技術(shù)向廣泛實際應(yīng)用轉(zhuǎn)化。

猜你喜歡
建圖位姿慣性
融合二維圖像和三維點云的相機位姿估計
“智能網(wǎng)聯(lián)汽車高精度建圖、定位與導(dǎo)航”專欄客座主編簡介
沖破『慣性』 看慣性
視覺同步定位與建圖中特征點匹配算法優(yōu)化
船舶清理機器人定位基準位姿測量技術(shù)研究
基于三輪全向機器人的室內(nèi)建圖與導(dǎo)航
優(yōu)化ORB 特征的視覺SLAM
無處不在的慣性
機器人室內(nèi)語義建圖中的場所感知方法綜述
無處不在的慣性
汉寿县| 合江县| 天津市| 沈阳市| 化德县| 页游| 新宁县| 文安县| 平远县| 介休市| 米脂县| 巴林左旗| 达州市| 孟村| 五大连池市| 麦盖提县| 和林格尔县| 弥勒县| 沁水县| 永吉县| 桐庐县| 乐清市| 凤台县| 永和县| 贡嘎县| 绥宁县| 高淳县| 阜新| 孝昌县| 崇文区| 仪陇县| 绥化市| 英超| 江都市| 夹江县| 仙居县| 双鸭山市| 长汀县| 磐石市| 土默特右旗| 抚顺市|