国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

動態(tài)場景下基于注意力機制與幾何約束的VSLAM 算法*

2023-11-08 06:49:12陳孟元劉曉曉韓朋朋
傳感技術學報 2023年9期
關鍵詞:位姿靜態(tài)注意力

徐 韜,陳孟元,3*,劉曉曉,韓朋朋

(1.安徽工程大學電氣工程學院,安徽 蕪湖 241000;2.高端裝備先進感知與智能控制教育部重點實驗室,安徽 蕪湖 241000;3.安徽工程大學產業(yè)創(chuàng)新技術研究有限公司,安徽 蕪湖 241000)

同步定位與建圖(Simultaneous Localization and Mapping,SLAM)是實現(xiàn)移動機器人完全自主導航的關鍵技術,傳統(tǒng)SLAM 采用激光雷達獲取周圍障礙物的信息,然而當遇到玻璃環(huán)境時易發(fā)生激光穿透玻璃導致定位精度較低。 使用視覺傳感器作為移動機器人的視覺SLAM 算法可以較為容易地捕捉環(huán)境中的信息、跟蹤場景中的動態(tài)目標,因此視覺SLAM(Visual SLAM,VSLAM)得到了廣泛的應用[1-3]。

近年來, 較為成熟的SLAM 系統(tǒng)有ORBSLAM2[4]、LSD-SLAM[5]、RGBD SLAM[6]和RTABMap[7]。 但是,它們的大多數(shù)是基于靜態(tài)環(huán)境假設的,在動態(tài)場景下的建圖效果會大幅下降。 因此,怎樣提高SLAM 系統(tǒng)在動態(tài)環(huán)境下的準確性成為一個重要課題。 目前針對動態(tài)場景下的SLAM 算法主要有三類:幾何方法、深度學習方法以及幾何與深度學習結合的方法。 在幾何方法中,艾青林等[8]提出了一種動態(tài)環(huán)境下基于改進幾何與運動約束的機器人RGBD SLAM 算法,先將特征點分為靜態(tài)、狀態(tài)未知、可疑靜態(tài)、動態(tài)和錯誤匹配五類,再利用幾何約束對靜態(tài)特征點進行篩選。 Li 等[9]選擇深度邊緣點來尋找對應關系,并設計了一種靜態(tài)加權方法來降低動態(tài)點的影響。 在深度學習方法中,通常采用深度學習中的目標檢測和語義分割技術。 Li 等[10]使用語義分割網絡SegNet[11]對圖像進行分割,然后進一步處理以區(qū)分動態(tài)對象。 Liu 等[12]采用不同的語義分割方法來檢測動態(tài)對象并去除離群點。 在幾何方法和深度學習結合的方法中,由深度學習網絡提供有關動態(tài)對象的語義先驗信息[13],隨后通過幾何約束進一步細化以過濾動態(tài)對象出現(xiàn)的特征。Wu 等[14]針對YOLO[15]進行了改進,提出了Darknet19-YOLOv3 的輕量級目標檢測網絡獲取動態(tài)物體的語義信息,然后提出一種Depth-RANSAC 算法篩選動態(tài)點,以提高系統(tǒng)的實時性和精度,但是目標檢測網絡易發(fā)生動態(tài)物體檢測不完整,產生漏檢測,導致語義信息缺失,從而難以精確去除動態(tài)點,降低了系統(tǒng)定位精度。 Bescos 等[16]提出使用實例分割網絡Mask R-CNN[17]精確分割運動目標(人和車等)邊界,并結合多視角幾何方法檢測潛在動態(tài)物體。 該算法依據(jù)兩幀中同一關鍵點的變化角度判斷該點是否屬于動態(tài)點,但在特征跟蹤過程中關鍵點變化角度易受到噪聲影響,并且使用的實例分割網絡面對物體外觀缺失情況分割效果較差。 Yu 等[18]提出了DS-SLAM,將語義分割網絡SegNet 和移動一致性檢測方法相結合檢測場景中的動態(tài)物體,以過濾出場景中的動態(tài)信息。 顯著提高SLAM 系統(tǒng)在高動態(tài)環(huán)境下魯棒性和穩(wěn)定性,但該方法在剔除動態(tài)特征點后,易發(fā)生因特征點過少而特征跟蹤失敗。

綜上所述,現(xiàn)有的SLAM 算法易出現(xiàn)動態(tài)物體檢測不完整以及難以準確判斷潛在動態(tài)物體的運動狀態(tài)等問題,本文提出一種動態(tài)場景下基于注意力機制與幾何約束的VSLAM 算法,本文目標檢測網絡通過將坐標注意力(Coordinate Attention,CA)機制[19]嵌入YOLOv5 主干網絡的殘差單元,并引入自適應空間特征融合模塊(Adaptively Spatial Feature Fusion,ASFF),實現(xiàn)對相機視野中外觀缺失物體的檢測,并提出一種雙重靜態(tài)點約束方法以解決潛在運動物體的運動判斷問題。 通過在公開的TUM 數(shù)據(jù)集進行驗證,測試結果表明本文算法與ORB-SLAM2 算法、DS-SLAM 算法、DynaSLAM 算法相比,在定位精度等方面有較大優(yōu)勢,表現(xiàn)出了良好的構圖能力。

1 系統(tǒng)整體框架

圖1 所示為系統(tǒng)整體框架。 本文針對傳統(tǒng)SLAM算法易出現(xiàn)動態(tài)物體檢測不完整以及難以準確判斷潛在動態(tài)物體的運動狀態(tài)等問題,提出一種動態(tài)場景下基于注意力機制與幾何約束的VSLAM 算法。 在潛在動態(tài)物體檢測階段,通過本文所提的AFNET(Attention mechanism and adaptively spatial feature Fusion target detection NETwork)目標檢測網絡對圖像信息中的潛在動態(tài)物體進行目標檢測,并提取圖像的ORB 特征點。 在基于雙重靜態(tài)點約束的位姿優(yōu)化階段,通過DBSCAN(Density-Based Spatial Clustering of Applications with Noise)密度聚類算法初步提取潛在動態(tài)物體的靜態(tài)點,生成初步靜態(tài)點集合,并使用其進行初步位姿估計,然后使用雙重靜態(tài)點約束方法,進一步確定物體真實運動狀態(tài),并剔除動態(tài)點,再使用全部的靜態(tài)點集合進行二次位姿優(yōu)化,提升系統(tǒng)精度。

圖1 系統(tǒng)整體框架

2 潛在動態(tài)物體檢測

圖2 所示為YOLOv5 目標檢測在物體外觀嚴重缺失和物體外觀輕微缺失時發(fā)生的漏檢測,圓圈為本文所作輔助標記。 針對待檢測物體在相機視野中的外觀缺失易導致漏檢測問題發(fā)生,本文提出一種聚合注意力機制自適應特征融合的目標檢測網絡AFNET。 AFNET 網絡結構如圖3 所示。 該網絡將CA 注意力模塊嵌入YOLOv5 的主干網絡CSP1_X(X=1,2,3;代表網絡中殘差單元個數(shù))的殘差單元中形成CA 殘差單元,最終構造對外觀缺失區(qū)域特征更加關注的聚合注意力模塊AttenCSP1_X(X=1,2,3;代表網絡中CA 殘差單元個數(shù)),同時為更有效地進行特征融合,在特征金字塔FPN 的基礎上引入自適應空間特征融合ASFF 模塊,構造自適應空間特征融合金字塔,增強網絡的特征提取能力,提升對外觀缺失物體的目標檢測精度。

圖2 YOLOv5 漏檢測

2.1 聚合注意力模塊

視覺SLAM 系統(tǒng)運行過程中,相機視野中外觀缺失的物體占據(jù)環(huán)境較大區(qū)域,若無法識別出其中的潛在動態(tài)物體,將對SLAM 系統(tǒng)的穩(wěn)定性造成干擾。 針對這一問題,本文在YOLOv5 的基礎上引入CA 注意力模塊。 注意力模塊加入網絡層的位置與目標檢測網絡的學習和表征能力關系密切。 若將注意力模塊加入特征金字塔FPN 或檢測頭部分,不僅難以將冗余信息和關鍵特征從特征圖中區(qū)分開來,還會傳遞錯誤信息,從而降低網絡提取特征的能力。因此,本文對YOLOv5 主干網絡進行改進,將CA 注意力模塊嵌入到CSP1_X 的殘差單元中,構造CA殘差單元,最終形成聚合注意力模塊。 首先,通過CA 注意力模塊突出外觀缺失區(qū)域特征圖的關鍵特征,同時弱化無關信息,再經過殘差網絡深入提取特征,最后合并輸出以提升目標檢測的精度。 聚合注意力模塊如圖4 所示。

圖4 聚合注意力模塊

CA 殘差單元利用坐標注意力機制對通道信息與空間位置信息均敏感的特性生成對外觀缺失區(qū)域更具有判別能力的特征表達,該模塊不僅增大了感興趣區(qū)域特征通道權重,還能獲取感興趣區(qū)域空間位置,充分突出外觀缺失區(qū)域有效特征信息,同時避免了干擾信息影響。 CA 殘差單元具體計算方式如式(1)所示:

式中:M'為上一個CA 殘差單元的輸出特征,M"為CA 殘差單元的輸出特征,H(·)表示使用CA 注意力提取特征,f1×1和f3×3分別表示1×1 和3×3 的卷積層,σ(·)表示leakyrelu 激活函數(shù),Bn為歸一化參數(shù)。

2.2 CA 注意力機制

現(xiàn)有的SE(Squeeze-and-Excitation)通道注意力機制[20]對內部通道信息進行關注,但卻忽視了空間位置信息。 而卷積注意力模塊(Convolutional Block Attention Module,CBAM)[21]為了引入空間位置信息,使用了在通道上全局池化的方法,但這種方法卻又只考慮了局部范圍的信息。 因此本文使用CA 注意力機制,如圖5 所示。 通過在通道注意力中嵌入空間位置信息,生成對通道信息和位置信息均敏感的特征圖從而使得網絡更加關注高維特征信息,提高網絡對外觀缺失區(qū)域的注意力。 CA 注意力機制首先對輸入的特征圖XC×H×W使用尺寸(H,1)和(1,W)的池化核,分別對水平和垂直方向的每個通道進行池化,得到一對大小為C×H×1 和C×1×W的特征圖。 因此,高度為h的第c個通道和寬度為w的第c個通道的輸出如下:

圖5 CA 注意力機制

式中:xc(h,i)和xc(j,w)分別為水平和豎直方向的特征,(h)和(w)分別是編碼后的水平張量和豎直張量,H,W和C分別代表輸入特征圖的長、寬和通道數(shù)。 接著對這兩個張量進行融合操作并且用1×1卷積函數(shù)實現(xiàn)降維,如式(4)所示:

式中:[zh,zw]為融合操作,f1×1為1×1 卷積函數(shù),F(xiàn)∈RC/r×(H+W)為空間信息在水平和豎直方向上進行編碼的中間特征映射,δ(·)為h_wish 激活函數(shù),r是下采樣步長。

接著將F沿著空間維度重新分解為兩個單獨的張量Fh和Fw,然后分別使用1×1 卷積函數(shù)將Fh和Fw通道數(shù)變?yōu)榕cX一致,得到如下結果:

式中:σ(·)為sigmoid 激活函數(shù),gh和gw分別為水平方向和豎直方向的權重。 最終CA 注意力模塊的輸出表示為:

2.3 自適應空間特征融合金字塔

原YOLOv5 網絡中的FPN 結構僅將不同特征層調整為統(tǒng)一尺寸后再進行累加,但是不同特征尺度之間不一致易造成融合特征圖噪聲增大從而導致效果變差。 針對這一問題,本文引入ASFF 模塊構造自適應空間特征融合金字塔,該算法使網絡能夠自適應地學習各個特征層上每個位置的權重,使重要信息的特征在融合時占據(jù)主導地位,通過在空間上過濾無用信息進而抑制反向傳播時的不一致,改善特征比例不變性。 最終增強目標檢測網絡對動態(tài)物體特征識別能力。 ASFF 結構如圖6 所示。 它包括特征縮放和自適應融合兩個部分。

圖6 ASFF 結構

F1、F2、和F3為主干網絡后的三個特征層,F(xiàn)1和F2經過特征縮放后分別生成與F3尺寸相同的特征層F1→3和F2→3。

AFNET 網絡參數(shù)設置如表1 所示。 如輸入列的[-1,6]表示為來自于上一層和第6 層合并輸出,層編號從0 開始,張量信息代表該模塊的輸入通道數(shù)、輸出通道數(shù)、卷積核大小、步長等參數(shù)信息。

表1 AFNET 網絡參數(shù)設置

3 基于雙重靜態(tài)點約束的位姿優(yōu)化

目標檢測網絡僅能識別出潛在動態(tài)物體,但是對潛在動態(tài)物體的運動狀態(tài)缺少有效判斷。 由于動態(tài)物體上也可能存在靜態(tài)特征點,若直接剔除檢測框中的所有特征點會造成很多靜態(tài)特征點被剔除,影響姿態(tài)估計的準確性。 因此,本文首先使用DBSCAN 密度聚類對檢測框內的前景點和背景點進行區(qū)分,篩選初步靜態(tài)點集合進行初步位姿估計。 然后提出一種雙重靜態(tài)點約束的方法,進一步準確判斷特征點的真實運動狀態(tài),從而得到更加精確的靜態(tài)點集合,并進行二次位姿優(yōu)化,提升系統(tǒng)的精度。

3.1 DBSCAN 密度聚類

與語義分割方法相比,目標檢測網絡的實時性更高,但不能提供準確的分割掩碼從而導致分類為動態(tài)物體的檢測框中靜態(tài)背景眾多,靜態(tài)特征點的誤刪除將減少相機位姿優(yōu)化的約束,降低相機位姿估計的準確性。 行人作為前景的非剛體,其深度具有很好的連續(xù)性,并且通常與背景深度有很大的斷層。 因此,本文引入DBSCAN 密度聚類算法來區(qū)分分類為人的檢測框的前景點和背景點。 本文采取自適應的方法確定DBSCAN 密度聚類算法的鄰域半徑eps 和鄰域樣本數(shù)的閾值minPts,聚類完成后,將簇群C={C1,C2,…,Ck}中平均值最低的樣本作為檢測框的前景點。然后,將背景點內的特征點設置為初步靜態(tài)點并用集合Uk表示,用于后續(xù)的位姿估計。

圖7 所示為DBSCAN 密度聚類結果,圖7(a)為未使用DBSCAN 密度聚類,檢測框內的特征點全部被標記為動態(tài)點并剔除,不參與位姿計算;而圖7(b)為經過DBSCAN 密度聚類后的特征點分類結果;由圖可知,2 個檢測框內背景點內的特征點都被正確地歸類為靜態(tài)點,參與位姿計算過程,因此,采用密度聚類區(qū)分靜態(tài)點能在較大程度上提高后續(xù)位姿估計的精度。

圖7 DBSCAN 密度聚類結果

3.2 初步位姿估計

對檢測框內的靜態(tài)點和動態(tài)點進行區(qū)分之后,使用當前幀F(xiàn)k中的初步靜態(tài)點集合Uk進行初步位姿估計,Uk在三維空間中的集合為Ck。 設空間中點的三維坐標為ci=[Xi,Yi,Zi]T,其對應的投影像素坐標為ui=[ui,vi]T,且ui∈Uk,ci∈Ck,則有:

式中:ξ∈se(3)是相機位姿R,t的李代數(shù)形式,di為對應靜態(tài)點深度,e為誤差項,K為相機內參矩陣。式(10)可寫成以下矩陣形式:

最后,通過將誤差求和構造最小二乘問題并使其最小化,即可得出最小化重投影誤差:

3.3 雙重靜態(tài)點約束

若直接使用初步靜態(tài)點集合解算位姿,則會存在一些在當前場景處于靜止狀態(tài)的對象被錯誤地歸類為動態(tài)特征的問題(如坐在椅子上不動的人),為了進一步判斷場景中特征點的真實運動狀態(tài),如其在當前場景中處于靜止狀態(tài),則可將其確定為靜態(tài)特征點,從而增加參與位姿計算的特征點個數(shù)。 針對以上問題,本文提出一種雙重靜態(tài)點約束的方法進一步獲得特征點的真實運動狀態(tài),并對位姿進行二次優(yōu)化。

圖8(a)所示為幾何約束示意圖,O1和O2分別為前一幀I1和當前幀I2相機光學中心,P為空間中的某一點,其在I1、I2上的投影分別為P1、P2,P1、P2的歸一化像素坐標分別為X1=[u1,v1,1]、X2=[u2,v2,1],F(xiàn)為基礎矩陣,應該滿足:

圖8 幾何約束示意圖

若F矩陣的計算足夠準確,則P2在極線l2上,滿足式(13)約束條件。 設極線方程為Ax+By+C=0,P2到極線的距離為D,則此時滿足:

然而在實際情況中,有以下三種情況不能滿足以上約束:①由于特征提取和F矩陣估計的不確定性,P2可能不會準確地落在極線l2上,不能滿足極線約束。 ②空間點發(fā)生運動,如圖8(b)所示,相機由前一幀移動至當前幀位置時,P點運動到P',P'在當前幀I2的投影P'2不在極線l2上,不能滿足以上約束。 ③當特征點沿著相機光軸方向運動時,如圖8(c)所示,空間點P點運動到P',此時P'在當前幀I2的投影P'2仍然在極線l2上,滿足極線約束,但實際P點是動態(tài)點。 綜上所述,只使用極線幾何約束來確定動態(tài)點并不嚴謹,具有一定的局限性。 因此本文提出一種雙重靜態(tài)點約束方法準確確定動態(tài)點,為位姿估計篩選出良好的靜態(tài)點。

定義空間中3D 點S在關鍵幀K上的實際投影點為S1,在當前幀C中的投影點為S2(x1,y1),由當前幀C中與S1匹配得到的點為S'2(x2,y2),雙重靜態(tài)點約束方法如式(15)所示:

式中:T表示靜態(tài)點得分,D為S2到極線的距離,距離越接近0,說明投影點S2越有可能在當前幀的極線l2上,則該點是動態(tài)點的可能性越??;Δd為S2與S'2的歐氏距離,Δz為P點在當前幀的投影深度z1與實際深度z2的差值。λ和μ為權重,當距離D大于設定閾值τD時,取λ=1,μ=0,表示不需計算位置差與深度差便可確定動態(tài)點。 否則取λ=0,μ=1,若Δd大于閾值τd或Δz大于閾值τz時,則認為S點為動態(tài)點。 最后計算臨界點T的得分并設定臨界閾值τT,若T>τT,則確定S點為動態(tài)點。

3.4 二次位姿優(yōu)化

為了提升位姿估計的精度,使用雙重靜態(tài)點約束方法確定靜態(tài)點后,仍然使用最小化重投影誤差對位姿進行二次優(yōu)化,初始值設置為初步位姿估計值,參與優(yōu)化的特征點為初步靜態(tài)點集合Uk以及使用雙重靜態(tài)點約束方法篩選出的靜態(tài)點。

4 實驗結果與分析

本文仿真實驗平臺電腦配置為:Ubuntu18.04 版本Linux 操作系統(tǒng),Intel(R)Core(TM)i5-11400F@2.60 GHz,顯卡為RTX3060,16G 內存。 實驗所用的數(shù)據(jù)集均來自公開的TUM RGB-D 數(shù)據(jù)集。

4.1 潛在動態(tài)物體檢測實驗

圖9 所示為本文所提AFNET 與YOLOv5 的熱力圖效果對比,由圖可知,YOLOv5 未使用聚合注意力模塊,難以對外觀缺失行人形成有效聚焦。 本文所提聚合注意力模塊,對目標物體有所側重,改善了對目標區(qū)域的關注程度,提升了對目標物體的聚焦能力。

圖9 熱力圖對比實驗

在動態(tài)場景中,物體外觀缺失會造成目標檢測網絡發(fā)生漏檢測現(xiàn)象。 圖10 所示為本文算法和其他各種算法在物體外觀嚴重缺失和物體外觀輕微缺失狀態(tài)下的檢測結果對比。 由于YOLOv4 與YOLOv5 缺少對外觀缺失目標區(qū)域特征增強網絡層,導致在物體外觀缺失情況下易造成目標檢測失效。 與前兩種算法相比,AFNET 設計了聚合注意力模塊且進行了空間特征自適應融合,使AFNET 專注外觀缺失區(qū)域信息,同時抑制無用信息,從而提升對外觀缺失物體的目標檢測效果。

圖10 潛在動態(tài)物體檢測對比

表2 為AFNET 與不同算法性能對比表,采用全類平均精度mAP(交并比=0.5:0.95)、平均精度AP50(交并比=0.5)、AP75(交并比=0.75),COCO 數(shù)據(jù)集定義的小中大目標對應的mAP:APS(目標面積<322像素)、APM(322像素<目標面積<962像素)、APL(目標面積>962像素),作為模型精度的評價標準。 由表中數(shù)據(jù)可知,AFNET 算法mAP 與YOLOv4和YOLOv5 算法相比提高了12.2%、5.5%。

表2 AFNET 與不同算法的性能對比

4.2 動態(tài)點剔除實驗

圖11 所示為特征點提取消融實驗圖,矩形方框為本文輔助框。 由圖可知,雖然ORB-SLAM2 算法使用了BA 優(yōu)化算法,可將少量外點剔除,但在高動態(tài)場景下,ORB-SLAM2 算法明顯無法繼續(xù)剔除動態(tài)點。 圖11(b)中僅采用DBSCAN 算法將人身上的特征點進行聚類并標記為動態(tài)點,但難以區(qū)分物體的運動狀態(tài),如框中靜態(tài)物體上的特征點被標記為動態(tài)點。 圖11(c)僅采用雙重靜態(tài)點約束方法可以將物體的特征點正確歸類為靜態(tài)點和動態(tài)點,但僅使用該算法實時性不足。 本文算法結合語義信息,先使用DBSCAN 密度聚類區(qū)分動態(tài)點和靜態(tài)點,然后采用雙重靜態(tài)點約束進一步確定特征點的真實運動狀態(tài)。 因此本文算法能對潛在動態(tài)物體進行精準判斷并剔除動態(tài)物體,且將矩形框內在當前場景為靜態(tài)的特征點正確保留下來,不僅增加了參與位姿計算的特征點個數(shù),還避免了由于大量使用雙重靜態(tài)點約束導致系統(tǒng)實時性不足的問題。

圖11 特征點提取消融實驗

表3 所示為本文算法僅采用DBSCAN、本文算法僅采用雙重靜態(tài)點約束和本文算法在TUM 序列的絕對軌跡誤差(ATE)和時間對比。 由表中數(shù)據(jù)可知,由于DBSCAN 不能判斷物體的運動狀態(tài),所以ATE 較大,但該算法實時性較好,單幀平均處理時間17.04 ms。 僅采用雙重靜態(tài)點約束去除動態(tài)點ATE 較小,但是實時性不足,單幀處理時間大于60 ms。 本文算法由于先使用BDSCAN 初步區(qū)分動態(tài)點,再使用雙重靜態(tài)點約束進一步確定特征點的真實運動狀態(tài),不僅ATE 最小,實時性也較好。

表3 TUM 數(shù)據(jù)集下三種算法的結果對比

4.3 SLAM 系統(tǒng)評估

本文選取TUM 數(shù)據(jù)集中含有動態(tài)場景的fr3/w/half、fr3/w/static 和fr3/w/xyz 序列驗證本文算法的有效性。 圖12 所示為ORB-SLAM2、DS-SLAM、DynaSLAM 和本文算法在以上三種序列下生成的軌跡圖。 圖中ground truth 為相機真實軌跡,estimated為相機估計軌跡、difference 為軌跡誤差。 由圖可知,由于ORB-SLAM2 算法無法識別場景中的動態(tài)物體,所以建圖效果較差。 DS-SLAM 和DynaSLAM分別通過實例分割對動態(tài)點進行剔除,減小了動態(tài)物體對位姿軌跡的影響。 但無法在物體外觀缺失環(huán)境下準確識別潛在動態(tài)物體且難以對潛在動態(tài)物體運動狀態(tài)進行判斷,影響系統(tǒng)的定位精度。 本文算法由于融入了AFNET 目標檢測算法,能夠識別場景中外觀缺失的潛在動態(tài)物體,且采用基于雙重靜態(tài)點約束的位姿優(yōu)化進一步確定特征點的真實運動狀態(tài),并進行二次位姿優(yōu)化,進一步提升位姿估計的精度,減少動態(tài)物體對建圖的影響,生成的軌跡圖更接近真實軌跡。 因此本文算法軌跡誤差最小,展現(xiàn)出良好的構圖能力。

圖12 4 種不同算法軌跡對比

本文采用標準差(Standard Deviation,SD)和均方根誤差(Root Mean Square Error,RMSE)作為算法的評價標準。 其中均方根誤差(RMSE)表示估計值和真實值之間的偏差,誤差值越小代表算法所估計的軌跡越接近真實值。 而標準差(SD)表示算法所估計出來軌跡與真實軌跡的離散程度。 表4~表6分別為絕對軌跡誤差,相對平移誤差與相對旋轉誤差。 由表可知,本文算法由于融合AFNET 目標檢測網絡提高對外觀缺失物體檢測精度,并采用雙重靜態(tài)點約束消除了動態(tài)物體的影響。 本文算法絕對軌跡誤差與ORB-SAM2 和DS-SLAM 相比在fr3/w/rpy和fr3/w/static 分別減少 93. 08%、 18. 52%, 與DynaSLAM 算法相比除了fr3/w/rpy 序列增加5.4%外, 在 fr3/w/half 和 fr3/w/xyz 序列分別減少20.28%、10.98%,這是由于fr3/w/rpy 序列相機不斷進行旋轉運動,使得場景中不僅有動態(tài)物體,還有自身旋轉限制了算法的位姿估計精度。 此外,這四種算法的靜態(tài)序列fr2/xyz 表現(xiàn)十分接近。

表4 絕對軌跡誤差

表5 相對平移誤差

表6 相對旋轉誤差

表7 為ORB-SLAM2、DS-SLAM、DynaSLAM 和本文算法對單幀圖片處理時間的對比結果。 由表可知,ORB-SLAM2 單幀處理總時間最短。 DynaSLAM由于使用Mask-RCNN 實例分割網絡導致檢測時間較長,單幀總時間大于300ms,DS-SLAM 使用SegNet語義分割處理圖片實時性較好,但是單幀處理時間也在65ms 以上,本文算法由于使用AFNET 目標檢測網絡大大減少了語義線程檢測時間,單幀檢測時間僅需15.21 ms,同時雖然雙重靜態(tài)點約束由于增加了深度和位置判斷單幀處理時間與運動一致性判斷相比略微增加,但DBSCAN 每幀處理時間僅需要1.83 ms,因此本文算法單幀總時間僅需47.19 ms,即每秒可跟蹤21 幀,能夠滿足視覺SLAM 的實時性要求。

表7 單幀處理時間對比

4.4 真實場景測試

在真實場景中對本文算法的有效性進行驗證,實驗平臺為Husky 輪式移動機器人,其硬件配置為:CPU i7-10875H 處理器,內存8G,GPU 為GTX1080,操作系統(tǒng)為Ubuntu18.04。 圖13(a)、圖13(b)、圖13(c)所示分別為機器人硬件外觀、真實場景實驗環(huán)境和真實場景平面布局圖。 表8 為Husky 輪式機器人的主要參數(shù)設置。

表8 主要參數(shù)設置

圖13 實驗平臺及真實實驗環(huán)境場景

4.4.1 潛在動態(tài)物體檢測實驗

圖14 所示為移動機器人在運行過程中獲取的兩幀圖像,其中圖14(a)為物體外觀嚴重缺失下的目標檢測效果,圖14(b)為物體外觀輕微缺失下的目標檢測效果。 由圖可知,本文算法AFNET 在物體外觀嚴重和輕微缺失情況下對動態(tài)物體檢測準確,驗證了本文算法對潛在動態(tài)物體檢測的有效性。

圖14 目標檢測效果圖

4.4.2 動態(tài)點剔除實驗

圖15 所示為動態(tài)點剔除效果圖。 其中圖15(a)為物體外觀嚴重缺失下的動態(tài)點剔除效果,圖15(b)為物體外觀輕微缺失下的動態(tài)點剔除效果。 由圖可知,本文算法通過對潛在動態(tài)物體進行檢測,然后對動態(tài)點進行有效剔除,增加系統(tǒng)的魯棒性。

圖15 動態(tài)點剔除效果

4.4.3 軌跡地圖構建

圖16 為本文算法和ORB-SLAM2 算法在真實場景中的軌跡對比圖。 由圖可知,在動態(tài)場景中,本文算法的軌跡圖與ORB-SLAM2 算法相比更接近于真實軌跡。 本文算法由于加入AFNET 目標檢測算法檢測場景中的潛在動態(tài)物體,利用基于雙重靜態(tài)點約束的位姿優(yōu)化方法精確剔除動態(tài)點,并進行二次位姿優(yōu)化。 因此本文算法在動態(tài)場景下魯棒性較好。

圖16 兩種算法軌跡對比

5 結論

為提高移動機器人在動態(tài)場景中的定位精度,本文提出一種動態(tài)場景下基于注意力機制與幾何約束的VSLAM 算法,該算法具有以下優(yōu)點。 ①針對YOLOv5 目標檢測網絡易出現(xiàn)動態(tài)物體檢測不完整的問題,提出一種聚合注意力自適應特征融合的目標檢測網絡AFNET,提高對物體的檢測能力,減少漏檢測。 ②提出一種雙重靜態(tài)點約束的方法解決潛在動態(tài)點的剔除問題,為位姿估計提供高質量的靜態(tài)點,提升了系統(tǒng)的精度。 在公開的TUM 數(shù)據(jù)集和真實場景下對本文算法進行了豐富的對比實驗,結果表明本文算法與ORB-SLAM2、DS-SLAM 和DynaSLAM 相比在定位精度方面具有較大優(yōu)勢,并體現(xiàn)出了良好的構圖能力。 下一步將在本文基礎上,融合慣性測量單元(IMU)數(shù)據(jù),為低紋理環(huán)境下的相機位姿求解添加約束項,進一步提升算法精度和魯棒性。

猜你喜歡
位姿靜態(tài)注意力
讓注意力“飛”回來
靜態(tài)隨機存儲器在軌自檢算法
“揚眼”APP:讓注意力“變現(xiàn)”
傳媒評論(2017年3期)2017-06-13 09:18:10
基于共面直線迭代加權最小二乘的相機位姿估計
基于CAD模型的單目六自由度位姿測量
A Beautiful Way Of Looking At Things
小型四旋翼飛行器位姿建模及其仿真
機床靜態(tài)及動態(tài)分析
機電信息(2015年9期)2015-02-27 15:55:56
具7μA靜態(tài)電流的2A、70V SEPIC/升壓型DC/DC轉換器
基于幾何特征的快速位姿識別算法研究
睢宁县| 牟定县| 镇赉县| 论坛| 大渡口区| 社旗县| 凉城县| 唐河县| 星座| 鹤峰县| 封开县| 井研县| 黔西县| 浪卡子县| 和政县| 五家渠市| 古浪县| 固安县| 大石桥市| 南汇区| 河曲县| 永州市| 平陆县| 九寨沟县| 灵宝市| 长宁县| 固镇县| 山丹县| 新乡市| 武邑县| 利川市| 桃园县| 周宁县| 永川市| 哈密市| 调兵山市| 延津县| 台前县| 宁海县| 锡林郭勒盟| 惠东县|