国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種基于改進(jìn)ORB的視覺(jué)SLAM圖像匹配算法

2016-02-11 01:47:27林輝燦馬建業(yè)
關(guān)鍵詞:特征描述適應(yīng)性算子

張 洋, 呂 強(qiáng), 林輝燦, 馬建業(yè)

(裝甲兵工程學(xué)院控制工程系, 北京 100072)

一種基于改進(jìn)ORB的視覺(jué)SLAM圖像匹配算法

張 洋, 呂 強(qiáng), 林輝燦, 馬建業(yè)

(裝甲兵工程學(xué)院控制工程系, 北京 100072)

針對(duì)傳統(tǒng)尺度不變特征變換(Scale Invariant Feature Transformation,SIFT)和加速魯棒特征(Speed-Up Robust Feature,SURF)算法在視覺(jué)同步定位與建圖(Simultaneous Localization And Mapping,SLAM)系統(tǒng)中耗時(shí)嚴(yán)重的問(wèn)題,基于ORB(ORiented BRIEF(Binary Robust Independent Elementary Features))算法提出了一種改進(jìn)的圖像匹配算法。針對(duì)FAST(Features from Accelerated Segment Test)特征檢測(cè)算子易受圖像模糊和距離變化影響的缺點(diǎn),建立了多尺度空間金字塔;針對(duì)BRIEF特征描述算子效率不高的問(wèn)題,采用精簡(jiǎn)后的快速視網(wǎng)膜特征描述算子構(gòu)建了特征向量;通過(guò)最鄰近的交叉匹配對(duì)特征向量進(jìn)行了提純,采用順序采樣一致性算法剔除了錯(cuò)誤匹配對(duì)。最后,通過(guò)與SIFT、SURF和ORB算法進(jìn)行對(duì)比驗(yàn)證了改進(jìn)算法的有效性。

視覺(jué)SLAM;FAST; 特征點(diǎn)檢測(cè); 特征匹配

視覺(jué)同步定位與建圖(Simultaneous Localization And Mapping,SLAM)采用獲取到的圖像作為唯一的外部信息以估計(jì)機(jī)器人、相機(jī)的運(yùn)動(dòng),同時(shí)構(gòu)建環(huán)境地圖。而視覺(jué)SLAM圖像匹配算法又是地圖探測(cè)、位姿調(diào)整過(guò)程中的核心問(wèn)題,其主要分為基于區(qū)域的方法和基于特征的方法[1]。由于基于特征的方法對(duì)噪聲、旋轉(zhuǎn)、尺度變換、光照以及灰度變化等外界干擾具有更好的魯棒性[2],因此獲得越來(lái)越廣泛的研究和應(yīng)用。Lowe[3]提出了尺度不變特征變換(Scale Invariant Feature Transformation,SIFT)特征檢測(cè)算法,在圖像進(jìn)行不同尺度縮放時(shí)檢測(cè)特征,實(shí)現(xiàn)了特征檢測(cè)對(duì)尺度變化的適應(yīng)性;Bay等[4]提出的加速魯棒特征(Speed-Up Robust Feature,SURF)在SIFT的基礎(chǔ)上運(yùn)用harr圖像進(jìn)行積分求導(dǎo),采用不同尺度的箱體濾波器與圖像卷積,大大降低了計(jì)算消耗,提高了魯棒性和計(jì)算速度。但是,SIFT和SURF特征匹配算法均難以滿足對(duì)實(shí)時(shí)性要求高的應(yīng)用場(chǎng)景需要。Rublee等[5]提出了ORB(Oriented BRIEF(Binary Robust Independent Elementary Features))特征匹配算法,計(jì)算速度比SIFT、SURF算法提高了1~2個(gè)數(shù)量級(jí)。

ORB算法是建立在FAST(Features from AcceleratedSegment Test)特征檢測(cè)算子[6]和BRIEF特征描述算子[7]基礎(chǔ)之上的特征匹配算法,近年來(lái)廣泛應(yīng)用于對(duì)實(shí)時(shí)性要求高的視覺(jué)SLAM系統(tǒng)中[8]。其特征描述算子采用了基于像素點(diǎn)灰度值比較的方法,通過(guò)得到的二進(jìn)制位串來(lái)描述特征,比SIFT和SURF算法采用浮點(diǎn)運(yùn)算的局部特征描述算子具有更高的實(shí)時(shí)性。然而,由于ORB算法中FAST特征檢測(cè)算子缺乏對(duì)尺度變化的適應(yīng)性,當(dāng)待進(jìn)行特征檢測(cè)的圖像尺度發(fā)生變化時(shí),檢測(cè)效果會(huì)下降;另外,BRIEF特征描述算子在建立特征描述向量時(shí)效率也不高。因此,筆者基于ORB算法提出一種改進(jìn)的視覺(jué)SLAM圖像匹配算法,并通過(guò)與SIFT、SURF和ORB算法進(jìn)行對(duì)比來(lái)驗(yàn)證該算法的有效性。

1 ORB圖像特征匹配算法

1.1 FAST特征檢測(cè)算子

FAST角點(diǎn)定義為:若圖像中某像素點(diǎn)灰度值比其周圍鄰域內(nèi)足夠多的像素點(diǎn)灰度值大或小,則將該像素點(diǎn)判定為候選特征點(diǎn)[6]。圖1為FAST特征點(diǎn)檢測(cè)示意圖,具體方法如下:

圖1 FAST特征點(diǎn)檢測(cè)示意圖

1)從圖中選取一個(gè)像素點(diǎn)P,其灰度值設(shè)為IP;

2)設(shè)定一個(gè)合適的閾值t;

3)考慮以P點(diǎn)為中心、半徑為3像素的離散化Bresenham圓,其邊界上有16個(gè)像素點(diǎn);

4)如果在該圓上有12個(gè)連續(xù)像素點(diǎn)灰度值都比IP+t大或IP-t小,則判定P點(diǎn)為一個(gè)特征點(diǎn);

5)為加速判定過(guò)程,先計(jì)算序號(hào)為1、5、9、13的4個(gè)像素點(diǎn),其中至少要有3個(gè)滿足閾值條件,才進(jìn)一步檢測(cè)圓上其他像素點(diǎn),否則丟棄P點(diǎn)。

據(jù)此,建立一個(gè)特征點(diǎn)的判定函數(shù):

(1)

(2)

式中:Ix為圓周上任一點(diǎn)x處像素點(diǎn)灰度值;S為所有圓周點(diǎn)與點(diǎn)x特征點(diǎn)判定函數(shù)值的和,當(dāng)S=12時(shí),F(xiàn)AST算法檢測(cè)到的特征點(diǎn)結(jié)果最準(zhǔn)確。

為了使特征點(diǎn)適應(yīng)旋轉(zhuǎn)變化,ORB算法通過(guò)強(qiáng)度中心方法為FAST特征點(diǎn)增加一個(gè)主方向,使其成為具有方向的FAST特征點(diǎn)(oriented FAST,oFAST):首先在特征點(diǎn)的局部圖塊區(qū)域中確定出強(qiáng)度中心;然后從特征點(diǎn)P到強(qiáng)度中心構(gòu)建一個(gè)方向向量。局部圖塊區(qū)域的p+q階幾何矩為

(3)

式中:I(x,y)為點(diǎn)(x,y)處的灰度值。

點(diǎn)(x,y)在半徑為r的圓形圖塊區(qū)域中,得到圖塊區(qū)域的強(qiáng)度中心為

C=(m10/m00,m01/m00),

(4)

式中:m00為零階矩;m01、m10為一階矩。

于是,特征點(diǎn)與強(qiáng)度中心之間的夾角θ定義為FAST特征點(diǎn)的主方向:

θ=atan2(m01,m10)。

(5)

式中:atan2表示四象限的反正切函數(shù)。

1.2 BRIEF特征描述算子

BRIEF用于對(duì)已檢測(cè)到的特征點(diǎn)進(jìn)行描述,它是一種二進(jìn)制編碼的描述算子。BRIEF算法從以FAST檢測(cè)出的特征點(diǎn)為中心的圖塊區(qū)域內(nèi)任意選擇2個(gè)像素點(diǎn)a、b作為一對(duì),利用高斯分布采樣方式隨機(jī)選取k組點(diǎn)對(duì),通常令k=256,并對(duì)每個(gè)點(diǎn)對(duì)的像素灰度值進(jìn)行二值化比較,每個(gè)比較結(jié)果按位存儲(chǔ),得到一個(gè)k位的二進(jìn)制位串(即BRIEF特征描述算子)。對(duì)一個(gè)經(jīng)過(guò)高斯平滑過(guò)的圖像塊B定義一個(gè)二值比較函數(shù)τ:

(6)

式中:p(a)、p(b) 分別為隨機(jī)點(diǎn)a、b的像素灰度值。

對(duì)選取的k對(duì)隨機(jī)點(diǎn)重復(fù)式(6)的步驟,得到一個(gè)二進(jìn)制編碼位串:

(7)

然而,得到的BRIEF特征描述算子對(duì)噪聲敏感且對(duì)圖像的旋轉(zhuǎn)適應(yīng)能力不強(qiáng)。為了增加ORB算法抗噪能力和對(duì)圖像旋轉(zhuǎn)變化的適應(yīng)性,采用積分圖的方法對(duì)特征點(diǎn)周圍31×31像素區(qū)域中隨機(jī)選取的5×5像素子區(qū)域求取像素灰度值的和,采用比較子區(qū)域像素灰度值之和的方法來(lái)代替比較像素點(diǎn)對(duì)灰度值的方法。

1.3 特征點(diǎn)匹配

經(jīng)過(guò)BRIEF特征描述算法處理后,每幅圖中的每一個(gè)特征點(diǎn)都得到了一個(gè)256位的二進(jìn)制位串。每2幅圖像之間的配準(zhǔn)通過(guò)計(jì)算目標(biāo)圖像與匹配圖像所有特征點(diǎn)的特征向量間的Hamming距離D(Vp1i,Vp2j)來(lái)完成,其中:Vp1i為目標(biāo)圖像中特征點(diǎn)p1i的特征向量;Vp2j為匹配圖像中特征點(diǎn)p2j的特征向量。2幅圖像中特征向量對(duì)應(yīng)位上相同元素個(gè)數(shù)最多的特征點(diǎn)構(gòu)成匹配對(duì)。

2 多尺度空間檢測(cè)的改進(jìn)匹配算法

根據(jù)以上分析發(fā)現(xiàn):1)FAST特征檢測(cè)算子解決了旋轉(zhuǎn)變化適應(yīng)性,但不具備尺度變化適應(yīng)性,這將會(huì)導(dǎo)致圖像尺度發(fā)生變化時(shí)特征點(diǎn)匹配率降低;2)BRIEF特征描述算子在特征點(diǎn)鄰域內(nèi)采用隨機(jī)選取點(diǎn)對(duì)構(gòu)成特征描述向量,這種描述特征的采樣點(diǎn)對(duì)效率不高;3)特征向量匹配無(wú)法去除非同一區(qū)域的錯(cuò)誤匹配。針對(duì)以上問(wèn)題,筆者提出了多尺度空間檢測(cè)的改進(jìn)匹配算法。

2.1 建立多尺度空間金字塔算子

筆者通過(guò)采用高斯金字塔[3]對(duì)oFAST檢測(cè)算法加入尺度信息進(jìn)行改進(jìn)。多尺度空間金字塔的建立過(guò)程如下:

構(gòu)造n個(gè)外層(ci)和n個(gè)內(nèi)層(di),i=0,1,…,n-1,一般地令n=4。假設(shè)有圖像Img,c0層為Img原圖像,ci層為ci-1層的2倍降采樣;d0層為Img的1.5倍降采樣,di層為di-1層的2倍降采樣。因此ci、di層以及原始圖像的尺度關(guān)系為

s(di)=1.5×s(ci)=1.5×2i。

(8)

首先利用式(1)、(2)對(duì)每層圖像進(jìn)行FAST檢測(cè),判斷出候選特征點(diǎn);然后對(duì)每層圖像進(jìn)行空間上的非極大值抑制。候選特征點(diǎn)及其鄰域點(diǎn)如圖2所示,候選特征點(diǎn)一維鄰域(該層8個(gè)鄰域點(diǎn))和三維鄰域(上、下層共18個(gè)鄰域點(diǎn))共26個(gè)鄰域點(diǎn)的FAST得分值應(yīng)最大,否則不能當(dāng)作候選特征點(diǎn)。在本層以及上、下2層鄰域?qū)蜻x特征點(diǎn)進(jìn)行極值檢測(cè),最后通過(guò)式(3)-(5)賦予特征點(diǎn)主方向。

圖2 候選特征點(diǎn)及其鄰域點(diǎn)

多尺度空間金字塔不對(duì)每層圖像采用高斯核進(jìn)行模糊處理,僅對(duì)原圖像進(jìn)行降采樣,然后在特征點(diǎn)的鄰域檢測(cè)極值,因而其檢測(cè)速率比在原始的差分高斯金字塔下進(jìn)行特征檢測(cè)要快。通過(guò)在多尺度空間金字塔下進(jìn)行特征檢測(cè),不僅保留了oFAST檢測(cè)算法對(duì)旋轉(zhuǎn)和光照變化的適應(yīng)性,而且由于增加了對(duì)尺度變化的適應(yīng)性,檢測(cè)到的特征點(diǎn)更加穩(wěn)定。

2.2 改進(jìn)視網(wǎng)膜特征點(diǎn)描述算子

視網(wǎng)膜特征點(diǎn)描述算子[9]是一種通過(guò)模擬人眼視覺(jué)神經(jīng)元感受視景的方式來(lái)獲取特征點(diǎn)信息的描述算子,其具備對(duì)旋轉(zhuǎn)、光照和仿射變化的適應(yīng)性。筆者對(duì)FAST算子建立多尺度空間后,通過(guò)模仿人眼視網(wǎng)膜的成像特點(diǎn)來(lái)選取點(diǎn)對(duì)描述特征點(diǎn),采取接收?qǐng)D像信息更接近于人眼視網(wǎng)膜的采樣模型,縮短了構(gòu)建描述算子的過(guò)程,并且使其具有在特征點(diǎn)周圍集中采樣的性質(zhì)。傳統(tǒng)的視網(wǎng)膜特征點(diǎn)描述算子由8層43個(gè)采樣點(diǎn)構(gòu)成,如圖3所示。

精簡(jiǎn)后的模型為6層結(jié)構(gòu),包含31個(gè)采樣點(diǎn),如圖4所示。該模型展示了人眼視網(wǎng)膜拓?fù)浣Y(jié)構(gòu),F(xiàn)ovea區(qū)域主要對(duì)特征點(diǎn)附近高精度的圖像信息進(jìn)行處理;Para和Peri區(qū)域主要對(duì)周圍低精度的圖像信息進(jìn)行處理。該模型是由很多大小不同且有重疊的圓構(gòu)成,中心點(diǎn)是特征點(diǎn),采樣點(diǎn)均勻分布于以特征點(diǎn)為圓心的同心圓上,靠近中心點(diǎn)的采樣點(diǎn)更密集,離中心點(diǎn)越遠(yuǎn),采樣點(diǎn)越稀疏。

圖3 視網(wǎng)膜特征點(diǎn)采樣模型

圖4 精簡(jiǎn)后的采樣模型

在采樣模型中采樣點(diǎn)為6、6、6、6、6、1,其中1為中心的特征點(diǎn)。經(jīng)過(guò)多尺度oFAST特征點(diǎn)檢測(cè)后,利用精簡(jiǎn)后的視網(wǎng)膜采樣模型構(gòu)建特征點(diǎn)描述算子:

(9)

(10)

為了讓生成的特征點(diǎn)描述算子更具有辨識(shí)度,筆者對(duì)特征點(diǎn)描述算子D進(jìn)行維度處理,具體如下:

2)對(duì)矩陣M每一列計(jì)算均值,由于M的元素由0和1構(gòu)成,均值越接近0.5,說(shuō)明該列方差越大,對(duì)所有列按照方差從高到低進(jìn)行排序;

3)為了便于計(jì)算,選取前256列作為最終的特征點(diǎn)描述算子。

經(jīng)過(guò)以上維度處理和各列方差排序后發(fā)現(xiàn):低維度的高方差列由特征點(diǎn)描述算子外側(cè)的采樣區(qū)域獲得;高維度的低方差列由特征點(diǎn)描述算子中心的采樣區(qū)域獲得。而高方差代表模糊信息,低方差代表細(xì)節(jié)信息,與人眼視網(wǎng)膜相似,人眼先處理模糊信息,再處理細(xì)節(jié)信息,由此可知:描述算子外側(cè)區(qū)能夠獲得目標(biāo)的輪廓信息;描述算子中心區(qū)能夠獲得目標(biāo)的高精度信息。

視網(wǎng)膜描述算子自身的圓形對(duì)稱采樣結(jié)構(gòu)使其具有對(duì)旋轉(zhuǎn)變化的適應(yīng)性;采樣點(diǎn)的位置和半徑隨著尺度的變化使其具有對(duì)尺度變化的適應(yīng)性;采樣點(diǎn)的像素強(qiáng)度對(duì)比使其具有對(duì)光照變化的適應(yīng)性。因此,所構(gòu)造的二進(jìn)制特征點(diǎn)描述算子能夠很好地進(jìn)行特征匹配。

2.3 特征描述向量的分級(jí)匹配

所構(gòu)建的精簡(jiǎn)視網(wǎng)膜特征描述向量是256位的二進(jìn)制位串,對(duì)2幅圖像特征點(diǎn)的特征描述向量間進(jìn)行Hamming距離D(Vp1i,Vp2j)的計(jì)算,設(shè)置一個(gè)判斷匹配點(diǎn)是否為內(nèi)點(diǎn)(符合匹配條件的匹配點(diǎn))的誤差閾值ε,當(dāng)D(Vp1i,Vp2j)<ε時(shí),它們被認(rèn)為是一組匹配的特征點(diǎn)。ε需要合理設(shè)置,太大會(huì)造成誤匹配增加,太小可能無(wú)法得到匹配結(jié)果,ε值最終由實(shí)驗(yàn)確定。由于特征矩陣M的列按照方差從高到低排序,因此可以先把M的列分為維度相等的2級(jí),再進(jìn)行匹配比較。先對(duì)描述算子的前128位進(jìn)行第1級(jí)匹配,計(jì)算其Hamming距離,如果距離小于閾值ε,則繼續(xù)對(duì)后128位進(jìn)行第2級(jí)匹配;如果距離大于閾值ε,則認(rèn)為是錯(cuò)誤匹配。這種分級(jí)匹配的方法可以通過(guò)前128位的匹配篩除掉90%的錯(cuò)誤匹配,加速了匹配過(guò)程。

2.4 剔除錯(cuò)誤匹配點(diǎn)對(duì)

特征描述向量經(jīng)過(guò)分級(jí)匹配之后仍會(huì)存在錯(cuò)誤匹配,為此,筆者對(duì)特征點(diǎn)的特征描述向量進(jìn)行基于Hamming距離的2-NN交叉匹配,以剔除2幅圖像中不在同一區(qū)域的錯(cuò)誤匹配點(diǎn)對(duì)。經(jīng)過(guò)交叉匹配后,對(duì)匹配點(diǎn)對(duì)的質(zhì)量進(jìn)行打分,按照得分進(jìn)行排序,選取最小采樣子集,采用順序采樣一致性(PROgressive SAmple Consensus, PROSAC)算法[10]取代傳統(tǒng)的隨機(jī)采樣一致性(RANdom SAmple Consensus,RANSAC)算法進(jìn)行一致性模型參數(shù)估計(jì),能夠更快地找到近似的模型參數(shù)。

借鑒K最鄰近(K-Nearest Neighbor,KNN)算法[11]的思想,在匹配圖像中剔除掉非同一區(qū)域的匹配點(diǎn)對(duì),為了減少運(yùn)算耗時(shí),這里取2個(gè)最近鄰特征點(diǎn)進(jìn)行比較。

在剔除非同一區(qū)域的匹配點(diǎn)對(duì)之后,對(duì)匹配點(diǎn)對(duì)比值進(jìn)行排序,通過(guò)PROSAC算法對(duì)模型參數(shù)進(jìn)行迭代估計(jì)。經(jīng)過(guò)2-NN交叉匹配之后,根據(jù)匹配點(diǎn)對(duì)的比值對(duì)模型參數(shù)進(jìn)行估計(jì),這樣最有可能得到最佳參數(shù)的采樣會(huì)較早出現(xiàn),提高了估計(jì)速度。待匹配圖像點(diǎn)對(duì)(xi,yi)T和(mi,ni)T間的模型為

(11)

其中:A為旋轉(zhuǎn)矩陣;T為平移矩陣。由于變換矩陣包含α、tm和tn三個(gè)參數(shù),因此至少需要3組匹配點(diǎn)對(duì)來(lái)估計(jì)模型參數(shù)。

剔除錯(cuò)誤匹配點(diǎn)對(duì)的具體步驟如下:

2)反復(fù)進(jìn)行迭代,統(tǒng)計(jì)每組參數(shù)返回匹配點(diǎn)對(duì)數(shù)量最多的模型參數(shù)值。

3)迭代到最大次數(shù)后,返回匹配點(diǎn)對(duì)數(shù)量最多的變換矩陣模型參數(shù)。

3 實(shí)驗(yàn)結(jié)果及分析

對(duì)本文改進(jìn)算法與SIFT、SURF和ORB算法進(jìn)行比較,通過(guò)旋轉(zhuǎn)變換、尺度變換、模糊變換、光照變換和仿射變換多種環(huán)境的變化評(píng)估算法性能,并對(duì)改進(jìn)算法的整體實(shí)時(shí)性進(jìn)行檢驗(yàn)。

3.1 實(shí)驗(yàn)方法

采用VS2010和OpenCV作為評(píng)估平臺(tái),計(jì)算機(jī)為Win7操作系統(tǒng),Intel酷睿i5雙核M480處理器,不使用GPU進(jìn)行并行處理。實(shí)驗(yàn)圖像來(lái)自文獻(xiàn)[12]中Mikolajczyk和Schmid的數(shù)據(jù)集,其中:graffiti圖像組用于測(cè)試仿射變化適應(yīng)性、特征點(diǎn)檢測(cè)數(shù)量和特征檢測(cè)時(shí)間;boat圖像組用于測(cè)試尺度和旋轉(zhuǎn)變化適應(yīng)性;bike圖像組用于測(cè)試模糊變化適應(yīng)性;Leuven圖像組用于測(cè)試光照變化適應(yīng)性。注:在以下各圖中,a、b、c、d圖像分別對(duì)應(yīng)本文改進(jìn)算法、ORB算法、SIFT算法和SURF算法;所有待匹配圖像特征點(diǎn)與其最鄰近點(diǎn)、次鄰近點(diǎn)Hamming距離比值的閾值設(shè)置為0.55;本文改進(jìn)算法中特征點(diǎn)檢測(cè)數(shù)量的閾值設(shè)置為50。

3.2 結(jié)果分析

3.2.1 特征點(diǎn)檢測(cè)對(duì)比

特征點(diǎn)檢測(cè)對(duì)比的實(shí)驗(yàn)評(píng)估選取graffiti圖像組第1、2幅圖像,如圖5所示,對(duì)比分析本文改進(jìn)算法與ORB、SIFT以及SURF檢測(cè)算法的平均特征點(diǎn)數(shù)量和平均檢測(cè)時(shí)間,結(jié)果如表1所示。

圖5 graffiti圖像組

表1 檢測(cè)算法平均特征點(diǎn)數(shù)量和平均檢測(cè)時(shí)間

從表1中可以看出:各個(gè)算法檢測(cè)的平均特征點(diǎn)數(shù)量關(guān)系為SIFT>本文改進(jìn)算法>SURF>ORB,各個(gè)算法的特征點(diǎn)檢測(cè)速度關(guān)系為本文改進(jìn)算法>ORB>SURF>SIFT;雖然SIFT算法檢測(cè)的平均特征點(diǎn)數(shù)量最多,但是耗時(shí)也最長(zhǎng),達(dá)到了1 698ms;本文改進(jìn)算法耗時(shí)最短,比ORB算法快了7倍左右,并且本文改進(jìn)算法檢測(cè)的平均特征點(diǎn)數(shù)量?jī)H次于SIFT算法。

3.2.2 仿射變化適應(yīng)性對(duì)比

graffiti圖像組的每個(gè)圖像具有不同的視角,選取其中的第1、2幅圖像,如圖5所示,對(duì)本文改進(jìn)算法與ORB、SIFT和SURF算法的仿射變化適應(yīng)性進(jìn)行對(duì)比分析,結(jié)果如表2所示??梢钥闯觯罕疚母倪M(jìn)算法對(duì)仿射變換圖像的匹配率為80%,高于SURF和ORB算法,但是低于SIFT算法。

表2 仿射變化適應(yīng)性對(duì)比

3.2.3 尺度和旋轉(zhuǎn)變化適應(yīng)性對(duì)比

boat圖像組的每個(gè)圖像具有不同的尺度和旋轉(zhuǎn)變換,選取其中的第1、2幅圖像,如圖6所示,對(duì)本文改進(jìn)算法與ORB、SIFT和SURF算法的尺度和旋轉(zhuǎn)變化適應(yīng)性進(jìn)行對(duì)比分析,結(jié)果如表3所示??梢钥闯觯罕疚母倪M(jìn)算法的匹配率為80%,高于SURF和ORB算法,但是低于SIFT算法。

表3 尺度和旋轉(zhuǎn)變化適應(yīng)性對(duì)比

3.2.4 模糊變化適應(yīng)性對(duì)比

bike圖像組的每個(gè)圖像具有不同的模糊程度,選取其中的第1、2幅圖像,如圖7所示,對(duì)本文改進(jìn)算法與ORB、SIFT和SURF算法的模糊變化適應(yīng)性進(jìn)行對(duì)比分析,結(jié)果如表4所示??梢钥闯觯罕疚母倪M(jìn)算法的匹配率為93%,高于SURF和ORB算法,與SIFT算法相同。

圖7 bike圖像組

表4 模糊變化適應(yīng)性對(duì)比

3.2.5 光照變化適應(yīng)性對(duì)比

Leuven圖像組的每個(gè)圖像具有不同的光照強(qiáng)度,選取其中的第1、6幅圖像,如圖8所示,對(duì)本文改進(jìn)算法與ORB、SIFT和SURF算法的光照變化適應(yīng)性進(jìn)行對(duì)比分析,結(jié)果如表5所示??梢钥闯觯罕疚母倪M(jìn)算法的匹配率為89%,高于其他3種算法。

圖8 Leuven圖像組

表5 光照變化適應(yīng)性對(duì)比

3.2.6 實(shí)時(shí)性分析

如果圖像匹配算法耗時(shí)嚴(yán)重,則會(huì)對(duì)視覺(jué)SLAM系統(tǒng)的實(shí)時(shí)性影響較大,為評(píng)估本文改進(jìn)算法與ORB、SIFT和SURF算法的實(shí)時(shí)性,選取graffiti圖像組第1、2幅圖像(圖5)進(jìn)行統(tǒng)計(jì)分析,實(shí)時(shí)性對(duì)比結(jié)果如表6所示??梢钥闯觯篠IFT和SURF算法耗時(shí)嚴(yán)重,而ORB算法與本文改進(jìn)算法的實(shí)時(shí)性相近,略差于本文改進(jìn)算法。

表6 實(shí)時(shí)性對(duì)比 ms

4 結(jié)論

針對(duì)視覺(jué)SLAM系統(tǒng)中圖像匹配性能和實(shí)時(shí)性要求高的問(wèn)題,筆者基于ORB提出了一種改進(jìn)的視覺(jué)SLAM圖像匹配算法。該算法不但繼承了ORB算法特征檢測(cè)的高效率,增加了對(duì)尺度變化的適應(yīng)性,而且在特征描述階段能夠更快速、準(zhǔn)確地對(duì)特征點(diǎn)進(jìn)行描述。通過(guò)實(shí)驗(yàn)表明:該算法具備很強(qiáng)的實(shí)時(shí)性,與原始ORB算法相比,其對(duì)圖像在尺度、模糊、光照等條件變化的適應(yīng)性均增強(qiáng),特征點(diǎn)檢測(cè)效率較高,能夠快速、準(zhǔn)確地實(shí)現(xiàn)圖像匹配。

[1]Zitova B,Flusser J.Image Registration Methods:A Survey[J].Image and Vision Computing,2003,21(11):977-1000.

[2]Park C H,Kim N H.Precise and Reliable Positioning Based on the Integration of Navigation Satellite System and Vision System[J].International Journal of Automotive Technology,2014,15(1):79-87.

[3]Lowe D G.Object Recognition from Local Scale-invariant Features[EB/OL].(1999-09-20)[2016-03-09].http:∥www.cs.cmu.edu/~efros/courses/AP06/Papers/lowe-iccv-99.pdf

[4]Bay H,Tuytelaars T,Van Gool L.SURF:Speeded up Robust Features[J].Computer Vision&Image Understanding,2006,110(3):404-417.

[5]Rublee E,Rabaud V,Konolige K,et al.ORB:An Efficient Alternative to SIFT or SURF[EB/OL].(2011-11-06)[2016-03-09].http:∥www.cs.ubc.ca/~lowe/papers/iccv99.pdf[6]Rosten E,Porter R,Drummond T.Faster and Better:A Machine Learning Approach to Corner Detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32(1):105-119.

[7]Calonder M,Lepetit V,Strecha C,et al.Brief:Binary Robust Independent Elementary Features[EB/OL].(2010-09-05)[2016-03-09].http:∥vision.stanford.edu/teaching/cs231b_spring1415/papers/BRIEF.pdf

[8]Mur-Artal R,Montiel J M M,Tardos J D.ORB-SLAM:A Versatile and Accurate Monocular SLAM System[J].IEEE Transactions on Robotics,2015,31(5):1147-1163.

[9]Vandergheynst P,Ortiz R,Alahi A.FREAK:Fast Retina Keypoint[EB/OL].(2012-06-16)[2016-03-09].https:∥infoscience.epfl.ch/record/175537/files/2069.pdf

[10]Chum O,Matas J.Matching with PROSAC:Progressive Sample Consensus[EB/OL].(2005-06-20)[2016-03-09].http:∥perso.telecom-paristech.fr/~sahbi/chum-prosac-cvpr05.pdf

[11]Muja M.Fast Approximate Nearest Neighbors with Automatic Algorithm Configuration[EB/OL].(2009-02-05)[2016-03-09].http:∥www.ee.oulu.fi/research/imag/courses/Vedaldi/09muja.pdf

[12]Mikolajczyk K,Tuytelaars T,Schmid C,et al.A Comparison of Affine Region Detectors[J].International Journal of Computer Vision,2005,65(1/2):43-72.

(責(zé)任編輯: 尚彩娟)

An Improved Image Matching Algorithm Based on ORB for Visual SLAM

ZHANG Yang, Lü Qiang, LIN Hui-can, MA Jian-ye

(Department of Control Engineering, Academy of Armored Force Engineering, Beijing 100072, China)

To solve the long time-consuming problem of traditional feature matching algorithms based on SIFT(Scale Invariant Feature Transformation) and SURF (Speed-Up Robust Feature) in visual SLAM (Simultaneous Localization And Mapping) system, an improved image matching algorithm is proposed based on ORB (ORiented BRIEF (Binary Robust Independent Elementary Features) ). Firstly, a multi-scale space pyramid is constructed in accordance with the defect that the FAST (Features from Accelerated Segment Test) detectors are susceptible to image blurring and distance variance. Secondly, the feature vectors are built by the refined fast retina key point descriptors for inefficiency of BRIEF descriptors. Finally, the feature vectors are purified by the nearest cross matching pairs and the false matching pairs are eliminated by using progressive sample consensus algorithm. The validity of the proposed algorithm is verified by comparing with SIFT, SURF and ORB algorithms.

visual SLAM; FAST; feature points detection; feature matching

2016-03-09

張 洋(1987-),男,博士研究生。

TN911.73

:ADOI:10.3969/j.issn.1672-1497.2016.06.016

1672-1497(2016)06-0082-07

猜你喜歡
特征描述適應(yīng)性算子
谷子引種適應(yīng)性鑒定與篩選初報(bào)
船舶尾流圖像的數(shù)字化處理和特征描述技術(shù)
擬微分算子在Hp(ω)上的有界性
各向異性次Laplace算子和擬p-次Laplace算子的Picone恒等式及其應(yīng)用
健全現(xiàn)代金融體系的適應(yīng)性之“點(diǎn)論”
一類Markov模算子半群與相應(yīng)的算子值Dirichlet型刻畫
目標(biāo)魯棒識(shí)別的抗旋轉(zhuǎn)HDO 局部特征描述
用于三維點(diǎn)云表示的擴(kuò)展點(diǎn)特征直方圖算法*
Roper-Suffridge延拓算子與Loewner鏈
大型飛機(jī)A380-800在既有跑道起降的適應(yīng)性研究
湘潭市| 博兴县| 阳东县| 堆龙德庆县| 丰县| 秦安县| 冷水江市| 徐州市| 顺义区| 将乐县| 班玛县| 呼伦贝尔市| 广汉市| 天祝| 盐山县| 苏尼特左旗| 禹城市| 湘潭市| 新田县| 广西| 陇川县| 岑巩县| 遂溪县| 鸡西市| 禄劝| 黄梅县| 方山县| 喀喇| 阳朔县| 淮北市| 奈曼旗| 钟山县| 扬中市| 蒙自县| 将乐县| 尼勒克县| 临清市| 云南省| 普宁市| 合山市| 滨州市|