李 慧,藺啟忠,劉慶杰
(1.中國(guó)科學(xué)院對(duì)地觀測(cè)與數(shù)字地球科學(xué)中心,北京 100094;2.中國(guó)科學(xué)院數(shù)字地球科學(xué)重點(diǎn)實(shí)驗(yàn)室,北京 100094;3.中國(guó)科學(xué)院研究生院,北京 100049)
基于FAST和SURF的遙感圖像自動(dòng)配準(zhǔn)方法
李 慧1,2,3,藺啟忠1,2,劉慶杰1,2
(1.中國(guó)科學(xué)院對(duì)地觀測(cè)與數(shù)字地球科學(xué)中心,北京 100094;2.中國(guó)科學(xué)院數(shù)字地球科學(xué)重點(diǎn)實(shí)驗(yàn)室,北京 100094;3.中國(guó)科學(xué)院研究生院,北京 100049)
提出了基于加速分割檢測(cè)特征(features from accelerated segment test,F(xiàn)AST)和加速魯棒性特征(speeded-up robust features,SURF)的遙感圖像自動(dòng)配準(zhǔn)方法。首先對(duì)參考圖像與待配準(zhǔn)圖像進(jìn)行HSI變換和高斯金字塔建立;然后檢測(cè)并提取FAST角點(diǎn),計(jì)算各角點(diǎn)的SURF描述子,用K-D樹匹配搜索策略得到2幅圖像的匹配點(diǎn)對(duì);再使用最小二乘迭代法剔除錯(cuò)誤匹配點(diǎn)并擬合幾何變換系數(shù);最后執(zhí)行幾何變換,得到配準(zhǔn)后的圖像。將該方法分別與基于SURF自動(dòng)配準(zhǔn)方法和ENVI軟件中自動(dòng)獲取配準(zhǔn)點(diǎn)的方法進(jìn)行對(duì)比實(shí)驗(yàn),結(jié)果表明,利用該方法能夠獲得更多的匹配點(diǎn)對(duì),具有更高的幾何配準(zhǔn)精度,但在尺度不變性方面略遜于SURF算法。
遙感圖像;自動(dòng)配準(zhǔn);FAST;SURF;高斯金字塔
圖像配準(zhǔn)是多源遙感圖像融合、鑲嵌以及變化檢測(cè)等處理的基本步驟,是多源遙感數(shù)據(jù)在重大環(huán)境與災(zāi)害問題中應(yīng)急響應(yīng)的關(guān)鍵技術(shù)之一,可分為基于區(qū)域的自動(dòng)配準(zhǔn)方法和基于特征的自動(dòng)配準(zhǔn)方法[1]?;趨^(qū)域的配準(zhǔn)方法是直接利用圖像局部區(qū)域的灰度信息,建立2幅圖像之間的相似性度量來獲取匹配點(diǎn)[2];基于特征的配準(zhǔn)方法是以圖像上邊緣、線交叉點(diǎn)及角點(diǎn)等特征點(diǎn)作為2幅圖像配準(zhǔn)的匹配點(diǎn)。由于特征點(diǎn)比較容易提取,對(duì)信號(hào)噪聲、數(shù)據(jù)獲取時(shí)的參數(shù)變化及圖像變換具有較好的魯棒性,因此基于特征的自動(dòng)配準(zhǔn)方法在圖像配準(zhǔn)中得到了廣泛應(yīng)用。Lowe于2004年提出的尺度不變特征變換(scale-invariant feature transform,SIFT)算法[3]是最有效地保持尺度、旋轉(zhuǎn)、亮度不變性的算法之一,已被廣泛應(yīng)用于遙感圖像的自動(dòng)配準(zhǔn)中[4-8],但該算法計(jì)算量大、耗時(shí)長(zhǎng);Bay[9]等于2006年提出了加速魯棒性特征(speeded-up robust features,SURF)算法,該算法可以對(duì)圖像的旋轉(zhuǎn)、尺度伸縮、光照以及視角等變化保持不變性,計(jì)算速度比SIFT方法快3倍,但是,在處理圖像光照和視角變化時(shí)不如SIFT 算法;Vlgren,Arturo[10-12]等均對(duì) SURF 方法的性能以及與SIFT等算法的比較做了較為詳細(xì)的闡述,且結(jié)論基本一致;張銳娟[13]等將基于SURF的圖像配準(zhǔn)方法與基于SIFT的方法進(jìn)行實(shí)驗(yàn)比較,認(rèn)為SURF算法具有估算參數(shù)準(zhǔn)確、計(jì)算量小、速度快的優(yōu)點(diǎn),但獲得的匹配點(diǎn)數(shù)量少。加速分割檢測(cè)特征(features from accelerated segment test,F(xiàn)AST)是由 Rosten和Drummond于2006年提出的一種簡(jiǎn)單、快速的角點(diǎn)檢測(cè)算法[14],通過該算法可以快速確定出角點(diǎn)。因此,為增加SURF自動(dòng)配準(zhǔn)方法獲得的匹配點(diǎn)數(shù)量,本文提出一種基于FAST和SURF算法的圖像配準(zhǔn)方法。該方法在參考圖像與待配準(zhǔn)圖像來自不同傳感器、且色調(diào)差異較大的情況下,能夠快速獲得更多的匹配點(diǎn)對(duì)和更好的幾何配準(zhǔn)效果。
FAST算法將待檢測(cè)角點(diǎn)定義為:在像元點(diǎn)的鄰域內(nèi)有足夠多的像元點(diǎn)與該點(diǎn)處于不同的區(qū)域,應(yīng)用到灰度圖像中就是有足夠多的像元點(diǎn)的灰度值大于或者小于該點(diǎn)的灰度值。通過定義一個(gè)角點(diǎn)響應(yīng)函數(shù)來判斷一個(gè)像元是否為角點(diǎn)。圖1給出了以該點(diǎn)為中心的圓形區(qū)域的模板情況,圓形區(qū)域?yàn)橐粋€(gè)半徑為3像元的離散化的區(qū)域,像元p為候選角點(diǎn),高亮度像元為角點(diǎn)檢測(cè)中使用到的像元,弧形虛線上的像元點(diǎn)為滿足式(1)的12個(gè)連續(xù)像元點(diǎn)[14]。
圖1 圓形模板示意圖Fig.1 Schematic diagram of circular template
角點(diǎn)響應(yīng)函數(shù)(corner response function,CRF)定義為[15]
式中:p表示中心像元;I(p)表示像元p的灰度值;I(x)表示圓周上任意一像元灰度值;εd為給定的一個(gè)極小閾值。通過式(1)可以累加出圓周上滿足式(1)的像元點(diǎn)個(gè)數(shù)N。如果N大于給定的一個(gè)閾值,就可以確定該點(diǎn)為角點(diǎn)。通常閾值取12,通過該閾值可以很快地排除偽角點(diǎn)。
對(duì)該算法還可以進(jìn)行優(yōu)化,如圖1所示,可以先判斷1,5,9和13這4個(gè)像元的灰度值是否滿足式(1),如果至少有3個(gè)點(diǎn)滿足,則該點(diǎn)就可以作為候選角點(diǎn),然后再對(duì)其他點(diǎn)進(jìn)行判斷。經(jīng)過優(yōu)化之后,該算法平均只需要檢測(cè)候選角點(diǎn)周圍的3.8個(gè)點(diǎn)就能判斷該點(diǎn)是否為角點(diǎn)[14]。
SURF描述子主要是根據(jù)特征點(diǎn)鄰域范圍內(nèi)的灰度統(tǒng)計(jì)信息,通過計(jì)算主方向和特征向量來得到的。具體過程如下[16]:
1)確定SURF特征點(diǎn)主方向。首先統(tǒng)計(jì)以特征點(diǎn)為圓心、6σ(σ為特征點(diǎn)所在的尺度)為半徑的圓形區(qū)域內(nèi)的所有像元X和Y方向上的Haar小波響應(yīng)dx和dy,使每個(gè)像元都有一個(gè)對(duì)應(yīng)的Haar小波響應(yīng)點(diǎn)Hp(dx,dy);然后,通過一個(gè)大小為π/3的扇形滑動(dòng)窗口對(duì)所有小波響應(yīng)進(jìn)行求和,取長(zhǎng)度最長(zhǎng)的方向作為特征點(diǎn)的主方向。在求和的過程中,使用以特征點(diǎn)為中心的高斯函數(shù)對(duì)每個(gè)像元的小波響應(yīng)進(jìn)行賦權(quán)。在這一步中,扇形滑動(dòng)窗口大小是決定能否得到正確主方向的關(guān)鍵參數(shù)。
2)基于Haar小波響應(yīng)生成描述子。SURF特征向量提取是在一個(gè)以特征點(diǎn)為中心,與主方向平行的方形區(qū)域中進(jìn)行的:首先確定一個(gè)以特征點(diǎn)為中心,大小為20σ的方形區(qū)域,為保證提取到特征向量具有旋轉(zhuǎn)不變性,需要旋轉(zhuǎn)該方形區(qū)域,使之與特征點(diǎn)的主方向平行;然后,將這個(gè)方形區(qū)域再均勻細(xì)分成4像元×4像元窗口的子區(qū)域,在每個(gè)子區(qū)域中統(tǒng)計(jì)X和Y方向上的Haar小波響應(yīng)之和及其絕對(duì)值之和(∑dx,∑dy,∑|dx|,∑|dy|)。在統(tǒng)計(jì)的過程中,仍用以特征點(diǎn)為中心的高斯函數(shù)進(jìn)行賦權(quán)處理。如此,每個(gè)子區(qū)域有一個(gè)4維的描述子V4=(∑dx,∑dy,∑|dx|,∑|dy|),整個(gè)區(qū)域就有 4×4×4=64維的特征向量。
為了讓SURF描述子更具有特征性,可將SURF 64維的特征向量擴(kuò)展為128維[9]。利用128維的描述子進(jìn)行匹配,其可靠性和魯棒性會(huì)增強(qiáng),但是匹配的時(shí)間將會(huì)大幅度提高,影響整個(gè)匹配的效率。
基于FAST和SURF描述子的自動(dòng)配準(zhǔn)方法流程如圖2所示。
圖2 FAST-SURF自動(dòng)配準(zhǔn)方法流程Fig.2 Flow chart for automatic registration method based on FAST-SURF
1)將待配準(zhǔn)圖像和參考圖像從RGB彩色空間轉(zhuǎn)換到HSI彩色空間,以獲取2幅圖像的I分量作為特征點(diǎn)提取圖像。由于HIS模型中I分量與圖像的彩色信息無關(guān),因此,盡管參考圖像和待配準(zhǔn)圖像可能為不同時(shí)相的數(shù)據(jù),在色調(diào)上呈現(xiàn)較大差異,用I分量進(jìn)行后續(xù)處理,仍可減少因色調(diào)差異造成的不匹配。
2)建立高斯金字塔。由于參考圖像與待配準(zhǔn)圖像空間分辨率上通常存在差異,而FAST角點(diǎn)檢測(cè)算法不具備尺度不變性,因此利用高斯金字塔來建立多分辨率分析。圖像的高斯金字塔分解通過依次對(duì)低層圖像用大小為5像元×5像元的高斯窗口函數(shù)進(jìn)行低通濾波處理后作隔行、隔列的降2下采樣來實(shí)現(xiàn)。
3)FAST角點(diǎn)檢測(cè)。該步驟涉及到的參數(shù)包括FAST角點(diǎn)閾值設(shè)置和是否進(jìn)行極大值抑制。前者一般設(shè)置為12,后者通常選擇進(jìn)行極大值抑制。
4)SURF特征描述。對(duì)2幅圖像檢測(cè)到的FAST角點(diǎn)計(jì)算SURF特征描述子。涉及的閾值包括Hessian閾值、Octave層數(shù)和個(gè)數(shù)。
5)特征匹配。為了提高匹配點(diǎn)搜索效率,本文采用K-D樹算法[17]來獲取匹配點(diǎn),它在高維二叉樹上實(shí)現(xiàn)了對(duì)給定特征點(diǎn)的快速最近鄰查找。具體做法為:首先利用匹配點(diǎn)搜索算法,找到與待匹配點(diǎn)距離最小(NN)和次最小(SCN)的點(diǎn),然后計(jì)算最小距離與次最小距離的比率(NN/SCN),如果該值小于閾值則認(rèn)為最近鄰點(diǎn)是較好的匹配。本文閾值的取值范圍是[0.6,0.7]。
6)錯(cuò)誤匹配點(diǎn)剔除。針對(duì)參考圖像和待配準(zhǔn)圖像得出的匹配點(diǎn)對(duì)中通常存在錯(cuò)誤匹配的情況,本文使用最小二乘迭代法來剔除錯(cuò)誤匹配點(diǎn)。
首先利用最小二乘原理擬合幾何變換系數(shù),并計(jì)算每個(gè)匹配點(diǎn)對(duì)的殘差(Δx,Δy),再根據(jù)
計(jì)算匹配點(diǎn)對(duì)的均方根誤差。式中:M代表匹配點(diǎn)對(duì)的數(shù)量;RMSE是匹配點(diǎn)對(duì)的均方根誤差;為第m個(gè)匹配點(diǎn)對(duì)點(diǎn)的參考坐標(biāo);為第m個(gè)匹配點(diǎn)對(duì)點(diǎn)的預(yù)測(cè)坐標(biāo)。通常設(shè)定一個(gè)閾值(如1個(gè)像元),如果RMSE大于該閾值,則刪掉殘差最大的匹配點(diǎn)對(duì),反復(fù)迭代計(jì)算,直到RMSE小于閾值或者剩余匹配點(diǎn)對(duì)數(shù)量小于等于4為止。
7)變換模型和重采樣。得到正確匹配的特征點(diǎn)之后,需要選擇相應(yīng)的變換模型進(jìn)行參數(shù)求解,進(jìn)而實(shí)現(xiàn)圖像間的配準(zhǔn)。本文使用多項(xiàng)式糾正模型,在地形平坦地區(qū)使用一次多項(xiàng)式,地形起伏較大地區(qū)使用二次或三次多項(xiàng)式。在求取待配準(zhǔn)圖像與參考圖像之間的幾何變換模型參數(shù)后,需要對(duì)待配準(zhǔn)圖像求取輸出圖像各像元的灰度值,即進(jìn)行灰度重采樣。本文使用速度較快的雙線性插值法。
為了對(duì)本文方法(簡(jiǎn)寫為FAST-SURF方法)的效果進(jìn)行驗(yàn)證,選擇兩組圖像(圖3)進(jìn)行方法實(shí)驗(yàn),并與基于SURF的自動(dòng)匹配方法(簡(jiǎn)寫為SURF方法)、ENVI軟件中的自動(dòng)配準(zhǔn)方法(簡(jiǎn)寫為ENVI方法)進(jìn)行了比較。
圖3 兩組實(shí)驗(yàn)圖像Fig.3 Two groups test images
如圖3所示,第一組圖像的參考圖像為天津市區(qū)的ALOS衛(wèi)星多光譜圖像(圖3(a)),空間分辨率為10 m,圖像大小為400像元×400像元,獲取日期為2009年10月17日;待配準(zhǔn)圖像為從 Google Earth截圖的GeoEye圖像(圖3(b)),空間分辨率經(jīng)計(jì)算為5.56 m,圖像大小為900像元×680像元,獲取日期為2009年11月18日。該組數(shù)據(jù)的特點(diǎn)為參考圖像與待配準(zhǔn)圖像來自不同傳感器、不同時(shí)相且圖像色調(diào)差異較大。
第二組圖像的參考圖像為天津市區(qū)ALOS衛(wèi)星全色波段圖像(圖3(c)),空間分辨率為2.5 m,圖像大小為1500像元×1500像元,獲取日期為2009年10月17日;待配準(zhǔn)圖像為ALOS衛(wèi)星同時(shí)間獲取的10 m多光譜圖像(圖3(d)),圖像大小為380像元×380像元。該組數(shù)據(jù)的特點(diǎn)為參考圖像與待配準(zhǔn)圖像是來自同一傳感器的全色與多光譜圖像,空間分辨率差異約為4倍。
在對(duì)兩組圖像的處理過程中,應(yīng)用 FASTSURF方法的參數(shù)設(shè)置情況見表1。
表1 兩組圖像自動(dòng)配準(zhǔn)中FAST-SURF方法參數(shù)設(shè)置Tab.1 Parameters setting of FAST -SURF method for automatic registration of two group images
在對(duì)第一組圖像的處理過程中,使用該組參數(shù)對(duì)該算法連續(xù)運(yùn)行了5次,獲得的匹配點(diǎn)數(shù)分別為87,84,68,83 和82,相對(duì)應(yīng)的匹配誤差分別為0.44,0.43,0.43,0.42 和 0.42 個(gè)像元,匹配點(diǎn)對(duì)數(shù)的均值為81個(gè),匹配誤差的均值為0.43個(gè)像元。
應(yīng)用SURF方法的參數(shù)設(shè)置情況見表2??梢钥闯?,SURF方法獲得的匹配點(diǎn)數(shù)和誤差情況比較穩(wěn)定。
表2 兩組圖像自動(dòng)配準(zhǔn)中SURF方法參數(shù)設(shè)置Tab.2 Parameters setting of SURF method for automatic registration of two group images
ENVI方法參數(shù)設(shè)置除修改了 Number of tie point參數(shù)外,其他參數(shù)均使用了默認(rèn)的經(jīng)驗(yàn)優(yōu)化值,具體情況見表3。
表3 兩組圖像自動(dòng)配準(zhǔn)中ENVI方法參數(shù)設(shè)置Tab.3 Parameters setting of ENVI method for automatic registration of two group images
對(duì)兩組圖像分別使用3種方法獲得的匹配點(diǎn)數(shù)量和匹配誤差統(tǒng)計(jì)情況見表4。
表4 3種方法獲得的匹配點(diǎn)數(shù)與匹配誤差Tab.4 Matching point numbers and matching errors of three methods for two group images
續(xù)表4
從表4可以看出,在對(duì)第一組圖像的實(shí)驗(yàn)中,F(xiàn)AST-SURF方法獲得了最多的匹配點(diǎn)對(duì)和最小的匹配誤差。其中,F(xiàn)AST-SURT方法的匹配點(diǎn)對(duì)數(shù)遠(yuǎn)多于SURF方法和ENVI方法的;SURF方法的匹配誤差略大于FAST-SURF方法的,ENVI方法的匹配誤差則遠(yuǎn)超過1個(gè)像元。對(duì)ENVI方法初始匹配獲得的31個(gè)匹配點(diǎn)對(duì)按單點(diǎn)誤差大小順序來剔除錯(cuò)誤匹配點(diǎn),當(dāng)只剩下11個(gè)匹配點(diǎn)對(duì)時(shí),匹配誤差能達(dá)到0.4,該值略優(yōu)于FAST-SURF方法,但此時(shí)其匹配點(diǎn)數(shù)量相比FAST-SURF方法更少了。此外,ENVI方法獲得的匹配點(diǎn)對(duì)分布最為均勻。該組圖像的配準(zhǔn)結(jié)果如圖4所示。
圖4 第一組圖像配準(zhǔn)結(jié)果Fig.4 Registration results of the first group images
可以看出,3種方法都較好地修正了配準(zhǔn)前圖像(圖4(a))上地物的幾何位置偏差,尤其是對(duì)道路的位置偏差修正較好。但SURF和ENVI方法的配準(zhǔn)結(jié)果(圖4(c),(d))顯示出房屋匹配處存在微小的錯(cuò)位,且SURF方法的配準(zhǔn)結(jié)果比ENVI方法的稍嚴(yán)重,而FAST-SURF方法的結(jié)果(圖4(b))則在房屋處匹配很好,看不出錯(cuò)位。FAST-SURF方法自動(dòng)配準(zhǔn)結(jié)果優(yōu)于另外2種方法的原因在于該方法獲得了更多、更準(zhǔn)確的匹配點(diǎn)對(duì)。
在對(duì)第二組圖像的實(shí)驗(yàn)中,F(xiàn)AST-SURF方法同樣獲得了最多的匹配點(diǎn)對(duì)和最小的匹配誤差(表4)。其中,F(xiàn)AST-SURF方法的匹配點(diǎn)對(duì)數(shù)量遠(yuǎn)多于SURF方法和ENVI方法的;匹配誤差遠(yuǎn)低于SURF方法的;ENVI方法的匹配誤差略小于FAST-FAST方法的,但匹配點(diǎn)數(shù)則遠(yuǎn)小于FASTSURF方法的相應(yīng)值。對(duì)ENVI方法初始獲得的14個(gè)匹配點(diǎn)對(duì)按單點(diǎn)誤差大小順序來剔除錯(cuò)誤匹配點(diǎn),當(dāng)只剩下5個(gè)匹配點(diǎn)對(duì)時(shí),匹配誤差能達(dá)到0.63,該值優(yōu)于FAST-SURF方法的相應(yīng)值。經(jīng)比較,匹配點(diǎn)對(duì)分布最為均勻的仍然是ENVI方法。該組圖像配準(zhǔn)結(jié)果如圖5所示。
圖5 第二組圖像配準(zhǔn)結(jié)果Fig.5 Registration results of the second group images
可以看出,F(xiàn)AST-SURF(圖5(b))和SURF(圖5(c))方法都較好地修正了配準(zhǔn)前圖像(圖5(a))上地物的幾何位置偏差,配準(zhǔn)后圖像上河流、道路匹配得較好。通過細(xì)節(jié)比較可以發(fā)現(xiàn),SURF方法配準(zhǔn)結(jié)果優(yōu)于FAST-SURF方法的,在后者圖像的左上部分,河流、道路的配準(zhǔn)依然有微小偏差。但ENVI方法的結(jié)果仍存在較明顯的幾何偏差(圖5(d))。在前面統(tǒng)計(jì)中,ENVI方法在剔除其誤差大的匹配點(diǎn)后,總匹配誤差達(dá)到了0.63,遠(yuǎn)低于FAST-SURF方法和SURF方法的匹配誤差。經(jīng)檢查,ENVI方法自動(dòng)獲取的匹配點(diǎn)對(duì)存在較明顯的位置差異,并不是真正有效的匹配點(diǎn)對(duì),因此獲得的自動(dòng)配準(zhǔn)結(jié)果存在問題。
需要說明的是,盡管FAST-SURF方法能獲得更多的匹配點(diǎn)對(duì)和更小的匹配誤差,但在對(duì)于參考圖像與待配準(zhǔn)圖像的空間分辨率差異比例為4倍的情況下,自動(dòng)配準(zhǔn)結(jié)果是不如SURF方法的,SURF算法的尺度不變性特征在此時(shí)凸顯了優(yōu)勢(shì)。
本文提出了一種基于FAST角點(diǎn)和SURF描述子的遙感圖像自動(dòng)配準(zhǔn)方法。對(duì)比實(shí)驗(yàn)結(jié)果表明,在參考圖像與待配準(zhǔn)圖像來自不同傳感器,且色調(diào)差異較大的情況下,該方法比基于SURF特征的自動(dòng)配準(zhǔn)方法和ENVI軟件中自動(dòng)獲取配準(zhǔn)點(diǎn)的方法能獲得更多的匹配點(diǎn)對(duì)和更好的幾何配準(zhǔn)效果;在參考圖像與待配準(zhǔn)圖像來自同一傳感器且空間分辨率差異較大時(shí),該方法配準(zhǔn)效果優(yōu)于ENVI軟件中自動(dòng)獲取配準(zhǔn)點(diǎn)的方法,但不如基于SURF特征的自動(dòng)配準(zhǔn)方法。因此,該方法在尺度不變性方面存在的不足是下步研究中需要改進(jìn)的重點(diǎn)。
[1]Zitová B,F(xiàn)lusser J.Image Registration Methods:A Survey [J].Image and Vision Computing,2003,21(11):977 -1000.
[2]Brown L G.A Survey of Image Registration Techniques[J].ACM Computing Surveys,1992,24(4):325 -376.
[3]Lowe D G.Distinctive Image Features from Scale- Invariant Key points[J].International Journal of Computer Vision,2004,60(2):91-110.
[4]李曉明,鄭 鏈,胡占義.基于SIFT特征的遙感影像自動(dòng)配準(zhǔn)[J].遙感學(xué)報(bào),2006,10(6):885 -892.
[5]Cheung W,Hamarneh G.N -SIFT:N -dimensional Scale Invariant Feature Transform for Matching Medical Images[C]//IEEE International Symposium on Biomedical Imaging,from Nano to Macro,Arlington,VA,2007:720 -723.
[6]李芳芳,肖本林,賈永紅,等.SIFT算法優(yōu)化及其用于遙感影像自動(dòng)配準(zhǔn)[J].武漢大學(xué)學(xué)報(bào):信息科學(xué)版,2009,34(10):1245 -1249.
[7]Yu L,Zhang D R,Holden E J.A Fast and Fully Automatic Registration Approach Based on Point Features for Multi-source Remote - sensing Images[J].Computers & Geosciences,2008,34(7):838-848.
[8]王瑞瑞,馬建文,陳 雪.基于歸一化SIFT算法的不同光學(xué)影像配準(zhǔn)[J].計(jì)算機(jī)工程,2010,36(19):21 -23.
[9]Bay H,Ess A,Tuytelaars T,et al.SURF:Speeded Up Robust Features[J].Computer Vision and Image Understanding,2008,110(3):346-359.
[10]Valgren C,Lilienthal A.SIFT,SURF and Seasons:Long - term Outdoor Localization Using Local Features[C]//Proceedings of the European Conference on Mobile Robots(ECMR),F(xiàn)reiburg,Germany,2007:253 -258.
[11]Gil A,Mozos M,Ballesta M,et al.A Comparative Evaluation of Interest Point Detectors and Local Descriptors for Visual SLAM[J].Machine Vision and Applications,2010,21(6):905 -920.
[12]Murillo A C,Guerrero J J,Sagues C.Surf Features for Efficient Robot Localization with OmnidirectionalImages[C]//IEEE International Conference on Roboties and Automation,Roma,Italy,2007:3901-3907.
[13]張銳娟,張建奇,楊 翠.基于SURF的圖像配準(zhǔn)方法研究[J].紅外與激光工程,2009,38(1):160 -165.
[14]Rosten,Drummond T.Machine Learning for High - speed Corner Detection[C]//European Conference on Computer Vision,Graz,Austria,2006:430 -443.
[15]燕 鵬,安 如.基于FAST改進(jìn)的快速角點(diǎn)探測(cè)算法[J].紅外與激光工程,2009,38(6):1104 -1108.
[16]林曉帆,林立文,鄧 濤.基于SURF描述子的遙感影像配準(zhǔn)[J].計(jì)算機(jī)工程,2010,36(12):216 -218.
[17]Friedman J H,Bentley J L,F(xiàn)inkel R A.An Algorithm for Finding Best Matches in Logarithmic Expected Time[J].ACM Transactions on Mathematical Software,1977,3(3):209 -226.
An Automatic Registration Method of Remote Sensing Imagery Based on FAST Corner and SURF Descriptor
LI Hui1,2,3,LIN Qi- zhong1,2,LIU Qing - jie1,2
(1.Center for Earth Observation and Digital Earth,Chinese Academy of Sciences,Beijing 100094,China;2.Key Laborary of Digital Earth Sciences,Chinese Academy of Sciences,Beijing 100094,China;3.Graduate University of Chinese Academy of Sciences,Beijing 100049,China)
An automatic geometry registration method based on Features from Accelerated Segment Test(FAST)corner detector and Speeded Up Robust Features(SURF)is proposed in this paper.Firstly,applying HSI transform on both the reference image and the image to registration,and then building gauss pyramid of the images.Secondly,detecting and extracting the FAST corner points of both images,and calculating the SURF descriptors of the corner points,following by searching match point pairs by K - D tree.Thirdly,iteratively using partial minimum least squares to remove error point pairs and then calculate the geometry transform coefficients.Lastly,excuting the geometry transform to get the registration image.An experiment on two groups of images was performed,in which the proposed method was respectively compared with the automatic registration method based on SURF features and the method used in ENVI software to obtain ground control points automatically,and the results show that the proposed method can get more match points and obtain higher geometric accuracy,except which is slightly inferior to SURF algorithm in scale invariance.
remote sensing imagery;automatic registration;features from accelerated segment test(FAST);speeded-up robust features(SURF);gaussian pyramid
TP 751.1
A
1001-070X(2012)02-0028-06
2011-09-13;
2011-12-04
國(guó)家“十一五”科技支撐重點(diǎn)項(xiàng)目(編號(hào):2006BAB01A02)、中國(guó)科學(xué)院對(duì)地觀測(cè)與數(shù)字地球科學(xué)中心數(shù)字地球科學(xué)平臺(tái)重大項(xiàng)目(編號(hào):DESP01-04-10)和國(guó)家自然科學(xué)基金項(xiàng)目(編號(hào):41001266)共同資助。
10.6046/gtzyyg.2012.02.06
李 慧(1984-),女,中國(guó)科學(xué)院對(duì)地觀測(cè)與數(shù)字地球科學(xué)中心在讀博士研究生,主要從事遙感圖像處理和遙感信息提取方面的研究。E-mail:hli@ceode.ac.cn
(責(zé)任編輯:刁淑娟)