郎博,劉彥君,桂維振,蔣雯
(北京工業(yè)職業(yè)技術學院,北京100042)
分辨率差異較大的遙感圖像自動配準算法研究
郎博,劉彥君,桂維振,蔣雯
(北京工業(yè)職業(yè)技術學院,北京100042)
本文在研究了已有配準算法的基礎上,針對兩個分辨率差異較大的遙感圖像,提出了自動配準的改進方法,自動獲取基準影像,并對每個波段的圖像做直方圖均衡化增強,最后,構建影像金字塔,運用SIFT算法提取特征點。
自動配準;圖像特征點;SIFT算法
圖像配準是遙感圖像鑲嵌、圖像融合的重要步驟之一,配準的精度對后續(xù)圖像處理產生重要的影響,而當前遙感圖像自動配準的主要困難,在于遙感圖像特征點提取的自動化程度不高,而且計算速度較慢。本文提出了運用改進的SIFT算法提取特征點,首先自動獲取基準影像,其次,對每個波段的圖像做直方圖均衡化增強,再構建影像金字塔,并逐波段、逐層運用SIFT算法提取特征點,剔除錯誤的匹配點,用三次多項式實現精確配準。
1.1 SIFT特征匹配算法
SIFT特征匹配算法包括兩個階段,第一階段是SIFT特征的生成;第二階段是SIFT特征向量的匹配,總共包括4步。
①尺度空間極值檢測,主要是為了尋找到尺度空間的極值點,首先將圖像進行高斯金字塔分解,然后逐層進行差分,得到DOG金字塔,最后在DOG金字塔的基礎上檢測尺度空間的極值點,如圖1所示。
圖1 在DOG尺度空間檢測極值點
②精確定位特征點和確定主方向,由上一步驟找到的極值點是非常粗略的,需要經過進一步檢驗提高精度。這里,利用三維二次函數擬合精確確定特征點位置和尺度,刪除低對比度的點和邊緣點,提高特征點的精度,同時匹配穩(wěn)定性和抗噪聲能力也得到了一定程度的增強。
確定了關鍵點的位置后,利用特征點鄰域像素點的梯度方向分布特性來計算特征點的方向。公式如下:
式中一m(二 x, y三)表示在坐標一(x, 三y)位置上像素梯度的模值,一(二x, y三)則表示其梯度的方向,L為所用的尺度。實際計算中,鄰域像素點梯度的模值一m 和方向一用直方圖來表示(如圖2)。
③SIFT特征向量的生成:通過以上步驟,獲得了特征點的位置、所處尺度和方向,由此可以確定一個SIFT特征區(qū)域。
圖2 由關鍵點鄰域梯度信息生產特征向量
首先,將坐標軸調整至與關鍵點方向一致,以確保旋轉不變性。如圖2左圖所示,中心紅色點為關鍵點,以其為中心取8×8的窗口,黑色箭頭為該像素點的梯度方向(箭頭長短表示梯度模值的大?。?,紅色圈代表高斯加權的范圍(離紅色關鍵點越近的像素點,其梯度信息的作用越大)。
④SIFT特征點匹配,經過上述三個步驟之后生成了兩幅影像的SIFT特征向量,隨即須進行相似性程度的判斷。本文用特征點的歐氏距離的最近距離和次近距離比作為特征點匹配的判定標準。
1.2 參考影像的自動搜索
一般的遙感影像配準系統(tǒng)是通過人工選擇待配準影像的參考影像,這種方法自動化的程度不高,本文系統(tǒng)實現基準影像的自動尋找。首先,建立參考影像的數據庫,將已經糾正好的全國環(huán)境星數據存儲在數據庫中,并且建立全國環(huán)境星的索引,在索引中包括每景環(huán)境星影像的四個角點經緯度坐標和中心點的經緯度坐標,其算法的基本思想是:
①輸入待配準影像,計算其中心點坐標,設為一R(二 x, 三y )。
②計算一R( 二x, 三y)到影像的四個角點的距離,分別記為為圓心,以一D為半徑做圓。
③遍歷數據庫中所有參考影像的中心坐標,找到中心點落在②中所述的圓中影像,記為
④計算待配準影像中心點一R( x二, y)三和③中遍歷所得參考影像中心點坐標
歐式距離最小的影像就是最佳的基準影像。
在單個波段內,像素間灰度值的差異小,對于特征信息的表達不充分。遙感圖像尺寸大,而且存儲方式不局限于單字節(jié),同時,如果單純的切分圖像,容易造成圖像有效信息的割裂,降低特征信息的表達能力。針對遙感影像以上特點,對于兩張獨立的遙感圖像,特別是兩張分辨率差異較大的圖像,對本文特征點提取的算法的分析如下。
首先,依據地理坐標信息,搜索出同一個區(qū)域,獲取兩張遙感圖像的處理范圍。
其次,各個對應波段運用直方圖均衡化對圖像增強,然后獨立的提取同名點,分別用SIFT算法獲取各對應波段的同名點對,再合并所有同名點對,本文加載的是影像的RGB以及紅外四個波段。
本文主要是利用SIFT算法提取特征點,首先輸入待配準的影像,通過自動搜索基準影像功能系統(tǒng)自動加載基準影像,然后進行特征點的提取、粗匹配、錯誤匹配點剔除以及精匹配,最后,將本文算法配準后的結果和Erdas的配準結果做比較分析,如果精度合格,將配準后的結果存儲到數據庫中,如圖3所示。
圖3 配準結果流程
分辨率,所用的無人機遙感影像是該地區(qū)的0.1m的海南影像,以geoeye影像為基準影像,無人機影像為待配準影像。分別用本文算法和ERDAS軟件進行配準分析。
圖4 特征點分布
圖5 配準后拼接
圖6 Erdas提取的特征點分布
圖7 配合后拼接
視覺結果:
圖8 本文算法配準結果
圖9 ERDAS軟件配準結果
均方差比較:
表1 均方差分析
配準時間分析:
表2 時間分析表
通過上述實驗分析,本文所用的遙感圖像自動配準算法和其他的圖像軟件相比提高了圖像配準的精度,對不同時相、分辨率差異較大的兩幅影像實現較好的配準。
[1]張祖勛,張劍清,廖明生.遙感影像的高精度自動配準[J].武漢測繪科技大學學報,1998(4):320-323.
[2]Zhang Jixian,Li Guosheng,Zeng Yu.The Study on Automatic and High-precision Rectification and Registration of Multisource Remote Sensing Imagery[J].Journal of Remote Sensing,2005,9(1):73-77.
[3]Lowe D G.Distinctive Image Features from Scale Invariant Keypoints[J].International Journal of Computer Vision, 2004,60(2):91-110.
[4]張祖勛,張劍清.數字攝影測量學[M].武漢:武漢測繪科技大學出版社,1996:144-174.
[5]Lowe D G.Object recognition from local scale-invariant features[C].In ICCV,1999:1150-1157.
[6]張繼賢,李國勝,曾鈺.多源遙感影像高精度自動配準的方法研究[J].遙感學報,2005,9(1):73-77.
P237;TP751
A
10.3969/j.issn.1001-0270.2014.04.21
2014-03-03