王森
摘要:傳統(tǒng)的SIFT算法在配準(zhǔn)高分二號全色與多光譜影像時配準(zhǔn)效率較低,本文使用一種新的配準(zhǔn)策略:首先對圖像進行區(qū)域劃分并計算每個區(qū)域的信息熵,只針對信息熵較大的部分采用改進的Harris算法提取特征點,然后使用SIFT算法描述特征點并進行粗匹配,再用PROSAC進行特征點的提純,實現(xiàn)精匹配,最后完成圖像配準(zhǔn)。
關(guān)鍵詞:高分二號;圖像配準(zhǔn);信息熵;SIFT;PROSAC
中圖分類號:TP391.4 文獻標(biāo)識碼:A 文章編號:1007-9416(2020)01-0104-02
0 引言
在遙感圖像處理中,圖像配準(zhǔn)是很重要的處理環(huán)節(jié)。配準(zhǔn)精度的高低直接會影響到后續(xù)的圖像處理質(zhì)量,因此對遙感圖像配準(zhǔn)進行深入的研究具有很重要的現(xiàn)實意義。近年來Harris算子和SIFT算子在圖像配準(zhǔn)領(lǐng)域應(yīng)用較為廣泛,這兩種方法在處理普通圖像時能夠取得較好的配準(zhǔn)效果,但是對于遙感圖像配準(zhǔn)而言往往配準(zhǔn)精度較低。因此本文基于這兩種算法對高分二號衛(wèi)星圖像的配準(zhǔn)方法進行研究,從而充分利用這兩種算法的優(yōu)點。
Harris[1]角點檢測算法是通過微分算子計算像素點在任意方向上的灰度變化,并根據(jù)角點響應(yīng)函數(shù)的值來判斷目標(biāo)像素點是否為角點。該算法運算量較小,且提取的角點分布較為均勻。尺度不變特征變換(SIFT)[2]算法是圖像配準(zhǔn)領(lǐng)域較為經(jīng)典的一種算法,SIFT特征對圖像的尺度、旋轉(zhuǎn)、平移等具有不變性,該算法的主要步驟包括:尺度空間構(gòu)造、極值點檢測、特征點主方向分配、特征描述子生成。SIFT算法在普通圖像中的配準(zhǔn)效果較好,但是對于大幅面的遙感圖像往往具有配準(zhǔn)速度慢、精度低等特點。配準(zhǔn)速度慢主要體現(xiàn)在檢測到的特征點數(shù)量多,從而在特征描述階段會有較多的時間消耗,因此本文在特征檢測部分使用改進的Harris算法代替SIFT算法進行特征檢測。
1 基于Harris-SIFT的圖像配準(zhǔn)算法
1.1 特征點檢測
經(jīng)典的Harris算子檢測出的角點不具有尺度不變性,因此本文使用Harris-Laplace[3]算法進行角點檢測,使其具有尺度不變性。Harris算子是通過角點響應(yīng)函數(shù)CRF(corner response function)的值來判斷該點是否為角點,當(dāng)CRF的值超過所設(shè)定的閾值時,則認(rèn)為該點為需要的角點。但是CRF值的計算會受到經(jīng)驗常數(shù)k的影響,進而會影響到后續(xù)的配準(zhǔn)效果,因此為了避免k值的選取,本文使用改進的角點響應(yīng)函數(shù)[4],計算式為:
其中是圖像的水平方向梯度,是圖像的垂直方向梯度,其中,,是任意小的正數(shù),可以避免分母為零的情況。
針對該改進的Harris算法依然存在無效的角點的問題,本文參考王崴等[5]提出的在當(dāng)前的目標(biāo)像素點8鄰域的范圍內(nèi)統(tǒng)計與之相似的像素點個數(shù),以此來剔除無效的角點。由于高分二號圖像的特殊性,且波段間灰度存在較大的差異,這樣容易使角點的定位存在偏差。故需要對用上述方法檢測到的角點進行精定位,本文參考經(jīng)典的Forstner[6]算子對角點進行精定位。
1.2 特征描述子生成
由于本文不直接對整幅圖像進行特征檢測,而僅對信息熵較大的區(qū)域使用改進的Harris算子檢測角點特征,這樣大大的降低了算法的運算量,所以不必再為了進一步提高運算速度而降低特征描述符的維數(shù),因為在降維的同時可能會使配準(zhǔn)精度降低。因此,為了確保配準(zhǔn)精度,本文使用傳統(tǒng)的SIFT算法進行特征描述,生成128維特征向量,具體可參考文獻[2]中的方法。
1.3 針對高分二號衛(wèi)星影像的配準(zhǔn)方法
由于高分二號圖像的數(shù)據(jù)量較大,因此傳統(tǒng)的配準(zhǔn)策略在此已不能滿足實時性的要求。本文方法為:首先對整幅圖像進行區(qū)域劃分[7]并計算各區(qū)域信息熵,然后針對信息熵較大的區(qū)域使用改進的Harris算法進行特征提取,從而縮短特征檢測的時間,而且能夠使特征點在整幅圖像中分布均勻。之后使用SIFT算法對特征點進行描述并且進行粗匹配,然后使用PROSAC[8]算法進一步提純特征點并估算出變換模型參數(shù),從而實現(xiàn)最終的圖像配準(zhǔn)。
2 實驗分析
本文選取全色影像為基準(zhǔn)圖像,由于多光譜影像中的近紅外波段和全色影像存在較大的灰度差異,故以近紅外波段為例作為待配準(zhǔn)圖像進行實驗更能驗證配準(zhǔn)算法的有效性,全色影像大小為2286×2225,近紅外波段影像大小為746×749。本文使用VS2013結(jié)合GDAL庫編程。使用傳統(tǒng)的SIFT算法作為對比實驗,本文算法實驗結(jié)果如圖1所示,兩種算法配準(zhǔn)效果比較如表1所示。實驗結(jié)果表明,本文算法明顯比SIFT算法檢測到的特征點少、配準(zhǔn)速度快,在提高配準(zhǔn)速度的同時,配準(zhǔn)精度也較SIFT算法高。
3 結(jié)語
本文針對高分二號遙感圖像提出了一種在區(qū)域劃分的基礎(chǔ)上,使用改進的Harris算子和SIFT算子相結(jié)合的圖像配準(zhǔn)方法。實驗證明,該算法提取的特征點較SIFT算法更少且更均勻,配準(zhǔn)速度和配準(zhǔn)精度都較SIFT算法有顯著的提高。
參考文獻
[1] Harris C,Stephens M.A combined corner and edge detector[C].Proceedings of the Alvey Vision Conference,Manchester,UK,1988:147-151.
[2] Lowe D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.
[3] Mikolajczyk K,Schmid C.Scale & affine invariant interest point detectors[J].International Journal of Computer Vision,2004,60(1):63-86.
[4] 毛晨,錢惟賢,顧國華,等.基于雙邊濾波的Harris角點檢測[J].紅外技術(shù),2014,36(10):812-815+819.
[5] 王崴,唐一平,任娟莉,等.一種改進的Harris角點提取算法[J].光學(xué)精密工程,2008(10):1995-2001.
[6] 張艷,張志成.混合Forstner算法和SIFT灰度圖像特征點提取[J].科技通報,2012(10):64-70.
[7] 李玉峰,王竹筠.基于Harris-SIFT特征匹配的圖像自動配準(zhǔn)算法研究[J].電視技術(shù),2015,39(23):26-30.
[8] CHUM O,MATAS J.Matching with PROSAC-progressive sample consensus[C].IEEE Computer Society Conference on Computer Vision & Pattern Recognition(ICCV),Beijing:IEEE,2005:220-226.