国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

多光譜遙感影像亮度空間相位一致性特征點檢測

2016-03-09 10:12:12黃瀾心
測繪學(xué)報 2016年2期

陳 敏,朱 慶,朱 軍,徐 柱,3,4,黃瀾心

1. 西南交通大學(xué)地球科學(xué)與環(huán)境工程學(xué)院,四川 成都 611756; 2. 四川省應(yīng)急測繪與防災(zāi)減災(zāi)工程技術(shù)研究中心,四川 成都 610041; 3. 教育部軌道交通安全協(xié)同創(chuàng)新中心,四川 成都 610031; 4. 高速鐵路運營安全空間信息技術(shù)國家地方聯(lián)合工程實驗室,四川 成都 610031

?

多光譜遙感影像亮度空間相位一致性特征點檢測

陳敏1,2,朱慶1,朱軍1,徐柱1,3,4,黃瀾心1

1. 西南交通大學(xué)地球科學(xué)與環(huán)境工程學(xué)院,四川 成都 611756; 2. 四川省應(yīng)急測繪與防災(zāi)減災(zāi)工程技術(shù)研究中心,四川 成都 610041; 3. 教育部軌道交通安全協(xié)同創(chuàng)新中心,四川 成都 610031; 4. 高速鐵路運營安全空間信息技術(shù)國家地方聯(lián)合工程實驗室,四川 成都 610031

detection

Foundation support: The National Natural Science Foundation of China (Nos. 41471320;41501492);The Science and Technology Program of Sichuan Province of China (Nos. 2014SZ0106;2015SZ0046);The Open Research Fund by Sichuan Engineering Research Center for Emergency Mapping & Disaster Reduction (No. K2015B006); The Open Research Fund of State Key Laboratory of Information Engineering in Surveying, Mapping and Remote Sensing (No. (14) Key 03); The Program for Changjiang Scholars and Innovative Research Team in University (No. IRT13092)

摘要:提出了一種基于亮度空間和相位一致性理論的多光譜遙感影像特征點檢測算法。首先利用參數(shù)自適應(yīng)的灰度變換函數(shù)建立影像亮度空間;然后結(jié)合相位一致性方法在影像亮度空間進行候選特征點檢測,并將候選特征點映射到原始影像上進行非極大值抑制;最后在尺度空間計算特征點的特征尺度值。本文方法有效結(jié)合了亮度空間特征檢測和相位一致性特征檢測的優(yōu)勢,對多光譜遙感影像的輻射變化具有較強的穩(wěn)健性。試驗結(jié)果證明,與傳統(tǒng)特征點檢測算法相比,本文方法在特征重復(fù)率和重復(fù)特征數(shù)量方面都具有明顯的優(yōu)勢。

關(guān)鍵詞:相位一致性;亮度空間;多光譜遙感影像;特征點檢測

特征點檢測是遙感影像處理的一個關(guān)鍵問題。對于多光譜遙感影像,影像之間較大程度的非線性輻射差異導(dǎo)致特征點檢測結(jié)果不穩(wěn)定。因此,多光譜遙感影像特征點檢測是目前研究的難點之一。

經(jīng)過數(shù)十年的發(fā)展,研究人員提出了許多著名的特征點檢測算子,包括基于影像灰度梯度的方法[1-3]、基于影像灰度強度對比的方法[4-6]和基于尺度空間理論的方法[7-9]等,其中應(yīng)用最廣泛的是基于尺度空間理論的SIFT方法[7](scale invariant feature transform)。研究人員利用該方法進行多光譜遙感影像的特征點檢測[10-15]。但是,這些方法存在一個共同的問題:特征點響應(yīng)值與影像對比度相關(guān),導(dǎo)致特征點檢測算子對影像對比度變化敏感。因此,這些方法在多光譜遙感影像上往往不能獲得穩(wěn)定的特征檢測結(jié)果。為了提高算法對影像對比度變化的穩(wěn)健性,研究人員提出了一類基于相位一致性的特征點檢測方法[16-17],這類方法能夠更好地適應(yīng)影像之間的輻射變化,因此也被用于多光譜遙感影像特征點檢測[18-20]。相位一致性方法在一定程度上改善了多光譜影像特征點檢測效果,但仍然存在以下問題:①相位一致性方法在理論上對影像對比度變化具有不變性,但在實際應(yīng)用中該方法對多光譜遙感影像輻射變化的穩(wěn)健性不足;②相位一致性方法只是在單一影像層上進行特征點檢測,獲得的特征點沒有特征尺度信息。

針對以上問題,本文在相位一致性方法的基礎(chǔ)上提出一種對多光譜遙感影像輻射和尺度變化穩(wěn)健的特征點檢測方法:首先對輸入影像建立影像亮度空間,然后在亮度空間計算像素點相位一致性特征響應(yīng)值并進行特征點判別,最后在尺度空間計算特征點的尺度值。

1相位一致性特征點檢測方法

相位一致性特征點檢測方法通過假設(shè)影像信號的傅里葉分量相位最一致的點為特征點進行特征檢測。文獻[16—17]定義的相位一致性度量函數(shù)為

(1)

(2)

式中

(3)

式中,PC(θ)表示在方向θ上的相位一致性度量值,求和運算是計算各個方向(6個方向)上的相位一致性累加值。本文將文獻[16—17]提出的相位一致性特征點檢測算子標(biāo)記為PC算子(phase congruency)。

2本文方法

多光譜遙感影像之間的輻射差異體現(xiàn)在影像對比度和亮度兩方面。因此,特征檢測方法需要對影像對比度和亮度變化具有較強的穩(wěn)健性。本文基于相位一致性原理,提出一種多光譜遙感影像特征點檢測方法,算法整體流程如圖1所示。

2.1建立影像亮度空間

借鑒尺度空間的思想,通過建立影像亮度空間并在亮度空間進行特征檢測來提高算法對影像亮度變化的穩(wěn)健性。利用不同參數(shù)的灰度變換函數(shù)對影像進行亮度變換,構(gòu)建影像亮度空間,如圖 2所示。

圖1 本文方法流程圖Fig.1 Flow chart of the proposed point feature detectionmethod

圖2 影像亮度空間示意圖Fig.2 Image illumination-space

圖2中,f(p)為建立影像亮度空間時所采用的灰度變換函數(shù),p為灰度變換函數(shù)中的變量集合。建立影像亮度空間時,如果對于任意的輸入影像都采用同一組參數(shù)的灰度變換函數(shù)進行處理,那么對于不同的影像,其處理后的效果可能會存在很大的差異。因此,在設(shè)計灰度變換函數(shù)時,函數(shù)參數(shù)值應(yīng)根據(jù)具體的輸入影像動態(tài)確定。本文以輸入影像的直方圖分布作為參數(shù)設(shè)置依據(jù)。對于每幅輸入影像,根據(jù)其直方圖分布特性確定灰度變換函數(shù)的參數(shù)值,再利用灰度變換函數(shù)對輸入影像進行變換建立影像亮度空間,具體過程如下。

2.1.1分析影像灰度直方圖

2.1.2確定影像變換函數(shù)

本文選擇對比拉伸函數(shù)作為變換函數(shù)

(4)

式中,I(x,y)為歸一化的輸入影像,取值范圍為[0,1];Is(x,y)為變換后影像,取值范圍為[0,1];γ和c為函數(shù)參數(shù),γ決定函數(shù)曲線的傾斜程度,c表示函數(shù)曲線的橫坐標(biāo)中心值,取值范圍為[0,1]。本文根據(jù)影像直方圖分布確定參數(shù)值。

對每個子區(qū)間內(nèi)灰度級出現(xiàn)頻次所占的比例Pi進行如下處理

(5)

(6)

(7)

(8)

2.1.3建立影像亮度空間

確定了影像變換函數(shù)以后,利用變換函數(shù)對輸入影像進行處理,對應(yīng)不同的函數(shù)參數(shù)獲得一系列亮度變換影像,構(gòu)成輸入影像的亮度空間。

2.2影像亮度空間特征點檢測

本文在影像亮度空間采用PC算子進行特征點檢測,結(jié)合影像亮度空間的亮度穩(wěn)健性和PC算子的對比度不變性實現(xiàn)對多光譜遙感影像輻射變化穩(wěn)健的特征檢測,具體步驟如下。

(1) 計算亮度空間每層亮度影像上所有像素各個方向的相位一致性度量值

PCs(x,y,θ)=

(9)

式中

(10)

(2) 計算每層亮度空間影像上各個像素點所有方向的相位一致性累加值as(x,y)、bs(x,y)和cs(x,y)

(11)

(3) 計算每層亮度空間影像上各個像素點的相位一致性最小矩

(12)

(4) 設(shè)置最小矩閾值t,保存相位一致性最小矩大于閾值t的像素點,將其作為候選特征點。

(5) 將整個亮度空間各層影像上的所有候選特征點反算回原始輸入影像。如果在原始影像上同一個位置存在多個不同亮度層上檢測到的候選特征點,則保留相位一致性最小矩值最大的一個候選特征點。在3×3的鄰域內(nèi)根據(jù)相位一致性最小矩對候選特征點進行非極大值抑制,局部極大值點為最終的特征點。

2.3計算特征尺度值

得到特征點影像坐標(biāo)以后,為了便于影像匹配等后續(xù)應(yīng)用,需要對每個特征點確定一個特征區(qū)域。由于影像之間可能存在尺度縮放,因此在確定特征區(qū)域時,需要考慮影像尺度變化問題。本文基于尺度空間理論計算特征的尺度值,具體計算步驟如下。

(1) 對原始影像計算高斯平滑影像,并建立高斯尺度空間

L(x,y,σ)=G(x,y,σ)·I(x,y)

(13)

式中,I(x,y)為輸入影像;L(x,y,σ)為經(jīng)過標(biāo)準(zhǔn)差為σ的高斯函數(shù)平滑后的影像;G(x,y,σ)為標(biāo)準(zhǔn)差為σ的高斯函數(shù)。

(2) 設(shè)高斯尺度空間層數(shù)為n+1,對于每個候選特征,在各層高斯尺度空間影像上計算同一個空間位置的拉普拉斯響應(yīng)值F(x,y,σi),i=0,1,2,…,n。

(3) 將各層高斯尺度空間影像的拉普拉斯響應(yīng)值與其上下兩層高斯尺度空間影像的拉普拉斯響應(yīng)值進行比較,如果滿足式(14),則該拉普拉斯極值所對應(yīng)的高斯尺度空間尺度值為該特征點的尺度值

F(x,y,σi)>F(x,y,σk)k∈{i-1,i+1}

(14)

由于高斯尺度空間尺度值為離散值,獲得的拉普拉斯極值往往并不是真實的連續(xù)尺度空間極值。因此,需要對獲得的拉普拉斯極值及特征尺度值進行二次函數(shù)插值來逼近連續(xù)尺度空間極值點。

(4) 如果對于某個特征點p(x,y),在步驟(3)中沒有找到拉普拉斯極值點,則將拉普拉斯響應(yīng)值最大值點對應(yīng)的尺度值作為該特征點的尺度值。

3試驗及結(jié)果分析

3.1試驗數(shù)據(jù)

采用如圖3—圖5中所示的遙感影像測試本文方法的性能,并與一些經(jīng)典特征檢測算子進行對比試驗和分析。鑒于DoG算子綜合性能較好,試驗選擇DoG算子作為傳統(tǒng)特征檢測方法的代表。另外,由于本文方法是基于相位一致性理論提出的,因此將本文方法與經(jīng)典的相位一致性PC算子進行對比分析。

圖3 試驗數(shù)據(jù)1(Landsat 8影像)Fig.3 Dataset 1(Landsat 8 images)

圖4 試驗數(shù)據(jù)2(Pleiades-1旋轉(zhuǎn)影像)Fig.4 Dataset 2( Pleiades-1 images with rotation)

圖5 試驗數(shù)據(jù)3(Pleiades-1尺度縮放影像)Fig.5 Dataset 3(Pleiades-1 images with scale change)

圖3所示為Landsat8影像,試驗選擇波段2藍波段影像為參考影像,影像分辨率為30m。波段3、4、5依次為綠、紅、近紅外影像,分辨率均為30m。波段6和波段7為短波紅外影像,分辨率為30m。波段10和波段11為長波紅外影像,分辨率為100m。

圖4所示為2m分辨率的Pleiades-1多光譜影像。試驗選擇圖4(a)中所示的波段3紅波段影像為參考影像。圖4(b)中所示為波段4近紅外波段影像,圖4(c)—(h)中影像為圖4(b)中波段4影像的模擬影像,與圖4(b)中所示影像分別存在30°至180°的逆時針旋轉(zhuǎn)變化。

圖5中所示為2m分辨率的Pleiades-1多光譜影像。圖5(a)中所示為波段3紅波段影像,圖5(b)中所示為波段4近紅外波段影像,圖5(c)—(j)中影像為圖5(b)中波段4影像的模擬影像,與圖5(b)中影像分別存在1.1至2.15倍的尺度縮放。

3.2試驗結(jié)果分析

對比本文方法與PC算子以及DoG算子的特征點重復(fù)率和重復(fù)特征點個數(shù),驗證本文方法對影像輻射、旋轉(zhuǎn)和尺度變化的穩(wěn)健性。試驗中統(tǒng)計重復(fù)特征點數(shù)量時,如果左右兩幅影像上特征點位置歐氏距離小于1個像素,則認(rèn)為這兩個特征點為一對重復(fù)特征。特征點重復(fù)率為重復(fù)特征的個數(shù)與兩幅影像上檢測到的特征個數(shù)中較少的一個特征數(shù)的比值。特征點重復(fù)率及重復(fù)特征點個數(shù)試驗結(jié)果分別如圖6—圖8所示。

圖6 Landsat 8影像特征點檢測結(jié)果Fig.6 Point feature detection results of Landsat 8 images in dataset 1

圖7 Pleiades-1旋轉(zhuǎn)影像特征點檢測結(jié)果Fig.7 Point feature detection results of rotated Pleiades-1 images in dataset 2

圖8 Pleiades-1尺度變化影像特征點檢測結(jié)果Fig.8 Point feature detection results of Pleiades-1 images with scale change in dataset 3

從圖6所示結(jié)果可以看出,對于Landsat8影像,本文方法無論是特征點重復(fù)率還是重復(fù)特征點個數(shù)都表現(xiàn)出了最優(yōu)的性能。其中,由于波段3影像、波段4影像與參考影像都是可見光波段影像,影像間灰度值差異較小,因此在這兩個波段影像上特征檢測重復(fù)率最高,重復(fù)特征數(shù)量最多。對于其他影像,由于處于近紅外、短波紅外和長波紅外波段,與參考影像之間在亮度和對比度方面存在嚴(yán)重的差異,因此特征檢測效果有所下降,但是本文方法在特征檢測過程中通過亮度空間和相位一致性模型分別處理了影像的亮度和對比度變化問題,其檢測效果優(yōu)于PC算子和DoG算子。雖然PC算子中相位一致性模型本身能夠在一定程度上適應(yīng)影像之間的非線性畸變,但是對于可見光波段與紅外波段這類對比度和整體亮度變化都比較大的影像,單獨依靠相位一致性模型難以獲得較好的結(jié)果。因此,PC算子在這類影像上的檢測效果不佳。對比本文方法和PC算子,從本文方法檢測特征的步驟可知,在計算特征尺度時并不會增加特征點的數(shù)量,因此本文方法相對于PC算子性能的提高完全得益于影像亮度空間的建立。同時,本文方法在建立影像亮度空間時,通過影像灰度直方圖分布自適應(yīng)地計算亮度變換函數(shù)的參數(shù)值,進一步提高了本文方法對影像非線性輻射畸變的穩(wěn)健性。從圖7所示結(jié)果可以看出,在3種方法中,仍然是本文方法表現(xiàn)出了最優(yōu)的性能,可見本文方法對影像旋轉(zhuǎn)變化具有較強的穩(wěn)健性。相比而言,當(dāng)影像發(fā)生旋轉(zhuǎn)時,DoG算子無論是特征重復(fù)率還是重復(fù)特征點個數(shù)都發(fā)生了急劇的下降。另外,由于試驗選擇的Pleiades-1影像整體亮度較低,PC算子和DoG算子受影像亮度影響較大,檢測效果不理想。本文方法通過建立亮度空間使其對影像亮度變化具有較強的穩(wěn)健性,因此能夠獲得較好的特征檢測效果,特征重復(fù)率和重復(fù)特征數(shù)量都明顯優(yōu)于PC算子和DoG算子。在圖8所示結(jié)果中,對于影像尺度縮放,PC算子的特征點重復(fù)率高于本文方法。但是,其重復(fù)特征點個數(shù)遠遠少于本文方法。本文方法在保證較高特征重復(fù)率的同時能夠獲得更多的重復(fù)特征,更有利于后續(xù)的特征應(yīng)用。

以上3組試驗結(jié)果表明:本文方法在影像輻射、旋轉(zhuǎn)以及尺度變化情況下均表現(xiàn)出很好的檢測性能。在重復(fù)特征點判別閾值設(shè)置為1個像素時,本文方法依然能夠獲得非常多的重復(fù)特征,說明本文方法檢測到的特征點定位精度非常高。接下來,對本文方法特征區(qū)域的計算性能進行試驗分析。將本文方法與DoG算子進行對比試驗,通過對比兩種算子檢測到的特征區(qū)域重復(fù)率來驗證本文方法的有效性。計算特征區(qū)域重復(fù)率時,通過計算特征區(qū)域之間的區(qū)域誤差來判別重復(fù)特征[21],具體試驗結(jié)果如圖9所示。

圖9 特征區(qū)域重復(fù)率統(tǒng)計結(jié)果Fig.9  Results of feature area repeatability rate

從圖9中試驗結(jié)果可以看出,在同等特征區(qū)域誤差閾值下, 本文方法的特征區(qū)域重復(fù)率高于DoG算子,說明本文方法在保證特征點重復(fù)的同時能夠獲得較準(zhǔn)確的特征尺度值,有利于將本文方法獲得的特征用于影像匹配、目標(biāo)識別等其他應(yīng)用。

需要指出的是,本文方法的時間效率較低。本文方法建立n層影像亮度空間,并在n層亮度空間影像上分別計算相位一致性度量值,因此本文方法的時間復(fù)雜度大約是PC算子的n倍。本文以圖3中的Landsat8影像為試驗數(shù)據(jù),將本文方法與PC算子的時間效率進行對比,試驗結(jié)果見表1。

表1 算法時間效率

表1中的數(shù)據(jù)是在Intel Core 2 2.1 GHz的 Windows XP 系統(tǒng)中,利用Matlab程序運行的結(jié)果。從表1中的試驗結(jié)果可以看出,由于在本文方法中影像亮度空間的層數(shù)設(shè)置為10,同時在建立亮度空間時會占用一些時間開銷,因此總時間開銷略大于10倍PC算子。但是,由于本文方法n層亮度影像上特征檢測過程是相互獨立的,可以進行并行處理。如果采用并行處理,本文方法的時間效率將大幅提升。

4結(jié)論

本文基于相位一致性原理提出了一種對多光譜遙感影像輻射、旋轉(zhuǎn)和尺度變化穩(wěn)健的特征檢測方法。該方法通過建立影像亮度空間提高了算法對影像亮度變化的穩(wěn)健性,同時在亮度空間利用相位一致性模型進行特征點檢測,有效利用了相位一致性模型對影像對比度變化的穩(wěn)健性。將亮度空間與相位一致性模型有機結(jié)合,使得特征檢測能夠較好地克服多源遙感影像之間的輻射差異問題。大量的試驗結(jié)果表明,本文方法對影像輻射變化和幾何變化都具有較強的穩(wěn)健性。本文方法的不足在于時間效率較低,但是由于在每層亮度影像上計算相位一致性度量值是相互獨立的,因此可以進行并行運算。本文的后續(xù)工作將嘗試實現(xiàn)特征檢測的并行處理。

參考文獻:

[1]HARRIS C, STEPHENS M. A Combined Corner and Edge Detector[C]∥Proceedings of the 4th Alvey Vision Conference. Plessey Research Roke Manor: The Plessey Company, 1988: 147-152.

[2]REISFELD D, WOLFSON H, YESHURUN Y. Context-free Attentional Operators: The Generalized Symmetry Transform[J]. International Journal of Computer Vision, 1995, 14(2): 119-130.

[3]王青松, 趙西安, 呂京國, 等. 基于高斯差分的改進Harris特征點提取算法[J]. 測繪科學(xué), 2014, 39(4): 119-122, 134.

WANG Qingsong, ZHAO Xi'an, Lü Jingguo, et al. Feature Points Extraction with Improved Harris Algorithm Based on Difference of Gaussian[J]. Science of Surveying and Mapping, 2014, 39(4): 119-122, 134.

[4]SMITH S, BRADT J M. SUSAN: A New Approach to Low Level Image Processing[J]. International Journal of Computer Vision, 1997, 23(1): 45-78.

[5]王巍, 趙紅蕊. 面向影像匹配的SUSAN角點檢測[J]. 遙感學(xué)報, 2011, 15(5): 940-956.

WANG Wei, ZHAO Hongrui. The Improvement of SUSAN for Image Matching[J]. Journal of Remote Sensing, 2011, 15(5): 940-956.

[6]陳敏, 邵振峰. 一種穩(wěn)健的高效角點特征檢測方法提取變換[J]. 武漢大學(xué)學(xué)報(信息科學(xué)版), 2013, 38(10): 1142-1147.

CHEN Min, SHAO Zhenfeng. A Robust and Efficient Feature Extract Transform[J]. Geomatics and Information Science of Wuhan University, 2013, 38(10): 1142-1147.

[7]LOWE D G. Distinctive Image Features from Scale-invariant Keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91-110.

[8]BAY H, ESS A, TUYTELAARS T, et al. Speeded-up Robust Features (SURF)[J]. Computer Vision and Image Understanding, 2008, 110(3): 346-359.

[9]ALAHI A, ORTIZ R, VANDERGHEYNST P. FREAK: Fast Retina Keypoint[C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Providence, RI: IEEE, 2012: 510-517.

[10]HASAN M, JIA Xiuping, ROBLES-KELLY A, et al. Multi-spectral Remote Sensing Image Registration via Spatial Relationship Analysis on SIFT Keypoints[C]∥Proceedings of IEEE International Geoscience and Remote Sensing Symposium. Honolulu, HI: IEEE, 2010: 1011-1014.

[11]VURAL M, YARDIMCI Y, TEMIZEL A. Registration of multispectral Satellite Images with Orientation-restricted SIFT[C]∥Proceedings of IEEE International, IGARSS 2009, Geoscience and Remote Sensing Symposium. Cape Town: IEEE, 2009, 3: III-243-III-246.

[12]戴激光, 宋偉東, 賈永紅, 等. 一種新的異源高分辨率光學(xué)衛(wèi)星遙感影像自動匹配算法[J]. 測繪學(xué)報, 2013, 42(1): 80-86.

DAI Jiguang, SONG Weidong, JIA Yonghong, et al. A New Automatically Matching Algorithm for Multi-source High Resolution Optical Satellite Images[J]. Acta Geodaetica et Cartographica Sinica, 2013, 42(1): 80-86.

[13]戴激光, 宋偉東, 李玉. 漸進式異源光學(xué)衛(wèi)星影像SIFT匹配方法[J]. 測繪學(xué)報, 2014, 43(7): 746-752.

DAI Jiguang, SONG Weidong, LI Yu. Progressive SIFT Matching Algorithm for Multi-source Optical Satellite Images[J]. Acta Geodaetica et Cartographica Sinica, 2014, 43(7): 746-752.

[14]張謙, 賈永紅, 胡忠文. 多源遙感影像配準(zhǔn)中的SIFT特征匹配改進[J]. 武漢大學(xué)學(xué)報(信息科學(xué)版), 2013, 38(4): 455-459.

ZHANG Qian, JIA Yonghong, HU Zhongwen. An Improved SIFT Algorithm for Multi-source Remote Sensing Image Registration[J]. Geomatics and Information Science of Wuhan University, 2013, 38(4): 455-459.

[15]袁修孝, 李然. 帶匹配支持度的多源遙感影像SIFT匹配方法[J]. 武漢大學(xué)學(xué)報(信息科學(xué)版), 2012, 37(12): 1438-1442.

YUAN Xiuxiao, LI Ran. A SIFT Image Match Method with Match-support Measure for Multi-source Remotely Sensed Images[J]. Geomatics and Information Science of Wuhan University, 2012, 37(12): 1438-1442.

[16]KOVESI P. Image Features from Phase Congruency[J]. Journal of Computer Vision Research, 1999, 1(3): 2-27.

[17]KOVESI P. Phase Congruency Detects Corners and Edges[C]∥Proceedings of the 7th Digital Image Computing: Techniques and Applications. Sydney: [s.n.], 2003: 309-318.

[18]葉沅鑫, 單杰, 熊金鑫, 等. 一種結(jié)合SIFT和邊緣信息的多源遙感影像匹配方法[J]. 武漢大學(xué)學(xué)報(信息科學(xué)版), 2013, 38(10): 1148-1151, 1260.

YE Yuanxin, SHAN Jie, XIONG Jinxin, et al. A Matching Method Combining SIFT and Edge Information for Multi-source Remote Sensing Images[J]. Geomatics and Information Science of Wuhan University, 2013, 38(10): 1148-1151, 1260.

[19]葉沅鑫, 單杰, 彭劍威, 等. 利用局部自相似進行多光譜遙感圖像自動配準(zhǔn)[J]. 測繪學(xué)報, 2014, 43(3): 268-275.

YE Yuanxin, SHAN Jie, PENG Jianwei, et al. Automated Multispectral Remote Sensing Image Registration Using Local Self-similarity[J]. Acta Geodaetica et Cartographica Sinica, 2014, 43(3): 268-275.

[20]李明, 李德仁, 范登科, 等. 利用PC-SIFT的多源光學(xué)衛(wèi)星影像自動配準(zhǔn)方法[J]. 武漢大學(xué)學(xué)報(信息科學(xué)版), 2015, 40(1): 64-70.

LI Ming, LI Deren, FAN Dengke, et al. An Automatic PC-SIFT-based Registration of Multi-source Images from Optical Satellites[J]. Geomatics and Information Science of Wuhan University, 2015, 40(1): 64-70.

[21]MIKOLAJCZYK K, TUYTELAARS T, SCHMID C, et al. A Comparison of Affine Region Detectors[J]. International Journal of Computer Vision, 2005, 65(1-2): 43-72.

(責(zé)任編輯:張艷玲)

修回日期: 2015-06-15

Interest Point Detection for Multispectral Remote Sensing Image Using Phase Congruency in Illumination Space

CHEN Min1,2, ZHU Qing1, ZHU Jun1, XU Zhu1,3,4, HUANG Lanxin1

1. Faculty of Geosciences and Environmental Engineering, Southwest Jiaotong University, Chengdu 611756, China; 2. Sichuan Engineering Research Center for Emergency Mapping & Disaster Reduction, Chengdu 610041, China; 3.Collaborative Innovation Center for Rail Transport Safety, Chengdu 610031, China; 4. State-Province Joint Engineering Laboratory of Spatial Information Technology for High-speed Railway Safety, Chengdu 610031, China

Abstract:A robust interest point detection algorithm based on illumination space and phase congruency is proposed in this paper. Firstly, image illumination space is constructed by using a parameters adaptive method. Secondly, a phase congruency based interest point detection algorithm is adopted to compute candidate points in illumination space. Then, all interest point candidates are mapped back to the original image and a non-maximum suppression step is added to find final interest points. Finally, the feature scale values of all interest points are calculated based on the Laplacian function. The proposed algorithm combines the advantages of illumination space and phase congruency, which makes the proposed method robust to the radiation variation of multispectral images. The experimental results show that the proposed method performs better than other traditional methods in feature repeatability rate and repeated features number.

Key words:phase congruency; illumination space; multispectral remote sensing image; interest point

基金項目:國家自然科學(xué)基金(41471320;41501492);四川省科技支撐計劃(2014SZ0106;2015SZ0046);四川省應(yīng)急測繪與防災(zāi)減災(zāi)工程技術(shù)研究中心開放基金(K2015B006);測繪遙感信息工程國家重點實驗室開放基金((14)Key03);長江學(xué)者和創(chuàng)新團隊發(fā)展計劃(IRT13092)

中圖分類號:P237

文獻標(biāo)識碼:A

文章編號:1001-1595(2016)02-0178-08

作者簡介:第一 王維(1982—),女,博士,助理研究員,研究方向為GPS數(shù)據(jù)處理與應(yīng)用技術(shù)。

收稿日期:2014-12-08

First author: WANG Wei (1982—), female,PhD,assistant research fellow,majors in GPS data processing and application.

E-mail: wangwei_nj@126.com

引文格式:陳敏,朱慶,朱軍,等.多光譜遙感影像亮度空間相位一致性特征點檢測[J].測繪學(xué)報,2016,45(2):178-185. DOI:10.11947/j.AGCS.2016.20150030.

CHEN Min, ZHU Qing, ZHU Jun, et al.Interest Point Detection for Multispectral Remote Sensing Image Using Phase Congruency in Illumination Space[J]. Acta Geodaetica et Cartographica Sinica,2016,45(2):178-185. DOI:10.11947/j.AGCS.2016.20150030.

阳原县| 碌曲县| 城步| 乐昌市| 星座| 磴口县| 中西区| 武威市| 青川县| 漾濞| 泸定县| 宁武县| 霍山县| 朝阳区| 高密市| 盐津县| 武胜县| 英超| 恭城| 晋中市| 道真| 台东市| 景东| 汕尾市| 海阳市| 孝昌县| 定州市| 大洼县| 青海省| 南宁市| 古浪县| 福鼎市| 辛集市| 永定县| 兴安县| 彰化市| 罗山县| 雷波县| 泸西县| 潜江市| 海口市|