李成軼, 田淑芳
(中國(guó)地質(zhì)大學(xué)(北京)地球科學(xué)與資源學(xué)院,北京 100083)
基于字典學(xué)習(xí)的遙感影像超分辨率融合方法
李成軼, 田淑芳
(中國(guó)地質(zhì)大學(xué)(北京)地球科學(xué)與資源學(xué)院,北京 100083)
鑒于多源遙感影像融合受現(xiàn)有分辨率的限制,結(jié)合稀疏表示理論,提出了一種基于字典學(xué)習(xí)的遙感影像超分辨率融合方法,可將多光譜影像的空間分辨率提升到全色影像空間分辨率的1倍或2倍。在遙感影像融合框架下,首先建立學(xué)習(xí)字典,利用冗余字典對(duì)影像稀疏表示,重構(gòu)超分辨率; 然后采用Gram-Schmidt(GS)光譜銳化法,融合得到超分辨率多光譜影像。利用QuickBird數(shù)據(jù)對(duì)提出的方法進(jìn)行3個(gè)實(shí)驗(yàn),結(jié)果都表明本文方法相對(duì)傳統(tǒng)融合方法、傳統(tǒng)超分辨率方法和其他字典學(xué)習(xí)方案具有一定優(yōu)勢(shì),適用于遙感影像超分辨率融合,可為多源遙感影像融合的超分辨率問(wèn)題提供1種可行的解決方案,而且對(duì)其他融合方法也有借鑒意義。
QuickBird; 字典學(xué)習(xí); 稀疏表示; 超分辨率; 影像融合
遙感數(shù)據(jù)融合技術(shù)能對(duì)不同來(lái)源的數(shù)據(jù)進(jìn)行優(yōu)化組合,從而提高影像的分辨率和影像分析結(jié)果的準(zhǔn)確性與置信度,并最終提高對(duì)待定目標(biāo)自動(dòng)監(jiān)測(cè)和識(shí)別的有效性[1]。目前廣泛應(yīng)用的像素級(jí)遙感影像融合,能更多地保留影像的原有信息,提供更多的細(xì)節(jié)信息[2]。然而傳統(tǒng)的像素級(jí)融合方法受現(xiàn)有分辨率的限制,常將多光譜影像通過(guò)插值方法“放大”到全色影像大小,再按一定的融合規(guī)則進(jìn)行融合,因而在同一區(qū)域只能融合得到當(dāng)前現(xiàn)有影像的分辨率; 而插值往往不能真實(shí)反映地物客觀情況,融合得到的影像信息可靠性不強(qiáng)。一些學(xué)者將稀疏表示法用于實(shí)現(xiàn)影像超分辨率,在重構(gòu)影像的同時(shí)實(shí)現(xiàn)了影像“放大”,并很好地保證了影像質(zhì)量[3]。
本文以突破遙感影像融合受現(xiàn)有分辨率限制為出發(fā)點(diǎn),引入影像處理領(lǐng)域中的超分辨率影像重構(gòu)概念。超分辨率影像重構(gòu)的目的在于復(fù)原采樣之外的信息,使影像獲得更多的細(xì)節(jié)信息[4]。超分辨率影像重構(gòu)有太多的未知數(shù)和病態(tài)條件組成的欠定方程組,其往往難以求解[5]。針對(duì)該問(wèn)題,Stark等[6]采用了凸集投影,而Irani等[7]采用了反向迭代投影。針對(duì)上述方法的不足,本文利用字典學(xué)習(xí)具有的更好的稀疏性和自適應(yīng)能力,提出了基于字典學(xué)習(xí)的遙感影像超分辨率融合方法。通過(guò)對(duì)樣本進(jìn)行學(xué)習(xí)得到學(xué)習(xí)字典,利用字典稀疏表示分別實(shí)現(xiàn)影像各波段的超分辨率重構(gòu); 再把重構(gòu)后的多光譜與全色影像按一定的融合規(guī)則進(jìn)行融合,得到最終的超分辨率融合影像。
稀疏表示的主要思想是先求解源影像在冗余字典下最稀疏的表示,即稀疏表示系數(shù); 再將稀疏表示系數(shù)與冗余字典相乘,從而精確地重構(gòu)影像。
如果1個(gè)信號(hào)中大部分值為0,則稱這個(gè)信號(hào)是稀疏的; 若其中有K個(gè)不為0的值,則稱信號(hào)是K稀疏的(K-sparse)。信號(hào)的稀疏表示就是將信號(hào)投影到某個(gè)稀疏基,使絕大部分稀疏系數(shù)為0或很小,于是得到信號(hào)在這個(gè)稀疏基下的稀疏表示。常用的稀疏基有離散余弦變換基、快速傅里葉變換基、離散小波變換基、Curvelet基、Gabor基以及冗余字典等[8]。信號(hào)實(shí)值x∈RN×1可用稀疏基Ψ∈RN×K線性表示為[9]
x=Ψs,
(1)
式中s為信號(hào)x在稀疏基Ψ下的稀疏表示。
由少量測(cè)量值y重構(gòu)x在本質(zhì)上是1個(gè)病態(tài)問(wèn)題,難以求解。但是,在壓縮感知先驗(yàn)條件和理論框架下,信號(hào)x可由測(cè)量值y通過(guò)求解最優(yōu)l0范數(shù)問(wèn)題精確重構(gòu)[10],即
(2)
式中L為測(cè)量矩陣,優(yōu)化問(wèn)題可以等價(jià)用l1范數(shù)最小化算法或用貪婪算法等求解。常用的l1范數(shù)最小化算法有基追蹤(basis pursuit,BP)和線性規(guī)劃等; 貪婪算法有正交匹配追蹤(orthogonal matching pursuit,OMP)等。線性規(guī)劃方法重構(gòu)質(zhì)量好,但計(jì)算復(fù)雜度很高[11-12]; 貪婪算法速度快,但迭代相同次數(shù)的重構(gòu)質(zhì)量較BP算法差[13]。
2.1 超分辨率融合流程
本文超分辨率融合的技術(shù)流程主要包括影像的超分辨率重構(gòu)和對(duì)重構(gòu)影像的優(yōu)化組合(圖1)。
圖1 技術(shù)流程圖
2.2 字典學(xué)習(xí)
在基于字典的稀疏表示中,采用冗余字典作為稀疏基; 常用2類方法獲得冗余字典: ①采用固定字典; ②采用學(xué)習(xí)的方法獲得字典。針對(duì)選取固定字典的自適應(yīng)性不足,本文采取用于K稀疏表示的奇異值分解(K-singular value decomposition,K-SVD)方法[14]對(duì)細(xì)節(jié)更豐富的遙感影像進(jìn)行學(xué)習(xí),獲得冗余字典,并與離散余弦轉(zhuǎn)換(discrete cosine transformation, DCT)固定字典進(jìn)行比較。
K-SVD依據(jù)誤差最小的原則,對(duì)誤差項(xiàng)進(jìn)行SVD分解,選擇使誤差最小的分解項(xiàng)作為更新的字典原子和對(duì)應(yīng)的原子系數(shù),經(jīng)過(guò)不斷的迭代得到優(yōu)化解,求解方法為
(3)
式中:Y為初始輸入的DCT字典;D為待求解的高分辨率字典;X為隨機(jī)選取的影像塊;i為X中的列號(hào);T為稀疏度控制系數(shù)。
2.3 分波段超分辨率重構(gòu)
分波段重構(gòu)即分別對(duì)多光譜影像各波段和全色影像進(jìn)行超分辨率重構(gòu)。現(xiàn)有的超分辨率融合方法的處理思路是: 將3個(gè)波段進(jìn)行RGB彩色合成; 對(duì)合成影像進(jìn)行RGB向HIS彩色空間轉(zhuǎn)換后,再對(duì)其中的I分量重構(gòu),對(duì)H和S分量進(jìn)行插值放大; 最后進(jìn)行HIS逆變換,得到融合后的影像。這類融合方法在遙感應(yīng)用中存在嚴(yán)重不足: ①?zèng)]有充分發(fā)揮遙感影像高光譜分辨率的優(yōu)勢(shì),遙感影像一般多于3個(gè)波段; ②僅對(duì)HIS中的1個(gè)分量進(jìn)行重構(gòu),而對(duì)另2個(gè)分量值只進(jìn)行簡(jiǎn)單插值,這種處理方式得到的融合結(jié)果并不客觀、可靠性不高。
為此,分別把多光譜影像各波段和全色影像分塊列向量化。給定1個(gè)p×p(p∈Z+)低分辨率影像塊,將其按“列優(yōu)先”原則轉(zhuǎn)化為向量y∈Rm,m=p2,重構(gòu)獲得q×q(q∈Z+)超分辨率影像塊x∈Rn,n=q2。單個(gè)多光譜影像波段與全色影像的關(guān)系可以用一個(gè)線性測(cè)量矩陣L表示為
y=Lx,L∈Rm×n。
(4)
將y認(rèn)為是x的1個(gè)下采樣版本,即把低分辨率影像認(rèn)為是將超分辨率影像經(jīng)過(guò)降質(zhì)采樣后得到的影像,令p=2,q=4,則L∈R4×16有如下形式,即
(5)
重構(gòu)放大系數(shù)為M=q/p。
根據(jù)式(5),低分辨率影像和超分辨率影像的關(guān)系可表示為
y=Lx=LDα,
(6)
式中:y為低分辨率影像塊向量;L為感知矩陣;x為超分辨率影像塊向量;α為x的稀疏表示;D為學(xué)習(xí)得到的冗余字典。
在冗余字典稀疏基下,超分辨率影像塊向量x被稀疏表示為α,感知矩陣L與x相乘對(duì)應(yīng)到所觀測(cè)的低分辨率影像塊向量y。其中k為稀疏度,即向量α中只有k個(gè)值不為0(圖2)。
圖2 超分辨率重構(gòu)示意圖
α∈RN,‖α‖0=K< (7) 對(duì)此,采用重構(gòu)性能較好的基追蹤(BP)算法[15]求解。BP算法是基于l1范數(shù)的凸重建算法,即 (8) 式中ε為重構(gòu)誤差。 2.4 融合規(guī)則 由于本文基于字典學(xué)習(xí)的超分辨率融合方法的核心技術(shù)體現(xiàn)在基于K-SVD學(xué)習(xí)字典分波段超分辨率環(huán)節(jié),為了與遙感影像處理很好地結(jié)合,考慮到Gram-Schmidt(GS)正交化變換具有良好的數(shù)值穩(wěn)定性,可充分利用每個(gè)波段的特性,消除矩陣的冗余信息,因此本文的融合規(guī)則僅選用遙感影像融合中常用的GS光譜銳化法為融合規(guī)則[16]。 GS光譜銳化方法融合步驟: ①?gòu)牡头直媛实亩喙庾V影像中復(fù)制出1個(gè)全色波段; ②對(duì)該全色波段和多光譜波段進(jìn)行GS變換,其中全色波段被作為第1個(gè)波段; ③用GS變換后的第1個(gè)波段替換高空間分辨率的全色波段; ④應(yīng)用GS反變換構(gòu)成最終的超分辨率融合影像。 GS正交化算法如下: 設(shè){u1,u2,…,un}是1組相互獨(dú)立的向量,通過(guò)GS變換構(gòu)造正交向量{v1,v2,…,vn},則 實(shí)驗(yàn)采用高分?jǐn)?shù)據(jù)QuickBird作為數(shù)據(jù)源,對(duì)多光譜影像和全色影像進(jìn)行超分辨率融合。仿真平臺(tái)硬件環(huán)境為: Intel(R)Core (TM)i7-3770CPU,4GB內(nèi)存的PC機(jī); 軟件開(kāi)發(fā)工具為Windows7操作系統(tǒng),MATLAB(R2013a)。 進(jìn)行3個(gè)實(shí)驗(yàn),用本文方法對(duì)多光譜和全色影像進(jìn)行超分辨率融合。實(shí)驗(yàn)1(第3.1節(jié))把多光譜影像分辨率提升到全色影像的分辨率,與傳統(tǒng)融合方法進(jìn)行對(duì)比; 實(shí)驗(yàn)2(第3.2節(jié))把多光譜影像分辨率提升到全色影像分辨率的2倍,與傳統(tǒng)超分辨方法進(jìn)行對(duì)比; 實(shí)驗(yàn)3(第3.3節(jié))提升多光譜影像分辨率到全色影像分辨率的2倍,與DCT固定字典超分辨率方法和文獻(xiàn)[17]中的K-SVD方法學(xué)習(xí)字典的超分辨率方法進(jìn)行對(duì)比。為了分別評(píng)價(jià)本文方法融合的實(shí)際效果和突破分辨率的保真情況,實(shí)驗(yàn)1主要引入平均梯度、信息熵、聯(lián)合熵、標(biāo)準(zhǔn)差和偏差指數(shù)作為評(píng)價(jià)指標(biāo),綜合評(píng)價(jià)本文方法與傳統(tǒng)方法的融合效果。在實(shí)驗(yàn)2和實(shí)驗(yàn)3中,由于將超分辨率放大到全色影像的2倍,缺少真值作為參考,因此舍棄了偏差指數(shù)和聯(lián)合熵,主要用平均梯度、信息熵和標(biāo)準(zhǔn)差作為評(píng)價(jià)指標(biāo),評(píng)價(jià)影像本身的質(zhì)量。其中,平均梯度表征影像清晰度,信息熵表征信息豐富度,聯(lián)合熵表征與原影像信息的互信息關(guān)系,標(biāo)準(zhǔn)差表征影像對(duì)比度,偏差指數(shù)表征光譜失真度。 3.1 與傳統(tǒng)融合方法對(duì)比 針對(duì)QuickBird影像多光譜波段和全色波段進(jìn)行融合,即把多光譜波段的空間分辨率從2.8 m提升到0.7 m,并與常用的HSV,Brovey和PCA影像融合方法進(jìn)行對(duì)比分析。 對(duì)實(shí)驗(yàn)結(jié)果(圖3)從目視角度可以看出,PCA融合影像失真嚴(yán)重,HSV和Brovey融合影像出現(xiàn)了彩色噪點(diǎn),總體來(lái)說(shuō)本文方法融合影像在視覺(jué)上具有優(yōu)勢(shì)。 (a) HSV (b) PCA(c) Brovey(d) 本文方法 圖3 本文方法與傳統(tǒng)融合方法效果對(duì)比 Fig.3 Comparison of fusion effects between method proposed in this paper and traditional methods 表1為4種方法融合質(zhì)量的客觀評(píng)價(jià)指標(biāo)。 表1 4種方法融合質(zhì)量評(píng)價(jià) ①()內(nèi)的數(shù)字表示評(píng)價(jià)指標(biāo)從優(yōu)到差排序的位置,(1)為最優(yōu),(4)為最差。 從表1可以看出,本文融合方法在平均梯度指標(biāo)上僅次于HSV,而優(yōu)于其他3種方法,清晰度較好; 而聯(lián)合熵指標(biāo)最高,信息熵僅次于PCA,信息蘊(yùn)含量大; 標(biāo)準(zhǔn)差指標(biāo)僅次于HSV,對(duì)于人眼目視效果較好; 偏差指數(shù)指標(biāo)最優(yōu),對(duì)光譜保持最好,較少產(chǎn)生畸變。本文方法在5項(xiàng)指標(biāo)中占了2項(xiàng)最優(yōu)、3項(xiàng)次優(yōu),綜合評(píng)價(jià)為4種融合方法中的質(zhì)量最優(yōu)融合方法。 3.2 與傳統(tǒng)超分辨率重構(gòu)方法對(duì)比 為了驗(yàn)證本文方法的超分辨率重構(gòu)效果,分別用本文方法和常用的超分辨率插值方法將多光譜影像分辨率提高到全色影像的2倍,從平均梯度、信息熵、標(biāo)準(zhǔn)差和目視效果4個(gè)方面來(lái)評(píng)價(jià)重構(gòu)結(jié)果。 圖4為同一個(gè)區(qū)域的QuickBird影像,其多光譜影像(圖4(a),Band3(R)Band2(G)Band 1(B)假彩色合成)空間分辨率為2.8 m(影像大小為512像元×512像元),全色影像分辨率為0.7 m(影像大小為2 048像元×2 048像元)。如果使用傳統(tǒng)融合方法,只能融合得到空間分辨率為0.7 m(影像大小為2 048像元×2 048像元)的多光譜影像。然而,在基于字典學(xué)習(xí)的超分辨率理論下,本文對(duì)影像進(jìn)行超分辨率重構(gòu),突破了最大分辨率的限制,得到全色波段影像分辨率的2倍(空間分辨率為0.35 m,影像大小為4 096像元×4 096像元)的多光譜波段影像。 (a) 原始影像(b) 最鄰近(c) 雙線性(d) 三次卷積 (e) 本文方法 圖4 本文方法與超分辨率方法對(duì)比 (QuickBird B3(R),B2(G),B1(B)假彩色合成影像) Fig.4 Comparison between proposed method and traditional super-resolution method 圖4(a)是大小為512像元×512像元的QuickBird原始多光譜影像; 圖4(b)(c)(d)分別是原始影像經(jīng)最鄰近、雙線性、三次卷積方法傳統(tǒng)超分辨率插值后放大到4 096像元×4 096像元后的影像; 圖4(e)是用本文方法融合提升到4 096像元×4 096像元后的高保真影像。由于進(jìn)行了超分辨率放大,沒(méi)有真值作為參考,因此舍棄了聯(lián)合熵與偏差指數(shù)指標(biāo),本實(shí)驗(yàn)主要選取了表征融合影像本身信息量的平均梯度、信息熵和標(biāo)準(zhǔn)差作為評(píng)價(jià)指標(biāo)。質(zhì)量評(píng)價(jià)結(jié)果表明(表2),基于插值的方法信息損失嚴(yán)重,影像會(huì)出現(xiàn)鋸齒現(xiàn)象,尤其是原始影像中的細(xì)節(jié)信息很容易出現(xiàn)過(guò)模糊現(xiàn)象; 而本文超分辨率融合的方法能很好地保留地物的真實(shí)信息,3項(xiàng)評(píng)價(jià)指標(biāo)明顯優(yōu)于傳統(tǒng)插值方法。 表2 超分辨率融合質(zhì)量評(píng)價(jià) ①()內(nèi)的數(shù)字表示評(píng)價(jià)指標(biāo)從優(yōu)到差排序的位置,(1)為最優(yōu),(4)為最差。 3.3 K-SVD學(xué)習(xí)字典與DCT固定字典對(duì)比 考慮到一個(gè)合適的字典對(duì)重構(gòu)影像非常重要,為了驗(yàn)證本文K-SVD字典學(xué)習(xí)方法的有效性,針對(duì)本文融合過(guò)程中的重構(gòu)環(huán)節(jié),在文獻(xiàn)[17]基礎(chǔ)上做出了改進(jìn)。文獻(xiàn)[17]基于字典學(xué)習(xí)策略實(shí)現(xiàn)了單景影像的超分辨率重構(gòu),其選取的訓(xùn)練樣本為自然影像。為了使訓(xùn)練字典的樣本空間細(xì)節(jié)更加豐富,考慮到WorldView2影像分辨率更高(全色影像空間分辨率0.5 m,多光譜影像空間分辨率1.8 m),細(xì)節(jié)更豐富,且與QuickBird影像的統(tǒng)計(jì)特征相似,本文有針對(duì)性地采用空間分辨率為0.5 m的WorldView2全色波段影像(影像大小為3 075像元×3 502像元)隨機(jī)提取100 000個(gè)小塊(每個(gè)小塊為4像元×4像元)作為樣本訓(xùn)練字典, 并且采用K-SVD方法進(jìn)行字典學(xué)習(xí)(圖5); 在此基礎(chǔ)上結(jié)合融合規(guī)則,能更好地補(bǔ)充QuickBird影像的細(xì)節(jié)信息,使其各波段經(jīng)超分辨率融合后信息量保持更大,得到空間分辨率是全色波段影像分別率2倍的超分辨率多光譜影像。 (a) 用于訓(xùn)練字典的WorldView2影像 (b) DCT字典 (c) 文獻(xiàn)[17]字典 (d) 本文字典 圖5 WorldView2影像及其訓(xùn)練得到的字典 Fig.5 WorldView2 image and its dictionaries obtained by training 圖6(a)是大小為512像元×512像元的原始影像, 圖6(b)(c)(d)分別是用DCT字典、經(jīng)文獻(xiàn)[17]的稀疏重構(gòu)和本文方法超分辨率融合提升到4 096像元×4 096像元后的高保真影像。 (a) 原始影像(b) DCT字典(c) 文獻(xiàn)[17]方法(d) 本文方法 圖6 不同字典獲取方法對(duì)比 Fig.6 Comparison among different dictionary access methods 由于進(jìn)行了超分辨率放大,沒(méi)有真值作為參考,因此舍棄了聯(lián)合熵與偏差指數(shù)指標(biāo),本實(shí)驗(yàn)主要選取了表征融合影像本身信息量的平均梯度、信息熵和標(biāo)準(zhǔn)差作為評(píng)價(jià)指標(biāo)(表3)??梢钥闯?,本文、DCT和文獻(xiàn)[17]的基于重構(gòu)的方法均能很好地保留地物真實(shí)信息,3項(xiàng)指標(biāo)均明顯優(yōu)于實(shí)驗(yàn)2中傳統(tǒng)插值方法,學(xué)習(xí)字典的方法較之DCT字典方法重構(gòu)的質(zhì)量更好,本文方法比DCT字典和文獻(xiàn)[17]的超分辨率重構(gòu)方法得到的融合影像在評(píng)價(jià)指標(biāo)和目視效果上都更為合理,擁有3項(xiàng)最優(yōu)的地位。 表3 不同字典獲取方法融合質(zhì)量評(píng)價(jià) ①()內(nèi)的數(shù)字表示評(píng)價(jià)指標(biāo)從優(yōu)到差排序的位置,(1)為最優(yōu),(4)為最差。 1)本文提出了一種基于字典學(xué)習(xí)的遙感影像超分辨率融合方法,實(shí)現(xiàn)了稀疏表示超分辨率與影像融合的結(jié)合。該方法通過(guò)超分辨重構(gòu)使多光譜和全色影像分別達(dá)到預(yù)期空間分辨率大小,解決了遙感影像融合中突破現(xiàn)有分辨率限制的問(wèn)題; 既可達(dá)到傳統(tǒng)意義上的融合目的,也能突破現(xiàn)有分辨率,得到更高分辨率的遙感影像。 2)相對(duì)于其他基于稀疏表示和字典學(xué)習(xí)的影像超分辨率方案,本文提出的方法針對(duì)更高分辨率遙感影像選取K-SVD方法訓(xùn)練字典,能達(dá)到更好的遙感影像超分辨率融合效果。 3)有資料顯示,噪聲與信號(hào)的稀疏情況不同。本文的重構(gòu)算法(BP)也常用于稀疏信號(hào)去噪,在理論上本文方法具有一定的抗噪性,因篇幅有限,本文暫未進(jìn)行詳細(xì)論述。 本文方法依然在以下方面有待改進(jìn)和發(fā)展: ①如何找到一個(gè)合適的稀疏基,使影像最為稀疏,確保重構(gòu)精度更高; ②改進(jìn)重構(gòu)方法,提高重構(gòu)效率; ③進(jìn)一步與壓縮感知理論相結(jié)合,改進(jìn)傳感器采樣方式,實(shí)現(xiàn)在壓縮域進(jìn)行融合重構(gòu),這在海量高精度遙感數(shù)據(jù)處理和應(yīng)用中具有良好的發(fā)展前景。 [1] 柴艷妹.多源遙感圖像融合技術(shù)研究[D].西安:西北工業(yè)大學(xué),2004. Chai Y M.The Study on Multi-sensor Image Fusion in Remote Sensing[D].Xi’an:Northwestern Polytechnical University,2004. [2] 謝茜.像素級(jí)遙感圖像融合方法研究[D].長(zhǎng)沙:中南大學(xué),2009. Xie X.Remote Sensing Image Fusion Method Based on Pixel-level[D].Changsha:Central South University,2009. [3] Yang J C,Wright J,Huang T S,et al.Image super-resolution via sparse representation[J].IEEE Transactions on Image Processing,2010,19(11):2861-2873. [4] 蘇秉華,金偉其,牛麗紅,等.超分辨率圖像復(fù)原及其進(jìn)展[J].光學(xué)技術(shù),2001,27(1):6-9. Sun B H,Jin W Q,Niu L H,et al.Super-resolution image restoration and progress[J].Optical Technique,2001,27(1):6-9. [5] 史祥燕.基于稀疏表示的視頻圖像超分辨率重建算法研究[D].大連:大連海事大學(xué),2013. Shi X Y.Research on Sparse Representation Based Video Super-resolution Reconstruction Algorithm[D].Dalian:Dalian Maritime University,2013. [6] Stark H,Oskoui P.High-resolution image recovery from image-plane arrays,using convex projections[J].Journal of the Optical Society of America A,1989,6(11):1715-1726. [7] Irani M,Peleg S.Improving resolution by image registration[J].CVGIP:Graphical Models and Image Processing,1991,53(3):231-239. [8] 李樹(shù)濤,魏丹.壓縮傳感綜述[J].自動(dòng)化學(xué)報(bào),2009,35(11):1369-1377. Li S T,Wei D.A survey on compressive sensing[J].Acta Automatica Sinica,2009,35(11):1369-1377. [9] Wan T,Canagarajah N,Achim A.Compressive image fusion[C]//Proceedings of the 15th IEEE International Conference on Image Processing.San Diego,CA:IEEE,2008:1308-1311. [10]Donoho D L.Compressed sensing[J].IEEE Transactions on Information Theory,2006,52(4):1289-1306. [11]Candès E J,Romberg J,Tao T.Robust uncertainty principles:Exact signal reconstruction from highly incomplete frequency information[J].IEEE Transactions on Information Theory,2006,52(2):489-509. [12]Candès E J.Compressive sampling[C]//Proceedings of the International Congress of Mathematicians.Madrid:[s.n.],2006:1433-1452. [13]Tropp J A,Gilbert A C.Signal recovery from random measurements via orthogonal matching pursuit[J].IEEE Transactions on Information Theory,2007,53(12):4655-4666. [14]Aharon M,Elad M,Bruckstein A.rmK-SVD:An algorithm for designing overcomplete dictionaries for sparse representation[J].IEEE Transactions on Signal Processing,2006,54(11):4311-4322. [15]Chen S S,Donoho D L,Saunders M A.Atomic decomposition by basis pursuit[J].SIAM Journal on Scientific Computing,1998,20(1):33-61. [16]黃健,顧海.基于Gram-Schmidt變換的QuickBird影像融合[C]//地理信息與物聯(lián)網(wǎng)論壇暨江蘇省測(cè)繪學(xué)會(huì)2010年學(xué)術(shù)年會(huì)論文集.無(wú)錫:江蘇省測(cè)繪學(xué)會(huì),2010. Huang J,Gu H.QuickBird image fusion based on Gramm-Schmidt transform[C]//Geographic Information and Internet BBS and Surveying and Mapping Institute of Jiangsu Province in 2010 Academic Essays.Wuxi:Jiangsu Surveying and Mapping Institute,2010. [17]Yang S Y,Sun F H, Wang M,et al.Novel super resolution restoration of remote sensing images based on compressive sensing and example patches-aided dictionary learning[C]//Proceedings of the 2011 International Workshop on Multi-Platform/Multi-Sensor Remote Sensing and Mapping.Xiamen:IEEE,2011:1-6. (責(zé)任編輯: 邢宇) Super-resolution fusion method for remote sensing image based on dictionary learning LI Chengyi, TIAN Shufang (SchoolofEarthSciencesandResources,ChinaUniversityofGeosciences(Beijing),Beijing100083,China) In consideration of the fact that multi-source remote sensing image fusion is restricted by the existing resolution, the authors propose a super-resolution remote sensing image fusion method based on dictionary learning with sparse representation theory in this paper. The spatial resolution of multispectral images can be promoted to 1 or 2 times higher than the spatial resolution of panchromatic image. Under the framework of the method in remote sensing image fusion, a learning dictionary was established, the redundant dictionary on image sparse representation was used to conduct super-resolution reconstruction implementation. Then the Gram-Schmidt(GS)spectrum sharpening method was used as a fusion rule to obtain super resolution multispectral image fusion. Three experiments were carried out using QuickBird data. The results show that the proposed method is suitable for remote sensing image super-resolution fusion with some advantages in comparison with traditional fusion method, traditional super-resolution method and the other dictionary learning strategy. This paper provides a feasible solution for multi-source remote sensing image fusion, and has referential significance for other fusion methods. QuickBird; dictionary learning; sparse representation; super-resolution; image fusion 10.6046/gtzyyg.2017.01.08 李成軼,田淑芳.基于字典學(xué)習(xí)的遙感影像超分辨率融合方法[J].國(guó)土資源遙感,2017,29(1):50-56.(Li C Y,Tian S F.Super-resolution fusion method for remote sensing image based on dictionary learning[J].Remote Sensing for Land and Resources,2017,29(1):50-56.) 2015-07-24; 2015-11-20 中國(guó)地質(zhì)調(diào)查局地質(zhì)調(diào)查項(xiàng)目“京津地區(qū)礦產(chǎn)資源開(kāi)發(fā)環(huán)境遙感監(jiān)測(cè)”(編號(hào): 12120115060901)資助。 李成軼(1992- ),男,碩士研究生,主要研究方向?yàn)檫b感與GIS數(shù)據(jù)處理。Email: lcy@cugb.edu.cn。 田淑芳(1963-),女,副教授,主要從事遙感與GIS的教學(xué)和科研工作。Email: sftian@cugb.edu.cn。 TP 751.1 A 1001-070X(2017)01-0050-073 結(jié)果與分析
4 結(jié)論