王文卿 劉涵 謝國(guó) 劉偉
摘 要:針對(duì)多光譜圖像與全色圖像間的局部空間差異引起的空譜失真問(wèn)題,提出了一種改進(jìn)空間細(xì)節(jié)提取策略的分量替換遙感圖像融合方法。與傳統(tǒng)空間細(xì)節(jié)提取方法不同,該方法旨在合成高質(zhì)量的強(qiáng)度圖像,用其取代空間細(xì)節(jié)提取步驟中全色圖像的位置,以獲取匹配多光譜圖像的空間細(xì)節(jié)信息。首先,借助低分辨率強(qiáng)度圖像與高分辨率強(qiáng)度圖像的流形結(jié)構(gòu)一致性,利用基于局部線性嵌入的圖像重建方法重構(gòu)第一幅高分辨率強(qiáng)度圖像;其次,對(duì)低分辨率強(qiáng)度圖像與全色圖像分別進(jìn)行小波分解,保留低分辨率強(qiáng)度圖像的低頻信息與全色圖像的高頻信息,利用逆小波變換重構(gòu)第二幅高分辨率強(qiáng)度圖像;然后,將兩幅高分辨率強(qiáng)度圖像進(jìn)行稀疏融合,獲得高質(zhì)量強(qiáng)度圖像;最后,將合成的高分辨率強(qiáng)度圖像應(yīng)用到分量替換融合框架,獲取最終融合圖像。實(shí)驗(yàn)結(jié)果表明,與另外11種融合方法相比,所提方法得到的融合圖像具有較高的空間分辨率和較低的光譜失真度,該方法的平均相關(guān)系數(shù)、均方根誤差、相對(duì)整體維數(shù)合成誤差、光譜角匹配指數(shù)和基于四元數(shù)理論的指標(biāo)在三組GeoEye-1融合圖像上的均值分別為:0.9439、24.3479、2.7643、3.9376和0.9082,明顯優(yōu)于對(duì)比方法的相應(yīng)評(píng)價(jià)指標(biāo)。該方法可有效地消除局部空間差異對(duì)分量替換融合框架性能的影響。
關(guān)鍵詞:多光譜圖像;全色圖像;分量替換融合框架;空間細(xì)節(jié)提取;稀疏融合
中圖分類號(hào): TP751.1文獻(xiàn)標(biāo)志碼:A
Component substitution-based fusion method for remote sensing images via
improving spatial detail extraction scheme
WANG Wenqing1,2*, LIU Han1,2, XIE Guo1,2, LIU Wei1,2
(1. School of Automation and Information Engineering, Xian University of Technology, Xian Shaanxi 710048, China;
2. Shaanxi Key Laboratory of Complex System Control and Intelligent Information Processing
(Xian University of Technology), Xian Shaanxi 710048, China)
Abstract: Concerning the spatial and spectral distortions caused by the local spatial dissimilarity between the multispectral and panchromatic images, a component substitution-based remote sensing image fusion method was proposed via improving spatial detail extraction scheme. Different from the classical spatial detail extraction methods, a high-resolution intensity image was synthesized by the proposed method to replace the panchromatic image in spatial detail extraction with the aim of acquiring spatial detail information matching the multispectral image. Firstly, according the manifold consistency between the low-resolution intensity image and the high-resolution intensity image, locally linear embedding-based reconstruction method was used to reconstruct the first high-resolution intensity image. Secondly, after decomposing the low-resolution intensity image and the panchromatic image with the wavelet technique respectively, the low-frequency information of the low-resolution intensity image and the high-frequency information of the panchromatic image were retained, and the inverse wavelet transformation was performed to reconstruct the second high-resolution intensity image. Thirdly, sparse fusion was performed on the two high-resolution intensity images to acquire the high-quality intensity image. Finally, the synthesized high-resolution intensity image was input in the component substitution-based fusion framework to obtain the fused image. The experimental results show that, compared with the other eleven fusion methods, the proposed method has the fused images with higher spatial resolution and lower spectral distortion. For the proposed method, the mean values of the objective evaluation indexes such as correlation coefficient, root mean squared error, erreur relative global adimensionnelle de synthese, spectral angle mapper and quaternion theory-based quality index on three groups of GeoEye-1 fused images are 0.9439, 24.3479, 2.7643, 3.9376 and 0.9082 respectively. These values are better than those of the other eleven fusion methods. The proposed method can efficiently reduce the effect of local spatial dissimilarity on the performance of the component substitution-based fusion framework.
Key words: multispectral image; panchromatic image; component substitution-based fusion framework; spatial detail extraction; sparse fusion
0 引言
隨著人類對(duì)未知空間的不斷深入探索,衛(wèi)星遙感系統(tǒng)已成為大范圍場(chǎng)景監(jiān)測(cè)的重要工具,在深空探測(cè)、大氣監(jiān)測(cè)、對(duì)地遙感、戰(zhàn)場(chǎng)偵察等領(lǐng)域發(fā)揮著日趨廣泛的作用。高空間分辨率和高光譜分辨率遙感影像成為用戶的迫切需求。然而,光譜傳感器探測(cè)多個(gè)波段,光譜帶寬狹窄,需具有較大瞬時(shí)視場(chǎng)角才能獲得可接受的信噪比。瞬時(shí)視場(chǎng)角大小是決定地面瞬時(shí)視場(chǎng)角大?。纯臻g分辨率)的直接因素,增大瞬時(shí)視場(chǎng)角大小意味著空間分辨率降低。因此,傳感器的空譜分辨率之間相互制約,難以同時(shí)獲取高空間分辨率與高光譜分辨率的遙感影像。光學(xué)遙感衛(wèi)星,如GeoEye-1,一般搭載光譜成像傳感器和全色成像傳感器,獲取兩類圖像:多光譜 (MultiSpectral, MS) 圖像與全色(PANchromatic, PAN) 圖像。MS圖像擁有多個(gè)波段,具備高光譜分辨率,但其空間分辨率較低。與之相反,PAN圖像具備高空間分辨率,但其僅有單個(gè)波段,缺乏光譜信息。遙感圖像融合技術(shù)的提出,實(shí)現(xiàn)了MS圖像與PAN圖像的有效結(jié)合,獲得高空間分辨率多光譜(High spatial resolution MultiSpectral, HMS)圖像, 從“軟件”層面為解決遙感影像空譜分辨率矛盾提供了有效途徑[1,2]。
經(jīng)過(guò)數(shù)十年發(fā)展,MS圖像與PAN圖像融合已經(jīng)成為遙感圖像處理的熱點(diǎn)研究問(wèn)題。諸多基于不同理論框架的MS與PAN圖像融合方法被提出,主要?jiǎng)澐譃槿悾悍至刻鎿Q方法、多分辨率分析方法與基于模型的方法[3-4]。分量替換融合框架以其簡(jiǎn)單、高效、良好的銳化效果等優(yōu)點(diǎn)被廣泛應(yīng)用。分量替換融合方法包括基于強(qiáng)度色度飽和度(Intensity-Hue-Saturation, IHS)變換的融合方法、基于主分量分析(Principal Component Analysis, PCA)的融合方法與基于施密特正交(Gram Schmidt, GS)變換的融合方法等[1],其中基于IHS變換的融合方法最為經(jīng)典。針對(duì)分量替換融合方法光譜失真嚴(yán)重的問(wèn)題,該研究領(lǐng)域?qū)W者主要從如下兩個(gè)方面對(duì)其進(jìn)行改進(jìn):空間細(xì)節(jié)信息提取方法與空間細(xì)節(jié)信息注入方法[5]。經(jīng)典空間細(xì)節(jié)信息提取方法通過(guò)尋求最優(yōu)譜權(quán)重,增強(qiáng)強(qiáng)度圖像與PAN圖像的相關(guān)性,獲取最佳空間細(xì)節(jié)圖像。經(jīng)典IHS方法僅考慮了藍(lán)、綠、紅三波段融合,強(qiáng)度圖像與PAN圖像的低相關(guān)性使融合圖像嚴(yán)重光譜失真。文獻(xiàn)[6]提出了廣義強(qiáng)度色度飽和度 (Generalized IHS, GIHS)融合方法,適用于四波段多光譜圖像融合,其中譜權(quán)重設(shè)定為1/4??紤]MS圖像各波段光譜響應(yīng)曲線與PAN圖像光譜響應(yīng)曲線的重疊關(guān)系,文獻(xiàn)[7]提出了固定譜權(quán)重的IHS融合方法。然而,固定譜權(quán)重并不適用于所有類型的遙感數(shù)據(jù)。為此,文獻(xiàn)[8-9]提出了自適應(yīng)譜權(quán)重的IHS融合方法,分別利用多元回歸分析和粒子群優(yōu)化算法計(jì)算最優(yōu)譜權(quán)重。文獻(xiàn)[10]提出了非線性IHS方法,采用局部與全局合成方法來(lái)構(gòu)建強(qiáng)度圖像。然而,MS圖像與PAN圖像間的局部空間差異難以通過(guò)空間細(xì)節(jié)提取方案消除,細(xì)節(jié)信息的過(guò)度注入致使融合圖像空譜失真。為解決該問(wèn)題,空間細(xì)節(jié)信息注入方法被提出。文獻(xiàn)[11]提出基于統(tǒng)計(jì)比率的高頻細(xì)節(jié)注入模型,通過(guò)部分替代的方式實(shí)現(xiàn)空間細(xì)節(jié)信息有效注入。文獻(xiàn)[12]提出了基于邊緣自適應(yīng)的IHS融合方法,利用指數(shù)邊緣檢測(cè)算子設(shè)計(jì)空間細(xì)節(jié)信息注入模型。文獻(xiàn)[5]在文獻(xiàn)[12]方法的基礎(chǔ)上,考慮PAN圖像與MS圖像的邊緣特性,提出了改進(jìn)的自適應(yīng)邊緣注入模型,提高了融合圖像的空間與光譜質(zhì)量。
基于多分辨率分析的方法則是利用金字塔變換、小波變換、曲波變換、輪廓波變換與脊波變換等[1]提取PAN圖像的高頻細(xì)節(jié)信息,并將其融入MS圖像來(lái)構(gòu)建HMS圖像。文獻(xiàn)[13]將基于多分辨分析的融合方法歸納為統(tǒng)一框架,主要包含兩大步驟:空間細(xì)節(jié)信息提取與空間細(xì)節(jié)信息注入??臻g細(xì)節(jié)信息提取利用空間濾波器提取單尺度或多尺度高頻信息。空間細(xì)節(jié)注入模型是設(shè)計(jì)波段增益系數(shù)調(diào)整注入MS圖像中細(xì)節(jié)信息數(shù)量。相較于分量替換融合方法,多分辨率分析融合方法可有效減少融合圖像光譜失真,但其計(jì)算復(fù)雜度更高,會(huì)產(chǎn)生空間畸變。
基于模型的融合框架是通過(guò)建立低分辨率MS(Low-resolution MS, LMS)圖像、PAN圖像與HMS圖像的關(guān)系模型,結(jié)合HMS圖像先驗(yàn)特性,構(gòu)建與求解目標(biāo)函數(shù)重建融合圖像。此類方法所用經(jīng)典圖像先驗(yàn)?zāi)P桶ǎ鹤曰貧w模型[14]、高斯馬爾可夫隨機(jī)場(chǎng)模型[15]、圖割模型[16]、全變分模型[17]、空間海森特征模型[18]等。近年來(lái),稀疏表示理論被廣泛應(yīng)用于遙感圖像融合領(lǐng)域。文獻(xiàn)[19]首先將壓縮感知與稀疏表示理論用于遙感圖像融合,稀疏性保證了HMS圖像的高質(zhì)量重構(gòu)。在此基礎(chǔ)上,研究者相繼提出了諸多基于稀疏表示的遙感圖像融合方法[20-26]?;谀P偷娜诤峡蚣芸蓪?shí)現(xiàn)空譜信息的有效融合,大幅度降低空譜失真,但其高計(jì)算復(fù)雜度制約該類方法的實(shí)際應(yīng)用前景。
在已有分量替換融合方法的基礎(chǔ)上,針對(duì)MS圖像與PAN圖像間局部空間差異引起的空譜失真問(wèn)題,本文提出了一種改進(jìn)空間細(xì)節(jié)提取策略的分量替換融合方法。與傳統(tǒng)空間細(xì)節(jié)提取方案不同,該方法利用基于局部線性嵌入的圖像重建方法和小波融合方法分別生成兩幅高分辨率強(qiáng)度圖像,然后利用稀疏融合方法對(duì)兩幅高分辨率強(qiáng)度圖像進(jìn)行信息互補(bǔ),消除MS圖像與PAN圖像因成像機(jī)理不同產(chǎn)生的局部空間差異,獲取匹配MS圖像特性的高質(zhì)量空間細(xì)節(jié)圖像。相比前面介紹的三類方法,本文算法在避免光譜失真的同時(shí),生成空間結(jié)構(gòu)特征更加清晰的融合圖像。本文算法在客觀評(píng)價(jià)指標(biāo)上也優(yōu)于對(duì)比算法。
1 分量替換融合框架通用模型
分量替換融合框架是遙感圖像融合的典型方法,在現(xiàn)實(shí)生活中得到廣泛應(yīng)用,其核心思想是特征空間變換與主分量替換。分量替換融合框架的主要實(shí)現(xiàn)步驟[11]如下:
1)對(duì)LMS圖像進(jìn)行插值,使其與PAN圖像尺寸相同。
2)將上采樣LMS圖像變換到指定特征空間,其主要分量定義為 IR,如式 (1)所示:
其中:MSRn 表示上采樣LMS圖像的第n個(gè)譜段;Cn 表示變換后的第n個(gè)分量;c表示前向變換矩陣。
3)對(duì)PAN圖像進(jìn)行直方圖匹配,然后用其替換式 (1) 中的主要分量IR。
4)利用式(2)實(shí)現(xiàn)逆變換,獲得HMS圖像:
其中:PH表示直方圖匹配后的PAN圖像;MSHn表示HMS圖像的第n個(gè)譜段;g表示逆變換矩陣。
上述內(nèi)容表明實(shí)現(xiàn)分量替換融合方法的關(guān)鍵步驟為特征空間變換與主分量替換。然而,兩次矩陣變換會(huì)使分量替換融合方法產(chǎn)生較高計(jì)算復(fù)雜度。文獻(xiàn)[11]研究發(fā)現(xiàn),典型分量替換融合框架經(jīng)過(guò)式 (3) 演化,可形成通用模型,如式 (4) 所示。
其中:gn表示第n個(gè)波段的調(diào)制系數(shù);δ表示從PAN圖像中提取的空間細(xì)節(jié)圖像。從分量替換融合框架通用模型可以看出,融合圖像的質(zhì)量依賴于形成空間細(xì)節(jié)圖像δ的譜權(quán)重系數(shù)cn與調(diào)制系數(shù)gn。
2 改進(jìn)空間細(xì)節(jié)提取策略的分量替換融合
分量替換融合框架通用模型表明上采樣低分辨率強(qiáng)度圖像IR的質(zhì)量是決定融合圖像質(zhì)量的關(guān)鍵變量之一。文獻(xiàn)[1]指出低分辨率強(qiáng)度圖像與PAN圖像的相關(guān)性越高,融合圖像的空譜質(zhì)量越好。然而,MS圖像與PAN圖像間的局部空間差異使得利用計(jì)算最優(yōu)低分辨率強(qiáng)度圖像獲取最佳空間細(xì)節(jié)圖像的方法受到極大限制。因此,從獲取高質(zhì)量空間細(xì)節(jié)圖像的角度,本文提出新的空間細(xì)節(jié)提取方案,通過(guò)合成高分辨率強(qiáng)度圖像,替代空間細(xì)節(jié)提取步驟中PAN圖像。圖1 所示為改進(jìn)的分量替換融合框架流程,其具體實(shí)現(xiàn)步驟如下。
2.1 基于局部線性嵌入的高分辨率強(qiáng)度圖像重建
低分辨率強(qiáng)度圖像與高分辨率強(qiáng)度圖像獲取同一場(chǎng)景影像。因此,低分辨率強(qiáng)度圖像塊與對(duì)應(yīng)高分辨率強(qiáng)度圖像塊在不同空間具有相同流形結(jié)構(gòu)。那么,借助這一假設(shè)條件,本文提出了基于局部線性嵌入的圖像重建方法,利用低分辨率強(qiáng)度圖像重建高分辨率強(qiáng)度圖像,消除MS圖像與PAN圖像間局部空間差異對(duì)空間細(xì)節(jié)圖像的影響,其主要實(shí)現(xiàn)步驟如下。
1)構(gòu)建耦合字典對(duì)。
高分辨率PAN圖像與低分辨率PAN圖像用作訓(xùn)練數(shù)據(jù)集,構(gòu)建耦合字典對(duì)。首先,設(shè)計(jì)基于調(diào)制傳遞函數(shù)形狀的低通濾波器,然后用其對(duì)高分辨率PAN圖像進(jìn)行濾波下采樣操作,獲取低分辨率PAN圖像[13]。其次,對(duì)低分辨率PAN圖像與高分辨率PAN圖像分別采用分塊處理策略,塊大小分別設(shè)定為p1×p2與rp1×rp2,重疊步長(zhǎng)為[1 1],其中r表示MS圖像與PAN圖像空間分辨率比率。低分辨率PAN圖像塊集合與高分辨PAN圖像塊集合分別定義為DL=[dL1,dL2,…,dLQ]與DH=[dH1,dH2,…,dHQ],其中:dLj表示低分辨率PAN圖像第j個(gè)圖像塊,dHj表示高分辨率PAN圖像第j個(gè)圖像塊,Q 定義為圖像塊的數(shù)量。
2)計(jì)算重構(gòu)權(quán)重系數(shù)。
如圖1 所示,低分辨率強(qiáng)度圖像IL定義為L(zhǎng)MS圖像各個(gè)波段的線性組合,如式(1)所示:
IL=∑Nn=1cn·MSLn+b(5)
其中:MSLn表示LMS圖像第n個(gè)波段;cn表示譜權(quán)重。本文將采用文獻(xiàn)[8]中多元回歸分析方法計(jì)算譜權(quán)重,獲取低分辨率強(qiáng)度圖像。利用塊處理策略將低分辨率強(qiáng)度分量IL劃分為大小為p1×p2的圖像塊,其組成的圖像塊集合定義為{xLi}N1i=1, 其中N1為圖像塊的數(shù)量。然后,利用最近鄰方法從低分辨率字典DL中搜索與圖像塊xLi相似的前K個(gè)最近鄰圖像塊,并定義前K個(gè)圖像塊組成的集合為DLi=[dLi,1,dLi,2,…,dLi,K]。那么相應(yīng)重構(gòu)權(quán)重wi可通過(guò)求解如下的目標(biāo)函數(shù)獲取[27]:
其中:Ui是第i個(gè)圖像塊的局部格拉姆矩陣;1表示全1的向量。
3)重構(gòu)高分辨率強(qiáng)度圖像I1h。
根據(jù)前文假定條件,低分辨率圖像塊與高分辨率圖像塊間存在流形結(jié)構(gòu)一致,那么與xLi對(duì)應(yīng)的高分辨率圖像塊xHi可通過(guò)如下計(jì)算式進(jìn)行重構(gòu):
xHi=∑Kk=1i,kdHi,k(9)
其中,DHi=[dHi,1,dHi,2,…,dHi,K]表示圖像塊xHi在高分辨率字典DH中尋到的前K個(gè)最近鄰圖像塊。然后,將圖像塊重疊區(qū)域平均處理后可重構(gòu)高分辨率強(qiáng)度圖像I1h。
2.2 合成高分辨率強(qiáng)度分量I2h
上述方法合成高分辨率強(qiáng)度分量I1h,利用了低分辨率圖像塊與高分辨率圖像塊間的隱性關(guān)系,同時(shí)利用了強(qiáng)度圖像與PAN圖像的結(jié)構(gòu)相似性。然而,該方法合成的高分辨率強(qiáng)度圖像局部區(qū)域存在空間細(xì)節(jié)模糊,會(huì)影響空間細(xì)節(jié)圖像的質(zhì)量,進(jìn)而影響融合圖像的效果。為此,本節(jié)利用小波變換方法生成高分辨率強(qiáng)度分量I2h,然后再通過(guò)局部融合的方式來(lái)獲取質(zhì)量更高的強(qiáng)度圖像[28],其具體實(shí)現(xiàn)步驟如下:
1)小波分解。
利用Matlab函數(shù)多層二維小波變換wavedec2對(duì)上采樣強(qiáng)度圖像IR與直方圖匹配后的PAN圖像進(jìn)行分解,其分解層級(jí)設(shè)定為3層。定義cA1與aA1分別表示強(qiáng)度圖像與PAN圖像的低頻分量,且cD1、cD2、cD3與aD1、aD2、aD3分別表示兩幅圖像的高頻分量。
2)系數(shù)替換。
強(qiáng)度圖像的低頻分量包含著多光譜圖像的絕大部分光譜信息,因此需要保留下來(lái)。PAN圖像的空間細(xì)節(jié)信息要比強(qiáng)度圖像的空間細(xì)節(jié)信息清晰,為了提升強(qiáng)度圖像的空間分辨率,PAN圖像的高頻細(xì)節(jié)信息被完整保留。因此,本文用PAN圖像的高頻細(xì)節(jié)系數(shù)替換強(qiáng)度圖像的高頻細(xì)節(jié)系數(shù)。
3)小波逆變換。
對(duì)保留下來(lái)的cA1、aD1、aD2、aD3等分量進(jìn)行小波逆變換后,可獲得高分辨率強(qiáng)度圖像I2h。
研究發(fā)現(xiàn),通過(guò)小波變換方法獲取的高分辨率強(qiáng)度圖像在局部區(qū)域同樣存在空間細(xì)節(jié)丟失的問(wèn)題。
2.3 稀疏融合策略
為了改進(jìn)高分辨率強(qiáng)度圖像局部區(qū)域質(zhì)量,本節(jié)提出稀疏融合策略,從局部區(qū)域?qū)崿F(xiàn)兩幅高分辨率強(qiáng)度圖像的信息互補(bǔ)。稀疏融合的流程如圖2所示,具體實(shí)現(xiàn)步驟如下:
1)采用塊處理策略,首先將高分辨率強(qiáng)度圖像I1h與I2h分別按照塊大小q1×q2進(jìn)行分塊處理,并定義圖像塊集合{vs1}Ss=1與{vs2}Ss=1,其中S表示圖像塊數(shù)量。
其中:αs1 與αs2分別表示第s個(gè)圖像塊的稀疏系數(shù);ε為重構(gòu)誤差;D 表示字典矩陣,其基原子由離散余弦變換、小波“db1”、Gabor與脊波變換的基構(gòu)成[29]。該字典綜合了四種多尺度幾何字典的優(yōu)點(diǎn),能夠有效地表征紋理、細(xì)節(jié)與線條等幾何結(jié)構(gòu)。
3)稀疏系數(shù)表征圖像塊的主要結(jié)構(gòu)特征,為了互補(bǔ)局部區(qū)域的信息,本文采用如下融合規(guī)則:
αsf=αs1, ‖αs1‖2≥‖αs2‖2
αs2,‖αs1‖2<‖αs2‖2 (12)
其中αsf表示第s個(gè)融合圖像塊的稀疏系數(shù)。該融合規(guī)則選擇具有最大能量值的稀疏系數(shù)作為融合系數(shù)。融合圖像塊vsf可通過(guò)如下方式求得:vsf=Dαsf。對(duì)圖像塊重疊區(qū)域求平均后可實(shí)現(xiàn)高分辨率強(qiáng)度圖像Ih重構(gòu)。
經(jīng)過(guò)上述步驟后,獲取了高分辨率強(qiáng)度圖像Ih。在式(4)中,利用強(qiáng)度圖像Ih替換PAN圖像PH,可得到新的空間細(xì)節(jié)圖像δ1=Ih-IR。將空間細(xì)節(jié)圖像δ1應(yīng)用于分量替換融合框架后,可獲得融合圖像。
3 實(shí)驗(yàn)與結(jié)果分析
3.1 實(shí)驗(yàn)數(shù)據(jù)與評(píng)價(jià)方法
本文采用GeoEye-1遙感數(shù)據(jù)來(lái)驗(yàn)證算法有效性。該遙感數(shù)據(jù)呈現(xiàn)澳大利亞霍巴特地區(qū)的場(chǎng)景,包含城區(qū)、郊區(qū)、山脈、森林、河流等地物景象,其可提供2m空間分辨率的MS圖像與0.5m空間分辨率的PAN圖像。MS圖像包含藍(lán)色(Blue, B)、綠(Green, G)、紅(Red, R)與近紅外(Near InfRared, NIR)四個(gè)波段。
視覺(jué)分析與量化評(píng)估是遙感圖像質(zhì)量評(píng)價(jià)的兩種主要方式。視覺(jué)分析屬于主觀評(píng)價(jià)策略,主要依賴人類視覺(jué)系統(tǒng)對(duì)圖像質(zhì)量的感知。人類視覺(jué)系統(tǒng)對(duì)圖像的結(jié)構(gòu)特征,例如輪廓、線條、紋理、邊緣細(xì)節(jié)等,更加敏感;同時(shí),對(duì)圖像中的模糊、振鈴、光暈等效應(yīng)也可清晰判別。然而,單純依賴視覺(jué)分析并不可靠,因此采用五種經(jīng)典量化評(píng)價(jià)方法來(lái)客觀評(píng)估融合算法性能。五種評(píng)價(jià)方法分別是相關(guān)系數(shù)(Correlation Coefficient, CC)、均方根誤差(Root Mean Squared Error, RMSE)、相對(duì)整體維數(shù)合成誤差(Erreur Relative Global Adimensionnelle de Synthese, ERGAS)、波譜角匹配指數(shù)(Spectral Angle Mapper, SAM) 與基于四元數(shù)理論的指標(biāo)(Quaternion theory-based Quality index, Q4)[30]。CC描述參考圖像與融合圖像的相關(guān)性,RMSE測(cè)量參考圖像與融合圖像的誤差大小,ERGAS測(cè)量融合圖像的空間失真,SAM測(cè)量融合圖像的光譜失真,Q4測(cè)量融合圖像空間與光譜整體質(zhì)量。五種評(píng)價(jià)指標(biāo)的理想值依次為1、0、0、0、1。CC與Q4的數(shù)值結(jié)果越接近1,表明融合圖像的質(zhì)量越好。RMSE、ERGAS與SAM的數(shù)值結(jié)果越接近0,表明融合圖像的質(zhì)量越好。五種客觀評(píng)價(jià)指標(biāo)均需要參考圖像,但真實(shí)遙感數(shù)據(jù)并不提供參考圖像,因此,本文利用仿真數(shù)據(jù)驗(yàn)證算法性能。首先,將2m空間分辨率的MS圖像與0.5m空間分辨率的PAN圖像進(jìn)行降質(zhì),獲得8m空間分辨率MS圖像與2m空間分辨率的PAN圖像,并將其作為測(cè)試數(shù)據(jù)。以原始2m空間分辨率的MS圖像作為參考圖像。
3.2 參數(shù)設(shè)置
本文算法中,譜權(quán)重系數(shù)通過(guò)多元回歸分析方法獲取,具體步驟參考文獻(xiàn)[8]。構(gòu)建高分辨率強(qiáng)度圖像I1h時(shí)圖像塊大小設(shè)定為5×5,參數(shù)K的值設(shè)定為20。構(gòu)建高分辨率強(qiáng)度圖像I2h時(shí),利用小波“sym8”實(shí)現(xiàn)圖像分解。在稀疏融合步驟中,重構(gòu)誤差ε設(shè)定為0.01,注入模型增益系數(shù)設(shè)定為1。
稀疏融合過(guò)程中圖像塊大小對(duì)算法性能產(chǎn)生很大影響。本實(shí)驗(yàn)在固定上述參數(shù)的情況下,探討了當(dāng)圖像塊大小分別為5×5、7×7、9×9、11×11和13×13時(shí),本文算法性能的變化過(guò)程。實(shí)驗(yàn)在第一組GeoEye-1遙感數(shù)據(jù)上進(jìn)行。本文算法融合結(jié)果隨著圖像塊大小變化的客觀評(píng)價(jià)指標(biāo)性能曲線如圖3 所示,其中,縱坐標(biāo)為歸一化后的CC、RMSE、ERGAS、SAM與Q4量化評(píng)價(jià)指標(biāo)數(shù)值結(jié)果與算法運(yùn)行時(shí)間。由圖3可知,當(dāng)圖像塊大小為7×7時(shí),本文算法給出了最大Q4數(shù)值結(jié)果和最小RMSE、ERGAS與SAM數(shù)值結(jié)果。本文算法在圖像塊大小為7×7時(shí)給出的CC數(shù)值結(jié)果相較圖像塊大小為9×9、11×11、13×13時(shí)都要低。圖3中還給出了本文算法的運(yùn)行時(shí)間隨著圖像塊大小的變化情況。分析可知,隨著圖像塊逐漸變大,本文算法的運(yùn)行時(shí)間越來(lái)越多。綜合考量客觀評(píng)價(jià)指標(biāo)數(shù)值結(jié)果與算法的運(yùn)行時(shí)間,在圖像塊大小設(shè)定為7×7時(shí),本文算法的性能最優(yōu)。因此,在下面的實(shí)驗(yàn)中,稀疏融合步驟中圖像塊大小設(shè)定為7×7。
3.3 不同高分辨率強(qiáng)度圖像下融合結(jié)果分析
本節(jié)討論與分析三幅高分辨率強(qiáng)度圖像I1h、I2h與Ih分別用于分量替換融合框架后獲得融合圖像的質(zhì)量,如圖4所示。圖4 (a)~(c) 分別為由三幅高分辨率強(qiáng)度圖像獲得的空間細(xì)節(jié)圖像。圖4(a)與圖4(b)相比較可以發(fā)現(xiàn):(a)中大矩形框標(biāo)定區(qū)域細(xì)節(jié)信息不如(b)中大矩形框標(biāo)定區(qū)域細(xì)節(jié)信息清晰;相反,(a)中小矩形框標(biāo)定區(qū)域要比(b)中小矩形框標(biāo)定區(qū)域的細(xì)節(jié)信息更加豐富。圖4(c)所示為稀疏融合后的高分辨率強(qiáng)度圖像生成的空間細(xì)節(jié)圖像,與圖4(a)與圖4(b)相比,該圖局部區(qū)域細(xì)節(jié)信息更加清晰。
圖4(d)~(f)對(duì)應(yīng)于三幅高分辨率強(qiáng)度圖像的融合結(jié)果。圖4(f)的空間細(xì)節(jié)信息明顯比圖4(d)與圖4(e)的空間細(xì)節(jié)信息保留得更加完整。因此,通過(guò)稀疏融合策略將I1h與I2h的互補(bǔ)信息進(jìn)行整合,可有效提升融合圖像的質(zhì)量,減少局部差異引起的空譜失真。
3.4 比較結(jié)果分析
為驗(yàn)證本文算法的融合性能,實(shí)驗(yàn)采用11種不同類型融合算法作為對(duì)比算法。這11種算法涵蓋了遙感圖像融合技術(shù)三大類算法且具有代表性。其中,分量替換融合算法有:GIHS[6]、自適應(yīng)GIHS(GIHS Adaptive, GIHSA)[8]、自適應(yīng)GS(GS Adaptive, GSA)[8]、自適應(yīng)IHS(Adaptive IHS, AIHS)[12]、改進(jìn)的AIHS(Improved AIHS, IAIHS)[5]與基于部分置換的自適應(yīng)分量替換(Partial Replacement-based Adaptive Component Substitution, PRACS)方法[11]?;诙喾直媛史治龅娜诤纤惴ㄓ校夯诰植繀?shù)估計(jì)的波段相關(guān)空間細(xì)節(jié)(Band-Dependent Spatial-Detail with local parameter estimation, BDSD)方法[31]、基于調(diào)制傳遞函數(shù)匹配濾波器與高通調(diào)制注入模型的廣義拉普拉斯金字塔(GLP with MTF-matched filter and High-Pass Modulation injection model, MTF-GLP-HPM)方法 [13]、 加性小波亮度比例(Additive Wavelet Luminance Proportion, AWLP) 方法[32]、基于支撐值變換(Support Value Transformation, SVT)的融合方法 [33]?;谙∈璞硎镜娜诤戏椒ㄓ袎K向量歸一化的兩步稀疏編碼方法(Two Step Sparse Coding method with Patch Normalization, PN-TSSC) [34]。本文所有對(duì)比融合方法的參數(shù)設(shè)定參考相應(yīng)文獻(xiàn)。
第一組仿真數(shù)據(jù)、參考圖像與不同融合算法的融合結(jié)果如圖5 所示。圖5中,(a)與(b)分別表示8m空間分辨率的MS圖像與2m空間分辨率的PAN圖像;(c)所示為2m空間分辨率的參考HMS圖像;(d)所示為GIHS方法的融合結(jié)果,它具備清晰空間分辨率,但局部區(qū)域存在光譜失真,綠色植被區(qū)域顏色失真最明顯。GIHSA與GSA方法的融合結(jié)果如圖5(e)與(f)所示,與GIHS方法的融合圖像相比,這兩幅融合圖像顯示出更好的顏色特征與空間質(zhì)量。圖5(g)~(j)所示為AIHS、IAIHS、PRACS與BDSD的融合結(jié)果。AIHS融合圖像空間分辨率明顯增強(qiáng),細(xì)節(jié)信息清晰,光譜特征保留完整。IAIHS與PRACS方法的融合圖像呈現(xiàn)模糊效果。BDSD方法融合圖像的空間細(xì)節(jié)過(guò)銳化,且與參考圖像相比,局部區(qū)域呈現(xiàn)非自然色彩。圖5(k)~(m)所示為MTF-GLP-HPM、AWLP與SVT方法的融合結(jié)果。三幅圖像具有清晰空間分辨率且光譜失真度較小,色彩自然。圖5(n)所示為PN-TSSC的融合結(jié)果,其光譜特征與參考圖像光譜特征相匹配,空間與光譜質(zhì)量較好。本文算法融合結(jié)果如圖5(o)所示,相較于參考圖像與其他對(duì)比算法的融合圖像,該圖像的空間細(xì)節(jié)清晰,光譜特征自然,具備更好的空間與光譜質(zhì)量。表1給出了圖5融合圖像的客觀評(píng)價(jià)指標(biāo)數(shù)值結(jié)果,其中:最佳數(shù)值結(jié)果標(biāo)記為粗體,次最佳結(jié)果用下劃線標(biāo)記。從表1中可以看出,本文算法提供了最佳CC數(shù)值結(jié)果,且GIHSA給出了次最佳結(jié)果。關(guān)于RMSE與ERGAS,本文算法給出了最佳值,而PRACS方法給出了次最佳值。本文算法在RMSE與ERGAS指標(biāo)上要明顯優(yōu)于其他融合方法。關(guān)于評(píng)價(jià)指標(biāo)SAM,最佳數(shù)值結(jié)果由MTF-GLP-HPM方法給出,而次最佳數(shù)值結(jié)果由PRACS方法給出。本文算法在SAM指標(biāo)上要比MTF-GLP-HPM、PRACS與SVT方法略差。本文算法給出了最佳Q4數(shù)值結(jié)果,而SVT方法給出了次最佳Q4數(shù)值結(jié)果。
第二組GeoEye-1衛(wèi)星源數(shù)據(jù)、參考圖像與不同算法下的融合圖像如圖6所示。圖6中,(a)與(b)分別表示8m空間分辨率的MS圖像與2m空間分辨率的PAN圖像;(c)所示為2m空間分辨率的參考HMS圖像。圖6(d)~(n)所示依次為11種比較算法的融合結(jié)果;(o)所示為本文算法的融合圖像。與參考圖像相比,GIHS、GIHSA、GSA、AIHS、BDSD、MTF-GLP-HPM、SVT與PN-TSSC等方法融合圖像的空間細(xì)節(jié)信息清晰,空間質(zhì)量良好。IAIHS、PRACS與AWLP方法融合圖像的空間細(xì)節(jié)信息不夠清晰,呈現(xiàn)模糊效果。GIHS、GIHSA、BDSD與SVT方法的融合結(jié)果具有明顯光譜失真,尤其是在綠色植被區(qū)域。而GSA、AIHS、IAIHS、PRACS、MTF-GLP-HPM與PN-TSSC方法的融合結(jié)果具有良好的光譜質(zhì)量。與參考圖像與其他比較算法的融合圖像相比,本文算法融合圖像的空間結(jié)構(gòu)特征表現(xiàn)良好,具有較好的顏色特征信息。表2給出了圖6融合圖像的客觀評(píng)價(jià)指標(biāo)數(shù)值結(jié)果,其中:最佳數(shù)值結(jié)果標(biāo)記為粗體,次最佳結(jié)果用下劃線標(biāo)記。從表2中可以看出,本文算法提供了最佳的CC、RMSE、ERGAS、SAM與Q4數(shù)值結(jié)果。GIHSA方法給出了次最佳CC數(shù)值結(jié)果,PRACS方法給出了次最佳RMSE與ERGAS數(shù)值結(jié)果,MTF-GLP-HPM方法給出了次最佳SAM數(shù)值結(jié)果,SVT方法給出了次最佳Q4數(shù)值結(jié)果。
第三組GeoEye-1衛(wèi)星源數(shù)據(jù)、參考圖像與不同算法下的融合圖像如圖7所示。圖7中,(a)~(c)分別表示8m空間分辨率的MS圖像、2m空間分辨率的全色圖像與2m空間分辨率的參考HMS圖像;(d)~(o)所示依次為11種比較算法的融合圖像與本文算法的融合圖像。與參考圖像相比,GIHS方法的融合圖像因細(xì)節(jié)信息過(guò)度注入導(dǎo)致過(guò)銳化現(xiàn)象,出現(xiàn)光譜失真。GIHSA、GSA、BDSD、MTF-GLP-HPM、SVT與PN-TSSC方法的融合圖像呈現(xiàn)良好的空間與光譜質(zhì)量。AIHS、IAIHS、PRACS與AWLP的融合圖像光譜失真較小,但呈現(xiàn)出全局模糊,空間細(xì)節(jié)信息不清晰。本文算法的融合圖像空間細(xì)節(jié)信息豐富,結(jié)構(gòu)清晰,光譜特征良好。表3 給出了圖7 融合圖像的客觀評(píng)價(jià)指標(biāo)數(shù)值結(jié)果,其中:最佳數(shù)值結(jié)果標(biāo)記為粗體,次最佳數(shù)值結(jié)果用下劃線標(biāo)記。從表3中可以看出,本文算法給出了最佳的CC、RMSE、ERGAS、SAM與Q4數(shù)值結(jié)果。GIHSA給出了次最佳CC數(shù)值結(jié)果,IAIHS給出了次最佳SAM數(shù)值結(jié)果,SVT給出了次最佳RMSE、ERGAS與Q4數(shù)值結(jié)果。
綜合以上三組衛(wèi)星遙感數(shù)據(jù)融合圖像的主客觀評(píng)價(jià)結(jié)果,本文算法的融合性能相較11種對(duì)比方法更優(yōu)。
表1~3中同時(shí)給出了本文算法與對(duì)比算法的計(jì)算時(shí)間。從表1~3中可看出,絕大部分融合方法的計(jì)算時(shí)間要小于1s。這些方法都隸屬于分量替換融合框架與多分辨率分析融合框架,且絕大部分分量替換融合算法的計(jì)算復(fù)雜度要低于多分辨率分析融合方法的計(jì)算復(fù)雜度。PN-TSSC方法與本文算法的計(jì)算時(shí)間均大于1s,且本文算法的計(jì)算時(shí)間最長(zhǎng)。研究發(fā)現(xiàn),本文算法的時(shí)間損耗主要集中在稀疏融合步驟,實(shí)現(xiàn)該步驟采用塊處理策略,大量圖像塊的稀疏分解過(guò)程導(dǎo)致本文方法計(jì)算復(fù)雜度高。該問(wèn)題可通過(guò)多核處理器并行處理來(lái)解決。
4 結(jié)語(yǔ)
本文針對(duì)多光譜圖像與全色圖像間局部空間差異引起的空譜失真問(wèn)題,提出了一種改進(jìn)空間細(xì)節(jié)提取方法的分量替換融合框架。首先,利用局部線性嵌入超分辨率重建技術(shù)與小波融合技術(shù)分別重構(gòu)兩幅高分辨率強(qiáng)度圖像;然后,利用稀疏融合策略實(shí)現(xiàn)兩幅高分辨率強(qiáng)度圖像信息互補(bǔ),獲取一幅更高質(zhì)量的強(qiáng)度圖像,進(jìn)而獲得高質(zhì)量空間細(xì)節(jié)圖像;最后,將高質(zhì)量空間細(xì)節(jié)圖像應(yīng)用到分量替換融合框架中,獲得所需要的HMS圖像。在GeoEye-1遙感數(shù)據(jù)上進(jìn)行了測(cè)試,實(shí)驗(yàn)結(jié)果表明本文算法的融合圖像主觀上相較其他算法的融合圖像具有更好的空間與光譜質(zhì)量,而且客觀上各項(xiàng)評(píng)價(jià)相較其他算法綜合來(lái)看也是最優(yōu)的。這表明本文算法能夠有效地消除多光譜圖像與全色圖像局部空間差異的影響,進(jìn)一步提高分量替換融合框架的性能。
稀疏融合步驟的高計(jì)算復(fù)雜度是導(dǎo)致本文算法的運(yùn)行時(shí)間比傳統(tǒng)分量替換方法和多分辨率分析方法長(zhǎng)的主要原因。在接下來(lái)的研究工作中,我們將嘗試?yán)枚嗪颂幚砥鲗?shí)現(xiàn)算法的并行運(yùn)算,降低本文算法的運(yùn)行時(shí)間。本文算法僅考慮通過(guò)改進(jìn)空間細(xì)節(jié)提取策略來(lái)提升分量替換融合方法的性能,下一步我們將研究空間細(xì)節(jié)注入模型,進(jìn)一步提升分量替換融合方法的性能。
參考文獻(xiàn) (References)
[1]THOMAS C, RANCHIN T, WALD L, et al. Synthesis of multispectral images to high spatial resolution: a critical review of fusion methods based on remote sensing physics [J]. IEEE Transactions on Geoscience and Remote Sensing, 2008, 46 (5): 1301-1312.
[2]LI S, KANG X, FANG L, et al. Pixel-level image fusion: a survey of the state of the art [J]. Information Fusion, 2017, 33: 100-112.
[3]吳宗駿,吳煒,楊曉敏,等.改進(jìn)的基于稀疏表示的全色銳化算法[J].計(jì)算機(jī)應(yīng)用,2019,39(2):540-545.(WU Z J, WU W, YANG X M, et al. Improved panchromatic sharpening algorithm based on sparse representation [J]. Journal of Computer Applications, 2019, 39(2): 540-545.)
[4]LONCAN L, DE ALMEIDA L B, BIOUCAS-DIAS J M, et al. Hyperspectral pansharpening: a review [J]. IEEE Geoscience and Remote Sensing Magazine, 2015, 3(3): 27-46.
[5]LEUNG Y, LIU J, ZHANG J. An improved adaptive intensity-hue-saturation method for the fusion of remote sensing images [J]. IEEE Geoscience and Remote Sensing Letters, 2014, 11(5): 985-989.
[6]TU T, HUANG P, HUNG C, et al. A fast intensity-hue-saturation fusion technique with spectral adjustment for IKONOS imagery [J]. IEEE Geoscience and Remote Sensing Letters, 2004, 1(4): 309-312.
[7]CHOI M. A new intensity-hue-saturation fusion approach to image fusion with a tradeoff parameter [J]. IEEE Transactions on Geoscience and Remote Sensing, 2006, 44(6): 1672-1682.
[8]AIAZZI B, BARONTI S, SELVA M. Improving component substitution pansharpening through multivariate regression of MS+Pan data [J]. IEEE Transactions on Geoscience and Remote Sensing, 2007, 45(10): 3230-3239.
[9]WANG W, JIAO L, YANG S. Novel adaptive component-substitution-based pan-sharpening using particle swarm optimization [J]. IEEE Geoscience and Remote Sensing Letters, 2015, 12(4): 781-785.
[10]GHANREMANI M, GHASSEMIAN H. Nonlinear IHS: a promising method for pan-sharpening [J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(11): 1606 -1610.
[11]CHOI J, YU K, KIM Y. A new adaptive component-substitution-based satellite image fusion by using partial replacement [J]. IEEE Transactions on Geoscience and Remote Sensing, 2011, 49(1): 295-309.
[12]RAHMANI S, STRAIT M, MERKURJEV D, et al. An adaptive IHS pan-sharpening method [J]. IEEE Geoscience and Remote Sensing Letters, 2010, 7(4): 746-750.
[13]VIVONE G, ALPARONE L, CHANUSSOT J, et al. A critical comparison among pansharpening algorithms [J]. IEEE Transactions on Geoscience and Remote Sensing, 2015, 53(5): 2565-2586.
[14]JOSHI M V, BRUZZONE L, CHAUDHURI S. A model-based approach to multiresolution fusion in remotely sensed images [J]. IEEE Transactions on Geoscience and Remote Sensing, 2006, 44(9): 2549-2562.
[15]UPLA K P, JOSHI M V, GAJJAR P P. An edge preserving multiresolution fusion: use of contourlet transform and MRF prior [J]. IEEE Transactions on Geoscience and Remote Sensing, 2015, 53(6): 3210-3220.
[16]HARIKUMAR V, GAJJAR P P, JOSHI M V, et al. Multiresolution image fusion: use of compressive sensing and graph cuts [J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2014, 7(5): 1771-1780.
[17]PALSSON F, SVEINSSON J R, ULFARSSON M O. A new pansharpening algorithm based on total variation [J]. IEEE Geoscience and Remote Sensing Letters, 2013, 11(1): 318-322.
[18]LIU P, XIAO L, ZHANG J, et al. Spatial-Hessian-feature-guided variational model for pan-sharpening [J]. IEEE Transactions on Geoscience and Remote Sensing, 2015, 54(4): 2235-2253.
[19]LI S, YANG B. A new pan-sharpening method using a compressed sensing technique [J]. IEEE Transactions on Geoscience and Remote Sensing, 2011, 49(2): 738-746.
[20]LI S, YIN H, FANG L. Remote sensing image fusion via sparse representations over learned dictionaries [J]. IEEE Transactions on Geoscience and Remote Sensing, 2013, 51(9): 4779-4789.
[21]WANG W, JIAO L, YANG S. Fusion of multispectral and panchromatic images via sparse representation and local autoregressive model [J]. Information Fusion, 2014, 20: 73-87.
[22]WANG W, JIAO L, YANG S, et al. Distributed compressed sensing-based pan-sharpening with hybrid dictionary [J]. Neurocomputing, 2015, 155: 320-333.
[23]ZHU X X, BAMLER R. A sparse image fusion algorithm with application to pan-sharpening [J]. IEEE Transactions on Geoscience and Remote Sensing, 2013, 51(5): 2827-2836.
[24]HAN C, ZHANG H, GAO C, et al. A remote sensing image fusion method based on the analysis sparse model [J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2016, 9(1): 439-453.
[25]ZHU X, GROHNFELDT C, BAMLER R. Exploiting joint sparsity for pansharpening: the J-SparseFI algorithm [J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(5): 2664-2681.
[26]JIANG C, ZHANG H, SHEN H, et al. Two-step sparse coding for the pan-sharpening of remote sensing images [J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2014, 7(5): 1792-1805.
[27]ROWEIS S T, SAUL L K. Nonlinear dimensionality reduction by locally linear embedding [J]. Science, 2000, 290(5500): 2323-2326.
[28]ZHANG Y, HONG G. An IHS and wavelet integrated approach to improve pan-sharpening visual quality of natural colour IKONOS and QuickBird images [J]. Information Fusion, 2005, 6(3): 225-234.
[29]YANG B, LI S. Pixel-level image fusion with simultaneous orthogonal matching pursuit [J]. Information Fusion, 2012, 13(1): 10-19.
[30]PALSSON F, SVEINSSON J R, ULFARSSON M O, et al. Quantitative quality evaluation of pansharpened imagery: consistency versus synthesis [J]. IEEE Transactions on Geoscience and Remote Sensing, 2015, 54(3): 1247-1259.
[31]GARZELLI A, NENCINI F, CAPOBIANCO L. Optimal MMSE pan sharpening of very high resolution multispectral images [J]. IEEE Transactions on Geoscience and Remote Sensing, 2008, 46(1): 228-236.
[32]NUNEZ J, OTAZU X, FORS O, et al. Multiresolution-based image fusion with additive wavelet decomposition [J]. IEEE Transactions on Geoscience and Remote Sensing, 1999, 37(3): 1204-1211.
[33]ZHENG S, SHI W, LIU J, et al. Remote sensing image fusion using multiscale mapped LS-SVM [J]. IEEE Transactions on Geoscience and Remote Sensing, 2008, 46(5): 1313-1322.
[34]JIANG C, ZHANG H, SHEN H, et al. Two-step sparse coding for the pan-sharpening of remote sensing images [J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2014, 7(5): 1792-1805.
This work is partially supported by the National Natural Science Foundation of China (61703334), the China Postdoctoral Science Foundation (2016M602942XB), the Natural Science Basic Research Plan of Shaanxi Province (2017JQ6050), the Key Research and Development Program of Shaanxi Province (2018ZDXM-GY-089).
WANG Wenqing, born in 1986, Ph. D., lecturer. His research interests include remote sensing image processing and interpretation, intelligent information processing, machine learning.
LIU Han, born in 1972, Ph. D., professor. His research interests include modeling and control of complex industrial process, machine learning, artificial intelligence, intelligent information processing.
XIE Guo, born in 1982, Ph. D., professor. His research interests include intelligent information processing, intelligent rail transit, data analysis, fault diagnosis.
LIU Wei, born in 1982, Ph. D., lecturer. His research interests include computer vision.
收稿日期:2019-06-24;修回日期:2019-09-11;錄用日期:2019-09-25?;痦?xiàng)目:國(guó)家自然科學(xué)基金資助項(xiàng)目(61703334);中國(guó)博士后科學(xué)基金資助項(xiàng)目(2016M602942XB);陜西省自然科學(xué)基礎(chǔ)研究計(jì)劃項(xiàng)目(2017JQ6050);陜西省重點(diǎn)研發(fā)計(jì)劃項(xiàng)目(2018ZDXM-GY-089)。
作者簡(jiǎn)介:王文卿(1986—),男,山東萊蕪人,講師,博士,CCF會(huì)員(No.76518M),主要研究方向:遙感影像處理與解譯、智能信息處理、機(jī)器學(xué)習(xí);劉涵(1972—),男,陜西西安人,教授,博士,主要研究方向:復(fù)雜工業(yè)過(guò)程建模與控制、機(jī)器學(xué)習(xí)、人工智能、智能信息處理; 謝國(guó)(1982—),男,湖北當(dāng)陽(yáng)人,教授,博士,主要研究方向:智能信息處理、智能軌道交通、數(shù)據(jù)分析、故障診斷; 劉偉(1982—),男,陜西漢中人,講師,博士,主要研究方向:計(jì)算機(jī)視覺(jué)。
文章編號(hào):1001-9081(2019)12-3650-09 DOI:10.11772/j.issn.1001-9081.2019061063