呂龍龍,盧 偉,秦麗娜
(運(yùn)城職業(yè)技術(shù)大學(xué)信創(chuàng)學(xué)院,山西 運(yùn)城 044000)
高光譜圖像是通過高光譜成像儀采集可見光區(qū)域到短紅外光區(qū)域的光譜而獲取的圖像,由于成像光譜儀在許多相互鄰接和部分重疊的狹窄光譜波段上同時(shí)收集地面的輻射數(shù)據(jù),每個(gè)波段都包含了規(guī)定范圍內(nèi)電磁光譜的反射光值,因而波段數(shù)常常多達(dá)數(shù)十到數(shù)百。與普通圖像相比,高光譜圖像的分辨率極高,且輻射、空間和光譜信息十分豐富且精細(xì)。目前,高光譜遙感對(duì)地觀測技術(shù)的應(yīng)用十分普遍,例如精準(zhǔn)農(nóng)業(yè)、食品安全和國土安全等領(lǐng)域[1]。而高光譜圖像應(yīng)用的主要問題就是如何對(duì)高光譜圖像信號(hào)進(jìn)行分類。
不同于對(duì)自然圖像的分類,高光譜圖像分類的對(duì)象是圖像中的每一個(gè)影像單元即像元,其目的是對(duì)所有像元預(yù)測進(jìn)而分配指定標(biāo)簽[2]。然而,高光譜圖像具有數(shù)據(jù)量大、維數(shù)眾多、標(biāo)記樣本困難、高度非線性、波段多、波段間相關(guān)性強(qiáng)以及存在混合像元等特點(diǎn),給其在分類與識(shí)別應(yīng)用中帶來了諸多挑戰(zhàn)[3]。
之前的高光譜圖像分類常常采用邏輯回歸[4]、最近鄰方法[5]、人工神經(jīng)網(wǎng)絡(luò)[6]和支持向量機(jī)[7]。然而由于:其一,高光譜圖像維度往往比可用的訓(xùn)練樣本的數(shù)量大得多,而傳統(tǒng)的方法大都是從多光譜數(shù)據(jù)的應(yīng)用中移植而來的,無力負(fù)擔(dān)高光譜圖像這樣的高維數(shù)據(jù)處理帶來的高計(jì)算量;其二,傳統(tǒng)的方法常常需要人工設(shè)計(jì)特征,對(duì)先驗(yàn)知識(shí)的要求較高;其三,傳統(tǒng)的方法通常只利用了地物的光譜特征,無法進(jìn)行相當(dāng)完備的特征提取,導(dǎo)致對(duì)高光譜圖像中豐富的空間信息考慮不夠完全,在分類時(shí)容易出現(xiàn)Hughes 現(xiàn)象[8]。
近年來也有許多基于深度學(xué)習(xí)的高光譜圖像分類方法。文獻(xiàn)[9]提出一種用于高光譜圖像分類的堆疊式自動(dòng)編碼器(Stacked AutoEncode,SAE),該方法結(jié)合了主成分分析(Principal Component Analysis,PCA)降維、分層特征提取和邏輯回歸分類。文獻(xiàn)[10]通過逐層學(xué)習(xí)受限玻爾茲曼機(jī)(Restricted Boltzmann Machine,RBM),從而構(gòu)建深度置信網(wǎng)絡(luò)(Deep Belief Network,DBN)來對(duì)高光譜圖像的光譜特征進(jìn)行提取和分類。然而,SAE 和DBN 的不足之處在于其中含有許多全連接層,因此參數(shù)量巨大訓(xùn)練耗時(shí)。
與上述深度學(xué)習(xí)方法相比,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)不但在高光譜圖像的特征提取方面表現(xiàn)更好,而且其中的局部連接和權(quán)重共享機(jī)制能夠更有效地提取空間信息,并進(jìn)一步減少了參數(shù)數(shù)量。文獻(xiàn)[11]提出了一種五層空間&光譜CNN,利用每個(gè)光譜波段的均值和標(biāo)準(zhǔn)差來獲取相關(guān)特征。文獻(xiàn)[12]結(jié)合PCA 構(gòu)建了含有一維(One-Dimensional1D)、二維(Two-Dimensional,2D)和三維(Three-Dimensional3D)輸入特征的CNN 模型,以分別從高光譜圖像數(shù)據(jù)中提取空間特征,光譜特征和空間&光譜特征。文獻(xiàn)[13]融合語義光譜空間信息和3D-CNN 來進(jìn)行高光譜圖像分類。3D-CNN 的優(yōu)勢在于其結(jié)構(gòu)與三維高光譜立方體圖像數(shù)據(jù)契合,同時(shí)容易獲得目標(biāo)像元的信息[14]。深度密集關(guān)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)(Deep Densely Associated CNN)和深度殘差網(wǎng)絡(luò)(Residual Network)同樣是用于光譜空間分類的兩種CNN 類型[15]。此外,CNN 與其他方法,如形態(tài)學(xué)剖面[16]、判別嵌入[17]和稀疏光譜表示[18]結(jié)合使用也可以提高分類性能。文獻(xiàn)[19]中提出了一種可以利用高光譜圖像數(shù)據(jù)中互補(bǔ)空間& 光譜信息的三階段CNN 架構(gòu),其中的互補(bǔ)信息來源于綜合層級(jí)的低級(jí)特征信息和語義層級(jí)的高級(jí)特征信息的結(jié)合。文獻(xiàn)[13]提出了一種融合語義光譜&空間信息進(jìn)行高光譜圖像分類的CNN 方法。
在高光譜圖像分類中,可以采用多種正則化策略來克服極易出現(xiàn)的過擬合問題,如L2 正則化、Dropout 和批量歸一化(Batch Normalization/Batch Norm,BN)[20]。這些優(yōu)化技術(shù)通過解決時(shí)間消耗問題和模型收斂問題,可以很好地提高CNN 模型的最終性能。此外,設(shè)計(jì)一個(gè)合適的CNN 架構(gòu)優(yōu)化器是構(gòu)建和訓(xùn)練網(wǎng)絡(luò)模型的關(guān)鍵。隨機(jī)梯度下降方法(Stochastic Gradient Descent,SGD)是深度學(xué)習(xí)中最常使用的優(yōu)化技術(shù),它使用單個(gè)樣本對(duì)網(wǎng)絡(luò)梯度進(jìn)行迭代更新,這種頻繁更新的機(jī)制避免了模型陷入局部最小值的影響,但同時(shí)如此頻繁地更新模型顯然會(huì)耗費(fèi)更多計(jì)算成本,導(dǎo)致訓(xùn)練時(shí)模型的方差較高?;诖?,許多自適應(yīng)優(yōu)化器被提出來解決其不足,包括AdaGrad、AdaDelta、RmsProp、Adam 等[21]。在這些優(yōu)化器中,Adam 是計(jì)算機(jī)視覺領(lǐng)域最常使用的優(yōu)化器,但由于權(quán)重衰減等問題,它有時(shí)無法收斂到最優(yōu)解[22]。與它們相比,AdaBound 的收斂速度快且泛化能力較強(qiáng)[23]。為了利用網(wǎng)絡(luò)的不同層對(duì)空間&光譜信息的支持,希望有一種模型能夠?qū)⒐庾V信息和空間信息結(jié)合起來學(xué)習(xí),以充分利用兩者之間的關(guān)系,這便是本文方法的啟發(fā)與靈感。本文提出一個(gè)MS-2HCNN(Multi Stage-Heightened &Hyperspectral Convolutional Neural Network)以學(xué)習(xí)合并光譜&空間特征,并加深模型以進(jìn)行高光譜圖像數(shù)據(jù)的分類。在卷積塊中進(jìn)行多次卷積運(yùn)算,從主要的兩層中提取的特征被合并以作為輸入提供給相鄰層,從而從特征中提取出最有用的信息。在MS-2HCNN 中,設(shè)計(jì)了一個(gè)四階段流程來合并和提取光譜&空間特征。最后,將所預(yù)測的特征輸入到1×1 的全卷積層中,以獲得較好的效果。基準(zhǔn)數(shù)據(jù)集由于頻帶數(shù)量龐大,更容易出現(xiàn)過擬合問題。為了克服過擬合的問題,MS-2HCNN 采用了一種組合了SGD 和Adam 的優(yōu)化器AdaBound。它使用動(dòng)態(tài)的學(xué)習(xí)速率邊界來實(shí)現(xiàn)從自適應(yīng)學(xué)習(xí)速率到靜態(tài)學(xué)習(xí)速率的漸進(jìn)平穩(wěn)過渡。AdaBound 優(yōu)化器通過收斂步長提高了線性化過程的速度,同時(shí)也消除了過擬合的問題。此外,本文在MS-2HCNN 模型上比較了AdaGrad、AdaDelta、Adam 和AdaBound 等幾種不同的自適應(yīng)優(yōu)化方法與SGD 的性能。
CNN 是一類主要應(yīng)用于計(jì)算機(jī)視覺的前饋人工神經(jīng)網(wǎng)絡(luò)[10]。如圖1 所示,典型的CNN 是由許多堆疊的卷積層和池化層以及一個(gè)或多個(gè)全連接層(Fully Connected Layer)連接而成的[24]。CNN 通過加強(qiáng)連續(xù)層神經(jīng)元之間的聯(lián)系來表現(xiàn)局部連接,如當(dāng)前層的輸入神經(jīng)元是前一層的輸出神經(jīng)元的子集。通過此前饋功能,輸入的高光譜圖像(Hyperspectral Input),經(jīng)過CNN 從底層提取到的特征可以不斷傳遞到上層。
圖1 用于高光譜圖像分類的卷積神經(jīng)網(wǎng)絡(luò)典型結(jié)構(gòu)
以下對(duì)CNN 進(jìn)行介紹:
①卷積(Convolution):類似于數(shù)字信號(hào)處理中的1 維卷積操作,卷積神經(jīng)網(wǎng)絡(luò)中的卷積操作是通過利用濾波器來在輸入圖像/特征圖的區(qū)間窗口中不斷滾動(dòng)而執(zhí)行的復(fù)雜計(jì)算,而每個(gè)卷積操作生成的輸出像素由區(qū)間窗口上輸入像素的加權(quán)和組成。如式(1)所示:
②激活函數(shù):激活函數(shù)是深度學(xué)習(xí)的重要組成部分,因?yàn)樗梢詫⒎蔷€性特性引入到深度網(wǎng)絡(luò)中,以進(jìn)行輸入到輸出的復(fù)雜映射。ReLU(Rectified Linear Unit)是最常使用的激活函數(shù)之一,如式(2)所示,它將輸入的負(fù)數(shù)值截?cái)酁榱?,同時(shí)保持正數(shù)值[25]。這樣的形式使其相比于Sigmoid 和Tanh 可以很好地避免和糾正梯度消失問題。在本文的網(wǎng)絡(luò)中使用ReLU 作為激活函數(shù)。
③池化層:池化層是模仿人的視覺系統(tǒng)對(duì)數(shù)據(jù)進(jìn)行降維,用更高層次的特征表示圖像。池化存在的意義有三:降低信息冗余;提升模型的尺度不變性、旋轉(zhuǎn)不變性;防止過擬合。其中最常使用的池化為最大池化(Max Pooling)。
④BN 層:當(dāng)數(shù)據(jù)中的特征具有不同的范圍時(shí),批量歸一化操作可以使特征的數(shù)值處于相同的數(shù)量級(jí),以加快梯度下降的速度,更快找到最優(yōu)點(diǎn),加快模型的訓(xùn)練。同時(shí)BN 使得網(wǎng)絡(luò)可以省去或者減弱Dropout 比例與L2 正則化參數(shù)的懲罰因子:對(duì)Dropout 而言,經(jīng)過BN 處理后,由于參數(shù)進(jìn)行了歸一化,因此神經(jīng)元分布變得明顯,經(jīng)過一個(gè)激活函數(shù)以后,神經(jīng)元會(huì)自動(dòng)削弱或者去除一些神經(jīng)元,就不用再對(duì)其進(jìn)行Dropout;對(duì)L2 正則化而言,由于每次訓(xùn)練都進(jìn)行了歸一化,就會(huì)很少發(fā)生由于數(shù)據(jù)分布不同導(dǎo)致的參數(shù)變動(dòng)過大問題。
⑤損失函數(shù):損失函數(shù)可以用來估量CNN 模型的預(yù)測值與真實(shí)圖像的不一致程度,它是一個(gè)非負(fù)實(shí)值函數(shù),而一般來說損失函數(shù)越小,模型的魯棒性就越好,越接近收斂。典型softmax 損失函數(shù)的輸出由預(yù)測的輸出圖像與真值圖像的交叉熵計(jì)算得到:
式中:Ls為損失函數(shù);每個(gè)類標(biāo)簽的概率用g表示,如式(4)所示,輸出概率之和為1;n為數(shù)據(jù)集中的類別個(gè)數(shù);v為當(dāng)前輸入的實(shí)際標(biāo)簽的獨(dú)熱向量預(yù)測。
式中:x是根據(jù)輸出層權(quán)值變化的線性參數(shù),將輸出g(x)歸一化為1。
⑥優(yōu)化器:對(duì)損失函數(shù)進(jìn)行最小化的關(guān)鍵在于使用一個(gè)好的優(yōu)化器,如AdaGrad、AdaDelta、RmsProp、Adam 等。同時(shí)優(yōu)化器在構(gòu)建基于深度卷積神經(jīng)網(wǎng)絡(luò)的模型中扮演著重要角色,其中的超參數(shù)分布于各層。為了進(jìn)行后向傳播以更新模型參數(shù),目標(biāo)函數(shù)需要最小化,從而使得迭代過程中的每個(gè)實(shí)際輸出和預(yù)測輸出都進(jìn)行后向傳播。優(yōu)化器的目的是不斷最小化交叉熵使其無限接近于零,從而使得預(yù)測輸出逐漸收斂于實(shí)際輸出。
這里對(duì)典型的優(yōu)化器也是MS-2HCNN 在訓(xùn)練時(shí)使用的優(yōu)化器AdaBound 進(jìn)行介紹。為了實(shí)現(xiàn)從自適應(yīng)優(yōu)化器過渡到SGD 優(yōu)化器的目標(biāo),AdaBound優(yōu)化器在所需的學(xué)習(xí)速率上使用動(dòng)態(tài)邊界。這就約束了自適應(yīng)優(yōu)化器和SGD 優(yōu)化器之間的泛化差異。它的主要優(yōu)勢之一是在訓(xùn)練的初始階段可以保持更快的學(xué)習(xí)速度。α作為算法的起始步長,α/Vt為學(xué)習(xí)速率。AdaBound 優(yōu)化器的過程如算法1 如示:
算法1 AdaBound 優(yōu)化器
其中動(dòng)量值β1=0.9,β2=0.99。學(xué)習(xí)率α/(vt)1/2的每個(gè)元素都如式(5)被截?cái)?,使ηu和ηl成為帶約束輸出,以避免梯度爆炸。
此外,參數(shù)更新的規(guī)律為:
由式(6),學(xué)習(xí)率可以一直進(jìn)行修正,且上限與下限之間的差距有減小的趨勢,導(dǎo)致AdaBound 優(yōu)化器在初始階段的功能像Adam[26],并最終在邊界范圍內(nèi)轉(zhuǎn)換為SGD。
本文提出的MS-2HCNN 在進(jìn)行高光譜圖像分類時(shí)的流程如圖2 所示。
圖2 本文的流程圖
首先使用主成分分析提取出數(shù)據(jù)集中最主要的信息,然后將其分為測試集和訓(xùn)練集。在設(shè)計(jì)MS-2HCNN 模型時(shí)采用四階段方法(如下所示),其中在卷積塊(Conv_BLK)中通過大量的卷積運(yùn)算融合空間& 光譜信息,以提取高光譜圖像中豐富的特征,其中的conv(n×n)表示n×n大小的卷積核。此外,還采用了一種高效的優(yōu)化器在兩個(gè)不同的數(shù)據(jù)集上對(duì)模型進(jìn)行訓(xùn)練。具體介紹如下:
Step1:將訓(xùn)練集中的n個(gè)標(biāo)簽樣本數(shù)據(jù)記為(Xn∈Y1×d)nn=1,其中d為光譜數(shù)據(jù)的大小。將光譜數(shù)據(jù)和空間數(shù)據(jù)結(jié)合提取特征以提高分類精度。每個(gè)光譜像素與中心像素Xn的相鄰像素視為塊Hn∈YS×S(S為窗口的權(quán)重和高度)。
Step 2:四階段設(shè)計(jì):
①將淺層與深層融合(Merging Block),得以從特征圖中提取更多的信息。②在密集卷積塊(Dense Convolution Block)中,任意兩個(gè)提取到的特征圖都可以被連續(xù)級(jí)聯(lián)在一起。③將提取的輸入數(shù)據(jù)的相關(guān)空間特征和光譜特征進(jìn)行拼接(Concatening Sptial-Spectral Feature)。④最后,利用1×1 卷積層對(duì)線性信道中的信息進(jìn)行匯總(Adding up Feature)。
Step3:使用AdaBound 優(yōu)化器,根據(jù)式(6)對(duì)模型的學(xué)習(xí)率進(jìn)行相應(yīng)的修改,以提高整體收斂性,并使用BN 方法對(duì)每層的輸入值進(jìn)行歸一化處理。
Step4:通過式(9)中c類的softmax 函數(shù)計(jì)算每個(gè)類別所需提取的相應(yīng)空間光譜信息。
Step5:測試集數(shù)據(jù)通過式(10)預(yù)測類來驗(yàn)證本文提出的MS-2HCNN 模型的性能。
1.2.1 空間特征和光譜特征的提取
首先空間特征信息和光譜特征信息是互相獨(dú)立的,通過串聯(lián)光譜級(jí)通道,將淺層的邊界特征合并為深層的高層語義特征。此時(shí)的空間維度保持不變,提取到的特征圖中包含大量信息。然后使用密集卷積塊獲取空間光譜特征。將之前層的特征組合作為輸入,并附加權(quán)值給后續(xù)層,從而得到兩個(gè)具有相同維數(shù)的特征圖。這樣一來,便可實(shí)現(xiàn)了特征在通道維度上的復(fù)用,進(jìn)行特征增強(qiáng),并減少了不常出現(xiàn)的特征信息,使用少量的卷積核就可以生成大量的特征,最終模型的尺寸也比較小,從而提高了卷積塊提取特征的效率。因?yàn)橐话闱闆r下在反向傳播時(shí)每一層都會(huì)接受其后所有層的梯度信號(hào),所以隨著網(wǎng)絡(luò)深度的增加,靠近輸入層的梯度不會(huì)變得越來越小,因此這種結(jié)構(gòu)的設(shè)計(jì)還一定程度上減輕在訓(xùn)練過程中梯度消失的問題。最后,這種結(jié)構(gòu)可以說是一種隱式的強(qiáng)監(jiān)督模式,因?yàn)槊恳粚佣冀⑵鹆伺c前面層的連接,誤差信號(hào)可以很容易地傳播到較早的層,所以較早的層可以從最終分類層獲得直接監(jiān)督。
1.2.2 空間&光譜特征合并和分類
為了給MS-2HCNN 模型提供必要的細(xì)節(jié),必須識(shí)別多個(gè)空間光譜特征。此外,提取到的空間數(shù)據(jù)特征和光譜數(shù)據(jù)特征必須進(jìn)行合并。因此,MS-2HCNN 的目標(biāo)函數(shù)如式(7)所示:
式中:輸入為Xn,輸出為Yn,歸并函數(shù)為?,權(quán)重為w,偏置為b。另外,如圖2 所示,在MS-2HCNN 的Step3 階段,將多個(gè)池化輸出進(jìn)行池化并合并,實(shí)現(xiàn)空間&光譜特征提取。池化輸出計(jì)算操作的合并如下所示:
式中:POOLsi{i=1,2,3,4,5}表示當(dāng)前階段的輸入變量。?表示合并操作。這四個(gè)輸入變量的合并獲得了更多更豐富的特征信息,生成了一個(gè)集成特征圖。由于空間結(jié)構(gòu)映射的維數(shù)可能不同,因此采用1×1 卷積運(yùn)算代替全連接層。1×1 卷積在集成新特征圖的同時(shí),有助于減少參數(shù)并進(jìn)行通道間的有效通信。
最后階段的輸出特征由(Xn∈Y1×c)nn=1 組成,其中c表示類別數(shù)量。
在訓(xùn)練階段,損失函數(shù)是Softmax 層中的一部分:
在測試階段,預(yù)測的標(biāo)簽是MS-2HCNN 模型的輸出。類標(biāo)簽生成如下:
式中:Xts為測試樣本,Class 是預(yù)測標(biāo)簽,Yl是MS-2HCNN模型的輸出。
與四階段設(shè)計(jì)方法相符,為了利用相鄰像素之間的空間相關(guān)性,通過將光譜波段與主成分向量串聯(lián)來產(chǎn)生輸入的像素參數(shù)。此外,進(jìn)行了降維從而避免過擬合,使用9×9 大小的PCA 算法處理了數(shù)據(jù)集。輸入維數(shù)設(shè)置為9×9 和11×11 且光譜波段為10。
表1 所示為MS-2HCNN 網(wǎng)絡(luò)模型的參數(shù)。本文方法基于Python 3.6 運(yùn)行,使用Keras 2.2.4 作為后端庫,Tensorflow 1.12.0 作為前端庫。為了獲得訓(xùn)練樣本和測試樣本的準(zhǔn)確率和損失值的變化,將100 個(gè)epochs 固定并重復(fù)100 次。用于性能評(píng)價(jià)的指標(biāo)如下:①總體準(zhǔn)確率,即分類正確的樣本占所有測試樣本總數(shù)的比例;②平均準(zhǔn)確率,即每個(gè)類的分類率;③Kappa 系數(shù),將最終得到的特征圖與真值特征圖進(jìn)行數(shù)值對(duì)比。
表1 MS-2HCNN 模型參數(shù)設(shè)置
本文基于兩個(gè)不同的高光譜遙感數(shù)據(jù)集:Indian Pines 和Salinas 探究MS-2HCNN 模型的性能。在訓(xùn)練MS-2HCNN 模型時(shí),從數(shù)據(jù)集的每一類中隨機(jī)選擇10%的標(biāo)簽數(shù)據(jù),其余的數(shù)據(jù)作為測試樣本。以下結(jié)合表2 對(duì)兩個(gè)數(shù)據(jù)集的具體情況進(jìn)行介紹:
表2 數(shù)據(jù)集介紹
Indian Pines 是最早的用于高光譜圖像分類的測試數(shù)據(jù),由機(jī)載可視紅外成像光譜儀(Airborne Visible Infrared Imaging Spectrometer,AVIRIS) 于1992 年對(duì)美國西北的印第安納州農(nóng)業(yè)區(qū)的印度松樹進(jìn)行成像,然后截取145×145 尺度進(jìn)行標(biāo)注,以此作為高光譜圖像分類測試用途。此外,其空間分辨率約為20 m。而由于AVIRIS 成像波長范圍為0.4 μm~2.45 μm,是在連續(xù)的220 個(gè)波段對(duì)地物連續(xù)成像的,但是由于第104~108,第150~163 和第220 個(gè)波段不能被水反射,因此,一般在使用時(shí)對(duì)這20 個(gè)波段進(jìn)行剔除,只使用剩余的200 個(gè)波段進(jìn)行研究。最后共計(jì)16 個(gè)類別。
Salinas 是美國加利福尼亞州薩利納斯山谷的圖像,也由AVIRIS 拍攝完成的。其大小為512×217像素,譜帶為0.36 μm~2.0 μ m,空間分辨率3.7 m。該圖像由16 類224 個(gè)光譜波段組成。
為了進(jìn)一步減少M(fèi)S-2HCNN 模型的損失,并提高高光譜圖像分類的性能,本文首先對(duì)相關(guān)的深度網(wǎng)絡(luò)優(yōu)化器進(jìn)行實(shí)驗(yàn)探究,包括SGD,AdaGrad,AdaDelta,Adam 和AdaBound,旨在選取最優(yōu)性能的優(yōu)化器。
圖3 給出了MS-2HCNN 結(jié)合不同優(yōu)化器在兩個(gè)數(shù)據(jù)集的輸出分類特征圖。首先可以看到相比于自適應(yīng)優(yōu)化器,SGD 優(yōu)化器的表現(xiàn)最差。此外,AdaBound 優(yōu)化器得到的分類圖明顯優(yōu)于其他自適應(yīng)優(yōu)化器,最接近于真值圖。
圖3 不同方法的分類特征圖,其中上方為Indian Pines 數(shù)據(jù)集,下方為Salinas 數(shù)據(jù)集
表3 展示了在Indian Pines 和Salinas 數(shù)據(jù)集上使用不同優(yōu)化器的訓(xùn)練時(shí)間(Tt)和測試時(shí)間(Ts)??梢钥吹酵粩?shù)據(jù)集上不同優(yōu)化器之間的時(shí)間消耗差異很小,而AdaBound 優(yōu)化器的綜合消耗時(shí)間最少。
表3 不同優(yōu)化器的時(shí)間復(fù)雜度
表4 和表5 分別給出了在Indian Pines 和Salinas 數(shù)據(jù)集的分類結(jié)果,可以看到與其他方法相比,MS-2HCNN 模型結(jié)合AdaBound 優(yōu)化器的方法在每個(gè)類別上的和平均準(zhǔn)確率上都實(shí)現(xiàn)了最優(yōu)解。而它在Indian Pines 數(shù)據(jù)集上的總體準(zhǔn)確率達(dá)到了99.36%,這也是所有對(duì)比優(yōu)化器中表現(xiàn)最好的;而在Salinas 數(shù)據(jù)集上的總體準(zhǔn)確率則達(dá)到了99.01%,稍弱于Adam 優(yōu)化器的99.53%,原因可能是grapes_untrained 和vinyard_untrained 兩類之間的類間距太小,只有0.35%的微弱差異。因此總體上來說,帶有AdaBound 優(yōu)化器的MS-2HCNN 模型比其他模型顯示了更好的性能。
表5 Salinas 上不同優(yōu)化器的實(shí)驗(yàn)結(jié)果
結(jié)合表3、表4 和表5 來看,AdaBound 優(yōu)化器明顯提高了傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)的穩(wěn)定性和收斂速度。因此采用AdaBound 的MS-2HCNN 性能明顯優(yōu)于其他優(yōu)化器,在整個(gè)測試過程中,測試精度的變化率確實(shí)很低,這是因?yàn)锳daBound 優(yōu)化器在優(yōu)化過程中使用了動(dòng)態(tài)學(xué)習(xí)速率。AdaBound 優(yōu)化器在訓(xùn)練初期類似于GD,隨著訓(xùn)練周期的增加,優(yōu)化器在速度和準(zhǔn)確性方面都變得更加有效。自適應(yīng)優(yōu)化器Adam 和AdaBound 可以在最短的時(shí)間內(nèi)對(duì)模型進(jìn)行擬合,而SGD 需要很長時(shí)間。采用AdaBound 優(yōu)化器的MS-2HCNN 比SGD、AdaGrad、AdaDelta 和Adam 優(yōu)化器可以實(shí)現(xiàn)更快的收斂時(shí)間。從這點(diǎn)可以看出,利用AdaBound 優(yōu)化器的確改進(jìn)了MS-2HCNN 的分類性能。
此外,還將MS-2HCNN 方法與其他高光譜圖像分類方法進(jìn)行了比較,包括傳統(tǒng)用于高光譜圖像分類的代表性機(jī)器學(xué)習(xí)方法支持向量機(jī)(Support Vector Machine,SVM),而深度學(xué)習(xí)方法選取了代表性的可以提取空間光譜高階特征的2D-CNN、3DCNN 和Hybrid-SN 方法。
表6 展示了幾種性能測量方法的結(jié)果,包括總體準(zhǔn)確率,平均準(zhǔn)確率和Kappa 系數(shù)。結(jié)合表4,可以看到相較于其他有監(jiān)督模型,提出的MS-2HCNN模型在保持最小標(biāo)準(zhǔn)差的情況下優(yōu)于現(xiàn)有監(jiān)督模型。在Salinas 數(shù)據(jù)集上的結(jié)果表明3D-CNN 的結(jié)構(gòu)設(shè)計(jì)遜色于2D-CNN 方法。而其他所有基于空間&光譜特征的模型在精度上皆優(yōu)于SVM 方法。另一方面,2D-CNN 和3D-CNN 本身無法刻畫出具有高度判別性的空間&光譜特征。而本文提出的MS-2HCNN 和Hybrid-SN 的性能優(yōu)于其他模型。
表6 Indian Pines 數(shù)據(jù)集和Salinas 數(shù)據(jù)集中不同方法的總體準(zhǔn)確率,平均準(zhǔn)確率和Kappa 系數(shù)比較
圖4 和圖5 分別展示了在Indian Pines 數(shù)據(jù)集和Salinas 數(shù)據(jù)集中不同訓(xùn)練時(shí)期各種分類器的結(jié)果對(duì)比,可以看到本文提出的MS-2HCNN 模型實(shí)現(xiàn)了更好的空間-光譜分類。
圖4 Indian Pines 數(shù)據(jù)集中不同方法在不同時(shí)期的總體準(zhǔn)確率
圖5 Salinas 數(shù)據(jù)集中不同方法在不同時(shí)期的總體準(zhǔn)確率
由于較高的樣本特征比,因此在基于CNN 的高光譜圖像信號(hào)分類方法中一直增加層的深度可能會(huì)導(dǎo)致過擬合問題。此外,由于高光譜圖像的空間&光譜信息在不同層上不相關(guān),因此可能會(huì)面臨信息缺失的問題。針對(duì)這些問題,本文提出了MS-2HCNN 以進(jìn)行應(yīng)對(duì)。具體來說,首先通過卷積塊合并連續(xù)兩層的輸出,并將合并的特征提取結(jié)果作為輸入送到下一層,從而進(jìn)行相關(guān)的特征提取;然后從低層到深層高層,通過將光譜特征連接到四階段空間特征來獲取光譜空間特征。此外,采用的AdaBound 優(yōu)化器減少了MS-2HCNN 的模型參數(shù)并提高其擬合能力。在不同數(shù)據(jù)集上的總體準(zhǔn)確率、平均準(zhǔn)確率和Kappa 系數(shù)指標(biāo)結(jié)果證明了提出方法的有效性。