高路堯 胡長虹 肖樹林
摘要: 針對卷積神經網絡(CNN)僅能應用于歐氏數據, 無法有效獲取像素間的全局關系特征以及長距離上下文信息的問題, 構建一個基于超像素分割的圖注意力網絡SSGAT. 該網絡將超像素分割后的超像素塊視為圖結構中的圖節(jié)點, 有效減少了圖結構的復雜度, 并降低了分類圖的噪聲. 在3個數據集上對SSGAT及對比算法的分類精度進行測試, 分別獲得了94.11%,95.22%,96.37%的總體分類精度. 結果表明該方法性能優(yōu)異, 在處理大尺度區(qū)域的分類問題時優(yōu)勢明顯.
關鍵詞: 高光譜圖像; 圖注意力網絡; 殘差機制; 超像素分割
中圖分類號: TP391文獻標志碼: A文章編號: 1671-5489(2024)02-0357-12
Hyperspectral Image Classification Based on SuperpixelSegmentation with Graph Attention Networks
GAO Luyao1,2, HU Changhong1, XIAO Shulin1,2
(1. Changchun Institute of Optics, Fine Mechanics and Physics, Chinese Academy of Sciences,Changchun 130033, China; 2. University of Chinese Academy of Sciences, Beijing 100049, China)
Abstract: Aiming at the problem that convolutional neural network (CNN) could only be applied to Euclidean data and could not effectively obtain global relationship features between pixels and long-distance contextual information, we constructed a superpixel segmentation-based graph attention network (SSGAT). The network treated the segmented superpixel blocks as graph nodes in the graph structure, effectively reducing the complexity of the graph structure and reducing the noise of the classification graph.? The classification accuracy of SSGAT and the comparison algorithm were tested on three datasets, and overall classification accuracy of 94.11%, 95.22%, and 96.37% were obtained, respectively. The results show that the method has excellent performance and significant advantages in dealing with classification problems in large-scale regions.
Keywords: hyperspectral image; graph attention network; residual mechanism; superpixel segmentation
高光譜成像系統(tǒng)可同時獲取地物豐富的光譜信息和二維空間信息進而形成高光譜圖像(hyperspectral images, HSI)[1]. HSI的光譜維度由數十至數百個連續(xù)波段組成, 細微的光譜特征極大提升了地物分辨能力, 因此已廣泛應用于災害監(jiān)測、 植被分類、 精細農業(yè)以及醫(yī)學診斷等領域[2-5].
HSI分類的目標是對HSI中的各像素所代表的地物對象進行判別[6]. 早期主要依靠一些機器學習算法進行高光譜圖像分類任務, 傳統(tǒng)的機器學習算法主要分為特征工程與分類器分類兩個過程. 特征工程的目的是根據專業(yè)知識對數據進行處理, 從而使處理后的特征在后續(xù)分類算法中得到更好地應用, 例如主成分分析(PCA)[7]、 獨立成分分析(ICA)[8]等降維方法. 典型的分類器包括支持向量機(SVM)[9]、 隨機森林(RF)[10]和k-近鄰(KNN)[11]等方法. 但上述方法忽略了HSI中的空間信息, 且特征提取過程需人為參與, 因此限制了分類準確度的提升.
深度學習通過聚合低級特征自動對圖像的高階特征進行提取, 避免了繁瑣的特征工程, 且能取得比機器學習方法更好的分類結果[5], 因此, 已經替代了傳統(tǒng)的機器學習分類方法[12]. 其中, 卷積神經網絡(CNN)由于具有局部連接、 權值共享的特點已成為高光譜分類領域的主流方法[13]. 首先被用于HSI分類任務的深度學習方法是一維卷積(1DCNN)和二維卷積神經網絡(2DCNN)[14-15], 一維卷積將每個波段的像素點視為一個序列, 而二維卷積將每個波段的像素視為一個矩陣, 這類方法的分類結果均優(yōu)于機器學習方法, 但仍存在對圖像的空間及光譜信息利用不足的問題. 因此, Chen等[4]提出了三維卷積神經網絡(3DCNN)模型以同時提取空譜聯(lián)合特征, 相比二維卷積, 3DCNN可以同時在3個方向上進行卷積操作, 進而提取更多的特征信息, 該方法實現了對空譜信息的同步提取, 但該模型的計算負擔較大. 為解決上述問題并提取更豐富的特征, 研究者提出了一種混合光譜CNN(HybridSN)[5], 使圖像先經過三維卷積處理再經過二維卷積處理, 在獲取豐富特征的同時計算負擔比3DCNN方法?。?6].
為分析并利用數據之間的關聯(lián)性, 突出重要的特征并忽略不相關的噪聲信息, 人們提出了注意力機制. Mei等[17]使用基于空間注意力的卷積神經網絡進行HSI分類, 通過對像素周圍的區(qū)域進行空間注意力卷積進而提高了分類精度. Yang等[18]將二維卷積與三維卷積相結合, 增添了一個三維注意力模塊以獲取更豐富的特征. 為解決網絡層數增加導致的過擬合問題, Zhong等[19]將殘差結構引入3DCNN模型, 構建了光譜殘差模塊和空間殘差模塊, 取得了較滿意的分類結果; Wang等[20]提出了一種基于殘差和注意力機制的深度卷積神經網絡, 通過引入注意力機制和殘差連接提高了分類精度和魯棒性.
雖然目前基于CNN的分類方法應用廣泛, 但CNN中的卷積操作是通過平移卷積核實現的, 其工作方式導致其只能應用于規(guī)則數據的處理, 卷積核的大小又限制了其獲取長距離上下文特征的能力, 忽視了對高光譜圖像分類任務有幫助的關系特征, 很難對不規(guī)則數據進行處理. 為解決上述問題, 研究者們借鑒卷積網絡的思想設計了圖卷積網絡, 并將其應用在HSI分類任務中[21].
圖卷積網絡通過捕獲并聚合圖結構中各節(jié)點及其相鄰節(jié)點之間的關系獲取上下文信息, 圖結構的不規(guī)則性導致在圖結構上直接進行卷積非常困難. 基于空域中卷積的Fourier變換等于頻域中的Fourier變換的乘積[22], Kipf等[23]首先提出了頻域圖卷積網絡模型, 先將空域輸入信號和空域卷積核轉換到頻域, 在譜域中相乘后再通過Fourier逆變換轉換回空域. Velikovic等[24]提出了圖注意力網絡(graph attention network, GAT), GAT利用注意力機制對鄰域節(jié)點進行聚合操作, 可對不同節(jié)點之間的關系進行不同程度的加權, 從而提高了模型對關鍵節(jié)點的關注度, 并使模型能更好地捕捉節(jié)點之間的全局關系. Wang等[25]則在高光譜圖像的光譜維度上構建多尺度金字塔, 在每個尺度空間應用GAT方法提取特征, 最后實現分類任務. Sha等[26]提出了一種新的基于圖注意力網絡的分類框架以充分利用空譜信息.
針對基于CNN的分類方法無法有效獲取像素間的關系特征、 難以對不規(guī)則數據進行處理等問題, 本文構建一個基于超像素分割的圖注意力網絡SSGAT(superpixel segmentation-based graph attention networks), 并通過與其他主流方法進行對比實驗和消融實驗, 對提出的SSGAT方法進行評估, 實驗結果證明了本文算法性能優(yōu)異.
1 實驗方法
本文根據圖卷積網絡中的圖注意力模型, 設計一個基于超像素分割的圖注意力網絡SSGAT, 圖1為SSGAT網絡的總體結構. 首先, 針對HSI的高維特性問題, 用PCA降維方法對原始HSI進行降維處理, 以減少原始影像中的冗余信息, 并降低數據的維度. 數據維度過多會使模型的訓練和預測速度變慢, 同時也可能出現過擬合等問題; 其次, 使用SLIC(simple linear iterative clustering)超像素分割算法將影像分割為連續(xù)的像素塊, 并以每個像素塊作為節(jié)點構建圖結構, 以避免構圖過程中將每個像素視為圖節(jié)點所導致的巨大計算量; 再次, 將得到的圖結構輸入到兩層圖注意力網絡中進行特征提取, 為避免網絡訓練過擬合的風險, 在網絡中增添了殘差結構, 殘差結構通過跨層跳躍連接的方式, 克服了傳統(tǒng)深度神經網絡中梯度消失和網絡難以訓練的問題, 提高了網絡的表達能力和訓練效率; 最后, 得到影像的分類結果圖. 通過與其他主流方法進行對比實驗以及消融實驗, 對SSGAT方法進行評估, 證明了本文算法性能優(yōu)異.
1.1 超像素分割
超像素分割算法是一種將圖像分割成具有相似顏色、 紋理和形狀的連續(xù)區(qū)域的方法[27], 這些區(qū)域被稱為超像素. 超像素分割算法的作用是減少計算時間、 降低算法的復雜度, 廣泛應用于圖像處理等領域. 目前, 常見的超像素分割算法包括SLIC[28],QuickShift[29],MeanShift[30]等. 這些算法在分割速度、 分割精度和計算復雜度等方面存在一定的差異.
SLIC算法根據像素之間的距離和顏色差異將圖像像素分配到最近的聚類中心形成超像素. 對比其他分割方法, 該方法計算簡單、 效果優(yōu)良, 因此本文選用SLIC分割算法進行圖結構的構建. 算法的工作過程如下.
一般情況下, SLIC算法只有超像素數量K一個參數, 在給定K值后, 會在圖像上均勻生成K個種子點作為超像素的聚類中心, K的個數即超像素的個數. 假設將一張具有M個像素點的圖像分割為K個超像素, 則每個超像素內包含M/K個像素. 每個超像素塊的長和寬可定義為S=sqrt(M/K).
為避免種子點落在噪聲點或邊緣區(qū)域影響分割結果, 還需對種子點的位置進行調整, 對每個種子點3×3鄰域內的梯度值重新計算, 并將新的種子點設為該鄰域內梯度最小處.
通過迭代計算新的聚類中心, 遍歷每個超像素塊中心點周圍的2S×2S區(qū)域內的像素點, 然后尋找距離每個像素最近的聚類中心, 并將該像素劃分到其中, 即完成了一次迭代. 重新計算每個超像素塊的中心點并迭代, 一般迭代10次即可完成收斂. 距離度量可分為光譜距離和空間距離兩個指標:ds=(c1j-c1i)2+(c2j-c2i)2+…+(cnj-cni)2,(1)
dl=(xj-xi)2+(yj-yi)2,(2)其中高光譜數據可以用{c1i,c2i,…,cni,xi,yi}表示, ds表示像素i和像素j的光譜距離, {c1i,c2i,…,cni}表示像素i的n個波段內的不同特征, dl表示像素i和像素j的空間距離, (xi,yi)表示像素i的空間坐標. 對兩種距離做歸一化后可得:D′=ds/Ns2+dl/Nl2=ds/m2+dl/S2,(3)其中: 最大顏色距離Ns隨圖像的不同而不同, 通過一個參數m表示, 一般取一個固定常數10; Nl是類內最大空間距離, 定義為Nl=S; S為超像素的邊長.
SLIC算法因為計算簡單、 效果良好的特點被廣泛應用在各領域. 本文中超像素的劃分數量根據數據集的像素點總數的不同而不同, 因此規(guī)定超像素的劃分個數為K=(H×W)/β, 其中H和W分別為數據集的長和寬, β為一個控制超像素數量的分割系數.
1.2 GAT網絡的構建
2 實驗結果與分析
2.1 數據集及評價指標
為測試SSGAT網絡的性能, 采用Indian Pines(IP),Pavia University(PU)和Salinas(SA)3個應用廣泛的高光譜數據集對網絡進行測試與分析. 使用總體分類精度(overall accuracy, OA)、 平均分類精度(average accuracy, AA)和Kappa系數3個指標評估本文算法.
數據集IP是美國農業(yè)部應用紅外成像光譜儀對一片印度松樹進行成像獲取的, 圖像在去除20個干擾波段后剩余200個波段, 尺寸為145×145, 包含16種土地覆蓋類型, 共10 366個樣本, 包括玉米、 豆類、 雜草、 棉花等農作物, 以及道路、 建筑物、 陰影等非農作物類別, 每個像素點可被歸為16個類別之一. 其假彩色圖像及標記樣本如圖3所示.
數據集PU是使用光譜成像儀對一所大學成像獲取的, 在剔除12個干擾波段后剩余103個有效波段, 圖像尺寸為610×340, 包含9種土地覆蓋類型, 共42 776個樣本, 該數據集包括瀝青、 草地、 土地、 建筑物、 樹木等. 其假彩色圖像及標記樣本如圖4所示.
數據集SA是對美國的一個山谷成像獲取的, 在去除20個干擾波段后剩余204個波段, 圖像尺寸為512 ×217, 包含16種土地覆蓋類型, 共54 215個樣本. 其假彩色圖像及標記樣本如圖5所示.
表1~表3分別列出了測試過程中上述3個數據集的樣本劃分數目. 由于不同數據集的樣本總量并不相同, 為準確測試各算法對不同類別樣本的分類性能, 因此, 本文對各數據集訓練樣本的劃分比例也不同. 由于數據集IP包含的樣本總量較少且各類別之間的數量相差懸殊, 所以在該數據集中隨機選取每類樣本的15%作為訓練樣本, 其余樣本用于驗證及測試. 數據集PU及數據集SA包含的樣本總量較多且分布相對均勻, 因此這兩個數據集的訓練樣本數設為每類樣本的5%.
2.2 實驗參數設置
本文實驗基于Python3.8.12語言和Pytorch1.1.0學習框架實現. 用于訓練的硬件為i7-10750H CPU和NVIDIA GeForce RTX 2060s GPU. 實驗中使用學習率為0.000 1的Adam優(yōu)化器優(yōu)化本文模型, 迭代步數設為800. 實驗重復進行5次取平均值以減少誤差. SSGAT中每個數據集的超像素個數劃分為數據集樣本總數的1/150. 將第一層圖注意力的輸出維度設為64, 第二層的輸出維度為每個數據集的樣本類別數.
2.3 分類結果及分析
為驗證本文模型的性能, 選擇幾種有表示性的HSI分類方法與本文模型進行比較分析, 其中包括機器學習中的SVM[9]、 卷積神經網絡中的2DCNN[15]、 3DCNN[16]、 GCN方法[25]和GAT[26]方法. 上述方法均采用原文獻中使用的參數, 實驗結果重復5次取平均值.
表4~表6分別列出了不同方法在上述3個數據集上的分類準確率、 各方法的訓練及測試時間. 實驗結果表明, SSGAT在所有數據集中均取得了最優(yōu)的分類效果, 在3個數據集中總體分類精度OA分別達到了94.11%,95.22%,96.37%. 圖6~圖8分別為各方法在不同數據集上得到的地物分類圖.
由表4可見: 在數據集IP中, 由于SVM方法只關注了HSI的光譜信息, 且特征提取能力弱, 因此分類精度只有75.33%; 2DCNN方法與SVM方法相比無需手動設計特征提取方法, 可自動捕捉圖像的深層特征; 3DCNN方法能利用三維卷積核同時獲取HSI的空譜特征, 因此3DCNN獲得了比2DCNN更高的分類精度, 但其訓練時間與測試時間均高于2DCNN; 上述方法忽略了圖像的節(jié)點特征, 且沒有對重要信息進行特別關注; GCN與原始GAT方法得到的OA分別為82.22%和83.99%, 分類精度較差, 但SSGAT獲得了94.11%的總體分類精度, 證明了超像素分割及殘差結構的增加對網絡性能的提升有幫助; SSGAT在第二類及第十二類地物上的分類結果分別達到97.99%和96.38%, 這兩類地物的尺度均較大, 證明該網絡更適用于對尺度較大的地物進行分類. 該網絡的訓練時間雖不是最優(yōu), 但訓練時間相比GAT方法有所下降, 這得益于超像素分割技術的應用. 由圖6可見, SSGAT的地物分類圖的誤分類現象最少, 且相比其他算法噪聲最少.
由表5可見, 對比數據集IP上的分類結果, 各方法在數據集PU中的分類精度都有不同程度的提升, 這是因為該數據集包含的訓練樣本數更多, 使得各模型能更準確地對HSI進行分類. 其中SSGAT在3種精度評價指標下均取得了最好成績, OA為95.22%, AA為94.41%, Kappa系數為93.33%. 其OA相比于GAT方法, 精度提升了9.74%, 相比于GCN方法精度提升了10.75%. 由圖7可見, SSGAT的地物分類圖顯示效果最好, 誤分類最少, 與兩種卷積神經網絡方法相比更平滑.
由表6可見, SSGAT在3種精度評價指標下仍取得了最好結果, 整體分類精度為96.37%. 由圖8可見, SSGAT算法的誤分類最少. 上述實驗結果表明, SSGAT的分類能力優(yōu)異, 且在大尺度區(qū)域能獲得更好的分類結果.
2.4 超像素數量的影響
在構建圖結構前進行超像素分割處理可有效減少計算量并降低分類圖中的噪聲, 因此本文采用超像素分割技術, 通過分割系數控制超像素的數量和大小, 分割系數越大, 超像素的數量越少, 獲得的分割圖尺寸越大, 保留更大的物體和抑制更多的噪聲. 反之, 分割系數越小, 超像素數量越多, 獲得的分割圖尺寸越小, 保留更小的物體并包含更多的噪聲. 為分析超像素塊數量對分類結果的影響, 將分割系數分別設為50,100,150,200, 在每個數據集上測試SSGAT的分類精度, 繪制不同分割系數下的整體分類精度折線圖, 結果如圖9所示.
由圖9可見, SSGAT在數據集IP上的精度隨分割系數的增加而降低, 表明數據集IP中存在更多的小物體, 因此更小的系數可保存更多的細節(jié). 在數據集PU上的分類精度隨分割系數的增加呈上升趨勢, 這是由于與數據集IP中的樣本類別相比, 該數據集中類別尺度更大, 分割系數的增加對整體精度的影響很小, 但這種上升關系不會一直保持. 在地物類別尺度更大的數據集SA上, 分類精度隨著分割系數的增加先升高后降低, 當分割系數為150時達到峰值. 這是因為分割系數的進一步增大, 使得這些大尺度地物與周圍其他類別的像素進行了聚類, 影響了其自身的分類精度. 為防止分類圖過于平滑, 本文將分割系數設置為150.
2.5 消融實驗
為進一步對SSGAT網絡的性能進行分析, 對SSGAT網絡進行消融實驗, 以驗證該網絡的合理性. 首先, 為測試殘差結構對網絡性能的影響, 在數據集劃分及實驗條件不變的情況下, 在3個數據集上對不設置殘差結構的網絡結構進行測試, 記為實驗一; 其次, 為考察注意力網絡層數對網絡性能的影響, 將SSGAT中的層數設置為3層進行實驗, 記為實驗二. 實驗結果列于表7.
通過實驗一與SSGAT的對比可見, 增添了殘差結構的SSGAT在3個數據集上的分類精度均有不同程度的上升, 所以SSGAT中的殘差結構對整體網絡性能的提升有幫助. 通過實驗二與SSGAT的對比可見, 當網絡層數變?yōu)?層時, 其分類性能并沒有預期中的增加. 這是因為層數的進一步增加使網絡的參數及計算資源的需求增多, 因此本文將網絡層數設置為2.
綜上所述, 針對目前的分類方法無法有效獲取像素間關系特征的問題, 本文構建了一個基于超像素分割的圖注意力網絡, 利用圖結構對不規(guī)則的HSI進行處理, 以獲取其上下文信息和依賴關系. 在3個代表性的高光譜圖像數據集上對SSGAT及對比算法的分類精度進行測試, 對SSGAT進行對比實驗及消融實驗, 在3個數據集上分別獲得了94.11%,95.22%,96.37%的總體分類精度, 與其他算法相比性能優(yōu)異, 對大尺度區(qū)域的分類問題具有明顯優(yōu)勢. 但該方法也存在不足, 超像素分割將HSI中的像素進行了聚合并以相同的特征進行表示, 將每個超像素視為圖節(jié)點后信息, 只能在每個超像素之間傳播, 對超像素內的局部空譜信息提取不足.
參考文獻
[1]BIOUCAS-DIAS J M, PLAZA A, CAMPS-VALLS G, et al. Hyperspectral Remote Sensing Data Analysis and Future Challenges [J]. IEEE Geoscience and Remote Sensing Magazine, 2013, 1(2): 6-36.
[2]FAUVEL M, TARABALKA Y, BENEDIKTSSON J A, et al. Advances in Spectral-Spatial Classification of Hyperspectral Images [J]. Proceedings of the IEEE, 2013, 101(3): 652-675.
[3]MA Z T, JIANG Z G, ZHANG H P. Hyperspectral Image Classification Using Feature Fusion Hypergraph Convolution Neural Network [J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 60: 5517314-1-5517314-14.
[4]CHEN Y S, JIANG H L, LI C Y, et al. Deep Feature Extraction and Classification of Hyperspectral Images Based on Convolutional Neural Networks [J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(10): 6232-6251.
[5]L W J, WANG X F. Overview of Hyperspectral Image Classification [J]. Journal of Sensors, 2020(2): 1-13.
[6]AUDEBERT N, LE S B, LEFEVRE S. Deep Learning for Classification of Hyperspectral Data: A Comparative Review [J]. IEEE Geoscience and Remote Sensing Magazine, 2019, 7(2): 159-173.
[7]PRASAD S, BRUCE L M. Limitations of Principal Components Analysis for Hyperspectral Target Recognition [J]. IEEE Geoscience and Remote Sensing Letters,? 2008, 5(4): 625-629.
[8]VILLA A, BENEDIKTSSON J A, CHANUSSOT J, et al. Hyperspectral Image Classification with Independent Component Discriminant Analysis [J]. IEEE Transactions on Geoscience and Remote Sensing, 2011, 49(12): 4865-4876.
[9]MELGANI F, BRUZZONE L. Classification of Hyperspectral Remote Sensing Images with Support Vector Machines [J]. IEEE Transactions on Geoscience and Remote Sensing, 2004, 42(8): 1778-1790.
[10]GISLASON P O, BENEDIKTSSON J A, SVEINSSON J R. Random Forests for Land Cover Classification [J]. Pattern Recognition Letters, 2006, 27(4): 294-300.
[11]HUGHES G. On the Mean Accuracy of Statistical Pattern Recognizers [J]. IEEE Transactions on Information Theory, 1968, 14(1): 55-63.
[12]KRIZHEVSKY A, SUTSKEVER I, HINTON G E. Imagenet Classification with Deep Convolutional Neural Networks [J]. Communications of the ACM, 2017, 60(6): 84-90.
[13]CHEN Y S, LIN Z H, ZHAO X, et al. Deep Learning-Based Classification of Hyperspectral Data [J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2014, 7(6): 2094-2107.
[14]HU W, HUANG Y Y, WEI L, et al. Deep Convolutional Neural Networks for Hyperspectral Image Classification [J]. Journal of Sensors, Hindawi Limited, 2015, 2015: 1-12.
[15]MAKANTASIS K, KARANTZALOS K, DOULAMIS A, et al. Deep Supervised Learning for Hyperspectral Data Classification through Convolutional Neural Networks [C]//2015 IEEE International Geoscience and Remote Sensing Symposium (IGARSS). Pisataway, NJ: IEEE, 2015: 4959-4962.
[16]盧佳, 保文星. 基于獨立空譜殘差融合的聯(lián)合稀疏表示高光譜圖像分類 [J]. 計算機工程, 2019, 45(1): 246-252. (LU J, BAO W X. Hyperspectral Image Classification Based on Joint Sparse Representation of Independent Spatial-Spectral Residual Fusion [J]. Computer Engineering, 2019, 45(1): 246-252.)
[17]MEI X G, PAN E T, MA Y, et al. Spectral-Spatial Attention Networks for Hyperspectral Image Classification [J]. Remote Sensing, 2019, 11(8): 963-1-963-18.
[18]YANG X E, ZHANG X F, YE Y M, et al. Synergistic 2D/3D Convolutional Neural Network for Hyperspectral Image Classification [J]. Remote Sensing, MDPI, 2020, 12(12): 2033-1-2033-19.
[19]ZHONG Z L, LI J, LUO Z M, et al. Spectral-Spatial Residual Network for Hyperspectral Image Classification: A 3D Deep Learning Framework [J]. IEEE Transactions on Geoscience and Remote Sensing, 2017, 56(2): 847-858.
[20]WANG F, JIANG M, QIAN C, et al. Residual Attention Network for Image Classification [C]//2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2017: 6450-6458.
[21]WU Z H, PAN S K, CHEN F W, et al. A Comprehensive Survey on Graph Neural Networks [J]. IEEE Transactions on Neural Networks and Learning Systems, 2020, 32(1): 4-24.
[22]BRUNA J, ZAREMBA W, SZLAM A, et al. Spectral Networks and Locally Connected Networks on Graphs [EB/OL]. (2013-12-22)[2023-01-01]. https://arxiv.org/abs/1312.6203.
[23]KIPF T N, WELLING M. Semi-supervised Classification with Graph Convolutional Networks [EB/OL]. (2016-09-09)[2023-02-10]. https://arxiv.org/abs/1609.02907.
[24]VELIKOVIC P, CUCURULL G, CASANOVA A, et al. Graph Attention Networks [EB/OL]. (2017-10-30)[2023-02-15]. https://arxiv.org/abs/1710.10903.
[25]WANG T, WANG G, TAN K E, et al. Spectral Pyramid Graph Attention Network for Hyperspectral Image Classification [EB/OL]. (2020-01-20)[2023-03-01]. https://arxiv.org/abs/2001.07108.
[26]SHA A S, WANG B, WU X F, et al. Semisupervised Classification for Hyperspectral Images Using Graph Attention Networks [J]. IEEE Geoscience and Remote Sensing Letters, 2020, 18(1): 157-161.
[27]WANG M R, LIU X B, GAO Y X, et al. Superpixel Segmentation: A Benchmark [J]. Signal Processing: Image Communication, 2017, 56: 28-39.
[28]YING X. An Overview of Overfitting and Its Solutions [J]. Journal of Physics: Conference Series, 2019, 1168: 022022-1-022022-7.
[29]ZHANG S X, MA Z H, ZHANG G, et al. Semantic Image Segmentation with Deep Convolutional Neural Networks and Quick Shift [J]. Symmetry, 2020, 12(3): 427-1-427-11.
[30]COMANICIU D, MEER P. Mean Shift Analysis and Applications [C]//Proceedings of the Seventh IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 1999: 1197-1203.
(責任編輯: 韓 嘯)
收稿日期: 2023-05-04.
第一作者簡介: 高路堯(1998—), 男, 漢族, 碩士研究生, 從事高光譜成像及圖像處理的研究, E-mail: gaoluyao20@mails.ucas.ac.cn.
通信作者簡介: 胡長虹(1983—), 男, 漢族, 博士, 副研究員, 從事高光譜成像技術的研究, E-mail: changhonghu@rocketmail.com.
基金項目: 吉林省與中國科學院科技合作高技術產業(yè)化項目(批準號: 2020SYHZ0028)和2021年吉林省預算內基本建設基金(批準號: 2021C045-3).