国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)U-Net的高光譜農(nóng)林植被分類方法

2022-04-26 03:24王克奇彭熙雯張怡卓羅澤蔣大鵬
森林工程 2022年1期

王克奇 彭熙雯 張怡卓 羅澤 蔣大鵬

摘 要:針對(duì)高光譜圖像中的“同譜異物”和“同物異譜”現(xiàn)象導(dǎo)致傳統(tǒng)機(jī)器學(xué)習(xí)方法難以精確區(qū)分,以及深度學(xué)習(xí)模型處理高維遙感數(shù)據(jù)耗時(shí)較長(zhǎng)的問(wèn)題,本文以河北省雄安新區(qū)雄縣雄州鎮(zhèn)馬蹄灣村19種土地覆被類型(農(nóng)林植被為主)為研究對(duì)象,提出一種基于改進(jìn)U-Net的高光譜農(nóng)林植被分類方法。該方法以U-Net為基礎(chǔ)框架,首先利用主成分分析(Principal Component Analysis, PCA)提取主要光譜波段,降低光譜冗余度;然后提出特征提取模塊,該模塊使用深度可分離卷積替代U-Net中的傳統(tǒng)卷積,提取高光譜圖像多尺度特征,降低網(wǎng)絡(luò)復(fù)雜度,并采用非線性更好的h-swish(hard-swish)激活函數(shù)提升網(wǎng)絡(luò)的泛化性能;最后在每個(gè)特征提取模塊中引入殘差連接提取深層次語(yǔ)義信息。結(jié)果表明,改進(jìn)的U-Net對(duì)19種覆被分類的整體精度為96.68%,與Mobile-UNet、U-Net、Res-UNet相比,精度分別提高了4.47%、2.92%、0.45%,訓(xùn)練時(shí)間較分類精度相近的Res-UNet減少了23.5%。由此可知,殘差連接提升了網(wǎng)絡(luò)分類精度,使模型在描述植被邊緣和細(xì)節(jié)方面表現(xiàn)良好;深度可分離卷積使模型輕量化,減小訓(xùn)練時(shí)間;改進(jìn)的U-Net模型能夠準(zhǔn)確、快速地對(duì)研究區(qū)的農(nóng)林植被進(jìn)行區(qū)分。

關(guān)鍵詞:高光譜;植被區(qū)分;U-Net;深度可分離卷積;殘差連接;模型輕量化

中圖分類號(hào):S771.5??? 文獻(xiàn)標(biāo)識(shí)碼:A?? 文章編號(hào):1006-8023(2022)01-0058-09

A Hyperspectral Classification Method for Agroforestry

Vegetation Based on Improved U-Net

WANG Keqi, PENG Xiwen, ZHANG Yizhuo*, LUO Ze, JIANG Dapeng

(College of Mechanical and Electrical Engineering, Northeast Forestry University, Harbin 150040, China)

Abstract:In view of the difficulty in accurately distinguishing between “same spectrum foreign objects” and “same object foreign spectrum” in hyperspectral images caused by traditional machine learning methods, and the time-consuming processing of high-dimensional remote sensing data by deep learning models, 19 land cover types (mainly agroforestry vegetation) in Matiwan village, Xiong’an New Area, Hebei Province, were taken as the research object, and a hyperspectral classification method for agroforestry vegetation based on improved U-Net was proposed. This method was based on U-Net framework. Firstly, Principal Component Analysis (PCA) was used to extract the main spectral bands to reduce spectral redundancy. Then, the feature extraction module was proposed, which used the depthwise separable convolution to replace the traditional convolution in U-Net to extract multi-scale features of hyperspectral images to reduce the complexity of the network, and uses the better nonlinear h-swish (hard-swish) activation function to improve the generalization performance of the network. Finally, residual connection was introduced into each feature extraction module to extract deep semantic information and improve the classification accuracy. The results showed that the overall accuracy of the improved U-Net for 19 cover classification was 96.68%, which was 4.47%, 2.92% and 0.45% higher than that of Mobile-UNet, U-Net and Res-UNet, respectively, and the training time was 23.5% less than that of Res-UNet with similar classification accuracy. Therefore, residual connection improved the accuracy of network classification and made the model perform well in describing vegetation edges and details. Depthwise separable convolution made the model lightweight and reduced the training time. The improved U-Net model can accurately and rapidly distinguish agroforestry vegetation in the study area.

Keywords:Hyperspectral; vegetation differentiation; U-Net; depthwise separable convolution; residual connection; model lightweight

0 引言

隨著我國(guó)人口的快速增長(zhǎng),農(nóng)林牧業(yè)爭(zhēng)地的矛盾日益突出。農(nóng)林植被分類為農(nóng)林資源的合理配置提供重要依據(jù),對(duì)提高土地利用率,實(shí)現(xiàn)精準(zhǔn)農(nóng)業(yè)高效估產(chǎn)有重要意義[1]。傳統(tǒng)的土地植被覆蓋信息獲取主要采用人工調(diào)查的方式,這種方法雖然制圖精度高,但十分耗費(fèi)人力、物力,且不適用于對(duì)大面積植被進(jìn)行識(shí)別[2]。

高光譜遙感技術(shù)是近年來(lái)迅速發(fā)展起來(lái)的一種對(duì)地觀測(cè)的技術(shù),其影像具有“圖譜合一"、波段數(shù)目多和信息量大等顯著優(yōu)勢(shì)[3]。國(guó)內(nèi)外學(xué)者提出了多種高光譜植被分類方法,其中光譜指數(shù)法利用植被原始光譜反射率的波段組合計(jì)算分析植被類別,分類效果明顯,張波等[4]利用光譜平均值的一階導(dǎo)數(shù)和倒數(shù)取對(duì)數(shù)計(jì)算歸一化植被指數(shù)(Normalized Difference Vegetation Index, NDVI),將準(zhǔn)噶爾盆地4種植被進(jìn)行區(qū)分。基于植被指數(shù)的分類方法雖然有效,但精度普遍不高,且受環(huán)境影響大,對(duì)于景觀破碎、地形復(fù)雜地區(qū)有很大局限性[5];機(jī)器學(xué)習(xí)方法在高光譜植被分類中取得了很大的進(jìn)展,張文博等[6]對(duì)干旱區(qū)的遙感影像進(jìn)行特征選擇,并分別建立決策樹、支持向量機(jī)、隨機(jī)森林分類模型,結(jié)果表明隨機(jī)森林分類模型精度最高。但是此類方法需要人工提取特征,影響分類精度。此外,高光譜圖像存在“同譜異物”和“同物異譜”現(xiàn)象,表現(xiàn)為光譜類間可分離性小、類內(nèi)差異性大,機(jī)器學(xué)習(xí)方法無(wú)法利用高光譜的空間特征,容易引起誤分類問(wèn)題[7]。

深度學(xué)習(xí)方法通過(guò)自動(dòng)學(xué)習(xí)數(shù)據(jù)中的空間關(guān)系獲取高級(jí)特征信息,簡(jiǎn)化了復(fù)雜的人工設(shè)計(jì)特征過(guò)程,成為高光譜圖像植被分類的研究熱點(diǎn)[8]。U-Net是基于編碼器-解碼器結(jié)構(gòu)的全卷積網(wǎng)絡(luò),具有簡(jiǎn)潔的分割邏輯和出色的分割效率,因此在遙感圖像分割領(lǐng)域被廣泛應(yīng)用[9]。蘇健民等[10]利用U-Net模型對(duì)“CCF衛(wèi)星影像的AI分類與識(shí)別競(jìng)賽”數(shù)據(jù)集中的植被、建筑和水域等多種土地類型進(jìn)行分類;Bragagnolo等[11]基于U-Net對(duì)亞馬遜的森林植被與非植被區(qū)域分類,對(duì)森林覆蓋變化做出評(píng)估。然而當(dāng)植被類別較多時(shí),U-Net無(wú)法充分提取高光譜的空間特征,導(dǎo)致其輸出邊緣粗糙。殘差連接通過(guò)恒等映射連接其他卷積層,在提取更深層特征的同時(shí),解決了層數(shù)加深導(dǎo)致的梯度消失問(wèn)題,提高模型分類的準(zhǔn)確性。Zhu等[12]提出了基于融合殘差網(wǎng)絡(luò)的高光譜圖像土地覆被分類方法,利用殘差單元學(xué)習(xí)更具判別力的高級(jí)特征。然而,深度學(xué)習(xí)方法在處理高維遙感數(shù)據(jù)時(shí),往往存在模型計(jì)算量大、耗時(shí)較長(zhǎng)的問(wèn)題。因此,對(duì)于遙感圖像分類模型輕型化的研究,需要進(jìn)一步探索。

本文針對(duì)U-Net無(wú)法充分利用高光譜圖像的深層抽象信息,以及傳統(tǒng)深度學(xué)習(xí)語(yǔ)義分割算法在處理遙感圖像的過(guò)程耗時(shí)較長(zhǎng)的問(wèn)題,提出基于改進(jìn)U-Net的高光譜農(nóng)林植被分類方法。該模型中提出特征提取模塊替代U-Net中的傳統(tǒng)卷積層,在特征提取模塊中采用計(jì)算量更少的深度可分離卷積進(jìn)行特征提取,采用h-swish(hard-swish)非線性激活函數(shù),并引入殘差連接提取深層次語(yǔ)義信息。以河北省雄安新區(qū)雄縣雄州鎮(zhèn)馬蹄灣村19種土地覆被類型(農(nóng)林植被為主)為研究對(duì)象,與其他3種分類模型進(jìn)行比較,為研究區(qū)內(nèi)農(nóng)林資源規(guī)劃管理提供有力支撐。

1 材料與方法

1.1 材料

1.1.1 研究區(qū)域概況

研究區(qū)位于河北省雄安新區(qū)雄縣雄州鎮(zhèn)馬蹄灣村,地理坐標(biāo)為38°9′ E,北緯116°07′ N,是繼深圳經(jīng)濟(jì)特區(qū)和上海浦東新區(qū)之后又一具有劃時(shí)代意義的新區(qū)。雄安新區(qū)地處冀中腹地,北距北京108 km,東距天津100 km,西距保定70 km,東西長(zhǎng)26 km,南北寬25.5 km。全境西北地勢(shì)較高,東南略低,海拔為7~19 m,為緩傾平原,土層深厚,地形開闊,植被覆蓋率很低[13]。

該高光譜影像由中國(guó)科學(xué)院上海技術(shù)物理研究所研制的高分專項(xiàng)航空系統(tǒng)全譜段多模態(tài)成像光譜儀采集,參照同步測(cè)量的地面和大氣數(shù)據(jù),經(jīng)過(guò)幾何、輻射和大氣校正,得到的關(guān)于各地表覆蓋類型反射率的偽彩色影像,如圖1所示。其光譜范圍為400~1 000 nm,波段256個(gè),空間分辨率0.5 m[13]。

1.1.2 分類系統(tǒng)的構(gòu)建

依據(jù)《土地利用現(xiàn)狀分類》(GB/T 21010—2017)和《森林資源規(guī)劃設(shè)計(jì)調(diào)查主要技術(shù)規(guī)定》,并結(jié)合實(shí)際土地覆被情況,建立研究區(qū)覆被分類系統(tǒng)。利用分類系統(tǒng)在影像上選取樣本,每個(gè)像素類別代表其所在位置屬于的土地覆被類型,各覆被類型及其包含樣本數(shù)見表1。

1.1.3 數(shù)據(jù)分析

在高光譜圖像中,同類別的地物在周圍的環(huán)境如光照、密度以及成像時(shí)間等多種因素作用下,呈現(xiàn)出差異較大的光譜曲線,稱為“同物異譜”現(xiàn)象;同時(shí),由于高光譜圖像包含的地物種類多樣,背景信息復(fù)雜,不同的地物在高分辨率下可能呈現(xiàn)出極為相似的光譜曲線,這種現(xiàn)象為 “同譜異物”現(xiàn)象[14]。這2種特點(diǎn)可能導(dǎo)致模型的誤分類問(wèn)題,對(duì)高光譜圖像的分類任務(wù)造成了很大的挑戰(zhàn)。

使用ENVI 5.3軟件對(duì)馬蹄灣村高光譜圖像進(jìn)行光譜提取,如圖2所示。圖2(a)為在柳樹樣本中隨機(jī)選取8個(gè)像素點(diǎn)獲得的光譜曲線,圖2(b)為10種典型植被經(jīng)曲線平滑處理的平均光譜曲線,橫坐標(biāo)為波長(zhǎng),縱坐標(biāo)為反射率。由圖2(a)可以看出,同種植被類別的光譜曲線仍存在差異;由圖2(b)可以看出,不同植被類型如榆樹和國(guó)槐、玉米和復(fù)葉槭的光譜信息相似。以上馬蹄灣村高光譜圖像中存在的“同物異譜”與“同譜異物”現(xiàn)象對(duì)模型的泛化性能提出了極高的要求。

1.2 研究方法

1.2.1? 深度可分離卷積

深度可分離卷積是可分解的卷積,分為深度卷積(Depthwise convolution)和逐點(diǎn)卷積(Pointwise convolution)2部分, 具有輕量級(jí)和低參數(shù)量的特點(diǎn)[15]。

深度卷積由與輸入數(shù)據(jù)的通道數(shù)相同的卷積核組成,在與輸入通道卷積后,生成的輸出特征保留其原始深度與尺寸。圖3為尺寸為[H×W×N]的輸入圖像的深度卷積運(yùn)算,其中,H為高度,W為寬度,N為通道數(shù)。

逐點(diǎn)卷積用于將深度卷積輸出的特征通道混合,圖4為對(duì)尺寸為[H×W×N]的輸入特征的逐點(diǎn)卷積運(yùn)算,逐點(diǎn)卷積核大小為[1×1×N],最終得到[H×W×1]的輸出特征。

深度可分離卷積模塊的計(jì)算如公式(1)—公式(3)所示。

Md=i×j×k 。 (1)

Mp=1×1×p×k 。? (2)

M=Md+Mp 。 (3)

R=i×j×1×k+1×1×p×ki×j×p×k=1p+1i×j? 。(4)

式中:Md、Mp和M分別為逐通道卷積參數(shù)量、逐點(diǎn)卷積參數(shù)量和深度可分離卷積總參數(shù)量;i、j、k和p分別為卷積核的長(zhǎng)、寬、數(shù)量和通道數(shù);R為深度可分離卷積與普通卷積參數(shù)量比值[16]。

本文采用卷積核的長(zhǎng)和寬均為3,高光譜降維后的通道數(shù)為6,經(jīng)公式(4)計(jì)算可得R約為0.278,通過(guò)該比值可以看出深度可分離卷積的參數(shù)量遠(yuǎn)少于傳統(tǒng)卷積參數(shù)量,進(jìn)而可以降低模型復(fù)雜度。

1.2.2 殘差單元

殘差網(wǎng)絡(luò)通過(guò)在卷積層的輸入和輸出之間引入直接連接的shortcut回路學(xué)習(xí)殘差函數(shù),確保每一層具有相同的映射,圖5為殘差單元示意圖,將圖5中的殘差學(xué)習(xí)定義為:

Xl+1=fXl+gXl 。(5)

式中:Xl和Xl+1分別為殘差單元的輸入和輸出;g·為殘差函數(shù),f·為ReLU激活函數(shù)。

根據(jù)公式(5),從第k層到第l層的特征學(xué)習(xí)表示為

Xl=Xk+∑l-1i=kgXi。???? (6)

根據(jù)導(dǎo)數(shù)鏈?zhǔn)椒▌t,損失函數(shù)的梯度表示為:

εxk=εxlxlxk=εxl1+xk∑l-1i=KgXi=εxl+εxlxk∑l-1i=kgXi 。? (7)

由以上公式可知,①網(wǎng)絡(luò)在訓(xùn)練過(guò)程中不會(huì)出現(xiàn)梯度消失的問(wèn)題,因?yàn)閤k∑l-1i=kgXi不能始終為-1;②εxl表示從深層l到淺層k的反向傳播過(guò)程。對(duì)殘差單元的正向和反向傳播過(guò)程的分析可知,shortcut可以使信息平滑的在上下層之間傳遞,因此可以更好地訓(xùn)練深度模型[17-19]。

1.2.3 改進(jìn)的U-Net模型

U-Net[20]由全卷積神經(jīng)網(wǎng)絡(luò)改進(jìn)而來(lái),是目前比較流行的圖像分割模型。網(wǎng)絡(luò)模型采用編碼器-解碼器結(jié)構(gòu),編碼部分對(duì)圖像特征提取,解碼部分對(duì)圖像部分細(xì)節(jié)還原,并通過(guò)1×1卷積輸出期望的分類結(jié)果[21]。

鑒于深度可分離卷積與殘差單元的優(yōu)勢(shì),本文提出了特征提取模塊,結(jié)構(gòu)如圖6所示。該模塊分別在3×3的深度卷積(Depthwise convolution)和1×1的逐點(diǎn)卷積(Pointwise convolution)后,進(jìn)行批處理歸一化(BatchNorm)操作,并將輸入和輸出直接相加進(jìn)行殘差函數(shù)的學(xué)習(xí),形成殘差連接。采用h-swish激活函數(shù)(公式中用hswish表示),該激活函數(shù)非線性更強(qiáng),彌補(bǔ)了傳統(tǒng)的線性整流函數(shù)(Rectified Linear Unit, ReLU,公式中用ReLU表示)及其衍生激活函數(shù)對(duì)負(fù)值取0會(huì)丟掉部分特征信息的缺陷,提升網(wǎng)絡(luò)的泛化性能[22]。

hswishx=x·ReLU6x+36? (8)

改進(jìn)的U-Net網(wǎng)絡(luò),結(jié)構(gòu)如圖7所示。

圖7改進(jìn)的U-Net模型由編碼部分、解碼部分和跳躍連接組成。其中,編碼部分和解碼部分均包含5層,每層添加2個(gè)特征提取模塊,對(duì)稱的解碼和編碼部分形成一個(gè)U形結(jié)構(gòu)。編碼部分通過(guò)特征提取模塊進(jìn)行特征提取,并在結(jié)構(gòu)上重復(fù)采用2×2的最大池化進(jìn)行下采樣,從上下文中提取圖像特征;解碼部分同樣采用提出的模塊替代U-Net中的卷積層,為了在融合中確保相同的分辨率,在每個(gè)圖層前對(duì)基礎(chǔ)特征圖進(jìn)行2×2上采樣還原圖像大小,最后一層通過(guò)1×1的卷積核對(duì)每一個(gè)像素進(jìn)行分類;跳躍連接部分將從編碼和解碼部分提取的特征進(jìn)行尺度融合,以保證淺層的細(xì)節(jié)信息與深層的背景語(yǔ)義信息更好地結(jié)合。

網(wǎng)絡(luò)在訓(xùn)練過(guò)程中將每個(gè)像素的分類視為二分類問(wèn)題,因此使用二元交叉熵?fù)p失函數(shù):

Jω,b=-1m∑mi=1yilogy^i+1-yilog1-y^i。

(9)

式中:m為樣本量;yi為樣本i的標(biāo)簽;y^i為樣本i預(yù)測(cè)值;ω為權(quán)重;b為偏置。

1.2.4 評(píng)價(jià)指標(biāo)

采用準(zhǔn)確率(Ac)、召回率(Recall)和相似系數(shù)(F1作為精度評(píng)價(jià)指標(biāo)[21]。

Ac=TP+TNTP+TN+FP+FN×100%。? (10)

Recall=TPTP+FN×100% 。 (11)

F1=2×Te∩PeTe∪Pe×100%

=2×TPFP+2TP+FN×100%。(12)

式中:TP為真正例;TN為真反例;FP為假正例;FN為假反例;Te為像素e的實(shí)際類別;Pe為像素e的預(yù)測(cè)類別;∩為真實(shí)類別與預(yù)測(cè)類別相同的情況,即TP,∪為所有情況的總概率。

采用“每秒所執(zhí)行的浮點(diǎn)運(yùn)算次數(shù)” (floating-point operations per second,F(xiàn)LOPs)和參數(shù)(Parameter)作為模型復(fù)雜度的評(píng)價(jià)指標(biāo),用于衡量模型的計(jì)算復(fù)雜度(公式中用FLOPs表示),決定模型的訓(xùn)練/預(yù)測(cè)時(shí)間,Parameter表征參數(shù)數(shù)量(公式中用Parameter),決定模型的體積大小。

FLOPs=o∑Dl=1M2l·K2l·Cl-1·Cl(13)

Parameter=o∑Dl=1K2l·Cl-1·Cl+∑Dl=1M2·Cl (14)

式中:o表示FLOPs的數(shù)值漸進(jìn)地不大于括號(hào)中等式的值;D為卷積層數(shù);Ml為第l層輸出特征圖的邊長(zhǎng);Kl為第l層卷積核的邊長(zhǎng);Cl為第l層的卷積核個(gè)數(shù);Cl-1為第l-1層輸出通道數(shù)。

2 結(jié)果與分析

2.1 實(shí)驗(yàn)參數(shù)

實(shí)驗(yàn)所用計(jì)算機(jī)配置為NVIDIA Quadro RTX 5000顯卡,Intel(R) CoreTM i9-1085H處理器;在Windows操作系統(tǒng)下基于PyCharm2019.2.3平臺(tái),使用python3.7編程語(yǔ)言,通過(guò)PyTorch框架運(yùn)行實(shí)驗(yàn)。實(shí)驗(yàn)時(shí),將主成分分析(Principal Component Analysis,PCA)降維后的高光譜圖像按512×512的大小隨機(jī)剪裁,并依據(jù)4∶1的比例分成訓(xùn)練集和測(cè)試集。設(shè)置批次訓(xùn)練的樣本集為4,最大訓(xùn)練迭代次數(shù)(epoch)為600代,網(wǎng)絡(luò)初始學(xué)習(xí)率為0.000 1;在迭代次數(shù)等于100后,學(xué)習(xí)率變?yōu)槭f(wàn)分之一,使網(wǎng)絡(luò)尋找局部最優(yōu)解;初始權(quán)重為ImageNet的預(yù)訓(xùn)練權(quán)重。

2.2 對(duì)比驗(yàn)證與分析

為驗(yàn)證改進(jìn)模型的分割性能,本文選取U-Net和以ResNet34、 MobileNetV1替換U-Net的編碼器與解碼器特征提取部分的Res-UNet與Mobile-UNet模型進(jìn)行對(duì)比實(shí)驗(yàn)。

圖8為訓(xùn)練過(guò)程中準(zhǔn)確率與損失函數(shù)隨迭代次數(shù)變化曲線,表2為各模型測(cè)試集精度的評(píng)價(jià)指標(biāo)。由圖8(a)可以看出,本文提出的模型訓(xùn)練(Our-Net)精度最高,Res-UNet與其準(zhǔn)確率近似,其次是U-Net,準(zhǔn)確率最低的是Mobile-UNet;此外,相較于其他3個(gè)模型,改進(jìn)的U-Net在訓(xùn)練100代左右時(shí)趨于穩(wěn)定,最快達(dá)到收斂。由圖8(b)可以看出,改進(jìn)模型的損失下降最快。以上結(jié)果表明,深度可分離卷積能夠大幅提高模型計(jì)算效率,但在一定程度上降低了網(wǎng)絡(luò)分類精度;殘差結(jié)構(gòu)使模型學(xué)習(xí)到更深層次的特征,進(jìn)而提升網(wǎng)絡(luò)分割能力,彌補(bǔ)了深度可分離卷積對(duì)特征提取能力不足的缺陷。

由圖9和表3可知,改進(jìn)U-Net的Parameter分別是U-Net和Res-UNet的0.50、0.27倍; FLOPs分別是U-Net、Res-UNet和Mobile-UNet的0.63、0.42、1.09倍;改進(jìn)的U-Net與Mobile-UNet的Parameter相同,F(xiàn)LOPs相近,因?yàn)闅埐顔卧膕hortcut連接在網(wǎng)絡(luò)訓(xùn)練時(shí)沒(méi)有引入額外的參數(shù),不會(huì)給網(wǎng)絡(luò)增加額外計(jì)算量,在不增加額外訓(xùn)練時(shí)間的情況下更易于優(yōu)化參數(shù),但會(huì)增加模型計(jì)算復(fù)雜度;改進(jìn)的U-Net與Mobile-UNet訓(xùn)練和測(cè)試時(shí)間相近,均少于U-Net和Res-UNet??梢娤啾扔赨-Net和Res-UNet使用的傳統(tǒng)卷積,深度可分離卷積的分步卷積過(guò)程能夠在一定程度上減少網(wǎng)絡(luò)參數(shù)量以及計(jì)算復(fù)雜度,節(jié)約計(jì)算成本,使模型更加輕量化。

植被之間光譜相似度較高,從而存在錯(cuò)分、漏分的情況,對(duì)分類精度產(chǎn)生了一定的影響。此外,由于各覆被類別像元個(gè)數(shù)分布不平衡,樣本量較少的幾類地物如大豆、菜地和刺槐分類精度不高。因此,將數(shù)據(jù)集預(yù)處理以增加光譜間差異性,并對(duì)小樣本類別進(jìn)行數(shù)據(jù)擴(kuò)增以提高整體分類精度將是今后研究的重點(diǎn)。

為觀察分類可視化效果,隨機(jī)選取測(cè)試集中的4張圖像進(jìn)行顯示,如圖10所示。由圖10可以看出,本文提出的方法分類效果最優(yōu),不僅對(duì)小樣本植被分類的準(zhǔn)確率更接近真實(shí)值,而且可以更好地描述不同植被區(qū)域的邊緣和細(xì)節(jié),這是因?yàn)闅埐钸B接增強(qiáng)了特征的傳播能力,提取更多的地物細(xì)節(jié)信息,減少信息丟失[24]。以上結(jié)果表明,改進(jìn)的U-Net模型在分類精度和時(shí)間消耗上均有不錯(cuò)的表現(xiàn),對(duì)植被的分類結(jié)果較其他3種方法更佳。

3 結(jié)論

本文以河北省雄安新區(qū)雄縣雄州鎮(zhèn)馬蹄灣村高光譜影像為研究對(duì)象,將深度可分離卷積和殘差連接結(jié)合作為U-Net的改進(jìn)策略,對(duì)19種土地覆被類別(農(nóng)林植被為主)進(jìn)行分類。主要結(jié)論如下。

(1) 相比于傳統(tǒng)高光譜圖像分類任務(wù),改進(jìn)的U-Net引入的殘差連接能夠更好地捕捉高光譜圖像上下文語(yǔ)義信息,模型整體分類精度較U-Net、Mobile-UNet、Res-UNet分別提高了4.47%、2.92%、0.45%。

(2) 在處理遙感數(shù)據(jù)時(shí),使用深度可分離卷積可以有效降低模型復(fù)雜度,計(jì)算復(fù)雜度(FLOPs)分別較Res-UNet、U-Net減少了58.5%、37.2%。

(3) 通過(guò)對(duì)實(shí)驗(yàn)結(jié)果的定量及定性分析可知,改進(jìn)的U-Net較好地解決了“同譜異物”和“同物異譜”現(xiàn)象引起的誤分類問(wèn)題,可以在提升分類精度的同時(shí),有效提高分類效率,為研究區(qū)內(nèi)農(nóng)林資源管理規(guī)劃提供有力支撐。

【參 考 文 獻(xiàn)】

[1]虞佳維,程志慶,張勁松,等.高光譜信息的農(nóng)林植被種類區(qū)分[J].光譜學(xué)與光譜分析,2018,38(12):3890-3896.

YU J W, CHENG Z Q, ZHANG J S, et al. An approach to distinguishing between species of trees and crops based on hyperspectral information[J]. Spectroscopy and Spectral Analysis, 2018, 38(12): 3890-3896.

[2]ZHAO F C, WU X M, WANG S. Object-oriented vegetation classification method based on UAV and satellite image fusion[J]. Procedia Computer Science, 2020, 174: 609-615.

[3]FANG B, LI Y, ZHANG H K, et al. Collaborative learning of lightweight convolutional neural network and deep clustering for hyperspectral image semi-supervised classification with limited training samples[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2020, 161: 164-178.

[4]張波,牛婷,房世峰,等.荒漠-綠洲交錯(cuò)地帶典型植被光譜特征研究[J].光譜學(xué)與光譜分析,2016,36(4):1104-1108.

ZHANG B, NIU T, FANG S F, et al. Research on the spectral characteristic of typical vegetation in desert-oasis crisscross zone[J]. Spectroscopy and Spectral Analysis, 2016, 36(4): 1104-1108.

[5]楊超,鄔國(guó)鋒,李清泉,等.植被遙感分類方法研究進(jìn)展[J].地理與地理信息科學(xué),2018,34(4):24-32.

YANG C, WU G F, LI Q Q, et al. Research progress on remote sensing classification of vegetation[J]. Geography and Geo-Information Science, 2018, 34(4): 24-32.

[6]張文博,孔金玲,楊園園,等.面向?qū)ο蟮暮祬^(qū)植被遙感精細(xì)分類研究[J].測(cè)繪科學(xué),2021,46(1):136-140,183.

ZHANG W B, KONG J L, YANG Y Y, et al. Fine vegetation classification of remote sensing in arid areas based on object-oriented method[J]. Science of Surveying and Mapping, 2021, 46(1): 136-140, 183.

[7]魏立飛,余銘,鐘燕飛,等.空-譜融合的條件隨機(jī)場(chǎng)高光譜影像分類方法[J].測(cè)繪學(xué)報(bào),2020,49(3):343-354.

WEI L F, YU M, ZHONG Y F, et al. Hyperspectral image classification method based on space-spectral fusion conditional random field[J]. Acta Geodaetica et Cartographica Sinica, 2020, 49(3): 343-354.

[8]張怡卓,徐苗苗,王小虎,等.殘差網(wǎng)絡(luò)分層融合的高光譜地物分類[J].光譜學(xué)與光譜分析,2019,39(11):3501-3507.

ZHANG Y Z, XU M M, WANG X H, et al. Hyperspectral image classification based on hierarchical fusion of residual networks[J]. Spectroscopy and Spectral Analysis, 2019, 39(11): 3501-3507.

[9]LU Y, QIN X J, FAN H Y, et al. WBC-Net: a white blood cell segmentation network based on UNet++ and ResNet[J]. Applied Soft Computing, 2021, 101: 107006.

[10]蘇健民,楊嵐心,景維鵬.基于U-Net的高分辨率遙感圖像語(yǔ)義分割方法[J].計(jì)算機(jī)工程與應(yīng)用,2019,55(7):207-213.

SU J M, YANG L X, JING W P. U-net based semantic segmentation method for high resolution remote sensing image[J]. Computer Engineering and Applications, 2019, 55(7): 207-213.

[11]BRAGAGNOLO L, DA SILVA R V, GRZYBOWSKI J M V. Amazon forest cover change mapping based on semantic segmentation by U-Nets[J]. Ecological Informatics, 2021, 62: 101279.

[12]ZHU H, MA M R, MA W P, et al. A spatial-channel progressive fusion ResNet for remote sensing classification[J]. Information Fusion, 2021, 70: 72-87.

[13]岑奕,張立福,張霞,等.雄安新區(qū)馬蹄灣村航空高光譜遙感影像分類數(shù)據(jù)集[J].遙感學(xué)報(bào),2020,24(11):1299-1306.

CEN Y, ZHANG L F, ZHANG X, et al. Aerial hyperspectral remote sensing classification dataset of Xiong’an New Area (Matiwan Village)[J]. Journal of Remote Sensing, 2020, 24(11): 1299-1306.

[14]ORTAC G, OZCAN G. Comparative study of hyperspectral image classification by multidimensional Convolutional Neural Network approaches to improve accuracy[J]. Expert Systems With Applications, 2021, 182: 115280.

[15]KULKARNI U, S M M, GURLAHOSUR S V, et al. Quantization friendly MobileNet (QF-MobileNet) architecture for vision based applications on embedded platforms[J]. Neural Networks, 2021, 136: 28-39.

[16]KC K, YIN Z D, WU M Y, et al. Depthwise separable convolution architectures for plant disease classification[J]. Computers and Electronics in Agriculture, 2019, 165: 104948.

[17]王明常,朱春宇,陳學(xué)業(yè),等.基于FPN res-unet的高分辨率遙感影像建筑物變化檢測(cè)[J].吉林大學(xué)學(xué)報(bào)(地球科學(xué)版),2021,51(1):296-306.

WANG M C, ZHU C Y, CHEN X Y, et al. Building change detection in high resolution remote sensing images based on FPN res-unet[J]. Journal of Jilin University (Earth Science Edition), 2021, 51(1): 296-306.

[18]岳振興,岳彩榮,鄒會(huì)敏.基于KPCA的AISA eagle Ⅱ機(jī)載高光譜數(shù)據(jù)的降維與樹種識(shí)別[J].西部林業(yè)科學(xué),2020,49(4):83-90.

YUE Z X, YUE C R, ZOU H M. Dimension reduction and tree species recognition of AISA eagle II airborne hyperspectral data based on KPCA[J]. Journal of West China Forestry Science, 2020, 49(4): 83-90.

[19]劉歆.基于遙感影像的土地資源利用區(qū)劃自動(dòng)識(shí)別技術(shù)[J].自動(dòng)化技術(shù)與應(yīng)用,2021,40(9):99-103.

LIU X. Automatic recognition technology of land resources division based on remote sensing image[J]. Techniques of Automation and Applications, 2021, 40(9): 99-103.

[20]RONNEBERGER O, FISCHER P, BROX T. U-net: convolutional networks for biomedical image segmentation[C]//Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015, Munich, Germany, 2015:234-241.

[21] LIU S P, LI Y M, ZHOU J J, et al. Segmenting nailfold capillaries using an improved U-net network[J]. Microvascular Research, 2020, 130: 104011.

[22]楊晉生,楊雁南,李天驕.基于深度可分離卷積的交通標(biāo)志識(shí)別算法[J].液晶與顯示,2019,34(12):1191-1201.

YANG J S, YANG Y N, LI T J. Traffic sign recognition algorithm based on depthwise separable convolutions[J]. Chinese Journal of Liquid Crystals and Displays, 2019, 34(12): 1191-1201.

[23]劉浩,駱劍承,黃波,等.基于特征壓縮激活unet網(wǎng)絡(luò)的建筑物提取[J].地球信息科學(xué)學(xué)報(bào),2019,21(11):1779-1789.

LIU H, LUO J C, HUANG B, et al. Building extraction based on SE-unet[J]. Journal of Geo-Information Science, 2019, 21(11): 1779-1789.

[24]DIAKOGIANNIS F I, WALDNER F, CACCETTA P, et al. ResUNet-a: a deep learning framework for semantic segmentation of remotely sensed data[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2020, 162: 94-114.