赫曉慧,李代棟,李盼樂,胡紹凱,陳明揚(yáng),田智慧,周廣勝
(1.鄭州大學(xué) 地球科學(xué)與技術(shù)學(xué)院,鄭州 450001;2.鄭州大學(xué) 信息工程學(xué)院,鄭州 450001;3.中國氣象科學(xué)研究院鄭州大學(xué)生態(tài)氣象聯(lián)合實(shí)驗(yàn)室,鄭州 450052)
隨著遙感技術(shù)的飛速發(fā)展,高分辨率遙感影像為地表地物分析提供了更龐大的信息量。道路信息作為典型的地物要素,在城市規(guī)劃、數(shù)字地圖、構(gòu)建實(shí)時地理信息系統(tǒng)等方面具有廣泛的應(yīng)用價值。通過人工方式對遙感影像進(jìn)行標(biāo)注,需要耗費(fèi)大量的人力和物力[1-2],而傳統(tǒng)的道路提取算法通過捕獲道路的顏色、紋理和邊界等[3-5]信息,再利用閾值或機(jī)器學(xué)習(xí)分類器[6]等進(jìn)行分類,但該類算法僅在有限的應(yīng)用場合下發(fā)揮積極作用。因此,如何利用大量的高分辨率遙感影像完整且準(zhǔn)確地提取道路信息,成為該領(lǐng)域的研究熱點(diǎn)。
深度學(xué)習(xí)(Deep Learning,DL)作為人工智能領(lǐng)域的新興技術(shù),能夠通過其深度多層次的結(jié)構(gòu)來分析和處理數(shù)據(jù),在道路提取領(lǐng)域得到了快速發(fā)展和廣泛應(yīng)用。文獻(xiàn)[7-9]利用深度卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Netural Network,CNN)[10]對馬薩 諸塞州道路和建筑物的標(biāo)注和分割進(jìn)行了大量研究。相比傳統(tǒng)CNN,全卷積網(wǎng)絡(luò)(Fully Convolutional Network,F(xiàn)CN)[11]將全連接層替換為卷積層,通過僅一次正向傳播就能完成整個圖像的語義分割,從而大幅提高了效率。ZHONG 等[12]將FCN 應(yīng)用于道路提取任務(wù)中,并在結(jié)構(gòu)化輸出中探索道路提取的二維空間相關(guān)性。如U-Net[13]和SegNet[14]的編碼器-解碼器(Encoder-Decoder)網(wǎng)絡(luò)通過連接不同級別的特征圖,解決FCN 在分割細(xì)節(jié)方面表現(xiàn)不佳的問題,且具有易改造性強(qiáng)、訓(xùn)練速度快、提取精度高等優(yōu)點(diǎn)。MOSINSKA 等[15]在U-Net 的基礎(chǔ)上提出深度學(xué)習(xí)分割框架,并通過預(yù)訓(xùn)練的VGG19[16]來捕獲線性結(jié)構(gòu)的高階拓?fù)涮卣?,減少出現(xiàn)斷裂或空洞現(xiàn)象。PANBOONYUEN 等[17]利用SegNet 的網(wǎng)絡(luò)結(jié)構(gòu)和指數(shù)線性單元(Exponential Linear Unit,ELU)激活單元,通過有效的數(shù)據(jù)擴(kuò)增,進(jìn)一步提升道路提取的完整度。QIN 等[18]針對提取邊界質(zhì)量差的問題,構(gòu)建由兩個編碼器-解碼器模型組成的分割框架,分別負(fù)責(zé)顯著性預(yù)測和特征優(yōu)化,能夠用準(zhǔn)確且清晰的邊界預(yù)測其結(jié)構(gòu),在局部的細(xì)節(jié)分割效果更加優(yōu)異。但遙感影像中各種信息復(fù)雜多樣,且道路區(qū)域所占比例較低,通過顯著性預(yù)測進(jìn)行道路提取質(zhì)量較差。盡管已經(jīng)提出許多基于深度學(xué)習(xí)的道路提取方法,但現(xiàn)有方法大多采用交叉熵作為損失函數(shù)[11-14,17],往往會錯過精細(xì)的道路結(jié)構(gòu)或在其邊界存在大量模棱兩可的預(yù)測。
為進(jìn)一步提高道路提取質(zhì)量,本文設(shè)計了基于編碼器-解碼器道路網(wǎng)絡(luò)(Encoder-Decoder Road Network,EDRNet)的道路提取方法。采用編碼器-解碼器的網(wǎng)絡(luò)結(jié)構(gòu),結(jié)合殘差網(wǎng)絡(luò)和跳躍連接,構(gòu)建EDR1 道路提取模型。為保留道路主體結(jié)構(gòu)以及進(jìn)一步精細(xì)目標(biāo)邊界,EDR2 模型利用已提取到的道路拓?fù)涮卣?,增加?cè)向輸出融合淺層空間信息與深層語義信息。在此基礎(chǔ)上,引入混合損失函數(shù),對模型進(jìn)行監(jiān)督訓(xùn)練,分別提高道路提取的完整度與精確度。
本文提出的EDRNet 道路提取模型由EDR1 道路提取模型和EDR2 優(yōu)化模型構(gòu)成,其提取流程如圖1所示。在EDRNet 模型的訓(xùn)練過程中,先對EDR1 模型進(jìn)行訓(xùn)練,訓(xùn)練完成后對原訓(xùn)練數(shù)據(jù)和驗(yàn)證數(shù)據(jù)進(jìn)行預(yù)測。篩選數(shù)據(jù)制作EDR2 模型所需的數(shù)據(jù)集,并利用新數(shù)據(jù)集訓(xùn)練EDR2 模型。測試圖像則通過EDR1模型預(yù)測道路區(qū)域,利用EDR2 模型優(yōu)化道路整體輪廓,得到最終道路提取結(jié)果。
圖1 EDRNet 模型提取流程Fig.1 Extraction procedure of EDRNet model
1.1.1 ResNet 編碼器
在編碼器-解碼器的網(wǎng)絡(luò)結(jié)構(gòu)中,編碼器對輸入影像進(jìn)行多階段的卷積和池化操作,從抽象的高維特征圖中捕捉影像的上下文信息;與之相對應(yīng)的解碼器則利用反卷積進(jìn)行相同次數(shù)的上采樣,生成相應(yīng)尺寸的特征圖,對影像中道路目標(biāo)區(qū)域進(jìn)行精準(zhǔn)定位。編碼器對道路的細(xì)節(jié)特征進(jìn)行提取,但小面積、線形且呈網(wǎng)狀分布的道路結(jié)構(gòu)細(xì)節(jié)信息豐富且提取困難。簡單的加深網(wǎng)絡(luò)易導(dǎo)致梯度分散或梯度爆炸,深層的網(wǎng)絡(luò)權(quán)重參數(shù)過多,在訓(xùn)練集較小的情況下,訓(xùn)練過深的特征提取網(wǎng)絡(luò)容易過擬合。文獻(xiàn)[19]通過構(gòu)建殘差神經(jīng)網(wǎng)絡(luò)(Residual Neural Network,ResNet)解決了退化問題,能夠保護(hù)信息的完整性并簡化訓(xùn)練難度,其性能優(yōu)于VGG 網(wǎng)絡(luò)。ResNet 網(wǎng)絡(luò)結(jié)構(gòu)如圖2 所示,主要由殘差塊組成。
圖2 ResNet 網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Structure of ResNet network
在圖2(a)中,x為殘差塊輸入,經(jīng)過第一次激活函數(shù)后輸出為F(x),如式(1)所示:
其中:σ為Relu 非線性函數(shù);W1與W2分別為各層的權(quán)值。殘差塊將F(x,{Wi})與輸入x相加,得到最終的輸出y,如式(2)所示:
基于以上研究,EDR1 模型采用圖2(b)中的殘差模塊加深網(wǎng)絡(luò),構(gòu)建ResNet-34 殘差網(wǎng)絡(luò)編碼器。該編碼器能提取更豐富的道路特征,保留細(xì)節(jié)信息并減少網(wǎng)絡(luò)訓(xùn)練時間。
1.1.2 EDR1 模型設(shè)計
U-Net 網(wǎng)絡(luò)由捕獲上下文的編碼器、對稱的解碼器和跳躍連接組成。其中豐富的跳躍連接允許信息直接從低級到高級特征映射流動,能同時獲取高等級的全局信息和低等級的細(xì)節(jié)信息,無需進(jìn)行替換,進(jìn)一步提高了定位精確度并加快收斂速度[20]。
EDR1 模型是基于殘差網(wǎng)絡(luò)構(gòu)建的特征編碼器,并借鑒U-Net 網(wǎng)絡(luò)跳躍連接設(shè)計道路提取模型。該模型包含4 個編碼器塊和4 個解碼器塊,將ResNet-34的4 個卷積塊作為其編碼器部分,通過跳躍連接分別與相應(yīng)的解碼器塊相連。該網(wǎng)絡(luò)設(shè)計充分利用ResNet-34 的特征提取能力、編碼器-解碼器結(jié)構(gòu)和跳躍連接的優(yōu)勢,不僅能夠獲取更加豐富的道路特征信息,而且更容易訓(xùn)練,大幅提升了模型的訓(xùn)練速度。
道路提取結(jié)果的優(yōu)化與普通提取任務(wù)有明顯區(qū)別。首先道路輪廓優(yōu)化與已提取的道路區(qū)域具有明顯的相關(guān)性,且需優(yōu)化區(qū)域占比小、背景單一,特征提取難度較低,過于復(fù)雜的模型易陷入過擬合。其次為保留道路主體結(jié)構(gòu),需要充分利用多尺度、多層次的特征,獲取從低層次到高層次的道路結(jié)構(gòu)信息。最后為引導(dǎo)模型學(xué)習(xí)正確的道路信息、優(yōu)化道路提取結(jié)果,需要對優(yōu)化結(jié)果進(jìn)行深度監(jiān)控。
因此,為充分利用EDR1 模型的提取結(jié)果,保留已提取到的道路主體結(jié)構(gòu),同時消除道路邊緣的噪聲干擾,EDR2 模型設(shè)計主要是:1)在編碼器部分放棄較EDR1 模型中復(fù)雜的Res 模塊,采用原U-Net 網(wǎng)絡(luò)的特征編碼器;2)在每個解碼器塊增加側(cè)向輸出,每個解碼器的最后都使用卷積核大小為1×1,窗口滑動步距為1的卷積層,降低特征圖的維度為1;由于不同解碼器塊上降維后的特征圖大小不一致,分別通過反卷積(deconvolutional)的方式,將其恢復(fù)至原始影像尺寸;3)不同于EDR1 模型僅利用最后一層預(yù)測道路,EDR2 模型對所有解碼塊的采樣特征圖進(jìn)行融合,經(jīng)過3×3 卷積和1×1 卷積,輸出單通道的優(yōu)化結(jié)果。EDR2 模型結(jié)構(gòu)如圖3 所示。
圖3 EDR2 模型結(jié)構(gòu)Fig.3 Structure of EDR2 model
道路提取是區(qū)分道路及背景的二分類問題,采用二分類交叉熵?fù)p失函數(shù)[21]對深度學(xué)習(xí)模型進(jìn)行訓(xùn)練,如式(3)所示:
其中:n為像素個數(shù);yi為第i個像素的標(biāo)簽真實(shí)值,該值為0 時代表該像素屬于背景區(qū)域,為1 則代表該像素屬于道路區(qū)域;ai為第i個像素的預(yù)測值,其值為0~1,ai值越高則屬于道路的概率越大。由式(3)中L的定義可知,交叉熵?fù)p失沒有考慮精細(xì)的道路結(jié)構(gòu),對不同像素的損失分配了相同的權(quán)重,因此交叉熵?fù)p失不適合分割小面積、線性結(jié)構(gòu)的道路區(qū)域。
本文提出的EDRNet 道路提取模型中,EDR1模型進(jìn)行道路提取,EDR2 模型基于EDR1 模型的提取結(jié)果進(jìn)行優(yōu)化。若EDR1 模型提取結(jié)果召回率較低,則道路結(jié)構(gòu)缺損嚴(yán)重。EDR2 模型能夠有效利用道路結(jié)構(gòu)信息的不足,影響優(yōu)化結(jié)果。因此,EDR1 模型得到道路結(jié)構(gòu)較為完整的提取結(jié)果,并通過EDR2 模型保留道路結(jié)構(gòu)并消除噪聲影響。
在對模型改進(jìn)的基礎(chǔ)上,根據(jù)各模型特點(diǎn),本文利用Tversky 系數(shù)[22]和Focal損失函數(shù)[23],構(gòu)建EDR1 損失函數(shù)L1和EDR2 模型損失函數(shù)L2。利用L1損失函數(shù)提升道路提取的完整度,利用L2損失函數(shù)進(jìn)一步優(yōu)化整體提取結(jié)果。
1.3.1 EDR1 損失函數(shù)L1
Tversky 系數(shù)是Dice 系數(shù)和Jaccard 系數(shù)的一種廣義系數(shù),其定義如式(4)所示:
其中:A為預(yù)測值;B為 真實(shí)標(biāo)簽;α和β為0~1 的系數(shù)。由式(4)可知,設(shè)置α=β=0.5 時,Tversky 系數(shù)為Dice 系數(shù);設(shè)置α=β=1 時,為Jaccard 系數(shù)。其中|A?B|代表FP(標(biāo)簽為負(fù),預(yù)測為正),而|B?A|代表FN(標(biāo)簽為正,預(yù)測為負(fù))。因此,在EDR1 模型的訓(xùn)練過程中,利用Tversky 系數(shù)作為損失函數(shù),通過調(diào)整α和β值,能夠調(diào)節(jié)提取結(jié)果中精確度與召回率所占權(quán)重。根據(jù)遙感影像道路提取二分類的特點(diǎn),EDR1損失函數(shù)L1如式(5)所示:
其中:ε為固定值。本文設(shè)計了特征提取能力更強(qiáng)的EDR1 模型,并利用L1損失函數(shù)對其進(jìn)行訓(xùn)練。通過調(diào)節(jié)L1損失函數(shù)的相關(guān)參數(shù),使模型在訓(xùn)練過程中能獲取完整的道路結(jié)構(gòu),得到召回率較高但精確度較低的提取結(jié)果。更完整的道路提取結(jié)果有利于EDR2 模型的優(yōu)化。
1.3.2 EDR2 損失函數(shù)L2
由于EDR2 模型的輸入是EDR1 的預(yù)測結(jié)果,其中絕大部分都是背景,而在整張遙感影像中道路所占比例較低,且能優(yōu)化道路輪廓或噪聲信息部分所占比例更低。若利用交叉熵?fù)p失函數(shù)訓(xùn)練EDR2 模型,很難從中學(xué)習(xí)到有用信息。而Focal 損失函數(shù)利用γ權(quán)重減少了易分類樣本的損失,更關(guān)注于錯分的樣本,并通過增加θ權(quán)重來平衡正負(fù)樣本比例不均的問題,更適應(yīng)于道路提取結(jié)果的優(yōu)化。其定義如式(6)所示:
其中:θ為0~1 的系數(shù);γ為大于0 的權(quán)重系數(shù)。LF損失函數(shù)能逐漸降低背景及主體道路結(jié)構(gòu)的權(quán)重,專注于道路邊緣及離散斑點(diǎn)等需要優(yōu)化的部分,有效提升EDR2 模型的優(yōu)化能力。而通過改變L1損失函數(shù)相關(guān)系數(shù),也能夠增加精確度所占權(quán)重,利于提升EDR2 模型的優(yōu)化能力。因此,設(shè)計EDR2 模型的損失函數(shù)L2由L1和LF構(gòu)成,如式(7)所示:
其中:φ和ω的值為0~1 的系數(shù),能調(diào)節(jié)各損失函數(shù)所占權(quán)重。通過調(diào)節(jié)L1和LF損失函數(shù)所占權(quán)重,在EDR2 模型訓(xùn)練過程中減少已提取的道路主體結(jié)構(gòu)與背景的損失,專注于優(yōu)化道路提取結(jié)果。
為驗(yàn)證算法對遙感影像道路提取的有效性,使用EDR1 和EDR2 數(shù)據(jù)集對網(wǎng)絡(luò)進(jìn)行訓(xùn)練、測試與驗(yàn)證。實(shí)驗(yàn)基于Tensorflow 深度學(xué)習(xí)框架設(shè)計,運(yùn)行環(huán)境為 CPU Inter Core i7-8700 4.6 GHz,GPU NVIDIA Tesla P100 16 GB。
采用馬薩諸塞州道路數(shù)據(jù)集作為實(shí)驗(yàn)數(shù)據(jù)。該數(shù)據(jù)集為美國馬薩諸塞州的衛(wèi)星影像,共涵蓋1 171 張3 通道影像和對應(yīng)分割標(biāo)簽。影像空間分辨率為1 m,尺寸為1 500 像素×1 500 像素。分割標(biāo)簽為二值化圖像,道路像素值為1,背景像素值為0。在EDRNet 提取方法中共需要2 個數(shù)據(jù)集,分別為EDR1 數(shù)據(jù)集和EDR2 數(shù)據(jù)集,其中EDR1 數(shù)據(jù)集由馬薩諸塞州道路中獲得,EDR2 數(shù)據(jù)集在實(shí)驗(yàn)中通過EDR1 模型得到。
2.1.1 EDR1 數(shù)據(jù)
由于構(gòu)建的EDR1 網(wǎng)絡(luò)輸入影像尺寸為128 像素×128 像素,為了避免歸一化帶來的影響,首先將馬薩諸塞州道路每張影像及標(biāo)簽裁剪成121 張尺寸為128 像素×128 像素的圖像,裁剪后的圖像沒有重疊區(qū)域,并采用多種方法數(shù)據(jù)集進(jìn)行增強(qiáng)。然后通過人工篩選方式去除數(shù)據(jù)集中不對應(yīng)的影像和標(biāo)簽,共獲取12 003 張影像與標(biāo)簽。最后將道路數(shù)據(jù)集按7∶2∶1 劃分為訓(xùn)練集、測試集和驗(yàn)證集。
2.1.2 EDR2 數(shù)據(jù)
利用訓(xùn)練完成的EDR1 模型對EDR1 數(shù)據(jù)的訓(xùn)練集和驗(yàn)證集進(jìn)行預(yù)測,經(jīng)過數(shù)據(jù)篩選,剔除部分提取完整度較差的影像,并將其提取結(jié)果和對應(yīng)的標(biāo)簽裁剪為128 像素×128 像素尺寸的圖像,符合要求的訓(xùn)練集和驗(yàn)證集及其相對應(yīng)的標(biāo)簽制成EDR2 數(shù)據(jù)集。EDR2 部分?jǐn)?shù)據(jù)如圖4 所示。
圖4 EDR2 部分?jǐn)?shù)據(jù)Fig.4 EDR2 partial datas
2.1.3 數(shù)據(jù)擴(kuò)增
深度學(xué)習(xí)是一種數(shù)據(jù)驅(qū)動技術(shù),充足的數(shù)據(jù)量是訓(xùn)練深度網(wǎng)絡(luò)的基礎(chǔ),但目前標(biāo)準(zhǔn)的遙感影像道路數(shù)據(jù)還不能滿足需求。在數(shù)據(jù)不足的情況下,通過對影像進(jìn)行旋轉(zhuǎn)和變換來擴(kuò)充訓(xùn)練數(shù)據(jù)容量。本文借鑒文獻(xiàn)[24]中數(shù)據(jù)擴(kuò)增的方法,在其基礎(chǔ)上增加兩種映射方式。對原始影像及標(biāo)簽隨機(jī)進(jìn)行旋轉(zhuǎn)或水平、垂直的鏡像映射,將訓(xùn)練數(shù)據(jù)量擴(kuò)充為原來的8 倍,基本能滿足EDRNet 網(wǎng)絡(luò)訓(xùn)練的需求。數(shù)據(jù)擴(kuò)增結(jié)果如圖5 所示。
圖5 數(shù)據(jù)擴(kuò)增結(jié)果Fig.5 Results of data amplification
在模型的訓(xùn)練過程中,根據(jù)實(shí)際情況,設(shè)置迭代批量batch_size 為2,動量參數(shù)Momentum 為0.9,配置基礎(chǔ)學(xué)習(xí)率在前20 000次迭代中為10-6,隨后迭代逐步降為5×10-7。EDR1模型訓(xùn)練過程中,L1損失函數(shù)相關(guān)系數(shù)設(shè)置為α=0.7,β=0.3;EDR2 模型訓(xùn)練時,L2損失函數(shù)中相關(guān)系數(shù)分別為α=0.5,β=0.5,γ=2,θ=0.25。
為實(shí)現(xiàn)對遙感影像道路提取方法的客觀評價,道路提取結(jié)果采用語義分割常用的評價方法,即精確率(P),召回率(R)和F1-score 等。其定義分別為式(8)~式(10)所示:
其中:TP(true-positive)代表標(biāo)簽為正,預(yù)測也為正;FP(false-positive)代表標(biāo)簽為負(fù),預(yù)測為正;FN(falsenegative)代表標(biāo)簽為正,預(yù)測為負(fù)。
為驗(yàn)證本文所提出方法的有效性,選取了特征提取能力較強(qiáng)、道路網(wǎng)結(jié)構(gòu)提取比較完整的模型進(jìn)行對比實(shí)驗(yàn)。分別將U-Net 模型、文獻(xiàn)[17,19]模型、EDR1 模型和EDR1(L1)模型,在馬薩諸塞州道路數(shù)據(jù)集下進(jìn)行驗(yàn)證測試,提取結(jié)果如表1 所示。
表1 不同模型道路提取結(jié)果對比Table 1 Comparison of road extraction results between different models
從表1 可以看出,U-Net 雖然可用于遙感影像道路目標(biāo)的分割,但測試精確率較差,影響整體的測試結(jié)果,其模型結(jié)構(gòu)設(shè)計并不能完全適應(yīng)復(fù)雜的遙感影像道路提取任務(wù)。文獻(xiàn)[17]在U-Net 基礎(chǔ)上,利用預(yù)訓(xùn)練的VGG19 來捕獲線性結(jié)構(gòu)的高階拓?fù)涮卣鳎現(xiàn)1-score 提高了約7 個百分點(diǎn);但在訓(xùn)練過程中將所有提取結(jié)果未加篩選進(jìn)行訓(xùn)練,導(dǎo)致模型保留了部分類似道路區(qū)域的特征,其結(jié)果中存在一些被誤檢測為道路的區(qū)域。文獻(xiàn)[19]中的ELU-SegNet-R采用更先進(jìn)的網(wǎng)絡(luò)結(jié)構(gòu)和激活函數(shù),召回率、F1-score 分別為84.7%和81.2%,但其直接利用了適合于街景分割的SegNet 基本架構(gòu),設(shè)計損失函數(shù)時沒有考慮道路邊緣噪聲影響,因而限制其提取道路網(wǎng)絡(luò)的性能。本文基于U-Net 改進(jìn)的EDR1 模型,將原編碼部分替換為特征提取能力更強(qiáng)的Res 模塊,提高了對道路目標(biāo)特征的提取能力,相比原始U-Net的召回率提升了約11 個百分點(diǎn)。利用L1損失函數(shù)進(jìn)行訓(xùn)練的EDR1 模型,在此基礎(chǔ)上進(jìn)一步提升了道路提取的完整度,其召回率值達(dá)到了93.1%,絕大多數(shù)的目標(biāo)道路區(qū)域能夠被提取到。由于側(cè)重提升對道路目標(biāo)特征信息提取,其精確率與F1-score 指標(biāo)略低。不同模型提取結(jié)果如圖6 所示。
圖6 不同模型提取結(jié)果Fig.6 Extraction results of different models
從圖6 可以看出,相比U-Net、文獻(xiàn)[17,19]模型,EDR1 模型提取到了更多的道路目標(biāo)區(qū)域,但仍存在部分道路中斷以及未檢測到的情況,不利于EDR2 模型進(jìn)行優(yōu)化。相比其他模型,利用L1損失函數(shù)進(jìn)行訓(xùn)練的EDR1 模型,道路提取完整程度高,但同時道路邊緣及背景也存在部分噪聲干擾等問題,影響整體的提取效果。
為驗(yàn)證本文所提EDR2 模型的改進(jìn)效果,分別選取對特征提取能力強(qiáng)、道路網(wǎng)結(jié)構(gòu)提取完整的模型U-Net、文獻(xiàn)[17,19]模型、EDR1 模型和EDR1(L1)模型,并結(jié)合EDR2 模型進(jìn)行驗(yàn)證測試,實(shí)驗(yàn)結(jié)果如表2 所示。
表2 EDR2 模型優(yōu)化結(jié)果Table 2 Optimization results of EDR2 model
從表2 可以看出,利用EDR2 模型對上述方法進(jìn)行優(yōu)化的結(jié)果中,精確率指標(biāo)分別提升了1.0、1.6、2.9 和8.6 個百分點(diǎn),而召回率僅下降了0.8、1.1、1.9和5.9 個百分點(diǎn),最終在指標(biāo)F1-score 有所提升。通過調(diào)節(jié)L1損失函數(shù)的相關(guān)參數(shù),EDR1 模型在訓(xùn)練過程中更關(guān)注獲取完整的道路結(jié)構(gòu),得到一個召回率較高但精確率較低的提取結(jié)果。實(shí)驗(yàn)對比表明,召回率較高的提取結(jié)果經(jīng)過EDR2 模型改進(jìn)優(yōu)化,最終道路提取結(jié)果能更好地實(shí)現(xiàn)召回率和精確率均衡。利用L1損失函數(shù)進(jìn)行訓(xùn)練的EDR1 模型,經(jīng)過EDR2 模型優(yōu)化后精確度和F1-score 指標(biāo)提升效果顯著,但其精確率和召回率相差較大,仍存在一定的優(yōu)化空間。因此,為了使EDR2 模型獲得更充足的道路結(jié)構(gòu)信息,本文設(shè)計了特征提取能力更強(qiáng)的EDR1 模型,并利用L1損失函數(shù)對其進(jìn)行訓(xùn)練。EDR2(L2)模型的優(yōu)化結(jié)果如表3 所示。
表3 EDR2(L2)模型優(yōu)化結(jié)果Table 3 Optimization results of EDR2(L2)model
從表3 可以看出,利用EDR2 模型+L2損失函數(shù)對上述方法的提取結(jié)果進(jìn)行優(yōu)化后,召回率降低幅度較低,而精確率得到了有效提升,召回率和精確度之間的差也進(jìn)一步縮小。在實(shí)驗(yàn)結(jié)果中,EDR1(L1)+EDR2(L2)與其他原始或改進(jìn)后方法的結(jié)果相比,其精確率、召回率以及F1-score 都取得更加優(yōu)異的表現(xiàn),尤其是精確率提升方面。各模型優(yōu)化結(jié)果如圖7 所示。從圖7 可以看出,經(jīng)過EDR2 模型+L2損失函數(shù)的優(yōu)化,文獻(xiàn)[17,19]模型的提取結(jié)果,在保留主體道路結(jié)構(gòu)的同時提升了其精確率,能夠消除部分噪聲的影響;但由于上述網(wǎng)絡(luò)的特征提取能力較弱,部分道路未被提取到,通過EDR2 模型進(jìn)行優(yōu)化提升的空間有限,限制其最終提取完整度的表現(xiàn)。EDR2 模型+L2損失函數(shù)對EDR1 模型的優(yōu)化結(jié)果較明顯,但僅通過改進(jìn)模型結(jié)構(gòu),仍然有部分道路未被有效提取,影響了整體的優(yōu)化效果。而本文方法通過優(yōu)化EDR1 模型+L1損失函數(shù)的道路提取結(jié)果,能夠較完整保留道路主體結(jié)構(gòu),同時消除大部分毛刺或離散斑點(diǎn)的噪聲干擾。最終提取結(jié)果與標(biāo)簽圖像達(dá)到更高的相似度,整體道路提取結(jié)果更優(yōu)異。
圖7 不同模型優(yōu)化結(jié)果Fig.7 Optimization results of different models
本文提出基于EDRNet 模型的遙感影像道路提取方法。EDR1 模型通過替換性能更優(yōu)異的殘差模塊,提取完整的目標(biāo)道路區(qū)域。在特征解碼階段,EDR2 模型對多層次、多尺度的道路結(jié)構(gòu)特征進(jìn)行融合。在此基礎(chǔ)上,利用混合損失函數(shù)和數(shù)據(jù)增強(qiáng)的方法,提升各模型特性。實(shí)驗(yàn)結(jié)果表明,EDRNet 道路提取方法的各項(xiàng)性能指標(biāo)表現(xiàn)優(yōu)異,能夠從復(fù)雜的遙感影像中獲得完整且準(zhǔn)確的路網(wǎng)結(jié)構(gòu)。下一步工作是擴(kuò)大EDRNet 方法的適用范圍,使其能更廣泛地應(yīng)用在建筑物、河流和車輛等影像提取任務(wù)中。