付饒 何敬 劉剛
摘要:以國(guó)產(chǎn)高分二號(hào)影像為數(shù)據(jù)源,利用改進(jìn)的YOLOv4算法對(duì)2021年海地7.2級(jí)地震誘發(fā)的滑坡進(jìn)行識(shí)別。為提升模型的識(shí)別效率,用MobileNetv3替換了YOLOv4的骨干網(wǎng)絡(luò)CSPDarknet53,并用深度可分離卷積替代YOLOv4中的普通卷積,優(yōu)化了模型參數(shù)和網(wǎng)絡(luò)結(jié)構(gòu)。結(jié)果表明:改進(jìn)后的YOLOv4算法目標(biāo)識(shí)別精度達(dá)到91.37%,比普通YOLOv4檢測(cè)速度提高了6.19 f/s,精度提高了5.24%,模型參數(shù)大小減少了80%。改進(jìn)后的方法對(duì)滑坡的檢測(cè)精度高于原YOLOv4算法,得到的滑坡位置更為準(zhǔn)確,具有輕量化和實(shí)時(shí)性更高的優(yōu)勢(shì),可為應(yīng)急救援和災(zāi)情評(píng)估提供更加可靠的數(shù)據(jù)。
關(guān)鍵詞:YOLOv4;海地地震;滑坡識(shí)別;高分影像
中圖分類號(hào):P642.22?? 文獻(xiàn)標(biāo)識(shí)碼:A?? 文章編號(hào):1000-0666(2023)01-0300-08
doi:10.20015/j.cnki.ISSN1000-0666.2023.0012
0 引言
許多地震發(fā)生后,都會(huì)引發(fā)大量的滑坡,如何快速準(zhǔn)確地確定滑坡發(fā)生的位置和數(shù)量,對(duì)震后搶險(xiǎn)救災(zāi)具有重要意義。2008年汶川MS8.0地震引發(fā)了大量滑坡,許沖等(2009)通過(guò)目視解譯的方法共解譯出約46 560處崩塌、滑坡、泥石流等地震次生地質(zhì)災(zāi)害,但這種方法工作量大、時(shí)間長(zhǎng)、效率低,其時(shí)效性無(wú)法滿足救災(zāi)需求(林齊根等,2017)。為了提升效率,研究人員利用計(jì)算機(jī)分類的方法進(jìn)行滑坡識(shí)別的探索,如牛全福等(2010)利用災(zāi)前災(zāi)后的Quickbird影像,結(jié)合數(shù)字高程模型和其他基礎(chǔ)數(shù)據(jù),采用監(jiān)督分類的方法得到了滑坡信息;Keyport等(2018)利用危地馬拉的高分辨率航空遙感圖像,對(duì)比了像素和對(duì)象兩個(gè)級(jí)別的滑坡提取精度,結(jié)果顯示面向?qū)ο蟮目傮w準(zhǔn)確率略高于基于像素的方法。但這些計(jì)算機(jī)分類方法需要事先提取圖像中滑坡的特征,算法設(shè)計(jì)較為復(fù)雜,可擴(kuò)展性受到限制,不具備實(shí)時(shí)檢測(cè)的能力。近年來(lái),隨著地質(zhì)災(zāi)害觀測(cè)數(shù)據(jù)增多,計(jì)算機(jī)性能不斷提高,通過(guò)機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等方法來(lái)識(shí)別滑坡已成為研究的熱點(diǎn)。
機(jī)器學(xué)習(xí)通過(guò)提取圖像中各類目標(biāo)的特征構(gòu)建模型,具有較高的自動(dòng)化程度(Bialas et al,2016;Micheletti et al,2014;Kavzoglu et al,2019;Tien et al,2014;Huang,Zhao,2018)。雖然其精度和自動(dòng)化程度較高,但仍需大量時(shí)間選擇如坡度、地形、土壤等特征。而深度學(xué)習(xí)在進(jìn)行滑坡識(shí)別時(shí)不用人工選擇特征,所接納的樣本量更大,更適合于大場(chǎng)景的滑坡識(shí)別(巨袁臻等,2020),常用的有RetinaNet、Faster R-CNN、SSD和YOLO等算法(Lin et al,2017;Ren et al,2015;Liu et al,2016;Redmon et al,2016)。很多學(xué)者將深度學(xué)習(xí)應(yīng)用于滑坡識(shí)別,并不斷改進(jìn)算法,如Cheng等(2021a)利用無(wú)人機(jī)影像和衛(wèi)星影像開發(fā)了基于RetinaNet深度學(xué)習(xí)的滑坡自動(dòng)識(shí)別模型,可以繪制滑坡現(xiàn)場(chǎng)的裂縫,并對(duì)識(shí)別出的滑坡裂縫與現(xiàn)場(chǎng)調(diào)查結(jié)果進(jìn)行定量對(duì)比;Cheng等(2021b)以云南省巧家縣和魯?shù)榭h的谷歌遙感影像為數(shù)據(jù)源,提出了一種改進(jìn)的YOLO-SA網(wǎng)絡(luò)滑坡檢測(cè)模型,滑坡識(shí)別準(zhǔn)確率達(dá)94.08%,速度達(dá)42 f/s,F(xiàn)1分值為90.65%。
隨著深度學(xué)習(xí)網(wǎng)絡(luò)模型的復(fù)雜和深入,參數(shù)變得越來(lái)越多。過(guò)多的模型參數(shù)意味著需要消耗更多的內(nèi)存和時(shí)間,在緊急情況下無(wú)法快速獲得結(jié)果,影響深度學(xué)習(xí)模型應(yīng)用于快速檢測(cè)。因此,如何在保持高準(zhǔn)確率的同時(shí),減少模型參數(shù)以提高目標(biāo)檢測(cè)速度,是一個(gè)亟待解決的問(wèn)題。鑒于此,本文在原有YOLOv4(You only Look one v4)算法的基礎(chǔ)上,通過(guò)優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),設(shè)計(jì)了滑坡檢測(cè)模型YOLOv4-MobileNetv3,并對(duì)2021年海地7.2級(jí)地震后GF-2衛(wèi)星遙感影像中的滑坡進(jìn)行自動(dòng)識(shí)別,驗(yàn)證了模型在識(shí)別震后衛(wèi)星影像滑坡方面的可靠性。該方法為震后生命救援和快速災(zāi)害評(píng)估提供了支持,為滑坡風(fēng)險(xiǎn)評(píng)估和災(zāi)害調(diào)查奠定了基礎(chǔ)。
1 數(shù)據(jù)與方法
1.1 數(shù)據(jù)
1.1.1 研究區(qū)概況
海地位于伊斯帕尼奧拉島西部,國(guó)土總面積27 750 km2,其中27 560 km2是陸地,190 km2是水域。海地有各種熱帶氣候類型,平原地區(qū)一般干旱,山區(qū)一般濕潤(rùn),在科迪勒拉山則可見高山寒帶氣候。
海地尼普斯省當(dāng)?shù)貢r(shí)間2021年8月14日7時(shí)29分發(fā)生7.2級(jí)地震,震中距首都太子港約150 km,震源深度約10 km。海地南部省省會(huì)萊凱和大灣省省會(huì)熱雷米受災(zāi)最為嚴(yán)重,地震造成至少724人死亡、2 800人受傷(劉旭霞,秦芮,2021)。
1.1.2 基于高分2號(hào)影像的數(shù)據(jù)集制作
在海地7.2級(jí)地震發(fā)生后,中國(guó)高分二號(hào)遙感衛(wèi)星對(duì)受災(zāi)區(qū)域進(jìn)行了成像拍攝。本文選取其中受災(zāi)較為嚴(yán)重的區(qū)域進(jìn)行研究,通過(guò)影像校正、融合等預(yù)處理后,最終生成空間分辨率為1 m、面積為658 km2的海地局部真彩色影像。制作完成的影像由于數(shù)據(jù)量過(guò)大無(wú)法直接輸入到深度學(xué)習(xí)模型中,需要對(duì)圖像進(jìn)行分割后再進(jìn)行數(shù)據(jù)制作。Bochkovskiy等(2020)發(fā)現(xiàn)使用608×608像素尺寸的圖像實(shí)驗(yàn)效果最好,因此本文選擇將原始影像分割成608×608像素的圖像塊。圖像分割后從中挑選出包含滑坡的圖像,使用LabelImg軟件對(duì)圖像中的滑坡進(jìn)行PASCAL VOC格式(Everingham et al,2010)的標(biāo)注,如圖1所示。制作的數(shù)據(jù)集有162張影像,共包含1 208個(gè)滑坡,劃分訓(xùn)練集和測(cè)試集的比例為常用的8∶2,即80%的圖像用于訓(xùn)練,20%的圖像用于測(cè)試。
1.2 方法
1.2.1 改進(jìn)YOLOv4算法的滑坡識(shí)別總體流程
首先,對(duì)圖像進(jìn)行預(yù)處理,將圖像分割為適合模型的大小,篩選出滑坡數(shù)量較多的圖像并在圖像上打標(biāo)簽制作數(shù)據(jù)集。然后,對(duì)YOLOv4模型的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn),用MobileNetv3網(wǎng)絡(luò)替換骨干網(wǎng)絡(luò),并用深度可分離卷積代替YOLOv4中的普通卷積,降低網(wǎng)絡(luò)結(jié)構(gòu)的復(fù)雜性。最后,將所制作的數(shù)據(jù)集在改進(jìn)的模型上進(jìn)行訓(xùn)練,進(jìn)行精度評(píng)定。改進(jìn)YOLOv4算法的滑坡識(shí)別流程如圖2所示。
1.2.2 YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)
YOLO系列算法是最初由Redmon等(2016)提出的基于回歸目標(biāo)識(shí)別方法,是一種單階段目標(biāo)檢測(cè)算法,使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)對(duì)圖像進(jìn)行處理,可以直接計(jì)算分類結(jié)果和目標(biāo)位置坐標(biāo)。通過(guò)端到端目標(biāo)定位和分類,大大提高了檢測(cè)速度。YOLOv4算法在數(shù)據(jù)處理中引入了馬賽克數(shù)據(jù)增強(qiáng),對(duì)骨干、網(wǎng)絡(luò)訓(xùn)練、激活函數(shù)、損失函數(shù)進(jìn)行了優(yōu)化,使YOLOv4算法速度更快,在實(shí)時(shí)目標(biāo)檢測(cè)算法中達(dá)到了精度和速度的最佳平衡(Bochkovskiy et al,2020)。
如圖3所示,YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)主要采用開源神經(jīng)網(wǎng)絡(luò)框架CSPDarknet53作為主要骨干網(wǎng)絡(luò)來(lái)訓(xùn)練和提取圖像特征,采用PANet(Path Aggregation Network)作為頸部網(wǎng)絡(luò),從而更好地融合提取特征(Wang,He,2019),頭部采用YOLOv3算法實(shí)現(xiàn)目標(biāo)檢測(cè)(Redmon,F(xiàn)arhadi,2018)。其主要模塊的組成和功能如下:CBL(Convolution,Batch Normalization and Leaky-ReLU)是一個(gè)由卷積層、批處理歸一化層和Leaky-ReLU激活函數(shù)組成的模塊,是YOLOv4網(wǎng)絡(luò)中最常見的結(jié)構(gòu)。CBM(Convolution,Batch Normalization and MISH)模塊和CBL模塊進(jìn)行特征提取,兩者的區(qū)別在于CBM的激活函數(shù)使用MISH而不是Leaky-ReLU。SPP(Spatial Pyramid Pooling)為空間金字塔池化層,主要是將不同大小的卷積特征轉(zhuǎn)換為相同長(zhǎng)度的池化特征(He et al,2015)。CSPX(Center and Scale Prediction)借鑒CSPNet網(wǎng)絡(luò)結(jié)構(gòu),由3個(gè)卷積層和X個(gè)Res unint模塊拼接組成,該模塊可以將低層次特征分為2部分,通過(guò)融合跨層次特征來(lái)提高CNN的學(xué)習(xí)能力(Wang et al,2020)。Res unit借鑒Resnet網(wǎng)絡(luò)中的殘差結(jié)構(gòu),讓網(wǎng)絡(luò)可以構(gòu)建得更深。
1.2.3 MobileNetv3網(wǎng)絡(luò)結(jié)構(gòu)
MobileNet模型是Google針對(duì)手機(jī)等嵌入式設(shè)備提出的一種輕量級(jí)深層神經(jīng)網(wǎng)絡(luò),其核心思想是深度可分離卷積塊(Howard et al,2017)。
對(duì)于一個(gè)卷積點(diǎn)而言,假設(shè)有一個(gè)3×3大小的卷積層,其輸入通道為16,輸出通道為32。具體為,32個(gè)3×3大小的卷積核會(huì)遍歷16個(gè)通道中的每個(gè)數(shù)據(jù),最后可得到所需的32個(gè)輸出通道,所需參數(shù)為4 608個(gè)。
應(yīng)用深度可分離卷積結(jié)構(gòu)塊,用16個(gè)3×3大小的卷積核分別遍歷16個(gè)通道的數(shù)據(jù),共得到16個(gè)特征圖譜。在融合操作之前,用32個(gè)1×1大小的卷積核遍歷這16個(gè)特征圖譜,所需參數(shù)為656個(gè)。MobileNet中,深度可分離卷積由Depthwise(DW)和Pointwise(PW)兩個(gè)部分結(jié)合,提取圖像的特征層,相比常規(guī)的卷積操作,其參數(shù)數(shù)量和運(yùn)算成本更低。圖4為滑坡圖像經(jīng)過(guò)深度可分離卷積后的結(jié)果。
本文使用的MobileNetv3結(jié)構(gòu)相比于v1和v2使用了特殊的bneck結(jié)構(gòu)(Howard et al,2019),如圖5所示,綜合了以下4個(gè)特點(diǎn):①M(fèi)obileNetV2具有線性瓶頸的逆殘差結(jié)構(gòu)。即先利用1×1卷積進(jìn)行升維度,再進(jìn)行下面的操作,并具有殘差邊。②MobileNetv1的深度可分離卷積。在輸入1×1卷積進(jìn)行升維度后,進(jìn)行3×3深度可分離卷積。③輕量級(jí)的注意力模型。這個(gè)注意力機(jī)制的作用方式是調(diào)整每個(gè)通道的權(quán)重。④利用H-swish代替swish函數(shù)。在結(jié)構(gòu)中使用了H-swish激活函數(shù),代替swish函數(shù),減少運(yùn)算量,提高性能。
1.2.4 本文使用的網(wǎng)絡(luò)結(jié)構(gòu)
YOLOv4使用主干特征提取網(wǎng)絡(luò)CSPdarknet53獲得的圖像特征構(gòu)建特征金字塔。本文YOlOv4網(wǎng)絡(luò)中的CSPDarknet53結(jié)構(gòu)相對(duì)復(fù)雜,參數(shù)量大,特征提取消耗時(shí)間較長(zhǎng),且在檢測(cè)單類目標(biāo)時(shí)容易產(chǎn)生過(guò)擬合的現(xiàn)象。
MobileNetv3網(wǎng)絡(luò)主干部分的作用是進(jìn)行特征提取,為了減少YOLOv4模型中的參數(shù)數(shù)量,提高識(shí)別精度和檢測(cè)速度,筆者將CSPDarknet53特征提取網(wǎng)絡(luò)替換為輕量級(jí)網(wǎng)絡(luò)MobileNetv3,利用MobileNetv3網(wǎng)絡(luò)獲得的圖像特征替換掉YOLOv4主干網(wǎng)絡(luò)提取的圖像特征進(jìn)行特征金字塔構(gòu)建。為了進(jìn)一步減少參數(shù)量,使用深度可分離卷積代替YOLOv4的普通卷積,最后得到Y(jié)OLOv4-MobileNetv3模型。
2 實(shí)驗(yàn)及結(jié)果分析
2.1 實(shí)驗(yàn)設(shè)置
本文使用以下硬件環(huán)境進(jìn)行實(shí)驗(yàn):RTX3090圖形處理器、Intel i9-10900k處理器和64 GB內(nèi)存。在訓(xùn)練過(guò)程中,參數(shù)逐漸優(yōu)化和調(diào)整,batch大小設(shè)置為64,初始學(xué)習(xí)率設(shè)置為10-3。如果驗(yàn)證集上的loss值經(jīng)過(guò)50個(gè)epoch(每個(gè)epoch指的是所有訓(xùn)練圖像的前向傳播)后沒(méi)有減小,則學(xué)習(xí)率減小0.1倍,其中最低學(xué)習(xí)率為10-5。最后,對(duì)改進(jìn)的YOLOv4-MobileNetv3模型進(jìn)行約800個(gè)epoch的訓(xùn)練。
2.2 精度評(píng)價(jià)指標(biāo)
2.2.1 PR曲線
PR曲線中P代表precision,即精確率,R代表recall,即召回率,是精確率與召回率的關(guān)系(Benjdira et al,2019)。一般情況下,將R設(shè)置為橫坐標(biāo),P設(shè)置為縱坐標(biāo),兩者一般呈反比關(guān)系:
P=TPFP+FP(1)
R=TPFN+TP(2)
式中:TP為正確檢出的陽(yáng)性樣本數(shù);FP為誤檢為陽(yáng)性的陰性樣本數(shù);FN為未檢出的陽(yáng)性樣本數(shù)。TP、FP、FN均在表1中列出。IoU為預(yù)測(cè)邊框和真實(shí)邊框的面積重疊率,對(duì)于一個(gè)滑坡,如果IoU≥0.5,則被認(rèn)為是一個(gè)正確的預(yù)測(cè)TP(True-Positive);反之如果IoU<0.5,則被認(rèn)為是一個(gè)錯(cuò)誤的預(yù)測(cè)FP,即(False-Positive)。
2.2.2 F1分?jǐn)?shù)
F1分?jǐn)?shù)用于評(píng)價(jià)模型的綜合性能,計(jì)算公式如下:
F1=2×P×R(P+R)(3)
2.2.3 平均準(zhǔn)確率
在物體檢測(cè)任務(wù)中經(jīng)常使用平均準(zhǔn)確率(Average Precision,簡(jiǎn)稱AP)作為評(píng)價(jià)指標(biāo)。AP定義為準(zhǔn)確率和召回率曲線下的面積大小。為了計(jì)算方便,先選取橫軸上的11個(gè)點(diǎn)(間隔為0.1)所對(duì)應(yīng)的準(zhǔn)確率,再取平均作為最終檢測(cè)的平均準(zhǔn)確率。R代表橫軸,即召回率的值,Pinterp(R)代表了在召回率為R時(shí)準(zhǔn)確率的數(shù)值,表達(dá)式如下:
AP=111∑Pinterp(R) R∈(0,0.1,…,1.0)(4)
2.3 結(jié)果與分析
圖6為訓(xùn)練期間驗(yàn)證集的損失變化曲線。從圖中可以看出,在訓(xùn)練初期損失值迅速下降,抖動(dòng)范圍較大。這是由于早期的學(xué)習(xí)率較大,能夠產(chǎn)生較快的學(xué)習(xí)速度,并盡快將損失值降低為較低的水平。在訓(xùn)練的中后期,學(xué)習(xí)率逐漸下降,損失值的變化趨于穩(wěn)定,下降速率變緩。
訓(xùn)練結(jié)束后,將改進(jìn)后的YOLOv4-MobileNetv3模型與原YOLOv4模型進(jìn)行比較,結(jié)果見表2。原模型總計(jì)識(shí)別出滑坡1 055個(gè),正確識(shí)別936個(gè),錯(cuò)誤識(shí)別119個(gè),識(shí)別準(zhǔn)確率為77.5%,識(shí)別精確率為88.7%。改進(jìn)后 模型總計(jì)識(shí)別出滑坡1 072個(gè),正確識(shí)別1 007個(gè),錯(cuò)誤識(shí)別65個(gè),識(shí)別準(zhǔn)確率為83.4%,識(shí)別精確率為93.9%,平均準(zhǔn)確率為91.37%,F(xiàn)PS為57.82 f/s。從測(cè)試結(jié)果可以看出,本文方法對(duì)滑坡的檢測(cè)精度高于原YOLOv4算法,其中檢測(cè)速度的提高得益于網(wǎng)絡(luò)結(jié)構(gòu)的改進(jìn),輕量級(jí)的Mobilenetv3網(wǎng)絡(luò)取代了原先的卷積網(wǎng)絡(luò)CSPDarknet53,減少了網(wǎng)絡(luò)參數(shù),提高了模型的運(yùn)行速度。
對(duì)于目標(biāo)檢測(cè)方法來(lái)說(shuō),PR曲線是評(píng)價(jià)模型魯棒性和有效性的基本指標(biāo)之一。本文使用YOLOv4-MobileNetv3模型的PR曲線如圖7所示,從圖中可以看出,隨著召回率的增加,準(zhǔn)確率逐漸下降。
圖8為原始YOLOv4與YOLOv4-MobileNetv3模型應(yīng)用于海地地震數(shù)據(jù)集的檢測(cè)結(jié)果比較。從圖中可以看出,原始的YOLOv4模型可以檢測(cè)到大部分滑坡,但漏掉了許多小目標(biāo),測(cè)試結(jié)果的精度低于YOLOv4-MobileNetv3模型。這說(shuō)明YOLOv4-MobileNetv3模型訓(xùn)練更充分,具有更好的收斂效果,MobileNetv3等輕量級(jí)CNN具有更好的泛化能力,防止過(guò)擬合。雖然YOLOv4-MobileNetv3模型能夠檢測(cè)出遙感圖像中大部分的滑坡,但也存在一些誤檢和漏檢情況。這主要是由于震后高分辨率遙感影像的背景環(huán)境遠(yuǎn)比自然影像復(fù)雜,導(dǎo)致模型識(shí)別背景環(huán)境中的某些物體,如與滑坡圖像特征相似的裸露土壤容易被誤檢。
3 結(jié)論
本文首先對(duì)遙感影像中的滑坡進(jìn)行標(biāo)記,制作數(shù)據(jù)集,然后利用YOLOv4深度學(xué)習(xí)目標(biāo)檢測(cè)模型對(duì)地震后遙感圖像中的滑坡進(jìn)行檢測(cè),并對(duì)YOLOv4模型的基本卷積網(wǎng)絡(luò)框架進(jìn)行改進(jìn),應(yīng)用于海地地震后的滑坡識(shí)別,主要得出以下結(jié)論:
(1)在海地地震后的滑坡識(shí)別中,改進(jìn)后的模型準(zhǔn)確度為0.939,召回率為0.863 8,F(xiàn)1分值為0.828 8。與原YOLOv4模型相比參數(shù)量降低了80%,精度提高了5.24%,檢測(cè)速度提高了6.19 f/s,體現(xiàn)了應(yīng)用YOLOv4-MobileNetv3模型在滑坡后高分辨率衛(wèi)星遙感影像上進(jìn)行滑坡檢測(cè)的可靠性。
(2)對(duì)YOLOv4-MobileNetv3模型與原始YOLO模型在海地地震數(shù)據(jù)集的檢測(cè)結(jié)果進(jìn)行對(duì)比發(fā)現(xiàn),模型參數(shù)數(shù)量顯著減少,但識(shí)別精度卻得到了提升。結(jié)果表明,改進(jìn)后的YOLOv4-MobileNetv3模型檢測(cè)精度高、檢測(cè)速度快、參數(shù)少,說(shuō)明本文的優(yōu)化方法是有效的。
(3)為了進(jìn)一步提升模型的穩(wěn)定性及識(shí)別能力,可采用多種類型的滑坡數(shù)據(jù)源對(duì)其進(jìn)行訓(xùn)練,最終實(shí)現(xiàn)對(duì)多源數(shù)據(jù)、多類型滑坡的準(zhǔn)確識(shí)別,為滑坡災(zāi)害的救援及災(zāi)害評(píng)估提供及時(shí)準(zhǔn)確的數(shù)據(jù)支撐。
參考文獻(xiàn):
巨袁臻,許強(qiáng),金時(shí)超,等.2020.使用深度學(xué)習(xí)方法實(shí)現(xiàn)黃土滑坡自動(dòng)識(shí)別[J].武漢大學(xué)學(xué)報(bào)(信息科學(xué)版),45(11):1747-1755.
林齊根,鄒振華,祝瑛琦,等.2017.基于光譜、空間和形態(tài)特征的面向?qū)ο蠡伦R(shí)別[J].遙感技術(shù)與應(yīng)用,32(5):931-937.
劉旭霞,秦芮.2021.7.2級(jí)地震令海地“搖搖欲墜”[N].環(huán)球時(shí)報(bào),2021-08-16(2).
牛全福,程維明,蘭恒星,等.2010.玉樹地震滑坡災(zāi)害的遙感提取與分布特征分析[C]//中國(guó)災(zāi)害防御協(xié)會(huì).全國(guó)突發(fā)性地質(zhì)災(zāi)害應(yīng)急處置與災(zāi)害防治技術(shù)高級(jí)研討會(huì)論文集.北京:中國(guó)災(zāi)害防御協(xié)會(huì),7.
許沖,戴福初,陳劍,等.2009.汶川MS8.0地震重災(zāi)區(qū)次生地質(zhì)災(zāi)害遙感精細(xì)解譯[J].遙感學(xué)報(bào),13(4):754-762.
Benjdira B,Khursheed T,Koubaa A, et al.2019.Car detection using unmanned aerial vehicles:Comparison between faster r-cnn and yolov3[C]//2019 1st International Conference on Unmanned Vehicle Systems-Oman(UVS).IEEE,1-6.
Bialas J,Oommen T,Rebbapragada U, et al.2016.Object-based classification of earthquake damage from high-resolution optical imagery using machine learning[J].Journal of Applied Remote Sensing,10(3):036025.
Bochkovskiy A,Wang C Y,Liao H Y M.2020.Yolov4:Optimal speed and accuracy of object detection[J].arXiv preprint arXiv:2004.10934.
Cheng L,Li J,Duan P, et al.2021a.A small attentional YOLO model for landslide detection from satellite remote sensing images[J].Landslides,18(8):2751-2765.
Cheng Z,Gong W,Tang H, et al.2021b.UAV photogrammetry-based remote sensing and preliminary assessment of the behavior of a landslide in Guizhou,China[J].Engineering Geology,289:106172.
Everingham M,Van Gool L,Williams C K I, et al.2010.The pascal visual object classes(voc)challenge[J].International journal of computer vision,88(2):303-338.
He K,Zhang X,Ren S, et al.2015.Spatial pyramid pooling in deep convolutional networks for visual recognition[J].IEEE transactions on pattern analysis and machine intelligence,37(9):1904-1916.
Howard A G,Zhu M,Chen B, et al.2017.Mobilenets:Efficient convolutional neural networks for mobile vision applications[J].arXiv preprint arXiv,doi:10.48550/arXiv.1704.04861.
Howard A,Sandler M,Chu G, et al.2019.Searching for MobileNetv3[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision,1314-1324.
Huang Y,Zhao L.2018.Review on landslide susceptibility mapping using support vector machines[J].Catena,165:520-529.
Kavzoglu T,Colkesen I,Sahin E K.2019.Machine learning techniques in landslide susceptibility mapping:a survey and a case study[J].Landslides:Theory,practice and modelling,283-301,doi:10.10071978-3-319-77377-3-13.
Keyport R N,Oommen T,Martha T R, et al.2018.A comparative analysis of pixel-and object-based detection of landslides from very high-resolution images[J].International journal of applied earth observation and geoinformation,64:1-11.
Lin T Y,Goyal P,Girshick R, et al.2017.Focal loss for dense object detection[C]//Proceedings of the IEEE international conference on computer vision,2980-2988.
Liu W,Anguelov D,Erhan D, et al.2016.Ssd:Single shot multibox detector[C]//European conference on computer vision.Springer,Cham,21-37.
Micheletti N,F(xiàn)oresti L,Robert S, et al.2014.Machine learning feature selection methods for landslide susceptibility mapping[J].Mathematical geosciences,46(1):33-57.
Redmon J,Divvala S,Girshick R, et al.2016.You only look once:Unified,real-time object detection[C]//Proceedings of the IEEE conference on computer vision and pattern recognition,779-788.
Redmon J,F(xiàn)arhadi A.2018.Yolov3:An incremental improvement[J].arXiv preprint arXiv:1804.02767.
Ren S,He K,Girshick R, et al.2015.Faster r-cnn:Towards real-time object detection with region proposal networks[J].Advances in neural information processing systems,doi:10.48550/arXiv.1506.01497.
Tien B D,Ho T C,Revhaug I, et al.2014.Landslide susceptibility mapping along the national road 32 of Vietnam using GIS-based J48 decision tree classifier and its ensembles[M]//Cartography from pole to pole.Springer,Berlin,Heidelberg,303-317.
Wang C Y,Liao H Y M,Wu Y H, et al.2020.CSPNet:A new backbone that can enhance learning capability of CNN[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition workshops,390-391.
Wang D,He D.2019.Recognition of apple targets before fruits thinning by robot based on R-FCN deep convolution neural network[J].Trans Chin Soc Agric Eng,35:156-163.
Landslide Recognition After the 2021 Haiti? MS7.2 Earthquake Basedon the Improved YOLOv4 Algorithm
FU Rao1,HE Jing1,LIU Gang1,2
(1.School of Earth Sciences,Chengdu University of Technology,Chengdu 610059,Sichuan,China)(2.State Key Laboratory of Geological Disaster Prevention and Geological Environment Protection,Chengdu University of Technology,Chengdu 610059,Sichuan,China)
Abstract
Rapid identification of seismic landslides is important for emergency rescue and loss assessment.On August 14th,2021,a 7.2-magnitude earthquake occurred in Haiti,inducing a large number of landslides.In this paper,the improved YOLOv4 algorithm is used to identify the landslides induced by the Haiti MS7.2 Earthquake using the domestically produced high-fraction 2 images as the data source.To improve the recognition efficiency of the model,the backbone network CSPDarknet53 of Yolov4 is replaced with MobileNetv3,and the ordinary convolution in the YOLOv4 is replaced with depth-separable convolution to optimize the model parameters and network structure.The improved YOLOv4 algorithm achieves 91.37% of the accuracy of target recognition,6.19 f/s(5.24%)higher than the detection speed of the normal YOLOv4,providing more reliable data for emergency rescue and disaster assessment.
Keywords:the YOLOv4 algorithm;the Haiti Earthquake;landslide identification;high resolution image
收稿日期:2022-04-29.
基金項(xiàng)目:國(guó)家重點(diǎn)研發(fā)計(jì)劃課題(2021YFC3000401);國(guó)家自然科學(xué)基金項(xiàng)目(41871303);地質(zhì)災(zāi)害防治與地質(zhì)環(huán)境保護(hù)國(guó)家重點(diǎn)實(shí)驗(yàn)室項(xiàng)目(SKLGP2018Z010);四川省科技計(jì)劃項(xiàng)目(2021YFG0365);四川省自然資源廳(kj-2021-3);成都市技術(shù)創(chuàng)新研發(fā)項(xiàng)目(2022-YF05-01090-SN);成都理工大學(xué)研究生質(zhì)量工程項(xiàng)目(2022YJG022).
第一作者簡(jiǎn)介:付 饒(2000-),碩士研究生在讀,主要從事遙感圖像處理、目標(biāo)識(shí)別方面研究.E-mail:2276220889@qq.com.
通訊作者簡(jiǎn)介:何 敬(1983-),博士,副教授,主要從事無(wú)人機(jī)影像處理、傾斜三維建模及遙感目標(biāo)自動(dòng)識(shí)別等方面研究.E-mail:xiao00yao@163.com.
付饒,何敬,劉剛.2023.基于改進(jìn)YOLOv4的2021年海地7.2級(jí)地震震后滑坡識(shí)別[J].地震研究,46(2):300-307,doi:10.20015/j.cnki.ISSN1000-0666.2023.0012.