李怡靜,程浩東,李火坤,王 姣,胡 強(qiáng)
(1.南昌大學(xué)工程建設(shè)學(xué)院,江西 南昌 330036; 2.江西省水利科學(xué)院,江西 南昌 330029)
堤防是水利工程中重要的擋水建筑物,是保障經(jīng)濟(jì)和社會(huì)發(fā)展的基礎(chǔ)設(shè)施之一。堤防在施工和后期運(yùn)行過程中容易出現(xiàn)開裂的情況,獲取裂縫形態(tài)可為維護(hù)堤防的結(jié)構(gòu)健康提供依據(jù),是保障堤防安全運(yùn)行的重要措施[1]。
傳統(tǒng)的結(jié)構(gòu)裂縫檢測主要由人工完成,結(jié)果受檢測人員的主觀影響,且耗時(shí)費(fèi)力,也存在一定的安全隱患,在有通行要求的堤防還會(huì)對交通產(chǎn)生影響。因此如何便捷高效且準(zhǔn)確地對裂縫進(jìn)行檢測,以便維修人員對裂縫選擇最佳的養(yǎng)護(hù)策略和維修措施,提高堤防監(jiān)測和養(yǎng)護(hù)的自動(dòng)化水平,是亟待解決的問題。利用無人機(jī)遙感攝影技術(shù)可以方便快捷地獲取大區(qū)域影像數(shù)據(jù),再結(jié)合圖像處理方法從影像中識(shí)別和獲取裂縫信息,可大幅度提高檢測效率[2-3]。
傳統(tǒng)的影像裂縫檢測利用裂縫和背景的灰度值差異或采用機(jī)器學(xué)習(xí)與數(shù)字圖像處理方法實(shí)現(xiàn)裂縫識(shí)別[4-7],這需要人工設(shè)定參數(shù),降低了檢測的自動(dòng)化水平和檢測方法的普適性,且堤防上存在較多干擾噪聲,如光線、雜草、水漬、路面標(biāo)記和碎片等,會(huì)對檢測效果產(chǎn)生影響。近年來流行的深度學(xué)習(xí)方法具有更強(qiáng)的識(shí)別能力,利用深度學(xué)習(xí)方法進(jìn)行裂縫檢測受到了廣泛關(guān)注。識(shí)別裂縫的深度學(xué)習(xí)方式可分為篩選、檢測和提取3類,其中裂縫篩選是對圖像中是否含有裂縫進(jìn)行區(qū)分[8];裂縫檢測是確定圖像中是否含有裂縫,并將裂縫的大致位置或種類標(biāo)注出來[9];裂縫提取是從復(fù)雜的背景中將每個(gè)像素分類為裂縫像素或非裂縫像素,從而獲取整個(gè)裂縫的輪廓,目的是準(zhǔn)確提取裂縫并進(jìn)行特征量化[10-11]。裂縫篩選和檢測只能實(shí)現(xiàn)裂紋的分類和粗略定位,而裂縫提取能為堤防裂縫評估提供直觀和準(zhǔn)確的依據(jù)。為提高裂縫提取的精度,張紫杉等[12]利用U-Net實(shí)現(xiàn)了對高陡邊坡裂隙的智能識(shí)別;Dung等[13]使用深度卷積網(wǎng)絡(luò)VGG(visual geometry group network)作為全卷積網(wǎng)絡(luò)(fully connected network, FCN)的主干對整個(gè)編碼器-解碼器結(jié)構(gòu)進(jìn)行端到端訓(xùn)練,訓(xùn)練、驗(yàn)證和測試集的綜合評價(jià)指標(biāo)和平均精度均可達(dá)到約90%;Park等[9]基于YOLOv3-tiny算法,利用結(jié)構(gòu)光原理建立了一套裂縫檢測和量化系統(tǒng);Kumar等[14]基于Mask R-CNN實(shí)現(xiàn)了檢測和分割不同類型的裂縫,便于對不同種類的裂縫采取有效的預(yù)測措施;Zou等[15]在SegNet[16]的編碼器-解碼器架構(gòu)基礎(chǔ)上構(gòu)建了DeepCrack模型,使用端到端可訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)來學(xué)習(xí)裂紋特征,取得了較好的提取結(jié)果;Liu等[4]設(shè)計(jì)了一種路面裂縫檢測與分割方法,使用改進(jìn)的YOLOv3-tiny算法檢測圖像中的裂縫,使用改進(jìn)的U-Net對檢測圖像中的裂縫進(jìn)行分割,所提出的兩階段式的裂縫檢測方法具有較高的精度;Li等[17]提出了一種基于FCN的混凝土損傷檢測方法,可以用于檢測裂縫、剝落、風(fēng)化和孔洞4種混凝土損傷;Feng等[18]根據(jù)SegNet結(jié)構(gòu)的特點(diǎn)提出了一種大壩表面裂縫檢測模型(crack detection on dam surface ,CDDS)用于大壩裂縫的像素級檢測,其效果優(yōu)于SegNet、U-Net和FCN。
上述裂縫檢測模型通過基于圖像分類模型的主干,例如VGG、ResNet、DenseNet等,來解決裂縫區(qū)域的篩選和提取問題,但這些模型主干不是專門為了語義分割而提出的,因此模型對局部細(xì)節(jié)與全局對比度關(guān)注不夠,在裂縫檢測中無法獲得滿意的語義分割結(jié)果。U2-Net[19]是一種語義分割模型,其特有的殘差塊(residual U-blocks,RSU)具有捕捉多尺度信息的能力,在一定程度上可以彌補(bǔ)常用的語義分割模型對局部細(xì)節(jié)與全局對比度關(guān)注不夠的問題,且不依賴于現(xiàn)存的任何分類網(wǎng)絡(luò)主干。堤防具有距離長、面積大的特點(diǎn),利用無人機(jī)采集影像檢測裂縫可提高工作效率。針對無人機(jī)影像中的堤防裂縫特征不明顯和背景存在大量噪聲的問題,本文使用擴(kuò)張卷積(atrous convolution,AC)和深度可分離卷積(depthwise separable convolutions,DSC)對U2-Net原有的RSU進(jìn)行改進(jìn),提出了新的殘差塊ADS-RSU,基于ADS-RSU構(gòu)建了語義分割模型U2-ADSNet,通過遷移學(xué)習(xí)對模型進(jìn)行訓(xùn)練后采用切片預(yù)測實(shí)現(xiàn)了對大尺度無人機(jī)影像中的堤防裂縫的像素級檢測。
1.1.1DSC與AC
DSC的思想于2014年提出[20],經(jīng)過改進(jìn)之后被應(yīng)用于Xception和 MobileNets等深度學(xué)習(xí)模型中。普通卷積同時(shí)提取特征圖的區(qū)域信息和通道信息,DSC將區(qū)域信息和通道信息分開進(jìn)行學(xué)習(xí),這種方式有助于模型在區(qū)域和通道之間建立新的連接,更好地學(xué)習(xí)堤防裂縫特征,提高裂縫檢測性能。
為減弱下采樣帶來的細(xì)節(jié)特征丟失,本文利用AC提高語義分割模型的準(zhǔn)確性,可以擴(kuò)大卷積時(shí)的感受野,又不會(huì)降低分辨率,從而提升語義分割的精度。
1.1.2改進(jìn)的ADS-RSU
為減弱下采樣帶來的細(xì)節(jié)特征丟失,提升對裂縫分割的效果,同時(shí)降低訓(xùn)練成本,在RSU的基礎(chǔ)上,ADS-RSU利用DSC替換各層的普通卷積,并在DSC的第一步深度卷積使用AC代替。圖1為ADS-RSU內(nèi)部改進(jìn)細(xì)節(jié)。
圖1 ADS-RSU內(nèi)部改進(jìn)示意圖
U2-Net是2020年國際計(jì)算機(jī)視覺與模式識(shí)別會(huì)議(CVPR)提出用于顯著對象檢測的深度模型結(jié)構(gòu),其特有的RSU可以獲取圖像不同尺度的信息,在增加網(wǎng)絡(luò)深度的同時(shí)不顯著增加計(jì)算復(fù)雜度。該模型對輪廓的提取效果表現(xiàn)優(yōu)秀,其外層主要結(jié)構(gòu)類似U-Net,通過底層的RSU來提取多尺度特征。
受此模型結(jié)構(gòu)的啟發(fā),本文以ADS-RSU為基礎(chǔ)架構(gòu)構(gòu)建了語義分割模型U2-ADSNet。圖2為 U2-ADSNet模型構(gòu)架,為兩級鑲嵌的U形結(jié)構(gòu),外層為大U形結(jié)構(gòu),每個(gè)立方體代表一層,左側(cè)為編碼層,右側(cè)為解碼層,由ADS-RSU填充,一共有11層。網(wǎng)絡(luò)結(jié)構(gòu)分為編碼模塊(En_1~En_6)、解碼模塊(De_1~De_5)和特征融合模塊(Side_1~Side_6)3個(gè)主要部分。網(wǎng)絡(luò)體系結(jié)構(gòu)建立在ADS-RSU上,不需要任何預(yù)訓(xùn)練主干即可適應(yīng)不同的應(yīng)用環(huán)境。此外U2-ADSNet在具有較深的網(wǎng)絡(luò)架構(gòu)的同時(shí)可以保持較低的訓(xùn)練成本。
無人機(jī)可以便捷地獲取大范圍堤防影像,本文基于U2-ADSNet實(shí)現(xiàn)了無人機(jī)影像中的堤防裂縫快速檢測。
無人機(jī)影像的堤防裂縫檢測流程(圖3)如下:基于U2-ADSNet,通過制作裂縫分割數(shù)據(jù)集和遷移學(xué)習(xí),利用裂縫開源數(shù)據(jù)集和少量堤防裂縫樣本,實(shí)現(xiàn)無人機(jī)影像中堤防裂縫的特征學(xué)習(xí)。最后,在預(yù)測階段采用切片預(yù)測實(shí)現(xiàn)大范圍的堤防裂縫檢測,利用連通區(qū)域搜索去除可能的誤檢。
圖3 無人機(jī)影像堤防裂縫檢測流程
深度學(xué)習(xí)需要進(jìn)行大量的樣本訓(xùn)練,而人工制作樣本數(shù)據(jù)集效率低下。針對缺乏無人機(jī)航拍圖裂縫樣本的問題,利用遷移學(xué)習(xí)機(jī)制,利用大眾攝影圖像的公共數(shù)據(jù)集和少量無人機(jī)影像數(shù)據(jù)進(jìn)行特征學(xué)習(xí),既可以提高檢測精度又可大大降低訓(xùn)練成本。
本文采用遷移學(xué)習(xí)方法中使用最普遍的的模型參數(shù)遷移進(jìn)行深度學(xué)習(xí),其主要思想是使目標(biāo)域共享源域的模型參數(shù)[21],實(shí)現(xiàn)方法是先利用源數(shù)據(jù)對模型進(jìn)行預(yù)訓(xùn)練,然后通過對預(yù)訓(xùn)練模型共性特征復(fù)用的方法對目標(biāo)數(shù)據(jù)進(jìn)行訓(xùn)練,而無需從零開始訓(xùn)練模型,能夠加快模型收斂速度,降低訓(xùn)練成本。
由于卷積神經(jīng)網(wǎng)絡(luò)計(jì)算復(fù)雜且運(yùn)算量大,為了降低訓(xùn)練時(shí)硬件負(fù)擔(dān),訓(xùn)練模型所用的圖片尺寸往往較小,但實(shí)際應(yīng)用場景的影像尺寸遠(yuǎn)大于訓(xùn)練數(shù)據(jù)集中的圖片,而裂縫在圖片中占的比例較小,直接用于模型預(yù)測,裂紋被網(wǎng)絡(luò)識(shí)別的機(jī)會(huì)較小,甚至無法識(shí)別。為了解決這個(gè)問題,本文采用切片預(yù)測方式,通過對大尺寸圖片進(jìn)行切片分割,分塊送入訓(xùn)練好的模型,自動(dòng)對影像進(jìn)行分塊預(yù)測。圖4為切片預(yù)測效果,很明顯使用了切片預(yù)測之后的結(jié)果更加精確。
圖4 切片預(yù)測示意圖
在切片之前先按照無人機(jī)飛行方向根據(jù)影像的重疊部分對堤防影像進(jìn)行拼接,得到完整的堤防影像。影像拼接采用OpenCV庫的Stitcher類。經(jīng)過大量的試驗(yàn),得到切片合適的尺寸應(yīng)接近神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)實(shí)際輸入的大小,切片過大則無法檢測出裂縫,過小會(huì)出現(xiàn)大量干擾。
實(shí)際應(yīng)用場景下環(huán)境復(fù)雜多變,難免會(huì)出現(xiàn)一些模型無法準(zhǔn)確識(shí)別的特征,預(yù)測得到的二值圖片含有一定的噪聲,采用連通域特征來進(jìn)行裂縫提純。
結(jié)合裂縫形態(tài)特征,4鄰域連通會(huì)影響裂縫標(biāo)記的準(zhǔn)確性,因此整合了8鄰域連通規(guī)則進(jìn)行裂縫提純。U2-ADSNet預(yù)測結(jié)果中偶爾會(huì)出現(xiàn)白點(diǎn)噪聲,其像素基本在1 000以下,均遠(yuǎn)小于裂縫實(shí)際像素。經(jīng)過試驗(yàn),設(shè)置500~1 000之間的閾值均可過濾掉白點(diǎn)噪聲。
試驗(yàn)數(shù)據(jù)集1來源武漢市新洲區(qū)一處長江堤壩段實(shí)地采集的影像數(shù)據(jù),采集設(shè)備為大疆精靈4pro,飛行高度20 m,相機(jī)型號FC6310R。數(shù)據(jù)集1包含了一些具有代表性的裂縫類型和復(fù)雜背景,樣例如圖5所示。從無人機(jī)影像中手動(dòng)截取165張227×227像素的圖片,標(biāo)注了所有標(biāo)簽,經(jīng)過隨機(jī)旋轉(zhuǎn)和裁剪操作擴(kuò)展到2 000張,其中裂紋圖片和非裂紋圖片各1 000張,并隨機(jī)挑選70%用于訓(xùn)練,10%用于驗(yàn)證,20%用于測試。
圖5 數(shù)據(jù)集1樣例
數(shù)據(jù)集2來自用于混凝土裂縫分類的開源數(shù)據(jù)集[22],圖片為布達(dá)佩斯城市大學(xué)(METU)的各個(gè)校園建筑表面裂縫,包括裂紋圖片和非裂紋圖片兩類,大小為227×227像素,每個(gè)類別有2萬張圖片,總共4萬張圖片。本文從該開源數(shù)據(jù)集中隨機(jī)挑選了420張圖片,人工進(jìn)行了標(biāo)注,然后隨機(jī)旋轉(zhuǎn)和裁剪擴(kuò)展到了4 000張,其中裂紋圖片和非裂紋圖片各2 000張,部分樣本如圖6所示。
圖6 數(shù)據(jù)集2樣例
本文的裂縫檢測屬于語義分割中的二分類問題,選用正確率、精確率、召回率和交并比對預(yù)測結(jié)果進(jìn)行評估。正確率、精確率、召回率和交并比計(jì)算公式分別為
Iacc=(Xtp+Xtn)/(Xtp+Xtn+Xfp+Xfn) (1)
Ipr=Xtp/(Xtp+Xfp)
(2)
Ire=Xtp/(Xtp+Xfn)
(3)
Iou=Xtp/(Xtp+Xfp+Xfn)
(4)
F1=2IprIre/(Ipr+Ire)
(5)
式中:Iacc、Ipr、Ire、Iou分別為正確率、精確率、召回率和交并比;F1為綜合評價(jià)指標(biāo),越接近1說明模型性能越好;Xtp為模型正確分割為“裂縫”的像素?cái)?shù);Xtn為模型正確分割為“非裂縫”的像素?cái)?shù);Xfn為模型錯(cuò)誤分割為““非裂縫”的“裂縫”像素?cái)?shù);Xfp為模型錯(cuò)誤分割為“裂縫”的“非裂縫”像素?cái)?shù)。
試驗(yàn)基于PyTorch 1.7.1,計(jì)算機(jī)CPU為英特爾 i7 10700(32GB RAM),GPU為英偉達(dá)RTX4000(8GB)。
FCN、SegNet和U-Net為語義分割領(lǐng)域常用的模型,其中本文試驗(yàn)采用的FCN為FCN16,主干基于VGG16網(wǎng)絡(luò),編碼部分分別使用了VGG16特征提取部分的第0到第15層、第17到第22層和第24到第29層;SegNet的主干編碼部分使用了VGG16特征提取部分的第0到第4層、第5到第9層、第10到第16層、第17到第23層和第24到第30層。DeepCrack為最近提出的一種主要用于路面裂縫檢測的模型,該模型在SegNet的基礎(chǔ)上構(gòu)建,融合了SegNet的5層特征。
在數(shù)據(jù)集1上進(jìn)行對比試驗(yàn),所有模型在訓(xùn)練時(shí)首先將輸入的圖片尺寸放大到320×320像素,然后隨機(jī)裁剪到288×288像素送入網(wǎng)絡(luò)進(jìn)行訓(xùn)練,均使用Adam優(yōu)化器,超參數(shù)設(shè)置如下:訓(xùn)練次數(shù)為100,批量為4,學(xué)習(xí)率為10-3。圖7為訓(xùn)練過程中6種模型的訓(xùn)練損失和驗(yàn)證損失。
圖7 6種網(wǎng)絡(luò)在數(shù)據(jù)集1上的訓(xùn)練和驗(yàn)證損失
由圖7可以看出U2-ADSNet在訓(xùn)練初期具有更快的收斂速度,和其他模型相比,在訓(xùn)練次數(shù)相同的情況下?lián)p失最小。各個(gè)模型訓(xùn)練次數(shù)到100時(shí)的損失曲線已經(jīng)十分平穩(wěn)且緩慢,將此時(shí)的訓(xùn)練結(jié)果在數(shù)據(jù)集1的測試集上進(jìn)行了對比,獲得6種模型的試驗(yàn)結(jié)果如圖8和圖9所示,可以明顯看出U2-Net和U2-ADSNet具有顯著的優(yōu)勢。在一些細(xì)節(jié)方面,U2-Net則沒有U2-ADSNet表現(xiàn)得好,U2-ADSNet可以更好地提取裂縫細(xì)節(jié)特征,同時(shí)也能更好地過濾噪聲,但是也存在一定程度的誤識(shí)別,如圖10(c)所示。
圖8 不同模型在數(shù)據(jù)集1裂縫圖片上的表現(xiàn)
圖9 不同模型在數(shù)據(jù)集1非裂縫圖片上的表現(xiàn)
圖10 U2-ADSNet識(shí)別失敗案例
FCN16分割失敗的主要原因在于模型結(jié)構(gòu)簡單,其最終的分割結(jié)果由最底層特征圖上采樣2倍后與第4層最大池化后的特征圖相加,然后再上采樣16倍得到,較大的上采樣會(huì)損失細(xì)節(jié)信息。SegNet記錄最大池化時(shí)最大數(shù)值的位置,在上采樣時(shí)能更好地還原,但是其性能的提升主要在速度上。U-Net在背景較為簡單的醫(yī)學(xué)圖像表現(xiàn)良好,難以適應(yīng)部分堤防裂縫特征不明顯、背景復(fù)雜的情況。DeepCrack相比SegNet有一定提升,但是在堤防裂縫檢測上仍然存在不足。
U2-ADSNet采用改進(jìn)的ADS-RSU殘差結(jié)構(gòu),相比U2-Net較為精確,誤識(shí)別主要存在于特征不明顯或者與裂縫特征極為相似的區(qū)域。如圖10所示,在裂縫識(shí)別方面,一些清晰度不夠或者特征不明顯的裂縫仍然存在識(shí)別誤差,提升無人機(jī)航測攝像頭的清晰度有望提高識(shí)別精度;在背景噪聲過濾方面,一些表面破損但沒有裂縫的情況下會(huì)存在一定的噪點(diǎn),其形態(tài)與裂縫存在差異,可在后處理中去除。
表 1為各個(gè)模型在數(shù)據(jù)集1 測試集上的表現(xiàn),其中浮點(diǎn)運(yùn)算量、乘加運(yùn)算量和模型參數(shù)量的數(shù)值越大代表模型越復(fù)雜,訓(xùn)練時(shí)間和測試時(shí)間越長代表模型訓(xùn)練成本越高。由表1可見,U2-Net和U2-ADSNet的正確率(Iacc)、精確率Ipr、召回率Ire、交并比(Iou)和綜合評價(jià)指標(biāo)(F1)均優(yōu)于前4種模型。相比U2-Net,U2-ADSNet的精確率略微下降,但召回率、交并比和綜合評價(jià)指標(biāo)均有所提高。
表1 不同模型評價(jià)指標(biāo)、模型參數(shù)量和訓(xùn)練成本對比
受標(biāo)注工具的限制,一些裂縫內(nèi)部的細(xì)微噪聲(實(shí)際為裂縫)無法手動(dòng)準(zhǔn)確標(biāo)注。U2-ADSNet因?yàn)槭褂肁C增大了卷積層感受野,將裂縫內(nèi)部細(xì)微噪聲歸類為裂縫,而評價(jià)指標(biāo)是基于手動(dòng)注釋的標(biāo)簽統(tǒng)計(jì)的,這就導(dǎo)致U2-ADSNet的正確率和精確率相比U2-Net有略微降低。由于裂縫外部輪廓更加精細(xì),帶來交并比提高。雖然精確率下降了3.07個(gè)百分點(diǎn),但召回率提升了近5個(gè)百分點(diǎn),綜合評價(jià)指標(biāo)的提升則體現(xiàn)了U2-ADSNet對裂縫的識(shí)別具有更好的性能。
由表1可以得出,U2-ADSNet在浮點(diǎn)運(yùn)算量、乘加運(yùn)算量和模型參數(shù)量上,相比其他模型具有明顯優(yōu)勢,測試時(shí)間遠(yuǎn)少于前3種模型,與U2-Net幾乎無差別,訓(xùn)練時(shí)間相比U2-Net下降了11.44%,表明本文提出的U2-ADSNet在實(shí)際應(yīng)用階段易于訓(xùn)練。
試驗(yàn)表明,U2-ADSNet在召回率、交并比和綜合評價(jià)指標(biāo)等方面均優(yōu)于U2-Net,訓(xùn)練時(shí)間和網(wǎng)絡(luò)的計(jì)算量上也具有明顯優(yōu)勢,這表明ADS-RSU有助于網(wǎng)絡(luò)更好地學(xué)習(xí)并更準(zhǔn)確地分割對象,在堤防的裂縫分割任務(wù)中更具有優(yōu)勢。
為了檢驗(yàn)U2-ADSNet在實(shí)際場景下的表現(xiàn),在數(shù)據(jù)集2上先對模型進(jìn)行預(yù)訓(xùn)練,確定最優(yōu)的遷移學(xué)習(xí)策略,以便后續(xù)用少量無人機(jī)樣本數(shù)據(jù)實(shí)現(xiàn)堤防裂縫的檢測。在預(yù)測階段采用切片預(yù)測(切片為288×288像素),并進(jìn)行裂縫提純。
神經(jīng)網(wǎng)絡(luò)靠近輸入端的卷積層一般提取圖像的通用特征,因此通過5次試驗(yàn)確定預(yù)訓(xùn)練的U2-ADSNet編碼層效果最優(yōu)加載層,5次試驗(yàn)訓(xùn)練過程中的損失曲線對比如圖11所示(圖中“遷移En_1”代表加載預(yù)訓(xùn)練 的U2-ADSNet特征提取層的第1層,“遷移En_1-2”代表加載預(yù)訓(xùn)練 的U2-ADSNet特征提取層的第1到第2層(即前兩層),其他以此類推)。
圖11 不同遷移學(xué)習(xí)策略下的訓(xùn)練損失
由圖11可見,采用遷移學(xué)習(xí)策略后模型在訓(xùn)練次數(shù)相同的情況下,損失更小,表2為U2-ADSNet采用5種不同遷移學(xué)習(xí)策略在數(shù)據(jù)集1測試集上的性能對比。
表2 U2-ADSNet采用不同遷移學(xué)習(xí)策略的性能對比 單位:%
由表2可知,只加載第1層預(yù)訓(xùn)練參數(shù)(遷移En_1)得到的遷移學(xué)習(xí)模型效果最優(yōu),可以在降低訓(xùn)練成本的同時(shí)進(jìn)一步提高模型的效率和精度,因此實(shí)際場景的應(yīng)用使用此種遷移學(xué)習(xí)策略。圖12為遷移學(xué)習(xí)U2-ADSNet和深度學(xué)習(xí)中常用的裂縫檢測方法無人機(jī)影像預(yù)測結(jié)果對比(無人機(jī)影像的高度為4 864像素,寬度為3 648像素,每張圖選擇兩個(gè)細(xì)節(jié)展示,分別用紅色和綠色標(biāo)記)。
圖12 不同模型無人機(jī)影像預(yù)測結(jié)果對比
FCN、SegNet和U-Net的預(yù)測結(jié)果僅能預(yù)測裂縫的位置分布,對裂縫細(xì)節(jié)信息預(yù)測較差而且沒有完全過濾背景區(qū)域。DeepCrack預(yù)測的結(jié)果雖然有一定提升但是仍然不夠理想。U2-Net的預(yù)測效果有所提升,但是不能完全預(yù)測出圖像1中微小裂縫。遷移學(xué)習(xí)U2-ADSNet對背景區(qū)域的噪聲具有較好的過濾效果,可以準(zhǔn)確預(yù)測大多數(shù)裂縫,但是也存在部分伸縮縫被誤識(shí)別為裂縫的情況,如對圖像1的預(yù)測結(jié)果。
a.從數(shù)據(jù)集1的測試結(jié)果來看,U2-ADSNet的模型參數(shù)量、評價(jià)指標(biāo)和預(yù)測效果均優(yōu)于FCN、SegNet、U-Net和DeepCrack,相比U2-Net也有一定的提升;U2-ADSNet比U2-Net對細(xì)微裂縫的檢測效果更好,說明本文提出的語義分割模型U2-ADSNet具有一定優(yōu)勢。
b.以ADS-RSU為基礎(chǔ)構(gòu)建的U2-ADSNet具有U2-Net優(yōu)點(diǎn),同時(shí)降低了模型參數(shù)量,提升了模型感受野和學(xué)習(xí)能力,相比U2-Net在數(shù)據(jù)集1上的訓(xùn)練時(shí)間縮短了約24 min,有效地降低了訓(xùn)練成本。
c.使用U2-ADSNet在開源數(shù)據(jù)集2上的預(yù)訓(xùn)練參數(shù)后,可大大降低模型在應(yīng)用時(shí)的訓(xùn)練和標(biāo)注成本。由于沒有開源的堤防裂縫數(shù)據(jù)集,為了達(dá)到精確的檢測效果,仍需手動(dòng)標(biāo)注少量堤防裂縫樣本進(jìn)行訓(xùn)練。
d.從無人機(jī)影像端到端的檢測效果來看,U2-ADSNet對堤防背景過濾和裂縫細(xì)節(jié)信息的預(yù)測方面具有更好的效果,可以快速實(shí)現(xiàn)大范圍的裂縫檢測,無需進(jìn)行煩瑣的預(yù)處理。
為有效實(shí)現(xiàn)堤防表面裂縫信息的快速獲取,本文提出了一種U2-ADSNet語義分割模型與遷移學(xué)習(xí)結(jié)合的裂縫檢測方法。U2-ADSNet通過將AC和DSC融入ADS-RSU,降低了模型的計(jì)算量,增大了感受野,提升了模型對微小裂縫的預(yù)測效果;遷移學(xué)習(xí)降低了訓(xùn)練成本,提升了識(shí)別精確率;切片預(yù)測實(shí)現(xiàn)了大范圍無人機(jī)影像的裂縫檢測;使用裂縫的連通域特征來進(jìn)行后處理,降低了結(jié)果中的噪聲。與FCN、SegNet、U-Net、DeepCrack和U2-Net的試驗(yàn)對比結(jié)果表明,U2-ADSNet在交并比、綜合評價(jià)指標(biāo)和召回率上均為最優(yōu),分別為77.77%、87.24%和88.37%。本文方法對于其他地方的裂縫也具有檢測能力,但尚存在與裂縫特征相近的噪聲被誤識(shí)別的問題,后續(xù)研究將針對部分混凝土伸縮縫被誤識(shí)別為裂縫這一問題進(jìn)行改進(jìn),并擴(kuò)充堤防裂縫數(shù)據(jù)集,提升識(shí)別精度。