崔廣炎,王艷輝,3,4,徐 杰,丁冠軍,秦湘怡,任秋陽(yáng)
(1.北京交通大學(xué) 先進(jìn)軌道交通自主運(yùn)行全國(guó)重點(diǎn)實(shí)驗(yàn)室,北京 100044;2.北京交通大學(xué) 交通運(yùn)輸學(xué)院,北京 100044;3.北京交通大學(xué) 北京市城市交通信息智能感知與服務(wù)工程技術(shù)研究中心,北京 100044;4.北京交通大學(xué) 城市軌道交通運(yùn)營(yíng)安全管理技術(shù)及裝備交通運(yùn)輸行業(yè)研發(fā)中心,北京 100044)
隧道開(kāi)裂、滲漏水、老化、沉降、鋼筋缺失等一系列突出問(wèn)題嚴(yán)重危害公路、鐵路隧道的運(yùn)營(yíng)安全,因此對(duì)隧道基礎(chǔ)設(shè)施質(zhì)量的定期檢測(cè)和維護(hù)勢(shì)在必行。對(duì)于一些無(wú)法直接從表面觀察且十分隱蔽、復(fù)雜的缺陷問(wèn)題,使用常規(guī)的檢測(cè)手段通常難以達(dá)到效果[1]。針對(duì)這類(lèi)隱蔽缺陷問(wèn)題,常使用無(wú)損檢測(cè)技術(shù)進(jìn)行解決,其中探地雷達(dá)因其高效、便捷、分辨率強(qiáng)等優(yōu)勢(shì)在隧道、橋梁、路基、路面、大壩等基礎(chǔ)設(shè)施質(zhì)量安全檢測(cè)領(lǐng)域得以廣泛應(yīng)用,且探地雷達(dá)對(duì)于基礎(chǔ)設(shè)施內(nèi)部的孤立體目標(biāo)檢測(cè)效果尤為顯著。在探地雷達(dá)剖面圖像中,孤立體目標(biāo)的雷達(dá)圖像特征呈現(xiàn)離散分布狀態(tài),其雷達(dá)圖像特征的尺寸面積較小且一般呈開(kāi)口向下的半雙曲線形狀,對(duì)于具有此類(lèi)特征的實(shí)心體目標(biāo)可將其定義為離散實(shí)體目標(biāo)。最為典型的離散實(shí)體目標(biāo)如隧道襯砌結(jié)構(gòu)中的鋼筋、拱架等,離散實(shí)體目標(biāo)的缺失直接危害隧道襯砌的質(zhì)量安全,因此隧道工程領(lǐng)域常將襯砌內(nèi)部鋼筋和拱架的數(shù)量和位置檢測(cè)作為驗(yàn)收指標(biāo)。
盡管地質(zhì)雷達(dá)無(wú)損檢測(cè)技術(shù)能夠?qū)λ淼酪r砌中的離散實(shí)體目標(biāo)進(jìn)行有效檢測(cè)[2],然而常規(guī)的雷達(dá)圖像人工解譯方法因主觀性強(qiáng)、費(fèi)時(shí)費(fèi)力等缺點(diǎn)限制了地質(zhì)雷達(dá)在隧道襯砌無(wú)損檢測(cè)領(lǐng)域的進(jìn)一步發(fā)展。面對(duì)這一卡脖子問(wèn)題,眾多科研技術(shù)者嘗試?yán)矛F(xiàn)有人工智能技術(shù)進(jìn)行雷達(dá)圖像的自動(dòng)解譯研究。就目前來(lái)看,其研究思路主要分為兩個(gè)方面,一種是以原始雷達(dá)數(shù)據(jù)為基礎(chǔ),利用機(jī)器學(xué)習(xí)算法進(jìn)行數(shù)據(jù)預(yù)處理、特征提取和模式識(shí)別進(jìn)而實(shí)現(xiàn)目標(biāo)的自動(dòng)檢測(cè),該方法可以很好地利用地質(zhì)雷達(dá)其特有成像原理并充分發(fā)揮數(shù)據(jù)的優(yōu)勢(shì),然而其難以實(shí)現(xiàn)對(duì)目標(biāo)體的精準(zhǔn)定位且解譯效率較低。王艷輝等[3-4]提出一套基于遺傳算法的隧道襯砌雷達(dá)剖面數(shù)據(jù)中多目標(biāo)體自動(dòng)檢測(cè)的算法,實(shí)現(xiàn)了對(duì)仿真數(shù)據(jù)及實(shí)測(cè)數(shù)據(jù)中鋼筋、管線及小型空洞的自動(dòng)檢測(cè)。周熙人等[5]提出一種GPR-B掃描圖像自動(dòng)解譯模型來(lái)檢測(cè)埋藏管線,該算法可實(shí)現(xiàn)對(duì)管線半徑和埋深的預(yù)測(cè),但是該算法處理流程較為煩瑣且受雷達(dá)圖像分辨率影響較大。
除此之外,另一種研究思路是利用現(xiàn)在逐漸成熟的深度學(xué)習(xí)算法對(duì)雷達(dá)圖像進(jìn)行特征提取、分類(lèi)預(yù)測(cè)與回歸損失計(jì)算,進(jìn)而實(shí)現(xiàn)對(duì)雷達(dá)圖像中離散實(shí)體目標(biāo)的自動(dòng)檢測(cè)和定位。此類(lèi)算法處理效率高且可對(duì)雷達(dá)圖像進(jìn)行直接處理,然而需要依托強(qiáng)有力的硬件系統(tǒng)和大量的圖像數(shù)據(jù)投喂,其檢測(cè)結(jié)果的精度也受到數(shù)據(jù)規(guī)模、網(wǎng)絡(luò)結(jié)構(gòu)和模型參數(shù)的影響。近年來(lái),以深度學(xué)習(xí)為基礎(chǔ)的目標(biāo)檢測(cè)方法已經(jīng)逐漸成為研究熱點(diǎn)。Barkataki等[6]在數(shù)據(jù)預(yù)處理階段通過(guò)不同的邊緣檢測(cè)算子對(duì)原始雷達(dá)圖像進(jìn)行邊緣檢測(cè)處理,進(jìn)而通過(guò)CNN(convolutional neural network)算法實(shí)現(xiàn)對(duì)雷達(dá)數(shù)據(jù)中的目標(biāo)體尺寸(直徑/半徑)預(yù)測(cè)。Dinh等[7]提出一種包含兩階段的鋼筋自動(dòng)定位和檢測(cè)的算法,首選通過(guò)常規(guī)的圖像處理方法將有可能包含鋼筋目標(biāo)的位置定位出來(lái),其次基于定位出的位置找到原始數(shù)據(jù)中對(duì)應(yīng)的雷達(dá)圖像,進(jìn)而通過(guò)CNN算法進(jìn)行分類(lèi)。王靜等[8]提出一個(gè)基于深度學(xué)習(xí)的自動(dòng)檢測(cè)框架(region deformable convolutional neural network, R2_DCNN),該方法包含可變形卷積、特征融合、旋轉(zhuǎn)區(qū)域檢測(cè)模型等三個(gè)模塊,可實(shí)現(xiàn)對(duì)隧道襯砌內(nèi)部鋼筋和病害目標(biāo)的檢測(cè)。張軍等[9]利用CNN_ResNet50的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行特征提取,在此基礎(chǔ)上通過(guò)YOLOv2算法實(shí)現(xiàn)對(duì)圖片數(shù)據(jù)中目標(biāo)的自動(dòng)識(shí)別和定位。許貴陽(yáng)等[10]針對(duì)高度鐵路中CRTSⅡ型軌道板裂縫傷損病害,提出一種基于改進(jìn)的Faster R-CNN方法實(shí)現(xiàn)對(duì)裂縫傷損的定位檢測(cè)。
目前關(guān)于隧道襯砌中離散實(shí)體目標(biāo)檢測(cè)的深度學(xué)習(xí)算法依然受到雷達(dá)圖像分辨率、色澤亮度、目標(biāo)體尺寸等因素的影響,存在錯(cuò)檢、漏檢或目標(biāo)定位不夠準(zhǔn)確的問(wèn)題,文獻(xiàn)[11]顯示現(xiàn)場(chǎng)實(shí)測(cè)雷達(dá)數(shù)據(jù)不足嚴(yán)重影響了后期深度學(xué)習(xí)框架的訓(xùn)練精度。因此,本文基于多年來(lái)現(xiàn)場(chǎng)收集到的隧道襯砌雷達(dá)數(shù)據(jù),并結(jié)合正演模擬技術(shù)得到的仿真數(shù)據(jù),通過(guò)幾何變化的方法實(shí)現(xiàn)對(duì)數(shù)據(jù)的增強(qiáng)處理以構(gòu)建離散實(shí)體目標(biāo)自定義雷達(dá)數(shù)據(jù)集?;诖?本文提出一套改進(jìn)的Faster R-CNN算法對(duì)隧道襯砌中不同尺寸的離散實(shí)體目標(biāo)進(jìn)行自動(dòng)檢測(cè),以提升對(duì)隧道襯砌中離散實(shí)體目標(biāo)檢測(cè)效率及辨識(shí)精度,并為類(lèi)似基礎(chǔ)設(shè)施中隱蔽缺陷目標(biāo)的定位檢測(cè)提供技術(shù)支撐。
隧道襯砌中的離散實(shí)體目標(biāo)分布隨機(jī)且呈離散狀態(tài),在雷達(dá)圖像中呈現(xiàn)半雙曲線特征且尺寸較小,由于Faster R-CNN算法在對(duì)離散小目標(biāo)體檢測(cè)領(lǐng)域兼具速度和精度的優(yōu)勢(shì)[12-13],因此本文為實(shí)現(xiàn)對(duì)隧道襯砌雷達(dá)數(shù)據(jù)中離散實(shí)體目標(biāo)的精準(zhǔn)辨識(shí),采用Faster R-CNN網(wǎng)絡(luò)框架并對(duì)其特征提取模塊和特征金字塔結(jié)構(gòu)進(jìn)行改進(jìn)。該算法主要包含三個(gè)核心模塊:特征提取模塊(Backbone)、區(qū)域目標(biāo)候選模塊(RPN)和Fast R-CNN預(yù)測(cè)模塊。
針對(duì)現(xiàn)有Faster R-CNN算法,許多學(xué)者對(duì)其進(jìn)行了改進(jìn)提升,如姚萬(wàn)業(yè)等[14]在進(jìn)行行人檢測(cè)時(shí),以Soft-NMS算法代替?zhèn)鹘y(tǒng)的NMS算法并通過(guò)Hot Anchors代替均勻采樣錨點(diǎn)以避免額外計(jì)算。王巍等[15]分別通過(guò)聚類(lèi)分析和ROI Align對(duì)原有Faster R-CNN算法進(jìn)行改進(jìn),以實(shí)現(xiàn)對(duì)算式批改的自動(dòng)化處理。然而,這些改進(jìn)更多地屬于技巧性的改進(jìn),對(duì)原有算法的骨干網(wǎng)絡(luò)并未進(jìn)行本質(zhì)性提升,而本文算法分別對(duì)特征提取網(wǎng)絡(luò)和FPN模塊進(jìn)行了修改,以適應(yīng)對(duì)隧道襯砌雷達(dá)圖像中離散實(shí)體目標(biāo)的檢測(cè)。
改進(jìn)的Faster R-CNN算法整體框架流程見(jiàn)圖1,首先對(duì)自定義數(shù)據(jù)集進(jìn)行數(shù)據(jù)預(yù)處理,包括標(biāo)準(zhǔn)化[16]及數(shù)據(jù)增強(qiáng),其中輸入圖片的寬高尺寸會(huì)被限制在[800,1 333]像素范圍內(nèi),以防止因圖片尺寸太小或太大而影響檢測(cè)效果。然后,使用改進(jìn)后的特征提取模塊(ResNet_FMBConv)對(duì)預(yù)處理后的圖片進(jìn)行特征提取[17-18],進(jìn)而通過(guò)改進(jìn)的特征金字塔結(jié)構(gòu)(feature pyramid network, FPN)可得到7種不同尺寸的特征矩陣。在RPN模塊中,使用3×3的滑動(dòng)窗口實(shí)現(xiàn)對(duì)目標(biāo)候選框的分類(lèi)損失和邊界框回歸損失計(jì)算(RPNHead)。結(jié)合錨框生成器得到的achors運(yùn)用Softmax進(jìn)行目標(biāo)框?yàn)V除,判斷錨框?qū)儆诒尘斑€是前景。對(duì)正負(fù)樣本進(jìn)行選擇處理,并通過(guò)ROI(region of interest)池化層將其縮放到7×7大小的特征圖,然后使用展平層和2個(gè)全連接層(two MLPhead)將計(jì)算得到的特征矩陣映射到樣本標(biāo)記空間中,最后通過(guò)Fast R-CNN預(yù)測(cè)模塊實(shí)現(xiàn)對(duì)預(yù)測(cè)結(jié)果的分類(lèi)損失計(jì)算與邊界框回歸損失修正。
圖1 改進(jìn)的Faster R-CNN算法框架流程圖
特征提取模塊(backbone)作為Faster R-CNN網(wǎng)絡(luò)的重要組成結(jié)構(gòu),其主要作用是對(duì)輸入圖像進(jìn)行特征提取,常使用具有殘差結(jié)構(gòu)的Resnet-50網(wǎng)絡(luò)[19]。然而,該網(wǎng)絡(luò)結(jié)構(gòu)對(duì)于隧道襯砌雷達(dá)圖像此類(lèi)目標(biāo)尺寸較小且清晰度較低的圖片數(shù)據(jù)特征提取效果不佳,且其計(jì)算參數(shù)較多,直接影響了Faster R-CNN網(wǎng)絡(luò)的檢測(cè)效率。鑒于此,本文借鑒EfficientNetV2[20]和MobileNetV3[21]網(wǎng)絡(luò)的思想對(duì)Resnet-50網(wǎng)絡(luò)進(jìn)行改進(jìn),兩款輕量級(jí)網(wǎng)絡(luò)在保證檢測(cè)精度的前提下可有效降低模型訓(xùn)練參數(shù)以提升檢測(cè)效率。改進(jìn)后的特征提取網(wǎng)絡(luò)ResNet_FMBConv流程圖見(jiàn)圖2,共包含三個(gè)重要模塊:Fused-MBConv、MBConv和SE(Squeeze-and-Excitation)模塊[22]。該網(wǎng)絡(luò)將Resnet-50網(wǎng)絡(luò)的殘差結(jié)構(gòu)改進(jìn)為卷積效果更佳的Fused-MBConv和MBConv模塊,同時(shí)保持與Resnet-50網(wǎng)絡(luò)同樣的層結(jié)構(gòu)以便于進(jìn)行精度和效率驗(yàn)證。ResNet_FMBConv網(wǎng)絡(luò)的模型參數(shù)見(jiàn)表1,以224×224×3的彩色RGB雷達(dá)圖像為例,依次通過(guò)Convk7×7、Max poolk3×3、Fused-MBConv1,k3×3(3層)、Fused-MBConv4,k3×3(4層)、MBConv4,k3×3, SE0.25(6層)、MBConv6,k3×3, SE0.25(4層)和Conv1x1&Pooling&FC等操作符處理進(jìn)而實(shí)現(xiàn)對(duì)圖像的特征提取操作。其中,num_classes表示要分類(lèi)的目標(biāo)個(gè)數(shù),k表示卷積核尺寸,SE表示注意力機(jī)制模塊。
表1 ResNet_FMBConv網(wǎng)絡(luò)模型參數(shù)表
圖2 改進(jìn)的特征提取網(wǎng)絡(luò)ResNet_FMBConv流程
激活函數(shù)在神經(jīng)網(wǎng)絡(luò)中通過(guò)非線性函數(shù)將神經(jīng)元的輸入映射到輸出段,進(jìn)而有效提升神經(jīng)網(wǎng)絡(luò)的非線性表達(dá)能力。因此,本研究對(duì)現(xiàn)有模塊中的激活函數(shù)進(jìn)行改進(jìn)以提升模塊的卷積性能,針對(duì)3×3卷積核采用h-swish激活函數(shù),針對(duì)1×1卷積核采用SiLU激活函數(shù)(swish),針對(duì)SE模塊中全連接層后的激活函數(shù)均采用SiLU激活函數(shù)。其中,SiLU激活函數(shù)是Sigmoid函數(shù)的加權(quán)線性組合,但是SiLU激活函數(shù)的計(jì)算求導(dǎo)較為復(fù)雜,對(duì)量化過(guò)程不友好,因此需對(duì)模塊中的部分SiLU激活函數(shù)進(jìn)行替換。由于h-sigmoid激活函數(shù)作為Sigmoid函數(shù)的替代[23],可以顯著提高神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確性,因此可以將SiLU激活函數(shù)改寫(xiě)為h-swish激活函數(shù)。各激活函數(shù)計(jì)算式分別為
(1)
ReLU6(x)=min(max(x,0),6)
(2)
(3)
swishx=x·σ(x)
(4)
(5)
隧道襯砌雷達(dá)圖像中的離散實(shí)體目標(biāo)的尺寸會(huì)因雷達(dá)天線頻率、檢測(cè)位置以及圖像分辨率的不同而改變,因此對(duì)于不同尺寸的檢測(cè)目標(biāo)可采用特征金字塔結(jié)構(gòu)(FPN)[24]深度挖掘目標(biāo)體的特征信息。高層的特征包含豐富的語(yǔ)義信息,但分辨率較低,難以準(zhǔn)確保存物體的位置信息。與之相反,低層的特征語(yǔ)義信息較少,但分辨率高,因此可以準(zhǔn)確地包含物體位置信息。而FPN可以將低層的特征和高層的特征進(jìn)行融合,得到一個(gè)識(shí)別和定位都準(zhǔn)確的目標(biāo)檢測(cè)系統(tǒng)。因此,借助FPN對(duì)不同尺寸目標(biāo)在不同特征層進(jìn)行精準(zhǔn)預(yù)測(cè),改進(jìn)的具有FPN結(jié)構(gòu)的ResNet_FMBConv_FPN網(wǎng)絡(luò)模型見(jiàn)圖3。由圖3可知,該模型分別以Con2_x、Con3_x、Con4_x、Con5_x結(jié)構(gòu)提取輸出特征圖C1、C2、C3和C4,并通過(guò)1×1的卷積核和上采樣操作分別得到不同尺寸的特征圖P2、P3、P4、P5。在P5基礎(chǔ)上采用3×3卷積核得到特征圖P6,再進(jìn)一步通過(guò)h-swish激活函數(shù)和最大池化層操作得到特征圖P7。在特征圖P2~P7上使用3×3滑動(dòng)窗口便可對(duì)不同尺寸目標(biāo)進(jìn)行目標(biāo)框選,進(jìn)而實(shí)現(xiàn)對(duì)不同尺寸檢測(cè)目標(biāo)的精準(zhǔn)預(yù)測(cè)。
圖3 改進(jìn)的ResNet_FMBConv_FPN網(wǎng)絡(luò)流程
為檢測(cè)改進(jìn)的Faster R-CNN算法對(duì)隧道襯砌雷達(dá)數(shù)據(jù)中離散實(shí)體目標(biāo)的檢測(cè)效果,本研究利用隧道現(xiàn)場(chǎng)采集的真實(shí)雷達(dá)數(shù)據(jù)和GprMax正演模擬的仿真雷達(dá)數(shù)據(jù)共同構(gòu)建離散單體目標(biāo)自定義雷達(dá)數(shù)據(jù)集。通過(guò)數(shù)據(jù)增強(qiáng)處理,使數(shù)據(jù)集總量擴(kuò)容至3 318 張,其中真實(shí)圖片3 118 張,仿真圖片200張,見(jiàn)圖4。劃分訓(xùn)練集∶測(cè)試集∶驗(yàn)證集的比例為6∶2∶2。實(shí)測(cè)雷達(dá)數(shù)據(jù)存儲(chǔ)格式為.rd3格式,需要使用matgpr軟件讀取數(shù)據(jù)并轉(zhuǎn)化為.mat數(shù)據(jù)格式,并使用imagesc()函數(shù)轉(zhuǎn)化為.jpg圖片。正演模擬腳本(.in文件)通過(guò)GprMax仿真軟件[25]生成雷達(dá)圖片。本文選擇LabelImg軟件將數(shù)據(jù)增強(qiáng)后的雷達(dá)圖像標(biāo)定為VOC模式(.xml文件),該軟件是一個(gè)可視化的圖像標(biāo)定工具,基于Python編寫(xiě),并用Qt實(shí)現(xiàn)圖形界面。
圖4 自定義雷達(dá)數(shù)據(jù)集構(gòu)建流程
2.1.1 實(shí)測(cè)數(shù)據(jù)
本研究所使用的實(shí)測(cè)雷達(dá)數(shù)據(jù)均源于在隧道現(xiàn)場(chǎng)使用探地雷達(dá)設(shè)備檢測(cè)得到的隧道二襯數(shù)據(jù),經(jīng)過(guò)試驗(yàn)分析可知當(dāng)雷達(dá)天線為800、1 000、1 600 MHz時(shí)其對(duì)應(yīng)雷達(dá)圖像的分辨率較佳,因此本節(jié)構(gòu)建的自定義雷達(dá)數(shù)據(jù)集主要包含此三種頻率的雷達(dá)天線采集到的雷達(dá)圖像。
受現(xiàn)場(chǎng)環(huán)境條件、雷達(dá)設(shè)備精度以及技術(shù)人員解譯水平等因素的制約,部分雷達(dá)圖像分辨率較差,無(wú)法顯示檢測(cè)目標(biāo)的圖像特征。因此,在進(jìn)行實(shí)測(cè)數(shù)據(jù)標(biāo)注處理時(shí)需對(duì)其進(jìn)行篩選剔除處理,只保留探測(cè)目標(biāo)的圖像特征較為明顯的數(shù)據(jù)樣本。舉例說(shuō)明,該實(shí)測(cè)雷達(dá)數(shù)據(jù)(圖5)采用瑞典RAMAC型探地雷達(dá)系統(tǒng)輔以800 MHz屏蔽天線進(jìn)行檢測(cè),天線間距0.14 m,采樣間距0.02 m,單道信號(hào)采樣點(diǎn)512。
圖5 隧道現(xiàn)場(chǎng)實(shí)測(cè)雷達(dá)數(shù)據(jù)
2.1.2 仿真數(shù)據(jù)
離散實(shí)體目標(biāo)仿真試驗(yàn)?zāi)P鸵?jiàn)圖6,模型尺寸為5.0 m×2.0 m×0.01 m內(nèi)部設(shè)置多個(gè)離散實(shí)體目標(biāo),采用混凝土介質(zhì)。編寫(xiě)相應(yīng)的.in腳本文件,并使用GprMax仿真軟件進(jìn)行正演模擬,最后使用imagesc()函數(shù)得到雷達(dá)仿真圖片,見(jiàn)圖7。本研究共設(shè)計(jì)5組試驗(yàn)?zāi)M隧道襯砌結(jié)構(gòu)中的離散實(shí)體目標(biāo)(單層鋼筋和雙層鋼筋),試驗(yàn)參數(shù)見(jiàn)表2,其中x為鋼筋水平方向坐標(biāo),y為鋼筋深度方向坐標(biāo)。
表2 仿真試驗(yàn)中鋼筋布置信息
圖6 離散實(shí)體目標(biāo)仿真試驗(yàn)?zāi)P褪疽?單位:m)
圖7 仿真試驗(yàn)雷達(dá)圖像實(shí)例
為擴(kuò)充數(shù)據(jù)集,增加數(shù)據(jù)容量,采用翻轉(zhuǎn)、旋轉(zhuǎn)、裁剪和縮放等幾何變換方法對(duì)雷達(dá)圖像進(jìn)行數(shù)據(jù)增強(qiáng)處理,見(jiàn)圖8。對(duì)于那些對(duì)方向不敏感的任務(wù),可以通過(guò)翻轉(zhuǎn)、旋轉(zhuǎn)操作實(shí)現(xiàn)對(duì)雷達(dá)圖像的增強(qiáng)處理。旋轉(zhuǎn)指的是圍繞一個(gè)點(diǎn),按照順時(shí)針或者逆時(shí)針?lè)较蜻M(jìn)行水平方向運(yùn)動(dòng)變化,而翻轉(zhuǎn)則表示沿著對(duì)稱(chēng)軸,做一個(gè)對(duì)稱(chēng)軸圖形。為了減少圖像中無(wú)關(guān)成分的干擾,可以在訓(xùn)練的時(shí)候采用隨機(jī)裁剪的方法去掉或減弱與主題無(wú)關(guān)的陪體,使畫(huà)面主體更加鮮明集中,也可使畫(huà)面的重心轉(zhuǎn)移使之得到均衡。
圖8 雷達(dá)圖像數(shù)據(jù)增強(qiáng)示例
以上操作都不會(huì)導(dǎo)致圖片失真,而縮放操作則會(huì)導(dǎo)致圖片失真。多數(shù)情況下訓(xùn)練網(wǎng)絡(luò)要求輸入圖片的尺寸大小是固定的,然而自定義數(shù)據(jù)集中的圖像尺寸卻大小不一,此時(shí)可選擇裁剪或者縮放操作獲得到網(wǎng)絡(luò)要求輸入的尺寸大小??s放會(huì)產(chǎn)生失真,效果比裁剪差。在網(wǎng)絡(luò)訓(xùn)練過(guò)程中,將圖片縮放到800×1 330像素范圍內(nèi),即對(duì)短邊小于800像素或長(zhǎng)邊大于1 330像素的圖片進(jìn)行縮放。
本文采用精準(zhǔn)率Precision、召回率Recall和F1分?jǐn)?shù)三個(gè)評(píng)價(jià)指標(biāo)對(duì)模型的精度性能進(jìn)行評(píng)價(jià)。精準(zhǔn)率是指模型預(yù)測(cè)的所有目標(biāo)中,預(yù)測(cè)正確的比例;召回率表示預(yù)測(cè)結(jié)果為正樣本占全部真實(shí)樣本的比例;F1分?jǐn)?shù)被定義為精準(zhǔn)率和召回率的調(diào)和平均數(shù),取值范圍為0~1,1代表模型的輸出最好,0代表模型的輸出結(jié)果最差。各指標(biāo)的計(jì)算式分別為
(6)
(7)
(8)
式中:TP為正樣本被正確檢測(cè)的數(shù)量;FP為正樣本被錯(cuò)誤檢測(cè)的數(shù)量;FN為沒(méi)有檢測(cè)到目標(biāo)的數(shù)量。
本研究的硬件環(huán)境為RTX3080顯卡,16GB內(nèi)存,CPU為Intel(R)Xeon(R)Platinum8358P@ 2.60GHz,軟件運(yùn)行環(huán)境為PyTorch1.8.1,Python3.8(ubuntu18.04)以及Cuda11.1。整個(gè)訓(xùn)練過(guò)程主要分為兩個(gè)階段:①在預(yù)先訓(xùn)練好的ResNet_FMBConv結(jié)構(gòu)的基礎(chǔ)上訓(xùn)練RPN模塊,然后使用訓(xùn)練好的RPN模塊來(lái)獲取初步的候選數(shù)據(jù);②使用訓(xùn)練類(lèi)別檢測(cè)和位置校正模塊來(lái)精確調(diào)整RPN模塊生成的候選框位置,同時(shí)檢測(cè)包含目標(biāo)的候選框數(shù)據(jù)。為了防止數(shù)據(jù)的過(guò)擬合,增加了早期停止操作和隨機(jī)丟棄方法(Drop-out)并采用凍結(jié)部分權(quán)重的方式提高整體訓(xùn)練效率,其余初始訓(xùn)練超參數(shù)見(jiàn)表3。
表3 初始訓(xùn)練超參數(shù)匯總表
為了驗(yàn)證數(shù)據(jù)增強(qiáng)對(duì)于網(wǎng)絡(luò)訓(xùn)練的效果,分別使用數(shù)據(jù)增強(qiáng)前后的數(shù)據(jù)集訓(xùn)練改進(jìn)的Faster R-CNN網(wǎng)絡(luò)。結(jié)果見(jiàn)表4。使用增強(qiáng)后的數(shù)據(jù)集訓(xùn)練網(wǎng)絡(luò),在IOU=0.50∶0.95情況下的檢測(cè)精確率、召回率、F1分?jǐn)?shù)三項(xiàng)評(píng)估指標(biāo)均有2%~4%的提升。因此,可以說(shuō)明本文給出的通過(guò)幾何變化進(jìn)行數(shù)據(jù)增強(qiáng)的方法可有效提升訓(xùn)練模型的辨識(shí)精度和檢測(cè)性能。
表4 數(shù)據(jù)增強(qiáng)前后檢測(cè)結(jié)果對(duì)比(IOU=0.50∶0.95)
改進(jìn)的Faster R-CNN網(wǎng)絡(luò)模型在數(shù)據(jù)增強(qiáng)后數(shù)據(jù)集上的訓(xùn)練損失與學(xué)習(xí)率隨迭代次數(shù)的變化趨勢(shì)見(jiàn)圖9,圖9中紅色曲線表示模型訓(xùn)練的損失loss隨迭代次數(shù)變化情況,可直接反映模型學(xué)習(xí)好壞的狀態(tài),藍(lán)色曲線表示模型訓(xùn)練的學(xué)習(xí)率隨迭代次數(shù)變化情況。本試驗(yàn)中學(xué)習(xí)率從0.01開(kāi)始下降,一般隨著學(xué)習(xí)率的調(diào)整,loss會(huì)越來(lái)越小。如果loss下降,說(shuō)明模型還沒(méi)完全學(xué)到數(shù)據(jù)的所有特征,模型會(huì)在這個(gè)學(xué)習(xí)率下繼續(xù)學(xué)習(xí);如果loss上升,說(shuō)明模型已經(jīng)充分學(xué)習(xí)到數(shù)據(jù)的特征,開(kāi)始學(xué)習(xí)訓(xùn)練集里的無(wú)用特征,導(dǎo)致在測(cè)試集上準(zhǔn)確度不夠,產(chǎn)生過(guò)擬合。在Faster R-CNN網(wǎng)絡(luò)訓(xùn)練過(guò)程中,隨著迭代次數(shù)的增加,損失能迅速收斂,并在18個(gè)迭代次數(shù)epoch左右趨于穩(wěn)定。模型在IOU=0.5時(shí)平均精確率mAP值隨迭代次數(shù)的變化趨勢(shì)圖見(jiàn)圖10,同樣模型的mAP值在迭代至18個(gè)epoch左右趨于穩(wěn)定,不再提升。因此,結(jié)果表明數(shù)據(jù)增強(qiáng)后的雷達(dá)圖像數(shù)據(jù)可以用于模型的訓(xùn)練研究,且迭代次數(shù)設(shè)置為25次可得到最優(yōu)的檢測(cè)精度。
圖9 模型訓(xùn)練損失及學(xué)習(xí)率變化趨勢(shì)
圖10 模型mAP值變化趨勢(shì)(IOU=0.5)
為了證明本文改進(jìn)的特征提取模塊ResNet_FMBConv的檢測(cè)性能,試驗(yàn)以原有Faster R-CNN網(wǎng)絡(luò)框架為基礎(chǔ),使用相同的數(shù)據(jù)集進(jìn)行訓(xùn)練和測(cè)試,不同特征提取模塊的檢測(cè)結(jié)果見(jiàn)表5。ResNet_FMBConv_FPN模塊的三項(xiàng)評(píng)估指標(biāo)值均高于ResNet50_FPN、Efficientnet_b0_FPN、VGG16和Mobilenetv3_FPN網(wǎng)絡(luò),因此其檢測(cè)性能更優(yōu)。對(duì)比ResNet_FMBConv_FPN和ResNet_FMBConv模塊,可見(jiàn)在增加FPN結(jié)構(gòu)后,其檢測(cè)精確率、召回率和F1分?jǐn)?shù)指標(biāo)的提升分別為13.7%、13.3%和13.7%。試驗(yàn)證明,本文改進(jìn)的特征提取模塊ResNet_FMBConv對(duì)離散實(shí)體目標(biāo)的檢測(cè)效果更佳。
表5 不同特征提取模塊的檢測(cè)結(jié)果對(duì)比(IOU=0.50∶0.95)
為了驗(yàn)證改進(jìn)的Faster R-CNN算法對(duì)離散實(shí)體目標(biāo)檢測(cè)的優(yōu)越性,本小節(jié)另選擇3種不同的深度學(xué)習(xí)算法SSD[26]、YOLOv3_spp[27]、Retinanet[28]算法進(jìn)行比較。為了使算法盡可能地在相同的條件下進(jìn)行比較,結(jié)合GPR圖像的大小,將輸入圖像的大小縮放為734×547,而訓(xùn)練集、測(cè)試集、學(xué)習(xí)率參數(shù)和訓(xùn)練步驟等都是保持一致。四種算法均使用Pytorch深度學(xué)習(xí)框架,且增設(shè)FPS作為檢測(cè)效率評(píng)估指標(biāo),檢測(cè)結(jié)果見(jiàn)表6。在保證召回率基本持平的情況下,改進(jìn)的Faster R-CNN算法的精確率和F1分?jǐn)?shù)同比其他深度學(xué)習(xí)算法分別提升2%~9%和1%~6%,而YOLOv3_spp算法的精確率、召回率和F1分?jǐn)?shù)指標(biāo)值均最低。結(jié)果表明,就辨識(shí)效果而言本文改進(jìn)的Faster R-CNN算法更適用于隧道襯砌中離散實(shí)體目標(biāo)的自動(dòng)檢測(cè)研究。YOLOv3_spp作為一階段算法要求對(duì)輸入的圖像進(jìn)行縮放處理,因此在圖像自動(dòng)縮放的過(guò)程中容易造成圖像失真,進(jìn)而影響檢測(cè)的精度。而SSD算法的參數(shù)較多,在進(jìn)行訓(xùn)練過(guò)程中可能出現(xiàn)難以收斂的問(wèn)題,導(dǎo)致實(shí)際檢測(cè)效果不太理想。
表6 不同深度學(xué)習(xí)算法的指標(biāo)評(píng)估結(jié)果(IOU=0.50∶0.95)
同時(shí)本文還對(duì)比了不同算法的檢測(cè)效率,YOLOv3_spp算法作為一階段算法中的代表其處理速度最高為37.47 fps,改進(jìn)的Faster R-CNN算法略低于YOLOv3_spp和SSD算法的檢測(cè)速度為21.65 fps,而Retinanet算法的處理速度最低為5.72 fps。Faster R-CNN作為一種兩階段的算法,為更精準(zhǔn)地辨識(shí)出檢測(cè)目標(biāo),需要生成許多不同尺寸錨框并計(jì)算其分類(lèi)損失和回歸損失參數(shù),因此會(huì)降低其檢測(cè)效率。而SSD和YOLOv3_spp作為一階段算法已經(jīng)實(shí)現(xiàn)了端到端的處理,進(jìn)而大大減少了參數(shù)計(jì)算的時(shí)間。在實(shí)際工程應(yīng)用中,目標(biāo)檢測(cè)的準(zhǔn)確性是進(jìn)行隧道襯砌無(wú)損檢測(cè)作業(yè)的首要考慮,因此在權(quán)衡檢測(cè)速度和精度的情況下,本文將改進(jìn)的Faster R-CNN作為隧道襯砌中離散實(shí)體目標(biāo)自動(dòng)檢測(cè)優(yōu)先選用的方法。
為了更直觀地對(duì)比不同算法對(duì)離散實(shí)體目標(biāo)的檢測(cè)效果,從測(cè)試集中各選取一張實(shí)測(cè)圖片和一張仿真圖片作為實(shí)例,通過(guò)預(yù)測(cè)模型進(jìn)行離散實(shí)體目標(biāo)的自動(dòng)檢測(cè),見(jiàn)表7,紅色圓框標(biāo)注的為錯(cuò)誤識(shí)別的目標(biāo)體。
表7 不同深度學(xué)習(xí)算法對(duì)離散實(shí)體目標(biāo)的檢測(cè)結(jié)果
其中,實(shí)測(cè)數(shù)據(jù)和仿真數(shù)據(jù)中分別有9和17個(gè)離散實(shí)體目標(biāo)(經(jīng)人工解譯確定),通過(guò)統(tǒng)計(jì)得到各算法對(duì)實(shí)例數(shù)據(jù)中目標(biāo)體的正檢、誤檢和漏檢數(shù),如表8所示。改進(jìn)的Faster R-CNN算法可檢測(cè)出全部9個(gè)目標(biāo)體不存在誤檢,另外三種算法均存在漏檢。針對(duì)雙層鋼筋的仿真數(shù)據(jù),四種算法均可對(duì)最上層的目標(biāo)體進(jìn)行準(zhǔn)確檢測(cè),但是對(duì)下層目標(biāo)體的檢測(cè)效果則較差,主要是因?yàn)橄聦与x散實(shí)體目標(biāo)的雙曲線信號(hào)受上層信號(hào)干擾而變?nèi)?進(jìn)而影響其檢測(cè)效果。其中,改進(jìn)的Faster R-CNN算法正確檢測(cè)的個(gè)數(shù)為15個(gè),存在2個(gè)漏檢目標(biāo)。將表8中的指標(biāo)進(jìn)行計(jì)算,可到各算法對(duì)實(shí)例數(shù)據(jù)中目標(biāo)體的正檢率、誤檢率和漏檢率,見(jiàn)表9。對(duì)比可知,改進(jìn)的Faster R-CNN算法對(duì)實(shí)例數(shù)據(jù)中離散實(shí)體目標(biāo)自動(dòng)檢測(cè)效果要優(yōu)于其他三種算法,可用于今后隧道襯砌雷達(dá)數(shù)據(jù)中離散實(shí)體目標(biāo)的自動(dòng)檢測(cè)研究。
表8 不同深度學(xué)習(xí)算法對(duì)離散實(shí)體目標(biāo)的檢測(cè)結(jié)果
表9 不同深度學(xué)習(xí)算法對(duì)離散實(shí)體目標(biāo)的檢測(cè)結(jié)果對(duì)比 %
本文提出的改進(jìn)的Faster R-CNN算法有效提升了檢測(cè)速度,能夠?qū)ψ远x雷達(dá)數(shù)據(jù)集中的離散實(shí)體目標(biāo)進(jìn)行準(zhǔn)確辨識(shí)。當(dāng)IOU=0.50∶0.95時(shí),通過(guò)幾何變化方法對(duì)雷達(dá)圖像進(jìn)行數(shù)據(jù)增強(qiáng)可有效提升改進(jìn)算法的辨識(shí)性能,檢測(cè)精確率、召回率和F1分?jǐn)?shù)分別提升2.5%、2.4%和2.4%。同時(shí),本文提出ResNet_FMBConv模塊的檢測(cè)精度和效率均優(yōu)于Resnet-50、Efficientnet_b0和Mobilenetv3等目標(biāo)分類(lèi)網(wǎng)絡(luò)。該算法與YOLOv3_spp、SSD等目標(biāo)檢測(cè)算法相比具有更高的檢測(cè)精度,對(duì)于改進(jìn)算法的檢測(cè)精確率、召回率、F1分?jǐn)?shù)和FPS分別為45.1%、54.0%、49.1%和21.65 fps。
盡管改進(jìn)的Faster R-CNN算法在自定義雷達(dá)數(shù)據(jù)集上取得了良好的檢測(cè)性能,但其檢測(cè)結(jié)果仍然受限于雷達(dá)圖像的分辨率、目標(biāo)體圖像特征完整性和重疊度。因此,在實(shí)際檢測(cè)過(guò)程中提前清理干擾源、選擇合適的天線頻率和輸入?yún)?shù),以及在數(shù)據(jù)預(yù)處理過(guò)程選擇合適的去噪步驟和參數(shù)均會(huì)提升最終獲取的雷達(dá)圖像分辨率和算法的檢測(cè)性能。同時(shí)在未來(lái)的研究中,對(duì)于雷達(dá)圖像中下層離散實(shí)體目標(biāo)的準(zhǔn)確辨識(shí),可使用引導(dǎo)錨框?qū)δ繕?biāo)進(jìn)行精準(zhǔn)化檢測(cè)。同時(shí),可提前對(duì)錨框尺寸進(jìn)行聚類(lèi)分析,并在RPN模塊中優(yōu)化目標(biāo)提取框的面積尺寸和長(zhǎng)寬比例。