薛亞東 ,高健 ,李宜城 ,黃宏偉
(1.同濟大學地下建筑與工程系,上海200092;2.同濟大學巖土及地下工程教育部重點實驗室,上海200092;3.中建絲路建設投資有限公司,陜西西安710000)
城市軌道交通是解決城市交通擁堵問題的有效方式.截至2018 年末,中國內地共有35 個城市開通城市軌道交通,總運營里程達5 766.6 km,排世界首位.城市軌道交通多采用地下隧道建設方式.由于建設條件、運營環(huán)境等復雜因素影響,隧道結構,特別是管片襯砌結構,不可避免在運營期間會出現(xiàn)多種病害,如:滲漏水、裂縫、掉塊、管片錯臺、接縫張開、縱向不均勻沉降、管徑環(huán)向收斂變形等[1-2].其中,較為常見的兩種病害為裂縫和滲漏水.為確保隧道結構安全并保障地鐵正常運營,傳統(tǒng)隧道病害檢測方法以人工為主,主要通過人眼或簡單儀器檢測[3],雖然技術要求低,但檢測效果依賴于檢測人員的經驗與主觀判斷,檢測效率與可靠性均無法滿足現(xiàn)代地鐵交通發(fā)展的需求[4].基于相機拍攝或三維激光掃描的隧道病害檢測是發(fā)展的技術方向[5],目前已有國內外廠家研制出用于隧道病害檢測的專用設備,可以獲取隧道病害的圖像.如何快速處理數(shù)量龐大的圖像數(shù)據(jù)成為亟需解決的新問題.
傳統(tǒng)的圖像處理算法,如canny 算子、Otsu 算法,以及專門針對裂縫病害檢測的算法[6-7]等,由于在實際應用中多依賴于手工調節(jié)參數(shù),因此往往效率低,周期長,魯棒性差,且病害檢測準確率難以滿足需要.鑒于此,國內外許多學者將深度學習方法應用于病害檢測.深度學習(Deep Learning)是機器學習的一種方式,2013 年被麻省理工學院評為十大突破技術之一.深度學習模型在隧道結構病害檢測任務上表現(xiàn)出優(yōu)良的泛化能力和魯棒性.
2017 年加拿大Cha 等[8]采用深度卷積神經網絡對混凝土裂縫的識別進行了研究,在檢測中結合滑動窗口可以檢測任意大小的圖像,并與Canny、Sobel兩種邊緣檢測算子進行比較,驗證了深度學習在混凝土裂縫識別上的優(yōu)勢.2017 年黃宏偉等[9]基于全卷積網絡進行盾構隧道滲漏水病害圖像識別,可有效消除干擾物的影響.2018 年薛亞東等[10]建立隧道襯砌特征圖像分類系統(tǒng),在現(xiàn)有的CNN 模型GoogLeNet 基礎上,改進其inception 模塊與網絡結構,獲得了準確率超過95%的網絡模型,且對背景復雜條件下的圖像處理更具魯棒性.
已有研究成果表明,采用深度學習方法實現(xiàn)隧道病害檢測相比傳統(tǒng)圖像處理方法高效且穩(wěn)定,是未來發(fā)展的方向.但現(xiàn)有研究所采用的病害檢測模型,均未結合隧道病害的特性.隧道結構病害具有其顯著特征,如滲漏水有滲流效果,在重力作用下,常常會向下發(fā)展,而裂縫由于受力原因,多沿管片結構邊緣發(fā)展.本文基于自主研制的快速移動式隧道掃描檢測系統(tǒng),采集了上海地鐵 1、2、4、7、8、10、12 等線路區(qū)間的大量襯砌圖像,建立了裂縫及滲漏水病害樣本庫,并利用K-means 聚類方法,從統(tǒng)計學上分析裂縫及滲漏水特征,基于定量分析結果對病害檢測模型及參數(shù)進行優(yōu)化.
深度學習模型訓練過程,需從特定樣本庫中提取數(shù)據(jù)信息供網絡訓練學習.深度學習中常用的幾類數(shù)據(jù)集,如 Microsoft COCO、PASCAL VOC、ImageNet、SUN Database 等,這些數(shù)據(jù)集均由復雜的生活場景中獲取,種類多,數(shù)量大,具有代表性.然而,在隧道病害檢測領域,裂縫和滲漏水有其獨特的特征,且目前這一研究領域還未建立成熟的專屬于裂縫和滲漏水的病害數(shù)據(jù)集.
通過自主研發(fā)的基于CCD 線陣相機的快速移動式地鐵隧道結構病害檢測系統(tǒng)(MTI),進行隧道襯砌表面病害圖像采集.MTI 系統(tǒng)如圖1 所示,由6 臺CCD 線陣相機和12 個LED 光源組成,其環(huán)向掃描長度可達13 m,可實現(xiàn)高精度襯砌表觀圖像連續(xù)、快速掃描.目前為止,已針對上海市地鐵 1、2、4、7、8、10、12 號線等進行了多次檢測,采集了大量的隧道襯砌灰度圖像.采集后的圖像經過人工裁切、標注等一系列處理工作,構成了深度學習模型訓練的數(shù)據(jù)集.
圖1 MTI 檢測系統(tǒng)Fig.1 Tunnel inspection system
目前整理的數(shù)據(jù)集包含4 139 張圖像,每張圖像大小為3 000 像素×3 724 像素.病害檢測任務中,需對樣本庫中每張圖片進行標注,標注信息包括兩部分:病害類別(裂縫、滲漏水)和位置信息.位置信息的標定采用一個長方形框(邊界框,bounding box),長方形框要求完整地包含整個病害,同時要求非病害區(qū)域盡可能小.病害邊界框采用左上角和右下角的兩個坐標進行標定.
用LabelImg 工具完成病害圖像標注.在數(shù)據(jù)集中,一張圖像可能包含多個病害的標簽圖(ground truth).圖2 展示了此類標簽的部分示例.共得到5 496 組裂縫和滲漏水病害的ground truth 信息,其中裂縫2 946 組、滲漏水2 550 組.據(jù)經驗,樣本庫中的4 139 張圖片,3 000 張用于訓練樣本,其余的1 139 張作為測試樣本.
圖2 樣本標柱示例Fig.2 Labeled defects samples
隧道襯砌裂縫和滲漏水與其它類型目標相比有其特定特征.為分析病害特征,首先針對樣本庫中的所有圖片做定性分析,并基于病害標記得到的ground truth 信息對病害進行定量分析.圖3 為采集的部分裂縫及滲漏水病害示例圖.
首先對裂縫及滲漏水病害的尺度特征進行分析.經統(tǒng)計,裂縫及滲漏水標記的ground truth 面積(像素)分布結果見表1.其中,83.0%的病害面積處于(0,1× 106)區(qū)間內.裂縫和滲漏水面積在區(qū)間(0,1×106)上的分布如圖4 所示,大致呈對數(shù)正態(tài)分布.病害面積處于區(qū)間(0,4× 105)的約占(0,1× 106)區(qū)間的67%.
圖3 病害樣本示例Fig.3 Samples of defects
表1 裂縫與滲漏水面積統(tǒng)計分布Tab.1 Statistical of area of cracks and seepage
圖4 (0,1×106)區(qū)間裂縫與滲漏水面積分布圖Fig.4 (0,1 × 106)area distribution of cracks and water leakage
裂縫和滲漏水分別統(tǒng)計:2 946 個裂縫面積全部處于(0,4×106)區(qū)間內,其中約90%的裂縫處于(0,3× 105)區(qū)間內(表2);2 550 個滲漏水面積處于(0,8×106)區(qū)間內,其分布直方圖見圖5.滲漏水面積主要分布于(0,3 × 106)區(qū)間內,其中區(qū)間(0,1 ×106)內滲漏水占 64.2%,(1 × 106,2 × 106)區(qū)間內滲漏水占22.0%.
表2 裂縫面積統(tǒng)計Tab.2 Statistical of area of cracks
圖5 滲漏水面積分布直方圖Fig.5 Histogram of the area distribution of water leakage
高寬比同樣是裂縫及滲漏水的重要特征之一.對樣本集中裂縫及滲漏水的高寬比進行統(tǒng)計,處于(0,1)區(qū)間內的病害居多,大于10 的病害占比較?。▓D6).圖7 為(0,1)區(qū)間內病害分布直方圖,可知整個區(qū)間內病害高寬比分布較均勻,區(qū)間兩端的病害占比較小.由此可以得出,隧道襯砌病害相比生活中的常見物體,其幾何表現(xiàn)相對細長,后續(xù)分析中將考慮病害的幾何特征與分布規(guī)律.
圖6 裂縫與滲漏水高寬比分布直方圖Fig.6 Histogram of defects aspect ratio distribution
圖7 (0,1)區(qū)間內裂縫與滲漏水高寬比分布直方圖Fig.7 Histogram of defects aspect ratio distribution with in(0,1)
在病害檢測任務上,輸入圖像為完整的大尺度圖像,文中采用的圖片大小為3 000×3 724 像素.RCNN[11]系列算法核心思想是基于建議區(qū)域在整張圖片上檢測,選擇可能為病害區(qū)域的候選框,進而通過卷積神經網絡(Convolutional Neural Network,CNN)對每個區(qū)域提取特征,并利用分類器預測此區(qū)域中包含感興趣對象的置信度,將問題轉化為圖像分類問題.
Faster R-CNN[12]模型可分為兩部分.一部分為骨干結構(backbone architecture),另一部分為頭結構(head architecture).骨干結構負責對整張圖像進行處理,獲得其特征圖像(feature maps);頭結構處理特征圖像,獲得候選區(qū)域并進行分類和定位.
如圖8 所示,首先將整張圖片送入CNN,進行特征提取,在最后一層卷積層生成卷積特征圖,在此之后增加兩個額外的卷積層,構造區(qū)域建議網絡(RPN,Region Proposal Network);RPN 網絡可直接預測出候選區(qū)域建議框,候選框數(shù)量限定為300 個.Faster R-CNN 是 RPN 和 Fast R-CNN 相結合的結構,同時共享了RPN 和Fast R-CNN 卷積層的參數(shù),支持端到端的訓練.
圖8 Faster-R-CNN 模型結構示意圖Fig.8 Flow chart of the Faster-R-CNN model
區(qū)域建議網絡是預測目標建議區(qū)域候選框的一種方法,它可以接受任意大小的圖像作為輸入,輸出一系列的矩形候選框,每一個候選框都附帶一個目標得分(object score),目標得分的大小反映了每個矩形候選框中涵蓋的內容屬于檢測目標的概率.通過設定某一目標得分閾值,可獲得一定數(shù)量的矩形候選框.
要處理的圖像首先經過卷積神經網絡骨干結構,運算得到卷積特征圖像,其大小和維度為p×q×n,其中p、q 分別為卷積特征圖像的高和寬,n 為卷積特征圖像的維度,如圖9 所示.
圖9 深度卷積特征的提取Fig.9 Deep convolution feature extraction
在提取的卷積特征圖像上,采用一個矩形圖框(anchor box,圖10)進行滑動完成目標檢測.anchor box 包含兩個屬性,高寬比和尺度,它們決定了anchor box 的個數(shù).對于n 維的卷積特征圖像,k 個不同的anchor box,每一次滑動都會產生k 個n 維的低維向量(圖10).
He 等[12]在Faster R-CNN 物體檢測模型中給出了建議的9 類anchor box.其中,包含3 類不同大小的尺度(1282,2562,5122),和 3 類不同的高寬比(1 ∶1,1 ∶2,2 ∶1).anchor box 參數(shù)設置受檢測目標特征影響,并對后續(xù)的分類和回歸兩個過程的計算精度及速度均有一定影響.本文的處理對象主要針對隧道襯砌表面病害,即裂縫和滲漏水.由前文分析結果可知,病害樣本庫中病害的形態(tài)與尺寸具有統(tǒng)計特征,可以據(jù)此改進模型以提升效果.
圖10 區(qū)域建議網絡的anchor boxFig.10 anchor box of RPN
區(qū)域建議網絡的任務包含兩部分,前景或背景的分類以及邊界框的回歸.如圖11 所示,虛線矩形框代表一個前景目標的anchor box,實線矩形框代表目標的真實值,邊界框回歸處理即是尋找一種映射關系,使得anchor box 與真實窗口盡量接近.
圖11 前景目標的anchor box 和真實值Fig.11 Ground truth and anchor box
用 A =(xa,ya,wa,ha)表示 anchor box,其中的 x,y,w 和h 分別表示矩形框中心點坐標與框的寬和高.用 G=(x*,y*,w*,h*)表示前景目標的真實值,則映射為f(xa,ya,wa,ha)=(x*,y*,w*,h*).將anchor box 的窗口變換為目標的真實窗口,其變換方式為平移和縮放.
將anchor box 的中心點平移至目標真實窗口的中心點,其變換公式見式(1)和式(2),其中dx(A)和dy(A)為橫縱坐標相應的平移變換.
將anchor box 的寬和高進行縮放,使其與真實值相同,其變換公式見式(3)和式(4),其中dw(A)和dh(A)分別為寬和高相應的縮放變換.
由公式(1)~(4)可知,邊界框回歸的過程中,需要學習的是dx(A),dy(A),dw(A),dh(A)4 個變換.當anchor box 和目標的真實值相差較小時,可以認為是一種線性變換.通過上述公式,可以獲得邊界框回歸的平移量 tx、ty和尺度因子 tw、th,其計算公式見式(5)至式(8).
上述平移量和尺度因子作為區(qū)域建議網絡中邊界框回歸損失函數(shù)的參數(shù).
對于邊界框的回歸,其損失函數(shù)如式(9)所示.
其中 x,y,w,h 分別為矩形區(qū)域中心的橫縱坐標、寬及高.變量x,xa,x*分別指網絡預測的邊界框、anchor box 的邊界框、目標的真實邊界框(y,w,h 類同)的 x 坐標.
若anchor box 的邊界框與目標的真實邊界框越接近,即 wa、ha與 w*、h*的值相差越小,由公式(7)(8)可知,尺度因子tw、th趨近于0,損失函數(shù)會更小,說明擬合程度也越好.
根據(jù)前文對裂縫、滲漏水樣本庫的定量分析可知,裂縫及滲漏水病害面積分布基本可由三個區(qū)間覆蓋,分別為(0,4×105)、(4×105,1×106)、(1×106,8×106).由此,可以得到病害面積所處量級的主要分布區(qū)間.
通常圖像檢測所用數(shù)據(jù)集的圖片比病害數(shù)據(jù)庫中圖片(像素)要小得多,如PASCAL VOC 數(shù)據(jù)集中,圖片的像素尺寸大小不一,尺寸大約在512×512,像素偏差不超過100.因此,在做病害檢測前,需根據(jù)病害數(shù)據(jù)庫中的圖片信息,對圖像檢測模型中的anchor box 尺度這一參數(shù)作出修正,由原先的(1282,2562,5122)修正為(5122,1 0242,2 0482),分別與前文所述的三個區(qū)間相對應.為驗證參數(shù)修正的準確性及有效性,下文通過控制變量的試驗方法進行模型試驗.
采用K-means 聚類算法,基于裂縫及滲漏水病害的高寬比數(shù)據(jù)庫進行聚類分析,以聚類結果為基礎對病害檢測模型中的anchor box 比例值進行修正.
K-means 算法[13]屬于硬聚類算法,它是根據(jù)數(shù)據(jù)類別中心的目標函數(shù)進行聚類,其中,目標函數(shù)是數(shù)據(jù)點到類別中心廣義距離和的優(yōu)化函數(shù).
對于給定的一個包含n 個d 維數(shù)據(jù)點的數(shù)據(jù)集X = {x1,x2,…,xi,…,xn},其中 xi∈Rd,假定聚類數(shù)目為K,需將所有數(shù)據(jù)對象劃分為K 個獨立子集C={ck},k=1,2,…,K.每個子集 ck有一個類別中心 μk.通常情況下,選取歐氏距離作為相似性和距離判斷準則,計算類內各點到 μk的距離平方和 J(ck):
聚類目標是各類總的距離平方和J(C)最小.
裂縫與滲漏水病害高寬比的聚類分析中,關注病害的高、寬兩個維度,聚類結果與anchor box 框的大小無關,而與滑動窗口的對應區(qū)域和前景目標真實值的圖形交并比(Intersection-over-Union,IoU)有關,不能簡單采用歐氏距離作為聚類分析相似性和距離判斷準則.
IoU 為兩個圖像的交集和并集之間的比例,即IoU=A∩B/A∪B,如圖12 所示.
圖12 圖形的交并比Fig.12 Intersection-over-Union
在模型訓練過程中,區(qū)域建議網絡根據(jù)IoU,將anchor box 獲得的樣本分為三類:當圖IoU 大于0.7時,標記為正樣本;小于0.3 時,標記為負樣本;介于兩者之間時,標記為無效樣本.在訓練過程中正樣本和負樣本均參與訓練,無效樣本不參與訓練.
為選取具有高IoU 得分的目標框,采用如下距離度量:
為合理確定K-means 聚類的K 值,提出使用簇內誤方差(sum of the squared errors,SSE)[14]作為聚類分析的目標函數(shù),其計算公式見式(14).
其中:Ci表示第 i 個簇;p 是 Ci中的樣本點;mi是 Ci的質心(Ci中所有樣本的均值);SSE 是所有樣本的聚類誤差,代表了聚類效果的好壞.隨著聚類數(shù)K 的增大,樣本劃分會更加精細,每個簇的聚合程度會逐漸提高,誤差平方和SSE 逐漸變小.
對裂縫與滲漏水病害高寬比數(shù)據(jù)集進行聚類分析,以 SSE 作為聚類分析的目標函數(shù),K 值?。?,9),得到SSE 和K 的關系圖見圖13.由圖13 可知,轉折點對應的K 值為3,即K=3 時更接近真實聚類數(shù).因此,聚類分析時取K=3,從統(tǒng)計學上得到3 種更接近病害目標真實值的高寬比:ha/wa.
圖13 病害高寬比數(shù)據(jù)集SSE-K 曲線圖Fig.13 Curve of SSE vs K
距離度量采用式(13),則各點到聚類中心的距離平方和具有如下關系:
聚類目標是使各類總的距離平方和J(C)最小,K-means 聚類算法如圖14 所示.
圖14 K-means 聚類算法Fig.14 K-means clustering algorithm
基于標記得到2 946 組裂縫和2 550 組滲漏水病害的ground truth 信息,采用K-means 聚類算法進行聚類分析.
采用兩種聚類方案.一種是對訓練樣本中的裂縫和滲漏水數(shù)據(jù)分別聚類分析,另一種是對訓練樣本中的裂縫和滲漏水同時進行聚類,即由5 496 組裂縫及滲漏水數(shù)據(jù)聚類分析得到接近兩種病害目標真實值的anchor box.聚類分析結果見表3.
表3 聚類分析結果Tab.3 Cluster results
本研究的深度學習硬件配置為:
核心處理器:Intel Core i7-5820K CPU;
圖形處理器:三塊GeForce GTX 1080,每塊顯卡的顯存8 GB,總共24 GB;內存:64 GB.
深度學習的軟件環(huán)境配置為:編程語言python2.7.12、并行計算架構 CUDA8.0、基于 GPU 的加速庫cuDNN5.0 和深度學習框架Caffe[15].
實驗設計主要考慮兩個方面:一是評價利用K means 聚類算法對anchor box 參數(shù)的修正對檢測效果的影響;一是考慮裂縫與滲漏水幾何形態(tài)特征差別較大,將裂縫和滲漏水分別獨立建立樣本庫,比較分析混合訓練與獨立訓練的利弊.共設計了6 類不同的檢測模型方案,(見表4).
表4 檢測模型方案Tab.4 Test models
本文所用的模型采用兩條計算路線,骨干結構卷積層內的卷積核在不同的計算路線上可能存在不同損失函數(shù)梯度方向,導致無法共享網絡權重.在模型的訓練中,采用交替訓練方法,即先訓練區(qū)域建議網絡,而后用區(qū)域建議網絡得到的候選區(qū)域訓練病害檢測方法,并交替訓練,不斷迭代.
在病害檢測模型訓練中,使用已訓練好的卷積神經網絡模型對骨干結構進行權重初始化.模型迭代訓練過程中采用動態(tài)學習率策略.優(yōu)化采用隨機梯度下降算法.
5.3.1 檢測結果的評價
檢測率(detection rate):表示測試集中檢測得到的正確結果數(shù)量和實際的結果數(shù)量的比值.在最終的結果檢測中,設定0.8 作為閾值,當檢測結果得分超過閾值則輸出該檢測結果.
檢測準確度(detection accuracy):表示病害檢測結果得分的平均值.檢測準確度反應了該方法的識別能力.
5.3.2 檢測效率的評價
訓練時間(training time):表示檢測模型整個訓練過程所用的時間.
檢測效率(detection efficiency):指檢測每張圖像需要花費的時間.
模型訓練完成后,對測試數(shù)據(jù)集上含有裂縫和滲漏水的目標進行檢測.測試集包含1 139 幅圖像,其中病害目標共有1 867 個.表5 是Model1~Model6各模型的訓練測試過程中各指標的結果對比.
圖16 展示了部分病害檢測結果(矩形框).
由Model1&2 檢測結果對比可知,優(yōu)化后的VGG16 網絡在同一數(shù)據(jù)集上的準確率為80.91%,高于優(yōu)化前的VGG16(75.81%),提升了6.73%.此外,訓練時間縮短了10 min,平均單張圖片測試時間也有略微縮短,一定程度上加快了檢測效率.
由Model2&4&6 檢測結果對比可知,優(yōu)化后的裂縫檢測模型對裂縫平均檢測率為77.28%,優(yōu)化后的滲漏水檢測模型對滲漏水平均檢測率為85.25%,與同時進行裂縫和滲漏水檢測的模型(分別為71.8%,84.28%)相比較均有提升.
Model1&5、Model2&6 的檢測結果對比,滲漏水和裂縫單一檢測模型較兩種病害同時檢測的模型檢測率更高,效果更佳.因此如果工程對檢測準確度要求很高時,可以考慮對裂縫和滲漏水分別獨立檢測.這一方案的不足之處在于需要訓練兩個模型,會增加一定時間成本.
表5 各模型訓練測試結果Tab.5 Model training and test results
圖16 檢測結果示意圖Fig.16 Examples of defects detection
魯棒性和適應性代表了模型的泛化能力.為了驗證本文模型的泛化能力,對襯砌圖像做出如下處理:病害位置的變化、病害尺度的變化、病害圖像的高斯模糊以及病害的不規(guī)則變形.
在圖17 所示的圖像中,圖像大小均為3 000 ×3 724 像素,包含了兩條裂縫,通過提取不同裂縫病害位置的圖像進行驗證.結果表明,無論病害位置如何移動,本方法均可正確檢測.
圖17 不同位置病害檢測結果Fig.17 Detection results with different defects location
在圖18 所示的圖像中,圖像大小經過了不同尺度的圖像變換,圖像大小從左到右分別為3 000 ×3 724 像素、1 700 × 2 000 像素、1 200 × 1 450 像素,每張圖像含有一處相同的滲漏水病害.檢測結果表明,在不同尺度的圖像中,本方法均可正確檢測,同時其檢測率均較高.
圖18 不同尺度病害檢測結果Fig.18 Detection results with different defects size
在圖19 所示的圖像中,對圖像進行高斯模糊處理,圖像從左到右模糊半徑分別為0、5、8.可以發(fā)現(xiàn),每張圖像都包括了兩條裂縫,一條裂縫寬度較寬,相對明顯,另一條裂縫寬度較窄,相對模糊.經過模糊半徑為5 的高斯模糊后,窄裂縫幾乎肉眼難以分辨,本方法仍然可以將其檢測出來,而經過模糊半徑為8 的高斯模糊后,本方法僅檢測出一條裂縫.檢測結果表明,在相對模糊圖像中,本方法具有良好的適應性.
圖19 高斯模糊圖像的病害檢測結果Fig.19 Detection results of Gaussian Blur images
在圖20 所示的圖像中,圖像從左到右分別為原始圖像,縱向拉伸圖像和橫向拉伸圖像,從視覺效果上看,經過變形的病害特征圖像具備了不同的形態(tài)特征,對于本方法,均可正確檢測.檢測結果表明,對于不規(guī)則變形的圖像,本方法具有良好的適應性.
圖20 橫縱向變形圖像的病害檢測結果Fig.20 Detection results with different aspect ratio
本文利用快速檢測盾構隧道襯砌病害的深度學習方法,在現(xiàn)有的卷積神經網絡物體檢測模型VGG-16 基礎上對模型進行修正,根據(jù)手動建立的裂縫、滲漏水病害數(shù)據(jù)集,并設計了6 種不同試驗條件下的Faster R-CNN 檢測模型,分別進行病害檢測計算,以此驗證模型參數(shù)修正的正確性與必要性,并對模型的魯棒性進行驗證.得出結論如下:
1)在現(xiàn)有Faster R-CNN 檢測模型基礎上進行修正,并對修正后模型的有效性、準確性和訓練難易程度進行了評估;通過控制變量法,對3 組參數(shù)修正前后的模型檢測結果進行比較.結果表明參數(shù)修正后的模型檢測準確度有明顯提升.
2)通過對不同檢測模型計算結果對比分析得出,裂縫和滲漏水的單一檢測模型比同時檢測兩種病害的模型準確度更高,但會增加一定時間成本.
3)此外,本文計算所采用的數(shù)據(jù)集僅有4 139 張圖片,圖片數(shù)量略少,參數(shù)修正后對隧道襯砌病害的檢測效果仍不能真正達到高準確度,僅有80.91%.可以考慮擴充病害數(shù)據(jù)庫,增加模型的魯棒性及準確度.