国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)Mask R-CNN的建筑鋼筋尺寸檢測算法

2021-09-15 07:36:44閆天冉馬曉靜饒穎露杜延麗馬思樂
計算機(jī)工程 2021年9期
關(guān)鍵詞:間距直徑像素

閆天冉,馬曉靜,饒穎露,杜延麗,馬思樂

(山東大學(xué) 海洋研究院,山東 青島 266237)

0 概述

鋼筋自身直徑尺寸與搭建間距是否符合標(biāo)準(zhǔn)直接決定了建筑結(jié)構(gòu)質(zhì)量的好壞,其已成為建筑監(jiān)理行業(yè)隱蔽工程驗(yàn)收中非常重要的檢測環(huán)節(jié)。傳統(tǒng)鋼筋監(jiān)理驗(yàn)收主要依靠人工視覺檢測,監(jiān)理人員需攀爬樓體建筑物,巡檢范圍有限且效率低,安全性和檢測效果也難以保證。此外,測量現(xiàn)場存在某些企業(yè)或個人私自放低驗(yàn)收標(biāo)準(zhǔn)的情況,人工驗(yàn)收環(huán)節(jié)存在漏洞,建筑監(jiān)理行業(yè)亟待向自動化和智能化轉(zhuǎn)型。然而,基于機(jī)器視覺的建筑智能監(jiān)理在應(yīng)用和發(fā)展中面臨諸多困難,例如背景、遮擋、雜質(zhì)干擾、光照等問題會對鋼筋尺寸檢測精度產(chǎn)生很大影響,檢測精度無法達(dá)到驗(yàn)收精度要求。因此,如何在建筑智能監(jiān)理行業(yè)中實(shí)現(xiàn)高精度鋼筋尺寸檢測的智能化是應(yīng)用和研究的難點(diǎn)。

近年來,與目標(biāo)檢測和語義分割相關(guān)的深度學(xué)習(xí)算法迅速發(fā)展,以卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)為原型衍生的各種方法被廣泛應(yīng)用,這些方法主要分為2 類:基于區(qū)域的目標(biāo)檢測算法和基于端到端的目標(biāo)檢測算法。前者在檢測精度和定位精度上占優(yōu),主要包括Fast R-CNN、Faster R-CNN[1]等;后者在檢測速度上占優(yōu),主要包括Yolo[2-3]系 列、SSD[4]等。由Faster R-CNN 發(fā)展而來的Mask R-CNN[5]神經(jīng)網(wǎng)絡(luò)算法利用矩形邊界框標(biāo)記目標(biāo)位置,能夠在很大程度上排除工地現(xiàn)場復(fù)雜環(huán)境對鋼筋目標(biāo)提取的干擾。同時,像素級的語義分割能夠?yàn)殇摻钶喞采w準(zhǔn)確的掩膜,令高精度尺寸檢測成為了可能。

為滿足當(dāng)前建筑智能監(jiān)理行業(yè)的實(shí)際應(yīng)用需求,高效準(zhǔn)確地完成隱蔽工程驗(yàn)收中的鋼筋尺寸檢測工作,本文利用無人機(jī)巡檢系統(tǒng)搭載高清攝像裝備并在建筑工地現(xiàn)場進(jìn)行拍攝,自建一個鋼筋數(shù)據(jù)集,在Mask R-CNN 模型基礎(chǔ)上加入自下而上路徑和注意力機(jī)制,構(gòu)建BU-CS Mask R-CNN 模型。利用該模型獲得更加準(zhǔn)確的鋼筋目標(biāo)檢測框和邊緣分割掩膜,使用亞像素邊緣提取和鄰近直線融合的直線檢測等機(jī)器視覺算法做進(jìn)一步處理,借助像素轉(zhuǎn)化方法獲得鋼筋直徑和間距的實(shí)際尺寸值,以判斷是否符合驗(yàn)收標(biāo)準(zhǔn)。

1 相關(guān)工作

在建筑智能監(jiān)理領(lǐng)域的目標(biāo)檢測中,HE 等[6]結(jié)合無人機(jī)影像中的建筑物特征,精簡Mask R-CNN基礎(chǔ)網(wǎng)絡(luò)層數(shù),調(diào)整和改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu),提高了建筑物的檢測效果。WANG 等[7]改 進(jìn)GIoU 計算方法,與Yolo v3 算法的目標(biāo)函數(shù)相結(jié)合,設(shè)計了一個新的目標(biāo)函數(shù),提高了建筑施工領(lǐng)域安全帽檢測的準(zhǔn)確率。在近幾年的研究應(yīng)用中,注意力機(jī)制[8]的運(yùn)用顯著改善了當(dāng)前先進(jìn)CNN 的性能。文獻(xiàn)[9]提出的SCA-CNN 網(wǎng)絡(luò)結(jié)合了CNN 中的通道和空間注意力來進(jìn)行圖像描述。文獻(xiàn)[10]提出了壓縮和激勵(SE)模塊,顯式地利用通道之間的相互依賴關(guān)系進(jìn)行建模,自適應(yīng)重新校準(zhǔn)通道特性響應(yīng)。這些方式提升了模型的預(yù)測準(zhǔn)確率。在改進(jìn)Mask R-CNN 網(wǎng)絡(luò)結(jié)構(gòu)方面,文獻(xiàn)[11]用極大值抑制方法替換了Mask R-CNN 中非極大值抑制方法,雖然處理速度上得到了些許提升,但是精度和原始算法持平。文獻(xiàn)[12]改進(jìn)了特征金字塔增加反向側(cè)邊連接的支路,雖然能更好地利用低層信息,但是送入后續(xù)網(wǎng)絡(luò)的特征依舊是從支路中選擇的單一尺度特征,缺乏對不同尺度特征的針對性利用,精度提升效果不顯著。

針對當(dāng)前深層神經(jīng)網(wǎng)絡(luò)提取特征時低層特征信息丟失的問題,以及目標(biāo)與非目標(biāo)區(qū)域權(quán)重分配不合理的情況,本文提出的BU-CS Mask R-CNN 模型對Mask R-CNN 中FPN 結(jié)構(gòu)進(jìn)行改進(jìn),通過加入自下而上路徑縮短了底層和最頂層之間的信息路徑,使底層信息更容易傳播到頂層,并在頂層得到更有效的利用。同時,在該路徑中組合使用通道注意力模塊和空間注意力模塊,為特征圖每個像素分配不同權(quán)重,為目標(biāo)響應(yīng)較高的通道分配更大權(quán)重,令更多注意力集中在前景區(qū)域像素點(diǎn)上,提升了鋼筋目標(biāo)的檢測精度。

2 改進(jìn)的Mask R-CNN 網(wǎng)絡(luò)模型

Mask R-CNN 是一個可以同時進(jìn)行目標(biāo)檢測和語義分割的深度學(xué)習(xí)網(wǎng)絡(luò)[13],在2016 年COCO 挑戰(zhàn)賽中獲得第1 名。該模型基于Faster R-CNN 網(wǎng)絡(luò)提出mask 掩膜,將全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolutional Network,F(xiàn)CN)中的分類和分割任務(wù)解耦。其中分類預(yù)測分支與Faster R-CNN 相同,生成類別并輸出矩形目標(biāo)檢測框,其突出特點(diǎn)是增加了掩膜分支,通過FCN[14]進(jìn)行像素級別的高精度語義分割。這兩者的有效組合令Mask R-CNN 成為目標(biāo)檢測和語義分割的優(yōu)秀工具。

Mask R-CNN 模型使用了LIN 等提出的特征金字塔網(wǎng)絡(luò)(Feature Pyramid Network,F(xiàn)PN)[15]作為骨架網(wǎng)絡(luò),這使得網(wǎng)絡(luò)不僅能夠利用低層的高分辨率特征,而且可以利用語義上更具意義的高層次低分辨率特征進(jìn)行精確定位。該模型的另一個貢獻(xiàn)是ROI-Align,它使用雙線性插值將任意大小的空間感興趣區(qū)域映射到固定的空間分辨率,這種改進(jìn)能夠相對提高10%~50%的掩碼精確度,在更嚴(yán)格的定位度量指標(biāo)下得到更好的度量,并啟用需要精確定位的實(shí)例掩碼。掩膜頭部引入了一個新的損失項(xiàng)LMask,用來計算預(yù)測掩膜和目標(biāo)掩膜之間的像素交叉熵。Mask R-CNN 損失函數(shù)定義如下:

其中:LClass和LBox分別為分類誤差和檢測誤差。Mask R-CNN 結(jié)構(gòu)如圖1所示。

圖1 Mask R-CNN 結(jié)構(gòu)Fig.1 Mask R-CNN structure

在深層神經(jīng)網(wǎng)絡(luò)中,下層特征需通過多層網(wǎng)絡(luò)層才能到達(dá)頂層,經(jīng)過多層之后,一些較低層信息可能會丟失,然而這些低層的特征信息對語義分割至關(guān)重要。在Mask R-CNN 的FPN 結(jié)構(gòu)中加入自下而上路徑(Bottom-up path),能夠縮短底層和最頂層要素層之間的信息路徑,使得底層信息更容易傳播到頂層,并在頂層得到更有效的利用。同時,組合使用通道注意力(Channel-wise Attention,CA)模塊和空間注意力(Spatial Attention,SA)模塊,將其定義為CA-SA 模塊,并把它添加到自下而上路徑。CA 負(fù)責(zé)在特征圖中分配每個通道的權(quán)重,SA 負(fù)責(zé)為每個像素分配相應(yīng)的權(quán)重。增加自下而上結(jié)構(gòu)和注意力機(jī)制強(qiáng)化了任務(wù)之間的關(guān)系,令特征圖對目標(biāo)特征有更好的響應(yīng)。本文將改進(jìn)后的模型命名為BU-CS Mask R-CNN,將在特征提取網(wǎng)絡(luò)中加入自下而上擴(kuò)展路徑和通道、空間注意力模塊的結(jié)構(gòu)命名為BOTTOM-UP-CA-SA。

CNN 中不同通道獲得的特征包含不同的語義信息,某些通道可能不包含任何目標(biāo)特征,不同通道特征的重要性也不盡相同。當(dāng)通過卷積提取特征時,多數(shù)現(xiàn)有方法會將相同權(quán)重分配給不同通道,而不進(jìn)行通道選擇。但在通道注意力模塊中,目標(biāo)響應(yīng)較高的通道被分配更大的權(quán)重,這樣可以更容易地獲得所需對象的特征。對于通道注意力,卷積特征F=[F1,F(xiàn)2,…,F(xiàn)C],Fi?Rw×h,式中Fi表示特征圖F的第i個通道,C為通道總數(shù)。將平均池化操作應(yīng)用于每個特征圖并產(chǎn)生1 個通道特征向量V:V=[V1,V2,…,Vc],V?Rc,式中Vi表示平均池化后第i個通道的特征,用1×1 卷積核進(jìn)行卷積以從每個通道Vi學(xué)習(xí)聚合特征,再對特征向量V執(zhí)行softmax 操作,使所有通道的和為1,通道注意力模塊結(jié)構(gòu)如圖2 所示。

圖2 通道注意力模塊Fig.2 Channel attention module

在圖像中檢測目標(biāo)區(qū)域時,檢測目標(biāo)只會出現(xiàn)在圖像的某些部分。普通CNN 網(wǎng)絡(luò)將平等對待圖像中的每個區(qū)域,空間注意力機(jī)制不會對每個圖像區(qū)域進(jìn)行平等考慮,而更多地關(guān)注與檢測目標(biāo)相關(guān)的區(qū)域,在特征圖中為每個像素分配一個權(quán)重,令更多注意力集中在前景區(qū)域像素點(diǎn)上,有效減少背景干擾[16-17]。給出卷 積特征F=[F1,F(xiàn)2,…,F(xiàn)C],使用1×1 卷積核生成特征圖M,在特征圖M 的像素點(diǎn)上執(zhí)行softmax 操作使它們相加為1,空間注意力模塊結(jié)構(gòu)如圖3 所示。

圖3 空間注意力模塊Fig.3 Spatial attention module

Mask R-CNN 模型采用ResNet-FPN 架構(gòu)進(jìn)行特征提取,ResNet[18]作為基礎(chǔ)特征提取網(wǎng)絡(luò),是目前應(yīng)用最廣泛的深度卷積特征提取網(wǎng)絡(luò)之一。根據(jù)特征圖大小分為5 個stage,conv2~conv5 這4 個層次的輸出特征圖分別 定義為C2、C3、C4、C5。通過ResNet 和FPN 結(jié)構(gòu)得到4 種 不同層次的特征圖,即P2、P3、P4、P5,如圖4 所示。P2層到P5層是自下而上的擴(kuò)展路徑,添加CA-SA 模塊后,每層特征圖Ni大小依然與對應(yīng)的特征圖Pi相同,然后新的特征圖Ni便取代了原有特征圖Pi,并被發(fā)送到后續(xù)網(wǎng)絡(luò)層進(jìn)行下一步處理。

圖4 BOTTOM-UP-CA-SA 結(jié)構(gòu)示意圖Fig.4 Schematic diagram of BOTTOM-UP-CA-SA structure

由圖4可知,BOTTOM-UP-CA-SA 結(jié)構(gòu)中N2與P2相同,為生成特征圖Ni+1,Ni(2W×2H×C)由1 個步幅為2 的3×3 卷積核卷積而成,特征圖的高和寬被縮小到原來的1/2,尺寸與Pi+1保持相同??s小后的特征圖通過元素相加的方式與特征圖Pi+1融合得到1 個新的特征圖Ni-half,之后被發(fā)送到CA-SA 注意力模塊得到特征圖Ni,生成1 個新的特征金字塔{N2,N3,N4,N5},模塊構(gòu)造如圖5 所示。

圖5 BOTTOM-UP-CA-SA 結(jié)構(gòu)解析Fig.5 Illustraion of BOTTOM-UP-CA-SA structure

3 像素轉(zhuǎn)化

本文提出了像素轉(zhuǎn)化方法,通過轉(zhuǎn)換公式將鋼筋圖像中的直徑和間距像素值轉(zhuǎn)化為實(shí)際尺寸。無人機(jī)在與地面保持水平的h米高度(無人機(jī)自動記錄的實(shí)時高度),以固定倍數(shù)焦距拍攝圖像,以此為前提條件建立像素轉(zhuǎn)化模塊,計算方法如圖6所示。

圖6 像素轉(zhuǎn)化計算示意圖Fig.6 Schematic diagram of pixel conversion calculation

在圖6 中,d為片幅的對角線長度,135 片幅也就是標(biāo)準(zhǔn)鏡頭的對角線長度是43 mm。f是鏡頭焦距(單位為mm)。圖像視角的對角線角度(單位為°)公式為:

針對這部分老人,劉主任給出建議,“在遇到家庭矛盾時,應(yīng)多與孩子溝通,畢竟子女孫兒都是親生的。家庭不和諧,別說旅行,做什么都會不開心的??!親情為上,根據(jù)家庭具體情況,量力而為,達(dá)成一致意見是很有必要的?!?/p>

設(shè)圖像長為l像素,寬為w像素,對角線一半的像素值dp公式為:

已知無人機(jī)拍攝高度h,設(shè)鋼筋在圖像中直徑/間距為n像素,對角線一半的實(shí)際尺寸dt、單位像素的實(shí)際尺寸d1和鋼筋直徑/間距實(shí)際尺寸t的公式分別為:

4 實(shí)驗(yàn)

4.1 鋼筋數(shù)據(jù)集

建筑施工現(xiàn)場鋼筋目標(biāo)檢測的主要難點(diǎn)有:背景復(fù)雜且多變;存在墊塊、雜質(zhì)和施工工具等物體的干擾;螺紋鋼筋顏色與背景底色相近;日光照射下存在陰影。由于目前沒有公開可用的鋼筋數(shù)據(jù)集,本文利用大疆M600 無人機(jī)搭載高清可變焦攝像設(shè)備,在施工現(xiàn)場上空垂直攝影。拍攝時令橫豎鋼筋與圖像坐標(biāo)盡量保持水平或垂直,這是因?yàn)槟繕?biāo)檢測框?yàn)榫匦?,?shù)據(jù)集圖像中的鋼筋保持水平或垂直能極大地提高模型訓(xùn)練和測試的效率和準(zhǔn)確率,可避免候選框包含不必要的背景與雜質(zhì),減少目標(biāo)檢測框重疊帶來的誤差。但受飛行環(huán)境不穩(wěn)定的影響,拍攝的圖像可能并不能完全達(dá)到要求,需要利用輔助參照物進(jìn)行仿射變換[17]以矯正圖像角度,矯正前后的圖像效果如圖7 所示。

圖7 仿射變換矯正前后圖像效果Fig.7 Image effect before and after affine transformation correction

由于拍攝范圍有限,因此采用了數(shù)據(jù)增廣的方法,對圖片進(jìn)行水平翻轉(zhuǎn)、增強(qiáng)亮度和添加不同密度噪聲等以增大訓(xùn)練樣本數(shù)量,豐富樣本的多樣性。數(shù)據(jù)增廣效果如圖8 所示。經(jīng)過處理和擴(kuò)增后的數(shù)據(jù)集共有2 000 張,其中訓(xùn)練集每張圖像大小為512 像素×384 像素,見圖9(a)。使用標(biāo)注工具對其進(jìn)行多邊形邊框標(biāo)注。由于同一張圖像中一般存在多個鋼筋目標(biāo),因此使用了不同標(biāo)簽加以區(qū)分。該操作可防止檢測結(jié)果只輸出1 個涵蓋全部目標(biāo)鋼筋的矩形邊界框,避免出現(xiàn)分割效果不準(zhǔn)確、無法進(jìn)行后續(xù)應(yīng)用等現(xiàn)象。為減少圖像計算量,對標(biāo)定圖像進(jìn)行了灰度化處理。經(jīng)過數(shù)據(jù)標(biāo)定和處理后的鋼筋目標(biāo)掩膜圖像見圖9(b)。

圖8 數(shù)據(jù)增廣效果示意圖Fig.8 Schematic diagram of date expansion effect

圖9 鋼筋數(shù)據(jù)集Fig.9 Rebar dataset

4.2 模型訓(xùn)練

本文中深度學(xué)習(xí)訓(xùn)練的硬件配置為:操作系統(tǒng)Windows10,顯卡NVIDIA GeForce GTX1080,系統(tǒng)內(nèi)存64 GB,搭建運(yùn)行環(huán)境TensorFlow-GPU1.4.0,Keras2.1.6,CUDA9.0.176,以 及cuDNN7.0.5,利 用Python3.6 運(yùn)行訓(xùn)練程序。訓(xùn)練過程需設(shè)置適合的參數(shù),本文只針對鋼筋目標(biāo)這1 個類別進(jìn)行檢測訓(xùn)練,相關(guān)設(shè)置如下:Batch_size 為2,訓(xùn)練類別為1+1,學(xué)習(xí)率為0.001。

4.3 模型評價指標(biāo)

本文采用F1 分?jǐn)?shù)(F1 Score)、召回率(Recall)、像素準(zhǔn)確率(Accuracy,Acc)和交并比(Intersectionover-Union,IoU)作為檢測評價指標(biāo)。鋼筋尺寸檢測是一個語義分割問題,這里令鋼筋像素取1,背景像素取為0。其中召回率、像素準(zhǔn)確率的計算公式分別為:

F1 分?jǐn)?shù)和交并比的計算式分別為:

4.4 實(shí)驗(yàn)結(jié)果與分析

本文選用ResNet101 作為主干網(wǎng)提取特征,并將提出的特征加入自下而上路徑和注意力模塊的Mask R-CNN 模型,即U-CS Mask R-CNN,并與Mask R-CNN 基礎(chǔ)模型、Mask Scoring R-CNN[19]、Mask R-CNN+S-NMS[20]及PANet[21]進(jìn)行比較,模型性能評估對比見表1。實(shí)驗(yàn)結(jié)果表明,BU-CS Mask R-CNN 模型在訓(xùn)練過程中收斂更快,損失值也小于未添加的模型。同時,召回率、像素準(zhǔn)確率和交并比分別較Mask R-CNN 基礎(chǔ)模型提升4.9%、7.4%、6.8%,評價指標(biāo)數(shù)據(jù)和檢測效果較其他改進(jìn)的Mask R-CNN 模型也更加優(yōu)異。選取復(fù)雜背景的部分工地現(xiàn)場鋼筋圖像進(jìn)行測試,如圖10 第1 行圖片所示。圖10 第2 行圖片的紫色區(qū)域和虛線邊框是本文算法提取到的鋼筋邊緣分割掩膜和目標(biāo)檢測框。

表1 不同模型性能評估對比Table 1 Performance evaluation and comparison of different models

圖10 現(xiàn)場鋼筋圖片與BU-CS Mask R-CNN 模型檢測效果Fig.10 On-site rebar pictures and detection effect of BU-CS Mask R-CNN model

深度學(xué)習(xí)算法還需要考慮內(nèi)存和算力的需求,本文在tensorflow 框架下計算了BU-CS Mask R-CNN 算法和Mask R-CNN 算法的時間復(fù)雜度和空間復(fù)雜度。其中時間復(fù)雜度決定模型的訓(xùn)練和預(yù)測時間,用浮點(diǎn)運(yùn)算數(shù)(FLOPs)衡量,空間復(fù)雜度決定模型的參數(shù)數(shù)量。CA-SA 模塊的加入增加了本文算法的計算量,在輸入圖片大小為512 像素×384 像素的 條件下,BU-CS Mask R-CNN 和Mask R-CNN 的FLOPs 分別為7.875 和8.355(增加0.485),網(wǎng)絡(luò)參數(shù)總量分別為49.6 M 和57.1 M(增加7.5 M)。本文算法雖然比Mask R-CNN 稍顯復(fù)雜,但對于建筑智能監(jiān)理鋼筋尺寸檢測這部分的實(shí)際應(yīng)用方面來說,檢測準(zhǔn)確率的重要性遠(yuǎn)大于檢測速度和時間,因此增加的復(fù)雜度相對于準(zhǔn)確度的提升在可接受范圍內(nèi)。

BU-CS Mask R-CNN 模型提取到更加準(zhǔn)確的鋼筋目標(biāo)檢測框和邊緣分割掩膜后,利用基于Zernike正交矩的亞像素邊緣檢測方法精確定位鋼筋邊緣輪廓。結(jié)合鋼筋圖像特征可知,同側(cè)鋼筋的直線相鄰較近且在圖像中呈對稱分布,通過直線上的點(diǎn)信息融合鄰近直線,便可獲得高度擬合的鋼筋邊緣直線。

鋼筋直徑與間距測量定位示意圖如圖11 所示。建筑工地現(xiàn)場主要包括3 種不同尺寸的鋼筋,分別為12 mm、10 mm 和8 mm 的直徑類型,在每種鋼筋類型的2 條邊緣直徑中間隨機(jī)選取20 個不同的直徑定位點(diǎn),測量定位示意圖如圖11(a)所示。首先通過實(shí)地測量的方式記錄相同直徑定位點(diǎn)的真實(shí)尺寸,計算出實(shí)際直徑測量的平均值;接著利用Mask RCNN 深度學(xué)習(xí)網(wǎng)絡(luò)在選取的定位點(diǎn)對3 種類型鋼筋進(jìn)行檢測,通過像素轉(zhuǎn)化方法將直徑像素尺寸轉(zhuǎn)化獲得實(shí)際尺寸,記錄直徑尺寸平均值和誤差;最后利用BU-CS Mask R-CNN 深度學(xué)習(xí)網(wǎng)絡(luò)在相同的定位點(diǎn)對3 種類型鋼筋執(zhí)行相同操作,同樣記錄直徑尺寸平均值和誤差。改進(jìn)前后的直徑平均檢測結(jié)果如表2 所示。

圖11 鋼筋直徑與間距測量定位示意圖Fig.11 Schematic diagram of rebar diameter and spacing positioning

隨機(jī)選取8 個區(qū)域位置的鋼筋間距,并實(shí)地測量、記錄鋼筋間距的真實(shí)尺寸,間距的測量定位示意圖如圖11(b)所示。在改進(jìn)Mask R-CNN 模型前后分別記錄8 個相同位置檢測到的鋼筋間距值,并計算誤差。模型改進(jìn)前后鋼筋間距檢測結(jié)果對比見表3。根據(jù)建筑監(jiān)理工程驗(yàn)收中的鋼筋直徑測量指標(biāo)得知,直徑誤差在0.8 mm 內(nèi)即為符合驗(yàn)收要求的同一規(guī)格鋼筋。由表2 鋼筋直徑平均檢測結(jié)果分析可知,Mask R-CNN 改進(jìn)前12 mm、10 mm、8 mm 這3 種鋼筋的平均誤差絕對值最大分別為1.697 mm、2.151 mm、1.823 mm,均不滿足直徑驗(yàn)收需求;改進(jìn)后3 種鋼筋的平均誤差絕對值最大分別為0.527 mm、0.363 mm、0.456 mm,均小于0.8 mm,滿足這3 種尺寸鋼筋的直徑驗(yàn)收需求,且直徑尺寸檢測精度平均提升14.9%。

表2 Mask R-CNN 與BU-CS Mask R-CNN 平均直徑檢測結(jié)果Table 2 Average diameter detection result of Mask R-CNN and BU-CS Mask R-CNN

表3 Mask R-CNN 與BU-CS Mask R-CNN 間距檢測結(jié)果Table 3 Spacing detection result of Mask R-CNN and BU-CS Mask R-CNN

建筑監(jiān)理工程中鋼筋間距驗(yàn)收要求為20 cm,誤差在1 cm 內(nèi)即為合格綁扎鋼筋。利用目標(biāo)檢測框坐標(biāo)對相鄰鋼筋間距進(jìn)行測算,改進(jìn)前誤差絕對值最小為10.55 mm,大于1 cm,不滿足間距驗(yàn)收需求;改進(jìn)后誤差絕對值最大為7.5 mm,小于1 cm,滿足間距驗(yàn)收要求,且間距尺寸檢測精度平均提升4.4%。以上結(jié)果證明,基于BU-CS Mask R-CNN 模型的建筑鋼筋尺寸檢測方法提升了檢測精度,且改進(jìn)后能夠滿足建筑監(jiān)理工程中鋼筋直徑0.8 mm 的誤差指標(biāo)和間距1 cm 的誤差指標(biāo)。

5 結(jié)束語

本文針對建筑智能監(jiān)理隱蔽工程驗(yàn)收中的鋼筋尺寸檢測精度低的問題,提出了BU-CS Mask R-CNN 模型,該模型加入了自下而上路徑和注意力機(jī)制,能得到更加準(zhǔn)確的鋼筋目標(biāo)檢測框和邊緣分割掩膜。實(shí)驗(yàn)結(jié)果表明,與Mask R-CNN 模型相比,BU-CS Mask R-CNN 模型的召回率、交并比和像素準(zhǔn)確率分別提升了4.9%、6.8%、7.4%,鋼筋直徑和間距的尺寸檢測精度分別提升了14.9%、4.4%。同時,本文自建了含有2 000 張圖片的鋼筋數(shù)據(jù)集用于訓(xùn)練和測試,實(shí)現(xiàn)了建筑智能監(jiān)理領(lǐng)域基于機(jī)器視覺的智能化高精度鋼筋尺寸測量,為建筑監(jiān)理中的鋼筋驗(yàn)收工作提供了可靠的基礎(chǔ)數(shù)據(jù)和智能化的方法。下一步將對該模型進(jìn)行輕量化處理,以提高模型的檢測速度。

猜你喜歡
間距直徑像素
宋代君臣殿上間距考論
趙運(yùn)哲作品
藝術(shù)家(2023年8期)2023-11-02 02:05:28
像素前線之“幻影”2000
各顯神通測直徑
“像素”仙人掌
山水(直徑40cm)
云南檔案(2019年7期)2019-08-06 03:40:50
高速公路指揮中心小間距LED應(yīng)用探討
算距離
高像素不是全部
CHIP新電腦(2016年3期)2016-03-10 14:22:03
一類直徑為6的優(yōu)美樹
舒兰市| 弥勒县| 宿州市| 沙雅县| 靖江市| 吴江市| 民县| 鹤岗市| 北安市| 南木林县| 洛扎县| 高碑店市| 田阳县| 竹山县| 绿春县| 安远县| 喜德县| 正宁县| 治县。| 乐昌市| 陆良县| 邻水| 麻城市| 安阳县| 柘城县| 博爱县| 确山县| 武邑县| 博湖县| 黑水县| 怀远县| 微博| 五华县| 龙井市| 吉隆县| 文成县| 都江堰市| 禹州市| 泊头市| 安徽省| 利津县|