国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)YOLOv8的輕量化中小橋梁裂縫檢測(cè)方法

2025-03-07 00:00:00趙利君
物流科技 2025年1期
關(guān)鍵詞:注意力機(jī)制目標(biāo)檢測(cè)圖像處理

摘" 要:近年來,中國(guó)橋梁建設(shè)空前發(fā)展,橋梁安全運(yùn)維問題日益凸顯。文章提出一種基于YOLOv8的裂縫檢測(cè)模型YOLOv8-BC,該模型采用GhostConv對(duì)HGNetv2改進(jìn)后的結(jié)構(gòu)替換YOLOv8的主干網(wǎng)絡(luò),實(shí)現(xiàn)模型輕量化;引入可變形注意力機(jī)制DAttention,獲得更多的空間信息;使用基于輔助邊框的Inner-iou損失函數(shù)替代CIOU損失函數(shù),提高模型的泛化能力和檢測(cè)精度。在自建數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),結(jié)果表明YOLOv8-BC模型準(zhǔn)確率達(dá)到了95.3%,mAP50達(dá)到了95.9%,相較于YOLOv8s模型分別提高了2.3%和2.0%,同時(shí)參數(shù)量降低了15.3%。這表明YOLOv8-BC模型能夠更高效地檢測(cè)復(fù)雜環(huán)境下的橋梁裂縫,為工業(yè)檢測(cè)提供了重要思路和技術(shù)支持。

關(guān)鍵詞:橋梁裂縫;目標(biāo)檢測(cè);注意力機(jī)制;YOLOv8;圖像處理

中圖分類號(hào):U446" " 文獻(xiàn)標(biāo)志碼:A

DOI:10.13714/j.cnki.1002-3100.2025.01.016

Abstract: In recent years, the bridge construction in China has developed unprecedentedly, and the problem of bridge safety operation and maintenance has become more and more prominent. In this paper, we propose a crack detection model YOLOv8-BC based on YOLOv8, which adopts GhostConv's improved structure of HGNetv2 to replace the backbone network of YOLOv8, to realize the model's lightweight; introduces the deformable attention mechanism DAttention, to obtain more spatial information; and uses the auxiliary edge-based inner

-iou loss function based on auxiliary edges instead of CIOU loss function to improve the generalization ability and detection accuracy of the model. Experiments on the self-constructed dataset show that the YOLOv8-BC model achieves an accuracy of 95.3% and the mAP50 reaches 95.9%, which is improved by 2.3% and 2.0%, respectively, compared with the YOLOv8s model, while the number of parameters is reduced by 15.3%. This indicates that the YOLOv8-BC model can detect bridge cracks in complex environments more efficiently, which provides important ideas and technical support for industrial inspection.

Key words: bridge crack; object detection; attention mechanism; YOLOv8; image processing

0" 引" 言

近年來,我國(guó)公路橋梁建設(shè)取得了前所未有的蓬勃發(fā)展,這一成就很大程度上得益于《國(guó)家公路網(wǎng)規(guī)劃(2013—2030年)》與《十三五規(guī)劃綱要》的積極引領(lǐng)。據(jù)《2022年交通運(yùn)輸行業(yè)發(fā)展統(tǒng)計(jì)公報(bào)》權(quán)威數(shù)據(jù)揭示[1],至2022年末,我國(guó)公路橋梁總數(shù)達(dá)103.32萬座,總長(zhǎng)度突破8 576.49萬延米,彰顯出我國(guó)橋梁服役數(shù)量的巨大規(guī)模。橋梁在完成建設(shè)并投入運(yùn)營(yíng)后,后續(xù)的維護(hù)管理工作便成為了保障橋梁安全穩(wěn)定運(yùn)行的核心環(huán)節(jié),不容忽視。據(jù)交通部頒布的《公路養(yǎng)護(hù)技術(shù)規(guī)范》JTJ073

-96文件,要求定期對(duì)橋梁進(jìn)行檢測(cè)。但傳統(tǒng)橋梁檢測(cè)主要依靠工人使用檢測(cè)儀器來完成,存在耗時(shí)長(zhǎng)、效率低、易錯(cuò)檢漏檢等諸多弊端。采用大數(shù)據(jù)、人工智能、圖像處理等技術(shù)對(duì)橋梁健康狀況進(jìn)行定期評(píng)估,及時(shí)掌握裂縫變化情況,對(duì)于保障交通安全具有較高的實(shí)際價(jià)值與安全意義。

在早期的裂縫檢測(cè)研究中,算法大多基于傳統(tǒng)的數(shù)字圖像處理技術(shù),如閾值分割法、形態(tài)學(xué)方法、滲流模型以及邊緣檢

測(cè)[2-4]。這些技術(shù)需要人工參與特征的提取過程,但由于特征提取的主觀性,最終檢測(cè)結(jié)果的準(zhǔn)確性往往受到人為因素的影響。

近年來,深度學(xué)習(xí)作為監(jiān)督學(xué)習(xí)領(lǐng)域的熱門且高效的方法,為圖像采集基礎(chǔ)上的橋梁裂縫檢測(cè)帶來了前所未有的機(jī)遇。其強(qiáng)大的特征提取與泛化能力,以及出色的魯棒性和可靠性,使得深度學(xué)習(xí)在此領(lǐng)域大放異彩。在此背景下,國(guó)內(nèi)外多個(gè)研究團(tuán)隊(duì)紛紛利用深度學(xué)習(xí)技術(shù),提出了眾多創(chuàng)新的裂縫檢測(cè)算法。其中,Wang et al.[5]基于Inception-Resnet-v2算法,提出一種橋梁裂紋檢測(cè)模型,實(shí)現(xiàn)目標(biāo)區(qū)域的精確分割。Zheng et al.[6]提出一種基于Seg-Net和瓶頸深度可分離殘差卷積的高精度橋梁混凝土裂縫檢測(cè)方法。Fu et al.[7]提出一種基于改進(jìn)的DeepLabv3+語義分割算法的裂縫檢測(cè)方法,但圖像邊緣的裂縫檢測(cè)效果不佳。Ma et al.[8]基于YOLOv3提出了一種路面裂縫自動(dòng)智能檢測(cè)與跟蹤系統(tǒng);Ali et al.[9]介紹了深度學(xué)習(xí)模型在裂縫檢測(cè)中的應(yīng)用;廖延娜等[10]提出了一種基于YOLOv3改進(jìn)的混凝土表觀缺陷檢測(cè)器,用于檢測(cè)公路橋梁裂縫在內(nèi)的多種混凝土缺陷;Yao et al.[11]基于YOLOv5并結(jié)合注意力機(jī)制提出一種路面裂縫檢測(cè)新方法;Li et al.[12]利用基于遷移學(xué)習(xí)的Faster R-CNN對(duì)橋梁進(jìn)行裂縫檢測(cè)。由于Faster R-CNN、YOLOv3等模型參數(shù)量較大,以這些模型為基礎(chǔ)的裂縫檢測(cè)模型也存在較大參數(shù)量,在一些性能受限的設(shè)備上可能無法使用。

上述文獻(xiàn)所提方法雖在一定程度上可以實(shí)現(xiàn)對(duì)橋梁病害的檢測(cè),但其主要面臨檢測(cè)精度與檢測(cè)速度難以兩全的矛盾沖突,部分算法還存在橋梁裂縫病害特征提取上能力弱、特征學(xué)習(xí)不徹底等問題。針對(duì)現(xiàn)有橋梁的數(shù)量多、分布廣、檢測(cè)難度大,需要一種體積小、精度高、速度快的圖像檢測(cè)算法來對(duì)橋梁裂縫進(jìn)行檢測(cè)。

基于此,本文從應(yīng)用的角度出發(fā)建立了混凝土橋梁裂縫專業(yè)數(shù)據(jù)集,設(shè)計(jì)了基于改進(jìn)的YOLOv8混凝土橋梁裂縫檢測(cè)算法YOLOv8-BC,根據(jù)橋梁裂縫特征,對(duì)YOLOv8算法的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行針對(duì)性輕量化改進(jìn),提升混土橋梁裂縫的檢測(cè)精度和效率,滿足實(shí)際工程檢測(cè)需求。

1" YOLOv8-BC模型

YOLOv8算法在目標(biāo)檢測(cè)與實(shí)例分割任務(wù)中性能優(yōu)良。設(shè)計(jì)涵蓋了多種分辨率的目標(biāo)檢測(cè)網(wǎng)絡(luò)以及基于YOLACT[13]框架的實(shí)例分割模型,能夠滿足多樣化的應(yīng)用場(chǎng)景需求。該算法在主干網(wǎng)絡(luò)和Neck部分采用C2F結(jié)構(gòu),并通過針對(duì)不同尺度模型調(diào)整通道數(shù)來優(yōu)化性能;在Head部分,則采用解耦頭結(jié)構(gòu)設(shè)計(jì),將分類與檢測(cè)任務(wù)獨(dú)立處理,提高了效率。此外,YOLOv8還引入了Mosaic數(shù)據(jù)增強(qiáng)技術(shù),有效擴(kuò)充訓(xùn)練數(shù)據(jù)集,提升檢測(cè)精度。然而,橋梁裂縫具有顏色單一、特異性強(qiáng)、尺寸差別大等特點(diǎn),在檢測(cè)任務(wù)中原有的YOLOv8模型存在模型過大、檢測(cè)精度不足等問題,難以滿足行業(yè)要求。

針對(duì)這一問題,本文提出輕量化的YOLOv8-BC檢測(cè)模型(見圖1),采用GhostNet[14]中輕量化的幻影卷積(Ghost Convolution)改進(jìn)HGNetv2[15]結(jié)構(gòu)里面的HGBlock得到GhostHGNetv2,使用GhostHGNetv2替換YOLOv8的主干網(wǎng)絡(luò),實(shí)現(xiàn)了模型的輕量化。同時(shí),模型對(duì)收集的數(shù)據(jù)集利用Masico進(jìn)行數(shù)據(jù)增強(qiáng)。此外,引入可變形注意力機(jī)制DAttention[16](Deformable Attention),使用基于輔助邊框的Inner-IOU[17]損失函數(shù)替代CIOU損失函數(shù)。YOLOv8-BC網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

1.1" 輕量化網(wǎng)絡(luò)GhostHGNetv2。針對(duì)YOLOv8主干網(wǎng)絡(luò)復(fù)雜度和參數(shù)量過大的問題,用GhostConv輕量化的幻影卷積(Ghost Convolution)改進(jìn)HGNetv2結(jié)構(gòu)里面的HGBlock,并用得到的GhostHGNetv2替換YOLOv8的主干網(wǎng)絡(luò)后實(shí)現(xiàn)模型輕量化。

1.1.1" HGNetv2。HGNetv2是百度在RT-DETR[17]項(xiàng)目中研發(fā)的主干網(wǎng)絡(luò),用以提升計(jì)算效率并縮減模型大小。該網(wǎng)絡(luò)主要由HGStem預(yù)處理層模塊和HGBlock數(shù)據(jù)處理模塊組成。數(shù)據(jù)從HGStem預(yù)處理層起始,依次通過多個(gè)HGBlock層次化處理模塊,最終達(dá)成分類任務(wù)。HGNetv2的主干網(wǎng)絡(luò)架構(gòu)如圖3所示。

HGBlock是主干網(wǎng)絡(luò)的關(guān)鍵組成部分。采用分級(jí)方法來處理數(shù)據(jù),每個(gè)HGBlock負(fù)責(zé)處理數(shù)據(jù)的不同層級(jí),每個(gè)層級(jí)都設(shè)計(jì)來捕捉特定區(qū)間內(nèi)的特征,以此實(shí)現(xiàn)信息的分層解析,Conv表示標(biāo)準(zhǔn)卷積操作,LightConv指輕量級(jí)卷積,k代表卷積核的尺寸為n,s指的是卷積核的移動(dòng)步長(zhǎng)為m,Add操作是指將數(shù)據(jù)進(jìn)行拼接,結(jié)構(gòu)如圖4所示。這種方式促使網(wǎng)絡(luò)能夠有效地學(xué)習(xí)從低級(jí)到高級(jí)的特征,同時(shí)提高對(duì)細(xì)節(jié)信息的敏感度。在HGBlock內(nèi)部,可以根據(jù)具體需求調(diào)整Block參數(shù),靈活地選用輕量化卷積LightConv或普通卷積Conv。

1.1.2" GhostConv。GhostConv模塊卷積結(jié)構(gòu)通過將恒等映射和線性變換得到卷積特征圖。GhostConv結(jié)構(gòu)如圖5所示。

該模塊采用先通過點(diǎn)對(duì)點(diǎn)的卷積操作生成一部分特征圖,然后利用這些已生成的特征圖,通過簡(jiǎn)單的線性變換來構(gòu)造剩余的特征映射。這種方法使得GhostConv卷積能夠在不犧牲模型性能的前提下,顯著地減少所需的參數(shù)數(shù)量和計(jì)算量。假定輸入特征的高度、寬度和通道數(shù)分別為h、w和c,輸出特征的高度和寬度為H和W,卷積核數(shù)量為n,卷積核大小為k,線性變換所使用的卷積核大小為d,且變換的數(shù)量為s。r和r分別代表了傳統(tǒng)卷積與GhostConv卷積在計(jì)算量和參數(shù)量上的比值,其中計(jì)算公式如式(1)、式(2)所示。

r==≈s" " " " " " " " " " (1)

r==≈s" " " " " " " " " " " " " " " " "(2)

由式(1)、式(2)可知在相同操作條件下,GhostConv的計(jì)算量?jī)H為普通卷積的1/s。在主干網(wǎng)絡(luò)中采用GhostConv來替換HGBlock內(nèi)的傳統(tǒng)卷積操作(Conv),將能有效減少算法模型的復(fù)雜度。GhostConv可以看作是對(duì)原始特征圖的一種低成本的近似,有助于減少計(jì)算量和參數(shù)數(shù)量,優(yōu)化卷積層的計(jì)算效率。

本文采用幻影卷積GhostConv實(shí)現(xiàn)對(duì)HGNetv2主干網(wǎng)絡(luò)中的HGBlock模塊優(yōu)化創(chuàng)建新的Ghost_HGBlock如圖6所示以減少模型復(fù)雜度。從而適用于橋梁裂縫場(chǎng)景下的輕量化目標(biāo)檢測(cè)。

1.2" 可變形注意力機(jī)制DAttention。由于橋梁病害圖像中占橋梁背景絕大部分,且裂縫多為長(zhǎng)裂縫和細(xì)小裂縫。為了提高模型對(duì)裂縫檢測(cè)精度,在模型主干中引入可形變注意力機(jī)制DAttention,如圖7所示。DAttention是一種空間適應(yīng)機(jī)制,讓模型在處理數(shù)據(jù)中可以動(dòng)態(tài)地調(diào)整其注意力焦點(diǎn)。能夠更好地捕獲裂縫的生長(zhǎng)趨勢(shì)和方向,減少無關(guān)背景的干擾,提高裂縫特征識(shí)別精度和裂縫檢測(cè)速度。

根據(jù)給定輸入特征圖x∈R,生成一個(gè)與輸入特征圖大小成比例(通過因子r縮放)的單元網(wǎng)格p∈R大小相同的單元網(wǎng)格,其中:H=H/r、W=W/r,并標(biāo)準(zhǔn)化網(wǎng)格坐標(biāo)至-1,+1。網(wǎng)格在圖7中以黑色虛線形式展示。

使用投影矩陣W對(duì)特征圖進(jìn)行線性投影,得到查詢?cè)豵。查詢?cè)乇惠斎胼p量級(jí)子網(wǎng)絡(luò)θ以計(jì)算偏移量Δp。應(yīng)用偏移量調(diào)整網(wǎng)格位置,并通過雙線性插值在變形位置對(duì)特征圖進(jìn)行采樣,得到變形后的鍵和值。投影矩陣W通過訓(xùn)練學(xué)習(xí),以捕捉對(duì)后續(xù)任務(wù)有用的特征信息。投影矩陣如下:

q=xW, =W, =W" " " " " " " " " " " " " " " " " " " " "(3)

withΔp=θq, =?覫x,p+Δp" " " " " " " " " " " " " " " " " " " (4)

=?覫z, p,p=gp,rgp,rzr,r,:z=σ+?覫;R" " " " " " " " " (5)

其中:ga,b=max0,1-a-b用于計(jì)算兩個(gè)位置之間的相關(guān)性,r,r為特征圖z∈R上所有位置建立的索引。由于函數(shù)g僅在距離p,p最近的四個(gè)積分點(diǎn)上取非零值,因此本文可以將式(5)簡(jiǎn)化為這四個(gè)位置上的加權(quán)平均值。與現(xiàn)有的方法類似,本文對(duì)查詢q、鍵k和值v執(zhí)行多頭注意力機(jī)制,并且在注意力機(jī)制中引入了相對(duì)位置偏移。注意力頭的輸出被表述為:

z=σ+?覫;R" " " " " " " " " " " " " " " " " " "(6)

式中:?覫;R∈R, 代表輸入數(shù)據(jù),R表示相對(duì)位置信息。來自每個(gè)注意力頭的特征被串聯(lián)起來,并通過權(quán)重矩陣W進(jìn)行線性變換,最終得到輸出z。

將可形變注意力機(jī)制DAttention模塊添加到主干網(wǎng)絡(luò)中,如圖2黑色框的位置,能夠更好捕捉特征點(diǎn)在不同尺度間的對(duì)應(yīng)關(guān)系,通過預(yù)測(cè)一個(gè)偏移量(Offset),使得注意力分布可以根據(jù)數(shù)據(jù)的特點(diǎn)自適應(yīng)的改變。這樣的方式使得網(wǎng)絡(luò)模型能夠充分聚焦于橋梁裂縫圖像中裂縫的關(guān)鍵特征,同時(shí)減少不必要的計(jì)算消耗。從而可以自適應(yīng)地處理輸入圖像的大小和比例,提高圖像分類和檢測(cè)的準(zhǔn)確率。

1.3" 損失函數(shù)Inner IoU Loss。Inner IoU(內(nèi)部交并比)是一種評(píng)估預(yù)測(cè)邊界框(Bounding box)與實(shí)際邊界框之間重疊程度的一種指標(biāo)。定義為預(yù)測(cè)框B與真實(shí)框B交集的面積Intersection除以預(yù)測(cè)框的面積 AreaB,如式(1)所示。相較于傳統(tǒng)的IoU指標(biāo)(計(jì)算交集與并集的比例),Inner IoU更注重預(yù)測(cè)框的精確性。當(dāng)預(yù)測(cè)框過大而實(shí)際重合部分較小時(shí),Inner IoU會(huì)給出較低的評(píng)分,從而準(zhǔn)確反映并有效抑制這種預(yù)測(cè)上的不精確性。

IoU=" " " " " " " " " " " " "(7)

2" 實(shí)驗(yàn)及結(jié)果分析

2.1 實(shí)驗(yàn)環(huán)境。本實(shí)驗(yàn)的操作系統(tǒng)為Windows11,GPU為NVIDIAGeForce RTX3090,GPU顯存為24GB,CUDA12.1版本,Python3.8版本,算法框架為Pytorch,Torch1.12.0版本,YOLOv8s訓(xùn)練時(shí)迭代次數(shù)為210次,Batchsize為32,學(xué)習(xí)率為0.01。實(shí)驗(yàn)具體參數(shù)設(shè)置如表1所示。

2.2" 數(shù)據(jù)集收集和處理。目前,缺乏可公開訪問的專門針對(duì)橋梁裂縫檢測(cè)的數(shù)據(jù)集,本文從現(xiàn)有的多個(gè)裂縫數(shù)據(jù)集中挑選符合橋梁特性的3 371張圖像進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)采用腳本按照7∶3的比例將數(shù)據(jù)集隨機(jī)劃分為訓(xùn)練集(2 359張圖像)和測(cè)試集(1 012張圖像)。利用開源數(shù)據(jù)標(biāo)注工具Labelimg為數(shù)據(jù)集創(chuàng)建標(biāo)簽文件,并以txt格式存儲(chǔ)每個(gè)圖像的裂縫信息。標(biāo)注中,盡可能使用最小的外接矩形框選裂縫,確保每個(gè)邊界框內(nèi)只包含一條裂縫,并盡量避免邊界框之間的重疊。將橋梁裂縫的標(biāo)簽命名為“Crack”。通過以上數(shù)據(jù)集的準(zhǔn)備工作,確保了數(shù)據(jù)集的質(zhì)量和適用性。

模型訓(xùn)練階段,采用遷移學(xué)習(xí)的方法,使用與數(shù)據(jù)集劃分相同的訓(xùn)練流程進(jìn)行模型訓(xùn)練。為了加速模型的收斂速度并提升訓(xùn)練效果,本文選擇了在大型COCO數(shù)據(jù)集上預(yù)訓(xùn)練的權(quán)重參數(shù)作為模型的初始權(quán)重。隨后,在橋梁裂縫數(shù)據(jù)集上進(jìn)行了訓(xùn)練,共進(jìn)行了210輪迭代。

2.3" 算法的評(píng)價(jià)指標(biāo)。在目標(biāo)檢測(cè)中,評(píng)價(jià)模型性能的標(biāo)準(zhǔn)有很多。本文分析實(shí)驗(yàn)結(jié)果以精確率P(Precision)和平均準(zhǔn)確率mAP50(Mean Average Precision,mAP)作為精度指標(biāo)。在探討輕量化與性能平衡時(shí),使用浮點(diǎn)運(yùn)算次數(shù)(FLOPs)和參數(shù)量(Params)作為關(guān)鍵模型架構(gòu)細(xì)節(jié)參數(shù)為評(píng)價(jià)指標(biāo),相關(guān)公式如下:

P=" " " " " " " " " " " " " " " " " " " " " " " "(8)

R=" " " " " " " " " " " " " " " " " " " " " " " (9)

AP=PRdR" " " " " " " " " " " " " " " " " " " " " "(10)

mAP=" " " " " " " " " " " " " " " " " " " " " (11)

其中:TP指正確預(yù)測(cè)裂縫的個(gè)數(shù);FP指錯(cuò)誤預(yù)測(cè)為裂縫的個(gè)數(shù);FN指漏檢的裂縫個(gè)數(shù);由于檢測(cè)對(duì)象僅裂縫一類,C取值為1。

2.4" 實(shí)驗(yàn)結(jié)果及分析。本文對(duì)目標(biāo)識(shí)別階段的YOLOv8s網(wǎng)絡(luò)進(jìn)行了圖像預(yù)處理和主干網(wǎng)絡(luò)的一些改進(jìn)。為了評(píng)估各項(xiàng)改動(dòng)以及各項(xiàng)改進(jìn)對(duì)算法性能優(yōu)化的影響程度,本文進(jìn)行了消融實(shí)驗(yàn),具體結(jié)果如表2所示。

模型YOLOv8s的精確度和mAP50分別為93.0%和93.9%,通過替換為GhostHGNetv2主干和增加DAttention模塊和Inner

-IOU模塊。與YOLOv8s相比,YOLOv8-BC在精確率、平均精度均值、計(jì)算效率和模型大小方面均優(yōu)于YOLOv8,表明YOLOv8-BC是一個(gè)更高效、更優(yōu)化的目標(biāo)檢測(cè)模型。

在工業(yè)檢測(cè)領(lǐng)域,檢測(cè)模型因其能夠提供高精度且快速的檢測(cè)結(jié)果而備受青睞,具有廣泛的應(yīng)用范圍。作為YOLOv8檢測(cè)模型的一種優(yōu)化版本,YOLOv8-BC不僅繼承了模型的高效性,還通過一系列改進(jìn)和創(chuàng)新,進(jìn)一步提升了檢測(cè)性能和泛化能力,因此在工業(yè)檢測(cè)中具有更為廣闊的應(yīng)用前景,能夠更好地適應(yīng)各種復(fù)雜多變的檢測(cè)環(huán)境和需求。

綜合指標(biāo)對(duì)比結(jié)果如圖8所示,可以觀察到改進(jìn)后的YOLOv8-BC算法在mAP50和P指標(biāo)上均有所提升。這表明該方法在降低模型大小的同時(shí),能夠提升模型的精確度,實(shí)驗(yàn)識(shí)別效果如圖9所示。通過實(shí)驗(yàn)證明,該方法在提高模型性能方面具有一定的有效性。

3" 結(jié)" 論

針對(duì)橋梁裂縫檢測(cè)領(lǐng)域中檢測(cè)精度與檢測(cè)速度難以平衡的問題,本文提出了一種改進(jìn)的YOLOv8-BC橋梁裂縫檢測(cè)模型。該模型在通過優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)和特征融合策略,有效提升橋梁裂縫的檢測(cè)精度和泛化能力。YOLOv8-BC模型準(zhǔn)確率高達(dá)95.3%,mAP0.5和mAP0.5-0.95分別提升至95.9%和86.4%,相比YOLOv8s模型分別增長(zhǎng)2.3%、2.0%和1.8%,充分證明了模型在檢測(cè)精度和泛化能力上的顯著提升。模型還加快了裂縫特征的提取效率和模型的收斂速度,確保了高精度且可靠的識(shí)別性能。盡管成效顯著,但仍存改進(jìn)空間。未來的工作中,將完善數(shù)據(jù)集,開發(fā)自然場(chǎng)景下橋梁裂縫檢測(cè)技術(shù),增強(qiáng)模型魯棒性,減少環(huán)境噪聲干擾,并探索更多應(yīng)用領(lǐng)域。

參考文獻(xiàn):

[1] 交通運(yùn)輸部. 2022年交通運(yùn)輸行業(yè)發(fā)展統(tǒng)計(jì)公報(bào)[N]. 中國(guó)交通報(bào),2023-06-16(002).

[2]" ZHAO Y, LV W, XU S, et al. Detrs beat yolos on real-time object detection[C] // Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2024:16965-16974.

[3]" RIYANTO I. Morphology based melanoma skin segmentation method[J]. Helix-The Scientific Explorer Peer Reviewed Bimonthly International Journal, 2021,11(3):7-13.

[4]" LAKSHMI B V, SRIDEVI K. A qualitative approach on de-noising and segmentation algorithms for melanoma images[J]. Annals of the Romanian Society for Cell Biology, 2021,25(2):1384-1393.

[5]" WANG J, HE X, FAMING S, et al. A real-time bridge crack detection method based on an improved "inception-resnet-v2 structure[J]. IEEE Access, 2021(9):93209-93223.

[6]" ZHENG X, ZHANG S, LI X, et al. Lightweight bridge crack detection method based on signet and bottleneck depth-separable convolution with residuals[J]. IEEE Access, 2021(9):161649-161668.

[7]" FU H, MENG D, LI W, et al. Bridge crack semantic segmentation based on improved Deeplabv3+[J]. Journal of Marine Science and Engineering, 2021,9(6):671.

[8]" MA D, FANG H, WANG N, et al. Automatic detection and counting system for pavement cracks based on PCGAN and YOLO-MF[J]. IEEE Transactions on Intelligent Transportation Systems, 2022,23(11):22166-22178.

[9]" ALI R, CHUAH J H, TALIP M S A, et al. Structural crack detection using deep convolution neural networks[J]. Automation in Construction, 2022,133:103989.

[10] 廖延娜,李婉. 基于卷積神經(jīng)網(wǎng)絡(luò)的橋梁裂縫檢測(cè)方法[J]. 計(jì)算機(jī)工程與設(shè)計(jì),2021,42(8):2366-2372.

[11]" YAO H, LIU Y, LI X, et al. A detection method for pavement cracks combining object detection and attention mechanism[J]. IEEE Transactions on Intelligent Transportation Systems, 2022,23(11):22179-22189.

[12]" LI R, YU J, LI F, et al. Automatic bridge crack detection using unmanned aerial vehicle and Faster R-CNN[J]. Construction and Building Materials, 2023,362:129659.

[13]" HUANG M, XU G, LI J, et al. A method for segmenting disease lesions of maize leaves in real time using attention YOLACT++[J]. Agriculture, 2021,11(12):1216.

[14]" HAN K, WANG Y, TIAN Q, et al. Ghostnet: More features from cheap operations[C] // Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020:1580-1589.

[15]" YU D. Improved container damage detection algorithm of YOLOv8[C] // Proceedings of the International Conference on Algorithms, Software Engineering, and Network Security, 2024:90-95.

[16]" XIA Z, PAN X, SONG S, et al. Vision transformer with deformable attention[C] // Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2022:4794-4803.

[17]" MA Z, WU F. Research on pulmonary nodule detection method based on YOLO algorithm[C] // 2024 5th International Seminar on Artificial Intelligence, Networking and Information Technology (AINIT). IEEE, 2024:635-639.

[18]" LIU X, RAO Z, ZHANG Y, et al. UAVs Images based real-time insulator defect detection with transformer deep learning[C] // 2023 IEEE International Conference on Robotics and Biomimetics (ROBIO). IEEE, 2023:1-6.

猜你喜歡
注意力機(jī)制目標(biāo)檢測(cè)圖像處理
基于深度學(xué)習(xí)的問題回答技術(shù)研究
機(jī)器學(xué)習(xí)在圖像處理中的應(yīng)用
電子制作(2018年18期)2018-11-14 01:48:20
基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
基于注意力機(jī)制的雙向LSTM模型在中文商品評(píng)論情感分類中的研究
軟件工程(2017年11期)2018-01-05 08:06:09
InsunKBQA:一個(gè)基于知識(shí)庫的問答系統(tǒng)
模糊圖像處理,刑事偵查利器
圖像處理技術(shù)的實(shí)戰(zhàn)應(yīng)用
視頻中目標(biāo)檢測(cè)算法研究
軟件(2016年4期)2017-01-20 09:38:03
行為識(shí)別中的人體運(yùn)動(dòng)目標(biāo)檢測(cè)方法
移動(dòng)機(jī)器人圖像目標(biāo)識(shí)別
离岛区| 克山县| 琼中| 利辛县| 稷山县| 新巴尔虎左旗| 济源市| 咸宁市| 保山市| 邢台县| 噶尔县| 洞头县| 当阳市| 昌宁县| 临猗县| 庆元县| 桐柏县| 班戈县| 民和| 怀来县| 交城县| 韩城市| 沙坪坝区| 青岛市| 哈尔滨市| 金秀| 曲松县| 金乡县| 石首市| 阿拉尔市| 德庆县| 乌审旗| 新郑市| 武山县| 兰考县| 茂名市| 同心县| 彭水| 什邡市| 合肥市| 宝丰县|