国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進Swin Transformer 的花色布匹瑕疵檢測算法

2024-06-26 07:52:14邱健數(shù)項朝輝錢月鐘
電腦知識與技術(shù) 2024年13期
關(guān)鍵詞:計算機視覺

邱健數(shù) 項朝輝 錢月鐘

摘要:在進行布匹瑕疵檢測時,復(fù)雜的花色紋理對瑕疵的檢測帶來一定的困難。針對該問題,文中提出了基于改進SwinTransformer的花色布匹瑕疵檢測算法。首先,利用雙路Swin Transformer注意力骨干網(wǎng)絡(luò)提取缺陷圖與模板圖中的特征信息。然后,采用改進的特征金字塔網(wǎng)絡(luò)對四個層次的特征進行融合。最后,根據(jù)融合后的特征完成了瑕疵的定位與分類。在布匹生成工廠采集的數(shù)據(jù)集上進行模型訓(xùn)練與測試,結(jié)果表明,文中所提算法的準確率和平均精確率均優(yōu)于所比較的算法。

關(guān)鍵詞:布匹瑕疵檢測;注意力網(wǎng)絡(luò);特征金字塔網(wǎng)絡(luò);瑕疵分類;計算機視覺

中圖分類號:TP391 文獻標識碼:A

文章編號:1009-3044(2024)13-0009-05 開放科學(xué)(資源服務(wù))標識碼(OSID) :

0 引言

紡織布匹具有多變、復(fù)雜的紋理圖案,被廣泛應(yīng)用于服裝、鞋類等產(chǎn)品的生產(chǎn)中。由于紡織機械故障、紗線原料問題,在紡織布匹制造過程中會出現(xiàn)種類多樣的瑕疵。目前,紡織行業(yè)定義的織物瑕疵達到70多種[1]。傳統(tǒng)紡織工廠仍主要采用人工檢測,該方法依賴于檢測人員的經(jīng)驗,且隨著作業(yè)時間延長,易產(chǎn)生疲勞,造成漏檢和誤檢。因此,紡織布匹自動檢測對提升產(chǎn)品質(zhì)量、降低經(jīng)濟損失具有較大意義。

傳統(tǒng)的布匹瑕疵自動化檢測方法包括:統(tǒng)計學(xué)方法[2]、光譜分析法[3]和模型法[4]。近年來,人工智能技術(shù)迅速發(fā)展,大量研究人員開始使用人工智能算法解決布匹瑕疵檢測問題。其中,卷積神經(jīng)網(wǎng)絡(luò)相關(guān)的算法最為突出。Jing等[5]提出了一種非常高效的卷積神經(jīng)網(wǎng)絡(luò)Mobile-Unet來實現(xiàn)端到端的缺陷分割。Jun等[6]采用兩階段的卷積神經(jīng)網(wǎng)絡(luò)對局部缺陷和全局缺陷分別進行識別。Jing等[7]在YOLOv3模型的基礎(chǔ)上結(jié)合織物缺陷尺寸和k-means算法對目標幀進行維度聚類,有效降低了織物疵點的檢測錯誤率。Xie等[8]基于全卷積通道注意塊和自底向上路徑增強傳遞連接塊設(shè)計了改進的RefineDet網(wǎng)絡(luò),提高了缺陷定位精度。Song等[9]采用了EfficientDet-D0作為檢測算法,綜合了輕量級和可擴展性的優(yōu)點,適應(yīng)資源受限的邊緣設(shè)備。楊毅等[10]在MobileNetv2的逆殘差結(jié)構(gòu)中加入CoordAttention注意力模塊,將空間精確位置信息嵌入到通道注意力中,增強網(wǎng)絡(luò)聚焦小目標特征的能力。龍玥等[11]將RepVGG網(wǎng)絡(luò)融合SE模塊,提出SERepVGG網(wǎng)絡(luò)作為SSD的主干網(wǎng)絡(luò)在增強網(wǎng)絡(luò)特征提取能力的同時,減少網(wǎng)絡(luò)的參數(shù)量和計算量。張銀等[12]針對織物圖像尺寸大、局部瑕疵數(shù)量少、圖像背景復(fù)雜等問題,設(shè)計了一種基于Cascade R-CNN融合尺度不變特征的織物瑕疵檢測方法。曲皓等[13]提出一種雙端輸入型網(wǎng)絡(luò)架構(gòu)Wnet,在卷積深層網(wǎng)絡(luò)中補充全局信息但對細小的織物瑕疵,檢測效果依舊不夠理想。

盡管利用卷積神經(jīng)網(wǎng)絡(luò)進行織物瑕疵檢測具有良好的局部特征提取能力,但缺少全局建模能力,導(dǎo)致特征中缺乏全局信息,無法達到預(yù)期的檢測效果。Transformer具有完備的全局建模能力,最初被廣泛應(yīng)用于自然語言處理領(lǐng)域,后被引入計算機視覺領(lǐng)域。Dosovitskiy等[14]提出的Vision Transformer將圖片切分為圖片塊作為Transformer的輸入,在圖片分類任務(wù)上表現(xiàn)很好。Transformer的核心算法是自注意力機制,該機制彌補了卷積神經(jīng)網(wǎng)絡(luò)在全局建模上的短板。李輝等[15]提出了融合形變卷積和自注意力的素色布匹檢測方法,有效提升了布匹瑕疵檢測的準確率和效率。時造雄等[16]在改進的YOLOv5模型頸部中引入注意力機制,能同時關(guān)注空間和通道信息,提高花色布匹表面瑕疵檢測的準確率。Transformer的自注意力機制從語言應(yīng)用到視覺應(yīng)用的挑戰(zhàn)源自于兩個領(lǐng)域的差異。例如,視覺實體在尺度上存在巨大差異。Liu等[17]提出了移動窗口計算的Swin Transformer,提升了在各種尺度上建模的靈活性,在許多通用檢測數(shù)據(jù)集上取得了領(lǐng)先的檢測效果。然而,紡織布匹瑕疵具有背景復(fù)雜、小目標為主和目標長寬比極端等難點存在,直接使用Swin Transformer 難以得到理想的效果。

因此,本文提出了一種改進的Swin Transformer布匹瑕疵檢測網(wǎng)絡(luò)Double-Swin。該網(wǎng)絡(luò)設(shè)計了雙路注意力通道的骨干網(wǎng)絡(luò),同時在檢測圖和模板圖上進行注意力計算,且分階段融合注意力信息,有助于網(wǎng)絡(luò)關(guān)注到瑕疵與背景之間的聯(lián)系。同時,采用改進的BiFPN頸部網(wǎng)絡(luò),對不同階段的特征按照自適應(yīng)權(quán)重進行融合,有助于目標的發(fā)現(xiàn)。在相同的復(fù)雜花色布匹數(shù)據(jù)集上進行的大量實驗表明,Double-Swin的表現(xiàn)超過現(xiàn)有的主流目標檢測模型。

1 Double-Swin 模型

1.1 Double-Swin 骨干網(wǎng)絡(luò)

本文設(shè)計的Double-Swin骨干網(wǎng)絡(luò)主要分為兩部分:1) 設(shè)計了雙路注意力通道,同時輸入檢測圖和對應(yīng)的模板圖,經(jīng)過注意力計算后,將上路注意力特征與下路注意力特征融合,進入下一階段注意力計算。2) Swim Transformer模塊,該模塊在雙路通道上共享相同的權(quán)重,在上路中主要計算檢測圖中的缺陷注意力,在下路中主要計算模板圖中的背景注意力。具體結(jié)構(gòu)如圖1所示。

受人工檢測過程啟發(fā),檢測人員會對比檢測布匹和模板布匹來發(fā)現(xiàn)瑕疵。因此,本文設(shè)計了雙路注意力通道結(jié)構(gòu)。雙路注意力通道的主要作用包括:1) 計算檢測圖上的注意力,得到與布匹瑕疵相關(guān)的全局信息;2) 計算模板圖上的注意力,得到與布匹背景相關(guān)的全局信息;3) 融合上下路注意力,使得網(wǎng)絡(luò)能夠關(guān)注到瑕疵與背景之間的聯(lián)系。結(jié)合Swim Trans?former,該部分計算過程如下:

1.2 改進的特征金字塔網(wǎng)絡(luò)

通常,在深度骨干網(wǎng)絡(luò)提取特征的過程中,網(wǎng)絡(luò)的深層包含較多的全局信息,而淺層包含更多的局部信息。將深層和淺層的多尺度特征進行融合,可以有效提升目標檢測的效果[18-19]。特征金字塔網(wǎng)絡(luò)(FPN) [20]提出了自上而下將深層特征和淺層特征進行融合的方法,從而提升小目標檢測能力。受到NAS-FPN[21]和BiFPN[22]的啟發(fā),本文設(shè)計了改進的雙向特征金字塔(DTSkip-BiFPN) 。該結(jié)構(gòu)避免了NAS-FPN所需的極大搜索算力,同時與BiFPN相比,引入了自下而上的間隔跳躍連接,能夠?qū)⑸顚拥奶卣餍畔⒖绯叨热诤系綔\層特征中。具體結(jié)構(gòu)如圖2(d) 所示。

在進行特征融合時,對于每一個融合節(jié)點的輸入特征賦予可學(xué)習(xí)的權(quán)重wi,且wi ≥ 0,以DTSkip-BiFPN 的第4層為例,融合過程如下所示:

式中,Ptd4 為自頂向下路徑融合第4層的中間特征,Conv() 為卷積計算,Resize() 為重塑尺寸計算,ε=0.000 1起到避免數(shù)值不穩(wěn)定的作用。

1.3 Double-swin 模型完整結(jié)構(gòu)

Double-swin的完整網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,首先將寬度均為W、高度為H 的檢測圖像和對應(yīng)的模板圖輸入網(wǎng)絡(luò)中,經(jīng)過Patch Partition模塊等分為16個區(qū)域,雙路數(shù)據(jù)尺寸均從(W,H,3) 被轉(zhuǎn)換為( W/4, H/4,48)。隨后,在Double-ST Block1中,雙路數(shù)據(jù)首先經(jīng)過一個相同的Linear Emberdding層被分別投影至維度C,接著雙路數(shù)據(jù)進入兩個連續(xù)的Swim Transformer進行注意力計算,前一個Swim Transformer使用W-MSA進行多頭自注意力計算,后一個Swim Transformer使用SW-MSA進行滑動窗口多頭注意力計算,實現(xiàn)了信息的跨窗口通信,計算過程中,數(shù)據(jù)尺寸會維持在( W/4, H/4),Double-ST Block1 最終輸出的雙路數(shù)據(jù)尺寸均為( W/4, H/4,C )。雙路的輸出特征將進行一次融合,使得網(wǎng)絡(luò)關(guān)注到瑕疵與背景之間的聯(lián)系。融合后的特征和模板路的特征將再次以雙路的形式進入Double-ST Block2中。在Double-ST Block2階段,雙路輸入先經(jīng)過一個共同的Patch Mergeing層,對數(shù)據(jù)完成一次下采樣,雙路數(shù)據(jù)尺寸均變換到( W/8, H/8,2C ),之后的注意力計算與Double-ST Block1 相同。Double-STBlock2 最終輸出的雙路數(shù)據(jù)尺寸均為( W/8, H/8,2C )。Double-ST Block3 和Double-ST Block4經(jīng)過類似的計算,分別輸出的數(shù)據(jù)特征尺寸為(W/16 , H/16 ,4C )和( W/32 , H/32 ,8C )。至此,骨干網(wǎng)絡(luò)已完成注意力特征提取。4個階段的特征信息再經(jīng)過3層DTSkip-BiFPN的多尺度特征融合,最后經(jīng)過預(yù)測層,實現(xiàn)最終的布匹瑕疵檢測。

2 實驗及結(jié)果分析

2.1 實驗數(shù)據(jù)集說明

本文實驗所使用的數(shù)據(jù)采集自佛山南海紡織車間[23]。訓(xùn)練集由3 933 幅缺陷圖及對應(yīng)的模板圖構(gòu)成,總計15 600個瑕疵標簽。測試集包含438幅缺陷圖,1 651個瑕疵標簽。瑕疵缺陷涵蓋了紡織業(yè)中常見的15類瑕疵,例如玷污、錯花等,每幅待檢測的缺陷圖含有一種或多種瑕疵。圖像的原尺寸為4 096×1696,在實驗時進行了裁剪并縮放為512×256。在訓(xùn)練過程中,采取了隨機翻轉(zhuǎn)、對稱變化等數(shù)據(jù)增強方式對訓(xùn)練集進行數(shù)據(jù)擴充,布匹瑕疵樣本如圖4所示。實驗所使用的計算設(shè)備的CPU型號為Intel Core i7,GPU型號為NVIDIA RTX-3080,內(nèi)存為64G,使用Py?Torch進行網(wǎng)絡(luò)模型搭建。

2.2 實驗評價指標

為了對本文方法的性能進行評估,從準確度(Ac?curacy,Acc) 和平均精準度(Average Precision,AP) 來分析性能,其中準確度:

式中,TP為判斷正確的正例個數(shù),F(xiàn)P為判斷錯誤的正例個數(shù),TN為判斷正確的負例個數(shù),F(xiàn)N為判斷錯誤的負例個數(shù)。平均精確度:

式中,p = TP/TP + FP 表示精確率,r = TP/TP + FN 表示召回率,那么AP就可以模型在不同召回率下的平均精確度,即為PR曲線下的面積。

若AP(i)表示第i類瑕疵平均精確度,則類別平均精準度:

2.3 實驗設(shè)計與結(jié)果分析

為驗證本文模型的有效性,對比了本文模型與Faster R-CNN、Cascade R-CNN和DETR在2.1提到的布匹數(shù)據(jù)集上的性能。四組實驗的Batch size均設(shè)置為8,并采用等間隔調(diào)整策略對學(xué)習(xí)率進行調(diào)整。根據(jù)表1,可見Double-swin和DETR在準確率和各項平均精確度上均優(yōu)于卷積類的網(wǎng)絡(luò)。這主要得益于trans?former類骨干網(wǎng)絡(luò)相比卷積類骨干網(wǎng)絡(luò)具有更好的全局信息提取能力,有利于瑕疵的檢測。具體來說,AP50表示在IOU閾值為0.5時的平均精確率,AP75表示在IOU 閾值為0.75 時的平均精確率。本文提出的Double-swin,在AP50上分別比Faster R-CNN、CascadeR-CNN和DETR提升了11.8%、6% 和2.7%,在AP75上分別提升了13.5%、7.4%和2.9%。APs表示IOU閾值在[0.5, 0.95]區(qū)間上對尺寸小于32×32的瑕疵的平均精確率,APm表示IOU閾值在[0.5, 0.95]區(qū)間上對尺寸介于32×32 和96×96 之間的瑕疵的平均精確率,APl 表示IOU閾值在[0.5, 0.95]區(qū)間上對尺寸大于96×96的瑕疵的平均精確率。Double-swin在各個尺寸的瑕疵檢測能力都優(yōu)于其他模型,在小瑕疵和大瑕疵的檢測效果提升明顯,可推斷Double-swin的雙路注意力結(jié)構(gòu)和改進的特征金字塔為布匹瑕疵檢測提供了更多有效的信息。在關(guān)鍵評估指標mAP上,Double-swin相較其他模型分別提升了10.5%、4.4%和1.8%。

為了更直觀地比較模型在復(fù)雜背景下的瑕疵檢測性能,筆者對上述模型在布匹背景復(fù)雜情況下的實際檢測效果進行了對比,結(jié)果如圖5所示。圖中紅色框表示瑕疵的真實位置,綠色框表示模型的預(yù)測位置。從對比結(jié)果可以看出,本文提出的Double-swin 能夠更完整、更精確地定位出瑕疵。

為進一步分析Double-swin中雙路注意力結(jié)構(gòu)和DTSkip-BiFPN的有效性,筆者設(shè)計了4組消融實驗。從表2可以看出,與直接使用Swin Transformer作為骨干網(wǎng)絡(luò)、BiFPN作為特征融合結(jié)構(gòu)相比,使用Doubleswin的雙路注意力骨干網(wǎng)絡(luò)在關(guān)鍵評價指標mAP上提升了1.1%,使用DTSkip-BiFPN 在mAP 上提升了0.3%。由此可知,雙路注意力結(jié)構(gòu)和DTSkip-BiFPN 在提升模型性能上均是有效的,其中雙路注意力結(jié)構(gòu)的提升效果更為顯著。

3 結(jié)束語

本文設(shè)計了Double-swin布匹瑕疵檢測算法,能夠有效地對花色布匹上的各類瑕疵進行定位與分類。首先,利用雙路Swin Transformer骨干網(wǎng)絡(luò)同時提取檢測圖和模板圖上的注意力特征,然后使用改進的特征金字塔DTSkip-BiFPN對各階段的特征進行融合,最后根據(jù)融合后的特征進行瑕疵檢測。經(jīng)實驗分析發(fā)現(xiàn),本文提出的檢測算法效果優(yōu)于Faster R-CNN、Cas?cade R-CNN和DETR等模型。

參考文獻:

[1] HANBAY K,TALU M F,?ZG?VEN ? F. Fabric defect detec?tion systems and methods—a systematic literature review[J].Optik,2016,127(24):11960-11973.

[2] ZHANG K B,YAN Y D,LI P F,et al. Fabric defect detection us?ing salience metric for color dissimilarity and positional aggre?gation[J]. IEEE Access,2018,6:49170-49181.

[3] TONG L,WONG W K,KWONG C K. Fabric defect detection forapparel industry:a nonlocal sparse representation approach[J].IEEE Access,2017:1.

[4] YAN H,PAYNABAR K,SHI J J. Anomaly detection in imageswith smooth background via smooth-sparse decomposition[J].Technometrics,2017,59(1):102-114.

[5] JING J F,WANG Z,R?TSCH M,et al. Mobile-Unet:an efficientconvolutional neural network for fabric defect detection[J]. Tex?tile Research Journal,2022,92(1/2):30-42.

[6] JUN X,WANG J G,ZHOU J,et al. Fabric defect detection basedon a deep convolutional neural network using a two-stage strat?egy[J]. Textile Research Journal,2021,91(1/2):130-142.

[7] JING J F,ZHUO D,ZHANG H H,et al. Fabric defect detectionusing the improved YOLOv3 model[J]. Journal of EngineeredFibers and Fabrics,2020,15:155892502090826.

[8] XIE H S, WU Z S. A robust fabric defect detection methodbased on improved RefineDet[J]. Sensors,2020,20(15):4260.

[9] SONG S J,JING J F,HUANG Y Q,et al. EfficientDet for fabricdefect detection based on edge computing[J]. Journal of Engi?neered Fibers and Fabrics,2021,16:155892502110083.

[10] 楊毅,桑慶兵.多尺度特征自適應(yīng)融合的輕量化織物瑕疵檢測[J].計算機工程,2022,48(12):288-295.

[11] 龍玥,韓軍,孫園,等.改進型SSD網(wǎng)絡(luò)的織物瑕疵檢測算法[J].廈門理工學(xué)院學(xué)報,2022,30(5):64-73.

[12] 張銀,佟樂.基于改進CascadeR-CNN的織物瑕疵檢測方法[J].上海師范大學(xué)學(xué)報(自然科學(xué)版),2023,52(2):231-237.

[13] 曲皓,狄嵐,梁久禎,等.雙端輸入型嵌套融合多尺度信息的織物瑕疵檢測[J]. 南京大學(xué)學(xué)報(自然科學(xué)),2023,59(3):398-412.

[14] DOSOVITSKIY A,BEYER L,KOLESNIKOV A,et al.An imageis worth 16x16 words: transformers for image recognition atscale[EB/OL]. International Conference on Machine Learning.PMLR, 2020.

[15] 李輝,呂祥聰,徐凌偉,等.融合形變卷積和自注意力的素色布匹瑕疵檢測[J].聊城大學(xué)學(xué)報(自然科學(xué)版),2022,35(6):1-10.

[16] 時造雄,茅正沖.基于改進Yolov5的花色布匹瑕疵檢測方法[J].計算機測量與控制,2023,31(4):56-62.

[17] LIU Z,LIN Y T,CAO Y,et al.Swin Transformer:hierarchical Vi?sion Transformer using Shifted Windows[C]//2021 IEEE/CVFInternational Conference on Computer Vision (ICCV).October10-17,2021.Montreal,QC,Canada.IEEE,2021.

[18] ZHANG F,LIN S L,XIAO X Y,et al.Global attention networkwith multiscale feature fusion for infrared small target detec?tion[J].Optics & Laser Technology,2024,168:110012.

[19] XU H,ZHONG S,ZHANG T X,et al.Multiscale multilevel re?sidual feature fusion for real-time infrared small target detec?tion[J].IEEE Transactions on Geoscience and Remote Sensing,2023,61:1-16.

[20] LIN T Y,DOLLAR P,GIRSHICK R,et al.Feature pyramid net?works for object detection[C]//2017 IEEE Conference on Com?puter Vision and Pattern Recognition (CVPR). July 21-26,2017.Honolulu,HI.IEEE,2017.

[21] GHIASI G,LIN T Y,LE Q V.NAS-FPN:learning scalable fea?ture pyramid architecture for object detection[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).June 15-20,2019.Long Beach,CA,USA.IEEE,2019.

[22] TAN M X,PANG R M,LE Q V.EfficientDet:scalable and effi?cient object detection[C]//2020 IEEE/CVF Conference onComputer Vision and Pattern Recognition (CVPR).June 13-19,2020.Seattle,WA,USA.IEEE,2020.

[23] 孟志青,邱健數(shù).基于級聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的復(fù)雜花色布匹瑕疵檢測算法[J].模式識別與人工智能,2020,33(12):1135-1144.

【通聯(lián)編輯:唐一東】

基金項目:2023 年溫州市基礎(chǔ)科研項目:基于深度學(xué)習(xí)技術(shù)的復(fù)雜花色布匹瑕疵檢測及預(yù)警系統(tǒng)構(gòu)建(G2023091) ;浙江工貿(mào)職業(yè)技術(shù)學(xué)院教師科技創(chuàng)新項目:復(fù)雜圖案布匹缺陷檢測及預(yù)警技術(shù)研究(縱20220005) ;溫州市重大科技項目:基于機器視覺的微型電子元器件在線檢測技術(shù)研究及裝備研制(ZG2023022) 資助

猜你喜歡
計算機視覺
基于光流技術(shù)的障礙物檢測方法
軟件(2016年4期)2017-01-20 09:48:18
無人駕駛小車定點追蹤系統(tǒng)的設(shè)計與實現(xiàn)
軟件工程(2016年11期)2017-01-17 19:50:08
基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識別算法
雙目攝像頭在識別物體大小方面的應(yīng)用
機器視覺技術(shù)發(fā)展及其工業(yè)應(yīng)用
危險氣體罐車液位計算機視覺監(jiān)控識別報警系統(tǒng)設(shè)計
計算機視覺在交通領(lǐng)域的應(yīng)用
基于計算機視覺的細小顆粒團重量測量的研究
對于計算機視覺商業(yè)化方向的研究
基于Matlab的人臉檢測實驗設(shè)計
成武县| 洪江市| 广东省| 鄱阳县| 怀柔区| 镇雄县| 将乐县| 大足县| 锡林浩特市| 江源县| 灌云县| 襄城县| 华容县| 隆子县| 大方县| 岳阳市| 博兴县| 上饶市| 宝应县| 明溪县| 视频| 庆城县| 鲁山县| 离岛区| 孙吴县| 封开县| 安平县| 宜昌市| 湟源县| 砀山县| 陆川县| 沙雅县| 芜湖市| 岳普湖县| 大冶市| 凤庆县| 敦煌市| 绥德县| 大足县| 荣昌县| 江山市|