李明輝,劉榮強(qiáng),雷渠江,桂光超
(1.陜西科技大學(xué) 機(jī)電工程學(xué)院,西安 710021;2.廣州中國(guó)科學(xué)院先進(jìn)技術(shù)研究所,廣州 511548)
由于織物被廣泛應(yīng)用于各個(gè)領(lǐng)域,例如,服裝、醫(yī)療、軍工等,每年有大量的織物被生產(chǎn)。在實(shí)際生產(chǎn)過(guò)程中,由于紗線問題、操作不當(dāng)以及拉伸過(guò)度,導(dǎo)致生產(chǎn)的織物出現(xiàn)各種缺陷,有缺陷的織物導(dǎo)致低質(zhì)量的產(chǎn)品,降低了產(chǎn)品45%~65%的價(jià)格[1]。因此,為了保證產(chǎn)品的價(jià)值,在生產(chǎn)過(guò)程中,對(duì)織物表面進(jìn)行缺陷檢測(cè)是非常有必要的一個(gè)步驟。
傳統(tǒng)地,缺陷檢測(cè)任務(wù)是由人類工作者所勝任的。但是由于織物的特殊性(例如高彈性、質(zhì)地柔軟以及色彩豐富等),通過(guò)人眼識(shí)別許多缺陷易被忽略。根據(jù)工業(yè)報(bào)道,手工檢測(cè)的精度僅僅只有60%~75%[2]。近年來(lái),自動(dòng)化檢測(cè)技術(shù)被應(yīng)用于織物的缺陷檢測(cè),基于計(jì)算機(jī)視覺的檢測(cè)方法不僅僅提高了檢測(cè)精度,在效率和資源利用率方面也有了很大的提升。
截止目前,大量先進(jìn)的織物檢測(cè)方法被提出,根據(jù)原理可將其劃分為四類:統(tǒng)計(jì)學(xué)方法、頻譜法、模型法以及基于學(xué)習(xí)的方法。文獻(xiàn)[3]提出利用自相關(guān)函數(shù)和灰度共生矩陣(GLCM)對(duì)原始圖像進(jìn)行特征化處理,通過(guò)計(jì)算被測(cè)圖像與模板間的歐式距離,并給出閾值來(lái)實(shí)現(xiàn)缺陷檢測(cè)。結(jié)果表明,此方法具有計(jì)算簡(jiǎn)單、客觀可靠等優(yōu)點(diǎn)。文獻(xiàn)[4]提出一種基于Gabor濾波器和方向梯度直方圖(HOG)特征的織物疵點(diǎn)檢測(cè)算法,利用多個(gè)尺度和多個(gè)方向的Gabor濾波器組對(duì)織物圖像濾波,有效的抑制了織物背景紋理的干擾,提高了織物疵點(diǎn)檢測(cè)的準(zhǔn)確率。在以上方法都較難處理織物紋理變化沒有規(guī)律的情況下,基于模型的方法能獲得更好的檢測(cè)結(jié)果。文獻(xiàn)[5]提出一種將多渠道信息融合到一個(gè)獨(dú)特的特征圖中的方法,根據(jù)Gumbel分布模型對(duì)無(wú)缺陷背景紋理對(duì)應(yīng)的像素值分布建模。該方法不需要任何標(biāo)準(zhǔn)參考就可以取得不錯(cuò)的結(jié)果,但泛化能力差,檢測(cè)性能依賴于所選擇模型的參數(shù)?;趯W(xué)習(xí)的方法在織物缺陷檢測(cè)方面極受歡迎。文獻(xiàn)[6]通過(guò)對(duì)圖像的顯著性映射進(jìn)行分析,提取并歸一化全局和背景關(guān)聯(lián)值作為圖像的顯著性特征,利用得到的樣本訓(xùn)練支持向量機(jī),對(duì)有瑕疵的織物分類。
自從Alexnet在2012年的ImageNet競(jìng)賽中奪冠后,卷積神經(jīng)網(wǎng)絡(luò)(CNN)在計(jì)算機(jī)視覺領(lǐng)域掀起了革命的浪潮。與經(jīng)典機(jī)器學(xué)習(xí)算法中手工設(shè)計(jì)復(fù)雜的特征相比,CNN作為一種端到端的學(xué)習(xí)方式,通過(guò)卷積、池化等操作,自動(dòng)學(xué)習(xí)有用的特征。最初的CNN被用于圖像的分類任務(wù)中,隨著人工智能和深度學(xué)習(xí)的高速發(fā)展,更多創(chuàng)新的CNN算法被提出,并且被成功應(yīng)用到物體檢測(cè)和語(yǔ)義分割任務(wù)中。文獻(xiàn)[7]對(duì)比了YOLO9000、YOLO-VOC和Tiny-YOLO三種檢測(cè)模型,提出一種基于YOLOV2的織物疵點(diǎn)自動(dòng)定位和分類的方法。文獻(xiàn)[8]提出一種新的深度卷積神經(jīng)網(wǎng)絡(luò)PTIP,在訓(xùn)練階段采用局部圖像,而在測(cè)試階段使用整張織物圖像。文獻(xiàn)[9]提出了一種全卷積神經(jīng)網(wǎng)絡(luò),并命名為U-Net,該模型采用像素到像素的訓(xùn)練方式,在醫(yī)學(xué)圖像分割上取得了令人滿意的結(jié)果。為了解決U-Net不能滿足的實(shí)時(shí)性問題以及織物工廠實(shí)際生產(chǎn)條件下正負(fù)數(shù)據(jù)樣本不均衡問題,文獻(xiàn)[10]提出了一種高效的卷積神經(jīng)網(wǎng)絡(luò)Mobile-Unet,該模型采用中位數(shù)頻率平衡損失函數(shù)來(lái)克服樣本不平衡問題,此外引入深度可分卷積,極大地降低了網(wǎng)絡(luò)的復(fù)雜度和模型規(guī)模。
近年來(lái),基于人視覺的注意機(jī)制分析方法已經(jīng)在目標(biāo)檢測(cè)、圖像分割、物體檢索等領(lǐng)域受到了廣泛關(guān)注。研究表明,人的視覺系統(tǒng)能夠快速注意到一些復(fù)雜場(chǎng)景中顯著的區(qū)域。文獻(xiàn)[11]注意到織物的缺陷和非缺陷區(qū)域的顏色在視覺上的差異,以及缺陷區(qū)域往往集中在一個(gè)小的區(qū)域而不是整張圖像,提出了一種利用顏色差異和位置聚集的顯著性度量檢測(cè)方法(CDPA)。鑒于顯著性檢測(cè)算法和卷積神經(jīng)網(wǎng)絡(luò)在缺陷檢測(cè)上的優(yōu)異表現(xiàn),本文提出一種改進(jìn)的U-Net圖像分割模型用于織物的缺陷檢測(cè),并通過(guò)實(shí)驗(yàn)將檢測(cè)結(jié)果與上文提到的YOLOV2[7]、PTIP[8]、U-Net[9]、Mobile-Unet[10]以及CDPA[11]方法進(jìn)行對(duì)比。結(jié)果證明本文所提出的檢測(cè)模型在織物缺陷檢測(cè)中表現(xiàn)更加出色。
本章從整體上介紹所提出的織物缺陷檢測(cè)方法流程,如圖1所示。此方法是一種對(duì)缺陷目標(biāo)精準(zhǔn)定位的端到端的架構(gòu),并且主要由三個(gè)基本的步驟組成:圖像預(yù)處理、缺陷目標(biāo)分割和后處理。
圖1 織物缺陷檢測(cè)流程圖
對(duì)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練需要大量的樣本,但往往在實(shí)際的工業(yè)環(huán)境下,制作帶有標(biāo)簽的大型數(shù)據(jù)集是困難且昂貴的。為了防止數(shù)據(jù)集樣本數(shù)量小導(dǎo)致的過(guò)擬合,并且讓模型學(xué)習(xí)到更多強(qiáng)健的圖像特征,本文采用縮放、旋轉(zhuǎn)、隨機(jī)剪裁以及其組合的數(shù)據(jù)增強(qiáng)方式對(duì)數(shù)據(jù)集擴(kuò)充。另外,本文基于缺陷區(qū)域的顯著性線索,提出一種融合多種檢測(cè)算法對(duì)圖像進(jìn)行預(yù)處理。將預(yù)處理后的圖像與灰度圖像合并為雙通道作為神經(jīng)網(wǎng)絡(luò)的初始輸入。關(guān)于顯著性檢測(cè)的詳細(xì)介紹,將在第三章進(jìn)行闡述。
在經(jīng)過(guò)預(yù)處理之后,可以得到織物缺陷粗略的位置信息。為了獲得更好的分割結(jié)果,本文提出一種改進(jìn)的U-Net(CU-Net)圖像分割網(wǎng)絡(luò)。該網(wǎng)絡(luò)的主干采用U-Net架構(gòu),因此圖像處理的過(guò)程與U-Net相似。在U-Net中,撇棄了所有的全連接層,實(shí)現(xiàn)了像素到像素的映射,另外,通過(guò)收縮路徑和膨脹路徑的跳躍連接,上下文信息被傳遞到了更高的特征圖中。然而,經(jīng)典的U-Net存在兩個(gè)嚴(yán)重的缺點(diǎn):一方面,它的分割精度不高,另一方面,由于模型尺寸較大,它需要較長(zhǎng)的時(shí)間消耗。因此,我們分析了其特點(diǎn),并做出了幾項(xiàng)重大改進(jìn)。CU-Net網(wǎng)絡(luò)結(jié)構(gòu)將在第四章展開講述。
經(jīng)過(guò)CU-Net處理后的圖像輸出為二值的分割圖,后處理階段基于此分割圖,用矩形框?qū)椢锏娜毕輩^(qū)域進(jìn)行標(biāo)記。最終結(jié)果顯示,經(jīng)過(guò)后處理的缺陷區(qū)域更加顯眼且更易被技術(shù)人員所認(rèn)可。
通過(guò)對(duì)有缺陷織物的觀察,我們發(fā)現(xiàn)在灰度圖像中大多數(shù)種類的缺陷呈現(xiàn)孔洞和裂紋的特征。進(jìn)一步對(duì)圖像進(jìn)入深層次的分析,五條基于人類視覺注意力機(jī)制的重要顯著性線索被提出:
1)缺陷區(qū)域的光線反射強(qiáng)度比無(wú)缺陷區(qū)域弱;
2)缺陷區(qū)域往往具有更明顯的邊緣和拐角響應(yīng);
3)缺陷目標(biāo)的灰度值更加顯眼;
4)織物的背景紋理呈現(xiàn)有規(guī)律的重復(fù);
5)人眼更容易注意到缺陷目標(biāo)。
當(dāng)缺陷存在時(shí),織物表面的幾何形狀將會(huì)發(fā)生微量的變化,這就導(dǎo)致了局部區(qū)域的漫反射變得更加雜亂,因此缺陷目標(biāo)看起來(lái)比背景更暗。為了減少光照不均的影響,自適應(yīng)閾值分割被用來(lái)計(jì)算該線索。原理被描述:
式(1)中,IR表示初始圖像I經(jīng)過(guò)R×R窗口的均值濾波器后得到的模糊圖像;t≥0表示一個(gè)常數(shù)閾值。當(dāng)一個(gè)像素的灰度值小于它鄰域的均值減去t時(shí),則認(rèn)為它比其他的像素值更暗。
由于缺陷目標(biāo)和背景之間的漫反射存在差異,所以在缺陷區(qū)域的周圍存在銳利的邊緣和拐角。Harris[12]提出用結(jié)構(gòu)張量(Structure Tensor)檢測(cè)邊緣和拐角。圖像的結(jié)構(gòu)張量定義為其海森矩陣,因此,錨點(diǎn)像素(x,y)的結(jié)構(gòu)張量被描述為:
用λ1和λ2表示M的特征值,可以由下式計(jì)算得到:
Harris指出:當(dāng)且僅當(dāng)λ1和λ2都很大時(shí),該區(qū)域是拐角,如果一個(gè)特征值很大,同時(shí)另一個(gè)特征值很小時(shí),邊緣響應(yīng)就會(huì)發(fā)生。用A和B分別代表錨點(diǎn)像素的拐角響應(yīng)和邊緣響應(yīng),它們被定義:
因此,圖像的結(jié)構(gòu)張量被描述為:
其中SalA和SalB分別表示初始圖像的拐角和邊緣顯著圖,他們可以由等式(4)計(jì)算得到。N(·)表示顯著圖的歸一化操作。
根據(jù)我們觀察到的第三條線索,缺陷部位的灰度與背景相區(qū)別,由于顏色的稀缺性,缺陷很容易被注意到。因此,AC算法[13]被用來(lái)計(jì)算此線索。
該方法選取三種不同大小的鄰域(邊長(zhǎng)分別是h/8,h/4,h/2)進(jìn)行高斯濾波,并將其轉(zhuǎn)換到LAB色彩空間,分別求取像素點(diǎn)h/8鄰域LAB空間的均值Lm1、Am1、Bm1,h/4鄰域均值Lm2、Am2、Bm2和h/2鄰域均值Lm3、Am3、Bm3。再分別將LAB的模糊圖合并,用公式表示為:
基于該線索最終的顯著圖為:
在第四條線索中,我們注意到織物的背景紋理是有規(guī)律的,它們遵循固定的模式,并且對(duì)缺陷預(yù)測(cè)造成了很大的影響。PHOT算法[14]能夠從圖像中以任意規(guī)模移除有規(guī)律的紋理,并且只保留無(wú)序的部分。BMS模型[15]通過(guò)模擬人的視覺注意力原理檢測(cè)顯著性目標(biāo)。
基于以上5條線索,本文提出了一種多線索融合檢測(cè)方法,稱之為MCue,它被定義為:
式(8)中,SBMS、SAC、SPHOT、SST、D分別表示BMS、AC、PHOT、Structure Tensor以及Darker cue的顯著圖;ωD、ωPHOT表示Darker cue,PHOT顯著圖的權(quán)重;m是一個(gè)常數(shù),被用作歸一化。
通過(guò)對(duì)圖像的逐像素相加,那些不完整的顯著區(qū)域相互補(bǔ)充,因此該區(qū)域被增強(qiáng);另外,乘法操作能夠很大程度的削弱非顯著區(qū)域,而對(duì)顯著可能性大的區(qū)域影響不大。我們?nèi)ˇ谼=ωPHOT=3,m=5用作執(zhí)行圖像的線索融合。根據(jù)ST,PHOT,AC單獨(dú)的計(jì)算,盡管缺陷的高可能性區(qū)域被辨別出來(lái)了,但是不能得到完整的形狀,因此,對(duì)這些顯著圖執(zhí)行逐像素相加。根據(jù)這些部位的高概率密度,PHOT算法可以精確地辨別出缺陷,所以給ωPHOT賦予高值。由于線索一的嚴(yán)格的限制,直接相乘很容易導(dǎo)致錯(cuò)誤的檢測(cè),因此采用DωD+1.0的策略削弱Darker cue的影響。
為了加快模型的訓(xùn)練和測(cè)試速度,我們對(duì)U-Net的特征通道數(shù)以及壓縮路徑的下采樣數(shù)進(jìn)行了修剪。其中,通道數(shù)由U-Net的64,128,256,512,1024減少到CU-Net的32,64,128,256。在CNN中,小的特征圖包含更多的語(yǔ)義信息用于分類任務(wù),而更大的特征圖包含更多的空間信息??椢锶毕輽z測(cè)是一個(gè)二分類問題,因此更多的注意力應(yīng)該放在定位上。由于下采樣數(shù)目的減少,CU-Net生成的最小的特征圖是U-Net的四倍,這導(dǎo)致了更高的定位精度。
CU-Net采用的編解碼器架構(gòu)如圖2所示。在編碼器部分,兩個(gè)3*3的卷積層構(gòu)成的卷積塊被重復(fù)使用,為了使每一次的卷積操作不改變圖像的大小,采用邊界填充策略。在每一個(gè)卷積塊后緊跟一個(gè)ReLU激活函數(shù)和一個(gè)2*2的最大池化操作,令步長(zhǎng)為2用于執(zhí)行下采樣。在每次的下采樣中,特征通道的數(shù)量將增加一倍。解碼器部分與前者相反,用2*2的卷積對(duì)輸入的特征圖進(jìn)行上采樣,得到的特征圖通道數(shù)減半,但特征圖的尺寸翻倍。另外,在編碼器和解碼器之間通過(guò)跳躍連接的方式,將低級(jí)特征圖的信息傳遞到更高級(jí)的特征圖中。此外,考慮到一些織物圖像中存在較小的缺陷,在分割過(guò)程中容易丟失,因此在跳躍連接中引入注意力機(jī)制。
圖2 CU-Net網(wǎng)絡(luò)架構(gòu)
注意力機(jī)制被用來(lái)顯式地建模特征通道之間的依賴關(guān)系。在CU-Net的跳躍連接中引入注意力機(jī)制,抑制不相關(guān)區(qū)域的特征響應(yīng),減少冗余特征的數(shù)量。并且該模塊只會(huì)給模型增加很少的參數(shù)和內(nèi)存負(fù)擔(dān),卻能顯著提高模型預(yù)測(cè)能力。所采用的模塊如圖3所示。
圖3 注意力機(jī)制模塊
該模塊主要分為壓縮,激活和融合三個(gè)階段。通過(guò)全局均值池化將輸入的特征圖的各個(gè)通道進(jìn)行壓縮,得到各個(gè)特征維度的全局信息,壓縮操作的計(jì)算公式為:
式(9)中,xc是輸入特征圖的第c維特征;H和W是特征圖的寬和高;(i,j)表示特征圖空間維的坐標(biāo);S為壓縮函數(shù);yc為壓縮后得到的特征圖。
激活操作類似于循環(huán)神經(jīng)網(wǎng)絡(luò)中門的機(jī)制,兩層的全連接可以更好地?cái)M合通道之間的復(fù)雜的相關(guān)性,因此選用兩層全連接為每個(gè)特征通道生成權(quán)重。表示如下:
式中,x是壓縮后的特征圖;Wr和Ws分別代表壓縮和重構(gòu)的全連接函數(shù);δ和σ分別是ReLU激活函數(shù)和Sigmoid激活函數(shù);E為權(quán)重函數(shù)。
最后,將初始的特征圖與權(quán)重函數(shù)對(duì)應(yīng)元素相乘,突出目標(biāo)的圖像區(qū)域并且抑制無(wú)關(guān)的特征響應(yīng)。
織物的缺陷檢測(cè)被建模為一個(gè)二分類問題,圖像中像素點(diǎn)要么屬于缺陷,要么屬于背景。通常,交叉熵?fù)p失函數(shù)被作為二分類的損失函數(shù),它被定義為:
式(12)中,yi表示像素i實(shí)際的類別,yi=1表示該像素屬于缺陷區(qū)域,yi=0表示它屬于織物背景;pi∈(0,1)表示此像素經(jīng)過(guò)模型輸出的預(yù)測(cè)值。pi越大,該像素點(diǎn)就越傾向于缺陷;N為圖像的像素點(diǎn)總數(shù)。在訓(xùn)練中,通過(guò)迭代不斷調(diào)整網(wǎng)絡(luò)權(quán)重,使損失值最小化。
然而,這種損失函數(shù)更加適應(yīng)于正負(fù)樣本平衡的情況下。在實(shí)際的織物圖像中,缺陷部位所占據(jù)的像素比例遠(yuǎn)遠(yuǎn)小于背景區(qū)域,這就造成了模型更加側(cè)重于識(shí)別比例更高的類別。考慮到這一點(diǎn),本文提出將DiceLoss函數(shù)作為上述函數(shù)的補(bǔ)充,DiceLoss被定義為:
式(13)中各符號(hào)的含義與式(12)中相同。
當(dāng)織物圖像中背景區(qū)域過(guò)多時(shí),在交叉熵?fù)p失函數(shù)的作用下,模型會(huì)更加傾向于學(xué)習(xí)背景區(qū)域,通過(guò)提高背景區(qū)域像素的預(yù)測(cè)概率來(lái)降低損失值。DiceLoss損失則更多關(guān)注缺陷區(qū)域像素是否被正確分類。結(jié)合兩種損失函數(shù)特點(diǎn),本文提出將交叉熵?fù)p失LCE與DiceLoss損失LDice相加得到的復(fù)合損失函數(shù)用在織物的缺陷檢測(cè)問題上。
為了驗(yàn)證所提出的方法在織物缺陷檢測(cè)上的有效性,我們?cè)谝慌_(tái)裝載因特爾酷睿i7 8700k的服務(wù)器上進(jìn)行了一系列的實(shí)驗(yàn),同時(shí)服務(wù)器搭配16GB的內(nèi)存和一塊英偉達(dá)GeForce GTX1080Ti(11GiB)的顯卡。在軟件方面,Ubuntu16.04操作系統(tǒng)被采用,并且pytorch深度學(xué)習(xí)框架被用來(lái)編制程序。
本文選用AITEX數(shù)據(jù)集[16]對(duì)所提出方法進(jìn)行了實(shí)驗(yàn)。AITEX織物數(shù)據(jù)集由245張4096×256像素的圖像組成。其中包含140張無(wú)缺陷圖像和105張有缺陷圖像,缺陷種類共分為12類。所有的圖像來(lái)自7種不同的織物結(jié)構(gòu)。通過(guò)數(shù)據(jù)增強(qiáng)后,整個(gè)數(shù)據(jù)集共包含595個(gè)樣本。按照比例將數(shù)據(jù)集隨機(jī)劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,分別包含415、119和61個(gè)樣本。數(shù)據(jù)集部分樣本如圖4所示,為了更清晰地展示缺陷部位,所有圖像被裁剪成256×256大小。
圖4 AITEX織物數(shù)據(jù)集部分樣本
為了定量的評(píng)價(jià)本文所提出織物缺陷檢測(cè)方法的表現(xiàn),我們將引入準(zhǔn)確率(Acc)和召回率(RE)兩種不同的評(píng)價(jià)指標(biāo)。準(zhǔn)確率反映了模型對(duì)整體樣本的判斷能力,是度量一個(gè)模型好壞最基本的指標(biāo)。召回率是覆蓋面的度量,反映了有多少個(gè)正例被劃分為了正例。準(zhǔn)確率Acc和召回率RE的計(jì)算值由下式確定:
式中:TP表示被正確預(yù)測(cè)的正樣本,即網(wǎng)絡(luò)輸出的缺陷區(qū)域同時(shí)是實(shí)際的缺陷區(qū)域;TN表示被正確預(yù)測(cè)的負(fù)樣本,即網(wǎng)絡(luò)輸出的背景同時(shí)是實(shí)際的背景;FP表示被錯(cuò)誤預(yù)測(cè)的正樣本;FN表示被錯(cuò)誤預(yù)測(cè)的負(fù)樣本。
在深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)的權(quán)重初始化方式十分重要,其對(duì)模型的收斂速度和性能有著較大影響。本文選擇用一個(gè)標(biāo)準(zhǔn)差為的高斯分布初始化權(quán)值,Ni為第i層網(wǎng)絡(luò)的輸入節(jié)點(diǎn)數(shù),例如,對(duì)于卷積核大小為3×3的64通道網(wǎng)絡(luò)層,Ni=3×3×64=576。
另外,本文采用Adam優(yōu)化器來(lái)更新網(wǎng)絡(luò)權(quán)值,因?yàn)樗梢栽谟?xùn)練時(shí)自適應(yīng)的調(diào)整學(xué)習(xí)率,且有更快的收斂速度。我們將初始學(xué)習(xí)率設(shè)置為0.001,一階和二階矩估計(jì)衰減因子分別設(shè)置為β1=0.9、β2=0.999??紤]到內(nèi)存的影響,訓(xùn)練階段,bitch_size設(shè)置為2,共進(jìn)行100代訓(xùn)練。
訓(xùn)練集與驗(yàn)證集的織物圖像經(jīng)過(guò)預(yù)處理后,將其與原圖合并為雙通道送入所改進(jìn)的CU-Net網(wǎng)絡(luò)中。在經(jīng)過(guò)100次迭代后,模型充分學(xué)習(xí)了織物的缺陷特征,得到的訓(xùn)練過(guò)程曲線如圖5、圖6所示。結(jié)果表明,在訓(xùn)練前期損失值急劇下降,雖然存在震蕩現(xiàn)象,但在40次迭代后損失值逐漸趨于收斂。另外在訓(xùn)練過(guò)程中準(zhǔn)確率與召回率的最高值分別達(dá)到98.6%和93.4%,并穩(wěn)定在該值左右。
圖5 訓(xùn)練過(guò)程的損失曲線
圖6 訓(xùn)練過(guò)程的準(zhǔn)確率與召回率
將本文的織物缺陷檢測(cè)整體模型應(yīng)用于AITEX數(shù)據(jù)集并可視化各個(gè)階段的處理結(jié)果,圖7展示了預(yù)處理、缺陷目標(biāo)分割以及后處理的效果圖。在預(yù)處理階段,大部分人眼可以顯著觀察到的缺陷區(qū)域被提取出來(lái)。經(jīng)過(guò)CU-Net網(wǎng)絡(luò)的精細(xì)分割,缺陷部位被逐像素地辨別為缺陷或背景,通過(guò)后處理,最終缺陷以矩形框的形式被標(biāo)記出來(lái)。
圖7 織物圖像各階段處理效果圖
將本文提出的織物缺陷檢測(cè)方法在訓(xùn)練集和驗(yàn)證集上學(xué)習(xí)后,用得到的模型對(duì)測(cè)試集圖像進(jìn)行預(yù)測(cè),并比較文中所提及的其他檢測(cè)方法,如圖8所示。結(jié)果表明,本文提出的檢測(cè)方法能夠更加直觀的表達(dá)織物中的缺陷。
圖8 不同算法檢測(cè)效果對(duì)比
為了證明本文提出方法的先進(jìn)性,將本文方法與上述方法檢測(cè)結(jié)果的準(zhǔn)確率Acc與召回率RE分?jǐn)?shù)定量地進(jìn)行比較,結(jié)果如表1所示。在AITEX數(shù)據(jù)集上,本文方法的準(zhǔn)確率和召回率分別達(dá)到98.3%和92.7%,相比于其他檢測(cè)方法的最高分?jǐn)?shù)有4.8%和2.3%的提升。
表1 不同算法檢測(cè)精度對(duì)比
受顯著性檢測(cè)與卷積神經(jīng)網(wǎng)絡(luò)的啟發(fā),本文提出了一種有效的織物缺陷檢測(cè)深度學(xué)習(xí)模型。首先,該模型基于缺陷區(qū)域的多條顯著性線索對(duì)初始圖像進(jìn)行預(yù)處理,得到圖像粗略的ROI區(qū)域。其次,對(duì)基本的U-Net網(wǎng)絡(luò)提出改進(jìn),并將預(yù)處理圖像作為網(wǎng)絡(luò)輸入進(jìn)行語(yǔ)義分割。最后,利用經(jīng)典視覺算法進(jìn)行后處理便于實(shí)際工程應(yīng)用。在AITEX數(shù)據(jù)集上對(duì)模型進(jìn)行了評(píng)估,并與文獻(xiàn)其他檢測(cè)方法進(jìn)行對(duì)比。結(jié)果表明,本文的模型在準(zhǔn)確率與召回率均有一定的提升。由于在實(shí)際的工業(yè)檢測(cè)中存在各種干擾因素,而本文沒有在該環(huán)境下進(jìn)行實(shí)驗(yàn)以檢測(cè)模型的魯棒性,接下來(lái)的工作將會(huì)在此展開。