国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

自注意力與域適應(yīng)對抗模板重建方法

2020-02-22 03:09賈可趙錁曾欣科賈力李孝杰
現(xiàn)代信息科技 2020年18期
關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)

賈可 趙錁 曾欣科 賈力 李孝杰

摘? 要:該文提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的模板重建方法,采用殘差學(xué)習(xí)方式逐級精細(xì)化得到重建結(jié)果,通過產(chǎn)品圖像與模板的比對完成對工業(yè)品的外觀質(zhì)量檢測。在模板重建過程中,結(jié)合自注意力機制的關(guān)聯(lián)度檢索與編碼融合方式,在保持細(xì)節(jié)還原效果的同時大幅減少了計算量;并提出域適應(yīng)對抗學(xué)習(xí)方法,避免重建過程對缺陷信息的還原,顯著控制了檢測漏報率。實驗結(jié)果表明了該方法的有效性與較強適應(yīng)能力。

關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);模板重建;缺陷檢測;自注意力;域適應(yīng)對抗學(xué)習(xí)

中圖分類號:TP391.4 文獻(xiàn)標(biāo)識碼:A? ? 文章編號:2096-4706(2020)18-0001-06

Abstract:This paper proposes a template reconstruction method based on convolutional neural network,which uses residual learning method to refine the reconstruction results step by step,and completes the appearance quality inspection of industrial products by comparing product images with templates. In the process of template reconstruction,adopting the self-attention mechanism via relevance retrieval and codes fusion method greatly cuts down the calculation while maintaining the advantage of detail restoration. A domain-adaptive adversarial learning strategy is further proposed to avoid the restoration of defect information in the reconstruction procedure,and significantly control the failure rate of defect detection. The experimental results prove the effectiveness and adaptability of this approach.

Keywords:convolutional neural network;template reconstruction;defect detection;self-attention;domain-adaptive adversarial learning

0? 引? 言

工業(yè)品的質(zhì)量檢測是生產(chǎn)與維保過程中的一個關(guān)鍵環(huán)節(jié),不僅直接影響到推向市場的合格產(chǎn)品的挑揀與品控,同時也是保證產(chǎn)品在使用過程中滿足有限損耗、保障安全生產(chǎn)運行的重要手段。隨著社會人力成本的提高與技術(shù)水平的發(fā)展,基于機器視覺方法的自動檢測手段在產(chǎn)品質(zhì)量檢測中發(fā)揮出日益重要的作用,因其智能高效、成本低廉、穩(wěn)定可靠等優(yōu)點,在越來越多的領(lǐng)域逐步替代了傳統(tǒng)的人工檢測工藝。為了更好地適應(yīng)日益提高的工業(yè)質(zhì)量檢測高精度與低誤報現(xiàn)實需求,本文提出了一種結(jié)合自注意力機制與域適應(yīng)對抗學(xué)習(xí)思想的模板重建方法,具有良好的表現(xiàn)和較高的適應(yīng)能力。

1? 相關(guān)研究

按照所采用計算機視覺技術(shù)的不同,機器自動檢測技術(shù)大致可分為基于目標(biāo)檢測與基于模板比對的兩類方法。

隨著以深度學(xué)習(xí)為代表的人工智能技術(shù)近年來的飛速發(fā)展,基于目標(biāo)檢測算法的缺陷提取與質(zhì)量控制方法引起了眾多研究者與產(chǎn)業(yè)人員的關(guān)注?;趯W(xué)術(shù)界提出的一系列目標(biāo)檢測算法模型如Faster R-CNN[1]、YOLO[2]、CenterNet[3]等,不少研究將其應(yīng)用到具體的產(chǎn)品質(zhì)量檢測場景中[4,5],以待檢測的產(chǎn)品外觀缺陷作為感興趣的目標(biāo)區(qū)域,算法可對缺陷進(jìn)行分類與定位。這類方法一般依賴于對帶有缺陷的殘次產(chǎn)品圖像的收集與標(biāo)注,用監(jiān)督式方法訓(xùn)練相應(yīng)目標(biāo)檢測模型;這種方式雖然在檢測精度上具有一定的優(yōu)勢,但在實際生產(chǎn)過程中,殘次品的數(shù)量本身相對較少,并且一定時間的數(shù)據(jù)收集并不能保證獲取到足夠數(shù)量與質(zhì)量的缺陷數(shù)據(jù)從而充分涵蓋到缺陷外觀與特征的完整分布,因此在具體應(yīng)用中,尤其是在“工業(yè)4.0”強調(diào)小批次、個性化生產(chǎn)的背景下,此類方法因采集與標(biāo)注成本較高、迭代較慢而稍顯笨重。

所以,基于模板比對的缺陷檢測方法又重新引起學(xué)界與業(yè)界的重視,并在深度學(xué)習(xí)、人工智能發(fā)展的背景下得以完善和提高[6,7]。模板比對方法利用一張或多張不帶缺陷的產(chǎn)品圖像作為模板,將待檢產(chǎn)品圖像與模板進(jìn)行比較,找出其中不一致的地方并標(biāo)識為缺陷,該方法能夠提供較好的質(zhì)量檢測靈活性。但由于產(chǎn)品之間的個體差異,模板比對方法更容易出現(xiàn)將非缺陷區(qū)域識別為缺陷的誤報問題,為了降低檢測誤報率,往往需要放寬對圖像差異的評判標(biāo)準(zhǔn),但這又可能引起不能檢出缺陷的漏報問題。這兩種問題在實際應(yīng)用過程中相互交織與制約,使得合適的差異評判標(biāo)準(zhǔn)難以抉擇,限制了模板比對方法的現(xiàn)實應(yīng)用效果。

在汲取兩種機器自動檢測技術(shù)經(jīng)驗的基礎(chǔ)上,本文以彌補兩類方法的弱點為目標(biāo),提出了一種以模板比對為基礎(chǔ),綜合其他技術(shù)手段進(jìn)行提升與改進(jìn)的質(zhì)量檢測方法,該方法的主要創(chuàng)新點:

(1)通過模板重建的方式更好地適應(yīng)產(chǎn)品個體差異,降低檢測誤報率,并在模板重建過程中結(jié)合自注意力機制,在保持模板重建的細(xì)節(jié)還原效果的同時大幅減少了計算量;

(2)針對模板重建中可能引入的漏報問題,提出了域適應(yīng)對抗學(xué)習(xí)方法,顯著控制了檢測漏報率;

(3)通過生產(chǎn)與維保環(huán)節(jié)的兩個具體案例和實驗,證明了該方法的有效性與適應(yīng)性。

在本文以下部分,第2節(jié)中詳細(xì)介紹了本文提出的缺陷檢測方法,第3節(jié)通過具體實驗以及結(jié)果分析對本文方法的有效性進(jìn)行了驗證,在第4節(jié)對本文工作進(jìn)行了總結(jié)與展望。

2? 本文方法

為了降低缺陷檢測的誤報率,本文先利用待檢測圖像重建出一幅同等尺寸的模板圖像,由于模板是針對每一幅待檢測圖像獨立重建的,帶有其個體特征細(xì)節(jié),因此能夠有效減少比較差異;為了防止在模板重建過程中,缺陷區(qū)域也被重建還原,導(dǎo)致漏檢的風(fēng)險,本文在重建模型訓(xùn)練過程中,引入域適應(yīng)性損失函數(shù)與對抗學(xué)習(xí)機制,使得模型在保留圖像個體細(xì)節(jié)的同時,對于缺陷區(qū)域能夠重建出不帶缺陷的正常效果。在重建出檢測模板圖像后,將待檢測圖像與之進(jìn)行差分對比,在采用傳統(tǒng)圖像處理的閾值過濾、連通域分析[8]等常規(guī)技術(shù)手段后,本文方法取得了良好的效果。

2.1? 基于自注意力的模板重建

模板重建方法在工業(yè)檢測的應(yīng)用場景下具有天然的優(yōu)勢,一方面重建模型的訓(xùn)練可以僅利用正常產(chǎn)品數(shù)據(jù),在一般生產(chǎn)過程中該數(shù)據(jù)是非常容易獲取的;另一方面重建模型一般可以采用自監(jiān)督學(xué)習(xí)方式進(jìn)行訓(xùn)練,無需進(jìn)行額外的人工標(biāo)注,因此實施成本也很低廉。

圖像重建是機器視覺領(lǐng)域的一個經(jīng)典問題,在深度學(xué)習(xí)框架下,如AutoEncoder[9]、VAE[10]、GAN[11]等一系列生成式方法均可用于圖像重建;同時圖像重建可被視作“像素-對-像素”的圖像變換問題,因此適用于這一問題的如圖像分割網(wǎng)絡(luò)結(jié)構(gòu)(DeconvNet[12]、U-Net[13]等)也同樣可用于圖像重建。本文的模板重建主框架就以U-Net結(jié)構(gòu)為基礎(chǔ),并主要在下采樣特征提取、上采樣圖像重建與自注意力殘差補償三個方面進(jìn)行改進(jìn),所提出的模板重建網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

2.1.1? 下采樣特征提取

針對模板重建問題,本文沒有采用直接通過特征計算還原圖像像素值的方式,而是借鑒殘差學(xué)習(xí)[14]的思想,將圖像下采樣后再進(jìn)行上采樣,得到包含圖像低頻成分的粗重建結(jié)果,然后再通過特征計算圖像細(xì)節(jié)的高頻補償,將兩者相加得到精重建結(jié)果。這樣有利于降低重建問題的函數(shù)擬合難度,從而在更少參數(shù)量與計算量的條件下更好地恢復(fù)圖像細(xì)節(jié),減少比較差異從而降低誤報率。因此,在U-Net結(jié)構(gòu)左翼的下采樣過程中,包含了圖像下采樣與特征下采樣兩個數(shù)據(jù)流,其中圖像下采樣采取雙線性插值方式,每次將圖像縮小到上一級的1/2尺寸。為了在減少模型的整體計算量的同時保持良好特征提取效果,每一級特征均由上級下采樣特征與本級提取特征兩部分構(gòu)成,下采樣特征采用3×3尺寸、步長(Stride)為2的卷積計算從上一級特征縮小一半的尺寸;本級特征則從相同尺寸的下采樣圖像中采用3×3卷積提取。這兩部分特征的通道數(shù)相同,可拼接為一體的特征張量(Tensor)。在本文的實驗中,如圖1所示均進(jìn)行了4次下采樣,將原圖最小縮放到1/16的尺寸。

2.1.2? 上采樣圖像重建

在U-Net結(jié)構(gòu)右翼的上采樣過程中,本文先將下一級圖像采取最近鄰插值方式(采用雙線性插值等上采樣方法的效果亦無明顯差異)放大到2倍大小作為粗重建,然后將殘差補償計算得到的高頻細(xì)節(jié)與之相加得到精重建結(jié)果。重復(fù)使用該上采樣過程,最終得到與待檢測圖像尺寸一致的重建模板。在模型訓(xùn)練過程中,本文采用自監(jiān)督方法,約束重建圖像與原圖的像素差異盡可能小,并定義重建損失函數(shù):

其中,I與I′分別為原圖與重建圖像在對應(yīng)像素位置的色彩灰度值(Intensity)。

2.1.3? 自注意力殘差補償

如圖1灰色箭頭所示,在傳統(tǒng)U-Net的殘差補償快捷連接中,一般采用卷積計算的方式從特征計算出高頻細(xì)節(jié)的補償量,這就要求特征中必須包含能夠完成高頻細(xì)節(jié)重建的充足信息,因此對特征數(shù)量以及特征提取所反映的函數(shù)擬合過程提出了較高的要求。圍繞降低模型參數(shù)量與計算量的目標(biāo),本文借鑒自注意力機制[15]的算法思想,對殘差補償?shù)挠嬎氵^程進(jìn)行了優(yōu)化。

具體來說,對于每一級的殘差補償連接,建立一個q× d的二維鍵(Key)矩陣K,以及一個d×12的二維值(Value)矩陣V,可以將值矩陣V看作一個碼本(Codebook),其中包含了d個編碼,每個編碼具有3×2×2=12個值。鍵矩陣與值矩陣中的變量均作為網(wǎng)絡(luò)參數(shù),通過訓(xùn)練優(yōu)化求解。從該級的特征出發(fā),首先通過一個3×3的卷積計算將其轉(zhuǎn)換為具有q通道的查詢(Query)張量Q;其次,將查詢張量與鍵矩陣內(nèi)積歸一化得到權(quán)重(Weight)張量W=softmax(QTK),權(quán)重張量中每一位置的d個值反映了這一位置的查詢特征與相應(yīng)d個鍵特征的關(guān)聯(lián)度;然后將權(quán)重張量與值矩陣內(nèi)積((WV)T)即加權(quán)融合碼本中的d個編碼得到具有12通道的張量。假設(shè)其維度為12×h×w(高為h,寬為w),則利用“亞像素卷積[16]”即像素重排可將其轉(zhuǎn)換為3×2h×2w的殘差張量R,將其與上采樣放大后的彩色圖像相加,這樣的上采樣計算方式可以有效消除如轉(zhuǎn)置卷積等上采樣計算中存在的棋盤格偽影效應(yīng)。

經(jīng)過對比實驗,在碼本數(shù)量d=4的情況下,采用自注意力殘差補償方式就已經(jīng)能夠獲得等同傳統(tǒng)U-Net結(jié)構(gòu)的殘差補償方式重建質(zhì)量的結(jié)果,而查詢特征的長度一般選取在q∈[logd,d]的范圍,在對比實驗中一般直接取為q=d。因此,采用自注意力殘差補償方式能夠有效降低模型的計算量。若采用傳統(tǒng)U-Net的殘差補償方式,假設(shè)某級特征的維度為c×h×w,采用3×3卷積計算將其轉(zhuǎn)換為殘差細(xì)節(jié)所需的乘加計算(MAC)量為k×k×c×12×w×h,其中k為卷積核尺寸3,以工業(yè)應(yīng)用場景下經(jīng)過裁剪的特征通道典型數(shù)量c=32為例,則為3 456×w×h;而采用上述自注意力殘差補償方式,其乘加計算量:

該計算量約為對比方法的1/3,因此自注意力殘差補償方式在有效節(jié)省了模型計算量的同時取得了與對比方法等同的重建效果。

2.2? 域適應(yīng)對抗學(xué)習(xí)

在采用模板重建方法進(jìn)行缺陷檢測的過程中,模型重建能力的增強,也增大了重建出待檢測圖像中的缺陷區(qū)域,從而極大地降低了缺陷檢出率的風(fēng)險。為了解決這一問題,本文提出域適應(yīng)對抗學(xué)習(xí)方法。對抗學(xué)習(xí)方法在生成式對抗網(wǎng)絡(luò)GAN領(lǐng)域被廣泛使用,可用作數(shù)據(jù)分布擬合的重要約束手段,本文對該方法加以改進(jìn),以避免對圖像缺陷的重建還原。為了達(dá)到這一目的,本文的域適應(yīng)對抗學(xué)習(xí)是一種監(jiān)督式學(xué)習(xí)方法,因此在訓(xùn)練圖片存在缺陷的情況下可以進(jìn)行缺陷區(qū)域與類型的圖像分割標(biāo)注。

首先,本文將重建模板的U-Net網(wǎng)絡(luò)作為生成器(Gen-erator),并利用一個ResNet18[14]的深度殘差網(wǎng)絡(luò)作為分類器(Discriminator),該分類器以原圖或重建圖像作為輸入。模板重建問題與圖像分類問題不同,更依賴于圖像的局部而非全局信息,因此本文在ResNet18中并未下采樣直至1×1的特征空間尺度,而是僅保留到conv4_x階段,并在此之后直接連接一個1×1卷積層變換為缺陷分類所需特征通道數(shù)。在最后得到的分類特征圖中,每一個特征位置均對應(yīng)了原圖中一個感受野區(qū)域(Receptive Field)。利用圖像分割標(biāo)注結(jié)果,若該區(qū)域中不存在缺陷,則其分類目標(biāo)(Ground-truth)為0,否則以缺陷類別號作為其分類目標(biāo),這樣的分類結(jié)果可以看作一個具有較粗粒度的缺陷分割熱力圖[17]。

其次,按照對抗學(xué)習(xí)方法可將網(wǎng)絡(luò)訓(xùn)練過程劃分為辨別式階段與生成式階段兩步。在辨別式階段,將原圖傳入分類器進(jìn)行計算,反傳梯度并更新分類器參數(shù),在辨別式階段訓(xùn)練分類器時本文采用Focal Loss[18]來緩解類別不均衡問題,并在分類器參數(shù)初始化時使其初始分類結(jié)果均為0(無缺陷區(qū)域顯著多于缺陷區(qū)域);因此辨別式訓(xùn)練階段的損失函數(shù):

其中,t為該位置的分類目標(biāo)ground-truth,pt為分類正確的概率,∝t為該類別的平衡權(quán)重即該類樣本數(shù)量的倒數(shù)(各類別整體歸一化),超參數(shù)γ在本文實驗中依據(jù)參考文獻(xiàn)[18]推薦設(shè)為2.0。

在生成式階段,首先前向計算U-Net生成器得到重建圖像,將其傳入分類器,在得到的分類結(jié)果中將所有位置的目標(biāo)推向類別0(即無缺陷),此時可采用一般的交叉熵(Cross-entropy),則生成式訓(xùn)練階段的分類器損失函數(shù):

同時,修正重建損失函數(shù)(1)使其忽略缺陷區(qū)域的重建誤差:

將分類器損失(3)與重建損失(4)聯(lián)合進(jìn)行多任務(wù)訓(xùn)練,得到總的生成式損失函數(shù):

其中,λ為平衡因子,在本文實驗中直接取作1.0。然后對U-Net與分類器均反傳梯度,但僅更新U-Net的網(wǎng)絡(luò)參數(shù),而保持分類器參數(shù)不變。通過域適應(yīng)對抗學(xué)習(xí),U-Net網(wǎng)絡(luò)最終在重建模板的過程中,對于缺陷區(qū)域能夠產(chǎn)生出類似于正常區(qū)域的重建結(jié)果,從而保障對缺陷的穩(wěn)定檢出。

2.3? 模板對比與缺陷檢測

在訓(xùn)練得到模板重建模型并應(yīng)用模型對待檢測圖像重建出模板后,即可采用傳統(tǒng)機器視覺技術(shù)手段進(jìn)行缺陷檢測。一般來說,首先可將待檢測圖像與重建模板進(jìn)行絕對值差分,將灰度絕對差大于一定閾值的像素標(biāo)記為1,否則為0,從而得到二值化圖像;再在該圖像上運用連通域分析方法,過濾掉面積很小的噪聲點,從而得到最終的缺陷檢測結(jié)果。在缺陷檢出區(qū)域上,還可以進(jìn)一步應(yīng)用圖像分類的方法來對缺陷類型進(jìn)行歸類判定。

3? 實驗結(jié)果分析

3.1? 動車線絕緣子狀態(tài)巡檢

首先,我們在一個現(xiàn)有的數(shù)據(jù)集上測試本文算法的效果。該數(shù)據(jù)集來源于鐵道線晚間巡檢動車拍攝的沿線電路立樁,原圖為4 400×6 600像素尺寸的灰度圖像,采用YOLO算法位出其中高壓線絕緣子后,經(jīng)過旋轉(zhuǎn)矯正與縮放裁剪為256×512像素尺寸。數(shù)據(jù)集共包含500幅圖片,全部帶有絕緣子破損的缺陷,人工標(biāo)注出576處破損缺陷,隨機選取其中300幅圖片作為訓(xùn)練樣本,其余200幅留作測試。采用本文前述方法訓(xùn)練模板重建模型,在PyTorch訓(xùn)練框架下,優(yōu)化器選用AdamW[19],初始學(xué)習(xí)率設(shè)置為1e-3,在訓(xùn)練過程中線性遞減至1e-6,采用了隨機縮放、隨機裁剪、明暗變化的數(shù)據(jù)增強方式,在100epoch后訓(xùn)練結(jié)束。然后利用該模型對200幅測試圖片進(jìn)行檢測,選擇48作為灰度絕對差的過濾閾值,連通域分析閾值為50像素,抽取了三個圖例如圖2所示,其中圖2(a)~圖2(c)為測試原圖,圖2(d)~圖2(f)為采用本文方法重建出的模板圖像,圖2(g)~圖2(i)為檢測結(jié)果。由于原始圖像拍攝時經(jīng)常帶有電樁的背景信息,且受型號、角度等因素影響具有較大差異不利于計算機處理,因此該數(shù)據(jù)集中每幅圖像均有絕緣子區(qū)域的mask蒙版信息,用以過濾背景干擾。在模板重建模型訓(xùn)練過程中也利用了該蒙版信息,可以僅考慮絕緣子區(qū)域的重建誤差,所以圖2中重建模板的背景區(qū)域會有較強噪聲,我們在進(jìn)行缺陷檢測時也利用蒙版過濾了背景噪聲,僅對絕緣子區(qū)域進(jìn)行處理。

最終,對于測試集中的200幅圖片通過本文方法均成功檢出缺陷。在測試集中人工標(biāo)注有234個缺陷區(qū)域,本文方法檢出251處缺陷,多報出的缺陷經(jīng)過人工檢查,主要為兩種情況:其一如圖2(h)所示,同一處缺陷經(jīng)連通域分析后被分為了多個區(qū)域重復(fù)報出;其二如圖2(i)圖中左上角白點處,原圖在該位置確實存在一定瑕疵,但標(biāo)注人員認(rèn)為其未達(dá)到缺陷標(biāo)準(zhǔn)。本文方法在動車線絕緣子狀態(tài)巡檢數(shù)據(jù)集中展現(xiàn)出優(yōu)秀的效果。

3.2? 口服液瓶蓋質(zhì)量檢測

上一實驗中一方面絕緣子缺損整體來說面積較大,較為顯著,易于檢出,另一方面該數(shù)據(jù)集全部為缺陷圖像,難以定量分析本文算法在實際應(yīng)用中的效果,因此我們進(jìn)一步在實際案例中驗證本文方法。本實驗數(shù)據(jù)來源于某口服液廠家在生產(chǎn)線封測環(huán)節(jié)的圖像采集,目的是對瓶蓋及封裝質(zhì)量進(jìn)行外觀檢測,原圖為1 942×2 590像素尺寸的彩色圖像,由于流水線生產(chǎn)夾具位置相對固定,因此直接從原圖中固定區(qū)域截取瓶蓋頂視區(qū)域并縮放為480×480像素尺寸。數(shù)據(jù)集共包含39 000張圖片,委托廠家質(zhì)檢人員進(jìn)行標(biāo)注,其中前1 000張采取純?nèi)斯?biāo)注方式,之后隨著本文模型迭代,逐漸過渡為機器初步標(biāo)注、人工審核修正的半自動標(biāo)注方式;最終審查出缺陷產(chǎn)品圖片861張,并將缺陷進(jìn)一步區(qū)分為破損、油污、飛邊、夾絲等四種類型。在39 000張圖片收集整理完畢后,隨機選取了7 000幅作為本次實驗訓(xùn)練數(shù)據(jù),其余32 000幅留作測試,測試集中有/無缺陷圖像各為638和31 362幅。模型訓(xùn)練優(yōu)化器與學(xué)習(xí)率設(shè)置與上一實驗相同,根據(jù)數(shù)據(jù)特性選擇了隨機角度旋轉(zhuǎn)、色彩抖動的數(shù)據(jù)增強方式,在60epoch后訓(xùn)練結(jié)束。測試階段灰度差分閾值設(shè)作25,連通域閾值取為20像素,抽取兩個檢測圖例如圖3所示,其中圖3(a)~圖3(b)為測試原圖,圖3(c)~圖3(d)為重建模板,圖3(e)~圖3(f)為檢測結(jié)果。

我們隨后對實驗結(jié)果進(jìn)行了定量分析,統(tǒng)計結(jié)果如表1所示。在統(tǒng)計過程中,如果一個人工標(biāo)注的缺陷區(qū)域,經(jīng)過算法檢測后有至少1個像素點被標(biāo)為缺陷,則計作成功檢出,否則視為漏檢;如果一張人工檢查未標(biāo)注缺陷的圖像,經(jīng)過算法檢測報出缺陷,則視為誤檢,否則計作檢出。從統(tǒng)計結(jié)果中可見,本文方法在該應(yīng)用場景中總體能夠達(dá)到約97.72%的缺陷檢出率,可成功挑揀出絕大部分缺陷產(chǎn)品;同時該檢測方法僅有不足0.24%的誤檢率,即算法報出缺陷后人工復(fù)核確認(rèn)無誤,該概率極為有限,能夠有效節(jié)省生產(chǎn)過程中因算法誤報而浪費的人力成本。其中對于夾絲類型缺陷的檢出率偏低,主要因為絲狀缺陷較細(xì),因此模板比對后檢出區(qū)域容易斷開而不連續(xù),進(jìn)而導(dǎo)致其被連通域分析算法過濾。將神經(jīng)網(wǎng)絡(luò)模型遷移到OpenVINO框架(https://github.com/openvinotoolkit/openvino)下進(jìn)行部署,在Intel i5-8400(2.8 GHz,6核6線程)CPU上模板重建前向推理時間約28 ms,能夠滿足流水線的生產(chǎn)節(jié)拍實時性要求。

最后,針對檢出的缺陷,我們進(jìn)一步開展了對缺陷分類的驗證。首先取得檢出缺陷最大連通區(qū)域的外接矩形框,并以長邊的1.5倍長度將其對稱擴(kuò)展成正方形區(qū)域,將原圖與重建模板同時截取該區(qū)域并縮放至224×224像素尺寸,兩者拼接為6通道的數(shù)據(jù),輸入一個ResNet18網(wǎng)絡(luò)行分類。缺陷分類結(jié)果的混淆矩陣如表2所示,從數(shù)據(jù)中可以觀察到,卷積神經(jīng)網(wǎng)絡(luò)分類模型基本能夠勝任缺陷分類的任務(wù),分類正確率在實際生產(chǎn)使用過程中尚可接受,其中飛邊與夾絲兩種類型的缺陷因在頂視角的2D投影方式下形態(tài)較為類似導(dǎo)致更容易區(qū)分錯誤,這也與人工的實際操作感受基本相符。

4? 結(jié)? 論

本文提出了一種基于模板重建與比對的工業(yè)品外觀缺陷檢測方法。在模板重建的過程中,通過結(jié)合U-Net圖像變換結(jié)構(gòu)與自注意力機制,從而在有效降低模型計算復(fù)雜度的基礎(chǔ)上保持了重建模板中對圖像細(xì)節(jié)的高度還原,降低了缺陷檢測的誤報率;同時,本文進(jìn)一步采用域適應(yīng)對抗學(xué)習(xí)方法,解決了模板重建可能保留缺陷信息的問題,從而顯著控制了檢測算法的漏報率。一系列驗證實驗均證明了本文方法的有效性與適應(yīng)性。

但在實驗過程中,仍然存在一定的問題,例如對于細(xì)小的缺陷,可能因后續(xù)傳統(tǒng)檢測方式的不足而導(dǎo)致遺漏,這些問題有待未來進(jìn)一步深入研究與探索。

參考文獻(xiàn):

[1] REN S Q,HE K M,GIRSHICK R,et al. Faster R-CNN:Towards Real-Time Object Detection with Region Proposal Networks [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.

[2] REDMON J,DIVVALA S,GIRSHICK R,et al. You Only Look Once:Unified,Real-Time Object Detection [C]//2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR 2016),New York:Curran Associates,Inc.,2016:779-788.

[3] ZHOU X Y,DEQUAN WANG D Q,KR?HENB?HL P.Objects as Points [J/OL].arXiv:1904.07850 [cs.CV].(2019-08-25).https://arxiv.org/abs/1904.07850v1.

[4] 顧佳晨,高雷,劉路璐.基于深度學(xué)習(xí)的目標(biāo)檢測算法在冷軋表面缺陷檢測中的應(yīng)用 [J].冶金自動化,2019,43(6):19-22+27.

[5] 岳慧慧,白瑞林.基于改進(jìn)YOLOv3的木結(jié)缺陷檢測方法研究 [J].自動化儀表,2020,41(3):29-35.

[6] 劉村,李元祥,周擁軍,等.基于卷積神經(jīng)網(wǎng)絡(luò)的視頻圖像超分辨率重建方法 [J].計算機應(yīng)用研究,2019,36(4):1256-1260+1274.

[7] AKAGI M,NAKAMURA Y,HIGAKI T,et al.深度學(xué)習(xí)重建提高了腹部超高分辨力CT的影像質(zhì)量 [J].國際醫(yī)學(xué)放射學(xué)雜志,2020,43(1):120-121.

[8] SZELISKI R.計算機視覺——算法與應(yīng)用 [M].艾海舟,興軍亮,譯.北京:清華大學(xué)出版社,2012.

[9] MASCI J,MEIER U,CIRE?AN D,et al. Stacked Convolutional Auto-Encoders for Hierarchical Feature Extraction [C]//Artificial Neural Networksand Machine Learning-ICANN,Switzerland:Springer,2011:52-59.

[10] KINGMA D P,WELLING M.Auto-Encoding Variational Bayes [J/OL].arXiv:1312.6114 [stat.ML].(2014-05-01).http://export.arxiv.org/abs/1312.6114.

[11] GOODFELLOW I J,POUGET-ABADIE J,MIRZA M,et al.Generative Adversarial Networks [J/OL].arXiv:1406.2661 [stat.ML].(2014-06-10).https://export.arxiv.org/abs/1406.2661.

[12] NOH H,HONG S,HAN B.Learning Deconvolution Network for Semantic Segmentation [C]//2015 IEEE International Conference on Computer Vision(ICCV),New York:Curran Associates,Inc.,2016:1520-1528

[13] RONNEBERGER O,F(xiàn)ISCHER P,BROX T. U-Net:Convolutional Networks for Biomedical Image Segmentation [C]//Medical Image Computing and Computer-Assisted Intervention – MICCAI 2015,Switzerland:Springer,2015:234-241

[14] HE K M,ZHANG X Y,REN S Q. Deep Residual Learning for Image Recognition [C]//2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR 2016),New York:Curran Associates,Inc.,2016:770-778.

[15] VASWANI A,SHAZEER N,PARMAR N,et al. Attention is all you need [C]//Advances in Neural Information Processing Systems 30:31st Annual Conference on Neural Information Processing Systems(NIPS 2017).New York:Curran Associates,Inc.,2017:5998-6008.

[16] SHI W Z,CABALLERO J,HUSZ?R F. Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network [C]//2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR 2016),New York:Curran Associates,Inc.,2017:1874-1883

[17] SHELHAMER E,LONG J,DARRELL T. Fully Convolutional Networks for Semantic Segmentation [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(4):640-651.

[18] LIN T,GOYAL P,GIRSHICK R.Focal Loss for Dense Object Detection [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2020,42(2):318-327.

[19] LOSHCHILOV I,HUTTER F. Fixing Weight Decay Regularization in Adam [J/OL]. arXiv:1711.05101 [cs.LG].(2019-01-04).https://arxiv.org/abs/1711.05101v1.

作者簡介:賈可(1983—),男,漢族,四川綿陽人,副教授,博士,研究方向:機器學(xué)習(xí)、圖像處理;趙錁(1996—),男,漢族,四川南充人,碩士研究生,研究方向:人工智能;曾欣科(1997—),男,漢族,四川達(dá)州人,碩士研究生,研究方向:人工智能;賈力(1996—),男,漢族,四川巴中人,碩士研究生,研究方向:人工智能;通訊作者:李孝杰(1981—),女,漢族,山東菏澤人,副教授,博士,研究方向:人工智能、機器學(xué)習(xí)。

猜你喜歡
卷積神經(jīng)網(wǎng)絡(luò)
基于深度神經(jīng)網(wǎng)絡(luò)的微表情識別
卷積神經(jīng)網(wǎng)絡(luò)中減少訓(xùn)練樣本時間方法研究
卷積神經(jīng)網(wǎng)絡(luò)語言模型研究
基于卷積神經(jīng)網(wǎng)絡(luò)的車輛檢索方法研究
基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識別算法
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
深度學(xué)習(xí)技術(shù)下的中文微博情感的分析與研究
基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識別的算法的研究
五指山市| 丹巴县| 鄱阳县| 句容市| 黄浦区| 沭阳县| 安康市| 龙游县| 和平县| 泾源县| 同江市| 萨迦县| 额尔古纳市| 金秀| 泰宁县| 信宜市| 丹凤县| 安多县| 额尔古纳市| 吉林市| 沿河| 海口市| 胶州市| 齐河县| 游戏| 乡城县| 济南市| 称多县| 浠水县| 阿尔山市| 曲麻莱县| 潜山县| 白河县| 海宁市| 越西县| 中阳县| 郸城县| 沈丘县| 五莲县| 微山县| 乳山市|