国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn) Cascade Faster R-CNN的鋁型材表面缺陷識(shí)別研究

2021-08-20 19:43崔亞飛羅輝秦龍鄧慧
機(jī)電工程技術(shù) 2021年11期
關(guān)鍵詞:鋁型材

崔亞飛 羅輝 秦龍 鄧慧

摘要:在鋁型材實(shí)際生產(chǎn)過(guò)程中,由于碰撞、加工溫度、壓力等原因,可能導(dǎo)致鋁型材產(chǎn)生擦花、臟點(diǎn)、噴流等數(shù)種表面缺陷,缺陷目標(biāo)較小,長(zhǎng)寬大,傳統(tǒng)目標(biāo)檢測(cè)算法的準(zhǔn)確率較低,嚴(yán)重影響鋁型材的美觀和質(zhì)量。在 Faster R-CNN 網(wǎng)絡(luò)的基礎(chǔ)上,引入了多階段模型訓(xùn)練方法使部分無(wú)缺陷樣本生成對(duì)抗樣本,用 ResNeXt105網(wǎng)絡(luò)代替原始 VGG16網(wǎng)絡(luò)提取圖像特征,設(shè)計(jì)了 Cascade Faster R-CNN 的網(wǎng)絡(luò)結(jié)構(gòu),采用 FPN 提取多尺度特征圖并進(jìn)行特征圖融合。實(shí)驗(yàn)結(jié)果表明,在2722張圖像測(cè)試集上,F(xiàn)aster R-CNN模型準(zhǔn)確率為62.7%,網(wǎng)絡(luò)模型測(cè)試準(zhǔn)確率達(dá)到81.4%,提高了18.7%。故相比于其他網(wǎng)絡(luò)模型,改進(jìn)后的 Cascade Faster R-CNN的模型具有更強(qiáng)的特征提取能力和泛化能力,為類(lèi)似小目標(biāo)檢測(cè)提高了技術(shù)參考。

關(guān)鍵詞:Cascade Faster R-CNN;鋁型材;缺陷識(shí)別

中圖分類(lèi)號(hào):TP391.4文獻(xiàn)標(biāo)志碼:A文章編號(hào):1009-9492(2021)11-0085-06

Research on Surface Defect Recognition of Aluminum Profile Based on Improved Cascade Faster R-CNN

Cui Yafei,Luo Hui ,Qin long ,Deng Hui

(School of Intelligent Manufacturing and Architectural Engineering, Yongzhou Vocational and Technical College, Yongzhou,Hunan 425100, China)

Abstract: In the actual production process of aluminum profiles, due to collision, processing temperature, pressure and other reasons, aluminum profiles may produce several kinds of surface defects, such as scratch, dirty spots and jet. The defect target is small, long and wide, and the accuracy of traditional target detection algorithm is low, which seriously affects the appearance and quality of aluminum profiles. Based on the faster R-CNN network, a multi-stage model training method was introduced to make some defect free samples generate confrontation samples. ResNeXt105 network was used to replace the original VGG16 network to extract image features. The network structure of Cascade Faster R-CNN was designed. The multi-scale feature map was extracted by FPN and the feature map was fused. In 2722 image test sets, the accuracy of fast R-CNN model is 62.7%, and the accuracy of this network model is 81.4%, which is improved by 18.7%. Compared with other network models, the improved Cascade Fast R-CNN model has stronger feature extraction ability and generalization ability, which improves the technical reference for similar small target detection.

Key words: Cascade Faster R-CNN; aluminum profile; defect identification

0 引言

我國(guó)是鋁型材生產(chǎn)和消費(fèi)大國(guó),鋁型材在建筑、工業(yè)、車(chē)輛、家裝和日常生活中都有廣泛的應(yīng)用。但是,鋁型材在實(shí)際生產(chǎn)過(guò)程中,由于碰撞、加工溫度、雜物、壓力等原因,可能導(dǎo)致鋁型材產(chǎn)生擦花、角位漏底、桔皮、漏底、噴流、漆泡、起坑、雜色和臟點(diǎn)等數(shù)十種表面瑕疵缺陷,這些表面瑕疵不但影響鋁型材的美觀和價(jià)格,還可能留下安全隱患。因此,鋁型材在出廠(chǎng)之前,必須進(jìn)行鋁型材質(zhì)量檢測(cè)。傳統(tǒng)的鋁型材人工檢測(cè)不僅費(fèi)時(shí)費(fèi)力,而且效率低下,人眼容易產(chǎn)生疲勞,進(jìn)而產(chǎn)生誤判,影響產(chǎn)品質(zhì)量,企業(yè)急需智能化的缺陷目標(biāo)檢測(cè)技術(shù)。

近年來(lái),基于機(jī)器視覺(jué)[1]、人工智能[2]等的目標(biāo)檢測(cè)技術(shù)蓬勃發(fā)展廣泛應(yīng)用到各個(gè)領(lǐng)域。機(jī)器視覺(jué)檢測(cè)技術(shù)通過(guò)相機(jī)采集圖像,再通過(guò)圖像處理算法對(duì)采集圖像進(jìn)行預(yù)處理,之后通過(guò)輪廓提取與模板匹配達(dá)到目標(biāo)識(shí)別和定位缺陷的目的[3-5]。但是機(jī)器視覺(jué)技術(shù)輸入圖像尺寸較大時(shí),它們需要更多的運(yùn)行時(shí)間,對(duì)現(xiàn)場(chǎng)環(huán)境和工件形狀、背景顏色有較高要求,泛化能力較差。鋁型材表面缺陷無(wú)論是種類(lèi)、面積還是形狀都很復(fù)雜,如圖1所示,傳統(tǒng)機(jī)器視覺(jué)圖像處理技術(shù)難以滿(mǎn)足檢測(cè)要求。

2012年,Krizhevsky等[6]提出一種叫AlexNet的深度卷積神經(jīng)網(wǎng)絡(luò),大獲成功。隨后深度學(xué)習(xí)快速發(fā)展,特別是涌現(xiàn)出眾多基于深度學(xué)習(xí)的優(yōu)秀目標(biāo)檢測(cè)識(shí)別技術(shù)[7],如 R-CNN[8]、Fast R-CNN[9]、Faster R-CNN[10]、Cas- cade R-CNN[11]相繼提出?;谏疃葘W(xué)習(xí)的目標(biāo)檢測(cè)技術(shù)直接從數(shù)據(jù)中學(xué)習(xí)物體特征,較少受到環(huán)境因素的影響,因此,在泛型目標(biāo)檢測(cè)領(lǐng)域取得了顯著突破。

隨著《德國(guó)工業(yè)4.0》《中國(guó)制造2025》[12]等戰(zhàn)略的出臺(tái),在人力成本急劇上漲的背景下,傳統(tǒng)企業(yè)急需轉(zhuǎn)型升級(jí),傳統(tǒng)制造業(yè)正逐步進(jìn)入智能制造時(shí)代。本文結(jié)合前沿的目標(biāo)檢測(cè)技術(shù),針對(duì)鋁型材缺陷目標(biāo)檢測(cè)的行業(yè)痛點(diǎn),在 Faster R-CNN網(wǎng)絡(luò)的基礎(chǔ)上,設(shè)計(jì)了一種改進(jìn)的級(jí)聯(lián) Faster R-CNN算法。該算法,采用多階段訓(xùn)練方法充分學(xué)習(xí)無(wú)缺陷樣本特征,使用 FPN 網(wǎng)絡(luò)提取多尺度特征,主干網(wǎng)絡(luò)使用 ResNeXt152代替Faster R-CNN中的 VGG16進(jìn)行特征提取,同時(shí)將特征提取分為級(jí)聯(lián)的3個(gè)階段,以解決 IOU的閾值太高容易造成檢測(cè)性能下降的問(wèn)題。

1 目標(biāo)檢測(cè)現(xiàn)狀

目標(biāo)檢測(cè)是一個(gè)復(fù)雜的問(wèn)題,需要解決兩個(gè)主要任務(wù)。一個(gè)是識(shí)別任務(wù),識(shí)別檢測(cè)目標(biāo)與背景的區(qū)別,并且能給識(shí)別的檢測(cè)目標(biāo)所屬類(lèi)別。另一個(gè)是定位任務(wù),必須給不同的識(shí)別檢測(cè)目標(biāo)分配精確的邊界框。目標(biāo)檢測(cè)現(xiàn)狀以2012年Krizhevsky等[6]提出的AlexNet為界限,之前的傳統(tǒng)目標(biāo)檢測(cè)方法以圖像處理和視覺(jué)為主,之后的目標(biāo)檢測(cè)以深度學(xué)習(xí)為主。目標(biāo)檢測(cè)發(fā)展歷程如圖2所示。

1.1 傳統(tǒng)目標(biāo)檢測(cè)算法

2012年之前,目標(biāo)檢測(cè)的主要有Haar、 SFIT、HOG 、SURF 、SPM 、LBP 、SVM 等[13-14]圖像處理和計(jì)算機(jī)視覺(jué)的檢測(cè)算法,算法流程如圖3所示。

傳統(tǒng)目標(biāo)檢測(cè)算法采用不同的滑動(dòng)窗口在圖像的不同位置選取候選區(qū)域,然后進(jìn)行特征提取,提取的特征主要圍繞底層特征和中層次特征來(lái)展開(kāi),像顏色、紋理等,最后把這些特征送到分類(lèi)器進(jìn)行分類(lèi)和識(shí)別。

1.2 深度學(xué)習(xí)目標(biāo)檢測(cè)算法

2012年提出基于深度卷積神經(jīng)網(wǎng)絡(luò)的AlexNet算法之后,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法蓬勃發(fā)展,逐漸取代傳統(tǒng)的目標(biāo)檢測(cè)算法。其中基于候選區(qū)域的目標(biāo)檢測(cè) R-CNN 、Fast R-CNN 、Faster R-CNN 應(yīng)用最為廣泛。R-CNN 算法首先利用選擇性搜索創(chuàng)建約2000個(gè)候選區(qū)域,然后候選區(qū)域轉(zhuǎn)換為固定大小送到卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取,之后使用 SVM 分類(lèi)器進(jìn)行分類(lèi),使用線(xiàn)性回歸來(lái)校正邊界框,達(dá)到目標(biāo)分類(lèi)并獲得邊界框。Fast R-CNN 直接對(duì)整個(gè)圖像進(jìn)行卷積,避免了 R-CNN 對(duì)約2000個(gè)候選區(qū)域進(jìn)行卷積和重復(fù)提取特征,因此,訓(xùn)練速度得以提升。Faster R-CNN 與 Fast R-CNN 相似,不同點(diǎn)是 Faster R-CNN 用區(qū)域生成網(wǎng)( RPN )代替候選區(qū)域法。Faster R-CNN 基本網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示,首先通過(guò)卷積神經(jīng)網(wǎng)絡(luò)提取特征,然后通過(guò) RPN 產(chǎn)生預(yù)測(cè)框,最后在融合特征圖上實(shí)現(xiàn)分類(lèi)和回歸。

2 鋁型材算法設(shè)計(jì)與改進(jìn)

2.1 算法流程

針對(duì)鋁型材表面缺陷的特點(diǎn),本文在 Faster R-CNN 網(wǎng)絡(luò)基礎(chǔ)做了3個(gè)方面的改進(jìn),如圖5所示。首先,主干網(wǎng)絡(luò)選擇了 ResNeXt152,ResNeXt網(wǎng)絡(luò)是ResNet的升級(jí)版,升級(jí)內(nèi)容為引入 Inception 的多支路的思想;與ResNet相比,相同的參數(shù)個(gè)數(shù),結(jié)果更好。其次,針對(duì)鋁型材缺陷框存在尺度變化大的問(wèn)題,在模型中引入了 FPN (特征金字塔網(wǎng)絡(luò)),即使缺陷很小,也能充分地學(xué)習(xí)到特征,提高了網(wǎng)絡(luò)地檢測(cè)精度。最后,在 two-stage 的基礎(chǔ)上還用到了一種 Cascade-rcnn級(jí)聯(lián)檢測(cè)器方法,該方法可以有效地提高鋁型材的檢測(cè)準(zhǔn)確率。

2.2 加入 Multi-stage多階段訓(xùn)練方法

第一個(gè)改進(jìn)點(diǎn)是用到 Multi-stage多階段的模型訓(xùn)練方法。第一階段,本文用有缺陷的樣本數(shù)據(jù)集來(lái)訓(xùn)練的識(shí)別模型,可以識(shí)別10類(lèi)有缺陷樣本;第二階段,通過(guò)訓(xùn)練的模型測(cè)試無(wú)缺陷的樣本數(shù)據(jù)集,經(jīng)實(shí)驗(yàn)發(fā)現(xiàn),無(wú)缺陷數(shù)據(jù)集也會(huì)產(chǎn)生有缺陷的結(jié)果,生成假陽(yáng)性數(shù)據(jù)集;第三階段,通過(guò)假陽(yáng)性數(shù)據(jù)集和有缺陷數(shù)據(jù)集一起再次訓(xùn)練識(shí)別模型,可以識(shí)別11類(lèi),其中10類(lèi)缺陷樣本和1類(lèi)無(wú)缺陷樣本。

改進(jìn) Multi-stage多階段的模型的原因是因?yàn)榈谝浑A段模型學(xué)習(xí)到的特征是比較淺的,其訓(xùn)練并不充分,所以需要把這個(gè)模型訓(xùn)練結(jié)果拿來(lái)檢測(cè)無(wú)缺陷樣本數(shù)據(jù)集,對(duì)無(wú)瑕疵樣本進(jìn)行檢測(cè),發(fā)現(xiàn)出現(xiàn)了大量的誤檢,大概生成了4000多的誤檢,因此本文認(rèn)為這部分誤檢的結(jié)果是一個(gè)很好的對(duì)抗樣本,可以把這個(gè)假陽(yáng)性樣本加入到模型的訓(xùn)練集,直接讓模型去學(xué)習(xí)沒(méi)有缺陷的圖像特征和已知的10類(lèi)缺陷之間的生產(chǎn)的一個(gè)關(guān)系,讓這個(gè)模型學(xué)到更好的特征。經(jīng)過(guò)實(shí)驗(yàn)測(cè)試可以得出,只用有缺陷的樣本來(lái)訓(xùn)練的話(huà),mAP只有77.8%,如果用 Multi-stage 多階段的mAP是80.8%,故本文增加了 Multi-stage多階段的訓(xùn)練方法。

2.3 改進(jìn) Faster R-CNN檢測(cè)模型

第二個(gè)改進(jìn)點(diǎn)是用到了 Cascade Faster R-CNN 的結(jié)構(gòu)。本文所用鋁型材的缺陷有個(gè)特點(diǎn),其缺陷沒(méi)有一個(gè)明顯的區(qū)域,如圖7(a)所示。圖8(a)是傳統(tǒng)的 Fast- er R-CNN 兩級(jí)的檢測(cè)結(jié)構(gòu),就是說(shuō)先通過(guò)一階檢測(cè)器 RPN 網(wǎng)絡(luò)生產(chǎn)預(yù)測(cè)框,然后再通過(guò)二階檢測(cè)器對(duì)邊界框進(jìn)行回歸和分類(lèi)。該模型難以預(yù)測(cè)一個(gè)比較準(zhǔn)確的邊界框的位置,包括人也很難給出比較準(zhǔn)確的邊界框的位置,所以增加了本文識(shí)別的難度,其實(shí)本文想要的效果如圖7(b)所示,模型能給出精確的邊界框的位置。

基于這個(gè)問(wèn)題,本文從網(wǎng)絡(luò)結(jié)構(gòu)出發(fā),研究邊界框回歸如何能回歸出比較好的位置。在模型訓(xùn)練的時(shí)候,其 IOU的閾值是比較重要的,通常情況下,IOU的閥值會(huì)選擇 u=0.5左右,如果 IOU的閥值選擇小的話(huà)會(huì)有非常多的噪聲,如果選擇大的話(huà)檢測(cè)性能又會(huì)下降,但是使用 u=0.5回歸的邊界框質(zhì)量差,不適合精確定位。如果想要精確的邊界框,則需要用 IOU的高閥值來(lái)訓(xùn)練檢測(cè)器,所以本文設(shè)計(jì)了 Cascade Faster R-CNN 結(jié)構(gòu),其框架結(jié)構(gòu)如圖8(b)所示。

本文在傳統(tǒng)的基礎(chǔ)上增加了 H2、H3的檢測(cè)器,H1的檢測(cè)器閥值還是 u=0.5, H2的檢測(cè)器閥值 u=0.6, H3的檢測(cè)器閥值 u=0.7, H2的輸入是 H1的邊界框回歸輸出,H2的 IOU會(huì)在0.5的基礎(chǔ)上有所提高,同理,H3的輸入是 H2的邊界框輸出,通過(guò)這種形式,不僅讓檢測(cè)結(jié)構(gòu)有了 H1常規(guī)的邊界框輸出,還有更好閥值的檢測(cè)器的輸出,得出最終的結(jié)果,如圖7(b)所示。

圖8(b)結(jié)構(gòu)依賴(lài)于一系列特殊的回歸因子,如式(1) 所示:

式中: T 為級(jí)聯(lián)級(jí)數(shù)的總數(shù)。

需要注意的是級(jí)聯(lián)中的每個(gè)回歸因子fT相對(duì)于達(dá)到了相應(yīng)階段的樣本分布{bt}而不是初始分布{b1}進(jìn)行了優(yōu)化,這種級(jí)聯(lián)方式使得模型逐級(jí)得到改善。級(jí)聯(lián)回歸從一組示例(xi , bi)開(kāi)始,依此對(duì)較高 IOU的示例分布(x′i , b′i)進(jìn)行重采樣。這樣,即使 IOU閥值增加的情況下,也可以使每個(gè)階段的正樣本子集保持恒定的數(shù)量。

在每個(gè) t 階段,F(xiàn)aster R-CNN包括一個(gè)分類(lèi)器ht和一個(gè)為ut優(yōu)化了的回歸器ft ,其中ut>ut-1。這些是通過(guò)下式來(lái)保證最小化損失的:

式中:bt =ft -1(xt -1, bt -1);對(duì)于xt、g 為基準(zhǔn)對(duì)象;λ=1為權(quán)衡系數(shù);yt是xt的標(biāo)簽,這保證了一系列有效檢測(cè)器質(zhì)量地不斷提高。

2.4 改進(jìn)基于 FPN的區(qū)域推薦網(wǎng)絡(luò)

針對(duì)鋁型材表面缺陷小、長(zhǎng)寬比大的特點(diǎn),為了更好地提取并保留特征,本文設(shè)計(jì)了一種基于 FPN 的多尺度融合特征推薦網(wǎng)絡(luò),能更好地對(duì)鋁型材缺陷特點(diǎn)進(jìn)行檢測(cè)。

如圖9所示,經(jīng)過(guò)特征提取得到特征圖 C1、C2、C3,然后與 P1、P2、P3融合,再經(jīng)過(guò)3×3卷積核消除采用過(guò)程中地混疊效應(yīng),隨后再 RPN 地作用下完成目標(biāo)缺陷分類(lèi)與回歸。改進(jìn)后的算法能有效提高對(duì)鋁型材小目標(biāo)和極度長(zhǎng)寬比的提取能力,準(zhǔn)確率明顯提高。

3 實(shí)驗(yàn)過(guò)程

3.1 鋁型材數(shù)據(jù)集

鋁型材是佛山南海的支柱性產(chǎn)業(yè),在鋁型材的實(shí)際生產(chǎn)過(guò)程中,由于各方面因素的影響,鋁型材表面會(huì)產(chǎn)生裂紋、起皮、劃傷等瑕疵,這些瑕疵會(huì)嚴(yán)重影響鋁型材的質(zhì)量。該瑕疵數(shù)據(jù)集是來(lái)自于某企業(yè)某一生產(chǎn)線(xiàn)在某一段時(shí)間段實(shí)際生產(chǎn)中有瑕疵的鋁型材監(jiān)測(cè)影像數(shù)據(jù),每個(gè)影像中包含一個(gè)或多種瑕疵。

鋁材表面瑕疵圖片的分辨率為2560×1920,瑕疵的種類(lèi)主要有不導(dǎo)電、擦花、角位漏底、桔皮、漏底、噴流、漆泡、起坑、雜色和臟點(diǎn)10類(lèi)。圖10所示為不同類(lèi)型的鋁型材表面瑕疵。

3.2 數(shù)據(jù)集統(tǒng)計(jì)分析

本數(shù)據(jù)集共有圖像4536張的訓(xùn)練數(shù)據(jù),包括無(wú)缺陷圖片1351張,單瑕疵圖片2776張,多瑕疵圖片229張,如圖11所示,該數(shù)據(jù)集樣本量比較少,同時(shí)不同類(lèi)缺陷之間存在比較大的樣本不均衡。圖2統(tǒng)計(jì)了單瑕疵圖片和多瑕疵圖片中各種類(lèi)型的鋁材表面瑕疵包含的圖片數(shù)量。從統(tǒng)計(jì)圖中可以看出每種瑕疵類(lèi)別所擁有的樣本數(shù)量極其不均勻,有些類(lèi)別的樣本數(shù)量特別少,如噴流類(lèi)、漆泡類(lèi),而漏底類(lèi)瑕疵樣本遠(yuǎn)高于其他類(lèi)型的瑕疵樣本數(shù)量。

針對(duì)鋁型材原始圖像數(shù)量少的問(wèn)題,本文在原始圖像的基礎(chǔ)上通過(guò)圖像的水平和豎直翻轉(zhuǎn)等操作增加了數(shù)據(jù)集,增加后的數(shù)據(jù)集有13608張。同時(shí)對(duì)數(shù)據(jù)集進(jìn)行隨機(jī)分割,選取80%約10886張圖像作為訓(xùn)練集,剩余的20%的約2722張圖像作為測(cè)試集。

3.3 對(duì)比實(shí)驗(yàn)

本文為了選出最優(yōu)的鋁型材表面瑕疵識(shí)別與定位方法首先使用了 Faster RCNN模型,然后分別使用了 FPN、FPN+Cascade-RCNN、FPN+Cascade-RCNN +Multi-stage 三個(gè)網(wǎng)絡(luò)模型作為對(duì)比實(shí)驗(yàn),主干網(wǎng)絡(luò)模型分別使用了 ResNeXt101和 ResNeXt152。ResNeXt網(wǎng)絡(luò)是ResNet的升級(jí)版,升級(jí)內(nèi)容為引入 Inception 的多支路的思想;與ResNet相比,相同的參數(shù)個(gè)數(shù),結(jié)果更好。

3.4 實(shí)驗(yàn)平臺(tái)

本文實(shí)驗(yàn)所用的計(jì)算機(jī)配置: CPU為I5-9400F ,內(nèi)存為16 G ,顯卡為 RTX 20606 G ,圖像處理使用的是 OpenCV ,深度學(xué)習(xí)算法框架選用的是 TensorFlow2.0。

4 實(shí)驗(yàn)結(jié)果與數(shù)據(jù)分析

本文訓(xùn)練使用的 ResNeXt101為101層,ResNeXt105為105層; FPN 輸入的通道數(shù)為[256, 512, 1024, 2048];級(jí)聯(lián)檢測(cè)器 H1的 IOU閥值為0.5,H2的 IOU閥值為0.6, H3的 IOU 閥值為0.7;每種額昂了模型迭代總次數(shù)為300000次,共進(jìn)行了20次訓(xùn)練,訓(xùn)練結(jié)果如表1所示。表中結(jié)果展示了本文所用的幾種模型在鋁型材數(shù)據(jù)集上的測(cè)試結(jié)果。從表1中數(shù)據(jù)可以看出,F(xiàn)aster R-CNN模型準(zhǔn)確率只有62.7%,其他3種網(wǎng)絡(luò)模型都使用了 ResNeXt101和 ResNeXt105網(wǎng)絡(luò),但是 ResNeXt105網(wǎng)絡(luò)比 ResNeXt101網(wǎng)絡(luò)模型的準(zhǔn)確率高。ResNeXt105網(wǎng)絡(luò)優(yōu)于 ResNeXt101網(wǎng)絡(luò),主要是因?yàn)?ResNeXt105比 ResNeXt101擁有更多的參數(shù),精度更高,所以結(jié)果會(huì)更好。同時(shí),本文改進(jìn)后的 FPN + Cascade-RCNN + Multi-stage 網(wǎng)絡(luò)模型檢測(cè)精度為81.40%,相比于 FasterR-CNN 、FPN 和FPN+Cascade-RCNN網(wǎng)絡(luò)模型有所提高,說(shuō)明改進(jìn)的FPN+Cascade-RCNN+Multi-stage網(wǎng)絡(luò)模型具有良好的有效性和魯棒性,綜合表現(xiàn)優(yōu)于其他網(wǎng)絡(luò)。

圖12所示為改進(jìn)后的 FPN + Cascade-RCNN + Multi-stage網(wǎng)絡(luò)模型對(duì)鋁型材表面缺陷的檢測(cè)結(jié)果,圖 12(a)為單目標(biāo)缺陷檢測(cè)結(jié)果,圖 12(b)為多目標(biāo)缺陷檢測(cè)結(jié)果。檢測(cè)結(jié)果的顯示信息主要包括:(1) 缺陷的具體位置,用綠色標(biāo)出;(2)缺陷的種類(lèi)和置信度,用紅色字母和數(shù)字標(biāo)出。從圖中可以看出,本文改進(jìn)后的網(wǎng)絡(luò)模型可以有效地提取鋁型材的缺陷特征,并識(shí)別出具體缺陷類(lèi)別,找出具體缺陷位置。

5 結(jié)束語(yǔ)

本文在傳統(tǒng)的目標(biāo)檢測(cè)框架 Faster R-CNN 的基礎(chǔ)上,提出一種改進(jìn)的CascadeFaster R-CNN來(lái)實(shí)現(xiàn)對(duì)鋁型材目標(biāo)檢測(cè)的識(shí)別與定位。經(jīng)過(guò)實(shí)驗(yàn)驗(yàn)證可以得出,該算法主要有以下優(yōu)點(diǎn):(1) 迭代訓(xùn)練充分利用無(wú)缺陷樣本,增強(qiáng)模型的泛化能力; (2)相比于 ResNeXt101和ResNet,ResNeXt152具有強(qiáng)大的特征提取能力;(3)基于 FPN 的多尺度特征網(wǎng)絡(luò)進(jìn)一步提升準(zhǔn)確率;(4)級(jí)聯(lián)CascadeFaster R-CNN網(wǎng)絡(luò)逐階訓(xùn)練,可以更好地抑制假陽(yáng)性,減少過(guò)擬合問(wèn)題。本文提出地改進(jìn)的CascadeFast- er R-CNN相較于傳統(tǒng)網(wǎng)絡(luò)模型具有較高的正確率,為類(lèi)似小目標(biāo)缺陷檢測(cè)領(lǐng)域提供了技術(shù)參考。

參考文獻(xiàn):

[1] Baltru?aitis T, Ahuja C, Morency L P. Multimodal machine learn- ing: Asurveyandtaxonomy[J]. IEEEtransactionsonpattern analysis and machine intelligence, 2018, 41(2):423-443.

[2] Zou Z ,Shi Z ,Guo Y , et al. Object Detection in 20 Years: A Survey[J].2019.

[3] W Wang,SChen,LChen,etal,A Machine Vision Based Automat- ic Optical Inspection System for Measuring Drilling Quality of Printed Circuit Boards [J].IEEE Access,2017(5):10817-10833.

[4] N Chen,JSun,XWang,etal.Research on surface defect detection and grinding path planning of steel plate based on machine vision [C]//14th IEEE Conference on Industrial Electronics and Appli- cations (ICIEA), 2019.

[5]王海云,王劍平, 羅付華.融合多層次特征 Faster R-CNN的金屬板帶材表面缺陷檢測(cè)研究[J].機(jī)械科學(xué)與技術(shù),2021,40(2):262-269.

[6] KrizhevskyA ,Sutskever I , Hinton G . ImageNet Classification with Deep Convolutional Neural Networks[C]//NIPS. Curran As- sociates Inc.2012.

[7] Liu L,OuyangW,WangX,etal.Deep learning for generic object detection:A survey[J]. International journal of computer vision, 2020, 128(2):261-318.

[8] GirshickR , Donahue J , Darrell T , et al. Rich Feature Hierar- chies for Accurate Object Detection and Semantic Segmentation [J].2013.

[9] GirshickR . Fast R-CNN[J]. ICCV, 2015.

[10] Ren S , He K , Girshick R , et al. Faster R-CNN: Towards Re- al-TimeObject Detection with Region Proposal Networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelli- gence, 2017, 39(6):1137-1149.

[11] Cai Z, Vasconcelos N. Cascade r-cnn: Delving into high quality objectdetection[C]//ProceedingsoftheIEEEconferenceon computer vision and pattern recognition.2018.

[12] Feng W . Industry 4.0: Advances of Germany's manufacturing innovation *(Extended abstract: Presentation-only)[C]//201713th IEEE Conference on Automation Science and Engineering (CASE 2017). IEEE, 2017.

[13] DaniilidisK , Maragos P , Paragios N . Improving the FisherKernel for Large-Scale Image Classification[J]. Eccv, 2010.

[14] Wang X , Han T X , Yan S . An HOG-LBP human detector with partial occlusion handling[C]// IEEE International Confer- ence on Computer Vision. IEEE, 2009.

第一作者簡(jiǎn)介:崔亞飛(1992-),男,碩士,講師,研究領(lǐng)域?yàn)闄C(jī)器視覺(jué)、機(jī)器學(xué)習(xí)、工業(yè)機(jī)器人等,已發(fā)表論文10篇。

(編輯:刁少華)

猜你喜歡
鋁型材
一種擠壓鋁型材自動(dòng)牽引中斷設(shè)備的設(shè)計(jì)及應(yīng)用
鋁型材拉彎成型過(guò)程中常見(jiàn)問(wèn)題及處理
熱處理狀態(tài)和工藝順序?qū)︿X型材彎曲回彈的影響
福贡县| 潮安县| 青龙| 藁城市| 潼关县| 西宁市| 泗洪县| 安多县| 南京市| 开阳县| 运城市| 民县| 合山市| 酒泉市| 怀化市| 雅安市| 开江县| 河源市| 城口县| 萨迦县| 五华县| 汨罗市| 万州区| 利辛县| 建宁县| 拜城县| 祁连县| 利川市| 泉州市| 临潭县| 常宁市| 徐水县| 玉林市| 广平县| 眉山市| 台北市| 罗源县| 永州市| 汕尾市| 桑植县| 铅山县|