唐東林,周立,吳續(xù)龍,宋一言,秦北軒
(西南石油大學(xué) 機(jī)電工程學(xué)院,成都 610065)
我國(guó)工業(yè)快速發(fā)展,對(duì)產(chǎn)品的質(zhì)量要求也越來(lái)越高,而金屬缺陷對(duì)石油石化行業(yè)的輸油管道和石油儲(chǔ)罐等有很大影響,因此,金屬缺陷檢測(cè)近年來(lái)受到越來(lái)越多的關(guān)注[1]。依靠人工方式對(duì)缺陷檢測(cè)信號(hào)進(jìn)行判斷不僅工作量大,且分類(lèi)效果受主觀因素影響。因此通過(guò)模式識(shí)別對(duì)缺陷檢測(cè)信號(hào)進(jìn)行識(shí)別分類(lèi)具有重要意義[2]。模式識(shí)別方法就是用計(jì)算的方法根據(jù)已知樣本的特征將未知樣本進(jìn)行識(shí)別分類(lèi),模式識(shí)別已廣泛應(yīng)用于缺陷識(shí)別領(lǐng)域。
目前模式識(shí)別方法主要分為機(jī)器學(xué)習(xí)方法和深度學(xué)習(xí)方法。機(jī)器學(xué)習(xí)中有支持向量機(jī)SVM(Support vector machine)、人工神經(jīng)網(wǎng)絡(luò)ANN(Artificial neural network)、無(wú)監(jiān)督學(xué)習(xí)K-means聚類(lèi)等,這些方法有著一些局限。例如,文獻(xiàn)[3]采用小波平滑方法去除圖像中的噪聲,然后根據(jù)二值化圖像的光譜測(cè)度提取出5個(gè)特征并輸入SVM,其需要專(zhuān)門(mén)領(lǐng)域知識(shí)來(lái)設(shè)計(jì)缺陷特征并提取,繁瑣費(fèi)力且受人為因素影響[4-6];文獻(xiàn)[7]利用logistic回歸(LM)模型和ANN研究聲發(fā)射檢測(cè)識(shí)別金屬缺陷和文獻(xiàn)[8]利用人工神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)管道破裂壓力,這兩種方式存在過(guò)擬合、迭代慢、所需訓(xùn)練樣本大等問(wèn)題;文獻(xiàn)[9-10]利用無(wú)監(jiān)督模式識(shí)別分析結(jié)合主成分分析(PCA)對(duì)缺陷進(jìn)行實(shí)時(shí)檢測(cè)和分類(lèi),但無(wú)監(jiān)督模式識(shí)別K-means需要提前設(shè)定K值和選定初始聚類(lèi)中心,而K值和初始聚類(lèi)中心很難確定。
近些年隨著深度學(xué)習(xí)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(Convolution neural network,CNN)在缺陷識(shí)別領(lǐng)域中成功應(yīng)用,文獻(xiàn)[11]提出了一種基于視覺(jué)長(zhǎng)-短期記憶的集成CNN模型用于織物疵點(diǎn)分類(lèi),精度有所提高,但網(wǎng)絡(luò)結(jié)構(gòu)較復(fù)雜,迭代速度慢;文獻(xiàn)[12-14]利用R-CNN及其變體對(duì)缺陷、焊點(diǎn)等進(jìn)行分類(lèi)定位,然而存在卷積操作低效,需要較大樣本量和訓(xùn)練時(shí)間較長(zhǎng)的問(wèn)題。最近,深度學(xué)習(xí)結(jié)合機(jī)器學(xué)習(xí)被廣泛關(guān)注,利用CNN模型在提取特征上的巨大優(yōu)勢(shì),將其代替機(jī)器學(xué)習(xí)的人工提取特征,用機(jī)器學(xué)習(xí)對(duì)CNN提取的特征進(jìn)行識(shí)別分類(lèi),能有效彌補(bǔ)CNN模型分類(lèi)參數(shù)多、結(jié)構(gòu)復(fù)雜、反向傳播效率低的問(wèn)題。文獻(xiàn)[15]將灰度共生矩陣和Gabor提取的強(qiáng)特征與CNN隱藏層的抽象特征進(jìn)行融合,并將融合后的特征輸入SVM進(jìn)行分類(lèi)。文獻(xiàn)[16]利用統(tǒng)計(jì)特征作為卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練數(shù)據(jù)集,CNNSVM算法獲得了準(zhǔn)確的肌肉疲勞分類(lèi)。文獻(xiàn)[17-19]人工提取特征輸入到CNN中然后用機(jī)器學(xué)習(xí)取代cnn的softmax層,其對(duì)于分類(lèi)準(zhǔn)確率有一定提升。由于CNN模型多用于圖像數(shù)據(jù),因此以上研究只針對(duì)圖像缺陷數(shù)據(jù),對(duì)于非圖像缺陷數(shù)據(jù)并未涉及。
在此基礎(chǔ)上,提出一種適用于中小規(guī)模數(shù)據(jù)的淺層卷積神經(jīng)網(wǎng)絡(luò)提取特征,決策樹(shù)(Decision tree,DT)分類(lèi)的算法模型,并引入主成分分析(Principal component analysis,PCA)降維。在中小規(guī)模數(shù)據(jù)中,本文模型相對(duì)于傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí),能更快速更準(zhǔn)確地實(shí)現(xiàn)金屬缺陷識(shí)別分類(lèi),且在非圖像缺陷數(shù)據(jù)上也表現(xiàn)優(yōu)異。
本文模型如圖1所示,具體分類(lèi)步驟如下:
圖1 CNN-PCA-DT結(jié)構(gòu)圖
1)將200*200的圖像數(shù)據(jù)輸入由卷積神經(jīng)網(wǎng)絡(luò)組成的特征提取模塊提取特征;
2)為了減少冗余特征、過(guò)擬合和節(jié)約計(jì)算開(kāi)銷(xiāo),將特征提取模塊中提取的高維特征通過(guò)分類(lèi)模塊中的PCA進(jìn)行降維處理,降維后將特征輸入DT;
3)分類(lèi)模塊中分類(lèi)模型采用C4.5算法建立DT模型,通過(guò)訓(xùn)練集訓(xùn)練DT模型,訓(xùn)練完成后,將測(cè)試集送入模型,通過(guò)特征提取模塊提取特征,并用PCA降維,最后將特征送入訓(xùn)練好后的DT模型中得到結(jié)果。
由于深度學(xué)習(xí)結(jié)構(gòu)復(fù)雜、訓(xùn)練參數(shù)多,針對(duì)中小規(guī)模數(shù)據(jù)容易過(guò)擬合,因此特征提取模塊主要由淺層的卷積神經(jīng)網(wǎng)絡(luò)組成,其由1個(gè)數(shù)據(jù)輸入層、2個(gè)卷積層、2個(gè)池化層組成。其中數(shù)據(jù)輸入層對(duì)輸入的數(shù)據(jù)進(jìn)行歸一化和去均值等預(yù)處理,將預(yù)處理后的數(shù)據(jù)輸入卷積層,卷積層由多個(gè)卷積核組成,卷積核一般有1×1、3×3和5×5等大小組成。C1層采用16個(gè)3×3大小的卷積核,步長(zhǎng)為1,邊緣填充1個(gè)單位來(lái)進(jìn)行窗口滑動(dòng)對(duì)數(shù)據(jù)做卷積運(yùn)算進(jìn)行特征提取,將得到的特征輸入池化層S2。
池化層有2×2、3×3等濾波器,主要用于數(shù)據(jù)壓縮,進(jìn)行特征降維消除冗余信息,減少過(guò)擬合。S2層采用最大池化,池化塊為2×2,采樣步長(zhǎng)為2,將數(shù)據(jù)壓縮4倍,并輸入卷積層C3。
C3層由32個(gè)3×3的卷積核構(gòu)成,采用同C1層同樣的操作進(jìn)行特征提取,提取后輸入池化層S4層,S4層采用同S2層同樣的操作進(jìn)行數(shù)據(jù)壓縮,壓縮后將其輸入分類(lèi)模塊中。
分類(lèi)模塊主要由DT和PCA組成。DT是一種樹(shù)形結(jié)構(gòu)的歸納學(xué)習(xí)分類(lèi)器,在給定的無(wú)序訓(xùn)練數(shù)據(jù)中,創(chuàng)建出分類(lèi)模型。同CNN的黑盒模型不同,DT是一個(gè)白盒模型,可解釋性好且不需要對(duì)數(shù)據(jù)進(jìn)行特別預(yù)處理,能在較短時(shí)間內(nèi)對(duì)數(shù)據(jù)進(jìn)行識(shí)別分類(lèi)。
決策樹(shù)算法有ID3,ID4,C4.5,C5.0,CART等,本文選擇C4.5算法,該算法采用信息增益率作為不純度指標(biāo),信息增益率使用的是信息論中的熵來(lái)度量,熵對(duì)于集合D定義為
式中:|y|為樣本種類(lèi);k為每一類(lèi);pk為每類(lèi)對(duì)應(yīng)的概率。
為引出信息增益率首先介紹信息增益(也稱(chēng)不純度減少量),信息增益用特征將個(gè)樣本進(jìn)行劃分,信息增益Gain(D,α)定義為
式中:α為樣本集D中的離散特征;v為α的個(gè)數(shù);Dv為第v個(gè)分支所包含的樣本。
在信息增益的基礎(chǔ)上,信息增益率Gain_ratio(D,α)定義為:
其中:IV(α)是特征α 的熵。
決策樹(shù)在構(gòu)造中,如果樹(shù)枝多且深,可能會(huì)因?yàn)樵肼暫团既恍圆蓸訉?dǎo)致過(guò)擬合,為了防止決策樹(shù)過(guò)擬合,有預(yù)剪枝、后剪枝、節(jié)點(diǎn)樣本數(shù)門(mén)限等,本文采用了預(yù)剪枝來(lái)減小過(guò)擬合,預(yù)剪枝使部分無(wú)需展開(kāi)的分支不展開(kāi),這不僅降低了過(guò)擬合的風(fēng)險(xiǎn),還顯著減少了決策樹(shù)的訓(xùn)練時(shí)間開(kāi)銷(xiāo)和測(cè)試時(shí)間開(kāi)銷(xiāo)。
由于CNN提取的特征具有冗余性,為了減少過(guò)擬合和提升分類(lèi)效率需要對(duì)特征用PCA降維。PCA是從一組特征中提取一組新特征,通過(guò)解協(xié)方差矩陣的特征值來(lái)求解主成分,其中特征值越大,對(duì)應(yīng)特征向量越重要,按重要性從大到小排列,新特征之間互不相關(guān),根據(jù)事先確定新特征代表數(shù)據(jù)總方差比例,來(lái)決定選取主成分個(gè)數(shù)。
為了驗(yàn)證模型的性能,采用了NEU-DET數(shù)據(jù)集,并引入超聲A掃描缺陷信號(hào)數(shù)據(jù)集ULTADET驗(yàn)證模型在非圖像數(shù)據(jù)上的性能。
1)圖像缺陷數(shù)據(jù)集NEU-DET
該數(shù)據(jù)集是開(kāi)放的缺陷檢測(cè)數(shù)據(jù)集[20],收集了熱軋鋼帶的6種典型表面缺陷,即軋制氧化皮,斑塊,開(kāi)裂,點(diǎn)蝕表面,內(nèi)含物和劃痕。該庫(kù)每類(lèi)缺陷含300個(gè)樣本,每個(gè)樣本為200×200分辨率的灰度圖像,如圖2所示。
2)非圖像缺陷數(shù)據(jù)集ULTA-DET
為模擬實(shí)際金屬缺陷的不同深度和形狀,在厚度為11 mm的Q235為樣板上加工了2 mm、5 mm、8 mm這3種深度每種共80個(gè),每種深度都有矩形、圓形、橢圓和不規(guī)則形狀如圖3a)所示,實(shí)驗(yàn)以缺陷深度為分類(lèi)標(biāo)準(zhǔn),共240個(gè)數(shù)據(jù)。該實(shí)驗(yàn)采用頻率2.5 MHz、底部直徑20 mm的超聲探頭,并通過(guò)數(shù)字式超聲探傷儀、示波器來(lái)獲取超聲缺陷信號(hào),其實(shí)物連接如圖3b)所示,檢測(cè)原理如圖4所示,當(dāng)有缺陷時(shí)超聲回波將發(fā)生變化,探頭接受回波并傳回探傷儀中,最終示波器收集探傷儀的數(shù)據(jù),示波器獲取的每個(gè)缺陷信號(hào)為1×16384的數(shù)據(jù),以csv文件格式儲(chǔ)存。
圖3 實(shí)驗(yàn)樣本和設(shè)備
圖4 超聲檢測(cè)原理圖
因?yàn)閮蓚€(gè)數(shù)據(jù)集屬于中小規(guī)模,劃分測(cè)試集和驗(yàn)證集時(shí)會(huì)導(dǎo)致訓(xùn)練樣本減少,進(jìn)而分類(lèi)器性能會(huì)受到影響,為消除影響,采用十折交叉驗(yàn)證對(duì)數(shù)據(jù)集進(jìn)行劃分,即將全部數(shù)據(jù)隨機(jī)劃分為十個(gè)等份,每一份輪流作為測(cè)試集,其他九份作為訓(xùn)練集,當(dāng)每一份都作為測(cè)試集后共得到10個(gè)結(jié)果值,將10個(gè)結(jié)果值的平均值作為交叉驗(yàn)證的結(jié)果。因此,兩類(lèi)缺陷數(shù)據(jù)集按十折交叉驗(yàn)證取90%為訓(xùn)練集,10%為測(cè)試集。因?yàn)橛辛私徊骝?yàn)證所以不在劃分驗(yàn)證集,具體缺陷樣本分布如表1和表2所示。
表1 圖像缺陷數(shù)據(jù)集NEU-DET缺陷樣本分布
表2 非圖像缺陷數(shù)據(jù)集ULTA-DET缺陷樣本分布
本文實(shí)驗(yàn)平臺(tái)為Pycharm,深度學(xué)習(xí)開(kāi)源框架為Pytorch。
用CNN提取特征時(shí),根據(jù)ULTA-DET數(shù)據(jù)集和NEU-DET數(shù)據(jù)集數(shù)據(jù)規(guī)模大小選擇學(xué)習(xí)率和批訓(xùn)練塊,其他參數(shù)選擇通過(guò)一般性規(guī)律選擇,具體如表3所示。
表3 CNN參數(shù)
為了證明CNN提取特征在識(shí)別分類(lèi)上的性能,本文在人工提取特征和CNN提取特征兩種條件下進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)中人工提取特征方式需要進(jìn)行圖像去噪、圖像增強(qiáng)、特征選擇和特征提取。對(duì)于NEUDET數(shù)據(jù)集,用中值濾波去噪、直方圖均衡化進(jìn)行圖像增強(qiáng)、并進(jìn)行二值化、然后對(duì)樣本進(jìn)行了特征選擇和提取,具體特征如表4所示,每個(gè)樣本共11個(gè)缺陷特征。
表4 人工提取NEU-DET數(shù)據(jù)集的特征類(lèi)型
這里采用準(zhǔn)確率、6種缺陷的平均精準(zhǔn)率和平均召回率作為性能評(píng)價(jià)指標(biāo),兩種算法模型的分類(lèi)結(jié)果如表5所示,可以看出,在相同數(shù)據(jù)情況下,CNN-DT在準(zhǔn)確率、平均精準(zhǔn)率和平均召回率上分別高出1.56%、1.22%、1.7%。運(yùn)行時(shí)間上DT算法模型少用2459.4 s,這是因?yàn)榍捌谌斯みx擇并提取特征并未計(jì)入分類(lèi)時(shí)間中,而DT算法模型在這一部分所用時(shí)間是遠(yuǎn)超于3459.9 s的,所以總時(shí)間還是CNN + DT更少。因此CNN提取特征用于缺陷圖像分類(lèi)有更好的分類(lèi)結(jié)果。
表5 人工提取特征和CNN提取特征在NEU-DET上的測(cè)試結(jié)果
為證明本文模型性能,將本文模型和沒(méi)有采用PCA-DT的淺層結(jié)構(gòu)CNN模型進(jìn)行對(duì)比實(shí)驗(yàn)。CNN模型訓(xùn)練過(guò)程如圖5所示, CNN模型在迭代70次左右收斂,因?yàn)橹行∫?guī)模數(shù)據(jù)集數(shù)據(jù)過(guò)少且未做數(shù)據(jù)增強(qiáng),CNN模型由于過(guò)擬合導(dǎo)致測(cè)試集準(zhǔn)確率始終有一定的波動(dòng)。
圖5 CNN在NEU-DET上的學(xué)習(xí)曲線(xiàn)圖
對(duì)于CNN-PCA-DT模型,PCA需要確定主成分個(gè)數(shù),DT需要預(yù)剪枝,由于兩個(gè)數(shù)據(jù)集的樣本特征多但樣本量不多,因此選擇最大葉子節(jié)點(diǎn)數(shù)作為預(yù)剪枝參數(shù),取不同PCA個(gè)數(shù)和最大葉子節(jié)點(diǎn)數(shù)個(gè)數(shù)得出數(shù)據(jù)集的準(zhǔn)確率如圖6所示,圖中最高的是紅色長(zhǎng)方體94.76%,因此根據(jù)紅色長(zhǎng)方體主成分個(gè)數(shù)取400個(gè),最大葉子數(shù)取64。用這兩個(gè)參數(shù)進(jìn)行實(shí)驗(yàn),因?yàn)殡S機(jī)分批次,為提高分類(lèi)結(jié)果統(tǒng)計(jì)性,對(duì)每類(lèi)的訓(xùn)練和測(cè)試進(jìn)行10次,取10次的平均值為最終結(jié)果, 并將分類(lèi)時(shí)間作為效率評(píng)價(jià)指標(biāo)。
圖6 PCA和最大葉子節(jié)點(diǎn)數(shù)對(duì)分類(lèi)NEU-DET準(zhǔn)確率的影響
最終對(duì)比結(jié)果如表6所示,本文模型是在準(zhǔn)確率、精準(zhǔn)率和召回率上皆?xún)?yōu)于CNN模型,這是因?yàn)閿?shù)據(jù)量較少,CNN模型過(guò)擬合。且CNN用時(shí)約為本文模型的13.86倍,從信號(hào)處理的角度看,CNN的反向傳播進(jìn)行參數(shù)優(yōu)化是低效的,這驗(yàn)證了本文模型的時(shí)間復(fù)雜度好,有利于實(shí)時(shí)在線(xiàn)分類(lèi),對(duì)于中小規(guī)模數(shù)據(jù),本文模型能充分發(fā)揮其性能。
表6 有無(wú)PCA-DT在NEU-DET上的測(cè)試結(jié)果
將本文模型與主流分類(lèi)模型進(jìn)行對(duì)比,并加入是否需要人工提取特征這一指標(biāo),以驗(yàn)證本文方法的有效性。對(duì)比的模型有基于機(jī)器學(xué)習(xí)的SVM和利用了一種能夠提高缺陷識(shí)別率的新的特征描述子方法的文獻(xiàn)[20],基于深度學(xué)習(xí)的GoogLeNet、VGG16和ResNet34。測(cè)試結(jié)果如表7所示,可知本文模型相對(duì)傳統(tǒng)機(jī)器學(xué)習(xí)中的SVM是有優(yōu)勢(shì)的,與文獻(xiàn)[20]在3個(gè)評(píng)價(jià)指標(biāo)上差別不大,但是本文CNN提取特征的優(yōu)勢(shì)是文獻(xiàn)[20]所不具有的;對(duì)于中小規(guī)模數(shù)據(jù),3種深度學(xué)習(xí)方式在3個(gè)評(píng)價(jià)指標(biāo)上與本文模型相比優(yōu)勢(shì)不大,且因?yàn)榻Y(jié)構(gòu)復(fù)雜參數(shù)多,分類(lèi)時(shí)間上分別是本文模型的32.25倍、41.57倍、20.06倍,因此在算法模型的時(shí)間復(fù)雜度上,本文方法無(wú)疑效率更高。
表7 不同算法在NEU-DET上的測(cè)試結(jié)果
CNN及其變體模型[16-20]多用于圖像數(shù)據(jù)并未在非圖像數(shù)據(jù)上進(jìn)行實(shí)驗(yàn),為驗(yàn)證本文模型在非圖像缺陷數(shù)據(jù)上的性能,引入超聲A掃描缺陷信號(hào)數(shù)據(jù)集ULTA-DET上,同處理圖像數(shù)據(jù)一樣,通過(guò)實(shí)驗(yàn)得到圖7所示,求得PCA個(gè)數(shù)取100,最大葉子節(jié)點(diǎn)數(shù)取8。
圖7 PCA和最大葉子節(jié)點(diǎn)數(shù)對(duì)分類(lèi)ULTA-DET準(zhǔn)確率的影響
為與DT算法比較, 需要人工提取特征。超聲數(shù)據(jù)集的人工特征提取利用經(jīng)驗(yàn)?zāi)B(tài)分解(Empirical mode decomposition, EMD)[21],分解得到9個(gè)本征模式分量IMF,1個(gè)殘差res,如圖8所示。
圖8 ULTA-DET第15號(hào)樣本的EMD分解圖
選取能表征大部分缺陷特性的前7個(gè)IMF分量,以減小計(jì)算復(fù)雜度,選取時(shí)域指標(biāo)參數(shù)作為缺陷信號(hào)的特征值,具體如表8所示,所以每個(gè)樣本由前7個(gè)IMF分量可得7×12 = 84個(gè)缺陷特征。
表8 人工提取ULTA-DET數(shù)據(jù)集的特征類(lèi)型
用單獨(dú)的淺層CNN分類(lèi),學(xué)習(xí)曲線(xiàn)如圖9所示,由圖9得出迭代20次左右便達(dá)到穩(wěn)定。
圖9 CNN在ULTA-DET上的學(xué)習(xí)曲線(xiàn)圖
測(cè)試結(jié)果見(jiàn)表9,本文模型在非圖像缺陷數(shù)據(jù)集上準(zhǔn)確率、精準(zhǔn)率、召回率上較機(jī)器學(xué)習(xí)方法中的DT、SVM、文獻(xiàn)[20]的算法有較大提升,在分類(lèi)速度上稍慢于機(jī)器學(xué)習(xí),但機(jī)器學(xué)習(xí)需人工提取特征。且3種機(jī)器學(xué)習(xí)方法對(duì)于NEU-DET數(shù)據(jù)集均能達(dá)到90%左右,而ULTA-DET數(shù)據(jù)集上則表現(xiàn)為70% ~ 80%,由此看出,機(jī)器學(xué)習(xí)的分類(lèi)效果特別依賴(lài)特征提取和選擇,而人工設(shè)計(jì)特征和提取特征非常不穩(wěn)定,其對(duì)于最終分類(lèi)結(jié)果影響巨大,這凸顯了本文利用CNN提取特征的優(yōu)勢(shì)。
表9 不同算法在ULTA-DET數(shù)據(jù)集上的測(cè)試結(jié)果
本文模型與深度學(xué)習(xí)模型GoogLeNe、VGG16、ResNet34和CNN對(duì)比,在3個(gè)評(píng)價(jià)指標(biāo)上差別較小,但因?yàn)楸疚姆椒ńY(jié)構(gòu)簡(jiǎn)單參數(shù)少,所用分類(lèi)時(shí)間更少,在性能上優(yōu)于深度學(xué)習(xí)模型。此外,通過(guò)CNN + DT與CNN-PCA-DT對(duì)比,可以看出加入PCA能提升分類(lèi)效果。因此本文方法適用于非圖像類(lèi)型缺陷,彌補(bǔ)CNN結(jié)合機(jī)器學(xué)習(xí)方法用于非圖像缺陷數(shù)據(jù)分類(lèi)的空白。
本文提出了一種針對(duì)中小規(guī)模數(shù)據(jù)集的CNNPCA-DT的缺陷分類(lèi)模型,模型引入淺層的卷積神經(jīng)網(wǎng)絡(luò)提取特征來(lái)代替繁瑣費(fèi)時(shí)且不穩(wěn)定的人工提取特征,因?yàn)镃NN模型在小規(guī)模數(shù)據(jù)上容易過(guò)擬合,利用決策樹(shù)對(duì)中小規(guī)模缺陷數(shù)據(jù)集進(jìn)行分類(lèi)來(lái)代替需要大樣本的卷積神經(jīng)網(wǎng)絡(luò);通過(guò)引入主成分分析,進(jìn)一步對(duì)提取的特征去冗余化,減小過(guò)擬合性并提高模型運(yùn)行效率;為驗(yàn)證本文模型的通用性,除圖像缺陷數(shù)據(jù)集NEU-DET,加入非圖像數(shù)據(jù)集超聲A掃描缺陷數(shù)據(jù)集ULTA-DET。實(shí)驗(yàn)結(jié)果表明,本文方法能快速有效地對(duì)圖像缺陷數(shù)據(jù)和非圖像超聲A掃描缺陷數(shù)據(jù)分類(lèi),因此對(duì)圖像和非圖像類(lèi)型缺陷在線(xiàn)實(shí)時(shí)分類(lèi)有現(xiàn)實(shí)意義。
由于深度學(xué)習(xí)對(duì)大規(guī)模數(shù)據(jù)有巨大優(yōu)勢(shì),本文模型只針對(duì)中小規(guī)模數(shù)據(jù)集分類(lèi),因此對(duì)于十萬(wàn)、百萬(wàn)級(jí)等大型規(guī)模數(shù)據(jù)可以與深度學(xué)習(xí)方法比較和改進(jìn)、進(jìn)行深入地研究。