国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于GoogLeNet的色織物花型分類

2017-08-16 08:15:07張宏偉張凌婕李鵬飛宋執(zhí)環(huán)
紡織科技進(jìn)展 2017年7期
關(guān)鍵詞:花型織物準(zhǔn)確率

張宏偉,張凌婕,李鵬飛,宋執(zhí)環(huán)

(1.西安工程大學(xué),陜西 西安 710048;2.浙江大學(xué)工業(yè)控制技術(shù)國(guó)家重點(diǎn)實(shí)驗(yàn)室,浙江 杭州 310027)

基于GoogLeNet的色織物花型分類

張宏偉1,2,張凌婕1,*,李鵬飛1,宋執(zhí)環(huán)2

(1.西安工程大學(xué),陜西 西安 710048;2.浙江大學(xué)工業(yè)控制技術(shù)國(guó)家重點(diǎn)實(shí)驗(yàn)室,浙江 杭州 310027)

針對(duì)色織物花型人工視覺(jué)分類效率低的問(wèn)題,提出了一種基于深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)的色織物花型圖像識(shí)別分類方法。構(gòu)建了18種類別的色織物花型圖像樣本數(shù)據(jù)庫(kù),建立了基于GoogLeNet的色織物花型分類深度卷積神經(jīng)網(wǎng)絡(luò),并通過(guò)實(shí)驗(yàn)分析選擇最優(yōu)的訓(xùn)練迭代期與學(xué)習(xí)率。結(jié)果表明利用深度神經(jīng)網(wǎng)絡(luò)分類識(shí)別色織物花型是可行、有效的。

深度卷積網(wǎng)絡(luò);色織物;花型分類

隨著色織生產(chǎn)過(guò)程圖像采集和存儲(chǔ)技術(shù)的發(fā)展,色織物花型圖像的分類和管理越來(lái)越受到紡織企業(yè)的重視。傳統(tǒng)的色織物花型分類主要依賴于人工目測(cè),由技術(shù)工人視覺(jué)檢測(cè)并做不同的標(biāo)記;但是這種方法受到人的心理、生理、熟練程度和疲勞程度等因素的影響,效率較低,難以適應(yīng)紡織工業(yè)轉(zhuǎn)型升級(jí)的需求。對(duì)此,一些聚類算法被相應(yīng)提出運(yùn)用于分類中,如人工神經(jīng)網(wǎng)絡(luò)、模糊C-means算法、灰度共生矩陣法和多分辨率及灰度共生矩陣法等[1-2]。目前灰度共生矩陣算法在坯布分類中應(yīng)用較多,但它局限于只能提取單一尺度下的特征,在識(shí)別花型復(fù)雜的色織物時(shí)效果較差。近幾年深度學(xué)習(xí)技術(shù)被廣泛用于大規(guī)?;ヂ?lián)網(wǎng)圖像的分類,效果較好,對(duì)具有復(fù)雜圖像特性的色織物花型自動(dòng)分類具有良好的借鑒意義。

因此,本文針對(duì)色織物花型人工視覺(jué)分類效率低的問(wèn)題,提出了一種基于深度神經(jīng)網(wǎng)絡(luò)的色織物花型分類模型[3]。利用廣東溢達(dá)紡織有限公司提供的18種花型色織物裁片樣本,首先建立規(guī)模為3 549幅的色織物花型圖像樣本庫(kù),然后構(gòu)建基于GoogLeNet的色織物花型分類卷積神經(jīng)網(wǎng)絡(luò)模型,最后給出模型評(píng)價(jià)準(zhǔn)則,并通過(guò)實(shí)驗(yàn)對(duì)比確定模型的訓(xùn)練迭代期和學(xué)習(xí)率。

1 色織物花型樣本和深度學(xué)習(xí)系統(tǒng)

1.1 色織物花型樣本庫(kù)的構(gòu)建

色織物圖像樣本庫(kù)由廣東溢達(dá)紡織提供的18種色織物裁片采集得到,圖像規(guī)模為3 549幅,其中75%用于訓(xùn)練,15%用于校驗(yàn),10%用于測(cè)試。為便于建模,每幅色織物花型圖像的分辨率設(shè)置為256×256×3。如圖1所示,這18種色織物花型極為復(fù)雜,難以用傳統(tǒng)人工構(gòu)造圖像特征的方法進(jìn)行區(qū)分,更難以使用淺層學(xué)習(xí)模型的方法進(jìn)行分類。

圖1 部分色織物花型樣本圖

1.2 色織物花型深度學(xué)習(xí)系統(tǒng)搭建

色織物花型分類深度卷積網(wǎng)絡(luò)模型的訓(xùn)練涉及參數(shù)較多,計(jì)算量較大,常規(guī)的CPU計(jì)算平臺(tái)難以勝任。為了提高深度學(xué)習(xí)模型的建模效率,采用了容天DevtopSCW4750,硬件配置上它采用一個(gè)CPUInteli7-i7-5930,四個(gè)NVIDIAGeForceTitanX12G,八個(gè)8G內(nèi)存。軟件架構(gòu)上操作系統(tǒng)為Ubuntu14.04,深度神經(jīng)網(wǎng)絡(luò)參數(shù)配置平臺(tái)為Digits。

2 基于GoogLeNet卷積神經(jīng)網(wǎng)絡(luò)模型

2.1 卷積神經(jīng)網(wǎng)絡(luò)模型

如圖2所示,從傳統(tǒng)的圖像分類視角看,首先要對(duì)原始圖像進(jìn)行預(yù)處理,然后人為設(shè)計(jì)圖像特征并進(jìn)行特征提取。對(duì)于花型復(fù)雜的色織物來(lái)說(shuō),只能依據(jù)經(jīng)驗(yàn)選擇和設(shè)計(jì)圖像特征,人為因素對(duì)特征的有效性影響很大。針對(duì)不同的樣本庫(kù)需要重新設(shè)計(jì)圖像特征,導(dǎo)致傳統(tǒng)特征模型的通用性不強(qiáng),使用性能差[4]。

圖2 傳統(tǒng)色織物分類模型

如圖3所示,針對(duì)傳統(tǒng)神經(jīng)網(wǎng)絡(luò)存在的問(wèn)題,在圖像分類問(wèn)題背景下提出了CNN卷積神經(jīng)網(wǎng)絡(luò)模型[5-6]。

圖3 卷積生成網(wǎng)絡(luò)(CNN)色織物分類模型

卷積神經(jīng)網(wǎng)絡(luò)由若干卷積層,池化層,全連接層構(gòu)成。首先在輸入層輸入圖片,接著第一個(gè)卷基層對(duì)這幅圖像進(jìn)行了卷積操作,得到三個(gè)特征映射。卷基層包含了3個(gè)核,也就是三套參數(shù)。例如有一個(gè)5×5大小的圖像,使用一個(gè)3×3的卷積核進(jìn)行卷積,得到一個(gè)3×3的特征映射。卷積的公式為:

(1)

(2)

(3)式中,w1是卷積前圖像的寬度;w2是卷積后特征映射的寬度;f是卷積核的寬度p的補(bǔ)零數(shù)量。圖像大小、步幅和卷積后的特征映射大小是有關(guān)系的,卷積過(guò)后池化層對(duì)特征映射做了下采樣。CNN中最常用的池化方法是最大池化,如圖4所示為最大池化的過(guò)程。

采樣結(jié)束后得到了3個(gè)更小的特征映射,接著是第二卷積層,它有5個(gè)卷積核。每個(gè)卷積核把前面下采樣之后的3個(gè)特征映射進(jìn)行卷積,接著就是池化下采樣。圖3中所示的網(wǎng)絡(luò)最后兩層是全連接層,第一個(gè)全連接層的每個(gè)神經(jīng)元和上一層的5個(gè)特征映射中的每個(gè)神經(jīng)元相連,第二個(gè)全連接層的每個(gè)神經(jīng)元?jiǎng)t和第一個(gè)全連接層的每個(gè)神經(jīng)元相連,這樣得到了整個(gè)網(wǎng)絡(luò)的輸出。目前很多文獻(xiàn)對(duì)CNN模型進(jìn)行了改進(jìn)[7-8],最常使用的CNN網(wǎng)絡(luò)結(jié)構(gòu)分為Zeiler與Inception,其中典型的Zeiler類網(wǎng)絡(luò)是AlexNet[9],典型的Inception類網(wǎng)絡(luò)是GoogLeNet[10]。

圖4 最大池化

2.2GoogLeNet的卷積神經(jīng)網(wǎng)絡(luò)

在網(wǎng)絡(luò)更寬更深的背景下,為了防止過(guò)擬合和計(jì)算量的增加,以及增加網(wǎng)絡(luò)深度和寬度的同時(shí)減少參數(shù),GoogLeNet在2014年ILSVRC比賽中被提出。它將Top5的錯(cuò)誤率降低到6.67%,是一個(gè)22層的深度網(wǎng)絡(luò);一般的卷積層只是一味地增加卷積層的深度,而GoogLeNet在單層的卷積層上使用不同尺度的卷積核。GoogLeNet架構(gòu)的核心是Inception模塊,深度達(dá)到27層,Inception架構(gòu)中存在著濾波器,濾波器組的輸出合并在一起構(gòu)成了下一層的輸入。具體來(lái)說(shuō)先使用1×1卷積量子來(lái)進(jìn)行降維,再進(jìn)行3×3,5×5的卷積操作,這樣尺寸不同的卷積核就可以提取不同尺寸的信息,這種Inception模型既能大大提升卷積提取特征的能力,又不會(huì)使計(jì)算量提升很多,而GoogLeNet就是由這種模型逐步構(gòu)建出來(lái)的。模型的特點(diǎn)是采用了模塊化的結(jié)構(gòu)、使用平均池化代替全連接層及增加了兩個(gè)輔助softmax用于前向傳導(dǎo)梯度,避免梯度消失。最為關(guān)鍵的是GoogLeNet來(lái)自Google團(tuán)隊(duì)并由其維護(hù),其卷積網(wǎng)絡(luò)的結(jié)構(gòu)易于工程化實(shí)現(xiàn),適合于色織物裁片花型的分類研究和后期的實(shí)用化推廣。

3 實(shí)驗(yàn)結(jié)果與討論

為了驗(yàn)證GoogLeNet深度卷積網(wǎng)絡(luò)模型對(duì)色織物花型分類的有效性,首先對(duì)如圖1所示的3 549幅色織花型裁片進(jìn)行圖像采集,并逐個(gè)進(jìn)行人工標(biāo)記,建立色織物花型分類深度學(xué)習(xí)樣本集(每類花型圖像樣本規(guī)模大約200幅,每類隨機(jī)挑選出75%用于訓(xùn)練,15%用于校驗(yàn),10%用于測(cè)試);然后建立基于GoogLeNet的色織物花型分類模型;最后通過(guò)實(shí)驗(yàn)對(duì)比,選擇最優(yōu)的訓(xùn)練迭代期參數(shù)與學(xué)習(xí)率參數(shù)。為了評(píng)價(jià)不同超參數(shù)條件下深度學(xué)習(xí)模型的優(yōu)劣,選擇分類準(zhǔn)確率和建模時(shí)間作為評(píng)價(jià)基準(zhǔn)。分類準(zhǔn)確率由準(zhǔn)確分類的待測(cè)色織物花型樣本數(shù)目和待測(cè)色織物花型樣本總數(shù)之比得出:

(4)

式中,n準(zhǔn)和n總分別為正確分類的待測(cè)織物花型圖像數(shù)和待分類織物花型圖像總數(shù)。建模時(shí)間由1.2節(jié)所述的GPU學(xué)習(xí)工作站和Digits參數(shù)配置平臺(tái)計(jì)算得到。本實(shí)驗(yàn)的目的是通過(guò)設(shè)置合適的訓(xùn)練迭代期和基礎(chǔ)學(xué)習(xí)率,在較高的分類準(zhǔn)確率和較低的建模時(shí)間中找到最佳的平衡點(diǎn)。

首先,建立基于GoogLeNet網(wǎng)絡(luò)的織物花型分類模型,并通過(guò)實(shí)驗(yàn)對(duì)比不同訓(xùn)練迭代期下的分類準(zhǔn)確率,選擇合適的訓(xùn)練迭代期參數(shù)。模型基礎(chǔ)學(xué)習(xí)率固定為0.01的步長(zhǎng),改變訓(xùn)練迭代期的次數(shù),并且在每經(jīng)過(guò)33.33%的迭代期時(shí)學(xué)習(xí)率逐步設(shè)定為0.001和0.000 1的步長(zhǎng),分別測(cè)試該模型在訓(xùn)練迭代期為30,50,70時(shí)的準(zhǔn)確率和建模時(shí)間。然后模型迭代次數(shù)固定為50,分別設(shè)定模型的基礎(chǔ)學(xué)習(xí)率為1,0.1,0.05,0.01,0.001的步長(zhǎng),分析對(duì)比該模型的分類準(zhǔn)確率。

不同訓(xùn)練迭代期下色織物花型的識(shí)別準(zhǔn)確率和建模時(shí)間如表1所示。GoogLeNet的分類準(zhǔn)確率很高,并且隨著訓(xùn)練迭代期逐漸增大穩(wěn)定在100%左右。因?yàn)镚oogLeNet是一個(gè)22層的深度網(wǎng)絡(luò),用更多的卷積、更深的層次和規(guī)模更大的訓(xùn)練集會(huì)得到較好的效果;所以在對(duì)本實(shí)驗(yàn)2 662幅色織物花型圖像的建模中,分類準(zhǔn)確率較高。GoogLeNet的建模時(shí)間隨著迭代次數(shù)的增加逐漸增加。綜合考量識(shí)別準(zhǔn)確率和建模時(shí)間,訓(xùn)練迭代期選擇為50次時(shí),分類準(zhǔn)確率和建模時(shí)間可以實(shí)現(xiàn)較好的折中,滿足工程化的需求。

表1 不同訓(xùn)練迭代期下GoogLeNet

另外,在訓(xùn)練樣本集規(guī)模為2 662幅色織物花型圖像的條件下,GoogLeNet最快可以在4min以內(nèi)訓(xùn)練完成,且分類準(zhǔn)確率可以達(dá)到99%以上,證明了基于GoogLeNet的卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)于色織物花型分類的建模實(shí)時(shí)性和準(zhǔn)確性較好。

表1固定訓(xùn)練迭代期為50,分別設(shè)定基礎(chǔ)學(xué)習(xí)率為1,0.1,0.05,0.01和0.001的步長(zhǎng),對(duì)應(yīng)的GoogLeNet模型分類準(zhǔn)確率和建模時(shí)間分別如表2所示。隨著基礎(chǔ)學(xué)習(xí)率的降低,準(zhǔn)確率逐步上升;但是建模時(shí)間在0.01的步長(zhǎng)時(shí)取得最小值。所以綜合考量分類準(zhǔn)確率和建模時(shí)間,基礎(chǔ)學(xué)習(xí)率選為0.01的步長(zhǎng)時(shí),既能取得較高的分類準(zhǔn)確率,又具有較好的建模實(shí)時(shí)性。

表2 不同學(xué)習(xí)率下GoogLeNet的分類準(zhǔn)確率和建模時(shí)間

4 結(jié)論

為解決色織物花型人工視覺(jué)分類效率低和人工難以構(gòu)造色織物花型分類特征的問(wèn)題,首先構(gòu)建了一個(gè)規(guī)模為3 549幅的色織物花型圖像數(shù)據(jù)庫(kù),然后通過(guò)改變GoogLeNet的訓(xùn)練迭代次數(shù)和基礎(chǔ)學(xué)習(xí)率參數(shù),研究色織物花型分類模型的準(zhǔn)確率和建模時(shí)間變化,選擇出合適的訓(xùn)練迭代次數(shù)和基礎(chǔ)學(xué)習(xí)率。其實(shí)驗(yàn)結(jié)果表明,基于GoogLeNet的色織物深度學(xué)習(xí)模型對(duì)于色織物花型分類問(wèn)題是一種有效可行的解決方案,并且選擇合適的訓(xùn)練迭代期和基礎(chǔ)學(xué)習(xí)率對(duì)色織物分類準(zhǔn)確性和建模時(shí)間有重要影響。

[1] 朱 昊.圖像處理技術(shù)在織物花型結(jié)構(gòu)識(shí)別中的應(yīng)用[J].絲綢,2008,(1):42-44.

[2] 任建峰,郭 雷,李 剛.多類支持向量機(jī)的自然圖像分類[J].西北工業(yè)大學(xué)學(xué)報(bào),2005,23(3):295-298.

[3] 余 凱,賈 磊,陳雨強(qiáng).深度學(xué)習(xí)的昨天、今天和明天[J].計(jì)算機(jī)研究與發(fā)展,2013,50(9):1 799-1 804.

[4] 趙仲秋,季海峰,高 雋.基于稀疏編碼多尺度空間潛在語(yǔ)義分析的圖像分類[J].計(jì)算機(jī)學(xué)報(bào),2014,377(6):1 251-1 260.

[5] 諶 璐,賀興時(shí).改進(jìn)的支持向量機(jī)算法在人臉識(shí)別上的應(yīng)用[J].紡織高?;A(chǔ)科學(xué)學(xué)報(bào),2015,(1):108-115.

[6] 常 亮,鄧小明,周明全,等.圖像理解中的卷積神經(jīng)網(wǎng)絡(luò)[J].自動(dòng)化學(xué)報(bào),2016,42(9):1 300-1 312.

[7]ZEILERMD,F(xiàn)ERGUSR.Visualizingandunderstandingconvolutionalnetworks[J].ComputerVision-ECCV, 2014,8 689:818-833.

[8] 常 亮,鄧小明,周明全.圖像理解中的卷積神經(jīng)網(wǎng)絡(luò)[J].自動(dòng)化學(xué)報(bào),2016,42(9):1 300-1 312.

[9]KRIZHEVSKYA,SUTSKEVERI,HINTONGE.Imagenetclassificationwithdeepconvolutionalneuralnetworks[J].AdvancesinNeuralInformationProcessingSystems,2012,25(2):1 097-1 105.

[10]SZEGEDYC,LIUW,JIAY,etal.Goingdeeperwithconvolutions[C].IEEEConferenceonComputerVisionandPatternRecognition,2015:1-9.

Pattern Classification of Yarn-Dyed Fabrics Based on GoogLeNet

ZHANG Hong-wei1, 2, ZHANG Ling-jie1,*, LI Peng-fei1, SONG Zhi-huan2

(1.Xi′an Polytechnic University, Xi′an 710048, China; 2.State Key Laboratory of Industrial Control Technology, Zhejiang University, Hangzhou 310027, China)

Aiming at the low efficiency problem of manual classification for the pattern of yarn-dyed fabric, pattern recognition and classification method for yarn-dyed fabrics based on deep convolution neural network (CNN) was proposed. 18 kinds of sample database of yarn-dyed fabric patterns were established. Deep convolution neural network of yarn-dyed fabric pattern classification models were developed based on GoogLeNet. Optimal training epoch periods and learning rates were selected through experimental analysis based on the model evaluation criterion. Results showed that it was feasible and effective to classify yarn-dyed fabric patterns by deep convolution neural networks.

deep convolution network; yarn-dyed fabric; pattern classification

2017-06-12;

2017-06-19

陜西省自然科學(xué)基金(2014JQ2-5029);西安工程大學(xué)博士科研啟動(dòng)基金(BS1411)

張宏偉(1983-),男,講師,安徽淮北人,主要研究方向:機(jī)器學(xué)習(xí)、軟測(cè)量,E-mail:zhanghongwei@zju.edu.cn。

*通信作者:張凌婕,E-mail:379530773@qq.cm。

TS

A

1673-0356(2017)07-0033-03

猜你喜歡
花型織物準(zhǔn)確率
無(wú)Sn-Pd活化法制備PANI/Cu導(dǎo)電織物
《紡織品織物折痕回復(fù)角的測(cè)定》正式發(fā)布
竹纖維織物抗菌研究進(jìn)展
乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
健康之家(2021年19期)2021-05-23 11:17:39
不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
哥特式浪漫
高速公路車牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
提花圓緯機(jī)花型圖案嵌入式顯現(xiàn)系統(tǒng)
織物柔軟劑的香氣發(fā)展趨勢(shì)
永福县| 获嘉县| 天镇县| 罗山县| 淮北市| 桐乡市| 饶阳县| 扶风县| 陆丰市| 温宿县| 吉首市| 镇原县| 偃师市| 黄大仙区| 永修县| 黎平县| 民和| 岳西县| 五河县| 金门县| 卫辉市| 封开县| 云安县| 汝阳县| 桦南县| 正定县| 湾仔区| 秭归县| 西峡县| 阿拉善右旗| 乌拉特后旗| 托克逊县| 曲水县| 祁门县| 墨脱县| 阜阳市| 湟中县| 花垣县| 清远市| 通城县| 沂南县|