国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種改進(jìn)殘差網(wǎng)絡(luò)的服裝圖像識(shí)別模型

2020-10-19 04:41:08陸建波謝小紅李文韜
關(guān)鍵詞:殘差卷積服裝

陸建波,謝小紅,李文韜

南寧師范大學(xué) 計(jì)算機(jī)與信息工程學(xué)院,南寧 530299

1 引言

隨著電子商務(wù)不斷發(fā)展,服裝商務(wù)新模式已經(jīng)成為人們生活不可缺少的一部分。如何更好地對(duì)服裝圖片識(shí)別、分類和獲取有價(jià)值的信息,是目前研究服裝的熱點(diǎn)。隨著服裝圖像數(shù)量的迅猛增長(zhǎng),服裝的風(fēng)格越來(lái)越多元化,文字描述已經(jīng)無(wú)法完整地表達(dá)服裝信息,必須花費(fèi)大規(guī)模的人力物力對(duì)圖像做精確的標(biāo)注。但是,由于受到個(gè)人的主觀性影響,在對(duì)圖像進(jìn)行標(biāo)注時(shí)并不能很精準(zhǔn)地給目標(biāo)圖像打上標(biāo)注,進(jìn)而影響服裝的識(shí)別分類精度。

傳統(tǒng)的服裝分類方法主要是提取圖像的顏色、紋理、邊緣等特征,這些人工選取特征方法過(guò)程繁瑣且分類精度較低。由于服裝圖片存在細(xì)粒度分類[1]多,視覺(jué)變化大,如形變、光照、拍攝視角、背景影響等問(wèn)題,使得服裝識(shí)別分類技術(shù)受到更大挑戰(zhàn)。

近年來(lái),深度學(xué)習(xí)(Deep Learning,DL)[2]已經(jīng)成為當(dāng)前機(jī)器學(xué)習(xí)領(lǐng)域中的重要發(fā)展方向。使用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)[3]去解決圖像分類中的問(wèn)題逐漸成為主流。越來(lái)越多的研究者將深度學(xué)習(xí)和服裝分類相結(jié)合。Liu 等人[4]收集一個(gè)數(shù)據(jù)量大且標(biāo)注完整的服裝數(shù)據(jù)集DeepFashion,并構(gòu)建出一種新的卷積神經(jīng)網(wǎng)絡(luò)。高妍等人[5]利用區(qū)域全卷積神經(jīng)網(wǎng)絡(luò)R-FCN與HyperNet 網(wǎng)絡(luò)結(jié)合,對(duì)形變服裝進(jìn)行訓(xùn)練。陳麗麗等人[6]設(shè)計(jì)了一種新的卷積神經(jīng)網(wǎng)絡(luò),有效地完成服飾圖像的分類。Ge 等人[7]提出了一種基于掩碼R-CNN 的新型匹配R-CNN 框架以端到端的方式解決了服裝檢測(cè)、姿態(tài)估計(jì)、分割和檢索等問(wèn)題。以上研究工作都使用深度卷積神經(jīng)網(wǎng)絡(luò)對(duì)服裝圖像進(jìn)行識(shí)別分類。為達(dá)到識(shí)別圖像精度的提升,通常改進(jìn)CNN的卷積層數(shù)量或結(jié)構(gòu)來(lái)完善模型的識(shí)別分類性能。但深度卷積神經(jīng)網(wǎng)絡(luò)還有問(wèn)題尚存:(1)隨著深度學(xué)習(xí)網(wǎng)絡(luò)的加深,網(wǎng)絡(luò)的堆疊效果不好;(2)網(wǎng)絡(luò)越復(fù)雜,訓(xùn)練時(shí)會(huì)出現(xiàn)梯度彌散或梯度爆炸等問(wèn)題使得訓(xùn)練具有挑戰(zhàn)性[8]。網(wǎng)絡(luò)層數(shù)淺的模型識(shí)別性能不理想,而殘差網(wǎng)絡(luò)引入了殘差塊,當(dāng)模型的深度加深時(shí),殘差塊的加入能很好地解決退化問(wèn)題。

本文借鑒ResNet 能解決在訓(xùn)練深層網(wǎng)絡(luò)時(shí)出現(xiàn)梯度彌散問(wèn)題的優(yōu)點(diǎn),提出了一種改進(jìn)深度殘差網(wǎng)絡(luò)結(jié)構(gòu)來(lái)提高服裝圖像的識(shí)別分類的性能。

2 改進(jìn)殘差網(wǎng)絡(luò)的服裝識(shí)別模型

目前大多數(shù)的研究者選擇AlexNet[9]和VGGNet[10]這兩種網(wǎng)絡(luò)對(duì)服裝圖像進(jìn)行特征的選取,VGGNet 在AlexNet基礎(chǔ)上做了改進(jìn),網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)潔。其中文獻(xiàn)[4]采用VGGNet用于服裝類別分類上,但是在面對(duì)多種服裝類別分類時(shí),由于AlexNet 和VGGNet 網(wǎng)絡(luò)層數(shù)比較少,直接影響了網(wǎng)絡(luò)的學(xué)習(xí)特征能力。后來(lái)研究者們通過(guò)增加深度卷積神經(jīng)網(wǎng)絡(luò)層數(shù)和卷積層個(gè)數(shù)的方向?qū)W(wǎng)絡(luò)進(jìn)行改進(jìn),比如GoogleNet[11]和ResNet[12]的出現(xiàn),都證明了在圖像識(shí)別分類工作上層數(shù)越深的模型識(shí)別性能會(huì)更理想。

2.1 殘差神經(jīng)網(wǎng)絡(luò)

殘差網(wǎng)絡(luò)在2015年的ImageNet大規(guī)模視覺(jué)識(shí)別多項(xiàng)比賽中以絕對(duì)的優(yōu)勢(shì)取得第一。深度殘差網(wǎng)絡(luò)是由殘差塊組成的。每個(gè)殘差塊可以表示為:

其中,F(xiàn)為殘差函數(shù),f為ReLU函數(shù),wi為權(quán)值矩陣,xi和yi為第i層的輸入和輸出。函數(shù)h為:

殘差函數(shù)F的定義為:

B(xi)是批處理規(guī)范化“,?”表示卷積和σ(x)=max(x,0 )。殘差學(xué)習(xí)的基本思想是梯度傳播路徑的分支。對(duì)于CNN,這一思想首先以并行路徑的形式引入到了inception 模型[13]中。殘差網(wǎng)絡(luò)與Highway Network 思想有一些相似之處,但對(duì)其進(jìn)行改進(jìn),稱之為恒等映射,如通過(guò)殘差塊和shortcut 連接,減緩了在ResNet 中隨著層數(shù)的增加帶來(lái)的梯度消失問(wèn)題。然而,Highway Network 中每條路徑的輸出是由訓(xùn)練階段學(xué)習(xí)的門(mén)函數(shù)控制的。

與傳統(tǒng)CNN 中的卷積層一樣,ResNet 中的殘差單元不是堆疊在一起的,相反,從每個(gè)卷積層的輸入端到輸出端引入了shortcut連接。使用恒等映射作為shortcut連接降低了殘差網(wǎng)絡(luò)的復(fù)雜性,使得深度網(wǎng)絡(luò)更快地被訓(xùn)練。殘差網(wǎng)絡(luò)可以被看作是許多路徑的集合,而不是一個(gè)非常深的架構(gòu),但是,殘差網(wǎng)絡(luò)中的所有網(wǎng)絡(luò)路徑的長(zhǎng)度都不相同,只有一條路徑穿過(guò)所有殘差單元。此外,所有這些信號(hào)路徑都不傳播梯度,這是殘差網(wǎng)絡(luò)更快優(yōu)化和訓(xùn)練的原因。隨著網(wǎng)絡(luò)層數(shù)加深,準(zhǔn)確率不下降。殘差塊的結(jié)構(gòu)如圖1所示。

2.2 改進(jìn)的殘差網(wǎng)絡(luò)模型

深度卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)某一層的權(quán)重發(fā)生變化,該層的輸出特征圖也隨之變化,下一層網(wǎng)絡(luò)的權(quán)重需要重新學(xué)習(xí),之后的每一層網(wǎng)絡(luò)權(quán)重都會(huì)受到影響。在ResNet 中加入激活函數(shù)可以提升構(gòu)建網(wǎng)絡(luò)模型的非線性能力。深度殘差網(wǎng)絡(luò)采用線性修正單元ReLU,f(x)=max(0 ,x)作為激活函數(shù),ReLU 函數(shù)的梯度在x>0 時(shí)一直為1使得梯度不衰減,緩解了梯度彌散的問(wèn)題。假設(shè)不使用激活函數(shù),網(wǎng)絡(luò)僅能通過(guò)線性映射構(gòu)建,即使有很多的卷積層網(wǎng)絡(luò),整個(gè)網(wǎng)絡(luò)中的每一層都是等價(jià)的,卷積出來(lái)的特征圖也不會(huì)有太大的變化,因此網(wǎng)絡(luò)應(yīng)該使用激活函數(shù)。

隨著卷積神經(jīng)網(wǎng)絡(luò)層數(shù)的加深,在訓(xùn)練過(guò)程中會(huì)出現(xiàn)網(wǎng)絡(luò)的收斂速度急劇下降和梯度彌散等問(wèn)題。而批量歸一化(Batch Normalization)[14]能有效解決此問(wèn)題。具體的解決方法是對(duì)同一層的輸入信號(hào)進(jìn)行歸一化,公式如下:

其中,每一個(gè)神經(jīng)元xk都會(huì)有一對(duì)這樣的參數(shù)γ、β。這樣其實(shí)當(dāng):時(shí)可以保持某一層原始的學(xué)習(xí)特征,并能重構(gòu)參數(shù)γ、β,恢復(fù)初始網(wǎng)絡(luò)學(xué)習(xí)的特征分布。BN層是一種規(guī)范化神經(jīng)網(wǎng)絡(luò)的激活方法,加入批量歸一化算法先對(duì)每一層的輸入信號(hào)做歸一化處理,穩(wěn)定其數(shù)據(jù)分布,在訓(xùn)練時(shí)設(shè)置較大的學(xué)習(xí)率,使得網(wǎng)絡(luò)收斂速度和訓(xùn)練速度變快。圖2為傳統(tǒng)殘差網(wǎng)絡(luò)中的“卷積層+BN層+ReLU層”排列順序。

圖2 傳統(tǒng)殘差塊的排列順序

傳統(tǒng)殘差塊的排列順序在深度卷積ResNet 中有缺陷,如恒等塊的輸入分別從兩個(gè)路徑傳輸?shù)缴顚泳W(wǎng)絡(luò)。右邊路徑表示特征圖先通過(guò)卷積層再到BN和ReLU[15]。輸入的特征圖沒(méi)有先做歸一化處理,所以BN層的存在并不能起到很大的作用。根據(jù)上述缺陷,本文采用一種新的非線性支路“BN 層+卷積層+ ReLU 層”恒等塊結(jié)構(gòu)的排列順序。如圖3所示,圖中的網(wǎng)絡(luò)結(jié)構(gòu)還是和傳統(tǒng)殘差塊網(wǎng)絡(luò)結(jié)構(gòu)(圖1)一樣,而ResNet中典型的殘差塊由三個(gè)卷積層組成。本文提出的新殘差塊的排列方法既保留了左邊路徑的恒等映射,也維持著右邊非線性網(wǎng)絡(luò)路徑的學(xué)習(xí)能力。

圖3 改進(jìn)殘差塊的排列順序

2.3 引入SE注意力模塊

注意力機(jī)制[16(]Attention Mechanism)是對(duì)目標(biāo)數(shù)據(jù)進(jìn)行加權(quán)變化,它使用頂部信息來(lái)指導(dǎo)自下而上的前饋過(guò)程。人腦的注意力模型,是一種資源分配模型,在某個(gè)特定時(shí)刻,注意力總是集中在畫(huà)面中的某個(gè)焦點(diǎn)部分,而對(duì)其他部分視而不見(jiàn)。近年來(lái),人們開(kāi)始嘗試將注意力應(yīng)用到深層神經(jīng)網(wǎng)絡(luò)中。因此,引入注意力機(jī)制進(jìn)一步提取判別性部位特征,在改進(jìn)后的網(wǎng)絡(luò)中采用SE(Squeeze-and-Excitation)算法[17],通過(guò)精確地建模卷積特征各個(gè)通道之間的作用關(guān)系來(lái)改善網(wǎng)絡(luò)模型的表達(dá)能力。讓網(wǎng)絡(luò)模型對(duì)特征進(jìn)行校準(zhǔn)的機(jī)制,使網(wǎng)絡(luò)從全局信息出發(fā),選擇性地增強(qiáng)有價(jià)值的特征通道并且抑制無(wú)用的特征通道。

SE網(wǎng)絡(luò)模塊如圖4所示,為保證增加網(wǎng)絡(luò)后對(duì)有價(jià)值信息的敏感性,并使有價(jià)值的特征在之后的網(wǎng)絡(luò)層中得到有效利用,達(dá)到對(duì)通道之間的依賴關(guān)系進(jìn)行精確建模,通過(guò) Squeeze、Excitation 和 Reweight 來(lái)重新定義之前得到的特征:

(1)Squeeze(全局信息嵌入)。為了解決利用通道依賴性的問(wèn)題,利用空間維度壓縮特征。用一個(gè)具有全局空間信息的變量代表每個(gè)二維的特征向量,且輸出的維度與輸入的通道數(shù)相匹配。公式表達(dá)如下所示:

(2)Excitation(自適應(yīng)重新校正)。為了利用壓縮操作中匯聚的信息,全面捕獲到通道的依懶性。必須滿足學(xué)習(xí)通道之間的非線性交互以及非互斥關(guān)系。

(3)Reweight,在Excitation 操作之后產(chǎn)生的權(quán)重與原始特征進(jìn)行相乘。

圖4 SE模塊示意圖

在上述每個(gè)新殘差塊的所有“BN層+卷積層+ReLU層”結(jié)構(gòu)完成后引入SE算法,利用網(wǎng)絡(luò)實(shí)施動(dòng)態(tài)的特征再次校準(zhǔn),從而提升網(wǎng)絡(luò)的性能,將軟注意力機(jī)制成功應(yīng)用于深度網(wǎng)絡(luò)的典型。將SE模塊嵌入到新殘差模塊中如圖5所示。

圖5 加入SE模塊的殘差塊

表1 是原始ResNet50 網(wǎng)絡(luò)的卷積層主要結(jié)構(gòu)及其參數(shù)數(shù)量改變后的主體結(jié)構(gòu),有3個(gè)包含128個(gè)卷積核、4個(gè)包含256個(gè)卷積核、6個(gè)包含512個(gè)卷積核、3個(gè)包含1 024 個(gè)卷積核數(shù)量的殘差塊及兩層全連接層,模型輸出的維度為8和10。分別對(duì)應(yīng)兩個(gè)數(shù)據(jù)集的分類類別。

表1 兩種網(wǎng)絡(luò)卷積結(jié)構(gòu)對(duì)比

3 實(shí)驗(yàn)及結(jié)果分析

3.1 實(shí)驗(yàn)準(zhǔn)備

本文使用香港中文大學(xué)多媒體實(shí)驗(yàn)室提供的多類別大型服裝數(shù)據(jù)集DeepFashion[4]和FashionMNIST數(shù)據(jù)集來(lái)驗(yàn)證本文網(wǎng)絡(luò)的性能。

本文實(shí)驗(yàn)環(huán)境:Ubuntu 操作系統(tǒng),Intel i7-7700 處理器,1 TB固態(tài)硬盤(pán),32 GB內(nèi)存,NVIDIA GTX1080Ti GPU,采用TensorFlow 平臺(tái)進(jìn)行訓(xùn)練;實(shí)驗(yàn)結(jié)果中的準(zhǔn)確率曲線采用python中的matplotlib可視化得到。在實(shí)驗(yàn)中,本文提出了一個(gè)新的網(wǎng)絡(luò)為F-ResNet,首先改進(jìn)非線性支路中“BN 層+卷積層+ReLU”恒等塊結(jié)構(gòu)的排列順序(如圖3)代替?zhèn)鹘y(tǒng)網(wǎng)絡(luò)中的排列順序。其后引入注意力機(jī)制SE 模塊(如圖5)。最后調(diào)整網(wǎng)絡(luò)卷積結(jié)構(gòu)(如表1)。網(wǎng)絡(luò)主體由4 個(gè)殘差網(wǎng)絡(luò)層組成,每個(gè)殘差塊都進(jìn)行歸一化處理。最后通過(guò)全局均值池化層、全連接層和線性分類器得到輸出結(jié)果。本文將F-ResNet 與目前經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)VGG16 和Inception_v3 作性能比較,模型選用交叉熵?fù)p失函數(shù)和Adam 算法作為優(yōu)化器進(jìn)行優(yōu)化,學(xué)習(xí)率統(tǒng)一設(shè)置為0.000 1。在進(jìn)行網(wǎng)絡(luò)訓(xùn)練時(shí)只使用部分的優(yōu)化方法,因此網(wǎng)絡(luò)并不能達(dá)到最高的精度。

3.2 FashionMNIST

標(biāo)準(zhǔn)數(shù)據(jù)集FashionMNIST共有70 000張來(lái)自10種不同類別商品的正面圖片。其中共有60 000 張圖像作為訓(xùn)練集,10 000張圖像作為測(cè)試集驗(yàn)證。該數(shù)據(jù)集的圖片大小以及劃分和MNIST數(shù)據(jù)集一致。如圖6所示,本文提出的F-ResNet 在準(zhǔn)確率和收斂速度上優(yōu)于ResNet的兩個(gè)改進(jìn)網(wǎng)絡(luò)且泛化能力強(qiáng)。圖7所示,最終模型F-ResNet與傳統(tǒng)殘差網(wǎng)絡(luò)作對(duì)比,F(xiàn)-ResNet的準(zhǔn)確率和收斂速度均優(yōu)于傳統(tǒng)殘差網(wǎng)絡(luò)。

圖6 最終模型F-ResNet和兩個(gè)改進(jìn)模型精度比較

圖7 原始ResNet50和本文網(wǎng)絡(luò)模型精度比較

如表2所示,各個(gè)網(wǎng)絡(luò)模型經(jīng)過(guò)充分訓(xùn)練后得到識(shí)別準(zhǔn)確率和訓(xùn)練耗時(shí)。使用CNN并未出現(xiàn)因?qū)訑?shù)增加而導(dǎo)致網(wǎng)絡(luò)發(fā)生訓(xùn)練困難等問(wèn)題,Inception_v3 層數(shù)比VGG16深,但是Inception_v3對(duì)圖像識(shí)別分類的準(zhǔn)確率和時(shí)效性都高于VGG16,而本文改進(jìn)深度殘差網(wǎng)絡(luò)的準(zhǔn)確率比VGG16 提高1.5 個(gè)百分點(diǎn)。在只改進(jìn)ResNet殘差塊的情況下,網(wǎng)絡(luò)的分類精度僅比傳統(tǒng)殘差網(wǎng)絡(luò)精度提高了0.3 個(gè)百分點(diǎn)。僅用深度殘差網(wǎng)絡(luò)與SE 模塊相結(jié)合,網(wǎng)絡(luò)精度提高了0.42個(gè)百分點(diǎn)。將以上兩個(gè)方法結(jié)合后,最終模型較傳統(tǒng)殘差網(wǎng)絡(luò)精度提高0.75個(gè)百分點(diǎn)。實(shí)驗(yàn)結(jié)果表明本文提出的模型可以提高卷積神經(jīng)網(wǎng)絡(luò)的特征學(xué)習(xí)能力。

表2 模型在FashionMNIST數(shù)據(jù)集準(zhǔn)確率對(duì)比

如表3所示,通過(guò)查找利用卷積神經(jīng)網(wǎng)絡(luò)解決服裝圖像分類問(wèn)題的相關(guān)文獻(xiàn)。將文獻(xiàn)[6]的實(shí)驗(yàn)結(jié)果與本文方法的實(shí)驗(yàn)結(jié)果作對(duì)比,證明本文方法的可取性。

表3 FashionMNIST數(shù)據(jù)集上不同方法準(zhǔn)確率對(duì)比

3.3 DeepFashion

為了進(jìn)一步驗(yàn)證本文提出的模型性能,也在Deep-Fashion 服裝數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)。DeepFashion 包含了28萬(wàn)的圖片,這些圖像大部分來(lái)自購(gòu)物網(wǎng)站,其余部分來(lái)源于博客、論壇和其他用戶的生成。其服裝圖片全部由人工標(biāo)注,每張圖像都有1個(gè)類別標(biāo)注,1 000個(gè)屬性標(biāo)注,Bbox 邊框,這是迄今為止最大、最全面的服裝數(shù)據(jù)集。由于數(shù)據(jù)集過(guò)于龐大,本次實(shí)驗(yàn)從中挑選8個(gè)服裝類型,分別是 Dress、Jeans、Tank、shots、Tee、Jecket、Hoodie、Coat。其中80%作為訓(xùn)練集,20%作為驗(yàn)證集,兩者沒(méi)有數(shù)據(jù)之間的交集,其中該訓(xùn)練集用于模型訓(xùn)練和學(xué)習(xí)以及參數(shù)的調(diào)整。在訓(xùn)練中使用驗(yàn)證集對(duì)模型進(jìn)行測(cè)試,對(duì)模型進(jìn)行優(yōu)化,對(duì)模型參數(shù)進(jìn)行微調(diào)。

由于該實(shí)驗(yàn)數(shù)據(jù)集圖像初始尺寸參差不齊,大小不一,根據(jù)整體數(shù)據(jù)集圖像的大小,統(tǒng)一將圖像的尺寸設(shè)置為 224×224。如圖8 所示,本文提出的F-ResNet 在準(zhǔn)確率和收斂速度上優(yōu)于ResNet 的兩個(gè)改進(jìn)網(wǎng)絡(luò),其中僅改進(jìn)殘差塊的網(wǎng)絡(luò)實(shí)驗(yàn)結(jié)果波動(dòng)比較大。如圖9為最終模型F-ResNet 與傳統(tǒng)殘差網(wǎng)絡(luò)精度的比較情況,可知F-ResNet 的準(zhǔn)確率和收斂速度均優(yōu)于傳統(tǒng)殘差網(wǎng)絡(luò)。

圖8 最終模型F-ResNet和兩個(gè)改進(jìn)模型精度比較

圖9 原始ResNet50和本文網(wǎng)絡(luò)模型精度比較

如表4所示,Inception_v3、傳統(tǒng)殘差網(wǎng)絡(luò)和F-ResNet對(duì)圖像識(shí)別分類的準(zhǔn)確率都高于VGG16。本文改進(jìn)的深度度殘差網(wǎng)絡(luò)與VGGNet相比,準(zhǔn)確率提升了2.77個(gè)百分點(diǎn),較Inception_v3 提升1.07 個(gè)百分點(diǎn),比僅改進(jìn)ResNet 殘差塊的模型精度提高了1.12 個(gè)百分點(diǎn),比ResNet 與SE 模塊相結(jié)合的模型精度提高2.02 個(gè)百分點(diǎn),較傳統(tǒng)殘差網(wǎng)絡(luò)精度提高2.21 個(gè)百分點(diǎn)。VGG16的參數(shù)多達(dá)1.38多億個(gè),第一個(gè)全連接層有1億多個(gè)參數(shù)。由于網(wǎng)絡(luò)的所有全連接層的參數(shù)達(dá)到整個(gè)網(wǎng)絡(luò)的3/4,全連接層的參數(shù)過(guò)多會(huì)降低模型的訓(xùn)練速度,另外還會(huì)導(dǎo)致模型的復(fù)雜度增加、過(guò)擬合現(xiàn)象嚴(yán)重等問(wèn)題,最后網(wǎng)絡(luò)精度難以得到提升。Inception_v3 網(wǎng)絡(luò)約有2 200 多萬(wàn)參數(shù),層數(shù)多達(dá)47 層。本文提出的網(wǎng)絡(luò)FResNet 有50 層網(wǎng)絡(luò),約有5 800 多萬(wàn)個(gè)參數(shù),通過(guò)加深網(wǎng)絡(luò)層數(shù)達(dá)到提高模型的特征學(xué)習(xí)能力的目的,使得網(wǎng)絡(luò)精度得到提升。

通過(guò)FashionMNIST 和DeepFashion 兩個(gè)數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果表明,當(dāng)CNN在達(dá)到一定的深度之前,隨著網(wǎng)絡(luò)層數(shù)的增加,網(wǎng)絡(luò)的特征學(xué)習(xí)能力越強(qiáng),收斂速度也越快。所以網(wǎng)絡(luò)層數(shù)多的殘差網(wǎng)絡(luò)和Inception_v3都比網(wǎng)絡(luò)層數(shù)少的VGG16精度高。但是,當(dāng)CNN達(dá)到一定的深度之后,網(wǎng)絡(luò)的識(shí)別分類精度并不會(huì)隨著網(wǎng)絡(luò)層數(shù)的加深而提高,反而會(huì)出現(xiàn)梯度彌散的問(wèn)題。而深度殘差網(wǎng)絡(luò)有解決在深層網(wǎng)絡(luò)訓(xùn)練時(shí)出現(xiàn)梯度彌散問(wèn)題的優(yōu)點(diǎn)。該實(shí)驗(yàn)結(jié)果也說(shuō)明了本文提出的F-ResNet 是可行的,且在服裝圖像識(shí)別分類上取得了很好的效果。

4 結(jié)論

針對(duì)卷積神經(jīng)網(wǎng)絡(luò),本文對(duì)傳統(tǒng)殘差網(wǎng)絡(luò)進(jìn)行改進(jìn),通過(guò)改進(jìn)傳統(tǒng)殘差塊中的“BN+ReLU+卷積層”的排列順序、引入注意力機(jī)制和調(diào)整網(wǎng)絡(luò)卷積核結(jié)構(gòu),來(lái)提升模型的識(shí)別分類效果。實(shí)驗(yàn)結(jié)果表明,本文的網(wǎng)絡(luò)模型在服裝圖像的分類精度和收斂速度上比傳統(tǒng)深度殘差網(wǎng)絡(luò)好,證明了該方法的有效性。

猜你喜歡
殘差卷積服裝
基于雙向GRU與殘差擬合的車輛跟馳建模
讓人心碎的服裝
基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
基于殘差學(xué)習(xí)的自適應(yīng)無(wú)人機(jī)目標(biāo)跟蹤算法
基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
從濾波器理解卷積
電子制作(2019年11期)2019-07-04 00:34:38
基于傅里葉域卷積表示的目標(biāo)跟蹤算法
現(xiàn)在可以入手的mina風(fēng)高性價(jià)比服裝
服裝家紡個(gè)股表現(xiàn)
平穩(wěn)自相關(guān)過(guò)程的殘差累積和控制圖
河南科技(2015年8期)2015-03-11 16:23:52
五台县| 建昌县| 揭东县| 惠东县| 五大连池市| 黄山市| 姜堰市| 克拉玛依市| 安西县| 惠东县| 辉南县| 工布江达县| 桓台县| 库伦旗| 应城市| 宁乡县| 峨眉山市| 晋城| 宁德市| 江西省| 安远县| 苏州市| 鄂托克旗| 海盐县| 延庆县| 竹北市| 汉源县| 长汀县| 阿图什市| 墨脱县| 罗定市| 桦南县| 南华县| 开平市| 哈巴河县| 郸城县| 尼勒克县| 凤台县| 上林县| 贺州市| 新蔡县|