国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于多重卷積神經(jīng)網(wǎng)絡(luò)跨數(shù)據(jù)集圖像分類

2018-11-17 01:26:50劉鑫童劉立波
關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)分類

劉鑫童,劉立波,張 鵬

(寧夏大學(xué) 信息工程學(xué)院,寧夏 銀川 750021)

0 引 言

利用少量的有標(biāo)簽圖像訓(xùn)練樣本,構(gòu)建一個(gè)合理準(zhǔn)確的模型對(duì)來(lái)自不同數(shù)據(jù)集的測(cè)試樣本進(jìn)行預(yù)測(cè)分類,是跨數(shù)據(jù)集圖像分類工作主要解決的問(wèn)題。傳統(tǒng)的分類學(xué)習(xí)必須使用大量可利用的訓(xùn)練樣本,還要保證訓(xùn)練樣本與測(cè)試樣本服從同一分布[1]??鐢?shù)據(jù)集分類學(xué)習(xí)如果無(wú)法滿足這一條件約束,容易造成訓(xùn)練圖像過(guò)期、人工圖像標(biāo)記任務(wù)繁重、訓(xùn)練模型失效和評(píng)估分類不準(zhǔn)確等問(wèn)題。通過(guò)研究跨數(shù)據(jù)集共同類圖像的內(nèi)在聯(lián)系和共同特征,能夠減少圖像標(biāo)記和提高分類模型利用率。對(duì)不同數(shù)據(jù)集進(jìn)行有效特征提取是研究的關(guān)鍵[2]。

當(dāng)前的跨數(shù)據(jù)集分類方法主要包括特征選擇和特征轉(zhuǎn)換兩類。特征選擇是將訓(xùn)練樣本和測(cè)試樣本中的共有特征直接從中分解出來(lái)[3],更新設(shè)置樣本特征在整個(gè)分類模型中權(quán)重。Herndon N等[4]構(gòu)建了一種在域適應(yīng)設(shè)置中基于生物序列建立的樸素貝葉斯分類器算法,結(jié)合任何可用標(biāo)記數(shù)據(jù)和未標(biāo)記的目標(biāo)數(shù)據(jù),減輕監(jiān)督分類器手動(dòng)標(biāo)記大量序列的需要。Zhu Y等[5]提出了一種異構(gòu)數(shù)據(jù)集學(xué)習(xí)方法,將每一張圖像上的Tag標(biāo)簽作為連接多個(gè)數(shù)據(jù)集合的紐帶。朱廣堂等[6]充分考慮跨數(shù)據(jù)集圖像數(shù)據(jù)分布的方差,對(duì)訓(xùn)練樣本方差最大化約束,結(jié)合L1范數(shù)正則化的Logistic回歸函數(shù),保證高維度圖像特征提取。特征轉(zhuǎn)換是通過(guò)高維度特征到低維度特征的非線性映射,實(shí)現(xiàn)訓(xùn)練樣本和測(cè)試樣本盡可能達(dá)到相同分布。Yeh Y等[7]先將跨數(shù)據(jù)集問(wèn)題通過(guò)典型相關(guān)分析方法(CCA)轉(zhuǎn)換為相關(guān)子空間問(wèn)題,再用核典型相關(guān)分析方法(KCCA)提取相關(guān)子空間的非線性特征。趙鵬等[8]通過(guò)核主成分分析(KPCA)將樣本映射到跨數(shù)據(jù)域子空間,利用最小化最大均值差異(MMD)減小條件和邊緣概率分布差異,并分別設(shè)置權(quán)重調(diào)節(jié)因子。Pan S J等[9]通過(guò)轉(zhuǎn)換成分分析(TCA)的方法將圖像數(shù)據(jù)映射到分布近似相同的子空間,在子空間中使用無(wú)監(jiān)督和半監(jiān)督特征提取方法,達(dá)到處理大型數(shù)據(jù)集分類的要求。

相關(guān)研究在跨數(shù)據(jù)集分類領(lǐng)域取得了一定的進(jìn)展,但是仍然存在一些問(wèn)題。特征選擇的方法預(yù)處理過(guò)程復(fù)雜,圖像依賴大量人工標(biāo)記,分類器適應(yīng)性較差;特征轉(zhuǎn)換的方法不能充分考慮數(shù)據(jù)分布差異,子空間內(nèi)很難實(shí)現(xiàn)參數(shù)共享,而且數(shù)據(jù)降維難以解決過(guò)擬合的問(wèn)題,因此影響分類效果。

本文嘗試采用深度學(xué)習(xí)網(wǎng)絡(luò)模型解決跨數(shù)據(jù)集圖像分類問(wèn)題,提出一種基于多重卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的圖像分類方法。在簡(jiǎn)單預(yù)處理后采用多重卷積層增強(qiáng)了特征提取能力,通過(guò)Softmax函數(shù)提高了分類器適應(yīng)能力,Dropout方法和L2范數(shù)正則化有效減少過(guò)擬合,并實(shí)現(xiàn)網(wǎng)絡(luò)參數(shù)共享提高了分類模型的整體穩(wěn)定性。本文利用深度學(xué)習(xí)思想,避免了繁重的圖像標(biāo)注工作,通過(guò)多重卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)地從不同分布的數(shù)據(jù)集圖像中提取特征,采用經(jīng)典的公共數(shù)據(jù)集進(jìn)行測(cè)試,表明該方法具有特征提取能力更強(qiáng),平均準(zhǔn)確率更高的優(yōu)點(diǎn)。

1 多重卷積神經(jīng)網(wǎng)絡(luò)的構(gòu)建

卷積神經(jīng)網(wǎng)絡(luò)是一種源于人工神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)方法,與一般神經(jīng)網(wǎng)絡(luò)相比較為高效。其優(yōu)點(diǎn)在于圖像分類過(guò)程預(yù)處理工作較少,避免了人工設(shè)計(jì)和提取特征,具有較好的自學(xué)習(xí)能力和很強(qiáng)的自適應(yīng)性,已廣泛應(yīng)用于多個(gè)研究領(lǐng)域[10]。本文充分考慮跨數(shù)據(jù)集圖像分類特點(diǎn),設(shè)計(jì)了一種多重卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),首先在最初的卷積層提取低級(jí)特征,隨后采樣統(tǒng)計(jì)后通過(guò)連續(xù)卷積層得到高級(jí)特征,繼而選取更適合的激活函數(shù),使得優(yōu)化網(wǎng)絡(luò)在復(fù)雜跨數(shù)據(jù)集情況下具有更好的泛化能力。

如圖1所示,本文神經(jīng)網(wǎng)絡(luò)模型包括5個(gè)卷積層(C1-C5)和2個(gè)池化層(S1-S2),原始圖像尺寸大小為32*32,由輸入層進(jìn)入網(wǎng)絡(luò)模型,由輸出層輸出10類中概率最大的類別,對(duì)分類進(jìn)行預(yù)測(cè)。由于該模型采用局部連接和權(quán)值共享,保持了網(wǎng)絡(luò)的深層結(jié)構(gòu),因此模型較容易訓(xùn)練且具有良好的泛化能力。在本文提出的多重卷積神經(jīng)網(wǎng)絡(luò)中,圖像的特征提取和采樣統(tǒng)計(jì)分別由多個(gè)卷積層和池化層自動(dòng)完成。

圖1 多重卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

1.1 多重卷積層

卷積層是卷積神經(jīng)網(wǎng)絡(luò)的核心,在特征提取中起到關(guān)鍵作用。在多重卷積神經(jīng)網(wǎng)絡(luò)中,卷積層的圖像單元由若干個(gè)具有相同尺寸的特征圖組成,內(nèi)部每個(gè)單元都通過(guò)一個(gè)被稱為卷積核的矩陣進(jìn)行卷積計(jì)算操作。本文對(duì)第一個(gè)卷積層(C1)設(shè)置大小為5*5的卷積核,對(duì)其它4個(gè)卷積層(C2-C5)設(shè)置大小為7*7的卷積核。由卷積核進(jìn)行卷積操作后,需要經(jīng)過(guò)一個(gè)激活函數(shù)才能得到輸出特征圖。激活函數(shù)能夠提高網(wǎng)絡(luò)的特征學(xué)習(xí)能力[11]。常用的卷積層激活函數(shù)有Sigmoid函數(shù)和ReLUs函數(shù)[12],其數(shù)學(xué)表達(dá)式分別為

Sigmoid函數(shù):f(x)=(1+e-x)-1

(1)

ReLUs函數(shù):f(x)=max(0,x)

(2)

函數(shù)曲線如圖2所示。從圖2可以看出,相比于Sigmoid函數(shù)這種飽和非線性函數(shù),ReLUs函數(shù)的優(yōu)點(diǎn)是梯度不飽和。如果x<0,f(x)=0,如果x>0,f(x)=x,強(qiáng)制將小于零的數(shù)據(jù)置為零,因而卷積神經(jīng)網(wǎng)絡(luò)具備稀疏表達(dá)的能力。這就能夠在反向傳播過(guò)程中減輕梯度彌散,使得網(wǎng)絡(luò)前幾層參數(shù)可以得到很快更新。同時(shí),Sigmoid函數(shù)需要指數(shù)級(jí)運(yùn)算,而ReLUs在計(jì)算激活值時(shí)只需設(shè)置閾值,使得運(yùn)算過(guò)程得到簡(jiǎn)化。由于采用ReLUs函數(shù)作為非線性激活函數(shù)使得深度網(wǎng)絡(luò)學(xué)習(xí)不需要預(yù)訓(xùn)練,更適合跨數(shù)據(jù)集分類情況,加快了計(jì)算速度。因此,本文設(shè)計(jì)的多重卷積神經(jīng)網(wǎng)絡(luò)中,所有卷積層的激活函數(shù)都使用ReLUs函數(shù)。

圖2 兩類激活函數(shù)圖像

C1層的輸入為

(3)

其中,w為卷積核,*表示2維卷積,x1-xi為特征圖的輸入,bj為偏置,l為卷積層數(shù),f(·)表示激活函數(shù)ReLUs函數(shù)。則輸出為

(4)

由于C1層的卷積核大小為5*5,因而每個(gè)神經(jīng)元與輸入圖像有5*5*3的連接區(qū)域,即每個(gè)神經(jīng)元會(huì)產(chǎn)生75個(gè)權(quán)值參數(shù)。又因?yàn)橛?4個(gè)32*32*1的特征圖,連接特征圖的權(quán)值參數(shù)為65 536個(gè),因此共產(chǎn)生75*65 536=4 915 200個(gè)權(quán)值參數(shù)。本文為降低模型復(fù)雜度和硬件設(shè)備資源消耗,在訓(xùn)練和測(cè)試中采用權(quán)值共享的連接方式。每個(gè)特征圖上的參數(shù)和閾值均實(shí)現(xiàn)共享,則卷積操作只需要75*64+64=4864個(gè)權(quán)值參數(shù)。

C1層卷積輸出得到的特征圖作為C2層和C3層兩個(gè)卷積的輸入。在C1層后,分別采用兩個(gè)連續(xù)卷積層能有效增強(qiáng)模型的抽象能力。C2層和C3層卷積后輸出的特征圖表達(dá)式為

(5)

C2-C5層卷積層的輸入是通過(guò)一個(gè)可以學(xué)習(xí)的7*7大小卷積核與前一層的一個(gè)小鄰域內(nèi)神經(jīng)單元相連接,并提取出該領(lǐng)域局部特征,增加了網(wǎng)絡(luò)的非線性能力。在提取特征時(shí),同一個(gè)特征圖使用相同的卷積核。C4層和C5層卷積后輸出的特征圖表達(dá)式為

(6)

在對(duì)跨數(shù)據(jù)集圖像分類實(shí)驗(yàn)時(shí),容易出現(xiàn)過(guò)擬合,即訓(xùn)練樣本輸出與真實(shí)結(jié)果相同,但是測(cè)試樣本輸出與真實(shí)結(jié)果產(chǎn)生極大差異。為了解決過(guò)擬合問(wèn)題,增強(qiáng)模型的訓(xùn)練能力和適應(yīng)性,本文分別在兩個(gè)卷積層之間采用Dropout方法。Dropout是將卷積層神經(jīng)元節(jié)點(diǎn)的輸出以概率為0.5的方法停止權(quán)重設(shè)置,使得每次權(quán)值的更新節(jié)點(diǎn)不再固定不變,而是以更加隨機(jī)的方式更新神經(jīng)元,暫時(shí)停止一部分神經(jīng)元節(jié)點(diǎn)的權(quán)重設(shè)置,增強(qiáng)了網(wǎng)絡(luò)的泛化能力,有效防止過(guò)擬合,使網(wǎng)絡(luò)模型訓(xùn)練出的結(jié)果更具一般性。

1.2 池化層

輸入圖像通過(guò)兩組連續(xù)卷積層進(jìn)行特征精化并取均值,進(jìn)而在下一個(gè)池化層降維,完成對(duì)特征的采樣統(tǒng)計(jì)。本文將C4層和C5層的兩個(gè)卷積操作輸出取均值后,作為池化層的輸入。池化層將每張輸入特征圖分成不重疊的矩形區(qū)域,本文采用2*2大小的區(qū)域。池化層通常采用平均池化和最大池化兩種方法,對(duì)圖像區(qū)域取平均值和最大值來(lái)描述卷積特征。與平均池化相比,最大池化能夠降低卷積層參數(shù)誤差造成的訓(xùn)練實(shí)驗(yàn)偏移誤差,更好地保留圖像特征,因此本文實(shí)驗(yàn)池化層采用最大池化方法。在池化層中,特征圖個(gè)數(shù)保持不變,大小減小為原來(lái)的一半。池化層的數(shù)學(xué)表達(dá)式為

(7)

其中,p(·)為最大池化函數(shù),β為權(quán)重系數(shù)。最大池化操作降低了上層的計(jì)算復(fù)雜度,并具有一定的平移不變性。

2 正則化損失函數(shù)的網(wǎng)絡(luò)模型

通過(guò)多重卷積層和池化層的特征提取和特征采樣,將在全連接層產(chǎn)生600維的特征向量,最終利用輸出層的Softmax損失函數(shù)進(jìn)行分類。

2.1 Softmax損失函數(shù)

logistic主要針對(duì)二分類問(wèn)題,Softmax函數(shù)[13]對(duì)logistic進(jìn)行改進(jìn),可以解決多分類問(wèn)題。假設(shè)m個(gè)輸入特征x(i)和樣本標(biāo)簽y(i)記為

{(x(1),y(1)),(x(1),y(1)),…,(x(m),y(m))}

則Softmax回歸的損失函數(shù)如下

(8)

其中

k為樣本標(biāo)簽的種類數(shù),θ為模型參數(shù),hθ(x(i))為假設(shè)函數(shù),用作預(yù)測(cè)樣本x(i)屬于每一類別的概率。通過(guò)最小化Softmax損失函數(shù)可以求得θ的數(shù)值,從而估計(jì)一個(gè)新樣本的類別。Softmax損失函數(shù)實(shí)質(zhì)是計(jì)算所有值用e的n次方,全部求和后分別計(jì)算每個(gè)值占的比率。由于分類的結(jié)果互斥,使得計(jì)算出的標(biāo)簽值唯一,因此保證了跨數(shù)據(jù)集圖像中的所有樣本圖像只能歸屬一類。

2.2 L2范數(shù)正則化

數(shù)據(jù)中極小的波動(dòng)往往會(huì)引起較大的損失函數(shù)值變化,會(huì)造成模型過(guò)擬合,影響預(yù)測(cè)性能。而L2范數(shù)能夠通過(guò)壓縮回歸系數(shù)得到較小的模型參數(shù)值,從而避免過(guò)擬合。L2范數(shù)是指所有權(quán)重的平方和除以樣本個(gè)數(shù),再乘以正則項(xiàng)系數(shù)。

引入L2范數(shù)的Softmax損失函數(shù)如下

(9)

其中

3 實(shí)驗(yàn)結(jié)果及分析

本文所有實(shí)驗(yàn)都是在同一臺(tái)機(jī)器上進(jìn)行,系統(tǒng)為Ubuntu 16.04,編程語(yǔ)言為Python 2.7;Intel Core i5-4200(2.79 GHz),內(nèi)存8 G,顯卡為Nvidia Geforce GTx950,顯存為4 GB;操作平臺(tái)為Tensorflow深度學(xué)習(xí)系統(tǒng)框架。

3.1 數(shù)據(jù)集介紹

在研究跨數(shù)據(jù)集分類問(wèn)題時(shí),采用的經(jīng)典公共數(shù)據(jù)集有Caltech256、Amazon、Webcam和Dslr[14]。Caltech256數(shù)據(jù)集囊括不同類別的圖像,其圖像具有視角各異和背景復(fù)雜的特點(diǎn),被大量應(yīng)用于圖像識(shí)別和分類實(shí)驗(yàn)的訓(xùn)練和測(cè)試;Amazon數(shù)據(jù)集中所有圖像均來(lái)自于購(gòu)物網(wǎng)站Amazon商城中的商品展示圖像;Webcam數(shù)據(jù)集中的低像素圖像是由網(wǎng)絡(luò)攝像頭拍攝生活實(shí)物獲得的;Dslr數(shù)據(jù)集中的高像素圖像來(lái)自數(shù)碼單反相機(jī),本文選取以上4個(gè)具有不同背景和拍攝環(huán)境的數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)訓(xùn)練和測(cè)試,以保證實(shí)驗(yàn)結(jié)論的準(zhǔn)確性和普遍性。本文選取所有4個(gè)數(shù)據(jù)集的共同類為數(shù)據(jù)樣本。這10類共同類圖像分別是:雙肩背包,山地自行車,計(jì)算器,頭戴式耳機(jī),電腦鍵盤,筆記本,電腦顯示器,鼠標(biāo),咖啡杯,投影機(jī)。其中山地自行車類在4個(gè)數(shù)據(jù)集下的部分抽樣圖像,如圖3所示。從圖3看出,同一類圖像在不同數(shù)據(jù)集中存在較大差異。

圖3 不同數(shù)據(jù)集共同類圖像對(duì)比

3.2 圖像預(yù)處理

本文將原圖像轉(zhuǎn)換為灰度矩陣后,利用中值濾波消除圖像噪聲,濾波器窗口大小為2*2。由于部分圖像經(jīng)過(guò)濾波器后顯示為幾乎全白或呈現(xiàn)無(wú)規(guī)律的黑色點(diǎn)狀物,因此本實(shí)驗(yàn)刪除一些無(wú)意義圖像,又通過(guò)隨機(jī)裁剪和旋轉(zhuǎn)對(duì)數(shù)據(jù)擴(kuò)增。實(shí)驗(yàn)中用到的圖像數(shù)量見(jiàn)表1。原始圖像經(jīng)過(guò)中值濾波等預(yù)處理之后,才能進(jìn)行訓(xùn)練或評(píng)估。同時(shí),為增加數(shù)據(jù)集大小以及增強(qiáng)訓(xùn)練結(jié)果的普遍性,對(duì)圖像隨機(jī)翻轉(zhuǎn)和亮度及對(duì)比度變換。

表1 預(yù)處理前后圖像數(shù)量對(duì)比

部分原數(shù)據(jù)集圖像由預(yù)處理到多重卷積神經(jīng)網(wǎng)絡(luò)輸入特征圖的變化過(guò)程,如圖4所示。從圖4可以看出,原始圖像經(jīng)過(guò)中值濾波預(yù)處理后能去除噪聲,本文提出的網(wǎng)絡(luò)模型能有效提取輸入特征圖。

3.3 結(jié)果分析

首先,本文基于多重卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的圖像分類方法,從Caltech256、Amazon、Webcam和Dslr4個(gè)數(shù)據(jù)集中依次選擇兩個(gè)不同數(shù)據(jù)集分別作為訓(xùn)練集和測(cè)試集,形成6對(duì)組合進(jìn)行對(duì)比實(shí)驗(yàn),共進(jìn)行了12組實(shí)驗(yàn)。用TensorBoard對(duì)所有實(shí)驗(yàn)記錄了訓(xùn)練多重卷積神經(jīng)網(wǎng)絡(luò)迭代15 000次的loss值曲線。圖5展示了Caltech256分別與其它3個(gè)數(shù)據(jù)集跨數(shù)據(jù)集實(shí)驗(yàn)結(jié)果,“-”前面表示訓(xùn)練集,后面表示測(cè)試集,橫坐標(biāo)為訓(xùn)練次數(shù),縱坐標(biāo)為loss值。通過(guò)圖5觀察其loss值的變化曲線,可以看出該模型收斂速度較快。同時(shí),在訓(xùn)練超過(guò)7000次后,所有實(shí)驗(yàn)的loss值均降到0.5以下,并維持在0.2-0.3之間,分類器適應(yīng)能力較好,收斂速度和收斂效果較好;同時(shí),多重卷積神經(jīng)網(wǎng)絡(luò)參數(shù)共享可以降低網(wǎng)絡(luò)復(fù)雜度,采用Dropout方法和L2范數(shù)正則化有效避免網(wǎng)絡(luò)訓(xùn)練過(guò)擬合,特征提取能力更好。

圖4 圖像預(yù)處理過(guò)程

其次,為驗(yàn)證本文多重卷積神經(jīng)網(wǎng)絡(luò)的分類效果更具優(yōu)勢(shì),實(shí)驗(yàn)中采用了轉(zhuǎn)換特征學(xué)習(xí)方法(JDA)[15]、轉(zhuǎn)換主成分分析方法(TCA)、核主成分分析的方法(KPCA)及本文方法共4種方法在Caltech256、Amazon、Webcam和Dslr這4個(gè)數(shù)據(jù)集中進(jìn)行跨數(shù)據(jù)集圖像對(duì)比測(cè)試分類實(shí)驗(yàn),準(zhǔn)確率對(duì)比結(jié)果見(jiàn)表2。由表2中數(shù)據(jù)可知,“Caltech256-Amazon”、“Caltech256-Webcam”、“Caltech256-Dslr”、“Amazon-Caltech256”、“Amazon-Webcam”、“Amazon-Dslr”、“Webcam-Caltech256”、“Dslr-Amazon”、“Dslr-Caltech256”這9組對(duì)比實(shí)驗(yàn)中,本文方法均比傳統(tǒng)的JDA方法、TCA方法、KPCA方法更高。

圖5 訓(xùn)練過(guò)程loss曲線

表2 幾種方法準(zhǔn)確率對(duì)比結(jié)果

其中,“Caltech256-Amazon”這組實(shí)驗(yàn)本文方法比傳統(tǒng)JDA方法的準(zhǔn)確率提高明顯,從44.78%提高到74.23%,提高了29.45%。綜合所有12組對(duì)比實(shí)驗(yàn)結(jié)果,與傳統(tǒng)JDA方法相比,本文方法的平均準(zhǔn)確率從46.31%提高到60.11%,提高了13.80%;本文方法比TCA方法和KPCA方法也分別提高了12.08%和10.63%。從表2可以看出,由于利用深度學(xué)習(xí)模型,采用多重卷積層增強(qiáng)了特征提取能力,充分考慮跨數(shù)據(jù)集圖像差異,提高了分類器適應(yīng)能力,因此分類的平均準(zhǔn)確率較高。

最后,為驗(yàn)證ReLUs函數(shù)比Sigmoid函數(shù)更適合做激活函數(shù),本文又在相同條件下使用不同激活函數(shù)進(jìn)行對(duì)比實(shí)驗(yàn)。由于訓(xùn)練迭代7000次后loss曲線趨于平緩,因此主要分析了迭代7000次之前的情況。圖6為“Caltech256-Webcam”這組實(shí)驗(yàn)對(duì)比結(jié)果。由圖6可以看出,在訓(xùn)練過(guò)程中,采用ReLUs函數(shù)作為非線性激活函數(shù)的一組實(shí)驗(yàn)loss值明顯下降更快。在訓(xùn)練1000次到4000次之間,采用ReLUs函數(shù)實(shí)驗(yàn)loss值從5.5降到0.5,而采用Sigmoid函數(shù)實(shí)驗(yàn)loss值從5.5降到2.5,因此,采用ReLUs函數(shù)作為激活函數(shù)收斂效果更好,有利于圖像特征提取,更適合跨數(shù)據(jù)集分類情況。

圖6 Sigmoid和ReLUs的loss曲線

4 結(jié)束語(yǔ)

針對(duì)傳統(tǒng)方法的不足,本文提出一種基于多重卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的跨數(shù)據(jù)集圖像分類方法,驗(yàn)證了深度學(xué)習(xí)網(wǎng)絡(luò)模型在解決不同數(shù)據(jù)集的圖像分類問(wèn)題中的可行性。充分利用多重卷積神經(jīng)網(wǎng)絡(luò)更好的特征提取能力和快速收斂的特性,通過(guò)在Caltech256、Amazon、Webcam和Dslr經(jīng)典數(shù)據(jù)集上對(duì)多重卷積神經(jīng)網(wǎng)絡(luò)的評(píng)估測(cè)試比較,驗(yàn)證本文方法能有效地解決跨數(shù)據(jù)集下訓(xùn)練網(wǎng)絡(luò)特征學(xué)習(xí)不完全和分類器適應(yīng)能力不佳的問(wèn)題,并獲得了更高的平均分類準(zhǔn)確率。由于使用Dropout方法和L2范數(shù)正則化能夠有效抑制多重卷積神經(jīng)網(wǎng)絡(luò)過(guò)擬合的現(xiàn)象,同時(shí)網(wǎng)絡(luò)參數(shù)共享降低了網(wǎng)絡(luò)復(fù)雜度,從而提高了分類模型的整體穩(wěn)定性。采用不飽和非線性函數(shù)ReLUs函數(shù)作為激活函數(shù),能夠使該網(wǎng)絡(luò)收斂能力提高,并使網(wǎng)絡(luò)參數(shù)自動(dòng)優(yōu)化,更好地適應(yīng)跨數(shù)據(jù)集分類的復(fù)雜情況。相比于傳統(tǒng)的分類方法,本文提出的多重卷積神經(jīng)網(wǎng)絡(luò)模型分類方法在跨數(shù)據(jù)集圖像中的特征提取能力更強(qiáng),平均分類準(zhǔn)確率更高,具有實(shí)際應(yīng)用意義。

猜你喜歡
卷積神經(jīng)網(wǎng)絡(luò)分類
基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
分類算一算
神經(jīng)網(wǎng)絡(luò)抑制無(wú)線通信干擾探究
電子制作(2019年19期)2019-11-23 08:42:00
從濾波器理解卷積
電子制作(2019年11期)2019-07-04 00:34:38
分類討論求坐標(biāo)
數(shù)據(jù)分析中的分類討論
基于傅里葉域卷積表示的目標(biāo)跟蹤算法
教你一招:數(shù)的分類
基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
洛浦县| 论坛| 钟祥市| 门头沟区| 昂仁县| 永德县| 安达市| 堆龙德庆县| 华蓥市| 马公市| 池州市| 德阳市| 乌恰县| 海兴县| 桦甸市| 珲春市| 龙川县| 德阳市| 兴业县| 青神县| 玉林市| 洛宁县| 永丰县| 宝清县| 乌鲁木齐市| 玉门市| 滕州市| 手游| 永丰县| 长宁县| 盘山县| 苍山县| 宜良县| 桦甸市| 正阳县| 巴马| 昆山市| 建宁县| 嘉定区| 通化县| 阿巴嘎旗|