国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

克服小樣本學(xué)習(xí)中災(zāi)難性遺忘方法研究

2020-07-13 12:56:12李文煜帥仁俊
計算機應(yīng)用與軟件 2020年7期
關(guān)鍵詞:基類注意力權(quán)重

李文煜 帥仁俊 郭 漢

(南京工業(yè)大學(xué)計算機科學(xué)與技術(shù)學(xué)院 江蘇 南京 211816)

0 引 言

在將深度學(xué)習(xí)應(yīng)用于更多實際問題的過程中,通常都會面臨著樣本數(shù)量不足的問題[1]。一般基于神經(jīng)網(wǎng)絡(luò)的圖像分類方法耗費了極大的計算資源,消耗了大量的時間,海量的標(biāo)記數(shù)據(jù)需要專業(yè)人員花費大量的精力、物力?;谶@些原因,小樣本學(xué)習(xí)成為一種有效降低數(shù)據(jù)成本的方法。小樣本學(xué)習(xí)就是從少量樣本中學(xué)習(xí)。以分類問題為例,每個類只有一幅或者是幾幅樣本作為訓(xùn)練集。人類是具有小樣本學(xué)習(xí)能力的[2],如:給孩子們看一幅斑馬的圖片,再讓他們從很多動物中選出斑馬是沒有問題的。但是傳統(tǒng)的深度學(xué)習(xí)方法在每個類別的樣本很少的情況下,并不能很好地處理這個問題。

神經(jīng)網(wǎng)絡(luò)是一種類似于人類大腦神經(jīng)突出聯(lián)接的結(jié)構(gòu)進(jìn)行信息處理的模型,它以一定的學(xué)習(xí)準(zhǔn)則進(jìn)行學(xué)習(xí),但不具備記憶的能力。與人工神經(jīng)網(wǎng)絡(luò)形成鮮明對比的是人類和動物,哺乳動物的神經(jīng)元之間具有突觸,這能夠保護(hù)先前學(xué)習(xí)到的知識不被遺忘。災(zāi)難性遺忘是指一旦神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)了一種新的任務(wù),就會遺忘之前學(xué)習(xí)的內(nèi)容[3]。同一個神經(jīng)網(wǎng)絡(luò)為了學(xué)習(xí)新的任務(wù),會通過改變權(quán)重使其越來越適應(yīng)新的任務(wù)。根本原因是因為不同數(shù)據(jù)集的圖像特征權(quán)重不同。當(dāng)神經(jīng)網(wǎng)絡(luò)完成了新任務(wù)的學(xué)習(xí),它對新任務(wù)會有很好的表現(xiàn),但是對于之前學(xué)習(xí)過的任務(wù),精度會大大降低。

微生物分類[4]在計算機領(lǐng)域的研究還面臨諸多挑戰(zhàn),如像素圖像數(shù)量嚴(yán)重不足,且需要大量的專業(yè)知識等。將小樣本圖像分類應(yīng)用于微生物像素級的圖像分類,只需少量的訓(xùn)練樣本就能識別,從而大大降低分類成本。

針對上述問題,本文研究了小樣本學(xué)習(xí)中克服災(zāi)難性遺忘的方法。通過最小化基于皮爾森相似度的CNN模型的分類損失[5],實現(xiàn)小樣本分類;使用注意力機制設(shè)計了小樣本分類權(quán)重生成器[6],使得新類的權(quán)重基于基類的權(quán)重,即將神經(jīng)網(wǎng)絡(luò)之前學(xué)習(xí)的內(nèi)容運用到新的內(nèi)容中,從而克服災(zāi)難性遺忘。

1 相關(guān)工作

目前有很多學(xué)者在小樣本學(xué)習(xí)和災(zāi)難性遺忘方面進(jìn)行研究。Snell等[7]提出了一種基于原型網(wǎng)絡(luò)的小樣本學(xué)習(xí)方法,原型網(wǎng)絡(luò)通過學(xué)習(xí)一個度量空間,計算每個類的原型表示的距離從而執(zhí)行分類。與其他研究小樣本學(xué)習(xí)方法相比,原型網(wǎng)絡(luò)提出了一種更加簡單的歸納偏差,這種歸納偏差能夠在有限的數(shù)據(jù)中取得較好的效果。文獻(xiàn)[8]使用了布雷格曼散度來計算測試樣例與原型之間的距離,相比歐幾里得更有效。但是這種方法只能在特定的數(shù)據(jù)集上產(chǎn)生較好的效果。Vinyals等[9]提出了使用匹配網(wǎng)絡(luò)進(jìn)行小樣本學(xué)習(xí),使用加權(quán)平均的方法計算權(quán)重值,可實現(xiàn)快速學(xué)習(xí),訓(xùn)練過程基于簡單的機器學(xué)習(xí)規(guī)則:測試和訓(xùn)練條件相匹配。但是隨著數(shù)據(jù)量的增多,計算開銷會成倍地增加。Kirkpatrick等[10]提出了彈性權(quán)重固化算法,它是一種類似于人工神經(jīng)網(wǎng)絡(luò)突觸固化的算法。當(dāng)存在要學(xué)習(xí)的新任務(wù)時,網(wǎng)絡(luò)參數(shù)通過先驗進(jìn)行調(diào)節(jié),該先驗來自先前學(xué)習(xí)過的任務(wù),可以快速調(diào)節(jié)對新任務(wù)不重要的參數(shù),而對于那些重要的參數(shù)改變的速度較慢。將小樣本學(xué)習(xí)與解決災(zāi)難性遺忘相結(jié)合,可以得到效果更好的圖片分類結(jié)果。Luo等[11]使用ANN訓(xùn)練SVM分類器,提出了兩個新特征HOG和濾波強度,并通過實驗表明這兩種特征在水生病原體微生物數(shù)據(jù)集上是最具表現(xiàn)力的特征。該方法在相關(guān)數(shù)據(jù)集上具有針對性,取得了較高的準(zhǔn)確率,但泛化性不好。

本文主要貢獻(xiàn)如下:

1) 首次將注意力機制用于圖片特征權(quán)重的生成,成功地使新類權(quán)重的生成基于基類權(quán)重,使神經(jīng)網(wǎng)絡(luò)不忘記訓(xùn)練的基類別,優(yōu)化了性能。

2) 首次將皮爾森相似度用于特征表示與分類權(quán)重之間的相似程度計算,計算效果更好。

3) 在環(huán)境微生物(EMDS)數(shù)據(jù)集上的圖像分類準(zhǔn)確度超過了先前的方法。

2 理論基礎(chǔ)和實驗架構(gòu)

2.1 符號說明

假設(shè)數(shù)據(jù)集N,訓(xùn)練集中樣本的類別稱為基類Nbase,測試集中樣本的類別稱為新類Nnovel,Nbase∩Nnovel=Φ,Nbase∪Nnovel=N。

(1)

式中:B表示Nbase中類別的總數(shù);b表示第b類;Ib表示第b類樣本的總數(shù)。

(2)

式中:N表示Nnovel中類別的總數(shù);n表示第n類;In表示第n類樣本的總數(shù)。對于輸入的新類每個類別都只有少量的訓(xùn)練樣本。

所有圖像經(jīng)過CNN提取的特征為H對應(yīng)的權(quán)重集合為W,基類經(jīng)過提取的特征為Hb(不包括新類的訓(xùn)練樣本)對應(yīng)的權(quán)重集合為Wb。在測試新類時,首先需要少量的新類樣本作為訓(xùn)練集,其經(jīng)過提取的特征為Hn,對應(yīng)的權(quán)重集合為Wn。將Hb與Hn合成為一個集合Ht(對應(yīng)的權(quán)重集合為Wt)代表所有訓(xùn)練樣本的特征集合,用hj表示新類測試樣本的特征集合。

2.2 注意力機制

本文將注意力機制與CNN識別模型相結(jié)合,能實現(xiàn)新類權(quán)重的生成基于基類權(quán)重。即允許程序間非常緩慢地、漸進(jìn)地改變,總是保留學(xué)習(xí)新任務(wù)的空間,同時這種改變不會覆蓋之前學(xué)習(xí)到的內(nèi)容。注意力機制就是指有選擇性地關(guān)注所有信息重要的那部分,同時忽略相對不重要的那部分信息。例如,人們在看視頻時,只會關(guān)注畫面中少量的重要信息,而不是每一幀都看得十分仔細(xì)。將注意力機制運用于新類權(quán)重的生成,實現(xiàn)了將先前學(xué)習(xí)的知識用于新任務(wù)的目標(biāo)。

本文使用的注意力機制依賴于Encoder-Decoder框架[12],可以理解為“編碼、存儲、解碼”這一流程,原始的Encoder-Decoder框架如圖1所示。

圖1 原始的Encoder-Decoder框架圖

對于圖像分類Encoder-Decoder框架流程如下:

1) 輸入圖片的特征向量X,對其進(jìn)行編碼;

2) Encoder輸出的中間狀態(tài)c作為Decoder的輸入;

3) Decoder輸出解碼后的內(nèi)容。

由于單一的Encoder-Decoder框架并不能選擇性地學(xué)習(xí),也不能體現(xiàn)先前重要的特征對新類別的影響,所以在其基礎(chǔ)上引入了注意力模型[13]。原理如圖2所示。

圖2 注意力機制模型原理圖

圖2中:X表示圖像的輸入值,CNN表示圖像經(jīng)過卷積神經(jīng)網(wǎng)絡(luò)提取特征,h表示經(jīng)過特征提取后的特征,α表示權(quán)重,下標(biāo)t,T表示第t時刻的第T個權(quán)重,S表示經(jīng)過Decoder的輸出狀態(tài),St表示第t時刻的輸出狀態(tài),Y表示圖片的標(biāo)簽即類型。

可以看出,經(jīng)過注意力模型,在前一層的輸出中使用權(quán)重篩選出和上下文相關(guān)的一部分,再采用加權(quán)平均的方法進(jìn)行計算,將其結(jié)果作為模型的輸出,這個輸出又作為下一層的輸入,從而讓下一層關(guān)注于局部信息。注意力機制模型很好地繼承了學(xué)習(xí)過的內(nèi)容,即第t時刻的狀態(tài)取決于本身的特征值和先前學(xué)習(xí)的狀態(tài)。

2.3 實驗架構(gòu)

整體實驗設(shè)計原理如圖3所示,其描述了權(quán)重的迭代更新過程。

圖3 實驗設(shè)計原理圖

克服災(zāi)難性遺忘的小樣本圖像分類算法的步驟如下:

1) 對基類提取特征,并生成基類權(quán)重集合Wb;

2) 對新類的測試集提取特征結(jié)合基類權(quán)重,通過小樣本權(quán)重生成器生成訓(xùn)練集權(quán)重集合Wn;

3) 新類訓(xùn)練集權(quán)重集合Wn與基類權(quán)重集合Wb構(gòu)成分類權(quán)重集合W;

受構(gòu)造運動的影響,區(qū)內(nèi)斷裂構(gòu)造相當(dāng)發(fā)育,成群成帶出現(xiàn),主要有NE向、NW向等多組。其中NE向、NW向斷裂是本區(qū)構(gòu)造的主體,規(guī)模較大,切割較深,是控礦的主導(dǎo)性構(gòu)造。

4) 新類測試集特征hj與分類權(quán)重集合W通過注意力機制小樣本權(quán)重生成器,生成測試集權(quán)重Wij;

5) 新類的測試集權(quán)重作為學(xué)到的知識,將其保存到基類權(quán)重中,為下一次學(xué)習(xí)新類提供參考。

將基于注意力機制的小樣本權(quán)重生成器與基于皮爾森相似度的CNN識別模型相結(jié)合,實現(xiàn)了小樣本的快速學(xué)習(xí)。

3 方法實現(xiàn)

3.1 基于注意力機制的小樣本權(quán)重生成器

為了能將學(xué)習(xí)過的知識運用到新類中,本文提出一種基于注意力機制的小樣本權(quán)重分類器。使用注意力機制保留先前學(xué)習(xí)到的重要權(quán)重。

圖2中,加號以下是編碼器,編碼器將輸入向量X={x1,x2,…,xT}提取特征向量hj,再轉(zhuǎn)換為中間狀態(tài)c,由特征向量的加權(quán)和計算得出:

(3)

式中:αij表示第i個類別的第j個分量的權(quán)重;hj表示特征向量。中間狀態(tài)c是引入注意力機制的關(guān)鍵所在,作用是將輸出與相關(guān)輸入聯(lián)系起來。權(quán)重αij與上一個狀態(tài)Si-1和新類的特征向量hj有關(guān)。

(4)

權(quán)重αij能夠識別輸入中的哪些特征與當(dāng)前的輸出關(guān)系比較大,可將αij理解為一個歸一化的概率值,表示輸入的第j個特征對當(dāng)前輸出的關(guān)系概率。eij的計算如下:

eij=a(Si-1,hj)

(5)

式中:a是一個對齊模型,對第i個輸出與第j個輸入的匹配程度進(jìn)行打分,它由一個前饋神經(jīng)網(wǎng)絡(luò)實現(xiàn),在訓(xùn)練時一起被訓(xùn)練。Si的計算如下:

Si=f(Si-1,Yi-1,ci)

(6)

即當(dāng)神經(jīng)網(wǎng)絡(luò)預(yù)測新類時,根據(jù)上一個狀態(tài)Si-1、輸出Yi-1以及中間狀態(tài)ci進(jìn)行的。這是一個迭代循環(huán)的過程。

同時也可用求平均值的方法計算分類權(quán)重:

(7)

最終分類權(quán)重向量是基于平均分類向量和基于注意力分類向量的加權(quán)和:

(8)

式中:δ*和δ都是可學(xué)習(xí)的向量。使用平均分類向量和注意力分類向量的線性組合能有效地改善性能。

3.2 基于皮爾森相似度的識別模型

皮爾森相似度用于計算兩個變量之間的相關(guān)程度,其值在-1與1之間。若值大于0則表明兩者是正相關(guān),且越接近1相關(guān)性越強;若值小于0則表明兩者是負(fù)相關(guān),且越接近-1相關(guān)性越弱;若值為0則表明兩者不存在相關(guān)關(guān)系。

本文將皮爾森相似度用于判別特征表示與分類權(quán)重之間的相似性程度。上述基于注意力機制的分類權(quán)重生成器為新類生成了一組分類權(quán)重向量Wij,Wij∈Wn,對應(yīng)的特征向量為hj,hj∈Hn。新類與先前學(xué)習(xí)過的基類的皮爾森相似度為:

(9)

(10)

4 實 驗

4.1 實驗環(huán)境

實驗開發(fā)環(huán)境為Python 3,使用Pytorch作為主要的機器學(xué)習(xí)框架,處理器為i5 8600K,內(nèi)存32 GB,2 TB機械硬盤,同時使用NVIDIA GTX1080Ti來實現(xiàn)GPU加速訓(xùn)練。

4.2 實驗數(shù)據(jù)

本文使用了三種數(shù)據(jù)集進(jìn)行實驗,數(shù)據(jù)集Omniglot和Mini-ImageNet用于訓(xùn)練網(wǎng)絡(luò)并作為實驗對比數(shù)據(jù),環(huán)境微生物數(shù)據(jù)集(EMDS)作為應(yīng)用數(shù)據(jù)集。Omniglot數(shù)據(jù)集包含來自50個不同字母的1 623個不同手寫字符,每個類別有20個樣本,其中30個類用于測試集,20個類用于測試集,將圖像大小調(diào)整為28×28,并將圖片旋轉(zhuǎn)90度作為新樣本以擴充樣本集。MiniImagenet數(shù)據(jù)集由48 000幅來自Imagenet數(shù)據(jù)集的圖片組成,這是一個有標(biāo)簽的圖像數(shù)據(jù)集,一共有100個類,每個類有600個樣本,其中80個類作為訓(xùn)練集,20個類作為測試集。EMDS數(shù)據(jù)集包含20類微生物像素級圖像,用ωi(1≤i≤20)表示,每個EM類有20幅圖像,共有400幅圖像,其中16個類作為訓(xùn)練集,4個類作為測試集。

4.3 圖像預(yù)處理

由于EM圖像中的大多數(shù)區(qū)域是背景,需要先對圖像進(jìn)行預(yù)處理,即提取特征圖,獲得像素級圖像中的主體部分,用于小樣本的分類。由于VGG-16使用了3個3×3卷積核來代替7×7卷積核,在提升網(wǎng)絡(luò)深度的同時減少了參數(shù)的數(shù)量,更適合EMDS數(shù)據(jù)集,所以采用VGG-16模型來實現(xiàn)。提取倒數(shù)第二個卷積層上的1 024幅特征圖,將其雙線性插值到原始圖像大小,再對經(jīng)過處理后的圖像進(jìn)行小樣本分類。其經(jīng)過特征提取后的特征圖如圖4所示。

ω1 Actionphrys ω2 Arcella ω3 Aspidisca

ω4 Codosiga ω5 Colpoda ω6 Epistylis

ω7 Euglypha ω8 Paramecium ω9 Rotifera

ω10 Vorticella ω11 Noctiluca ω12 Ceratium

ω13 Stentor ω14 Siprostomum ω15 K.Quadrala

ω16 Euglena ω17 Gonyaulax ω18 Phacus

ω19 Stylonychia ω20 Synchaeta圖4 EMDS中每個類的特征示例圖

4.4 實驗及結(jié)果分析

本文使用卷積神經(jīng)網(wǎng)絡(luò)對Omniglot和Mini-ImageNet數(shù)據(jù)集進(jìn)行圖像特征的提取,并用皮爾森相似度識別模型對圖像分類。其中包括4個卷積塊,每個卷積塊都有3×3的卷積核,再進(jìn)行批量標(biāo)準(zhǔn)化操作,經(jīng)過ReLU函數(shù)激活后通過2×2最大池化層,得到特征矩陣。設(shè)置batch_size為8,epoch_size為8 000,學(xué)習(xí)率為0.1。

實驗結(jié)果以圖像分類準(zhǔn)確率為評價指標(biāo)對本文方法進(jìn)行評估??紤]了在5-way 1-shot和5-way 5-shot(5-way表示測試集有5個類,5-shot表示每個類的測試集只選取5個樣本)這兩種情況下,遺忘前的準(zhǔn)確率和遺忘后的準(zhǔn)確率的分類精確度(95%置信區(qū)間)。

實驗將Omniglot和Mini-ImageNet數(shù)據(jù)集作為基類,EMDS數(shù)據(jù)集作為新類。使用Omniglot和Mini-ImageNet的訓(xùn)練集來訓(xùn)練網(wǎng)絡(luò)模型,再通過其測試集觀察網(wǎng)絡(luò)性能,得到圖像分類的準(zhǔn)確率,即遺忘前的準(zhǔn)確率。通過上述的模型訓(xùn)練EMDS數(shù)據(jù)集中的訓(xùn)練集,將其應(yīng)用到對應(yīng)的測試集中。此時經(jīng)過EMDS訓(xùn)練的網(wǎng)絡(luò)調(diào)整了自身的權(quán)重,更加擬合EMDS中的圖像。重新測試Omniglot和Mini-ImageNet數(shù)據(jù)集中的測試集,得到圖像分類的準(zhǔn)確率,即遺忘后的準(zhǔn)確率。與原型網(wǎng)絡(luò)(Proto network)、匹配網(wǎng)絡(luò)(Match network)、基于領(lǐng)域分量分析(NCA)[14]、MAML[15]以及Neural Statistician(NS)[16]方法的實驗結(jié)果進(jìn)行了對比,如表1、表2所示??梢钥闯觯瑧?yīng)用本文提出的克服災(zāi)難性遺忘的小樣本學(xué)習(xí)方法,即使EMDS數(shù)據(jù)集中的樣本數(shù)量很少,但是仍可以在其測試集上取得較高的分類準(zhǔn)確度。

表2 MiniImagenet數(shù)據(jù)集不同方法實驗結(jié)果對比表

表1是Omniglot數(shù)據(jù)集上的實驗結(jié)果。可以看出在訓(xùn)練EMDS數(shù)據(jù)集之前,基于原型網(wǎng)絡(luò)、匹配網(wǎng)絡(luò)、Neural Statistician、MAML方法的實驗結(jié)果精度都能達(dá)到97%以上,在5-way 5-shot的條件下精度甚至能達(dá)到99%以上。然而在經(jīng)過EMDS的小樣本學(xué)習(xí)之后,各個方法的準(zhǔn)確度出現(xiàn)了明顯下降。本文方法遺忘后的準(zhǔn)確率并沒有下降,甚至在5-way 1-shot的條件下,遺忘后的準(zhǔn)確率高于遺忘前的準(zhǔn)確率。原因在于注意力機制結(jié)合了訓(xùn)練數(shù)據(jù)集與新樣本的特征,通過小樣本學(xué)習(xí)新數(shù)據(jù)集,神經(jīng)網(wǎng)絡(luò)并不會遺忘之前學(xué)習(xí)的“經(jīng)驗”。

表2是Mini-ImageNet數(shù)據(jù)集上的實驗結(jié)果。根據(jù)表2所示,在訓(xùn)練新樣本之前,基于原型網(wǎng)絡(luò)、匹配網(wǎng)絡(luò)、NCA、MAML方法的實驗結(jié)果在5-way 1-shot條件下準(zhǔn)確率最高,為54.44%,且在5-way 1-shot和5-way 5-shot這兩種情況下遺忘后的精度都低于遺忘前的精度,平均下降了6%,表明先前的方法為了在新類上取得更好的效果,一定程度上舍棄了已經(jīng)學(xué)習(xí)到的知識。這是由于原型網(wǎng)絡(luò)在學(xué)習(xí)新的類別時,通過改變網(wǎng)絡(luò)的參數(shù)使網(wǎng)絡(luò)更適合新類的分類,而沒有考慮到網(wǎng)絡(luò)是否適合基類。而本文方法是基于注意力機制來生成權(quán)重,新類權(quán)重的生成基于先前學(xué)習(xí)過的知識,能夠保證適用于新類的參數(shù)同樣適合基類,從而在基類上也有很好的表現(xiàn)。可以看出,本文方法在Mini-ImageNet數(shù)據(jù)集上達(dá)到了70%以上的精確度,即使在新樣本訓(xùn)練后,準(zhǔn)確度仍高于其他方法。

基于原型網(wǎng)絡(luò)、匹配網(wǎng)絡(luò)、NCA、MAML方法在5-way 5-shot條件下對新類分類準(zhǔn)確度如圖5所示。本文方法在5-way 5-shot條件下,對新類的分類準(zhǔn)確率達(dá)到了70%,高于其他方法,并且新類的分類準(zhǔn)確率沒有降低,達(dá)到74%。從中可以更直觀地看出,本文方法與其他方法相比具有更高的精確度,且克服了災(zāi)難性遺忘問題。

圖5 5-way 5-shot不同方法實驗準(zhǔn)確度圖

EMDS數(shù)據(jù)集不同方法實驗結(jié)果對比如表3所示,通過應(yīng)用訓(xùn)練好的模型,采用本文提出的方法,準(zhǔn)確度達(dá)到了76%,普遍高于其他方法。并且相比5-way 1-shot,在5-way 5-shot條件下,實驗準(zhǔn)確度得到了明顯的提升。由此得出以下結(jié)論:本文方法在分類精度方面明顯優(yōu)于其他方法。通過不斷地訓(xùn)練新數(shù)據(jù),實驗準(zhǔn)確度隨樣本的增加而增高,并且再重新測試基類數(shù)據(jù)時不會出現(xiàn)災(zāi)難性遺忘問題。

表3 EMDS數(shù)據(jù)集不同方法實驗結(jié)果對比表

本文方法在一定程度上提高了網(wǎng)絡(luò)的性能,原因是網(wǎng)絡(luò)在學(xué)習(xí)新類時只需要1個或是5個樣本,大大減少了訓(xùn)練時間。由于運用了基于注意力機制的小樣本權(quán)重生成器,新類的分類結(jié)果并沒有因為訓(xùn)練樣本的減少而降低分類準(zhǔn)確度,且新樣本權(quán)重的生成基于基類,所以網(wǎng)絡(luò)在學(xué)習(xí)了不同分布的數(shù)據(jù)之后,對之前學(xué)習(xí)的數(shù)據(jù)仍有較高的分類準(zhǔn)確度。本文方法具有更好的魯棒性,泛化能力更突出,為小樣本學(xué)習(xí)提供了一個較好的解決方案。

5 結(jié) 語

本文提出了一種克服災(zāi)難性遺忘的小樣本學(xué)習(xí)方法,設(shè)計了基于注意力機制的小樣本權(quán)重生成器,用基于皮爾森相似度的CNN識別模型進(jìn)行分類。將注意力機制運用于新類權(quán)重的生成,有效地解決了災(zāi)難性遺忘問題,使新類權(quán)重的生成基于基類的權(quán)重。并與不同的方法通過實驗對比圖片分類準(zhǔn)確度,結(jié)果表明:本文方法在相同的數(shù)據(jù)集上有更好的分類效果,并且在提高新類分類準(zhǔn)確度的同時,沒有犧牲基類的分類準(zhǔn)確度。下一步的工作是使用元學(xué)習(xí)的方法結(jié)合注意力機制生成分類權(quán)重,進(jìn)一步提高圖像分類準(zhǔn)確度。

猜你喜歡
基類注意力權(quán)重
讓注意力“飛”回來
基于C#面向?qū)ο蟪绦蛟O(shè)計的封裝、繼承和多態(tài)分析
權(quán)重常思“浮名輕”
為黨督政勤履職 代民行權(quán)重?fù)?dān)當(dāng)
基于公約式權(quán)重的截短線性分組碼盲識別方法
“揚眼”APP:讓注意力“變現(xiàn)”
傳媒評論(2017年3期)2017-06-13 09:18:10
A Beautiful Way Of Looking At Things
空戰(zhàn)游戲設(shè)計實例
一種基于用戶興趣的STC改進(jìn)算法
虛機制在《面向?qū)ο蟪绦蛟O(shè)計C++》中的教學(xué)方法研究
汉寿县| 连山| 霞浦县| 郧西县| 姜堰市| 芦溪县| 和静县| 周口市| 五原县| 长寿区| 和林格尔县| 聂拉木县| 旌德县| 邻水| 承德市| 海盐县| 咸宁市| 灵台县| 灌云县| 余姚市| 微博| 施秉县| 高唐县| 毕节市| 浦江县| 凉山| 遵义市| 华安县| 台中市| 理塘县| 漠河县| 陇川县| 屯昌县| 都安| 莱芜市| 禄劝| 定襄县| 诸城市| 孝感市| 永胜县| 阳朔县|