魯亞男 魯林溪 杜東舫
摘要 隨著社交網(wǎng)絡(luò)和社會(huì)標(biāo)簽系統(tǒng)的飛速發(fā)展,新的標(biāo)簽和概念不斷涌現(xiàn)。而對(duì)于圖像分類任務(wù)而言,傳統(tǒng)的機(jī)器學(xué)習(xí)方法通常需要大量的有標(biāo)記數(shù)據(jù)才能訓(xùn)練出有效的模型,因此如何合理使用這些新出現(xiàn)的沒有標(biāo)記信息的標(biāo)簽和概念對(duì)目標(biāo)圖像進(jìn)行有效分類成為機(jī)器學(xué)習(xí)中迫切需要解決的問題。本文通過借鑒自編碼器的結(jié)構(gòu),提出了一個(gè)同時(shí)考慮正向投影和反向投影的新模型來解決零樣本學(xué)習(xí)在圖像分類中的應(yīng)用。
【關(guān)鍵詞】零樣本學(xué)習(xí) 自編碼器 圖像分類
1 引言
傳統(tǒng)的圖像分類任務(wù)旨在將測(cè)試圖像分類到確定的標(biāo)簽集中,但隨著社交網(wǎng)絡(luò)和社會(huì)標(biāo)簽系統(tǒng)的飛速發(fā)展,新的標(biāo)簽和概念不斷涌現(xiàn),隨之而來的是人們使用這些新標(biāo)簽對(duì)圖像進(jìn)行標(biāo)記的需求。而已有的監(jiān)督學(xué)習(xí)方法需要大量的標(biāo)記信息才能進(jìn)行有效分類,因此不能適用于這種沒有標(biāo)記信息的情況,而無監(jiān)督學(xué)習(xí)的方法雖然可行,但卻不能充分利用已有的相關(guān)領(lǐng)域中的信息來提高目標(biāo)領(lǐng)域中的分類性能。針對(duì)這種情況,零樣本學(xué)習(xí)應(yīng)運(yùn)而生。
在零樣本學(xué)習(xí)中,源領(lǐng)域和目標(biāo)領(lǐng)域含有不同的標(biāo)簽集,并且對(duì)于目標(biāo)領(lǐng)域中的標(biāo)簽集沒有有標(biāo)記的訓(xùn)練樣本可用。因此,零樣本學(xué)習(xí)的目標(biāo)主要是通過將從有充足訓(xùn)練樣本的源領(lǐng)域中的己知類中學(xué)到的知識(shí)有效地遷移到目標(biāo)領(lǐng)域中,以此來為目標(biāo)領(lǐng)域中的在訓(xùn)練過程中沒有出現(xiàn)過的新類構(gòu)建有效的分類模型。本文通過借鑒自編碼器的結(jié)構(gòu),將會(huì)給出一個(gè)采用了編碼.解碼框架的新的零樣本學(xué)習(xí)方法,并且使用標(biāo)準(zhǔn)的零樣本學(xué)習(xí)的數(shù)據(jù)集來驗(yàn)證提出的算法的有效性。
2 符號(hào)定義與說明
4 實(shí)驗(yàn)分析
4.1 數(shù)據(jù)集與實(shí)驗(yàn)設(shè)置
本文采用4個(gè)標(biāo)準(zhǔn)的零樣本學(xué)習(xí)數(shù)據(jù)集(aPY、AwA、SUN和CUB)進(jìn)行實(shí)驗(yàn),確保在實(shí)驗(yàn)過程中訓(xùn)練類和測(cè)試類是不相交的。然后選擇3個(gè)當(dāng)前最優(yōu)的零樣本學(xué)習(xí)模型作為對(duì)比算法。模型參數(shù)的選擇采用交叉驗(yàn)證法,最后算法的整體性能采用它在新的目標(biāo)類上的分類準(zhǔn)確度進(jìn)行評(píng)估。
4.2 實(shí)驗(yàn)結(jié)果與分析
實(shí)驗(yàn)結(jié)果如表1所示。從中可以看出:本文提出的RevIZSL模型在4個(gè)數(shù)據(jù)集AwA、CUB、aPY和SUN上的分類準(zhǔn)確度與對(duì)比算法相比有顯著的提升。尤其是在細(xì)粒度數(shù)據(jù)集CUB上的明顯提高,表明了提出的算法具有很好的判別能力,從而更進(jìn)一步說明了RevIZSL算法的有效性。
5 結(jié)論
本文基于編碼.解碼框架提出了一個(gè)新的零樣本學(xué)習(xí)模型,并在自編碼器的共享參數(shù)思想的啟發(fā)下,在模型中結(jié)合了一個(gè)簡(jiǎn)單有效的正則化項(xiàng)。受益于編碼,解碼框架,使得RevIZSL模型具有很好的魯棒性,并避免了Hubness問題的影響。為了解決提出的模型,本文也給出了相應(yīng)的簡(jiǎn)單有效的學(xué)習(xí)算法。并通過實(shí)驗(yàn)部分與現(xiàn)有算法進(jìn)行對(duì)比,說明了提出算法的有效性。
參考文獻(xiàn)
[1] Lampert,C.H,H.Nickisch, and S.Harmeling.Learning to detect unseenobject classes by between-classattribute transfer. IEEE, 2009.
[2] Farhadi,Ali, et al. "Describing objectsby their attributes. "Computer Visionand Pattern Recognition,2009.CVPR2009.IEEEConferenceonIEEE, 2009:1778-1785.
[3] Shigeto, Yutaro, et al. "Ridgeregression,hubness,and zero-shot learning.”Joint EuropeanConference on Machine Learning andKnowledge Discovery in DatabasesSpringer, Cham, 2015: 135-151.
[4]Paredes,B. Romera, and P.Torr. "Anembarrassingly simple approach tozero-shot learning.”(2015).
[5] Fu, Yanwei, and L.Sigal. "Semi-supervised Vocabulary-InformedLearning.” Computer Vision andPattern Recognition IEEE, 2016: 5337-5346.
[6] Changpinyo, Soravit,et al."Synthesized Classifiers for Zero-Shot Learning.”(2016): 5327-5336.