吳健 賈宏宇
摘 要:傳統(tǒng)的圖像分類方法需要消耗大量的時間,且分類效果相對較差。而基于遷移學(xué)習(xí)的圖像分類方法可以較好地解決耗時長的問題。本文首先對圖像分類的研究背景進行闡述,并介紹遷移學(xué)習(xí)的基本理論。然后著重介紹基于數(shù)據(jù)分布自適應(yīng)的聯(lián)合分布自適應(yīng)算法,并將其應(yīng)用于圖像分類中,最后通過試驗驗證了該方法的有效性。
關(guān)鍵詞:圖像分類;遷移學(xué)習(xí);聯(lián)合分布
中圖分類號:TP391.9文獻標(biāo)識碼:A文章編號:1003-5168(2018)31-0020-03
Research on Image Classification Based on Transfer Learning
WU Jian1 JIA Hongyu2
(1.School of Electronic and Engineering and Automation, Jiangxi University of Science and Technology,Ganzhou Jiangxi 341000;2. School of Science, Jiangxi University of Science and Technology,Ganzhou Jiangxi 341000)
Abstract: Traditional image classification methods need a lot of time, and the classification effect is relatively poor. The image classification method based on transfer learning can solve the problem of time-consuming. Firstly, the research background of image classification was elaborated, and the basic theory of transfer learning was introduced. Then the joint distribution adaptive algorithm based on data distribution adaptive was introduced and applied to image classification. Finally, the effectiveness of this method was verified by experiments.
Keywords: image classification;transfer learning;joint distribution
遷移學(xué)習(xí)是將在某一個領(lǐng)域?qū)W習(xí)到的知識遷移到另一個領(lǐng)域,遷移的前提是這兩個領(lǐng)域要有一定的相似性。遷移學(xué)習(xí)只需要對原來訓(xùn)練的方法進行少量修改,就能達到良好的圖像分類效果。
1 遷移學(xué)習(xí)的基本理論
對于遷移學(xué)習(xí),有兩個基本概念,分別是域(Domain)和任務(wù)(Task)[1]。一個域D包括特征空間X和邊際概率分布[PX]兩個概念,其中[X=x1,…,xn]。給定原始域Ds,原始任務(wù)Ts,目標(biāo)域Dt,目標(biāo)任務(wù)Tt。遷移學(xué)習(xí)的目標(biāo)是借助原始域(Ds)和原始任務(wù)(Ts)提高目標(biāo)函數(shù)[fx]在目標(biāo)域的分類效果。遷移學(xué)習(xí)常用的類型主要包括歸納遷移學(xué)習(xí)、直推式遷移學(xué)習(xí)[2]及無監(jiān)督遷移學(xué)習(xí)[3],它們之間的主要區(qū)別是源域(Ds)與目標(biāo)域(Dt)、源任務(wù)(Ts)與目標(biāo)任務(wù)(Tt)的相同或不同所引起的。
遷移學(xué)習(xí)的基本方法包括基于樣本遷移、基于特征遷移、基于模型遷移、基于關(guān)系遷移。其中,基于特征和模型的遷移學(xué)習(xí)是研究的重點,這兩種方法通常與深度神經(jīng)網(wǎng)絡(luò)結(jié)合起來使用。
2 基于數(shù)據(jù)分布自適應(yīng)的遷移
2.1 邊緣分布自適應(yīng)
邊緣分布自適應(yīng)的主要思想是減小源域和目標(biāo)域的邊緣概率分布的距離,從而達到遷移學(xué)習(xí)的目的。邊緣分布自適應(yīng)方法是用源域概率[Pxs]和目標(biāo)域概率[Pxt]之間的距離來計算兩個領(lǐng)域之間的差異。用公式表示為:
[DISTANCEDs,Dt≈Pys|xs-Pyi|xi]? ? ? ? ? ? (1)
2.2 條件分布自適應(yīng)
條件分布自適應(yīng)就是減小源域[Ds]和目標(biāo)域[Dt]之間的條件概率分布距離,從而實現(xiàn)遷移學(xué)習(xí)的目的。使用數(shù)學(xué)方法解釋就是源域的條件概率減去目標(biāo)域的條件概率,即
[DISTANCEDs,Dt≈Pxs-Pxt]? ? ? ? ?(2)
2.3 聯(lián)合分布自適應(yīng)
聯(lián)合分布自適應(yīng)(Joint Distribution Adaptation)就是既服從條件分布自適應(yīng),又服從邊緣分布自適應(yīng),目的是減小源域和目標(biāo)域二者分布的距離,即聯(lián)合分布的距離[4]。聯(lián)合分布自適應(yīng)用公式來表示就是將源域與目標(biāo)域的概率之差的絕對值加上源域與目標(biāo)域的條件概率之差,公式為:
[DISTANCEDs,Dt≈Pxs-Pxt+Pys|xs-Pyt|xt]? ? ? (3)
3 試驗
3.1 數(shù)據(jù)集準(zhǔn)備
Caltech和Office是被廣泛采用的2個基準(zhǔn)數(shù)據(jù)集,用于評估可視化域適應(yīng)算法。表1展示了Caltech和Office的具體情況。具體來說,主要有四個域,即C(Caltech-256)、A(Amazon)、W(Webcam)和D(DSLR)。通過隨機選擇兩個不同的域作為源域和目標(biāo)域,并構(gòu)造4×3跨域?qū)ο髷?shù)據(jù)集,即CA、CW、CD、AC、AW、AD、WA、WC、WD、DC、DA和DW。
3.2 算法實現(xiàn)
聯(lián)合分布自適應(yīng)算法的實現(xiàn)主要包括三個函數(shù)。第一個是聯(lián)合分布自適應(yīng)的主函數(shù)。此函數(shù)的輸入?yún)?shù)分別是源矩陣特征[Xs]、源域標(biāo)簽向量[Ys]、目標(biāo)特征矩陣[Xt]、目標(biāo)域標(biāo)簽向量[Yt]以及選擇結(jié)構(gòu)。主函數(shù)的輸出是此算法的最終精度、每次迭代后的精度列表及變換函矩陣A。第二個函數(shù)是為求得轉(zhuǎn)換矩陣A和主函數(shù)中所需的經(jīng)過轉(zhuǎn)換后的數(shù)據(jù)矩陣Z。第三個函數(shù)是內(nèi)核矩陣函數(shù),其功能是通過輸入的內(nèi)核類型、源域和目標(biāo)域共同組成的數(shù)據(jù)矩陣及內(nèi)核的帶寬求得內(nèi)核矩陣K。在主函數(shù)中,要對轉(zhuǎn)換過的整體數(shù)據(jù)矩陣Z進行歸一化處理,以達到更高的分類性能。然后,通過Z求得源域的轉(zhuǎn)換矩陣[Zs]和目標(biāo)域的轉(zhuǎn)換矩陣[Zt]。之后,將[Zs]通過MATLAB自帶的fitcknn函數(shù)訓(xùn)練出KNN(K-nearest Neighbor Classification)模型,再將目標(biāo)域的轉(zhuǎn)換矩陣[Zt]利用KNN模型的預(yù)測功能,得到目標(biāo)域的偽標(biāo)簽Y_tar_pseudo。最后,用整個目標(biāo)域中偽標(biāo)簽與真實標(biāo)簽相等的結(jié)果的長度比上目標(biāo)域中真實標(biāo)簽的長度,即可得到分類精度。在進行試驗前,我們首先要將數(shù)據(jù)集加載到程序中,并對數(shù)據(jù)的特征進行歸一化處理,再輸入選擇結(jié)構(gòu)的參數(shù)即可運行得到圖片分類的精度。
3.3 聯(lián)合分布自適應(yīng)方法與其他方法的比較
本節(jié)主要對基于聯(lián)合分布自適應(yīng)的圖像分類方法與其他五種先進的圖像分類方法進行比較。這五種方法分別是最近鄰分類器(Nearest Neighbor Classifier,NN)、主成分分析(Principal Component Analysis,PCA)、測量流核法(Geodesic Flow Kernel,GFK)、遷移成分分析(Transfer Component Analysis,TCA)以及遷移子空間學(xué)習(xí)(Transfer Subspace Learning,TSL)。本文對聯(lián)合分布自適應(yīng)和上述的五種方法在相同數(shù)據(jù)集的情況下,分別作了12次圖像分類試驗,試驗的評價指標(biāo)均為圖像分類精度。試驗結(jié)果見表2。
3.4 試驗結(jié)果分析
為了更加直觀地展示試驗結(jié)果,將表2中的精度用頻率分布直方圖來表示(見圖1)。從圖1可以看出,JDA比其他五種方法的分類精度高,其平均分類精度為46.31%。
4 結(jié)語
本文研究的基于遷移學(xué)習(xí)的圖像分類方法只需要在源域上進行特征標(biāo)注,而無需在目標(biāo)域上進行標(biāo)注,減少了大量的重復(fù)勞動,且提高了分類精度。聯(lián)合分布自適應(yīng)中,數(shù)據(jù)的邊緣分布和條件分布占同等地位。但實際上,在不同數(shù)據(jù)中,邊緣分布和條件分布在聯(lián)合分布中所占的比重是不同的,需要用更優(yōu)的方法去調(diào)整不同分布的比重。因此,在將來的研究中需要對這方面繼續(xù)改進。
參考文獻:
[1] Pan S J, Yang Q. A Survey on Transfer Learning[J]. IEEE Transactions on Knowledge & Data Engineering, 2010(10):1345-1359.
[2] Farajidavar N,Campos T D,Kittler J, et al. Transductive Transfer Learning for Action Recognition in Tennis Games[C]// IEEE International Conference on Computer Vision Workshops. 2011.
[3] Gopalan R, Chellappa R. Domain Adaptation for Object Recognition: An Unsupervised Approach[J]. Iccv, 2011(4):999-1006.
[4] Long M, Wang J, Ding G, et al. Transfer Feature Learning with Joint Distribution Adaptation[C]// IEEE International Conference on Computer Vision. 2014.