唐宋+葉茂+李旭冬
摘要:針對目前域自適應目標識別問題的學習方法,進行系統(tǒng)總結。首先,提出目標識別的兩個基本主題:基于域自適應的目標分類和目標檢測;然后,圍繞這兩個主題,從特征和樣本兩個角度,展開具體綜述。認為對于域自適應目標分類,幾種算法的主要問題為:忽略了樣本所構成的流形幾何結構,如果能利用幾何結構來約束特征表達,將有利于樣本特征魯棒性的提高。對于域自適應目標檢測,其問題為:現(xiàn)有方法對源樣本和帶標簽的目標域樣本存在依賴,這一問題使得現(xiàn)有的方法很難適用于某些真實的應用場景。
關鍵詞: 域自適應學習;目標分類;目標檢測
在計算機視覺領域,作為許多計算機視覺應用的基礎,目標識別問題一直是相關研究的重點。2006年,G.E.Hiton提出深度學習以后,針對經(jīng)典的目標識別問題(訓練集和測試集概率分布相同),取得了重大進展?;谟蜷g分布差異的域自適應目標識別問題,已逐漸成為計算機視覺領域的研究熱點。對于該問題的研究具有重要的意義,主要體現(xiàn)在兩個方面:提高了分類器或檢測器的復用性,有效地增強了模型對新環(huán)境的適應性;使得模型的訓練過程能很大程度地獨立于應用場景。因為在訓練模型時,不再特別地考慮應用場景的具體特點,所以在訓練階段可以借助諸如大數(shù)據(jù)等的優(yōu)勢,預訓練出具有較好泛化能力的模型。
1 域自適應學習和目標識別問題
域自適應學習是遷移學習[1]的一個子類。對于域自適應學習,源域和目標域的任務相同,但是,數(shù)據(jù)不同但相關。這類學習的核心任務是解決兩個域數(shù)據(jù)分布的差異問題,是遷移學習最基本的形式。
目標識別問題包含狹義和廣義兩個層面:狹義是指目標分類,其主要任務是將不同類別的物體彼此區(qū)分開;廣義是指目標檢測,要明確圖片中存不存在目標物體?這些目標物體的具體位置在哪里?目前,常用的目標檢測思路大概大概有3種,它們分別為:
(1)滑動窗口機制+分類器的檢測框架[2-3],檢測過程如圖1所示。因為具有極強的通用性,早期的檢測方法多采用該框架,目前該框架仍然發(fā)揮著重要的作用。但是,由滑動窗口機制產(chǎn)生的候選檢測窗有時很難準確地框定目標,容易造成漏報情況的發(fā)生。
(2)卷積神經(jīng)網(wǎng)絡(CNN)的回歸檢測框架[4-7],如圖2所示。該框架將測試圖片作為整體進行認知,不僅有效解決了第1種框架目標丟失的問題,而且能方便地引入了上下文信息,取得了較好的檢測結果。但是,因該框架只適用于CNN,所以其通用性稍差,并且相對于其他方法,樣本標記相對麻煩。
(3)基于區(qū)域分割的檢測框架。該框架由文獻[8-10]于2014年提出,大致檢測流程如圖3所示。首先,對輸入圖片采用選擇性搜索方法提取出區(qū)域候選框;然后,所有候選框縮放成固定大小;接著,利用CNN提取特征;最后,用支持向量機(SVM)進行區(qū)域分類,并采用回歸的方法微調(diào)侯選框位置與大小。該框架主要的貢獻是去掉了窗口掃描,用聚類方式,對圖像進行分割分組,得到多個侯選框的層次組。
通過以上介紹,可得出兩點結論:目標分類是目標檢測的基礎和前提;目標檢測是目標分類的擴展,在目標分類的基礎上引入不同的目標定位方法就形成了不同的檢測思路。因此,針對目標識別的相關研究需要兼顧目標分類和目標檢測這兩個層次。
基于上述分析,我們將域自適應目標識別問題細化為兩個基本研究主題:基于域自適應的目標分類和目標檢測。為了聚焦討論重點,在文章中,我們僅考慮只有一個源域的情形,而對多源域的情形則不做詳細的討論。
2 域自適應目標分類方法
現(xiàn)有域自適應目標分類方法可以分為:半監(jiān)督域自適應方法和無監(jiān)督域自適應方法。
2.1 半監(jiān)督領域自適應方法
在這種場景中,源域中的樣本都含有標簽信息,目標域中的樣本只有一部分含有標簽。這類方法的核心思想是利用源域和目標域的標簽信息,構建源域和目標域之間的關系。這些方法可分為基于特征和基于樣本兩類?;谔卣鞯陌氡O(jiān)督方法,比較代表性的論文有文獻[11]和[12]:文獻[11]提出了一種度量學習算法,該算法利用源域和目標域中所有帶標簽的樣本,學習一個線性變換,在該變換的作用下,所有樣本被映射到一個具有域不變特性的特征空間中;文獻[12]給出了一個字典學習算法,基于兩個域中帶標簽的樣本,由該字典編碼的樣本特征同時具有域不變性和稀疏性。
基于樣本的半監(jiān)督方法,比較代表性的論文有文獻[13-17]:文獻[13]中提出利用標記的目標樣本,來確定被弱標記的源域樣本的正確標簽,然后基于這些有標簽的源域和目標域樣本,訓練分類器;文獻[14]提出在傳統(tǒng)的Least-Squares SVM中引入了兩個新的正則化項,一個利用了連續(xù)性假設,另一個由帶標記的目標樣本構成,以此來描述目標分類器的經(jīng)驗誤差;文獻[15-17]提出了基于Adaboost 的學習算法,在算法實現(xiàn)中,為了判別源樣本是否對目標域?qū)W習有用,必須借助少量帶標簽的目標域樣本,來訓練適用于目標域的分類器,并將其作為判別器;文獻[18]總結了之前基于SVM實現(xiàn)知識遷移的方法,利用源領域獲得支持向量遷移知識,并在此基礎上,設計了稱為Cross domain SVM的支持向量機模型,該方法需要目標領域的部分樣本帶有類別標簽。
2.2 無監(jiān)督領域自適應方法
在這類方法中,只有源域中的樣本含有標簽信息,而目標域中的樣本沒有標簽。與上述半監(jiān)督方法相比,無監(jiān)督方法難度更大。與半監(jiān)督方法相同,這些方法也可以歸納為基于特征和基于樣本兩類,為了敘述方便,將它們分別記為A類和B類。具體地,A類算法假設源域和目標域的樣本能被映射到共享的隱藏特征空間,在這個空間中,源域樣本和目標域樣本的特征概率分布差異很小。由這一思想衍生出兩種不同解決方案,分別記為A1和A2。
A1方案從直接刻畫該隱藏特征空間的角度切入問題(原理如圖4所示),假設源域和目標域?qū)奶卣骺臻g為同構空間,而且在特征層面兩者存在一些共享的特征元素;該隱藏特征空間可以通過這些共享特征元素加以描述。對于這一思路,其核心是如何找到刻畫該隱藏特征空間的共享特征元素。比較代表性的論文有文獻[19-23]:文獻[19]提出了基于中樞特征的方法,通過提取最重要的中樞特征,形成輔助特征向量,最后分類器在原特征向量加上該輔助特征向量的空間內(nèi)重新學習,該方法的問題在于當目標領域未知時,無法選擇合適的中樞特征;基于類似思想,文獻[20-22]分別基于互聚類方法、降維方法以及多核學習的方法實現(xiàn)了分類器的遷移;文獻[23]利用跨域界標樣本選擇過程,構建域不變特征子空間。
A2方案則聚焦到源域和目標域?qū)奶卣骺臻g為異構空間時的情形,其基本思想是通過學習一個變換關系將源領域與目標領域特征空間映射到該隱藏特征空間(原理如圖5所示)。比較代表性的論文有文獻[24-29]:文獻[24]中提出利用多個視角的數(shù)據(jù)構建翻譯器,通過這個翻譯器,實現(xiàn)源領域與目標領域特征空間的映射;文獻[25]中提出通過非線性度量學習方法得到一個非對稱的特征空間映射;文獻[26]中提出將源領域與目標領域樣本映射到同一子空間,通過SVM學習,訓練得到新的目標分類器和特征空間的映射;文獻[27]中提出基于最大平均差異(MMD)概念,通過對源域和目標域上的邊緣分布和條件分布進行約束,來實現(xiàn)對變換矩陣的求解;文獻[28-29]中提出了基于深度模型的方法,其思想是借助深度模型強有力的特征抽象能力,通過多層網(wǎng)絡結構,在不斷降維抽象的同時,不斷地彌合源域和目標域概率分布的差異,在最高特征抽象層使兩個域之間的概率分布差異最小。
文獻[30-31]中提出了一類基于MMD的深度網(wǎng)絡方法。具體地,文獻[30]中設計的深度自適應網(wǎng)絡(DAN)由兩部分構成:首先,利用深度卷積網(wǎng)絡提取共享特征;然后,構建兩個全鏈接子網(wǎng)絡,來分別提取源域和目標域的域特征,同時,在這兩個子網(wǎng)絡中,逐層引入針對多核可變的最大平均差異(MK-MMD)最小化約束,從而實現(xiàn)向隱藏特征空間的映射?;陬愃频乃枷?,文獻[31]中將MMD、殘差網(wǎng)絡結合,使用熵最小化方法,提出了自適應殘差遷移網(wǎng)絡。
最近,文獻[32]提出了一種更為自然的遷移方案:結合生成對抗網(wǎng)絡框架[33]與深度學習來解決領域自適應(DA)問題,所提深度網(wǎng)絡能夠?qū)W到具有領域不變性的特征。文獻[34-35]則從傳統(tǒng)的核映射角度提出了基于特征的遷移方法,其基本思想是用高維特征空間來表示該隱藏特征空間,而源樣本和目標域樣本在該高維空間的投影可以用核映射方法得到,基于這些投影點可以建立相應的學習模型。
B類方法將樣本本身的特點作為解決問題的切入點,大致可以分為兩類,分別記為B1和B2。具體地,B1類方法的基本思想如圖6所示(假設源域中的一部分樣本滿足目標域概率分布),這類方法通常采用加權的方式,來篩選出滿足條件的源樣本,以此訓練出適用于目標域的分類器,因此其核心問題是如何求取這些加權系數(shù)。比較代表性的論文有文獻[36-38]:文獻[36]中提出了一個基于樣本加權的方法,使源域樣本的概率分布最大可能地匹配目標域的概率分布,然后利用加權后的源域樣本和目標域樣本完成遷移;文獻[37]則提出直接利用平均相似度的方法,直接將符合目標域概率分布的源域樣本篩選出來;文獻[38-39]估計源領域與目標領域樣本密度函數(shù),然后通過計算兩者之比,來獲得權重。為避免估計密度函數(shù),文獻[40]提出采用K-L散度估計該比值。
B2類方法的基本思想是:如果能有效刻畫源域到目標域的遷移過程,那么源樣本空間則能以漸進的方式,投影到目標域空間,其原理如圖7所示。比較代表性的論文有文獻[41-46]:文獻[41]中提出利用流形對齊過程,學習從源樣本空間到目標樣本空間的變換,實現(xiàn)源空間到目標空間的投影;文獻[42]中提出假設源域樣本和目標域樣本所構成的空間是位于Grassman流形上的兩個不同的點,在這個Grassman流形上,連接這兩個點的測地線描述了源域到目標域的遷移過程,通過子空間插值可擬合出這條測地線,將樣本投影到這些子空間上,由所有這些投影所構成的向量被作為樣本的特征,該文獻為域自適應的問題提供了一個新的觀察角度;通過對測地線上子空間的積分,文獻[43]中提出了被稱為GFK的核方法;文獻[44]中提出可以按比例構成測地線上子空間的樣本集,并利用這些樣本集訓練得到基于深度模型分類器,相比之前的線性投影,樣本投影到每個子空間上的特征,具有更強的表達能力;文獻[45]中則提出通過增量學習的方式,為測地線上每個子空間建立相應的字典,然后利用這些字典完成對樣本的編碼;文獻[46]則提出在Spline流形上對測地線進行子空間的采樣。
3 域自適應目標檢測方法
目前,域自適應學習在計算機視覺中的應用中已有一些研究成果[47],但是關于域自適應的目標檢測方法研究并不是很多?,F(xiàn)有的工作大致可以分為兩類:半監(jiān)督域自適應目標檢測方法和無監(jiān)督域自適應目標檢測方法。為方便敘述,它們被分別記為C和D。
3.1 半監(jiān)督域自適應目標檢測方法
在域自適應目標檢測問題中,半監(jiān)督是指:模型訓練過程能夠從目標應用場景中獲得一些帶標簽信息的樣本。這些方法幾乎都是基于特征的方法,其基本思想是通過帶標簽的目標域樣本,抽取跨域的特征(基本框架如圖8a)所示)。根據(jù)源領域是否額外引入大規(guī)模數(shù)據(jù)集,這類方法可被劃分為C1和C2兩個子類。
C1類方法是相對傳統(tǒng)的方案,在相應的問題假設中,它們使用的源域數(shù)據(jù)集通常規(guī)模較小。比較有代表性的論文有文獻[48-50]:文獻[48]中提出首先利用卷積自編碼器在源域上預訓練卷積核,然后基于帶標簽的目標域樣本,對上述卷積核進行調(diào)諧(FT),使之適用于目標域;文獻[49]提出面向一種車輛檢測的CNN方法,該方法保留源域和目標域共享的卷積核的同時,借助帶標簽的目標域樣本對非共享卷積核進行更新;文獻[50]中提出通過對源領域特征遷移構造弱分類器,并將每個弱分類器已學習好的權重根據(jù)目標場景再學習調(diào)整,通過這種方式,能解決由于視角以及光照等造成的改變。
C2方法是最近才逐漸發(fā)展起來。這類方法利用在大數(shù)據(jù)上訓練好的深度模型,來提取源樣本的深度特征,然后基于所得深度特征集合進行算法設計。相比于傳統(tǒng)的C1類方法,這類方法檢測效果更好,主要有兩方面原因:一方面,有效融合了深度特征良好的區(qū)分能力和遷移能力;另一方面,可以方便地和其他算法框架相結合。比較有代表性的論文有文獻[8-10]、文獻[52-53]:文獻[8-10]提出并發(fā)展了一類基于區(qū)域分割的多類目標檢測方法,這類方法通過已訓練好的深度模型來取得特征[51],同時結合SVM方法來實現(xiàn)類別判定;文獻[52-53]中提出利用已訓練好的深度模型對整個檢測場景提取深度特征,并結合長短期記憶網(wǎng)絡(LSTM)模型,提出基于序列分割的回歸檢測方法。
3.2 無監(jiān)督域自適應目標檢測方法
無監(jiān)督的含義是指目標應用場景不提供任何帶標簽的樣本。這些方法幾乎都是基于實例的,也是目前學界使用較多的路線,它們大致可以分為兩類,分別記為D1和D2。
D1類方法基本思路是通過迭代的方式,從目標域中挖掘有用信息,來重新訓練原檢測器,其基本框架如圖8b)所示。比較有代表性的論文有文獻[54-61]:文獻[54]中提出通過一個基于外表特征的目標檢測器,來設定置信度,將目標場景中滿足置信度的正負樣本挑選出來,重新訓練檢測器;文獻[55-56]利用互訓練方法,迭代地訓練基于不同特征的分類器;文獻[57]提出一種在線分類器學習算法,在每次迭代中,該算法通過背景差化技術,對目標場景檢測結果進行自動標注,然后借助這些標注結果重新訓練原分類器;文獻[58]結合復雜網(wǎng)絡,迭代學習目標檢測器以及源領域和目標領域樣本的權重;文獻[59-60]中基于圖的方法、上下文信息計算源領域和目標領域樣本的置信度,通過融合置信度和上下文信息的SVM,不斷迭代訓練樣本權重和置信度,取得較好的效果;與之類似,文獻[61]提出了一個基于深度CNN的方法,通過新增重建層和聚類層,實現(xiàn)了對多尺度場景特征和視覺模式的挖掘。
D2類方法是非迭代的方案。比較有代表性的論文有文獻[62-63]:文獻[62]提出了基于特征聯(lián)合學習的深度網(wǎng)絡,該方法中首先基于源域樣本和目標域樣本,通過棧式自編碼器(SAE),學習得到一個特征變換,將樣本映射到某特征空間,然后利用源域樣本的標簽信息,訓練得到基于該特征空間的SVM分類器;文獻[63]提出了針對監(jiān)測控制視頻的檢測器遷移方法,它的核心思想是通過視頻的時序線索來對隨機生成的候選圖像塊進行篩選,然后利用過濾后的樣本訓練新的分類器;文獻[64]提出一種基于神經(jīng)調(diào)控的檢測器遷移方法,該方法利用一個調(diào)控網(wǎng)絡對位于深度網(wǎng)絡末端的分類器,進行自適應地加權調(diào)整,為每一個目標域樣本,生成專有的分類器。
4 問題和展望
對于域自適應目標分類,主要問題為:現(xiàn)有的方法要么基于概率匹配的思路(A類和B1類),要么從抽象流形這一個幾何觀點設計相關算法(B2類),它們都忽略了樣本本身所構成的流形幾何結構。事實上,樣本本身是存在某種幾何關系的,即所謂的流形結構。大量與流形學習有關的工作[65-66]已經(jīng)證實了這一點。如果我們能利用這些幾何結構來約束特征表達,將有利于樣本特征魯棒性的提高。
對于域自適應目標檢測,其問題為:現(xiàn)有方法為了遷移檢測器,要么要求目標場景含有帶標簽的樣本,來實現(xiàn)對源域知識的遷移(C類);要么需要保留全部源樣本,來實現(xiàn)對目標場景挖掘信息的評估(D類)。換而言之,現(xiàn)有方法對源樣本和帶標簽的目標域樣本存在依賴。這一問題使得現(xiàn)有的方法很難適用于某些真實的應用場景,這主要體現(xiàn)在3個方面:(1)有些真實場景很難獲取帶標簽的樣本,特別是非結構化的應用環(huán)境;(2)大量硬件設備的計算能力和存儲空間都是有限的,基于所有源樣本進行置信度評估不僅會造成額外的計算開銷,還會帶來巨大的存儲負擔;(3)對具有動態(tài)背景的場景并不適用。
5 結束語
近年來,許多學者針對域自適應目標識別問題,從理論和應用方面展開研究,并取得很多成果。文章對現(xiàn)有的域自適應目標識別方法進行了綜述:首先,我們分別介紹域自適應學習和目標識別,在此基礎上,將域自適應目標識別細化為域自適應分類和域自適應目標檢測兩個基本問題;然后,以半監(jiān)督和無監(jiān)督為基本線索,分別對這兩個問題進行了綜述,重點對各種方法的核心思想,以及發(fā)展脈絡進行了梳理;最后,總結了現(xiàn)有方法所存在的問題。
參考文獻
[1] PAN J S, YANG Q. A Survey on Transfer Learning[J]. IEEE Transactions on Knowledge and Data Engineering (TKDE), 2010, 22(10):1345-1359. DOI: 10.1109/TKDE.2009.191
[2] HOWSE J. OpenCV Computer Vision with Python[M]. UK: Packt Publishing Ltd., 2013
[3] NEUBECK A, GOOL L V. Efficient Non-Maximum Suppression[C]//International Conference on Pattern Recognition (ICPR). China, 2006: 850-855
[4] SZEGEDY C, TOSHEV A, ERHAN D. Deep Neural Networks for Object Detection[C]// Annual Conference on Neural Information Processing Systems (NIPS).USA, 2013: 2553-2561
[5] GIRSHICK R, IANDOLA F, DARRELL T, et al. Deformable Part Models are Convolutional Neural Networks[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR), USA:IEEE, 2015: 437-446
[6] REDOM J, DIVVALA S, GIRSHICK R, et al. You Only Look Once: Unified, Real-Time Object Detection[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR), USA:IEEE, 2016:779-788
[7] FU M, XU P, LI X, et al. Fast Crowd Density Estimation with Convolutional Neural Networks[J].Engineering Applications of Artificial Intelligence, 2015, 43:81-88. DOI: 10.1016/j.engappai.2015.04.006
[8] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich Feature Hierarchies for Accurate Object Detectionand Semantic Segmentation[C]//IEEE Conference on Computer Vision and Pattern Recognition(CVPR). USA:IEEE, 2014:580-587
[9] GIRSHICK R. Fast R-CNN[C]//IEEE International Conference on Computer Vision (ICCV). USA: IEEE, 2015: 1440-1448
[10] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[C]//Annual Conference on Neural Information Processing Systems (NIPS). Canada: NIPS, 2015: 91-99
[11] KATE S, BRIAN K, MARIO F, et al. Adapting Visual Category Models to New Domains [C]//European Conference on Computer Vision (ECCV). Greece: ECCV, 2010:213-226
[12] QIU Q, PATEL V M, TURAGA P, et al. Domain Adaptive Dictionary Learning [C]// European Conference on Computer Vision (ECCV). Italy: ECCV, 2012, 631-645
[13] BERGAMO A, TORRESANI L. Exploiting Weakly-Labeled Web Images to Improve Object Classification: A Domain Adaptation Approach [J]. Annual Conference on Neural Information Processing Systems (NIPS), 2010:181-189
[14] DUAN L, TSANG I W, XU D, et al. Domain Adaptation from Multiple Sources Via Auxiliary Classifiers[C]//International Conference on Machine Learning (ICML). Canada: ICML, 2009:289-296
[15] DAI W, YANG Q, XUE G R, et al. Boosting for Transfer Learning[C]//International Conference on Machine Learning (ICML). USA: ICML, 2007: 193-200
[16] XU Z, SUN Z. Multi-View Transfer Learning with Adaboost [C]//International Conference on Tools with Artificial Intelligence (ICTAI). USA: ICTAI, 2011:399-402
[17] XU Z, SUN S. Multi-Source Transfer Learning with Multi-View Adaboost [C]//International Conference on Neural Information Processing (ICNIP). Qatar: ICNIP, 2012:332-339. DOI: 10.1007/978-3-642-34487-9_41
[18] JIANG W, ZAVESKY E, CHANG S F, et al. Cross-Domain Learning Methods for High-Level Visual Concept Classification[C]//IEEE International Conference on Image Processing (ICIP). USA:IEEE, 2008:161-164
[19] BLITER J, McDONALD R, PEREIRA F. Domain Adaptation with Structural Correspondence Learning[C]//Conference on Empirical Methods in Natural Language Processing (EMNLP). Australia: EMNLP, 2006:120-128
[20] DAI W, XUE G R, YANG Q, et al. Co-Clustering Based Classification for Out-of-Domain Documents[C]//International Conference on Knowledge Discovery and Data Mining (ICKDDM), USA: ICKDDM, 2007:210-219
[21] PAN S J, I. TSANG W, KWOK J T, et al. Domain Adaptation Via Transfer Component Analysis[J].IEEE Transactions on Neural Networks (TNN), 2011, 22(2):199-210
[22] DUAN L, TSANG I W, XU D. Domain Transfer Multiple Kernel Learning [J]. IEEE Transactions on Pattern Analysis & Machine Intelligence (PAMI), 2011, 34(99):1-1
[23] HUBERT T Y H, YEH Y R, WANG F Y C. Learning Cross-Domain Landmarks for Heterogeneous Domain Adaptation[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR), USA:IEEE, 2016:5081-5090
[24] DAI W, CHEN Y, XUE G R, et al. Translated Learning: Transfer Learning Across Different Feature Spaces[C]//Annual Conference on Neural Information Processing Systems (NIPS). Canada: NIPS, 2008:353-360
[25] KULIS B, SAENKO K, DARRELL T. What You Saw is Not What You Get: Domain Adaptation Using Asymmetric Kernel Transforms[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR).USA: CVPR, 2011:1785-1792. DOI: 10.1109/CVPR.2011.5995702
[26] DUAN L, XU D, TSANG I. Learning with Augmented Features for Heterogeneous Domain Adaptation [J]. Computer Science, 2012:711-718. DOI: 10.1109/TPAMI.2013.167
[27] LONG M, WANG J, DING G, et al. Transfer Feature Learning with Joint Distribution Adaptation[C]//IEEE International Conference on Computer Vision (ICCV). Australia: ICCV, 2013: 2200-2207. DOI: 10.1109/ICCV.2013.274
[28] M. Chen, Z. Xu, K. Weinberger, et al. Marginalized Denoising Autoencoders for Domain Adaptation[J]. Computer Science, 2012
[29] GLOROT X, BORDES A, BENGIO Y. Domain Adaptation for Large-Scale Sentiment Classification: A Deep Learning Approach[C]//International Conference of Machine Learning (ICML). USA:ICML, 2011:611-618
[30] LONG M J W, CAO Y, JORDAN M I. Learning Transferable Features with Deep Adaptation Networks[C]//International Conference on Machine Learning (ICML), France: ICML, 2015: 97-105
[31] LONG J W M, ZHUY H, JORDAN M I. Unsupervised Domain Adaptation with Residual Transfer Networks[C]//Annual Conference on Neural Information Processing Systems (NIPS). Spain: NIPS, 2016:10-18
[32] GANIN V L Y. Unsupervised Domain Adaptation by Back Propagation[C]//International Conference on Machine Learning (ICML). France: ICML, 2015:280-288
[33] GOODFELLOW I J, POUGETABADIE J, MIRZA M, et al. Generative Adversarial Networks[J]. Advances in Neural Information Processing Systems, 2014(3): 2672-2680
[34] SUN S, XU Z, YANG M. Transfer Learning with Part-Based Ensembles[C]//International Workshop on Multiple Classifier Systems. China: LNCS, 2013:271-282. DOI: 10.1007/978-3-642-38067-9_24
[35] TU W, SUN S. Crossdomain Representation-Learning Framework with Combination of Class Separate and Domain Merge Objectives[C]//International Workshop on Cross Domain Knowledge Discovery in Web and Social Network Mining. USA, 2012:18-25. DOI: 10.1145/2351333.2351336
[36] SCHOLKOPF B, PLATT J, HOFMANN T. Correcting Sample Selection Bias by Unlabeled Data[C]//Annual Conference on Neural Information Processing Systems (NIPS). Canada: NIPS, 2006: 601-608
[37] GONG B, GRAUMAN K, SHA F. Connecting the Dots with Landmarks: Discriminatively Learning Domain-Invariant Features for Unsupervised Domain Adaptation[C]//International Conference on Machine Learning (ICML). USA:ICML, 2013:222-230
[38] ZADROZNY B. Learning and Evaluating Classifiers Under Sample Selection Bias[C]//International Conference on Machine Learning (ICML).Canada: ICML, 2004: 114-122
[39] FAN W, DAVIDSON I, ZADROZNY B, et al. An Improved Categorization of Classifiers Sensitivity on Sample Selection Bias[C]//International Conference on Data Mining. USA, 2005:4-10
[40] SUGIYAMA M, NAKAJIMA S, KASHIMA H, et al. Direct Importance Estimation with Model Selection and Its Application to Covariate Shift Adaptation[C]//Annual Conference on Neural Information Processing Systems (NIPS). Canada: NIPS, 2008:1433-1440
[41] WANG C, MAHADEVAN S. Heterogeneous Domain Adaptation Using Manifold Alignment[C]//International Joint Conference on Artificial Intelligence (IJCAI), Spain: IJCAI, 2011:1541
[42] GOPALAN R, LI R, R. Chellappa. Domain Adaptation for Object Recognition: An Unsupervised Approach[C]//IEEE International Conference on Computer Vision (ICCV), Spain, 2011: 999-1006. DOI: 10.1109/ICCV.2011.6126344
[43] SHA F, SHI Y, GONG B, et al. Geodesic Flow Kernel for Unsupervised Domain Adaptation[C]//IEEE Conference on Computer Vision and Pattern Recognition(CVPR). USA:IEEE, 2012:2066-2073
[44] CHOPRA R G S, BALAKRISHNAN S. DLID: Deep Learning for Domain Adaptation by Interpolating Between Domains[C]//International Conference on Machine Learning (ICML) Workshop on Challenges in Representation Learning. USA: ICML, 2013
[45] NI J, QIU Q, CHELLAPPA R. Subspace Interpolation Via Dictionary Learning for Unsupervised Domain Adaptation[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). USA:IEEE, 2013: 692-699
[46] CASEIRO R, HENRIQUES J F, MARTINS P, et al. Beyond the Shortest Path: Unsupervised Domain Adaptation by Sampling Subspaces Along the Spline Flow[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). USA:IEEE, 2015:3846-3854. DOI: 10.1109/CVPR.2015.7299009
[47] DUAN L, XU D, TSANG W H, et al. Visual Event Recognition in Videos by Learning from Web Data[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). USA: IEEE, 2010: 1959-1966. DOI: 10.1109/TPAMI.2011.265
[48] SERMANET P, KAVUKCUOGLU K, CHINTALA S, et al. Pedestrian Detection with Unsupervised Multistage Feature Learning[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). USA:IEEE, 2013:3626-3633
[49] LI X, YE M, FU M, et al. Domain Adaption of Vehicle Detector Based on Convolutional Neural Networks [J]//International Journal of Control, Automation and Systems (IJCAS), 2015, 13(4):1020-1031. DOI: 10.1007/s12555-014-0119-z
[50] PANG J, HUANG Q, YAN S, et al. Transferring Boosted Detectors Towards Viewpoint and Scene Adaptiveness [J]. IEEE Transactions on Image Processing (TIP), 2011, 20(5):1388-1400
[51] DENG J, DONG W, SOCHER R, et al. ImageNet: A Large-Scale Hierarchical Image Database[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). USA: IEEE, 2009: 248-255. DOI: 10.1109/CVPR.2009.5206848
[52] LI X, YE M, LIU D, et al. Memory-Based Object Detection in Surveillance Scenes[C]//IEEE International Conference on Multimedia and Expo (ICME). USA,IEEE, 2016:1-6. DOI: 10.1109/ICME.2016.7552920
[53] LI X, YE M, LIU Y, et al. Accurate Object Detection Using Memory-Based Models in Surveillance Scenes[J]. Pattern Recognition, 2017(67):73-84
[54] ROSENBERG C, HEBERT M, SCHNEIDERMAN H. Semi-Supervised Self-Training of Object Detection Models[C]//IEEE Workshop on Applications of Computer Vision/IEEE Workshop on Motion and Video Computing. USA:IEEE, 2005:29-36
[55] LEVIN A, VIOLA P, FREUND Y. Unsupervised Improvement of Visual Detectors Using Co-Training[C]//IEEE International Conference on Computer Vision (ICCV). USA: IEEE, 2003:626-633
[56] WU B, NEVATIA R. Improving Part Based Object Detection by Unsupervised, Online Boosting[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). USA:IEEE, 2007:1-8
[57] NAIR V, CLARKJ J. An Unsupervised, Online Learning Framework for Moving Object Detection[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). USA:IEEE, 2004: 317-324. DOI: 10.1109/CVPR.2004.34
[58] WANG M, WANG X. Automatic Adaptation of a Generic Pedestrian Detector to a Specific Traffic Scene[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). USA:IEEE, 2011: 3401-3408. DOI: 10.1109/CVPR.2011.5995698
[59] WANG X, LI W, WANG M. Transferring a Generic Pedestrian Detector Towards Specific Scenes[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). USA:IEEE, 2012:3274-3281
[60] WANG X, WANG M, LI W. Scene-Specific Pedestrian Detection for Static Video Surveillance[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence (PAMI), 2014, 36(2):361-74
[61] ZENG X, OUYANG W, WANG M, et al. Deep Learning of Scene-Specific Classifier for Pedestrian Detection[C]//European Conference on Computer Vision (ECCV). Switzerland:ECCV, 2014:472-487
[62] HTIKE K K, HOGG D. Unsupervised Detector Adaptation by Joint Dataset Feature Learning[C]//International Conference on Computer Vision and Graphics (ICCVG). Poland: ICCVG, 2014: 270-277
[63] HTIKE K K, Hogg D C. Efficient Non-Iterative Domain Adaptation of Pedestrian Detectors to Video Scenes[C]//IEEE International Conference on Pattern Recognition (ICPR). USA:IEEE, 2014:654-659. DOI: 10.1109/ICPR.2014.123
[64] TANG S, YE M, ZHU C, et al. Adaptive Pedestrian Detection Using Convolutional Neural Network with Dynamically Adjusted Classifier[J]. Journal of Electronic Imaging, 2017, 26(1): 013012
[65] ROWEIS S T, SAUL L K. Nonlinear Dimensionality Reduction by Locally Linear Embedding [J]. Science, 2000, 290(5500):2323-2326
[66] TENENBAUM J B, SILVA V D, LANGFORD J C. A Global Geometric Framework for Nonlinear Dimensionality Reduction[J]. Science, 2001, 290(5500):2319-2323