楊靜林,唐林波,宋 丹,趙保軍
(1.北京理工大學(xué)信息與電子學(xué)院,北京100081;2.北京電子工程總體研究所,北京100854)
基于自適應(yīng)聚類流形學(xué)習(xí)的增量樣本降維與識別
楊靜林1,唐林波1,宋 丹2,趙保軍1
(1.北京理工大學(xué)信息與電子學(xué)院,北京100081;2.北京電子工程總體研究所,北京100854)
為了解決局部線性嵌入(locally linear embedding,LLE)流形學(xué)習(xí)算法無法自適應(yīng)確定重構(gòu)區(qū)間和不能進行增量學(xué)習(xí)等問題,提出了一種自適應(yīng)聚類增量LLE(clustering adaptively incremental LLE,C-LLE)目標識別算法。該算法通過建立高維非線性樣本集的局部線性結(jié)構(gòu)聚類模型,對聚類后的類內(nèi)樣本采用線性重構(gòu),解決了LLE算法樣本重構(gòu)鄰域無法自適應(yīng)確定的問題;通過構(gòu)建降維矩陣,解決了LLE算法無法單獨對增量進行降維和無法利用增量對目標進行識別的問題。實驗表明,本文算法能夠準確提取高維樣本集的低維流形結(jié)構(gòu),具有較小的增量降維誤差和良好的目標識別性能。
流形學(xué)習(xí);局部線性嵌入;增量降維;目標識別;分裂聚類
在目標識別與分類過程中,通常需要對具有標簽信息的訓(xùn)練樣本進行學(xué)習(xí),并根據(jù)一定準則建立相關(guān)的決策模型,以對未知標簽信息的測試樣本進行分類[1]。訓(xùn)練樣本和測試樣本往往具有較高的維度,數(shù)據(jù)冗余性大,處理時容易陷入“維數(shù)災(zāi)難”[2],因此獲取高維樣本的低維結(jié)構(gòu)已成為快速準確地識別目標的重要保障[3]。
流形學(xué)習(xí)方法是近年興起的一種非線性降維方法,與線性降維不同,其思想是尋找樣本集的內(nèi)在規(guī)律[4-5],將高維空間中的數(shù)據(jù)映射到一個低維空間(即低維流形)中,達到降維的目的[6]。2000年,Saul和Roweis提出局部線性嵌入(locally linear embedding,LLE)流形學(xué)習(xí)算法[7],LLE算法具備幾何意義直觀和具有整體解析最優(yōu)解等優(yōu)點[8],但該算法不具備增量學(xué)習(xí)的能力,只能對樣本集批量處理。而當(dāng)前的目標識別系統(tǒng)中,測試樣本往往以增量的形式出現(xiàn),如果每一個新增測試樣本均與訓(xùn)練樣本集一起進行批量降維和識別,無疑會耗費大量時間[9]。
目前,針對LLE算法所提出的增量學(xué)習(xí)算法較少。Saul在原算法的基礎(chǔ)上提出了線性化增量LLE算法[10]。首先計算新增樣本與訓(xùn)練樣本集中所有樣本的距離,并通過前k個最小距離樣本構(gòu)建權(quán)值向量矩陣,找到這k個高維樣本所對應(yīng)的低維投影,對新增樣本的低維表示進行重構(gòu)。該方法假設(shè)訓(xùn)練樣本的權(quán)值矩陣不會因新樣本的加入而發(fā)生改變,但實際上新樣本的加入會導(dǎo)致局部權(quán)值矩陣發(fā)生變化,降維誤差較大。Kouropteva等[11]在假定原有特征值不變的基礎(chǔ)上提出了LLE的增量算法,但該方法將原本問題轉(zhuǎn)化為特征值求解問題又轉(zhuǎn)化為最優(yōu)化問題,而且特征值沒有更新[12]。
針對上述問題,本文提出了基于自適應(yīng)聚類增量LLE(clustering adaptively incremental LLE,C-LLE)算法。該算法分析非線性樣本集的局部線性度量,采用分裂聚類方法,自適應(yīng)地提取樣本集中的線性結(jié)構(gòu),解決了LLE算法樣本重構(gòu)鄰域無法自適應(yīng)確定的問題;通過構(gòu)建顯示降維矩陣,直接對增量樣本進行低維投影,解決了LLE算法無法單獨對增量進行降維和無法利用增量對目標進行識別的問題。
1.1 LLE算法簡介
令高維樣本集X=[x1,x2,…,xN],X中每一個樣本為xi=[xi1,xi2,…,xiD]T。X的低維流形表示為Y=[y1,y2,…,yN],其中yi=[yi1,yi2,…,yid]T,d<D。
LLE算法降維流程如下所示:
步驟1 計算各樣本之間的歐式距離
步驟2 獲取每個樣本的k個最鄰近樣本,計算樣本的局部重建權(quán)值,定義損失函數(shù)
式中,xi+j(j=1,2,…,k)表示xi的k個最近鄰樣本;wij是xi與xi+j的重構(gòu)權(quán)值,定義權(quán)值矩陣W=[w1,w2,…,wN],W中的每一個元素wi=[wi1,wi2,…,wik]T,且滿足條件eTwi=1,ek×1=[1,1,…,1]T。
步驟3 計算權(quán)值矩陣W。首先需要構(gòu)造局部協(xié)方差矩陣
Q中的每一個元素qij表示為
與eTwi=1相結(jié)合,求取wi
步驟4 將所有樣本映射到低維流形空間將矩陣M的特征值從小到大排列,剔除第一個近似于0的特征值,其余2~d+1個特征值所對應(yīng)的特征向量即為Y。
1.2 LLE不具備增量學(xué)習(xí)的原因及本文思路
流形學(xué)習(xí)算法假設(shè)非線性流形由局部線性的流形結(jié)構(gòu)拼接而成。LLE算法根據(jù)這種局部線性的思想利用樣本xi的k鄰域?qū)i進行重構(gòu),LLE降維效果與k值相關(guān)。
圖1(a)為LLE算法的高維樣本鄰域結(jié)構(gòu)。LLE算法對不同樣本的線性重構(gòu)鄰域均采用固定的鄰域數(shù)目k。當(dāng)k較大時,鄰域包含了非線性結(jié)構(gòu);當(dāng)k較小時,會造成重構(gòu)鄰域無法包含所有呈線性關(guān)系的樣本。為了解決這個問題,LLE采用了重疊的局部線性鄰域結(jié)構(gòu),因此在鄰域相互重疊的情況下對非線性樣本集整體進行處理,無法提取顯式的降維矩陣,不能進行增量降維。
圖1(b)為本文算法的鄰域結(jié)構(gòu)。本文算法認為LLE算法雖然將樣本集X表示為一個重疊的線性重構(gòu)的整體,但實際上可按照線性程度將X劃分為多個獨立的線性子類,類內(nèi)樣本呈線性關(guān)系,各類之間呈非線性關(guān)系。類內(nèi)樣本由類內(nèi)其余樣本線性重構(gòu),不可由其他類樣本重構(gòu),這也解決了鄰域數(shù)目k不可變的問題。由于類內(nèi)樣本是線性的,因此可以對每一個線性類提取單獨的顯式降維矩陣,進而達到增量降維的目的。
圖1 LLE與本文算法鄰域結(jié)構(gòu)
2.1 非線性樣本集的局部線性結(jié)構(gòu)表達
根據(jù)流形假設(shè),設(shè)計了如下非線性樣本集的局部線性表達方法。
圖2(a)為二維的非線性流形,圖2(b)為劃分的二維流形局部線性結(jié)構(gòu)。為得到緊湊的局部線性結(jié)構(gòu),需要根據(jù)樣本集的線性程度對樣本進行聚類。
圖2 二維非線性數(shù)據(jù)及其局部線性結(jié)構(gòu)
文獻[13- 14]提出通過局部主成分分析(principal component analysis,PCA)可以度量流形的線性程度。PCA算法通過對樣本集X的協(xié)方差矩陣進行奇異值分解(singular value decomposition,SVD)來獲得特征值[λ1,λ2,…,λD]和特征向量矩陣SD×D,將前d個最大特征值所對應(yīng)的特征向量S′D×d作為樣本集X的投影矩陣,構(gòu)建如下目標函數(shù):
當(dāng)X為理想線性數(shù)據(jù)時,S′TS′=I;若樣本集非嚴格線性,存在誤差ε=‖S′TS′-I‖2。該目標函數(shù)的意義為:樣本xi進行低維投影后再對其進行高維重構(gòu),并計算重構(gòu)結(jié)果與原樣本的誤差,對樣本集X的誤差進行累計,誤差越小說明X的線性程度越好。
用550個伊利諾伊大學(xué)(University of Illinois at Urbana-Champaign,UIUC)汽車圖像組成的正類樣本和500個負類樣本組成訓(xùn)練樣本集X。對于不同維數(shù)d,誤差ε(X)如表1所示。結(jié)果表明,高維樣本X所降至的維度d越小,高維重構(gòu)后誤差ε(X)越大(將1 584維樣本降至1 500維時,重構(gòu)誤差僅為1.32×10-12)。因此,對于不同樣本集,在維數(shù)d一定的情況下,線性化程度越高的樣本集PCA降維后誤差ε(X)越小。
表1 不同維度下非線性結(jié)構(gòu)數(shù)據(jù)的PCA降維誤差
2.2 樣本集線性結(jié)構(gòu)的分裂聚類方法
在提出樣本集高維非線性數(shù)據(jù)集的局部線性結(jié)構(gòu)表達方法后,首要的任務(wù)就是如何將非線性的數(shù)據(jù)集按照其線性結(jié)構(gòu)進行聚類。為解決這一問題,本文提出了線性結(jié)構(gòu)分裂聚類的方法。
分裂聚類算法是在K均值聚類算法的基礎(chǔ)上提出的[15]。該方法無需設(shè)定初始聚類數(shù)目,能自適應(yīng)對樣本集聚類。
圖3為樣本集線性結(jié)構(gòu)的分裂聚類方法示意圖。線性結(jié)構(gòu)的分裂聚類可以看作是一個聚類窗口在樣本集上不斷分裂收縮的過程,隨著聚類半徑的縮小,類內(nèi)樣本的線性程度逐漸提高。若分裂所獲得的聚類結(jié)構(gòu)中線性程度仍然不滿足要求,則繼續(xù)對不滿足線性度要求的類進行分裂,直至類內(nèi)樣本集滿足線性度要求。
圖3 樣本集線性結(jié)構(gòu)的分裂聚類方法
在描述分裂聚類算法步驟前,首先定義樣本距離和類內(nèi)均值:用d(xi,xj)表示樣本歐式距離,Uz表示第z個類別的類內(nèi)均值。對于樣本集X,分裂聚類步驟如下:
步驟1 初始化聚類中心
設(shè)定X的初始類別數(shù)z=1,隨機抽取1個樣本{xi,i∈[1,N]}作為初始聚類中心,即xc1=xi。
步驟2 類分裂
步驟2.1 計算所有樣本到聚類中心{xcz,z∈[1,2,…,K]}的歐式距離d(xcz,xi),尋找距離xcz最遠的樣本xmz;
步驟2.2 分裂聚類中心xc(z+1)=xmz,聚類數(shù)目變?yōu)镵+1,計算所有樣本到聚類中心xcz的距離,將樣本歸到其最近的類Cz中;
步驟2.3 調(diào)整聚類中心,將中心移動到均值處,即xcz=Uz。
步驟3 線性度判別
計算每一個類內(nèi)的線性度誤差ε(xz)′,在l個不同維度下,對于給定閾值η,若線性度滿足要求,分
t=1裂終止,否則重復(fù)步驟2~步驟3。
綜上所述,分裂聚類能夠滿足每一類子集中的線性樣本盡可能多,并且類間不交疊。
圖4為閾值η與聚類數(shù)量c的變化關(guān)系??梢钥闯觯S著η的下降,樣本集聚類的數(shù)量不斷增加,類內(nèi)樣本線性程度不斷提高。當(dāng)η減小到一定程度時,聚類數(shù)量近似收斂。
圖4 不同閾值下的聚類數(shù)量
3.1 高維樣本集的C-LLE低維流形學(xué)習(xí)
通過對高維樣本集的局部線性結(jié)構(gòu)聚類,得到一組線性結(jié)構(gòu)樣本集。用V表示流形線性結(jié)構(gòu)聚類個數(shù),Nm表示第m類中的高維樣本個數(shù),高維樣本總數(shù)N=N1+N2+…+NV。由于每一類中的樣本均為線性結(jié)構(gòu),根據(jù)LLE算法定義,同類中的每一個樣本均可由其余Nm-1個樣本進行線性重構(gòu)。樣本結(jié)構(gòu)矩陣權(quán)值表示為Wi=[wi1,wi2,…,wiD]T,式(2)變形如下:
由于不同類樣本數(shù)目Nm不同,為方便計算,引入矩陣H,將式(8)變?yōu)?/p>
h(m)j滿足如下條件:
令Qjp=(X-Xj)T(X-Xp),可得
綜上,可得矩陣形式為
令W′=HW,可得
將eTW1=1(e=[1,1,…,1])作為約束條件,令g(W′)=eTW1-1,用拉格朗日描述子對f(W′)進行極小化
令e1×D=[1,1,…,1],可得
將式(15)結(jié)合約束eTW′=1,解方程得
將所有樣本映射到低維空間
由于低維流形與高維樣本具有相同的結(jié)構(gòu),因此對每一個D維樣本右乘投影矩陣Z,進行線性變換,可得d維流形。
其中,對高維樣本矩陣進行變換
投影矩陣可以表示為
將高維樣本集X用低維流形Y表示
計算矩陣M′的特征值,將特征值從小到大排列。剔除第一個接近0的特征值,取第2~d+1個特征值所對應(yīng)的特征向量組成投影矩陣Z。這樣,每一個線性類CV都得到一個降維投影矩陣ZV。
3.2 C-LLE增量樣本降維與識別
當(dāng)對增量樣本(即測試樣本)xN+1進行識別時,識別算法步驟如下:
步驟1 用Ci的投影矩陣Zi對增量樣本xN+1和Ci中的樣本進行降維
步驟2 從yi1,yi2,…,yiNV中找到y(tǒng)i(N+1)中的K個鄰域NHk(yi(N+1));
步驟3 用N Hk(yi(N+1))重構(gòu)yi(N+1),并由重構(gòu)誤差來度量yi(N+1)與Ci的距離
其中,Pik為距離權(quán)值,可通過核密度加權(quán)的方法計算
ri為核密度半徑,計算公式如下:
最后對訓(xùn)練樣本進行有監(jiān)督分類,從而確定yi(N+1)的類別,完成目標識別。
為測試本算法的性能,本文分別將Saul和Kouropteva的LLE增量算法與本文算法進行對比。驗證共分兩部分:第一部分是對樣本集的降維,第二部分是對增量樣本的降維和識別。實驗所選數(shù)據(jù)庫為UIUC汽車目標識別數(shù)據(jù)庫。仿真軟件為Matlab 2010a,計算機主頻為雙核2.5 GHz,內(nèi)存2 GB。
4.1 樣本集降維效果對比與分析
Saul和Kouropteva的算法中關(guān)于數(shù)據(jù)集的降維部分均應(yīng)用LLE算法,因此本部分對比LLE算法與本文C-LLE算法的降維效果。
為增強數(shù)據(jù)可視化效果,通過LLE算法和本文算法分別將數(shù)據(jù)集的高維特征向量降至2維,兩種降維方法如圖5所示。
圖5 UIUC數(shù)據(jù)庫低維流形結(jié)構(gòu)
圖5 為汽車識別數(shù)據(jù)庫通過LLE算法和本文算法降至2維流形的效果對比。圖中的“+”為負類樣本的低維流形,“.”為正類樣本的低維流形。在LLE中,k≤12時其流形結(jié)構(gòu)會被破壞,k≥16會帶來噪聲,在k=13時,LLE降維取得較好的結(jié)果,但可以看出姿態(tài)和外觀差距較大的汽車樣本與負類樣本混疊較為嚴重。在二維情況下,本文算法可以將正負兩類樣本進行較好的分離,僅有少量樣本發(fā)生混疊。
通過實驗可以得出本文算法的降維效果優(yōu)于LLE算法。
4.2 增量目標識別效果對比與分析
本小節(jié)從降維誤差、目標識別效果和運算時間3個方面,分別對Saul的線性LLE增量算法、Kouropteva的LLE增量算法與本文增量算法進行比較。
4.2.1 增量降維誤差對比
從UIUC測試集中選取85幅圖像作為增量樣本,增量樣本的低維流形誤差如下:
式中,y^i為新增樣本xi按照3種增量LLE降維方式計算的結(jié)果;yi為新增樣本歸并到訓(xùn)練樣本集后經(jīng)LLE或本文算法降維后得到的結(jié)果;error∈[0,1]。
圖6為不同維度下3種增量降維算法的增量降維誤差。
圖6 不同維度下3種算法增量降維誤差
從圖6可以看出,隨著低維流形維度的增加,增量降維誤差不斷增加。由于不同樣本集均存在其固有的本征維數(shù),因此低維流形維度d并不是越低越好。Saul的增量LLE算法中,由于代價矩陣M和增量低維流形Ynew的重構(gòu)鄰域沒有更新,因此隨著維度增加,低維流形重構(gòu)誤差增加明顯,當(dāng)?shù)途S流形維度d=50時,低維流形的重構(gòu)最大誤差為30.5%,平均誤差為27.4%;Kouropteva的LLE增量算法對代價矩陣M進行了更新,增量降維誤差來自于增量樣本的低維流形的重構(gòu)鄰域,可以看出在d=50時,85個增量樣本最大誤差為19.6%,平均誤差為15.7%;C-LLE的增量算法是局部線性降維,不需要對增量低維流形Ynew的重構(gòu)鄰域進行更新,增量降維誤差僅來自于某一類Ci線性度較高的樣本的代價矩陣M,在d=50時,85個增量樣本最大誤差為6%,平均誤差為0.9%。
4.2.2 目標識別效果對比
為測試算法的目標識別效果,選擇了200組汽車目標圖像進行識別,部分汽車目標圖像的3種增量識別算法效果對比如圖7所示。圖7為對1 584維特征向量降至20維時目標識別效果。通過圖7可以看出,在d=20情況下,由于增量降維誤差的緣故,C-LLE增量目標識別效果好于Saul和Kouropteva的LLE增量算法。
圖7 3種增量LLE算法識別效果對比
漏檢率與誤檢率是度量目標識別效果的指標,漏檢率與誤檢率構(gòu)成DET曲線。本文采用200幅正類(汽車)圖像與200幅負類(場景)圖像作為測試樣本,在不同維度下生成的DET曲線如圖8所示。
圖8 3種增量LLE算法DET曲線對比
通過圖8可以看出,在d=2時,3種算法均具有較高的漏檢率和誤檢率。隨著流形維度d的增加,漏檢率和誤檢率逐漸降低,在d=20時,3種算法的DET曲線中漏檢率和誤檢率均達到最低,即d=20為低維流形的本征維數(shù)。當(dāng)d>20時,隨著增量降維誤差的增大,Saul和Kouropteva的LLE增量算法目標識別效果變差,漏檢率和誤檢率逐步上升。而C-LLE算法的增量降維誤差隨著維數(shù)增加變化平緩,漏檢率和誤檢率趨于穩(wěn)定,識別效果較好。本征維數(shù)的確定也是流形學(xué)習(xí)的一個難點,很難直接確定高維樣本低維流形的本征維數(shù),當(dāng)維數(shù)增大到一定量值后,C-LLE算法增量降維和識別效果比較穩(wěn)定,因此C-LLE算法的增量降維和目標識別效果優(yōu)于前兩者。
4.2.3 算法處理時間對比
當(dāng)對Xnew進行處理時,Saul的LLE增量算法耗時部分主要為新增樣本k鄰域的確定、權(quán)重向量Wnew的計算;Kouropteva的LLE增量算法耗時部分主要為最優(yōu)化minε(Y)=Y(jié)MYT-diag(λ1,λ2,…,λd);C-LLE增量算法不需要對所有樣本進行搜索確定鄰域,主要耗時部分為增量樣本的低維投影。
算法處理時間測試條件如下:
(1)樣本集選擇UIUC汽車目標識別數(shù)據(jù)庫(訓(xùn)練樣本1 100個,維度1 584)。
(2)LLE鄰域數(shù)量k=14。
(3)低維流形維度d=10。
3種算法的處理時間對比如圖9所示。通過對比可以看出,C-LLE增量算法的運行時間為0.65 s,遠低于Saul和Kouropteva增量LLE算法(4.47 s和7.13 s)的運行時間。
圖9 3種算法運算速度對比
針對LLE流形學(xué)習(xí)算法無法自適應(yīng)進行線性重構(gòu)以及不具備增量學(xué)習(xí)能力的問題,提出了一種C-LLE目標識別算法。該方法分為高維非線性數(shù)據(jù)局部線性聚類、樣本集低維流形學(xué)習(xí)和增量樣本識別3個部分,解決了高維樣本的重構(gòu)鄰域無法自適應(yīng)確定以及無法對增量樣本進行增量降維和識別的問題。實驗從高維樣本集降維效果、增量樣本識別效果和算法速度等3方面對比了Saul和Kouropteva的增量LLE算法與本文算法的性能,結(jié)果表明本文算法的性能優(yōu)于前兩者。
[1]Cui J,Li Z,Gao J,et al.The application of support vector machine in pattern recogntion[C]∥Proc.of the International Conference on Control and Automation,2007:3135- 3138.
[2]Faruqe M O,Hasan M A M.Face recognition using PCA and SVM[C]∥Proc.of the 3rd International Conference on Anti-Counterfeiting,Security,and Identification in Communication,2009:97- 101.
[3]Wen C,Zhu Q.Dimension reduction analysis in image-based species classification[C]∥Proc.of the International Conference on Intelligent Computing and Intelligent Systems,2010:731- 734.
[4]Yu P F,Yu P C,Xu D.Comparison of PCA,LDA and GDA for palmprint verification[C]∥Proc.of the International Conference on Information Networking and Automation,2010:148- 152.
[5]Sang M L,Abbott A L,Araman P A.Dimensionality reduction and clustering on statistical manifolds[C]∥Proc.of the International Con-ference on Computer Vision and Pattern Recognition,2007:1- 7.
[6]Zhang Z Y,Wang J,Zha H Y.Adaptive manifold learning[J].IEEE Trans.on Pattern Analysis and Machine Intelligence,2012,34(2):253- 265.
[7]Roweis S T,Saul L K.Nonlinear dimensionality reduction by locally linear embedding[J].Science,2000,290(5500):2323- 2326.
[8]Zhao S L,Zhu S A.Face recognition by LLE dimensionality re
duction[C]∥Proc.of the International Conference on Intelligent Computation Technology and Automation,2011:121- 123.
[9]Zhu M H,Luo D Y.Incremental locally linear embedding algorithm based on inverse iteration method[J].Computer Engineering and Applications,2010,46(17):176- 178.(朱明旱,羅大庸.基于逆迭代的增量LLE算法[J].計算機工程與應(yīng)用,2010,46(17):176- 178.)
[10]Saul L K,Roweis S T.Think globally,fit locally:unsupervised learning of nonlinear manifolds[J].The Journal of Machine Learning Research,2003,4(1):119- 155.
[11]Kouropteva O,Okun O,Pieti Kainen M.Incremental locally linear embedding algorithm[J].Pattern Recognition,2005,38(10):1764- 1767.
[12]Li H S,Cheng L Z.Research on incremental Hessian LLE algorithm[J].Computer Engineering,2011,37(6):159- 161.(李厚森,成禮智.增量Hessian LLE算法研究[J].計算機工程,2011,37(6):159- 161.)
[13]Wang L,Wu C D,Chen D Y,et al.Exploring linear homeomorphic clusters on nonlinear manifold[J].Acta Automatica Sinica,2012,38(8):1308- 1320.(王力,吳成東,陳東岳,等.非線性流形上的線性結(jié)構(gòu)聚類挖掘[J].自動化學(xué)報,2012,38(8):1308- 1320.)
[14]Zhang Z Y,Zha H Y.Principal manifolds and nonlinear dimensionality reduction via tangent space alignment[J].Society for Industrial and Applied Mathematics Journal on Scientific Computing,2005,26(1):313- 338.
[15]Sun J G,Liu J,Zhao L Y.Clustering algorithms research[J].Journal of Software,2008,19(1):48- 61.(孫吉貴,劉杰,趙連宇.聚類算法研究[J].軟件學(xué)報,2008,19(1):48- 61.)
Incremental sample dimensionality reduction and recognition based on clustering adaptively manifold learning
YANG Jing-lin1,TANG Lin-bo1,SONG Dan2,ZHAO Bao-jun1
(1.School of Information and Electronics,Beijing Institute of Technology,Beijing 100081,China;2.Beijing Institute of Electronic System Engineering,Beijing 100854,China)
To solve the problem that incremental learning of locally linear embedding(LLE)cannot get reconfiguration neighborhood adaptively and powerlessly,a target recognition method of clustering adaptively incremental LLE(C-LLE)is proposed.Firstly,the clustering model of the clustering locally linear structure of high-dimensional data is build,so it is able to solve the problem of neighborhood adaptive reconfiguration.Then the proposed algorithm extracts an explicit dimensionality reduction matrix,and the problem of powerlessly incremental object recognition is solved.Experimental results show that the proposed algorithm is able to extract the low-dimensional manifold structure of high-dimensional data accurately.It also has low incremental dimension reduction error and great target recognition performance.
manifold learning;locally linear embedding(LLE);incremental dimension reduction;object recognition;mitotic clustering
TP 391
A
10.3969/j.issn.1001-506X.2015.01.32
楊靜林(1985-),男,博士研究生,主要研究方向為圖像處理、目標檢測與識別。
E-mail:yangjinglin@bit.edu.cn
唐林波(1978-),男,講師,博士,主要研究方向為目標檢測與跟蹤、實時圖像處理技術(shù)。
E-mail:tanglinbo@bit.edu.cn
宋丹(1984-),男,工程師,博士,主要研究方向為一體化信息處理技術(shù)、目標識別與跟蹤技術(shù)。
E-mail:adanflytosky@gmail.com
趙保軍(1960-),男,教授,博士,主要研究方向為多光譜圖像融合、識別與跟蹤技術(shù),高分辨圖像實時壓縮、恢復(fù)與傳輸技術(shù),智能圖像處理技術(shù)。
E-mail:zbj@bit.edu.cn
1001-506X(2015)01-0199-07
網(wǎng)址:www.sys-ele.com
2014- 04- 02;
2014- 06- 17;網(wǎng)絡(luò)優(yōu)先出版日期:2014- 08- 06。
網(wǎng)絡(luò)優(yōu)先出版地址:http://www.cnki.net/kcms/detail/11.2422.TN.20140806.1141.004.html