国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于構(gòu)造空間金字塔度量矩陣的圖像分類(lèi)算法

2018-01-23 08:40李青彥彭進(jìn)業(yè)
關(guān)鍵詞:鄰接矩陣詞典聚類(lèi)

李青彥,彭進(jìn)業(yè),李 展

(1.西北工業(yè)大學(xué) 電子信息學(xué)院, 陜西 西安 710072;2.西北大學(xué) 信息科學(xué)與技術(shù)學(xué)院, 陜西 西安 710127)

詞袋(Bag of words,BOW)被廣泛地應(yīng)用到圖像分類(lèi)技術(shù)中,是圖像分類(lèi)技術(shù)中最有效的算法之一。就如何提高詞袋算法性能,學(xué)者們提出了多種算法,如碼詞和描述子共現(xiàn)的通用模型方法[1-4],以及用于取代無(wú)監(jiān)督K-means聚類(lèi)的碼書(shū)判別學(xué)習(xí)方法[5-8]等。尤其需要注意的是,Grauman[9]提出了金字塔匹配核函數(shù),該方法對(duì)特征空間進(jìn)行網(wǎng)格分割,分成不同層次,利用不同的權(quán)重組合計(jì)算SIFT特征相似性,進(jìn)而對(duì)圖像進(jìn)行分類(lèi)。鑒于金字塔匹配核函數(shù)并沒(méi)有充分考慮圖像特征的空間位置,Lazebnik[10]進(jìn)而提出了空間金字塔匹配算法(Spatial pyramid matching,SPM)。

在實(shí)際應(yīng)用中,SPM仍然存在如下問(wèn)題。一方面,SPM算法使用了SIFT(Scale-invariant feature transform,SIFT)[11]算法提取圖像特征。SIFT在尺度空間利用高斯差分檢測(cè)算子,對(duì)特征點(diǎn)的梯度位置和方向都作了相應(yīng)的量化, 具有平移、 尺度和旋轉(zhuǎn)不變性, 是對(duì)圖像局部特征的一種描述方式。 但是, SIFT算法主要針對(duì)灰度圖像進(jìn)行特征提取, 忽略了圖像的顏色信息和光照信息。 另一方面, SPM算法使用了非線(xiàn)性分類(lèi)器進(jìn)行圖像分類(lèi)。 若樣本數(shù)量為n, 則訓(xùn)練集和測(cè)試集的復(fù)雜度分別為O(n3)和O(n)。 顯然, 該方法在處理大規(guī)模圖像集時(shí)會(huì)消耗大量的計(jì)算機(jī)資源。 為了解決該問(wèn)題, 一些研究者開(kāi)始使用線(xiàn)性分類(lèi)器取代非線(xiàn)性分類(lèi)器來(lái)進(jìn)行圖像分類(lèi)處理, 如ScSPM(SPM on Sparse coding)方法[14]、LLC (Locality-constrained linear coding)方法[15]、基于流形的特征詞典生成算法[16]、多核學(xué)習(xí)的核矩陣方法[17]、規(guī)范割對(duì)聚類(lèi)特征詞方法[18]、拉普拉斯非負(fù)稀疏編碼方法(LNNSC)[19],Zou等[20]提出的將圖像局部特征和全局特征融合的分類(lèi)算法(LGP,Local-global fusion),Peng等[20]提出的通過(guò)對(duì)圖像局部特征點(diǎn)進(jìn)行哈希編碼來(lái)提高編碼速度和精度算法等,這些方法均是對(duì)特征點(diǎn)進(jìn)行聚類(lèi)獲得特征詞典,然后應(yīng)用不同方法進(jìn)行特征編碼,在一定程度上提高了圖像分類(lèi)精度。但是,這些方法都沒(méi)有考慮詞典單詞之間的相關(guān)性,圖像集內(nèi)部各子類(lèi)的分類(lèi)效果差異較大。

針對(duì)以上兩個(gè)問(wèn)題,本文提出了一種基于構(gòu)造空間金字塔度量矩陣的圖像分類(lèi)算法。其特點(diǎn)在于,在圖像視覺(jué)單詞相關(guān)性建立方面,充分考慮圖像視覺(jué)單詞的空間關(guān)系,建立了鄰接矩陣模型,從而保證線(xiàn)性分類(lèi)器的使用;在圖像底層特征提取方面,通過(guò)對(duì)比實(shí)驗(yàn),發(fā)現(xiàn)使用融合了顏色特征的CSIFT(Colored SIFT)[12]比SIFT具有更好的分類(lèi)效果。文獻(xiàn)[13]提出的CSIFT將顏色信息加入到了SIFT的特征集中,使得CSIFT特征同時(shí)具有顏色和尺度不變性。而且,同一圖像中獲得的CSIFT特征數(shù)量平均是SIFT特征數(shù)量的1.94倍。同時(shí),文獻(xiàn)[21]建立了基于鄰接矩陣的全文索引模型,在大規(guī)模文本索引中表現(xiàn)優(yōu)異,提高了查詢(xún)效率。

本文算法步驟流程為:首先,提取融合了圖像顏色特征的CSIFT特征,進(jìn)而獲取圖像特征的聚類(lèi)中心;然后,對(duì)這些中心進(jìn)行有向圖建模,用鄰接矩陣對(duì)聚類(lèi)中心進(jìn)行連通度測(cè)量,建立基于鄰接矩陣度量的圖像詞典;最后,使用線(xiàn)性分類(lèi)器進(jìn)行圖像分類(lèi)。由于本文提出的方法考慮到了圖像詞典的空間關(guān)系,同時(shí)兼顧了圖像的全局顏色特征和局部位置特征,提取的特征具有顏色、旋轉(zhuǎn)、位置不變性。通過(guò)在Caltech-101圖像庫(kù)實(shí)驗(yàn)驗(yàn)證可得,本文算法提高了分類(lèi)精度,尤其對(duì)彩色自然場(chǎng)景的圖像具有更好的分類(lèi)效果。

1 基于鄰接矩陣的圖像不變特征詞典算法

本文首先使用融合了顏色特征和空間尺度不變特性的CSIFT方法進(jìn)行圖像底層特征提取,然后使用K-means聚類(lèi)方法,獲取底層圖像特征聚類(lèi)中心,接著建立由底層聚類(lèi)特征中心構(gòu)成的n階有向圖鄰接矩陣,通過(guò)將圖像特征向矩陣投影,建立圖像直方圖,獲得了圖像局部特征,最后選用線(xiàn)性核的支持向量機(jī)進(jìn)行分類(lèi)。算法主要步驟如圖1所示。

圖1 本文算法主要步驟Fig.1 The main step of the algorithm

1.1 獲取圖像底層特征

從圖像訓(xùn)練集I中提取出由M個(gè)CSIFT特征組成的集合X,每一個(gè)圖像特征為D維向量,即

X=[x1,…,xM]T,X∈RM×D。

(1)

應(yīng)用式(2)的K-means優(yōu)化模型對(duì)特征進(jìn)行特征向量量化,

(2)

其中,V=[v1,…,vK]T,代表K-means方法獲得的K個(gè)聚類(lèi)中心,即視覺(jué)單詞詞典,每個(gè)聚類(lèi)中心稱(chēng)之為詞典的單詞?!ぁ硎鞠蛄康腖2范數(shù),即兩個(gè)向量的歐氏距離。

用U=[u1,…,uM]T表示任一CSIFT圖像特征編碼結(jié)果,um為轉(zhuǎn)后的圖像特征,特征量化用式(3)進(jìn)行計(jì)算,

(3)

其中,Card(um)=1要求um中只有一個(gè)元素是非零值;|um|=1表示um的1-范數(shù)必須是1,即um中所有元素的絕對(duì)值之和為1;um≥0要求um均為非負(fù)數(shù)。

進(jìn)一步考慮到CSIFT特征的位置信息,用位置因子λ|dm·um|替換式(3)的約束條件Card(um)=1,式(3)就轉(zhuǎn)化成了式(4),

(4)

(5)

特征點(diǎn)xi與詞典V的距離為

dist(xi,V)=[dist(xi,v1),…,dist(xi,vM)]T,

(6)

σ用來(lái)調(diào)節(jié)距離的取值范圍,在高斯函數(shù)中,其表示寬度參數(shù)。

1.2 鄰接矩陣建模

文獻(xiàn)[23]建立了基于鄰接矩陣的全文索引模型,在大規(guī)模文本索引中表現(xiàn)優(yōu)異,提高了查詢(xún)效率。文獻(xiàn)[14-15]改進(jìn)了圖像編碼方法,開(kāi)始運(yùn)用線(xiàn)性分類(lèi)器進(jìn)行分類(lèi),取得了很好的分類(lèi)效果。雖然這些方法都是將圖像特征投影到多個(gè)聚類(lèi)中心,但均沒(méi)有考慮特征聚類(lèi)中心之間的關(guān)系。本文對(duì)特征聚類(lèi)中心運(yùn)用鄰接矩陣進(jìn)行建模,獲得了視覺(jué)詞典的相似度矩陣,然后再進(jìn)行空間金字塔匹配。與文獻(xiàn)[14-15]相比較,本文的方法考慮了圖像字典中基元素之間的關(guān)聯(lián)度。

1.2.1 鄰接矩陣 數(shù)據(jù)結(jié)構(gòu)中,圖分為有向圖和無(wú)向圖兩種,本文主要討論有向圖的鄰接矩陣。

有向圖D=〈V,E〉,其中,V={v1,v2,…,vn}代表圖的頂點(diǎn),E代表各頂點(diǎn)的關(guān)系。鄰接矩陣Al表示D中長(zhǎng)度為l的通路數(shù),

Al=Al-1·A。

1.2.2 構(gòu)建圖像特征詞典的鄰接矩陣 構(gòu)造有向圖D=〈V,T〉,其中,詞典V={v1,v2,…,vn},T為n個(gè)向量之間的相似度矩陣,則有

(7)

其中,tij為向量vi到vj的相似度。

向量之間的相似度可以通過(guò)求解它們之間的距離來(lái)獲得。同時(shí),為了使得相似的特征在編碼過(guò)程中有更大的權(quán)重,并使得矩陣T為稀疏矩陣,只求解vi與其k個(gè)最小近鄰的距離,其余均為0,即

tij=

(8)

其中,σ為高斯函數(shù)中的寬度參數(shù),用來(lái)調(diào)節(jié)vi與vj距離的取值范圍,σ越大,函數(shù)越平滑,特征之間的差異性也就會(huì)越小。

式(8)表明,當(dāng)兩個(gè)特征完全相同時(shí),他們之間的相似度為1,完全不同時(shí)相似度為0。

令T(1)=T,我們稱(chēng)T(1)為V的一階相似度矩陣。鄰接矩陣T(t)=T(t-1)T(1),T(t)就是V的t階相似度矩陣。

然后,對(duì)xi進(jìn)行初始化,

yij=

(9)

其中,與文獻(xiàn)[24]的要求一樣,λ是歸一化因子,用來(lái)保證yi內(nèi)各元素之和為1。

轉(zhuǎn)化后的圖像特征結(jié)果ui表示為

(10)

這樣,圖像的CSIFT特征最終轉(zhuǎn)化成了ui。然后,將圖像特征進(jìn)行高分辨率的空間金字塔組合,最后得到表示圖像整體特征的向量。

由于隨著t值的增大,T(t)將不再稀疏,所以U也不是稀疏矩陣,這將給計(jì)算機(jī)帶來(lái)很大的開(kāi)銷(xiāo),尤其是對(duì)于大規(guī)模圖像集,嚴(yán)重降低了計(jì)算機(jī)的運(yùn)算性能。因此,在具體實(shí)驗(yàn)中對(duì)ui設(shè)置一個(gè)閾值e。由于小于這個(gè)閾值的元素對(duì)結(jié)果將產(chǎn)生非常小的影響,所以本文將其全部置為0,以保證U是稀疏矩陣。

2 實(shí) 驗(yàn)

2.1 實(shí)驗(yàn)概述

本文實(shí)驗(yàn)所用計(jì)算機(jī)的配置為:CPU Corei5-3470雙核,主頻3.2GHz,內(nèi)存4GB,顯存2GB。實(shí)驗(yàn)所用圖像集為Caltech-101。Caltech-101圖像集有101類(lèi)共計(jì)9 144幅圖像,每類(lèi)圖像有40~800幅圖像,每幅圖像的尺寸大約為300×200像素。從每類(lèi)中隨機(jī)選取10,15,25,30個(gè)訓(xùn)練樣本,其余作為測(cè)試樣本,同時(shí)為了保證實(shí)驗(yàn)的穩(wěn)定性,每次實(shí)驗(yàn)重復(fù)進(jìn)行10次,取平均值和方差作為實(shí)驗(yàn)的結(jié)果。

首先,把圖像分成16×16像素大小的圖像塊,圖像塊之間間隙為6個(gè)像素,使用 CSIFT 特征提取算法,將每個(gè)圖像塊進(jìn)行向量量化。然后,利用K-means聚類(lèi)獲得初始詞典,隨后利用本文提出的鄰接矩陣模型對(duì)圖像特征進(jìn)行轉(zhuǎn)化,獲取每個(gè)圖像特征描述子um。接著,計(jì)算不同尺度空間的圖像特征,實(shí)驗(yàn)中將圖像空間金字塔層級(jí)定為3層,即l=[0,1,2],這樣每一個(gè)圖像特征被空間金字塔方法轉(zhuǎn)化成了一個(gè)M維的向量U。

接著構(gòu)造一個(gè)pooling函數(shù):z=F(U)。這個(gè)函數(shù)對(duì)U的每一列進(jìn)行計(jì)算,其每一列反映出了所有特征點(diǎn)與詞典中單詞的關(guān)系,本實(shí)驗(yàn)采用了最大值函數(shù),

zj=max{|u1j|,|u2j|,…,|uMj|}。

其中,uij是U的第i行j列的值,zj則是z的第j個(gè)元素。

2.2 實(shí)驗(yàn)結(jié)果

鄰接矩陣階次n的取值與最終精度影響如圖2所示。其中,最小近鄰K=5,高斯核函數(shù)寬度參數(shù)σ=1,稀疏化參數(shù)e=0.01。從圖2可以看出,當(dāng)鄰接矩陣階次n≤3時(shí),分辨精度隨著n的增長(zhǎng)而提高,n>3后,分類(lèi)精度并沒(méi)有明顯的提升。

圖2 不同的鄰接矩陣階次n的取值對(duì)最終分辨精度的影響Fig.2 The effect of the order n elements value in the adjacency matrix on the final classification accuracy

本文對(duì)每類(lèi)圖像分別隨機(jī)選取20幅和30幅訓(xùn)練圖像,與其他分類(lèi)方法進(jìn)行比較。實(shí)驗(yàn)發(fā)現(xiàn),將經(jīng)過(guò)鄰接矩陣優(yōu)化過(guò)的詞典矩陣分別用于哈希編碼[22]和LLC方法,使用了基于鄰接矩陣的圖像詞典算法的分類(lèi)精度獲得一定程度的提高,當(dāng)最小近鄰K=5,鄰接矩陣階次n=3,高斯核函數(shù)寬度參數(shù)=1,稀疏化參數(shù)e=0.01時(shí),本文算法與其他算法相比,分類(lèi)精度如表1所示。

表1 本文與其他算法的分類(lèi)精度對(duì)比Tab.1 Comparison of classification accuracy

本文的方法對(duì)于自然界中正常存在的圖像具有更好的分類(lèi)效果。圖3列出了本文實(shí)驗(yàn)所用的6種圖像,分別為水蓮、停止標(biāo)示、比薩、羚羊、寶塔、金字塔。表2展示了本文與LLC方法在部分圖像類(lèi)上的分類(lèi)效果。水蓮、停止標(biāo)示、比薩和羚羊4類(lèi)圖像均為自然界中存在的彩色圖像,其分類(lèi)效果好于LLC方法,CSIFT算子優(yōu)于SIFT算子。在寶塔圖像集上,使用SIFT算子的鄰接矩陣分類(lèi)方法和LLC方法的分類(lèi)效果相同,使用了CSIFT算子后,由于增加了顏色和光照信息,分類(lèi)效果有了明顯提升。對(duì)于含有電腦模擬或后期進(jìn)行過(guò)再處理的圖像集(如圖3(f)金字塔),因?yàn)槠浒朔亲匀唤缰姓4嬖诘膱D像,本文的分類(lèi)效果稍差。

圖3 實(shí)驗(yàn)用到的部分圖像示例Fig.3 Some image examples used in the experiment

圖像名稱(chēng)算 法分類(lèi)精度/%LLC28.57水蓮SIFT+鄰接矩陣85.71CSIFT+鄰接矩陣85.71LLC94.12停止標(biāo)示SIFT+鄰接矩陣100CSIFT+鄰接矩陣100LLC82.61比薩SIFT+鄰接矩陣86.96CSIFT+鄰接矩陣91.31LLC85.11羚羊SIFT+鄰接矩陣87.05CSIFT+鄰接矩陣88.99LLC94.12寶塔SIFT+鄰接矩陣94.12CSIFT+鄰接矩陣98.88LLC74.07金字塔SIFT+鄰接矩陣62.96CSIFT+鄰接矩陣62.96

2.3 實(shí)驗(yàn)相關(guān)參數(shù)取值對(duì)結(jié)果的影響

在鄰接矩陣模型中,參數(shù)取值涉及到訓(xùn)練樣本數(shù)目、最小近鄰取值K、鄰接矩陣階次n、高斯核函數(shù)寬度參數(shù)σ和稀疏化參數(shù)e。

第二,教育者在對(duì)大學(xué)生進(jìn)行思想政治教育的過(guò)程中,要積極推動(dòng)思想政治工作傳統(tǒng)優(yōu)勢(shì)同信息技術(shù)高度融合,拓寬社會(huì)主義核心價(jià)值觀教育的深度和廣度,讓社會(huì)主義核心價(jià)值觀內(nèi)化于心,外化于行。并將優(yōu)秀健康的價(jià)值觀及思想觀念的良好引導(dǎo)作用滲透到學(xué)生的日常生活及學(xué)習(xí)中,引導(dǎo)學(xué)生樹(shù)立正確的世界觀、人生觀、價(jià)值觀,做到以文化人。

實(shí)驗(yàn)中,首先固定訓(xùn)練樣本數(shù)目不變,然后變換其他參數(shù),其中,最小近鄰K={3,5,7},鄰接矩陣階次n={1,2,3,4},高斯核函數(shù)寬度參數(shù)σ的取值{2,1,0.1,0.01},稀疏化參數(shù)e取值為{0.1,0.01,0.001}。各參數(shù)對(duì)實(shí)驗(yàn)結(jié)果的影響情況為:

1)寬度參數(shù)σ太大或太小,分類(lèi)精度都會(huì)降低。這是因?yàn)樘蟮膶挾葏?shù)σ使得高斯函數(shù)變得平滑,相應(yīng)特征之間的相似度度量取值趨向于1,同時(shí)如果寬度參數(shù)σ太小,則使得每個(gè)特征點(diǎn)變得孤立,與其他特征點(diǎn)的相似度趨近于0,使得算法還原成了沒(méi)有進(jìn)行鄰接矩陣建模的情況,從而使本文算法失去了意義。

2)最小近鄰K取值越大,特征點(diǎn)與其他特征點(diǎn)的關(guān)聯(lián)度保留的越多。對(duì)于顯著特征相關(guān)性較強(qiáng)的圖像有更加強(qiáng)的分類(lèi)能力,但同時(shí)會(huì)降低特征背景差異較大的圖像的分類(lèi)能力。

3)鄰接矩陣階次n的取值越大,圖像特征點(diǎn)的相關(guān)性越強(qiáng),算法對(duì)顯著特征相關(guān)性較強(qiáng)的圖像有更加強(qiáng)的分類(lèi)能力,同時(shí),其受稀疏化參數(shù)e的約束較為明顯。若稀疏化參數(shù)e取值越小,則鄰接矩陣階次n的取值對(duì)分類(lèi)結(jié)果的影響越顯著,與此同時(shí),矩陣稀疏化程度降低,運(yùn)算消耗增加。

表3 CSIFT與SIFT特征提取時(shí)間平均消耗

Tab.3 The average cputime of extract features using CSIFT and SIFT ms

3 結(jié) 語(yǔ)

本文考慮了詞典中顯著特征之間的關(guān)系,利用鄰接矩陣的思想建立了詞典相似度矩陣。實(shí)驗(yàn)證明,本文提出的方法應(yīng)用在對(duì)圖像局部特征的各類(lèi)改進(jìn)算法中,能夠起到優(yōu)化圖像詞典的作用;同時(shí),本方法對(duì)圖像語(yǔ)義關(guān)聯(lián)緊密的圖像具有更高的分類(lèi)精度,當(dāng)使用了融合顏色和光照信息的底層特征CSIFT算子后,在自然界彩色圖像分類(lèi)方面表現(xiàn)更為突出。但同時(shí)也看到,隨著圖像類(lèi)型的增加,維度災(zāi)難始終存在。實(shí)驗(yàn)中,各參數(shù)的取值根據(jù)實(shí)驗(yàn)經(jīng)驗(yàn)來(lái)尋找最優(yōu),并不能確保選取的參數(shù)為最優(yōu)參數(shù)。如何將更多的圖像特征融合,并應(yīng)用到圖像分類(lèi)中,提高圖像分類(lèi)精度,將是下一步研究的重點(diǎn)。

[1] BOIMAN O, SHECHTMAN E, IRANI M. In defense of Nearest-Neighbor based image classification[C]∥ IEEE Conference on Computer Vision and Pattern Recognition.IEEE, 2008:1-8.

[2] BOSCH A, ZISSERMAN A, MUOZ X. Scene classification using a hybrid generative/discriminative approach[J].IEEE Transactions on Pattern Analysis & Machine Intelligence, 2008, 30(4):712.

[3] LI F F,PERONA P. A Bayesian hierarchical model for learning natural scene categories[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition. IEEE Computer Society,2005:524-531.

[4] QUELHAS P, MONAY F, ODOBEZ J M, et al. Modeling scenes with local descriptors and latent aspects[C]∥Tenth IEEE International Conference on Computer Vision. IEEE, 2005:883-890.

[5] YANG L,JIN R,SUKTHANKAR R, et al. Unifying discriminative visual codebook generation with classifier training for object category recognition[C]∥IEEE Conference on Computer Vision and Pattern Recognition. IEEE, 2008: 1-8.

[6] ELAD M,AHARON M. Image denoising via sparse and redundant representations over learned dictionaries[J].IEEE Transactions on Image Processing,2006,15(12): 3736-3745.

[7] MOOSMAN F,TRIGGS B,JURIE F. Randomized clustering forests for building fast and discriminative visual vocabularies[J].Advances in Neural Information Processing Systems,2006.

[8] FREDERIC J,TRIGGS B. Creating efficient codebooks for visual recognition[C]∥Tenth IEEE International Conference on Computer Vision. IEEE, 2005: 604-610.

[9] GRAUMAN K,DARRELL T. The pyramid match kernel: discriminative classification with sets of image features[C]∥Tenth IEEE International Conference on Computer Vision. IEEE, 2005: 1458-1465.

[10] LAZEBNIK S,SCHMID C,PONCE J. Beyond Bags of Features: Spatial Pyramid Matching for Recognizing Natural Scene Categories[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition. IEEE Computer Society , 2006: 2169-2178.

[11] LOWE D G. Object recognition from local scale-invariant features[C]∥The Proceedings of the Seventh IEEE International Conference on Computer Vision. IEEE,1999: 1150-1157.

[12] ABDELHAKIM A E, FARAG A A. CSIFT: A SIFT descriptor with color invariant characteristics[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition. IEEE, 2006: 1978-1983.

[13] GEUSEBROEK J M, BOOMGAARD R V D, SMEULDERS A W M, et al. Color invariance[J].IEEE Transactions on Pattern Analysis & Machine Intelligence, 2001, 23(12):1338-1350.

[14] YANG J,YU K,GONG Y,HUANG T. Linear spatial pyramid matching using sparse coding for image classification[C]∥IEEE Conference on Computer Vision and Pattern Recognition. IEEE, 2009: 1794-1801.

[15] WANG J,YANG J,YU K,et al. Locality-constrained Linear coding for image classification[C]∥IEEE Conference on Computer Vision and Pattern Recognition. IEEE, 2010: 3360-3367.

[16] 章毓晉, 劉寶弟,王宇雄, 圖像分類(lèi)中多流形上的詞典學(xué)習(xí)[J].清華大學(xué)學(xué)報(bào)(自然科學(xué)版), 2012,52(04): 575-579.

[17] 亓?xí)哉?王慶.一種基于稀疏編碼的多核學(xué)習(xí)圖像分類(lèi)方法[J].電子學(xué)報(bào), 2012,40(4): 773-779.

[18] 丁鍇,陳偉海,吳星明,等.基于規(guī)范割的空間金字塔圖像分類(lèi)算法[J].北京航空航天大學(xué)學(xué)報(bào), 2013,39(10): 1342-1347.

[19] LI Qianqian,CAO Guo. Image classification based on laplacian non-negative sparse coding[J].Computer Engineering, 2013,39(11):240-244.

[20] ZOU J,LI W,CHEN C,DU Q. Scene classification using local and global features with collaborative representation fusion[J].Information Sciences, 2016,348:209-226.

[21] LINDE Y,BUZO A,GRAY R. An Algorithm for Vector Quantizer Design[J].IEEE Transactions on Communications, 1980, 28(1):84-95.

[22] PENG T, LI F. Image classification algorithm based on hash codes and space pyramid[J].Journal of Image & Graphics, 2016:114-118.

[23] 周水庚, 胡運(yùn)發(fā),關(guān)佶紅.基于鄰接矩陣的全文索引模型[J].軟件學(xué)報(bào), 2002,13(10): 1933-1942.

[24] LIU L,WANG L,LIU X.In defense of soft-assignment coding[C]∥IEEE International Conference on Computer Vision. IEEE, 2011:2486-2493.

猜你喜歡
鄰接矩陣詞典聚類(lèi)
輪圖的平衡性
米蘭·昆德拉的A-Z詞典(節(jié)選)
米沃什詞典
基于K-means聚類(lèi)的車(chē)-地?zé)o線(xiàn)通信場(chǎng)強(qiáng)研究
詞典引發(fā)的政治辯論由來(lái)已久 精讀
基于高斯混合聚類(lèi)的陣列干涉SAR三維成像
基于鄰接矩陣變型的K分網(wǎng)絡(luò)社團(tuán)算法
基于Spark平臺(tái)的K-means聚類(lèi)算法改進(jìn)及并行化實(shí)現(xiàn)
基于改進(jìn)的遺傳算法的模糊聚類(lèi)算法
基于子模性質(zhì)的基因表達(dá)譜特征基因提取
江北区| 瑞昌市| 威远县| 古蔺县| 桐城市| 滕州市| 新晃| 瓮安县| 安丘市| 高碑店市| 措美县| 永兴县| 彭山县| 专栏| 行唐县| 扬中市| 邹平县| 江北区| 巫山县| 江永县| 莱阳市| 连云港市| 尉氏县| 华蓥市| 黄山市| 延庆县| 岳阳市| 集贤县| 阿克陶县| 邢台市| 遂溪县| 武乡县| 晴隆县| 上栗县| 芒康县| 辽中县| 南阳市| 林芝县| 皮山县| 牡丹江市| 珠海市|