李青彥,彭進(jìn)業(yè),李 展
(1.西北工業(yè)大學(xué) 電子信息學(xué)院, 陜西 西安 710072;2.西北大學(xué) 信息科學(xué)與技術(shù)學(xué)院, 陜西 西安 710127)
詞袋(Bag of words,BOW)被廣泛地應(yīng)用到圖像分類(lèi)技術(shù)中,是圖像分類(lèi)技術(shù)中最有效的算法之一。就如何提高詞袋算法性能,學(xué)者們提出了多種算法,如碼詞和描述子共現(xiàn)的通用模型方法[1-4],以及用于取代無(wú)監(jiān)督K-means聚類(lèi)的碼書(shū)判別學(xué)習(xí)方法[5-8]等。尤其需要注意的是,Grauman[9]提出了金字塔匹配核函數(shù),該方法對(duì)特征空間進(jìn)行網(wǎng)格分割,分成不同層次,利用不同的權(quán)重組合計(jì)算SIFT特征相似性,進(jìn)而對(duì)圖像進(jìn)行分類(lèi)。鑒于金字塔匹配核函數(shù)并沒(méi)有充分考慮圖像特征的空間位置,Lazebnik[10]進(jìn)而提出了空間金字塔匹配算法(Spatial pyramid matching,SPM)。
在實(shí)際應(yīng)用中,SPM仍然存在如下問(wèn)題。一方面,SPM算法使用了SIFT(Scale-invariant feature transform,SIFT)[11]算法提取圖像特征。SIFT在尺度空間利用高斯差分檢測(cè)算子,對(duì)特征點(diǎn)的梯度位置和方向都作了相應(yīng)的量化, 具有平移、 尺度和旋轉(zhuǎn)不變性, 是對(duì)圖像局部特征的一種描述方式。 但是, SIFT算法主要針對(duì)灰度圖像進(jìn)行特征提取, 忽略了圖像的顏色信息和光照信息。 另一方面, SPM算法使用了非線(xiàn)性分類(lèi)器進(jìn)行圖像分類(lèi)。 若樣本數(shù)量為n, 則訓(xùn)練集和測(cè)試集的復(fù)雜度分別為O(n3)和O(n)。 顯然, 該方法在處理大規(guī)模圖像集時(shí)會(huì)消耗大量的計(jì)算機(jī)資源。 為了解決該問(wèn)題, 一些研究者開(kāi)始使用線(xiàn)性分類(lèi)器取代非線(xiàn)性分類(lèi)器來(lái)進(jìn)行圖像分類(lèi)處理, 如ScSPM(SPM on Sparse coding)方法[14]、LLC (Locality-constrained linear coding)方法[15]、基于流形的特征詞典生成算法[16]、多核學(xué)習(xí)的核矩陣方法[17]、規(guī)范割對(duì)聚類(lèi)特征詞方法[18]、拉普拉斯非負(fù)稀疏編碼方法(LNNSC)[19],Zou等[20]提出的將圖像局部特征和全局特征融合的分類(lèi)算法(LGP,Local-global fusion),Peng等[20]提出的通過(guò)對(duì)圖像局部特征點(diǎn)進(jìn)行哈希編碼來(lái)提高編碼速度和精度算法等,這些方法均是對(duì)特征點(diǎn)進(jìn)行聚類(lèi)獲得特征詞典,然后應(yīng)用不同方法進(jìn)行特征編碼,在一定程度上提高了圖像分類(lèi)精度。但是,這些方法都沒(méi)有考慮詞典單詞之間的相關(guān)性,圖像集內(nèi)部各子類(lèi)的分類(lèi)效果差異較大。
針對(duì)以上兩個(gè)問(wèn)題,本文提出了一種基于構(gòu)造空間金字塔度量矩陣的圖像分類(lèi)算法。其特點(diǎn)在于,在圖像視覺(jué)單詞相關(guān)性建立方面,充分考慮圖像視覺(jué)單詞的空間關(guān)系,建立了鄰接矩陣模型,從而保證線(xiàn)性分類(lèi)器的使用;在圖像底層特征提取方面,通過(guò)對(duì)比實(shí)驗(yàn),發(fā)現(xiàn)使用融合了顏色特征的CSIFT(Colored SIFT)[12]比SIFT具有更好的分類(lèi)效果。文獻(xiàn)[13]提出的CSIFT將顏色信息加入到了SIFT的特征集中,使得CSIFT特征同時(shí)具有顏色和尺度不變性。而且,同一圖像中獲得的CSIFT特征數(shù)量平均是SIFT特征數(shù)量的1.94倍。同時(shí),文獻(xiàn)[21]建立了基于鄰接矩陣的全文索引模型,在大規(guī)模文本索引中表現(xiàn)優(yōu)異,提高了查詢(xún)效率。
本文算法步驟流程為:首先,提取融合了圖像顏色特征的CSIFT特征,進(jìn)而獲取圖像特征的聚類(lèi)中心;然后,對(duì)這些中心進(jìn)行有向圖建模,用鄰接矩陣對(duì)聚類(lèi)中心進(jìn)行連通度測(cè)量,建立基于鄰接矩陣度量的圖像詞典;最后,使用線(xiàn)性分類(lèi)器進(jìn)行圖像分類(lèi)。由于本文提出的方法考慮到了圖像詞典的空間關(guān)系,同時(shí)兼顧了圖像的全局顏色特征和局部位置特征,提取的特征具有顏色、旋轉(zhuǎn)、位置不變性。通過(guò)在Caltech-101圖像庫(kù)實(shí)驗(yàn)驗(yàn)證可得,本文算法提高了分類(lèi)精度,尤其對(duì)彩色自然場(chǎng)景的圖像具有更好的分類(lèi)效果。
本文首先使用融合了顏色特征和空間尺度不變特性的CSIFT方法進(jìn)行圖像底層特征提取,然后使用K-means聚類(lèi)方法,獲取底層圖像特征聚類(lèi)中心,接著建立由底層聚類(lèi)特征中心構(gòu)成的n階有向圖鄰接矩陣,通過(guò)將圖像特征向矩陣投影,建立圖像直方圖,獲得了圖像局部特征,最后選用線(xiàn)性核的支持向量機(jī)進(jìn)行分類(lèi)。算法主要步驟如圖1所示。
圖1 本文算法主要步驟Fig.1 The main step of the algorithm
從圖像訓(xùn)練集I中提取出由M個(gè)CSIFT特征組成的集合X,每一個(gè)圖像特征為D維向量,即
X=[x1,…,xM]T,X∈RM×D。
(1)
應(yīng)用式(2)的K-means優(yōu)化模型對(duì)特征進(jìn)行特征向量量化,
(2)
其中,V=[v1,…,vK]T,代表K-means方法獲得的K個(gè)聚類(lèi)中心,即視覺(jué)單詞詞典,每個(gè)聚類(lèi)中心稱(chēng)之為詞典的單詞?!ぁ硎鞠蛄康腖2范數(shù),即兩個(gè)向量的歐氏距離。
用U=[u1,…,uM]T表示任一CSIFT圖像特征編碼結(jié)果,um為轉(zhuǎn)后的圖像特征,特征量化用式(3)進(jìn)行計(jì)算,
(3)
其中,Card(um)=1要求um中只有一個(gè)元素是非零值;|um|=1表示um的1-范數(shù)必須是1,即um中所有元素的絕對(duì)值之和為1;um≥0要求um均為非負(fù)數(shù)。
進(jìn)一步考慮到CSIFT特征的位置信息,用位置因子λ|dm·um|替換式(3)的約束條件Card(um)=1,式(3)就轉(zhuǎn)化成了式(4),
(4)
(5)
特征點(diǎn)xi與詞典V的距離為
dist(xi,V)=[dist(xi,v1),…,dist(xi,vM)]T,
(6)
σ用來(lái)調(diào)節(jié)距離的取值范圍,在高斯函數(shù)中,其表示寬度參數(shù)。
文獻(xiàn)[23]建立了基于鄰接矩陣的全文索引模型,在大規(guī)模文本索引中表現(xiàn)優(yōu)異,提高了查詢(xún)效率。文獻(xiàn)[14-15]改進(jìn)了圖像編碼方法,開(kāi)始運(yùn)用線(xiàn)性分類(lèi)器進(jìn)行分類(lèi),取得了很好的分類(lèi)效果。雖然這些方法都是將圖像特征投影到多個(gè)聚類(lèi)中心,但均沒(méi)有考慮特征聚類(lèi)中心之間的關(guān)系。本文對(duì)特征聚類(lèi)中心運(yùn)用鄰接矩陣進(jìn)行建模,獲得了視覺(jué)詞典的相似度矩陣,然后再進(jìn)行空間金字塔匹配。與文獻(xiàn)[14-15]相比較,本文的方法考慮了圖像字典中基元素之間的關(guān)聯(lián)度。
1.2.1 鄰接矩陣 數(shù)據(jù)結(jié)構(gòu)中,圖分為有向圖和無(wú)向圖兩種,本文主要討論有向圖的鄰接矩陣。
有向圖D=〈V,E〉,其中,V={v1,v2,…,vn}代表圖的頂點(diǎn),E代表各頂點(diǎn)的關(guān)系。鄰接矩陣Al表示D中長(zhǎng)度為l的通路數(shù),
即
Al=Al-1·A。
1.2.2 構(gòu)建圖像特征詞典的鄰接矩陣 構(gòu)造有向圖D=〈V,T〉,其中,詞典V={v1,v2,…,vn},T為n個(gè)向量之間的相似度矩陣,則有
(7)
其中,tij為向量vi到vj的相似度。
向量之間的相似度可以通過(guò)求解它們之間的距離來(lái)獲得。同時(shí),為了使得相似的特征在編碼過(guò)程中有更大的權(quán)重,并使得矩陣T為稀疏矩陣,只求解vi與其k個(gè)最小近鄰的距離,其余均為0,即
tij=
(8)
其中,σ為高斯函數(shù)中的寬度參數(shù),用來(lái)調(diào)節(jié)vi與vj距離的取值范圍,σ越大,函數(shù)越平滑,特征之間的差異性也就會(huì)越小。
式(8)表明,當(dāng)兩個(gè)特征完全相同時(shí),他們之間的相似度為1,完全不同時(shí)相似度為0。
令T(1)=T,我們稱(chēng)T(1)為V的一階相似度矩陣。鄰接矩陣T(t)=T(t-1)T(1),T(t)就是V的t階相似度矩陣。
然后,對(duì)xi進(jìn)行初始化,
yij=
(9)
其中,與文獻(xiàn)[24]的要求一樣,λ是歸一化因子,用來(lái)保證yi內(nèi)各元素之和為1。
轉(zhuǎn)化后的圖像特征結(jié)果ui表示為
(10)
這樣,圖像的CSIFT特征最終轉(zhuǎn)化成了ui。然后,將圖像特征進(jìn)行高分辨率的空間金字塔組合,最后得到表示圖像整體特征的向量。
由于隨著t值的增大,T(t)將不再稀疏,所以U也不是稀疏矩陣,這將給計(jì)算機(jī)帶來(lái)很大的開(kāi)銷(xiāo),尤其是對(duì)于大規(guī)模圖像集,嚴(yán)重降低了計(jì)算機(jī)的運(yùn)算性能。因此,在具體實(shí)驗(yàn)中對(duì)ui設(shè)置一個(gè)閾值e。由于小于這個(gè)閾值的元素對(duì)結(jié)果將產(chǎn)生非常小的影響,所以本文將其全部置為0,以保證U是稀疏矩陣。
本文實(shí)驗(yàn)所用計(jì)算機(jī)的配置為:CPU Corei5-3470雙核,主頻3.2GHz,內(nèi)存4GB,顯存2GB。實(shí)驗(yàn)所用圖像集為Caltech-101。Caltech-101圖像集有101類(lèi)共計(jì)9 144幅圖像,每類(lèi)圖像有40~800幅圖像,每幅圖像的尺寸大約為300×200像素。從每類(lèi)中隨機(jī)選取10,15,25,30個(gè)訓(xùn)練樣本,其余作為測(cè)試樣本,同時(shí)為了保證實(shí)驗(yàn)的穩(wěn)定性,每次實(shí)驗(yàn)重復(fù)進(jìn)行10次,取平均值和方差作為實(shí)驗(yàn)的結(jié)果。
首先,把圖像分成16×16像素大小的圖像塊,圖像塊之間間隙為6個(gè)像素,使用 CSIFT 特征提取算法,將每個(gè)圖像塊進(jìn)行向量量化。然后,利用K-means聚類(lèi)獲得初始詞典,隨后利用本文提出的鄰接矩陣模型對(duì)圖像特征進(jìn)行轉(zhuǎn)化,獲取每個(gè)圖像特征描述子um。接著,計(jì)算不同尺度空間的圖像特征,實(shí)驗(yàn)中將圖像空間金字塔層級(jí)定為3層,即l=[0,1,2],這樣每一個(gè)圖像特征被空間金字塔方法轉(zhuǎn)化成了一個(gè)M維的向量U。
接著構(gòu)造一個(gè)pooling函數(shù):z=F(U)。這個(gè)函數(shù)對(duì)U的每一列進(jìn)行計(jì)算,其每一列反映出了所有特征點(diǎn)與詞典中單詞的關(guān)系,本實(shí)驗(yàn)采用了最大值函數(shù),
zj=max{|u1j|,|u2j|,…,|uMj|}。
其中,uij是U的第i行j列的值,zj則是z的第j個(gè)元素。
鄰接矩陣階次n的取值與最終精度影響如圖2所示。其中,最小近鄰K=5,高斯核函數(shù)寬度參數(shù)σ=1,稀疏化參數(shù)e=0.01。從圖2可以看出,當(dāng)鄰接矩陣階次n≤3時(shí),分辨精度隨著n的增長(zhǎng)而提高,n>3后,分類(lèi)精度并沒(méi)有明顯的提升。
圖2 不同的鄰接矩陣階次n的取值對(duì)最終分辨精度的影響Fig.2 The effect of the order n elements value in the adjacency matrix on the final classification accuracy
本文對(duì)每類(lèi)圖像分別隨機(jī)選取20幅和30幅訓(xùn)練圖像,與其他分類(lèi)方法進(jìn)行比較。實(shí)驗(yàn)發(fā)現(xiàn),將經(jīng)過(guò)鄰接矩陣優(yōu)化過(guò)的詞典矩陣分別用于哈希編碼[22]和LLC方法,使用了基于鄰接矩陣的圖像詞典算法的分類(lèi)精度獲得一定程度的提高,當(dāng)最小近鄰K=5,鄰接矩陣階次n=3,高斯核函數(shù)寬度參數(shù)=1,稀疏化參數(shù)e=0.01時(shí),本文算法與其他算法相比,分類(lèi)精度如表1所示。
表1 本文與其他算法的分類(lèi)精度對(duì)比Tab.1 Comparison of classification accuracy
本文的方法對(duì)于自然界中正常存在的圖像具有更好的分類(lèi)效果。圖3列出了本文實(shí)驗(yàn)所用的6種圖像,分別為水蓮、停止標(biāo)示、比薩、羚羊、寶塔、金字塔。表2展示了本文與LLC方法在部分圖像類(lèi)上的分類(lèi)效果。水蓮、停止標(biāo)示、比薩和羚羊4類(lèi)圖像均為自然界中存在的彩色圖像,其分類(lèi)效果好于LLC方法,CSIFT算子優(yōu)于SIFT算子。在寶塔圖像集上,使用SIFT算子的鄰接矩陣分類(lèi)方法和LLC方法的分類(lèi)效果相同,使用了CSIFT算子后,由于增加了顏色和光照信息,分類(lèi)效果有了明顯提升。對(duì)于含有電腦模擬或后期進(jìn)行過(guò)再處理的圖像集(如圖3(f)金字塔),因?yàn)槠浒朔亲匀唤缰姓4嬖诘膱D像,本文的分類(lèi)效果稍差。
圖3 實(shí)驗(yàn)用到的部分圖像示例Fig.3 Some image examples used in the experiment
圖像名稱(chēng)算 法分類(lèi)精度/%LLC28.57水蓮SIFT+鄰接矩陣85.71CSIFT+鄰接矩陣85.71LLC94.12停止標(biāo)示SIFT+鄰接矩陣100CSIFT+鄰接矩陣100LLC82.61比薩SIFT+鄰接矩陣86.96CSIFT+鄰接矩陣91.31LLC85.11羚羊SIFT+鄰接矩陣87.05CSIFT+鄰接矩陣88.99LLC94.12寶塔SIFT+鄰接矩陣94.12CSIFT+鄰接矩陣98.88LLC74.07金字塔SIFT+鄰接矩陣62.96CSIFT+鄰接矩陣62.96
在鄰接矩陣模型中,參數(shù)取值涉及到訓(xùn)練樣本數(shù)目、最小近鄰取值K、鄰接矩陣階次n、高斯核函數(shù)寬度參數(shù)σ和稀疏化參數(shù)e。
第二,教育者在對(duì)大學(xué)生進(jìn)行思想政治教育的過(guò)程中,要積極推動(dòng)思想政治工作傳統(tǒng)優(yōu)勢(shì)同信息技術(shù)高度融合,拓寬社會(huì)主義核心價(jià)值觀教育的深度和廣度,讓社會(huì)主義核心價(jià)值觀內(nèi)化于心,外化于行。并將優(yōu)秀健康的價(jià)值觀及思想觀念的良好引導(dǎo)作用滲透到學(xué)生的日常生活及學(xué)習(xí)中,引導(dǎo)學(xué)生樹(shù)立正確的世界觀、人生觀、價(jià)值觀,做到以文化人。
實(shí)驗(yàn)中,首先固定訓(xùn)練樣本數(shù)目不變,然后變換其他參數(shù),其中,最小近鄰K={3,5,7},鄰接矩陣階次n={1,2,3,4},高斯核函數(shù)寬度參數(shù)σ的取值{2,1,0.1,0.01},稀疏化參數(shù)e取值為{0.1,0.01,0.001}。各參數(shù)對(duì)實(shí)驗(yàn)結(jié)果的影響情況為:
1)寬度參數(shù)σ太大或太小,分類(lèi)精度都會(huì)降低。這是因?yàn)樘蟮膶挾葏?shù)σ使得高斯函數(shù)變得平滑,相應(yīng)特征之間的相似度度量取值趨向于1,同時(shí)如果寬度參數(shù)σ太小,則使得每個(gè)特征點(diǎn)變得孤立,與其他特征點(diǎn)的相似度趨近于0,使得算法還原成了沒(méi)有進(jìn)行鄰接矩陣建模的情況,從而使本文算法失去了意義。
2)最小近鄰K取值越大,特征點(diǎn)與其他特征點(diǎn)的關(guān)聯(lián)度保留的越多。對(duì)于顯著特征相關(guān)性較強(qiáng)的圖像有更加強(qiáng)的分類(lèi)能力,但同時(shí)會(huì)降低特征背景差異較大的圖像的分類(lèi)能力。
3)鄰接矩陣階次n的取值越大,圖像特征點(diǎn)的相關(guān)性越強(qiáng),算法對(duì)顯著特征相關(guān)性較強(qiáng)的圖像有更加強(qiáng)的分類(lèi)能力,同時(shí),其受稀疏化參數(shù)e的約束較為明顯。若稀疏化參數(shù)e取值越小,則鄰接矩陣階次n的取值對(duì)分類(lèi)結(jié)果的影響越顯著,與此同時(shí),矩陣稀疏化程度降低,運(yùn)算消耗增加。
表3 CSIFT與SIFT特征提取時(shí)間平均消耗
Tab.3 The average cputime of extract features using CSIFT and SIFT ms
本文考慮了詞典中顯著特征之間的關(guān)系,利用鄰接矩陣的思想建立了詞典相似度矩陣。實(shí)驗(yàn)證明,本文提出的方法應(yīng)用在對(duì)圖像局部特征的各類(lèi)改進(jìn)算法中,能夠起到優(yōu)化圖像詞典的作用;同時(shí),本方法對(duì)圖像語(yǔ)義關(guān)聯(lián)緊密的圖像具有更高的分類(lèi)精度,當(dāng)使用了融合顏色和光照信息的底層特征CSIFT算子后,在自然界彩色圖像分類(lèi)方面表現(xiàn)更為突出。但同時(shí)也看到,隨著圖像類(lèi)型的增加,維度災(zāi)難始終存在。實(shí)驗(yàn)中,各參數(shù)的取值根據(jù)實(shí)驗(yàn)經(jīng)驗(yàn)來(lái)尋找最優(yōu),并不能確保選取的參數(shù)為最優(yōu)參數(shù)。如何將更多的圖像特征融合,并應(yīng)用到圖像分類(lèi)中,提高圖像分類(lèi)精度,將是下一步研究的重點(diǎn)。
[1] BOIMAN O, SHECHTMAN E, IRANI M. In defense of Nearest-Neighbor based image classification[C]∥ IEEE Conference on Computer Vision and Pattern Recognition.IEEE, 2008:1-8.
[2] BOSCH A, ZISSERMAN A, MUOZ X. Scene classification using a hybrid generative/discriminative approach[J].IEEE Transactions on Pattern Analysis & Machine Intelligence, 2008, 30(4):712.
[3] LI F F,PERONA P. A Bayesian hierarchical model for learning natural scene categories[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition. IEEE Computer Society,2005:524-531.
[4] QUELHAS P, MONAY F, ODOBEZ J M, et al. Modeling scenes with local descriptors and latent aspects[C]∥Tenth IEEE International Conference on Computer Vision. IEEE, 2005:883-890.
[5] YANG L,JIN R,SUKTHANKAR R, et al. Unifying discriminative visual codebook generation with classifier training for object category recognition[C]∥IEEE Conference on Computer Vision and Pattern Recognition. IEEE, 2008: 1-8.
[6] ELAD M,AHARON M. Image denoising via sparse and redundant representations over learned dictionaries[J].IEEE Transactions on Image Processing,2006,15(12): 3736-3745.
[7] MOOSMAN F,TRIGGS B,JURIE F. Randomized clustering forests for building fast and discriminative visual vocabularies[J].Advances in Neural Information Processing Systems,2006.
[8] FREDERIC J,TRIGGS B. Creating efficient codebooks for visual recognition[C]∥Tenth IEEE International Conference on Computer Vision. IEEE, 2005: 604-610.
[9] GRAUMAN K,DARRELL T. The pyramid match kernel: discriminative classification with sets of image features[C]∥Tenth IEEE International Conference on Computer Vision. IEEE, 2005: 1458-1465.
[10] LAZEBNIK S,SCHMID C,PONCE J. Beyond Bags of Features: Spatial Pyramid Matching for Recognizing Natural Scene Categories[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition. IEEE Computer Society , 2006: 2169-2178.
[11] LOWE D G. Object recognition from local scale-invariant features[C]∥The Proceedings of the Seventh IEEE International Conference on Computer Vision. IEEE,1999: 1150-1157.
[12] ABDELHAKIM A E, FARAG A A. CSIFT: A SIFT descriptor with color invariant characteristics[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition. IEEE, 2006: 1978-1983.
[13] GEUSEBROEK J M, BOOMGAARD R V D, SMEULDERS A W M, et al. Color invariance[J].IEEE Transactions on Pattern Analysis & Machine Intelligence, 2001, 23(12):1338-1350.
[14] YANG J,YU K,GONG Y,HUANG T. Linear spatial pyramid matching using sparse coding for image classification[C]∥IEEE Conference on Computer Vision and Pattern Recognition. IEEE, 2009: 1794-1801.
[15] WANG J,YANG J,YU K,et al. Locality-constrained Linear coding for image classification[C]∥IEEE Conference on Computer Vision and Pattern Recognition. IEEE, 2010: 3360-3367.
[16] 章毓晉, 劉寶弟,王宇雄, 圖像分類(lèi)中多流形上的詞典學(xué)習(xí)[J].清華大學(xué)學(xué)報(bào)(自然科學(xué)版), 2012,52(04): 575-579.
[17] 亓?xí)哉?王慶.一種基于稀疏編碼的多核學(xué)習(xí)圖像分類(lèi)方法[J].電子學(xué)報(bào), 2012,40(4): 773-779.
[18] 丁鍇,陳偉海,吳星明,等.基于規(guī)范割的空間金字塔圖像分類(lèi)算法[J].北京航空航天大學(xué)學(xué)報(bào), 2013,39(10): 1342-1347.
[19] LI Qianqian,CAO Guo. Image classification based on laplacian non-negative sparse coding[J].Computer Engineering, 2013,39(11):240-244.
[20] ZOU J,LI W,CHEN C,DU Q. Scene classification using local and global features with collaborative representation fusion[J].Information Sciences, 2016,348:209-226.
[21] LINDE Y,BUZO A,GRAY R. An Algorithm for Vector Quantizer Design[J].IEEE Transactions on Communications, 1980, 28(1):84-95.
[22] PENG T, LI F. Image classification algorithm based on hash codes and space pyramid[J].Journal of Image & Graphics, 2016:114-118.
[23] 周水庚, 胡運(yùn)發(fā),關(guān)佶紅.基于鄰接矩陣的全文索引模型[J].軟件學(xué)報(bào), 2002,13(10): 1933-1942.
[24] LIU L,WANG L,LIU X.In defense of soft-assignment coding[C]∥IEEE International Conference on Computer Vision. IEEE, 2011:2486-2493.