李展彭進(jìn)業(yè),2溫超
(1.西北大學(xué)信息科學(xué)與技術(shù)學(xué)院,陜西西安710069;2.西北工業(yè)大學(xué)電子信息學(xué)院,陜西西安710072)
傳統(tǒng)的基于內(nèi)容的圖像檢索(CBIR)通過(guò)圖像特征度量整體相似性來(lái)實(shí)現(xiàn)[1];而基于對(duì)象的圖像檢索(OBIR)只關(guān)心那些包含特定對(duì)象的圖像.由于OBIR更適應(yīng)用戶檢索需求,因此已成為CBIR新的研究熱點(diǎn)[2].
針對(duì)OBIR,一種方法是以“視覺詞袋”(BoW)模型為基礎(chǔ),獲取圖像感興趣區(qū)域的尺度不變特征變換(SIFT)特征[3],利用BoW模型進(jìn)行圖像檢索.Zheng等[4]從文本檢索中得到啟示,提出基于視覺詞組的檢索方法.Philbin等[5]通過(guò)獲取局部幾何空間特征提高檢索性能.Wu等[6]利用多樣本多樹方法解決了特征檢測(cè)、提取和量化步驟中的信息損失問(wèn)題.另一種方法基于多示例學(xué)習(xí)(MIL)框架,利用MIL實(shí)現(xiàn)圖像檢索.Dietterich等[7]在藥物活性預(yù)測(cè)的研究工作中,于1997年首次提出MIL的概念.傳統(tǒng)機(jī)器學(xué)習(xí)框架中訓(xùn)練樣本與標(biāo)記是一一對(duì)應(yīng)的,而MIL問(wèn)題中,訓(xùn)練樣本包有多個(gè)示例,只有包具有標(biāo)記.若包中有正示例,則標(biāo)記為正,反之標(biāo)記為負(fù).如對(duì)圖像進(jìn)行分割,將圖像與分割區(qū)域分別看作包和示例,包含有檢索對(duì)象的圖像標(biāo)為正包,否則標(biāo)為負(fù)包.利用已標(biāo)記正負(fù)圖像學(xué)習(xí)分類器并進(jìn)行檢索,則基于對(duì)象的圖像檢索就變成了多示例學(xué)習(xí)問(wèn)題.Zhang和Rouhollah等[8-9]結(jié)合多樣性密度(DD)函數(shù)和期望最大值算法(EM),利用EM-DD算法對(duì)圖像檢索進(jìn)行研究.Chen等[10-11]提出了DD-SVM與MILES兩個(gè)經(jīng)典MIL算法,通過(guò)構(gòu)造空間,將多示例包非線性投影并嵌入到構(gòu)造空間中,利用支持向量機(jī)(SVM)求解MIL問(wèn)題.Wang等[12]受基于圖的半監(jiān)督學(xué)習(xí)算法的啟發(fā),提出了GMIL算法,該算法定義包含標(biāo)記數(shù)據(jù)、半標(biāo)記數(shù)據(jù)和未標(biāo)記數(shù)據(jù)的代價(jià)函數(shù),并對(duì)該代價(jià)函數(shù)進(jìn)行迭代優(yōu)化.Fu等[13]則利用交替迭代方法選擇示例,完成圖像檢索.
要實(shí)現(xiàn)高效的對(duì)象圖像檢索任務(wù),需解決如下3個(gè)主要問(wèn)題.(1)適合圖像檢索的特征和圖像檢索模型選擇問(wèn)題;(2)圖像標(biāo)注復(fù)雜度和檢測(cè)對(duì)象區(qū)域問(wèn)題:要獲得帶有明確標(biāo)記的訓(xùn)練樣本和指定檢測(cè)對(duì)象區(qū)域,均依賴人工指定,效率不高;(3)檢索效率問(wèn)題:檢索系統(tǒng)需實(shí)時(shí)反應(yīng)用戶,并返回滿足查詢要求的圖像.基于BoW模型的方法中,SIFT特征獲取和匹配的時(shí)間復(fù)雜度都非常高,而且需要預(yù)先指定檢索對(duì)象區(qū)域,因此并不是最好的解決方法.本研究以多示例學(xué)習(xí)模型為基礎(chǔ),設(shè)計(jì)了一種新的對(duì)象圖像檢索算法SCPMK-MIL(Spectral Clustering and Pyramid Matching Kernel for Muti-Instance Learning).該算法首先在正包示例集合內(nèi)進(jìn)行譜聚類(SC),基于聚類中心點(diǎn)數(shù)最大原則選擇潛在正示例代表,將包內(nèi)其它示例相似性視為多部分相似問(wèn)題,分別使用徑向基函數(shù)(RBF)和金字塔核(PMK)度量相似性,然后利用SVM學(xué)習(xí)分類器模型并實(shí)現(xiàn)圖像檢索;相關(guān)反饋技術(shù)可以大大提高檢索性能[14],因此最后進(jìn)行相關(guān)反饋.
假設(shè)要訓(xùn)練一個(gè)針對(duì)對(duì)象z的MIL分類器,標(biāo)注圖像集為L(zhǎng)={(B1,y1),(B2,y2),…,(Bs,ys)},其中,yi∈{-1,+1},i=1,2,…,s,這里+1表示圖像中包含對(duì)象z,而-1表示不包含對(duì)象z.在集合L中,前m個(gè)包為正包,標(biāo)記為yi=+1,后l個(gè)包為負(fù)包,標(biāo)記為yi=-1,滿足s=m+l.未標(biāo)注圖像集為U={Bs+1,Bs+2,…,Bs+p},其中p為圖像集U中包的個(gè)數(shù).設(shè)圖像Bi被分割成ni個(gè)區(qū)域,每個(gè)區(qū)域?qū)?yīng)的視覺特征向量記作x ij∈Rd,d表示視覺特征向量的維數(shù),則稱為MIL訓(xùn)練包,x ij為包中示例.將yi=+1的包內(nèi)示例排在一起,稱為正包示例集合,記作
式中,q表示正包中示例的總數(shù)
傳統(tǒng)的聚類算法,如k-means算法和EM算法,都是建立在凸球形的樣本空間上.當(dāng)樣本空間不為凸時(shí),算法會(huì)陷入局部最優(yōu).而譜聚類能在任意形狀的樣本空間上聚類,且收斂于全局最優(yōu)解,因此本研究選擇譜聚類NJW算法[15]進(jìn)行聚類,以獲取潛在正示例代表.
譜聚類算法的思想來(lái)源于譜圖劃分理論,假定將L+中每個(gè)示例看作圖中的頂點(diǎn)V,根據(jù)示例間的相似度將頂點(diǎn)間的邊A賦權(quán)重值w,這樣就得到一個(gè)基于示例相似度的無(wú)向加權(quán)圖G=(V,A).那么在圖G中,就可將聚類問(wèn)題轉(zhuǎn)化為圖G的劃分問(wèn)題.為了求解該劃分問(wèn)題,可將問(wèn)題轉(zhuǎn)化為L(zhǎng)aplacian矩陣的譜分解,從而實(shí)現(xiàn)對(duì)圖劃分準(zhǔn)則的逼近[16].
譜聚類算法步驟為:首先根據(jù)給定的樣本數(shù)據(jù)集定義一個(gè)描述成對(duì)數(shù)據(jù)點(diǎn)相似度的親合矩陣,并計(jì)算拉普拉斯矩陣的特征值和特征向量,然后選擇合適的特征向量進(jìn)行聚類.
定義1(親合矩陣W)給定集合L+中的任意兩個(gè)示例x i、x j,其權(quán)重定義為
式中,σ為事先指定參數(shù).
定義2(度矩陣D)度矩陣D為對(duì)角陣,其對(duì)角元素值為親合矩陣W的行元素之和,其余元素為0.
定義3(規(guī)范Laplacian矩陣L)規(guī)范Laplacian矩陣定義為
式中I為單位矩陣.
文中采用聚類中心點(diǎn)數(shù)最大原則,即對(duì)正示例集合L+進(jìn)行k聚類,計(jì)算聚類樣本的中心{o1,o2,…,ok}.統(tǒng)計(jì)每個(gè)聚類所包含的正示例點(diǎn)數(shù){c1,c2,…,ck},認(rèn)為包含點(diǎn)數(shù)最多的聚類中心點(diǎn)為潛在正示例中心.選擇包Bi中和該聚類中心距離最近的示例作為包Bi的潛在正示例代表.
定義4(聚類中心O)對(duì)正包示例集合L+進(jìn)行k聚類,獲得k個(gè)不相交的子圖Gj,j=1,2,…,k.示范函數(shù)I(·)判斷x i是否屬于子圖Gj,定義為
則聚類中心向量O中分量O j可由下式計(jì)算:
定義5(潛在正示例中心)統(tǒng)計(jì)子圖Gj的正示例點(diǎn)個(gè)數(shù),假定點(diǎn)個(gè)數(shù)最大的子圖為Gh,則O h為潛在正示例中心.定義N(j)為統(tǒng)計(jì)子圖Gj的正示例個(gè)數(shù)函數(shù),C為子圖Gj中所含示例點(diǎn)個(gè)數(shù)向量.C的分量Cj的計(jì)算公式為
若
則O h為潛在正示例中心.
定義6(潛在正示例代表)通過(guò)式(7)得到潛在正示例中心O h后,包Bi和O h距離最近的示例x ir稱為潛在正示例代表.其中,
基于以上定義與聚類中心點(diǎn)數(shù)最大原則,構(gòu)造潛在正示例代表集合的算法1的步驟描述如下.
輸出:潛在正示例代表集合γ.
1)以L+為集合,用式(2)計(jì)算親合矩陣W.
2)利用公式(3)和(4)分別計(jì)算度矩陣D和規(guī)范Laplacian矩陣L.
3)計(jì)算矩陣L前k個(gè)最大特征值所對(duì)應(yīng)的特征向量x1,x2,…,x k,構(gòu)造矩陣X=[x1x2…x k].
4)將矩陣X的行向量歸一化,轉(zhuǎn)變?yōu)閱挝幌蛄浚玫骄仃嘫,其元素
5)將矩陣Y的每一行看作Rk空間中的一個(gè)點(diǎn),使用k-means算法進(jìn)行聚類,得到k個(gè)不相交的子圖Gj,j=1,2,…,k.
6)利用式(6)和(8)計(jì)算聚類中心和潛在正示例中心.
7)對(duì)?Bi∈B,利用式(9)計(jì)算潛在正示例代表x ir,進(jìn)行如下操作:
(1)將x ir加入集合γ;
(2)從集合B中刪除Bi.
8)如果B非空,則跳轉(zhuǎn)本算法步驟7);否則,輸出γ,算法結(jié)束.
SIFT匹配問(wèn)題是標(biāo)準(zhǔn)的多部分相似問(wèn)題.針對(duì)SIFT相似問(wèn)題,相應(yīng)的核方法得到了廣泛的研究和應(yīng)用.其中Kristen等[17]提出的金字塔核最為有效;其構(gòu)造多解析直方圖,在直方圖金字塔基礎(chǔ)上,通過(guò)權(quán)重組合直方圖重疊值構(gòu)造核函數(shù).
文獻(xiàn)[17]定義核函數(shù)
式中,z1、z2為兩個(gè)SIFT特征,Hi(x)為投影的第i級(jí)直方圖,ψ(x)=[H0(x),H1(x),…,Hl-1(x)],τ(·,·)為直方圖的重疊值.
由算法1得到正示例代表集合γ={γ1,γ2,…,γs+p}.SCPMK-MIL核函數(shù)定義為
式中:krbf為RBF核函數(shù);kpmk為金字塔核函數(shù);α為krbf對(duì)核函數(shù)K的影響因子,滿足1>α>0;集合E和F分別滿足E∪γi=Bi和F∪γj=Bj.
SCPMK-MIL核矩陣K元素Kij的計(jì)算方法為:利用算法1,獲取包集合B=L∪U的潛在正示例集合γ,對(duì)MIL中的包Bi和Bj分別去掉潛在正示例代表γi和γj,生成新集合E和F.利用公式(11)計(jì)算核矩陣K.構(gòu)造核矩陣K和其元素Kij的算法2的具體步驟如下.
輸入:潛在正示例代表集合γ,集合B=L∪U,正比例系數(shù)α.
輸出:核矩陣K.
1)任取B中的兩個(gè)包Bi和Bj,令E=Bi-{γi},F(xiàn)=Bj-{γj};
2)利用式(11)計(jì)算K(Bi,Bj),并賦值給Kij;
3)如果未遍歷完B中所有包,則跳轉(zhuǎn)本算法步驟2);否則輸出K,算法結(jié)束.
SVM利用最大化margin思想,尋找保證正確分類情況下的最大間隔.其優(yōu)化目標(biāo)為
式中:{xi,yi}為訓(xùn)練樣本(i=1,2,…,t),t為訓(xùn)練樣本總數(shù);ω為分類面法向量;ξi為松弛變量;φ(·)為由低維到高維的映射函數(shù);b為偏移量,b∈R;λ為懲罰因子,如λ=∞則為線性可分情況,否則為線性不可分情況.
利用拉格朗日和Wolfe對(duì)偶理論,優(yōu)化問(wèn)題變形為
式中,βi為拉格朗日乘子,此處核函數(shù)K用算法2計(jì)算.
式中:{x i,yi}∈L,x∈U.
基于SVM的相關(guān)反饋方法是一個(gè)交互式檢索過(guò)程.本研究在反饋時(shí),用戶每次從檢索結(jié)果中標(biāo)記正例和反例,以增加訓(xùn)練圖像數(shù),從而不斷調(diào)整在希爾伯特空間中的SVM超平面,直至達(dá)到反饋次數(shù)要求.
最后將本研究提出的SCPMK-MIL對(duì)象圖像檢索(算法3)步驟總結(jié)如下.
輸入:已標(biāo)注圖像集L、測(cè)試圖像集U(即未標(biāo)注圖像集)、k和α,反饋次數(shù)n,用戶反饋正負(fù)圖像個(gè)數(shù)h+和h-.
輸出:測(cè)試圖像集U的標(biāo)記
1)構(gòu)造MIL訓(xùn)練包:對(duì)?Bi∈B,B=L∪U進(jìn)行圖像分割,若分割為ni個(gè)區(qū)域,則相應(yīng)的MIL訓(xùn)練包記為,其中x ij∈Rd,表示相應(yīng)的圖像特征(即包中示例).
6)用戶從集合R中選擇h+個(gè)圖像作為正例集合Z+,從集合S=U-R中選擇h-個(gè)圖像作為負(fù)例集合Z-,從而生成反饋訓(xùn)練集Z=Z++Z-.
7)將反饋所得正負(fù)集合加入已標(biāo)注圖像集L,令L=L∪Z,測(cè)試圖像集U=U-Z.若反饋次數(shù)未達(dá)到n次,則轉(zhuǎn)本算法步驟2);否則算法結(jié)束.
選用SIVAL圖像集進(jìn)行對(duì)比實(shí)驗(yàn)(http:∥www.cs.wustl.edu/accio/),該圖像集由1 500幅圖像組成,包含25類不同物體,每類60幅圖像.實(shí)驗(yàn)中每幅圖像被預(yù)先分割成約30個(gè)不同區(qū)域,在每個(gè)區(qū)域提取其30維的顏色、紋理和近鄰的底層視覺特征,細(xì)節(jié)請(qǐng)參閱文獻(xiàn)[9].實(shí)驗(yàn)平臺(tái)為:AMD4200+處理器,1GDDR800內(nèi)存,Windows XP操作系統(tǒng),以及Matlab7.01仿真環(huán)境.
SVM的代碼來(lái)自LibSVM軟件包(http:∥www.csie.ntu.edu.tw/~cjlin/libsvm/),采用“one-vsrest”處理多類問(wèn)題,具體方法是:在每次實(shí)驗(yàn)中,從每類圖像中隨機(jī)選取20幅作為潛在訓(xùn)練集正例,其余1000幅作為待檢索圖像;每次實(shí)驗(yàn)時(shí),將某一類作為檢索目標(biāo),從該類的潛在訓(xùn)練集正例中隨機(jī)選擇6幅生成正訓(xùn)練包,再?gòu)钠渌愔须S機(jī)選擇6類,每類隨機(jī)選擇1幅不感興趣的圖像,生成負(fù)包,組成包含6個(gè)正包和6個(gè)負(fù)包的訓(xùn)練集.金字塔核的代碼來(lái)自Grauman的主頁(yè)(http:∥www.cs.utexas.edu/~grauman/).算法2中RBF和PMK參數(shù)采用“2-fold交叉檢驗(yàn)”的方法獲取.因?yàn)锳UC值(即ROC曲線下的面積)能夠刻畫檢索結(jié)果排序的優(yōu)劣,本研究采用它來(lái)評(píng)估算法的性能.
SCPMK-MIL算法中,譜聚類的聚類數(shù)k及核函數(shù)中的正比例系數(shù)α必須預(yù)先設(shè)置.為了驗(yàn)證k和α對(duì)檢索精度的影響,設(shè)置k從1變化到9,步長(zhǎng)為1;α從0.1變化到0.9,步長(zhǎng)為0.1.基于GreenTeaBox類圖像,按照1.3節(jié)所述算法3進(jìn)行實(shí)驗(yàn).圖1(a)為α=0.2時(shí)k對(duì)平均AUC值的影響.圖1(b)為k=5時(shí),α對(duì)平均AUC值的影響.
圖1 在圖像GreenTeaBox上k和α對(duì)SCPMK-MIL算法性能的影響Fig.1 Effects of k andαon the performance of SCPMK-MIL algothrim for GreenTeaBox
如圖1(a)所示,當(dāng)k從1增至9時(shí),AUC值介于0.768到0.869之間,k=5時(shí)AUC值達(dá)到最大值0.869.由此可見,SCPMK-MIL算法的性能受k的影響較大.其主要原因是:在對(duì)象圖像檢索中,對(duì)象經(jīng)常和幾個(gè)特定的其它物體具有特定的共生關(guān)系.圖2為GreenTeaBox的部分圖像,由圖可見GreenTea-Box通常和板凳、報(bào)紙、桌子、地面出現(xiàn)在同一幅圖像中.那么,在進(jìn)行k=5聚類時(shí),潛在正示例中心必然是GreenTeaBox對(duì)象特征的中心,因此利用k=5聚類獲取的潛在正示例代表進(jìn)行檢索是可行的.如圖1(b)所示,當(dāng)α從0.1增至0.9時(shí),AUC值介于0.839到0.880之間,α=0.3時(shí),達(dá)到最大值0.880,其波動(dòng)在4.1%以內(nèi).可見在選擇合適的參數(shù)情況下,SCPMK-MIL算法具有很強(qiáng)的魯棒性.在α<0.4的情況下,α值對(duì)SCPMK-MIL分類精度的影響較小,AUC值的變化在2.2%以內(nèi),這和筆者對(duì)MIL問(wèn)題的理解是吻合的.MIL的核心問(wèn)題在于正示例的不確定性,如果包內(nèi)潛在正示例代表得到確認(rèn),則包正負(fù)性主要由正示例是否出現(xiàn)決定,其它的包內(nèi)數(shù)據(jù)應(yīng)只起輔助作用.也就是說(shuō)在潛在正示例和其它示例信息可同時(shí)獲取的情況下,潛在正示例對(duì)包標(biāo)記的影響大于包內(nèi)其它示例的影響.在下面的實(shí)驗(yàn)中,固定k=5,α=0.3.
圖2 部分GreenTeaBox圖像Fig.2 Some images of GreenTeaBox
為了表示方便,下面的實(shí)驗(yàn)結(jié)果中標(biāo)號(hào)1到25分別代表SIVAL圖像集中的“FabricSoftenerBox”、“CheckeredScarf”、“FeltFlowerRug”、“CokeCan”、“WD40Can”、“AjaxOrange”、“DirtyRunningShoe”、“CandleWithHolder”、“GoldMedal”、“GreenTeaBox”、“CardboardBox”、“SpriteCan”、“SmileyFaceDoll”、“DirtyWorkGloves”、“StripedNoteBook”、“DataMiningBook”、“BlueScrunge”、“TranslucentBowl”、“RapBook”、“Apple”、“GlazedWoodPot”、“WoodRollingPin”、“JuliesPot”、“Banana”、“LargeSpoon”.首先比較相關(guān)反饋對(duì)搜索性能的影響,實(shí)驗(yàn)使用6幅感興趣和6幅不感興趣的圖像進(jìn)行初始檢索;為了保持正負(fù)類的均衡,在檢索結(jié)果中增加6幅感興趣和6幅不感興趣的圖像,進(jìn)行一次相關(guān)反饋的檢索.比較結(jié)果如圖3所示.從圖3可以看出,使用相關(guān)反饋可以大大提高檢索的性能,24幅(12個(gè)正包和12個(gè)負(fù)包)的相關(guān)反饋方法獲取的AUC值比12幅(6個(gè)正包和6個(gè)負(fù)包)的AUC值提高了8%左右.其主要原因在于:在檢索完成后,通過(guò)相關(guān)反饋增大有效訓(xùn)練集,提高了SVM分類器的精度和圖像檢索性能.
圖3 相關(guān)反饋對(duì)圖像檢索性能的影響Fig.3 Effect of relevant feedback on image retrieval
為了進(jìn)一步驗(yàn)證SCPMK-MIL算法的性能(設(shè)置k=5和α=0.3),按照2.1節(jié)所述的實(shí)驗(yàn)方法,將SCPMK-MIL和MILES[11],ACCIO![9]算法進(jìn)行對(duì)比實(shí)驗(yàn),每個(gè)試驗(yàn)重復(fù)30次,平均AUC值見表1,試驗(yàn)采用一次相關(guān)反饋算法(增加12個(gè)正包和12個(gè)負(fù)包,形成24幅訓(xùn)練包).為了驗(yàn)證SCPMK-MIL算法的有效性,將其與半監(jiān)督GMIL算法[12]進(jìn)行了對(duì)比實(shí)驗(yàn),這里選擇的相關(guān)反饋圖像數(shù)等于已標(biāo)注圖像數(shù),隨著已標(biāo)注的圖像數(shù)量的增加,30次隨機(jī)重復(fù)實(shí)驗(yàn)的平均AUC值變化曲線如圖4所示(已標(biāo)注圖像確保一半為正一半為負(fù)).
從表1可以看出,SCPMK-MIL算法總體上來(lái)說(shuō)優(yōu)于MILES和ACCIO!算法,主要原因是:(1)文中設(shè)計(jì)的譜聚類方法可以很好地獲取潛在正示例中心,辨別包內(nèi)潛在正示例代表和其它示例;(2)融合RBF和PMK進(jìn)行相似性計(jì)算可以平衡包內(nèi)各示例對(duì)核相似性的影響,具有很強(qiáng)的可靠性與魯棒性;(3)利用相關(guān)反饋技術(shù),通過(guò)用戶主動(dòng)參與檢索評(píng)價(jià),可以獲得較好的檢索性能.而MILES算法則是將每個(gè)包投影到示例構(gòu)成的空間,利用新生成投影向量比較相似性,其性能很大程度上受包中示例空間分布的影響,因此在示例空間分布不理想的情況下,其性能表現(xiàn)不佳.ACCIO!算法是一種基于DD的算法,存在優(yōu)化解陷入局部極值問(wèn)題,因此最終分類結(jié)果也不精確.
表1 圖像集SIVAL上置信度為0.95的30次重復(fù)實(shí)驗(yàn)平均AUC值Table 1 Average AUC values with the 95%-confidence intervals over 30 independent runs on SIVAL dataset
圖4 圖像集SIVAL上GMIL和SCPMK-MIL算法的性能對(duì)比Fig.4 Performance comparison between GMIL and SCPMKMIL algorithms for SIVAL dataset
文中基于譜聚類和金字塔核,提出了一種新的MIL算法,稱為SCPMK-MIL算法,在MIL框架下實(shí)現(xiàn)對(duì)象圖像檢索.其優(yōu)勢(shì)在于:(1)利用譜聚類方法在正示例空間聚類,獲取潛在正示例代表,從而可定位圖像中的潛在對(duì)象位置;(2)利用RBF和PMK度量潛在正示例代表和其它示例相似性,通過(guò)正比例系數(shù)平衡兩者相似性的影響,從而提高M(jìn)IL算法的準(zhǔn)確度;(3)利用相關(guān)反饋方法提高圖像檢索的性能,從而提高檢索用戶滿意度;(4)利用MIL訓(xùn)練包的性質(zhì),用戶只需要對(duì)整個(gè)圖像給定標(biāo)記,而不必對(duì)具體區(qū)域進(jìn)行標(biāo)注,簡(jiǎn)化了訓(xùn)練樣本的手工標(biāo)注.基于SIVAL圖像庫(kù)的對(duì)比實(shí)驗(yàn)結(jié)果表明,文中提出的方法是有效的.
[1]陳星星,張榮.基于多尺度相位特征的圖像檢索方法[J].電子與信息學(xué)報(bào),2009,31(5):1193-1196.Chen Xing-xing,Zhang Rong.A multi-scale phase feature based method for image retrieval[J].Journal of Electronics&Information Technology,2009,31(5):1193-1196.
[2]Datta R,Joshi D,Li J,et al.Image retrieval:ideas,influences,and trends of the new age[J].ACM Computing Surveys,2008,40(2):1-65.
[3]Lowe D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.
[4]Zheng Qing-fang,WangWei-qiang,GaoWen.Effective and efficient object-based image retrieval using visual phrases[C]∥Proceedings of the 14th ACM International Conference on Multimedia.Santa Barbara:ACM,2006:77-80.
[5]Philbin James,Chum Ondrej.Object retrieval with large vocabularies and fast spatialmatching[C]∥Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Minnesota:IEEE,2007:1-8.
[6]Wu Zhong,Ke Qi-fa.A multi-sample,multi-tree approach to bag-of-words image representation for image retrieval[C]∥Proceedings of 12th International Conference on Computer Vision.Kyoto:IEEE,2009:1992-1999.
[7]Dietterich TG,Lathrop R H,Lozano-Pérez T.Solving the multiple instance problem with axis-parallel rectangles[J].Artificial Intelligence,1997,89(12):31-71.
[8]Zhang Qi,Sally A Goldman.Content-based image retrieval usingmultiple-instance learning[C]∥Proceedings of the 19th International Conference on Machine Learning.Sydney:IMLS,2002:682-689.
[9]Rouhollah Rahmani,Sally A Goldman.Localized contentbased image retrieval[C]∥Proceedings of the 7th ACM SIGMM International Workshop on Multimedia Information Retrieval.Singapore:ACM,2005:227-236.
[10]Chen Yi-xin,James Z Wang.Image categorization by learning and reasoning with regions[J].Journal of Machine Learning Research,2004,5(8):913-939.
[11]Chen Yi-xin,Bi Jin-bo,JamesWang Z.MILES:multipleinstance learning via embedded instance selection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2006,28(12):1931-1947.
[12]Wang Chang-hu,Zhang Lei,Zhang Hong-jiang.Graph based multiple-instance learning for object-based image retrieval[C]∥Proceeding of the 1st ACM International Conference on Multimedia Information Retrieval.Vancouver:ACM,2008:156-163.
[13]Fu Zhou-yu,Antonio Robles-Kelly.An instance selection approach to multiple instance learning[C]∥Proceedings of the IEEEComputer Society Conference on Computer Vision and Pattern Recognition.Miami:IEEE,2009:911-918.
[14]羅斌,鄭愛華,湯進(jìn).基于模糊多類SVM的圖像檢索相關(guān)反饋[J].華南理工大學(xué)學(xué)報(bào):自然科學(xué)版,2008,36(9):107-112.Luo Bin,Zheng Ai-hua,Tang Jin.Relevance feedback of image retrieval based on multicalss fuzzy support vector machines[J].Journal of South China University of Technology:Natural Science Edition,2008,36(9):107-112.
[15]Ng A Y,Jordan M I,Weiss Y.On spectral clustering:analysis and an algorithm[C]∥Proceedings in 14th Advances in Neural Information Processing Systems.Vancouver:NIPS,2001:849-856.
[16]Zhou D,BousquetO.Learning with local and global consistency[C]∥Proceedings in 16th Advances in Neural Information Processing Systems.Vancouver:NIPS,2004:321-328.
[17]Kristen Grauman,Trevor Darrell.The pyramid match kernel:efficient learning with sets of features[J].Journal of Machine Learning Research,2007,8(5):725-760.