国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于PCA-SIFT特征與貝葉斯決策的圖像分類算法

2016-07-19 02:07涂秋潔
關(guān)鍵詞:訓(xùn)練樣本關(guān)鍵點(diǎn)貝葉斯

涂秋潔 王 晅

(陜西師范大學(xué)物理學(xué)與信息技術(shù)學(xué)院 陜西 西安 710119)

?

基于PCA-SIFT特征與貝葉斯決策的圖像分類算法

涂秋潔王晅

(陜西師范大學(xué)物理學(xué)與信息技術(shù)學(xué)院陜西 西安 710119)

摘要針對(duì)現(xiàn)有的基于SIFT特征的圖像分類算法具有較大的儲(chǔ)存空間需求及對(duì)圖像背景較為敏感的問(wèn)題,提出一種基于PCA-SIFT特征和貝葉斯決策的圖像分類算法。該算法首先應(yīng)用主成分分析將SIFT特征從128維降為36維,在訓(xùn)練過(guò)程中,對(duì)訓(xùn)練樣本圖像的PCA-SIFT進(jìn)行區(qū)域匹配?;谄ヅ渎蔬x擇目標(biāo)圖像中的穩(wěn)定PCA-SIFT以提高算法對(duì)背景圖像干擾的魯棒性,然后應(yīng)用最大似然估計(jì)估計(jì)概率分布參數(shù),最后,應(yīng)用貝葉斯決策理論實(shí)現(xiàn)圖像分類。仿真實(shí)驗(yàn)表明,該算法與現(xiàn)有的SIFT圖像分類算法相比分類精度高,而且具有最小的儲(chǔ)存空間需求與較高的計(jì)算效率。

關(guān)鍵詞PCASIFT聚類貝葉斯決策圖像分類

0引言

對(duì)幾何變換如平移、旋轉(zhuǎn)與尺度變換的不變圖像目標(biāo)描述對(duì)圖像分析、目標(biāo)識(shí)別與分類等具有非常重要的意義[1],現(xiàn)有的不變特征描述主要分為全局、局部與基于目標(biāo)輪廓的特征表示三類[2]。全局特征只適合于剛性對(duì)象的識(shí)別與分類,而且對(duì)圖像剪切、遮擋、光照改變與視角改變較為敏感。基于目標(biāo)輪廓的特征,如張量尺度、曲率尺度、內(nèi)距[3]與多尺度距[4]等僅具有部分幾何變換不變性,而且對(duì)圖像剪切、遮擋、光照改變與視角改變較為敏感,另外,其性能嚴(yán)重依賴于邊緣檢測(cè)與圖像分割的結(jié)果。

基于圖像局部特征的不變描述方法,如GLOH[5],Harris-Affine[6],SIFT[7],SURF[8]等對(duì)圖像的剪切、遮擋、尺度、位置、方向、光照及輕微的視角改變具有很好的穩(wěn)定性,而且突破了剛性對(duì)象的限制。在這些方法中,SIFT已被證實(shí)具有最好的描述性能[9],被廣泛應(yīng)用在圖像區(qū)域匹配、目標(biāo)檢測(cè)與圖像檢索中。但是,由于圖像局部特征的固有特性,不太適合圖像識(shí)別與分類問(wèn)題。首先,對(duì)于一幅圖像,通常會(huì)檢測(cè)到成百上千個(gè)關(guān)鍵點(diǎn),每個(gè)關(guān)鍵點(diǎn)需要128維的向量表示,這需要較大的儲(chǔ)存空間保存圖像的類別模式特征。其次,兩幅圖像的特征點(diǎn)匹配的計(jì)算復(fù)雜度為128×N2,N為單幅圖像的關(guān)鍵點(diǎn)數(shù)量,這使得基于局部特征的圖像分類很難滿足實(shí)際應(yīng)用的計(jì)算效率要求。最后,由于圖像區(qū)域匹配與分類的目標(biāo)與要求不同,所以分類精度也達(dá)不到實(shí)際應(yīng)用的要求。

最近,出現(xiàn)了許多研究工作將SIFT從圖像區(qū)域匹配推廣到圖像分類問(wèn)題中,較早的SIFT圖像分類算法是基于圖像區(qū)域匹配的算法[10,11],這些算法首先將待識(shí)別圖像與已知類別的訓(xùn)練樣本圖像進(jìn)行區(qū)域匹配,然后基于區(qū)域匹配數(shù)量實(shí)現(xiàn)模式分類。該類算法具有較高的儲(chǔ)存空間要求與計(jì)算復(fù)雜度,另外,只考慮區(qū)域匹配數(shù)量很難獲得高的分類精度。隨后出現(xiàn)了基于編碼或聚類的SIFT圖像分類算法[12-16],該類算法的主要?jiǎng)?chuàng)意來(lái)源于文本數(shù)據(jù)挖掘的BoW(bag-of-words)概念,將圖像所提取的關(guān)鍵點(diǎn)特征當(dāng)作視覺(jué)詞匯,然后,基于圖像中出現(xiàn)的視覺(jué)詞匯的頻次或編碼結(jié)果作為特征實(shí)現(xiàn)分類[12-14]. 但是,BOW模型直接應(yīng)用于SIFT特征沒(méi)有考慮局部特征點(diǎn)的空間位置,所以基于此產(chǎn)生的頻次或編碼特征缺失了圖像的空間組織信息。針對(duì)此問(wèn)題,Lazebnik等提出了SPM算法[15], 該算法將圖像在不同尺度上劃分為多個(gè)細(xì)段,計(jì)算每個(gè)細(xì)段內(nèi)的BOW的直方圖,然后,鏈接所有直方圖形成圖像的最終表示。SPM算法雖然部分考慮了圖像的空間組織信息,獲得了較好的分類精度,但其特征具有很高的維數(shù),這嚴(yán)重制約了分類過(guò)程的計(jì)算效率,特別是使用非線性分類器時(shí),其計(jì)算復(fù)雜度呈指數(shù)增長(zhǎng)。為了降低SPM的計(jì)算復(fù)雜度,文獻(xiàn)[16]在SPM的基礎(chǔ)上應(yīng)用非線性編碼技術(shù)將特征轉(zhuǎn)化為近似線性可分問(wèn)題,然后應(yīng)用線性分類器實(shí)現(xiàn)分類,獲得了較好的分類效果。最新的此方面的研究[17-19]主要集中在將稀疏編碼或機(jī)器學(xué)習(xí)應(yīng)用到BOW或SPM模型中,從而降低圖像的特征向量維數(shù)或提升其表示能力,以提升分類過(guò)程的計(jì)算效率與分類精度。如Yang等[17]應(yīng)用稀疏編碼代替SPM中的向量量化,提出了稀疏SPM(ScSPM)算法,Wang[18]將稀疏編碼過(guò)程轉(zhuǎn)化為局部約束下的優(yōu)化問(wèn)題,提出了LLC算法。Zhang等[19]將低階分解與拉普拉斯群稀疏編碼應(yīng)用于BOF模型中,實(shí)現(xiàn)了圖像分類等。

現(xiàn)有的基于SIFT的圖像分類算法雖然對(duì)圖像的剪切、遮擋、尺度、位置、方向、光照及輕微的視角改變具有很好的穩(wěn)定性,但是,其儲(chǔ)存需求與計(jì)算效率并不能滿足實(shí)際應(yīng)用的要求,另外,SIFT描述字已經(jīng)被證實(shí)在圖像區(qū)域匹配和目標(biāo)檢測(cè)中具有非常好的性能,基于編碼的方法并沒(méi)有充分利用SIFT的這一優(yōu)良特性,所以其分類精度也達(dá)不到令人滿意的效果。針對(duì)此問(wèn)題,本文提出了一種基于SIFT區(qū)域匹配與貝葉斯決策的圖像分類算法,為了有效地降低算法的特征維數(shù),使用主成分分析(PCA)將SIFT特征從128維降為36維。在訓(xùn)練過(guò)程中,將屬于同類的樣本圖像的PCA-SIFT進(jìn)行互配,根據(jù)匹配率選擇該類圖像較為穩(wěn)定的PCA-SIFT特征應(yīng)用最大似然估計(jì)估計(jì)其均值向量與協(xié)方差矩陣,然后基于貝葉斯決策理論進(jìn)行分類。仿真實(shí)驗(yàn)表明,該算法具有較高的分類精度,而且由于其在分類過(guò)程中只涉及簡(jiǎn)單的數(shù)值計(jì)算,具有較高的計(jì)算效率。

1SIFT算法與PCA-SIFT簡(jiǎn)介

1.1SIFT算法

經(jīng)典SIFT算法[7]分為多尺度空間極值點(diǎn)檢測(cè)、關(guān)鍵點(diǎn)篩選、關(guān)鍵點(diǎn)方向校正與描述字生成四個(gè)子過(guò)程。在多尺度空間極值點(diǎn)檢測(cè)過(guò)程中,首先將待檢測(cè)圖像I(x,y)與相鄰尺度的高斯差分函數(shù)進(jìn)行卷積形成多尺度空間表示,即:

G(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y)

(1)

其中,* 表示沿x與y方向的卷積,高斯函數(shù)G(x,y,σ)定義為:

L(x,y,σ)=G(x,y,σ)*I(x,y)

(2)

然后,檢測(cè)多尺度空間中的極值點(diǎn)作為候選關(guān)鍵點(diǎn),檢測(cè)規(guī)則為該點(diǎn)是某一尺度空間相鄰8個(gè)像素及其上、下相鄰尺度空間中同位置的18個(gè)像素的極值點(diǎn)。在這些候選關(guān)鍵點(diǎn)中,會(huì)存在對(duì)局部噪聲干擾較為敏感的不穩(wěn)定的關(guān)鍵點(diǎn)。針對(duì)這一問(wèn)題,SIFT算法引入Hessian矩陣對(duì)候選關(guān)鍵點(diǎn)進(jìn)行進(jìn)一步篩選,候選關(guān)鍵點(diǎn)的Hessian矩陣定義為:

(3)

其中:

(4)

(5)

(6)

其中,D(x,y,σ)為該關(guān)鍵點(diǎn)所在的尺度空間,不穩(wěn)定的關(guān)鍵點(diǎn)的主方向響應(yīng)會(huì)遠(yuǎn)遠(yuǎn)大于其垂直方向,如果α表示Hessian矩陣主方向所對(duì)應(yīng)的特征值,β為其垂直方向所對(duì)應(yīng)的特征值,則有:

α+β=Tr(H)=Dxx+Dyy

(7)

(8)

改寫可得:

(9)

其中,γ=α/β,因此,候選關(guān)鍵點(diǎn)的篩選規(guī)則為:

(10)

其中,T為篩選閾值。通過(guò)上述兩個(gè)過(guò)程,在圖像I(x,y)的多尺度空間可以檢測(cè)若干穩(wěn)定的關(guān)鍵點(diǎn),為了獲得旋轉(zhuǎn)不變性,還要對(duì)關(guān)鍵點(diǎn)進(jìn)行方向校正,其基本原理是在確定該關(guān)鍵點(diǎn)的SIFT描述字時(shí),將坐標(biāo)軸旋轉(zhuǎn)到該關(guān)鍵點(diǎn)的主方向。關(guān)鍵點(diǎn)的主方向通過(guò)計(jì)算該關(guān)鍵點(diǎn)鄰域梯度分布直方圖的峰值,然后再進(jìn)行二次函數(shù)的擬合來(lái)確定。在統(tǒng)計(jì)鄰域梯度分布直方圖時(shí),對(duì)梯度幅值進(jìn)行方差為尺度因子σ1.5倍的高斯函數(shù)進(jìn)行加權(quán)。

在關(guān)鍵點(diǎn)描述字生成過(guò)程中,首先以關(guān)鍵點(diǎn)為中心,旋轉(zhuǎn)其鄰域使得坐標(biāo)軸x與該關(guān)鍵點(diǎn)的主方向重合,并且根據(jù)其尺度因子σ進(jìn)行相應(yīng)的尺度變換,然后計(jì)算其16×16鄰域像素點(diǎn)的梯度幅值與方向,將16×16鄰域劃分為16個(gè)4×4的子塊,計(jì)算每個(gè)子塊8方向的梯度直方圖,將16個(gè)子塊的梯度直方圖的值按從左到右,從上到下的次序排列起來(lái)(見(jiàn)圖1所示),然后進(jìn)行歸一化,形成該關(guān)鍵點(diǎn)128維的SIFT描述字。

圖1 SIFT描述字計(jì)算過(guò)程圖示

1.2PCA-SIFT 算法

直接利用SIFT算法提取的特征進(jìn)行后續(xù)的圖像處理,無(wú)論是從算法的計(jì)算復(fù)雜度,還是從算法的性能來(lái)看,都是不可取的。所以需要對(duì)128維SIFT特征進(jìn)行降維。利用主成分分析的方法對(duì)SIFT算法進(jìn)行改進(jìn),具體實(shí)現(xiàn)過(guò)程如下。

確定樣本圖像I(x,y)的關(guān)鍵點(diǎn) ( 假設(shè)為n個(gè)),針對(duì)每個(gè)關(guān)鍵點(diǎn)提取SIFT特征,共128維,將其組成特征矩陣X=(x1,x2,…,xn),維數(shù)為n×128。

計(jì)算特征向量的均值:

(11)

計(jì)算特征向量的協(xié)方差矩陣:

(12)

求取協(xié)方差矩陣的特征值和特征向量。由于Cx是實(shí)對(duì)稱的,故可以找到128個(gè)正交的特征向量,設(shè)特征值λi對(duì)應(yīng)的特征向量為ei,將特征值從大到小排列。

將最大的k個(gè)特征值對(duì)應(yīng)的特征向量ek組成變換矩陣A,A的維數(shù)為128×k,k的取值大小決定最終特征向量的維數(shù)。

Ke等的工作[22]表明,當(dāng)k選擇36時(shí),PCA-SIFT具有最佳的區(qū)域匹配和表示能力,而且在他們的實(shí)驗(yàn)中,PCA-SIFT區(qū)域匹配和表示能力好于原SIFT特征。本文選擇k=36,變換矩陣A生成過(guò)程采用與文獻(xiàn)[22]相似的方法,即選擇一組與識(shí)別問(wèn)題無(wú)關(guān)而且差異較大的圖像,抽取20 000多個(gè)SIFT特征根據(jù)上述方法進(jìn)行PCA降維,獲得128×36維的變換矩A,將此變換矩陣保存起來(lái),應(yīng)用下式進(jìn)行降維:

y=Ax

(13)

其中,x為原SIFT特征,y為對(duì)應(yīng)的36維的PCA-SIFT。

2本文算法

本文算法的實(shí)現(xiàn)過(guò)程如圖2所示。

圖2 基于PCA-SIFT與貝葉斯決策的圖像分類算法實(shí)現(xiàn)流程圖

2.1訓(xùn)練過(guò)程

本文算法首先應(yīng)用式(10)對(duì)所提取到的SIFT特征進(jìn)行降維。在訓(xùn)練過(guò)程中,對(duì)同類訓(xùn)練樣本圖像所提取到的PCA-SIFT特征進(jìn)行互配,計(jì)算每個(gè)PCA-SIFT的互配率,具體作法如下,首先在同一類別的訓(xùn)練樣本圖像中隨機(jī)選擇一幅訓(xùn)練樣本圖像fw(x,y),將其與同類的其它訓(xùn)練樣本圖像基于PCA-SIFT進(jìn)行區(qū)域匹配,對(duì)于圖像fw(x,y)中的某一PCA-SIFT特征ywi,其互配率s(ywi)定義為:

(14)

其中,Nw為訓(xùn)練集中w類樣本圖像總數(shù),nwi為與特征ywi區(qū)域匹配成功的該類訓(xùn)練樣本圖像總數(shù)。互配率s(ywi)反映了特征ywi在該類圖像中的穩(wěn)定程度,如果s(ywi)趨近于1,說(shuō)明對(duì)應(yīng)特征ywi在該類圖像中為目標(biāo)圖像的穩(wěn)定關(guān)鍵點(diǎn),在分類過(guò)程中應(yīng)重點(diǎn)考慮,如果s(ywi)趨近于0,則特征ywi為該類圖像中背景圖像或其它干擾所形成的關(guān)鍵點(diǎn),在分類過(guò)程中可能會(huì)干擾分類結(jié)果。基于此,我們根據(jù)互配率s(ywi)的大小對(duì)特征ywi進(jìn)行進(jìn)一步篩選,如果s(ywi)>T,則特征ywi在該類圖像中為目標(biāo)圖像的穩(wěn)定關(guān)鍵點(diǎn)保留,否則,即舍去。其中T為閾值,根據(jù)具體分類問(wèn)題基于實(shí)驗(yàn)確定。

對(duì)于同一目標(biāo)圖像的穩(wěn)定關(guān)鍵點(diǎn)特征ywi,在不同的訓(xùn)練樣本圖像和測(cè)試圖像中,其值由于噪聲或成像設(shè)備等因素會(huì)發(fā)生一定漂移,假定其變化符合多維正太分布,有:

(15)

其中,μwi與∑wi為關(guān)鍵點(diǎn)特征ywi概率公布的均值向量與協(xié)方差矩陣,可以在訓(xùn)練過(guò)程中基于最大似然估計(jì)進(jìn)行估算[23],有:

(16)

(17)

其中,ywij為特征ywi在同類的第j幅訓(xùn)練樣本圖像對(duì)應(yīng)的區(qū)域匹配特征。由于PCA降維使得特征ywi的各分量不相關(guān),基于正太分布假設(shè),理論上∑wi應(yīng)為對(duì)角矩陣,在實(shí)驗(yàn)中,我們發(fā)現(xiàn),∑wi雖然不是對(duì)角矩陣,但其非對(duì)角原素值遠(yuǎn)小于對(duì)角原素,我們只保留∑wi矩陣的對(duì)角原素,其它原素為零作為協(xié)方差矩陣的近似估計(jì)。將w類所有穩(wěn)定特征對(duì)應(yīng)的μwi、∑wi與互配率s(ywi)作為該類別的模式特征。

2.2基于貝葉斯決策的圖像分類

給定未知樣本圖像f(x,y),提取其所有SIFT特征,應(yīng)用式(10)獲得其對(duì)應(yīng)的PCA-SIFT特征yl,1≤l≤N??紤]到這些特征中一部分特征屬于背景圖像,與分類的目標(biāo)圖像無(wú)關(guān),在分類過(guò)程中應(yīng)舍去,則,樣本圖像f(x,y)的類概率:

(18)

(19)

(20)

其中,Nw為w類的圖像穩(wěn)定的PCI-SIFT特征總數(shù),根據(jù)貝葉斯公式,給定未知樣本f(x,y),其屬于類別w的后驗(yàn)概率為:

(21)

則未知樣本f(x,y)應(yīng)分類到后驗(yàn)概率p(w/f(x,y))最大的對(duì)應(yīng)類別中,由于概率函數(shù)的非負(fù)性,上述分類規(guī)則等價(jià)于求p(f(x,y)/w)p(w)的最大值。假定在分類過(guò)程中,各個(gè)訓(xùn)練類別的先驗(yàn)概率類p(w)相同,則上述規(guī)則等價(jià)于計(jì)算p(f(x,y)/w)的最大值,將式(20)代入式(18),有:

(22)

為了簡(jiǎn)化計(jì)算,對(duì)式(22)兩邊取對(duì)數(shù),有:

(23)

去掉上式中不影響比較結(jié)果的常數(shù)項(xiàng)因子,則取上式的最大值等價(jià)于計(jì)算下式的最小值:

(24)

則,分類規(guī)則為:

(25)

考慮到在訓(xùn)練過(guò)程中,互配率s(ywi)較大的特征在該類圖像中為目標(biāo)圖像的穩(wěn)定關(guān)鍵點(diǎn),在分類過(guò)程中應(yīng)重點(diǎn)考,因此,式(25)的分類規(guī)則最后修正為:

(26)

2.3方法儲(chǔ)存需求與計(jì)算效率分析

表1 儲(chǔ)存需求與計(jì)算效率比較

3實(shí)驗(yàn)結(jié)果與分析

實(shí)驗(yàn)采用文獻(xiàn)中常用的兩個(gè)標(biāo)準(zhǔn)數(shù)據(jù)庫(kù)Caltech-101[24]、15-Scene[15]進(jìn)行了仿真測(cè)試,并與基于SIFT最新的、有代表性的圖像分類方法如SPM[15]、ScSPM[17]、LLC[18]、拉普拉斯群稀疏編碼[19]、自適應(yīng)分塊機(jī)器學(xué)習(xí)[20]與空域金字塔稀疏編碼方法[21]進(jìn)行了性能比較。

實(shí)驗(yàn)115-Scene數(shù)據(jù)庫(kù)包含了15類圖像,包括床、郊區(qū)、工業(yè)園區(qū)、廚房、臥室、海岸、森林、高速路等一共4485幅圖像。對(duì)每一類選取30幅圖像作為訓(xùn)練圖像,其它圖像作為測(cè)試圖像。實(shí)驗(yàn)結(jié)果見(jiàn)表2所示。如表2所示,各種改進(jìn)的SPM算法較原SPM算法分類精度有不同程度的提高,基于機(jī)器學(xué)習(xí)的改進(jìn)方法分類精度高于基于稀疏編碼的改進(jìn)算法,我們的方法較現(xiàn)有的方法具有最好的分類精度。

表2 對(duì)15-Scene標(biāo)準(zhǔn)數(shù)據(jù)庫(kù)的分類精度

實(shí)驗(yàn)2Caltech-101 數(shù)據(jù)庫(kù)包含了101類共9144幅圖像(包含有動(dòng)物,花,人臉等)。每一類圖像有31~800幅方向、光照、大小不同的樣本圖像。對(duì)每一類圖像選取30幅圖像作為訓(xùn)練樣本,其他圖像作為測(cè)試樣本。應(yīng)用我們的方法與上述方法進(jìn)行分類,結(jié)果見(jiàn)表3所示。由表3可以看出,上述方法該數(shù)據(jù)庫(kù)的分類精度較實(shí)驗(yàn)1都有不同程度的下降,主要原因是Caltech-101 數(shù)據(jù)庫(kù)的樣本圖像方向、光照、大小明顯不同,尤其是其分類的目標(biāo)圖像都具有不同的背景,而我們的方法通過(guò)訓(xùn)練過(guò)程中的互配率對(duì)圖像的特征點(diǎn)進(jìn)行了篩選,在分類過(guò)程中,互配率大的特征點(diǎn)對(duì)分類結(jié)果貢獻(xiàn)在。這在一定程度上降低了圖像背景中的特征點(diǎn)對(duì)分類過(guò)程的干擾,所以我們方法較現(xiàn)有方法具有最好的分類精度,而且在兩個(gè)數(shù)據(jù)庫(kù)上的分類精度下降最小。

表3 對(duì)Caltech-101 標(biāo)準(zhǔn)數(shù)據(jù)庫(kù)的分類精度

4結(jié)語(yǔ)

本文提出了基于PCASIFT特征和貝葉斯決策的圖像分類方法,PCASIFT特征不僅有效地繼承了SIFT特征在平移、旋轉(zhuǎn)、尺度變換和光照改變下的魯棒性,而且解決了SIFT特征維度較高的問(wèn)題,大大降低了計(jì)算的復(fù)雜度。實(shí)驗(yàn)結(jié)果表明,本文的方法比現(xiàn)有算法分類精度高,而且對(duì)背景圖像的干擾具有較高的魯棒性。

參考文獻(xiàn)

[1]WangX,XiaoB,MaJF,etal.ScalingandrotationinvariantanalysisapproachtoobjectrecognitionbasedonRadonandFourier-Mellintransforms[J].PatternRecognition,2007(40):3503-3508.

[2]XiaoB,MaJF,WangX.ImageanalysisbyBessel-Fouriermoments[J].PatternRecognition,2010(43):2620-2629.

[3]LingH,JacobsDW.Shapeclassificationusingtheinnerdistance[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2007,29(2):286-299.

[4]HuR,JiaW,LingH,etal.MultiscaleDistanceMatrixforFastPlantLeafRecognition[J].IEEETrans.ImageProcessing,2012,21(11):4667-4172.

[5]MikolajczykK,SchmidC.Aperformanceevaluationoflocaldescriptors[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2005(27):1615-1630.

[6]MikolajczykK,SchmidC.Scale&affineinvariantinterestpointdetectors[J].InternationalJournalofComputerVision,2004(60):63-86.

[7]LoweDG.Distinctiveimagefeaturesfromscale-invariantkeypoints[J].InternationalJournalofComputerVision,2003,60(2):91-11.

[8]BayH,EssA,TuytelaarsT,etal.Speeded-uprobustfeatures(SURF)[J].ComputerVisionandImageUnderstanding,2008,110(3):346-359.

[9]TuytelaarsT,MikolajczykK.Localinvariantfeaturedetectors:Asurvey[J].FoundationsandTrendsinComputerGraphicsandVision,2007,3(3):177-280.

[10]BadrinathGS,PhalguniGupta.PalmprintVerificationusingSIFTfeatures[J].ImageProcessingTheory,ToolsandApplications,2008(20):1-8.

[11]LeqingZhu,SanyuanZhang,RuiXing,etal.UsingSIFTandPROSACtoIdentifyPalmprints[C]//Proceedingsofthe2008InternationalConferenceonImageProcessing,ComputerVision,&PatternRecognition,2008:136-141.

[12]XuY,HuangSB,JiH,etal.Scale-spacetexturedescriptiononSIFT-liketextons[J].ComputerVisionandImageUnderstanding,2012(116):999-1013.

[13]HeY,KavukcuogluK,WangY,etal.UnsupervisedFeatureLearningbyDeepSparseCoding[J].arXivpreprintarXiv,2013:1312.5783.

[14]JiangZ,LinZ,DavisLS.LearningadiscriminativedictionaryforsparsecodingvialabelconsistentK-SVD[C]//ComputerVisionandPatternRecognition(CVPR),2011IEEEConferenceon.IEEE,2011:1697-1704.

[15]LazebnikS,SchmidC,PonceJ.Beyondbagsoffeatures:Spatialpyramidmatchingforrecognizingnaturalscenecategories[C]//ComputerVisionandPatternRecognition,2006IEEEComputerSocietyConferenceon.IEEE,2006,2:2169-2178.

[16]ZhouX,CuiN,LiZ,etal.Hierarchicalgaussianizationforimageclassification[C]//ComputerVision,2009IEEE12thInternationalConferenceon.IEEE,2009:1971-1977.

[17]YangJ,YuK,GongY,etal.Linearspatialpyramidmatchingusingsparsecodingforimageclassification[C]//ComputerVisionandPatternRecognition,2009.CVPR2009.IEEEConferenceon.IEEE,2009:1794-1801.

[18]WangJ,YangJ,YuK,etal.Locality-constrainedlinearcodingforimageclassification[C]//ComputerVisionandPatternRecognition(CVPR),2010IEEEConferenceon.IEEE,2010:3360-3367.

[19]ZhangL,MaC.Low-rankdecompositionandLaplaciangroupsparsecodingforimageclassification[J].Neurocomputing,2014(135):339-347.

[20]LiuB,LiuJ,LuH.Adaptivespatialpartitionlearningforimageclassification[J].Neurocomputing,2014(142):282-290.

[21]ZhangC,WangS,HuangQ,etal.Imageclassificationusingspatialpyramidrobustsparsecoding[J].PatternRecognitionLetters,2013,34(9):1046-1052.

[22]KeY,SukthankarR.PCA-SIFT:Amoredistinctiverepresentationforlocalimagedescriptors[C]//ComputerVisionandPatternRecognition,2004.CVPR2004.Proceedingsofthe2004IEEEComputerSocietyConferenceon.IEEE,2004:506-513.

[23] 王晅,馬建峰.數(shù)字圖像分析與模式識(shí)別[M].北京:科學(xué)出版社,2009.

[24]FeifeiL,FergusR,PeronaP.Learninggenerativevisualmodelsfromfewtrainingexamples:anincrementalBayesianapproachtestedon101objectcategories[C]//IEEECVPRWorkshoponGenerative-ModelBasedVision,2004.

IMAGE CLASSIFICATION ALGORITHM BASED ON PCA-SIFT FEATURESANDBAYESIANDECISION

Tu QiujieWang Xuan

(School of Physics and Information Technology,Shaanxi Normal University,Xi’an 710119,Shaanxi,China)

AbstractIn order to cope with the problems that existing SIFT-based image classification algorithms require a large amount of storage space and are sensitive to image backgrounds, this paper presents a novel image classification algorithm which is based on PCA-SIFT features and Bayesian decision. The algorithm first applies the principal component analysis (PCA) to reduce the dimensionality of SIFT from 128 to 36, in training process, it makes regional matching on PCA-SIFT descriptors of the training sample images. In order to improve its robustness on background image interference, we selected the stable PCA-SIFT descriptors in object images based on their matching rates, and then used the maximum likelihood estimation to estimate the probability distribution parameters. Finally we used Bayesian decision theory to implement the image classification. Simulation experiment showed that this algorithm has higher classification accuracy compared with existing SIFT-based image classification methods. It also has minimum storage space requirement and higher computation efficiency.

KeywordsPCA-SIFTClusteringBayesian decisionImage classification

收稿日期:2014-12-30。涂秋潔,碩士生,主研領(lǐng)域:數(shù)字圖像處理,模式識(shí)別。王晅,教授。

中圖分類號(hào)TP3

文獻(xiàn)標(biāo)識(shí)碼A

DOI:10.3969/j.issn.1000-386x.2016.06.052

猜你喜歡
訓(xùn)練樣本關(guān)鍵點(diǎn)貝葉斯
聚焦金屬關(guān)鍵點(diǎn)
肉兔育肥抓好七個(gè)關(guān)鍵點(diǎn)
人工智能
寬帶光譜成像系統(tǒng)最優(yōu)訓(xùn)練樣本選擇方法研究
融合原始樣本和虛擬樣本的人臉識(shí)別算法
基于稀疏重構(gòu)的機(jī)載雷達(dá)訓(xùn)練樣本挑選方法
基于貝葉斯估計(jì)的軌道占用識(shí)別方法
基于互信息的貝葉斯網(wǎng)絡(luò)結(jié)構(gòu)學(xué)習(xí)
一種基于貝葉斯壓縮感知的說(shuō)話人識(shí)別方法
醫(yī)聯(lián)體要把握三個(gè)關(guān)鍵點(diǎn)