国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

半監(jiān)督系數(shù)選擇法的人臉識(shí)別

2012-03-23 07:37:00崔鵬張汝波
關(guān)鍵詞:掩模維數(shù)識(shí)別率

崔鵬,張汝波

(1.哈爾濱工程大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,黑龍江 哈爾濱150001;2.哈爾濱理工大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,黑龍江哈爾濱150080)

主成分分析(principal component analysis,PCA)與線性判別分析(linear discriminant analysis, LDA)是基于子空間特征提取的2種重要方法,它們成功地用于人臉識(shí)別[1-4].然而PCA與LDA作用于圖像時(shí),產(chǎn)生的向量空間通常有非常高的維數(shù),使得PCA與LDA難于執(zhí)行[5-8].此外,由于PCA屬于無監(jiān)督學(xué)習(xí),自動(dòng)進(jìn)行聚類,但其一旦偏離分類方向,會(huì)產(chǎn)生非常大的錯(cuò)誤;LDA屬于監(jiān)督學(xué)習(xí),需要人工對(duì)未標(biāo)記數(shù)據(jù)進(jìn)行大量的標(biāo)注,需要耗費(fèi)大量的人力和物力.半監(jiān)督學(xué)習(xí)的訓(xùn)練樣本由少量的有標(biāo)記樣本以及大量的無標(biāo)記樣本組成.在學(xué)習(xí)過程中,根據(jù)少量有標(biāo)記樣本選擇初始的約束條件,進(jìn)行聚類或分類[9-12].離散余弦變換(discrete cosine transform,DCT)的一些特殊屬性使它成為人臉識(shí)別的一種有效變換,它能夠降低數(shù)據(jù)維數(shù)以避免奇異性,并減少PCA以及LDA的計(jì)算代價(jià)[13-16].本文提出了一種約束聚類最優(yōu)DCT(constrained clustering-based optimal discrete cosine transform,CCODCT)系數(shù)選擇法,將每個(gè)DCT系數(shù)與判別系數(shù)(discriminant coefficient,DC)聯(lián)系起來,通過選取較大DC值對(duì)應(yīng)的DCT系數(shù),得到最優(yōu)DCT系數(shù)陣,實(shí)現(xiàn)數(shù)據(jù)降維.

1 CCODCT系數(shù)選擇法人臉識(shí)別過程

本文提出的半監(jiān)督CCODCT系數(shù)選擇法的人臉識(shí)別的過程如下:

1)將圖像數(shù)據(jù)庫(kù)隨機(jī)劃分為訓(xùn)練集與測(cè)試集;

2)計(jì)算所有訓(xùn)練圖像的DCT系數(shù);

3)通過預(yù)掩模選擇圖像的DCT系數(shù),選取中頻有效信息;

4)根據(jù)有標(biāo)記的訓(xùn)練樣本種子集,計(jì)算初始聚類中心,采用半監(jiān)督約束聚類對(duì)圖像進(jìn)行聚類;

5)根據(jù)獲得的分類,計(jì)算判別系數(shù),得到判別系數(shù)(DC)陣;

6)對(duì)DC陣的列向量按照降序排列,分別選取前n(n為想要的特征數(shù))個(gè)最大值,并標(biāo)記它們相應(yīng)的位置;

7)選取每個(gè)列向量前n個(gè)最大值對(duì)應(yīng)的DCT系數(shù),得到n×P的最優(yōu)DCT系數(shù)陣,其中n?K;

8)對(duì)測(cè)試集用分類器計(jì)算識(shí)別率,文中采用的是最小歐式測(cè)度分類器.

2 離散余弦變換與半監(jiān)督約束K-Means聚類

2.1 DCT系數(shù)陣以及掩模

DCT特征提取由2個(gè)階段組成.在第1階段,應(yīng)用DCT到整個(gè)圖像以獲取DCT系數(shù).然后,在第2階段選擇一些系數(shù)構(gòu)建特征向量.DCT系數(shù)陣的維數(shù)與輸入圖像的維數(shù)相同.實(shí)際上,DCT自身并不能降低數(shù)據(jù)維數(shù),它將大多數(shù)信號(hào)信息壓縮在一個(gè)比較小的百分比中.一張M×N圖像對(duì)應(yīng)一個(gè)二維矩陣,其DCT系數(shù)陣可進(jìn)行如下計(jì)算:

其中:

式中:A(m,n)是圖像陣在位置(m,n)處的灰度值,D(p,q)是DCT系數(shù)陣在位置(p,q)處的值.因而對(duì)整張圖像DCT變換,可以獲得相同維數(shù)的系數(shù)陣.

通常DCT系數(shù)分成3個(gè)頻帶,即低頻、中頻及高頻.低頻與光照條件相關(guān),高頻表示噪聲及小的變化,中頻系數(shù)包含了有用信息及建立圖像的基本結(jié)構(gòu).圖1說明了一張典型的人臉圖像和它的DCT系數(shù)的頻率分布.圖1(b)為第1階段采用DCT變換后,DCT系數(shù)的頻帶分布.圖1(c)為帶狀(ZM)掩模,通過帶狀掩模與原始圖像相乘得到第2階段選擇的DCT系數(shù),包括中頻有效信息.可看出中頻系數(shù)在人臉識(shí)別中是更適合的候選.

圖1 典型圖像DCT系數(shù)頻率分布以及ZM掩模Fig.1 DCT frequency distribution of a typical image and ZM masking

圖2為80×80圖像,對(duì)應(yīng)DCT陣在不同ZM掩模提取的圖像.通過選擇適當(dāng)?shù)难谀?,可以達(dá)到降低數(shù)據(jù)維數(shù)的目的.

圖2 80×80圖像在不同ZM掩模下提取的圖像Fig.2 80×80 image with different ZM maskings

2.2 基于DCT的半監(jiān)督約束K-Means聚類

在前面對(duì)圖像的DCT陣進(jìn)行了預(yù)掩模,達(dá)到了維數(shù)的初步約簡(jiǎn),接下來要對(duì)圖像進(jìn)行分類.本文采用半監(jiān)督約束K-Means進(jìn)行聚類.

1)首先計(jì)算各Sh的均值作為各個(gè)類別的初始聚類中心:

由式(2)得到k個(gè)初始類別中心.

2)數(shù)據(jù)集的K-Means聚類產(chǎn)生X的k個(gè)劃分,以使K-Means目標(biāo)函數(shù)是局部最小的(極小值).根據(jù)K-Means產(chǎn)生X的k個(gè)劃分,每個(gè)劃分為一個(gè)類集分配每個(gè)數(shù)據(jù)點(diǎn)到聚類(h*為類別標(biāo)簽):

3)根據(jù)得到k個(gè)劃分,可計(jì)算t+1次迭代的聚類中心:

4)設(shè)定約束K-Means的收斂條件:

式中:ε為一個(gè)接近0的正數(shù),重復(fù)執(zhí)行2)~4)直至算法收斂.經(jīng)過半監(jiān)督約束聚類,對(duì)每個(gè)數(shù)據(jù)點(diǎn)進(jìn)行了分類,類別標(biāo)簽為h.

3 基于判別系數(shù)最優(yōu)DCT選擇

傳統(tǒng)系數(shù)選擇法如Zigzag,ZM掩模以及對(duì)它們的修改選擇DCT系數(shù)陣的固定元素,雖然它們很簡(jiǎn)單,但并不一定對(duì)所有數(shù)據(jù)庫(kù)都高效.本文提出一種判別系數(shù)(DC)選擇法,能夠根據(jù)判別系數(shù)大小選擇DCT系數(shù),從而提高正確識(shí)別率.目的是要找到數(shù)據(jù)庫(kù)的這些判別系數(shù),并統(tǒng)計(jì)分析數(shù)據(jù)庫(kù)中與每個(gè)DCT系數(shù)相關(guān)聯(lián)的所有圖像,稱此方法為基于判別系數(shù)最優(yōu) DCT(optimal discrete cosine transform,ODCT)系數(shù)選擇法.判別系數(shù)的特征是有最小的類內(nèi)變化,最大的類間變化.ODCT與PCA、LDA等不同,它利用類間與類內(nèi)方差.PCA與LDA試圖獲得變換域中能最大化特征判別的變換,而ODCT搜索原始域中最好的判別特征.DC選擇法與預(yù)掩模組合使其對(duì)有限數(shù)量的訓(xùn)練樣本健壯.ODCT沒有基于LDA法中常見的奇異性問題.ODCT可作為一種獨(dú)立的降低特征維數(shù)算法與其他方法組合,ODCT-PCA、ODCTLDA是PCA、LDA的2種改進(jìn)方法.

3.1 計(jì)算DC值

定義DC值依賴于2種屬性:類間的大變化與類內(nèi)的小變化,可通過將類間方差與類內(nèi)方差來估計(jì)DC值,其中圖像類別為半監(jiān)督聚類確定的類別.在此方式下,希望能估計(jì)判別系數(shù)的較大值.大小為M×N圖像的DCT矩陣如下:

訓(xùn)練集的每個(gè)DCT系數(shù)aij(i=1,2,…,M,j= 1,2,…,N)的DC值,可進(jìn)行如下估計(jì).

1)將每張DCT圖像由2D進(jìn)行1D向量化,得到訓(xùn)練圖像庫(kù)的(M×N)×P維DCT陣T:

2)計(jì)算類內(nèi)方差和:

3)計(jì)算所有訓(xùn)練樣本的方差:

4)計(jì)算位置(i,j)判別系數(shù):

式中:d(i,j)表示判別系數(shù)陣M在位置(i,j)處的DC值.

5)判別系數(shù)陣M標(biāo)準(zhǔn)化:

式中:min(M(∶))表示M陣中的最小值,max(M(∶))表示M陣中的最大值.DC的高值意味著高判別能力,它們的值被標(biāo)準(zhǔn)化為0~1.

3.2 最優(yōu)DCT掩模

由于DC系數(shù)選擇法是一種統(tǒng)計(jì)分析,訓(xùn)練樣本數(shù)影響其有效性.當(dāng)每類有足夠的樣本數(shù)可用時(shí),DC是一種優(yōu)化的DCT系數(shù)選擇法.

在前面提到DCT域被分為3個(gè)頻帶.在這些頻帶中,中頻適合正確的識(shí)別.圖3為在不同數(shù)據(jù)庫(kù)中取前60個(gè)最大DC值對(duì)應(yīng)的掩模.可以看出高DC值主要分布在低頻以及中頻部分,高頻部分很少,這與DCT系數(shù)的分布相同.根據(jù)3個(gè)頻帶的屬性,限定DC的搜索區(qū)域,避免由少量訓(xùn)練樣本產(chǎn)生不合理結(jié)果.限定搜索區(qū)域會(huì)降低計(jì)算代價(jià),在搜索區(qū)域取值1,其余位置取0,得到一個(gè)基于DC值的掩模,將掩模與DCT陣相乘,就可得到基于DC值的最優(yōu)DCT系數(shù)陣.圖3為ORL數(shù)據(jù)庫(kù)圖像以及在不同DCT掩模下的重構(gòu)圖像.

圖4為ORL數(shù)據(jù)庫(kù)圖像以及在不同DCT掩模下的重構(gòu)圖像.

圖3 不同數(shù)據(jù)庫(kù)上選取前60個(gè)最大DC值對(duì)應(yīng)的掩模Fig.3 Masking on different database with top 60 largest DC

圖4 ORL數(shù)據(jù)庫(kù)圖像及在不同DCT掩模下重構(gòu)的圖像Fig.4 Images in ORL and reconstructed image with different DCT masking

圖5為Yale數(shù)據(jù)庫(kù)圖像以及在不同DCT掩模下的重構(gòu)圖像.

圖5 Yale數(shù)據(jù)庫(kù)圖像在不同DCT掩模下重構(gòu)的圖像Fig.5 Images in Yale and reconstructed image with different DCT masking

4 實(shí)驗(yàn)驗(yàn)證

為評(píng)估提出的方法,將提出的方法在人臉數(shù)據(jù)庫(kù)上進(jìn)行了仿真.實(shí)驗(yàn)用MATLAB7.0編程;在所有的仿真中采用了交叉校驗(yàn)的方法,將數(shù)據(jù)庫(kù)分為訓(xùn)練集與測(cè)試集,在50組可能的訓(xùn)練與測(cè)試集下進(jìn)行了仿真,結(jié)果為50輪運(yùn)行結(jié)果的平均.為表示訓(xùn)練樣本數(shù)量對(duì)不同方法的影響,每種方法使用不同訓(xùn)練圖像數(shù)量執(zhí)行仿真.

4.1 實(shí)驗(yàn)數(shù)據(jù)庫(kù)

4.1.1 ORL人臉數(shù)據(jù)庫(kù)

ORL數(shù)據(jù)庫(kù)包含400張人臉圖像,40個(gè)人每人10張圖像.每人圖像在表情、細(xì)節(jié)、姿勢(shì)與尺寸等方面有變化.選取每人m(1≤m≤9)張圖像,共40m張圖像作為訓(xùn)練集圖像;其余的40(10-m)張圖像作為測(cè)試集.

4.1.2 Yale人臉數(shù)據(jù)庫(kù)

Yale人臉數(shù)據(jù)庫(kù)包含有重要變化的圖像,包括對(duì)象戴眼鏡、光照以及表情變化.數(shù)據(jù)庫(kù)包括165張正面人臉圖像,15個(gè)人每人11張圖像.選取每人n (1≤n≤10)張圖像,共15n張圖像作為訓(xùn)練集圖像;其余的15(11-n)張圖像作為測(cè)試集.

4.2 實(shí)驗(yàn)結(jié)果

4.2.1 不同系數(shù)選擇法的比較

傳統(tǒng)方法系數(shù)選擇法如Zigzag、ZM非常流行,比較了Zigzag以及ZM與ODCT法組合的6種方法識(shí)別率.ODCT為最優(yōu)DCT系數(shù)選擇法;ZM-ODCT先對(duì)DCT圖像先進(jìn)行 ZM預(yù)掩模,然后再進(jìn)行ODCT系數(shù)選擇;CCODCT為基于約束聚類最優(yōu)DCT系數(shù)選擇;ZM-CCODCT先對(duì)圖像DCT陣進(jìn)行ZM預(yù)掩模,然后進(jìn)行CCODCT系數(shù)選擇;Zigzag-CCODCT先進(jìn)行Zigzag預(yù)掩模,然后進(jìn)行CCODCT系數(shù)選擇.

圖6為6種不同方法在ORL與Yale人臉數(shù)據(jù)庫(kù)上的識(shí)別率.由圖6(a)可以看到Zigzag選擇法的識(shí)別率最低.ODCT與ZM-ODCT的識(shí)別率較高,最高識(shí)別率達(dá)到95.5%.CCODCT與ZM-CCODCT在DCT數(shù)較少時(shí),識(shí)別率稍低于ODCT與ZM-ODCT,但當(dāng)DCT數(shù)達(dá)到60以上時(shí),獲得了接近ODCT的識(shí)別率.Zigzag-CCODCT表現(xiàn)不夠穩(wěn)定,在DCT數(shù)為20時(shí)達(dá)到最高識(shí)別率,而后隨著DCT數(shù)增加,識(shí)別率反而下降.由圖6(b)可以看出CCODCT的識(shí)別率優(yōu)于其他方法,而采用Zigzag法以及Zigzag-CCODCT的識(shí)別率相對(duì)較低,這是由于Zigzag沒有考慮到圖像的先驗(yàn)信息;ZM-ODCT、ODCT以及ZMCCODCT也獲得較好的識(shí)別率.

圖6 6種不同系數(shù)選擇法在ORL和Yale上的識(shí)別率Fig.6 Recognition rate of 6 different methods on ORL and Yale

4.2.2 系數(shù)選擇法與PCA組合

傳統(tǒng)的PCA是無監(jiān)督學(xué)習(xí),將系數(shù)選擇法與其組合,得到4種組合方法,避免了小樣本問題以及求解特征值的奇異性問題.ODCT-PCA先應(yīng)用ODCT選擇最優(yōu)DCT系數(shù),然后采用PCA投影;ZM-ODCTPCA先應(yīng)用ZM預(yù)掩模選擇DCT陣,并求最優(yōu)DCT系數(shù),然后應(yīng)用PCA投影;Zigzag-PCA先應(yīng)用Zigzag進(jìn)行DCT系數(shù)選擇,然后應(yīng)用PCA投影;ZMCCODCT-PCA先應(yīng)用ZM預(yù)掩模選擇DCT系數(shù),再應(yīng)用CCODCT選擇最優(yōu)DCT系數(shù),最后應(yīng)用PCA投影.

圖7為ODCT與PCA組合法在ORL與Yale人臉數(shù)據(jù)庫(kù)上的識(shí)別率.由圖7(a)中所示,Zigzag-PCA的識(shí)別率最差;ODCT的識(shí)別率最高,其在DCT數(shù)為5時(shí),識(shí)別率就達(dá)到了82%,在20處就達(dá)到了峰值95%;ODCT-PCA、ZM-ODCT-PCA以及ZM-CCODCTPCA也獲得了較高的識(shí)別率.在圖7(b)中考慮了光照問題,Zigzag法放棄特征向量的前3個(gè)系數(shù),ZM預(yù)掩模放棄DCT陣的前2行2列.在5種方法中,ZM-ODCT-PCA的識(shí)別率要優(yōu)于其他方法;ZMCCODCT-PCA、ODCT-PCA以及ODCT的識(shí)別率接近最優(yōu);Zigzag-PCA的識(shí)別率最差,在DCT數(shù)5時(shí)僅為68%,峰值達(dá)到90%.

圖7 ODCT與PCA組合法在ORL和Yale上的識(shí)別率Fig.7 Recognition rate of ODCT and PCA combination methods on ORL and Yale

4.2.3 系數(shù)選擇法與LDA組合

傳統(tǒng)的LDA是監(jiān)督學(xué)習(xí),需要有所有訓(xùn)練樣本的類別標(biāo)記信息.對(duì)LDA組合法在人臉數(shù)據(jù)庫(kù)上進(jìn)行了測(cè)試.ODCT-LDA先應(yīng)用ODCT系數(shù)選擇,然后進(jìn)行LDA投影;ZM-ODCT-LDA先應(yīng)用ZM預(yù)掩模,接著利用ODCT系數(shù)選擇,然后LDA投影;ZMCCODCT-LDA先應(yīng)用 ZM 預(yù)掩模,接著應(yīng)用CCODCT,然后進(jìn)行LDA投影;Zigzag-LDA先應(yīng)用Zigzag進(jìn)行系數(shù)選擇,然后進(jìn)行LDA投影.

圖8為ODCT與LDA組合法在ORL與Yale人臉數(shù)據(jù)庫(kù)上的識(shí)別率.如圖8(a)所示,ODCT在DCT數(shù)為5時(shí),獲得82%的識(shí)別率高于其他4種LDA法,當(dāng)DCT數(shù)為20時(shí),識(shí)別率達(dá)到95%,并隨著DCT數(shù)的增加,識(shí)別率穩(wěn)定在95%左右.ODCTLDA、ZM-ODCT-LDA以及Zigzag-LDA的初始識(shí)別率在70%左右,隨著DCT數(shù)增加它們的識(shí)別率最高達(dá)到99%左右,當(dāng)DCT數(shù)高100時(shí),識(shí)別率開始下降,在DCT數(shù)30~105范圍內(nèi),它們的識(shí)別率最高.ZM-CCODCT的初始階段識(shí)別率為72%,當(dāng)DCT數(shù)為50時(shí),識(shí)別率達(dá)到95%,并隨著DCT數(shù)增加,其識(shí)別率與ODCT接近在95%左右.由圖8(b)可以看到ZM-CCODCT-LDA在開始階段獲得了較高的識(shí)別率,而ODCT隨著DCT數(shù)增加,其識(shí)別率要優(yōu)于其他方法;Zigzag-LDA的識(shí)別率最差,其最高達(dá)到85%左右;ZM-ODCT-LDA與ODCT-LDA的識(shí)別率最高達(dá)到88%左右.

圖8 ODCT與LDA組合法在ORL和Yale上的識(shí)別率Fig.8 Recognition rate of ODCT and LDA combination methods on ORL and Yale

4.3 實(shí)驗(yàn)結(jié)果評(píng)價(jià)

表1 不同方法在ORL數(shù)據(jù)庫(kù)上的識(shí)別率Table 1 Recognition rate of different methods on ORL%

表2 不同方法在Yale數(shù)據(jù)庫(kù)上的識(shí)別率Table 2 Recognition rate of different methods on Yale%

表1和表2為不同方法在ORL以及Yale數(shù)據(jù)庫(kù)上的識(shí)別率比較.可以看到Zigzag與Zigzag-PCA作為無監(jiān)督學(xué)習(xí)方法,它們的識(shí)別率最低;ODCT、ZM-ODCT、ODCT-LDA、ZM-ODCT-LDA以及Zigzag-LDA為監(jiān)督學(xué)習(xí)方法,它們的識(shí)別率最高; CCODCT、 ZM-CCODCT、 Zigzag-CCODCT、 ZMCCODCT-PCA以及ZM-CCODCT-LDA為半監(jiān)督學(xué)習(xí)方法.在算法的執(zhí)行時(shí)間上,雖然半監(jiān)督學(xué)習(xí)方法的執(zhí)行時(shí)間稍高于監(jiān)督學(xué)習(xí)方法,但它們用較小的代價(jià),獲得了與監(jiān)督學(xué)習(xí)方法近似的識(shí)別率.

5 結(jié)論

本文提出了一種CCODCT系數(shù)選擇法.其優(yōu)點(diǎn)在于:

1)利用少量的標(biāo)記信息作為約束集,減少了人工標(biāo)記樣本的工作量.

2)對(duì)DCT陣進(jìn)行預(yù)掩模,達(dá)到降低計(jì)算代價(jià)的目的.

3)通過計(jì)算判別系數(shù),選擇少量的最優(yōu)DCT系數(shù),進(jìn)一步降低數(shù)據(jù)維數(shù);由于無需計(jì)算特征值問題,有效地解決了小樣本問題.

4)ODCT是數(shù)據(jù)依賴的,其性能優(yōu)于傳統(tǒng)系數(shù)選擇法,能根據(jù)數(shù)據(jù)庫(kù)的不同,選擇不同的掩模.

5)將此系數(shù)選擇法與PCA和LDA進(jìn)行組合,可用于解決任何特征提取問題.

由于CCODCT需要聚類,因而標(biāo)記信息的選取、時(shí)間復(fù)雜度以及對(duì)不同數(shù)據(jù)庫(kù)的魯棒性問題都影響著算法的性能.今后的工作是降低算法的時(shí)間復(fù)雜度,并在有光照、表情以及姿態(tài)變化的大型人臉數(shù)據(jù)庫(kù)上對(duì)其進(jìn)行評(píng)估,以使算法具有更好的魯棒性.

[1]KIRBY M,SIROVICH L.Application of the Karhunen-Loeve procedure for the characterization of human faces[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1990,12(1):103-108.

[2]牛星,席志紅,金子正秀.基于改進(jìn)AAM的人臉特征點(diǎn)提?。跩].應(yīng)用科技,2011,38(4):35-38.

NIU Xing,XI Zhihong,MASAHIDE Kaneko.Face feature points extraction based on refined AAM[J].Applied Science and Technology,2011,38(4):35-38.

[3]TURK M,PENTLAND A.Eigenfaces for recognition[J].International Journal of Cognitive Neuroscience,1991,3 (1):71-86.

[4]蘇景龍,林天威,王科俊,等.視頻流下的人臉檢測(cè)與跟蹤[J].應(yīng)用科技,2011,38(3):5-11.

SU Jinglong,LIN Tianwei,WANG Keijun,et al.Face detection and tracking in video[J].Applied Science and Technology,2011,38(3):5-11.

[5]ZHUANG X S,DAI D Q.Improved discriminant analysis for high-dimensional data and its application to face recognition[J].Pattern Recognition,2007,40(5):1570-1578.

[6]GAO Q X,ZHANG L,ZHANG D.Face recognition using FLDA with single training image per-person[J].Applied Mathematics and Computation,2008,205(12):726-734.

[7]ZHAO H T,YUEN P C.Incremental linear discriminant analysis for face recognition[J].IEEE Trans Syst Man Cybern B,2008,38(1):210-211.

[8]趙穎.基于改進(jìn)的核判別分析的人臉識(shí)別算法研究[J].哈爾濱理工大學(xué)學(xué)報(bào),2010,15(3):19-22.

ZHAO Ying.Research on the improved kernel discriminant analysis based on face recognition algorithm[J].Journal of Harbin University of Science and Technology,2010,15 (3):19-22.

[9]BASU S.Semi-supervised clustering:probabilistic models,algorithms and experiments[D].Austin:The University of Texas,2005:32-33.

[10]ZHU X J.Semi-supervised learning literature survey[R].Madison:University of Wisconsin-Madison,2005:28-31.

[11]ZHANG S W,LEI Y K,WU Y H.Semi-supervised locally discriminant projection for classification and recognition[J].Knowledge-Based Systems,2011,24(2):341-346.

[12]CAI D,HE X F,HAN J W.Semi-supervised discriminant analysis[C]//IEEE International Conference on Computer Vision.Rio de Janeiro,Brazil,2007:205-211.

[13]DABBAGHCHIAN S,GHAEMMAGHAMI M,AGHAGOLZADEH A.Feature extraction using discrete cosine transform and discrimination power analysis with a face recognition technology[J].Pattern Recognition,2010,43:1431-1440.

[14]CHEN W,ER M J,WU S.PCA and LDA in DCT domain[J].Pattern Recognition Letters,2005,26:2474-2482.

[15]JIANG J,F(xiàn)ENG G.Robustness analysis on facial image description in DCT domain[J].Electronics Letters,2007,43(24):356-357.

[16]CHOI J,CHUNG Y S,KIM K H.Face recognition using energy probability in DCT domain[C]//IEEE International Conference on Multimedia and Expo.Toronto,2006: 1549-1552.

猜你喜歡
掩模維數(shù)識(shí)別率
β-變換中一致丟番圖逼近問題的維數(shù)理論
一類齊次Moran集的上盒維數(shù)
基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測(cè)
基于直寫技術(shù)的微納掩模制作技術(shù)研究進(jìn)展*
基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識(shí)別率的關(guān)系
提升高速公路MTC二次抓拍車牌識(shí)別率方案研究
掩模圖像生成時(shí)閾值取值的合理性探討
掩模位置誤差對(duì)光刻投影物鏡畸變的影響
關(guān)于齊次Moran集的packing維數(shù)結(jié)果
高速公路機(jī)電日常維護(hù)中車牌識(shí)別率分析系統(tǒng)的應(yīng)用
兖州市| 通州市| 罗平县| 裕民县| 加查县| 郯城县| 新竹市| 罗定市| 高尔夫| 阿城市| 上蔡县| 尼木县| 都兰县| 壶关县| 嵊州市| 美姑县| 楚雄市| 永靖县| 宽甸| 仁寿县| 崇左市| 平舆县| 上饶市| 巨鹿县| 玉溪市| 郓城县| 依安县| 湟源县| 乌拉特前旗| 潍坊市| 偏关县| 洛宁县| 旺苍县| 佛学| 富裕县| 安塞县| 唐山市| 旅游| 乐都县| 龙川县| 即墨市|