国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

復(fù)雜背景下基于二維OTSU和膚色分割結(jié)合的掌紋圖像分割方法

2015-02-21 08:10:07薛延學(xué)劉敏馬思欣帥建坤雷丹
關(guān)鍵詞:掌紋膚色手掌

薛延學(xué),劉敏,馬思欣,帥建坤,雷丹

(西安理工大學(xué) 印刷包裝與數(shù)字媒體學(xué)院,陜西 西安 710048)

復(fù)雜背景下基于二維OTSU和膚色分割結(jié)合的掌紋圖像分割方法

薛延學(xué),劉敏,馬思欣,帥建坤,雷丹

(西安理工大學(xué) 印刷包裝與數(shù)字媒體學(xué)院,陜西 西安 710048)

基于智能手機(jī)的掌紋識(shí)別符合非接觸式、低分辨率等生物特征認(rèn)證的發(fā)展趨勢(shì),但是由智能手機(jī)采集的掌紋圖像背景往往比較復(fù)雜,導(dǎo)致手掌區(qū)域不能正確分割,限制了掌紋識(shí)別技術(shù)在智能手機(jī)上的應(yīng)用推廣。針對(duì)上述問(wèn)題,本文在研究二維大津法(二維OTSU)和基于高斯模型的膚色分割兩種方法的基礎(chǔ)上,結(jié)合兩者的優(yōu)點(diǎn),將兩種方法分別以“串聯(lián)”和“并聯(lián)”兩種融合方式相結(jié)合提出一種新的方法,對(duì)使用智能手機(jī)采集的復(fù)雜背景下掌紋圖像分別進(jìn)行分割。經(jīng)實(shí)驗(yàn)驗(yàn)證,并聯(lián)融合的方法對(duì)背景偏暗的掌紋圖像分割正確率較高;串聯(lián)融合的方法對(duì)背景偏亮掌紋圖像正確分割率較高,兩種方式結(jié)合能很好地滿足復(fù)雜背景下掌紋分割的需求。

智能手機(jī); 復(fù)雜背景; 手掌區(qū)域; 掌紋圖像分割; 二維大津法; 膚色分割

近年來(lái),伴隨著移動(dòng)技術(shù)的迅速發(fā)展和智能手機(jī)的普及,人們借助智能手機(jī)可以方便地接入網(wǎng)絡(luò)進(jìn)行交易和數(shù)據(jù)交流。為了防止手機(jī)身份被盜竊和詐事件的發(fā)生,基于智能手機(jī)的身份認(rèn)證研究具有重要意義。人體生物特征識(shí)別技術(shù)[1]是目前身份認(rèn)證最有發(fā)展?jié)摿Φ募夹g(shù)之一,其中基于掌紋特征的身份識(shí)別因具有非接觸、低分辨率、高穩(wěn)定性等優(yōu)點(diǎn),適用于智能手機(jī)的身份認(rèn)證,具有廣泛的應(yīng)用前景[2]。

掌紋圖像分割是影響掌紋識(shí)別性能的關(guān)鍵因素之一。目前使用較廣泛的分割方法[3]有固定閾值法、二維OTSU、基于高斯模型的膚色分割等,研究表明固定閾值法[4]常用于單一黑色背景下采集的掌紋圖像分割;使用二維OTSU[5-7]分割人手灰度相近的區(qū)域或偏白色區(qū)域時(shí),會(huì)被誤認(rèn)為是人手區(qū)域,達(dá)不到分割的要求;基于高斯模型的膚色分割方法[8-10]在分割掌紋圖像時(shí)不能克服手掌擺放角度、光照不均勻等問(wèn)題。智能手機(jī)采集圖像時(shí)背景不確定,易受復(fù)雜背景和光照不均勻的影響,上述常用的分割方法不能將手掌圖像完整地分割出來(lái)。因此,將復(fù)雜背景中的手掌圖像完整、可信地分割出來(lái)就成為基于智能手機(jī)的掌紋識(shí)別系統(tǒng)[11]所要解決的最重要的一個(gè)問(wèn)題,這樣才能為后續(xù)掌紋識(shí)別提供合適的感興趣區(qū)域。

基于以上情況,本文在研究二維OTSU和基于膚色模型的分割方法基礎(chǔ)上,將兩者以“并聯(lián)”和“串聯(lián)”兩種融合方式相結(jié)合提出一種新的方法。依照該方法對(duì)智能手機(jī)采集的復(fù)雜背景下人手圖像進(jìn)行分割時(shí),這兩種融合方式均可對(duì)手掌圖像進(jìn)行分割。研究還發(fā)現(xiàn),當(dāng)手掌圖像背景偏暗,更適合采用并聯(lián)融合法;當(dāng)手掌圖像背景偏亮,更適合采用串聯(lián)融合法。實(shí)驗(yàn)結(jié)果表明該方法能夠滿足復(fù)雜背景下人手圖像分割的要求。

1 復(fù)雜背景下常用的分割方法

1.1 二維OTSU

二維OTSU[5]是利用原圖像與其鄰域平滑圖像構(gòu)建二維直方圖,不僅包含圖像的灰度信息,而且考慮了像素點(diǎn)與其鄰域空間的相關(guān)信息,提高了圖像的抗噪性,改善了圖像的分割效果。

其基本思想如下:假設(shè)一幅圖像,大小為M×N,最初的灰度等級(jí)為L(zhǎng)(一般為0到255),某一點(diǎn)的像素的灰度值為i,鄰域的平均灰度值為j,fij是(i,j)在整張圖像中出現(xiàn)的頻數(shù),則其二維聯(lián)合概率密度為:

(1)

假設(shè)(s,t)是自動(dòng)選取的閾值,其中s為灰度分割閾值,t為鄰域灰度均值分割閾值。它將圖像劃分為背景類Cb和目標(biāo)類Co兩類。Cb和Co兩類出現(xiàn)的概率ωb(s,t)和ωo(s,t)分別為:

(2)

(3)

假設(shè)ωb+ωo=1,此時(shí),背景類和目標(biāo)類的均值矢量分別為:

(4)

(5)

整幅圖像的均值矢量為:

μL=(μL1,μL2)T=

(6)

可得背景類Cb和目標(biāo)類Co的類間方差為:

(7)

顯然,使類間方差最大的(s,t)*的值就是最佳閾值:

(8)

基于二維OTSU分割掌紋圖像具體步驟為:首先將原始的RGB手掌圖像灰度化,再設(shè)灰度圖像中的一個(gè)像素點(diǎn)f(i,j),該點(diǎn)的灰度領(lǐng)域大小取為h×h,g(i,j)為f(i,j)的鄰域灰度均值。公式為:

(9)

然后假設(shè)ffinal(i,j)為二值化后的值,其中Colorrgb(255,255,255)在Bitmap類中代表黑色,Colorrgb(0,0,0)代表白色,最后利用二維OTSU得到最佳閾值(s0,t0)*,則人手圖像的二值化公式為:

ffinal(i,j)=

(10)

圖1是二維OTSU對(duì)手掌圖像的分割結(jié)果。

由圖1可看出,使用二維OTSU分割后的手掌圖像部分是一個(gè)整體連通的區(qū)域,手掌區(qū)域內(nèi)的空洞較少,比較簡(jiǎn)單,整體輪廓清晰可見(jiàn)。該方法對(duì)于背景灰度與手掌灰度相差較大的掌紋圖像分割效果較好,背景中出現(xiàn)與手掌圖像灰度相近的區(qū)域或偏白色區(qū)域時(shí),會(huì)被誤認(rèn)為是手掌區(qū)域,如圖1(b)所示,達(dá)不到分割的要求。而復(fù)雜背景的灰度分布不均勻,極有可能出現(xiàn)與手掌灰度相近的區(qū)域或者偏亮的背景,對(duì)分割效果有較大的影響。

1.2 基于Ycbcr的高斯模型膚色分割

在Ycbcr顏色空間進(jìn)行掌紋膚色分割是通過(guò)建立高斯模型來(lái)擬合膚色顏色的概率密度分布,以高斯模型的參數(shù)作為參考點(diǎn)判斷當(dāng)前像素點(diǎn)屬于手掌區(qū)域還是背景區(qū)域,即可以得到圖像中手掌的區(qū)域。其基本思想是:對(duì)手掌圖像中膚色像素部分進(jìn)行統(tǒng)計(jì),計(jì)算出模型參數(shù),然后使用膚色模型對(duì)圖像中的每個(gè)像素點(diǎn)進(jìn)行膚色相似度計(jì)算,從而判斷該像素點(diǎn)是否屬于手掌膚色。

具體方法:首先將圖像由RGB空間變換到Y(jié)cbcr空間中,消除光照對(duì)膚色的影響,將色度和亮度分離開(kāi),RGB向Ycbcr空間轉(zhuǎn)換的公式為:

(11)

根據(jù)實(shí)驗(yàn),最接近手掌膚色的cb和cr值是:

77≤cb≤127, 133≤cr≤173

高斯模型數(shù)學(xué)表達(dá)式為:

(12)

其中x=(cb,cr)T表示Ycbcr空間的一個(gè)像素點(diǎn),m表示此空間下的樣本均值,C表示相似度的協(xié)方差。

本文采用文獻(xiàn)[10]中的模型參數(shù)值:

將模型中的參數(shù)m和C帶入高斯模型公式(12)中,即可計(jì)算出每個(gè)像素點(diǎn)與膚色的相似度值,然后根據(jù)圖像中的每個(gè)像素點(diǎn),選取固定閾值,經(jīng)過(guò)實(shí)驗(yàn),本文選取的閾值是0.4。然后根據(jù)閾值進(jìn)行手掌圖像的二值化,如果閾值小于等于0.4,則把該點(diǎn)的像素設(shè)為白色,否則設(shè)為黑色,最終得到二值化的手掌圖像。圖2是基于高斯模型的膚色分割結(jié)果。

由圖2可知,基于高斯模型膚色分割可以準(zhǔn)確地提取出手掌的輪廓,提取出的手掌輪廓清晰可見(jiàn),且成功去除了絕大多數(shù)背景。但是該方法中高斯模型公式中的參數(shù)是固定的,且接近手掌膚色的值在一個(gè)確定的范圍內(nèi),因此當(dāng)采集過(guò)程中手掌的部分區(qū)域受光照影響偏離確定的膚色范圍時(shí),會(huì)嚴(yán)重影響膚色檢測(cè)的結(jié)果,使目標(biāo)區(qū)域內(nèi)非接近膚色區(qū)域的部分被遺漏,造成手掌圖像內(nèi)部的空洞,使手掌圖像區(qū)域不連通。

2 二維OTSU和基于Ycbcr的高斯模型膚色分割相結(jié)合的方法

為了解決復(fù)雜背景下采集的掌紋圖像因背景偏暗或偏亮?xí)r而使效果不佳的問(wèn)題,本文根據(jù)二維OTSU和基于高斯模型膚色分割這兩種方法在手掌圖像分割中各自的特點(diǎn),提出以“并聯(lián)”和“串聯(lián)”兩種融合的方式,并結(jié)合形態(tài)學(xué)處理提出了一種新的方法對(duì)復(fù)雜背景下的掌紋圖像進(jìn)行分割。

2.1 “并聯(lián)”融合

從圖3可以看出,對(duì)背景偏暗下手掌圖像,僅使用二維OTSU分割的圖像,其手掌內(nèi)部是整體聯(lián)通的,但是手掌輪廓被腐蝕了一部分,整體向內(nèi)縮小,如圖3(c)所示。而只利用高斯模型膚色分割時(shí)只能分割出與模型參數(shù)相近的膚色,對(duì)于圖像采集時(shí)因光照過(guò)強(qiáng)形成的膚色失真,導(dǎo)致系統(tǒng)不能識(shí)別失真區(qū)域,使手掌內(nèi)部出現(xiàn)空洞,但手掌輪廓清晰,如圖3(d)所示。為解決上述問(wèn)題,本文提出二維OTSU與基于高斯模型的膚色分割“并聯(lián)”融合的方法來(lái)分割背景偏暗的手掌圖像。具體思想為:首先利用二維OTSU對(duì)原始手掌圖像(圖3(a))分割,得到初次分割的二值化圖像(圖3(b)),進(jìn)行形態(tài)學(xué)處理后標(biāo)記為Pfirst(圖3(c));同時(shí)利用基于高斯模型的Ycbcr對(duì)原始手掌圖像分割,得到二值化的手掌圖像,標(biāo)記為Psecond(圖3(d));將二值化手掌圖像Pfirst與Psecond進(jìn)行邏輯“與”,得到P3(圖3(e)),并進(jìn)行形態(tài)學(xué)處理,得到最終的二值化的手掌圖像,標(biāo)記為Pfinal(圖3(f))。

二維OTSU與基于高斯模型的膚色分割“并聯(lián)”融合的具體實(shí)現(xiàn)步驟如下。

1) 對(duì)原始手掌圖像灰度化,記為Pgray。利用二維OTSU進(jìn)行手掌分割,得到二值化手掌圖像,記為P1。通過(guò)此方法得到的二值化圖像,能清晰地顯示出手掌的輪廓,手掌圖像內(nèi)部的空洞很少,但是背景類也可能被誤認(rèn)為目標(biāo)類,產(chǎn)生噪點(diǎn),因此對(duì)二值化圖像進(jìn)行腐蝕操作,記為Pfirst。通過(guò)大量實(shí)驗(yàn)驗(yàn)證,腐蝕模板采用16×16效果最好。由圖3可知,腐蝕過(guò)程中噪點(diǎn)被消除,但是手掌輪廓被腐蝕了一部分,整體向內(nèi)縮小了。

2) 將原手掌圖像由RGB顏色空間轉(zhuǎn)換到Y(jié)cbcr顏色空間,利用基于Ycbcr的高斯模型膚色檢測(cè)進(jìn)行手掌圖像分割,記為Psecond。由圖3可知,通過(guò)此方法得到的二值化圖像中非接近膚色區(qū)域被遺漏,造成手掌區(qū)域不連通,絕大部分背景被去除,但仍存在一些很小的噪點(diǎn),因此對(duì)其進(jìn)行腐蝕操作,去除噪點(diǎn)。

3) 將得到的兩個(gè)二值化的手掌圖像Pfirst與Psecond進(jìn)行邏輯“與”合并,得到P3。由圖3可知道,合并后的手掌區(qū)域依舊存在一些微小的空洞,因此采用16×16模板對(duì)合并的二值化手掌圖像進(jìn)行膨脹,得到最終的手掌圖像Pfinal。

由此可知,“并聯(lián)”融合方法對(duì)于背景偏暗的手掌圖像,可以得到連通的手掌區(qū)域和手指形狀清晰的二值化手掌圖像。但是在手掌圖像背景偏亮?xí)r會(huì)影響二維大津法中閾值的設(shè)定,將背景中與膚色相近的顏色誤認(rèn)為是手掌區(qū)域,會(huì)導(dǎo)致分割失敗。

2.2 “串聯(lián)”融合

如圖4所示,對(duì)于受采集圖像的角度或光照影響導(dǎo)致背景偏亮的手掌圖像,手掌圖像很容易出現(xiàn)陰暗區(qū)域,利用基于Ycbcr的高斯模型對(duì)手掌圖像進(jìn)行分割時(shí),手掌局部出現(xiàn)的非接近膚色部分,很容易被分割成背景類,從而造成手掌圖像區(qū)域空洞。而采用二維OTSU法可以使手掌分割補(bǔ)充完整。為此,本文提出將二維OTSU與基于高斯模型的膚色分割“串聯(lián)”融合,并融合形態(tài)學(xué)處理中的腐蝕與膨脹操作,對(duì)手掌圖像進(jìn)行分割。

兩者“串聯(lián)”融合的算法思想是:將原手掌圖像從RGB顏色空間轉(zhuǎn)化到Y(jié)cbcr空間中,手掌膚色在cb、cr兩個(gè)分量中具有很好的聚類性,且符合高斯分布。首先對(duì)手掌膚色進(jìn)行統(tǒng)計(jì),根據(jù)模型參數(shù)進(jìn)行膚色模型的建立,計(jì)算膚色的相似度概率,根據(jù)相似度概率可以得到手掌圖像的最大似然圖,用二維OTSU對(duì)最大似然圖選取自動(dòng)閾值(s0,t0),為了更完整地分割出手掌圖像,給閾值(s0,t0)一定的松弛余量Δ,(s0-Δ,t0-Δ)為最終的分割矢量,然后利用二值化公式進(jìn)行二值化。

二維OTSU與基于高斯模型的膚色分割“串聯(lián)”融合的具體實(shí)現(xiàn)步驟如下。

1) 首先將原始RGB圖像轉(zhuǎn)化為Ycbcr圖像,記為PYcbcr。

2) 利用高斯模型對(duì)PYcbcr圖像建模,根據(jù)概率統(tǒng)計(jì),得到最大似然圖,標(biāo)記為Ps。

3) 利用二維OTSU對(duì)Ps進(jìn)行二維閾值分割,得到二值化的手掌圖像,記為Pss。

4) 為了消除背景中被誤判為手掌部分的區(qū)域,需要對(duì)Pss進(jìn)行腐蝕。經(jīng)實(shí)驗(yàn)測(cè)試,可知16×16的腐蝕模板效果最好,雖然腐蝕之后背景中被誤判為手掌的部分被腐蝕掉了,但同時(shí)手掌形狀也被腐蝕了,因此再采用16×16的膨脹模版進(jìn)行膨脹運(yùn)算,獲得最終的手掌圖像,標(biāo)記為Pfinal。

由此可知,“串聯(lián)”融合有效避免了在手掌圖像背景偏亮?xí)r,使用基于高斯模型膚色分割方法時(shí)手掌空洞的現(xiàn)象,但是對(duì)背景偏暗的手掌圖像,其手掌區(qū)域受光照影響,會(huì)出現(xiàn)非接近膚色區(qū)域,導(dǎo)致分割失敗。

3 實(shí)驗(yàn)結(jié)果與分析

3.1 實(shí)驗(yàn)平臺(tái)及圖像采集

本文搭建的試驗(yàn)平臺(tái)在小米M1智能手機(jī)上,Android版本4.0.1,處理器為雙核1.5 GHz,RAM容量為1 GB,ROM容量為4 GB,最大支持的分辨率是2 448×3 264。

實(shí)驗(yàn)數(shù)據(jù)為自采集圖庫(kù),采用小米M1智能手機(jī)的后置CMOS攝像頭采集,像素為800萬(wàn)。在采集手掌圖像時(shí),需被測(cè)者將手掌自然張開(kāi),大拇指的左邊緣與手機(jī)屏幕的左邊緣盡量重合,小拇指的右邊緣盡量與手機(jī)屏幕的右邊緣重合,采集時(shí)手掌與攝像頭之間的距離大約為10~15 cm。分別采集每個(gè)人在不同光照和不同背景下的10張圖像,實(shí)驗(yàn)圖庫(kù)共包含來(lái)自30個(gè)人的300張手掌圖像,圖像大小為640×480。

3.2 實(shí)驗(yàn)結(jié)果及分析

實(shí)驗(yàn)分別對(duì)室外場(chǎng)景、室內(nèi)場(chǎng)景及室內(nèi)開(kāi)啟閃光三種場(chǎng)景下采集的手掌圖像進(jìn)行分割測(cè)試。由于室外光線較均勻,開(kāi)啟閃光與無(wú)閃光采集的手掌圖像差距不大,因此選擇室內(nèi)閃光燈下的手掌圖像進(jìn)行了測(cè)試。本次試驗(yàn),室外采集100幅手掌圖像,室內(nèi)采集100幅手掌圖像,室內(nèi)光線弱的情況下,開(kāi)啟閃光采集100幅手掌圖像。對(duì)這300幅手掌圖像分別采用基于Ycbcr的高斯模型膚色分割法、二維OTSU法、兩種方法并聯(lián)融合、兩種方法串聯(lián)融合進(jìn)行手掌圖像分割正確度測(cè)試。

二維OTSU法與基于Ycbcr的高斯模型膚色分割并聯(lián)融合方法對(duì)在室外、室內(nèi)及室內(nèi)閃光燈三種不同場(chǎng)景下采集的手掌圖像分割的效果圖如圖5所示;二維OTSU法與基于Ycbcr的高斯模型膚色分割串聯(lián)融合方法對(duì)在室外、室內(nèi)及室內(nèi)閃光燈三種不同場(chǎng)景下采集的手掌圖像分割的效果圖如圖6所示。

為了能合理區(qū)分出手掌圖像分割正確與否,本文采用文獻(xiàn)[12]中正確分割的判定依據(jù):將三種場(chǎng)景分割后的二值化手掌圖像進(jìn)行輪廓提取及關(guān)鍵點(diǎn)定位,能準(zhǔn)確地定位到兩個(gè)關(guān)鍵點(diǎn)并提取出ROI區(qū)域則認(rèn)為此方法能夠正確分割出手掌圖像,否則認(rèn)為是分割錯(cuò)誤。

表1是四種方法對(duì)采集的手掌圖像分割測(cè)試結(jié)果。

表1 手掌分割的對(duì)比

Tab.1 The contrast of different segmentation method

從表1可看出,本文提出的兩種融合分割方法比單獨(dú)使用二維OTSU或基于Ycbcr的高斯模型膚色分割法時(shí)要高,性能更加優(yōu)越。其中兩種方式串聯(lián)融合的方法在室外的正確分割率為82%,在室內(nèi)無(wú)閃光燈正確分割率為89%,在室內(nèi)開(kāi)啟閃光燈下正確分割率最高,達(dá)到95%。而并聯(lián)融合的方法中,在室外的正確分割率80%,在室內(nèi)無(wú)閃光燈的正確分割率為85%,室內(nèi)開(kāi)啟閃光燈下正確分割率最高,達(dá)到94%。由表1可知本文提出的兩種方法總體正確分割率相差不大,都是在室內(nèi)閃光燈下正確分割率最高。但實(shí)驗(yàn)中發(fā)現(xiàn)二維OTSU與膚色分割法并聯(lián)融合的方法,對(duì)背景顏色相對(duì)偏暗的手掌圖像分割正確率較高;而二維OTSU與膚色分割法串聯(lián)融合的方法,對(duì)背景顏色相對(duì)偏亮的手掌圖像分割正確率較高。

為了驗(yàn)證上述分析,本文將采集的手掌圖像進(jìn)行分類:將光線均勻,且背景偏淺的手掌圖像劃分為偏亮背景下的手掌圖像;將背景較深的手掌圖像劃分為偏暗背景下的手掌圖像,然后從兩類手掌圖像中各選取50幅手掌圖像進(jìn)行分割驗(yàn)證實(shí)驗(yàn)。實(shí)驗(yàn)測(cè)試結(jié)果如表2所示。

由表2可知,實(shí)驗(yàn)結(jié)果與理論分析結(jié)果完全一致:并聯(lián)融合的方法對(duì)背景偏暗的手掌圖像分割正確率較高;串聯(lián)融合的方法對(duì)背景偏亮手掌圖像正確分割率較高。造成這一現(xiàn)象的原因是:在背景偏亮的手掌圖像中,并聯(lián)融合中二維OTSU統(tǒng)計(jì)背景的相關(guān)信息與膚色的相關(guān)信息較為相似,導(dǎo)致系統(tǒng)將背景誤認(rèn)為是手掌區(qū)域,背景出現(xiàn)很多噪點(diǎn),即使合并也達(dá)不到分割要求,因此對(duì)背景偏亮的手掌圖像分割正確率低;在背景偏暗的手掌圖像中,手掌的膚色易受光線影響,導(dǎo)致膚色出現(xiàn)陰暗區(qū)域,雖然串聯(lián)融合能減少空洞的產(chǎn)生,畢竟不能完全避免,因此串聯(lián)融合對(duì)背景偏暗的手掌圖像正確分割率低。

為了分析上述掌紋圖像分割方法應(yīng)用于Android平臺(tái)這種實(shí)時(shí)性要求較高的環(huán)境時(shí)存在的分割時(shí)間復(fù)雜度問(wèn)題,本文首先對(duì)采集的300幅手掌圖像分別采用基于Ycbcr的高斯模型膚色分割法、二維OTSU法、兩種方法并聯(lián)融合、兩種方法串聯(lián)融合,在小米M1智能手機(jī)上對(duì)采集的300幅手部圖像進(jìn)行了手掌圖像分割運(yùn)行時(shí)間的測(cè)試,記錄每種方法分割每一幅手掌圖像的時(shí)間,然后求取每種分割方法的平均時(shí)間,最終掌紋圖像分割方法時(shí)間對(duì)比如表3所示。

從表3可以看出,二維OTSU法在進(jìn)行手掌圖像分割時(shí)所需的運(yùn)行時(shí)間是四種方法中最短的,基于Ycbcr的高斯模型膚色分割法、串聯(lián)融合方法、并聯(lián)融合方法所需要的運(yùn)行時(shí)間相比二維OTSU法分別加長(zhǎng)12.6%、22.6%和36.5%,而最長(zhǎng)的并聯(lián)融合方法用時(shí)2.156 s,在用戶可接受的范圍內(nèi)。

其次,本文在Android平臺(tái)上通過(guò)編程實(shí)現(xiàn)了掌紋識(shí)別系統(tǒng):首先采用手機(jī)自帶的攝像頭進(jìn)行復(fù)雜背景下手部圖像采集;其次進(jìn)行圖像預(yù)處理:包括采用本文提出的掌紋圖像串聯(lián)融合及并聯(lián)融合分割方法進(jìn)行圖像分割,對(duì)分割后的掌紋圖像進(jìn)行輪廓提取、關(guān)鍵點(diǎn)定位、旋轉(zhuǎn)矯正,最終提取出128×128的感興趣區(qū)域(ROI);然后進(jìn)行特征提取,考慮到了Android手機(jī)處理數(shù)據(jù)的性能,分別進(jìn)行了下采樣處理,得到了32×32的ROI圖像,并對(duì)下采樣后的ROI圖像進(jìn)行了直方圖均衡化,最終采用PCA方法對(duì)ROI圖像進(jìn)行特征提取;最后進(jìn)行分類識(shí)別,采用了最鄰近法進(jìn)行特征匹配,對(duì)所采集的掌紋圖像進(jìn)行識(shí)別測(cè)試。

具體測(cè)試方法為:在小米M1智能手機(jī)上采集了30個(gè)人的手掌圖像進(jìn)行識(shí)別測(cè)試,其中每個(gè)人5幅手掌圖像,共計(jì)150幅手掌圖像,選取每個(gè)人的任意3張手掌圖像作為注冊(cè)掌紋的訓(xùn)練樣本,其余兩張作為驗(yàn)證測(cè)試樣本。共有10種樣本組合測(cè)試方式,通過(guò)測(cè)試獲得系統(tǒng)的平均正確識(shí)別率為93.75%。在系統(tǒng)的測(cè)試中,利用手機(jī)攝像頭進(jìn)行手掌實(shí)時(shí)采集的平均時(shí)間約為120 ms,預(yù)處理平均時(shí)間為2 863 ms,注冊(cè)掌紋訓(xùn)練樣本的平均特征提取時(shí)間為217 ms,平均特征匹配識(shí)別時(shí)間為29 ms。上述過(guò)程所用時(shí)間均在用戶可接受的范圍內(nèi)。

4 結(jié) 語(yǔ)

本文針對(duì)使用智能手機(jī)采集手部圖像存在復(fù)雜背景的問(wèn)題進(jìn)行了深入研究,提出將二維OTSU和基于高斯模型的膚色分割方法以“串聯(lián)”和“并聯(lián)”兩種融合方式結(jié)合的一種新方法,對(duì)復(fù)雜背景下的手掌圖像進(jìn)行分割,并通過(guò)實(shí)驗(yàn)分析驗(yàn)證了該方法的有效性。

本文提出的方法與其他幾種常用的手掌圖像分割方法通過(guò)理論分析和實(shí)驗(yàn)驗(yàn)證對(duì)比,結(jié)果表明該方法分割效果好且正確率較高,能夠達(dá)到較理想的分割效果,克服了使用智能手機(jī)采集手部圖像時(shí)復(fù)雜背景下圖像分割不準(zhǔn)確問(wèn)題,具有更強(qiáng)的適應(yīng)性和通用性,為擴(kuò)大掌紋識(shí)別在智能手機(jī)安全認(rèn)證應(yīng)用方面有很大的幫助。

[1]Svoboda J, Klubal O, Drahansky M. Biometric recognition of people by 3D hand geometry [C]∥International Conference on Digital Technologies (DT), 2013: 137-141.

[2]Han Weiyu, Lee Jenchun. Palm vein recognition using adaptive Gabor filter [J]. Expert Systems with Applications, 2012, 39(18): 13225-13234.

[3]毛雷, 胡濤. 幾種手部識(shí)別算法的研究 [J]. 電子技術(shù)與軟件工程, 2012, (5): 119-121. Mao Lei, Hu Tao. Several kinds of hand recognition algorithm research [J]. Electronic Technology and Software Engineering, 2012, (5): 119-121.

[4]楊震群, 魏驍勇, 徐丹. 掌紋樣本采集技術(shù)及預(yù)處理技術(shù)的分析與研究 [J]. 計(jì)算機(jī)應(yīng)用, 2007, 27(2): 380-383. Yang Zhenqun, Wei Xiaoyong, Xu Dan. Hand sampling and pretreatment technology analysis and research [J]. Computer Application, 2007, 27(2): 380-383.

[5]劉健莊, 栗文清. 灰度圖像的二維OTSU自動(dòng)閾值分割法 [J]. 自動(dòng)化學(xué)報(bào), 1993, 19(1): 101-105. Liu Jianzhuang, Li Wenqing. Gray image automatic 2-D OTSU threshold segmentation method [J]. Acta Auto-matica Sinica, 1993, 19(1): 101-105.

[6]張洋, 馬鉦然, 鄭倩兵. 非接觸式掌紋圖像采集與圖像增強(qiáng)技術(shù)研究 [J]. 計(jì)算機(jī)技術(shù)與發(fā)展, 2013, 11(23): 1-5. Zhang Yang, Ma Zhengran, Zheng Qianbing. Non-contact hand image acquisition and image enhancement technology research [J]. The Computer Technology and Development, 2013, 11(23): 1-5.

[7]胡敏, 李梅, 汪榮貴. 改進(jìn)的OTSU算法在圖像分割中的應(yīng)用 [J]. 電子測(cè)量與儀器學(xué)報(bào), 2010, 24(5): 443 -449. Hu Min, Li Mei, Wang Ronggui. The application of the improved OTSU algorithm in image segmentation [J]. Journal of Electronic Measurement and Instrument, 2010, 24(5): 443-449.

[8]Lee Kyoung-Mi. Component-based face detection and verification [J]. Pattern Recognition Letters, 2008, 29 (3): 200-214.

[9]萬(wàn)麗, 陳普春, 尹志勇, 等. 基于Ycbcr色彩空間的人臉檢測(cè)技術(shù)研究 [J]. 現(xiàn)代電子技術(shù), 2011, 34(4): 77-80. Wan Li, Chen Puchun, Yin Zhiyong, et al. Research on face detection technology based onYcbcrcolor space [J]. The Modern Electronic Technology,2011,34(4): 77 -80.

[10]桑海峰, 馬詩(shī)朦, 黃靜. 開(kāi)放式環(huán)境非接觸低分辨率采集下的掌紋識(shí)別 [J]. 儀器儀表學(xué)報(bào), 2013, 34(8): 1802-1808. Sang Haifeng, Ma Shimeng, Huang Jing. Touch-less low resolution palmprint recognition under spen environment[J]. Chinese Journal of Scientific Instrument, 2013, 34(8): 1802-1808.

[11]張建新, 歐宗瑛, 劉典婷. 基于移動(dòng)設(shè)備的掌紋驗(yàn)證系統(tǒng) [J]. 計(jì)算機(jī)工程, 2010, 36(4): 164-166. Zhang Jianxin, Ou Zongying, Liu Dianting. Hand authentication system based on mobile devices [J]. Computer Engineering, 2010, 36(4): 164-166.

[12]馬李成. 基于手掌的身份認(rèn)證系統(tǒng)研究 [D]. 西安: 西安電子科技大學(xué), 2013. Ma licheng. Research on identity authentication system based on palm[D]. Xi’an: Xidian University, 2013.

(責(zé)任編輯 王衛(wèi)勛)

Palmprint image segmentation in complex background based on 2-D OTSU and skin color segmentation

XUE Yanxue,LIU Min,MA Sixin,SHUAI Jiankun,LEI Dan

(Faculty of Printing, Packaging Engineering and Digital Media Technology, Xi’an University of Technology, Xi’an 710048, China)

Palmprint identification system based on smart-phones is in accord with the development trend of biometric recognition with non-contact, low-resolution and other features. However, the background of the palmprint image captured by smart phones tends to be complex, causing the palm area fail to be properly segmented by system, which limits the application of palmprint recognition technology for intelligent mobile phone. To solve the above problem, a new approach is proposed in this paper to split the palmprint image captured by smart phones with complex background based on the analysis of 2-D OTSU and skin color segmentation based on gaussian model and combination of the two methods by the means of “series” and “parallel” respectively. The experimental results prove that “parallel” of methods provides higher accuracy rate for splitting the palmprint image with dim background, whereas “series” combination of methods provides higher accuracy rate for splitting the palmprint image with bright background. The combination of the two methods can fully meet the needs of splitting the palmprint image with complicated background. The new approach achieves the ideal effect under the conditions of complex.

smart phones; complex background; palm area; palmprint image segmentation; 2-D OTSU; skin color segmentation

1006-4710(2015)03-0353-07

2015-04-23

西安市科技計(jì)劃項(xiàng)目(CXY1440-7)。

薛延學(xué),男,副教授,主要研究方向?yàn)槟J阶R(shí)別和智能傳媒。E-mail:xue_yx@163.com。

TP391

A

猜你喜歡
掌紋膚色手掌
Conversation in a house
人的膚色為什么不同
攤開(kāi)手掌
基于混合濾波LBP和PCA的掌紋識(shí)別
手掌上的童話
敲窗的鳥
紅巖(2017年6期)2017-11-28 09:32:46
手掌上的“小洞”
掌紋在臨床望診中的應(yīng)用初探
膚色檢測(cè)和Hu矩在安全帽識(shí)別中的應(yīng)用
广安市| 象山县| 上杭县| 朝阳县| 姚安县| 霍州市| 孝昌县| 武定县| 鄂尔多斯市| 隆德县| 宁国市| 沾益县| 临汾市| 绥棱县| 桦川县| 祁阳县| 罗山县| 临安市| 明水县| 翁牛特旗| 灵璧县| 苏州市| 长泰县| 从化市| 铅山县| 仙居县| 秦皇岛市| 新宁县| 无锡市| 洪雅县| 瓦房店市| 眉山市| 甘谷县| 浦江县| 淳化县| 偏关县| 禹城市| 夹江县| 年辖:市辖区| 阳高县| 神木县|