国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于PCNN賦時(shí)矩陣的圖像特征捆綁方法研究

2015-03-15 11:11:32

徐 潔

(山西金融職業(yè)學(xué)院,山西 太原 030008)

?

基于PCNN賦時(shí)矩陣的圖像特征捆綁方法研究

徐潔

(山西金融職業(yè)學(xué)院,山西 太原 030008)

摘要:本文介紹了傳統(tǒng)的脈沖耦合神經(jīng)網(wǎng)絡(luò)模型的基本原理及結(jié)構(gòu),并在此基礎(chǔ)上提出了一種基于賦時(shí)矩陣的簡化脈沖耦合神經(jīng)網(wǎng)絡(luò)模型。通過將其應(yīng)用于圖像特征捆綁的具體實(shí)際,即利用賦時(shí)矩陣記錄的各神經(jīng)元第一次點(diǎn)火時(shí)間將圖像的顏色與形狀信息進(jìn)行特征的分離及捆綁,從而驗(yàn)證了本文模型的有效性。

關(guān)鍵詞:PCNN;賦時(shí)矩陣;特征捆綁

1引言

圖像的識別與處理一直是計(jì)算機(jī)領(lǐng)域關(guān)注的對象,也有非常廣泛的應(yīng)用背景。國內(nèi)外研究理論表明,客體對事物的認(rèn)識經(jīng)歷著對零散信息的認(rèn)知及整合的過程。人們?nèi)庋鬯吹降囊环鶊D像,其中最基本的兩個(gè)特征便是圖像的顏色與形狀信息。那么,對于圖像來說,人眼是如何區(qū)分開不同的顏色及不同的形狀,又是如何將屬于同一對象的顏色與形狀信息聯(lián)系在一起,而不是錯(cuò)誤的結(jié)合,就是本文所要考慮的捆綁問題,也是目前亟待解決的問題。

目前針對于特征捆綁的研究理論有很多,包括特征整合理論[1]、捆綁的雙階段理論[2]、位置的不確定理論以及神經(jīng)元同步激活理論[3]等。但是在捆綁理論之外,具體的特征捆綁的模型卻非常少,其中有代表性的有史忠植等人提出的Bayesian Linking Field模型以及李海芳等人提出的基于強(qiáng)度的脈沖耦合神經(jīng)網(wǎng)絡(luò)模型。基于強(qiáng)度的脈沖耦合神經(jīng)網(wǎng)絡(luò)模型提出了將顏色和形狀特征進(jìn)行捆綁的方法,但是捆綁結(jié)果的邊緣信息并不是很清晰,邊緣信息混雜在圖形及背景之間。

為此,本文提出了一種基于PCNN賦值矩陣的特征捆綁模型,對視覺感知過程中圖像的特征捆綁問題進(jìn)行研究。仿真實(shí)驗(yàn)表明,該模型能夠很好地實(shí)現(xiàn)圖像顏色與形狀特征的分離及捆綁。

2傳統(tǒng)PCNN模型

傳統(tǒng)PCNN被稱為第三代人工神經(jīng)網(wǎng)絡(luò),該模型是通過對猴子和貓等動(dòng)物進(jìn)行研究,進(jìn)而發(fā)現(xiàn)這些動(dòng)物的大腦皮層上有同步脈沖發(fā)放的現(xiàn)象而提出的[4]。現(xiàn)在PCNN在圖像處理方面有著廣泛的應(yīng)用,也逐步體現(xiàn)出了它在處理圖像方面的顯著優(yōu)勢。PCNN模型不需要像傳統(tǒng)神經(jīng)網(wǎng)絡(luò)模型一樣經(jīng)過學(xué)習(xí)或者訓(xùn)練,就能夠在復(fù)雜背景下提取有效信息,它的信號形式和處理機(jī)制也更加符合人類視覺神經(jīng)系統(tǒng)的生理學(xué)基礎(chǔ)。

傳統(tǒng)PCNN模型是一個(gè)二維的神經(jīng)元陣列,當(dāng)模型應(yīng)用于圖像處理時(shí),模型中的神經(jīng)元數(shù)目和圖像的像素?cái)?shù)目是一樣的,也就是說脈沖耦合神經(jīng)網(wǎng)絡(luò)中的每一個(gè)神經(jīng)元對應(yīng)于輸入圖像中的每一個(gè)像素,所輸入的圖像決定了PCNN的網(wǎng)絡(luò)結(jié)構(gòu)。單個(gè)PCNN神經(jīng)元模型包含三個(gè)主要部分:輸入部分(Receiving Part)、調(diào)制部分(Modulating Part)和脈沖產(chǎn)生部分(Pulse Generating Part),如圖1所示。

圖1 傳統(tǒng)PCNN模型

傳統(tǒng)PCNN模型的公式描述如公式(1)~公式(5)所示[5]:

(1)

(2)

Uij(n)=Fij(n)(a+βLij(n))

(3)

θij(n)=e-αθθij(n-1)+VθYij(n-1)

(4)

(5)

在上述方程中,下標(biāo)ij表示的是當(dāng)前神經(jīng)元的標(biāo)號,下標(biāo)k1表示的是鄰域神經(jīng)元的標(biāo)號,n為迭代的次數(shù);模型的輸入部分由兩部分組成,分別為L通道和F通道。其中,Lij表示神經(jīng)元的外部輸入刺激,F(xiàn)ij表示神經(jīng)元的反饋輸入;模型的調(diào)制部分,神經(jīng)元的內(nèi)部活動(dòng)項(xiàng)Uij由Lij和Fij調(diào)制產(chǎn)生;模型的輸出部分,活動(dòng)閾值θij跟隨著輸出Yij的變化而發(fā)生變化,當(dāng)內(nèi)部活動(dòng)項(xiàng)Uij大于活動(dòng)閾值θij時(shí),神經(jīng)元被激發(fā),產(chǎn)生輸出脈沖。

3簡化PCNN模型及賦時(shí)矩陣

傳統(tǒng)的PCNN模型過于復(fù)雜,需要恰當(dāng)?shù)脑O(shè)置模型中的各類參數(shù),才能夠得到較好的實(shí)驗(yàn)效果,因此最優(yōu)參數(shù)的選擇就成為了模型最先要解決的問題。而PCNN模型中的每一個(gè)參數(shù)都具有特定的物理含義,對于最優(yōu)參數(shù)的選取,還需要通過實(shí)驗(yàn)來進(jìn)行逐步的設(shè)定,制約了脈沖耦合神經(jīng)網(wǎng)絡(luò)應(yīng)用的深度和廣度,因此在本文中采用簡化的PCNN模型[6]255-257,反饋輸入項(xiàng)、鏈接輸入項(xiàng)及內(nèi)部活動(dòng)項(xiàng)分別采用公式(6)~(8)進(jìn)行運(yùn)算。

Fij(n)=Iij

(6)

Lij(n)=∑MYij(n-1)

(7)

Uij(n)=Fij(n)(1+βLij(n))

(8)

傳統(tǒng)PCNN中Yij作為鏈接輸入項(xiàng)的一部分影響著其周圍的神經(jīng)元,因?yàn)閭鹘y(tǒng)PCNN模型中的對周圍神經(jīng)元的影響只有0和1兩種情況,造成了加權(quán)不公平的情況,從而導(dǎo)致模型的結(jié)果有所偏差。所以,本文模型中將輸出項(xiàng)修改為公式(9)所示形式,這樣可以使得不同輸入的神經(jīng)元對周圍神經(jīng)元的影響區(qū)分開來,便于后期進(jìn)行圖像特征的分離。

Yij(n)=Uij(n)/θij(n)

(9)

傳統(tǒng)PCNN中以Yij作為模型的輸出,并以此作為圖像處理的依據(jù)。但對于本文進(jìn)行圖像的顏色與形狀的特征分離及捆綁來說,傳統(tǒng)PCNN模型的二值輸入無法滿足需求,本文采用賦時(shí)矩陣Tij作為模型的輸出,賦時(shí)矩陣中準(zhǔn)確的記錄著每一個(gè)神經(jīng)元的第一次點(diǎn)火時(shí)間,如公式(10)所示。

(10)

傳統(tǒng)PCNN模型中閾值的輸出是有規(guī)律的周而復(fù)始,如圖1所示。但是這種有周期性的脈沖變化并不符合人眼對事物的認(rèn)識[6]255-257,本文中考慮的只是神經(jīng)元發(fā)放脈沖的一次循環(huán)過程,所以將閾值輸出部分修改為簡單的單調(diào)遞減指數(shù)函數(shù),如公式(11)所示,使其更加符合特定的特征捆綁任務(wù)。

θij(n)=e-αθθij(n-1)

(11)

4實(shí)驗(yàn)結(jié)果與分析

4.1 實(shí)驗(yàn)原理

在圖像顏色與形狀捆綁過程中,需要將輸入的彩色圖像轉(zhuǎn)換為灰度圖像,并使用改進(jìn)的PCNN模型進(jìn)行處理,圖像特征分離及捆綁依據(jù)賦時(shí)矩陣的輸出結(jié)果。其中,轉(zhuǎn)換后的灰度圖像是一個(gè)二維的矩陣,二維矩陣的每一個(gè)像素對應(yīng)于PCNN模型中的每一個(gè)神經(jīng)元,以每一個(gè)像素的像素值作為該神經(jīng)元的外部輸入。

4.2 實(shí)驗(yàn)圖像

在這一節(jié),將通過一幅圖像作為模型的輸入來演示如何針對具體圖像進(jìn)行顏色及形狀的分離和捆綁,從而驗(yàn)證本模型的有效性。本文所采用的實(shí)驗(yàn)圖像包含三個(gè)數(shù)字,分別為數(shù)字1、數(shù)字6以及數(shù)字3,它們擁有不同的顏色。數(shù)字1所對應(yīng)的RGB值為(160,60,10),數(shù)字6為(200,80,80),數(shù)字3為(20,100,10),背景為白色,所對應(yīng)的RGB值為(255,255,255),如圖3所示。

圖3 實(shí)驗(yàn)圖像

4.3 特征分離

PCNN模型中,輸入圖像的像素值對應(yīng)于相應(yīng)神經(jīng)元的輸入,神經(jīng)元的輸入不同,相應(yīng)的神經(jīng)元的初次點(diǎn)火時(shí)間便不相同,而通過模型得到的賦時(shí)矩陣中準(zhǔn)確的記錄著每一個(gè)神經(jīng)元的初次點(diǎn)火時(shí)間,通過點(diǎn)火時(shí)間的不同將不同輸入的神經(jīng)元區(qū)分開來。而輸入圖像的像素值對應(yīng)著圖像的顏色信息,所以通過PCNN模型的處理可以將不同的顏色信息區(qū)分開來。同時(shí),一個(gè)圖形邊緣部分的像素值和圖形內(nèi)部的像素值是相同或相近的,但邊緣部分的像素值和內(nèi)部的像素值所對應(yīng)的鄰域內(nèi)的神經(jīng)元卻有很大的差異,而這些差異也將導(dǎo)致不同的點(diǎn)火時(shí)間,這樣就可以將不同圖形的形狀信息分離出來。

圖4 特征分離結(jié)果顯示

由特征分離結(jié)果可以看出,圖像中數(shù)字部分在不同的時(shí)刻點(diǎn)火。數(shù)字1在第10次迭代過程中點(diǎn)火,數(shù)字6在第12次迭代過程中點(diǎn)火,數(shù)字3在第10次迭代過程中點(diǎn)火,背景部分200不同的點(diǎn)火時(shí)間代表著不同的神經(jīng)元輸入。同時(shí)在圖中能夠清楚的看到數(shù)字的邊緣信息,因?yàn)檫吘壪袼氐闹蹬c內(nèi)部神經(jīng)元的值是相同或相近的,但由于領(lǐng)域內(nèi)神經(jīng)元的不同輸入,導(dǎo)致邊緣神經(jīng)元的點(diǎn)火時(shí)間介于圖形內(nèi)部神經(jīng)元和背景神經(jīng)元點(diǎn)火時(shí)間之間,清楚的顯示著圖形的邊緣信息??傊?,圖形的顏色信息由不同的點(diǎn)火時(shí)間來確定,圖形的形狀信息由邊緣神經(jīng)元來確定。這樣,圖像的顏色與形狀信息就被分離開來了。

4.4 特征捆綁

在PCNN模型運(yùn)行過程中,神經(jīng)元接收到的外部刺激越大,被激活的時(shí)間越早,神經(jīng)元接收到的外部刺激越小,被激活的時(shí)間越晚,神經(jīng)元被激活的時(shí)間的早晚與神經(jīng)元接收到的外部刺激的大小有直接的關(guān)系。

彩色RGB空間向灰度空間轉(zhuǎn)換的公式為GRAY=0.299R+0.587G+0.114B,經(jīng)計(jì)算,本文所給出的實(shí)驗(yàn)圖像中數(shù)字1所對應(yīng)的灰度值為84.2,數(shù)字6所對應(yīng)的灰度值為115.88,數(shù)字3所對應(yīng)的灰度值為65.82,背景所對應(yīng)的灰度值為255。在基于PCNN賦時(shí)矩陣的捆綁模型中,圖像中每一個(gè)像素的灰度值都對應(yīng)于相應(yīng)神經(jīng)元的外部輸入刺激,灰度值越大,神經(jīng)元就會(huì)越早被激活,灰度值越小,神經(jīng)元就會(huì)越晚被激活,故而根據(jù)灰度值的大小可以判斷出三個(gè)圖形的激活時(shí)間順序分別為:背景部分、數(shù)字6、數(shù)字1、數(shù)字3,而根據(jù)PCNN模型分離結(jié)果得到的各個(gè)對象的點(diǎn)火時(shí)間也驗(yàn)證了這一點(diǎn),如圖4所示。

通過重復(fù)對圖形內(nèi)部取200個(gè)不同的神經(jīng)元坐標(biāo)值進(jìn)行計(jì)算,每次得到的神經(jīng)元發(fā)放脈沖的順序都是一樣,分別為背景部分、數(shù)字6、數(shù)字1、數(shù)字3;同時(shí)通過重復(fù)對圖形邊緣部分取200個(gè)不同的神經(jīng)元坐標(biāo)值進(jìn)行計(jì)算,得到的邊緣部分對應(yīng)的神經(jīng)元發(fā)放脈沖的順序也都是一樣的,分別為背景部分的邊緣、數(shù)字6部分的邊緣、數(shù)字1部分的邊緣、數(shù)字3部分的邊緣。這樣,就可以按照發(fā)放脈沖的順序?qū)儆谕粋€(gè)對象的顏色與形狀特征捆綁在一起。

5結(jié)束語

本文在傳統(tǒng)脈沖耦合神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上提出了一種基于PCNN賦時(shí)矩陣的捆綁模型,將賦時(shí)矩陣作為模型的輸出進(jìn)行特征的分離及捆綁。實(shí)驗(yàn)表明,該模型能夠很好的完成圖像顏色與形狀的捆綁任務(wù)。

參考文獻(xiàn):

[1]TreismanAM,GeladeG.Afeature-integrationtheoryofattention[J].CognitivePsychology,1980, 12(1): 97-136.

[2]HumphreysGW,CinelC,WolfeJ,etal.Fractionatingthebindingprocess:neuropsychologicalevidencedistinguishingbindingofformfrombindingofsurfacefeatures[J].VisionResearch, 2000, 40(12): 1569-1596.

[3]EngelAK,SingerW.Temporalbindingandtheneuralcorrelatesofsensoryawareness[J].TrendsincognitiveSciences, 2001, 5(1): 16-25.

[4]J.L.Johnson,M.L.Padgett.PCNNmodelsandapplications[J].IEEETransactionsonNeuralNetworks,vol. 10,no.3,pp.480-498, 1999.

[5]J.M.Kinser.Asimplifiedpulse-coupledneuralnetwork[C].Orlando:ProceedingsofSPIE,vol. 2760,no. 3,pp. 563-569, 1996.

[6]LiuM,GongHL,LiuJL.PCNNmodelbasedonvectorandapplications[J].Control&Automation,2009, 25(4-3):255-257.

(責(zé)任編輯侯中巖)

中圖分類號:TP183

文獻(xiàn)標(biāo)識碼:B

文章編號:1673-5382(2015)04-0086-04

作者簡介:.徐潔(1987-),女,山西晉城人,山西金融職業(yè)學(xué)院助教,碩士.

收稿日期:2015-08-03

武山县| 昌都县| 通化县| 瑞安市| 乡宁县| 渝北区| 芮城县| 琼结县| 新绛县| 马尔康县| 墨江| 牙克石市| 江阴市| 海安县| 明溪县| 扬州市| 莱州市| 获嘉县| 襄城县| 赤水市| 郸城县| 嘉禾县| 奉贤区| 昆山市| 通渭县| 宣恩县| 万全县| 彭山县| 十堰市| 定襄县| 新龙县| 黄浦区| 南岸区| 抚顺县| 紫金县| 琼中| 黄石市| 楚雄市| 台北县| 甘德县| 吴忠市|