国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于監(jiān)督的全卷積神經(jīng)網(wǎng)絡(luò)視網(wǎng)膜血管分割

2018-10-29 11:09王娜傅迎華蔣念平
軟件導(dǎo)刊 2018年8期

王娜 傅迎華 蔣念平

摘要:視網(wǎng)膜血管分割算法是自動(dòng)視網(wǎng)膜疾病篩查系統(tǒng)主要部分。視網(wǎng)膜血管檢測(cè)在醫(yī)學(xué)診斷上應(yīng)用日益廣泛,對(duì)糖尿病、青光眼等病狀有較精確的診斷。提出一種新的全卷積神經(jīng)網(wǎng)絡(luò)視網(wǎng)膜血管分割的監(jiān)督方法,該方法在視網(wǎng)膜圖像和相應(yīng)的血管標(biāo)簽圖之間進(jìn)行端對(duì)端預(yù)測(cè),采用跳躍結(jié)構(gòu)融合圖像深層和淺層的特征信息,得到精確的分割結(jié)果。以準(zhǔn)確性(Acc)為標(biāo)準(zhǔn)判斷,在DRIVE數(shù)據(jù)集上表現(xiàn)出比現(xiàn)有其它技術(shù)更好的性能。

關(guān)鍵詞:視網(wǎng)膜血管;Gabor;全卷積神經(jīng)網(wǎng)絡(luò);監(jiān)督學(xué)習(xí);跳躍結(jié)構(gòu)

DOIDOI:10.11907/rjdk.173236

中圖分類(lèi)號(hào):TP301

文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-7800(2018)008-0045-04

英文摘要Abstract:Retinal blood vessel detection is more and more widely applied on medical diagnosis,such as diagnosis of diabetes mellitus and glaucoma and it has more accurate results.In this paper,we use the algorithmbased on gabor filter and fully convolution neural network to segment the retinal vessels of fundus images.Through the gabor filter,the retinal blood vessel images were treated with vascular enhancement,and then the fully convolution neural network was used to supervise and study the images and the real retinal vessel segmentation images.Finally,the jump structure was used to fuse the image depth information shallow information,and output results.Based on accuracy (Acc),better performance in the DRIVE dataset over other existing techniques is demonstrated.

英文關(guān)鍵詞Key Words:retinal image;Gabor; fully convolutional neural networks; supervised learning; jump structure

0 引言

隨著近年來(lái)圖像識(shí)別和人工智能的迅速發(fā)展,計(jì)算機(jī)輔助診斷得到大量應(yīng)用,常用于圖像處理和分析,檢測(cè)病變并分析病變性質(zhì),為診斷醫(yī)師提供參考。計(jì)算機(jī)輔助診斷加快了醫(yī)師對(duì)病情判斷的效率,為診斷憑證提供了充足數(shù)據(jù),進(jìn)一步降低了誤診概率。

在醫(yī)學(xué)視網(wǎng)膜診斷方面,通過(guò)大量現(xiàn)有醫(yī)學(xué)數(shù)據(jù)可觀察到視網(wǎng)膜血管的形態(tài)特征,如寬度、長(zhǎng)度、血管走向角度,這些屬性對(duì)篩查、診斷和評(píng)估許多疾病,例如高血壓、青光眼、糖尿病性視網(wǎng)膜病變(DR)和黃斑變性(AMD)等有重要影響,因此血管分割是分析視網(wǎng)膜眼底圖像的必要步驟。雖然可以通過(guò)人工進(jìn)行視網(wǎng)膜血管圖像分割,但由于視網(wǎng)膜血管在圖像中分布復(fù)雜、深淺不一,使手動(dòng)分割工作量巨大,分割過(guò)程極其耗時(shí),且需要充足的經(jīng)驗(yàn)和技巧。自動(dòng)、精確地分割視網(wǎng)膜血管醫(yī)學(xué)圖像,從而進(jìn)行計(jì)算機(jī)輔助診斷可以很大程度上節(jié)省人力,得到更精確的診斷結(jié)果。因此,近幾年來(lái),自動(dòng)視網(wǎng)膜血管分割成為一個(gè)極其重要的研究課題,其基本原則是計(jì)算機(jī)可以較好地實(shí)現(xiàn)圖像增強(qiáng)和圖像過(guò)濾,通過(guò)設(shè)定的處理過(guò)程,得以將可疑病變從正常解剖背景中分離、顯示出來(lái)。

近年來(lái)用于視網(wǎng)膜血管分割的算法有很多,大致可以分為監(jiān)督算法和無(wú)監(jiān)督算法。

基于無(wú)監(jiān)督的視網(wǎng)膜血管分割通過(guò)確定血管在圖像中的特征屬性,將圖像中具有這種特征屬性的部分視為血管,不具有此特性的部分視為非血管。而在監(jiān)督方法中,將與分?jǐn)鄥⒖紙D像對(duì)應(yīng)的手動(dòng)分割血管圖像作為訓(xùn)練集學(xué)習(xí)血管提取規(guī)則,分類(lèi)標(biāo)準(zhǔn)由給定的手動(dòng)分割血管的真實(shí)圖像確定。由于監(jiān)督方法是基于提前分類(lèi)好的數(shù)據(jù)進(jìn)行分類(lèi),其性能通常優(yōu)于無(wú)監(jiān)督方法。

而在監(jiān)督學(xué)習(xí)算法中,神經(jīng)網(wǎng)絡(luò)模擬人腦的訓(xùn)練學(xué)習(xí)系統(tǒng),基于統(tǒng)計(jì)概率而不是推理進(jìn)行分類(lèi),使得神經(jīng)網(wǎng)絡(luò)在檢測(cè)與識(shí)別上比一般監(jiān)督方法更加精確。神經(jīng)網(wǎng)絡(luò)通過(guò)模擬人腦神經(jīng)元結(jié)構(gòu),使用數(shù)學(xué)權(quán)重確定特定輸入的概率,通過(guò)抑制的數(shù)據(jù)訓(xùn)練調(diào)整加權(quán)系統(tǒng),并通過(guò)反饋進(jìn)行調(diào)整和再訓(xùn)練。文獻(xiàn)[2]中卷積神經(jīng)網(wǎng)絡(luò)CNN可以通過(guò)多層卷積網(wǎng)絡(luò)結(jié)構(gòu)自動(dòng)學(xué)習(xí)圖像特征,還可以學(xué)習(xí)多層信息;因淺層卷積層的感知域較小,可以學(xué)習(xí)圖像的局部特征,而深層的卷積層具有較大的感知域,可以學(xué)習(xí)到一些比較抽象的特征,更有助于對(duì)圖像精準(zhǔn)分割。

基于卷積神經(jīng)網(wǎng)絡(luò)CNN的分割方法指為了對(duì)一個(gè)像素分類(lèi),使用該像素周?chē)囊粋€(gè)圖像塊作為CNN的輸入,用于訓(xùn)練和預(yù)測(cè)。該方法有一些缺點(diǎn):①存儲(chǔ)開(kāi)銷(xiāo)很大。例如對(duì)每個(gè)像素使用的圖像塊大小為15×15,則所需存儲(chǔ)空間為原來(lái)圖像的225倍;②計(jì)算效率低下。相鄰的像素塊基本上是重復(fù)的,針對(duì)每個(gè)像素塊逐個(gè)計(jì)算卷積,造成很大程度的重復(fù)計(jì)算;③像素塊大小限制了感知區(qū)域大小。通常像素塊比整幅圖像小很多,只能提取一些局部特征,從而導(dǎo)致分類(lèi)性能受到限制。而文獻(xiàn)[1]提出了全卷積神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)試圖從抽象的特征中恢復(fù)每個(gè)像素所屬的類(lèi)別,即從圖像級(jí)別的分類(lèi)進(jìn)一步延伸到像素級(jí)別的分類(lèi)。FCN將傳統(tǒng)CNN中的全連接層轉(zhuǎn)化成一個(gè)個(gè)卷積層,所有的層都是卷積層,故稱為全卷積網(wǎng)絡(luò)。

實(shí)驗(yàn)采用FCN神經(jīng)網(wǎng)絡(luò)對(duì)視網(wǎng)膜圖像進(jìn)行血管分割。以分割的真實(shí)邊緣作為監(jiān)督信息,訓(xùn)練一個(gè)端到端的網(wǎng)絡(luò),讓網(wǎng)絡(luò)作像素預(yù)測(cè),直接預(yù)測(cè)分類(lèi)圖。傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)最終預(yù)測(cè)結(jié)果是一張分類(lèi)圖,它取消了全連接層,不再把二維矩陣(圖片)壓縮成一維的標(biāo)量。

計(jì)算機(jī)輔助診斷的過(guò)程分為圖像處理過(guò)程(預(yù)處理)、圖像征象提取(特征提?。?、數(shù)據(jù)處理過(guò)程。在預(yù)處理部分一般對(duì)圖像進(jìn)行配準(zhǔn)、形態(tài)處理等。預(yù)處理部分對(duì)視網(wǎng)膜圖像進(jìn)行血管增強(qiáng)有利于之后的血管分割,所以實(shí)驗(yàn)在進(jìn)行血管分割之前先增強(qiáng)視網(wǎng)膜圖像,再進(jìn)行血管分割。

1 模型

在進(jìn)行神經(jīng)網(wǎng)絡(luò)訓(xùn)練測(cè)試前 ,對(duì)眼底圖像做Gabor濾波,目的是提取圖像的特征分量,使血管特征愈加明顯。有利于神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)和分割。本實(shí)驗(yàn)分為兩步,第一步是進(jìn)行圖像預(yù)處理,對(duì)圖像進(jìn)行配準(zhǔn)、像素處理以及Gabor濾波增強(qiáng);第二步是將視網(wǎng)膜眼底圖像分為訓(xùn)練集和測(cè)試集。將訓(xùn)練集圖像作為輸入,以真實(shí)的視網(wǎng)膜分割邊緣圖像作為監(jiān)督圖像。如圖1所示,前向采用卷積、池化、激勵(lì)、dropout、上采樣等算法,最終用Softmax對(duì)分割圖像進(jìn)行最后分類(lèi),得到一個(gè)二維分類(lèi)圖,分為血管與非血管,再與真實(shí)的視網(wǎng)膜血管分割圖像進(jìn)行比較,繼而反饋回神經(jīng)網(wǎng)絡(luò),調(diào)整學(xué)習(xí)參數(shù),反向用隨機(jī)梯度下降法。

2 Gabor與全卷積神經(jīng)網(wǎng)絡(luò)算法實(shí)現(xiàn)

2.1 Gabor濾波

由于血管與背景的對(duì)比度低,使血管分割難度增大,因此,血管增強(qiáng)是血管分割中常用的預(yù)處理方法。

在圖像處理中,Gabor函數(shù)是一個(gè)用于邊緣提取的線性濾波器。Gabor濾波器的頻率和方向表達(dá)與人類(lèi)視覺(jué)系統(tǒng)類(lèi)似。研究發(fā)現(xiàn)Gabor濾波器十分適合紋理表達(dá)和分離。為了把Gabor變換用于圖像領(lǐng)域, 構(gòu)造二維Gabor濾波器。二維Gabor濾波器在頻域和空間域都具有最優(yōu)的局部特性,能夠很好地描述空間頻率、空間位置、方向選擇性等局部信息,同時(shí)對(duì)光照不敏感。Gabor濾波器脈沖響應(yīng),可以定義為一個(gè)正弦波(對(duì)于二維Gabor濾波器是正弦平面波)乘以高斯函數(shù)。由于乘法卷積性質(zhì),Gabor濾波器的脈沖響應(yīng)的傅立葉變換是其調(diào)和函數(shù)的傅立葉變換和高斯函數(shù)傅立葉變換的卷積。該濾波器由實(shí)部和虛部組成,二者相互正交。一組不同頻率不同方向的Gabor函數(shù)數(shù)組對(duì)于圖像特征提取非常有用。

在進(jìn)行Gabor處理時(shí),單獨(dú)通過(guò)RGB彩色圖像的可視化組件,可以看出綠色通道能較好地顯示視網(wǎng)膜血管,而紅色和藍(lán)色通道顯示對(duì)比度低且噪點(diǎn)多。因此,選擇綠色通道小波處理,以及組成特征向量本身,即每個(gè)像素的綠色通道強(qiáng)度作為它的一個(gè)特性。

式(1)中,A是一個(gè)對(duì)角矩陣,定義了濾波器的各向異性,代表了一個(gè)各向異性的高斯窗口,當(dāng)=1時(shí),為二維高斯窗口,在任意方向伸長(zhǎng)。k=[k1,k2]為不同方向的調(diào)制頻率,a為尺度因子。

在實(shí)際應(yīng)用時(shí),可以根據(jù)檢測(cè)對(duì)象的方向趨勢(shì),選擇合適的方向參數(shù)進(jìn)行濾波。如在本實(shí)驗(yàn)中,在檢測(cè)視網(wǎng)膜血管時(shí),根據(jù)血管走向的偏轉(zhuǎn)角度進(jìn)行濾波,可以使特征點(diǎn)定位更加準(zhǔn)確。本實(shí)驗(yàn)選取ε=1、k=[0,3],方向選擇18個(gè)不同方向,得到血管增強(qiáng)圖,如圖2所示。

圖1與圖2分別為兩組不同眼底圖像的Gabor濾波結(jié)果。在Gabor濾波后的眼底圖像中,圖像中血管部分得到增強(qiáng),更加突出。不同尺度值得到的增強(qiáng)圖像效果不同。當(dāng)尺度值較小時(shí),增強(qiáng)后的視網(wǎng)膜血管被細(xì)致地描繪出來(lái),且可以忽略圖像中的病灶部分,不會(huì)受到圖像中病變生成的病灶影響,但噪點(diǎn)干擾較多;當(dāng)尺度值較大時(shí),增強(qiáng)后的視網(wǎng)膜血管較為純凈和突出,圖像噪點(diǎn)較少,但也將帶病灶的部分增強(qiáng),會(huì)給之后的神經(jīng)網(wǎng)絡(luò)分割帶來(lái)一些干擾。

2.2 全卷積神經(jīng)網(wǎng)絡(luò)

本實(shí)驗(yàn)第二步是將經(jīng)過(guò)Gabor濾波增強(qiáng)的圖像輸入到全卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練和測(cè)試。卷積神經(jīng)網(wǎng)絡(luò)分類(lèi)使用的網(wǎng)絡(luò)一般在最后的連接層會(huì)將原來(lái)的二維矩陣壓縮成一維,從而丟失了空間信息,最后訓(xùn)練輸出一個(gè)標(biāo)量作為分類(lèi)標(biāo)簽,而圖像語(yǔ)義分割輸出的是一個(gè)分割圖。然后拿真實(shí)邊緣作為監(jiān)督信息,訓(xùn)練一個(gè)端到端的網(wǎng)絡(luò)。

本實(shí)驗(yàn)構(gòu)造的全卷積神經(jīng)網(wǎng)絡(luò)框架包括卷積層、池化層、激勵(lì)層、Dropout。卷積層通過(guò)不同卷積核獲取圖片的特征信息。通過(guò)卷積層獲得圖像特征雖然可以直接使用這些特征訓(xùn)練分類(lèi)器,但是這樣做將面臨巨大數(shù)據(jù)量的挑戰(zhàn),而且容易產(chǎn)生過(guò)擬合現(xiàn)象。為進(jìn)一步降低網(wǎng)絡(luò)訓(xùn)練參數(shù)及模型過(guò)擬合程度,在卷積層之后進(jìn)行池化處理。池化方式通常有最大池化、均值池化、重疊池化。本次實(shí)驗(yàn)選用最大池化。在激勵(lì)函數(shù)上,本實(shí)驗(yàn)采用Relu函數(shù),Relu是線性的,而且梯度不會(huì)飽和,得到的SGD的收斂速度會(huì)比Sigmoid和Tanh快很多,而且sigmoid和tanh需要計(jì)算指數(shù)等,計(jì)算復(fù)雜度高,Relu只需要一個(gè)閾值就可以激活。最后采用dropout進(jìn)一步防止模型過(guò)擬合。Dropout指在訓(xùn)練的時(shí)候隨機(jī)丟棄一些激活的神經(jīng)元,這樣可以讓模型魯棒性更高,因?yàn)樗粫?huì)依賴于某些局部特征。Dropout可以消除減弱了的神經(jīng)元節(jié)點(diǎn)之間的聯(lián)合適應(yīng)性,增強(qiáng)泛化能力。

由圖3看出,從階段一到階段五是在不斷地提取特征、池化及激勵(lì)計(jì)算。階段六是將階段五輸出最大池化后的圖像pool5進(jìn)行卷積特征提取,再進(jìn)行dropout,弱化一部分神經(jīng),最后將卷積后的圖像進(jìn)行上采樣處理。上采樣方法有多種,本實(shí)驗(yàn)采用卷逆積方法。Max_pool5上采樣后的圖像可以得到分割結(jié)果,但是在不斷的卷積采樣過(guò)程中會(huì)丟失掉很多信息,最終得到的上采樣圖像結(jié)果通常很粗糙。所以不直接采用上采樣后的Max_pool5進(jìn)行最后的softmax分類(lèi)。本實(shí)驗(yàn)采用跳躍結(jié)構(gòu)構(gòu)造最終的分類(lèi)圖。跳躍結(jié)構(gòu)如圖4所示。

圖中FCN-2s最后在輸出特征圖上進(jìn)行步伐為2的上采樣。 FCN-4s先在pool4層添加一個(gè)卷積核大小為1*1的卷積層,產(chǎn)生一個(gè)額外輸出。而FCN_2s圖代表pool5層的所有信息,對(duì)FCN_2s和pool4層的輸出進(jìn)行融合,最后在融合后的結(jié)果上進(jìn)行步伐為2的上采樣。

圖中FCN-8s先在pool3層進(jìn)行如上步驟,添加卷積層產(chǎn)生額外輸出,然后把FCN_4s和pool3層額外的輸出進(jìn)行融合,再進(jìn)行步伐為8的上采樣,這樣可回到原圖像尺寸大小,在這個(gè)特征圖上進(jìn)行像素分類(lèi)。再對(duì)這個(gè)預(yù)測(cè)進(jìn)行分類(lèi)。這種方法既可以保留深層特征信息,也不會(huì)遺漏淺層特征信息。最后把FCN-8s進(jìn)行Softmax分類(lèi),分為血管和非血管兩類(lèi),產(chǎn)生最終的視網(wǎng)膜血管分割圖像。

3 實(shí)驗(yàn)結(jié)果

本實(shí)驗(yàn)對(duì)采集到視網(wǎng)膜血管圖像進(jìn)行濾波與分割,部分結(jié)果如圖6所示。圖中第一行是眼底圖像的原圖,第二行是經(jīng)過(guò)Gabor濾波和全卷積神經(jīng)網(wǎng)絡(luò)分割的結(jié)果,第三行是匹配濾波算法進(jìn)行視網(wǎng)膜血管分割的結(jié)果。

可以看出,第二行血管大致方向和分支被分割出來(lái),但部分光照較亮的地方對(duì)血管檢測(cè)產(chǎn)生了較大干擾。較為明顯的血管被較好地自動(dòng)分割,但是細(xì)微的血管分割出來(lái)有斷點(diǎn),不夠連續(xù)。由于本次實(shí)驗(yàn)的樣本量較小,訓(xùn)練的神經(jīng)網(wǎng)絡(luò)次數(shù)不夠,造成網(wǎng)絡(luò)參數(shù)不夠精確,致使分割結(jié)果沒(méi)有達(dá)到完全的精確,后期通過(guò)增大樣本采集數(shù)量進(jìn)行學(xué)習(xí)和訓(xùn)練,同時(shí)預(yù)處理時(shí)進(jìn)行光照處理排出光照干擾,將會(huì)得到更精確的分割結(jié)果。而匹配濾波雖然將血管細(xì)致地描繪出來(lái),但匹配濾波對(duì)光照的抗干擾能力差,光照對(duì)比鮮明的地方被誤認(rèn)為是血管進(jìn)行了分割,最終結(jié)果噪聲很大。

為了更精確地評(píng)估現(xiàn)有的算法,計(jì)算出4個(gè)數(shù)據(jù)TP、TN、FP、FN來(lái)判斷算法分割結(jié)果的精確度。TP表示預(yù)測(cè)為血管而實(shí)際也為血管的圖像像素總和,TN為預(yù)測(cè)為非血管實(shí)際也為非血管的圖像像素總和,F(xiàn)P為預(yù)測(cè)為血管實(shí)際為非血管的圖像像素總和,F(xiàn)N為預(yù)測(cè)為非血管真實(shí)為血管的圖像像素總和。

式(2)為Acc計(jì)算公式,Acc由預(yù)測(cè)正確的正樣本加上預(yù)測(cè)正確的副樣本除以圖像總像素,可以得到圖像中預(yù)測(cè)正確的像素比率。Acc參數(shù)是一個(gè)可以評(píng)估預(yù)測(cè)算法的參數(shù)。實(shí)驗(yàn)用的20張圖像的結(jié)果將匹配濾波得到的灰度圖結(jié)果,并進(jìn)行局部閾值以及圖像去躁,使結(jié)果變成一個(gè)二值圖像,然后與真實(shí)分割的圖像進(jìn)行對(duì)比計(jì)算TP、TN、FP、FN的值,再計(jì)算出Acc值,最后取20張Acc的均值作為匹配濾波的分割準(zhǔn)確率。同時(shí)將20張全卷積神經(jīng)網(wǎng)絡(luò)與相對(duì)應(yīng)的手動(dòng)分割圖像進(jìn)行對(duì)比計(jì)算,也取20張圖像的Acc值作為全卷積神經(jīng)網(wǎng)絡(luò)的分割準(zhǔn)確率。

從表1可以看出全卷積神經(jīng)網(wǎng)絡(luò)的分割準(zhǔn)確率在訓(xùn)練數(shù)據(jù)量較小的情況下,分割準(zhǔn)確率高于匹配濾波。

4 結(jié)語(yǔ)

在實(shí)驗(yàn)中,Gabor濾波能有效地對(duì)眼底圖像的視網(wǎng)膜血管進(jìn)行增強(qiáng)。全卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖像進(jìn)行像素級(jí)分類(lèi),從而解決了語(yǔ)義級(jí)別圖像分割問(wèn)題。全卷積神經(jīng)網(wǎng)絡(luò)接受任意尺寸的圖像輸入,從而可以對(duì)每個(gè)像素都能產(chǎn)生預(yù)測(cè),同時(shí)保留了原始輸入圖像中的空間信息,最后在上采樣的特征圖上進(jìn)行逐像素分類(lèi),同時(shí)跳躍結(jié)構(gòu)使分割結(jié)果更為準(zhǔn)確。本次實(shí)驗(yàn)可以較好地分割出眼底圖像中的血管部分,但受到光照和訓(xùn)練集數(shù)據(jù)量的影響,得到的結(jié)果仍然不夠精細(xì)。進(jìn)行8倍上采樣效果雖然比2倍的效果有明顯改善,但是上采樣的結(jié)果仍然比較模糊、平滑,對(duì)血管分割中的細(xì)節(jié)不敏感。

參考文獻(xiàn):

[1] LONG J,SHELHAMER E,DARRELL T.Fully convolutional networks for semantic segmentation[C],IEEE Conference on Computer Vision and Pattern Recognition,2015:3431-3440.

[2] LI Q,XIE L,ZHANBG Q,et al.A supervised method using convolutional neural networks for retinal vessel delineation[C].International Congress on Image and Signal Processing,2016:418-422.

[3] SAINATH T N,SAN MARTIN M C P.Convolution Neural Networks[P].US,US20160283841.A1,2016-09-29.

[4] LEE T S.Image representation using 2D Gabor wavelet[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2002,18(10):959-971.

[5] LYONS M,AKAMATSU S,KAMACHI M,et al.Coding Facial Expressions with Gabor Wavelets[C].IEEE International Conference on Automatic Face and Gesture Recognition,1998:1-200.

[6] DAUGMAN J G.Complete discrete 2-D Gabor transforms by neural networks for image analysis and compression[J].IEEE Transactions on Acoustics Speech & Signal Processing,1988,36(7):1169-1179.

[7] SOARES J V,LEANDRO J J,CESAR R M,et al.Retinal vessel segmentation using the 2-D Gabor wavelet and supervised classification[J].IEEE Trans Med Imaging,2006,25(9):1214-1222.

[8] MCQUELLIN C P,JELINEK H F,and JOSS G.Characterisation of fluorescein angiograms of retinal fundus using mathematical morphology:a pilot study[C].Adelaide:the 5th International Conference on Ophthalmic Photography,2002.

[9] SIMONYAN K,ZISSERMAN A.Very deep convolutional networks for large-scale image recognition [DB/OL].Computing Research Repository,2014(4):1409-1556.

[10] JIA Y,SHELHAMER E,DONAHUE J,et al.Caffe:convolutional architecture for fast feature embedding[C].ACM International Conference on Multimedia,2014:675-678.

[11] CHAUDHURI S,CHATTERJEE S,KATZ N,et al.Detection of blood vessels in retinal images using two-dimensional matched filters[J].Medical Imaging IEEE Transactions,1989,8(3):263.

[12] SALEM S,SALEM N,NANDI A.Segmentation of retinal bloodvessels using a novel clustering algorithm (RACAL) with apartial supervision strategy[J].Medical and Biological Engineering and Computing,2007,45:261-273.

[13] AKITA K,KUGA H.A computer method of understanding ocular fundus images[J].Pattern Recognition,1982,15:431-443.

(責(zé)任編輯:江 艷)