王紅玉,馮 筠,劉飛鴻,陳寶瑩
(1.西北大學(xué) 信息科學(xué)與技術(shù)學(xué)院, 陜西 西安 710127;2.第四軍醫(yī)大學(xué) 附屬唐都醫(yī)院 放射科, 陜西 西安 710038)
乳腺癌是女性最常見(jiàn)的惡性腫瘤之一,嚴(yán)重威脅著女性的生命健康[1]。研究表明,乳腺X線圖像中的腫塊是乳腺癌早期診斷的一個(gè)重要標(biāo)志,腫塊分割作為腫塊檢測(cè)和診斷的關(guān)鍵環(huán)節(jié),成為計(jì)算機(jī)輔助診斷系統(tǒng)的研究熱點(diǎn)[2-3]。
近年來(lái),研究者們針對(duì)乳腺腫塊分割已做了大量的研究工作[4-5]。主要算法可以分為:基于閾值的分割[6]、基于區(qū)域的分割[7]、基于邊緣的分割[8]和基于特定理論的分割[9]等。然而由于乳腺圖像中噪聲和偽影較多,腫塊形狀、大小、背景復(fù)雜多變,現(xiàn)有的方法分割效果往往不夠理想[10]。
觀察發(fā)現(xiàn),放射科醫(yī)生在面對(duì)復(fù)雜的醫(yī)學(xué)影像時(shí)能迅速地對(duì)信息進(jìn)行有效組織[11],而計(jì)算機(jī)卻很難判斷,因此,模擬人類(lèi)的知覺(jué)組織機(jī)理處理計(jì)算機(jī)視覺(jué)中的問(wèn)題顯得尤為重要[12]。格式塔心理學(xué)家針對(duì)人類(lèi)視覺(jué)感知特點(diǎn),提出了格式塔完形規(guī)則[13-14]。目前已有一些學(xué)者將心理學(xué)的格式塔方法應(yīng)用到自然圖像分割中,取得了顯著的成果[15]。然而醫(yī)學(xué)影像不同于自然場(chǎng)景圖像,尤其乳腺腫塊形態(tài)多變,很難用單一模型表示,因此在計(jì)算機(jī)輔助分割過(guò)程中,模擬專(zhuān)家的認(rèn)知過(guò)程并借鑒專(zhuān)家的經(jīng)驗(yàn)知識(shí)非常重要。
本文針對(duì)乳腺X線圖像,提出了一種基于格式塔認(rèn)知框架的自動(dòng)化乳腺腫塊分割方法。該算法從格式塔心理學(xué)模型出發(fā),模擬人類(lèi)視覺(jué)自下而上的感知過(guò)程與自上而下的認(rèn)知過(guò)程[16]。首先對(duì)圖像進(jìn)行預(yù)分割,獲取視覺(jué)塊并以此作為基本處理單元,其對(duì)應(yīng)格式塔中“完形”的概念,然后,對(duì)圖像的局部特性與全局特性分別建模,提出了基于視覺(jué)塊的腫塊分割任務(wù)的形式化表達(dá),算法同時(shí)考慮了腫塊的形態(tài)學(xué)特點(diǎn)與專(zhuān)家的先驗(yàn)知識(shí)。實(shí)驗(yàn)結(jié)果表明,本文算法簡(jiǎn)單高效,相對(duì)其他流行分割算法取得了更好分割效果,對(duì)噪聲具有較強(qiáng)的抗干擾性。
格式塔心理學(xué)是一種注重整體組織的心理學(xué)理論體系,知覺(jué)是其研究的起點(diǎn)和重點(diǎn)。格式塔心理學(xué)認(rèn)為,知覺(jué)是按照一定的規(guī)律形成和組織起來(lái)的[17]。我們的知覺(jué)過(guò)程既包括來(lái)自于“自下而上”到達(dá)大腦的感覺(jué),也包括被心理學(xué)家稱(chēng)為“自上而下”加工的經(jīng)驗(yàn)和期望[16]。模擬人類(lèi)的認(rèn)知特點(diǎn),捕獲并揭示兩種控制過(guò)程(自下而上與自上而下)之間的關(guān)系有著重要的研究意義。本文以乳腺腫塊分割問(wèn)題為研究對(duì)象,參考格式塔心理學(xué)規(guī)則,用計(jì)算機(jī)來(lái)模擬人類(lèi)的認(rèn)知過(guò)程,將上述兩種加工過(guò)程在分割問(wèn)題中進(jìn)行實(shí)例化表示。具體算法框架如圖1所示。
圖1 算法框架圖Fig.1 The framework of our algorithm
算法第一階段,我們稱(chēng)其為面向局部信息的圖像預(yù)分割,對(duì)應(yīng)了視覺(jué)感知自下而上的加工過(guò)程,其充分綜合利用了圖像的局部特性,包括圖像灰度、紋理、空間位置等多種底層特征。第二階段是面向全局信息的腫塊分割,即采用自上而下的深入加工過(guò)程,以視覺(jué)塊作為基本處理基元,借鑒圖割(Graph cuts)思想,并且融入了專(zhuān)家的閱片知識(shí)與經(jīng)驗(yàn),最終實(shí)現(xiàn)腫塊的全局最優(yōu)化分割。
1.2.1 視覺(jué)塊生成 格式塔心理學(xué)研究表明,真實(shí)的自然知覺(jué)經(jīng)驗(yàn)是組織動(dòng)力的整體,感覺(jué)元素的拼合則是人為的堆砌[17]。醫(yī)學(xué)圖像中噪聲、偽影、區(qū)域不一致現(xiàn)象嚴(yán)重,很大程度上影響了腫塊的正確分割,本文采用了文獻(xiàn)[18]中對(duì)腹腔圖像視覺(jué)塊的劃分方法對(duì)乳腺圖像進(jìn)行預(yù)分割。該方法利用格式塔規(guī)則中鄰近性、相似性的概念,綜合像素灰度、空間位置等局部圖像特征,對(duì)像素重組,形成如圖2所示的視覺(jué)塊。該方法不僅降低了圖像噪聲的影響,提高了圖像局部一致性,而且簡(jiǎn)化了圖像表示,便于對(duì)圖像進(jìn)一步分析處理。
圖2 乳腺X線圖像視覺(jué)塊形成Fig.2 The visual patches of X-ray breast image
1.2.2 視覺(jué)塊紋理特征建模 觀察發(fā)現(xiàn),乳腺X線圖像間具有較大差異(如圖2),影像的形成與病人、設(shè)備、環(huán)境等多種因素息息相關(guān),很難用單一的紋理模型區(qū)分所有圖像的腫塊與背景區(qū)域。視覺(jué)塊的劃分僅僅考慮了簡(jiǎn)單的圖像底層特征,預(yù)分割后的圖像中仍存在大量紋理相似的視覺(jué)塊單元。為了進(jìn)一步簡(jiǎn)化圖像表示,且形成更有意義的“感覺(jué)元素”,我們從單幅圖像出發(fā),利用圖像自相似性進(jìn)行視覺(jué)塊合并。研究表明,以像素鄰域灰度值構(gòu)造紋理基元具有較好的紋理表達(dá)能力[19]。本文借鑒詞袋模型的概念,構(gòu)造了視覺(jué)塊的紋理表示模型,如圖3所示。
圖3 基于詞袋模型的紋理表示方法Fig.3 Texture features based on the Bow model
假設(shè)圖像I={p1,p2,…,pN}中包含N個(gè)像素,取每個(gè)像素的t鄰域集合作為紋理特征,特征集合中g(shù)i表示長(zhǎng)度為t2的特征向量。若取M個(gè)紋理基元(或特征詞),則每個(gè)像素均可對(duì)應(yīng)特征字典中的一個(gè)基元變量。假設(shè)視覺(jué)塊vi由鄰接的m個(gè)像素組成,該視覺(jué)塊的紋理特征便可用大小為M的基元直方圖hi表示。
1.2.3 基于局部紋理特征的視覺(jué)塊合并 在格式塔心理學(xué)理論中,鄰近性、相似性不僅能在圖像像素的粒度產(chǎn)生作用,使之聚合形成可視塊,還可作用于可視塊粒度,指導(dǎo)鄰近視覺(jué)塊合并。因此對(duì)于鄰近視覺(jué)塊,即vi∩vj≠?,定義了相似性函數(shù)S(·),
S(vi,vj)= 1-d(hi,hj)·[size(vi)+
size(vj)]。
(1)
其中,d(·)為視覺(jué)塊之間的紋理直方圖的歐式距離,size(·)為視覺(jué)塊的空間尺寸,即相鄰視覺(jué)塊紋理值越相近,尺度越小,越相似。我們將采用規(guī)則J合并相似的視覺(jué)塊。
(2)
v′=vi∪vj,
(3)
(4)
size(v′)=size(vi)+size(vj)。
(5)
遍歷圖像,合并相似性最大且滿足小于閾值Ts的鄰近視覺(jué)塊vi和vj,然后更新圖像視覺(jué)塊集合,如式(3)~(5)所示,包括視覺(jué)塊像素組成v′,紋理特征h′,視覺(jué)塊大小size(v′),鄰居關(guān)系等信息。多次迭代上述算法,直到J=0。此時(shí),就完成了計(jì)算機(jī)模擬人類(lèi)視覺(jué)自下而上的加工過(guò)程,得到更為簡(jiǎn)化的圖像視覺(jué)塊集合,每塊均包含了更為豐富的視覺(jué)信息,如圖4所示。
圖4 基于局部紋理特征的視覺(jué)塊合并結(jié)果Fig.4 The merged results of visual patches based on local texture features
格式塔心理學(xué)最大的特點(diǎn)是強(qiáng)調(diào)研究對(duì)象的整體性,其關(guān)注知覺(jué)主體是按何種形式把經(jīng)驗(yàn)材料組織成有意義的整體。此時(shí)腫塊分割問(wèn)題已轉(zhuǎn)化為將視覺(jué)塊標(biāo)定成目標(biāo)/背景的典型二元標(biāo)號(hào)組合優(yōu)化問(wèn)題。為了從全局的角度為視覺(jué)塊正確標(biāo)注,本文借鑒了圖割的思想[20],并加入專(zhuān)家知識(shí),通過(guò)最小化全局優(yōu)化目標(biāo)函數(shù)得到最終腫塊分割結(jié)果。
1.3.1 全局分割形式化表示 圖割理論(Graph cuts)的核心思想在于構(gòu)造優(yōu)化目標(biāo),利用最小的切割準(zhǔn)則實(shí)現(xiàn)圖像的最佳分割。設(shè)無(wú)向圖G=(V,X)為圖像I的形式化表達(dá),V為視覺(jué)塊集合,V={v1,v2,…,vq},X是視覺(jué)塊連接權(quán)重,鄰域集合定義為Q,其元素滿足{(vi,vj)?Q|vi∩vj≠?}。集合L={l1,l2,…,lq}表示圖像分割(視覺(jué)塊標(biāo)注)結(jié)果,其中l(wèi)i=1指視覺(jué)塊i被標(biāo)注為腫塊,反之為背景。于是,上述分割問(wèn)題可用式(6)表示為
vj)。
(6)
其中,D(·)為數(shù)據(jù)項(xiàng),表示區(qū)域特性,與視覺(jué)塊紋理特征相關(guān);B(·)為平滑能量項(xiàng),與鄰域標(biāo)號(hào)相關(guān)。權(quán)重參數(shù)0<γ<1,調(diào)節(jié)數(shù)據(jù)項(xiàng)與平滑項(xiàng)的比例。因此,通過(guò)最小化能量函數(shù)E(·)即獲得腫塊分割結(jié)果。
1.3.2 融入先驗(yàn)知識(shí)的圖割求解 交互式Graph Cuts算法要求用戶(hù)在圖像上標(biāo)注背景點(diǎn)與目標(biāo)點(diǎn),這種融入專(zhuān)家知識(shí)的方法取得了較好的分割效果[21]。鑒于此,本文提出將醫(yī)生的先驗(yàn)知識(shí)融入到求解目標(biāo)中,一方面可以保證分割質(zhì)量,另一方面減少人工干預(yù),可以實(shí)現(xiàn)全自動(dòng)化腫塊分割。
首先我們研究了大量的乳腺X線圖像形成的視覺(jué)塊,做出如下假設(shè):
1) 腫塊通常表現(xiàn)為無(wú)隙內(nèi)核的實(shí)質(zhì)團(tuán)塊或星芒,其中心壞死,密度較高,較正常組織在影像上表現(xiàn)為高亮特性。
2) 從全局角度觀察,腫塊多數(shù)分布于乳腺區(qū)域內(nèi),即很少出現(xiàn)在圖像邊緣處。
根據(jù)上述假設(shè),首先將視覺(jué)塊集合V劃分為邊緣視覺(jué)塊集合VE與非邊緣視覺(jué)塊集合VN,滿足V=VE∪VN,VE∩VN=?。然后選取如下前景(FS)/背景(BS)種子點(diǎn):
(7)
BS={g(vi)
(8)
FS為前景種子點(diǎn),即率先將遠(yuǎn)離圖像邊緣的高亮視覺(jué)塊選定為目標(biāo)腫塊區(qū)域;BS為背景種子點(diǎn),包括低密度視覺(jué)塊與邊緣視覺(jué)塊兩部分。實(shí)驗(yàn)結(jié)果表明,上述假設(shè)在絕大多數(shù)腫塊圖像上均適用。圖割算法另一個(gè)重要的問(wèn)題是數(shù)據(jù)項(xiàng)與邊緣項(xiàng)的定義,其決定了圖像分割的結(jié)果。根據(jù)上述先驗(yàn)知識(shí),數(shù)據(jù)項(xiàng)D(·)定義如下:
(9)
由于單個(gè)視覺(jué)塊FS表達(dá)目標(biāo)前景目標(biāo)有限,所在構(gòu)造區(qū)域函數(shù)時(shí),將其鄰域非邊緣視覺(jué)塊也考慮在內(nèi),即集合FS*,FS*={Neighbor(FS)∩VN}∪FS,參數(shù)c1,c2取較大常數(shù)值。從式(9)可知,每個(gè)視覺(jué)塊根據(jù)其與先驗(yàn)信息區(qū)域的相似度被賦予不同的權(quán)重。
此外,平滑邊緣項(xiàng)B(·)定義為
(10)
B(·)對(duì)相鄰數(shù)據(jù)塊建模,按照?qǐng)D割問(wèn)題最小化目標(biāo)函數(shù)的思想,當(dāng)腫塊視覺(jué)塊與背景視覺(jué)塊臨近時(shí),將邊緣項(xiàng)設(shè)置為最小值,否則按視覺(jué)塊紋理相似性賦值,即相似的視覺(jué)塊邊緣項(xiàng)B(·)值較大,反之亦然。如上述網(wǎng)絡(luò)圖建立完畢,從全局角度出發(fā),采用網(wǎng)絡(luò)圖的最大流/最小割算法[22],獲得腫塊分割的結(jié)果。具體算法流程如下:
Step1面向局部特征的圖像預(yù)分割:
1)圖像視覺(jué)塊生成;
2)提取視覺(jué)塊紋理特征;
3)相鄰視覺(jué)塊相似性度量合并,如式(2)所示。
Step2面向全局特征的腫塊分割:
1)基于視覺(jué)塊的圖模型建立,如式(6)所示;
2)先驗(yàn)知識(shí)建模,標(biāo)注視覺(jué)塊;
3)基于先驗(yàn)知識(shí)的數(shù)據(jù)項(xiàng)與邊緣項(xiàng)確立,如式(9)和式(10)所示。
Step3采用網(wǎng)絡(luò)圖的最大流/最小割算法,實(shí)現(xiàn)腫塊的自動(dòng)化分割。
為了驗(yàn)證本文算法的有效性,在Intel(R) Core(TM) i5 CPU, 4GB內(nèi)存的Windows7操作系統(tǒng)上,基于Matlab 2012(b)平臺(tái)進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)數(shù)據(jù)來(lái)自公開(kāi)數(shù)據(jù)集INbreast[23]的50幅包含腫塊的X線-鉬靶影像。該數(shù)據(jù)集已由放射科專(zhuān)家標(biāo)注出分割結(jié)果,將其作為本文實(shí)驗(yàn)的“金標(biāo)準(zhǔn)”。
為了客觀地評(píng)價(jià)本文算法的性能,實(shí)驗(yàn)對(duì)比了4種當(dāng)前流行的圖像分割算法,包括OSTU閾值分割算法[6]、區(qū)域生長(zhǎng)算法(Region grow)[24]、水平集算法(Level set)[25]、核映射圖割算法(Kernel graph cuts)[26]。評(píng)價(jià)指標(biāo)采用Dice系數(shù)、過(guò)分割率OverSeg、欠分割率UnderSeg和召回率Recall,定義為
(11)
(12)
(13)
(14)
其中,GT為放射科專(zhuān)家的金標(biāo)準(zhǔn)分割結(jié)果,SEG為待評(píng)價(jià)算法的實(shí)際分割結(jié)果,OS和US分別對(duì)應(yīng)圖像過(guò)分割部分與欠分割部分。num(·)函數(shù)計(jì)算區(qū)域面積。本文方法的參數(shù)設(shè)置如表1所示。
表1 主要參數(shù)設(shè)置Tab.1 Parameter settings
如圖5所示,可視化表示了5類(lèi)分割算法在INbreast數(shù)據(jù)集上的分割結(jié)果,圖中綠色線標(biāo)注醫(yī)生手工分割的結(jié)果,作為算法評(píng)價(jià)標(biāo)準(zhǔn),紅色線對(duì)應(yīng)算法分割結(jié)果。
由圖5可知,OSTU閾值分割只考慮圖像灰度,忽略了空間位置信息,因此分割區(qū)域往往不連續(xù),受噪聲影響較大;區(qū)域生長(zhǎng)算法、水平集算法改善了閾值分割的不足,但其需要人工輔助交互,屬于半自動(dòng)化的分割方法,分割結(jié)果嚴(yán)格依賴(lài)人工的輔助輸入,其中,水平集算法通過(guò)Level set函數(shù)曲面的進(jìn)化,隱含地求解曲線的運(yùn)動(dòng),遇到復(fù)雜的腫塊紋理時(shí),會(huì)產(chǎn)生分割孔洞(圖5(a)第3列)。此外,本文也對(duì)比了圖割的改進(jìn)算法(Kernel graph cuts),其與OSTU算法均屬于自動(dòng)化的分割方法,使用核函數(shù)將圖像映射到高維空間,取得了更佳的分割效果,但是,由于缺少先驗(yàn)信息指導(dǎo),當(dāng)背景較復(fù)雜時(shí),會(huì)產(chǎn)生錯(cuò)誤分割(圖5(c)第4列)。
圖5 腫塊分割結(jié)果與金標(biāo)準(zhǔn)對(duì)比Fig.5 Segmentation results and comparisons with ground truth
為了進(jìn)一步量化比較,本文采用Dice系數(shù)、過(guò)分割率、欠分割率和召回率4個(gè)指標(biāo)評(píng)價(jià)上述算法,結(jié)果如表2所示,表2中數(shù)據(jù)是在整個(gè)數(shù)據(jù)集上實(shí)驗(yàn)的統(tǒng)計(jì)結(jié)果,即所有圖像分割結(jié)果的各項(xiàng)指標(biāo)的平均值。Dice系數(shù)與召回率Recall值越大,表示分割結(jié)果越好,過(guò)分割OverSeg與欠分割UnderSeg值越小表示分割越準(zhǔn)確。其中,自動(dòng)化算法OSTU與Kernel graph cuts由于缺少對(duì)腫塊的形態(tài)建模,受圖像背景影響較大,因此往往產(chǎn)生錯(cuò)誤分割。半自動(dòng)化算法Region grow與Level set需要手工設(shè)置初始位置,效果較好。本文算法綜合了兩種視覺(jué)加工方式,對(duì)腫塊區(qū)域及背景區(qū)域分別建模,是一種全自動(dòng)化的分割方法,相比其他流行的分割算法,取得了最佳的分割效果。
表2 腫塊分割結(jié)果量化比較Tab.2 Quantifying the segmentation results of breast masses
本文實(shí)驗(yàn)存在兩個(gè)關(guān)鍵參數(shù),一個(gè)是初始視覺(jué)塊大小參數(shù),另一個(gè)是全局分割形式化表示中的數(shù)據(jù)項(xiàng)與平滑能量項(xiàng)權(quán)重參數(shù)γ,因此本文設(shè)計(jì)了如下實(shí)驗(yàn)測(cè)試參數(shù)對(duì)算法的影響。如圖2所示,初始視覺(jué)塊是本文分割算法的基礎(chǔ),不難發(fā)現(xiàn),初始視覺(jué)塊太小難以確定視覺(jué)塊的紋理特征,而初始視覺(jué)塊過(guò)大(大于實(shí)際腫塊)則無(wú)法準(zhǔn)確分割邊緣,因此在實(shí)驗(yàn)中選擇了折中的視覺(jué)塊大小區(qū)間(20~100),然后在整個(gè)數(shù)據(jù)集上展開(kāi)實(shí)驗(yàn),計(jì)算分割結(jié)果的平均值,圖6顯示了上述4種評(píng)價(jià)指標(biāo)的變化曲線。由圖6可知,本文算法對(duì)初始視覺(jué)塊的大小并不敏感,各項(xiàng)指標(biāo)差異均較小。主要因?yàn)樗惴ㄔ诔跏家曈X(jué)塊劃分的基礎(chǔ)上,利用圖像的局部紋理特征進(jìn)行了視覺(jué)塊的合并,因此初始視覺(jué)塊大小的變化對(duì)最終的腫塊分割結(jié)果影響不大,經(jīng)過(guò)局部紋理特征合并后的視覺(jué)塊將作為最終全局分割的重要基礎(chǔ),當(dāng)視覺(jué)塊過(guò)大時(shí),容易產(chǎn)生腫塊位置定位錯(cuò)誤、腫塊邊緣分割困難等問(wèn)題,因此在實(shí)施過(guò)程中不宜設(shè)置過(guò)大的初始視覺(jué)塊。
圖6 視覺(jué)塊大小對(duì)算法性能的影響Fig.6 The performance of our method based on different size of visual patches
文中1.3.1節(jié)面向全局特征的腫塊分割中,參數(shù)γ表示區(qū)域特性的數(shù)據(jù)項(xiàng)與平滑能量項(xiàng)的權(quán)重參數(shù),圖7為權(quán)重γ對(duì)算法性能的影響圖。如式(6)和圖7所示,γ的取值范圍為(0,1),γ值越大,表示數(shù)據(jù)項(xiàng)所占比重越大,反之亦然。由圖7可知,隨著數(shù)據(jù)項(xiàng)所占比例增加,平滑項(xiàng)比重減少,分割Dice逐步提高。當(dāng)γ在0.5附近時(shí),Dice系數(shù)取大值,與表2中數(shù)據(jù)結(jié)果一致。當(dāng)平滑項(xiàng)所占比重越來(lái)越小時(shí),分割Dice準(zhǔn)確率降低,而過(guò)分割率(Overseg)逐步增加,當(dāng)γ在0.9附近時(shí),召回率(Recall)和過(guò)分割率達(dá)到最大。因此可以得出結(jié)論,在本文算法中數(shù)據(jù)項(xiàng)較大程度上控制腫塊區(qū)域的分割,而平滑項(xiàng)對(duì)相鄰數(shù)據(jù)塊建模,控制了非腫塊區(qū)域的過(guò)分割性。
圖7 權(quán)重γ對(duì)算法性能的影響Fig.7 The performance of our method based on weight parameter γ
本文算法利用格式塔心理學(xué)規(guī)則,對(duì)圖像局部信息整合,形成視覺(jué)塊,具有較強(qiáng)的局部一致性,對(duì)噪聲不敏感。為了驗(yàn)證本文算法的魯棒性,為同一幅圖像增加了不同程度的高斯白噪聲,如圖8示,設(shè)置噪聲均值均為0,方差依次為0.001,0.005,0.01,即對(duì)同一圖像噪聲“污染”程度自左向右逐漸增加。圖中綠色線為分割“金標(biāo)準(zhǔn)”,紅色線為算法分割結(jié)果,以Dice系數(shù)評(píng)價(jià)分割結(jié)果。如圖8所示,本文算法對(duì)噪聲具有較好的魯棒性,在對(duì)比算法中,水平集算法和區(qū)域生長(zhǎng)算法需要人工干預(yù),但對(duì)噪聲較敏感,Kernel graph cuts算法對(duì)圖像3表現(xiàn)最好,而圖像1和圖像2分割結(jié)果欠佳,算法不夠穩(wěn)定,OSTU算法在各個(gè)圖像上均表現(xiàn)不好,增加的噪聲嚴(yán)重影響了OSTU算法的分割準(zhǔn)確率。與其他算法相比,本文算法的腫塊分割結(jié)果受噪聲影響不大,由于本文算法以視覺(jué)塊作為基本處理單元,均勻的白噪聲消減了腺體組織的邊緣效應(yīng),因此在某些情況下,腫塊的分割效果反而會(huì)變好(圖8(e3))。本文算法從圖像底層特征出發(fā),以視覺(jué)塊為認(rèn)知單元,是一種簡(jiǎn)單有效的局部一致性表達(dá),對(duì)噪聲具有較強(qiáng)的抗干擾性。
圖8 不同噪聲下的腫塊分割Fig.8 The segmentation performance of methods based on different noise images
以500*417大小的乳腺圖像為例,統(tǒng)計(jì)各算法運(yùn)行效率。如表3所示,本文將算法執(zhí)行時(shí)間分為分割時(shí)間與其他時(shí)間。其他時(shí)間在區(qū)域生長(zhǎng)算法與水平集算法中,指手工初始化時(shí)間,在本文算法中指紋理特征提取時(shí)間(1.2.2節(jié))。水平集算法需要多次迭代,因此時(shí)間代價(jià)往往較大,OSTU算法最簡(jiǎn)單,但分割效果最差。其他3個(gè)算法分割時(shí)間效率相當(dāng),其中本文算法需要一定的紋理提取時(shí)間,該部分不涉及腫塊分割,可離線完成,作為自動(dòng)化的腫塊分割方法,本文算法的運(yùn)行效率較高。
由上文可知,本文算法可細(xì)分成3個(gè)部分:視覺(jué)塊形成,“自下而上”的視覺(jué)塊合并,“自上而下”的腫塊分割。以500*417大小的乳腺圖像為例,分別統(tǒng)計(jì)其執(zhí)行時(shí)間,結(jié)果如圖9所示。其中視覺(jué)塊生成需要的時(shí)間最長(zhǎng),約0.729s,分割總計(jì)時(shí)間約0.935s,由于視覺(jué)塊合并后,算法的處理單元大大減少,因此相比傳統(tǒng)的圖割算法,本文算法效率具有較大提升。
表3 腫塊分割運(yùn)行時(shí)間比較
Tab.3 Process duration of mass segmentation for different methods s
圖9 本文算法分割時(shí)間分解Fig.9 The execution time for each steps of our method
針對(duì)X線圖像乳腺腫塊分割困難的問(wèn)題,本文提出了一種基于格式塔認(rèn)知框架的自動(dòng)化乳腺腫塊分割方法。該方法對(duì)格式塔心理學(xué)規(guī)則建模,模擬了人類(lèi)視覺(jué)特點(diǎn)。以視覺(jué)塊作為基本處理單元,一方面,從底層圖像特征出發(fā),利用圖像局部一致性進(jìn)行視覺(jué)塊合并,簡(jiǎn)化圖像;另一方面,從全局特征出發(fā),提出了基于視覺(jué)塊的腫塊分割任務(wù)的形式化表達(dá),最小化能量函數(shù)獲取腫塊分割結(jié)果。實(shí)驗(yàn)結(jié)果表明,相比其他幾種流行的圖像分割算法,本文方法取得了更好的分割效果,以視覺(jué)塊作為處理單元不但降低了計(jì)算量,提高了執(zhí)行效率,而且對(duì)噪聲具有較強(qiáng)的魯棒性。
然而,本文算法也有一定的局限性,對(duì)于腫塊亮度較低、貼近圖像邊緣的微小腫塊分割存在困難。此外,本文算法只是對(duì)復(fù)雜人類(lèi)視覺(jué)的簡(jiǎn)單模擬,進(jìn)一步的算法改進(jìn)仍有待探索。
[1] DESANTIS C, MA J, BRYAN L, et al. Breast cancer statistics, 2013[J].CA: A Cancer Journal for Clinicians, 2014, 64(1):52-62.
[2] ACHO S N, RAE W I D. Interactive breast mass segmentation using a convex active contour model with optimal threshold values[J]. Physica Medica, 2016, 32(10): 1352-1359.
[3] MIN H, CHANDRA S S, DHUNGEL N, et al. Multi-scale mass segmentation for mammograms via cascaded random forests[C]∥IEEE International Symposium on Biomedical Imaging. IEEE, 2017:113-117.
[4] SAJEEV S, BAJGER M, LEE G. Segmentation of breast masses in local dense background using adaptive clip limit-CLAHE[C]∥International Conference on Digital Image Computing: Techniques and Applications. IEEE, 2017:1-8.
[5] 呂澤華, 趙盛榮, 梁虎,等. 基于Gmac模型的乳腺腫塊分割算法[J]. 電子學(xué)報(bào), 2014, 42(2):398-404.
[6] JIAO S, LI X, LU X. An improved OSTU method for image segmentation[C]∥International Conference on Signal Processing. IEEE, 2006:164-166.
[7] BERBER T, ALPKOCAK A, BALCI P, et al. Breast mass contour segmentation algorithm in digital mammograms[J]. Computer Methods and Programs in Biomedicine, 2013, 110(2): 150-159.
[9] WANG Y, TAO D, GAO X, et al. Mammographic mass segmentation: Embedding multiple features in vector-valued level set in ambiguous regions[J]. Pattern Recognition, 2011, 44(9): 1903-1915.
[10] OLIVER A, FREIXENET J, MARTI J, et al. A review of automatic mass detection and segmentation in mammographic images[J]. Medical Image Analysis, 2010, 14(2): 87-110.
[11] ELMORE J G, WELLS C K, LEE C H, et al. Variability in radiologists′ interpretations of mammograms[J]. New England Journal of Medicine, 1994, 331(22): 1493-1499.
[12] BHATNAGAR G, WU Q M J, LIU Z. Human visual system inspired multi-modal medical image fusion framework[J].Expert Systems with Applications,2013,40(5):1708-1720.
[14] 孫鵬. 淺析格式塔心理學(xué)與視知覺(jué)[J].科教文匯(中旬刊), 2009(1):285-285.
[15] ZHU H, MENG F, CAI J, et al. Beyond pixels: A comprehensive survey from bottom-up to semantic image segmentation and cosegmentation[J]. Journal of Visual Communication and Image Representation, 2015, 34(2): 12-27.
[16] PASTUKHOV A. First, you need a Gestalt: An interaction of bottom-up and top-down streams during the perception of the ambiguously rotating human walker[J]. Scientific Reports, 2017, 7(1):1158.
[17] PELTONEN H. Constructivism, Cognition, and Duality[J]. ERIS-European Review of International Studies, 2017, 3(3):70-86.
[18] LI P, FENG J, BU Q R, et al. Multi-object segmentation for abdominal CT image based on visual patch classification[C]∥CCF Chinese Conference on Computer Vision.Heidelberg:Springer, 2015:130-138.
[19] LI Y, CHEN H, ROHDE G K, et al. Texton analysis for mass classification in mammograms[J]. Pattern Recognition Letters, 2015, 52(C):87-93.
[20] RANTALANKILA P, KANNALA J, RAHTU E. Generating object segmentation proposals using global and local search[C]∥Computer Vision and Pattern Recognition. IEEE, 2014:2417-2424.
[21] JIAN M, JUNG C. Interactive image segmentation using adaptive constraint propagation[J]. IEEE Transactions on Image Processing, 2016, 25(3): 1301-1311.
[22] ZHANG H, XU N, XU F, et al. Graph cut based clustering for cognitive radio ad hoc networks without common control channels[J]. Wireless Networks, 2016,22:1-13.
[23] MOREIRA I C, AMARAL I, DOMINGUES I, et al. INbreast: Toward a full-field digital mammographic database.[J]. Academic Radiology, 2012, 19(2):236-248.
[24] PETRICK N, CHAN H P, SAHINER B, et al. Combined adaptive enhancement and region-growing segmentation of breast masses on digitized mammograms[J]. Medical Physics, 1999, 26(8):1642-1654.
[25] YU Y, QU Y, HAN Y, et al. Adaptive distance regularized level set method and its application to image segmentation[C]∥International Conference on Intelligent Human-Machine Systems and Cybernetics. IEEE, 2013:388-391.
[26] BEN S M, MITICHE A, BEN A I. Multiregion image segmentation by parametric kernel graph cuts[J]. IEEE Transactions on Image Processing A Publication of the IEEE Signal Processing Society, 2011, 20(2):545.