劉國(guó)奇,蔣 優(yōu),常寶方,茹琳媛,宋一帆,李旭升
河南師范大學(xué) 計(jì)算機(jī)與信息工程學(xué)院,河南 新鄉(xiāng) 453007
圖像分割是圖像處理中重要的步驟之一,是模式識(shí)別和圖像分析的重要工具[1]。傳統(tǒng)的圖像分割不能得到自然的分割效果,但是主動(dòng)輪廓模型(active contour model,ACM)可以綜合考慮與圖形內(nèi)容有關(guān)的約束條件,通過(guò)定義能量函數(shù),獲得更加自然的分割結(jié)果,因此它在圖像分割領(lǐng)域應(yīng)用范圍較廣。根據(jù)模型的構(gòu)造形式可以將模型分為兩類:基于邊緣的主動(dòng)輪廓模型[2-4]和基于區(qū)域的主動(dòng)輪廓模型[5-8]?;谶吘壍闹鲃?dòng)輪廓模型依靠圖像邊緣信息控制曲線演化,在目標(biāo)邊界處,曲線停留在目標(biāo)邊界。由于這些模型依賴圖像梯度,因此對(duì)噪聲敏感?;趨^(qū)域的主動(dòng)輪廓模型利用曲線內(nèi)外的統(tǒng)計(jì)信息來(lái)構(gòu)造能量函數(shù)并驅(qū)使輪廓演化[8-9]。基于區(qū)域的主動(dòng)輪廓模型通常分為基于全局信息的主動(dòng)輪廓模型和基于局部信息的主動(dòng)輪廓模型。
CV(Chan-Vese)模型是基于全局的主動(dòng)輪廓模型,該方法基于Mumford-Shah(M-S)模型,將分割問(wèn)題轉(zhuǎn)化為能量函數(shù)最小化問(wèn)題[10-11]。由于CV模型中假設(shè)每個(gè)區(qū)域的灰度是均勻分布,導(dǎo)致目標(biāo)邊緣較弱時(shí)該模型容易出現(xiàn)邊界泄漏[12]。為改進(jìn)此問(wèn)題,Zhi等[13]提出基于顯著性驅(qū)動(dòng)的區(qū)域邊緣水平集模型(saliency driven region-edge-based level,SDREL)。SDREL模型在CV模型的基礎(chǔ)上加入邊緣檢測(cè)函數(shù),同時(shí)引入顯著性映射提高模型提取目標(biāo)的能力。由于SDREL模型依賴顯著項(xiàng),因此SDREL模型對(duì)灰度不均勻圖像分割結(jié)果不理想?;诰植啃畔⒌腁CM利用了更多圖像細(xì)節(jié),能夠改善灰度不均勻圖像的分割。Li等[14]利用局部強(qiáng)度聚類的方法來(lái)分割強(qiáng)度不均勻圖像(local intensity clustering,LIC)。LIC模型利用圖像強(qiáng)度不均勻的特性定義能量函數(shù),能同時(shí)分割圖像域和估計(jì)偏置場(chǎng),估計(jì)偏置場(chǎng)用于強(qiáng)度不均性的校正。由于每次水平集迭代都需要進(jìn)行估計(jì)偏置場(chǎng),因此輪廓演化速度較慢。Huang等[15]利用自適應(yīng)尺度參數(shù)快速(fast level set with adaptive scale,F(xiàn)LSAS)分割不均勻圖像。FLSAS模型結(jié)合LIC模型和Zhang[16]模型,推導(dǎo)出最優(yōu)分割平面,并引入了新的自適應(yīng)尺度參數(shù)用來(lái)精確估計(jì)偏置場(chǎng)。該模型提高了LIC模型的輪廓演化速度,但FLSAS模型在復(fù)雜圖像背景下的分割不夠精確。此外,ACM在提取目標(biāo)的過(guò)程中,普遍存在目標(biāo)過(guò)分割現(xiàn)象。因此Liu等[17]通過(guò)設(shè)置目標(biāo)個(gè)數(shù)K在曲線演化時(shí)消除分割冗余區(qū)域,減少目標(biāo)過(guò)分割現(xiàn)象,但是該模型的目標(biāo)個(gè)數(shù)K為先驗(yàn)信息。
基于全局信息的ACM不能利用圖像細(xì)節(jié)信息,容易忽略目標(biāo)弱邊緣信息,因此輪廓在演化過(guò)程中易陷入局部最優(yōu)產(chǎn)生過(guò)分割?;诰植啃畔⒌腁CM通過(guò)原始圖像與高斯核函數(shù)的卷積來(lái)計(jì)算局部信息可以提升模型在噪聲、灰度不均勻和弱邊緣圖像上的分割精度,但是該類模型對(duì)參數(shù)和初始輪廓位置敏感,且在演化過(guò)程中每一次迭代都需要進(jìn)行卷積運(yùn)算,影響輪廓的演化速度。
針對(duì)主動(dòng)輪廓模型存在的對(duì)初始輪廓位置、弱邊緣和噪聲敏感以及目標(biāo)過(guò)分割問(wèn)題,本文提出了融合顯著性特征的自適應(yīng)主動(dòng)輪廓模型(ASF)。ASF方法的框架圖,如圖1所示,總結(jié)如下:
圖1 ASF方法框架圖Fig.1 Framework diagram of ASF method
(1)提出基于去霧算法的顯著性映射,來(lái)提高目標(biāo)和背景的特征對(duì)比度,防止輪廓演化過(guò)程中陷入局部最優(yōu)。
(2)利用最大面積稀疏約束,解決了正交匹配追蹤算法(orthogonal matching pursuit,OMP)對(duì)先驗(yàn)信息K的依賴,消除輪廓演化后產(chǎn)生的過(guò)分割區(qū)域,實(shí)現(xiàn)自適應(yīng)目標(biāo)提取。
(3)在CV模型上融入了圖像顯著信息作為能量模型的增強(qiáng)項(xiàng),減弱噪聲對(duì)目標(biāo)提取的影響。同時(shí)為了防止輪廓過(guò)收斂,使用邊緣檢測(cè)因子作為模型能量項(xiàng)的權(quán)重。
(4)在包含傳統(tǒng)圖像和灰度不均勻圖像的MSRA500數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),驗(yàn)證了ASF模型分割效果的較穩(wěn)健。
本文中定義圖像區(qū)域?yàn)棣?,圖像區(qū)域水平集泛函為φ,Ω0(φ=0)為零水平集區(qū)域,Ωin(φ<0),Ωout(φ>0)分別為零水平集Ω0的內(nèi)部和外部區(qū)域。
CV采用Mumford-Shah函數(shù)的主動(dòng)輪廓模型來(lái)分割目標(biāo)[11],該模型中的能量函數(shù)E(φ)表示為:
其中,u0為原始圖像,Length(C)和Area(C)分別為曲線C的長(zhǎng)度和內(nèi)部面積,μ、ν是曲線C的長(zhǎng)度和面積權(quán)重,λi是圖像擬合項(xiàng)的權(quán)重,C1和C2分別代表曲線C內(nèi)部和外部的平均像素灰度值。
在保持C1和C2不變的情況下,對(duì)公式(1)進(jìn)行梯度下降法求導(dǎo)可得到水平集公式(2):
其中,δε(x)是Heaviside函數(shù)[11]的導(dǎo)數(shù)Dirac函數(shù),其近似表達(dá)式為:
上述公式中ε是常量。
CV模型利用公式(2)作為目標(biāo)函數(shù)對(duì)圖像全局強(qiáng)度信息進(jìn)行擬合,在處理過(guò)程中能夠分割目標(biāo)梯度無(wú)定義的圖像。但CV模型受圖像灰度方差信息影響較大,難以分割物體與背景強(qiáng)度相似的圖像。
文獻(xiàn)[13]提出的SDREL模型利用顯著性映射并結(jié)合圖像區(qū)域及邊緣信息提出新的能量模型,加快了曲線的演化速度。該模型的能量函數(shù)E表示為:
其中,α、β、μ、ν是為能量項(xiàng)的權(quán)重,g代表邊緣檢測(cè)函數(shù),C1和C2分別代表原始圖曲線C內(nèi)部和外部的平均像素灰度值,s1和s2分別代表顯著圖曲線C內(nèi)部和外部的平均像素灰度值。Dis(C)表示C與符號(hào)距離之間的差異。公式(4)中I0為顯著圖,定義為:
其中,Iu是原始圖像的平均灰度值,IG是被高斯卷積的模糊圖。
SDREL模型加快了輪廓的演化速度,但該模型依賴顯著信息受圖像灰度方差影響較大,當(dāng)圖像背景復(fù)雜或背景與目標(biāo)灰度值接近時(shí),該模型會(huì)把背景區(qū)域信息作為顯著信息導(dǎo)致輪廓演化時(shí)陷入局部最優(yōu)。
SDREL模型雖然加快了輪廓模型的演化速度,但該模型對(duì)初始輪廓位置敏感。而且多種模型普遍存在目標(biāo)過(guò)分割現(xiàn)象,如圖2(b)所示目標(biāo)過(guò)分割現(xiàn)象是曲線會(huì)把非目標(biāo)區(qū)域作為目標(biāo)影響分割精度。本文提出新的能量函數(shù)克服上述問(wèn)題,并進(jìn)一步提升了輪廓模型演化速度,而且利用面積稀疏約束消除目標(biāo)過(guò)分割。
圖2 目標(biāo)過(guò)分割現(xiàn)象Fig.2 Target over-segmentation
提高圖像目標(biāo)和背景特征的差異,能夠使活動(dòng)輪廓更好的提取目標(biāo)。在經(jīng)典的CV能量函數(shù)基礎(chǔ)上,本文提出的圖像增強(qiáng)能量項(xiàng)Est可以增強(qiáng)目標(biāo)特征、減弱背景和噪聲特征,能量函數(shù)E(φ)表示為:
其中,Est為圖像增強(qiáng)能量項(xiàng),Ecv為CV保真能量項(xiàng)主要用于保護(hù)目標(biāo)弱邊界,Ereg為正則能量項(xiàng),用于約束水平集演化曲線,U為稀疏約束。
2.1.1 圖像增強(qiáng)能量項(xiàng)Est
圖像增強(qiáng)可以提升目標(biāo)特征和背景特征的對(duì)比度,突出目標(biāo)特征;顯著性映射可以消除灰度不均勻區(qū)域?qū)Ψ指钣绊?,使曲線快速定位到目標(biāo)區(qū)域,加快輪廓演化。因此,本文提出基于圖像增強(qiáng)的顯著性映射檢測(cè),提出了公式(6)中的圖像增強(qiáng)能量項(xiàng)Est:
其中,β1和β2分別是水平集函數(shù)φ內(nèi)部和外部的權(quán)重,S是增強(qiáng)圖像,Hε(φ)是Heaviside函數(shù)[11],g為邊緣檢測(cè)函數(shù),表達(dá)式為:
其中,I為輸入圖像,?為梯度算子,Gσ是標(biāo)準(zhǔn)偏差為σ的高斯核。
公式(7)中s1和s2分別代表增強(qiáng)圖像S水平集φ內(nèi)部區(qū)域Ωin和外部區(qū)域Ωout的灰度平均值,其表達(dá)式分別為:
其中,H1=Hε,H2=1-Hε,Hε是Heaviside[11]函數(shù)。
在公式(7)中,增強(qiáng)圖像S是經(jīng)過(guò)顯著性映射檢測(cè)得到,顯著性映射檢測(cè)是計(jì)算機(jī)視覺(jué)中一項(xiàng)重要研究?jī)?nèi)容[18],顯著圖中的目標(biāo)具有更高信噪比更易于被檢測(cè)出來(lái)[19]。顯著性映射公式可表示為:
其中,S即為公式(7)的增強(qiáng)圖像,x是圖像中的像素點(diǎn),JG是圖像J的平均像素灰度值,IG是圖像J高斯濾波模糊后的圖像,表達(dá)式為:
其中,Gτ是一個(gè)標(biāo)準(zhǔn)差為τ的高斯核。圖像J是利用去霧算法[20]得到的無(wú)霧圖像。
文獻(xiàn)[20]是基于暗通道先驗(yàn)的圖像去霧算法,它認(rèn)為在無(wú)霧圖像中每一個(gè)局部區(qū)域都有可能會(huì)有陰影和單色調(diào)的東西。因此每個(gè)區(qū)域很有可能有至少一個(gè)顏色通道會(huì)有很低的值。暗通道先驗(yàn)就是取每個(gè)像素點(diǎn)對(duì)應(yīng)的三個(gè)通道中最小值作為像素點(diǎn)x的暗通道的值(如圖3所示)。
圖3 原始圖像I經(jīng)過(guò)暗通道先驗(yàn)處理得到圖像JFig.3 I image becoming J by dark channel prior
為了說(shuō)明暗通道先驗(yàn)和顯著性結(jié)合的必要性,本文進(jìn)行模擬實(shí)驗(yàn)如圖4所示。
圖4 暗通道先驗(yàn)和顯著性的結(jié)合Fig.4 Combination of dark channel prior and saliency
I1是圖像I的R通道的灰度值,假設(shè)紅色是目標(biāo)區(qū)域,I1通過(guò)顯著性映射得到目標(biāo)區(qū)域?yàn)楹谏糠?;?duì)I2(G通道)和I3(B通道)進(jìn)行相同處理,從圖4看出無(wú)論哪個(gè)通道通過(guò)顯著性檢測(cè)得到的目標(biāo)區(qū)域不完整。如果對(duì)I1、I2和I3進(jìn)行暗通道先驗(yàn)處理得到重組圖像J,然后對(duì)圖像J進(jìn)行顯著性檢測(cè)得到的目標(biāo)區(qū)域與假設(shè)的區(qū)域相同。
在實(shí)際生活中由于物體成像受光照強(qiáng)度的影響,導(dǎo)致物體成像的過(guò)程中變成灰度不均勻圖像,因此在計(jì)算機(jī)視覺(jué)中無(wú)霧圖像的模型與大氣光成分有關(guān):
其中,I為原始圖像,J是待恢復(fù)的無(wú)霧圖像,A是大氣光成分,t是透射率:
其中,ι為常數(shù),zmax是圖像I的最大灰度值,I(x)為圖像I像素點(diǎn)低通道值。公式(14)中κ在本文所有實(shí)驗(yàn)中的值為0.95。通過(guò)公式(11)~(14)可以得到增強(qiáng)圖像S,如圖5(c)所示。
圖5 增強(qiáng)圖S的可視化Fig.5 Enhancing visualization of Figure S
2.1.2 CV能量增強(qiáng)能量項(xiàng)Ecv
Ecv作為公式(6)的保真能量項(xiàng),它通過(guò)統(tǒng)計(jì)原始圖像的灰度信息,防止曲線演化過(guò)程中目標(biāo)弱邊緣被忽略。Ecv定義如下:
其中,ε是常數(shù),Hε(φ)是Heaviside函數(shù),φ是水平集泛函,I是原始圖像,g為邊緣檢測(cè)函數(shù),C1和C2分別代表原始圖像I水平集φ內(nèi)部區(qū)域Ωin和外部區(qū)域Ωout的平均灰度值,表達(dá)式為:
2.1.3 正則項(xiàng)Ereg
公式(6)中Ereg是水平集演化的正則項(xiàng)是為了保證水平集演化的穩(wěn)定性,正則項(xiàng)包含長(zhǎng)度正則項(xiàng)和梯度正則項(xiàng),在本文中定義為:
公式(17)中L(φ)是輪廓的長(zhǎng)度正則項(xiàng),P(φ)是水平集φ與符號(hào)距離之間的差異,表達(dá)式為:
基于區(qū)域的主動(dòng)輪廓模型進(jìn)行圖像分割普遍存在目標(biāo)過(guò)分割現(xiàn)象,目標(biāo)過(guò)分割區(qū)域可以當(dāng)成分割冗余,為了消除冗余區(qū)域,保留目標(biāo)區(qū)域常用正交匹配追蹤算法(OMP),OMP算法對(duì)圖像進(jìn)行K稀疏逼近,但是稀疏度K(即圖像中的目標(biāo)個(gè)數(shù))為先驗(yàn)信息。
本文提出自適應(yīng)目標(biāo)提取方法。該方法可以解決OMP算法對(duì)稀疏度K的依賴。本文定義經(jīng)過(guò)輪廓演化得到圖像U是一個(gè)線性組合,表達(dá)式為:
其中,D為連通區(qū)域,K為n維矩陣,因此公式(20)被重寫為:
公式(21)中ki=1,i∈[1,n],ui表示圖像U中第i個(gè)連通區(qū)域。自適應(yīng)目標(biāo)提取通過(guò)面積約束S=max(S(ui))/χ(其中χ為常數(shù))來(lái)消除分割冗余區(qū)域,保留目標(biāo)區(qū)域。通過(guò)自適應(yīng)目標(biāo)提取得到的圖像Y表示:
其中,kN=1 or 0,如果Sun3 數(shù)值求解與算法步驟分析
3.1 能量函數(shù)數(shù)值求解
使用水平集解來(lái)表示C,即C是水平集泛函φ的零水平集,因此利用Euler-Lagrange方程[11]和梯度下降方法將關(guān)于φ的能量公式(6)最小化:
由于基于全局信息的ACM利用曲線C內(nèi)外的平均灰度值來(lái)驅(qū)使輪廓演化,因此該類ACM存在對(duì)初始輪廓位置敏感、弱邊緣泄露問(wèn)題?;诰植啃畔⒌腁CM能夠提升模型對(duì)弱邊緣分割能力,但是該類ACM對(duì)噪聲和初始輪廓位置敏感?;旌螦CM繼承了基于全局信息和基于局部信息ACM的優(yōu)點(diǎn),但是模型的分割效率較低。
針對(duì)上述問(wèn)題的研究。提出了ASF模型,該模型的算法流程圖如圖6所示。
圖6 ASF算法流程圖Fig.6 Algorithm flow image of ASF
通過(guò)與其他模型對(duì)比來(lái)驗(yàn)證ASF模型分割的穩(wěn)健性,對(duì)比方法為:基于全局信息的主動(dòng)輪廓模型CV[10]和SDREL[13];基于局部信息的主動(dòng)輪廓模型LIC[14]和FLSAS[15],以及混合主動(dòng)輪廓模型GLSEPF[21],其中CV和LIF分別是基于全局信息ACM和基于局部信息ACM的經(jīng)典模型,據(jù)本文所知,它們經(jīng)常作為對(duì)比模型出現(xiàn)在文獻(xiàn)中。ASF模型是受結(jié)合圖像顯著信息的SDERL模型啟發(fā)提出的,且SDERL模型,F(xiàn)LSAS模型和GLSEP模型都是近三年提出的模型,尤其是GLSEP是2020年提出的模型。實(shí)驗(yàn)編程環(huán)境為MATLAB2019a,機(jī)器配置為:處理器Intel Core i5-3470 CPU@3.20 GHz、內(nèi)存4.00 GB。其中,CV使用的實(shí)驗(yàn)參數(shù),μ=0.1。在GLSEPF中,ν=10。在SDREL中,λ1=λ2=0.01,α1=α2=0.05。在LIC中,μ=0.001×2552,μ=1,σ=4。在FLSAS中,μ=0.001×2552,σ=0.9。提出模型α1=α2=1,β1=β2=1,τ=3和σ=3。
基于全局信息的主動(dòng)輪廓模型CV[10]和SDREL[13]、基于局部信息的活動(dòng)輪廓模型LIC[14]和FLSAS[15]、混合主動(dòng)輪廓模型GLSEPF[21],以及ASF模型對(duì)自然圖像的分割結(jié)果如圖7所示,對(duì)灰度不均勻圖像分割的結(jié)果如圖8所示。并通過(guò)在MRASA500[22]數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),驗(yàn)證了模型的穩(wěn)健性。
圖7 自然圖像的分割結(jié)果Fig.7 Segmentation results of natural image
圖8 灰度不均勻圖像的分割結(jié)果Fig.8 Segmentation results of intensity inhomogeneity image
CV利用原始圖像的全局信息來(lái)驅(qū)使輪廓演化,它假設(shè)每個(gè)區(qū)域的圖像強(qiáng)度在統(tǒng)計(jì)上是均勻分布的。由于圖像目標(biāo)邊緣較弱時(shí),它該區(qū)域的灰度值較低,因此在曲線演化的過(guò)程中,會(huì)忽略目標(biāo)邊緣較弱的區(qū)域,如圖7第三列和圖8第五列所示。而且當(dāng)目標(biāo)和背景的灰度相似時(shí),CV模型會(huì)誤把背景當(dāng)做目標(biāo)保留下來(lái),如圖8第四列所示,嚴(yán)重影響模型的分割精度。GLSEPF模型通過(guò)自適應(yīng)參數(shù)來(lái)平衡全局符號(hào)壓力函數(shù)(GSEPF)和局部符號(hào)距離壓力函數(shù)(LSEPF)的權(quán)重以驅(qū)使輪廓的演化。由于GLSEPF模型自適應(yīng)權(quán)重不夠精確而易陷入局部最優(yōu)解,當(dāng)全局信息的權(quán)重過(guò)大時(shí),對(duì)灰度不均勻圖像分割效果較差,如圖8第一列和第二列。SDREL模型在CV能量函數(shù)上加入顯著性映射,雖提高了分割速度但是該顯著性檢測(cè)方法較為局限,對(duì)嚴(yán)重灰度不均勻圖像分割效果不夠理想,如圖8第三列到第五列。LIF是通過(guò)水平集演化和估計(jì)偏置場(chǎng)交錯(cuò)提出的能量模型,該模型提高了對(duì)灰度不均圖像的分割效果,如圖8第五列所示,由于模型利用過(guò)多的圖像細(xì)節(jié)信息,因此該模型對(duì)噪聲的魯棒性較差,如圖8第七列。FLSAS結(jié)合LIC模型和Zhang模型[16]提出基于估計(jì)偏置場(chǎng)構(gòu)造的符號(hào)壓力函數(shù)模型,該模型對(duì)弱邊界圖像和簡(jiǎn)單目標(biāo)圖像具有較佳分割效果,如圖7第三列,當(dāng)目標(biāo)和背景灰度值相似時(shí)也能達(dá)到很好的效果,如圖8第五列。但該模型利用圖像局部信息來(lái)驅(qū)使曲線演化,因此在分割圖像背景較為復(fù)雜的情況下效果不理想,如圖7第四列。
通過(guò)改進(jìn)顯著性檢測(cè),并結(jié)合CV模型和最大面積約束提出了ASF模型,該模型具有以下優(yōu)點(diǎn):
(1)ASF模型不僅繼承了CV模型的優(yōu)點(diǎn),而且利用顯著性映射,進(jìn)一步提升了模型對(duì)噪聲的魯棒性,如圖9所示。
圖9 噪聲圖像的分割結(jié)果Fig.9 Segmentation results of noise image
(2)ASF模型通過(guò)基于去霧算法的顯著性映射,提升了目標(biāo)特征和背景特征的對(duì)比度,因此該模型可以提高灰度不均圖像目標(biāo)特征和背景特征的差異,從而達(dá)到更好的分割效果,如圖8所示。而且基于去霧算法的顯著性映射,還能更好地突出目標(biāo)弱邊緣的特征,因此ASF模型對(duì)目標(biāo)較弱邊緣的提取能力較佳,如圖7第三列和圖8第五列所示。
(3)ASF模型利用最大面積稀疏約束來(lái)消除目標(biāo)過(guò)分割現(xiàn)象,提高了模型的分割精度,如圖7第六列和圖8第四列。
為驗(yàn)證提出模型對(duì)噪聲的魯棒性,圖9是六種模型在椒鹽環(huán)境下的分割結(jié)果。
從圖9第一行和圖9第三行中可以看出CV模型和LIC模型把噪聲點(diǎn)當(dāng)成目標(biāo);從圖9第一行和圖9第四行中可以看出SDREL模型把噪聲點(diǎn)當(dāng)成顯著信息;從圖9第一行可以看出,由于GLSEPF模型和FLSAS模型利用符號(hào)壓力函數(shù),因此這兩個(gè)模型在處理復(fù)雜背景圖像時(shí)受噪聲影響較大。
初始輪廓位置設(shè)置是輪廓演化的第一步。為驗(yàn)證提出模型對(duì)初始輪廓的魯棒性,本節(jié)對(duì)自然圖像、霧化圖像、椒鹽噪聲圖像分別設(shè)置不同的初始輪廓。由于ASF模型能夠更好地突出目標(biāo)特征的顯著信息,能夠使曲線快速定位到目標(biāo)周圍,對(duì)于不同類型的圖片,ASF模型在不同的初始輪廓下都提取到了完整的目標(biāo),如圖10所示。
圖10 提出模型在不同初始輪廓下的分割結(jié)果Fig.10 Segmentation results under different initial contours
為充分對(duì)比提出模型和其他模型的分割效果,本節(jié)使用Dice相似系數(shù)[17]和Jaccard相似系數(shù)來(lái)測(cè)量和評(píng)估實(shí)驗(yàn)的分割精度。Dice相似系數(shù)是度量?jī)蓚€(gè)集合的相似性,被定義為:
Jaccard相關(guān)系數(shù)被定義為:
其中,A和B分別是模型的分割結(jié)果和圖像的真值圖,Dice和Jaccard的值越接近1,則表示分割效果越好。
本節(jié)分別對(duì)圖7、圖8的分割結(jié)果進(jìn)行Dice和Jaccard度量,如圖11所示,并對(duì)所有測(cè)試圖像做均值處理得到表1。如表1所示ASF模型的平均Dice值達(dá)到0.99,平均Jaccard值達(dá)到0.92。
表1 分割結(jié)果的精度對(duì)比Table 1 Accuracy comparison of segmentation results
圖11 分割結(jié)果的精度測(cè)量Fig.11 Accuracy measurement of segmentation results
為驗(yàn)證ASF模型的分割效率,本節(jié)進(jìn)行演化時(shí)間對(duì)比實(shí)驗(yàn)。表2是圖7和圖8測(cè)試圖像的分割時(shí)間,由表2可以看出,在對(duì)比方法中SDREL模型的分割效率較高,因?yàn)樵撃P屠脠D像的顯著信息,在輪廓演化過(guò)程中讓曲線較快定位到目標(biāo)周圍,縮短了初始輪廓向目標(biāo)周圍移動(dòng)的時(shí)間,因此提升了模型的分割效率。在原始的顯著性映射上加入去霧算法,提出基于去霧算法和顯著性映射,提高目標(biāo)特征和背景特征的差異,更好地突出目標(biāo)特征的顯著信息,能夠使曲線快速定位到目標(biāo)周圍,且曲線離目標(biāo)的距離比SDREL模型的曲線與目標(biāo)的距離較精確,因此進(jìn)一步提升模型的分割效率,縮短輪廓的演化時(shí)間。表3是噪聲圖像分割的時(shí)間。表4表示CV、GLSEPF、SDREL、LIC、FLSAS和提出模型的對(duì)所有測(cè)試圖像分割的平均時(shí)間。本文模型演化時(shí)間比CV模型提升約6.0倍,比SDREL模型提升約2.2倍。
表2 6種圖像分割方法的輪廓演化時(shí)間Table 2 Contour evolution time of six image segmentation methods 單位:s
表3 分割噪聲圖像的輪廓演化時(shí)間Table 3 Contour evolution time of noise image單位:s
表4 輪廓演化時(shí)間對(duì)比Table 4 Contour evolution time comparison
注:1~5對(duì)應(yīng)圖9中的第一行到第五行。
為了驗(yàn)證ASF模型的有效性,本文通過(guò)對(duì)CV、GLSEPF、SDREL、LIC、FLSAS和提出的模型設(shè)置相同的初始輪廓,在數(shù)據(jù)集MSRA500[23]上進(jìn)行實(shí)驗(yàn)對(duì)比。如表5所示,第一行表示每個(gè)模型分割500張圖像的平均Dice值,第二行表示每個(gè)模型分割500張圖像的平均Jaccard值,第三行表示每個(gè)模型分割500張圖像的總時(shí)間。從表5可以計(jì)算出在數(shù)據(jù)集MSRA500上ASF模型比對(duì)比模型的平均Dice值提高了約21%,平均Jaccard值提高了約22%,而且平均分割效率提升了約5.6倍。
表5 通過(guò)在數(shù)據(jù)集MSRA500上的實(shí)驗(yàn)對(duì)比Table 5 Experimental comparison on data set MSRA500
考慮到模型參數(shù)對(duì)分割結(jié)果的影響,本節(jié)進(jìn)行了參數(shù)分析實(shí)驗(yàn)。在第2章公式(13)中可知是A大氣光成分,ι是控制A的大小。圖12(a)是初始輪廓位置,(b)、(d)、(f)是ι取值為800、500和200的圖像增強(qiáng)結(jié)果,(c)、(e)、(g)是ι不同取值的分割結(jié)果。圖12(a)第一行圖像的背景比較單一,當(dāng)ι取值為較小時(shí),即ι取值為200時(shí)會(huì)出現(xiàn)目標(biāo)欠分割現(xiàn)象,如圖12(g)第一行所示。圖12(a)中第二行圖像的背景比較復(fù)雜,當(dāng)ι取值為較大時(shí),即ι取值為800時(shí)會(huì)出現(xiàn)目標(biāo)欠分割現(xiàn)象,如圖12(c)第二行所示;當(dāng)ι取值為較小時(shí),即ι取值為200時(shí)會(huì)出現(xiàn)過(guò)分割現(xiàn)象,如圖12(g)第二行所示。圖12(a)中第三行是合成圖像,當(dāng)ι取值為較大時(shí),即ι取值為800和500時(shí)會(huì)出現(xiàn)過(guò)分割現(xiàn)象,如圖12(c)第三行和12(e)第三行所示。
圖12 分析不同圖像ι的取值Fig.12 Analyzing value of ι in different images
本節(jié)增加消融實(shí)驗(yàn)以進(jìn)一步展示圖像增強(qiáng)能量項(xiàng)對(duì)分割效果的影響,如圖13所示。圖13(a)是CV模型的分割結(jié)果,圖13(b)是輸入圖像通過(guò)去霧算法得到增強(qiáng)圖,圖13(e)是輸入圖像經(jīng)過(guò)顯著性映射得到增強(qiáng)圖。在目標(biāo)提取的過(guò)程中,由于增強(qiáng)圖的局部特征會(huì)影響輪廓的演化方向,使能量函數(shù)陷入局部最優(yōu)。因此得到不精確的分割結(jié)果圖13(f)和圖13(i)。
圖13 消融實(shí)驗(yàn)Fig.13 Ablation experiment
由于顯著性映射能夠更加突出目標(biāo)特征,因此可以通過(guò)顯著性映射忽略圖13(b)增強(qiáng)圖中的背景特征,最終得到增強(qiáng)圖(f)。通過(guò)消融實(shí)驗(yàn)的分析,可以證實(shí)結(jié)合去霧算法和顯著映射可以提高ASF模型對(duì)圖像的分割精度。
本文在CV基礎(chǔ)上提出融合顯著性特征的自適應(yīng)主動(dòng)輪廓模型用于圖像分割。該模型結(jié)合了去霧算法和顯著性檢測(cè),加快了輪廓演化速度,防止輪廓過(guò)早陷入局部最優(yōu);使用邊緣檢測(cè)函數(shù)做CV保真能量項(xiàng)和增強(qiáng)能量項(xiàng)的權(quán)重,構(gòu)造一個(gè)新的能量函數(shù);為了防止目標(biāo)過(guò)分割,提出自適應(yīng)目標(biāo)提取方法。最后通過(guò)實(shí)驗(yàn)對(duì)比,驗(yàn)證了該模型相較于對(duì)比模型具有更快的演化速度,對(duì)初始輪廓位置、弱邊緣和噪聲具有更強(qiáng)的魯棒性。