張文杰,熊慶宇
(1.重慶大學(xué) 自動(dòng)化學(xué)院,重慶400030;2.重慶大學(xué) 軟件學(xué)院,重慶401331)
視覺(jué)顯著性是神經(jīng)學(xué)、心理學(xué)、神經(jīng)系統(tǒng)和計(jì)算機(jī)視覺(jué)的一個(gè)基本問(wèn)題[1]。視覺(jué)顯著性是視覺(jué)感知能力的體現(xiàn),它使被感知對(duì)象(或區(qū)域)更加突出地顯示出來(lái)。同時(shí)Gestalt原理指出:人類視覺(jué)一般只關(guān)注場(chǎng)景中的一個(gè)或幾個(gè)中心區(qū)域,而對(duì)于中心區(qū)域以外的背景區(qū)域關(guān)注程度較低。圖像顯著性檢測(cè)的主要任務(wù)是估計(jì)圖像中的這些中心區(qū)域,保證中心區(qū)域的顯著性高于背景區(qū)域的顯著性,其相關(guān)檢測(cè)技術(shù)在基于內(nèi)容的圖像檢索[2-3]、目標(biāo)識(shí)別[4]、圖 像 分 割[5]等 領(lǐng) 域 都 具 有 廣泛的研究及應(yīng)用價(jià)值。
圖像顯著性檢測(cè)方法可以歸結(jié)為基于任務(wù)驅(qū)動(dòng)、自上向下的算法[6-7]和基于數(shù)據(jù)驅(qū)動(dòng)、自下而上的方法[8-19]兩類。自上向下的方法重點(diǎn)研究特定某一類的顯著對(duì)象,其圖像的顯著特征需要一個(gè)較大規(guī)模且包含特定對(duì)象的數(shù)據(jù)集通過(guò)相關(guān)監(jiān)督式學(xué)習(xí)算法訓(xùn)練得到。而自下而上的顯著性檢測(cè)方法則主要依據(jù)底層的數(shù)據(jù)信息,不依據(jù)特定檢測(cè)任務(wù)自發(fā)提供視覺(jué)顯著性信息。本文關(guān)注的重點(diǎn)是自下而上圖像顯著性區(qū)域檢測(cè)。近年來(lái),自下而上的顯著性研究得到了國(guó)內(nèi)外學(xué)者的關(guān)注。Itti等[8]提出了基于視覺(jué)注意機(jī)制的顯著性檢測(cè)算法。Ma等[9]基于對(duì)比度的模糊生長(zhǎng)的方法進(jìn)行圖像顯著性分析。Harel等[10]提出基于圖的顯著性檢測(cè)算法,該算法在特征提取過(guò)程中使用了Itti算法的特征,并且引入馬爾可夫鏈計(jì)算顯著圖。而Hou 等[11]利用光譜余量檢測(cè)顯著性。這些算法研究的重點(diǎn)是圖像中的顯著點(diǎn),因此顯著圖中顯著對(duì)象比較模糊。后來(lái),許多學(xué)者關(guān)注圖像中的顯著對(duì)象或區(qū)域。Achanta等[12]使用高斯差分方法提取全分辨率的顯著圖,這種方法簡(jiǎn)單高效,但是不利于復(fù)雜背景下的顯著性對(duì)象檢測(cè)。Stas等[13]提出了上下文感知的顯著性檢測(cè)算法,檢測(cè)的顯著性對(duì)象邊緣特征比較明顯,并且一致性不高。文獻(xiàn)[14]在Stas算法[13]的基礎(chǔ)上提出一種隨機(jī)的視覺(jué)顯著性檢測(cè)算法,該算法具有較快的運(yùn)算速度。郭迎春等[15]提出一種基于顏色對(duì)比的顯著性區(qū)域檢測(cè)算法。文獻(xiàn)[16-17]提出一種聯(lián)合顯著性(Co-Saliency)檢測(cè)方法,檢測(cè)一個(gè)圖像集中的共同顯著性對(duì)象。Xie等[18]用貝葉斯框架提取圖像顯著區(qū)域,該算法重點(diǎn)關(guān)注檢測(cè)效果,并且得到了較好的檢測(cè)結(jié)果,算法的不足之處是顯著點(diǎn)不在顯著性對(duì)象周圍或分散在較大區(qū)域時(shí)檢測(cè)效果欠佳。Cheng 等[19]提出一種基于區(qū)域?qū)Ρ榷鹊姆椒ńY(jié)合區(qū)域顏色距離度量與空間距離度量檢測(cè)圖像的顯著性,算法效果較好,算法的局限性在于顯著性檢測(cè)過(guò)程僅利用了對(duì)比度特征,對(duì)背景復(fù)雜圖像檢測(cè)結(jié)果有待提高。
總體來(lái)說(shuō),目前圖像顯著性區(qū)域檢測(cè)研究取得了許多新成果,但是仍然值得進(jìn)一步研究,如:顯著區(qū)域不能被一致突出;顯著圖中顯著值較高的區(qū)域不在目標(biāo)區(qū)域,而是集中在變化劇烈的邊緣部分或復(fù)雜的背景區(qū)域等。本文從Cheng算法(RC11)[19]得到啟發(fā),依據(jù)顯著性檢測(cè)的先驗(yàn)知識(shí),提出一種自下而上、數(shù)據(jù)驅(qū)動(dòng)的圖像顯著性區(qū)域檢測(cè)算法。同時(shí)本文提出一種新的初始化GrabCut算法的方法,將本文得到的顯著圖應(yīng)用于圖像顯著分割,提取圖像中的顯著對(duì)象。
本節(jié)分析了影響圖像顯著性的兩個(gè)重要特征:對(duì)比度和空間位置,并利用這些先驗(yàn)顯著性特征構(gòu)造顯著性的對(duì)比度和位置特征函數(shù)。首先利用基于爬山算法的圖像分割方法[20-21]將圖像分割成不同的區(qū)域,并提取圖像的前景區(qū)域,然后構(gòu)造區(qū)域的對(duì)比度特征、空間位置特征函數(shù),同時(shí)考慮區(qū)域面積因素,計(jì)算顯著圖。本文算法流程如圖1所示。
圖1 本文算法流程圖Fig.1 Flow chart of the proposed method
在視覺(jué)注意過(guò)程中,往往是那些獨(dú)特性、不可預(yù)測(cè)性、稀缺性以及奇異性的對(duì)象被引起注意,其他對(duì)象以及背景被關(guān)注程度較低。本文算法首先考慮去除圖像背景區(qū)域干擾,然后在前景區(qū)域中檢測(cè)圖像的顯著區(qū)域(對(duì)象)?;诂F(xiàn)有視覺(jué)顯著性的研究[22-25],顯著性區(qū)域出現(xiàn)在圖像邊界上的可能性較小。在本文中,利用這一性質(zhì),考慮將與圖像4個(gè)邊界接觸面積最大的區(qū)域設(shè)定為背景區(qū)域,在圖像的前景區(qū)域中利用區(qū)域?qū)Ρ榷?、位置特征?jì)算顯著對(duì)象,減少背景對(duì)檢測(cè)結(jié)果的影響。
對(duì)于一幅圖像,人們會(huì)更加關(guān)注與周圍物體的對(duì)比度差異非常大的區(qū)域[19,26]。此外,區(qū)域空間關(guān)系在人類視覺(jué)注意方面也起很大作用;相鄰區(qū)域的高對(duì)比度比相距較遠(yuǎn)區(qū)域的高對(duì)比度更容易導(dǎo)致一個(gè)區(qū)域引起視覺(jué)的注意[19]。對(duì)比度較好地反映了視覺(jué)顯著性對(duì)新異對(duì)象的刺激。本文從文獻(xiàn)[19]基于區(qū)域?qū)Ρ榷确椒ǖ玫絾l(fā),但與文獻(xiàn)[19]的方法不同,本文計(jì)算圖像對(duì)比度時(shí)忽略背景區(qū)域的對(duì)比度干擾,構(gòu)造圖像區(qū)域?qū)Ρ榷忍卣骱瘮?shù)衡量區(qū)域空間距離、顏色距離在檢測(cè)顯著性區(qū)域時(shí)的貢獻(xiàn)。具體而言,在計(jì)算兩個(gè)區(qū)域的對(duì)比度時(shí),本文使用區(qū)域空間距離作為區(qū)域?qū)Ρ榷葯?quán)重,結(jié)合區(qū)域顏色距離特征構(gòu)造圖像區(qū)域?qū)Ρ榷忍卣骱瘮?shù)Ck,使相距較遠(yuǎn)的區(qū)域?qū)D像對(duì)比度貢獻(xiàn)較小,相距較近的區(qū)域貢獻(xiàn)大,其公式如下:
式中:rk、rm分別為圖像中的第k個(gè)區(qū)域和第m 個(gè)區(qū)域;Ck為第k 個(gè)區(qū)域rk的對(duì)比度特征函數(shù);Dr(rk,rm)為rk與rm的對(duì)比度;dr(rk,rm)為rk與rm之間的歐氏距離,本文使用區(qū)域的質(zhì)心計(jì)算區(qū)域之間的距離;rk(i)、rm(j)分別為區(qū)域rk、rm在RGB顏色空間的顏色向量;nk、nm分別為rk、rm中所包含的顏色總數(shù);n為圖像區(qū)域的總數(shù);pk(i)為在圖像區(qū)域rk中rk(i)出現(xiàn)的概率;pm(j)為在圖像區(qū)域rm中rm(j)出現(xiàn)的概率。
基于區(qū)域?qū)Ρ榷忍卣鞯娘@著性檢測(cè)結(jié)果如圖2(b)列所示?;趨^(qū)域?qū)Ρ榷鹊娘@著性檢測(cè)優(yōu)點(diǎn)是對(duì)于對(duì)比度特征突出的圖像能較好地提取顯著性對(duì)象,如圖2(b)第一幅圖像花的對(duì)比度較突出,可以利用對(duì)比度特征提取顯著對(duì)象;但是基于對(duì)比度的方法在前景區(qū)域提取顯著性對(duì)象時(shí)也會(huì)存在一些不足,例如圖2(b)第二幅圖像中前景區(qū)域間的對(duì)比度特征差別并不明顯,很難分辨人與樹(shù)哪個(gè)對(duì)象顯著性更高。因此,融合多個(gè)圖像特征提高算法顯著性檢測(cè)能力成為一種行之有效的方法。
圖2 基于區(qū)域?qū)Ρ榷扰c空間位置特征的顯著圖Fig.2 Saliency map based on the trait of regional contrast and spatial position
回顧人類視覺(jué)注意機(jī)制,人類往往轉(zhuǎn)動(dòng)視角將感興趣的對(duì)象集中在視角中心[27]。同樣,在圖像采集過(guò)程中,人們通常將引起注意的對(duì)象聚焦在圖像中心。本文將圖像區(qū)域位置信息引入到顯著性檢測(cè)過(guò)程。具體而言,利用區(qū)域與圖像中心的距離關(guān)系構(gòu)造空間位置特征函數(shù),使距圖像中心近的區(qū)域顯著性高,距中心較遠(yuǎn)的區(qū)域顯著性低。歸一化的圖像區(qū)域的位置特征函數(shù)定義如下:
式中:Pi為第i 個(gè)區(qū)域ri的位置特征函數(shù),Pi∈[0,1];(xi,yi)為第i個(gè)區(qū)域的質(zhì)心坐標(biāo);h、w 分別為整幅圖像的高度和寬度。
依據(jù)位置特征得到的圖像顯著圖如圖2(c)列所示。由圖2(c)可見(jiàn),本文構(gòu)造的位置特征函數(shù)在檢測(cè)圖像顯著性時(shí)發(fā)揮了較好的作用。但是,圖像中區(qū)域的顯著性與區(qū)域?qū)Ρ榷?、位置等因素有關(guān),僅將該特征用于顯著性檢測(cè)存在不足,圖2(c)第一幅圖使用花的位置特征檢測(cè)顯著區(qū)域就是一個(gè)失敗的例子。
視覺(jué)焦點(diǎn)的深度搜索原理[28]是視點(diǎn)首先被一個(gè)較大的區(qū)域吸引。對(duì)象區(qū)域的大小也會(huì)影響底層的視覺(jué)刺激,因此,本文也將圖像區(qū)域面積作為影響圖像顯著性的因素,定義顯著性的權(quán)重參數(shù)Wi:
式中:Ri為第i個(gè)區(qū)域的面積。
本文在進(jìn)行顯著性檢測(cè)時(shí),考慮了區(qū)域?qū)Ρ榷?、空間位置、圖像區(qū)域面積等因素,但在不同的圖像場(chǎng)景中往往是這些因素中的一個(gè)或幾個(gè)因素起到主導(dǎo)作用,例如在圖2(a)列中,第一副圖像中花的對(duì)比度占主導(dǎo)作用;而第二幅圖像人所在區(qū)域空間位置起到關(guān)鍵作用。如何結(jié)合各種因素是建立適當(dāng)?shù)娘@著性檢測(cè)模型的關(guān)鍵。本文融合上述特征構(gòu)建顯著性檢測(cè)模型,首先將上述區(qū)域?qū)Ρ榷忍卣?、空間位置特征以及面積因素相乘檢測(cè)圖像的顯著性,即:
該方法實(shí)驗(yàn)結(jié)果較好,但是對(duì)比度特征沒(méi)有較好發(fā)揮作用,圖2(c)為一例檢測(cè)失敗的例子。對(duì)此,本文對(duì)該顯著性檢測(cè)模型改進(jìn),提出對(duì)比度加權(quán)的圖像區(qū)域顯著性檢測(cè)算法,其公式如下:
式中:λ為圖像區(qū)域?qū)Ρ榷仍鰪?qiáng)系數(shù),實(shí)驗(yàn)結(jié)果表明,λ=1.6時(shí)能夠得到較好的實(shí)驗(yàn)結(jié)果。
對(duì)比度加權(quán)檢測(cè)結(jié)果如圖3(d)列所示,能夠較好地反映區(qū)域?qū)Ρ榷?、空間位置、區(qū)域面積在顯著性檢測(cè)時(shí)的作用。同時(shí),該方法也可以較好地排除背景及非顯著區(qū)域干擾,獲得較為干凈的背景,從而突出顯著性對(duì)象。
圖3 對(duì)比度未加權(quán)方法檢測(cè)失敗示例Fig.3 Failure example for the proposed method based on unweighted contrast
實(shí)驗(yàn)給出了基于本文區(qū)域?qū)Ρ榷忍卣鳎疚乃惴▽?duì)比度未加權(quán)以及對(duì)比度加權(quán)的檢測(cè)結(jié)果比較,同時(shí)還比較了其他7 種被引用較多的算法(IT98[8],HA06[10],AC09[12],RC11[19](基于區(qū)域?qū)?比 度),HC11[19](基 于 直 方 圖),RA10[29],LC06[30])與本文算法的實(shí)驗(yàn)結(jié)果。
本文采用Achanta等[12]提供的公開(kāi)測(cè)試集MSRA-1000驗(yàn)證算法的性能。該數(shù)據(jù)集包含1000幅圖片,并且提供人工標(biāo)注的精確顯著圖(Ground truth,GT)。
本文通過(guò)PR(Precision-recall)曲線評(píng)估算法的性能。PR 曲線由準(zhǔn)確率Pr 和召回率Re 構(gòu)成:
式中:Sd為算法檢測(cè)結(jié)果中的顯著對(duì)象的面積;Sg為人工標(biāo)記的顯著對(duì)象面積。
實(shí)驗(yàn)1 圖像區(qū)域?qū)Ρ榷仍鰪?qiáng)系數(shù)λ 對(duì)實(shí)驗(yàn)結(jié)果的影響如圖4所示。本文選用準(zhǔn)確率與召回率的調(diào)和平均數(shù)Fβ為測(cè)試λ 變化時(shí)對(duì)實(shí)驗(yàn)結(jié)果的影響。Fβ的計(jì)算公式如下:
在計(jì)算準(zhǔn)確率和召回率時(shí),本實(shí)驗(yàn)將閾值設(shè)定為TH:
式中:M 為圖像像素總數(shù)。
取系數(shù)β2=0.3,使得正確率的權(quán)重高于召回率。Fβ-λ 曲線變化趨勢(shì)如圖4所示。當(dāng)λ=1.6時(shí),F(xiàn)β取得最大值,對(duì)比度加權(quán)算法得到的檢測(cè)結(jié)果最佳;當(dāng)λ>7時(shí),λ的變化對(duì)算法結(jié)果影響較小。
圖4 Fβ-λ 曲線Fig.4 Curve of Fβ-λ
圖5 PR 曲線Fig.5 PR curves
實(shí)驗(yàn)2 比較了基于本文對(duì)比度特征(Based contrast)的顯著性檢測(cè)結(jié)果、本文算法對(duì)比度未加權(quán)(Ours with unweighted contrast)時(shí)的檢測(cè)結(jié)果以及加權(quán)后(Ours)的結(jié)果。PR 曲線如圖5所示。由圖5可知:采用多特征融合的方法,對(duì)比度未加權(quán)方法檢測(cè)效果較基于對(duì)比度的方法提高了算法的準(zhǔn)確率。同時(shí),當(dāng)對(duì)比度加權(quán)與未加權(quán)方法比較時(shí),由于對(duì)比度加權(quán)原因,在召回率大于0.83時(shí)加權(quán)算法較未加權(quán)方法準(zhǔn)確率低,但兩者誤差較小。從算法整體分析,對(duì)比度加權(quán)方法整體表現(xiàn)較好。
實(shí)驗(yàn)3 比較了目前被引用較多的幾種算法與本文算法的檢測(cè)結(jié)果,同時(shí)給出了基于本文對(duì)比度特征的顯著圖(RC_ours),實(shí)驗(yàn)結(jié)果如圖6所示。與RC11相比,本文算法不同之處在于:①本文不僅構(gòu)建區(qū)域?qū)Ρ榷忍卣骱瘮?shù),同時(shí)將空間位置特征引入顯著性檢測(cè)模型;②本文算法首先去除圖像背景區(qū)域的干擾,在前景區(qū)域內(nèi)檢測(cè)顯著對(duì)象,減小了背景區(qū)域?qū)z測(cè)結(jié)果的影響,增強(qiáng)了對(duì)復(fù)雜圖像的顯著性檢測(cè)能力。本文算法對(duì)較復(fù)雜背景的圖像檢測(cè)效果較RC11 算法有所提高,結(jié)果如圖6(e)和圖6(g)所示。由于忽略了背景信息,本文基于前景區(qū)域?qū)Ρ榷鹊娘@著性檢測(cè)方法會(huì)出現(xiàn)較RC11算法不理想的檢測(cè)結(jié)果(見(jiàn)圖6(f)列第二幅顯著圖),但本文算法融合區(qū)域位置信息以及區(qū)域面積可以彌補(bǔ)這一不足,使本文算法能較好地抑制圖像非顯著性區(qū)域,得到背景干擾較少的顯著圖,如圖6(g)列第二幅顯著圖所示。同時(shí),正如圖6(e)(g)列第一幅顯著圖所示,本文算法對(duì)背景較復(fù)雜的圖像的檢測(cè)結(jié)果較RC11算法有改進(jìn),在檢測(cè)顯著對(duì)象時(shí)對(duì)背景區(qū)域及非顯著性對(duì)象的顯著性有較強(qiáng)抑制,能較好地突出顯著對(duì)象。IT98與HA06算法檢測(cè)的重點(diǎn)是圖像中的顯著點(diǎn),因此顯著圖中的顯著對(duì)象較模糊。
圖6 幾種顯著性檢測(cè)算法檢測(cè)結(jié)果比較Fig.6 Visual comparison of previous approaches to our method
圖7 不同算法的PR 曲線比較Fig.7 Comparison of the PR for different algorithms
實(shí)驗(yàn)4 算法PR 曲線比較。在顯著性檢測(cè)中,PR 曲線能較好地反映算法的優(yōu)劣[1,6,12,18-19,29]。圖7 給 出 了 不 同 算 法 的PR 曲線。由圖7可知:與RC11相比,由于忽略了背景信息,本文未加權(quán)的檢測(cè)方法僅當(dāng)召回率在[0.6,0.9]之間變化時(shí)算法準(zhǔn)確率較佳。而本文對(duì)比度加權(quán)算法與RC11相比較,在召回率小于0.87時(shí)有較好的準(zhǔn)確率;當(dāng)召回率大于0.87時(shí),因?qū)Ρ榷燃訖?quán)、忽略背景區(qū)域?qū)Ρ榷鹊仍?,?dǎo)致準(zhǔn)確率較RC11算法相比性能下降,但對(duì)于背景較復(fù)雜的圖像本文檢測(cè)算法改進(jìn)效果明顯。
本文將提取的顯著圖應(yīng)用于顯著分割。目前,該領(lǐng)域研究中基于自下而上的顯著區(qū)域分割主要有:Ma等[9]通過(guò)模糊區(qū)域增長(zhǎng)方法在顯著圖中找到矩形的顯著區(qū)域。Achanta等[29]使用顯著圖為Graph Cuts算法提供前景與背景區(qū)域,自動(dòng)分割顯著對(duì)象。Han等[31]用顏色、紋理和邊緣特征構(gòu)建馬爾科夫隨機(jī)場(chǎng)模型,使用顯著圖的種子值來(lái)增長(zhǎng)顯著性對(duì)象區(qū)域。Cheng 等[19]使用召回率為95%時(shí)的閾值二值化顯著圖為GrabCut提供初始化模板,分割顯著性區(qū)域。
本文通過(guò)統(tǒng)計(jì)顯著圖的直方圖分布,利用雙閾值方法初始化GrabCut[32]模板,改善顯著對(duì)象分割效果。GrabCut[32]算法綜合利用紋理及邊界兩種信息,通過(guò)高斯混合模型和Graph Cuts[33]進(jìn)行迭代分割圖像,需要人工交互操作選取矩形區(qū)域進(jìn)行初始化。本文依據(jù)顯著圖對(duì)GrabCut初始化,避免了人工交互操作,可自動(dòng)分割圖像顯著對(duì)象。由于顯著圖中顯著值的大小反映了圖像對(duì)應(yīng)位置的顯著性:顯著值越大,其顯著性就越高,因此,本文在初始化模板時(shí)為克服文獻(xiàn)[19]使用單個(gè)閾值的不足,使用直方圖統(tǒng)計(jì)顯著圖中顯著值的分布,得到顯著直方圖,設(shè)置不同閾值將顯著圖標(biāo)記為顯著區(qū)域、可能的顯著區(qū)域、可能的非顯著區(qū)域來(lái)初始化GrabCut。具體而言,在初始化過(guò)程中,本文設(shè)定閾值Th1標(biāo)記直方圖中顯著值最大的區(qū)域?yàn)轱@著性區(qū)域。同時(shí),為了使提取的顯著對(duì)象較為精確,本文將大于顯著圖均值Th2小于閾值Th1的顯著區(qū)域初始化為可能的顯著性區(qū)域,把小于顯著均值的部分初始化為可能的非顯著性區(qū)域。閾值的選取如圖8所示。定義初始化函數(shù)為:
式中:1表示顯著性區(qū)域,2表示可能的非顯著性區(qū)域,3表示可能的顯著性區(qū)域;Smap(x,y)為圖像顯著圖。
為了保證較好地標(biāo)簽顯著性區(qū)域,本文將Th1設(shè)定為最大的極小值,確保顯著值的最大區(qū)域?yàn)轱@著對(duì)象。如圖8所示,初始化顯著性區(qū)域?yàn)椋跿h1,256]。其中Th1描述如下:設(shè)L1為直方圖極大值點(diǎn)對(duì)應(yīng)的顯著值ai的集合,ai∈L1,i=1,…,l1(l1為極大值點(diǎn)個(gè)數(shù));L2為直方圖極小值對(duì)應(yīng)的顯著值bj的集合,bj∈L2,j=1,…,l2(l2為極小值點(diǎn)的數(shù)量)。則Th1需滿足如下條件:Th2<Th1<A,對(duì)?j,有Th1≥bj,且Th1∈L2。其中,A =max{ai}為集合L1中的最大值。圖8中hist表示對(duì)應(yīng)Smap(x,y)的統(tǒng)計(jì)結(jié)果。
圖8 閾值選取示意圖Fig.8 Schematic diagram for threshold selection
初始化之后,本文迭代運(yùn)行GrabCut來(lái)優(yōu)化顯著性分割結(jié)果(在實(shí)驗(yàn)中最多迭代兩次),圖9(b)列給出了RC11算法的分割結(jié)果,圖9(c)列給出了本文提出的新的初始化方法的分割結(jié)果。
圖9 顯著性分割Fig.9 Saliency segmentation
提出了一種基于對(duì)比度、空間位置特征的自下而上、數(shù)據(jù)驅(qū)動(dòng)的顯著性區(qū)域檢測(cè)方法。在進(jìn)行顯著性檢測(cè)的過(guò)程中,本文提取圖像前景區(qū)域,構(gòu)造的對(duì)比度特征函數(shù)能較好地計(jì)算出不同前景區(qū)域?qū)Ρ榷葘?duì)圖像顯著性的貢獻(xiàn),結(jié)合圖像的空間位置特征函數(shù)和區(qū)域面積能較好地檢測(cè)區(qū)域顯著性。同時(shí),本文提出一種新的初始化GrabCut算法的方法分割顯著對(duì)象,并得到了較好的結(jié)果??傮w而言,本文提出的算法簡(jiǎn)單,且進(jìn)一步提高了顯著性區(qū)域檢測(cè)結(jié)果。由于本文方法采用對(duì)比度加權(quán)以及忽略背景信息,導(dǎo)致了召回率大于0.9時(shí)檢測(cè)精度不夠理想,但對(duì)于較復(fù)雜圖像的檢測(cè),本文算法有了較大改進(jìn)。因此,本文算法是一種有效的顯著性檢測(cè)算法。在將來(lái)的研究工作中,將會(huì)考慮結(jié)合其他圖像顯著性特征,合理整合圖像對(duì)比度及背景信息,進(jìn)一步改善算法的檢測(cè)結(jié)果。
[1]Jiang H,Wang J,Yuan Z,et al.Salient object detection:a discriminative regional feature integration approach[C]∥IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Portland,2013:2083-2090.
[2]Jian M W,Dong J Y,Ma J.Image retrieval using wavelet-based salient regions[J].Imaging Science Journal,2011,59(4):219-231.
[3]李勇,陳賀新,耿曉東,等.基于目標(biāo)區(qū)域定位和特征融合的圖像檢索算法[J].吉林大學(xué)學(xué)報(bào):工學(xué)版,2008(增刊2):217-220.Li Yong,Chen He-xin,Geng Xiao-dong,et al.Image retrieval algorithm based on object region location and feature fusion[J].Journal of Jilin University(Engineering and Technology Edition),2008(Sup.2):217-220.
[4]Rutishauser U,Walther D,Koch C,et al.Is bottom-up attention useful for object recognition?[C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,Washington,2004:37-44.
[5]Ko B C,Nam J.Object-of-interest image segmentation based on human attention and semantic region clustering[J].JOSA A,2006,23(10):2462-2470.
[6]Yang J,Yang M H.Top-down visual saliency via joint crf and dictionary learning[C]∥IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Providence,2012:2296-2303.
[7]Liu T,Yuan Z,Sun J,et al.Learning to detect a salient object[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(2):353-367.
[8]Itti L,Koch C,Niebur E.A model of saliencybased visual attention for rapid scene analysis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1998,20(11):1254-1259.
[9]Ma Y F,Zhang H J.Contrast-based image attention analysis by using fuzzy growing[C]∥Proceedings of the Eleventh ACM International Conference on Multimedia.ACM,New York,2003:374-381.
[10]Harel J,Koch C,Perona P.Graph-based visual saliency[C]∥Advances in Neural Information Processing System,Vancouver,Canada,2007:545-552.
[11]Hou X,Zhang L.Saliency detection:A spectral residual approach[C]∥IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Minneapolis,2007:1-8.
[12]Achanta R,Hemami S,Estrada F,et al.Frequency-tuned salient region detection[C]∥IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Miami,2009:1597-1604.
[13]Stas Goferman,Lihi Zelnik-Manor,Ayellet Tal.Context-aware saliency detection[J].IEEE Trans Pattern Anal Mach Intell,2012,34(10):1915-1926.
[14]黃志勇,何發(fā)智,蔡賢濤,等.一種隨機(jī)的視覺(jué)顯著性檢測(cè)算法[J].中國(guó)科學(xué):信息 科學(xué),2011,41(7):863-874.Huang Zhi-yong,He Fa-zhi,Cai Xian-tao,et al.Efficient random saliency map detection[J].Science China Information Sciences,2011,41(7):863-874.
[15]郭迎春,袁浩杰,吳鵬.基于Local特征和Regional特征的圖像顯著性檢測(cè)[J].自動(dòng)化學(xué)報(bào),2013,39(8):1214-1224.Guo Ying-Chun,Yuan Hao-Jie,WU Peng.Image saliency detection based on local and regional features[J].Acta Automation Sinica,2013,39(8):1214-1224.
[16]Liu Z,Zou W,Li L,et al.Co-Saliency detection based on hierarchical segmentation[J].IEEE Signal Processing Letters,2014,21(1):88-92.
[17]Fu H,Cao X,Tu Z.Cluster-based co-saliency detection[J].IEEE Transactions on Image Processing:a Publication of the IEEE Signal Processing Society,2013,22(10):3766-3778.
[18]Xie Y,Lu H,Yang M.Bayesian saliency via low and mid level cues[J].Transactions on Image Processing,2013,22(5):1689-1698.
[19]Cheng M M,Zhang G X,Mitra N J,et al.Global contrast based salient region detection[C]∥IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Colorado Springs,2011:409-416.
[20]Achanta R,Estrada F,Wils P,et al.Salient region detection and segmentation[C]∥6th International Conference on Computer Vision System,Santorini,Greece,2008:66-75.
[21]Ohashi T,Aghbari Z,Makinouchi A.Hill-climbing algorithm for efficient color-based image segmentation[C]∥IASTED International Conference on Signal Processing,Pattern Recognition,and Applications,Rhodes,2003:17-22.
[22]Li X,Lu H,Zhang L,et al.Saliency detection via dense and sparse reconstruction[C]∥IEEE International Conference on Computer Vision(ICCV),Sydney,2013:2976-2983.
[23]Yang C,Zhang L,Lu H,et al.Saliency detection via graph-based manifold ranking[C]∥IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Portland,2013:3166-3173.
[24]Lempitsky V,Kohli P,Rother C,et al.Image segmentation with a bounding box prior[C]∥IEEE International Conference on Computer Vision(ICCV),Kyoto,2009:277-284.
[25]Grady L,Jolly M P,Seitz A.Segmentation from a box[C]∥IEEE International Conference on Computer Vision(ICCV),Barcelona,2011:367-374.
[26]Einh?user W,K?nig P.Does luminance-contrast contribute to a saliency map for overt visual attention?[J].European Journal of Neuroscience,2003,17(5):1089-1097.
[27]Judd T,Ehinger K,Durand F,et al.Learning to predict where humans look[C]∥IEEE 12th International Conference on Computer Vision,Kyoto,2009:2106-2113.
[28]李茜.圖像的顯著性特征提?。跠].上海:上海大學(xué)通信與信息工程學(xué)院,2008.Li Qian.Saliency image feature extraction[D].Shanghai:School of Communication and Information Engineering,Shanghai University,2008.
[29]Achanta R,Susstrunk S.Saliency detection using maximum symmetric surround[C]∥the 17th IEEE International Conference on Image Processing(ICIP),Hong Kong,2010:2653-2656.
[30]Zhai Y,Shah M.Visual attention detection in video sequences using spatiotemporal cues[C]∥Proceedings of the 14th Annual ACM International Conference on Multimedia.ACM,New York,2006:815-824.
[31]Han J,Ngan K N,Li M,et al.Unsupervised extraction of visual attention objects in color images[J].IEEE Transactions on Circuits and Systems for Video Technology,2006,16(1):141-145.
[32]Rother C,Kolmogorov V,Blake A.Grabcut:interactive foreground extraction using iterated graph cuts[C]∥ACM Transactions on Graphics(TOG),ACM,New York,2004:309-314.
[33]Boykov Y Y,Jolly M P.Interactive graph cuts for optimal boundary &region segmentation of objects in ND images[C]∥Proceedings of the Eighth IEEE International Conference on Computer Vision,Vancouver,2001:105-112.