蔣寓文譚樂(lè)怡王守覺(jué)
①(中國(guó)科學(xué)院半導(dǎo)體研究所 北京 100083)
②(中國(guó)科學(xué)院蘇州納米技術(shù)與納米仿生研究所 蘇州 215123)
③(同濟(jì)大學(xué)電子信息與工程學(xué)院 上海 200092)
選擇性背景優(yōu)先的顯著性檢測(cè)模型
蔣寓文①②譚樂(lè)怡*②③王守覺(jué)①②
①(中國(guó)科學(xué)院半導(dǎo)體研究所 北京 100083)
②(中國(guó)科學(xué)院蘇州納米技術(shù)與納米仿生研究所 蘇州 215123)
③(同濟(jì)大學(xué)電子信息與工程學(xué)院 上海 200092)
在檢測(cè)圖像顯著性區(qū)域的領(lǐng)域中,背景優(yōu)先是一個(gè)較新的思路,但會(huì)遇到背景鑒別這個(gè)具有挑戰(zhàn)性的難題。該文提出背景真實(shí)性的判斷問(wèn)題,在探索的過(guò)程中發(fā)現(xiàn)背景通常具有連續(xù)性的特征,根據(jù)這一特性實(shí)現(xiàn)了判定背景的方法,并將判斷的結(jié)果作為顯著性先驗(yàn)值應(yīng)用于后繼的計(jì)算中,最終結(jié)果的準(zhǔn)確性和正確性得到有效提高。該文首先采用均值漂移(MS)分割算法將圖片預(yù)分為超像素,計(jì)算所有超像素的初始顯著值;隨后提取原圖的4個(gè)邊界條,計(jì)算每?jī)蓷l之間的色彩直方圖距離,判定小于預(yù)設(shè)閾值的兩條邊界作為“真”的背景,選擇它們作為優(yōu)先邊界,計(jì)算先驗(yàn)顯著性值;最后進(jìn)行顯著性計(jì)算,得到最終的顯著圖。實(shí)驗(yàn)結(jié)果表明,該算法能夠準(zhǔn)確檢測(cè)出顯著性區(qū)域,與其他6種算法相比具有較大優(yōu)勢(shì)。
計(jì)算機(jī)視覺(jué);顯著性分析;背景連續(xù)性;色彩直方圖;超像素
視覺(jué)注意機(jī)制的研究在計(jì)算機(jī)視覺(jué)中通常被稱(chēng)為顯著性分析。Itti視覺(jué)模型是第1個(gè)用計(jì)算機(jī)分析注意機(jī)制的模型[1]。自它誕生以來(lái),關(guān)于圖像視覺(jué)顯著性的研究開(kāi)始引起眾多學(xué)者的興趣。經(jīng)過(guò)近20年的發(fā)展,現(xiàn)已有多種顯著性模型廣泛應(yīng)用于圖像分割、目標(biāo)識(shí)別、圖像檢索、視頻追蹤等多個(gè)領(lǐng)域[2]。
目前,顯著性提取中最常用的算法還是直接計(jì)算像素或超像素的顯著值[3- 6],本文稱(chēng)之為“顯著性?xún)?yōu)先”。在眾多采取這種思想的模型中,文獻(xiàn)[5]的算法是近年影響較大的一種。該算法提取3種特征:多尺度對(duì)比度、中心直方圖距離和色彩分布廣度概率,最后把3種特征輸入CRF模型計(jì)算顯著圖。與所有“顯著性?xún)?yōu)先”的算法一樣,該算法有一個(gè)局限性:檢測(cè)到的顯著性區(qū)域與中心區(qū)域的選擇相關(guān),與顯著性區(qū)域鄰近的像素也會(huì)獲得較高的顯著性,并常常出現(xiàn)顯著性區(qū)域提取不完整的情況。
與“顯著性?xún)?yōu)先”相反,文獻(xiàn)[7]采用“背景優(yōu)先”的思想來(lái)分析像素的顯著性,提出了背景優(yōu)先(background prior)模型,文獻(xiàn)[7]中嘗試這種方法解決提取不完整的問(wèn)題。該算法先確定背景,然后將其剔除,剩余的部分就是顯著性區(qū)域。它計(jì)算每個(gè)超像素(預(yù)分類(lèi)算法得到的小區(qū)域)與背景的相似程度,相似程度越高顯著性越小,反之,顯著性越高。該算法對(duì)多數(shù)圖片有很好的效果,但是也有一定的不足:如果背景較為復(fù)雜或者顯著性區(qū)域在背景(主要指邊界)中所占比例較大時(shí),最終的顯著圖會(huì)有所偏差。我們認(rèn)為問(wèn)題產(chǎn)生的原因是該算法沒(méi)有將背景看作一個(gè)整體進(jìn)行分析,該算法僅僅是單獨(dú)計(jì)算了邊界上每一個(gè)超像素的顯著值,作為后續(xù)計(jì)算的一個(gè)基礎(chǔ),而沒(méi)有將邊界作為一個(gè)整體進(jìn)行考察,這樣的處理方式有可能將圖像邊界中的孤立超像素誤認(rèn)為顯著區(qū)域。此外,該算法還有一些其它的缺陷,例如:檢測(cè)到的顯著區(qū)域輪廓不夠精確;背景中的某些孤立節(jié)點(diǎn)會(huì)被賦予偏高的顯著值,區(qū)域一致性不佳等。
針對(duì)以上“背景優(yōu)先”模型存在的問(wèn)題,本文相應(yīng)地提出了3點(diǎn)改進(jìn)策略:(1)提出背景真實(shí)性的問(wèn)題,并實(shí)現(xiàn)了判斷“真”背景的算法:計(jì)算色彩直方圖之間的距離,選擇滿(mǎn)足預(yù)設(shè)條件的一組邊界,并將它們作為“優(yōu)先邊緣”參與后續(xù)的顯著性計(jì)算,這也是本文最主要的創(chuàng)新點(diǎn)。(2)采用均值漂移(Mean Shift, MS)超像素預(yù)分割算法,使物體輪廓更精確,改善顯著圖的區(qū)域一致性。(3)提出適合MS超像素的顯著度的計(jì)算方法。
在下文的論述中,統(tǒng)一將本文的顯著性模型稱(chēng)為“選擇性背景優(yōu)先算法”,其主要思路為:首先基于MS超像素進(jìn)行圖片預(yù)分割,計(jì)算超像素的顯著性初始值;隨后加入判斷背景真實(shí)性的步驟,通過(guò)計(jì)算色彩直方圖距離,從圖片的四邊中選出距離小于預(yù)設(shè)閾值的兩條邊界判定為“真”的背景,將其作為優(yōu)先邊界,計(jì)算先驗(yàn)顯著值;在此基礎(chǔ)上進(jìn)行后續(xù)的顯著性計(jì)算并歸一化,得到最終顯著圖。通過(guò)對(duì)大量圖片的實(shí)驗(yàn),證明了本文算法得到的顯著圖質(zhì)量有較大提高。下面先介紹微軟的顯著性模型。
背景優(yōu)先算法是近年新出現(xiàn)的一種顯著性檢測(cè)思路,由微軟的幾位學(xué)者于2012年提出。該算法使用Olga Vexler的Superpixel算法[8]得到超像素集{S},將所有包含邊界像素的超像素集視為一個(gè)節(jié)點(diǎn)B,超像素Si的顯著性是這樣計(jì)算的:首先,用Dijkstra算法計(jì)算Si到背景B的最短路徑,然后把最短路徑上的所有連接邊的權(quán)值相加,即得到超像素Si的顯著性值:其中,Si是超像素,B是虛擬的背景節(jié)點(diǎn)B={B1, B2,…,BK},Bi為某一個(gè)邊界超像素。E是邊集,E={(Si, Sj)|Si與Sj相鄰} ∪{(Si, B)|Si在邊界上}。這樣的定義實(shí)質(zhì)上是建立了一個(gè)圖結(jié)構(gòu)G={V, E}, V是節(jié)點(diǎn)集V={Si}∪{B}。wt(Si, Si +1)是相鄰超像素之間距離。
因?yàn)轱@著性區(qū)域也有可能分布在邊界上,為了防止將顯著性區(qū)域誤認(rèn)為邊界,該算法先對(duì)邊界超像素的顯著性值進(jìn)行計(jì)算,并將其作為基礎(chǔ)顯著性值參與到后繼的計(jì)算中。盡管經(jīng)過(guò)上述的處理,某些圖片的檢測(cè)結(jié)果還是會(huì)出現(xiàn)較大偏差,圖1即顯示了這樣的情況。
圖1(b)中,在進(jìn)行邊界超像素顯著值計(jì)算時(shí),屬于顯著區(qū)域的油箱在下邊界中所占比例較大,因此油箱超像素沒(méi)有獲得較高的顯著值,而背景中的亮光得到了更高的顯著值(以白色橢圓標(biāo)識(shí)),與原圖產(chǎn)生了偏差。微軟模型孤立地考察每一個(gè)超像素,則必然會(huì)產(chǎn)生這樣的結(jié)果,如果對(duì)算法加以改進(jìn),增加一個(gè)判斷真實(shí)背景的步驟,能夠在一定程度上解決這個(gè)問(wèn)題。
圖2顯示了微軟模型存在的其他一些問(wèn)題。在圖2(a)中,雖然顯著區(qū)域的判斷在大體上無(wú)誤,但背景區(qū)域中的一些葉片過(guò)亮了,使得區(qū)域一致性欠缺。在圖2(b)中,甲蟲(chóng)的輪廓不夠自然,在背部還出現(xiàn)了一處明顯的鼓起(以白線(xiàn)標(biāo)識(shí)),同時(shí)在圖2(a)中也可以直觀(guān)地看到,蒲公英的毛刺輪廓與顯著圖中的形狀不是很一致。這是由于Olga預(yù)分割算法得到的超像素是由一個(gè)個(gè)小方格演變而來(lái),在保留物體輪廓方面存在一定局限性。
本文算法首先通過(guò)增加“判斷背景、選擇背景”這一步驟,提出驗(yàn)證背景的算法,提高了背景優(yōu)先模型的準(zhǔn)確率;其次使用MS預(yù)分割算法,進(jìn)一步在細(xì)節(jié)上改善了顯著圖的質(zhì)量。
3.1 基于MS超像素的背景優(yōu)先模型
采用某種分割算法先將圖片預(yù)分為超像素,然后計(jì)算超像素的顯著值是近年較常用的手段。由于均值漂移(MS)分割算法能完整地保留圖像的輪廓,在色彩和空間上都具有良好的特性。我們選擇它作為預(yù)分割算法。
圖1 微軟模型的檢測(cè)偏差
圖2 微軟模型的其他缺陷
微軟模型得到的超像素類(lèi)似于一個(gè)個(gè)小方格,形狀過(guò)于規(guī)則,有時(shí)會(huì)導(dǎo)致圖像的一些細(xì)節(jié)有所損失;而MS算法得到超像素對(duì)原圖的輪廓特征作了完整的保留,獲得超像素的形狀和圖像中的景物的邊界比較一致。但是MS算法不太適用于微軟模型的框架,所以本文提出了不同的確定邊界的方法。在提取邊界時(shí),我們采取了這樣的手段:在邊界上畫(huà)出一定寬度的區(qū)域(見(jiàn)圖3),以A, B, C, D命名,ABCD內(nèi)的區(qū)域記為Ar(ABCD),稱(chēng)為背景區(qū)。A, B的長(zhǎng)、寬分別為w,0.05h; C, D為h,0.05w。
圖3 深灰色條代表提取的4條邊緣,A, B, C, D是邊緣條的名稱(chēng)
由預(yù)分類(lèi)算法獲得的超像素集記為{S1, S2,…, Sn},如果背景區(qū)域中包含Si的像素,那么Si稱(chēng)為背景超像素,所有符合這個(gè)條件的超像素記為{BS1,BS2,…,BSK},統(tǒng)計(jì)BSi中屬于背景區(qū)的像素?cái)?shù)目|Ar(BSi)|,計(jì)算θi=(|Ar(BSi)|-1)/|BSi|。顯然,θi的值越大,超像素BSi是背景的可能性就越大。超像素Sk的顯著性值定義為Sk到所有背景超像素{BS}的距離之和Ds(Sk)。
具體算法如下:
算法1 基于MS超像素的背景優(yōu)先模型
步驟1 設(shè)置MS預(yù)分類(lèi)參數(shù)(hs=7,hr=5,M =50),得到超像素集S1, S2,…,Sn,計(jì)算每個(gè)超像素的CIELab色彩均值(li, ai, bi);
步驟2 將包含邊緣的超像素視為背景超像素BS1,BS2,…,BSK,對(duì)每個(gè)BSi計(jì)算θi;
步驟3 計(jì)算所有超像素到背景超像素集的距離,超像素Si距離計(jì)算方式為這個(gè)距離即S的
i初始顯著性值;
步驟4 將所有距離值歸一化到[0,1]:Ds(Si)
需要說(shuō)明的是,文獻(xiàn)[7]算法所定義的顯著性值為該超像素到背景的測(cè)地線(xiàn)距離;而本文算法定義的是該超像素到所有背景超像素的距離之和,這樣可以避免給復(fù)雜、分塊的背景賦予不一致的顯著值。下面介紹怎樣添加“選擇背景”這個(gè)先驗(yàn)知識(shí)。
3.2 基于邊界連續(xù)性的背景判斷
在對(duì)大量圖片仔細(xì)分析后,我們注意到連續(xù)的、一致的景物或者色彩往往是圖片的背景,比如天空、海洋、草地等等,而顯著性部分通常是“突然介入”的人或其他事物。根據(jù)這樣的假設(shè),如果相隔較遠(yuǎn)的兩條邊界(A和B, C和D)相似度都較高(連續(xù))的話(huà),那么它們所包含的色彩或景物則更有可能是真正的背景。因此,對(duì)于鑒別背景“真”、“假”的問(wèn)題,只需判斷邊界的連續(xù)性即可。
本文方法是這樣的:先對(duì)A, B, C, D分別做基于RGB的直方圖統(tǒng)計(jì)(HR(i),HG(i),HB(i)),i= 0,1,…,51,然后除以每個(gè)區(qū)域的總像素?cái)?shù)目最后計(jì)算每2條之間的歐氏距離。直方圖統(tǒng)計(jì)時(shí)每5級(jí)為一個(gè)劃分,每個(gè)通道共分52級(jí)。邊緣A, B之間的歐氏距離記為
最終邊界連續(xù)性判斷算法如下:
算法 2 邊界判斷算法
步驟1 計(jì)算相對(duì)的兩組邊緣(A, B),( C, D)的歐氏距離值,即DiAB和DiCD,如果二者中至少有一個(gè)取值小于0.1,則判定這兩組邊緣連續(xù),選擇它們作為優(yōu)先邊緣;
步驟2 如果這兩個(gè)值都大于0.1(多次實(shí)驗(yàn)得出的經(jīng)驗(yàn)值),則繼續(xù)計(jì)算其余邊緣對(duì)的距離DiAC,DiAD,DiBC,DiBD,選擇其中距離最小(必須小于0.1)的一對(duì)邊作為優(yōu)先計(jì)算邊緣;如果6組邊緣的距離值都大于0.1的話(huà),說(shuō)明4條區(qū)域連續(xù)較小,選擇縱向的兩條邊界為優(yōu)先邊緣。
圖4顯示的是對(duì)邊界連續(xù)性判斷后的結(jié)果,Col1為原始圖片,Col2 是計(jì)算邊界距離后,相似度較高的兩條邊界計(jì)算的先驗(yàn)顯著圖,Col3是精化后的顯著性分析結(jié)果。豎向顯示的線(xiàn)條表示兩條縱向的邊界具有更高的相似性,而橫向顯示的線(xiàn)條表示橫向的邊界相似度更高。在實(shí)驗(yàn)中,我們發(fā)現(xiàn)大多數(shù)風(fēng)景圖片縱向邊界相似程度高者往往較橫向邊界更多,這是由于所處的環(huán)境天空和陸地這兩個(gè)大的背景是橫向分布的,而豎直的方向則可以把兩種元素都包括進(jìn)來(lái)。因此,若4條邊界的連續(xù)性都較小,我們選擇縱向的兩條為優(yōu)先邊緣。
在完成優(yōu)先邊界的選擇后,要根據(jù)入選的邊緣組來(lái)計(jì)算先驗(yàn)顯著性值。舉例來(lái)說(shuō),如果選中的邊緣對(duì)為B, C,那么要將圖片分割為很多和B平行的縱向區(qū)域B1, B2,…,Bn,統(tǒng)計(jì)每條區(qū)域的直方圖,計(jì)算Bi與B直方圖的歐氏距離,這個(gè)距離即是Bi中像素的先驗(yàn)顯著性值,歸一化后記為SB(i), i為像素;用同樣的方法計(jì)算相對(duì)于C區(qū)域的顯著性值,歸一化后記為SC(i);超像素SK的先驗(yàn)顯著性值通過(guò)式(3)獲得:
在獲得先驗(yàn)顯著性值之后,調(diào)用算法2計(jì)算背景優(yōu)先顯著性值Ds(Si),最終的顯著性值為其中,為選中的優(yōu)先邊界。這個(gè)擴(kuò)展雖然簡(jiǎn)單,對(duì)于顯著性圖質(zhì)量的提高很有幫助。綜上所述,本文算法主要步驟如下:
算法 3 本文算法
步驟 1 使用均值漂移算法分割圖片;
步驟 2 使用3.1節(jié)算法1計(jì)算超像素的初始顯著值;
步驟 3 使用3.2節(jié)算法2選擇優(yōu)先邊界,計(jì)算先驗(yàn)顯著性值;
步驟4 使用式(4)計(jì)算最終的顯著性值,并歸一化。
本節(jié)通過(guò)3組實(shí)驗(yàn)來(lái)測(cè)試選擇性背景優(yōu)先算法。首先,將選擇性背景優(yōu)先模型與本文的背景優(yōu)先模型進(jìn)行比較,考察最終的結(jié)果是否有改善;其次是選擇性背景優(yōu)先模型與微軟亞研的背景優(yōu)先模型的比較,由于二者都源于“背景優(yōu)先”的思想;最后,將與一些廣泛使用的模型進(jìn)行對(duì)比。本算法使用Matlab2008和VS2008混合編程實(shí)現(xiàn),測(cè)試環(huán)境為Intel(R) Core Quad 2.5 GHz CPU, 4 G內(nèi)存,均值漂移分割參數(shù)均設(shè)為(hr=5.0,hs=7.0,M =50);實(shí)驗(yàn)用圖為MSRA1000數(shù)據(jù)庫(kù)和BSD500數(shù)據(jù)庫(kù)中的圖片。
4.1 背景優(yōu)先模型與選擇性背景優(yōu)先模型
圖4 邊界連續(xù)性判斷結(jié)果
圖5比較的是背景優(yōu)先模型和選擇性背景優(yōu)先模型的計(jì)算后的顯著圖差異。Col1欄的圖片為原始圖片,Col2欄的圖片是背景優(yōu)先模型所得到的結(jié)果,Col3為加入選擇背景后所得到的結(jié)果。表1顯示了圖5中兩幅圖片的6組邊緣距離值。
根據(jù)算法的設(shè)定,圖5(a)選擇A, B兩條邊緣作為優(yōu)先邊緣;圖5(b)選擇C, D作為優(yōu)先邊緣。僅從視覺(jué)上看,加入選擇性?xún)?yōu)先背景條件后的所得到的顯著性圖前景、背景之間的界限更加分明:前景更明亮,背景更黯淡;之前未能正確檢測(cè)的圖5(b)也得到了較好的結(jié)果。這也說(shuō)明加入背景判斷對(duì)于提高算法的正確率是有效的。接下來(lái)介紹本文模型和微軟模型的比較。
4.2 與微軟模型的比較和分析
本文模型和微軟模型同是源于“背景優(yōu)先”的思路,將二者作一個(gè)比較是很有必要的。本文模型與微軟模型在預(yù)分類(lèi)算法的選擇、背景確定、顯著性的計(jì)算方法上均不同。此外,本文利用了背景通常具有連續(xù)性這一特質(zhì)來(lái)判斷其真實(shí)性,并將判斷的結(jié)果作為先驗(yàn)信息加入顯著性計(jì)算。兩個(gè)算法的實(shí)驗(yàn)結(jié)果如圖6所示。Col1, Col2, Col3依次是原始圖片,微軟模型的處理結(jié)果,選擇性背景優(yōu)先模型的處理結(jié)果。
在圖6(a)中,本文算法的背景部分呈現(xiàn)更好的區(qū)域一致性,顯著區(qū)域的輪廓更與實(shí)物更接近,尤其是蒲公英的絨毛形狀更精確,這與我們選擇的預(yù)分類(lèi)算法和顯著度計(jì)算方法有關(guān);圖6(b)中,微軟模型未能檢測(cè)出顯著性區(qū)域,而本文算法獲得了正確的結(jié)果??傮w來(lái)說(shuō),兩種算法的正確率都比較高,但由于均值漂移預(yù)分割算法對(duì)原始圖像的細(xì)節(jié)保存得更完整,因此本文算法獲得的顯著性區(qū)域更準(zhǔn)確;同時(shí),由于加入了背景判斷,更多地利用了先驗(yàn)信息,所以正確性更高。
4.3 與其它算法的對(duì)比結(jié)果
為了進(jìn)一步驗(yàn)證算法的性能,本節(jié)將展示與其他6種流行算法的對(duì)比結(jié)果:基于頻率調(diào)制的FT[9]算法,基于直方圖對(duì)比度的HC[10]算法,基于局部對(duì)比度的LC[11]算法和RC[10]算法(RC算法也使用超像素)、基于頻域分析的SR算法和基于圖論GBVS[12]算法。這6種算法采用不同的實(shí)現(xiàn)方式,較具代表性和多樣性,其中FT算法,HC算法和RC算法都是較新的算法。
圖7中,從左往右依次是原始圖片,本文算法處理結(jié)果,F(xiàn)T, HC, LC, RC, SR, GBVS處理結(jié)果。從圖7的實(shí)驗(yàn)結(jié)果來(lái)看,總體上本文算法能更準(zhǔn)確地將背景排除。比起FT, LC, RC, SR, GBVS算法,本文得到的顯著區(qū)域更明亮,與背景的對(duì)比更強(qiáng)烈,主體輪廓更完整;和HC算法相比,本文的背景部分更暗也更完整,大量減少了將背景區(qū)域誤判為顯著性區(qū)域的情況。圖7(f)的原圖左下角有一叢樹(shù)木,與人物主體的顏色很相似,并且與天空背景形成強(qiáng)烈對(duì)比,但它并不是人眼所關(guān)注的顯著區(qū)域,只有本文算法將其判斷為“背景”而排除在外,其余6種對(duì)比算法都錯(cuò)誤地將其納入顯著區(qū)域。
圖5 背景優(yōu)先模型和選擇性背景優(yōu)先的顯著圖比較
表1 圖5兩幅圖片6組邊緣距離值
圖6 微軟亞研背景優(yōu)先模型與選擇性背景優(yōu)先模型的比較
圖7 更多模型和選擇性背景優(yōu)先的顯著圖比較
我們使用文獻(xiàn)[13]的F度量法對(duì)分割結(jié)果進(jìn)行定量比較。以人工分割的結(jié)果作為理想情況,使用F度量進(jìn)行評(píng)估。查準(zhǔn)率(precision)代表當(dāng)前分割結(jié)果中準(zhǔn)確分割部分所占的比例,查全率(recall)代表此準(zhǔn)確分割部分在理想分割結(jié)果中所占的比例,而F度量則為查準(zhǔn)率和查全率的線(xiàn)性加權(quán)(加權(quán)系數(shù)參考文獻(xiàn)[14],設(shè)定為0.5)。F度量所表示的綜合指標(biāo)值越大,分割結(jié)果越符合人類(lèi)視覺(jué)的主觀(guān)目標(biāo)判斷準(zhǔn)則。F度量見(jiàn)圖8。
圖8 7種算法的F度量
從圖8的定量分析的結(jié)果來(lái)看,多數(shù)情況下,本文算法的F度量?jī)?yōu)于其余6種算法。僅兩幅圖片的F度量略低,但是結(jié)果也相當(dāng)?shù)亟咏簣D8(a)本文算法的F度量值為0.942, HC算法為0.962;圖8(d)本文算法的F度量值為0.622, FT算法為0.624。這說(shuō)明本文模型具有較強(qiáng)的魯棒性。如果僅從人眼主觀(guān)視覺(jué)角度來(lái)看,本文算法得到的顯著圖背景的區(qū)域一致性更好,易于與前景分離,可高效地用于后續(xù)的處理中。因此本文的“背景優(yōu)先”模型比目前常用的“顯著性?xún)?yōu)先”模型能更正確地區(qū)分主體和背景,不失為一種有效的、值得探討顯著性計(jì)算方法。
本文采取“背景優(yōu)先”的思想計(jì)算圖像的顯著性區(qū)域。提出背景判斷的問(wèn)題,發(fā)現(xiàn)背景具有連續(xù)性這一特征,有針對(duì)性地找到了解決的辦法:把邊界的連續(xù)性作為判斷條件,若兩條邊界的直方圖距離小于某個(gè)閾值,則認(rèn)為它們是連續(xù)的,選擇作為優(yōu)先邊界計(jì)算過(guò)程中顯著性先驗(yàn)值。經(jīng)過(guò)這樣的處理后,最終得到的顯著性圖層次分明,更易于做后續(xù)的處理(如分割、提取等等)。通過(guò)在公開(kāi)數(shù)據(jù)庫(kù)MSRA和BSD-500上的實(shí)驗(yàn),從多個(gè)角度證明了本文算法的可行性和有效性。
[1] Itti L, Koch C, and Niebur E. A model of saliency-based visual attention for rapid scene analysis[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(11): 1254-1259.
[2] 馬儒寧, 涂小坡, 丁軍娣, 等. 視覺(jué)顯著性凸顯目標(biāo)的評(píng)價(jià)[J].自動(dòng)化學(xué)報(bào), 2012, 38(5): 870-876. Ma Ru-ning, Tu Xiao-po, Ding Jun-di, et al.. To evaluate salience map towards popping out visual objects[J]. Acta Automatica Sinica, 2012, 38(5): 870-876.
[3] Achanta R, Estrada F, Wils P, et al.. Salient region detection and segmentation[C]. Proceedings of the 6th International Conference on Computer Vision Systems, Santorini, Greece, 2008: 66-75.
[4] Hou X and Zhang L. Saliency detection: a spectral residual approach[C]. IEEE Conference on Computer Vision and Pattern Recognition, Minneapolis, Minnesota, USA, 2007: 1-8.
[5] Kim C, Kim J, and Sim J. Multiscale saliency detection using random walk with restart[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2014, 24(2): 198-210.
[6] Perazzi F, Krahenbuhl P, Pritch Y, et al.. Saliency filters: contrast based filtering for salient region detection[C]. Proceeding of IEEE International Conferrence of Computer Vision and Pattern Recognition, RI, USA, 2012: 733-740.
[7] Wei Yi-chen, Wen Fang, and Zhu Wang-jiang. Geodesic saliency using back ground priors[C]. Proceeding of the European Conference on Computer Vision 2012: Part III, Florence, Italy, 2012: 29-42.
[8] Veksler O, Boykov Y, and Mehrani P. Superpixels and supervoxels in an energy optimization framework[C]. Proceeding of the European Conference on Computer Vision 2010, Berlin Heidelberg, 2010: 211-224.
[9] Achanta R, Hemami S, Estrada F, et al.. Frequency-tuned salient region detection[C]. IEEE Conference on Computer Vision and Pattern Recognition, Miami, FL, USA, 2009: 1597-1604.
[10] Cheng M, Zhang G, Mitra N, et al.. Global contrast based salient region detection[C]. IEEE Conference on Computer Vision and Pattern Recognition, Colorado Springs, USA, 2011: 409-416.
[11] Zhai Y and Shah M. Visual attention detection in video sequences using spatiotemporal cues[C]. Proceedings of ACM Multimedia, Santa Barbara, CA, USA, 2006: 815-824.
[12] Harel J, Koch C, and Perona P. Graph-based visual saliency[C]. Proceedings of Neural Information Processing Systems, Montreal, Quebec, Canada, 2006: 545-552.
[13] Russell B, Freeman W, Efros A, et al.. Using multiple segmentations to discover objects and their extent in image collections[C]. IEEE Conference on Computer Vision and Pattern Recognition, New York, USA, 2006: 1605-1614.
[14] 錢(qián)曉亮, 郭雷, 韓軍偉, 等. 視覺(jué)顯著性檢測(cè): 一種融合長(zhǎng)期和短期特征的信息論算法[J]. 電子與信息學(xué)報(bào), 2013, 35(7): 1636-1643. Qian Xiao-liang, Guo Lei, Han Jun-wei, et al.. Visual saliency detection: an information theoretic algorithm combined long-term with short-term features[J]. Journal of Electronics & Information Technology, 2013, 35(7): 1636-1643.
蔣寓文: 女,1986 年生,博士,主要研究方向?yàn)楦呔S仿生信息學(xué)、圖像處理、計(jì)算機(jī)視覺(jué)等.
譚樂(lè)怡: 女,1980 年生,博士,主要研究方向?yàn)槟J阶R(shí)別、圖像處理、計(jì)算機(jī)視覺(jué)等相關(guān)方向.
王守覺(jué): 男,1925年生,中國(guó)科學(xué)院院士,主要研究方向?yàn)榉律J阶R(shí)別、高維信息學(xué).
Saliency Detected Model Based on Selective Edges Prior
Jiang Yu-wen①②Tan Le-yi②③Wang Shou-jue①②①(Institute of Semiconductors, Chinese Academy of Sciences, Beijing 100083, China)
②(Suzhou Institute of Nano-Tech and Nano-Biotics, Chinese Academy of Sciences, Suzhou 215123, China)
③(College of Electronics and Information Engineering, Tongji University, Shanghai 200092, China)
In the field of saliency detection, background prior has become a novel viewpoint, but how to identify the real background is challenging. In this paper, a background-identified method is proposed based on homology continuity using the extracted background features, and the identified background is applied to the following computation, improving the eventual saliency map in accuracy as well as correctness. First, the primary saliency of each superpixel produced by Mean Shift (MS) segmentation algorithm is calculated. Second, 4 edges are extracted to generate their RGB histograms, and the Euclidean distance between each two of the histograms is calculated, if the distance is smaller than a given value, these two edges are defined to be continual and more likely to be the real background. Finally, the pixel’s saliency is calculated using the prior background knowledge to figure the final saliency map. The results show that the proposed method outperforms other algorithms in accuracy and efficiency.
Computer vision; Saliency analysis; Background continuity; RGB histogram; Super pixel
TP391.4
A
1009-5896(2015)01-0130-07
10.11999/JEIT140119
2014-01-20收到,2014-06-13改回
國(guó)家自然科學(xué)基金(90920013)資助課題
*通信作者:譚樂(lè)怡 ywjiang2009@sinano.ac.cn