国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于上下文信息的自適應(yīng)場(chǎng)景分類算法

2018-10-29 10:16:54靜,朱
關(guān)鍵詞:紋理尺度顯著性

史 靜,朱 虹

(西安理工大學(xué)自動(dòng)化與信息工程學(xué)院,陜西西安710048)

近些年來(lái),隨著互聯(lián)網(wǎng)的發(fā)展,網(wǎng)絡(luò)上每天都涌現(xiàn)出大量的圖像和視頻資料,我們可以充分利用網(wǎng)絡(luò)資源豐富我們的生活,但隨之而來(lái)的問(wèn)題就是,如何更好地分類、管理這些資源。

目前,由于網(wǎng)絡(luò)的歸類整理方式和能力有限,加之大量圖像的文字標(biāo)注有誤差,使得利用文字注釋進(jìn)行圖像分類整理方法不再具有優(yōu)勢(shì)。由此,依據(jù)圖像內(nèi)容進(jìn)行分類的算法逐漸發(fā)展起來(lái),并成為機(jī)器視覺(jué)領(lǐng)域中一個(gè)重要的研究?jī)?nèi)容[1-3],其應(yīng)用領(lǐng)域涉及到基于內(nèi)容的圖像檢索[4]、目標(biāo)檢測(cè)[2]、視頻摘要[5]、視頻內(nèi)容分析[6],特別是機(jī)器人服務(wù)[7],例如機(jī)器人路徑規(guī)劃和機(jī)器人管家等等。

早期的圖像分類,主要通過(guò)描述圖像底層特征[8]信息來(lái)表征圖像的視覺(jué)感知屬性,進(jìn)行場(chǎng)景分類,之后映射到高層語(yǔ)義進(jìn)行分類。文獻(xiàn)[9]將圖像表示為一個(gè)尺度不變的響應(yīng)映射,通過(guò)提取的底層特征進(jìn)行聚類,構(gòu)成“視覺(jué)詞袋”來(lái)表征圖像的語(yǔ)義信息[10-11],最終反映圖像的類別信息。

然而,由于場(chǎng)景中的事物數(shù)量和種類繁多,同類場(chǎng)景之間類內(nèi)變化較為豐富,以及不同類場(chǎng)景之間差異較小,造成了使用功能的差異,這些影響降低了其分類的準(zhǔn)確度。

見(jiàn)圖1,圖1(a)為同一類的兩幅不同圖像,然而,類內(nèi)的出現(xiàn)目標(biāo)、聚集區(qū)域以及姿態(tài)和外形都有著相當(dāng)大的差異。圖1(b)~(d)中的三幅圖像分別屬于三個(gè)不同的類,但卻在視覺(jué)上非常相似。因此,對(duì)于一個(gè)高性能的分類系統(tǒng)來(lái)說(shuō),應(yīng)該能夠處理具有細(xì)微視覺(jué)差異的圖像類別。

圖1 類內(nèi)差異及類間相似圖像對(duì)比Fig.1 Images comparison of intra-class differences and extra-class similarity

針對(duì)上述問(wèn)題,本文提出了一種新的基于上下文信息的自適應(yīng)場(chǎng)景分類算法,通過(guò)對(duì)圖像的上下文信息進(jìn)行優(yōu)先檢測(cè),彌補(bǔ)了將圖像中的事物割裂開(kāi)來(lái)并硬分割組合的缺點(diǎn)。同時(shí),利用提取的上下文信息對(duì)圖像的多尺度多方向特征進(jìn)行優(yōu)化,進(jìn)一步有效地提高了分類算法的效率和精度。

1 算法描述

本文算法中為了充分利用圖像在不同尺度方向下的頻域特征,首先對(duì)圖像進(jìn)行Gabor變換[10],之后,分別提取各尺度方向下Gabor變換圖像的顯著性區(qū)域。接著,對(duì)不同尺度方向下的Gabor變換圖像提取細(xì)節(jié)紋理特征,并利用同尺度方向下顯著性檢測(cè)的結(jié)果,對(duì)這些特征進(jìn)行加權(quán)融合,并得到加權(quán)后紋理特征的累計(jì)直方圖。最后,送入到SVM中進(jìn)行訓(xùn)練。由于部分?jǐn)?shù)據(jù)集中的圖像大小不一,所以,在訓(xùn)練和測(cè)試之前需要將圖像尺寸歸一化。

1.1 Gabor變換

Gabor變換是Gabor等提出的一種時(shí)間-頻率分析方法。其對(duì)信號(hào)的處理近似于人眼,能夠很好地提取目標(biāo)物的局部空間和頻域信息,特別是對(duì)于圖像的邊緣信息,具有良好的方向和尺度選擇特性,且對(duì)于光照信息不敏感。鑒于以上原因,本文根據(jù)Gabor變換特殊性質(zhì),在其變換域的的不同尺度和方向上提取主要關(guān)聯(lián)特征,在這里我們進(jìn)行5個(gè)尺度和8個(gè)方向的Gabor變換,即一幅圖像共得到40個(gè)變換結(jié)果圖。見(jiàn)圖2,由于變換結(jié)果圖較多,僅顯示Gabor變換的部分結(jié)果圖。

圖2 Gabor變換示意圖Fig.2 Gabor transformation images

1.2 顯著性檢測(cè)

由人眼的視覺(jué)感知特性可知,人們對(duì)場(chǎng)景的認(rèn)知通常是依據(jù)場(chǎng)景中的某些事物,比如如臥室中的床、教室中的桌椅等,而對(duì)于場(chǎng)景的判別問(wèn)題,目標(biāo)物的檢測(cè)就尤為重要。

早期的顯著性檢測(cè)算法主要集中在對(duì)目標(biāo)物輪廓信息的描述,并沒(méi)有對(duì)目標(biāo)物存在的區(qū)域顯著性進(jìn)行判別,且只注重目標(biāo)物本身的提取,沒(méi)有關(guān)注目標(biāo)物之間的相互關(guān)聯(lián),因此存在局限性,況且簡(jiǎn)單的目標(biāo)物檢測(cè)及組合,并不能準(zhǔn)確表征圖像場(chǎng)景所反映的內(nèi)容。

鑒于以上原因,根據(jù)Goferman[12]的思想,所提取的顯著性區(qū)域,不但與周圍鄰近區(qū)域具有明顯差異,而且與圖像整體也具有明顯的差異,充分考慮了圖像中上下文之間的語(yǔ)義關(guān)系。通常情況下,圖像塊之間的顏色差異越大,距離越近,則顯著性越強(qiáng)。在提取場(chǎng)景圖像顯著性區(qū)域的基礎(chǔ)上,注重顯著目標(biāo)之間的上下文關(guān)系。

圖3為部分圖像及其進(jìn)行顯著性檢測(cè)后的結(jié)果。通過(guò)圖3可以看出,結(jié)果圖像能夠充分地反映場(chǎng)景中的事物,并對(duì)周圍環(huán)境進(jìn)行了一定程度地描述。

圖3 部分圖像及其進(jìn)行顯著性檢測(cè)后的結(jié)果Fig.3 Partial images and the results from sensitive information detected

1.3 特征提取

本文利用經(jīng)典的LBP(Local Binary Pattern,局部二值模式)算法[13],它是由Ojala等人提出的,能夠很好地描述圖像的細(xì)節(jié)特征,對(duì)于圖像中的旋轉(zhuǎn)和灰度變化有著較強(qiáng)的魯棒性。計(jì)算公式如下:

(1)

(2)

式中:gc代表模板中的中心像素值,gn代表模板中與中心像素相鄰的像素值,N為模板中像素點(diǎn)的個(gè)數(shù),s(x)為紋理元。

見(jiàn)圖4,由3×3模板所覆蓋的區(qū)域,將區(qū)域中的周圍像素與中心像素進(jìn)行比較,所得的結(jié)果表示成8位二進(jìn)制碼,將這8為二進(jìn)制碼轉(zhuǎn)為十進(jìn)制,即為該模板中心像素的LBP值。通過(guò)該算法,將圖像中的所有像素點(diǎn)映射到0~255的范圍內(nèi)。

圖4 LBP特征提取示意圖Fig.4 LBP feature extraction images

圖5為對(duì)圖2的Gabor變換結(jié)果提取LBP特征后的部分結(jié)果。從結(jié)果圖中可以看出,LBP特征可以從不同尺度方向Gabor變換中提取更多的細(xì)節(jié)紋理特征,且表示更加清晰。

1.4 特征融合

將每幅訓(xùn)練圖像Gabor變換得到的40幅變換圖像,進(jìn)行顯著性檢測(cè),同時(shí)提取LBP特征,在同一尺度方向下利用顯著性檢測(cè)圖對(duì)LBP特征提取圖進(jìn)行加權(quán),權(quán)值通過(guò)Sigmoid函數(shù)[14]映射得到。Sigmoid函數(shù)為S型函數(shù),也稱為S型生長(zhǎng)曲線,有著單增以及反函數(shù)單增等性質(zhì),常被用作神經(jīng)網(wǎng)絡(luò)的閾值函數(shù),將變量映射到0~1之間。計(jì)算公式如下:

(3)

式中:w為顯著度值,αw為Sigmoid函數(shù)映射后的權(quán)值。下式為利用Sigmoid函數(shù)映射結(jié)果對(duì)LBP特征進(jìn)行加權(quán)的公式:

LBPweight=αw·LBPnew

(4)

其中,LBPweight為加權(quán)后的LBP特征。

圖5 Gabor變換提取LBP特征部分結(jié)果Fig.5 The partial results of Gabor transform extracts LBP feature

對(duì)所有加權(quán)后的LBP圖像求取累計(jì)直方圖,生成256維特征向量,將所有尺度方向下的特征向量進(jìn)行串聯(lián),即每幅圖像轉(zhuǎn)為256×40=10 240維特征向量。如此高維的特征向量,無(wú)論對(duì)于紋理的提取、表達(dá)都是不利的,數(shù)據(jù)量過(guò)大,導(dǎo)致直方圖過(guò)于稀疏,而且還會(huì)影響后期事物紋理的識(shí)別、分類及信息的存取,大大降低了算法的效率。因此,需要對(duì)加權(quán)后的LBP特征向量進(jìn)行降維,使其在數(shù)據(jù)量減少的情況下,能夠很好地保留原始數(shù)據(jù)的特征信息,本文利用Ojala提出的均勻模式LBP(Uniform Pattern LBP)進(jìn)行降維。

經(jīng)過(guò)統(tǒng)計(jì),均勻模式LBP在整個(gè)的LBP特征中占85%~90%,而其他模式只占很少的一部分,因此,對(duì)于3×3的鄰域,將LBP特征值分為59類,58個(gè)均勻模式為一類,其它所有值為第59類,直方圖從原來(lái)的256維變成59維。最后,將每幅訓(xùn)練圖像融合后的59×40=2 360維特征作為訓(xùn)練特征,送入到SVM中進(jìn)行訓(xùn)練。

2 實(shí)驗(yàn)結(jié)果分析

在3個(gè)公共標(biāo)準(zhǔn)圖像集上評(píng)價(jià)本文算法,分別為8類自然場(chǎng)景圖像集[15]、8類運(yùn)動(dòng)場(chǎng)景圖像集[16]及15類場(chǎng)景圖像集[15,17-18]。為準(zhǔn)確評(píng)價(jià)本文算法與同類文獻(xiàn)的實(shí)驗(yàn)結(jié)果,應(yīng)用同樣的訓(xùn)練和測(cè)試數(shù)據(jù)比例。

1) 8類自然場(chǎng)景圖像集(OT):該數(shù)據(jù)集共包含8類2 688幅大小均為256×256的自然場(chǎng)景圖像。見(jiàn)圖6(a),有海灘、高樓等。每個(gè)類別利用200幅訓(xùn)練,其余用來(lái)測(cè)試。

圖6 各數(shù)據(jù)集部分圖像Fig.6 Partial images of each datasets

2) 8類運(yùn)動(dòng)場(chǎng)景圖像集(SE):該數(shù)據(jù)集共包含8類1 579幅運(yùn)動(dòng)場(chǎng)景圖像。其中包括賽艇、滑板滑雪、攀巖等,見(jiàn)圖6(b)。每個(gè)類別利用70幅訓(xùn)練,60幅用來(lái)測(cè)試。

3) 15類場(chǎng)景圖像集(LS):該圖像集總共4 485幅圖像,分為15類,包括室外以及室內(nèi)場(chǎng)景,見(jiàn)圖6(c)。每類利用100幅圖像訓(xùn)練,其余用來(lái)測(cè)試。

在測(cè)試過(guò)程中,將測(cè)試圖像通過(guò)上述步驟得到2 360維特征向量,送入到已訓(xùn)練好的SVM分類器中測(cè)試。

為了比較添加了顯著性算法與未添加該算法對(duì)本文實(shí)驗(yàn)結(jié)果的影響,本文按照同樣的實(shí)驗(yàn)數(shù)據(jù)劃分比例,對(duì)有無(wú)顯著性算法的實(shí)驗(yàn)結(jié)果進(jìn)行比較測(cè)試。表1為5次測(cè)試結(jié)果的平均值。

表1 有無(wú)顯著性檢測(cè)算法的分類準(zhǔn)確率比較Tab.1 The classification accuracy with and without containing saliency detection algorithm

通過(guò)表1可以看出,在三個(gè)圖像集中,OT數(shù)據(jù)集的分類效果最好,一方面由于分類的數(shù)目較少,室外場(chǎng)景中目標(biāo)物之間的上下文關(guān)系較為單一,變化較少,另一方面同類場(chǎng)景中目標(biāo)物的紋理結(jié)構(gòu)較為類似,因此分類難度較小,而SE和LS數(shù)據(jù)集場(chǎng)景中目標(biāo)物相對(duì)比較復(fù)雜,特別是LS數(shù)據(jù)集中還包括一些室內(nèi)場(chǎng)景,因此分類準(zhǔn)確率較低。

增加了顯著性算法后,分類準(zhǔn)確率相比較沒(méi)有顯著性算法的結(jié)果有了略微的提升,說(shuō)明該算法具有一定的有效性,特別是對(duì)于SE數(shù)據(jù)集,提升的幅度相對(duì)較大,主要是由于該數(shù)據(jù)集為運(yùn)動(dòng)場(chǎng)景數(shù)據(jù)集,顯著性區(qū)域較為明顯且集中,而另外兩個(gè)數(shù)據(jù)集所包含的場(chǎng)景顯著性檢測(cè)所捕獲的上下文關(guān)系不夠明顯,顯著區(qū)域較為分散,因此,利用該算法所提升的性能有限。

將本文提出的算法在3個(gè)公共圖像集上與同類算法的分類正確率進(jìn)行比較,結(jié)果見(jiàn)表2。

表2 分類正確率的比較測(cè)試實(shí)驗(yàn)結(jié)果Tab.2 Comparison test results of scene classification accuracy

從表2中可以看出,本文算法較對(duì)比文獻(xiàn)算法整體占優(yōu),文獻(xiàn)[7]利用核稀疏表達(dá)(KSR),其為圖像在高維空間中的稀疏編碼技術(shù)去分類場(chǎng)景和人臉。文獻(xiàn)[13]提出了多尺度完備局部二值模式(MS-CLBP)描述子,在多個(gè)分辨率下表征占主要地位的紋理特征。文獻(xiàn)[19]利用擴(kuò)展譜回歸和詞袋特征對(duì)圖像進(jìn)行分類。本文的方法不需要建立復(fù)雜的主題模型,只需提取圖像的多尺度方向紋理特征,并利用顯著性區(qū)域檢測(cè)對(duì)特征進(jìn)行增強(qiáng)。

3 結(jié) 語(yǔ)

本文提出了一種有效的場(chǎng)景圖像分類方法,通過(guò)提取圖像的顯著性區(qū)域和多尺度多方向上的細(xì)節(jié)紋理特征,并利用顯著性檢測(cè)算法對(duì)特征進(jìn)行加權(quán)融合。之后,根據(jù)均勻模式對(duì)加權(quán)后的LBP特征向量進(jìn)行降維。最后,訓(xùn)練SVM分類器,并進(jìn)行分類判別。該方法不僅充分考慮了人眼對(duì)視覺(jué)信號(hào)的敏感程度,而且彌補(bǔ)了單尺度單方向特征對(duì)于整體圖像描述不足的缺陷。

猜你喜歡
紋理尺度顯著性
財(cái)產(chǎn)的五大尺度和五重應(yīng)對(duì)
基于BM3D的復(fù)雜紋理區(qū)域圖像去噪
軟件(2020年3期)2020-04-20 01:45:18
基于顯著性權(quán)重融合的圖像拼接算法
電子制作(2019年24期)2019-02-23 13:22:26
使用紋理疊加添加藝術(shù)畫(huà)特效
基于視覺(jué)顯著性的視頻差錯(cuò)掩蓋算法
TEXTURE ON TEXTURE質(zhì)地上的紋理
Coco薇(2017年8期)2017-08-03 15:23:38
一種基于顯著性邊緣的運(yùn)動(dòng)模糊圖像復(fù)原方法
論商標(biāo)固有顯著性的認(rèn)定
宇宙的尺度
太空探索(2016年5期)2016-07-12 15:17:55
消除凹凸紋理有妙招!
Coco薇(2015年5期)2016-03-29 23:22:15
正定县| 克什克腾旗| 正蓝旗| 祥云县| 荔浦县| 新宁县| 尉氏县| 舟山市| 海淀区| 阿瓦提县| 山阴县| 永川市| 呼玛县| 班戈县| 大埔县| 东乌珠穆沁旗| 城固县| 泗洪县| 波密县| 游戏| 平阴县| 河池市| 奉化市| 蚌埠市| 无锡市| 昔阳县| 五寨县| 中宁县| 吉隆县| 淅川县| 磐石市| 房山区| 布拖县| 菏泽市| 巩义市| 连南| 信丰县| 黄龙县| 卢龙县| 仙游县| 灌南县|