国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于RGB-D數(shù)據(jù)集的無參數(shù)圖像深度估計(jì)算法

2014-02-09 07:46于海鵬
關(guān)鍵詞:像素變形深度

于海鵬,魏 濤

(河南工程學(xué)院計(jì)算機(jī)科學(xué)與工程系,河南鄭州450007)

0 引 言

立體成像和三維重建已經(jīng)成為人們所關(guān)注的一個(gè)熱點(diǎn)。對于立體成像,首先需要提取出二維圖像的第三維信息,即深度估計(jì)。因此,從單張圖片有效地估計(jì)出深度信息是計(jì)算機(jī)視覺領(lǐng)域的一項(xiàng)重要研究內(nèi)容。傳統(tǒng)的深度估計(jì)方法主要集中于基于雙目視差的方法[1,2],基于相機(jī)運(yùn)動的方法[3,4]和基于變焦[5]或散焦[6]的方法等。這些方法往往需要一個(gè)或兩個(gè)圖像采集設(shè)備來拍攝相同場景的兩張或多張圖像。而且無一例外的,它們都需要事先知道圖像采集設(shè)備的參數(shù),知道圖像是由什么型號的設(shè)備拍攝得到,然后通過復(fù)雜的空間幾何關(guān)系或者圖像中的點(diǎn)擴(kuò)散函數(shù)得到圖像的深度信息。而在實(shí)際情況中,往往只有圖像而沒有圖像采集設(shè)備的任何參數(shù)。因此,在沒有相機(jī)參數(shù)而僅用單張圖片的來估計(jì)場景深度的方法具有更廣泛的實(shí)際應(yīng)用意義。最近,陸等人[7]提出一種針對單張圖片獲取深度信息的算法,該算法是一種基于Markov隨機(jī)場模型對圖像建模來獲取圖像深度信息。但在模型的建立過程中對圖像進(jìn)行的分割方法仍有一定的改進(jìn),采用不同的分割方法也會導(dǎo)致得到的深度信息不同。提出了一種針對單張圖像的場景深度估計(jì)算法,中心思想是建立在不同圖像中具有相同語義,即不同圖像中相似的物體,假設(shè)它們具有相似的深度信息。利用Make3D[8]數(shù)據(jù)集,該數(shù)據(jù)集是利用三維激光測距儀(SICK LMS-291)得到的一組場景圖及其相對應(yīng)的深度圖,在該數(shù)據(jù)集中利用全局GIST[9]特征進(jìn)行全局匹配,并利用稠密SIFT[11]特征進(jìn)行局部匹配,查詢到與測試圖最相似的K張圖像,然后通過提出的前提假設(shè),將相似圖片及其深度圖利用SIFT流[12]變形得到測試圖的深度圖。

1 圖像匹配及變形的關(guān)鍵技術(shù)

1.1 GIST特征

GIST一種宏觀的全局特征描述符,利用自然度、開放度、粗糙度、擴(kuò)張度和崎嶇度等物種語義詞匯來描述自然場景。GIST特征是通過多種尺度多個(gè)方向的Gabor濾波器組對圖像濾波后得到的輪廓信息。其中Gabor濾波器的表達(dá)式為

式中:x和y——圖像像素坐標(biāo)位置,σx和σy——x和y方向Gaussian因子的方差,f0——濾波器中心頻率,φ——該諧波因子的相位差。利用Gabor濾波器對圖像進(jìn)行特征提取的實(shí)質(zhì)就是將一組Gabor小波函數(shù)基與圖像進(jìn)行卷積操作。從而對輸入的圖像用一種魯棒的全局特征來表示[12]。

1.2 SIFT特征及稠密SIFT描述

SIFT算法是在基于圖像的特征尺度在不同的尺度空間上查找關(guān)鍵點(diǎn),首先通過高斯卷積核來實(shí)現(xiàn)圖像的尺度變換,建立多尺度空間,尺度空間使用高斯金字塔表示。然后檢測尺度空間的關(guān)鍵點(diǎn),關(guān)鍵點(diǎn)則是由尺度空間的局部極值點(diǎn)組成的,這些極值點(diǎn)的初步探查是通過尺度空間中各相鄰兩層圖像之間比較來完成的。為了尋找尺度空間中的極值點(diǎn),每個(gè)像素點(diǎn)都要與相鄰的所有點(diǎn)進(jìn)行比較,在尺度空間的中間層的檢測點(diǎn)與同尺度的8個(gè)相鄰點(diǎn)和上下相鄰尺度對應(yīng)的9×2個(gè)點(diǎn)比較,確保在尺度空間和二維圖像空間都檢測到極值點(diǎn)[14]。如果它比圖像域和尺度域的相鄰點(diǎn)都大或者比它們都小,則認(rèn)為該點(diǎn)是極值點(diǎn)。然后將這些檢測到的粗略的極值點(diǎn)的邊緣響應(yīng)點(diǎn)以及低對比度的關(guān)鍵點(diǎn)刪除,這樣可以得到更為精確的特征點(diǎn)用于后續(xù)的匹配操作,增強(qiáng)匹配的準(zhǔn)確性。

為了使得特征點(diǎn)的描述符具有旋轉(zhuǎn)不變性等特點(diǎn),需要首先利用圖像的局部特征來給每一個(gè)檢測出的關(guān)鍵點(diǎn)在一定的領(lǐng)域內(nèi)分配一個(gè)基準(zhǔn)方向,使用圖像梯度的方法求取局部結(jié)構(gòu)的穩(wěn)定方向。該基準(zhǔn)方向通過在完成關(guān)鍵點(diǎn)的梯度計(jì)算后,使用直方圖統(tǒng)計(jì)鄰域內(nèi)像素的梯度和方向,以直方圖中最大值作為該關(guān)鍵點(diǎn)的穩(wěn)定方向。再為每個(gè)關(guān)鍵點(diǎn)建立一個(gè)特征描述符,用一組向量將這個(gè)關(guān)鍵點(diǎn)描述出來,使其不隨光照和視角等變化而改變[15]。將特征點(diǎn)的鄰域劃分成16個(gè)4×4像素大小的子塊,然后計(jì)算每個(gè)子塊在360度中平分的8個(gè)方向上的梯度直方圖,最后將每個(gè)特征點(diǎn)表示為一個(gè)128維特征向量[16]。

SIFT特征是一種稀疏特征描述符,是在圖像中檢測極值點(diǎn)并提取出特征。而稠密SIFT則是取消檢測圖像中的極值點(diǎn)。即對圖像中每個(gè)像素點(diǎn)的領(lǐng)域分成16個(gè)4×4像素大小子塊,然后得到其SIFT特征。這種對每個(gè)像素求得的SIFT描述稱為稠密SIFT描述符[17]。

1.3 SIFT流

與光流相似,定義一個(gè)目標(biāo)函數(shù)來估計(jì)兩圖像之間的SIFT流。SIFT流的計(jì)算過程為:首先提取圖像每一個(gè)像素的SIFT描述符,即稠密SIFT描述符,然后對相鄰幀圖像計(jì)算圖片中點(diǎn)的運(yùn)動流場。SIFT流能量方程函數(shù)定義為

其中w(p)=(u(p),v(p))是圖像P點(diǎn)的流矢量,si(p)代表圖像i在像素p點(diǎn)的SIFT描述符,ξ是像素p點(diǎn)的領(lǐng)域。相對于傳統(tǒng)光流技術(shù),SIFT流對尺度、旋轉(zhuǎn)和仿射變換等具有更強(qiáng)的魯棒性。

2 無參數(shù)深度估計(jì)算法

無參數(shù)深度估計(jì)算法分為3個(gè)階段,工作流程如圖1所示。

圖1 無參數(shù)深度估計(jì)流程

首先給定輸入圖片后,在RGB-D數(shù)據(jù)集中查詢到與輸入圖片最相似的K張圖片。然后,利用SIFT流將查詢到的圖片及其對應(yīng)的深度圖變形到輸入圖片更加一致。最后,通過輸入圖片,變形圖片以及變形后的深度圖構(gòu)造能量函數(shù)并最小化來得到最后的深度圖。

2.1 相似圖片查詢

為了找到與輸入圖片最相似的K張圖片,通過GIST特征及稠密SIFT特征的共同作用來查找相似圖片。對輸入圖片與數(shù)據(jù)集中每張圖片通過計(jì)算下式得到相似值

初到廣州的五建迅速瞄準(zhǔn)和服務(wù)華南市場。但與此同時(shí),五建面臨著依賴傳統(tǒng)工程建設(shè)項(xiàng)目、效益增長方式單一、市場投資領(lǐng)域變化、生產(chǎn)方式轉(zhuǎn)變、資源環(huán)境和生產(chǎn)要素制約以及勞動力成本上升等問題。眼見傳統(tǒng)工程建設(shè)的路越來越窄,未來如何生存已經(jīng)成為不得不思考的問題。“我們清醒地認(rèn)識到,只有加快企業(yè)轉(zhuǎn)型升級步伐,開發(fā)新的效益增長領(lǐng)域,企業(yè)才能煥發(fā)出新的生機(jī)和活力。”五建黨委書記蔣德軍說。

其中G1、G2和S1、S2分別代表兩張圖片的GIST特征和稠密SIFT特征,將前K個(gè)取得最小值的圖片作為最相似的圖片,稱為候選圖片,并將它們的深度圖作為候選深度圖。

2.2 相似圖片及其深度圖的變形

通過計(jì)算出的候選圖片與輸入圖片具有最相似的特征空間,因此理論上這些圖片與輸入圖片在場景級別上或是物體級別上具有更一致的語義信息。假設(shè)基于相同語義的物體具有相似的深度估計(jì),為了得到更準(zhǔn)確的估計(jì),更希望相似圖片與輸入圖片在像素級別上具有更一致的語義信息,通過SIFT流的變形方法可以實(shí)現(xiàn)。

首先將輸入圖片與每張候選圖片計(jì)算出SIFT流,通過SIFT流得到相應(yīng)的變形函數(shù)。再將每張候選圖片通過各自的變形函數(shù)即SIFT流的逆向變形,變形到與輸入圖片在像素級別上具有更一致的語義信息。另外,每張候選圖片的深度圖也同樣以相同變形函數(shù)變形。

2.3 深度圖估計(jì)

根據(jù)假設(shè),具有相同語義的場景、物體和像素具有相似的深度信息。因此,每張變形后的候選圖片與輸入圖片具有大致相等的深度信息。但這些候選圖片必然會包含一些不準(zhǔn)確的信息。而且由于候選圖片經(jīng)過變形后會導(dǎo)致對應(yīng)的深度信息在空間上不夠光滑,需要將K張候選圖片的深度信息綜合考慮,優(yōu)化如下能量函數(shù),得到輸入圖片的深度圖,并使得深度圖滿足空間光滑性

式中:D——深度,i——圖像的像素,I——輸入圖片。該目標(biāo)函數(shù)包括3項(xiàng):數(shù)據(jù)項(xiàng)Ed(Di),空間光滑項(xiàng)Es(Di)以及先驗(yàn)項(xiàng)Ep(Di)。

數(shù)據(jù)項(xiàng)Ed(Di)用來控制輸入圖片的深度與變形后的候選圖片深度的相似程度,相似程度用來測量,ξ=10-4,(x)值越小則越相似。數(shù)據(jù)項(xiàng)定義為

S代表稠密SIFT特征。數(shù)據(jù)項(xiàng)中第一項(xiàng)使得輸入圖片的深度信息與變形后的候選圖片深度信息盡量保持一致。第二項(xiàng)使得輸入圖片的深度圖與變形后的候選圖片深度圖的梯度保持一致。

空間光滑項(xiàng)Es(Di)使得輸入圖片的深度信息在圖像的光滑區(qū)域也保持光滑性。即使得輸入圖像與其深度圖的梯度信息保持一致

其中權(quán)重為

能量函數(shù)中還包括了輸入圖片深度圖的先驗(yàn)信息。先驗(yàn)信息根據(jù)查詢到的K張相似圖片的深度信息得到

式中:ρ——輸入圖片深度圖的先驗(yàn)信息,通過計(jì)算K張候選圖片深度圖的平均值得到

通過迭代重加權(quán)的優(yōu)化方法可以得到能量函數(shù)的最小值。

3 實(shí)驗(yàn)結(jié)果與分析

RGB-D數(shù)據(jù)集來自Make3D數(shù)據(jù)中。數(shù)據(jù)集中包括534張分辨率為2272×1704的圖像。采用其中400張作為訓(xùn)練集,134張作為測試集。實(shí)驗(yàn)參數(shù)設(shè)置為:K=7,α=10,β=0.5,γ=10。實(shí)驗(yàn)結(jié)果如圖2所示。

圖2 場景圖及不同方法估計(jì)的深度

在圖2中,圖2(a)(上)為Make3D數(shù)據(jù)集中134張測試集中的場景圖,圖2(b)(中)為由Make3D方法得到的深度圖,圖2(c)(下)為改進(jìn)算法得到的深度結(jié)果圖。深度圖中黑色為最近,白色為最遠(yuǎn)。通過計(jì)算得到的深度圖像與真實(shí)深度值的相對誤差來比較深度圖像估計(jì)的準(zhǔn)確性,計(jì)算公式為

其中D代表估計(jì)深度,DT代表真實(shí)深度。與圖2對應(yīng)的相對誤差數(shù)值比較見表1。

表1 三幅圖片的Make3D和改建算法相對誤差

從表1中可以看出,通過與Make3D的方法進(jìn)行比較,平均相對誤差降低了12.03%,改進(jìn)的算法得到的深度圖可以更好的反應(yīng)場景的真實(shí)深度,比如圖中的樹葉部分等一些細(xì)小的特征區(qū)域。實(shí)驗(yàn)中僅使用了Make3D數(shù)據(jù)集中的400張作為訓(xùn)練集。理論上,如果使訓(xùn)練集更加完善,使訓(xùn)練集中包含更多的場景信息,改進(jìn)的算法會得到更準(zhǔn)確的深度估計(jì)。

4 結(jié)束語

提出了一種無參數(shù)的場景圖片深度估計(jì)算法,在RGBD數(shù)據(jù)集的基礎(chǔ)上,基于相同語義的物體具有相似深度信息的假設(shè),在數(shù)據(jù)集中查詢到與輸入圖片最相似的K張圖片,通過變形使相似圖片與輸入圖片具有更相似的結(jié)構(gòu)信息,最后通過最小化能量函數(shù)得到最終的圖像深度圖。由于不需要任何圖像采集設(shè)備的參數(shù)以及空間幾何關(guān)系,所以在其它基于雙目視差或運(yùn)動視差等方法失效的情況下,依然可以有效地計(jì)算得到場景深度信息。經(jīng)過實(shí)驗(yàn)證明,該方法可以有效地估計(jì)場景的深度圖,改進(jìn)算法的無參數(shù)特性在相機(jī)參數(shù)及空間幾何關(guān)系未知的情況下仍能有效計(jì)算場景深度信息,比Make3D算法的平均相對誤差降低了12.03%,具有更廣泛的實(shí)際應(yīng)用價(jià)值。

[1]WANG Jian,WANG Yuanqing.A monocular stereo vision algorithm based on bifocal imaging[J].Robot,2007,29(1):41-44(in Chinese).[王劍,王元慶.基于雙焦成像的單眼立體視覺算法[J].機(jī)器人,2007,29(1):41-44.]

[2]WANG Chuanyu,ZHAO Ming,YAN Jianhe,et al.Three-dimensional reconstruction of maize leaves based on binocular stereovision system[J].Transactions of The Chinese Society of Agricultural Engineering,2010,6(4):198-202(in Chinese).[王傳宇,趙明,閻建河.基于雙目立體視覺技術(shù)的玉米葉片三維重建[J].農(nóng)業(yè)工程學(xué)報(bào),2010,6(4):198-202.]

[3]WANG Aihong,WANG Qionghua,LI Dahai,et al.Relation-ship between stereo depth and parallax image captured in stereoscopic display[J].Optics and Precision Engineering,2009,17(2):433-437(in Chinese).[王愛紅,王瓊?cè)A,李大海,等.立體顯示中立體深度與視差圖獲取的關(guān)系[J].光學(xué)精密工程,2009,17(2):433-437.]

[4]JIANG Taiping,WANG Shuai,ZHAN Tao.Generation technique research of depth information based on motion estimation[J].Computer Technology and Development,2010,20(10):94-97(in Chinese).[姜太平,王帥,占濤.基于運(yùn)動估計(jì)的深度信息生成技術(shù)研究[J].計(jì)算機(jī)技術(shù)與發(fā)展,2010,20(10):94-97.]

[5]WANG Haiyang,LI Li,JIN Ning,et al.Design of MWIR continuous zoom optical system with large zoom range[J].Infrared and Laser Engineering,2013,42(2):398-402(in Chinese).[王海洋,李力,金寧,等.大變倍比中波紅外連續(xù)變焦光學(xué)系統(tǒng)設(shè)計(jì)[J].紅外與激光工程,2013,42(2):398-402.]

[6]FAN Chongyi,HUANG Xiaotao.Moving target detection based on multiple azimuth resolution images in low frequency SAR[J].Journal of Electronics &Information Technology,2012,34(5):1057-1064(in Chinese).[范崇祎,黃曉濤.基于多方位分辨率圖像的低頻SAR地面運(yùn)動目標(biāo)檢測方法[J].電子與信息學(xué)報(bào),2012,34(5):1057-1064.]

[7]LU Zhenjie,SONG Jin.Scene depth estimation for single digital image in multi-scaled space[J].Computer Technology and Development,2013,23(1):51-53(in Chinese).[陸振杰,宋進(jìn).單幅數(shù)字圖像多尺度空間下的場景深度估計(jì)[J].計(jì)算機(jī)技術(shù)與發(fā)展,2013,23(1):51-53.]

[8]Saxena A,Sun M,Ng A.Make3D:Learning 3D scene structure from a single still image[J].IEEE TPAMI,2009(31):824-840.

[9]QIAN Pengjiang,WANG Shitong,DENG Zhaohong.Fast kernel density estimate theorem and scaling up graph-based relaxed clustering method[J].Acta Automatica Sinica,2011,37(12):1422-1434(in Chinese).[錢鵬江,王士同,鄧趙紅.快速核密度估計(jì)定理和大規(guī)模圖論松弛聚類方法[J].自動化學(xué)報(bào),2011,37(12):1422-1434.]

[10]LI Peihua,ZHAO Nannan,YU Haiyang.Appearance modeling using dense SIFT features for object tracking[J].Journal of Natural Science of Heilongjiang University,2011,28(4):571-576(in Chinese).[李培華,趙楠楠,于海洋.使用稠密SIFT特征表達(dá)目標(biāo)的跟蹤方法[J].黑龍江大學(xué)自然科學(xué)學(xué)報(bào),2011,28(4):571-576.]

[11]CHEN Hailin,WU Xiuqing,HU Junhua,et al.Densityguided tree-structured kernel for image object classification[J].Journal of Image and Graphics,2009,14(12):2545-2551(in Chinese).[陳海林,吳秀清,胡俊華,等.基于密度導(dǎo)向的樹型結(jié)構(gòu)核的圖像目標(biāo)分類[J].中國圖象圖形學(xué)報(bào),2009,14(12):2545-2551.]

[12]Pechaud M,Vanzetta.Sift-based sequence registration and flow-based cortical vessel segmentation applied to high resolu-tion optical imaging data[C]//5th IEEE International Symposium on Biomedical Imaging:From Nano to Macro,2008:720-723.

[13]SONG Dan,TANG Linbo,ZHAO Baojun.SIFT mismatching points eliminating algorithm based on region overlapping kernel weighted Hu moment[J].Systems Engineering and Electronics,2013(4):870-875(in Chinese).[宋丹,唐林波,趙保軍.基于區(qū)域重疊核加權(quán)Hu矩的SIFT誤匹配點(diǎn)剔除算法[J].系統(tǒng)工程與電子技術(shù),2013(4):870-875.]

[14]Liu C,Yuen J,Torralba A.SIFT flow:Dense correspondence across scenesand its applications[J].IEEE TPAMI,2011(33):978-994.

[15]LAN Jianliang,DING Youdong,HUANG Dongjin,et al.Depth estimation of single image based on multi-scale texture energy measure[J].Computer Engineering and Design,2011,32(1):224-227(in Chinese).[藍(lán)建梁,丁友東,黃東晉.基于多尺度紋理能量測度的單幅圖像深度估計(jì)[J].計(jì)算機(jī)工程與設(shè)計(jì),2011,32(1):224-227.]

[16]YU Jiangde,WANG Xijie,YU Zhengtao.Semantic role labeling based on maximum entropy model[J].Microelectronics &Computer,2010(8):173-176(in Chinese).[于江德,王希杰,余正濤.基于最大熵模型的語義角色標(biāo)注[J].微電子學(xué)與計(jì)算機(jī),2010(8):173-176.]

[17]TANG Yonghong,LIU Xudong.An anomaly detection method based on mixed attribute dataset[J].Science Technology and Engineering,2013,13(7):1832-1835(in Chinese).[唐永紅,劉緒棟.一種基于混合屬性數(shù)據(jù)集的異常檢測方法[J].科學(xué)技術(shù)與工程,2013,13(7):1832-1835.]

猜你喜歡
像素變形深度
像素前線之“幻影”2000
四增四減 深度推進(jìn)
深度思考之不等式
變形記
談詩的變形
“像素”仙人掌
簡約教學(xué) 深度學(xué)習(xí)
“我”的變形計(jì)
會變形的餅
高像素不是全部
晋江市| 连城县| 高台县| 贡山| 绵阳市| 顺昌县| 汽车| 莱阳市| 大兴区| 新蔡县| 张掖市| 泰来县| 柳州市| 南川市| 青海省| 山丹县| 新疆| 普兰店市| 乐山市| 花莲县| 普兰县| 镇远县| 荆州市| 哈尔滨市| 平罗县| 海宁市| 开远市| 绥化市| 都江堰市| 金湖县| 富民县| 佳木斯市| 南华县| 星座| 武安市| 新民市| 福鼎市| 滨海县| 交城县| 贡嘎县| 海丰县|