国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

影像輔助下LiDAR數(shù)據(jù)建筑物輪廓信息提取

2017-04-17 01:18:12王春林孫金彥周紹光錢海明黃祚繼
自然資源遙感 2017年1期
關鍵詞:輪廓線像素點輪廓

王春林, 孫金彥, 周紹光, 錢海明, 黃祚繼

(1.安徽省(水利部淮河水利委員會)水利科學研究院,合肥 230088; 2.安徽省大禹水利工程科技有限公司,合肥 230088; 3.河海大學地球科學與工程學院測繪科學與工程系,南京 210098)

影像輔助下LiDAR數(shù)據(jù)建筑物輪廓信息提取

王春林1,2, 孫金彥1,2, 周紹光3, 錢海明1,2, 黃祚繼1,2

(1.安徽省(水利部淮河水利委員會)水利科學研究院,合肥 230088; 2.安徽省大禹水利工程科技有限公司,合肥 230088; 3.河海大學地球科學與工程學院測繪科學與工程系,南京 210098)

針對復雜場景中提取的建筑物外輪廓鋸齒狀變形及精度不高等問題,提出了一種新的輪廓信息提取方法。在綜合利用LiDAR數(shù)據(jù)及影像特征的基礎上,建立輪廓線提取候選區(qū),計算候選點的方向、梯度及高邊點信息,引入基于活動輪廓的圖割算法(graph cuts based active contour model,GCBAC)構建并解算輪廓線能量函數(shù),實現(xiàn)建筑物輪廓信息的精確提取。通過3個具體實例證明了該方法的有效性和可行性。

LiDAR; 建筑物輪廓; 活動輪廓; 圖割; 影像

0 引言

建筑物的檢測和提取為地理信息系統(tǒng)數(shù)據(jù)庫的更新及應用提供了基礎數(shù)據(jù),具有十分重要的現(xiàn)實意義。對于如何提取建筑物輪廓信息,國內(nèi)外學者開展了大量研究[1-9],其中較有代表性的一類為利用LiDAR數(shù)據(jù)和影像數(shù)據(jù)的方法。LiDAR數(shù)據(jù)含有準確的高度和位置信息,而影像數(shù)據(jù)含有更為豐富的邊緣信息,基于這2種數(shù)據(jù)源的建筑物輪廓提取方法,利用兩者互補的優(yōu)點,得到了廣泛應用。程亮等[1]利用LiDAR密度分析與K-means聚類方法,從Hough變換提取的直線段中篩選出準確的輪廓信息。李云帆等[5]采用基于線支撐區(qū)域的直線段提取算法結合建筑物幾何特征,得到了準確的建筑物外輪廓。上述方法提取的建筑物輪廓定位準確,但是均建立在建筑物提取結果的基礎上,需要一定的人工參與,且對影像質量有要求,邊緣特征明顯,才能提取出大量有效直線段。Chen等[6]先將基于區(qū)域的分割和基于知識的分類相結合提取建筑物斑塊,再利用canny算子檢測初始邊緣,然后在邊緣緩沖區(qū)中使用Hough變換得到三維直線,最后基于分裂合并成形法,將這些三維直線組合起來形成建筑物輪廓。譚衢霖等[7]采用面向對象分類分析方法有效提取了不密集城區(qū)的建筑物,但是該方法對建筑物分布密集的城區(qū)不適用。Turker等[8]利用SVM分類器,采用NDVI指數(shù)及歸一化數(shù)字表面模型(nDSM)等提取建筑物斑塊,然后采用Hough變換和隨機Hough變換分別對不同幾何形狀的建筑物斑塊逐一處理。

以上建筑物輪廓提取方法均需先提取建筑物信息(例如建筑物點集、建筑物斑塊等)。這些建筑物信息的邊緣均會出現(xiàn)鋸齒狀變形等問題,嚴重影響隨后的建筑物規(guī)則化處理結果,需要一定的人工參與。目前這一問題的解決主要依靠數(shù)學形態(tài)學方法(形態(tài)學腐蝕、形態(tài)學膨脹等)和線狀要素化簡算法(DP算法等),但這些方法的人工參與度均較高,不同類型的建筑物、數(shù)據(jù)源和提取精度均需要不同的參數(shù)閾值。

為了適應不同數(shù)據(jù)源、形狀及建筑物提取精度的需要,提出了一種獲取建筑物輪廓信息的新方法,充分利用高空間分辨率影像及LiDAR數(shù)據(jù)的優(yōu)點,以實現(xiàn)復雜場景中建筑物外輪廓信息的自動化準確提取。

1 算法步驟

建筑物輪廓信息提取算法流程如圖1所示。

圖1 算法流程

1.1 “真”正射影像缺失信息修復

雖然所采用的高空間分辨率航空影像已經(jīng)進行了正射校正,并與LiDAR數(shù)據(jù)配準,但是校正引起的被遮擋區(qū)域信息缺失并沒有解決,所以需要將缺失的信息進行修復和彌補,以降低缺失信息對整體提取結果的影響。由于影像中不存在大面積的信息缺失,部分缺失區(qū)域與建筑物緊密相連,而且常規(guī)從四周向中心逐漸推進的修復方式會將建筑物信息向缺失區(qū)域擴散[10],因此采用Criminisi等[11]提出的一種基于像素優(yōu)先權的圖像修復方法對其進行修復,以減弱缺失信息對最終結果的影響。

本文選取圖幅為212像素×342像素、空間分辨率為9 cm的“真”正射影像為實驗數(shù)據(jù),其缺失信息修復結果如圖2所示。圖2(a)為原始圖像,影像中存在一些缺失區(qū)域(黑色),尤其是建筑物邊緣位置較為明顯; 圖2(b)為修復結果,整體修復效果較好,尤其是建筑物信息被修復的同時并沒有向缺失區(qū)域擴散。

(a) 原始圖像 (b) 修復結果

圖2 圖像修復實驗

Fig.2 Image inpainting experiment

1.2 建筑物斑塊獲取

利用LiDAR數(shù)據(jù)和高空間分辨率影像,采用常規(guī)提取流程來提取建筑物信息: 首先在預處理后的LiDAR數(shù)據(jù)基礎上,采用漸進形態(tài)學濾波[12]結合NDVI指數(shù)去除LiDAR數(shù)據(jù)中的非地面點; 然后分步去除道路、植被及墻面點等非建筑物屋頂點,利用形態(tài)學腐蝕和連通性分析得到種子區(qū)域,基于區(qū)域生長分析判斷得到完整的建筑物斑塊。

1.3 建筑物外輪廓線精確提取

1.3.1 GCBAC算法

基于活動輪廓的圖割(graph cuts based active contour model,GCBAC)算法是Xu等[13]在2001年提出的一種迭代的圖像分割方法。隨后Xu[14],Tao[15],Zheng和Dong[16-17]等學者對其加以深化、改進,多用于醫(yī)學圖像分割。鑒于GCBAC算法的優(yōu)點,本文將GCBAC算法應用于高空間分辨率影像建筑物外輪廓線的精確提取。GCBAC算法能量函數(shù)形式為

E=Eexternal=∑p,q∈Vc(p,q),

(1)

式中:Eexternal表示外部能量函數(shù);c(p,q)是像素點p和q之間的無向弧權重,c(p,q)=c(q,p)。

精確提取建筑物外輪廓線的主要思路為: 對逐個建筑物進行處理,首先建立初始輪廓線候選區(qū); 再將當前候選區(qū)外邊緣與背景s相連,將候選區(qū)內(nèi)邊緣與前景t相鄰,構建圖(graph); 然后在當前候選區(qū)內(nèi),借助能量函數(shù)最小值原則,利用graph cuts中最大流算法(Boykov方法[18])解算圖,從而得到當前候選區(qū)的全局最優(yōu)解; 最后以此次提取結果作為下一次迭代的初始輪廓線,重復上述過程,直到前后2次優(yōu)化的輪廓線基本相同或者達到一定的迭代次數(shù)。

1.3.2 圖的構建

為了利用graph cuts算法來解算能量函數(shù),需要先基于原始數(shù)據(jù)構建圖G(V,U)。其中,V是輪廓候選區(qū)內(nèi)所有像素點以及2個虛擬節(jié)點s和t的集合,U是所有連接弧(也稱“鏈”,分為N鏈和T鏈2種)的權重集合,如圖3所示。

(a) 輪廓線(b) 候選區(qū)(c) 圖[15]

圖3 圖G(V,U)的構建

Fig.3 GraphG(V,U) construction

每一個像素點映射為圖中的一個節(jié)點q∈V。假如2個像素點相鄰,則其對應節(jié)點間存在一條無向弧(p,q)∈U。根據(jù)像素點p和q間的相似性度量為此弧賦權重c(p,q): 二者相似性越大,權重越大。每一條可能的輪廓線都對應著圖上的一個割(s,t),它將候選區(qū)影像切分成2個部分s和t。本文采用2點之間的方向能量Ed和梯度模能量Eg之和的方法來確定每個相鄰點連接弧的權重c(p,q),即

c(p,q)=Ed(p,q)+Eg(p,q)。

(2)

1.3.2.1 方向能量Ed獲取

對于相鄰像素點p和q,如果其連線與當?shù)剡吘壏较虼怪?,則為此弧賦予最小的方向能量; 如果其連線與當?shù)剡吘壏较蚱叫?,則為此弧賦予最大的方向能量; 其連線與當?shù)剡吘壏较蛳嘟怀?5°或135°,為此弧賦予中等的方向能量。例如圖4中,以像素點p為中心,藍色線表示與當?shù)剡吘壏较蛳嘟怀?5°或135°的連接弧,黑色線表示與當?shù)剡吘壏较蛳嘟怀?°或90°的連接弧。

圖4 像素點p的8鄰域系統(tǒng)

各連接弧的方向能量Ed表達式為

Ed(p,q)=Ep,q(p)+Ep,q(q),q∈{q1,q2,…,q8},

(3)

(4)

式中:Ep,q(p)和Ep,q(q)分別表示像素點p和q的方向能量;K為方向權重系數(shù),本文默認為60;dp和dq分別表示像素點p和q的方向,而d0表示像素點p和q之間連線的方向。

1.3.2.2 梯度模能量Eg獲取

相鄰2點之間的平均梯度值越大,所賦予能量越小,反之亦然。此外,為了使得優(yōu)化的邊緣更為準確,除了加入邊緣的梯度信息外,還應加入高程信息。梯度模能量Eg的計算公式為

Eg(p,q)=g(p)+g(q),

(5)

(6)

式中:g(p)和g(q)分別為點p和q的梯度模能量值;gradp∈S(p)表示點p的梯度模; max(gradi∈S(i))表示所有梯度模中的最大值,用來歸一化梯度模; 參數(shù)λ1為梯度值權重系數(shù),本文默認為0.9; 參數(shù)λ2為邊緣權重系數(shù)。定義高邊點為局部窗口內(nèi)高度大于一定閾值條件的點。如果點p是高邊點,即點p為邊緣點的可能性很大,此時變量h=1; 否則,h=0。

1.3.2.3 高邊點獲取

在nDSM數(shù)據(jù)中,以任意像素點p為中心,在其8鄰域內(nèi)計算每個像素點與p點的高程差值,如果某一像素點的高程差值大于指定閾值(默認2 m),則認為該點為高邊點。文中采用較為簡單的方法計算方向數(shù)據(jù)和梯度模。假設影像為灰度圖像,首先依次利用4個方向模板(圖5中模板方向分別0°,90°,45°和135°)對圖像進行卷積。

(a) 0° (b) 90°

(c) 45°(d) 135°

圖5 4個方向模板

Fig.5 Four directions templates

令卷積結果為T1,T2,T3和T4。計算出T1,T2,T3和T4的絕對值。此時每個像素點對應有4個非負的灰度梯度值,以最大灰度梯度值作為當前點的梯度值,同時記錄最大灰度梯度值對應的方向信息。對于多光譜數(shù)據(jù),將每一個波段都作為灰度影像處理后加權得到最終的梯度值。

在獲取每個像素點的方向、梯度模以及是否為高邊點等信息的基礎上,確定相鄰像素點連接弧的權重c(p,q)。至此給出了所有鏈的權重,完成了圖的構建。

1.3.3 外輪廓提取具體步驟

輪廓線提取算法流程如圖6所示。以一棟建筑物為例,對本文算法步驟及結果進行詳細描述,如圖7所示。

圖6 外輪廓線提取算法流程

(a) 初始輪廓線 (b) 候選區(qū) (c) 邊緣線 (d) 方向 (e) 梯度模

(f) 第一次迭代 (g) 第一次優(yōu)化結果 (h) 終止迭代 (i) 最終輪廓線 (j) 疊加原圖

圖7 建筑物外輪廓線提取實驗

Fig.7 Experiment of boundary extraction

1)以0表示背景,以1表示初始輪廓線c0,生成一幅二值影像(如圖7(a)),令i=0,N0為初始輪廓線c0中所有邊緣點,數(shù)目;

2)以適當大小(默認為3)的結構元素膨脹初始輪廓線,在其鄰近區(qū)域內(nèi)生成輪廓線候選區(qū),記錄下候選區(qū)的內(nèi)外邊緣線。圖7(b)為使用結構元素半徑為5的“disk”元素進行形態(tài)學膨脹。

3)將候選區(qū)的內(nèi)邊緣線(圖7(c)中綠色線)上所有節(jié)點與虛源點si相連,候選區(qū)的外邊緣線上(圖7(c)中紅色線)所有節(jié)點與虛匯點ti相連,相應的連接弧(T鏈)的權重為無限大。

4)將候選區(qū)內(nèi)所有點都作為普通節(jié)點,構建對應于候選區(qū)影像的鄰接圖Gi(Vi,Ui)。使用候選區(qū)的方向數(shù)據(jù)(圖7(d))和梯度模(圖7(e)),確定相鄰點連接弧(N鏈)的權重Ui;

5)利用文獻[15]中最大流算法解算圖Gi(Vi,Ui)的s-t最小割MC(Gi,si,ti),si={p:xp=1},ti={p:xp=0},以獲取分開候選區(qū)條帶內(nèi)外邊緣線的輪廓線,即

ci+1=argminc∈CN(ci)U(c),

(7)

式中U(c)是割MC(Gi,si,ti)需要付出的代價。

6)以輪廓線ci+1為下一次迭代的初始輪廓線,i=i+1,返回步驟1),重復執(zhí)行,直到相鄰2次優(yōu)化結果相同或者迭代次數(shù)達到3次為止。計算相鄰2次迭代中仍在變化的邊緣點數(shù)目N|ci+1-ci|,若N|ci+1-ci|<0.05N0,即仍在變化的邊緣點很少,則認為這2次優(yōu)化結果基本相同。經(jīng)過實驗發(fā)現(xiàn),當?shù)螖?shù)為3次時,前后2次優(yōu)化結果已經(jīng)變化不大,且此時的輪廓線精度已經(jīng)滿足要求,增加迭代次數(shù),精度反而會下降。圖7(f)中灰白交界線是第一次迭代解算圖G(V,U)所得結果。圖7(g)為第一次優(yōu)化后的建筑物輪廓線。圖7(h)中灰白交界線是終止迭代時得到的結果。圖7(i)為最終提取的建筑物輪廓線,將其疊加到影像中如圖7(j)所示。

7)優(yōu)化輪廓線驗證。由于多種因素(如邊緣特征不明顯)的影響,優(yōu)化后的輪廓線并不一定是準確的。通過2個步驟加以驗證: 一是檢測相似度。計算優(yōu)化后的輪廓線中所有邊緣點與其在初始輪廓線中對應點之間距離的平均值,如果平均值大于閾值(默認為1 m),則認為優(yōu)化結果與初始輪廓線不相似; 二是檢查邊緣點數(shù)目的變化。計算優(yōu)化結果與初始輪廓點數(shù)目差值,如果差值大于閾值(默認為0.4倍的初始輪廓點數(shù)目),說明優(yōu)化過程中拋棄了太多的建筑物細部結構,即優(yōu)化結果不準確。

對比圖7(a)和(j),經(jīng)過優(yōu)化后的建筑物輪廓線與初始輪廓線相比,去除了鋸齒狀噪聲,輪廓線更為平直,與建筑物吻合較好。

1.4 結果評價方法

采用2種方法評價上述提取效果。一是定性對比,即將結果與原圖疊合,與分割結果或其他方法及人工識別結果比較; 二是定量分析,即采用完整度和正確率進行評價[1]。2個衡量參數(shù)的最佳值均為“1”,即100%。實驗數(shù)據(jù)為WGS-84坐標系。結果評價中采用的參考數(shù)據(jù)(groundtruth)為由ArcGIS人工矢量化數(shù)據(jù)。

2 實驗與分析

按照建筑物形狀從簡單到復雜的順序選取3組實驗樣本,采用不同數(shù)據(jù)源對本文提出的算法進行實驗,驗證算法的有效性。

2.1 實驗1

實驗1為簡單場景區(qū),數(shù)據(jù)源為航空影像和LiDAR數(shù)據(jù)。實驗遙感影像空間分辨率為0.13 m、平均點數(shù)為6個/m2。實驗結果如圖8所示。

(a) 修復后影像 (b) 提取結果 (c) 疊加影像 (d) 參考數(shù)據(jù)

圖8 實驗1

Fig.8 Experiment 1

對于形狀簡單的建筑物,從定性對比的角度,本文提取的輪廓線與建筑物輪廓實際位置非常接近,與參考數(shù)據(jù)差異很小,形狀相似。從定量分析的角度,實驗1的提取精度較高,完整度為0.982,正確率達到0.953。但是因面積閾值的限制,遺漏了一些面積小于10 m2的超小型建筑物。

2.2 實驗2

實驗2為固定翼TOPCON無人機航拍所得高空間分辨率正射影像和數(shù)字高程模型(digital elevation model,DEM)。影像空間分辨率約為5 cm,DEM空間分辨率為0.12 m。圖9(a)為常規(guī)建筑物檢測結果。為了方便看到局部的檢測效果,放大顯示紅色矩形區(qū)域如圖9(b)所示。

(a) 建筑物檢測結果 (b) 局部情況

圖9 建筑物提取

Fig.9 Building extraction

從圖9(b)中可以發(fā)現(xiàn),檢測結果存在很多鋸齒狀噪聲,且與屋頂實際邊緣位置有一定的距離。主要由于在實際生產(chǎn)中高空間分辨率正射影像的質量并不總是很理想,尤其是高大建筑物,往往存在很多墻面信息環(huán)繞在建筑物屋頂周圍,故采用常規(guī)邊緣特征檢測到的建筑物輪廓效果較差,適用性不強。圖10為分別采用邊緣特征檢測和本文方法的提取結果。

(a) 邊緣特征檢測(b) 本文提取結果

圖10 實驗2

Fig.10 Experiment 2

圖10(a)中利用“canny”邊緣算子進行邊緣檢測,2個閾值分別為0.012 5和0.031 3,檢測結果中建筑物邊緣多存在2~3條直線線段,且多處邊緣線不連續(xù),難以區(qū)分哪一條為真正的屋頂邊緣線。圖10(b)為本文方法的最終提取結果,對比圖9(a)和圖10(b),可看出精確提取后的輪廓線較為平直,去除了絕大部分鋸齒狀變形,與其實際位置更為接近,完整度為0.987,正確率達0.947。

2.3 實驗3

實驗3為復雜場景區(qū),空間分辨率為0.15 m,平均點數(shù)為4.5個/m2。該實驗區(qū)建筑物特點: ①建筑物的形狀很復雜,大小不一,高度各不相同,甚至同一棟建筑物各部分高度也不同; ②建筑物非常密集,不同的建筑物墻面緊緊相連; ③由建筑物和高大植被形成的陰影區(qū)域,建筑物信息和非建筑物信息難以區(qū)分; ④部分建筑物被遮擋; ⑤部分汽車與建筑物之間的大小、高度和距離均非常接近; ⑥建筑物部分區(qū)域與地面之間的紋理、高程均非常接近,這些問題均大大增加了建筑物輪廓信息提取的難度。通過與文獻[19]的提取方法進行對比分析,證明本文方法的提取效果,提取結果如圖11所示。

(a) 實驗區(qū)影像 (b) 參考數(shù)據(jù)(c) 文獻[19]結果(d) 本文方法結果

圖11 實驗3

Fig.11 Experiment 3

對比圖11(c)和(d)可以看出,本文方法與文獻[19]方法的提取結果相差不大,2種方法都能適應復雜場景中建筑物輪廓信息的提取。從定量分析角度,文獻[19]提取結果的完整度為0.927,正確率僅0.887,精度偏低; 本文方法提取結果的完整度為0.951,正確率達0.944,精度得到明顯提升,且文獻[19]的方法存在較多建筑物沒有檢測完全,對回字形結構的建筑物并不適用。

基于從簡單到復雜的建筑物影像,通過上述3組實驗,證明了本文提取方法的有效性,提取的建筑物輪廓保留了絕大部分細節(jié)特征,與參考數(shù)據(jù)差異較小,形狀相似,具有較高的精度,完整度和正確率平均值分別達0.973和0.948(表1)。

表1 實驗結果精度

3 結論

通過對影像輔助下LiDAR數(shù)據(jù)進行處理,去除非建筑物信息,采用區(qū)域生長提取出建筑物斑塊。在輪廓線基礎上,以邊緣的方向、梯度及高程等特征確定鏈的權重,構建并解算能量函數(shù),實現(xiàn)建筑物輪廓信息的精確提取。得到的結論如下:

1)本文方法能夠結合影像和LiDAR數(shù)據(jù)的特點,充分利用兩者的優(yōu)勢,實現(xiàn)建筑物的可靠提取。

2)將GCBAC算法應用于建筑物輪廓信息的精確提取,不限定建筑物的類型,適用性廣泛。

3)本文方法也可用于無人機數(shù)據(jù)中建筑物輪廓信息的提取,提取精度較高,完整度和正確率平均值均達0.94以上。

本文尚存在一些不足,提取的建筑物外輪廓并不規(guī)則,需要規(guī)則化后處理才可投入應用。目前正在嘗試如何將建筑物的形狀先驗信息引入能量函數(shù)模型,以實現(xiàn)大范圍規(guī)則化的建筑物輪廓信息提取。

[1] 程亮,龔健雅.LiDAR輔助下利用超高分辨率影像提取建筑物輪廓方法[J].測繪學報,2008,37(3):391-393,399. Cheng L,Gong J Y.Building boundary extraction using very high resolution images and LiDAR[J].Acta Geodaetica et Cartographica Sinica,2008,37(3):391-393,399.

[2] 沈蔚,李京,陳云浩,等.基于LIDAR數(shù)據(jù)的建筑輪廓線提取及規(guī)則化算法研究[J].遙感學報,2008,12(5):692-698. Shen W,Li J,Chen Y H,et al.Algorithms study of building boundary extraction and normalization based on LIDAR data[J].Journal of Remote Sensing,2008,12(5):692-698.

[3] 周紹光,孫金彥,凡莉,等.高分辨率遙感影像的建筑物輪廓信息提取方法[J].國土資源遙感,2015,27(3):52-58.doi:10.6046/gtzyyg.2015.03.10. Zhou S G,Sun J Y,Fan L,et al.Extraction of building contour from high resolution images[J].Remote Sensing for Land and Resource,2015,27(3):52-58.doi:10.6046/gtzyyg.2015.03.10.

[4] 崔建軍,隋立春,徐花芝,等.基于邊緣檢測算法的LiDAR數(shù)據(jù)建筑物提取[J].測繪科學技術學報,2008,25(2):98-100. Cui J J,Sui L C,Xu H Z,et al.Building extraction from LiDAR data based on edge detection[J].Journal of Geomatics Science and Technology,2008,25(2):98-100.

[5] 李云帆,龔威平,林俞先,等.LiDAR點云與影像相結合的建筑物輪廓信息提取[J].國土資源遙感,2014,26(2):54-59.doi:10.6046/gtzyyg.2014.02.10. Li Y F,Gong W P,Lin Y L,et al.The extraction of building boundaries based on LiDAR point cloud data and imageries[J].Remote Sensing for Land and Resource,2014,26(2):54-59.doi:10.6046/gtzyyg.2014.02.10.

[6] Chen L,Teo T,Shao Y,et al.Fusion of LIDAR data and optical imagery for building modeling[J].International Archives of Photogrammetry and Remote Sensing,2004,35(B4):732-737.

[7] 譚衢霖,王今飛.結合高分辨率多光譜影像和LiDAR數(shù)據(jù)提取城區(qū)建筑[J].應用基礎與工程科學學報,2011,19(5):741-748. Tan Q L,Wang J F.Building extraction using high resolution multi-spectral image and LiDAR data[J].Journal of Basic Science and Engineering,2011,19(5):741-748.

[8] Turker M,Koc-San D.Building extraction from high-resolution optical spaceborne images using the integration of support vector machine(SVM) classification,hough transformation and perceptual grouping[J].International Journal of Applied Earth Observation and Geoinformation,2015,34:58-69.

[9] 楊洋,張永生,馬一薇,等.基于LIDAR數(shù)據(jù)的建筑物輪廓提取[J].測繪科學,2010,35(3):203-205. Yang Y,Zhang Y S,Ma Y W,et al.The study on building boundary extraction based on LiDAR data[J].Science of Surveying and Mapping,2010,35(3):203-205.

[10]陳仁喜.圖像缺損信息的修復方法研究[D].北京:中國科學院研究生院,2006. Chen R C.Research on Methods for Repairing Missing Information on Images[D].Beijing:University of Chinese Academy of Sciences,2006.

[11]Criminisi A,Perez P,Toyama K.Region filling and object removal by exemplar-based image inpainting[J].IEEE Transactions on Image Processing,2004,13(9):1200-1212.

[12]Chen Q,Gong P,Baldocchi D,et al.Filtering airborne laser scanning data with morphological methods[J].Photogrammetric Engineering and Remote Sensing,2007,73(2):175-185.

[13]Xu N,Bansal R,Ahuja N.Object segmentation using graph cuts based active contours[C]//Proceedings of the 2003 IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Madison,WI,USA:IEEE,2003:2.

[14]Xu N,Ahuja N,Bansal R.Object segmentation using graph cuts based active contours[J].Computer Vision and Image Understanding,2007,107(3):210-224.

[15]Tao W B.Iterative narrowband-based graph cuts optimization for geodesic active contours with region forces(GACWRF)[J].IEEE Transactions on Image Processing,2012,21(1):284-296.

[16]Zheng Q,Dong E Q,Cao Z L,et al.Modified localized graph cuts based active contour model for local segmentation with surrounding nearby clutter and intensity inhomogeneity[J].Signal Processing,2013,93(4):961-966.

[17]Dong E Q,Zheng Q,Sun W Y,et al.Constrained multiplicative graph cuts based active contour model for magnetic resonance brain image series segmentation[J].Signal Processing,2014,104:59-69.

[18]Boykov Y,Kolmogorov V.An experimental comparison of min-cut/max- flow algorithms for energy minimization in vision[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2004,26(9):1124-1137.

[19]Awrangjeb M,Fraser C S.Rule-based segmentation of LIDAR point cloud for automatic extraction of building roof planes[J].ISPRS Annals of Photogrammetry and Remote Sensing and Spatial Information Sciences,2013,II-3/W3:1-6.

(責任編輯: 陳理)

Building boundary extraction using LiDAR data and images

WANG Chunlin1,2, SUN Jinyan1,2, ZHOU Shaoguang3, QIAN Haiming1,2, HUANG Zuoji1,2

(1.Anhui&HuaiheRiverInstituteofHydraulicResearch,Hefei230088,China; 2.AnhuiDayuHydraulicConservancyEngineeringTechnologyCo.,Ltd,Hefei230088,China; 3.SchoolofEarthScienceandEngineering,HohaiUniversity,Nanjing210098,China)

In this paper,the strategy to extract accurate building boundary from LiDAR data and images was explored. The workflow is as follows: first LiDAR data and images feature are used to extract building blobs. Then contour extraction candidate regions are established, and gradient and direction information of the candidate points are calculated to build the classic energy function. Finally energy function is computed with GCBAC algorithm, and the building boundary will be generated after the iterative optimized approach. The three experiments show that the strategy proposed in this paper is an effective method.

LiDAR; building contour; active contour model; graph cuts; images

10.6046/gtzyyg.2017.01.12

王春林,孫金彥,周紹光,等.影像輔助下LiDAR數(shù)據(jù)建筑物輪廓信息提取[J].國土資源遙感,2017,29(1):78-85.(Wang C L,Sun J Y,Zhou S G,et al.Building boundary extraction using LiDAR data and images[J].Remote Sensing for Land and Resources,2017,29(1):78-85.)

2015-09-17;

2016-04-11

王春林(1987-),男,碩士,主要從事圖像處理、無人機算法等方面的研究。Email: 522101313@qq.com。

孫金彥(1988-),女,碩士,主要從事攝影測量與遙感、數(shù)字圖像處理與分析研究。Email: sun_jin_yan@126.com。

TP 751.1

A

1001-070X(2017)01-0078-08

猜你喜歡
輪廓線像素點輪廓
輪廓錯覺
基于HTML5的凸輪廓線圖解法App教學軟件研究
基于實時輪廓誤差估算的數(shù)控系統(tǒng)輪廓控制
基于canvas的前端數(shù)據(jù)加密
基于逐像素點深度卷積網(wǎng)絡分割模型的上皮和間質組織分割
節(jié)日帽
在線學習機制下的Snake輪廓跟蹤
計算機工程(2015年4期)2015-07-05 08:27:39
多輪廓線的三維形體重構技術研究與實現(xiàn)*
基于Node-Cell結構的HEVC幀內(nèi)編碼
電視技術(2014年11期)2014-12-02 02:43:28
基于鼻子下輪廓線的鼻尖定位法
明溪县| 岢岚县| 洛阳市| 胶州市| 油尖旺区| 工布江达县| 朝阳区| 威远县| 台湾省| 四平市| 萨迦县| 依兰县| 高青县| 卓尼县| 察哈| 稷山县| 闵行区| 海门市| 三河市| 且末县| 察哈| 都匀市| 靖西县| 汤阴县| 渑池县| 衡南县| 漳州市| 乌苏市| 汕尾市| 新民市| 武威市| 涪陵区| 武夷山市| 灵丘县| 合江县| 油尖旺区| 金华市| 夹江县| 庆阳市| 托克逊县| 会东县|