王旭東, 段福洲, 屈新原, 李丹, 余攀鋒
(1.首都師范大學資源環(huán)境與旅游學院,北京 100048; 2.三維信息獲取與應用教育部重點實驗室,北京 100048; 3.武漢天地星圖科技有限公司,武漢 430014)
面向?qū)ο蠛蚐VM結合的無人機數(shù)據(jù)建筑物提取
王旭東1,2, 段福洲1,2, 屈新原1,2, 李丹1,2, 余攀鋒3
(1.首都師范大學資源環(huán)境與旅游學院,北京 100048; 2.三維信息獲取與應用教育部重點實驗室,北京 100048; 3.武漢天地星圖科技有限公司,武漢 430014)
建筑物提取時結合歸一化數(shù)字表面模型(nDSM)的高度信息可以提高其提取精度。通常高度信息由LiDAR數(shù)據(jù)生成高精度3D點云獲得。但由于獲取成本較高,尋找替代LiDAR點云生成高度信息的數(shù)據(jù)至關重要,為此該文探討攝影測量點云生成nDSM用于建筑物提取的可適用性。采用無人機影像作為單一數(shù)據(jù)源,選取漢旺鎮(zhèn)和林扒鎮(zhèn)2個研究區(qū)進行實驗,利用面向?qū)ο蠹夹g與支持向量機(SVM)相結合的方法進行建筑物提取。首先,采用Pix4D Mapper生成攝影測量點云,通過基于不規(guī)則三角網(wǎng)加密濾波方法和反距離加權法插值生成nDSM影像; 其次,對無人機RGB影像進行分割,選取9種屬性特征( 2種高度屬性和7種光譜屬性)作為建筑物的識別屬性; 最后,利用SVM分類器進行建筑物提取,采用形態(tài)學濾波方法進行后處理。研究結果表明,漢旺研究區(qū)提取的完整率為85.5%,正確率為83.9%; 林扒研究區(qū)提取的完整率為92.5%,正確率為78.6%。攝影測量點云生成的nDSM在建筑物提取應用中適用性較好,可以有效提高建筑物的提取精度,并且大大降低了成本。
無人機影像; Pix4D Mapper; 攝影測量點云; nDSM; 面向?qū)ο螅?支持向量機(SVM); 建筑物提取
隨著現(xiàn)代化建設的高速發(fā)展,建筑物信息在城市規(guī)劃與災害應急領域具有重要的意義,例如地理信息系統(tǒng)的數(shù)據(jù)庫更新、專題圖制作、城市監(jiān)測、3D城市建模、災害損失評估與管理以及土地利用變化評估等[1-3]。利用遙感技術快速、精確地提取建筑物信息具有較強的現(xiàn)實意義。
傳統(tǒng)建筑物提取方法主要是利用航空影像進行目視解譯,耗費大量人力、物力,提取效率較低。近年來,隨著影像空間分辨率的提高,高空間分辨率影像相比于中低空間分辨率影像具有更為豐富的專題信息; LiDAR(light detection and ranging)技術也逐漸成熟,其可以生成提取建筑物需要的關鍵高度信息[4]。國內(nèi)外學者利用高空間分辨率遙感影像和LiDAR數(shù)據(jù)進行建筑物提取,已取得了豐碩的研究成果[5-10]。Gerke等[11]和Ke等[12]的研究證實,在基于高空間分辨率遙感數(shù)據(jù)的地物提取中,影像光譜信息和高度信息的結合使用所獲取的建筑物提取精度要高于單獨使用光譜信息或者高度信息,而這些研究中的高度信息通常是由LiDAR點云數(shù)據(jù)經(jīng)過處理生成的。
無人機遙感平臺作為新的遙感平臺,具有高時效、便捷等特性,獲取的影像具有高空間分辨率、高重疊度的特征,已成功應用于災害應急和地物信息提取[13-15],在高效率建筑物提取方面具備很大的潛力。隨著多視立體密集匹配算法的發(fā)展,多航帶、高重疊度的無人機影像能夠生成更密集和更完整的3D攝影測量點云。然而,利用無人機影像生成的攝影測量點云,進而派生出的高度信息在建筑物提取上的適用性,以及能否提高建筑物提取的精度,還有待驗證。
高空間分辨率影像光譜特征明顯,但同物異譜和異物同譜的現(xiàn)象普遍存在?;谙袼氐姆椒▽Ω呖臻g分辨率影像進行地物提取會產(chǎn)生椒鹽效應,并且只能利用影像的光譜信息及其派生的紋理信息; 而面向?qū)ο蟮姆椒軌驅(qū)⒂跋穹指畛梢幌盗型|(zhì)區(qū)域,把這些同質(zhì)區(qū)域作為一個對象處理,除影像光譜信息、紋理信息外,還可以利用形狀信息和幾何信息等,已被廣泛應用于地物提取[16-17]。已有研究證明,對于高空間分辨率影像,采用面向?qū)ο蠓椒ǖ奶崛【雀哂诨谙袼氐姆椒╗18]。因此,針對高空間分辨率的無人機影像,采用面向?qū)ο蟮姆椒ㄟM行建筑物提取,并在分類特征中加入高度信息,以探討攝影測量點云派生的高度信息在建筑物提取上的適用性,并檢驗其能否提高建筑物的提取精度。
選取四川省綿竹市漢旺鎮(zhèn)和河南省鄧州市林扒鎮(zhèn)2個地區(qū)作為研究區(qū),以高空間分辨率無人機航空影像作為單一數(shù)據(jù)源。利用無人機影像的多航帶、高重疊度特點,從不同攝影角度對同一地物拍攝多幅影像,基于計算機視覺的運動恢復結構(structure from motion, SfM)算法和多視立體(multi-view stereo, MVS)密集匹配算法,對影像進行3D重建,生成3D攝影測量點云[19],結合GPS數(shù)據(jù),生成歸一化數(shù)字表面模型(normalized digital surface model,nDSM)高度信息,采用面向?qū)ο蠹夹g和支持向量機(support vector machine,SVM)分類器相結合的方法進行建筑物提取,探討攝影測量點云生成的高度信息用于建筑物提取的適用性。
1.1 研究區(qū)概況
漢旺鎮(zhèn)位于四川盆地西北部(N31°24′7.909″~31°24′22.872″,E104°10′49.747″~104°11′7.499″),面積約53 590 m2,屬亞熱帶季風性濕潤氣候區(qū)。該區(qū)內(nèi)有大量安置住房,建筑物密度較小。林扒鎮(zhèn)位于河南省南陽盆地西南邊緣(N32°33′50.172″~32°34′12.458″,E111°54′8.217″~111°54′42.426″),面積約48 959 m2,屬大陸性季風性半濕潤氣候區(qū)。該區(qū)內(nèi)建筑物密度較大,且西南部林木密度也較大,部分建筑物被樹木覆蓋或被樹木陰影遮擋,且建筑物灰度值低。2個研究區(qū)如圖 1所示。
(a) 漢旺研究區(qū) (b) 林扒研究區(qū)
圖1 研究區(qū)概況及參考圖
Fig.1 Location map of study areas with reference polygons
1.2 數(shù)據(jù)源
數(shù)據(jù)源為漢旺鎮(zhèn)與林扒鎮(zhèn)無人機拍攝遙感影像,獲取時間分別為2009年5月和2010年9月。采用的拍攝系統(tǒng)為Sky-01C中型無人機平臺,載荷為佳能5D Mark Ⅱ全面幅單反相機,35 mm光圈鏡頭,有效像素為2 110萬。用于驗證的建筑物多邊形是對正射影像目視解譯結果進行數(shù)字化獲得。漢旺和林扒研究區(qū)建筑物對象總數(shù)分別為74個和76個。
研究方法共分為4個步驟如圖2所示。
圖2 技術流程圖
Fig.2 Technology flowchart of building extraction procedure
2.1 無人機影像預處理
采用SfM算法和MVS密集匹配方法對無人機影像進行處理,生成攝影測量點云,然后基于不規(guī)則三角網(wǎng)加密的濾波方法進行點云濾波,進而插值計算生成數(shù)字表面模型(digital surface model, DSM)、數(shù)字高程模型(digital elevation model, DEM)和歸一化數(shù)字表面模型nDSM。其中,DSM是包含地物(房屋、樹木等)高程的柵格模型,DEM是剔除地物(房屋、樹木等)高程,僅包含地面高程的柵格模型。
首先使用Pix4D Mapper數(shù)字攝影測量軟件進行空中三角加密,生成攝影測量點云及正射影像。使用TerraScan內(nèi)置的基于不規(guī)則三角網(wǎng)加密濾波方法進行點云濾波[20-22],得到地面點云。利用生成的原始攝影測量點云以及經(jīng)過濾波之后生成的地面點云,通過ArcGIS反距離加權法(inverse distance weighted, IDW)插值運算,分別生成與正射影像具有相同空間分辨率的DSM和DEM。通過DSM與DEM進行相減計算得到nDSM高度信息(圖 3)。
(a) 漢旺研究區(qū)(b) 林扒研究區(qū)
圖3 研究區(qū)nDSM影像
Fig.3 nDSM images of study areas
2.2 建筑物提取
面向?qū)ο蠓椒ㄌ崛〗ㄖ锇?個步驟: ①通過圖像分割算法創(chuàng)建圖像對象; ②基于圖像對象的分類特征選??; ③基于分類特征進行分類。
2.2.1 圖像分割
采用eCognition 8.9軟件中的多尺度分割方法來實現(xiàn)影像分割。多尺度分割方法是一種自下而上的分割技術。 首先從一個像素對象開始,隨后基于異質(zhì)性的最小增長率合并對象周圍的像素,經(jīng)過多次迭代運算,最終生成較大的對象[12, 23]。
分割參數(shù)主要考慮以下4個方面[12, 24]: ①波段權重; ②顏色(或形狀)權重 ; ③緊致度(或平滑度)權重; ④尺度。其中,波段權重根據(jù)波段的重要性來確定; 顏色權重關系到分割時影像光譜值在整個均質(zhì)度中相對于形狀所占比重; 緊致度權重決定了分割對象的形狀特征; 尺度參數(shù)關系分割對象的大小,最終影響分類結果。
利用無人機RGB影像進行分割,經(jīng)過反復試驗,分割參數(shù)設置如表 1所示。
表1 分割參數(shù)設置
2.2.2 分類特征選取
面向?qū)ο蠓椒ㄖ?,分割對象包含多種特征,例如幾何特征、光譜特征等。無人機影像的波段少,光譜信息不豐富,而攝影測量點云可以生成高度信息,可以利用高度信息區(qū)分有高度的建筑物與其他地物類別。而植被同樣為具有高度特征的地物類別,但其光譜特征明顯,可通過光譜亮度、對比度及植被指數(shù)等進行區(qū)分。
2.2.2.1幾何特征
1)nDSM高度信息(Height)作為幾何特征用來區(qū)分有高度特征的地物。由于建筑物形狀不規(guī)則,使用多尺度分割方法進行影像分割,分割后的建筑物多邊形不規(guī)則,故長度、寬度和周長等幾何特征在建筑物提取上都不如高度特征明顯。
2)高度標準差(height standard deviation,HSTD)同樣用來區(qū)分高度對象,由于建筑物的高度較一致,標準差較?。?而植被由于有樹干和枝葉,高度可能不一致,標準差相對較大[25]。
2.2.2.2光譜特征
光譜特征除了選取影像的紅光、綠光和藍光3個波段DN值外,還選取了綠度、亮度、紅綠植被指數(shù)以及綠光波段對比度4種特征。
1)綠度(green radio,GR)由于植被的綠光波段DN值通常比紅光和藍光波段要高,可以采用綠度檢測植被。綠度定義為
(1)
式中Green,Red和Blue分別為影像綠光、紅光和藍光波段DN值。
2)亮度(brightness,BRT)取紅光、綠光和藍光3個波段的亮度平均值,由于樹木反射率低,亮度通常比其他地物更低。
3)紅綠植被指數(shù)(green red vegetation index,GRVI)和歸一化植被指數(shù)(normalized different vegetation index,NDVI)利用近紅外波段和紅光波段類似,GRVI采用綠光波段代替近紅外波段。GRVI值域為(-1,1),其中綠色植被的GRVI值大于0。計算公式為
(2)
4)綠光波段對比度(band green contrast,BGC)來源于灰度共生矩陣,表示綠光波段光譜的異質(zhì)性,用來度量局部方差值。由于樹木具有葉子和枝干,在灰度共生矩陣中,樹木通常比建筑物具有更大的對比度[26]。
2.2.3 SVM分類
采用SVM算法進行分類,SVM為監(jiān)督型機器學習算法,最早由Cortes和Vapnik提出,在小樣本、非線性情況下,具有較好的泛化性能[27-29]。SVM的核心思想就是把學習樣本非線性映射到高維特征空間,在高維特征空間構造線性判別函數(shù),將原樣本空間中非線性可分的問題轉化為在高維特征空間線性可分的問題[30]。本文選取LibSVM軟件包進行SVM分類,基于徑向基核函數(shù)(radial basis function, RBF),采用網(wǎng)格劃分法尋找最優(yōu)參數(shù)(懲罰系數(shù)c與核函數(shù)半徑g),進而建立模型。
SVM還需要選取訓練樣本進行學習。首先對各類地物進行目視解譯,按照均勻采樣的原則勾畫地物多邊形; 其次,對多邊形和多尺度分割的分割結果進行相交,相交后的多邊形對象作為樣本集,按照分層采樣的思想從每類樣本中隨機選出2/3的樣本作為訓練樣本,通過目視解譯在漢旺和林扒研究區(qū)分別選取的每類地物個數(shù)見表2。
表2 各類地物的樣本個數(shù)
2.3 建筑物提取后處理
SVM分類的建筑物提取結果通常會出現(xiàn)類別錯分現(xiàn)象,或者多尺度分割時產(chǎn)生的碎屑多邊形在分類過程中沒有被消除掉,因此需要進行后處理。處理時首先根據(jù)研究區(qū)建筑物高度實地考察結果設定高度閾值。漢旺研究區(qū)由于有安置住房,建筑物高度較低,閾值設定為1.5 m,林扒研究區(qū)屬于城鎮(zhèn)區(qū)域,閾值設定為3 m。SVM分類中出現(xiàn)的小于閾值高度的錯分類別,通過二值化予以剔除。剔除錯分之后利用形態(tài)學濾波去除建筑物圖像中的碎屑多邊形。
2.4 精度評價方法
雖然建立混淆矩陣和計算Kappa系數(shù)常被作為地物分類的精度評價方法,而對于建筑物提取通常只需區(qū)分目標提取類別,因此可根據(jù)提取的面積,采用建筑物提取的完整率(生產(chǎn)者精度)和正確率(用戶精度)進行評價[31]。完整率是指正確提取的建筑物面積占參考數(shù)據(jù)中建筑物總面積的比例,從另一側面則反映了有多少面積的建筑物區(qū)域沒能被提取出來; 正確率是指正確提取的建筑物面積占提取結果中建筑物總面積的比例,也可反映有多少面積不是建筑物卻誤認為是建筑物而被提取出來[3]。
從攝影測量點云的生成精度、點云生成的高度信息在分類特征中的權重分析、高度信息對提高建筑物提取精度的定量評估3個方面探討攝影測量點云用于建筑物提取的有效性。
3.1 點云生成精度
攝影測量點云是通過Pix4D Mapper生成,其自動生成空三精度報告,用于快速評估點云質(zhì)量。其中漢旺和林扒研究區(qū)光束法平差的中誤差值分別為0.28 像元和0.14 像元。證明Pix4D Mapper生成的點云質(zhì)量可以滿足精度要求。
3.2 高度信息的權重分析
除了需要說明點云的生成質(zhì)量外,還需要考慮高度信息在所選特征屬性中占的權重大小。選用內(nèi)置在LibSVM軟件包的F-score工具進行權重分析,權重值越高表明該特征在分類過程中的作用越大[32](圖 4)。其中,漢旺和林扒研究區(qū)高度特征的屬性權重排名分別為第二和第三位。漢旺研究區(qū)權重值最高的為綠度,是用于識別植被,排在第二位的為高度特征,是提取建筑物的重要特征: 林扒研究區(qū)權重值排在前兩位的為綠度和紅綠植被指數(shù),這2種特征都主要用于識別植被,第三位為高度特征,表明高度特征對提取建筑物作用最大。通過權重分析得出,攝影測量點云生成的高度信息對建筑物提取是適用的。
(a) 漢旺研究區(qū) (b) 林扒研究區(qū)
圖4 研究區(qū)特征權重值
Fig.4 Feature importance for two study areas
3.3 提取精度評價
驗證攝影測量點云對建筑物提取的適用性,最重要的是定量分析攝影測量點云生成的高度信息能否顯著提高建筑物的提取精度。提取結果見圖 5。
(a) 漢旺研究區(qū) (b) 林扒研究區(qū)
圖5 研究區(qū)提取結果
Fig.5 Building extraction results in two sites
根據(jù)2.4節(jié)中所述精度評價方法,分別對高度信息參與和未參與特征選取及后處理的建筑物提取結果進行定量評價(表3)。通過對比發(fā)現(xiàn): ①在漢旺研究區(qū),高度信息的參與使完整率提高了7.6%,正確率提高了41.8%; ②在林扒研究區(qū),由于高度信息的參與使完整率提高了3.8%,正確率提高了15.5%。結果表明攝影測量點云生成的高度信息可以顯著提高建筑物提取精度。
表3 建筑物提取精度評價
本文基于無人機影像作為單一數(shù)據(jù)源,采用面向?qū)ο蠓椒ǎY合SVM分類器,進行建筑物提取,研究表明:
1) 采用無人機影像作為單一數(shù)據(jù)源,并且應用Pix4D Mapper軟件生成攝影測量點云,獲得地物高度信息,可取得較好的提取效果,這表明攝影測量點云生成的高度信息可有效提高建筑物提取精度。單一數(shù)據(jù)源可以最大程度地降低數(shù)據(jù)獲取成本,并保持數(shù)據(jù)的一致性。
2) 研究區(qū)中的建筑物復雜多樣,房屋密集,采用面向?qū)ο蠓椒?,結合SVM分類器,對2個不同特點的研究區(qū)進行建筑物提取,都可以取得較高的提取精度,表明該方法具有較好的可移植性和魯棒性。
3) nDSM的生成精度取決于匹配和濾波算法,因此本文研究受限于匹配精度和濾波效果。后續(xù)研究可以加強匹配和濾波算法的改進,進一步提高建筑物的提取精度。
[1] Ahmadi S,Zoej M J V,Ebadi H,et al.Automatic urban building boundary extraction from high resolution aerial images using an innovative model of active contours[J].International Journal of Applied Earth Observation and Geoinformation,2010,12(3):150-157.
[2] Turker M,Koc-San D.Building extraction from high-resolution optical spaceborne images using the integration of support vector machine(SVM) classification,Hough transformation and perceptual grouping[J].International Journal of Applied Earth Observation and Geoinformation,2015,34:58-69.
[3] 馮甜甜,龔健雅.基于LiDAR數(shù)據(jù)的建筑物自動提取方法的比較[J].測繪通報,2011(2):21-23,47. Feng T T,Gong J Y.Comparison of automatic building extraction methods based on LiDAR data[J].Bulletin of Surveying and Mapping,2011(2):21-23,47.
[4] Brunn A,Weidner U.Extracting buildings from digital surface models[J].International Archives of Photogrammetry and Remote Sensing,1997,32(3):27-34.
[5] Awrangjeb M,Ravanbakhsh M,Fraser C S.Automatic detection of residential buildings using LIDAR data and multispectral imagery[J].ISPRS Journal of Photogrammetry and Remote Sensing,2010,65(5):457-467.
[6] Sohn G,Dowman I.Data fusion of high-resolution satellite imagery and LiDAR data for automatic building extraction[J].ISPRS Journal of Photogrammetry and Remote Sensing,2007,62(1):43-63.
[7] Rottensteiner F,Trinder J,Clode S,et al.Building detection by fusion of airborne laser scanner data and multi-spectral images:Performance evaluation and sensitivity analysis[J].ISPRS Journal of Photogrammetry and Remote Sensing,2007,62(2):135-149.
[8] Kabolizade M,Ebadi H,Ahmadi S.An improved snake model for automatic extraction of buildings from urban aerial images and LiDAR data[J].Computers,Environment and Urban Systems,2010,34(5):435-441.
[9] Wei Y Z,Yao W,Wu J W,et al.Adaboost-based feature relevance assessment in fusing lidar and image data for classification of trees and vehicles in urban scenes[J].ISPRS Annals of Photogrammetry,Remote Sensing and Spatial Information Sciences,2012,I-7(7):323-328.
[10]Grigillo D,Kanjir U.Urban object extraction from digital surface model and digital aerial images[J].ISPRS Annals of Photogrammetry,Remote Sensing and Spatial Information Sciences,2012,I-3(3):215-220.
[11]Gerke M,Xiao J.Fusion of airborne laserscanning point clouds and images for supervised and unsupervised scene classification[J].ISPRS Journal of Photogrammetry and Remote Sensing,2014,87:78-92.
[12]Ke Y H,Quackenbush L J,Im J.Synergistic use of QuickBird multispectral imagery and LIDAR data for object-based forest species classification[J].Remote Sensing of Environment,2010,114(6):1141-1154.
[13]汪小欽,王苗苗,王紹強,等.基于可見光波段無人機遙感的植被信息提取[J].農(nóng)業(yè)工程學報,2015,31(5):152-159. Wang X Q,Wang M M,Wang S Q,et al.Extraction of vegetation information from visible unmanned aerial vehicle images[J].Transactions of the Chinese Society of Agricultural Engineering,2015,31(5):152-159.
[14]何少林,徐京華,張帥毅.面向?qū)ο蟮亩喑叨葻o人機影像土地利用信息提取[J].國土資源遙感,2013,25(2):107-112.doi:10.6046/gtzyyg.2013.02.19. He S L,Xu J H,Zhang S Y.Land use classification of object-oriented multi-scale by UAV image[J].Remote Sensing for Land and Resources,2013,25(2):107-112.doi:10.6046/gtzyyg.2013.02.19.
[15]雷添杰,李長春,何孝瑩.無人機航空遙感系統(tǒng)在災害應急救援中的應用[J].自然災害學報,2011,20(1):178-183. Lei T J,Li C C,He X Y.Application of aerial remote sensing of pilotless aircraft to disaster emergency rescue[J].Journal of Natural Disasters,2011,21(1):178-183.
[16]劉海飛,常慶瑞,李粉玲.高分辨率影像城區(qū)建筑物提取研究[J].西北農(nóng)林科技大學學報:自然科學版,201,413(10):221-227,234. Liu H F,Chang Q R,Li F L.Urban building extraction from high-resolution multi-spectral image with object-oriented classification[J].Journal of Northwest A&F University:Natural Science Edition,2013,41(10):221-227,234.
[17]Blaschke T,Hay G J,Kelly M,et al.Geographic object-based image analysis-towards a new paradigm[J].ISPRS Journal of Photogrammetry and Remote Sensing,2014,87(100):180-191.
[18]Khoshelham K,Nardinocchi C,Frontoni E,et al.Performance evaluation of automated approaches to building detection in multi-source aerial data[J].ISPRS Journal of Photogrammetry and Remote Sensing,2010,65(1):123-133.
[19]Dandois J P,Ellis E C.High spatial resolution three-dimensional mapping of vegetation spectral dynamics using computer vision[J].Remote Sensing of Environment,2013,136:259-276.
[20]Sithole G,Vosselman G.Experimental comparison of filter algorithms for bare-earth extraction from airborne laser scanning point clouds[J].ISPRS Journal of Photogrammetry and Remote Sensing,2004,59(1/2):85-101.
[21]黃先鋒,李卉,王瀟,等.機載LiDAR數(shù)據(jù)濾波方法評述[J].測繪學報,2009,38(5):466-469. Huang X F,Li H,Wang X,et al.Filter algorithms of airborne LiDAR data:Review and prospects[J].Acta Geodaetica et Cartographica Sinica,2009,38(5):466-469.
[22]黃金浪.基于TerraScan的LiDAR數(shù)據(jù)處理[J].測繪通報,2007(10):13-16. Huang J L.LiDAR data processing based on TerraScan[J].Bulletin of Surveying and Mapping,2007(10):13-16.
[23]Baatz M,Sch?pe A.Multiresolution segmentation:An optimization approach for high quality multi-scale image segmentation[J].Angewandte Geographische Informationsverarbeitung XII,2000,58(3/4):12-23.
[24]Li D,Ke Y H,Gong H L,et al.Object-based urban tree species classification using bi-temporal WorldView-2 and WorldView-3 images[J].Remote Sensing,2015,7(12):16917-16937.
[25]Dash J,Steinle E,Singh R P,et al.Automatic building extraction from laser scanning data:An input tool for disaster management[J].Advances in Space Research,2004,33(3):317-322.
[26]Rau J Y,Jhan J P,Hsu Y C.Analysis of oblique aerial images for land cover and point cloud classification in an urban environment[J].IEEE Transactions on Geoscience and Remote Sensing,2015,53(3):1304-1319.
[27]Van Der Linden S,Janz A,Waske B,et al.Classifying segmented hyperspectral data from a heterogeneous urban environment using support vector machines[J].Journal of Applied Remote Sensing,2007,1(1):013543.
[28]Waske B,Benediktsson J A,rnason K,et al.Mapping of hyperspectral AVIRIS data using machine-learning algorithms[J].Canadian Journal of Remote Sensing,2009,35(S1):S106-S116.
[29]Tigges J,Lakes T,Hostert P.Urban vegetation classification:Benefits of multitemporal RapidEye satellite data[J].Remote Sensing of Environment,2013,136:66-75.
[30]梅建新.基于支持向量機的高分辨率遙感影像的目標檢測研究[D].武漢:武漢大學,2004. Mei J X.Study on Object Detection for High Resolution Remote Sensing Images Based on Support Vector Machines[D].Wuhan:Wuhan University,2004.
[31]Rutzinger M,Rottensteiner F,Pfeifer N.A comparison of evaluation techniques for building extraction from airborne laser scanning[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2009,2(1):11-20.
[32]Chen Y W,Lin C J.Combining SVMs with Various Feature Selection Strategies[M] // Guyon I,Nikravesh M,Gunn S,et al,eds.Feature Extraction.Berlin Heidelberg:Springer,2006:315-324.
(責任編輯: 陳理)
Building extraction based on UAV imagery data with the synergistic use of objected-based method and SVM classifier
WANG Xudong1,2, DUAN Fuzhou1,2, QU Xinyuan1,2, LI Dan1,2, YU Panfeng3
(1.CollegeofResourcesEnvironmentandTourism,CapitalNormalUniversity,Beijing100048,China; 2.KeyLabof3DInformationAcquisitionandApplicationofMinistryofEducation,Beijing100048,China; 3.WuhanWorldStarChartTechnologyCo.,Ltd,Wuhan430014,China)
Height information created by LiDAR data is generally used for building extraction. LiDAR data can produce highly accurate, reliable 3D point clouds of ground objects. However, LiDAR data is expensive. In view of such a situation, this study aims to extract buildings solely using UAV imagery data. The height information used is created by point clouds derived from UAV stereo pairs through dense matching algorithm. In this study, UAV imagery was used as a single remote sensing data source and building extraction was carried out by the integration of objected-based method and SVM classification. In the preprocessing period, Pix4D Mapper was used for aerial triangulation and photogrammetric point clouds generation. Then, an objected-based method that utilized spectral information and geometric features was developed, the object height was derived from photogrammetric point clouds to assist in the detection of the building. Finally, the building boundaries were extracted through SVM classifier. In the post-processing procedure, morphological operations were applied to remove small objects from building images. To validate the photogrammetric point cloud usefulness, experiments were conducted on UAV imagery data, covering the selected test areas in Hanwang Town of Sichuan Province and Linpa Town of Henan Province. The building extraction accuracy was accessed on the test areas, and building detection completeness of Hanwang test area is 85.5%, detection correction is 83.9%; building detection completeness of Linpa test area is 92.5%, detection correction is 78.6%. The results show that nDSM derived from photogrammetric point clouds can be used for building extraction, and can improve the detection accuracy of the building.
UAV imagery data; Pix4D Mapper; photogrammetric point clouds; nDSM; objected-based; SVM; building extraction
10.6046/gtzyyg.2017.01.15
王旭東,段福洲,屈新原,等.面向?qū)ο蠛蚐VM結合的無人機數(shù)據(jù)建筑物提取[J].國土資源遙感,2017,29(1):97-103.(Wang X D,Duan F Z,Qu X Y,et al.Building extraction based on UAV imagery data with the synergistic use of objected-based method and SVM classifier[J].Remote Sensing for Land and Resources,2017,29(1):97-103.)
2015-09-18;
2016-01-06
王旭東(1990- ),男,碩士,主要從事無人機影像處理和三維建模研究。Email: wangxudong1304@163.com。
TP 751.1
A
1001-070X(2017)01-0097-07