張 良,馬洪超,2,高 廣,陳 卓,3
1.武漢大學(xué)遙感信息工程學(xué)院,湖北武漢 430079;2.武漢大學(xué)測繪遙感信息工程國家重點實驗室,湖北武漢 430079;3.中國科學(xué)院上海技術(shù)物理研究所,上海 200083
點、線相似不變性的城區(qū)航空影像與機載激光雷達點云自動配準(zhǔn)
張 良1,馬洪超1,2,高 廣1,陳 卓1,3
1.武漢大學(xué)遙感信息工程學(xué)院,湖北武漢 430079;2.武漢大學(xué)測繪遙感信息工程國家重點實驗室,湖北武漢 430079;3.中國科學(xué)院上海技術(shù)物理研究所,上海 200083
提出一種基于點、線相似不變性的城區(qū)航空影像與機載LiDAR點云自動配準(zhǔn)算法。首先通過SIFT算子提取點特征并進行粗配準(zhǔn),同時分別基于影像和LiDAR點云提取直線特征;然后利用局部區(qū)域點特征與線特征的相似不變性,通過匹配點對搜索匹配直線對;最后采用基于擴展共線方程的2D-3D嚴密配準(zhǔn)模型實現(xiàn)航空影像與LiDAR點云的精配準(zhǔn)。本方法的特點是:采取了由粗到精的配準(zhǔn)策略,通過點、線相似不變性,將基于強度的配準(zhǔn)算法和基于線特征的配準(zhǔn)算法有機結(jié)合,在較高的自動化程度下實現(xiàn)了影像與點云的精確配準(zhǔn)。試驗證明,與基于點云強度影像的自動配準(zhǔn)算法相比,本文的算法在城市地區(qū)能夠取得較好的配準(zhǔn)結(jié)果。
自動配準(zhǔn);激光雷達;尺度不變特征變換(SIFT);相似不變性
航空影像語義信息豐富,是地物提取最大的數(shù)據(jù)源之一,由于缺乏直接的三維信息,單獨利用影像進行數(shù)據(jù)處理有一定的局限性。機載激光雷達(airborne light detection and ranging,LiDAR)是一種新型的航空對地觀測傳感器,具有主動觀測、受天氣影響小、不受陰影影響、對地物間縫隙有一定穿透性并能直接獲取地表三維幾何信息等優(yōu)點[1]。將航空影像和LiDAR點云配準(zhǔn)、融合,可同時獲取地物的空間信息及語義信息,有效彌補了單一數(shù)據(jù)源的不足[2],在災(zāi)害評估、真正射影像制作、道路、建筑物自動建模等領(lǐng)域有很大的應(yīng)用前景[3-6]。
與傳統(tǒng)配準(zhǔn)算法不同,航空影像與機載LiDAR點云的配準(zhǔn),是二維與三維數(shù)據(jù)、連續(xù)影像與離散點云之間的配準(zhǔn)問題,傳統(tǒng)影像之間的配準(zhǔn)方法收效甚微[7]。近10年來,國內(nèi)外學(xué)者對其進行了一定的研究,大致可以歸結(jié)為3類算法。①通過航空影像密集匹配獲取三維點集,然后通過ICP(iterative closest point)或其改進方法[9-10]建立其與機載LiDAR點云的對應(yīng)關(guān)系,這本質(zhì)上是一種3D-3D配準(zhǔn)變換。這類算法無法進行單張影像與點云的配準(zhǔn),同時密集匹配生成點云的過程會降低配準(zhǔn)精度。②將LiDAR點云按照高程或強度轉(zhuǎn)換為二維影像,再依據(jù)傳統(tǒng)的圖像配準(zhǔn)方法實現(xiàn)兩種數(shù)據(jù)的配準(zhǔn)。如基于互信息的全局配準(zhǔn)方法[11]、基于SIFT(scale invariant feature transform)算子的配準(zhǔn)方法[12]、基于FFT變換的算法[13]、6元組松弛法[14]等。這類算法充分利用了原有的成熟圖像配準(zhǔn)算法,自動化程度高,然而規(guī)則化過程中的誤差、點位選取不準(zhǔn)的誤差,都會降低配準(zhǔn)精度。③部分學(xué)者嘗試建立遙感影像與機載LiDAR點云之間的直接配準(zhǔn)模型。文獻[15—16]用直線特征或平面特征建立遙感影像與激光點云的直接映射關(guān)系。文獻[17]將空間三維點采用參數(shù)方程和輔助變量聯(lián)合表示,通過擴展的共線方程,建立起二維影像點(2D)與的點云空間三維直線(3D)的直接映射關(guān)系,避免了LiDAR空間點位選取不準(zhǔn)的誤差、點云內(nèi)插誤差以及密集匹配的誤差,配準(zhǔn)模型嚴密、簡單,具有一定的推廣價值。該算法的自動化程度取決于配準(zhǔn)基元的選取與匹配的自動化程度,需要進一步的研究。
基于上述分析,本文綜合第2類和第3類算法的優(yōu)點,提出一種基于點、線相似不變性的自動配準(zhǔn)算法。首先,將點云內(nèi)插成強度影像(和取反的強度影像),通過SIFT算法提取足夠多的匹配點對,并實現(xiàn)點云與影像的粗配準(zhǔn);同時分別基于點云和航空影像提取邊緣特征,并通過一定規(guī)則將一條較長的邊緣自動的分割為若干較短的邊緣直線;然后利用局部區(qū)域中點特征與線特征的相似不變性,通過匹配點對搜索匹配直線對;最后采用基于擴展共線方程的2D-3D嚴密配準(zhǔn)模型實現(xiàn)航空影像與LiDAR點云的精配準(zhǔn)。技術(shù)流程如圖1所示。
圖1 基于點、線相似不變性的城區(qū)航空影像與機載LiDAR點云的自動配準(zhǔn)技術(shù)流程Fig.1 The flow chart of automatic registration of urban aerial images with airborne LiDAR points based on line-point similarity invariants
SIFT算法通過在DOG尺度空間尋找極值點作為特征點,并在鄰域計算梯度直方圖作為該點的局部特征描述符,它能夠較好地克服兩幅影像因旋轉(zhuǎn)、比例尺不一以及光源不同導(dǎo)致的差異[12]。本文采用文獻[12]的建議,分別利用Li-DAR點云內(nèi)插距離影像、強度影像和取反后的強度影像與遙感圖像進行匹配,提取足夠多的匹配點,并利用RANSAC算法消除錯配,最后對所有匹配點按可靠性進行排序,選擇可靠性較高的匹配點,基于DLT模型進行粗配準(zhǔn)。
3.1 LiDAR點云的線特征提取
本文采用從粗到細的策略從LiDAR點云中提取線特征(主要指建筑物輪廓線),首先利用文獻[18]提出的技術(shù)流程從LiDAR點云中快速提取建筑的大致輪廓線并進行分割,然后根據(jù)建筑物的掃描特征,提出一種精確提取建筑物特征線的“微元特征分析法”。詳細步驟如下:
(1)建筑物點檢測。將點云柵格化成距離影像DSM,再采用形態(tài)學(xué)濾波方法[19]獲取DEM數(shù)據(jù),進一步求得規(guī)則化的n DSM,最后利用高差閾值對nDSM進行分割,求出建筑物區(qū)域及其對應(yīng)的建筑物點。
(2)建筑物輪廓生成與規(guī)則化。采用Alpha-Shapes[20]算法從檢測出的建筑物點中提取建筑物初始輪廓,采用袖子算法[21]提取原始輪廓的關(guān)鍵點,進而得到輪廓線的骨架,再對骨架線進行規(guī)則化處理,最后得到規(guī)則化后的建筑物輪廓。
(3)特征直線提取。獲取規(guī)則化的建筑物輪廓后,依據(jù)線段的長度與角度,將輪廓拆分為多條直線。
(4)利用“微元特征分析法”提取精確直線特征。
由于目前主流的機載LiDAR硬件所采集的點云空間分辨率不高,并非所用邊緣點都正好落在屋頂邊緣,同時考慮到建筑物點識別(特別是邊緣點)可能存在誤差等原因,初步提取的建筑物輪廓通常不是嚴格分布在實際建筑物邊界,規(guī)則化后的邊緣線可能會向建筑物內(nèi)部收縮不超過點間距0.5倍的距離[22]。由于LiDAR的掃描特性,航線兩側(cè)特征線偏移的方向不一致,內(nèi)縮誤差在平差運算中可能得到一定的消減,文獻[22]提出為控制點設(shè)定相應(yīng)的精度(權(quán)值),計點云高程精度為控制點高程精度,計0.5個點間距與點云平面精度之和為平面精度,然后代入平差方程求最優(yōu)解。該方法難以完全消除建筑物邊緣的內(nèi)縮誤差。
本文利用LiDAR的掃描特性,通過“微元特征分析法”對精化一部分邊緣線。其理論為:當(dāng)掃描角大于一定的閾值時(如圖2(a)所示),激光光束打到建筑物墻立面形成點云,利用概略邊緣線及其在地面上的投影組成一個特征立面V,該特征平面沿其法線方向的微小移動即為V在該特征上的微小變量(本文dv取點間距的0.6倍,如圖2(b)),定義為“微元特征”。統(tǒng)計“微元特征”內(nèi)點的個數(shù)是否達到給定的閾值,若滿足,則利用最小二乘原理擬合墻立面,然后以墻立面的水平位置為約束獲取精化的邊緣直線。具體步驟如下:
(1)遍歷初始邊緣線,搜索每條直線的“微元特征”。
(2)統(tǒng)計微小立面的點云個數(shù),并計算出微元內(nèi)的點密度。
(3)若點密度大于閾值,根據(jù)最小二乘原理擬合墻立面,以墻立面與建筑物頂面的交線為約束條件精化邊緣線;反之,轉(zhuǎn)到(1)。
(4)遍歷所有的邊緣線,提取精化后的直線為特征線。
圖2 基于LiDAR點云的直線特征提取Fig.2 Linear features extraction based on LiDAR point clouds
建筑物是否存在立面點、立面點數(shù)量的多少與建筑物的高度、朝向、飛機的高度、飛行方向等眾多因素相關(guān)。LiDAR工程中,視場角一般在50°左右,即掃描角在-25°和+25°之間。試驗發(fā)現(xiàn),當(dāng)掃描角絕對值大于5°時,除特別小、密集的建筑(如棚屋區(qū))外,大部分建筑物至少有一個墻立面存在點云。因此,在城市地區(qū)利用“微元特征分析法”得到的精確特征線,可以覆蓋大部分區(qū)域,滿足精配準(zhǔn)的要求。當(dāng)精確提取的特征線分布不足時,可參考文獻[21]的方案,將其他特征線賦以較小的權(quán)重,代入平差方程獲得最優(yōu)解。
3.2 航空影像的線特征提取
基于點云提取的線特征精度稍差但完整性好,基于影像提取的邊緣能準(zhǔn)確覆蓋建筑物內(nèi)外邊緣像素,但是比較破碎。本文采用LSD法提取特征直線[23],與傳統(tǒng)的Canny算子結(jié)合Hough變換提取直線的方法相比,漏檢現(xiàn)象少,完整性也較好。同時,為了提高自動匹配算法的運行效率,通過計算線段的長度、長度比、角度、端點間距離、線段間法向距離等參數(shù),對基于影像提取的特征線進行優(yōu)化。具體可分下述幾種情況:
(1)如圖3(a)所示的輪廓ABCD,通過角度閾值和長度閾值,切割成AB、BC、CD3條線段。
(2)如圖3(b)的輪廓ABCDE,簡化成選段AE。
(3)若一條明顯的線段被分割成幾條短小線段,如圖3(c)所示,線段AB、CD、EF可以合并為線段AF。
(4)若多條線段平行且線段間距離非常相近,如圖3(d)所示,選段AB、CD可以合并為線段A′B′。
圖3 基于影像提取的直線特征Fig.3 The linear features extracted by images
為了滿足共面條件,將基于LiDAR點云提取的特征線沿著Z軸投影到點云強度影像上,利用L1={q1,q2,…,qn}表示其集合,通過L2={p1,p2,…,pm}表示基于粗匹配后的航空影像提取的直線段集合,C={c1,c2,…,ck}表示匹配點對的集合,其中cm={(ai,bj),0≤m≤k}。本文中的直線通過系數(shù)矩陣表示,如直線Ax+By+C=0,表示為[A B C]T。
如圖4所示,特征線q位于點云空間,特征線p是q在航空影像上的匹配直線,由于粗匹配后的航空影像已被近似地投影到點云空間,大部分誤差已消除,同時一組匹配特征線對所涉及的范圍較小,可以假設(shè)它們之間只存在微小的角度差異和尺度差異,線對之間的關(guān)系可以通過式(1)表示
式中,H表示變換矩陣;s表示比例因子,其大小由H和p決定。
圖4 局部范圍點線之間的對應(yīng)關(guān)系Fig.4 The corresponding relation between points and lines in local area
式(5)的物理意義是:當(dāng)兩個特征點距離特征直線足夠近時,特征點與特征直線之間的距離比相等,即滿足相似不變性。利用該特性,即可通過匹配點對搜索匹配的直線對。本文以點云空間的特征線q為例,介紹自動匹配的步驟:
(1)以特征線q的法線方向α·L(q)和與直線平行方向的β·L(q)為界設(shè)置搜索區(qū)域(如圖5所示,本文α、β各取2),找出搜索區(qū)域內(nèi)所有的匹配點對,以及影像空間中與該區(qū)域有交集的全部“待匹配特征線”ΔP={Δp1,Δp2,…,Δpn}。
圖5 搜索范圍Fig.5 Search range
(2)通過式(6)計算q與每條“待匹配直線”的相似性Sim(q,Δp),由式(6)可知,當(dāng)Δp與q相匹配且參與計算的兩個匹配點對也沒有錯配時,Sim(q,Δp)≈1。
(3)為了盡可能地消除粗匹配中錯匹配點的影響,本文針對每條“疑似匹配直線”Δp,與搜索區(qū)域內(nèi)所有的匹配點對一起,計算所有的相似性測度值,然后取最大值max Sim(q)作為相似性測度依據(jù)
(4)重復(fù)(1)—(3),直到搜索出所有的匹配直線對。
(5)本文提取建筑物邊緣直線為線配準(zhǔn)基元,因此有大量的平行線段存在,假設(shè)c1、c2為平行的特征線附近的匹配點對,當(dāng)c1、c2組成的“線段”與線特征平行時,僅僅通過max Sim(q)進行判斷邏輯不夠嚴密,容易造成錯判。為了增強算法的抗差性,引入直線之間的距離作為輔助的相似性測度參數(shù)。直線距離定義如圖6所示:q為點云空間的特征線;Δp為影像空間的特征線在點云空間的投影直線;O為Δp的中點,取O一定距離(本文取2.5 m)的端點A、B,A到q的距離為d1,B到q的距離為d2,則q與Δp的距離為
(6)引入長度比和角度差作為測度依據(jù)。理論上,同名特征線長度基本一致,考慮到基于影像提取的直線完整性不如基于點云提取的直線,本文限定點云特征線與影像特征線長度比是1~ 3倍;特征線之間的夾角也可以起到有效的濾除效果,通過設(shè)定夾角閾值15°,可快速去除大部分不匹配的直線段。在(3)之前,通過(5)、(6)進行明顯的非匹配直線濾除,可有效提高匹配效率。
圖6 直線段之間的距離Fig.6 Distance between two straight line-segments
共線方程是攝影測量中的基本方程,其實質(zhì)是二維影像坐標(biāo)和三維物方坐標(biāo)之間的轉(zhuǎn)化關(guān)系。如果在影像空間特征線p上任取一點α,可以確定α在LiDAR點云空間的同名點β在p的匹配特征線q上,通過特征線端點A、B的坐標(biāo)并引入輔助參數(shù)λ可精確表示β的坐標(biāo),如式(9)所示
將上述關(guān)系代入原始的共線方程,得到擴展的共線方程模型(10),通過該模型實現(xiàn)航空影像與LiDAR點云的精配準(zhǔn)
通過最小二乘平差迭代使得點云空間每條直線表示的空間點不斷接近真值,最后同時解算出航空影像外方位元素以及輔助參數(shù)λ,實現(xiàn)精確配準(zhǔn),當(dāng)初始外方位元素未知時,可利用該思路擴展多項式模型等其他配準(zhǔn)模型實現(xiàn)精配準(zhǔn)。
為了驗證本文算法的實際效果,采用長春某地區(qū)的航空影像與LiDAR點云試驗(如圖7所示),測區(qū)人工地物豐富,分布合理,典型性較高。其中,LiDAR點云平均點間距約0.7 m,高程精度約0.15 m,水平精度約0.4 m。相機的CCD像元大小為0.006 8 mm,焦距60 mm,航高約1500 m,地面分辨率約0.2 m。其中,粗配準(zhǔn)的結(jié)果如表1所示,基于點云提取的匹配點和特征線(精化后)的分布如圖8所示,粗配準(zhǔn)后的點云與影像疊加效果如圖9所示。
表1 基于SIFT算法的匹配(RANSAC算法消除配錯點后)Tab.1 Matching based on SIFT algorithm(mismatched points are eliminated the by RANSAC)
圖7 試驗數(shù)據(jù)Fig.7 Experimental data
圖8 基于點云提取的匹配點以及特征線的分布Fig.8 The distribution of Match points and feature lines extracted by LiDAR point clouds
圖9 粗配準(zhǔn)后的點云與航空影像疊加(局部)Fig.9 The superposition of aerial images with LiDAR point clouds in local area
由表1可知:①由于距離影像與航空影像紋理差異太大,錯匹配率過高,匹配結(jié)果不具備實用性;②點云強度影像能取得較好的匹配效果,可能是機載LiDAR所采用的激光屬于紅外波段而光學(xué)影像屬于可見光波段的緣故,將強度值取反再與光學(xué)影像進行匹配,獲取的匹配點數(shù)量更多、可靠性更高;③盡管試驗中采取RANSAC算法進行了去噪,但無論采用哪種數(shù)據(jù),都難以避免較大的錯配率。
由圖8、圖9可知:①特征線分布比較均勻,分布密度與人工建筑的分布呈近似的正相關(guān)關(guān)系;②每條特征線周圍有一定數(shù)量的匹配點集,基本保證相似不變性的判斷條件;③粗匹配后的影像已經(jīng)近似投影到點云空間,但是通過圖9發(fā)現(xiàn),屋頂面沒有完全套合,尚存在一定的偏差。
為了對比精配準(zhǔn)和粗配準(zhǔn)之間的差別,分別截取幾個不同角落的點云,與通過精配準(zhǔn)模型轉(zhuǎn)化后的正射影像疊加,如圖10所示。上邊是基于SIFT算法的粗配準(zhǔn)結(jié)果,下面為精細配準(zhǔn)后的結(jié)果,從圖中可以看出,上面的點云與影像位置存在著較明顯的錯位,精配準(zhǔn)后影像與點云的套合度均得到一定程度的改善。
圖10 精配準(zhǔn)前后的效果對比Fig.10 Comparison before and after precise registration
由于點云的特殊性,傳統(tǒng)光學(xué)影像之間的配準(zhǔn)精度評價方法(相關(guān)系數(shù)、互信息等),不適用于影像與LiDAR點云的配準(zhǔn)精度的精確評價。本文利用線特征作為配準(zhǔn)精度的評價依據(jù)。試驗中,分別在點云和影像的9個角落人工勾畫9條同名直線作為“檢查線”,然后將影像空間的“檢查線”投影到點云空間,利用式(8)計算兩者的距離作為殘差值。表2列出了粗配準(zhǔn)與精配準(zhǔn)各個檢查線的殘差以及殘差平均值與中誤差。
表2 基于“檢查線”的殘差統(tǒng)計Tab.2 Statistics of residuals based on“check lines”m
由表2可得,精配準(zhǔn)后平均誤差、中誤差分別由粗配準(zhǔn)后的0.92 m、0.41 m、0.23 m減少到0.42 m、0.23 m、0.11 m,配準(zhǔn)精度得到了較明顯的提高。鑒于試驗LiDAR數(shù)據(jù)的點間距約為0.7 m,高程精度約0.15 m,影像的地面分辨率約為0.2 m,可知本文提出的配準(zhǔn)算法已達到較理想的精度。
本文提出的自動配準(zhǔn)算法的創(chuàng)新點有:①提出“微元特征分析法”,利用LiDAR的掃描特征,解決基于LiDAR點云提取建筑物頂邊緣精確度不足的問題;②通過局部區(qū)域中點特征與線特征的相似不變性原理,利用粗匹配的點對搜索匹配直線對,有效結(jié)合基于點特征的粗匹配和基于線特征的精匹配各自的優(yōu)點,保證配準(zhǔn)精度的同時提升算法自動化程度。
試驗證明,該方法在城市地區(qū)能夠以較高的自動化程度取得較理想的配準(zhǔn)結(jié)果。在直線特征稀少的山區(qū)、郊區(qū),如何結(jié)合點特征和曲線特征實現(xiàn)航空影像與LiDAR點云的自動配準(zhǔn),需要進一步研究。另外,不同的影像分辨率和點云密度會影響特征提取的精度和密度,進而影響自動匹配的效果,兩者的尺度關(guān)系對配準(zhǔn)精度的影響,需要更豐富的試驗去驗證。
[1] AXELSSON P.Processing of Laser Scanner Data-algorithms and Applications[J].ISPRS Journal of Photogrammetry and Remote Sensing,1999,54(2-3):138-147.
[2] BALTSAVIAS E.A Comparison between Photogrammetry and Laser Scanning[J].ISPRSJournal of Photogrammetry and Remote Sensing,1999,54(2-3):83-94.
[3] SMITH M,ASAL F F F,PRIESTNALL G.The Use of Photogrammetry and LiDAR for Landscape Roughness Estimation in Hydrodynamic Studies[C]∥International Archives of Photogrammetry,Remot Sensing and Spatial Information Sciences.Netherlands:[s.n.],2004:714-719.
[4] CHEN Zhuo,MA Hongchao.Automatic Extracting and Modeling Approach of City Cloverleaf from Airborne LiDAR Data[J].Acta Geodaetica et Cartographica Sinica, 2012,41(2):252-258.(陳卓,馬洪超.基于機載LiDAR數(shù)據(jù)的大型立交橋自動提取與建模方法[J].測繪學(xué)報, 2012,41(2):252-258.)
[5] LI Yijing,HU Xiangyun,ZHANG Jianqing,et al.Automatic Road Extraction in Complex Scenes Based on Information Fusion from LiDAR Data and Remote Sensing Imagery [J].Acta Geodaetica et Cartographica Sinica,2012,41 (6):870-876.(李怡靜,胡翔云,張劍清,等.影像與LiDAR數(shù)據(jù)信息融合復(fù)雜場景下的道路自動提取[J].測繪學(xué)報,2012,41(6):870-876.)
[6] CHENG Liang,GONGJianya,LI Manchun,et al.3D Building Model Reconstruction from Multi-view Aerial Images and LiDAR Data[J].Acta Geodaetica et Cartographica Sinica, 2009,38(6):494-501.(程亮,龔健雅,李滿春,等.集成多視航空影像與LiDAR數(shù)據(jù)重建3維建筑物模型[J].測繪學(xué)報,2009,38(6):494-501.)
[7] MISHRA R,ZHANG Y.A Review of Optical Imagery and Airborne LiDAR Data Registration Methods[J].The Open Remote Sensing Journal,2012(5):54-63.
[8] MOHD D N,MAAROF I,LATIF Z A,et al.LiDAR:A Review on Generating Digital True Orthophoto[C]∥IEEE 7th International Colloquium on Signal Processing and Its Applications.Penang:[s.n.],2011:336-340.
[9] HARRISON J W,ILES P J W,FERRIE F P,et al.Tessellation of Ground-based LiDAR Data for ICP Registration[C]∥Proceedings of the Fifth Canadian Conference on Computer and Robot Vision.Windsor:[s.n.],2008: 345-351.
[10] TEO T A,HUANG S H.Automatic Co-Registration of Optical Satellite Images and Airborne Lidar Data UsingRelative and Absolute Orientations[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2013,6(5):2229-2237.
[11] MASTIN A,KEPNER J.Automatic Registration of LiDAR and Optical Images of Urban Scenes[C]∥IEEE Conference on Computer Vision and Pattern Recognition.Cambridge:[s.n.],2009:2639-2646.
[12] ABEDINIA A,HAHNB M,SAMADZADEGAN F.An Investigation into the Registration of LiDAR Intensity Data and Aerial Images Using the SIFT Approach[C]∥The Internation Archives of the Photogrammetry,Remote Sensing and Spatial Information Sciences.Beijing:[s.n.], 2008:169-176.
[13] WONG A,ORCHARD J.Efficient FFT-Accelerated Approach to Invariant Optical-LiDAR Registration[J].Geoscience &Remote Sensing,2008,46(11):17-25.
[14] ZHONG Cheng,LI Hui,HUANG Xianfeng,et al.Automatic Registration of LiDAR Data and Aerial Image Based on a 6-Tuples Relaxation[J].Geomatics and Information Science of Wuhan University,2009(12):1426-1430.(鐘成,李卉,黃先鋒,等.利用6元組松弛法自動配準(zhǔn)LiDAR數(shù)據(jù)與航空影像[J].武漢大學(xué)學(xué)報:信息科學(xué)版, 2009(12):1426-1430.)
[15] HABIB A,GHANMA M,MORGAN M,et al.Photogrammetric and LiDAR Data Registration Using Linear Features[J].Photogrammetric Engineering and Remote Sensing,2005,71(6):699-707.
[16] HABIB A,SHIN S,KIM C,et al.Integration of Photogrammetric and LiDAR Data in a Multi-primitive Triangulation Environment[J].Lecture Notes in Geoinformation and Cartography,2006:29-45.
[17] MA Hongchao,YAO Chunjing,WU Jianwei.Registration of LiDAR Point Clouds and High Resolution Images Based on Linear Features[J].Geomatics and Information Science of Wuhan University,2012,37(2):136-141.(馬洪超,姚春靜,鄔建偉.基于線特征的LiDAR點云數(shù)據(jù)與航空影像的配準(zhǔn)[J].武漢大學(xué)學(xué)報:信息科學(xué)版,2012,37(2): 136-141.)
[18] LEE J,HAN S,BYUN Y,et al.Extraction and Regularization of Various Building Boundaries with Complex Shapes Utilizing Distribution Characteristics of Airborne LiDAR Points[J].ETRI Journal,2011,33(4):547-557.
[19] SUI Lichun,YANG Yun.Filtering of Airborne LiDAR Point Cloud Data Based on car(p,q)Model and Mathematical Morphology[J].Acta Geodaetica et Cartographica Sinica,2012,41(2):219-224.(隋立春,楊耘.基于car(p, q)模型和數(shù)學(xué)形態(tài)學(xué)理論的LiDAR點云數(shù)據(jù)濾波[J].測繪學(xué)報,2012,41(2):219-224.)
[20] SHEN Wei,LI Jing,CHEN Yunhao,et al Algorithms Study of Building Boundary Extraction and Normalization Based on LiDAR Data[J].Journal of Remote Sensing, 2008(5):692-698.(沈蔚,李京,陳云浩等.基于LIDAR數(shù)據(jù)的建筑輪廓線提取及規(guī)則化算法研究[J].遙感學(xué)報, 2008(5):692-698.)
[21] ZHAO Z,SAALFELD A.Linear-time Sleeve-fitting Polyline Simplification Algorithms[C]∥Proceedings of AutoCarto.Seattle:[s.n.],1997:214-223.
[22] ZHANG Yongjun,XIONG Xiaodong,SHEN Xiang.Automatic Registration of Urban Aerial Imagery with Airborne LiDAR Data[J].Journal of Remote Sensing,2012,16 (3):579-595.(張永軍,熊小東,沈翔.城區(qū)機載LiDAR數(shù)據(jù)與航空影像的自動配準(zhǔn)[J].遙感學(xué)報,2012,16(3): 579-595.)
[23] VON GIOI R G,JAKUBOWICZ J,MOREL J M,et al.LSD: A Fast Line Segment Detector with a False Detection Control[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32(4):722-732.
(責(zé)任編輯:陳品馨)
Automatic Registration of Urban Aerial Images with Airborne LiDAR Points Based on Line-point Similarity Invariants
ZHANG Liang1,MA Hongchao1,2,GAO Guang1,CHEN Zhuo1,3
1.School of Remote Sensing and Information Engineering,Wuhan University,Wuhan 430079,China;2.State Key Laboratory for Information Engineering in Surveying,Mapping and Remote Sensing,Wuhan University,Wuhan 430079, China;3.Shanghai Institute of Technical Physics,Chinese Academy of Sciences,Shanghai 200083,China
A novel algorithm for automatic registration of urban aerial images with airborne light detection and ranging(LiDAR)data sets was proposed.First of all,a coarse registration step was applied by the SIFT operator and in the meanwhile,straight line features were extracted from images and LiDAR point clouds respectively.And then,matched points were utilized to search matched lines via line-point similarity invariants in local areas.Finally,direct registration function model of 2D images and 3D LiDAR points based on line features was applied to achieve accurate registration.The main advantage of the proposed algorithm was that the coarse-to-fine matching strategy was adopted,which effectively combines traditional registration method based on LiDAR intensity images and the algorithm on the basis of line feature registration model,and thus an accurate registration result under a high degree of automation was implemented.The experimental result shows that this algorithm can achieve more accurate results in urban areas comparing with the algorithms on the basis of LiDAR intensity images.
automatic registration;LiDAR;SIFT;similarity invariants
ZHANG Liang(1986—),male,PhD candidate,majors in LiDAR data processing and application.
MA Hongchao
P237
A
1001-1595(2014)04-0372-08
2013-04-12
張良(1986—),男,博士生,研究方向為機載LiDAR數(shù)據(jù)處理與應(yīng)用。
E-mail:zhangliang19860711@163.com
馬洪超
E-mail:hchma@whu.edu.cn
ZHANG Liang,MA Hongchao,GAO Guang,et al.Automatic Registration of Urban Aerial Images with Airborne LiDAR Points Based on Line-point Similarity Invariants[J].Acta Geodaetica et Cartographica Sinica,2014,43(4):372-379.(張良,馬洪超,高廣,等.點、線相似不變性的城區(qū)航空影像與機載激光雷達點云自動配準(zhǔn)[J].測繪學(xué)報,2014,43(4):372-379.)
10.13485/j.cnki.11-2089.2014.0056
國家973計劃(2009CB72400401C);科技支撐課題(2012BAH34B02);武漢大學(xué)研究生自主科研項目(2012213020203;2012213020209)
修回日期:2013-11-07