于 英,張永生,薛 武,李 磊
1. 信息工程大學(xué)地理空間信息學(xué)院,河南 鄭州 450001; 2. 地理信息工程國(guó)家重點(diǎn)實(shí)驗(yàn)室,陜西 西安 710054
影像連接點(diǎn)均衡化高精度自動(dòng)提取
于 英1,2,張永生1,薛 武1,2,李 磊1,2
1. 信息工程大學(xué)地理空間信息學(xué)院,河南 鄭州 450001; 2. 地理信息工程國(guó)家重點(diǎn)實(shí)驗(yàn)室,陜西 西安 710054
針對(duì)空中三角測(cè)量影像連接點(diǎn)提取中存在的誤匹配、點(diǎn)位多而分布不均和點(diǎn)位定位精度低等問(wèn)題,提出了一種影像連接點(diǎn)均衡化高精度自動(dòng)提取方法。首先采用分塊SIFT技術(shù)進(jìn)行特征的提取與匹配,并利用并查集數(shù)據(jù)結(jié)構(gòu)進(jìn)行特征點(diǎn)的高效多視追蹤;然后采用提出的物方分塊點(diǎn)位篩選算法對(duì)點(diǎn)位進(jìn)行了相對(duì)均衡化的擇優(yōu)挑選;最后采用最小二乘匹配技術(shù)對(duì)得到的SIFT連接點(diǎn)坐標(biāo)位置進(jìn)行精化。選取中國(guó)嵩山遙感定標(biāo)場(chǎng)的有人機(jī)影像和沙漠地區(qū)無(wú)人機(jī)影像作為試驗(yàn)數(shù)據(jù),通過(guò)目視檢查、像方反投影誤差和檢查點(diǎn)精度等3個(gè)指標(biāo)進(jìn)行了分析,結(jié)果表明本文方法有效克服了弱紋理和重復(fù)紋理導(dǎo)致的連接點(diǎn)提取與匹配困難,并改善了連接點(diǎn)分布的均勻性和提高了連接點(diǎn)的定位精度。
連接點(diǎn)提取;SIFT;分塊;并查集;最小二乘匹配
空中三角測(cè)量是影響攝影測(cè)量成果精度的主要因素??罩腥菧y(cè)量主要包括連接點(diǎn)提取和光束法平差兩個(gè)環(huán)節(jié)[1-2]。由于不同影像之間存在尺度、色差和攝影角度等差別,這些差別使得影像連接點(diǎn)自動(dòng)提取效果常常難以令人滿意[3]。
近年來(lái),計(jì)算機(jī)視覺(jué)領(lǐng)域中影像不變特征提取與匹配技術(shù)的日益成熟推動(dòng)了影像連接點(diǎn)提取技術(shù)的進(jìn)步[4-5]。影像不變特征提取與匹配技術(shù)的一般過(guò)程為:首先采用不變特征檢測(cè)器進(jìn)行特征提取,然后通過(guò)計(jì)算生成特征描述向量完成特征匹配。比較典型的不變特征檢測(cè)器有:具有仿射不變性的Harris-Affine算法、具有尺度不變性的SIFT算法、SURF算法、KAZE算法以及具有視角不變性的ASIFT算法。常用的特征描述符有SIFT描述符、DAISY描述符、二值描述符等[6-9]。在眾多影像局部特征描述符中,SIFT描述符應(yīng)用最廣,它對(duì)尺度、旋轉(zhuǎn)、亮度以及一定大小的視角變化都具有不變性,因此本文選用SIFT不變特征提取算法進(jìn)行連接點(diǎn)自動(dòng)化提取的研究。雖然SIFT算法計(jì)算復(fù)雜度高,但其計(jì)算速度可通過(guò)GPU進(jìn)行并行加速[10]。
采用不變特征進(jìn)行影像空三連接點(diǎn)提取是目前連接點(diǎn)提取的主流技術(shù)方法。文獻(xiàn)[11]采用SIFT算法進(jìn)行異源高分辨率光學(xué)衛(wèi)星遙感影像匹配,并通過(guò)RANSAC算法和多項(xiàng)式擬合迭代法等多種策略剔除了誤匹配點(diǎn)。文獻(xiàn)[12]利用POS信息對(duì)傾斜影像糾正消除因大傾角引起的仿射變形,通過(guò)SIFT匹配和特征追蹤自動(dòng)獲取多視連接點(diǎn)。盡管目前基于不變特征進(jìn)行影像空三連接點(diǎn)提取技術(shù)取得了一些成果,但仍存在不少問(wèn)題。本文從連接點(diǎn)提取的正確率、分布合理性以及定位精度等方面考慮,主要解決以下3個(gè)問(wèn)題。
(1) 隨著航空傳感器成像分辨率的不斷提高,使得單幅影像上出現(xiàn)重復(fù)紋理的概率大幅增加。此外,沙漠、海島和雪地等特殊地區(qū)影像存在大量的弱紋理區(qū)域。影像中的重復(fù)紋理和弱紋理將嚴(yán)重降低SIFT匹配的正確率。
(2) 采用SIFT算法使得單幅影像上的連接點(diǎn)數(shù)量常常達(dá)到幾千甚至上萬(wàn)的數(shù)量級(jí)。根據(jù)邊界效應(yīng)理論,當(dāng)連接點(diǎn)的數(shù)量達(dá)到一定數(shù)量后,隨著連接點(diǎn)數(shù)量的繼續(xù)飆升并不會(huì)提高光束法平差的精度,反而成為計(jì)算的負(fù)擔(dān)。簡(jiǎn)單采用多視重疊度準(zhǔn)則對(duì)點(diǎn)位進(jìn)行篩選剔除的方法[13],極容易導(dǎo)致連接點(diǎn)分布不均進(jìn)而影響光束法平差精度。
(3) SIFT算法本身主要是強(qiáng)調(diào)不變特征的識(shí)別性能而非定位精度。雖然SIFT算法在特征提取階段通過(guò)插值技術(shù)提供了亞像素的坐標(biāo)位置,但由于特征點(diǎn)提取與匹配的相對(duì)獨(dú)立性,這使得匹配的同名點(diǎn)對(duì)不能實(shí)現(xiàn)位置上的精確對(duì)應(yīng)[4-5]。
以上述3個(gè)問(wèn)題為導(dǎo)向,基于SIFT特征構(gòu)建了一種均衡化高精度影像連接點(diǎn)自動(dòng)提取方法,選取中國(guó)嵩山遙感定標(biāo)場(chǎng)有人機(jī)影像數(shù)據(jù)和西北沙漠地區(qū)無(wú)人機(jī)影像數(shù)據(jù)對(duì)本方法的效果進(jìn)行了試驗(yàn)分析,試驗(yàn)結(jié)果證明了本方法的正確性和有效性。
1.1 方法流程
本文連接點(diǎn)提取方法適用于有人機(jī)或無(wú)人機(jī)面陣影像數(shù)據(jù)。此外,本文影像之間的關(guān)系(大于設(shè)定的重疊度閾值)已經(jīng)通過(guò)輔助數(shù)據(jù)(飛控?cái)?shù)據(jù)、POS數(shù)據(jù)等)計(jì)算重疊度[12,14]得到或者通過(guò)低分辨率影像數(shù)據(jù)增量重建得到[15]。
如圖1所示,本文方法流程包括4個(gè)階段:①在對(duì)影像提取完SIFT特征后,為避免重復(fù)紋理的干擾,首先用低分辨率影像計(jì)算單應(yīng)矩陣和基礎(chǔ)矩陣,然后進(jìn)行單應(yīng)矩陣和基礎(chǔ)矩陣雙重約束下的分塊匹配,最后根據(jù)子塊匹配結(jié)果計(jì)算精確的單應(yīng)陣和基礎(chǔ)矩陣以實(shí)現(xiàn)對(duì)本塊匹配結(jié)果的粗差剔除;②采用并查集數(shù)據(jù)結(jié)構(gòu)實(shí)現(xiàn)SIFT特征的多視追蹤,然后通過(guò)多片前方交會(huì)得到物方點(diǎn)坐標(biāo);③在物方空間構(gòu)建均勻格網(wǎng),計(jì)算每個(gè)物方點(diǎn)平均反投影誤差和多視重疊度的加權(quán)值,設(shè)定閾值并依據(jù)冒泡排序方法對(duì)點(diǎn)位進(jìn)行篩選,保證連接點(diǎn)分布相對(duì)的均勻;④采用最小二乘匹配對(duì)篩選得到的SIFT連接點(diǎn)坐標(biāo)位置進(jìn)行精化。
1.2 SIFT特征分塊提取與匹配
對(duì)每張影像都進(jìn)行兩次SIFT特征提取,第1次SIFT特征提取是在低分辨率影像上進(jìn)行。第2次SIFT特征提取是在原始分辨率影像上進(jìn)行,具體方法是:將原始分辨率影像劃分成若干影像塊,在特征提取時(shí)根據(jù)每個(gè)影像塊的信息熵設(shè)置不同的提取參數(shù)(DOG閾值、邊緣閾值、檢測(cè)金字塔層級(jí)等),這使得提取到的特征點(diǎn)分布相對(duì)均勻[4]。
從影像關(guān)系庫(kù)中任取出一對(duì)立體影像,采用比值法對(duì)兩張影像的低分辨率SIFT特征進(jìn)行匹配,再通過(guò)RANSAC方法計(jì)算兩張影像之間的單應(yīng)矩陣H。設(shè)原始分辨率立體影像上有同名像點(diǎn)對(duì)(x,y)和(x′,y′),根據(jù)單應(yīng)矩陣的定義得到如式(1)所示的對(duì)應(yīng)關(guān)系
(1)
式中,hi(i=1,2,…,8)是單應(yīng)矩陣H的8個(gè)元素。
圖1 連接點(diǎn)提取流程Fig.1 Flowchart of tie points extraction
將右影像的4個(gè)角點(diǎn)坐標(biāo)代入式(1)中計(jì)算出4個(gè)透視變換坐標(biāo),以這4個(gè)透視變換坐標(biāo)為頂點(diǎn)的四邊形與左影像的交集即為左影像上這兩幅影像的重疊區(qū)域。同理,可求得右影像上這兩幅影像的重疊區(qū)域。將左影像重疊區(qū)域劃分成多個(gè)子塊,同樣依據(jù)式(1)將每一個(gè)子塊的4個(gè)角點(diǎn)坐標(biāo)投影到右影像上,由于透視變換的原因,右影像上相應(yīng)的4個(gè)角點(diǎn)構(gòu)成的四邊形通常是一個(gè)不規(guī)則的四邊形,選取該不規(guī)則四邊形的外接矩形作為左影像子塊在右影像上的對(duì)應(yīng)區(qū)域。
以影像子塊為單位對(duì)原始分辨率SIFT特征進(jìn)行單應(yīng)陣和基礎(chǔ)矩陣約束下的比值法匹配,再用子塊匹配結(jié)果計(jì)算兩影像對(duì)應(yīng)子塊之間精確的單應(yīng)矩陣和基礎(chǔ)矩陣,并利用這兩個(gè)矩陣對(duì)匹配結(jié)果進(jìn)行粗差剔除,其原理如圖2所示。SIFT分塊匹配通過(guò)搜索空間的壓縮使得因重復(fù)紋理導(dǎo)致的奇異匹配點(diǎn)干擾大幅減少,故可一定程度上提高匹配的成功率。
圖2 雙矩陣約束與誤差剔除原理Fig.2 Principle of double matrix constraint and error elimination
1.3 特征多視追蹤
SIFT特征分塊提取與匹配實(shí)現(xiàn)了兩張影像特征點(diǎn)之間的對(duì)應(yīng),而攝影測(cè)量空三光束法平差需要多視連接點(diǎn)方能取得較好的平差精度。如圖3所示,通過(guò)將每一組兩兩匹配的結(jié)果進(jìn)行查找和追蹤,即可實(shí)現(xiàn)特征的多視追蹤。
圖3 多視追蹤Fig.3 Multi-view tracks
本文采用并查集數(shù)據(jù)結(jié)構(gòu)[16-17]高效地實(shí)現(xiàn)了特征的多視追蹤,具體過(guò)程如下。
(1) 創(chuàng)建并查集節(jié)點(diǎn),節(jié)點(diǎn)數(shù)量等于所有影像的原始分辨率SIFT特征數(shù)量之和。
(2) 若像點(diǎn)a和像點(diǎn)b是同名像點(diǎn),則對(duì)節(jié)點(diǎn)a和節(jié)點(diǎn)b執(zhí)行并查集中的查找操作(Find)來(lái)判斷兩個(gè)節(jié)點(diǎn)的根節(jié)點(diǎn)是否相同。如果兩個(gè)節(jié)點(diǎn)的根節(jié)點(diǎn)相同則跳過(guò),否則通過(guò)執(zhí)行并查集中的合并操作(Join)將節(jié)點(diǎn)a的根節(jié)點(diǎn)修改為節(jié)點(diǎn)b。
(3) 將匹配鏈表上所有的同名像點(diǎn)進(jìn)行步驟(2)處理,然后取出具有相同根節(jié)點(diǎn)的節(jié)點(diǎn)即實(shí)現(xiàn)了SIFT特征的多視追蹤。
1.4 基于物方分塊的點(diǎn)位篩選
(1) 統(tǒng)計(jì)物方點(diǎn)在平面上的分布范圍Xmin、Xmax、Ymin和Ymax,在平面上劃分平行于X軸和Y軸的二維格網(wǎng),格網(wǎng)的尺寸一般設(shè)為單張影像地面覆蓋范圍的1/9或者1/12。設(shè)格網(wǎng)單元X方向和Y方向的尺寸分別為X_size和Y_size,則X和Y方向的格網(wǎng)數(shù)量X_num和Y_num為
(2)
(2) 循環(huán)計(jì)算每個(gè)物方點(diǎn)所在的格網(wǎng)編號(hào),并統(tǒng)計(jì)每個(gè)格網(wǎng)中物方點(diǎn)的數(shù)量,若格網(wǎng)中物方點(diǎn)的數(shù)量大于指定的閾值κ,則轉(zhuǎn)到步驟(3)。
(3) 依據(jù)式(3)計(jì)算格網(wǎng)中每一個(gè)物方點(diǎn)的Valuei值,該值是點(diǎn)位反投影誤差和多視重疊度值Oi的加權(quán)計(jì)算值
(3)
采用冒泡法對(duì)格網(wǎng)中點(diǎn)的Valuei進(jìn)行從大到小排序,取前κ個(gè)作為該格網(wǎng)有效物方點(diǎn)。
1.5 最小二乘匹配坐標(biāo)位置精化
在物方點(diǎn)位篩選結(jié)束后,SIFT特征點(diǎn)的坐標(biāo)精度可由最小二乘匹配進(jìn)行優(yōu)化提高[20]。SIFT特征點(diǎn)的信息由位置(p)、尺度(σ)和方向(θ)組成。設(shè)物方點(diǎn)P在影像I1、I2、…、In上成像的像點(diǎn)為m1(pm1,σm1,θm1)、m2(pm2,σm2,θm2)、…、mn(pmn,σmn,θmn),計(jì)算物方點(diǎn)P與I1、I2、…、In攝站中心之間的距離D1、D2、…、Dn。若D1是所有距離中的最小值,則選m1(pm1,σm1,θm1)為最小二乘匹配的基準(zhǔn)點(diǎn),然后讓m1分別與其他的同名像點(diǎn)進(jìn)行最小二乘匹配。下面以同名像點(diǎn)對(duì)m1和m2為例進(jìn)行最小二乘匹配說(shuō)明。
設(shè)σm1>=σm2,s=(σm1/σm2),θ=(θm1-θm2)。以m1和m2為中心的兩個(gè)相關(guān)窗口分別為W1和W2,大小為(2w+1)×(2w+1)。記m2窗口鄰域坐標(biāo)為p=[xy]T,Η·p表示對(duì)坐標(biāo)p依據(jù)矩陣Η進(jìn)行透視變換,則窗口W1和W2可表示為[21]
(4)
式中,Η中含義如下
(5)
式中,sx、sy分別為x、y方向的縮放因子,δ為窗口W1和W2之間的相對(duì)旋轉(zhuǎn)角度。由于m1和m2為同名像點(diǎn),則有式(6)成立
h0+h1W1+n1=W2+n2
(6)
(7)
式中,h0、h1為窗口之間線性灰度畸變參數(shù),n1、n2為與坐標(biāo)有關(guān)的影像隨機(jī)噪聲。對(duì)式(6)進(jìn)行線性化得到誤差方程式,通過(guò)最小二乘平差求解得到像點(diǎn)坐標(biāo)精確值。在進(jìn)行最小二乘平差求解之前先利用SIFT特征信息按式(7)對(duì)仿射相關(guān)參數(shù)sx、sy和δ的初始值進(jìn)行設(shè)置[22],并以NCC最大為準(zhǔn)則搜索確定k和dθ的最佳值[4-5]。
2.1 試驗(yàn)數(shù)據(jù)與評(píng)價(jià)方法
第1組試驗(yàn)數(shù)據(jù)是在中國(guó)嵩山遙感定標(biāo)場(chǎng)用“運(yùn)5”飛機(jī)搭載飛思IXA180面陣CCD相機(jī)和Applanix POS AV510設(shè)備獲得了航空影像和位姿數(shù)據(jù)。該組影像數(shù)據(jù)對(duì)應(yīng)區(qū)域的地物信息豐富且重復(fù)紋理較多,非常適合驗(yàn)證本方法的匹配效果和點(diǎn)位篩選效果。此外,中國(guó)嵩山遙感定標(biāo)場(chǎng)航空幾何定標(biāo)場(chǎng)占地64 km2,分級(jí)布設(shè)了214個(gè)亞厘米級(jí)精度的永久性地面標(biāo)志,可為本文連接點(diǎn)提取方法提供物方幾何精度驗(yàn)證條件[23]。第2組試驗(yàn)數(shù)據(jù)是用固定翼無(wú)人機(jī)在西北沙漠地區(qū)搭載Canon EOS 5DS獲取的沙漠無(wú)人機(jī)影像,沙漠無(wú)人機(jī)影像由于紋理貧乏使得連接點(diǎn)的自動(dòng)提取異常困難。表1對(duì)兩組試驗(yàn)數(shù)據(jù)的影像大小、地面分辨率(GSD)、重疊度等與本文試驗(yàn)相關(guān)的具體參數(shù)信息進(jìn)行了詳細(xì)的介紹。依據(jù)本文方法,基于Win7 64位系統(tǒng)、VC++2010、GDAL1.8 64位和CUDA5.5開(kāi)發(fā)了影像三維建模軟IMAGE SURPASS的空三處理模塊,本文如下的試驗(yàn)均采用該軟件模塊完成。試驗(yàn)中的計(jì)算機(jī)配置為:英特爾酷睿i7、主頻3.2 GHz 8核,內(nèi)存32 GB,顯卡為4 GB英偉達(dá)QuadroK2200。
采用如下3種指標(biāo)方法對(duì)本文連接點(diǎn)提取效果進(jìn)行評(píng)價(jià)。
(1) 通過(guò)目視檢查的方法,查看連接點(diǎn)提取的正確性與分布情況。
(2) 對(duì)提取出的連接點(diǎn)進(jìn)行空三光束法平差,通過(guò)反投影誤差分析連接點(diǎn)提取的精度。反投影誤差的計(jì)算見(jiàn)式(8)
(8)
表1 試驗(yàn)影像數(shù)據(jù)描述
(3) 設(shè)定一定數(shù)量的檢查點(diǎn),在少量控制點(diǎn)參與下,對(duì)連接點(diǎn)進(jìn)行光束法平差,通過(guò)比較檢查點(diǎn)的平差坐標(biāo)與外業(yè)坐標(biāo)來(lái)分析連接點(diǎn)提取的效果[20]。檢查點(diǎn)精度分析計(jì)算見(jiàn)式(9)
(9)
2.2 連接點(diǎn)提取效果
采用本文連接點(diǎn)提取方法(IMAGESURPASS的空三處理模塊)對(duì)787張嵩山影像和1209張沙漠影像分別進(jìn)行了處理,成功提取出連接點(diǎn)的個(gè)數(shù)分別為1 253 100和330 359,數(shù)據(jù)處理時(shí)間分別為9.67h和10.54h。本文方法的數(shù)據(jù)處理時(shí)間包括特征提取、特征匹配、多視追蹤、點(diǎn)位篩選和點(diǎn)位優(yōu)化等5個(gè)部分,其中特征提取和特征匹配已采用了GPU并行加速,其余3個(gè)部分暫未采用任何加速措施。部分圖像的提取效果如圖4和圖5所示,圖4和圖5中的小圓點(diǎn)用于標(biāo)識(shí)連接點(diǎn),紅色箭頭連線為人工加上去用于標(biāo)識(shí)個(gè)別同名像點(diǎn)。從目視上看可得出如下幾點(diǎn)結(jié)論。
(1) 對(duì)嵩山影像和沙漠影像各隨機(jī)抽取了50個(gè)連接點(diǎn)進(jìn)行同名像點(diǎn)目視檢查,檢查結(jié)果表明50個(gè)連接點(diǎn)均為正確的連接點(diǎn)(同名像點(diǎn)定位精度優(yōu)于1像素)。連接點(diǎn)目視檢查全部正確是
本文方法中的多種技術(shù)共同作用的結(jié)果,具體為:首先,采用影像分塊變參數(shù)的提取策略,在紋理信息豐富的影像子塊特征提取時(shí)本文方法自動(dòng)提高特征檢測(cè)的門(mén)檻閾值,這樣得到的特征點(diǎn)具有比較高的識(shí)別度,不容易出現(xiàn)匹配錯(cuò)誤;其次,在影像匹配階段采用具有壓縮搜索空間特點(diǎn)的分塊匹配和帶約束的比值法匹配策略,這有利于提高匹配的正確率;最后,本文連接點(diǎn)提取方法在像方采用單應(yīng)陣和基礎(chǔ)矩陣進(jìn)行了粗差剔除,然后在物方又通過(guò)顧及反投影誤差和多視重疊度的點(diǎn)位篩選技術(shù)也在一定程度上剔除了部分粗差連接點(diǎn)。
(2) 沙漠影像數(shù)據(jù)紋理匱乏且重復(fù),但本文方法依然提取了足夠量的連接點(diǎn),這是因?yàn)楸疚姆椒ú捎梅謮K不變特征提取與匹配技術(shù),每個(gè)影像塊根據(jù)各自信息熵采用不同的特征提取參數(shù)。當(dāng)對(duì)紋理信息匱乏的影像子塊進(jìn)行特征提取時(shí),本文方法自動(dòng)降低特征檢測(cè)的門(mén)檻閾值,這可增加檢測(cè)到的特征點(diǎn)數(shù)量。本文的影像分塊不變特征提取與匹配技術(shù)對(duì)影像紋理的變化具有較強(qiáng)適應(yīng)能力,不僅實(shí)現(xiàn)了特征點(diǎn)提取數(shù)量的自適應(yīng),而且也提高了匹配的正確率。
2.3 定位精度分析
對(duì)嵩山影像和沙漠影像分別進(jìn)行光束法平差[24],通過(guò)反投影誤差σr在和檢查點(diǎn)實(shí)際精度ΔXY與ΔZ等指標(biāo)進(jìn)行精度分析[25],平差結(jié)果如表2所示,表中本文方法指采用了本文整體連接點(diǎn)提取方法,表中本文方法變形A指采用本文方法但不使用基于物方分塊的點(diǎn)位篩選技術(shù),表中本文方法變形B指采用本文方法但不使用最小二乘匹配坐標(biāo)位置精化技術(shù)。在嵩山影像數(shù)據(jù)處理中,控制點(diǎn)個(gè)數(shù)為2表示對(duì)角布設(shè)控制,控制點(diǎn)個(gè)數(shù)為4表示4個(gè)角布設(shè)控制,控制點(diǎn)個(gè)數(shù)為5表示4個(gè)角和1個(gè)中心點(diǎn)布設(shè)控制。
圖4 嵩山影像連接點(diǎn)(Image i(i=1,2,3,4)為同一地物不同攝站的影像)Fig.4 Tie points of Songshan image(Image i(i=1,2,3,4) are from different stations for the same object)
分析表2可得出如下結(jié)論。
(1) 本文連接點(diǎn)提取方法取得了比較滿意的效果,嵩山數(shù)據(jù)平差后計(jì)算的平均反投影誤差為0.36像素,沙漠?dāng)?shù)據(jù)平差后計(jì)算的平均反投影誤差為0.52像素。此外,控制點(diǎn)的引入不影響光束法像方平差的平均反投影誤差精度,這是因?yàn)槠骄赐队罢`差反映的是內(nèi)符合精度。對(duì)于嵩山影像數(shù)據(jù),當(dāng)控制點(diǎn)的數(shù)量上升為4個(gè)時(shí)物方檢查點(diǎn)的精度已經(jīng)比較高,分別是平面精度約為1個(gè)GSD,高程精度約為1.5個(gè)GSD。當(dāng)控制點(diǎn)的數(shù)量增加到5個(gè)時(shí),對(duì)精度提升不大,這說(shuō)明4個(gè)控制點(diǎn)的控制方案已經(jīng)有效消除了坐標(biāo)系之間的絕對(duì)誤差,所以實(shí)際測(cè)量時(shí)可考慮只在測(cè)區(qū)的4個(gè)角各布設(shè)1個(gè)控制點(diǎn),進(jìn)而減少外業(yè)布設(shè)控制點(diǎn)的工作量。注:嵩山影像數(shù)據(jù)覆蓋范圍內(nèi)有部分控制點(diǎn)風(fēng)化損壞、難以辨識(shí),另有部分點(diǎn)被植物等覆蓋,經(jīng)人工甄別,共有18個(gè)點(diǎn)可以正常使用。
圖5 沙漠影像連接點(diǎn)(Image i(i=1,2,3,4)為同一地物不同攝站的影像)Fig.5 Tie points of desert image(Image i(i=1,2,3,4) are from different stations for the same object)
數(shù)據(jù)平差方法控制點(diǎn)個(gè)數(shù)檢查點(diǎn)個(gè)數(shù)連接點(diǎn)個(gè)數(shù)平均反投影誤差/像素實(shí)際精度/m平面高程嵩山數(shù)據(jù)本文方法本文方法變形A本文方法變形B21812531000.360.1140.16241612531000.360.1030.14251512531000.360.0970.13521818783260.450.1450.18241618783260.450.1080.14751518783260.450.1160.15321812531000.480.1580.18741612531000.480.1140.16151512531000.480.1260.167嵩山數(shù)據(jù)本文方法--3303590.52--本文方法變形A--3514680.56--本文方法變形B--3303590.72--
(2) 對(duì)于嵩山影像數(shù)據(jù)和沙漠影像數(shù)據(jù),采用基于物方分塊的點(diǎn)位篩選技術(shù)時(shí),物方格網(wǎng)大小分別設(shè)置為(258 m×258 m)和(326 m×290 m),單個(gè)格網(wǎng)內(nèi)點(diǎn)數(shù)量閾值κ分別設(shè)置為150和100,則提取到的連接點(diǎn)數(shù)量比例分別減少了33%和6%,但像方精度反而分別提高了0.09像素和0.04像素。這是因?yàn)槲锓椒謮K的點(diǎn)位篩選技術(shù)不僅可以提升平差的幾何強(qiáng)度,還能剔除了一些粗差點(diǎn),故提高了平差的精度。對(duì)于沙漠?dāng)?shù)據(jù)采用基于物方分塊的點(diǎn)位篩選技術(shù)對(duì)于精度提高的效果不甚明顯,其原因是沙漠?dāng)?shù)據(jù)紋理匱乏導(dǎo)致提取出來(lái)的連接點(diǎn)數(shù)量不夠多,所以使得物方分塊點(diǎn)位篩選技術(shù)的作用力不足。
(3) 對(duì)于嵩山影像數(shù)據(jù)和沙漠影像數(shù)據(jù),采用 SIFT特征點(diǎn)采用最小二乘匹配技術(shù)像方精度分別提高了0.12像素和0.18像素。這是因?yàn)楸疚牟捎肧IFT點(diǎn)位信息初始化最小二乘匹配的參數(shù),對(duì)提高最小二乘匹配精度非常有效。本文結(jié)果同時(shí)表明SIFT特征的定位結(jié)果雖為亞像素級(jí),但依然還有較大提高空間。
本文對(duì)影像連接點(diǎn)自動(dòng)提取技術(shù)中存在的問(wèn)題進(jìn)行了梳理,進(jìn)而有針對(duì)性地構(gòu)建了一種均衡化高精度的影像連接點(diǎn)提取方法,選取嵩山影像數(shù)據(jù)和沙漠影像數(shù)據(jù)進(jìn)行了試驗(yàn)測(cè)試,結(jié)果證明本文方法在重復(fù)紋理、弱紋理處理、連接點(diǎn)篩選和連接點(diǎn)高精度定位等方面具有優(yōu)勢(shì)。未來(lái)將對(duì)連接點(diǎn)數(shù)量、分布情況以及定位精度等因素與光束法平差精度之間更深層次的內(nèi)在關(guān)系進(jìn)行研究,使得連接點(diǎn)提取更加有的放矢,同時(shí)也將采用更多類(lèi)型的影像數(shù)據(jù)對(duì)方法進(jìn)行廣泛的測(cè)試。
[1] 于英. 無(wú)人機(jī)動(dòng)態(tài)攝影測(cè)量若干關(guān)鍵技術(shù)研究[D]. 鄭州:信息工程大學(xué), 2014. YU Ying. Research on Key Technologies of UAV Dynamic Photogrammetry[D]. Zhengzhou: Information Engineering University, 2014.
[2] 薛武. 無(wú)人機(jī)視頻地理信息定標(biāo)與直播處理技術(shù)[D]. 鄭州:信息工程大學(xué), 2014. XUE Wu. The Calibration of UAV Video Geo-information and Live Processing Technology[D]. Zhengzhou: Information Engineering University, 2014.
[3] SCHINDLER K, HARTMANN W, HAVLENA M. Recent Developments in Large-scale Tie-point Search[C]∥Proceedings of the 55th Photogrammetric Week. Stuttgart: ETH, 2015: 7-11.
[4] 楊化超, 張書(shū)畢, 張秋昭. 基于SIFT的寬基線立體影像最小二乘匹配方法[J]. 測(cè)繪學(xué)報(bào), 2010, 39(2): 187-194. YANG Huachao, ZHANG Shubi, ZHANG Qiuzhao. Least Squares Matching Methods for Wide Base-line Stereo Images Based on SIFT Features[J]. Acta Geodaetica et Cartographica Sinica, 2010, 39(2): 187-194.
[5] 楊化超, 張磊, 姚國(guó)標(biāo), 等. 局部單應(yīng)約束的高精度圖像自動(dòng)配準(zhǔn)方法[J]. 測(cè)繪學(xué)報(bào), 2012, 41(3): 401-408. YANG Huachao, Zhang Lei, YAO Guobiao, et al. An Automated Image Registration Method with High Accuracy Based on Local Homography Constrain[J]. Acta Geodaetica et Cartographica Sinica, 2012, 41(3): 401-408.
[6] BAY H, TUYTELAARS T, VAN GOOL L. Surf: Speeded up Robust Features[C]∥Proceedings of the 9th European Conference on Computer Vision. Berlin Heidelberg: Springer, 2006: 404-417.
[7] YU Guoshen, MOREL J M. Asift: An Algorithm for Fully Affine Invariant Comparison[J]. Image Processing On Line, 2011(1):2105-2132.
[8] ALCANTARILLA P F, BARTOLI A, DAVISON A J. KAZE Features[C]∥Proceedings of the 12th European Conference on Computer Vision. Berlin Heidelberg: Springer, 2012: 214-227.
[9] 羅楠, 孫權(quán)森, 陳強(qiáng), 等. 結(jié)合SURF特征點(diǎn)與DAISY描述符的圖像匹配算法[J]. 計(jì)算機(jī)科學(xué), 2014, 41(11): 286-290, 300. LUO Nan, SUN Quansen, CHEN Qiang, et al. Image Matching Algorithm Combining SURF Feature Point and DAISY Descriptor[J]. Computer Science, 2014, 41(11): 286-290, 300.
[10] WU Changchang. SiftGPU: A GPU Implementation of Scale Invariant Feature Transform (SIFT)[EB/OL]. (2011-06-30).[2015-12-13]. http:∥cs.unc.edu/~ccwu/siftgpu.
[11] 戴激光, 宋偉東, 賈永紅, 等. 一種新的異源高分辨率光學(xué)衛(wèi)星遙感影像自動(dòng)匹配算法[J]. 測(cè)繪學(xué)報(bào), 2013, 42(1): 80-86. DAI Jiguang, SONG Weidong, JIA Yonghong, et al. A New Automatically Matching Algorithm for Multi-source High Resolution Optical Satellite Images[J]. Acta Geodaetica et Cartographica Sinica, 2013, 42(1): 80-86.
[12] 閆利, 費(fèi)亮, 葉志云, 等. 大范圍傾斜多視影像連接點(diǎn)自動(dòng)提取的區(qū)域網(wǎng)平差法[J]. 測(cè)繪學(xué)報(bào), 2016, 45(3): 310-317, 338. DOI: 10.11947/j.AGCS.2016.20140673. YAN Li, FEI Liang, YE Zhiyun, et al. Automatic Tie-points Extraction for Triangulation of Large-scale Oblique Multi-view Images[J]. Acta Geodaetica et Cartographica Sinica, 2016, 45(3): 310-317, 338. DOI: 10.11947/j.AGCS.2016.20140673.
[13] BARAZZETTI L, REMONDINO F, SCAIONI M. Extraction of Accurate Tie Points for Automated Pose Estimation of Close-range Blocks[C]∥ISPRS Technical Commission Ⅲ Symposium on Photogrammetric Computer Vision and Image Analysis. Saint-Mandé, France: ISPRS, 2010.
[14] 肖雄武, 郭丙軒, 李德仁, 等. 一種具有仿射不變性的傾斜影像快速匹配方法[J]. 測(cè)繪學(xué)報(bào), 2015, 44(4): 414-421. DOI: 10.11947/j.AGCS.2015.20140048. XIAO Xiongwu, GUO Bingxuan, LI Deren, et al. A Quick and Affine Invariance Matching Method for Oblique Images[J]. Acta Geodaetica et Cartographica Sinica, 2015, 44(4): 414-421. DOI: 10.11947/j.AGCS.2015.20140048.
[15] 許志華, 吳立新, 劉軍, 等. 顧及影像拓?fù)涞腟fM算法改進(jìn)及其在災(zāi)場(chǎng)三維重建中的應(yīng)用[J]. 武漢大學(xué)學(xué)報(bào)(信息科學(xué)版), 2015, 40(5): 599-606. XU Zhihua, WU Lixin, LIU Jun, et al. Modification of SfM Algorithm Referring to Image Topology and Its Application in 3-Dimension Reconstruction of Disaster Area[J]. Geomatics and Information Science of Wuhan University, 2015, 40(5): 599-606.
[16] CHEN Tianze, CHEN Limin. A Union Matching Method for SAR Images Based on SIFT and Edge Strength[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2014, 7(12): 4897-4906.
[17] ALSTRUP S, THORUP M, GRTZ I L, et al. Union-find with Constant Time Deletions[J]. ACM Transactions on Algorithms (TALG), 2014, 11(1): 6.
[18] EISENBEIβ H. UAV Photogrammetry[D]. Zürich: ETH, 2009.
[19] 崔紅霞, 林宗堅(jiān), 楊洪, 等. 無(wú)人飛艇低空數(shù)碼影像多視攝影測(cè)量[J]. 光電工程, 2008, 35(7): 73-78. CUI Hongxia, LIN Zongjian, YANG Hong, et al. Multiview Photogrammetry Using Low Altitude Digital Images from Unmanned Airship[J]. Opto-Electronic Engineering, 2008, 35(7): 73-78.
[20] 紀(jì)松. 多視匹配策略與優(yōu)化方法研究[D]. 鄭州:信息工程大學(xué), 2012. JI Song. Study on the Strategy and Improvement Method of Multi-view Matching Technology[D]. Zhengzhou: Information Engineering University, 2012.
[21] 姚國(guó)標(biāo), 鄧喀中, 張力, 等. 融合互補(bǔ)仿射不變特征的傾斜立體影像高精度自動(dòng)配準(zhǔn)方法[J]. 測(cè)繪學(xué)報(bào), 2013, 42(6): 869-876. YAO Guobiao, DENG Kazhong, ZHANG Li, et al. An Automated Registration Method with High Accuracy for Oblique Stereo Images Based on Complementary Affine Invariant Features[J]. Acta Geodaetica et Cartographica Sinica, 2013, 42(6): 869-876.
[22] HUO Chunlei, PAN Chunhong, HUO Leigang, et al. Multilevel SIFT Matching for Large-size VHR Image Registration[J]. IEEE Geoscience and Remote Sensing Letters, 2012, 9(2): 171-175.
[23] 張永生. 高分辨率遙感測(cè)繪嵩山實(shí)驗(yàn)場(chǎng)的設(shè)計(jì)與實(shí)現(xiàn)——兼論航空航天遙感定位精度與可靠性的基地化驗(yàn)證方法[J]. 測(cè)繪科學(xué)技術(shù)學(xué)報(bào), 2012, 29(2): 79-82. ZHANG Yongsheng. Design and Implementation of Songshan Test Field for High Resolution Remote Sensing and Mapping[J]. Journal of Geomatics Science and Technology, 2012, 29(2): 79-82.
[24] 袁修孝. POS輔助光束法區(qū)域網(wǎng)平差[J]. 測(cè)繪學(xué)報(bào), 2008, 37(3): 342-348. YUAN Xiuxiao. POS-supported Bundle Block Adjustment[J]. Acta Geodaetica et Cartographica Sinica, 2008, 37(3): 342-348.
[25] 汪韜陽(yáng), 張過(guò), 李德仁, 等. 資源三號(hào)測(cè)繪衛(wèi)星影像平面和立體區(qū)域網(wǎng)平差比較[J]. 測(cè)繪學(xué)報(bào), 2014, 43(4): 389-395. DOI: 10.13485/j.cnki.11-2089.2014.0058. WANG Taoyang, ZHANG Guo, LI Deren, et al. Comparison between Plane and Stereo Block Adjustment for ZY-3 Satellite Images[J]. Acta Geodaetica et Cartographica Sinica, 2014, 43(4): 389-395. DOI: 10.13485/j.cnki.11-2089.2014.0058.
(責(zé)任編輯:宋啟凡)
Automatic Tie Points Extraction with Uniform Distribution and High Precision
YU Ying1,2,ZHANG Yongsheng1,XUE Wu1,2,LI Lei1,2
1. Institute of Surveying and Mapping,Information Engineering University,Zhengzhou 450001,China; 2. State Key Laboratory of Geo-information Engineering,Xi’an 710054,China
To solve the problem of matching errors, redundant points with bad distribution,and low points position precision in photogrammetry aerial triangulation,an automatic tie points extraction with uniform distribution and high precision is presented. Firstly, Block SIFT technology is conducted on every image, then an unordered feature tracking method based on union-find set is adopted to detect the multi-view correspondences. Secondly, by using the proposed algorithm of points selection in object block space, the relatively balanced points are obtained. Finally, the precision of the image coordinates are improved by least square matching.In the experiment part,Songshan images and desert images are used to test the proposed method. Through the examination and analysis of three indicators, the visual inspection, back projection errors in image space,and the precision of check points, the results show that the proposed method can effectively overcome the difficulties in extracting and matching tie points caused by weak texture and repeated texture, enhance the uniformity of tie points distribution, and improve the position precision of tie points.
tie points extraction;SIFT;block;union-find set; least squares matching Foundation support: The National Natural Science Foundation of China(No. 41501482); State Key Laboratory of Geo-information Engineering(Nos.SKLGIE 2015-M-3-6;SKLGIE 2014-M-3-1)
YU Ying(1985—), male, PhD,majors in UAV photogrammetry.
于英,張永生,薛武,等.影像連接點(diǎn)均衡化高精度自動(dòng)提取[J].測(cè)繪學(xué)報(bào),2017,46(1):90-97.
10.11947/j.AGCS.2017.20160320. YU Ying,ZHANG Yongsheng,XUE Wu,et al.Automatic Tie Points Extraction with Uniform Distribution and High Precision [J]. Acta Geodaetica et Cartographica Sinica,2017,46(1):90-97. DOI:10.11947/j.AGCS.2017.20160320.
P231
A
1001-1595(2017)01-0090-08
國(guó)家自然科學(xué)基金(41501482);地理信息工程國(guó)家重點(diǎn)實(shí)驗(yàn)室開(kāi)放研究基金(SKLGIE 2015-M-3-6;SKLGIE 2014-M-3-1)
2016-06-24
于英(1985—),男,博士,研究方向?yàn)闊o(wú)人機(jī)攝影測(cè)量。
E-mail: yuying5559104@163.com
修回日期: 2016-09-25