鄭寶峰 張朝陽 張向清 張文濤
摘要:現(xiàn)有交通場景下交通參數(shù)分析主要是在三維空間下實現(xiàn)的,要想獲得交通場景中的三維空間信息不可或缺的一個環(huán)節(jié)就是相機標定。同時相機標定也是目前計算機視覺領域研究的重點和熱點問題。本文基于相機成像模型和復雜的交通應用場景,研究了幾種主要的相機標定方法,并總結了它們各自的特點。
關鍵詞:相機標定;內參;外參;相機成像模型
相機標定[1]就是計算機視覺中從三維空間中的世界坐標系轉換到二維圖像中的圖像坐標系的過程。交通場景中存在很多可以利用的信息,比如道路標志線、指示牌等;本文主要針對復雜的交通場景研究了適用于交通場景的相機標定方法,并總結了各自的特點。
1 小孔成像模型
首先,常用的相機成像模型是小孔成像模型,而在此模型下的相機標定主要是求解世界坐標系、相機坐標系和圖像坐標系之間轉換關系,可以表示為:
λuv1=KRTXWYWZW1(1.1)
其中,(XW,YW,ZW)是世界坐標系中的一點,(u,v)是對應于圖像坐標系中的坐標,λ是尺度因子。K是相機的內參矩陣,R,T是相機的外參矩陣。
2 相機標定
2.1 DLT標定方法
DLT(Direct Liner Transformation,簡稱DLT)[2]是通過最小二乘法求解線性方程組求出相機模型的內參矩陣和外參矩陣。如上所述,交通場景中存在許多可以利用的信息,比如道路標識線、交通指示牌、車輛行人目標等;因此可以通過構建對應點對建立線性方程組,最終求解出相機模型的投影矩陣。由(11)可得:
λ·u=p11*XW+p12*YW+p13*ZW+p14λ·v=p21*XW+p22*YW+p23*ZW+p24λ=p31*XW+p32*YW+p33*ZW+p34(2.1)
上式就是由對應3D2D點對建立的線性方程組,通過最小二乘法可以求解出相機模型參數(shù)。顯然,這種方法主要適用于比較容易獲得對應3D2D點對的場景中,比如交通場景中,在無法容易獲得對應點對的場景中標定效果不好。
2.2 滅點標定方法
線性透視中,兩條或多條平行線向遠處地平線伸展最后會匯聚到一點,這一點就是滅點[1]。而在實際場景的相機標定過程中,三個相互正交的滅點直接約束了世界坐標系和圖像坐標系之間的映射關系,可以通過這三個正交的滅點求解出相機模型的內外參矩陣。
其次,實際場景中3個正交方向的消失點直接反映了世界坐標和圖像坐標之間的映射關系,因此,通過消失線產(chǎn)生的位置約束,可以直接求解出相機模型的內外參數(shù)[1]。設(ux,vx),(uy,vy),(uz,vz)分別為實際場景中X方向、Y方向和Z方向在成像平面上形成的消失點。假設在消失點位置上,形成的消失點方向上的坐標值為
SymboleB@ ,而在其他正交方向上的坐標值為0,可得:
λxuxλyuyλzuzλxvxλyvyλzvzλxλyλz=K[RT]100010001000=KR(2.2)
其中(ux,vx),(uy,vy),(uz,vz)是三個相互正交的滅點。
因為旋轉矩陣R滿足R·RT=E,故:KR·(KR)T=K·KT(2.3)
由此可得:R=K-1(KR)(2.4)
旋轉矩陣求解完成以后,接下來就是一個平移變換的過程,在交通場景中,一般將道路平面默認為Z=0平面,將相機在路面上的垂心作為世界坐標系的原點,因此:
T=-R·00hcamera(2.5)
其中,hcamera為相機距地平面的距離。
3 實驗分析
本文主要研究了傳統(tǒng)的DLT標定方法和滅點標定方法,并且我們在同一實驗場景中做了實驗,目的是為了驗證滅點標定的精度。實驗場景中,實驗場景大小為2.8m×3.5m×4m,具體如下所述:
實驗場景圖
我們選取場景中22對3D2D對應點對,然后以EP作為滅點標定精度的評判標準,EP指的是世界坐標系中點轉換到圖像坐標系中坐標和實際圖像坐標之間的偏差,EP越大,標定精度越低;反之,標定精度越高。
經(jīng)過計算可得該場景下消失點標定方法的誤差為:EP=8.2615,即對分辨率為320*240的圖像來說,最大誤差為3.44%。
4 總結
相機標定是獲得場景中三維信息不可或缺的一個環(huán)節(jié),本文主要針對復雜的交通場景中的相機標定方法進行了研究,詳細地研究了幾種適用于交通場景的標定方法,并分析了各自的特點。其中,滅點標定方法具有操作簡單、易于實現(xiàn)等優(yōu)點,并做了對比實驗進行了驗證,結果證明滅點標定方法能夠滿足交通場景下恢復三維空間信息的應用需求。
參考文獻:
[1]Zhang Z. A flexible new technique for camera calibration[J].IEEE Transactions on Pattern Analysis & Machine Intelligence, 2000,22(11):13301334.
[2]Bronislav Pribyl,Pavel Zemcík,Martin Cadík. Absolute pose estimation from line correspondences using direct linear transformation[J].Computer Vision and Image Understanding,2017,161.
[3]謝文寒.基于多像滅點進行相機標定的方法研究[D].武漢大學,2004.