国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

雙目實(shí)時(shí)目標(biāo)三維測(cè)量實(shí)現(xiàn)方法的研究

2016-08-15 03:39肖永強(qiáng)王海暉劉奧麗王子維章劉斌
關(guān)鍵詞:雙目攝像機(jī)分類(lèi)器

肖永強(qiáng),王海暉,2*,劉奧麗,王子維,章劉斌

1.武漢工程大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院,湖北 武漢 430205;2.智能機(jī)器人湖北省重點(diǎn)實(shí)驗(yàn)室(武漢工程大學(xué)),湖北 武漢 430205

雙目實(shí)時(shí)目標(biāo)三維測(cè)量實(shí)現(xiàn)方法的研究

肖永強(qiáng)1,王海暉1,2*,劉奧麗1,王子維1,章劉斌1

1.武漢工程大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院,湖北 武漢 430205;
2.智能機(jī)器人湖北省重點(diǎn)實(shí)驗(yàn)室(武漢工程大學(xué)),湖北 武漢 430205

為了解決目標(biāo)匹配困難、匹配效率低等問(wèn)題,提出了一種基于雙目立體視覺(jué)的實(shí)時(shí)目標(biāo)特征匹配算法——絕對(duì)窗口誤差最小化(CAEW).首先,在研究攝像機(jī)基本原理后利用張氏標(biāo)定法解決攝像機(jī)的標(biāo)定,并對(duì)最終標(biāo)定數(shù)據(jù)采用Bouguet算法進(jìn)行雙目立體校正;然后,利用AdaBoost迭代算法訓(xùn)練目標(biāo)檢測(cè)器實(shí)現(xiàn)目標(biāo)檢測(cè).將CAEW算法與常用的尺度不變性的特征點(diǎn)檢測(cè)和匹配(SURF)的效果評(píng)估進(jìn)行比較分析,結(jié)果顯示CAEW算法的效果評(píng)估能達(dá)到90%以上,這一指標(biāo)有明顯提高,可以很好地滿(mǎn)足雙目實(shí)時(shí)目標(biāo)匹配的需求.通過(guò)CAEW與SURF算法實(shí)驗(yàn)對(duì)比,進(jìn)一步說(shuō)明了減少不必要的全局性圖像像素點(diǎn)處理可以提高匹配速度.

雙目立體視覺(jué);特征點(diǎn)匹配;三維測(cè)距

1 引 言

雙目立體視覺(jué)的目標(biāo)測(cè)距技術(shù)由于其在實(shí)施測(cè)量方法過(guò)程中具有效率高、精度合適、系統(tǒng)結(jié)構(gòu)簡(jiǎn)單、成本低等優(yōu)點(diǎn)而被廣泛研究與應(yīng)用.它是基于視差原理,利用成像設(shè)備從不同的位置獲取被測(cè)物體的兩幅圖像,通過(guò)各種匹配算法來(lái)確定兩幅圖像對(duì)應(yīng)點(diǎn)間的位置偏差,進(jìn)而求取物體三維幾何信息的方法.其中,匹配算法是實(shí)現(xiàn)雙目立體視覺(jué)測(cè)距技術(shù)的關(guān)鍵[1-3].此類(lèi)算法大致可分為基于區(qū)域的立體匹配算法、基于特征的立體匹配算法和基于相位的立體匹配算法三大類(lèi).但這三類(lèi)方法常常是因?yàn)橛?jì)算量大、操作過(guò)于復(fù)雜等問(wèn)題致使實(shí)時(shí)效果較差.事實(shí)上,只需要對(duì)目標(biāo)小區(qū)域內(nèi)操作來(lái)確定目標(biāo)匹配點(diǎn)就可以計(jì)算目標(biāo)三維信息進(jìn)而達(dá)到較好的實(shí)時(shí)效果,因此,本文提出一種在視圖窗口內(nèi)進(jìn)行目標(biāo)點(diǎn)匹配的方法,若誤差最小即可認(rèn)為是一對(duì)強(qiáng)匹配點(diǎn).

2 攝像機(jī)成像原理

2.1攝像機(jī)模型

通常把由兩個(gè)光軸平行且內(nèi)部參數(shù)一致的相機(jī)組成的雙目視覺(jué)模型稱(chēng)之為標(biāo)準(zhǔn)雙目視覺(jué)模型[4],如圖1所示.

圖1 標(biāo)準(zhǔn)雙目立體視覺(jué)模型Fig.1 Model of standard binocular stereovision

圖1展示了空間實(shí)物點(diǎn)P(x,y,z)在兩個(gè)透視平面上的投影點(diǎn)為P1(x1,y1)和P2(x2,y2).由相似三角形得如下基本公式:

透視平面中的圖像平面坐標(biāo)y1=y2=Y,由空間坐標(biāo)與攝像頭成像原理得空間任意點(diǎn)P(x,y,z)坐標(biāo)公式:

其中:d為兩攝像頭視差[5];f為焦距;z為空間距離;Δx是兩攝像頭的光心距.

標(biāo)準(zhǔn)雙目視覺(jué)模型中只要知道攝像機(jī)的內(nèi)部參數(shù)及光心距,根據(jù)左右攝像機(jī)的視差就可以計(jì)算出空間任意點(diǎn)的坐標(biāo).

2.2圖像坐標(biāo)系和世界坐標(biāo)系與攝像機(jī)坐標(biāo)系

在二維平面圖像上定義直角坐標(biāo)系uov,坐標(biāo)(u,v)代表該圖像在數(shù)組中的行數(shù)與列數(shù)[6].坐標(biāo)(u,v)是以像數(shù)為基本單位,這里需要再定義一個(gè)圖像坐標(biāo)系xo′y,如圖2所示,o′是圖像坐標(biāo)系的原點(diǎn).

圖2 圖像坐標(biāo)系Fig.2 Coordinate system of image

假設(shè)二維平面圖像坐標(biāo)(u,v)的每一個(gè)像素在x和y方向的尺寸大小分別為dx和dy,則與圖像坐標(biāo)建立的關(guān)系為:

用齊次坐標(biāo)的矩陣方式表示式(3),以便后邊的推導(dǎo).

攝像機(jī)幾何成像原理圖如圖3所示,o是攝像機(jī)光心,oo′的距離是焦距f,Zc是光軸,與圖像平面垂直.點(diǎn)P(Xc,Yc,Zc)是攝像機(jī)坐標(biāo)外一點(diǎn),P′是P在圖像坐標(biāo)上的投影.

圖3 攝像機(jī)幾何成像Fig.3 Geometric imaging of camera

攝像機(jī)的擺放位置沒(méi)有固定,可以隨意扭曲.這里必須需要選取一個(gè)基準(zhǔn)坐標(biāo)系來(lái)描述攝像機(jī)的相對(duì)位置,進(jìn)而可以描述環(huán)境中的任何物體的位置,該坐標(biāo)系稱(chēng)為世界坐標(biāo)系.它由Xw,Yw,Zw軸組成.攝像機(jī)坐標(biāo)系與世界坐標(biāo)系之間的關(guān)系可以用旋轉(zhuǎn)矩陣R與平移向量T來(lái)描述[7].用攝像機(jī)齊次坐標(biāo)(Xc,Yc,Zc)T與世界坐標(biāo)的齊次坐標(biāo)(Xc,Yc,Zc,1)T建立如下關(guān)系:

圖3中的P點(diǎn)通過(guò)圖像坐標(biāo)時(shí)認(rèn)為是針孔原理,所以在空間中的任何一點(diǎn)P與光心的連線在圖像坐標(biāo)系xo′y平面上的交點(diǎn)即是空間點(diǎn)在圖像坐標(biāo)上的投影點(diǎn).圖像坐標(biāo)系上的投影點(diǎn)稱(chēng)為透視投影點(diǎn).根據(jù)圖2和圖3幾何線性關(guān)系,存在如下比例式:

將式(6)和式(7)用齊次坐標(biāo)與矩陣表示為:

將式(5)代入式(8)后再代入式(4)可以得到攝像機(jī)坐標(biāo)(Xc,Yc,Zc)與二維平面圖像坐標(biāo)(u,v)之間的對(duì)應(yīng)關(guān)系:

3 攝像機(jī)標(biāo)定

攝像機(jī)標(biāo)定是為了獲取相機(jī)參數(shù),保證攝像機(jī)參數(shù)的精度可以進(jìn)一步提高三維測(cè)量[8].

3.1張氏標(biāo)定法

張氏標(biāo)定法是張正友經(jīng)典的平面標(biāo)定方法,該方法大體分為三個(gè)步驟.

步驟一:求取攝像機(jī)單應(yīng)性矩陣.公式(10)變形為:

令 H=A[r1r2t],H=[h1h2h3]即為單應(yīng)性矩陣.

步驟二:求取攝像機(jī)內(nèi)參數(shù).求取方法是利用兩個(gè)約束條件,分別是r1r2=0和||r1=||r2=1.最終可以化解為單應(yīng)性矩陣和內(nèi)參數(shù)之間的關(guān)系:

顯然,當(dāng)已知足夠多的單應(yīng)性矩陣時(shí),內(nèi)參數(shù)矩陣A里的未知數(shù)就可以被求解.

步驟三:從上面求出來(lái)的單應(yīng)性矩陣和內(nèi)參數(shù)矩陣自然就可以求解出攝像機(jī)外參數(shù):

3.2攝像機(jī)標(biāo)定實(shí)驗(yàn)

本實(shí)驗(yàn)環(huán)境是在WindowsXP操作系統(tǒng)下的visual studio 2010開(kāi)發(fā)工具,所用攝像機(jī)規(guī)格是逐行掃描彩色CCD傳感器,分辨率為1 024×768,像素尺寸為4.65 μm×4.65 μm.標(biāo)定板所使用其中的角點(diǎn)數(shù)是9×6,方格大小為30 mm×30 mm的棋盤(pán)格,如圖4所示.

圖4 棋盤(pán)格標(biāo)定板Fig.4 Calibration board of Checkerboard

采集左、右攝像機(jī)標(biāo)定板圖像9對(duì),并分別對(duì)其執(zhí)行單目標(biāo)定,標(biāo)定后得到攝像機(jī)參數(shù),如表1所示.3.3立體校正

表1 左右攝像機(jī)參數(shù)Tab.1 Parameters of left and right cameras

標(biāo)準(zhǔn)雙目視覺(jué)模型的左、右圖像按攝像機(jī)水平光軸嚴(yán)格對(duì)準(zhǔn).嚴(yán)格前向平行對(duì)準(zhǔn)在實(shí)際情況下是不存在的,圖5為實(shí)際中未校正圖像,但是可以通過(guò)數(shù)學(xué)方法計(jì)算重投影圖像來(lái)達(dá)到理想視覺(jué)模型.于是采用Bouguet算法[9]對(duì)雙目視覺(jué)進(jìn)行立體校正.

圖5 校正前的圖像Fig.5 Image before correction

經(jīng)過(guò)Bouguet算法立體校正后可以獲得重投影數(shù)據(jù)和重投影矩陣.利用重投影數(shù)據(jù)就可以重新對(duì)采集的圖像進(jìn)行像數(shù)點(diǎn)重排列,從而達(dá)到前向平行對(duì)準(zhǔn),如圖6所示.在獲得重投影矩陣以及一對(duì)匹配點(diǎn)后即可計(jì)算三維坐標(biāo).

圖6 校正后的圖像Fig.6 Image after correction

其中,(x,y)是左圖像上的某一點(diǎn),d是視差.三維坐標(biāo)是(X/w,Y/w,Z/w).立體校正之后得到的重投影矩陣Q數(shù)據(jù):

4 目標(biāo)檢測(cè)

采用一種Adaboost的迭代算法[10-11]來(lái)實(shí)現(xiàn)目標(biāo)檢測(cè).Adaboost算法是針對(duì)同一個(gè)訓(xùn)練集訓(xùn)練不同的分類(lèi)器(弱分類(lèi)器),然后把這些弱分類(lèi)器集合起來(lái),構(gòu)成一個(gè)更強(qiáng)的最終分類(lèi)器(強(qiáng)分類(lèi)器).其算法本身是通過(guò)改變數(shù)據(jù)分布來(lái)實(shí)現(xiàn)的,它根據(jù)每次訓(xùn)練集之中每個(gè)樣本的分類(lèi)是否正確,以及上次的總體分類(lèi)的準(zhǔn)確率,來(lái)確定每個(gè)樣本的權(quán)值.將修改過(guò)權(quán)值的新數(shù)據(jù)集送給下層分類(lèi)器進(jìn)行訓(xùn)練,最后將每次訓(xùn)練得到的分類(lèi)器融合起來(lái),作為最后的決策分類(lèi)器.使用Adaboost分類(lèi)器可以排除一些不必要的訓(xùn)練數(shù)據(jù)特征,并將特征點(diǎn)放在關(guān)鍵的訓(xùn)練數(shù)據(jù)上面.Adaboost目標(biāo)檢測(cè)效果好、速度快、魯棒性好,適合對(duì)實(shí)時(shí)性要求較高的場(chǎng)合應(yīng)用.

4.1Adaboost算法流程

給定一個(gè)訓(xùn)練數(shù)據(jù)集T={(x1,y1),(x2,y2)…(xN,yN)},其中實(shí)例x?χ,而實(shí)例空間x?Rn,yi屬于標(biāo)記集合{-1,+1},Adaboost的目的就是從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)一系列弱分類(lèi)器或基本分類(lèi)器,然后將這些弱分類(lèi)器組合成一個(gè)強(qiáng)分類(lèi)器.

Adaboost的算法流程如下:

步驟一:首先,初始化訓(xùn)練數(shù)據(jù)的權(quán)值分布.每一個(gè)訓(xùn)練樣本最開(kāi)始時(shí)都被賦予相同的權(quán)重為.

步驟二:進(jìn)行多輪迭代,用m=1,2,…,m表示迭代的第多少輪.

1)使用具有權(quán)值分布Dm的訓(xùn)練數(shù)據(jù)集學(xué)習(xí),得到基本分類(lèi)器:

2)計(jì)算Gm(x)在訓(xùn)練數(shù)據(jù)集上的分類(lèi)誤差率

由式(16)~(17)可知,Gm(x)在訓(xùn)練數(shù)據(jù)集上的誤差率em就是被Gm(x)誤分類(lèi)樣本的權(quán)值之和.

3)計(jì)算Gm(x)的系數(shù),am表示Gm(x)在最終分類(lèi)器中的重要程度(目的:得到基本分類(lèi)器在最終分類(lèi)器中所占的權(quán)重):

由式(18)可知,em<=時(shí),am>=0,且 am隨著em的減小而增大,意味著分類(lèi)誤差率越小的基本分類(lèi)器在最終分類(lèi)器中的作用越大.

4)更新訓(xùn)練數(shù)據(jù)集的權(quán)值分布(目的:得到樣本的新的權(quán)值分布),用于下一輪迭代:

使得被基本分類(lèi)器Gm(x)誤分類(lèi)樣本的權(quán)值增大,而被正確分類(lèi)樣本的權(quán)值減小.通過(guò)這樣的方式,Adaboost方法能聚焦于那些較難分的樣本上.

其中,zm是規(guī)范化因子,使得Dm+1成為一個(gè)概率分布:

步驟三:組合各個(gè)弱分類(lèi)器

從而得到最終分類(lèi)器,如下:

4.2訓(xùn)練行人檢測(cè)器

訓(xùn)練檢測(cè)器分為3個(gè)步驟:a)樣本的創(chuàng)建;b)訓(xùn)練分類(lèi)器;c)利用訓(xùn)練好的分類(lèi)器進(jìn)行目標(biāo)檢測(cè).

訓(xùn)練樣本分為正例樣本和反例樣本,其中正例樣本是指待檢目標(biāo)樣本(本實(shí)驗(yàn)是行人),一個(gè)樣本可以包含多個(gè)待檢目標(biāo),所有的樣本圖片都被歸一化為同樣的尺寸大?。ū緦?shí)驗(yàn)為18×44).將所有正樣本存放在一個(gè)文件里,文件的每一行包含樣本文件名、待檢目標(biāo)個(gè)數(shù)、待檢目標(biāo)位置以及樣本尺寸.

負(fù)樣本可以來(lái)自于任意的圖片,但這些圖片不能包含目標(biāo)特征.負(fù)樣本由背景描述文件來(lái)描述.背景描述文件是一個(gè)文本文件,每一行包含了一個(gè)負(fù)樣本圖片的文件名(描述文件的相對(duì)路徑),該文件可通過(guò)手工創(chuàng)建.

訓(xùn)練分類(lèi)器得到的檢測(cè)器是一個(gè)xml文件,文件是區(qū)別于負(fù)樣本的特征集,該特征集由不同級(jí)別構(gòu)成,級(jí)別越高表示檢測(cè)器越好.將訓(xùn)練好的檢測(cè)器應(yīng)用于真實(shí)的環(huán)境場(chǎng)景,可以進(jìn)行實(shí)時(shí)目標(biāo)檢測(cè),檢測(cè)結(jié)果如圖7所示,使用一個(gè)方框來(lái)表示檢測(cè)出目標(biāo).

圖7 檢測(cè)器檢測(cè)目標(biāo)Fig.7 Detected target by detector

5 目標(biāo)三維測(cè)量系統(tǒng)實(shí)現(xiàn)

5.1CAEW算法原理

CAEW(Calculate the Absolute Error Window)算法是基于窗口小領(lǐng)域內(nèi)的數(shù)據(jù)操作,該算法是在左右視圖重投影后為如何達(dá)到絕對(duì)強(qiáng)匹配點(diǎn)對(duì)而采取的一種策略.執(zhí)行算法步驟分三步:確立目標(biāo)點(diǎn)、計(jì)算匹配點(diǎn)誤差和選擇匹配點(diǎn).

5.1.1確立目標(biāo)點(diǎn)目標(biāo)點(diǎn)的確立是指程序在執(zhí)行時(shí)能夠自動(dòng)選取目標(biāo)上的某一點(diǎn),而這一點(diǎn)正是要作為被匹配點(diǎn).被匹配點(diǎn)的選取是否合適將很大程度影響到匹配點(diǎn)是否可靠.

圖8顯示Ga、Gb兩個(gè)領(lǐng)域,Ga領(lǐng)域表示檢測(cè)器識(shí)別目標(biāo)后的目標(biāo)中點(diǎn)的3×3領(lǐng)域大小,Gb領(lǐng)域表示要對(duì)Ga領(lǐng)域內(nèi)進(jìn)行逐個(gè)值操作,每一次操作都如圖9所示而進(jìn)行函數(shù)匹配,也就是在允許的最大視差范圍內(nèi)計(jì)算匹配點(diǎn)對(duì)的誤差.最大視差可由用戶(hù)設(shè)定,它避免了圖像整行掃描操作,提高了匹配速度.

圖8 確定目標(biāo)點(diǎn)Fig.8 Determined destination point

圖9 匹配原理Fig.9 Matching principle

5.1.2計(jì)算匹配點(diǎn)誤差計(jì)算匹配點(diǎn)誤差前需要構(gòu)建誤差函數(shù),CAEW算法服從如下公式:

式(23)可化簡(jiǎn)為

式(23)~(24)中,e′是誤差值,值越小表示左右視圖的Gb領(lǐng)域匹配效果越好;ρ是相關(guān)系數(shù);e表示Gb領(lǐng)域內(nèi)左右視圖對(duì)應(yīng)點(diǎn)灰度值的誤差累加.

Ga領(lǐng)域內(nèi)的每一個(gè)點(diǎn)都會(huì)有對(duì)應(yīng)的一個(gè)最終誤差值,在進(jìn)行計(jì)算匹配點(diǎn)誤差的同時(shí)也會(huì)記錄極小誤差值的目標(biāo)點(diǎn)的位置,用于選擇匹配點(diǎn).若為了能讓匹配點(diǎn)的誤差值最小化或能達(dá)到小于預(yù)期誤差值,可以進(jìn)行對(duì)Ga領(lǐng)域擴(kuò)展增大.但要注意控制好Ga領(lǐng)域大小,因?yàn)镚a領(lǐng)域越大,匹配速度越慢,而且過(guò)大的Ga領(lǐng)域會(huì)使匹配點(diǎn)偏離目標(biāo)點(diǎn).

5.1.3選擇匹配點(diǎn)先對(duì)Gb領(lǐng)域進(jìn)行自適應(yīng)中值濾波[12]操作,這樣做既可以降噪也可以減少圖像失真,之后就可以實(shí)施圖8的操作.當(dāng)Ga領(lǐng)域都經(jīng)過(guò)Gb領(lǐng)域方法的操作后可以得到最小的誤差匹配點(diǎn),這一點(diǎn)即默認(rèn)為強(qiáng)匹配點(diǎn),用于三維測(cè)量.

5.2CAEW和SURF算法實(shí)驗(yàn)

SURF(Speeded-Up Robust Feature)算法與SIFT(Scale-invariant feature transform)算法是兩個(gè)經(jīng)典匹配算法,文獻(xiàn)[13]通過(guò)實(shí)驗(yàn)對(duì)比了它們各自的優(yōu)缺點(diǎn),并確定了SURF算法更能滿(mǎn)足實(shí)時(shí)性要求.

與攝像機(jī)標(biāo)定同一實(shí)驗(yàn)環(huán)境下采集場(chǎng)景視頻序列,然后分別用CAEW算法和SURF算法進(jìn)行目標(biāo)匹配與三維測(cè)量(如圖10所示),如此統(tǒng)計(jì)前后共100幀的實(shí)驗(yàn)結(jié)果數(shù)據(jù)如表2所示.其中,效果評(píng)估由匹配速度和匹配成功且正確幀數(shù)決定,計(jì)算公式如下:

圖10 目標(biāo)三維測(cè)量結(jié)果Fig.10 Three-dimensional measurement results of target

表2 CAEW算法與SURF算法實(shí)驗(yàn)結(jié)果比較Tab.2 Comparison of experimental results between CAEW algorithm and SURF algorithm

在進(jìn)行CAEW算法和SURF算法匹配前需要先經(jīng)過(guò)圖像重投影及檢測(cè)器檢測(cè)目標(biāo),而重投影耗時(shí)約35 ms,檢測(cè)目標(biāo)耗時(shí)約2 ms.實(shí)驗(yàn)結(jié)果顯示:CAEW算法的速度遠(yuǎn)快于SURF算法,而且Gb領(lǐng)域窗口較小時(shí)也可以找到匹配點(diǎn),但在匹配正確率上差于SURF算法.

因?yàn)镾URF算法是針對(duì)于圖像全局操作,而CAEW算法是圖像局部操作,這樣的區(qū)別使CAEW算法匹配速度更快,實(shí)驗(yàn)數(shù)據(jù)結(jié)果上已經(jīng)充分體現(xiàn)它的優(yōu)勢(shì).實(shí)驗(yàn)說(shuō)明了CAEW算法能夠應(yīng)用于實(shí)時(shí)目標(biāo)的三維測(cè)量當(dāng)中,具有較強(qiáng)的擴(kuò)展性與實(shí)用性.

5.3雙目實(shí)時(shí)測(cè)距系統(tǒng)

經(jīng)過(guò)前面的討論與實(shí)驗(yàn),將設(shè)計(jì)出的具體實(shí)施方案如圖11所示.

1)獲取映射表與重投影矩陣

系統(tǒng)標(biāo)定步驟:先進(jìn)行單目標(biāo)定得到攝像機(jī)內(nèi)部參數(shù),然后用得到的兩臺(tái)攝像機(jī)內(nèi)部參數(shù),再用攝像機(jī)內(nèi)部參數(shù)進(jìn)行雙目標(biāo)定重投影標(biāo)定棋盤(pán)得到映射表.

2)訓(xùn)練行人檢測(cè)器

調(diào)用OpenCV函數(shù)訓(xùn)練Haar特征,不斷訓(xùn)練提高檢測(cè)器的檢測(cè)效果,采集場(chǎng)景視頻驗(yàn)證之.

3)獲取CAEW特征匹配點(diǎn)

設(shè)定Gb領(lǐng)域窗口大小和最大可能視差值,用誤差公式計(jì)算得到強(qiáng)匹配點(diǎn).

4)計(jì)算三維坐標(biāo)

確定目標(biāo)匹配點(diǎn)后利用投影矩陣計(jì)算其三維坐標(biāo),對(duì)比人為實(shí)測(cè)距離目標(biāo).調(diào)試程序改進(jìn).

圖11 實(shí)時(shí)雙目測(cè)距系統(tǒng)流程圖Fig.11 Flowchart of real-time binocular distance measurement system

圖12 軟件界面Fig.12 Software interface

6 結(jié)語(yǔ)

以上針對(duì)雙目立體視覺(jué)的目標(biāo)三維信息測(cè)量研究中經(jīng)常要解決的目標(biāo)匹配困難、匹配效率低的現(xiàn)狀,提出了一種新算法CAEW來(lái)解決上述問(wèn)題.其中,對(duì)匹配點(diǎn)的選取是基于窗口領(lǐng)域內(nèi)的信息誤差最小化,實(shí)驗(yàn)結(jié)果說(shuō)明了它能夠快速匹配目標(biāo)點(diǎn),對(duì)比SURF算法的全局圖像處理,CAEW算法的匹配速度有明顯優(yōu)勢(shì).從這一點(diǎn)說(shuō)明,如果想要提高匹配速度,就需要盡量避免全局圖像的處理或減少不必要的圖像區(qū)域操作.

[1]李強(qiáng),張鈸.一種基于圖像灰度的快速匹配算法[J].軟件學(xué)報(bào),2006,17(2):216-222.

LI Q,ZHANG B.A fast matching algorithm based on image gray level[J].Journal of software,2006,17(2):216-222.

[2] 羅希平,田捷.自動(dòng)指紋識(shí)別中的圖像增強(qiáng)和細(xì)節(jié)匹配算法[J].軟件學(xué)報(bào),2002,13(5):946-956.

LUO X P,TIAN J.Image enhancement and minutia matching algorithms in automatic fingerprint identification system[J].Journal of software,2002,13(5):946-956.

[3] 王宏力,賈萬(wàn)波.圖像匹配算法研究綜述[J].計(jì)算機(jī)技術(shù)與應(yīng)用,2008(6):17-19.

WANG H L,JIA W B.Survey of Research on Image Matching Algorithm[J].Advances in computer technology and Applications,2008(6):418-423.

[4]張艷珍,歐宗瑛.一種新的攝像機(jī)線性標(biāo)定方法[J].中國(guó)圖象圖形學(xué)報(bào),2001,6(8):727-731.

ZHANG Y Z,OU Z Y.A new camera linear approach for camera calibration[J].Journal of image and graphics,2001,6(8):727-731.

[5] TAO J,HONG Z J,WEN M H,et al.Evaluating 3D position and velocity of subject in parabolic flight experiment by use of the binocular stereo vision measurement [J].Chinese optics letters,2010,8(6):601-605.

[6] 馬頌德,張正友.計(jì)算機(jī)理論與算法基礎(chǔ)[M].北京:科學(xué)出版社,1998.

[7] 劉金頌,原思聰,張慶陽(yáng).雙目立體視覺(jué)中的攝像機(jī)標(biāo)定技術(shù)研究[J].計(jì)算機(jī)工程與應(yīng)用,2008,44(6):237-239.

LIU J S,YUAN S C,ZHANG Q Y.Research on camera calibration in binocular stereo vision[J].Computer engineering&application,2008,44(6):237-239.

[8] 楊明,王海暉,陳君,等.雙目標(biāo)定系統(tǒng)精度提高的方法[J].武漢工程大學(xué)學(xué)報(bào),2012,34(1):69-73.

YANG M,WANG H H,CHEN J,et al.Method of accuracy improvement based on binocular calibration system [J].Journal of Wuhan institute of technology,2012,34 (1):69-73.

[9] 徐磊.攝像機(jī)標(biāo)定算法研究[D].西安:西安電子科技大學(xué),2011.

[10]朱誼強(qiáng),張洪才,程詠梅,等.基于Adaboost算法的實(shí)時(shí)行人檢測(cè)系統(tǒng)[D].西安:西北工業(yè)大學(xué),2006.

[11]劉洋,王海暉,向云露,等.基于改進(jìn)的Adaboost算法和幀差法的車(chē)輛檢測(cè)方法[J].華中科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2013,41(z1):379-382.

LIU Y,WANG H H,XIANG Y L,et al.Vehicle detection method based on improved adaboost algorithm and frame difference method[J].Journal of huazhong university of science and technology(Natural science edition),2013,41(z1):379-382.

[12]岡薩雷斯.數(shù)字圖像處理的MATLAB實(shí)現(xiàn)[M].北京:清華大學(xué)出版社,2013.

[13]高如新,王俊孟.基于雙目視覺(jué)的目標(biāo)識(shí)別與定位[J].河南理工大學(xué)學(xué)報(bào)(自然科學(xué)版),2014,33(4):495-500.

GAO R X,WANG J M.Target recognition and localization based on binocular vision[J].Journal of Henan polytechnic university(natural science edition),2014,33(4):495-500.

本文編輯:陳小平

Realization Method of Three Dimensional Measurement of Real-Time Target of Binocular Stereo Vision

XIAO Yongqiang1,WANG Haihui1,2*,LIU Aoli1,WANG Ziwei1,ZHANG Liubin1

1.School of Computer Science&Technology,Wuhan Institute of Technology,Wuhan 430205,China;
2.Hubei Key Laboratory of Intelligent Robot(Wuhan Institute of Technology),Wuhan 430205,China

To improve efficiency of the target-matching,a matching algorithm based on real-time target characteristics of binocular stereo vision,namely absolute window error minimization(CAEW)was presented.Firstly,the camera calibration was realized by the Zhang's calibration method based on the basic principle of camera,and the final data of binocular stereo calibration was tested by Bouguet algorithm.Then,the target detector was trained by AdaBoost iterative algorithm for better target detection.The evaluated effects of CAEW algorithm was compared with that of the commonly Speeded-up Robust Feature(SURF)algorithm,and the results show that the evaluated effects of CAEW algorithm achieve more than 90%,which is significantly improved,and can meet the requirement of the application of binocular real-time target matching.By comparing with the experimental results of SURF and CAEW algorithm,it demonstrates that the reduction of unnecessary operation can improve the matching speed.

binocular stereo vision;feature point matching;3D distance measurement

王海暉,博士,教授.E-mail:wanghaihui69@sina.com

TP242.6

A

10.3969/j.issn.1674-2869.2016.04.014

1674-2869(2016)04-0386-08

2016-04-10

武漢工程大學(xué)大學(xué)生校長(zhǎng)基金項(xiàng)目(2015047);湖北高校2015年省級(jí)大學(xué)生創(chuàng)新創(chuàng)業(yè)訓(xùn)練計(jì)劃項(xiàng)目(201510490021)

肖永強(qiáng),本科生.E-mail:1849122014@qq.com

猜你喜歡
雙目攝像機(jī)分類(lèi)器
基于雙目測(cè)距的卡爾曼濾波船舶軌跡跟蹤
基于差異性測(cè)度的遙感自適應(yīng)分類(lèi)器選擇
基于實(shí)例的強(qiáng)分類(lèi)器快速集成方法
攝像機(jī)低照成像的前世今生
基于HALCON和VC++的雙目機(jī)器人織物抓取系統(tǒng)設(shè)計(jì)
新安訊士Q6155-E PTZ攝像機(jī)
基于雙目視覺(jué)圖像的長(zhǎng)度測(cè)量方法
如何消除和緩解“攝像機(jī)恐懼癥”
基于層次化分類(lèi)器的遙感圖像飛機(jī)目標(biāo)檢測(cè)
一種基于置換的組合分類(lèi)器剪枝方法