任建強(qiáng),陳陽(yáng)舟,辛 樂(lè),石建軍
(1.北京工業(yè)大學(xué) 城市交通學(xué)院,北京100124;2.廊坊師范學(xué)院 計(jì)算機(jī)系,河北,廊坊065000)
基于時(shí)空軌跡跟蹤的交通流特性參數(shù)檢測(cè)分析
任建強(qiáng)1,2,陳陽(yáng)舟*1,辛 樂(lè)1,石建軍1
(1.北京工業(yè)大學(xué) 城市交通學(xué)院,北京100124;2.廊坊師范學(xué)院 計(jì)算機(jī)系,河北,廊坊065000)
基于視頻的交通流檢測(cè)在智能交通系統(tǒng)中具有重要意義.本文針對(duì)廣泛采用的低位攝像機(jī),提出了一種交通流特性參數(shù)的檢測(cè)分析方法.首先基于三級(jí)虛擬檢測(cè)線和自適應(yīng)更新率局部背景建模來(lái)快速提取車(chē)輛特征點(diǎn)并消除活動(dòng)陰影對(duì)提取精度的影響;然后基于Adaboost(Adaptive Boosting,自適應(yīng)增強(qiáng))分類器實(shí)現(xiàn)特征點(diǎn)按車(chē)分組,并在跟蹤過(guò)程中根據(jù)運(yùn)動(dòng)特征相關(guān)度消除分組誤差,獲取高精度的車(chē)輛軌跡;進(jìn)而自動(dòng)生成多車(chē)道軌跡時(shí)空?qǐng)D并提取各車(chē)道交通流的多種特性參數(shù).實(shí)驗(yàn)結(jié)果驗(yàn)證了算法的高效性;同時(shí),自動(dòng)生成的多車(chē)道軌跡時(shí)空?qǐng)D也為更多的交通信息獲取和更深入的交通流特性分析提供了有力支持.
智能交通;交通流特性參數(shù)檢測(cè);時(shí)空軌跡跟蹤;低位攝像機(jī)
近年來(lái),ITS(Intelligent Transportation Systems,智能交通系統(tǒng))的研究日益廣泛[1].基于視頻的交通流監(jiān)測(cè)分析是ITS的重要內(nèi)容,其研究與應(yīng)用具有重要的理論意義和實(shí)用價(jià)值.基于低位攝像機(jī)的交通流監(jiān)測(cè)方式具有安裝和維護(hù)方便的優(yōu)點(diǎn),相對(duì)于高空架設(shè)攝像機(jī)[2]和航空攝像機(jī)[3,4]方式而言成本更低、可靠性更高、應(yīng)用更廣.
低位攝像機(jī)場(chǎng)景中的車(chē)輛相互遮擋嚴(yán)重影響交通流檢測(cè)精度.基于特征點(diǎn)檢測(cè)與跟蹤的方法為問(wèn)題的解決提供了有效途徑,但現(xiàn)有方法對(duì)特征點(diǎn)的車(chē)輛歸屬判定精度不理想[5,6],在提取車(chē)輛軌跡時(shí)的定位誤差較大.另外,傳統(tǒng)的特征點(diǎn)提取方法多是直接在整幅幀圖中進(jìn)行,提取速度較慢且提取精度易受冗余背景及活動(dòng)陰影的影響.文獻(xiàn)[7]雖然提出了基于虛擬檢測(cè)線的改進(jìn)方法,但其特征點(diǎn)分組效率仍有待提高.基于已有工作,本文運(yùn)用虛擬檢測(cè)線和自適應(yīng)更新率局部背景建模相結(jié)合的技術(shù)高效提取車(chē)輛特征點(diǎn)并將Adaboost(Adaptive Boosting,自適應(yīng)增強(qiáng))分類器運(yùn)用到特征點(diǎn)按車(chē)分組中,有效解決了上述問(wèn)題,進(jìn)而在跟蹤基礎(chǔ)上自動(dòng)生成車(chē)輛軌跡時(shí)空?qǐng)D并完成多種交通參數(shù)的高精度自動(dòng)提取.同時(shí),自動(dòng)生成的軌跡時(shí)空?qǐng)D也為更深入地分析交通流特性提供了有力支持.
本文方法的總體框圖如圖1所示,共分四個(gè)步驟:
(1)場(chǎng)景參數(shù)標(biāo)定.
主要包括設(shè)置路面感興趣區(qū)域及車(chē)道位置、標(biāo)定攝像機(jī)參數(shù)及在交通流上游設(shè)置垂直于車(chē)道的三級(jí)VDL(Virtual Detection Line,虛擬檢測(cè)線),只在系統(tǒng)安裝時(shí)人工完成.
(2)特征點(diǎn)提取與按車(chē)分組.
基于三級(jí)VDLR(VDL Region,虛擬檢測(cè)線區(qū)域,即以各VDL為中心線、在沿車(chē)道方向上取樣9像素高度的區(qū)域)和自適應(yīng)更新速率局部混合高斯背景模型來(lái)精確提取車(chē)輛無(wú)陰影前景特征點(diǎn);同時(shí),基于Adaboost分類器進(jìn)行車(chē)體區(qū)域識(shí)別和特征點(diǎn)的按車(chē)分組,提高分組精度.
(3)車(chē)輛時(shí)空軌跡跟蹤.
對(duì)分組后的特征點(diǎn),在后繼幀的圖像金字塔中計(jì)算稀疏光流并結(jié)合局部二元紋理特征進(jìn)行特征點(diǎn)匹配來(lái)實(shí)現(xiàn)跟蹤.同時(shí)基于運(yùn)動(dòng)特征相關(guān)度對(duì)特征點(diǎn)進(jìn)行分組修正;然后設(shè)計(jì)了中心垂直最近最長(zhǎng)軌跡法提取車(chē)輛軌跡,有效消除投影誤差;進(jìn)而為每條車(chē)道自動(dòng)生成縱向(沿車(chē)道方向)軌跡時(shí)空?qǐng)D并生成含所有車(chē)道的橫向(垂直于車(chē)道方向)軌跡時(shí)空?qǐng)D.
(4)基于各軌跡時(shí)空?qǐng)D自動(dòng)提取交通流的多種特性參數(shù).
圖1 總體框圖Fig.1 Block diagram of the proposed method
3.1 特征點(diǎn)提取
車(chē)輛特征點(diǎn)的提取基于三級(jí)VDLR實(shí)現(xiàn),對(duì)各VDLR內(nèi)的每個(gè)像素,根據(jù)其在最近歷史幀中的采樣值{X1,X2,…,Xt-1}采用K(K∈{3,4,5})個(gè)高斯分布的疊加進(jìn)行建模,對(duì)其新像素值Xt與該點(diǎn)各高斯分布進(jìn)行匹配并更新高斯分布,更新速率α滿足0≤α≤1.實(shí)驗(yàn)表明,交通暢通時(shí)的α取0.001–0.005能獲得好的效果.但考慮到出現(xiàn)交通擁堵時(shí),可能會(huì)有排隊(duì)車(chē)輛恰好停在(或非常緩慢的移動(dòng)在)VDL上,此時(shí)若仍按暢通速率更新背景,則會(huì)將車(chē)輛誤判為背景.對(duì)此,提出Log-Sigmoid動(dòng)態(tài)自適應(yīng)更新速率[7]為
式中 α0為暢通時(shí)的更新速率;β決定Log-Sigmoid型函數(shù)的陡度;l是跟蹤程序反饋而來(lái)的車(chē)體區(qū)域特征點(diǎn)組到VDL3的最小像素距離,考慮到車(chē)輛之間會(huì)存在一定的間隙,在l大于0但小于等于間隙時(shí)停止背景更新.此間隙一般不超過(guò)1輛車(chē)長(zhǎng),本文以場(chǎng)景中車(chē)輛的平均長(zhǎng)度統(tǒng)計(jì)值ξ為間距估計(jì)值,ξ基于前兩級(jí)VDL生成的當(dāng)前時(shí)刻之前的兩級(jí)FPVI(Foreground Panoramic View Image,前景全景視圖)[8]計(jì)算得到.FPVI共三級(jí),分別按式(2)將視頻在三級(jí)VDL上的前景像素信息按時(shí)序排列生成.
在得到各VDLR的背景后,基于背景差分法分割活動(dòng)前景并采用前景與對(duì)應(yīng)位置處的背景局部紋理特征相似性原理[8]有效去除前景中包含的車(chē)輛活動(dòng)陰影.然后,利用文獻(xiàn)[9]的方法,在第1級(jí)VDLR的局部前景序列中對(duì)駛過(guò)的車(chē)輛進(jìn)行易跟蹤的稀疏特征點(diǎn)提取.鑒于VDLR沿車(chē)道方向高度較窄,一級(jí)特征點(diǎn)選取不夠充分,因此,在第2、3級(jí)VDLR上進(jìn)行逐級(jí)遞增式補(bǔ)選,很好地保證車(chē)輛前景特征點(diǎn)的提取效果.
3.2 特征點(diǎn)按車(chē)分組
在目標(biāo)駛離第3級(jí)VDL時(shí),利用Adaboost分類器在原始圖像中進(jìn)行車(chē)輛識(shí)別并對(duì)特征點(diǎn)進(jìn)行按車(chē)分組.Adaboost施用區(qū)域由目標(biāo)在三級(jí)FPVI中的團(tuán)塊(下面記為Bk,k∈{1,2,3})匹配情況而定.使用區(qū)域左下頂點(diǎn)圖像坐標(biāo)及區(qū)域?qū)挾葁Ada計(jì)算
使用區(qū)域的高度hAda計(jì)算分以下三種情況:
(1)B3、B2和B1均能相互匹配.
(2)B3只與B2、B1之一(記為B')匹配.
式中 y'為B'所在VDL的y坐標(biāo);t'為車(chē)輛到達(dá)B'所在VDL的時(shí)刻值.
(3)B2與B1匹配,但與B3均不匹配.
式中 Δh為分離距離修正量,構(gòu)造為(max(lB3,lB2,lB1)-min(lB3,lB2,lB1))/2,能夠有效防止原本粘連的目標(biāo)在第3級(jí)VDL發(fā)生分離而引起的目標(biāo)漏檢.
對(duì)落在同一車(chē)體區(qū)域的特征點(diǎn)采用邊加權(quán)動(dòng)態(tài)圖G={V,E,W }表述.其中,V為同車(chē)特征點(diǎn)集;E為V中各特征點(diǎn)間的優(yōu)化邊集,采用Delaunay三角剖分法[10]構(gòu)造;W為邊權(quán)集,各邊權(quán)值取為該邊所連特征點(diǎn)對(duì)的運(yùn)動(dòng)特征相關(guān)度,初始化為車(chē)體區(qū)域長(zhǎng)度lveh,并在后繼跟蹤中動(dòng)態(tài)修改.車(chē)輛特征點(diǎn)的提取與按車(chē)分組結(jié)果如圖2所示,其中圖2(a)圈中的粘連車(chē)輛均被Adaboost成功分離,有效保證了算法精度.
圖2 車(chē)輛特征點(diǎn)提取與按車(chē)分組Fig.2 Extracting and grouping results of feature points
4.1 特征點(diǎn)跟蹤與分組修正
對(duì)分組后的特征點(diǎn),在后繼幀的圖像金字塔中計(jì)算KLT(Kanade-Lucas-Tomasi)稀疏光流來(lái)進(jìn)行跟蹤.KLT跟蹤器要求目標(biāo)亮度恒定,但在實(shí)際場(chǎng)景中車(chē)輛特征點(diǎn)很容易受到光照變化等因素的影響.基于大量實(shí)驗(yàn),將ULBP(Uniform Local Binary Pattern,改進(jìn)的局部二元模式)[11]紋理特征與KLT稀疏光流法進(jìn)行融合,有效解決跟蹤漂移問(wèn)題.跟蹤中若發(fā)現(xiàn)第i幀的某特征點(diǎn)在后繼幀中的位置發(fā)生了變動(dòng),則分別以變動(dòng)前后的兩點(diǎn)為中心,在各自的幀圖像中分別計(jì)算其鄰域窗口ULBP特征值并進(jìn)行匹配.若匹配成功則表明位置變動(dòng)后的特征點(diǎn)有效;否則,表明發(fā)生漂移,將其剔除.
正常行駛的車(chē)輛一般可視作剛體,車(chē)上特征點(diǎn)在運(yùn)動(dòng)方向、速度、加速度等特征上相似度較高,但不同車(chē)輛特征點(diǎn)的運(yùn)動(dòng)特性差異較大.因此,基于運(yùn)動(dòng)特征相關(guān)程度動(dòng)態(tài)修改各特征點(diǎn)間的邊權(quán)值,實(shí)現(xiàn)分組修正.實(shí)驗(yàn)分析表明,特征點(diǎn)的上述運(yùn)動(dòng)相關(guān)度可通過(guò)彼此距離及其變化率等描述.因此,采用狀態(tài)空間轉(zhuǎn)移模型表述特征點(diǎn)對(duì)的運(yùn)動(dòng)關(guān)系,對(duì)具有邊連接的特征點(diǎn)對(duì)(i和 j),以表示其在t時(shí)刻的運(yùn)動(dòng)關(guān)系狀態(tài)向量,其中分別為兩點(diǎn)間的像素距離、距離變化速率和變化加速度[7].t時(shí)刻狀態(tài)預(yù)測(cè)值及修正狀態(tài)值可由點(diǎn)對(duì)在t-1時(shí)刻的信息遞推得到,具體如下:
式中 Α為轉(zhuǎn)移矩陣;K為Kalman修正矩陣;Η 為觀測(cè)矩陣;為誤差向量,其第一分量表征t時(shí)刻的點(diǎn)對(duì)距離測(cè)量值與預(yù)測(cè)值的差異,若差異值為正,則表明點(diǎn)對(duì)可能出現(xiàn)了分離.為避免誤判,此時(shí)不直接斷開(kāi)對(duì)應(yīng)的連接邊,而是使其減1,當(dāng)權(quán)值減為0斷開(kāi)點(diǎn)對(duì)連接,實(shí)現(xiàn)分組修正.進(jìn)而判斷這兩個(gè)特征點(diǎn),若某點(diǎn)已無(wú)任何連接邊,則將其作為干擾點(diǎn)剔除.
4.2 車(chē)輛軌跡的提取
對(duì)每輛車(chē)在其駛出感興趣區(qū)域時(shí)由其特征點(diǎn)軌跡提取該車(chē)軌跡.此時(shí)其邊加權(quán)動(dòng)態(tài)圖G={V,E,W}中V保存的是車(chē)輛穩(wěn)定特征點(diǎn),E中保存著這些特征點(diǎn)間的最優(yōu)邊.事實(shí)表明,靠近車(chē)輛中心的特征點(diǎn)比邊緣特征點(diǎn)往往在E中具有更多的連接邊.此處,采用加權(quán)平均法[7]計(jì)算V中各特征點(diǎn)的分布中心.在確定當(dāng)前車(chē)輛位置時(shí),為盡量減少車(chē)輛高度的投影影響,設(shè)計(jì)了中心垂直最近最長(zhǎng)軌跡法,計(jì)算V中滿足像素坐標(biāo)的特征點(diǎn)個(gè)數(shù)κ及各特征點(diǎn)i與的橫向歐氏距離 di,p并按升序選出前個(gè)點(diǎn)構(gòu)成分布中心的橫向K-近鄰點(diǎn)集C,再按式(8)選取第 j個(gè)特征點(diǎn)的軌跡作為當(dāng)前車(chē)輛軌跡.
式中 li為特征點(diǎn)i的軌跡長(zhǎng)度.
4.3 軌跡時(shí)空?qǐng)D自動(dòng)生成
以第i輛車(chē)為例,其軌跡表述為三元組點(diǎn)序列:
式中 xj、yj和 fj分別為第 j個(gè)軌跡點(diǎn)的x、y圖像坐標(biāo)及所在幀號(hào);M為軌跡點(diǎn)數(shù).
式中 Fs為幀頻;Xj和Yj為當(dāng)前軌跡點(diǎn)的世界X和Y坐標(biāo)(可由其像素坐標(biāo)與攝像機(jī)參數(shù)矩陣計(jì)算得來(lái),此處不詳述);XO、YO為起始參考點(diǎn)的世界坐標(biāo),本文參考點(diǎn)取為第1級(jí)VDL左端點(diǎn).所得軌跡時(shí)空?qǐng)D示例如圖3所示.
圖3 軌跡時(shí)空?qǐng)DFig.3 Time-space diagrams of vehicle trajectories
(1)交通流量.
定義為單位時(shí)間內(nèi)通過(guò)道路某位置處的車(chē)輛數(shù),以當(dāng)前時(shí)刻t為基準(zhǔn)、以一定大小Δt為時(shí)間窗口,如圖4所示,則交通流量為
式中 N(d,Δt)為Δt內(nèi)通過(guò)d處的車(chē)輛數(shù).
(2)平均流速.
①定點(diǎn)平均流速,即某Δt內(nèi)通過(guò)道路上某d處的所有車(chē)輛瞬時(shí)速度的均值.
式中 vi(d)為第i輛車(chē)在d處的瞬時(shí)速度.
②瞬時(shí)平均流速,即某時(shí)刻t在某Δd內(nèi)所有車(chē)輛瞬時(shí)速度的均值.
式中 N(Δd,t)為t時(shí)刻Δd內(nèi)的車(chē)輛數(shù),如圖4所示.
(3)交通流密度.
①定點(diǎn)交通流密度.
②瞬時(shí)交通流密度,即某時(shí)刻在單位長(zhǎng)度路段內(nèi)的車(chē)輛數(shù).
(4)車(chē)頭距.
①車(chē)頭間距,即某時(shí)刻t相鄰兩車(chē)車(chē)頭的空間距離.
式中 li、li+1分別為第i、i+1輛車(chē)的車(chē)長(zhǎng),di,t、di+1,t的含義如圖4所示.
②車(chē)頭時(shí)距,即相鄰兩車(chē)車(chē)頭通過(guò)道路某處d的時(shí)間間隔.
式中 vi(d)、vi+1(d)為第i、i+1輛車(chē)在d處的瞬時(shí)速度;ti,d、ti+1,d如圖4所示.
(5)占有率.
①空間占有率,即某時(shí)刻t在Δd內(nèi)旅行車(chē)輛長(zhǎng)度之和與Δd的比值.
②時(shí)間占有率,即Δt內(nèi)所有通過(guò)d處的車(chē)輛通過(guò)時(shí)間之和與Δt的比值.
圖4 交通流特性參數(shù)計(jì)算Fig.4 Traffic flow characteristic parameters calculation
6.1 實(shí)驗(yàn)環(huán)境及設(shè)置
為驗(yàn)證算法性能,以北京市道路監(jiān)控網(wǎng)絡(luò)厚俸橋監(jiān)控點(diǎn)為例,2014年4月11日起連續(xù)采集七天的交通視頻對(duì)算法進(jìn)行實(shí)驗(yàn)分析,每天分高峰期和非高峰期兩種場(chǎng)景各采集1 h視頻,共計(jì)14 h.攝像機(jī)距地高度為7 m,向東沿路面順車(chē)流拍攝京哈高速市內(nèi)段的南主路交通場(chǎng)景,車(chē)道數(shù)為4條,拍攝幀頻為25幀/s,每幀圖像大小為640×480像素.
6.2 實(shí)驗(yàn)結(jié)果與分析
基于上述視頻,對(duì)文中各參數(shù)進(jìn)行了檢測(cè)實(shí)驗(yàn),并將算法結(jié)果與人工測(cè)量數(shù)據(jù)進(jìn)行了對(duì)比分析.為便于說(shuō)明,文中首先選取平均流速這一主要參數(shù)的監(jiān)測(cè)結(jié)果做詳細(xì)分析(篇幅所限,其余參數(shù)不能詳述),然后對(duì)全部參數(shù)的實(shí)驗(yàn)結(jié)果進(jìn)行統(tǒng)計(jì)分析.
圖5表示了本文算法的平均交通流速監(jiān)測(cè)結(jié)果片段與對(duì)應(yīng)的人工監(jiān)測(cè)數(shù)據(jù).圖5(a)是d為20 m和80 m處第二車(chē)道的連續(xù)80 s定點(diǎn)平均流速監(jiān)測(cè)數(shù)據(jù).分析可見(jiàn),本文算法在20 m處的定點(diǎn)平均流速的平均測(cè)量誤差較小,在80 m處的定點(diǎn)平均流速的平均測(cè)量誤差較大且各時(shí)間點(diǎn)的流速檢測(cè)值的統(tǒng)計(jì)均值略高于人工數(shù)據(jù)統(tǒng)計(jì)均值.分析可知,造成這種誤差的主要原因在于成像投影變換對(duì)檢測(cè)精度的影響.圖5(b)為t等于70 s和150 s時(shí)第二車(chē)道的連續(xù)80 m路段瞬時(shí)平均流速監(jiān)測(cè)數(shù)據(jù).隨著攝像機(jī)距離的增大,結(jié)果誤差也稍有增加,這主要是受到遠(yuǎn)端車(chē)輛遮擋及投影誤差的影響而造成.
圖5 平均流速監(jiān)測(cè)結(jié)果Fig.5 Monitoring results of mean flow speed
為全面分析算法性能,采用14 h視頻中4條車(chē)道的全部交通流情況對(duì)本文各交通流參數(shù)進(jìn)行了提取實(shí)驗(yàn)并與人工測(cè)量數(shù)據(jù)進(jìn)行對(duì)比統(tǒng)計(jì),結(jié)果如表1所示.分析可見(jiàn),所有參數(shù)的平均檢測(cè)誤差都在10%以內(nèi).
表1 交通流特性參數(shù)檢測(cè)結(jié)果Table 1 Detecting results of traffic flow characteristic parameters
針對(duì)ITS中廣泛采用的低位監(jiān)控?cái)z像機(jī),提出一種基于時(shí)空軌跡跟蹤的交通流參數(shù)自動(dòng)檢測(cè)算法.三級(jí)VDLR自適應(yīng)更新速率局部背景建模及Adaboost分類器的應(yīng)用有效提高了特征點(diǎn)提取和按車(chē)分組的精度;采用狀態(tài)空間轉(zhuǎn)移模型表述特征點(diǎn)對(duì)的運(yùn)動(dòng)關(guān)系并消除分組誤差有效保證了目標(biāo)軌跡的提取精度.自動(dòng)生成的多車(chē)道軌跡時(shí)空?qǐng)D為交通流的多種特性參數(shù)自動(dòng)并行提取及分析提供了有效平臺(tái),也為更多的交通信息獲取和更深入的交通監(jiān)控分析提供有力支持.實(shí)驗(yàn)分析驗(yàn)證了算法的有效性.
[1]Zhang J P,Wang F Y,Lin K F,et al.Data-driven intelligent transportation systems:a survey[J].IEEE Transactions on Intelligent Transportation System, 2011,12(4):1624-1639.
[2]楊建國(guó),劉勇,賈凡.從高空攝像中獲取車(chē)輛瞬態(tài)信息和駕駛行為[J].西安交通大學(xué)學(xué)報(bào).2009, 43(4):116-120.[YANG J G,LIU Y,JIA F.Obtaining transient information of vehicles and behaviors of drivers from high-altitude photography[J].Journal of Xi'an Jiaotong University,2009,43(4):116-120.]
[3]Azevedo C L,Cardoso J L,Ben-Akiva M,et al. Automatic vehicle trajectory extraction by aerial remote sensing[J].Procedia-Social and Behavioral Sciences, 2014,111:849-858.
[4]杜榮義,彭仲仁.無(wú)人機(jī)逆向車(chē)輛檢測(cè)數(shù)據(jù)時(shí)效性分析[J].交通運(yùn)輸系統(tǒng)工程與信息.2014,14(1):34-40. [DU R Y,PENG Z R.Time effectiveness analysis of UAV vehicle detection data in reverse direction[J]. Journal of Transportation Systems Engineering and Information Technology,2014,14(1):34-40.]
[5]Saunier N,Sayed T.A feature-based tracking algorithm for vehicles in intersections[C]//The 3rd Canadian Conference on Computer and Robot Vision,IEEE,2006: 59-65.
[6]Kanhere N K,Birchfield S T.Real-time incremental segmentation and tracking of vehicles at low camera angles using stable features[J].IEEE Transactions on Intelligent Transportation Systems,2008,9(1):148-160.
[7]Ren J Q,Chen Y Z,Xin L,et al.Lanes detection in video-based intelligent transportation monitoring via fast extracting and clustering of vehicle motion trajectories[J].Mathematical Problems in Engineering, 2014,(14):1-12.
[8]Ren J Q,Xin L,Chen Y Z,et al.Highefficient detection of traffic parameters by using two foreground temporal-spatial images[C]// IEEE International Conference on Intelligent Transportation Systems,Netherlands,2013:1965-1970.
[9]Shi J,Tomasi C.Good features to track[C].IEEE Computer Society Conference on Computer Vision and Pattern Recognition,1994:593-600.
[10]蘇志剛,王爭(zhēng),吳仁.面向移動(dòng)點(diǎn)的穩(wěn)健動(dòng)態(tài)Delaunay三角剖分技術(shù)[J].系統(tǒng)工程與電子技術(shù).2013,35(8):1764-1768.[SU Z G,WANG Z,WU R.Robust dynamic Delaunay triangulation technology for moving points[J].Systems Engineering and Electronics,2013,35(8):1764-1768.]
[11]宋克臣,顏云輝,陳文輝,等.局部二值模式方法研究與展望[J].自動(dòng)化學(xué)報(bào).2013,39(6):730-744.[SONG K C,YAN Y H,CHEN W H,et al.Research and perspective on local binary pattern[J].ACTA Automatica Sinica,2013,39(6):730-744.]
Detection and Analysis of Traffic Flow Characteristic Parameters Based on Time-space Trajectory Tracking
REN Jian-qiang1,2,CHEN Yang-zhou1,XIN Le1,SHI Jian-jun1
(1.College of Metropolitan Transportation,Beijing University of Technology,Beijing 100124,China; 2.Department of Computer Science and Technology,Langfang Teachers University,Langfang 065000,Hebei,China)
Video Based detection of traffic flow has great significance in intelligent transportation systems. For the low angle cameras,a novel traffic flow multi-parameters detection method is proposed in this paper. Three virtual detecting lines and a local background modeling with adaptive learning rate are used to quickly extract vehicle feature points and eliminate the influence of activity shadow.Based on a trained Adaboost (Adaptive Boosting)classifier,the feature points are grouped to vehicles.Then the grouping errors are eliminated based on the motion-similarity of feature points in tracking process and the vehicle trajectories are extracted accurately.After that,the multi-lanes time-space diagrams are generated and the multi-parameters of traffic flow are detected automatically.Experimental results prove the efficiency of the method.In addition,the multi-lanes time-space diagrams can provide strong support for more traffic information acquisition and more in-depth analysis of traffic flow characteristics.
intelligent transportation;detection of traffic flow characteristic parameters;time-space trajectory tracking;low angle cameras
1009-6744(2015)01-0062-07
:U495
:A
2014-10-16
:2014-12-29錄用日期:2015-01-04
國(guó)家自然科學(xué)基金(61273006);國(guó)家高技術(shù)研究發(fā)展計(jì)劃(“863”計(jì)劃)項(xiàng)目(2011AA110301);河北省科技支撐計(jì)劃項(xiàng)目(13210807).
任建強(qiáng)(1978-),男,漢族,河北霸州人,副教授,博士生. *
:yzchen@bjut.edu.cn