国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于類錨虛擬線圈的多流向車流量檢測算法

2021-04-28 03:27陳秀鋒吳閱晨邴其春聶蕊蕊
關(guān)鍵詞:車流量響應(yīng)值線圈

陳秀鋒,吳閱晨,邴其春,聶蕊蕊

(青島理工大學(xué),機械與汽車工程學(xué)院,山東青島266520)

0 引言

基于視頻的車流量檢測通過提取、檢測、跟蹤車輛,實時獲取交通流量,監(jiān)測城市交通擁堵和緊急交通事件,從而緩解交通擁堵并提高道路服務(wù)水平,已成為城市智能交通(ITS)技術(shù)的重要組成部分。車流量檢測方法主要有虛擬線圈法和深度學(xué)習(xí)法?;谔摂M線圈的車流量檢測方法預(yù)先設(shè)定虛擬線圈,通過背景差分法、幀間差分法、光流法等方法分割圖像獲得運動目標(biāo),進而檢測車流量。檀甲甲等[1]在視頻車流采集中利用對比度失真和亮度失真兩個參數(shù)抑制陰影干擾,并有效應(yīng)對車距過近問題;齊美彬等[2]基于車輛輪廓動態(tài)信息分析,建立車輛遮擋模型,利用分層輪廓匹配法對運動車輛進行標(biāo)記;Pablo Barcellos等[3]結(jié)合采樣粒子與前景建模檢測車輛,通過相鄰幀中車輛顏色的相似性跟蹤車輛,利用車輛軌跡與虛擬線圈交叉點完成車輛計數(shù);Yingjie Xia等[4]基于虛擬線圈方法,設(shè)計一種去除噪聲和填充孔洞的復(fù)原方法,提高車輛計數(shù)精度;Maojin Sun 等[5]定義運動強度指數(shù)量化視頻活動,采用多通道多任務(wù)卷積神經(jīng)網(wǎng)絡(luò)在擁擠場景下車輛計數(shù);Hana Rabbouch等[6]提出一個模式識別系統(tǒng),結(jié)合無監(jiān)督的聚類算法與虛擬線圈提取視頻信息,利用期望最大化算法提取車流量等交通參數(shù)。

傳統(tǒng)虛擬線圈方法檢測車輛類型的正檢率低,無法區(qū)分車輛流向;深度學(xué)習(xí)方法需要多次卷積整體圖像,計算復(fù)雜度高,容易漏檢和誤檢車輛。鑒于此,本文借鑒YOLO(You Only Look Once)系列算法中錨框概念[7],提出一種基于類錨虛擬線圈的多流向車流量檢測方法。此方法在單一車道上設(shè)置類錨虛擬線圈完成運動物體檢測和車輛類型識別,然后用改進的KCF(Kernel Correlation Filter)追蹤算法追蹤車輛,從而完成不同流向、不同類型的車流量檢測。

1 類錨虛擬線圈

1.1 均衡數(shù)據(jù)集

以小客車、公交車、摩托車為車流量檢測對象,構(gòu)建均衡數(shù)據(jù)集。均衡數(shù)據(jù)集中小客車、公交車、摩托車的樣本量接近。選取典型路段全天24 h 路段監(jiān)控視頻,人工標(biāo)記6:00-18:00 視頻數(shù)據(jù)獲取小客車樣本3841 個,公交車樣本147 個,摩托車樣本370個。本文采用隨機裁剪進行數(shù)據(jù)增強,模型為

式中:(X*,Y*)為隨機裁剪后左上角坐標(biāo);(x,y)為隨機裁剪前左上角坐標(biāo),裁剪時圖像尺寸不改變;J、K為隨機數(shù),為預(yù)防卷積神經(jīng)網(wǎng)絡(luò)過擬合,隨機數(shù)符合均勻分布。

小客車樣本隨機裁剪3 次得到樣本15364 個,公交車樣本隨機裁剪100 次得到樣本14847 個,摩托車樣本隨機裁剪40 次得到樣本15170 個,形成45381個樣本的均衡數(shù)據(jù)集。

1.2 類錨虛擬線圈尺寸設(shè)計

虛擬線圈在視頻圖像上設(shè)置類似感應(yīng)線圈的封閉檢測區(qū)域,系統(tǒng)通過區(qū)域內(nèi)圖像變化來檢測是否有車輛通過。錨指錨框,起源于YOLO 算法,原理是通過預(yù)設(shè)不同尺寸的預(yù)選框來提高物體識別的準(zhǔn)確度。類錨虛擬線圈分為組合車輛識別線圈和物體檢測線圈,預(yù)設(shè)組合車輛識別線圈來提高車輛分類的準(zhǔn)確度,物體檢測線圈用于判斷是否有運動物體。

DBSCAN(Density-Based Spatial Clustering of Applications with Noise)算法[8]能夠自適應(yīng)決定聚類簇數(shù)。采用DBSCAN 算法聚類均衡數(shù)據(jù)集樣本,聚類簇數(shù)為車輛識別線圈種類數(shù),樣本的特征參數(shù)為高度、寬度。設(shè)定DBSCAN 算法領(lǐng)域半徑Eps為2.24,密度閾值MinPts 為4,距離為歐氏距離。聚類結(jié)果如表1所示。

表1 DBSCAN算法聚類結(jié)果Table 1 Clustering results of DBSCAN

由表1可知,車輛識別線圈種類為3,(80,68)、(115,114)、(293,194)分別對應(yīng)二輪摩托車、輕微型載客汽車、大型載客汽車這3 類車型的識別線圈。物體檢測線圈為橫跨道路兩側(cè)的長矩形,無具體尺寸要求。

1.3 車輛識別線圈尺寸校正

對任意場景布設(shè)車輛識別線圈時,框選視頻中小客車,該框尺寸為輕微型載客汽車識別線圈尺寸,其他車輛識別線圈以該框尺寸為標(biāo)準(zhǔn)生成,其高度、寬度計算公式為

式中:w′i、h′i分別為車輛識別線圈i的場景寬度、場景高度,i=1,2;wi、hi分別為車輛識別線圈的寬度、高度;w′、h′為輕微型載客汽車識別線圈的場景寬度、場景高度;w、h為輕微型載客汽車識別線圈的寬度、高度。

1.4 類錨虛擬線圈布設(shè)

類錨虛擬線圈工作原理為:物體檢測線圈檢測到運動物體后,向組合車輛識別線圈發(fā)送信號,組合車輛識別線圈對檢測車輛進行分類。物體檢測線圈與組合車輛識別線圈位置布設(shè)如圖1所示。

圖1 類錨虛擬線圈位置Fig.1 Location of anchor-like visual loops

以檢測摩托車、小客車、公交車的車流量為例,圖1中,②為二輪摩托車識別線圈,③為輕、微型載客汽車識別線圈,④為大型載客汽車識別線圈。

2 車輛類型檢測

2.1 ResNet18模型訓(xùn)練

ResNet18 為卷積神經(jīng)網(wǎng)絡(luò)模型[9],輸入為224 pixel×224 pixel 圖像的三通道分量,輸出為圖像類型概率。改變ResNet18 網(wǎng)絡(luò)結(jié)構(gòu)以適應(yīng)算法,凍結(jié)ResNet18網(wǎng)絡(luò)頂層,刪除底層,添加2層全連接層,1 層輸出層。全連接層以ReLU 為激活函數(shù),漏失率為0.3;輸出層采用Softmax激活函數(shù),輸出3個車輛類型的概率。

預(yù)處理均衡數(shù)據(jù)集的圖像樣本訓(xùn)練ResNet18模型。首先,縮放并補零樣本,保持樣本寬高比,縮放長邊至224 pixel,再用值(125,125,125)的像素補充為224 pixel×224 pixel 圖像。然后,打亂樣本順序。最后,將預(yù)處理數(shù)據(jù)集劃分為訓(xùn)練集、驗證集和測試集,樣本量分別為34035,9076,2270個。

訓(xùn)練環(huán)境為Python 語言,TensorFlow 開發(fā)框架,OpenCV 庫。實驗所使用的計算機配置為:英偉達RTX2060,CUDA10.0,cuDNN7.5.0。部分超參數(shù)設(shè)定如下:訓(xùn)練數(shù)據(jù)緩沖器容量為2000個,采用斷點續(xù)訓(xùn)與批量訓(xùn)練,單批數(shù)據(jù)樣本100 個,訓(xùn)練總批次340批,模型參數(shù)迭代50次,耐心為3。訓(xùn)練結(jié)果如圖2所示。

圖2 模型訓(xùn)練結(jié)果Fig.2 Models training results

由圖2可知,第27 代訓(xùn)練中,模型驗證集準(zhǔn)確度連續(xù)3 次下降,訓(xùn)練停止,模型內(nèi)參數(shù)恢復(fù)至24代。第24代訓(xùn)練中,訓(xùn)練集準(zhǔn)確率為93.47%,驗證集準(zhǔn)確率為91.74%,測試集準(zhǔn)確率為90.13%。

2.2 可信度計算

本文提出可信度提高車輛類型的判定精度。從卷積神經(jīng)網(wǎng)絡(luò)原理出發(fā),對車輛類型的最終判定提出兩條原則:在噪聲信息相同的條件下,車輛識別線圈包含的車輛信息越多,準(zhǔn)確率越高,檢測車輛類型的可信度越高;在包含車輛信息相同的情況下,圖像內(nèi)與車輛無關(guān)的噪聲信息越多,準(zhǔn)確率越低,檢測車輛類型的可信度越低。第n輛車識別線圈的可信度Bn為

式中:An為第n輛車識別線圈內(nèi)車輛圖像面積;Sn為第n車輛識別線圈面積。車輛圖像面積可通過OpenCV庫函數(shù)求得[3]。

3 多流向車流量統(tǒng)計

3.1 KCF算法

目標(biāo)追蹤算法可檢測車輛去向,配合虛擬線圈可檢測多流向車流量。室外場景中,KCF算法優(yōu)于camshift、meanshift 等追蹤算法[10]。KCF 算法訓(xùn)練核相關(guān)濾波器,該濾波器對跟蹤目標(biāo)響應(yīng)值最大,對環(huán)境響應(yīng)值最小,以此計算目標(biāo)位置。目標(biāo)車輛在道路監(jiān)控圖像中響應(yīng)值分布如圖3所示。

由圖3可知,目標(biāo)車輛所在位置響應(yīng)值最大,采用KCF算法跟蹤車輛是可行的。

圖3 相關(guān)濾波追蹤原理Fig.3 Principle of tracker with correlation filter

3.2 基于KCF算法的改進

(1)動態(tài)學(xué)習(xí)率

KCF算法跟蹤速度較慢,通過設(shè)置動態(tài)學(xué)習(xí)率提高跟蹤速度。當(dāng)檢測區(qū)域響應(yīng)值相對較高時,提升學(xué)習(xí)速度;當(dāng)檢測區(qū)域響應(yīng)值相對較低時,減緩學(xué)習(xí)速度,抑制噪聲對模型的干擾。目標(biāo)追蹤過程主要分為目標(biāo)穩(wěn)定跟蹤、目標(biāo)受干擾和目標(biāo)丟失3種情況。針對這3種情況,采用動態(tài)規(guī)劃對核相關(guān)濾波追蹤算法的學(xué)習(xí)速度進行分類,公式為

式中:αmax為設(shè)定的學(xué)習(xí)率上限;rmax為最大響應(yīng)值;αi為第i幀圖像的學(xué)習(xí)率;λ2、λ1為控制學(xué)習(xí)率減緩速度的經(jīng)驗取值,采用窮舉法標(biāo)定參數(shù),λ2、λ1分別取0.2、0.8。

(2)快速重捕機制

在傳統(tǒng)KCF 算法的基礎(chǔ)上建立快速重捕機制,實現(xiàn)車輛長時間跟蹤。重捕效率關(guān)鍵在于搜索區(qū)域的劃分。首先,基于線性擬合,采用目標(biāo)丟失前若干幀的位置信息預(yù)測目標(biāo)可能出現(xiàn)的位置,確認(rèn)目標(biāo)的重捕獲中心;其次,按車輛加速度峰值計算搜索區(qū)域。搜索區(qū)域公式為

式中:c、r分別為響應(yīng)值位置的列坐標(biāo)、行坐標(biāo);e為畫面的高;a、b分別為目標(biāo)消失位置的列坐標(biāo)、行坐標(biāo);a′、b′分別為上一幀目標(biāo)位置的列坐標(biāo)、行坐標(biāo);k為車輛運動方向的斜率;t為幀間時間間隔。

3.3 車流量統(tǒng)計

車流量檢測共分4步:

Step 1 物體檢測線圈根據(jù)圈內(nèi)像素值變化檢測移動物體。

Step 2 組合車輛識別線圈通過ResNet18 檢測車輛類型,并向KCF追蹤器發(fā)送信號。

Step 3 改進的KCF追蹤器追蹤車輛運動軌跡。

Step 4 計數(shù)線捕捉車輛流向,對應(yīng)流向車輛數(shù)增加。

對于Step 4,傳統(tǒng)車流量計數(shù)方法采用車輛中心點坐標(biāo)與檢測線兩端坐標(biāo)差分求積統(tǒng)計車流量,車速較快時容易漏計車輛。本文將車輛位置判定問題轉(zhuǎn)變?yōu)榫€性可分問題。以物體檢測線圈為基點,以車道下游為方向,以2 倍車輛識別線圈的高度設(shè)置一條檢測線,稱為計數(shù)線,其方程為

式中:(x,y)為計數(shù)線上任意一點坐標(biāo);p、q為計數(shù)線待定參數(shù),用于確定計數(shù)線斜率與位置。假設(shè)計數(shù)線上兩端點坐標(biāo)為(g1,h1)、(g2,h2),則方程聯(lián)立求解得

車輛位置判別公式為

式中:sign(x)為數(shù)學(xué)符號函數(shù),根據(jù)x正負返回1或-1;C為車輛位置預(yù)測值。當(dāng)車輛運行遠離攝像頭的視頻且C >0 時,判斷車輛通過計數(shù)線,車輛數(shù)變更,停止跟蹤,釋放跟蹤器內(nèi)存。同理可得,當(dāng)車輛運行接近攝像頭的視頻且C <0 時,執(zhí)行相同步驟。

4 實驗結(jié)果與分析

4.1 類錨虛擬線圈與改進KCF算法性能檢驗

對于道路監(jiān)控視頻圖像的單向車流量檢測,采用虛擬線圈檢測,結(jié)果可分為4 種情況:車輛被正確檢測,即1 輛車被正確檢測并分類;車輛被重復(fù)檢測,即1輛車被檢測為2輛車或多輛車;車輛類型被誤檢,即1 輛車的車型檢測錯誤;車輛漏檢,即1輛車未能被檢測到。為評價虛擬線圈性能,評價指標(biāo)定義為:正檢率=(類別被正確檢測車輛數(shù)/實際車輛數(shù))×100%;誤檢率=(類別被誤檢車輛數(shù)/實際車輛數(shù))×100%。

監(jiān)控地點為膠州市揚州路-常州路交叉口,以西進口為研究對象,時間為2019年3月18日-27日。6:00-18:00為白天時段,其中,7:00-9:00、17:00-18:00為高峰時段,其他時間為平峰時段。以每15 min為1 視頻片段,構(gòu)建視頻片段集。采用傳統(tǒng)虛擬線圈與類錨虛擬線圈,分別檢測每個視頻片段的公交車、小客車、摩托車的車流量,計算各評價指標(biāo),結(jié)果如表2所示。

表2 算法檢測結(jié)果對比Table 2 Comparison between two algorithms'results (%)

由表2可知,與傳統(tǒng)虛擬線圈相比,類錨虛擬線圈高峰、平峰正檢率均值分別提升了5.09%、4.57%,高峰、平峰誤檢率均值分別降低了5.31%、2.35%,表明類錨虛擬線圈檢測的準(zhǔn)確度優(yōu)于傳統(tǒng)虛擬線圈;類錨虛擬線圈高峰正檢率方差、誤檢率方差,平峰正檢率方差、誤檢率方差分別比傳統(tǒng)方法低0.03%、0.82%,0.19%、0.97%,表明類錨虛擬線圈指標(biāo)值分布離散程度較小,算法魯棒性更好。

應(yīng)用交叉口視頻評價KCF 算法性能,采用評價指標(biāo):跟蹤準(zhǔn)確度=(抵達計數(shù)線的跟蹤框個數(shù)/實際車輛數(shù))×100%。經(jīng)計算,傳統(tǒng)KCF 算法跟蹤準(zhǔn)確度為90.67%,改進KCF 算法跟蹤準(zhǔn)確度為96.85%,準(zhǔn)確率提高了6.18%。

4.2 多流向車流量檢測算法性能檢驗

對于道路監(jiān)控視頻圖像的多流向車流量,采用虛擬線圈和跟蹤器進行檢測。傳統(tǒng)方法為普通虛擬線圈與原始KCF 方法的組合,改進方法為類錨虛擬線圈與改進KCF 方法的組合。為評價性能,定義評價指標(biāo)為:正計率=(算法正確統(tǒng)計車輛數(shù)/實際車輛數(shù))×100%,其中,被正確統(tǒng)計車輛同時滿足上文中的準(zhǔn)確跟蹤與正確檢測。

以膠州市揚州路-常州路交叉口西進口為實例,檢測各方向車輛,其中,直行、左轉(zhuǎn)車流檢測評價指標(biāo)分布如圖4所示、檢測結(jié)果如表3所示。

由圖4可見,改進方法各時段正計率均優(yōu)于傳統(tǒng)方法。由表3可見,改進方法直行車流高峰、平峰正計率提升5.01%、5.99%,左轉(zhuǎn)車流高峰、平峰正計率提升4.29%、4.56%。

圖4 多流向車流量檢測評價指標(biāo)值分布Fig.4 Distribution of evaluation index

表3 算法檢測結(jié)果Table 3 Algorithm's evaluation indexes (%)

5 結(jié)論

本文通過預(yù)設(shè)不同尺寸的錨框識別不同類型車輛,采用DBSCAN算法聚類均衡數(shù)據(jù)集樣本得出3類車型的識別線圈尺寸,設(shè)計物體檢測線圈檢測運動物體,組合車輛識別線圈檢測車輛類型,并采用改進KCF算法追蹤車輛軌跡,實現(xiàn)了多類型多流向的車流量檢測。對比分析虛擬線圈+KCF檢測方法,結(jié)果表明:各時段各流向的車流量檢測中,本文方法的車流量檢測正計率均提高了4.29%以上,優(yōu)于虛擬線圈+KCF方法。文中車輛識別線圈的尺寸需要人工校正,一定程度影響了車流量檢測的適應(yīng)性,未來可開展基于深度學(xué)習(xí)的線圈尺寸識別與判定,有效提升不同場景下該檢測方法的應(yīng)用能力。

猜你喜歡
車流量響應(yīng)值線圈
基于LSTM的汽輪發(fā)電機線圈的早期異常檢測
基于熒光光譜技術(shù)的不同食用淀粉的快速區(qū)分
小型線圈纏繞機設(shè)計
超小型薄壁線圈架注射模設(shè)計
提高環(huán)境監(jiān)測數(shù)據(jù)準(zhǔn)確性初探
紫外熒光法測硫各氣路流量對響應(yīng)值的影響
參考答案
2007款日產(chǎn)貴士車點火線圈頻繁燒毀
高速公路重大節(jié)假日免費車流量金額算法研究與應(yīng)用
一種新型多車道車流量檢測算法