国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于目標檢測的駕駛?cè)朔稚耨{駛行為檢測方法研究

2022-11-26 02:23何廷全俞山川張生鵬蘭棟超
公路交通科技 2022年10期
關(guān)鍵詞:錨框卷積特征

何廷全,俞山川,張生鵬,蘭棟超,李 剛

(1. 廣西新發(fā)展交通集團有限公司,廣西 南寧 530029; 2.招商局重慶交通科研設(shè)計院有限公司,重慶 400067; 3. 長安大學 電子與控制工程學院,陜西 西安 710064; 4. 長安大學 能源與電氣工程學院,陜西 西安 710064)

0 引言

根據(jù)2020年世界衛(wèi)生組織的報告,全世界每年大約有135萬人死于交通事故。全世界各地,大多數(shù)國家道路交通事故造成的經(jīng)濟損失約等于國內(nèi)生產(chǎn)總值的3%。其中,造成重大交通事故的主要原因之一就是駕駛?cè)说姆稚耨{駛行為[1]。駕駛?cè)朔稚耨{駛行為包括開車時打電話、玩手機、喝水以及和他人交談等行為,駕駛?cè)藭陂_車時無意中發(fā)生這些行為。這些行為對交通安全帶來極大的危害,例如,分神駕駛可能導(dǎo)致車輛異常變道,這可能導(dǎo)致嚴重的交通事故[2]。同時,近年來車載電子設(shè)備的普及,如車載導(dǎo)航系統(tǒng)、智能手機的使用,增加了駕駛?cè)朔稚耨{駛的頻率。因此,對駕駛?cè)朔稚耨{駛行為進行深入研究是非常有必要的。通過圖像分析方法,對駕駛?cè)朔稚耨{駛行為進行監(jiān)測并同時發(fā)出預(yù)警信息,能夠及時的提醒駕駛?cè)藢P鸟{駛,減少由分神駕駛造成的交通事故。

在過去的研究中,研究者為了檢測駕駛?cè)说姆稚耨{駛行為,提出了一些基于駕駛?cè)松韰?shù)和駕駛狀態(tài)的方法[3-4]。通過觀測駕駛?cè)松韰?shù)的方法雖然具有很好的準確性,但是依賴大量的檢測儀器,這些儀器不僅會干擾駕駛?cè)耍瑫r儀器成本較高、安裝復(fù)雜。因此,基于駕駛?cè)松韰?shù)的檢測方法只適用于一些特殊駕駛環(huán)境,不能夠普及到大眾。除此之外,曾杰等[5]開發(fā)了一套基于仿生機器人的駕駛?cè)宋kU駕駛檢測系統(tǒng)的測試技術(shù),利用機器人模擬人的疲勞、打電話等動作,來測試檢測系統(tǒng)的性能,對新開發(fā)的測試系統(tǒng)評估提供了便利的方法。

近年來,隨著機器視覺和機器學習的快速發(fā)展,基于圖像處理的方法也被應(yīng)用于檢測駕駛?cè)朔稚耨{駛行為。基于圖像的檢測方法主要是通過車載攝像頭采集駕駛?cè)藞D像對駕駛?cè)说纳眢w動作、眼睛、面部表情等部位提取關(guān)鍵信息來判斷駕駛?cè)说鸟{駛狀態(tài)。文獻[6]提出了一種基于視頻的檢測方法,通過分析駕駛?cè)说拿娌颗c眼睛特征,判斷視線方向和面部姿勢來判斷駕駛?cè)耸欠翊嬖诜稚耨{駛行為。文獻[7]基于駕駛模擬環(huán)境,分析駕駛?cè)说难鄄刻卣鱽頇z測駕駛?cè)搜劬δ晻r長和眨眼睛次數(shù),建立了基于隨機森林的分神駕駛識別模型,可以達到較好的準確率。深度學習同樣被用來識別分神駕駛行為,文獻[8]利用預(yù)訓練深度模型,結(jié)合支持向量機分類器來檢測駕駛?cè)朔稚耨{駛行為。文獻[9]利用視覺幾何組(Visual Geometry Group,VGG16),VGG19以及Inception模型對駕駛?cè)朔稚耨{駛行為進行檢測和分類。在VGG模型的基礎(chǔ)上,文獻[10]加入了正則化技術(shù),提高了分神駕駛檢測和分類的精度。文獻[2, 11]中通過微軟研發(fā)的Kinect相機采集到駕駛?cè)说鸟{駛行為圖像,提出了基于卷積神經(jīng)網(wǎng)絡(luò)CNN模型的分神駕駛行為檢測系統(tǒng)。同時,結(jié)合高斯混合模型GMM分割算法對原始圖像進行分割,該方法基于CNN的分神駕駛行為分類器的平均分類精確度可以達到91%。

然而由于深度學習技術(shù)的不斷發(fā)展,對于駕駛?cè)朔稚耨{駛行為的檢測與分類精度有了更高的要求。同時上述基于深度學習的分神駕駛行為檢測和分類模型參數(shù)計算量大,冗余參數(shù)較多。

1 基于改進YOLOv5的駕駛?cè)朔稚耨{駛行為識別算法

分神駕駛行為檢測的目的是通過一系列算法對駕駛?cè)说姆稚耨{駛行為進行識別和分類。根據(jù)識別結(jié)果對駕駛?cè)诵袨檫M行判定,當判斷為危險駕駛行為后則發(fā)出報警,從而實現(xiàn)對駕駛?cè)说膶崟r提醒,保證安全駕駛。

本研究提出一種基于目標檢測模型的駕駛?cè)顺R姺稚耨{駛行為檢測方法。構(gòu)建一種改進YOLOv5模型的駕駛?cè)朔稚耨{駛行為檢測網(wǎng)絡(luò),通過捕捉駕駛?cè)嗽隈{駛過程中的圖像信息進行分神駕駛行為檢測。駕駛?cè)朔稚耨{駛行為檢測算法的訓練及測試流程如圖1所示。

圖1 試驗流程

1.1 數(shù)據(jù)集

對于目標檢測模型的訓練,圖像數(shù)據(jù)集的選取和制作非常重要。本研究的數(shù)據(jù)集來自于Kaggle組織的一場駕駛?cè)宋kU駕駛行為圖像分類競賽。以往的分神駕駛數(shù)據(jù)集只包含幾類常見的分神駕駛行為,而Kaggle的數(shù)據(jù)集包含了9種不同的駕駛行為,具有更好的廣泛性。如圖2所示,顯示了9種常見的駕駛行為動作圖像。

圖2 九種常見的駕駛行為

選用原始數(shù)據(jù)集中5 000張駕駛?cè)笋{駛行為圖像,其中包含正常駕駛660張、右手玩手機556張、右手打電話558張、操作多媒體543張、左手玩手機545張、左手打電話550張、喝水545張、與他人交談525張、化妝等其他動作518張。

由于分神駕駛行為檢測僅關(guān)注駕駛?cè)说男袨閯幼?,因此選取原始數(shù)據(jù)完成后,采用LabelImg軟件對駕駛?cè)说鸟{駛行為進行標注。在駕駛室內(nèi),駕駛?cè)说鸟{駛行為主要表現(xiàn)在上半身,能夠反映駕駛行為的主要特征是手部行為,面部方向?;谠紨?shù)據(jù),對駕駛?cè)松习肷硪约胺较虮P進行標注,并且給予相應(yīng)的行為標簽。將所有的圖片順序打亂,把數(shù)據(jù)集分為訓練集、驗證集、測試集,比例為3∶1∶1。訓練集包含3 000張圖像,驗證集和測試集各包含1 000 張圖像。根據(jù)原始數(shù)據(jù)集的9種不同的駕駛行為,使用不同的標簽給不同的駕駛?cè)藙幼鬟M行標注。標注完成后生成對應(yīng)的xml文件,包含了圖像中目標框坐標以及類別信息。本研究將利用上述數(shù)據(jù)集對目標檢測網(wǎng)絡(luò)進行訓練,最終得到分神駕駛行為檢測模型。

1.2 目標檢測模型及分神駕駛行為檢測問題

在現(xiàn)階段的研究中,基于深度學習的目標檢測模型可以分為兩階段檢測算法和單階段檢測算法。兩階段檢測算法的思路是,在第1階段生成可能包含所有目標物體的候選區(qū)域,第2階段在第1階段生成的候選區(qū)域中提取特征進入到分類和回歸網(wǎng)絡(luò),最終得到檢測結(jié)果。而單階段檢測模型直接根據(jù)圖像中的特征對目標進行檢測和分類,最終得出預(yù)測結(jié)果。相比較單階段檢測算法,兩階段的檢測算法可以獲得更加良好的邊界框回歸,但是在獲取更高精度的結(jié)果的同時,兩階段檢測算法比單階段檢測算法的效率更低。文獻[12]中對現(xiàn)階段基于深度卷積網(wǎng)絡(luò)的各類目標檢測算法進行了綜述,表1總結(jié)了部分兩階段與單階段算法的性能表現(xiàn)。其中包了算法的類別、檢測速率、檢測時的GPU型號以及在計算機視覺挑戰(zhàn)賽(Visual Object Classes,VOC2012)和微軟構(gòu)建的(Common Objects in Context,COCO)兩種數(shù)據(jù)集上的檢測指標結(jié)果,“-”代表無相關(guān)數(shù)據(jù)。通過觀察相關(guān)數(shù)據(jù)發(fā)現(xiàn),單階段目標檢測算法在檢測速度上明顯優(yōu)于兩階段算法。同時單階段算法經(jīng)過不斷改進后,算法的檢測精度不斷提高,甚至超過了兩階段算法。

表1 部分目標檢測算法性能對比

本研究的分神駕駛行為只需要對駕駛室中的駕駛?cè)藙幼鬟M行準確的預(yù)測分類,每一張圖像或者視頻幀中一般只存在一個目標類別。同時,在駕駛?cè)笋{駛過程中需要對駕駛?cè)诉M行實時監(jiān)測和提醒,單階段檢測模型在可以保證精度的前提下保證更高的效率,而且對硬件設(shè)備要求更低,因此選用相對效率更高的單階段檢測模型來對駕駛?cè)朔稚耨{駛行為進行監(jiān)測。

1.2.1 YOLOv5目標檢測網(wǎng)絡(luò)

YOLO(You Only Look Once)系列目標檢測算法,是單階段檢測算法中代表性的網(wǎng)絡(luò)。YOLOv5是YOLOv3及YOLOv4基礎(chǔ)上改進得到的最新產(chǎn)物,而且YOLOv5在COCO以及PASCAL VOC數(shù)據(jù)集上表現(xiàn)出較好的效果。相較于YOLOv4,YOLOv5在檢測精度降低很小的基礎(chǔ)上,提升了模型的訓練效率以及推理速度。

YOLOv5的整體架構(gòu)由輸入(Input),骨干(Backbone),頸部(Neck),預(yù)測(Prediction) 4個部分組成,模型架構(gòu)圖如圖3所示。輸入端主要包括3個部分,依次是自適應(yīng)圖片縮放、馬賽克Mosaic數(shù)據(jù)增強、自適應(yīng)錨框計算。由于該網(wǎng)絡(luò)的輸入圖像要求大小為608×608,為了適應(yīng)不同尺寸的輸入圖像,需要自適應(yīng)圖片縮放這一模塊來對原始圖片進行預(yù)處理。自適應(yīng)圖片縮放將原始尺寸的圖片進行比例縮小或者放大,添加最少的黑邊,從而減少圖像縮放過程對原始特征的影響。Mosaic數(shù)據(jù)增強方法,是將4張圖片采用隨機排布、隨機裁剪、隨機縮放的方式進行拼接,豐富圖像背景數(shù)據(jù),增加網(wǎng)絡(luò)訓練的魯棒性。同時,在批量歸一化(Batch Normalization)時一次計算4張圖像數(shù)據(jù),提高模型訓練效率。而自適應(yīng)錨框計算,是將預(yù)測框和真實框進行差值,反向更新預(yù)測框,通過多次迭代獲取更為精確的錨框。

圖3 YOLOv5整體架構(gòu)

Backbone部分包含了集中(Focus)模塊和CSP(Cross Stage Partial)結(jié)構(gòu)[13]。Focus模塊主要采用slice操作對輸入圖像進行裁剪,擴充輸入通道,經(jīng)過卷積操作得到特征圖。Focus操作可以提升感受野,保證獲取更加完整的特征信息,同時可以提高計算速度。另一方面借用CSP網(wǎng)絡(luò)的思想,提升網(wǎng)絡(luò)的特征提取能力。Neck仍然采用FPN[14]加PAN[15]的結(jié)構(gòu),在YOLOv4的基礎(chǔ)上改進卷積操作,使用CSP2結(jié)構(gòu),充分融合位置信息和語義特征,提升網(wǎng)絡(luò)特征融合能力。圖中CBL為Yolov網(wǎng)絡(luò)結(jié)構(gòu)中的最小組件,由Conv+Bn+Leaky_relu激活函數(shù)三者組成,CSP由卷積層和殘差模塊連接,Concat層的作用是將兩個及以上的特征圖按照在channel或num維度上進行拼接。輸出層輸出不同尺寸的特征圖,用來關(guān)注不同大小的目標以及特征信息,通過使用GIoU_Loss(Generalized Intersection of Union Loss)作為損失函數(shù)進行優(yōu)化訓練,最終得出預(yù)測結(jié)果。

1.2.2 分神駕駛行為檢測問題分析

通常在解決圖像檢測實際問題時,需要根據(jù)具體的場景選擇和優(yōu)化方法。YOLOv5在目標檢測領(lǐng)域已經(jīng)有了非常良好的效果,但是針對本研究的分神駕駛行為檢測和分類問題,仍然存在部分缺陷。

(1)YOLOv5試驗使用的數(shù)據(jù)集為COCO等常用目標檢測數(shù)據(jù)集,原始模型采用K-Means聚類方法獲取,COCO數(shù)據(jù)集中包含幾十種類別,且錨框大小皆不相同。而本研究的對象為駕駛室里的駕駛?cè)耍瑯俗⒌哪繕瞬糠謨H僅為駕駛?cè)艘约胺较虮P圖像信息,單張圖像一般只包含一個類別,原始的先驗錨框參數(shù)不適用于本研究。僅靠人獲取先驗錨框信息,如果錨框的大小設(shè)置不合理,在訓練和檢測過程就會產(chǎn)生一定的偏差。

(2)分神駕駛行為檢測和分類是要依據(jù)駕駛?cè)说纳习肷碚w動作進行綜合判斷,因此需要分析駕駛?cè)苏麄€上半身以及方向盤的圖像才能獲取更加客觀的信息。但是,在網(wǎng)絡(luò)獲取特征時,需要在整個標注圖中再獲取駕駛?cè)说木植縿幼餍畔?,這些動作往往會比較小。雖然在檢測過程中需要關(guān)注駕駛?cè)苏w信息,但是表現(xiàn)出來的危險駕駛動作僅僅體現(xiàn)在圖像局部區(qū)域,因此需要在檢測過程中提取局部信息的特征,如果在特征提取時忽略小目標的特征,容易發(fā)生誤判。

(3)算法的Backbone中含有較多的BottleneckCSP網(wǎng)絡(luò)結(jié)構(gòu),卷積過程中包含大量的參數(shù),模型計算量較大。同時,在提取特征信息的過程中,大量的卷積操作可能忽略圖像的淺層特征,會造成局部信息的丟失,從而影響了最后的類別判定。

1.3 針對分神駕駛行為檢測改進算法

根據(jù)上述YOLOv5在分神駕駛行為檢測問題中存在的問題,對檢測算法進行了以下的優(yōu)化來提升對分神駕駛行為檢測的精度:(1)針對錨框設(shè)定問題進行優(yōu)化,原先的錨框由人為設(shè)定,設(shè)定的錨框大小不靈活,會出現(xiàn)丟失特征信息的情況。因此在模型的錨框設(shè)置階段借用DAFS(Dynamic Anchor Feature Selection)[16]的思想設(shè)置動態(tài)錨框。(2)對于Backbone中的BottleneckCSP網(wǎng)絡(luò)結(jié)構(gòu)進行修改,減少卷積操作,從而保證更少的淺層特征丟失。同時,在主干網(wǎng)絡(luò)部分添加注意力機制,提高模型獲取局部感興趣區(qū)域信息的能力。

1.3.1 錨框設(shè)定問題的優(yōu)化

本研究在YOLOv5模型的基礎(chǔ)上對錨框選擇進行優(yōu)化。在DAFS中提到,原先的錨框改良模塊(anchor refinement module,ARM)利用背景和前景評分,利用二值化評分預(yù)測容易出現(xiàn)漏掉正確信息的情況,導(dǎo)致特征點錨框和感受野不匹配。因此,提出了在檢測器頭部之前添加了特征選擇操作,動態(tài)調(diào)整特征點,為每個回歸器和分類器選擇了合適的特征點,減少不匹配問題的出現(xiàn)。其次,將傳輸連接塊(transfer connection block,TCB)替換為雙向特征融合塊(bidirectional feature fusion,BFF),其主要目的是利用自上而下和自下而上的方式組合不同層的信息。根據(jù)這一思想,對YOLOv5的錨框選擇方式進行優(yōu)化,如圖4所示。首先利用初始方法,產(chǎn)生初始錨框,然后在模型的輸入端添加ARM模塊,從而達到過濾錨框負樣本的效果,再根據(jù)真實值對錨框進行調(diào)節(jié)獲取先驗信息。其次,通過雙向特征融合塊將ARM與主干網(wǎng)絡(luò)進行連接,通過動態(tài)更新錨框生成模型訓練的先驗錨框。

圖4 錨框優(yōu)化

1.3.2 針對主干網(wǎng)絡(luò)優(yōu)化

(1)BottlenckCSP網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)化

在YOLOv5的Backbone模塊中采用多個平靜層卷積殘差BottlenckCSP網(wǎng)絡(luò)結(jié)構(gòu),在卷積操作中會減少部分局部特征,從而失去有一部分關(guān)鍵的特征信息。在Backbone網(wǎng)絡(luò)的特征提取層進行了修改,修改后的BottlenckCSP網(wǎng)絡(luò)模塊如圖5所示。

圖5 BottlenckCSP網(wǎng)絡(luò)改進

將BottlenckCSP網(wǎng)絡(luò)結(jié)構(gòu)數(shù)量(×3,×9,×9,×3)改為(×2,×6,×6,×2),從而保護局部特征信息不被丟失。同時針對多個卷積核導(dǎo)致的參數(shù)量大的問題也進行了相應(yīng)的優(yōu)化,將BottlenckCSP網(wǎng)絡(luò)的輸入特征映射與輸出特征直接連接,刪除掉模塊的分支卷積,減少了參數(shù)的數(shù)量,這樣做的目的是減少計算量的同時提取更多的淺層特征。

(2)注意力機制的融合

注意力機制模塊可以讓網(wǎng)絡(luò)模型更加注重具有關(guān)鍵特征信息的區(qū)域,排除掉一些無關(guān)信息,從而提升網(wǎng)絡(luò)的局部特征提取能力,進一步優(yōu)化檢測效果。為了提升分神駕駛檢測網(wǎng)絡(luò)的檢測效果,本研究考慮將注意力機制應(yīng)用到原始網(wǎng)絡(luò)。

本研究采用SEBlock(Squeeze-and-Excitation Networks)[17]的注意力機制模塊,將該模塊融合到Y(jié)OLOv5框架。SEBlock結(jié)構(gòu)圖如圖6所示。

圖6 SEBlock結(jié)構(gòu)

圖6中,X為網(wǎng)絡(luò)的輸入,F(xiàn)tr為一系列卷積操作,U∈RH×W×C為卷積操作的輸出,U=[u1,u2,…,uC]。SEBlock主要有3部分組成,Sequeez,Excitation,Scale。Sequeez操作將U輸出壓縮成Z∈R1×1×C,為了充分提取上下文信息,使用GAP(global average pooling)作用于每個通道實現(xiàn)通道選擇。Excitation利用非線性的Sigmoid激活函數(shù)保證非線性的情況進行通道選擇。Scale是將學習到的通道權(quán)重應(yīng)用到原有的特征上。GAP有利于識別全局信息,而GMP(global max pooling)可以通過識別全局最大點來檢測目標的特征信息,針對局部小目標特征提取有更好的效果。在本研究的通道注意力機制模塊將二者同時使用。

本研究在原有的網(wǎng)絡(luò)添加通道注意力機制和空間注意力機制,添加方法如圖7所示。在CBL模塊添加通道注意力機制,CSP模塊卷積操作之后添加混合注意力機制,從而使模型更好地獲取重要的特征。

圖7 注意力機制的融合

提出了一種基于改進YOLOv5的分神駕駛行為檢測和分類模型YOLOv5_DD (YOLOv5_Distracted Driving),針對具體的分神駕駛行為檢測和分類問題對YOLOv5進行了優(yōu)化。主要在錨框設(shè)定方式以及主干網(wǎng)絡(luò)進行了改進,使得模型更適合應(yīng)用于分神駕駛行為檢測。在損失函數(shù)方面,仍然使用YOLOv5原有的損失函數(shù)對模型進行訓練優(yōu)化。

2 試驗結(jié)果與分析

2.1 試驗環(huán)境與模型訓練

試驗采用的計算機配置,CPU為Inter(R)Core(TM)i7-7800,GPU為NVIDIA1080Ti?;赥ensorflow的深度學習環(huán)境進行模型的訓練和測試。軟件環(huán)境Tensorflow版本為2.2,Python版本為3.8。

模型訓練時,按照1.1節(jié)中提到的數(shù)據(jù)集比例將數(shù)據(jù)隨機分為訓練集、驗證集、測試集。采用監(jiān)督學習的訓練方式對模型進行訓練,經(jīng)過多次訓練和測試,選取了模型訓練最終參數(shù)。學習率設(shè)置為1e-4,迭代次數(shù)設(shè)置為300,使用Adam優(yōu)化器進行優(yōu)化,圖8為模型訓練損失變化曲線。

圖8 訓練損失變化曲線

由圖8可以看出,訓練過程損失在0到50迭代次數(shù)時迅速下降,最終趨于平穩(wěn)。經(jīng)過多次訓練,發(fā)現(xiàn)損失曲線會在200迭代次數(shù)以后趨于平穩(wěn),因此選用300迭代次數(shù)進行訓練,使得模型達到較好的訓練效果。

2.2 評價指標的選擇

為了驗證模型的檢測效果,選取了幾種目標檢測和分類領(lǐng)域的典型指標進行評估。對于分神駕駛行為檢測和分類,注重檢測精度和召回率,以及分類準確率。因此選擇混淆矩陣,精確率(precision),召回率(recall)以及F1_Score對模型進行評估。式中,TP為預(yù)測正確,樣本為正的數(shù)量,F(xiàn)P為預(yù)測錯誤,樣本被預(yù)測為正,但樣本實際為負數(shù)的數(shù)量,F(xiàn)N為預(yù)測錯誤,樣本被預(yù)測為負,但樣本實際為正的數(shù)量,F(xiàn)1為F1分數(shù),評價指標的計算公式如下:

(1)

(2)

(3)

2.3 結(jié)果分析與對比

模型訓練完成以后,在測試集對模型進行測試和評價。為了更好的評估模型的性能,使用各項評價指標對模型進行定量評估。如圖9所示,是模型在測試集上進行測試得到的結(jié)果,通過混淆矩陣的形式進行展示。

圖9 測試集分類結(jié)果混淆矩陣

通過觀察檢測結(jié)果混淆矩陣,誤檢和漏檢的類型是其他駕駛行為,由于其他駕駛行為數(shù)據(jù)中包含多種動作,可能會出現(xiàn)與其他8種行為相似的動作。觀察整體檢測結(jié)果,模型表現(xiàn)出較好的效果,下面通過具體的數(shù)值指標進行分析。在以上檢測結(jié)果的基礎(chǔ)上計算各個種類的性能指標。經(jīng)過計算,每個行為的檢測精確率、召回率、F1分數(shù)以及對應(yīng)的平均值如表2所示。

表2 九種駕駛行為檢測評價指標

由表2中數(shù)據(jù)所知,正常駕駛和其他行為的檢測精確率分別為91.97%,89.72%,這是因為某些動作特征可能不夠明顯造成的。同時,其他駕駛行為包含的動作種類較多,沒有固定的特征,因此造成檢測精度較低。模型在測試集檢測的平均精確率為95.30%,平均召回率為95.13%,平均F1分數(shù)為95.19%,整體表現(xiàn)出比較好的檢測效果。

為了驗證分神駕駛檢測模型的優(yōu)勢,本研究對一些流行的目標檢測算法用相同的數(shù)據(jù)進行訓練和測試。對比試驗使用的方法有Faster-RCNN[18],SSD[19],YOLOv3,原始YOLOv5模型。各個模型檢測結(jié)果平均指標如表3所示。

如表3所示,將5種方法在本研究的數(shù)據(jù)集上進行了試驗,其中FPS是目標網(wǎng)絡(luò)每秒可以處理多少幀。結(jié)果表明,本研究提出的分神駕駛模型檢測精度明顯優(yōu)于Faster-RCNN,SSD,YOLOv3,對YOLOv5進行優(yōu)化后,檢測精度相對于YOLOv5也表現(xiàn)的更好。在檢測速度方面,本研究方法比原始YOLOv5速度稍慢,造成這一結(jié)果的原因是網(wǎng)絡(luò)在增加注意力機制后增加了推理時間,但是相比其他3種方法檢測速度仍然表現(xiàn)更好,滿足實時檢測的要求。模型大小方面,本研究方法相對于其他方法更小。綜合考慮各個方面,本研究方法在分神駕駛行為檢測上具有優(yōu)越性。

表3 各個檢測模型測試平均指標對比

3 結(jié)論與展望

本研究針對駕駛?cè)顺R姺稚耨{駛行為監(jiān)測提出一種檢測方法。在YOLOv5模型的基礎(chǔ)上,針對分神駕駛行為檢測問題進行了優(yōu)化,主要在錨框選擇部分和主干網(wǎng)絡(luò)部分進行改進得到本研究的分神駕駛行為檢測模型。對Kaggle危險駕駛行為數(shù)據(jù)進行再標注作為本研究的訓練數(shù)據(jù)集,對模型進行優(yōu)化訓練。最終,通過試驗測試和對比,表明本研究的分神駕駛行為檢測模型具有更好的性能,同時可以到達實時檢測的目的。

雖然本研究方法的檢測性能表現(xiàn)出較好的性能,但仍然存在一部分問題。駕駛?cè)嗽隈{駛過程中可能會有更多的危險駕駛動作,本研究選用的數(shù)據(jù)只包含部分常見的類型。同時,本研究方法僅在實驗室電腦進行了試驗和測試。在接下來的研究中,將考慮對數(shù)據(jù)集進行擴充,同時將算法嵌入硬件設(shè)備,在實際駕駛過程中進行試驗測試。

猜你喜歡
錨框卷積特征
基于YOLOv3錨框優(yōu)化的側(cè)掃聲吶圖像目標檢測
錨框策略匹配的SSD飛機遙感圖像目標檢測
根據(jù)方程特征選解法
基于SSD算法的輕量化儀器表盤檢測算法*
基于GA-RoI Transformer的遙感圖像任意方向目標檢測
基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
卷積神經(jīng)網(wǎng)絡(luò)的分析與設(shè)計
從濾波器理解卷積
不忠誠的四個特征
基于傅里葉域卷積表示的目標跟蹤算法
徐州市| 怀集县| 林周县| 双柏县| 儋州市| 建瓯市| 凉山| 荆州市| 育儿| 宜州市| 时尚| 浦江县| 甘孜县| 平陆县| 金华市| 昌宁县| 湟中县| 万安县| 田东县| 大荔县| 隆子县| 策勒县| 青川县| 仪陇县| 连江县| 磐石市| 庆安县| 富蕴县| 昭平县| 漠河县| 沁水县| 景洪市| 溧水县| 宜川县| 莆田市| 双流县| 大兴区| 如东县| 洞头县| 禹城市| 高青县|