国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于無人機(jī)的交通事故嚴(yán)重程度檢測

2024-10-17 00:00:00唐梓峰唐陽山潘迪敬宋東明趙會鵬
現(xiàn)代電子技術(shù) 2024年20期
關(guān)鍵詞:目標(biāo)識別

摘" 要: 針對交通事故嚴(yán)重程度檢測速度慢的問題,對較為先進(jìn)的YOLOv8算法進(jìn)行改進(jìn)。通過引入GAM注意力機(jī)制和GELAN結(jié)構(gòu),提高模型對交通事故嚴(yán)重程度數(shù)據(jù)集的識別準(zhǔn)確性。與此同時,通過模型輕量化處理和調(diào)整參數(shù)量,降低復(fù)雜度和計(jì)算量,增強(qiáng)實(shí)用性,使模型更易于部署和運(yùn)行。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的YOLOv8?GELAN?GAM模型在準(zhǔn)確率、mAP@0.5、Recall等關(guān)鍵指標(biāo)上分別提升了2.9%、1.9%、1.8%,在捕捉碰撞后位置變化小或形變量小的事故車輛方面表現(xiàn)更出色。在復(fù)雜背景下,改進(jìn)后的YOLOv8?GELAN?GAM模型也能避免漏檢和誤檢??傮w而言,改進(jìn)后的YOLOv8?GELAN?GAM模型能夠?yàn)榻煌ò踩芯刻峁┯辛χС郑嵘缆肪仍乃俣?,提高道路交通安全水平,為事故損失提供強(qiáng)有力的保障。文中研究可為交通安全技術(shù)發(fā)展提供新的思路。

關(guān)鍵詞: 交通事故檢測; YOLOv8算法; GELAN結(jié)構(gòu); GAM注意力機(jī)制; 嚴(yán)重程度檢測; 目標(biāo)識別

中圖分類號: TN919?34; TP391.41" " " " " " " " " "文獻(xiàn)標(biāo)識碼: A" " " " " " " " " 文章編號: 1004?373X(2024)20?0123?06

Traffic accident severity detection based on drone

TANG Zifeng, TANG Yangshan, PAN Dijing, SONG Dongming, ZHAO Huipeng

(College of Automotive and Traffic Engineering, Liaoning University of Technology, Jinzhou 121001, China)

Abstract: In allusion to the problem of traffic accident severity detection speed, the more advanced YOLOv8 algorithm is improved. The accuracy of the model in identifying the severity of traffic accidents in the dataset is improved by introducing GAM attention mechanism and GELAN structure. Meanwhile, by lightweight processing of the model and adjusting the number of parameters, the complexity and calculation amount are reduced, the practicality is enhanced, making the model easier to deploy and run. The experimental results show that the improved YOLOv8?GELAN?GAM model has improved the accuracy, mAP, Recall and other key indicators by 2.9%, 1.9% and 1.8% respectively, especially in capturing accident vehicles with small position changes or small shape variables after collision. Under complex background, the improved YOLOv8?GELAN?GAM model can also avoid missing and 1 detection. The improved YOLOv8?GELAN?GAM model can provide a strong support for traffic safety research, improve the speed of road rescue, improve the level of road traffic safety, and provide a strong guarantee for accident losses. It can provide a new idea for the development of traffic safety technology.

Keywords: traffic accident detection; YOLOv8 algorithm; GELAN structure; GAM attention mechanism; severity detection; target recognition

0" 引" 言

隨著機(jī)動車數(shù)量的逐年增加,道路交通需求持續(xù)增長,交通事故也愈發(fā)頻繁。這些事故不僅造成了大量的人員傷亡和財(cái)產(chǎn)損失,也對社會的和諧穩(wěn)定構(gòu)成了威脅。為了提高交通事故檢測的效率,本文對交通事故嚴(yán)重程度的檢測開展研究。

交通事故檢測主要分為非自動和自動兩種方法[1]。非自動檢測依賴于人工,如電話報(bào)警等。自動檢測則利用先進(jìn)技術(shù),如文獻(xiàn)[2]通過ELM進(jìn)行目標(biāo)分類,實(shí)現(xiàn)了道路中交通事故的檢測。蔣紅亮利用深度學(xué)習(xí)模型SSD進(jìn)行車輛檢測,結(jié)合圖像分割模型SkipASPPNet實(shí)現(xiàn)了車輛碰撞的檢測[3]。汪霜霜提出稀疏學(xué)習(xí)的方法對車輛軌跡進(jìn)行學(xué)習(xí),通過監(jiān)測車輛軌跡的變化來檢測交通事故[4]。文獻(xiàn)[5]中利用反向傳播算法調(diào)整深度網(wǎng)絡(luò)模型參數(shù),實(shí)現(xiàn)了對城市交通場景中交通事件的檢測。文獻(xiàn)[6]中使用加權(quán)極限學(xué)習(xí)機(jī)實(shí)現(xiàn)了高效的交通事故檢測。文獻(xiàn)[7]中通過分析交通流參數(shù)變化規(guī)律,實(shí)現(xiàn)了交通事故檢測。文獻(xiàn)[8]中利用ViBe視覺背景提取器提取目標(biāo),通過分析運(yùn)動目標(biāo)矩形框在正常行駛和事故發(fā)生時的寬度變化特征,實(shí)現(xiàn)了對道路中追尾和交叉路口事故的檢測。文獻(xiàn)[9]中采用改進(jìn)的YOLOv4算法進(jìn)行檢測,利用關(guān)鍵幀車輛速度預(yù)測獲取車輛的運(yùn)動軌跡,實(shí)現(xiàn)了對車輛追尾、超速等交通事件的準(zhǔn)確檢測。文獻(xiàn)[10]將毫米波雷達(dá)和攝像機(jī)相結(jié)合,實(shí)現(xiàn)了適用于各種場景的交通事故檢測。王卓采用Gabor濾波器對視頻中車輛進(jìn)行持續(xù)跟蹤和行為識別,實(shí)現(xiàn)了對監(jiān)控視頻中的交通事故等異常情況的檢測[11]。高新聞等人結(jié)合YOLOv3改進(jìn)了SORT多目標(biāo)跟蹤框架,實(shí)現(xiàn)了對行人、停車和車輛變道等交通行為的精準(zhǔn)判別[12]。吳蘭等人通過剪枝方法優(yōu)化YOLOv3,提高了檢測速度[13]。金媛媛等人對車輛行駛行為進(jìn)行建模處理,計(jì)算事故概率,設(shè)定閾值來預(yù)測事故[14]。

由此可見,對交通事故的檢測主要有建模與目標(biāo)識別這兩種方式。建模需要時間較長,對救援速度有較大影響;而目標(biāo)檢測所需時間較短,更適合救援時所用。本文將基于目標(biāo)檢測對交通事故嚴(yán)重程度進(jìn)行識別,進(jìn)而為交通安全貢獻(xiàn)一份力量。

1" 相關(guān)工作

1.1" YOLOv8的選取

基于檢測速度的考量,采用YOLO算法對交通事故嚴(yán)重程度進(jìn)行檢測,而具體選取哪一個算法需要進(jìn)行比較,具體對比如表1所示。結(jié)合表1可知,盡管YOLOv6準(zhǔn)確率最高,YOLOv3的召回率最好,但是綜合來看YOLOv8指標(biāo)更優(yōu),故選取YOLOv8作為研究算法。

1.2" YOLOv8算法介紹

YOLOv8 是一個 SOTA 模型,它建立在以往YOLO 版本的基礎(chǔ)上,并有新的功能和改進(jìn),可以進(jìn)一步提升性能和靈活性。YOLOv8算法結(jié)構(gòu)如圖1所示。

由圖1可知,YOLOv8目標(biāo)識別算法主要部分為input、backbone、head和neck。backbone從輸入圖像中提取高級語義特征,以捕捉物體的形狀、紋理和上下文信息;neck的主要目標(biāo)是將不同尺度的特征圖進(jìn)行融合,以便更好地檢測不同大小和尺度的目標(biāo);融合后的特征圖被傳遞給head進(jìn)行目標(biāo)檢測。最新的單目標(biāo)檢測算法摒棄Anchor Boxes,改用Anchor?Free,解決了定位不精準(zhǔn)和正負(fù)樣本不平衡問題。

輸入端主要有馬賽克(Mosaic)數(shù)據(jù)增強(qiáng)、自適應(yīng)錨框計(jì)算和自適應(yīng)灰度填充。骨干網(wǎng)絡(luò)有Conv、C2f和SPPF(Spatial Pyramid Pooling Fusion)結(jié)構(gòu)。其中,C2f模塊是對殘差特征進(jìn)行學(xué)習(xí)的主要模塊,該模塊根據(jù) YOLOv7的ELA結(jié)構(gòu),通過更多的分支跨層連接,使模型具有更為豐富的梯度流,形成具有更強(qiáng)特征表示能力的神經(jīng)網(wǎng)絡(luò)模塊。頸部網(wǎng)絡(luò)采用路徑聚合網(wǎng)絡(luò)(Path Aggregation Network, PAN)結(jié)構(gòu),可加強(qiáng)網(wǎng)絡(luò)對不同縮放尺度對象的特征融合能力。頭部網(wǎng)絡(luò)將分類和檢測過程進(jìn)行解耦,主要包括損失計(jì)算和目標(biāo)檢測框篩選。其中,損失計(jì)算過程主要包括正負(fù)樣本分配策略和Loss計(jì)算,在YOLOv8網(wǎng)絡(luò)中主要使用Task Aligned Assigner分配策略,即根據(jù)分類與回歸的分?jǐn)?shù)加權(quán)結(jié)果選擇正樣本;損失計(jì)算涵蓋分類和回歸兩個分支。其中,分類分支采用了二元交叉熵?fù)p失(Binary Cross Entropy Loss, BCE Loss)進(jìn)行訓(xùn)練;回歸分支則結(jié)合分布焦點(diǎn)損失(Distribution Focal Loss, DF Loss)和完全交并比損失 函數(shù)(Complete Intersection" Over Union Loss, CIoU Loss),以提升模型對邊界框預(yù)測的精準(zhǔn)性。

2" 數(shù)據(jù)集介紹

本文選用開源數(shù)據(jù)集,數(shù)據(jù)是通過使用無人機(jī)對交通事故現(xiàn)場進(jìn)行拍攝得到的,共有12 122張圖像,劃分為訓(xùn)練集、測試集和驗(yàn)證集,圖像數(shù)量分別為10 469張、649張和1 004張,占比分別為86.37%、5.35%和8.28%。圖像標(biāo)注分成兩類:輕微、中等與嚴(yán)重,分別用0與1表示。數(shù)據(jù)集圖示如圖2所示。

3" 檢測算法改進(jìn)

3.1" 改進(jìn)算法結(jié)構(gòu)

在實(shí)驗(yàn)過程中發(fā)現(xiàn),原版YOLOv8算法會有置信度不高的情況,即將背景中的大石頭等檢測為交通事故,如圖3所示。

由圖3可知,在復(fù)雜背景下,原版模型置信度只有0.4、0.5,而且還有誤檢的情況,故需要對原版模型進(jìn)行改進(jìn)。本文引入了GAM注意力機(jī)制和GELAN結(jié)構(gòu),以替代原有的C2f結(jié)構(gòu)。改進(jìn)后的模型結(jié)構(gòu)如圖4所示。

3.2" GAM注意力機(jī)制

GAM注意力機(jī)制是繼卷積塊注意力模塊(Convolutional Block Attention Module, CBAM)后全新的注意力模塊,是一種結(jié)合通道注意力機(jī)制和空間注意力機(jī)制的模塊,可以減少信息分散,同時放大全局維度的交互特征。通過引入全局注意力機(jī)制,模型能夠更好地理解圖像中的重要信息,從而在復(fù)雜的背景和光照條件下實(shí)現(xiàn)準(zhǔn)確的交通事故嚴(yán)重程度檢測。本文將GAM全局注意力機(jī)制引入到Y(jié)OLOv8模型結(jié)構(gòu)的頭部,通過減少信息分散和放大全局維度的交互特征來提高模型性能和對病害的特征表達(dá)能力。GAM實(shí)現(xiàn)過程如圖5所示。

給定一個特征圖F1,經(jīng)過兩個獨(dú)立的注意力子模塊,先通過通道注意力機(jī)制模塊對原特征圖進(jìn)行校正,得到中間狀態(tài)F2;然后經(jīng)過空間注意力機(jī)制模塊再次校正,得到最終特征圖F3。中間狀態(tài)變量F2和最終輸出F3公式如下:

[F2=Mc(F1)?F1]" " " " " " " (1)

[F3=Ms(F2)?F2]" " " " " " " "(2)

式中:[Mc]和[Ms]分別為通道注意力圖和空間注意力圖;“[?]”表示元素方法的乘法計(jì)算。

3.3" GELAN結(jié)構(gòu)

GELAN的模塊架構(gòu)如圖6所示,它結(jié)合了CSPNet梯度路徑規(guī)劃的最佳功能和ELAN的推理速度優(yōu)化。

GELAN代表了一種多功能架構(gòu),它融合了這些屬性,并增強(qiáng)了YOLO系列算法標(biāo)志性的實(shí)時推理能力。

1) RepNCSPELAN4模塊。此組件表示CSP?ELAN 的高級版本,旨在進(jìn)一步簡化特征提取過程。該模塊將初始卷積層的輸入拆分為兩條路徑,通過一系列 RepNCSP和卷積層處理每條路徑,然后將它們合并。這種雙路徑策略促進(jìn)了高效的梯度流和特征重用,顯著地提高了模型的學(xué)習(xí)效率和推理速度。

2) SPPELAN模塊。本文介紹了一種通過在ELAN結(jié)構(gòu)中合并空間金字塔池化(SPP)來實(shí)現(xiàn)層聚合的方法,即SPPELAN模塊,其具體結(jié)構(gòu)如圖7所示。它從調(diào)整通道維度的卷積層開始,然后是一系列空間池化操作,以捕獲多尺度上下文信息。輸出被連接并傳遞到另一個卷積層以整合特征,從而優(yōu)化網(wǎng)絡(luò)從各種空間層次結(jié)構(gòu)中提取詳細(xì)特征的能力。

4" 實(shí)驗(yàn)與結(jié)果

4.1" 實(shí)驗(yàn)準(zhǔn)備階段

操作系統(tǒng)為Windows 10;硬件GPU為NVIDIA GeForce GTX 1050 Ti, 4096 MiB,內(nèi)存為16 GB;環(huán)境配置為Python 3.8,CUDA v11.8,PyTorch 2.1.1。訓(xùn)練參數(shù)設(shè)置如表2所示。

4.2" 評價指標(biāo)

本文實(shí)驗(yàn)使用精準(zhǔn)率、召回率、平均精度均值對模型進(jìn)行評價。精準(zhǔn)率公式如下:

[Precision=TPTP+FP]" " " " " " "(3)

召回率公式為:

[Recall=TPTP+FN]" " " " " " " " (4)

mAP@0.5指IoU閾值為0.5時,對每個類別的樣本計(jì)算精準(zhǔn)率,然后取這些精準(zhǔn)率的平均值。而mAP@0.5:0.95表示在不同IoU閾值范圍(0.5~0.95,步長為0.05),計(jì)算的是平均mAP值。對于每個IoU閾值,計(jì)算每個類別的精準(zhǔn)率?召回率曲線,并計(jì)算該曲線下的平均精度均值,然后將所有IoU閾值下的平均精度均值取平均,得到mAP@0.5:0.95的值。

4.3" 對比及驗(yàn)證

通過比較原版模型與改進(jìn)模型來驗(yàn)證模型的精準(zhǔn)率,結(jié)果如圖8所示,圖8a)為改進(jìn)后的精準(zhǔn)率,圖8b)為YOLOv8原版模型。由圖可知,改進(jìn)后的YOLOv8?GELAN?GAM模型精準(zhǔn)度更高,對于圖像的識別更加精準(zhǔn),能夠較為明顯地捕捉到碰撞后位置變化小的車輛或者形變量較小的事故車輛,可為后續(xù)的應(yīng)急救援提供更為全面的信息。

模型其余指標(biāo)對比如表3所示。

YOLOv8?GELAN?GAM模型的精準(zhǔn)率較原模型有顯著提升。經(jīng)過驗(yàn)證集進(jìn)行直觀對比可以分析出,本文模型能夠判定出原版模型所檢測不出的檢測對象,對于易混淆的目標(biāo)檢測更加準(zhǔn)確。模型置信度對比圖如圖9所示。圖9a)中,在同樣面對轎車翻車的情況,YOLOv8原模型置信度為0.9,而改進(jìn)后的YOLOv8?GELAN?GAM模型的置信度可以達(dá)到1,換而言之,改進(jìn)后的模型準(zhǔn)確度更高。

而如圖9b)和圖9c)中所示,YOLOv8原模型對于背景亮度較暗以及處在山坡上等有復(fù)雜背景的情況,會出現(xiàn)漏檢以及將背景中的石頭等突出物檢測為出現(xiàn)交通事故的情況;改進(jìn)后的YOLOv8?GELAN?GAM模型則可以避免出現(xiàn)這種情況。

5" 結(jié)" 語

本文針對復(fù)雜交通環(huán)境下的交通事故嚴(yán)重程度檢測速度慢的問題,基于YOLOv8框架進(jìn)行了改進(jìn),引入了GAM注意力機(jī)制,以及將C2f網(wǎng)絡(luò)結(jié)構(gòu)替換為GELAN網(wǎng)絡(luò)結(jié)構(gòu),旨在實(shí)現(xiàn)模型的輕量化與性能提升。基于這些改進(jìn)所得出的結(jié)論如下。

1) 通過RepNCSPELAN4模塊代替全部的C2f模塊,以及將池化層由SPPF模塊替換為SPPELAN模塊,模型的參數(shù)量及大小得到了顯著減小,這不僅降低了模型的計(jì)算復(fù)雜度,還提高了實(shí)時檢測的效率。

2) 引入GAM注意力機(jī)制,有效提升了模型的特征融合能力。通過模擬人類視覺的注意力機(jī)制,模型能夠更加專注于圖像中的關(guān)鍵信息,從而提高交通事故嚴(yán)重程度檢測的準(zhǔn)確率。

通過實(shí)驗(yàn)結(jié)果的對比分析可以發(fā)現(xiàn),基于YOLOv8?GELAN?GAM的交通事故嚴(yán)重程度檢測模型在多個方面均表現(xiàn)出優(yōu)越的性能。與原始YOLOv8模型相比,改進(jìn)后的模型在準(zhǔn)確率、mAP@0.5、Recall等關(guān)鍵指標(biāo)上分別提升了2.9%、1.9%、1.8%,同時模型的參數(shù)量和大小也得到了顯著降低,而且置信度以及復(fù)雜情況下的準(zhǔn)確率也得到了提升。

注:本文通訊作者為唐陽山。

參考文獻(xiàn)

[1] SHEIKH M S, LIANG J, WANG W. An improved automatic traffic incident detection technique using a vehicle to infrastructure communication [J]. Journal of advanced transportation, 2020(10): 1?14.

[2] ELHATRI C, TAHIFA M, BOUMHIDI J. Extreme learning machine?based traffic incidents detection with domain adaptation transfer learning [J]. Journal of intelligent systems, 2017, 26(4): 601?612.

[3] 蔣紅亮.基于深度學(xué)習(xí)的共享電動汽車碰撞檢測與預(yù)警研究[D].南京:東南大學(xué),2018.

[4] 汪霜霜.稀疏學(xué)習(xí)城市交通視頻異常事件檢測算法的研究[D].柳州:廣西科技大學(xué),2019.

[5] ELHATRI C, BOUMHIDI J. Fuzzy deep learning based urban traffic incident detection [J]. Cognitive systems research, 2018, 50: 206?213.

[6] YU Y, XU M, GU J. Vision?based traffic accident detection using sparse spatio?temporal features and weighted extreme learning machine [J]. IET intelligent transport systems, 2019, 13(9): 1417?1428.

[7] JIANG H, DENG H. Traffic incident detection method based on factor analysis and weighted random forest [J]. IEEE access, 2020, 8: 168394?168404.

[8] GAO S, LI W, HAO D, et al. Traffic incident detection based on the width characteristic of the moving object marker [J]. International journal of information and communication technology, 2020, 16(4): 285?296.

[9] LIANG H, SONG H, YUN X, et al. Traffic incident detection based on a global trajectory spatiotemporal map [J]. Complex amp; intelligent systems, 2022, 8(2): 1389?1408.

[10] TAO Z M, LI Y B, WANG P C, et al. Traffic incident detection based on mmwave radar and improvement using fusion with camera [J]. Journal of advanced transportation, 2022(2022): 1.1?1.15.

[11] 王卓.基于視覺顯著性的交通事件檢測算法研究[D].西安:長安大學(xué),2018.

[12] 高新聞,沈卓,許國耀,等.基于多目標(biāo)跟蹤的交通異常事件檢測[J].計(jì)算機(jī)應(yīng)用研究,2021,38(6):1879?1883.

[13] 吳蘭,趙自廣,文成林.基于YOLOv3算法的交通事故檢測[J].現(xiàn)代電子技術(shù),2022,45(7):181?186.

[14] 金媛媛,劉明劍,牛浩驊,等.基于交叉路口碰撞概率的車輛碰撞預(yù)警方法研究[J].科技創(chuàng)新與應(yīng)用,2022,12(9):7?12.

作者簡介:唐梓峰(1999—),男,遼寧沈陽人,碩士研究生,研究方向?yàn)橹悄荞{駛汽車與網(wǎng)聯(lián)控制。

唐陽山(1972—),男,滿族,遼寧鞍山人,博士研究生,教授,研究方向?yàn)榻煌ò踩c車路協(xié)同控制技術(shù)。

潘迪敬(2000—),男,山東菏澤人,碩士研究生,研究方向?yàn)橹悄芙煌ü芾怼?/p>

宋東明(2000—),男,遼寧鞍山人,碩士研究生,研究方向?yàn)榻煌ù髷?shù)據(jù)分析與建模。

趙會鵬(1998—),男,天津人,碩士研究生,研究方向?yàn)榄h(huán)境感知與汽車智能駕駛。

DOI:10.16652/j.issn.1004?373x.2024.20.019

引用格式:唐梓峰,唐陽山,潘迪敬,等.基于無人機(jī)的交通事故嚴(yán)重程度檢測[J].現(xiàn)代電子技術(shù),2024,47(20):123?128.

收稿日期:2024?04?24" " " " " "修回日期:2024?05?27

基金項(xiàng)目:遼寧省教育廳2023基本科研項(xiàng)目:基于BDS/UAV的道路應(yīng)急救援目標(biāo)智能識別與路徑規(guī)劃研究(JYTMS20230842)

猜你喜歡
目標(biāo)識別
基于偏振數(shù)字圖像的特征提取及處理方法研究
一種BCI與SAR融合的目標(biāo)檢測系統(tǒng)設(shè)計(jì)
Java數(shù)字音頻識別程序
中國新通信(2017年3期)2017-03-11 21:51:31
渡口水域安全監(jiān)管技術(shù)研究
渡口水域安全監(jiān)管技術(shù)研究
全自動模擬目標(biāo)搜救系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)
動態(tài)場景中的視覺目標(biāo)識別方法分析
基于PC的視覺解決方案在 Delta機(jī)器人抓放中的應(yīng)用
價值工程(2016年32期)2016-12-20 20:36:15
移動機(jī)器人圖像目標(biāo)識別
基于深度學(xué)習(xí)的目標(biāo)反饋?zhàn)R別系統(tǒng)
东平县| 杨浦区| 孝昌县| 寻乌县| 柏乡县| 格尔木市| 遵义市| 广宗县| 招远市| 聂拉木县| 张家川| 大丰市| 许昌县| 卢氏县| 五莲县| 仙居县| 洛阳市| 辰溪县| 青岛市| 禹州市| 勃利县| 江源县| 甘肃省| 汶川县| 新乡市| 霍山县| 鸡西市| 江安县| 阿城市| 类乌齐县| 滨州市| 双江| 顺昌县| 农安县| 德阳市| 大兴区| 全州县| 丹棱县| 济源市| 荣昌县| 团风县|