国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于霧天復(fù)雜場景下的道路目標(biāo)檢測研究

2023-05-30 10:48王鵬王玉林焦博文
關(guān)鍵詞:目標(biāo)檢測

王鵬 王玉林 焦博文

摘要:針對(duì)智能駕駛車輛在霧天場景下行駛時(shí),視野內(nèi)的大量檢測目標(biāo)存在被煙霧遮擋而導(dǎo)致目標(biāo)難以被檢測的問題,本文提出了一種先去霧再檢測的道路目標(biāo)檢測方法。對(duì)采集的霧天圖像進(jìn)行基于暗通道先驗(yàn)理論去霧處理,再將其送入訓(xùn)練好的YOLOv3目標(biāo)檢測模型進(jìn)行推理檢測,并在去霧算法中引入導(dǎo)向?yàn)V波方法。為使YOLOv3檢測模型具有更好的檢測性能,將目標(biāo)框回歸損失函數(shù)從原來的CIoU改進(jìn)為SIoU,并在BBD100K數(shù)據(jù)集的部分標(biāo)注圖像下進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明,在YOLOv3網(wǎng)絡(luò)模型下,使用CIoU損失函數(shù)時(shí)檢測精度為45.8%,使用SIoU損失函數(shù)時(shí)檢測精度為46.6%,提升了0.8%;將霧化圖像經(jīng)過去霧處理后再進(jìn)行目標(biāo)檢測,其不同霧化程度圖像的檢測精度分別由28.7%,25.1%,19.0%和8.35%提高到43.1%,40.5%,36.1%和26.7%,檢測精度得到了大幅提升。該方法對(duì)霧天道路目標(biāo)檢測具有較好的檢測性能,既降低霧天道路目標(biāo)的檢測難度,又提高了駕駛的安全性。該研究具有一定的實(shí)際應(yīng)用價(jià)值。

關(guān)鍵詞:目標(biāo)檢測; 暗通道先驗(yàn)去霧算法; 導(dǎo)向?yàn)V波; YOLOv3; SIoU

中圖分類號(hào):TP391.4

文獻(xiàn)標(biāo)識(shí)碼:A

文章編號(hào):1006-9798(2023)02-0037-09; DOI:10.13306/j.1006-9798.2023.02.006

作者簡介:王鵬(1996-),男,碩士研究生,主要研究方向?yàn)橹悄荞{駛和目標(biāo)檢測。

通信作者:王玉林(1964-),男,博士,教授,主要研究方向?yàn)橹悄荞{駛。 Email:wangyuln@163.com

近年來,隨著人工智能技術(shù)的不斷發(fā)展,各大企業(yè)和高校的研究學(xué)者們對(duì)汽車智能駕駛的自動(dòng)化和智能化的發(fā)展做出了大量研究。目標(biāo)檢測作為計(jì)算機(jī)視覺和圖像識(shí)別的重要研究領(lǐng)域[1-2],是車輛基于攝像頭與激光雷達(dá)對(duì)周圍環(huán)境感知的重要方法之一,也是智能駕駛汽車安全行駛的關(guān)鍵。各種智能駕駛汽車研究的視覺感知傳感器主要有激光雷達(dá)和攝像頭2種。其中,激光雷達(dá)具有高精度三維立體感知和不易受天氣變化的影響,但價(jià)格昂貴,感知距離較近,因此在車輛智能化發(fā)展中,其適用范圍具有一定的局限性。而攝像頭具有視距遠(yuǎn)和價(jià)格經(jīng)濟(jì)實(shí)惠的特點(diǎn),但基于攝像頭視覺的目標(biāo)檢測易受天氣狀況影響,特別是在霧霾天氣下,由于霧霾遮擋導(dǎo)致攝像頭視野內(nèi)目標(biāo)不能清楚顯示,對(duì)檢測任務(wù)造成了巨大挑戰(zhàn),因此去霧算法研究成為計(jì)算機(jī)視覺研究的熱點(diǎn)話題之一[3-4]。目前,主要的去霧算法主要有直方圖均衡化[5]、基于暗通道先驗(yàn)理論去霧[6]、濾波方法以及基于深度學(xué)習(xí)算法去霧[7-8]等,而按照算法劃分,去霧算法可以分為基于物理模型、基于非物理模型和基于深度學(xué)習(xí)算法3種。對(duì)于目標(biāo)檢測算法,主要分為二階段檢測算法和一階段檢測算法2種,二階段檢測算法主要以R-CNN[9]、Faster R-CNN[10]為代表,主要利用遍歷的方法,在整個(gè)特征圖區(qū)域內(nèi)對(duì)目標(biāo)候選框進(jìn)行選取,并進(jìn)行分類處理,由于其使用遍歷整個(gè)特征圖的方法,在整個(gè)推理計(jì)算過程中引入了大量計(jì)算,導(dǎo)致整個(gè)模型在檢測速度較慢,難以確保實(shí)時(shí)性。為了提高目標(biāo)檢測速度,一些學(xué)者又提出了YOLO算法[11-16]和SSD算法(single shot multibox detector,SSD) [17]為代表的一階段檢測算法,其主要是基于端到端的目標(biāo)框回歸,對(duì)檢測目標(biāo)進(jìn)行分類和定位。與二階段檢測算法相比,一階段檢測算法雖然檢測精度稍有降低,但檢測速度卻大幅提升?;诖?,為了提高道路目標(biāo)檢測中霧天場景下的檢測精度,本文將暗通道先驗(yàn)去霧算法[6]與YOLOv3[13]相結(jié)合,將霧天圖像通過暗通道理論生成暗通道圖像,并以霧天圖像為導(dǎo)向圖像,結(jié)合暗通道圖像作導(dǎo)向?yàn)V波[18]處理,同時(shí)對(duì)霧天圖像基于暗通道先驗(yàn)去霧,將去霧后的圖像送入YOLOv3目標(biāo)檢測模型進(jìn)行檢測,輸出檢測圖像和檢測目標(biāo)。實(shí)驗(yàn)結(jié)果表明,該研究的檢測精度得到了大幅提升。該方法對(duì)霧天道路目標(biāo)檢測具有較好的檢測性能。

1 霧天目標(biāo)檢測研究

1.1 基于暗通道去霧算法研究

通過對(duì)大量高清霧天圖片研究發(fā)現(xiàn),在每幅RGB圖像中,均有1個(gè)灰度值很低的通道存在,基于此,文獻(xiàn)\[6\]提出了基于暗通道理論的先驗(yàn)去霧算法,即

式中,Jdark(x)表示待去霧圖像3個(gè)通道中取最小值組成的灰度值;Jc表示RGB圖像的每個(gè)通道;c表示圖像的r,g,b通道;Ω(x)表示以像素x為中心的窗口。根據(jù)暗通道理論,當(dāng)Jdark(x)→0有霧時(shí),灰度圖呈現(xiàn)為一定的灰色,而在無霧時(shí),灰度圖則顯示大量的黑色。

在RGB圖像中,廣泛使用原始圖像(即待去霧圖像)模型描述霧天圖像,即

式中,I(x)為原始圖像(即待去霧圖像);J(x)為恢復(fù)的無霧圖像;A為大氣光照成分;t(x)為光照透射率。

對(duì)式(2)進(jìn)行歸一化處理,兩邊同時(shí)除以圖像每一個(gè)通道的大氣光值,得

假若大氣光照成分A和光照透射率t(x)均為已知常數(shù),將t(x)估計(jì)值記為(x),再對(duì)式(3)同時(shí)引入暗通道計(jì)算公式進(jìn)行計(jì)算處理,即對(duì)式(3)兩邊進(jìn)行2次最小值計(jì)算,由于(x)是已知常量,因此可直接在最小值計(jì)算外進(jìn)行計(jì)算,計(jì)算結(jié)果為

不管在何種天氣,大氣光照成分均會(huì)存在,特別是當(dāng)觀測物體越遠(yuǎn)時(shí),對(duì)于視野內(nèi)事物的層次感,這種由大氣光照成分給人的視覺帶來的差異將更明顯,因此需在去霧后的圖像中保留該特性,以便與真實(shí)情況更加切合。引入一個(gè)去霧控制常量約束去霧程度,一般取值在(0,1)之間,本文取ω=0.95。光照透射率估計(jì)值為

1.2 導(dǎo)向?yàn)V波

與其他算法相比,導(dǎo)向?yàn)V波[18]作為圖像濾波處理經(jīng)典算法,在圖像邊緣效果更為突出。導(dǎo)向?yàn)V波是用來表述導(dǎo)向圖像與輸出圖像之間關(guān)系的一種局部的線性模型,對(duì)于不同大小的導(dǎo)向圖像,在局部化窗口下,兩者之間的關(guān)系線性表述為

通過上述過程求解出參數(shù)ak和bk的值,即求得式(11)導(dǎo)向?yàn)V波輸出圖像線性模型。而對(duì)于不同大小的窗口,則會(huì)求得不同大小導(dǎo)向?yàn)V波輸出的值。以窗口均值作為導(dǎo)向?yàn)V波最后輸出結(jié)果,不同大小導(dǎo)向?yàn)V波輸出的值為

本文采用導(dǎo)向?yàn)V波的方法,實(shí)現(xiàn)對(duì)圖像保留邊緣濾波、去噪、邊緣羽化和對(duì)比度增強(qiáng)等效果,但在使用導(dǎo)向?yàn)V波方法時(shí),導(dǎo)向圖像和原始輸入圖像不一致,會(huì)帶來一些不必要的困難。因此,在使用導(dǎo)向?yàn)V波時(shí),將導(dǎo)向圖像與輸入圖像采用同一張圖像[19],即I=p,則ak與bk2個(gè)參數(shù)的求解可簡化為

1.3 YOLOv3網(wǎng)絡(luò)架構(gòu)

YOLOv3是端到端目標(biāo)檢測經(jīng)典算法,YOLOv3網(wǎng)絡(luò)模型采用特征提取網(wǎng)絡(luò)(DarkNet-53)和特征金字塔網(wǎng)絡(luò)(feature pyramid networks,F(xiàn)PN),并對(duì)不同層特征信息,使用不同大小的檢測器預(yù)測目標(biāo)的邊界框、置信度和分類得分。YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

YOLOv3基于殘差網(wǎng)絡(luò)和特征融合的思想,提出DarkNet-53主干特征提取網(wǎng)絡(luò)主要由DBL、Res、上采樣、特征拼接(Concat)、空間金字塔池化(spatial pyramid pooling,SPP)等模塊構(gòu)成。DBL由卷積、標(biāo)準(zhǔn)化和Leaky ReLU激活函數(shù)3部分組成,它也是DarkNet網(wǎng)絡(luò)中最基礎(chǔ)的單元結(jié)構(gòu)。Res表示殘差模塊減少了檢測模型搭建和訓(xùn)練的難度,同時(shí)也提升了檢測精度。

通過上采樣,將前一卷積每個(gè)輸出通道上的特征圖擴(kuò)大1倍,為之后與淺層特征圖拼接融合作出了一定的過渡準(zhǔn)備。Concat能夠融合不同特征圖的特征信息,進(jìn)而提升算法的檢測精度。SPP通過5×5,9×9,13×13最大池化,并采取并行的方法對(duì)圖像特征進(jìn)一步融合,在一定程度上解決了多尺度目標(biāo)融合問題。

針對(duì)同一幅圖像中不同大小尺度的檢測目標(biāo),YOLOv3具有較好的檢測效果。它使用3個(gè)大小分別是20×20,40×40,80×80的特征圖,對(duì)這3種特征圖通過卷積核大小為1×1,步長為1的卷積計(jì)算,實(shí)現(xiàn)對(duì)特征圖和通道的整合調(diào)整,然后進(jìn)行分類、置信度和回歸損失計(jì)算,其損失計(jì)算公式為

式中,第1項(xiàng)為預(yù)測框與目標(biāo)框之間的中心坐標(biāo)損失,第2項(xiàng)為預(yù)測框與目標(biāo)框之間的寬高損失,第3和第4項(xiàng)為目標(biāo)置信度損失,最后1項(xiàng)為目標(biāo)分類損失。

1.4 回歸損失函數(shù)優(yōu)化

YOLOv3目標(biāo)檢測框回歸損失函數(shù)采用CIoU損失函數(shù)[20],它是在原真實(shí)框與預(yù)測框交并比[21](IoU)的基礎(chǔ)上,引入距離與橫縱比,但只考慮了真實(shí)框與預(yù)測框之間的距離誤差和2個(gè)框之間的高度與寬度的差異,并沒有考慮2個(gè)框之間方向不匹配,可能會(huì)導(dǎo)致收斂速度慢和收斂效率低的問題。為解決目標(biāo)框的方向角度回歸問題,文獻(xiàn)[22]提出了SIoU損失函數(shù),在原始IoU的基礎(chǔ)上,引入了角度感知、距離損失和形狀損失,以提高檢測模型訓(xùn)練時(shí)的速度與推理的準(zhǔn)確度。SIoU示意圖如圖2所示。

SIoU添加的角度感知首先會(huì)預(yù)測一個(gè)帶有X軸或Y軸,然后沿著相關(guān)的軸線方向?qū)︻A(yù)測框和真實(shí)框繼續(xù)接近。當(dāng)α≤π/4時(shí),收斂過程先最小化α,反之則最小化β。角度感知相關(guān)參數(shù)如下式所示

式中,bgtcx和bgtcy表示目標(biāo)框中心點(diǎn)坐標(biāo);bcx和bcy表示預(yù)測框中心點(diǎn)坐標(biāo);σ表示目標(biāo)框與預(yù)測框中心點(diǎn)間的距離;cw和ch表示目標(biāo)框與預(yù)測框中心點(diǎn)間在寬度和高度方向的差值。

SIoU對(duì)距離誤差進(jìn)行重新定義,給出了不同CIoU的真實(shí)框與預(yù)測框之間的距離誤差計(jì)算方法,即

通過SIoU對(duì)距離誤差的定義,當(dāng)α趨近于0時(shí),則距離誤差對(duì)于整個(gè)目標(biāo)框回歸損失的作用則會(huì)限制,反之,當(dāng)α趨近于π/4時(shí),隨著α角度變大,整個(gè)目標(biāo)框回歸損失中距離誤差的作用則會(huì)逐漸提升。

SIoU在真實(shí)框和目標(biāo)框形狀誤差的計(jì)算,是將原來CIoU算法中使用歐氏距離的計(jì)算方法改進(jìn),即

式中,θ為控制形狀誤差關(guān)注程度的值,其選擇與具體的數(shù)據(jù)集有關(guān),若θ=1,則會(huì)優(yōu)化形狀誤差,從而降低預(yù)測框與真實(shí)框形狀的自由移動(dòng)。

目標(biāo)框回歸損失為

2 實(shí)驗(yàn)環(huán)境搭建與數(shù)據(jù)準(zhǔn)備

2.1 實(shí)驗(yàn)環(huán)境

本文所有實(shí)驗(yàn)均在Ubuntu18.04操作系統(tǒng)下進(jìn)行,深度框架為pytorch1.9、cuda11.1、cudnn8.0.5,GPU為NVIDIA GeForce GTX 1080Ti,運(yùn)行內(nèi)存為11GB,CPU為i7-9700KF,內(nèi)存為32 GB。

2.2 數(shù)據(jù)準(zhǔn)備

本實(shí)驗(yàn)均使用BDD100K[23]數(shù)據(jù)集,該數(shù)據(jù)集廣泛應(yīng)用于自動(dòng)駕駛機(jī)器視覺領(lǐng)域。BDD100K數(shù)據(jù)集圖像如圖3所示,BDD100K數(shù)據(jù)集包括10萬張圖像,包含美國各地不同時(shí)間段和天氣條件下的行車視角圖像。該數(shù)據(jù)集包括交通燈、交通標(biāo)志、汽車、卡車、公交車、行人等多個(gè)不同的標(biāo)注類別信息,是目前為止規(guī)模和多樣性最豐富的自動(dòng)駕駛數(shù)據(jù)集之一,基本滿足自動(dòng)駕駛場景中所需檢測的各類類別。

本文選取BDD100K數(shù)據(jù)集中的6 000張標(biāo)注圖像(包括汽車、卡車、公交車、人、自行車、摩托車、乘車人等7個(gè)標(biāo)注類別)分成訓(xùn)練集和驗(yàn)證集,對(duì)YOLOv3網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練。為保證檢測結(jié)果的準(zhǔn)確性及合理性,在驗(yàn)證不同煙霧濃度及暗通道先驗(yàn)去霧算法對(duì)道路目標(biāo)檢測效果影響的實(shí)驗(yàn)中,不同煙霧場景中采用同一驗(yàn)證數(shù)據(jù)集獲取圖像,且在不同煙霧濃度下,數(shù)據(jù)集的圖像及每個(gè)對(duì)應(yīng)目標(biāo)的類別和位置也相同,在正常采集數(shù)據(jù)時(shí),這種情況幾乎無法實(shí)現(xiàn)。因此,本文使用RGB通道,驗(yàn)證合成不同等級(jí)的霧化圖像,以模擬霧天的煙霧場景(霧化程度的數(shù)值越小,圖像中霧的濃度越高)。不同等級(jí)的霧化圖像如圖4所示,對(duì)同一圖像進(jìn)行不同程度的霧化,表示不同濃度煙霧的場景,對(duì)同一數(shù)據(jù)集中的數(shù)據(jù)特征使用同一目標(biāo)檢測模型進(jìn)行驗(yàn)證推理。

3 實(shí)驗(yàn)結(jié)果分析

3.1 SIoU效果分析

本文在BBD100K數(shù)據(jù)集的部分標(biāo)注圖像下進(jìn)行實(shí)驗(yàn),在SIoU與CIoU及YOLOv3網(wǎng)絡(luò)模型下,將圖像輸入分辨率設(shè)為640×640,訓(xùn)練250輪,最終獲得2種目標(biāo)框回歸算法檢測驗(yàn)證結(jié)果,SIoU與CIoU檢測精度對(duì)比如表1所示。由表1可知,在YOLOv3網(wǎng)絡(luò)模型下,使用CIoU損失函數(shù)時(shí),檢測精度為45.8%;使用SIoU損失函數(shù)時(shí),檢測精度為46.6%,提升了0.8%。

計(jì)算2種算法對(duì)目標(biāo)框回歸損失誤差的收斂情況,CIoU與SIoU目標(biāo)框損失誤差如圖5所示。

由圖5可以看出,CIoU與SIoU對(duì)目標(biāo)框的回歸損失的收斂速度和迭代訓(xùn)練250輪后得到的誤差結(jié)果基本一致,但從每次迭代局部表現(xiàn)來看,紅色的SIoU損失值總是略微低于CIoU損失值,這說明SIoU目標(biāo)框回歸性能不次于CIoU,且SIoU提升了檢測精度,證明使用SIoU損失函數(shù)對(duì)目標(biāo)框進(jìn)行回歸,會(huì)使所訓(xùn)練的模型具有更好的檢測性能。

3.2 不同程度霧化圖像對(duì)檢測精度的影響效果分析

使用訓(xùn)練好的YOLOv3目標(biāo)檢測模型,對(duì)不同煙霧濃度下的驗(yàn)證數(shù)據(jù)集進(jìn)行測試推理,不同程度霧化圖像檢測精度對(duì)比如表2所示。

由表2可知,圖像中的煙霧濃度越高,檢測目標(biāo)的精度越低,說明霧太大時(shí),目標(biāo)檢測難度提高,對(duì)自動(dòng)駕駛目標(biāo)檢測及駕駛安全性能帶來巨大的挑戰(zhàn),同時(shí)也說明在霧天場景下圖像去霧及提高檢測精度對(duì)駕駛安全的必要性。

3.3 去霧后檢測效果分析

對(duì)不同濃度的霧化圖像先進(jìn)行暗通道先驗(yàn)去霧處理,再通過訓(xùn)練好的YOLOv3檢測模型進(jìn)行推理驗(yàn)證,去霧前后圖像檢測精度對(duì)比結(jié)果如表3所示。

由表3可以看出,將霧化圖像經(jīng)過去霧處理后再進(jìn)行目標(biāo)檢測,與表2中不同程度霧化圖像檢測精度相比,檢測精度大幅提升,分別由28.7%,25.1%,19.0%和8.35%提高到43.1%,40.5%,36.1%和26.7%,證明本文所提出先去霧再檢測的方法對(duì)霧天道路目標(biāo)檢測具有較好的檢測性能,可將隱藏在大霧之中,不便于檢測的目標(biāo)顯露出來,大大降低了目標(biāo)檢測難度,提高了檢測精度。

本文對(duì)實(shí)際霧天場景下的圖像進(jìn)行去霧前、后檢測效果對(duì)比,去霧前后檢測效果對(duì)比如圖6所示。

由圖6可以看出,由于煙霧遮擋,導(dǎo)致檢測模型難以檢測到的目標(biāo)通過去霧算法進(jìn)行檢測,說明在霧天場景下,對(duì)圖像先去霧處理,然后再目標(biāo)檢測完全可行,既克服外部因素造成的檢測難度,也通過該方法避免了霧天場景數(shù)據(jù)集采集困難的問題。

4 結(jié)束語

本文將暗通道先驗(yàn)理論去霧算法、導(dǎo)向?yàn)V波、YOLOv3和SIoU相結(jié)合,推出了智能駕駛在霧天場景下基于計(jì)算機(jī)視覺的目標(biāo)檢測方法。實(shí)驗(yàn)結(jié)果表明,該方法能夠克服霧天等天氣因素造成的被檢測目標(biāo)不清晰,檢測難度大等問題,較好的改善霧天天氣狀況下檢測目標(biāo)的漏檢情況。將YOLOv3的目標(biāo)回歸損失函數(shù)從原來的CIoU損失函數(shù)改進(jìn)為SIoU損失函數(shù),使YOLOv3在BDD100K數(shù)據(jù)集下檢測精度從45.8%提高到46.6%,提升了0.8%。該研究對(duì)極端環(huán)境檢測工作具有重要意義。本研究會(huì)持續(xù)改進(jìn)去霧算法和目標(biāo)檢測網(wǎng)絡(luò)模型,以增強(qiáng)霧天目標(biāo)檢測算法的泛化能力和檢測的魯棒性。為提高對(duì)霧天等視野受限的極端天氣下目標(biāo)檢測準(zhǔn)確度,下一步將繼續(xù)對(duì)檢測算法和去霧算法進(jìn)行更深的優(yōu)化改進(jìn)。

參考文獻(xiàn):

[1] 何新宇,趙時(shí)璐,張震,等. 機(jī)器視覺的研究及應(yīng)用發(fā)展趨勢(shì)[J]. 機(jī)械設(shè)計(jì)與制造,2020,10(65):281-283.

[2] ZHANG X,XU S. Research on image processing tech nology of computer vision algorithm[C]∥2020 International Conference on Computer Vision. Nanchang,China:CVIDL,2020:122-124.

[3] 郭璠,蔡自興,謝斌,等. 圖像去霧技術(shù)研究綜述與展望[J]. 計(jì)算機(jī)應(yīng)用,2010,30(9):2417-2421.

[4] 江巨浪,劉國明,朱柱,等. 基于快速模糊聚類的動(dòng)態(tài)多直方圖均衡化算法[J]. 電子學(xué)報(bào),2022,50(1):167-176.

[5] 付澤. 國外載貨車駕駛室設(shè)計(jì)技術(shù)現(xiàn)狀及發(fā)展趨勢(shì)[J]. 交通世界,2006,20(4):44-49.

[6] HE K M,SUN J,TANG X O. Single image haze removal using dark channel prior[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(12):2341-2353.

[7] LI B Y,PENG X L,ZHANG Y,et al. An all-in-one network for dehazing and beyond[J]. Journal of Latex Class Files,2015,14(8):1-12.

[8] REN W Q,LIN M,ZHANG J W,et al. Gated fusion network for single image dehazing[C]∥2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City,USA:IEEE,2018:3253-3261.

[9] GIRSHICK R,DONAHUE J,DARRELL T,et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Columbus USA:IEEE,2014:580-587.

[10] REN S,HE K,GIRSHICK R,et al. Faster R-CNN:towards real time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,39(6):1137-1149.

[11] REDMON J,DIVVALA S K,GIRSHICK R B,et al. You only look once:unified,real-time object detection[C]∥IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas,NV,USA:IEEE,2016:779-788.

[12] REDMON J,F(xiàn)ARHADI A. YOLO9000:Better,F(xiàn)aster,Stronger[C]∥IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu Hawaii USA Piscataway:IEEE,2017:6517-6525.

[13] 李晶,黃山. 基于YOLOv3目標(biāo)跟蹤方法[J]. 電光與控制,2019,26(10):87-93.

[14] BOCHKOVSKIY A,WANG C Y,LIAO H Y. YOLOv4:Optimal speed and accuracy of object detection[EB/OL]. 2020[2021-09-23]. https:∥arxiv.org/pdf/2004.10934.pdf.

[15] WANG J F,CHEN Y,GAO M Y,et al. Improved YOLOv5 network for real-time multi-scale traffic sign detection[EB/OL]. Computer Vision and Pattern Recognition,2021,(2021-10-16)[2021-10-23]. http:∥doi.org/10.48550/arXiv.2112.08782.

[16] ZHENG G,LIU S T,WANG F,et al. YOLOX:Exceeding YOLO Series in 2021[EB/OL]. Computer Vision and Pattern Recognition,2021,(2021-07-18)[2021-08-06]. http:∥doi/10.48550/arXiv.2107.08430.

[17] LIU W,ANGUELOV D,ERHAN D,et al. SSD:Single shot MultiBox Detector[C]∥European Conference on Computer Vision. Springer,Cham:ECCV,2016:21-37.

[18] TANG X O,HE K M,SUN J. Guided image filtering[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2013,35(6):1397-1409.

[19] HE K M,SUN J. Fast guided filter[EB/OL]. Computer Vision and Pattern Recognition,2015(2015-05-05). http:∥arxiv.org/pdf/1505.00996.pdf.

[20] ZHENG Z H,WANG P,LIU W,et al. Distance-IoU loss:Faster and better learning for bounding box regression[J]. Thirty-Fourth AAAI Conference on Artificial Intelligence. AAAI,New York,USA:2020:12993-13000.

[21] YU J H,JIANG Y N,WANG Z Y,et al. Unitbox:An advanced object detection network[C]∥Proceedings of the 24th ACM International Conference on Multimedia. Amsterdam,Netherlands:ACM,2016:516-520.

[22] ZHORA G. SIoU loss:more powerful learning for bounding box regression[EB/OL]. Computer Vision and Pattern Recognition,2022(2022-05-25). http:∥arxiv.org/ftp/arxiv/papers/2205/2205.12740.pdf.

[23] YU F,CHEN H F,WANG X,et al. BDD100K:A diverse driving dataset for heterogeneous multitask learning[C]∥2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York,United States:CVPR,2020:2633-2642.

Abstract:Aiming at the problem that a large number of detection targets in the field of view are obscured by smoke when intelligent driving vehicles are driving in foggy scenes,and it is difficult to detect targets,this paper proposes a method of defogging first and then detection. The acquired foggy images are dehazing based on dark channel prior theory,and then the dehazing images are sent to the trained YOLOv3 target detection model for inference detection,and the guided filtering method is introduced into the dehazing algorithm. In order to make the YOLOv3 detection model have better detection performance,the regression loss function of the target box is improved from the original CIoU to SIoU,and experiments are carried out under the partially labeled images of the BBD100K dataset. Experimental results show that under the YOLOv3 network model,the detection accuracy is 45.8% when using the CIoU loss function and 46.6% when using the SIoU loss function,and the detection accuracy of the detection model is improved by 0.8%. The detection accuracy of the atomized images was improved from 28.7%,25.1%,19.0% and 8.35% to 43.1%,40.5%,36.1% and 26.7%,respectively,and the detection accuracy was greatly improved. It is proved that this method has good detection performance for foggy road target detection,which can not only reduce the difficulty of detecting foggy road targets,but also improve driving safety. This study has certain theoretical research and practical application value.

Key words:object detection; haze removal using dark channel prior; guided image filtering; YOLOv3; SIoU

猜你喜歡
目標(biāo)檢測
多視角目標(biāo)檢測與跟蹤技術(shù)的研究與實(shí)現(xiàn)
視頻中目標(biāo)檢測算法研究
行為識(shí)別中的人體運(yùn)動(dòng)目標(biāo)檢測方法
移動(dòng)機(jī)器人圖像目標(biāo)識(shí)別
基于背景建模法的運(yùn)動(dòng)目標(biāo)檢測
基于P3電位的目標(biāo)檢測研究
智能視頻技術(shù)在電力系統(tǒng)領(lǐng)域的應(yīng)用
相關(guān)K分布雜波中擴(kuò)展目標(biāo)積累檢測性能分析
基于連通域標(biāo)記的目標(biāo)檢測算法設(shè)計(jì)與實(shí)現(xiàn)
一種改進(jìn)的峰均功率比判源方法
习水县| 通许县| 沙坪坝区| 古浪县| 应用必备| 两当县| 青浦区| 六枝特区| 大田县| 丹巴县| 清原| 巴马| 银川市| 明星| 西藏| 泰和县| 孝昌县| 长垣县| 景德镇市| 松阳县| 公主岭市| 定陶县| 织金县| 什邡市| 即墨市| 灵丘县| 太白县| 霞浦县| 工布江达县| 祥云县| 昆山市| 寿光市| 娱乐| 闵行区| 石棉县| 朝阳区| 无棣县| 黄梅县| 建宁县| 磐石市| 曲阜市|