国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)FasterR—CNN的交通信號(hào)燈檢測(cè)

2019-05-24 14:13姚子兵
電腦知識(shí)與技術(shù) 2019年11期
關(guān)鍵詞:特征融合

姚子兵

摘要:為了解決復(fù)雜場(chǎng)景下交通信號(hào)燈的檢測(cè)存在檢測(cè)精度低的問題,提出一種基于改進(jìn)Faster R-CNN的交通信號(hào)燈檢測(cè)算法。首先針對(duì)交通信號(hào)燈檢測(cè)屬于小目標(biāo)檢測(cè),分析了影響交通信號(hào)燈檢測(cè)精度的因素,然后對(duì)Faster R-CNN目標(biāo)檢測(cè)算法提出二項(xiàng)改進(jìn):改進(jìn)錨設(shè)計(jì)和采用特征融合,最后在美國(guó)LISA交通信號(hào)燈檢測(cè)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)驗(yàn)證。實(shí)驗(yàn)結(jié)果表明,提出的算法能夠?qū)崿F(xiàn)復(fù)雜場(chǎng)景下交通信號(hào)燈的精確檢測(cè)。

關(guān)鍵詞: 交通信號(hào)燈檢測(cè); Faster R-CNN; 錨設(shè)計(jì); 特征融合

中圖分類號(hào):TP391.4 文獻(xiàn)標(biāo)識(shí)碼:A

文章編號(hào):1009-3044(2019)11-0274-03

Abstract:In order to solve the low detection accuracy of traffic lights in complex scenes, this paper proposes a traffic light detection algorithm based on improved Faster R-CNN. Firstly, according to the traffic light detection belongs to small target detection, and the factors of affecting the traffic light detection accuracy are analyzed. Secondly, two improvements were proposed for Faster R-CNN target detection algorithm: improves anchor design and uses feature fusion. Finally, the American LISA traffic light detection dataset was used for experimental verification. The experimental results show that the proposed algorithm can accurately detect traffic lights in complex scenes.

Key words:traffic light detection; Faster R-CNN; anchor design; feature fusion

1 引言

交通信號(hào)燈的檢測(cè)是智能交通系統(tǒng)與無人駕駛領(lǐng)域研究的重要內(nèi)容,但是在實(shí)際場(chǎng)景中,由于周圍環(huán)境的復(fù)雜,加大了交通信號(hào)燈檢測(cè)的難度,造成了檢測(cè)的精度達(dá)不到實(shí)際要求。傳統(tǒng)的交通信號(hào)燈檢測(cè)方法,通常利用交通信號(hào)燈的顏色與形狀特征來提取圖像中交通信號(hào)燈的候選區(qū)域,再利用特征提取算法對(duì)候選區(qū)域進(jìn)行特征提取,最后根據(jù)提取到的特征訓(xùn)練分類器來識(shí)別交通信號(hào)燈的類別。Omachi M等提出通過對(duì)圖像進(jìn)行RGB色彩空間轉(zhuǎn)換,然后利用像素的邊緣信息分割出交通信號(hào)燈的感興趣區(qū)域,最后利用霍夫變換來識(shí)別交通信號(hào)燈[1]。最近由于卷積神經(jīng)網(wǎng)絡(luò)的成熟應(yīng)用,目標(biāo)檢測(cè)領(lǐng)域取得了一系列成就?;诰矸e神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法可以使用一個(gè)統(tǒng)一的網(wǎng)絡(luò)進(jìn)行端到端的訓(xùn)練來同時(shí)完成目標(biāo)的檢測(cè)與識(shí)別。目前涌現(xiàn)出了一批很好的目標(biāo)檢測(cè)算法,例如Faster R-CNN[2]、YOLO[3]、SSD[4]等,這些算法都能夠用來對(duì)交通信號(hào)燈的檢測(cè)進(jìn)行研究。Julian Müller等就提出使用SSD檢測(cè)交通信號(hào)燈,通過使用Inception-v3[5]網(wǎng)絡(luò)代替VGG16[6]網(wǎng)絡(luò)作為基礎(chǔ)網(wǎng)絡(luò),而且針對(duì)SSD的先驗(yàn)框設(shè)計(jì)提出隨機(jī)中心點(diǎn)的先驗(yàn)框設(shè)計(jì)策略,該方法取得了不錯(cuò)的檢測(cè)效果[7]。

本文使用Caffe深度學(xué)習(xí)框架,針對(duì)交通信號(hào)燈檢測(cè)屬于小目標(biāo)檢測(cè)的問題,改進(jìn)了Faster R-CNN中的錨設(shè)計(jì),并且采用了特征融合,最后在美國(guó)LISA交通信號(hào)燈檢測(cè)數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)驗(yàn)證與結(jié)果分析。

2 改進(jìn)的Faster R-CNN算法

2.1 Faster R-CNN的基本結(jié)構(gòu)

Faster R-CNN目標(biāo)檢測(cè)算法由兩大模塊:Fast R-CNN目標(biāo)檢測(cè)算法和候選區(qū)域生成網(wǎng)絡(luò)(Region Proposal Network, RPN)構(gòu)成,通過共享卷積特征的方式將 RPN 和 Fast R-CNN 統(tǒng)一到一個(gè)端到端的網(wǎng)絡(luò)中,解決了在提取圖像中目標(biāo)候選區(qū)域時(shí),需要額外使用選擇性搜索的方法,而消耗大量時(shí)間的問題。在具體實(shí)現(xiàn)中,F(xiàn)aster R-CNN首先利用特征提取網(wǎng)絡(luò)對(duì)輸入待測(cè)圖像進(jìn)行特征提取,生成特征圖,接著利用RPN對(duì)特征圖進(jìn)行處理,輸出多種尺度和寬高比的目標(biāo)候選區(qū)域,然后將特征圖與目標(biāo)候選區(qū)域輸入到ROI Pooling,輸出固定大小的目標(biāo)候選區(qū)域特征圖,最后將目標(biāo)候選區(qū)域特征圖輸入到分類與邊界框回歸網(wǎng)絡(luò)對(duì)目標(biāo)進(jìn)行分類,同時(shí)對(duì)目標(biāo)的邊界框進(jìn)行回歸,如圖1所示為Faster R-CNN的基本結(jié)構(gòu)。從圖中可以看出Faster R-CNN包含三個(gè)網(wǎng)絡(luò):特征提取網(wǎng)絡(luò)、RPN、分類與邊界框回歸網(wǎng)絡(luò),在特征提取網(wǎng)絡(luò)中所使用的能夠共享卷積特征的網(wǎng)絡(luò)是VGG16。

2.2 改進(jìn)的錨設(shè)計(jì)

Faster R-CNN開始是在PASCAL VOC數(shù)據(jù)集上進(jìn)行訓(xùn)練評(píng)估,而PASCAL VOC數(shù)據(jù)集中的目標(biāo)在圖片中的占比較大,因此Faster R-CNN采用三種尺度(128x128、256x256、512x512)和三種寬高比(1:2、1:1、2:1)共9種錨設(shè)計(jì),而交通信號(hào)燈檢測(cè)屬于小目標(biāo)檢測(cè),交通信號(hào)燈在圖片中的占比非常小,因此本文采用縮小尺度的錨設(shè)計(jì),即采用尺度為(32x32、64x64、128x128)和寬高比為(1:2、1:1、2:1)共9種錨設(shè)計(jì),這樣的錨設(shè)計(jì)在RPN中才能更好地生成適合目標(biāo)大小的候選區(qū)域。

2.3 特征融合

采用VGG16網(wǎng)絡(luò)作為Faster R-CNN的基礎(chǔ)網(wǎng)絡(luò),當(dāng)待測(cè)圖片輸入到Faster R-CNN的特征提取網(wǎng)絡(luò)時(shí)會(huì)經(jīng)過五個(gè)卷積塊(Conv1、Conv2、Conv3、Conv4、Conv5)的特征提取,由于每一個(gè)卷積塊后都采用了卷積核大小為2x2,步長(zhǎng)為2的最大池化(Max Pooling),因此特征圖的分辨率將不斷減小。對(duì)于交通信號(hào)燈這樣的小目標(biāo)而言,在淺層特征圖上具有豐富的邊緣與輪廓等細(xì)節(jié)信息,因此特征提取網(wǎng)絡(luò)的淺層特征圖有利于檢測(cè)交通信號(hào)燈,但是淺層特征圖缺乏豐富的語義信息,無法很好地將交通信號(hào)燈與背景區(qū)分開,而深層特征圖上具有豐富的語義信息,但是深層特征圖由于分辨率較低,其上保留的小目標(biāo)的細(xì)節(jié)信息很弱。為了兼顧這兩方面的特征,提出將Conv5_3的特征圖經(jīng)過反卷積后得到與Conv4_3相同尺度的特征圖,接著將二者進(jìn)行特征融合,然后將特征融合后的特征圖Conv45輸入RPN生成目標(biāo)候選區(qū)域,接著將Conv45特征圖與RPN生成的目標(biāo)候選區(qū)域一同輸入ROI Pooling得到固定大小的目標(biāo)候選區(qū)域特征圖,最后將得到的目標(biāo)候選區(qū)域特征圖輸入Faster R-CNN的分類與邊界框回歸網(wǎng)絡(luò),對(duì)交通信號(hào)燈進(jìn)行分類,同時(shí)對(duì)交通信號(hào)燈的邊界框再次進(jìn)行回歸修正。圖2是改進(jìn)的Faster R-CNN網(wǎng)絡(luò)設(shè)計(jì),其中的特征融合模塊設(shè)計(jì)如圖3所示。

特征融合模塊設(shè)計(jì)具體流程:在圖3中,先將Conv5_3特征圖進(jìn)行通道數(shù)為512、卷積核為2x2、步長(zhǎng)為2的反卷積操作,得到與Conv4_3特征圖尺度大致一致的特征圖(由于Conv5_3特征圖的尺度為38x63,經(jīng)過反卷積后只能近似得到與Conv4_3特征圖相同的尺度),經(jīng)過ReLU激活操作后,接著進(jìn)行通道數(shù)為512、卷積核為3x3、步長(zhǎng)為1、填充為1的卷積操作,再經(jīng)過ReLU激活操作后,接著進(jìn)行L2 Normalization(歸一化)操作,而Conv4_3特征圖也進(jìn)行L2 Normalization(歸一化)操作,然后將Conv5_3這一路的特征圖通過Crop操作裁剪為與Conv4_3這一路的特征圖相同的尺度,最后將兩路特征圖通過Eltwise(PROD)方式進(jìn)行特征融合,再通過ReLU激活操作后得到特征融合后的Conv45特征圖。

3 實(shí)驗(yàn)結(jié)果分析

3.1 交通信號(hào)燈檢測(cè)數(shù)據(jù)集

LISA交通信號(hào)燈檢測(cè)數(shù)據(jù)集是美國(guó)加州大學(xué)圣地亞哥分校智能和安全汽車實(shí)驗(yàn)室發(fā)布的公開數(shù)據(jù)集。選取了該數(shù)據(jù)集中圖片背景是白天的數(shù)據(jù)集,選取的數(shù)據(jù)集經(jīng)篩選后一共包含12755張圖片,圖片大小為960x1280,通道數(shù)為3,圖片中包含的交通信號(hào)燈類別有stop、stopLeft、go、goLeft、warning、warningLeft一共6類。為了對(duì)本文的算法進(jìn)行實(shí)驗(yàn)評(píng)估,需要將數(shù)據(jù)集進(jìn)行訓(xùn)練、驗(yàn)證、測(cè)試樣本劃分,其中訓(xùn)練驗(yàn)證樣本7665張圖片,包含訓(xùn)練樣本5215張圖片,驗(yàn)證樣本2450張圖片;測(cè)試樣本5110張圖片。

3.2 實(shí)驗(yàn)評(píng)價(jià)指標(biāo)

本文交通信號(hào)燈檢測(cè)評(píng)價(jià)指標(biāo)采用目標(biāo)檢測(cè)領(lǐng)域常用的平均精確度均值(mean Average Precision, mAP)來衡量。

P-R曲線即是以 Precision 和 Recall 作為縱、橫軸坐標(biāo)的二維曲線,P-R曲線圍起來的面積就是平均精確度(Average Precision, AP)。在交通信號(hào)燈檢測(cè)效果衡量中,每一類都可以根據(jù)Precision 和 Recall繪制P-R曲線,從而得到AP值,用來表示某一類的檢測(cè)效果,AP值越高,該類檢測(cè)效果就越好,而使用的交通信號(hào)燈檢測(cè)數(shù)據(jù)集總共有六種類別,因此采用平均精確度均值,即mAP值來表示多類別交通信號(hào)燈檢測(cè)的效果。mAP值是對(duì)每個(gè)類別的AP值求平均得到的,因此mAP值越高,表示交通信號(hào)燈的整體檢測(cè)效果越好。

3.3 結(jié)果分析

本文所提出的改進(jìn)算法記為E-Faster R-CNN,表1是利用本文所述數(shù)據(jù)集與評(píng)價(jià)指標(biāo)得到的兩種算法的AP值與mAP值,圖4是兩種算法的實(shí)際檢測(cè)效果圖。

4 結(jié)論

本文針對(duì)交通信號(hào)燈檢測(cè)屬于小目標(biāo)檢測(cè),對(duì)Faster R-CNN算法進(jìn)行改進(jìn)錨設(shè)計(jì)和采用特征融合。實(shí)驗(yàn)結(jié)果表明本文提出的E-Faster R-CNN算法比Faster R-CNN算法,在交通信號(hào)燈各個(gè)類別的AP值與整體mAP值上均有很大提高,而且兩種算法的實(shí)際檢測(cè)效果對(duì)比圖也能清晰地表明E-Faster R-CNN算法具有比Faster R-CNN算法更好的檢測(cè)性能,能夠?qū)崿F(xiàn)復(fù)雜場(chǎng)景下交通信號(hào)燈的精確檢測(cè)。

參考文獻(xiàn):

[1] Omachi M, Omachi S. Traffic light detection with color and edge information[C]. IEEE International Conference on Computer Science and Information Technology, 2009:284-287.

[2] Shaoqing R, Kaiming H. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[J]. IEEE Transactions on pattern analysis and machine intelligence, 2017:1137-1149.

[3] Joseph Redmon, Santosh Divvala, Ross Girshick,et al. You Only Look Once: Unified, Real-Time Object Detection[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2016:779-788 .

[4] Wei Liu, Dragomir Anguelov. SSD: Single Shot MultiBox Detector[C]. The European Conference on Computer Vision (ECCV), 2016:21-37.

[5] Christian Szegedy, Vincent Vanhoucke, Sergey Ioffe, et al. Rethinking the Inception Architecture for Computer Vision[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2016:2818-2826.

[6] Simonyan K, Zisserman A. Very Deep Convolutional Networks for Large-Scale Image Recognition[C].The International Conference of Learning Representation, 2015:1-14.

[7] Müller Julian, Dietmayer K. Detecting Traffic Lights by Single Shot Detection[C]. IEEE International Conference on Intelligent Transportation Systems, 2018:266-273.

【通聯(lián)編輯:代影】

猜你喜歡
特征融合
基于移動(dòng)端的樹木葉片識(shí)別方法的研究
融合整體與局部特征的車輛型號(hào)識(shí)別方法
浑源县| 揭东县| 辰溪县| 潮州市| 阿鲁科尔沁旗| 铁岭县| 竹北市| 仙桃市| 措美县| 宣城市| 息烽县| 务川| 英山县| 武汉市| 汶川县| 许昌县| 广安市| 故城县| 伊宁市| 万山特区| 都匀市| 深圳市| 太仆寺旗| 湖南省| 义马市| 新竹县| 长汀县| 靖远县| 邵东县| 五寨县| 鄱阳县| 美姑县| 平顺县| 柘荣县| 山阳县| 彭水| 潢川县| 湛江市| 洛阳市| 台山市| 长岛县|