宋青松 張超 田正鑫 陳禹 王興莉
摘 要:針對(duì)自然場(chǎng)景中交通標(biāo)志識(shí)別問(wèn)題涉及的識(shí)別準(zhǔn)確率和實(shí)時(shí)性改善需求,提出了一種改進(jìn)的基于多尺度卷積神經(jīng)網(wǎng)絡(luò)(CNN)的交通標(biāo)志識(shí)別算法.首先,通過(guò)圖像增強(qiáng)方法比選實(shí)驗(yàn),采用限制對(duì)比度自適應(yīng)直方圖均衡化方法作為圖像預(yù)處理方法,以改善圖像質(zhì)量.然后,提出一種多尺度CNN模型,用于提取交通標(biāo)志圖像的全局特征和局部特征.進(jìn)而,將組合后的多尺度特征送入全連接SoftMax分類器,實(shí)現(xiàn)交通標(biāo)志識(shí)別.采用德國(guó)交通標(biāo)志基準(zhǔn)數(shù)據(jù)庫(kù)(GTSRB)測(cè)試了所提算法的有效性,測(cè)試結(jié)果表明,算法在GTSRB基準(zhǔn)數(shù)據(jù)集上獲得98.82%的識(shí)別準(zhǔn)確率以及每幅圖像0.1 ms的識(shí)別速度,本文算法具有一定的先進(jìn)性.
關(guān)鍵詞:模式識(shí)別系統(tǒng);交通標(biāo)志識(shí)別;多尺度卷積神經(jīng)網(wǎng)絡(luò);SoftMax分類器
中圖分類號(hào):TP391.4 文獻(xiàn)標(biāo)志碼:A
Abstract:In view of the improvement requirements for accuracy and realtime performance of traffic sign recognition in natural scenes, an improved traffic sign recognition algorithm was proposed based on a multiscale Convolutional Neural Network (CNN). At first, the comparison experiments on image enhancement methods was carried out, and contrast limited adaptive histogram equalization method was chosen as the preprocessing method to improve the image quality. Then, one kind of multiscale CNN model was proposed to extract global and local features of the traffic sign images. Finally, the traffic signs were recognized after the combined multiscale features were put into a fully connected SoftMax classifier. The effectiveness of the proposed algorithm was examined on the benchmark datasetthe German Traffic Sign Recognition Benchmark (GTSRB). The examination results show that the proposed algorithm can achieve 98.82% recognition accuracy and realtime processing with 0.1 ms per image on GTSRB dataset, which verified its superiority to some extent.
Key words:pattern recognition systems;traffic sign recognition;multiscale convolutional neural network;SoftMax classifier
交通標(biāo)志識(shí)別是智能交通系統(tǒng)的重要組成部分,同時(shí)交通標(biāo)志識(shí)別是基于自然場(chǎng)景的識(shí)別,識(shí)別性能極易受到光照、天氣、運(yùn)動(dòng)模糊、旋轉(zhuǎn)傾斜、人為損壞等因素的影響.
在交通標(biāo)志識(shí)別算法中,傳統(tǒng)算法有隨機(jī)森林、支持向量機(jī)(Support Vector Machine,SVM)、線性判別分析(Linear Discriminant Analysis,LDA)等[1-4].以上方法,首先人工提取特征,如HOG特征(Histogram of Orientated Gradient,HOG)、Haar特征、SIFT特征(Scaleinvariant feature transform,SIFT)、LBP特征(Local Binary Pattern,LBP)等[5-8],之后利用特征進(jìn)行分類.大部分算法使用單一的特征進(jìn)行識(shí)別,但單一特征難以充分描述標(biāo)志的所有信息.文獻(xiàn)[3,9]使用組合特征進(jìn)行分類,將多種獨(dú)立的特征聯(lián)合起來(lái),多種特征優(yōu)勢(shì)互補(bǔ),在分類中取得了不錯(cuò)的效果.無(wú)論單一特征還是多特征組合都是基于人工提取的特征.近年來(lái)隨著深度學(xué)習(xí)的興起,很多分類方法不再通過(guò)人工選取的特征進(jìn)行分類,而是將彩色圖像或者灰度圖像直接輸入到卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN),通過(guò)CNN學(xué)習(xí)生成特征,此類特征在交通標(biāo)志分類問(wèn)題應(yīng)用中往往能夠改善分類性能[10-12].
文獻(xiàn)[12]提出了一種多列CNN組合的模型,共有25列CNN,每一列最后一層都使用了一個(gè)全連接的SoftMax分類器,最終得到25列網(wǎng)絡(luò)輸出的平均值作為該圖像的最終分類結(jié)果.文獻(xiàn)[13]通過(guò)旋轉(zhuǎn)、平移、縮放等方法擴(kuò)充了訓(xùn)練集,然后將灰度圖像直接輸入到CNN當(dāng)中,使用批量歸一化算法和支持向量機(jī)分類器加快收斂速度,縮短了訓(xùn)練時(shí)間.這些算法在德國(guó)交通標(biāo)志基準(zhǔn)數(shù)據(jù)庫(kù)(German Traffic Sign Recognition Benchmark,GTSRB)中均取得了較高的識(shí)別率;但是在算法中,文獻(xiàn)[12]訓(xùn)練多個(gè)CNN,而文獻(xiàn)[13]將數(shù)據(jù)集擴(kuò)增了3.9倍,都增加了訓(xùn)練的時(shí)間;并且以上方法使用的均為最后一層卷積層的特征進(jìn)行分類,特征尺度單一.多尺度特征在人臉識(shí)別、圖像分割等應(yīng)用中表現(xiàn)出一定的優(yōu)越性[14],但在交通標(biāo)志分類中的應(yīng)用還有待進(jìn)一步研究.
本文提出一種改善的基于多尺度CNN的交通標(biāo)志識(shí)別算法,首先開(kāi)展圖像預(yù)處理方法比選實(shí)驗(yàn)研究,改善圖像質(zhì)量;然后,設(shè)計(jì)多尺度CNN模型與方法,提取多尺度特征;最后,使用SoftMax分類器實(shí)現(xiàn)對(duì)交通標(biāo)志的識(shí)別分類.為便于與典型的交通標(biāo)志識(shí)別算法作橫向比較,基于GTSRB基準(zhǔn)數(shù)據(jù)庫(kù)開(kāi)展了算法性能對(duì)比實(shí)驗(yàn).
1 GTSRB基準(zhǔn)數(shù)據(jù)庫(kù)
波鴻大學(xué)在2011年神經(jīng)網(wǎng)絡(luò)國(guó)際聯(lián)合會(huì)議(IJCNN 2011)上,公布了由INIRTCV組織建立的德國(guó)交通標(biāo)志數(shù)據(jù)庫(kù)(GTSRB),并且舉辦了交通標(biāo)志識(shí)別大賽,從而為橫向比較各種典型的交通標(biāo)志識(shí)別算法提供了基準(zhǔn)數(shù)據(jù)庫(kù)[15].GTSRB數(shù)據(jù)庫(kù)中的交通標(biāo)志圖像全部從自然場(chǎng)景中采集得到,共有5大類43小類標(biāo)志,51 839幅圖像分為訓(xùn)練集和測(cè)試集兩部分,其中訓(xùn)練集39 209幅,測(cè)試集12 630幅.43小類交通標(biāo)志如圖1所示.
GTSRB數(shù)據(jù)庫(kù)中交通標(biāo)志圖像來(lái)源于車載高清攝像頭拍攝的視頻,交通標(biāo)志圖像是以“Track”為單位,每一幅圖像含有且僅有一個(gè)交通標(biāo)志,一個(gè)“Track”由包含同一類交通標(biāo)志的、分辨率從小到大的一組30幅圖像組成.每一類交通標(biāo)志都包含在至少9個(gè)“Track”中,如圖2所示.
2 算法設(shè)計(jì)
2.1 圖像預(yù)處理
鑒于GTSRB數(shù)據(jù)庫(kù)中交通標(biāo)志圖像質(zhì)量參差不齊這一事實(shí),首先開(kāi)展圖像預(yù)處理方法比選實(shí)驗(yàn)研究,減弱環(huán)境因素的影響,改善圖像質(zhì)量.預(yù)處理方法比選實(shí)驗(yàn)涉及圖像尺寸歸一化、圖像對(duì)比度增強(qiáng)兩部分.
2.1.1 尺寸歸一化
GTSRB數(shù)據(jù)庫(kù)中每幅圖像中都包含約占全圖面積10%的非交通標(biāo)志區(qū)域,并且明確標(biāo)注了該區(qū)域的位置.基于該標(biāo)注可以直接分割出完整的交通標(biāo)志.但是,如圖2所示,實(shí)際采集交通標(biāo)志識(shí)別的過(guò)程中,隨著攝像頭與交通標(biāo)志之間的距離變化,歸屬同一個(gè)“Track”的圖像分辨率在15×15到222×193像素之間變化,有必要首先作尺寸歸一化處理.
統(tǒng)計(jì)GTSRB數(shù)據(jù)庫(kù)中所有圖像分辨率大小,得到分辨率分布的中位數(shù)是41×40.插值方法是圖像尺寸變換的關(guān)鍵.雙線性插值法計(jì)算量適中,并且能夠保持灰度連續(xù).綜合運(yùn)算量和圖像特征盡可能保留兩方面考慮,本文使用雙線性插值法,將所有交通標(biāo)志圖像尺寸歸一化為32×32像素.
2.1.2 圖像增強(qiáng)
圖像增強(qiáng)通常通過(guò)改變對(duì)比度改善圖像質(zhì)量,直方圖修正是常用的一種圖像增強(qiáng)方法,能夠有效避免直接灰度變換圖像增強(qiáng)方法涉及的最優(yōu)參數(shù)取值難以確定這一問(wèn)題.使用直方圖均衡化、限制對(duì)比度自適應(yīng)直方圖均衡化兩種方法對(duì)圖像增強(qiáng)開(kāi)展比選實(shí)驗(yàn).兩種方法作用的效果如圖3所示.
限制對(duì)比度自適應(yīng)直方圖均衡化方法通過(guò)裁剪限幅實(shí)現(xiàn),裁剪閾值取0.01.從圖3中的第1、2和第3行可以看出,直方圖均衡化后的圖像背景噪聲增多,前景交通標(biāo)志和背景對(duì)比區(qū)分不明顯;而限制對(duì)比度自適應(yīng)均衡化方法導(dǎo)致的背景噪聲增大不明顯,前景交通標(biāo)志和背景對(duì)比區(qū)分明顯.從第4、第5行可以看出,限制對(duì)比度自適應(yīng)均衡化方法能夠進(jìn)一步突出圖像細(xì)節(jié),在第4行警告標(biāo)志中,前景三角形標(biāo)志與背景對(duì)比區(qū)分更顯著,第5行信號(hào)燈提示標(biāo)志中,不同信號(hào)燈對(duì)比區(qū)分更明顯.因此,限制對(duì)比度自適應(yīng)直方圖均衡化優(yōu)于直方圖均衡化,采用前者進(jìn)行圖像增強(qiáng).
2.2 多尺度卷積神經(jīng)網(wǎng)絡(luò)
CNN已經(jīng)被證實(shí)在多個(gè)圖像識(shí)別任務(wù)中表現(xiàn)出良好的特征表征能力.與常規(guī)的人工特征提取方法相比,CNN可以直接作用于彩色圖像,進(jìn)行特征提取.與常規(guī)神經(jīng)網(wǎng)絡(luò)相比,CNN使用局部感受野和權(quán)值共享機(jī)制,極大地降低了訓(xùn)練參數(shù)的數(shù)量,CNN使用池化技術(shù)能夠有效降低特征維度,并改善泛化性能.通常CNN由輸入層、卷積層、池化層、全連接層、輸出層等組成,全連接層基于最后一個(gè)池化層的輸出實(shí)現(xiàn)分類,特征尺度是單一的.Sermanet等[10]在基于CNN的分類中使用了全局和局部?jī)煞N不同尺度的特征,相對(duì)于單一尺度CNN,多尺度CNN將每一池化層的輸出都輸入到末端全連接層中用于分類,取得了良好效果.
針對(duì)交通標(biāo)志識(shí)別問(wèn)題,歸屬同一大類(如警告標(biāo)志、限速標(biāo)志等)交通標(biāo)志的小類之間的區(qū)別,主要在于圖像中心區(qū)域的局部圖案間的差異.實(shí)現(xiàn)交通標(biāo)志的準(zhǔn)確分類,需要全局特征(以區(qū)分大類)和邊緣、角點(diǎn)等局部特征相互組合,這一需求與多尺度CNN具有的多尺度特征融合內(nèi)在特性相吻合.因此,本文提出一種多尺度CNN模型用于交通標(biāo)志分類,將每一個(gè)池化層的輸出都施加到后端全連接層,以改善識(shí)別性能.
多尺度CNN結(jié)構(gòu)如圖4所示.輸入的是經(jīng)過(guò)預(yù)處理的交通標(biāo)志RGB圖像.CNN包含三層卷積層,第一卷積層使用32個(gè)5×5的卷積核,卷積跨度為1,權(quán)重正則項(xiàng)使用L2正則,系數(shù)為1×10-5;第二卷積層使用64個(gè)5×5的卷積核,其他參數(shù)與第一層相同.第三卷積層使用128個(gè)5×5的卷積核.三層最大池化層窗口均為2×2,跨度為2.第二池化層的特征經(jīng)過(guò)窗口為4×4、跨度為4的最大池化后與第三池化層特征連接,第一池化層的特征做同樣的操作并連接.將得到的多尺度特征串聯(lián),得到3 584維的特征,輸入到全連接層(神經(jīng)元個(gè)數(shù)為256);全連接層后接SoftMax輸出層(神經(jīng)元個(gè)數(shù)為43).
3 實(shí)驗(yàn)與分析
實(shí)驗(yàn)使用的計(jì)算機(jī)配置為I57500處理器,主頻3.4 GHz,內(nèi)存為8 G,Nvidia GeForce 1050Ti顯卡,顯存為2 G.基于GTSRB基準(zhǔn)數(shù)據(jù)庫(kù)測(cè)試算法有效性,算法實(shí)現(xiàn)基于Keras框架和TensorFlow開(kāi)源庫(kù).
3.1 多尺度CNN參數(shù)
針對(duì)卷積核大小,全連接層神經(jīng)元個(gè)數(shù),權(quán)重初始化方式,激活函數(shù)、優(yōu)化器,Dropout參數(shù)以及分類器等開(kāi)展比選實(shí)驗(yàn)研究,最終確定卷積核大小為5×5,全連接層神經(jīng)元個(gè)數(shù)256,權(quán)重初始化方式采用glorot uniform,使用ReLU作為激活函數(shù),損失函數(shù)使用交叉熵?fù)p失,優(yōu)化器使用Adam梯度下降算法,初始學(xué)習(xí)率為0.001,Dropout參數(shù)確定為0.5,SoftMax分類器進(jìn)行分類.在訓(xùn)練時(shí),使用EarlyStopping停止準(zhǔn)則,設(shè)置參數(shù)為60次;此外,在訓(xùn)練時(shí)還使用了動(dòng)態(tài)的學(xué)習(xí)率,防止訓(xùn)練時(shí)錯(cuò)過(guò)最小值點(diǎn),當(dāng)驗(yàn)證集的損失連續(xù)10次不降低時(shí),將學(xué)習(xí)率減小5倍,最小學(xué)習(xí)率設(shè)置為1×10-6;設(shè)置minibatch的大小為128,最大訓(xùn)練次數(shù)為1 000,驗(yàn)證集大小為訓(xùn)練集的25%.
1)卷積核尺寸.卷積神經(jīng)網(wǎng)絡(luò)的卷積核尺寸通常分別設(shè)置為3×3, 5×5,7×7.本文對(duì)此進(jìn)行比選實(shí)驗(yàn),結(jié)果如表1所示,表明采用5×5的卷積核,雖然訓(xùn)練時(shí)間相對(duì)較長(zhǎng),但識(shí)別準(zhǔn)確率最高,損失最小.
2)全連接層神經(jīng)元個(gè)數(shù).開(kāi)展了全連接層神經(jīng)元個(gè)數(shù)比選實(shí)驗(yàn),將神經(jīng)元個(gè)數(shù)分別設(shè)置為128、256和512,實(shí)驗(yàn)結(jié)果如表2所示.全連接層神經(jīng)元個(gè)數(shù)為256時(shí)損失最小,識(shí)別準(zhǔn)確率最高.
3)權(quán)重初始化方式.常用的初始化方式有g(shù)lorot normal[16],glorot uniform,he normal[17],he uniform等方法,對(duì)算法性能的影響如表3所示.采用glorot uniform作為權(quán)重初始化的模型不僅訓(xùn)練時(shí)間相對(duì)較短,而且損失最低,識(shí)別準(zhǔn)確率也最高,因此模型權(quán)重初始化方式采用glorot uniform.
4)激活函數(shù).不合適的激活函數(shù)會(huì)導(dǎo)致梯度飽和、梯度消失等現(xiàn)象.嘗試使用了Sigmoid、Tanh、ReLU[18]、LReLU、PReLU[17] 5種激活函數(shù),實(shí)驗(yàn)結(jié)果如表4所示.
由表4可知,使用ReLU作為激活函數(shù),雖然每次迭代的訓(xùn)練時(shí)間最長(zhǎng),但得到的損失最小,且識(shí)別準(zhǔn)確率最高,因此使用ReLU激活函數(shù).
5)優(yōu)化方法選擇.常用的優(yōu)化方法有SGD、Adagrad[19]、Adadelta[20]、RMSprop以及Adam[21],對(duì)算法性能的影響如表5所示.
發(fā)現(xiàn)在所有優(yōu)化方法中,雖然Adam每次迭代使用的時(shí)間最長(zhǎng),但是該方法訓(xùn)練的網(wǎng)絡(luò)模型損失最小,識(shí)別準(zhǔn)確率最高,因此使用Adam作為優(yōu)化方法.
6)Dropout參數(shù)設(shè)置.深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中,引入Dropout機(jī)制通??梢愿纳颇P偷姆夯芰?本文開(kāi)展了Dropout參數(shù)比選實(shí)驗(yàn),結(jié)果如表6所示,表明所提網(wǎng)絡(luò)模型中涉及的三層卷積層和最后一層全連接層每層的Dropout參數(shù)全部設(shè)置為0.5,損失最小,準(zhǔn)確率最高.
7)分類器選擇.網(wǎng)絡(luò)模型訓(xùn)練時(shí),使用SoftMax作為分類器,并得到SoftMax的分類準(zhǔn)確率.網(wǎng)絡(luò)模型訓(xùn)練完成后將整個(gè)訓(xùn)練集上,網(wǎng)絡(luò)全連接層的256維特征,用于SVM分類器的訓(xùn)練.同時(shí)比較不同的核函數(shù),對(duì)SVM分類器分類效果的影響.SVM分類器的訓(xùn)練時(shí)間,準(zhǔn)確率以及SoftMax分類器的準(zhǔn)確率如表7所示,實(shí)驗(yàn)結(jié)果表明SoftMax分類器的準(zhǔn)確率更高.
3.2 實(shí)驗(yàn)結(jié)果
多尺度CNN各項(xiàng)參數(shù)設(shè)置如3.1節(jié)所述,實(shí)際訓(xùn)練次數(shù)為437次,訓(xùn)練總用時(shí)4 029 s,訓(xùn)練過(guò)程中,訓(xùn)練集和驗(yàn)證集的損失變化曲線與識(shí)別準(zhǔn)確率變化曲線如圖5所示.
由圖5(a)可知,訓(xùn)練初期訓(xùn)練集和驗(yàn)證集的損失不斷在減小,在第377次迭代驗(yàn)證集損失取得最小值,訓(xùn)練集損失仍然不斷降低,但是驗(yàn)證集損失連續(xù)60次迭代不降低,由于設(shè)置EarlyStopping參數(shù)為60,所以在第437次迭代停止訓(xùn)練.從圖5(b)可以看到,訓(xùn)練集和驗(yàn)證集的識(shí)別準(zhǔn)確率在訓(xùn)練前期不斷上升,在后期訓(xùn)練集識(shí)別準(zhǔn)確率仍然不斷提高,但是驗(yàn)證集的識(shí)別準(zhǔn)確率卻呈現(xiàn)降低趨勢(shì).基于以上分析,本文算法在第377次迭代取得最好的訓(xùn)練結(jié)果,將第377次訓(xùn)練得到的模型用于測(cè)試集的測(cè)試.
對(duì)于測(cè)試集的12 630幅圖像,識(shí)別準(zhǔn)確率為98.82%,損失為0.067 3,測(cè)試用時(shí)1.295 s,平均每幅圖像0.1 ms,本文算法滿足交通標(biāo)志識(shí)別系統(tǒng)對(duì)實(shí)時(shí)性、準(zhǔn)確性的要求.
為了驗(yàn)證多尺度CNN相比于單一尺度CNN的優(yōu)越性,在相同參數(shù)下,分別使用本文算法和單一尺度CNN方法對(duì)交通標(biāo)志進(jìn)行識(shí)別,結(jié)果如表8所示.單一尺度的CNN沒(méi)有使用淺層的特征,只通過(guò)堆積卷積和池化,使用最后一層提取到的特征進(jìn)行分類.
從表8中可以看出,由于本文方法使用了多種尺度的特征,因此參數(shù)數(shù)量比單一尺度CNN多28%,訓(xùn)練時(shí)每次迭代的時(shí)間也要多1 s.雖然本文方法的訓(xùn)練時(shí)間要遠(yuǎn)遠(yuǎn)大于單一尺度CNN方法,但是兩者在識(shí)別12 630幅圖像的時(shí)間上相差無(wú)幾,因此在實(shí)際應(yīng)用中并不會(huì)產(chǎn)生影響,而且本文方法的損失要低于單一尺度CNN方法,說(shuō)明本文網(wǎng)絡(luò)模型的泛化性能更好,對(duì)交通標(biāo)志的特征表達(dá)能力更強(qiáng).本文方法得到98.82%的識(shí)別準(zhǔn)確率也要比單一尺度CNN高出0.44%,說(shuō)明本文使用的多尺度CNN比使用單一尺度CNN在交通標(biāo)志識(shí)別上具有一定的優(yōu)越性.
如表9所示,雖然本文方法的正確識(shí)別率低于文獻(xiàn)[12]中多列神經(jīng)網(wǎng)絡(luò)組合的正確率,但是本文方法在更低配置上的訓(xùn)練時(shí)間遠(yuǎn)遠(yuǎn)低于文獻(xiàn)[12]的37 h,并且本文方法的正確率高于文獻(xiàn)[12]單列神經(jīng)網(wǎng)絡(luò)最優(yōu)的識(shí)別率;本文方法的正確識(shí)別率與人類識(shí)別率98.84%相差無(wú)幾;本文在訓(xùn)練時(shí)間和準(zhǔn)確率上均優(yōu)于文獻(xiàn)[14]中的CNN和SVM的方法;而使用隨機(jī)森林、SVM和LDA對(duì)HOG特征進(jìn)行分類的方法正確率普遍偏低.
本文方法通過(guò)使用圖像預(yù)處理和多尺度CNN方法改善了訓(xùn)練速度慢、識(shí)別率低的問(wèn)題,能夠基于較差的硬件配置,花費(fèi)更少的訓(xùn)練時(shí)間,獲得較好的識(shí)別正確率.
4 結(jié) 論
為改善自然場(chǎng)景中交通標(biāo)志的識(shí)別效率,提出一種改進(jìn)的基于多尺度CNN的交通標(biāo)志識(shí)別算法.通過(guò)圖像預(yù)處理方法比選實(shí)驗(yàn),選取限制對(duì)比度自適應(yīng)直方圖均衡化方法用于圖像增強(qiáng),圖像質(zhì)量得到改善.提出一種多尺度CNN模型,優(yōu)化了CNN權(quán)重初始化方式、激活函數(shù)、優(yōu)化器等參數(shù)取值方案,用于提取交通標(biāo)志圖像的全局特征和局部特征.基于GTSRB數(shù)據(jù)庫(kù)的測(cè)試結(jié)果表明,算法取得了98.82%的識(shí)別準(zhǔn)確率和識(shí)別每幅圖像僅需0.1 ms的實(shí)時(shí)性能,具有一定的先進(jìn)性.
參考文獻(xiàn)
[1] BOI F,GAGLIARDINI L.A support vector machines network for traffic sign recognition[C]//International Joint Conference on Neural Networks.Washington DC: IEEE Computer Society,2011:2210-2216.
[2] WANG G,REN G,WU Z,et al.A hierarchical method for traffic sign classification with support vector machines[C]//The 2013 International Joint Conference on Neural Networks (IJCNN).Washington DC: IEEE Computer Society,2013:1-6.
[3] TANG S,HUANG L L.Traffic sign recognition using complementary features[C]//2013 2nd IAPR Asian Conference on Pattern Recognition (ACPR).Washington DC: IEEE Computer Society,2013:210-214.
[4] SUGIYAMA M.Local fisher discriminant analysis for supervised dimensionality reduction[C]//Proceedings of the 23rd International Conference on Machine Learning.New York: ACM,2006: 905-912.
[5] DALAL N,TRIGGS B.Histograms of oriented gradients for human detection[C]//IEEE Conference on Computer Vision & Pattern Recognition.Washington DC: IEEE Computer Society,2005:886-893.
[6] VIOLA P,JONES M.Rapid object detection using a boosted cascade of simple features[C]//Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Washington DC: IEEE Computer Society,2001:511-518.
[7] LOWE D G.Distinctive image fearures from scaleinvariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.
[8] OJALA T,HARWOOD I.A comparative study of texture measures with classification based on feature distributions[J].Pattern Recognition,1996,29(1):51-59.
[9] ZHU Y,WANG X,YAO C,et al.Traffic sign classification using twolayer image representation[C]//2013 20th IEEE International Conference on Image Processing (ICIP).Washington DC: IEEE Computer Society,2013:3755-3759.
[10]SERMANET P,LECUN Y.Traffic sign recognition with multiscale convolutional networks[C]//The 2011 International Joint Conference on Neural Networks (IJCNN).Washington DC: IEEE Computer Society,2011:2809-2813.
[11]DAN C,MEIER U,MASCI J,et al.Multicolumn deep neural network for traffic sign classification[J].Neural Networks,2012,32(1):333-338.
[12]CIRESAN D,MEIER U,MASCI J,et al.A committee of neural networks for traffic sign classification[C]//The 2011 International Joint Conference on Neural Networks (IJCNN).Washington DC: IEEE Computer Society,2011: 1918-1921.
[13]王曉斌,黃金杰,劉文舉.基于優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的交通標(biāo)志識(shí)別[J].計(jì)算機(jī)應(yīng)用,2017,37(2):530-534.
WANG X B,HUANG J J,LIU W J.Traffic sign recognition based on optimized convolutional neural network architecture[J].Journal of Computer Applications,2017,37(2): 530-534.(In Chinese)
[14]LONG J,SHELHAMER E,DARRELL T.Fully convolutional networks for semantic segmentation[C]//IEEE Conference on Computer Vision and Pattern Recognition.Washington DC: IEEE Computer Society,2015:3431-3440.
[15]NAMOR A F D D,SHEHAB M,KHALIFE R,et al.The German traffic sign recognition benchmark: A multiclass classification competition[C]//International Joint Conference on Neural Networks.Washington DC: IEEE Computer Society,2011:1453-1460.
[16]GLOROT X,BENGIO Y.Understanding the difficulty of training deep feedforward neural networks[C]//Proceedings of the Thirteenth International Conference on Artificial Intelligence and Statistics (AISTATS 2010).Washington DC: IEEE Computer Society,2010:249-256.
[17]HE K,ZHANG X,REN S,et al.Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition.Washington DC: IEEE Computer Society,2016:770-778.
[18]KRIZHEVSKY A,SUTSKEVER I,HINTON G E.ImageNet classification with deep convolutional neural networks[C]//Advances in Neural Information Processing Systems 25 (NIPS 2012),Neural Information Processing Systems Foundation,Inc,2012:1097-1105.
[19]DUCHI J,HAZAN E,SINGER Y.Adaptive subgradient methods for online learning and stochastic optimization[J].Journal of Machine Learning Research,2011,12(7):2121-2159.
[20]ZEILER M D.ADADELT A: An adaptive learning rate method[EB/OL]. (2017520).http://arxiv.org/abs/1212.5701,arXiv preprint.
[21]KINGMA D P,BA J.Adam: A method for stochastic optimization[C]// Proceedings of the 3rd International Conference on Learning Representations.New York: ACM,2015:1-15.