任條娟 陳鵬 陳友榮 江俊 游靜
(1.常州大學(xué),常州 213164;2.浙江樹(shù)人大學(xué),杭州 310015)
主題詞:感興趣區(qū)域 卷積神經(jīng)網(wǎng)絡(luò) 膠囊神經(jīng)網(wǎng)絡(luò) 空間信息 動(dòng)態(tài)路由 交通標(biāo)志
目前,車輛大多通過(guò)數(shù)字地圖獲得交通標(biāo)志信息[1],但只限于有地圖數(shù)據(jù)的道路,因此基于人工智能和機(jī)器視覺(jué)的道路交通標(biāo)志識(shí)別系統(tǒng)擁有大量的需求。
交通標(biāo)志識(shí)別的本質(zhì)是圖像的多分類問(wèn)題,部分學(xué)者側(cè)重于利用機(jī)器視覺(jué)領(lǐng)域的特征提取以及分類器等方法實(shí)現(xiàn)交通標(biāo)志圖像的識(shí)別分類,如:文獻(xiàn)[2]~文獻(xiàn)[4]分別使用圖像分塊的方向梯度特征和內(nèi)部局部二值模式特征進(jìn)行特征融合,提取圖像方向梯度特征,提取交通標(biāo)志邊緣顏色、形狀和文字等圖像特征,最后使用支持向量機(jī)(Support Vector Machine,SVM)進(jìn)行識(shí)別;文獻(xiàn)[5]在最大穩(wěn)定極值區(qū)域(Maximally Stable Extremal Regions,MSER)的基礎(chǔ)上,增加對(duì)黃色圖像的處理,通過(guò)卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)進(jìn)行定位;文獻(xiàn)[6]利用距離邊界向量的方式進(jìn)行檢測(cè)定位,提高其在弱光照條件下的圖像查全率;文獻(xiàn)[7]提出了一種基于嶺回歸和大津算法的檢測(cè)和識(shí)別交通標(biāo)志方法,使用HSV(Hue Saturation Value)進(jìn)行閾值分割,提取感興趣區(qū)域(Region of Interest,ROI),并用大津算法提取徑向直方圖特征,使用多層感知器實(shí)現(xiàn)分類。文獻(xiàn)[2]~文獻(xiàn)[7]需要人工設(shè)計(jì)先驗(yàn)知識(shí)的特征,且特征提取較為復(fù)雜,需花費(fèi)大量的人力和時(shí)間。部分學(xué)者側(cè)重于研究適用于交通標(biāo)志識(shí)別的CNN等深度學(xué)習(xí)算法。深度學(xué)習(xí)算法無(wú)需人工構(gòu)造任何圖像特征,直接提取整張圖像像素作為網(wǎng)絡(luò)輸入,如:文獻(xiàn)[8]~文獻(xiàn)[9]分別使用圖像聚類和圖像ROI 對(duì)圖像進(jìn)行預(yù)處理,并使用CNN訓(xùn)練和識(shí)別交通標(biāo)志圖像;文獻(xiàn)[10]提出了一種基于加權(quán)多CNN的交通標(biāo)志識(shí)別算法,即訓(xùn)練每個(gè)CNN,采用加權(quán)分類器優(yōu)化分類結(jié)構(gòu),從而提高交通標(biāo)志識(shí)別能力;文獻(xiàn)[8]~文獻(xiàn)[10]均使用CNN 對(duì)交通標(biāo)志圖像進(jìn)行訓(xùn)練和識(shí)別,部分學(xué)者還使用了LeNet-5[11]、AlexNet[12]、GoogLeNet[13]等網(wǎng)絡(luò)模型,但由于池化層的存在,在提取圖像底層特征的過(guò)程中會(huì)導(dǎo)致空間特征信息的丟失、網(wǎng)絡(luò)訓(xùn)練數(shù)據(jù)集需求量大、算法計(jì)算量較大等問(wèn)題。
綜上,雖然交通標(biāo)志識(shí)別算法研究已取得較大進(jìn)展,但在構(gòu)建訓(xùn)練數(shù)據(jù)集時(shí)需要考慮旋轉(zhuǎn)、翻轉(zhuǎn)、平移等變化的圖像,增加了算法的整體計(jì)算量。因此,本文針對(duì)傳統(tǒng)網(wǎng)絡(luò)由于池化層丟失圖像空間位置、角度等重要信息導(dǎo)致算法計(jì)算量大的問(wèn)題,提出了基于膠囊神經(jīng)網(wǎng)絡(luò)的交通標(biāo)志識(shí)別算法,減小圖像提取特征的區(qū)域,提高模型的訓(xùn)練和識(shí)別速度。
圖1所示為交通標(biāo)志圖像識(shí)別流程。識(shí)別訓(xùn)練時(shí),在主膠囊層中將張量的底層圖像特征轉(zhuǎn)化為向量圖像特征后,將圖像特征向量封裝成膠囊(Capsule)單元,對(duì)這些單元進(jìn)行動(dòng)態(tài)路由聚類獲取分類概率向量,其模長(zhǎng)即某個(gè)類別的概率,之后經(jīng)過(guò)反向傳播更新膠囊單元內(nèi)的權(quán)重參數(shù),最后固定網(wǎng)絡(luò)內(nèi)膠囊單元權(quán)重參數(shù),實(shí)現(xiàn)網(wǎng)絡(luò)模型訓(xùn)練。在圖像識(shí)別時(shí),主膠囊層張量向量轉(zhuǎn)換后,通過(guò)訓(xùn)練好的權(quán)重參數(shù)和網(wǎng)絡(luò)動(dòng)態(tài)路由聚類,輸出交通標(biāo)志分類的結(jié)果。
圖1 交通標(biāo)志圖像識(shí)別流程
但仍需解決2 個(gè)問(wèn)題:如何對(duì)輸入圖像進(jìn)行預(yù)處理,獲得適用于CapsNet 網(wǎng)絡(luò)輸入的交通標(biāo)志圖像;如何訓(xùn)練和應(yīng)用適用于交通標(biāo)志識(shí)別的CapsNet 網(wǎng)絡(luò)模型,解決平移、翻轉(zhuǎn)和角度變化后同一交通標(biāo)志圖像的識(shí)別問(wèn)題。
車載攝像頭采集自然場(chǎng)景下同一道路不同時(shí)刻、不同角度的警示、禁止和指示3種類型交通標(biāo)志圖像。
對(duì)交通標(biāo)志圖像進(jìn)行神經(jīng)網(wǎng)絡(luò)識(shí)別前,需要對(duì)其進(jìn)行預(yù)處理,提取擁有豐富特征信息的ROI,從而縮小圖像識(shí)別范圍,降低算法計(jì)算量,提高識(shí)別速度。
2.2.1 圖像均衡化
相較于背景區(qū)域,交通標(biāo)志圖像具有較強(qiáng)的反光性和凸顯性。同時(shí),受天氣、光照等自然環(huán)境因素的影響,在圖像處理時(shí)需對(duì)其亮度進(jìn)行均衡化,以消除自然環(huán)境對(duì)圖像造成的干擾,增強(qiáng)圖像特征信息。均衡化流程如圖2所示,其中,亮度分量的直方化處理過(guò)程為:
式中,Sn為處理后的亮度分量值;Xi為亮度分量值為i的像素?cái)?shù)量;N為像素?cái)?shù)量總和。
圖2 圖像均衡化過(guò)程
2.2.2 MSER分割
交通標(biāo)志圖像經(jīng)過(guò)均衡化處理后,對(duì)其進(jìn)行灰度化和二值化。由于MSER算法具有良好的仿射不變性、穩(wěn)定性和簡(jiǎn)單高效的特點(diǎn),本文基于MSER算法提取交通標(biāo)志圖像的ROI。該算法的基本思想如下:選取閾值t={0,1,2,…,255}對(duì)圖像進(jìn)行二值分割,低于閾值的像素置為黑色(0),高于或等于閾值的像素置為白色(255)。在閾值t從0增大到255的過(guò)程中,圖像形成閉合區(qū)域,尋找圖像像素區(qū)域變化最小的區(qū)域,即為MSER穩(wěn)定區(qū)域。然后,根據(jù)交通標(biāo)志本身的幾何特征,篩選潛在區(qū)域,最后利用式(2)計(jì)算灰度圖像中灰度值的標(biāo)準(zhǔn)差σ,得到標(biāo)志所在區(qū)域,并分割出圖像的ROI:
式中,xi為第i個(gè)灰度值;NA為周圍區(qū)域灰度值總數(shù)量。
MSER算法的具體實(shí)現(xiàn)步驟如下:
a.將交通標(biāo)志圖像每列灰度值從大到小排序。
b.將排序后的灰度值放入與原圖像尺寸大小相同的矩陣中,使用并查集(UnionFind)算法判斷排序后的每列灰度值點(diǎn)之間是否存在鏈接。如果存在鏈接,輸出灰度值點(diǎn),并將其排在相鄰位置的矩陣內(nèi),令t=0。
c.選取二值化閾值(t-Δ)、t和(t+Δ),其中Δ為閾值的變化量,分別選擇灰度值為該閾值的像素點(diǎn)組成的多個(gè)區(qū)域,計(jì)算這些區(qū)域的面積,計(jì)算第i個(gè)區(qū)域的變化率
d.令t自加1,如果t<256,則跳轉(zhuǎn)到步驟c,否則變化率的計(jì)算完成。選擇具有最小變化率的區(qū)域?yàn)樽畲蠓€(wěn)定極值區(qū)域Rt。
e.計(jì)算區(qū)域Rt的縱橫比R,計(jì)算區(qū)域與其外接矩形的面積比A,如果二者同時(shí)滿足式(4)、式(5),跳轉(zhuǎn)到步驟f,否則跳轉(zhuǎn)到步驟a,讀取下一張圖像:
式中,Rmin、Rmax分別為縱橫比的最小值、最大值;Amin為面積比的最小值。
f.令篩選出的最大穩(wěn)定極值區(qū)域的灰度值為255,其他區(qū)域灰度值為0。利用式(2)計(jì)算圖像每一個(gè)灰度值與周圍區(qū)域灰度值的標(biāo)準(zhǔn)差,將標(biāo)準(zhǔn)差最大的灰度值點(diǎn)作為交通標(biāo)志圖像ROI邊界的灰度值點(diǎn),連接這些灰度值點(diǎn)組成圖像區(qū)域,獲得區(qū)域的圖像坐標(biāo)。分割該坐標(biāo)內(nèi)所有像素點(diǎn),得到交通標(biāo)志圖像ROI。
2.2.3 歸一化
利用最鄰近插值法將ROI圖像規(guī)格化,獲得固定大?。?2×32)的圖像。
2.3.1 CapsNet網(wǎng)絡(luò)結(jié)構(gòu)
如圖3所示,CapsNet網(wǎng)絡(luò)由5個(gè)部分組成。第1層為輸入層,輸入實(shí)際圖像數(shù)據(jù)。第2 層為標(biāo)準(zhǔn)卷積層Conv1,提取ROI 圖像(32×32),通過(guò)卷積提取交通標(biāo)志各部分特征。第3 層為CapsNet 網(wǎng)絡(luò)主膠囊層,對(duì)上層輸入的特征進(jìn)行不同卷積,生成1個(gè)向量作為膠囊單元,傳入數(shù)字膠囊層。第4層為數(shù)字膠囊層,通過(guò)動(dòng)態(tài)路由協(xié)議進(jìn)行聚類傳播與更新權(quán)重矩陣,輸出概率向量。第5層為輸出層,計(jì)算概率向量模長(zhǎng),輸出分類概率。
2.3.2 卷積層底層特征
卷積層具有256個(gè)大小為9×9的卷積核,其深度和步幅均為1,運(yùn)用非線性激活函數(shù)提升卷積層的運(yùn)算能力。卷積層提取交通標(biāo)志圖像底層各部分特征,輸出24×24×256的張量。
圖3 CapsNet網(wǎng)絡(luò)基本結(jié)構(gòu)
2.3.3 主膠囊層張量向量化
主膠囊層接收卷積層提取的交通標(biāo)志圖像底層特征張量,構(gòu)建可作為底層特征的多維度的向量,并將該向量作為數(shù)字膠囊層輸入的底層膠囊單元。即主膠囊層通過(guò)8×32個(gè)大小為9×9和步長(zhǎng)為2的卷積核,進(jìn)行32次通道數(shù)量為8 的不同卷積,生成8 個(gè)6×6×8×32 的張量。將這8 個(gè)張量合并成6×6×8×32 的向量,即為主膠囊層輸出的底層膠囊單元。
2.3.4 動(dòng)態(tài)路由聚類
數(shù)字膠囊層在主膠囊層輸出向量單元的基礎(chǔ)上,進(jìn)行傳播與路由聚類。數(shù)字膠囊層輸入的膠囊單元表示圖像內(nèi)包含的實(shí)例化參數(shù),使用如圖4所示的動(dòng)態(tài)路由算法預(yù)測(cè)更高層的膠囊單元。通過(guò)使用權(quán)重矩陣控制底層膠囊單元與高層膠囊單元間的連接緊密程度,并判斷膠囊單元間方向的一致程度,更新權(quán)重矩陣。循環(huán)執(zhí)行上述操作進(jìn)行動(dòng)態(tài)路由聚類,獲得耦合系數(shù)。
圖4 動(dòng)態(tài)路由的層級(jí)結(jié)構(gòu)
動(dòng)態(tài)路由算法的步驟為:
a.輸入低層膠囊單元的膠囊單元和連接權(quán)重矩陣,計(jì)算所有的預(yù)測(cè)向量:
式中,ui為低層膠囊單元的第i個(gè)膠囊單元;wij為第i個(gè)膠囊單元與第j個(gè)預(yù)測(cè)膠囊單元的連接權(quán)重矩陣;Uj|i為預(yù)測(cè)膠囊單元。
并令當(dāng)前膠囊所在的層序號(hào)為L(zhǎng),且L=0,令路由迭代次數(shù)為R,令當(dāng)前循環(huán)次數(shù)r=1。
b.令bij為第L層第i個(gè)膠囊單元連接第(L+1)層第j個(gè)膠囊單元的一致性參數(shù),令初始值均為0。
c.如果當(dāng)前循環(huán)次數(shù)小于R,則跳到步驟d,否則跳到步驟h。
d.計(jì)算每一個(gè)膠囊單元的耦合系數(shù)cij:
e.計(jì)算第(L+1)層中的所有膠囊單元的加權(quán)和:
式中,sj為第j個(gè)膠囊單元的加權(quán)和。
f.采用Squash 壓縮激活函數(shù)壓縮加權(quán)和sj,獲得第(L+1)層的所有膠囊單元:
式中,vj為第(L+1)層的第j個(gè)膠囊單元。
g.根據(jù)第L層的所有預(yù)測(cè)向量Uj|i與第(L+1)層的所有膠囊單元vj的連接關(guān)系,參數(shù)bij增加Uj|ivj,r自加1,并跳轉(zhuǎn)到步驟c。
h.輸出固定動(dòng)態(tài)路由過(guò)程中使用的耦合系數(shù)cij和連接一致性參數(shù)bij,輸出高層膠囊單元vj。
2.3.5 反向傳播和模型訓(xùn)練
獲取數(shù)字膠囊層輸出的膠囊單元向量,根據(jù)向量長(zhǎng)度判定其屬于某個(gè)類別的概率。同時(shí),需構(gòu)建損失函數(shù):
式中,k為分類類別;Tk為分類的指示函數(shù),如不屬于類別k,Tk=1,否則Tk=0;vk為動(dòng)態(tài)路由聚類為類別k的向量單元;m+、m-分別為上、下邊界;λ為權(quán)重降低損失值。
在反向傳播算法中更新權(quán)重矩陣:
式中,為更新后的權(quán)重矩陣;η為學(xué)習(xí)率,即梯度。
同時(shí),在訓(xùn)練過(guò)程中使L自加1,從低層膠囊單元向高層膠囊單元更新。在網(wǎng)絡(luò)訓(xùn)練結(jié)束后可確定膠囊網(wǎng)絡(luò)模型的權(quán)重參數(shù),獲得網(wǎng)絡(luò)模型。
2.3.6 圖像識(shí)別
在圖像識(shí)別時(shí),將圖像進(jìn)行預(yù)處理輸入網(wǎng)絡(luò)模型。圖像經(jīng)卷積層提取特征,主膠囊層將特征張量向量化,利用訓(xùn)練后的權(quán)重參數(shù),通過(guò)動(dòng)態(tài)路由算法獲得43 個(gè)類別的向量,向量的模長(zhǎng)為各類別的概率,并將概率最大的類別作為分類的最終結(jié)果。
交通標(biāo)志識(shí)別算法流程如圖5所示。
圖5 交通標(biāo)志識(shí)別算法流程
仿真采用Ubuntu 18.04(64 位)操作系統(tǒng)和TensorFlow平臺(tái),處理器為Intel?Core?i7-8700 CPU@3.20 GHz×6,使用NVIDIA RTX2060實(shí)現(xiàn)GPU加速訓(xùn)練。
為驗(yàn)證算法有效性,將其在如圖6所示的德國(guó)交通標(biāo)志數(shù)據(jù)集(Germany Traffic Sign Recognition Benchmark,GTSRB)上進(jìn)行測(cè)試,該數(shù)據(jù)集包含43種不同類型的交通標(biāo)志圖片。由于GTSRB原始數(shù)據(jù)中存在很多分辨率低、運(yùn)動(dòng)模糊、局部遮擋、尺寸不一、光照強(qiáng)度不同的低質(zhì)量數(shù)據(jù),因此在數(shù)據(jù)集中添加現(xiàn)實(shí)場(chǎng)景拍攝的圖像替換部分低質(zhì)量圖像,共獲得51 839張圖片的數(shù)據(jù)集,包括39 209張圖片的訓(xùn)練集和12 630張測(cè)試圖片。
圖6 GTSRB數(shù)據(jù)集示例
圖7展示了本文算法的圖像ROI提取過(guò)程,在對(duì)圖像分割時(shí)利用MSER進(jìn)行交通標(biāo)志分割,得到交通標(biāo)志候選區(qū)域,然后利用該區(qū)域的幾何特征縱橫比、周長(zhǎng)、面積等特征獲得交通標(biāo)志所在區(qū)域位置。
為與其他算法進(jìn)行比較,選用查全率Rc進(jìn)行評(píng)價(jià):
式中,NT為檢測(cè)到的交通標(biāo)志數(shù)量;NZ為圖中含有的交通標(biāo)志總數(shù)量。
圖7 提取ROI過(guò)程
選取846 張正常光照?qǐng)D片和360 張弱光照?qǐng)D片,采用HOG[4]、MSER[5]、DtBs[6]和本文算法提取圖像ROI,計(jì)算查全率和標(biāo)志平均檢測(cè)時(shí)間,結(jié)果如表1所示。
表1 在不同光照下檢測(cè)算法比較
由表1可知:本文算法、MSER和DtBs對(duì)正常光照?qǐng)D片的交通標(biāo)志檢測(cè)效果較好,本文算法的查全率略大于MSER和DtBs,但三者相差不大;針對(duì)弱光照?qǐng)D片,本文算法對(duì)圖像亮度的均衡化可有效抑制光照對(duì)交通標(biāo)志造成的影響,同時(shí)采用MSER 方法分割交通標(biāo)志,避免了使用顏色閾值分割時(shí),閾值不準(zhǔn)確造成的漏檢,在光照條件較差(夜晚)的情況下也能有效檢測(cè)交通標(biāo)志,故本文算法的查全率大于MSER、DtBs 和HOG。MSER 沒(méi)有判斷圖的形狀等特有特征,故其平均圖片提取時(shí)間較短。本文算法在MSER基礎(chǔ)上增加了對(duì)形狀的判斷,稍微延長(zhǎng)了標(biāo)志檢測(cè)時(shí)間,但小于DtBs和HOG算法。
網(wǎng)絡(luò)訓(xùn)練完成后,繪制出CNN 和本文算法在交通標(biāo)志訓(xùn)練過(guò)程中的識(shí)別率和損失曲線。網(wǎng)絡(luò)識(shí)別率隨訓(xùn)練次數(shù)的變化曲線如圖8 所示,訓(xùn)練開(kāi)始后,當(dāng)訓(xùn)練次數(shù)達(dá)到10 000 次時(shí),CNN 和本文算法模型的識(shí)別率達(dá)到98%以上,但是本文算法在訓(xùn)練次數(shù)更少的情況下達(dá)到98%以上的識(shí)別率,當(dāng)訓(xùn)練次數(shù)達(dá)到60 000 次時(shí),本文算法的識(shí)別率較CNN 更高。以上仿真結(jié)果表明,在網(wǎng)絡(luò)訓(xùn)練過(guò)程中本文算法可更快達(dá)到較高的識(shí)別率且其識(shí)別效果更好。
圖8 訓(xùn)練時(shí)CNN和本文算法的準(zhǔn)確率比較
CNN 和本文算法網(wǎng)絡(luò)訓(xùn)練過(guò)程損失隨訓(xùn)練次數(shù)的變化曲線如圖9所示:本文算法訓(xùn)練的損失從網(wǎng)絡(luò)訓(xùn)練開(kāi)始時(shí)即在1以下,且在訓(xùn)練100次后下降至0.5以下;CNN 在訓(xùn)練10 000次后網(wǎng)絡(luò)的損失才下降到0.5以下,且訓(xùn)練的整體損失較本文算法高。以上結(jié)果表明,在網(wǎng)絡(luò)訓(xùn)練過(guò)程中,本文算法比CNN訓(xùn)練收斂更快,可有效縮短訓(xùn)練時(shí)間,具有更好的實(shí)時(shí)性和更高的識(shí)別率。
圖9 訓(xùn)練時(shí)CNN和本文算法損失比較
利用未經(jīng)數(shù)據(jù)增強(qiáng)的訓(xùn)練集圖像進(jìn)行網(wǎng)絡(luò)訓(xùn)練,根據(jù)訓(xùn)練模塊采用CNN 和本文算法對(duì)經(jīng)平移、旋轉(zhuǎn)和縮放的測(cè)試圖像進(jìn)行識(shí)別,計(jì)算識(shí)別率,如表2所示:CNN網(wǎng)絡(luò)由于池化層的存在會(huì)丟失圖像部分空間特征,導(dǎo)致在識(shí)別任務(wù)中表現(xiàn)較為遜色,識(shí)別率下降約10%;本文算法中的CapsNet 網(wǎng)絡(luò)結(jié)構(gòu)未使用池化層,而是使用動(dòng)態(tài)路由聚類進(jìn)行圖像分類,本文算法可獲得圖像底層空間特征信息且不丟失,使其能夠更好地分類交通標(biāo)志,其識(shí)別率基本沒(méi)有變化,不受圖像空間變換的影響。
為了驗(yàn)證ROI提取方法對(duì)交通標(biāo)志識(shí)別的影響,比較加入提取ROI 前、后的識(shí)別率。結(jié)果表明,在不進(jìn)行圖像ROI提取的情況下,交通標(biāo)志識(shí)別率為93.1%,經(jīng)過(guò)提取圖像ROI提取操作后,識(shí)別率可以達(dá)到97.2%,使用ROI提取方法可以很好地改善交通標(biāo)志識(shí)別效果。
表2 圖像空間變換的識(shí)別效果比較
在選擇卷積層卷積核大小時(shí),卷積核較大可以獲取較多的特征值,但提取圖像的參數(shù)較多。為測(cè)試CapsNet網(wǎng)絡(luò)卷積層提取底層特征能力,通過(guò)設(shè)置5×5、8×8、9×9、12×12共4種不同大小的卷積核,經(jīng)過(guò)訓(xùn)練后計(jì)算圖像的識(shí)別結(jié)果,識(shí)別率分別為91.7%、92.4%、93.1%和92.7%,選擇卷積核大小為9×9的卷積層最適合本文網(wǎng)絡(luò)結(jié)構(gòu)。
使用卷積核大小為9×9 的卷積層時(shí)本文算法不受空間變換的影響,具有較好的識(shí)別效果,且加入ROI 提取,減少一些無(wú)關(guān)特征提取,提高了識(shí)別率。
比較經(jīng)典LeNet-5[11]、AlexNet[12]、GoogLeNet[13]、CNN、SVM 和本文算法的識(shí)別率。如表3 所示:LetNet 和AlexNet屬于輕型卷積網(wǎng)絡(luò),結(jié)構(gòu)簡(jiǎn)單,能夠快速完成圖像的識(shí)別任務(wù),但其網(wǎng)絡(luò)深度和圖像特征的表達(dá)能力不足;GoogLeNet 和CNN 屬于深層的卷積網(wǎng)絡(luò),深度特征具有很強(qiáng)非線性表達(dá)能力,但其網(wǎng)絡(luò)需要很長(zhǎng)的訓(xùn)練時(shí)間;本文算法網(wǎng)絡(luò)訓(xùn)練時(shí)間較短,識(shí)別率最高。
表3 算法識(shí)別結(jié)果比較%
本文采用ROI 提取方法和利用膠囊網(wǎng)絡(luò)提出了一種基于膠囊神經(jīng)網(wǎng)絡(luò)的交通標(biāo)志識(shí)別算法,在一定程度上解決了傳統(tǒng)算法在訓(xùn)練過(guò)程中的特征丟失、交通標(biāo)志識(shí)別網(wǎng)絡(luò)魯棒性差和識(shí)別率低等問(wèn)題。仿真測(cè)試結(jié)果表明:該算法在預(yù)處理和識(shí)別圖像過(guò)程中能較好地檢測(cè)交通標(biāo)志所在區(qū)域,可有效提取圖像ROI,提高弱光條件的查全率,增強(qiáng)魯棒性;在訓(xùn)練階段,由于本文算法網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單,具有較快的訓(xùn)練速度,可縮短訓(xùn)練時(shí)間;相較于經(jīng)典的LeNet-5、AlexNet、GoogLeNet、CNN 和SVM 算法,本文算法的識(shí)別率更優(yōu)。目前采用的數(shù)據(jù)集較小,因此下一步工作是在龐大的數(shù)據(jù)集上驗(yàn)證網(wǎng)絡(luò)的識(shí)別能力,同時(shí)改進(jìn)膠囊單元間的路由算法,提高識(shí)別率。