国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度學(xué)習(xí)的障礙物檢測(cè)研究

2019-03-04 11:05張舜郝泳濤
電腦知識(shí)與技術(shù) 2019年34期
關(guān)鍵詞:深度學(xué)習(xí)

張舜 郝泳濤

摘要:避障導(dǎo)航是自動(dòng)導(dǎo)引小車領(lǐng)域的重要課題,障礙物檢測(cè)則是其中的重要環(huán)節(jié)。隨著計(jì)算機(jī)視覺的發(fā)展,基于深度學(xué)習(xí)的圖像目標(biāo)檢測(cè)算法已日趨成熟,針對(duì)自動(dòng)導(dǎo)引小車避障檢測(cè)對(duì)精準(zhǔn)性和實(shí)時(shí)性要求都較高的情況,本文搭建深度學(xué)習(xí)模型,使用端到端的物體目標(biāo)檢測(cè)網(wǎng)絡(luò),對(duì)室內(nèi)環(huán)境下自動(dòng)導(dǎo)引小車可能的工作場(chǎng)景進(jìn)行訓(xùn)練,在速度較快的情況下得到了很高的精準(zhǔn)度。

關(guān)鍵詞:避障檢測(cè);深度學(xué)習(xí);自動(dòng)導(dǎo)引小車;圖像檢測(cè)

中圖分類號(hào):TP311 文獻(xiàn)標(biāo)識(shí)碼:A

文章編號(hào):1009-3044(2019)34-0185-03

無人智能車一直是科研領(lǐng)域的熱門話題,不論在無人駕駛領(lǐng)域,還是在AGV小車領(lǐng)域,避障一直是一個(gè)關(guān)鍵的課題。在無人駕駛的領(lǐng)域研究中,主要有雷達(dá)和攝像頭兩種傳感器,雷達(dá)主要有超聲波雷達(dá)和激光雷達(dá)。雷達(dá)傳感器只能判斷障礙的存在,而不能判別障礙的種類,而且隨著一系列深度學(xué)習(xí)檢測(cè)算法的提出,基于計(jì)算機(jī)視覺的識(shí)別和檢測(cè)的算法的視覺傳感器已經(jīng)逐漸能夠代替雷達(dá)傳感器,基本滿足AGV小車避障檢測(cè)的需求。

傳統(tǒng)的機(jī)器學(xué)習(xí)檢測(cè)方法由以下步驟組成:1)輸入待檢測(cè)圖像,并進(jìn)行相關(guān)的預(yù)處理;2)使用滑動(dòng)窗口方法獲取候選框;3)對(duì)每個(gè)候選框取特征信息;4)使用分類器進(jìn)行判定。這些滑動(dòng)窗口和特征提取相結(jié)合的傳統(tǒng)機(jī)器學(xué)習(xí)算法,在早期取得了比較好的效果,但是其過高的計(jì)算復(fù)雜度、較差的實(shí)時(shí)性都成為限制其發(fā)展的阻礙,并且傳統(tǒng)機(jī)器學(xué)習(xí)算法在應(yīng)對(duì)復(fù)雜情形下的表現(xiàn)差強(qiáng)人意。但自從2012年開始,AlexNet[1]的出現(xiàn)打破了這一現(xiàn)狀,標(biāo)志基于深度學(xué)習(xí)的圖像檢測(cè)算法開始發(fā)展?;谏疃葘W(xué)習(xí)的圖像物體檢測(cè)算法目前有兩條分支。第一條分支的基本原理是先生成候選區(qū),再對(duì)候選區(qū)提取特征。自R_CNN[2]模型開始,這條分支在精準(zhǔn)度上取得了十足的進(jìn)展;2015年提出的fast R_CNN[3]貝1J結(jié)合了R-CNN和SPP-NETf空間金字塔池化層)[4]的優(yōu)點(diǎn);2015年提出的faster R-CNNc5]結(jié)合了RPN候選框提取,相比于fast R-CNN進(jìn)一步提高了效率;2017年提出的FPN(Feature Pyramid Network)[6]則解決了高層中無法檢測(cè)細(xì)小物體的問題;2017年提出的Mask R_CNN[7]則基于faster R-CNN新增了基于掩碼層的分割分支。另一條分支則通過直接檢測(cè)出物體的種類和位置來實(shí)現(xiàn)端到端的檢測(cè),相應(yīng),這種檢測(cè)手段也極大地提高了檢測(cè)的速度。2016年,Red-mon等人發(fā)表了一篇名為:vou look onlv once[8]的文章,標(biāo)志著端到端的目標(biāo)檢測(cè)分支的誕生,相比于faster R-CNN.YOLO具備更快的檢測(cè)速度;隨后在2017年,又提出了一種速度更快、精度更高,并且可以識(shí)別9000種物體的模型YOL09000[9];在2018年,再次提出了基于Darknet-53和多尺度特征的YOLOv3[10],在精準(zhǔn)度相當(dāng)?shù)那闆r下,YOLOv3的速度是其他模型的至少3-4倍。

綜合上文的分析,我們可以看出,在基于AGV小車對(duì)障礙物檢測(cè)實(shí)時(shí)性要求較高的前提下,YOLOv3在相同精準(zhǔn)度下,具備最快的檢測(cè)速度,故本文擬采用YOLOv3框架來實(shí)現(xiàn)對(duì)AGV小車在室內(nèi)場(chǎng)景下的障礙物檢測(cè)方法的研究。

1 YOLO v3

YOLO是一種端到端的圖像檢測(cè)框架,其核心過程就是將整張圖片作為網(wǎng)絡(luò)的輸入,可以在輸出層直接得到物體的檢測(cè)邊界框,并標(biāo)注其檢測(cè)到得所屬類別。YOLO使用了網(wǎng)格而非傳統(tǒng)的滑動(dòng)窗口,首先將一幅圖片分成S * S個(gè)網(wǎng)格,每個(gè)網(wǎng)格需要預(yù)測(cè)一個(gè)中心點(diǎn)落在這個(gè)網(wǎng)格當(dāng)中的物體;每個(gè)網(wǎng)格需要預(yù)測(cè)B個(gè)邊界框(boundingbox),每個(gè)邊界框都要回歸一個(gè)位置信息,包括x,y,w,h,分別代表坐標(biāo)信息和尺寸信息,同時(shí)還要再輸出一個(gè)置信度值(confidencescore),其計(jì)算的方式如(1)式所示.

如果有物體在一個(gè)單元格(gridcell)中,則Pre(Object)取1,否則取0;第二項(xiàng)則是預(yù)測(cè)的邊界框和實(shí)際的標(biāo)記之間的IOU值。

除了返回位置和置信度信息,每個(gè)網(wǎng)格還需要返回對(duì)每一個(gè)類別的預(yù)測(cè)信息,分別代表對(duì)每個(gè)類別預(yù)測(cè)的概率。如果有C個(gè)類別,則需要輸出C個(gè)相應(yīng)的概率值。也就是說,在一個(gè)劃分為S*S個(gè)網(wǎng)格的網(wǎng)絡(luò)中,每個(gè)網(wǎng)格需要預(yù)測(cè)B個(gè)邊界框,每個(gè)邊界框輸出(x,v,w,h,confidence)五個(gè)維度的信息,并且每個(gè)網(wǎng)格要輸出 C個(gè)類別的預(yù)測(cè)信息,故整個(gè)網(wǎng)絡(luò)最后的輸出為S*S*(5*B+C)的一個(gè)張量。

在測(cè)試的時(shí)候,類別信息與置信度相乘,就可以得到每個(gè)邊界框的類別預(yù)測(cè)的置信度得分如(2)式所示。

得到每一個(gè)邊框的預(yù)測(cè)置信度得分后,過濾掉低于閾值的邊框,對(duì)保留的邊框進(jìn)行非極大值抑制(NMS)處理,就得到了最終的檢測(cè)結(jié)果。

YOLO采用了均方差損失函數(shù),但是不同的部分要賦予不同的權(quán)重,8維(B=2的情況下)位置信息要賦予比20維(C= 20的情況下)的類別信息更大的權(quán)重。每個(gè)網(wǎng)格都只預(yù)測(cè)一個(gè)物體,選擇IOC最大的邊界框,其他邊界框則認(rèn)為不存在物體。損失函數(shù)如(3)式所示。

在YOLO的基礎(chǔ)上,YOLO v2使用了一個(gè)新的類似于VGG的分類模型,并使用3* 3的過濾器,每次池化后都增加一倍的通道數(shù)量,通過使用全局平均池化、批量標(biāo)準(zhǔn)化來讓訓(xùn)練更加穩(wěn)定,加速收斂,使模型規(guī)范化。而YOL0 9000則利用同時(shí)優(yōu)化檢測(cè)和分類功能來支持實(shí)時(shí)地檢測(cè)9000種物體分類。

YOLOv3相比于前幾代,做出的了如下的改動(dòng):1)采用了多尺度預(yù)測(cè)(類FPN);2)采用了類似于ResNet的darknet-53和殘差網(wǎng)絡(luò);3)使用logistic分類器代替softmax分類器。其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。YOLOv3繼續(xù)采用了YOLOv2中的K-means聚類的方式來做Anchor Box的初始化,YOLOv3在COCO數(shù)據(jù)集上,在輸入尺寸為416*416的情況下,得到了9種聚類結(jié)果:(10*13); (16*30); (33*23); (30*61); (62*45); (59*119); (116*90);(156*198); (373*326)。因?yàn)榈蛯拥恼Z義信息比較少,但是位置目標(biāo)信息相對(duì)較為精確;而高層語義信息豐富但位置信息卻比較粗略,故而YOLOv3采用多尺度特征的方法(類似于FPN),把1-26層卷積為stagel,27-43層卷積為stage 2,44-52層卷積為stage 3。低層卷積負(fù)責(zé)檢測(cè)小目標(biāo)物體,高層卷積負(fù)責(zé)檢測(cè)大目標(biāo),每個(gè)stage檢測(cè)三個(gè)先驗(yàn)框(anchorbox),13*13對(duì)應(yīng)(116*90), (156*198), (373*326),26*26對(duì)應(yīng)(30*61), (62*45),(59*119),52*52對(duì)應(yīng)(10*13),(16*30),(33*23),每個(gè)stage最終的預(yù)測(cè)值為S*S83*(4+1+B)大小的張量,B為類別數(shù)。YOLOv3使用了Dark-net-53來提取網(wǎng)絡(luò)特征,不同于YOLOv2使用的Darknet-19.Darknet-53使用了一個(gè)53層的卷積網(wǎng)絡(luò),采用了一連串3*3、l{1卷積;還包含5層殘差網(wǎng)絡(luò)層。第75到105層為YOLOv3的特征融合層,將三種尺度特征圖的局部特征融合。

相比于前幾代,YOLOv3在處理速度上和精度上都得到了提升,并且模型也更加復(fù)雜,并且可以支持改變模型結(jié)構(gòu)大小來權(quán)衡速度與精度。故而我們采用YOLOv3來實(shí)現(xiàn)本文章中的實(shí)驗(yàn)。

2 實(shí)驗(yàn)結(jié)果及分析

實(shí)驗(yàn)平臺(tái)的硬件配置采用InteI(R) Core i5-4750,主頻為3.20GHz,搭配16G內(nèi)存,GPU采用GeForce RTX 2080顯卡。實(shí)驗(yàn)中的YOLOv3網(wǎng)絡(luò)框架的搭建采用Darknet。實(shí)驗(yàn)數(shù)據(jù)采集白本實(shí)驗(yàn)室內(nèi)和走廊的AGV小車的當(dāng)前研究階段的移動(dòng)環(huán)境。

實(shí)驗(yàn)結(jié)果的評(píng)價(jià)標(biāo)準(zhǔn)采用mAP(mean Average Precision)和recall(召回率)來定量評(píng)價(jià)障礙物目標(biāo)的檢測(cè)性能。

IoU展示了算法預(yù)測(cè)出來的目標(biāo)框與原來圖片中標(biāo)記的框的重合程度,計(jì)算公式如(4)式所示。

使用IoU判斷目標(biāo)檢測(cè)是否被正確檢測(cè),需要設(shè)置一個(gè)閾值。通常將這個(gè)閾值設(shè)為0.5或0.75,如果IoU大于閾值,可以認(rèn)為檢測(cè)是正確的,反之則是錯(cuò)誤的。根據(jù)IoU與閾值比較,可計(jì)算出每個(gè)類的正確檢測(cè)次數(shù),計(jì)算公式如(5)式所示。

因?yàn)樵诒苷蠙z測(cè)中,小車只需要識(shí)別障礙物的位置信息和類別的粗略信息,故本實(shí)驗(yàn)類別設(shè)定為兩類(column和cube),結(jié)果如圖2所示。經(jīng)過對(duì)測(cè)試集的計(jì)算,column(圓柱類障礙物)類別的AP值為0.878,cube(立方體類障礙物)類別的AP值為0.967,得到mAP的值為0.923,可以看出平均識(shí)別精準(zhǔn)度是很高的。

圖3表示Region分別為94(中型物體)和106(大型物體)的Loss、IoU、Recall(IoU閾值為0.75)曲線,可以看出模型的平均損失在隨著訓(xùn)練集數(shù)據(jù)的增加逐漸減小,并且在IoU=0.75、Region=94/106的情況下,Recall值均能達(dá)到1,說明YOLO v3對(duì)于在室內(nèi)AGV小車的障礙物檢測(cè)上能夠達(dá)到很好的檢測(cè)效果。

3 結(jié)束語

本文我們使用了YOLO v3來實(shí)現(xiàn)室內(nèi)AGV小車的障礙物檢測(cè)。實(shí)驗(yàn)表明YOLO v3模型對(duì)于室內(nèi)ACV小車的障礙物檢測(cè)是有效的,這會(huì)有助于我們?cè)贏GV小車避障導(dǎo)航領(lǐng)域的進(jìn)一步研究。未來我們將嘗試更復(fù)雜的室內(nèi)環(huán)境和更多類型物體的檢測(cè),進(jìn)一步提高檢測(cè)精度和檢測(cè)速度,實(shí)現(xiàn)能夠充分滿足AGV小車工作環(huán)境的避障系統(tǒng)。

參考文獻(xiàn):

[1] Krizhevsky A,Sutskever I.Hinton G.ImageNet Classifica-tion with Deep Convolutional Neural Networks[C]/ NIPS. Cur-ran Associates Inc. 2012.

[2] Girshick R,Donahue J,Darrelland T,et al.Rich feature hi-erarchies for object detection and semantic segmentation[C]/2014 lEEE Conference on Computer Vision and Pattern Rec-ognition. IEEE, 2014.

[3] Girshick R.Fast R-CNN[C]/ 2015 lEEE International Confer-ence on Computer Vision (lCCV). lEEE, 2016.

[4] He K,Zhang X,Ren S,et al.Spatial Pyramid Pooling inDeep Convolutional Networks for Visual Recognition[J]. IEEETransactions on Pattern Analysis and Machine Intelligence,2015, 37(9):1.

[5] Ren S,He K,Girshick R.et al.Faster R-CNN: TowardsReal-Time Object Detection with Region Proposal Networks[J]. IEEE Transactions on Pattern Analysis&Machine Intelli-gence, 2015, 39(6):1137-1149.

[6] Li H,Xiong P,An J,et al.Pyramid Attention Network forSemantic Segmentation[J]. 2018.

[7] He K,Gkioxari G,Dollar P,et al.Mask R-CNN[C]// 2017lEEE International Conference on Computer Vision (ICCV).IEEE Computer Society, 2017.

[8] Redmon J , Diwala s . Cirshick R , et al. You Only LookOnce: Unified, Real-Time Object Detection[C]/ 2016 IEEEConference on Computer Vision and Pattem Recognition(CVPR). lEEE Computer Society, 2016.

[9] Redmon J , Farhadi A. [IEEE 2017 IEEE Conference on Com-puter Vision and Pattem Recognition (CVPR) - Honolulu, Hl(2017.7.21-2017.7.26)] 2017 lEEE Conference on ComputerVision and Pattern Recognition (CVPR) - YOL09000: Better,F(xiàn)aster, Stronger[J]. 2017:6517-6525.

[10] Redmon J , Farhadi A. YOLOv3: An Incremental Improve-ment[J]. 2018.

收稿日期:2019-08-20

作者簡(jiǎn)介:張舜(1992-),男,遼寧盤錦人,碩士,主要研究方向?yàn)橛?jì)算機(jī)圖形學(xué),圖像處理等;郝泳濤(1973-),男,山東威海人,教授,博士生導(dǎo)師,研究方向?yàn)槠髽I(yè)信息集成系統(tǒng),知識(shí)處理與挖掘,智能設(shè)計(jì),分布式智能系統(tǒng)和虛擬現(xiàn)實(shí)技術(shù)等。

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
搭建深度學(xué)習(xí)的三級(jí)階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
構(gòu)建“單元整合、主題牽引”詩(shī)歌鑒賞“深度學(xué)習(xí)”課堂的策略
集贤县| 新泰市| 壤塘县| 浙江省| 贡嘎县| 虞城县| 西盟| 余庆县| 绍兴县| 隆回县| 资中县| 张家口市| 石屏县| 黑河市| 定南县| 隆回县| 福泉市| 剑川县| 平远县| 丰顺县| 高安市| 廊坊市| 合作市| 惠东县| 龙江县| 墨玉县| 东至县| 克拉玛依市| 棋牌| 垫江县| 武安市| 郸城县| 马尔康县| 长丰县| 偃师市| 那曲县| 井陉县| 辉南县| 北川| 铜川市| 潜江市|