国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

目標(biāo)檢測(cè)方法簡(jiǎn)要綜述

2020-07-06 03:18栗佩康袁芳芳李航濤
科技風(fēng) 2020年18期
關(guān)鍵詞:目標(biāo)檢測(cè)機(jī)器學(xué)習(xí)

栗佩康 袁芳芳 李航濤

摘 要:目標(biāo)檢測(cè)是計(jì)算機(jī)視覺(jué)領(lǐng)域中的重要問(wèn)題,是人臉識(shí)別、車輛檢測(cè)、路網(wǎng)提取等領(lǐng)域的理論基礎(chǔ)。隨著深度學(xué)習(xí)的快速發(fā)展,與基于滑窗以手工提取特征做分類的傳統(tǒng)目標(biāo)檢測(cè)算法相比,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法無(wú)論在檢測(cè)精度上還是在時(shí)間復(fù)雜度上都大大超過(guò)了傳統(tǒng)算法,本文將簡(jiǎn)單介紹目標(biāo)檢測(cè)算法的發(fā)展歷程。

關(guān)鍵詞:目標(biāo)檢測(cè);機(jī)器學(xué)習(xí);深度神經(jīng)網(wǎng)絡(luò)

目標(biāo)檢測(cè)的目的可分為檢測(cè)圖像中感興趣目標(biāo)的位置和對(duì)感興趣目標(biāo)進(jìn)行分類。目標(biāo)檢測(cè)比低階的分類任務(wù)復(fù)雜,同時(shí)也是高階圖像分割任的重要基礎(chǔ);目標(biāo)檢測(cè)也是人臉識(shí)別、車輛檢測(cè)、路網(wǎng)檢測(cè)等應(yīng)用領(lǐng)域的理論基礎(chǔ)。

傳統(tǒng)的目標(biāo)檢測(cè)算法是基于滑窗遍歷進(jìn)行區(qū)域選擇,然后使用HOG、SIFT等特征對(duì)滑窗內(nèi)的圖像塊進(jìn)行特征提取,最后使用SVM、AdaBoost等分類器對(duì)已提取特征進(jìn)行分類。手工構(gòu)建特征較為復(fù)雜,檢測(cè)精度提升有限,基于滑窗的算法計(jì)算復(fù)雜度較高,此類方法的發(fā)展停滯,本文不再展開(kāi)。近年來(lái),基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法成為主流,分為兩階段和單階段兩類:兩階段算法先在圖像中選取候選區(qū)域,然后對(duì)候選區(qū)域進(jìn)行目標(biāo)分類與位置精修;單階段算法是基于全局做回歸分類,直接產(chǎn)生目標(biāo)物體的位置及類別。單階段算法更具實(shí)時(shí)性,但檢測(cè)精度有損失,下面介紹這兩類目標(biāo)檢測(cè)算法。

1 基于候選區(qū)域的兩階段目標(biāo)檢測(cè)方法

率先將深度學(xué)習(xí)引入目標(biāo)檢測(cè)的是Girshick[1]于2014年提出的區(qū)域卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)檢測(cè)模型(R-CNN)。首先使用區(qū)域選擇性搜索算法在圖像上提取約2000個(gè)候選區(qū)域,然后使用卷積神經(jīng)網(wǎng)絡(luò)對(duì)各候選區(qū)域進(jìn)行特征提取,接著使用SVM對(duì)候選區(qū)域進(jìn)行分類并利用NMS回歸目標(biāo)位置。與傳統(tǒng)算法相比,R-CNN的檢測(cè)精度有很大提升,但缺點(diǎn)是:由于全連接層的限制,輸入CNN的圖像為固定尺寸,且每個(gè)圖像塊輸入CNN單獨(dú)處理,無(wú)特征提取共享,重復(fù)計(jì)算;選擇性搜索算法仍有冗余,耗費(fèi)時(shí)間等。

基于R-CNN只能接受固定尺寸圖像輸入和無(wú)卷積特征共享,He[2]于2014年參考金字塔匹配理論在CNN中加入SPP-Net結(jié)構(gòu)。該結(jié)構(gòu)復(fù)用第五卷積層的特征響應(yīng)圖,將任意尺寸的候選區(qū)域轉(zhuǎn)為固定長(zhǎng)度的特征向量,最后一個(gè)卷積層后接入的為SPP層。該方法只對(duì)原圖做一次卷積,共享卷積層的計(jì)算過(guò)程,極大提高了速度。SPP-Net的優(yōu)點(diǎn):不同尺度候選區(qū)域輸入能夠提高檢測(cè)精度,共享不同候選區(qū)域SPP層前序的計(jì)算,提升檢測(cè)效率。

Girshick[3]于2015年在R-CNN的基礎(chǔ)上提出了Fast R-CNN,使用ROI(感興趣區(qū)域)池化層代替SPP。原圖經(jīng)過(guò)卷積后產(chǎn)生特征響應(yīng)圖,然后從每個(gè)ROI池化層中提取定長(zhǎng)特征向量,每個(gè)特征向量輸入到全連接層,分支兩個(gè)輸出層,一個(gè)是softmax分類器用來(lái)預(yù)測(cè)類別,另一個(gè)用作物體位置定位框回歸預(yù)測(cè)。除候選區(qū)域提取外該框架是一種端到端的基于多任務(wù)損失函數(shù)的一階段訓(xùn)練過(guò)程,節(jié)省了存儲(chǔ)空間,減少了訓(xùn)練及預(yù)測(cè)時(shí)間且提升了檢測(cè)精度。但候選區(qū)域提取仍沿用老算法,耗費(fèi)時(shí)間,成為瓶頸。

基于Fast R-CNN中前序候選區(qū)域提取時(shí)仍使用區(qū)域選擇性搜索算法成這點(diǎn),Ren[4]提出Faster R-CNN模型,使用區(qū)域選擇網(wǎng)絡(luò)(RPN)來(lái)產(chǎn)生候選區(qū)域框,與檢測(cè)網(wǎng)絡(luò)共享卷積特征響應(yīng),大大減少了計(jì)算量,提高檢測(cè)速度,這也使得Faster R-CNN成為第一個(gè)基于深度學(xué)習(xí)的端到端目標(biāo)檢測(cè)算法,在GPU上運(yùn)行達(dá)到5fps的檢測(cè)速率,具有一定的實(shí)時(shí)性。但該模型也存在一些缺點(diǎn),如RPN網(wǎng)絡(luò)的訓(xùn)練較為耗時(shí);RPN不擅于處理一些極端尺度及形狀的目標(biāo)物體檢測(cè)。

此外還有R-FCN、FPN、Mask R-CNN等由以上算法衍生的更為優(yōu)秀的兩階段目標(biāo)檢測(cè)算法,本文不再展開(kāi)。

2 基于全局回歸分類的單階段目標(biāo)檢測(cè)方法

兩階段的目標(biāo)檢測(cè)算法,雖然檢測(cè)精度指標(biāo)較好,但即使實(shí)現(xiàn)端到端的Faster R-CNN,也無(wú)法滿足實(shí)時(shí)性要求,因此單階段目標(biāo)檢測(cè)算法旨在提升檢測(cè)實(shí)時(shí)性。2016年Redmon[5]提出了YOLO,圖像經(jīng)過(guò)一個(gè)神經(jīng)網(wǎng)絡(luò)即可完成目標(biāo)位置及其所屬類別的預(yù)測(cè),檢測(cè)速度達(dá)到45fps,但檢測(cè)精度不高。后續(xù)Redmon[6]提出了YOLOv2,與YOLO相比卷積層后加入了批歸一化、去掉全連接層進(jìn)行多尺度訓(xùn)練、加入先驗(yàn)框等,使得能夠檢測(cè)種類更多、精度更高且時(shí)間更快。2018年,Redmon[7]提出了YOLOv3,該框架使用新的網(wǎng)絡(luò)結(jié)構(gòu)Darknet-53,利用多尺度進(jìn)行目標(biāo)檢測(cè),使用邏輯回歸代替softmax分類器,使檢測(cè)精度較之前版本提高,且對(duì)小目標(biāo)的檢測(cè)效果比前述版本好。最近,Bochkovskiy[8]提出了YOLOv4,加入SPP block來(lái)改善感受域大小,使用PANet代替FPN進(jìn)行多通道特征融合,選用CSPDarknet53作為主干網(wǎng)絡(luò),使得檢測(cè)精度與速度進(jìn)一步提升。

此外還有SSD、FPN、RefineDet、RetinaNet、CornerNet等優(yōu)秀的單階段目標(biāo)檢測(cè)算法,本文不再展開(kāi)。

3 結(jié)語(yǔ)

本文作為一篇目標(biāo)檢測(cè)方法的簡(jiǎn)要綜述,首先介紹了該研究的背景與意義,后分為兩階段和單階段的基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法進(jìn)行介紹?,F(xiàn)階段后者的實(shí)時(shí)性明顯優(yōu)于前者,檢測(cè)精度也在不斷提升,但前者在檢測(cè)精度上仍有優(yōu)勢(shì),檢測(cè)效率也在不斷優(yōu)化,不同應(yīng)用場(chǎng)景可分別嘗試這兩類算法進(jìn)行對(duì)比和應(yīng)用。

參考文獻(xiàn):

[1]R.Girshick et al.,“Rich feature hierarchies for accurate object detection and semantic segmentation,”in Proc.CVPR,2014,pp.580-587.

[2]K.He et al.,“Spatial pyramid pooling in deep convolutional networks for visual recognition,”IEEE TPAMI.,vol.37,no.9,pp.1904-1916,Sep.2015.

[3]R.Girshick,“Fast R-CNN,”in Proc.ICCV,2015,pp.1440-1448.

[4]S.Ren et al.,“Faster R-CNN:Towards real-time object detection with region proposal networks,”in Proc.NIPS,2015,pp.91-99.

[5]J.Redmon et al.,“You only look once:Unifified,real-time object detection,”in Proc.CVPR,2016,pp.779-788.

[6]J.Redmon et al.,“YOLO9000:Better,faster,stronger,”in CVPR,2017,pp.7263-7271.

[7]J.Redmon et al.,“YOLOv3:An Incremental Improvement,”2018.

[8]A.Bochkovskiy et al.,“YOLOv4:Optimal speed and accuracy of Object Detection,”2020.

猜你喜歡
目標(biāo)檢測(cè)機(jī)器學(xué)習(xí)
視頻中目標(biāo)檢測(cè)算法研究
行為識(shí)別中的人體運(yùn)動(dòng)目標(biāo)檢測(cè)方法
基于詞典與機(jī)器學(xué)習(xí)的中文微博情感分析
基于網(wǎng)絡(luò)搜索數(shù)據(jù)的平遙旅游客流量預(yù)測(cè)分析
前綴字母為特征在維吾爾語(yǔ)文本情感分類中的研究
移動(dòng)機(jī)器人圖像目標(biāo)識(shí)別
基于支持向量機(jī)的金融數(shù)據(jù)分析研究
機(jī)器學(xué)習(xí)理論在高中自主學(xué)習(xí)中的應(yīng)用
基于背景建模法的運(yùn)動(dòng)目標(biāo)檢測(cè)
基于P3電位的目標(biāo)檢測(cè)研究
长汀县| 霍城县| 杭锦旗| 务川| 隆回县| 东海县| 孙吴县| 元氏县| 双牌县| 岢岚县| 夏邑县| 吐鲁番市| 柘荣县| 米易县| 皋兰县| 运城市| 宣汉县| 个旧市| 徐水县| 涞水县| 临城县| 高邑县| 华阴市| 双桥区| 柘荣县| 休宁县| 门头沟区| 奎屯市| 恩平市| 明光市| 格尔木市| 鹤壁市| 永清县| 清新县| 克拉玛依市| 教育| 浮山县| 海安县| 河间市| 荃湾区| 乐亭县|