国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

光學(xué)遙感圖像飛機(jī)目標(biāo)識(shí)別算法

2020-03-28 10:51胡楠李潤(rùn)生王載武
影像技術(shù) 2020年2期
關(guān)鍵詞:深度學(xué)習(xí)

胡楠 李潤(rùn)生 王載武

摘要:光學(xué)遙感圖像中蘊(yùn)含著大量信息,更新速度非???。使用人工方法對(duì)光學(xué)遙感圖像進(jìn)行判讀和目標(biāo)的識(shí)別顯然早已達(dá)不到現(xiàn)代社會(huì)各領(lǐng)域的需求。實(shí)時(shí)、高效地從光學(xué)遙感圖像中識(shí)別出感興趣目標(biāo)具有非常重要的意義。本文對(duì)基于人工智能的圖像飛機(jī)識(shí)別研究現(xiàn)狀進(jìn)行了總結(jié),方便后續(xù)學(xué)者研究。

關(guān)鍵詞:遙感圖像;深度學(xué)習(xí);飛機(jī)識(shí)別;Faster R-CNN

中圖分類號(hào):TP7 文獻(xiàn)標(biāo)識(shí)碼:B DOI:10?郾3969/j.issn.1001-0270.2020.02.19

Abstract: Optical remote sensing images contain a lot of information and update very fast. It is obvious that the use of artificial methods to interpret and identify optical remote sensing images can not meet the needs of modern society in all fields. Real-time and efficient recognition of interested objects from optical remote sensing images is of great significance. In this paper, the research status of AI-based image aircraft recognition is summarized for the convenience of follow-up scholars.

Key Words: Remote Sensing Image; In-depth Learning; Aircraft Recognition; Faster R-CNN

1 引言

深度學(xué)習(xí)首先由Hinton[1]等人于2006年提出。經(jīng)過(guò)研究,卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)模型憑借其優(yōu)異性能,成功用于人臉識(shí)別等。在2012年,Geoffrey Hinton教授在基于深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)在ILSVRC中,將傳統(tǒng)檢測(cè)算法的top-5錯(cuò)誤率降低到15.3%[2]。在2014年,region proposal+CNN算法框架出現(xiàn),使深度學(xué)習(xí)在目標(biāo)檢測(cè)中性能取得重大突破。region proposal+CNN算法在PASCAL VOC 2012數(shù)據(jù)集上的平均檢測(cè)精度達(dá)到了53.3%[3]。2015年,空間金字塔池化網(wǎng)絡(luò)結(jié)構(gòu)[4]完成了任意圖像尺寸的輸入。同年,R-CNN的加速版本Fast R-CNN,完成了單級(jí)訓(xùn)練過(guò)程的端對(duì)端和損失函數(shù)的多任務(wù)形式,使得訓(xùn)練速度大大加快。在2016年,任少卿[5]等人為了解決目標(biāo)檢測(cè)中,生成候選框區(qū)域的時(shí)間過(guò)長(zhǎng)的困難,提出了進(jìn)一步改進(jìn)后的網(wǎng)絡(luò)架構(gòu)Faster R-CNN。

2 Faster R-CNN網(wǎng)絡(luò)模型

基于候選區(qū)域的目標(biāo)檢測(cè)算法的過(guò)程為,候選區(qū)域生成、特征提取、感興趣目標(biāo)的檢測(cè)與識(shí)別定位[6]。Faster R-CNN經(jīng)過(guò)了R-CNN以及Fast R-CNN的發(fā)展,整個(gè)步驟已經(jīng)統(tǒng)一到了一個(gè)深度學(xué)習(xí)網(wǎng)絡(luò)框架之內(nèi),能夠在GPU中完成,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和目標(biāo)的檢測(cè)速度都得到了大幅度提升。Faster R-CNN網(wǎng)絡(luò)模型的結(jié)構(gòu)整個(gè)計(jì)算過(guò)程為:①向ZF網(wǎng)絡(luò)輸入任意大小圖片。②經(jīng)過(guò)ZF網(wǎng)絡(luò)前向傳播至最后共享的卷積層,分成兩路。一路繼續(xù)前向傳播至特有卷積層,產(chǎn)生更高維的特征圖;另一路傳送到RPN網(wǎng)絡(luò)的輸入特征圖。③傳送到RPN網(wǎng)絡(luò)輸入的特征圖經(jīng)過(guò)RPN網(wǎng)絡(luò)得到區(qū)域建議和區(qū)域得分,并對(duì)區(qū)域得分采用非極大值抑制,輸出Top-N得分的區(qū)域建議給 RoI Pooling層。④步驟二中得到的高維特征圖和步驟三得到的區(qū)域建議同時(shí)送到RoI Pooling層,提取對(duì)應(yīng)區(qū)域建議的特征。⑤步驟四中得到的區(qū)域建議特征通過(guò)全連接層后,輸出該區(qū)域的得分以及回歸后的bounding-box。

2.1 建議區(qū)域提取

Faster R-CNN模型使用的RPN來(lái)實(shí)現(xiàn)目標(biāo)候選區(qū)域的生成。RPN的核心思想是使用卷積神經(jīng)網(wǎng)絡(luò)直接生成建議區(qū)域,這種方法只需在最后的卷積層上滑動(dòng)一遍,利用錨點(diǎn)機(jī)制和邊框回歸巧妙地得到了多尺度和多長(zhǎng)寬比的建議區(qū)域。首先是3×3的卷積,然后通過(guò)1×1卷積輸出分為兩路,其中一路輸出是目標(biāo)和非目標(biāo)的概率,另一路輸出box相關(guān)的四個(gè)參數(shù),包括box的中心坐標(biāo)x和y,box寬w和長(zhǎng)h。

anchor是RPN網(wǎng)絡(luò)的核心。它的形式是(x1,y1,x2,y2),表示矩形的左上角和右下角的點(diǎn)的坐標(biāo)。其實(shí),RPN最終就是在原圖尺度上,設(shè)置了密密麻麻的候選anchor。然后用CNN去判斷哪些anchor里是有目標(biāo)的foreground anchor,哪些是沒(méi)有目標(biāo)的background anchor。

在softmax前后各接一個(gè)reshape,結(jié)合caffe基本數(shù)據(jù)結(jié)構(gòu)blob的形式,更有利于softmax分類。框回歸操作用于將原始的anchor經(jīng)過(guò)一定的變換,映射到一個(gè)更接近真實(shí)框中。這樣,就得到了修正過(guò)后的anchor位置。在得到每一個(gè)候選區(qū)域的anchor的修正參數(shù)之后,就計(jì)算出較為精確的anchor,然后按照飛機(jī)的區(qū)域得分從大到小對(duì)得到的anchor進(jìn)行排名,剔除一些明顯不符的anchor,以及附加其他的過(guò)濾條件,取前N的anchor,然后作為候選框輸出。

2.2 訓(xùn)練網(wǎng)絡(luò)模型

Faster R-CNN目前擁有ZF、VGG_CNN_M_1024、 VGG16三種訓(xùn)練網(wǎng)絡(luò)模型。本文選擇的是ZF模型。①特征提取過(guò)程,輸入圖像→卷積→Relu激活→最大池化→特征圖。②特征還原過(guò)程,特征圖→反池化→反Relu激活→反卷積→可視化圖像。卷積核的大小、步長(zhǎng)等都需要人為設(shè)置,需要多次實(shí)驗(yàn)尋求最佳設(shè)計(jì)。因?yàn)閆F網(wǎng)絡(luò)實(shí)現(xiàn)了特征可視化,我們可以根據(jù)可視化圖像進(jìn)行分析,進(jìn)而尋找最優(yōu)設(shè)計(jì)參數(shù)。同時(shí),進(jìn)行參數(shù)調(diào)整,能夠減小訓(xùn)練網(wǎng)絡(luò)所需要數(shù)據(jù)的規(guī)模,從而使小數(shù)據(jù)量的高分辨率遙感圖像也能夠視同F(xiàn)aster R-CNN進(jìn)行多類目標(biāo)的分類。

3 結(jié)論

本文在Caffe深度學(xué)習(xí)框架之上構(gòu)建了基于ZF網(wǎng)絡(luò)的Faster R-CNN網(wǎng)絡(luò)模型,通過(guò)光學(xué)遙感圖像飛機(jī)目標(biāo)識(shí)別實(shí)驗(yàn),對(duì)模型的快速準(zhǔn)確識(shí)別進(jìn)行了分析。實(shí)驗(yàn)表明,模型能對(duì)某地點(diǎn)感興趣目標(biāo)的檢測(cè)精度進(jìn)行估計(jì),能夠完成不同場(chǎng)景下目標(biāo)的快速準(zhǔn)確檢測(cè)識(shí)別,能夠完成大范圍復(fù)雜場(chǎng)景下感興趣目標(biāo)的快速準(zhǔn)確檢測(cè)識(shí)別。

參考文獻(xiàn):

[ 1 ]Hinton G E, Salakhutdinov R R. Reducing the Dimensionality of Data with Neural Networks[J]. Science, 2006,313(5786): 504-507.

[ 2 ]Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolution neural networks[A].//Advances in neural information processing systems[C].2012:1097-1105.

[ 3 ]Girshick R, Darrell J D T, Malik J. Rich feature hierarchies for accurate object detection and semantic segmentation[A]. //CVPR[C].2014:580-587.

[ 4 ]侯明偉.基于空間金字塔池化的卷積神經(jīng)網(wǎng)絡(luò)圖像分類算法[D].武漢:武漢大學(xué),2018.

[ 5 ]任少卿.基于特征共享的高效物體檢測(cè)[D].合肥:中國(guó)科學(xué)技術(shù)大學(xué),2016.

[ 6 ]林封笑.基于深度學(xué)習(xí)的目標(biāo)快速檢測(cè)方法研究[D].杭州:杭州電子科技大學(xué),2018.

猜你喜歡
深度學(xué)習(xí)
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
福鼎市| 红河县| 静海县| 客服| 铜梁县| 山东| 保康县| 定襄县| 镇巴县| 台州市| 新巴尔虎左旗| 隆林| 桓台县| 富源县| 鄂伦春自治旗| 宜宾市| 阿荣旗| 安平县| 图木舒克市| 乐安县| 通许县| 泗洪县| 武强县| 福海县| 化隆| 曲松县| 绥阳县| 噶尔县| 霍邱县| 略阳县| 保康县| 太保市| 老河口市| 高碑店市| 彭州市| 博野县| 蓬莱市| 大竹县| 桐梓县| 民权县| 蚌埠市|