国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

區(qū)域提取網(wǎng)絡(luò)結(jié)合自適應(yīng)池化網(wǎng)絡(luò)的機(jī)場(chǎng)檢測(cè)

2018-06-14 06:10:38許悅雷馬時(shí)平
關(guān)鍵詞:池化邊界機(jī)場(chǎng)

辛 鵬, 許悅雷, 馬時(shí)平, 李 帥, 呂 超

(1. 空軍工程大學(xué) 航空航天工程學(xué)院,陜西 西安 710038;2. 中國(guó)人民解放軍95876部隊(duì),甘肅 張掖 734100)

在軍事領(lǐng)域,機(jī)場(chǎng)具有能量補(bǔ)給、交通中轉(zhuǎn)、飛機(jī)??康葢?zhàn)略功能,是被敵方打擊的重要目標(biāo).在民事領(lǐng)域,機(jī)場(chǎng)作為運(yùn)輸、能源配給的重要節(jié)點(diǎn),對(duì)于促進(jìn)經(jīng)濟(jì)發(fā)展起到十分重要的作用.遙感圖像或光學(xué)圖像中機(jī)場(chǎng)的檢測(cè)與識(shí)別可以為整個(gè)圖像的理解與應(yīng)用提供參考,是良好的信息提取切入點(diǎn).因此,研究圖像中機(jī)場(chǎng)的搜索、檢測(cè)和識(shí)別提取具有重大的意義,其成果在軍事領(lǐng)域可用于戰(zhàn)場(chǎng)監(jiān)測(cè)、定位導(dǎo)航、任務(wù)規(guī)劃等,在民事領(lǐng)域可用于地圖繪制、飛機(jī)降落引導(dǎo)等.

早期的機(jī)場(chǎng)圖像檢測(cè)方法大致分兩類(lèi)[1]: 基于跑道直線(xiàn)特性的線(xiàn)段檢測(cè)法以及基于機(jī)場(chǎng)紋理特征的場(chǎng)景分割和區(qū)域分析法.第1類(lèi)方法原理簡(jiǎn)單,軟件實(shí)現(xiàn)容易,但容易被具有類(lèi)直線(xiàn)特征的目標(biāo)如河流、道路等干擾,造成檢測(cè)的虛警率較高; 第2類(lèi)方法通常和滑動(dòng)窗搜索等有關(guān),得到的特征很復(fù)雜,計(jì)算量大,效率低,難以達(dá)到實(shí)時(shí)檢測(cè)的要求.有人將遷移學(xué)習(xí)方法應(yīng)用到機(jī)場(chǎng)檢測(cè)中[2],取得了不錯(cuò)的效果,但只把深度學(xué)習(xí)用作特征提取的工具,區(qū)域的定位仍采用傳統(tǒng)方法;也有人將卷積神經(jīng)網(wǎng)絡(luò)與其他方法結(jié)合起來(lái)進(jìn)行道路提取[3],同樣取得了良好的結(jié)果.最近,深度學(xué)習(xí)在區(qū)域提取領(lǐng)域也有了很大的突破,取得了優(yōu)于傳統(tǒng)方法的效果.考慮將機(jī)場(chǎng)檢測(cè)的整個(gè)過(guò)程都用深度學(xué)習(xí)方法實(shí)現(xiàn),筆者提出一種改進(jìn)的區(qū)域提取網(wǎng)絡(luò)和自適應(yīng)池化網(wǎng)絡(luò)結(jié)合的機(jī)場(chǎng)快速檢測(cè)方法.

加快檢測(cè)速度的方法大致分兩類(lèi): 第1類(lèi)方法著眼于硬件加速,主要是使用圖形處理單元(Graphics Processing Unit,GPU)來(lái)進(jìn)行大規(guī)模、并行運(yùn)算及采用先進(jìn)的中央處理器(Central Processing Unit, CPU)和更快的內(nèi)存單元等來(lái)加速網(wǎng)絡(luò)的計(jì)算速度; 第2類(lèi)方法致力于優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),通過(guò)對(duì)卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行任務(wù)特異的修改、優(yōu)化,引入一些特殊策略以減少計(jì)算量.針對(duì)機(jī)場(chǎng)檢測(cè)任務(wù),在圖形處理單元加速的基礎(chǔ)上,主要對(duì)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn)、優(yōu)化以達(dá)到機(jī)場(chǎng)快速檢測(cè)的目的.

1 改進(jìn)的區(qū)域提取網(wǎng)絡(luò)和自適應(yīng)池化網(wǎng)絡(luò)

1.1 區(qū)域提取網(wǎng)絡(luò)

筆者通過(guò)復(fù)用區(qū)域提取網(wǎng)絡(luò)和檢測(cè)網(wǎng)絡(luò)的卷積層對(duì)機(jī)場(chǎng)圖像進(jìn)行檢測(cè).其中區(qū)域提取階段加入一個(gè)二分類(lèi)分類(lèi)器對(duì)候選區(qū)域進(jìn)行優(yōu)化,進(jìn)一步提高網(wǎng)絡(luò)的性能.

區(qū)域提取網(wǎng)絡(luò)[4]通過(guò)復(fù)用檢測(cè)網(wǎng)絡(luò)的卷積層提取的特征進(jìn)行區(qū)域提取,節(jié)約了計(jì)算量,加快了提取速度.

圖1 區(qū)域提取網(wǎng)絡(luò)結(jié)構(gòu)示意圖

1.1.1 網(wǎng)絡(luò)結(jié)構(gòu)和特點(diǎn)

區(qū)域提取網(wǎng)絡(luò)在最后一層卷積層提取的特征圖上,運(yùn)行一個(gè)滑動(dòng)窗口(尺寸自定,設(shè)為 3×3) 來(lái)生成候選區(qū)域.每個(gè)滑動(dòng)窗口映射到一個(gè)低維向量上,該向量輸入兩個(gè)同級(jí)的全連接層——邊界框分類(lèi)層(cls)和邊界框回歸層(reg),前者對(duì)候選區(qū)域是否含有目標(biāo)進(jìn)行預(yù)測(cè),后者依據(jù)目標(biāo)的人工標(biāo)定邊界框?qū)︻A(yù)測(cè)邊界框位置進(jìn)行修正.網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示.

為適應(yīng)不同大小、不同形狀的目標(biāo),每一個(gè)滑動(dòng)窗口的位置同時(shí)預(yù)測(cè)多個(gè)不同大小和長(zhǎng)寬比的候選邊界框.每個(gè)框以滑動(dòng)窗口的中心為中心,由兩個(gè)點(diǎn)(框的左上角和右下角點(diǎn))的坐標(biāo)確定.命名每個(gè)框?yàn)橐粋€(gè)錨,每個(gè)滑窗中心定義3種尺度和3種長(zhǎng)寬比(共9類(lèi)錨),因此網(wǎng)絡(luò)的回歸層有36個(gè)輸出,即9種錨的坐標(biāo)編碼; 分類(lèi)層輸出18個(gè)得分,即每個(gè)錨是否包含目標(biāo)的概率(可用二類(lèi)的softmax層或logistic回歸實(shí)現(xiàn)).由于卷積和池化的降維特性,特征圖層面上每個(gè)錨在原始圖像中對(duì)應(yīng)的有效感受野很大.通過(guò)定義不同尺度的錨并經(jīng)過(guò)位置修正,以達(dá)到預(yù)測(cè)圖像中不同尺寸的機(jī)場(chǎng)的目的.

圖2 邊界框回歸示意圖

1.1.2 邊界框回歸和多任務(wù)損失

滑動(dòng)窗口處的預(yù)測(cè)的錨尺寸和形狀是固定的,但目標(biāo)尺寸是多變的.為了能對(duì)不同尺寸目標(biāo)的位置框定的更加準(zhǔn)確,增加一個(gè)邊界框回歸層對(duì)候選區(qū)域的預(yù)測(cè)邊界框進(jìn)行修正.如圖2所示,其中方框?yàn)槿斯?biāo)注的邊界框,方框?yàn)轭A(yù)測(cè)的邊界框,方框?yàn)榻?jīng)過(guò)修正后的邊界框.注意:只有當(dāng)預(yù)測(cè)的邊界框和人工標(biāo)定的邊界框比較接近時(shí),才近似把兩者視為線(xiàn)性關(guān)系,能將其作為訓(xùn)練樣本訓(xùn)練線(xiàn)性回歸模型.具體細(xì)節(jié)參照文獻(xiàn)[5].

為訓(xùn)練該網(wǎng)絡(luò),給每個(gè)錨分配一個(gè)二進(jìn)制的標(biāo)簽.分配正標(biāo)簽給兩類(lèi)錨:與任意人工標(biāo)定邊界框有大于0.7的交集并集之比(Intersection-over-Union,IoU)的錨;與某個(gè)人工標(biāo)定的邊界框有最高的交集并集之比的錨(也許不到0.7).一個(gè)人工標(biāo)定的邊界框可能給多個(gè)錨分配正標(biāo)簽.給與所有人工標(biāo)定的邊界框的交集并集之比都低于0.3的錨分配負(fù)標(biāo)簽.其余的錨對(duì)訓(xùn)練不起作用.

訓(xùn)練目標(biāo)有兩個(gè):一是預(yù)測(cè)候選區(qū)域含有目標(biāo)的概率,另一個(gè)是對(duì)目標(biāo)的邊界框位置進(jìn)行調(diào)整.遵循文獻(xiàn)[5]中的多任務(wù)損失,定義一個(gè)候選區(qū)域的損失函數(shù)為

(1)

分類(lèi)損失Lcls定義為L(zhǎng)cls(p,u)=-logpu,(2)

其中,R是文獻(xiàn)[5]中定義的函數(shù):

(4)

研究發(fā)現(xiàn),多任務(wù)損失的聯(lián)合訓(xùn)練可以使多個(gè)任務(wù)的信息互相補(bǔ)充,讓公用特征提取得更好,從而提高整體效果.為減少冗余區(qū)域的數(shù)量,在區(qū)域提取結(jié)束后用非極大值抑制的方法對(duì)區(qū)域進(jìn)行篩選.

圖3 改進(jìn)的區(qū)域提取網(wǎng)絡(luò)方法示意圖

1.2 改進(jìn)的區(qū)域提取網(wǎng)絡(luò)

實(shí)驗(yàn)中發(fā)現(xiàn),區(qū)域提取網(wǎng)絡(luò)提取的候選區(qū)域中存在大量定位較差的區(qū)域和背景區(qū)域,有很大的優(yōu)化空間.文獻(xiàn)[6]發(fā)現(xiàn)用卷積神經(jīng)網(wǎng)絡(luò)可以減少用聚類(lèi)方法生成的候選區(qū)域的數(shù)量,提高檢測(cè)性能;文獻(xiàn)[7]用一個(gè)4層的級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)對(duì)候選區(qū)域重新排序,提升候選區(qū)域的質(zhì)量.受此啟發(fā),借鑒分治策略[8],在區(qū)域提取網(wǎng)絡(luò)后加一個(gè)二類(lèi)分類(lèi)器,對(duì)定位較差的區(qū)域和背景區(qū)域進(jìn)行篩除,提出一種改進(jìn)的區(qū)域提取網(wǎng)絡(luò).其中“二類(lèi)”指目標(biāo)和背景,該分類(lèi)器參照自適應(yīng)池化檢測(cè)網(wǎng)絡(luò)的結(jié)構(gòu)(見(jiàn)1.3節(jié))設(shè)計(jì),以區(qū)域提取網(wǎng)絡(luò)提取的候選區(qū)域?yàn)檩斎?正負(fù)樣本的設(shè)置參照區(qū)域提取網(wǎng)絡(luò))進(jìn)行訓(xùn)練,網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示.

二分類(lèi)網(wǎng)絡(luò)也包含邊界框回歸層,因?yàn)橹貜?fù)的邊界框回歸能進(jìn)一步提高候選區(qū)域的定位精度.從網(wǎng)絡(luò)結(jié)構(gòu)上分析,新增加的二分類(lèi)網(wǎng)絡(luò)除了能篩除背景和一些定位較差的區(qū)域外,還能融合不同方法提取的候選區(qū)域,達(dá)到吸收不同區(qū)域提取方法的優(yōu)勢(shì)的目的.

1.3 自適應(yīng)池化的機(jī)場(chǎng)檢測(cè)網(wǎng)絡(luò)

傳統(tǒng)的卷積網(wǎng)絡(luò)只能輸入固定尺寸的圖像.為適應(yīng)不同尺寸的輸入,早期大多采用拉伸、縮放等形變方法,雖然能得到不錯(cuò)的準(zhǔn)確率,但造成了目標(biāo)及其特征的失真,對(duì)檢測(cè)結(jié)果有一定影響.筆者在文獻(xiàn)[9]提出的空間金字塔池化的基礎(chǔ)上,借鑒自適應(yīng)池化窗口大小和滑動(dòng)步長(zhǎng)的方法,將不同大小的特征圖整合到同一尺度.為加快計(jì)算速度,將金字塔的層數(shù)減少至一層.

檢測(cè)任務(wù)中每張圖片產(chǎn)生數(shù)以千計(jì)的候選區(qū)域,許多區(qū)域重疊程度很高,它們均被送入同一網(wǎng)絡(luò)進(jìn)行檢測(cè),造成了相似特征的重復(fù)提取,大大增加了計(jì)算量.觀察來(lái)自同一圖像的多個(gè)候選區(qū)域,其特征都是整張圖像特征的一部分,且空間位置是一一對(duì)應(yīng)的.受此啟發(fā),考慮只提取整張圖像的特征,候選區(qū)域的特征通過(guò)空間的對(duì)應(yīng)關(guān)系映射得到.事實(shí)證明這是可行的,且檢測(cè)速度得到了極大提升.

自適應(yīng)池化層之后是幾個(gè)全連接層,最后再經(jīng)過(guò)兩個(gè)同級(jí)的全連接層——分類(lèi)層和回歸層,如圖4所示.網(wǎng)絡(luò)結(jié)構(gòu)與區(qū)域提取網(wǎng)絡(luò)類(lèi)似,區(qū)別是此時(shí)的分類(lèi)為多目標(biāo)分類(lèi).

圖4 檢測(cè)網(wǎng)絡(luò)結(jié)構(gòu)示意圖

2 改進(jìn)的區(qū)域提取網(wǎng)絡(luò)和自適應(yīng)池化網(wǎng)絡(luò)結(jié)合的機(jī)場(chǎng)快速檢測(cè)

2.1 網(wǎng)絡(luò)模型的選擇和初始化

一個(gè)標(biāo)準(zhǔn)的神經(jīng)網(wǎng)絡(luò)的訓(xùn)練需要大量的標(biāo)定數(shù)據(jù),但筆者提供的數(shù)據(jù)量遠(yuǎn)遠(yuǎn)不夠,考慮使用在大型數(shù)據(jù)集ImageNet[10]上預(yù)訓(xùn)練的網(wǎng)絡(luò)作為模型的初始值,用筆者擁有的數(shù)據(jù)集再訓(xùn)練以微調(diào)網(wǎng)絡(luò)權(quán)值.這樣做是可行的,因?yàn)椴煌繕?biāo)提取出的低級(jí)特征是相似的.有人采用類(lèi)似的網(wǎng)絡(luò)初始化方法[2],取得了不錯(cuò)的效果.具體到機(jī)場(chǎng)的檢測(cè)任務(wù),為避免過(guò)擬合,選擇小型的預(yù)訓(xùn)練網(wǎng)絡(luò)Zeiler and Fergus nets (ZF nets)[11]的最后一個(gè)卷積層及其之前的部分作為復(fù)用的卷積層,其余用均值為零、方差為 0.000 1 的高斯函數(shù)隨機(jī)初始化.

2.2 交叉優(yōu)化訓(xùn)練

筆者提出模型的訓(xùn)練不能簡(jiǎn)單地用反向傳播算法將兩部分視為整體聯(lián)合訓(xùn)練,原因是檢測(cè)網(wǎng)絡(luò)的訓(xùn)練依賴(lài)于區(qū)域提取網(wǎng)絡(luò)的提取區(qū)域.為了達(dá)到復(fù)用卷積層的目的,根據(jù)不同子網(wǎng)絡(luò)輸入輸出的差異,按邏輯順序采用一種交叉優(yōu)化的訓(xùn)練策略[4],將區(qū)域提取網(wǎng)絡(luò)和檢測(cè)網(wǎng)絡(luò)分開(kāi)獨(dú)立訓(xùn)練.具體分4步:

第1步 單獨(dú)訓(xùn)練區(qū)域提取網(wǎng)絡(luò),微調(diào)網(wǎng)絡(luò)權(quán)值并產(chǎn)生若干機(jī)場(chǎng)候選區(qū)域; 用產(chǎn)生的候選區(qū)域(也可以選擇加入其他方法提取的候選區(qū)域)作為輸入,訓(xùn)練二分類(lèi)網(wǎng)絡(luò)(網(wǎng)絡(luò)初始化方式與區(qū)域提取網(wǎng)絡(luò)相同),微調(diào)網(wǎng)絡(luò)權(quán)值并產(chǎn)生優(yōu)化后的機(jī)場(chǎng)候選區(qū)域;

第2步 用第1步產(chǎn)生的優(yōu)化候選區(qū)域訓(xùn)練檢測(cè)網(wǎng)絡(luò),微調(diào)網(wǎng)絡(luò)權(quán)值,注意此時(shí)檢測(cè)網(wǎng)絡(luò)的初始化卷積層并非第1步微調(diào)過(guò)的,而是采用原始的預(yù)訓(xùn)練卷積層;

第3步 把第2步微調(diào)過(guò)的檢查網(wǎng)絡(luò)卷積層權(quán)重作為初始化的卷積層并固定不變,用和第1步相同的方法重新訓(xùn)練區(qū)域提取網(wǎng)絡(luò)和二分類(lèi)網(wǎng)絡(luò),只微調(diào)兩個(gè)網(wǎng)絡(luò)獨(dú)有的層,同時(shí)產(chǎn)生新的機(jī)場(chǎng)候選區(qū)域;

第4步 保持第3步中的卷積層不變,用第3步產(chǎn)生的新機(jī)場(chǎng)候選區(qū)域微調(diào)檢測(cè)網(wǎng)絡(luò),此時(shí)網(wǎng)絡(luò)訓(xùn)練結(jié)束且達(dá)到了復(fù)用卷積層的目的.

3 仿真實(shí)驗(yàn)和分析

3.1 仿真平臺(tái)和機(jī)場(chǎng)數(shù)據(jù)庫(kù)的準(zhǔn)備

以Matlab 2014b作為仿真平臺(tái),用Visual Studio 2013編譯的caffe作為神經(jīng)網(wǎng)絡(luò)的框架,電腦配置的中央處理器為I7-7700 3.6 GHz,內(nèi)存為 16 GB,顯卡為NVIDIA GTX 1060.選取600張不同分辨率和不同尺寸的機(jī)場(chǎng)圖像作為訓(xùn)練數(shù)據(jù)集,使模型學(xué)習(xí)多樣的特征,同時(shí)在一定程度上防止過(guò)擬合.

圖像中機(jī)場(chǎng)邊界框的標(biāo)注是用軟件Labelimg實(shí)現(xiàn)的,選擇8類(lèi)場(chǎng)景作為訓(xùn)練目標(biāo),包括1個(gè)感興趣場(chǎng)景(即機(jī)場(chǎng))和7個(gè)背景場(chǎng)景(即山脈、建筑物、河流、森林、農(nóng)場(chǎng)、道路和島嶼),每張圖像可以標(biāo)注多個(gè)場(chǎng)景,也可以只標(biāo)注一類(lèi)場(chǎng)景.每張圖像都至少包含一個(gè)機(jī)場(chǎng)目標(biāo),因此機(jī)場(chǎng)類(lèi)的訓(xùn)練樣本比背景類(lèi)的訓(xùn)練樣本多,這也使得檢測(cè)模型對(duì)機(jī)場(chǎng)的檢測(cè)性能優(yōu)于其他背景場(chǎng)景.

3.2 訓(xùn)練和測(cè)試的實(shí)驗(yàn)結(jié)果

為防止過(guò)擬合,以0.5的概率將訓(xùn)練圖像水平翻轉(zhuǎn)來(lái)進(jìn)行數(shù)據(jù)擴(kuò)張,訓(xùn)練和測(cè)試集的比例設(shè)為6∶4,區(qū)域提取過(guò)程使用改進(jìn)的區(qū)域提取網(wǎng)絡(luò)并融合了選擇性搜索方法[12]提取的區(qū)域.經(jīng)過(guò)4個(gè)步驟的交叉優(yōu)化訓(xùn)練,得到了實(shí)驗(yàn)的結(jié)果和訓(xùn)練好的機(jī)場(chǎng)檢測(cè)網(wǎng)絡(luò)模型.實(shí)驗(yàn)結(jié)果如表1所示.為證明改進(jìn)的區(qū)域提取網(wǎng)絡(luò)能提高檢測(cè)性能,用控制變量法做了一組對(duì)比實(shí)驗(yàn),結(jié)果如表2所示.

表1中的結(jié)果說(shuō)明筆者提出的方法對(duì)機(jī)場(chǎng)這一目標(biāo)有較好的檢測(cè)性能,而且能區(qū)分與機(jī)場(chǎng)相似的場(chǎng)景,如道路、河流等.道路、河流等的平均檢測(cè)率(Average Precision,AP)不夠高,是因?yàn)橛?xùn)練樣本不足,只有少部分的圖像中存在這些場(chǎng)景.該結(jié)果是基于600張訓(xùn)練圖像得到的.相信隨著訓(xùn)練樣本數(shù)量的增加,每類(lèi)場(chǎng)景都能得到理想的平均檢測(cè)率.

表1 網(wǎng)絡(luò)訓(xùn)練和測(cè)試后每類(lèi)的平均檢測(cè)率

表2 區(qū)域提取方法的對(duì)比實(shí)驗(yàn)

表2中3個(gè)對(duì)比實(shí)驗(yàn)用到了控制變量法.改進(jìn)區(qū)域提取方法的目的是提高檢測(cè)性能,故選擇最終檢測(cè)網(wǎng)絡(luò)的平均準(zhǔn)確率的均值(mean Average Precision,mAP)和在10幅尺寸為 800× 600的測(cè)試圖像上的平均檢測(cè)時(shí)間作為評(píng)價(jià)指標(biāo).表2的結(jié)果顯示,改進(jìn)的區(qū)域提取網(wǎng)絡(luò)能在不增加檢測(cè)時(shí)間的前提下提高平均準(zhǔn)確率的均值.在改進(jìn)的區(qū)域提取網(wǎng)絡(luò)的基礎(chǔ)上增加選擇性搜索能進(jìn)一步提高平均準(zhǔn)確率的均值,但相應(yīng)的檢測(cè)時(shí)間有明顯增加,這是因?yàn)檫x擇性搜索很耗時(shí).以上實(shí)驗(yàn)說(shuō)明,改進(jìn)的區(qū)域提取網(wǎng)絡(luò)能在提高候選區(qū)域質(zhì)量的基礎(chǔ)上提高檢測(cè)網(wǎng)絡(luò)的性能,而且通過(guò)與其他區(qū)域提取方法的融合,能進(jìn)一步提高檢測(cè)方法的性能.

圖5 筆者提出的方法對(duì)一些典型的機(jī)場(chǎng)檢測(cè)效果圖

圖6 兩個(gè)未檢測(cè)出的機(jī)場(chǎng)示例

圖5顯示了筆者提出方法的幾個(gè)成功的檢測(cè)結(jié)果,圖6顯示了兩個(gè)未能檢測(cè)出的機(jī)場(chǎng)圖像.比較發(fā)現(xiàn),由于數(shù)據(jù)庫(kù)中大多是“常規(guī)”的機(jī)場(chǎng)圖像,因此對(duì)一些外形比較特別的機(jī)場(chǎng)(如圖6)無(wú)法檢測(cè).為解決這一問(wèn)題,可以考慮將檢測(cè)對(duì)象進(jìn)一步細(xì)化到跑道這一層面,或嘗試增加相關(guān)的訓(xùn)練數(shù)據(jù)集來(lái)讓網(wǎng)絡(luò)學(xué)習(xí)這些特征,這些思路將作為下一步的研究?jī)?nèi)容.

3.3 與其他方法的對(duì)比實(shí)驗(yàn)

為檢驗(yàn)筆者提出方法的性能,選取兩種典型的機(jī)場(chǎng)檢測(cè)方法作為對(duì)照,隨機(jī)選取200張機(jī)場(chǎng)圖像作為測(cè)試數(shù)據(jù)集,對(duì)機(jī)場(chǎng)的檢測(cè)率、虛警率和檢測(cè)時(shí)間進(jìn)行統(tǒng)計(jì).表3中“基于邊緣”指基于邊緣的機(jī)場(chǎng)檢測(cè)方法,如文獻(xiàn)[13]等;“基于SIFT(Scale Invariant Feature Transform)”指基于尺度不變特征轉(zhuǎn)換特征的機(jī)場(chǎng)檢測(cè)方法,如文獻(xiàn)[14]等.為復(fù)現(xiàn)這兩種方法,對(duì)網(wǎng)絡(luò)上下載的相關(guān)的公開(kāi)代碼根據(jù)論文思路進(jìn)行修改,每種方法取多次實(shí)驗(yàn)的均值,結(jié)果如表3所示.

表3 筆者提出的方法與兩種經(jīng)典方法的對(duì)比

在對(duì)比實(shí)驗(yàn)中,筆者提出的方法選擇改進(jìn)的區(qū)域提取網(wǎng)絡(luò)但不融合其他方法提取的區(qū)域以加快檢測(cè)速度.從表3看出,筆者提出的方法在測(cè)試數(shù)據(jù)集上的檢測(cè)率最高,虛警率最低,平均檢測(cè)時(shí)間也最短,各方面性能都有了很大的提升.這說(shuō)明與這文獻(xiàn)[13-14]中的方法相比,筆者提出的方法提取的特征對(duì)機(jī)場(chǎng)的表達(dá)能力更強(qiáng).

4 總 結(jié)

筆者提出一種改進(jìn)的區(qū)域提取網(wǎng)絡(luò)和自適應(yīng)池化網(wǎng)絡(luò)結(jié)合的機(jī)場(chǎng)快速檢測(cè)方法,提高了檢測(cè)識(shí)別率,降低了虛警率,縮短了檢測(cè)時(shí)間.改進(jìn)的區(qū)域提取網(wǎng)絡(luò)通過(guò)一個(gè)二分類(lèi)網(wǎng)絡(luò)篩除了提取較差的機(jī)場(chǎng)候選區(qū)域和背景區(qū)域;檢測(cè)網(wǎng)絡(luò)中通過(guò)復(fù)用來(lái)自同一圖片的候選區(qū)域的特征,大大減少了計(jì)算代價(jià); 自適應(yīng)池化使不同尺寸的候選區(qū)域能在特征圖層面上調(diào)整至同一尺度,打破了傳統(tǒng)網(wǎng)絡(luò)只能適應(yīng)固定尺寸輸入的限制;復(fù)用區(qū)域提取和檢測(cè)網(wǎng)絡(luò)的卷積層,使得區(qū)域提取的時(shí)間幾乎忽略不計(jì).筆者提出的方法為機(jī)場(chǎng)實(shí)時(shí)、精確檢測(cè)做了有效的探索,有較強(qiáng)的理論和實(shí)用價(jià)值.提取機(jī)場(chǎng)更加魯棒、高效的特征,創(chuàng)建更加完備的機(jī)場(chǎng)數(shù)據(jù)庫(kù),將筆者提出方法應(yīng)用到實(shí)時(shí)機(jī)場(chǎng)檢測(cè)中,是今后努力的方向.

[1] ZHU D, WANG B, ZHANG L M. Airport Detection Based on Near Parallelity of Line Segments and GBVS Saliency[J]. Journal of Infrared and Millimeter Waves, 2015, 34(3): 375-384.

[2] ZHANG P, NIU X, DOU Y, et al. Airport Detection from Remote Sensing Images Using Transferable Convolutional Neural Networks[C]//Proceedings of the 2016 International Joint Conference on Neural Networks. Piscataway: IEEE, 2016: 2590-2595.

[3] 劉如意, 宋建鋒, 權(quán)義寧, 等. 一種自動(dòng)的高分辨率遙感影像道路提取方法[J]. 西安電子科技大學(xué)學(xué)報(bào), 2017, 44(1): 100-105.

LIU Ruyi, SONG Jianfeng, QUAN Yining, et al. Automatic Road Extraction Method for High-resolution Remote Sensing Images[J]. Journal of Xidian University, 2017, 44(1): 100-105.

[4] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: towards Real-time Object Detection with Region Proposal Networks[C]//Proceedings of the Advances in Neural Information Processing Systems. Vancouver: Neural Information Processing Systems Foundation, 2015: 91-99.

[5] GIRSHICK R. Fast r-cnn[C]//Proceedings of the 2015 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2015: 1440-1448.

[6] YAN J, YU Y, ZHU X, et al. Object Detection by Labeling Superpixels[C]//Proceedings of the 2015 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2015: 5107-5116.

[7] KUO W, HARIHARAN B, MALIK J. Deepbox: Learning Objectness with Convolutional Networks[C]//Proceedings of the 2015 IEEE International Conference on Computer Vision. Piscataway: IEEE, 2015: 2479-2487.

[8] YANG B, YAN J, LEI Z, et al. Craft Objects from Images[C]//Proceedings of the 2016 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2016: 6043-6051.

[9] HE K, ZHANG X, REN S, et al. Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1904-1916.

[10] DENG J, DONG W, SOCHER R, et al. Imagenet: a Large-scale Hierarchical Image Database[C]//Proceedings of the 2009 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2009: 248-255.

[11] ZEILER M D, FERGUS R. Visualizing and Understanding Convolutional Networks[C]//Lecture Notes in Computer Science: 8689. Heidelberg: Springer Verlag, 2014: 818-833.

[12] UIJLINGS J R R, van de SANDE K E A, GEVERS T, et al. Selective Search for Object Recognition[J]. International Journal of Computer Vision, 2013, 104(2): 154-171.

[13] QU Y, LI C, ZHENG N. Airport Detection Base on Support Vector Machine from a Single Image[C]//Proceedings of the 2005 Fifth International Conference on Information, Communications and Signal Processing. Piscataway: IEEE, 2005: 546-549.

[14] TAO C, TAN Y, CAI H, et al. Airport Detection from Large IKONOS Images Using Clustered SIFT Keypoints and Region Information[J]. IEEE Geoscience and Remote Sensing Letters, 2011, 8(1): 128-132.

猜你喜歡
池化邊界機(jī)場(chǎng)
基于緊湊型雙線(xiàn)性網(wǎng)絡(luò)的野生茵識(shí)別方法研究
基于Sobel算子的池化算法設(shè)計(jì)
機(jī)場(chǎng)罷工
卷積神經(jīng)網(wǎng)絡(luò)中的自適應(yīng)加權(quán)池化
拓展閱讀的邊界
如何避免GSM-R無(wú)線(xiàn)通信系統(tǒng)對(duì)機(jī)場(chǎng)電磁干擾
基于卷積神經(jīng)網(wǎng)絡(luò)和池化算法的表情識(shí)別研究
論中立的幫助行為之可罰邊界
面部識(shí)別使機(jī)場(chǎng)安檢提速
最有創(chuàng)意的機(jī)場(chǎng)
富蕴县| 安丘市| 扶风县| 鄂托克旗| 河间市| 平罗县| 亚东县| 泌阳县| 乌拉特中旗| 通河县| 雷山县| 晋中市| 湛江市| 郑州市| 乌苏市| 开封县| 大足县| 闸北区| 肇庆市| 浪卡子县| 白沙| 清涧县| 丽江市| 苗栗县| 德昌县| 万山特区| 垫江县| 玉山县| 宜阳县| 庐江县| 静宁县| 会理县| 海南省| 武城县| 石林| 永安市| 镇原县| 大洼县| 临澧县| 喜德县| 岳池县|