楊子固, 李海芳, 劉劍超, 王飛龍, 李 鋼
(1.太原理工大學(xué)信息與計(jì)算機(jī)學(xué)院, 晉中 030600; 2.太原理工大學(xué)大數(shù)據(jù)學(xué)院, 晉中 030600; 3. 太原理工大學(xué)軟件學(xué)院, 晉中 030600)
安檢是保護(hù)社會(huì)公共安全的一道重要防線(xiàn),由于行業(yè)的特殊性,其不僅具有較高的準(zhǔn)確性要求,同時(shí)也具有嚴(yán)苛的實(shí)時(shí)性需求。在安檢領(lǐng)域,一般使用X射線(xiàn)安檢機(jī)對(duì)包裹進(jìn)行掃描,生成偽彩色透視圖像[1],并通過(guò)人工對(duì)該圖像的觀察,識(shí)別包裹中是否存在危險(xiǎn)品。然而,人工檢查受各種不確定因素的影響較大,安檢質(zhì)量難以得到保證,容易發(fā)生漏檢和誤檢[2],進(jìn)而影響公共安全。
近幾年隨著深度學(xué)習(xí)技術(shù)的發(fā)展,其在計(jì)算機(jī)視覺(jué)領(lǐng)域的應(yīng)用[3-4]越來(lái)越廣泛,利用深度學(xué)習(xí)方法對(duì)X射線(xiàn)安檢圖像進(jìn)行分類(lèi)和危險(xiǎn)品檢測(cè)逐漸成為該領(lǐng)域的研究熱點(diǎn)和難點(diǎn)。深度學(xué)習(xí)中的目標(biāo)檢測(cè)方法不僅能自動(dòng)識(shí)別出X射線(xiàn)安檢圖像中的危險(xiǎn)品類(lèi)別,還可以定位危險(xiǎn)品在圖像中的位置。當(dāng)其從圖像中檢測(cè)到一個(gè)或多個(gè)危險(xiǎn)品時(shí),即可認(rèn)為該圖像屬于異常圖像;反之,則為正常圖像。因此,將目標(biāo)檢測(cè)方法用于X射線(xiàn)安檢圖像的自動(dòng)識(shí)別,對(duì)于提高安檢水平具有重要研究?jī)r(jià)值和社會(huì)意義。
目標(biāo)檢測(cè)方法可分為兩種,一種是傳統(tǒng)的基于滑動(dòng)窗口的方法,一種是基于區(qū)域選擇的檢測(cè)方法[5]。傳統(tǒng)的基于滑動(dòng)窗口的檢測(cè)方法是一種密集采樣法,其主要思路是使用一個(gè)檢測(cè)框從圖像中裁剪出不同大小的圖像塊,使用方向梯度直方圖(histogram of oriented gradient,HOG)等算子[6]或卷積神經(jīng)網(wǎng)絡(luò)[7]對(duì)裁剪出的圖像塊提取特征,再通過(guò)支持向量機(jī)等分類(lèi)器進(jìn)行分類(lèi)。這類(lèi)方法需要大量時(shí)間對(duì)圖像塊重復(fù)提取特征,計(jì)算成本較大。基于區(qū)域選擇的方法首先從圖像中選取興趣區(qū)域(region of interest,RoI),再進(jìn)行特征提取和分類(lèi),這樣避免了基于滑動(dòng)窗口的目標(biāo)檢測(cè)方法密集采樣的過(guò)程,減少了計(jì)算量。Girshick等[8]提出一種多階段的目標(biāo)檢測(cè)模型R-CNN(regions with CNN features),該模型首先使用選擇性搜索從圖像中提取興趣區(qū)域,然后通過(guò)卷積神經(jīng)網(wǎng)絡(luò)對(duì)興趣區(qū)域進(jìn)行特征提取,最后使用訓(xùn)練的分類(lèi)器和回歸器分別預(yù)測(cè)其類(lèi)別和位置,取得了較好的效果。在其更進(jìn)一步的工作中,Girshick[9]提出了Fast R-CNN,通過(guò)對(duì)整個(gè)圖像進(jìn)行卷積,避免了R-CNN重復(fù)提取特征的過(guò)程,并引入興趣區(qū)域池化(RoIPooling),使得后續(xù)的分類(lèi)和回歸可以處理任意大小的輸入。Ren等[10]考慮到選擇性搜索算法運(yùn)行速度慢的問(wèn)題,提出了Faster R-CNN,該模型通過(guò)區(qū)域建議生成網(wǎng)絡(luò)(region of proposal network,RPN)生成興趣區(qū)域,大大提高了模型性能和運(yùn)行速度。
Akcay等[11-12]詳盡地探索了目標(biāo)檢測(cè)方法在X射線(xiàn)安檢圖像自動(dòng)檢測(cè)領(lǐng)域的應(yīng)用,其通過(guò)實(shí)驗(yàn)證明基于區(qū)域選擇的目標(biāo)檢測(cè)算法與基于滑動(dòng)窗口的目標(biāo)檢測(cè)算法相比,具有更強(qiáng)的適用性。Gaus等[13]等考慮X射線(xiàn)安檢圖像中電子產(chǎn)品、液體等物體潛在的危險(xiǎn)性,提出了一種雙重卷積神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)利用Faster R-CNN等目標(biāo)檢測(cè)方法檢測(cè)圖像中潛在的危險(xiǎn)品,并對(duì)檢測(cè)到的潛在危險(xiǎn)品,使用一個(gè)子網(wǎng)絡(luò)進(jìn)行異常檢測(cè),將其分類(lèi)為正?;蛘弋惓?。實(shí)驗(yàn)結(jié)果表明,盡管檢測(cè)精度有所提高,但誤報(bào)率同樣較高??导验萚14]針對(duì)安檢X射線(xiàn)圖像檢測(cè)中的違禁品尺度差異問(wèn)題,對(duì)Faster R-CNN網(wǎng)絡(luò)進(jìn)行改進(jìn),提出一種基于多通道區(qū)域建議網(wǎng)絡(luò),提高了識(shí)別精度。張震等[15]針對(duì)傳統(tǒng)的SSD(single shot multiBox detector)算法在檢測(cè)小目標(biāo)容易漏檢且檢測(cè)精度不高的問(wèn)題,提出了一種改進(jìn)SSD的算法,提高了X射線(xiàn)安檢圖像中小目標(biāo)的檢測(cè)精度。何彥輝等[16]考慮不同廠商、不同X射線(xiàn)機(jī)產(chǎn)生的圖像之間的差異,以Faster R-CNN為基礎(chǔ),提出了一種基于上下文的透射率自適應(yīng)域?qū)R算法,一定程度上解決了目標(biāo)檢測(cè)算法在不同于訓(xùn)練域數(shù)據(jù)的測(cè)試域中精度下降的問(wèn)題。
然而,以上將目標(biāo)檢測(cè)方法應(yīng)用到X射線(xiàn)安檢圖像的自動(dòng)識(shí)別技術(shù)依然存在精度不高、速度欠佳等缺陷,無(wú)法大規(guī)模投入行業(yè)應(yīng)用。目標(biāo)檢測(cè)方法是一種全監(jiān)督方法,在訓(xùn)練時(shí)需要將異常圖像和圖像中所包含危險(xiǎn)品的標(biāo)注圖像共同輸入到網(wǎng)絡(luò)中,但在實(shí)際安檢場(chǎng)景中,不僅需要對(duì)異常圖像進(jìn)行檢測(cè),還需要有效區(qū)分正常圖像和異常圖像。此類(lèi)目標(biāo)檢測(cè)方法的訓(xùn)練域和測(cè)試域存在數(shù)據(jù)分布不一致的問(wèn)題。這導(dǎo)致其無(wú)法有效學(xué)習(xí)到正常圖像的特征,容易將正常圖像識(shí)別為帶危險(xiǎn)品的異常圖像,發(fā)生誤檢。通常,誤檢率是指模型對(duì)正常圖像數(shù)據(jù)集進(jìn)行識(shí)別時(shí)發(fā)生誤檢的圖像數(shù)量占所有正常圖像的比例。本文研究通過(guò)實(shí)驗(yàn)測(cè)試得知,F(xiàn)aster R-CNN經(jīng)過(guò)對(duì)2 405張包含異常圖像的數(shù)據(jù)集訓(xùn)練后,對(duì)正常圖像的誤檢率達(dá)到了27.83%。而在實(shí)際安檢過(guò)程中,絕大多數(shù)X射線(xiàn)安檢圖像都屬于正常圖像,在這樣的應(yīng)用背景下,目標(biāo)檢測(cè)方法對(duì)于正常圖像的正確識(shí)別,即對(duì)正常圖像和異常圖像的正確分類(lèi),無(wú)疑是非常重要的環(huán)節(jié)。Faster R-CNN的顯然無(wú)法滿(mǎn)足實(shí)際的安檢需求。
Faster R-CNN是Ren等[10]提出來(lái)的兩階段目標(biāo)檢測(cè)網(wǎng)絡(luò),其結(jié)構(gòu)如圖1所示。該網(wǎng)絡(luò)主要由骨干網(wǎng)絡(luò)、區(qū)域建議生成網(wǎng)絡(luò)(region of proposal network,RPN)、興趣區(qū)域池化層(RoIPooling)、分類(lèi)和回歸頭部4部分組成。
圖1 Faster R-CNN結(jié)構(gòu)圖Fig.1 The structure of Faster R-CNN
Faster R-CNN采用網(wǎng)絡(luò)VGG16[17]作為骨干網(wǎng)絡(luò),后被性能更強(qiáng)的ResNet50[18]取代,ResNet50由4組殘差塊組成,分別命名為{res2, res3, res4, res5},殘差塊的結(jié)構(gòu)如圖2所示。在殘差塊中,由于引入了跳躍連接,直接將輸入與輸出相加,緩解了深度神經(jīng)網(wǎng)絡(luò)的退化問(wèn)題,使神經(jīng)網(wǎng)絡(luò)可以達(dá)到更深的層數(shù),提高整個(gè)模型的特征擬合能力。Faster R-CNN前向傳播的過(guò)程中,預(yù)處理后的圖片經(jīng)過(guò)骨干網(wǎng)絡(luò)后,將res4殘差塊輸出的1 024維的特征圖輸入到后續(xù)的RPN網(wǎng)絡(luò)中,用于進(jìn)一步的特征提取。
圖2 殘差塊結(jié)構(gòu)Fig.2 The structure of residual block
RPN是一個(gè)包含兩個(gè)分支的全卷積神經(jīng)網(wǎng)絡(luò),用于生成區(qū)域建議。該網(wǎng)絡(luò)通過(guò)卷積層,生成一組具有不同比例和大小的錨框,并預(yù)測(cè)每個(gè)錨框所包含潛在對(duì)象的邊界框坐標(biāo)以及表示該區(qū)域是前景還是背景的概率分?jǐn)?shù),并基于此,計(jì)算出不同大小、不同形狀的區(qū)域建議。
由于后續(xù)的分類(lèi)和回歸頭部需要固定大小的輸入特征向量,RPN計(jì)算輸出的區(qū)域建議首先經(jīng)過(guò)RoIPooling,將不同形狀、不同大小的區(qū)域固定為14×14大小的特征圖。然后將該特征圖輸入到res5殘差塊,增強(qiáng)特征圖中的語(yǔ)義信息,并輸出7×7大小的特征向量。隨后,該特征向量被輸入到分類(lèi)和回歸頭部,分類(lèi)區(qū)域建議中的目標(biāo),并做進(jìn)一步的邊框回歸。
為了解決Faster R-CNN訓(xùn)練域和測(cè)試域數(shù)據(jù)分布不一致的問(wèn)題,提出一種前置預(yù)分類(lèi)頭部的X射線(xiàn)安檢圖像檢測(cè)網(wǎng)絡(luò)(pre-classification Faster R-CNN,PC-Faster R-CNN),其整體結(jié)構(gòu)如圖3所示。首先針對(duì)Faster R-CNN無(wú)法學(xué)習(xí)到正常圖像的特征的缺點(diǎn),新增了一個(gè)共享backbone的預(yù)分類(lèi)頭部(pre-classification module,PCM),在訓(xùn)練時(shí),該頭部可以同時(shí)接受無(wú)標(biāo)注的正常圖像和有標(biāo)注的異常圖像,學(xué)習(xí)正常圖像和異常圖像的特征差異,對(duì)正常圖像進(jìn)行區(qū)分。同時(shí),使用RoIAlign[19]替代Faster R-CNN中原始的RoIPooling層,解決RoIPooling對(duì)興趣區(qū)域池化時(shí)引入的量化誤差,提高Faster R-CNN的檢測(cè)性能。
c為危險(xiǎn)品類(lèi)別數(shù)量;d為維度圖3 PC-Faster R-CNN結(jié)構(gòu)圖Fig.3 PC-Faster R-CNN structure diagram
在進(jìn)行檢測(cè)時(shí),新模型首先通過(guò)預(yù)分類(lèi)頭部完成對(duì)正常圖像和異常圖像的二分類(lèi)。當(dāng)預(yù)分類(lèi)頭部檢測(cè)到異常圖像時(shí),再將骨干網(wǎng)絡(luò)提取的特征輸入到后續(xù)的RPN網(wǎng)絡(luò)中,對(duì)圖像中的危險(xiǎn)品的類(lèi)別和位置進(jìn)行識(shí)別。
為了解決Faster R-CNN訓(xùn)練集和測(cè)試集數(shù)據(jù)分布不一致的問(wèn)題,在骨干網(wǎng)絡(luò)后新增一個(gè)預(yù)分類(lèi)頭部,學(xué)習(xí)正常圖像的特征,實(shí)現(xiàn)對(duì)正常圖像和異常圖像的二分類(lèi)。在卷積神經(jīng)網(wǎng)絡(luò)中,淺層卷積層提取的特征一般為較低級(jí)的輪廓特征,分辨率較高,但與任務(wù)相關(guān)的語(yǔ)義信息較少;而深層卷積層提取的特征分辨率較低,但語(yǔ)義信息較為豐富[20]。這使得預(yù)分類(lèi)頭部可以共享骨干網(wǎng)絡(luò)中較淺層卷積層提取的輪廓特征。同時(shí),由于圖像分類(lèi)和目標(biāo)檢測(cè)屬于不同的任務(wù),F(xiàn)aster R-CNN的骨干網(wǎng)絡(luò)提取的特征圖無(wú)法直接用于圖像分類(lèi)。因此在預(yù)分類(lèi)頭部中新增一組殘差塊res6,進(jìn)一步提取與分類(lèi)任務(wù)相關(guān)的高級(jí)語(yǔ)義信息。預(yù)分類(lèi)頭部的結(jié)構(gòu)如表1所示。為了減少計(jì)算量,首先通過(guò)一個(gè)1×1卷積層對(duì)骨干網(wǎng)絡(luò)輸出的特征圖進(jìn)行降維,經(jīng)過(guò)res6后,產(chǎn)生1 024維的特征圖。該特征圖經(jīng)全局平均池化后,輸出1 024維的特征向量。最后,通過(guò)全連接層進(jìn)行預(yù)測(cè)分類(lèi),輸出2維的特征向量,表示正常/異常圖像的概率。
表1 預(yù)分類(lèi)頭部的結(jié)構(gòu)Table 1 The structure of pre-classification module
在RPN網(wǎng)絡(luò)中,會(huì)計(jì)算不同大小、不同形狀的區(qū)域建議,其坐標(biāo)值一般為浮點(diǎn)數(shù),無(wú)法直接求得該坐標(biāo)處的特征值。由于分類(lèi)和回歸頭部需要固定大小的輸入,Girshick等[9]受SPP-Net[21]啟發(fā),引入了RoIPooling,將RPN輸出的區(qū)域建議池化為固定尺寸的特征圖。RoIPooling首先將區(qū)域建議的浮點(diǎn)數(shù)坐標(biāo)量化為整數(shù)坐標(biāo),并將量化后的區(qū)域建議平均分割為k×k單元,每個(gè)單元的坐標(biāo)同樣為浮點(diǎn)數(shù)。接著,RoIPooling再次對(duì)每個(gè)單元的坐標(biāo)進(jìn)行量化,并對(duì)每個(gè)單元區(qū)域做最大池化。因此,在RoIPooling的過(guò)程中,引入了兩次量化誤差,使得RPN計(jì)算區(qū)域建議產(chǎn)生錯(cuò)位。
為了避免RoIPooling引入了量化誤差,He等[19]提出了RoIAlign。RoIAlign在操作的過(guò)程中,取消了對(duì)區(qū)域建議和區(qū)域建議分割而成的單元坐標(biāo)的量化,而是使用雙線(xiàn)性直插法直接計(jì)算浮點(diǎn)數(shù)坐標(biāo)處的值,避免了RoIPooling導(dǎo)致的區(qū)域建議發(fā)生錯(cuò)位。RoIAlign的偽代碼如下所示。
“重寫(xiě)文學(xué)史”雖然在文學(xué)史上有著重要意義,但是在一定歷史條件之下不可避免帶有局限性。有學(xué)者重新評(píng)價(jià)了十七年文學(xué)的代表作之一——柳青的《創(chuàng)業(yè)史》,然而這篇文章主要缺點(diǎn)便在于把歷史過(guò)于簡(jiǎn)單化。它試圖從創(chuàng)業(yè)史的整體結(jié)構(gòu)和小說(shuō)內(nèi)容出發(fā),對(duì)人物的設(shè)置以階級(jí)分析的眼光看待,從而得出了《創(chuàng)業(yè)史》是以狹隘的階級(jí)分析理論配置各式人物,作品的情節(jié)展開(kāi)與人物之間的矛盾線(xiàn)索便被安排在階級(jí)、階層等矛盾基礎(chǔ)上,使得一切都好似精心安排。
算法 RoIAlign
為了測(cè)試本文研究中所提模型的有效性,主要開(kāi)展了以下兩方面的實(shí)驗(yàn):異常檢測(cè)實(shí)驗(yàn)和威脅品檢測(cè)實(shí)驗(yàn)。通過(guò)異常檢測(cè)實(shí)驗(yàn)測(cè)試新模型對(duì)于正常圖像和異常圖像的識(shí)別性能;通過(guò)威脅品檢測(cè)試驗(yàn)測(cè)試新模型對(duì)異常圖像進(jìn)行目標(biāo)檢測(cè)的性能。
所用數(shù)據(jù)集來(lái)自公開(kāi)數(shù)據(jù)集,共包含以下兩種圖像:不包含危險(xiǎn)品的正常圖像5 540張,包含危險(xiǎn)品的異常圖像3 006張。在異常圖像中,共包含以下5類(lèi)危險(xiǎn)品:鐵殼打火機(jī)、黑釘打火機(jī)、刀具、電池電容以及剪刀,如表2所示。在訓(xùn)練時(shí),按照8∶2的比例隨機(jī)劃分訓(xùn)練集和測(cè)試集。
表2 5類(lèi)危險(xiǎn)品X射線(xiàn)成像示例Table 2 Examples of five types of dangerous goods X-ray imaging
實(shí)驗(yàn)平臺(tái)的操作系統(tǒng)為 Ubuntu18.04,CPU為AMD R9-3900X,GPU為單張RTX 2080ti。實(shí)驗(yàn)環(huán)境為python3.8,深度學(xué)習(xí)框架采用pytorch1.6。在訓(xùn)練PC-Faster R-CNN時(shí),采用兩階段訓(xùn)練法。首先對(duì)原始的Faster R-CNN進(jìn)行訓(xùn)練,并保存其訓(xùn)練的權(quán)重文件,待Faster R-CNN訓(xùn)練完畢后,固定Faster R-CNN其他部分的權(quán)重,以單獨(dú)對(duì)預(yù)分類(lèi)頭部進(jìn)行訓(xùn)練。
對(duì)于異常檢測(cè)實(shí)驗(yàn),采用以下指標(biāo)進(jìn)行評(píng)價(jià):準(zhǔn)確率Accuracy、精確率Precision、召回率Recall和假陽(yáng)性(false positive,F(xiàn)P)。其中,假陽(yáng)性即為模型對(duì)正常圖像的誤檢率。計(jì)算方式如下:
(1)
(2)
(3)
式中:TP(true positive)為真陽(yáng)性;TN(true negative)為真陰性;FN(false negative)為假陰性。
對(duì)于威脅檢測(cè)實(shí)驗(yàn),采用mAP (mean average precision)[22]作為評(píng)價(jià)指標(biāo)。mAP表示多個(gè)類(lèi)別之間的檢測(cè)平均精度,是目標(biāo)檢測(cè)領(lǐng)域衡量模型檢測(cè)精度的常用指標(biāo),計(jì)算方式如下:
(4)
式(4)中:c為數(shù)據(jù)集中危險(xiǎn)品的類(lèi)別數(shù);APc為模型對(duì)每個(gè)類(lèi)別的平均檢測(cè)精度。
在異常檢測(cè)領(lǐng)域中,誤檢一般定義為將正常圖像識(shí)別為異常圖像。本實(shí)驗(yàn)對(duì)PC-Faster R-CNN的正常圖像識(shí)別能力進(jìn)行測(cè)試,即測(cè)試新模型對(duì)于正常圖像和異常圖像的分類(lèi)性能,并與原始的Faster R-CNN進(jìn)行對(duì)比,驗(yàn)證本模型的有效性。由于Faster R-CNN屬于目標(biāo)檢測(cè)模型,將其用于圖像級(jí)的分類(lèi)任務(wù)時(shí),本實(shí)驗(yàn)規(guī)定如下:當(dāng)Faster R-CNN在圖像中檢測(cè)到危險(xiǎn)品時(shí),無(wú)論數(shù)量多少,都將其視為帶危險(xiǎn)品的異常圖像;當(dāng)其無(wú)法在輸入圖像中檢測(cè)到任意一個(gè)危險(xiǎn)品時(shí),即視為正常圖像。結(jié)果如表3所示。
表3 異常檢測(cè)實(shí)驗(yàn)結(jié)果Table 3 Anomaly detection experiment results
由表3可以看出,F(xiàn)aster R-CNN由于在訓(xùn)練域和測(cè)試域數(shù)據(jù)分布不一致的問(wèn)題,容易將正常圖像識(shí)別為異常圖像,這導(dǎo)致Faster R-CNN的準(zhǔn)確率較低,誤檢率較高。而本文模型與原始的Faster R-CNN相比,在對(duì)正常圖像和異常圖像進(jìn)行分類(lèi)時(shí),準(zhǔn)確率提高了10.61%,精確率提高了18.25%,誤檢率減少了24.03%。可見(jiàn),在真實(shí)的安檢場(chǎng)景中,由于絕大多數(shù)包裹都不包括危險(xiǎn)品,將Faster R-CNN直接用于X射線(xiàn)安檢過(guò)程中,會(huì)導(dǎo)致較高的誤檢率,無(wú)法滿(mǎn)足實(shí)際需求。在新增預(yù)分類(lèi)頭部后,誤報(bào)率有較大的下降,同時(shí)提升檢測(cè)的準(zhǔn)確率和精確率。
為了驗(yàn)證RoIAlign對(duì)于Faster R-CNN的有效性,首先將新模型與原始的Faster R-CNN進(jìn)行比較,并與另一種的經(jīng)典的目標(biāo)檢測(cè)算法YOLOv3[23]進(jìn)行對(duì)比開(kāi)展實(shí)驗(yàn)。訓(xùn)練超參數(shù)設(shè)置如下:初始學(xué)習(xí)率為0.02,batchsize為8,權(quán)重衰減為0.000 5。實(shí)驗(yàn)結(jié)果如表4所示。
表4 不同模型的檢測(cè)準(zhǔn)確率Table 4 Average accuracy of different models
從表4可以看出,F(xiàn)aster R-CNN 與YOLOv3性能相近,對(duì)各類(lèi)危險(xiǎn)品的檢測(cè)精度均比較低。而本文模型與Faster R-CNN相比,mAP由48.30%提高至57.33%。對(duì)比原始的Faster R-CNN,新模型由于引入了RoIAlign,避免了RoIPooling引入的量化誤差,使得檢測(cè)性能獲得較大幅度提升。
為了測(cè)試本文模型的檢測(cè)效率,首先測(cè)試了PC-Faster R-CNN分別檢測(cè)單張正常圖像與異常圖像時(shí)的平均用時(shí),并與Faster R-CNN進(jìn)行比較。同時(shí)為了模擬真實(shí)的安檢場(chǎng)景,隨機(jī)從數(shù)據(jù)集中選取50張正常圖像和50張危險(xiǎn)圖像,分別使用本文模型和Faster R-CNN進(jìn)行檢測(cè),計(jì)算二者的總檢測(cè)時(shí)間,共開(kāi)展了5次模擬實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果分別如表5和表6所示。
表5 單張圖像檢測(cè)平均用時(shí)Table 5 Average time spent for single image detection
表6 5次模擬實(shí)驗(yàn)檢測(cè)用時(shí)Table 6 Time for the five simulated experiments
實(shí)驗(yàn)結(jié)果表明,對(duì)于正常圖像,本文模型由于加入了預(yù)分類(lèi)頭部,極大地提高了檢測(cè)速度;對(duì)于單張圖像的檢測(cè)時(shí)間,由原來(lái)的0.184 3 s縮短至0.011 3 s。而對(duì)于異常圖像,本文模型與原始的Faster R-CNN相比,在前向傳播的過(guò)程中,由于增加了預(yù)分類(lèi)頭部中的計(jì)算,時(shí)間成本僅增加了0.001 7s。在5次真實(shí)場(chǎng)景模擬實(shí)驗(yàn)中,F(xiàn)aster R-CNN檢測(cè)100張X射線(xiàn)安檢圖像的平均用時(shí)為18.32 s,本文模型的平均用時(shí)為10.16 s,效率提高了44.54%。
針對(duì)Faster R-CNN訓(xùn)練域和測(cè)試域數(shù)據(jù)分布不一致而導(dǎo)致誤檢率過(guò)高的問(wèn)題,提出了一種結(jié)合異常檢測(cè)的X射線(xiàn)安檢圖像檢測(cè)模型PC-Faster R-CNN。通過(guò)實(shí)驗(yàn)可以得出如下結(jié)論。
(1)本文模型在Faster R-CNN的骨干網(wǎng)絡(luò)后新增一個(gè)預(yù)分類(lèi)頭部,學(xué)習(xí)正常圖像的特征,有效克服了Faster R-CNN訓(xùn)練域和測(cè)試域數(shù)據(jù)分布的差異性問(wèn)題。
(2)RoIAlign的引入,降低了RoIPooling導(dǎo)致的量化誤差,提升了模型的檢測(cè)性能。
(3)與YOLOV3、Faster R-CNN等傳統(tǒng)神經(jīng)網(wǎng)絡(luò)相比,新模型在提高檢測(cè)性能的同時(shí),有效降低了誤檢率,同時(shí)大幅度提升了運(yùn)行效率。