摘 要:
針對(duì)偽裝物體分割中圖像識(shí)別魯棒性較差,模型泛化性不強(qiáng)的問(wèn)題,受神經(jīng)科學(xué)中人類視覺(jué)系統(tǒng)接受場(chǎng)結(jié)構(gòu)的啟發(fā),提出一種基于集中注意力接受場(chǎng)網(wǎng)絡(luò)的偏振成像偽裝目標(biāo)檢測(cè)方法。根據(jù)偏振成像目標(biāo)探測(cè)需要,構(gòu)建了能有效遏制背景噪聲以及獲取目標(biāo)細(xì)節(jié)特征的偏振成像數(shù)據(jù)集。方法基于識(shí)別與定位網(wǎng)絡(luò)框架,通過(guò)改進(jìn)特征提取模塊和解碼器模塊,該模塊利用了偏心度和感受野大小之間的關(guān)系,涵蓋多尺度的目標(biāo)信息,可以有效提高偽裝目標(biāo)特征的可分辨性和魯棒性。實(shí)驗(yàn)驗(yàn)證利用自建數(shù)據(jù)集在多個(gè)典型目標(biāo)上進(jìn)行,并與經(jīng)典算法進(jìn)行分割結(jié)果的主觀視覺(jué)與客觀評(píng)價(jià)指標(biāo)對(duì)比,對(duì)比實(shí)驗(yàn)結(jié)果驗(yàn)證了該方法的有效性。
關(guān)鍵詞:偏振成像;偽裝目標(biāo)分割;機(jī)器視覺(jué);卷積神經(jīng)網(wǎng)絡(luò);數(shù)據(jù)集
中圖分類號(hào):TP391.41 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1001-3695(2024)09-040-2854-06
doi: 10.19734/j.issn.1001-3695.2023.10.0574
Polarization imaging camouflage target detection based on focused attention receptive field network
Xu Guoming1,2,3, Chen Qizhi1, Liu Qi1,2, Ma Jian1,2, Wang Feng3
(1.School of Internet, Anhui University, Hefei 230039, China; 2.National Engineering Research Center for Agro-Ecological Big Data Analysis & Application, Anhui University, Hefei 230601, China; 3.Anhui Province Key Laboratory of Polarized Imaging Detecting Technology, Hefei 230031, China)
Abstract:
Aiming at the problems of poor image recognition robustness and poor model generalization in camouflaged object segmentation, inspired by the receptive field structure of the human visual system in neuroscience, this paper proposed a polarization imaging camouflage target detection method based on the receptive field network of focused attention. According to the polarization imaging target detection needs, it constructed the polarization imaging dataset that could effectively contain the background noise as well as obtain the detailed features of the target. The proposed method based on the recognition and localization network framework, which could effectively improve the discriminability and robustness of camouflaged target features by improving the feature extraction module and the decoder module, which exploited the relationship between the eccentricity and the size of the receptive field to cover multi-scale target information. The experimental validation carries out using a self-constructed dataset on multiple typical targets and comparing the subjective visual and objective evaluation metrics of the segmentation results with classical algorithms, and the results of the ablation experiments validate the effectiveness of the present segmentation method.
Key words:polarization image; camouflaged object segmentation; machine vision; convolutional neural network; dataset
0 引言
偏振、干涉、衍射都是光的重要物理特性,其中偏振是指相對(duì)于光的傳播方向,光的振動(dòng)方向是不對(duì)稱的,地表或者大氣層的物體在受到光的反射、散射、投射和電磁輻射的時(shí)候會(huì)產(chǎn)生相對(duì)應(yīng)的偏振信息,偏振信息可用于分析物體的形狀、表面粗糙程度、紋理走向以及材料的理化特性等。偏振成像技術(shù)相對(duì)于傳統(tǒng)的成像技術(shù),提供了二維空間的光強(qiáng)分布、光譜譜線和偏振信息,不僅可以完整解析出物體的特征信息,而且可以抑制噪聲,對(duì)環(huán)境有更好的適應(yīng)性。在20世紀(jì),西方國(guó)家開始進(jìn)行偏振成像的相關(guān)實(shí)驗(yàn),Tooley[1]提出將偏振成像應(yīng)用于復(fù)雜環(huán)境中的目標(biāo)識(shí)別,并對(duì)人造目標(biāo)和自然環(huán)境的偏振特征進(jìn)行描述;Chenault等人[2]通過(guò)實(shí)驗(yàn)提出了偏振圖像有利于降低散射光對(duì)成像的影響;Boffety等人[3]提出了適用于多波段的偏振圖像的對(duì)比度優(yōu)化方法,進(jìn)一步提高了目標(biāo)和背景的對(duì)比度;Short等人[4]提出用于提取偏振圖像的局部梯度幅度值和方向特征的人臉識(shí)別算法。在實(shí)際應(yīng)用于偽裝目標(biāo)檢測(cè)過(guò)程中,偏振光在和目標(biāo)發(fā)生作用后,根據(jù)反射和透射光可以提取目標(biāo)的表面粗糙程度、邊緣細(xì)化差異以及內(nèi)部結(jié)構(gòu)的情況,從而獲得更具優(yōu)勢(shì)的被測(cè)目標(biāo)的圖像特征和相關(guān)信息。
最近幾年,偽裝目標(biāo)檢測(cè)研究出現(xiàn)了爆炸式增長(zhǎng),部分原因是對(duì)警戒色和模仿的研究越來(lái)越多,同時(shí)也是視覺(jué)感知和目標(biāo)檢測(cè)等相關(guān)領(lǐng)域快速發(fā)展的必然趨勢(shì)。傳統(tǒng)意義上的偽裝識(shí)別是指試圖了解不同形式的偽裝所涉及的近似機(jī)制,還需要綜合考慮心理和生態(tài)環(huán)境的因素,這可以理解自然選擇和施加在偽裝上的約束,它們都影響偽裝策略的優(yōu)化和進(jìn)化。從更廣泛的意義上說(shuō),偽裝已經(jīng)被人類所采用,最顯著的是應(yīng)用于軍隊(duì)和獵人,同時(shí)它也影響了社會(huì)的其他部分,例如,醫(yī)學(xué)診斷(如息肉分割[5]和肺部感染分割[6])、工業(yè)(如在自動(dòng)生產(chǎn)線上檢查不合格產(chǎn)品)、農(nóng)業(yè)(如蝗蟲檢測(cè),以防止入侵)、安全和監(jiān)視(如搜索和救援任務(wù)以及惡劣天氣中針對(duì)自動(dòng)駕駛的行人或障礙物的檢測(cè))、科學(xué)研究(如稀有物種發(fā)現(xiàn))和藝術(shù)(如逼真的融合和娛樂(lè)藝術(shù))等不同領(lǐng)域,具有廣泛且有價(jià)值的應(yīng)用。目前,越來(lái)越多的研究人員對(duì)偽裝感興趣,在生物學(xué)、視覺(jué)心理學(xué)、計(jì)算機(jī)科學(xué)和藝術(shù)之間產(chǎn)生了更多的跨學(xué)科聯(lián)系。
偽裝物體分割(camouflaged object segmentation,COS)[7]的目的是分割檢測(cè)出偽裝在環(huán)境中的目標(biāo)。傳統(tǒng)的偽裝檢測(cè)是根據(jù)物體的一些低級(jí)的特征信息(如紋理等)來(lái)區(qū)分偽裝目標(biāo)和背景,與其他的檢測(cè)目標(biāo)相比,檢測(cè)效果的魯棒性較低。偽裝目標(biāo)的檢測(cè)與通用目標(biāo)檢測(cè)(generic object detection,GOD)[8]有所區(qū)別,GOD的目標(biāo)更加廣泛,既可以是偽裝的,也可以是顯著的。COS和顯著性目標(biāo)檢測(cè)(salient object detection,SOD)[9]的檢測(cè)目的有點(diǎn)相似,COS是對(duì)偽裝目標(biāo)把輸入的特征分成偽裝目標(biāo)和背景的二分類分割,SOD則把輸入特征分為顯著物體和背景,從某種程度上來(lái)說(shuō)COS和SOD分割的目標(biāo)是完全相反的。
利用人類識(shí)別目標(biāo)時(shí)的直接目標(biāo)特征,多種基于傳統(tǒng)特征提取的偽裝目標(biāo)檢測(cè)方法被提出。1998年,Tankus等人[10]提出的非邊緣感興趣區(qū)域機(jī)制,是針對(duì)偽裝目標(biāo)檢測(cè)最早的算法,被應(yīng)用于自然環(huán)境中的人工偽裝目標(biāo)。Zhang等人[11]通過(guò)引入前景和背景建模,提出了在貝葉斯框架下執(zhí)行完整的偽裝目標(biāo)檢測(cè);Beiderman等人[12]提出通過(guò)空間相干光束(如激光)照射分類、識(shí)別或識(shí)別的被遮擋物體的景物,從物體反射出二次散斑圖案,基于隨機(jī)散斑圖案的時(shí)間跟蹤,提取物體的時(shí)間特征;Galun等人[13]提出自下而上的聚合框架來(lái)解決偽裝紋理分割,該框架將紋理元素的結(jié)構(gòu)特征與過(guò)濾器響應(yīng)相結(jié)合;Hall等人[14]研究了不同偽裝對(duì)人類計(jì)算機(jī)任務(wù)中捕食檢測(cè)、識(shí)別和捕獲三個(gè)階段的影響。
然而,傳統(tǒng)的偽裝檢測(cè)方法難以有效地區(qū)分對(duì)比度較低的偽裝場(chǎng)景,存在特征提取耗時(shí)、特征表征能力弱、檢測(cè)效果差等問(wèn)題。隨著基于深度學(xué)習(xí)的目標(biāo)檢測(cè)成為當(dāng)前研究的熱門,偽裝目標(biāo)檢測(cè)方法開始在特征提取和檢測(cè)效果上獲得更好的結(jié)果,能夠有效地增強(qiáng)偽裝目標(biāo)檢測(cè)模型的魯棒性?,F(xiàn)有的大部分基于深度學(xué)習(xí)的偽裝目標(biāo)檢測(cè)方法首先采用卷積神經(jīng)網(wǎng)絡(luò),如VGG(visual geometry group)[15]、ResNet(residual neural network)[16]、Res2Net[17]等進(jìn)行特征提取,然后通過(guò)增強(qiáng)特征,提高偽裝目標(biāo)檢測(cè)的性能[18]。Fan等人[19]通過(guò)搜索注意力機(jī)制和部分解碼器組件對(duì)偽裝目標(biāo)的前景和背景的模糊區(qū)域進(jìn)行定位和提取。Lyu等人[20]提出使用LSR(localization,segmentation and ranking)來(lái)對(duì)目標(biāo)進(jìn)行定位,并在不同圖像的偽裝級(jí)別,按照預(yù)設(shè)評(píng)價(jià)指標(biāo)劃分偽裝目標(biāo)。Mei等人[7]提出基于分心挖掘的 PFNet(positioning and focus network)模型,能夠有效地去除前景和背景中異質(zhì)干擾,提取含有更加豐富信息的偽裝目標(biāo)的特征。Mao等人[21]使用Swin Transformer作為backbone提取偽裝目標(biāo)的特征,通過(guò)將結(jié)合殘差注意力和密集金字塔池化的監(jiān)督結(jié)構(gòu)來(lái)降低主干網(wǎng)絡(luò)不直接提供空間監(jiān)督的影響。Zhu等人[22]提出基于雙流式分散注意力網(wǎng)絡(luò)BSANet,通過(guò)區(qū)分前景和背景以獲得更加細(xì)化的邊緣特征,減少目標(biāo)的丟失。Pang等人[23]提出使用三重結(jié)構(gòu)獲取偽裝目標(biāo)的差異化特征的網(wǎng)絡(luò)ZOOMNet,利用不同的尺度聚合模塊和分層混合尺度模塊增強(qiáng)特征,獲取更加準(zhǔn)確的預(yù)測(cè)。
在神經(jīng)科學(xué)相關(guān)的領(lǐng)域,人們發(fā)現(xiàn)在視覺(jué)皮層中人體接受場(chǎng)的大小是視網(wǎng)膜圖中呈正相關(guān)的偏心率函數(shù)。根據(jù)這個(gè)發(fā)現(xiàn)可以認(rèn)為,越接近中心的區(qū)域更容易識(shí)別物體的特征,并且大腦在對(duì)于小的空間變化時(shí)具有不敏感性[24]。因此,本文基于目標(biāo)與背景的偏振特性差異,設(shè)計(jì)一種人類視覺(jué)相關(guān)融合物理結(jié)構(gòu)的接受場(chǎng)模塊來(lái)增強(qiáng)輕量級(jí)網(wǎng)絡(luò)的特征表示,采用自建的基于偽裝的偏振數(shù)據(jù)集,充分利用偏振圖像增強(qiáng)物體的對(duì)比度、降低背景噪聲并獲取豐富細(xì)節(jié)特征的特性,提高偽裝物體的識(shí)別率。
1 相關(guān)工作
1.1 群接受場(chǎng)模塊
接受場(chǎng)建模是神經(jīng)科學(xué)領(lǐng)域一種重要的感官科學(xué)工具,用于預(yù)測(cè)人的生理反應(yīng)和構(gòu)建大腦的計(jì)算模型。接受場(chǎng)這一概念原先是由視覺(jué)神經(jīng)領(lǐng)域?qū)<襍herrington[25]描述皮膚上可以引起撓抓反射的區(qū)域,提出接受場(chǎng)可以方便地用于指定所有的感受點(diǎn)的集合,在適當(dāng)?shù)拇碳は拢环N特殊的反射運(yùn)動(dòng)可以被喚起。Hartline[26]最先將這一概念引入視覺(jué)神經(jīng)元。在過(guò)去的幾十年里,許多研究者應(yīng)用接受場(chǎng)模型來(lái)表征人類視覺(jué)皮層的反應(yīng)。人類通過(guò)使用神經(jīng)科學(xué)儀器經(jīng)常能觀測(cè)到多個(gè)神經(jīng)元產(chǎn)生集合反應(yīng),因此這些模型通常被稱為群接受場(chǎng)模型,即pRF(population receptive field properties)模型。
在視網(wǎng)膜中,視覺(jué)系統(tǒng)實(shí)現(xiàn)了偏心和感受野大小之間的關(guān)系。這種關(guān)系也可以在非人靈長(zhǎng)類動(dòng)物的單位測(cè)量中觀察到。利用功能磁共振成像和pRF模型,可以在皮層的許多視野映射中測(cè)量這種關(guān)系。在每個(gè)皮層圖中,pRF的大小和偏心量一起增加。不同視野圖的pRF大小增加速率不同(圖1),pRF的大小與不同實(shí)驗(yàn)的偏心率呈正相關(guān),不同映射的pRF的大小有較大的差異,V1的最小,TO1和TO2的群接受場(chǎng)要大得多。pRF大小作為視網(wǎng)膜位圖偏心的函數(shù)。這一觀察結(jié)果已經(jīng)被重復(fù)證明了很多次[27]。
接受場(chǎng)模型有兩個(gè)有價(jià)值的特性。首先,關(guān)鍵pRF參數(shù)(接受場(chǎng)位置和大?。┚哂性诖碳兄付ǖ目山忉寙挝?,這使得能夠直接比較使用不同儀器估計(jì)的模型參數(shù)。第二,接受場(chǎng)可以在個(gè)體被試者中進(jìn)行估計(jì)。因此,有意義地比較兩個(gè)被試者之間的模型參數(shù)是可能的,相同的被試者在不同的條件下,或者相同的被試者用不同的儀器測(cè)量。這兩個(gè)特性提供了堅(jiān)實(shí)的科學(xué)基礎(chǔ),并支持實(shí)際應(yīng)用。基于上述特性,在深度學(xué)習(xí)中,為偽裝目標(biāo)的特征提取提供了一種新的思路,根據(jù)人眼在每個(gè)刺激幀中對(duì)于不同目標(biāo)的不同反應(yīng),使用大量數(shù)據(jù)集進(jìn)行訓(xùn)練,可以有效地建立網(wǎng)絡(luò)模型模擬真實(shí)人眼的識(shí)別架構(gòu)。
1.2 偏振成像
強(qiáng)度、波長(zhǎng)和偏振是光的三個(gè)基本特性。光波是橫波,其矢量的振動(dòng)方向垂直于光的傳播方向,而偏振光的光矢量的振動(dòng)方向不變或規(guī)則變化。偏振照相機(jī)用于在多偏振狀態(tài)下捕捉光的強(qiáng)度。
自然界中,光在傳輸過(guò)程中電矢量振動(dòng)的空間分布具有一定的對(duì)稱性,如圖2所示。當(dāng)橫波的振動(dòng)矢量偏向于某些方向產(chǎn)生的現(xiàn)象被稱為偏振。當(dāng)電矢量的振動(dòng)在某些固定方向的時(shí)候,可以得到四個(gè)方向(0°,45°,90°和135°)的線偏振光,如圖3所示。
2.2 接受場(chǎng)模塊
接受場(chǎng)模塊(focus attention module,F(xiàn)AM)包括6個(gè)分支來(lái)對(duì)ResNet50的各個(gè)特征圖進(jìn)行特征提取,6個(gè)分支先進(jìn)行1×1的卷積降維(包括批正則化BatchNormal和激活函數(shù)ReLU),以第一個(gè)分支為例,將3×3的卷積核分解成1×3和3×1兩個(gè)卷積核,在這之后加入卷積率為3的空洞卷積,不僅可以降低計(jì)算量,還可以增大感受野。將包含四個(gè)膨脹卷積的分支和包含原始信息的特征圖進(jìn)行拼接相加,并使用1×1的卷積進(jìn)行降維操作,輸出增強(qiáng)后的特征圖。接受場(chǎng)模塊如圖5所示。
該模塊由inception改進(jìn)而來(lái),受到膨脹卷積和分支結(jié)構(gòu)影響,本文根據(jù)偏振圖像的特點(diǎn)以及擴(kuò)大感受野的角度,新增加了一個(gè)9×9的分支結(jié)構(gòu)。經(jīng)過(guò)實(shí)驗(yàn)驗(yàn)證發(fā)現(xiàn),多尺度特征的豐富性有助于特征提取,場(chǎng)景中的偽裝目標(biāo)在更加優(yōu)化的特征提取模塊的作用下,各項(xiàng)結(jié)果指標(biāo)有明顯提高。
2.3 部分解碼器組件
從FAM中獲取的候選特征輸入到部分解碼器組件(partial decoder components,PDC)組件中,分別對(duì)輸入的不同層的特征進(jìn)行上采樣和下采樣,以獲得相同大小的中間層特征圖,逐元素相乘的方式降低相鄰元素之間的差距??紤]到底層特征和高層特征的特性,本文將含有更多邊界信息的底層特征通過(guò)降維加入到有更多語(yǔ)義信息的底層特征進(jìn)行元素乘法,以獲得更好的輸出結(jié)果。改進(jìn)的部分解碼器組件如圖6所示。
2.4 損失函數(shù)
本文模型的損失函數(shù)使用交叉熵(cross entropy loss)[27],CELoss能夠更好地收斂,傳遞的梯度信息能夠更均勻,能夠有效地比較不同的分布概率在同一個(gè)隨機(jī)變量下的差異程度,在機(jī)器學(xué)習(xí)中就表示為真實(shí)概率分布(即輸出特征圖)與預(yù)測(cè)概率分布(手動(dòng)打標(biāo)的GT圖像)之間的差異。模型的預(yù)測(cè)結(jié)果與CELoss的值呈負(fù)相關(guān),CELoss的值越小,模型預(yù)測(cè)效果就越好。對(duì)Ci和Cj上采樣后,本文的總損失函數(shù)定義為
L=LiCE(Ci,G)+LsCE(Cj,G)(5)
其中:LCE為FARFNet定義的損失函數(shù);L為總損失函數(shù);G為Ground Truth圖像對(duì)應(yīng)的特征圖;Ci、Cj為輸出放大的特征圖。
CELoss采用了類間競(jìng)爭(zhēng)機(jī)制,擅長(zhǎng)學(xué)習(xí)不同標(biāo)簽之間的分類信息,相對(duì)于其他傳統(tǒng)語(yǔ)義分割的多標(biāo)簽不同種類的預(yù)測(cè),COS不用考慮非正確的標(biāo)簽預(yù)測(cè)概率的準(zhǔn)確性,能夠更加專注于正確的標(biāo)簽預(yù)測(cè)概率。針對(duì)偽裝的二分類問(wèn)題只有目標(biāo)和背景的情況,只需要識(shí)別偽裝的目標(biāo)信息,所以有效地減少或者避免了CELoss的不足與缺點(diǎn)。
3 實(shí)驗(yàn)結(jié)果與分析
3.1 實(shí)驗(yàn)數(shù)據(jù)集
由于種種原因,當(dāng)前基于偽裝的偏振數(shù)據(jù)集公開極少,為支持本文偽裝目標(biāo)檢測(cè)算法,構(gòu)建基于偽裝迷彩的偏振數(shù)據(jù)集,利用該數(shù)據(jù)集對(duì)FARFNet進(jìn)行訓(xùn)練。
偏振偽裝圖像由偏振相機(jī)采集,如圖7所示,采集的圖像分辨率為5.0 MP,2448×2048 px,幀率為24 fps,采用CMOS單聲道傳感器,如圖7所示。該傳感器能同時(shí)采集0°、45°、90°和135°四個(gè)偏振方向的圖像。
本文的數(shù)據(jù)集包括2 800張自建圖像和從網(wǎng)絡(luò)上搜集的200張與偽裝相關(guān)的圖像,3 000張數(shù)據(jù)通過(guò)翻轉(zhuǎn)、旋轉(zhuǎn)、平移和抖動(dòng)四種幾何變換進(jìn)行增強(qiáng),擴(kuò)充到15 000張,數(shù)據(jù)集按照9∶1劃分為訓(xùn)練集和測(cè)試集,數(shù)據(jù)集中所有的偽裝目標(biāo)包括迷彩服、裝甲車、坦克車和部分小動(dòng)物的自然偽裝,包含有較豐富的環(huán)境特點(diǎn):a)不同時(shí)間段,早晨、正中午、傍晚、夜晚;b)不同場(chǎng)景,枯草坪、綠草坪、小樹林、林間小道、水泥地等;c)偽裝目標(biāo),針對(duì)不同環(huán)境,制造更適合目標(biāo)偽裝的角度,獲取包含各個(gè)尺度偽裝目標(biāo)的數(shù)據(jù)集,偏振偽裝數(shù)據(jù)集部分圖像標(biāo)注與解析如圖8所示。
3.2 實(shí)驗(yàn)環(huán)境
本文設(shè)計(jì)的實(shí)驗(yàn)環(huán)境參數(shù)具體如表1所示。
3.3 評(píng)價(jià)指標(biāo)和實(shí)驗(yàn)參數(shù)設(shè)置
為了更好地驗(yàn)證FARFNet的算法性能,評(píng)估改進(jìn)后的算法模型,本文選用了6個(gè)常見(jiàn)的評(píng)價(jià)指標(biāo),具體指標(biāo)描述如表2所示。
本文算法的模型由Adam optimizer訓(xùn)練,初始學(xué)習(xí)率設(shè)置為0.000 1,每30個(gè)epoch迭代反向傳播學(xué)習(xí)的速率降低10%,網(wǎng)絡(luò)共迭代1 200次,批處理大小為16。
3.4 實(shí)現(xiàn)結(jié)果分析
本文使用表2中的PA、mIOU、MAE、Sm、adpEm、adpFm作為評(píng)價(jià)指標(biāo),分別與UNet、DANet、SINet、PFNet和ZOOMNet進(jìn)行比較,得到的實(shí)驗(yàn)結(jié)果如表3所示。
從表中可以看出,本文算法在所有指標(biāo)上均有一定提升,相對(duì)于UNet、DANet、SINet、PFNet和ZOOMNet的PA值提升了0.182、0.156、0.072、0.048和0.018,mIOU提升了0.282、0.259、0.086、0.031和0.006,MAE減小了0.033、0.04、0.008、0.005和0.001,Sm提升了0.386、0.421、0.046、0.027和0.004,adpEm值提升了0.502、0.3、0.097、0.085和0.007,adpFm值提升了0.655、0.775、0.07、0.039和0.01,從數(shù)據(jù)上可以直觀地看出效果提升。圖9是方法對(duì)比的預(yù)測(cè)圖,從圖中也可以看出預(yù)測(cè)圖接近GT真值圖。
3.5 對(duì)比實(shí)驗(yàn)
本文對(duì)采集到的偽裝偏振數(shù)據(jù)集使用Stokes參量進(jìn)行解析后,對(duì)獲得的偏振參量圖像進(jìn)行實(shí)驗(yàn)。為驗(yàn)證偏振圖像在本文算法中的有效性,將采集的原始圖像同樣放入網(wǎng)絡(luò)中測(cè)試并進(jìn)行對(duì)比,結(jié)果如表4和圖10所示。根據(jù)表中實(shí)驗(yàn)數(shù)據(jù)可知,偏振參量圖像在測(cè)試后的結(jié)果上總體優(yōu)于原圖,PA、mIOU、MAE、Sm和adpEm分別提升了0.016、0.01、0.005、0.003和0.01,adpFm降低了0.007。除了adpFm,總體較原圖都有所提升,而adpFm的差值很小,對(duì)于整體模型的實(shí)驗(yàn)效果沒(méi)有很大的影響。由此可以得出結(jié)論,偏振解析后的圖像在本文的偽裝目標(biāo)檢測(cè)算法中有較好的實(shí)驗(yàn)效果,這對(duì)偏振成像技術(shù)與深度學(xué)習(xí)目標(biāo)檢測(cè)方法相結(jié)合進(jìn)行智能探測(cè)研究具有重要的參考價(jià)值。實(shí)驗(yàn)結(jié)果對(duì)比如圖10所示。
4 結(jié)束語(yǔ)
本文提出一種基于接受場(chǎng)模型的偏振成像偽裝目標(biāo)檢測(cè)方法,其在各個(gè)評(píng)價(jià)指標(biāo)上都優(yōu)于其他算法,充分說(shuō)明該方法能夠?qū)崿F(xiàn)更好的檢測(cè)和識(shí)別效果,為基于偽裝的偏振圖像的目標(biāo)檢測(cè)研究提供了一種數(shù)據(jù)支撐和新的思路。本文主要考慮偽裝數(shù)據(jù)集和接受場(chǎng)模塊對(duì)于網(wǎng)絡(luò)模型的改進(jìn)與提升,充分利用了偏振圖像的優(yōu)點(diǎn),獲取更加豐富的圖像特征。下一階段的主要任務(wù)是減少網(wǎng)絡(luò)模型參數(shù)量,在保證利用目標(biāo)偏振特性的同時(shí),提高算法檢測(cè)效率并改進(jìn)網(wǎng)絡(luò)以增加邊緣檢測(cè)的效果,這對(duì)該領(lǐng)域研究的應(yīng)用轉(zhuǎn)換具有重要意義,相關(guān)工作正在進(jìn)行中。
參考文獻(xiàn):
[1]Tooley R D. Man-made target detection using infrared polarization [J]. Proc of SPIE-The International Society for Optical Engineering, 1990, 1166: 52-59.
[2]Chenault D B,Pezzaniti J L. Polarization imaging through scattering media [J]. SY Technology,2000,4133: 124-133.
[3]Boffety M,Hu H,Goudail F. Contrast optimization in broadband passive polarimetric imaging [J]. Optics Letters,2014,39(23): 6759-6762.
[4]Short N,Hu S,Gurton P K,et al. Changing the paradigm in human identification [J]. Optics & Photonics News,2015,26(12): 40.
[5]Fan Dengping,Ji Gepeng,Zhou Tao,et al. PraNet: parallel reverse attention network for polyp segmentation [C]// Proc of the 23rd International Conference on Medical Image Computing and Computer Assisted Intervention. Cham:Springer,2020: 263-273.
[6]Fan Dengping,Zhou Tao,Ji Geping,et al. Inf-Net: automatic Covid-19 lung infection segmentation from CT images [J]. IEEE Trans on Medical Imaging,2020,39(8): 2626-2637.
[7]Mei Haiyang,Ji Gepeng,Wei Ziqi,et al. Camouflaged object segmentation with distraction mining [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2021: 8768-8777.
[8]Everingham M,Eslami S A,Van Gool L,et al. The pascal visual object classes challenge: a retrospective [J]. International Journal of Computer Vision,2015,111: 98-136.
[9]Itti L,Koch C,Niebur E. A model of saliency-based visual attention for rapid scene analysis [J]. IEEE Trans on Pattern Analysis and Machine Intelligence,1998,20(11): 1254-1259.
[10]Tankus A,Yeshurun Y. Detection of regions of interest and camouflage breaking by direct convexity estimation [C]// Proc of IEEE Workshop on Visual Surveillance. Piscataway,NJ: IEEE Press,1998: 42-48.
[11]Zhang Xiang,Zhu Ce,Wang Shuai,et al. A Bayesian approach to camouflaged moving object detection [J]. IEEE Trans on Circuits and Systems for Video Technology,2016,27(9): 2001-2013.
[12]Beiderman Y,Teicher M,Garcia J,et al. Optical technique for classification,recognition and identification of obscured objects [J]. Optics Communications,2010,283(21): 4274-4282.
[13]Galun M,Sharon E,Basri J,et al. Texture segmentation by multiscale aggregation of filter responses and shape elements [C]// Proc of the 9th IEEE International Conference on Computer Vision. Piscataway,NJ: IEEE Press,2003:716-723.
[14]Hall J R,Cuthill I C,Baddeley R,et al. Camouflage,detection and identification of moving targets [J]. Biological Sciences,2013,280(1758): 20130064.
[15]Siminyan K,Zisserman A. Very deep convolutional networks for large-scale image recognition [EB/OL]. (2015-04-10). https://arxiv.org/abs/1409.1556.
[16]He Kaiming,Zhang Xiangyu,Ren Shaoqing,et al. Deep residual learning for image recognition [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Computer Society,2016: 770-778.
[17]Gao Shanghua,Cheng Mingming,Zhao Kai,et al. Res2Net: a new multi-scale backbone architecture [J]. IEEE Trans on Pattern Analysis and Machine Intelligence,2019,43(2): 652-662.
[18]史彩娟,任弼娟,王子雯,等. 基于深度學(xué)習(xí)的偽裝目標(biāo)檢測(cè)綜述 [J]. 計(jì)算機(jī)科學(xué)與探索,2022,16(12): 2734-2751. (Shi Caijuan,Ren Bijuan,Wang Ziwen,et al. Overview of camouflage target detection based on deep learning [J]. Computer Science and Exploration,2022,16(12): 2734-2751.)
[19]Fan Dengping,Ji Gepeng,Sun Guo,et al. Camouflaged object detection [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2020: 2774-2784.
[20]Lyu Yunqiu,Zhang Jing,Dai Yuchao,et al. Simultaneously localize,segment and rank the camouflaged objects [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2021: 11586-11589.
[21]Mao Yuxin,Zhang Jing,Wan Zhexiong,et al. Transformer transforms salient object detection and camouflaged object detection [EB/OL]. (2021-04-20). https://export.arxiv.org/abs/2104.10127v2.
[22]Zhu Hongwei,Li Peng,Xie Haoran,et al. I can find you! Boundary-guided separated attention network for camouflaged object detection [C]// Proc of AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press,2022: 3608-3616.
[23]Pang Youwei,Zhao Xiaoqi,Xiang Tianzhu,et al. Zoom in and out: a mixed-scale triplet network for camouflage object detection [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Re-cognition. Piscataway,NJ: IEEE Press,2022: 2160-2170.
[24]Liu Songtao,Huang Di,Wang Yunhong. Receptive field block net for accurate and fast object detection [C]// Proc of the 15th European Conference on Computer Vision. Berlin: Springer,2018: 404-419.
[25]Sherrington C S. Flexion-reflex of the limb,crossed extension-reflex,and reflex stepping and standing [J]. The Journal of Physiology,1910,40(1-2): 28.
[26]Hartline H K. The response of single optic nerve fibers of the vertebrate eye to illumination of the retina [J]. American Journal of Physiology-Legacy Content,1938,121(2): 400-415.
[27]Wandell B A,Winawer J. Computational neuroimaging and population receptive fields [J]. Trends in Cognitive Sciences,2015,19(6): 349-357.
收稿日期:2023-10-17;修回日期:2024-01-18 基金項(xiàng)目:國(guó)家自然科學(xué)基金資助項(xiàng)目(61906118,62273001);安徽省重大專項(xiàng)(202003A06020016);安徽省自然科學(xué)基金資助項(xiàng)目(1908085MF208,2108085MF230);陸軍裝備部十三五預(yù)研子課題;安徽省高校自然科學(xué)研究重點(diǎn)項(xiàng)目(KJ2019A0906)
作者簡(jiǎn)介:徐國(guó)明(1979—),男,安徽太和人,教授,博導(dǎo),博士,CCF會(huì)員,主要研究方向?yàn)槠癯上裉綔y(cè)、圖像超分辨率;陳奇志(1999—),男(通信作者),安徽合肥人,碩士研究生,主要研究方向?yàn)槟繕?biāo)檢測(cè)、偏振成像(315969932@qq.com);劉綦(1978—),女,陜西西安人,副教授,碩士,主要研究方向?yàn)橹悄軘?shù)據(jù)處理、無(wú)線傳感器網(wǎng)絡(luò);馬?。?985—),男,安徽潁上人,講師,碩導(dǎo),博士,主要研究方向?yàn)閳D像質(zhì)量評(píng)價(jià)、計(jì)算機(jī)視覺(jué);王峰(1972—),男,教授,博士,主要研究方向?yàn)樾滦凸怆姵上裉綔y(cè)技術(shù).