顧章源,劉 達,李建勛,張喜濤,王 棟
(1.上海交通大學(xué) 電子信息與電氣工程學(xué)院,上?!?00240; 2.中國空空導(dǎo)彈研究院,河南 洛陽 471009)
?
基于多光譜與顯著性的紅外弱小目標(biāo)融合檢測
顧章源1,劉達1,李建勛1,張喜濤2,王棟2
(1.上海交通大學(xué) 電子信息與電氣工程學(xué)院,上海200240; 2.中國空空導(dǎo)彈研究院,河南 洛陽471009)
摘要:基于多光譜與顯著性,提出一種紅外弱小目標(biāo)融合檢測算法。該算法旨在將從多光 譜探測器獲得的同一場景的多光譜圖像信息組合到一起,利用它們在時空上的相關(guān)性及信息上的 互補性,提高系統(tǒng)的檢測性能。采用一種新的基于人類視覺注意機制的顯著性方法,該方法能夠 快速準(zhǔn)確找到圖像中的顯著性區(qū)域; 將目標(biāo)看作一類,背景和干擾點看作另一類,選取離差平方 和準(zhǔn)則,使類內(nèi)距離最小,類間距離最大; 訓(xùn)練出融合參數(shù),得到融合后的顯著性圖像。通過設(shè)定 的門限值二值化,可以看出該融合方法能很好地將目標(biāo)與背景分開,從而檢測出目標(biāo)。
關(guān)鍵詞:紅外弱小目標(biāo); 多光譜; 顯著性; 圖像融合
0引言
多光譜成像技術(shù)不同于傳統(tǒng)的單一寬波段成像技術(shù),而是將成像技術(shù)和光譜測量技術(shù)相結(jié)合,獲取的信息不僅包括二維空間信息,還包含隨波長分布的光譜輻射信息,形成所謂的“數(shù)據(jù)立方”。 豐富的目標(biāo)光譜信息結(jié)合目標(biāo)空間影響極大提高了目標(biāo)探測的準(zhǔn)確性、 擴展了傳統(tǒng)探測技術(shù)的功能。 因此,研究如何基于多光譜對紅外弱小目標(biāo)進行檢測與識別有著實際的意義。
在多光譜領(lǐng)域,國內(nèi)外學(xué)者已經(jīng)取得了一定的進展。Margalit和Reed提出了一種基于相關(guān)圖像的恒虛警率自適應(yīng)目標(biāo)檢測算法[1];Heesung提出了基于濾波的光譜匹配方法[2]; 1999年,Richards等提出了光譜角映射算法(SAM)[3]。SAM算法具有結(jié)構(gòu)簡單、 實時性好等優(yōu)點,但是,其性能對目標(biāo)光譜方差十分敏感,當(dāng)光譜信噪比較低時,其性能變得十分不可靠。 2011年,GuYanfeng等將SAM算法與核函數(shù)相結(jié)合,提出了一種基于核函數(shù)的正規(guī)化光譜角的光譜匹配算法[4],提升了SAM算法對于光譜方差變化的魯棒性。 光譜匹配濾波器(SMF)[5]是一種具有代表性的光譜目標(biāo)檢測算法,是典型的光譜匹配算法,基于標(biāo)準(zhǔn)目標(biāo)光譜模型和背景光譜模型的先驗信息已知。
然而在實際系統(tǒng)中,很難得到一個場景的紅外全譜段圖像,一些紅外警戒系統(tǒng)通常采用雙波段的工作方式。 在雙/多波段紅外熱成像系統(tǒng)中,由于多個傳感器工作在不同的電磁波段,探測到的同一場景的多光譜圖像在信噪比、 對比度、 強度等方面存在很大的差異性,利用它們在時空上的相關(guān)性及信息上的互補性,對多光譜圖像進行融合,可以得到對目標(biāo)更全面、 清晰的描述。 現(xiàn)有的融合方法有小波變換模型、 代數(shù)模型、Brovey變換模型、 主成分分析模型、 色度-強度-飽和度模型、 多通道彩色分量模型等。
LiHui[6]基于小波變換模型,對低頻部分作平均處理,而對高頻部分采取不同的融合規(guī)則。 這樣,融合時可以保留處于高頻部分的邊緣信息; 但是,由于低頻部分與高頻部分不一致的融合規(guī)則破壞了圖像的連續(xù)性,即使選用較為光滑的小波基,圖像的不連續(xù)現(xiàn)象也很明顯。 朱述龍[7]基于主成分分析方法,由各種光譜圖像的協(xié)方差矩陣得到變換矩陣,并用其對多光譜圖像作變換,取前面幾個圖像進行圖像融合,這種方法能夠很快地實現(xiàn)融合,但它對圖像中的所有像素一視同仁,因此往往會淹沒圖像中占像素點少、 信噪比低的弱小目標(biāo)。
人類大腦和視覺系統(tǒng)會很容易發(fā)現(xiàn)圖像中某些顯著的目標(biāo)或區(qū)域。 通過對視覺注意機制的研究可以使人們合理分配傳感和計算資源到更有價值的信息處理任務(wù)上,國內(nèi)外學(xué)者已經(jīng)設(shè)計出各種注意機制模型來使計算機也具備“視覺”能力。 顯著性圖是描述顯著性情況的灰度圖像,與原圖像尺寸相同,顯著性圖上某點的灰度值大小代表原圖對應(yīng)點處的顯著性大小。 Itti等[8]模仿人類視覺自底向上的注意機制提出Itti模型,運用中央-周圍算子,計算顏色、 亮度、 強度三個通道的顯著性圖,通過融合得到最終的顯著性圖; 葉聰穎[9]將這一模型應(yīng)用到了HIS空間的海上目標(biāo)船只檢測中; Sun[10]則將該模型修正并應(yīng)用于紅外目標(biāo)檢測; Liu[11]使用多尺度對比、 中心周邊直方圖和色彩空間分布三種特征通過條件隨機場學(xué)習(xí)感興趣區(qū)域; Hou[12]基于信息論的角度,將圖像分為冗余部分和變化部分,首次在頻率域由頻域譜殘余得到顯著性圖; Achanta[13]提出基于頻率調(diào)諧的顯著目標(biāo)檢測算法,對輸入圖像高斯平滑并計算平滑,每個像素顯著度則為該像素與整幅圖像均值的差異; Harel[14]基于圖論的方法對動標(biāo)圖進行歸一化得到顯著性圖; Shen[15]在顯著性計算中綜合了高級語義、 色彩、 位置等先驗?zāi)繕?biāo)信息; Luo[16]基于顯著密度最大化檢測顯著目標(biāo)。
本文提出了一種基于多光譜與顯著性的像素級紅外弱小目標(biāo)融合檢測方法。
1問題描述
1.1多光譜
紅外線在電磁波譜圖中的位置如圖1所示。 常用的探測波段是3~5 μm的中紅外波段和8~14 μm的中遠(yuǎn)紅外波段。
圖1紅外輻射在電磁光譜中的位置
1.2紅外圖像數(shù)學(xué)模型
紅外弱小目標(biāo)圖像由目標(biāo)、 背景以及噪聲三部分組成:
f(x,y)=fT(x,y)+fb(x,y)+fN(x,y)
(1)
式中:f(x,y)為紅外圖像;fT(x,y)為目標(biāo)圖像;fb(x,y)為背景圖像,包括大氣、 云層等;fN(x,y)為噪聲,包括背景噪聲、 電路噪聲、 探測器噪聲,背景噪聲又包括景物的熱輻射噪聲、 大氣抖動引起的噪聲等。 紅外弱小目標(biāo)圖像中,背景區(qū)域呈現(xiàn)漸變過渡狀態(tài),這使圖像往往呈現(xiàn)大范圍的連續(xù)分布狀態(tài),使其在灰度分布上具有較大相關(guān)性,而目標(biāo)與背景之間相關(guān)性較小。 目標(biāo)的紅外輻射強度與周圍背景的輻射強度無關(guān),一般高于背景的輻射強度,可以認(rèn)為目標(biāo)區(qū)域處于圖像的高頻部分而大部分背景處于圖像的低頻部分。
1.3基于譜殘差的顯著性模型
信息論指出,圖像信息由目標(biāo)信息和背景信息組成:
H=H(I)+H(P)
(2)
式中:H(I)為圖像中顯著目標(biāo)部分的信息;H(P)為冗余的背景信息。 在頻率域中圖像統(tǒng)計不變的特性可以表示圖像信息,如果圖像中冗余的背景信息能被除去,那么圖像僅剩下顯著目標(biāo)信息。
變換不變性是自然圖像具有的統(tǒng)計特性,其特點是將圖像從原來的空間左邊變換到頻域坐標(biāo)系中后,圖像在空間中所具有的統(tǒng)計特性在頻域中仍然被保留。 譜殘差是圖像的傅立葉log譜與其冗余信息的差,體現(xiàn)的是圖像中顯著目標(biāo)的信息。
1.4聚類方法
聚類問題有兩個常用的準(zhǔn)則:離差平方和準(zhǔn)則和離散度準(zhǔn)則。
設(shè)共有N個樣本向量,分成C個群,每個群有Nj個樣本,其中心為
(3)
C個群的類內(nèi)離差平方和為
(4)
若類分得較合適,則同類點之間特性較相似,每類的類內(nèi)離差平方和及總的類內(nèi)離差平方和應(yīng)當(dāng)較小,即應(yīng)以J最小作為準(zhǔn)則來分群。
類內(nèi)離散度矩陣為
(5)
類間離散度矩陣為
(6)
式中:
ST=SB+SW。
可以證明ST和樣本分法無關(guān)。 若某種劃分使SW變小則必然使SB變大,即類內(nèi)特性接近,類間特性差別大。
2本文算法
2.1顯著性圖
根據(jù)信息論,可以定義:
H(L(f))=H(U(f))+H(R(f))
(7)
式中:H(U(f))為圖像冗余信息; H(R(f))為圖像顯著信息,即目標(biāo)信息。 大量試驗表明,圖像數(shù)據(jù)的曲線分布趨勢大致相同,log譜具有局部線性特性[12]。 可以利用局部平均濾波器對log譜進行平滑得到大致的圖像冗余信息:
U(f)=L(f)·hn(f)
(8)
式中:
L(f)=log(A(f));
A(f)=|F[I(x)]|;
P(f)=φ(F[I(x)]);
譜殘差是圖像的傅立葉log譜與其冗余信息的差:
R(f)=L(f)-U(f)
(9)
為了使結(jié)果更好,采用高斯濾波g(x)(本文取σ=8)對顯著性圖進行平滑:
S(x)=g(x)·F-1[exp(R(f)+P(f))]2
(10)
2.2圖像融合
對于雙波段紅外熱成像系統(tǒng)探測到同一場景的兩張圖像I1(x),I2(x),由2.1節(jié)可以得到它們的顯著性圖S1(x),S2(x):
(11)
設(shè)融合后的圖像為C,C也是一張與A,B尺寸相同的灰度圖像,灰度值大小對應(yīng)融合后的顯著性大小,得到
(12)
式中: 0<α<1; 0<β<1,β定義為兩個傳感器所處波段之間的相關(guān)性大小。
已知目標(biāo)位置,可得到標(biāo)記圖像D:
目標(biāo)函數(shù)為
(13)
(14)
計算得出
(15)
可求得能分離開兩類的α和β。α和1-α分別為雙波段紅外熱成像系統(tǒng)的兩個譜段在融合結(jié)果中所占權(quán)重;β為兩個譜段之間的相關(guān)性。 利用已知目標(biāo)點訓(xùn)練出α和β,為實際中多幀檢測、 相似背景下目標(biāo)檢測提供融合依據(jù)。
2.3閾值分割
將求得的α,β值代回C中,即得到融合后的顯著性圖像,通過門限值thr二值化,可以得到目標(biāo)區(qū)域:
(16)
利用已知目標(biāo)點計算出來的門限值,可以為實際中的多幀檢測、 相似背景下的目標(biāo)檢測提供閾值依據(jù)。
3仿真
對海面復(fù)雜背景下多光譜圖像進行仿真,試圖分離出艦船跟海面背景。 由中紅外波段和長紅外波段的探測器采集得到的圖像如圖2所示。 圖2(a)~(b)對應(yīng)多光譜圖像的兩個波段,通過2.1節(jié),可以得到圖2(c)~(d)兩張顯著性圖,它們都為灰度圖像,顯著性圖某點灰度值代表著對應(yīng)像素點的顯著程度。 通過2.2節(jié),利用分類器,基于離差平方和準(zhǔn)則訓(xùn)練出分類器參數(shù)α=0.25和β=0.001 5。 基于這兩個參數(shù),可以進行圖像融合,利用多光譜的互補性,得到融合顯著性圖。 圖2(g)即為對圖2(c)~(d)融合得到的顯著性圖。 通過2.3節(jié)能夠計算出閾值,原始顯著性即圖2(c)~(d)分別通過該門限得到二值即圖2(e)~(f),融合顯著性圖即圖2(g)通過該門限得到二值圖即圖2(h)。 可以看出,該算法融合出的顯著性圖,充分利用了不同譜段之間的互補性,能夠很好地將艦船跟海面背景分開。
圖2中紅外波段和長紅外波段的探測器采集圖像
4結(jié)論
本文基于多光譜與顯著性,提出一種紅外弱小目標(biāo)融合檢測算法。 通過仿真可以看出,本文算法適用于海面復(fù)雜背景下多光譜圖像,能夠快速準(zhǔn)確找到圖像中的顯著性區(qū)域,訓(xùn)練融合參數(shù),得到融合后的顯著性圖像。 通過設(shè)定的門限值二值化,可以看出該融合方法能很好地將目標(biāo)與背景分開,從而檢測出艦船目標(biāo)。 該算法在Matlab中運行較快。
參考文獻:
[1] Margalit A, Reed I S, Gagliardi R M. Adaptive Optical Target Detection Using Correlated Images[J]. IEEE Transactions on Aerospace and Electronic Systems, 1985 (3): 394-405.
[2] Heesung K, Nasrabadi N M. Kernel Matched Signal Detectors for Hyperspectral Target Detection [C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2005.
[3] Richards J A, Jia Xiuping. Remote Sensing Digital Image Analysis[M]. Berlin Heidelbetg: Springer-Verlag, 2006.
[4] Gu Yanfeng, Wang Chen, Wang Shizhe, et al. Kernel-Based Regularized-Angle Spectral Matching for Target Detection in Hyperspectral Imagery[J]. Pattern Recognition Letters, 2011, 32(2): 114-119.
[5] Robey F C, Fuhrmann D R, Kelly E J, et al. A CFAR Adaptive Matched Filter Detector[J]. IEEE Transactions on Aerospace and Bectronic Systems, 1992, 28(1):208-216.
[6] Li Hui, Manjunath B S, Mitra S K. Multisensor Image Fusion Using the Wavelet Transform[J]. Graphical Models and Image Processing, 1995, 57(3): 235-245.
[7] 朱述龍, 張占睦. 遙感圖像獲取與分析[M]. 北京:科學(xué)出版社, 2002.
[8] Itti L, Koch C, Niebur E. A Model of Saliency-Based Visual Attention for Rapid Scene Analysis[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(11): 1254-1259.
[9] 葉聰穎, 李翠華. 基于HSI的視覺注意力模型及其在船只檢測中的應(yīng)用[J]. 廈門大學(xué)學(xué)報(自然科學(xué)版), 2005, 44(4): 484-488.
[10] Sun S G, Kwak D M, Jang W B, et al. Small Target Detection Using Center-Surround Difference with Locally Adaptive Threshold[C]∥ Proceedings of the 4th International Symposium on Image and Signal Processing and Analysis, 2005: 402-407.
[11] Liu Tie, Yuan Zejian, Sun Jian, et al. Learning to Detect a Salient Object[J]. IEEE Transactions on Pattem Analysis and Machine Intelligence, 2011, 33(2): 353-367.
[12] Hou Xiaodi, Zhang Liqing. Saliency Detection: A Spectral Residual Approach[C]∥IEEE Conference on Computer Vision and Pattern Recognition, 2007: 1-8.
[13] Achanta R, Hemami S, Estrada F, et al. Frequency-Tuned Salient Region Detection[C]∥IEEE Conference on Computer Vision and Pattern Recognition, 2009: 1597-1604.
[14] Harel J, Koch C, Perona P. Graph-Based Visual Saliency[C]∥Advances in Neural Information Processing Systems, 2006, 19: 545-552.
[15] Shen Xiaohui, Wu Ying. A Unified Approach to Salient Object Detection via Low Rank Matrix Recovery[C]∥IEEE Conference on Computer Vision and Pattern Recognition, 2012: 853-860.
[16] Luo Ye, Yuan Junsong, Xue Ping, et al. Saliency Density Maximization for Object Detection and Localization[M].Berlin Heidelberg: Springer-Verlag, 2011.
Fusion and Detection of Infrared Dim and Small Targets Based on Multi-Spectral and Saliency
Gu Zhangyuan1,Liu da1,Li Jianxun1, Zhang Xitao2, Wang Dong2
(1.School of Electronic Information and Electrical Engineering, Shanghai Jiao Tong University, Shanghai 200240, China;2.China Airborne Missile Academy,Luoyang 471009,China)
Abstract:A new fusion and detection algorithm for infrared dim and small targets is proposed based on multi-spectral and saliency. The algorithm is the combination of information acquired from multi-spectral sensors in the same scene by using temporal and spatial correlation and their complementarity, aims at improving the detection performance of system. Based on human visual system, saliency is adopted, which can let computer find the interesting regions fast and correctly. The targets are considered as a class, background and interference points are another class. This algorithm chooses sum of squares of deviations as a criterion to make the minimum distance within the class and the maximum distance between the classes. Parameters of fusion are trained and the saliency image is obtained. Experiments show that this algorithm can well separates the object and background, thereby detecting the targets.
Key words:infrared dim and small targets; multi-spectral; saliency; image fusion
中圖分類號:TP391
文獻標(biāo)識碼:A
文章編號:1673-5048( 2016) 02-0047-05
作者簡介:顧章源(1991-),男,江蘇南通人,碩士研究生,研究方向為紅外圖像處理。
基金項目:航空科學(xué)基金項目(20140157001)
收稿日期:2015-07-14
DOI:10.19297/j.cnki.41-1228/tj.2016.02.009