錢 昆
(解放軍陸軍軍官學(xué)院,安徽 合肥 230031)
電視制導(dǎo)武器進行地面目標自主攻擊時,需要在末端制導(dǎo)時實時檢測出目標,確定目標位置與彈軸中心的偏差量。但制導(dǎo)過程中隨著彈目距離的改變,目標尺寸發(fā)生快速變化,即隨著彈目距離的減小,目標尺度呈現(xiàn)非線性快速變大。傳統(tǒng)的圖像目標檢測算法如模板相關(guān)匹配法[1]、背景建模法[2]、基于識別的方法[3]等,雖然對目標的檢測方式各不相同,但算法較難適應(yīng)目標尺度發(fā)生較快變化的情況。模板相關(guān)匹配法要求預(yù)裝模板與目標實時的尺寸相近,其在制導(dǎo)過程中模板更新機制難以確定;基于背景建模法要求圖像背景較為穩(wěn)定,其無法適應(yīng)制導(dǎo)圖像的快速變化;基于識別的方法需要提取大量的對尺度具有不變性的高維特征,進行分類器的訓(xùn)練,如SVM支持向量機、神經(jīng)網(wǎng)絡(luò)模型、Boosting方法等,這類方法對圖像質(zhì)量要求較高,對紋理不豐富目標的檢測效果不理想,且運算量較大;在戰(zhàn)場環(huán)境中,要求系統(tǒng)有較高的實時性和可靠性,因此,上述算法很難滿足戰(zhàn)場需求。
針對這些問題,本文采用一種融合改進的Adaboost目標檢測方法,通過提取圖像的顯著性區(qū)域,從而有針對性地檢測目標,減少計算量。在考慮彈目距離較遠時,電視制導(dǎo)畫面成像不清晰,紋理不豐富情況下,該方法能很好地提取出塊狀目標,針對海面或沙漠等背景較為單一的區(qū)域目標檢測較為有效。
人類視覺可以在無經(jīng)驗情況下快速搜索到感興趣目標,依靠的就是圖像顯著性。顯著性檢測方法有很多,如 Itti方法[4],GBVS 方法[5]等,但這些方法計算較為復(fù)雜,不利于硬件實時地實現(xiàn),本文采用一種實現(xiàn)較為簡單的剩余譜[6]理論的顯著性檢測方法,這種方法可描述為一幅圖像的log振幅譜減去平均log振幅譜就是顯著性部分,其檢測效果如圖1~3所示。
提取出的區(qū)域用矩形框標出,通過顯著性區(qū)域提取,就大致確定了目標尺度,為下一步識別提供方便。對于單一背景下的目標檢測,由于目標相對于背景的顯著性較強,因此采用顯著性方法能有效地框出疑似目標。
圖1 海面艦船可見光圖像
圖2 圖像顯著性區(qū)域提取
圖3 提取出的待檢測區(qū)域
Adaboost[7](Adaptive Boosting的簡稱)是一種Boosting目標識別分類器訓(xùn)練方法,其思想是針對同一類樣本訓(xùn)練不同的弱分類器,然后把這些弱分類器集聯(lián)起來,最終形成一個強分類器。Adaboost算法訓(xùn)練分類器時利用了Haar特征和積分圖像來加快訓(xùn)練速度。由于矩形特征的特征值計算只與此特征端點的積分圖像有關(guān),而與圖像坐標值無關(guān),使得特征提取速度大大提升,同時又采用級聯(lián)式的聯(lián)合分類器,可以加快目標的檢測速度。
原有的Adaboost檢測需要將圖像進行不同尺度金字塔式的降采樣,然后再進行滑動窗口提取識別,這種做法無疑增加了計算量,同時利用滑動窗口的提取可能導(dǎo)致目標提取不完整,導(dǎo)致檢測不出目標。本文將Adaboost方法應(yīng)用于電視圖像目標檢測,由于前期利用顯著性確定了目標的大致尺寸,下一步則直接利用Adaboost對提取出的區(qū)域進行識別。
本文提出的檢測方法具體步驟總結(jié)如下:
1)收集目標樣本進行Adaboost級聯(lián)式分類器的訓(xùn)練,這屬于前期準備工作也稱為離線學(xué)習(xí);
2)對獲取的每一幀圖像進行直方圖均衡化和去噪等預(yù)處理,之后利用基于剩余譜的顯著性區(qū)域提取方法,提取出區(qū)域,區(qū)域的邊界由矩形框標出,從而確定目標尺寸;
3)對提取出區(qū)域直接利用訓(xùn)練好的Adaboost級聯(lián)式分類器進行識別,這個過程屬于在線監(jiān)測。
由于AdaBoost分類器是屬于級聯(lián)式的分類器,對于非目標窗口,它被最初的幾個弱分類器識別時就能夠被判斷是否為目標,因此不需要進行完全級聯(lián)式地識別,減少了消耗時間,保證了檢測的實時性。
綜上所述,本文的檢測總流程如圖4所示,它由離線學(xué)習(xí)和在線檢測兩部分組成,離線學(xué)習(xí)是利用收集的訓(xùn)練樣本經(jīng)過Adaboost算法的訓(xùn)練,得到表示目標模型的分類器;在線檢測是指利用得到的分類器檢測圖像確定是否為目標。
圖4 本文目標檢測流程
本文利用 OpenCV1.0[8]與 VC++6.0 實現(xiàn)基于Adaboost算法的檢測識別,實驗平臺配置:CPU為Intel Core2 Quad CPU Q9400 2.66GHz,內(nèi)存為 4G,Windows XP操作系統(tǒng)。
分類器需要通過訓(xùn)練樣本得以實現(xiàn)識別功能,因此需要選取事前獲得的目標區(qū)域模板和非目標模板,進行分類器訓(xùn)練。選取事前獲得的地面圓形靶標區(qū)域圖像150張作為正樣本,其中不含背景圖像,同時選取任意背景大小的圖(不包含目標)150張作為負樣本,正樣本都是統(tǒng)一經(jīng)過裁切縮放對齊成24×24像素的BMP格式的圖片,負樣本是不含有正樣本模式的任何圖像,如圖5、圖6所示。
圖5 正樣本示例
圖6 負樣本示例
本文將分類器的級聯(lián)數(shù)設(shè)置為20個,虛警率設(shè)置為10-6,訓(xùn)練耗時約20小時,訓(xùn)練完之后,采用cvLoad-Image函數(shù)循環(huán)導(dǎo)入序列圖像,cvLoad函數(shù)載入訓(xùn)練好的分類器,cvHaarDetectObjects函數(shù)進行檢測識別,程序?qū)γ恳粋€顯著性區(qū)域進行預(yù)處理和特征提取,然后送入分類器中來判斷該窗口中是否為目標。
實驗利用某次外場實驗獲取的圖像進行本文方法的目標自主檢測,為了與原算法進行對比,實驗中視頻圖像利用傳統(tǒng)Adaboost方法進行目標檢測。利用本文方法其檢測識別效果如圖7所示,圖中的方框所標示的區(qū)域即為目標。
統(tǒng)計檢測識別結(jié)果,模板檢測窗口能隨著目標的快速非線性變大而增大,共檢測300幅圖像,有32幅圖像出現(xiàn)漏檢,誤檢12幅,檢測率為85.33%。實驗結(jié)果表明:檢測一副720×586大小的圖像,平均耗時16.6ms,小于電視場掃描時間20ms,在普通PC上達到了實時性。同時統(tǒng)計利用改進前的方法進行檢測結(jié)果,兩者對比如表1所示,可見利用本方法無論是在檢測率還是在耗時上都優(yōu)勢明顯。
表1 兩種方法檢測結(jié)果對比
圖7 檢測識別結(jié)果
本文將顯著性檢測融入Adaboost目標檢測中,在普通計算機上達到了實時性,針對海面或沙漠等背景較為單一的區(qū)域,取得了很好的檢測效果,適應(yīng)了目標的尺度快速變化,但使用本文方法前期準備工作量大,需要獲取大量目標模板,對于實際戰(zhàn)場應(yīng)用還有許多問題待研究。下一步將針對檢測率的提高及該算法的硬件化設(shè)計進行研究,為實現(xiàn)電視制導(dǎo)武器的自尋的奠定基礎(chǔ)。
[1]張萬清.飛航導(dǎo)彈電視導(dǎo)引頭[M].北京:中國宇航出版社,1994.
[2]Stauffer C,Crimson W.Adaptive Background Mixture Models for Real-time Tracking[C]//Proc IEEE Conference on Computer Vision and Pattern Recognition,F(xiàn)ort Collins,Colorado,1999(2):246-252.
[3]R.Fergus,P.Perona,A.Zisserman.Object Class Recognition by Unsupervised Scale-invariant Learning[C].Proc.CVPR,2,2003.
[4]L.Itti,C.Koch,E.Niebur.A Model of Saliency-Based Visual Attention for Rapid Scene Analysis[C].PAMI,1998:1254-1259.
[5]J.Harel,C.Koch,P.Perona.Graph-based Visual Saliency[C].Advances in Neural Information Processing Systems,19:545,2007.
[6]X.Hou,L.Zhang.Saliency Detection:A Spectral Residual Approach[C]//IEEE Conf.Computer Vision and Pattern Recognition,2007.
[7]Paul Viola,Michael J.Jones.Rapid Object Detection U-sing a Boosted Cascade of Simple Features[C]//Proceedings of the 2001 IEEE Computer Society Conference,Computer Vision and Pattern Recognition,2001(1):511-518.
[8]劉瑞禎,于仕琪.OpenCV教程——基礎(chǔ)篇[M].北京:北京航空航天大學(xué)出版社,2007.