李 琳,張 濤
(信息工程大學(xué),鄭州 450001)(*通信作者電子郵箱llbnerfg@163.com)
目前,智能監(jiān)控場(chǎng)景下的俯視行人檢測(cè)技術(shù)被廣泛應(yīng)用于人流量統(tǒng)計(jì)[1]以及行人智能分析[2]中,以實(shí)現(xiàn)對(duì)人流量密集場(chǎng)所的有效監(jiān)管?;诟┮暤男腥藱z測(cè)近些年取得了突飛猛進(jìn)的發(fā)展;然而行人的發(fā)型、發(fā)色以及復(fù)雜的周?chē)尘凹哟罅藱z測(cè)的難度,導(dǎo)致檢測(cè)效果仍不理想,需進(jìn)一步改進(jìn)。因此,俯視行人檢測(cè)技術(shù)具有極大的研究空間和重要的現(xiàn)實(shí)意義。本文重點(diǎn)研究在復(fù)雜背景下,基于俯視視角的行人檢測(cè)。
俯視行人檢測(cè)方法有以下幾類。第一類是基于形狀分析的方法,主要思想是通過(guò)描述行人頭部的外觀形狀,逐個(gè)篩選圖像樣本,得到最終檢測(cè)結(jié)果。Chen等[3]通過(guò)計(jì)算區(qū)域面積來(lái)識(shí)別行人頭部;Yu等[4]采用改進(jìn)后的Hough變換,通過(guò)檢測(cè)類圓來(lái)達(dá)到檢測(cè)行人頭部的目的;Li等[5]通過(guò)Canny邊緣提取算法和Hough變換結(jié)合來(lái)提取行人頭部特征?;谛螤罘治龅姆椒ㄓ?jì)算效率高,但是實(shí)際檢測(cè)過(guò)程中,容易將外觀類似頭部的背景誤檢為目標(biāo)。第二類是基于機(jī)器學(xué)習(xí)的方法,隨著機(jī)器學(xué)習(xí)的蓬勃發(fā)展,基于機(jī)器學(xué)習(xí)的特征提取法逐步成為俯視行人檢測(cè)的常用方法。此類方法首先借助合適的特征描述子,對(duì)樣本圖片進(jìn)行特征提取,之后根據(jù)大量訓(xùn)練樣本構(gòu)建俯視行人頭部檢測(cè)分類器,在此基礎(chǔ)上采用分類器進(jìn)行分類。相比于形狀分析法,機(jī)器學(xué)習(xí)法能適應(yīng)環(huán)境的變化,在很大程度上提高了檢測(cè)系統(tǒng)的魯棒性。牛勝石等[6]在梯度特征中加入自生長(zhǎng)梯度特征,并采用支持向量機(jī)(Support Vector Machine, SVM)和Adaboost組合分類器進(jìn)行訓(xùn)練;湯石晨等[7]通過(guò)線性回歸模型訓(xùn)練行人的面積特征來(lái)檢測(cè)運(yùn)動(dòng)斑塊中的頭部目標(biāo);Li等[8]采用局部二值模式(Local Binary Pattern, LBP)提取行人頭部特征,輸入Adaboost進(jìn)行分類訓(xùn)練;Tang等[9]采用改進(jìn)后的梯度方向直方圖(Histogram of Oriented Gradients, HOG)描述子提取行人頭部特征,輸入SVM分類器訓(xùn)練得到分類模型。
上述方法通過(guò)提取具有一定魯棒性的特征來(lái)訓(xùn)練分類器,達(dá)到了很好的分類效果,但是只利用單一的特征進(jìn)行訓(xùn)練容易造成較高誤檢。在實(shí)際的監(jiān)控視頻中,存在諸多具有干擾性的背景,比如:行人穿著的接近發(fā)色的深色衣服、行人隨身攜帶的背包,以及在其他方面與行人頭部相似的物體。這些干擾的存在加大了檢測(cè)的難度。單一的特征分類器在這種場(chǎng)景下的檢測(cè)率較低,這是因?yàn)樵诒尘按嬖谥T多干擾時(shí),單一的特征往往不能夠全面地描述行人頭部,易使分類器混淆行人頭部和其他干擾背景,造成誤檢與漏檢,所以研究者嘗試使用多種特征來(lái)刻畫(huà)行人目標(biāo)。Liu等[10]結(jié)合行人頭部顏色和形狀描述子來(lái)提取行人頭部特征,提高了算法的檢測(cè)準(zhǔn)確率;Zeng等[11]采用俯視行人的頭肩模型,通過(guò)HOG-LBP特征構(gòu)建行人特征描述子,該算法很好地表征目標(biāo)的輪廓和形狀,并且具有良好的灰度不變性。多特征融合的方法在很大程度上改善了分類器的分類效果。然而,幾個(gè)單一特征的結(jié)合不僅提高算法性能有限,并且增大了計(jì)算復(fù)雜度。所以如何選擇合適的特征使分類器在提高檢測(cè)率的同時(shí)保持較快的檢測(cè)速度是當(dāng)前的研究重點(diǎn)。
在上述研究的基礎(chǔ)上,本文提出了結(jié)合改進(jìn)聚合通道特征(ACF)和灰度共生矩陣(GLCM)的俯視行人檢測(cè)算法。首先,改進(jìn)ACF的顏色通道以及梯度直方圖通道;然后,嘗試采用多特征融合的方法,將改進(jìn)后的ACF特征與GLCM結(jié)合起來(lái),分別提取目標(biāo)的顏色、梯度、梯度方向直方圖以及紋理特征,輸入Adaboost算法進(jìn)行訓(xùn)練檢測(cè)得到結(jié)果。實(shí)驗(yàn)結(jié)果表明,所提多特征融合的方法,能夠過(guò)濾掉與人頭相似的背景,有效降低分類器的漏檢與誤檢率,實(shí)現(xiàn)了較高的檢測(cè)性能。
1.1.1 特征描述
ACF特征起初被用來(lái)解決人臉識(shí)別問(wèn)題,之后逐漸被應(yīng)用于行人檢測(cè)中。ACF特征的基本結(jié)構(gòu)是通道,它分別采用顏色、梯度以及梯度方向直方圖三個(gè)不同的通道描述圖像。這種混合通道的采用大大提高了描述子對(duì)不同種類信息的分類表示能力,有助于提高復(fù)雜背景下目標(biāo)的檢測(cè)效果。
ACF特征的計(jì)算流程示意圖如圖1所示,在積分通道特征的基礎(chǔ)上,ACF描述子采用特征金字塔算法提高了特征提取的速度。下面就該描述子的計(jì)算方法進(jìn)行簡(jiǎn)要介紹。
1)通道類型。ACF特征定義了10個(gè)通道,分別是3個(gè)LUV顏色通道、1個(gè)梯度通道和6個(gè)梯度方向直方圖通道。計(jì)算梯度幅值的過(guò)程采用一維微分模板[-1,0,1]和[1,0,-1]分別得到水平方向的梯度分量Gx(x,y)和豎直方向的梯度分量Gy(x,y)。梯度方向直方圖通道遵循HOG的思想,構(gòu)造方式是將圖像均勻分割成若干塊,計(jì)算每個(gè)塊中像素的梯度方向,將其按照劃分的6個(gè)梯度方向區(qū)域進(jìn)行統(tǒng)計(jì),其中每一個(gè)方向區(qū)域都分別是1個(gè)特征通道。圖像中像素點(diǎn)(x,y)的梯度幅值和梯度方向計(jì)算式如式(1)、(2)所示:
(1)
a(x,y)=arctan(Gy(x,y)/Gx(x,y))
(2)
圖1 聚合通道特征計(jì)算示意圖Fig. 1 Schematic diagram of aggregate channel features
2)特征計(jì)算。聚合通道的特征計(jì)算十分簡(jiǎn)單,首先給定一個(gè)彩色圖像作為輸入,計(jì)算預(yù)定義的通道。然后,根據(jù)預(yù)設(shè)因子對(duì)通道特征進(jìn)行平均池化下采樣,將下采樣得到的矩陣矢量化為像素查找表,該矢量即為最終的特征描述子。
3)多尺度計(jì)算。為了提升計(jì)算效率,ACF特征采用一種特征金字塔算法。在行人檢測(cè)中,目標(biāo)的高矮、遠(yuǎn)近導(dǎo)致它到攝像頭的距離不同,如果采用相同的尺度檢測(cè)目標(biāo)會(huì)導(dǎo)致漏檢和誤檢,采用多尺度計(jì)算能夠有效解決這一問(wèn)題。傳統(tǒng)的做法是先將圖像進(jìn)行重采樣縮放到若干尺度,再采用滑動(dòng)窗口法計(jì)算每個(gè)尺度下圖像的特征。這種方法存在冗余計(jì)算,且耗時(shí)大。而ACF算法則先計(jì)算幾個(gè)特定尺度層s∈{1,1/2,1/4,…}下的特征,然后直接使用一種快速估計(jì)算法計(jì)算其余中間尺度下的特征值。采用快速特征金字塔作為估計(jì)算法,利用近似公式(3),在允許的誤差范圍內(nèi)根據(jù)當(dāng)前尺度的特征C估計(jì)相鄰尺度上對(duì)應(yīng)的通道特征:
Cs≈R(C,s)·s-λΩ
(3)
式中,λΩ表示每個(gè)通道特征對(duì)應(yīng)的系數(shù)。
1.1.2 改進(jìn)顏色通道
ACF特征通道中融合了LUV顏色描述子。對(duì)于顏色通道的選擇,本文作出改進(jìn),選用更適合的HSV(Hue, Sturation, Value)顏色通道代替原先使用的LUV顏色通道。
HSV顏色空間[14]屬于非線性色彩表示系統(tǒng),它的顏色參數(shù)分別是:色調(diào)(H),飽和度(S)和亮度(V)。HSV顏色空間對(duì)色彩的感知和人十分接近,它能夠從人類的視角非常直觀地表達(dá)色彩信息,達(dá)到更好的顏色對(duì)比效果。HSV顏色通道能夠更細(xì)致地刻畫(huà)目標(biāo)和背景之間的灰度差別,有效提高檢測(cè)率。利用RGB(Red, Green, Blue)計(jì)算HSV顏色空間的計(jì)算式如下:
S=
(4)
H=
(5)
V=max(R,G,B)
(6)
1.1.3 改進(jìn)HOG通道
傳統(tǒng)HOG算法[15]的基本思想是通過(guò)提取圖片的梯度大小和方向來(lái)描述行人特征。它將圖像分成小的連通區(qū)域,名為細(xì)胞單元(cell),然后統(tǒng)計(jì)每個(gè)胞元內(nèi)部像素的梯度和方向直方圖,隨后對(duì)梯度強(qiáng)度作歸一化,將胞元有一定重疊地組合成塊(block),以梯度作為權(quán)重統(tǒng)計(jì)塊內(nèi)像素的方向直方圖,串聯(lián)起來(lái)得到最終的HOG特征。
HOG描述子對(duì)幾何和光學(xué)形變有良好魯棒性,但同時(shí),它也存在著計(jì)算量大的缺陷。為了提高算法的實(shí)時(shí)性,本文結(jié)合行人頭部的特點(diǎn),對(duì)HOG描述子作出如下改進(jìn),在不影響檢測(cè)性能的基礎(chǔ)上縮短提取特征的時(shí)間。
首先,由于俯視行人的頭部特征形狀近似圓形,較為統(tǒng)一,細(xì)節(jié)特征較少,所以考慮不再將塊進(jìn)一步細(xì)分為更小的細(xì)胞單元,并且采用無(wú)重疊的子塊,減少提取到的冗余信息。其次,本文考慮將0°~180°的角度范圍擴(kuò)展至-180°~180°,這樣能夠更完整地體現(xiàn)目標(biāo)的變化特征。
對(duì)改進(jìn)前后的HOG特征維數(shù)進(jìn)行對(duì)比。當(dāng)檢測(cè)圖像大小為64×64時(shí),傳統(tǒng)HOG算法將方向直方圖劃分為6個(gè)相等大小的區(qū)域,采用8×8大小的像素組成一個(gè)胞元,每2×2大小的胞元組成一個(gè)塊,且移動(dòng)步長(zhǎng)為8,則傳統(tǒng)HOG描述子的維數(shù)為6×4×7×7=1 176。而本文改進(jìn)算法將圖像等分成4×4共16個(gè)方形塊,塊與塊之間互不重疊,則改進(jìn)后的HOG描述子只有16×6=96維。相比于傳統(tǒng)方法,本文提出的改進(jìn)算法突出了俯視行人的紋理和顏色特征,弱化了不必要的細(xì)節(jié)特征,大大降低了傳統(tǒng)HOG描述子的維數(shù),在保證分類準(zhǔn)確率的前提下,減少了冗余的計(jì)算量。
本文采用灰度共生矩陣來(lái)描述圖像的紋理特征。灰度共生矩陣通過(guò)統(tǒng)計(jì)圖像中一定距離d和一定方向θ上兩像素點(diǎn)灰度的空間相關(guān)性來(lái)描述紋理。
灰度共生矩陣定義彼此距離為d、方向夾角為θ的一對(duì)像素,其灰度值分別為i和j時(shí)的概率,記為P(i,j,d,θ)。通常方向夾角選取0°、45°、90°、135°四個(gè)方向。下面給出像素灰度值分別為f(x1,y1)=a與f(x2,y2)=b的像素距離為d時(shí)的灰度共生矩陣計(jì)算公式:
P(i,j,d,0°)=#{((x1,y1),(x2,y2))∈(Lr,Lc)×
(Lr,Lc)|x2-x1=0,|y2-y1|=d,
f(x1,y1)=i,f(x2,y2)=j}
(7)
P(i,j,d,45°)=#{((x1,y1),(x2,y2))∈(Lr,Lc)×
(Lr,Lc)| (x2-x1=d,y2-y1=d) or (x2-x1=-d,
y2-y1=-d),f(x1,y1)=i,f(x2,y2)=j}
(8)
P(i,j,d,90°)=#{((x1,y1),(x2,y2))∈(Lr,Lc)×
(Lr,Lc)| |x2-x1|=d,y2-y1=0,
f(x1,y1)=i,f(x2,y2)=j}
(9)
P(i,j,d,135°)=#{((x1,y1),(x2,y2))∈(Lr,Lc)×
(Lr,Lc)| (x2-x1=d,y2-y1=-d) or (x2-x1=-d,
y2-y1=d),f(x1,y1)=i,f(x2,y2)=j}
(10)
其中:L為圖像的灰度級(jí);Lr和Lc分別表示圖像的行數(shù)和列數(shù);#{·}表示該集合中的元素個(gè)數(shù)。
由于直接將灰度共生矩陣送入分類器會(huì)產(chǎn)生較大計(jì)算量,所以為了減小計(jì)算復(fù)雜度,本文采用文獻(xiàn)[13]提出的4種特征參數(shù)來(lái)間接描述圖像的紋理特征。
1)能量。
能量特征參數(shù)又被稱為二階矩,它是矩陣值的平方和。能量的大小表示的是圖像灰度分布的勻稱度以及紋理細(xì)膩度。若一幅圖像的灰度分布均勻且紋理細(xì)膩,則能量值小;反之,如果圖像中的灰度分布不均且紋理粗糙,則能量值大。能量的計(jì)算式如下:
(11)
2)熵。
灰度共生矩陣的熵能夠反映出圖像中攜帶的信息量多少,屬于隨機(jī)性度量值。當(dāng)圖像的灰度共生矩陣中所有值均相等時(shí),圖像的隨機(jī)性較大,熵值大;相反,當(dāng)圖像灰度共生矩陣中的值分布不均時(shí),圖像的隨機(jī)性較小,熵值小。熵值的計(jì)算式如下:
(12)
3)對(duì)比度。
對(duì)比度指的是灰度共生矩陣主對(duì)角線附近的慣性矩,主要用來(lái)表示圖像的清晰度以及溝紋深淺程度。如果圖像清晰且紋理溝紋深,則對(duì)比度大;而當(dāng)圖像模糊且溝紋較淺時(shí),對(duì)比度小。對(duì)比度采用式(13)進(jìn)行計(jì)算:
(13)
4)相關(guān)度。
相關(guān)度是用來(lái)度量灰度共生矩陣的元素在水平或垂直方向上的相似度。當(dāng)矩陣中的值變化較小時(shí)或者圖像紋理具備一些規(guī)律性時(shí),相關(guān)值大;當(dāng)矩陣中各元素的值相差很大時(shí),相關(guān)值小。相關(guān)度的計(jì)算式如下:
(14)
(15)
(16)
(17)
(18)
灰度共生矩陣的特征參數(shù)能夠?qū)y理進(jìn)行細(xì)致的刻畫(huà)。為了驗(yàn)證灰度共生矩陣作為分類特征的有效性,隨機(jī)選取100張行人頭部圖像,以及100張干擾背景圖像(包括深色背包、衣服等),分別計(jì)算所有行人頭部和所有干擾背景在4個(gè)方向0°、45°、 90°、 135°上的特征參數(shù),取平均值進(jìn)行對(duì)比,結(jié)果如圖2所示。實(shí)驗(yàn)中取灰度級(jí)為L(zhǎng)=16,距離d=1。由圖2可以看出,頭部目標(biāo)和干擾背景的特征值之間存在明顯差異,因此將灰度共生矩陣作為附加的特征輸入分類器能夠有效降低因干擾背景導(dǎo)致的誤檢率。
由于灰度共生矩陣的特征維數(shù)只有4維,過(guò)低的維數(shù)會(huì)導(dǎo)致較差的分類效果。所以本文參考文獻(xiàn)[13]中的方法,在訓(xùn)練過(guò)程中采用大小為8×8、步長(zhǎng)為6的窗口,按照從左至右、從上至下的順序依次在圖像上滑動(dòng),計(jì)算每個(gè)窗口內(nèi)的特征參數(shù)。將每個(gè)窗口的4維特征參數(shù)依次串聯(lián)起來(lái),得到最終的灰度共生矩陣描述子,維數(shù)為10×10×4=400。這種基于小區(qū)域計(jì)算共生矩陣的方法不僅大幅度提高了訓(xùn)練效果,并且由于是在局部方格上進(jìn)行操作,所以提取到的特征對(duì)圖像的幾何和光學(xué)形變具有良好的不變性。
圖2 四種特征參數(shù)對(duì)比Fig. 2 Parameter comparison of four kinds of features
傳統(tǒng)Adaboost算法的基本思想是將K個(gè)弱分類器(Weak classifier)級(jí)聯(lián)組成更強(qiáng)的強(qiáng)分類器H(x)。
為了提升分類效果,本文采用深度為2的決策樹(shù)作為弱分類器,并且使用軟級(jí)聯(lián)Adaboost[16]取代傳統(tǒng)分類器以實(shí)現(xiàn)更優(yōu)的分類性能。
軟級(jí)聯(lián)Adaboost分類器相對(duì)于傳統(tǒng)Adaboost分類器在算法上有了改進(jìn)。不同于傳統(tǒng)方法需要反復(fù)的調(diào)參才能獲得近似最優(yōu)的級(jí)聯(lián)結(jié)構(gòu),軟級(jí)聯(lián)方法在每個(gè)弱分類器之后都設(shè)置了一個(gè)閾值,樣本每通過(guò)一個(gè)弱分類器就作出一次決策,從而使分類器的復(fù)雜度和分類能力得到逐級(jí)提升,實(shí)現(xiàn)了更好的分類性能。
本文從多特征融合的角度出發(fā),分別提取圖像的聚合通道特征(ACF)和灰度共生矩陣(GLCM)特征,利用Adaboost分類器進(jìn)行訓(xùn)練,得到分類器1和分類器2,以級(jí)聯(lián)的方式將聚合通道特征和灰度共生矩陣特征參數(shù)訓(xùn)練得到的兩個(gè)分類器結(jié)合起來(lái),采取這樣的方法能夠有效過(guò)濾掉干擾背景,準(zhǔn)確檢測(cè)出目標(biāo)。本文算法流程如圖3所示,具體步驟如下。
圖3 本文算法流程Fig. 3 Flow chart of the proposed algorithm
訓(xùn)練階段的步驟如下:
1)將訓(xùn)練的正樣本和負(fù)樣本歸一化至64×64大小,灰度化之后作為輸入。對(duì)樣本進(jìn)行下采樣得到大小為16×16的圖像,分別計(jì)算訓(xùn)練樣本10個(gè)通道的ACF特征,其中包括3個(gè)HSV通道、6個(gè)改進(jìn)的HOG通道,以及1個(gè)梯度幅值通道。計(jì)算得到特征向量。
2)采用區(qū)域法計(jì)算歸一化后正負(fù)樣本的灰度共生矩陣,選取塊大小為8、步長(zhǎng)為6、灰度級(jí)為16、距離為1、方向?yàn)?°。利用得到的共生矩陣,分別計(jì)算能量、熵、對(duì)比度和相關(guān)度,得到4維的特征參數(shù)。最終每個(gè)樣本得到400維特征向量。
3)將得到的聚合通道特征向量和灰度共生矩陣特征向量分別送入軟級(jí)聯(lián)Adaboost分類器進(jìn)行訓(xùn)練,其中:軟級(jí)聯(lián)閾值設(shè)置為-1,弱分類器個(gè)數(shù)為128。得到分類器1和分類器2,用于后續(xù)的測(cè)試。
測(cè)試階段的步驟如下:
1)首先按幀讀入圖像,進(jìn)行圖像灰度化。采用滑動(dòng)窗口法計(jì)算原圖的ACF特征,窗口大小為64×64。利用特征金字塔的思想直接對(duì)圖像特征進(jìn)行縮放,得到不同尺度圖像下的特征向量。
2)將計(jì)算得到的特征向量送入Adaboost分類器1進(jìn)行分類得到檢測(cè)結(jié)果的坐標(biāo)(bounding box)和目標(biāo)窗口。將檢測(cè)到的行人頭部窗口以及其坐標(biāo)作為候選目標(biāo),進(jìn)行下一步的篩選。計(jì)算該目標(biāo)的共生矩陣參數(shù)向量,輸入分類器2,排除干擾背景,得到最終的輸出結(jié)果。
為了驗(yàn)證本文所提算法的有效性,在配置為Intel Core i5 CPU 2.40 GHz、內(nèi)存6.00 GB的計(jì)算機(jī)上采用Matlab 2014平臺(tái)編寫(xiě)算法驗(yàn)證實(shí)驗(yàn)。本文研究的對(duì)象是俯視鏡頭下拍攝到的行人目標(biāo)。實(shí)驗(yàn)用到的樣本圖像取自某學(xué)校食堂抓拍的彩色監(jiān)控圖像序列,分辨率為320×240。訓(xùn)練集中的正樣本通過(guò)人工裁剪圖像序列中的頭部目標(biāo)區(qū)域得到,樣本大小為64×64,數(shù)量為850張。在截取的頭部樣本中,約60%的頭部樣本選取較為規(guī)范的類圓形頭像,約40%的頭部樣本則選取一些發(fā)型發(fā)色不規(guī)律的人頭像,采用上述樣本集訓(xùn)練得到的分類器泛化能力較強(qiáng)。訓(xùn)練集中的負(fù)樣本從1 000多張不含行人的圖片中隨機(jī)截取得到,大小為64×64,數(shù)量為4 000張。從監(jiān)控序列中選取完整連續(xù)的3段視頻圖像序列作為測(cè)試視頻,每段視頻有200幀,其中每幀至少有1個(gè)行人目標(biāo),行進(jìn)速度和方向均為隨機(jī)。用于測(cè)試的圖像序列中具有較多干擾背景如深色的背包、服裝等,且序列中頭部目標(biāo)包含多種發(fā)型及發(fā)色,增大了檢測(cè)難度。測(cè)試集樣本與訓(xùn)練集樣本沒(méi)有重疊。
對(duì)比實(shí)驗(yàn)采用準(zhǔn)確率(precision)和召回率(recall)作為最終評(píng)價(jià)指標(biāo),計(jì)算式如下:
precision=tp/(tp+fp)
(19)
recall=tp/(tp+fn)
(20)
其中:tp是正確檢測(cè)的行人數(shù)目;fn是漏檢的人數(shù);fp是算法誤檢出的行人數(shù)目。所以,tp+fp是算法總共檢出的行人總數(shù),tp+fn是所有正樣本的數(shù)目。
實(shí)驗(yàn)采用本文算法和文獻(xiàn)[12]中所提的ACF算法進(jìn)行測(cè)試對(duì)比,結(jié)果如表1所示。
從表1中可以看出,本文提出的方法明顯縮減了漏檢和誤檢人數(shù),在準(zhǔn)確率和召回率上都比文獻(xiàn)[12]方法略高。一方面,本文采用的HSV顏色通道相比LUV通道能夠達(dá)到更好的顏色對(duì)比效果,能夠提取出魯棒性更強(qiáng)的顏色特征;另一方面,本文結(jié)合了顏色、梯度、梯度方向直方圖以及紋理4種特征,把改進(jìn)后的聚合通道特征和灰度共生矩陣融合起來(lái),將聚合特征描述子檢測(cè)到的目標(biāo)窗口輸入灰度共生矩陣紋理描述子中進(jìn)行篩選,極大程度上減少了誤檢與漏檢目標(biāo),提高了準(zhǔn)確率和召回率。兩種檢測(cè)方法的檢測(cè)結(jié)果如圖4所示。
表1 不同方法實(shí)驗(yàn)結(jié)果對(duì)比Tab. 1 Comparison of experimental results of different methods
在Matlab 2014環(huán)境下,一幅320×240的RGB圖像,用傳統(tǒng)ACF算法結(jié)合灰度共生矩陣檢測(cè)需要2 s,而本文算法需要約0.5 s,提升了運(yùn)算速度。
圖4 俯視行人不同算法檢測(cè)結(jié)果對(duì)比Fig. 4 Zenithal pedestrian detection result comparison of different algorithms
本文提出了一種針對(duì)俯視視角的行人檢測(cè)算法,從多特征融合的角度出發(fā),將改進(jìn)后的聚合通道特征和灰度共生矩陣訓(xùn)練得到的分類器級(jí)聯(lián)起來(lái),通過(guò)逐級(jí)篩選的方式進(jìn)行分類,得到檢測(cè)結(jié)果。該算法融合了顏色、梯度、梯度方向直方圖和紋理特征,通過(guò)從不同角度描述行人來(lái)有效檢測(cè)行人頭部,減小了干擾背景對(duì)分類的影響,大幅提高了檢測(cè)性能,為后續(xù)的行人跟蹤與智能分析奠定了良好基礎(chǔ)。