谷靈康 周鳴爭(zhēng)
(安徽工程大學(xué)計(jì)算機(jī)與信息學(xué)院計(jì)算機(jī)應(yīng)用技術(shù)重點(diǎn)實(shí)驗(yàn)室 安徽 蕪湖 241000)
?
基于Hough森林的多特征快速行人檢測(cè)
谷靈康周鳴爭(zhēng)
(安徽工程大學(xué)計(jì)算機(jī)與信息學(xué)院計(jì)算機(jī)應(yīng)用技術(shù)重點(diǎn)實(shí)驗(yàn)室安徽 蕪湖 241000)
摘要為了快速檢測(cè)行人,根據(jù)人體頭頂特性快速找出頭頂候選點(diǎn),依此為基點(diǎn)利用邊緣檢測(cè)算法提取目標(biāo)輪廓,將其作為待測(cè)區(qū)域;然后利用改進(jìn)的顏色自相似特征、結(jié)合區(qū)域邊緣直方圖和一致模式特征,在Hough森林分類器上進(jìn)行分類檢測(cè)。實(shí)驗(yàn)結(jié)果表明,該算法在檢測(cè)正確率及速率方面都得到了提高,對(duì)于復(fù)雜動(dòng)態(tài)場(chǎng)景、遮擋現(xiàn)象以及目標(biāo)自身形變具有較強(qiáng)的魯棒性和較高的準(zhǔn)確性,在多種行人數(shù)據(jù)集中測(cè)試取得良好的效果。
關(guān)鍵詞行人檢測(cè)像素點(diǎn)梯度方向局部顏色自相似特征區(qū)域邊緣直方圖局部二值模式Hough森林
0引言
行人檢測(cè)是智能視頻監(jiān)控、機(jī)器視覺(jué)、車輛輔助駕駛等應(yīng)用的第一步,吸引了大批研究者,取得了一定的研究成果[1]。但是由于行人的特殊性,場(chǎng)景的復(fù)雜多樣性,若想取得又快又準(zhǔn)的檢測(cè)識(shí)別效果,還需要進(jìn)一步的努力。如果想快速檢測(cè)行人,通常情況下是選用單一特征,這也是早期行人檢測(cè)所采用的方法,但是檢測(cè)效果不理想,不能有效檢測(cè)行人。為了準(zhǔn)確檢測(cè)行人,近年來(lái)很多研究者提出多特征融合的方法,這樣固然能提高檢測(cè)的準(zhǔn)確性,但是需要花費(fèi)大量的時(shí)間,不能滿足行人檢測(cè)對(duì)實(shí)時(shí)性的要求。針對(duì)這些問(wèn)題,本文根據(jù)人體特性提出一種快速且有效的行人檢測(cè)方法。
1算法思路
因行人全身包含的信息很多,所以目前的行人檢測(cè)方法大多是根據(jù)行人全身的特征來(lái)判斷的,但對(duì)于復(fù)雜場(chǎng)景,特別是有身體遮擋的情況下,要想獲得行人全身信息是不太可能的,但這種情況下,通常還能獲取行人的頭頂信息,本文依此頭頂點(diǎn)為基點(diǎn),利用邊緣檢測(cè)算子獲取邊緣輪廓,將其作為候選目標(biāo),然后利用改進(jìn)的邊緣方向直方圖方法提取區(qū)域邊緣直方圖特征。
另外對(duì)于行人,身體顏色具有一定的自相似性,衣服顏色以及膚色的相似度很高,且頭發(fā)的顏色和臉部的膚色不依賴于面部的細(xì)節(jié)特征,在表情變化、頭部偏轉(zhuǎn)等情況下仍能適用,具有相對(duì)的穩(wěn)定性。而且人體顏色有別于大多數(shù)背景物體的顏色,因此為了提高檢測(cè)率對(duì)候選目標(biāo)利用改進(jìn)的顏色自相似算法進(jìn)行特征提取。
為了提高檢測(cè)準(zhǔn)確性,僅提取顏色自相似特征還不夠,考慮到紋理是反映目標(biāo)表面色度和亮度變化模式的視覺(jué)特征,因此需要選擇一種高效的紋理特征提取算法。
為了能夠提高檢測(cè)正確率而提取多種特征,但這樣就增加了維度,從而影響檢測(cè)速度。這就要求選擇學(xué)習(xí)速度快、分類能力強(qiáng)的分類器。隨機(jī)森林是一個(gè)包含多個(gè)決策樹(shù)的分類器、優(yōu)點(diǎn)是學(xué)習(xí)速度很快,缺點(diǎn)是存在過(guò)擬合[2]?;贖ough森林的目標(biāo)檢測(cè)是近期提出的一種新方法,重點(diǎn)考察圖像塊與目標(biāo)中心的位置關(guān)系,在葉節(jié)點(diǎn)處增加計(jì)算,輸出成為在連續(xù)區(qū)域上的投票。Hough森林是在隨機(jī)森林框架上的一個(gè)擴(kuò)展,繼承了隨機(jī)森林的優(yōu)點(diǎn)并改進(jìn)了其缺點(diǎn)[3]。根據(jù)以上思路,本文算法流程如圖1所示。
圖1 本文算法流程圖
2快速頭頂點(diǎn)確定方法
由于人的頭頂是橢圓形,且經(jīng)過(guò)計(jì)算發(fā)現(xiàn)頭頂像素點(diǎn)的梯度方向值基本在90°左右[4]。本文利用頭頂像素點(diǎn)的梯度方向具有固定范圍這一特性在前景中找出頭頂候選點(diǎn),根據(jù)該點(diǎn)快速確定人體輪廓域。
算法中像素點(diǎn)(x,y)的灰度值用H代替,G代表梯度幅值,α為梯度方向。采用一維中心算子[-1,0,1],可得到水平和垂直方向的梯度幅值分別為:
Gx(x,y)=H(x+1,y)-H(x-1,y)Gy(x,y)=H(x,y+1)-H(x,y-1)
(1)
則(x,y)像素點(diǎn)的梯度方向?yàn)椋?/p>
(2)
通過(guò)計(jì)算及實(shí)驗(yàn)測(cè)試,人體頭頂像素點(diǎn)梯度的切線方向在 90°左右,發(fā)型的不同對(duì)頭頂?shù)男螤钭兓瘯?huì)有一定的影響,但是不大。
根據(jù)上述計(jì)算方法選取前景中梯度方向在規(guī)定范圍內(nèi)的像素點(diǎn)作為頭頂候選點(diǎn),然后依此點(diǎn)為基點(diǎn),利用Prewitt檢測(cè)算子提取邊緣輪廓,且能去掉部分偽邊緣,對(duì)噪聲具有平滑作用。
3改進(jìn)的EOH特征提取方法
邊緣方向直方圖(EOH)能較好體現(xiàn)圖像的邊緣和紋理特征,通過(guò)統(tǒng)計(jì)圖像邊緣像素的方向分布來(lái)描述圖像特征,其計(jì)算方法為:1) 對(duì)圖像進(jìn)行邊緣算子運(yùn)算;2) 計(jì)算各邊緣像素的梯度幅值和梯度方向,并判斷梯度方向所隸屬的直方圖子區(qū)間;3) 統(tǒng)計(jì)隸屬于直方圖各子區(qū)間的所有邊緣像素的梯度幅值和;4) 對(duì)所得的直方圖各子區(qū)間取值進(jìn)行歸一化得到最終的邊緣方向直方圖[5]。
由于傳統(tǒng)直方圖僅統(tǒng)計(jì)圖像像素取值的頻率分布,所以當(dāng)兩幅圖像像素的頻率相同時(shí),其無(wú)法進(jìn)行區(qū)分。此時(shí),雖然兩幅圖像像素取值的頻率分布相同,但直方圖各子區(qū)間對(duì)應(yīng)區(qū)域的邊緣分布是有差別的?;诖?,如果用各子區(qū)間的邊緣復(fù)雜度來(lái)度量各區(qū)間構(gòu)成的區(qū)域的分散程度,即可以得到一組度量灰度直方圖各子區(qū)間內(nèi)像素空間分布的數(shù)據(jù)。利用該組數(shù)據(jù)對(duì)直方圖的各子區(qū)間進(jìn)行加權(quán),便可得到一組新的直方圖,由邊緣復(fù)雜度得到的權(quán)值數(shù)據(jù)稱為該直方圖的空間權(quán)因子。如圖2所示。
圖2 原圖及2種算法檢測(cè)結(jié)果對(duì)比圖
設(shè)灰度直方圖第k個(gè)子區(qū)間內(nèi)所有像素構(gòu)成的區(qū)域的邊緣復(fù)雜度為φk。將歸一化后的數(shù)據(jù)記為(Ф1,…,Фk,…,Фn),則其為一組體現(xiàn)像素空間分布復(fù)雜度的加權(quán)直方圖數(shù)據(jù).對(duì)于其第k個(gè)子區(qū)間的數(shù)值Фk。
(3)
式(3)表明,Фk的大小只與該區(qū)間對(duì)應(yīng)區(qū)域的邊緣像素的總數(shù)К(Ek)有關(guān),也即計(jì)算時(shí)只需要統(tǒng)計(jì)直方圖各子區(qū)間對(duì)應(yīng)區(qū)域的邊緣像素的個(gè)數(shù),因此該方法是一種基于區(qū)域邊緣統(tǒng)計(jì)的圖像特征描述方法。
區(qū)域邊緣像素的引入反映了圖像的結(jié)構(gòu)信息,檢測(cè)結(jié)果與EOH相比如下圖所示,從另一個(gè)角度解釋了區(qū)域邊緣直方圖具有更強(qiáng)的圖像特征區(qū)分度的原因,能夠?qū)D像進(jìn)行有效的區(qū)分。
4改進(jìn)的顏色自相似特征及紋理特征提取
人的身體顏色具有一定的自相似性,如:人體衣服顏色以及兩臂顏色的相似度很高?;诖?,Walk等[6]提出一種顏色相似度特征CSSF(ColorSelf-SimilarityFeature) ,用于行人檢測(cè),有效提高了檢測(cè)精度,但其計(jì)算的是全局圖像中每?jī)蓚€(gè)塊之間的相似性,計(jì)算量非常大,特征維數(shù)高,檢測(cè)速度較慢。文獻(xiàn)[7]對(duì)CSSF進(jìn)行了改良,但該特征維度達(dá)到千萬(wàn)級(jí),仍然較高,難以滿足實(shí)際應(yīng)用需要。本文結(jié)合輪廓特征,提出改進(jìn)的顏色自相似特征。
4.1傳統(tǒng)的顏色自相似特征
傳統(tǒng)的顏色相似度特征基于矩形特征,對(duì)于矩形塊R1,其內(nèi)部數(shù)值和為:
(4)
CSSF特征可由相鄰塊R1和R2數(shù)值和的比值得到:
F(R1,R2)=sumR1/sumR2
(5)
式中,R1和R2大小相等且位置不同(設(shè)矩形塊寬為w,高為h),該方法可以衡量矩形塊之間的相似度。比值越接近1,兩矩形塊越相似。為此,對(duì)F特征進(jìn)行非線性轉(zhuǎn)換得到F′特征:
(6)
對(duì)于傳統(tǒng)CSSF特征當(dāng)兩矩形塊相距較遠(yuǎn)時(shí),其光照情況可能相差較大,導(dǎo)致特征對(duì)非均勻光照敏感;而如果把矩形塊之間的距離限定得太小,又會(huì)增加計(jì)算量,導(dǎo)致特征空間維度過(guò)高。近些年有很多學(xué)者試圖對(duì)CSSF進(jìn)行改良,如文獻(xiàn)[7-9],但特征維度仍然很高,勢(shì)必會(huì)影響檢測(cè)效率?;诖耍疚膶?duì)顏色相似特征進(jìn)一步改進(jìn)。
4.2改進(jìn)的顏色自相似特征
為了降低特征維度又不至于導(dǎo)致對(duì)非均勻光照敏感,本文對(duì)矩形塊的高寬比及塊之間的距離進(jìn)行約束。
對(duì)于分別以點(diǎn)(x1,y1)和(x2,y2)為左上角坐標(biāo)的矩形塊R1和R2,當(dāng)其滿足式(7)時(shí),則計(jì)算這兩個(gè)塊之間的相似度。
(7)
其中δ為約束閾值,一般情況下取值為3。在實(shí)驗(yàn)過(guò)程中可以根據(jù)檢測(cè)效果調(diào)整閾值和w及h的值;另外在實(shí)驗(yàn)過(guò)程中還發(fā)現(xiàn)當(dāng)高寬比(即h/w)為0.68黃金比例時(shí),檢測(cè)效果最好(如圖3所示)。
圖3 不同高寬比對(duì)應(yīng)的檢測(cè)率
由于有了候選區(qū)域去除了背景信息且對(duì)矩形塊的高寬比及塊之間的距離進(jìn)行了約束,相比于文獻(xiàn)[7]、文獻(xiàn)[8]和文獻(xiàn)[9],去除了大量冗余信息,其特征空間進(jìn)一步降低。
4.3改進(jìn)的旋轉(zhuǎn)不變性LBP紋理特征提取
LBP特征[10]是由Ojala等在1994年提出的一種高效的局部紋理特征提取算法。LBP特征能夠較好地反映像素點(diǎn)局部鄰域的空間分布模式,且該特征具有計(jì)算速度快的優(yōu)點(diǎn)?;镜腖BP算子的計(jì)算公式為:
(8)
5Hough森林檢測(cè)算法
5.1原理
Hough森 林[13],由一系列決策樹(shù)h(x,θk) ,k=1,2,…組成,森林中的每棵樹(shù)都是由一系列的葉節(jié)點(diǎn)和非葉節(jié)點(diǎn)形成的,節(jié)點(diǎn)是由隨機(jī)抽選的局部圖像塊來(lái)創(chuàng)建的。
Hough森林屬于機(jī)器學(xué)習(xí)中的監(jiān)督學(xué)習(xí),通過(guò)訓(xùn)練,學(xué)會(huì)如何將局部的圖像塊特征與它們?cè)贖ough空間H?RH內(nèi)的投票相映射:
(9)
表示圖像元素特征到概率Hough投票的映射模型:其中,τ為從輸入圖像空間y∈Ω?RD到特征(I1(y),I2(y),…,IF(y))∈RF的映射,每一個(gè)IF是一個(gè)特征向量子分量,F(xiàn)為總的特征維數(shù);p(h|L(y))是Hough空間內(nèi)Hough投票的分布。
5.2收斂性研究
假設(shè)訓(xùn)練集{(x,y)}是由隨機(jī)輸入向量x和輸出向量y分布所抽取出來(lái)的,那么對(duì)于給定的k個(gè)分類器的集合{h1(x),h2(x),…,hk(x)}可以定義間隔函數(shù)為式(1)。
mg(x,y)=kavI(hk=y)-maxj≠ykavI(hk(x)=j)
(10)
用投票和概率平均(表達(dá)式如下)得到測(cè)試的預(yù)測(cè)類標(biāo)簽:
(11)
(12)
式中I(·)是示性函數(shù),kav(·)為對(duì)k取平均值,ji為森林中的k棵決策樹(shù)的權(quán)重。類標(biāo)簽由投票來(lái)決定,得票存在于決策樹(shù)的給定閾值范圍。可以導(dǎo)出泛化誤差:
Ep=Px,y(my(x,y)<0)
(13)
當(dāng)森林中數(shù)目較大時(shí),由樹(shù)結(jié)構(gòu)和大數(shù)定律導(dǎo)出隨機(jī)向量趨向值如式(14):
Px,y(Pθ(h(x,θ)=y)=y-maxj≠yPθ(h(x,θ)=j)<0)
(14)
隨機(jī)森林邊緣函數(shù):
(15)
決策樹(shù)的分類強(qiáng)度s為:
s=Ex,ymr(x,y)
(16)
設(shè)s≥0,根據(jù)Chebyshev不等式由式(15)、式(16) 得到泛化誤差:
(17)
其中Var(mr)形式如式(18):
(18)
而:
(19)
由式(17)~式(19)知,任意函數(shù)h,求其均值與方差,并趨近于方差上限,都有:
(20)
其中ρ是相關(guān)系數(shù)平均值。推導(dǎo)式(17)可知:
(21)
6仿真實(shí)驗(yàn)及分析
6.1實(shí)驗(yàn)數(shù)據(jù)集
拍攝包含多種場(chǎng)所(教學(xué)樓、停車場(chǎng)、道路,等)、多種天氣(晴天、雨天、霧天)等復(fù)雜情況下的行人視頻構(gòu)成本文實(shí)驗(yàn)樣本之一,該視頻庫(kù)部分場(chǎng)景背景如圖4所示。取部分視頻制作成正樣本(如圖5所示),共建正樣本4600個(gè),其中2600個(gè)用來(lái)訓(xùn)練,2 000個(gè)用來(lái)驗(yàn)證,另外不含行人的背景圖稱為負(fù)樣本。
圖4 部分場(chǎng)景背景圖
圖5 部分正樣本
為了驗(yàn)證本文所述算法檢測(cè)效果的通用性,在目前常用的行人數(shù)據(jù)集[14]中,引入2個(gè)國(guó)際上常用的數(shù)據(jù)集:INRIA行人數(shù)據(jù)集和NICTA行人數(shù)據(jù)集[15]。其中INRIA行人數(shù)據(jù)集是目前使用較多的靜態(tài)行人數(shù)據(jù)集,包含訓(xùn)練和測(cè)試兩類,且每類均包含正樣本和負(fù)樣本。訓(xùn)練集含有正樣本614張(包含2416個(gè)行人),負(fù)樣本1218張;測(cè)試集含有正樣本288張(包含1126個(gè)行人),負(fù)樣本453張。NICTA行人數(shù)據(jù)集是目前規(guī)模較大的靜態(tài)行人數(shù)據(jù)集,且已劃分好訓(xùn)練集和測(cè)試集。
6.2實(shí)驗(yàn)與結(jié)果分析
本文算法程序在Pentium(R)CPU987雙核1.5GHz, 64位Windows7系統(tǒng),4GB內(nèi)存的計(jì)算機(jī)上運(yùn)行。
對(duì)于行人樣本圖如圖6所示。按照本文算法流程(如圖1所示)進(jìn)行行人檢測(cè),如圖7所示為實(shí)驗(yàn)中部分行人檢測(cè)示意圖。
圖6 部分行人樣本圖 圖7 部分行人檢測(cè)結(jié)果示意圖
由于目前分類算法主要還是基于SVM和AdaBoost的,基于隨機(jī)森林和Hough森林的檢測(cè)是近期提出的新方法,故為了驗(yàn)證本文算法將其與文獻(xiàn)[2]、文獻(xiàn)[7]、文獻(xiàn)[16]和文獻(xiàn)[17]、文獻(xiàn)[18]所述方法分別在自建數(shù)據(jù)集、INRIA、NICTA數(shù)據(jù)集上實(shí)驗(yàn)后比較,實(shí)驗(yàn)檢測(cè)率如圖8所示。
圖8 不同算法在多種數(shù)據(jù)集中的檢測(cè)率
由圖8可知,不同算法在各類行人數(shù)據(jù)集中的檢測(cè)效果相差較小。通過(guò)實(shí)驗(yàn)可知本文所提算法平均檢測(cè)正確率(在三類數(shù)據(jù)集中正確檢測(cè)出的人體占整個(gè)視頻中人體的識(shí)別率)為99.07%;文獻(xiàn)[2]所述算法HOG+LBP+LAB+Houghforest平均檢測(cè)率為96.72%;文獻(xiàn)[7]所述算法CSSF+AdaBoost平均檢測(cè)率為98.16%;文獻(xiàn)[16]所述算法HOG+Harr+SVM平均檢測(cè)正確率為98.0%;文獻(xiàn)[17]所述算法HOG+IKSVM平均檢測(cè)正確率為97.65%;文獻(xiàn)[18]所述算法Randomforest+SVM平均檢測(cè)率為96.17%。在這幾類算法中,本文所述算法的檢測(cè)率較高,綜合這幾種算法在不同數(shù)據(jù)集的檢測(cè)率,進(jìn)一步分析它們的誤檢率與漏檢率,實(shí)驗(yàn)結(jié)果如圖9所示。
圖9 不同算法誤檢率和漏檢率比較
在檢測(cè)速率(對(duì)人體識(shí)別的平均速率)上,各算法也有較明顯的差別,如表1所示。文獻(xiàn)[2]所述算法HOG+LBP+LAB+Houghforest平均檢測(cè)速率較慢;文獻(xiàn)[16]所述算法HOG+Harr+SVM平均檢測(cè)正確率較高,誤檢率也較低,但是檢測(cè)的速率相對(duì)較慢;文獻(xiàn)[17]所述算法HOG+IKSVM平均檢測(cè)正確率相對(duì)較低,但是速率較快;文獻(xiàn)[7]所述算法CSSF+AdaBoost,由于特征空間仍為千萬(wàn)級(jí),所以檢測(cè)速率上也較慢;文獻(xiàn)[18]所述算法Randomforest+SVM檢測(cè)速率較快;而本文所述算法,花費(fèi)時(shí)間相對(duì)較少。
表1 不同算法檢測(cè)速率比較
7結(jié)語(yǔ)
參考文獻(xiàn)
[1]PedagadiS,OrwellJ,VelastinS,etal.Localfisherdiscriminantanalysisforpedestrianre-identification[C]//IEEEComputerSocietyConferenceonComputerVisionandPatternRecognition,Portland,USA,2013:3318-3325.
[2] 尤瑋,戴聲奎.基于多特征與改進(jìn)霍夫森林的行人檢測(cè)方法[J].計(jì)算機(jī)工程與設(shè)計(jì),2014,35(10):3538-3544.
[3]BarinovaO,LempitskyV,KholiP.Ondetectionofmultipleobjectinstancesusinghoughtransforms[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2012,34(9):1773-1784.
[4] 欽爽,謝剛,饒欽,等.視頻中基于LW-PGD和SVM的頭肩部檢測(cè)[J].計(jì)算機(jī)應(yīng)用研究,2014,31(3):949-952.
[5] 余旺盛,田孝華,侯志強(qiáng).基于區(qū)域邊緣統(tǒng)計(jì)的圖像特征描述新方法[J].計(jì)算機(jī)學(xué)報(bào),2014,37(6):1398-1410.
[6]WalkS,MajerN,SchindlerK,etal.Newfeaturesandinsightsforpedestriandetection[C]//CVPR2010:Proceedingsofthe2010IEEEConferenceonComputerVisionandPatterRecognition.Piscataway:IEEE,2010:1030-1037.
[7] 曾波波,王貴錦,林行剛.基于顏色自相似度特征的實(shí)時(shí)行人檢測(cè)[J].清華大學(xué)學(xué)報(bào),2012,52(4):571-574.
[8] 饒欽,謝剛,欽爽.基于顏色自相似性和HOG特征的行人檢測(cè)[J].小型微型計(jì)算機(jī)系統(tǒng),2014,35(11):2582-2585.
[9] 顧會(huì)建,陳俊周.基于改進(jìn)顏色自相似特征的行人檢測(cè)方法[J].計(jì)算機(jī)應(yīng)用,2014,34(7):2033-2035.
[10]OjalaT,PietikinenM,HarwoodD.PerformanceevaluationoftexturemeasureswithclassificationbasedonKullbackdiscriminationofdistributions[C]//Proceedingsofthe12thIAPRInternationalConferenceonPatternRecognition.Israel:IEEE,1994:582-585.
[11]SalbergAB,HardebergJY,JenssenR.Rotationinvariantimagedescriptionwithlocalbinarypatternhistogramfourierfeatures[C]//ISCIA2009Proceedings.Heidelberg:Springer,2009:61-70.
[12] 陳東岳,陳宗文,桑永嘉.基于多特征在線模板更新的魯棒目標(biāo)跟蹤算法[J].哈爾濱工業(yè)大學(xué)學(xué)報(bào),2014,46(7):87-94.
[13] 嚴(yán)明君,項(xiàng)俊,羅艷,等.基于SURF與Hough森林的人臉檢測(cè)研究[J].計(jì)算機(jī)科學(xué),2014,41(7):301-305.
[14] 張春鳳,宋加濤,王萬(wàn)良.行人檢測(cè)技術(shù)研究綜述[J].電視技術(shù),2014,38(3):157-162.
[15]OverettG,PeterssonL,BrewerL,etal.Anewpedestriandatasetforsupervisedlearning[C]//Proc.2008IEEEIntelligentVehiclesSymposium.Eindhoven,Holland:IEEEPress,2008:373-378.
[16]HeFei,LiYali,WangShengjin,etal.ANovelHierarchicalFrameworkforHumanHead-ShoulderDetection[C]//ImageandSignalProcessing(CISP),Shanghai,China,Oct15-17,2011,3:1485-1489.
[17]SubhransuMaji,AleanderCBerg,JitendraMalik.EfficientClassificationforAdditiveKernelSVMs[J].PatternAnalysisandMachineIntelligence,2013,35(1):66-77.
[18] 習(xí)文星,湯心溢.基于隨機(jī)森林和支持向量機(jī)的快速行人檢測(cè)算法[J].計(jì)算機(jī)應(yīng)用,2014,34(S2):283-285.
MULTI-FEATURE FAST PEDESTRIAN DETECTION ALGORITHMBASEDONHOUGHFOREST
Gu LingkangZhou Mingzheng
(Key Laboratory of Computer Application Technology,College of Computer and Information,Anhui Polytechnic University,Wuhu 241000,Anhui,China)
AbstractIn order to quickly detect pedestrians, we first rapidly found out the candidates of the top of the head according to the characteristics of human head tops, and according to this base point we extracted the object contour by using edge detection algorithm and took it as the area to be tested. Secondly, by using the improved colour self-similarity character and combining the region edge histogram and uniform pattern characters, we conducted the classification and detection on Hough forest classifier. Experimental results showed that, the algorithm proposed in this paper gained the improvement in both the detection accuracy and speed, and had stronger robustness and higher accuracy against the cluttered dynamic background, occlusion and the deformation of the object itself. In many pedestrian datasets tests it achieved good results as well.
KeywordsPedestrian detectionPixel gradient directionLocal colour self-similarity characterRegion edge histogramLocal binary patternsHough forest
收稿日期:2015-01-14。國(guó)家自然科學(xué)基金項(xiàng)目(61300170);安徽省自然科學(xué)基金項(xiàng)目(1308085MF95);安徽省級(jí)自然科學(xué)研究項(xiàng)目(TSKJ2014B11)。谷靈康,講師,主研領(lǐng)域:行人檢測(cè),計(jì)算機(jī)視覺(jué)。周鳴爭(zhēng),教授。
中圖分類號(hào)TP391.4
文獻(xiàn)標(biāo)識(shí)碼A
DOI:10.3969/j.issn.1000-386x.2016.06.036