歐陽毅 張三元 張 引
(浙江大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院 杭州 310027)
人體檢測在人體動(dòng)作識(shí)別、智能視頻監(jiān)控、智能汽車及智能交通中都有著重要的應(yīng)用,使其成為了一個(gè)研究熱點(diǎn)。由于人體運(yùn)動(dòng)為非剛性的目標(biāo)運(yùn)動(dòng),且受姿態(tài)、外觀、服飾及光照天氣等環(huán)境變化因素的影響較大,同時(shí)當(dāng)人體部分被遮擋情況下,如何對其進(jìn)行檢測也是一個(gè)研究難點(diǎn)。目前人體特征的提取通常都是尋找表示人體輪廓信息的方法,如差分與邊緣信息[1],多成分學(xué)習(xí)[2],Harr小波特征[3],以及梯度方向直方圖等[4-7]。
在各種人體特征提取中,HOG (Histograms of oriented Gradients)具有較好的檢測性能,但存在人體特征向量維數(shù)較大,在分類器的訓(xùn)練與檢測時(shí)計(jì)算量都較大等缺點(diǎn),主要是由于在特征檢測時(shí)需要在不同尺度多次迭代計(jì)算。另外圖像中多目標(biāo)人物的檢測,對于半遮擋和尺度差異較大的人體目標(biāo)檢測會(huì)失效,有研究通過子部件(part-based)即人體各肢體的檢測算子[8-13],能獲取較高準(zhǔn)確率和較低虛警率,缺點(diǎn)是肢體匹配過程需較大計(jì)算代價(jià)。其中文獻(xiàn)[8]中將HOG與LBP (Local Binary Pattern)相結(jié)合來解決人體部分遮擋下的檢測。本文提出一種基于窗口梯度勢能(Window Gradient Potential Energy, WGPE)的人體檢測方法。在特征窗口掃描過程中,通過加權(quán)級(jí)聯(lián)支持向量機(jī)(SVM),實(shí)現(xiàn)對半遮擋情況下的人體檢測,利用稀疏-稠密窗口勢能集篩選縮短了檢測時(shí)間。由于WGPE利用了HOG特征計(jì)算過程中的梯度信息,因此本算法與其他的基于 HOG的快速檢測算法比較,并不需要增加過多的計(jì)算開銷,在背景較為平滑的圖像中,與文獻(xiàn)[14]檢測方法相比具有較少的檢測時(shí)間,對于較復(fù)雜的背景,本算法與傳統(tǒng)的 HOG檢測算法相當(dāng)。實(shí)驗(yàn)表明在人體檢測的準(zhǔn)確率和效率方面有所提高,對于處于半遮擋情況下人體檢測,準(zhǔn)確率也有明顯提高。
本文定義了窗口邊緣梯度勢能函數(shù),當(dāng)WGPE低于閾值時(shí),則表明窗口中圖像背景區(qū)域較均勻,出現(xiàn)人體的概率較低,當(dāng)WGPE值較高時(shí),表明圖像邊緣信息豐富,出現(xiàn)人體的概率也隨之提高。邊緣勢能是一種刻畫目標(biāo)邊緣特征梯度勢能變化的函數(shù),不僅在人體檢測中適用,在檢測目標(biāo)與背景區(qū)域具有邊緣差異的環(huán)境中同樣適用。因此對人體邊緣特征不具有特異性。
一階,二階和緊邊梯度勢能函數(shù)分別為
緊邊梯度勢能函數(shù)中e為調(diào)節(jié)因子,其作用是調(diào)節(jié)在x方向的梯度勢能強(qiáng)度,在整體勢能中的反應(yīng)強(qiáng)度。n為勢能函數(shù)總數(shù),m為窗口總數(shù),當(dāng)x和y方向上的梯度為 0時(shí),梯度勢能函數(shù)有最小值 0。它為一種對稱能量函數(shù),實(shí)際上二階勢能函數(shù)可看作是緊邊勢能函數(shù)的一個(gè)特例。
圖1(a)為3個(gè)通道中最大通道梯度的一階梯度勢能函數(shù)E1能量分布;圖1(b)為3個(gè)通道中最大通道梯度的二階梯度勢能函數(shù)E2能量分布;圖1(c)為3個(gè)通道中最大通道梯度的沿x方向的緊邊能量函數(shù)E3能量分布圖。由圖1可看出在一階梯度勢能函數(shù)的能量分布較雜亂。而圖1(b)和圖1(c)中人體邊緣能量分布較為明顯。窗口梯度勢能函數(shù)選擇E2或E3較合適。
將INRIA Person Dataset[4]中2100個(gè)正實(shí)例分為10組,分別計(jì)算他們的梯度能量,實(shí)驗(yàn)中正例圖像大小為96×160,選取64×128的窗口計(jì)算其梯度勢能,忽略窗口邊緣像素,并對正樣本中的圖像進(jìn)行左右鏡像以獲取更多的統(tǒng)計(jì)樣本,其分布直方圖結(jié)果如圖2所示。橫軸為組編號(hào),縱軸為平均梯度勢能,具有人體的圖像,90%以上的樣本圖像窗口的WGPE均值大于300,造成這樣的結(jié)果其原因主要是由于人體在背景中邊緣梯度能量明顯。
對于負(fù)樣本,選取了INRIA圖像數(shù)據(jù)庫中街景圖像的1000個(gè)負(fù)樣本,分為10組分別計(jì)算他們的梯度能量,實(shí)驗(yàn)中對不同大小的負(fù)樣本圖像,對負(fù)樣本中圖像按 16像素偏移計(jì)算多個(gè)滑動(dòng)窗口的WGPE平均值,發(fā)現(xiàn)90%以上的負(fù)樣本圖像窗口的梯度勢能函數(shù)值均值小于 200。造成這樣的結(jié)果其原因主要是由于自然街景下的邊緣梯度能量明顯較弱,結(jié)果如圖3。
實(shí)驗(yàn)中我們采用文獻(xiàn)[4]中使用的64×128大小的檢測窗口。對于正樣本我們采用 INRIA Person Dataset[4], CVC-01 Pedestrian Dataset[15]和MIT CBCL[16]人體數(shù)據(jù)庫的人體圖片并按照文件名進(jìn)行隨機(jī)分組。在負(fù)樣本中采用INRIA Person Dataset中負(fù)樣本的日常環(huán)境背景進(jìn)行分組,如:街景,樓梯,海岸,草地,山地,都市街景,森林,大門等分組進(jìn)行分析,其中圖3中第4組異常的原因在于該組圖像中主要由草地,樹林等邊緣信息變化較大的環(huán)境圖片組成。因此邊緣勢能信息要明顯高于有人體圖片的邊緣勢能。而第3組圖像中由于圖像中主要部分為天空和海洋,邊緣特征信息變化不大,因此它們的邊緣勢能數(shù)值較低,明顯低于有人體圖像的邊緣勢能范圍。由于邊緣梯度勢能反映的是邊緣信息的梯度變化情況,對于檢測窗口大小發(fā)生變化時(shí),需調(diào)整檢測窗口閾值。
圖1 測試圖像中各種梯度勢能分布情況
圖2 圖像96×160的10組正樣本W(wǎng)GPE的直方圖
圖3 圖像中10組負(fù)樣本W(wǎng)GPE的直方圖
在不同尺度下,利用 HOG特征進(jìn)行圖像人體檢測,檢測時(shí)間會(huì)隨著尺度層數(shù)的增多而產(chǎn)生較長的檢測時(shí)間。本文提出基于稀疏-稠密窗口勢能過濾集的方式利用人體邊緣梯度特征的分布對人體檢測過程進(jìn)行優(yōu)化,以減少窗口檢測的時(shí)間,提高人體在線檢測響應(yīng)能力。
本文方法在窗口特征計(jì)算時(shí),通過減少窗口數(shù)量縮減人體檢測時(shí)間,為此需要對窗口進(jìn)行篩選。文獻(xiàn)[14]提出采用級(jí)聯(lián)方式,利用Harr特征進(jìn)行粗過濾,再使用 HOG特征進(jìn)行進(jìn)一步檢測。會(huì)獲得較好的檢測時(shí)間和效果。但該方法同時(shí)也增加了新的Harr特征計(jì)算時(shí)間。本文的思路是利用HOG中對梯度信息結(jié)合WGPE來進(jìn)行預(yù)處理,并不需要過多的特征計(jì)算。為此我們定義了3種檢測窗口子集。稀疏窗口勢能集,稠密窗口勢能集和過渡窗口勢能集。
定義1檢測窗口 win為若干個(gè)塊(block)構(gòu)成,其中一個(gè)塊由4個(gè)上下左右相鄰的子單元構(gòu)成,檢測窗口的寬度為n×子單元×8,高度為n×2×子單元×8。
定義3稠密窗口勢能集 S W(n) = {win1, win2,…,winn} ∧ ?F( wini)>T,是若干個(gè)窗口的集合,且每個(gè)檢測窗口中平均勢能值都大于閾值T。
稠密窗口勢能集的作用是對窗口數(shù)量進(jìn)行初步篩選,針對復(fù)雜背景中,背景區(qū)域中像素間梯度變化較快,如有較大區(qū)域是草地的圖像,這類區(qū)域在檢測時(shí)可以進(jìn)行過濾,其中T為平均稠密窗口勢能閾值,由正樣本訓(xùn)練數(shù)據(jù)的平均窗口勢能均值加兩倍方差計(jì)算得到。即T=mS+ 2ss。
定義4稀疏窗口勢能集 F W(n) = {win1, win2,…,winn} ∧ ?F( wini)<d是在若干個(gè)窗口的集合,且每個(gè)檢測窗口中平均勢能值都小于閾值d。
稀疏窗口勢能集的作用是對平滑區(qū)域進(jìn)行篩選,針對非人體區(qū)域中像素間梯度變化并不明顯,在檢測時(shí)進(jìn)行過濾,采用窗口平均梯度勢能函數(shù)來衡量窗口中梯度分布大小,較小梯度分布出現(xiàn)人體概率較低,如有較大區(qū)域是天空部分的圖像。其中d為平均稀疏窗口勢能閾值,由負(fù)樣本訓(xùn)練數(shù)據(jù)的平均窗口勢能均值減兩倍方差計(jì)算得到。即df=mf-2sf。
定義5過渡邊緣梯度勢能集 M W(n) = {win1,win2,…,winn} ∧ (T/ 2 < ?F( wini) <d/2)是 若 干 個(gè)窗口的集合,且每個(gè)檢測窗口中平均勢能值位于稀疏窗口和稠密窗口間1/2區(qū)域。
過渡邊緣梯度勢能集是放寬檢測窗口的分布區(qū)域,目的是找出處于半遮擋環(huán)境下的人體目標(biāo)。它將與加權(quán) SVM 檢測算子進(jìn)行卷積,確定半遮擋的人體目標(biāo)。
對給定輸入輸出訓(xùn)練集S={(x1,y1),… ,(xn,yn)}∈ (X×Y)n。采用類似文獻(xiàn)[6,14,17]的方法,首先將遮擋下肢的人體圖像作為正樣本加入訓(xùn)練集中,為實(shí)現(xiàn)了用線性超平面劃分非線性可分的樣本,具體方法是:根據(jù)樣本分布的幾何位置,確定一個(gè)初始的線性分類超平面,旋轉(zhuǎn)這個(gè)超平面直至所有的正樣本都位于這個(gè)超平面的一側(cè),則另一側(cè)的那些負(fù)樣本與正樣本是線性可分的,利用拉格朗日LSVM找到最優(yōu)的線性分類超平面,將剩下的負(fù)樣本與正樣本組成新的訓(xùn)練集,重復(fù)這些步驟直至所有的負(fù)樣本都被正確分開,這樣就找到了若干個(gè)線性分類超平面,組成了級(jí)聯(lián)結(jié)構(gòu)。
本文按照文獻(xiàn)[4]方式來定義 HOG特征,與文獻(xiàn)[4]不同的是,在計(jì)算好圖像梯度后,首先采用稀疏-稠密窗口勢能集對待檢測的窗口進(jìn)行過濾,再利用加權(quán)級(jí)聯(lián) SVM 對過濾勢能窗口集進(jìn)行卷積以實(shí)現(xiàn)人體檢測,使用加權(quán)級(jí)聯(lián)SVM來訓(xùn)練檢測算子。
采用類似于文獻(xiàn)[18]的概率學(xué)習(xí)框架,對圖像按不同尺度進(jìn)行檢測,計(jì)算出不同尺度下圖像的HOG特征,人體檢測窗口為目標(biāo)人體可能出現(xiàn)的位置窗口:
其中WinL為第L層檢測窗口集合,L為不同尺度的層次,實(shí)驗(yàn)中最大層數(shù)為64。遮擋環(huán)境下的人體快速性檢測算法如下(其中λ為縮放因子,實(shí)驗(yàn)中取1/1.05):
步驟1 為去除光照對圖像的影響,在 RGB色彩空間上對圖像進(jìn)行色彩伽馬歸一化。
步驟2 計(jì)算圖像邊緣信息:使用1維的離散微分掩碼模板[-1 0 1],同時(shí)在水平和垂直兩個(gè)方向上對圖像進(jìn)行卷積計(jì)算,獲取圖像一階梯度信息。
步驟3 按照文獻(xiàn)[4]方式構(gòu)建梯度方向直方圖。
步驟4 forL=Mto 1
Inew(x,y) = resize(I'(x,y),s);計(jì)算Inew(x,y)中各窗口的平均梯度勢能;
計(jì)算稀疏-稠密窗口勢能集SWL和FWL;
按照公式(2)計(jì)算過渡邊緣梯度勢能集MWL;
采用加權(quán)級(jí)聯(lián) SVM 對MWL窗口進(jìn)行人體檢測,滿足閾值條件的為人體窗口Hwin;
若MWL中所有窗口WGPE小于閾值則break;
s←λL;
endfor
訓(xùn)練基于加權(quán)級(jí)聯(lián)SVM人檢測器采用2526正樣本和2700負(fù)樣本,來自INRIA圖像數(shù)據(jù)庫person對象集[4],CVC-01 Pedestrian Dataset[15]和 MIT CBCL人體數(shù)據(jù)庫[16]。在正樣本中,人體穿著不同顏色,款式和紋理的服裝,有不同的動(dòng)作,面對攝像機(jī)的角度變化也較大,且在不同的光照條件和背景中拍攝的。負(fù)樣本集圖像中沒有人體,這些圖像是自然場景圖像。在Intel Core2 2.4 GHz CPU, 2 GB RAM的機(jī)器上測試。
實(shí)驗(yàn)中采用HOG圖像特征,圖4(a)為采用多尺度HOG特征檢測結(jié)果,圖4(c)為文獻(xiàn)[6]中基于肢體部分后的檢測結(jié)果。圖4(b), 4(d)采用了加權(quán)級(jí)聯(lián) SVM 算子,對于下肢部分遮擋的人體也可以檢測出,它們?yōu)橹苯硬捎眉訖?quán)級(jí)聯(lián) SVM 算子進(jìn)行檢測的結(jié)果,由圖可看出存在部分誤檢窗口,而圖4(e)則為通過過濾集窗口在檢測前進(jìn)行過濾,檢測準(zhǔn)確率優(yōu)于圖4(d),進(jìn)一步驗(yàn)證了窗口梯度勢能對于檢測準(zhǔn)確率提高的能力。
圖4 部分遮擋環(huán)境下人體檢測結(jié)果
為了進(jìn)一步了解和分析真正類率和負(fù)正類率兩類誤差,我們引進(jìn)利用 ROC (Receiver Operating Characteristic)曲線的ROC分析法來說明它。ROC曲線直觀反映了人體檢測的靈敏度和特異性以及兩類誤差率之間的關(guān)系。
檢測結(jié)果表明,本文方法對于無遮擋圖像一般具有較高檢測率,而對于人體部分遮擋或者與環(huán)境背景融為一體難以區(qū)分時(shí),出現(xiàn)了一些漏檢現(xiàn)象。整體檢測結(jié)果用圖5 的 ROC曲線表示,以描述虛警率與準(zhǔn)確率之間關(guān)系。本文方法的曲線與橫軸間所圍成的面積較大,表示在所有代價(jià)比上的平均性能較優(yōu),也反映了基于FWGPE對遮擋人體檢測的可分性好于傳統(tǒng)的HOG人體檢測方法[4]。
圖5 多層HOG方法[4],HOG-LBP[8]和本文的FWHOG方法ROC曲線圖
利用稀疏-稠密窗口勢能集檢測算子進(jìn)行行人檢測,可以縮短稀疏窗口檢測結(jié)果中約30%的檢測時(shí)間,而準(zhǔn)確率僅下降0.15%,結(jié)果如圖6所示。利用HOG稀疏窗口檢測時(shí)間為每幅300 ms。相對于不使用稀疏-稠密窗口勢能集過濾,直接用 HOG進(jìn)行人體檢測檢測,時(shí)間在700 ms,系統(tǒng)可以縮短40%以上的檢測時(shí)間,而準(zhǔn)確率下降0.15%以下。這主要是因?yàn)橄∈璐翱谌梭w檢測器僅對粗糙級(jí)人體檢測器的結(jié)果進(jìn)行檢測,而粗級(jí)人體檢測器利用了HOG 計(jì)算所需計(jì)算的水平梯度和垂直梯度信息計(jì)算梯度能量,并不需要過多的計(jì)算開銷。因而可以極大提高檢測效率。
圖6(a), 6(b), 6(c)為直接使用HOG特征人體檢測的結(jié)果,其中圖6(b)為分層數(shù)為16;圖6(c)分層數(shù)為64;圖6(d)為本文方法,分層數(shù)為17層。由圖6可以看出,由于人體在圖像中大小的不同,當(dāng)分層較高時(shí)檢測的漏檢率會(huì)下降,準(zhǔn)確率上升。尺度大小的選擇,不僅決定了檢測時(shí)間,也決定了檢測準(zhǔn)確率。采用本文的方法,通過判斷WGPE的大小,可獲取較少的分層。將 FWHOG算法與塔式HOG檢測算法對測試集中10組圖像進(jìn)行檢查的平均結(jié)果如表1所示。
表1中最后一行為采用文獻(xiàn)[4]方法時(shí)總檢測窗口數(shù)量,當(dāng)?shù)?5層時(shí),檢測窗口數(shù)量為 880,第 9層時(shí),由于窗口尺寸變小,檢測窗口數(shù)量下降為561。當(dāng)閾值T=200時(shí),采用本文FWHOG方法,在第5層可跳過167個(gè)檢測窗口,第9層可跳過86個(gè)檢測窗口。當(dāng)閾值越大,跳過的檢測窗口也越多。
圖6 基于FWGPE的HOG檢測方法與傳統(tǒng)的HOG多尺度檢測方法在不同尺度下人體檢測結(jié)果
表1 不同尺度下,F(xiàn)WHOG算法相對于多尺度HOG檢測中過濾的窗口數(shù)
表2 多尺度及不同梯度勢能閾值條件下FWHOG算法與多尺度HOG檢測中漏檢率與檢測時(shí)間(ms)
實(shí)驗(yàn)中對人體局部遮擋的圖像進(jìn)行檢測分析,定義圖像中人體遮擋率(Human Occlusion Ratio,HOR)HOR=PC/HB。其中(Part Occlusion PC)為人體被遮擋部分的像素大小,HB(Human Body)為人體的整體像素(實(shí)驗(yàn)中,根據(jù)所見肢體大小按比例估計(jì)得到)。HOR比例分別為 0%-20%,20%-40%, 40%-60%, 60-80%, 80%以上5組,每組100張圖片。實(shí)驗(yàn)發(fā)現(xiàn),HOR小于40%時(shí),F(xiàn)WHOG的檢測 TPR較高,而當(dāng) HOR大于 60%以上,F(xiàn)WHOG算法的 TPR(Ture Positive Rate)明顯下降。當(dāng)HOR高于80%時(shí),由于FWHOG方法失效,原因在于遮擋部分梯度勢能過低,檢測窗口被過濾,結(jié)果如表3所示。
本文提出了一種新的基于窗口梯度勢能的人體快速檢測算法。該算法基于 HOG特征,利用加權(quán)級(jí)聯(lián) SVM 來提高對遮擋環(huán)境下人體的快速檢測。由于在現(xiàn)實(shí)應(yīng)用中,視頻圖像分辨率不高,對于近距離的人體運(yùn)動(dòng)圖像和距離的人體圖像在像素級(jí)的分布上差異往往較大,因此需要使用不變尺度對人體進(jìn)行檢測。為提高算法對于圖像中遮擋人體檢測的準(zhǔn)確率,本文提出采用加權(quán)級(jí)聯(lián) SVM 進(jìn)行分層檢測,分別在不同分辨域下分別對人體進(jìn)行檢測,實(shí)驗(yàn)表明該算法與文獻(xiàn)[4,6,8]所采用的HOG檢測相比,檢測準(zhǔn)確率有明顯提高,同時(shí)通過兩種過濾集方式,也提高了檢測效率,縮短了檢測時(shí)間。在未來的工作中,將進(jìn)一步提高算法的運(yùn)行速度,滿足目標(biāo)跟蹤等應(yīng)用的需求。
表3 人體局部遮擋情況下FWHOG算法與多尺度HOG算法檢測遮擋分析
[1]甘明剛, 陳杰, 劉勁, 等. 一種基于三幀差分和邊緣信息的運(yùn)動(dòng)目標(biāo)檢測方法[J]. 電子與信息學(xué)報(bào), 2010, 32(4): 894-897.
Gan Ming-gang, Chen Jie, Liu Jin,et al.. Moving object detection algorithm based on three-frame-differencing and edge information[J].Journal of Electronics&Information Technology, 2010, 32(4): 894-897.
[2]Dollár P, Babenko B,et al.. Multiple component learning for object detection[C]. Proceedings of 10th European Conference on Computer Vision, Marseille, France, 2008:211-224.
[3]Lienhart R and Maydt J. An extended set of haar-like features for rapid object detection[C]. Proceedings 2002 International Conference on Image Processing, New York,USA, 2002, Vol.1: 900-903.
[4]Dalal N and Triggs B. Histograms of oriented gradients for human detection[C]. 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,San Diego, USA, 2005: 886-893.
[5]Schwartz W R, Kembhavi A,et al.. Human detection using partial least squares analysis[C]. 2009 IEEE 12th International Conference on Computer Vision, Kyoto, Japan,2009: 24-31.
[6]Ramanan D, Forsyth D A, and Zisserman A. Tracking people by learning their appearance[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29(1):65-81.
[7]Chandrasekhar V, Takacs G, Chen M,et al.. Compressed histogram of gradients: a low-bitrate descriptor[J].International Journal of Computer Vision, 2012, 96(3):384-399.
[8]Wang Xiao-yu, Han T X, and Yan Shui-cheng. An HOG-LBP human detector with partial occlusion handling[C]. 2009 IEEE 12th International Conference on Computer Vision,Kyoto, Japan, 2009: 32-39.
[9]Agarwal S, Awan A, and Roth D. Learning to detect objects in images via a sparse, part-based representation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2004, 26(11): 1475-1490.
[10]Leibe B, Seemann E, and Schiele B. Pedestrian detection in crowded scenes[C]. 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, San Diego,USA, 2005: 878-885.
[11]Mikolajczyk K, Schmid C,et al.. Human detection based on a probabilistic assembly of robust part detectors[C]. The 8th European Conference on Computer Vision 2004, Prague,2004: 69-82.
[12]Wu B and Nevatia R. Detection of multiple partially occluded humans in asingle image by bayesian combination of edgelet part detectors[C]. Tenth IEEE International Conference on Computer Vision, Beijing, China, 2005, 1:90–97.
[13]Hauberg S and Kim S P. Predicting articulated human motion from spatial processes [J].International Journal of Computer Vision, 2011, 94(3): 317-334.
[14]李同治, 丁曉青, 王生進(jìn). 利用級(jí)聯(lián)SVM的人體檢測方法[J].中國圖象圖形學(xué)報(bào), 2008, 13(3): 566-570.
Li Tong-zhi, Ding Xiao-qing, and Wang Sheng-jin. Human detection with a coarse-to-fine cascade linear SVM[J].Journal of Image and Graphics, 2008, 13(3): 566-570.
[15]David G, Angel D S, Antonio L,et al.. Adaptive image sampling and windows classification for on-board pedestrian detection[C]. The 5th International Conference on Computer Vision Systems, Bielefeld, Germany, 2007. http://biecoll.ub.uni-bielefeld.de/volltexte/2007/8.
[16]Papageorgiou C and Poggio T. A trainable system for object detection[J].International Journal of Computer Vision, 2000,38(1): 15-33.
[17]Davenport M A, Baraniuk R B, and Scott C D. Tuning support vector machines for minimax and neyman-pearson classification[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(10): 1888-1898.
[18]Albanese M, Chellappa R, Cuntoor N,et al.. PADS: a probabilistic activity detection framework for video data[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(12): 2246-2261.