国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于圖像序列的運(yùn)動目標(biāo)檢測識別關(guān)鍵技術(shù)研究

2021-01-19 12:56于蓮芝胡嬋娟
計(jì)量學(xué)報(bào) 2020年12期
關(guān)鍵詞:碼本分類器閾值

薛 震, 于蓮芝, 胡嬋娟

(上海理工大學(xué) 光電信息與計(jì)算機(jī)工程學(xué)院,上海 200093)

1 引 言

隨著計(jì)算機(jī)技術(shù)、算法理論以及硬件的不斷完善升級,對視頻圖像的運(yùn)動目標(biāo)檢測與識別的研究也在不斷深入。運(yùn)動目標(biāo)檢測與識別是指對輸入的圖像序列進(jìn)行圖像處理、目標(biāo)檢測、特征提取和目標(biāo)識別[1]。其中目標(biāo)檢測是從圖像序列中檢測出運(yùn)動物體的位置,而目標(biāo)分類識別是指判斷提取出的目標(biāo)屬于哪種類別。

運(yùn)動目標(biāo)檢測的常用方法包括幀間差分法、背景減除法、光流法等。幀間差分法是基于運(yùn)動目標(biāo)在視頻中可以直觀地體現(xiàn)動態(tài)變化的這一前提下,通過對比圖像序列中相鄰或相近幀的相對變化來進(jìn)行的一種檢測方法[2]。該方法的主要優(yōu)點(diǎn)是算法實(shí)現(xiàn)較為簡單,運(yùn)算量較小,光線因素影響較小;缺點(diǎn)是易受到干擾,且目標(biāo)檢測的有效性難以保證,只在目標(biāo)運(yùn)動速度較快的情況下具有比較好的魯棒性。背景減除法則先通過訓(xùn)練圖像幀得到模型參數(shù),建立背景模型,將每一幅待處理的圖像與當(dāng)前背景進(jìn)行比較來檢測目標(biāo)的運(yùn)動,然后根據(jù)場景的變化對模型參數(shù)進(jìn)行更新;背景減除法在低速狀態(tài)下的檢測效果明顯,但在目標(biāo)移動速度較快的場合檢測效果會大大降低。光流法則避免了提前了解場景信息,它既可以應(yīng)用于背景運(yùn)動的情況,也適用于背景不動的場合;但其條件苛刻,不僅對光照和噪聲比較敏感,而且計(jì)算復(fù)雜度高,難以滿足實(shí)時性的要求。光流法由于其條件的苛刻不予考慮,但幀間差法和背景減除法各有其長處以及局限性。

本文綜合幀間差分法在高速運(yùn)動目標(biāo)的良好魯棒性以及背景減除法在低速運(yùn)動目標(biāo)的準(zhǔn)確性來考慮,將兩者同時應(yīng)用于目標(biāo)檢測中,并對檢測結(jié)果進(jìn)行實(shí)時比較,選取相對較優(yōu)的結(jié)果。通過運(yùn)動目標(biāo)檢測提取出圖像序列中的運(yùn)動目標(biāo)的掩膜,然后將提取到的運(yùn)動目標(biāo)區(qū)域進(jìn)行分類識別,提取HOG特征送入SVM分類器完成分類任務(wù),最終得到實(shí)驗(yàn)結(jié)果。

2 幀間差分法原理及改進(jìn)

幀間差分法是基于運(yùn)動目標(biāo)在視頻中可以直觀的體現(xiàn)動態(tài)變化的這一前提下,通過對比圖像序列中相鄰或相近幀的相對變化來進(jìn)行的一種檢測方法[3]。該方法用當(dāng)前幀與相鄰幀對應(yīng)像素點(diǎn)的差值,通過設(shè)定的閾值T來判斷運(yùn)動區(qū)域?;驹碛墒?1)體現(xiàn):

(1)

式中:D(x,y)表示二值化后的差分圖像,差分圖像D(x,y)取值為1的像素點(diǎn)被認(rèn)為是運(yùn)動目標(biāo)的像素點(diǎn);fk(x,y),fk+1(x,y)分別為第k幀、第k+1幀坐標(biāo)為(x,y)像素點(diǎn)的像素值;T為閾值。幀間差法示意圖如圖1。

圖1 幀差法示意圖Fig.1 Frame difference method

其中閾值的選擇十分重要。閾值過小,則不能有效抑制圖像中的噪聲;閾值過大,又可能會抑制有效的運(yùn)動區(qū)域。針對這一問題的解決方法有全局固定閾值、全局自適應(yīng)閾值和局部自適應(yīng)閾值。

2.1 全局固定閾值

全局固定閾值是在整個差分圖像的二值化過程中采用事先預(yù)定好的閾值[4]。優(yōu)點(diǎn)在于運(yùn)算簡單、速度快,但在抑制噪聲和魯棒性上較差。通過實(shí)驗(yàn)采用不同閾值對同一幅灰度圖像進(jìn)行二值化分割,結(jié)果見圖2所示。

圖2 不同固定閾值分割結(jié)果Fig.2 Different fixed threshold segmentation results

2.2 全局自適應(yīng)閾值

當(dāng)場景中的環(huán)境變化時,手動選取的固定閾值往往不能達(dá)到很好的分割效果,通過自適應(yīng)全局閾值算法可以改善對變化環(huán)境場合的效果。本文主要研究最大類間方差法(Otsu)[5]。

C0的概率ω0為:

(2)

C1的概率ω1為:

(3)

C0的平均值用u0表示:

(4)

C1的平均值用u1表示:

(5)

所以,全部采樣的灰度平均值為:

u=ω0u0+ω1u1

(6)

則兩組間的方差為:

δ2(T)=ω0(u0-u)2+ω1(u1-u)2

(7)

δ2(0)=ω0ω1(u1-u0)2

(8)

從0~(L-1)遍歷T,當(dāng)δ2(T)最大時即為所求的閾值T。圖3為用此方法對某一灰度圖像進(jìn)行仿真的實(shí)驗(yàn)結(jié)果。從直方圖4能夠直觀地看出Otsu閾值為146[6]。

圖3 Otsu二值化Fig.3 Otsu binarization

圖4 Otsu閾值選取Fig.4 Otsu threshold selection

2.3 實(shí)驗(yàn)測試分析

本文用3種方法分別針對車輛和行人進(jìn)行檢測來驗(yàn)證其有效性。從圖5可以看出:固定閾值的平均FPS在80左右,全局自適應(yīng)閾值平均FPS為70左右,局部自適應(yīng)閾值在60左右,檢測速度相差不多。但從效果來說,行人移動速度較慢,目標(biāo)內(nèi)部變化不夠明顯,所以檢測結(jié)果產(chǎn)生了空洞現(xiàn)象。而針對速度較快的車輛來說,局部自適應(yīng)閾值更注重在邊界的分割上,對于慢速行人和快速車輛的檢測效果均不理想,且FPS相對較低;固定閾值由于實(shí)際檢測過程中運(yùn)動目標(biāo)的運(yùn)動會使得其最優(yōu)閾值產(chǎn)生漂移,從而使得檢測結(jié)果的準(zhǔn)確率變得較低,所以也不適合檢測。因此,Otsu法的幀差法比較適合運(yùn)動目標(biāo)檢測。

圖5 3種方法的檢測結(jié)果Fig.5 The detection results of three methods

3 背景減除法原理及改進(jìn)

背景減除法是通過預(yù)先建立背景模型,利用圖像幀的訓(xùn)練獲得模型的參數(shù),再將每一幅待處理圖像與當(dāng)前背景模型進(jìn)行比較來檢測目標(biāo)的運(yùn)動[7],并根據(jù)場景的變化動態(tài)對模型參數(shù)進(jìn)行更新。背景減除法對背景的更新速度具有嚴(yán)格的要求:更新速度較慢會使背景減除法對場景變化的適應(yīng)能力較弱,當(dāng)場景發(fā)生變化時因背景更新的不及時而產(chǎn)生較多的虛假目標(biāo);更新速度較快雖然能夠較快地適應(yīng)場景的變化,但同時也加大了將運(yùn)動目標(biāo)更新為背景的概率,尤其是當(dāng)運(yùn)動目標(biāo)變化較小時,容易發(fā)生漏檢的現(xiàn)象。背景減除法的流程圖如圖6所示。

本文基于混合高斯模型和碼本模型的背景減除法進(jìn)行實(shí)驗(yàn)分析,以尋找最適合的方法進(jìn)行目標(biāo)檢測。

3.1 混合高斯模型

混合高斯模型(Gaussian mixture model,GMM)[8]是指根據(jù)每個像素在時域上的分布情況用多個高斯模型構(gòu)建各個像素的顏色分布模型,從而有效的描述圖像直方圖存在多峰的情況,改善單高斯模型在快速運(yùn)動場景無法準(zhǔn)確描述背景的缺陷。

在混合高斯模型中,對圖像的每個像素點(diǎn)進(jìn)行多個權(quán)值不同高斯分布的疊加建模,每種高斯分布對應(yīng)于一個像素點(diǎn)可能呈現(xiàn)顏色的狀態(tài)、權(quán)值和參數(shù)隨時間推進(jìn)而更新。在處理彩色圖像時,假設(shè)圖像像素點(diǎn)RGB三通道相互獨(dú)立且方差相同,對于觀測集(X1,X2,…,Xb),Xb為b時刻的像素樣本,該樣本服從混合高斯分布概率密度函數(shù):

(9)

(10)

(11)

混合高斯模型雖然能解決單高斯模型的問題,但是也有如下缺點(diǎn):通過少量的高斯模型來對快速變化的背景建模并不容易;學(xué)習(xí)速率太低,GMM模型會很寬泛,在模型突然改變時會很困難;學(xué)習(xí)速率過高,背景適應(yīng)過快,緩慢移動前景又會被整合到背景模型中,最終導(dǎo)致較高的錯誤率。

3.2 碼本模型

碼本模型(codebook)背景減除法試圖在不進(jìn)行參數(shù)估計(jì)的情況下進(jìn)行長時間采樣,通過多個碼元(code_element)對背景進(jìn)行建模[9],該算法特點(diǎn)有:

(1)自適應(yīng)緊湊的背景模型,能長時間獲取結(jié)構(gòu)化背景運(yùn)動,對運(yùn)動或多重變化的背景進(jìn)行編碼。

(2)具有處理全局或局部光照變化的能力。

(3)訓(xùn)練過程沒有制約,運(yùn)動全景可在最開始的地方。

(4)通過分層建模來表示不同的背景層次。

碼本采用量化、聚類的技術(shù),從視頻開始的多幀圖片中建立背景模型,為當(dāng)前背景的每個像素建立codebook(CB)結(jié)構(gòu),每個codebook結(jié)構(gòu)又由多個code_element(CE)組成,CB和CE形式為:

CB={CE1,CE2,…,CEr,T}

(12)

CE={LH,LL,Xmax,Xmin,tlast,tstale}

(13)

式中:r為一個CB中所包含的CE的數(shù)目,當(dāng)r比較小時,能夠表示簡單背景,當(dāng)r較大時可以對復(fù)雜背景進(jìn)行建模;T為CB更新的次數(shù);CE是1個6元組,其中LH,LL作為更新時的學(xué)習(xí)上下界,Xmax和Xmin記錄當(dāng)前像素的最大值,tlast是上次更新的時間,tstale是陳舊時間(記錄該CE多久未被訪問),用來刪除很少使用的code_element。

采用CB算法檢測運(yùn)動目標(biāo)的流程為:

(1)在視頻開始選擇一幀或多幀使用更新算法建立CB背景模型;

(2)通過CB模型檢測前景;

(3)間隔一定時間使用更新模型,以適應(yīng)場景的變化;

(4)若檢測結(jié)束,轉(zhuǎn)步驟(2),否則結(jié)束。

3.3 實(shí)驗(yàn)測試分析

為了驗(yàn)證上述算法的有效性,本文對行人和車輛進(jìn)行實(shí)驗(yàn)對比,圖7是2種模型下的背景減除法在不同的幀數(shù)下的檢測結(jié)果。由圖可以看出:無論是混合高斯模型還是碼本模型,在行人檢測上的效果均較好,沒有出現(xiàn)空洞;但是在移動速度較快的車輛檢測上都出現(xiàn)了相同的問題,不能迅速地檢測出移動目標(biāo),體現(xiàn)出背景減除法在對于高速目標(biāo)檢測上的局限性。通過2種模式檢測結(jié)果的觀察,本文選擇相對而言效果更好的基于碼本模型的背景減除法來檢測低速物體。

圖7 混合高斯模型和碼本模型檢測結(jié)果Fig.7 GMM and codebook model test results

4 本文改進(jìn)運(yùn)動目標(biāo)檢測方法

針對上述實(shí)驗(yàn)得出結(jié)論:在運(yùn)動目標(biāo)移速較慢的場合,背景減除法發(fā)揮較好;在目標(biāo)移動較快的場合,幀間差分法相對較好。因此本文融合2種算法,并做出如下改進(jìn):基于全局自適應(yīng)閾值幀間差分法和基于碼本模型的背景減除法,同時對同一運(yùn)動目標(biāo)進(jìn)行檢測,通過2種方法相或得出最終結(jié)果。運(yùn)動目標(biāo)較大時幀間差分法起主要作用,較小時背景減除法起主要作用[10]。算法的流程圖見圖8。

圖8 本文改進(jìn)運(yùn)動目標(biāo)檢測流程圖Fig.8 The improved flow chart of moving target detection

通過本文方法分別對車輛和行人進(jìn)行檢測,圖9為檢測結(jié)果。由圖9分析可得出:目標(biāo)在2種運(yùn)動狀態(tài)中均能取得較好的檢測結(jié)果,行人檢測和車輛檢測的FPS穩(wěn)定在30左右,且都沒有出現(xiàn)空洞現(xiàn)象。證明了本文提出方法的有效性,該方法為目標(biāo)識別的準(zhǔn)確率提升帶來了積極的作用。

圖9 本文方法檢測結(jié)果Fig.9 Test results of the proposed method

5 目標(biāo)識別方法

通過對運(yùn)動目標(biāo)的檢測提取到了運(yùn)動目標(biāo)的掩膜[11],然后對掩膜進(jìn)行外界矩形分析,得到包圍運(yùn)動目標(biāo)的矩形框;再將矩形框內(nèi)的圖片截取出來,并調(diào)整圖片的大小,提取出圖片的特征;通過訓(xùn)練好的SVM分類器對檢測目標(biāo)進(jìn)行分類。識別系統(tǒng)框圖見圖10。

圖10 本文目標(biāo)識別方法Fig.10 Target recognition of the proposed method

5.1 分類方法

本文通過運(yùn)動目標(biāo)檢測提取出運(yùn)動目標(biāo)的掩膜,用矩形框架選取目標(biāo),提取特征后送進(jìn)SVM分類器進(jìn)行識別[12~14]。相對于傳統(tǒng)的多尺度滑動窗口檢索,該方法在實(shí)時性上具有顯著提高。在提取特征的部分上,本文擬采用HOG特征,但是HOG特征具有維度大的特點(diǎn),對目標(biāo)檢測的實(shí)時性有加大的影響[13]。所以本文在HOG特征的基礎(chǔ)上,通過線性插值對每個cell中的梯度方向進(jìn)行投票,并用多種尺度的block調(diào)整HOG結(jié)構(gòu),最后對生成的block進(jìn)行特征挑選,最終組成多尺度的block。

5.2 自舉法

用訓(xùn)練好的分類器進(jìn)行實(shí)驗(yàn)在識別出車輛的同時也會造成很多的誤檢,將收集的負(fù)樣本原圖送SVM分類器[15]識別,會在多張圖片上出現(xiàn)難例,如圖11所示。

圖11 負(fù)樣本誤檢圖Fig.11 Negative sample misdiagnosis

為減少難例的數(shù)量,可通過自舉法解決相似問題:將檢測為難例中的矩形框內(nèi)容截取出來放入到初始的負(fù)樣本集合中,再重新進(jìn)行SVM分類器的訓(xùn)練。經(jīng)試驗(yàn)驗(yàn)證,此類方法可有效減少誤報(bào)。

6 仿真實(shí)驗(yàn)及結(jié)果

為驗(yàn)證本文算法的有效性,借助OpenCV計(jì)算機(jī)視覺庫[16],實(shí)現(xiàn)車輛的未分類目標(biāo)識別,并與傳統(tǒng)的HOG+SVM多尺度檢測算法就實(shí)時性和準(zhǔn)確率進(jìn)行對比。本次實(shí)驗(yàn)的硬件為CPU Core(TM)i7 6700HQ,顯卡GTX1050Ti,8G內(nèi)存。軟件平臺則是使用Visual Studio 2013開發(fā)環(huán)境以及開源計(jì)算機(jī)視覺庫OpenCV2.4.11。

圖12、圖13是分別用傳統(tǒng)的HOG+SVM多尺度檢測算法和本文的運(yùn)動目標(biāo)檢測識別算法對運(yùn)動車輛的檢測識別結(jié)果[17]。從實(shí)時性上來看,本文提出的檢測識別算法平均FPS在20左右,傳統(tǒng)算法在4~5,在實(shí)時性上本文提出的算法具有明顯提升。

圖12 車輛檢測識別算法比較Fig.12 Comparison of vehicle detection and recognition algorithms

圖13 2種算法視頻監(jiān)測實(shí)時性比較Fig.13 Real-time comparison of two algorithms

為了驗(yàn)證算法的實(shí)用性,本文在不同場景下對運(yùn)動車輛進(jìn)行檢測,實(shí)驗(yàn)結(jié)果如圖14所示。依據(jù)圖中結(jié)果顯示:在不同場景下依照本文算法都可將運(yùn)動車輛很好地識別出來。證明本文算法具有普遍適用性。檢測準(zhǔn)確性和其他比較參數(shù)如表1所示。

圖14 不同場景下車輛檢測識別Fig.14 Vehicle detection and recognition under different scenes

表1 2種算法檢測識別效果對比Tab.1 Comparison of detection and recognition effects

表1中不明顯目標(biāo)率是指檢測邊界框中雖然有目標(biāo),但不是主要部分的概率,可能是誤檢,或是不確定的部分。這種情況在多尺度檢測中會發(fā)生,但本文檢測識別算法不存在這種情況。由表1可以看出:對于傳統(tǒng)目標(biāo)檢測算法,本文識別算法提升了近20%。說明本文算法在準(zhǔn)確性上相對是有提升的。

7 結(jié)束語

本文研究了基于視頻的運(yùn)動目標(biāo)檢測與分類識別,提出一種運(yùn)動目標(biāo)檢測提取前景,送入SVM分類器的算法。該算法先對運(yùn)動目標(biāo)同時使用基于全局自適應(yīng)閾值的幀間差分法和基于碼本模型的背景減除法來進(jìn)行檢測,提取出運(yùn)動目標(biāo)的掩膜,然后通過掩膜外接矩形來提取目標(biāo)矩形圖片,通過多block調(diào)整HOG結(jié)構(gòu)提取矩形圖片的特征,最終放入SVM分類器進(jìn)行分類識別。在檢測過程中針對難例問題使用自舉法成功解決。實(shí)驗(yàn)結(jié)果表明,本文算法在實(shí)時性和準(zhǔn)確率上均優(yōu)于傳統(tǒng)的目標(biāo)檢測識別算法。但是本文算法在識別相互遮擋的運(yùn)動目標(biāo)時,由于目標(biāo)區(qū)域不全,SVM分類器往往不能正確識別出車輛目標(biāo),從而影響了準(zhǔn)確性。所以遮擋物體的運(yùn)動目標(biāo)檢測與識別是一個值得研究和解決的發(fā)展方向。當(dāng)前,高效的深度學(xué)習(xí)檢測識別算法已成為主流和發(fā)展趨勢,但是就學(xué)術(shù)研究而言,傳統(tǒng)的目標(biāo)檢測方法作為基礎(chǔ)仍然具有研究和學(xué)習(xí)的意義。

猜你喜歡
碼本分類器閾值
免調(diào)度NOMA系統(tǒng)中擴(kuò)頻碼優(yōu)化設(shè)計(jì)
基于有限域上仿射空間構(gòu)造新碼本
基于Zadoff-Chu 矩陣的最優(yōu)碼本構(gòu)造方法
小波閾值去噪在深小孔鉆削聲發(fā)射信號處理中的應(yīng)用
基于CS-TWR的動態(tài)閾值貪婪算法成像研究
基于自適應(yīng)閾值和連通域的隧道裂縫提取
大規(guī)模MIMO預(yù)編碼碼本的優(yōu)化設(shè)計(jì)與分析*
基于差異性測度的遙感自適應(yīng)分類器選擇
基于實(shí)例的強(qiáng)分類器快速集成方法
基于遲滯比較器的雙閾值穩(wěn)壓供電控制電路