国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于高斯混合模型的人群異常檢測(cè)

2017-12-02 11:47于明郭團(tuán)團(tuán)
軟件導(dǎo)刊 2017年11期
關(guān)鍵詞:光流法

于明+郭團(tuán)團(tuán)

摘要:近年來(lái),公眾場(chǎng)所安全問(wèn)題得到了廣泛關(guān)注,視頻監(jiān)控下的人群異常檢測(cè)成為智能監(jiān)控的研究熱點(diǎn)?,F(xiàn)實(shí)場(chǎng)景中的人群異常檢測(cè)具有容易受到光照亮度變化影響、可能存在大量遮擋以及人群密度大等研究難點(diǎn)。提出一種基于高斯混合模型的人群異常檢測(cè)方法,能有效應(yīng)用于復(fù)雜的室外場(chǎng)景。首先通過(guò)預(yù)處理階段求得視頻幀的感興趣區(qū)域(ROI),再在感興趣區(qū)域中計(jì)算人群光流,并在此基礎(chǔ)上融合SIFT特征,利用圖像分塊提取特征。對(duì)不同分塊建立對(duì)應(yīng)的高斯混合模型,進(jìn)而用模型判斷特征點(diǎn)是否屬于異常事件。實(shí)驗(yàn)結(jié)果證明,該方法對(duì)于UMN數(shù)據(jù)庫(kù)中人群的四散奔跑以及UCSD數(shù)據(jù)庫(kù)中人行橫道上出現(xiàn)汽車和自行車等異常事件有較高的識(shí)別率。

關(guān)鍵詞關(guān)鍵詞:人群異常檢測(cè);感興趣區(qū)域;SIFT特征;光流法;高斯混合模型

DOIDOI:10.11907/rjdk.171847

中圖分類號(hào):TP319

文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào)文章編號(hào):16727800(2017)011011407

0引言

近年來(lái),人群異常檢測(cè)在智能監(jiān)控視頻中扮演著越來(lái)越重要的角色。異常本身是指行為不規(guī)則、不尋常、偏離正常類型,例如摔倒、斗毆、逆行、闖入禁止區(qū)域等[1]。因此,在不同應(yīng)用上,異常定義方式不同。本文在監(jiān)控視頻場(chǎng)景下對(duì)異常的定義是低概率發(fā)生的事件,或者是出現(xiàn)次數(shù)很少的事件[23]。

面對(duì)監(jiān)控視頻中的高密度人群場(chǎng)景,異常檢測(cè)面臨著3大挑戰(zhàn):①異常與正常定義比較模糊;②高密度人群中存在遮擋情況,行為動(dòng)作難以分析;③視頻監(jiān)控場(chǎng)景具有多樣性,以及視頻監(jiān)控角度不同造成區(qū)域運(yùn)動(dòng)大小不一致。由于存在這些挑戰(zhàn),導(dǎo)致傳統(tǒng)的行人動(dòng)作分析技術(shù)不能直接用于人群異常檢測(cè),而人群異常檢測(cè)又在保障公眾場(chǎng)所人身安全上具有重要意義,所以異常檢測(cè)成為熱門的研究方向,一系列檢測(cè)方法被不斷提出。大量相關(guān)方法都指出,現(xiàn)實(shí)場(chǎng)景具有時(shí)間和空間兩個(gè)特性,異常也具有這兩個(gè)特性,通常將異常分為時(shí)間異常事件和空間異常事件。

時(shí)間異常是指在一定時(shí)間內(nèi)視頻中物體的速度違背了正常規(guī)律的事件,其最明顯的表現(xiàn)是視頻前后幀的物體位置變化幅度較大。對(duì)于時(shí)間異常,傳統(tǒng)的檢測(cè)方法有基于軌跡分析的、基于光流法的與基于能量的方法,它們都利用了異常的時(shí)間特性[47]?;谲壽E的檢測(cè)算法通過(guò)多目標(biāo)跟蹤算法跟蹤行人運(yùn)動(dòng),用運(yùn)動(dòng)軌跡表示人群場(chǎng)景,然后用概率模型對(duì)人群場(chǎng)景進(jìn)行建模[8];基于光流法的檢測(cè)算法通過(guò)構(gòu)建光流直方圖判斷異常;基于能量的方法通過(guò)提取人群的混沌不變量構(gòu)建概率模型,以最大似然估計(jì)判斷人群中是否發(fā)生異常??臻g異常是指出現(xiàn)在場(chǎng)景中未定義的形狀,例如人行橫道上出現(xiàn)汽車等。形狀在異常檢測(cè)中也起著重要作用,可以利用目標(biāo)輪廓、紋理特征等檢測(cè)視頻中出現(xiàn)的不規(guī)則物體[911]。目前最流行的方法是結(jié)合視頻的時(shí)空兩方面特性,從時(shí)空塊上提取特征表示基本事件,用機(jī)器學(xué)習(xí)的方法訓(xùn)練得到一個(gè)正常事件的模型,不滿足該模型的事件則判斷為異常事件[2]。常用的機(jī)器學(xué)習(xí)方法有Principal Components Analysis(PCA)、Hidden Markov Model(HMM)、Support Vector Machine(SVM)等。Weixin Li[11]通過(guò)整合時(shí)間和空間上的異常判斷異常,并且這種時(shí)空結(jié)合的方法可以適用于不同場(chǎng)景。

對(duì)于視頻監(jiān)控場(chǎng)景下的人群異常檢測(cè),從規(guī)模上可以分為全局異常和局部異常。全局異常是指場(chǎng)景中所有目標(biāo)觸發(fā)了低概率事件,例如人群四處逃散,即是智能監(jiān)控系統(tǒng)中需求最迫切的一種應(yīng)用,直接關(guān)系到人身安全。通常將人群看作一個(gè)整體,通過(guò)分析整體運(yùn)動(dòng)趨勢(shì)或能量檢測(cè)異常。由于在全局異常中,異常表現(xiàn)比較明顯,相對(duì)于局部異常比較容易檢測(cè)。局部異常指場(chǎng)景中少數(shù)目標(biāo)運(yùn)動(dòng)狀態(tài)偏離周圍正常狀態(tài)的事件,其檢測(cè)具有更大的挑戰(zhàn)性。檢測(cè)出局部異常也意味著在視頻中將異常定位,這也是人群異常檢測(cè)中的一個(gè)重要研究方向。局部異常的特點(diǎn)是相對(duì)于周圍事件,該目標(biāo)點(diǎn)與周圍目標(biāo)點(diǎn)特征相似度較低,例如穿梭在正常行走的人群中玩滑板的人,存在給周圍目標(biāo)帶來(lái)威脅的可能性。本文提出一種新方法來(lái)檢測(cè)這兩種異常,對(duì)于全局異常,在光流法的基礎(chǔ)上結(jié)合Scale Invariant Feature Transform(SIFT)特征,SIFT特征能對(duì)圖像的旋轉(zhuǎn)、尺度縮放、亮度變化保持不變性,對(duì)于存在遮擋的、稀疏或擁擠人群場(chǎng)景能起到很好的檢測(cè)效果。然后利用高斯混合模型對(duì)其進(jìn)行建模,訓(xùn)練正常事件的高斯混合模型,不屬于該模型的則判定為異常;對(duì)于局部異常,將視頻圖像分塊,通過(guò)檢測(cè)子塊的異常,從而定位出視頻的局部異常。

由于監(jiān)控視頻下不同區(qū)域行人的運(yùn)動(dòng)特征不同,提出一種基于混合高斯模型的方法。首先通過(guò)預(yù)處理階段求出視頻的運(yùn)動(dòng)區(qū)域,減少了背景噪聲對(duì)檢測(cè)帶來(lái)的干擾,同時(shí)提高了計(jì)算效率,利用光流法和SIFT算法求物體速度大小。然后對(duì)圖像進(jìn)行網(wǎng)格化,對(duì)每個(gè)分塊建立相應(yīng)的混合高斯模型表示該塊的正常運(yùn)動(dòng)信息,使每個(gè)圖像塊都有對(duì)應(yīng)的高斯混合模型,以此檢測(cè)相應(yīng)圖像分塊是否屬于異常。本文方法能很好地適用于不同場(chǎng)景。

1異常檢測(cè)研究現(xiàn)狀

近年來(lái),智能視頻監(jiān)控中人群異常檢測(cè)的研究取得了很大進(jìn)展,現(xiàn)有大多數(shù)方法的基本檢測(cè)過(guò)程可以歸納為:①基本事件表示;②模型建立。目前已有很多成熟技術(shù)成功運(yùn)用到了人群異常檢測(cè),例如行人檢測(cè)、行人動(dòng)作分析、背景建模、跟蹤算法等都為基本事件表示提供了有力支持。對(duì)于基本事件表示,大致可分為基于軌跡、基于光流、基于紋理特征等方法。

基于軌跡分析的算法有很多,Neil Johnson[12]較早提出的通過(guò)比較新軌跡和一系列典型軌跡的方法,先學(xué)習(xí)由圖像序列產(chǎn)生的目標(biāo)軌跡,再判斷不規(guī)則行為;在此基礎(chǔ)上,Weiming Hu[13]提出一種新的多目標(biāo)跟蹤算法,然后用層次聚類算法對(duì)軌跡建模,進(jìn)而檢測(cè)異常。跟蹤算法面臨的挑戰(zhàn)是目標(biāo)易出現(xiàn)遮擋或者與周圍目標(biāo)差異較小,多目標(biāo)跟蹤算法的精確度將直接影響后續(xù)檢測(cè)效果;HT Nguyen[8]通過(guò)整合時(shí)間空間上下文信息,提出了一種更具有魯棒性的多目標(biāo)跟蹤算法;Ismail Haritaoglu[14]提出在運(yùn)動(dòng)軌跡的基礎(chǔ)上,結(jié)合形狀特征分析行人動(dòng)作,實(shí)時(shí)監(jiān)測(cè)異常。由于基于軌跡的異常檢測(cè)算法依賴于目標(biāo)跟蹤,所以這些算法都局限于稀疏場(chǎng)景下,很難適用于人群密度高的場(chǎng)景;Shandong Wu[4]提出一種新的方法,該方法克服了高密度人群給軌跡分析帶來(lái)的困難,首先獲得人群具有代表性的軌跡,然后通過(guò)提取代表性軌跡的混沌不變性特征構(gòu)建概率模型來(lái)分析人群是否異常?;诠饬鞣ǖ臋z測(cè)算法通常是將高密度人群看作一個(gè)整體加以分析[15]。例如Yang Liu[6]通過(guò)光流法計(jì)算人群運(yùn)動(dòng)速度,以動(dòng)態(tài)閾值的方式判斷人群情況。但人群異常種類多樣,如人群恐慌、地鐵口逆行、自行車或滑板穿梭于行人中,因此將光流法與其它模型結(jié)合成為研究熱點(diǎn);Ernesto L Andrade[16]克服了異常種類難以預(yù)測(cè)的困難,通過(guò)計(jì)算人群光流,結(jié)合HMM模型的方式進(jìn)行異常判斷;Ramin Mehran[7]采用將光流與社會(huì)力模型結(jié)合的方式分析人群整體,進(jìn)行人群異常檢測(cè);在最近的研究方法中,蔡瑞初[17]利用光流直方圖與時(shí)間遞歸神經(jīng)網(wǎng)絡(luò)結(jié)合的方式進(jìn)行人群異常檢測(cè)。以上方法都依賴于運(yùn)動(dòng)信息而忽略了目標(biāo)大小和形狀信息等紋理特征,紋理特征在人群密度、行人檢測(cè)、運(yùn)動(dòng)分割上起到重要作用,可為人群異常檢測(cè)提供有力支持。常用的紋理特征有目標(biāo)輪廓、大小、邊緣方向直方圖、LBP以及灰度共生矩陣等[9,18]。Antoni B Chan[19]在視頻運(yùn)動(dòng)分割中較早提出了混合動(dòng)態(tài)紋理特征MDT,該特征結(jié)合了運(yùn)動(dòng)信息和外貌信息,很好地將兩種不同形態(tài)分割開(kāi),例如分割水、火這兩種不同運(yùn)動(dòng)狀態(tài);Vijay Mahadevan[10]則將MDT(Mixture of Dynamic Textures)模型運(yùn)用于視頻監(jiān)控中的人群異常檢測(cè)。受GMM背景建模思想啟發(fā),作者用MDT模型代替GMM(Gaussian Mixture Model)模型,從時(shí)間異常和空間異常兩方面對(duì)監(jiān)控視頻進(jìn)行分析,從而判斷異常;Weixin Li[11]進(jìn)一步改進(jìn)和完善了混合動(dòng)態(tài)紋理特征,提出HMDT(Hierarchical Mixture of Dynamic Texture)模型,克服了異常在不同人群規(guī)模下定義模糊的問(wèn)題,同時(shí)還引入了條件隨機(jī)場(chǎng),但該方法計(jì)算耗時(shí)較長(zhǎng),實(shí)時(shí)性較差。endprint

在人群異常檢測(cè)模型建立階段,目前使用比較廣泛的有社會(huì)力模型、隱馬爾可夫模型、馬爾科夫隨機(jī)場(chǎng)、SVM、神經(jīng)網(wǎng)絡(luò)等[7]。Helbing[20]較早提出了社會(huì)力模型,以較高精確度模擬人群動(dòng)態(tài);Ramin Mehran[7]將社會(huì)力模型應(yīng)用在人群異常檢測(cè)上,通過(guò)計(jì)算人群場(chǎng)景運(yùn)動(dòng)粒子社會(huì)力提取相互力,將人群看作整體,用粒子平流的方法分析視頻中人群是否存在異常,但該方法檢測(cè)的異常種類受限。HMM和MRF(Markov Random Filed)模型也是比較流行的模型。岳猛[21]提出一種將狄利克雷多項(xiàng)式共軛模型與隱馬爾科夫模型結(jié)合的方法進(jìn)行異常檢測(cè);Tao Xiang[22]通過(guò)建立多目標(biāo)的HMM模型進(jìn)行異常判斷。雖然HMM模型能有效地檢測(cè)異常,但模型建立階段面臨的挑戰(zhàn)是場(chǎng)景中的人群在不間斷地變化,模型也需要不斷更新;為了克服這一困難,Jaechul Kim[23]提出一種基于時(shí)空的馬爾科夫隨機(jī)場(chǎng)模型,隨著新目標(biāo)進(jìn)入場(chǎng)景,模型參數(shù)也會(huì)時(shí)時(shí)更新,從而能更好地適應(yīng)真實(shí)的人群場(chǎng)景。值得注意的是,大多數(shù)方法仍沒(méi)有較好地解決監(jiān)控視頻下不同區(qū)域運(yùn)動(dòng)狀態(tài)不同給檢測(cè)帶來(lái)的干擾。本文通過(guò)分塊構(gòu)建高斯混合模型的方法,對(duì)不同區(qū)域訓(xùn)練對(duì)應(yīng)的模型,很好地解決了異常檢測(cè)問(wèn)題。

2異常檢測(cè)算法

本文提出的異常檢測(cè)算法用光流特征和SIFT特征表示人群運(yùn)動(dòng),對(duì)圖像進(jìn)行分塊,將特征劃分到對(duì)應(yīng)的子塊中,對(duì)每個(gè)子塊建立高斯混合模型,用高斯混合模型判斷該子塊是否屬于異常。

2.1預(yù)處理

預(yù)處理階段的主要目的是縮小圖像分析范圍,減少噪聲干擾。人群異常檢測(cè)主要是檢測(cè)行人狀態(tài)是否遵循正常規(guī)律變化,可見(jiàn)異常只發(fā)生在視頻中的運(yùn)動(dòng)區(qū)域。通過(guò)預(yù)處理可以把檢測(cè)區(qū)域進(jìn)一步定位到運(yùn)動(dòng)區(qū)域上,從而有效地減少背景等其它因素對(duì)異常檢測(cè)帶來(lái)的影響。Yang Liu[6]在對(duì)視頻處理前進(jìn)行了前景提取,縮小了檢測(cè)范圍,但現(xiàn)有的前景提取方法存在漏檢問(wèn)題,會(huì)對(duì)后續(xù)處理造成一定影響。本文在此基礎(chǔ)上用形態(tài)學(xué)方法對(duì)檢測(cè)結(jié)果進(jìn)行處理,擴(kuò)大范圍使其能完全包含運(yùn)動(dòng)目標(biāo),減少漏檢現(xiàn)象。常見(jiàn)的運(yùn)動(dòng)目標(biāo)檢測(cè)方法有幀差法、光流法、背景差分法。本文采用由Stauffer和Grimson提出的高斯混合模型(Gaussian Mixture Model,GMM),這是目前使用最為廣泛的運(yùn)動(dòng)物體檢測(cè)方法。

高斯混合模型是基于像素點(diǎn)的背景建模方法,對(duì)監(jiān)控圖像Ii中每個(gè)像素點(diǎn)位置建立k個(gè)高斯混合模型,使圖像中每個(gè)像素點(diǎn)位置都對(duì)應(yīng)k個(gè)高斯混合模型。本文中k=5,每個(gè)高斯混合模型共有4個(gè)參數(shù):優(yōu)先級(jí)s、權(quán)重w、均值m和方差v。將后續(xù)圖像Ii,i=i+1,…,N中每個(gè)像素點(diǎn)的灰度值和該像素點(diǎn)相應(yīng)位置的k個(gè)高斯混合模型逐個(gè)進(jìn)行匹配,然后根據(jù)該圖像每個(gè)像素點(diǎn)的匹配情況更新該點(diǎn)相應(yīng)位置的高斯混合模型。匹配和更新公式如下:

3.3UMN數(shù)據(jù)庫(kù)實(shí)驗(yàn)結(jié)果

本文首先在UMN數(shù)據(jù)庫(kù)上進(jìn)行檢測(cè),驗(yàn)證其有效性,效果如圖5所示。

圖5異常檢測(cè)效果

圖5是UMN數(shù)據(jù)庫(kù)中3個(gè)場(chǎng)景下的人群活動(dòng)狀態(tài),異常類型是人群四處逃散,紅色區(qū)域是異常發(fā)生的區(qū)域。圖6展示了異常檢測(cè)的ROC曲線。

由圖5可以看出,本文提出的方法能有效檢測(cè)人群四處逃散這一異常舉動(dòng),并且圖像中的紅色分塊很好地定位了異常發(fā)生的位置,驗(yàn)證了本文方法的有效性。圖6展示了不同方法在UMN數(shù)據(jù)庫(kù)上的ROC曲線,本文方法在3個(gè)場(chǎng)景中的ROC曲線處于其它方法的左側(cè),效果最好。由表1可以看出,本文方法在3個(gè)場(chǎng)景下的AUC值均優(yōu)于其它方法。由不同方法在UMN數(shù)據(jù)庫(kù)上的AUC值及ROC曲線的對(duì)比結(jié)果,可見(jiàn)本文方法在UMN數(shù)據(jù)庫(kù)的3個(gè)場(chǎng)景下的檢測(cè)結(jié)果均優(yōu)于對(duì)比方法。

3.4UCSD數(shù)據(jù)庫(kù)實(shí)驗(yàn)結(jié)果

本文首先在Ped1場(chǎng)景的幀級(jí)和像素級(jí)上檢測(cè)異常。幀級(jí)別異常檢測(cè)是指以數(shù)據(jù)庫(kù)中每一張圖片為單位,檢測(cè)的有效性為是否能正確判斷該幀存在異常事件;像素級(jí)別異常檢測(cè)指以視頻幀中的像素為單位,檢測(cè)的有效性為至少檢測(cè)出該幀中異常像素點(diǎn)的40%以上,異常檢測(cè)效果如圖7所示。

圖7UCSD數(shù)據(jù)庫(kù)Ped1場(chǎng)景下異常檢測(cè)效果

圖7展示了在Ped1場(chǎng)景下本文方法的檢測(cè)效果,紅色區(qū)域?yàn)闄z測(cè)出異常的區(qū)域,可見(jiàn)本文方法能有效地將人行道上運(yùn)動(dòng)的汽車、自行車和滑板等檢測(cè)出來(lái)。Ped1場(chǎng)景的ROC曲線如圖8所示。在UCSD數(shù)據(jù)庫(kù)Ped1、Ped2場(chǎng)景下的不同算法AUC對(duì)比分別如表2、表3所示。

圖8Ped1場(chǎng)景ROC曲線

圖9展示了本文方法在Ped2場(chǎng)景上的檢測(cè)效果,可以看出本文方法能有效檢測(cè)出高密度場(chǎng)景中的汽車、自行車等異常事件。圖10展示了Ped2 場(chǎng)景下不同方法的ROC曲線,可以看出本文方法的ROC曲線位于所有方法的最左側(cè),效果最好。表3展示了本文方法與其它方法的AUC值對(duì)比,本文方法的AUC值為0.94,效果最好。實(shí)驗(yàn)結(jié)果表明,本文方法檢測(cè)效果優(yōu)于其它對(duì)比方法。

4結(jié)語(yǔ)

本文提出了一種基于高斯混合模型的人群異常檢測(cè)方法,首先通過(guò)預(yù)處理去除了給后續(xù)運(yùn)動(dòng)特征提取帶來(lái)干擾的背景因素,以光流法和SIFT算法結(jié)合的方式提取高密度人群的運(yùn)動(dòng)特征,克服了遮擋和光照變化的影響。然后對(duì)圖像進(jìn)行分塊,對(duì)每個(gè)分塊訓(xùn)練高斯混合模型,使圖像每個(gè)子塊都有對(duì)應(yīng)的高斯混合模型,從而判斷圖像子塊中是否存在異常,克服了監(jiān)控視頻中不同區(qū)域行人運(yùn)動(dòng)狀態(tài)不同的問(wèn)題。通過(guò)實(shí)驗(yàn),證明本文方法針對(duì)典型的人群異常類型如人群恐慌四散、人行橫道上的自行車等都能取得很好的檢測(cè)效果,并且能適用于多個(gè)不同場(chǎng)景。未來(lái)將在此基礎(chǔ)上研究更多的基本事件表示方法,例如目標(biāo)位置、輪廓和方向梯度直方圖等,以更好地表示基本事件。另外需要將運(yùn)動(dòng)信息和紋理信息在時(shí)空上更有效地結(jié)合起來(lái),以進(jìn)一步提高異常檢測(cè)效果。隨著應(yīng)用要求的提高,研究無(wú)監(jiān)督的異常檢測(cè)算法,提高異常檢測(cè)的實(shí)時(shí)性也是一個(gè)重要研究方向。endprint

參考文獻(xiàn)參考文獻(xiàn):

[1]YANG CONG,JUNSONG YUAN,et al.Sparse reconstruction cost for abnormal event detection[C].IEEE Conference on Computer Vision and Pattern Recognition,Providence,RI,2011:34493456.

[2]吳新宇,郭會(huì)文,李楠楠,等.基于視頻的人群異常事件檢測(cè)綜述[J].電子測(cè)量與儀器學(xué)報(bào),2014,28(6):575584.

[3]YING ZHANG,HUCHUAN LU,LIHE ZHANG,et al.Combining motion and appearance cues for anomaly detection[J].Pattern Recognition,2016,51:443452.

[4]SHANDONG WU,BRIAN E MOORE,MUBARAK SHAH,et al. Chaotic invariants oflagrangian particletrajectories for anomaly detection in crowded scenes[C]. IEEE Conference on Computer Vision and Pattern Recognition,San Francisco,CA,2010:20542060.

[5]M S KEMOUCHE,N AOUF,et al. A Gaussian mixture based optical flow modeling for object detection[C]. 3th International Conference on Crime Detection and Prevention,London:2009:16.

[6]YANG LIU,XIAOFENG LI,et al. Abnormal crowd behavior detection based on optical flow and dynamic threshold[C]. 11th World Congress on Intelligent Control and Automation(WCICA),shenyang,2014:29022906.

[7]RAMIN MEHRAN,ALEXIS OYAMA,MUBARAK SHAH.Abnormal crowd behavior detection using social force model[C].IEEE Conference on Computer Vision and Pattern Recognition,Miami,F(xiàn)L,2009:935942.

[8]HT NGUYEN,QIANG JI,et al.Spatiotemporal context for robust multitarget tracking[J]. IEEE Transactions on Pattern Analysis Machine Intelligence,2007:5264.

[9]VIKAS REDDY,CONRAD SANDERSON,et al.Improved anomaly detection in crowded scenes via cellbased analysis of foreground speed, size and texture[C].IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops,Colorado Spring,CO,2011:5561.

[10]VIJAY MAHADEVAN,WEIXIN LI,VIRAL BHALODIA,et al. Anomaly detection in crowded scenes[C].IEEE,Conference on Computer Vision and Pattern Recognition, San Francisco,USA,2010:19751981.

[11]WEIXIN LI,VIJAY MAHADEVAN,et al.Anomaly detection and localization in crowded scenes[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2014,36(1):1832.

[12]NEIL JOHNSON,DAVID HOGG.Learning the distribution of object trajectories for event recognition[C].British Conference on Machine Vision,1996:609615.

[13]WEIMING HU,XUEJUAN XIAO,ZHOUYU FU,et al. A system for learning statistical motion patterns[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2006,28(9):14501464.

[14]ISMAIL HARITAOGLU,DAVID HARWOOD,et al.Realtime surveillance of people and their activities[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2000,22(8):809830.endprint

[15]J L BARRON,D J FLEET,et al.Performance of optical flow techniques[J].International Journal of Computer Vision,1994,12(1):4377.

[16]ERNESTO L ANDRADE,SCOTT BLUNSDEN,et al.Modelling crowd scenes for event detection[C].18th IEEE Conference on Pattern Recognition,Hong Kong,2006:175178.

[17]蔡瑞初,謝偉浩,郝志峰,等.基于多尺度時(shí)間遞歸神經(jīng)網(wǎng)絡(luò)的人群異常檢測(cè)[J].軟件學(xué)報(bào),2015,26(11):28842896.

[18]MRIDULA J,KUNDAN KUMAR,et al.Combining GLCM features and markov random field model for colour textured image segmentation[C].International Conference on Devices and Communications,Mesra,2011:15.

[19]ANTONI B CHAN,et al. Modeling,clustering,and segmenting video with mixtures of dynamic textures[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2008,30(5):909926.

[20]D HELBING,et al. Social force model for pedestrian dynamics[J].Physical Review E,1995,

51(5):42824286.

[21]岳猛,郭春生.基于DMCHMM模型的視頻異常行為檢測(cè)[N].杭州電子科技大學(xué)學(xué)報(bào),2014,34(3):2124.

[22]TAO XIANG,SHAOGANG GONG.Incremental and adaptive abnormal behaviour detection[J].

Computer Vision and Image Understanding,2008,111(1):5973.

[23]JAECHUL KIM,KRISTEN GRAUMAN.Observe locally, infer globally: a spacetime MRF for detecting abnormal activities with incremental updates[C].IEEE Conference on Computer Vision and PatternRecognition,Miami,F(xiàn)L,2009:29212928.

[24]XING HU,SHIQIANG HU,et al.Video anomaly detection using deep incremental slow feature analysis network[J]. let Computer Vision,2016,10(4):258256.

[25]XING HU,SHIQIANG HU,et al.Abnormal event detection in crowded scenes via bagofatomiceventsbased topic model[J].Turkish Journal of Electrical Engineering and Computer Sciences,2016,24(4):26382653.

[26]YANG CONG,JUNSONG YUAN,et al.Abnormal event detection in crowded scenes using sparse representation[J].Pattern Recognition,2013,46(7):18511864.

[27]YING ZHANG,HUCHUAN LU,et al.Video anomaly detection based on locality sensitive hashing filters[J].Pattern Recognition,2015.

[28]YANG HU,YANGMUZI ZHANG,et al.Unsupervised abnormal crowd activity detection using semiparametric scan statistic[C].IEEE Conference on Computer Vision and Pattern Recognition Workshops,Portland,OR,2013:767774.

[29]MYO THIDA,HOWLUNG ENG,et al.Laplacian eigenmap with temporal constraints for local abnormality detection in crowded scenes[J].IEEE Transactions on Cybernetics,2013,43(6):21472156.

責(zé)任編輯(責(zé)任編輯:黃?。〆ndprint

猜你喜歡
光流法
光流法和顯著性相結(jié)合的動(dòng)態(tài)背景下運(yùn)動(dòng)目標(biāo)檢測(cè)方法
一種飛行目標(biāo)的檢測(cè)方法
視頻場(chǎng)景人群運(yùn)動(dòng)異常狀態(tài)檢測(cè)
基于背景分類的監(jiān)控視頻中的運(yùn)動(dòng)目標(biāo)檢測(cè)算法綜述
權(quán)重系數(shù)自適應(yīng)光流法運(yùn)動(dòng)目標(biāo)檢測(cè)
適用于密集人群的異常事件實(shí)時(shí)檢測(cè)方法
初始段安控圖像目標(biāo)識(shí)別方法研究
廊坊市| 乳源| 惠安县| 比如县| 桓台县| 庆阳市| 保靖县| 旬阳县| 香河县| 青冈县| 旺苍县| 左云县| 芮城县| 永州市| 成都市| 桂林市| 贵南县| 页游| 阿坝县| 惠东县| 沭阳县| 普兰店市| 金秀| 南川市| 尤溪县| 凉山| 新安县| 无极县| 正安县| 大名县| 寿光市| 楚雄市| 司法| 舟山市| 玛曲县| 农安县| 龙海市| 枣阳市| 台州市| 白城市| 清徐县|