国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

光流法和顯著性相結(jié)合的動(dòng)態(tài)背景下運(yùn)動(dòng)目標(biāo)檢測(cè)方法

2020-04-20 10:41黃鋒易嘉聞吳健輝何偉李武勁歐先鋒
關(guān)鍵詞:目標(biāo)檢測(cè)

黃鋒 易嘉聞 吳健輝 何偉 李武勁 歐先鋒

摘要:針對(duì)運(yùn)動(dòng)背景下目標(biāo)檢測(cè)困難的問(wèn)題,在現(xiàn)有運(yùn)動(dòng)目標(biāo)檢測(cè)算法的基礎(chǔ)上,結(jié)合顯著性檢測(cè)算法在圖像處理和目標(biāo)檢測(cè)上的特點(diǎn),提出了一種結(jié)合光流法與顯著性特征的運(yùn)動(dòng)目標(biāo)檢測(cè)算法。首先利用基于重構(gòu)與分割的顯著性檢測(cè)方法,快速對(duì)圖像中的有用對(duì)象和信息進(jìn)行提取,同時(shí)將不感興趣的信息進(jìn)行排除,然后結(jié)合光流法對(duì)運(yùn)動(dòng)信息的敏感性,采用加權(quán)融合的方式來(lái)減少圖像中大量的背景噪聲信息,提取完整的運(yùn)動(dòng)目標(biāo)。實(shí)驗(yàn)結(jié)果表明,提出的算法很好地將運(yùn)動(dòng)目標(biāo)信息從復(fù)雜的運(yùn)動(dòng)背景中提取出來(lái),在保留目標(biāo)區(qū)域的完整性基礎(chǔ)上,降低了背景運(yùn)動(dòng)所帶來(lái)的影響,具有較好的穩(wěn)定性和魯棒性。

關(guān)鍵詞:光流法,顯著性特征,動(dòng)態(tài)背景,目標(biāo)檢測(cè)

中圖分類號(hào):TP391.9?文獻(xiàn)標(biāo)志碼:A

文章編號(hào):2095-5383(2020)01-0013-06

Abstract:The method of moving object detection under the motion background was proposed in this paper.?This method combined with optical flow and salient features which based on the existing moving object detection aalgorithm.?The significance detection method based on reconstruction and segmentation is used to quickly extract the useful objects and information in the image and exclude the information that is not interested.?Then combined with the sensitivity of the optical flow method to the motion information,the weighted fusion method is adopted to reduce a lot of background noise information in the image and extract the complete moving object.?The experimental results show that the proposed algorithm in this paper can extract the moving object information from the complex background,and on the basis of keeping the integrity of the object area,it can reduce the influence of the background movement and has better stability and robustness.

Keywords:optical flow method,saliency detection,motion background,object detection

目標(biāo)檢測(cè)作為計(jì)算機(jī)視覺(jué)技術(shù)領(lǐng)域的一個(gè)重要研究?jī)?nèi)容,主要有靜態(tài)背景[1]與運(yùn)動(dòng)背景[2]下兩種方法。靜態(tài)背景指目標(biāo)所在的背景沒(méi)有或者只有微小變化,只有待檢測(cè)目標(biāo)的運(yùn)動(dòng),因此靜態(tài)背景下的運(yùn)動(dòng)目標(biāo)與背景存在明顯區(qū)別,較容易進(jìn)行檢測(cè)。而運(yùn)動(dòng)背景具有多樣化,運(yùn)動(dòng)目標(biāo)與背景同時(shí)存在運(yùn)動(dòng),與靜態(tài)背景下的目標(biāo)檢測(cè)相比,大大增加了檢測(cè)和跟蹤難度。

目前目標(biāo)檢測(cè)的方法主要有幀間差分法[3]、背景差分法[4]以及光流法[5-6]。幀間差分法是將視頻序列中連續(xù)相鄰的2幀圖像通過(guò)差分運(yùn)算得到目標(biāo)邊緣輪廓的方法,當(dāng)視頻序列中出現(xiàn)其他運(yùn)動(dòng)物體時(shí),相鄰2幀圖像之間就會(huì)出現(xiàn)較大的不同,通過(guò)相減可以得到相鄰2幀圖像之間差值,最后根據(jù)設(shè)定好的閾值進(jìn)行判斷,分析視頻序列是否存在運(yùn)動(dòng)物體。優(yōu)點(diǎn)在于此類算法的實(shí)現(xiàn)相對(duì)容易,并且程序的設(shè)計(jì)復(fù)雜度相對(duì)較低,缺點(diǎn)在于對(duì)光照和背景的變化不夠敏感,不能完整地提取出目標(biāo)區(qū)域,對(duì)環(huán)境噪聲較為敏感,因此閾值的選取十分關(guān)鍵。背景差分法是通過(guò)對(duì)背景進(jìn)行參數(shù)建模[7],利用已建立的參數(shù)模型來(lái)表示背景圖像的像素值,然后將當(dāng)前圖像與背景圖像進(jìn)行差分比較,得到目標(biāo)區(qū)域,將差異較大的區(qū)域判斷為運(yùn)動(dòng)目標(biāo),差異較小的區(qū)域判斷為背景[8]。對(duì)靜態(tài)背景或者背景變化緩慢的視頻圖像中運(yùn)動(dòng)目標(biāo)有較好的檢查效果。光流法能表達(dá)圖像的變化,它包含了目標(biāo)運(yùn)動(dòng)的信息,可以確定目標(biāo)的運(yùn)動(dòng)情況,能夠降低復(fù)雜背景的變動(dòng)以及其他不規(guī)則運(yùn)動(dòng)所帶來(lái)的影響,因此在運(yùn)動(dòng)的背景下有很好的檢測(cè)效果,但在多噪聲、光照變換較強(qiáng)、運(yùn)動(dòng)物體存在遮擋以及運(yùn)動(dòng)背景大幅度運(yùn)動(dòng)等情況下,光流法的檢測(cè)結(jié)果會(huì)產(chǎn)生較大的誤差[9]。

人類的視覺(jué)系統(tǒng)能夠在自然場(chǎng)景中快速搜索和定位出感興趣的物體,包括靜止和運(yùn)動(dòng)的物體,這就是視覺(jué)選擇機(jī)制,人們產(chǎn)生興趣的區(qū)域稱為視覺(jué)顯著性區(qū)域,這種視覺(jué)注意力機(jī)制是人們?nèi)粘I钪刑幚硪曈X(jué)信息的重要機(jī)制[10]。隨著科研人員的深入研究,顯著性目標(biāo)檢測(cè)引起了廣泛關(guān)注,它可以幫助計(jì)算機(jī)快速找到圖像中的有用對(duì)象和信息,在圖像和視頻壓縮[11]、圖像檢索[12]和目標(biāo)檢測(cè)[13]等領(lǐng)域發(fā)揮著重要的作用。通過(guò)這種方式,計(jì)算機(jī)能很好地提取圖像中感興趣的目標(biāo),同時(shí)排除不感興趣的信息,降低圖像分析和處理的復(fù)雜性,提高檢測(cè)的精確性。

現(xiàn)有的顯著性檢測(cè)算法主要分為自頂向下[14]與自底向上[15]。自頂向下方法主要包括特征學(xué)習(xí)和顯著性計(jì)算。通過(guò)提取訓(xùn)練目標(biāo)獲得相關(guān)先驗(yàn)知識(shí),然后通過(guò)圖像中的顯著性計(jì)算得到高亮目標(biāo)的顯著性圖。隨著近年來(lái)深度學(xué)習(xí)的迅速發(fā)展,相關(guān)方法如獨(dú)立分量分析、條件隨機(jī)場(chǎng)和貝葉斯模型等被提出,在目標(biāo)顯著性檢測(cè)方面取得了良好的效果[16]。而自底向上的方法通常利用圖像目標(biāo)區(qū)域的顏色、亮度、邊緣等特征與周圍像素之間的差異來(lái)計(jì)算圖像區(qū)域的顯著性,側(cè)重于探索低層次的視覺(jué)特征。例如:早期自底向上的顯著性檢測(cè)模型包括ITTI模型[17],該模型使用高斯金字塔計(jì)算圖像的亮度特征圖、顏色特征圖和方向特征圖,并通過(guò)加權(quán)得到最終的視覺(jué)顯著性圖。Yan[18]提出了一種從尺度角度分析意義線索的多層次方法,F(xiàn)u等[19]通過(guò)圖像的顏色分布和顏色對(duì)比獲得高質(zhì)量的視覺(jué)義圖像。

本文提出了光流法與顯著性檢測(cè)相結(jié)合的動(dòng)態(tài)背景下運(yùn)動(dòng)目標(biāo)檢測(cè)算法。利用光流法在檢測(cè)出視頻圖像總的所有運(yùn)動(dòng)矢量的基礎(chǔ)上,結(jié)合顯著性檢測(cè)算法,融合目標(biāo)動(dòng)態(tài)特征和靜態(tài)特征信息來(lái)減少檢測(cè)出的光流矢量中存在的大量與目標(biāo)區(qū)域無(wú)關(guān)的干擾信息,大幅度減少運(yùn)動(dòng)背景中產(chǎn)生的背景噪聲干擾以及背景抖動(dòng)等問(wèn)題,從而達(dá)到準(zhǔn)確檢測(cè)出復(fù)雜背景下運(yùn)動(dòng)目標(biāo)的目的。

1?光流法基本原理

光流法是作為運(yùn)動(dòng)背景下目標(biāo)檢測(cè)的一種常用方法,主要是根據(jù)背景與目標(biāo)的速度矢量不同將兩者區(qū)分開來(lái)。目前,光流法的計(jì)算主要分為:梯度法、塊匹配法,能量法和相位法。由于梯度的方向在圖像灰度的最大變化率上,基于梯度的光流法(Horn-Schunck)得到了廣泛的運(yùn)用。通常情況下,光流的產(chǎn)生主要是因?yàn)閳?chǎng)景中運(yùn)動(dòng)目標(biāo)的移動(dòng)、拍攝器材的移動(dòng)以及兩者的一起移動(dòng)。假設(shè)在非常短的時(shí)間段內(nèi),連續(xù)2幀圖像的灰度值保持不變,也就是在連續(xù)相鄰的2幀圖像中的同一像素點(diǎn)所對(duì)應(yīng)的像素值一樣,則有:

光流場(chǎng)是運(yùn)動(dòng)場(chǎng)在二維圖像的投影,因此光流就是圖像在灰度模式下像素點(diǎn)的運(yùn)動(dòng)矢量u→=(u,v),如圖1所示。由于方程式不能求單獨(dú)解出2個(gè)未知變量(u,v),所以無(wú)法求解點(diǎn)(x,y)的運(yùn)動(dòng)矢量(u,v)。LK稀疏光流法提出了在單個(gè)像素點(diǎn)的一定領(lǐng)域內(nèi)聯(lián)立多個(gè)像素點(diǎn)進(jìn)行求解來(lái)解決這個(gè)問(wèn)題,如式(6)所示:

其中:n為該特征點(diǎn)領(lǐng)域內(nèi)的所有像素點(diǎn)總數(shù)。可知,聯(lián)立n個(gè)方程求解無(wú)法得到最優(yōu)解,因此只能利用最小二乘法使得n個(gè)方程的偏移量的平方和達(dá)到最小,求出最優(yōu)解。

2?顯著性與光流場(chǎng)融合的檢測(cè)方法

運(yùn)動(dòng)背景由于與運(yùn)動(dòng)目標(biāo)和攝像機(jī)存在相對(duì)運(yùn)動(dòng),所以會(huì)產(chǎn)生大量非運(yùn)動(dòng)目標(biāo)的光流子,容易產(chǎn)生大量的背景光流,致使檢測(cè)結(jié)果精度大大降低。針對(duì)上述問(wèn)題,為了減少背景運(yùn)動(dòng)所帶來(lái)的影響,快速精準(zhǔn)地檢測(cè)出運(yùn)動(dòng)目標(biāo),通過(guò)模擬人類視覺(jué)注意力機(jī)制,提取出目標(biāo)顯著性區(qū)域,結(jié)合運(yùn)動(dòng)光流矢量,在運(yùn)動(dòng)背景下實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)的精確檢測(cè)。具體算法流程如圖2所示,主要分兩步進(jìn)行,首先計(jì)算出圖像中的光流矢量和顯著性區(qū)域,然后將二者進(jìn)行融合處理,最后得出準(zhǔn)確的運(yùn)動(dòng)目標(biāo)。

2.1?顯著性區(qū)域提取

在現(xiàn)有顯著性圖計(jì)算的基礎(chǔ)上,采用基于重構(gòu)與分割的顯著性檢測(cè)方法,通過(guò)比較局部區(qū)域與全局信息之間的差異來(lái)獲取目標(biāo)區(qū)域的顯著性特征,其檢測(cè)流程如圖3所示,首先對(duì)輸入的視頻序列圖像進(jìn)行高斯濾波,然后再進(jìn)行重建和插值分割,最后通過(guò)平方根通道計(jì)算出顯著圖。

1)高斯濾波與圖像重建。人類的視覺(jué)特征決定了人眼對(duì)圖像的不同頻率分量具有不同的敏感度,圖像的低頻部分集中了主要的能量,而高頻部分主要是細(xì)節(jié)部分。因此,先對(duì)顏色空間中的圖像進(jìn)行高斯濾波平滑預(yù)處理。然后通過(guò)形態(tài)學(xué)處理對(duì)圖像進(jìn)行重構(gòu),增強(qiáng)圖像的顯著性區(qū)域,降低背景噪聲:

其中:hk為標(biāo)記圖像,G為掩碼圖像,B為結(jié)構(gòu)元素,h為重構(gòu)后的圖像。該算法能夠在不產(chǎn)生全局幾何畸變的情況下去除小于結(jié)構(gòu)元素的特定圖像細(xì)節(jié),使同一區(qū)域像素的顏色分量更加均勻,背景區(qū)域的噪聲和紋理結(jié)構(gòu)也能得到很好抑制。

2)計(jì)算顯著值。對(duì)去噪和重構(gòu)后的圖像采用平方根通道法來(lái)進(jìn)行顯著性區(qū)域計(jì)算,如式(13)所示。l,a,b分別為分割后圖像的3個(gè)顏色空間通道,lm,am,bm為對(duì)應(yīng)通道的均值。在計(jì)算中取l、a、b的平均值進(jìn)行數(shù)據(jù)融合,得到顯著圖像:

2.2?光流矢量與顯著性區(qū)域加權(quán)融合

式(11)可以計(jì)算出視頻序列當(dāng)前幀在x和y方向上的光流矢量,通過(guò)均方根計(jì)算出該點(diǎn)的光流場(chǎng)V,如式(14)所示。

將式(13)的區(qū)域顯著性計(jì)算結(jié)果和式(14)的目標(biāo)光流場(chǎng)進(jìn)行融合,如式(15)所示,其中β為權(quán)重值,可以根據(jù)實(shí)驗(yàn)結(jié)果進(jìn)行調(diào)整,通常取值為(0.8~1.5)。

式(15)中通過(guò)矩陣點(diǎn)乘,利用顯著圖來(lái)弱化光流矢量中的背景區(qū)域,最后對(duì)兩者給定相同的權(quán)值進(jìn)行加權(quán)融合,進(jìn)一步增強(qiáng)運(yùn)動(dòng)目標(biāo)區(qū)域,降低背景區(qū)域噪聲,達(dá)到檢測(cè)出運(yùn)動(dòng)目標(biāo)的目的。

3?實(shí)驗(yàn)結(jié)果及分析

為了驗(yàn)證本文提出的光流法與顯著性相結(jié)合的算法在復(fù)雜背景中運(yùn)動(dòng)目標(biāo)檢測(cè)的有效性,本文在Windows操作系統(tǒng)環(huán)境下,使用MatlabR2017a在I2R數(shù)據(jù)集[20]上進(jìn)行了算法有效性測(cè)試,其中圖4采用的視頻為背景抖動(dòng)情況,圖5采用的視頻為背景與目標(biāo)同時(shí)運(yùn)動(dòng)情況,檢測(cè)結(jié)果如圖4、圖5所示。

從圖4可以看到,視頻序列圖像中由于相機(jī)拍攝運(yùn)動(dòng)目標(biāo)過(guò)程中存在的抖動(dòng)現(xiàn)象,使得視頻相鄰2幀之間產(chǎn)生一定的全局偏移以及運(yùn)動(dòng)目標(biāo)與背景之間的相對(duì)位移,因此采用單一的光流法在檢測(cè)出一定運(yùn)動(dòng)目標(biāo)區(qū)域的情況下,也檢測(cè)到了部分背景運(yùn)動(dòng),導(dǎo)致最終結(jié)果表現(xiàn)為目標(biāo)區(qū)域輪廓不明顯,且背景噪聲偏多,無(wú)法將運(yùn)動(dòng)目標(biāo)與背景準(zhǔn)確地分離開來(lái)。而圖5中背景與目標(biāo)同時(shí)運(yùn)動(dòng)的情況下,光流法表現(xiàn)得更差。由于同時(shí)運(yùn)動(dòng),相機(jī)與目標(biāo)始終保持相同的速度,使得背景運(yùn)動(dòng)速度也與之相同,產(chǎn)生的影響表現(xiàn)為運(yùn)動(dòng)目標(biāo)光流矢量與背景光流融為一體,目標(biāo)與背景無(wú)法辨認(rèn),只有少部分邊界區(qū)域得以區(qū)分。

本文算法通過(guò)提取全局圖像顯著性特征,采取加權(quán)融合對(duì)光流矢量圖的背景進(jìn)行弱化,減少背景噪聲,很好地將目標(biāo)輪廓進(jìn)行了保留,同時(shí)也保證了目標(biāo)的平滑,沒(méi)有出現(xiàn)目標(biāo)空洞等現(xiàn)象,與標(biāo)準(zhǔn)二值圖(Ground truth)進(jìn)行比較,本文算法將運(yùn)動(dòng)目標(biāo)信息很好地保留了下來(lái),無(wú)論是背景抖動(dòng)還是背景運(yùn)動(dòng),都能很好地把運(yùn)動(dòng)目標(biāo)區(qū)域從運(yùn)動(dòng)背景下分離出來(lái),從而實(shí)現(xiàn)對(duì)真實(shí)目標(biāo)的準(zhǔn)確檢測(cè)。為了更好地體現(xiàn)本文算法檢測(cè)的有效性,將其與目前常用的運(yùn)動(dòng)背景下目標(biāo)檢測(cè)算法進(jìn)行了對(duì)比,實(shí)驗(yàn)用的視頻數(shù)據(jù)為I2R數(shù)據(jù)集中的部分視頻,檢測(cè)結(jié)果如圖6所示。

圖6中(a)列為原始輸入視頻幀,(b)列為數(shù)據(jù)集中給出的真實(shí)目標(biāo)結(jié)果,(c)列為本文算法檢測(cè)的結(jié)果,(d)列為L(zhǎng)BP算法[21]檢測(cè)結(jié)果,(e)列為VKS算法[22]檢測(cè)結(jié)果,(f)列為SCS-LBP算法[23]檢測(cè)結(jié)果,(g)列為IGMM算法[24]檢測(cè)結(jié)果,(h)列為ViBe算法[25]檢測(cè)結(jié)果。從檢測(cè)的結(jié)果來(lái)看,本文結(jié)合光流和顯著性方法檢測(cè)的結(jié)果更加接近于真實(shí)目標(biāo),具有更好的檢測(cè)穩(wěn)定性和可靠性。

對(duì)數(shù)據(jù)集中選取的6段視頻進(jìn)行完整檢測(cè)后,所有目標(biāo)檢測(cè)的準(zhǔn)確性如表1所示,其計(jì)算方式為每一幀圖像檢測(cè)到的結(jié)果像素及區(qū)域和數(shù)據(jù)集中提供的真實(shí)目標(biāo)區(qū)域像素及區(qū)域的相似性,定義如式(16)所示:

由于每段視頻背景的復(fù)雜程度不一,所以部分目標(biāo)的檢測(cè)結(jié)果與真實(shí)目標(biāo)有一些差異性,但6段視頻的平均檢測(cè)精度達(dá)到了83.59%,超過(guò)同類算法的檢測(cè)精度,特別是視頻2中背景輕微抖動(dòng)這種相對(duì)穩(wěn)定的情況下,檢測(cè)效果非常理想。

4?結(jié)束語(yǔ)

在目前運(yùn)動(dòng)背景下的目標(biāo)檢測(cè)方法基礎(chǔ)上,本文提出了一種結(jié)合光流法和目標(biāo)顯著性特征的運(yùn)動(dòng)目標(biāo)檢測(cè)算法,利用光流法對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行光流矢量特征提取,并結(jié)合人類視覺(jué)檢測(cè)中的顯著性檢測(cè)機(jī)制,快速找到圖像中的有用對(duì)象和信息,保留重要信息輪廓,抑制背景噪聲的特點(diǎn),降低了背景運(yùn)動(dòng)所帶來(lái)的影響,實(shí)現(xiàn)了運(yùn)動(dòng)背景下的目標(biāo)檢測(cè)。實(shí)驗(yàn)結(jié)果表明,本文算法能在背景與目標(biāo)存在相對(duì)運(yùn)動(dòng)的時(shí)候有效檢測(cè)出運(yùn)動(dòng)目標(biāo),相比現(xiàn)有的部分算法具有較好的檢測(cè)穩(wěn)定性和魯棒性,在后續(xù)研究中將通過(guò)更多實(shí)驗(yàn)來(lái)進(jìn)行參數(shù)調(diào)整,達(dá)到更多復(fù)雜場(chǎng)景下的目標(biāo)檢測(cè)準(zhǔn)確性和可靠性。

參考文獻(xiàn):

[1]BOUWMANS,THIERRY.Traditional and recent approaches in background modeling for foreground detection:an overview[J].Computer Science Review,2014(11-12):31-66.

[2]YAZDI M,BOUWMANS T.New trends on moving object detection in video images captured by a moving camera:a survey[J].Computer Science Review,2018(28):157-177.

[3]王國(guó)營(yíng),寇紅召,李濤.一種多模態(tài)融合新聞視頻條目分割算法[J].計(jì)算機(jī)工程與科學(xué),2011,33(6):46-50.

[4]SOBRAL A,VACAVANT A.A comprehensive review of background subtraction algorithms evaluated with synthetic and real videos[J].Computer Vision and Image Understanding,2014(122):4-21.

[5]?TSAI Y H,YANG M H,BLACK M J.Video segmentation via object flow[J].IEEE Computer Vision and Pattern Recognition,2016:3899-3908.

[6]張艷艷,婁莉,梁碩.基于改進(jìn)光流算法的運(yùn)動(dòng)目標(biāo)檢測(cè)技術(shù)研究[J].智能計(jì)算機(jī)與應(yīng)用,2018(1):55-58.

[7]?MEDOUAKH S,BOUMEHRAZ M,TERKI N.Improved object tracking via joint color-LPQ texture histogram based mean shift algorithm[J].Signal,Image and Video Processing,2018,12(3):583-590.

[8]LIN L,LIN W,HUANG S.Group object detection and tracking by combining RPCA and fractal analysis[J].Soft Computing,2018,22(1):231-242.

[9]李成美,白宏陽(yáng),郭宏偉,等.一種改進(jìn)光流法的運(yùn)動(dòng)目標(biāo)檢測(cè)及跟蹤算法[J].儀器儀表學(xué)報(bào),2018,39(5):249-256.

[10]郭鵬飛,金秋,劉萬(wàn)軍.融合似物性前景對(duì)象與背景先驗(yàn)的圖像顯著性檢測(cè)[J].計(jì)算機(jī)工程與科學(xué),2018,40(9):1679-1688.

[11]?HAN S,VASCONCELOS N.Image compression using object-based regions of interest[C]//ICIP.2006:3097-3100.

[12]?CHEN T,CHENG M M,TAN P,et al.Sketch2photo:internet image montage[J].Transactions on Graphics,2009,28(5):124.

[13]LI J,XIA C,CHEN X.A benchmark dataset and saliency-guided stacked autoencoders for video-based salient object detection [J].IEEE Transactions on Image Processing,2018,27(1):349-364.

[14]崔麗群,吳曉冬,趙越.基于CRF-MR的自頂向下顯著性目標(biāo)檢測(cè)方法[J].計(jì)算機(jī)應(yīng)用研究,2018,22(7):301-305.

[15]賀超,陳振學(xué),劉成云.自底向上的圖像顯著目標(biāo)檢測(cè)研究[J].光電子·激光,2016(8):886-892.

[16]XU W,ZHONG S,YAN L,et al.Moving object detection in aerial infrared images with registration accuracy prediction and feature points selection[J].Infrared Physics & Technology,2018(92):318-326.

[17]LAURENT I,CHRISTOF K,ERNST N.A model of saliency-based visual attention for rapid scene analysis[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,1998,20(11):1254-1259.

[18]?YAN Q,XU L,SHI J,et al.Hierarchical saliency detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2013:1155-1162.

[19]?FU K,GONG C,YANG J,et al.Salient object detection via color contrast and color distribution[C]//Asian Conference on Computer Vision.Springer,Berlin,Heidelberg,2012:111-122.

[20]?LI L,HUANG W,GU I,et al.Foreground object detection from videos containing complex background[C].In Proc.ACM Conf.on Multi,2003:2-10.

[21] HEIKKILA M,PIETIKAINEN M.A texture-based method for modeling the background and detecting moving objects[J].IEEE Trans Pattern Anal Mach Intell,2006,28(4):657-662.

[22]?NARAYANA M,HANSON A,LEARNED-MILLER E.Background modeling using adaptive pixelwise kernel variances in a hybrid feature space[C]// In IEEE Conf on Comput Vis Pattern Recogn,2012:2104-2111.

[23]?XUE G,SUN J,SONG L.Dynamic background subtraction based on spatial extended center-symmetric local binary pattern[C]// In IEEE Inter Conf on Multimed Expo.,2010:1050-1054.

[24] ZIVKOVIC Z.Improved adaptive Gaussian mixture model for background subtraction[C]// In Inter Conf on Pattern Recogn Ⅱ,2004:28-31.

[25] BARNICH O,DROOGENBROECK M.ViBe:a universal background subtraction algorithm for video sequences[J].IEEE Trans Image Process,2011,20(6):1709-1724.

猜你喜歡
目標(biāo)檢測(cè)
多視角目標(biāo)檢測(cè)與跟蹤技術(shù)的研究與實(shí)現(xiàn)
視頻中目標(biāo)檢測(cè)算法研究
行為識(shí)別中的人體運(yùn)動(dòng)目標(biāo)檢測(cè)方法
移動(dòng)機(jī)器人圖像目標(biāo)識(shí)別
基于背景建模法的運(yùn)動(dòng)目標(biāo)檢測(cè)
基于P3電位的目標(biāo)檢測(cè)研究
智能視頻技術(shù)在電力系統(tǒng)領(lǐng)域的應(yīng)用
相關(guān)K分布雜波中擴(kuò)展目標(biāo)積累檢測(cè)性能分析
基于連通域標(biāo)記的目標(biāo)檢測(cè)算法設(shè)計(jì)與實(shí)現(xiàn)
一種改進(jìn)的峰均功率比判源方法
舞钢市| 黄龙县| 融水| 文昌市| 龙口市| 常熟市| 江孜县| 扶余县| 皋兰县| 新沂市| 江津市| 柯坪县| 鄂托克旗| 中山市| 乌兰县| 呼图壁县| 页游| 柯坪县| 固原市| 乃东县| 梁山县| 饶河县| 贵德县| 镇巴县| 饶平县| 秭归县| 澜沧| 贵港市| 新郑市| 广西| 浮梁县| 承德市| 汤阴县| 汉阴县| 象山县| 桃源县| 沁水县| 葫芦岛市| 宝山区| 晋州市| 南靖县|