李俊山 張 姣 隋中山 李建軍
(1. 廣東外語(yǔ)外貿(mào)大學(xué)南國(guó)商學(xué)院,廣州,510545;2. 西安衛(wèi)星測(cè)控中心,西安,710043;3. 火箭軍士官學(xué)校,青州,262500)
目標(biāo)檢測(cè)是計(jì)算機(jī)視覺(jué)的重要應(yīng)用之一,是后續(xù)目標(biāo)識(shí)別、跟蹤、目標(biāo)分類以及行為分析的前提。遠(yuǎn)距離成像時(shí)通常會(huì)受到復(fù)雜變化的大氣湍流影響,使得成像結(jié)果中存在不規(guī)則抖動(dòng)、偏移和模糊等退化現(xiàn)象[1,2]。因此,如何從湍流退化視頻中提取出全部真實(shí)的運(yùn)動(dòng)目標(biāo),同時(shí)盡可能降低湍流和噪聲干擾導(dǎo)致的誤檢情況,實(shí)現(xiàn)高精度、低誤檢率的目標(biāo)檢測(cè)技術(shù)研究具有重要的意義。
傳統(tǒng)目標(biāo)檢測(cè)算法的基礎(chǔ)可分為前景檢測(cè)、幀間差分和背景減除3類。前景檢測(cè)是通過(guò)對(duì)場(chǎng)景中運(yùn)動(dòng)矢量的分析得到運(yùn)動(dòng)的前景物體,再輔以圖像分析來(lái)獲得運(yùn)動(dòng)目標(biāo)。此類方法無(wú)需背景先驗(yàn)知識(shí),常用的有光流法[3,4]、連續(xù)張量法[5]。其中,光流法計(jì)算復(fù)雜且對(duì)光照變化敏感,連續(xù)張量法提取快速運(yùn)動(dòng)的目標(biāo)結(jié)果往往比實(shí)際大,難以滿足實(shí)際應(yīng)用的要求。幀間差分法[6]采用相鄰幀的對(duì)應(yīng)像素相減來(lái)揭示連續(xù)幀的變化,方法簡(jiǎn)單快速,但由于幀差法不能有效記錄背景的歷史信息,使得檢測(cè)結(jié)果往往過(guò)于粗糙。背景減除法[7,8]通過(guò)一定規(guī)則建立背景模型,采用幀間相減和更新背景的方法獲得檢測(cè)結(jié)果,其最具有代表性的是混合高斯模型法(Gaussians mixture model, GMM)[9]。該模型利用多個(gè)高斯模型描述像素點(diǎn)狀態(tài),能夠較好地適應(yīng)場(chǎng)景變化。為改善場(chǎng)景變化(水面波動(dòng)、樹葉搖擺等)對(duì)檢測(cè)效果的影響,不少學(xué)者深入研究了GMM方法并提出了相應(yīng)的改進(jìn)方法[10,11]。對(duì)于大氣湍流條件下的視頻,其整個(gè)場(chǎng)景從單幀來(lái)看存在成像模糊和像素偏移,從連續(xù)幀來(lái)看呈現(xiàn)出輕微抖動(dòng)[12,13]。這些因素會(huì)干擾場(chǎng)景中目標(biāo)的運(yùn)動(dòng)檢測(cè),導(dǎo)致單純的前景檢測(cè)或背景減除方法無(wú)法清晰地定位運(yùn)動(dòng)物體。傳統(tǒng)的背景建模方法不能完美地描述湍流背景,導(dǎo)致場(chǎng)景中物體識(shí)別十分困難。
近年來(lái),數(shù)據(jù)的低秩稀疏建模成為研究熱點(diǎn),目前已被成功應(yīng)用于語(yǔ)音增強(qiáng)[14]、立體重建[15]以及圖像/視頻恢復(fù)[16,17]等。Oreifej等[18]通過(guò)尋找湍流圖像中的低秩結(jié)構(gòu),提出了一種低秩稀疏三分解的小目標(biāo)檢測(cè)法:首先計(jì)算圖像中小區(qū)域內(nèi)像素(如16×16)的運(yùn)動(dòng)軌跡,再根據(jù)湍流和目標(biāo)的運(yùn)動(dòng)分布不同,設(shè)置目標(biāo)置信度量,引入低秩分解和稀疏建模思想,將數(shù)據(jù)分為背景、湍流和小目標(biāo)3部分。該方法對(duì)小目標(biāo)檢測(cè)精度非常高,但用于非小目標(biāo)檢測(cè)時(shí),結(jié)果往往存在大量空洞,且基于光流的粒子軌跡計(jì)算復(fù)雜、耗時(shí)久。本文以湍流條件下的紅外視頻為研究對(duì)象,結(jié)合低秩分解和高斯建模思想及前景和背景檢測(cè),提出了一種適應(yīng)物體運(yùn)動(dòng)狀態(tài)變化的目標(biāo)檢測(cè)算法, 提高了湍流退化條件下物體檢測(cè)的精度,在光照變化和模糊條件下仍能獲得較好的檢測(cè)結(jié)果。
低秩稀疏分解模型(Low-rank and sparse decomposition, LRSD)考慮的是如何從較大但分布稀疏的誤差中恢復(fù)出數(shù)據(jù)的低秩結(jié)構(gòu)的問(wèn)題,其基本思想是將一個(gè)矩陣分解為一個(gè)低秩結(jié)構(gòu)的低秩矩陣部分和一個(gè)隨機(jī)分布的誤差稀疏矩陣部分[19]。低秩分解模型符合現(xiàn)實(shí)中很多物理模型和現(xiàn)象,相關(guān)理論也證明了模型求解的有效性。
對(duì)于湍流序列圖像{I1,I2,…,In},圖像分辨率為w×h,將每幀圖像排列為一個(gè)(w×h)×1列向量,記為vec(Ii),i=1,…,N,則整個(gè)序列組成的矩陣可表示為D={vec(I1),…,vec(In)}∈R(w×h)×n。相關(guān)研究指出,大氣湍流波動(dòng)具有單峰性、對(duì)稱性和局部重復(fù)性,且湍流引起的序列局部像素偏移符合零均值高斯分布的特點(diǎn)[13,18]。因此,湍流分量可以采用Frobenius范數(shù)表示。湍流序列的低秩分解表示為
(1)
(2)
在拉格朗日乘子算法的框架下,式(2)可轉(zhuǎn)化為
(3)
式中:Y∈RM×T是拉格朗日乘子,tr(·)表示矩陣的跡。μ是懲罰因子,通常設(shè)與輸入數(shù)據(jù)維數(shù)逆相關(guān),設(shè)為μ=2 000/sqrt(size(D,1))。目前已有一些算法實(shí)現(xiàn)了對(duì)式(3)的求解,如加速近似梯度法(Ac-celerated proximal gradient, APG),Bregman迭代算法、精確增廣拉格朗日乘子法(Augmented Lagrange multiple, ALM)和非精確增廣拉格朗日乘子算法(Inexact augmented Lagrange multiple, IALM)等。
經(jīng)過(guò)分解,獲得低秩穩(wěn)像部分和稀疏運(yùn)動(dòng)部分如圖1所示,穩(wěn)像部分主要包括背景和部分運(yùn)動(dòng)目標(biāo)像素,稀疏部分為受湍流影響的運(yùn)動(dòng)像素和隨機(jī)噪聲。為了準(zhǔn)確定位運(yùn)動(dòng)目標(biāo),則需采用不同方法分別對(duì)兩部分進(jìn)行檢測(cè)。
對(duì)于每幀的稀疏部分(記為pi)采用自適應(yīng)閾值分割圖像,以剔除細(xì)微偏移量和噪聲的干擾。閾值Ti與稀疏部分的灰度均值有關(guān),設(shè)為
Ti=max(αmedian(pi),ε)
(4)
式中:median(·)為向量均值函數(shù),α和ε為常量。每幀稀疏部分的像素值大于閾值為前景。稀疏塊分割后的前景目標(biāo)區(qū)域會(huì)在一定程度上存在內(nèi)部空洞,即目標(biāo)區(qū)域的提取有漏檢現(xiàn)象。鑒于此,需進(jìn)一步對(duì)提取出標(biāo)定為前景運(yùn)動(dòng)目標(biāo)的稀疏塊掩模區(qū)域進(jìn)行空洞檢測(cè)和填充。
由于稀疏塊掩模為二值型數(shù)據(jù),對(duì)于目標(biāo)區(qū)域內(nèi)的空洞可以通過(guò)8連通區(qū)域檢測(cè);然后填充空洞區(qū)域以恢復(fù)目標(biāo)區(qū)域的掩模,以完成提取完整運(yùn)動(dòng)目標(biāo)的效果。整個(gè)提取過(guò)程如圖2所示,可以看出填充后丟失的目標(biāo)域得到了較好的修復(fù)。
圖2 稀疏部分的目標(biāo)提取
在背景減除法中,選擇合適的背景模型和更新策略對(duì)檢測(cè)的影響十分重要。其中,混合高斯模型能夠處理動(dòng)態(tài)背景的情況,但是計(jì)算量大,實(shí)時(shí)性較差;單高斯模型計(jì)算量小,實(shí)時(shí)性好??紤]到低秩部分以靜態(tài)場(chǎng)景為主,局部區(qū)域可能存在動(dòng)態(tài)量,因此采用混合高斯模型和單高斯模型結(jié)合的方法對(duì)低秩部分進(jìn)行目標(biāo)檢測(cè)。
2.2.1 混合高斯背景模型
K個(gè)高斯分布生成背景模型,將每幀新的像素值It(x,y)與K個(gè)分布依次進(jìn)行匹配。若滿足式(5)中條件,說(shuō)明與第i個(gè)分布匹配,被認(rèn)定為背景點(diǎn),否則認(rèn)定為前景點(diǎn)。第t幀中像素點(diǎn)(x,y)為前景的布爾值記為fGMM(x,y,t),有
(5)
其中μi,t,σi,t分別是第i個(gè)高斯分布的均值和標(biāo)準(zhǔn)差。
2.2.2 單高斯前景模型
受亮度變化干擾,混合高斯檢測(cè)結(jié)果中可能存在偽前景,單高斯前景模型則用來(lái)區(qū)分靜態(tài)前景和偽前景。將該區(qū)域的像素點(diǎn)與單高斯模型匹配,若滿足閾值則判定該點(diǎn)為靜態(tài)前景點(diǎn),記為fstatic。若不滿足則亦判定為干擾部分。即
(6)
式中:μt,σt分別為當(dāng)前高斯分布的均值和標(biāo)準(zhǔn)差,Tf為前景閾值。
2.2.3 模型初始化和更新策略
利用初始一段時(shí)間內(nèi)視頻幀的低秩部分,建立高斯數(shù)為K的混合高斯背景模型。同時(shí)初始化前景模型為空。更新時(shí),采用保守更新策略,即混合高斯分布的參數(shù)更新時(shí)僅涉及背景區(qū)域像素,有
μt=(1-α)Mμt-1+αMIt
(7)
(8)
ωi,t=(1-α)ωi,t-1+αM
(9)
式中:α為權(quán)值的學(xué)習(xí)速率;M為背景掩膜,在背景匹配的區(qū)域內(nèi)取1,其余取0。
基于閾值分割的目標(biāo)提取計(jì)算簡(jiǎn)單,但由于分割是在稀疏部分基礎(chǔ)上進(jìn)行,受到湍流運(yùn)動(dòng)的稀疏性影響,容易存在誤檢測(cè)問(wèn)題;基于背景減除的前景檢測(cè)法能夠獲得空間連續(xù)的結(jié)果,但對(duì)噪聲敏感。為獲得更準(zhǔn)確、更完整的目標(biāo)區(qū)域,對(duì)兩部分檢測(cè)區(qū)域進(jìn)行融合判定。將2.1節(jié)中結(jié)果記作fT(x,y,t),表示第t幀(x,y)處為前景的布爾值;將2.2節(jié)中混合高斯檢測(cè)結(jié)果記作fGMM(x,y,t),采用融合規(guī)則對(duì)檢測(cè)結(jié)果進(jìn)行判定。具體如下。
(1) 同時(shí)被稀疏的閾值分割和低秩的GMM背景減除而提取的前景區(qū)域,判定為運(yùn)動(dòng)目標(biāo),并記為fmoving,即
(10)
(2) 稀疏閾值分割檢測(cè)為前景,但低秩背景減除檢測(cè)為背景的區(qū)域,往往是稀疏的湍流和噪聲量,判定為干擾部分。
(3) 對(duì)于混合高斯減除判定為前景,但稀疏閾值檢測(cè)為非前景,此類區(qū)域可能是運(yùn)動(dòng)狀態(tài)發(fā)生改變(如暫時(shí)停止或由于運(yùn)動(dòng)而露出的背景),屬于疑似前景,記為famb。對(duì)疑似區(qū)域進(jìn)行前景判定,式(6)改寫為
(11)
圖3 融合分裂高斯建模和稀疏閾值的前景檢測(cè) Fig.3 Fusion of split Gaussian models and threshold segmentation
式中Tf用于決定前景的閾值。為使最終獲得的目標(biāo)盡量無(wú)噪點(diǎn)干擾,在不影響查全率的前提下對(duì)處理后的結(jié)果作適當(dāng)?shù)膮^(qū)域?yàn)V波。圖3為一幀圖像融合判定的全過(guò)程。最終判定該輸入幀中有一行駛車輛(運(yùn)動(dòng)目標(biāo))和湍流噪聲干擾,不存在靜態(tài)目標(biāo)。
為驗(yàn)證本文方法的有效性,在軟硬件環(huán)境為雙Pentium(R) Dual-Core 2.1 GHz CPU,RAM 8 GB,Matlab 2010a的條件下編程實(shí)驗(yàn)。實(shí)驗(yàn)數(shù)據(jù)選取3組遠(yuǎn)距離拍攝(5~15 km)的紅外湍流退化圖像,每幀分辨率均為360×240,不同序列涵蓋了目標(biāo)提取的不同情況,具體如下:
序列1:序列共2 200幀,記錄了道路上車輛和行人通行的情景。其中出現(xiàn)多輛大小不等的車輛,存在車輛遮擋、快速行駛等現(xiàn)象。
序列2:序列共1 300幀,記錄了山林中車輛行駛的場(chǎng)景。其中存在一車輛減速行駛,在第300幀到380幀時(shí)呈靜止態(tài),后緩慢加速至駛離場(chǎng)景的情況。
序列3:序列共1 200幀,記錄了單個(gè)船只在河流中直線行駛的場(chǎng)景。受較強(qiáng)大氣湍流影響,視頻序列全程場(chǎng)景呈現(xiàn)嚴(yán)重模糊和連續(xù)抖動(dòng)。此外,背景中部分水域隨時(shí)間推移發(fā)生灰度緩慢變化。
在相同實(shí)驗(yàn)環(huán)境下,選取改進(jìn)的混合高斯建模法[12]、低秩稀疏三分解法(Low-rank and sparse three-term decomposition, LRSD Three-term)[18]和近期最具競(jìng)爭(zhēng)力的SuBSENSE法[21]與本文方法進(jìn)行對(duì)比。為獲得盡可能穩(wěn)定的場(chǎng)景和完整的目標(biāo),避免過(guò)度平滑,本文方法在分解時(shí)按經(jīng)驗(yàn)設(shè)置正則參數(shù)。考慮到湍流強(qiáng)度的不同,序列1和序列2中正則參數(shù)γ設(shè)為20,序列3中設(shè)為5.0。采用IALM法求解低秩模型,設(shè)迭代允許誤差ε=10-3,最大迭代次數(shù)為1 000。混合高斯模型的學(xué)習(xí)速率根據(jù)經(jīng)驗(yàn)值設(shè)為0.004。為以適應(yīng)快速變化的前景,單高斯模型的學(xué)習(xí)速率設(shè)置較高值,其他算法均默認(rèn)其參數(shù)設(shè)置。鑒于頁(yè)面所限,每組序列僅列出部分幀和對(duì)應(yīng)的ground-truth,各算法的檢測(cè)結(jié)果如圖4~6所示。
圖4 序列1中目標(biāo)檢測(cè)的實(shí)驗(yàn)結(jié)果對(duì)比Fig.4 Object detection results on sample frames from Sequence 1
在輕微湍流情況下(圖4和圖5),由于湍流的存在使整個(gè)場(chǎng)景呈現(xiàn)不規(guī)則抖動(dòng),GMM初始化背景模型時(shí)選擇的是初始一段時(shí)間內(nèi)的連續(xù)幀,使得背景建模不能適應(yīng)整體抖動(dòng),提取的前景中包含有許多受湍流偏移干擾的微小區(qū)域,如圖4(c)。對(duì)于初始就存在運(yùn)動(dòng)目標(biāo)的情況,目標(biāo)駛離使得原位置中被暴露的背景被誤檢為目標(biāo),如圖5(c)。隨著背景模型的適應(yīng)更新,誤檢區(qū)域逐漸消失,改進(jìn)GMM方法能夠較好地實(shí)現(xiàn)目標(biāo)主要區(qū)域的檢測(cè)。LRSD Three-term法通過(guò)計(jì)算湍流運(yùn)動(dòng)和直線運(yùn)動(dòng)的不同分布,設(shè)置置信度閾值來(lái)提取目標(biāo)區(qū)域,在小目標(biāo)檢測(cè)時(shí)能獲得較好的結(jié)果,如圖5(d);當(dāng)目標(biāo)較大時(shí)極易出現(xiàn)空洞和漏檢,如圖4(d)。在背景變化比較平穩(wěn)時(shí),SuBSENSE法能夠精準(zhǔn)地提取目標(biāo)區(qū)域,如圖4(e)和圖5(e)。本文方法通過(guò)低秩分解并融合背景減除和前景稀疏的特點(diǎn),能夠去除湍流抖動(dòng)所產(chǎn)生的干擾,同時(shí)需要注意,由于采用稀疏的閾值分割和融合的“并”規(guī)則,不能足夠精確區(qū)分與背景灰度相似的前景區(qū)域,使得檢測(cè)結(jié)果中發(fā)生了部分漏檢的現(xiàn)象,如圖4(f)中道路和小車底部區(qū)域較為相似而出現(xiàn)漏檢。
圖6所處的遠(yuǎn)距離場(chǎng)景受強(qiáng)湍流影響,且右方一塊水域亮度隨時(shí)間推移發(fā)生變化,導(dǎo)致GMM法在背景減除時(shí)結(jié)果出現(xiàn)較大誤差。低秩三分解法在強(qiáng)湍流下幾乎不能檢測(cè)出目標(biāo)。SuBSENSE法和本文方法對(duì)于模糊圖像有較強(qiáng)的適應(yīng)能力,雖存在少量誤檢,檢測(cè)結(jié)果仍接近ground-truth。
圖5 序列2中目標(biāo)檢測(cè)的實(shí)驗(yàn)結(jié)果對(duì)比Fig.5 Object detection results on sample frames from Sequence 2
圖6 序列3中目標(biāo)檢測(cè)的實(shí)驗(yàn)結(jié)果對(duì)比Fig.6 Object detection results on sample frames from Sequence 3
為更清晰地對(duì)比4種算法的檢測(cè)性能,文中分別統(tǒng)計(jì)了每組序列中被正確標(biāo)記的前景像素點(diǎn)數(shù)(True positive, TP)、被正確標(biāo)記的背景像素點(diǎn)數(shù)(True negative, TN)、被錯(cuò)誤標(biāo)記為前景的背景像素點(diǎn)數(shù)(False positive, FP)和被錯(cuò)誤標(biāo)記為背景的前景像素點(diǎn)數(shù)(False negative, FN)。選取誤檢率(False positive rate, FPR)、漏檢率(False negative rate, FNR)和F-measure來(lái)衡量目標(biāo)區(qū)域提取效果的優(yōu)劣。
式中:Recall和Precision分別為查全率和查準(zhǔn)率;F-measure是這兩者的調(diào)和平均,用于綜合反映整體性能。
表1給出了不同算法檢測(cè)性能的對(duì)比結(jié)果。由表1可以看出,對(duì)于序列1和序列2,SuBSENSE法和本文方法得到的誤檢率明顯低于GMM方法和LRSD Three-Term方法。改進(jìn)GMM方法的漏檢率較低,但誤檢率也遠(yuǎn)遠(yuǎn)高于其他算法,目標(biāo)提取的精準(zhǔn)程度一般。對(duì)于序列3而言,本文方法取得了較低的誤檢率和較高的F-Measure值,目標(biāo)提取的性能優(yōu)于其他3種方法。本文方法不僅可以較好地去除湍流的偏移抖動(dòng)對(duì)背景減除帶來(lái)的干擾,而且能很好地解決LRSD Three-Term方法提取較大目標(biāo)時(shí)漏檢率高的問(wèn)題。實(shí)驗(yàn)證明了本文方法的有效性。
表1 不同方法檢測(cè)結(jié)果的性能對(duì)比
本文針對(duì)湍流退化序列圖像中目標(biāo)檢測(cè)的問(wèn)題,提出了一種基于低秩分解和檢測(cè)融合的目標(biāo)提取方法。首先,采用低秩矩陣描述法將圖像分解為低秩穩(wěn)像和稀疏運(yùn)動(dòng)兩部分,初步實(shí)現(xiàn)場(chǎng)景和湍流運(yùn)動(dòng)的粗分離;然后,對(duì)稀疏部分引入自適應(yīng)閾值法剔除干擾量,分割目標(biāo)并填補(bǔ)其中空洞;并對(duì)低秩部分采用高斯建模獲得低秩中的前景區(qū)域;最后,對(duì)兩部分檢測(cè)結(jié)果聯(lián)合判定以獲得準(zhǔn)確的目標(biāo)檢測(cè)結(jié)果。該方法有以下特點(diǎn):(1)采用低秩稀疏描述對(duì)湍流序列建模,可將穩(wěn)像場(chǎng)景和稀疏運(yùn)動(dòng)區(qū)分開。(2)較之傳統(tǒng)的檢測(cè)方法,本文算法在分解時(shí)的時(shí)間消耗較短。此外,通過(guò)聯(lián)合決策提取準(zhǔn)確的目標(biāo)區(qū)域,最終檢測(cè)的準(zhǔn)確率較其他方法提高明顯。實(shí)驗(yàn)結(jié)果證明了本文方法的有效性和優(yōu)越性。如何從動(dòng)態(tài)場(chǎng)景中準(zhǔn)確提取目標(biāo)物體,并對(duì)其進(jìn)行跟蹤和識(shí)別是下一步研究的重難點(diǎn)。
參考文獻(xiàn):
[1] 殷興良.氣動(dòng)光學(xué)原理[M].北京: 中國(guó)宇航出版社,2003:169-173.
Yin Xingliang. Principle of aero-optics[M]. Beijing: China Astronautics Press, 2003:169-173.
[2] Roggemann M C, Welsh B M, Hunt B R. Imaging through turbulence[M]. Boca Raton: CRC Press, 1996.
[3] Brox T, Malik J. Large displacement optical flow: Descriptor matching in variational motion estimation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(3): 500-513.
[4] 儲(chǔ)林臻, 閆鈞華, 杭誼青, 等. 基于改進(jìn)光流法的旋轉(zhuǎn)運(yùn)動(dòng)背景下對(duì)地運(yùn)動(dòng)目標(biāo)實(shí)時(shí)檢測(cè)[J]. 數(shù)據(jù)采集與處理, 2015,30(6): 1325-1331.
Chu Linzhen, Yan Junhua, Hang Yiqing, et al. Real-time ground moving object detection in rotational background based on improved optical flow method[J]. Journal of Data Acquisition and Processing, 2015,30(6): 1325-1331.
[5] Bunyak F, Palaniappan K, Nath S K, et al. Flux tensor constrained geodesic active contours with sensor fusion for persistent object tracking[J]. Journal of Multimedia, 2007, 2(4): 20.
[6] Lipton A, Kanade T, Fujiyoshi H, et al. A system for video surveillance and monitoring[M]. Pittsburg: Carnegie Mellon University, the Robotics Institute, 2000.
[7] Brutzer S, H?ferlin B, Heidemann G. Evaluation of background subtraction techniques for video surveillance[C]// IEEE Conference on Computer Vision and Pattern Recognition. Florida: IEEE, 2011: 1937-1944.
[8] Sobral A, Vacavant A. A comprehensive review of background subtraction algorithms evaluated with synthetic and real videos[J]. Computer Vision and Image Understanding, 2014, 122: 4-21.
[9] Stauffer C, Grimson W E L. Adaptive background mixture models for real-time tracking[C]// IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Fort Collins: IEEE, 1999, 2:246-252.
[10] Zivkovic Z, van der Heijden F. Efficient adaptive density estimation per image pixel for the task of background subtraction[J]. Pattern Recognition Letters, 2006, 27(7):773-780.
[11] Chen Z, Ellis T. A self-adaptive Gaussian mixture model[J]. Computer Vision and Image Understanding, 2014,122: 35-46.
[12] Gal R, Kiryati N, Sochen N. Progress in the restoration of image sequences degraded by atmospheric turbulence[J]. Pattern Recognition Letters, 2014, 48: 8-14.
[13] 盧曉芬,張?zhí)煨?,洪漢玉. 氣動(dòng)光學(xué)效應(yīng)像素偏移圖像校正方法研究[J].紅外與激光工程, 2007,36(5):758-761.
Lu Xiaofen, Zhang Tianxu, Hong Hanyu. Image correction method with pixel deviation caused by aero-optics effects[J]. Infrared and Laser Engineering, 2007,36(5):758-761.
[14] 李軼南,賈沖,楊吉斌,等. 稀疏低秩模型下的單通道自學(xué)習(xí)語(yǔ)音增強(qiáng)算法[J]. 數(shù)據(jù)采集與處理, 2014,29(2):286-292.
Li Yinan, Jia Chong, Yang Jibin, et al. Self-learning approach for monaural speech enhancement based on sparse and low-rank matrix decomposition[J]. Journal of Data Acquisition and Processing, 2014,29(2):286-292.
[15] Ma R, Barzigar N, Roozgard A, et al. Decomposition approach for low-rank matrix completion and its applications[J]. IEEE Transactions on Signal Processing, 2014, 62(7): 1671-1683.
[16] Ji H, Huang S, Shen Z, et al. Robust video restoration by joint sparse and low rank matrix approximation[J]. SIAM Journal on Imaging Sciences, 2011, 4(4): 1122-1142.
[17] 何玉杰, 李敏, 張金利, 等. 基于低秩三分解的紅外圖像雜波抑制[J]. 光學(xué)精密工程, 2015,23(7): 2069-2078.
He Yujie, Li Min, Zhang Jinli, et al. Clutter suppression of infrared image based on three-component low-rank matrix decomposition[J]. Optics and Precision Engineering, 2015,23(7): 2069-2078.
[18] Oreifej O, Li X, Shah M. Simultaneous video stabilization and moving object detection in turbulence[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(2):450-462.
[19] Candès E J, Li X, Ma Y, et al. Robust principal component analysis[J]. Journal of the ACM, 2011, 58(3): 11.
[20] 張姣, 李俊山, 李成, 等. 低秩稀疏分解下的湍流退化圖像序列盲去卷積算法[J]. 光電子·激光, 2015, 26(7):1373-1379.
Zhang Jiao, Li Junshan, Li Cheng, et al. A multi-frame blind deconvolution algorithm based on low-rank decomposition for turbulence-degraded images[J]. Journal of Optoelectronics Laser, 2015, 26(7):1373-1379.
[21] St-Charles P L, Bilodeau G A, Bergevin R. SuBSENSE: A universal change detection method with local adaptive sensitivity[J]. IEEE Transactions on Image Processing, 2015, 24(1): 359-373.