国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

結(jié)合特征篩選與二次定位的快速壓縮跟蹤算法

2016-11-04 07:59:08耿磊王學(xué)彬肖志濤張芳吳駿李月龍蘇靜靜
自動(dòng)化學(xué)報(bào) 2016年9期
關(guān)鍵詞:分類器分類樣本

耿磊 王學(xué)彬 肖志濤 張芳 吳駿 李月龍 蘇靜靜

結(jié)合特征篩選與二次定位的快速壓縮跟蹤算法

耿磊1,2王學(xué)彬1肖志濤1,2張芳1,2吳駿1,2李月龍2蘇靜靜1

針對(duì)壓縮跟蹤算法易受遮擋影響和模型更新比較盲目的問(wèn)題,提出結(jié)合特征篩選與二次定位的快速壓縮跟蹤算法(Fast compressive tracking algorithm combining feature selection with secondary localization,F(xiàn)SSL-CT).首先,對(duì)全局區(qū)域劃分子區(qū)域,從中提取壓縮特征,根據(jù)正、負(fù)樣本估計(jì)出各個(gè)壓縮特征在正、負(fù)類中的分布;然后,使用自適應(yīng)學(xué)習(xí)率結(jié)合正類更新閾值對(duì)分類器模型進(jìn)行更新;最后,將跟蹤分為兩個(gè)階段,每個(gè)階段在對(duì)應(yīng)的搜索區(qū)域內(nèi)采集候選樣本,并從全部特征中篩選出部分優(yōu)質(zhì)特征加權(quán)構(gòu)建分類器,通過(guò)分類候選樣本最終完成目標(biāo)跟蹤.在8個(gè)公共測(cè)試序列和4個(gè)自制序列中與最近提出的兩個(gè)代表性算法進(jìn)行比較,本文算法在大多數(shù)測(cè)試序列中都具有最高的跟蹤成功率和最低的平均中心誤差,平均處理速度可以達(dá)到3.04毫秒/幀.實(shí)驗(yàn)結(jié)果表明,本文算法具有更好的抵抗短時(shí)遮擋的能力,更高的準(zhǔn)確性和魯棒性,以及良好的實(shí)時(shí)性.

壓縮跟蹤,特征篩選,二次定位,分布差異,自適應(yīng)更新

引用格式耿磊,王學(xué)彬,肖志濤,張芳,吳駿,李月龍,蘇靜靜.結(jié)合特征篩選與二次定位的快速壓縮跟蹤算法.自動(dòng)化學(xué)報(bào),2016,42(9):1421-1431

目標(biāo)跟蹤在計(jì)算機(jī)視覺(jué)領(lǐng)域有著重要的地位和廣泛的應(yīng)用,如人機(jī)交互、智能安全監(jiān)控、視覺(jué)導(dǎo)航、軍事制導(dǎo)等,是近年來(lái)的熱點(diǎn)研究問(wèn)題.傳統(tǒng)的目標(biāo)跟蹤方法中,Comaniciu等[1]提出的MeanShift算法,利用顏色直方圖將目標(biāo)跟蹤問(wèn)題轉(zhuǎn)化為一個(gè)模式匹配尋優(yōu)問(wèn)題,但該算法對(duì)顏色變化敏感,而且無(wú)法實(shí)現(xiàn)運(yùn)動(dòng)幅度較大的目標(biāo)跟蹤.因此,Bradski提出CamShift算法[2],有效克服了MeanShift算法的不足,而且在目標(biāo)尺寸發(fā)生變化時(shí),能夠自適應(yīng)地調(diào)整跟蹤區(qū)域,對(duì)目標(biāo)的形狀變化有一定的適應(yīng)能力,在簡(jiǎn)單背景下對(duì)單目標(biāo)的跟蹤效果較好,但當(dāng)目標(biāo)與背景顏色相近時(shí),跟蹤效果會(huì)變差.Kalman濾波[3]是一種最優(yōu)化自回歸數(shù)據(jù)處理算法,廣泛應(yīng)用于線性系統(tǒng)中目標(biāo)的預(yù)測(cè),但如果模型是非線性的,噪聲是非高斯白噪聲,Kalman濾波方法將不再適用.粒子濾波[4]也是一種廣為應(yīng)用的跟蹤算法,可以很好地應(yīng)用于非線性、非高斯模型,但容易受粒子退化現(xiàn)象的影響.王智靈等[5]利用蛙眼視覺(jué)特性提出了一種模糊化區(qū)域理解的運(yùn)動(dòng)目標(biāo)跟蹤方法,該方法利用蛙眼視覺(jué)認(rèn)知的生理特性和外部特性,設(shè)計(jì)了一種模糊化區(qū)域理解的運(yùn)動(dòng)目標(biāo)跟蹤方法,在復(fù)雜背景下取得了良好的跟蹤效果,對(duì)目標(biāo)外觀突變的魯棒性較好.李智勇等[6]基于蛙眼R3細(xì)胞感受野模型提出了一種運(yùn)動(dòng)濾波方法,利用蛙眼對(duì)目標(biāo)清晰而對(duì)背景模糊的特性建立數(shù)學(xué)模型,對(duì)運(yùn)動(dòng)目標(biāo)跟蹤效果良好.劉偉峰等[7]提出了一種基于隨機(jī)采樣的多量測(cè)目標(biāo)跟蹤算法,該算法通過(guò)建立目標(biāo)形狀的剛體參數(shù)模型,提出采用參數(shù)馬爾科夫鏈采樣的方法估計(jì)目標(biāo)的形狀參數(shù),并采用等效量測(cè)方法,獲得目標(biāo)形心點(diǎn)的運(yùn)動(dòng)狀態(tài).針對(duì)目標(biāo)個(gè)數(shù)未知情況,在形狀目標(biāo)量測(cè)滿足泊松分布假設(shè)條件下,采用泊松強(qiáng)度比方法獲得目標(biāo)的個(gè)數(shù)估計(jì).該方法在目標(biāo)運(yùn)動(dòng)狀態(tài)估計(jì)方面能夠獲得比較高的估計(jì)精度,目標(biāo)形狀估計(jì)能夠比較穩(wěn)定精確地估計(jì)目標(biāo)形狀的變化,但當(dāng)目標(biāo)量測(cè)個(gè)數(shù)較少時(shí),所獲量測(cè)很難反映目標(biāo)的形狀.

基于檢測(cè)的跟蹤方法是目前的研究熱點(diǎn),這類方法將目標(biāo)跟蹤歸結(jié)為一個(gè)二元分類問(wèn)題[8],兩類分別為目標(biāo)類和背景類,跟蹤是通過(guò)用分類器從背景中檢測(cè)出目標(biāo)來(lái)實(shí)現(xiàn)的.Yang等[9]提出了一種基于超像素的跟蹤算法,該算法根據(jù)從超像素中提取的結(jié)構(gòu)信息有效建模,來(lái)應(yīng)對(duì)目標(biāo)尺寸變化、運(yùn)動(dòng)、形變和遮擋等具有挑戰(zhàn)性的問(wèn)題,實(shí)驗(yàn)表明該算法能夠抵抗嚴(yán)重遮擋,并在漂移后重新定位目標(biāo).但該算法使用了簡(jiǎn)單的HSI顏色特征,可以尋求更好的特征提高算法性能.Collins等[10]提出一種基于AdaBoost的在線特征選擇方法,利用在線選擇器選擇最優(yōu)的顏色特征,再用一個(gè)正采樣及少量負(fù)采樣來(lái)更新分類器,最后達(dá)到改善跟蹤效果的目的.但該方法是一種自學(xué)習(xí)方法,分類器很容易受到噪聲的影響,而且上一幀的跟蹤結(jié)果會(huì)直接影響到后續(xù)處理,容易因累積誤差而導(dǎo)致跟蹤漂移.Babenko等[11]提出了多示例學(xué)習(xí)跟蹤算法,該算法的訓(xùn)練樣本以樣本包的形式出現(xiàn),把有歧義的所有正樣本和負(fù)樣本放入包中,樣本的標(biāo)簽賦給樣本包,并學(xué)習(xí)鑒別模型,可以實(shí)時(shí)地訓(xùn)練具有判決性的分類器,分離前景與背景.當(dāng)目標(biāo)被遮擋或者跟蹤出現(xiàn)誤差時(shí),可以通過(guò)在線學(xué)習(xí)在正樣本包中找到較準(zhǔn)確的正樣本來(lái)更新分類器.但是,該算法的自適應(yīng)外觀模型都是數(shù)據(jù)依賴的,而在學(xué)習(xí)開始時(shí),并沒(méi)有充足的數(shù)據(jù)提供給在線算法,而且如果目標(biāo)發(fā)生嚴(yán)重遮擋,分類器更新時(shí)仍然會(huì)受到遮擋區(qū)域的影響,最終因誤差積累而導(dǎo)致跟蹤漂移.

目前,稀疏表示已經(jīng)成功應(yīng)用在目標(biāo)跟蹤領(lǐng)域.Zhang等[12]在粒子濾波框架下提出魯棒的多任務(wù)稀疏學(xué)習(xí)跟蹤算法,將每個(gè)粒子的學(xué)習(xí)作為一個(gè)單獨(dú)的任務(wù),對(duì)嚴(yán)重遮擋、劇烈的光照變化和姿態(tài)變化有很好的跟蹤效果.Zhong等[13]利用全局模板和局部特征建立稀疏協(xié)同模型,能夠有效地處理外觀變化引起的跟蹤漂移.Wang等[14]利用PCA(Principal component analysis)結(jié)合稀疏表示提出一種稀疏模型,為了削弱跟蹤漂移,在模型更新時(shí)將遮擋和運(yùn)動(dòng)模糊因素考慮其中.

Zhang等[15]提出了一種基于壓縮感知理論的實(shí)時(shí)壓縮跟蹤(Compressive tracking,CT)算法,該算法利用壓縮感知理論提取目標(biāo)特征,用在線更新的樸素貝葉斯分類器對(duì)目標(biāo)和背景分類,實(shí)現(xiàn)了對(duì)目標(biāo)的快速跟蹤.但該算法存在一些缺陷.

首先,壓縮特征的隨機(jī)性較強(qiáng),影響分類器的分類準(zhǔn)確性.為此,石武禎等[16]根據(jù)特征的正負(fù)類條件概率分布的距離,選擇能有效區(qū)分目標(biāo)與背景的特征,構(gòu)建出更加穩(wěn)定的分類器.毛征等[17]對(duì)樣本劃分子區(qū)域,并從中選取置信度高的特征構(gòu)建分類器,提高分類準(zhǔn)確性.

其次,壓縮特征的分布使用固定學(xué)習(xí)率進(jìn)行更新,比較盲目,容易引入噪聲,影響抗遮擋性能.鐘權(quán)等[18]對(duì)相鄰兩幀之間目標(biāo)的直方圖進(jìn)行相似性度量,根據(jù)相似度動(dòng)態(tài)調(diào)整學(xué)習(xí)率,但更新參數(shù)時(shí)目標(biāo)和背景采用相同的學(xué)習(xí)率,用目標(biāo)的變化來(lái)調(diào)整背景的學(xué)習(xí)率,顯然會(huì)影響背景模型對(duì)背景的準(zhǔn)確表達(dá).羅會(huì)蘭等[19]做了進(jìn)一步改進(jìn),采用一種非線性的雙S形函數(shù)作為學(xué)習(xí)率,對(duì)目標(biāo)和背景的每個(gè)特征,自適應(yīng)調(diào)節(jié)其分布更新時(shí)學(xué)習(xí)速率的大小,當(dāng)分類器分類錯(cuò)誤時(shí),可以迅速降低學(xué)習(xí)當(dāng)前幀特征分布的速率,防止噪聲對(duì)分類準(zhǔn)確性的影響.這種方法雖然在目標(biāo)發(fā)生較大變化時(shí)迅速降低了其分布模型的更新速率,但仍然會(huì)更新,使分布模型隨遮擋時(shí)間的長(zhǎng)短引入不同程度的噪聲,影響分類結(jié)果.而且對(duì)于背景變化較大的情況,應(yīng)該提高而不是降低當(dāng)前幀分布模型的更新速率,使其能夠時(shí)刻反映真實(shí)的背景分布.

最后,跟蹤階段用分類器檢測(cè)采樣區(qū)域內(nèi)的所有樣本,計(jì)算量較大.Zhang等[20]將跟蹤分為兩個(gè)階段,每個(gè)階段用不同的采樣間隔在不同大小的采樣區(qū)域內(nèi)采集樣本,以減少計(jì)算量.而鐘權(quán)等[18]則是采集采樣區(qū)域的所有樣本,先隨機(jī)選取1/5特征構(gòu)建分類器,篩選出1/3的候選樣本,再用全部特征構(gòu)建分類器,通過(guò)檢測(cè)篩選出的1/3候選樣本得到跟蹤目標(biāo).兩篇文獻(xiàn)都采用了粗精跟蹤的策略,但在構(gòu)建分類器時(shí),并不是所有的壓縮特征都具有較好的區(qū)分正、負(fù)樣本的效果,如果將分類效果差的特征也加入分類器中,會(huì)對(duì)分類造成不良影響.

針對(duì)二元分類的單目標(biāo)跟蹤問(wèn)題,本文提出一種結(jié)合特征篩選與二次定位的快速壓縮跟蹤算法(Fast compressive tracking algorithm combining feature selection with secondary localization,F(xiàn)SSL-CT).采用劃分子區(qū)域的方法分散特征,提高抗遮擋性能.對(duì)正、負(fù)類中的特征分布,用自適應(yīng)學(xué)習(xí)率更新,使更新后的分布更能反映正、負(fù)類中特征的真實(shí)分布,保證分類器分類的準(zhǔn)確性.在更新正類中特征的分布時(shí)設(shè)定更新閾值,當(dāng)兩幀間的特征分布變化較大時(shí)不做更新,徹底避免噪聲被引入,保證被遮擋的目標(biāo)重新出現(xiàn)后,分類器能對(duì)其重新正確定位.在跟蹤的不同階段,采用不同的采樣半徑和采樣間隔采集樣本,從所有特征中篩選出不同數(shù)量的優(yōu)質(zhì)特征加權(quán)構(gòu)建分類器,以有效地提高跟蹤速度.

1 壓縮跟蹤算法

1.1基于壓縮感知的多尺度特征壓縮提取

壓縮感知理論指出:對(duì)于稀疏信號(hào),可以用一個(gè)滿足壓縮等距性(Restricted isometry property,RIP)條件的隨機(jī)測(cè)量矩陣對(duì)其進(jìn)行隨機(jī)采樣,采樣后的信號(hào)幾乎保留了原始信號(hào)的所有信息.而自然圖像就是稀疏的.CT算法正是應(yīng)用這一理論對(duì)高維的圖像特征進(jìn)行壓縮,有效地實(shí)現(xiàn)了對(duì)多尺度特征的降維.降維過(guò)程如圖1所示.

圖1 降維示意圖Fig.1The diagram of dimensionality reduction

對(duì)于一個(gè)樣本圖像Z∈Rw×h其多尺度特征可以通過(guò)與一系列不同尺度的矩形濾波器Fi,j卷積得到,F(xiàn)i,j定義如下:

其中,1≤x≤w和1≤y≤h是矩形濾波器的寬度和高度.

由式(1)可知,樣本圖像的多尺度特征是用w×h個(gè)矩形濾波器對(duì)其濾波得到的.為了方便降維處理,將每個(gè)矩形濾波器的濾波結(jié)果都表示為一個(gè)維度為w×h的列向量,那么最后樣本圖像特征的高維向量就可以用列向量表示,其維度為m=(wh)2,典型值為106~1010.

滿足RIP條件的典型的測(cè)量矩陣是隨機(jī)高斯矩陣,但隨機(jī)高斯矩陣很密集,當(dāng)高維特征的維數(shù)很高時(shí),其存儲(chǔ)和計(jì)算量都非常大.因此,CT算法中采用一種非常稀疏的矩陣,定義如下:

上述隨機(jī)測(cè)量矩陣能夠通過(guò)隨機(jī)數(shù)發(fā)生器獲得,當(dāng)s=O(m)時(shí),此矩陣幾乎能夠與隨機(jī)高斯矩陣同樣準(zhǔn)確,且每一行最多只有4個(gè)非零值需要計(jì)算,能在很大程度上降低所需的存儲(chǔ)空間,提高算法速度.根據(jù)壓縮感知理論,高維特征通過(guò)式(2)降到低維,即可得到壓縮特征.

1.2基于樸素貝葉斯分類器的目標(biāo)檢測(cè)

CT算法使用簡(jiǎn)單的樸素貝葉斯分類器來(lái)建模,為此,需要假設(shè)每一個(gè)樣本圖像Z∈Rw×h的低維特征向量中的每個(gè)向量都是彼此獨(dú)立的,且每個(gè)樣本是目標(biāo)和背景的概率相同,則分類器模型如下:

其中,y∈{0,1}為樣本標(biāo)記,y=1代表正樣本,即目標(biāo),y=0代表負(fù)樣本,即背景.

壓縮特征的提取就是特征由高維向低維的隨機(jī)映射過(guò)程,而高維隨機(jī)特征的隨機(jī)映射幾乎總是服從高斯分布,據(jù)此,假設(shè)H(v)中的條件分布p(vi|y=1)和p(vi|y=0)都服從高斯分布,即:

跟蹤階段,根據(jù)上一幀目標(biāo)的位置,在半徑為γ的圓形區(qū)域內(nèi)采集與目標(biāo)大小相同的所有樣本,提取壓縮特征,并用樸素貝葉斯分類器檢測(cè)各個(gè)樣本,分類器響應(yīng)最大的樣本即認(rèn)為是所要跟蹤的目標(biāo).

2 特征篩選與二次定位

CT算法中假設(shè)壓縮特征服從高斯分布,由于目標(biāo)和背景存在一定的差異,使特征在正、負(fù)類中服從不同的高斯分布.樸素貝葉斯分類器正是利用這種差異來(lái)分類的,因此,特征在正、負(fù)類中分布差異的大小直接決定了該特征分類能力的強(qiáng)弱.顯然,差異越大,分類能力越強(qiáng);差異越小,分類能力越弱.

本文采用Bhattacharyya系數(shù)[21](以下簡(jiǎn)稱巴氏系數(shù))來(lái)度量正負(fù)類之間特征分布的差異.對(duì)于連續(xù)分布,其表達(dá)式為

其中,B∈[0,1],表示兩個(gè)分布之間的重疊度,值越大,表示兩個(gè)分布重疊越大,差異越小,對(duì)應(yīng)特征的分類能力也就越弱,當(dāng)B=1時(shí),兩個(gè)分布完全重合;反之,B值越小,表示兩個(gè)分布重疊越小,差異越大,對(duì)應(yīng)特征的分類能力則越強(qiáng).B與分布之間的關(guān)系如圖2所示,隨著壓縮特征v1、v2、v3在正、負(fù)類中的分布差異逐漸增大,B值越來(lái)越小.

2.1劃分子區(qū)域

在CT算法中,每個(gè)特征都是在全局區(qū)域內(nèi)提取的,當(dāng)目標(biāo)被遮擋時(shí),即使是較小區(qū)域的遮擋,也可能會(huì)有大量的特征受到影響,隨之引入的跟蹤誤差經(jīng)過(guò)不斷積累,會(huì)影響后續(xù)跟蹤的準(zhǔn)確性.為此,本文采取一種基于子區(qū)域的特征提取方法.該方法將全局區(qū)域劃分為5個(gè)子區(qū)域,在每個(gè)子區(qū)域內(nèi)提取壓縮特征,保證在目標(biāo)出現(xiàn)較小區(qū)域遮擋的情況下,只有被遮擋子區(qū)域內(nèi)的部分特征受到影響,避免因?yàn)榇罅刻卣魇艿接绊懚l(fā)生跟蹤漂移.劃分子區(qū)域的模板如圖3所示.

圖2 B與分布的關(guān)系Fig.2Relationship between B and distribution

圖3 子區(qū)域模板Fig.3Sub-region template

2.2自適應(yīng)學(xué)習(xí)率與更新閾值

由式(3)可以看出,樸素貝葉斯分類器由若干個(gè)分量相加組成,而每個(gè)分量都是一個(gè)特征在正、負(fù)類中分布的概率密度的比值取對(duì)數(shù),因此,可以把每個(gè)分量看做是一個(gè)弱分類器,那么每個(gè)弱分類器都對(duì)應(yīng)一個(gè)特征.所以樸素貝葉斯分類器的更新就是各個(gè)弱分類器的更新,而弱分類器的更新對(duì)應(yīng)特征在正、負(fù)類中分布的更新.

CT算法中,分類器參數(shù)更新存在兩點(diǎn)不足:1)采用固定學(xué)習(xí)率更新正、負(fù)類中每個(gè)特征的分布.同一特征每次在相鄰兩幀之間分布的變化是不同的,在相同的兩幀之間,各個(gè)特征的分布變化也是不同的,采用固定學(xué)習(xí)率很難保證更新后的特征分布能夠有效反映其真實(shí)分布,當(dāng)二者不匹配時(shí),分類器的性能就會(huì)下降;2)對(duì)正類的所有特征分布都更新.目標(biāo)跟蹤過(guò)程中經(jīng)常會(huì)遇到遮擋的情況,雖然已經(jīng)劃分了子區(qū)域,但當(dāng)目標(biāo)被遮擋的區(qū)域很大時(shí),仍然會(huì)使絕大多數(shù)的特征受到影響,此時(shí)若繼續(xù)更新這些特征的分布,就會(huì)使分類器將遮擋物體誤認(rèn)為是目標(biāo),當(dāng)遮擋物體與目標(biāo)分離時(shí),跟蹤窗口也會(huì)隨之偏離真實(shí)的目標(biāo).

本文提出一種基于自適應(yīng)學(xué)習(xí)率和正類更新閾值的策略,將相鄰兩幀之間特征的B值作為更新其分布的學(xué)習(xí)率,直接更新負(fù)類.考慮到遮擋因素的影響,對(duì)正類設(shè)定一個(gè)更新閾值T,只有當(dāng)B>T時(shí),才更新正類的特征分布,否則保持原有分布不變.特征分布的更新公式如下:

2.3基于加權(quán)特征篩選的分類器構(gòu)建

在構(gòu)建分類器方面,CT算法存在兩點(diǎn)不足:1)始終用全部壓縮特征來(lái)構(gòu)建分類器,而某些特征對(duì)分類的貢獻(xiàn)很小,這樣就增加分類器的計(jì)算量;2)構(gòu)建分類器的所有特征的權(quán)值都為1,由于不同特征的分類能力不同,所以采用相同權(quán)重?zé)o法突出具有較強(qiáng)區(qū)分力的特征的重要性.

本文在構(gòu)建分類器時(shí),利用巴氏系數(shù)度量正、負(fù)類特征分布間的相似性,相似性越小的特征分類效果越好.根據(jù)跟蹤階段的需要,從所有特征中篩選出部分優(yōu)質(zhì)特征,根據(jù)相應(yīng)的巴氏系數(shù)加權(quán)構(gòu)建分類器,使構(gòu)建出的分類器可以依據(jù)權(quán)值對(duì)各個(gè)弱分類器反饋的分類信息區(qū)分對(duì)待,有效提升自身的分類能力.分類器模型如下:

2.4基于二次定位的跟蹤策略

在跟蹤階段,原CT算法在以上一幀目標(biāo)為中心的圓形區(qū)域內(nèi),通過(guò)滑動(dòng)窗口采集該區(qū)域與目標(biāo)大小相同的所有樣本,再用分類器對(duì)這些樣本逐一檢測(cè),得到跟蹤目標(biāo).這種方法需要檢測(cè)的樣本數(shù)量較多,會(huì)消耗大量的時(shí)間.特別是當(dāng)目標(biāo)快速移動(dòng)時(shí),如果搜索半徑設(shè)置的過(guò)小,會(huì)發(fā)生跟蹤漂移,如果設(shè)置的過(guò)大,則會(huì)消耗更多的時(shí)間.

本文提出一種基于二次定位的跟蹤策略,如圖4所示,該策略分為兩個(gè)過(guò)程:首先根據(jù)上一幀得到的目標(biāo)gt的位置,在半徑為γ1的圓形區(qū)域內(nèi)用大于1的采樣間隔Δ1等間隔采樣,得到樣本集A1,選取2/5分類能力強(qiáng)的特征構(gòu)建分類器檢測(cè)A1,找出最有可能是目標(biāo)的樣本S;再根據(jù)S的位置,采集半徑為γ2(γ2<γ1)的圓形區(qū)域內(nèi)的所有樣本,得到樣本集A2,選取分類能力較好的4/5特征構(gòu)建分類器檢測(cè)A2,得到最終的跟蹤目標(biāo)gt+1,完成跟蹤.

2.5算法流程

輸入.正樣本采樣半徑γp,負(fù)樣本采樣半徑γN-I、γN-O,跟蹤搜索半徑γ1、γ2,視頻第t幀圖像,第t-1幀圖像中的目標(biāo)位置It-1.

輸出.第t幀圖像中目標(biāo)的位置It.

1)采集樣本集A1={s|‖I(s)-It-1‖<γ1},提取壓縮特征F;

2)篩選出2/5優(yōu)質(zhì)特征,根據(jù)式(13)構(gòu)建分類器H1,檢測(cè)出A1中使H1響應(yīng)值最大的樣本s1;

3)采集樣本集A2={s|‖I(s)-Is1‖<γ2},提取壓縮特征F;

4)篩選出2/5優(yōu)質(zhì)特征,根據(jù)式(13)構(gòu)建分類器H2,檢測(cè)出A2中使H2響應(yīng)值最大的樣本s2,It=s2;

圖4 二次定位示意圖Fig.4The diagram of secondary localization

5)采集正樣本集AP={s|‖It-Is‖<γP}和負(fù)樣本集AN={s|γN-I<‖It-Is‖<γN-O},提取壓縮特征F,計(jì)算特征在正、負(fù)類中的分布PP和PN;

6)根據(jù)式(8)~(12)更新PPi和PNi.

3 實(shí)驗(yàn)結(jié)果及分析

為了驗(yàn)證本文算法的性能,選取8個(gè)公共測(cè)試序列[22]和4個(gè)自制的紅外測(cè)試序列進(jìn)行結(jié)果驗(yàn)證,這些序列包含光照變化、遮擋和姿態(tài)變化等具有挑戰(zhàn)性的因素.本文算法主要應(yīng)用于駕駛員的臉部跟蹤,因此,根據(jù)駕駛員疲勞檢測(cè)項(xiàng)目的需要,加入了紅外視頻的測(cè)試序列.在所有測(cè)試序列中,將本文算法與CT和FCT(Fast compressive tracking)算法進(jìn)行比較.實(shí)驗(yàn)環(huán)境為Intel Core i3雙核處理器,2.53GHz主頻,3GB內(nèi)存,Windows 7操作系統(tǒng),開發(fā)平臺(tái)為VS2010+opencv2.4.9.由于CT[15]和FCT[20]在文獻(xiàn)中給出的參數(shù)和在源程序中給出的配置參數(shù)不完全相同,所以選取其中效果較好的參數(shù).各算法在每個(gè)測(cè)試序列上都運(yùn)行10次,最后取平均值.

3.1準(zhǔn)確性比較

成功率是評(píng)價(jià)算法準(zhǔn)確性的重要標(biāo)準(zhǔn)之一.在判斷每一幀是否跟蹤成功時(shí),本文采用文獻(xiàn)[23]中使用的判定準(zhǔn)則,其定義如下:

其中,T為跟蹤結(jié)果區(qū)域,G為目標(biāo)的實(shí)際區(qū)域,S為準(zhǔn)則的判定值.若S>0.5,則認(rèn)為跟蹤成功;否則,認(rèn)為跟蹤失敗,并根據(jù)跟蹤成功的幀數(shù)與總幀數(shù)的比值得到跟蹤的成功率.各個(gè)算法在不同測(cè)試視頻中的跟蹤成功率如表1所示,每種視頻序列中最高的成功率用粗體標(biāo)注.從表1中可以看出,F(xiàn)SSLCT算法在大多數(shù)的測(cè)試序列中跟蹤成功率都是最高的.

中心位置誤差是評(píng)價(jià)跟蹤算法準(zhǔn)確性的另外一個(gè)準(zhǔn)則.它表示跟蹤算法得到的目標(biāo)中心和目標(biāo)實(shí)際中心位置之間的像素的距離,本文采用歐氏距離.各測(cè)試序列中算法的平均中心誤差如表2所示,最小平均中心誤差已用粗體標(biāo)注.

為了進(jìn)一步體現(xiàn)各個(gè)算法的性能,本文給出了部分測(cè)試序列的精確度曲線[22],如圖5所示,它表示跟蹤目標(biāo)與真實(shí)目標(biāo)中心間的歐氏距離在某一閾值范圍內(nèi)的幀數(shù)的百分比,反映了算法在不同閾值下的性能.如在圖5(a)中,當(dāng)閾值小于12時(shí),CT算法的性能優(yōu)于FSSL-CT算法,而當(dāng)閾值大于12時(shí),F(xiàn)SSL-CT算法的性能更優(yōu),在圖5(b)~(e)中,F(xiàn)SSL-CT算法幾乎在每個(gè)閾值下的性能都優(yōu)于其他兩種算法.

表1 各算法跟蹤成功率比較Table 1Comparison of the tracking success rate of different algorithms

表2 各算法平均中心誤差比較(像素)Table 2Comparison of mean center error of different algorithms(pixel)

各個(gè)算法的跟蹤效果如圖6~圖10所示,CT、FCT和FSSL-CT算法分別用不同線型的矩形框表示,并已在圖中下方注釋.

如圖6第697、1184、1236幀,圖8第64、315幀以及圖10第114、197、543幀,在目標(biāo)受到光照變化、快速運(yùn)動(dòng)等因素的影響時(shí),F(xiàn)SSL-CT算法因?yàn)椴捎米赃m應(yīng)學(xué)習(xí)率,可以根據(jù)模型在相鄰兩幀之間的變化來(lái)調(diào)節(jié)模型的更新速度;而CT算法和FCT算法使用固定學(xué)習(xí)率,致使模型無(wú)論變化快慢,都以恒定的速度進(jìn)行更新,更新較為盲目,影響了算法性能.從圖中可以看出,F(xiàn)SSL-CT算法取得了較好的跟蹤效果,具有一定的跟蹤穩(wěn)定性.

圖5 精確度曲線Fig.5Precision plot

圖6 Sylvester(第4、697、1184、1236幀)Fig.6Sylvester(Frames 4、697、1184、1236)

在FSSL-CT算法中,子區(qū)域的劃分和正類中特征分布更新閾值的設(shè)定,在很大程度上增強(qiáng)了算法抗遮擋的性能.如圖7第53幀和第79幀,由于跑步者被完全遮擋后仍然保持移動(dòng),導(dǎo)致三種算法在嚴(yán)重干擾下暫時(shí)未能跟蹤到目標(biāo);此時(shí),F(xiàn)SSL-CT通過(guò)正類閾值限制了目標(biāo)模型的更新,而CT和FCT算法始終在對(duì)目標(biāo)模型進(jìn)行更新,所以當(dāng)目標(biāo)重新出現(xiàn)后,F(xiàn)SSL-CT能重新定位目標(biāo),而其他兩種算法由于目標(biāo)模型的誤差積累而導(dǎo)致跟蹤失敗.如圖8第115幀和圖9第515幀,同樣是目標(biāo)受到遮擋的影響,相比其他兩種算法,F(xiàn)SSL-CT仍然能夠較好地跟蹤目標(biāo).

圖7 Jogging(第53、78、79、231幀)Fig.7Jogging(Frames 53、78、79、231)

圖8 Tiger1(第7、64、115、315幀)Fig.8Tiger1(Frames 7、64、115、315)

圖9 Hat(第36、295、429、515幀)Fig.9Hat(Frames 36、295、429、515)

圖10 DayLight1(第71、114、197、543幀)Fig.10DayLight1(Frames 71、114、197、543)

3.2算法速度比較

FSSL-CT與CT和FCT在算法復(fù)雜度上的差別主要體現(xiàn)在跟蹤階段對(duì)候選樣本的檢測(cè)部分,該部分的計(jì)算次數(shù):其中,m1和n1是第一次定位時(shí)的候選樣本數(shù)和特征數(shù),m2和n2是第二次定位時(shí)的候選樣本數(shù)和特征數(shù),NF是分類其中每個(gè)特征對(duì)應(yīng)部分所需要的計(jì)算次數(shù).三種算法的計(jì)算次數(shù)如表3所示.

表3 各算法計(jì)算次數(shù)及相關(guān)參數(shù)(次)Table 3Calculation times and related parameters of different algorithms(times)

為了直觀地比較各個(gè)算法的運(yùn)行速度,對(duì)每個(gè)視頻序列測(cè)試10次,得出每一幀的平均處理時(shí)間,實(shí)驗(yàn)結(jié)果如表4所示,F(xiàn)SSL-CT算法對(duì)12個(gè)測(cè)試視頻序列的的平均處理時(shí)間能夠達(dá)到3.04毫秒/幀.

表4 各算法運(yùn)行速度比較(毫秒/幀)Table 4Comparison of operation speed of different algorithms(ms/frame)

4 總結(jié)

本文提出一種基于特征篩選與二次定位的快速壓縮跟蹤算法(FSSL-CT).針對(duì)短時(shí)遮擋問(wèn)題,對(duì)每個(gè)樣本劃分子區(qū)域,從各個(gè)子區(qū)域中提取壓縮特征,根據(jù)正、負(fù)樣本集估計(jì)出特征在正、負(fù)類中的分布,用相鄰兩幀之間特征分布的差異作為學(xué)習(xí)率,更新特征分布,并對(duì)正類設(shè)定更新閾值,滿足閾值要求時(shí)才更新相應(yīng)的特征分布.針對(duì)跟蹤階段需要檢測(cè)的樣本較多的問(wèn)題,采用一種基于二次定位的跟蹤策略.首次定位采集樣本的圓形區(qū)域半徑較大,用大于1的間隔在此區(qū)域內(nèi)等間隔采樣,并用分類器得到其中的最優(yōu)目標(biāo).再以此目標(biāo)為中心采集較小半徑的圓形范圍內(nèi)的所有樣本,進(jìn)行二次定位,用分類器得到最終的跟蹤目標(biāo).實(shí)驗(yàn)結(jié)果表明,F(xiàn)SSL-CT算法的準(zhǔn)確性、穩(wěn)定性和抗遮擋能力更好,平均處理速度為3.04毫秒/幀,能夠?qū)崿F(xiàn)實(shí)時(shí)跟蹤.與原始CT算法一樣,由于跟蹤窗口的尺度依賴于初始化目標(biāo),跟蹤時(shí)無(wú)法根據(jù)目標(biāo)的變化而自適應(yīng)調(diào)整窗口,使得FSSL-CT算法對(duì)于尺度發(fā)生較大變化的目標(biāo)跟蹤效果欠佳,這將是本文后續(xù)研究的重點(diǎn).

References

1 Comaniciu D,Ramesh V,Meer P.Kernel-based object tracking.IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,25(5):564-577

2 Bradski G R.Real time face and object tracking as a component of a perceptual user interface.In:Proceedings of the 4th IEEE Workshop on Applications of Computer Vision. Princeton,USA:IEEE,1998.214-219

3 Huang S L,Hong J X.Moving object tracking system based on camshift and Kalman filter.In:Proceedings of the 2011 International Conference on Consumer Electronics,Communications and Networks.Xianning,China:IEEE,2011. 1423-1426

4 Vadakkepat P,Liu J.Improved particle filter in sensor fusion for tracking randomly moving object.IEEE Transactions on Instrumentation and Measurement,2006,55(5):1823-1832

5 Wang Zhi-Ling,Chen Zong-Hai,Xu Xiao-Xiao,Wu Liang.A fuzzy region understanding tactic for object tracking based on frog's vision characteristic.Acta Automatica Sinica,2009,35(8):1048-1054(王智靈,陳宗海,徐蕭蕭,吳亮.基于蛙眼視覺(jué)特性的運(yùn)動(dòng)目標(biāo)模糊化區(qū)域理解跟蹤方法.自動(dòng)化學(xué)報(bào),2009,35(8):1048-1054)

6 Li Zhi-Yong,He Shuang,Liu Jun-Min,Li Ren-Fa.Motion filtering by modelling R3 cell's receptive field in frog eyes. Acta Automatica Sinica,2015,41(5):981-990(李智勇,何霜,劉俊敏,李仁發(fā).基于蛙眼R3細(xì)胞感受野模型的運(yùn)動(dòng)濾波方法.自動(dòng)化學(xué)報(bào),2015,41(5):981-990)

7 LiuWei-Feng,ChaiZhong,WenCheng-Lin.Multimeasurement target tracking by using random sampling approach.Acta Automatica Sinica,2013,39(2):168-178(劉偉峰,柴中,文成林.基于隨機(jī)采樣的多量測(cè)目標(biāo)跟蹤算法.自動(dòng)化學(xué)報(bào),2013,39(2):168-178)

8 Avidan S.Support vector tracking.IEEE Transactions on Pattern Analysis and Machine Intelligence,2004,26(8):1064-1072

9 Yang F,Lu H C,Yang M H.Robust superpixel tracking.IEEE Transactions on Image Processing,2014,23(4):1639-1651

10 Collins R T,Liu Y X,Leordeanu M.Online selection of discriminative tracking features.IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(10):1631-1643

11 Babenko B,Yang M H,Belongie S.Robust object tracking with online multiple instance learning.IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(8):1619-1632

12 Zhang T Z,Ghanem B,Liu S,Ahuja N.Robust visual tracking via multi-task sparse learning.In:Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition.Providence,USA:IEEE,2012.2042-2049

13 Zhong W,Lu H C,Yang M H.Robust object tracking via sparse collaborative appearance model.IEEE Transactions on Image Processing,2014,23(5):2356-2368

14 Wang D,Lu H C,Yang M H.Online object tracking with sparse prototypes.IEEE Transactions on Image Processing,2013,22(1):314-325

15 Zhang K H,Zhang L,Yang M H.Real-time compressive tracking.In:Proceedings of the 2012 European Conference on Computer Vision.Florence,Italy:Springer Berlin Heidelberg,2012.864-877

16 Shi Wu-Zhen,Ning Ji-Feng,Yan Yong-Feng.Feature selection and target model updating in compressive tracking. Journal of Image and Graphics,2014,19(6):932-939(石武禎,寧紀(jì)鋒,顏永豐.壓縮感知跟蹤中的特征選擇與目標(biāo)模型更新.中國(guó)圖象圖形學(xué)報(bào),2014,19(6):932-939)

17 Mao Zheng,Yuan Jian-Jian,Wu Zhen-Rong,Qu Jin-Song,Li Hong-Yan.Real-time compressive tracking based on online feature selection.Optics and Precision Engineering,2014,22(3):730-736(毛征,袁建建,吳珍榮,曲勁松,李紅巖.基于在線特征選擇的實(shí)時(shí)壓縮跟蹤.光學(xué)精密工程,2014,22(3):730-736)

18 Zhong Quan,Zhou Jin,Wu Qin-Zhang,Wang Hui,Lei Tao.An improved real-time compressive tracking.Opto-Electronic Engineering,2014,41(4):1-8(鐘權(quán),周進(jìn),吳欽章,王輝,雷濤.一種改進(jìn)的實(shí)時(shí)壓縮跟蹤算法.光電工程,2014,41(4):1-8)

19 Luo Hui-Lan,Zhong Bao-Kang,Kong Fan-Sheng.Object tracking algorithm by combining the predicted target position with compressive tracking.Journal of Image and Graphics,2014,19(6):875-885(羅會(huì)蘭,鐘寶康,孔繁勝.結(jié)合目標(biāo)預(yù)測(cè)位置的壓縮跟蹤.中國(guó)圖象圖形學(xué)報(bào),2014,19(6):875-885)

20 Zhang K H,Zhang L,Yang M H.Fast compressive tracking.IEEE Transactions on Pattern Analysis and Machine Intelligence,2014,36(10):2002-2015

21 Comaniciu D,Ramesh V,Meer P.Real-time tracking of nonrigid objects using mean shift.In:Proceedings of the 2000 IEEE Conference on Computer Vision and Pattern Recognition.Hilton Head Island,USA:IEEE,2000,2:142-149

22 Wu Y,Lim J,Yang M H.Online object tracking:a benchmark.In:Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition.Portland,USA:IEEE,2013.2411-2418

23 Everingham M,Van Gool L,Williams C L I,Winn J,Zisserman A.The pascal visual object classes(VOC)challenge. International Journal of Computer Vision,2010,88(2):303-338

耿磊天津工業(yè)大學(xué)電子與信息工程學(xué)院副教授.2012年獲得天津大學(xué)精密儀器與光電子工程學(xué)院博士學(xué)位.主要研究方向?yàn)閳D像處理與模式識(shí)別,智能信號(hào)處理技術(shù)與系統(tǒng),DSP系統(tǒng)研發(fā).

E-mail:genglei@tjpu.edu.cn

(GENG LeiAssociate professor at the School of Electronics and Information Engineering,Tianjin Polytechnic University.He received his Ph.D.degree from the School of Precision Instrument and Opto-Electronics Engineering,Tianjin University in 2012.His research interest covers image processing and pattern recognition,intelligent signal processing technology and system,DSP system research and development.)

王學(xué)彬天津工業(yè)大學(xué)電子信息與工程學(xué)院碩士研究生.2013年獲得天津工業(yè)大學(xué)電子信息工程專業(yè)學(xué)士學(xué)位.主要研究方向?yàn)槟J阶R(shí)別,機(jī)器學(xué)習(xí).

E-mail:wangxuebin2014@sina.com

(WANG Xue-BinMaster student at the School of Electronics and Information Engineering,Tianjin Polytechnic University.He received his bachelor degree from the School of Electronics and Information Engineering,Tianjin Polytechnic University in 2013.His research interest covers pattern recognition and machine learning.)

肖志濤天津工業(yè)大學(xué)電子與信息工程學(xué)院教授.2003年獲得天津大學(xué)電子信息工程學(xué)院博士學(xué)位.主要研究方向?yàn)橹悄苄盘?hào)處理,圖像處理與模式識(shí)別.本文通信作者.

E-mail:xiaozhitao@tjpu.edu.cn

(XIAO Zhi-TaoProfessor at the School of Electronics and Information Engineering,Tianjin Polytechnic University.He received his Ph.D.degree from the School of Electronics and Information Engineering,Tianjin University in 2003.His research interest covers intelligent signal processing,imageprocessing and pattern recognition.Corresponding author of this paper.)

張芳天津工業(yè)大學(xué)電子與信息工程學(xué)院副教授.2009年獲得天津大學(xué)精密儀器與光電子工程學(xué)院博士學(xué)位.主要研究方向?yàn)閳D像處理與模式識(shí)別,光學(xué)干涉測(cè)量技術(shù).

E-mail:hhzhangfang@126.com

(ZHANG FangAssociate professor at the School of Electronics and Information Engineering,Tianjin Polytechnic University.She received her Ph.D.degree from the School of Precision Instrument and Opto-Electronics Engineering,Tianjin University in 2009.Her research interest covers image processing and pattern recognition,and optical interference measurement technique.)

吳駿天津工業(yè)大學(xué)電子與信息工程學(xué)院副教授.2007年獲得天津大學(xué)電子信息工程學(xué)院博士學(xué)位.主要研究方向?yàn)閳D像處理與模式識(shí)別,人工神經(jīng)網(wǎng)絡(luò).

E-mail:zhenkongwujun@163.com

(WU JunAssociate professor at the School of Electronics and Information Engineering,Tianjin Polytechnic University.He received his Ph.D.degree from the School of Electronics and Information Engineering,Tianjin University in 2007.His research interest covers image processing and pattern recognition,and artificial neural network.)

李月龍?zhí)旖蚬I(yè)大學(xué)計(jì)算機(jī)科學(xué)與軟件學(xué)院副教授.2012年獲得北京大學(xué)信息科學(xué)技術(shù)學(xué)院計(jì)算機(jī)專業(yè)博士學(xué)位,2015年英國(guó)約克大學(xué)公派訪問(wèn)學(xué)者.主要研究方向?yàn)橛?jì)算機(jī)視覺(jué),模式識(shí)別,輪廓提取,人臉識(shí)別.

E-mail:liyuelong@pku.edu.cn

(LI Yue-LongAssociate professor at the School of Computer Science and Software Engineering,Tianjin Polytechnic University.He received his Ph.D. degree in computer science from the School of Electronics Engineering and Computer Science,Peking University in 2012.He was an academic visitor in the University of York in 2015.His research interest covers computer vision,pattern recognition,shape extraction,and face recognition.)

蘇靜靜天津工業(yè)大學(xué)碩士研究生. 2014年獲得北華航天工業(yè)學(xué)院電子與信息工程專業(yè)學(xué)士學(xué)位.主要研究方向?yàn)槟J阶R(shí)別,機(jī)器學(xué)習(xí).

E-mail:1065250074@qq.com

(SU Jing-JingMaster student at the School of Electronics and Information Engineering,Tianjin Polytechnic University.She received her bachelor degree from North China Institute of Aerospace Engineering in 2014.Her research interest covers pattern recognition,and machine learning.)

Manuscript October 8,2015;accepted January 23,2016

Fast Compressive Tracking Algorithm Combining Feature Selection with Secondary Localization

GENG Lei1,2WANG Xue-Bin1XIAO Zhi-Tao1,2ZHANG Fang1,2WU Jun1,2LI Yue-Long2SU Jing-Jing1

As the traditional compressive tracking algorithm fails to track targets stably under occlusive condition and update model accurately,a fast tracking algorithm combining feature selection with secondary localization based on compressive tracking(FSSL-CT)is proposed.Firstly,compressive features are extracted from sub-regions partitioned from the global region,and the distributions of each compressive feature in positive and negative classes are estimated.Secondly,the classifier model is updated utilizing the method of adaptive learning rate and positive class update threshold.Finally,the tracking stage is divided into two procedures.In each procedure,some candidate samples are collected in the given searching region,and partial high quality features are selected from all the features and weighted to construct a classifier,then,the candidate samples are classified by the classifier.After that,the target tracking is achieved.Compared with two state-of-the-art algorithms on 8 public testing sequences and 4 private sequences,the FSSL-CT algorithm is proved to have the highest tracking success ratio and the lowest average central error in most of the sequences,and the average processing speed could achieve 3.04 milliseconds per frame.It is tested that the proposed FSSL-CT algorithm has a better capacity of resisting short-time occlusion and running in real-time,higher accuracy and robustness than the two state-of-the-art algorithms.

Compressive tracking,feature select,secondary localization,distribution difference,adaptive update

10.16383/j.aas.2016.c150603

2015-10-08錄用日期2016-01-23

國(guó)家自然科學(xué)基金(61302127),高等學(xué)校博士學(xué)科點(diǎn)專項(xiàng)科研基金(20131201110001),天津市科技支撐計(jì)劃重點(diǎn)項(xiàng)目(14ZCZDGX00033)資助

Supported by National Natural Science Foundation of China(61302127),Specialized Research Fund for the Poctoral Program of Higher Education of China(20131201110001),Key Projects of Tianjin Science and Technology Support Program(14ZCZDGX00033)

本文責(zé)任編委胡清華

Recommended by Associate Editor HU Qing-Hua

1.天津工業(yè)大學(xué)電子與信息工程學(xué)院天津3003872.天津市光電檢測(cè)技術(shù)與系統(tǒng)重點(diǎn)實(shí)驗(yàn)室天津300387

1.School of Electronics and Information Engineering,Tianjin Polytechnic University,Tianjin 3003872.Tianjin Key Laboratory of Optoelectronic Detection Technology and Systems,Tianjin 300387

Geng Lei,Wang Xue-Bin,Xiao Zhi-Tao Zhang Fang,Wu Jun,Li Yue-Long,Su Jing-Jing.Fast compressive tracking algorithm combining feature selection with secondary localization.Acta Automatica Sinica,2016,42(9):1421-1431

猜你喜歡
分類器分類樣本
分類算一算
用樣本估計(jì)總體復(fù)習(xí)點(diǎn)撥
分類討論求坐標(biāo)
推動(dòng)醫(yī)改的“直銷樣本”
數(shù)據(jù)分析中的分類討論
BP-GA光照分類器在車道線識(shí)別中的應(yīng)用
教你一招:數(shù)的分類
隨機(jī)微分方程的樣本Lyapunov二次型估計(jì)
加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
阜阳市| 新和县| 天长市| 孟州市| 余干县| 旺苍县| 阜宁县| 南和县| 邹城市| 义乌市| 苗栗市| 临清市| 牟定县| 开鲁县| 舒城县| 南陵县| 余干县| 石狮市| 寻乌县| 徐汇区| 武陟县| 启东市| 育儿| 台中市| 延川县| 万山特区| 万年县| 海兴县| 长沙市| 鸡西市| 罗甸县| 江津市| 博爱县| 军事| 政和县| 淮滨县| 涪陵区| 宁陕县| 高碑店市| 新巴尔虎右旗| 盐池县|