吳迪云 吳正平
(三峽大學(xué) 電氣與新能源學(xué)院, 湖北 宜昌 443002)
顏色自適應(yīng)與相關(guān)濾波互補(bǔ)目標(biāo)跟蹤
吳迪云 吳正平
(三峽大學(xué) 電氣與新能源學(xué)院, 湖北 宜昌 443002)
針對(duì)相關(guān)濾波(Correlation Filter, CF)算法在目標(biāo)跟蹤中嚴(yán)重依賴目標(biāo)及背景的顏色在空間中布局,對(duì)目標(biāo)變形極其敏感,且因背景顏色分布的變化導(dǎo)致目標(biāo)中心計(jì)算不準(zhǔn)確問(wèn)題,提出了顏色自適應(yīng)(Color Adaptive,CA)與相關(guān)濾波互補(bǔ)的跟蹤策略.跟蹤過(guò)程中,首先根據(jù)前面幀學(xué)習(xí)的濾波模板和顏色模板,通過(guò)兩種算法分別計(jì)算目標(biāo)中心坐標(biāo);其次,由相關(guān)濾波產(chǎn)生的響應(yīng)圖中目標(biāo)區(qū)域數(shù)值的占比,分配兩種算法計(jì)算的中心坐標(biāo)相應(yīng)權(quán)值,得到最終的跟蹤坐標(biāo).跟蹤實(shí)驗(yàn)表明,本文方法(CACF)應(yīng)對(duì)跟蹤過(guò)程中各種干擾問(wèn)題具有更強(qiáng)的魯棒性,優(yōu)于近幾年一些主流的跟蹤算法,且跟蹤速度可達(dá)到實(shí)時(shí)性.
顏色自適應(yīng); 相關(guān)濾波; 互補(bǔ)跟蹤; 目標(biāo)跟蹤; 跟蹤算法
近些年,相關(guān)濾波算法在基于視覺(jué)的目標(biāo)跟蹤中引起了廣泛的關(guān)注,2010年Bolme DS等[1]首次將相關(guān)濾波用于目標(biāo)跟蹤領(lǐng)域,提出誤差最小平方和濾波(MOSSE)算法,后來(lái)大量?jī)?yōu)秀的目標(biāo)跟蹤算法也是基于此算法改進(jìn).例如,CSK算法[2],選取目標(biāo)及其周圍的一定矩形區(qū)域,利用循環(huán)移位方法進(jìn)行碎片采樣作為訓(xùn)練樣本,結(jié)合FFT快速進(jìn)行分類器的訓(xùn)練,跟蹤的過(guò)程就是計(jì)算下一幀窗口內(nèi)相關(guān)濾波的響應(yīng).KCF算法[3],是CSK算法作者進(jìn)一步對(duì)CSK算法的改進(jìn),從單通道特征換成了Hog多通道特征,使訓(xùn)練所得的分類器檢測(cè)目標(biāo)的分辨力更強(qiáng).STC算法是Zhang等[4]提出的高效跟蹤算法,通過(guò)貝葉斯框架對(duì)要跟蹤的目標(biāo)和它類器的訓(xùn)練,跟蹤的過(guò)程就是計(jì)算下一幀窗口內(nèi)相關(guān)濾波的響應(yīng).KCF算法[3],是CSK算法作者的進(jìn)一步對(duì)CSK算法的改進(jìn),從單通道特征換成了Hog多通道特征,使訓(xùn)練所得的分類器檢測(cè)目標(biāo)的分辨力更強(qiáng).STC算法是Zhang等[4]提出的高效跟蹤算法,通過(guò)貝葉斯框架對(duì)要跟蹤的目標(biāo)和它的局部上下文區(qū)域的時(shí)空關(guān)系進(jìn)行建模,得到目標(biāo)和其周圍區(qū)域低級(jí)特征統(tǒng)計(jì)相關(guān)性.利用目標(biāo)周圍局部上下文的環(huán)境輔助進(jìn)行目標(biāo)的定位,取得了良好的效果.
上述列舉的跟蹤算法均基于相關(guān)濾波思想,相關(guān)濾波算法是利用目標(biāo)區(qū)域的顏色分布,該算法對(duì)目標(biāo)的變形極其敏感,背景移動(dòng)也會(huì)影響目標(biāo)中心的計(jì)算.常見(jiàn)的處理目標(biāo)變形跟蹤魯棒性較強(qiáng)的算法有:直方圖匹配法[5-7],特征匹配算法[8-9].
本文提出了顏色自適應(yīng)算法,該算法不受背景顏色布局和目標(biāo)變形的影響,改進(jìn)了相關(guān)濾波算法在目標(biāo)變形和背景移動(dòng)下目標(biāo)中心位置計(jì)算不穩(wěn)定問(wèn)題.
顏色自適應(yīng)算法是通過(guò)計(jì)算目標(biāo)及其周圍區(qū)域像素的RGB顏色向量,然后濾去背景顏色,最后提取目標(biāo)的主要顏色向量進(jìn)行跟蹤.由于目標(biāo)顏色的分布位置不影響目標(biāo)顏色的識(shí)別,所以對(duì)于目標(biāo)的變形問(wèn)題有很強(qiáng)的抗干擾能力,且不依賴于背景顏色的布局,但在遮擋或目標(biāo)顏色發(fā)生快速變化時(shí),目標(biāo)中心位置計(jì)算較差.
圖1 互補(bǔ)跟蹤
如圖1(a),目標(biāo)嚴(yán)重遮擋后,目標(biāo)顏色缺失導(dǎo)致無(wú)法跟蹤.相關(guān)濾波算法充分利用了目標(biāo)周圍區(qū)域的顏色布局,對(duì)目標(biāo)遮擋和光線變化有較強(qiáng)的跟蹤魯棒性.因此,兩種算法在跟蹤過(guò)程中形成互補(bǔ)關(guān)系,在相關(guān)濾波計(jì)算目標(biāo)中心位置可信度較低時(shí),由顏色自適應(yīng)的計(jì)算結(jié)果進(jìn)行補(bǔ)充.如圖1(b)所示,可樂(lè)罐產(chǎn)生較大位移和旋轉(zhuǎn)變形后,相關(guān)濾波計(jì)算的響應(yīng)圖對(duì)應(yīng)的最大值點(diǎn)位置與實(shí)際目標(biāo)中心點(diǎn)位置有偏差,而顏色自適應(yīng)在目標(biāo)變形情況下能準(zhǔn)確提取目標(biāo)顏色并計(jì)算中心位置.
本文的相關(guān)濾波跟蹤算法以STC算法[4]為基礎(chǔ),跟蹤的核心是使用濾波模板L與當(dāng)前幀跟蹤區(qū)域圖像Xt做卷積計(jì)算,得到跟蹤區(qū)域的相關(guān)性響應(yīng)圖R,目標(biāo)的中心位置即為響應(yīng)圖的最大值處,然后更新濾波模板用于下一幀目標(biāo)跟蹤計(jì)算.本文設(shè)置目標(biāo)跟蹤區(qū)域?yàn)橐阅繕?biāo)及其周圍區(qū)域,大小為目標(biāo)框的2倍.
若當(dāng)前幀跟蹤區(qū)域?yàn)閄t,上一幀目標(biāo)位置為Pt-1,當(dāng)前幀濾波模板為L(zhǎng)(Xt),則當(dāng)前幀目標(biāo)位置Pt計(jì)算為:
(1)
其中,函數(shù)W的作用是以上一幀目標(biāo)中心為圓心,裁剪跟蹤區(qū)域圖像,然后進(jìn)行加窗處理,將離目標(biāo)近的像素值賦較大權(quán)值,減少跟蹤區(qū)域的邊緣影響.加窗是把跟蹤區(qū)域的圖像灰度值I(x)投影到高斯核函數(shù)上,公式為:
(2)
其中,b為高斯函數(shù)的歸一化常數(shù);σ為尺度參數(shù);d為跟蹤區(qū)域的對(duì)角線長(zhǎng)度.
跟蹤過(guò)程中目標(biāo)的尺度是變化的,由于本文的相關(guān)濾波是基于高斯核函數(shù),目標(biāo)位置處在核函數(shù)的中心,目標(biāo)的顏色分配較大的權(quán)值,當(dāng)目標(biāo)變大后,響應(yīng)圖R的最大值也會(huì)變大,基于此特性設(shè)計(jì)尺度計(jì)算如下:
(3)
其中,max(Rt)為第t幀響應(yīng)圖的最大值,ρ為尺度變化抑制常數(shù),適當(dāng)?shù)娜≈涤欣诔叨确€(wěn)定的變化.
核函數(shù)相關(guān)性響應(yīng)圖R是以目標(biāo)中心位置為中心的二維高斯函數(shù),即為
(4)
其中,a為歸一化常數(shù).
目標(biāo)濾波模板L(Xt)是通過(guò)訓(xùn)練得來(lái),假設(shè)當(dāng)前幀的濾波模板已知,則響應(yīng)圖R的計(jì)算為:
(5)
其中,?是卷積計(jì)算.眾所周知,圖像卷積之后再進(jìn)行傅里葉變換等價(jià)于先進(jìn)行傅里葉變換,然后再進(jìn)行對(duì)應(yīng)像素的乘積,則上式可記為
(6)
其中,F(xiàn)代表快速傅里葉變換,⊙表示對(duì)應(yīng)像素相乘.可以推導(dǎo)出濾波模板L為:
(7)
其中,F(xiàn)-1為傅里葉反變換.濾波模板是由每幀訓(xùn)練更新得到,記為:
(8)
其中,α為濾波模板訓(xùn)練速率.
目標(biāo)跟蹤過(guò)程中,最顯著的特征就是目標(biāo)顏色,本文顏色自適應(yīng)跟蹤算法就是在目標(biāo)運(yùn)動(dòng)過(guò)程中,從變化的背景顏色和目標(biāo)顏色中自適應(yīng)提取目標(biāo)的顏色,進(jìn)而計(jì)算目標(biāo)的中心位置.
假設(shè)目標(biāo)區(qū)域圖像為Xm×n,跟蹤區(qū)域?yàn)槟繕?biāo)及其周圍區(qū)域,大小為目標(biāo)框2倍的區(qū)域,記為:T2m×2n.將跟蹤區(qū)域圖像RGB顏色矩陣數(shù)值分別映射到{1,…,16}整數(shù)區(qū)域,則顏色直方圖由16×16×16=4 096種顏色向量組成,計(jì)算為:
(9)
目標(biāo)顏色和背景顏色分離是以當(dāng)前幀目標(biāo)顏色模板的顏色向量比重為計(jì)算依據(jù),比重較大的顏色向量為跟蹤目標(biāo)中較為突出的顏色.首先,統(tǒng)計(jì)跟蹤區(qū)域和目標(biāo)區(qū)域周圍的背景區(qū)域RGB顏色向量直方圖;然后,用對(duì)數(shù)法計(jì)算當(dāng)前幀目標(biāo)顏色的主要成分,詳見(jiàn)公式(10).顏色模板C16(Xt)的更新是提取每一幀目標(biāo)主要顏色進(jìn)行線性疊加,記為公式(11):
(10)
(11)
其中,Ht和Hb分別是跟蹤區(qū)域顏色直方圖和背景區(qū)域的顏色直方圖;δ為目標(biāo)顏色提取閾值常數(shù),取值范圍為(0,1),取值的大小決定了提取目標(biāo)主要顏色向量的數(shù)量,λ為顏色模板更新速率,設(shè)置合適的更新速率抑制背景色在目標(biāo)顏色模板中占據(jù)的比重.
將目標(biāo)顏色模板C16中大于閾值τ的RGB顏色向量在跟蹤區(qū)域中用二值模式標(biāo)注,目標(biāo)顏色標(biāo)注為1,背景顏色標(biāo)注為0,記為:
(12)
目標(biāo)中心位置計(jì)算采用均值漂移法[10],設(shè)上一幀目標(biāo)中心位置為Pt-1,當(dāng)前幀跟蹤區(qū)域二值矩陣Mt.首先,中心點(diǎn)初值設(shè)為Pt-1.然后,把Mt投影到高斯核函數(shù)上,減少離中心點(diǎn)遠(yuǎn)的坐標(biāo)影響權(quán)重.最后,逐步迭代尋找下一個(gè)中心點(diǎn)位置,直到兩次中心點(diǎn)間距離小于一定閾值,公式如下:
(13)
其中,g為歸一化常數(shù),⊙為二維矩陣的對(duì)應(yīng)點(diǎn)相乘,式中與二值矩陣M相乘作用是將背景色權(quán)值都?xì)w零.xj為M中每一點(diǎn)的坐標(biāo),n為M中像素的個(gè)數(shù).
相關(guān)濾波與顏色自適應(yīng)是由權(quán)值變量β來(lái)實(shí)現(xiàn)互補(bǔ),β是根據(jù)相關(guān)濾波得到的高斯核函數(shù)響應(yīng)圖R中數(shù)值計(jì)算得來(lái).當(dāng)跟蹤區(qū)域的背景色和目標(biāo)顏色布局變化較小,跟蹤區(qū)域與濾波模板進(jìn)行卷積產(chǎn)生的響應(yīng)圖如圖2(a)所示,近似于高斯二維分布;若背景和目標(biāo)顏色布局與濾波模板存儲(chǔ)的布局有較大差異,則響應(yīng)圖和圖2(b)類似,分布雜亂沒(méi)有規(guī)則.
圖2 互補(bǔ)實(shí)現(xiàn)
以響應(yīng)圖最大值點(diǎn)處為矩形框中心,矩形框大小為目標(biāo)框的尺寸(如圖2(b)所示),將響應(yīng)圖內(nèi)小于零的邊緣值置零,然后將數(shù)值進(jìn)行歸一化,計(jì)算框內(nèi)數(shù)值的和與響應(yīng)圖數(shù)值和的比值V.若當(dāng)前幀為第t幀,則β的計(jì)算公式見(jiàn)式(14),實(shí)驗(yàn)表明β取值主要介于0.6~0.9,β數(shù)值較小則相關(guān)濾波計(jì)算的目標(biāo)中心位置可信度較低.通過(guò)顏色自適應(yīng)計(jì)算的目標(biāo)中心位置進(jìn)行糾正,大大地降低了由于相關(guān)濾波算法的不足引起的中心位置漂移甚至跟丟.設(shè)顏色自適應(yīng)計(jì)算目標(biāo)中心位置為PCA,相關(guān)濾波計(jì)算目標(biāo)中心位置為PCF,則最終位置P的計(jì)算見(jiàn)式(15),直觀描述如圖2(c)所示.
(14)
(15)
4.1 參數(shù)設(shè)置
為驗(yàn)證本文跟蹤算法的有效性,進(jìn)行了大量的跟蹤實(shí)驗(yàn).使用IntelPentiumB960CPU,主頻為2.2GHz,4GB內(nèi)存配置電腦,在Matlab2009上運(yùn)行,平均跟蹤速度達(dá)116 幀/秒.實(shí)驗(yàn)過(guò)程中,算法的各個(gè)參數(shù)設(shè)置如下:式(2)中尺度參數(shù)初值設(shè)置為σ=1,式(3)中尺度變化抑制常數(shù)ρ=0.25,式(8)中濾波模板訓(xùn)練速率α=0.1,式(10)目標(biāo)顏色提取閾值δ=0.4,式(11)顏色模板學(xué)習(xí)速率λ=0.2,式(12)閾值τ=0.6.
為了充分說(shuō)明本文算法在處理目標(biāo)非剛性變形、背景干擾、局部遮擋及光照變化等方面的優(yōu)勢(shì),本文有針對(duì)性地選取了8段具有挑戰(zhàn)性的測(cè)試視頻.8段視頻及目標(biāo)真實(shí)位置均來(lái)自www.visual-tracking.com. 挑選了近些年8種跟蹤算法及算法公開的跟蹤數(shù)據(jù)結(jié)果進(jìn)行對(duì)比,算法分別是:CT[11]、DFT[12]、LSK[13]、LOT[14]、CXT[15]、BSBT[16]、VTD[17]、STC[4].
4.2 定性對(duì)比
選擇的8段公開測(cè)試視頻片段中有遮擋(Coke,Girl,F(xiàn)aceOcc1和Walking),光照變化(Coke,Trellis和MotorRolling),旋轉(zhuǎn)(Girl和MotorRolling),快速運(yùn)動(dòng)及模糊(Boy,MotorRolling和Deer)等問(wèn)題,見(jiàn)圖3跟蹤截圖.對(duì)部分目標(biāo)尺度較小的視頻,圖3中將顏色自適應(yīng)算法提取的目標(biāo)顏色顯示在圖的左上角.本文提出的CACF算法在這些視頻上均達(dá)到了較好的跟蹤效果,與8種對(duì)比算法跟蹤情況比較,說(shuō)明該算法具有更強(qiáng)的跟蹤魯棒性.
圖3 跟蹤截圖
4.3 定量對(duì)比
從圖4中不同跟蹤算法重疊率計(jì)算對(duì)比可以看出,CACF算法在8段視頻的平均重疊率均處于較高水平,在FaceOcc1、Coke序列具有明顯跟蹤重疊率優(yōu)勢(shì),分析原因是CACF算法在目標(biāo)顏色與背景顏色區(qū)別較大時(shí)跟蹤性能更突出.由表1目標(biāo)跟蹤中心位置誤差可以看出,CACF算法中心位置計(jì)算平均上較其余8種跟蹤算法更為準(zhǔn)確.
圖4 不同跟蹤算法重疊率對(duì)比
序列CTDFTLSKLOTCXTBSBTVTDSTCCACFBoy42.845.31180.6272.354.07209.368.1215.784.90Coke45.6256.1139.95144.2125.33379.7758.9414.449.68Girl17.7023.168.7322.926.7746.5111.388.244.56Deer243.55265.28177.0879.7023.99241.20212.8219.983.94Walking5.6682.314.233.47212.61361.155.4414.056.47Trellis41.2216.866.0352.3035.9777.0735.3926.219.20FaceOcc139.9527.2532.6234.2227.4562.2326.2818.2912.44MotorRolling161.89179.67171.12112.74141.62294.89162.6423.5220.69平均值73.6881.9977.5565.2459.73209.0265.1317.568.99
本文提出了顏色自適應(yīng)與相關(guān)濾波兩種算法互補(bǔ)的目標(biāo)跟蹤策略,彌補(bǔ)了相關(guān)濾波算法對(duì)跟蹤區(qū)域的顏色布局嚴(yán)重依賴的不足,能更好地應(yīng)對(duì)目標(biāo)變形和目標(biāo)快速運(yùn)動(dòng)時(shí)背景色導(dǎo)致目標(biāo)中心位置計(jì)算不穩(wěn)定等問(wèn)題.相關(guān)濾波對(duì)跟蹤區(qū)域背景顏色布局的利用能夠很好地處理遮擋問(wèn)題和目標(biāo)的顏色或光線變化問(wèn)題,彌補(bǔ)了顏色自適應(yīng)在這方面的不足.兩種算法利用相關(guān)濾波計(jì)算后的響應(yīng)圖數(shù)值特征進(jìn)行銜接,通過(guò)定性和定量的方式對(duì)本文方法進(jìn)行驗(yàn)證,本文方法平均跟蹤性能優(yōu)于其他算法,在應(yīng)對(duì)光照變化、遮擋、旋轉(zhuǎn)、快速運(yùn)動(dòng)及模糊等問(wèn)題具有較強(qiáng)的魯棒性,而且跟蹤速度達(dá)到了實(shí)時(shí)性要求;同時(shí)發(fā)現(xiàn),本文方法在處理光照變化和變形同時(shí)發(fā)生時(shí)效果不佳,兩種算法此時(shí)中心點(diǎn)位置計(jì)算都誤差較大,下一步擬通過(guò)對(duì)跟蹤區(qū)域提取紋理特征來(lái)改進(jìn)本文算法的不足.
[1] Bolme D S, Beveridge J R, Draper B, et al. Visual Object Tracking Using Adaptive Correlation Filters[C].Computer Vision and Pattern Recognition (CVPR), 2010 IEEE Conference on. IEEE, 2010: 2544-2550.
[2] Henriques J F, Caseiro R, Martins P, et al. Exploiting the Circulant Structure of Tracking-by-detection with Kernels[M].Computer Vision-ECCV 2012. Springer Berlin Heidelberg, 2012: 702-715.
[3] Henriques J F, Caseiro R, Martins P, et al. High-speed Tracking with Kernelized Correlation Filters[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2015, 37(3): 583-596.
[4] Zhang K, Zhang L, Liu Q, et al. Fast Visual Tracking Via Dense Spatio-temporal Context Learning[M].Computer Vision-ECCV 2014. Springer International Publishing, 2014: 127-141.
[5] 余旺盛, 侯志強(qiáng), 田孝華. 基于旋轉(zhuǎn)不變直方圖的快速匹配窮搜索[J]. 電子學(xué)報(bào), 2012, 40(11):2177-2182.
[6] 馬 麗, 常發(fā)亮, 郭立智. 基于顏色直方圖匹配的非剛性目標(biāo)跟蹤算法[J]. 青島理工大學(xué)學(xué)報(bào), 2005, 26(5):79-83.
[7] 劉惟錦, 章毓晉. 基于Kalman濾波和邊緣直方圖的實(shí)時(shí)目標(biāo)跟蹤[J]. 清華大學(xué)學(xué)報(bào):自然科學(xué)版, 2008, 48(7):1104-1107.
[8] 薛 明. 基于稀疏表示的在線目標(biāo)跟蹤研究[D].上海:上海交通大學(xué), 2014.
[9] 宋曉琳, 王文濤, 張偉偉. 基于LBP紋理和改進(jìn)Camshift算子的車輛檢測(cè)與跟蹤[J]. 湖南大學(xué)學(xué)報(bào):自然科學(xué)版, 2013, 40(8):52-57.
[10] 杜 凱. 基于均值偏移算法的運(yùn)動(dòng)目標(biāo)跟蹤算法的研究[D].西安:長(zhǎng)安大學(xué), 2012.
[11] Zhang K, Zhang L, Yang M H. Real-time Compressive Tracking[M].Computer Vision-ECCV 2012. Springer Berlin Heidelberg, 2012: 864-877.
[12] Sevilla-Lara L, Learned-Miller E. Distribution Fields for Tracking[C].Computer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference on. IEEE, 2012: 1910-1917.
[13] Liu B, Huang J, Yang L, et al. Robust Tracking Using Local Sparse Appearance Model and k-selection[C].Computer Vision and Pattern Recognition (CVPR), 2011 IEEE Conference on. IEEE, 2011: 1313-1320.
[14] Oron S, Bar-Hillel A, Levi D, et al. Locally Orderless Tracking[C].Computer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference on. IEEE, 2012: 1940-1947.
[15] Dinh T B, Vo N, Medioni G. Context Tracker: Exploring Supporters and Distracters in Unconstrained Environments[C].Computer Vision and Pattern Recognition (CVPR), 2011 IEEE Conference on. IEEE, 2011: 1177-1184.
[16] Stalder S, Grabner H, Van Gool L. Beyond Semi-supervised Tracking: Tracking Should be as Simple as Detection, But Not Simpler than Recognition[C].Computer Vision Workshops (ICCV Workshops), 2009 IEEE 12th International Conference on. IEEE, 2009: 1409-1416.
[17] Kwon J, Lee K M. Visual Tracking Decomposition[C].Computer Vision and Pattern Recognition (CVPR), 2010 IEEE Conference on. IEEE, 2010: 1269-1276.
[責(zé)任編輯 張 莉]
Complementary Object Tracking with Color Adaptive and Correlation Filter
Wu Diyun Wu Zhengping
(College of Electrical Engineering & Renewable Energy, China Three Gorges Univ., Yichang 443002, China)
In light of that the problem of correlation filter algorithm depends strongly on the spatial color layout of the target and background in object tracking, also that are extremely sensitive to deformation, moreover,target central location calculation inaccurate due to background color layout changes, a combining color adaptive with correlation filter(CACF) complementary object tracking strategy is proposed. In tracking process,firstly,according to the pre-frame learned filter model and color model to get the central location from the two algorithms, and then to assign them weights according to the numeral proportion in responses map which is produced by correlation filter, finally, the tracking coordinate is obtained. Tracking experiments show that this paper proposed algorithm (CACF) has great robustness to various challenging situation, outperforms the recent years state-of-the-art algorithms, also has high tracking efficiency.
color adaptive; correlation filter; complementary tracking; object tracking; tracking algorithm
2016-11-22
國(guó)家自然科學(xué)基金項(xiàng)目(61272237);湖北省教育廳科學(xué)技術(shù)研究計(jì)劃重點(diǎn)項(xiàng)目(D20151204);湖北省創(chuàng)新群體項(xiàng)目(2015CFA025)
吳迪云(1989-),男,碩士研究生,研究方向?yàn)槟J阶R(shí)別、圖像處理.E-mail:wudiyun2009@qq.com
10.13393/j.cnki.issn.1672-948X.2017.03.021
TP391.41
A
1672-948X(2017)03-0093-06