葉松濤 文雪琴
摘? ?要:太極拳視頻配準(zhǔn)是實(shí)現(xiàn)太極拳線上教學(xué)的首要問題。為實(shí)現(xiàn)太極拳視頻的自動(dòng)配準(zhǔn),提出了一種基于關(guān)節(jié)角度和DTW算法的太極拳視頻配準(zhǔn)方法。該方法主要利用人體關(guān)節(jié)角度消除太極拳視頻背景的干擾和不同太極拳視頻中人體大小不同的影響,并利用動(dòng)態(tài)時(shí)間規(guī)整(DTW)算法對(duì)不同時(shí)間點(diǎn)的視頻幀進(jìn)行配準(zhǔn)。在該方法中,首先計(jì)算出練習(xí)者動(dòng)作視頻中關(guān)節(jié)角度的時(shí)間序列,并使用指數(shù)平滑法消除時(shí)間序列中存在的誤差;然后利用上下幀之間的人體關(guān)節(jié)角度差分割時(shí)間序列;最后利用DTW算法求分割后得到的時(shí)間序列與標(biāo)準(zhǔn)動(dòng)作視頻中對(duì)應(yīng)的時(shí)間序列之間的距離,即可得到練習(xí)者與標(biāo)準(zhǔn)動(dòng)作之間的匹配度。實(shí)驗(yàn)結(jié)果表明:該方法中的指數(shù)平滑法對(duì)太極拳視頻配準(zhǔn)的精度有較大影響,以及如果用歐幾里得距離替換DTW算法將會(huì)較大的降低配準(zhǔn)精度。并且該方法在太極拳視頻配準(zhǔn)上與基于SIFT特征的方法相比,配準(zhǔn)精度更高,達(dá)到81.21%。
關(guān)鍵詞:太極拳;視頻配準(zhǔn);時(shí)間序列;動(dòng)態(tài)時(shí)間規(guī)整;指數(shù)平滑法
中圖分類號(hào):TP391.41? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?文獻(xiàn)標(biāo)識(shí)碼:A
TaiChi Video Registration Method Based on Joint Angle and DTW
YE Song-tao?覮,WEN Xue-Qin
(School of Computer Science,Xiangtan University,Xiangtan,Hunan 411105,China)
Abstract:TaiChi video registration is the primary problem in the online teaching of TaiChi. In order to realize the automatic registration of TaiChi video,a TaiChi video registration method based on joint angle and DTW algorithm is proposed. The method mainly uses the human joint angle to eliminate the interference of the TaiChi video background and the different human body size in different TaiChi videos,and uses the DTW algorithm to register the video frames at different time points. In this method,the time series of the joint angle in the exercise video of the practitioner is first calculated,and the error existing in the time series is eliminated by exponential smoothing;then the time series is segmented by the angle difference of the human joint between the upper and lower frames;Dynamic Time Warping(DTW) algorithm obtains the distance between the time series obtained after the segmentation and the corresponding time series in the standard action video,and the matching degree between the practitioner and the standard action can be obtained. The experimental results show that the exponential smoothing method in this method has a great influence on the accuracy of Tai Chi video registration,and if the DTW algorithm is replaced by Euclidean distance,the registration accuracy will be greatly reduced.Moreover,compared with the method based on SIFT feature,the method has higher registration accuracy of 81.21% in Tai Chi video registration.
Key words:Tai Chi;video registration;time series;dynamic time warping;exponential smoothing
太極拳線上教學(xué)工作將可以推進(jìn)太極拳在全球的傳播,其中進(jìn)行太極拳視頻配準(zhǔn)是實(shí)現(xiàn)太極拳線上教學(xué)工作的首要任務(wù)。
目前的視頻配準(zhǔn)方法主要基于圖像配準(zhǔn),并且圖像配準(zhǔn)方法主要基于灰度信息、優(yōu)化策略和特征進(jìn)行配準(zhǔn)。其中基于灰度信息的配準(zhǔn)算法實(shí)現(xiàn)簡單,但計(jì)算量巨大,對(duì)于復(fù)雜的太極拳視頻圖像配準(zhǔn)效果不理想;基于優(yōu)化策略的配準(zhǔn)算法可以對(duì)待搜尋區(qū)域的所有點(diǎn)進(jìn)行搜尋,但太極拳視頻圖像中除了人其余位置的像素點(diǎn)皆為干擾,用該算法將計(jì)算量大,還容易被誤導(dǎo);基于特征的配準(zhǔn)算法盡管效果較好,但在提取太極拳視頻圖像的特征點(diǎn)時(shí),容易被視頻中的背景干擾,提取出與人無關(guān)的特征。
從上述可以看出,將目前基于圖像配準(zhǔn)的視頻配準(zhǔn)方法應(yīng)用到太極拳視頻是不適用的。太極拳視頻在進(jìn)行配準(zhǔn)時(shí),需要克服以下3個(gè)問題:
(1)兩個(gè)太極拳視頻中的背景很可能不一樣,在進(jìn)行視頻配準(zhǔn)時(shí),不可能跟蹤顏色和紋理變化[1];
(2)目前大多數(shù)方法使用幀間差異進(jìn)行視頻分
割[2]-[3],但是太極拳視頻幀差異小;
(3)太極拳視頻中隨時(shí)間變化的動(dòng)作快慢不同,直接將對(duì)應(yīng)時(shí)間點(diǎn)的視頻幀進(jìn)行配準(zhǔn)將產(chǎn)生較大誤差。
為了解決上述描述的3個(gè)問題,提出了一種基于關(guān)節(jié)角度和DTW的太極拳視頻配準(zhǔn)方法。該方法主要分為以下3個(gè)部分:
1)通過OpenPose提取18個(gè)關(guān)節(jié)的坐標(biāo),并利用關(guān)節(jié)坐標(biāo)求得18個(gè)關(guān)節(jié)之間的角度,制作成關(guān)節(jié)的角度時(shí)間序列,再利用指數(shù)平滑法修改時(shí)間序列中的突變值,通過該步驟解決了上述的問題(1),消除了視頻背景的影響;
2)使用不同視頻幀之間的關(guān)節(jié)角度差對(duì)視頻
幀進(jìn)行聚類,將視頻分割成小視頻,該步驟解決了上述的問題(2),分割視頻幀差異小的太極拳視頻;
3)通過DTW算法求得分割后的練習(xí)者視頻
與標(biāo)準(zhǔn)動(dòng)作視頻的關(guān)節(jié)角度時(shí)間序列之間的距離,并將該距離總和作為判斷視頻配準(zhǔn)的依據(jù),該步驟解決了上述的問題(3),不同太極拳視頻中動(dòng)作快慢不一樣。
1? ?太極拳視頻配準(zhǔn)方法
針對(duì)太極拳視頻,提出了一種基于關(guān)節(jié)角度和DTW算法的太極拳視頻配準(zhǔn)方法,該方法的主要步驟如圖1所示。
在圖1中的6個(gè)步驟分別表示為:
Step1:輸入練習(xí)者的太極拳視頻;
圖1? ?太極拳視頻配準(zhǔn)的主要步驟
Step2:利用OpenPose提取出關(guān)節(jié)坐標(biāo),并利用關(guān)節(jié)坐標(biāo)制作出關(guān)節(jié)角度的時(shí)間序列;
Step3:利用指數(shù)平滑法調(diào)整關(guān)節(jié)的角度時(shí)間序列;
Step4:分割調(diào)整過的關(guān)節(jié)角度時(shí)間序列,得到關(guān)節(jié)的角度時(shí)間序列集;
Step5:利用DTW算法分別計(jì)算分割后的練習(xí)者視頻與標(biāo)準(zhǔn)動(dòng)作視頻的關(guān)節(jié)角度時(shí)間序列集合之間的距離di;
Step6:將得到的距離總和,并利用公式(1)求得最后分?jǐn)?shù)s。
s = 1 - ■? ? ? ? (1)
其中,m為關(guān)節(jié)角度時(shí)間序列集合的個(gè)數(shù),Di為練習(xí)者與標(biāo)準(zhǔn)動(dòng)作的第i個(gè)關(guān)節(jié)角度時(shí)間序列之間最大的距離。
1.1? ?制作關(guān)節(jié)角度時(shí)間序列
在介紹如何制作關(guān)節(jié)角度的時(shí)間序列之前,先解釋一下關(guān)節(jié)角度的時(shí)間序列。時(shí)間序列主要是記錄一個(gè)或多個(gè)屬性在一段時(shí)間內(nèi)發(fā)生變化時(shí)的值,其中關(guān)節(jié)角度時(shí)間序列是指每個(gè)時(shí)間點(diǎn)對(duì)應(yīng)于視頻的幀,并且時(shí)間序列中的值是人體關(guān)節(jié)角度。
因?yàn)槿梭w關(guān)節(jié)的角度不會(huì)被背景和人像大小影響,更能減少動(dòng)作匹配時(shí)的誤差,因此本文將關(guān)節(jié)角度作為太極拳視頻配準(zhǔn)的依據(jù)。制作關(guān)節(jié)角度時(shí)間序列的總體步驟如:
1)提取視頻中隨時(shí)間變化的關(guān)節(jié)坐標(biāo);
2)利用坐標(biāo)計(jì)算關(guān)節(jié)的角度,并為每個(gè)關(guān)節(jié)制作一個(gè)角度時(shí)間序列;
3)利用指數(shù)平滑法消除關(guān)節(jié)角度的時(shí)間序列中的突變值,使其變得更準(zhǔn)確。
本文所用的關(guān)節(jié)坐標(biāo)提取模型為OpenPose[4],OpenPose的骨架提取技術(shù)已經(jīng)較為成熟,所提取出的骨架效果如圖2所示。
圖2? ?骨架效果圖
接下來利用關(guān)節(jié)坐標(biāo)計(jì)算每一幀的關(guān)節(jié)角度。首先,確定求角度的基線,由于左臀部和右臀部之間的連線在太極拳視頻中相對(duì)于其他關(guān)節(jié)變化較小,因此將左右臀部之間的連線作為基線,然后計(jì)算基線和其余關(guān)節(jié)之間的角度,求得每一幀的關(guān)節(jié)角度。具體步驟如下所示:
1)首先確定以左右臀部的連線為基線,并利用左臀部的坐標(biāo)(x1,y1)和右臀部的坐標(biāo)(x2,y2)計(jì)算連線的距離a,計(jì)算公式為:
a = ■
2)然后計(jì)算剩余的16個(gè)關(guān)節(jié)與左右臀部之間的距離。假設(shè)該關(guān)節(jié)的坐標(biāo)(x3,y3),則該關(guān)節(jié)與左臀部的距離為:b = ■,該關(guān)節(jié)與右臀部的距離為:c = ■;
3)最后計(jì)算該關(guān)節(jié)與基線的角度。利用上述求出的a,b,c可求出角度θ,計(jì)算公式為:
θ = cos-1(■)
利用上述可計(jì)算出視頻幀中的16個(gè)關(guān)節(jié)的角度時(shí)間序列A = {{?墜ij}n? ?j=1}16j=1,其中i表示第i個(gè)視頻幀,j表示第j個(gè)關(guān)節(jié),16個(gè)關(guān)節(jié)中不包括基線的兩端左右臀部。
在太極拳動(dòng)作視頻中,關(guān)節(jié)角度的變化是平滑的,而OpenPose模型所提取的關(guān)節(jié)坐標(biāo)并不能完全正確,有時(shí)候關(guān)節(jié)被擋住使得不能被識(shí)別。為了消除這種誤差對(duì)結(jié)果的影響,使用了指數(shù)平滑法(ES),消除角度時(shí)間序列中突變的值。
ES是利用過去數(shù)據(jù)的加權(quán)平均進(jìn)行預(yù)測[5]。這種方法給相對(duì)更近一些的數(shù)據(jù)以較大的權(quán)重,而較遠(yuǎn)數(shù)據(jù)的權(quán)重則小一些,因?yàn)?,較近的數(shù)據(jù)對(duì)將來的影響比較遠(yuǎn)的數(shù)據(jù)對(duì)將來的影響大一些。
利用ES消除角度時(shí)間序列中突變值的具體步驟為:首先,找到角度時(shí)間序列中突變值的位置;然后利用指數(shù)平滑法用該位置之前的角度值預(yù)測該位置的值;最后,用預(yù)測出的值取代突變值,得到平滑的角度時(shí)間序列A′ = {{?墜′ij}n? ?j=1}16j=1,其中i表示第i個(gè)視頻幀,j表示第j個(gè)關(guān)節(jié),?墜′表示調(diào)整后的角度值。如圖3所示,展示了利用ES消除突變值的效果,其中圖3 (a)是使用ES之前的角度時(shí)間序列圖,而圖3(b)是使用之后的角度時(shí)間序列圖。從圖3中可以看出,圖3(b)中的角度時(shí)間序列消除了圖3(a)中時(shí)間點(diǎn)60-80之間的突變值,因此利用ES可以有效的解決OpenPose關(guān)節(jié)識(shí)別誤差的問題。
圖3? ?消除突變值前后的關(guān)節(jié)角度的時(shí)間序列對(duì)比圖
1.2? ?分割關(guān)節(jié)角度時(shí)間序列
目前關(guān)于視頻配準(zhǔn)問題已經(jīng)有了大量研究,但是大分布都關(guān)注在視頻幀之間的差異,而沒有關(guān)注視頻幀的內(nèi)容。由于本文針對(duì)的是太極拳視頻,如果僅利用視頻幀之間的差異進(jìn)行視頻幀配準(zhǔn),而不關(guān)注視頻幀的內(nèi)容,將會(huì)被視頻中的背景誤導(dǎo),從而忽略了太極拳視頻中的重點(diǎn):人體動(dòng)作。
因此在分割視頻幀時(shí),關(guān)注到了太極拳視頻中重要的內(nèi)容-人物動(dòng)作中的關(guān)節(jié)角度。分割太極拳視頻幀最主要的是找到動(dòng)作之間的轉(zhuǎn)折點(diǎn),而動(dòng)作之間的轉(zhuǎn)折點(diǎn)需要滿足以下兩個(gè)條件:
1)動(dòng)作轉(zhuǎn)折點(diǎn)所在位置為波峰或波谷,即在上一個(gè)角度差與下一個(gè)角度差的積為負(fù)數(shù)的位置;
2)動(dòng)作轉(zhuǎn)折點(diǎn)前后的角度差要大于一定閾值,此條件可排除小的動(dòng)作幅度。
根據(jù)上述描述,提出了一種針對(duì)太極拳視頻的視頻幀分割方法。方法步驟為:首先,利用角度時(shí)間序列計(jì)算出上一幀與下一幀之間的角度差;然后,找到滿足上一個(gè)角度差與下一個(gè)角度差之間的積為負(fù)數(shù)的位置;最后,在找到的位置中,計(jì)算前后的角度差,如果大于閾值,則該位置為分割點(diǎn),否則,不是分割點(diǎn),并在分割點(diǎn)處將時(shí)間序列分割,得到時(shí)間序列的集合β = {?墜′1,?墜′2,…,?墜′n},其中n為分割后的時(shí)間序列的個(gè)數(shù)。
如圖4所示,利用上述分割視頻幀的方法可以在左手腕關(guān)節(jié)的角度時(shí)間序列中找到A和B兩個(gè)分割點(diǎn),并分割成如圖5中(a)(b)(c)所示的時(shí)間序列圖。圖4的角度變化過程和分割點(diǎn)的確定可由圖6的動(dòng)作分解過程解釋。圖4中的左手腕角度時(shí)間序列在位置A之前的時(shí)間點(diǎn)對(duì)應(yīng)為圖6(a)到圖6(b)的過程,此時(shí)左手腕的角度只有較小變化;在位置A到位置B之間的時(shí)間點(diǎn)對(duì)應(yīng)為圖6(b)到圖6(c)的過程,此時(shí)左手腕的角度逐漸增大;在位置B之后的時(shí)間點(diǎn)對(duì)應(yīng)為圖6(c)到圖6(d)的過程,此時(shí)左手腕的角度逐漸減小。
LWrist(before)
time
圖4? ?左手腕關(guān)節(jié)的角度時(shí)間序列圖
圖5? ?分割后的左手腕關(guān)節(jié)的角度時(shí)間序列
圖6? ?動(dòng)作分解圖
1.3? ?進(jìn)行DTW匹配
通過上述方法已經(jīng)得到分割后的關(guān)節(jié)角度時(shí)間序列,接下來將計(jì)算分割好的練習(xí)者與標(biāo)準(zhǔn)動(dòng)作的關(guān)節(jié)角度時(shí)間序列集之間的距離。用于評(píng)估時(shí)間序列之間相似性的最廣泛使用的距離函數(shù)是歐幾里得距離和DTW算法。在文獻(xiàn)[6]中還有其他求時(shí)間序列之間相似性的方法。然而歐幾里得距離和其他方法需要兩個(gè)視頻在同一時(shí)間點(diǎn)上動(dòng)作的高度對(duì)應(yīng),不然在計(jì)算時(shí)容易產(chǎn)生誤差。而在計(jì)算兩個(gè)太極拳視頻的時(shí)間序列的相似性時(shí),并不能保證在同一個(gè)時(shí)間點(diǎn)上動(dòng)作的高度對(duì)應(yīng),因此選用DTW,DTW允許縮放和移動(dòng)時(shí)間軸以更恰當(dāng)?shù)赜?jì)算相似性。
DTW(Dynamic Time Warping)的概念最開始被引入到語音識(shí)別領(lǐng)域[7],以解決時(shí)間上不靈活性的問題。DTW距離通過允許拉伸和擠壓時(shí)間來計(jì)算兩個(gè)時(shí)間序列的最佳對(duì)齊序列。這種靈活性使得DTW在語音識(shí)別之外的許多應(yīng)用領(lǐng)域可被采用和適應(yīng),其中文獻(xiàn)[8]和文獻(xiàn)[9]介紹了在圖像序列和視頻上的適用性。
利用DTW求解時(shí)間序列之間的距離的主要原理是利用動(dòng)態(tài)規(guī)劃思想,并結(jié)合歐幾里得距離求解。利用公式(2)(3)(4)可求得時(shí)間序列X和Y之間距離,其中i表示X中的i坐標(biāo),j表示Y中的坐標(biāo),Dist(i,j)表示求i與j之間的歐幾里得距離。
利用上述步驟可求得分割后的時(shí)間序列與對(duì)應(yīng)的標(biāo)準(zhǔn)動(dòng)作的時(shí)間序列之間的距離di,并利用公式(1)求得練習(xí)者最后的評(píng)分s。
2? ?實(shí)? ?驗(yàn)
2.1? ?實(shí)驗(yàn)設(shè)備
表1? ?運(yùn)行環(huán)境
運(yùn)行環(huán)境:除了OpenPose模型是在GPU上運(yùn)行,其余運(yùn)行環(huán)境羅列在表1中。
2.2? ?實(shí)驗(yàn)數(shù)據(jù)和評(píng)估方法
為了驗(yàn)證本文提出的太極拳視頻方法的可靠性,特意找來了段位一到段位六的一百二十六位太極拳運(yùn)動(dòng)員,拍攝了陳氏太極拳老架一路中一到六式的視頻。如果提出的太極拳視頻配準(zhǔn)方法給這些視頻評(píng)的分與段位相符,則表示本文的動(dòng)作匹配方法是可靠的。
為了評(píng)估提出的太極拳視頻配準(zhǔn)方法,設(shè)計(jì)了一種評(píng)估方式。評(píng)估的主要步驟為:首先,從6個(gè)段位中,分別隨機(jī)抽取4個(gè)人,利用視頻配準(zhǔn)方法給這24個(gè)人打分;然后,將不同段位的人進(jìn)行排列組合,此時(shí)會(huì)有4096種不同的組合方式,將這4096種組合方式進(jìn)行排序,得到段位排序的字符串;最后,利用編輯距離[10]計(jì)算排序后的第i個(gè)字符串與正確的段位排序字符串之間的距離di,利用公式acc = ■求得匹配的準(zhǔn)確度。
2.3? ?實(shí)驗(yàn)對(duì)比和結(jié)果分析
由于視頻配準(zhǔn)方法目前所用的方法大多為基于圖像配準(zhǔn),并且圖像配準(zhǔn)的主要方法有基于灰度信息,優(yōu)化策略和特征等。其中,基于灰度信息的圖像配準(zhǔn)方法是對(duì)小形變圖像進(jìn)行高精度配準(zhǔn),但是不同太極拳視頻圖像之間有較大差異,因此基于灰度信息對(duì)太極拳視頻圖像配準(zhǔn)可明顯看出不適應(yīng),在實(shí)驗(yàn)對(duì)比上將排除該方法?;趦?yōu)化策略的圖像配準(zhǔn)是通過尋找使相似度達(dá)到最大值的變換參數(shù),從而配準(zhǔn)圖像,但是太極拳視頻圖像中除人以外的背景為干擾,如果使用優(yōu)化策略將會(huì)誤導(dǎo)配準(zhǔn)結(jié)果,因此在實(shí)驗(yàn)對(duì)比上也排除該方法?;谔卣鞯膱D像配準(zhǔn)主要通過從圖像中提取一部分點(diǎn)或線,使用的信息較少,應(yīng)用到太極拳視頻圖像中,有不確定性,因此將該方法與本文的方法作對(duì)比。
基于特征的圖像配準(zhǔn)方法,主要有基于SIFT和SURF特征的方法,其中Mikolajczyk和Schmid[11]通過對(duì)比SIFT、PCA-SIFT、Steerable Filter、Moment Invariants 等數(shù)十種特征點(diǎn)比較之后,指出SIFT特征仍是目前最為有效的特征檢測算子。
為了驗(yàn)證方法的有效性,共做了三組對(duì)比。一組是本文的方法與基于SIFT特征的方法作對(duì)比,一組是本文的方法中有和無ES作對(duì)比,最后一組為DTW算法與歐幾里得距離作對(duì)比。將不同的方法利用上述描述的評(píng)估方法進(jìn)行評(píng)估,得到這些方法的準(zhǔn)確度。其對(duì)比的結(jié)果如表2所示。從表2中可以看出,本文的方法明顯優(yōu)于基于SIFT特征的方法,并且添加了指數(shù)平滑法增加了結(jié)果的準(zhǔn)確性,所用的DTW算法也明顯優(yōu)于歐幾里得距離。
表2? ?實(shí)驗(yàn)對(duì)比評(píng)分
3? ?結(jié)? ?論
通過分析太極拳視頻配準(zhǔn)上的難點(diǎn),描述了用現(xiàn)有方法無法實(shí)現(xiàn)太極拳視頻配準(zhǔn)的高精度。因此提出了一種基于關(guān)節(jié)角度和DTW的太極拳視頻配準(zhǔn)方法,解決了太極拳視頻配準(zhǔn)的難點(diǎn)。從實(shí)驗(yàn)結(jié)果也可以看出,本文提出的太極拳視頻配準(zhǔn)方法與基于圖像的視頻配準(zhǔn)方法相比,有較高的精度。
參考文獻(xiàn)
[1]? ? SHAN C . Video search and mining[C]// Springer Publishing Company,Incorporated,2010.
[2]? ? PIRAMANAYAGAM S ,SABER E ,CAHILL N D ,et al. Shot boundary detection and label propagation for spatio-temporal video segmentation[C]// Image Processing:Machine Vision Applications VIII. International Society for Optics and Photonics,2015.
[3]? ? JIANG H,ZHANG G,WANG H,et al. Spatio-temporal video segmentation of static scenes and its applications[J]. IEEE Trans on Multimedia,2015,17(1):3—15.
[4]? ? CAO Z,SIMON T,WEI S,et al. Realtime multi-person 2D pose estimation using part affinity fields[C]// Proc of 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu:IEEE Press,2017:1302—1310.
[5]? ? BROWN R G . Exponential smoothing[M]. Encyclopedia of Operations Research and Management Science. Springer US,2013.
[6]? ? HUI D,GOCE T,PETER S,el al. Querying and mining of time series data:experimental comparison of representations and distance measures[C]// Proc of the VLDB Endow. VLDB Endowment Press,2008:1542—1552.
[7]? ? BERNDT D J,CLIFFORD J. Using dynamic time warping to find patterns in time series[C]// In Proc of the 3rd International Conference on Knowledge Discovery and Data Mining (AAAIWS'94). Seattle:AAAI Press,1994:359—370.
[8]? ? CHEN A P,LIN S F,CHENG Y C. Time registration of two image sequences by dynamic time warping[C]//Procof IEEE International Conference on Networking,Sensing and Control. Taiwan:IEEE Press,2004:418—423.
[9]? ? ASSENT I ,KREMER H. Robust adaptable video copy detection[C]// Proc of the 11th International Symposium on Advances in Spatial and Temporal Databases. Aalborg:Springer-Verlag Press,2009:380—385.
[10]? GAO X,XIAO B,TAO D,et al. A survey of graph edit distance[J]. Pattern Analysis and Applications,2010,13(1):113—129.
[11]? MIKOLAJCZYK K,SCHMID C.A performance evaluation of local descriptors[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(10):1615—1630.