陳楊華,張少林
(浙江科技學(xué)院 理學(xué)院,杭州 310023)
圖像自相關(guān)特征識(shí)別的算法改進(jìn)
陳楊華,張少林
(浙江科技學(xué)院 理學(xué)院,杭州 310023)
將理論分析與具體操作相結(jié)合,簡(jiǎn)析相似圖像識(shí)別的流程,包括關(guān)鍵點(diǎn)信息提取,如何利用關(guān)鍵點(diǎn)信息對(duì)顏色特征、紋理特征建立圖內(nèi)自相關(guān)模型。通過借鑒分詞系統(tǒng)的思想,提出一種能夠?qū)μ卣鲾?shù)據(jù)進(jìn)行結(jié)構(gòu)化處理的方法。仿真結(jié)果表明,該方法能較準(zhǔn)確地分配索引,并且能較快地匹配到相似圖像。
圖像識(shí)別;自相關(guān)特征;數(shù)據(jù)索引;算法改進(jìn)
圖像識(shí)別與處理作為近幾年國(guó)內(nèi)外研究的熱點(diǎn),目前已有了深度學(xué)習(xí)、卷積神經(jīng)網(wǎng)絡(luò)等識(shí)別率較高的算法[1-2],但這兩種算法在具體圖像識(shí)別應(yīng)用中,如果學(xué)習(xí)率大就很有可能陷入局部極小值的問題。為了維持模型的穩(wěn)定性,將學(xué)習(xí)率設(shè)置得很小,用大量的數(shù)據(jù)和訓(xùn)練時(shí)間來彌補(bǔ)缺陷,因此成本較大[3]。這兩種算法內(nèi)部屬于黑盒,存在大量的閾值和權(quán)值[4],無法將局部特征單獨(dú)提取成對(duì)應(yīng)屬性。針對(duì)上述不足,在中小平臺(tái)沒有巨大的數(shù)據(jù)支持情況下,使用筆者研究的方法具有以下優(yōu)點(diǎn):成本低,性價(jià)比高,采用距離匹配原則,不需要大量的數(shù)據(jù)和訓(xùn)練時(shí)間;使用高斯濾波進(jìn)行特征提取的優(yōu)化,因其對(duì)稱及模糊化的特性,保證了特征匹配的精確性和穩(wěn)定性,由此減輕了高維度下產(chǎn)生的過擬合影響;相比于其他特征提取方法,關(guān)鍵點(diǎn)特征提取在圖像關(guān)鍵信息保留的情況下,有效減少了計(jì)算機(jī)運(yùn)算時(shí)間和空間存儲(chǔ)量,也減少了非關(guān)鍵像素產(chǎn)生的差樣本過擬合現(xiàn)象的發(fā)生;在用圖內(nèi)自相關(guān)特征保證旋轉(zhuǎn)不變性和光照不變性[5]的同時(shí),區(qū)分關(guān)鍵點(diǎn)權(quán)重提高準(zhǔn)確性,而機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)算法它們本身是沒有這種特性的;建立倒排表[6]和特征詞典的數(shù)據(jù)索引[7],加快了檢索的效率;過程透明,詞典特征可以用來匹配對(duì)應(yīng)文本屬性進(jìn)行檢索。在本研究中,圖像自相關(guān)特征識(shí)別的流程主要分為圖像預(yù)處理、特征提取和索引建立三部分,其中,圖像預(yù)處理部分使用關(guān)鍵點(diǎn)提取的方式,特征提取部分使用顏色自相關(guān)信息提取和紋理自相關(guān)信息提取方式,分別對(duì)應(yīng)匹配圖像的顏色和空間結(jié)構(gòu),索引建立部分使用特征詞典的方法。
1.1 關(guān)鍵點(diǎn)信息提取的優(yōu)點(diǎn)
相比其他預(yù)處理方法,關(guān)鍵點(diǎn)信息提取[8]有以下幾個(gè)優(yōu)點(diǎn):過濾了非關(guān)鍵信息,僅讓關(guān)鍵信息進(jìn)入紋理特征的提取,從而減少了差樣本擬合現(xiàn)象的發(fā)生;增加關(guān)鍵點(diǎn)在圖像特征中的比重,以減少噪聲和背景的干擾,提高匹配的精確性;篩選出能近似表示圖像信息的特殊點(diǎn)集合,確保在后續(xù)計(jì)算過程中保留較完整圖像信息的同時(shí),減少程序處理的數(shù)據(jù)量,加快檢索速度。此外,因?yàn)橐鎏卣髟~典鏈,如果非關(guān)鍵點(diǎn)加入提取,就會(huì)產(chǎn)生信息冗余,而單圖像提取的特征盡量要簡(jiǎn)潔且具有代表性,這樣才能高效地檢索到目標(biāo)圖像,而關(guān)鍵點(diǎn)信息提取恰好有這樣的功能。
1.2 關(guān)鍵點(diǎn)信息提取的相關(guān)步驟
1)對(duì)計(jì)算機(jī)中圖像對(duì)應(yīng)存儲(chǔ)的ARGB顏色模型(透明度、紅色通道、綠色通道、藍(lán)色通道)進(jìn)行灰度化,得到單通道灰度集Y,并將其中的物理存值簡(jiǎn)化到8位二進(jìn)制保存。編程實(shí)現(xiàn)過程中可以使用位運(yùn)算或字節(jié)轉(zhuǎn)換等方式將ARGB模型通道分離。該過程能夠大大減少紋理特征提取所需的時(shí)間。單像素灰度化過程如圖1所示,其中Y的加權(quán)公式由人眼對(duì)光的敏感程度所得[9]。
圖1 灰度化過程Fig.1 Gray processing
2)用不同標(biāo)準(zhǔn)差的二維高斯核G去對(duì)圖像做卷積,在減輕噪聲的同時(shí)能將原圖構(gòu)建出不同模糊程度和不同遠(yuǎn)近的圖像尺度空間[5]。高模糊度用來匹配輪廓,低模糊度用來匹配細(xì)節(jié),其主要公式為
(1)
(2)
式2中:Y(i,j)與Ycenter分別為卷積區(qū)域在(i,j)位置的灰度及卷積中心灰度;N為高斯卷積窗口大小。根據(jù)二維高斯濾波函數(shù)的特性可知,在N=6σ+1時(shí)能保留99%以上的灰度能量,此時(shí)很難造成圖像變暗。
3)對(duì)相鄰尺度空間進(jìn)行高斯差分,就是相鄰兩幅圖對(duì)應(yīng)位置相減,得到差分點(diǎn)集D,因?yàn)楦咚篂V波在不同的標(biāo)準(zhǔn)差下會(huì)形成不同的模糊程度,而關(guān)鍵點(diǎn)有邊緣響應(yīng)的特性,因此,通過相減的方法能夠快速定位潛在關(guān)鍵點(diǎn)位置。
4)將點(diǎn)集D的灰度差看做第三維變量,用領(lǐng)域內(nèi)8個(gè)點(diǎn)的灰度擬合三維二次函數(shù)。用Hessian矩陣、領(lǐng)域極值點(diǎn)、區(qū)域方差對(duì)點(diǎn)集做曲率篩選[10]。Hessian矩陣為
5)合并圖像在不同高斯核標(biāo)準(zhǔn)差下的公共關(guān)鍵點(diǎn),最終得到關(guān)鍵點(diǎn)位置(i,j)、主曲率及標(biāo)準(zhǔn)差σ。
2.1 顏色自相關(guān)信息提取
顏色自相關(guān)特征提取的意義在于單一顏色直方圖往往不能反映出圖像結(jié)構(gòu),為此,在顏色直方圖的基礎(chǔ)之上,建立圖內(nèi)像素空間上的關(guān)聯(lián)及加大關(guān)鍵點(diǎn)對(duì)顏色空間貢獻(xiàn)度[11]。其步驟如下:
1)先將圖像的ARGB顏色空間轉(zhuǎn)為HSV(Hue色調(diào),Saturation飽和度,Value明度)顏色空間[7],將HSV顏色空間劃分為n個(gè)區(qū)域,獲得區(qū)域集合C{c1,c2,c3,c4,…,cn}。其中每個(gè)c表示圖內(nèi)滿足該區(qū)域顏色的像素點(diǎn)信息集合,n可以視具體使用場(chǎng)景定義,若圖像庫顏色類別多則細(xì)分;反之亦然。
2)由小到大建立距離集D{d1,d2,d3,d4,…,dm},d1=0,dm=圖像長(zhǎng)和寬之間的最大值,正常情況下dm=m,每次距離集增量為1,當(dāng)然,這可以根據(jù)使用場(chǎng)景給定更好的值。
3)對(duì)關(guān)鍵點(diǎn)位置像素賦于高權(quán)重,提高相似匹配的精確性,但要遵守一定的規(guī)則,若關(guān)鍵點(diǎn)的數(shù)量占圖像所有像素點(diǎn)數(shù)量的比例較大,那么分給每個(gè)關(guān)鍵點(diǎn)的權(quán)值也就越小,但關(guān)鍵點(diǎn)的權(quán)值仍大于等于非關(guān)鍵點(diǎn)的權(quán)值。
4)依次在不同距離下(D),統(tǒng)計(jì)各區(qū)域(C)像素之間滿足距離約束的像素總數(shù),形成m個(gè)空間像素量集合S。在距離為dk(1 5)以長(zhǎng)寬為500像素的圖像和HSV模型劃分為64個(gè)區(qū)域?yàn)槔?在上述過程后,得到單圖向量維度為500×64×64,單特征的維度為64×64需要進(jìn)行低維化,考慮到k從1到500的距離遞增過程中,距離集合中每個(gè)空間像素量集合是同等地位的[12],因此,可以將所有空間顏色集合對(duì)應(yīng)位置相加合并,這樣,單圖向量維度等于單特征向量維度僅為64×64。 6)進(jìn)行歸一化,去除縮放影響,以方便顏色相似度測(cè)量[12]。 2.2 紋理自相關(guān)信息提取 根據(jù)人眼識(shí)別特性進(jìn)行圖像灰度化后,統(tǒng)計(jì)關(guān)鍵點(diǎn)領(lǐng)域梯度信息作為描述子,將所有描述子的集合作為圖像的紋理特征[5]。步驟如下: 1)獲取大小為N×N的特征點(diǎn)窗口內(nèi)像素梯度方向,以相同窗口大小的二維高斯核平滑后,做向量疊加,獲得主梯度方向。 2)旋轉(zhuǎn)x軸正方向至主梯度方向,這樣能夠保證圖像的旋轉(zhuǎn)不變性。統(tǒng)計(jì)大小為N×N窗口內(nèi)像素梯度方向(經(jīng)坐標(biāo)旋轉(zhuǎn)后)與主方向的自相關(guān)角度差β(-π≤β<π),其中π代表弧度制中的180°。以大小為16的高窗口1張圖含100個(gè)關(guān)鍵點(diǎn)為例,那么單圖向量維度為25 600,單特征向量維度為256,可以通過固定區(qū)域的形式把高維向量映射到低維度區(qū)域上來減少維災(zāi)的發(fā)生。 3)低維化,構(gòu)造區(qū)域直方圖[10],將角度差劃分為n個(gè)區(qū)域,每個(gè)區(qū)域大小為2π/n,當(dāng)β落在某個(gè)區(qū)域中時(shí),將其梯度模長(zhǎng)加入到當(dāng)前區(qū)域直方圖Histogram。如果將角度劃分為10個(gè)區(qū)域,那么1張圖的向量維度為1 000,單特征向量度僅為10。 4)進(jìn)行歸一化,即 讓周圍的點(diǎn)分到的是相對(duì)于中心關(guān)鍵點(diǎn)的權(quán)重,這樣做能夠減輕光照的影響。 3.1 結(jié)構(gòu)化方法——Lucene分詞系統(tǒng) Lucene分詞系統(tǒng)[13]以文章中的關(guān)鍵詞作為文章特征,通過關(guān)鍵詞在所有文章中的比例,以及在對(duì)應(yīng)文章中出現(xiàn)的頻次來分析關(guān)鍵詞和文章的對(duì)應(yīng)關(guān)系,建立關(guān)鍵詞索引,合并相同詞匯后達(dá)到樹搜索的效果,從而大大加快了搜索速度。延伸到圖像識(shí)別過程中,通過分析圖像的關(guān)鍵點(diǎn)處的特征信息,建立圖像特征詞典用來模擬Lucene中的關(guān)鍵詞索引,以達(dá)到樹搜索的目的,并且加以改進(jìn),讓搜索路線按照可能最大相似度為目的進(jìn)行動(dòng)態(tài)搜索,通過頻率和編號(hào)的調(diào)整來達(dá)到優(yōu)化存儲(chǔ)的效果。 3.2 結(jié)構(gòu)化的原因 1)完整圖像信息所占內(nèi)存非常大,特別是在生成自相關(guān)特征描述子階段,如果不進(jìn)行優(yōu)化,那么處理的數(shù)據(jù)量增大,內(nèi)存中的保存圖像數(shù)量也會(huì)變少,導(dǎo)致文件讀取的IO操作變多,而這樣非常耗時(shí)。因此,盡量把信息合并和壓縮后放到內(nèi)存中去,才能夠大大加快檢索效率。 2)順序匹配的效率非常低下,會(huì)造成很多資源的浪費(fèi),比如選取TOP5(相似度最高的5幅圖像所組成的集合)時(shí),需要匹配所有特征后才能得出最接近的TOP5圖像集。但是,如果用詞典序檢索,因?yàn)樘卣鞯暮喜?能夠一次匹配多個(gè)特征,并且能計(jì)算出對(duì)應(yīng)圖像剩余可能相似度,當(dāng)其不足以改變TOP5的排名時(shí),不進(jìn)行匹配。 3)從代碼層面來看,檢索功能和特征提取功能也可以分別建立模塊,這有利于減少功能間的相互影響,更有利于系統(tǒng)的擴(kuò)展和代碼的復(fù)用。模塊圖如圖2所示。 圖2 檢索功能和特征提取模塊圖Fig.2 Retrieval function and feature extraction module 3.3 建立圖像詞典 建立詞典對(duì)數(shù)據(jù)進(jìn)行壓縮,對(duì)索引進(jìn)行結(jié)構(gòu)化。自相關(guān)特征主要遵循兩點(diǎn)規(guī)則:橫向比較,若該特征在所有的特征中出現(xiàn)比例低,則越能體現(xiàn)該特征對(duì)于索引圖像的重要性;縱向比較,若該特征相似合并后占圖內(nèi)特征數(shù)量比大,則也越能體現(xiàn)該特征對(duì)于索引圖像的重要性。相關(guān)過程如下: 圖3 高斯窗口內(nèi)的弧Fig.3 Arc within the Gauss window 1)提取圖像的關(guān)鍵點(diǎn)、顏色特征、紋理特征的文本信息。 2)用歐氏距離對(duì)圖像集內(nèi)的每個(gè)特征進(jìn)行距離及相似度的計(jì)算,合并相似特征,其中占比較大的稱為高頻特征,提高其詞典所占權(quán)重。以圓為例其高頻特征就是在高斯窗口內(nèi)的那段弧,如圖3所示。 3)將特征作為詞典,以圖像鏈表的方式進(jìn)行存儲(chǔ),稱之為倒排表[13]。確定匹配模型的圖像與特征的關(guān)系,建立特征匹配的索引結(jié)構(gòu)。建立數(shù)據(jù)索引倒排表,結(jié)構(gòu)如圖4所示。 圖4 特征匹配的索引結(jié)構(gòu)Fig.4 Index structure of feature matching 4)將詞典和倒排表轉(zhuǎn)換成文本信息。 3.4 壓縮倒排表 由于倒排索引文件往往占用巨大的磁盤空間,引進(jìn)壓縮算法使得磁盤占用減少,從而加快檢索效率。壓縮數(shù)據(jù)處理倒排表包括索引編號(hào)、出現(xiàn)頻次和位置序列三部分。描述一個(gè)壓縮算法的三大指標(biāo)為壓縮率、壓縮速度和解壓縮速度,壓縮過程如下: 1)依次比較屬性規(guī)定的特征與其他自相關(guān)特征的相似度。如果極為相似,則記錄下屬性編號(hào),匹配特征位置序列及統(tǒng)計(jì)該特征出現(xiàn)頻次,得到如圖5所示的詞典鏈表。 圖5 記錄特征出現(xiàn)頻次的詞典鏈Fig.5 Dictionary chain for recording feature occurrence frequency 2)對(duì)所有詞典鏈表按照出現(xiàn)情況頻次進(jìn)行遞增排序。根據(jù)zipf定律[14],在相對(duì)較大圖像庫中頻次排名前20%的高頻特征占所有圖像的80%,而其余80%的特征僅占20%。因此,重新分配編號(hào),對(duì)頻次較高的屬性給出占用內(nèi)存小的編號(hào)。同理,將剩下占用內(nèi)存較大的編號(hào)分配給頻次低的屬性特征。 3)將編號(hào)存儲(chǔ)改用編號(hào)差值存儲(chǔ),對(duì)檢索大量圖片能夠有效降低存儲(chǔ)量[15],例如: 4.1 實(shí)驗(yàn)環(huán)境 正常情況下JAVA處理的速度是C處理速度的1/20~1/10,因此圖像檢索速度比較慢,但不影響算法對(duì)比。運(yùn)行環(huán)境配置:win10、64位操作系統(tǒng)、虛擬內(nèi)存4 G、CPU功率2.0 GHZ、JDK1.8。實(shí)驗(yàn)圖片信息:分辨率500×500,位深24位,占用內(nèi)存732 kB,格式為PNG。 4.2 單圖提取特征時(shí)間 1)圖像顏色數(shù)據(jù)灰度化,灰度Y集合用數(shù)組數(shù)據(jù)保存,平均花費(fèi)時(shí)間約30 ms。程序默認(rèn)參數(shù)設(shè)置最小圖像長(zhǎng)寬大小為64像素,因此,默認(rèn)尺度為分別1、0.5、0.25,初始高斯核標(biāo)準(zhǔn)差為1.6。高斯核過濾及完成高斯差分DOG運(yùn)行大約時(shí)間分別為168、31、8 ms。由所處位置能輕易獲取到點(diǎn)的主曲率、所在尺度及區(qū)域方差等信息。原圖及過濾后關(guān)鍵點(diǎn)位置如圖6所示。 圖6 關(guān)鍵點(diǎn)提取Fig.6 Extract key points 2)原RGB模型轉(zhuǎn)HSV模型所需時(shí)間大約97 ms。顏色空間集合轉(zhuǎn)換時(shí)間約320 ms。默認(rèn)顏色空間距離集合從1到最大距離500,顏色劃分為16個(gè)區(qū)域,共256維。 3)描述子生成時(shí)間約798 ms。 4)索引建立時(shí)間約401 ms。 在上述配置中,完成1次自相關(guān)特征提取并建立索引所需時(shí)間約為1 853 ms,索引建立時(shí)間約占總提取時(shí)間的21.64%。 4.3 單圖特征數(shù)據(jù)量 1)歸一化之后數(shù)據(jù)存儲(chǔ)為double類型,一個(gè)描述子128維,占數(shù)據(jù)量大,紋理自相關(guān)特征數(shù)據(jù)量約為202 kB。 2)相比較紋理特征,顏色自相關(guān)特征數(shù)據(jù)量就比較少了,約為1 kB。 3)詞典建立后,由于信息量的增加,數(shù)據(jù)量約為225 kB,壓縮后數(shù)據(jù)量約為56 kB。 4)實(shí)驗(yàn)將原圖復(fù)制1份并順旋轉(zhuǎn)90°與原圖構(gòu)成新的圖像庫。壓縮后數(shù)據(jù)量約為70 kB。 500個(gè)空間顏色集合合并后僅存儲(chǔ)1 kB。紋理特征在結(jié)構(gòu)化時(shí),因單幅圖像的特征額外附帶描述子大小、所在尺度、位置序列及出現(xiàn)頻次等結(jié)構(gòu)信息,因此所占內(nèi)存反而增大。而壓縮詞典過程中,相似的描述子不再記錄128維的double類型數(shù)據(jù),僅僅存放結(jié)構(gòu)信息,所以數(shù)據(jù)量減少。 4.4 檢索結(jié)果仿真 由于是建立在中小數(shù)據(jù)量的前提下,因此,用本研究檢索算法只與常用特征提取的算法進(jìn)行比較,沒有必要與深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)等需要海量數(shù)據(jù)的算法進(jìn)行比較。筆者隨機(jī)選取100張經(jīng)過有損壓縮后的JPG圖像放入圖像庫,分為T恤、毛衣、裙子、褲子、鞋子5類,每類20張,如圖7所示。所有圖像經(jīng)過旋轉(zhuǎn)和調(diào)節(jié)明暗程度后放入等待檢索庫,測(cè)試每張圖檢索結(jié)果的TOP3準(zhǔn)確率與類目TOP5召回率。每個(gè)圖像大小接近10 kB,圖像庫文件夾大小為987 kB,圖像索引總數(shù)據(jù)量為142 kB。同一內(nèi)存下,索引能表達(dá)的圖像數(shù)量為初始文件所能表達(dá)圖像數(shù)量的6.95倍左右。仿真結(jié)果見表1。 圖7 檢索圖像Fig.7 Retrieval image 表1 仿真結(jié)果Table 1 Simulation results 注:括號(hào)內(nèi)為匹配到的圖像數(shù)量。 本研究對(duì)圖像自相關(guān)特征檢索流程進(jìn)行分析,與常用特征提取方法進(jìn)行相比較,其準(zhǔn)確率和用時(shí)有所提升。實(shí)際圖像特征提取的編程實(shí)現(xiàn)過程非常復(fù)雜,可以借助一些已有的框架進(jìn)行改良。本研究的特征提取算法為改良后的sift自相關(guān)算法與顏色空間自相關(guān)算法的結(jié)合。有了初步的基礎(chǔ)后,可以進(jìn)一步研究如何在建立特征詞典與對(duì)應(yīng)屬性的聯(lián)系時(shí),用文本屬性去描述圖像特征,整合文本檢索。此外,索引的文檔目錄樹還需進(jìn)一步拆分,以提升識(shí)別速度。 [1] SUN Y, WANG X G, TANG X O.Deep learning face representation from predicting 10,000 classes[C]//Computer Vision and Pattern Recognition(C)VPR.Columbus: IEEE,2014:1891. [2] ANDREAS J, ROHRBACH M, DARRELL T, et al. Deep compositional question answering with neural module networks[C]//Computer Vision and Pattern Recognition(CVPR). Las Vegas: IEEE,2016. [3] GRAVES A, MOHAMED A R, HINTON G. Speech recognition with deep recurrent neural networks[C]//IEEE International Conference on Acoustics. Vancouver: IEEE,2013:6645. [4] HERMANN K M, KOCISKY T, GREFENSTETTE E, et al. Teaching machines to read and comprehend[C]// Advances in Neural Information Processing Systems(NIPS). Quebec: NIPS,2015:1684. [5] LOWE D G.Distinctive image features from scale-invariant keypoints[J].Intenational Journal of Computer Vision,2004,60(2):90. [6] 楊安生.基于倒排表的中文全文檢索研究[J].情報(bào)探索,2009(7):78. [7] SUN H A, ZHANG L.The design and implementation of the medical education vertical retrieval based on lucene.net[J].Open Education Research,2011,58(2):295. [8] 竇育民,黃仁杰,李濤,等.基于關(guān)鍵點(diǎn)的輪廓描述方法[J].計(jì)算機(jī)應(yīng)用研究,2015,32(5):1525. [9] 劉慶祥,蔣天發(fā).彩色與灰度圖像間轉(zhuǎn)換算法的研究[J].武漢理工大學(xué)學(xué)報(bào)(交通科學(xué)與工程版),2003,27(3):345. [10] 彭興璇,唐雪嬌,董星.基于改進(jìn)SIFT算法在圖像匹配中的研究[J].微型機(jī)與應(yīng)用,2015(20):37. [11] 王保平,趙靜,蘇建康,等.基于局部顏色-空間特征的圖像檢索方法研究[J].計(jì)算機(jī)應(yīng)用與軟件,2012,29(5):28. [12] 湯慧,唐朝暉,彭鐵光.基于HSV空間顏色特征的圖像內(nèi)容檢索及應(yīng)用[J].中國(guó)科技信息,2011(12):90. [13] 鄭榕增,林世平.基于Lucene的中文倒排索引技術(shù)的研究[J].計(jì)算機(jī)技術(shù)與發(fā)展,2010,20(3):80. [14] 劉勝久,李天瑞,珠杰.Zipf定律與網(wǎng)絡(luò)信息計(jì)量學(xué)[J].中文信息學(xué)報(bào),2015,29(4):90. [15] 林俊鴻,姜琨,楊岳湘.倒排索引查詢處理技巧[J].計(jì)算機(jī)工程與設(shè)計(jì),2015,36(3):573. Improved algorithm of image auto-correlative feature recognition CEHN Yanghua, ZHANG Shaolin The paper combines theoretical analysis with specific operation to briefly analyze the recognition process of similar images, on how to extract information of key points and how to set up auto-correlative models within images for color features and texture features by using information of key points. By referring to the Lucene word segmentation system, a structure approach is proposed to process feature data. The simulation results show that this approach can accurately allocate index and match similar images at a fast speed. image identification; auto-correlative feature; data index; improved algorithm 10.3969/j.issn.1671-8798.2017.01.005 2017-01-17 國(guó)家級(jí)大學(xué)生創(chuàng)新創(chuàng)業(yè)訓(xùn)練計(jì)劃項(xiàng)目(201511057015) 張少林(1961— ),男,湖北省監(jiān)利人,副教授,碩士,主要從事計(jì)算機(jī)應(yīng)用研究。E-mail:1394009585@qq.com。 TP391.413 A 1671-8798(2017)01-0024-073 數(shù)據(jù)結(jié)構(gòu)化
4 JAVA下的測(cè)試實(shí)例
5 結(jié) 語
(School of Sciences, Zhejiang University of Science and Technology, Hangzhou 310023, Zhejiang, China)