姜祖新 張德賢 張苗 李軍軍
摘要:該文提出基于Bag of words模型,提取圖像的SIFT特征,然后用K-medoids算法對其進行聚類,生成詞典查詢所需用的關鍵字,最后用adaboosting算法構建分類器,實驗采用pascal圖像庫中的數(shù)據(jù)進行訓練和測試,實驗證明,該算法具有訓練和測試速度快,分類精度高等特點,特征提取速度和分類速度非常快。
關鍵詞:尺度不變特征;聚類算法;圖像分類性能
中圖分類號:TP311文獻標識碼:A文章編號:1009-3044(2012)09-2075-02
Base on Scale Invariant Features Image Classification Technology Research
JIANG Zu-xin,ZHANG De-xian, ZHANG Miao,LI Jun-jun
(School of Information Science and Engineering, Henan University of Technology,Zhengzhou 450001,China)
Abstract: Image classification has a wide application in computer vision and image processing area, and it also has significant value in practical applications. Therefore, this paper proposes a model based on Bag of words to extract the SIFT characteristic of image, and then using K-medoids algorithm to cluster them and generate the Key words dictionary query needs. Finally, it builds the sorter with adaboosting algorithm. The experiment uses the data in pascal image libary to do training and testing, and the result shows that this algorithm has high training and testing speed, high accuracy on classification, ect. Moreover, the feature extraction and classificiton speed is very high.
Keywords: scale invariant features;clustering algorithm; image classification performance
隨著數(shù)字圖像處理技術的日益成熟,大容量存儲設備價格不斷下降和計算機網(wǎng)絡,面對如此浩瀚的數(shù)字圖像資源,人們很容易在互聯(lián)網(wǎng)雜亂無序的信息海洋中迷失方向,如何管理、存儲并迅速、準確地檢索到所需圖像,從而最有效地利用圖像提供給人們的便利,是圖像分類領域不得不面對的一個問題。
該文提出基于尺度不變特征的圖像分類技術來提取圖像的sift特征,然后用AdaBoosting算法進行圖像的自動分類,一方面,很好的抵抗圖像縮放和旋轉畸變以及噪聲的能力而具有同類技術所不具備的優(yōu)勢。另一方面,可以有效的解決各個領域中海量圖像的分類管理,并且完善多媒體信息理論的研究和發(fā)展。
1基于尺度不變特征的圖像分類技術的提出
現(xiàn)在商用的圖像分類系統(tǒng)還不是真正根據(jù)圖像所包含的內容來進行分類的,只是依靠圖像的紋理特征,幾何特征,顏色特征以及數(shù)理統(tǒng)計特征等來對圖像進行分類,容易受到物體角度,光照強度等可變因素的影響,分類精度有限。而基于SIFT特征的圖像分類技術在提取特征點時采用金字塔方法,提取的特征點數(shù)穩(wěn)定且相對較多,同時具有很好的抵抗圖像縮放和旋轉畸變以及噪聲的能力,在基于內容的圖像分類領域,優(yōu)越性非常明顯。在國內,基于SIFT特征的應用系統(tǒng)和研究較少,該文旨在通過高性能的圖像特征提取算法和機器學習分類算法搭建可擴展的算法,以滿足實際生活中對圖像識別的巨大需求。
2基于搭建可擴展算法的評價與研究
2.1 sift算法描述
SIFT算法[1]是一種提取局部特征的算法,在尺度空間尋找極值點,提取位置,尺度,旋轉不變量。該算法的主要步驟如下:
1)利用圖像金字塔構造多尺度空間
2)空間極值點檢測
為了尋找尺度空間的極值點,每一個采樣點要和它所有的相鄰點比較,看其是否比它的圖像域和尺度域的相鄰點大或者小。
3)精確確定極值點位置
通過擬和三維二次函數(shù)以精確確定關鍵點的位置和尺度,同時去除低對比度的關鍵點和不穩(wěn)定的邊緣響應點,以增強匹配穩(wěn)定性、提高抗噪聲能力。
4)關鍵點方向分配
利用關鍵點鄰域像素的梯度方向分布特性為每個關鍵點指定方向參數(shù),使算子具備旋轉不變性。并用直方圖統(tǒng)計鄰域像素的梯度方向。直方圖的峰值則代表了該關鍵點處鄰域梯度的主方向,即作為該關鍵點的方向。
5)特征點描述子生成
以特征點為中心取16*16的鄰域作為采樣窗口,將采樣點與特征點的相對方向通過高斯加權后歸入包含8個bin的方向直方圖,最后獲得4*4*8的128維特征描述子。
2.2 Bag of Words特征表示
Bag of Words模型最初被用在文本分類[2]中將文檔表示成特征矢量,它的基本思想是完全不考慮文檔中單詞的位置,將文檔當成一個詞袋(Bag of Words)。與之類似,我們可以將圖像當成一些圖像片段(Image Patch)的集合,然后,需要統(tǒng)計每個圖像片段(Codebook)出現(xiàn)的頻率,然后將它們表示成TFIDF的形式。
2.3 K-medoids算法的基本思想
K-MEDODIS算法是數(shù)據(jù)挖掘技術中基于劃分法的一個經典的聚類算法,因其理論可靠、算法簡單、收斂速度快而被廣泛應用[3]。K-MEDOIDS聚類算法的基本思想是:通過任意為每個聚類找到一個代表對象而首先確定n個數(shù)據(jù)的K個聚類,按照最小距離原則,其它對象根據(jù)與這些聚類代表的距離分別歸屬到各組相應的聚類中。如果替換一個聚類代表能夠改善所獲聚類質量的話,那么,可以用一個新對象替換聚類對象。聚類質量是否改善可采用成本函數(shù)進行評估,該評估函數(shù)如下:21EEE?=-其中,E?代表方差的變化,E2代表替換后所有數(shù)據(jù)對象與相應聚類中心的均方差之和,E1代表替換前所有數(shù)據(jù)對象與相應聚類中心的均方差之和。如E?為負數(shù),代表聚類質量得到改善,就替換掉該聚類代表,否則仍用原來的聚類代表。
2.4 AdaBoost算法
AdaBoost算法[4]起源機器學習中的PAC模型,它針對不同的訓練集訓練同一個基本分類器(弱分類器),然后把這些在不同訓練集上得到的分類器集合起來,構成一個更強的最終的分類器(強分類器)。理論證明,只要每個弱分類器分類能力比隨機猜測要好,當其個數(shù)趨向于無窮個數(shù)時,強分類器的錯誤率將趨向于零。
AdaBoost算法中不同的訓練集是通過調整每個樣本對應的權重實現(xiàn)的。最開始的時候,每個樣本對應的權重是相同的,對于錯分的樣本,則增加其對應樣本的權重;而對于正確分類的樣本,則降低其權重。這樣可以使得錯分的樣本突出出來,并得到一個新的樣本分布。在新的樣本分布下,再次對基本分類器進行訓練,得到基本分類器及其權重。依次類推,經過T次這樣的循環(huán),就得到了T個基本分類器,以及T個對應的權重。最后把這T個基本分類器按一定權重累加起來,就得到了最終所期望的強分類器。
3實驗
為了驗證分類器的效率和性能,該文的實驗基于當前國際公開的Pascal圖像數(shù)據(jù)集來測試分類算法的性能,具有較高的可信度。在C++和opencv的環(huán)境下對該文提出的算法進行了多次實驗。圖像數(shù)據(jù)主要有6類,每類依據(jù)隨機種子的選取隨機選擇40幅作訓練,40幅做測試。表1為不同的圖像分類器測試的結果以及分類器的性能指標。
表1不同的圖像分類器測試的結果
4結論
AdaBoosting算法對圖像進行分類,該算法具有訓練和測試速度快,分類精度高等特點(可以比得上支持向量機)。特征提取速度和分類速度非???,一副圖片的分類的總時間大概為1秒,當前在小數(shù)據(jù)集上達到的分類精度為75%左右,調整系統(tǒng)的參數(shù)和采用更多圖像數(shù)據(jù),可以進一步改善系統(tǒng)的性能。該文提出的搭建可擴展的算法可以處理Pascal數(shù)據(jù)集的105類圖片的上千文件,得到100多萬左右的特征,但是仍然不會出錯。
參考文獻:
[1] Lowe, David G.,“Object recognition from local scaleinvariant features,”International Conference on Computer Vision, Corfu, Greece(September 1999), pp. 1150-1157.
[2]施培蓓.數(shù)據(jù)挖掘技術中聚類算法的研究[D].江南大學,2008.
[3]徐義峰,陳春明,徐云青.一種改進的K-均值聚類算法[J].計算機應用與軟件,2008,25(3):275-277.
[4]Robert E. Schapire and Yoram Singer, Improved Boosting Algorithms Using Confidence-rated Predictions, Machine Learning,37:297-336, 1999.