(浙江交通職業(yè)技術(shù)學(xué)院機(jī)電與航空學(xué)院,浙江 杭州311112)
機(jī)器視覺技術(shù)具有快速、精確、直觀、穩(wěn)定等諸多優(yōu)點(diǎn),在工業(yè)、農(nóng)業(yè)、交通、醫(yī)學(xué)等各種重要領(lǐng)域有著非常廣泛的應(yīng)用。目前對(duì)機(jī)器視覺應(yīng)用的需求越來越多,針對(duì)物體識(shí)別的機(jī)器視覺應(yīng)用已經(jīng)成為熱門。目前普遍采用的傳統(tǒng)物體識(shí)別框架為先訓(xùn)練,后識(shí)別,訓(xùn)練和識(shí)別過程分開進(jìn)行[1-3],訓(xùn)練和識(shí)別分離的框架有一定的局限性,針對(duì)新物體和變化的環(huán)境,需重新訓(xùn)練,適應(yīng)性差,實(shí)時(shí)性低,自主學(xué)習(xí)能力弱,這些問題限制了識(shí)別系統(tǒng)智能的進(jìn)一步提高。針對(duì)這些問題,研究人員提出的在線識(shí)別框架在一定程度上解決了以上問題,但仍然有不少困難。文獻(xiàn)[4]將增量學(xué)習(xí)向量量化算法和在線向量量化算法結(jié)合,提出一種針對(duì)在線物體識(shí)別的算法,在3 h 內(nèi)針對(duì)50個(gè)物體的分層特征進(jìn)行了在線學(xué)習(xí)識(shí)別。但該方法存在特征提取維度高,計(jì)算量大的缺點(diǎn)。文獻(xiàn)[5-7]在特征提取上采用主成分分析方法,較好壓縮數(shù)據(jù)量,計(jì)算開銷降低,但容易丟失部分重要信息,因此,提出一種既能保證識(shí)別精確性又能保證計(jì)算實(shí)時(shí)性的在線識(shí)別算法能很大程度改進(jìn)上述問題。本文提出一種基于自適應(yīng)仿生網(wǎng)絡(luò)的識(shí)別算法,算法通過多層神經(jīng)網(wǎng)絡(luò)模擬人類記憶結(jié)構(gòu),將學(xué)習(xí)到的物體知識(shí)存儲(chǔ)之網(wǎng)絡(luò)節(jié)點(diǎn),使得系統(tǒng)可在線學(xué)習(xí)新的陌生物體。
目前大多數(shù)分類器或者學(xué)習(xí)算法以離線學(xué)習(xí)為主,而非在線形式。針對(duì)非特定物體的在線識(shí)別,需要根據(jù)不同類別的樣本進(jìn)行自主調(diào)整、增加樣本知識(shí)。文獻(xiàn)[8]提出一種可變結(jié)構(gòu)的自組織網(wǎng)絡(luò),該網(wǎng)絡(luò)可針對(duì)一般分布的數(shù)據(jù)進(jìn)行無監(jiān)督的在線和增量式的學(xué)習(xí),調(diào)整網(wǎng)絡(luò)節(jié)點(diǎn)和權(quán)值,具有較好的抗噪能力。該網(wǎng)絡(luò)符合在線識(shí)別中可自適應(yīng)調(diào)整學(xué)習(xí)類別的要求,且在結(jié)構(gòu)上模擬了人類記憶結(jié)構(gòu),因此適用于非特定物體在線識(shí)別。
自適應(yīng)仿生神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與學(xué)習(xí)過程如圖1所示,需要識(shí)別的樣本物體圖片作為網(wǎng)絡(luò)輸入,網(wǎng)絡(luò)分3層,第一層輸入層后,經(jīng)過兩個(gè)競爭層,在第二競爭層中生成聚類,以節(jié)點(diǎn)形式存儲(chǔ)和分類物體類別,即知識(shí),并且該網(wǎng)絡(luò)節(jié)點(diǎn)結(jié)構(gòu)可隨著增量的外部識(shí)別類別而增加調(diào)整,實(shí)現(xiàn)自適應(yīng)的在線識(shí)別物體的目的。其中網(wǎng)絡(luò)核心競爭原理的數(shù)學(xué)描述為其中,x為輸入模式,wj為神經(jīng)元j的權(quán)值向量,?定義了神經(jīng)網(wǎng)絡(luò),滿足該條件的神經(jīng)元i為競爭獲勝神經(jīng)元。
圖1 自適應(yīng)仿生神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
根據(jù)網(wǎng)絡(luò)學(xué)習(xí)原理,自適應(yīng)仿生網(wǎng)絡(luò)的學(xué)習(xí)與識(shí)別算法流程如下。
符號(hào)定義:ξ為新樣本,l為網(wǎng)絡(luò)節(jié)點(diǎn),Wc為節(jié)點(diǎn)權(quán)值向量,ε1(t)是勝者節(jié)點(diǎn)權(quán)值學(xué)習(xí)率,ε2(t)是勝者近鄰節(jié)點(diǎn)權(quán)值學(xué)習(xí)率,ΔW為權(quán)值更新量,E為節(jié)點(diǎn)積累誤差,A為網(wǎng)絡(luò)節(jié)點(diǎn)集合。
1)自適應(yīng)仿生網(wǎng)絡(luò)輸入新物體圖片樣本ξ;
4)計(jì)算輸入信號(hào)與勝者節(jié)點(diǎn)的歐氏距離,并進(jìn)一步計(jì)算積累誤差
5)獲得當(dāng)前物體樣本的類別判斷,如果是新類,那么在網(wǎng)絡(luò)中新增類別向量,作為新學(xué)習(xí)知識(shí);如果是已學(xué)習(xí)類別,那么作出識(shí)別判斷;
6)若達(dá)到學(xué)習(xí)次數(shù)的閾值LT,則輸出類別數(shù)和類別;
7)返回步驟1,新樣本繼續(xù)輸入,進(jìn)行下一步的學(xué)習(xí)與識(shí)別。
實(shí)驗(yàn)使用150個(gè)物體樣本進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)比較本文方法與傳統(tǒng)框架的PCA 方法進(jìn)行物體識(shí)別的效果,主要比較識(shí)別率和識(shí)別時(shí)間,以及對(duì)新物體進(jìn)行學(xué)習(xí)的系統(tǒng)擴(kuò)展能力。
實(shí)驗(yàn)結(jié)果識(shí)別率比較如圖2所示。對(duì)本文算法和傳統(tǒng)PCA 方法采用不同的學(xué)習(xí)方式,本文算法由于有在線學(xué)習(xí)能力,采用在線遞增新樣本方式,傳統(tǒng)PCA 方法每次學(xué)習(xí)固定的樣本數(shù),每次增添新樣本,則重新批量學(xué)習(xí)。隨著學(xué)習(xí)次數(shù)的增加,每次學(xué)習(xí)為在線學(xué)習(xí)新物體,本文方法識(shí)別率能隨著學(xué)習(xí)過程不斷提高,而傳統(tǒng)PCA 每次批量學(xué)習(xí)后的識(shí)別率固定不變,可見本文方法具有對(duì)新物體的自適應(yīng)能力,在前100個(gè)樣本的學(xué)習(xí)過程中,但隨著樣本的增多,識(shí)別率得到逐步改善,但識(shí)別率比傳統(tǒng)方法略低,在樣本數(shù)從100 增加到150的學(xué)習(xí)過程中,本文方法的識(shí)別率開始好于傳統(tǒng)PCA 方法,可見,本文方法在對(duì)新樣本的適應(yīng)性和識(shí)別率方面,經(jīng)過不斷學(xué)習(xí),都好于傳統(tǒng)PCA 方法。
圖2 實(shí)驗(yàn)結(jié)果識(shí)別率比較
同時(shí),在識(shí)別時(shí)間上的比較如圖3所示??梢?,本文算法能維持在一定的時(shí)間上,不會(huì)因?yàn)闃颖镜脑黾佣黾?,?shí)現(xiàn)較好的實(shí)時(shí)性。因此,采用本文提出的基于自適應(yīng)仿生網(wǎng)絡(luò)在線識(shí)別算法進(jìn)行物體的在線識(shí)別,可以使得識(shí)別在線進(jìn)行,知識(shí)得到不斷更新,遇到新情況不需要重新學(xué)習(xí)。隨著知識(shí)在線積累,識(shí)別系統(tǒng)有更好的可擴(kuò)展性、適應(yīng)性和魯棒性。
圖3 實(shí)驗(yàn)識(shí)別時(shí)間比較
本文針對(duì)傳統(tǒng)識(shí)別框架不能適應(yīng)新物體,造成可擴(kuò)展性、實(shí)時(shí)性、適應(yīng)性差的問題,提出一種基于自適應(yīng)仿生網(wǎng)絡(luò)的識(shí)別算法,以多層神經(jīng)網(wǎng)絡(luò)模擬人類記憶結(jié)構(gòu),使得系統(tǒng)可在線學(xué)習(xí)新的陌生物體。本文的研究能有效改變傳統(tǒng)識(shí)別框架帶來的局限,能夠在線識(shí)別非特定的多種物體。通過算法建立一種在線的非特定物體識(shí)別框架,在一定程度上拓展了圖像識(shí)別算法的傳統(tǒng)框架,為進(jìn)一步提高系統(tǒng)智能提供了一種思路。當(dāng)然本文算法也存在一定的問題,如相比傳統(tǒng)訓(xùn)練再分類方法,該方法在線存儲(chǔ)節(jié)點(diǎn)方式,需要耗費(fèi)內(nèi)存,需要在今后的研究中提出新的解決思路,降低內(nèi)存消耗。
[1]Je H,Kim J,Kim D.Hand gesture recognition to understand musical conducting action[C]//Robot and Human interactive Communication,2007.RO-MAN 2007.The 16th IEEE International Symposium on.IEEE,2007:163-168.
[2]Fang Y,Wang K,Cheng J,et al.A real-time hand gesture recognition method[C]//Multimedia and Expo,2007 IEEE International Conference on.IEEE,2007:995-998.
[3]Bosch A,Zisserman A,Muoz X.Scene classification using a hybrid generative/discriminative approach[J].Pattern Analysis and Machine Intelligence,IEEE Transactions on,2008,30(4):712-727.
[4]Kirstein S,Wersing H,K?rner E.A biologically motivated visual memory architecture for online learning of objects[J].Neural Networks,2008,21(1):65-77.
[5]Ozawa S,Pang S,Kasabov N..A Modified Incremental Principal Component Analysis for On-line Learning of Feature Space and Classifier[J].Trends in Artificial Intelligence,2004:231-240.
[6]Jiang X,Motai Y.Learning by observation of robotic tasks using on-line pca-based eigen behavior[C]//Computational Intelligence in Robotics and Automation,2005.CIRA 2005.Proceedings.2005 IEEE International Symposium on.IEEE,2005:391-396.
[7]Artac M,Jogan M,Leonardis A.Incremental PCA for on-line visual learning and recognition[C]//Pattern Recognition,2002.Proceedings.16th International Conference on.IEEE,2002,3:781-784.
[8]Furao S,Hasegawa O.An incremental network for on-line unsupervised classification and topology learning[J].Neural Networks,2006,19(1):90-106.