国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種服務(wù)機(jī)器人的實(shí)時(shí)物體識(shí)別與跟蹤系統(tǒng)

2015-07-18 12:05:45薛翠紅齊立萍楊鵬賈超
關(guān)鍵詞:實(shí)時(shí)性分類器物體

薛翠紅,齊立萍,楊鵬,賈超

(1.河北工業(yè)大學(xué)控制科學(xué)與工程學(xué)院,天津 300130;2.河北工業(yè)大學(xué)研究生院,天津 300401;3.天津理工大學(xué)聾人工學(xué)院,天津 300384)

一種服務(wù)機(jī)器人的實(shí)時(shí)物體識(shí)別與跟蹤系統(tǒng)

薛翠紅1,3,齊立萍1,楊鵬1,賈超2

(1.河北工業(yè)大學(xué)控制科學(xué)與工程學(xué)院,天津 300130;2.河北工業(yè)大學(xué)研究生院,天津 300401;3.天津理工大學(xué)聾人工學(xué)院,天津 300384)

針對(duì)室內(nèi)復(fù)雜環(huán)境下對(duì)家居服務(wù)機(jī)器人識(shí)別與跟蹤物體的可靠性與實(shí)時(shí)性要求,提出了把Adaboost算法和Camshift算法相結(jié)合的新思路,并引入一種基于視頻幀間相關(guān)性分析的新的檢測(cè)策略,通過(guò)設(shè)定相鄰視頻幀中檢測(cè)到的物體區(qū)域的重合率來(lái)剔除誤檢窗口.將其應(yīng)用于家居服務(wù)機(jī)器人的實(shí)時(shí)物體識(shí)別與跟蹤領(lǐng)域,既充分利用了Haar特征檢測(cè)實(shí)時(shí)性好的特點(diǎn),又解決了傳統(tǒng)Camshift方法需要手工選取跟蹤物體的缺點(diǎn).在分辨率為1024×768,幀速率為30幀/s的視頻上進(jìn)行測(cè)試,每幀圖像的檢測(cè)率由原來(lái)的77.2%提高到92.4%,平均用時(shí)由原來(lái)的70.546 3 ms減少為23.9851ms.

家居服務(wù)機(jī)器人;物體識(shí)別與跟蹤;Adaboost算法;Camshift算法;幀間相關(guān)性

0 引言

中國(guó)正逐步進(jìn)入老齡化社會(huì),老齡化問(wèn)題已經(jīng)成為中國(guó)面臨的巨大挑戰(zhàn),因此,家居服務(wù)機(jī)器人[1]的應(yīng)用前景極為廣闊.在物體操作前機(jī)器人首先要從復(fù)雜的家庭背景中迅速準(zhǔn)確地找到目標(biāo)物體,完成物體識(shí)別與跟蹤[2].假如物體識(shí)別錯(cuò)誤,則會(huì)產(chǎn)生很?chē)?yán)重的影響.實(shí)現(xiàn)準(zhǔn)確、快速的物體識(shí)別與跟蹤是一項(xiàng)重要而艱巨的任務(wù).

在國(guó)內(nèi)外,許多科研工作者在物體識(shí)別與跟蹤方面做了大量研究.文獻(xiàn)[3]采用的是基于模型的方法,首先利用CAD對(duì)物體建模,然后在圖像中對(duì)物體進(jìn)行描述并匹配,達(dá)到了一定的識(shí)別效果,但是建模的過(guò)程工作復(fù)雜度很高.美國(guó)卡耐基梅隆大學(xué)的MOPED系統(tǒng)[4]是基于局部特征的物體識(shí)別系統(tǒng)的典型代表,該方法被廣泛應(yīng)用.主要應(yīng)用局部特征點(diǎn)及其空間位置關(guān)系進(jìn)行匹配從而達(dá)到識(shí)別物體的目的.但是該方法的實(shí)現(xiàn)需要在輸入的整幅高分辨率圖像上提取SIFT特征,特征提取過(guò)程中,計(jì)算復(fù)雜度很高,所以導(dǎo)致系統(tǒng)速度過(guò)慢,不能滿足服務(wù)機(jī)器人的實(shí)時(shí)性要求.文獻(xiàn)[5]提出來(lái)一種基于壓縮感知的跟蹤算法,需要利用隨機(jī)矩陣去降維高維信號(hào),然后在降維后的特征上選擇樸素貝葉斯分類器進(jìn)行分類,通過(guò)在線學(xué)習(xí)不斷更新分類器,效果好,但是跟蹤窗口不能自適應(yīng)調(diào)節(jié)大小,容易產(chǎn)生目標(biāo)丟失現(xiàn)象,并且需要人工指定被跟蹤物體.

目前,雖然在物體識(shí)別與跟蹤領(lǐng)域已經(jīng)取得了很大進(jìn)展.但是由于室內(nèi)環(huán)境的復(fù)雜性,服務(wù)機(jī)器人因?yàn)檫\(yùn)動(dòng)帶來(lái)的圖像模糊性,以及對(duì)識(shí)別跟蹤實(shí)時(shí)性的要求,給服務(wù)機(jī)器人的物體識(shí)別帶來(lái)了很大的困難.Viola將Adaboost[6]算法用于人臉識(shí)別,從而使人臉檢測(cè)技術(shù)可以真正意義上從測(cè)試階段轉(zhuǎn)換到應(yīng)用階段.本文提出了一種基于Adaboost和Camshift[7]的物體識(shí)別與跟蹤方法,采用Adaboost和Cascade[8]的方法可以在家居環(huán)境背景下完成物體定位,為了在視頻中可以準(zhǔn)確地跟蹤物體,引入基于顏色特征的目標(biāo)跟蹤方法Camshift,當(dāng)物體與機(jī)器人的相對(duì)位移發(fā)生變化時(shí),該算法可以自動(dòng)調(diào)節(jié)跟蹤窗口大小.因?yàn)橐呀?jīng)由基于Haar特征的Adaboost算法檢測(cè)到物體,所以不需要人為手動(dòng)選取待識(shí)別物體.該系統(tǒng)保證了識(shí)別性能的同時(shí)具有了良好的實(shí)時(shí)性,在室內(nèi)復(fù)雜環(huán)境下,甚至是機(jī)器人快速移動(dòng)情況下,都達(dá)到了很好的識(shí)別跟蹤效果.

1 系統(tǒng)總體框圖

本系統(tǒng)分為離線訓(xùn)練分類器和在線進(jìn)行物體的識(shí)別與跟蹤2個(gè)方面.離線時(shí),提取數(shù)據(jù)庫(kù)中物體的Haarlike特征,訓(xùn)練Adaboost強(qiáng)分類器.在線時(shí),系統(tǒng)攝像頭實(shí)時(shí)采集室內(nèi)視頻圖像,調(diào)用已經(jīng)訓(xùn)練好的Adaboost強(qiáng)分類器,采用基于視頻幀間信息分析的檢測(cè)策略來(lái)完成物體檢測(cè),之后觸發(fā)Camshift物體跟蹤算法,完成物體的跟蹤,如圖1所示.

圖1 物體識(shí)別與跟蹤系統(tǒng)Fig.1 Objectrecognitionandtrackingsystem

2 基于Adaboost的物體檢測(cè)

采用基于Haar特征的Adaboost級(jí)聯(lián)算法來(lái)完成室內(nèi)物體的粗略檢測(cè).不同大小、不同位置產(chǎn)出的Haar特征庫(kù)數(shù)量龐大,利用Adaboost算法可以選擇出最能表征物體特征的Haar特征.

2.1 Adaboost學(xué)習(xí)算法

采用投票加權(quán)的方式對(duì)每一輪迭代產(chǎn)生的最優(yōu)弱分類器進(jìn)行線性組合,形成性能良好的強(qiáng)分類器.每個(gè)弱分類器的權(quán)重由其本身的分類性能來(lái)決定.最終生成的強(qiáng)分類器的表達(dá)式如下:

弱分類器的分類性能一般,只要其準(zhǔn)確率大于50%即可.傳統(tǒng)的弱分類器的數(shù)學(xué)形式如下:

其中:x代表輸入圖片;代表閾值;p用來(lái)控制不等號(hào)的方向.

通過(guò)改變樣本權(quán)重來(lái)產(chǎn)生不同的弱分類器,樣本權(quán)重受分類結(jié)果的影響.

其中:Dti代表樣本權(quán)重;t為加權(quán)錯(cuò)誤率.若樣本分類正確,則i= 0;若分類錯(cuò)誤,則i=1.可知,樣本權(quán)重受分類結(jié)果的影響.如果樣本分類正確,則樣本權(quán)重減少;如果分類錯(cuò)誤,那么相應(yīng)的樣本權(quán)重會(huì)增加,這樣就可以使分類器更加側(cè)重對(duì)難分樣本的訓(xùn)練,從而可以不斷提高分類器的可靠性.

圖2 Haar-like特征Fig.2 Haar-likefeatures

圖3 積分圖的構(gòu)造Fig.3 Integralimage

2.2 Haar-like特征

Haar-like[9]具有廣泛的適用性,可以表征局部的灰度變化情況.特征由

2個(gè)或者多個(gè)相同大小的矩形組成,如圖2所示.Haar特征定義為

其中:RsctSum ri是矩形ri處內(nèi)所有灰度像素值之和;Wi是矩形ri的權(quán)值;N是矩形個(gè)數(shù).通過(guò)改變Haar特征的大小以及位置,可以獲得龐大的矩形特征庫(kù).本文采取基于掃描窗口的像素級(jí)移動(dòng)方法進(jìn)行Haar特征的提?。钚〉腍aar特征大小為2×2,所以最小的掃描窗口也是2×2大小,然后逐漸增大掃描窗口得到不同大小的Haar特征.在邊緣檢測(cè)方面該特征具有明顯優(yōu)勢(shì).

2.3 加速策略

為了提高Haar特征的計(jì)算速度,采用積分圖的方法.對(duì)于圖像內(nèi)任何一點(diǎn)A(x,y),定義其積分圖為

其中,i x',y'代表(x',y')處的像素值.

引入積分圖之后,要想計(jì)算某個(gè)矩形區(qū)域內(nèi)的像素和,只要求得4個(gè)點(diǎn)處的積分圖即可,這樣可以使計(jì)算變得非常簡(jiǎn)便.如圖3所示,只要求得1、2、3、4四點(diǎn)處的積分圖,就可以迅速計(jì)算區(qū)域D中的像素值.

由上圖可知,D中的像素值=ii 4+ii 1 ii 2 ii 3,引入積分圖之后,只要對(duì)圖像進(jìn)行1次遍歷,就可以快速計(jì)算不同大小、不同類型的Haar特征值.由此可知,在不提高Haar特征的計(jì)算復(fù)雜度的情況下,可以在不同尺度上快速計(jì)算Haar特征值,得到不同尺度的弱分類器,進(jìn)而可以在不同分辨率大小的圖像上進(jìn)行檢測(cè).可以滿足家居服務(wù)機(jī)器人在移動(dòng)過(guò)程中進(jìn)行識(shí)別的實(shí)時(shí)性要求.

在移動(dòng)機(jī)器人的實(shí)時(shí)檢測(cè)過(guò)程中,目標(biāo)物體只是占據(jù)了圖像中的一小部分,背景占據(jù)了圖像的絕大部分區(qū)域.因此,在級(jí)聯(lián)分類器的前幾層,可以設(shè)置結(jié)構(gòu)相對(duì)簡(jiǎn)單一點(diǎn)、檢測(cè)率相對(duì)較高的強(qiáng)分類器.對(duì)于和目標(biāo)物體區(qū)分度很大的背景區(qū)域,可以通過(guò)比較簡(jiǎn)單的強(qiáng)分類器進(jìn)行排除.在級(jí)聯(lián)分類器的后面幾層,特征數(shù)量會(huì)增加,結(jié)構(gòu)也會(huì)更加復(fù)雜,從而可以辨別與目標(biāo)極為相似的負(fù)樣本.通過(guò)級(jí)聯(lián)策略,進(jìn)行了由粗到精的檢測(cè),只有正樣本和與正樣本極其相似的負(fù)樣本才會(huì)進(jìn)入層數(shù)較高的分類器,大量的負(fù)樣本在級(jí)聯(lián)分類器的前幾層就被排除掉,這樣可以有效地減少計(jì)算復(fù)雜度.

對(duì)于一個(gè)K級(jí)的分類器,定義其檢測(cè)率和誤檢率如下:

其中:D代表級(jí)聯(lián)分類器的檢測(cè)率;F代表級(jí)聯(lián)分類器的誤檢率;di,fi分別代表某一層的檢測(cè)率和誤檢率.

3 改進(jìn)的檢測(cè)算法

盡管Adaboost分類器識(shí)別效果很好,由于集成算法本身的局限性影響,在復(fù)雜背景下,數(shù)據(jù)分布極其復(fù)雜,對(duì)錯(cuò)分樣本的權(quán)重的過(guò)分增大會(huì)造成分類性能下降.為了提高Adaboost算法的檢測(cè)率,可以加入一些預(yù)處理環(huán)節(jié),比如顏色檢測(cè)方法[10]、運(yùn)動(dòng)檢測(cè)方法[11],但是都有一定的局限性,顏色檢測(cè)方法對(duì)光照的變化比較明顯,運(yùn)動(dòng)檢測(cè)方法只能用來(lái)檢測(cè)動(dòng)態(tài)的物體.所以,本文提出來(lái)一種基于幀間相關(guān)性的方法來(lái)提高檢測(cè)率.

由于相鄰幀之間存在很強(qiáng)的相關(guān)性,本文通過(guò)設(shè)定相鄰視頻幀中檢測(cè)到的物體區(qū)域的重合率來(lái)剔除誤檢窗口.對(duì)于動(dòng)態(tài)視頻序列,幀與幀之間具有很強(qiáng)的聯(lián)系.在實(shí)際視頻信號(hào)中,相鄰2幀之間的差距非常?。挥挟?dāng)相鄰幀中檢測(cè)到的物體的重合率達(dá)到一定要求,才認(rèn)為成功檢測(cè)物體.否則,則認(rèn)為該區(qū)域?yàn)榉俏矬w區(qū)域.對(duì)于讀入的視頻,只有在連續(xù)的3幀圖像中,都可以保證在一定范圍內(nèi)可以檢測(cè)到物體,才認(rèn)為真正檢測(cè)到物體,當(dāng)檢測(cè)到物體之后,即可開(kāi)啟camshift[8]跟蹤算法,從而解決了Haar特征檢測(cè)的誤檢測(cè)和漏檢測(cè)問(wèn)題.

考慮到在連續(xù)的3幀圖像中,物體在圖像中的位置變化很小.采取以下方式來(lái)定義窗口的重合率.假設(shè)在第i幀圖像中存在檢測(cè)窗口ri=xi,yi,oi,wi,hi,其中,xi,yi分別代表矩形檢測(cè)框左下角坐標(biāo),oi代表矩形檢測(cè)框的中心坐標(biāo),wi,hi分別代表矩形檢測(cè)框的寬度和長(zhǎng)度.在3幀圖像中,如果每相鄰2幀中的檢測(cè)窗口滿足如下條件

則認(rèn)為檢測(cè)到了物體,這樣可以大大降低誤檢率.

4 基于改進(jìn)的全自動(dòng)Camshift的物體跟蹤

Camshift算法是一種有效的顏色跟蹤方法.但是,傳統(tǒng)的Camshift算法是一種半自動(dòng)跟蹤算法,必須在第1幀手動(dòng)標(biāo)記待跟蹤物體,這無(wú)法滿足人們對(duì)于家居服務(wù)機(jī)器人的要求.本文中,采用基于Haar特征的Adaboost算法來(lái)實(shí)現(xiàn)物體的自動(dòng)檢測(cè).解決了傳統(tǒng)Camshift跟蹤方法的缺陷.

4.1 顏色直方圖

顏色特征是物體的一個(gè)顯著性特征.最常見(jiàn)的2個(gè)色彩模型是RGB色彩模型和HSV色彩模型.人眼對(duì)RGB彩色空間的感知程度很容易受到光照變化的影響.HSV色彩模型中的Hue分量濾掉光照產(chǎn)生的明暗信息,可以更好的體現(xiàn)物體本身的顏色屬性,因此選擇Hue分量作為特征的1個(gè)典型優(yōu)勢(shì)是可以在很大程度上減少光照變化對(duì)識(shí)別與跟蹤的影響.

4.2 改進(jìn)的Camshift算法

本文提出了一種基于檢測(cè)的跟蹤方法.基于Adaboost實(shí)現(xiàn)目標(biāo)物體的最初定位,只有檢測(cè)到物體信息并且達(dá)到一定的閾值之后才開(kāi)啟Camshift跟蹤.計(jì)算檢測(cè)到物體信息的顏色直方圖,將其作為目標(biāo)模板.

Camshift算法是Meanshift[12]算法的擴(kuò)展.Meanshift算法的本質(zhì)是自適應(yīng)梯度上升搜索峰值.Meanshift會(huì)逐漸收斂于樣本的概率密度函數(shù)的局部最大值,從而使檢測(cè)中心越來(lái)越逼近圖像質(zhì)心.傳統(tǒng)的Camshift跟蹤算法實(shí)時(shí)性好,但是需要人工選擇待跟蹤物體,這個(gè)Camshift算法的應(yīng)用帶來(lái)了很大的局限性,因此本文根據(jù)利用Adaboost分類器的檢測(cè)結(jié)果來(lái)確定目標(biāo)模板并初始化跟蹤窗口.

其算法步驟如下:

1)利用Adaboost分類器的檢測(cè)結(jié)果來(lái)確定目標(biāo)模板并初始化跟蹤窗口.

2)計(jì)算初始窗口關(guān)于H分量的顏色直方圖,通過(guò)對(duì)顏色直方圖進(jìn)行反向投影得到顏色概率分布圖.

3)計(jì)算搜索窗口質(zhì)心位置.在反向投影圖中計(jì)算搜索窗口的各階矩

其中:x,y為搜索窗口內(nèi)位置坐標(biāo);I x,y為顏色概率分布圖中對(duì)應(yīng)點(diǎn)的像素值.

根據(jù)0階矩和1階矩可以求得搜索窗口的質(zhì)心坐標(biāo)

4)調(diào)整搜索窗口大小,計(jì)算如下

5)在顏色概率分布圖中利用Meanshift迭代算法將搜索窗口的幾何中心通過(guò)均值平移到質(zhì)心位置.如果窗口中心與質(zhì)心距離小于預(yù)先設(shè)定值或者迭代次數(shù)滿足預(yù)先設(shè)定值則進(jìn)入下一幀.否則返回步驟3)繼續(xù)執(zhí)行.

6)利用步驟5)中的值獲得新的搜索窗口的大小和位置信息,再跳轉(zhuǎn)到2)繼續(xù)進(jìn)行.將Meanshift算法引入到視頻序列中,得到Camshift算法,該方法可以實(shí)現(xiàn)搜索窗口的自適應(yīng)調(diào)節(jié),不斷更新跟蹤模板.當(dāng)機(jī)器人與物體的距離發(fā)生變化或者是視角發(fā)生變化時(shí)都可以實(shí)現(xiàn)可靠的跟蹤.甚至在機(jī)器人運(yùn)動(dòng)速度很快的情況下,也可以達(dá)到很好的識(shí)別跟蹤效果.可以滿足移動(dòng)機(jī)器人跟蹤的魯棒性要求.除此之外,在每幀圖像上搜索物體時(shí),只在目標(biāo)可能出現(xiàn)的區(qū)域內(nèi)進(jìn)行搜索,大大減小了搜索時(shí)間,從而可以達(dá)到很高的跟蹤速度,可以滿足移動(dòng)機(jī)器人跟蹤的實(shí)時(shí)性要求.

5 實(shí)驗(yàn)及結(jié)果分析

5.1 實(shí)驗(yàn)平臺(tái)

本文的機(jī)器人平臺(tái)如圖4所示,主要硬件結(jié)構(gòu)如下:底盤(pán)左右兩端各設(shè)有1個(gè)驅(qū)動(dòng)輪,前端設(shè)有1個(gè)萬(wàn)向輪;計(jì)算部件為ARK-3500無(wú)風(fēng)扇嵌入式工控機(jī),處理器為Intel Core i7-3610QE,主頻2.3 GHz,帶6 MB三級(jí)緩存,內(nèi)存最高可達(dá)16GB,運(yùn)行WIN7系統(tǒng).?dāng)z像機(jī)為UI-6230-C.

5.2 樣本準(zhǔn)備

為了降低光照的影響,需要具備不同光照條件下的正樣本圖像,所以選擇從早晨7:00至夜晚10:00每隔1個(gè)小時(shí)進(jìn)行1次拍攝,從而可以涵蓋各種光照下的正樣本圖片.在不同光照強(qiáng)度下,對(duì)于每種物體,各自獲得順光和逆光條件下的正樣本圖片共計(jì)2 999張,如圖5所示.將正樣本圖片進(jìn)行歸一化,圖像存儲(chǔ)格式為jpg格式.

負(fù)樣本圖片中不可以包含任何正樣本特征,即不可以包含待識(shí)別的物體,在物體經(jīng)常出現(xiàn)的場(chǎng)景中拍攝視頻,截取視頻中的幀獲得負(fù)樣本,這樣可以降低物體的誤檢率.負(fù)樣本的數(shù)量對(duì)系統(tǒng)精度有重要的影響,只有足夠多的負(fù)樣本才能較準(zhǔn)確地反映出自然界的隨機(jī)事物在圖片中的灰度分布情況.在大尺寸圖中,通過(guò)Bootstrap的方式可以獲得許多負(fù)樣本,從而適應(yīng)系統(tǒng)的需求.

5.3 實(shí)驗(yàn)結(jié)果分析

為測(cè)試本文改進(jìn)算法在家居服務(wù)機(jī)器人物體識(shí)別與跟蹤的有效性,在VisualStudio2010基于C++編程語(yǔ)言進(jìn)行軟件開(kāi)發(fā).

實(shí)驗(yàn)1:對(duì)比實(shí)驗(yàn).將傳統(tǒng)的基于Haar特征的adaboost算法和本文改進(jìn)算法相比較,由表1可知,檢測(cè)正確率大幅度上升.測(cè)試視頻大小為1024×768,幀速率為30幀/s.

由表1可知,本文的改進(jìn)算法可以大大提高檢測(cè)率,有效地降低了誤檢率和漏檢率.

圖4 機(jī)器人平臺(tái)Fig.4 Robotplatform

圖5 正樣本圖Fig.5 Positivesamples

由表2可知,本文的改進(jìn)算法可以大大提高實(shí)時(shí)性.在本文的改進(jìn)算法中,最大用時(shí)出現(xiàn)在Haar檢測(cè)過(guò)程中,由于Camshift算法只是在上一幀檢測(cè)到物體的區(qū)域附件進(jìn)行搜索,所以檢測(cè)速度可以大幅度提高.

實(shí)驗(yàn)2:在復(fù)雜背景下進(jìn)行物體識(shí)別與跟蹤實(shí)驗(yàn).視頻大小為1024×768,幀速率為30幀/s.檢測(cè)效果如圖6所示.

為了測(cè)試本文改進(jìn)算法的可靠性,選取室內(nèi)雜亂環(huán)境為實(shí)驗(yàn)條件,圖a)為利用Haar特征檢測(cè)效果圖,圖b)、圖c)依次為第45幀、90幀的檢測(cè)效果圖.在視頻分辨率大小為1 024×768,幀速率為30幀/s的情況下,可以達(dá)到實(shí)時(shí)可靠的檢測(cè)效果,可以達(dá)到家居服務(wù)機(jī)器人物體識(shí)別與跟蹤的實(shí)時(shí)性與可靠性要求.當(dāng)機(jī)器人快速移動(dòng)時(shí),當(dāng)攝像頭與物體的距離發(fā)生變化時(shí),跟蹤窗口可以自適應(yīng)調(diào)節(jié)大小,滿足實(shí)際需求.

表1 不同算法檢測(cè)結(jié)果比較Tab.1 Comparison of the detection results of different algorithms

表2 同算法方法用時(shí)對(duì)比m sTab.2 Comparison of the detection speed of different algorithms

圖6 視頻中物體識(shí)別與跟蹤結(jié)果Fig.6 Theresultsofobjectrecognitionandtrackinginthevideo

實(shí)驗(yàn)3:進(jìn)行干擾目標(biāo)下目標(biāo)檢測(cè)實(shí)驗(yàn).選取桌面上常見(jiàn)物體(茶葉罐)為干擾對(duì)象,視頻大小為1024×768,幀速率為30幀/s,檢測(cè)結(jié)果如圖7所示.

由圖7可知:在相似物體茶葉罐的干擾下,達(dá)到了比較好的檢測(cè)效果.可以看出,本文的改進(jìn)算法具有很好的抗干擾能力,具有很好的魯棒性.

實(shí)驗(yàn)4:進(jìn)行其他物體檢測(cè)試驗(yàn).為了驗(yàn)證該算法的通用性,選取室內(nèi)其他物體進(jìn)行檢測(cè),檢測(cè)結(jié)果如圖8所示.本文的方法具有廣泛的適用性.

圖7 干擾下檢測(cè)結(jié)果Fig.7 Thedetectionresultsininterference

圖8 檢測(cè)結(jié)果Fig.8 Thedetectionresults

6 結(jié)論

選取Haar特征,訓(xùn)練Adaboost級(jí)聯(lián)分類器,采用基于視頻幀間關(guān)聯(lián)性的檢測(cè)策略實(shí)現(xiàn)物體的檢測(cè),從而在很大程度上降低了物體的誤檢率和漏檢率,引入基于顏色特征的Camshift跟蹤算法,解決了傳統(tǒng)Camshift算法需要人工指定跟蹤窗口的缺陷,該方法可以自適應(yīng)調(diào)節(jié)跟蹤窗口大小,實(shí)時(shí)性好,實(shí)驗(yàn)證明,該方案可以很好的應(yīng)用于家居服務(wù)機(jī)器人物體識(shí)別與跟蹤系統(tǒng),在檢測(cè)速度與精度方面都有了很好的提升.

[1]XuQ,Ng JSL,TanOY,etal.Needsand attitudesof Singaporeanstowardshomeservice robots:amulti-generationalperspective[C]//Universal Access in the Information Society,2014.

[2]Kehoe B,Matsukawa A,Candido S,et al.Cloud-based robot grasping w ith the google object recognition engine[C]//Proceedings of IEEE International Conference on Robotics&Automation.IEEE,2013:4263-4270.

[3]Chen Y,Ji Z C,Hua C J.3-D model matching based on distributed estimation algorithm[C]//Proceedings of 2009 Chinese Control and Decision Conference.IEEE Computer Society,2009:5036-5067.

[4]Collet A,MartinezM,Srinivasa S S.TheMOPED framework:Object recognitionand poseestimation for manipulation[J].International Journal of Robotics Research,2011,30(10):1284-1306.

[5]Zhang K,Zhang L,Yang M.Real-time com pressive tracking[J].Lecture Notes in Computer Science,2012,7574(1):864-877.

[6]Viola P,Jones M J.Robust real-time face detection[J].International journal of computer vision,2004,57(2):137-154.

[7]M ahalakshmi M.Real time vision based object tracking using CAMSHIFT algorithm w ith enhanced color im age segmentation[C]//Proceedings of Computing Communication and Networking Technologies,2010 International Conference on.IEEE,2010:1-8.

[8]蔡燦輝,朱建青.采用Gentle AdaBoost和嵌套級(jí)聯(lián)結(jié)構(gòu)的實(shí)時(shí)人臉檢測(cè)[J].信號(hào)處理,2013,29(8):956-963.

[9]Landesa-Vzquez I,A lba-Castro J L.The Role of Polarity in Haar-like Features for Face Detection[C]//Proceedings of International Conference on Pattern Recognition,2010:412-415.

[10]Ge K,Wen J,F(xiàn)ang B.Adaboost Algorithm Based On MB-LBP Features With Skin Color Segmentation For Face Detection[C]//Proceedings of Wavelet Analysis&Pattern Recognition International Conference,2011:40-43.

[11]Du S,Shehata M,Badaw y W.Hard hat detection in video sequences based on face features,motion and color information[C]//Proceedings of International Conference on Computer Research&Development.IEEE,2011:25-29.

[12]Comaniciu D,M eer P.M ean Shift:A Robust Approach Toward Feature Space Analysis[J].IEEE Transactions on Pattern Analysis&M achine Intelligence,2002,24(5):603-619.

[責(zé)任編輯 代俊秋]

Areal-timeobjectrecognitionandtrackingsystemfor homeservicerobots

XUECuihong1,3,QILiping1,YANGPeng1,JIAChao2

(1.SchoolofControlScienceandEngineering,HebeiUniversityofTechnology,Tianjin300130,China;2.GraduateSchool,HebeiUniversityofTechnology,Tianjin300401,China;3.Technical CollegefortheDeaf,TianjinUniversityofTechnology,Tianjin300384,China)

Tomeettherequirementsofreal-timeandreliabilityintheobjectrecognitionandtrackingsystem forthehomeservicerobotsincomplexindoorenvironments,anew ideaofcombiningtheAdaboostandCamshiftalgorithmwasproposedandanewdetectionmethodbasedon frame-to-framecorrelationwasused.Bysettingthe regionoverlaydetected inadjacentframes,wrongdetectionwindowswereeliminated.ThismethodnotonlymadefulluseoftheHaarfeatures,butalsosolvedthe problemofCamshift,inwhich the trackingwindowmustbeselectedmanually.Theexperimentresultsinthevideoat30fpswitharesolutionof1024×768showthatthedetectionrateincreasesfrom77.2%to92.4%, whiletheaveragetimereducesfrom70.5463msto23.9851ms.

homeservicerobots;objectrecognitionandtracking;Adoboostalgorithm;Camshiftalgorithm;frame-to-framecorrelation

TP242.6+2

A

1007-2373(2015)06-0001-07

10.14081/j.cnki.hgdxb.2015.06.001

2015-05-25

國(guó)家自然科學(xué)基金(61305101);天津市科技計(jì)劃項(xiàng)目(14RCGFGX00846);河北省自然科學(xué)基金(F2015202239,F(xiàn)2014202121,F(xiàn)2010000137)

薛翠紅(1980-),女(漢族),講師,博士.

數(shù)字出版日期:2015-11-24數(shù)字出版網(wǎng)址:http://www.cnki.net/kcms/detail/13.1208.T.20151124.0901.002.html

猜你喜歡
實(shí)時(shí)性分類器物體
基于規(guī)則實(shí)時(shí)性的端云動(dòng)態(tài)分配方法研究
深刻理解物體的平衡
我們是怎樣看到物體的
BP-GA光照分類器在車(chē)道線識(shí)別中的應(yīng)用
基于虛擬局域網(wǎng)的智能變電站通信網(wǎng)絡(luò)實(shí)時(shí)性仿真
航空電子AFDX與AVB傳輸實(shí)時(shí)性抗干擾對(duì)比
加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
為什么同一物體在世界各地重量不一樣?
基于LLE降維和BP_Adaboost分類器的GIS局部放電模式識(shí)別
抚州市| 平远县| 抚顺市| 岳西县| 延吉市| 绥滨县| 拜城县| 扶余县| 桂平市| 巴楚县| 报价| 博爱县| 波密县| 曲麻莱县| 新干县| 团风县| 即墨市| 井冈山市| 阳西县| 寿宁县| 黄骅市| 白水县| 舞阳县| 冀州市| 喜德县| 齐河县| 卢龙县| 双峰县| 沧州市| 景德镇市| 留坝县| 正镶白旗| 四川省| 互助| 兴国县| 乌什县| 临海市| 陆丰市| 平顶山市| 永平县| 阳山县|