国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

自主移動(dòng)機(jī)器人走廊識(shí)別算法研究與改進(jìn)

2016-10-17 05:57:54林展鵬鄧杰航
關(guān)鍵詞:移動(dòng)機(jī)器人識(shí)別率走廊

曾 碧, 林展鵬, 鄧杰航

(廣東工業(yè)大學(xué) 計(jì)算機(jī)學(xué)院,廣東 廣州 510006)

?

自主移動(dòng)機(jī)器人走廊識(shí)別算法研究與改進(jìn)

曾碧, 林展鵬, 鄧杰航

(廣東工業(yè)大學(xué) 計(jì)算機(jī)學(xué)院,廣東 廣州 510006)

針對移動(dòng)機(jī)器人在室內(nèi)環(huán)境下自主導(dǎo)航過程中的走廊識(shí)別問題,提出一種改進(jìn)的走廊識(shí)別算法.該算法采用由Kinect傳感器提供的深度圖信息,利用連續(xù)點(diǎn)間的深度差值和最小二乘法擬合直線檢測走廊出口存在性,最后結(jié)合貝葉斯分類器完成對走廊類別的判定.實(shí)驗(yàn)表明,該方法能夠高效地識(shí)別走廊類型,同時(shí)具有較好的魯棒性,并且在復(fù)雜的室內(nèi)環(huán)境下依然能夠保持較高的走廊類型識(shí)別率.

走廊識(shí)別; 深度圖; 差值; 最小二乘法; Kinect

為了能夠讓移動(dòng)機(jī)器人在室內(nèi)環(huán)境中安全地航行,機(jī)器人除了能夠?qū)崿F(xiàn)自身的定位和導(dǎo)航[1-4]、制圖[5-8]、障礙回避,墻壁跟蹤、目標(biāo)識(shí)別[9-10]和目標(biāo)達(dá)成[11]的行為外,還需要能夠識(shí)別走廊,以明確走廊狀況,為機(jī)器人的下一步行為提供預(yù)判依據(jù)[12].在走廊識(shí)別相關(guān)問題上已有學(xué)者做了部分研究和探索[11-15],識(shí)別方式主要有基于圖像特征識(shí)別[12-13]和基于深度信息特征識(shí)別[14-15]兩種.前者主要依據(jù)場景圖像的特征進(jìn)行識(shí)別.Park和Suh[12]利用Canny邊緣偵測算子對從傳感器獲得的圖像進(jìn)行走廊邊緣的提取,再采用隱馬爾可夫模型對提取的特征進(jìn)行歸類運(yùn)算,從而實(shí)現(xiàn)走廊類型識(shí)別,但該方法在一些走廊類型相近的識(shí)別上誤判率較高,同時(shí)該模型在使用前需要進(jìn)行前期訓(xùn)練,增加了額外的人工輔助;張曉輝等[13]采用基于模型的目標(biāo)匹配和遺傳算法實(shí)現(xiàn)了對走廊踢腳線的搜索和跟蹤,同時(shí)通過對識(shí)別模型匹配值的變化率分析實(shí)現(xiàn)了對走廊拐角的識(shí)別,但其計(jì)算量較大,且模型依賴于走廊踢腳線,不適合無明顯走廊踢腳線或昏暗的室內(nèi)場景情況.由于圖像識(shí)別的方式受環(huán)境因素影響較大,近年來研究者轉(zhuǎn)向了抗擾能力更強(qiáng)的深度信息識(shí)別,該方式較前者能更適應(yīng)環(huán)境變化.Wang和Hou等[14]采用pSNM神經(jīng)網(wǎng)絡(luò)模型處理從聲吶傳感器獲得的數(shù)據(jù),再經(jīng)神經(jīng)網(wǎng)絡(luò)聚類區(qū)分七種走廊類型,該算法相比于傳統(tǒng)的PCA(主元分析法),BP(反向傳播)分類器以及IAF尖峰神經(jīng)元模型等算法具備更高的魯棒性,但由于機(jī)器人在采集數(shù)據(jù)時(shí),需要位于走廊拐角的中心處才能較好得到表征走廊周圍環(huán)境的數(shù)據(jù)信息,同時(shí)該模型算法的實(shí)時(shí)性難以保證,這就導(dǎo)致其算法預(yù)判性較差,不能夠給予機(jī)器人及時(shí)的反饋.

Cheng等[15]則利用Kinect傳感器獲得深度圖像并從中提取深度曲線,再根據(jù)深度曲線構(gòu)造描述環(huán)境的二維幾何平面并對其進(jìn)行x軸和z軸兩個(gè)方向上的投影,接著對這兩個(gè)投影曲線斜率進(jìn)行符號(hào)區(qū)間的劃分,再用貝葉斯分類器完成對走廊類型的識(shí)別,該方法相對以上提及的方法而言,對環(huán)境的約束較少,實(shí)時(shí)性較高,但該方法主要依賴于深度曲線的識(shí)別,由于實(shí)際環(huán)境的復(fù)雜性,很容易導(dǎo)致Kinect傳感器產(chǎn)生不規(guī)則的深度曲線,增加了對深度曲線識(shí)別的復(fù)雜性.

為解決上述問題,本文提出一種新的走廊識(shí)別算法,該算法采用Kinect傳感器提供的深度圖信息,利用連續(xù)點(diǎn)間的深度差值和最小二乘法擬合直線,最后結(jié)合貝葉斯分類器實(shí)現(xiàn)對走廊類型的判定.該算法不僅避免了對不規(guī)則深度曲線識(shí)別的復(fù)雜性,提高了識(shí)別效率,而且實(shí)驗(yàn)結(jié)果表明具有更好的識(shí)別率和魯棒性.

1 問題描述

1.1走廊類型特征編碼

室內(nèi)環(huán)境的走廊拐角類型通常由8種基本的簡單類型組成,如圖1所示,分別為:(a)短“I”型;(b)右“L”型;(c)長“I”型;(d)右“T”型;(e)左“L”型;(f)正“T”型;(g)左“T”型和(h)“十”字型.因此總共可以將走廊類型編碼為8種,使用3位數(shù)的二進(jìn)制編碼表示,用符號(hào)表示為:Yi=[f1,f2,f3],(fi∈{0,1}),其中Yi代表第i種走廊類型,fi是表征相應(yīng)出口方位存在性的特征位,(“f1”:左出口位;“f2”:前出口位;“f3”:右出口位).當(dāng)機(jī)器人在向前探測走廊類型時(shí),其前方左、中和右3個(gè)方向上要么存在出口,要么無出口,因此可以使用1表示該方位上出現(xiàn)了出口,使用0表示該方向上沒有出口;由于機(jī)器人傳感器探測的不確定性,機(jī)器人有時(shí)可能會(huì)無法判斷其中一個(gè)方位上是否存在出口,此時(shí)將不確定的出口方位表示為-1,綜上所述,特征編碼的取值范圍為{-1,0,1}(其中,“-1”:不確定;“0”:不存在;“1”:存在).特征編碼與走廊類型之間的對應(yīng)關(guān)系可以參見表1.

圖1 走廊類型

Tab.1Relationship between the feature coding and corridor types

特征類型Y0Y1Y2Y3Y4Y5Y6Y7f100001111f200110011f301010101

1.2貝葉斯分類器

對觀察得到的特征組需要進(jìn)行聚類運(yùn)算,采用貝葉斯分類公式[15]

(1)

其中Xi表示第i個(gè)觀察量,Yi表示第i個(gè)走廊類型.由日常經(jīng)驗(yàn)可知,遇到走廊類型為死路的情形通常低于其他類型的出現(xiàn)情況.據(jù)此假設(shè)Y0的出現(xiàn)概率為q,其他類型為2q,但如果機(jī)器人在觀測過程中始終不能得到完全觀測量時(shí),會(huì)出現(xiàn)無法確定走廊類型的情況.為此本文通過提升高概率與低概率類型間的倍數(shù)比進(jìn)行糾正,憑試驗(yàn)選取倍數(shù)為4,因此有P(Y0)=q,P(Y1~Y7)=4q.其中,q=1/29.同時(shí)基于這樣一種事實(shí):觀測到全部特征或者無特征的概率會(huì)低于其他情況,因此假設(shè)這兩種情況的概率為p,其他情形為2p[15],其中,

(2)

M為特征編碼數(shù),其條件概率P(Xl|Yj)取值如下:

(3)

值得注意的是,算法借助機(jī)器人在移動(dòng)過程中產(chǎn)生的一系列觀察量來度衡最終運(yùn)算結(jié)果,但由于環(huán)境對傳感器造成的干擾使得觀察序列并不穩(wěn)定,導(dǎo)致觀察量序列的出現(xiàn)模式不恒定,影響計(jì)算結(jié)果穩(wěn)定性,為提高觀察量X的計(jì)算可信度,本文為其添加可信度估算:

(4)

C(Xi)表示觀察量Xi的可信度,nxi表示觀察量Xi出現(xiàn)的次數(shù),NThreshold為滿足可信度的最小次數(shù)閾值.當(dāng)C(Xi)=1,表明Xi可信,可以納入后期的分類運(yùn)算,否則該觀察量Xi應(yīng)被遺棄.如此一來可保證觀察量較高的可信度,提高了觀察序列的穩(wěn)定性.

2 改進(jìn)的走廊識(shí)別算法

為提高走廊識(shí)別的正確率,降低深度曲線識(shí)別的復(fù)雜度,同時(shí)提升移動(dòng)機(jī)器人的方位自由性,本文提出一種改進(jìn)的走廊識(shí)別算法.算法識(shí)別思路是利用深度曲線相鄰點(diǎn)間的深度差值和最小二乘法擬合直線判斷出口的存在性,再利用貝葉斯分類器對獲得的特征進(jìn)行聚類運(yùn)算,最后實(shí)現(xiàn)走廊類型的識(shí)別.

2.1原理闡述

判斷走廊類型的關(guān)鍵在于檢測出構(gòu)成走廊出口的所在位置.由實(shí)際經(jīng)驗(yàn)可知,如果走廊一側(cè)存在出口,則出口處寬度相鄰兩點(diǎn)間差值相比于非出口處的相鄰點(diǎn)差值會(huì)突然增大,因此可將這一特點(diǎn)作為檢驗(yàn)走廊出口存在性判斷,原理如圖2所示.

圖2 走廊檢測原理示意圖

圖2中,A0,A1,…Ai和B0,B1,…Bi為走廊兩側(cè)數(shù)據(jù)點(diǎn),Bi+1,…Bj是出口處的數(shù)據(jù)點(diǎn)序列,直線方程l:x=kBiBo·z+b是由B0至Bi段的離散數(shù)據(jù)點(diǎn)經(jīng)最小二乘法擬合而成.圖2中陰影部分是機(jī)器人所能探知的區(qū)域,由Kinect傳感器獲得的深度圖像包含場景到機(jī)器人之間的距離信息,各個(gè)點(diǎn)相對于攝像頭平面中心的三維坐標(biāo)可由點(diǎn)云坐標(biāo)轉(zhuǎn)換公式[16]計(jì)算得到.從深度曲線的兩個(gè)初始端點(diǎn)A0、B0開始檢測,計(jì)算每后續(xù)兩點(diǎn)距離值|AiBi-1|(或|AiBi|),并與當(dāng)前兩點(diǎn)的距離|Ai-1Bi-1|(或|AiBi-1|)作差值比較.由于在同一側(cè)的兩個(gè)連續(xù)點(diǎn)間間隔極小,因此它們分別與另一側(cè)點(diǎn)所構(gòu)成的連線長度將非常相近,因而所形成的差值d極小(通常d趨近于0).當(dāng)檢測到可能的出口點(diǎn)處(假設(shè)在圖2中為Bi+1)時(shí),出口點(diǎn)處的連線值|AiBi+1|與先前的連線長度|AiBi|間形成的差值d(d=|AiBi+1|-|AiBi|)將會(huì)突然增大.因此可將之視為可能的出口點(diǎn)作進(jìn)一步檢測,對從Bi+1以后開始的每一點(diǎn)與Bi點(diǎn)形成的連線距離|BiBk|(k∈[i+1,j])進(jìn)行長度檢驗(yàn),以判斷整個(gè)通道是否足夠容納移動(dòng)機(jī)器人,其中Bj是長度檢驗(yàn)的終止點(diǎn).通常情況下,機(jī)器人在探索環(huán)境的移動(dòng)過程中,其位置會(huì)經(jīng)常發(fā)生改變,因而機(jī)器人(攝像頭)視線也并非總是平行于走廊過道中軸線,且由于出口兩側(cè)墻壁也并非絕對對稱,以及墻壁平面凹凸不平等原因都造成了移動(dòng)機(jī)器人無法直接獲知檢測的終止點(diǎn)Bj,進(jìn)而造成了識(shí)別出口點(diǎn)的難度.機(jī)器人視線相對于走廊出口的各種情形如圖3所示.

Fig.3Various scenarios of mobile robot vision with respect to the corridor export

在圖3(a)中,可通過Bi在X軸上的垂直投影點(diǎn)XBi反向檢測具有相同投影的另一點(diǎn)Bj(投影點(diǎn)為XBj,XBj=XBi);而(b)、(c)和(d)的情況,則會(huì)造成Bj點(diǎn)的識(shí)別困難(XBj≠XBi),因此需要對Bj點(diǎn)的直線歸屬進(jìn)行判斷,可通過對B0至Bi間離散數(shù)據(jù)點(diǎn)擬合直線l得到,此時(shí)Bj是B0、Bi所屬直線方程l:x=kBiBo·z+b上一點(diǎn),直線方程可使用最小二乘法擬合得到,最后還需計(jì)算間距|Bi+1Bj|是否大于指定可以被視為出口的深度閾值D0,當(dāng)以上條件都滿足時(shí),則可判定該處是一個(gè)出口,將觀察量X的相應(yīng)特征值位賦值為1(即Xi=[f1,f2,f3]=[f1,f2,1],X表示第i個(gè)觀察量),當(dāng)所有特征位都賦值后,得到一個(gè)觀察量Xi,通過不斷積累觀察量,最終將得到一組可用于貝葉斯分類運(yùn)算的觀察序列X1,X2,…,Xk.

2.2算法步驟

走廊識(shí)別算法按以下步驟進(jìn)行.

步驟1深度曲線初步修復(fù).

深度曲線取自深度圖的中間行數(shù)據(jù),而由Kinect從場景中獲得的深度圖容易存在白點(diǎn)噪音(由透明物體、光滑的物體表面等因素造成),也因此導(dǎo)致了所提取深度曲線的信息缺失.為修復(fù)空洞信息,可采取縱(橫)向最近相鄰數(shù)據(jù)點(diǎn)修補(bǔ)空洞信息:當(dāng)某一點(diǎn)處缺失數(shù)據(jù)時(shí),首先在該點(diǎn)處不超過圖像2/3高度的縱向范圍內(nèi)尋找最近鄰有效數(shù)據(jù)點(diǎn)作為替代;如果未能找到,則在該點(diǎn)橫向上不超過10個(gè)數(shù)據(jù)點(diǎn)(左右各5個(gè)數(shù)據(jù)點(diǎn))的范圍內(nèi)尋找最近鄰有效值點(diǎn),否則忽略該點(diǎn),進(jìn)行下一處數(shù)據(jù)空洞點(diǎn)的檢測與修復(fù).

步驟2走廊出口邊緣檢測.

從深度曲線的兩個(gè)初始端點(diǎn)A0、B0開始檢測,計(jì)算每兩個(gè)點(diǎn)間的歐氏距離|AiBi-1|(或|AiBi|),并將之與先前的兩點(diǎn)距離|Ai-1Bi-1|(或|AiBi-1|)作差值比較,當(dāng)差值|d|≥W0(其中|d|=||AiBi-1|-|Ai-1Bi-1||,W0為指定的走廊最小寬度)時(shí),則表明找到一點(diǎn)Bi+1(或Ai+1),將該點(diǎn)視作可能的出口點(diǎn)進(jìn)入步驟3作進(jìn)一步檢驗(yàn).

步驟3出口深度探測與離散數(shù)據(jù)點(diǎn)擬合.

若檢測到了可能的出口點(diǎn)(假設(shè)為Bi+1),則從該點(diǎn)Bi+1開始,若檢驗(yàn)的每一個(gè)點(diǎn)Bk(k∈[i+1,j])至Bi點(diǎn)處的歐氏距離|BiBk|始終滿足:|BiBk|≥W0,且直到檢測到有這樣一點(diǎn)Bj,在該點(diǎn)處同時(shí)滿足以下3個(gè)條件:

(1) |BjBi|≥W0;

(2) |kBiBj-kBiBo|

(3) |BjBi+1|≥D0.

其中,W0為寬度閾值,D0為走廊的深度閾值,kBiBj為Bi、Bj兩點(diǎn)的連線斜率,dk為可以確定點(diǎn)Bj在直線l上的最小閾值,kBiBo為從點(diǎn)B0至點(diǎn)Bi范圍內(nèi)的離散數(shù)據(jù)點(diǎn)擬合而成的直線斜率,其擬合的公式為:x=kBiBo·z+b,其中

(5)

(6)

若符合以上條件,則表明Bj是出口點(diǎn),且Bi和Bj一道構(gòu)成了一處出口,將該處對應(yīng)特征位賦值1.在完成其中一側(cè)Bj出口點(diǎn)的檢測后,在該檢測點(diǎn)保持不動(dòng),從另一側(cè)Ai開始檢測出口點(diǎn)Aj的存在性,當(dāng)檢測到點(diǎn)Ai+1,重復(fù)步驟2和步驟3,否則,進(jìn)入步驟4.

步驟4貝葉斯聚類運(yùn)算.

將得到的觀察序列X1,X2,…Xk代入式(1)進(jìn)行運(yùn)算,直到P(Yi|X1,X2,…Xk)=1時(shí),得到走廊類型的判定結(jié)果Yi.

3 實(shí)驗(yàn)結(jié)果與分析

本次實(shí)驗(yàn)采用HCR家用機(jī)器人平臺(tái)搭載微軟開發(fā)的Kinect傳感器(如圖4所示),傳感器輸出的RGB-D深度圖分辨率為640*480,實(shí)驗(yàn)環(huán)境為一般室內(nèi)場景,實(shí)驗(yàn)測試次數(shù)為300次,測試角度(攝像頭視線與走廊過道中軸線形成的夾角)范圍從0°至90°.

圖4 HCR家用機(jī)器人搭載Kinect攝像頭

首先對比了文獻(xiàn)[15]算法(深度曲線識(shí)別法)與本文新算法的走廊識(shí)別率對比圖,實(shí)驗(yàn)結(jié)果如圖5所示.其中縱軸表示走廊正確識(shí)別率,橫軸表示移動(dòng)機(jī)器人攝像頭視線相對于走廊過道中軸線的夾角θ.

圖5 原算法和新算法走廊識(shí)別率對比圖

Fig.5Comparison between the original algorithm and the new algorithm in corridor recognition rate

由圖5可以看出,兩個(gè)算法的走廊識(shí)別率都隨著角度θ的增大而減小.在攝像頭視線與中軸線形成的角度θ接近0°時(shí)兩種算法都有98%以上的成功率,而當(dāng)角度θ增大至某個(gè)閾值時(shí)(θ≈19°),文獻(xiàn)[15]算法(深度曲線識(shí)別法)的識(shí)別率降至約83%,本文算法則仍保持在97%~98%,而對比兩者在相同方位角度的走廊識(shí)別率上,則本文算法比文獻(xiàn)[15]算法高出近16°的識(shí)別范圍.

識(shí)別結(jié)果上的差異是由兩者識(shí)別方式不同造成的,這可由一個(gè)實(shí)驗(yàn)場景(如圖6所示)得到很好的解釋.在機(jī)器人探索環(huán)境的過程中,當(dāng)攝像頭視線平行于過道中軸線時(shí),原算法(深度曲線識(shí)別法)提取出了良好表征走廊出口的特征曲線,如圖6(c)所示.

圖6 機(jī)器人視線平行于過道

圖6(c)中,虛線和實(shí)線分別表示深度曲線在z軸和x軸上的投影.深度曲線投影能夠清楚地描繪出走廊出口類型特征,該曲線特征對應(yīng)了一種走廊類型,可以正確區(qū)分走廊類型為右“T”型.然而當(dāng)移動(dòng)機(jī)器人攝像頭與走廊過道中軸線形成較大的夾角較大(約23.1°)時(shí)(如圖7所示),該識(shí)別方法將出現(xiàn)錯(cuò)誤的判讀.

圖7 機(jī)器人視線與過道間夾角為23.1°

當(dāng)機(jī)器人處于場景圖7所示的位姿時(shí),深度曲線提取的特征投影線段已嚴(yán)重失真,不再屬于8種類型中的任何一種特征線段,但由于部分線段映射了一些(比如類Y6)類型的特征,所以此時(shí)文獻(xiàn)[15]算法[9]將走廊類型錯(cuò)誤地識(shí)別為左“T”型,結(jié)果有誤.而采用本文算法在此情況下依然能夠?qū)⒆呃阮愋驼_地區(qū)分為右“T”型.

實(shí)驗(yàn)還對比了采用隱馬爾科夫法[12]對于6種非“I”類型(NIC)(如圖8所示)的走廊識(shí)別率(見表2).

圖8 6種非“I”型(NIC)

算法NIC正確識(shí)別率/%失誤率/%隱馬爾科夫法[12]86.2113.78本文算法98.961.03

從表2可以看出在相同類型的走廊識(shí)別上,本文算法的走廊類型識(shí)別正確率為98.96%,高于隱馬爾科夫算法的86.21%,失誤率則小于隱馬爾科夫法,這表明本文算法在走廊識(shí)別的效果上好于隱馬爾科夫法.

注意,文獻(xiàn)[12]將走廊類型為死路的情況表示成“終結(jié)型”(圖8(f))并將之歸入為非“I”型,而在本文中將其表示為短“I”型(圖1(a)),這里僅是表示方式不同,但實(shí)際上兩者所代表的類型一致,為避免混淆,這里仍然將短“I”型當(dāng)做非“I”型進(jìn)行處理,以便于結(jié)果比對,已在圖8(f)中注明.

新算法對全部走廊類型(包含長“I”型和“十”字型)的識(shí)別率為97.69%,相比于在識(shí)別六種非“I”型走廊類型時(shí)的正確率98.96%下降了約1%,這是由于新添加的兩種走廊類型——長“I”型和“十”字型所導(dǎo)致.這兩種類型分別介于“L”型和“T”型之間,它們之間的相似性增加了算法對走廊特征的提取和聚類運(yùn)算復(fù)雜度,同時(shí)由前述可知,當(dāng)機(jī)器人相對于走廊過道的位姿發(fā)生變化(角度變大)時(shí),算法對走廊類型的誤判率也隨之增加,所以整體正確識(shí)別率稍有下降,但算法仍然保持了很高的走廊類型的正確識(shí)別率.

4 結(jié)論與展望

實(shí)驗(yàn)結(jié)果表明,新算法能夠?qū)崿F(xiàn)走廊類型的正確識(shí)別和區(qū)分,相比以往的識(shí)別方法具有更高的識(shí)別率,同時(shí)在方位角識(shí)別范圍上更大,具備較高的魯棒性,增加了機(jī)器人移動(dòng)方位的靈活性.

雖然,本文算法在走廊分類識(shí)別中取得了較高的識(shí)別率,但是還需要對其進(jìn)行進(jìn)一步更加深入地探索和研究,下面給出若干可以改進(jìn)和需要進(jìn)一步探究問題的建議:

(1) 文中采用的觀測條件概率P(X|Y)是一種基于經(jīng)驗(yàn)值的假設(shè),還可以通過神經(jīng)網(wǎng)絡(luò)等算法進(jìn)行訓(xùn)練以得到改進(jìn).

(2) 算法從深度圖中只提取了一條深度曲線進(jìn)行判斷,并沒有充分利用深度圖中豐富的三維信息,高維特征是未來研究的一個(gè)方向.

(3) 基于本文算法的檢測原理,原則上可以檢測不限于上述所定義的8種基本走廊類型,即能夠?qū)崿F(xiàn)多類型走廊偵測,因而可以去除8種編碼的限制,將其擴(kuò)展至n維特征,增強(qiáng)機(jī)器人對走廊的多種類型識(shí)別能力.

[1] CORCORAN P, BERTOLOTTO M, LEONARD J. Cognitively adequate topological robot localization and mapping[C]∥Proceedings of the Sixth ACM SIGSPATIAL International Workshop on Indoor Spatial Awareness. New York: ACM, 2014: 17-24.

[2] MUR-ARTAL R, TARDóS J D. ORB-SLAM: tracking and mapping recognizable features[C]∥MVIGRO Workshop at Robotics Science and Systems (RSS). USA, Berkeley:[s.n.], 2014.

[3] WANG B, ZHOU S, LIU W, et al. Indoor localization based on curve fitting and location search using received signal strength[J]. Industrial Electronics, IEEE Transactions on, 2015, 62(1): 572-582.

[4] LEE S M, JUNG J, KIM S, et al. DV-SLAM (Dual-Sensor-Based Vector-Field SLAM) and Observability Analysis[J]. Industrial Electronics, IEEE Transactions on, 2015, 62(2): 1101-1112.

[5] WANG K, ZHAO L, LI R. Mobile robot map building in eigenspace—A pea-based approach[C]∥ 2013 25th Chinese. Control and Decision Conference (CCDC) Guiyang: IEEE, 2013: 3199-3203.

[6] VARADARAJAN K M. Topological mapping for robot navigation using affordance features[C]∥Automation, Robotics and Applications (ICARA), 2015 6th International Conference on. Queenstown: IEEE, 2015: 42-49.

[7] CHIN W H, LOO C K, KUBOTA N. Multi-channel Bayesian adaptive resonance associative memory for environment learning and topological map building[C]∥Informatics, Electronics & Vision (ICIEV), 2015 International Conference on. Fukuoka: IEEE, 2015: 1-5.

[8] ITO A, TAKAHASHI K, KANEKO M. Robust mapping for mobile robot based on immobile area grid map considering potential moving objects[J]. Electrical Engineering in Japan, 2015, 192(4): 30-43.

[9] 蔣玉玲,楊宜民.基于SOM算法的機(jī)器視覺顏色識(shí)別[J]. 廣東工業(yè)大學(xué)學(xué)報(bào), 2011, 28(2): 40-42.

JIANG Y L, YANG Y M. Color recognition of machine vision based on SOM algorithm[J].Journal of Guangdong University of Technology,2011,28(2):40-42.

[10] 夏琴曄, 楊宜民.基于 biSCAN 和 SVM 的機(jī)器人目標(biāo)識(shí)別新算法研究[J]. 廣東工業(yè)大學(xué)學(xué)報(bào), 2014(04):65-69.

XIA Q Y, YANG Y M. Research on a new algorithm for robots’ recognition of objects based on biSCAN and SVM[J]. Journal of Guangdong University of Technology, 2014(04): 65-69.

[11] FAROOQ U, ABBAS G, SALEH S O, et al. Corridor navigation with fuzzy logic control for sonar based mobile robots[C]∥ Industrial Electronics and Applications (ICIEA), 2012 7th IEEE Conference on.Singapore: IEEE, 2012: 2087-2093.

[12] PARK Y B, SUH I H. Predictive visual recognition of types of structural corridor landmarks for mobile robot navigation[C]∥ 19th International symposium in Robot and Human Interactive Communication. Viareggio: IEEE, 2010:391 - 396.

[13] 張曉暉,劉丁.自主移動(dòng)機(jī)器人走廊視覺識(shí)別與跟蹤方法研究[J]. 西安理工大學(xué)學(xué)報(bào), 2006, 22(2): 158-162.

ZHANG X H, LIU D. Research on vision recognition and tracking for corridor of autonomous driving robot[J]. Journal of Xi'an University of Technology,2006, 22(2): 158-162.

[14] WANG X, HOU Z G, TAN M, et al. Improved mobile robot's Corridor-Scene Classifier based on probabilistic Spiking Neuron Model[C]∥ Cognitive Informatics & Cognitive Computing (ICCI*CC ), 2011 10th IEEE International Conference on Banff, AB: IEEE, 2011:348-355.

[15] CHENG H, CHEN H, LIU Y. Topological indoor localization and navigation for autonomous mobile robot[J]. IEEE Transactions on Automation Science & Engineering, 2015, 12(2): 729-738.

[16] KAMARUDIN K, MAMDUH S M , SHAKAFF A Y M, et al. Method to convert Kinect's 3D depth data to a 2D map for indoor SLAM[C]∥ Signal Processing and its Applications (CSPA), 2013 IEEE 9th International Colloquium on Kuala Lumpur: IEEE, 2013: 247-251.

Algorithm Research on Recognition and Improvement for Corridor of Autonomous Mobile Robot

Zeng Bi, Lin Zhan-peng, Deng Jie-hang

(School of Computers, Guangdong University of Technology, Guangzhou 510006, China)

For the problem of corridor recognition for autonomous mobile robot in the process of navigation in the indoor environment, an improved corridor recognition algorithm is proposed. The algorithm uses information of depth image provided by kinect sensor, and the depth difference between consecutive points and least squares are used to fit a straight line to detect the existence of corridor outlet. Experimental results show that the algorithm can efficiently recognize corridor types while having a robust, and is still able to maintain a high recognition rate of corridor types in a complex indoor environment.

corridor recognition; depth image; difference; least squares; Kinect

2015- 02- 30

國家自然科學(xué)基金資助項(xiàng)目(61202267);廣東省產(chǎn)學(xué)研合作專項(xiàng)資助項(xiàng)目(2014B090904080)

曾碧(1963-),女,教授,博士,主要研究方向?yàn)橹悄軝C(jī)器人、嵌入式智能計(jì)算.

10.3969/j.issn.1007- 7162.2016.05.003

TP242.6

A

1007-7162(2016)05- 0009- 06

猜你喜歡
移動(dòng)機(jī)器人識(shí)別率走廊
移動(dòng)機(jī)器人自主動(dòng)態(tài)避障方法
神奇的走廊
走廊上的時(shí)光
文苑(2020年4期)2020-05-30 12:35:20
基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測
走廊上
基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識(shí)別率的關(guān)系
提升高速公路MTC二次抓拍車牌識(shí)別率方案研究
基于Twincat的移動(dòng)機(jī)器人制孔系統(tǒng)
高速公路機(jī)電日常維護(hù)中車牌識(shí)別率分析系統(tǒng)的應(yīng)用
在走廊行走
济宁市| 乌兰察布市| 平遥县| 富锦市| 久治县| 定陶县| 巴林右旗| 亚东县| 肇东市| 山丹县| 洞口县| 英吉沙县| 定南县| 谷城县| 台东市| 吉水县| 荆州市| 大厂| 富蕴县| 皮山县| 保定市| 文成县| 桂阳县| 海阳市| 石狮市| 双城市| 彭阳县| 平乐县| 黎川县| 靖州| 延津县| 樟树市| 景宁| 莲花县| 当雄县| 龙江县| 阜新| 江华| 灵台县| 柏乡县| 新河县|