,,,
(國(guó)防科技大學(xué),長(zhǎng)沙 410073)
移動(dòng)機(jī)器人發(fā)展研究的挑戰(zhàn)在于如何讓機(jī)器人處在復(fù)雜變動(dòng)的環(huán)境情形下高效率地完成預(yù)定的任務(wù)[1]。隨著現(xiàn)代化社會(huì)的發(fā)展,人們有了減輕家務(wù)負(fù)擔(dān)的需求,這使得室內(nèi)服務(wù)機(jī)器人有很大的市場(chǎng)空間與前景。室內(nèi)服務(wù)機(jī)器人作為移動(dòng)機(jī)器人的典型代表,要求能夠?qū)崟r(shí)進(jìn)行自定位,并且有效地避開(kāi)各種靜態(tài)和動(dòng)態(tài)障礙物。自定位問(wèn)題是移動(dòng)機(jī)器人系統(tǒng)研究中的重難點(diǎn)之一,高精度可靠的定位是保證移動(dòng)機(jī)器人自主地完成預(yù)定任務(wù)的關(guān)鍵[2],根據(jù)環(huán)境模型是否已知可分為基于環(huán)境模型的定位、未知環(huán)境模型的定位以及同時(shí)定位與建圖,其中基于環(huán)境模型的定位方法可分為相對(duì)定位、絕對(duì)定位與組合定位三類。絕對(duì)定位技術(shù)通常借助于外部傳感器獲得機(jī)器人的絕對(duì)位置,常用的方法有陸標(biāo)定位、視覺(jué)定位以及衛(wèi)星導(dǎo)航定位等。相對(duì)定位又稱航跡推算技術(shù),該方法僅根據(jù)編碼器便能在短距離內(nèi)獲得較高的定位精度,但是長(zhǎng)時(shí)間工作時(shí)存在漂移。
本文針對(duì)室內(nèi)環(huán)境的特點(diǎn)提出了一種基于RGB-D相機(jī)的移動(dòng)機(jī)器人自定位方法,該方法基于環(huán)境模型利用匹配優(yōu)化定位算法可以高效率地實(shí)現(xiàn)精度較高自定位又能夠確保系統(tǒng)的魯棒性,本文最后通過(guò)開(kāi)展實(shí)驗(yàn)研究和實(shí)驗(yàn)結(jié)果分析,驗(yàn)證所提方法的有效性。
精準(zhǔn)可靠的自定位是保證移動(dòng)機(jī)器人完成各項(xiàng)自主性任務(wù)的關(guān)鍵,不同的定位算法各有優(yōu)缺點(diǎn),一些學(xué)者將各種理論應(yīng)用于移動(dòng)機(jī)器人的定位研究,其中Monte Carlo定位[3-5]是一種比較常用的方法,也稱為粒子濾波方法,該算法的主要思想是使用帶有權(quán)重的粒子點(diǎn)的集合來(lái)表示機(jī)器人的定位值在狀態(tài)空間中的分布。初始化時(shí),通常假設(shè)粒子點(diǎn)在場(chǎng)地中均勻分布,定位過(guò)程中,基于權(quán)重高低的重采樣、基于機(jī)器人的運(yùn)動(dòng)模型更新粒子點(diǎn)的位姿和基于機(jī)器人的感知模型更新粒子點(diǎn)的權(quán)重等三個(gè)步驟循環(huán)進(jìn)行,最后將所有的粒子點(diǎn)加權(quán)求和即可得到機(jī)器人自定位的結(jié)果,但是傳統(tǒng)的粒子濾波定位算法將過(guò)多的時(shí)間用于處理權(quán)重不高的粒子,因此有一定的盲目性。文獻(xiàn)[6----7]提出了一種基于超寬帶的室內(nèi)定位系統(tǒng),該系統(tǒng)使用傳輸速度較高、穿透能力較強(qiáng)以及發(fā)射功率低的無(wú)線技術(shù),基于超寬帶的室內(nèi)移動(dòng)機(jī)器人自定位系統(tǒng)響應(yīng)速度較快,可達(dá)到定位精度的要求,但是其成本較高,不適合應(yīng)用于低成本的服務(wù)機(jī)器人。文獻(xiàn)[8]設(shè)計(jì)了一種基于路標(biāo)和三角測(cè)距法的移動(dòng)機(jī)器人自定位系統(tǒng)并通過(guò)實(shí)物驗(yàn)證定位系統(tǒng)的有效性,但該系統(tǒng)嚴(yán)重依賴預(yù)先設(shè)定的環(huán)境模型,并且機(jī)器人上需要安置特定的傳感器用于觀測(cè)環(huán)境中的信標(biāo),其安裝與維護(hù)信標(biāo)的費(fèi)用較高。文獻(xiàn)[9]采用一種利用Hough變換的移動(dòng)機(jī)器人定位算法,該方法利用建立全局地圖的Hough能量譜函數(shù)估計(jì)機(jī)器人在全局地圖中的位姿分布。針對(duì)RoboCup中型組足球機(jī)器人的結(jié)構(gòu)化場(chǎng)地環(huán)境的特殊性,文獻(xiàn)[10]提出了基于匹配優(yōu)化定位的中型組足球機(jī)器人自定位算法,其核心思想是將機(jī)器人所觀測(cè)到的特征點(diǎn)與環(huán)境信息相匹配,預(yù)先設(shè)定誤差函數(shù),并利用優(yōu)化算法求出機(jī)器人自定位的最優(yōu)解從而最小化誤差函數(shù)。理論上而言,匹配優(yōu)化定位方法的定位精度只由優(yōu)化算法本身的計(jì)算精度和視覺(jué)測(cè)量精度所決定,并且優(yōu)化算法可以在較短的時(shí)間內(nèi)對(duì)一幀圖像完成定位解算,所以匹配優(yōu)化定位方法具有高效率與高精度的特點(diǎn),但該定位算法需要使用機(jī)器人的初始定位值進(jìn)行優(yōu)化,也就是需要獲得已知的機(jī)器定位初值。
機(jī)器人自定位問(wèn)題的核心就是求出機(jī)器人在世界坐標(biāo)系中的位置與姿態(tài)(x,y,θ),本文針對(duì)室內(nèi)環(huán)境的特點(diǎn)提出一種基于RGB-D相機(jī)的匹配優(yōu)化自定位方法,該方法首先建立機(jī)器人工作環(huán)境的地圖模型,接著基于建立的地圖模型生成環(huán)境誤差查找表,最后通過(guò)匹配優(yōu)化自定位算法完成機(jī)器人的自定位,利用匹配優(yōu)化定位算法,既能高效率地實(shí)現(xiàn)高精度自定位又可以保證系統(tǒng)的魯棒性。本文所提出的自定位算法的執(zhí)行流程如下:
1)基于gmapping建立室內(nèi)環(huán)境地圖模型;
2)基于Hough變換提取線特征生成環(huán)境模型誤差查找表并儲(chǔ)存;
3)將RGB-D相機(jī)獲得的深度圖像轉(zhuǎn)化為等價(jià)的激光掃描信息并發(fā)布;
4)機(jī)器人訂閱實(shí)時(shí)的激光掃描信息;
5)機(jī)器人基于環(huán)境模型誤差表通過(guò)匹配優(yōu)化定位算法解算出機(jī)器人的位姿,算法結(jié)束。
gmapping是一種高效率的Rao-Blackwellized粒子濾波算法,在建議分布與自適應(yīng)重采樣兩個(gè)方面具有很大的改進(jìn),本文基于gmapping將RGB-D相機(jī)得到的深度圖像轉(zhuǎn)化為等價(jià)的激光掃描信息,以建立未知室內(nèi)環(huán)境的二維占據(jù)柵格地圖,其建圖過(guò)程大致可分為三步,首先利用RGB-D相機(jī)每秒所產(chǎn)生的30幀深度圖生成局部二維占據(jù)柵格地圖同時(shí)估計(jì)出粒子(機(jī)器人)的位置與姿態(tài),接著讀取新的激光掃描信息并將其加入到粒子群再利用RBPF算法[11]優(yōu)化粒子數(shù)目,最后選取權(quán)重最大的粒子作為機(jī)器人的最佳位姿并將生成的局部二維占據(jù)柵格地圖加入到全局地圖中,這三步驟不斷地循環(huán)直至環(huán)境建圖結(jié)束。
本文以實(shí)驗(yàn)室為研究環(huán)境,首先讓機(jī)器人遍歷室內(nèi)環(huán)境,獲得RGB-D相機(jī)輸出的等價(jià)的激光掃描信息和里程計(jì)輸出的機(jī)器人位姿數(shù)據(jù),接著利用gmapping對(duì)機(jī)器人所采集的數(shù)據(jù)進(jìn)行處理,生成二維占據(jù)柵格地圖并存儲(chǔ),圖1為機(jī)器人遍歷室內(nèi)長(zhǎng)走廊與會(huì)議室后所建立的二維占據(jù)柵格地圖,地圖分辨率為每個(gè)像素點(diǎn)5 cm,白色,黑色與灰色像素分別代表未被占據(jù)、占據(jù)以及未知3種狀態(tài),墻壁障礙物已經(jīng)用黑色粗實(shí)線標(biāo)出。
圖1 機(jī)器人建立的環(huán)境地圖
霍夫變換(Hough Transform)方法能夠?qū)Χ祱D像進(jìn)行直線特征的提取,標(biāo)準(zhǔn)參數(shù)化方式下,式(1)為直線l的表達(dá)(定義與性質(zhì),參考文獻(xiàn)[12])。
r=x1cosθ+y1sinθ
(1)
記N×N二值圖像(xi,yi)像素的灰度值為I(xi,yi),參數(shù)空間中,[0,π]區(qū)間上,θ均勻地取M個(gè)離散值,r的采樣個(gè)數(shù)為Q,標(biāo)準(zhǔn)霍夫變換(standrad hough transform , SHT)在直線檢測(cè)中由式(2)表示:
(2)
Hough變換可以有效地提取線特征,本文基于Hough變換線特征提取來(lái)構(gòu)建環(huán)境模型誤差查找表。環(huán)境模型誤差查找表表示世界坐標(biāo)系下所有環(huán)境內(nèi)的點(diǎn)到離它最近的線特征點(diǎn)之間的實(shí)際距離。
環(huán)境模型誤差表的建立描述如下。首先對(duì)保存的環(huán)境地圖模型進(jìn)行邊緣檢測(cè)并二值化處理,接著利用累計(jì)概率霍夫變換對(duì)二值化后的環(huán)境地圖進(jìn)行特征提取,即對(duì)障礙物點(diǎn)進(jìn)行線特征提取,如圖2(a)所示,將非結(jié)構(gòu)化的室內(nèi)環(huán)境轉(zhuǎn)化為結(jié)構(gòu)化的室內(nèi)環(huán)境,檢測(cè)出的障礙物線特征用紅色標(biāo)記,非結(jié)構(gòu)化環(huán)境向結(jié)構(gòu)化環(huán)境轉(zhuǎn)化的目的是便于使用匹配優(yōu)化算法進(jìn)行最優(yōu)解的解算。接著遍歷環(huán)境地圖,計(jì)算出環(huán)境中每一個(gè)點(diǎn)與離該點(diǎn)最近障礙物直線段的實(shí)際距離(該距離用于匹配優(yōu)化定位中近似觀測(cè)的特征點(diǎn)與實(shí)際位置的偏差),最后利用環(huán)境中每一個(gè)點(diǎn)與最近障礙物直線段的實(shí)際距離來(lái)生成環(huán)境模型的誤差查找表并存儲(chǔ),圖2(b)為環(huán)境模型誤差查找表示意圖,圖中每一個(gè)像素點(diǎn)的灰度值代表該點(diǎn)與最近障礙物直線段之間的距離,灰度值越大意味著距離越大,即誤差越大。
匹配優(yōu)化定位的核心思想是把機(jī)器人所觀測(cè)到的特征點(diǎn)與環(huán)境信息相匹配,預(yù)先定義誤差函數(shù),利用優(yōu)化算法尋找使誤差函數(shù)最小化的最優(yōu)解[13]。本文機(jī)器人所觀測(cè)到的特征點(diǎn)主要有室內(nèi)環(huán)境中的墻壁與桌椅等障礙物。
基于匹配優(yōu)化自定位的實(shí)現(xiàn)過(guò)程描述如下。機(jī)器人首先通過(guò)RGB-D相機(jī)獲得障礙物特征點(diǎn)在機(jī)器人體坐標(biāo)系下的坐標(biāo)
圖2 Hough變換提取的結(jié)果和誤差查找表
值,并經(jīng)過(guò)坐標(biāo)轉(zhuǎn)換將機(jī)器人體坐標(biāo)系下的坐標(biāo)值轉(zhuǎn)換到世界坐標(biāo)系中。定義
為機(jī)器人檢測(cè)到的障礙物特征點(diǎn)在機(jī)器人體坐標(biāo)系下的坐標(biāo)值,機(jī)器人在世界坐標(biāo)系下的定位值為(
x
,
y
,
θ
),坐標(biāo)轉(zhuǎn)換關(guān)系如圖3(a)所示,公式(3)將障礙物特征點(diǎn)從機(jī)器人體坐標(biāo)系轉(zhuǎn)換到世界坐標(biāo)系中,世界坐標(biāo)系下障礙物特征點(diǎn)的坐標(biāo)值與環(huán)境中該特征點(diǎn)的真實(shí)位置的偏差可定義為
d
(
o
i
),理想情況下,該偏差值應(yīng)該等于0,因?yàn)樗^測(cè)的障礙物特征點(diǎn)理論上應(yīng)該在環(huán)境模型中障礙物直線段上。該偏差可用觀測(cè)的特征點(diǎn)與離該特征點(diǎn)最近障礙物直線段實(shí)際距離來(lái)近似,因此機(jī)器人的自定位問(wèn)題可轉(zhuǎn)化為求解式(4)的尋優(yōu)問(wèn)題,其中
n
為障礙物特征點(diǎn)的數(shù)目,本文將誤差函數(shù)
e
(
t
)定義為
如圖3(b)所示,
c
為常量,取值為250。本文使用了RPROP算法
[14]
用于求解誤差函數(shù)尋優(yōu)的過(guò)程中無(wú)約束最優(yōu)化問(wèn)題,RPROP算法最早用于訓(xùn)練神經(jīng)網(wǎng)絡(luò),優(yōu)化權(quán)值,與常見(jiàn)的BP算法不同,RPROP算法只利用梯度的方向以及方向變化的信息來(lái)進(jìn)行權(quán)值調(diào)整而不是根據(jù)梯度大小調(diào)整優(yōu)化步長(zhǎng)。本文中機(jī)器人自定位問(wèn)題需要優(yōu)化的是(
x
,
y
,
θ
)三個(gè)參數(shù),求出誤差函數(shù)的一階導(dǎo)數(shù),作為梯度,再利用梯度的方向和梯度方向變化的特點(diǎn)來(lái)尋找函數(shù)的最優(yōu)解從而完成機(jī)器人的自定位,見(jiàn)公式(5)~(7)。
圖3 坐標(biāo)系轉(zhuǎn)換與誤差函數(shù)
(3)
(4)
(5)
(6)
(7)
本文在室內(nèi)非結(jié)構(gòu)化環(huán)境下進(jìn)行了定位實(shí)驗(yàn),測(cè)試了所提出算法的性能。總共設(shè)計(jì)了兩組實(shí)驗(yàn),第一組實(shí)驗(yàn)中,移動(dòng)機(jī)器人在建有地圖的室內(nèi)環(huán)境中進(jìn)行定位,記錄定位得到的機(jī)器人位姿和定位算法處理時(shí)間,對(duì)定位算法的準(zhǔn)確性與實(shí)時(shí)性進(jìn)行分析;第二組實(shí)驗(yàn)在第一組實(shí)驗(yàn)的基礎(chǔ)上,人為地在環(huán)境中添加噪聲干擾,測(cè)試定位算法的魯棒性。
實(shí)驗(yàn)環(huán)境如圖4(a)所示,實(shí)驗(yàn)軟件平臺(tái)基于機(jī)器人操作系統(tǒng)(robot operating System,ROS)[15],該操作系統(tǒng)能夠提供類似傳統(tǒng)操作系統(tǒng)的相關(guān)功能,如硬件抽象、底層設(shè)備控制、常用功能實(shí)現(xiàn)、進(jìn)程間消息的傳遞以及軟件包管理等。實(shí)驗(yàn)硬件平臺(tái)選用Willow Garage公司的TurtleBot2機(jī)器人開(kāi)源硬件平臺(tái),如圖4(b)所示,TurtleBot2由Kobuki移動(dòng)底盤和Kinect組成。Kobuki接口控制板32個(gè)內(nèi)置傳感器,兩個(gè)驅(qū)動(dòng)輪,單軸陀螺儀,一個(gè)可以擴(kuò)展的輸入輸出端口和一個(gè)后擋板,開(kāi)放式接口可以直接實(shí)現(xiàn)對(duì)機(jī)器人的移動(dòng)與輸入傳感器的操作。Kinect是一款具有高精度的深度傳感器,被廣泛應(yīng)用于室內(nèi)移動(dòng)機(jī)器人的研究[16-17]。Kinect的RGB 相機(jī)每秒能夠獲取30幀的彩色圖像,左右兩個(gè)深度傳感器,基上安裝有電機(jī),可以使Kinect在豎直平面內(nèi)上下傾斜正負(fù)27°,深度傳感器利用主動(dòng)射出的紅外光往返的相位差來(lái)測(cè)量深度,與傳統(tǒng)的結(jié)構(gòu)光測(cè)量技術(shù)不同,Kinect的光編碼所使用的是連續(xù)的照明(非脈沖),無(wú)需特制的感光芯片,普通的CMOS感光芯片即可滿足要求。
本實(shí)驗(yàn)通過(guò)遙控TurtleBot2遍歷室內(nèi)大廳并記錄定位過(guò)程中自定位算法得到的機(jī)器人位置和姿態(tài),得到的定位結(jié)果如圖5所示,誤差統(tǒng)計(jì)結(jié)果見(jiàn)表1。本文將TurtleBot2提供的定位算法解算的位姿設(shè)為真值(淺色圓圈點(diǎn)為本文算法的估計(jì)值,深色星號(hào)點(diǎn)為真值)。
圖4 實(shí)驗(yàn)環(huán)境與硬件平臺(tái)
圖5 沿室內(nèi)大廳移動(dòng)時(shí)自定位結(jié)果
MAERMSEX/cm13.315.3Y/cm17.520.2θ/rad0.120.18
從圖5和表1中能夠得出,機(jī)器人位置定位的平均絕對(duì)誤差都不超過(guò)17.5 cm,朝向定位的平均絕對(duì)誤差小于7°,表明本文提出的機(jī)器人自定位算法能夠滿足室內(nèi)移動(dòng)機(jī)器人的定位要求。
實(shí)驗(yàn)環(huán)境改為長(zhǎng)1 400 cm,寬132 cm的長(zhǎng)條形走廊,沿走廊A、B兩點(diǎn)往返做對(duì)比實(shí)驗(yàn),將本文提出的自定位算法與粒子濾波定位算法在定位時(shí)間上進(jìn)行對(duì)比,結(jié)果如圖6所示,其中上細(xì)實(shí)線為粒子濾波定位計(jì)算所需時(shí)間曲線,下粗實(shí)線為匹配優(yōu)化定位計(jì)算所需時(shí)間曲線,經(jīng)過(guò)測(cè)試,機(jī)器人采用本文所提出的算法平均處理一次定位計(jì)算需要的時(shí)間為13.7 ms,粒子濾波定位算法完成一次定位計(jì)算平均所需的時(shí)間為21.8 ms。實(shí)驗(yàn)中機(jī)器人所攜帶處理器主頻為1.7 GHz,內(nèi)存為4.0 G,故本文所提出的算法在實(shí)時(shí)性上要優(yōu)于粒子濾波定位算法。
圖6 自定位算法時(shí)間對(duì)比
本文通過(guò)在機(jī)器人工作的室內(nèi)環(huán)境里人為地加入噪聲來(lái)模擬環(huán)境的變化情況,進(jìn)而測(cè)試本文所提出的自定位算法的魯棒性,噪聲的設(shè)置有門的開(kāi)關(guān)、增加桌椅數(shù)目以及人員的隨意走動(dòng)。實(shí)驗(yàn)通過(guò)遙控TurtleBot2遍歷長(zhǎng)走廊與會(huì)議室記錄定位過(guò)程中自定位算法得到的機(jī)器人位置和姿態(tài),得到的定位結(jié)果如圖7所示,圖7(a)為未加入噪聲的結(jié)果,圖7(b)為加入噪聲的結(jié)果,定位誤差統(tǒng)計(jì)結(jié)果見(jiàn)表2。從圖7和表2中可以看出,加入噪聲后的機(jī)器人位置定位的平均誤差增幅小于5 cm,朝向定位的平均誤差增幅小于6°,環(huán)境的變動(dòng)并沒(méi)有導(dǎo)致定位誤差的明顯增大,所以本文所提出的自定位算法對(duì)環(huán)境的變化具有一定的魯棒性。
圖7 室內(nèi)環(huán)境機(jī)器人定位結(jié)果軌跡圖
未加入噪聲加入噪聲MAERMSEMAERMSEX/cm17.321.320.725.7Y/cm17.521.121.626.6θ/rad0.180.260.240.31
本文針對(duì)室內(nèi)環(huán)境下移動(dòng)機(jī)器人基于RGB-D傳感器的視覺(jué)精確自定位問(wèn)題開(kāi)展研究,通過(guò)離線建立二維占據(jù)柵格地圖,并建立環(huán)境模型誤差查找表,將非結(jié)構(gòu)化環(huán)境中的自定位問(wèn)題轉(zhuǎn)化為結(jié)構(gòu)化環(huán)境中的自定位問(wèn)題,進(jìn)而采用匹配優(yōu)化定位方法實(shí)現(xiàn)了移動(dòng)機(jī)器人在室內(nèi)環(huán)境中的自定位,所提出的自定位算法在室內(nèi)環(huán)境下滿足實(shí)時(shí)性、精確性和魯棒性要求,并
且基于ROS框架的自定位算法具有很好的可移植性與擴(kuò)展性等優(yōu)點(diǎn),為下一步研究路徑規(guī)劃與自主導(dǎo)航等問(wèn)題奠定了良好的基礎(chǔ)。
[1]Wang Y, Wang D, Mihankhah E. Navigation of multiple mobile robots in unknown environments using a new decentralized navigation function[A].Control, Automation, Robotics and Vision (ICARCV), 2016 14th International Conference on[C]. IEEE, 2016: 1-6.
[2]Patompak P, Jeong S, Chong N Y, et al. Mobile robot navigation for human-robot social interaction[A].Control, Automation and Systems (ICCAS), 2016 16th International Conference on[C]. IEEE, 2016: 1298-1303.
[3]劉開(kāi)創(chuàng),施家棟, 王建中, 等. 移動(dòng)機(jī)器人自主返航控制系統(tǒng)設(shè)計(jì)與實(shí)驗(yàn)[J]. 計(jì)算機(jī)測(cè)量與控制, 2016, 24(3): 71-75.
[4]Handschin J E. Monte Carlo techniques for prediction and filtering of non-linear stochastic processes[J]. Automatica, 1970, 6(4): 555-563.
[5]Bukhori I, Ismail Z H. Detection strategy for kidnapped robot problem in Monte Carlo Localization based on similarity measure of environment[A].Underwater System Technology: Theory and Applications (USYS), IEEE International Conference on[C]. IEEE, 2016: 55-60.
[6]Kok M, Hol J D, Schon T B. Indoor positioning using ultrawideband and inertial measurements[J]. IEEE Transactions on Vehicular Technology, 2015, 64(4): 1293-1303.
[7]Jeábek J, Zaplatílek L, Pola M. A proposal of radio ultra wide band systems for precision indoor localization[A].Radioelektronika, 2015 25th International Conference[C]. IEEE, 2015: 355-358.
[8]Loevsky I, Shimshoni I. Reliable and efficient landmark-based localization for mobile robots[J]. Robotics and Autonomous Systems, 2010, 58(5): 520-528.
[9]Iocchi L, Nardi D. Hough localization for mobile robots in polygonal environments[J]. Robotics and Autonomous Systems, 2002, 40(1): 43-58.
[10]Xiong D, Xiao J, Lu H, et al. The design of an intelligent soccer-playing robot[J]. Industrial Robot: An International Journal, 2016, 43(1): 91-102.
[11]Grisetti G, Stachniss C, Burgard W. Improved techniques for grid mapping with rao-blackwellized particle filters[J]. IEEE transactions on Robotics, 2007, 23(1): 34-46.
[12]Zhang W, Li H, Yan X, et al. A Method of Recognizing Curve Direction Based on Hough Transform[A].Computational Intelligence and Design (ISCID), 2016 9th International Symposium on[C]. IEEE, 2016, 2: 3-6.
[13]Lauer M, Lange S, Riedmiller M. Calculating the perfect match: an efficient and accurate approach for robot self-localization, RoboCup 2005[A]. robot Soccer World Cup IX[C]. 2006.
[14]Riedmiller M, Braun H. A direct adaptive method for faster backpropagation learning: The RPROP algorithm[A].Neural Networks, 1993, IEEE International Conference on[C]. IEEE, 1993: 586-591.
[15]Martinez A, Fernández E. Learning ROS for robotics programming[M]. Packt Publishing Ltd, 2013.
[16]Hamzeh O, Elnagar A. A Kinect-based indoor mobile robot localization[A].Mechatronics and its Applications (ISMA), 2015 10th International Symposium on[C]. IEEE, 2015: 1-6.
[17]Kamarudin K, Mamduh S M, Shakaff A Y M, et al. Performance analysis of the microsoft kinect sensor for 2D simultaneous localization and mapping (SLAM) techniques[J]. Sensors, 2014, 14(12): 23365-23387.