国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度學(xué)習(xí)的機(jī)器人目標(biāo)檢測設(shè)計(jì)

2021-05-12 02:59余佳恩馬國軍任永恒王亞軍
電子設(shè)計(jì)工程 2021年8期
關(guān)鍵詞:彩色圖像障礙物坐標(biāo)系

余佳恩,馬國軍,任永恒,王亞軍

(江蘇科技大學(xué)電子信息學(xué)院,江蘇鎮(zhèn)江 212003)

室內(nèi)機(jī)器人在移動(dòng)過程中,需要感知周圍環(huán)境,以進(jìn)行目標(biāo)檢測和路徑規(guī)劃。常用的傳感器有激光雷達(dá)、超聲波和紅外傳感器等,為獲得較多的信息,視覺傳感器也廣泛應(yīng)用于機(jī)器人目標(biāo)檢測。

機(jī)器人目標(biāo)檢測方法是將提取的目標(biāo)圖像特征轉(zhuǎn)化為特征向量,利用分類器進(jìn)行分類[1-2],同時(shí)用滑動(dòng)窗口對目標(biāo)定位,找到與目標(biāo)特征最相似的位置。

隨著人工智能技術(shù)的不斷發(fā)展,基于深度學(xué)習(xí)的目標(biāo)檢測算法逐步被應(yīng)用,并成為研究熱點(diǎn)。基于區(qū)域建議的算法先對可能存在的目標(biāo)區(qū)域進(jìn)行大量的建議,構(gòu)成候選目標(biāo),然后進(jìn)行識別,得到檢測結(jié)果,如Faster R-CNN 系列檢測算法[3-4],但該類算法存在處理數(shù)據(jù)速度慢,對候選區(qū)域進(jìn)行處理時(shí)有大量的重復(fù)計(jì)算等問題?;诨貧w學(xué)習(xí)的檢測算法能夠一步完成檢測過程,如YOLO 在去除區(qū)域建議的過程中[5],直接利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)對整幅圖像進(jìn)行處理,預(yù)測出目標(biāo)的位置和類別,該方法雖然提高了運(yùn)算速度,增加了實(shí)時(shí)性,但其定位的準(zhǔn)確性較低[6]。

基于此,文中設(shè)計(jì)并研究了基于MobileNet-SSD模型的目標(biāo)檢測方法,并且輸出機(jī)器人到目標(biāo)障礙物的距離。該方法使用MobileNet 網(wǎng)絡(luò)作為SSD 的基礎(chǔ)網(wǎng)絡(luò)進(jìn)行特征提取,將檢測到的目標(biāo)投影到深度圖中,同時(shí)計(jì)算包圍盒內(nèi)的深度平均值作為障礙物到機(jī)器人的距離。

文中融合計(jì)算機(jī)視覺和深度學(xué)習(xí)的方法,進(jìn)行機(jī)器人障礙物目標(biāo)全自動(dòng)檢測,并得到距離信息,為機(jī)器人避障、路徑規(guī)劃提供基礎(chǔ)。

1 MobileNet-SSD目標(biāo)檢測

1.1 MobileNet

目前,為得到較高的準(zhǔn)確率,CNN 的深度逐漸增加,復(fù)雜度逐漸增強(qiáng)[7]。但是,硬件資源的限制使得巨大且復(fù)雜網(wǎng)絡(luò)模型在嵌入式設(shè)備上無法實(shí)際應(yīng)用。針對CNN 存在的問題,Google 于2017 年發(fā)布了MobileNet 卷積神經(jīng)網(wǎng)絡(luò)模型[8]。

MobileNet 采用深度可分離卷積[9]代替普通卷積,為每個(gè)輸入通道提供單獨(dú)的濾波器,使用點(diǎn)卷積結(jié)合所有輸出的深度卷積,使計(jì)算量大大減小,標(biāo)準(zhǔn)卷積分解為可分離卷積的示意如圖1 所示。

圖1 普通卷積和深度可分離卷積

1.2 SSD目標(biāo)檢測算法

針對R-CNN 系列檢測算法處理數(shù)據(jù)速度慢,YOLO 類算法定位準(zhǔn)確率低的問題,文獻(xiàn)[10]提出了SDD 算法。與兩階段目標(biāo)檢測算法相比,SSD 采用端到端的方法和金字塔式的多尺度特征層,具有實(shí)時(shí)性好、結(jié)果準(zhǔn)確的特點(diǎn)。

SSD 算法以VGG16 為基礎(chǔ)網(wǎng)絡(luò),通過增加4 個(gè)卷積層獲得更多的特征圖。通過多尺度特征信息和待檢測圖像的大小信息,生成候選框位置和置信度。在輸出層,利用非極大值抑制算法((Non-Maximum Suppression,NMS)去掉無效的候選框,將候選框和標(biāo)注框進(jìn)行匹配,從而得到目標(biāo)的信息,包括位置、類別和置信度[11-13]。

SDD 由基礎(chǔ)網(wǎng)絡(luò)和輔助網(wǎng)絡(luò)組成。輔助網(wǎng)絡(luò)在VGG-16 的基礎(chǔ)上增加用于目標(biāo)檢測的卷積層,其目標(biāo)檢測步驟如下:

Step1:初始化,載入模型進(jìn)行網(wǎng)絡(luò)訓(xùn)練;

Step2:提取部分圖像區(qū)域,構(gòu)造候選框;

Step3:計(jì)算置信度,置信度值越大,準(zhǔn)確性越高;

Step4:輸出置信度和物體在圖像中的位置。

1.3 MobileNet-SSD目標(biāo)檢測流程

利用RGB 相機(jī)獲取場景的彩色圖像,利用MobileNet-SSD 進(jìn)行障礙物檢測并構(gòu)建目標(biāo)包圍盒;然后,利用左右兩個(gè)紅外相機(jī)獲取場景的深度圖像,將RGB 彩色圖像和深度圖像融合配準(zhǔn),得到RGBD圖像數(shù)據(jù);最后,將目標(biāo)包圍盒投影到深度圖中,并輸出目標(biāo)的類別和距離。具體流程如圖2 所示。

圖2 MobileNet-SSD目標(biāo)檢測流程圖

2 RGBD圖像配準(zhǔn)

圖像配準(zhǔn)是將多個(gè)傳感器從不同視角獲得的多幅圖像,在同一場景下尋找?guī)缀紊系膶?yīng)關(guān)系。

圖像配準(zhǔn)可分為基于區(qū)域的配準(zhǔn)和基于特征的配準(zhǔn)兩種方法[14]?;趨^(qū)域的配準(zhǔn)方法[15]由事先定義好尺寸的窗口來進(jìn)行相關(guān)性估計(jì)。比較典型的算法有相關(guān)算法、傅里葉算法和互信息算法。

基于特征的配準(zhǔn)方法[16]是對不同圖像中提取的特征,如點(diǎn)、線特征進(jìn)行關(guān)聯(lián),因而對圖像的旋轉(zhuǎn)、平移和尺度變換等具有不變性。

在深度圖像配準(zhǔn)中,由3D 相機(jī)獲得的圖像包括深度圖像和彩色圖像。由于深度相機(jī)和彩色相機(jī)的位置不同,因而需要通過配準(zhǔn),將深度圖像坐標(biāo)系轉(zhuǎn)換到彩色圖像坐標(biāo)系下,使得深度圖像和彩色圖像融合,得到配準(zhǔn)深度圖像。

設(shè)3D 相機(jī)的左側(cè)相機(jī)為深度相機(jī),右側(cè)相機(jī)為彩色相機(jī),深度圖像配準(zhǔn)到彩色圖像的過程由式(1)描述:

其中,W′為變換矩陣,(uL,vL,zL)T為深度圖像的像素坐標(biāo),(uR,vR,zR)T為彩色圖像的像素坐標(biāo)。

變換矩陣W′的構(gòu)造過程如下:

1)構(gòu)造深度相機(jī)坐標(biāo)系到圖像坐標(biāo)系的變換,由攝像機(jī)標(biāo)定原理可知,相機(jī)坐標(biāo)到圖像坐標(biāo)的變換為:

于是,圖像坐標(biāo)系到相機(jī)坐標(biāo)系的變換為:

其中,LR為雙目相機(jī)標(biāo)定的左側(cè)相機(jī)內(nèi)參矩陣。

2)同理,構(gòu)造右側(cè)相機(jī)坐標(biāo)系到圖像坐標(biāo)系的變換:

其中,RR為雙目相機(jī)標(biāo)定的右側(cè)相機(jī)內(nèi)參矩陣。

3)左側(cè)相機(jī)坐標(biāo)系到右側(cè)相機(jī)坐標(biāo)系變換為:

其中,M為兩個(gè)相機(jī)光心的外參矩陣。

4)左側(cè)圖像坐標(biāo)轉(zhuǎn)換到右側(cè)圖像坐標(biāo)系,并左乘RR矩陣得到:

此時(shí),根據(jù)深度圖像和彩色圖像中像素的坐標(biāo),可以得到配準(zhǔn)深度圖像中的像素坐標(biāo)。

3 實(shí)驗(yàn)結(jié)果與討論

研究中的軟硬件實(shí)驗(yàn)平臺為PC 端,操作系統(tǒng)為Ubuntu16.04,計(jì)算機(jī)配置為Intel 酷睿4 核CPU,內(nèi)存為8 GB,框架使用TensorFlow 深度學(xué)習(xí)框架,使用的視覺相機(jī)是Intel RealSense D435i。

Intel RealSense D435i 可用于室內(nèi)外的視覺檢測與導(dǎo)航,最大測距為10 m,與光照、場景、校正有關(guān)。圖像傳感器采用全局快門,每個(gè)像素大小為3 μm ×3 μm,深度相機(jī)最小測距為0.105 m,視場深度為(87°±3°)×(58°±1°)×(95°±3°),深度輸出分辨率最大為1 280×720,幀率為90 f/s,RGB 相機(jī)最大分辨率為1 920×1 080,RGB幀率為30 f/s,RGB傳感器視場FOV(H×12 V×D)為69.4°×42.5°×77°(±3°),長寬高為90 mm×25 mm×25 mm,所用接口為USB 接口,采用Vision Processor Board 及Intel Real Sense Vision Processor D4。文中實(shí)驗(yàn)示意圖如圖3 所示。

圖3 實(shí)驗(yàn)示意圖

紅外光發(fā)射器將紅外結(jié)構(gòu)光投射到場景中,紅外接收部分主要有左右兩個(gè)紅外相機(jī),用于接收被物體反射的紅外光,并采集場景內(nèi)物體的空間信息;RGB 相機(jī)用于獲取彩色圖像。

實(shí)驗(yàn)中,在D435i 前方放置目標(biāo),獲取彩色圖像和深度圖像,并配準(zhǔn)對齊,融合到一幅圖像中,利用MobileNet-SSD 模型定位場景中的目標(biāo),構(gòu)建包圍盒,通過深度圖像計(jì)算機(jī)器人到目標(biāo)之間的距離。實(shí)驗(yàn)中測到的距離為105.1 cm,實(shí)驗(yàn)結(jié)果如圖4 所示。

4 結(jié)束語

圖4 實(shí)驗(yàn)結(jié)果圖

對于機(jī)器人移動(dòng)過程中的障礙物檢測,為了判斷目標(biāo)障礙物的類別與距離,研究融合深度學(xué)習(xí)和視覺感知的障礙物檢測技術(shù),利用Intel RealSense D435i 深度相機(jī)獲取場景信息,基于深度學(xué)習(xí)MobileNet 和SSD 網(wǎng)絡(luò)提取場景中的目標(biāo)并輸出目標(biāo)類別和距離,為機(jī)器人障礙物檢測提供新的方法。

猜你喜歡
彩色圖像障礙物坐標(biāo)系
高低翻越
SelTrac?CBTC系統(tǒng)中非通信障礙物的設(shè)計(jì)和處理
基于FPGA的實(shí)時(shí)彩色圖像邊緣檢測
解密坐標(biāo)系中的平移變換
坐標(biāo)系背后的故事
基于重心坐標(biāo)系的平面幾何證明的探討
基于最大加權(quán)投影求解的彩色圖像灰度化對比度保留算法
基于顏色恒常性的彩色圖像分割方法
極坐標(biāo)系下移動(dòng)機(jī)器人的點(diǎn)鎮(zhèn)定
基于Arnold變換和Lorenz混沌系統(tǒng)的彩色圖像加密算法