俞娟 盧偉 曾夢潔 趙思佳
摘要:針對現(xiàn)有大田農機高精度衛(wèi)星導航成本高,且受氣象環(huán)境影響較大的問題,該文提出了一種基于 D-S-CNN 的農田多傳感器融合的自動導航方法,實現(xiàn)田間低成本、高精度定位導航。首先,將低成本衛(wèi)星導航、慣性導航、視覺導航傳感器的數據進行預處理,分別得到拖拉機的位置、姿態(tài)信息,然后通過 D-S 證據理論進行傳感器失效檢驗,最后將三種傳感器的位置、姿態(tài)信息以及 D-S 證據信任函數矩陣輸入 CNN 神經網絡進行信息融合實現(xiàn)田間高精度定位。實驗表明,采用基于 D-S-CNN 的農田多信息融合導航方法,在離線測試中,無傳感器失效情況下定位精度為4 cm,單個傳感器失效情況下定位精度為10 cm,定位時間約17 ms;在實際測試中,無傳感器失效情況下定位精度為6 cm,單個傳感器失效情況下定位精度為13 cm,且該算法具有較好的魯棒性和實用性。
關鍵詞:智能拖拉機;導航;傳感器信息融合;卷積神經網絡
中圖分類號: TP274.2文獻標志碼: A文章編號:1674–5124(2021)12–0106–08
Low-cost agricultural machinery intelligent navigation method based on multi-sensor information fusion
YU Juan1,LU Wei2,ZENG Mengjie2,ZHAO Sijia2
(1. Sanjiang University, Nanjing 210012, China;2. College of Artificial Intelligence, NanjingAgricultural University, Nanjing 210031, China)
Abstract: The existing agricultural machinery precise navigation method using GPS/BD costhighlyand also stronglyinfluencedbythecomplicatedfieldmicroclimate. Thispaperproposedafarmlandintelligent navigation method basedon multi-sensorand visualfusion usingD-S-CNN to realizelowcostand high precision positioning navigation infield. Firstly, satellite navigation, inertial navigation and visual navigation information were got after preprocessing. Then the sensors failure test was carried out and the D-S evidence trust matrix was calculated by using D-S evidence theory. Finally, the high precision position navigation was achieved by using sensors data of position, posture and D-S evidence trust matrix as input. The experiments results showed that the position accuracies were 4 cm and 10 cm in the cases of none and one failure sensor respectively. And the positioning time was 17 ms. The experimental position accuracies in actualworkcondition were 6 cm and 13 cm in the case of none and one failure sensor with good robustness.
0引言
隨著農業(yè)自動化的進一步發(fā)展,導航技術在農機應用中更為廣泛。目前導航定位技術包括絕對定位和相對定位兩種。其中常用的絕對定位技術是衛(wèi)星導航定位[1],主要為全球定位系統(tǒng)(globalpositionsystem, GPS)和北斗衛(wèi)星導航系統(tǒng)(BeiDou NavigationSatellite System, BDS)。GPS 和 BDS 能夠提供定位物體的絕對位置信息,由于在復雜多變的農田中存在小氣象環(huán)境和偏僻的地理位置,常因惡劣天氣導致衛(wèi)星信號弱、樹木遮擋衛(wèi)星信號等因素,造成衛(wèi)星信號短時丟失甚至中斷。差分全球定位系統(tǒng)(differential global position system, DGPS)[2]雖然精度較高,但是由于天線放置于拖拉機頂部,當農田中車體傾斜時,定位位置與車輪實際位置產生較大誤差,且成本較高,不適用于農田導航。農機中相對定位技術應用較為廣泛的是慣性導航、視覺導航以及激光雷達。慣性導航器件的特點是體積、質量、功耗都較小,但目前對于慣性導航系統(tǒng)的姿態(tài)角測量一般采用航位推算原理,其積分運算使導航誤差迅速積累,無法滿足長時間工作的高精度導航系統(tǒng)的指標要求。Liu[3]等提出一種根據最優(yōu)導航控制原理自動跟蹤目標路徑的系統(tǒng),系統(tǒng)硬件由兩個 GPS 模塊,兩個 Zigbee 無線傳輸模塊和一個慣性傳感器組成,利用 GPS 模塊對慣性導航數據進行修正,實驗表明最大橫向誤差分別為0.16 m 和0.27 m,實際應用中誤差較大。為實現(xiàn)大田的精確導航,激光平地機作為一種新型農田平整技術[4]被研究出來用以提高農機的導航精度,并作為標準化農田的前道工序[5]。此外,近年來,單目視覺 SLAM(simultaneouslocalization and mapping)技術發(fā)展迅速,由最初的基于濾波的方法逐漸發(fā)展到基于關鍵幀的方法。齊乃新等[6]提出了一種基于輔助匹配的1點 RANSAC 單目視覺導航算法,解決了主動視覺匹配失效問題,提高了1點 RANSAC 單目視覺導航算法的導航精度,SIFT 求解的有效匹配點精度在5個像素之內, 減小了航向角、俯仰角、滾動角的平均誤差;但僅靠單一視覺導航作業(yè),導航精度難以有較大提升。視覺導航成本低廉,具有短距離導航精度高的特性,但是由于田間光照環(huán)境復雜多變,有時會造成視覺定位的失效。由于攝像頭的局部感知特性,在復雜多變的作業(yè)環(huán)境下常常使用視覺導航實現(xiàn)局部的環(huán)境感知[7],輔助其他導航系統(tǒng)減小導航數據誤差以提高導航精度。Bengochea-Guevara[8]等設計了一種田間自主導航車輛,該車輛通過視覺跟蹤作物行并遵循車輛定位路徑規(guī)劃進行自動導航,在平緩地面有較好的導航效果,但在不規(guī)則及起伏較大的地面效果不佳。目前智能無人駕駛車輛[9]多采用激光雷達等進行導航,但其安裝高度較低,在農田中易受污而影響檢測且成本較高,且其高速轉動部件難以適應農田強振動環(huán)境。
為了增強導航系統(tǒng)在環(huán)境復雜多變的農田中的適應性和魯棒性,許多學者開始將多傳感器信息融合方法作為農機導航研究的重點方向[10]。Zaidner[11]等提出了一種用于傳感器數據融合的高精度定位系統(tǒng)的方法,利用似然比檢驗作為選擇最可能狀態(tài)估計的決策技術,實現(xiàn)了 DGPS,IMU 和視覺傳感器的數據融合,與標準卡爾曼濾波器相比定位效果更好,但僅停留在仿真階段。張鐵民[12]等設計了多傳感器信息融合的導航控制系統(tǒng),實現(xiàn)小車的路徑跟蹤控制,但對規(guī)范路徑依賴性高。黃鈺平[13]設計了一種 GNSS/DR 組合導航系統(tǒng),該系統(tǒng)使用自適應擴展卡爾曼濾波器進行優(yōu)化,能夠在衛(wèi)星失效的區(qū)域內獲得可靠的定位信息,但成本相對高昂。張京[14]等提出一種 GNSS/INS 航向信息融合導航系統(tǒng),實驗結果表明,融合后的導航精度有了明顯提高,并且能夠消除 GNSS 航向角的測量噪聲,GNSS 航向角解算值的更新速率也得到了有效提高,但對于復雜多變的農田環(huán)境應用性相對較低。
由于目前農業(yè)稻麥作物行距正常在10~20 cm以內,不同的農作物的理想行距會有細微差異,農機導航精度要求已經逐漸提升到厘米級。文獻[15]中以東方紅 X-804拖拉機為平臺,開發(fā)了一種基于 RTK-DGPS 定位和雙閉環(huán)轉向控制相組合的農業(yè)自動導航系統(tǒng),橫向跟蹤誤差不超過9 cm,但針對 DGPS 信號短時丟失問題沒有較好處理。文獻[16]針對視覺導航系統(tǒng)在果園環(huán)境中面臨的圖像背景復雜、干擾因素多等問題,提出了一種基于 U-Net 網絡的果園視覺導航路徑識別方法,平均距離誤差為4.4 cm,但其適用范圍小。文獻[17]針對農機在環(huán)境干擾情況下 BDS 失調、INS 單獨導航誤差大的不足, 以 BDS/INS 兩者間位置、速度差值為模型,提出蜂群算法優(yōu)化 BP 神經網絡輔助卡爾曼濾波的算法組合導航,精準定位農機位置速度信息,使速度誤差小于0.6m/s,位置誤差小于30 m,其導航精度偏低。
針對目前農田環(huán)境復雜傳感信號短時失效、農機導航精度不高以及導航設備價格昂貴的問題,本文提出一種基于 D-S-CNN 的農田多傳感器/視覺信息融合導航方法,將 D-S 證據理論與 CNN 神經網絡相結合,實時獲取傳感器的故障概率,提高數據融合可靠性,減小數據融合誤差,從而提升導航數據的精度至厘米級。在復雜環(huán)境下實現(xiàn)大田農機的高精度、低成本導航。
1實驗裝置
實驗裝置由拖拉機本體(常發(fā) CFD504A)和北京合眾思壯公司的 MG858S 高精度 GIS 采集器、HiPNUC公司的 H1219M 陀螺儀以及視覺攝像頭(PC CAMERA)組成。由于可見光攝像頭的感知距離有限,攝像頭選擇安裝在農機前方,攝像范圍是農機前方幾米內的距離,安裝位置如圖1所示。傳感器具體數據如表1所示。實驗選取部分小麥田進行導航實驗研究。
2基于多傳感器/視覺信息融合的定位導航技術
考慮到融合的多傳感器信息為多輸入、非線性強,且田間復雜環(huán)境中個別傳感器可能存在實現(xiàn)狀態(tài),傳統(tǒng)的融合模型精度較低,因此,本文擬采用 D- S 證據理論結合卷積神經網絡(convolutional neural network, CNN)進行多傳感器信息融合,技術框架如圖2所示。
2.1基于 GPS 的田間導航
GPS 定位技術用于農田信息采集和作業(yè)時,為了方便地計算距離和速度,常常需要將 GPS 測定到的拖拉機的經緯度坐標數據轉換為以地平面上平面直角坐標系中的X、Y 坐標。
已有研究表明,GPS 數據通過卡爾曼濾波處理后效果較好,因此本文先采用卡爾曼濾波對采集的經度數據進行處理,具體步驟如下:
1)首先建立采集系統(tǒng)狀態(tài)方程
式中:Li、Ni——經度系統(tǒng)狀態(tài)與測量向量; Oi、Fi——狀態(tài)噪聲與測量噪聲向量;
Ai、Gi與Ji——系統(tǒng)狀態(tài)轉移矩陣、輸入關系矩陣與測量關系矩陣。
2)卡爾曼濾波假定Oi和Fi為零均值、不相關的高斯白噪聲,即滿足
式中:Ki、Zi——Oi和Fi的協(xié)方差矩陣;
dij——克羅內克函數。
3)測量更新方程
4)時間更新方程
式中:i| j——經度狀態(tài)估計值;
Pi|j?系統(tǒng)狀態(tài)估計誤差△i|j = Li? i|j的方差矩陣。
緯度數據 B 也采用上述方法處理。然后采用高斯-克呂格投影法來將橢球面上的經緯度坐標轉為平面坐標。高斯—克呂格投影族通用公式,如式?????? (5)和(6)所示:
其中,c =0.99996為比例因子,S 為從赤道開始的子午線弧長,l 為地理經度與中央經線的經度之差,B 為地理緯度,a 為地球長半軸,bl為地球短半軸,g 為重力加速度,c =a2/ bl,t =tan B,η= e\2gcos2 B,N = c/√l +η2,e\=√a2? bl2/c。得到的平面坐標( xp,yp)記為PG。
2.2基于慣性技術的田間導航
慣性導航中用互補濾波的方式估計姿態(tài)效果較好,因此本文先將采集到的數據進行卡爾曼濾波,然后將濾波后的數據進行互補濾波得到拖拉機位姿信息。慣性導航系統(tǒng)中涉及的坐標系主要有導航坐標系、拖拉機坐標系、大地坐標系,本文分別用 n,b, e 表示以上3個坐標系。慣性導航系統(tǒng)中主要的姿態(tài)參數包括拖拉機的橫滾角、俯仰角以及航向角,本文分別用θ,?,ψ表示。方向余弦矩陣反映兩個不同坐標系之間的關聯(lián)關系,使用Cn(b)體現(xiàn)拖拉機坐標轉換為導航坐標的關系。四元數法是姿態(tài)解算過程中常用的方法,本文使用該方法對陀螺儀的信息進行解算。
四元數是空間變量,有4個自由度,由實數加上3個元素i,j,k 組成,一般可記為Q = q0+ iq1+ jq2+ kq3。
1)四元數與方向余弦矩陣的換算關系如下:
2)從四元數中獲得重力向量和磁場向量
3)令bx =√hx(2)+ hy(2),bz = hz,得
4)計算誤差得
5)利用誤差修正陀螺儀
6)更新四元數
7)由此得出四元數與拖拉機姿態(tài)角關系:
將獲得加速度信號去除奇異點以及強力去噪,再進行一重積分(采用梯形法求速度)獲得拖拉機的運動速度信號,再通過對運動速度信號的一重積分獲得拖拉機運動位移,結合位姿信息求解拖拉機在平面坐標系中的運動路徑(xI,yl)坐標記為 PI。
2.3基于視覺圖片序列的田間導航
近些年來,機器視覺伴隨著圖像處理技術,模式識別技術,人工智能技術和計算機控制技術的發(fā)展,技術方法逐漸完善,己經成為智能機器人的重要組成部分。目前,在農業(yè)機械視覺導航方面一般采用作物行直線檢測,在復雜背景及雜草噪聲較強的環(huán)境下不能準確提取作物行信息,對此本文采取使用單目攝像機采集視頻信息,進行幀間圖像特征匹配的視覺導航方法。由于成像系統(tǒng)和目標的距離和方位的原因,會導致形成的圖像發(fā)生透視而不再是正視圖,這對于圖像的特征提取非常不利,需要進行圖像矯正,同時在特征提取時又要保證特征點對于圖像的尺度變換、仿射變換等具有特征不變性及較好的實時性,本文提出一種基于 Hough-PT- ORB 特征提取的圖像序列匹配視覺導航算法,具體步驟如下:
1)利用張正友標定法對相機內參數進行標定,標定矩陣 K 如下:
2)利用標定之后的相機采集拖拉機在實驗田間的運動視頻,獲取圖像序列,進行圖像矯正,具體步驟如下:
①一個二維圖像經過透視變換成為另外一個平面圖像,這個過程表示為:
式中:(x,y )——畸變圖像的像素坐標;
(u,v )——正視圖的像素坐標;
h,o,p,q,r,f,s,w ?透視變換(perspective transformation,PT)參數。
②把畸變圖像中的各個像素點坐標記為(x1,y1),(x2,y2),(x3,y3),(x4,y4);相應的正視圖中的點坐標記為(u1,v1),(u2,v2),(u3,v3),(u4,v4):
③可以得到透視參數 M
④用解出的透視參數對原透視圖像進行透視變換,得到矯正圖。
3)用 ORB(Oriented FAST and Rotated BRIEF)算法對矯正后的圖像進行特征提取
①建立圖像高斯金字塔,提取每一層圖像的FAST (Features From Accelerated Segment Test)特征點。
②添加特征點的方向因子。以特征點為中心建立一個圖像塊,定義圖像塊各像素點的矩為
式中:α,β——矩的階次;
I(x,y)——圖像灰度表達式。
利用零階矩和一階矩來計算質心的坐標。建立一個從圖像塊的中心到質心的向量作為方向因子,向量的方向可簡化為z = arctan(m01 , m10)。
③引入旋轉因子。利用二進制魯棒獨立的基本特征(binary robust independent elementary features, BRIEF)方法描述特征點,并在此基礎上采用方向因子驅動法實現(xiàn)二進制字符串向量的旋轉。在 BRIEF 方法中,對于一個Na×Na大小的圖像塊p,有如下定義:
選取nv個特征點得到的nv維向量如下:
定義一個2×nv的矩陣:s =),利用方向因子 e 和基礎旋轉矩陣Rλ,定義Sl = Rls。得到最終的特征點描述子如下式所示。只要λ確定了,便可快速獲得描述子。
4)利用提取的特征進行匹配推算位移,得到的平面坐標(xv,yv)記為 PV。
3基于 D-S-CNN 的農田多傳感器/視覺信息融合導航模型
3.1基于 D-S-CNN 的多傳感器信息融合算法
CNN 具有良好的容錯能力、并行處理能力和自學習能力,運行速度快、自適應性能好,且具有較高的分辨率,可以用于多傳感器導航信息融合,提高定位精度。但是由于大田復雜的小氣象環(huán)境和偏僻的地理位置,以及農田惡劣的作業(yè)環(huán)境,田中 GPS、慣性導航以及視覺導航可能會出現(xiàn)短時間單個甚至多個失效的現(xiàn)象,從而導致導航模型輸出結果誤差較大,魯棒性差。同時,D-S (dempster/shafer)證據理論能夠較好地鑒別信息的可信度。因此,本文提出一種基于 D-S-CNN 的多傳感器信息融合算法,通過 D-S 證據理論同步分析多個傳感器實時可信度,減小訓練模型中誤差數據輸入,再利用 CNN 結合實時可信度進行多傳感器信息融合,從而提升導航系統(tǒng)的準確性和魯棒性,具體結構如圖3所示。
其中,融合結構分為兩級,第一級功能為基于證據理論信息融合,將三種傳感器采集的拖拉機位置信息作為證據,經過證據理論綜合產生決策信息,輸出判決結果矩陣 KC。第二級功能為將三種傳感器的拖拉機位置信息及決策結果矩陣 KC 輸入 CNN 神經網絡進行信息融合建模,具體過程為:
1)采集傳感器信息,并進行相應預處理,得到 GPS 數據記為 PG,慣性導航數據記為 PI,視覺導航數據記為 PV;
2)將傳感器數據進行歸一化處理后作為證據,用證據組合規(guī)則進行證據組合,產生新的信任函數矩陣,記為 KC 。具體步驟如下:
①基本信任分配函數:定義集合 E,E 為集合 D 的子集,G 為2D上的基本信任分配函數(mass 函數),G(A)表示對 E 的信度程度大小。G:2?→[0,1],則函數 G 滿足:
中全部元素的基本概率之和為1
②合成規(guī)則:G1,G2,G3是2?上三個概率分配函數,其正交和 G=G1+G2+G3定義為:G (?)=0, E =?;
其中信任函數矩陣 KC 的取值為?3={0, 1},矩陣中1表示傳感器判決為有效,0表示判決為無效。
3)將 PG,PI,PV,KC 作為輸入,離線訓練 CNN 神經網絡,其中訓練集1000個,測試集392個;
①CNN 卷積層計算過程如下:
式中:
第 n 層第 j 個節(jié)點的計算結果;
激活函數;
第 n 層第j個輸出特征圖所對應的多個輸入特征圖的索引集合;
偏置項,所有輸入特征圖共用這一個偏置項;
卷積核。
②池化層為特征映射層,每個池化層由多個特征映射組成,每個特征映射為一個平面,平面上所有神經元的權值相等。經過池化層,可降低特征的維數,也可防止過擬合。池化層的計算過程如下:
式中:down(·)——下采樣函數;
βj(n)——乘性偏置。
4)利用訓練好的神經網絡進行傳感器信息的綜合,求出神經網絡的輸出拖拉機的位姿信息 P*。
3.2基于 D-S-CNN 的多傳感器組合導航算法
基于農田環(huán)境復雜,本文提出一種基于 D-S- CNN 的多傳感器組合導航算法,該算法能夠有效結合三種導航傳感單元,增強導航精度以及抗干擾性。該算法首先同時運行 GPS 定位算法、慣性導航算法以及視覺導航算法,分別獲取三種導航的實時導航坐標。而后將三種方法的平面坐標同步輸入 D-S 證據理論網絡中,獲取三種算法的實時可靠概率,經診斷來確定是否將數據輸入 CNN 網絡。最后在 CNN 網絡中,結合每種數據的實時可靠概率來進行信息融合,得到拖拉機的準確位置信息。基于多傳感器信息融合導航的算法總流程如圖4所示。
4實驗結果與分析
實驗在南京農業(yè)大學浦口校區(qū)試驗場進行,場地內部路面平坦,周圍存在有一些樹木,實驗采用白粉畫線設置預期路徑,如圖5所示。周圍樹蔭遮擋可能會造成 GNSS 信號丟失,同時烈日強光偶爾也會造成攝像頭信息失效,接近大田實際環(huán)境。實驗過程中使用華碩 X555L 筆記本電腦,操作系統(tǒng) Windows7,電腦64位、處理器為 Core(TM)i5雙核2.4 GHz、系統(tǒng)內存為4 GB,軟件基于Matlab R2017b 編寫。
由于環(huán)境因素的影響,會造成單個甚至多個傳感器短時失效的情況。通過對比不同分類算法在無傳感器失效時、單個傳感器失效、兩個傳感器失效的導航精度,建立最優(yōu)的信息融合導航模型,分別如圖6~圖8所示。
實驗結果對比分析如下:
1)基于 BP、CNN 信息融合的導航結果如圖6所示?;?CNN 信息融合導航精度為4 cm,基于 BP 信息融合導航精度為10 cm,因此,CNN 信息融合導航模型優(yōu)于 BP 信息融合導航模型。
2)由于環(huán)境因素的影響,會造成單個傳感器短時失效的情況。單個傳感器失效時基于 CNN、D-S- CNN 信息融合的導航結果如圖7所示,基于 CNN 信息融合導航精度為89 cm,基于 D-S-CNN(其 D-S 證據信任函數矩陣為[1,1,0]/[1,0,1]/[0,1,1])信息融合導航精度為10 cm,因此,在單個傳感器失效時基于 D-S-CNN 信息融合的導航仍然具有較好的預測精度。
3)在兩個傳感器失效時,基于 D-S-CNN 融合導航結果如圖8所示,其 D-S 證據信任函數矩陣分別為[0,1,0]/[1,0,0]/[0,0,1]。由于 D-S 證據可有效地判別出失效的傳感器信息,并將信任函數矩陣及三種傳感器的位置、姿態(tài)信息作為 CNN 輸入,由圖8(a)可見,當 GPS 和視覺導航失效時,誤差較大,無法滿足導航作業(yè)需求,但這種情況幾率較小,除此情況外,如圖8(b)、(c)所示,D-S-CNN 均可實現(xiàn)較高的導航精度。
不同條件下,不同傳感器信息融合模型的導航定位精度如表2所示,在大尺度上的定位采用低成本的 GPS 定位方式,其定位精度在5 m 左右,再結合慣性導航將信息融合可將精度提高至分米級。在此基礎上再結合機器視覺,通過神經網絡進行信息融合可以實現(xiàn)厘米級的田間精確定位導航,基于 D- S-CNN 的農田多傳感器/視覺信息融合導航方法的導航精度可達4 cm,且在氣象、光照、地形變化等復雜的環(huán)境下均具有較強的魯棒性。在實際使用中,傳感器發(fā)生失效主要因為環(huán)境干擾,而由于農機的移動,傳感器的失效為短時失效,且發(fā)生兩個傳感器同時失效的概率較低,本文所提的 D-S-CNN 的農田多傳感器信息融合導航方法可通過 D-S 證據信任函數動態(tài)判斷傳感器信息的有效性,選擇有效信息輸入 CNN,實現(xiàn)農機高精度、可靠導航。
5結束語
針對現(xiàn)有田間農機高精度衛(wèi)星導航成本高且受氣象環(huán)境影響較大、慣性器件積分運算使導航誤差迅速積累、視覺導航受限于田間光照突變等問題,本文提出一種基于 D-S-CNN 的農田多傳感器信息融合導航方法,其中視覺導航采用基于 Haugh-PT- ORB 的視覺導航算法,在此基礎上,采用 D-S 證據理論進行傳感器失效檢驗,將三種傳感器的位置、姿態(tài)信息以及 D-S 證據信任函數矩陣輸入 CNN 神經網絡進行信息融合,通過1000個訓練集建立基于 D-S-CNN 的農田多傳感器信息融合導航模型,通過392個測試集進行驗證給出優(yōu)化模型,該模型在無傳感器失效情況下定位精度為4 cm,單個傳感器失效情況下定位精度為10 cm。在實際環(huán)境中,由于樹蔭遮擋、強光照射等環(huán)境因素影響,其在無傳感器失效情況下定位精度為6 cm,單個傳感器失效情況下定位精度為13 cm。采用 D-S 證據信任函數矩陣的農田多信息融合的田間導航方法,可有效避免單個傳感器失效引起的大誤差。文獻[14-16]提出了幾種適用于不同農田狀況下的田間智能導航方法,與上述已有方法相比,本文導航硬件成本低、精度高,魯棒性好,可適用于復雜環(huán)境農田環(huán)境下農機的高可靠精確導航作業(yè)。本文研究表明,基于D-S-CNN 的農田多傳感器信息融合導航方法能滿足農田樹蔭遮擋、強光照射等復雜情況下的高精度、低成本導航作業(yè)需求。
參考文獻
[1]莊春華, 趙治華, 張益青, 等. 衛(wèi)星導航定位技術綜述[J]. 導航定位學報, 2014, 2(1): 34-40.
[2]ROHANI? M,? GINGRAS? D,? GRUYER? D.? A? novel? approachfor? improved? vehicular? positioning? using? cooperative? mapmatching? and? dynamic? base? station? DGPS? concept[J]. IEEETransactions? on? Intelligent? Transportation? Systems,? 2016,17(1): 230-239.
[3]LIU J, YUAN J, CAI J, et al. Autopilot system of agriculturalvehicles? based? on? GPS/INS? and? steer-by-wire[J].Transactions? of? the? Chinese? Society? of? AgriculturalEngineering, 2016, 32(1): 46-53.
[4]胡煉, 殷延勃, 杜攀, 等. 水稻田激光平地技術研究與展望[J]. 中國稻米, 2020, 26(5): 16-18.
[5]郭成洋, 張碩, 趙健, 等. 基于 RTK-BDS 的果園農用車輛自主導航系統(tǒng)研究[J]. 農機化研究, 2020, 42(8): 254-259.
[6]齊乃新 ,? 張勝修 ,? 曹立佳 ,? 等 .? 基于輔助匹配的 1 點RANSAC 單目視覺導航算法[J]. 系統(tǒng)工程與電子技術,2018, 40(5): 1109-1117.
[7]張青春, 王旺, 楊廣棟. 基于多目立體視覺的機械臂智能控制系統(tǒng)設計[J]. 中國測試, 2020, 46(12): 79-85.
[8]BENGOCHEA-GUEVARA? J? M,? CONESA-MU?OZ? J,AND?JAR? D,? et? al.? Merge? fuzzy? visual? servoing? and? GPSbased? planning? to? obtain? a? proper? navigation? behavior? for ?asmall crop-inspection robot[J]. Sensors, 2016, 16(3): 276.
[9]郭利強. 在無人車輛中激光雷達的關鍵技術及應用研究[J].科學技術創(chuàng)新, 2020, 35(1): 72-73.
[10]王中立, 牛穎. 基于多傳感器信息融合的機器人障礙物檢測[J]. 中國測試, 2017, 43(8): 80-85.
[11]ZAIDNER G, SHAPIRO A. A novel data fusion algorithm forlow-cost? localisation? and? navigation? of? autonomous? vineyardsprayer? robots[J]. Biosystems? Engineering,? 2016,? 146:? 133-148.
[12]張鐵民, 李輝輝, 陳大為, 等. 多源傳感器信息融合的農用小車路徑跟蹤導航系統(tǒng)[J]. 農業(yè)機械學報, 2015, 46(3): 37-42.
[13]黃鈺平. 基于卡爾曼濾波的組合導航系統(tǒng) [C]//第九屆中國衛(wèi)星導航學術年會論文集——S02 導航與位置服務. 中國衛(wèi)星導航系統(tǒng)管理辦公室學術交流中心, 2018: 118-122.
[14]張京, 陳度, 王書茂, 等. 農機 INS/GNSS 組合導航系統(tǒng)航向信息融合方法[J]. 農業(yè)機械學報, 2015, 46(S1): 1-7.
[15]黎永鍵, 趙祚喜, 高俊文, 等. 基于 DGPS 定位與雙閉環(huán)轉向控制的農業(yè)自動導航系統(tǒng)[J]. 農業(yè)現(xiàn)代化研究,? 2016,37(2): 387-394.
[16]韓振浩, 李佳, 苑嚴偉, 等. 基于 U-Net 網絡的果園視覺導航路徑識別方法[J]. 農業(yè)機械學報, 2021, 52(1): 30-39.
[17]張曉寒, 趙景波, 董振振. 農機 BDS/INS 組合導航算法研究[J]. 中國農機化學報, 2021, 42(2): 171-177.
(編輯:譚玉龍)