蘭玉彬,閆 瑜,王寶聚,宋燦燦,王國賓
智能施藥機器人關(guān)鍵技術(shù)研究現(xiàn)狀及發(fā)展趨勢
蘭玉彬1,2,3,閆 瑜1,3,王寶聚1,3,宋燦燦1,3,王國賓1,2,3※
(1. 山東理工大學農(nóng)業(yè)工程與食品科學學院,淄博 255049;2. 山東省農(nóng)業(yè)航空智能裝備工程技術(shù)研究中心,淄博 255049;3. 山東理工大學生態(tài)無人農(nóng)場研究院,淄博 255049)
噴施化學農(nóng)藥是病蟲害防治最主要的手段,對保證作物的產(chǎn)量起著至關(guān)重要的作用。傳統(tǒng)的施藥機械工作效率低,且使用同一施藥量進行連續(xù)噴施作業(yè)易造成農(nóng)藥浪費、環(huán)境污染。隨著農(nóng)業(yè)智能化發(fā)展,機器人被廣泛應(yīng)用到農(nóng)業(yè)植保作業(yè)中,智能施藥機器人以減少勞動力投入、提高農(nóng)藥利用率、減少農(nóng)藥施用量以及減少環(huán)境污染為目的,實現(xiàn)了更加高效、精準的病蟲害防治。智能施藥機器人是集復(fù)雜農(nóng)業(yè)機械、智能感知、智能決策、智能控制等技術(shù)為一體的現(xiàn)代農(nóng)業(yè)施藥裝備,可自主、高效、安全、可靠地完成施藥作業(yè)任務(wù)。為明確智能施藥機器人及關(guān)鍵技術(shù)的國內(nèi)外研究現(xiàn)狀,本文總結(jié)了適用于不同作業(yè)場景的施藥機器人的應(yīng)用進展,從智能施藥機器人的移動平臺設(shè)計、噴霧裝置設(shè)計、導(dǎo)航技術(shù)、智能識別技術(shù)4個方面進行分析,結(jié)合施藥機器人作業(yè)環(huán)境的復(fù)雜多變性,分析智能施藥機器人關(guān)鍵技術(shù)的現(xiàn)存問題,闡述智能施藥機器人未來的發(fā)展趨勢是精準變量施藥、自主導(dǎo)航以及無人化作業(yè),以期為智能施藥機器人在未來的研究提供參考。
施藥機器人;智能感知;自主作業(yè);機器人平臺;噴霧裝置
病蟲害是影響作物生長的重要因素,不及時處理病蟲害問題,會導(dǎo)致作物長勢緩慢,影響作物的產(chǎn)量和質(zhì)量,甚至造成大面積作物的枯萎。據(jù)聯(lián)合國糧食及農(nóng)業(yè)組織(Food and Agriculture Organization of the United Nations)估計,每年由病蟲害導(dǎo)致的糧食減產(chǎn)約為總產(chǎn)量的1/4,其中病害造成的損失為14%,蟲害造成的損失為10%[1]。
為保證作物的產(chǎn)量以及質(zhì)量,需要定期進行病蟲害防治。現(xiàn)有的病蟲害防治方式有物理防治、生物防治、化學防治,化學防治是目前最廣泛應(yīng)用的病蟲害防治方法[2]。傳統(tǒng)施藥機械中應(yīng)用最廣泛的是背負式噴霧器、噴霧槍、拖拉機懸掛式打藥機等,為了達到防治效果,多采用覆蓋式噴灑農(nóng)藥的方式,造成了農(nóng)藥浪費以及環(huán)境污染,彌漫在空氣中的農(nóng)藥也對操作者會造成不可逆的體傷害。同時傳統(tǒng)的施藥作業(yè)需要大量的勞動力,造成了農(nóng)業(yè)成本的增加。
解決傳統(tǒng)施藥方式的人力、環(huán)保以及安全等問題的關(guān)鍵是研究開發(fā)智能施藥機器人,利用靶標識別技術(shù)識別出病蟲害,結(jié)合噴霧控制裝置實現(xiàn)精準噴施以減少農(nóng)藥的使用量,同時結(jié)合導(dǎo)航技術(shù)實現(xiàn)智能施藥機器人的無人化作業(yè)。2022年中央一號文件提出,加強農(nóng)機裝備工程化協(xié)同攻關(guān),加強高端智能機械研發(fā)制造[3],農(nóng)業(yè)裝備的智能化是中國農(nóng)業(yè)高質(zhì)量發(fā)展的主要方向,目前急需一種智能的技術(shù)和植保機械來滿足未來農(nóng)業(yè)的施藥需要。智能施藥機器人可以攜帶大型藥箱增加單次作業(yè)時間,同時實現(xiàn)安全自主地導(dǎo)航操作,并設(shè)置目標檢測系統(tǒng)以及相應(yīng)的噴霧裝置,能夠針對農(nóng)作物的病蟲害進行精準噴施。智能施藥機器人進行無人化精準變量施藥工作,解決了勞動力短缺和安全風險的問題,同時減少農(nóng)藥的使用量,實現(xiàn)農(nóng)業(yè)的生態(tài)可持續(xù)化發(fā)展。
本文討論了近年來智能施藥機器人開發(fā)的相關(guān)研究,從機器人的移動平臺設(shè)計、噴霧裝置、導(dǎo)航技術(shù)、智能識別4個方面評述了施藥機器人的研究進展,這四方面是智能施藥機器人研究的關(guān)鍵環(huán)節(jié)。在此基礎(chǔ)上總結(jié)了現(xiàn)有技術(shù)的局限性,展望了智能施藥機器人的發(fā)展趨勢,以便為施藥技術(shù)的發(fā)展提供參考。
施藥作業(yè)經(jīng)歷了傳統(tǒng)人工施藥、機械化施藥、自動化和智能化施藥4個發(fā)展階段,智能施藥機器人是施藥作業(yè)的必然發(fā)展趨勢。智能施藥機器人是集農(nóng)業(yè)機械、智能感知、智能決策、智能控制等技術(shù)為一體的智能農(nóng)業(yè)施藥裝備,可自主、高效、安全、可靠地完成施藥作業(yè)任務(wù)。其主要工作流程如下:智能識別系統(tǒng)獲取并處理病蟲草害信息,噴霧執(zhí)行系統(tǒng)根據(jù)智能識別系統(tǒng)所傳遞出的作物信息進行定點、定量的完成噴霧作業(yè),智能導(dǎo)航系統(tǒng)生成機器人的作業(yè)路徑,控制機器人自主作業(yè)。
智能施藥機器人技術(shù)受物聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能、傳感器等前沿技術(shù)的牽引,已逐漸應(yīng)用到不同施藥作業(yè)場景中,世界各國對自主、高效和精準施藥技術(shù)的發(fā)展?jié)摿皯?yīng)用前景有著廣泛共識,紛紛研發(fā)各式各樣的智能施藥機器人等智能化裝備。
大田智能施藥機器人是指在大田環(huán)境下從事噴霧作業(yè)任務(wù)的自主作業(yè)裝備,其關(guān)鍵技術(shù)包括精準導(dǎo)航、智能識別、智慧決策、作業(yè)路徑規(guī)劃和智能作業(yè)控制等。其主要技術(shù)難點是精準對靶作業(yè)、以及田間作業(yè)路徑規(guī)劃等問題。
從世界范圍來看,美國、西歐、日本的智能施藥技術(shù)和裝備在國際上處于領(lǐng)先水平。美國John Deere公司采用分段控制技術(shù)避免重疊噴施、丹麥的HARDI公司使用田間地圖,使用可調(diào)節(jié)的風幕來導(dǎo)向噴霧實現(xiàn)高精度的噴灑。在水田施藥方面,日本的丸山、井關(guān)等公司的機具代表了當今國際最先進水平。航空施藥方面,大疆、極飛等公司結(jié)合中國農(nóng)業(yè)地形特點,針對多機型施藥的載波相位差分技術(shù)(Real-Time Kinematic,RTK)精準導(dǎo)航、環(huán)境感知、動態(tài)變量噴施等技術(shù)取得了突破性進展,位于世界領(lǐng)先水平。
智能施藥機器人在果園中的主要任務(wù)是自主穩(wěn)定行走并精準作業(yè),而果園多位于丘陵山地等崎嶇地形,因此對移動過程中的施藥機器人具有高要求。主要技術(shù)難點在于移動視角下的病蟲害目標檢測、機械臂作業(yè)精準控制以及機器人穩(wěn)定行走設(shè)計等。
在果園植保方面,普遍采用風送噴霧[4]、定向仿形噴霧[5]等技術(shù)。美國和日本等國較早開始研究霧滴沉積分布規(guī)律、最佳粒徑等對施藥機器人施藥效果問題,并用于指導(dǎo)施藥技術(shù)和機具的創(chuàng)新,如對靶噴霧技術(shù)、靜電噴霧技術(shù)、可控霧滴技術(shù)等。目前,歐美等國家的施藥機器人多數(shù)已具備低容量施藥和智能化水平。美國ESS公司將靜電噴霧技術(shù)應(yīng)用于果園施藥,達到省水、省藥、高效和噴霧的靜電吸附效果。意大利的CAFFINI公司通過智能控制機械臂調(diào)整動作,適用于防治葡萄樹等低矮果樹。
設(shè)施農(nóng)業(yè)施藥機器人主要用于作業(yè)空間相對狹小的溫室內(nèi),由于作業(yè)空間限制,設(shè)施施藥機器人應(yīng)該保證作業(yè)過程中器械不刮碰作物,其難點技術(shù)在于機械結(jié)構(gòu)小而精的設(shè)計、機械臂的精準控制作業(yè)以及病蟲害的精準識別等。
Li等[6]針對溫室內(nèi)施藥空間狹窄的問題,提出了基于遺傳算法的離線最優(yōu)噴施算法,可以針對日光溫室中不同種植模式的不同作物進行施藥。Sammons等[7]研制的軌道式溫室智能施藥機器人,在噴霧裝置上安裝多個噴頭,提高了施藥機器人自主作業(yè)的效率。國內(nèi)智能施藥機器人研究相對較晚,且主要集中在科研院所,以試驗性質(zhì)為主。劉路[8]研發(fā)的小型施藥機器人采用四輪式底盤,通過單目視覺進行識別和定位,實現(xiàn)了作物行間冠層下方的狹小空間施藥作業(yè)。揚州大學張燕軍等[9]研究了一種溫室履帶式智能施藥機器人,采用模糊算法(Proportion Integral Differential,PID)控制策略,快速的導(dǎo)航糾偏能力保證機器人作業(yè)時的穩(wěn)定性,滿足籬架型黃瓜施藥作業(yè)的高效化、無人化和智能化的需求。
移動平臺穩(wěn)定性設(shè)計是保證智能施藥機器人田間作業(yè)的前提,按照作業(yè)空間可分為地面智能施藥機器人和空中智能施藥機器人。針對不同的田間作業(yè)場景,地面智能施藥機器人移動平臺主要分為輪式(圖1a)、履帶式(圖1c)、足式、復(fù)合式,以及空中施藥機器人移動平臺。
2.1.1 輪式施藥機器人移動平臺
輪式施藥機器人相對成熟,有單輪、雙輪、多輪等形式。輪式底盤具有驅(qū)動和控制方式簡單、負載能力大、作業(yè)效率高等優(yōu)點,廣泛應(yīng)用于施藥工作中。最常見的機構(gòu)是三輪及四輪移動底盤。其中三輪的移動底盤相比于四輪具有更小的轉(zhuǎn)向半徑,更加靈活。而四輪底盤具有作業(yè)穩(wěn)定性高、驅(qū)動及控制簡單、質(zhì)量輕等優(yōu)點,因而常用于坡地等高低起伏的環(huán)境,以及溫室、大棚等狹小作業(yè)環(huán)境中。針對作物不同種植行間距以及作物的不同高度問題,為此設(shè)計了高地隙底盤(圖1b),其具有離地間隙高、輪距可調(diào)、噴幅寬等特點,可以滿足在不同種植模式和作物類型的地塊中施藥的作業(yè)需求。高地隙底盤融合基于姿態(tài)測量的定位誤差校正方法,可以補償導(dǎo)航定位過程中因機體傾斜造成的位置測量誤差,同時提高調(diào)頭的準確性,實現(xiàn)了高地隙機械的智能化施藥[10]。
2.1.2 履帶式施藥機器人移動平臺
履帶式底盤的接觸面積大,附著能力強,并且履帶與地面之間提供額外的摩擦系數(shù),提供足夠的移動摩擦力,使得履帶式底盤具有較強的地形適應(yīng)性,常用于溫室大棚、丘陵山地、密植果園等復(fù)雜環(huán)境中。溫室大棚作物的種植密度較大,作業(yè)行狹窄,因此施藥機器人應(yīng)采用小型履帶式底盤,解決施藥機器人在作業(yè)過程中對作業(yè)的掛碰,實現(xiàn)無損智能施藥作業(yè)。由于密植果園中枝葉低矮稠密且地面雜草較多,導(dǎo)致地面濕滑,輪式等智能機器人行走困難,而自走式橡膠履帶底盤具有前進動力強、行走穩(wěn)定性高等優(yōu)點,可以較好地滿足果園施藥作業(yè)要求(圖1d)。智能施藥機器人在丘陵山地作業(yè)時,地形高低起伏導(dǎo)致機器人作業(yè)困難,采用三角履帶輪式結(jié)構(gòu)設(shè)計,可增大底盤的通過性和穩(wěn)定性,解決機器人平臺在丘陵山地作業(yè)時存在的爬坡能力差、環(huán)境適應(yīng)力差、作業(yè)效率低等問題[11]。
2.1.3 足式施藥機器人移動平臺
足式底盤設(shè)計是模仿自然界的生物行走方式,具有結(jié)構(gòu)緊湊、越障方式靈活、適應(yīng)能力強的優(yōu)點。其中類蜘蛛仿生六足底盤機器人最為常見,為防止運動過程中刮碰地面,智能施藥機器人通常設(shè)置超聲波傳感器采集運動過程中的底盤距離地面障礙物的距離信息[12]。Kawin等[13]研制了一種六足機器人(如圖1e所示),可以在光滑和不規(guī)則的地形上自主導(dǎo)航,六條機械腿由電機驅(qū)動,在行走過程中,每次移動三條機械腿,因此留下的三條機械腿總是在地上形成三角形,減少了不穩(wěn)定性,環(huán)境適應(yīng)性強。施藥機器人在作業(yè)過程中需要攜帶大型藥箱增加單次作業(yè)時間,而足式底盤載重能力弱,且結(jié)構(gòu)復(fù)雜難以控制,因此研究者對足式施藥機器人的研究較少。
2.1.4 復(fù)合式施藥機器人移動平臺
地面施藥機器人輪式底盤與履帶式底盤應(yīng)用最為廣泛,但單一形式的底盤均存在缺點,例如履帶式底盤能耗大、行動速度緩慢,輪式底盤越障能力弱、作業(yè)穩(wěn)定性差。而復(fù)合式底盤施藥機器人(圖1f)融合多種底盤的結(jié)構(gòu)特點,克服單一底盤的缺點,更好地適用于果園、溫室、大田等復(fù)雜環(huán)境的施藥工作。輪履式復(fù)合底盤同時具有履帶式底盤越障能力強以及轉(zhuǎn)向靈活的優(yōu)勢,更好地適用于果園、溫室的施藥作業(yè)需求[14]。同時輪足復(fù)合式施藥機器人底盤可以解決高大樹木的噴施難題,可以高效、精準地完成施藥作業(yè)[15]。
2.1.5 空中施藥機器人移動平臺
無人機(Unmanned Aerial Vehiclev,UAV)在進行施藥作業(yè)時,可生成作業(yè)路線圖,實現(xiàn)自主變量噴施作業(yè),同時不受作物生長模式和地形限制,大疆T30實測大田效率可以達到16 hm2/h,作業(yè)效率高,已被廣泛應(yīng)用于施藥作業(yè)中。植保無人機近年來發(fā)展迅速,現(xiàn)有的產(chǎn)品種類眾多(如圖1g、1h所示)。針對丘陵、盆地等起伏多、坡度大的復(fù)雜地形,國內(nèi)以深圳大疆、廣州極飛、無錫漢和等為代表的無人機公司利用遙感技術(shù)增加了仿地飛行的功能,使得植保無人機施藥更加均勻。為使無人機達到精準施藥作業(yè)的要求,研究人員對霧滴沉積特性、覆蓋度、霧滴穿透性的影響進行了試驗研究,分析無人機在不同作業(yè)條件下的最佳作業(yè)參數(shù)[16-18]。
圖1 典型施藥機器人移動平臺
針對國內(nèi)植保機械和施藥技術(shù)落后的局面,研究者設(shè)計了智能施藥機器人來實現(xiàn)自動對靶、變量噴霧、仿形噴霧等功能,達到精準探測按需噴施的要求,減少農(nóng)藥濫用造成的環(huán)境污染。本小節(jié)從大田、溫室、果園等不同應(yīng)用場景展開分析,總結(jié)了不同施藥場景下的噴霧裝置,主要包括可調(diào)節(jié)噴桿噴霧裝置、靜電噴霧裝置、機械臂靶向噴霧裝置、風送式噴霧裝置、仿形噴霧裝置等,如表1所示。
表1 關(guān)鍵噴霧裝置
2.2.1 大田場景下的噴霧裝置
在進行大田施藥作業(yè)時,由于道路顛簸或車輛轉(zhuǎn)彎造成地面施藥機器人底盤震動,易導(dǎo)致農(nóng)藥噴灑不均勻,降低霧滴沉積量。而植保無人飛機易受環(huán)境風力的影響,為此研究人員在施藥機器人上增加了靜電噴霧裝置。靜電噴霧技術(shù)是通過感應(yīng)式充電的方法使霧滴帶有正負電荷,在目標作物之間產(chǎn)生靜電場,使霧滴可以吸附在作物表面,提高中靶率,增加葉片背部的霧滴沉積量。例如在植保無人機上設(shè)計離心靜電噴霧裝置[19]或雙極接觸式靜電噴霧裝置[20],具有防飄移的作用,在豎直方向與水平方向的沉積均勻性能夠顯著提高。
在寬廣平坦的地塊中作業(yè),施藥機器人大噴輻的噴桿噴霧裝置,將大大提高植保工作的效率,但對于不連續(xù)的地塊,易產(chǎn)生農(nóng)藥的重復(fù)噴灑現(xiàn)象,造成農(nóng)藥的浪費,通過對噴桿的噴灑范圍進行實時調(diào)節(jié)可以有效解決這一問題。北京市農(nóng)林科學院智能裝備技術(shù)研究中心研發(fā)了一款遙控對靶施藥機器人,噴桿可以實現(xiàn)收縮和伸展,集衛(wèi)星導(dǎo)航、路徑規(guī)劃、物聯(lián)網(wǎng)監(jiān)控等新型技術(shù)于一體,根據(jù)設(shè)定藥量自動變量噴霧,顯著提高施藥效率。Gonzalez-de-Soto等[21]設(shè)計的施藥機器人使用直噴噴桿式噴霧裝置,通過機器視覺系統(tǒng)實時監(jiān)測生成精確處方圖,再傳達指令給施藥系統(tǒng)進行變量施藥任務(wù),顯著減少了用藥量。極飛R150農(nóng)業(yè)無人車搭載氣流噴霧系統(tǒng),兩側(cè)的云臺氣流噴霧裝置可以上下左右搖擺,高壓風機將液體霧化成微米級顆粒,附著更加均勻,實現(xiàn)更加智能的噴霧作業(yè)。
2.2.2 溫室場景下的噴霧裝置
在溫室中施藥,若無法保證精準噴施到植物各部位,會增加溫室內(nèi)的濕度,加重病害的發(fā)生。為提高施藥效果,對施藥機器人采用風送噴霧裝置,輔助氣力導(dǎo)流裝置從植株冠層中心點向四周冠層葉片施加輔助氣流,迫使冠層葉片開始上下振動,控制噴頭對四周冠層葉片噴施藥液,達到全冠層葉片的精準高效施藥作業(yè)[22]。然而風送氣流噴霧會造成較多霧滴沉積在鋼構(gòu)、棚頂?shù)仍O(shè)施結(jié)構(gòu)表面的問題,通過多自由度機械臂配合電磁閥控制噴嘴流量,可以較好的實現(xiàn)施藥機器人的局部變量噴霧[23],減少霧滴逸散。Hejazipoor等[24]設(shè)計的施藥機器人采用多自由度機械臂作為噴霧裝置,利用Kinect v. 1相機捕獲的植物深度RGB圖像,用于計算植物體積來控制施藥量,在作業(yè)需要時,施藥控制系統(tǒng)展開多自由度機械臂,實現(xiàn)狹小空間內(nèi)的精準噴灑。針對大棚種植的爬架類瓜果的施藥作業(yè),設(shè)置雙邊雙軌道四噴頭機械臂,兩邊同時對病害區(qū)域進行重點施藥,不僅能實現(xiàn)靶向噴藥,還能提升施藥效率[25],同時配備靜電噴嘴,提高葉片背面的沉積率[26],可以改善噴霧沉積和作業(yè)效率。
2.2.3 果園場景下的噴霧裝置
在果園的噴施作業(yè)環(huán)境中,果樹的不同樹高、樹寬、冠層體積等都會影響果樹的噴施效果。研究者提出通過仿形噴霧裝置,利用傳感器或機器學習技術(shù)獲取樹冠的形狀、大小等信息,匹配施藥量進行變量噴霧,從而提高果樹的噴施效率。
施藥過程中樹葉層疊、樹枝遮擋等問題導(dǎo)致病蟲害防治效果不佳,而柔性機械臂可以很好的解決這一問題。多自由度對稱式柔性仿形噴霧裝置,通過優(yōu)化噴霧點的運動學和動力學特性,獲得最佳的作業(yè)區(qū)域,實現(xiàn)精準施藥并減少對作物的傷害[27]。在分段常曲率假設(shè)的基礎(chǔ)上,利用關(guān)節(jié)常曲率假設(shè),建立機器人機械臂正反運動學模型,實時控制機械臂動作,使得機械臂可以避開樹枝,伸入樹冠內(nèi)的病蟲害區(qū)域[28]。機械臂末端執(zhí)行器配備多光譜成像的集成疾病傳感系統(tǒng),則可自動檢測病害的癥狀并且選擇性噴灑病害樹冠區(qū)域[29],實現(xiàn)精準噴施。
霧滴穿透性和藥液覆蓋率是果樹防效的重要依據(jù),果園施藥機器人通過設(shè)計兩排空氣輔助隧道式噴霧,施藥效果可以得到有效提高[30]。采用改進型離心風機,產(chǎn)生旋轉(zhuǎn)氣流,霧化農(nóng)藥流,輔助氣流可攪動果樹的葉子,將細小的霧滴送到靶標位置,提高農(nóng)藥的附著率[31]。新型隧道對流式風送施藥方法,通過葉輪與風道引導(dǎo)氣流循環(huán)往復(fù)在冠內(nèi)多維流動,形成對果樹的隧道對流式風送。改善了現(xiàn)代籬架型果樹冠層面臨農(nóng)藥“穿不透、用量大、飄移多”等瓶頸問題[32]。
施藥機器人利用自動導(dǎo)航技術(shù)可以在復(fù)雜的環(huán)境中避開障礙物尋找從起始位置到目標位置的最佳路徑?,F(xiàn)在最常用的導(dǎo)航方式有全球定位系統(tǒng)(Global Positioning System,GPS)導(dǎo)航、視覺導(dǎo)航、激光雷達(Laser Radar,Lidar)導(dǎo)航、組合式導(dǎo)航等,如表2所示。
表2 導(dǎo)航技術(shù)總結(jié)
2.3.1 GPS導(dǎo)航
GPS導(dǎo)航是智能機器人導(dǎo)航中使用最廣泛的方法之一。使用GPS定位時,由于樹木等障礙物的遮擋會導(dǎo)致通信障礙或者衛(wèi)星定位丟失,其受環(huán)境因素影響較大,為了在農(nóng)田中定位機器人,采用RTK技術(shù)可以提高GPS位置測量精度。在作物行間行駛,通常需要RTK-GPS接收器來計算差分校正,當?shù)乩砜臻g位置信息和處方圖被輸入數(shù)據(jù)采集系統(tǒng)時,根據(jù)作物預(yù)定處理信息打開和關(guān)閉噴頭,進行變量施藥[33]。
2.3.2 傳感器導(dǎo)航
常用的導(dǎo)航傳感器有光學傳感器和超聲波傳感器?;诠鈱W感知原理,施藥機器人采用紅外傳感器或激光傳感器準確檢測導(dǎo)軌所處的位置,使機器人能夠沿著溫室中的軌道來回行駛,以實現(xiàn)對溫室植物的自主施藥[34]。導(dǎo)航系統(tǒng)利用超聲波測距傳感器提供的信息在作物行間導(dǎo)航,同時基于超聲感知靶標位置,使得機器人實現(xiàn)對靶噴霧。Mosalanejad等[35]在3個不同的速度下進行測試,施藥機器人均可成功地導(dǎo)航至指定路徑,在不同速度下,機器人單元運動精度的均方根誤差在5.22和6.38之間。
2.3.3 視覺導(dǎo)航
視覺導(dǎo)航技術(shù)利用視覺傳感器獲取圖像信息,通過視覺導(dǎo)航算法處理圖像,最終得到導(dǎo)航路徑,常用的視覺傳感器有單目相機、雙目相機和深度相機。相較于GPS導(dǎo)航,視覺導(dǎo)航具有更好的靈活性、成本低等優(yōu)點。常見的單目視覺導(dǎo)航具有位置與姿態(tài)信息不完整、果樹定位精度低的問題,利用神經(jīng)網(wǎng)絡(luò)強大的特征提取能力,實例分割作業(yè)場景,可以將偏航角、橫向位移以及果樹位置的誤差減小[36]。果園的作業(yè)環(huán)境復(fù)雜,視覺導(dǎo)航系統(tǒng)易被環(huán)境干擾,利用基于UNet網(wǎng)絡(luò)的果園視覺導(dǎo)航路徑識別方法,受光照影響較小,平均距離誤差可以得到有效減小[37]。單目相機成本低,分辨率高,但難以獲得圖像深度信息,雙目相機以低成本和高分辨率獲得深度信息,但是在缺乏紋理差異的環(huán)境中很難獲取有效信息。基于雙目立體視覺的聚類識別算法,保證了良好的實時性,最初自適應(yīng)視覺導(dǎo)航算法是為農(nóng)業(yè)機器人自動導(dǎo)航而設(shè)計的,如今可以擴展到農(nóng)業(yè)物聯(lián)網(wǎng)系統(tǒng)[38]。深度相機可以獲得2D RGB圖像和拍攝場景中物體的深度信息,在檢測并識別障礙物目標后,可以獲取行駛路徑,實現(xiàn)行間施藥機器人的自主避障。
2.3.4 激光雷達導(dǎo)航
激光雷達可分為單線激光雷達和多線激光雷達。多線激光雷達可同時發(fā)射和接收多束激光,因此可以識別出被測物體的高度信息并獲取周圍環(huán)境的3D掃描圖,同時這也意味著多線激光雷達每一時刻的數(shù)據(jù)處理量較大,造成數(shù)據(jù)采集和處理時間均大于單線激光雷達;而單線激光雷達僅僅進行平面掃描,不能測量出物體的高度,但其掃描速度快且價格便宜。
使用單線激光雷達采集田間點云數(shù)據(jù),能夠提取出有效信息并構(gòu)建局部坐標系,獲取障礙物與移動機器人之間的位置關(guān)系[39]。使用16線激光雷達采集機器人運動方向上的三維點云數(shù)據(jù),通過研究作物葉片與主干點云地面投影的分布規(guī)律來進行導(dǎo)航[40]。將毫米波雷達傳感器應(yīng)用在四旋翼植保無人機上,在坡地等復(fù)雜地形下實現(xiàn)了仿地飛行功能,更加安全的實現(xiàn)精準噴施,達到更好的防治效果[41]。激光雷達應(yīng)用在設(shè)施農(nóng)業(yè)中時,噴霧機器人前后安裝兩臺二維激光雷達同步獲取數(shù)據(jù),實時調(diào)整行駛路線及自身姿態(tài),使噴霧機器人與植株之間保持一定的安全距離和噴霧距離,同時能夠?qū)崿F(xiàn)作業(yè)過程中的避障功能[42]。采用前后倒掛式安裝二維激光雷達的方式,可以增加掃描區(qū)域,降低掃描的盲區(qū),提升施藥機器人的建圖效率[43]。
2.3.5 組合式導(dǎo)航
融合多種導(dǎo)航方式,解決單一導(dǎo)航的缺點,可以獲得高精度的定位導(dǎo)航。GPS導(dǎo)航是機器人導(dǎo)航中使用最廣泛的方法之一,結(jié)合RTK技術(shù)有著不錯的導(dǎo)航性能,但是單一的GPS導(dǎo)航并不能滿足復(fù)雜作業(yè)環(huán)境下的導(dǎo)航定位需求。
多傳感器融合的自主施藥機器人導(dǎo)航方法可以獲取更豐富的環(huán)境信息,實現(xiàn)更精確、高效的導(dǎo)航。機器人的導(dǎo)航系統(tǒng)配備RTK-GPS導(dǎo)航系統(tǒng)、超聲波傳感器和激光掃描儀,以精準確定車輛的位置和姿態(tài),用于自主執(zhí)行指定的軌跡并避開障礙物[44]。利用視覺傳感器和超聲波傳感器可以測量整行植物的邊緣,感應(yīng)式接近傳感器可以提供機器人到路徑邊緣以及轉(zhuǎn)向的位置信息,識別機器人與植物之間的位置關(guān)系,發(fā)送轉(zhuǎn)向、行走命令來控制移動平臺[45],實現(xiàn)精準導(dǎo)航。利用卡爾曼濾波融合里程計和視覺傳感器的控制系統(tǒng),可以減小車輛橫向位置控制的均方根誤差[46]。利用GPS和機器視覺獲取行駛信息以及導(dǎo)航基準線,以此獲得作物行特征的點,此種多傳感器融合的方式有效提高了導(dǎo)航系統(tǒng)的定位精度和魯棒性[47]。Iqbal等[48]提出了一種在被遮擋的作物行中導(dǎo)航的策略,采用GPS航路點跟蹤和基于Lidar的導(dǎo)航的合導(dǎo)航方式,在創(chuàng)建的試驗臺中表現(xiàn)良好。植保無人機的自主避障多采用毫米波雷達與雙目視覺融合的方法,可以有效提高無人機避障的穩(wěn)定性以及導(dǎo)航精度[49]。
精準噴施是提高農(nóng)藥利用率的有效手段,而目標的精準識別檢測是實現(xiàn)精準噴施的首要前提。在施藥過程中,目標檢測系統(tǒng)可以實時獲取目標的類別和位置,使噴頭根據(jù)作物類別、位置、大小、體積、病蟲害情況等信息調(diào)整施藥量進行精準變量施藥。但目標檢測對于施藥機器人來說是一項具有挑戰(zhàn)性的任務(wù),田間作業(yè)環(huán)境復(fù)雜,如光線、風等不可預(yù)測的環(huán)境條件,對施藥機器人的識別性能會造成影響,算法識別時間、系統(tǒng)通信時間以及噴霧裝置響應(yīng)速度等都會影響施藥的準確性,因此選擇合適的技術(shù)進行目標檢測,是智能施藥機器人進行精準變量施藥的關(guān)鍵環(huán)節(jié)。
目前,施藥機器人最常用的目標檢測技術(shù)包括紅外線傳感檢測法、超聲波傳感檢測法、激光雷達檢測法、機器視覺檢測法,光譜成像檢測法、以及多傳感器融合的檢測方法。本節(jié)針對目前各種智能施藥機器人的探測方法進行了評價。
2.4.1 紅外線傳感檢測
紅外傳感檢測通過紅外發(fā)光管發(fā)出的紅外光照射到目標作物后進行反射,接收器接收紅外光以確定目標位置。由于其可靠性好、響應(yīng)速度快、成本低,被廣泛應(yīng)用于農(nóng)作物實時檢測中。在使用紅外探測技術(shù)的過程中,葉片的覆蓋度和光照強度會影響探測距離[50],因此紅外傳感檢測只能實現(xiàn)近距離探測。
2.4.2 超聲波傳感檢測
超聲波檢測是利用超聲波發(fā)射器發(fā)射超聲波,當超聲波遇到障礙物時便會返回,計算發(fā)射超聲波到收到反射波的時間,再利用此時間差和速度計算距離。超聲波檢測技術(shù)對目標的檢測距離更遠,且復(fù)雜性遠低于紅外線探測技術(shù),隨著超聲波傳感器的精度與響應(yīng)速度的提高,超聲波傳感器被逐步應(yīng)用在施藥機器人的智能識別系統(tǒng)中。即便采用低成本的超聲波檢測系統(tǒng),智能識別作物也具有可行性和較高的準確性[51]。
使用超聲波傳感器進行果樹冠層探測時,通常將超聲波傳感器依次安裝在不同高度的位置上,對果樹樹冠的上、中、下三段不同高度進行探測,采集果樹不同冠層的信息,估算出樹冠的大小后通過控制系統(tǒng)來調(diào)整農(nóng)藥的施用量,實現(xiàn)樹冠上中下部的變量噴施,從而減少不同冠層的農(nóng)藥施用量[52]。
2.4.3 激光雷達檢測
激光雷達是通過發(fā)射器向周圍散射強烈的激光脈沖,根據(jù)光束反射回來的時間,計算距周圍物體各點的距離,使用激光雷達可以同時滿足機器人定位的速度和精度要求。Liu等[53]比較了超聲波、紅外和激光3種傳感器的性能之后,證明激光雷達可以提供高精度、高頻率的檢測信息。
激光雷達受環(huán)境影響相對較小,識別精度高,可以獲取果樹的形狀、體積、葉面積等信息,近年來研究者對于激光雷達進行智能識別的應(yīng)用增多。利用16線激光雷達可以準確獲得作物的株高[54],但果園施藥機器人的目標檢測系統(tǒng)僅識別株高不能滿足精準變量噴施的效果,通過探測果樹的更多特征信息,如樹冠體積、葉面積等特征信息,才能實現(xiàn)更好的施藥效果?;诙S激光雷達掃描儀獲取Lidar 3D動態(tài)測量果樹的幾何表征信息,得到樹行體積和葉面積密度之間的關(guān)系,估計出作物的葉面積[55]。但使用激光雷達獲取樹冠信息,其對從激光雷達到樹中心的距離的誤差非常敏感,需要額外的技術(shù)來控制糾正這些誤差[56]。使用激光雷達技術(shù)進行精準噴施作業(yè)時,施藥機器人對目標的噴霧響應(yīng)時間以及噴霧時間往往決定了噴施效果。為解決自動對靶噴霧中的延時噴霧問題,袁鵬成等[57]采用地速傳感器獲得施藥機器人的實時速度,構(gòu)建自適應(yīng)延時噴霧模型,設(shè)計精準噴施控制系統(tǒng)改善了噴霧時間問題。
2.4.4 機器視覺檢測
機器視覺是通過圖像傳感器獲取大量靶標RGB圖像后,再利用圖像預(yù)處理以及數(shù)據(jù)增強技術(shù)擴增圖像數(shù)據(jù)集,以防止模型出現(xiàn)過擬合現(xiàn)象,將得到的圖像輸入至機器視覺模型中,進行模型訓練,通過一系列調(diào)參優(yōu)化,得到一個可用于實時檢測目標的網(wǎng)絡(luò)模型。
隨著機器視覺技術(shù)的快速發(fā)展,其在農(nóng)業(yè)智能識別領(lǐng)域已得到廣泛應(yīng)用,是智能施藥機器人精準噴施系統(tǒng)的必備技術(shù)。Malner?i?等[58]采用Sobel濾波方法進行邊緣檢測,通過erosion算法去除異常粒子,能快速檢測出作物存在的位置,實現(xiàn)近距離精準噴施。利用顏色特征以及形態(tài)腐蝕和膨脹算法,在多云或晴天下從雜草和土壤中分割出圖像中的作物區(qū)域,使用HSV顏色空間來區(qū)分作物、雜草和背景,通過在最小和最大閾值之間過濾每個HSV通道來定義ROI,然后通過使用形態(tài)腐蝕和膨脹過程進一步細化該區(qū)域,有效提高了作物與雜草的識別精度[59]。Ge等[60]基于雙目立體視覺和高斯混合模型,識別結(jié)果優(yōu)于K-means和Fuzzy c-means。丁為民等[61]采用最小二乘法和五點參數(shù)標定法得到樹冠面積與體積的關(guān)系模型,實現(xiàn)果樹樹冠體積測量,模型預(yù)測樹冠體積的平均誤差分別為13.73%和10.18%。通過SVM圖像分類器自動檢測[62],或利用SVM與Adaboost分類器實現(xiàn)病害的自動識別[63],通過識別結(jié)果預(yù)測施藥量并噴灑農(nóng)藥,實現(xiàn)病蟲害的精準變量噴施?;跈C器視覺技術(shù)建立的害蟲自動識別和實時智能決策軟件系統(tǒng),能夠為智能施藥機器人的精準噴施系統(tǒng)提供支持[64]。
深度學習是機器學習的一個重要分支,通過大規(guī)模數(shù)據(jù)集的學習,自動、高效、準確地識別目標的特征,替代了傳統(tǒng)獲取圖像特征信息的方式。因此,深度學習技術(shù)應(yīng)用于農(nóng)作物病蟲草害識別將是精準農(nóng)業(yè)未來發(fā)展的必然趨勢[65]。將使用深度學習技術(shù)進行農(nóng)作物病蟲害識別的近年研究整理如表3。利用深度學習技術(shù)進行目標識別,需要對算法模型不斷進行調(diào)參優(yōu)化,并且需要進行算法改進,使模型能夠更好的提取目標特征,來達到更好的識別效果。孫俊等[71]針對傳統(tǒng)Alex Net模型參數(shù)大、特征尺度單一的問題,設(shè)計了一種空洞卷積與全局池化相結(jié)合的多尺度特征融合卷積神經(jīng)網(wǎng)絡(luò)識別模型,模型對幼苗的識別準確率可達90%以上,但在惡劣、黑暗的背景下幼苗識別率較低,因此機器視覺對復(fù)雜背景下的識別性能還需要提升。
表3 深度學習用于農(nóng)作物病蟲害識別
2.4.5 光譜成像檢測
傳統(tǒng)病蟲害識別方法主要依靠專家或農(nóng)民自己來診斷病蟲害,然而,這種方法需要較高的成本和時間損耗,并且難以識別早期病蟲害,由于依靠人為識別,結(jié)果往往缺乏科學性。利用光譜成像技術(shù)進行早期檢測和量化病害程度,從大量植被指數(shù)提供的一個廣泛數(shù)據(jù)庫中分析出檢測和量化的最佳擬合指數(shù),可用于決策支持和實施精準作物保護技術(shù)以控制病蟲害[72],從而解決病蟲害識別時效性以及缺乏科學性的問題。
基于光譜信息的病蟲害檢測,依賴從冠層中產(chǎn)生的光與植物組織相互作用后的特性,即反射、透射和吸收,用來估算病害水平、郁閉度和綠葉面積等。何寬等[73]利用高光譜成像技術(shù)對輕微腐爛病害藍莓、果蠅蟲害藍莓進行無損檢測,具有較高的識別精度。利用多光譜反射來檢測健康作物中的病斑,主要是通過區(qū)分病害和健康植株的波段或波段組合[74]。智能施藥機器人利用多光譜成像技術(shù)識別病蟲害,通過訓練不同視角的病蟲害圖像,增加檢測靈敏度,特別是對于具有早、中期癥狀的檢測靈敏度將顯著提高[75]。
2.4.6 組合式檢測
在實際生產(chǎn)中,光譜設(shè)備價格昂貴,普通種植人員不易接受,并且受環(huán)境影響較大,不宜推廣,而機器視覺則不同,其識別速度快,更精準,且應(yīng)用成本低,使得機器視覺技術(shù)越來越受到研究者的關(guān)注。在病蟲害檢測中,機器視覺技術(shù)雖然成本較低,但是機器視覺技術(shù)過多的依賴模型對目標特征的提取,經(jīng)過多次調(diào)參優(yōu)化才能得到一個適合與該病蟲害檢測的視覺模型。研究發(fā)現(xiàn)高光譜成像技術(shù)結(jié)合機器學習方法,可以提高對病蟲害檢測的識別準確率,例如吳葉蘭等[76]結(jié)合高光譜成像技術(shù)和機器學習方法對柑橘病葉進行分類。鄧小玲等[77]通過無人機搭載高光譜,利用遙感技術(shù)提取特征波段,建立深度學習模型進行分類,檢測出柑橘患病的植株。利用多種技術(shù)結(jié)合進行智能識別工作,會大大提高識別性能,更有利于智能噴施機器人的精準噴施工作。
隨著中國人口老齡化持續(xù)加速,同時,環(huán)境污染及農(nóng)產(chǎn)品安全問題日益明顯,智能施藥機器人在實現(xiàn)農(nóng)業(yè)的生態(tài)可持續(xù)化發(fā)展中具有重要的應(yīng)用價值。目前,研究學者已經(jīng)在智能施藥機器人方面進行了大量的研究并取得了許多成果,逐步形成了較為完善的設(shè)計成果,但是對于一些關(guān)鍵技術(shù)的研究仍存在以下的問題,需要進一步研究:
1)實時執(zhí)行任務(wù)。在實際農(nóng)業(yè)作業(yè)環(huán)境中由于作業(yè)地形、轉(zhuǎn)向控制、導(dǎo)航偏離等外部環(huán)境發(fā)生改變時,就很難保證任務(wù)執(zhí)行效果,所以精準、快速的得到實時數(shù)據(jù)和信息進行任務(wù)的實時執(zhí)行研究尤為重要。響應(yīng)速度是智能施藥機器人噴霧技術(shù)的關(guān)鍵。當前研究的智能施藥機器人,施藥時存在響應(yīng)延時的情況,不能對田間作業(yè)時發(fā)生的各類動態(tài)變化信息及時做出處理,導(dǎo)致智能施藥的效果并不理想。對目標信息的獲取過程中,會出現(xiàn)延時獲取的現(xiàn)象,這將導(dǎo)致系統(tǒng)不能準確識別到目標,從而導(dǎo)致漏檢漏噴現(xiàn)象。在導(dǎo)航系統(tǒng)中,響應(yīng)延時將導(dǎo)致機器人不能準確避開障礙物,甚至使得機器人出現(xiàn)導(dǎo)航方向錯誤的問題。因此,需要盡可能提高施藥機器人導(dǎo)航和檢測的響應(yīng)速度,解決通信問題,采用可靠性更高、響應(yīng)速度更快的檢測裝置和控制裝置,用以減少檢測和控制的時間。運用深度學習進行病蟲害的檢測,可以實現(xiàn)實時且精準的施藥,但是復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)和龐大的數(shù)據(jù)樣本是深度學習的難點,沒有大量的數(shù)據(jù)集進行模型訓練,深度學習檢測的性能也會被限制。比如對于不同癥狀的病蟲害在視覺上非常相似,模型可能無法提取更全面的特征信息進行區(qū)分,需要利用地理位置、氣候環(huán)境、作物發(fā)育階段和歷史病蟲害發(fā)病率數(shù)據(jù)等多種信息源來增加圖像數(shù)據(jù)集,用以增加模型的魯棒性和準確性。因此缺乏標準注釋的圖像數(shù)據(jù)集是應(yīng)用深度學習系統(tǒng)的主要障礙。
2)提高探測精度。由于大田環(huán)境道路崎嶇不平,車輛行駛過程中無法避免的會發(fā)生顛簸、車身發(fā)生震動等現(xiàn)象,這些因素將會影響傳感器以及深度學習模型的探測精度,從而造成自主導(dǎo)航、目標檢測誤差增大。需要進一步通過研究多傳感器融合技術(shù)、障礙探測技術(shù)、圖像處理方法、路徑優(yōu)化方式、配備糾偏原件、故障診斷模塊等來提高導(dǎo)航以及目標識別的準確性。
3)優(yōu)化設(shè)計輕量化底盤。施藥機器人需要承載大容量的藥箱,以增加單次作業(yè)面積,還要安裝各種傳感器等部件,因此底盤需要具有一定的承載能力,而田間作業(yè)環(huán)境復(fù)雜,在越障和跨越溝渠方面仍然有一定的限制性,大大降低了智能施藥機器人的作業(yè)性能。因此要盡可能的開發(fā)輕量化底盤,以減少整機質(zhì)量,更靈巧、安全、穩(wěn)定的執(zhí)行作業(yè)。選擇對比不同材料以實現(xiàn)輕量化設(shè)計,進而降低作業(yè)機組能耗,設(shè)計合理的整機結(jié)構(gòu),使機身的行走姿態(tài)保持水平,提高行走平穩(wěn)性、負載穩(wěn)定性。
4)降低施藥機器人研發(fā)成本。在進行機器人底盤設(shè)計時,不僅要考慮到控制精度、靈活性、工作環(huán)境等方面,還要考慮到材料、價格、環(huán)保等方面,以適應(yīng)現(xiàn)代社會的發(fā)展需要。大田環(huán)境復(fù)雜,如土壤、植被、道路、雜草等復(fù)雜背景,以及光線、溫度、濕度等天氣變化對于目標檢測、自主導(dǎo)航都會產(chǎn)生干擾,激光雷達相對于其他傳感器識別更精準,但其價格昂貴,導(dǎo)致施藥機器人的成本增加,增加了農(nóng)業(yè)的生產(chǎn)成本。因此施藥機器人在滿足智能化要求的同時,還需降低研發(fā)成本。
5)設(shè)計多場景應(yīng)用的噴霧裝置。噴霧機構(gòu)的設(shè)計相對比較成熟,專家學者針對不同種類的作物、不同的種植模式、不同的地理條件等設(shè)計了噴霧裝置。果園施藥對于噴霧裝置需要考慮對于風量、風速的控制,樹冠的適應(yīng)、變量噴霧的控制,實現(xiàn)風送、仿形、變量的功能,病蟲害大多隱藏在枝葉密集的地方,這就需要噴霧裝置具有較好的穿透性,同時機械臂的設(shè)計應(yīng)具有柔性、靈活性,以實現(xiàn)對靶噴施。但是,現(xiàn)有的研究大多只是符合當?shù)胤N植的樹形特征。因此設(shè)計可調(diào)節(jié)的噴霧裝置、優(yōu)化噴霧裝置參數(shù)是解決作物品種差異性、地域差異性、生長模式差異性等問題的關(guān)鍵技術(shù)。
6)融合多傳感器的集成技術(shù)。導(dǎo)航與智能識別是智能施藥的重要技術(shù),多傳感器融合互補各類單一傳感器的優(yōu)缺點,獲取更多有效的信息,有效解決單一傳感器定位時的不穩(wěn)定性和識別時的誤差,更加全面的辨識路面障礙物與作物病蟲害,繼而實現(xiàn)精準導(dǎo)航、智能識別。
7)發(fā)展地空一體化、施藥機器人集群化作業(yè)。采取地面施藥機器人與植保無人機協(xié)同作業(yè)的方式,立體化果園施藥作業(yè),使霧滴分布更加均勻。探究最優(yōu)施藥參數(shù),減少作物施藥不均勻及藥液流失的情況,解決密閉果園施藥時無法均勻覆蓋果樹各個冠層的問題。多類型智能施藥機器人協(xié)同工作,提高機器人的整體智能化水平和工作效率。
[1] 黃文江,劉林毅,董瑩瑩,等. 基于遙感技術(shù)的作物病蟲害監(jiān)測研究進展[J]. 農(nóng)業(yè)工程技術(shù),2018,38(9):39-45.
[2] 蘇琴. 化學防治與生物防治的優(yōu)缺點淺析[J]. 內(nèi)蒙古農(nóng)業(yè)科技,2011(6):84-85, 132.
[3] 孔祥智. 守住底線做好三項重點工作:2022年中央一號文件解讀[J]. 鄉(xiāng)村振興,2022(4):52-55.
[4] Qiu W, Zhao S Q, Ding W M, et al. Effects of fan speed on spray deposition and drift for targetingair-assisted sprayer in pear orchard[J]. International Journal of Agricultural and Biological Engineering, 2016, 9(4): 53-62
[5] Baltazar A R, Santos F N, Moreira A P, et al. Smarter robotic sprayer system for precision agriculture[J]. Electronics, 2021, 10(17): 2061.
[6] Li Y, Yuan J, Liu X, et al. Spraying strategy optimization with genetic algorithm for autonomous air-assisted sprayer in Chinese heliogreenhouses[J]. Computers and Electronics in Agriculture, 2019, 156: 84-95.
[7] Sammons P J, Furukawa T, Bulgin A. Autonomous pesticide spraying robot for use in a greenhouse[C]//Australian Conference on Robotics and Automation. Canberra, Australia: Commonwealth Scientific and Industrial Research Organisation, 2005.
[8] 劉路. 大田環(huán)境下智能移動噴藥機器人系統(tǒng)研究[D]. 合肥:中國科學技術(shù)大學,2016.
Liu Lu. Research on Intelligent Mobile Spray Robotic System for Field Crops[D]. Hefei: University of Science and Technology of China, 2016. (in Chinese with English abstract)
[9] 張燕軍,楊天,徐勇,等. 溫室履帶式智能施藥機器人設(shè)計與試驗[J]. 農(nóng)機化研究,2022,44(8):97-104.
Zhang Yanjun, Yang Tian, Xu Yong, et al. Design and experiment of greenhouse tracked intelligent pesticide application robot[J]. Journal of Agricultural Mechanization Research, 2022, 44(8): 97-104. (in Chinese with English abstract)
[10] 印祥,安家豪,王艷鑫,等. 高地隙施藥機自動駕駛系統(tǒng)研制與試驗[J]. 農(nóng)業(yè)工程學報,2021,37(9):22-30.
Yin Xiang, An Jiahao, Wang Yanxin, et al. Development and experiments of the autonomous driving system for high-clearance spraying machines[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(9): 22-30. (in Chinese with English abstract)
[11] 王鋒,楊玲,謝守勇,等. 一種三角履帶式果園動力底盤的設(shè)計與研究[J]. 農(nóng)機化研究,2019,41(5):91-96.
Wang Feng, Yang Ling, Xie Shougyong, et al. Design and experiment of handheld citrus shoots removing machine[J]. Journal of Agricultural Mechanization Research, 2019, 41(5): 91-96. (in Chinese with English abstract)
[12] 張勇,劉至洋,于明靜. 基于傳感網(wǎng)絡(luò)的果蔬精量施藥機器人系統(tǒng)設(shè)計[J]. 無線互聯(lián)科技,2022,19(13):111-113.
Zhang Yong, Liu Zhiyang, Yu Mingjing. Design of fruit and vegetable precision pesticide application robot system based on sensor network[J]. Wireless Internet Technology, 2022, 19(13): 111-113. (in Chinese with English abstract)
[13] Kawin N, Karthi N, Saravanampatti C. Six legged semi-auomatic machine for agricultural seeding and spraying[J]. Gradiva Review Journal,2022,8(6):380-386.
[14] 陶春鳴. 水田履帶輪式施藥機設(shè)計與底盤試驗[D]. 鎮(zhèn)江:江蘇大學,2019.
Tao Chunming. Design of Paddy Field Pedrail Wheeled Sprayer and Chassis Test[D]. Zhenjiang: Jiangsu University, 2019. (in Chinese with English abstract)
[15] Suparat N, Maneewarn T. Spraying analysis for a coconut climbing robot[C]//2015 7th International Conference on Information Technology and Electrical Engineering (ICITEE). IEEE, Chiang Mai, Thailand, 2015: 388-393.
[16] Wang G, Lan Y, Qi H, et al. Field evaluation of an unmanned aerial vehicle (UAV) sprayer: Effect of spray volume on deposition and the control of pests and disease in wheat[J]. Pest Management Science, 2019, 75(6): 1546-1555.
[17] Wang J, Lan Y, Zhang H, et al. Drift and deposition of pesticide applied by UAV on pineapple plants under different meteorological conditions[J]. International Journal of Agricultural and Biological Engineering, 2018, 11(6): 5-12.
[18] Meng Y, Su J, Song J, et al. Experimental evaluation of UAV spraying for peach trees of different shapes: Effects of operational parameters on droplet distribution[J]. Computers and Electronics in Agriculture, 2020, 170: 105282.
[19] Zang Y, Lian Q, Zang Wei. Design and test of a six-rotor unmanned aerial vehicle (UAV) electrostatic spraying system for crop protection[J]. International Journal of Agricultural and Biological Engineering, 2017, 10(6): 68-76
[20] 蔡彥倫. 低空無人機接觸式靜電噴霧系統(tǒng)設(shè)計與試驗[D]. 鎮(zhèn)江:江蘇大學,2017.
Cai Yanlun. Designand Test of Contact Electrostatic Spray System for Low-altitude UAV[D]. Zhenjiang: Jiangsu University, 2017. (in Chinese with English abstract)
[21] Gonzalez-de-Soto M, Emmi L, Perez-Ruiz M, et al. Autonomous systems for precise spraying–evaluation of a robotised patch sprayer[J]. Biosystems Engineering, 2016, 146: 165-182.
[22] 吳碩,王榮鍇,劉繼展. 一種溫室草莓冠層內(nèi)圓周風送施藥機器人及其實現(xiàn)方法:CN111436414B[P]. 2021-11-23.
[23] 張俊雄,曹崢勇,耿長興,等. 溫室精準對靶噴霧機器人研制[J]. 農(nóng)業(yè)工程學報,2009,25(增刊2):70-73.
Zhang Junxiong, Cao Zhengyong, Geng Changxing, et al. Research on precision target spray robot in greenhouse[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2009, 25(Supp.2): 70-73.
[24] Hejazipoor H, Massah J, Soryani M, et al. An intelligent spraying robot based on plant bulk volume[J]. Computers and Electronics in Agriculture, 2021, 180: 105859.
[25] 林德穎. 瓜果自動施藥機器人系統(tǒng)的研究與設(shè)計[J]. 農(nóng)業(yè)技術(shù)與裝備,2020(9):125-127.
Lin Deying. Research and design of melon and fruit automatic dispensing robot system[J]. Agricultural Technology & Equipment, 2020(9): 125-127. (in Chinese with English abstract)
[26] Yamane S, Miyazaki M. Study on electrostatic pesticide spraying system for low-concentration, high-volume applications[J]. Japan Agricultural Research Quarterly, 2017, 51(1): 11-16.
[27] Vatavuk I, Vasiljevi? G, Kova?i? Z. Task space model predictive control for vineyard spraying with a mobile manipulator[J]. Agriculture, 2022, 12(3): 381.
[28] Bao X, Niu Y, Li Y, et al. Design and kinematic analysis of cable-driven target spray robot for citrus orchards[J]. Applied Sciences, 2022, 12(18): 9379.
[29] Oberti R, Marchi M, Tirelli P, et al. Selective spraying of grapevines for disease control using a modular agricultural robot[J]. Biosystems Engineering, 2016, 146: 203-215.
[30] Pergher G, Gubiani R, Cividino S R S, et al. Assessment of spray deposition and recycling rate in the vineyard from a new type of air-assisted tunnel sprayer[J]. Crop Protection, 2013, 45: 6-14.
[31] Gao C, Qi L, Wu Y, et al. Design and testing of a self-propelled air-blowing greenhouse sprayer[C]//2017 ASABE Annual International Meeting. American Society of Agricultural and Biological Engineers, St. Joseph, Michigan,2017: 1.
[32] Wen Z, Qiu W, Zhang Z, et al. Tunnel-convective air-assisted spraying technology for improving droplet deposition on hedgerow vines[J]. International Journal of Agricultural and Biological Engineering, 2021, 14(6): 9-18.
[33] Pérez-Ruiz M, Agüera J, Gil J A, et al. Optimization of agrochemical application in olive groves based on positioning sensor[J]. Precision Agriculture, 2011, 12(4): 564-575.
[34] Nakao N, Suzuki H, Kitajima T, et al. Path planning and traveling control for pesticide-spraying robot in greenhouse[J]. Journal of Signal Processing, 2017, 21(4): 175-178.
[35] Mosalanejad H, Minaei S, Borghei A, et al. Evaluation of navigation system of a robot designed for greenhouse spraying[J]. International Journal on Smart Sensing and Intelligent Systems, 2020, 13(1): 1-12.
[36] 畢松,王宇豪. 果園機器人視覺導(dǎo)航行間位姿估計與果樹目標定位方法[J]. 農(nóng)業(yè)機械學報,2021,52(8):16-26, 39.
Bi Song, Wang Yuhao. Inter-line pose estimation and fruit tree location method for orchard robot[J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(8): 16-26, 39. (in Chinese with English abstract)
[37] 韓振浩,李佳,苑嚴偉,等. 基于U-Net網(wǎng)絡(luò)的果園視覺導(dǎo)航路徑識別方法[J]. 農(nóng)業(yè)機械學報,2021,52(1):30-39.
Han Zhenjie, Li Jia, Yuan Yanwei, et al. Path recognition of orchard visual navigation based on U-Net[J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(1): 30-39. (in Chinese with English abstract)
[38] Xiang R, Jiang H, Ying Y. Recognition of clustered tomatoes based on binocular stereo vision[J]. Comput. Electron. Agric. 2014, 106: 75–90.
[39] 高觀光. 基于激光雷達的智能自走式熱霧機自主導(dǎo)航系統(tǒng)控制方法研究[D]. 合肥:安徽農(nóng)業(yè)大學,2020.
Gao Guanguang. Study on the Control Method of Autonomous Navigation System of Intelligent Self-Propelled Hot Fog Machine Based on Lidar[D]. Hefei: Anhui Agricultural University, 2019. (in Chinese with English abstract)
[40] 劉路,潘艷娟,陳志健,等. 高遮擋環(huán)境下玉米植保機器人作物行間導(dǎo)航研究[J]. 農(nóng)業(yè)機械學報,2020,51(10):11-17.
Liu Lu, Pan Yanjuan, Chen Zhijian, et al. Inter-rows navigation method for corn crop protection vehicles under high occlusion environment[J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(10): 11-17. (in Chinese with English abstract)
[41] 孫學超. 基于毫米波雷達的植保無人機仿地飛行技術(shù)研究[D]. 杭州:杭州電子科技大學,2018.
Sun Xuechao. Research on Terrain Following Technology of Plant Protection UAV Based on Millimeter Wave Radar[D]. Hangzho:Hangzhou Dianzi University, 2018. (in Chinese with English abstract)
[42] 劉慧,段云鵬,張世義,等. 一種溫室自主精準變量風送噴霧機器人結(jié)構(gòu)及規(guī)劃路徑方法:CN113341961A[P]. 2021-09-03.
[43] 蒲文洋. 基于前后激光雷達的溫室機器人導(dǎo)航系統(tǒng)設(shè)計與試驗[D]. 淄博:山東農(nóng)業(yè)大學,2021.
Pu Wenyang. Design and Experiment of Greenhouse Robot Navigation System Based on Front and Rearlidar[D]. Zibo: Shandong Agricultural University, 2021. (in Chinese with English abstract)
[44] Cantelli L, Bonaccorso F, Longo D, et al. A small versatile electrical robot for autonomous spraying in agriculture[J]. AgriEngineering, 2019, 1(3): 391-402.
[45] Chang C, Li Y, Lee J M. Localization of a rail robot in greenhouse based on multi-sensors[J]. ??????????????????, 2010: 228-232.
[46] Marchant J A, Hague T, Tillett N D. Row-following accuracy of an autonomous vision-guided agricultural vehicle[J]. Computers and Electronics in Agriculture, 1997, 16(2): 165-175.
[47] 陳艷,張漫,馬文強,等. 基于GPS和機器視覺的組合導(dǎo)航定位方法[J]. 農(nóng)業(yè)工程學報,2011,27(3):126-130.
Chen Yan, Zhang Man, Ma Wenqiang, et al. Positioning method of integrated navigation based on GPS and machine vision[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2011, 27(3): 126-130. (in Chinese with English abstract)
[48] Iqbal J, Xu R, Sun S, et al. Simulation of an autonomous mobile robot for LiDAR-based in-field phenotyping and navigation[J]. Robotics, 2020, 9(2): 46.
[49] 劉立臣. 基于毫米波雷達和視覺的旋翼植保無人機自主避障研究[D]. 哈爾濱:東北林業(yè)大學,2020.
Liu Lichen. Research on Autonomous Obstacle Avoidance of Rotor Plant Protection UAV Based on Millimeter Wave Radar and Vision[D]. Harbin: Northeast Forestry University, 2020. (in Chinese with English abstract)
[50] 李麗,李恒,何雄奎,等.紅外靶標自動探測器的研制及試驗[J]. 農(nóng)業(yè)工程學報,2012,28(12):159-163.
Li Li, Li Heng, He Xiongkui, et al. Development and experiment of automatic detection device for infrared target[J]. Transactions of the Chinese Society of Agricultural Engineering, 2012,28(12):159-163. (in Chinese with English abstract)
[51] Páez F C, Rincón V J, Sánchez-Hermosilla J, et al. Implementation of a low-cost crop detection prototype for selective spraying in greenhouses[J]. Precision Agriculture, 2017, 18(6): 1011-1023.
[52] Maghsoudi H, Minaei S, Ghobadian B, et al. Ultrasonic sensing of pistachio canopy for low-volume precision spraying[J]. Computers and Electronics in Agriculture, 2015, 112: 149-160.
[53] Liu T, Zhang W, Gu J, et al. A Laser Radar based mobile robot localization method[C]//2013 IEEE International Conference on Robotics and Biomimetics (ROBIO). IEEE, 2013: 2511-2514.
[54] 喬白羽,何雄奎,王志翀,等. 基于LiDAR掃描的高地隙寬幅噴霧機變量施藥系統(tǒng)研制[J]. 農(nóng)業(yè)工程學報,2020,36(14):89-95.
Qiao Baiyu, He Xiongkui, Wang Zhichong, et al. Development of variable-rate spraying system for high clearance wide boom sprayer based on LiDAR scanning[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2020, 36(14): 89-95. (in Chinese with English abstract)
[55] Sanz R, Rosell J R, Llorens J, et al. Relationship between tree row LIDAR-volume and leaf area density for fruit orchards and vineyards obtained with a LIDAR 3D Dynamic Measurement System[J]. Agricultural and Forest Meteorology, 2013, 171: 153-162.
[56] Palleja T, Tresanchez M, Teixido M, et al. Sensitivity of tree volume measurement to trajectory errors from a terrestrial LIDAR scanner[J]. Agricultural and Forest Meteorology, 2010, 150(11): 1420-1427.
[57] 袁鵬成,李秋潔,鄧賢,等. 基于LiDAR的對靶噴霧實時控制系統(tǒng)設(shè)計與試驗[J]. 農(nóng)業(yè)機械學報,2020,51(S1):273-280.
Yuan Pengcheng, Li Qiujie, Deng Xian, et al. Design and experiment of real-time control system for target spraying based on LiDAR[J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(S1): 273-280. (in Chinese with English abstract)
[58] Malner?i? A, Dular M, ?irok B, et al. Close-range air-assisted precision spot-spraying for robotic applications: Aerodynamics and spray coverage analysis[J]. Biosystems Engineering, 2016, 146: 216-226.
[59] Hamuda E, Mc Ginley B, Glavin M, et al. Automatic crop detection under field conditions using the HSV colour space and morphological operations[J]. Computers and Electronics in Agriculture, 2017, 133: 97-107.
[60] Ge L, Yang Z, Sun Z, et al. A method for broccoli seedling recognition in natural environment based on binocular stereo vision and Gaussian mixture model[J]. Sensors, 2019, 19(5): 1132.
[61] 丁為民,趙思琪,趙三琴,等. 基于機器視覺的果樹樹冠體積測量方法研究[J]. 農(nóng)業(yè)機械學報,2016,47(6):1-10, 20.
Ding Weimin, Zhao Siqi, Zhao Sanqin, et al. Measurement methods of fruit tree canopy volume based on machine vision[J]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(6): 1-10, 20. (in Chinese with English abstract)
[62] Kameswari S, Prabhakar T, Kishore K K. Autonomous pesticide spraying robot using SVM[C]//Proceedings of International Conference on Wireless Communication. Springer, Singapore, 2022: 293-302.
[63] 蔡銀杰,于翔,沈美. 基于機器視覺的植保無人機水稻紋枯病識別方法: CN109993228A[P]. 2019-07-09.
[64] Li Z, Fu Z, Shi Y, et al. Prototype system of automatic identification cotton insect pests and intelligent decision based on machine vision[C]//2003 ASAE Annual Meeting. American Society of Agricultural and Biological Engineers, St. Joseph, Michigan,2003: 1.
[65] Liu B, Zhang Y, He D J, et al. Identification of apple leaf diseases based on deep convolutional neural networks[J]. Symmetry, 2017, 10(1): 11.
[66] Zhang X, Qiao Y, Meng F, et al. Identification of maize leaf diseases using improved deep convolutional neural networks[J]. Ieee Access, 2018, 6: 30370-30377.
[67] Liu B, Zhang Y, He D J, et al. Identification of apple leaf diseases based on deep convolutional neural networks[J]. Symmetry, 2017, 10(1): 11.
[68] Singh U P, Chouhan S S, Jain S, et al. Multilayer convolution neural network for the classification of mango leaves infected by anthracnose disease[J]. IEEE Access, 2019, 7: 43721-43729.
[69] 宋余慶,謝熹,劉哲,等. 基于多層EESP深度學習模型的農(nóng)作物病蟲害識別方法[J]. 農(nóng)業(yè)機械學報,2020,51(8):196-202.
Song Yuqing, Xie Xi, Liu Zhe, et al. Crop pests and diseases recognition method based on multi-level EESP model[J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(8): 196-202. (in Chinese with English abstract)
[70] Karar M E, Alsunaydi F, Albusaymi S, et al. A new mobile application of agricultural pests recognition using deep learning in cloud computing system[J]. Alexandria Engineering Journal, 2021, 60(5): 4423-4432.
[71] 孫俊,何小飛,譚文軍,等. 空洞卷積結(jié)合全局池化的卷積神經(jīng)網(wǎng)絡(luò)識別作物幼苗與雜草[J]. 農(nóng)業(yè)工程學報,2018,34(11):159-165.
Sun Jun, He Xiaofei, Tan Wenjun, et al. Recognition of crop seedling and weed recognition based on dilated convolution and global pooling in CNN[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2018, 34(11): 159-165.
[72] López-López M, Calderón R, González-Dugo V, et al. Early detection and quantification of almond red leaf blotch using high-resolution hyperspectral and thermal imagery[J]. Remote Sensing, 2016, 8(4): 276.
[73] 何寬. 基于高光譜成像的藍莓病蟲害的檢測方法研究[D]. 沈陽:沈陽農(nóng)業(yè)大學,2019.
He Kuan. Research on Disease and Pest Detection Method of Blueberry Based on Hyperspectral Imaging[D]. Shenyang : Shenyang Agricultural University, 2019. (in Chinese with English abstract)
[74] West J S, Bravo C, Oberti R, et al. The potential of optical canopy measurement for targeted control of field crop diseases[J]. Annual review of Phytopathology, 2003, 41(1): 593-614.
[75] Oberti R, Marchi M, Tirelli P, et al. Automatic detection of powdery mildew on grapevine leaves by image analysis: Optimal view-angle range to increase the sensitivity[J]. Computers and Electronics in Agriculture, 2014, 104: 1-8.
[76] 吳葉蘭,陳怡宇,廉小親,等. 高光譜成像的柑橘病蟲害葉片識別方法[J]. 光譜學與光譜分析,2021,41(12):3837-3843.
Wu Yelan, Chen Yiyu, Lian Xiaoqin, et al. Study on the identification method of citrus leaves based on hyperspectral imaging technique, 2021, 41(12): 3837-3843. (in Chinese with English abstract)
[77] 鄧小玲,曾國亮,朱梓豪,等. 基于無人機高光譜遙感的柑橘患病植株分類與特征波段提取[J]. 華南農(nóng)業(yè)大學學報,2020,41(6):100-108.
Deng Xiaoling, Zeng Guoliang, Zhu Zihao, et al. Classification and feature band extraction of diseased citrus plants based on UAV hyperspectral remote sensing[J]. Journal of South China Agricultural University, 2020, 41(6): 100-108. (in Chinese with English abstract)
Current status and future development of the key technologies for intelligent pesticide spraying robots
Lan Yubin1,2,3, Yan Yu1,3, Wang Baoju1,3, Song Cancan1,3, Wang Guobin1,2,3※
(1.,,255049,; 2.,255049,; 3.,255049,)
Agriculture is crucial for economic development. Losses in agricultural production were caused by a variety of circumstances, but pests and illnesses are among the most important. The use of plant protection machinery to spray pesticides is still the most effective method of pest control at present. Traditional agricultural sprayers were inefficient and time-consuming, which caused pesticide waste and environmental contamination. In the process of spraying pesticides, farmers are directly exposed to pesticides, which is easy to cause bodily harm or even poisoning. With the steady progress of China's agricultural modernization, robots are widely used in agricultural plant protection work. Intelligent pesticide spraying robots are an effective method to solve the problem of applying pesticides in complex environments such as hills, orchards, fields, and greenhouses, which is more efficient and accurate. Intelligent spraying robot not only saves labor but also reduces the improper use of resources and environmental pollution. It is conducive to our better reaching of the goal of agricultural sustainable development. In this study, the research progress analysis of an intelligent pesticide spraying robot focuses on four respects: mobile chassis design, spraying the device design, navigation technology, and target detection technology. This paper discusses the factors limiting the development of intelligent pesticide-spraying robots for the primary technologies applied to various operation scenarios. Firstly, the mobile chassis design of the spraying robot was analyzed from the ground spraying robot and aerial spraying robot. The study and development of wheel-track composite robot chassis can integrate the advantages of wheeled chassis as well as a tracked chassis, which will be the research trend of ground intelligent spraying robot. Plant protection UAV is unrestricted by terrain, and can be applied to a variety of scenarios, which will be the key orientations for future research. Secondly, the spray devices required by the spraying robot in different spraying scenarios were summarized. It mainly includes an adjustable boom sprayer device, electrostatic spraying device, targeted spraying device, air-assisted spraying equipment, and profile modeling spray equipment. The most commonly used navigation methods are analyzed, including Global Positioning System (GPS) navigation, visual navigation, inertial navigation, multi-sensor fusion navigation, laser radar navigation, odometer, geomagnetic navigation, etc. Additionally, the detection methods of various pesticide spraying robots are evaluated from the perspectives of crop detection and pest detection. The deep learning algorithm can automatically extract the image features of crops, make use of the information, and exactly identify the location of crop pests and diseases, to quickly respond to achieve accurate spraying. Finally, the development trend of intelligent pesticide application robots for precise application is presented. Six requirements or prospects were proposed for the intelligent pesticide spraying robot development in the future, including to improve the response speed of the spraying robot, to improve detection accuracy, to design lightweight chassis, to reduce the development cost of the spraying robot, and to integrated air-ground spraying technology. In conclusion, intelligent and precise application robots have the potential to significantly improve the quality of precision agriculture operations by facilitating intelligent decision-making on operational parameters before actual operation.
pesticide spraying robot; intelligent sensing; autonomous operation; robot platform; spraying device
10.11975/j.issn.1002-6819.2022.20.004
S224.3
A
1002-6819(2022)-20-0030-11
蘭玉彬,閆瑜,王寶聚,等. 智能施藥機器人關(guān)鍵技術(shù)研究現(xiàn)狀及發(fā)展趨勢[J]. 農(nóng)業(yè)工程學報,2022,38(20):30-40.doi:10.11975/j.issn.1002-6819.2022.20.004 http://www.tcsae.org
Lan Yubin, Yan Yu, Wang Baoju, et al. Current status and future development of the key technologies for intelligent pesticide spraying robots[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(20): 30-40. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2022.20.004 http://www.tcsae.org
2022-07-20
2022-09-18
山東省引進頂尖人才“一事一議”專項經(jīng)費資助項目(魯政辦字 [2018]27 號);山東省自然科學基金項目(ZR2021QC154)
蘭玉彬,法國歐洲科學、藝術(shù)與人文學院院士,博士,教授,博士生導(dǎo)師,研究方向為精準農(nóng)業(yè)航空應(yīng)用技術(shù)。Email:ylan@sdut.edu.cn
王國賓,博士,講師,研究方向為精準農(nóng)業(yè)航空施藥技術(shù)。Email:guobinwang@sdut.edu.cn
中國農(nóng)業(yè)工程學會高級會員:蘭玉彬(E041200725S);王國賓(E041500068M)