徐旻 張瑞瑞 陳立平 唐青
摘? ?要:搭載高性能傳感器和施藥裝備的農(nóng)業(yè)植保無人機系統(tǒng)是精準農(nóng)業(yè)領(lǐng)域具有代表性的智能裝備之一。本研究首先從前端田間作業(yè)環(huán)境動態(tài)感知技術(shù)出發(fā),闡述了無人機光譜成像遙感、多傳感器融合的SLAM實時環(huán)境建模等技術(shù)在無人機植保作業(yè)方面的應(yīng)用情況;然后對精準施藥過程建模與優(yōu)化控制有關(guān)的前沿技術(shù)進行了分析,包括旋翼下方風場結(jié)構(gòu)演化及霧滴沉積過程仿真建模、多區(qū)域全覆蓋條件下的智能作業(yè)路徑規(guī)劃、精準變量施藥控制等;最后論述了作業(yè)效果評估與過程監(jiān)管相關(guān)技術(shù)的發(fā)展現(xiàn)狀,包括施藥作業(yè)質(zhì)量評價方法、基于云平臺數(shù)據(jù)管理的全過程可視化監(jiān)管等。在總結(jié)現(xiàn)有技術(shù)發(fā)展現(xiàn)狀基礎(chǔ)上,對未來智能化無人機植保關(guān)鍵技術(shù)發(fā)展趨勢進行了預(yù)測,闡明了光譜圖像獲取與計算智能的深度學習識別聚類、基于高精度霧滴譜和風場模型預(yù)測的精準變量施藥作業(yè)路徑規(guī)劃、基于傳感器實時數(shù)據(jù)的作業(yè)質(zhì)量評估和作業(yè)監(jiān)管等新技術(shù)手段,將在遙感信息反演、藥液飄移抑制、作業(yè)效率優(yōu)化、施藥過程管控等方面帶來革命性的進步,使植保作業(yè)數(shù)據(jù)化、透明化,全過程可觀化可控制,推動農(nóng)業(yè)生產(chǎn)管理從機械化向智能化和智慧化邁進。
關(guān)鍵詞:無人機;植保;智能;感知;施藥
中圖分類號:S251? ? ? ? ? ? ? ? ? 文獻標志碼:A? ? ? ? ? ? ?文章編號:201812-SA025
徐? ?旻, 張瑞瑞, 陳立平, 唐? 青, 徐? 剛. 智能化無人機植保作業(yè)關(guān)鍵技術(shù)及研究進展[J]. 智慧農(nóng)業(yè)2019,1(2): 20-33.
Xu M, Zhang R, Chen L, Tang Q, Xu G. Key technology analysis and research progress of UAV intelligent plant protection[J]. Smart Agriculture, 2019, 1(2): 20-33.(in Chinese with English abstract)
1? 引言
在信息技術(shù)的推動下,現(xiàn)代航空技術(shù)迅速發(fā)展,尤其是無人機相關(guān)技術(shù)和應(yīng)用成爆發(fā)態(tài)勢,從軍事打擊和戰(zhàn)場偵查,到工業(yè)現(xiàn)場電力自動巡檢和交通執(zhí)法,再到日常農(nóng)業(yè)植保施藥和攝影娛樂,無人機系統(tǒng)已廣泛應(yīng)用于生產(chǎn)生活的各個領(lǐng)域。農(nóng)業(yè)航空應(yīng)用是現(xiàn)代農(nóng)業(yè)的重要組成部分和反映農(nóng)業(yè)現(xiàn)代化水平的重要標志。與歐美發(fā)達國家相比,我國農(nóng)業(yè)航空技術(shù)起步較晚,但通過近年來的高速發(fā)展,目前中國農(nóng)業(yè)航空已經(jīng)由最初的有人駕駛航空器作業(yè)為主發(fā)展到有人駕駛和無人駕駛航空器作業(yè)并存的局面,尤其是無人機植保作業(yè)規(guī)模、面積已位居世界前列[1-3]。植保無人機可集成智能飛控系統(tǒng)、復(fù)合光電吊艙、精準變量噴施設(shè)備等多種新型任務(wù)載荷,對作物進行遙感信息獲取和定量定點精準施藥,同時利用自身旋翼下洗風場特性,加速霧滴沉積到作物冠層表面,具有復(fù)雜地形適應(yīng)性強、作業(yè)效率高、施藥穿透性好的優(yōu)勢[4,5]。2014年,在美國麻省理工學院發(fā)布的《MIT技術(shù)評論》中,將農(nóng)業(yè)無人機技術(shù)作為第一位,列為年度十大突破性科技創(chuàng)新技術(shù)。農(nóng)業(yè)農(nóng)村部2015年2月印發(fā)了《到2020年化肥使用量零增長行動方案》和《到2020年農(nóng)藥使用量零增長行動方案》,明確提出了“精準施肥減量”的要求,進一步推動了以無人機植保為代表的超低量作業(yè)模式的發(fā)展。
農(nóng)業(yè)植保無人機系統(tǒng)由無人機飛行平臺、航空噴灑作業(yè)設(shè)備、作業(yè)管理與監(jiān)控系統(tǒng)組成,是涉及到航空飛行器、信息技術(shù)、流體力學、農(nóng)業(yè)植保等多技術(shù)領(lǐng)域交叉融合的復(fù)雜作業(yè)系統(tǒng)。無人機植保作業(yè)面臨非常復(fù)雜的環(huán)境條件,一方面其超低空作業(yè),地面構(gòu)筑物和農(nóng)田基本水電設(shè)施的會影響其飛行安全;另一方面植保作業(yè)實效性強,需要在規(guī)定的時間段將藥劑噴灑至作物特定的部位,才能保證較好的施藥效果。針上述作業(yè)技術(shù)需求,科研人員在非結(jié)構(gòu)化條件下的環(huán)境實時感知、基于作物病蟲害智能識別的智能作業(yè)決策方法、基于風場霧滴沉積模型的變量對靶施藥控制、以及基于數(shù)據(jù)的作業(yè)評價領(lǐng)域投入了大量研究,將人工智能技術(shù)、并行計算技術(shù)以及智能硬件等方面取得的突破性方法和技術(shù)手段,引入到農(nóng)業(yè)航空作業(yè)應(yīng)用中,使無人機植保技術(shù)向著智能化、系統(tǒng)化、精準化方向發(fā)展。
本研究從農(nóng)情遙感探測、作業(yè)過程優(yōu)化控制、施藥效果監(jiān)管評估三部分對智能化農(nóng)業(yè)無人機技術(shù)發(fā)展研究現(xiàn)狀進行論述,總結(jié)了近年來農(nóng)業(yè)無人機領(lǐng)域代表性技術(shù)成果,同時對未來智能農(nóng)業(yè)無人機技術(shù)發(fā)展趨勢進行了分析預(yù)測。
2? 作業(yè)環(huán)境及對象感知探測
2.1? 前端作物長勢信息智能探測
2.1.1? 多光譜傳感器獲取的作物長勢信息
采用微小型無人機搭載多種傳感器遙感信息平臺獲取農(nóng)田作物信息,具有運行成本低、靈活性高以及獲取數(shù)據(jù)時效性高等特點。
日本長崎大學學者谷口等[6]采用小無人機搭載5波段近紅外相機和可見光相機對稻米梯田進行低空遙感影像采集,獲取了植被覆蓋指數(shù)(Normalized Difference Vegetation Index,NDVI)數(shù)據(jù)和水蒸發(fā)量之間的相互關(guān)系。楊貴軍等[7-10]利用光譜輻射儀和成像光譜儀在冬小麥試驗田進行空地聯(lián)合試驗,基于獲取的孕穗期、開花期以及灌漿期地面數(shù)據(jù)和無人機高光譜遙感數(shù)據(jù),實現(xiàn)了估測冬小麥葉面積指數(shù)(Leaf Area Index,LAI);同時基于無人機搭載的多傳感器平臺開發(fā)了作物表型信息獲取裝備,對作物表型特征快速采集和解析,反演作物NDVI、株高、葉綠素含量、病害易感性、干旱脅迫敏感性、含氮量、產(chǎn)量等關(guān)鍵信息。Patrick等[11]利用植物反射的可見光和近紅外光來研究花生健康狀況,運用無人機遙感方式采集了20種不同基因類型花生的番茄斑萎病的表型特征,通過對比地面調(diào)查獲得的發(fā)病率真值,依據(jù)作物表型光譜圖像特征構(gòu)造植被指數(shù),建立被感染情況的評估模型,進而確定疾病檢測的最佳植被指數(shù)和圖像分布特征。Albetis等[12]利用無人機搭載多光譜傳感器,對葡萄黃體病發(fā)病的藤蔓進行識別,采用單變量和多變量聚類算法,有效識別發(fā)病的紅葡萄藤,通過并剪除發(fā)病藤蔓,避免病體擴散。在向日葵種植區(qū)域雜草識別中,小型無人機可搭載多光譜傳感器和相機,快速獲取小區(qū)內(nèi)種苗和雜草的圖像,利用圖像處理技術(shù)對各種雜草分布情況進行估計,為在向日葵生長早期進行雜草清除提供依據(jù)[13]。通過上述研究發(fā)現(xiàn),對多光譜傳感器圖像的解析,可精準獲得作物病害在某些光譜段上的量化特征參數(shù),為作物病害識別提供精準的監(jiān)測手段。
2.1.2? 基于深度學習的遙感影像處理
農(nóng)業(yè)遙感信息處理主要集中在對獲取圖像信息的反演,因此,基于深度學習的人工智能模式識別技術(shù)也在農(nóng)業(yè)遙感信息處理領(lǐng)域表現(xiàn)出巨大潛力。將傳統(tǒng)的隨機森林分類算法和基于卷積神經(jīng)網(wǎng)絡(luò)的深度學習方法用于衛(wèi)星影像處理,對比其結(jié)果顯示,在存在云霧干擾的情況下,深度學習方法對玉米、大豆等作物的分類識別能力遠高于傳統(tǒng)隨機森林方法[14]。過去統(tǒng)計樹上的果實會耗費大量的人力,但是采用深度學習的圖像識別算法,可快速對桔子、蘋果的產(chǎn)量進行統(tǒng)計,同時通過基于果實形態(tài)特征的識別可快速識別出果實缺陷,實現(xiàn)按品質(zhì)智能分類[15]。針對受紅脂大小蠹危害的油松林,孫鈺等[16]用無人機獲取遙感影像圖片,訓練精簡的SSD300目標檢測框架,即可直接識別無人機航片,無需校正拼接,降低模型的參數(shù)數(shù)量和運算量,加快檢測速度?;谏疃葘W習的圖像處理顛覆了傳統(tǒng)圖像聚類方法,將農(nóng)業(yè)遙感技術(shù)人員從圖像算法研究轉(zhuǎn)向?qū)μ镩g信息樣本的采集和積累,最大限度的發(fā)揮了農(nóng)業(yè)信息化過程中遙感大數(shù)據(jù)樣本作用。
2.2? 農(nóng)田環(huán)境的動態(tài)感知
農(nóng)田作業(yè)環(huán)境是極其復(fù)雜的非結(jié)構(gòu)化地表區(qū)域,作物本身、農(nóng)田水利設(shè)施、構(gòu)筑物交錯并存,且經(jīng)常發(fā)生相對位置變化。要實現(xiàn)自主對靶和安全作業(yè),需要解決無人機和作物冠層相對位置、以及無人機和田間各種障礙物相對位置的實時獲取的問題。應(yīng)用智能化的光電探測和模式識別手段獲得環(huán)境中各種非作業(yè)目標的基本尺度特征、類型屬性等關(guān)鍵信息,對環(huán)境中各種對象的靜態(tài)特征和動態(tài)運動趨勢進行在線觀測可解決上述問題,因此,面向田間作業(yè)環(huán)境的感知技術(shù)已成為農(nóng)業(yè)無人機自主作業(yè)的必要條件[17]?;跈C器視覺和多傳感器融合的智能模式識別方法,為此類應(yīng)用需求提供了有效的解決途徑。在丘陵或地形起伏區(qū)域,作物冠層與無人機的相對高度信息對作業(yè)效果和飛行安全至關(guān)重要,采用新型微波雷達傳感器和氣壓高度計、GNSS、慣性測量單元等多傳感器融合方式,可以有效地測量無人機機體相對地面及作物冠層的高度,實現(xiàn)仿地跟蹤飛行[18],如圖3所示。
2.2.1? ?激光雷達對環(huán)境信息進行SLAM感知
為了獲得更精確的環(huán)境信息,學者們采用掃描式激光雷達傳感器對環(huán)境進行即時定位與地圖構(gòu)建(Simultaneous localization and mapping,SLAM),利用雷達測距信息生成周圍環(huán)境的稀疏點云數(shù)據(jù),獲得障礙物或標記點與機體的相對距離、方向、以及物體輪廓特征,對相對位置速度誤差進行估計,結(jié)合慣性測量數(shù)據(jù)和外部障礙物或標記點信息作為觀測量,通過擴展卡爾曼濾波(Extended Kalman Filter,EKF)、無損卡爾曼濾波(Unscented Kalman Filter,UKF)等算法,消除累計誤差[19-22]。在使用雷達等飛行時間(Time of Flight,TOF)傳感器獲得距離信息時,同步引入與距離、視線角相關(guān)的反射信號強度信息,對SALM建模觀測方程進行增廣,可進一步降低3D環(huán)境中的建模誤差[23]。為了便于驗證各種SLAM感知算法,Gazebo simulator等SLAM開發(fā)仿真環(huán)境也開始被應(yīng)用于農(nóng)業(yè)。Habibie等[24]采用激光雷達和可見光雙目視覺的方式,開發(fā)了果園SLAM系統(tǒng),系統(tǒng)基于激光雷達對環(huán)境中障礙物和樹木進行建模,基于可見光視覺系統(tǒng)對果實位置進行探測,并對果實品質(zhì)進行估計,最后在Gazebo中進行仿真驗證,仿真結(jié)果顯示該方法能有效對果園內(nèi)的環(huán)境進行實時建模,為植保作業(yè)提供對靶信息。系統(tǒng)工作過程如圖4所示。
2.2.2? 機器視覺空間物體建模
目前運用可見光或雙目視覺圖像對環(huán)境和物體視覺特征信息進行提取,再運用光流場速度算法及投影變換方法對視場中障礙物的相對位置、速度進行最優(yōu)估計的方式,已經(jīng)取得了很大的發(fā)展,并已經(jīng)具備應(yīng)用于無人機植保作業(yè)的技術(shù)條件。通過采用多個傳感器的視覺圖像對物體進行空間三維建模和運動狀態(tài)估計,并對稀疏點云數(shù)據(jù)加密,可精確再現(xiàn)周圍三維環(huán)境空間的物體分布坐標信息[25,26]。無人機控制系統(tǒng)利用這些環(huán)境狀態(tài)信息完成自主作業(yè)飛行決策,可實現(xiàn)在復(fù)雜作業(yè)環(huán)境中的安全對靶作業(yè)。
3? 精準施藥過程建模與優(yōu)化控制
3.1? 霧滴沉積運動建模
不同于地面植保機械,無人機航空植保作業(yè)時無法深入作物冠層中施藥,只能通過旋翼風場裹挾霧滴到達作物病害部位,因此無人機植保效果受旋翼下洗氣流、環(huán)境風場、飛行高度、作業(yè)速度等多種因素影響[27]。要想達到精準變量施藥的目的,必須對噴頭所在風場和噴頭霧化參數(shù)之間的耦合關(guān)系展開研究,建立霧滴沉積漂移過程的動力學模型,從而實現(xiàn)對霧滴有效沉積區(qū)域的實時預(yù)測,為控制系統(tǒng)精準施藥提供依據(jù)。
3.1.1? ?霧滴沉積特性研究
國內(nèi)外針對無人機施藥霧滴沉積特性的研究已經(jīng)開展了多年,目前常用的研究手段為田間布點試驗,對試驗數(shù)據(jù)進行定量統(tǒng)計,獲得樣本的沉積點密度、粒徑等。此種方式可對霧滴沉積效果進行量化評價,并在一定程度上獲取霧滴沉積飄移與飛行高度、霧滴粒徑大小、噴頭布局和外部氣象條件之間的影響關(guān)系和經(jīng)驗公式[28,29]。但此類試驗受到環(huán)境條件和現(xiàn)有儀器技術(shù)水平的影響,只能對最終沉積結(jié)果進行靜態(tài)觀測,無法獲得霧滴在噴頭和風場作用下的運動過程及沉積穿透作用機理,難以形成通用的模型及結(jié)論。美國在1979年就開始基于固定翼有人機尾渦運動模型及高斯分布方法的建立霧滴飄移預(yù)測模型,并研發(fā)相關(guān)軟件AGDISP[30]。唐青等[31,32]基于計算流體動力學(Computational Fluid Dynamics,CFD)模擬獲得了固定翼有人機在不同作業(yè)條件下的
霧滴沉積飄移模型,如圖5所示。高精度格式CFD模擬旋翼翼尖渦與試驗結(jié)果對比如圖6、圖7所示。
3.1.2? ?復(fù)雜流場湍流模型數(shù)值求解
無人旋翼植保機的下洗氣流結(jié)構(gòu)復(fù)雜,針對其霧滴沉積漂移預(yù)測的模型已經(jīng)成為新的研究熱點。在數(shù)值計算方法研究方面,高精度格式瞬態(tài)算法具有較好模擬精度,但是主要用于基礎(chǔ)的風場結(jié)構(gòu)研究領(lǐng)域,未結(jié)合地面作業(yè)和霧滴運動模型;而在行業(yè)應(yīng)用主要以定常流平均場模擬為主,注重對實際作業(yè)條件及霧滴運動的模擬[33,34]。
綜合目前的研究結(jié)果分析,針對農(nóng)用無人機面臨的近地面復(fù)雜流場環(huán)境,要獲得較為真實的渦管三維運動仍需高精度瞬態(tài)算法和大量計算周期,難以直接應(yīng)用,而采用基于雷諾平均方法(Reynolds Average Navier-Stokes,RANS)湍流模型數(shù)值求解N-S方程,通過優(yōu)化自適應(yīng)網(wǎng)格
和并行算法,可降低計算周期,提高系統(tǒng)的實用性[35-37]。在噴霧模型構(gòu)建方面,目前仍以非接觸式測量方法為主,通過激光衍射、高速粒子圖像測速等手段,對特定噴頭、助劑、噴桿結(jié)構(gòu)布局、管路壓力等噴施參數(shù)下的霧滴粒徑及速度的空間分布進行測量,獲得無人機施藥作業(yè)的噴霧模型。基于羅辛-拉姆勒(Rosin-Rammler)分布模型簡化后,與無人機風場模型進行耦合,求解離散相霧滴的運動軌跡,從而實現(xiàn)霧滴沉積飄移規(guī)律的預(yù)測,以達到對作業(yè)過程中藥劑覆蓋區(qū)域與飄移特性的估計和規(guī)避施藥作業(yè)風險的目的。
3.1.3? 精準施藥控制及先進霧化
無人機施藥主要面向小地塊區(qū)域,具有超低量、高精度的特點,需要將飛行導航控制信息與精準變量控制結(jié)合起來,依據(jù)飛行及作業(yè)狀態(tài)信息的關(guān)鍵參數(shù)來實現(xiàn)精準變量噴灑控制,主要包括作業(yè)飛行控制技術(shù)、流量精準檢測、流量輸出控制、噴頭霧化控制四方面技術(shù)。無人機的噴灑系統(tǒng)管路結(jié)構(gòu)布局緊湊,采用傳統(tǒng)的渦輪計數(shù)式流量計響應(yīng)速度慢,且需要對管路進行改造,不利于應(yīng)用,而超聲非接觸式流量傳感器精度高響應(yīng)快,且不影響系統(tǒng)管路,將逐步取代現(xiàn)有渦輪流量計。流量控制仍以傳統(tǒng)的功率調(diào)節(jié)控制泵流量的方式為主,目前逐步引入機體姿態(tài)、位置、飛行速度、作業(yè)相對高度、以及環(huán)境氣象條件等參數(shù),共同完成控制決策,獲得最佳的施藥回收效果和沉積精度[38-41]。隨著微機電系統(tǒng)(Micro-Electro-Mechanical System,MEMS)技術(shù)的發(fā)展,直接對單一噴頭的獨立控制必將成為未來研究的重點。在霧化技術(shù)方面,通過實際作業(yè)測試,采用電機控制的離心霧化噴頭具有霧滴粒徑譜分布窄,霧化幅寬大的特點,相對于壓力噴頭和液力霧化噴頭的效果有明顯的優(yōu)勢,目前已進入商用階段[42-44]。無人機靜電噴頭具有霧滴漂移小,附著力高的特點[45]。何雄奎等[46]針對航空施藥植保無人機設(shè)計了雙極性接觸式航空機載靜電噴霧系統(tǒng),在輕型油動直升機上對噴施油劑和水的電荷與霧化效果進行了測試,結(jié)果表明此類靜電噴頭與油劑配合使用,可有效提高霧滴沉積分布均勻性。國外學者在噴頭技術(shù)上也已經(jīng)開展多年的研究,從通用噴頭、靜電噴頭、抗漂移噴頭、逐步轉(zhuǎn)向精準變量噴頭。Daggupati[47]將微機電系統(tǒng)和噴頭進行集成設(shè)計,通過微型電磁閥開關(guān)動作來調(diào)解噴口出水量,實現(xiàn)變量噴霧作業(yè)。Funseth等[48]采用步進電機驅(qū)動流量調(diào)節(jié)轉(zhuǎn)盤轉(zhuǎn)動的方式改變流體噴嘴的流體入口尺寸,從而實現(xiàn)變量噴灑。MEMS系統(tǒng)技術(shù)將控制、執(zhí)行機構(gòu)進一步小型化,精細化調(diào)解噴灑霧滴譜進行抗漂移和精準變量施藥已經(jīng)成為新的研究趨勢。
3.2? 作業(yè)路徑最優(yōu)算法
植保無人機載荷和續(xù)航能力較弱,且作業(yè)區(qū)域多為分散的小面積不規(guī)則區(qū)域,如何進行有效的作業(yè)路徑優(yōu)化,減少農(nóng)業(yè)無人機作業(yè)過程無效的非作業(yè)飛行距離和時間具有重要意義。目前國內(nèi)外農(nóng)業(yè)無人機作業(yè)路徑規(guī)劃主要采用全覆蓋算法,即規(guī)劃路徑必須對作業(yè)空間實現(xiàn)完全的覆蓋。首先采用單元分解方式,參考地面作業(yè)機具工作模式,將作業(yè)區(qū)域按種植方向以梯形方式、柵格、維諾圖(Voronoi diagram)等方式進行分割,在分割區(qū)域基礎(chǔ)上進行單元分解和數(shù)字標記,然后再運用A*、動態(tài)規(guī)劃(Travelling Salesman Problem,TSP)、遺傳算法(Genetic Algorithm,GA)等優(yōu)化搜索算法,最終使轉(zhuǎn)彎、往返加藥點等無效作業(yè)路徑長度最短或作業(yè)能耗最小[49]。
農(nóng)業(yè)植保無人機作業(yè)路徑規(guī)劃方法研究目前主要圍繞單一區(qū)域多架次作業(yè)和多個非連通區(qū)域作業(yè)調(diào)度兩個方面開展。
3.2.1? 單一區(qū)域多架次作業(yè)路徑規(guī)劃
在單一區(qū)域中,由于種植方向約束,植保無人機作業(yè)通常采用單一方向規(guī)則往復(fù)的“牛耕法”,當藥劑用完時再返回加藥點補充藥劑繼續(xù)作業(yè),這種方式作業(yè)中,地頭轉(zhuǎn)彎和多架次往返加藥距離會因為作業(yè)規(guī)劃不同而有很大差異,導致不必要的非作業(yè)能耗損失(圖8、圖9)。為了便于將計算智能引入作業(yè)路徑規(guī)劃中,柵格法被普遍用于構(gòu)建作業(yè)環(huán)境描述模型,一方面可對作業(yè)區(qū)域進行精細到作業(yè)幅寬量級的數(shù)值化描述,另一方面有利于和GIS系統(tǒng)進行坐標的轉(zhuǎn)化,將平面坐標點陣和大地坐標系映射關(guān)聯(lián)起來。在區(qū)域柵格化后,根據(jù)區(qū)域面積、形狀、作業(yè)航向方向、底邊距離,為相應(yīng)柵格賦予作業(yè)概率,優(yōu)先選擇概率高的柵格行進作業(yè),同時以往返飛行、電池更換、藥劑裝填等非植保作業(yè)能耗最小為目標函數(shù),通過采用引力搜索等智能搜索方法,實現(xiàn)對返航點數(shù)量與位置的尋優(yōu),進而優(yōu)化作業(yè)路徑[50-54]。
3.2.2? 多個非聯(lián)通區(qū)域多架次作業(yè)路徑規(guī)劃
對于多個非連通區(qū)域作業(yè)問題(圖10),先對單個作業(yè)區(qū)域進行局部作業(yè)路徑規(guī)劃,再將各區(qū)域作業(yè)順序進行編碼,采用遺傳算法進行多個區(qū)域間飛行作業(yè)任務(wù)優(yōu)化調(diào)度,從而最終優(yōu)化整個全過程作業(yè)路徑,提高無人機作業(yè)效率,目前通過仿真和示范試驗已證明此方法的有效性[55]。多機協(xié)同植保作業(yè)路徑規(guī)劃及分配技術(shù)可充分發(fā)揮植保無人機低成本,易于使用的特點。Luo等[56]依據(jù)無人機動力學特性約束和作業(yè)區(qū)域杜賓曲線(Dubins)距離參數(shù),構(gòu)造基于時間窗和作業(yè)方向的多機作業(yè)效益函數(shù),利用遺傳算法設(shè)計多機協(xié)同作業(yè)路徑規(guī)劃算法,優(yōu)化路徑分配,提高作業(yè)效率。目前多機協(xié)同植保施藥作業(yè)路徑規(guī)劃技術(shù)研究尚處于起步階段,需要進一步開展依據(jù)無人機作業(yè)能力參數(shù)和施藥覆蓋效果的全局作業(yè)路徑規(guī)劃算法的研究。
4? 作業(yè)效果綜合評估與過程監(jiān)管
4.1? 植保施藥效果的綜合評價
植保施藥的霧滴分布特性重要評價指標包括回收率和均勻性等,其中霧滴的回收率是檢驗藥液沉積量的直接指標,沉降藥液的均勻性是反映作業(yè)沉積質(zhì)量的重要指標[57]。傳統(tǒng)的霧滴沉積測量方法利用聚乙烯軟管、聚乙烯板、霧滴采集卡、水敏紙、棉線和熒光紙帶等采集農(nóng)藥霧滴分布,通過顯微鏡或圖像軟件分析霧滴覆蓋率和霧滴密度。在藥劑中添加示蹤劑可估測農(nóng)藥沉積量、覆蓋范圍、霧滴粒徑大小等參數(shù)[58]。利用無人機高光譜成像技術(shù)獲取的葉片區(qū)域藥液的光譜信息,可用于分析葉片施藥后的藥效;對獲取的藥物云團探測區(qū)域霧滴分布的紅外成像光譜進行特征分析,能夠反演藥物云團濃度圖像,并對霧滴漂移情況進行觀測[59]。地面藥效評估將逐漸從單純的作業(yè)后效果評價向作業(yè)中信息反饋,形成實時作業(yè)閉環(huán)。張瑞瑞等[60]基于電容傳感器原理設(shè)計開發(fā)了一款分布式霧滴沉積傳感器及檢測軟件,該系統(tǒng)能夠監(jiān)測霧滴從沉積到蒸發(fā)隨時間變化的全過程并將數(shù)據(jù)實時獲取、回傳、以及統(tǒng)計處理,具備了實時沉積效果評估的能力。新型傳感器和物聯(lián)網(wǎng)技術(shù)的應(yīng)用豐富了作業(yè)效果評估的技術(shù)手段,探索并實現(xiàn)大閉環(huán)施藥作業(yè)將成為新的熱點。
4.2? 基于云端數(shù)據(jù)管理的作業(yè)過程監(jiān)管
植保無人機應(yīng)用呈爆發(fā)態(tài)勢,其作業(yè)過程產(chǎn)生大量的數(shù)據(jù)和服務(wù)信息,采用物聯(lián)網(wǎng)技術(shù),可對無人機作業(yè)全過程數(shù)據(jù)進行采集、分析、管理,實現(xiàn)對農(nóng)作物長勢、病蟲害爆發(fā)趨勢、藥劑使用綜合效果、種植面積變化趨勢和區(qū)域產(chǎn)量等信息進行動態(tài)預(yù)測[61,62]。陳立平等通過采用“機載終端+網(wǎng)絡(luò)云服務(wù)器”的應(yīng)用模式,在無人機體上加裝關(guān)鍵作業(yè)狀態(tài)信息傳感器和移動數(shù)據(jù)通信模塊,所采集的作業(yè)高度、流量和飛行速度等信息,可直接通過公共數(shù)據(jù)網(wǎng)絡(luò)上傳至數(shù)據(jù)服務(wù)器,再運用多指標約束的架次面積統(tǒng)計方法統(tǒng)計作業(yè)量,評估作業(yè)質(zhì)量,最終可獲得區(qū)域總作業(yè)量、病蟲害類型、基本作業(yè)效果和藥劑使用量估計等宏觀信息。
5? 問題及建議
智能無人機植保是目前精準農(nóng)業(yè)領(lǐng)域熱點技術(shù),表現(xiàn)出巨大的發(fā)展?jié)摿?,但還需要在下列方面開展進一步研究探索:
(1)進一步開展基于遙感、地面?zhèn)鞲衅鲾?shù)據(jù)的多源信息融合智能作業(yè)決策方法的研究,引入固態(tài)激光雷達等新型復(fù)合光電探測技術(shù),構(gòu)建針對典型病蟲害的多源信息樣本庫,加強實時環(huán)境感知和精準對靶技術(shù)研究。
(2)目前的無人機用噴灑器械技術(shù)對尚未達到高穿透性、窄霧滴粒徑譜的作業(yè)要求,需要進一步結(jié)合MEMS技術(shù)、可控材料技術(shù)、探索霧滴形成機理,創(chuàng)新噴灑器械結(jié)構(gòu)、控制方法,形成精準粒徑譜控制裝置。
(3)隨著作業(yè)經(jīng)驗的積累和智能規(guī)劃方法的引入,模擬仿真和快速數(shù)字推演技術(shù)使大部分過程狀態(tài)變量在實際作業(yè)之前就已經(jīng)被準確的估計出來,在此基礎(chǔ)上可以開展基于虛擬樣本的強化學習算法研究,探索障礙物規(guī)避和多機協(xié)同避碰的智能植保作業(yè)路徑規(guī)劃方法。
智能化植保無人機植保作業(yè)已成為未來精準農(nóng)業(yè)領(lǐng)域最具有前景的技術(shù),必將引起新一輪農(nóng)業(yè)生產(chǎn)技術(shù)變革,從而對農(nóng)業(yè)無人機植保技術(shù)的研發(fā)、應(yīng)用造成深遠的影響。
參考文獻
[1]? ?陳曉明, 王程龍, 薄瑞. 中國農(nóng)藥使用現(xiàn)狀及對策建議[J]. 農(nóng)藥科學與管理, 2016(2): 4-8.
Chen X, Wang C, Bo R. Current situation of Chinese pesticide application and policy suggestions[J]. Pesticide Science and Administration, 2016(2): 4-8.
[2]? ?楊陸強, 果霖, 朱加繁, 等. 我國農(nóng)用無人機發(fā)展概況與展望[J]. 農(nóng)機化研究, 2017, 39(8): 6-11.
Yang L, Guo L, Zhu J, et al. The development situation and prospect of agricultural UAV in China[J]. Journal of Agricultural Mechanization Research, 2017, 39(8): 6-11.
[3]? ?婁尚易, 薛新宇, 顧偉, 等. 農(nóng)用植保無人機的研究現(xiàn)狀及趨勢[J]. 農(nóng)機化研究, 2017(12): 1-6.
Lou S, Xue X, Gu W, et al. Current status and trends of agricultural plant protection unmanned aerial vehicle[J]. Journal? of? Agricultural? Mechanization? Research, 2017
(12): 1-6.
[4]? ?周志艷, 臧英, 羅錫文, 等. 中國農(nóng)業(yè)航空植保產(chǎn)業(yè)技術(shù)創(chuàng)新發(fā)展戰(zhàn)略[J]. 農(nóng)業(yè)技術(shù)與裝備, 2014(5): 19-25.
Zhou Z, Zang Y, Luo X, et al. Development strategy of technological innovation and innovation of Chinese agricultural aviation plant protection industry[J]. Agricultural Technology and Equipment, 2014(5): 19-25.
[5]? ?尹選春, 蘭玉彬, 文晟, 等. 日本農(nóng)業(yè)航空技術(shù)發(fā)展及對我國的啟示[J]. 華南農(nóng)業(yè)大學學報, 2018, 39(02): 1-8.
Yin X, Lan Y, Wen S, et al. The development of Japan agricultural aviation technology and its enlightenment for China[J]. Journal of South China Agricultural University, 2008, 39(02): 1-8.
[6]? ?Gu K, Xing M, Ri G. Evapotranspiration estimate in microscale at Onigi rice terraces using UAV[J]. Research Report of Engineering Research Department of University of Nagasaki, 2018, 48.
[7]? ?高林, 楊貴軍, 于海洋, 等. 基于無人機高光譜遙感的冬小麥葉面積指數(shù)反演[J]. 農(nóng)業(yè)工程學報, 2016, 32(22): 113-120.
Gao L, Yang G, Yu H, et al. Retrieving winter wheat leaf area index based on unmanned aerial vehicle hyperspectral remote sensing[J]. Transactions of the CSAE, 2016, 32(22): 113-120.
[8]? ?劉建剛, 趙春江, 楊貴軍, 等. 無人機遙感解析田間作物表型信息研究進展[J]. 農(nóng)業(yè)工程學報, 2016, 32(24): 98-106.
Liu J, Zhao C, Yang G, et al. Review of field-based phenotyping by unmanned aerial vehicle remote sensing platform[J]. Transactions of the CSAE, 2016, 32(24): 98-106.
[9]? ?Yue J, Feng H, Yang G, et al. A comparison of regression techniques for estimation of above-ground winter wheat biomass using near-surface spectroscopy[J]. Remote Sensing, 2018, 10(1): 66.
[10]? 高林, 楊貴軍, 李紅軍, 等. 基于無人機數(shù)碼影像的冬小麥葉面積指數(shù)探測研究[J]. 中國生態(tài)農(nóng)業(yè)學報, 2016, 24(9): 1254-1264.
Gao L, Yang G, Li H, et al. Winter wheat LAI estimation using unmanned aerial vehicle RGB-imaging[J]. Chinese Journal of Eco-Agriculture, 2016, 24(9): 1254-1264.
[11]? Patrick A, Pelham S, Culbreath A, et al. High throughput phenotyping of tomato spot wilt disease in peanuts using unmanned aerial systems and multispectral imaging[J]. IEEE Instrumentation & Measurement Magazine, 2017, 20(3): 4-12.
[12]? Albetis J, Duthoit S, Guttler F, et al. Detection of Flavescence dorée Grapevine disease using unmanned aerial vehicle (UAV) multispectral imagery[J]. Remote Sensing, 2017, 9(4): 308.
[13]? Torres-San J, La3Pez-Granados F, De Castro A I, et al. Configuration and specifications of an unmanned aerial vehicle (UAV) for early site specific weed management[J]. PLoS One, 2013, 8(3): e58210.
[14]? Kussul N , Lavreniuk M , Skakun S , et al. Deep learning classification of land cover and crop types using remote sensing data[J]. IEEE Geoscience and Remote Sensing Letters, 2017, 14(5): 778-782.
[15]? Chen S W , Shivakumar S S , Dcunha S , et al. Counting apples and oranges with deep learning: a data-driven approach[J]. IEEE Robotics and Automation Letters, 2017, 2(2): 781-788.
[16]? 孫鈺, 周焱, 袁明帥, 等. 基于深度學習的森林蟲害無人機實時監(jiān)測方法[J]. 農(nóng)業(yè)工程學報, 2018, 34(21): 82-89.
Sun Y, Zhou Y, Yuan M, et al. UAV real-time monitoring for forest pest based on deep learning[J]. Transactions of the CSAE, 2018, 34(21): 82-89.
[17]? Zhu H, Yuen K V, Mihaylova L, et al. Overview of environment perception for intelligent vehicles[J]. IEEE Transactions on Intelligent Transportation Systems, 2017, 18(10): 2584-2601.
[18]? Xu M, Tang Q, Cen L, et al. Research on relative height measurement based on multi-sensor fusion technology[C]. In: 2nd Proceedings of Frontiers of Sensors Technologies (ICFST), 2017 2nd International Conference on. 14-16 April 2017. Shenzhen, China.
[19]? Pierzcha a M, Giguère P, Astrup R. Mapping forests using an unmanned ground vehicle with 3D LiDAR and graph-SLAM[J]. Computers and Electronics in Agriculture, 2018, 145: 217-225.
[20]? Gee T, James J, Mark W V D, et al. Lidar guided stereo simultaneous localization and mapping (SLAM) for UAV outdoor 3-D scene reconstruction[C]. International Conference on Image and Vision Computing New Zealand. IEEE, 2017: 1-6.
[21]? Fink G K. Observer design for visual inertial SLAM scale on a quadrotor UAV[C]. International Conference on Unmanned Aircraft Systems. 2017.
[22]? Shinohara T, Namerikawa T. SLAM for a small UAV with compensation for unordinary observations and convergence analysis[C]. Society of Instrument and Control Engineers of Japan. IEEE, 2016: 1252-1257.
[23]? Hewitt R A, Marshall J A. Towards intensity-augmented SLAM with LiDAR and ToF sensors[C]//International Conference on Intelligent Robots and Systems. IEEE, 2016: 1956-1961.
[24]? Habibie N, Nugraha A M, Anshori A Z, et al. Fruit mapping mobile robot on simulated agricultural area in Gazebo simulator using simultaneous localization and mapping SLAM)[C]. International Symposium on Micro-Nanomechatronics and Human Science. 2017: 1-7.
[25]? Trujillo J C, Munguia R, Guerra E, et al. Cooperative monocular-based SLAM for multi-UAV systems in GPS-denied environments [J]. Sensors, 2017, 1(10): 737.
[26]? Schmuck P, Chli M. Multi-UAV collaborative monocular SLAM[C]. IEEE International Conference on Robotics and Automation. IEEE, 2017: 3863-3870.
[27]? Hewitt A J, Johnson D R, Fish J D, et al. Development of the spray drift task force database for aerial applications[J]. Environmental Toxicology & Chemistry, 2002, 21(3): 648-658.
[28]? Zhang S, Xue X, Sun Z, et al. Downwash distribution of single-rotor unmanned agricultural helicopter on hovering state[J]. International Journal of Agricultural & Biological Engineering, 2017, 10(5): 14-24.
[29]? Chen S, Lan Y, Li J, et al. Effect of wind field below unmanned helicopter on droplet deposition distribution of aerial spraying[J]. International Journal of Agricultural and Biological Engineering, 2017, 10(3): 67-77.
[30]? Teske M E, Thistle H W, Schou W C, et al. A review of computer models for pesticide deposition prediction[J]. Transactions of the ASABE, 2011, 54(3): 789-801.
[31]? Zhang B, Tang Q, Chen L, et al. Numerical simulation of spray drift and deposition from a crop spraying aircraft using a CFD approach[J]. Biosystems Engineering, 2018, 166: 184-199.
[32]? Zhang B, Tang Q, Chen L, et al. Numerical simulation of wake vortices of crop spraying aircraft close to the ground[J]. Biosystems Engineering, 2016, 145: 52-64.
[33]? Lakshminarayan V K, Kalra T S, Baeder J D. Detailed computational investigation of a hovering microscale rotor in ground effect[J]. AIAA Journal, 2013, 51(4): 893-909.
[34]? Anthony L, Steven A. Break-up of sprayed emulsions from flat-fan nozzles using a hole kinematics model[J]. Biosystems Engineering, 2018, 169: 104-114.
[35]? Faial B S, Freitas H, Gomes P H, et al. An adaptive approach for UAV-based pesticide spraying in dynamic environments[J]. Computers and Electronics in Agriculture, 2017, 138(C): 210-223.
[36]? Lakshminarayan V K, Kalra T S, Baeder J D. Detailed computational investigation of a hovering microscale rotor in ground effect[J]. AIAA Journal, 2013, 51(4): 893-909.
[37]? Yang F, Xue X, Zhang L, et al. Numerical simulation and experimental verification on downwash air flow of six-rotor agricultural unmanned aerial vehicle in hover[J]. International Journal of Agricultural and Biological Engineering, 2017, 10(4): 41-53.
[38]? 秦維彩. 單旋翼植保無人機噴霧參數(shù)優(yōu)化研究[D]. 鎮(zhèn)江:江蘇大學, 2017.
Qin W. Research on spraying optimization for single-rotor plant protection UAV [D]. Zhenjiang: Jiangsu University, 2017.
[39]? 王大帥, 張俊雄, 李偉, 等. 植保無人機動態(tài)變量施藥系統(tǒng)設(shè)計與試驗[J]. 農(nóng)業(yè)機械學報, 2017, 48(5): 86-93.
Wang D, Zhang J, Li W, et al. Design and test of dynamic variable spraying system of plant protection UAV[J]. Transactions of the CSAM, 2017, 48(5): 86-93.
[40]? 王昌陵, 宋堅利, 何雄奎, 等. 植保無人機飛行參數(shù)對施藥霧滴沉積分布特性的影響[J]. 農(nóng)業(yè)工程學報, 2017, 33(23): 109-116.
Wang C, Song J, He X, et al. Effect of flight parameters on distribution characteristics of pesticide spraying droplets deposition of plant-protection unmanned aerial vehicle[J]. Transactions of the CSAE, 2017, 33(23):
109-116.
[41]? 王玲. 多旋翼植保無人機低空霧滴沉積規(guī)律及變量噴施測控技術(shù)[D]. 北京:中國農(nóng)業(yè)大學, 2017.
Wang L. Research on low-altitude droplets deposition rule and technology of variable spraying measurement and control system based on multi-rotor crop protection UAV[D]. Beijing: China Agricultural University, 2017.
[42]? 王玲, 蘭玉彬, Hoffmann W C, 等. 微型無人機低空變量噴藥系統(tǒng)設(shè)計與霧滴沉積規(guī)律研究[J]. 農(nóng)業(yè)機械學報, 2016, 47(1): 15-22.
Wang L, Lan Y, Hoffmann W C, et al. Design of variable spraying system and influencing factors on droplets deposition of small UAV[J]. Transactions of the CSAM,
2016, 47(1): 15-22.
[43]? 茹煜, 金蘭, 周宏平, 等. 航空施藥旋轉(zhuǎn)液力霧化噴頭性能試驗[J]. 農(nóng)業(yè)工程學報, 2014, 30(3): 50-55.
Ru Y, Jin L, Zhou H, et al. Performance experiment of rotary hydraulic atomizing nozzle for aerial spraying application[J]. Transactions of the CSAE, 2014, 30(3):
50-55.
[44]? 樊榮, 楊福增. 植保常用扇形霧噴頭系列型譜模型研究[J]. 山西農(nóng)業(yè)大學學報(自然科學版), 2016, 36(7): 524-528.
Fan R, Yang F. The research on series spectrum model of fan-spray nozzle in plant protection[J]. Journal of Shanxi Agricultural University (Natural Science Edition), 2016, 36(7): 524-528.
[45]? 劉武蘭, 周志艷, 陳盛德, 等. 航空靜電噴霧技術(shù)現(xiàn)狀及其在植保無人機中應(yīng)用的思考[J]. 農(nóng)機化研究, 2018, 40(5): 1-9.
Liu W, Zhou Z, Chen S, et al. Status of aerial electrostatic spraying technology and its application in plant protection UAV[J]. Journal of Agricultural Mechanization Research, 2018, 40(5): 1-9.
[46]? 王士林, 何雄奎, 宋堅利, 等. 雙極性接觸式航空機載靜電噴霧系統(tǒng)荷電與噴霧效果試驗[J]. 農(nóng)業(yè)工程學報, 2018, 34(7): 82-89.
Wang S, He X, Song J, et al. Charging and spraying performance test of bipolar contact electrostatic spraying system for unmanned aerial vehicle [J]. Transactions of the CSAE, 2018, 34(7): 82-89.
[47]? Daggupati N P. Assessment of the varitarget nozzle for variable rate application of liquid crop protection products[D]. India: ANGR Agricultural University, 2007.
[48]? Funseth T G, Mercer D S, Humpal R A. Sprayer pulsing nozzle flow control using rotational step positions[P]. US, 2014. http://www. faqs. org /patents /app
[49]? Yu X, Roppel T A, Hung J Y. An optimization approach for planning robotic field coverage[C]. IECON 2015, Conference of the IEEE Industrial Electronics Society. IEEE, 2015: 004032-004039.
[50]? Pham T H, Bestaoui Y, Mammar S. Aerial robot coverage path planning approach with concave obstacles in precision agriculture[C]. The Workshop on Research. 2017: 43-48.
[51]? 堯李慧, 蔡曉華, 田雷, 等. 自走式智能牛舍清潔機器人路徑設(shè)計與研究[J]. 農(nóng)機化研究, 2018, 40(1): 51-56.
Yao L, Cai X, Tian L, et al. Design and research of automatic barn cleaner path planning[J]. Journal of Agricultural Mechanization Research, 2018, 40(1): 51-56.
[52]? Cai Z, Li S, Gan Y, et al. Research on complete coverage path planning algorithms based on A* algorithms[J]. Open Cybernetics & Systemics Journal, 2014, 8(1): 418-426.
[53]? 徐博, 陳立平, 譚彧, 等. 基于無人機航向的不規(guī)則區(qū)域作業(yè)航線規(guī)劃算法與驗證[J]. 農(nóng)業(yè)工程學報, 2015(23): 173-178.
Xu B, Chen L, Tan Y, et al. Route planning algorithm and verification based on UAV operation path angle in irregular area [J]. Transactions of the CSAE, 2015(23):
173-178.
[54]? 王宇, 陳海濤, 李煜, 等. 基于Grid-GSA算法的植保無人機路徑規(guī)劃方法[J]. 農(nóng)業(yè)機械學報, 2017, 48(7): 29-37.
Wang Y, Chen H, Li Y, et al. Path planning method based on grid-GSA for plant protection UAV[J]. Transactions of the CSAM, 2017, 48(7): 29-37.
[55]? 徐博. 植保無人機航線規(guī)劃方法研究[D]. 北京: 中國農(nóng)業(yè)大學, 2017.
Xu B. Research on route planning for plant protection unmanned aerial vehicles[D]. Beijing: China Agricultural University, 2017.
[56]? Luo H, Niu Y, Zhu M, et al. Optimization of pesticide spraying tasks via multi-UAVs using genetic algorithm[J]. Mathematical Problems in Engineering, 2017, 2017: 7139157, 1-16.
[57]? Franz E, Bouse L F, Carlton J B, et al. Aerial spray deposit relations with plant canopy and weather parameters[J]. Transactions of the ASABE, 1998, 41(4): 959-966.
[58]? 張瑞瑞, 文瑤, 伊銅川, 等. 航空施藥霧滴沉積特性光譜分析檢測系統(tǒng)研發(fā)與應(yīng)用[J]. 農(nóng)業(yè)工程學報, 2017, 33(24): 80-87.
Zhang R, Wen Y, Yi T, et al. Development and application of aerial spray droplets deposition performance measurement system based on spectral analysis technology[J]. Transactions of the CSAE, 2017, 33(24): 80-87.
[59]? 張東彥, 蘭玉彬, 王秀, 等. 基于中分辨衛(wèi)星影像的農(nóng)用航空噴藥效果評估[J]. 光譜學與光譜分析, 2016, 36 (6): 1971-1977.
Zhang D, Lan Y, Wang X, et al. Assessment of Aerial agrichemical spraying effect using moderate-resolution satellite imagery[J]. Spectroscopy and Spectral Analysis, 2016, 36 (6): 1971-1977.
[60]? 張瑞瑞, 陳立平, 蘭玉彬, 等. 航空施藥中霧滴沉積傳感器系統(tǒng)設(shè)計與實驗[J]. 農(nóng)業(yè)機械學報, 2014, 45(8):123-127.
Zhang R, Chen L, Lan Y, et al. Development of a deposit sensing system for aerial spraying application[J]. Transactions of the CSAM, 2014, 45(8):123-127.
[61]? 吳超瓊, 趙利, 梁鋼, 等. 基于北斗導航系統(tǒng)的無人機飛行監(jiān)管系統(tǒng)設(shè)計[J]. 測控技術(shù), 2017, 36(8): 66-69.
Wu C, Zhao L, Liang G, et al. Design of UAV flight supervision system based on Beidou navigation system [J]. Measurement & Control Technology, 2017, 36(8): 66-69.
[62]? Cambra C, Sendra S, Lloret J, et al. An IoT service-oriented system for agriculture monitoring[C]. IEEE International Conference on Communications. IEEE, 2017: 1-6.
Key technology analysis and research progress of UAV intelligent plant protection
Min Xu1,2, Ruirui Zhang1,2, Liping Chen1,2*, Qing Tang1,2, Gang Xu1,2
(1. National Research Center of Intelligent Equipment for Agriculture, Beijing 100097, China;
2. Beijing Research Center for Intelligent Agricultural Equipment, Beijing 100097, China)
Abstract: UAV plant protection operation faces very complicated environmental conditions. On one hand, its ultra low altitude operations are vulnerable to ground structures and basic hydropower facilities; on the other hand, the effectiveness of plant protection operation is strong, and it is necessary to spray the pesticides to the specific parts of crops at the prescribed time so as to ensure good pesticide application effect. At present, UAV plant protection technology mainly refers to the existing mature technology and flight platform in general aviation field to basically "fly and spray". However, the lack of penetrating research and theoretical guidance on environmental perception in farmland operation, the movement mechanism of droplets under the rotor airflow, and the penetrability of the droplet to different crops canopy lead to low penetration rate of the UAV plant protection operation, easy drifting, frequent accidents, large damage probability and low comprehensive operational efficiency. Benefiting from the breakthroughs in artificial intelligence, parallel computing technology and intelligent hardware, the UAV plant protection technology is developing in the direction of intellectualization, systematization and precision. The real-time perception of the environment under non established conditions, intelligent job decision method based on intelligent recognition of crop diseases and pests, the control of the toward-target pesticide spraying control based on the variable of wind field droplet deposition model and the data based job evaluation system have gradually become the key technology of the UAV intelligent plant protection. The manuscript analyzed and summarized the research status and technical achievements in the field of UAV intelligent plant protection from the field information perception, the modeling and optimization control of accurate pesticide application, the evaluation and monitoring of the operation effect. Based on the existing research, the research also predicted the development trend of the key technologies of intelligent UAV plant protection in the future. The clustering method of hyper-spectral image acquisition and computational intelligence based deep learning recognition will become the key technology for real-time and efficient acquisition of crop target information in plant protection work, which greatly improves the accuracy of remote sensing information inversion recognition; machine vision and multi machine cooperative sensing technology can acquire dynamic information of field operation at multiple levels and time; the high precision droplet spectrum control technology independently controlled by nozzle design and the precision variable spraying control technology based on the wind field model can further improve the droplet deposition effect and reduce the liquid drifting; the breakthrough of high accuracy mesh solution technology will change the prediction mode of droplet drift from artificial experience judgment to computer simulation and numerical deduction; the job path planning technology will greatly improve the efficiency of multi machine and multi area operation and reduce the distance of invalid operation; the job quality evaluation based on the real-time data of the sensor and the operation supervision system of large data technology will replace people to effectively control the process of the UAV plant protection operation, achieve data and transparency of plant protection, and ensure the process is observable and controllable.
Key words: UAV; plant protection; intelligence; sensing; spraying