朱婉雪,李仕冀,張旭博,李 洋,孫志剛,3※
(1. 中國科學(xué)院地理科學(xué)與資源研究所/生態(tài)系統(tǒng)網(wǎng)絡(luò)觀測與模擬重點實驗室,北京 100101;2. 中國科學(xué)院大學(xué)資源與環(huán)境學(xué)院,北京100049;3. 中科山東東營地理研究院,東營 257000)
作物長勢的快速診斷及產(chǎn)量的及時準確預(yù)測,可為農(nóng)業(yè)經(jīng)營管理、糧食政策制定提供有效支撐,是發(fā)展精準農(nóng)業(yè)的迫切需求[1-2]。目前,衛(wèi)星遙感技術(shù)廣泛應(yīng)用于大尺度農(nóng)情監(jiān)測[3-4],對宏觀決策具有重要意義;但其存在重訪周期長、影像分辨率粗糙、混合像元、氣象條件限制等問題[5-6],對農(nóng)業(yè)經(jīng)營者實際作業(yè)管理的輔助效果甚微[7]。然而,無人機遙感數(shù)據(jù)具有時效高、空間分辨率高、作業(yè)成本及損耗風(fēng)險低、靈活且可重復(fù)等優(yōu)點[8-10],可快速、高效獲取較大面積農(nóng)田厘米級遙感影像,有效地輔助農(nóng)業(yè)經(jīng)營者進行作業(yè)管理與調(diào)控[11]。
無人機遙感估產(chǎn)主要借鑒衛(wèi)星遙感估產(chǎn)方法,但在遙感平臺、傳感器類型、時空分辨率等方面與衛(wèi)星遙感觀測存在顯著差異[12],故此類方法是否適用于無人機遙感研究有待驗證與改進。同時,需要將無人機遙感快速高效的特點與農(nóng)業(yè)實際經(jīng)營管理情況相結(jié)合,因此亟需優(yōu)選出簡單實用的無人機遙感估產(chǎn)方法以輔助精準農(nóng)業(yè)的管理與決策。目前,基于植被指數(shù)的經(jīng)驗統(tǒng)計作物估產(chǎn)模型被廣泛用于遙感。為提高遙感估產(chǎn)精度,經(jīng)典的基于光學(xué)遙感的經(jīng)驗統(tǒng)計方法得到了不斷改進,例如:采用非線性統(tǒng)計模型,如Mu?oz等[13]建立了產(chǎn)量與植被指數(shù)的Richards nonlinear回歸模型,指出該模型的預(yù)測精度高于指數(shù)模型;基于多時期遙感數(shù)據(jù)的數(shù)據(jù)融合,如Zhou等[14]建立了基于多時期遙感數(shù)據(jù)的多元線性回歸模型,指出多時期遙感估產(chǎn)模型的精度高于單一時期模型;加入遙感輔助信息,如土地分類圖與區(qū)域統(tǒng)計數(shù)據(jù)集[15],以提高統(tǒng)計經(jīng)驗?zāi)P偷目煽啃耘c可拓展性[16];融合多源多期衛(wèi)星數(shù)據(jù)和不同波段的反射率特性,提升作物長勢診斷和估產(chǎn)的精度[17-18]。相比于衛(wèi)星遙感,基于無人機遙感的估產(chǎn)方法融入了其他輔助信息,如作物 N含量[19]、作物水分含量[20]、輻射利用效率[21]、作物高度信息,如結(jié)合LiDAR數(shù)據(jù)[22-23],高重疊率可見光圖像[24]或傾斜成像以構(gòu)造3D點云[25]等方法獲取。此外,還可將遙感數(shù)據(jù)與作物生長模型結(jié)合,如Kim等[26]利用GRAMI水稻模型,結(jié)合遙感數(shù)據(jù),對大田和區(qū)域尺度上水稻的產(chǎn)量進行了估算。
本研究以華北平原(中國冬小麥主要種植區(qū))典型規(guī)?;r(nóng)田為對象,探索和評價基于植被指數(shù)的作物估產(chǎn)模型和無人機遙感平臺相結(jié)合的冬小麥估產(chǎn)方法和效果。首先,利用固定翼無人機平臺獲得冬小麥主要生育期的多光譜影像,結(jié)合冬小麥地面測產(chǎn)數(shù)據(jù),構(gòu)建基于9種典型植被指數(shù)的冬小麥產(chǎn)量估算經(jīng)驗統(tǒng)計回歸模型;其次,確定適用于冬小麥無人機估產(chǎn)的最優(yōu)無人機遙感監(jiān)測時期和最適植被指數(shù);最后,運用閾值濾波法,過濾與評價土壤噪聲對基于無人機遙感的冬小麥估產(chǎn)效果的影響[27],討論提升無人機遙感估產(chǎn)精度的方法。本研究旨在篩選最優(yōu)植被指數(shù)和最佳無人機遙感作業(yè)時期,選取最為簡便、迅速、低成本的方法,建立適宜于研究區(qū)域及周邊地區(qū)的冬小麥無人機遙感估產(chǎn)模型,為規(guī)?;r(nóng)業(yè)經(jīng)營管理提供決策輔助信息。
研究區(qū)位于山東省濱州市北部(37°34′N,118°4′E)。該區(qū)域位于黃河北側(cè),地勢平坦開闊,為暖溫帶半濕潤季風(fēng)氣候,年平均氣溫13.5 ℃,年平均降水量632.0 mm,其中7-9月為降雨集中時期。無人機作業(yè)區(qū)域及采樣測產(chǎn)點分布如圖1所示,位于馬坊農(nóng)場內(nèi),面積約0.8 km2。作業(yè)區(qū)內(nèi)種植冬小麥(10月-第二年 6月)、夏玉米(6月-9月),一年兩熟。由于該地區(qū)鹽堿化較為嚴重,且呈板塊狀,加之地面平整均勻程度不一,造成灌溉和施肥時作物吸收的水分和營養(yǎng)等存在差別,地理空間差異仍較大,導(dǎo)致作物長勢和產(chǎn)量在存在較大空間差異性。因此,具有良好梯度差異,本作業(yè)區(qū)適合進行無人機遙感試驗[28]。
本試驗采用瑞士SenseFly eBee Ag農(nóng)用固定翼專業(yè)無人機遙感平臺,搭載的傳感器為MultiSPEC 4C相機。該相機共4個單獨的1.2MP傳感器,采集4個波段數(shù)據(jù):綠(G 550 nm)、紅(R 660 nm)、紅邊(Red edge 735 nm)和近紅外波段(NIR 790 nm)。試驗安排在2016年冬小麥生長季,共進行3次無人機飛行,具體作業(yè)日期為2016年3月24日,5月16日和6月16日,分別為冬小麥返青拔節(jié)期、抽穗灌漿期和成熟期。作業(yè)當(dāng)日天氣晴朗無云,作業(yè)時間主要集中在10:00-14:00期間。每次飛行前,均采集白板數(shù)據(jù),用于后期的輻射校正。冬小麥收獲時間為2016年6月17日。收獲時,按圖1b中的測點進行采樣測產(chǎn),采樣面積為1 m2,并用GPS記錄采樣樣方中心點的經(jīng)緯度位置,用于后期提取無人機影像數(shù)據(jù)值??紤]到樣本的代表性與合理性,測產(chǎn)路線沿著田塊剖面進行,覆蓋全部研究地塊。利用Pix4D Mapper Pro 3.1.22對無人機進行輻射校正、圖像拼接與正射校正,得到空間分辨率為0.16 m的四波段正射反射率圖,投影方式為UTM/WGS84。利用ENVI5.1進行9種植被指數(shù)的計算,利用Arcgis10.2生成GPS記錄點的緩沖區(qū),裁剪為1 m×1 m的樣方,并提取出相應(yīng)的植被指數(shù)數(shù)值;最后,利用R3.4.3進行建模與統(tǒng)計分析。
圖1 研究區(qū)地理位置、無人機作業(yè)田塊及采樣監(jiān)測點分布Fig.1 Location of study area, field for unmanned aerial vehicle(UAV) and sampling monitoring point distribution
1.3.1 植被指數(shù)
為了篩選出適合冬小麥無人機遙感估產(chǎn)的植被指數(shù),本研究根據(jù)無人機遙感平臺搭載的傳感器通道,選擇了9種常用植被指數(shù),計算公式如表1所示。
表1 常用植被指數(shù)Table 1 Commonly applied vegetation indices (VI)
1.3.2 冬小麥無人機遙感估產(chǎn)模型
考慮到無人機遙感估產(chǎn)方法的及時性和易操作性,本研究采用線性回歸模型,利用最小二乘法,構(gòu)建不同植被指數(shù)與冬小麥產(chǎn)量之間的經(jīng)驗統(tǒng)計模型。具體如式(1)所示。
式中a和b為待定參數(shù),VI(vegetation index)為植被指數(shù),t為植被指數(shù)類型。由于樣本數(shù)目較小,共 34個,故采用交叉驗證中的留一交叉驗證法(leave-one-out cross validation)對模型進行驗證。即每次選取33個數(shù)據(jù)進行建模,剩下1個數(shù)據(jù)用于驗證,重復(fù)建模34次。最后對34組模擬結(jié)果與實測結(jié)果的進行統(tǒng)計分析,評判模型估產(chǎn)效果。該方法每次使用盡可能多的數(shù)據(jù)進行訓(xùn)練,能得到更準確的分類器,在樣本量較少的情況下非常有效[36-37]。
1.3.3 估產(chǎn)精度驗證
采用以下 3個指標(biāo)評價模型擬合程度優(yōu)劣,即決定系數(shù) R2,均方根誤差 RMSE(kg/hm2),平均相對誤差MRE,具體公式如式(2)、式(3)與式(4)所示。
式中i表示第i個樣本點數(shù)據(jù),Yi為第i個樣本點的作物產(chǎn)量的實際測量值,kg/hm2;Ei為根據(jù)模型算出的第i個樣本點的作物產(chǎn)量估算值,kg/hm2;Y為實際測量的平均產(chǎn)量,kg/hm2;E為模型估產(chǎn)的平均產(chǎn)量,kg/hm2。
1.3.4 閾值濾波法過濾土壤背景噪聲
由于飛行高度低(約150 m),無人機遙感數(shù)據(jù)的空間分辨率較高,一般可達到厘米級;而測產(chǎn)樣方大小約1 m2,土壤像元可能在研究區(qū)域中占較大比重,對植被指數(shù)分析與作物估產(chǎn)存在較顯著影響。本研究采用閾值濾波法獲取較純凈的植被像元,通過無人機遙感影像和實地調(diào)研確定土壤和植被像元位置和對應(yīng)的植被指數(shù)值,進而確定閾值。閾值的確定范圍如表 2所示。對比分析土壤像元消除前后,返青拔節(jié)期和抽穗灌漿期估產(chǎn)精度的差異。
表2 不同植被指數(shù)的土壤噪聲閾值設(shè)定Table 2 Threshold values for soil noise filters for different vegetation indices
為了探究不同生育期的冬小麥無人機遙感數(shù)據(jù)的估產(chǎn)精度,分別將冬小麥返青拔節(jié)期、抽穗灌漿期和成熟期的植被指數(shù)數(shù)據(jù)與實測單產(chǎn)數(shù)據(jù)進行線性建模。小麥實測產(chǎn)量數(shù)據(jù)顯示,不同田塊產(chǎn)量的空間異質(zhì)性顯著。其中,最低產(chǎn)量為 2 329.5 kg/hm2,最高產(chǎn)量為6 103.5 kg/hm2。圖2a為測產(chǎn)樣方內(nèi)小麥產(chǎn)量的頻數(shù)分布圖,曲線為根據(jù)樣本的均值和方差繪制的正態(tài)分布曲線。對比發(fā)現(xiàn),圖中顯示小麥產(chǎn)量集中于5 000~6 000 kg/hm2,呈偏態(tài)分布;樣本的數(shù)值呈不同梯度分布,具有較好的代表性。圖2b為整個研究區(qū)冬小麥3個生育期的EVI2頻率分布圖,從中看出5月份的數(shù)據(jù)具有較好的代表性。
圖2 小麥產(chǎn)量的頻數(shù)分布與研究區(qū)EVI2的頻率分布Fig.2 Frequency distribution of wheat yield and frequency distribution of EVI2 in study area
表 3為基于無人機遙感的冬小麥抽穗灌漿期植被指數(shù)估測產(chǎn)量與實際產(chǎn)量回歸方程及對應(yīng)的R2和RMSE。圖3為3個生育期訓(xùn)練樣本和檢驗樣本的R2和RMSE。從圖3a和圖3b看出,基于冬小麥抽穗灌漿期的植被指數(shù)估產(chǎn)模型的估產(chǎn)精度顯著比返青拔節(jié)期和成熟期高,除紅邊波段R2為0.016,綠波段和紅波段模型R2(n=34)分別為0.54和0.62以外,其余植被指數(shù)模型的R2(n=34)均在0.65以上。圖3c和圖3d顯示,抽穗灌漿期模型的RMSE比返青拔節(jié)期和成熟期低,說明抽穗灌漿期的產(chǎn)量預(yù)測值與實際值的偏差最小。圖 4為基于無人機遙感的冬小麥3個生育期植被指數(shù)估測產(chǎn)量與實際產(chǎn)量比較。由圖4可知,返青拔節(jié)期和成熟期的模型預(yù)測產(chǎn)量集中為4 000到5 000 kg/hm2。當(dāng)實測單產(chǎn)低于4 800 kg/hm2時,3個時期模型均出現(xiàn)高估現(xiàn)象;高于4 800 kg/hm2時,均出現(xiàn)低估現(xiàn)象。綜上,在 3個無人機飛行作業(yè)時期中,利用冬小麥抽穗灌漿期數(shù)據(jù)建立的估產(chǎn)模型的精度最高。
表3 基于無人機遙感的冬小麥抽穗灌漿期植被指數(shù)估測產(chǎn)量與實際產(chǎn)量回歸方程Table 3 Regression equation between estimated yield and actual yield of winter wheat during heading and filling stage based on UAV remote sensing
圖3 基于無人機遙感的3個生育期冬小麥植被指數(shù)估產(chǎn)模型評價Fig.3 Evaluation of winter yield estimation models based on vegetation indices from UAV remote sensing data during three growth stages
圖4 基于無人機遙感的冬小麥3個生育期植被指數(shù)估測產(chǎn)量與實際產(chǎn)量比較Fig.4 Estimated and actual yield of winter wheat based on vegetation indices from UAV remote sensing data during three growth stages
圖3 和圖4顯示,不同時期、不同植被指數(shù)的估產(chǎn)精度存在顯著差異。4個單一波段中,基于近紅外波段數(shù)據(jù)的估產(chǎn)模型在灌漿期的R2(n=34)達到0.70。將植被指數(shù)與單一波段估產(chǎn)模型對比,發(fā)現(xiàn)基于植被指數(shù)估產(chǎn)模型的R2比單一波段估產(chǎn)模型高,RMSE更低。在返青拔節(jié)期,預(yù)測精度最高的植被指數(shù)為GNDVI,其訓(xùn)練樣本的R2(n=34)為0.24;在灌漿期,EVI2的R2達到0.73;其次為MSAVI2,SAVI,MTVI1,MSR和OSAVI,訓(xùn)練樣本的R2均大于0.70,檢驗樣本的R2均大于0.65,RMSE也較其他植被指數(shù)小。成熟期訓(xùn)練樣本和測試樣本的 R2普遍較低,約為0.20。綜上,估產(chǎn)模型R2最高達0.73,RMSE最低為579.93 kg/hm2,對應(yīng)的植被指數(shù)為抽穗灌漿期的EVI2,估產(chǎn)模型為
因成熟期的估產(chǎn)精度最低,且葉片衰老顯著,不適宜進行估產(chǎn)建模,故只選取返青拔節(jié)期和抽穗灌漿期的無人機遙感數(shù)據(jù)進行處理。圖5以EVI2數(shù)據(jù)為例,為利用閾值濾波處理前后返青拔節(jié)期和抽穗灌漿期 EVI2圖像。由表4,表5和表6可知,經(jīng)土壤像元過濾后,返青拔節(jié)期和抽穗灌漿期估產(chǎn)模型的 R2均提高,RMSE和MRE下降;在返青拔節(jié)期,過濾土壤像元對于估產(chǎn)模型R2的提升效果更為顯著,R2從未過濾的約0.20提升至過濾后的0.30以上,其中MSAVI2估產(chǎn)模型R2(n=34)提高至0.43,提升了95%。除MCARI外,抽穗灌漿期的植被指數(shù)估產(chǎn)模型R2和MRE改變并不顯著,但RMSE有所下降。綜上所述,土壤像元對返青拔節(jié)期的產(chǎn)量估算影響較大,而對抽穗灌漿期的產(chǎn)量估算影響甚微。未經(jīng)過土壤像元過濾的抽穗灌漿期EVI2數(shù)據(jù),也能對冬小麥產(chǎn)量進行較好的估算。
圖5 EVI2圖像過濾土壤像元前后對比Fig.5 Comparison of filtered/unfiltered soil pixels based on EVI2 image
表4 返青拔節(jié)期和抽穗灌漿期土壤像元過濾前后估產(chǎn)模型R2 (n=34)Table 4 R2 (n=34) of yield estimation models with filtered/unfiltered soil pixels during green and jointing stage and heading and filling stage
表5 返青拔節(jié)期和抽穗灌漿期土壤像元過濾前后估產(chǎn)模型RMSE (kg·hm–2,n=34)Table 5 RMSE (kg·hm–2,n=34) of yield estimation models with filtered/unfiltered soil pixels during green and jointing stage and heading and filling stage
表6 返青拔節(jié)期和抽穗灌漿期土壤像元過濾前后檢驗樣本估產(chǎn)模型MRE (n=34)Table 6 MRE (n=34) of yield estimation models with filtered/unfiltered soil pixels during green and jointing stage and heading and filling stage %
對農(nóng)場尺度的小麥產(chǎn)量進行估算,對于小麥的生產(chǎn)、農(nóng)場主的種植規(guī)劃等都有顯著的實際意義。為保證估產(chǎn)的精度,需對測產(chǎn)的誤差來源進行分析。本研究中,每塊田的測產(chǎn)樣方大小為1 m×1 m,GPS記錄的是采樣中心點的位置數(shù)據(jù),可能存在位置漂移誤差;而在進行估產(chǎn)時,盡管已嚴格按照標(biāo)準操作,但人工測量誤差仍難以避免,這些都將會對估產(chǎn)結(jié)果造成一定的影響。無人機遙感數(shù)據(jù)的空間分辨率為0.16 m,采樣樣方的大小為1 m2,測產(chǎn)時選取的樣方內(nèi)小麥的長勢較為均勻,故本研究采取算術(shù)平均值的方法求得樣方內(nèi)各植被指數(shù)值,具有一定的合理性。但由于地面空間異質(zhì)性造成的空間尺度轉(zhuǎn)換的非線性問題仍舊存在,加上地物的非朗伯體特性,使得不同尺度獲得的植被光譜數(shù)據(jù)存在一定差異[38-39],今后需進一步探討地理數(shù)據(jù)的空間尺度效應(yīng)。
地面空間異質(zhì)性隨作物的生長階段不同而發(fā)生改變[27],因此基于作物不同生育期的植被指數(shù)估產(chǎn)模型的精度存在顯著差異。返青拔節(jié)期是決定穗數(shù)和粒數(shù)的關(guān)鍵時期,主要進行營養(yǎng)生長,該時期的植被指數(shù)不能反映產(chǎn)量形成器官的干物質(zhì)積累過程,導(dǎo)致估產(chǎn)精度不高。抽穗灌漿期是冬小麥將光合作用產(chǎn)生的淀粉、蛋白質(zhì)等有機物從營養(yǎng)器官轉(zhuǎn)移到籽粒中的階段,該時期的植被指數(shù)與最終冬小麥千粒質(zhì)量密切相關(guān)[17],故此時期估產(chǎn)精度最高。趙文亮等的研究也證明抽穗灌漿期植被指數(shù)可直接反映小麥的最終生長狀態(tài)[40]。由于冠層葉片和莖稈的營養(yǎng)物質(zhì)逐漸向籽粒轉(zhuǎn)移,葉片葉綠素含量下降,基于紅光和近紅外波段的植被指數(shù)與籽粒干物質(zhì)積累程度的相關(guān)性下降,故模型精度在作物生長后期有所下降[41]。Qader等指出,若遙感監(jiān)測的并非是決定冬小麥最終產(chǎn)量的生長期,那么構(gòu)建的模型的估產(chǎn)能力是不精準的[37]。在今后的研究中,將充分考慮作物營養(yǎng)生長與生殖生長的過程,利用無人機遙感監(jiān)測作物全生育期長勢,在兼顧模型的實用性前提下,提升估產(chǎn)模型的機理性。
此外,本研究對多生育期多種植被指數(shù)與產(chǎn)量進行了多元線性回歸建模,利用了全子集的方法,得到訓(xùn)練樣本的R2可達到0.86,但檢驗樣本的R2只有0.28,可能是由于模型的過擬合和輸入?yún)?shù)的多重共線性造成。而趙文亮等的研究也指出,由于不同生長期的植被指數(shù)值本身帶有一定的誤差,多時期的數(shù)據(jù)累積可能會造成誤差的累積,反而造成模型精度下降[40]。若采用神經(jīng)網(wǎng)絡(luò)算法,得到的檢驗樣本R2低于0.4,可能是由于樣本數(shù)量較少,而神經(jīng)網(wǎng)絡(luò)法通常適用于大樣本數(shù)據(jù)造成。
圖4顯示,在單產(chǎn)低于4 800 kg/hm2時,模型出現(xiàn)高估現(xiàn)象;單產(chǎn)高于4 800 kg/hm2時則為低估。作物產(chǎn)量受到眾多因素的影響,植被指數(shù)與產(chǎn)量呈復(fù)雜的非線性關(guān)系。植被指數(shù)較高時,容易出現(xiàn)飽和現(xiàn)象,估產(chǎn)易低于實際產(chǎn)量;植被指數(shù)較低時,合理冠層結(jié)構(gòu)有利于冠層光合作用和干物質(zhì)積累,此時基于植被指數(shù)線性估產(chǎn)模型傾向于低估。為了突出無人機遙感估產(chǎn)的快速、及時的特點,因此本研究折中采用線性模型。在今后的研究中,可以考慮植被指數(shù)、冠層結(jié)構(gòu)、產(chǎn)量形成之間的非線性關(guān)系,提升模型估產(chǎn)的可靠性。
4個單一波段中近紅外波段的估產(chǎn)精度最高,R2(n=34)在灌漿期可達到0.70。Bendig等[42]也曾指出近紅外波段用于估測作物生物量的精度較高,Houborg等[43]指出NIR在高植被覆蓋時,仍具有對LAI的變化的敏感性。本研究結(jié)果顯示,植被指數(shù)的估產(chǎn)精度高于單一波段。Yue等[41,44]的研究指出,運用單一波段對植被進行信息提取,存在明顯的局限性,譬如單一波段的反射率信息易收到大氣環(huán)境、植被周邊環(huán)境等影響,很難獲得真值;而植被指數(shù)一般采用差值和比值的形式,可以抵消到大部分單一波段的誤差,獲得更佳的植被信息。NDVI使用最廣,在植被覆蓋度較低的時候能夠較好指示植物長勢和生物量,但在高植被覆蓋區(qū)表現(xiàn)出飽和特性,指示能力下降[45]。本研究發(fā)現(xiàn)基于冬小麥抽穗灌漿期 EVI2的估產(chǎn)模型預(yù)測精度最高,R2(n=34)達到0.73。Bolton等研究表明,在非干旱地區(qū),EVI2的估產(chǎn)效果優(yōu)于NDVI,且對于產(chǎn)量差異幅度較大區(qū)域的反演效果更佳[46]。SAVI削減了土壤背景對NDVI的影響, MSAVI是對SAVI的優(yōu)化,而MSAVI2是MSAVI的拓展,其廣泛用于分析作物生長和產(chǎn)量的估測[47]。本研究結(jié)果也顯示,MSAVI2的預(yù)測精度高于SAVI;賀佳研究指出,MSAVI2更能消除土壤背景噪聲對冠層光譜反射率的影響[48]。以上結(jié)果,多基于衛(wèi)星遙感;而本研究基于無人機近地面遙感,發(fā)現(xiàn)利用冬小麥抽穗灌漿期EVI2構(gòu)建的估產(chǎn)模型精度優(yōu)于其他植被指數(shù)。在今后的無人機遙感估產(chǎn)研究與應(yīng)用中,針對不同區(qū)域不同作物類型,還需要進一步評估和優(yōu)選本研究論及的植被指數(shù)以及相關(guān)的遙感參數(shù)。
利用實地調(diào)研信息和先驗知識確定閾值,通過閾值濾波法可有效降低背景噪聲對估產(chǎn)精度的影響[49]。在冬小麥不同生育期,土壤噪聲存在顯著差異,對估產(chǎn)精度的影響也不盡相同。圖5、表4、表5和表6顯示,土壤像元對于返青拔節(jié)期的估產(chǎn)影響顯著,對抽穗灌漿期的估產(chǎn)影響較小。原因在于抽穗灌漿期的植被覆蓋度較高,葉面積指數(shù)達到峰值,群體冠層郁閉,感興趣區(qū)域中土壤像元較少。因此,使用未過濾土壤像元的抽穗灌漿期的無人機遙感影像,也能獲得較高的估產(chǎn)精度。在今后的研究中,可以考慮加入其他輔助信息提高估產(chǎn)精度,如利用無人機高重疊率影像建立三維曲面,進而獲得小麥冠層結(jié)構(gòu)信息,然后將冠層結(jié)構(gòu)信息融入到估產(chǎn)模型中,從而提升無人機遙感估產(chǎn)模型可靠性和精度[41,50]。
選取最優(yōu)植被指數(shù)和最佳無人機遙感作業(yè)時期對冬小麥種植區(qū)域的無人機遙感估產(chǎn)起到至關(guān)重要的作用。本研究發(fā)現(xiàn),不同生長期的冬小麥無人機遙感估產(chǎn)模型精度存在顯著差異。其中,抽穗灌漿期模型的精度最高,其次為返青拔節(jié)期,而成熟期的估產(chǎn)效果最差。其次,基于最優(yōu)的無人機飛行作業(yè)時期的影像數(shù)據(jù),即冬小麥抽穗灌漿期,運用植被指數(shù)EVI2時,估產(chǎn)模型模擬效果最優(yōu),R2可達 0.70。將土壤像元過濾后,返青拔節(jié)期估產(chǎn)模型的R2顯著提升,而抽穗灌漿期估產(chǎn)模型的R2未顯著提升。故使用抽穗灌漿期未過濾土壤像元的無人機遙感影像,也能獲得較高的估產(chǎn)精度。因此,優(yōu)化后的基于植被指數(shù)的無人機遙感估產(chǎn)模型,可以快速有效診斷和評估作物長勢和產(chǎn)量,為規(guī)模化農(nóng)業(yè)種植經(jīng)營提供一種快捷高效的低空管理工具。
[1] Mueller N D, Gerber J S, Johnston M, et al. Closing yield gaps through nutrient and water management[J]. Nature,2012, 490(7419): 254.
[2] Neumann K, Verburg P H, Stehfest E, et al. The yield gap of global grain production: A spatial analysis[J]. Agricultural Systems, 2010, 103(5): 316-326.
[3] 高林,楊貴軍,王寶山,等. 基于無人機遙感影像的大豆葉面積指數(shù)反演研究[J]. 中國生態(tài)農(nóng)業(yè)學(xué)報,2015,23(7):868-876.Gao Lin, Yang Guijun, Wang Baoshan, et al. Soybean leaf area index retrieval with UAV(unmanned aerial vehicle)remote sensing imagery[J]. Chinese Journal of Eco-Agriculture, 2015,23(7): 868-876. (in Chinese with English abstract)
[4] Du M, Noguchi N. Multi-temporal monitoring of wheat growth through correlation analysis of satellite images,Unmanned aerial vehicle images with ground variable[J].IFAC-Papers on Line, 2016, 49(16): 5-9.
[5] Berni J, Zarcotejada P J, Suarez L, et al. Thermal and narrowband multispectral remote sensing for vegetation monitoring from an unmanned aerial vehicle[J]. IEEE Transactions on Geoscience & Remote Sensing, 2009, 47(3):722-738.
[6] Yu N, Li L, Schmitz N, et al. Development of methods to improve soybean yield estimation and predict plant maturity with an unmanned aerial vehicle based platform[J]. Remote Sensing of Environment, 2016, 187: 91-101.
[7] Wheeler T, Von B J. Climate change impacts on global food security[J]. Science, 2013, 341(6145): 508.
[8] 李冰,劉镕源,劉素紅,等. 基于低空無人機遙感的冬小麥覆蓋度變化監(jiān)測[J]. 農(nóng)業(yè)工程學(xué)報,2012,28(13):160-165.Li Bing, Liu Rongyuan, Liu Suhong, et al. Monitoring vegetation coverage variation of winter wheat by low-altitute UAV remote sensing system[J]. Transaction of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2002, 28(13): 160-165. (in Chinese with English abstract)
[9] Zhang C, Kovacs J M. The application of small unmanned aerial systems for precision agriculture: A review[J].Precision Agriculture, 2012, 13(6): 693-712.
[10] Everaerts J. The use of unmanned aerial vehicles (UAVs) for remote sensing and mapping[J]. Remote Sensing and Spatial Information Sciences, 2008,144:1187-1191.
[11] Candiago S, Remondino F, De Giglio M, et al. Evaluating multispectral images and vegetation indices for precision farming applications from UAV images[J]. Remote Sensing,2015, 7(4): 4026-4047.
[12] Tian J, Wang L, Li X, et al. Comparison of UAV and WorldView-2 imagery for mapping leaf area index of mangrove forest[J]. International Journal of Applied Earth Observation & Geoinformation, 2017, 61: 22-31.
[13] Mu?oz J D, Finley A O, Gehl R, et al. Nonlinear hierarchical models for predicting cover crop biomass using normalized difference vegetation index[J]. Remote Sensing of Environment, 2010, 114(12): 2833-2840.
[14] Zhou X, Zheng H B, Xu X Q, et al. Predicting grain yield in rice using multi-temporal vegetation indices from UAV-based multispectral and digital imagery[J]. Isprs Journal of Photogrammetry & Remote Sensing, 2017, 130: 246-255.
[15] Genovese G, Vignolles C, Negre T, et al. A methodology for a combined use of normalised difference vegetation index and CORINE land cover data for crop yield monitoring and forecasting. A case study on Spain[J]. Agronomie, 2001,21(1): 91-111.
[16] Beckerreshef I, Vermote E, Lindeman M, et al. A generalized regression-based model for forecasting winter wheat yields in Kansas and Ukraine using MODIS data[J]. Remote Sensing of Environment, 2010, 114(6): 1312-1323.
[17] Guan K, Wu J, Kimball J S, et al. The shared and unique values of optical, fluorescence, thermal and microwave satellite data for estimating large-scale crop yields[J]. Remote Sensing of Environment, 2017, 199: 333-349.
[18] Soudani K, Fran?ois C, Maire G L, et al. Comparative analysis of IKONOS, SPOT, and ETM+ data for leaf area index estimation in temperate coniferous and deciduous forest stands[J]. Remote Sensing of Environment, 2006,102(1): 161-175.
[19] Serrano L, Filella I, Pe?uelas J. Remote sensing of biomass and yield of winter wheat under different nitrogen supplies[J].Crop Science, 2000, 40(3): 723-731.
[20] Cozzolino D, Fassio A, Gimenez A. The use of near-infrared reflectance spectroscopy (NIRS) to predict the composition of whole maize plants[J]. Journal of the Science of Food &Agriculture, 2001, 81(1): 142–146.
[21] Tewes A, Schellberg J. Towards remote estimation of radiation use efficiency in maize using UAV-based low-cost camera imagery[J]. Agronomy, 2018, 8(2): 16.
[22] Luo S, Wang C, Xi X, et al. Fusion of airborne LiDAR data and hyperspectral imagery for aboveground and belowground forest biomass estimation[J]. Ecological Indicators, 2017, 73:378-387.
[23] Guo Q, Su Y, Hu T, et al. An integrated UAV-borne lidar system for 3D habitat mapping in three forest ecosystems across China[J]. International Journal of Remote Sensing,2017, 38(8-10): 2954-2972.
[24] Schirrmann M, Hamdorf A, Giebel A, et al. Regression kriging for improving crop height models fusing ultra-sonic sensing with UAV imagery[J]. Remote Sensing, 2017, 9(7):665.
[25] Chang A, Jung J, Maeda M M, et al. Crop height monitoring with digital imagery from unmanned aerial system (UAS)[J].Computers & Electronics in Agriculture, 2017, 141: 232-237.
[26] Kim M, Ko J, Jeong S, et al. Monitoring canopy growth and grain yield of paddy rice in South Korea by using the GRAMI model and high spatial resolution imagery[J].Giscience & Remote Sensing, 2017, 54: 534-551.
[27] Bendig J, Bolten A, Bennertz S, et al. Estimating biomass of barley using crop surface models (CSMs) derived from UAV-based RGB imaging[J]. Remote Sensing, 2014, 6(11):10395-10412.
[28] Roosjen P P J, Brede B, Suomalainen J M, et al. Improved estimation of leaf area index and leaf chlorophyll content of a potato crop using multi-angle spectral data – potential of unmanned aerial vehicle imagery[J]. International Journal of Applied Earth Observation & Geoinformation, 2018, 66: 14-26.
[29] Jiang Z, Huete A R, Didan K, et al. Development of a two-band enhanced vegetation index without a blue band[J].Remote Sensing of Environment, 2008, 112(10): 3833-3845.
[30] Chen J M. Evaluation of Vegetation Indices and a modified simple ratio for boreal applications[J]. Canadian Journal of Remote Sensing, 2014, 22(3): 229-242.
[31] Rondeaux G, Steven M, Baret F. Optimization of soil-adjusted vegetation indices[J]. Remote Sensing of Environment, 1996, 55: 95-107.
[32] Rouse J W, Haas R W, Schell J A, et al. Monitoring the vernal advancement and retrogradation (Greenwave effect) of natural vegetation. NASA/GSFCT Type III final report[R].Nasa, 1974.
[33] Huete A R. A soil-adjusted vegetation index (SAVI)[J].Remote Sensing of Environment, 1988, 25(3): 295-309.
[34] Haboudane D, Miller J R, Pattey E, et al. Hyperspectral vegetation indices and novel algorithms for predicting green LAI of crop canopies: Modeling and validation in the context of precision agriculture[J]. Remote Sensing of Environment,2004, 90(3): 337-352.
[35] Gitelson A A, Kaufman Y J, Merzlyak M N. Use of a green channel in remote sensing of global vegetation from EOS-MODIS[J]. Remote Sensing of Environment, 1996,58(3): 289-298.
[36] 駱社周,王成,張貴賓,等. 機載激光雷達森林葉面積指數(shù)反演研究[J]. 地球物理學(xué)報,2013,56(5):1467-1475.Luo Shezhou, Wang Cheng, Zhang Guibin, et al. Forest leaf area index (LAI) inversion using airborne LiDAR data[J].Chinese Journal of Geophysics, 2013, 56(5): 1467-1475. (in Chinese with English abstract)
[37] Qader S H, Dash J, Atkinson P M. Forecasting wheat and barley crop production in arid and semi-arid regions using remotely sensed primary productivity and crop phenology: A case study in Iraq[J]. Science of the Total Environment, 2018,613: 250-262.
[38] 李紅軍,李佳珍,雷玉平,等. 無人機搭載數(shù)碼相機航拍進行小麥、玉米氮素營養(yǎng)診斷研究[J]. 中國生態(tài)農(nóng)業(yè)學(xué)報,2017,25(12):1832-1841.Li Hongjun, Li Jiazhen, Lei Yuping, et al. Diagnosis of nitrogen nutrition of winter wheat and summer corn using images from digital camera equipped on unmanned aerial vehicle[J]. Chinese Journal of Eco-Agriculture, 2017, 25(12):1832-1841. (in Chinese with English abstract)
[39] Darvishzadeh R, Matkan A A, Ahangar A D. Inversion of a radiative transfer model for estimation of rice canopy chlorophyll content using a lookup-table approach[J]. IEEE Journal of Selected Topics in Applied Earth Observations &Remote Sensing, 2012, 5(4): 1222-1230.
[40] 趙文亮,賀振,賀俊平,等. 基于MODIS NDVI的河南省冬小麥產(chǎn)量遙感估測[J]. 地理研究,2012,31(12):2310-2320.Zhao Wenliang, He Zhen, He Junping, et al. Remote sensing estimation for winter wheat yield in Henan based on the MODIS-NDVI data[J]. Geographical Research, 2012, 31(12):2310-2320. (in Chinese with English abstract)
[41] Yue J, Yang G, Li C, et al. Estimation of winter wheat above-ground biomass using unmanned aerial vehicle- based snapshot hyperspectral sensor and crop height improved models[J]. Remote Sensing, 2017, 9(7): 708.
[42] Bendig J, Yu K, Aasen H, et al. Combining UAV-based plant height from crop surface models, visible, and near infrared vegetation indices for biomass monitoring in barley[J].International Journal of Applied Earth Observation &Geoinformation, 2015, 39: 79-87.
[43] Houborg R, Boegh E. Mapping leaf chlorophyll and leaf area index using inverse and forward canopy reflectance modeling and SPOT reflectance data[J]. Remote Sensing of Environment, 2008, 112(1): 186-202.
[44] 王愷寧,王修信. 多植被指數(shù)組合的冬小麥遙感估產(chǎn)方法研究[J]. 干旱區(qū)資源與環(huán)境,2017,31(7):44-49.Wang Kaining, Wang Xiuxin, Research on winter wheat yield estimation with the multiply remote sensing vegetation index combination[J]. Journal of Arid Land Resources and Environment, 2017, 31(7): 44-49. (in Chinese with English abstract)
[45] Kross A, Mcnairn H, Lapen D, et al. Assessment of RapidEye vegetation indices for estimation of leaf area index and biomass in corn and soybean crops[J]. International Journal of Applied Earth Observation & Geoinformation,2015, 34(1): 235-248.
[46] Bolton D K, Friedl M A. Forecasting crop yield using remotely sensed vegetation indices and crop phenology metrics[J]. Agricultural & Forest Meteorology, 2013, 173(2):74-84.
[47] Xue J, Su B. Significant remote sensing vegetation indices: A review of developments and applications[J]. Journal of Sensors, 2017, 2017(1): 1-17.
[48] 賀佳. 冬小麥不同生育時期生態(tài)生理參數(shù)的高光譜遙感監(jiān)測模型[D]. 楊凌:西北農(nóng)林科技大學(xué),2015.He Jia. Monitoring Model of Ecological and Physiological Parameters of Winter Wheat Based on Hyperspectral Reflectance at Different Growth Stages[D].Yangling:Northwest Agriculture and Forestry University, 2015. (in Chinese with English abstract)
[49] Duan S B, Li Z L, Wu H, et al. Inversion of the PROSAIL model to estimate leaf area index of maize, potato, and sunflower fields from unmanned aerial vehicle hyperspectral data[J]. International Journal of Applied Earth Observations& Geoinformation, 2014, 26(26): 12-20.
[50] Geipel J, Link J, Claupein W. Combined spectral and spatial modeling of corn yield based on aerial images and crop surface models acquired with an unmanned aircraft system[J].Remote Sensing, 2014, 6(11): 10335-10355.