国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度學(xué)習(xí)和遙感數(shù)據(jù)的水稻種植面積提取

2023-12-25 17:07:43邱儒瓊彭少坤李孟璠
湖北農(nóng)業(yè)科學(xué) 2023年11期
關(guān)鍵詞:勾畫尺度標(biāo)簽

邱儒瓊 彭少坤 李孟璠

摘要:針對現(xiàn)有基于深度卷積神經(jīng)網(wǎng)絡(luò)進行水稻(Oryza sativa L.)遙感識別中樣本采集工作量大、樣本標(biāo)注要求高及水稻感受野尺度選擇難等問題,構(gòu)建了一種基于像元和多尺度的深度卷積神經(jīng)網(wǎng)絡(luò)(DCNN)水稻遙感識別模型。首先,針對水稻種植分布特點,綜合深度卷積神經(jīng)網(wǎng)絡(luò)方法的特點,設(shè)計了基于像元的DCNN提取模型;其次,將多尺度與DCNN相結(jié)合,構(gòu)建多尺度DCNN模型,增加感受野的多尺度特性;最后,為了驗證多尺度DCNN模型提取水稻的效果,以高分一號和高分二號衛(wèi)星影像為數(shù)據(jù)源,選取傳統(tǒng)機器學(xué)習(xí)SVM模型、語義分割D-Linknet模型、單一尺度DCNN模型進行分類精度對比分析。結(jié)果表明,本研究提出的多尺度DCNN模型的準(zhǔn)確率、精確率、召回率、平衡F分數(shù)分別為97.75%、96.68%、99.08%、97.85%;與其他模型相比,多尺度DCNN模型結(jié)構(gòu)簡單、樣本制作簡便、識別精度高,具有較好的應(yīng)用價值。

關(guān)鍵詞:水稻(Oryza sativa L.);高分辨率遙感影像;深度學(xué)習(xí);種植面積提??;像元分類;深度卷積神經(jīng)網(wǎng)絡(luò)(DCNN);多尺度DCNN模型

中圖分類號:P237 ? ? ? ? 文獻標(biāo)識碼:A

文章編號:0439-8114(2023)11-0176-07

DOI:10.14088/j.cnki.issn0439-8114.2023.11.031 開放科學(xué)(資源服務(wù))標(biāo)識碼(OSID):

Extracting rice planting area based on deep learning and remote sensing data

QIU Ru-qiong1,2,PENG Shao-kun2,LI Meng-fan2

(1.National Engineering Research Center of Geographic Information System ,China University of Geosciences(Wuhan), Wuhan ?430074,China;

2.Hubei Development Planning Research Institute Co., Ltd., Wuhan ?430071,China)

Abstract: A pixel and multi-scale Deep Convolutional Neural Networks (DCNN) rice(Oryza sativa L.) remote sensing recognition model was constructed to address the issues of large sample collection workload, high sample labeling requirements, and difficulty in selecting the scale of rice receptive fields in existing rice (Oryza sativa L.) remote sensing recognition based on Deep Convolutional Neural Networks. Firstly, based on the distribution characteristics of rice planting, a pixel based DCNN extraction model was designed by integrating comprehensively the characteristics of Deep Convolutional Neural Networks methods;secondly, by combining multi-scale and DCNN, a multi-scale DCNN model was constructed to enhance the multi-scale characteristics of the receptive field; finally, in order to verify the effectiveness of the multi-scale DCNN model in extracting rice, the traditional machine learning SVM model, semantic segmentation D-Linknet model, and single-scale DCNN model were selected for classification accuracy comparison and analysis using Gaofen-1 and Gaofen-2 satellite images as data sources. The results showed that the accuracy, precision, recall, and equilibrium F-scores of the multi-scale DCNN model proposed in this study were 97.75%, 96.68%, 99.08%, and 97.85%, respectively;compared with other models, the multi-scale DCNN model had a simple structure, simple sample production, and high recognition accuracy, which had good application value.

Key words: rice (Oryza sativa L.); high resolution remote sensing images; deep learning; extraction of planting area; pixel classification; deep convolutional neural networks (DCNN); multi-scale DCNN model

水稻、玉米等是中國的主要糧食作物,其中,水稻的種植面積和產(chǎn)量直接影響了湖北省的糧食安全,及時準(zhǔn)確獲取水稻等糧食作物的種植面積和種植結(jié)構(gòu),對于指導(dǎo)農(nóng)作物種植、規(guī)劃農(nóng)產(chǎn)品生產(chǎn)布局和經(jīng)濟發(fā)展、保障糧食與耕地安全具有重要意義。

得益于航天航空技術(shù)的發(fā)展,遙感技術(shù)已經(jīng)成為當(dāng)前農(nóng)作物分類、種植面積調(diào)查和監(jiān)測的重要手段。傳統(tǒng)的遙感分類方法包括面向像素的遙感分類方法和面向?qū)ο蟮倪b感分類方法。單捷等[1]利用支持向量機,基于環(huán)境衛(wèi)星影像對水稻進行識別,總體精度為80.38%。Xiao等[2]利用中低分辨率的衛(wèi)星數(shù)據(jù),計算了中國南部和東南亞地區(qū)水稻的NDVI、LSWI、EVI指數(shù),對水稻種植面積進行提取和估算。陳樹輝等[3]根據(jù)線性光譜混合模型,利用環(huán)境衛(wèi)星數(shù)據(jù)和ALOS衛(wèi)星數(shù)據(jù)對河南省息縣的水稻進行類型監(jiān)測和種植面積估算,將其結(jié)果與高分辨率ALOS數(shù)據(jù)進行位置精度計算,平均精度達87.89%。蔣怡等[4]在最大似然法的基礎(chǔ)上,結(jié)合圖像融合技術(shù)對四川省丘陵地區(qū)的水稻進行提取,在OLI影像上得到較高的精度,其中淺丘區(qū)平均精度為93.7%,深丘區(qū)平均精度為92.5%。玉素甫江·如素力等[5]以中分辨率的Landsat為主要數(shù)據(jù),提出一種面向?qū)ο蟮臎Q策樹農(nóng)作物分類方法,平均精度為92.09%。深度卷積神經(jīng)網(wǎng)絡(luò)(Deep convolutional neural networks,DCNN)具有局部鏈接、權(quán)重共享等特征,已廣泛應(yīng)用到遙感影像農(nóng)作物分類中,并在高分辨率遙感影像上開展水稻提取研究[6-14],這些研究通常使用U-Net[15]、D-Linknet[16]等語義分割模型進行像素級分類,分類準(zhǔn)確率超過90%。上述方法雖然得到很好的分類效果,但均需要高可靠的樣本。在一個省級范圍的工程實施中,細致化、高可靠的樣本標(biāo)注工作量將十分巨大,導(dǎo)致此類模型無法在大范圍水稻面積提取中應(yīng)用。同時,水稻種植的形狀和面積多變,因此水稻感受野尺度是實現(xiàn)水稻高精度提取的關(guān)鍵。

本研究以湖北省江漢平原為研究區(qū)域,以高分辨率遙感影像的水稻種植面積提取為切入點,綜合分析深度卷積神經(jīng)網(wǎng)絡(luò)方法的特點,設(shè)計一種基于像元和多尺度的DCNN提取模型,為基于高分辨率遙感影像的農(nóng)作物自動化、智能化、高精度的信息提取提供技術(shù)參考和支撐。

1 研究區(qū)與數(shù)據(jù)預(yù)處理

1.1 研究區(qū)概況

研究區(qū)域如圖1所示,在江漢平原潛江市和江陵縣交界處。江漢平原位于長江中游,西起宜昌市枝江市,東迄武漢市,北抵荊門市鐘祥市,南與洞庭湖平原相連,位于北緯29°26′—31°37′,東經(jīng)111°14′—114°36′,面積4.6萬km2,是重要的水稻產(chǎn)地之一。該區(qū)域氣候濕潤,屬亞熱帶季風(fēng)氣候,年均降水量 ?1 100~1 300 mm,年均日照時數(shù)約2 000 h,年太陽輻射總值為460~480 kJ/cm2。

1.2 數(shù)據(jù)預(yù)處理

根據(jù)水稻的最佳識別時間選擇2019年8月2日的高分一號(GF1)數(shù)據(jù)、2019年7月28日的高分二號(GF2)數(shù)據(jù)為數(shù)據(jù)源,進行大氣校正、輻射校正等預(yù)處理工作。2019年8月18—24日在研究區(qū)進行實地采樣,使用無人機DJI P4M+集思寶UG 905對研究區(qū)的水稻等地物樣本邊界軌跡進行采集。在ArcGIS軟件平臺中生成與遙感數(shù)據(jù)地理坐標(biāo)、投影、地理位置匹配的野外調(diào)查數(shù)據(jù)集,輔助樣本勾畫和檢驗。圖1為地面調(diào)查點分布情況,每簇地面調(diào)查點對應(yīng)一張0.03 m×0.03 m分辨率的無人機影像。

本研究共構(gòu)建2種類型的樣本數(shù)據(jù),一種是像元分類要求的樣本數(shù)據(jù),一種是語義分割要求的樣本數(shù)據(jù)。樣本數(shù)據(jù)的構(gòu)建包括樣本標(biāo)簽矢量數(shù)據(jù)勾畫、規(guī)則樣本生成和樣本集制作3個步驟。

1.2.1 像元分類要求的樣本標(biāo)簽矢量數(shù)據(jù)勾畫 面向像元分類要求的樣本標(biāo)簽矢量數(shù)據(jù)勾畫可以采用傳統(tǒng)遙感監(jiān)督分類的樣本采樣方式(圖2),即在地物上勾畫純凈的圖斑,無需將地物邊界勾畫出來。

根據(jù)地面調(diào)查點、無人機數(shù)據(jù)、GF1和GF2遙感影像,利用ArcMap軟件在研究區(qū)域內(nèi)勾畫面向像元分類要求的樣本標(biāo)簽矢量數(shù)據(jù)(表1)。

1.2.2 語義分割要求的樣本標(biāo)簽矢量數(shù)據(jù)勾畫 面向語義分割要求的樣本標(biāo)簽矢量數(shù)據(jù)勾畫要求準(zhǔn)確表達樣區(qū)內(nèi)所有地物的邊界。當(dāng)不同地物在內(nèi)業(yè)地物類別判定時,會引入判讀誤差,如水稻與玉米、花生等容易混淆。同時,長勢不一的水稻也會增加相同地物的邊界判定難度,進一步增加樣本勾畫的難度。圖3為面向語義分割要求的水稻樣本標(biāo)簽勾畫范例。

根據(jù)地面調(diào)查點、無人機數(shù)據(jù)、GF1和GF2遙感影像,利用ArcMap軟件在研究區(qū)域內(nèi)勾畫面向語義分割要求的樣本標(biāo)簽矢量數(shù)據(jù)(表2)。

由表1、表2可知,面向語義分割要求的樣本標(biāo)簽矢量數(shù)據(jù)勾畫要求準(zhǔn)確繪制所有地物的邊界,面向像元分類要求的樣本標(biāo)簽矢量數(shù)據(jù)勾畫僅需繪制分類地物的純凈邊界。在實際工程應(yīng)用中,面向語義分割要求的樣本標(biāo)簽矢量數(shù)據(jù)勾畫工作量和工作難度將會大幅增加。

1.3 規(guī)則樣本生成

1.3.1 像元分類要求的規(guī)則樣本生成 第一步:輸入表1的樣本標(biāo)簽矢量數(shù)據(jù),按照圖4的流程進行規(guī)則樣本制作;第二步:通過調(diào)用PyTorch的均值平滑、高斯平滑、高斯噪聲、裁剪、鏡像、縮放、旋轉(zhuǎn)、銳化、平移樣本增強算法,對上述規(guī)則樣本進行樣本增強,從而豐富樣本數(shù)量和樣本形態(tài)。

1.3.2 語義分割要求的規(guī)則樣本生成 第一步:輸入表2的樣本標(biāo)簽矢量數(shù)據(jù)、遙感影像;第二步:設(shè)定樣本的尺寸,按照尺度對樣本標(biāo)簽矢量數(shù)據(jù)、遙感影像進行裁切,其中樣本標(biāo)簽矢量數(shù)據(jù)裁切后輸出為柵格Mask層,每個矢量圖斑的像素值為樣本類型編碼,考慮研究區(qū)域內(nèi)非水稻樣本標(biāo)簽矢量數(shù)據(jù)較少,對輸出柵格Mask層的非水稻地物類型編碼統(tǒng)一賦值為0;第三步:對輸出的柵格Mask層以及對應(yīng)裁切的遙感影像塊進行樣本增強。

1.4 樣本集制作

1.4.1 像元分類要求的水稻提取DCNN樣本集

1)單一尺度像元水稻提取DCNN樣本集。按照“1.3”項流程,利用GF2遙感影像的樣本標(biāo)簽矢量數(shù)據(jù),在GF2遙感影像上進行樣本制作,樣本尺度設(shè)定為13 px×13 px。像元分類基本樣本數(shù)量通常較小,因此選擇13 px×13 px作為輸入大小。在GF2遙感影像上進行的最小樣本面積集中在250 m2左右,采用13 px×13 px基本可以最大化地適用這些基本樣本,同時增大感受野,從而得到盡可能多的特征上下文信息。

表3為單一尺度像元水稻提取DCNN樣本集,并按照7∶2∶1劃分為訓(xùn)練集、驗證集和測試集。

2)多尺度像元水稻提取DCNN樣本集。按照“1.3”項流程,利用GF2遙感影像的樣本標(biāo)簽矢量數(shù)據(jù),在GF2遙感影像上按照7 px×7 px、13 px×13 px、19 px×19 px 3個尺度進行樣本制作,生成表4所示的樣本集,并按照7∶2∶1劃分為訓(xùn)練集、驗證集、測試集。

1.4.2 語義分割要求的水稻提取DCNN樣本集 按照“1.3”項流程,利用GF2遙感影像的樣本標(biāo)簽矢量數(shù)據(jù),按照128 px×128 px的樣本尺度在GF2遙感影像上進行樣本集制作,樣本數(shù)據(jù)量為103 684個,并按照7∶2∶1劃分為訓(xùn)練集、驗證集、測試集。

2 基于像元和多尺度的水稻識別提取模型設(shè)計

深度卷積神經(jīng)網(wǎng)絡(luò)的經(jīng)典模型一直層出不窮,但模型的基本單元未發(fā)生編號變化,主要包括輸入層、卷積層、池化層、全連接層、輸出層[17]。

2.1 基于像元分類的水稻提取DCNN模型構(gòu)建

本研究借鑒LeNet-5[18]、ResNet[19]、AlexNet[20]等DCNN圖像分類方法來實現(xiàn)水稻像素級別的遙感分類,其基本思路為將該像素及周邊的區(qū)域作為一個像素塊輸入網(wǎng)絡(luò)進行預(yù)測,通過像素塊標(biāo)定像素的類型以實現(xiàn)像素級別的遙感分類。中國的農(nóng)田普遍存在零散化、地塊面積小的問題,感知區(qū)域受到像素大小限制,因此采用AlexNet等復(fù)雜DCNN模型時會因為樣本過小導(dǎo)致無法開展模型訓(xùn)練。LeNet-5是最早的卷積神經(jīng)網(wǎng)絡(luò)之一,其優(yōu)勢是卷積核較小,能有效減少網(wǎng)絡(luò)的計算復(fù)雜度,且能夠提取紋理及深度信息,使多通道間的信息相互關(guān)聯(lián)增加交互,對數(shù)字識別和局部紋理重復(fù)顯著、小圖像的目標(biāo)識別具有較好效果。同時,在樣本上勾畫上,LeNet-5只要求在地物目標(biāo)中勾畫有代表性的一個小塊即可,不需要在全部圖像范圍內(nèi)精細勾畫目標(biāo)的邊界,大大減輕樣本勾畫難度。因此,本研究以LeNet-5為原型,通過對LeNet-5進行改進,提出可適用于水稻提取的DCNN模型。

模型總體架構(gòu)包括輸入層Input、卷積層C1、卷積層C2、卷積層C3、池化層P1、卷積層C4、池化層P2、全連接層、輸出層Output,如圖5所示。

表5為模型結(jié)構(gòu)對應(yīng)的具體參數(shù)描述,包括模型每層類型(Type)、步長(Stride)、卷積核大?。≒atch size)、特征圖數(shù)(FeatureMap size)、每層輸出尺度(Output size)。

2.2 基于多尺度的水稻提取DCNN模型優(yōu)化

基于不同尺度的圖像特征可以獲取不同尺度下的上下文信息,從而提高模型對不同尺寸和形狀水稻目標(biāo)的提取能力。在深度卷積神經(jīng)網(wǎng)絡(luò)中,圖像特征尺度與感受野密切相關(guān)。為了進一步提高模型性能,本研究將多尺度與DCNN相結(jié)合,構(gòu)建多尺度融合網(wǎng)絡(luò),增加感受野的多尺度特性,實現(xiàn)更高精度的水稻提取。

對“2.1”項水稻提取DCNN模型的輸入尺度進行調(diào)整,形成19 px×19 px×4 px、9 px×9 px×4 px、13 px×13 px×4 px 3個感受野不同的訓(xùn)練通道,如圖6所示。3個訓(xùn)練的網(wǎng)絡(luò)結(jié)構(gòu)相同,并同時進行網(wǎng)絡(luò)反向傳播,共享網(wǎng)絡(luò)權(quán)值。3個訓(xùn)練結(jié)果經(jīng)過池化層P2后形成3個1 px×1 px×200 px的特征圖,然后進行相加操作形成1 px×1 px×600 px的特征圖,最后通過全連接層和輸出層形成分類結(jié)果。

3 結(jié)果與分析

3.1 試驗環(huán)境和參數(shù)設(shè)置

1)試驗數(shù)據(jù)。將“1.4”項制作的樣本集作為試驗數(shù)據(jù),訓(xùn)練集、驗證集和測試集的比例為7∶2∶1。

2)軟件環(huán)境。操作系統(tǒng)為內(nèi)存64 GB的CentOS 7.2,深度學(xué)習(xí)框架為PyTorch 1.5,編程環(huán)境為Python 3.5。

3)硬件環(huán)境。CPU型號為Intel(R) Xeon(R) E5-2650 v4 @2.20 GHz,GPU為Tesla P100。

4)參數(shù)設(shè)置。batch size設(shè)定為256,學(xué)習(xí)率初始設(shè)置為0.003,通過貝葉斯自動化調(diào)參框架進行學(xué)習(xí)率調(diào)整。

3.2 模型訓(xùn)練過程

圖7為“2.1”項設(shè)計的模型(單一尺度DCNN模型)在訓(xùn)練集和驗證集上隨迭代數(shù)(Epoch)的準(zhǔn)確率(acc)變化折線圖。模型在第23個Epoch的時候,將學(xué)習(xí)率從0.003調(diào)整為0.000 6;模型在第31個Epoch的時候,學(xué)習(xí)率從0.000 6調(diào)整為0.000 12,模型基本穩(wěn)定。

3.3 分類結(jié)果與精度分析

表6為單一尺度DCNN模型在測試集上分類結(jié)果的混淆矩陣,水稻分類精確率(Precision)為95.93%,召回率(Recall)為98.67%,平衡F分數(shù)(F1-Score)為97.28%。結(jié)果表明,單一尺度DCNN模型對水稻及非水稻地物均有較高的準(zhǔn)確率,說明單一尺度DCNN模型對地物分類的支撐和泛化能力較強。

3.4 不同模型的水稻提取效果分析

為了驗證“2.2”項設(shè)計的模型(多尺度DCNN模型)提取水稻效果,選取傳統(tǒng)機器學(xué)習(xí)的SVM模型、語義分割的D-Linknet模型和單一尺度DCNN模型進行對比分析。

3.4.1 單一尺度DCNN模型與SVM模型的對比 計算了單一尺度DCNN模型和SVM模型(選取徑向基函數(shù)為核函數(shù))在測試集上的準(zhǔn)確率、精確率、召回率和平衡F分數(shù),結(jié)果如表7所示。

水稻分類效果如圖8所示,采用SVM模型鹽噪聲問題嚴(yán)重,且容易與非水稻的植被混淆,易將水稻誤識別為林地、菜地。單一尺度DCNN模型能夠較好地處理鹽噪聲問題,且分類準(zhǔn)確率較SVM模型有較大提升。

3.4.2 單一尺度DCNN模型與D-Linknet模型的對比 由表8可知,相較于D-Linknet模型,單一尺度DCNN模型的精確率較低、召回率較高、平衡F分數(shù)相近,2種模型都能準(zhǔn)確提取絕大部分的水稻。

由圖9可知,針對水稻邊界細節(jié)信息,D-Linknet模型提取結(jié)果更接近標(biāo)簽地物邊界,表現(xiàn)更優(yōu)。因此,后續(xù)研究可結(jié)合D-Linknet模型結(jié)構(gòu)的優(yōu)點,對單一尺度DCNN模型結(jié)構(gòu)進行優(yōu)化,構(gòu)建既有分類精度又有邊界精度的水稻提取模型。

3.4.3 單一尺度DCNN模型與多尺度DCNN模型的對比 由表9可知,相較于單一尺度DCNN模型,多尺度DCNN模型在準(zhǔn)確率、精確率、召回率、平衡F分數(shù)上均有提升。

由圖10可知,從整體提取效果看,多尺度DCNN模型提取的水稻邊界更加合理,且水稻內(nèi)的孔洞較少,表現(xiàn)優(yōu)于單一尺度DCNN模型。

4 小結(jié)與展望

針對當(dāng)前基于深度學(xué)習(xí)的高分辨率遙感影像水稻提取存在的標(biāo)簽樣本匱乏、采集成本高等問題,借鑒LeNet-5、AlexNet等圖像分類方法,基于高分衛(wèi)星影像,使用多尺度DCNN模型對水稻進行提取,并與傳統(tǒng)機器學(xué)習(xí)SVM模型、語義分割D-Linknet模型、單一尺度DCNN模型進行對比。研究區(qū)域的水稻提取結(jié)果顯示,多尺度DCNN模型水稻提取準(zhǔn)確率、精確率、召回率、平衡F分數(shù)分別為97.75%、96.68%、99.08%、97.85%,與試驗的其他模型相比,多尺度DCNN模型結(jié)構(gòu)簡單、樣本制作簡便、識別精度高。后續(xù)將進一步研究將多尺度DCNN模型與D-Linknet模型的優(yōu)點融合,既解決樣本匱乏的問題,同時得到既有分類精度又有邊界精度的水稻提取效果。

參考文獻:

[1] 單 捷,岳彩榮,江 南,等.基于環(huán)境衛(wèi)星影像的水稻種植面積提取方法研究[J]. 江蘇農(nóng)業(yè)學(xué)報, 2012(4):728-732.

[2] XIAO X,BOLES S,LIU J,et al.Mapping paddy rice agriculture in southern China using multi-temporal MODIS images[J]. Remote sensing of environment, 2005, 95(4): 480-492.

[3] 陳樹輝,李 楊,曾凡君, 等. 基于環(huán)境星的混合像元分解水稻面積提?。跩]. 安徽農(nóng)業(yè)科學(xué), 2011,39(10): 6104-6106.

[4] 蔣 怡,李宗南,李丹丹, 等.基于OLI影像的四川丘陵地區(qū)水稻種植面積監(jiān)測[J]. 西南農(nóng)業(yè)學(xué)報, 2018,31(5):1051-1054.

[5] 玉素甫江·如素力,李蘭海,哈麗旦·司地克,等.基于面向?qū)ο鬀Q策樹的農(nóng)作物分類識別方法[J]. 新疆師范大學(xué)學(xué)報:自然科學(xué)版, 2016,35(1):25-32.

[6] 謝登峰,張錦水,潘耀忠,等. Landsat 8和MODIS融合構(gòu)建高時空分辨率數(shù)據(jù)識別秋糧作物[J]. 遙感學(xué)報,2015,19(5):791-805.

[7] 陳安旭,李月臣. 基于 Sentinel-2 影像的西南山區(qū)不同生長期水稻識別[J]. 農(nóng)業(yè)工程學(xué)報,2020,36(7):192-199.

[8] 高永康, 王臘紅, 陳家贏,等. 一種利用形態(tài)相似性的水稻信息提取算法[J]. 遙感信息, 2020,35(2): 76-86.

[9] 許童羽, 胡開越, 周云成, 等.基于 CART決策樹和 BP神經(jīng)網(wǎng)絡(luò)的Landsat 8 影像粳稻提取方法[J]. 沈陽農(nóng)業(yè)大學(xué)學(xué)報,2020,51(2):169-176.

[10] 王建勛,華 麗,鄧世超,等. 基于GF-1與MODIS時空融合的南方丘陵區(qū)水稻提取研究[J]. 中國農(nóng)業(yè)資源與區(qū)劃,2019,40(5):37-46.

[11] 趙亞杰, 黃進良, 王立輝,等. 基于時空融合NDVI及物候特征的江漢平原水稻種植區(qū)提取研究[J]. 長江流域資源與環(huán)境,2020, 29(2):424-432.

[12] 賴格英,楊星衛(wèi). 南方丘陵地區(qū)水稻種植面積遙感信息提取的試驗[J]. 應(yīng)用氣象學(xué)報, 2000, 11(1):247-254.

[13] ZHONG L,HU L,ZHOU H. Deep learning based multi-temporal crop classification[J].Remote sensing of environment,2019(221):430-443.

[14] HUETE A,DIDAN K,MIURA T,et al. Overview of the radiometric and biophysical performance of the MODIS vegetation indices[J].Remote sensing of environment,2002,83(1-2):195-213.

[15] RONNEBERGER O, FISHCHER P, BROX T. U-Net: Convolutional networks for biomedical image segmentation[A].Medical image computing and computer assisted intervention society.International conference on medical image computing and computer-assisted intervention[C]. Cham: Springer, 2015. 234-241.

[16] 鄭 鑫,潘 斌,張 健.可變形網(wǎng)絡(luò)與遷移學(xué)習(xí)相結(jié)合的電力塔遙感影像目標(biāo)檢測法[J].測繪學(xué)報,2020,49(8):1042-1005.

[17] 劉艷飛. 面向高分辨率遙感影像場景分類的深度卷積神經(jīng)網(wǎng)絡(luò)方法[D]. 武漢:武漢大學(xué),2019.

[18] 吳陽陽, 彭廣德, 吳相飛.基于LeNet-5改進的卷積神經(jīng)網(wǎng)絡(luò)圖像識別方法[J]. 信息與電腦, 2018(7):127-130.

[19] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[A]. IEEE conference on computer vision and pattern recognition. proceedings of 2016 IEEE conference on computer vision and pattern recognition[C]. Las Vegas:IEEE. 2016. 770-778.

[20] KRIZHERVSKY A, SUTSKERVER I, HINTON G E. Imagenet classification with deep convolutional neural networks[A].Conference and workshop on neural information processing systems.Advances in neural information processing systems[C]. Stateline:Stateline, 2012.1097-1105.

猜你喜歡
勾畫尺度標(biāo)簽
邵焜琨:勾畫環(huán)保產(chǎn)業(yè)新生態(tài)
華人時刊(2023年13期)2023-08-23 05:42:54
財產(chǎn)的五大尺度和五重應(yīng)對
無懼標(biāo)簽 Alfa Romeo Giulia 200HP
車迷(2018年11期)2018-08-30 03:20:32
不害怕撕掉標(biāo)簽的人,都活出了真正的漂亮
海峽姐妹(2018年3期)2018-05-09 08:21:02
宇宙的尺度
太空探索(2016年5期)2016-07-12 15:17:55
找一找
標(biāo)簽化傷害了誰
我國反腐敗立法路線圖如何勾畫
公民與法治(2016年8期)2016-05-17 04:11:30
鼻咽癌三維適型調(diào)強放療靶區(qū)勾畫的研究進展
基于多進制查詢樹的多標(biāo)簽識別方法
計算機工程(2015年8期)2015-07-03 12:20:27
米脂县| 翼城县| 同江市| 启东市| 方正县| 崇礼县| 惠水县| 和顺县| 延安市| 宿迁市| 东莞市| 昂仁县| 玉田县| 井冈山市| 淳化县| 潞城市| 靖江市| 鄂托克前旗| 株洲县| 漯河市| 漳平市| 西畴县| 师宗县| 米脂县| 柘城县| 玉环县| 镇江市| 沙雅县| 济源市| 大石桥市| 乡宁县| 临颍县| 青海省| 蒙山县| 香河县| 柳江县| 中宁县| 三江| 三都| 堆龙德庆县| 准格尔旗|