国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進YOLOv8的中藥材圖像識別

2024-11-07 00:00:00趙哲燕振剛陳蕾
軟件工程 2024年11期

摘要:針對傳統(tǒng)中藥材檢測任務中識別效率低、受主觀因素影響較大的問題,文章選取77種中藥材作為研究對象。采用自行拍攝圖像和在互聯(lián)網(wǎng)獲取圖像的方式,并結(jié)合旋轉(zhuǎn)平移、高斯噪聲等數(shù)據(jù)增強技術(shù),最終構(gòu)建了一個包含4萬多張圖像的數(shù)據(jù)集。在模型改進方面,對第八代只看一次目標檢測算法(YouOnlyLookOnceversion8,YOLOv8)的Backbone部分進行了針對性的優(yōu)化,引入了DSConv和Biformer注意力機制。DSConv能夠自適應地關(guān)注細長和曲折的局部特征,而Biformer則通過雙層路由機制,實現(xiàn)了內(nèi)容感知的稀疏模式,提高了模型對圖像細節(jié)和關(guān)鍵目標的識別能力。實驗結(jié)果表明,改進后的YOLOv8模型的精確率、召回率和平均精度分別達到了96.4%、98.0%和97.7%,相較于原模型的精確率和平均精度分別增長了1.7百分點和1.0百分點。在中藥材檢測任務上取得了顯著的性能提升效果。

關(guān)鍵詞:YOLOv8;中藥材識別;蛇形動態(tài)卷積;Biformer注意力機制

中圖分類號:TP391.7文獻標志碼:A

0引言(Introduction)

中藥材作為中醫(yī)藥事業(yè)的基石,擁有數(shù)千年的歷史,并在我國醫(yī)藥領(lǐng)域中占據(jù)舉足輕重的戰(zhàn)略地位[1\|2]。在傳統(tǒng)的中藥材分類和識別中,主要依靠人工經(jīng)驗完成對中藥材的檢測,這種方式效率低且受主觀因素影響較大[3]。隨著信息技術(shù)和網(wǎng)絡技術(shù)的發(fā)展,以及圖像檢測技術(shù)的廣泛應用[4],各行各業(yè)都迎來了技術(shù)革新。深度學習技術(shù)與中醫(yī)藥領(lǐng)域相融合,為中藥材的鑒定帶來了前所未有的準確性和便捷性,有效克服了傳統(tǒng)中藥材識別方法的不穩(wěn)定性、主觀性強等問題,推動了中醫(yī)學的現(xiàn)代化進程。

岑忠用等[5]利用近紅外漫反射光譜采集一定范圍內(nèi)的光譜信息,結(jié)合主成分分析方法等建立定性判別模型,對6種容易混淆的根莖類中藥材圖像進行識別,該方法能夠很好地識別出根莖類的中藥材圖像。張開生等[6]通過工業(yè)攝像頭獲取冬蟲夏草的多角度圖像信息并搭建網(wǎng)絡模型,識別準確率達到94%。劉思岐等[7]使用光譜功率分布(SpectralPowerDistribution,SPD)對光譜數(shù)據(jù)進行轉(zhuǎn)化分析,運用聚類分析方法選擇木材種類數(shù)據(jù)的特征,確定最優(yōu)維數(shù)據(jù)特征并將確定好的特征信息輸入改進后的網(wǎng)絡模型中,得到了測試集最高識別率達到88.7%的結(jié)果。

上述研究在圖像識別方面獲得了很好的識別效果,但也存在許多的不足,例如忽略了數(shù)據(jù)集背景和對圖像細節(jié)的關(guān)注度不夠,導致模型識別準確率不高,并且網(wǎng)絡模型結(jié)構(gòu)比較復雜,不能很好地遷移到其他任務上,與實際應用仍然存在一定的差距。因此,本研究選取白芍、陳皮等77種中藥材圖像作為研究對象,以YOLOv8作為基礎(chǔ)模型,對如何提升模型泛化能力和提升模型精度展開研究。

1材料與方法(Materialsandmethods)

1.1數(shù)據(jù)集來源與構(gòu)成

目前,還沒有大規(guī)模公開的關(guān)于中藥材的數(shù)據(jù)集,尤其對于西部地區(qū)來說,并沒有可以使用的藥材圖像數(shù)據(jù)集;此外,深度神經(jīng)網(wǎng)絡的分類任務對數(shù)據(jù)集的規(guī)模要求比較高,只有充足的數(shù)據(jù)集才能對模型進行充分的訓練并加以改進,得到泛化能力較強的優(yōu)良模型。因此,本文選取了甘肅省境內(nèi)分布的77種中藥材,中藥材樣例如圖1所示,由自行拍攝的圖片和來自互聯(lián)網(wǎng)的圖片共同構(gòu)成本研究的數(shù)據(jù)集。自行拍攝使用的工具為“索尼”A7C2相機和“騰龍”28~200mm鏡頭的組合;為了減少陰影和反光,保證圖片的質(zhì)量,選擇在自然光線下從不同的角度(包括正面、側(cè)面、背面和頂部視角)對中藥材進行拍攝;為了確保圖像識別的準確性,選擇純白色的卡紙作為環(huán)境背景,避免了復雜背景對圖像識別造成的干擾,使得中草藥的圖像更加突出、清晰;在此基礎(chǔ)上,對自行拍攝的圖像進行標注、整理和分類工作,確保數(shù)據(jù)集的高質(zhì)量和可用性。網(wǎng)絡數(shù)據(jù)集使用的是Chinese\|Medicine\|163,該數(shù)據(jù)集共收集了163種中藥材的圖片數(shù)據(jù),數(shù)據(jù)集主要來源于網(wǎng)絡爬蟲圖片檢索,并經(jīng)過人工清洗整合收集完成,雖然有小部分圖片存在水印和復雜背景的干擾信息以及模糊和不完整等問題,但是整體數(shù)據(jù)質(zhì)量滿足要求,可以用于中草藥AI識別算法研究;Chinese\|Medicine\|163分為訓練集(Train)和測試集(Test)兩個子集,其中訓練集總數(shù)超過25萬張圖片,平均每個種類約有1575張圖片,測試集(Test)總數(shù)有1萬張圖片,平均每個種類約有61張圖片,所有照片都已經(jīng)按照其所屬類別存放于各自的文件夾中,可直接用于YOLOv8模型訓練。在Chinese\|Medicine\|163中篩選出本研究需要的77種中藥材數(shù)據(jù),對其進行二次篩選處理,進一步保證圖像的質(zhì)量。

1.3基于改進YOLOv8的方法

1.3.1YOLOv8

YOLOv8是由Ultralytics開發(fā)的領(lǐng)先的SOTA(State\|of\|the\|Art)模型[10]。該框架目前支持圖像分類、物體檢測和實例分割任務。YOLOv8最顯著的改進之處在于其出色的可擴展性。設(shè)計者將其打造成一個兼容YOLO歷史版本的框架,使開發(fā)者可以自由切換并進行實驗對比。此外,該框架引入了新的功能和改進,包括全新的骨干網(wǎng)絡、Ancher\|Free檢測頭和損失函數(shù)等[11],進一步提升了模型的性能和靈活性。YOLOv8識別算法的網(wǎng)絡結(jié)構(gòu)圖如圖3所示。

在YOLOv8的網(wǎng)絡模型架構(gòu)上,將其Backbone部分的卷積層替換成蛇形動態(tài)卷積(圖3中第2層、第3層),提高模型對瘦長和曲折的局部特征的自適應關(guān)注能力;同時,對第54層和第64層卷積層進行殘差連接,使得網(wǎng)絡可以直接學習殘差(即輸入與輸出之間的差異),從而能更容易地傳遞梯度和學習有效的特征表示,然后在網(wǎng)絡的空間金字塔池化與跨階段局部連接(SpatialPyramidPoolingCrossStagePartial,SPPCSPS)模塊中添加Biformer注意力機制[12],以改進對圖像中不同區(qū)域的重要性建模能力,提高模型對圖像細節(jié)和關(guān)鍵目標的識別能力,以及加強對全局上下文的考慮。YOLOv8首先將輸入的圖片調(diào)整為640×640的像素大小,輸入backbone網(wǎng)絡中,然后經(jīng)head層網(wǎng)絡輸出3層不同規(guī)格大小的特征圖像,經(jīng)過Rep和Conv輸出預測結(jié)果。

在YOLOv8模型中,多路徑(MP)模塊采用雙分支策略以實現(xiàn)高效的下采樣處理。每個分支均致力于調(diào)整通道數(shù)并執(zhí)行下采樣操作,但采用了不同的技術(shù)路徑。第一個分支首先通過最大池化層(maxpool)進行空間維度的縮減,其次通過1×1卷積層調(diào)整通道數(shù),以優(yōu)化特征表示。第二個分支首先通過1×1卷積層進行通道數(shù)的初步調(diào)整,其次通過一個具有3×3卷積核和步長為2的卷積層進一步下采樣,以實現(xiàn)更精細的特征提取。最終,兩個分支的輸出通過拼接操作合并,形成一種復合的下采樣結(jié)果,不僅增強了特征的表達能力,也提高了模型對不同尺度特征的捕捉能力。MP1模塊和MP2模塊在通道數(shù)的調(diào)整上有所差異,MP1模塊的輸入尺寸為160×160×256,輸出尺寸調(diào)整為80×80×256,而MP2模塊則接受兩種不同尺寸的輸入,即80×80×128和40×40×256,通過拼接技術(shù)輸出統(tǒng)一的40×40×256尺寸。YOLOv8模型中的MP1模塊和MP2模塊的結(jié)構(gòu)圖分別如圖4和圖5所示。

ELAN(EffectiveLong\|RangeAggregationNetwork)模塊,作為一種高效的網(wǎng)絡結(jié)構(gòu),通過精確調(diào)控梯度傳播路徑,不僅促進了網(wǎng)絡對多樣化特征的學習,還顯著提升了模型的魯棒性。該模塊由兩eFIplOnbuxnC9t6PGsSzPTENqHFkaugv30hXZmsuKlk=條并行分支構(gòu)成,每條分支都致力于優(yōu)化特征表示。在第一條分支中,1×1卷積層負責調(diào)整通道數(shù),以實現(xiàn)特征的初步轉(zhuǎn)換。第二條分支更為復雜,它首先通過1×1卷積層進行通道數(shù)的調(diào)整,其次經(jīng)過連續(xù)4個3×3卷積層的深入特征提取。這4個獨立的特征提取層的輸出最終被疊加,以合成更為豐富和精確的特征表示。ELAN模塊的輸入尺寸為160×160×128,經(jīng)過模塊處理后,輸出尺寸變?yōu)?60×160×236。而ELAN′模塊,作為其變體,接受40×40×512的輸入尺寸,并輸出40×40×256的尺寸。這兩種模塊的設(shè)計和結(jié)構(gòu)細節(jié)分別在圖6和圖7中進行了展示。

空間金字塔池化與跨階段局部連接注意力機制模塊(SpatialPyramidPoolingCrossStagePartialAttention,SPPCSPC_ATT),作為YOLOv5中快速空間金字塔池化(SpatialPyramidPooling\|Fast,SPPF)模塊的改進版本,引入了5×5、9×9、13×13的多尺度最大池化技術(shù)。這種設(shè)計的核心優(yōu)勢在于其能夠擴展網(wǎng)絡的感受野,從而使得算法能夠適應不同分辨率的圖像輸入。通過最大池化策略,SPPCSPC_ATT模塊能夠捕捉到不同尺度的特征,這對于處理圖像中大小不一的目標至關(guān)重要。該模塊的第一條分支采用了4個不同尺寸的最大池化操作,分別為5×5、9×9、13×13和1×1。這些池化操作不僅代表了網(wǎng)絡對不同尺度對象的處理能力,而且通過各自的感受野,能夠區(qū)分并識別圖像中的大目標與小目標。例如,在識別中藥材圖像時,由于它們的尺寸存在差異,因此網(wǎng)絡能夠利用不同尺度的最大池化更準確地識別和區(qū)分這些目標。SPPCSPC_ATT模塊結(jié)構(gòu)圖如圖8所示。

跨階段局部網(wǎng)絡模塊(CrossStagePartialNetwork,CSP),首先將特征分為兩個部分,一部分進行常規(guī)的處理,另一部分進行空間金字塔池化結(jié)構(gòu)(SpatialPyramidPooling,SPP)的處理,其次把兩個部分合并在一起,實現(xiàn)了在減少計算量的同時提升模型的速度和精度。

1.3.2蛇形動態(tài)卷積

在圖像處理中,卷積是一種常用的運算方式,它可以提取圖像的特征,用于后續(xù)的圖像識別、分類等任務。在傳統(tǒng)的卷積方式中,由于其結(jié)構(gòu)的剛性和固定性,使其在對細長結(jié)構(gòu)等特殊圖像結(jié)構(gòu)的特征提取,存在一定的局限性。為克服這一缺陷,引入了蛇形動態(tài)卷積(DynamicSnakeConvolution,DSConv)[13]。

在DSConv中,首先給出了標準2D卷積的坐標,以此為基礎(chǔ),蛇形動態(tài)卷積的中心坐標就能被確定。這個中心坐標是動態(tài)的,可以隨著輸入特征的變化而變化,因此DSConv可以更靈活地適應圖像中的細長、微小的結(jié)構(gòu)。DSConv結(jié)構(gòu)圖如圖9所示。

圖9中從左至右全面展示了一種新型的、專為解決薄管狀結(jié)構(gòu)分割困難而提出的知識融合模型,它融合了蛇形動態(tài)卷積、多角度特征融合策略和拓撲連續(xù)性約束損失函數(shù),三者相互配合,可以實現(xiàn)對管狀結(jié)構(gòu)的精確分割。首先,輸入圖像,該圖像包含待分割的拓撲管狀結(jié)構(gòu)信息。其次,圖像通過DSConv可以自適應地關(guān)注細長和曲折的局部特征,從而實現(xiàn)對2D和3D數(shù)據(jù)集中管狀結(jié)構(gòu)的精確分割。再次,模型采用多角度特征融合策略,將從多個不同角度獲取的特征進行融合,并補充注意力到關(guān)鍵特征上,確保模型能很好地識別和分割不同角度、不同形狀的管狀結(jié)構(gòu)。最后,圖像進入拓撲連續(xù)性約束損失函數(shù)處理階段。這種損失函數(shù)基于持久同胚理論,可以更好地約束分割的連續(xù)性。通過兩種損失函數(shù)的聯(lián)合影響,對分割結(jié)果的拓撲性和精度都進行了限制,有助于實現(xiàn)連續(xù)的管狀分割。

1.3.3Biformer注意力機制

Biformer是一種新型的視覺變壓器,它引入了一種獨特的雙層路由機制,使得在查詢自適應方式下,實現(xiàn)內(nèi)容感知的稀疏模式。Biformer在模型大小相似的情況下,與基線模型相比,對象檢測和語義分割等在各種計算機視覺任務上(如圖像分類)都取得了顯著的性能提升。

Biformer的主要工作原理是基于雙層路由注意力(BRA)機制[14]。BRA能夠?qū)崿F(xiàn)動態(tài)和查詢自適應的稀疏性。這種機制能夠在保證高效的情況下,實現(xiàn)對圖像的細致分析。同時,Biformer采用了層次化的設(shè)計,使得模型在處理大規(guī)模數(shù)據(jù)時,也能保持高效和準確。BRA工作流程圖如圖10所示。

圖10的左邊部分是在區(qū)域級別上的注意力分配,右邊部分是在令牌級別上的注意力操作。左邊部分,首先對整個圖像進行分區(qū);其次,在這些區(qū)域中選擇出與查詢最相關(guān)的區(qū)域,這一操作是通過構(gòu)建和修剪區(qū)域級別的有向圖實現(xiàn)的。從圖10中可以看到,有一些區(qū)域被選擇出來,而有些區(qū)域則被忽略,這些被選擇出來的區(qū)域就是與查詢最相關(guān)的區(qū)域,它們的選擇是基于區(qū)域內(nèi)的鍵值對的相似性。這樣做的好處是,可以在一定程度上過濾與查詢無關(guān)的區(qū)域,從而提高計算效率。

從圖10的右邊部分可以看出,在選定相關(guān)區(qū)域后,需要在這些區(qū)域內(nèi)進行令牌級別的注意力操作。這一操作是通過計算查詢和每個令牌的相似性實現(xiàn)的。每個令牌都有一個對應的注意力分數(shù),該分數(shù)表示該令牌與查詢的相關(guān)性。將這些分數(shù)進行歸一化,以便得到最終的注意力分布。

從整體上看,通過區(qū)域級別和令牌級別的注意力操作,實現(xiàn)了一種動態(tài)的、基于查詢的稀疏性。這種方法不僅能夠有效地分配計算資源,還能夠捕捉到長距離的對象之間的關(guān)系。Biformer在圖像分類、物體檢測和語義分割等任務中都表現(xiàn)出了優(yōu)秀的性能。例如,在圖像分類任務上,Biformer經(jīng)過ImageNet1K的訓練,取得了優(yōu)秀的分類性能,同時在COCO和ADE20K數(shù)據(jù)集上的物體檢測和語義分割任務中也取得了顯著的效果提升。Biformer通過雙層路由注意力機制,能夠?qū)崿F(xiàn)對圖像的精細分析,這有助于藥材的檢測識別。Biformer能夠識別出藥材的不規(guī)則區(qū)。此外,Biformer的層次化設(shè)計也使得它在處理大規(guī)模數(shù)據(jù)時,仍然能夠保持高效率和準確性。Biformer在藥材識別任務上的主要優(yōu)勢在于其精細的圖像分析能力和高效的處理性能。精細的圖像分析能力能使Biformer準確識別出目標區(qū)域,而高效的處理性能使Biformer處理大規(guī)模的數(shù)據(jù)。這兩點優(yōu)勢都是藥材識別任務的重要需求。

1.4評價指標

為了評估模型的性能,本次實驗使用了精確度(P)、召回率(R)和平均精度(mAP)作為判斷模型性能的評價指標[15\|16]。以上指標的計算方法如公式(1)至公式(4)所示。

2實驗結(jié)果與分析(Experimentalresultsandanalysis)

2.1實驗環(huán)境

實驗使用的計算機的GPU是RTX4090(24 GB)*1。CPU是12vCPUIntel(R)Xeon(R)Platinum8352VCPU@2.10GHz。PyTorch版本為1.11.0,Python版本為3.8,CUDA版本為11.3。

2.2實驗結(jié)果

2.2.1模型改進前后的中藥材檢測對比

為了綜合檢驗改進模型對中藥材的檢測能力,從測試集中選取不同中藥材的部分樣本,利用改進前后訓練好的模型權(quán)重進行測試,結(jié)果如圖11所示。

從圖10展示的模型改進前后檢測效果對比可知,改進后的YOLOv8模型置信度較原模型有所提升,直接反映了模型對于目標檢測結(jié)果的可靠程度。證明了改進方法的有效性,能夠提高模型的精度。

2.2.2消融實驗

為了驗證各改進策略對網(wǎng)絡模型檢測性能的影響,本文在YOLOv8的基礎(chǔ)上,分別單獨采用蛇形動態(tài)卷積網(wǎng)絡作為骨干網(wǎng)絡,引入Biformer注意力機制2種策略聯(lián)合分析模型性能變化,消融實驗結(jié)果如表1所示。本實驗基于YOLOv8算法對77種中藥材進行識別檢測,數(shù)據(jù)集中包含這些中藥材的圖像數(shù)據(jù),包括外觀、顏色、紋理等特征。使用YOLOv8模型在本實驗所制數(shù)據(jù)集上進行實驗,實驗結(jié)果如表2所示,其中精確度、召回率和平均精度(mAP)分別達到了94.7%、98.0%和96.7%。為了提高模型的檢測準確率,本文對YOLOv8模型進行了改進,改進后的YOLOv8模型的精確度、召回率和平均精度(mAP)分別達到了96.4%、98.0%和97.7%,相較原模型精確度和平均精度(mAP)分別增長了1.7百分點和1.0百分點。

綜上所述,基于改進的YOLOv8對中藥材識別檢測的實驗結(jié)果表明,改進后的模型相較于原模型可以更有效地應用于中藥材檢測和分類領(lǐng)域,具有較高的識別準確率和魯棒性,有望在中藥材產(chǎn)業(yè)中發(fā)揮重要作用。

3結(jié)論(Conclusion)

針對中藥材種類多、識別效率低、受主觀因素影響大等問題,本文提出一種基于YOLOv8改進的YOLOv8目標檢測模型,將原始模型的骨干網(wǎng)絡替換成蛇形動態(tài)卷積網(wǎng)絡,以實現(xiàn)模型輕量化,并在網(wǎng)絡中引入Biformer注意力機制,提高了模型表征能力,通過消融實驗得出以下結(jié)論。

(1)將YOLOv8模型骨干網(wǎng)絡替換為蛇形動態(tài)卷積網(wǎng)絡,減少了模型的參數(shù)量和計算量,實現(xiàn)了模型的輕量化;網(wǎng)絡中融入的Biformer注意力機制增強了模型對中藥材目標特征的聚焦程度,提高了模型檢測精度。

(2)改進后模型的檢測平均精確度達到了97.7%,與其他主流目標檢測模型相比,該模型具有較好的魯棒性,能夠準確識別不同形態(tài)下的中草藥目標。

參考文獻(References)

[1]田園.基于文本分析的甘肅省隴西縣中醫(yī)藥產(chǎn)業(yè)政策研究[D].昆明:云南師范大學,2023.

[2]ZHAOZZ,LIANGZT,PINGG.MacroscopicidentificationofChinesemedicinalmaterials:traditionalexperiencesandmodernunderstanding[J].Journalofethnopharmacology,2011,134(3):556\|564.

[3]LUQ,LICL.ComprehensiveutilizationofChinesemedicineresiduesforindustryandenvironmentprotection:turningwasteintotreasure[J].Journalofcleanerproduction,2021,279:123856.

[4][JP3]WANGWY,ZHOUH,WANGYF,etal.CurrentpoliciesandmeasuresonthedevelopmentoftraditionalChinesemedicineinChina[J].Pharmacologicalresearch,2021,163:105187.

[5]岑忠用,雷順新,雷蕾,等.近紅外光譜法鑒別6種根莖類中藥材[J].華中農(nóng)業(yè)大學學報,2021,40:271\|277.

[6]張開生,薛楊,石瑞華.基于CNN的冬蟲夏草智能化分揀系統(tǒng)研究[J].中藥材,2018,41(5):1077\|1082.

[7]&nbA+ri6R6jVOSWrSVGNpiQY4UMW3iX7GrbvcAm5yuBVl8=sp;劉思岐,馮國紅,唐潔,等.中紅外光譜結(jié)合CA\|SDP\|DenseNet的木材種類識別研究[J].SpectroscopyandSpectralAnalysis,2023,43:814\|822.

[8]李翠玲,李余康,譚昊然,等.基于K\|means聚類和RF算法的葡萄霜霉病檢測分級方法[J].農(nóng)業(yè)機械學報,2022,53(5):225\|236,324.

[9]帖軍,隆娟娟,鄭祿,等.基于an+9KdJjI+8TTu0UPsOxhDm1h+kXx5Qd9r6N0iEuCDM=SK\|EfficientNet的番茄葉片病害識別模型[J].廣西師范大學學報(自然科學版),2022,40(4):104\|114.

[10]馬超偉,張浩,馬新明,等.基于改進YOLOv8的輕量化小麥病害檢測方法[J].農(nóng)業(yè)工程學報,2024,40(5):187\|195.

[11]郭嘉璇,王蓉芳,南江華,等.融入全局相應歸一化注意力機制的YOLOv5農(nóng)作物害蟲識別模型[J].農(nóng)業(yè)工程學報,2024,40(8):159\|170.

[12]張瑤,陳姚節(jié).改進YOLOv8的水面小目標檢測算法[J].計算機系統(tǒng)應用,2024,33(4):152\|161.

[13]DONGXH,LISX,ZHANGJX.YOLOV5sobjectdetectionbasedonSimSPPFhybridpooling[J].Optoelectronicsletters,2024,20(6):367\|371.

[14]鄭昌艷,梅衛(wèi),王剛.基于深度卷積神經(jīng)網(wǎng)絡的蛇形機動航跡圖像識別[J].火力與指揮控制,2016,41(5):66\|70.

[15]張林鍹,巴音塔娜,曾慶松.基于StyleGAN2\|ADA和改進YOLOv7的葡萄葉片早期病害檢測方法[J].農(nóng)業(yè)機械學報,2024,55(1):241\|252.

[16]王相友,李晏興,楊振宇,等.基于改進YOLOv4模型的馬鈴薯中土塊石塊檢測方法[J].農(nóng)業(yè)機械學報,2021,52(8):241\|247,262.

作者簡介:

趙哲(1999\|),男,本科生。研究領(lǐng)域:深度學習。

燕振剛(1978\|),男,博士,教授。研究領(lǐng)域:農(nóng)業(yè)信息化。

陳蕾(1982\|),女,碩士,副教授。研究領(lǐng)域:農(nóng)業(yè)信息化。

潢川县| 张家港市| 邹平县| 宣城市| 金华市| 博湖县| 临邑县| 万山特区| 广德县| 奉新县| 桂林市| 德格县| 黄平县| 合作市| 兴隆县| 天津市| 石景山区| 桃园市| 年辖:市辖区| 黑龙江省| 霍林郭勒市| 奉新县| 五台县| 乐都县| 新郑市| 平遥县| 山丹县| 长兴县| 丰台区| 雷州市| 甘南县| 隆昌县| 阿坝| 无锡市| 商河县| 内黄县| 江永县| 毕节市| 武宣县| 连江县| 永春县|