熊俊濤 劉柏林 鐘 灼 陳淑綿 鄭鎮(zhèn)輝
(華南農(nóng)業(yè)大學(xué)數(shù)學(xué)與信息學(xué)院, 廣州 510642)
在果園管理中,利用疏花疏果技術(shù)控制水果植株等農(nóng)作物的開(kāi)花時(shí)間、開(kāi)花數(shù)量和果實(shí)密度,對(duì)提高果實(shí)產(chǎn)量和質(zhì)量具有重要作用。隨著種植規(guī)模的不斷增大、人工成本的不斷提高,利用機(jī)器視覺(jué)對(duì)花果進(jìn)行監(jiān)控,以輔助疏花疏果、精準(zhǔn)施肥等管理顯得越來(lái)越重要。
相關(guān)學(xué)者利用機(jī)器視覺(jué)技術(shù)在識(shí)別花朵果實(shí)、實(shí)現(xiàn)智能采摘方面進(jìn)行了許多研究。熊俊濤等[1]采用LED照明系統(tǒng)獲取夜間荔枝果實(shí)圖像,在YIQ顏色空間使用Otsu、模糊c均值聚類和hough圓檢測(cè),實(shí)現(xiàn)了荔枝果實(shí)識(shí)別分割,準(zhǔn)確率達(dá)到95.3%,平均識(shí)別時(shí)間為0.46 s。武星等[2]簡(jiǎn)化YOLO v3模型的卷積塊數(shù)量,采用深度可分離卷積、融合損失函數(shù)和多階段優(yōu)化方法,提出了Light-YOLO v3模型,并用于蘋(píng)果檢測(cè),其平均精度達(dá)到94.69%,平均檢測(cè)速度為116.96 f/s。劉芳等[3]提出含有殘差模塊的YOLO模型,融合了多尺度特征檢測(cè)模塊,構(gòu)建了輕便型的復(fù)雜環(huán)境下番茄快速檢測(cè)模型,其準(zhǔn)確率達(dá)到96.36%,交并比為0.833,檢測(cè)時(shí)間為7.719 ms。此外,結(jié)合不同傳感器進(jìn)行的葡萄[4]、芒果[5]、梨[6]、草莓[7]等果實(shí)識(shí)別研究也越來(lái)越多。
相對(duì)果實(shí)識(shí)別而言,花朵識(shí)別研究相對(duì)較少。ACANSEN等[8]提出一種非物理接觸的花朵檢測(cè)方法,使用CCD相機(jī)拍攝雷斯克勒花的彩色圖像,根據(jù)RGB顏色空間的像素直方圖確定閾值,并根據(jù)閾值將花分割出來(lái),有效實(shí)現(xiàn)了花朵數(shù)量評(píng)估,且避免了物理?yè)p傷。WANG等[9]提出夜間環(huán)境下修正的芒果花分割方法,該方法將拍攝效果好的圖像作為參照?qǐng)D像,使用歸一化放縮法將其他圖像灰度放縮到參照?qǐng)D像的灰度范圍內(nèi),從而起到修正作用。在RGB顏色空間分割出芒果花、葉片和枝干后,訓(xùn)練識(shí)別花的支持向量機(jī),精確分割出芒果花,并計(jì)算花密度,其準(zhǔn)確率達(dá)到85.8%。WANG等[10]提出采用顏色修正方法增強(qiáng)樣本,在使用SURF方法提取花朵特征后,使用支持向量機(jī)實(shí)現(xiàn)分類,最后計(jì)算芒果花的密度,其準(zhǔn)確率達(dá)到86.6%。這些傳統(tǒng)的手工特征設(shè)計(jì)方法一般具有多個(gè)階段,每個(gè)階段的設(shè)計(jì)需要耗費(fèi)大量的精力,而且只能處理一些背景簡(jiǎn)單、規(guī)模較小的數(shù)據(jù)集,其泛化能力較差。
隨著深度學(xué)習(xí)的提出和廣泛應(yīng)用,深度學(xué)習(xí)方法被用于識(shí)別花朵。LIU等[11]設(shè)計(jì)了一個(gè)8層的網(wǎng)絡(luò)結(jié)構(gòu),包括5層“卷積、池化”組合模塊和3層全連接層,并配合局部歸一方法、重疊池化和Dropout技術(shù)。本文數(shù)據(jù)集來(lái)源于著名的細(xì)粒度識(shí)別數(shù)據(jù)集,Oxford 102 Flower Species Dataset,一共包括102個(gè)不同種類的花朵、8 189幅圖像。FARJON等[12]提出蘋(píng)果花識(shí)別、密度計(jì)算和開(kāi)花峰值期預(yù)估的方法,首先使用Faster R-CNN網(wǎng)絡(luò)識(shí)別樹(shù)上花朵,然后基于線性回歸方法根據(jù)識(shí)別花的數(shù)量和分布預(yù)測(cè)花密度,最后根據(jù)開(kāi)花量衰減時(shí)間判定開(kāi)花峰值時(shí)間,從而協(xié)助疏花決策。TIAN等[13]使用以U-Net為主干框架的Mask R-CNN模型檢測(cè)和分割不同成長(zhǎng)期的蘋(píng)果花,其預(yù)測(cè)精度達(dá)到96.43%,平均交并比為91.55%。深度特征提取的端到端學(xué)習(xí),從低層語(yǔ)義特征通過(guò)線性卷積核和非線性激活組合傳遞到高層語(yǔ)義特征,使各個(gè)階段的特征具有較強(qiáng)的依賴性,特征的表示能力顯著。
荔枝花朵稠密聚集、形態(tài)上難以區(qū)分,在繁花期花朵粘連成簇,目標(biāo)檢測(cè)、實(shí)例分割方法并不適合,而傳統(tǒng)的機(jī)器學(xué)習(xí)方法在復(fù)雜環(huán)境下效果不佳。針對(duì)上述問(wèn)題,本文提出一種基于深度語(yǔ)義分割網(wǎng)絡(luò)的像素分割方法,對(duì)圖像中花朵和葉片的像素進(jìn)行分類,實(shí)現(xiàn)整幅圖像的花和葉的識(shí)別,以期解決花朵稠密、粘連形態(tài)問(wèn)題。
使用Nikon單反攝像機(jī)拍攝荔枝花圖像,焦距、曝光和拍攝模式均為自動(dòng)。拍攝時(shí)間為2019年2月28日至3月25日,拍攝地點(diǎn)在華南農(nóng)業(yè)大學(xué)園藝學(xué)院實(shí)踐基地荔枝園。拍攝垂直角度變化范圍為0°~60°,拍攝條件包括順光、逆光,遠(yuǎn)距離和近距離,清晰和模糊,如圖1所示,共拍攝了675幅圖像。經(jīng)數(shù)據(jù)增強(qiáng)后為3 375幅,2 700幅為訓(xùn)練集,350幅為測(cè)試集,325幅為訓(xùn)練集,比例約為8∶1∶1。使用Matlab 2018的Image Labeler軟件人工手動(dòng)標(biāo)注荔枝花和周圍葉片的標(biāo)簽,標(biāo)簽共分3類,分別是背景、花朵和葉片。標(biāo)注后生成8位PNG灰度圖,0表示背景(黑色),1表示花朵(紅色),2表示葉片(綠色)。原圖和可視化標(biāo)注結(jié)果如圖1g、1h所示。
AlexNet[14]具有較好的的特征提取能力,并被應(yīng)用、改進(jìn)以解決各種機(jī)器視覺(jué)問(wèn)題,如圖形分類、圖像識(shí)別等。隨后提出的VGG網(wǎng)絡(luò)[15]、GoogleNet[16]和ResNet[17],在深度上不斷地堆疊卷積層,在寬度上增加并行的卷積核,再加上歸一化、激活函數(shù)的運(yùn)用,從而極大地提升了特征提取能力。
Deeplab V3[18]是Deeplab系列的第3個(gè)版本,源于全卷積網(wǎng)絡(luò) (Fully convolutional networks, FCN)[19]。FCN使用VGG16的主干網(wǎng)絡(luò)結(jié)構(gòu)提取圖像的高層語(yǔ)義特征,在網(wǎng)絡(luò)中增加了反卷積結(jié)構(gòu)用于恢復(fù)特征的空間信息,并將最后的線性全連接層替換為保留空間信息的全卷積層,實(shí)現(xiàn)像素預(yù)測(cè),解除了固定網(wǎng)絡(luò)輸入的限制。Deeplab V3借鑒了FCN上采樣恢復(fù)空間信息和全卷積像素預(yù)測(cè)的思想,使用空洞卷積、空洞空間金字塔池化(ASPP)結(jié)構(gòu)替代了FCN的反卷積上采樣??斩淳矸e增大提取特征的感受野,使空間信息更加豐富,但又不增加內(nèi)存消耗;ASPP結(jié)構(gòu)則使尺度多樣化,有利于提取多尺寸變化對(duì)象的特征。此后許多語(yǔ)義分割研究都在這些思想的基礎(chǔ)上發(fā)展。本文深度花朵像素分割模型基于Deeplab V3網(wǎng)絡(luò)的搭建思路,構(gòu)建一個(gè)合適深度的稠密特征傳遞、多尺度特征提取的主干網(wǎng)絡(luò),然后使用全卷積層實(shí)現(xiàn)花朵像素的預(yù)測(cè)和分割。整體模型包括主干網(wǎng)絡(luò)和像素預(yù)測(cè)兩部分,模型結(jié)構(gòu)如圖2所示。圖2中c表示特征通道上的拼接操作,d表示空洞卷積率。
1.2.1主干網(wǎng)絡(luò)構(gòu)建
本文基于Deeplab V3構(gòu)建一個(gè)適當(dāng)深度的特征提取主干網(wǎng)絡(luò),主干網(wǎng)絡(luò)一共34層,包括兩部分。第1部分為普通卷積層,卷積核為7×7,并包括一個(gè)尺寸為3×3的最大值池化層,粗略提取特征并減小特征尺寸提高語(yǔ)義性。第2部分為堆疊殘差層,主要有4個(gè)階段(Stage),每個(gè)階段包括一定數(shù)量的卷積塊。在卷積塊中使用3×3卷積核處理特征,并且特征數(shù)量隨著卷積塊的加深而增加,搭建的網(wǎng)絡(luò)主干結(jié)構(gòu)如圖3所示。
每個(gè)卷積塊表示一個(gè)殘差模塊[17],該結(jié)構(gòu)能有效減輕梯度消失和梯度爆炸問(wèn)題,權(quán)重學(xué)習(xí)更有效。本文卷積塊中加入了注意力模塊,其結(jié)構(gòu)如圖4所示。
在主干網(wǎng)絡(luò)的所有卷積操作后都有批量歸一化層和ReLU激活層。Channels為特征數(shù),階段1和階段2的輸入特征數(shù)為64,階段3為128,階段4為256,同一個(gè)階段的卷積塊之間的特征傳遞數(shù)量不變。Attention Blocks為注意力模塊。
1.2.2稠密特征傳遞
DenseNet[20]提出的深度網(wǎng)絡(luò)稠密特征傳遞能夠提高特征的重復(fù)使用性和減輕梯度消失的問(wèn)題,DenseNet的第k+1層輸入是前k層網(wǎng)絡(luò)的輸出,能充分地利用所有淺層特征信息。稠密特征傳遞的ASPP結(jié)構(gòu)構(gòu)成稠密特征金字塔(Dense ASPP)[21],通過(guò)并行的多尺度空洞卷積核編碼特征中不同尺寸物體的信息,有效解決圖像中尺寸差異大的物體識(shí)別問(wèn)題,充分提取多尺度物體特征信息。本文借鑒稠密傳遞和多尺度特征思想,將稠密多尺度特征傳遞應(yīng)用在主干殘差網(wǎng)絡(luò)中。主干網(wǎng)絡(luò)共4個(gè)階段,第i個(gè)階段的特征輸入為前面所有階段的特征輸出,同時(shí)為了減少計(jì)算量,階段的輸出特征數(shù)量不增加;為了增大特征的感受野,在第3階段和第4階段中分別采用空洞卷積率為2和4的空洞卷積核。稠密特征傳遞公式為
Si=Hi([Si-1,Si-2,…,S1])
(1)
其中,Si表示第i個(gè)階段的輸出特征,[Si-1,Si-2,…,S1]是1~i-1個(gè)階段輸出特征在通道維度上的拼接,S0為第1個(gè)階段的輸入,即圖3中卷積塊1的輸入。Hi表示在第i個(gè)階段里的卷積塊模塊運(yùn)算。稠密特征傳遞、多尺度空洞卷積融合的主干結(jié)構(gòu)如圖5所示。
1.2.3注意力模塊
擠壓-激勵(lì)網(wǎng)絡(luò)(Squeeze-and-excitation networks, SENet)[22]注意力模塊在圖像分類中具有顯著成效。SENet是在ResNet基礎(chǔ)上加入2個(gè)模塊,擠壓模塊(squeeze bolck)和激勵(lì)模塊(excitation block)。通過(guò)擠壓,將輸入的特征集壓縮成一個(gè)向量,然后使用可學(xué)習(xí)的權(quán)重實(shí)現(xiàn)激勵(lì),在損失的反向傳播中調(diào)整激勵(lì)權(quán)重來(lái)篩選前向傳遞的特征,即“將注意力放在有用的地方”。擠壓模塊壓縮公式為
(2)
式中zc——輸出特征
uc——輸入的第c個(gè)通道的特征
H、W——特征圖的高和寬
Fsq——擠壓函數(shù)
(i,j)——二維特征的像素空間位置
使用均值池化生成該特征的空間描述子,然后輸入激勵(lì)模塊公式為
s=Fex(z,W)=ReLU(g(z,W))=ReLU(W2sigmoid(W1z))
(3)
式中Fex——激勵(lì)函數(shù)
W1、W2——全連接層權(quán)值
病害流行還與栽培管理水平關(guān)系密切。過(guò)度密植、樹(shù)冠郁閉、灌水多、濕度大、地勢(shì)低洼、通風(fēng)不良的梨園,以及肥力不足、樹(shù)勢(shì)衰弱的梨園發(fā)生較重。
g——全連接層z——輸出特征
ReLU、sigmoid——激活函數(shù)
(4)
Fscale——特征注意力權(quán)值sc與輸入特征圖uc的元素乘積函數(shù)
激勵(lì)權(quán)重依賴于輸入特征和損失函數(shù),從而實(shí)現(xiàn)自適應(yīng)調(diào)整的自注意力功能,其結(jié)構(gòu)如圖6a所示。
但在SENet中,模型僅關(guān)注通道注意力,缺少特征的空間信息注意力[23]。本文在SENet基礎(chǔ)上,構(gòu)建關(guān)注特征注意力和空間注意力模塊,實(shí)現(xiàn)特征的篩選,其結(jié)構(gòu)如圖6b所示??臻g特征注意力計(jì)算公式為
(5)
AP、MP——對(duì)空間注意力計(jì)算后特征的均值池化最大值、池化值
[AP();MP()]——通道維度上拼接對(duì)應(yīng)池化后的特征圖函數(shù)
Conv7×7——核為7×7的卷積濾波器運(yùn)算函數(shù)
本文使用的注意力模塊如圖6所示。其中C為特征通道數(shù)。
實(shí)驗(yàn)選用i7-8700 CPU,3.2 GHz主頻,六核十二線程;32 GB內(nèi)存;GeForce GTX2080Ti GPU;操作系統(tǒng)為Ubuntu 16.04;編程語(yǔ)言為Python;深度學(xué)習(xí)框架為Pytorch。
實(shí)驗(yàn)采用線下和線上數(shù)據(jù)集增強(qiáng)方法對(duì)荔枝花圖像進(jìn)行增強(qiáng)。線下增強(qiáng)采用圖像旋轉(zhuǎn)方法[24],將采集的675幅圖像旋轉(zhuǎn)45°、-45°、135°、-135°后加上原圖共3 375幅圖像,荔枝花圖像如圖7所示。然后在訓(xùn)練時(shí)使用線上增強(qiáng)方法,包括翻轉(zhuǎn)和裁剪。旋轉(zhuǎn)圖像如圖7所示。
采用像素準(zhǔn)確率(Pixel accuracy)、交并比(Intersection over union,IoU)和平均交并比(Mean intersection over union,mIoU)作為評(píng)價(jià)指標(biāo)。
本文模型采用遷移學(xué)習(xí)方法,主干網(wǎng)絡(luò)加載ImageNet預(yù)訓(xùn)練的ResNet-34權(quán)重初始化網(wǎng)絡(luò)。模型迭代次數(shù)為2 500次,批量訓(xùn)練尺寸為32;動(dòng)態(tài)調(diào)整學(xué)習(xí)率,初始學(xué)習(xí)率為0.01,在迭代400、1 000次時(shí)迭代學(xué)習(xí)率為原來(lái)的1/10,動(dòng)量因子為0.9,權(quán)重衰減為0.001,優(yōu)化算法為隨機(jī)梯度下降(SGD),損失函數(shù)為對(duì)數(shù)交叉熵?fù)p失(Cross entropyloss)。本文模型可直接輸入荔枝花圖像訓(xùn)練,原圖尺寸為1 200像素×1 800像素,訓(xùn)練前經(jīng)過(guò)RGB的顏色歸一化處理,圖像隨機(jī)裁剪為256像素×256像素;根據(jù)數(shù)據(jù)集每個(gè)類別標(biāo)簽的比例設(shè)置損失函數(shù)的類別權(quán)重參數(shù),從而解決類別不平衡問(wèn)題。
模型的主干網(wǎng)絡(luò)分別選擇18、34、50層,通過(guò)深度對(duì)比實(shí)驗(yàn),初步確定適合荔枝花分割的主干網(wǎng)絡(luò)深度。實(shí)驗(yàn)中,除了網(wǎng)絡(luò)深度變化,其余條件不變,3個(gè)模型的訓(xùn)練損失值如圖8a所示,驗(yàn)證損失值如圖8b所示。
從圖8a可看出,當(dāng)訓(xùn)練至模型收斂時(shí),ResNet_50的損失值為0.47左右,ResNet_18損失值為0.38左右,ResNet_34損失值為0.29左右,損失值最小。損失值越低,模型在訓(xùn)練集上的擬合能力越強(qiáng),反映了主干網(wǎng)絡(luò)的特征提取能力。ResNet_18的層網(wǎng)絡(luò)太淺,對(duì)花、葉片的分割特征學(xué)習(xí)不足,表征不充分;而ResNet_50擬合能力過(guò)強(qiáng),學(xué)習(xí)了圖像中噪聲信息,導(dǎo)致模型損失難以進(jìn)一步下降。從圖8b中可看出,ResNet_50的驗(yàn)證損失波動(dòng)較大,且損失值也較大;ResNet_34的驗(yàn)證損失值波動(dòng)較小,且損失值最小,維持在0.31左右,接近訓(xùn)練損失值,說(shuō)明該模型泛化能力較好。綜上所述,模型深度選擇34層最為合適。
為了進(jìn)一步驗(yàn)證上述結(jié)論,使用測(cè)試集進(jìn)行測(cè)試,對(duì)比2.3節(jié)中提及的評(píng)價(jià)指標(biāo),測(cè)試集圖像共325幅,測(cè)試結(jié)果如表1所示。
由表1可知,花朵IoU在所有類別中最大,葉片比背景稍低。因?yàn)榕臄z的數(shù)據(jù)集中,花朵在圖像中較為突出,而園林環(huán)境的荔枝樹(shù)比較密集,拍攝圖像時(shí),其他荔枝樹(shù)會(huì)形成背景造成干擾,所以導(dǎo)致葉片的分割難度變大。從平均交并比來(lái)看, ResNet_34達(dá)到0.677,預(yù)測(cè)像素與真實(shí)像素的交集最大;從像素準(zhǔn)確率來(lái)看,有83.6%,預(yù)測(cè)精度最高,進(jìn)一步驗(yàn)證了ResNet_34模型最為合適。
表1 不同深度網(wǎng)絡(luò)的測(cè)試性能指標(biāo)
確定模型深度后,需要驗(yàn)證模型增加稠密特征傳遞和注意力模塊的有效性。增加稠密特征傳遞和注意力模塊的模型測(cè)試結(jié)果如表2所示。
表2 不同模型的性能對(duì)比
由表2可知,ResNet_34和Dense-ResNet_34的對(duì)比驗(yàn)證了稠密特征的作用,ResNet_34的平均交并比和像素準(zhǔn)確率比Dense-ResNet_34模型分別低0.018和0.9個(gè)百分點(diǎn)。稠密特征傳遞使每層的特征提取能夠充分利用淺層的所有信息,增強(qiáng)了模型的學(xué)習(xí)能力。但是豐富的特征可能會(huì)造成干擾,所以稠密特征連接未能帶來(lái)比較明顯的性能提升。為了增強(qiáng)特征提取的有效性,在特征提取模塊中加入了注意力模塊。加入CBAM模塊的平均交并比和像素準(zhǔn)確率比加入SE模塊的分別高0.012和1個(gè)百分點(diǎn),CBAM除了計(jì)算通道注意力外,還關(guān)注每個(gè)通道的空間注意力,比SE模塊要全面,所以效果更好。綜合稠密連接和注意力模塊的Dense-ResNet_34+CBAM模型,既充分利用了淺層信息,同時(shí)能夠篩選有助于目標(biāo)任務(wù)的信息。其平均交并比和像素準(zhǔn)確率分別為0.734和87.0%,比Dense-ResNet_34分別高0.039和2.5個(gè)百分點(diǎn),比ResNet_34+CBAM高0.019和1.1個(gè)百分點(diǎn),有了比較明顯的提升。綜上所述,在殘差主干網(wǎng)絡(luò)的基礎(chǔ)上增加稠密特征傳遞和注意力模塊是有效的。
目前花朵識(shí)別和分割主要使用傳統(tǒng)的機(jī)器學(xué)習(xí)方法,深度卷積網(wǎng)絡(luò)主要針對(duì)易于區(qū)分的花朵,使用實(shí)例分割方法進(jìn)行識(shí)別。將荔枝花分割、蘋(píng)果花分割研究作為對(duì)比,同時(shí)增加一組FCN模型實(shí)驗(yàn)結(jié)果進(jìn)行對(duì)比,驗(yàn)證本文荔枝花識(shí)別分割模型的有效性。
從表3可看出,MASU R-CNN預(yù)測(cè)單朵可分花朵的平均識(shí)別準(zhǔn)確率最高,為96.4%,但并不適用于荔枝花、芒果花等對(duì)象。而與荔枝花生長(zhǎng)形態(tài)相近的芒果花識(shí)別研究使用傳統(tǒng)機(jī)器學(xué)習(xí)方法,平均識(shí)別準(zhǔn)確率只有85.8%,比本文模型低1.2個(gè)百分點(diǎn)。本文模型實(shí)現(xiàn)荔枝花語(yǔ)義分割的準(zhǔn)確率比FCN模型高6.2個(gè)百分點(diǎn),效果較好。本文模型與FCN模型在測(cè)試集的分割效果如圖9所示。
表3 不同模型花朵識(shí)別效果對(duì)比
對(duì)比圖9b、9c發(fā)現(xiàn),F(xiàn)CN模型的分割效果較差,模型對(duì)背景和葉片的區(qū)分度低,某些背景區(qū)域會(huì)誤分割成荔枝花,如黃色方框區(qū)域所示。圖9b、9d分割效果較好,圖9d的紅色方框區(qū)域是將背景誤分割成葉片,從圖9a中發(fā)現(xiàn),該區(qū)域的背景與葉片十分相似,所以比較難區(qū)分。對(duì)比圖9c和圖9d發(fā)現(xiàn),本文模型的分割效果具有明顯優(yōu)勢(shì),能清楚地區(qū)分葉片和暗色背景,類別之間的分界線比較清晰。
綜上所述,本文提出的方法能夠有效識(shí)別分割荔枝花,同時(shí)也適用于類似荔枝花形態(tài)的花朵,能夠?yàn)橹悄芄麍@疏花提供視覺(jué)支持。
(1)為了實(shí)現(xiàn)自動(dòng)化疏花,構(gòu)建了一個(gè)像素級(jí)的荔枝花識(shí)別分割模型。以Deeplab V3為基礎(chǔ),通過(guò)對(duì)比實(shí)驗(yàn)確定合適深度的特征提取主干網(wǎng)絡(luò)。加載預(yù)訓(xùn)練模型,并進(jìn)行微調(diào),使之適用于荔枝花數(shù)據(jù)集,微調(diào)后的ResNet_34網(wǎng)絡(luò)能有效地提取野外環(huán)境下荔枝花特征,為后續(xù)識(shí)別和分割奠定基礎(chǔ)。
(2)為了提高特征提取的有效性,引入了稠密特征傳遞方式,本層特征從所有淺層特征中運(yùn)算得出,淺層特征的高分辨率有助于深層特征的準(zhǔn)確定位,提高了定位的準(zhǔn)確度。同時(shí),在特征傳遞過(guò)程中加入CBAM注意力模塊,起到篩選特征的作用,提高了特征的有效性。二者結(jié)合提高了模型性能。