張冬梅 宋子濤 范皓鑫
摘?要:
針對(duì)復(fù)雜環(huán)境中,火焰檢測(cè)存在特征提取不足和邊緣模糊目標(biāo)檢測(cè)性能欠缺問(wèn)題,提出一種融合擠壓激勵(lì)(Squeeze\|and\|Excitation,SE)注意力機(jī)制的YOLOv7火焰目標(biāo)檢測(cè)算法。該算法以YOLOv7為基礎(chǔ)框架,基于公開(kāi)火焰數(shù)據(jù)集,對(duì)不同位置點(diǎn)插入SE注意力機(jī)制的網(wǎng)絡(luò)模型進(jìn)行研究,進(jìn)而構(gòu)建融合多點(diǎn)注意力機(jī)制的YOLOv7_Attention網(wǎng)絡(luò)模型,以充分提取火焰的有效特征,抑制冗余特征。實(shí)驗(yàn)結(jié)果表明,融合SE注意力機(jī)制的YOLOv7_Attention網(wǎng)絡(luò)模型與原始YOLOv7模型相比,其mAP提升了1.64百分點(diǎn),邊緣模糊火焰目標(biāo)檢測(cè)效果顯著。
關(guān)鍵詞:火焰圖像;目標(biāo)檢測(cè);注意力機(jī)制;YOLOv7
中圖分類(lèi)號(hào):TP391??文獻(xiàn)標(biāo)志碼:A
0?引言(Introduction)
火焰探測(cè)作為一種火災(zāi)報(bào)警系統(tǒng)的方法,已展現(xiàn)出極大的潛力和發(fā)展前景[1]。傳統(tǒng)火焰檢測(cè)方法必須依靠溫度、煙霧等傳感設(shè)備,容易受環(huán)境干擾且系統(tǒng)的穩(wěn)定性差、誤報(bào)率高[2]。近年來(lái),基于深度學(xué)習(xí)的計(jì)算機(jī)視覺(jué)技術(shù)發(fā)展迅速,在目標(biāo)檢測(cè)任務(wù)中取得了較好的應(yīng)用效果。目標(biāo)檢測(cè)算法通常分為兩類(lèi):一類(lèi)是以區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Region\|based?Convolutional?Neural?Networks,R\|CNN)[3]為代表的兩階段模型,第一階段產(chǎn)生目標(biāo)所在區(qū)域候選框,第二階段通過(guò)神經(jīng)網(wǎng)絡(luò)對(duì)候選框進(jìn)行分類(lèi)和位置回歸;另一類(lèi)是以單階多框目標(biāo)檢測(cè)方法(Single?Shot?MultiBox?Detector,SSD)[4]、YOLO(You?Only?Look?Once,YOLO)系列[5\|7]為代表的端到端單階段模型,可以直接確定目標(biāo)類(lèi)別和位置且檢測(cè)速度較快。
基于深度學(xué)習(xí)的火焰檢測(cè)方法有多種。嚴(yán)云洋等[8]基于Faster?R\|CNN網(wǎng)絡(luò)識(shí)別火焰,大幅提升了火焰檢測(cè)精度和魯棒性。HAN等[9]采用了改進(jìn)的CA\|SSD目標(biāo)檢測(cè)模型,在保證實(shí)時(shí)準(zhǔn)確定位吸煙者位置的基礎(chǔ)上,提高了吸煙檢測(cè)的準(zhǔn)確性。楊天宇等[10]和徐巖等[11]利用YOLOv3系列算法,融合注意力機(jī)制,提高了火焰檢測(cè)效果。XU等[12]將YOLOv5與高效可擴(kuò)展目標(biāo)檢測(cè)器(Scalable?and?Efficient?Object?Detection,EfficientDet)協(xié)同工作并行檢測(cè)火災(zāi),最大化地利用了全局特征和局部特征,提升了小目標(biāo)檢測(cè)精度,提高了召回率。
YOLOv7算法[13]是YOLO系列中高效且重要的目標(biāo)檢測(cè)算法之一,但依然存在特征提取能力不足的問(wèn)題。本文研究在不同點(diǎn)插入SE注意力機(jī)制的網(wǎng)絡(luò)模型,進(jìn)一步構(gòu)建融合多點(diǎn)注意力機(jī)制的YOLOv7_Attention網(wǎng)絡(luò)模型,以加強(qiáng)YOLOv7的特征提取能力,提升火焰目標(biāo)檢測(cè)算法的目標(biāo)檢測(cè)效果。
1.1?YOLOv7網(wǎng)絡(luò)模型
YOLOv7是基于YOLOv4和YOLOv5的一種單階段目標(biāo)檢測(cè)算法,能較好地均衡算法的速度和精度,為實(shí)現(xiàn)復(fù)雜環(huán)境中的火焰目標(biāo)檢測(cè)奠定了基礎(chǔ)[14]。
基于YOLOv7網(wǎng)絡(luò)模型的目標(biāo)檢測(cè)過(guò)程包括4個(gè)網(wǎng)絡(luò)層次,分別是輸入端、主干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)、輸出檢測(cè),YOLOv7網(wǎng)絡(luò)模型結(jié)構(gòu)如圖1所示。
圖1中輸入層(Input)負(fù)責(zé)將輸入的原始三通道圖像尺寸定義成640×640,使用Mosaic數(shù)據(jù)增強(qiáng)方法,通過(guò)隨機(jī)縮放、隨機(jī)裁剪、隨機(jī)排列等操作,將4張圖片拼接在一起,從而增強(qiáng)數(shù)據(jù)集。主干網(wǎng)絡(luò)層(BackBone)主要由擴(kuò)展高效層聚合網(wǎng)絡(luò)(Extended?Efficient?Layer?Aggregation?Network,E\|ELAN)、最大池化(Max?Pooling,MP)模塊構(gòu)建,通過(guò)深度卷積提取不同尺度的特征信息。頸部網(wǎng)絡(luò)(Neck)也稱(chēng)特征融合層,主要由空間金字塔池化(Spatial?Pyramid?Pooling,SPP)和跨階段部分鏈接(Cross?Stage?Partial?Connections,CSPC)結(jié)合的模塊SPPCSPC[15]、CBS(Conv\|BN\|Sigmoid)、ELAN的改進(jìn)版本ELAN\|W、上采樣UPSample等構(gòu)建,負(fù)責(zé)深度融合不同尺度的特征圖像信息,形成小、中、大3種不同尺寸的特征。輸出檢測(cè)層(Head)對(duì)提取的特征進(jìn)行劃分,將預(yù)測(cè)出的錨框坐標(biāo)、類(lèi)別及置信度進(jìn)行非極大值抑制后輸出。
1.2?SENet網(wǎng)絡(luò)
SENet網(wǎng)絡(luò)(Squeeze\|and\|Excitation?Networks,SE)是一種基于注意力機(jī)制的深度學(xué)習(xí)方法[16]。在通道維度上引入注意力機(jī)制,通過(guò)壓縮操作順著空間維度進(jìn)行特征壓縮,獲得通道上的全局分布,通過(guò)激勵(lì)操作構(gòu)建通道間的自相關(guān)性,從而增強(qiáng)有用信息所述特征通道的輸出能力、抑制或弱化非顯著特征,然后對(duì)各通道產(chǎn)生的特征圖加權(quán)以提升特征提取能力[17]。SE網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。
SE模塊以極小的額外計(jì)算成本為現(xiàn)有的深度神經(jīng)網(wǎng)絡(luò)帶來(lái)顯著的性能提升,同時(shí)由于其簡(jiǎn)單的原理與模塊化設(shè)計(jì),使得其可以添加在任意一個(gè)網(wǎng)絡(luò)結(jié)構(gòu)中。
1.3?遷移學(xué)習(xí)
遷移學(xué)習(xí)是一種將已有的標(biāo)注數(shù)據(jù)作為源域,將需要檢測(cè)的數(shù)據(jù)作為目標(biāo)域,將源域數(shù)據(jù)中的已有知識(shí)和模型應(yīng)用于目標(biāo)域的學(xué)習(xí)方法[18]。一般用于解決目標(biāo)域數(shù)據(jù)量少、標(biāo)注困難等問(wèn)題,以提高目標(biāo)域任務(wù)的性能和泛化能力。
由于公開(kāi)的火焰數(shù)據(jù)集有限,為了提高模型的泛化能力,本文使用YOLOv7網(wǎng)絡(luò)模型在公開(kāi)數(shù)據(jù)集COCO(Common?Objects?in?Context)上訓(xùn)練得到的預(yù)訓(xùn)練權(quán)重遷移至火焰任務(wù)中。具體過(guò)程如下:首先,在YOLOv7網(wǎng)絡(luò)模型中加載預(yù)訓(xùn)練權(quán)重;其次,在火焰目標(biāo)集上進(jìn)行訓(xùn)練時(shí),先凍結(jié)主干部分的權(quán)值,確保特征提取網(wǎng)絡(luò)保持穩(wěn)定;最后在解凍訓(xùn)練階段允許主干參數(shù)在訓(xùn)練過(guò)程中發(fā)生微調(diào),從而提高模型在火焰檢測(cè)任務(wù)上的性能表現(xiàn)。網(wǎng)絡(luò)初始學(xué)習(xí)率為1e-2,最小學(xué)習(xí)率為初始學(xué)習(xí)率×0.01。采用余弦退火法降低學(xué)習(xí)率,采用隨機(jī)梯度下降(Stochastic?Gradient?Descent,SGD)優(yōu)化算法。
卷積神經(jīng)網(wǎng)絡(luò)中添加注意力模塊的位置點(diǎn)不同,對(duì)神經(jīng)網(wǎng)絡(luò)提取特征的影響也不同。YOLOv7網(wǎng)絡(luò)模型主要包括4個(gè)部分:輸入網(wǎng)絡(luò)、主干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)和頭部網(wǎng)絡(luò),輸入網(wǎng)絡(luò)用于接收?qǐng)D像,主干網(wǎng)絡(luò)用于提取特征,頸部網(wǎng)路用于融合特征,頭部網(wǎng)路用于預(yù)測(cè)目標(biāo)。因此,為了探究注意力機(jī)制插入點(diǎn)對(duì)YOLOv7網(wǎng)絡(luò)模型精度的影響,對(duì)YOLOv7網(wǎng)絡(luò)模型中的主干網(wǎng)絡(luò)和頸部網(wǎng)絡(luò)進(jìn)行單一插入和組合插入。
2.1?單一位置插入注意力機(jī)制
單一插入點(diǎn)是指只在網(wǎng)絡(luò)中的單個(gè)位置一次性插入SE模塊。根據(jù)網(wǎng)絡(luò)結(jié)構(gòu)確定研究的單一插入點(diǎn)分別為圖3中標(biāo)注的①②③位置點(diǎn)。
2.2?YOLOv7_Attention網(wǎng)絡(luò)模型
在卷積神經(jīng)網(wǎng)絡(luò)中,由于淺層網(wǎng)絡(luò)離輸入層較近,因此提取的特征包含更多的細(xì)粒度像素點(diǎn)信息,如棱角、顏色、紋理、邊緣等。深層網(wǎng)絡(luò)離輸入層較遠(yuǎn),提取的特征包含更抽象的粗粒度信息,如語(yǔ)義信息、目標(biāo)整體形狀和物體的空間關(guān)系等。因此為了提高YOLOv7網(wǎng)絡(luò)模型的特征提取能力,使其在充分加強(qiáng)有效特征的同時(shí)抑制背景噪聲,在YOLOv7網(wǎng)絡(luò)中插入M2和M3,將注意力機(jī)制與YOLOv7網(wǎng)絡(luò)模型充分融合,構(gòu)建融合多點(diǎn)注意力機(jī)制的YOLOv7網(wǎng)絡(luò)模型,稱(chēng)之為YOLOv7_Attention(圖5)。
3.1?實(shí)驗(yàn)環(huán)境及模型訓(xùn)練
由于本地計(jì)算機(jī)環(huán)境無(wú)法滿(mǎn)足實(shí)驗(yàn)需求,因此租用智星云AI?Galaxy平臺(tái)中的GPU云服務(wù)器。
硬件環(huán)境如下:GeForce?RTX?3080(10?GB顯存)、GPU數(shù)量為1個(gè)、GPU大小為16?GB、CPU核數(shù)為12核、內(nèi)存為27?GB、系統(tǒng)盤(pán)大小為100?GB、數(shù)據(jù)盤(pán)大小為120?GB、鏡像為Win10。軟件環(huán)境如下:Tensorflow?2.4、Python?3.8.3、PyCharm。
基于YOLOv7神經(jīng)網(wǎng)絡(luò)構(gòu)建火焰目標(biāo)檢測(cè)模型并進(jìn)行模型訓(xùn)練。批次選取太小會(huì)引起訓(xùn)練震蕩,因此選取批次大小為4。訓(xùn)練輪數(shù)為100輪,前50輪為凍結(jié)訓(xùn)練,后50輪為解凍訓(xùn)練,訓(xùn)練100輪左右時(shí),損失值趨于穩(wěn)定,訓(xùn)練效果達(dá)到最優(yōu)。
3.2?數(shù)據(jù)集
采用公開(kāi)火焰數(shù)據(jù)集(http:∥www.yongxu.org/databases.html),數(shù)據(jù)集中共有2?688張圖片,對(duì)目標(biāo)位置的標(biāo)注格式為T(mén)XT文件,實(shí)驗(yàn)過(guò)程中將TXT文件轉(zhuǎn)換成XML文件。輸入圖片大小為640×640。
為了使錨框的大小更符合數(shù)據(jù)集的目標(biāo)尺寸,通過(guò)K\|means聚類(lèi)分析法重新尋找合適火焰目標(biāo)的聚類(lèi)中心,生成適合本數(shù)據(jù)集的9個(gè)錨框,位置分別為(26,41)、(29,126)、(68,72)、(73,140)、(129,126)、(96,228)、(182,205)、(192,375)、(400,393),錨框的分布如圖6所示,橫、縱坐標(biāo)為所有圖片的尺寸范圍,圖6中的符號(hào)“×”表示目標(biāo)的聚類(lèi)錨框中心。錨框尺寸整體符合數(shù)據(jù)集中火焰目標(biāo)框的尺寸分布,以提升算法訓(xùn)練性能。
3.3?評(píng)價(jià)指標(biāo)
本實(shí)驗(yàn)采用目標(biāo)檢測(cè)中常用的5個(gè)性能評(píng)價(jià)指標(biāo)對(duì)模型的檢測(cè)性能進(jìn)行驗(yàn)證,分別為精度(Precision,?P)、召回率(Recall,?R)、F1分?jǐn)?shù)(F1?Score,?F1),平均精度(Average?Precision,?AP)、平均精度均值(mean?Average?Precision,?mAP),其計(jì)算公式如下:
P=TPTP+FP[JZ)][JY](1)
R=TPTP+FN[JZ)][JY](2)
F1=2PRP+R[JZ)][JY](3)
AP=∫10PdR[JZ)][JY](4)
mAP=∑Ni=1APiN[JZ)][JY](5)
其中:TP為將正樣本預(yù)測(cè)為正的個(gè)數(shù),F(xiàn)P為將負(fù)樣本預(yù)測(cè)為正的個(gè)數(shù),F(xiàn)N為將正樣本預(yù)測(cè)為負(fù)的個(gè)數(shù)。對(duì)所有類(lèi)別的AP取平均值得到mAP,用于對(duì)整個(gè)目標(biāo)檢測(cè)網(wǎng)絡(luò)模型的檢測(cè)性能進(jìn)行評(píng)價(jià);N為類(lèi)別的個(gè)數(shù)。由于只有火焰一類(lèi)目標(biāo),因此實(shí)驗(yàn)中采用的評(píng)價(jià)指標(biāo)為mAP,該值越高,表示模型檢測(cè)性能越好。
3.4?結(jié)果對(duì)比與分析
在火焰數(shù)據(jù)集上,構(gòu)建了3個(gè)單一位置插入注意力機(jī)制的網(wǎng)絡(luò)模型,分別為YOLOv7_M1_Attention、YOLOv7_M2_Attention及YOLOv7_M3_Attention網(wǎng)絡(luò)模型。3種模型與YOLOv7網(wǎng)絡(luò)模型性能對(duì)比如表1所示,單一位置插入注意力機(jī)制的網(wǎng)絡(luò)模型的性能指標(biāo)整體優(yōu)于YOLOv7網(wǎng)絡(luò)模型的性能指標(biāo),這也證明了SE注意力機(jī)制對(duì)提高YOLOv7網(wǎng)絡(luò)模型的綜合性能是有效的。
從表1中的數(shù)據(jù)可以看出,①位置點(diǎn)插入的YOLOv7_M1_Attention的mAP比YOLOv7的mAP提高了0.12百分點(diǎn),②位置點(diǎn)插入的YOLOv7_M2_Attention的mAP比YOLOv7的mAP提高了1.25百分點(diǎn),③位置點(diǎn)插入的YOLOv7_M3_Attention的mAP比YOLOv7的mAP提高了1.35百分點(diǎn)。分析該結(jié)果可能是因?yàn)镸1位置位于網(wǎng)絡(luò)的淺層部分,卷積深度不高,網(wǎng)絡(luò)提取的目標(biāo)特征較少,使得注意力機(jī)制并未能充分發(fā)揮其加強(qiáng)有效特征、抑制無(wú)關(guān)噪聲的作用。在M2和M3位置上,隨著網(wǎng)絡(luò)層數(shù)不斷加深,網(wǎng)絡(luò)提取的目標(biāo)越多,對(duì)提升網(wǎng)絡(luò)模型檢測(cè)性能的作用越大。
在相同的實(shí)驗(yàn)環(huán)境中,對(duì)比引入注意力機(jī)制融合的YOLOv7_Attention和YOLOv7,性能對(duì)比結(jié)果如表2所示,改進(jìn)后的方法相比于原方法,mAP提升了1.64百分點(diǎn),并且均優(yōu)于表1中單一位置點(diǎn)插入的網(wǎng)絡(luò)模型。結(jié)果表明,基于融合多點(diǎn)注意力機(jī)制的網(wǎng)絡(luò)模型對(duì)火焰特征提取充分,證明了本算法的有效性。
為進(jìn)一步驗(yàn)證本文研究的改進(jìn)算法的有效性,從訓(xùn)練輪數(shù)與mAP和損失函數(shù)的變化情況進(jìn)行評(píng)價(jià)。圖7為YOLOv7和YOLOv7_Attention在訓(xùn)練過(guò)程中的mAP曲線(xiàn)對(duì)比圖,實(shí)驗(yàn)結(jié)果表明,隨著訓(xùn)練輪數(shù)的不斷增加,兩種網(wǎng)絡(luò)模型的mAP曲線(xiàn)整體呈上升趨勢(shì),最終在100輪左右趨于穩(wěn)定。YOLOv7的mAP為81.39%,YOLOv7_Attention的mAP達(dá)到83.03%,整體提升了1.64百分點(diǎn)。
圖8為YOLOv7與YOLOv7_Attention在訓(xùn)練過(guò)程中損失函數(shù)對(duì)比曲線(xiàn)圖。經(jīng)對(duì)比發(fā)現(xiàn),改進(jìn)前、后的算法的損失曲線(xiàn)整體都呈現(xiàn)下降趨勢(shì)。隨著訓(xùn)練輪數(shù)的不斷增加,YOLOv7的損失值穩(wěn)定在1.049左右,YOLOv7_Attention的損失值穩(wěn)定在1.038左右。相比于原方法,經(jīng)改進(jìn)的算法的損失值的下降趨勢(shì)更早地趨于穩(wěn)定。
為對(duì)比算法改進(jìn)前、后的檢測(cè)效果,將其應(yīng)用于部分火焰圖片中進(jìn)行測(cè)試。圖9中左邊一列圖片為YOLOv7的檢測(cè)結(jié)果,右邊一列圖片為YOLOv7_Attention的檢測(cè)結(jié)果。圖9(a)為森林火災(zāi)圖片,特點(diǎn)是小火焰目標(biāo)多、邊緣模糊,右邊的圖片檢測(cè)出更多目標(biāo)。圖9(b)為室內(nèi)火災(zāi)圖片,由于室內(nèi)墻壁反光,使左、右兩邊的圖片檢測(cè)均受到影響,但右邊圖片相比于左邊圖片,檢測(cè)結(jié)果更準(zhǔn)確。圖9(c)為城市火災(zāi)圖片,特點(diǎn)是火焰覆蓋面大,右邊圖片中的檢測(cè)范圍相比于左邊圖片精準(zhǔn)度更高。實(shí)驗(yàn)結(jié)果表明,融合注意力機(jī)制后,網(wǎng)絡(luò)模型能提取到更深層、更有效的特征,對(duì)原算法漏檢的邊緣模糊的小火焰目標(biāo)達(dá)到了較好的檢測(cè)效果。
4?結(jié)論(Conclusion)
本研究選取SE注意力機(jī)制,研究其不同插入點(diǎn)對(duì)YOLOv7網(wǎng)絡(luò)結(jié)構(gòu)的影響,提出一種融合多點(diǎn)注意力機(jī)制的YOLOv7_Attention的火焰檢測(cè)算法。在公開(kāi)的火焰數(shù)據(jù)集上進(jìn)行相關(guān)實(shí)驗(yàn)的結(jié)果表明,注意力模塊插入點(diǎn)所在網(wǎng)絡(luò)深度越深,提取的火焰網(wǎng)絡(luò)特征就越充分。融合不同位置的注意力機(jī)制的YOLOv7_Attention方法相比于YOLOv7算法,mAP提高了1.64百分點(diǎn),檢測(cè)效果顯著提升。
后續(xù),將研究多層注意力機(jī)制對(duì)網(wǎng)絡(luò)模型的影響。此外,目前使用的公開(kāi)火焰數(shù)據(jù)集不夠充分,下一步將進(jìn)一步擴(kuò)充有效的火焰數(shù)據(jù)集。
參考文獻(xiàn)(References)
[1]?ZHAO?Y?J,ZHANG?H?B,ZHANG?X?L,et?al.?Fire?smoke?detection?based?on?target\|awareness?and?depthwise?convolutions[J].?Multimedia?tools?and?applications,2021,80(18):27407\|27421.
[2]?JIN?Z?Y,ZAI?W?J,HUANG?J?Y,et?al.?Monitoring?of?smoking?behavior?in?construction?sites?of?the?power?system[C]∥IEEE.?Proceedings?of?the?IEEE:2023?Panda?Forum?on?Power?and?Energy.?Piscataway:IEEE,2023:1471\|1475.
[3]?GIRSHICK?R,DONAHUE?J,DARRELL?T,et?al.?Rich?feature?hierarchies?for?accurate?object?detection?and?semantic?segmentation[C]∥ACM.?Proceedings?of?the?2014?IEEE?Conference?on?Computer?Vision?and?Pattern?Recognition.?New?York:ACM,2014:580\|587.
[4]?LIU?W,ANGUELOV?D,ERHAN?D,et?al.?SSD:single?shot?multiBox?detector[C]∥Springer:European?Conference?on?Computer?Vision.?Cham:Springer,2016:21\|37.
[5]?REDMON?J,DIVVALA?S,GIRSHICK?R,et?al.?You?only?look?once:unified,real\|time?object?detection[C]∥IEEE.?Proceedings?of?the?IEEE:2016?IEEE?Conference?on?Computer?Vision?and?Pattern?Recognition.?Piscataway:IEEE,2016:779\|788.
[6]?REDMON?J,F(xiàn)ARHADI?A.?YOLO9000:better,faster,stronger[C]∥IEEE.?Proceedings?of?the?IEEE:2017?IEEE?Conference?on?Computer?Vision?and?Pattern?Recognition.?Piscataway:IEEE,2017:6517\|6525.
[7]?張富凱,楊峰,李策.?基于改進(jìn)YOLOv3的快速車(chē)輛檢測(cè)方法[J].?計(jì)算機(jī)工程與應(yīng)用,2019,55(2):12\|20.
[8]?嚴(yán)云洋,朱曉妤,劉以安,等.?基于Faster?R\|CNN模型的火焰檢測(cè)[J].?南京師大學(xué)報(bào)(自然科學(xué)版),2018,41(3):1\|5.
[9]?HAN?L?S,RONG?L?L,LI?Y?Q,et?al.?CA\|SSD\|based?real\|time?smoking?target?detection?algorithm[C]∥ACM.?Proceedings?of?the?2021?5th?International?Conference?on?Digital?Signal?Processing.?New?York:ACM,2021:283\|288.
[10]?楊天宇,王海瑞.?基于改進(jìn)YOLOv3融合特征的火焰目標(biāo)檢測(cè)方法[J].?農(nóng)業(yè)裝備與車(chē)輛工程,2022,60(11):68\|72.
[11]?徐巖,李永泉,郭曉燕,等.?基于YOLOv3\|tiny的火焰目標(biāo)檢測(cè)算法[J].?山東科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2022,41(6):95\|103.
[12]?XU?R?J,LIN?H?F,LU?K?J,et?al.?A?forest?fire?detection?system?based?on?ensemble?learning[J].?Forests,2021,12(2):217.
[13]?WANG?C?Y,BOCHKOVSKIY?A,LIAO?H?Y?M.?YOLOv7:trainable?bag\|of\|freebies?sets?new?state\|of\|the\|art?for?real\|time?object?detectors[C]∥IEEE.?Proceedings?of?the?IEEE:2023?IEEE/CVF?Conference?on?Computer?Vision?and?Pattern?Recognition.?Piscataway:IEEE,2023:7464\|7475.
[14]?祝志慧,何昱廷,李沃霖,等.?基于改進(jìn)YOLOv7模型的復(fù)雜環(huán)境下鴨蛋識(shí)別定位[J].?農(nóng)業(yè)工程學(xué)報(bào),2023,39(11):274\|285.
[15]?趙偉,沈樂(lè),徐凱宏.?改進(jìn)YOLOv7算法在火災(zāi)現(xiàn)場(chǎng)行人檢測(cè)中的應(yīng)用[J].?傳感器與微系統(tǒng),2023,42(7):165\|168.
[16]?HU?J,SHEN?L,SUN?G.?Squeeze\|and\|excitation?networks[C]∥IEEE.?Proceedings?of?the?IEEE:2018?IEEE/CVF?Conference?on?Computer?Vision?and?Pattern?Recognition.?Piscataway:IEEE,2018:7132\|7141.
[17]?肖鵬程,徐文廣,張妍,等.?基于SE注意力機(jī)制的廢鋼分類(lèi)評(píng)級(jí)方法[J].?工程科學(xué)學(xué)報(bào),2023,45(8):1342\|1352.
[18]?IMAN?M,ARABNIA?H?R,RASHEED?K.?A?review?of?deep?transfer?learning?and?recent?advancements[J].?Technologies,2023,11(2):40.
作者簡(jiǎn)介:
張冬梅(1995\|),女,碩士,助教。研究領(lǐng)域:計(jì)算機(jī)視覺(jué)。
宋子濤(1994\|),男,碩士,助教。研究領(lǐng)域:機(jī)器學(xué)習(xí)。
范皓鑫(2003\|),男,本科生。研究領(lǐng)域:計(jì)算機(jī)視覺(jué)。