肖的成 李艷生
摘 要:【目的】針對(duì)目標(biāo)檢測(cè)算法在車輛檢測(cè)領(lǐng)域中應(yīng)用時(shí)存在模型復(fù)雜、檢測(cè)精度較低的問(wèn)題,基于改進(jìn)YOLOv5s算法開(kāi)展車輛檢測(cè)研究?!痉椒ā恳訥host模塊來(lái)替換YOLOv5s中的主干網(wǎng)絡(luò),以達(dá)到模型剪枝的目的,改進(jìn)后的網(wǎng)絡(luò)模型復(fù)雜度有所降低,從而解決了網(wǎng)絡(luò)模型較大的問(wèn)題。同時(shí),可引入擠壓—激勵(lì)注意力機(jī)制來(lái)提取更重要的特征信息,達(dá)到提高檢測(cè)精度的目的。本研究所用到的數(shù)據(jù)集均為汽車圖像,車輛檢測(cè)數(shù)據(jù)集共有12 786張圖片,將該數(shù)據(jù)集按照8∶1∶1的比例進(jìn)行劃分。其中,訓(xùn)練集為10 228張,測(cè)試集和驗(yàn)證集均為1 279張,采用對(duì)比試驗(yàn)法進(jìn)行研究?!窘Y(jié)果】試驗(yàn)結(jié)果表明,與原有的YOLOv5s相比,改進(jìn)后的網(wǎng)絡(luò)模型在車輛檢測(cè)數(shù)據(jù)集上的平均準(zhǔn)確率均值提升3%,查準(zhǔn)率和召回率分別提升1.9%和3.2%,模型大小下降42%?!窘Y(jié)論】改進(jìn)后的網(wǎng)絡(luò)模型有效降低了模型的復(fù)雜度,提高了檢測(cè)精度,并節(jié)約成本。
關(guān)鍵詞:深度學(xué)習(xí);目標(biāo)檢測(cè);注意力機(jī)制;YOLOv5s
中圖分類號(hào):TP391? ? ?文獻(xiàn)標(biāo)志碼:A? ? ?文章編號(hào):1003-5168(2024)04-0026-06
DOI:10.19968/j.cnki.hnkj.1003-5168.2024.04.005
Research on Vehicle Detection Based on Improved YOLOv5s
XIAO Dicheng? ? LI Yansheng
(College of Physics and Electronics, Hubei Normal University, Huangshi 435002, China)
Abstract: [Purposes] Aiming at the problems of complex model and low detection accuracy of the current object detection algorithm in the field of vehicle detection, a vehicle detection research based on improved YOLOv5s is carried out. [Methods] The Ghost module was replaced with the original YOLOv5s backbone network to achieve the purpose of model pruning, which reduced the complexity of the improved network model and solved the problem of large network model; Then the Squeeze and Excitation attention mechanism is introduced to extract more important feature information to improve detection accuracy. The data sets used in this study are all images of cars, and on the vehicle detection dataset, a total of 12 786 pictures, the dataset is divided into 8∶1∶1.And among them, the training set is 10 228 pictures, the test set and verification set are 1 279 pictures and the method of comparative experiment was used in this study. [Findings] Experimental results show that compared with the original YOLOv5s, the average accuracy of the improved network model is increased by 3%, the accuracy and recall rate are increased by 1.9% and 3.2%, respectively, and the model size is reduced by 42%.[Conclusions] The improved network model effectively reduces the complexity of the model, saves costs and improves the detection accuracy.
Keywords: deep learning; object detection; attention mechanism; YOLOv5s
0 引言
隨著我國(guó)科技的蓬勃發(fā)展,汽車也日益普及。汽車普及在給人們帶來(lái)極大便利的同時(shí),也帶來(lái)了交通路況擁堵、交通事故頻發(fā)等需要解決的難題,這些難題一直困擾著人們。因此,對(duì)交通目標(biāo)識(shí)別系統(tǒng)進(jìn)行研究是非常必要的。傳統(tǒng)檢測(cè)方法包括梯度直方圖、支持向量機(jī),主要以滑動(dòng)窗口來(lái)檢測(cè)目標(biāo),缺點(diǎn)是冗余時(shí)間長(zhǎng)、手工設(shè)計(jì)的特征沒(méi)有魯棒性[1]。2012年,基于深度卷積神經(jīng)網(wǎng)絡(luò)的Alex Net[2]以顯著優(yōu)勢(shì)奪得ImageNet圖像識(shí)別比賽的冠軍,從此深度學(xué)習(xí)的檢測(cè)方法開(kāi)始受到學(xué)者們的廣泛關(guān)注[3],目標(biāo)檢測(cè)也步入以深度學(xué)習(xí)為基礎(chǔ)的新紀(jì)元。在當(dāng)前計(jì)算機(jī)視覺(jué)領(lǐng)域研究中,以深度學(xué)習(xí)與目標(biāo)檢測(cè)算法相結(jié)合的方式為主流研究方法。由于實(shí)際交通路況復(fù)雜、目標(biāo)種類多,使目標(biāo)檢測(cè)模型的參數(shù)過(guò)大,導(dǎo)致目標(biāo)檢測(cè)精確度不高,且速度緩慢。本研究以YOLOv5s[4]為基礎(chǔ)進(jìn)行優(yōu)化改進(jìn),從而提高目標(biāo)檢測(cè)的精度與速度。
YOLO[5]算法在確保檢測(cè)精度高的同時(shí),還能提高檢測(cè)速度,因此,其在車輛交通檢測(cè)領(lǐng)域中的應(yīng)用十分廣泛。周晴等[6]用更輕量化的主干網(wǎng)絡(luò)模型進(jìn)行替換,在特征提取中采用加權(quán)雙向特征金字塔,并優(yōu)化損失函數(shù),以達(dá)到算法模型小、精確度高的目的;章程軍等[7]針對(duì)目標(biāo)檢測(cè)算法在自動(dòng)駕駛等領(lǐng)域車輛目標(biāo)檢測(cè)中存在檢測(cè)精度不高、實(shí)時(shí)性和魯棒性較差等問(wèn)題,在算法中引入一次性聚合模塊,并采用非局部注意力機(jī)制,同時(shí)利用加權(quán)非極大值抑制法,使平均準(zhǔn)確率均值和平均準(zhǔn)確率均得到有效提升,且檢測(cè)速度滿足實(shí)時(shí)性的要求。YOLOv5s作為當(dāng)前YOLO系列最輕量化的模型之一,其參數(shù)量和模型復(fù)雜度仍較高[8]。華為公司于2020年提出一種輕量化模塊——Ghost模塊[9],能有效降低網(wǎng)絡(luò)模型的參數(shù)量和計(jì)算復(fù)雜度。本研究采用Ghost模塊來(lái)替換YOLOv5s的主干網(wǎng)絡(luò),實(shí)現(xiàn)降低網(wǎng)絡(luò)參數(shù)量且提高檢測(cè)速度的目的,并在網(wǎng)絡(luò)中引入注意力機(jī)制(Squeeze and Excitation attention,SE)[10],使網(wǎng)絡(luò)提取出更加重要的特征信息。
1 YOLOv5s目標(biāo)檢測(cè)算法
YOLO模型采用預(yù)定義預(yù)測(cè)區(qū)域法來(lái)完成目標(biāo)檢測(cè),將原始輸入圖像劃分為S×S個(gè)網(wǎng)格,每個(gè)網(wǎng)格允許預(yù)測(cè)出X個(gè)邊界框及一個(gè)類別信息,其中,邊界框涵蓋該目標(biāo)位置信息和置信度信息。YOLOv5s網(wǎng)絡(luò)基于上述檢測(cè)方式,每個(gè)網(wǎng)格可預(yù)測(cè)3個(gè)邊界框(Bounding box),每個(gè)邊界框預(yù)測(cè)涵蓋(x,y,w,h,c)這5個(gè)元素,分別表示邊界框的位置、大小與置信度[11]。
YOLOv5s網(wǎng)絡(luò)結(jié)構(gòu)主要由輸入端、主干網(wǎng)絡(luò)Backbone、頸部網(wǎng)絡(luò)Neck和輸出端組成,如圖1所示。輸入端要求輸入圖片大小是32的倍數(shù),當(dāng)輸入圖片不滿足要求時(shí),輸入端會(huì)按照標(biāo)準(zhǔn)尺寸來(lái)自適應(yīng)填充或縮放圖片大小。其中,Mosaic[12]數(shù)據(jù)增強(qiáng)法是通過(guò)隨機(jī)選取4張圖片進(jìn)行縮放、旋轉(zhuǎn)等操作,經(jīng)過(guò)上述操作后,會(huì)隨機(jī)拼接成新的訓(xùn)練數(shù)據(jù),不僅豐富了數(shù)據(jù)集,還使網(wǎng)絡(luò)模型在推理階段減少計(jì)算量,提高目標(biāo)檢測(cè)速度。Mosaic數(shù)據(jù)增強(qiáng)效果如圖2所示。主干網(wǎng)絡(luò)由四部分組成,分別為Focus、CBL、CSP和SPP。對(duì)輸入的圖像進(jìn)行Focus操作,即對(duì)圖像進(jìn)行切片操作,圖像經(jīng)過(guò)2倍下采樣得到4張?zhí)卣鲌D,該方法不丟失圖像的特征信息,并使網(wǎng)絡(luò)提取到更加充分的特征信息??珉A段局部(Cross Stage Partial,CSP)模塊會(huì)構(gòu)建更深的網(wǎng)絡(luò),用于跨通道融合,通過(guò)融合每層的特征信息來(lái)獲得更豐富的特征圖像。Neck網(wǎng)絡(luò)結(jié)合上采樣層和CSP模塊,使高層語(yǔ)義信息與底層位置信息融合,得到預(yù)測(cè)的特征圖像,并將其送到輸出端。輸出端中的3個(gè)檢測(cè)頭分別對(duì)原圖像進(jìn)行8倍、16倍和32倍的下采樣,從而生成3個(gè)不同尺寸的特征向量,可用來(lái)預(yù)測(cè)圖像特征,并生成邊界框坐標(biāo)和返回目標(biāo)類別的概率和置信度。
YOLOv5s在目標(biāo)檢測(cè)領(lǐng)域中具有很強(qiáng)的檢測(cè)性能,但其不是專門(mén)對(duì)車輛目標(biāo)進(jìn)行檢測(cè)的,故存在檢測(cè)效果差等問(wèn)題,尤其當(dāng)車輛目標(biāo)較為密集時(shí),檢測(cè)效果并不理想。為滿足對(duì)車輛目標(biāo)檢測(cè)時(shí)具有實(shí)時(shí)精確性、網(wǎng)絡(luò)輕量化的需求,本研究對(duì)YOLOv5s網(wǎng)絡(luò)進(jìn)行改進(jìn),旨在提高對(duì)車輛目標(biāo)檢測(cè)的精度和速度。
2 改進(jìn)的YOLOv5s目標(biāo)檢測(cè)算法
2.1 主干網(wǎng)絡(luò)的改進(jìn)
卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是一類包含卷積計(jì)算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)[13],目標(biāo)檢測(cè)模型作為主干網(wǎng)絡(luò)多用來(lái)提取目標(biāo)特征。本研究在YOLOv5s模型的基礎(chǔ)上,將采用Ghost模塊來(lái)替換YOLOv5s模型主干網(wǎng)絡(luò)中的2個(gè)CSP模塊,以達(dá)到模型剪枝效果。
GhostNet以普通卷積和線性運(yùn)算的方式,將線性變換作用于普通卷積特征圖上,可獲得相似的特征圖,通過(guò)結(jié)合這兩種方式,能有效減少模型參數(shù)和計(jì)算次數(shù),Ghost模塊如圖3所示。Y的固有特征圖由普通卷積生成,Y′的冗余特征圖由線性運(yùn)算生成。Ghost模塊表示見(jiàn)式(1)。
Y=X*f+b (1)
式中:[X∈Rc×w×h]為輸入特征圖;c為其通道數(shù);h為其高度;w為其寬度;*為卷積操作;b為偏置項(xiàng)。
需要使用卷積核大小為[k×k]的卷積塊,可得到通道數(shù)為[n]的輸出特征圖[Y∈Rn×w′×h′],即[f∈Rc×k×k×n]。運(yùn)用該方法進(jìn)行一次特征提取需要的運(yùn)算量見(jiàn)式(2)
[cost=h′×w′×n×k×k×c] (2)
由此可知,大多數(shù)特征圖是相似的,部分卷積操作得到冗余的特征圖。多余的網(wǎng)絡(luò)計(jì)算會(huì)浪費(fèi)大量的算力和存儲(chǔ)資源。針對(duì)該問(wèn)題,Ghost模塊通過(guò)普通卷積運(yùn)算得到固有特征圖,見(jiàn)式(3)。
[Y′=X*f ′+b] (3)
式中:[Y′∈Rm×w′×h′];[f ′∈Rc×k×k×m];m為通道數(shù)。
為了獲得與原輸出特征圖相同數(shù)量的n維通道,Ghost模塊將m維固有特征圖進(jìn)行一系列線性變換,見(jiàn)式(4)。
[yij=?ij(yi′)?i=1,...,m;j=1,...,s] (4)
式中:[yi′]為第i個(gè)固有特征圖;[?ij]為第i個(gè)特征圖進(jìn)行的第j個(gè)線性變換的函數(shù)。
若提取前n個(gè)作為最終輸出,則獲得的特征圖數(shù)量與原輸出特征圖Y相同,即Ghost模塊完成一次特征提取需要的運(yùn)算量見(jiàn)式(5)。
[cost′=h′×w′×ns×k×k×c+(s-1)×h′×w′×? ? ? ? ? ? ?ns×k×k] (5)
將前后兩個(gè)運(yùn)算量相比,因?yàn)閟?c,則運(yùn)算量參數(shù)比見(jiàn)式(6)。
[r=ccs+s-1s=s×cc+s-1≈s] (6)
由此可知,用Ghost模塊來(lái)替代原主干網(wǎng)絡(luò),可有效降低參數(shù)量及計(jì)算量,能獲得更好的特征提取效果。
2.2 引入注意力機(jī)制
對(duì)于輸入的一張圖像信息,需要關(guān)注的是圖像上下文全局信息。隨著網(wǎng)絡(luò)的不斷加深,深層特征信息往往會(huì)被損失,為了解決這個(gè)問(wèn)題,本研究引入擠壓—激勵(lì)注意力機(jī)制(Squeeze-and-Excitation,SE)模塊。SE模塊是從特征的通道關(guān)系切入,經(jīng)全連接層和Sigmoid激活函數(shù)來(lái)獲取圖像特征通道的權(quán)重,根據(jù)權(quán)重的不同能抑制一些無(wú)用的通道特征,從而提取更加關(guān)鍵的特征信息,使得檢測(cè)效果更好。SE模塊如圖4所示。其中,F(xiàn)tr為傳統(tǒng)卷積操作,以X為輸入,U為Ftr的輸出,C′、H′、W′分別為圖像的通道數(shù)及高度和寬度,C、H、W分別為圖像經(jīng)過(guò)卷積操作后得到的圖像通道數(shù)及高度和寬度,F(xiàn)sq(·)為對(duì)圖像特征做全局平均池化操作。
SE注意力機(jī)制先將輸入大小為[H×W×C]的特征Uc,進(jìn)行全局平均池化,得到[1×1×C]的特征Zc,本質(zhì)上是將整體空間特征編碼為一個(gè)富含全局信息的特征,見(jiàn)式(7)。
[Zc=Fsq(Uc)=1H×Wi=1Hj=1W Uc(i, j)] (7)
先將全局大小的特征信息經(jīng)過(guò)Excitation操作,即Fex(·,W),獲得特征通道之間的聯(lián)系,并獲得各通道的權(quán)重。再通過(guò)ReLU激活函數(shù),并經(jīng)過(guò)全連接層恢復(fù)輸入時(shí)的通道數(shù)。最后經(jīng)過(guò)Sigmoid函數(shù)得到權(quán)重,見(jiàn)式(8)。
[S=Fexz,W=σgz,W=σW2δW1z]? ? (8)
式中:z為全局特征,即式(7)中的Zc先經(jīng)過(guò)全連接層降維;W1為降維系數(shù)。
將式(8)中的S與特征Uc相乘,得到權(quán)重Sc,生成最終的目標(biāo)特征見(jiàn)式(9)。
[Xc=FscaleUc , Sc=ScUc] (9)
3 試驗(yàn)結(jié)果與分析
3.1 數(shù)據(jù)集
試驗(yàn)的數(shù)據(jù)集是從coco[14]數(shù)據(jù)集中提取的,包含一萬(wàn)兩千多張圖片及相應(yīng)的標(biāo)注文件,圖片信息較為豐富,且涵蓋了不同地理、環(huán)境等條件因素下的圖片數(shù)據(jù)。數(shù)據(jù)集中只包含車輛類別car,將該數(shù)據(jù)集按照8∶1∶1的比例劃分為訓(xùn)練集、驗(yàn)證集、測(cè)試集,其中,訓(xùn)練集有10 228幅圖片、驗(yàn)證集有1 279幅圖片、測(cè)試集有1 279幅圖片。
3.2 試驗(yàn)環(huán)境及評(píng)價(jià)指標(biāo)
試驗(yàn)的硬件配置如下:CPU為Intel(R) Core(TM) i5-12500H;GPU為NVIDIA GeForce RTX 3050Ti;內(nèi)存為16 G。軟件環(huán)境為:Windows操作系統(tǒng);python 3.8;Torch 1.13.0 cuda 10.1。設(shè)置網(wǎng)絡(luò)訓(xùn)練超參數(shù)見(jiàn)表1。
本研究的主要評(píng)價(jià)指標(biāo)是精確率(precision)、召回率(recall)、平均準(zhǔn)確率(AP)、平均準(zhǔn)確率均值(mAP)及推理時(shí)間。精確率和召回率的計(jì)算見(jiàn)式(10)、式(11)。
[precision=TPTP+FP] (10)
[recall=TPTP+FN] (11)
式中:TP(True Positives)為正樣本數(shù)據(jù)中與真實(shí)框交并比大于閾值的檢測(cè)框的個(gè)數(shù),即被正確識(shí)別的車輛目標(biāo);FP(False Positives)為正樣本數(shù)據(jù)中與真實(shí)框交并比小于閾值的檢測(cè)框的個(gè)數(shù),即誤檢的車輛目標(biāo);FN(False Negatives)為正樣本中未檢測(cè)到的真實(shí)框的數(shù)量,即漏檢的車輛目標(biāo)。
平均準(zhǔn)確率(AP)和平均準(zhǔn)確率均值(mAP)是目標(biāo)分類和定位性能的主要衡量指標(biāo)計(jì)算見(jiàn)式(12)、式(13)。
[AP=01PRdR] (12)
[mAP=1Ni=1NAPi] (13)
3.3 模塊改進(jìn)對(duì)比分析
本研究通過(guò)逐步修改每個(gè)改進(jìn)模塊,來(lái)驗(yàn)證改進(jìn)模塊對(duì)網(wǎng)絡(luò)整體性能的影響,并驗(yàn)證是否能提升網(wǎng)絡(luò)性能。試驗(yàn)結(jié)果見(jiàn)表2。
只對(duì)主干網(wǎng)絡(luò)進(jìn)行改進(jìn),用Ghost模塊來(lái)替換YOLOv5s主干網(wǎng)絡(luò)中的兩個(gè)CSP模塊,得到I-YOLOv5s。與YOLOv5s網(wǎng)絡(luò)相比,I-YOLOv5s的mAP.5從0.678提升至0.685,提高了0.7%,而模型大小由14.4 MB減少至7.8 MB。II-YOLOv5s是在I-YOLOv5s的基礎(chǔ)上,引入擠壓—激勵(lì)注意力機(jī)制。相比較I-YOLOv5s網(wǎng)絡(luò),II-YOLOv5s網(wǎng)絡(luò)的mAP.5值從0.685提升至0.708,提高了2.3%,模型大小沒(méi)有顯著變化。
由表2可知,對(duì)網(wǎng)絡(luò)每個(gè)模塊進(jìn)行改進(jìn)后,其mAP.5和mAP.5∶.95值均逐步提升,且推理時(shí)間沒(méi)有顯著增加。
3.4 改進(jìn)前后YOLOv5s對(duì)比分析
為了研究II-YOLOv5s性能與原網(wǎng)絡(luò)的差異,對(duì)兩個(gè)模型的訓(xùn)練結(jié)果進(jìn)行對(duì)比分析,結(jié)果見(jiàn)表3。
由表3可知,改進(jìn)模型II-YOLOv5s的平均準(zhǔn)確率均值(mAP)為70.8%,比原網(wǎng)絡(luò)模型的mAP值提升3%,查準(zhǔn)率和召回率分別提升1.9%和3.2%,推理時(shí)間變化不大,但仍滿足實(shí)時(shí)性的要求。YOLOv5s與II-YOLOv5s的損失值和mAP對(duì)比如圖5所示。
由圖5可知,隨著訓(xùn)練批次逐步遞增,位置損失值不斷下降,在訓(xùn)練批次為60次左右時(shí),曲線趨于穩(wěn)定,II-YOLOv5s模型位置損失值明顯低于YOLOv5s模型位置損失值。從YOLOv5s與II-YOLOv5s的mAP值對(duì)比曲線得出,模型趨于穩(wěn)定后,II-YOLOv5s的mAP值優(yōu)于YOLOv5s模型。
4 結(jié)語(yǔ)
本研究在YOLOv5s網(wǎng)絡(luò)模型基礎(chǔ)上,對(duì)其功能進(jìn)行了改進(jìn),并將其應(yīng)用于交通目標(biāo)識(shí)別系統(tǒng)中。II-YOLOv5s網(wǎng)絡(luò)模型在主干網(wǎng)絡(luò)中使用Ghost模塊,減少了網(wǎng)絡(luò)模型參數(shù)量和計(jì)算量,提高了平均準(zhǔn)確率均值。通過(guò)引入SE注意力機(jī)制,根據(jù)不同權(quán)重來(lái)抑制無(wú)用的通道特征,并有效提取了更加關(guān)鍵的特征信息,使得檢測(cè)精度更高。試驗(yàn)結(jié)果表明,改進(jìn)后的網(wǎng)絡(luò)模型平均準(zhǔn)確率均值較原網(wǎng)絡(luò)模型有所提升,位置損失值有一定程度的降低,可作為移植到移動(dòng)端設(shè)備的網(wǎng)絡(luò)模型,且改進(jìn)后的模型更符合網(wǎng)絡(luò)檢測(cè)速度的實(shí)時(shí)性要求。后續(xù)研究將改進(jìn)后的網(wǎng)絡(luò)模型嵌入到移動(dòng)設(shè)備中,做進(jìn)一步驗(yàn)證。
參考文獻(xiàn):
[1]肖雨晴,楊慧敏.目標(biāo)檢測(cè)算法在交通場(chǎng)景中應(yīng)用綜述[J].計(jì)算機(jī)工程與應(yīng)用,2021(6):30-41.
[2]KRIZHEVSKY A,SUTSKEVER I,HINTON G E.ImageNetclassification with deep convolutional neural networks[J].Advances in Neural Information Processing Systems,2017(6)84-90.
[3]LECUN Y,BENGIO Y,HINTON G.Deep learning[J].Nature,2015(7553):436-444.
[4]董延華,李佳澳.改進(jìn)YOLOv5s遙感圖像識(shí)別算法研究[J].吉林師范大學(xué)學(xué)報(bào)(自然科學(xué)版),2023(2):117-123.
[5]REDMON J,DIVVALA K S,GIRSHICK B R,et al.You only look once: unified,real-time object detection[C]//Computer Vision & Pattern Recognition.IEEE,2016:779-788.
[6]周晴,譚功全,尹宋麟,等.改進(jìn)YOLOv5s的道路目標(biāo)檢測(cè)算法[J].液晶與顯示,2023(5):680-690.
[7]章程軍,胡曉兵,牛洪超.基于改進(jìn)YOLOv5的車輛目標(biāo)檢測(cè)研究[J].四川大學(xué)學(xué)報(bào)(自然科學(xué)版),2022(5):79-87.
[8]蔣超,張豪,章恩澤,等.基于改進(jìn)YOLOv5s的行人車輛目標(biāo)檢測(cè)算法[J].揚(yáng)州大學(xué)學(xué)報(bào)(自然科學(xué)版),2022(6):45-49.
[9]HAN K,WANG Y,TIAN Q,et al.GhostNet:more features from cheap operations[J].Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2020:1577-1586.
[10]HU J,SHEN L,SUN G.Squeeze-and-excitation networks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).IEEE,2018:7132-7141.
[11]邵延華,張鐸,楚紅雨,等.基于深度學(xué)習(xí)的YOLO目標(biāo)檢測(cè)綜述[J].電子與信息學(xué)報(bào),2022(10):3697-3708.
[12]YUN S,HAN D,OH S J,et al.CutMix:regularization strategy to train strong classifiers with localizable features[J].CoRR,2019:1-14.
[13]李炳臻,劉克,顧佼佼,等.卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J].計(jì)算機(jī)時(shí)代,2021(4):8-12,17.
[14]LIN T Y,MAIRE M,BELONGIE J S,et al.Microsoft coco:common objects in context[J].CoRR,2014,8693:740-755.