国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)YOLOv5的輕量型口罩佩戴檢測算法

2023-05-14 19:29:04王圣雄劉瑞安燕達(dá)黃玉蘭胡昕
計算機(jī)時代 2023年5期

王圣雄 劉瑞安 燕達(dá) 黃玉蘭 胡昕

摘? 要: 提出一種基于改進(jìn)YOLOv5的輕量型口罩檢測算法CG-YOLOv5s。結(jié)合卷積注意力機(jī)制和Ghost卷積等技術(shù),在網(wǎng)絡(luò)中加入CBAM-CSP、GRCM改進(jìn)模塊以增強(qiáng)特征提取能力,改善模型的計算性能,使用Alpha-CIoU損失并結(jié)合DIoU非極大抑制方法,進(jìn)一步提升檢測精度。結(jié)果表明,CG-YOLOv5s在對檢測速度影響較小的情況下,獲得了89.1%的檢測精度,模型大小減少了19.63%,實現(xiàn)了模型輕量化的效果。

關(guān)鍵詞: 目標(biāo)檢測算法; 口罩檢測; 卷積注意力; Ghost卷積; 輕量化模型

中圖分類號:TP391.4? ? ? ? ? 文獻(xiàn)標(biāo)識碼:A? ? ?文章編號:1006-8228(2023)05-109-04

Lightweight mask wearing detection algorithm based on improved YOLOv5

Wang Shengxiong, Liu Ruian, Yan Da, Huang Yulan, Hu Xin

(College of Electronic and Communication Engineering, Tianjin Normal University, Tianjin 300387, China)

Abstract: A lightweight mask detection algorithm CG-YOLOv5s based on improved YOLOv5 is proposed. Combining techniques such as convolutional attention mechanism and Ghost convolution, CBAM-CSP module and GRCM module are added to the network to enhance the feature extraction ability and improve the computational performance of the model. The use of Alpha-CIoU losses combined with DIoU NMS method further improves detection accuracy. The results show that the CG-YOLOv5s achieves 89.1% detection accuracy and 19.63% reduction in model size with less impact on detection speed. It achieves the effect of model lightweight.

Key words: object detection algorithm; mask detection; CBAM; Ghost convolution; lightweight model

0 引言

人們佩戴口罩是針對病毒傳播的重要防護(hù)方式[1]。近年來,已經(jīng)有許多研究者使用主流的目標(biāo)檢測方法來檢測公共場所人們口罩佩戴情況。如程長文[2]等人在YOLOv4中加入自適應(yīng)錨定框并改進(jìn)了前饋輸入層以優(yōu)化數(shù)據(jù)處理,降低計算量。王藝皓[3]等人提出了一種基于YOLOv3的口罩檢測改進(jìn)算法,通過使用改進(jìn)的空間金字塔池化結(jié)構(gòu)來提高口罩佩戴檢測的檢測精度。任健[4]等人為優(yōu)化目標(biāo)遮擋和尺度變化等問題,提出了一種基于SSD優(yōu)化模型的多尺度卷積特征融合檢測方法,通過殘差網(wǎng)絡(luò)、跳躍連接機(jī)制和多尺度特征融合機(jī)制提升了人臉口罩的檢測精度。劉玉國[5]等人改進(jìn)了Faster R-CNN主干網(wǎng)絡(luò)并結(jié)合K-means聚類策略對錨框尺寸進(jìn)行聚類,重新設(shè)計其尺寸,該方法能夠有效提升檢測精度。

盡管上述方法都取得了較好的檢測效果,但它們在復(fù)雜場景下仍存在因人群密集、人臉遮擋而引起的檢測效果較差、定位目標(biāo)準(zhǔn)確性低等問題。

為解決上述問題并進(jìn)一步提升檢測精度,本文提出一種基于改進(jìn)YOLOv5的輕量型口罩檢測算法CG-YOLOv5s。主要貢獻(xiàn)如下:在YOLOv5s骨干網(wǎng)絡(luò)中,加入改進(jìn)CBAM-CSP模塊,增強(qiáng)特征提取能力;加入改進(jìn)的Ghost卷積模塊GRCM,降低參數(shù)量;使用Alpha-CIoU損失并結(jié)合基于DIoU的非極大抑制來優(yōu)化邊界框回歸過程,進(jìn)而提高檢測模型的精度。

1 CG-YOLOv5s口罩檢測算法

1.1 網(wǎng)絡(luò)結(jié)構(gòu)

CG-YOLOv5s網(wǎng)絡(luò)由骨干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)和檢測網(wǎng)絡(luò)組成。CG-YOLOv5s的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

在骨干網(wǎng)絡(luò)中,本文加入了卷積注意力機(jī)制[6]并集成CSP模塊[7]得到基于注意力機(jī)制的跨階段局部模塊CBAM-CSP。CBAM注意力機(jī)制能夠增強(qiáng)圖像局部特征的特征表示,使網(wǎng)絡(luò)關(guān)注到關(guān)鍵特征信息,從而提升網(wǎng)絡(luò)的特征提取能力,其與CSP模塊集成后,能夠保證檢測模型在最大程度上充分利用注意力特征圖。改進(jìn)后的模塊結(jié)構(gòu)如圖2所示。模塊包含兩條分支,一條分支由卷積模塊和殘差模塊組成,用于進(jìn)一步增強(qiáng)卷積的提取特征能力,而另一條分支只采用卷積處理注意力特征圖。最后,將兩條分支的輸出特征圖在通道維度上進(jìn)行拼接并通過卷積處理得到CBAM-CSP模塊的最終輸出。同時為了降低網(wǎng)絡(luò)的計算成本,本文引入Ghost卷積[8]并對其進(jìn)行技術(shù)改進(jìn),提出了Ghost殘差卷積模塊,即GRCM模塊,其模塊結(jié)構(gòu)如圖3所示。借鑒殘差網(wǎng)絡(luò)[9]的思想,將殘差結(jié)構(gòu)引入到Ghost卷積結(jié)構(gòu)中,從而進(jìn)一步獲取更多的局部細(xì)節(jié)特征,同時還能增強(qiáng)網(wǎng)絡(luò)層之間的反向傳播能力,以避免模型在訓(xùn)練時出現(xiàn)梯度消失。此外,本文選用深度卷積來實現(xiàn)改進(jìn)模塊的線性計算操作,通過這種廉價的計算方式來獲取大量的非必要特征信息,以此來減少計算資源的消耗,降低網(wǎng)絡(luò)的計算成本。

CG-YOLOv5s的頸部網(wǎng)絡(luò)結(jié)合了特征金字塔網(wǎng)絡(luò)結(jié)構(gòu)[10]和路徑聚合網(wǎng)絡(luò)結(jié)構(gòu)[11]的特點(diǎn),用于進(jìn)行多尺度特征融合處理。其檢測網(wǎng)絡(luò)包含三個檢測頭,每個檢測頭會根據(jù)給定的錨框尺寸對特定大小的特征圖進(jìn)行檢測,并輸出最終的檢測框和類別信息。

1.2 損失函數(shù)

為了提高邊界框的回歸效果,并加快回歸損失的收斂速度,本文采用Alpha-CIoU[12]計算邊界框回歸損失,其表達(dá)式如下:

[Alpha-CIoUb,bgt=IoUα-ρ2αb,bgtc2α-βvα,α>0]? ⑴

[Lbbox=1-Alpha-CIoUb,bgt]? ⑵

其中,[b]和[bgt]分別為預(yù)測框和真實框的中心點(diǎn),[ρ?]表示兩個中心點(diǎn)之間的歐式距離,[c]為最小閉包區(qū)域的對角線長度(最小閉包區(qū)域,即能夠同時包圍預(yù)測框和真實框的最小矩形區(qū)域),[α]是一個可控的冪參數(shù)(本文中,[α=3]),[β]是權(quán)重參數(shù),[v]用來衡量預(yù)測框和真實框的長寬比一致性。[IoU]、[v]和[β]的表達(dá)式如下:

[IoU=B∩BgtB∪Bgt]? ⑶

[v=4π2arctanwgthgt-arctanwh2]? ⑷

[β=v1-IoU+v]? ⑸

其中,[w]和[h]分別為邊界框的寬度和高度。

此外,本文引入基于DIoU的非極大抑制方法[13]對邊界框進(jìn)行篩選,從而解決在目標(biāo)相近的情況下錯誤去除邊界框的問題,以此來進(jìn)一步提高檢測過程的準(zhǔn)確性。

2 實驗與結(jié)果分析

2.1 數(shù)據(jù)集及實驗環(huán)境

本文通過網(wǎng)絡(luò)收集人臉佩戴口罩、未佩戴口罩和錯誤佩戴口罩三種圖像數(shù)據(jù),并采用數(shù)據(jù)增強(qiáng)方式對數(shù)據(jù)進(jìn)行擴(kuò)充,最后得到16600張圖像,其中,訓(xùn)練集占比64%、驗證集和測試集各占比18%。本文標(biāo)記了三種類別標(biāo)簽,依次為without_mask(未佩戴口罩)、with_mask(正確佩戴口罩)和mask_weared_incorrect(錯誤佩戴口罩)。

本文實驗在基于Python 3.8的PyTorch框架中進(jìn)行,使用型號為GeForce RTX 3080 Ti的GPU服務(wù)器訓(xùn)練、測試模型。實驗前,對部分參數(shù)進(jìn)行如下調(diào)整。輸入圖像尺寸設(shè)置為640×640,每個批次訓(xùn)練16張圖像,實驗訓(xùn)練的最大epoch值設(shè)置為300等。

最后,本文選用單類別平均精確度(Average Precision, AP)、多類別平均精確度均值(Mean Average Precision, mAP)和每秒處理圖片的幀數(shù)(FramePerSecond, FPS)評估算法性能。

2.2 結(jié)果分析

為了驗證本文算法中改進(jìn)模塊的有效性,在相同的實驗環(huán)境下,本文進(jìn)行了六組消融實驗,實驗結(jié)果如表1所示。其中,類別1為未佩戴口罩,類別2為正確佩戴口罩,類別3為錯誤佩戴口罩。

從表1可以清晰地看出,與實驗1相比,實驗2在每種類別的檢測精度均有所提升,平均檢測精度提升了8.56%,模型參數(shù)量降低了10.98%,由此說明Ghost卷積模塊能夠有效地保留圖像的全局特征信息,降低模型參數(shù)量。與實驗2相比,實驗3的檢測精度并沒有明顯的提升,但其模型參數(shù)量降低了11.05%,可以證明GRCM模塊在正常發(fā)揮其作用的同時還能降低模型參數(shù)量,這為輕量化模型的構(gòu)建提供了基礎(chǔ)。從實驗1和實驗4、實驗2和實驗5的結(jié)果可以看出,在加入CBAM-CSP模塊后檢測精度均有所提升,由此驗證了CBAM-CSP模塊的有效性。根據(jù)實驗5和實驗6的結(jié)果可以看出,CG-YOLOv5s算法的平均檢測精度提升了0.22%,檢測速度提升了4.60%,這充分說明Alpha-CIoU損失函數(shù)與DIoU非極大抑制方法的結(jié)合能進(jìn)一步提升檢測精度。此外,與實驗5相比,實驗6的模型參數(shù)量降低了10.83%,由此可以證明GRCM模塊在模型輕量化方面發(fā)揮了顯著的作用。

為了進(jìn)一步體現(xiàn)本文算法的綜合性能,本文與YOLOv3、YOLOv3-tiny、YOLOv4s-mish和YOLOv5s算法進(jìn)行了對比實驗,對比結(jié)果如表2所示。

由表2可以看出,本文算法CG-YOLOv5s的模型參數(shù)更少,且相比于YOLOv5s參數(shù)量減少了20.24%,模型大小也僅為YOLOv5s的80.36%。在檢測精度和檢測速度方面,本文算法的檢測精度相對較高,但檢測速度較低。與YOLOv4s-mish相比,雖然本文算法檢測精度下降了0.22%,但在其他方面的性能均超過了YOLOv4s-mish。由此可以看出,CG-YOLOv5s在綜合性能上表現(xiàn)更優(yōu),而且在人群密集和目標(biāo)較小的情況下取得了不錯的效果。檢測效果如圖4所示。

3 結(jié)束語

本文針對口罩檢測存在因人群密集、遮擋等復(fù)雜因素而導(dǎo)致檢測效果較差、定位目標(biāo)的準(zhǔn)確性較低等問題,提出了一種改進(jìn)的口罩佩戴檢測算法CG-YOLOv5s。實驗結(jié)果表明,CG-YOLOv5s進(jìn)一步降低了模型參數(shù)量,實現(xiàn)了模型輕量化的效果,并在對檢測速度影響較小的同時有效地提高了檢測精度,且其在人群密集、目標(biāo)遮擋的復(fù)雜場景中表現(xiàn)較好。后期將主要針對如何提升算法的檢測速度展開相關(guān)研究,以使算法性能達(dá)到更優(yōu)。

參考文獻(xiàn)(References):

[1] 周艷萍,饒翮,姜怡,等.新型冠狀病毒肺炎疫情后期公眾正確使用口罩調(diào)查分析[J].藥物流行病學(xué)雜志,2021,30(3):205-209

[2] 程長文,陳瑋,陳勁宏,等.改進(jìn)YOLO的口罩佩戴實時檢測方法[J].電子科技,2022(11):1-9

[3] 王藝皓,丁洪偉,李波.復(fù)雜場景下基于改進(jìn)YOLOv3的口罩佩戴檢測[J].計算機(jī)工程,2020,46(11):12-22

[4] 任健,楊帆,張奕凡,等.基于改進(jìn)SSD的人臉口罩佩戴檢測算法[J].電子測試,2022,36(13):48-51

[5] 劉玉國,張晶.基于改進(jìn)的Faster R-CNN的行人口罩檢測[J].現(xiàn)代計算機(jī),2021,27(26):73-76,81

[6] WOO S, PARK J, LEE J Y, et al. CBAM: Convolutionalblock attention module[C]//Proceedings of the European conference on computer vision (ECCV),2018:3-19

[7] LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shotmultibox detector[C]//European Conference on Computer Vision. Springer, Cham,2016:21-37

[8] HAN K, WANG Y, TIAN Q, et al. Ghostnet: more featuresfrom cheap operations[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR), Seattle: IEEE,2020:1580-1589

[9] HE K, ZHANG X, REN S, et al. Deep residual learning forimage recognition[C]//Proceedings of the IEEE conference on computer vision and pattern recognition,2016:770-778

[10] LIN T Y, DOLL?R P, GIRSHICK R, et al. Featurepyramid networks for object detection[C]//Proceedings of the IEEE conference on computer vision and pattern recognition,2017:2117-2125

[11] LIU S, QI L, QIN H, et al. Path aggregation network forinstance segmentation[C]//Proceedings of the IEEE conference on computer vision and pattern recognition,2018:8759-8768

[12] HE J, ERFANI S, MA X, et al. Alpha-IoU: A Family ofPower Intersection over Union Loses for Bounding Box Regresion[J]. Advances in Neural Information Procesing Systems,2021,34

[13] ZHENG Z, WANG P, LIU W, et al. Distance-IoU los:Faster and better learning for bounding box regresion[C]//Proceedings of the AAAI Conference on Artificial Intelligence,2020,34(7):12993-13000

溧水县| 汉阴县| 尉犁县| 盘锦市| 安庆市| 都安| 巫山县| 岢岚县| 石泉县| 凤城市| 永靖县| 韶山市| 靖江市| 浦北县| 会昌县| 宝兴县| 车致| 汾西县| 呼伦贝尔市| 呼图壁县| 仙桃市| 雅江县| 北海市| 横峰县| 平阴县| 新沂市| 保定市| 乌苏市| 阆中市| 颍上县| 舒兰市| 宣武区| 隆昌县| 肇源县| 阿合奇县| 崇义县| 元阳县| 化德县| 淄博市| 夏津县| 三亚市|