李順祥 蔣海洋 熊伶 黃才生 蔣有高 鄧曦 王楷 張鵬
doi:10.11835/j.issn.1000.582X.2023.09.014
收稿日期:2023-05-12
基金項(xiàng)目:重慶市水利科技資助項(xiàng)目(渝西水司文[2021]19號(hào)),重慶市技術(shù)創(chuàng)新與應(yīng)用發(fā)展專項(xiàng)重點(diǎn)項(xiàng)目(cstc2021jscx-gksbX0032)。
Foundation:Supported by Chongqing Water Science and Technology Project (No.19, Shuisiwen [2021], West Chongqing) and the Technology Innovation & Application Development Projects of Chongqing(cstc2021jscx-gksbX0032).
作者簡(jiǎn)介:李順祥(1969—),男,高級(jí)工程師,主要從事水利工程建設(shè)管理、智慧水利等方向研究,(E-Mail)281849629@qq.com。
通信作者:王楷(1981—),男,博士,副教授,(E-mail)kaiwang@cqu.edu.cn。
摘要:在大型水利建造工程現(xiàn)場(chǎng),存在高空墜物、塔吊轉(zhuǎn)動(dòng)、墻體坍塌等問(wèn)題,對(duì)于建造人員人身安全造成巨大威脅,佩戴安全帽是保護(hù)建造人員的有效措施,作為工程作業(yè)中的安全管理,對(duì)建造人員進(jìn)行安全帽佩戴的精確檢測(cè)很有必要。針對(duì)現(xiàn)有安全帽檢測(cè)算法在大型水利建造場(chǎng)景下對(duì)小且密集的安全帽目標(biāo)存在漏檢、檢測(cè)精度較低等問(wèn)題,提出一種基于STA-YOLOv5的安全帽佩戴檢測(cè)算法,該算法將Swin Transformer和注意力機(jī)制引入到Y(jié)OLOv5算法中,提高模型對(duì)安全帽的識(shí)別能力。實(shí)驗(yàn)結(jié)果表明,STA-YOLOv5算法具有更精確檢測(cè)結(jié)果,識(shí)別準(zhǔn)確率達(dá)到91.6%,較原有的YOLOv5算法有明顯提升。
關(guān)鍵詞:水利建造;安全帽佩戴檢測(cè);STA-YOLOv5;Swin Transformer;注意力機(jī)制
中圖分類號(hào):TP391.4 ?????????文獻(xiàn)標(biāo)志碼:A ?????文章編號(hào):1000-582X(2023)09-142-11
Hydraulic construction personnel safety helmet wearing detection algorithm based on STA-YOLOv5
LI Shunxiang1, JIANG Haiyang2, XIONG Ling1, HUANG Caisheng1, JIANG Yougao1, DENG Xi3, WANG Kai2, ZHANG Peng2
(1. Chongqing Western Water Resources Development Co., Ltd., Chongqing 401329, P. R. China; 2. College of Automation, Chongqing University, Chongqing 400030, P. R. China; 3. China Academy of Building Research, Beijing 100013, P. R. China)
Abstract: At the site of large-scale water conservancy construction projects, there are problems such as falling objects, tower crane rotation, wall collapse, which pose a great threat to the personal safety of construction personnel. Wearing safety helmets is an effective measure to protect construction personnel. Therefore, it is necessary for construction personnel to carry out accurate detection of helmet wearing as a safety management in engineering operations. Aiming at the problems of missing detection and low detection accuracy of small and dense helmet targets in large-scale hydraulic construction scenarios, a helmet wearing detection algorithm based on STA-YOLOv5 is proposed, which introduces Swin Transformer and attention mechanism into YOLOv5 algorithm to improve the identification ability of the model to the helmet. The experimental results show that the STA-YOLOv5 algorithm has more accurate detection results, and the recognition accuracy reaches 91.6%, which is significantly improved compared with the original YOLOv5 algorithm.
Keywords: water conservancy construction; helmet wearing detection; STA-YOLOv5; Swin Transformer; attention mechanism
近年來(lái),隨著大型水利建造工程建設(shè)項(xiàng)目的迅速發(fā)展,對(duì)建造現(xiàn)場(chǎng)的安全管理提出了更高要求。安全帽是施工過(guò)程中最基本的安全保護(hù)裝備之一,佩戴安全帽可有效保護(hù)人身安全,避免因高空墜物、塔吊轉(zhuǎn)動(dòng)等意外事故造成傷害。因此,在建造現(xiàn)場(chǎng)的安全管理工作中,佩戴安全帽是不可缺少的施工要求之一,及時(shí)檢測(cè)工人是否佩戴安全帽具有較大意義。
隨著圖像處理與目標(biāo)檢測(cè)的快速發(fā)展,很多學(xué)者對(duì)安全帽檢測(cè)方法進(jìn)行了研究。張博[1]等使用open-pose定位人體頭部區(qū)域,再使用Faster RCNN來(lái)檢測(cè)安全帽,最后分析空間關(guān)系判斷是否佩戴安全帽;朱曉春[2]等基于改進(jìn)Darknet網(wǎng)絡(luò)的YOLO v3算法實(shí)時(shí)檢測(cè)施工人員是否佩戴安全帽,檢測(cè)速度得到明顯提升;胡曉棟[3]等使用更加輕量的MobileViTv2對(duì)安全帽的特征進(jìn)行提?。煌趿崦?sup>[4]等人將注意力機(jī)制加入YOLOv5算法中,并將特征金字塔替換為加權(quán)雙向特征金字塔(BiFPN),提高了網(wǎng)絡(luò)對(duì)密集物體的檢測(cè)能力;沈希忠[5]等在YOLOX基礎(chǔ)上,采用輕量級(jí)的GhostNet替換CSPDarknet作為backbone,同時(shí)擴(kuò)展特征融合網(wǎng)絡(luò)的特征層輸入尺度,提高網(wǎng)絡(luò)對(duì)小目標(biāo)的檢測(cè)能力,并使用深度可分離卷積代替常規(guī)卷積,降低網(wǎng)絡(luò)參數(shù)。Vishnu[6]等將CNN應(yīng)用于摩托車駕駛員頭盔佩戴檢測(cè),準(zhǔn)確率高達(dá)92.87%,該方法不能進(jìn)行多個(gè)目標(biāo)檢測(cè)。Hao[7]等人使用基于顏色的混合描述提取安全帽特征,用分層支持向量機(jī)對(duì)安全帽進(jìn)行分類檢測(cè)。
在大型施工場(chǎng)景中,如渝西水資源配置工程,是重慶歷史上投資規(guī)模最大、覆蓋面最全和受利人群數(shù)量最多的民生工程(如圖1所示),該工程以提高管理能力、工程質(zhì)量和工作效率為中心,包括智慧建管、智慧設(shè)計(jì)、智慧運(yùn)維和智慧工地4大板塊,其中安全管理尤為重要。
針對(duì)大型水利建造工程,由于存在鋼筋、水泥、輸電線路、工地橋架等各種設(shè)備,使得施工場(chǎng)景圖像涵蓋范圍較廣泛且包含較多物體,圖像中工人佩戴的安全帽目標(biāo)較小。且由于攝像頭本身受到光照強(qiáng)度、拍攝角度、拍攝距離、天氣等因素的影響,導(dǎo)致在安全帽檢測(cè)[8?10]時(shí)更容易出現(xiàn)準(zhǔn)確度低、漏檢率大、錯(cuò)檢率高等問(wèn)題。為了提高大型施工場(chǎng)景中安全帽檢測(cè)的性能,提出一種引入Swin Transformer和注意力機(jī)制的YOLOv5算法,即STA-YOLOv5算法,使安全帽檢測(cè)的定位目標(biāo)更加快速、精確。
1算法整體框架
1.1YOLO系列目標(biāo)檢測(cè)算法對(duì)比分析
YOLO系列為單步目標(biāo)檢測(cè)框架,對(duì)輸入圖像直接進(jìn)行分類概率回歸和包圍框坐標(biāo)回歸實(shí)現(xiàn)目標(biāo)檢測(cè)。?Redmon J[11]等人在2016年提出基于回歸的目標(biāo)檢測(cè)算法YOLOv1,實(shí)現(xiàn)了目標(biāo)識(shí)別與定位的統(tǒng)一,先后提出改進(jìn)版本YOLOv2[12]和YOLOv3[13],準(zhǔn)確率得到了進(jìn)一步提高。YOLOv4是對(duì)YOLOv3的改進(jìn),網(wǎng)絡(luò)結(jié)構(gòu)主要包括主干特征提取網(wǎng)絡(luò)CSPDarknet53、空間金字塔池化(SPP[14])、路徑聚合網(wǎng)絡(luò)(PANet[15]),同時(shí)使用多種數(shù)據(jù)增強(qiáng)技術(shù)來(lái)提升檢測(cè)性能。YOLOv5[16?17]使用C3Darknet作為主干網(wǎng)絡(luò)從輸入圖像中提取豐富的信息特征,使用PANet作為Neck聚合特征,模型檢測(cè)層與YOLOv3相同,Conv卷積模塊的激活函數(shù)采用SiLU[18]函數(shù)。因此,相比于其他YOLO系列算法,選擇YOLOv5作為安全帽佩戴檢測(cè)算法主網(wǎng)絡(luò)的原因在于其實(shí)時(shí)性能優(yōu)異、簡(jiǎn)單易用、多尺度檢測(cè)能力,YOLO系列算法對(duì)比如表1所示。此外,YOLOv5通過(guò)設(shè)置depth_multiple和width_multiple 2個(gè)參數(shù)調(diào)節(jié)主干網(wǎng)絡(luò)的深度和寬度并劃分出4個(gè)量級(jí)模型:YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x。
1.2STA-YOLOv5算法整體框架
通過(guò)設(shè)計(jì)STA-YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)解決安全帽是否佩戴及檢測(cè)過(guò)程誤檢、漏檢率高的問(wèn)題。STA-YOLOv5 網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。整體框架主要由Input、Att、Backbone、Neck和Head等5部分組成。其中,輸入Input為三通道的RGB圖像。主干網(wǎng)絡(luò)Backbone使用Swin Transformer[19]網(wǎng)絡(luò),通過(guò)對(duì)特征圖分解成小塊進(jìn)行信息跨層交流,有效捕獲全局信息和局部信息之間的關(guān)系,增強(qiáng)提取特征。注意力模塊Att通過(guò)引入融合通道和空間注意力機(jī)制,對(duì)提取特征更深層次學(xué)習(xí),增強(qiáng)模型的檢測(cè)能力。特征融合層Neck采用路徑聚合網(wǎng)絡(luò)(path aggregation network,PANet),對(duì)Backbone和Att輸出的有效特征圖進(jìn)行融合,實(shí)現(xiàn)不同特征層的信息交融。PANet更好融合了淺層與深層的特征信息,充分提取到網(wǎng)絡(luò)中各層次的特征,加強(qiáng)特征提取,得到更豐富的特征信息。輸出檢測(cè)部分Head有3個(gè)YOLO Head檢測(cè)器,輸出不同尺度特征圖進(jìn)行目標(biāo)預(yù)測(cè)。
2基于Swin Transformer的安全帽特征提取網(wǎng)絡(luò)
Swin-Transformer[20?21]算法利用窗口多頭注意力機(jī)制(windows multi-head self-attention,W-MSA)和窗口移動(dòng)多頭注意力機(jī)制(windows shift multi-head self-attention,WS-MSA)實(shí)現(xiàn)層級(jí)式Transformer,可作為安全帽的特征提取網(wǎng)絡(luò),在應(yīng)用到Y(jié)OLOv5的算法結(jié)構(gòu)中。Swin Transformer整體網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,采用類似CNN的層次化模型構(gòu)建方法。
整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)主要由4個(gè)結(jié)構(gòu)相似的階段模塊組成,除第一個(gè)是由線性嵌入層+ Swin Transformer塊組成之外,其余均是由圖塊融合層+ Swin Transformer塊組成。除第一個(gè)階段外,每個(gè)階段都會(huì)先通過(guò)圖塊融合層縮小輸入的分辨率,對(duì)特征進(jìn)行下采樣操作擴(kuò)大感受野,以獲取全局信息。圖塊融合層是該環(huán)節(jié)中關(guān)鍵步驟(如圖4所示)。在每個(gè)階段開(kāi)始前進(jìn)行下采樣操作,縮小圖像的分辨率,調(diào)整通道數(shù)形成層次化設(shè)計(jì),同時(shí)節(jié)省運(yùn)算量。圖塊融合層通過(guò)在行方向和列方向間隔2個(gè)單位選取元素來(lái)進(jìn)行二倍下采樣操作,將得到的圖像拼接在一起后展開(kāi),此時(shí)圖像的高和寬縮小了1/2,但是通道加深了4倍,再通過(guò)一個(gè)1×1的卷積對(duì)圖像深度進(jìn)行調(diào)整變?yōu)樵瓉?lái)的2倍[22]。圖塊融合層會(huì)增加一定計(jì)算量,但不會(huì)丟失信息,而?Pooling往往會(huì)丟失一部分信息,這也是該網(wǎng)絡(luò)提升準(zhǔn)確率的一個(gè)因素。
3基于融合通道和空間注意力機(jī)制的安全帽檢測(cè)
YOLOv5網(wǎng)絡(luò)存在著不同程度的目標(biāo)區(qū)域關(guān)注不全和對(duì)無(wú)關(guān)背景區(qū)域產(chǎn)生無(wú)效關(guān)注的問(wèn)題,增大對(duì)安全帽檢測(cè)難度。工人集體作業(yè)時(shí),出現(xiàn)人員堆積密集,使安全帽形狀不規(guī)則,邊緣存在棱角分明或是圓潤(rùn)平滑的差異等問(wèn)題,從而使檢測(cè)變得困難。注意力機(jī)制通過(guò)給不同部分的特征圖賦予權(quán)重選擇部分特征圖,抑制無(wú)用信息,以達(dá)到選擇更優(yōu)特征的目的。對(duì)此,研究設(shè)計(jì)一種融合通道和空間注意力(如圖5所示),以加強(qiáng)對(duì)重要特征的利用,減少重要細(xì)節(jié)特征損失。
3.1SENet通道注意力
網(wǎng)絡(luò)訓(xùn)練過(guò)程中,圖像中安全帽的數(shù)量可能會(huì)出現(xiàn)類別不平衡、無(wú)關(guān)信息干擾多的情況,引入SENet模塊解決此問(wèn)題。SENet[21?23](squeeze and excitation network)是一種應(yīng)用通道注意力機(jī)制的深度卷積神經(jīng)網(wǎng)絡(luò)(CNN),自適應(yīng)調(diào)整每個(gè)通道的權(quán)重,突出對(duì)當(dāng)前任務(wù)最有用的特征通道,抑制對(duì)任務(wù)不重要的通道[24]。
SENet的通道注意力機(jī)制通過(guò)壓縮和激勵(lì)2個(gè)關(guān)鍵步驟來(lái)實(shí)現(xiàn)。
1)壓縮(Squeeze):通過(guò)全局平均池化操作對(duì)輸入特征圖進(jìn)行降維,將每個(gè)通道的特征圖壓縮為單一值,如式(3)所示。這有助于捕獲每個(gè)通道的全局感受野信息,并得到通道維度上的全局特征描述
2)激勵(lì)(Excitation):使用一個(gè)多層感知機(jī)(MLP)來(lái)對(duì)每個(gè)通道的全局特征進(jìn)行建模。通過(guò)2個(gè)全連接層(fully connected layer,F(xiàn)C)和函數(shù)ReLU,依次為FC- ReLU-FC,建立通道之間的相關(guān)性。再通過(guò)Sigmoid激活函數(shù)得到C個(gè)[0,1]之間的權(quán)重,如式(4)。MLP的目標(biāo)是學(xué)習(xí)一種激勵(lì)函數(shù)(excitation function),它基于全局特征生成每個(gè)通道的權(quán)重。這些權(quán)重用于對(duì)原始特征進(jìn)行重新加權(quán),增強(qiáng)有用特征通道的表示能力
最后通過(guò)乘法將通道加權(quán)到先前特征上,完成在通道維度上對(duì)原始特征的重標(biāo)定,如式(5)。
在整個(gè)SENet結(jié)構(gòu)中,壓縮和激勵(lì)操作是串聯(lián)在一起的(如圖6所示)。
3.2多尺度可變形卷積的空間注意力
針對(duì)由于出現(xiàn)拍攝角度、拍攝距離等問(wèn)題,采用可變形卷積(deformable convolutional Networks,DCN)?[24?25]增強(qiáng)幾何變換能力,構(gòu)造了空間注意力模塊如圖7所示。同時(shí)選擇了3種卷積核大小1x1,3x3,5x5以并行挖掘不同尺度的特征。為了得到權(quán)重信息,還需進(jìn)一步對(duì)其進(jìn)行3x3卷積,再經(jīng)過(guò)sigmod激活函數(shù),將得到的權(quán)值大小映射到[0,1]。
卷積網(wǎng)絡(luò)對(duì)大尺寸多形變目標(biāo)的建模存在固有缺陷,因?yàn)榫矸e網(wǎng)絡(luò)只對(duì)輸入特征圖的固定位置進(jìn)行采樣[26]??勺冃尉矸e可以提高模型對(duì)形變目標(biāo)的建模能力,使用平行卷積層學(xué)習(xí)offset偏移,使得卷積核在輸入特征圖上的采樣點(diǎn)發(fā)生偏移,可集中于人們感興趣的區(qū)域或目標(biāo),即對(duì)卷積核中每個(gè)采樣點(diǎn)的位置都增加了偏移量,可實(shí)現(xiàn)在當(dāng)前位置附近隨意采樣而不局限于常規(guī)卷積的規(guī)則采樣點(diǎn)。如圖8所示為常規(guī)卷積和可變形卷積采樣點(diǎn)的對(duì)比,其中,圖8(a)為常規(guī)3×3大小卷積核的采樣方式,圖8(b)為可變形卷積的普通采樣方式,圖8(c)與圖8(d)為可變形卷積采樣的特殊方式。
3.3安全帽檢測(cè)算法
在Head檢測(cè)層根據(jù)傳遞來(lái)的安全帽圖像特征對(duì)邊界框和類別進(jìn)行預(yù)測(cè),通過(guò)非極大值抑制(non maximum suppression,NMS)?[27]消除冗余預(yù)測(cè)框,最終輸出置信度最高的預(yù)測(cè)類別,并返回邊框坐標(biāo)。
4實(shí)驗(yàn)與分析
4.1安全帽圖像數(shù)據(jù)集
目前安全帽佩戴數(shù)據(jù)集主要有SHWD和GDUT-HWD 2種。而SHWD安全帽佩戴數(shù)據(jù)只有2個(gè)類別,head和helmet,即安全帽佩戴與否,類別較少。通過(guò)識(shí)別安全帽顏色,管理層可以更好地監(jiān)督和管理工地的工人活動(dòng),也可區(qū)分不同的工種或職責(zé)。而在水利建造工地中,受工人著裝與場(chǎng)景特定色彩影響,通過(guò)rgb信息獲得安全帽顏色干擾較大。為使模型更具實(shí)用性,選擇具有5個(gè)類別的GDUT-HWD數(shù)據(jù)集,分別是Red(佩戴紅色安全帽)、Blue(佩戴藍(lán)色安全帽)、Yellow(佩戴黃色安全帽)和White(佩戴白色安全帽)、None(未佩戴安全帽),這不僅可以識(shí)別是否佩戴安全帽,同時(shí)還能檢測(cè)佩戴安全帽的顏色。GDUT-HWD數(shù)據(jù)集數(shù)量有3 174張,包含18 893個(gè)實(shí)例,還具有場(chǎng)景變化、視角變化、照明變化等,使訓(xùn)練的模型適用于真實(shí)場(chǎng)景。安全帽數(shù)據(jù)集部分樣本如圖9所示。
4.2實(shí)驗(yàn)環(huán)境及配置
針對(duì)安全帽圖像進(jìn)行檢測(cè)實(shí)驗(yàn),具體實(shí)驗(yàn)的環(huán)境及配置如下所示:
1)操作系統(tǒng):Ubuntu16.04 操作系統(tǒng);
2)編譯器:Pycharm 2020;
3)處理器:Intel?Xeon(R)?CPU E5-2650 v4 @ 2.20 GHz×24;
4)內(nèi)存:1 T;
5)顯卡為:RTX2080Ti;
6)顯存容量:12 GB
7)編譯語(yǔ)言:Python 3.7.5
4.3評(píng)價(jià)指標(biāo)
4.3.1 平均精度mAP
精度AP代表每個(gè)類別測(cè)試模型的性能,而mAP代表所有類別的測(cè)試模型性能,是所有AP的平均值。mAP公式為
4.3.2 準(zhǔn)確率precision
準(zhǔn)確率precision表示為正確預(yù)測(cè)的正樣本數(shù)量與預(yù)測(cè)為正樣本的樣本數(shù)量之間的比例。precision公式為
式中TP(true positives)為被識(shí)別正樣本,實(shí)際上也是正樣本的數(shù)量;FP(false positives)為被識(shí)別負(fù)樣本,實(shí)際上是負(fù)樣本的數(shù)量。
4.3.3 FLOPs
FLOPs指浮點(diǎn)運(yùn)算數(shù),理解為計(jì)算量,用來(lái)衡量算法/模型的復(fù)雜度。
4.4實(shí)驗(yàn)結(jié)果與分析
4.4.1 算法模型主要實(shí)驗(yàn)參數(shù)表
STA-YOLOv5模型主要參數(shù)設(shè)置如表2所示。
4.4.2 安全帽圖像檢測(cè)
水利建造人員安全帽佩戴檢測(cè)效果如圖10所示。
4.4.3 不同算法模型loss
使用CIoU[28]作為Bounding box的損失函數(shù),對(duì)于每個(gè)網(wǎng)絡(luò)模型在300個(gè)批次訓(xùn)練過(guò)程當(dāng)中,保存其所有的loss值,再對(duì)loss值進(jìn)行可視化。為權(quán)衡安全帽檢測(cè)速度與準(zhǔn)確度,適應(yīng)水利建造工地實(shí)時(shí)性與準(zhǔn)確性需求,選用YOLOv5l與STA-YOLOv5模型進(jìn)行對(duì)比,不同模型的loss曲線對(duì)比如圖10所示。由圖11可知,在訓(xùn)練過(guò)程中兩模型都沒(méi)有出現(xiàn)過(guò)擬合與欠擬合現(xiàn)象,驗(yàn)證了模型改進(jìn)的可行性。
4.4.4 算法模型測(cè)試結(jié)果與分析
在實(shí)驗(yàn)中使用100張安全帽圖像數(shù)據(jù)進(jìn)行測(cè)試實(shí)驗(yàn),YOLOv5l、STA-YOLOv5模型的測(cè)試實(shí)驗(yàn)結(jié)果如表3所示。
由實(shí)驗(yàn)結(jié)果可知,STA-YOLOv5跟YOLOv5l相比,雖然模型復(fù)雜度稍顯大,但平均精確率與精確率分別提升了2.3個(gè)百分點(diǎn)和2個(gè)百分點(diǎn),且識(shí)別不同種類安全帽的平均精確率都有一定程度提升,驗(yàn)證了STA-YOLOv5模型能顯著提升檢測(cè)精確度,滿足實(shí)際復(fù)雜大型工地場(chǎng)景下安全帽佩戴的檢測(cè)需求。
5結(jié)語(yǔ)
為解決實(shí)際大型工地環(huán)境下安全帽是否佩戴問(wèn)題,提出引入Swin Transformer和注意力機(jī)制的YOLOv5算法對(duì)安全帽進(jìn)行檢測(cè)。首先,使用更容易捕獲圖像全局信息和局部信息之間關(guān)系的Swin Transformer作為網(wǎng)絡(luò)的特征提取器,使網(wǎng)絡(luò)對(duì)安全帽特征的提取能力得到顯著增強(qiáng);其次,引入融合通道和空間注意力機(jī)制,使?YOLOv5算法可在保持速度優(yōu)勢(shì)的同時(shí)提高定位精度和減少漏檢安全帽的情況。通過(guò)將2種結(jié)構(gòu)結(jié)合起來(lái)的STA-YOLOv5算法,成功實(shí)現(xiàn)對(duì)工人是否佩戴安全帽的實(shí)時(shí)檢測(cè)任務(wù)。實(shí)驗(yàn)結(jié)果表明,該方法具有高效、準(zhǔn)確、穩(wěn)定等優(yōu)點(diǎn),可以應(yīng)用于各類大型水利建筑行業(yè)。
參考文獻(xiàn)
[1]??張博,宋元斌,熊若鑫,等.融合人體關(guān)節(jié)點(diǎn)的安全帽佩戴檢測(cè)[J]. 中國(guó)安全科學(xué)學(xué)報(bào), 2020, 30(2): 177-182.
Zhang B,Song Y B,Xiong R X,et al.Helmet-wearing detection considering human joint[J].China Safety Science Journal,2020,30(2):177-182.(in Chinese)
[2]??朱曉春,王欣,馬國(guó)力, 等.改進(jìn)YOLO v3算法的安全帽佩戴檢測(cè)[J]. 南京工程學(xué)院學(xué)報(bào)(自然科學(xué)版), 2020, 18(4): 23-26.
Zhu X C,Wang X,Ma G L, et al.Safety helmet wearing detection for improved YOLO v3 algorithm[J]. Journal of Nanjing Institute of Technology (Natural Science Edition), 2020, 18(4): 23-26.(in Chinese)
[3]??胡曉棟, 王國(guó)明. 基于改進(jìn)YOLOv5的安全帽檢測(cè)算法研究[J]. 計(jì)算機(jī)時(shí)代, 2023(6): 76-81.
Hu X D, Wang G M. Research on helmet detection algorithm based on improved YOLOv5[J].Computer Era, 2023(6): 76-81. (in Chinese)
[4]??王玲敏, 段軍, 辛立偉. 引入注意力機(jī)制的YOLOv5安全帽佩戴檢測(cè)方法[J]. 計(jì)算機(jī)工程與應(yīng)用, 2022, 58(9): 303-312.
Wang LM, Duan J, Xin L W. YOLOv5 helmet wear detection method with introduction of attention mechanism[J]. Computer Engineering and Applications, 2022, 58(9): 303-312. (in Chinese)
[5]??沈希忠, 戚成. 改進(jìn)YOLOX的安全帽佩戴檢測(cè)算法[J]. 浙江工業(yè)大學(xué)學(xué)報(bào), 2023, 51(3): 289-297.
Shen X Z, Qi C. Improved safety helmet wearing detection algorithm of YOLOX[J]. Journal of Zhejiang University of Technology, 2023, 51(3): 289-297.(in Chinese)
[6]??Vishnu C, Singh D, Mohan C K, et al. Detection of motorcyclists without helmet in videos using convolutional neural network[C]//2017 International Joint Conference on Neural Networks (IJCNN). May 14-19, 2017. Anchorage, AK, USA: IEEE, 2017: 3036-3041.
[7]??Hao W A, Jza B. An intelligent vision based approach for helmet identification for work safety[J]. Computers in Industry, 2018, 100: 267-277.
[8]??江新玲, 楊樂(lè), 朱家輝, 等. 面向復(fù)雜場(chǎng)景的基于改進(jìn)YOLOXs的安全帽檢測(cè)算法[J]. 南京師大學(xué)報(bào)(自然科學(xué)版), 2023, 46(2): 107-114.
Jiang X L, Yang L, Zhu J H, et al. Safety helmet detection algorithm based on improved YOLOXsfor complex scenes[J]. Journal of Nanjing Normal University (Natural Science Edition), 2023, 46(2): 107-114. (in Chinese)
[9]??李達(dá), 劉輝. 針對(duì)小目標(biāo)的YOLOv5安全帽檢測(cè)算法[J]. 現(xiàn)代信息科技, 2023, 7(9): 9-13.
Li D, Liu H. YOLOv5 helmet detection algorithm for small targets[J]. Modern Information Technology, 2023, 7(9): 9-13. (in Chinese)
[10]??陳光, 喬梁, 黃曉明, 等. 基于目標(biāo)跟蹤的行為識(shí)別方法研究:以安全帽佩戴識(shí)別檢測(cè)為例[J]. 黑龍江科學(xué), 2023, 14(8):50-52.
Chen G, Qiao L, Huang X M, et al. Research on behavior recognition method based on target tracking: through taking helmet wear identification detection as an example[J]. Heilongjiang Science, 2023, 14(8): 50-52. (in Chinese)
[11]??Redmon J, Divvala S, Girshick R, et al. You only look once: unified, real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). June 27-30, 2016. Las Vegas, NV, USA: IEEE, 2016:779-788.
[12]??Redmon J, Farhadi A.YOLO9000: better, faster, stronger[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition(CVPR). July 21-26, 2017. Honolulu, HI, USA: IEEE, 2017:6517-6525.
[13]??Redmon J, Farhadi A. YOLOv3: an incremental improvement[EB/OL]. 2018: arXiv:1804.02767. https://arxiv.org/abs/1804.02767.
[14]??He K M, Zhang X Y, Ren S Q, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1904-1916.
[15]??Liu S, Qi L, Qin H F, et al. Path aggregation network for instance segmentation[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. June 18-23, 2018. Salt Lake City, UT, USA: IEEE, 2018:8759-8768.
[16]??鄭楚偉, 林輝. 基于Swin Transformer的YOLOv5安全帽佩戴檢測(cè)方法[J]. 計(jì)算機(jī)測(cè)量與控制, 2023, 31(3): 15-21.
Zheng C W, Lin H. YOLOv5 helmet wearing detection method based on swin transformer[J]. Computer Measurement & Control,2023,31(3):15-21.(in Chinese)
[17]??喬炎, 甄彤, 李智慧. 改進(jìn)YOLOv5的安全帽佩戴檢測(cè)算法[J]. 計(jì)算機(jī)工程與應(yīng)用, 2023, 59(11): 203-211.
Qiao Y, Zhen T, Li Z H. Improved helmet wear detection algorithm for YOLOv5[J].Computer Engineering and Applications, 2023, 59(11) :203-211. (in Chinese)
[18]??Elfwing S, Uchibe E, Doya K. Sigmoid-weighted linear units for neural network function approximation in reinforcement learning[J]. Neural Networks, 2018, 107:3-11.
[19]??Cao X, Zhang Y W, Lang S, et al. Swin transformer based YOLOv5 for small-object detection in remote sensing images[J].Sensors,2023,23(7):3634.
[20]??Wen X, Li B, Wang X W, et al. A Swin transformer-functionalized lightweight YOLOv5s for real-time coal-gangue detection[J]. Journal of Real-Time Image Processing, 2023, 20(3): 47.
[21]??嵇文,劉全金, 黃崇文,等.基于Swin-Transformer的YOLOX交通標(biāo)志檢測(cè)[J].無(wú)線電通信技術(shù),2023,49(3):547-555.
Ji W, Liu Q J, Huang C W, et al. YOLOX traffic sign detection based on Swin-Transformer[J]. Radio Communications Technology, 2023, 49(3): 547-555.(in Chinese)
[22]??任鈺. 基于Faster R-CNN的小目標(biāo)檢測(cè)研究與應(yīng)用[D]. 安慶: 安慶師范大學(xué), 2022.
Ren Y. Research and application of small target detection based on faster R-CNN[D]. Anqing: Anqing Normal University, 2022. (in Chinese)
[23]??張雪明, 茅健. 嵌入SENet的卷積神經(jīng)網(wǎng)絡(luò)的零件缺陷檢測(cè)方法[J]. 農(nóng)業(yè)裝備與車輛工程, 2023, 61(1): 94-98.
Zhang X M, Mao J. A method of parts defect detection based on convolutional neural network embedded in SENet[J]. Agricultural Equipment & Vehicle Engineering, 2023, 61(1): 94-98. (in Chinese)
[24]??Dai J F, Qi H Z, Xiong Y W, et al. Deformable convolutional networks[C]//2017 IEEE International Conference on Computer Vision (ICCV).October 22-29, 2017. Venice, Italy: IEEE, 2017: 764-773.
[25]??盧俊哲, 張鋮怡, 劉世鵬, 等. 面向復(fù)雜環(huán)境中帶鋼表面缺陷檢測(cè)的輕量級(jí)DCN-YOLO[J]. 計(jì)算機(jī)工程與應(yīng)用, 2023, 59(15): 318-328.
Lu J Z, Zhang C Y, Liu S P, et al. Lightweight DCN-YOLO for strip surface defect detection in complex environments[J]. Computer Engineering and Applications, 2023, 59(15): 318-328. (in Chinese)
[26]??Hu J, Shen L, Sun G. Squeeze-and-excitation networks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. June 18-23, 2018. Salt Lake City, UT, USA: IEEE,2018:7132-7141.
[27]??Neubeck A, Van Gool L. Efficient non-maximum suppression[C]//18th International Conference on Pattern Recognition (ICPR06). August 20-24, 2006. Hong Kong, China: IEEE, 2006: 850-855.
[28]??Zheng Z H, Wang P, Liu W, et al. Distance-IoU loss: faster and better learning for bounding box regression[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2020, 34(7): 12993-13000.
(編輯??侯湘)