国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進YOLOv4的安全帽佩戴檢測算法

2021-05-16 17:25王雨晨徐明昆
現(xiàn)代信息科技 2021年22期
關(guān)鍵詞:剪枝

王雨晨 徐明昆

摘? 要:針對目前智慧安監(jiān)領(lǐng)域?qū)τ诎踩迸宕鞯臋z測存在尺度多樣化、檢測難度大、中小目標漏檢率高的問題,提出了一種基于改進的YOLOv4的安全帽佩戴檢測算法。首先,改進K-means算法重新選擇錨框,然后在網(wǎng)絡(luò)中引入CBAM注意力模塊來增強安全帽佩戴信息的特征表達,最后對模型進行加速剪枝。實驗結(jié)果表明,提出的算法在檢測中mAP@0.5值提升了6.7%,檢測速度提升了35%,模型參數(shù)量減少了48%,改進后的模型更適用于實際場景中對安全帽佩戴行為的識別。

關(guān)鍵詞:安全帽佩戴檢測;YOLOv4網(wǎng)絡(luò);改進K-means;CBAM;剪枝

中圖分類號:TP391.4 ? ? ?文獻標識碼:A文章編號:2096-4706(2021)22-0156-06

Abstract: Aiming at the current problems in the detection of safety helmet wearing in the field of intelligent safety supervision of diversified scales, difficult detection and high missed detection rate of small and medium-sized targets, a safety helmet wearing detection algorithm based on improved YOLOv4 is proposed. Firstly, the improved k-means algorithm reselects the anchor box, then introduces the CBAM attention module into the network to enhance the feature expression of safety helmet wearing information, and finally speeds up the pruning of the model. The experimental results show that the proposed algorithm improves the mAP@0.5 value by 6.7%, improves the detection speed by 35%, the amount of model parameters is reduced by 48%. The improved model is more suitable for the identification of safety helmet wearing behavior in the actual scene.

Keywords: safety helmet wearing detection; YOLOv4 network; improved K-means; CBAM; pruning

0? 引? 言

隨著當前城市化的加速發(fā)展,我國的建筑業(yè)規(guī)模日益擴大[1],但是對于施工人員的安全防護措施仍然落后,安全事故時有發(fā)生。安全帽作為有效保護頭部的安全防護工具,其正確佩戴非常重要,相關(guān)企業(yè)規(guī)定相關(guān)人員進入施工場所必須正確佩戴。近年來,計算機視覺領(lǐng)域的迅速發(fā)展促進了圖像采集設(shè)備和圖像處理技術(shù)的結(jié)合使用,使得安全帽佩戴自動檢測成為可能[2]。目前大多數(shù)工廠已經(jīng)安裝了智能監(jiān)控設(shè)備,通過對于相關(guān)人員的行為分析進而檢測是否正確佩戴安全帽。然而在實際監(jiān)控場景中,由于監(jiān)控設(shè)備安裝的角度和場景復雜性,畫面易出現(xiàn)佩戴安全帽人員所占比例小、尺度變化大等問題,容易產(chǎn)生漏檢。因此結(jié)合實際復雜工業(yè)環(huán)境,設(shè)計一個適用于小目標安全帽佩戴檢測的算法對于安全生產(chǎn)有著重要意義。

隨著深度學習熱潮的出現(xiàn),許多學者使用深度學習算法解決目標檢測任務(wù)并取得了巨大突破[3]?;谏疃葘W習的目標識別方法主要分為兩類,即兩步檢測[4-6](two-stage)算法和單步檢測[7,8](one-stage)算法。兩步檢測法在檢測精度上更有優(yōu)勢,單步檢測法在檢測速度上更具有優(yōu)勢。Fang等人[9]使用改進后的Fast R-CNN對未佩戴安全帽的人員進行識別,但是由于檢測過程中先選擇候選框然后進行分類,檢測速率較慢。Huang等[10]指出在待檢目標尺度相對較小時,基于錨框的檢測器的檢測準度都會急劇下降,而安全帽檢測任務(wù)中多以小目標為主。王兵等[11]使用改進的YOLOv3進行安全帽佩戴檢測,但是由于底層缺乏語義信息容易造成小目標漏檢。施輝[12]利用改進后的YOLOv3網(wǎng)絡(luò),先識別人體再識別安全帽,存在兩部分誤差。由于智能監(jiān)控的目標檢測算法需要處理實時視頻數(shù)據(jù),需要較快的判斷速度,因此本實驗選擇使用單階段算法YOLOv4,通過對網(wǎng)絡(luò)的改進實現(xiàn)對安全帽佩戴進行檢測。

綜上,本文提出一種基于改進YOLOv4的安全帽佩戴檢測算法,進而實現(xiàn)對于實際監(jiān)控場景的小目標、多尺度的檢測,本文主要工作包含:(1)嵌入融合CBAM(Convolution Block Attention Module)注意力機制的特征增強方法;(2)改進K-means聚類算法對錨點框重新選擇;(3)使用通道剪枝和層剪枝融合的剪枝策略對網(wǎng)絡(luò)進行加速。

1? YOLOv4算法模型

YOLOv4目標檢測算法是單步檢測模型,能夠僅通過一個CNN(Convolution Neural Network)網(wǎng)絡(luò)直接預測目標類別概率和位置坐標,而不需要先產(chǎn)生候選區(qū)域的中間過程。YOLOv4網(wǎng)絡(luò)主要由輸入端、骨干網(wǎng)絡(luò)、特征融合網(wǎng)絡(luò)和預測頭部四部分組成。其中骨干網(wǎng)絡(luò)為CSPDarknet53,此網(wǎng)絡(luò)借鑒了殘差網(wǎng)絡(luò)的結(jié)構(gòu),將CSPNet[13]和Darknet[14]相融合來達到快速提取網(wǎng)絡(luò)特征的效果。CSPDarknet53由五個CSP模塊組成,每個模塊包含卷積層、批歸一化層、Mish激活函數(shù)和X個殘差模塊。特征融合網(wǎng)絡(luò)中的SPP(Spatial Pyramid Pooling)結(jié)構(gòu)采用5×5、9×9、13×13三種類型的池化層來增加網(wǎng)絡(luò)的感受野,PAN(Path Aggregation Network)結(jié)構(gòu)在FPN(Feature Pyramid Netework)[15]的結(jié)構(gòu)上增加了一層下采樣,將深層特征和淺層特征融合,改善了淺層語義特征丟失的問題。預測頭部的輸出分為三個不同尺度的特征圖,分別適用于大、中、小三類目標的檢測。

2? 改進的YOLOv4檢測算法

為了提升對于小目標安全帽佩戴對象的檢測,本文提出一種改進的YOLOv4算法檢測模型,檢測時對相關(guān)人員的“頭部+安全帽”區(qū)域進行識別。為了解決小目標特征丟失問題,加入融入CBAM注意力機制進行特征增強;隨后對錨點框的選擇方法K-means進行改進,選擇符合本文小目標數(shù)據(jù)集的錨點框;最后,對改進后的模型進行組合剪枝,在保證檢測準確率的同時加快檢測速度。改進后的網(wǎng)絡(luò)具體結(jié)構(gòu)如圖1所示。

2.1? 基于改進K-means的錨點框選擇

YOLOv4網(wǎng)絡(luò)的預測頭部使用三個尺度的特征圖對圖像進行目標識別,每個特征圖采用錨點框(Anchor Box)作為預測框,通過對其位置和大小稍微調(diào)整就能夠檢測出目標。因此錨點框相當于一組模板,選擇合適尺寸和合適數(shù)量的錨點框有利于提高安全帽佩戴對象的檢測精度。原始YOLOv4網(wǎng)絡(luò)使用K-means對候選框進行聚類分析,得到的錨點框是基于80類不同尺度目標的COCO數(shù)據(jù)集的,然而本文的安全帽數(shù)據(jù)集多為中小目標,而且傳統(tǒng)的K-means算法具有對初始聚類中心具有依賴性的問題[16],因此本文對K-means算法進行改進。

距離公式是對目標進行聚類的衡量標準,然而在目標檢測領(lǐng)域,坐標代表錨點框的長度和寬度,傳統(tǒng)的歐式距離、切比雪夫距離等不能恰當?shù)乇硎緦ο蟮木嚯x,兩個對象的距離應(yīng)該由錨點框和真實框(Ground Truth Box)的IOU來表示,因此自定義的距離公式見公式(1)。

其中d(box,centroid)表示錨點框到聚類中心的距離,IIOU(box,centroid)表示錨點框與真實框的交并比。

另外對于初始點的選擇方法本文也進行了改進,首先任選一個錨點框作為聚類的中心,然后計算每個錨點框和當前聚類中心的距離,用D(x)表示,每個錨點框被選為下一個聚類中心的概率為D(x)2/∑D(x)2,每輪計算結(jié)束后按照輪盤概率法選擇下一個聚類中心,直到選出指定數(shù)量的聚類中心,然后進行聚類計算。

2.2? CBAM注意力機制

注意力機制是通過對神經(jīng)網(wǎng)絡(luò)層分配不同的權(quán)重,來減弱無關(guān)信息的干擾,進而實現(xiàn)對于重要特征信息的提取。由于實際工廠環(huán)境中冗余信息過多,小目標語義信息在下采樣過程中逐漸減弱,容易造成漏檢,因此本文引入注意力機制對小目標特征進行提取。單獨的通道注意力機制[17]對于特征的篩選加權(quán)僅限制于單維度,對于檢測準確度的提高具有一定的局限性,而由Woo等人提出的CBAM(Convolution Block Attention Module)[18]注意力機制融合了通道注意力和空間注意力,更加關(guān)注目標位置特征,能夠較好得保留圖像中的有效信息。

通道注意力模塊(Channel Attention Module, CAM)主要關(guān)注通道特征,模塊輸入為h×w×c的特征圖,其中h、w、c分別表示特征圖的長度、寬度和通道數(shù)。對于輸入的特征圖,首先進行最大池化和平均池化操作,得到兩個1×1×c的特征。然后將兩個特征圖輸入擁有共享權(quán)重的多層感知機(Multi-Layer Perception, MLP)中,多層感知機包含兩層全連接層,第一層輸出的神經(jīng)元個數(shù)為c/ratio,其中ratio表示衰減因子,第二層輸出神經(jīng)元個數(shù)為c,經(jīng)過多層感知機得到的兩個特征圖求和后與Sigmoid函數(shù)做運算,得到通道注意力權(quán)重值。空間注意力模塊(Spartial Attention Module, SAM)主要關(guān)注空間位置信息,通道注意力權(quán)重值和原始特征圖做乘法作為模塊的輸入,然后經(jīng)過最大池化和平均池化操作,對得到的特征進行拼接得到h×w×2的特征。特征圖隨后使用大小為7×7的卷積層進行卷積運算,并與Sigmoid函數(shù)做運算得到空間注意力權(quán)重值。最終通道注意力和空間注意力權(quán)重相乘得到特征增強圖,整體流程圖如圖2所示。

本文根據(jù)YOLOv4的結(jié)構(gòu),設(shè)計實驗對CBAM模塊嵌入的位置進行研究。注意力機制能夠嵌入骨干網(wǎng)絡(luò)、特征融合網(wǎng)絡(luò)和預測頭部三部分的特征融合區(qū)域中,第一種方式是嵌入到骨干網(wǎng)絡(luò)Backbone中,在模型的初始階段,模塊主要提取通用特征,如果在前面部分加入CBAM模塊會徒增計算量,因此選擇在后面語義豐富的特征圖中加入CBAM模塊。綜上,考慮在第四、五塊CSPX結(jié)構(gòu)中的shortcut層和route層后融入CBAM注意力機制。第二種方式是在特征融合網(wǎng)絡(luò)Neck的每一個route層后加入,第三種方式是在每一個預測頭部YOLO Head的CBL模塊前加入,嵌入方式如圖3所示。

2.3? 模型裁剪

施工場景的安全問題越早發(fā)現(xiàn)越能夠減少事故的發(fā)生,因此在通過特征加強保證檢測精度的同時,檢測速度的提升也是重要的。本文選用組合剪枝方式對模型體量進行壓縮,主要采用通道剪枝和層剪枝,通道剪枝策略是通過稀疏化訓練將卷積層中不重要的通道進行裁剪,層剪枝是裁剪shortcut層相關(guān)結(jié)構(gòu)來完成更大程度的參數(shù)量縮減。剪枝流程主要分為三步,首先進行稀疏化訓練,然后進行組合剪枝,最后對剪枝后的網(wǎng)絡(luò)進行微調(diào),整體剪枝流程如圖4所示。

稀疏化訓練是對YOLOv4模型中的BN層進行操作,網(wǎng)絡(luò)中的每個BN層對應(yīng)一個放縮因子γ(Gamma),本文采用放縮因子作為衡量通道重要程度的標準,放縮因子γ越大,代表該通道越重要。首先,需要在原始損失函數(shù)中引入L1正則化項來對γ進行稀疏化訓練,改進后的損失函數(shù)公式如式(2):

其中,第一項Tloss表示YOLOv4中的損失函數(shù),第二項表示L1正則化項,α表示兩者的平衡因子。稀疏化后的部分放縮因子的值趨近于零,這說明通道的貢獻率較小,因此可以加入待剪枝隊列。

第二步需要對稀疏化后的模型進行剪枝,受文獻[19]的啟發(fā),本文的通道剪枝策略對其進行優(yōu)化。首先將稀疏化后的放縮因子按照從大到小的順序進行排序,然后根據(jù)剪枝率設(shè)置全局剪枝閾值u,為了防止過分剪枝,還設(shè)置了一個局部保留閾值v。當放縮因子γ小于全局閾值和局部保留閾值的最小值時,該通道可以被裁剪。如果全層的放縮因子都小于最小值時,需要保留這一層較大的幾個通道。通道剪枝后進行層剪枝,主要對shortcut層前面的CBM卷積模塊進行評估,評估后對各層的γ均值進行排序,然后對貢獻率小的層模塊進行裁剪。裁剪的參數(shù)和大小需要根據(jù)實驗確定。

裁剪后的模型在精度上會有一定程度的損失,因此需要通過微調(diào)來恢復網(wǎng)絡(luò)的檢測性能。本實驗中設(shè)置的warm up學習率預熱策略默認對前十個Epoch進行預熱訓練,有利于YOLOv4網(wǎng)絡(luò)的性能恢復。

3? 實驗結(jié)果與分析

3.1? 實驗環(huán)境和數(shù)據(jù)

本實驗訓練使用Linux16.04系統(tǒng),采用深度學習框架Pytorch,實驗環(huán)境為Intel(R) Core(TM)i5-10210U CPU @ 2.11 GHz處理器,16 GB內(nèi)存,NVIDIA GeForce RTX 3090 24 G GPU。

由于目前沒有公開的開源安全帽佩戴檢測數(shù)據(jù)集,因此本實驗通過網(wǎng)絡(luò)收集圖片以及截取實際監(jiān)控視頻等方式,整理了一個安全帽數(shù)據(jù)集(Helmet Dataset),并通過LabelImg工具對圖片進行標注。本數(shù)據(jù)集共包含5 886張圖片,共包含兩類目標:正確佩戴安全帽和未正確佩戴安全帽,圖片覆蓋不同光照、天氣和尺度的情況,較貼近地擬合實際施工場景。在實驗中,Helmet數(shù)據(jù)集按照8∶2的比例劃分訓練集和測試集,其中訓練集圖片4 708張,測試集圖片1 178張。

實驗設(shè)置圖片的輸入大小為608×608,初始學習率為0.002 6,權(quán)重衰減為0.000 5,動量為0.9,batchsize為16,訓練200個Epoch,共73 600次迭代。

3.2? 評估指標

本實驗的網(wǎng)絡(luò)性能評估主要采用召回率(Recall,R)、準確率(Precision,P)和mAP(Mean Average Precision)三項指標[20]。其計算公式如式(3)~(5):

其中,TP表示被正確識別的正類目標個數(shù),TN表示被正確識別的負類個數(shù),F(xiàn)P表示被錯誤識別的負類目標個數(shù),AP為目標檢測的平均精度。本文使用IOU閾值為0.5時的mAP值進行評估,即mAP@0.5。

對于錨點框的選擇,合適的數(shù)量對于計算速度和準確度至關(guān)重要。YOLOv4算法采用平均重疊度AvgIOU作為聚類類簇個數(shù)的評估標準,公式如式(6):

其中,n表示聚類的總個數(shù),k表示類簇數(shù)量,nk表示以k為中心的樣本個數(shù),IIOU(B,C)表示真實框和預測框的交并比。

3.3? 實驗結(jié)果分析

3.3.1? 錨點框的選擇實驗結(jié)果

對錨點框的選擇,類簇數(shù)量選取1~11,得到的k-AvgIOU曲線的結(jié)果圖如圖5所示。從圖中可以得出結(jié)論,在k值為9之后,曲線趨于平穩(wěn),因此k值選取9,即選擇9個聚類類簇中心。對錨點框進行聚類,得到的聚類結(jié)果如圖6所示。圖中標星的位置為聚類中心即為錨點框的大小,其寬度和長度分別為(8,17),(12,25),(19,35),(30,51),(45,76),(68,115),(99,178),(158,254),(293,398)。

實驗對比了重新選擇的錨點框和原始錨點框?qū)τ诎踩睓z測的性能變化,在數(shù)據(jù)集Helmet上,YOLOv4-a表示基于原始錨點框的檢測效果,YOLOv4-b表示錨點框優(yōu)化后的檢測效果,主要對比準確率Precision,召回率Recall和mAP@0.5三個指標,實驗結(jié)果如表1。通過結(jié)果可以看出,使用優(yōu)化后的K-means算法選擇適合數(shù)據(jù)集的錨點框,網(wǎng)絡(luò)檢測準確率有所提升,其中mAP@0.5提高了2.9%。

3.3.2? 融合CBAM模塊的模型實驗結(jié)果

對于輸入的圖像首先使用Mosaic數(shù)據(jù)增強對數(shù)據(jù)集進行豐富。Mosaic方法是對四張圖像進行旋轉(zhuǎn)、裁剪、拼接等操作后拼接起來形成新的圖像,目的是促進模型對于小目標特征的學習。在數(shù)據(jù)增強后,采用改進后的YOLOv4網(wǎng)絡(luò)對目標進檢測。根據(jù)2.2節(jié)的設(shè)計嵌入方式,實驗測試了CBAM模塊融入網(wǎng)絡(luò)不同位置的表現(xiàn)性能,主要嵌入網(wǎng)絡(luò)的Backbone層、Neck層和YOLO Head層,在Backbone層中,設(shè)計CBAM嵌入到第四個殘差模塊中、第五個殘差模塊中和第四、五個殘差模塊中三種情況,分別用YOLOv4-Backbone-a、YOLOv4-Backbone-b和YOLOv4-Backbone-c表示,實驗結(jié)果如表2所示。

通過表可以看出,在骨干網(wǎng)絡(luò)Backbone中融入CBAM注意力機制能夠提升網(wǎng)絡(luò)的檢測性能,其中在第四個殘差模塊中加入CBAM模塊比另兩種嵌入方式檢測效果好,mAP@0.5值相對于YOLOv4網(wǎng)絡(luò)提高4.9%。將CBAM模塊融入特征融合Neck模塊和預測頭部YOLO Head模塊中后,網(wǎng)絡(luò)的檢測精度有所下降,mAP@0.5值分別下降了1.1%和0.6%。實驗結(jié)果表明,在網(wǎng)絡(luò)的淺層模塊中,部分小目標特征在網(wǎng)絡(luò)學習過程中丟失,而CBAM注意力機制能夠?qū)@些丟失特征進行信息增強,因此提升了網(wǎng)絡(luò)的檢測精度;而在網(wǎng)絡(luò)的深層中,特征提取的語義信息比較豐富,此時再加入注意力模塊會造成網(wǎng)絡(luò)學習偏移。因此,本文最終選取在骨干網(wǎng)絡(luò)的第四個殘差塊的shortcut層和route層后融入CBAM注意力模塊。

3.3.3? 模型剪枝的實驗結(jié)果

經(jīng)過上述正常訓練實驗后,對BN 層的放縮因子進行稀疏訓練,然后設(shè)置裁剪比例和層數(shù),實驗設(shè)置裁剪率為40%、45%和50%,設(shè)置剪枝層數(shù)為12,實驗結(jié)果如表3所示。通過實驗可見,隨著裁剪率的升高,模型的參數(shù)量逐漸減小,檢測速度逐漸提升,然后隨之帶來的是精度的降低。從40%的裁剪率到45%,參數(shù)減少的多一些,精度有所下降,當剪枝率達到50%時,雖然FPS有所提升,但是mAP@0.5值下降的過多。因此本文選取45%的裁剪率,通過裁剪,網(wǎng)絡(luò)減少了48%的參數(shù)量,模型識別速度加快了35%。通過微調(diào),最終的mAP@0.5值為94.6%。

3.3.4? 實驗對比分析

實驗將本文提出的算法和傳統(tǒng)YOLOv3檢測算法,以及文獻[21]進行對比,實驗結(jié)果如表4所示。通過實驗可以看出,本文提出的算法行之有效,其檢測精度比傳統(tǒng)的YOLOv3網(wǎng)絡(luò)高3.2%,比以mobileNet為框架的網(wǎng)絡(luò)高0.8%。網(wǎng)絡(luò)改進前后的檢測效果如圖7所示,可以看出,改進后的網(wǎng)絡(luò)能夠識別出遠方的小目標對象,效果較好。

4? 結(jié)? 論

為了提升實際場景中小目標、多尺度安全帽佩戴目標的檢測精度,本文提出基于改進YOLOv4的小目標安全帽佩戴檢測算法,通過重新選擇錨框,選擇適合實際監(jiān)控場景數(shù)據(jù)集的檢測框。另外通過融入CBAM注意力機制模塊目標信息特征進行增強,獲得更為充分的語義;同時,為了得到更緊湊的網(wǎng)絡(luò),對整體網(wǎng)絡(luò)進行剪枝。通過實驗研究,本文提出的算法有效,相對于改進前的YOLOv4網(wǎng)絡(luò),算法的檢測精度有所提升,同時網(wǎng)絡(luò)參數(shù)體積縮減了,檢測速度也更快了。

對于佩戴安全帽行為的檢測已實現(xiàn),在接下來的工作中會針對檢測的結(jié)果進行目標跟蹤的研究,以實現(xiàn)對人員的安全預警,更好地實現(xiàn)智慧安監(jiān)。

參考文獻:

[1] 郝忠,魏延曉.448例建筑施工工傷事故的標準統(tǒng)計特征分析 [J].中國標準化,2017(2):245-247+249.

[2] CHEN S B,TANG W H,JI T Y,et al. Detection of Safety Helmet Wearing Based on Improved Faster R-CNN [C]//2020 International Joint Conference on Neural Networks (IJCNN).Glasgow:IEEE,2020:1-7.

[3] FANG Q,LI H,LUO X C,et al. Detecting non-hardhat-use by a deep learning method from far-field surveillance videos [J].Automation in Construction,2018,85:1-9.

[4] GIRSHICK R,DONAHUE J,DARRELL T, et al. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation [C]//2014 IEEE Conference on Computer Vision and Pattern Recognition.Columbus:IEEE,2014:580-587.

[5] GIRSHICK R. Fast R-CNN [J/OL].arXiv:1504.08083 [cs.CV].[2021-09-25].https://arxiv.org/abs/1504.08083.

[6] RENS Q,HEK M,GIRSHICK R,et al. Faster R-CNN:Towards Real-Time Object Detection with Region Proposal Networks [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.

[7] REDMON J,DIVVALA S,GIRSHICK R,et al. You Only Look Once:Unified,Real-Time Object Detection [C]//2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR).LasVegas:IEEE,2016:779-788.

[8] LIU W,ANGUELOV D,ERHAN D,et al. SSD:Single Shot MultiBox Detector [C]//Computer Vision–ECCV 2016.Amsterdam:Springer,Cham,2016:21-37.

[9] FANG Q,LI H,LUO X,et al. Detecting non-hardhat-use by a deep learning method from far-field urveillance videos [J].Automation in Construction,2018,85:1-9.

[10] HUANG J,RATHOD V,SUN C,et al. Speed/Accuracy Trade-Offs for Modern Convolutional Object Detectors [C]//2017 IEEE Conference on Computer Vision and Pattern Recognition(CVPR).Honolulu:IEEE,2017:3296-3297.

[11] 王兵,李文璟,唐歡.改進YOLO v3算法及其在安全帽檢測中的應(yīng)用 [J].計算機工程與應(yīng)用,2020,56(9):33-40.

[12] 施輝,陳先橋,楊英.改進YOLOv3的安全帽佩戴檢測方法 [J].計算機工程與應(yīng)用,2019,55(11):213-220.

[13] WANG C Y,LIAO H Y M,WU Y H,et al. CSPNet:A new backbone that can enhance learning capability of CNN [C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops(CVPRW).Seattle:IEEE,2020:1571-1580.

[14] REDMON J,F(xiàn)ARHADI A. Yolov3:YOLOv3:An Incremental Improvement [J/OL].arXiv:1804.02767 [cs.CV].[2021-10-25].https://arxiv.org/abs/1804.02767.

[15] LIN T Y,DOLLáR P,GIRSHICK R,et al. Feature Pyramid Networks for Object Detection [C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Honolulu:IEEE,2017:936-944.

[16] 蔡暢.基于改進K-means的K近鄰算法在電影推薦系統(tǒng)中的應(yīng)用 [J].電子技術(shù)與軟件工程,2020(18):182-183.

[17] HU J,SHEN L,ALBANIE S,et al. Squeeze-and-Excitation Networks [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2020,42(8):2011-2023.

[18] WOO S,PARK J,LEE J Y,et al. CBAM:Convolutional Block Attention Module [C]//Computer Vision–ECCV 2018.Munich:Springer,Cham.2018:3-19.

[19] ZHANG P Y,ZHONG Y X,LI X Q. SlimYOLOv3:Narrower,F(xiàn)aster and Better for Real-Time UAV Applications [C]//2019 IEEE/CVF International Conference on Computer Vision Workshop(ICCVW).Seoul:IEEE,2019:37-45.

[20] 周志華,機器學習 [M],北京:清華大學出版社,2016:23-28.

[21] KAMBOJ A,POWAR N. SAFETY HELMET DETECTION IN INDUSTRIAL ENVIRONMENT USING DEEP LEARNING [EB/OL].[2021-09-25].https://aircconline.com/csit/papers/vol10/csit100518.pdf.

作者簡介:王雨晨(1997—),女,漢族,河南洛陽人,碩士研究生在讀,研究方向:大數(shù)據(jù)技術(shù)及智能信息處理;徐明昆(1963—),男,漢族,北京人,碩士研究生導師,高級工程師,碩士研究生,研究方向:軟件理論與技術(shù)。

猜你喜歡
剪枝
基于頻集的Apriori關(guān)聯(lián)規(guī)則算法的應(yīng)用研究
一種改進的MEP決策樹剪枝算法
單圖中的近似頻繁子圖挖掘算法
基于重構(gòu)的改進自然排序樹算法
花匠(外一首)
機器博弈主要技術(shù)分析
基于多叉樹Apriori的網(wǎng)絡(luò)管理數(shù)據(jù)挖掘
“剪枝”的學問
決策樹剪枝研究
辣椒增產(chǎn)要合理修剪
景洪市| 尚义县| 杭州市| 张家港市| 镇赉县| 鄂托克旗| 肥乡县| 甘洛县| 忻州市| 景德镇市| 邮箱| 纳雍县| 镇沅| 鄄城县| 永登县| 翼城县| 武义县| 闽清县| 临泉县| 浦东新区| 黎城县| 卓资县| 河南省| 淳安县| 明溪县| 广平县| 清水县| 洛扎县| 辉县市| 磴口县| 呈贡县| 界首市| 安宁市| 昆山市| 新龙县| 寿阳县| 安义县| 岳阳县| 石狮市| 灌南县| 西宁市|