国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種高精度的卷積神經(jīng)網(wǎng)絡(luò)安全帽檢測(cè)方法

2021-07-14 01:30李天宇陳明舉劉益岑
液晶與顯示 2021年7期
關(guān)鍵詞:安全帽金字塔特征

李天宇,李 棟,陳明舉*,吳 浩,劉益岑

(1.四川輕化工大學(xué) 人工智能四川省重點(diǎn)實(shí)驗(yàn)室,四川 宜賓 644000;2.國(guó)網(wǎng)四川省電力公司電力研究院,四川 成都 610000)

1 引 言

在施工環(huán)境中,施工人員佩戴安全帽可以有效避免或減小安全事故的傷害。通過人工巡檢監(jiān)控視頻實(shí)現(xiàn)安全帽佩戴檢測(cè)費(fèi)時(shí)費(fèi)力,且容易造成誤檢和漏檢。利用機(jī)器視覺技術(shù)對(duì)施工現(xiàn)場(chǎng)工作人員是否佩戴安全帽進(jìn)行檢測(cè),可有效地代替人工巡檢,提高識(shí)別的精度,避免安全事故的發(fā)生。

傳統(tǒng)的安全帽檢測(cè)主要通過對(duì)監(jiān)測(cè)視頻進(jìn)行目標(biāo)檢測(cè),提取目標(biāo)的幾何、顏色等特征進(jìn)行對(duì)比識(shí)別。劉曉慧等人[1]利用膚色檢測(cè)實(shí)現(xiàn)人頭區(qū)域的定位,再采用SVM分類器對(duì)安全帽的Hu矩特征進(jìn)行識(shí)別;周艷青等人[2]將人頭區(qū)域的統(tǒng)計(jì)特征、局部二進(jìn)制模式特征和主成分特征訓(xùn)練分類器,建立了多特征的安全帽檢測(cè)算法;賈峻蘇等人[3]結(jié)合局部二值模式直方圖、梯度直方圖和顏色特征,利用SVM對(duì)安全帽進(jìn)行檢測(cè)?;谀繕?biāo)圖像特征提取的傳統(tǒng)檢測(cè)方法,泛化能力較差[4],而實(shí)際施工環(huán)境復(fù)雜多樣,通常存在雨霧、遮擋等的影響。因此,基于目標(biāo)圖像特征提取的傳統(tǒng)檢測(cè)方法檢測(cè)能力有限。

近年來,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)技術(shù)能夠利用卷積網(wǎng)絡(luò)自動(dòng)學(xué)習(xí)大樣本數(shù)據(jù)有用的特征,建立的檢測(cè)網(wǎng)絡(luò)模型泛化能力較強(qiáng),有效地實(shí)現(xiàn)了特殊環(huán)境下的安全帽識(shí)別?;谏疃葘W(xué)習(xí)的目標(biāo)檢測(cè)技術(shù)主要為基于區(qū)域建議和基于回歸策略的目標(biāo)檢測(cè)網(wǎng)絡(luò)。基于區(qū)域建議的目標(biāo)檢測(cè)網(wǎng)絡(luò)需要先生成可能含有待檢測(cè)物體的預(yù)選框,然后再利用主干網(wǎng)絡(luò)提取特征信息進(jìn)行分類和回歸?;诨貧w策略的單階段目標(biāo)檢測(cè)算法則直接在網(wǎng)絡(luò)中提取特征預(yù)測(cè)出物體的類別以及位置[5]。通常二階段的檢測(cè)算法精度高,但檢測(cè)速度遠(yuǎn)低于單階段的檢測(cè)速度。經(jīng)典的二階段網(wǎng)絡(luò)Faster RCNN[6]采用RPN預(yù)選框生成網(wǎng)絡(luò)和主干特征提取網(wǎng)絡(luò),實(shí)現(xiàn)目標(biāo)的準(zhǔn)確識(shí)別,但檢測(cè)耗時(shí)較大。徐守坤等人[7]在二階段檢測(cè)算法Faster RCNN的基礎(chǔ)上利用多層卷積特征優(yōu)化區(qū)域建議網(wǎng)絡(luò),建立改進(jìn)的faster-RCNN算法,雖然提高了網(wǎng)絡(luò)檢測(cè)的準(zhǔn)確率,但是延長(zhǎng)了檢測(cè)時(shí)間,其檢度時(shí)間仍然遠(yuǎn)大于一階網(wǎng)絡(luò),未能達(dá)到實(shí)時(shí)檢測(cè)的要求。基于回歸策略的目標(biāo)檢測(cè)網(wǎng)絡(luò)主要是YOLO、SSD、RFBNet等[8-12]。為提高單階段網(wǎng)絡(luò)的檢測(cè)精度,董永昌等人[13]在SSD檢測(cè)算法的基礎(chǔ)上,引入了DenseNet作為主干網(wǎng)絡(luò)提取特征,充分利用了各層的特征信息,提高了網(wǎng)絡(luò)的檢測(cè)精度。陳柳等人[14]在RFBNet檢測(cè)算法的基礎(chǔ)上,引入SE-Ghost模塊來輕量化檢測(cè)模型,并利用FPN提高網(wǎng)絡(luò)對(duì)小目標(biāo)檢測(cè)的魯棒性。唐悅等人[15]針對(duì)單階段算法YOLOv3的缺點(diǎn),引入GIoU代替IoU來優(yōu)化錨框選取,但是GIoU具有在錨框包含時(shí)會(huì)退化為IoU的缺點(diǎn)。同時(shí)檢測(cè)網(wǎng)絡(luò)采用了密集連接結(jié)構(gòu)來加強(qiáng)特征的傳遞,所得到算法的檢測(cè)效果優(yōu)于傳統(tǒng)YOLOv3。以上改進(jìn)的單階段網(wǎng)絡(luò)雖然都提高了檢測(cè)精度,但是檢測(cè)速度有所下降。

本文針對(duì)施工現(xiàn)場(chǎng)的復(fù)雜環(huán)境與實(shí)時(shí)性要求,以YOLOv3網(wǎng)絡(luò)為基礎(chǔ)建立一種基于回歸策略的高精度安全帽檢測(cè)網(wǎng)絡(luò)。該網(wǎng)絡(luò)在YOLOv3的檢測(cè)網(wǎng)絡(luò)中,構(gòu)建特征金字塔網(wǎng)絡(luò)CPANet模塊提高弱小安全帽目標(biāo)的檢測(cè)精度,同時(shí)采用了CIoU來代替IoU進(jìn)行回歸預(yù)測(cè),在優(yōu)化錨框回歸的同時(shí)能夠提高模型的收斂能力。通過對(duì)比實(shí)驗(yàn)證明,在有遮擋的復(fù)雜施工環(huán)境下,該網(wǎng)絡(luò)能實(shí)現(xiàn)弱小安全帽目標(biāo)的準(zhǔn)確檢測(cè),且檢測(cè)速度較快,滿足實(shí)時(shí)檢測(cè)的要求。

2 YOLOv3目標(biāo)檢測(cè)網(wǎng)絡(luò)

YOLOv3是基于回歸策略的目標(biāo)檢測(cè)算法,網(wǎng)絡(luò)包括Darknet53特征提取網(wǎng)絡(luò)和檢測(cè)網(wǎng)絡(luò)兩部分,其中Darknet53主要用來提取圖像特征信息,檢測(cè)網(wǎng)絡(luò)用來進(jìn)行多尺度的目標(biāo)預(yù)測(cè)。DarkNet53是全卷積網(wǎng)絡(luò),共有53個(gè)卷積層,采用1×1和3×3的卷積組成帶有跳躍連接的殘差塊來構(gòu)建殘差網(wǎng)絡(luò),減少了因網(wǎng)絡(luò)太深而帶來的梯度消失現(xiàn)象,能夠提取更加深層的語義信息。同時(shí),使用步長(zhǎng)為2的卷積來代替最大池化進(jìn)行下采樣,降低了池化帶來的梯度負(fù)面效果。

為了提高網(wǎng)絡(luò)對(duì)目標(biāo)的檢測(cè)能力,YOLOv3檢測(cè)層中使用了類似特征金字塔網(wǎng)絡(luò)的上采樣和特征信息融合的做法。當(dāng)輸入圖像歸一化到416×416送入網(wǎng)絡(luò)進(jìn)行檢測(cè)時(shí),Darknet53會(huì)輸出3個(gè)檢測(cè)尺度,分別為13×13,26×26,52×52。根據(jù)特征金字塔網(wǎng)絡(luò)結(jié)構(gòu),13×13與26×26大小的特征圖要依次經(jīng)2倍上采樣操作與26×26和52×52大小的特征圖進(jìn)行信息融合,將深層的語義信息通過快捷連接傳入到淺層,得到3個(gè)帶有語義和位置信息融合的特征圖。YOLOv3的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

圖1 YOLOv3算法結(jié)構(gòu)示意圖Fig.1 Diagram of YOLOv3 algorithm structure

YOLOv3網(wǎng)絡(luò)能夠快速實(shí)現(xiàn)目標(biāo)的檢測(cè),并利用FPN引入多尺度的目標(biāo)預(yù)測(cè)來提高其檢測(cè)能力。但其FPN網(wǎng)絡(luò)只采用3個(gè)尺度,只進(jìn)行了一次自上而下的特征融合,各層信息利用不足,對(duì)于一些小目標(biāo)和有遮擋目標(biāo),其檢測(cè)能力有限。

YOLOv3在實(shí)現(xiàn)邊界框預(yù)測(cè)時(shí),通過 k-means算法對(duì)數(shù)據(jù)集中的目標(biāo)框進(jìn)行維度聚類,得到9組不同大小錨框,將錨框平均分配到3個(gè)檢測(cè)尺度上,每個(gè)尺度的每個(gè)錨點(diǎn)分配3組錨框。但是這樣操作會(huì)帶來大量的錨框,于是YOLOv3采用了最大交并比(IoU)來對(duì)錨框進(jìn)行回歸。IoU計(jì)算的是預(yù)測(cè)邊界框和真實(shí)邊界框的交集和并集的比值,一般來說預(yù)測(cè)邊界框和真實(shí)邊界框重疊度越高,則其IoU值越大,反之越小。并且IOU對(duì)尺度變化具有不變性,不受兩個(gè)物體尺度大小的影響。其計(jì)算公式如式(1)所示:

(1)

其中,A屬于真實(shí)框,B屬于預(yù)測(cè)框。

但是IoU無法精確地反應(yīng)真實(shí)框和預(yù)測(cè)框重合位置的關(guān)系,存在兩個(gè)較大的缺點(diǎn),第一,無法衡量?jī)蓚€(gè)框之間的距離,如圖2所示,圖2(a)明顯要比圖2(b)中的距離近,但僅從IoU數(shù)值上無法判斷兩框的遠(yuǎn)近;第二,無法反映真實(shí)框與預(yù)測(cè)框的重疊方式,如圖2(c)與圖2(d)的重疊方式完全不一樣,從IoU的數(shù)值上無法判斷其重疊方式。當(dāng)上述情況出現(xiàn)時(shí),會(huì)導(dǎo)致網(wǎng)絡(luò)沒有梯度回傳,造成模型難以收斂等問題的出現(xiàn)。

圖2 真實(shí)框與預(yù)測(cè)框位置表示圖Fig.2 Representation of the position of the prediction frame and the real frame

3 一種高精度的卷積神經(jīng)網(wǎng)絡(luò)安全帽檢測(cè)方法

為了實(shí)現(xiàn)施工現(xiàn)場(chǎng)的復(fù)雜環(huán)境中弱小目標(biāo)與遮擋目標(biāo)的有效檢測(cè),并提高網(wǎng)絡(luò)的收斂能力,本文在YOLOv3網(wǎng)絡(luò)的基礎(chǔ)上引入CPANet與CIoU,建立一種高精度的安全帽檢測(cè)網(wǎng)絡(luò)(YOLO_CPANet_CIoU)來提高檢測(cè)精度與模型收斂能力。

3.1 CPANet的特征金字塔網(wǎng)絡(luò)

在檢測(cè)網(wǎng)絡(luò)中,YOLOv3采用一次自上而下單向特征融合的特征金字塔網(wǎng)絡(luò)(圖3),利用C3~C5的輸入層經(jīng)上采樣得到P3~P5三個(gè)不同尺度的輸出特征層。從C5到P5的過程經(jīng)過了5次卷積,再經(jīng)過一次3×3的卷積和一次1×1的卷積調(diào)整通道數(shù)后輸出;C3-P3、C4-P4的過程,首先要與上一層特征圖的兩倍上采樣結(jié)果進(jìn)行特征融合,然后再經(jīng)過和C5到P5同樣的運(yùn)算過程并輸出對(duì)應(yīng)的特征圖;最后特征金字塔網(wǎng)絡(luò)會(huì)輸出3個(gè)不同尺度的特征圖進(jìn)行目標(biāo)預(yù)測(cè)。一般來說,低層的特征圖包含更多的位置信息,高層的特征圖則擁有更好的語義信息,F(xiàn)PN網(wǎng)絡(luò)就是將這個(gè)兩者特征結(jié)合,增強(qiáng)網(wǎng)絡(luò)的檢測(cè)準(zhǔn)確率。但是YOLOv3中自上而下的特征金字塔網(wǎng)絡(luò),只將深層的語義信息通過便捷通道送入淺層,提高淺層特征的分類準(zhǔn)確率,但并沒有利用便捷通道將淺層的位置信息傳入深層,深層特征的定位準(zhǔn)確性有限。

圖3 YOLOv3算法特征金字塔網(wǎng)絡(luò)Fig.3 YOLOv3 algorithm feature pyramid network

于是,為了實(shí)現(xiàn)對(duì)佩戴安全帽的工人準(zhǔn)確檢測(cè),減少網(wǎng)絡(luò)特征損失,并有效利用高低層的特征信息來提高網(wǎng)絡(luò)的定位準(zhǔn)確率,本文引入了雙向特征融合的特征金字塔網(wǎng)絡(luò)PANet[16],在原始單向特征融合的FPN后加入了一條位置信息特征通道,使得淺層的特征能夠通過便捷通道在損失較小的情況下將位置信息傳送到深層進(jìn)行特征融合,進(jìn)一步提高了對(duì)弱小目標(biāo)的定位準(zhǔn)確性。PANet結(jié)構(gòu)如圖4所示。

圖4 PANet雙向特征金字塔結(jié)構(gòu)Fig.4 PANet bidirectional feature pyramid structure

相應(yīng)的研究表明[17],與多次學(xué)習(xí)冗余的特征相比,特征重用是一種更好的特征提取方式。于是本文在特征金字塔上的橫向傳播通道添加3條跳躍連接,直接將主干網(wǎng)絡(luò)C3、C4、C5層的特征傳入到最后的輸出部分進(jìn)行融合,使得最終輸出能夠得到前幾層特征圖上的原始信息。這樣做也能夠在一定程度上加快網(wǎng)絡(luò)的收斂速度,提高網(wǎng)絡(luò)結(jié)構(gòu)的表征能力,增強(qiáng)對(duì)安全帽這類小目標(biāo)物體的檢測(cè)效果。

為了進(jìn)一步減少遮擋目標(biāo)的誤檢,提高安全帽檢測(cè)精度,在特征金字塔網(wǎng)絡(luò)的輸出部分引入CBAM[18]注意力模塊建立CPANet特征金字塔網(wǎng)絡(luò),如圖5所示。利用CBAM分別從通道和空間的角度來增強(qiáng)特征信息,在一定程度上擴(kuò)大特征圖對(duì)全局信息的感知范圍,增強(qiáng)特征的表達(dá)能力。CBAM模塊首先通過通道注意力模塊,對(duì)每個(gè)通道的權(quán)重進(jìn)行重新標(biāo)定,使得表達(dá)小目標(biāo)和遮擋目標(biāo)的區(qū)域特征通道對(duì)于最終卷積特征有更大的貢獻(xiàn),從而在背景中突出小目標(biāo)和遮擋目標(biāo),并且抑制一些對(duì)分類作用不大的通道,減少網(wǎng)絡(luò)計(jì)算量;再利用空間注意力機(jī)制來突出目標(biāo)區(qū)域,通過統(tǒng)計(jì)特征圖的空間信息得到空間注意圖用于對(duì)輸入特征進(jìn)行重新激活,從而引導(dǎo)網(wǎng)絡(luò)關(guān)注目標(biāo)區(qū)域并抑制背景干擾。

圖5 CPANet特征金字塔結(jié)構(gòu)Fig.5 CPANet feature pyramid structure

3.2 CIoU邊界框損失函數(shù)

YOLOv3中使用了IoU對(duì)錨框進(jìn)行回歸,但是根據(jù)前文分析,IoU無法衡量?jī)蓚€(gè)框之間的距離和重疊方式,會(huì)導(dǎo)致模型收斂能力較弱。所以,一個(gè)好的回歸框應(yīng)該考慮重疊面積、中心點(diǎn)距離、長(zhǎng)寬比3個(gè)集合因素,文獻(xiàn)[19]針對(duì)這些問題首先提出了DIoU,同時(shí)考慮了真實(shí)框與預(yù)測(cè)框之間的距離和重疊面積,DIoU Loss的計(jì)算公式如下所示。

(2)

其中:b和bgt分別為預(yù)測(cè)框和真實(shí)框的中心點(diǎn),ρ(·)為兩中心點(diǎn)之間的歐氏距離計(jì)算公式,c為在同時(shí)包含預(yù)測(cè)框和真實(shí)框的最小閉包區(qū)域的對(duì)角線距離。

其距離示意圖如圖6所示,d為預(yù)測(cè)框與真實(shí)框中心點(diǎn)距離,c為兩框?qū)屈c(diǎn)距離??芍狣IoU能夠同時(shí)考慮中心點(diǎn)距離與重合兩框的對(duì)角點(diǎn)距離,改進(jìn)了IoU存在的缺點(diǎn),能夠在兩框未重合情況下為模型提供優(yōu)化方向。

圖6 距離示意圖Fig.6 Distance diagram

同時(shí),CIoU在DIoU的基礎(chǔ)上進(jìn)一步考慮長(zhǎng)寬比因素,在DIoU Loss的計(jì)算公式中加入懲罰項(xiàng),CIoU Loss計(jì)算公式如式(3)所示。

(3)

(4)

其中,α是正權(quán)衡參數(shù),v是衡量長(zhǎng)寬比一致性的參數(shù)。所以,CIoU同時(shí)考慮了重疊面積、中心點(diǎn)距離、長(zhǎng)寬比三要素,能夠直接最小化兩個(gè)目標(biāo)框的距離,并且在真實(shí)框與預(yù)測(cè)框不重合時(shí),為預(yù)測(cè)框提供移動(dòng)的方向。而且CIoU能替換NMS中的IoU算法,加快模型的收斂速度。

因此,在保持網(wǎng)絡(luò)的檢測(cè)性能不下降的前提下,本文利用CIoU來代替IoU 進(jìn)行錨框的回歸,實(shí)現(xiàn)真實(shí)框和預(yù)測(cè)框無重合時(shí)的梯度回傳,提高模型收斂能力。同時(shí),使用CIoU能夠降低模型的訓(xùn)練難度,提高對(duì)于安全帽檢測(cè)的準(zhǔn)確率。

4 實(shí)驗(yàn)結(jié)果與分析

4.1 實(shí)驗(yàn)環(huán)境與訓(xùn)練過程

本次實(shí)驗(yàn)在服務(wù)器上搭建環(huán)境并進(jìn)行訓(xùn)練,服務(wù)器硬件配置為CPU(Inter Xeon E5-2695)、GPU(Nvidia TITAN Xp)、主板(超微X10DRG-Q);操作系統(tǒng)為Windows10專業(yè)版;軟件配置為Anaconda、Pycharm;編程語言為Python,深度學(xué)習(xí)框架為Keras。

實(shí)驗(yàn)數(shù)據(jù)為網(wǎng)上收集的開源安全帽檢測(cè)數(shù)據(jù)集[20],共有5 000張施工現(xiàn)場(chǎng)照片。所有的圖像用“l(fā)abelimg”標(biāo)注出目標(biāo)區(qū)域及類別,共分為兩個(gè)類別,佩戴安全帽的標(biāo)記為“helmet”,未佩戴安全帽的標(biāo)記為“head”。并將數(shù)據(jù)集按 8∶1∶1 的比例分成訓(xùn)練集、驗(yàn)證集、測(cè)試集,分別用于模型的訓(xùn)練、驗(yàn)證以及測(cè)試過程。

本文采用安全帽數(shù)據(jù)集對(duì)檢測(cè)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,為了提高本文算法的魯棒性并防止模型過擬合,在訓(xùn)練集數(shù)據(jù)輸入模型訓(xùn)練前使用圖像縮放、長(zhǎng)寬扭曲、圖像翻轉(zhuǎn)、色域扭曲以及為圖像多余部分增加灰條等操作對(duì)訓(xùn)練集進(jìn)行預(yù)處理,同時(shí)采用了標(biāo)簽平滑策略來防止模型過擬合。

訓(xùn)練時(shí),輸入圖片尺寸設(shè)置為416×416,采用預(yù)訓(xùn)練模型,優(yōu)化器為Adam。網(wǎng)絡(luò)訓(xùn)練分兩次進(jìn)行,第一階段訓(xùn)練凍結(jié)Darknet53主干部分,初始學(xué)習(xí)率(Learning rate)設(shè)置為0.001,batch size(一次訓(xùn)練所選取的樣本數(shù))設(shè)置為32,訓(xùn)練50輪,使用學(xué)習(xí)率下降策略,連續(xù)2輪驗(yàn)證集的損失值未改善,學(xué)習(xí)率將乘以0.5;第二階段訓(xùn)練釋放凍結(jié)部分微調(diào)模型,初始學(xué)習(xí)率設(shè)置為0.000 1,batch size設(shè)置為6,訓(xùn)練60輪,使用學(xué)習(xí)率下降和提前終止策略,連續(xù)2輪驗(yàn)證集的損失值未改善,學(xué)習(xí)率將乘以0.5,連續(xù)10輪驗(yàn)證集損失未改變將提前中止訓(xùn)練。損失下降曲線如圖7所示。

圖7 損失下降曲線圖。(a)前50輪;(b)后60輪。Fig.7 Loss decline graph.(a)The first 50 rounds;(b)The last 60 rounds.

圖7(a)為前50輪凍結(jié)主干網(wǎng)絡(luò)Darknet53的損失下降曲線,圖7(b)為后60輪模型微調(diào)訓(xùn)練損失下降曲線,可以看出本文算法的收斂能力較改進(jìn)前的YOLOv3強(qiáng),最終本文算法損失下降至13左右便不再繼續(xù)下降。

4.2 實(shí)驗(yàn)結(jié)果與分析

為了驗(yàn)證本文算法的有效性,選取了FasterRCNN、SSD、RFBNet、YOLOv3網(wǎng)絡(luò)在相同的實(shí)驗(yàn)環(huán)境下利用相同的訓(xùn)練方式和數(shù)據(jù)集進(jìn)行訓(xùn)練,得到相應(yīng)的安全帽檢測(cè)模型。

為了說明本文YOLO_CPANet_CIoU網(wǎng)絡(luò)的性能,選取了4張不同施工環(huán)境、遮擋以及人群密集程度的圖片,用上述訓(xùn)練好的模型進(jìn)行測(cè)試,并對(duì)測(cè)試結(jié)果進(jìn)行對(duì)比分析。圖8為4張不同環(huán)境下的測(cè)試圖片,圖9(a)、(b)、(c)、(d)從左至右分別為Faster RCNN、SSD、RFBNet、YOLOv3以及YOLO_CPANet_CIoU網(wǎng)絡(luò)下的測(cè)試結(jié)果。從圖9中可以看出,F(xiàn)aster RCNN檢測(cè)效果較好,可以將大部分的遠(yuǎn)處小目標(biāo)安全帽以及有遮擋的安全帽目標(biāo)檢測(cè)出來,但是存在一些誤檢現(xiàn)象,如測(cè)試圖1、測(cè)試圖2和測(cè)試圖4中,F(xiàn)aster RCNN都將一些相似的目標(biāo)判定為安全帽,這是由于檢測(cè)網(wǎng)絡(luò)學(xué)習(xí)能力不足造成的誤檢測(cè)。其次,SSD算法在4幅不同場(chǎng)景的測(cè)試圖片中的檢測(cè)性能最差,如測(cè)試圖1未檢測(cè)出目標(biāo),測(cè)試圖2和測(cè)試圖4則未檢測(cè)出遠(yuǎn)處小目標(biāo),測(cè)試圖3未檢測(cè)出一些遮擋目標(biāo)。這是由于主干網(wǎng)絡(luò)的特征提取能力不強(qiáng),且對(duì)于小目標(biāo)和遮擋目標(biāo)學(xué)習(xí)能力不足造成的。RFBNet的檢測(cè)效果要優(yōu)于SSD,雖然測(cè)試圖1、測(cè)試圖2、測(cè)試圖4都對(duì)遠(yuǎn)處弱小安全帽目標(biāo)存在少量漏檢,但是能夠針對(duì)大多數(shù)的顯著目標(biāo)和有遮擋的安全帽進(jìn)行檢測(cè),造成漏檢的原因是其未利用FPN網(wǎng)絡(luò)對(duì)高底層特征進(jìn)行融合,導(dǎo)致對(duì)小目標(biāo)的檢測(cè)不夠魯棒。YOLOv3是檢測(cè)性能僅次于本文算法,由于其擁有較深的特征提取網(wǎng)絡(luò)和FPN網(wǎng)絡(luò),對(duì)弱小安全帽目標(biāo)檢測(cè)的性能較好,能對(duì)大部分的遠(yuǎn)距離以及近距離的安全帽進(jìn)行檢測(cè)。但是針對(duì)測(cè)試圖1和測(cè)試圖3中存在一定遮擋的安全帽,YOLOv3并不能準(zhǔn)確地檢測(cè)出來,存在漏檢現(xiàn)象。

圖8 原始測(cè)試圖片F(xiàn)ig.8 Original test pictures

(a)測(cè)試圖1檢測(cè)結(jié)果(a)Test picture 1 recognition results

本文的YOLO_CPANet_CIoU是4種網(wǎng)絡(luò)中檢測(cè)效果最好的,能夠針對(duì)測(cè)試圖1到測(cè)試圖4中所有的遠(yuǎn)處弱小安全帽目標(biāo)和有遮擋安全帽目標(biāo)進(jìn)行準(zhǔn)確檢測(cè),這說明了本文所提出的安全帽檢測(cè)方法能夠很好地融合高低層的特征信息,高效引導(dǎo)網(wǎng)絡(luò)注意目標(biāo)區(qū)域,從而提高了算法對(duì)于弱小以及有遮擋安全帽目標(biāo)的檢測(cè)準(zhǔn)確率。

為了進(jìn)一步說明YOLO_CPANet_CIoU的性能,本文從模型的精確率、檢測(cè)速度和參數(shù)量等評(píng)價(jià)指標(biāo)來驗(yàn)證改進(jìn)網(wǎng)絡(luò)的優(yōu)越性,利用相同的測(cè)試樣本對(duì)4種網(wǎng)絡(luò)進(jìn)行測(cè)試。圖10給出檢測(cè)網(wǎng)絡(luò)的模型精度對(duì)比,表 1給出檢測(cè)網(wǎng)絡(luò)的模型參數(shù)對(duì)比。圖10給出了4種檢測(cè)網(wǎng)絡(luò)的各類別的安全帽(Helmet)和未佩戴安全帽(Head)平均精確率(Average Precision,AP)以及平均精確率均值(mean Average Precision,mAP)。由圖中可知,本文檢測(cè)網(wǎng)絡(luò)的mAP值相較于YOLOv3、RFBNet、SSD、Faster RCNN分別增長(zhǎng)了0.82,4.43,23.12,23.96,其中helmet和Head的AP值相較于改進(jìn)前的YOLOV3分別提高了0.18和1.46。這說明YOLO_CPANet_CIoU中的CIoU以及提出的CPANet特征金字塔模塊能夠提高網(wǎng)絡(luò)對(duì)安全帽的檢測(cè)精度。

圖10 模型精度對(duì)比圖Fig.10 Model accuracy comparison chart

由表1可知,雖然YOLO_CPANet_CIoU的參數(shù)量最大有298 M,但是其檢測(cè)速度僅次于YOLOv3,能夠達(dá)到21 frame/s的速度,完全滿足實(shí)時(shí)性的要求。針對(duì)視頻圖像,能夠?qū)崟r(shí)在視頻圖像中定位與追蹤佩戴安全帽和未佩戴安全帽的工作人員,到達(dá)施工現(xiàn)場(chǎng)安全帽檢測(cè)的要求。

表1 模型參數(shù)對(duì)比表Tab.1 Model parameter comparison

5 結(jié) 論

為實(shí)現(xiàn)施工現(xiàn)場(chǎng)安全帽快速高精度檢測(cè),本文在YOLOv3基礎(chǔ)上引入CPANet和CIoU構(gòu)建安全帽檢測(cè)算法YOLO_CPANet_CIoU。首先該網(wǎng)絡(luò)為了減少特征損失,有效利用高低層的特征信息,引入了雙向特征融合的特征金字塔網(wǎng)絡(luò)PANet,并在檢測(cè)網(wǎng)絡(luò)中添加了跳躍連接和CBAM注意力機(jī)制,形成了新的特征金字塔網(wǎng)絡(luò)CPANet,使得淺層的位置信息與深層的語義信息能夠損失較少地在網(wǎng)絡(luò)中傳遞,增強(qiáng)網(wǎng)絡(luò)對(duì)小目標(biāo)以及有遮擋目標(biāo)的檢測(cè)能力。同時(shí)在保持網(wǎng)絡(luò)的檢測(cè)精度不下降的前提下,將CIoU來代替IoU,優(yōu)化錨框的回歸并提高模型的收斂能力。經(jīng)過實(shí)驗(yàn)驗(yàn)證,本文檢測(cè)算法mAP值為91.96%,檢測(cè)速度達(dá)到21 frame/s,能夠?qū)崿F(xiàn)復(fù)雜施工環(huán)境下對(duì)安全帽的精確檢測(cè),滿足實(shí)時(shí)性的要求,比其他檢測(cè)算法擁有更高的檢測(cè)精度和檢測(cè)效果。因此,本文提出的安全帽檢測(cè)算法YOLO_CPANet_CIoU具有較大的學(xué)術(shù)參考價(jià)值和工程應(yīng)用價(jià)值。

猜你喜歡
安全帽金字塔特征
“金字塔”
小小安全帽,生命保護(hù)傘
Great Vacation Places
如何表達(dá)“特征”
爆笑四格
海上有座“金字塔”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
神秘金字塔
線性代數(shù)的應(yīng)用特征
崇文区| 南澳县| 家居| 阳江市| 汨罗市| 甘南县| 黄陵县| 长汀县| 延安市| 土默特右旗| 晋中市| 塘沽区| 黄石市| 宿松县| 宁国市| 新兴县| 师宗县| 蒲江县| 玛纳斯县| 博乐市| 青神县| 泰和县| 合水县| 恩施市| 长宁区| 吐鲁番市| 沅陵县| 盐池县| 芦山县| 汽车| 厦门市| 子长县| 连江县| 黎川县| 集安市| 三穗县| 永宁县| 沽源县| 宝兴县| 来宾市| 苍梧县|