国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于DeepSORT與改進(jìn)YOLOv3的車間安全帽檢測(cè)系統(tǒng)研究

2022-04-11 11:35:39白家俊何青松
電腦知識(shí)與技術(shù) 2022年5期
關(guān)鍵詞:目標(biāo)跟蹤安全帽

白家俊 何青松

摘要:生產(chǎn)實(shí)踐表明佩戴安全帽可以有效減少安全事故帶來的人員傷亡,基于此,提出了一種判斷生產(chǎn)人員的安全帽是否正確佩戴的方法,并對(duì)現(xiàn)有YOLOv3算法進(jìn)行了優(yōu)化,提高安全帽檢測(cè)精度和速度,減少無效報(bào)警。結(jié)合DeepSort目標(biāo)跟蹤技術(shù)提高檢測(cè)算法的實(shí)時(shí)性。基于開源SHMD數(shù)據(jù)集進(jìn)行測(cè)試,結(jié)果顯示優(yōu)化YOLOv3算法的平均檢測(cè)準(zhǔn)確率達(dá)到96.80%,比現(xiàn)有YOLOv3算法提高12%,執(zhí)行速度每秒32幀,在各種自然場景下都有出色的檢測(cè)效果。

關(guān)鍵詞:DeepSORT;改進(jìn)YOLOv3;車間安全;安全帽;目標(biāo)跟蹤

中圖分類號(hào):TP391文獻(xiàn)標(biāo)識(shí)碼:A

文章編號(hào):1009-3044(2022)05-0091-03

近些年,我國建筑行業(yè)發(fā)生的安全事故中有60%以上的傷亡者未佩戴安全帽,可見佩戴安全帽是保障工人生命安全的重要措施。監(jiān)督工人佩戴安全帽已成為安全生產(chǎn)管理中的必要措施[1]?,F(xiàn)有的安全帽佩戴監(jiān)控方式以人工監(jiān)督為主,效率低,效果差,和工業(yè)4.0時(shí)代計(jì)算機(jī)化、智能化的安全生產(chǎn)要求相差甚遠(yuǎn)。如何實(shí)現(xiàn)安全帽佩戴自動(dòng)化檢測(cè)成為安全生產(chǎn)管理領(lǐng)域亟待解決的問題。目前,安全帽檢測(cè)領(lǐng)域缺乏高魯棒性的分類算法[2]。在深度學(xué)習(xí)理論和方法的持續(xù)完善的背景下,以其為核心的目標(biāo)識(shí)別跟蹤算法發(fā)展迅速,為安全帽檢測(cè)技術(shù)的研究提供了新的選擇。本次研究提出了基于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)檢測(cè)方案,通過處理工廠車間的視頻圖像模型,準(zhǔn)確檢測(cè)工人的安全帽佩戴情況。

1系統(tǒng)架構(gòu)設(shè)計(jì)

本次設(shè)計(jì)的安全帽檢測(cè)系統(tǒng)檢測(cè)基本流程見圖1,系統(tǒng)由安全帽檢測(cè)、人員目標(biāo)跟蹤兩大模塊構(gòu)成。

安全帽檢測(cè)模塊的主要功能是基于攝像頭捕捉到的監(jiān)控視頻,通過大量數(shù)據(jù)訓(xùn)練完成視頻內(nèi)容檢測(cè),分析視頻中人員安全帽佩戴情況,并記錄視頻中檢測(cè)目標(biāo)的信息,以便后續(xù)進(jìn)行目標(biāo)跟蹤。

人員目標(biāo)跟蹤模塊基于安全帽檢測(cè)模塊發(fā)送的采集目標(biāo)幀初始化跟蹤集,再運(yùn)用[DeepSORT]算法實(shí)現(xiàn)目標(biāo)集跟蹤。人員目標(biāo)跟蹤模塊負(fù)責(zé)跟蹤視頻圖像中的每一個(gè)人員目標(biāo),及時(shí)收集人員位置信息,在確保檢測(cè)精度的情況下盡量減少警報(bào)的漏報(bào)、虛報(bào)[3]。

后臺(tái)程序基于改進(jìn)的YOLOv3檢測(cè)算法和DeepSORT算法獲取數(shù)據(jù)集,及時(shí)更新跟蹤器,找出未佩戴安全帽的人員目標(biāo),系統(tǒng)發(fā)出警告。

2 數(shù)據(jù)集構(gòu)建

本次設(shè)計(jì)以開源安全帽數(shù)據(jù)集SHWD (Safety Helmet Wear Dataset)作為基礎(chǔ)訓(xùn)練數(shù)據(jù)。SHWD數(shù)據(jù)集共有7581個(gè)Pascal-VOC格式標(biāo)注圖片,主要分為未戴安全帽、已戴安全帽兩種圖片[4]。SHWD數(shù)據(jù)集正/負(fù)例樣本分布不均勻,同時(shí)場景相對(duì)單一。因此,本次研究基于SHWD數(shù)據(jù)集存在的問題補(bǔ)充了4800張安全帽拿在手中或放在桌上等復(fù)雜圖像數(shù)據(jù),與SHWD數(shù)據(jù)集合并用于進(jìn)行算法訓(xùn)練和測(cè)試。

3 安全帽檢測(cè)模塊設(shè)計(jì)

3.1 模型算法

本次設(shè)計(jì)的安全帽檢測(cè)系統(tǒng)主要由兩個(gè)主要部分組成:安全帽檢測(cè)模塊和人員目標(biāo)跟蹤模塊。安全帽檢測(cè)模塊是整個(gè)系統(tǒng)的核心,在比較了不同的算法之后,本次設(shè)計(jì)選用YOLOv3檢測(cè)框架,為提高算法檢測(cè)的準(zhǔn)確率,本文重點(diǎn)介紹YOLOv3算法的三個(gè)部分:特征提取網(wǎng)絡(luò)、特征聚合、損失函數(shù)[5]。YOLOv3算法的基本原理是將殘差網(wǎng)絡(luò)函數(shù)與多尺度預(yù)測(cè)相結(jié)合,在中小型物體的檢測(cè)進(jìn)度與檢測(cè)速度之間達(dá)到平衡,但[416×416]的輸入圖像對(duì)應(yīng)的特征圖尺寸最小為[13×13],感受野太大,嚴(yán)重影響檢測(cè)精度,尤其是中小型物體的檢測(cè)效率很低,檢測(cè)重復(fù)、錯(cuò)誤、遺漏的概率很大。因此,本文基于現(xiàn)有YOLOv3算法進(jìn)行優(yōu)化給出更加高效的YOLOv3算法,其大致框架見圖2。

本次改進(jìn)的算法是一種多目標(biāo)檢測(cè)算法,其基本框架為深度殘差網(wǎng)絡(luò)。在典型的視頻目標(biāo)檢測(cè)環(huán)境中,檢測(cè)目標(biāo)是中小型目標(biāo),因此他們不需要非常大的感受野。此外,為改善針對(duì)中小型目標(biāo)(生產(chǎn)人員)的檢測(cè)能力,新算法需要基于大量淺層特征圖進(jìn)行預(yù)測(cè)??紤]到目標(biāo)識(shí)別的速度、時(shí)間復(fù)雜度和可靠性[6],本次設(shè)計(jì)在原有YOLOv3框架基礎(chǔ)上增加一個(gè)卷積層,將特征圖與平面殘差網(wǎng)絡(luò)相結(jié)合,和原有YOLOv3的三個(gè)卷積層共同組合形成一個(gè)包含四個(gè)不同分辨率卷積層的特征金字塔,具體包括包[64×64,32×32,16×16,8×8]的分辨率。在2-stage特征金字塔中進(jìn)行采樣并結(jié)合Deep Rest網(wǎng)絡(luò)形成深度融合的安全帽快速檢測(cè)模型。本次改進(jìn)的YOLOv3算法的檢測(cè)識(shí)別數(shù)據(jù)是整幅圖像,輸出被檢測(cè)目標(biāo)的位置信息以及安全帽佩戴信息。首先,改進(jìn)YOLOv3算法使用深度殘差網(wǎng)絡(luò)(Deep Residual Network,DRN)來提取目標(biāo)人員特征。然后,在DRN后設(shè)置卷積層,將其分為四個(gè)分支,共同構(gòu)成圖像特征預(yù)測(cè)網(wǎng)絡(luò)[7]。出于提高圖像信息價(jià)值的考慮,本次改進(jìn)的YOLOv3算法將圖像特征預(yù)測(cè)網(wǎng)絡(luò)的特征圖與DRN的圖像特征圖結(jié)合。最后,通過非極大值抑制達(dá)到去除重復(fù)圖像邊界框的目的,最終得到安全帽佩戴檢測(cè)結(jié)果。相比傳統(tǒng)的YOLOv3,改進(jìn)后的算法效果更好,可以有效減少復(fù)雜疑難場景下的誤檢,大大提高安全帽佩戴檢測(cè)準(zhǔn)確率。

3.2 基于DRN提取圖像特征

新算法通過構(gòu)建DRN殘差網(wǎng)絡(luò)提取目標(biāo)頭部特征。DRN包含若干殘差塊,塊與塊之間依次堆疊,對(duì)應(yīng)的公式如下:

[at+1=Ft(at)+at]

[at]表示第[t]個(gè)殘差塊的輸入向量、[at+1]表示第[t]個(gè)殘差塊的輸出向量,[Ft(at)]表示殘差分支的傳遞函數(shù)。構(gòu)建的DRN有利于圖像特征信息流動(dòng),可提高算法訓(xùn)練效率。DRN的第一個(gè)卷積層利用16[×]33的濾波器以[512×512]的分辨率對(duì)輸入圖像進(jìn)行濾波,再以步長2對(duì)淺層圖像進(jìn)行濾波,并添加殘差塊增加網(wǎng)絡(luò)的深度,得到特征圖分辨率為[256×256],通過類似方法得到分辨率分別為[64×64,32×32,16×16,8×8]的特征圖,將分辨率為[64×64,32×32,16×16,8×8]的特征圖與上采樣特征圖合得到特征金字塔,以便進(jìn)行安全帽佩戴預(yù)測(cè)。

3.3 基于多尺度卷積網(wǎng)絡(luò)預(yù)測(cè)目標(biāo)人員位置

本次改進(jìn)的算法在多尺度目標(biāo)特征圖上對(duì)目標(biāo)人員安全帽佩戴情況進(jìn)行回歸預(yù)測(cè)。不同分辨率的卷積層分為四個(gè)分支,即分別率分別為[64×64,32×32,16×16,8×8]特征圖,基于特征圖分別進(jìn)行圖像預(yù)測(cè),各分支均包含若干卷積層,對(duì)各分支進(jìn)行上采樣。為強(qiáng)化特征金字塔表征能力,將上采樣特征與殘差塊特征融合,以識(shí)別安全帽,四個(gè)分支共享通過DRN提取的圖像特征。通過多尺度卷積網(wǎng)絡(luò)預(yù)測(cè)算法可以生成分別代表圖像邊框、人員頭部、人員頸部以及安全帽佩戴類別的三維張量。

3.4 基于錨點(diǎn)機(jī)制預(yù)測(cè)人員頭部邊界框

錨點(diǎn)機(jī)制源于FasterR-CNN,用于發(fā)現(xiàn)目標(biāo)邊界[8]。錨點(diǎn)機(jī)制可快速精準(zhǔn)預(yù)測(cè)YOLOv2、YOLOv3、SSD等檢測(cè)框架中物體的邊界。因此,本次設(shè)計(jì)也使用錨點(diǎn)機(jī)制來預(yù)測(cè)目標(biāo)人員的頭頸部邊界。特征圖可分為[N×N]個(gè)網(wǎng)格,單個(gè)網(wǎng)格可預(yù)測(cè)三個(gè)錨框,單張圖像可包含65280個(gè)預(yù)測(cè)幀,從而有效確保目標(biāo)頭部位置的檢測(cè)與識(shí)別精度。Faster R-CNN可以基于單個(gè)滑動(dòng)窗口生成9個(gè)錨點(diǎn),這些錨點(diǎn)先通過人工標(biāo)記,再基于實(shí)際情況進(jìn)行修正以進(jìn)行數(shù)據(jù)集訓(xùn)練。本文改進(jìn)的算法采用與YOLOv2相同的方法,對(duì)大量訓(xùn)練數(shù)據(jù)進(jìn)行聚類以獲得最佳的先驗(yàn)錨點(diǎn)框,用于檢測(cè)目標(biāo)人員是否佩戴頭盔,算法公式如下:

[d(box,centroid)=1-IOU(box,centroid)]

基于不同場景需求,如召回率、精度方面的不同要求可以為當(dāng)前的場景選擇更好的IOU值。目標(biāo)人員的頭部位置通過本次改進(jìn)算法直接預(yù)測(cè),分成四個(gè)坐標(biāo)信息,[tx],[ty],[tw],[ty]定義分別如下:

[bx=σ(tx)+cxby=σ(ty)+cybw=pwetwbh=phetA]

其中,[cx,cy]表示網(wǎng)格到圖像左上角的水平和垂直距離,[pw,py]表示邊界框的寬度和高度。

4 目標(biāo)跟蹤模塊設(shè)計(jì)

本次設(shè)計(jì)的安全帽檢測(cè)系統(tǒng)基于DeepSort算法預(yù)測(cè)目標(biāo)人員的位置,根據(jù)目標(biāo)的形狀、運(yùn)動(dòng)情況進(jìn)行跟蹤,其兩個(gè)核心算法是卡爾曼濾波和匈牙利算法,分別負(fù)責(zé)狀態(tài)估計(jì)和適當(dāng)?shù)哪繕?biāo)分配。DeepSort目標(biāo)跟蹤算法使用8維向量([μ、υ、γ、h、x、y、γ、h])來描述被跟蹤目標(biāo)人員的具體狀態(tài)。其中[(μ,υ)]表示目標(biāo)框的中心坐標(biāo),[γ]表示縱橫比,[h]表示高度,其余變量則用來描述目標(biāo)在圖像坐標(biāo)系中的運(yùn)動(dòng)狀態(tài)?;跇?biāo)準(zhǔn)卡爾曼濾波器來預(yù)測(cè)目標(biāo)人員的運(yùn)動(dòng)狀態(tài),預(yù)測(cè)結(jié)果可表示為[(μ、υ、γ、h)]。此外,DeepSort算法將目標(biāo)人員的外觀、運(yùn)動(dòng)方面的信息關(guān)聯(lián)起來,以解決相機(jī)移動(dòng)造成目標(biāo)ID頻繁切換的問題。目標(biāo)檢測(cè)框與跟蹤器預(yù)測(cè)框之間的馬氏距離用于表示運(yùn)動(dòng)相關(guān)程度。

[d(1)(i,j)=(dj-yi)TS-1i(dj-yi)]

[yi]為預(yù)測(cè)第[i]個(gè)目標(biāo)人員的位置,[dj]為第[j]個(gè)檢測(cè)框的位置,[Si]表示檢測(cè)位置之間的方差矩陣。通過檢測(cè)位置、預(yù)測(cè)位置的標(biāo)準(zhǔn)差來衡量目標(biāo)運(yùn)動(dòng)狀態(tài)的不確定性。提取目標(biāo)特征向量作為目標(biāo)的外觀信息,并將每一幀的匹配結(jié)果緩存為特征向量集。對(duì)于每個(gè)目標(biāo)識(shí)別幀,特征向量和特征向量集的所有跟蹤器都計(jì)算到最小余弦距離,計(jì)算公式如下:

[d(2)(i,j)=min{1-rTjr(i)k|r(i)k∈Ri}]

[Ri]為第[i]個(gè)跟蹤器的特征向量集,[rj]為第[j]個(gè)目標(biāo)檢測(cè)框的特征向量。使用兩種關(guān)聯(lián)方式的線性加權(quán)值[ci,j]作為最終匹配度量,[λ]為權(quán)重系數(shù)。

[ci,j=λd(1)(i,j)+(1-λ)d(2)(i,j)]

5 系統(tǒng)測(cè)試和結(jié)果分析

5.1 測(cè)試環(huán)境及方法

本文將SHWD數(shù)據(jù)集以及自建數(shù)據(jù)集共13955張圖片按照8:2的比例分為訓(xùn)練集、測(cè)試集。在Ubuntu操作系統(tǒng)上進(jìn)行數(shù)據(jù)訓(xùn)練,并使用GPU 加速工具,GPU為英偉達(dá)Tesla V100 @ 16 GB,RAM為32 GB,采取隨機(jī)梯度下降(SGD),使用4x16小批量訓(xùn)練方法,動(dòng)量為0.927,權(quán)重衰減0.00049。訓(xùn)練期間共進(jìn)行20,000次迭代。根據(jù)需要調(diào)整學(xué)習(xí)率,當(dāng)?shù)螖?shù)達(dá)到80%、90%時(shí),學(xué)習(xí)率降低到原來的10%,為了比較該算法與傳統(tǒng)YOLO v3算法的檢測(cè)效果,需要對(duì)兩種算法的測(cè)試結(jié)果進(jìn)行對(duì)比分析。

5.2 算法測(cè)試結(jié)果分析

本文以常用的平均準(zhǔn)確率、平均精度均值、每秒檢測(cè)幀數(shù)衡量算法效果。IOU取0.5,基于2791張圖像的測(cè)試集測(cè)試新算法,測(cè)試結(jié)果見表1。

根據(jù)表1數(shù)據(jù)可以看出,本次改進(jìn)的算法基于深度殘差網(wǎng)絡(luò)進(jìn)行特征深度融合,模型運(yùn)算量顯著提升。如果不運(yùn)用DeepSort目標(biāo)跟蹤算法,則系統(tǒng)運(yùn)行效率,即每秒檢測(cè)幀數(shù)低于傳統(tǒng)YOLOv3,但從識(shí)別準(zhǔn)確率來看,改進(jìn)算法使用的特征提取網(wǎng)絡(luò)特征表達(dá)能力或更強(qiáng),識(shí)別準(zhǔn)確率(96.81%)與傳統(tǒng)YOLOv3(84.26%)相比有顯著提升。

如圖3所示,在一般場景中,傳統(tǒng)YOLOv3和本次改進(jìn)的算法都獲得了良好的檢測(cè)效果,但在遮擋較多的多人群場景中,傳統(tǒng)YOLOv3漏掉了一些模糊的目標(biāo),改進(jìn)算法則沒有漏掉檢測(cè)目標(biāo)。如果目標(biāo)很小,則傳統(tǒng)YOLOv3算法的識(shí)別準(zhǔn)確率嚴(yán)重下降,而本次改進(jìn)的算法檢測(cè)識(shí)別效果很好。

6結(jié)論

綜上所述,本次研究提出了一種改進(jìn)的YOLOv3檢測(cè)算法,該算法在傳統(tǒng)YOLO v3算法的三個(gè)卷積層基礎(chǔ)上增加一個(gè)特征圖尺寸更大的卷積層,構(gòu)成四層卷積層結(jié)構(gòu),以提高算法對(duì)中小型目標(biāo)的檢測(cè)識(shí)別效率。不同尺度的四個(gè)卷積層構(gòu)成的特征金字塔,同時(shí)以步長的2倍進(jìn)行向上采樣,與深度殘差網(wǎng)絡(luò)融合以進(jìn)行特征提取。將獲得的特征圖用于模型訓(xùn)練和測(cè)試,經(jīng)過系統(tǒng)測(cè)試,本次改進(jìn)的算法整體性能優(yōu)于傳統(tǒng)YOLOv3算法,可以很好地滿足生產(chǎn)實(shí)踐中的安全帽檢測(cè)需求。為進(jìn)一步提高系統(tǒng)運(yùn)行效率,本次研究使用DeepSORT目標(biāo)跟蹤算法進(jìn)行目標(biāo)人員識(shí)別。在英偉達(dá)GTX 1070顯卡環(huán)境得到系統(tǒng)的每秒檢測(cè)幀數(shù)為33幀,識(shí)別準(zhǔn)確率達(dá)到96.81%,說明本次提出的算法效果良好。在未來研究中需要對(duì)算法結(jié)構(gòu)進(jìn)行持續(xù)改進(jìn)和完善,提高算法對(duì)小目標(biāo)以及遮擋場景下的目標(biāo)檢測(cè)準(zhǔn)確度。

參考文獻(xiàn):

[1] 宋艷艷,譚勵(lì),馬子豪,等.改進(jìn)YOLOV3算法的視頻目標(biāo)檢測(cè)[J].計(jì)算機(jī)科學(xué)與探索,2021,15(1):163-172.

[2] 陳佳倩,金晅宏,王文遠(yuǎn),等.基于YOLOv3和DeepSort的車流量檢測(cè)[J].計(jì)量學(xué)報(bào),2021,42(6):718-723.

[3] 李震霄,孫偉,劉明明,等.交通監(jiān)控場景中的車輛檢測(cè)與跟蹤算法研究[J].計(jì)算機(jī)工程與應(yīng)用,2021,57(8):103-111.

[4] 朱健,楊云飛,蘇江濤,等.基于深度學(xué)習(xí)的太陽活動(dòng)區(qū)檢測(cè)與跟蹤方法研究[J].天文研究與技術(shù)-國家天文臺(tái)臺(tái)刊,2020,17(2):191-200.

[5] 吳強(qiáng),季曉楓,馮育,等.一種基于YoloV5和DeepSort的地面互動(dòng)投影系統(tǒng)中人體檢測(cè)跟蹤方法:CN112668432A[P].2021-04-16.

[6] 趙守風(fēng),沈志勇,姚一峰,等.基于YOLOv4模型和DeepSORT模型的跟蹤方法:CN112634332A[P].2021-04-09.

[7] 宋欣,李奇,解婉君,等.YOLOv3-ADS:一種基于YOLOv3的深度學(xué)習(xí)目標(biāo)檢測(cè)壓縮模型[J].東北大學(xué)學(xué)報(bào)(自然科學(xué)版),2021,42(5):609-615.

[8] 鄭含博,李金恒,劉洋,等.基于改進(jìn)YOLOv3的電力設(shè)備紅外目標(biāo)檢測(cè)模型[J].電工技術(shù)學(xué)報(bào),2021,36(7):1389-1398.

【通聯(lián)編輯:代影】

收稿日期:2021-05-26

作者簡介:白家?。?001—),山西長治人,???,主要研究方向?yàn)檐浖夹g(shù);指導(dǎo)老師:何青松(1987—),男,江蘇徐州人,助教,碩士研究生,主要研究方向?yàn)樾睦韺W(xué)、法學(xué)、軟件、人工智能。

猜你喜歡
目標(biāo)跟蹤安全帽
刺猬戴上安全帽
礦工有無數(shù)頂安全帽
小小安全帽,生命保護(hù)傘
爆笑四格
多視角目標(biāo)檢測(cè)與跟蹤技術(shù)的研究與實(shí)現(xiàn)
基于改進(jìn)連續(xù)自適應(yīng)均值漂移的視頻目標(biāo)跟蹤算法
基于重采樣粒子濾波的目標(biāo)跟蹤算法研究
航空兵器(2016年5期)2016-12-10 17:12:24
空管自動(dòng)化系統(tǒng)中航跡濾波算法的應(yīng)用與改進(jìn)
科技視界(2016年5期)2016-02-22 12:25:31
智能視頻技術(shù)在電力系統(tǒng)領(lǐng)域的應(yīng)用
基于車牌識(shí)別的機(jī)混車道視頻測(cè)速算法
灵宝市| 静海县| 萝北县| 安庆市| 从化市| 汨罗市| 忻州市| 宜兰市| 泸定县| 南陵县| 吉木乃县| 泊头市| 宁海县| 兴安县| 西吉县| 秭归县| 若羌县| 原平市| 称多县| 前郭尔| 阳城县| 土默特右旗| 高邮市| 泗水县| 友谊县| 凤庆县| 长汀县| 平乡县| 石棉县| 巴林右旗| 潼关县| 韶关市| 高碑店市| 阜南县| 石屏县| 包头市| 临沭县| 公安县| 临澧县| 武鸣县| 南充市|