国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

面向變電站視頻監(jiān)控終端的目標(biāo)檢測(cè)方法及其優(yōu)化

2019-10-10 07:05:50吳暉李銘鈞楊英儀吳昊孫強(qiáng)
廣東電力 2019年9期
關(guān)鍵詞:粗粒度細(xì)粒度變電站

吳暉,李銘鈞,楊英儀,吳昊,孫強(qiáng)

(1.廣東電網(wǎng)有限責(zé)任公司電力科學(xué)研究院,廣東 廣州 510080;2. 廣東電網(wǎng)有限責(zé)任公司,廣東 廣州 510060)

隨著視頻監(jiān)控系統(tǒng)在變電站內(nèi)的普及應(yīng)用,工作人員可借助這些監(jiān)控設(shè)備對(duì)現(xiàn)場(chǎng)實(shí)現(xiàn)遠(yuǎn)程巡查,從而使得變電站監(jiān)管的邊界得到拓展。盡管當(dāng)前智能技術(shù)手段在變電站視頻監(jiān)控領(lǐng)域的應(yīng)用改變了此前通過(guò)依賴(lài)人員手動(dòng)調(diào)度視頻終端的被動(dòng)式的監(jiān)控方式[1],但隨著變電站內(nèi)需要監(jiān)控的目標(biāo)增多和對(duì)現(xiàn)場(chǎng)監(jiān)控實(shí)時(shí)性要求的提高,即使在后端為視頻監(jiān)控系統(tǒng)搭配高性能服務(wù)器,海量高清視頻數(shù)據(jù)傳輸也會(huì)對(duì)網(wǎng)絡(luò)帶寬、延遲等提出極高的要求,在某些緊急事件發(fā)生時(shí),往往會(huì)造成嚴(yán)重的后果。

針對(duì)上述問(wèn)題,本文對(duì)目標(biāo)檢測(cè)技術(shù)在變電站中的應(yīng)用展開(kāi)研究。該研究主要圍繞基于深度學(xué)習(xí)的目標(biāo)檢測(cè)技術(shù)在視頻監(jiān)控前端[2]的推理需求進(jìn)行優(yōu)化設(shè)計(jì),以提升其整體、高效的智能化檢測(cè)分類(lèi)能力。

1 研究現(xiàn)狀

智能視頻監(jiān)控技術(shù)對(duì)視頻圖像的處理一般分為目標(biāo)檢測(cè)與跟蹤、目標(biāo)識(shí)別、行為分析3個(gè)層次[3]。作為智能視頻監(jiān)控技術(shù)的基礎(chǔ),目標(biāo)檢測(cè)性能好壞直接影響到后續(xù)層次的性能的優(yōu)劣。一般來(lái)說(shuō),對(duì)視頻目標(biāo)進(jìn)行檢測(cè)的重點(diǎn)著眼于對(duì)底層特征的處理。常用的建模方法主要分為基于目標(biāo)建模和基于場(chǎng)景建模等2種,如幀間差分[4]和高斯混合模型[5]就是基于目標(biāo)建模方法的經(jīng)典算法,它主要應(yīng)用于固定式視頻監(jiān)控終端中;基于場(chǎng)景建模的方法主要依賴(lài)于對(duì)視頻圖像中特征的提取與分類(lèi),其具有代表性的特征提取方法包括尺度不變特征轉(zhuǎn)換(scale-invariant feature transform, SIFT)[6]、HoG[7]等,代表性的分類(lèi)器有支持向量機(jī)(support vector machine,SVM)[8]、AdaBoost[9]等?;趫?chǎng)景建模的方法不受應(yīng)用場(chǎng)景的限制,因此可以用于移動(dòng)式視頻監(jiān)控終端。

為了提升視頻監(jiān)控?cái)?shù)據(jù)智能化分析的能力,電力運(yùn)行維護(hù)領(lǐng)域的眾多專(zhuān)家學(xué)者也開(kāi)展了一系列的研究,試圖利用計(jì)算機(jī)視覺(jué)手段,對(duì)非結(jié)構(gòu)化的視頻監(jiān)控?cái)?shù)據(jù)進(jìn)行主動(dòng)分析,以輔助提升變電站視頻監(jiān)控?cái)?shù)據(jù)的利用率和智能化分析水平。在面向電力行業(yè)的應(yīng)用中,基于人工設(shè)計(jì)特征的方法被廣泛應(yīng)用在各類(lèi)場(chǎng)景中。文獻(xiàn)[10]提出了基于區(qū)域特征和局部特征相融合的運(yùn)動(dòng)目標(biāo)檢測(cè)算法,并將場(chǎng)景分為動(dòng)態(tài)背景和靜態(tài)背景分別建模處理,有效地抑制了動(dòng)態(tài)背景產(chǎn)生的虛假目標(biāo)。該算法仍以背景建模為基礎(chǔ),因此只適用于靜止的設(shè)備監(jiān)控終端。文獻(xiàn)[11]面向移動(dòng)機(jī)器人云臺(tái)采用了一種基于特征點(diǎn)匹配的指針儀表目標(biāo)檢測(cè)與識(shí)讀方法。該方法通過(guò)消除光線(xiàn)變化、污穢等外部干擾因素的圖像預(yù)處理,有效地提升了表盤(pán)和指針目標(biāo)的檢測(cè)效果,但這是在云臺(tái)靜止不動(dòng)的情況下應(yīng)用的,因此其在移動(dòng)式視頻監(jiān)控終端的有效性有待驗(yàn)證?;谶吘壿喞崛〉姆椒╗12]也被應(yīng)用于復(fù)雜環(huán)境下絕緣子的定位檢測(cè),即通過(guò)計(jì)算目標(biāo)圖與模板圖的歸一化互相關(guān)系數(shù)矩陣,并在空域上對(duì)模板圖像進(jìn)行尺度變換和角度旋轉(zhuǎn),實(shí)現(xiàn)基于模板匹配的絕緣子定位。此外,基于人工設(shè)計(jì)特征的其他方法如基于紋理特征的定位[13]、融合顏色特征的圖像定位分割[14-15]等方法也被廣泛應(yīng)用于電力運(yùn)行維護(hù)領(lǐng)域的目標(biāo)檢測(cè)中。

以上方法雖然在特定應(yīng)用場(chǎng)景下取得了較好的效果,但仍有以下需要解決的問(wèn)題[16]:①傳統(tǒng)方法結(jié)合梯度、顏色或紋理等人工設(shè)計(jì)的淺層特征進(jìn)行目標(biāo)檢測(cè),難以對(duì)視頻圖像中豐富的深層次特征進(jìn)行提取和描述,在邊緣對(duì)比度較低的情況下,極易造成漏檢漏判。②人工設(shè)計(jì)的特征可分性較差,致使目標(biāo)檢測(cè)方法容易受到背景噪音的干擾,無(wú)法為后續(xù)的識(shí)別提供更多分類(lèi)依據(jù),導(dǎo)致最終分類(lèi)錯(cuò)誤率偏高。③人工設(shè)計(jì)的特征具有針對(duì)性,很難將針對(duì)性的單一特征用于對(duì)多目標(biāo)進(jìn)行檢測(cè),因此在視頻圖像中關(guān)注的目標(biāo)較多的情況下,必須針對(duì)不同的目標(biāo)分別設(shè)計(jì)不同的特征。

2 基于YOLO v3優(yōu)化的變電站目標(biāo)檢測(cè)方案

2.1 YOLO 及YOLO v3

當(dāng)前基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法通常被分為2類(lèi):基于區(qū)域提議(或候選窗口)的方法和基于回歸的方法。區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(region-convolutional neural networks,R-CNN)系列[17-18]是基于區(qū)域提議的方法中最具代表性的目標(biāo)檢測(cè)框架。而YOLO系列[19]則是基于回歸的方法中應(yīng)用最為廣泛的框架之一。相比較于基于區(qū)域提議的R-CNN系列方法在檢測(cè)精度上極具優(yōu)勢(shì),YOLO系列方法的優(yōu)勢(shì)則體現(xiàn)在檢測(cè)速度上[20]。

YOLO v3[21]、YOLO v2[22]都是由YOLO演變而來(lái),YOLO v3則是在YOLO v2的基礎(chǔ)上又進(jìn)行改進(jìn),在維持檢測(cè)速度的同時(shí)可獲得更好的檢測(cè)精度,即:①bounding box預(yù)測(cè)。YOLO v3延續(xù)了YOLO v2對(duì)每個(gè)方格預(yù)測(cè)5個(gè)方框的bounding box預(yù)測(cè)方式,在判斷anchor box的正負(fù)時(shí),通過(guò)最大IoU法確定正anchor box。②類(lèi)預(yù)測(cè)。不同于softmax,YOLO v3采用independent logistic classifiers和binary cross-entropy loss,更好地處理了多標(biāo)簽任務(wù)。③多尺度預(yù)測(cè)。YOLO v3使用了3個(gè)不同的scale進(jìn)行預(yù)測(cè),將前2層的feature-map進(jìn)行上采樣,從網(wǎng)絡(luò)低層取feature-map,用element-wise addition將其與上采樣特征合并,加一些卷積層,然后進(jìn)行預(yù)測(cè)。④基礎(chǔ)分類(lèi)。YOLO v3采用了比YOLO v2的darknet-19更深層的darknet-53網(wǎng)絡(luò),在特征提取上表現(xiàn)出更好的性能,實(shí)現(xiàn)了與Resnet-152近乎相同的準(zhǔn)確率,而速度卻是后者的2倍。

由此可見(jiàn),隨著算法的不斷改進(jìn),基于回歸的YOLO系列方法在檢測(cè)精度和實(shí)時(shí)性2個(gè)方面都得到了較好的平衡,尤其是YOLO v3在部分?jǐn)?shù)據(jù)集上已經(jīng)獲得了接近快速 R-CNN的性能。

2.2 面向變電站關(guān)鍵目標(biāo)的檢測(cè)算法方案

整體而言,針對(duì)變電站關(guān)鍵目標(biāo)的檢測(cè)主要采用粗粒度檢測(cè)與細(xì)粒度分類(lèi)相結(jié)合的方案。在方案中,將檢測(cè)的目標(biāo)細(xì)分為作業(yè)人員、施工車(chē)輛2類(lèi),而其中作業(yè)人員又包含了是否穿戴作業(yè)安全帽和是否穿著工作服,施工車(chē)輛又進(jìn)一步劃分為吊車(chē)、泵車(chē)、鏟斗車(chē)、挖掘機(jī)等特種車(chē)類(lèi)別。在面向上述目標(biāo)的粗粒度檢測(cè)方面,主要采用基于TensorFlow框架的YOLO v3目標(biāo)檢測(cè)方案,使用優(yōu)化后的YOLO v3算法對(duì)目標(biāo)進(jìn)行檢測(cè)并輸出其在圖像中的位置坐標(biāo)。在細(xì)粒度分類(lèi)方面,采用基于TensorFlow框架的深層神經(jīng)網(wǎng)絡(luò)分類(lèi)方案。當(dāng)智能視頻終端采用目標(biāo)檢測(cè)算法捕捉到變電站作業(yè)人員之后,再利用優(yōu)化裁剪后的分類(lèi)網(wǎng)絡(luò)對(duì)作業(yè)人員進(jìn)行更細(xì)致的下一級(jí)類(lèi)內(nèi)區(qū)分,主要是針對(duì)變電站作業(yè)人員判斷其是否佩戴安全帽和是否穿著工作服等,即使用單目標(biāo)的多標(biāo)簽分類(lèi)對(duì)變電站作業(yè)人員的屬性類(lèi)別進(jìn)行獨(dú)熱編碼。例如:一個(gè)佩戴了安全帽并穿著工作服的工作人員就可以獨(dú)熱編碼表示為“1 0 1 0”。細(xì)粒度獨(dú)熱編碼表見(jiàn)表1。

表1 變電站作業(yè)人員細(xì)粒度獨(dú)熱編碼Tab.1 Fine-grainedone-hot encoding for operators’ attributes

3 面向邊緣端的YOLO v3算法優(yōu)化

由于對(duì)邊緣端裝備的智能推理能力的需求越來(lái)越高[23],應(yīng)用于變電站關(guān)鍵目標(biāo)檢測(cè)的CNN模型在終端應(yīng)用前需要進(jìn)行適當(dāng)?shù)膬?yōu)化。本節(jié)分別介紹了對(duì)粗粒度檢測(cè)算法與細(xì)粒度分類(lèi)算法進(jìn)行的優(yōu)化。

3.1 粗粒度算法優(yōu)化

標(biāo)準(zhǔn)的YOLO v3算法是近年來(lái)表現(xiàn)最為優(yōu)異的邊框回歸類(lèi)算法,但在變電站應(yīng)用環(huán)境進(jìn)行目標(biāo)檢測(cè)時(shí),由于變電站現(xiàn)場(chǎng)設(shè)備、環(huán)境等非關(guān)注物的影響,造成模型在訓(xùn)練的過(guò)程中會(huì)遇到大量的假正例,即負(fù)樣本被錯(cuò)誤地分類(lèi)為正樣本。大量令分類(lèi)器難以正確分辨的負(fù)樣本會(huì)造成正負(fù)樣本比例失衡,從而影響分類(lèi)器正確率。因此,本文利用在線(xiàn)困難實(shí)例挖掘(online hard example mining,OHEM)方法,提高真負(fù)例的比率,并對(duì)算法原來(lái)采用的損失函數(shù)進(jìn)行改進(jìn),對(duì)正/負(fù)樣本使用了focal loss損失函數(shù)[24],通過(guò)減少易分類(lèi)樣本的權(quán)重,使得模型在訓(xùn)練時(shí)更專(zhuān)注于難分類(lèi)的樣本。focal loss損失函數(shù)

(1)

式中:y為真實(shí)樣本的標(biāo)簽(1為正,0為負(fù));y′為經(jīng)過(guò)sigmoid激活函數(shù)的預(yù)測(cè)輸出(數(shù)值在(0, 1)之間);γ為樣本預(yù)測(cè)參變量,當(dāng)γ> 0時(shí),函數(shù)減少了易分類(lèi)樣本的損失,使得模型更關(guān)注于困難的、易錯(cuò)分的樣本。

此外,由于算法針對(duì)作業(yè)人員是否佩戴安全帽、是否穿著工作服進(jìn)行了獨(dú)熱編碼,對(duì)于損失函數(shù)而言,當(dāng)使用預(yù)測(cè)概率去擬合真實(shí)概率函數(shù)時(shí),將無(wú)法保證模型的泛化能力,容易造成過(guò)擬合。為了解決這個(gè)問(wèn)題,采用標(biāo)簽平滑[25]的方法,即在真實(shí)標(biāo)簽中加入噪聲,減少計(jì)算損失函數(shù)時(shí)真實(shí)標(biāo)簽所占的權(quán)重,在不改變模型結(jié)構(gòu)的情況下防止其過(guò)擬合,從而使模型性能達(dá)到最優(yōu)。

3.2 粗粒度算法壓縮

智能算法需要在監(jiān)控終端上進(jìn)行部署,形成智能視頻監(jiān)控終端,為了提高模型在終端上處理的實(shí)時(shí)性,對(duì)YOLO v3網(wǎng)絡(luò)進(jìn)行模型壓縮。本文采用MobileNetV1替換YOLO v3的Darknet-53,將上采樣層替換成MobileNet的最后3層,使YOLO v3更加輕量和高速。經(jīng)過(guò)測(cè)試,這樣的改造使模型耗時(shí)相比于改造前縮短了5 ms,提升了模型速度。

此外,采用剪枝的方法對(duì)YOLO v3濾波器通道進(jìn)行處理。對(duì)于權(quán)重貢獻(xiàn)度低于設(shè)定閾值的部分,則認(rèn)為其作用較小予以刪除。貢獻(xiàn)度的高低按照權(quán)重的絕對(duì)值大小來(lái)進(jìn)行衡量,將分布在0的兩側(cè)且低于設(shè)定閾值的貢獻(xiàn)值轉(zhuǎn)化為0,轉(zhuǎn)化后的部分將不參與網(wǎng)絡(luò)的前向和后向傳播,如圖1所示。經(jīng)4次壓縮后,模型大小減小到原來(lái)的1/2,模型耗時(shí)相比壓縮前縮短了4 ms,模型速度提升,模型精度損失微小。

圖1 單次剪枝后某層權(quán)重分布Fig.1 Weight distribution of a layer after a single pruning

3.3 細(xì)粒度算法優(yōu)化

為了在低功耗的視頻監(jiān)控終端上實(shí)現(xiàn)對(duì)作業(yè)人員穿戴屬性的進(jìn)一步分類(lèi),同樣需要對(duì)細(xì)粒度分類(lèi)算法進(jìn)行優(yōu)化。目前在細(xì)粒度分類(lèi)實(shí)現(xiàn)上采用了SmallerVGGNet[26]。對(duì)該部分算法的優(yōu)化包括2個(gè)方面:①對(duì)網(wǎng)絡(luò)進(jìn)行裁剪和網(wǎng)絡(luò)修改。去除網(wǎng)絡(luò)中的全連接層,改用全局平均池化層,同時(shí)剔除掉輸出通道最大的2層卷積網(wǎng)絡(luò),因?yàn)槠渚哂凶畲蟮膮?shù)量??梢晭缀谓M(visual geometry group,VGG)網(wǎng)絡(luò)原先保存的權(quán)重尺寸將近200 M,在進(jìn)行裁剪和修改后只剩下14 M,使得算法的檢測(cè)速度大幅提高。②針對(duì)分類(lèi)方法進(jìn)行優(yōu)化。對(duì)于多標(biāo)簽分類(lèi)而言,一個(gè)樣本的標(biāo)簽不僅僅局限于一個(gè)類(lèi)別,可以具有多個(gè)類(lèi)別,且不同類(lèi)之間是有關(guān)聯(lián)的。在作業(yè)人員穿戴識(shí)別中,安全帽、工作服是作業(yè)人員的不同屬性,但是這2個(gè)屬性標(biāo)簽不是互斥的,而是有關(guān)聯(lián)的。在同一個(gè)場(chǎng)景樣本中,作業(yè)人員穿戴的標(biāo)注是屬于多標(biāo)簽問(wèn)題。原網(wǎng)絡(luò)中采用的softmax損失函數(shù)適用于單標(biāo)簽多分類(lèi)問(wèn)題,因此在這里改用了更適合多標(biāo)簽分類(lèi)問(wèn)題的sigmod函數(shù)。

4 實(shí)驗(yàn)評(píng)估

4.1 服務(wù)器配置及樣本集準(zhǔn)備

為驗(yàn)證算法的有效性,對(duì)優(yōu)化后的算法進(jìn)行了一系列測(cè)試,以評(píng)估粗粒度檢測(cè)與細(xì)粒度分類(lèi)的性能表現(xiàn)。算法的訓(xùn)練是在一臺(tái)深度學(xué)習(xí)服務(wù)器上進(jìn)行的,該服務(wù)器配置多顆NVIDIA 1080Ti GPU和Intel XEON 12核CPU,16 GB DDR4內(nèi)存。在服務(wù)器的Ubuntu 16.04上配套搭載TensorFlow 1.12、Keras 2.2.4框架,并配置OpenCV3.4、scikit-learn 0.20.3、numpy、pillow等配套軟件。

變電站中出現(xiàn)的目標(biāo)類(lèi)型眾多,其中開(kāi)展現(xiàn)場(chǎng)作業(yè)的人員和車(chē)輛通常具有運(yùn)動(dòng)特征,其行為動(dòng)作對(duì)變電站現(xiàn)場(chǎng)設(shè)備、環(huán)境的變化會(huì)造成影響,因此是變電站現(xiàn)場(chǎng)視頻監(jiān)控中的主要目標(biāo)對(duì)象。此類(lèi)目標(biāo)通常具有一些典型的局部視覺(jué)表征,如作業(yè)人員的安全帽、工作服等。為了支持前端對(duì)此類(lèi)目標(biāo)進(jìn)行后續(xù)目標(biāo)跟蹤、目標(biāo)分類(lèi)、行為分析與語(yǔ)義理解等更高層次智能視頻監(jiān)控,本文選取作業(yè)人員佩戴的安全帽、穿著的工作服、大型施工車(chē)輛為關(guān)鍵目標(biāo),采集所需的圖像樣本。針對(duì)粗粒度檢測(cè)部分,在變電站戶(hù)外環(huán)境下收集了包括不同季節(jié)和不同光照條件下的目標(biāo)圖像樣本20 000張,并使用如翻轉(zhuǎn)、旋轉(zhuǎn)等幾何變換方法對(duì)數(shù)據(jù)進(jìn)行有監(jiān)督性的數(shù)據(jù)增強(qiáng)。針對(duì)細(xì)粒度分類(lèi)部分,采集包括作業(yè)人員、施工車(chē)輛等細(xì)節(jié)目標(biāo)的圖片樣本10 000張,同樣對(duì)數(shù)據(jù)進(jìn)行增強(qiáng)處理。所有原始圖像樣本在具體訓(xùn)練過(guò)程中進(jìn)行統(tǒng)一壓縮與歸一化處理。

4.2 模型測(cè)試結(jié)果

4.2.1 粗粒度檢測(cè)結(jié)果

針對(duì)粗粒度目標(biāo)檢測(cè)的測(cè)試,選取施工車(chē)輛作為算法檢測(cè)的目標(biāo)對(duì)象,具體車(chē)輛類(lèi)型包括吊車(chē)、泵車(chē)、鏟斗車(chē)、挖掘機(jī)這4種特種車(chē)輛。在模型訓(xùn)練與測(cè)試過(guò)程中將所有樣本按照1∶3的比例分為訓(xùn)練集與測(cè)試集。為了評(píng)估算法的優(yōu)化效果,采用原始的YOLO v3算法與本文所述優(yōu)化的YOLO v3算法進(jìn)行模型訓(xùn)練、驗(yàn)證與結(jié)果對(duì)比。測(cè)試結(jié)果主要包括召回率、準(zhǔn)確率、平均準(zhǔn)確率3個(gè)指標(biāo),具體結(jié)果見(jiàn)表2。

由表2可見(jiàn):在針對(duì)變電站施工車(chē)輛進(jìn)行粗粒度目標(biāo)檢測(cè)時(shí),優(yōu)化后的YOLO v3算法在召回率、準(zhǔn)確率和平均準(zhǔn)確率指標(biāo)上相比較于原始的YOLO v3算法均有整體提升。這說(shuō)明針對(duì)粗粒度算法采用OHEM方法及改進(jìn)損失函數(shù)的優(yōu)化手段是有效的,該方案通過(guò)在線(xiàn)挖掘真負(fù)例比率和降低易分類(lèi)樣本權(quán)重,使模型訓(xùn)練過(guò)程中的正負(fù)樣本的比例更加均衡,提升了分類(lèi)器的分類(lèi)準(zhǔn)確率,進(jìn)而對(duì)算法整體的指標(biāo)產(chǎn)生了正面的影響。

表2 面向施工車(chē)輛的粗粒度檢測(cè)結(jié)果對(duì)比Tab.2 Comparison of coarse-grained detectionresults on vehicles

考慮到算法優(yōu)化的主要目標(biāo)是在視頻監(jiān)控終端上進(jìn)行部署并提供邊緣端推理,在實(shí)時(shí)性方面具有較高的要求,因此對(duì)優(yōu)化后YOLO v3算法的推理時(shí)間進(jìn)行測(cè)試。評(píng)估將輸入圖像壓縮并歸一化到不同尺寸下采用粗粒度檢測(cè)算法在檢測(cè)施工車(chē)輛上所需的時(shí)間,結(jié)果見(jiàn)表3。

表3 面向施工車(chē)輛的粗粒度檢測(cè)所需推理時(shí)間Tab.3 Inferring timeof coarse-grained detection on vehicles

由表3可見(jiàn):利用優(yōu)化后的YOLO v3算法對(duì)圖像壓縮和歸一化處理后的具有不同尺寸的圖像樣本進(jìn)行推理,推理時(shí)間均在100 ms以?xún)?nèi)。這表明針對(duì)算法的網(wǎng)絡(luò)壓縮和剪枝優(yōu)化使算法更加輕量,從而有效地保證了算法推理的實(shí)時(shí)性,有助于其在視頻監(jiān)控終端上的應(yīng)用。

4.2.2 細(xì)粒度分類(lèi)結(jié)果

針對(duì)細(xì)粒度分類(lèi)的測(cè)試主要是圍繞作業(yè)人員的穿戴屬性進(jìn)行的。為了進(jìn)行細(xì)粒度分類(lèi),首先利用粗粒度檢測(cè)對(duì)樣本進(jìn)行處理,將檢測(cè)到存在作業(yè)人員的樣本作為細(xì)粒度分類(lèi)網(wǎng)絡(luò)的輸入,進(jìn)行作業(yè)人員是否佩戴安全帽和是否穿著工作服的識(shí)別分類(lèi),最終將檢測(cè)結(jié)果打上標(biāo)簽并輸出。在細(xì)粒度分類(lèi)算法中,主要以準(zhǔn)確率為考核指標(biāo)。檢測(cè)分類(lèi)的效果如圖2所示,圖2中左上角的數(shù)據(jù)代表檢測(cè)到的作業(yè)人員佩戴安全帽和穿著工作服的概率,其預(yù)測(cè)準(zhǔn)確率達(dá)到了現(xiàn)場(chǎng)應(yīng)用的要求。

圖2 細(xì)粒度分類(lèi)識(shí)別效果Fig.2 Fine-grained classification results on operators

5 結(jié)束語(yǔ)

本文在介紹當(dāng)前變電站視頻監(jiān)控系統(tǒng)應(yīng)用現(xiàn)狀及技術(shù)需求的基礎(chǔ)上,分析了傳統(tǒng)目標(biāo)檢測(cè)方法在變電站目標(biāo)檢測(cè)上存在的問(wèn)題,繼而提出了采用基于深度學(xué)習(xí)的YOLO v3優(yōu)化方法??紤]到在視頻監(jiān)控終端上提供前端推理的需求,針對(duì)變電站關(guān)鍵目標(biāo)粗粒度檢測(cè)和細(xì)粒度分類(lèi)的實(shí)現(xiàn)方案分別進(jìn)行了優(yōu)化設(shè)計(jì)。實(shí)驗(yàn)結(jié)果表明:優(yōu)化后的YOLO v3算法在粗粒度檢測(cè)上相比較于優(yōu)化前的YOLO v3算法在性能上有了整體提升,而其推理速度能夠支持其在前端的應(yīng)用;而結(jié)合獨(dú)熱編碼、網(wǎng)絡(luò)壓縮與損失函數(shù)優(yōu)化的細(xì)粒度分類(lèi)方法能夠?qū)崿F(xiàn)對(duì)相同對(duì)象不同屬性類(lèi)別的準(zhǔn)確分類(lèi)。

下一步的工作是進(jìn)一步擴(kuò)展目標(biāo)檢測(cè)的對(duì)象,在構(gòu)建具備更強(qiáng)分類(lèi)能力與檢測(cè)精度的深度卷積神經(jīng)網(wǎng)絡(luò)模型的同時(shí)保持其前端推理速度,并在具備專(zhuān)用人工智能芯片的智能視頻終端上開(kāi)展集成驗(yàn)證。

猜你喜歡
粗粒度細(xì)粒度變電站
一種端到端的加密流量多分類(lèi)粗粒度融合算法*
融合判別性與細(xì)粒度特征的抗遮擋紅外目標(biāo)跟蹤算法
細(xì)粒度的流計(jì)算執(zhí)行效率優(yōu)化方法
基于卷積神經(jīng)網(wǎng)絡(luò)的粗粒度數(shù)據(jù)分布式算法
關(guān)于變電站五防閉鎖裝置的探討
電子制作(2018年8期)2018-06-26 06:43:34
在線(xiàn)評(píng)論情感分析研究綜述
基于雙線(xiàn)性卷積網(wǎng)絡(luò)的細(xì)粒度圖像定位
超高壓變電站運(yùn)行管理模式探討
電子制作(2017年8期)2017-06-05 09:36:15
支持細(xì)粒度權(quán)限控制且可搜索的PHR云服務(wù)系統(tǒng)
基于公共池自適應(yīng)遷移策略的并行遺傳算法
房山区| 浦东新区| 西充县| 金塔县| 措勤县| 霞浦县| 吉木萨尔县| 遂平县| 宁晋县| 小金县| 麟游县| 法库县| 璧山县| 武乡县| 桦南县| 徐州市| 宁化县| 高淳县| 青冈县| 高唐县| 定远县| 馆陶县| 留坝县| 瑞金市| 通道| 仁寿县| 淮安市| 保定市| 诸城市| 威宁| 巴东县| 龙泉市| 德格县| 沿河| 平邑县| 伊吾县| 安义县| 济阳县| 肥东县| 铁岭市| 平泉县|