王劉旺 鄭禮洋 葉曉桐 郭雪強(qiáng)
摘 要:在建筑、通信、電力等工程行業(yè)中,作業(yè)人員需要頻繁執(zhí)行室外作業(yè)。由于室外環(huán)境復(fù)雜,許多運維工作存在來自高壓、高空、深坑等因素的高風(fēng)險。安全事故一旦發(fā)生,將造成巨大的人員和財產(chǎn)損失。因此,需要在作業(yè)過程中對作業(yè)人員進(jìn)行身份核驗,以方便監(jiān)督。然而,在傳統(tǒng)的監(jiān)督方式中,作業(yè)現(xiàn)場的人員管理和行為管控完全依靠人工核查,監(jiān)控視頻也依賴人工看守,無法做到人員身份實時核驗以及對非作業(yè)人員入場的有效預(yù)警。針對室外作業(yè)場景中的作業(yè)人員身份識別,目前的研究方法大多基于人臉識別。人臉識別方法能夠在作業(yè)人員臉部信息清晰且完整時準(zhǔn)確識別出其身份信息。然而,當(dāng)存在遮擋,以及受檢測距離、檢測角度等因素影響時,會造成臉部信息不完全或者模糊,導(dǎo)致采用人臉識別方法難以準(zhǔn)確識別出作業(yè)人員的身份。
步態(tài)特征是一種描述行走方式的復(fù)雜行為特征,包括腳的觸地時間、離地時間和人體高度、雙手?jǐn)[動幅值等。相比人臉識別,步態(tài)特征識別有以下優(yōu)點:第一,步態(tài)識別適用的檢測距離更遠(yuǎn),而人臉特征隨著檢測距離的增加識別難度明顯上升;第二,步態(tài)特征識別是非主動識別,現(xiàn)場作業(yè)人員幾乎隨時隨地處于行走狀態(tài),而人臉識別需要識別對象正對檢測裝置;第三,步態(tài)特征具有較強(qiáng)的特異性,不像人臉特征較易被模仿、修改。不過,單獨采用步態(tài)特征進(jìn)行識別,雖然在作業(yè)人員運動時可以捕捉體態(tài)信息進(jìn)而較為準(zhǔn)確地對其進(jìn)行身份核驗,但是無法對靜態(tài)的作業(yè)人員進(jìn)行身份核驗。
針對此問題,提出了一種多特征融合的身份核驗方法,結(jié)合步態(tài)與人臉等多特征進(jìn)行識別,不受衣著、環(huán)境等外在因素的干擾,可以有效提高身份核驗的準(zhǔn)確率。提出的融合人臉特征和步態(tài)特征的多特征身份核驗方法包括身份注冊階段、訓(xùn)練階段與測試驗證階段。身份注冊階段,人工標(biāo)注人臉與步態(tài)信息,并錄入人員信息庫;訓(xùn)練階段,首先利用相關(guān)網(wǎng)絡(luò)提取視頻中圖像序列的步態(tài)輪廓圖與人臉區(qū)域,然后利用深度學(xué)習(xí)網(wǎng)絡(luò)模型提取相關(guān)特征,構(gòu)建融合的特征向量與身份ID間的關(guān)系;測試階段,首先判斷圖像中有無清晰人臉,如果有則使用多特征融合識別方法,否則僅通過步態(tài)特征進(jìn)行特征匹配進(jìn)而完成身份核驗。結(jié)果表明,多特征融合方法在中科院自動化所的CASIA-A數(shù)據(jù)集上的分類準(zhǔn)確率達(dá)到99.17%,數(shù)據(jù)集包含的3個視角下的分類準(zhǔn)確率分別為98.75%,100%和98.75%。因此,所提方法可以有效提高單人場景中的身份識別準(zhǔn)確率,是在室外作業(yè)場景中進(jìn)行身份核驗的一種有效方法。
關(guān)鍵詞:模式識別;身份核驗;多特征融合;室外作業(yè)場景;人臉識別;步態(tài)特征
中圖分類號:TN958.98?? 文獻(xiàn)標(biāo)識碼:A
doi:10.7535/hbkd.2021yx06011
Identity verification method based on face and gait features in outdoor operation scenes
WANG Liuwang1,ZHENG Liyang2,YE Xiaotong2,GUO Xueqiang2
(1.State Grid Zhejiang Electric Power Company Limited Research Institute,Hangzhou,Zhejiang 310014,China;2.College of Control Science and Engineering,Zhejiang University,Hangzhou,Zhejiang 310027,China)
Abstract:In construction,communications,power and other engineering industries,workers need to perform outdoor operations frequently.Due to the complex outdoor environment,there are high risks from factors like high voltage,high altitude,and deep pits in many operation and maintenance tasks.Once an accident happens,huge losses in personnel and property would be caused.Therefore,it is necessary to verify identities of operators during the operation process for supervision.However,in the traditional supervision method,the personnel management and behavior control in the operation scenes rely entirely on manual verification,and the surveillance video also relies on manual guards.It is impossible to achieve real-time verification of personnel identities and effective warning of the entry of non operators.For the identification of workers in outdoor work scenes,most of the current research methods are based on the face recognition.Face recognition method can accurately identify the identity information of a worker when his facial information is clear and complete.However,when the facial information is incomplete or fuzzy because of occlusion,long detection distance or the inclined detection angle,it will be difficult to accurately identify the operator's identity with the face recognition method.
Gait feature is a complex behavioral feature of a walking person,including the time the foot touch and leave the ground,the human height,and the swing amplitude of hands.Compared with face recognition,gait recognition has the following advantages.Firstly,the distance applicable to gait recognition is longer,while the recognition difficulty of facial features increases as the detection distance increases.Secondly,gait feature recognition is non-active,and workers on the operation scene are walking almost anytime and anywhere,but face recognition expects the recognition object to face the detection device.Thirdly,gait features have strong specificity and are difficult to be imitated and modified.Nevertheless,gait information cannot be used alone for identity verification of workers in static poses.
To solve the above problems,a multi-feature fusion identity verification method was proposed,which combined multiple features such as gait and face features for recognition without being interfered by external factors such as clothing and environment.This method effectively improved the accuracy of identity verification.This multi-feature identity verification method,combining face recognition and gait recognition,included identity registration phase,training phase and test phase.In the registration phase,the face and gait information were manually marked and recorded in the database.In the training phase,the correlated network was used to extract the gait contour map and face region of the image sequence in the video.Then the deep learning network model was used to extract relevant features in order to build the relationship between the fused feature vector and the identity ID.In the test phase,whether there is a clear face in the image was judged.If so,the multi-feature fusion recognition method was used.Otherwise,only the gait feature for feature matching was used to complete the identity verification.The results show that the proposed multi-feature fusion method achieves the classification accuracy of 99.17% on the CASIA-A data set of the Institute of Automation,Chinese Academy of Sciences.The classification accuracy is 98.75%,100% and 98.75% in the three views included in the dataset.Therefore,the proposed method can effectively improve the accuracy of identification in single-person scenes,thus providing an effective scheme for identity verification in outdoor work scenes.
Keywords:
pattern recognition;identity verification;multi feature fusion;outdoor operation scenes;face recognition;gait features
視頻監(jiān)控的普及和人工智能技術(shù)的發(fā)展,使得機(jī)器視覺技術(shù)在室外作業(yè)現(xiàn)場安全管控中的應(yīng)用越來越廣泛[1],主要包括作業(yè)人員安全著裝檢測[2]、身份識別與驗證[3]、目標(biāo)檢測與跟蹤[4]、異常行為識別[5-7]等方面。其中,作業(yè)人員的身份識別與驗證是安全管控中的重要一環(huán)。
出于安防與監(jiān)管需求,室外作業(yè)場景中需要對人員進(jìn)行身份核驗。部分室外作業(yè)中因人員著裝特殊且場景復(fù)雜,較難實現(xiàn)準(zhǔn)確的身份識別?,F(xiàn)有的識別方法大多基于人臉識別技術(shù)。人臉識別方法雖然發(fā)展成熟、準(zhǔn)確率高,但是易受到服裝遮擋、檢測距離以及檢測角度等因素的影響。相比于人臉特征,步態(tài)特征是一種更為穩(wěn)定、可靠的生物特征??紤]到人臉和步態(tài)特征的特點,提出一種融合二者的多特征身份核驗方法。
1 方法概述
1.1 多特征融合身份的識別框架
基于人臉與步態(tài)的多特征融合身份識別框架,主要分為數(shù)據(jù)采集與標(biāo)注、算法模型訓(xùn)練、測試使用3個階段。
1)數(shù)據(jù)采集與標(biāo)注 通過在應(yīng)用場景下采集相應(yīng)規(guī)模的視頻監(jiān)控數(shù)據(jù)構(gòu)建數(shù)據(jù)集。標(biāo)注時,首先使用目標(biāo)檢測算法YOLOv3[9]提取出包含行人的圖像框,該算法由于具有高精度和高速度的優(yōu)勢,因而在室外作業(yè)現(xiàn)場中常用于實時計算機(jī)視覺檢測[10]。本文使用YOLOv3算法對單幀圖像中不同大小的行人目標(biāo)進(jìn)行檢測,然后通過Mask R-CNN[11]算法進(jìn)行前景分割,以像素級別精確分割出人像,提取每幀圖像的二值化輪廓圖。通過上述算法得到圖片對應(yīng)的輪廓圖,用于構(gòu)建步態(tài)識別的數(shù)據(jù)集,數(shù)據(jù)集中每個訓(xùn)練、測試樣本為包含多幀的連續(xù)序列。采集步態(tài)數(shù)據(jù)的同時進(jìn)行人臉檢測,即獲取行人圖像框后進(jìn)一步使用輕量級人臉檢測模型ultra-light-fast-generic-face-detector[12]檢測人臉,該模型是針對邊緣計算設(shè)備設(shè)計的輕量人臉檢測模型,具有檢測速度快、精度較高的特點。
2)算法模型訓(xùn)練 因人臉特征具有通用性,所以訓(xùn)練部分側(cè)重于對步態(tài)特征的匹配建模。算法模型在GaitSet[13]步態(tài)識別網(wǎng)絡(luò)的基礎(chǔ)上加入特征壓縮模塊,可以更加有效地提取步態(tài)特征,并與人臉識別相結(jié)合。人臉識別采取InceptionResnetV1[14]網(wǎng)絡(luò)在Vggface數(shù)據(jù)集[15]上的預(yù)訓(xùn)練模型,模型在訓(xùn)練過程中同時約束人臉和步態(tài)特征與身份表征信息的空間距離。
3)測試使用 利用訓(xùn)練好的算法模型同時提取一段序列圖片的步態(tài)與人臉特征(如無法檢測人臉,人臉特征向量為空),而后將特征輸入到所設(shè)計的身份分類器中,優(yōu)先采用人臉特征的分類結(jié)果。測試時的多特征融合身份識別框架如圖1所示。
1.2 數(shù)據(jù)集的創(chuàng)建
CASIA-A數(shù)據(jù)集創(chuàng)建于2001-12-10,包含20個人的室外行走數(shù)據(jù),每個行人有12個圖像序列、3個行走方向(與圖像平面分別成0°,45°,90°),每個方向有4個圖像序列。每個序列的長度隨著行人行走的速度變化而變化,每個序列的幀數(shù)在37~127之間。整個數(shù)據(jù)庫包含13 139副RGB圖像,約2.2 GB。當(dāng)圖像中的測試者正向走來且人臉清晰時,可檢測并提取人臉信息,CASIA-A數(shù)據(jù)集示例見圖2。
1.3 人臉特征的提取
使用ultra-light-fast-generic-face-detector算法檢測出圖像中的人臉部分,提取包含人臉的區(qū)域后,使用InceptionResnetV1在Vggface上的預(yù)訓(xùn)練模型進(jìn)行人臉特征提取。待比對的已知身份的人臉數(shù)據(jù)也采用相同的數(shù)據(jù)預(yù)處理方法,即將圖像大小縮放至256×256,并裁剪至224×224像素大小,而后進(jìn)行圖形歸一化處理。
1.4 步態(tài)特征的提取
步態(tài)識別是一種新興的生物特征識別技術(shù),通過人們走路的姿態(tài)進(jìn)行身份識別,圖3展示的是一個完整周期的步態(tài)輪廓圖。與其他的生物識別技術(shù)相比,步態(tài)識別具有非接觸、遠(yuǎn)距離、無需主動配合、不容易偽裝等優(yōu)點。在智能視頻監(jiān)控和安防領(lǐng)域,步態(tài)識別較其他生物識別(人臉識別、虹膜識別等)方法更具優(yōu)勢。
基于深度學(xué)習(xí)進(jìn)行步態(tài)識別,是目前步態(tài)識別研究領(lǐng)域的趨勢。利用深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)較強(qiáng)的學(xué)習(xí)能力,可以更為有效地提取身份特征信息,從而提高步態(tài)識別技術(shù)在處理跨視角、復(fù)雜狀態(tài)(包含攜帶物品與穿著遮擋性衣物)下的識別精度。按照所處理數(shù)據(jù)的屬性不同,步態(tài)識別方法可以分為基于時序輪廓圖的方法和基于特征表征模板的方法。
基于步態(tài)特征的身份核驗包含步態(tài)輪廓圖提取、步態(tài)特征提取以及特征比較3個步驟。其中步態(tài)輪廓圖提取過程如圖4和圖5所示。當(dāng)步態(tài)輪廓提取完成后,就可以利用訓(xùn)練好的深度學(xué)習(xí)模型對輪廓序列圖進(jìn)行步態(tài)特征提取,與已注冊的步態(tài)特征數(shù)據(jù)進(jìn)行對比,完成身份核驗。
為了更有效地從步態(tài)輪廓中提取信息,網(wǎng)絡(luò)骨架采用業(yè)界較為認(rèn)可的網(wǎng)絡(luò)模型GaitSet。網(wǎng)絡(luò)輸入數(shù)據(jù)為一段固定序列數(shù)量的步態(tài)輪廓圖,輪廓圖經(jīng)過GaitSet網(wǎng)絡(luò)后生成初級的步態(tài)特征向量。由GaitSet輸出的特征一方面利用三元損失函數(shù)Triplet Loss[16]約束樣本空間距離,另一方面接入所設(shè)計的特征重映射網(wǎng)絡(luò),用于與人臉特征的聯(lián)合匹配。
2 多特征識別網(wǎng)絡(luò)
2.1 框架設(shè)計
基于人臉與步態(tài)的多特征識別的網(wǎng)絡(luò)架構(gòu)如圖6所示。輸入數(shù)據(jù)為一段場景下的視頻流數(shù)據(jù),利用人臉與步態(tài)檢測分割方法提取步態(tài)輪廓圖與人臉部分區(qū)域后,分別進(jìn)行步態(tài)、人臉特征提取,而后進(jìn)行特征融合與相關(guān)約束。
2.2 訓(xùn)練流程
對于一段待識別的行走序列,通過人臉檢測算法ultra-light-fast-generic-face-detector提取出序列中包含的有效人臉信息圖片,若無有效人臉信息則后續(xù)的人臉特征為空。然后,利用InceptionResnetV1模型對人臉圖片進(jìn)行人臉特征提取,將提取后的特征輸入全連接層,將其映射到隱層特征空間,人臉特征向量的最終維度為256。同時,通過Mask R-CNN算法提取序列的步態(tài)輪廓圖信息。步態(tài)模型訓(xùn)練偽代碼如表1所示。
對于提取輪廓后的步態(tài)輪廓圖,基于GaitSet提取初步步態(tài)特征并利用三元損失函數(shù)約束樣本空間距離。其中三元損失函數(shù)為
Ltriplet=max(‖f(A)-f(P)‖2-‖f(A)-f(N)‖2+α, 0)。(1)
式中:A為錨點樣本特征;P為與A相同類別的正樣本特征;N為與A不同類別的負(fù)樣本特征;α為調(diào)整正負(fù)樣本對間距離的閾值系數(shù);f為特征映射函數(shù)。步態(tài)特征重映射網(wǎng)絡(luò)由批歸一化層[17]、Dropout層[18]以及全連接層構(gòu)成,將由GaitSet輸出的62×256特征重映射為256維度大小的特征。
對于提取的人臉與步態(tài)特征,采取維度拼接構(gòu)成最終融合的512維度聯(lián)合特征表征向量,實現(xiàn)特征融合。通過分類網(wǎng)絡(luò)后,利用交叉熵?fù)p失函數(shù)約束聯(lián)合特征:
Lce=-1M∑Mi=1yilogy︿i。(2)
式中:yi為圖片i的標(biāo)簽;y︿i為通過網(wǎng)絡(luò)預(yù)測出的身份屬性;M為一個訓(xùn)練批次的樣本數(shù)量。
最終的損失函數(shù)為三元損失函數(shù)與交叉熵?fù)p失函數(shù)的加和,即
Ltotal=Ltriplet+Lce。(3)
3 參數(shù)設(shè)置及結(jié)果分析
3.1 參數(shù)設(shè)置
本文所有的實驗均在配備了i5-3570處理器、NVDIA RTX 3060Ti顯卡、16 G內(nèi)存的計算機(jī)上進(jìn)行。在 Python3.6環(huán)境下用Pytorch框架實現(xiàn)模型算法,部分實驗參數(shù)設(shè)置見表2。
3.2 結(jié)果分析
將數(shù)據(jù)集按照4種圖像序列分為4個交叉訓(xùn)練、驗證集,每個子集包含60個步態(tài)序列,其中包含0°,45°和90°圖像各20張。結(jié)果如表3所示,4個交叉驗證集上的分類正確率大致相當(dāng),僅用步態(tài)特征的平均分類正確率為98.33%,加入人臉后的平均分類正確率為99.17%。
為了更好地體現(xiàn)本文所提方法的有效性,進(jìn)行了單視角下與其他經(jīng)典步態(tài)識別方法的對比實驗,結(jié)果如表4所示。由表4可以看出,本文所提出的步態(tài)識別方法在3個角度上的分類正確率均超越現(xiàn)有的其他方法,其中GRHT[21]模型利用了霍夫變換和主成分分析等機(jī)器學(xué)習(xí)方法,在CASIA-A數(shù)據(jù)集上達(dá)到了98.33%的識別準(zhǔn)確率。而本文結(jié)合人臉、步態(tài)的多特征融合方法在此水平上進(jìn)一步提高了準(zhǔn)確率,提升幅度為0.84%。
對于所使用的網(wǎng)絡(luò)與損失函數(shù),進(jìn)行了如表5所示的對比研究,可見融合2種損失函數(shù),可以使網(wǎng)絡(luò)輸出的步態(tài)特征與標(biāo)簽建立較好的映射關(guān)系,得到更高的識別準(zhǔn)確度。
為了更好地體現(xiàn)訓(xùn)練后模型對于不同身份圖片的區(qū)分能力,將模型在測試集圖片上生成的高維特征通過t-SNE[22]方法進(jìn)行非線性降維并可視化,如圖7所示。不同顏色的點代表不同身份的個體,模型訓(xùn)練前步態(tài)特征分布如圖7 a)所示,不同身份人員的步態(tài)特征無明顯區(qū)分。模型訓(xùn)練后,相同身份的特征數(shù)據(jù)的類內(nèi)距離減小而聚成一簇,不同身份的特征數(shù)據(jù)被分成多個簇,有較大的類間距,如圖7 b)所示。
4 結(jié) 語
1)多特征融合身份核驗方法有效融合了人臉與步態(tài)信息,對于行走的包含人臉視頻的單人場景可以實現(xiàn)較高的識別準(zhǔn)確率,為室外作業(yè)場景中的身份核驗提供了有效方法。
2)在中科院CASIA-A數(shù)據(jù)集上實現(xiàn)了99.17%的多分類準(zhǔn)確率,超過了現(xiàn)有其他算法模型,證明了本文提出的步態(tài)識別網(wǎng)絡(luò)模塊與多特征融合身份識別框架的有效性。實際應(yīng)用中可應(yīng)用類似數(shù)據(jù)處理及特征提取方法,達(dá)到相近的身份核驗準(zhǔn)確率。
3)將步態(tài)特征與人臉特征結(jié)合應(yīng)用于室外場景的身份識別,既打破了長期以來識別領(lǐng)域特征的單一性,又因使用雙損失函數(shù)約束特征而保證了特征提取的有效性。
本研究方法雖有效提高了室外作業(yè)場景中人員身份核驗的準(zhǔn)確度,但仍存在一定待優(yōu)化、改進(jìn)之處。首先,當(dāng)前用于進(jìn)行身份核驗的數(shù)據(jù)集場景大多為光照充足、行人姿態(tài)清晰的場景,但在夜間室外作業(yè)場景中,難以使用普通RGB攝像頭拍攝行人姿態(tài)清晰可見的圖像,可以考慮使用紅外線攝像頭拍攝紅外圖像,用于本文所提方法中;其次,當(dāng)前識別任務(wù)適用于單個目標(biāo)的身份識別,不能同時對多個目標(biāo)進(jìn)行身份識別。在多目標(biāo)識別場景中,可以分別對不同的作業(yè)人員執(zhí)行本文所提出的身份核驗方法,利用排他性(同一個場景中不可能出現(xiàn)2個同樣身份的人)和連續(xù)性(同一個人的身份不應(yīng)跳變)比較每個行人的身份概率,進(jìn)而得出身份核驗結(jié)果。未來可將本文所提方法與現(xiàn)場安監(jiān)設(shè)備結(jié)合,實現(xiàn)室外作業(yè)場景的實時身份核驗。
參考文獻(xiàn)/References:
[1] 王劉旺,周自強(qiáng),林龍,等.人工智能在變電站運維管理中的應(yīng)用綜述[J].高電壓技術(shù),2020,46(1):1-13.
WANG Liuwang,ZHOU Ziqiang,LIN Long,et al.Review on artificial intelligence in substation operation and maintenance management[J].High Voltage Engineering,2020,46(1):1-13.
[2] 肖體剛,蔡樂才,高祥,等.改進(jìn)YOLOv3的安全帽佩戴檢測方法[J].計算機(jī)工程與應(yīng)用,2021,57(12):216-223.
XIAO Tigang,CAI Lecai,GAO Xiang,et al.Improved YOLOv3 helmet wearing detection method[J].Computer Engineering and Applications,2021,57(12):216-223.
[3] 陳曉江,龍震岳,曾紀(jì)鈞.基于人工智能算法的作業(yè)現(xiàn)場人員設(shè)備資質(zhì)識別技術(shù)研究[J/OL].電測與儀表.[2021-06-22].http://kns.cnki.net/kcms/detail/23.1202.TH.20210621.1803.002.html.
CHEN Xiaojiang,LONG Zhenyue,ZENG Jijun.Research on equipment qualification recognition technology of job site personnel based on artificial intelligence algorithm[J/OL].Electrical Measurement & Instrumentation.[2021-06-22].http://kns.cnki.net/kcms/detail/23.1202.TH.20210621.1803.002.html.
[4] 林磊,錢平,董毅,等.基于深度學(xué)習(xí)的變電站環(huán)境下行人檢測方法研究[J].浙江電力,2018,37(7):68-73.
LIN Lei,QIAN Ping,DONG Yi,et al.Research on substation pedestrian detection method based on deep learning[J].Zhejiang Electric Power,2018,37(7):68-73.
[5] 劉培貞,賈玉祥,夏時洪.一種面向電力運維作業(yè)的LSTM動作識別方法[J].系統(tǒng)仿真學(xué)報,2019,31(12):2837-2844.
LIU Peizhen,JIA Yuxiang,XIA Shihong.An LSTM-based motion recognition method for power operation andmaintenance[J].Journal of System Simulation,2019,31(12):2837-2844.
[6] 丘浩,張煒,彭博雅,等.基于YOLOv3的特定電力作業(yè)場景下的違規(guī)操作識別算法[J].電力科學(xué)與技術(shù)學(xué)報,2021,36(3):195-202.
QIU Hao,ZHANG Wei,PENG Boya,et al.Illegaloperation recognition algorithm based on YOLOv3 in specific poweroperation scenario[J].Journal of Electric Power Science and Technology,2021,36(3):195-202.
[7] 常政威,彭倩,陳纓.基于機(jī)器學(xué)習(xí)和圖像識別的電力作業(yè)現(xiàn)場安全監(jiān)督方法[J].中國電力,2020,53(4):155-160.
CHANG Zhengwei,PENG Qian,CHEN Ying.Safety supervision method for power operation site based on machine learning and image recognition[J].Electric Power,2020,53(4):155-160.
[8] WANG Y,YU S Q,WANG Y H,et al.GaitRecognition Based on Fusion of Multi-view Gait Sequences[M].Berlin:Springer-Verlag Berlin Heidelberg,2005.
[9] REDMON J,F(xiàn)ARHADI A.YOLOv3:An Incremental Improvement[DB/OL].https://arxiv.org/abs/1804.02767v1,2021-07-13.
[10]睢丙東,張湃,王曉君.一種改進(jìn)YOLOv3的手勢識別算法[J].河北科技大學(xué)學(xué)報,2021,42(1):22-29
SUI Bingdong,ZHANG Pai,WANG Xiaojun.A gesture recognition algorithm based on improved YOLOv3[J].Journal of Hebei University of Science and Technology,2021,42(1):22-29.
[11]HE K M,GKIOXARI G,DOLLR P,et al.Mask R-CNN[C]//2017 IEEE International Conference on Computer Vision(ICCV).[S.l.]:IEEE,2017:2980-2988.
[12]LINZAE R.Ultra-light-fast-generic-face-detector-1MB[DB/OL].https://github.com/Linzaer/Ultra-Light-Fast-Generic-Face-Detector-1MB,2021-07-13.
[13]CHAOH Q,HE Y W,ZHANG J P,et al.GaitSet:Regarding gait as a set for cross-view gait recognition[J].Proceedings of the AAAI Conference on Artificial Intelligence,2019,33(1):8126-8133.
[14]SZEGEDY C,IOFFE S,VANHOUCKE V,et al.Inception-v4,inception-ResNet and the impact of residual connections on learning[C]//Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence.[S.l.]:AAAI Press,2017:4278-4284.
[15]HUANG G B,RAMESH M,BERG T,et al.Labeled Faces in the Wild:A Database for Studying Face Recognition in Unconstrained Environments[R/OL].https://people.cs.umass.edu/~elm/papers/lfw.pdf,2021-07-13.
[16]HERMANS A,BEYER L,LEIBE B.In Defense of the Triplet Loss for Person Re-identification[DB/OL].https://arxiv.org/abs/1703.07737v2,2021-07-13.
[17]IOFFE S,SZEGEDY C.Batch normalization:Accelerating deep network training by reducing internal covariate shift[C]//Proceedings of the 32nd International Conference on International Conference on Machine Learning.[S.l.]:JMLR,2015:448-456.
[18]SRIVASTAVA N,HINTON G,KRIZHEVSKY A,et al.Dropout:A simple way to prevent neural networks fromoverfitting[J].Journal of Machine Learning Research,2014,15(1):1929-1958.
[19]HAN J,BHANU B.Statistical feature fusion for gait-based human recognition[C]//Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition.[S.l.]:IEEE,2004:I-II.
[20]顧磊.基于圖像序列的人體步態(tài)識別方法研究[D].南京:南京理工大學(xué),2008.
GU Lei.Research on Human Gait Recognition Methods Based on Image Sequences[D].Nanjing:Nanjing University of Science and Technology,2008.
[21]LIU L F,JIA W,ZHU Y H.GaitRecognition using Hough Transform and Principal Component Analysis[M] Berlin:Springer-Verlag Berlin Heidelberg,2009:363-370.
[22]CIESLAK M C,CASTELFRANCO A M,RONCALLI V,et al.t-distributed stochastic neighbor embedding (t-SNE):A tool for eco-physiological transcriptomic analysis[J].Marine Genomics,2020,51.doi:10.1016/j.margen.2019.100723.
收稿日期:2021-07-18;修回日期:2021-10-24;責(zé)任編輯:張士瑩
基金項目:國網(wǎng)浙江省電力有限公司科技資助項目(5211DS19002K);國家自然科學(xué)基金基礎(chǔ)科學(xué)中心資助項目(62088101)
第一作者簡介:王劉旺(1988—),男,安徽安慶人,高級工程師,博士,主要從事人工智能在電力系統(tǒng)應(yīng)用方面的研究。
E-mail:mylovelysada@foxmail.com
王劉旺,鄭禮洋,葉曉桐,等.
基于人臉與步態(tài)特征的室外作業(yè)場景身份核驗方法
[J].河北科技大學(xué)學(xué)報,2021,42(6):635-642.
WANG Liuwang,ZHENG Liyang,YE Xiaotong,et al.
Identity verification method based on face and gait features in outdoor operation scenes
[J].Journal of Hebei University of Science and Technology,2021,42(6):635-642.