国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)型加性余弦間隔損失函數(shù)的深度學(xué)習(xí)人臉識(shí)別*

2020-01-02 06:21章東平陳思瑤李建超周志洪孫水發(fā)
傳感技術(shù)學(xué)報(bào) 2019年12期
關(guān)鍵詞:加性余弦人臉

章東平,陳思瑤,李建超,周志洪,孫水發(fā)

(1.中國(guó)計(jì)量大學(xué)信息工程學(xué)院,浙江省電磁波信息技術(shù)與計(jì)量檢測(cè)重點(diǎn)實(shí)驗(yàn)室,杭州 310018;2.上海市信息安全綜合管理技術(shù)研究重點(diǎn)實(shí)驗(yàn)室,上海 200000;3.三峽大學(xué)計(jì)算機(jī)與信息學(xué)院,湖北 宜昌 443002)

近年來(lái),深度學(xué)習(xí)不斷發(fā)展,研究者們提出許多新方法為人臉識(shí)別技術(shù)提供了新的理論依據(jù),翻開(kāi)了人臉識(shí)別領(lǐng)域的新篇章。Facebook提出的DeepFace方法[1],使用4 000個(gè)人200萬(wàn)的大規(guī)模訓(xùn)練數(shù)據(jù)訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò),在著名的人臉測(cè)試數(shù)據(jù)集LFW(Labeled Faces in the Wild)[2]上第一次取得了逼近人類(lèi)的識(shí)別精度。香港中文大學(xué)的湯曉鷗團(tuán)隊(duì)提出的DeepID系列[3-5],使用25個(gè)網(wǎng)絡(luò)模型,并在網(wǎng)絡(luò)結(jié)構(gòu)上同時(shí)考慮分類(lèi)損失和驗(yàn)證損失等,顯著提升了人臉識(shí)別效果,在LFW上超過(guò)了人類(lèi)的識(shí)別精度。Google提出了FaceNet網(wǎng)絡(luò)結(jié)構(gòu)[6],該網(wǎng)絡(luò)結(jié)構(gòu)擁有更深的網(wǎng)絡(luò)層,共27層,其次使用800萬(wàn)人共2億的超大規(guī)模人臉數(shù)據(jù)庫(kù)訓(xùn)練該網(wǎng)絡(luò)結(jié)構(gòu),且引入Triplet損失函數(shù),使得模型的學(xué)習(xí)能力更高效,在LFW等人臉測(cè)試集上都取得了當(dāng)時(shí)最好的效果。微軟亞洲研究院視覺(jué)計(jì)算團(tuán)隊(duì)提出ResNet[7],解決了網(wǎng)絡(luò)過(guò)深而導(dǎo)致的網(wǎng)絡(luò)退化問(wèn)題,從而能夠通過(guò)單純地增加網(wǎng)絡(luò)深度,來(lái)提高網(wǎng)絡(luò)性能。在Resnet網(wǎng)絡(luò)表現(xiàn)力十分優(yōu)秀的情況下,要提高人臉識(shí)別模型的性能,除了優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),修改損失函數(shù)是另一種選擇,優(yōu)化損失函數(shù)可以使模型從現(xiàn)有數(shù)據(jù)中學(xué)習(xí)到更多有價(jià)值的信息。

人臉識(shí)別根據(jù)訓(xùn)練數(shù)據(jù)與測(cè)試數(shù)據(jù)之間有無(wú)身份重疊可分為:閉集人臉識(shí)別和開(kāi)集人臉識(shí)別。閉集人臉識(shí)別相對(duì)于開(kāi)集人臉識(shí)別更容易一些,僅需要對(duì)人臉圖像進(jìn)行分類(lèi),而開(kāi)集人臉識(shí)別存在人臉比對(duì)問(wèn)題,需要使用度量學(xué)習(xí)方法,要求類(lèi)間距離大于類(lèi)內(nèi)距離[8]。針對(duì)閉集人臉識(shí)別和開(kāi)集人臉識(shí)別,人臉識(shí)別損失函數(shù)分為兩大類(lèi),一類(lèi)是基于分類(lèi)的損失函數(shù),一類(lèi)是基于度量學(xué)習(xí)的損失函數(shù)?;诙攘繉W(xué)習(xí)的損失函數(shù)又分為兩類(lèi),一類(lèi)是基于歐式距離的損失函數(shù),例如Contrastive損失函數(shù)[9],中心損失函數(shù)[10]、Normface[11],Triplet損失函數(shù)等等;另一類(lèi)是基于余弦距離的損失函數(shù),例如乘性角度間隔損失函數(shù)[12]、加性余弦間隔損失函數(shù)[13]、加性角度間隔損失函數(shù)[14]等。加性余弦間隔損失函數(shù)僅通過(guò)將特征與目標(biāo)權(quán)重夾角的余弦值減去一個(gè)值,來(lái)達(dá)到減小類(lèi)內(nèi)距離的目的,并沒(méi)有直接對(duì)類(lèi)間距離進(jìn)行操作來(lái)拉大類(lèi)間距離。

為了解決上述問(wèn)題,本文在加性余弦間隔損失函數(shù)的基礎(chǔ)上提出改進(jìn)型加性余弦間隔損失函數(shù),通過(guò)在特征與目標(biāo)權(quán)重夾角的余弦值減去一個(gè)值,在特征與非目標(biāo)權(quán)重夾角的余弦值加一個(gè)值,達(dá)到減小類(lèi)內(nèi)距離,拉大類(lèi)間距離的目的。

1 改進(jìn)型加性余弦間隔損失函數(shù)

1.1 SoftMax損失函數(shù)

SoftMax損失函數(shù)常用于圖像分類(lèi),如式(1)所示:

(1)

式中:xi表示第i個(gè)樣本的特征,該樣本屬于第yi類(lèi);Wj表示權(quán)重矩陣的第j列;b表示偏置項(xiàng);n表示一個(gè)批次的樣本數(shù)目;C表示樣本類(lèi)別數(shù)。SoftMax損失函數(shù)僅考慮到樣本是否能正確分類(lèi),在增大類(lèi)間距離和縮小類(lèi)內(nèi)距離的問(wèn)題上有很大的優(yōu)化空間。

1.2 改進(jìn)型加性余弦間隔損失函數(shù)

1.2.1 權(quán)重歸一化

提出的改進(jìn)型加性余弦間隔損失函數(shù),在SoftMax損失函數(shù)基礎(chǔ)上,將SoftMax損失函數(shù)中的偏置項(xiàng)置為0;再將權(quán)重與特征的內(nèi)積操作WTx分解為‖W‖‖x‖cos(θ),可以看出,對(duì)于一個(gè)給定的特征x,則SoftMax損失函數(shù)是根據(jù)權(quán)重的模及權(quán)重與特征間夾角的余弦值進(jìn)行優(yōu)化,若強(qiáng)制將權(quán)重進(jìn)行歸一化,則類(lèi)別判斷僅依賴(lài)于權(quán)重與特征間的夾角,進(jìn)行權(quán)重歸一化操作的SoftMax損失函數(shù)為:

(2)

Guo Y D(2017)提出每個(gè)人臉身份對(duì)應(yīng)的權(quán)重的模和人臉身份的人臉圖片數(shù)量成正比[15],因此,權(quán)重歸一化操作,能夠一定程度上解決類(lèi)別不平衡問(wèn)題。

1.2.2 特征歸一化

將進(jìn)行權(quán)重歸一化操作的SoftMax損失函數(shù)再進(jìn)行特征歸一化操作得到如式(3)所示的損失函數(shù):

(3)

由于,特征的模與人臉圖像質(zhì)量有關(guān),高質(zhì)量人臉圖像特征的模大,低質(zhì)量人臉圖像特征的模小。在進(jìn)行特征歸一化操作后,特征模小的比特征模大的會(huì)有更大的梯度,所以在反向傳播過(guò)程中,網(wǎng)絡(luò)會(huì)對(duì)低質(zhì)量人臉圖片更大的關(guān)注。因此,特征歸一化操作適用于圖片質(zhì)量低的人臉識(shí)別任務(wù)。

1.2.3 改進(jìn)型加性余弦角度間隔損失函數(shù)

本文定義的間隔是使用在余弦值上,即在歸一化后的目標(biāo)分?jǐn)?shù)cosθyi上減去m/2,在歸一化后的非目標(biāo)分?jǐn)?shù)cosθj上加上m/2,得到:

(4)

(5)

改進(jìn)型加性余弦角度間隔損失函數(shù)如式(6)所示:

(6)

式中:n表示一個(gè)批次的樣本數(shù)目,C表示樣本類(lèi)別數(shù),s表示余弦系數(shù),m表示余弦間隔,θyi表示特征與目標(biāo)權(quán)重的夾角,θj表示特征與非目標(biāo)權(quán)重的夾角。

增加s的作用是為了網(wǎng)絡(luò)能夠集中表達(dá)能力區(qū)分困難樣本。s越小,網(wǎng)絡(luò)會(huì)傾向于區(qū)分簡(jiǎn)單樣本,當(dāng)s=1時(shí),在反向傳播過(guò)程中,簡(jiǎn)單樣本和困難樣本的梯度幾乎沒(méi)有差別。

改進(jìn)型加性余弦角度間隔損失函數(shù)與加性余弦角度間隔損失函數(shù)相比,不同之處在于,加性余弦角度間隔損失函數(shù)僅通過(guò)將特征與目標(biāo)權(quán)重夾角的余弦值減去一個(gè)值,來(lái)達(dá)到減小類(lèi)內(nèi)距離的目的,并沒(méi)有直接對(duì)類(lèi)間距離進(jìn)行操作來(lái)拉大類(lèi)間距離。而改進(jìn)型加性余弦角度間隔損失函數(shù)不僅通過(guò)將特征與目標(biāo)權(quán)重夾角的余弦值減去一個(gè)值,還通過(guò)將特征與非目標(biāo)權(quán)重夾角的余弦值加上一個(gè)值,從而達(dá)到增大類(lèi)間距離,減小類(lèi)內(nèi)距離的目的。

特征和權(quán)重夾角示意圖如圖1所示,加性余弦角度間隔損失函數(shù)只是令特征向量x1和權(quán)重矩陣第一列W1的夾角θ1盡量小,而改進(jìn)型加性余弦角度間隔損失函數(shù)不僅令θ1盡量小,還需要令特征向量x1和權(quán)重矩陣第二列W2的夾角θ2及特征向量x1和權(quán)重矩陣第三列W3的夾角θ3都盡量大。

圖1 特征與權(quán)重夾角示意圖

2 網(wǎng)絡(luò)結(jié)構(gòu)

在SphereFace中,作者采用網(wǎng)絡(luò)層數(shù)分別為4、10、20、36、64的殘差網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行人臉識(shí)別實(shí)驗(yàn),實(shí)驗(yàn)表明隨著網(wǎng)絡(luò)層數(shù)增加人臉識(shí)別性能越好,但是網(wǎng)絡(luò)層數(shù)越深耗費(fèi)越多的資源,所以本文采用20層的殘差網(wǎng)絡(luò)結(jié)構(gòu),如圖2所示,包括20個(gè)卷積層,2個(gè)全連接層,其中,每個(gè)卷積層后接Relu激活函數(shù)[16],每?jī)蓚€(gè)卷積層構(gòu)成一個(gè)殘差模塊,倒數(shù)第二個(gè)全連接層為特征層,維度為512維,最后一個(gè)全連接層維度為訓(xùn)練人臉數(shù)據(jù)的類(lèi)別數(shù)。

圖2 Resnet-20網(wǎng)絡(luò)結(jié)構(gòu)

3 實(shí)驗(yàn)

3.1 實(shí)驗(yàn)細(xì)節(jié)

采用CASIA數(shù)據(jù)集作為訓(xùn)練集,包含10575身份的439 456張圖片,對(duì)該數(shù)據(jù)集采用Mtcnn[17]進(jìn)行人臉檢測(cè)及關(guān)鍵點(diǎn)檢測(cè)再進(jìn)行校正成96×112的人臉圖像,將校正好的人臉圖像的RGB三個(gè)通道每個(gè)像素進(jìn)行歸一化處理,即減去127.5再除128。訓(xùn)練過(guò)程中,采用隨機(jī)梯度下降策略,batch size為128,weight_decay為0.000 5,學(xué)習(xí)率設(shè)為0.1,采用多分步策略,步長(zhǎng)分別為18 000,30 000,48 000,最大迭代次數(shù)為 50 000。采用深度學(xué)習(xí)框架Caffe[18]在NVIDIA Titan X 顯存12GB設(shè)備上進(jìn)行人臉識(shí)別模型訓(xùn)練。

3.2 實(shí)驗(yàn)數(shù)據(jù)集介紹

3.2.1 CASIA-WebFace數(shù)據(jù)集[19]

CASIA-WebFace數(shù)據(jù)集是國(guó)內(nèi)人臉識(shí)別屆頗具盛名的人臉訓(xùn)練集,2014年,由中科院自動(dòng)化研究所李子青團(tuán)隊(duì)借用了IMDb網(wǎng)站,通過(guò)半自動(dòng)的方式完成了圖像收集和標(biāo)記,經(jīng)過(guò)數(shù)據(jù)清洗,最終包含10 575個(gè)人的494 414張人臉圖像,在當(dāng)時(shí)是人臉數(shù)據(jù)集中數(shù)據(jù)量最大的公開(kāi)數(shù)據(jù)集,為人臉識(shí)別技術(shù)的發(fā)展做出了很大貢獻(xiàn)。

圖3 CASIA-WebFace數(shù)據(jù)集人臉圖像示意圖

3.2.2 LFW(Labeled Faces in the Wild)數(shù)據(jù)集

LFW是專(zhuān)門(mén)用于研究非限定條件下人臉識(shí)別的數(shù)據(jù)集,該數(shù)據(jù)集包含從網(wǎng)絡(luò)上收集的13 000多張人臉圖像,每張人臉圖像都有確定的身份,其中,1 680 人在數(shù)據(jù)集中有兩張或更多不同的人臉圖像。LFW數(shù)據(jù)集主要測(cè)試人臉識(shí)別的準(zhǔn)確率,從數(shù)據(jù)庫(kù)中隨機(jī)選擇人臉圖像,組成了6 000對(duì)人臉辨識(shí)圖片對(duì),其中3 000對(duì)為正樣本對(duì),即由相同人的2張不同人臉圖像組成,3 000對(duì)為負(fù)樣本對(duì),即由不同人的每人1張人臉圖像組成。

圖4 LFW數(shù)據(jù)集人臉圖像示意圖

3.2.3 YTF(YouTube Faces)數(shù)據(jù)集[20]

YTF數(shù)據(jù)集是一個(gè)人臉視頻數(shù)據(jù)庫(kù),都是從YouTube上下載的,旨在研究視頻中非限定條件下的人臉識(shí)別問(wèn)題,包含3 425個(gè)視頻,共1 595人,平均一個(gè)人大概有2段視頻,最短的視頻幀為48幀,最長(zhǎng)的視頻幀為6 070幀,平均視頻幀為181.3幀。YTF數(shù)據(jù)集主要測(cè)試人臉識(shí)別的準(zhǔn)確率,從數(shù)據(jù)庫(kù)中隨機(jī)選擇5 000對(duì)視頻,被分成10個(gè)部分,每個(gè)部分包含250個(gè)同一個(gè)人的視頻對(duì)和250個(gè)不同的人的視頻對(duì)。

圖5 YTF數(shù)據(jù)集人臉圖像示意圖

3.2.4 SVF(Surveillance Video Faces)數(shù)據(jù)集

SVF數(shù)據(jù)集是自行采集的500個(gè)人在監(jiān)控場(chǎng)景下的人臉照片,包括遮擋、多姿態(tài)、不同光照的人臉圖像,其中,每人兩張人臉圖像,構(gòu)成500個(gè)正樣本對(duì),499 000個(gè)負(fù)樣本對(duì),即相同人的兩張人臉圖像構(gòu)成正樣本對(duì),共500對(duì),每個(gè)人的人臉圖像與其他人的人臉圖像構(gòu)成負(fù)樣本對(duì),共499 000對(duì)。

圖6 SVF數(shù)據(jù)集人臉圖像示意圖

3.3 改進(jìn)型加性余弦間隔參數(shù)調(diào)節(jié)比對(duì)實(shí)驗(yàn)

Normface提出讓網(wǎng)絡(luò)自動(dòng)學(xué)習(xí)參數(shù)s。加性余弦間隔損失函數(shù)指出在損失函數(shù)中加入間隔之后,發(fā)現(xiàn)若讓網(wǎng)絡(luò)自動(dòng)學(xué)習(xí)參數(shù)s,網(wǎng)絡(luò)的收斂速度很慢且s不會(huì)增加,只需固定參數(shù)s為一個(gè)足夠大的值能夠使網(wǎng)絡(luò)快速且穩(wěn)定的收斂,但是,若參數(shù)s取值較大時(shí)則幾乎不具備間隔,不能減小類(lèi)內(nèi)距離。因此本實(shí)驗(yàn)分別選取s=20,s=30進(jìn)行比對(duì)實(shí)驗(yàn)。

參數(shù)m的作用是增加分類(lèi)邊界的間隔,如圖7所示為改進(jìn)型加性余弦間隔在參數(shù)m取不同值時(shí)ψ(θyi)的曲線(xiàn)圖。

圖7 參數(shù)m取不同值時(shí)ψ(θyi)的曲線(xiàn)圖

如圖8所示為改進(jìn)型加性余弦間隔在參數(shù)m取不同值時(shí)ψ(θj)的曲線(xiàn)圖,其中m的取值范圍為[0,1]。當(dāng)ψ1(θyi1)、ψ2(θyi2)、ψ3(θyi3)取相同值時(shí),θyi3<θyi2<θyi1,例如當(dāng)ψ1(θyi1)=0時(shí),θyi1等于90°;當(dāng)ψ2(θyi2)=0時(shí),θyi2約等于80°;當(dāng)ψ3(θyi3)=0時(shí),θyi3約等于70°,因此參數(shù)m可減小特征與目標(biāo)權(quán)重的夾角,即縮小類(lèi)內(nèi)距離。當(dāng)ψ1(θj1)、ψ2(θyi2)、ψ3(θyi3)取相同值時(shí),θj3>θj2>θj1,例如當(dāng)ψ1(θj1)=0 時(shí),θj1等于90°;當(dāng)ψ2(θyi2)=0時(shí),θj2約等于100°;當(dāng)ψ3(θyi3)=0時(shí),θj3約等于110°,因此參數(shù)m可增加特征與非目標(biāo)權(quán)重的夾角,即增大類(lèi)間距離。但m值越大訓(xùn)練難度越大,因此選取m=0.35,m=0.70進(jìn)行比對(duì)實(shí)驗(yàn)。

圖8 參數(shù)m取不同值時(shí)ψ(θj)的曲線(xiàn)圖

如圖9所示,當(dāng)改進(jìn)型加性余弦間隔損失函數(shù)參數(shù)m、s取不同值時(shí)訓(xùn)練出的人臉識(shí)別模型,在SVF數(shù)據(jù)集上的ROC曲線(xiàn)圖,橫坐標(biāo)表示誤識(shí)率,縱坐標(biāo)表示召回率。當(dāng)m=0.35,s=30時(shí)訓(xùn)練出的人臉識(shí)別模型比當(dāng)m=0.35,s=20時(shí)訓(xùn)練出的人臉模型在SVF數(shù)據(jù)集上效果好。當(dāng)m=0.70,s=30時(shí),訓(xùn)練出的人臉識(shí)別模型比當(dāng)m=0.35,s=30時(shí)訓(xùn)練出的人臉模型在SVF數(shù)據(jù)集上效果好,所以,本文令改進(jìn)型加性余弦間隔損失函數(shù)參數(shù)m=0.70,s=30進(jìn)行人臉識(shí)別模型的訓(xùn)練。

圖9 改進(jìn)型加性余弦間隔損失函數(shù)取不同參數(shù)值時(shí)訓(xùn)練出的人臉識(shí)別模型在SVF數(shù)據(jù)集上ROC曲線(xiàn)圖

3.3 在LFW和YTF數(shù)據(jù)集上實(shí)驗(yàn)結(jié)果分析

不同損失函數(shù)采用相同的網(wǎng)絡(luò)結(jié)構(gòu)訓(xùn)練出的人臉識(shí)別模型,在LFW數(shù)據(jù)集上及YTF數(shù)據(jù)集上測(cè)試結(jié)果如表1所示,在LFW數(shù)據(jù)集上,乘性角度間隔損失函數(shù)訓(xùn)練出的人臉識(shí)別模型準(zhǔn)確率最高;在YTF數(shù)據(jù)集上,乘性角度間隔損失函數(shù)訓(xùn)練出的人臉識(shí)別模型準(zhǔn)確率最高。在LFW數(shù)據(jù)集上改進(jìn)型加性余弦間隔損失函數(shù)訓(xùn)練出的人臉識(shí)別模型比性能第1的模型相比準(zhǔn)確率低了0.3%;在YTF數(shù)據(jù)集上改進(jìn)型加性余弦間隔損失函數(shù)訓(xùn)練出的人臉識(shí)別模型比性能第1的模型相比準(zhǔn)確率低了1.08%。在YTF數(shù)據(jù)集上加性余弦間隔損失函數(shù)訓(xùn)練出的人臉識(shí)別模型與乘性角度間隔損失函數(shù)訓(xùn)練出的人臉識(shí)別模型相比準(zhǔn)確率提升0.22%,說(shuō)明針對(duì)低質(zhì)量人臉圖像識(shí)別任務(wù),在訓(xùn)練過(guò)程中進(jìn)行特征歸一化操作是有效的。

表1 不同算法在LFW和YTF數(shù)據(jù)集上的測(cè)試結(jié)果

3.4 在SVF數(shù)據(jù)集上實(shí)驗(yàn)結(jié)果分析

不同損失函數(shù)采用相同網(wǎng)絡(luò)結(jié)構(gòu)訓(xùn)練出的人臉識(shí)別模型,在SVF數(shù)據(jù)集上的測(cè)試結(jié)果如表2所示,①表示采用Softmax損失函數(shù)訓(xùn)練出的人臉識(shí)別模型,②表示乘性角度間隔損失函數(shù)訓(xùn)練出的人臉識(shí)別模型,③表示加性余弦間隔損失函數(shù)訓(xùn)練出的人臉識(shí)別模型,④表示改進(jìn)型加性余弦間隔損失函數(shù)訓(xùn)練出的人臉識(shí)別模型。改進(jìn)型加性余弦間隔損失函數(shù)訓(xùn)練出的人臉識(shí)別模型與性能第2的加性余弦間隔損失函數(shù)訓(xùn)練出的人臉識(shí)別模型相比,在10-2的誤識(shí)率下的召回率提升了4.6%,在10-3的誤識(shí)率下的召回率提升了5.4%,在10-4的誤識(shí)率下的召回率提升了2.8%,在10-5的誤識(shí)率下的召回率提升了0.2%。

表2 不同算法在SVF數(shù)據(jù)集上的測(cè)試結(jié)果

改進(jìn)型余弦間隔損失函數(shù)訓(xùn)練出的人臉識(shí)別模型與加性余弦間隔損失函數(shù)訓(xùn)練出的人臉識(shí)別模型相比,在LFW數(shù)據(jù)集、YTF數(shù)據(jù)集上效果沒(méi)有加性余弦間隔損失函數(shù)訓(xùn)練出的人臉識(shí)別模型效果好,而在SVF數(shù)據(jù)集上比加性余弦間隔損失函數(shù)訓(xùn)練出的人臉識(shí)別模型效果好,是由于改進(jìn)型余弦間隔損失函數(shù)訓(xùn)練出的人臉識(shí)別模型與加性余弦間隔損失函數(shù)訓(xùn)練出的人臉識(shí)別模型的訓(xùn)練數(shù)據(jù)采用的CASIA-WebFace數(shù)據(jù)集,與測(cè)試集LFW數(shù)據(jù)集及YTF數(shù)據(jù)集均是名人人臉圖像,而SVF數(shù)據(jù)集是監(jiān)控人臉圖像,可以看出改進(jìn)型余弦間隔損失函數(shù)訓(xùn)練出的人臉識(shí)別模型具有更好的泛化性能。

4 結(jié)論

人臉識(shí)別分為閉集人臉識(shí)別和開(kāi)集人臉識(shí)別,在開(kāi)集人臉識(shí)別中存在人臉比對(duì)問(wèn)題,需要使用度量學(xué)習(xí)方法,要求類(lèi)間距離大于類(lèi)內(nèi)距離。從該角度出發(fā),設(shè)計(jì)出許多損失函數(shù),例如乘性角度間隔損失函數(shù)、加性余弦間隔損失函數(shù)、加性角度間隔損失函數(shù)等。但這些損失函數(shù)僅通過(guò)將特征與目標(biāo)權(quán)重的夾角乘上或加上一個(gè)值,來(lái)達(dá)到減小類(lèi)內(nèi)距離的目的,并沒(méi)有直接對(duì)類(lèi)間距離進(jìn)行操作來(lái)拉大類(lèi)間距離。本文對(duì)加性余弦間隔損失函數(shù)進(jìn)行改進(jìn),將特征與目標(biāo)權(quán)重夾角的余弦值減去一個(gè)值,在訓(xùn)練過(guò)程中,使得人臉特征向目標(biāo)權(quán)重靠攏,從而達(dá)到減小類(lèi)內(nèi)距離的目的;將特征與非目標(biāo)權(quán)重夾角的余弦值加上一個(gè)值,在訓(xùn)練過(guò)程中,使得人臉特征遠(yuǎn)離非目標(biāo)權(quán)重,從而達(dá)到增大類(lèi)間距離的目的。

本文采集了500個(gè)人每人2張人臉圖像,組成了SVF(Surveillance Video Faces)數(shù)據(jù)集,包括500個(gè)正樣本對(duì),499 000個(gè)負(fù)樣本對(duì)??蓽y(cè)試訓(xùn)練的人臉識(shí)別模型在實(shí)際監(jiān)控場(chǎng)景的性能。發(fā)現(xiàn)目前開(kāi)源的一些較為先進(jìn)的人臉識(shí)別方法及本文提出的人臉識(shí)別方法,在公開(kāi)人臉數(shù)據(jù)集有著優(yōu)秀的表現(xiàn),提出的人臉識(shí)別方法在實(shí)際監(jiān)控場(chǎng)景中與Softmax損失函數(shù)、乘性角度間隔損失函數(shù)及加性余弦間隔損失函數(shù)訓(xùn)練的人臉識(shí)別模型相比人臉識(shí)別準(zhǔn)確率更高,且與加性余弦間隔損失函數(shù)訓(xùn)練的人臉識(shí)別模型相比在10-3的誤識(shí)率下的召回率提升了5.4%。

猜你喜歡
加性余弦人臉
?2?4[u]-加性循環(huán)碼
圖像非加性隱寫(xiě)綜述
有特點(diǎn)的人臉
一起學(xué)畫(huà)人臉
三國(guó)漫——人臉解鎖
企業(yè)家多重政治聯(lián)系與企業(yè)績(jī)效關(guān)系:超可加性、次可加性或不可加性
企業(yè)家多重政治聯(lián)系與企業(yè)績(jī)效關(guān)系:超可加性、次可加性或不可加性
兩個(gè)含余弦函數(shù)的三角母不等式及其推論
實(shí)施正、余弦函數(shù)代換破解一類(lèi)代數(shù)問(wèn)題
分?jǐn)?shù)階余弦變換的卷積定理