国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

雙流時間域信息交互的微表情識別卷積網(wǎng)絡(luò)

2022-04-13 02:40朱偉杰
計算機(jī)與生活 2022年4期
關(guān)鍵詞:卷積損失數(shù)據(jù)庫

朱偉杰,陳 瑩

江南大學(xué) 輕工過程先進(jìn)控制教育部重點(diǎn)實(shí)驗(yàn)室,江蘇 無錫214122

人臉的表情往往反映人類內(nèi)心最真實(shí)的情緒,但是在某些特定的情況下,例如犯人審訊、商業(yè)談判、謊言監(jiān)測、醫(yī)療診斷,人類企圖壓抑或隱藏真實(shí)的情感,往往會不由自主地流露出短暫的微弱的表情。Haggard在1966 年最先發(fā)現(xiàn),并且在研究結(jié)果中表明微表情產(chǎn)生與人的自我防御機(jī)制有關(guān),能夠反映人們試圖掩飾的情感。

微表情是人類一種自發(fā)式的表情,通常持續(xù)時間非常短暫,在1/25~1/5 s之間,而且面部肌肉運(yùn)動幅度小,涉及到的動作單元(action unit,AU)少。人類裸眼去識別微表情,由于其特性造成識別率非常低。近年來,隨著計算機(jī)視覺的高速發(fā)展,心理學(xué)家想借助計算機(jī)視覺的技術(shù)來解決人眼識別率低的問題。時至今日,越來越多的國內(nèi)外研究人員開始用計算機(jī)視覺技術(shù)研究微表情識別的課題。

目前,宏表情識別的研究已經(jīng)非常深入,使用圖片數(shù)據(jù)即可完成識別,而微表情由于其數(shù)據(jù)的特殊性,現(xiàn)今的技術(shù)一般情況使用圖像序列進(jìn)行微表情識別。微表情識別的步驟一般分為三個步驟:預(yù)處理、特征提取、分類。2015 年之前,特征提取大多是手工特征,方法集中使用傳統(tǒng)算法,例如局部二值模式(local binary pattern,LBP)、光流法和張量變化分析。Pfister 等提出了三正交平面的局部二值模式(local binary patterns from three orthogonal planes,LBPTOP),通過在3 個正交平面中組合局部二進(jìn)制模式方法來對自發(fā)式微表情進(jìn)行手動特征識別。Wang等提出六交點(diǎn)的局部二值模式(local binary patterns from six intersection points,LBP-SIP)。張軒閣等提出光流與LBP-TOP 特征結(jié)合的方法來識別微表情。上述的算法均由LBP 算法基礎(chǔ)改進(jìn)而來,同時也有許多算法在光流法的基礎(chǔ)上改進(jìn)。Liu 等提出了一種基于時空空間紋理局部紋理描述符的主方向平均光流法(main directional mean optical-flow,MDMO),采用一種魯棒的光流方法應(yīng)用到微表情視頻序列中,并將面部基于AU 的感興趣區(qū)域(region of interest,ROI)區(qū)域劃分,更加精確地對各區(qū)域進(jìn)行處理。Ben等提出了張量表示的最大邊距投影(maximum margin projection with tensor representation,MMPTR),該算法通過最大化類間和最小化類內(nèi)拉普拉斯散色,MMPTR 可以找到張量之間的投影,該投影直接從原始張量數(shù)據(jù)中提取出判別性和幾何保留特征。

提取手工特征的傳統(tǒng)方法大大推動了微表情識別研究領(lǐng)域的發(fā)展。但是傳統(tǒng)方法計算量大、耗時長并且普適性不強(qiáng)。更為重要的是,由于微表情持續(xù)時間短暫且動作幅度小的特點(diǎn),傳統(tǒng)方法已經(jīng)很難在識別精度上有進(jìn)一步的提升,在微表情識別領(lǐng)域發(fā)展的道路上遇到了瓶頸,尋找新的突破口已經(jīng)迫在眉睫。

近年來,深度學(xué)習(xí)技術(shù)大力發(fā)展,目前已經(jīng)被廣泛應(yīng)用在多個領(lǐng)域,例如行為識別、實(shí)例分割、人臉識別、目標(biāo)檢測、目標(biāo)追蹤、微表情識別等計算機(jī)視覺領(lǐng)域,并且相比于以往的傳統(tǒng)方法都有較大提升。在微表情識別領(lǐng)域也有很多研究人員開始使用深度學(xué)習(xí)。Liong 等提出,計算出每個微表情序列中的頂幀,即運(yùn)動幅度最大的幀,然后分別求出頂幀與起始幀之間豎直方向和水平方向光流圖,進(jìn)入卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)中提取特征,最終得到的分類效果相比僅僅使用光流方法有很大提升。劉汝涵等針對微表情動作微弱不利于識別,提出一種基于眼部干擾消除的視頻放大方法,結(jié)合深度神經(jīng)網(wǎng)絡(luò)進(jìn)行微表情識別,最終與僅僅使用深度神經(jīng)網(wǎng)絡(luò)相比結(jié)果有所提升。微表情識別中的深度學(xué)習(xí)常用算法一般是CNN 或者是循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN),或者將兩者結(jié)合。但是這些方法不能夠同時編碼視頻序列時間-空間域的關(guān)系。近年來,3D-CNN 在基于視頻分類的領(lǐng)域得到廣泛的應(yīng)用,它能夠同時提取時間-空間域特征,而對于微表情識別來說,時間域特征也非常重要。Rathi 等、Li 等、Reddy 等的工作 中使用了3D-CNN 來提取特征,相對于僅使用CNN 或者RNN 效果提升明顯。然而,目前微表情識別領(lǐng)域使用深度學(xué)習(xí)方法也遭受到挑戰(zhàn),由于微表情數(shù)據(jù)庫的稀缺造成在搭建神經(jīng)網(wǎng)絡(luò)時不能構(gòu)建大網(wǎng)絡(luò),否則網(wǎng)絡(luò)的參數(shù)會過擬合,造成微表情識別精度的下降。

針對小數(shù)據(jù)集,遷移學(xué)習(xí)是一個非常行之有效的方法。即使在使用小網(wǎng)絡(luò)的情況下,也可以緩解網(wǎng)絡(luò)過擬合的趨勢,從而提高精度。Jia 等提出從宏表情遷移到微表情的一種方法,該方法使用LBP和LBP-TOP 分別用于提取宏表情和微表情特征。此外,采用特征選擇來減少冗余特征。最終,采用奇異值分解來實(shí)現(xiàn)宏到微觀的轉(zhuǎn)換模型。Xia 等提出一種利用宏表情樣本指導(dǎo)訓(xùn)練的微表情識別網(wǎng)絡(luò)框架,將MacroNet 固定并用于從標(biāo)簽和特征空間引導(dǎo)MicroNet的微調(diào)。在MicroNet和MacroNet之間的功能級別上增加了對抗性學(xué)習(xí)策略和三元組損失,MicroNet 可以有效地捕獲微表情和宏表情樣本相同的特征。給標(biāo)簽空間增加損失不等式正則化,從而MicroNet 收斂。Zhang 等的工作中提出深度互學(xué)習(xí)屬于遷移學(xué)習(xí)中的一種,相比遷移學(xué)習(xí)的其他方法,深度互學(xué)習(xí)方法在不借助跨域數(shù)據(jù)集的情況下,能夠有效地緩解網(wǎng)絡(luò)過擬合的情況并且網(wǎng)絡(luò)之間可以互相學(xué)習(xí)新的知識,進(jìn)而有效提高網(wǎng)絡(luò)的性能。本文首次將互學(xué)習(xí)策略融入微表情識別任務(wù)中,提出基于雙流時間域信息交互的卷積網(wǎng)絡(luò)(DSTICNN32和DSTICNN64)微表情識別。本文方法適用于不同的主干網(wǎng)絡(luò),并且本文方法訓(xùn)練的網(wǎng)絡(luò)除了在精度上具有優(yōu)勢以外,同時在魯棒性上也具有很大的優(yōu)勢。通過常規(guī)的標(biāo)簽監(jiān)督損失、不同時間尺度的JS 散度(Jensen Shannon divergence)損失以及均方差損失使得不同時間尺度的網(wǎng)絡(luò)之間通過不斷進(jìn)行信息交互分享學(xué)習(xí)經(jīng)驗(yàn),提高判別性能。此外,由于互學(xué)習(xí)機(jī)制增強(qiáng)了各模態(tài)分支的判別能力,測試階段只需要將32幀或者64 幀微表情序列輸入DSTICNN32 和DSTICNN64網(wǎng)絡(luò)即可完成識別(即測試時使用單流網(wǎng)絡(luò))。

1 雙流時間域信息交互的微表情識別

1.1 網(wǎng)絡(luò)結(jié)構(gòu)

本文對微表情序列進(jìn)行處理,構(gòu)建了DSTICNN32和DSTICNN64 網(wǎng)絡(luò)分別對32 幀和64 幀微表情序列進(jìn)行識別。由于時序特征對于微表情識別任務(wù)是至關(guān)重要的,本文DSTICNN 采取3D 卷積網(wǎng)絡(luò)作為主干網(wǎng)絡(luò),卷積核的尺寸為××,和為圖像的長、寬尺度,為圖像序列的時間尺度。Tran 等提出的C3D 網(wǎng)絡(luò)中指出維度為3×3×3 的卷積核可以帶來最好的效果。因此,本文中的網(wǎng)絡(luò)也采用了同等維度的卷積核應(yīng)用在主干網(wǎng)絡(luò)中。網(wǎng)絡(luò)一共有5層,4層卷積層加上1層全連接層,4層網(wǎng)絡(luò)的卷積核數(shù)量分別為16、32、64和128。DSTICNN32和DSTICNN64的區(qū)別在于第一層卷積核的尺寸,前者為3×3×4,后者為3×3×8,最終使得后面兩流的特征圖像維度保持一致。具體的DSTICNN 網(wǎng)絡(luò)結(jié)構(gòu)如表1 所示,Ss 代表卷積核的空間步長,Ts代表卷積核的時間步長。

表1 DSTICNN 網(wǎng)絡(luò)結(jié)構(gòu)Table 1 Network structure of DSTICNN

雙流網(wǎng)絡(luò)分別輸入時間尺度為32 和64 幀的微表情灰度序列,灰度圖像更加聚焦于空間信息。從灰度圖像序列中計算出的光流序列可以展示出微表情的運(yùn)動變化,光流序列中白色部分表示運(yùn)動的區(qū)域,白色區(qū)域越大說明運(yùn)動的幅度越大。從圖1(a)和圖1(b)所示的光流序列中可以看出,同一微表情序列的不同時間尺度所包含的時間信息不同,圖1(a)中的32 幀序列明顯比64 幀序列微表情運(yùn)動幅度更大,而圖1(b)中64 幀序列則對比32 幀序列動作更加連貫。與之相對應(yīng)的,32 幀灰度圖像序列在面部肌肉運(yùn)動的幅度上蘊(yùn)含豐富的信息,而64 幀灰度序列在肌肉運(yùn)動的連貫性上具有豐富的信息。根據(jù)面部行為編碼系統(tǒng)(facial action coding system,F(xiàn)ACS)所述,面部肌肉運(yùn)動的部位及方向是微表情分類的重要依據(jù),與此同時,32 幀和64 幀序列所包含的信息都是微表情識別網(wǎng)絡(luò)所需要的特征。本文網(wǎng)絡(luò)能夠通過訓(xùn)練得到兩者的特征,以此來更精準(zhǔn)地預(yù)測微表情類別。

圖1 SMIC 數(shù)據(jù)庫光流序列Fig.1 Optical flow sequence of SMIC database

圖2 所示為雙流時間域交互網(wǎng)絡(luò),同一微表情序列樣本的不同時間尺度,所包含的時間域信息不同,網(wǎng)絡(luò)進(jìn)行不同時間信息的交互來互相學(xué)習(xí)。雙流網(wǎng)絡(luò)同時訓(xùn)練,網(wǎng)絡(luò)中不同顏色的箭頭代表微表情序列中的不同幀,網(wǎng)絡(luò)在提取特征的過程中,會將多幀圖像的特征關(guān)聯(lián),同時提取出空間域信息和時間域信息形成特征圖像,經(jīng)過多層3D 卷積、池化,最終在決策層得到預(yù)測結(jié)果。本文損失函數(shù)分別由三部分組成,第一部分為交叉熵?fù)p失,第二部分是兩條網(wǎng)絡(luò)第三層特征圖像之間的均方差損失,第三部分是兩條網(wǎng)絡(luò)預(yù)測結(jié)果之間的JS 散度損失,訓(xùn)練過程中DSTICNN32 和DSTICNN64 網(wǎng)絡(luò)分別學(xué)習(xí)到樣本的不同時間信息,在損失函數(shù)的監(jiān)督下進(jìn)行知識的交互,使得雙流網(wǎng)絡(luò)最終學(xué)習(xí)到的知識更加豐富。

圖2 雙流時間域交互網(wǎng)絡(luò)Fig.2 Dual-stream temporal-domain interactive network

1.2 損失函數(shù)

具體的DSTICNN32 網(wǎng)絡(luò)損失函數(shù)如式(1)~(7)所示:

散度損失用來度量兩流網(wǎng)絡(luò)預(yù)測結(jié)果之間距離。由真值label、雙流網(wǎng)絡(luò)特征圖像之間的均方差以及另一條DSTICNN網(wǎng)絡(luò)的預(yù)測結(jié)果來監(jiān)督訓(xùn)練,損失函數(shù)由真值交叉熵?fù)p失L和另一條網(wǎng)絡(luò)交互損失L組成。

2 實(shí)驗(yàn)結(jié)果及分析

2.1 預(yù)處理

對微表情數(shù)據(jù)庫進(jìn)行預(yù)處理,分為空間域和時間域部分??臻g域部分需要對人臉進(jìn)行定位、配準(zhǔn)、剪裁,在輸入網(wǎng)絡(luò)之前去除圖像序列中無關(guān)的信息,將人臉微表情序列作為網(wǎng)絡(luò)的輸入有利于網(wǎng)絡(luò)提取出更加有用的特征。由于CASME Ⅱ數(shù)據(jù)庫在原始的數(shù)據(jù)中包含了已經(jīng)預(yù)處理過的圖像序列,本文只針對SMIC 庫進(jìn)行預(yù)處理,首先使用Face++API 對圖像序列進(jìn)行人臉的landmark 定位,然后使用Dlib 對圖像序列進(jìn)行人臉的對齊,最后剪裁出圖像序列中的人臉ROI 區(qū)域。同時將所有的圖像序列都尺寸歸一化到112×112。時間域部分需要對圖像序列的時間尺度進(jìn)行歸一化,本文使用時間插值模型(temporal interpolation model,TIM)將所有的圖像序列的時間長度都?xì)w一化為32 和64 作為網(wǎng)絡(luò)的輸入。

2.2 數(shù)據(jù)庫

本文實(shí)驗(yàn)使用了CASME Ⅱ和SMIC數(shù)據(jù)庫,圖3所示分別為CASME Ⅱ數(shù)據(jù)庫樣本和SMIC 數(shù)據(jù)庫中SMIC-HS 樣本。

圖3 CASME Ⅱ、SMIC 數(shù)據(jù)庫預(yù)處理后樣本Fig.3 Samples after pretreatment of CASME Ⅱand SMIC databases

CASME Ⅱ是由傅小蘭團(tuán)隊(duì)建立并公開可供科研使用。CASME Ⅱ由255 個微表情序列組成,采用200 frame/s 拍攝,參與人員平均年齡22 歲,分為26個主題9 個類別:高興(happiness)、驚喜(surprise)、厭惡(disgust)、害 怕(fear)、悲傷(sadness)、生氣(anger)、壓制(repression)、緊張(tense)和消極(negative)。實(shí)驗(yàn)大部分在樣本數(shù)比較多的五大類展開:緊張(tense)、厭惡(disgust)、高興(happiness)、驚喜(surprise)和壓抑(repression)。

SMIC由芬蘭奧盧大學(xué)趙國英團(tuán)隊(duì)建立。SMIC包含了3 個子數(shù)據(jù)集,SMIC-HS、SMIC-VIS 和SMICNIR。本文實(shí)驗(yàn)選用SMIC-HS 作為數(shù)據(jù)樣本,其中含有164 個微表情視頻序列,分為16 個主題。使用100 frame/s 錄制而成,分為3 類:積極(positive)、消極(negative)和驚喜(surprise)。

2.3 實(shí)驗(yàn)環(huán)境設(shè)置

該實(shí)驗(yàn)運(yùn)行的環(huán)境是64位的Ubuntu16.04操作系統(tǒng),32 GB 內(nèi)存,以及兩塊Geforce GTX 1080TI GPU。使用pytorch 框架來搭建神經(jīng)網(wǎng)絡(luò),使用SGD(stochastic gradient descent)作為優(yōu)化器訓(xùn)練網(wǎng)絡(luò),初始學(xué)習(xí)率設(shè)置為1×10,batch_size 設(shè)置為16,同時設(shè)置了每100 個epoch 衰減到原來50%。作為輔助損失,為了比其他損失小一個數(shù)量級,本文式(6)和式(11)中的取1E-5。

2.4 實(shí)驗(yàn)結(jié)果及分析

本部分實(shí)驗(yàn)對SMIC 數(shù)據(jù)庫以及CASME Ⅱ數(shù)據(jù)庫進(jìn)行實(shí)驗(yàn)測試,使用圖1 網(wǎng)絡(luò)來提取特征,識別微表情序列。本實(shí)驗(yàn)使用留一目標(biāo)法(leave-onesubject-out,LOSO),由于SMIC 數(shù)據(jù)集有16 位志愿者的樣本,將數(shù)據(jù)集按照志愿者分成16 份,每次實(shí)驗(yàn)取其中1 份作為測試集,其余15 份為訓(xùn)練集。進(jìn)行16 次實(shí)驗(yàn)之后所得到的結(jié)果求出平均值為最終結(jié)果。CASME Ⅱ數(shù)據(jù)庫有26 位志愿者樣本,因此將數(shù)據(jù)集按照志愿者分成26 份,每次實(shí)驗(yàn)將其中1 份作為測試集,剩下25 份作為訓(xùn)練集。反復(fù)進(jìn)行26 次實(shí)驗(yàn)之后,所取得的結(jié)果求取平均值作為最終結(jié)果。

為測試本文方法的有效性和先進(jìn)性,將本文方法與現(xiàn)有的優(yōu)秀方法進(jìn)行比較,結(jié)果如表2 所示。DSTICNN32 和DSTICNN64 的結(jié)果為本文方法的baseline,采用DSTICNN 網(wǎng)絡(luò)提取特征,使用交叉熵?fù)p失來監(jiān)督訓(xùn)練,DSTICNN32_KL 使用交叉熵和KL散度來共同監(jiān)督訓(xùn)練,DSTICNN32_KL_MSE 使用交叉熵和KL 散度還有特征圖像之間的均方差損失來共同監(jiān)督訓(xùn)練,DSTICNN32_JS使用交叉熵和JS散度來共同監(jiān)督訓(xùn)練,DSTICNN32_JS_MSE 使用交叉熵和JS 散度還有特征圖像之間的均方差損失來共同監(jiān)督訓(xùn)練。DSTICNN64、DSTICNN64_KL、DSTICNN64_JS、DSTICNN64_JS_MSE 與之相似。

表2 SMIC 和CASME Ⅱ數(shù)據(jù)庫實(shí)驗(yàn)結(jié)果Table 2 Experimental results of SMIC and CASME Ⅱdatabases %

由表2 可以看出,本文方法無論是在SMIC 還是在CASME Ⅱ數(shù)據(jù)庫中相較于現(xiàn)有的方法在結(jié)果上都具有一定的先進(jìn)性。本方方法在SMIC 數(shù)據(jù)庫和CASME Ⅱ數(shù)據(jù)庫取得的精度分別為85.93%和83.65%。從表2 中可以看出,傳統(tǒng)方法LBP-TOP 相對于深度學(xué)習(xí)方法所取得的精度已經(jīng)有一定的差距,并且傳統(tǒng)方法需要人工提取特征,計算量大,實(shí)驗(yàn)過程較為繁瑣。

本文方法使用提出的DSTICNN32和DSTICNN64作為基礎(chǔ)網(wǎng)絡(luò),來提取空間域和時間域的特征,雙流網(wǎng)絡(luò)分別提取了同一樣本的不同時間信息特征。得到的最好結(jié)果也好于表2 中其他的深度學(xué)習(xí)方法。ICE-GAN 方法中使用GAN 方法生成微表情序列樣本,在一定程度上解決了樣本稀缺、樣本不平衡的問題,在CASME Ⅱ數(shù)據(jù)庫上取得的最終結(jié)果稍高于本文方法。

由于互學(xué)習(xí)的機(jī)制在訓(xùn)練過程中增強(qiáng)了網(wǎng)絡(luò)的預(yù)測能力,測試階段可以單獨(dú)測試,單條網(wǎng)絡(luò)即可完成對灰度圖像的預(yù)測。圖4 所示為測試階段本文網(wǎng)絡(luò)對微表情序列預(yù)測的網(wǎng)絡(luò)結(jié)構(gòu)圖。

圖4 測試網(wǎng)絡(luò)Fig.4 Test network

表3為本文消融實(shí)驗(yàn)的結(jié)果,從表中可以看出,采用本文方法在兩個數(shù)據(jù)庫上平均結(jié)果都得到了明顯的提升。圖5所示為SMIC數(shù)據(jù)庫DSTICNN64_JS_MSE網(wǎng)絡(luò)每一折的實(shí)驗(yàn)結(jié)果,圖6 所示為CASME Ⅱ數(shù)據(jù)庫DSTICNN32_JS_MSE 網(wǎng)絡(luò)每一折的實(shí)驗(yàn)結(jié)果。從圖5 和圖6 中可以看出,實(shí)驗(yàn)中大部分折在使用本文方法之后準(zhǔn)確度都有所提升。SMIC 數(shù)據(jù)庫DSTICNN64 網(wǎng)絡(luò)的baseline 為69.34%,損失函數(shù)使用交叉熵+KL 之后提升至72.72%,損失函數(shù)使用交叉熵+KL+均方差之后提升至79.13%,使用交叉熵+JS 之后提升至81.31%,損失函數(shù)使用交叉熵+JS+均方差之后提升至85.93%,最好結(jié)果最高提升了16.59個百分點(diǎn)。CASME Ⅱ數(shù)據(jù)庫DSTICNN32 網(wǎng)絡(luò)的baseline 為69.41%,損失函數(shù)使用交叉熵+KL 之后提升至76.50%,損失函數(shù)使用交叉熵+KL+均方差之后提升至82.21%,損失函數(shù)使用交叉熵+JS 之后提升至81.61%,損失函數(shù)使用交叉熵+JS+均方差之后提升至83.65%,最好結(jié)果提升了14.24 個百分點(diǎn)。

圖5 SMIC 數(shù)據(jù)庫DSTICNN64 實(shí)驗(yàn)結(jié)果Fig.5 Experimental results of DSTICNN64 in SMIC database

圖6 CASME Ⅱ數(shù)據(jù)庫DSTICNN32 實(shí)驗(yàn)結(jié)果Fig.6 Experimental results of DSTICNN32 in CASME Ⅱdatabase

表3 SMIC 和CASME Ⅱ數(shù)據(jù)庫的消融實(shí)驗(yàn)結(jié)果Table 3 Ablation results from SMIC and CASME Ⅱdatabases %

損失函數(shù)使用交叉熵+KL 的組合對比僅使用交叉熵作為損失函數(shù),網(wǎng)絡(luò)在訓(xùn)練過程中獲得來自另一條網(wǎng)絡(luò)不同的時間域信息,從單一的one-hot 編碼標(biāo)簽(如[1,0,0])監(jiān)督訓(xùn)練,到疊加了DSTICNN 網(wǎng)絡(luò)的預(yù)測結(jié)果[0.5,0.3,0.2]監(jiān)督訓(xùn)練。這樣一來,在互學(xué)習(xí)損失函數(shù)的監(jiān)督訓(xùn)練之下,不僅緩解了由單標(biāo)簽監(jiān)督所帶來的過擬合問題,并且給網(wǎng)絡(luò)帶來更多元的信息,進(jìn)而優(yōu)化網(wǎng)絡(luò)的參數(shù),最終提升精度。交叉熵+JS+均方差組合損失則改善了KL 散度損失預(yù)測距離非對稱所帶來的問題,避免了網(wǎng)絡(luò)在訓(xùn)練過程中有時因訓(xùn)練順序不同而產(chǎn)生的結(jié)果不一樣的情況。疊加不同網(wǎng)絡(luò)間的特征圖均方差損失則是對主干網(wǎng)絡(luò)進(jìn)行約束,以此來實(shí)現(xiàn)特征圖像之間的信息交互,網(wǎng)絡(luò)獲得更為豐富的微表情序列時間域特征,更多不同時間尺度的信息,進(jìn)一步地輔助網(wǎng)絡(luò)之間的互學(xué)習(xí),從而增強(qiáng)網(wǎng)絡(luò)的預(yù)測能力。

3 結(jié)論

本文引入深度互學(xué)習(xí)的思維,改良深度互學(xué)習(xí)的方法,并且引入了特征圖像之間均方差損失來輔助網(wǎng)絡(luò)之間的互相學(xué)習(xí),利用網(wǎng)絡(luò)對同一樣本獲取到不同的時間域信息進(jìn)行網(wǎng)絡(luò)之間的學(xué)習(xí),從而提升了整體的識別準(zhǔn)確率。實(shí)驗(yàn)結(jié)果表明本文采用的雙流時間域信息交互方法性能明顯優(yōu)于傳統(tǒng)方法和一些優(yōu)秀深度學(xué)習(xí)方法。此外本文采取兩個主流微表情數(shù)據(jù)庫SMIC 和CASME Ⅱ數(shù)據(jù)庫以及LOSO 測試方法,更加模擬了真實(shí)場景下的微表情識別任務(wù)。

猜你喜歡
卷積損失數(shù)據(jù)庫
基于3D-Winograd的快速卷積算法設(shè)計及FPGA實(shí)現(xiàn)
一種并行不對稱空洞卷積模塊①
兩敗俱傷
從濾波器理解卷積
基于傅里葉域卷積表示的目標(biāo)跟蹤算法
數(shù)據(jù)庫
數(shù)據(jù)庫
數(shù)據(jù)庫
數(shù)據(jù)庫
菜燒好了應(yīng)該盡量馬上吃
沙洋县| 马公市| 贺兰县| 额济纳旗| 乌恰县| 惠州市| 庆安县| 玛沁县| 普陀区| 万源市| 临泽县| 康保县| 汤阴县| 永寿县| 庆城县| 凤庆县| 陇川县| 潮安县| 韶山市| 铅山县| 永丰县| 吉安市| 新河县| 五家渠市| 山阳县| 商城县| 日照市| 成安县| 清远市| 中阳县| 天津市| 桂林市| 青河县| 南召县| 海口市| 山丹县| 凌源市| 明溪县| 晋江市| 东辽县| 鲁山县|