孫旭菲 繆新穎 畢甜甜 王水濤 喻芳宇
摘要: 針對因光照、 拍攝角度及圖片質(zhì)量等因素導致的經(jīng)典深度學習算法難以有效提取人臉特征、 人物身份識別準確率難以達到理想精度的問題, 提出一種基于人臉強語義的年齡識別算法. 首先, 通過注意力矩陣增強人臉區(qū)域的特征權重, 達到提取特征區(qū)域的目的; 其次, 使用級聯(lián)雙向長短期記憶(Bi-LSTM)網(wǎng)絡學習時序幀之間的特征依賴關系, 彌補部分特征缺失對識別精度的影響. 在人臉數(shù)據(jù)集IMDB-WIKI和數(shù)據(jù)集Adience上進行測試, 該算法的年齡識別準確率分別達到78.34%和77.89%. 實驗結果表明, 相比于其他基于深度學習算法的方法, 該算法在基于圖片數(shù)據(jù)集的人物年齡識別任務上具有更高的準確率.
關鍵詞: 年齡識別; 人臉識別; 深度學習算法; 注意力矩陣; 級聯(lián)Bi-LSTM
中圖分類號: TP391.41文獻標志碼: A文章編號: 1671-5489(2024)02-0347-10
SFSR-Age: An Age Recognition AlgorithmBased on Strong Facial Semantics
SUN Xufei1,2, MIAO Xinying1,2, BI Tiantian1,2, WANG Shuitao1,2, YU Fangyu1
(1. College of Information Engineering, Dalian Ocean University, Dalian 116023, Liaoning Province, China;
2. Key Laboratory of Liaoning Provincial Marine? Information Technology, Dalian 116023, Liaoning Province, China)
Abstract: Aiming at the problems that the classical deep learning algorithm was difficult to extract facial features effectively and the accuracy of character identification was difficult to reach the ideal accuracy due to factors such as illumination, shooting angle and image quality, we proposed an? age recognition algorithm based on strong facial semantics. Firstly, the feature weights of facial regions were enhanced by the attention matrix to achieve the purpose of extracting feature regions. Secondly, a cascaded bi-directional long short-term memory (Bi-LSTM) network was used to learn the feature dependency relationships between temporal frames and? compensate for the influence of missing features on recognition accuracy. When tested on IMDB-WIKI facial dataset and Adience dataset, the age recognition accuracy of the algorithm reached 78.34% and 77.89%, respectively. Experimental results show that compared with other methods based on deep learning algorithms, the proposed algorithm has higher accuracy in the task of person age recognition based on image datasets.
Keywords: age recognition; facial recognition; deep learning algorithm; attention matrix; cascaded Bi-LSTM
基于人臉的人物年齡識別算法在未成年人上網(wǎng)防沉迷、 網(wǎng)絡身份識別等領域應用廣泛, 目前, 基于人臉年齡識別方法主要分為兩類: 基于圖像分析的方法和基于回歸分析的方法. 陳文兵等[1]提出了基于多模型融合的年齡識別模型CNN-SE-ELM, 該模型首先使用卷積神經(jīng)網(wǎng)絡(CNN)初步提取人臉特征, 然后使用SENet(squeeze-and-excitation networks)進一步提取人臉深層特征, 最后使用EM-ELM(error minimized extreme learning machine)算法實現(xiàn)對人臉年齡的分類及性別分類. 實驗結果表明, 該算法能提取更有效的面部特征, 且分類器能快速收斂. 陳濟楠等[2]提出了改進的深度神經(jīng)網(wǎng)絡模型, 使用大卷積核以及跨連卷積實現(xiàn)對人臉特征的提取, 同時使用平均池化替代傳統(tǒng)的全連接層, 為充分訓練網(wǎng)絡參數(shù), 設置相對較大的學習率以及較小的Dropout值, 實驗結果表明, 改進的深度神經(jīng)網(wǎng)絡能在公開人臉數(shù)據(jù)集上達到較高的年齡識別準確率. 周玉陽等[3]提出了基于改進VGG(visual geometry group)[4]的年齡和性別分類算法, 在數(shù)據(jù)集Adience上的年齡識別準確率達到90%, 性別識別準確率達到93%. 錢麗萍等[5]提出了一種基于改進集成學習算法的人臉年齡分類算法, 首先使用集成算法對圖像進行分類, 然后使用基于加權閾值的投票方法將集成學習的弱分類器轉(zhuǎn)換成強分類器, 最終得到年齡的分類結果, 實驗結果表明, 該算法在人臉數(shù)據(jù)集上能得到較高的年齡分類準確率. 房國志等[6]提出了基于多尺度的YOLO算法[7]的人臉年齡估計算法, 首先使用多尺度卷積網(wǎng)絡以及加權通道方法減緩卷積過程中目標特征丟失問題, 基于決策樹回歸模型實現(xiàn)對年齡的估計, 該算法在多個數(shù)據(jù)集上均達到了較好的效果, 且魯棒性較強. 趙丙娟[8]提出了基于有監(jiān)督的偏最小二乘降維的人臉年齡估計算法, 該算法首先使用AAM(active appearance models)算法[9]提取圖像特征, 然后使用偏最小二乘算法[10]對特征圖降維, 最后基于支持向量回歸(SVR)算法[11]實現(xiàn)對年齡估計, 實驗結果表明, 將最小二乘算法與SVR相結合的年齡估計算法具有更好的魯棒性和年齡估計準確率. 田會娟等[12]提出了多任務卷積網(wǎng)絡在光線變化條件下的人臉年齡估計算法, 利用YCbCr色度以及Retinex算法增強對人臉特征提取效果, 在不同距離以及光照強度條件下的對比實驗表明, 特征提取增強模塊能更好地提取人臉特征, 年齡估計絕對平均誤差最大下降2.99%, 人臉識別準確率最大提升25%. 田青等[13]提出了基于AE(auto encoder)算法的關系自學習年齡估計模型CRSAE, 該方法首先基于人臉協(xié)方差矩陣投影獲取初始人臉特征, 將輸入特征與輸出編碼之間建立關聯(lián)正則項, 然后使用一個額外的結構矩陣學習輸入特征與輸出特征之間的關聯(lián)關系, 最后求解CRSAE最優(yōu)解, 實驗結果表明, CRSAE算法在多個人臉數(shù)據(jù)集上均能達到較高的魯棒性. 張會影等[14]提出了改進的標記分布學習用于學習真實年齡及相鄰年齡之間的模糊性和多義性, 以豐富年齡信息, 提高識別精度, 在數(shù)據(jù)集MORPH和FG-NET上的平均絕對誤差均有降低.
上述算法均實現(xiàn)了基于人臉的年齡識別, 這些算法大多數(shù)改進了現(xiàn)有的深度學習算法實現(xiàn)魯棒的人臉特征提取, 從而達到更高的年齡識別效果, 但均是從全局提取人臉特征, 缺乏將目標區(qū)域與非目標區(qū)域進行有效劃分, 導致缺少對目標區(qū)域的高效學習策略. 本文提出的SFSR-age(strong facial semantics recognition for age)算法實現(xiàn)了基于注意力矩陣的目標區(qū)域?qū)W習機制, 提高了算法對目標區(qū)域的建模魯棒性, 在多個人臉數(shù)據(jù)集上的實驗結果表明, 本文算法對基于人臉的年齡識別結果相對于對比算法有明顯優(yōu)勢.
1 預備知識
1.1 卷積神經(jīng)網(wǎng)絡基本組成
卷積神經(jīng)網(wǎng)絡[15]的基本結構包括卷積層、 采樣層、 全連接層和輸出層. 卷積層、 采樣層通常交替銜接. 全連接層的作用是將特征圖轉(zhuǎn)換成向量, 激活后作為最終的輸出.
1.1.1 卷積層
基于上層輸出, 卷積層通過卷積核在特征圖上進行卷積操作, 得到新的特征圖. 卷積可分兩種形式: 1) SAME, 即卷積核在卷積過程中可部分移出被卷積特征圖, 特征圖不夠卷積的區(qū)域使用0填充, SAME類型的特征圖卷積過程如圖1所示; 2) VALID, 即卷積核在卷積過程中始終不能被移出卷積特征圖, VALID類型的特征圖卷積過程中, 卷積核在特征圖內(nèi)滑動, 且特征圖外圍不填充. 從卷積類型看, 卷積得到的新特征圖規(guī)模滿足如下公式:
由式(1)和式(2)可見, 當卷積形式是SAME時, 新特征圖的大小只與卷積核滑動步長Stride相關, 當卷積形式是VALID時, 新生成的特征圖大小與步長Stride和卷積核大小線性相關. 對于一張確定的特征圖以及卷積形式, 均可通過公式計算出新特征圖的維度.
1.1.2 采樣層
1.1.3 全連接層
全連接層是直接將高層特征進一步通過矩陣的行列式乘積變成若干向量, 然后基于此開展下游任務, 假設全連接任務是單標簽預測和單值回歸, 全連接過程計算公式如下:fc=MF,
Fw=MH,(5)其中表示特征圖M與矩陣F之間相乘, 得到目標向量fc, 特征圖的最后一個維度與全連接矩陣的第一個維度相同.
1.2 循環(huán)神經(jīng)網(wǎng)絡
卷積神經(jīng)網(wǎng)絡以及淺層的全連接網(wǎng)絡考慮的是對單個特征圖的特征抽取, 缺乏對特征圖之間的關聯(lián)學習, 循環(huán)神經(jīng)網(wǎng)絡[16]解決的是特征圖之間的語義關聯(lián)以及上下文的語義學習. 循環(huán)神經(jīng)網(wǎng)絡常被用于知識推理、 語言生成和語義理解等領域. 常見的循環(huán)神經(jīng)網(wǎng)絡主要包括: GRU(gate recurrent unit)和Bi-LSTM(bi-directional long short-term memory)等. Bi-LSTM是常見的網(wǎng)絡架構, 如圖2所示. 由圖2可見, Bi-LSTM的基本架構是兩層平行的LSTM(long short-term memory): 前向和后向. 兩者基于特征圖的不同輸入順序從兩個方向?qū)W習特征之間的相互依賴關系, 從而得到更魯棒的特征. 對Bi-LSTM的兩個維度的輸出進行拼接便可得到融合模型, 一種典型的融合如圖3所示.
2 算法設計
SFSR-age算法首先使用殘差網(wǎng)絡提取人臉圖像特征圖; 然后基于注意力矩陣動態(tài)學習人臉目標區(qū)域語義特征, 從語義上區(qū)分人臉和背景; 最后基于多層梯形Bi-LSTM網(wǎng)絡逐層提取人臉區(qū)域高層特征, 最終得到年齡分類結果.
SFSR-age算法主要包括兩部分.
1) 基于注意力矩陣的目標人臉特征提取模塊. 由于光線、 用戶距離計算機攝像頭遠近等的影響, 用戶面部圖像常出現(xiàn)模糊甚至被遮擋的情況, 如何快速鎖定用戶面部輪廓、 準確提取面部特征對基于面部識別用戶身份至關重要. 本文使用目標人臉注意力矩陣訓練目標圖片, 提取目標圖片人臉特征, 最大程度地學習有用特征. 因此提出基于注意力矩陣的人臉區(qū)域快速定位和特征抽取算法.
2) 基于分層級聯(lián)的Bi-LSTM人臉特征抽取算法. 不同時刻攝像頭采集的人臉圖像清晰度不同, 有時人臉被遮擋, 甚至部分人臉沒有出現(xiàn)在畫面中, 基于上下文信息借助衣著、 面部表情、 動作等識別出用戶身份, 能有效解決用戶面部短暫脫離攝像頭產(chǎn)生的身份識別不準問題. 因此, 本文提出基于梯形結構的分層Bi-LSTM抽取用戶面部特征.
本文將1)和2)相結合共同提取用戶的面部特征, 用于實現(xiàn)對基于人臉年齡的識別. SFSR-age算法基本框架如圖4所示.
2.1 SFSR-age算法注意力矩陣
通過對大量人臉圖像進行訓練, 優(yōu)化全局動態(tài)注意力矩陣(attention matrix, AM)提取圖像中人臉特征, 同時弱化非人臉區(qū)域?qū)θ四槄^(qū)域特征邊界的干擾, 達到準確提取人臉特征的目的. 由于目前大多數(shù)人臉年齡數(shù)據(jù)集缺少對人臉的標注信息, 為滿足本文研究的需要, 需要對IMDB-WIKI和Adience等人臉年齡數(shù)據(jù)集進行預處理得到人臉標定信息. 本文使用基于YOLO5預訓練模型實現(xiàn)對所使用的數(shù)據(jù)集人臉進行初步標注, 得到每張人臉的Bounding-Box, Bounding-Box區(qū)域即為目標區(qū)域, 區(qū)域外即為背景. 只有Bounding-Box區(qū)域包含人臉, 對年齡識別起關鍵作用. 將目標與背景進行精確分割是準確識別人臉輪廓的關鍵, 基于此本文設置全局注意力矩陣識別目標輪廓, 過程如下.
1) 將數(shù)據(jù)集中的每張圖像進行如下處理:AtentionMatrix=Mn((Ai,j,h-H/2)2+(Ai,j,w-W/2)2,255.0),
其中H和W分別表示目標人臉區(qū)域特征圖的高度和寬度, A表示特征圖像素位置矩陣, Ai,j,h和Ai,j,w表示特征圖位置, (i,j)對應相對原點的高度和寬度, 坐標(W/2,H/2)表示人臉目標中心, 由式(1)可見, 越遠離目標中心的像素點與目標的關聯(lián)越小, 映射后的值越大. 其效果就是對于AtentionMatrix矩陣, 越靠近目標中心的像素點映射后值越大, 顏色越淺, 越遠離目標中心的像素點映射后值越小, 顏色越深. 矩陣A的大小與原始圖像大小完全相同.
2) 原始圖像特征提取. 使用殘差網(wǎng)絡提取圖像靜態(tài)特征, 實現(xiàn)對人臉輪廓及人臉區(qū)域的建模. 殘差網(wǎng)絡輸出的特征圖即為人臉特征, 使用目標輪廓與預測輪廓進行距離求解. 本文基于余弦距離和歐氏距離求解預測區(qū)域特征與真實目標區(qū)域之間的差異, 為計算方便, 首先將目標注意力矩陣與預測注意力矩陣進行灰度化處理, 得到灰度矩陣, 計算兩者之間的距離損失, 即dis←∑B/q=0∑A/k=0∑Z/j=01-cos(pk,j,tk,j)+‖pk,j,tk,j‖,(7)其中B,A,Z分別是批大小、 圖像寬和高, k表示x軸坐標, j表示y軸坐標, q表示z軸坐標. 假設坐標原點為o, 圖像任意一點均位于二維空間中, 如圖5所示.
對人臉目標進行識別時, 預測向量與目標向量越重疊, 余弦值越大, 優(yōu)化目標是使1-cos(pk,j,tk,j)最小, 即cos(pk,j,tk,j)越大越好, 余弦距離只能保證向量平行, 平行包含重疊, 但對于目標定位, 滿足平行不足以定位, 歐氏距離‖pk,j,tk,j‖是求解預測輪廓與實際輪廓之間的絕對距離, 能保證預測輪廓絕對靠近目標輪廓. 因此, 基于上述兩個損失即可保證預測輪廓的準確性.
數(shù)據(jù)集IMDB-WIKI和Adience部分原始樣本和標注后的樣本分別如圖6和圖7所示. 部分圖像的注意力矩陣如圖8所示. 在圖6和圖7中, 下半部分被紅色矩形圍起來的即為借助YOLO5算法框定的人臉區(qū)域, 人臉區(qū)域是年齡識別的主要學習目標. 圖8是YOLO5算法識別出的人臉區(qū)域基于式(6)計算得到的注意力矩陣, 矩陣中心顏色最深, 向外顏色逐漸變淺, 注意力逐漸減弱.
2.2 基于分層Bi-LSTM人臉特征抽取
基于殘差網(wǎng)絡提取的特征圖使用若干個層疊Bi-LSTM實現(xiàn)對目標人臉的特征抽取, 得到分類特征, 完成對年齡階段及年齡的預測. 人臉特征的形式化表示如下:fea←f(f(xn)‖θ,λ0,…,λn),
f(x0)=f(Xλ0,B),(8)其中B表示BasicCNN的網(wǎng)絡參數(shù), λn為第n層Bi-LSTM的隱藏層節(jié)點數(shù), X為第一層Bi-LSTM的輸入.
本文為進一步分層學習目標人臉區(qū)域的深層次特征, 層疊Bi-LSTM之間均設置門控參數(shù), 實現(xiàn)對重要特征的蒸餾, 每層Bi-LSTM之間依次基于上一層的建模輸出乘以門控因子作為本層的輸入. 圖4中已經(jīng)給出了基于分層Bi-LSTM過程用來提取人臉特征. 基于層疊Bi-LSTM特征分層提取的網(wǎng)絡結構如圖9所示. 由圖4和圖9可見, 本文基于人臉的年齡分類算法的誤差由兩部分組成: 人臉全域建模與特征提取和全域真實注意力矩陣之間的誤差, 誤差計算公式由式(7)給出.
基于門控分層Bi-LSTM對年齡預測的損失, 由于本文使用的數(shù)據(jù)集均為帶年齡標簽的數(shù)據(jù)集, 將對年齡的預測轉(zhuǎn)換成對年齡的分類問題, 誤差由交叉熵給出, 總的損失為Loss←dis-∑B/q=0∑C/k=0Pq.klog(pq.k),(9)其中C表示年齡類別, Pq.k表示樣本q被分類為類別k的概率.
3 實驗結果與分析
3.1 實驗環(huán)境與參數(shù)配置
本文使用的數(shù)據(jù)集為IMDB-WIKI和Adience人臉年齡數(shù)據(jù)集. 本文提出的SFSR-age算法可在GPU快速部署運行, 與其他算法在GPU上進行對比實驗, 對比實驗硬件配置: GPU為RTX 2080Ti, 操作系統(tǒng)為Ubuntu18.04, 內(nèi)存為16 GB, 硬盤大小為1 000 GB, CPU核個數(shù)為4, GPU核個數(shù)為1~6. 實驗超參數(shù)設置: 批次大小設為64, 學習率設為0.001, 截斷損失為100, 優(yōu)化函數(shù)采用AdamOptimizer.
3.2 數(shù)據(jù)集實驗結果
將SFSR-age算法與對比算法在多個數(shù)據(jù)集上進行對比實驗, 本文使用的數(shù)據(jù)集基本信息列于表1. 其中數(shù)據(jù)集IMDB-WIKI和Adience的8個類別樣本分布列于表2. 每個類別均給出了相應的數(shù)據(jù)規(guī)模, 為使訓練過程穩(wěn)定, 本文在選取樣本時盡量使男女比例為1∶1, 并且在整個數(shù)據(jù)集的所有年齡類別進行采樣, 其中, 數(shù)據(jù)集IMDB-WIKI的每個年齡段選取1 000名男性和1 000名女性; 數(shù)據(jù)集Adience中, 由于數(shù)據(jù)分布特征, 每個類別的樣本均按最大限度采樣, 而又不使不同類別間樣本失衡, 最終選取出16 080個樣本數(shù)據(jù). 基于以上兩個數(shù)據(jù)集的采樣, 得到對應的子集合并成新的數(shù)據(jù)集, 然后進行對比實驗, 獲得實驗結果.
本文實驗的對比算法為CNN[17],VGG-Face-SVM[18], CNN-SVM[19],VGG16-DEX-IMDB[20],CNN-SE-ELM,VGG-Face-FC. 評估指標分別為: 準確率(Accuracy)、 精確率(Precision)、 召回率(Recall)、 F1值(F1-Score), 直接調(diào)用Sklearn.metrics封裝好的計算公式計算這4個指標值. 4種評估指標計算公式分別為[FC(]Precision(p)=TP/TP+FP,
3.3 數(shù)據(jù)集實驗分析
本文算法在兩個數(shù)據(jù)集上的實驗結果列于表3. 由表3可見, 本文算法具有較好的魯棒性, 4種評估指標下的實驗結果均較高. 為驗證本文提出的SFSR-age算法對人臉圖像特征提取的有效性以及年齡分類的準確率, 本文算法與目前已有的算法實驗結果對比列于表4. 由表4可見, 本文SFSR-age算法在數(shù)據(jù)集IMDB-WIKI和Adience上的實驗結果優(yōu)于其他算法在原始數(shù)據(jù)集上的實驗結果.
圖10為本文算法在數(shù)據(jù)集訓練過程中預測的注意力矩陣逐步優(yōu)化過程, 其中第2行是目標注意力矩陣, 第3行后的所有圖片均是算法訓練過程中對注意力矩陣優(yōu)化過程中產(chǎn)生的. 由圖10可見, 算法訓練早期, 預測的注意力矩陣是隨機的, 隨著訓練的深入, 預測的注意力矩陣逐漸向目標注意力矩陣靠攏直至重合.
為進一步量化SFSR-age算法相比其他對比算法在權威公開人臉數(shù)據(jù)集上年齡分類的準確率提升情況, 不同算法在兩個數(shù)據(jù)集上評估指標提升結果列于表5.
由表4和表5可見, 以F1為評估指標條件下, 本文算法在兩個數(shù)據(jù)集的F1值最大提升82.186%, 最小提升16.925%; 本文算法實驗準確率完全超過CNN以及VGG-Face算法, 與目前最新的人臉年齡識別算法CNN-SE-ELM以及VGG16-DEX-IMDB算法相比, 本文算法在F1值上仍分別提升了19.815%和21.688%. 上述對比結果表明, 本文算法具有一定的優(yōu)勢.
綜上所述, 針對因光照、 拍攝角度及圖片質(zhì)量等因素導致的經(jīng)典深度學習算法難以有效提取人臉特征、 人物身份識別準確率難以達到理想精度的問題, 本文提出了一種基于人臉強語義的年齡識別算法. 首先采用殘差網(wǎng)絡提取人臉圖像特征圖, 基于注意力矩陣動態(tài)學習人臉目標區(qū)域的語義特征, 從語義上區(qū)分人臉和背景; 其次, 利用多層梯形Bi-LSTM網(wǎng)絡逐層提取人臉區(qū)域的高層特征, 最終得到年齡分類結果. 在實驗中, 分別對數(shù)據(jù)集IMDB-WIKI和Adience進行了預處理, 將每個樣本打上Bounding-Box標簽, 使用多個損失共同優(yōu)化算法在人臉數(shù)據(jù)集上的年齡分類誤差. 實驗結果表明, 本文算法在數(shù)據(jù)集上的實驗具有更高的準確率, 且優(yōu)于其他對比算法.
參考文獻
[1]陳文兵, 李育霖, 陳允杰. 一種基于CNN-SE-ELM的年齡和性別識別模型 [J]. 計算機工程與科學, 2021, 43(5): 872-882. (CHEN W B, LI Y L, CHEN Y J. An Age and Gender Recognition Model Based on CNN-SE-ELM [J]. Computer Engineering and Science, 2021, 43(5): 872-882.)
[2]陳濟楠, 李少波, 高宗, 等. 基于改進CNN的年齡和性別識別 [J]. 計算機工程與應用, 2018, 54(16): 135-139. (CHEN J N, LI S B, GAO Z, et al. Age and Gender Recognition Based on an Improved CNN [J]. Journal of Computer Engineering and Applications, 2018, 54(16): 135-139.)
[3]周玉陽, 秦科. 改進的VGG網(wǎng)絡可提升年齡與性別預測準確率 [J]. 計算機工程與應用, 2019, 55(18): 173-179. (ZHOU Y Y, QIN K. Improved VGG Network Can Enhance the Accuracy of Age and Gender Prediction [J]. Journal of Computer Engineering and Applications, 2019, 55(18): 173-179.)
[4]SIMONYAN K, ZISSERMAN A. Very Deep Convolutional Networks for Large-Scale Image Recognition [EB/OL]. (2014-09-14)[2023-05-01]. https://arxiv.org/abs/1409.1556.
[5]錢麗萍, 俞寧寧, 黃玉蘋, 等. 一種基于改進集成學習策略的人臉圖像年齡識別方法: CN201910027193.2 [P]. 2021-06-18. (QIAN L P, YU N N, HUANG Y P, et al. An Age Recognition Method for Face Images Based on an Improved Ensemble Learning Strategy: CN201910027193.2 [P]. 2021-06-18.)
[6]房國志, 孫康瞳. 多尺度YOLO人臉年齡估計方法研究 [J]. 計算機工程與應用, 2019, 55(21): 135-141. (FANG G Z, SUN K T. Research on a Multi-scale YOLO Method for Face Age Estimation [J]. Journal of Computer Engineering and Applications, 2019, 55(21): 135-141.)
[7]于秀萍, 呂淑平, 陳志韜. 基于YOLO算法的多類目標識別 [J]. 實驗室研究與探索, 2019(3): 34-36. (YU X P, L S P, CHEN Z T. Multi-class Object Identification Based on YOLO Algorithm [J]. Laboratory Research and Exploration, 2019(3): 34-36.)
[8]趙丙娟. 基于偏最小二乘降維的人臉年齡估計研究 [D]. 南昌: 南昌大學, 2017. (ZHAO B J. Research on Face Age Estimation Based on Partial Least Square Dimension Reduction [D]. Nanchang: Nanchang University, 2017.)
[9]COOTES T F, EDWARDS G J, TAYLOR C J. Active Appearance Models [C]//European Conference on Computer Vision. Berlin: Springer, 1998: 484-498.
[10]WOLD H. Path Models with Latent Variables: The NIPALS Approach [J]. Quantitative Sociology, 1975, 11: 307-357.
[11]GUO G D, MU G W, FU Y, et al. Human Age Estimation Using Bioinspired Features [C]//The 2009 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2009: 112-119.
[12]田會娟, 喬明天, 蔡敏鵬. 基于變化光照下的人臉識別與年齡估計 [J]. 激光與光電子學進展, 2022, 59(2): 252-262. (TIAN H J, QIAO M T, CAI M P. Face Recognition and Age Estimation under Changing Illumination Conditions [J]. Laser & Optoelectronics Progress, 2022, 59(2): 252-261.)
[13]田青, 毛軍翔, 曹猛. 耦合關系自學習的人臉年齡估計研究[J]. 智能系統(tǒng)學報, 2022, 17(2): 257-265. (TIAN Q, MAO J X, CAO M. Self-learning Coupled Relationships for Face Age Estimation [J]. Journal of Intelligent Systems, 2022, 17(2): 257-265.)
[14]張會影, 圣文順, 曾耀徵. 基于標記分布學習的人臉年齡識別算法 [J]. 江蘇大學學報(自然科學版), 2023, 44(2): 180-185. (ZHANG H Y, SHENG W S, ZENG Y Z. Face Age Recognition Algorithm Based on Label Distribution Learning [J]. Journal of Jiangsu University (Natural Science Edition), 2023, 44(2): 180-185.)
[15]竇慧, 張凌茗, 韓峰, 等. 卷積神經(jīng)網(wǎng)絡的可解釋性研究綜述 [J/OL]. 軟件學報, (2023-02-23)[2023-04-26]. https://kns.cnki.net/kcms/detail//11.2560.TP.20230222.1625.013.html. (DOU H, ZHANG L M, HAN F, et al. A Review of the Interpretability of Convolutional Neural Networks [J/OL]. Journal of Software, (2023-02-23)[2023-04-26]. https://kns.cnki.net/kcms/detail//11.2560.TP.20230222.1625.013.html.)
[16]胡中源, 薛羽, 查加杰. 演化循環(huán)神經(jīng)網(wǎng)絡研究綜述 [J]. 計算機科學, 2023, 50(3): 254-265. (HU Z Y, XUE Y, ZHA J J. A Review of Evolutionary Recurrent Neural Networks [J]. Computer Science, 2023, 50(3): 254-265.)
[17]HU J, SHEN L, SUN G. Squeeze-and-Excitation Networks? [C]//The 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2018: 7132-7141.
[18]OZBULAK G, AYTAR Y, EKENEL H K. How Transferable Are CNN-Based Features for Age and Gender Classification? [C]//2016 International Conference of the Biometrics Special Interest Group (BIOSIG). Piscataway, NJ: IEEE, 2016: 1-6.
[19]WOLFSHAAR J, KARAABA M F, WIERING M A. Deep Convolutional Neural Networks and Support Vector Machines for Gender Recognition [C]//IEEE Symposium Series on Computational Intelligence. Piscataway, NJ: IEEE, 2015: 188-195.
[20]ROTHE R, TIMOFTE R, VAN GOOL L. Deep Expectation of Real and Apparent Age from a Single Image without Facial Land-Marks [J]. International Journal of Computer Vision, 2018, 126(2): 144-157.
(責任編輯: 韓 嘯)
收稿日期: 2023-05-26.
第一作者簡介: 孫旭菲(1999—), 男, 漢族, 碩士研究生, 從事數(shù)據(jù)挖掘和人臉識別的研究, E-mail: 3522945497@qq.com.
通信作者簡介: 繆新穎(1977—), 女, 滿族, 博士, 教授, 從事智能控制和數(shù)據(jù)挖掘的研究, E-mail: miaoxinying@dlou.edu.cn.
基金項目: 遼寧省揭榜掛帥重點項目(批準號: 2022081)和設施漁業(yè)教育部重點實驗室開放課題項目(批準號: 202306).