劉潤基 王一丁
摘 要:
基于深度學習的指靜脈識別方法通常需要大量的計算資源,限制了其在嵌入設備上的推廣和普及,采用輕量級網絡又面臨模型參數減少導致準確率下降的問題,為此提出一種基于指靜脈關鍵特征和AdaFace損失的輕量級識別算法。在MicroNet框架中,首先提出一種FMixconv卷積來替代原網絡中的深度卷積,減少參數的同時可以獲得靜脈特征的多尺度信息;其次引入輕量級注意力模塊CA模塊,從空間和通道上聚焦于靜脈特征的關鍵信息;最后在損失函數中加入AdaFace損失,通過特征范數對圖像質量進行評價,以減少圖像質量下降對訓練的影響。該算法在SDUMLA-HMT、FV-USM和自建數據集上的識別準確率達到99.84%、99.39%和99.42%,而參數量僅有0.82 M。實驗結果表明,該算法在準確率和參數量大小上均領先于其他方法。
關鍵詞:指靜脈識別;輕量級網絡;MicroNet;AdaFace損失
中圖分類號:TP391.41?? 文獻標志碼:A??? 文章編號:1001-3695(2024)03-044-0933-06doi: 10.19734/j.issn.1001-3695.2023.06.0304
Research on lightweight recognition algorithm based on key features of finger vein and AdaFace loss
Liu Runji, Wang Yiding
(School of Information, North China University of Technology, Beijing 100144, China)
Abstract:
Finger vein recognition methods based on deep learning usually require a large amount of computing resources, it limits their promotion and popularization on embedded devices. The adoption of lightweight network faces the problem of decreasing accuracy due to the reduction of model parameters. Therefore, this paper proposed a lightweight recognition algorithm based on key features of finger vein and AdaFace loss. In the MicroNet network framework, firstly, this paper proposed FMixconv convolution to replace the deep convolution in the original network, which could obtain multi-scale information of vein features while reducing parameters. Secondly, the method used a lightweight attention module, CA module, to focus on key information of venous characteristics from space and channel. Finally, the algorithm added AdaFace loss into the loss function, through the characteristics of the norm to evaluate image quality, to reduce the impact of image quality degradation on training. The recognition accuracy of the proposed algorithm on SDUMLA-HMT, FV-USM and self-built datasets reached 99.84%, 99.39% and 99.42%, while the number of parameters was only 0.82 M. Experimental results show that the proposed network is ahead of other methods in accuracy and parameter size. Key words:finger vein recognition; lightweight network; MicroNet; AdaFace loss
0 引言
隨著現代科技的不斷發(fā)展,人們對身份安全信息愈發(fā)看重。生物特征識別作為身份認證技術的一種解決方案,典型代表有人臉識別、指紋識別、虹膜識別和靜脈識別等。而指靜脈識別作為新一代的生物特征識別技術,與人臉、指紋等其他生物特征相比,具有活體識別、皮下特征不可復制、特征唯一、識別穩(wěn)定、無法造假等優(yōu)勢,是人工智能時代十分安全精確的生物識別技術之一。
日本科研者Kono在2000年首次成功地將指靜脈識別用于身份認證[1]。自此,指靜脈識別技術迅速發(fā)展,取得了大量的成果。對于指靜脈識別來說,提取準確魯棒的特征是指靜脈識別的關鍵。2015年之前,指靜脈識別的方法被稱之為傳統(tǒng)方法。傳統(tǒng)方法主要以圖像處理、統(tǒng)計學等方法來提取指靜脈特征,并與分類方法相結合,進行識別。這些方法大多都存在著計算復雜、識別效率較低、識別不夠魯棒等問題。
2015年之后,隨著深度學習的發(fā)展,以及其在計算機視覺領域取得的成果,大量學者開始將深度學習用于指靜脈識別之中,依靠傳統(tǒng)方法提取指靜脈特征的方法被深度學習方法所取代。Yeh等人[2]使用Cutout方法進行數據增廣,將處理后的圖片送入ResNeXt-101中。Huang等人[3]在ResNet-50的基礎上,與基于U-Net的空間注意機制相結合,改進設計了一種指靜脈分類CNN模型。Li等人[4]為了讓網絡更加注重指靜脈的紋理特征,先將指靜脈圖像分塊,再送入ViT模型與膠囊網絡相結合的網絡之中。戴坤龍[5]在ResNet的基礎上加入注意力機制,并與度量學習相結合,有效地提高了識別性能。
基于深度學習的方法基本都是以追求提升識別精確率為主要目的,采用的技術手段主要包括加深網絡結構和增強卷積模塊特征提取功能等,這通常需要復雜的網絡模型結構,對硬件設備的計算能力要求較高,需要的內存也大大增加。為解決這個問題,許多學者提出了不同的輕量級網絡。2016年,Iandola等人[6]提出了SqueezeNet,采用1×1卷積對上一層特征圖進行降維,在準確度幾乎與AlexNet一樣的情況下,參數量少。2017年谷歌提出了MobileNet[7], 將普通卷積分解成Deepthwise(DW卷積)和Pointwise(PW),兩者組合成深度可分離卷積,極大地減少了網絡的參數量。同年,ShuffleNet[8]使用逐點組卷積降低逐點卷積的復雜度,同時通過channle shuffle改善跨通道卷積的信息流通。2020年,華為設計了Ghost模塊,通過cheap operation以較小的計算量生成了更多的特征圖,并以此為基礎提出了GhostNet[9]。2021年,微軟設計了micro-factorized convolution和dynamic shift max激活函數,并基于這兩個操作,提出了MicroNet[10],以極低的計算成本解決了當參數極小時,網絡性能大幅下降的問題。
受到上述工作的啟發(fā),許多工作者開始研究如何在保持較高指靜脈識別準確率的前提下精簡網絡結構,使其能夠部署到嵌入式開發(fā)板上。Shaheed等人[11]提出了一種基于深度可分離卷積的神經網絡的預訓練Xception模型用于指靜脈識別。Ren等人[12]基于MobileNetV3,將深度可分離卷積、倒殘差結構和網絡搜索技術相結合,設計了一個輕量級的多模態(tài)特征融合網絡 FPV-Net。牟家樂等人[13]在網絡中引用教師-學生網絡模式,對網絡進行知識蒸餾,在保持較少參數量的情況下提高了識別的準確率。Zhao等人[14]提出了一個輕量級的CNN, 全連接層輸出的特征向量長度為200,將softmax 損失與中心損失相結合。
以上方法大多都是結合指靜脈數據集樣本數量較少的特點,自己搭建小型網絡或者對經典網絡進行壓縮,難以保證較高的識別準確率。因此,設計一種能夠平衡識別準確率和網絡大小的指靜脈識別網絡至關重要。為此,本文提出一種基于指靜脈關鍵特征和AdaFace損失的輕量級識別算法,相關工作包括:a)指靜脈感興趣區(qū)域提??;b)以MicroNet-M0作為基礎網絡,使用低秩分解后的MixConv[15]代替深度卷積,使網絡能夠提取到靜脈圖像的多尺度特征;c)引入輕量級注意力模塊CA模塊[16],在幾乎可以忽略參數量的情況下,提高網絡在跨空間和跨通道上對指靜脈紋理的注意力;d)采用AdaFace損失與SoftTargetCrossEntropy損失相結合的方法,在減少靜脈缺失圖像對訓練影響的同時,減少類內距離,增大類間距離;e)將本文算法部署在嵌入式平臺,并與其他模型相比較。
1 MicroNet
在指靜脈圖像采集時,由于手指錯位、光線變換等影響,采取到的圖片質量參差不齊,指靜脈血管與背景噪聲區(qū)分不明顯,需要選擇提取特征能力較強的神經網絡。同時考慮到指靜脈數據集圖像數量較少的情況,采用復雜網絡雖然提取特征能力較強,但是參數量較大,容易過擬合,而且后續(xù)的模型部署較為困難。MicroNet結構簡單,特征提取能力較強,解決了當參數量極少時,網絡性能大幅下降的問題,適合部署在嵌入式開發(fā)板上。因此,本文采用MicroNet作為基礎網絡。
MicroNet作為一種輕量級網絡,其使用micro-factorized convolution(MF-Dconv),通過低秩分解將深度卷積分解成數個小卷積,在減少網絡通道數的同時,使輸入輸出中特征圖包含的信息損失較小,并使用dynamic shift-max(DY-Shift-Max)作為激活函數。DY-Shift-Max是一種動態(tài)激活函數,它可以在提升非線性表達的同時,使用動態(tài)的組間特征融合增加節(jié)點的連接性,盡量降低網絡深度減少對性能產生的影響。
MicroNet是由多個micro-block組成的,里面均包含了DY-Shift-Max作為激活函數。micro-block又分為block-A、block-B、block-C,結構如圖1所示。
MicroNet-M0的網絡框架分為8個模塊。第1個模塊是stem層,用于縮小圖片尺寸,由兩個卷積層構成,其大小分別為3×1和1×3。第2和第3個模塊是由block-A構成。第4個模塊由block-B構成。第5~7個模塊是由block-C構成。而第8個模塊是由平均池化層和全連接層組成。MicroNet-M1~M3的網絡結構是在三種micro-block的基礎上設計,并修改特征層通道數、卷積分組數。由于MicroNet具有四種結構,為了選取最優(yōu)結構作為指靜脈識別的基礎網絡,將提取的ROI圖像原圖作為網絡的輸入圖像進行實驗。實驗結果如表1所示。經過對比,M0參數量最小,而準確率最高,因此選擇M0作為基礎網絡。
2 MicroNet-M0基礎網絡的改進
本文旨在保證網絡模型輕量的前提下,加強網絡對于指靜脈特征的提取能力,保證指靜脈識別的準確率。首先,將數據集圖像經過感興趣區(qū)域提取,分為訓練集和測試集,并進行數據增強。然后,使用低秩分解后的MixConv卷積替代原網絡中的深度卷積。同時,在每個block末端加入CA模塊以提高網絡在跨空間和跨通道上對指靜脈紋理的注意力。兩者均為獲取指靜脈的關鍵特征,并與MicroNet組成新的block,即MicroMix-Block,如圖2所示。
以此為基礎設計了一種改進的MicroNet-M0網絡,即MicroMixNet,如圖3所示。將訓練集送入MicroMixNet中訓練,得到512維的特征向量,將其送入AdaFace損失函數中優(yōu)化特征向量之間的距離,最后計算特征向量之間的距離,進行分類匹配。區(qū)別于其他的目標識別,MicroMixnet在新增類別時,只需要采集新圖像送入網絡進行特征提取后存入庫中,而不需要重新訓練,極大滿足了實際運用場景的需要。
2.1 指靜脈感興趣區(qū)域提取
指靜脈圖像蘊涵著大量的背景噪聲,而且手指位置存在平移或旋轉的情況。根據圖3,第一部分需要完成指靜脈感興趣區(qū)域的提取,以保留指靜脈血管特征較豐富的區(qū)域。a)得到手指輪廓,通過對原圖4(a)進行Canny邊緣檢測實現,如圖4(b)所示;b)計算出手指中線,將檢測到的上下手指邊緣作差,得到手指中線,如圖4(c)所示;c)圖像角度旋轉,將指靜脈圖像根據手指中線進行旋轉,旋轉角度則是手指中線與水平方向的夾角,如圖4(d)所示;d)圖像剪裁,旋轉后為了防止提取的區(qū)域混有背景噪聲,采用最小內接矩形法對其進行裁切,得到圖4(e)所示;e)圖像增強,將得到的圖片進行限制對比度自適應直方圖均衡,使指靜脈血管與非血管部分區(qū)別更加明顯,并將圖片尺寸歸一化到224×224,同時對像素進行歸一化。此時圖4(f)即是所要的感興趣區(qū)域。
3 實驗與部署
3.1 實驗環(huán)境和評價指標
實驗平臺為PC平臺和嵌入式平臺。
PC平臺系統(tǒng)為Windows11,CPU型號為Intel i7-11700 @ 2.50 GHz,32 GB內存,GPU為NVIDIA GTX3080Ti顯卡。開發(fā)環(huán)境配置為PyCharm、PyTorch1.11.0、CUDA11.3、 Python3.8。
嵌入式平臺為NVIDIA Jetson Nano開發(fā)板,嵌入式平臺環(huán)境配置設為Jetpack4.4、 PyTorch1.8.0、Python3.6。
本文指靜脈圖像采集裝置為微盾WDH-1101指靜脈采集儀。圖10右側為WDH-1101指靜脈采集儀,左側為NVIDIA Jetson Nano開發(fā)板。指靜脈采集界面如圖11所示。
本文采用識別準確率(accuracy)和ROC曲線作為評價指標。
accuracy 代表所有測試樣本中,能夠正確識別的樣本所占的百分比。
ROC曲線是誤識率false accept rate (FAR)、拒識率false reject rate (FRR)和閾值之間的一種關系,反映了識別算法在不同閾值上,FRR和FAR的平衡關系。ROC曲線的橫坐標為誤識率FAR,縱坐標為拒識率FRR。當曲線越靠近右下角坐標原點時,識別性能越好。
3.2 數據集和實驗設置
本文采用山東大學機器學習與數據挖掘實驗指靜脈數據集SDUMLA-HMT(SDU)[20]、馬來西亞理工大學手指靜脈數據集FV-USM(FVM)[21]和自建數據集(SF)。
SDU中的指靜脈圖像為320×240 像素的灰度圖像,共3 816張,沒有提供ROI圖像,都為原始圖像。其來自106個志愿者,共636類,每人采集了左右手的食指、中指和小拇指共6個手指,每個手指采集了6幅圖像。
FVM中的指靜脈圖像為640×480像素的灰度圖像,共采集了5 904幅圖像,提供了每幅圖像的ROI圖像。其來自123個志愿者,共492類,每個人采集了4個手指,分別是左手和右手的食指和中指。采集分為兩個階段,每個階段每個手指采集6幅圖像。在兩個數據集上每類都隨機選取5張作為訓練集,1張作為驗證集。
SF數據集來自微盾WDH-1101采集儀采集的35位志愿者右手的食指,共35類,每類20張圖片,一共采集了700張圖片。每類選擇10張作為訓練集,10張作為驗證集。
本文在訓練前將提取的ROI圖像尺寸統(tǒng)一到224×224,并將像素歸一化到0~1,然后對訓練集的圖片進行隨機剪裁、-45°~45°的隨機角度旋轉、隨機翻轉、仿射變換。在訓練時每個epoch隨機對10%的圖片進行MixUp、Cutmix處理。梯度優(yōu)化器使用Adam優(yōu)化器,初始學習率設為0.001,學習率的更新采用余弦退火方法,每20個epoch為一個周期。每一個批次訓練32張圖片,損失函數在訓練集上使用AdaFace損失與SoftTargetCrossEntropy損失函數相結合的方法,驗證集上使用AdaFace與CrossEntropy損失函數相結合的方法。
3.3 網絡實驗及分析
由于注意力模塊放置位置不同,對網絡的性能會有影響,本文為了探究注意力模塊的最佳位置,只在原網絡中加入FMixconv和通道壓縮比系數r=16的情況下,對比了三種不同位置的準確率,如表2所示。top代表放置在block的最前端,mid代表放置在MixConv后,bot代表放置在block外,將輸出結果進行殘差連接。實驗結果表明,把CA模塊放置在bot處準確率達到99.69%,效果最好。
同時,為了探究CA模塊中通道壓縮比系數r的最佳值,本文在bot位置對r=8、r=16、r=32三種情況進行對比實驗,如表3所示,最后發(fā)現r=16時準確率達到99.69%,識別準確率最高。因此本文將CA模塊置于bot位置,取r=16。
最后為了驗證本文方法的有效性,與原網絡進行對比實驗,本文方法相比MicroNet-M0網絡的準確率提高了2.51%,如表4所示。
3.4 與輕量級網絡在嵌入式平臺的對比實驗及分析
3.4.1 識別性能對比
將其他輕量級網絡和本文方法在不同閾值下得到的FRR和FAR繪制ROC曲線,如圖12所示。
可以看到,本文方法的曲線在三個數據集上都更加靠近左下角,且在SDU數據集上表現最好,當FAR為0時,FRR不到0.04,領先于其他網絡超過0.08。因此,本文方法具有較高的通過率和安全性,識別性能在三個訓練集上均領先于其他網絡。
3.4.2 識別準確率與模型參數對比
為了驗證本文方法的有效性,將訓練好的模型在Jetson Nano開發(fā)板上進行對比實驗。在上述三個數據集上,將本文方法與近年來常用的輕量級分類模型進行對比實驗,輸入均為經過預處理的ROI圖像,模型訓練方法均與3.2節(jié)所描述的相同,實驗結果如表5所示。
在SDU數據集上,本文方法相比準確率第2的MobileNetV2有1.43%的提高,在FVM數據集上比準確率第2的ShuffleNetV2-0.5有1.20%的提高,在SF數據集上比準確率第2的MobileVit-xxs和MobileNetV2有1.14%的提高。而在SDU數據集上,本文方法的網絡參數僅有0.82 M,Flops為6.11 M。本文方法在參數量最少的情況下,識別準確率仍然領先于其他網絡,證明了本文方法的有效性,如表6所示。
3.4.3 推理時間對比
為了證明本文方法的實時性,在沒有預熱的情況下,選取20張圖片進行測試,實驗結果如表7所示。
本文方法的運行時間僅有706.25 ms,低于其他方法,比位于第2的MobileNetV2網絡的運行時間少47.64 ms,同時模型大小不到其1/3,證明本文方法更適合部署于嵌入式開發(fā)板上。
3.4.4 類激活熱力圖對比
為了觀察網絡是否注意到指靜脈的關鍵特征,本文對網絡提取的特征進行了可視化,類激活熱力圖如圖13所示??梢钥吹?,本文方法所關注的靜脈區(qū)域更加全面,更加注重邊緣的靜脈紋理,并減少關注因外部條件影響而出現的陰影區(qū)域,因此本文方法能在與其他方法的對比實驗中取得更好的效果。
3.5 與其他方法的對比實驗及分析
本文還與其他方法在SDU和FVM兩個公共數據集上進行比較,如表8與9所示。在SDU數據集上,相比準確率第2的Merge CNN,本文方法準確率提高了0.36%。在FVM數據集上,本文方法準確率領先于輕量級CNN 0.81%。進一步證明了本文方法相比于其他方法更具有優(yōu)勢。
4 結束語
針對指靜脈識別網絡部署在移動端和嵌入式平臺困難的問題,本文提出了一種基于靜脈關鍵特征和AdaFace損失的輕量級指靜脈識別算法。首先在MicroNet-M0的基礎上進行改進,對MixConv進行低秩分解,替代原網絡中的深度卷積,獲得靜脈圖像不同尺度的信息。其次,使用CA模塊提高網絡在跨空間和跨通道上對指靜脈紋理的注意力,最后加入AdaFace損失減少低質量圖像對訓練的影響,并增大類間距離,減少類內距離。經實驗證明,本文方法在SDUMLA-HMT、FV-USM和SF數據集上的識別準確率達到99.84%、99.39%和99.42%,而參數量只有0.82 M,同時推理時間也僅有706.25 ms,更容易部署在嵌入式平臺上。
參考文獻:
[1]譚營,王軍. 手指靜脈身份識別技術最新進展 [J]. 智能系統(tǒng)學報,2011,6(6): 471-482. (Tan Ying,Wang Jun. The latest deve-lopment of finger vein identification technology [J]. CAAI Trans on Intelligent Systems,2011,6(6): 471-482.)
[2]Yeh J,Chan H T,Hsia C H. ResNext with cutout for finger vein ana-lysis [C]// Proc of International Symposium on Intelligent Signal Processing and Communication Systems. Piscataway,NJ:IEEE Press,2021: 1-2.
[3]Huang Zhe,Guo Chengan. Robust finger vein recognition based on deep CNN with spatial attention and bias field correction [J]. International Journal on Artificial Intelligence Tools,2021,30(1): 2140005.
[4]Li Yupeng,Lu Huimin,Wang Yifan,et al. ViT-Cap: a novel vision transformer-based capsule network model for finger vein recognition [J]. Applied Sciences,2022,12(20): 10364.
[5]戴坤龍. 基于深度度量學習的指靜脈識別研究及應用 [D]. 成都: 電子科技大學,2022. (Dai Kunlong. Research and application of finger vein recognition based on deep metric learning[D]. Chengdu: University of Electronic Science and Technology of China,2022.)
[6]Iandola F N,Han S,Moskewicz M W,et al. SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and<0.5 MB model size [EB/OL].(2016).https://doi.org/10.48550/arXiv.1602.07360.
[7]Howard A G,Zhu Menglong,Chen Bo,et al. MobileNets: efficient convolutional neural networks for mobile vision applications [EB/OL]. (2017). https://do iorg/10. 48550/arXiv. 1704. 04861.
[8]Zhang Xiangyu,Zhou Xinyu,Lin Mengxiao,et al. ShuffleNet: an extremely efficient convolutional neural network for mobile devices [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2018: 6848-6856.
[9]Han Kai,Wang Yunhe,Tian Qi,et al. GhostNet: more features from cheap operations [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:1577-1586.
[10]Li Yunsheng,Chen Yinpeng,Dai Xiyang,et al. MicroNet: improving image recognition with extremely low flops [C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press,2021: 458-467.
[11]Shaheed K,Mao Aihua,Qureshi I,et al. DS-CNN: a pre-trained Xception model based on depth-wise separable convolutional neural network for finger vein recognition [J]. Expert Systems with Applications,2022,191: 116288.
[12]Ren Hengyi,Sun Lijuan,Guo Jian,et al. A dataset and benchmark for multimodal biometric recognition based on fingerprint and finger vein [J]. IEEE Trans on Information Forensics and Security,2022,17: 2030-2043.
[13]牟家樂,沈雷,劉浩,等. 基于深度殘差網絡的輕量級指靜脈識別算法 [J]. 杭州電子科技大學學報:自然科學版,2023,43(2): 35-40,46. (Mu Jiale,Shen Lei,Liu Hao,et al. Lightweight finger vein recognition algorithm based on deep residual network [J]. Journal of Hangzhou Dianzi University:Natural Sciences,2023,43(2): 35-40,46.)
[14]Zhao Dongdong,Ma Hui,Yang Zedong,et al. Finger vein recognition based on lightweight CNN combining center loss and dynamic regularization [J]. Infrared Physics & Technology,2020,105: 103221.
[15]Tan Mingxing,Le Q V. MixConv: mixed depthwise convolutional kernels [EB/OL].(2019).https://doi.org/10.48550/arXiv.1907.09595.
[16]Hou Qibin,Zhou Daquan,Feng Jiashi. Coordinate attention for efficient mobile network design [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2021: 13708-13717.
[17]Hu Jie,Shen Li,Sun Gang. Squeeze-and-excitation networks [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2018: 7132-7141.
[18]Park J,Woo S,Lee J Y,et al. BAM: bottleneck attention module [EB/OL].(2018).https://doi.org/10.48550/arXiv.1807.06514.
[19]Woo S,Park J,Lee J Y,et al. CBAM: convolutional block attention module [C]// Proc of European Conference on Computer Vision. 2018: 3-19.
[20]Yin Yilong,Liu Lili,Sun Xiwei. SDUMLA-HMT: a multimodal biometric database [C]// Proc of the 6th Chinese Conference on Biometric Recognition. Berlin: Springer,2011: 260-268.
[21]Asaari M S M,Suandi S A,Rosdi B A. Fusion of band limited phase only correlation and width centroid contour distance for finger based biometrics [J]. Expert Systems with Applications,2014,41(7): 3367-3382.
[22]Zhong Yiqi,Li Jiahui,Chai Tingting,et al. Different dimension issues in deep feature space for finger-vein recognition [C]// Proc of the 15th Chinese Conference on Biometric Recognition. Berlin: Springer,2021: 295-303.
[23]Hou Borui,Yan Ruqiang. ArcVein-arccosine center loss for finger vein verification [J]. IEEE Trans on Instrumentation and Mea-surement,2021,70: 1-11.
[24]Tao Zhiyong,Wang Haotong,Hu Yalei,et al. DGLFV: deep genera-lized label algorithm for finger-vein recognition [J]. IEEE Access,2021,9: 78594-78
[25]Li Shuyi,Ma Ruijun,Fei Lunke,et al. Learning compact multi-representation feature descriptor for finger-vein recognition [J]. IEEE Trans on Information Forensics and Security,2022,17:1946-1958.
[26]Boucherit I,Zmirli M O,Hentabli H,et al. Finger vein identification using deeply-fused convolutional neural network [J]. Journal of King Saud University-Computer and Information Sciences,2022,34(3): 646-656.
[27]Li Jun,Yang Luokun,Ye Mingquan,et al. Finger vein verification on different datasets based on deep learning with triplet loss [J]. Computational and Mathematical Methods in Medicine,2022,2022: article ID 4868435.