程述立,汪烈軍,王有丹
(1.新疆大學(xué) 信息科學(xué)與工程學(xué)院,新疆 烏魯木齊 830017;2.新疆大學(xué) 數(shù)學(xué)與系統(tǒng)科學(xué)學(xué)院,新疆 烏魯木齊 830017)
隨著基礎(chǔ)設(shè)施的不斷完善和公共需求的不斷增長,行人重識別作為視頻監(jiān)控系統(tǒng)的一項(xiàng)關(guān)鍵技術(shù)受到了廣泛的關(guān)注,并在眾多領(lǐng)域都有很重要的應(yīng)用價值.行人重識別主要研究的是從不同的攝像機(jī)中檢索具有相同身份的人員或在同一攝像機(jī)的不同視頻片段中識別出目標(biāo)行人.該任務(wù)的目的是通過圖像檢索實(shí)現(xiàn)目標(biāo)匹配,將目標(biāo)人物與圖片庫中的人物信息進(jìn)行比對,篩選出圖片庫中含有目標(biāo)人物的信息[1].然而該任務(wù)也存在許多難點(diǎn),如在復(fù)雜環(huán)境下出現(xiàn)行人部分部位遮擋的問題以及設(shè)備質(zhì)量、距離導(dǎo)致的圖像分辨率低等問題,所以如何提取行人關(guān)鍵特征信息進(jìn)行度量判斷成為了研究重點(diǎn).
近些年,深度學(xué)習(xí)的方法在行人重識別任務(wù)上取得了一系列成果.相較傳統(tǒng)度量學(xué)習(xí)方法,深度學(xué)習(xí)的方法代替了其特征提取配合特征度量學(xué)習(xí)的模式,使得之后能夠更好地判別特征信息.基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)在圖像特征提取上彰顯出的獨(dú)特優(yōu)勢,許多研究者將行人重識別的主干網(wǎng)絡(luò)建立在CNN 上,如殘差網(wǎng)絡(luò)(Residual Network, ResNet)[2]、稠密連接網(wǎng)絡(luò)(Dense Convolutional Network, DenseNet)[3].雖然CNN 成為解決行人重識別任務(wù)的主流手段,它也因?yàn)楹雎粤碎L距離的上下文信息之間的關(guān)系而存在著自身的局限性.
隨著深度學(xué)習(xí)的不斷發(fā)展,注意力機(jī)制得到了廣泛的研究與應(yīng)用.類似人類處理信息的方法,該機(jī)制能夠使網(wǎng)絡(luò)快速聚焦一部分關(guān)鍵信息,同時忽略其它信息.注意力機(jī)制通常在輸入的特征信息上計算權(quán)重,根據(jù)權(quán)重對特征進(jìn)行處理從而強(qiáng)化有效特征、抑制無效特征.注意力機(jī)制從應(yīng)用位置上可劃分為三類:1)空間注意力.它可以對全圖進(jìn)行處理從而定位出感興趣的區(qū)域,有效地彌補(bǔ)了卷積操作對于全局特征提取能力的不足之處,代表性的網(wǎng)絡(luò)有動態(tài)容量網(wǎng)絡(luò)(Dynamic Capacity Networks, DCN)[4];2)通道注意力.如壓縮激發(fā)網(wǎng)絡(luò)(Squeeze-and-Excitation Networks, SENet)[5],它通過建模各個特征通道的重要程度,針對不同的通道特征進(jìn)行增強(qiáng)或者抑制;3)空間與通道混合注意力.它可以同時從兩個維度對特征進(jìn)行選擇,代表性的網(wǎng)絡(luò)有卷積塊狀注意力模塊網(wǎng)絡(luò)(Convolutional Block Attention Module, CBAM)[6]、瓶頸注意力模塊網(wǎng)絡(luò)(Bottleneck Attention Module, BAM)[7]等.由于注意力機(jī)制在增強(qiáng)圖片特征方面表現(xiàn)尤為突出,行人重識別任務(wù)中出現(xiàn)了許多基于注意力機(jī)制的方法,如自適應(yīng)聚合網(wǎng)絡(luò)(Adaptive Aggregation Network, AANet)[8]、基于關(guān)系感知的全局注意力網(wǎng)絡(luò)(Relation-Aware Global Attention, RAG)[9]等.一般來說,對于行人重識別任務(wù)的優(yōu)化主要是基于特征表示學(xué)習(xí)、深度度量學(xué)習(xí)和查詢結(jié)果排序這三個方面.研究人員基于這三個方面進(jìn)行了大量工作,有的改進(jìn)了特征學(xué)習(xí)方法,有的提出有效的度量損失函數(shù),也有的是在檢索排序階段進(jìn)行優(yōu)化.
一些研究人員通過引入局部特征學(xué)習(xí)或利用注意力機(jī)制聚焦于人體部位的關(guān)鍵信息來提取更飽滿的行人特征.Yang 等[10]探索了高級特征提取方法,目的是通過建模概念間關(guān)系來探索基于上下文的概念融合,而這并不是簡單的基于語義推理建模.由于生成對抗網(wǎng)絡(luò)(Generative Adversarial Network, GAN)[11]在生成圖像和學(xué)習(xí)特征方面具有良好性能,GAN 被廣泛應(yīng)用于人員再識別任務(wù).也有一些研究者利用人的三維形狀信息,更好地學(xué)習(xí)行人特征以提高行人重識別模型的魯棒性.Ye 等[1]探索了封閉世界和現(xiàn)實(shí)世界的行人重識別系統(tǒng),在標(biāo)準(zhǔn)封閉世界中系統(tǒng)認(rèn)為特征表示學(xué)習(xí)是該系統(tǒng)的三要素之一,專注于開發(fā)特征構(gòu)建策略,結(jié)合行人的全局特征、局部特征、輔助特征和視頻特征,通過這四類特征的綜合分析增強(qiáng)了最終的特征表示.Dai 等[12]則嘗試設(shè)計新的網(wǎng)絡(luò)模型,該網(wǎng)絡(luò)由ResNet-50[2]和一個特征丟棄網(wǎng)絡(luò)構(gòu)成,同時學(xué)習(xí)兩部分特征來增強(qiáng)模型的表達(dá)效果.研究者們不僅在主干網(wǎng)絡(luò)方面有所探究,還在損失函數(shù)方面做了一些研究.有研究者設(shè)計了不同的損失函數(shù),利用網(wǎng)絡(luò)模型優(yōu)化識別特征的學(xué)習(xí)[13].這些算法大多基于ResNet-50 進(jìn)行改進(jìn),但存在參數(shù)繁多,結(jié)構(gòu)復(fù)雜的問題,并且無法把握不同特征的重要性,導(dǎo)致行人識別不夠準(zhǔn)確,算法準(zhǔn)確度有待加強(qiáng).
行人再識別旨在解決跨攝像頭、跨場景下目標(biāo)行人的關(guān)聯(lián)與匹配,作為智能視頻監(jiān)控系統(tǒng)的關(guān)鍵環(huán)節(jié),對維護(hù)社會公共秩序具有重大作用.當(dāng)前,行人再識別研究視角多樣,如鳥瞰行人再識別[14],這類研究不僅趨向于水平視圖捕獲人員圖像,而且關(guān)注鳥瞰圖拍攝的人員信息;長時行人再識別研究[15],這類研究關(guān)注服裝有關(guān)的生物特征,通過服裝狀態(tài)意識網(wǎng)絡(luò),嵌入服裝狀態(tài)意識來規(guī)范行人的描述;跨模態(tài)行人再識別研究[16],旨在從數(shù)據(jù)庫匹配出該行人的紅外(或可見光)照片,突破單模態(tài)行人再識別在黑暗環(huán)境中的局限性,減輕模態(tài)差異的影響;無監(jiān)督行人重識別[17],旨在學(xué)習(xí)識別表征,從無標(biāo)簽數(shù)據(jù)中檢索行人;遮擋行人重新識別[18],這是一種基于變換器的姿勢引導(dǎo)特征分解方法,利用姿勢信息來明確分解語義部分;域適應(yīng)性行人重識別[19],研究表明時間上的連續(xù)性先驗(yàn)是有益的,它為區(qū)分一些相貌相似的人提供了線索.總之,這些研究利用更多的補(bǔ)充信息來協(xié)助行人重識別任務(wù).
總結(jié)上述行人重識別研究,其核心在于網(wǎng)絡(luò)模型的構(gòu)建和度量學(xué)習(xí)策略的研究,基于以上考慮,本文從網(wǎng)絡(luò)模型和損失函數(shù)兩個角度進(jìn)行算法設(shè)計,提出一種基于無參注意力的行人重識別算法.它是在ResNet-50 網(wǎng)絡(luò)上進(jìn)行改進(jìn),分別在殘差模塊的末端引入無參注意力機(jī)制(Simple, Parameter-Free Attention Module,SimAM)[20],這是一個簡單而有效的注意力模塊,增強(qiáng)了網(wǎng)絡(luò)特征提取及表達(dá)能力;然后聯(lián)合ID 損失、Triplet 損失和WRLL 損失,共同形成聯(lián)合損失函數(shù)來優(yōu)化網(wǎng)絡(luò)參數(shù);最后在三個公開數(shù)據(jù)集Market-1501、DukeMTMCreID 和CUHK03 上評估算法的識別性能.所提模型參數(shù)量少、魯棒性高,具有較好的應(yīng)用市場和研究價值.
本文將無參注意力模塊應(yīng)用在行人重識別模型中進(jìn)行訓(xùn)練,可以對任務(wù)中更為相關(guān)的內(nèi)容自適應(yīng)地賦予更高的權(quán)重,使得該網(wǎng)絡(luò)框架能有效提高行人識別的準(zhǔn)確率.整體框架結(jié)構(gòu)如圖1 所示,它由三個重要的部分構(gòu)成:主干網(wǎng)絡(luò)ResNet-50、SimAM 模塊和聯(lián)合損失函數(shù).
圖1 模型整體框架結(jié)構(gòu)
由圖1 可知,分別在第一個殘差塊和第三個殘差塊后加入SimAM 模塊,這種方式可以在不同的網(wǎng)絡(luò)深度提取到更為豐富的特征.SimAM 模塊是一種通過能量函數(shù)賦予權(quán)值的無參注意力機(jī)制,不會額外增加參數(shù).同時在損失函數(shù)前加入可訓(xùn)練池化層(Generalized-Mean, GeM)[21]壓縮特征來提高檢索能力.最后采用ID 損失、Triplet 損失和WRLL 損失組成的聯(lián)合損失函數(shù)對網(wǎng)絡(luò)進(jìn)行訓(xùn)練.將在下文對每一部分進(jìn)行具體介紹.
殘差網(wǎng)絡(luò)可以有效抑制卷積網(wǎng)絡(luò)中梯度爆炸的影響從而提高模型性能,該優(yōu)點(diǎn)使其在行人重識別領(lǐng)域有廣泛應(yīng)用.ResNet-50 結(jié)構(gòu)簡單,主要由殘差塊構(gòu)成,在網(wǎng)絡(luò)加深的同時有效減少梯度消失且不會增加實(shí)驗(yàn)誤差,使得訓(xùn)練結(jié)果有很好的提升.殘差塊是規(guī)避梯度消失的關(guān)鍵,它采用簡單的跳躍式加法來保留更多信息,只在原網(wǎng)絡(luò)上增加很小的計算復(fù)雜度就能使模型在訓(xùn)練速度和網(wǎng)絡(luò)性能方面均有所提升,這對網(wǎng)絡(luò)效果的提升有很大的價值.常用的殘差網(wǎng)絡(luò)深度有34 層、50 層、101 層等,綜合考慮模型的性能和復(fù)雜度,本文使用ResNet-50網(wǎng)絡(luò)模型作為算法的主干網(wǎng)絡(luò).
無參數(shù)的注意力模塊SimAM[20]是目前較為先進(jìn)的注意力機(jī)制,能通過特征圖本身推導(dǎo)出3D 注意力權(quán)值,可以更好地進(jìn)行特征增強(qiáng)以提升模型性能,同時不會引入額外的參數(shù),因此被稱為“無參注意力”.SimAM 解決了通道空間注意力無法同步進(jìn)行的問題.由于人類視覺機(jī)制是“通道和空間注意力”同時進(jìn)行的,SimAM 以能量函數(shù)的方式讓通道和空間進(jìn)行同步加權(quán),可以充分發(fā)掘每個神經(jīng)元的重要性并賦予其合適的權(quán)值,從而改善特征丟失的問題.SimAM注意力結(jié)構(gòu)如圖2 所示.c 表示通道數(shù),X 表示每個通道輸入H×W 矩陣的維度,也是通道中神經(jīng)元的數(shù)量.
圖2 無參注意力模塊[20]
一般來說,信息豐富的神經(jīng)元通常會抑制周圍神經(jīng)元,具有抑制效應(yīng)的神經(jīng)元應(yīng)當(dāng)賦予更高的權(quán)重.為了評估每個神經(jīng)元的重要性,通過能量函數(shù)的方式給每個神經(jīng)元賦予合適的權(quán)值.能量函數(shù)的表達(dá)式如公式(1)所示:
式中:t 和xi是輸入特性X ∈RC×H×W中同一通道的目標(biāo)神經(jīng)元和其它神經(jīng)元,(ωtt+bt) 和(ωtxi+bt) 是關(guān)于目標(biāo)神經(jīng)元和其它神經(jīng)元的線性變換,i 是空間維度的索引,M 是該通道上的神經(jīng)元數(shù)量,ωt是變換的權(quán)值,bt是變換的偏差.通過計算得到ωt和bt解析解和通道中所有神經(jīng)元的均值和方差,得到最小能量函數(shù)如公式(2)所示:
本文涉及的損失函數(shù)分別為ID 損失(Softmax Loss)、三元組損失(Triplet Loss)和自適應(yīng)加權(quán)排序損失(Adaptive Weighted Rank List Loss, WRLL)[21-22].使用的總損失函數(shù)如下:
式中:LID代表交叉熵?fù)p失函數(shù),LTriplet代表三元組損失函數(shù),LWRLL代表自適應(yīng)加權(quán)排序損失函數(shù).
1.3.1 ID 損失行人重識別模型中,ID 損失就是Softmax 損失,這是由Softmax 函數(shù)和交叉熵?fù)p失函數(shù)組成的損失函數(shù).Softmax 損失用來衡量預(yù)測樣本和真實(shí)樣本的誤差,所得到的損失函數(shù)值越小表明誤差越小.
1.3.2 三元組損失
三元組損失是數(shù)據(jù)集中隨機(jī)樣本的損失和集,而隨機(jī)樣本的損失由目標(biāo)樣本與正負(fù)樣本之間的歐式距離判別.三元組損失主要使具有相同標(biāo)簽的圖片在空間位置上更加接近,同時令具有不同標(biāo)簽的圖片在空間位置上更加疏遠(yuǎn)[23].該功能在個體級別上有很顯著的效果,使三元組損失函數(shù)在行人重識別領(lǐng)域得到廣泛應(yīng)用.
1.3.3 自適應(yīng)加權(quán)排序損失
本節(jié)首先介紹PFNet 模型的數(shù)據(jù)集和評價指標(biāo),然后詳細(xì)說明實(shí)驗(yàn)環(huán)境以及參數(shù)配置,再將GeM、三元組損失、WRLL 和SimAM 注意力機(jī)制依次疊加到基線上進(jìn)行消融實(shí)驗(yàn).最后將PFNet 與其它先進(jìn)行人重識別算法進(jìn)行對比,實(shí)驗(yàn)表明PFNet 模型有較為優(yōu)秀的表現(xiàn).
為了驗(yàn)證PFNet 模型的有效性,本文在Market-1501、DukeMTMC-reID 和CUHK03 三個權(quán)威行人重識別數(shù)據(jù)集上進(jìn)行了大量實(shí)驗(yàn).每個數(shù)據(jù)集均被分為三個集合:訓(xùn)練集、測試集和查詢集.模型通過訓(xùn)練集進(jìn)行訓(xùn)練,然后通過查詢集進(jìn)行評估和模型調(diào)優(yōu),最后通過測試集進(jìn)行測試和驗(yàn)證.Market-1501、DukeMTMC-reID和CUHK03 數(shù)據(jù)集的具體信息如表1 所示.
表1 數(shù)據(jù)集信息描述
在行人重識別領(lǐng)域,首位命中率(Rank-1)和平均檢測精度(mAP)是兩個廣泛使用的評價指標(biāo).行人重識別模型以待檢測圖片作為輸入,最終輸出一個排序列表.Rank-1 就是輸出列表中第一張匹配結(jié)果為正確的精度,是行人重識別領(lǐng)域評價模型性能優(yōu)劣的一項(xiàng)重要指標(biāo).mAP 是多個帶檢測圖片的精準(zhǔn)率均值,適用于多標(biāo)簽數(shù)據(jù)集,是行人重識別中常用的度量標(biāo)準(zhǔn).
本實(shí)驗(yàn)基于PyTorch 深度學(xué)習(xí)框架進(jìn)行訓(xùn)練,實(shí)現(xiàn)代碼為Python,操作系統(tǒng)為Ubuntu16.04,在GPU 配置為4 片Tesla v100 的終端進(jìn)行訓(xùn)練與測試.在訓(xùn)練階段,將輸入圖片大小調(diào)整為256×128,使用水平翻轉(zhuǎn)和隨機(jī)擦除進(jìn)行數(shù)據(jù)增強(qiáng).用Adam 優(yōu)化器訓(xùn)練所有模型,批量大小為48,訓(xùn)練周期為50,初始學(xué)習(xí)率設(shè)置為0.000 5.為了驗(yàn)證PFNet 的有效性,在三個主流數(shù)據(jù)集Market-1501、DukeMTMC-reID 和CUHK03 上進(jìn)行實(shí)驗(yàn),并采用Rank-1 和mAP 作為評價指標(biāo).
本文分別基于池化層GeM、損失函數(shù)Triplet、損失函數(shù)WRLL 以及注意力機(jī)制SimAM 四個部分在Market-1501、DukeMTMC-reID 和CUHK03 這三個數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表2 所示.由表2 可知,本文使用ResNet-50 和交叉熵?fù)p失函數(shù)作為基線.在三個數(shù)據(jù)集上,本文算法較基線均有很明顯的提升,Rank-1分別提升了1.8%、5.3% 和25.0%,mAP 分別提升了5.7%、6.8% 和27.0%.在CUHK03 數(shù)據(jù)集上效果尤為明顯,主要是WRLL 能充分挖掘樣本信息,為每個類學(xué)習(xí)超球面保護(hù)樣本結(jié)構(gòu)從而提升模型性能.在基線上疊加GeM、Triplet、WRLL 和SimAM 這四個模塊的算法精度高于其它實(shí)驗(yàn),達(dá)到最優(yōu)效果.表明SimAM 也會使行人重識別精度有所提升,這是因?yàn)樵撃K從神經(jīng)元的角度賦予每個特征點(diǎn)合適的權(quán)重,一定程度上豐富輸入特征,提升模型性能.
表2 在三個數(shù)據(jù)集上的消融實(shí)驗(yàn)
實(shí)驗(yàn)過程中,驗(yàn)證了注意力模塊在四個殘差塊中不同位置插入的情況,實(shí)驗(yàn)結(jié)果表明,在殘差塊1、3 之后插入注意力模塊,所提出的算法性能最優(yōu).因此,將SimAM 注意力模塊放在殘差塊1 和殘差塊3 之后,此時算法獲得最優(yōu)的識別性能.相關(guān)消融分析的實(shí)驗(yàn)結(jié)果如表3 所示.
由表3 可知,注意力模塊嵌入在四個殘差塊的任何一個后面,或者同時嵌入在四個殘差塊之后,算法均未獲得最優(yōu)性能.而當(dāng)SimAM 注意力模塊放在殘差塊1 和殘差塊3 之后,算法獲得最優(yōu)的識別性能,因此在表2 以及后續(xù)的實(shí)驗(yàn)中,注意力模塊默認(rèn)的嵌入位置為殘差塊1 和殘差塊3 之后.
表3 注意力模塊的嵌入位置消融實(shí)驗(yàn)
為了驗(yàn)證所提模型的優(yōu)越性,本文選擇5 個較為先進(jìn)的行人重識別算法進(jìn)行對比分析.采用聯(lián)合損失函數(shù)訓(xùn)練模型的方法(BagTricks[24]、AGW[1])、注意力機(jī)制的方法(AANet[24]、GLWR[22])以及多尺度、多分支的方法(Auto-ReID+[25]),主干網(wǎng)絡(luò)均是ResNet-50.表2 和表4 展示了算法在Market-1501、DukeMTMC-reID 和CUHK03 這三個數(shù)據(jù)集上的性能對比結(jié)果.
由表4 可知,在三個數(shù)據(jù)集上,本文算法的Rank-1 分別達(dá)到95.5%、90.9% 和84.3%,mAP 分別達(dá)到89.6%、81.6%和82.0%.GLWR 算法和本文算法模型相似,也是采取將注意力機(jī)制插入到殘差網(wǎng)絡(luò)不同層級中的方法,以此獲取更為豐富的特征,但是它的注意力只是從通道和空間的維度獲取特征,而本文的注意力還能從圖片本身提取特征.在Market-1501 數(shù)據(jù)集上,本文算法的mAP 比GLWR 算法提升了0.1%.在DukeMTMCreID 和CUHK03 數(shù)據(jù)集上,本文算法的Rank-1 比GLWR 算法分別提升了0.2% 和2.0%,mAP 分別提升了0.2% 和3.1%.根據(jù)實(shí)驗(yàn)結(jié)果分析,本算法在三個數(shù)據(jù)集上表現(xiàn)都優(yōu)于其它先進(jìn)算法,是一個擁有較好的魯棒性和先進(jìn)性的行人重識別模型.
由表4 可知,本文提出的網(wǎng)絡(luò)架構(gòu)相對BagTricks、GLWR 參數(shù)略有提升,但本文算法相對BagTricks 在Rank-1 上提升了25.5%,在mAP 上提升了25.4%.相對GLWR,本文算法在Rank-1 和mAP 上分別提升了2.0% 和3.1%.雖然AGW 整體參數(shù)量較少,但AGW 的Rank-1 和mAP 整體得分相對本文算法較低,這說明AGW 難以獲得到特征圖中大部分重要的前景信息.整體來看,相對其它網(wǎng)絡(luò),本文在微增參數(shù)的前提下Rank-1 和mAP 取得了較大的改善.
表4 在三個數(shù)據(jù)集上與前沿算法的對比
本文將算法的排序結(jié)果進(jìn)行了可視化展示,如圖3 所示,第1 列紅色框?yàn)檩斎氲拇龣z索圖片,后7 列圖片是輸入樣本(紅色框圖片)經(jīng)過模型可視化得到的最終結(jié)果.可以觀察到,本文的算法沒有匹配錯誤,且在一些特殊情況下也能準(zhǔn)確識別.不僅對正常行走且周圍無遮擋的行人能準(zhǔn)確識別其身份,而且對面部遮擋的戴帽子行人或只有背部特征的行人也能精準(zhǔn)匹配其行人身份.另外通過查詢結(jié)果的第3 組第3 張圖片也可以觀察到,在含有并行行人信息的情況下,本算法也能準(zhǔn)確進(jìn)行識別.
圖3 行人檢索排序展示
通過客觀性能對比和主觀可視化分析,實(shí)驗(yàn)結(jié)果顯示,本文的算法能夠在行人所處環(huán)境相對復(fù)雜的情況下進(jìn)行高準(zhǔn)確率的識別工作,驗(yàn)證了本算法具有較好的識別性能、較強(qiáng)的魯棒性優(yōu)勢.
針對行人重識別中存在的遮擋和相似外觀等問題,本文設(shè)計了一個新的行人重識別算法,經(jīng)過實(shí)驗(yàn)驗(yàn)證,發(fā)現(xiàn)所提算法在一定程度上緩解了以上問題.該算法的主干網(wǎng)絡(luò)為ResNet-50,通過在網(wǎng)絡(luò)的第一層殘差塊和第三層殘差塊后嵌入SimAM 注意力模塊為每個神經(jīng)元賦予合適的權(quán)重,并采用GeM 模塊獲取具有區(qū)分性的特征,最后基于提出的聯(lián)合損失函數(shù)來訓(xùn)練該網(wǎng)絡(luò)模型.這里,SimAM 注意力模塊屬于無參注意力模塊,整體而言,與基線對比算法相比,本文在增加少量參數(shù)的前提下,所提出的算法在Rank-1 和mAP 指標(biāo)上取得了較大的性能改善.所提模型在三個公共數(shù)據(jù)集上進(jìn)行測試,并將其和目前較先進(jìn)的算法進(jìn)行對比,實(shí)驗(yàn)結(jié)果表明本文設(shè)計的基于無參注意力機(jī)制的行人重識別模型具有很高的精準(zhǔn)度,其性能領(lǐng)先目前大部分行人重識別算法.后期將進(jìn)一步輕量化行人重識別網(wǎng)絡(luò)架構(gòu),以促進(jìn)本文網(wǎng)絡(luò)在較低網(wǎng)絡(luò)復(fù)雜度的前提下取得更好的性能.