呼延智,李萬明
應(yīng)用研究
基于時空概率的機場航站樓人員軌跡還原方法
呼延智,李萬明
(首都機場集團科技管理有限公司,北京 100621)
在新冠肺炎疫情席卷全球的背景下,病例等重點人員軌跡還原對于機場航站樓這類人群密集的公共場所的疫情防控工作至關(guān)重要。針對基于人工篩查的軌跡還原方法存在耗時長、效率低、出錯率高等問題,本文采用深度學(xué)習和馬爾可夫鏈技術(shù),提出了一種基于時空概率的機場航站樓人員數(shù)字化軌跡還原方法。本方法在北京大興國際機場進行實驗測試,結(jié)果表明,本方法生成的人員軌跡平均準確率達85%以上,同時單次軌跡還原時長可控制在2小時內(nèi)。
軌跡還原 行人重識別 人臉識別 馬爾可夫鏈
2020年以來的新冠肺炎疫情(以下簡稱“疫情”)對于政府的精準防控策略提出了巨大挑戰(zhàn)[1~2]。機場航站樓作為公共出行的“門戶”,人群較為聚集且行人停留時間較長,是安全防范和疫情防控的重點區(qū)域。在機場航站樓的疫情防控工作中,如果能及時準確地篩查、追蹤病例的密切接觸人群,并即時預(yù)警,那么就能有效避免疫情的大范圍擴散,而此項工作的核心是對病例這類重點人員的歷史軌跡進行還原。當前機場的人員軌跡還原還是采用人工篩查的方式,該傳統(tǒng)人工方法需要工作人員對視頻錄像中的人員進行人工識別和篩選,再將篩選出來的影像文件交給公安、疾控等機構(gòu)進一步確認身份并進行溯源。這種工作方式在篩查與研判上需要投入較多人力,導(dǎo)致耗費時間長、效率低下、出錯率高等問題。隨著近年深度學(xué)習算法的興起,基于人臉識別和行人重識別技術(shù)的人員軌跡還原技術(shù)得到了迅速發(fā)展,這兩類方法的流程主要是通過對攝像頭采集到的行人的人臉圖像和人體圖像進行識別,從而還原人員的軌跡。由于機場實際環(huán)境中的監(jiān)控數(shù)據(jù)質(zhì)量難以保障,上述技術(shù)往往不足以實現(xiàn)重點人員的完整軌跡生成?;谏鲜霰尘?,本文立足于機場航站樓監(jiān)控數(shù)據(jù),結(jié)合人臉識別、行人重識別技術(shù)以及馬爾可夫理論,提出了一種基于時空概率的機場航站樓重點人員數(shù)字化軌跡還原方法。本方法相較于傳統(tǒng)人工方法和僅基于人臉識別或行人重識別技術(shù)的人員軌跡還原方法具有如下優(yōu)勢:
1)高效的視頻信息提取。相較于傳統(tǒng)人工方法,本文提出的人員軌跡還原技術(shù)能夠有效降低人工成本,同時通過結(jié)合人臉識別和行人重識別等人工智能技術(shù),更高效地提取監(jiān)控視頻中信息。
2)特征融合的人員識別。相較于基于人臉識別/行人重識別的軌跡還原技術(shù),本文結(jié)合了這兩類技術(shù),構(gòu)建了結(jié)合了人臉特征和人體特征的重點人員特征庫,進而提升監(jiān)控數(shù)據(jù)質(zhì)量較差情況下的人員識別的準確率。
3)歷史數(shù)據(jù)賦能的軌跡還原。由于人臉識別和行人重識別技術(shù)都受制于數(shù)據(jù)源質(zhì)量且機場中的攝像頭部署位置大多較高,難以在所有區(qū)域都生成高質(zhì)量的監(jiān)控數(shù)據(jù),即使結(jié)合了兩類技術(shù)仍難以實現(xiàn)較完整的軌跡還原。因此本方法進一步利用真實旅客歷史軌跡數(shù)據(jù)構(gòu)建了一個基于馬爾可夫鏈的時空軌跡模型,利用時空概率對重點人員完整軌跡的還原與驗證進行輔助,不但減少了軌跡分析所需的工程量,同時還降低了對于監(jiān)控攝像頭的數(shù)量需求,避免了對旅客的過度監(jiān)視,從而有效減少經(jīng)濟成本,提升用戶體驗。
本方法在北京大興國際機場進行了實際部署及測試。測試結(jié)果表明本文提出的軌跡還原方法能夠高效還原重點人員的軌跡且準確率達到了85%以上,滿足機場對軌跡還原在準確率和時間效率的要求,其可以在接到防疫辦陽性旅客協(xié)查通知后,快速還原該旅客在航站樓內(nèi)的行動軌跡,從而篩查出同封閉空間的密接旅客,實現(xiàn)對疫情快速有效的阻斷,具有極高的現(xiàn)實意義。
本文第1節(jié)介紹人員軌跡還原的相關(guān)方法和研究現(xiàn)狀。第2節(jié)介紹了本文提出的基于時空驗證的數(shù)字化軌跡還原方法。第3節(jié)驗證了本方法部署到真實場景下的有效性。第4節(jié)進行了本文的總結(jié)與展望。
重點人員軌跡還原的核心在于對監(jiān)控數(shù)據(jù)中的行人進行識別,目前主流的行人識別方法主要有人臉識別、行人檢測以及行人重識別等,其中人臉識別主要根據(jù)人臉特征進行識別,而行人檢測和行人重識別則主要根據(jù)人體特征進行識別。
常見的傳統(tǒng)人臉識別方法主要包括基于面部幾何特征的方法[3]、基于模板匹配的方法[4]和基于主成分分析(principalcomponentanalysis, PCA)的方法[5]等。然而上述人臉識別方法均存在一定局限性,很難適應(yīng)機場這類實際環(huán)境復(fù)雜的場景。隨著深度學(xué)習的快速發(fā)展,基于深度學(xué)習的人臉識別方法[6~7]逐漸開始取代傳統(tǒng)的人臉識別方法。不同于傳統(tǒng)方法,基于深度學(xué)習的人臉識別方法使用端到端學(xué)習的方式,避免了對特征的手動設(shè)計與提取,同時借助神經(jīng)網(wǎng)絡(luò)的泛化能力,其對于不同的光照、表情、姿態(tài)和遮擋等具有更好的適應(yīng)性。
由于對行人的行動軌跡還原任務(wù)往往需要多攝像頭配合來實現(xiàn),這種跨攝像頭行人關(guān)聯(lián)的方法也被稱為行人重識別技術(shù)。在行人重識別方法研究中,傳統(tǒng)方法同樣存在依賴手工特征,在現(xiàn)實應(yīng)用場景下的識別性能較弱的缺陷,因此隨著深度學(xué)習的興起,目前行人重識別相關(guān)研究廣泛使用的是基于深度學(xué)習的方法[9-11]。盡管有關(guān)行人重識別的研究已經(jīng)取得了許多成果,但在實際應(yīng)用時仍存在圖像質(zhì)量導(dǎo)致的識別率差的問題。
本文提出的基于時空概率的機場航站樓重點人員數(shù)字化軌跡還原方法在原有的視頻監(jiān)控系統(tǒng)和資源下,首先對重點人員人臉數(shù)據(jù)進行識別以生成重點人員行動軌跡骨架,然后基于多攝像頭數(shù)據(jù)將重點人員的人臉數(shù)據(jù)與人體數(shù)據(jù)進行關(guān)聯(lián)并構(gòu)造重點人員的特征庫,最后,根據(jù)基于真實歷史軌跡樣本構(gòu)建的馬爾可夫鏈時空軌跡模型,結(jié)合重點人員行動軌跡骨架中節(jié)點的時空上下文信息,實現(xiàn)重點人員完整軌跡的還原后,結(jié)合特征庫對歷史視頻信息進行檢索,實現(xiàn)對完整軌跡的驗證。由于基于深度學(xué)習的人臉識別和行人重識別算法已經(jīng)有相當高的識別精度并且被大量應(yīng)用到實際場景中,因此本方法選用了人臉識別算法ArcFace[7]和行人重識別算法TransReID[12]進行機場人員識別。
本文提出的人員軌跡還原技術(shù)的主要步驟流程圖如圖1所示。
圖1 基于時空驗證的數(shù)字化還原預(yù)警技術(shù)流程圖
圖2 北京大興國際機場部分路徑拓撲網(wǎng)絡(luò)
在完成拓撲網(wǎng)絡(luò)的構(gòu)建后,可以接下來將進行重點人員數(shù)字化軌跡還原流程的描述。軌跡還原的第一步是獲取重點人員初始數(shù)據(jù),生成重點人員軌跡骨架。重點人員的初始數(shù)據(jù)以人臉數(shù)據(jù)為主,主要來源于第三方系統(tǒng)數(shù)據(jù)、重點人員已知數(shù)據(jù)和重點區(qū)域可抓取人臉的數(shù)據(jù)。通過這些初始數(shù)據(jù)能獲得重點人員的若干零散位置,通過連接這些零散位置能夠初步繪制出重點人員的軌跡骨架,如圖3所示。
圖3 重點人員的軌跡骨架
依據(jù)初始數(shù)據(jù)中的人臉信息數(shù)據(jù)構(gòu)建初始的重點人員特征庫,然后通過調(diào)取重點人員軌跡骨架中各節(jié)點所在區(qū)域的全部攝像頭的圖像數(shù)據(jù)進行識別分析和關(guān)聯(lián)分析,不斷豐富和完善重點人員特征庫。重點人員特征庫的更新過程如下所述:
1)首先,對圖像進行識別分析,如果通過人臉識別技術(shù)能識別出圖像中的人臉,則捕獲此圖像中重點人員的人體信息并加入特征庫。
2)當圖像無法用特征庫中的信息識別時,如大面積遮擋、大面積模糊等,需要調(diào)用與當前圖像攝像機相關(guān)聯(lián)的攝像機(如附近的機位)同時刻的圖像,對新圖像進行識別分析。
在完成軌跡骨架生成以及特征庫構(gòu)建后,需要在重點人員軌跡骨架的基礎(chǔ)上進行區(qū)域路徑延拓以補全缺失的軌跡節(jié)點和邊。區(qū)域路徑延拓的主要流程可以分為路徑延拓和視頻驗證兩個步驟,其中,路徑延拓的主要方式是單節(jié)點延拓和雙節(jié)點延拓,兩種方式都基于時空軌跡模型實現(xiàn)。
(i)單節(jié)點延拓,即根據(jù)路徑拓撲網(wǎng)絡(luò)中的已知軌跡節(jié)點預(yù)測下一個缺失節(jié)點和缺失邊,缺失節(jié)點與缺失邊屬于當前軌跡節(jié)點相連的邊和相鄰的節(jié)點的集合。單節(jié)點延拓通常用于對已知軌跡的端點進行延拓。
通過上述路徑延拓,可以對重點人員軌跡骨架進行豐富,得到新的重點人員軌跡。
在區(qū)域路徑延拓后,需要根據(jù)重點人員的軌跡信息判定軌跡是否完整,完整的軌跡應(yīng)具備以下2個特征:
1)起始/終止節(jié)點:即重點人員的軌跡信息的起始/終止節(jié)點應(yīng)為航站樓的出入口類節(jié)點,如1號門、地鐵出入口、登機口等;
2)符合經(jīng)驗設(shè)定的時間間隔的中間節(jié)點:即重點人員軌跡中的任意兩個非端點節(jié)點之間需要滿足通行時間間隔小于3分鐘或節(jié)點間距離小于100米。
通過上述軌跡完整度判定,如果重點人員軌跡完整,則終止分析并輸出重點人員完整軌跡,如圖4所示。如果重點人員軌跡不完整,則需要進一步延拓和分析重點人員軌跡。
圖4 還原后的重點人員完整軌跡
基于第二章提出的軌跡還原方法,本文開發(fā)了一個機場重點人員數(shù)字化追蹤預(yù)警平臺并以北京大興國際機場為實際測試環(huán)境進行了平臺的部署。在測試過程中,本平臺被部署在大興國際機場ITC機房GPU服務(wù)器,并統(tǒng)一接入大興國際機場安防網(wǎng)絡(luò),歷史數(shù)據(jù)流的獲取是通過GB28181-2016對接的形式與大興國際機場提供的??灯脚_進行對接,航站樓各樓層地圖信息是通過GIS地圖提供的API接口進行獲取。
本文對測試人員的選取均衡覆蓋了各個年齡段及性別,對測試軌跡數(shù)據(jù)也盡可能均衡選取覆蓋了機場航站樓的各層入口、各個登機口以及各出口,同時覆蓋了一天中的各個時間段。結(jié)果表明本文提出的基于時空概率的數(shù)字化軌跡還原方法生成的重點人員軌跡的準確率可達85%以上,單次追蹤時長可以控制在兩個小時內(nèi)。本文選取一次測試結(jié)果進行展示,測試時間是2022年12月15日下午,測試人員是一名大興機場航站樓管理部工作人員。
真實軌跡展示:該工作人員的真實行動軌跡如圖5所示。
測試人員初始數(shù)據(jù)提?。涸跈C場人臉采集系統(tǒng)中提取一張測試人員的人臉照片,并在機場離港信息系統(tǒng)中獲取樓內(nèi)旅客航班信息、值機島信息、過檢信息及登機口信息,進而形成該人員軌跡骨架。
圖5 測試人員真實路徑
圖6 系統(tǒng)分析路徑
表1 真實路徑與系統(tǒng)分析路徑對照
路徑延拓及驗證:基于上述軌跡骨架,進行區(qū)域路徑延拓對該人員的完整軌跡進行還原與驗證。最終系統(tǒng)生成的該人員軌跡如圖6所示。表1給出了測試人員真實軌跡與平臺分析生成的軌跡的對比并給出了平臺生成的軌跡的準確率。
針對新冠肺炎疫情的沖擊帶來的疫情防控需求,本文提出了一種基于時空概率的機場重點人員數(shù)字化軌跡還原方法,該方法首先基于人臉數(shù)據(jù)生成重點人員的行動軌跡骨架并基于人臉數(shù)據(jù),結(jié)合多攝像頭視頻圖像數(shù)據(jù),進行重點人員特征庫的構(gòu)建與更新。之后根據(jù)真實歷史軌跡樣本構(gòu)建基于馬爾可夫鏈的時空軌跡模型,結(jié)合軌跡骨架中節(jié)點的時空上下文信息,實現(xiàn)重點人員軌跡缺失點的補全。最后,利用人臉識別和行人重識別技術(shù),結(jié)合時空軌跡模型對完整軌跡進行驗證?;诒疚奶岢龅臄?shù)字化軌跡還原方法,本文以北京大興機場為實際部署環(huán)境進行了大量實際測試以驗證本文方法的有效性。測試結(jié)果表明,本方法能夠基于機場現(xiàn)有視頻系統(tǒng)和資源實現(xiàn)高效且高準確度的重點人員軌跡還原,顯著提升了機場疫情防控能力,同時數(shù)字化技術(shù)的引入能夠有效減輕人工的參與,提升工作效率,具有較大的社會效益
[1] 歐陽康. 超大城市新冠肺炎疫情精準防控體系構(gòu)建探討[J]. 國家治理, 2022(20): 47-51.
[2] Kong X F, Chang Y F, Fan M, et al. Analysis on the thermal performance of low-temperature radiant floor coupled with intermittent stratum ventilation (LTR-ISV) for space heating[J]. Energy Build, 2023, 278: 112623.
[3] Ouarda W, Trichili H, Alimi A M, et al. Face recognition based on geometric features using support vector machines[C]//2014 6th International Conference of Soft Computing and Pattern Recognition (SoCPaR). Tunis, Tunisia: IEEE, 2014: 89-95.
[4] Karungaru S, Fukumi M, Akamatsu N. Face recognition using genetic algorithm based template matching[C]//IEEE International Symposium on Communications and Information Technology, 2004, ISCIT 2004. Sapporo, Japan: IEEE, 2004: 1252-1257.
[5] Kim K I, Jung K, Kim H J. Face recognition using kernel principal component analysis[J]. IEEE Signal Process Lett, 2002, 9(2): 40-42.
[6] Taigman Y, Yang M, Ranzato M A, et al. DeepFace: closing the gap to human-level performance in face verification[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH, USA: IEEE, 2014: 1701-1708.
[7] Deng J K, Guo J, Xue N N, et al. ArcFace: additive angular margin loss for deep face recognition[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach, CA, USA: IEEE, 2019: 4685-4694.
[8] Wu S J, Gong X. BoundaryFace: a mining framework with noise label self-correction for face recognition[EB/OL]. (2022-10-10) https://arxiv.org/abs/2210.04567.
[9] Li W, Zhao R, Xiao T, et al. DeepReID: deep filter pairing neural network for person re-identification[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH, USA: IEEE, 2014: 152-159.
[10] 張帥宇, 彭力, 戴菲菲. 基于漸進式注意力金字塔的行人重識別方法[J]. 計算機科學(xué), 2023, 50(S1): 452-459.
[11] Cao C Z, Fu X Y, Liu H J, et al. Event-guided person re-identification via sparse-dense complementary learning[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Vancouver, BC, Canada: IEEE, 2023: 17990-17999.
[12] He S T, Luo H, Wang P C, et al. TransReID: transformer-based object re-identification[EB/OL]. (2021-3-26). https://arxiv.org/abs/2102.04378.
Trajectory restoration method for key individuals in airport terminal buildings based on spatial-temporal probability
Hu Yanzhi, Li Wanming
(Capital Airports Technology Management Company Limited,Beijing 100621, China)
TP311
A
1003-4862(2023)09-0021-06
2023-07-08
呼延智(1977-),男,碩士研究生。E-mail: huyanzhi@sina.com.cn