郭克友,賀成博,王凱迪,王蘇東,李雪,張沫
(1.北京工商大學(xué) 人工智能學(xué)院,北京 100048;2.交通運(yùn)輸部公路科學(xué)研究院,北京 100088)
新型冠狀病毒肺炎(Corona Virus Disease 2019,COVID-19)是由SARS-CoV-2 病毒引起的急性呼吸道傳染病,自2019 年12 月起,許多國家和地區(qū)受到了COVID-19 的侵襲[1]。2020 年5 月,世界衛(wèi)生組織(World Health Organization,WHO)認(rèn)定COVID-19為“大流行病”[2]。WTO 于2021 年11 月18 日發(fā)布的統(tǒng)計(jì)數(shù)據(jù)證實(shí)了200 個(gè)國家中有2 億感染者,死亡人數(shù)高達(dá)500 萬人。目前,仍沒有明確的方案或方法消滅新型冠狀病毒,全世界都采取了預(yù)防措施以限制該病毒的傳播[3-4]。由于安全的社交距離是公共預(yù)防傳染病毒的途徑之一,因此在人群密集的區(qū)域進(jìn)行社交距離的安全評(píng)估十分重要。
社交距離的測(cè)量旨在通過保持個(gè)體之間的物理距離和減少相互接觸的人群來減緩或阻止病毒傳播,在抗擊病毒和預(yù)防大流感中發(fā)揮重要作用[5],但時(shí)刻保持安全距離具有一定的難度,特別是在校園、工廠等場(chǎng)所。在這種情況下,將人工智能、深度學(xué)習(xí)技術(shù)集成至安全攝像頭,開發(fā)智能攝像頭技術(shù)對(duì)行人進(jìn)行社交距離評(píng)估尤為關(guān)鍵。針對(duì)疫情防范的要求,現(xiàn)階段主要采用人工干預(yù)和計(jì)算機(jī)處理技術(shù)。人工干預(yù)存在人力資源要求高、風(fēng)險(xiǎn)大、時(shí)間成本高等缺點(diǎn),而在計(jì)算機(jī)處理技術(shù)中,引入人工智能對(duì)社交安全距離進(jìn)行安全評(píng)估具有良好的效果。吉林大學(xué)齊春陽提出基于單目視覺夜間前方車輛檢測(cè)與距離研究[6],采用two-stage 的檢測(cè)方式和注意力機(jī)制對(duì)車輛距離進(jìn)行安全評(píng)估,但該方法的檢測(cè)率和速度仍有較大的提升空間。BIAN 等提出一種基于可穿戴磁場(chǎng)的接近傳感系統(tǒng)用于檢測(cè)社交距離[7],該系統(tǒng)可達(dá)到近100%的準(zhǔn)確率,但由于需要極大的資金成本,因此不能很好地進(jìn)行實(shí)際應(yīng)用。PUNN 等基于微調(diào)的YOLOv3 和DeepSort 技術(shù),通過人員檢測(cè)和跟蹤來測(cè)控COVID-19 社交距離[8],但由于網(wǎng)絡(luò)自身具有滯后性,因此該方法存在檢測(cè)精度低、網(wǎng)絡(luò)模型冗余等缺點(diǎn)。SATHYAMOORTHY 等提出COVID-Robot[9],在擁擠的場(chǎng)景中利用移動(dòng)機(jī)器人監(jiān)控社交距離限制,該方法在室內(nèi)場(chǎng)景下起到了良好的監(jiān)控作用,但鑒于機(jī)器人自身的因素限制,通過地平面的角度圖不能及時(shí)監(jiān)控被遮擋的行人。
上述研究致力于結(jié)合人工智能對(duì)抗COVID-19疫情,這對(duì)于改善和促進(jìn)民眾生活質(zhì)量具有重要意義[10-11]。本文利用微調(diào)的YOLOv4 和DeepSort 算法對(duì)行人質(zhì)點(diǎn)進(jìn)行提取與跟蹤。在此基礎(chǔ)上,提出行人質(zhì)點(diǎn)的運(yùn)動(dòng)矢量分析算法搜尋長時(shí)間未處于安全社交距離的行人,通過鳥瞰視角計(jì)算行人個(gè)體之間的距離,從而實(shí)現(xiàn)安全社交距離檢測(cè)。
面向公眾對(duì)于安全社交距離的實(shí)際要求,本文以公開數(shù)據(jù)集——牛津城市中心的數(shù)據(jù)集作為研究對(duì)象,基于YOLOv4 網(wǎng)絡(luò)框架對(duì)目標(biāo)行人進(jìn)行檢測(cè),并提出運(yùn)動(dòng)矢量分析算法追溯長時(shí)間未處于安全社交距離的行人群體,利用鳥瞰圖對(duì)違反社交距離的個(gè)體進(jìn)行連線標(biāo)定。本文模型的總體框架如圖1所示。
圖1 本文安全社交距離評(píng)估模型的總體框架Fig.1 Overall framework of the proposed safety social distance assessment model
YOLOv4[12]使用卷積網(wǎng)絡(luò)CSPDarknet53 進(jìn)行特征提取,網(wǎng)絡(luò)結(jié)構(gòu)模型如圖2 所示。在每個(gè)Darknet53的殘塊行加上跨階段局部結(jié)構(gòu)(Cross-Stage Partial,CSP)[13],將基礎(chǔ)層劃分為兩部分,再通過跨層次結(jié)構(gòu)的特征融合進(jìn)行合并[14]。同時(shí),采用特征圖金字塔網(wǎng)絡(luò)(Feature Pyramid Network,F(xiàn)PN)[15],通過不同層特征的高分辨率來提取不同尺度特征圖進(jìn)行對(duì)象檢測(cè)。最終網(wǎng)絡(luò)輸出3 個(gè)不同尺度的特征圖,在3 個(gè)不同尺度特征圖上分別使用3 個(gè)不同的先驗(yàn)框進(jìn)行預(yù)測(cè)識(shí)別,使得遠(yuǎn)近大小目標(biāo)均能被準(zhǔn)確檢測(cè)[16]。
圖2 YOLOv4 網(wǎng)絡(luò)結(jié)構(gòu)模型Fig.2 YOLOv4 network structure model
YOLOv4 的先驗(yàn)框尺寸是考慮PASCALL_VOC、COCO 數(shù)據(jù)集包含的復(fù)雜種類而生成的,并不一定完全適合行人。由于本文旨在研究行人之間的社交距離,因此針對(duì)行人目標(biāo)檢測(cè),利用聚類算法對(duì)YOLOv4 的先驗(yàn)框進(jìn)行微調(diào)[17]。
首先,將行人數(shù)據(jù)集F依據(jù)相似性分為i個(gè)對(duì)象,即F={f1,f2,…,fi},其中每個(gè)對(duì)象都具有m個(gè)維度的屬性。聚類算法的目的是將i個(gè)對(duì)象依據(jù)相似性聚集到指定的j個(gè)類簇,每個(gè)對(duì)象屬于且僅屬于一個(gè)距離最近的類簇中心。初始化j個(gè)聚類中心C={c1,c2,…,cj},計(jì)算每個(gè)對(duì)象到每個(gè)聚類中心的歐式距離,如式(1)所示:
其中:fi表示第i個(gè)對(duì)象;cj表示第j個(gè)聚類中心;fit表示第i個(gè)對(duì)象的第t個(gè)屬性;cjt表示第j個(gè)聚類中心的第t個(gè)屬性。
然后,依次比較每個(gè)對(duì)象到每個(gè)聚類中心的距離,將對(duì)象分配至距離最近的簇類中心的類簇中,得到l個(gè)類簇S={s1,s2,…,sl}。聚類算法中定義了類簇的原型,類簇中心就是類簇內(nèi)所有對(duì)象在各個(gè)維度的均值,計(jì)算公式如式(2)所示:
其中:sl表示第l個(gè)類簇中的對(duì)象個(gè)數(shù)。
本文針對(duì)先驗(yàn)框的微調(diào)通過Python 語言實(shí)現(xiàn),微調(diào)后的先驗(yàn)框更注重對(duì)行人的檢測(cè)。
YOLOv4 完成行人目標(biāo)檢測(cè)后生成邊界框(Bounding box,Bbox),Bbox 含有包含最小化行人邊框矩形的坐標(biāo)信息。本文引入DeepSort 算法[18]完成對(duì)行人的質(zhì)點(diǎn)跟蹤,目的是為了在運(yùn)動(dòng)矢量分析時(shí)計(jì)算行人的安全社交距離。
首先,對(duì)行人進(jìn)行質(zhì)點(diǎn)化計(jì)算。質(zhì)點(diǎn)位置計(jì)算公式如式(3)所示:
其中:xcenter、ycenter分別為質(zhì)點(diǎn)的橫縱坐標(biāo);xtop_left、ytop_left分別表示邊界框左上角的橫縱坐標(biāo);xlower_right、ylower_right分別表示界框右下角的橫縱坐標(biāo)。
在確定行人質(zhì)點(diǎn)位置后,利用DeepSort 算法實(shí)現(xiàn)對(duì)多個(gè)目標(biāo)的精確定位與跟蹤,核心算法流程如圖3 所示。
圖3 DeepSort 核心算法流程Fig.3 Procedure of DeepSort core algorithm
DeepSort 算法在Sort 算法[19]的基礎(chǔ)上增加了級(jí)聯(lián)匹配和新軌跡的確認(rèn)步驟。首先利用卡爾曼濾波器算法[20]預(yù)測(cè)行人軌跡Tracks,然后使用匈牙利算法將預(yù)測(cè)得到的行人軌跡Tracks 和當(dāng)前幀中檢測(cè)到的行人進(jìn)行匹配(級(jí)聯(lián)匹配和IoU 匹配),最后通過卡爾曼濾波進(jìn)行更新。具體計(jì)算公式如下:
其中:行人質(zhì)點(diǎn)坐標(biāo)(x,y)表示為當(dāng)前狀態(tài)Xt|t;Xt-1|t-1為上一時(shí)刻目標(biāo)狀態(tài);Xt|t-1為上一時(shí)刻預(yù)測(cè)出當(dāng)前時(shí)刻的目標(biāo)狀態(tài);實(shí)際檢測(cè)到的行人質(zhì)心坐標(biāo)表示為觀測(cè)狀態(tài)Zt;Pt|t-1為當(dāng)前時(shí)刻估計(jì)誤差協(xié)方差;Pt-1|t-1為上一時(shí)刻估計(jì)誤差協(xié)方差;Pt|t-1為上一時(shí)刻預(yù)測(cè)出當(dāng)前時(shí)刻的估計(jì)誤差協(xié)方差;A為狀態(tài)轉(zhuǎn)移矩陣;H為觀測(cè)矩陣;Kt為卡爾曼濾波的增益矩陣;Wt-1|t-1為上一時(shí)刻的激勵(lì)噪聲;Q、R分別為激勵(lì)噪聲和觀測(cè)聲的協(xié)方差矩陣。
至此,完成了對(duì)行人目標(biāo)的檢測(cè)和跟蹤。在此基礎(chǔ)上,本文按照目前國內(nèi)疫情情況和政策指導(dǎo)[21]提出運(yùn)動(dòng)矢量分析算法,目的在于針對(duì)同向行人監(jiān)控安全距離,避免行人長時(shí)間處于非安全的社交距離。
三維世界投影至二維透視平面導(dǎo)致對(duì)象之間的距離存在不切實(shí)際的像素距離,即透視效應(yīng)。在三維空間中,原始的三個(gè)參數(shù)(x,y,z)在相機(jī)的接收?qǐng)D像中壓縮為二維(x,y),深度參數(shù)(z)不可用,而在低維空間中,使用歐幾里得距離的計(jì)算準(zhǔn)則進(jìn)行行人距離估計(jì)是錯(cuò)誤的。為了應(yīng)用校準(zhǔn)的逆透視變換(Inverse Perspective Mapping,IPM),首先需要設(shè)置z=0 來進(jìn)行相機(jī)校準(zhǔn)以消除透視效應(yīng),此外,需要知道相機(jī)的位置、高度、視角以及光學(xué)規(guī)格[22],以最終確定鳥瞰圖下行人的坐標(biāo)信息[23],從而進(jìn)一步執(zhí)行矢量分析算法確定安全距離??赏ㄟ^OpenCV 庫中的“getPerspectiveTransform”方法計(jì)算變換矩陣[24]。通過應(yīng)用IPM,使世界坐標(biāo)點(diǎn)(XW,YW,ZW)映射為二維像素點(diǎn)(u,v),計(jì)算公式如式(9)所示:
其中:K為相機(jī)的固有參數(shù);R為旋轉(zhuǎn)矩陣;T為平移矩陣。
使用齊次坐標(biāo),考慮到相機(jī)圖像平面垂直于世界坐標(biāo)系中的Z通道(即Z=0),三維點(diǎn)與投影結(jié)果圖像之間的關(guān)系可以表示為:
其中:ni j∈N(N∈R3×4)是變換矩陣,其通過固有矩陣K、旋轉(zhuǎn)矩陣R和平移矩陣T提供。
最終,從透視空間轉(zhuǎn)移到反向透視空間也可以用以下標(biāo)量形式表示以確定二維坐標(biāo):
本文提出行人運(yùn)動(dòng)矢量分析算法旨在檢測(cè)同向行人的安全距離。經(jīng)計(jì)算機(jī)視覺處理后,依據(jù)相機(jī)信息得到行人在鳥瞰圖下的坐標(biāo)信息lk=(uk,vk),同理可得行人在k-1 時(shí)刻的全局位置坐標(biāo)lk-1=(uk-1,vk-1)。定義行人的運(yùn)動(dòng)矢量為MP,如式(12)所示:
為了獲取當(dāng)前時(shí)刻的運(yùn)動(dòng)矢量,設(shè)當(dāng)前時(shí)刻的行人位置為lk-1,下一幀行人預(yù)測(cè)區(qū)域的中心位置為lk,由此得到的行人運(yùn)動(dòng)矢量如圖4 所示。
圖4 行人運(yùn)動(dòng)矢量Fig.4 Pedestrian motion vector
在圖4 中,Δl的大小即為向量MP的模,物理意義為行人在兩個(gè)時(shí)刻間的移動(dòng)距離。由于連續(xù)兩幀圖像間的時(shí)間間隔很短,因此本文將行人移動(dòng)的平均移動(dòng)速率作為當(dāng)前時(shí)刻的行人運(yùn)動(dòng)速率vP,其方向即為沿著Δl的方向,夾角θ表示行人相對(duì)于自身當(dāng)前位置的移動(dòng)方向,由此可以得到速率vP在x軸和y軸方向的投影值,分別為vxk和vyk。至此,可以連續(xù)得到行人在當(dāng)前時(shí)刻的移動(dòng)速率大小以及行人相對(duì)于當(dāng)前位置的移動(dòng)方向,可用語言描述為行人在(uk,vK)位置以速率vP沿著與x軸呈θ角的射線方向移動(dòng)。
設(shè)定一個(gè)行人間安全社交距離的閾值dP,對(duì)于安全社交距離的識(shí)別,判斷公式如下:
其中:i、j為整數(shù);Vpipj為行人i與行人j之間的位置向量;參數(shù)dP取值為1,小于閾值表示行人間距離小于1 m,為非安全社交距離。在安全社交距離風(fēng)險(xiǎn)評(píng)估算法中,對(duì)每個(gè)行人,以當(dāng)前的空間位置坐標(biāo)為圓心、dP為半徑的范圍內(nèi)進(jìn)行搜索,其運(yùn)算復(fù)雜度與for 的循環(huán)控制變量呈一次線性關(guān)系,即O(n)。如果含有行人,則再對(duì)行人的運(yùn)動(dòng)矢量進(jìn)行分析。成群行走的行人通常具有相似的移動(dòng)方向和相近的移動(dòng)速率,運(yùn)動(dòng)矢量判斷的計(jì)算公式如下:
其中:i、j為整數(shù);σij為行人i與行人j運(yùn)動(dòng)矢量的夾角;設(shè)定一個(gè)閾值σp為π18,小于閾值表示行人間具有相同的移動(dòng)方向。
本文實(shí)驗(yàn)的軟件環(huán)境使用Ubuntu 16.04 LTS 操作系統(tǒng)及Pytorch 深度學(xué)習(xí)框架。在硬件配置中,CPU 使用英特爾酷睿i7-7900X,GPU 使用英偉達(dá)GTX Titan X 16 GB 顯存。
實(shí)驗(yàn)使用Caltech 行人數(shù)據(jù)庫[25]和戴姆勒行人檢測(cè)標(biāo)準(zhǔn)數(shù)據(jù)庫[26]這兩個(gè)采用車載攝像頭的公開數(shù)據(jù)集,將“person”子集作為YOLOv4 行人檢測(cè)模型的訓(xùn)練集,在標(biāo)準(zhǔn)通用測(cè)試集Oxford Town Centre Dataset 上進(jìn)行驗(yàn)證檢測(cè)。
Caltech行人數(shù)據(jù)庫是目前規(guī)模較大的行人數(shù)據(jù)庫,包含10 h 左右的視頻,視頻的分辨率為640×480 像素,30 frame/s。標(biāo)注約250 000 幀,總計(jì)時(shí)長約為137 min,對(duì)350 000 個(gè)矩形框和2 300 個(gè)行人進(jìn)行標(biāo)注,此外,還對(duì)矩形框之間的時(shí)間對(duì)應(yīng)關(guān)系及遮擋的情況進(jìn)行標(biāo)注。Caltech 數(shù)據(jù)庫圖像示例如圖5 所示。
圖5 Caltech 行人數(shù)據(jù)庫圖像示例Fig.5 Example of image in Caltech pedestrian database
戴姆勒行人檢測(cè)標(biāo)準(zhǔn)數(shù)據(jù)庫分為檢測(cè)和分類兩個(gè)數(shù)據(jù)集。其中:正樣本包含18×36 像素和48×96 像素的圖片15 560 張,行人的最小高度為72 個(gè)像素;負(fù)樣本共計(jì)6 744 張,分辯率為640×480 像素或者360×288 像素。測(cè)試集為一段27 min 左右的視頻,分辨率為640×480 像素,共計(jì)21 790 張圖片,包含56 492 個(gè)行人。分類數(shù)據(jù)庫有3 個(gè)訓(xùn)練集和2 個(gè)測(cè)試集,每個(gè)數(shù)據(jù)集有4 800 張行人圖片和5 000 張非行人圖片,另外還有3 個(gè)輔助的非行人圖片集,各有1 200 張圖片。戴姆勒行人檢測(cè)標(biāo)準(zhǔn)數(shù)據(jù)庫圖像示例如圖6 所示。
圖6 戴姆勒行人檢測(cè)標(biāo)準(zhǔn)數(shù)據(jù)庫圖像示例Fig.6 Example of image in Daimler pedestrian detection standard database
重新設(shè)計(jì)錨點(diǎn)框,采用K-means 聚類算法對(duì)數(shù)據(jù)集進(jìn)行維度聚類,得到大、中、小3種尺度共計(jì)9個(gè)錨框,大小分別為(320,180)、(200,136)、(155,81)、(103,55)、(69,44)、(63,140)、(46,33)、(28,26)、(25,63)。依次分配大、中、小的檢測(cè)單元,之后對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,采用SGD 優(yōu)化器,初始學(xué)習(xí)率0.000 1,衰竭系數(shù)0.000 5,批大小設(shè)置為16,其余參數(shù)為默認(rèn)參數(shù),經(jīng)過2 500 次迭代后進(jìn)行測(cè)試,丟失率接近10%。對(duì)YOLOv4 模型進(jìn)行微調(diào)后,在NVIDIA Geforce GTX TITAN 上分別運(yùn)行微調(diào)后YOLOv4 算法和原YOLOv4 算法,檢測(cè)結(jié)果如圖7 和圖8 所示。
圖7 微調(diào)后YOLOv4 算法的行人檢測(cè)結(jié)果Fig.7 Pedestrian detection result of fine-tuned YOLOv4 algorithm
圖8 原YOLOv4 算法的行人檢測(cè)結(jié)果Fig.8 Pedestrian detection result of original YOLOv4 algorithm
在圖7、圖8 中,行人年齡分布方面包含小孩、年輕人和老人,狀態(tài)方面包括騎自行車的人、被部分建筑物遮擋的人、推嬰兒車的人等各類行人。YOLOv4 在檢測(cè)嬰兒以及被遮擋的行人方面效果不佳,如圖8 中被遮擋的行人、嬰兒和特征相似的行人存在較高的漏檢率。但是微調(diào)后的YOLOv4 算法在檢測(cè)遮擋的行人以及嬰兒等目標(biāo)時(shí)可獲得良好的效果,并且有較強(qiáng)的置信度,同時(shí)誤檢和漏檢情況較少。
為檢驗(yàn)微調(diào)后YOLOv4 在檢測(cè)數(shù)據(jù)集上的檢測(cè)效果,將其與Fast R-CNN、Faster R-CNN、SDD、YOLOv3等算法進(jìn)行對(duì)比,以平均精度均值(mean Average Precision,mAP)和幀率(FPS)作為評(píng)價(jià)指標(biāo)。mAP 的值越高,說明算法對(duì)目標(biāo)的檢測(cè)效果越好;FPS 越高,代表每秒輸出的畫面越多,說明實(shí)時(shí)檢測(cè)效果越好。實(shí)驗(yàn)結(jié)果如表1 所示,從中可以看出:微調(diào)后YOLOv4相較于其他算法mAP 值和FPS 有所提高,為之后的社交距離風(fēng)險(xiǎn)評(píng)估提供了保障;由于本文采用是YOLO系列算法,參數(shù)量和FLOPS 均大幅降低,因此提升了速度。
表1 微調(diào)后YOLOv4 算法與其他算法的性能對(duì)比Table 1 Performance comparison of fine-tuned YOLOv4 algorithm with other algorithms
在完成對(duì)視域內(nèi)行人的檢測(cè)后,通過篩選出特征點(diǎn)將人抽象為質(zhì)點(diǎn),利用DeepSort算法中的卡爾曼濾波和匈牙利算法即可得到該行人的移動(dòng)路徑。微調(diào)后YOLOv4 與原YOLOv4 算法的行人跟蹤結(jié)果分別如圖9 和圖10 所示。實(shí)驗(yàn)結(jié)果表明,原YOLOv4算法對(duì)于行人的跟蹤有較強(qiáng)的魯棒性,但是對(duì)嬰兒等小目標(biāo)的識(shí)別存在一定的漏檢率,而微調(diào)后YOLOv4 算法在小目標(biāo)識(shí)別方面性能得到了大幅提升,提高了小目標(biāo)的檢測(cè)效果。
圖9 微調(diào)后YOLOv4 算法的行人目標(biāo)跟蹤結(jié)果Fig.9 Pedestrian target tracking result of fine-tuned YOLOv4 algorithm
圖10 原YOLOv4 算法的行人目標(biāo)跟蹤結(jié)果Fig.10 Pedestrian target tracking result of original YOLOv4 algorithm
在逆變換空間,利用線性距離表示每個(gè)人的位置,依據(jù)視域內(nèi)各行人運(yùn)動(dòng)矢量間的關(guān)系對(duì)行人進(jìn)行安全距離評(píng)估,最終算法結(jié)果如圖11 所示,嵌入式系統(tǒng)將識(shí)別出違反安全社交距離的行人并用直線進(jìn)行連接以作警示。
圖11 安全距離檢測(cè)評(píng)估結(jié)果Fig.11 Safety distance detection and evaluation result
針對(duì)圖11 中標(biāo)記部分,在不同時(shí)間段內(nèi)對(duì)兩人至多人的行人行走狀態(tài)進(jìn)行判斷分析??梢钥闯觯涸谛腥嗣芏日5那闆r下,本文算法具有一定的可行性。圖11(a)、圖11(b)結(jié)果表明,兩人安全距離檢測(cè)評(píng)估判斷具有較高的準(zhǔn)確性;圖11(c)結(jié)果表明,由于行人群體在前幾秒有相似的位移和速度,因此將其歸為違反安全社交距離人群的一部分,在之后的判斷中根據(jù)算法結(jié)果將其排出被選范圍;圖11(d)結(jié)果表明,在長椅的遮擋下,本文算法在噪音處理后以及背景與行人較為相似的狀態(tài)下存在漏檢,但對(duì)于其他情況具有一定的可實(shí)施性。最終利用OpenCV繪制成鳥瞰圖,如圖12所示,在虛線框圖中,利用鳥瞰圖對(duì)行人質(zhì)點(diǎn)進(jìn)行連線警示。
圖12 測(cè)試集的鳥瞰圖Fig.12 Aerial view of the test set
采用人工安全社交距離標(biāo)定,將違反安全距離規(guī)定的人群視為“群組”,統(tǒng)計(jì)前1 000 幀的行人總數(shù)、實(shí)際群組和判斷群組繪出三維統(tǒng)計(jì)圖,如圖13所示??梢钥闯觯疚乃惴ǖ摹叭航M”識(shí)別準(zhǔn)確率達(dá)到88.23%,視頻的幀率為15 frame/s,可滿足校園、工廠等封閉環(huán)境的防疫需求。
圖13 每幀的總?cè)藬?shù)及群組的判斷Fig.13 Judgment of total number of people and groups per frame
本文結(jié)合目前COVID-19 疫情狀態(tài),在文獻(xiàn)[8]方法的基礎(chǔ)上進(jìn)行改進(jìn),利用鳥瞰視角開發(fā)一個(gè)基于CNN 的深度社交距離監(jiān)控模型,結(jié)合CSPDarknet53主干網(wǎng)絡(luò)、SPP 空間金字塔池化層以及PANet 頸部、Mish 激活函數(shù)和聚類算法構(gòu)建行人檢測(cè)網(wǎng)絡(luò)框架,基于DeepSort 算法進(jìn)行行人跟蹤,最后提出運(yùn)動(dòng)矢量算法并利用OpenCV 庫函數(shù)構(gòu)建鳥瞰圖。實(shí)驗(yàn)結(jié)果表明,該算法能夠?qū)崿F(xiàn)對(duì)社交距離風(fēng)險(xiǎn)的有效評(píng)估,可滿足校園、廣場(chǎng)、工廠等環(huán)境的防疫需求。后續(xù)將對(duì)YOLOv4 在智能移動(dòng)平臺(tái)上的部署做進(jìn)一步優(yōu)化,提高圖像的像素大小、mAP 和幀率,同時(shí)減少視頻流傳輸過程中的視頻幀損失。