趙薛強(qiáng)
(中水珠江規(guī)劃勘測設(shè)計(jì)有限公司,廣州 510610)
無人機(jī)由于其便利性、經(jīng)濟(jì)性近年來被廣泛應(yīng)用于水庫大壩、水電站等水利工程的巡檢巡查中,獲取了海量照片、視頻等可視化圖像數(shù)據(jù),為水利行業(yè)智慧化監(jiān)管做出了重大貢獻(xiàn)[1]。崔保春等[2]提出了一種基于模式識(shí)別技術(shù)的高光譜遙感影像檢測方法提高了影像拼接的精度,董淑娟等[3]提出了一種僅針對(duì)攝像頭、雷達(dá)等采集的水利工程質(zhì)量圖像的誤差補(bǔ)償神經(jīng)網(wǎng)絡(luò)的檢測算法。在水利工程無人機(jī)圖像智能識(shí)別領(lǐng)域,國內(nèi)外學(xué)者主要在無人機(jī)圖像質(zhì)量和圖像細(xì)節(jié)紋理等方面開展檢測識(shí)別研究,而針對(duì)海量的多期巡檢圖像違規(guī)違法等異常問題檢測方面主要采用人工判別的方法,費(fèi)時(shí)費(fèi)力且效率不高,為滿足智慧水利建設(shè)和水利信息化行業(yè)發(fā)展的需要,亟須構(gòu)建新的智能化圖像識(shí)別方法技術(shù)體系。隨著人工智能技術(shù)的發(fā)展,基于目標(biāo)識(shí)別檢測算法的人工智能技術(shù)為水利工程的無人機(jī)海量圖像異常特征識(shí)別提供了技術(shù)支撐。
Redmon J 等[4]于2015年 提出的YOLO(You Only Look Once:Unified,Real-Time Objection Detection)算法在圖像識(shí)別領(lǐng)域被廣泛應(yīng)用,從第一代YOLO v1 已發(fā)展到第五代YOLO v5[5],其中YOLO v1、YOLO v2、YOLO v3均由Redmon J等提出并改進(jìn)發(fā)展的,YOLO v4、YOLO v5是針對(duì)特定的應(yīng)用環(huán)境由其他學(xué)者改進(jìn)發(fā)展的,由于算法源碼公開時(shí)間短等原因,存在一定的應(yīng)用局限性[6-8]。YOLO v3 作為YOLO 算法框架系列的經(jīng)典,針對(duì)其小目標(biāo)識(shí)別精度不高這一弊端,國內(nèi)外學(xué)者對(duì)YOLO v3 算法進(jìn)行了一些改進(jìn)[9-17],蔡鴻峰等[9]提出了選用Darknet-49 為主干網(wǎng)絡(luò),通過引入DIoU 函數(shù),對(duì)損失函數(shù)進(jìn)行了優(yōu)化改進(jìn),但mAP 僅提升了2.4%;顧晉等[10]通過改進(jìn)的車輛算法對(duì)原YOLO v3 中的模型進(jìn)行剪枝處理,提升了YOLO v3 算法識(shí)別的精度和效率,上述研究多應(yīng)用于行人檢測[11]、車輛檢測[12]、交通標(biāo)志識(shí)別[13]、船只識(shí)別[14]等小尺度、單目標(biāo)的特征物檢測識(shí)別領(lǐng)域,在大范圍、小尺度和多目標(biāo)的水利工程無人機(jī)圖像檢測識(shí)別領(lǐng)域應(yīng)用較少。
為提升無人機(jī)圖像識(shí)別的精度和效率,滿足水利工程建設(shè)期針對(duì)工程安全、進(jìn)度等強(qiáng)監(jiān)管工作的要求,達(dá)到智能化施工和管理的目的,擬通過開展無人機(jī)圖像智能識(shí)別技術(shù)體系研究,基于YOLO v3 單階段目標(biāo)檢測算法框架,在引入通道注意力模塊(Squeeze-and-Excitation(SE)-block)的基礎(chǔ)上,優(yōu)化算法設(shè)計(jì),搭建基于Yolov3-SE 框架的高精度、高效率的圖像識(shí)別算法,研發(fā)無人機(jī)圖像自動(dòng)識(shí)別系統(tǒng),形成適合水利工程的無人機(jī)圖像智能識(shí)別技術(shù)體系,提升無人機(jī)圖像識(shí)別的效率和成功率,為水利工程建設(shè)期的無人機(jī)巡檢圖像異常特征物智能識(shí)別提供技術(shù)支撐,也為河湖環(huán)境監(jiān)測、防洪應(yīng)急救援、河湖岸線監(jiān)測等行業(yè)領(lǐng)域的無人機(jī)動(dòng)態(tài)監(jiān)管提供關(guān)鍵技術(shù)支撐。
在深入分析前人研究成果的基礎(chǔ)上,基于YOLO v3 單目標(biāo)檢測算法框架,通過引入SE-block,開展高精度、高效率地YOLO v3-SE 算法設(shè)計(jì)研究,構(gòu)建無人機(jī)圖像智能識(shí)別技術(shù)體系,研發(fā)無人機(jī)圖像自動(dòng)識(shí)別系統(tǒng)。
主要關(guān)鍵技術(shù)流程分為以下3個(gè)步驟:首先,針對(duì)無人機(jī)航攝圖像的類型,將視頻統(tǒng)一轉(zhuǎn)化為照片,構(gòu)建圖片流處理中心,開展圖像處理、圖像分割、像元處理等的圖像預(yù)處理工作;其次,根據(jù)應(yīng)用需求,對(duì)圖片中異常特征物體開展標(biāo)注和用于模型訓(xùn)練的數(shù)據(jù)集制作工作;最后,基于YOLO v3 算法框架,通過引入SE-block,構(gòu)建YOLO v3-SE 算法框架,開展無人機(jī)圖像異常特征物識(shí)別,并開發(fā)相應(yīng)的自動(dòng)識(shí)別系統(tǒng)滿足工程應(yīng)用實(shí)踐要求。具體技術(shù)流程見圖1所示。
圖1 技術(shù)流程Fig.1 Technical process
YOLO v3 作為YOLO 系列算法的一個(gè)代表,其實(shí)現(xiàn)原理如圖2所示。它在特征提取網(wǎng)絡(luò)部分引入了殘差結(jié)構(gòu)加深網(wǎng)絡(luò)深度,并引入跳層連接,有效防止梯度消失,由此構(gòu)建了更深層次和更高精度的特征提取網(wǎng)絡(luò)DarkNet53。對(duì)象分類用Logistic取代了Softmax。在檢測部分,它利用3 個(gè)輸出分支分別對(duì)不同尺寸的目標(biāo)物進(jìn)行檢測,同時(shí)3 個(gè)特征層之間通過特征金字塔結(jié)構(gòu)實(shí)現(xiàn)特征的有效融合,提高了檢測性能和小目標(biāo)識(shí)別。YOLO v3 是一個(gè)端到端的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),因此建立了新的多任務(wù)損失函數(shù)來進(jìn)行網(wǎng)絡(luò)的訓(xùn)練。其損失函數(shù)由邊界框坐標(biāo)回歸損失、分類損失和置信度損失三部分構(gòu)成。
圖2 YOLO v3算法結(jié)構(gòu)Fig.2 Structure of YOLO v3 algorithm
邊界框坐標(biāo)回歸損失為:
其中{xp,yp,wp,hp}為預(yù)測目標(biāo)框位置信息,{xt,yt,wt,ht}為真實(shí)目標(biāo)框位置信息,該損失函數(shù)主要用于目標(biāo)位置的回歸。
置信度損失為:
式中:confp和conft分別表示目標(biāo)預(yù)測和真實(shí)置信度,該損失主要用于判斷網(wǎng)格內(nèi)是否存在目標(biāo)。
分類損失為:
總體損失函數(shù)為上述三部分損失的加權(quán)和:
式中:λcoo、λconf和λcls為正數(shù)的權(quán)值參數(shù),在訓(xùn)練過程中該損失采用誤差反向傳遞的方式進(jìn)行網(wǎng)絡(luò)參數(shù)的調(diào)整。
YOLO v3 在Microsoft COCO 數(shù)據(jù)集上mAP@0.5 達(dá) 到57.9%,每張圖像的檢測速度可達(dá)到51 ms[18]。相比YOLO v1、YOLO v2 算法框架,YOLO v3 算法無論是檢測精度和檢測速度都有較大幅度的提升,但YOLO v3 對(duì)3 個(gè)輸出分支特征層的特征利用存在不足,無法充分地利用有效特征,這使得YOLO v3對(duì)目標(biāo)的定位并不精準(zhǔn)。
為了提升YOLO v3 算法識(shí)別小目標(biāo)物的精度,國內(nèi)外學(xué)者通過引入注意力機(jī)制,提升了小目標(biāo)物識(shí)別的精度。其基本實(shí)現(xiàn)原理為:注意力機(jī)制(SKNet、SE-block、CBAM 等)[19-21]依靠神經(jīng)網(wǎng)絡(luò)計(jì)算出梯度通過前向傳播與后向反饋的方式獲得注意力權(quán)重,并應(yīng)用于YOLO v3 的優(yōu)化改造中以提升目標(biāo)識(shí)別率。與其他注意力機(jī)制相比,SE-block 可以在通過較少的參數(shù),減少無關(guān)信息帶來的干擾,這對(duì)異常特征樣本量較少的無人機(jī)圖像識(shí)別尤為重要,其通過對(duì)各通道的依賴性進(jìn)行建模以提高網(wǎng)絡(luò)的表征能力,并且可以對(duì)特征進(jìn)行逐通道調(diào)整,這樣網(wǎng)絡(luò)就可以通過自主學(xué)習(xí)來選擇性地加強(qiáng)包含有用信息的特征并抑制無用特征,進(jìn)而可提高小目標(biāo)識(shí)別的精度。SE-block基本原理如圖3 所示。首先,經(jīng)過一個(gè)標(biāo)準(zhǔn)的卷積操作,如式(5)所示。再經(jīng)過Squeeze 操作將H×W×C 壓縮至1×1×C,將該通道的表示定義為各通道的全局空間特征,形成通道描述符,如式(6)所示;然后經(jīng)過Excitation 操作開展對(duì)各通道的依賴程度的學(xué)習(xí),同時(shí)依據(jù)依賴程度的不同調(diào)整特征圖,獲得全局的特征通道權(quán)值系數(shù)S,如式(7)所示。最后將學(xué)習(xí)到的各個(gè)通道的權(quán)值系數(shù)乘到特征圖U上,完成通道維度上的有效特征加強(qiáng),無效特征的抑制,如式(8)所示。
圖3 通道注意力模塊(SE-block)Fig.3 Channel attention module(SE-block)
式(5)~(8)和圖3 中,U表示二維矩陣;H為每個(gè)維度特征圖的高;W為每個(gè)維度特征圖的寬;W1Z表示第1 個(gè)全連接操作;W2RELU(.)為第2 個(gè)全連接操作;RELU(.)為ReLU 激活函數(shù);σ(.)為Sigmoid函數(shù);S為各通道重要程度的權(quán)重。
針對(duì)無人機(jī)拍攝的照片、視頻中特征物大小尺寸不同和異常特征物樣本庫較少等問題,為實(shí)現(xiàn)無人機(jī)圖像特征目標(biāo)物的高精度提取,通過在3個(gè)輸出分支添加SE-block,增強(qiáng)每個(gè)分支的特征表達(dá),構(gòu)建新的YOLO v3-SE 算法框架,從而使網(wǎng)絡(luò)有選擇性地加強(qiáng)關(guān)鍵特征,并抑制無用特征,YOLO v3-SE 算法網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。
圖4 Yolov3-SE算法結(jié)構(gòu)圖Fig.4 Yolov3-SE algorithm structures
同時(shí),針對(duì)數(shù)據(jù)集樣本中各類目標(biāo)物的類間數(shù)據(jù)量不均衡,存在較大差距,不利于模型的訓(xùn)練,以及對(duì)于實(shí)際的檢測效果也是有較大影響等弊端,根據(jù)圖片數(shù)據(jù)和目標(biāo)物分布的實(shí)際情景通過對(duì)原始圖片采取翻轉(zhuǎn)、隨機(jī)裁剪(3 種不同尺寸)以及翻轉(zhuǎn)和隨機(jī)裁剪混合的方式來進(jìn)行數(shù)據(jù)增強(qiáng),用以提高無人機(jī)特征物識(shí)別的成功率。數(shù)據(jù)增強(qiáng)效果示意如圖5所示。
圖5 數(shù)據(jù)增強(qiáng)示意圖Fig.5 Data enhancement diagram
為實(shí)現(xiàn)從海量無人機(jī)圖像中智能化、自動(dòng)化地檢測識(shí)別水利工程建設(shè)期的非法棄渣、工地塌方、施工挖坑積水等異常特征狀況,基于云計(jì)算、大數(shù)據(jù)、YOLO v3-SE 目標(biāo)檢測算法、計(jì)算機(jī)開發(fā)語言、GIS 技術(shù)等技術(shù)方法研發(fā)無人機(jī)圖像自動(dòng)識(shí)別系統(tǒng),用于滿足海量無人機(jī)航拍視頻、照片等圖像的智能化精確識(shí)別的需求。系統(tǒng)具體設(shè)計(jì)步驟為:首先,構(gòu)建無人機(jī)原始圖像和異常特征識(shí)別標(biāo)記圖像數(shù)據(jù)庫,開展無人機(jī)圖像的數(shù)據(jù)庫設(shè)計(jì)研究,前端采用JavaScript語言、后端采用Java語言,數(shù)據(jù)庫采用具有空間數(shù)據(jù)存儲(chǔ)管理功能的PostgreSQL 數(shù)據(jù)庫,空間數(shù)據(jù)顯示管理可采用開源GIS 平臺(tái),通過讀取無人機(jī)航攝圖像自帶的POS 定位信息,建立地圖定位點(diǎn)與圖像之間的空間聯(lián)系,開展航攝圖像信息的讀取和入庫;其次,融合YOLO v3-SE 算法,采用Pytorch1.2.0 深度學(xué)習(xí)框架和Python 編程語言,構(gòu)建后端無人機(jī)圖像自動(dòng)識(shí)別計(jì)算和大數(shù)據(jù)處理中心;最后,通過前端WEB端進(jìn)行調(diào)用深度學(xué)習(xí)框架,開展不同期的無人機(jī)航攝圖像異常特征物識(shí)別,并將異常照片進(jìn)行入庫和圖上定位顯示,以便技術(shù)人員進(jìn)行判別比對(duì)和管理。
目標(biāo)特征檢測識(shí)別常用的精度評(píng)價(jià)指標(biāo)主要為基于mAP值(Mean Average Precision)的評(píng)價(jià)法。mAP 是指不同召回率下的精度均值。在無人機(jī)圖像異常目標(biāo)檢測中,一個(gè)模型會(huì)檢測多種不同異常特征物,每一類都繪制一條PR(Precision-Recall)曲線,并計(jì)算出AP 值,而mAP 可通過多個(gè)類別的AP 值平均值求取。由于通過計(jì)算數(shù)據(jù)集中所有類別AP 值的平均值即可求取mAP,因此只需計(jì)算AP 即可。AP 計(jì)算方法主要有3種方法:
(1)在VOC2010 數(shù)據(jù)集以前,先求取當(dāng)Recall >= 0,0.1,0.2,…,1 共11 段時(shí)的Precision 最大值,然后計(jì)算11 個(gè)Precision的平均值即為AP如公式(9)所示,mAP即為所有類別AP值的平均數(shù)。
式中:γ為召回率Recall的取值;ρ(γ)為召回率大于11個(gè)點(diǎn)時(shí)的最大準(zhǔn)確率值。
(2)在VOC2010 數(shù)據(jù)集及以后,需選取每一個(gè)召回率Recall 大于等于Recall 值時(shí)的Precision 最大值,計(jì)算PR 曲線下面積作為AP值,然后求取mAP,此方法為目前較為常用的mAP精度評(píng)定方法。
式中;TP(True Positive)表示一個(gè)正確的定位結(jié)果;FP(False Positive)表示一個(gè)錯(cuò)誤的結(jié)果;FN(False Negative)表示未預(yù)測出的結(jié)果。
(3)在Microsoft COCO 數(shù)據(jù)集中,可采用設(shè)定多個(gè)IOU(Intersection over Union)閾值(步長選擇0.05,閾值范圍為0.5~0.95,)的方法,在每一個(gè)IOU 閾值下都對(duì)應(yīng)相應(yīng)一類別的AP值,然后計(jì)算在不同IOU 閾值下的AP 平均數(shù),即為所求的某一類的AP值。
實(shí)驗(yàn)區(qū)域?yàn)榇筇賺{水利樞紐工程、南渡江引水工程、環(huán)北部灣廣東水資源配置工程等10 多個(gè)大型水利工程。為科學(xué)監(jiān)管和掌握建設(shè)期的工程進(jìn)度,利用無人機(jī)航空攝影測量技術(shù)開展了工程建設(shè)期的巡檢巡查工作,獲取了海量的無人機(jī)巡檢圖像。為智能化地檢測、識(shí)別和管理海量的水利工程無人機(jī)圖像,基于YOLO v3-SE 算法和計(jì)算機(jī)開發(fā)語言,自主研發(fā)了無人機(jī)圖像自動(dòng)識(shí)別系統(tǒng),實(shí)現(xiàn)了實(shí)驗(yàn)區(qū)域無人機(jī)圖像異常特征的自動(dòng)識(shí)別。為評(píng)估本文所提出的Yolov3-SE 算法的檢測性能,選取了各類別精度AP 和平均精度mAP 作為評(píng)價(jià)指標(biāo),選用第二種AP 計(jì)算方法,在自制的實(shí)際應(yīng)用場景數(shù)據(jù)集上進(jìn)行了有效驗(yàn)證。
選取無人機(jī)航拍巡檢數(shù)據(jù)庫中的圖像數(shù)據(jù),并針對(duì)實(shí)際應(yīng)用場景中的異常特征目標(biāo)物,基于VOC標(biāo)準(zhǔn)制作了實(shí)際應(yīng)用場景下的標(biāo)準(zhǔn)數(shù)據(jù)集。使用Lableimg 標(biāo)注工具進(jìn)行人工標(biāo)注數(shù)據(jù)集,依照如表1 所示的異常目標(biāo)物標(biāo)準(zhǔn),制作了包含101 540張圖片數(shù)據(jù)、140 300 個(gè)目標(biāo)物的標(biāo)準(zhǔn)數(shù)據(jù)集。數(shù)據(jù)集具體參數(shù)如表2 所示。訓(xùn)練集包含66 000 張圖片數(shù)據(jù),測試集包含35 514 張圖片數(shù)據(jù)。YOLO v3-SE算法一共開展了90輪迭代訓(xùn)練,其中前60輪學(xué)習(xí)率設(shè)置為le-4,后30輪設(shè)置為le-5,每輪訓(xùn)練的批大小(batchsize)設(shè)置為8,優(yōu)化策略采用Adam,深度學(xué)習(xí)率衰減為0.95。實(shí)驗(yàn)硬件環(huán)境為:Intel Xeon Gold 5122 CPU,顯卡NVIDIA GTX-1080Ti(2 張,顯存各11GB);軟件環(huán)境為:深度學(xué)習(xí)框架Pytorch1.2.0,操作系統(tǒng)Ubuntu 18.04,3.6.12版本的Python編程語言。
表1 異常目標(biāo)物標(biāo)準(zhǔn)Tab.1 norm of abnormal target
表2 數(shù)據(jù)集參數(shù)表Tab.2 Parameters of Dataset
為了評(píng)估YOLO v3-SE 算法性能,將本文算法與YOLO v3基礎(chǔ)算法、融入注意力模塊的SKNet-YOLO v3 算法和CBAMYOLO v3算法進(jìn)行了比較。選取了各類別的識(shí)別精度AP,以及所有類別的平均精度mAP 作為評(píng)估標(biāo)準(zhǔn),統(tǒng)計(jì)情況如表3 所示。從表3 可以看出,本文算法相較于YOLO v3 基礎(chǔ)算法、SKNet-YOLO v3 算法和CBAM-YOLO v3 算法在積水(stag_water)、塌方(collapse)、運(yùn)輸船(trans_boat)、聚集型漂浮物(g_garbage)、棄渣(spoil)和分散型漂浮物(d_garbage)6 類目標(biāo)物的檢測精度AP 均有較大幅度的提升。與YOLO v3 基礎(chǔ)算法相比,平均檢測精度mAP 從59.83%提升至90.17%,與添加注意力模塊的SKNet-YOLO v3改進(jìn)算法相比,平均檢測精度mAP從79%提升至90.17%,與添加注意力模塊的CBAM-YOLO v3 改進(jìn)算法相比,平均檢測精度mAP 從72%提升至90.17%。綜上所述,本文提出的YOLO v3-SE 算法相較于YOLO v3基礎(chǔ)算法和其他添加注意模塊的改進(jìn)YOLO v3 算法相比,在針對(duì)無人機(jī)圖像的單個(gè)目標(biāo)物檢測精度AP及mAP均有明顯提升。
表3 各算法的識(shí)別精度統(tǒng)計(jì)表 %Tab.3 Statistical table of recognition accuracy of each algorithm
為了定性分析實(shí)驗(yàn)結(jié)果,從自制的標(biāo)準(zhǔn)數(shù)據(jù)集中選取了6個(gè)類別的圖片數(shù)據(jù)。同時(shí)為了更好地對(duì)YOLO v3-SE 算法的檢測效果進(jìn)行評(píng)估,選取不同角度和不同區(qū)域的圖片數(shù)據(jù)進(jìn)行實(shí)際測驗(yàn)。實(shí)際可視化結(jié)果如圖6 所示。從圖6 中可以看出,我們可以有效的識(shí)別出圖片中的目標(biāo)物,而且檢測的精度也是相當(dāng)高的。尤其是在積水的檢測中,漏檢的情況很少,且對(duì)于船只的檢測已經(jīng)達(dá)到非常精確的效果。由此可見YOLO v3-SE 算法在實(shí)際檢測中效果良好,能夠達(dá)到檢測要求。
圖6 6類目標(biāo)物可視化結(jié)果圖Fig.6 Visualized results on 6 tagets
通過深入研究YOLO v3 算法框架,引入SE-block,提出了基于YOLO v3-SE 算法的無人機(jī)圖像檢測識(shí)別方法,設(shè)計(jì)了無人機(jī)圖像自動(dòng)識(shí)別系統(tǒng),形成了無人機(jī)圖像識(shí)別技術(shù)體系,主要工作如下。
(1)為了提高檢測成果的精度,彌補(bǔ)YOLO v3 基礎(chǔ)算法針對(duì)無人機(jī)航攝圖像小目標(biāo)物識(shí)別精度不高的局限性,通過引入SE-block,對(duì)YOLOv3 的基本框架進(jìn)行改進(jìn),自主構(gòu)建了YOLO v3-SE 識(shí)別算法框架。并針對(duì)標(biāo)注數(shù)據(jù)集樣本不均衡的情況,根據(jù)圖像數(shù)據(jù)和目標(biāo)物分布的實(shí)際情景做相應(yīng)的數(shù)據(jù)增強(qiáng),提高了無人機(jī)特征物識(shí)別的成功率。從實(shí)驗(yàn)結(jié)果對(duì)比分析可知,相比于基礎(chǔ)YOLO v3 以及引入其他注意力模塊的SKSet-YOLO v3 改進(jìn)算法和CBAM-YOLO v3 改進(jìn)算法,YOLO v3-SE 算法針對(duì)無人機(jī)航攝圖像的檢測有著更好的效果,檢測精度AP 和mAP 均得到了明顯提升。從定性定量分析結(jié)果來看,YOLOv3-SE檢測算法是一種較好的無人機(jī)航攝圖像目標(biāo)檢測識(shí)別方法。
(2)融合YOLO v3-SE 算法,采用GIS 技術(shù)、大數(shù)據(jù)等,自主研發(fā)的無人機(jī)圖像自動(dòng)識(shí)別系統(tǒng),完成了多個(gè)大型水利工程海量無人機(jī)巡檢航拍圖像的入庫、自動(dòng)識(shí)別和管理,為水利工程檔案博物館的建設(shè)提供了珍貴的歷史影像資料。
(3)設(shè)計(jì)的無人機(jī)圖像識(shí)別算法和自動(dòng)識(shí)別系統(tǒng),形成的無人機(jī)圖像智能識(shí)別技術(shù)體系,僅是針對(duì)無人機(jī)航攝獲取圖像后而進(jìn)行的圖像入庫和圖像異常特征物識(shí)別,相對(duì)于防洪搶險(xiǎn)、應(yīng)急救援等極端情況,未來需進(jìn)一步加強(qiáng)無人機(jī)前端實(shí)時(shí)拍攝圖像和視頻實(shí)時(shí)傳輸監(jiān)控的異常實(shí)時(shí)檢測識(shí)別。同時(shí),本研究僅針對(duì)6 個(gè)應(yīng)用場景進(jìn)行實(shí)驗(yàn)驗(yàn)證,未來將根據(jù)需求增加異常樣本庫,構(gòu)建針對(duì)更多應(yīng)用場景的異常識(shí)別。