摘 要:為實現(xiàn)災難事件的無人機(Unmanned Aerial Vehicle,UAV) 自主監(jiān)測和預警,提出了結合逐通道注意力機制和高效卷積神經網絡的新架構??紤]到嵌入式平臺的資源限制條件,使用輕量級ShuffleNet-V2 作為骨干網絡,能夠對更多信息進行高效編碼并盡可能降低網絡復雜度。為進一步提高災難場景分類的準確度,在ShuffleNet-V2 網絡中結合了擠壓-激發(fā)(Squeeze-Excitation,SE) 模塊以實現(xiàn)逐通道注意力機制,顯著增強分類網絡對重要特征的關注度。通過數(shù)據(jù)采集和增強技術獲得包括12 876 張圖像的UAV 航拍災難事件數(shù)據(jù)集,對所提方法進行性能評估,并比較所提方法與其他先進模型的性能。結果表明,所提方法取得了99. 01% 的平均準確度,模型大小僅為5. 6 MB,且在UAV 機載平臺上的處理速度超過10 FPS,能夠滿足UAV 平臺自主災情監(jiān)測任務的現(xiàn)實需求。
關鍵詞:無人機;圖像分類;卷積神經網絡;注意力機制;嵌入式平臺
中圖分類號:TP391 文獻標志碼:A 開放科學(資源服務)標識碼(OSID):
文章編號:1003-3106(2024)05-1261-09
0 引言
當前,無人機(Unmanned Aerial Vehicle,UAV)已得到了廣泛應用,例如交通監(jiān)測、搜索救援、精準農業(yè)和衛(wèi)星圖像處理等[1]。UAV 尺寸小,可快速部署,是及時分析情況并消減災難影響的有力工具,但受災區(qū)域常存在連接性和可見性限制[2]。此外,自主UAV 依賴機載傳感器和微處理器執(zhí)行給定任務。需要考慮算力和存儲硬件限制,并實現(xiàn)高效視覺處理[3]。
在災難管理應用的航拍圖像分類中,深度學習具有分類準確度高、通用性強的優(yōu)點,發(fā)揮著重要作用[4]。深度學習算法,例如卷積神經網絡(Convolutional Neural Network,CNN),被普遍視為許多計算機視覺應用(圖像/ 視頻識別、檢測和分類)的發(fā)展方向,并已經在各種應用中表現(xiàn)出優(yōu)異性能[5]。文獻[6]提出了結合CNN 和XGBoost 的道路交通事故分類檢測算法,基于組合模型的分類結果進行重要程度排序和特征相關性分析。該方法取得了91. 51% 的預測準確度。但該方法使用的CNN 硬件資源需求較大,不適用于UAV 嵌入式設備。文獻[7]提出了在雪崩場景中檢測感興趣目標的方法,使用預訓練Inception 網絡進行特征提取,并利用線性支持向量機進行分類,并基于隱藏馬爾科夫模型,應用后處理以改善分類器的決策。文獻[8]提出了基于CNN 的建筑物倒塌預測模型,利用淺層局部特征改善高度和目標形狀估計,并使用漸進式情境融合方法改善性能,并取得了最高98. 78% 的整體檢測準確度。文獻[9]提出了基于深度學習的UAV 航拍圖像洪水檢測方案,利用Haar 級聯(lián)分類器捕捉場景特征以識別洪水區(qū)域。但該方法使用的訓練數(shù)據(jù)集規(guī)模較小,因此在對洪水區(qū)域和非洪水區(qū)域的分類中僅取得了91% 的準確度。文獻[10]提出了UAV 航拍圖像的火災檢測算法,其中結合了CNN 和YOLOv3。該方法僅實現(xiàn)了83% 的檢測準確度,且在UAV 平臺上處理速度FPS 僅為3. 2,不能滿足實時應用需求。從過去方法的分析中可發(fā)現(xiàn),當前方法主要采用桌面式系統(tǒng)作為主計算平臺,在GPU 上對UAV 視頻片段進行遠程處理。然而,在特定場景中,通信延遲和連接性問題可能會影響到此類系統(tǒng)的性能,此外,過去方法大部分著眼于單一災難事件的檢測,限制了預警平臺的應用范圍。
本文提出了使用UAV 機載平臺,對災難事件進行自動分類的解決方案,并針對應急救援應用采集了UAV 航拍圖像數(shù)據(jù)集。以往方法僅針對單一災難事件,本文方案則訓練網絡對4 種災難事件(火災、洪災、建筑物坍塌和交通事故)進行識別,極大擴展了UAV 自主監(jiān)測的應用范圍。所提方法使用高效ShuffleNet-V2 架構,大幅降低了硬件資源要求,從而在UAV 嵌入式平臺上實現(xiàn)實時處理。利用擠壓-激發(fā)(Squeeze-Excitation,SE)模塊,基于不同通道的重要程度調整注意力機制的關注度,顯著改善了分類準確度。由此,在復雜度和準確度之間實現(xiàn)平衡。
1 提出的改進型ShuffleNet-V2
本文開發(fā)了基于自主式UAV 平臺的災難事件分類預警方法。在UAV 嵌入式平臺上,利用深度學習模型實時分析通過UAV 傳感器撲捉到的圖像,進行災難事件監(jiān)控,并在發(fā)生險情時及時發(fā)出警報。所提系統(tǒng)中,開發(fā)了基于逐通道注意力(Channel-wise Attention,CA)機制的輕量級卷積神經網絡。使用ShuffleNet-V2 作為骨干網絡,并利用SE 模塊作為改善ShuffleNet-V2 架構的注意力機制。
1. 1 ShuffleNet-V2 和SE 模塊
近期,基于CNN 的分類系統(tǒng)得到了大量研究,其中對一些性能領先的深度學習框架的簡單介紹如下:
AlexNet[11]:VGG 網絡被廣泛用于從圖像中提?。茫危?特征。該網絡包含5 個卷積和3 個全連接層。該架構準確度較好,但評估成本高,參數(shù)量大,內存占用大,不適用于移動應用。
MobileNet[12]:利用可分離卷積的理念,MobileNet 可以在稍微降低分類準確度的前提下減少計算成本。其在每個輸入通道處應用單個過濾器,其后進行線性合并。由此,對于移動應用,該網絡便于參數(shù)化,且易于優(yōu)化。
為提高深度神經網絡(Deep Neural Networks,DNN)在嵌入式設備中的效率并保持準確度,文獻[13]提出了ShuffleNet-V1 模型,顯著降低了計算成本,并在圖像分類任務中取得較好成績。其中,將模型表示為逐點分組卷積和通道置亂,在特征映射通道中編碼更多信息。但由于僅利用小部分輸入通道推導出特定通道輸出,模型表征能力較差,為此一般采用通道置亂操作,通過將每個分組中的通道分割到不同分組,并將每個分組輸入到有著不同子分組的下一層,得到來自不同分組的數(shù)據(jù)。但瓶頸單元和逐點分組層增加了內存訪問成本,過多分組降低了并行度。文獻[14]提出了ShuffleNet-V2,考慮到過多分組降低了并行度,利用通道分割替換分組操作,將輸入特征分為2個分支,進一步降低了模型復雜度。
近期,注意力機制在各種自然語言處理、圖像描述和圖像理解領域得到了廣泛應用,其中將可用處理資源分配至有用特征表示,同時抑制無用特征表示。文獻[15]提出了SE模塊,以提高當前模型的性能并降低計算成本,基于逐通道重要性對特征圖進行自主調整。與卷積塊注意力模塊(ConvolutionalBlockAttentionModule,CBAM)[16]、高效通道注意(EffificientChannelAttention,ECA)[17]等其他注意力模塊相比,SE模塊在準確度和處理速度方面實現(xiàn)了較好的平衡,更適用于針對資源受限的嵌入式平臺設計的輕量級模型。
1.2 改進的方法
所提基于深度學習模型的UAV災難圖像分類框架的流程如圖1所示。首先將訓練數(shù)據(jù)集中的圖像輸入所提圖像分類模型,改進模型中結合了Shuf-fleNet-V2架構和SE模塊,在Shuffle架構前3個階段的級聯(lián)(Concat)操作后,SE模塊輸入特征圖作為輸入,通過對Shuffle模塊中不同層級特征圖進行加權,從而使網絡更加關注重要的特征,在降低計算成本的同時,增強模型的學習能力和分類性能。
所提網絡架構如圖2所示。ShuffleNet-V2通過4個不同階段分層逐步提取特征。其中,階段1學習如邊緣和紋理等基礎特征,階段2學習如形狀等抽象復雜特征,階段3學習如語義信息等高級特征,階段4將高級特征轉換為分類預測。所提改進方法在原ShffleNet-V2的前3個階段的末尾分別添加了一個SE模塊,因此,改進架構同樣分為4個階段,第一個階段的每個模塊的步長設為2,以實現(xiàn)下采樣。將其余階段的步長設為1。在每個單元開始時,通過通道分割將特征通道輸入分割為2個分支。其中一個分支保持不變,另一個分支則包括有著相同輸入和輸出通道的3個卷積層,由此替換了分組卷積,降低了內存訪問成本。在卷積后,將2個分組串聯(lián),使得通道數(shù)保持不變。最后,使用通道置亂,確保2個分支之間的信息交換。在ShuffleNet-V2中添加SE模塊有3種可行方式。第一種方式是在ShuffleNet單元內部嵌入SE模塊,在最后一個卷積層后直接連接SE模塊。第2種方式是將SE模塊放入與ShuffleNet單元并行的直通分支。第3種方式是將SE模塊放置在ShuffleNet架構直通分支的concat操作后。所提方法是針對嵌入式平臺實時檢測而提出的輕量級模型,應在確保分類準確度的同時,盡量降低計算成本。ShuffleNet-V2架構共包含16個基本區(qū)塊,如果采取前2種方式,必須嵌入大量SE模塊,會使網絡變得冗余,大幅增加計算成本。為此,所提方法選擇了最后一種嵌入策略,在前3個階段的末端均放入SE模塊,即僅向ShuffleNet-V2架構添加3個SE模塊。
在圖2框架的下半部分為SE模塊。在Shuf-fleNet-V2模塊后,使用SENet理念處理特征通道。首先,使用全局平均池化將通道空間特征轉換為全局特征;然后,利用全連接(FullyConnected,FC)層降低模型復雜度,提高通用性;使用ReLU作為激活層,使用FC層恢復尺寸;最后,將每個通道的加權系數(shù)與原始特征相乘。
在擠壓階段應用全局平均池化,通過生成逐通道統(tǒng)計信息嵌入全局空間信息。具體來說,將輸入特征圖U=[u1,u2,…,uC]視為通道ui∈RH×W的組合,C為輸出通道數(shù)。采用簡單聚合技術,利用全局平均池化操作對整個圖像進行收縮,得到:
式中,Fsq(.)為擠壓映射,H×W 為圖像尺寸,zc為向量z∈R1×1×C的第c個元素,uc∈U為第c個特征圖,(i,j)對應空間位置,i∈ {1,2,…,H},j∈ {1,2,…,W}。U 可視為整個圖像的局部描述子集合,包含整個圖像的大量統(tǒng)計信息,因此利用全局平均池化降低處理成本。該操作將全局空間信息嵌入向量z。
激發(fā)階段,基于從擠壓信息中推導出的聚合信息,充分捕捉逐通道依賴性,學習通道之間的非線性交互以及非互斥信息,以確保允許將多條通道作為重點對象。將z 轉換為:
z^= Fex(z,W) = σ(W2 δ(W1 z)), (2)
式中:Fex(. )為激發(fā)映射,δ(. )為ReLU 函數(shù),σ 為Sigmoid 層。W1 ∈?。茫颉粒?和W2 ∈!C×Cr分別為2 個全連接層的權重,其中,參數(shù)r 表示壓縮比,對逐通道依賴性進行編碼。為限制模型復雜度,提高通用性,利用2 個全連接層形成瓶頸,將門限機制參數(shù)化,該結構首先為基于參數(shù)W1 的降維層,中間為ReLU,其后為基于參數(shù)W2 的升維層。根據(jù)經驗,設r = 2。z^的激活動態(tài)區(qū)間為[0,1],將其通過Sigmoid 層,即σ(z^)。得到的向量用于對轉換輸出U 進行重新標定或激發(fā):
U^= [σ(z^ 1 )u1 ,σ(z^2 )u2 ,…,σ(z^ C )uC ], (3)
式中:σ(z^i)表示第i 個通道的重要程度,由此決定對該通道的擴展或收縮。σ(z^i )隨著網絡學習自適應調整,以忽視不重要的通道,并強調重要通道。圖3 給出了修改后的SE 模塊在所提框架中的工作原理。
2 實驗與分析
本文在Windows 7,CPU Intel i5 9600K @ 3. 7 GHz和GTX 1060 環(huán)境下進行,使用Matlab 2016b?,F(xiàn)實世界實驗中,考慮2 種情況:① 在嵌入式設備上處理所有計算,以驗證在資源受限的UAV 平臺上的性能;② 使用手機作為UAV 地面基站,連接到UAV控制器以處理輸入圖像??紤]到實時流處理,即相機按順序輸出每幀圖像,重點分析單張圖像的處理速度。
2. 1 數(shù)據(jù)集采集與增強
為訓練CNN 進行航拍圖像分類,首先需要針對該任務采集合適的數(shù)據(jù)集。為此,本文針對應急救援應用創(chuàng)建了專用數(shù)據(jù)集。從多個來源采集這些災難類別的航拍圖像,包括百度圖像、新聞網站、航拍圖像數(shù)據(jù)庫以及從本文的UAV 平臺上采集的圖像。在數(shù)據(jù)采集過程中,以不同分辨率、不同的照明和視角條件,捕捉各種不同的災難事件。最后,為貼近現(xiàn)實世界場景,該數(shù)據(jù)中的場景占比是不平衡的,其中包含更多的無異常類圖像。表1 列舉了數(shù)據(jù)集詳情。
UAV 的操作條件會受到不同環(huán)境的影響,因此數(shù)據(jù)集內不應該僅包含清晰的圖像。此外,數(shù)據(jù)采集過程可能非常耗時,成本較高。為進一步擴充數(shù)據(jù)集,在將圖像添加到訓練批次之前,先對每個圖像應用概率性的隨機增廣。
① 圖像旋轉:為得到各種不同方向拍攝到的災難圖像,將數(shù)據(jù)集中的圖像以90°、180°和270°旋轉并鏡像操作。旋轉增強技術能夠提高深度神經網絡在不同高度執(zhí)行檢測時的分類性能。
② 圖像顏色和亮度:為提高災難事件在不同照明條件下的可見性,以不同亮度水平對圖像進行增強,選擇合適的圖像亮度范圍,lmin = 0. 4,lmax = 1. 5。
③ 添加高斯和椒鹽噪聲:由于UAV 相機可能會捕捉到模糊圖像,向圖像添加0. 004 的椒鹽噪聲,以提高模型對不同照明條件下災難時間的分類能力。
④ 隨機裁剪:最高隨機裁剪凸顯該區(qū)域的60% ,并執(zhí)行翻轉、寬度平移和高度平移,從而改善對事故僅僅存在于圖片邊緣等情況下的檢測性能。
⑤ 背景移除:移除背景,以提高模型學習災難事件的能力。
⑥ 圖像縮放:對圖像進行0. 8 ~ 1. 0 倍的縮放,用得出的數(shù)據(jù)集進行訓練,以提高模型在UAV 設備上運行時神經網絡的分類性能。
以隨機概率應用每種變換,并確保不會對訓練批次中的所有圖像均進行變換,以避免網絡將增廣屬性捕捉為數(shù)據(jù)集特征。通過數(shù)據(jù)增強避免過擬合,提高訓練集可變性,實現(xiàn)更好的泛化性能。數(shù)據(jù)集中的一些樣本如圖4 所示。通過數(shù)據(jù)集增強技術對初始數(shù)據(jù)集進行顯著擴展,增加了5 倍以上的訓練圖像。
2. 2 性能度量
本文的最終目標是在UAV 上運行模型,并在線處理每個圖像。因此,每個模型取得的每秒幀數(shù)(Frame Per Second,FPS)是重要的性能度量。此外,考慮到數(shù)據(jù)集不均衡情況,在正確分類樣本數(shù)之外,還使用平均F1 得分作為學習性能指標。
FPS 指標分析分類器處理傳入相機幀的速率v:
式中:ti 為單張圖像處理速度,Nt 為測試樣本數(shù)量。
平均F1 得分[18]:該指標測量通過每個類別的測試實例數(shù)加權后的所有類別上的平均準確度。該指標同時考慮了精度和召回率,數(shù)值較高意味著漏檢率和誤警率較低:
式中:Nl 為類別數(shù)量,pi = tp/tp+fp和sni = tp/tp+fn分別為精度和敏感度,tp 為真陽性檢測,fp 為假陽性檢測,fn 為假陰性檢測。
2. 3 網絡訓練
通過相同框架對所有網絡(AlexNet、MobileNet、ShuffleNet-V1、ShuffleNet-V2 和本文方法)進行訓練和測試,以確保相同條件下的公平比較。使用Keras 深度學習框架,并將Tensorflow 作為后端[19]。除了指定較小尺寸輸入圖像的MobileNet 外,盡可能為所有網絡使用相同的圖像大小(240 pixel×240 pixel)。將數(shù)據(jù)集以4 ∶ 1 的比例劃分為訓練集和測試集。如前文所述,無異常類為主要類,數(shù)量超過數(shù)據(jù)集中其他類別之和,這反映了現(xiàn)實情況,但也可能在網絡中產生過擬合問題。為避免數(shù)據(jù)集不平衡問題,在相同批次內同時對非異常類進行下采樣,對其他類別進行上采樣。為此,從每個類別中選擇相同數(shù)量的圖像以形成批次,由此實現(xiàn)對各種不同情況的平等表達。
將模型的最后一層替換為輸出層,其等于總類別數(shù),本文實驗中共5 類,包括4 類災難場景和1 類無異常場景。對所有網絡的超參數(shù)進行標準化。使用了Adam 優(yōu)化方法,初始學習率為0. 001,每5 代乘以0. 95,以實現(xiàn)平滑的學習率衰減。對每個網絡進行12 000 代訓練,每代包含200 批的迭代,由于GPU 存儲限制,將批大小設為16。
2. 4 仿真結果分析
圖5 給出了在所提實驗數(shù)據(jù)集上訓練時,隨著迭代次數(shù)增加,AlexNet、MobileNet、ShuffleNet-V1、ShuffleNet-V2 和本文方法的分類準確度。從中可發(fā)現(xiàn),所提方法準確度與AlexNet 大致相當,優(yōu)于其他方法。這表明所提架構在卷積神經網絡中結合了逐通道注意力機制,有效提高了對重要特征的學習能力,改善了網絡分類性能,且所提網絡在少量迭代次數(shù)后就收斂至較高準確度。MobileNet 準確度最低,且曲線波動較大,不適用于對準確度要求較高的災難監(jiān)測任務。
表2 給出了各模型的參數(shù)量、每秒浮點運算次數(shù)(Floatingpoint Operations Per Second,FLOPS)和在測試數(shù)據(jù)集上的準確度結果。FLOPS 是與平臺無關的復雜度指標。從中可發(fā)現(xiàn),AlexNet 的準確度稍優(yōu)于所提架構,但該架構的參數(shù)量非常大,對計算和存儲資源的要求很高,不適用于資源受限的嵌入式設備。ShuffleNet-V2 的準確度低于ShuffleNet-V1,這表明在降低資源使用量的情況下,其分類準確度也受到了影響。所提方法準確度僅稍低于AlexNet,證明所提架構通過結合注意力機制,有效增強了對重要特征的學習和處理能力,使得準確度能夠滿足UAV 災難監(jiān)測任務的要求,且對算力的要求要小得多,能夠在低功耗設備上進行實時處理。
表3 列舉了各模型的存儲空間和增強訓練集上的平均F1 得分。其中,括號內的數(shù)值為各模型使用未擴充的訓練集進行模型訓練后,在同樣的測試集上的性能表現(xiàn)。從中可以看出,盡管AlexNet 的平均F1 得分稍優(yōu)于本文方法,但硬件資源要求過高,不適用于嵌入式平臺。MobileNet 的準確度過低,不能滿足災難場景監(jiān)控任務的要求。所提網絡的硬件資源需求和ShuffleNet-V2 大致相當,能夠滿足實時控制需求,且在分類準確度上獲得了較大提升。此外,各方法使用擴充訓練集后均取得了顯著的性能提升,證明本文使用的訓練數(shù)據(jù)增強策略是有效且必要的。
為分析和比較在進一步降低計算復雜度和模型參數(shù)量的情況下所提模型的性能,遵循文獻[13 -14]的結構設定,將網絡寬度分別縮放至0. 25 倍和1 倍,表示為ShuffleNet(0. 25 ×)和ShuffleNet(1 ×),然后將SE 模塊分別應用到這2 個模型中。圖6 給出了本文方法分別應用到不同網絡寬度的ShuffleNet-V1 和ShuffleNet-V2 時,每個類別(火災、洪災、建筑物坍塌、交通事故和無異常)的分類結果,并與原始模型的結果相比較。從中可發(fā)現(xiàn),所提方法在應用到ShuffleNet-V2 后,在5 個類別的分類準確度分別為99. 2% 、99. 6% 、100% 、95% 和88% 。所提方法在應用到ShuffleNet-V1 后,性能得到了進一步提升,但由于網絡復雜度過高,如后文現(xiàn)實場景測試結果所示,ShuffleNet-V1 不能滿足機載平臺的實時性需求。此外,從實驗結果中可發(fā)現(xiàn),各方法在無異常場景中的分類準確度都相對較低,這是因為在特別復雜的場景中,例如交通嚴重擁堵場景,或者拍攝目標被遮擋的情況下,模型可能會將正常場景誤分入某種災難事件類別。
2. 5 現(xiàn)實場景測試結果
在現(xiàn)實場景中評估所提架構的性能。使用計算資源和能量受限的移動設備,測量所提網絡的處理速度和比較方法的幀率。測試中使用了2 種不同場景。場景1 針對機載處理平臺,場景2 使用手機連接作為UAV 移動地面基站,連接到UAV 控制器以處理輸入圖像。這2 種場景均易于部署,適合應急場景中的遠程監(jiān)測任務。圖7 給出了實驗平臺,其中,圖7 (a)為配置了高清相機的大疆Matrice 200無人機,圖7(b)為UAV 控制平臺,采用廣播式自動相關監(jiān)視系統(tǒng)(Automatic Dependent Surveillance-Broadcast,ADS-B),參數(shù)包括位置精度指標(PositionPrecision Indicator,PPI)和高度指標。ADS-B PPI 是基于水平和垂直位置精度指標計算得出的綜合指標,ADS-B 高度為UAV 相對于海平面的垂直高度。
① UAV 機載處理:記載處理平臺采用四核ARM Cortext-A53 處理器,性能和功耗方面能夠滿足UAV 需求。對于圖像分類預警等實時應用場景,處理速度對于實時性至關重要。當模型的FPS 較低時,處理速度變慢,可能導致處理延遲,從而無法滿足實時性的要求。表4 給出了不同模型在機載平臺和移動基站上的處理速度FPS 結果,從中可發(fā)現(xiàn),所提網絡在該平臺上取得了12. 5 FPS 的結果,優(yōu)于其他方法,能夠滿足實時處理需求。
② UAV 移動基站處理:將UAV 控制器連接到作為移動控制基站的手機,接收UAV 相機圖片并進行處理。其他方法的幀率均為8 FPS 以下,本文方法取得了約10 FPS 的結果。要指出,在現(xiàn)實場景中,UAV 和控制器之間存在干擾,會影響到災難事件監(jiān)測任務的可靠性[20]。UAV 機載平臺能夠很好地克服連接性和可見性方面的約束,更適用于應急救援任務。
3 結束語
本文提出了應急救災應用的UAV 機載實時檢測預警方案。利用高效深度學習系統(tǒng),在UAV 平臺上對傳感器拍攝到的圖像進行實時處理,自動對災難事件進行識別和分類。所提架構結合了輕量級ShuffleNet-V2 網絡和SE 單元,在提高分類準確度和降低硬件資源消耗之間實現(xiàn)了較好平衡。實驗結果證明所提方案適用于資源受限的嵌入式平臺,且分類準確度能夠滿足實時災情監(jiān)控應用的需求。
參考文獻
[1] PS R,JEYAN M L. Mini Unmanned Aerial Systems(UAV)A Review of the Parameters for Classification of aMini UAV [J]. International Journal of Aviation,Aeronautics,and Aerospace,2020,7(3):126-134.
[2] 周劍,賈金巖,張震,等. 面向應急保障的5G 網聯(lián)無人機關鍵技術[J]. 重慶郵電大學學報(自然科學版),2020,32(4):511-518.
[3] DOBREA D M,DOBREA M C,OBREJA M E. UAV Embedded SystemA Selection Process[C]∥2021 International Symposium on Signals,Circuits and Systems(ISSCS). Iasi:IEEE,2021:1-4.
[4] 程擎,范滿,李彥冬,等. 無人機航拍圖像語義分割研究綜述[J]. 計算機工程與應用,2021,57(19):57-69.
[5] KATTENBORN T,LEITLOFF J,SCHIEFER F,et al. Review on Convolutional Neural Networks (CNN)in Vegetation Remote Sensing[J]. ISPRS Journal of Photogrammetry and Remote Sensing,2021,173:24-49.
[6] 石雪懷,戚盠,張偉斌,等. 基于組合模型的交通事故嚴重程度預測方法[J]. 計算機應用研究,2019,36(8):2395-2399.
[7] BEJIGA M B,ZEGGADA A,NOUFFIDJ A,et al. A Convolutional Neural Network Approach for AssistingAvalanche Search and Rescue Operations with UAV Imagery[J]. Remote Sensing,2017,9(2):100.
[8] AMIRKOLAEE H A,AREFI H. CNNbased Estimation ofPreand Postearthquake Height Models from SingleOptical Images for Identification of Collapsed Buildings[J]. Remote Sensing Letters,2019,10(7):679-688.
[9] MUNAWAR H S,ULLAH F,QAYYUM S,et al. Applicationof Deep Learning on UAVbased Aerial Images for Flood Detection[J]. Smart Cities,2021,4(3):1220-1242.
[10] JIAO Z T,ZHANG Y M,XIN J,et al. A Deep LearningBased Forest Fire Detection Approach Using UAV andYOLOv3[C]∥2019 1st International Conference on Industrial Artificial Intelligence (IAI). Shenyang:IEEE,2019:1-5.
[11] 黨宇,張繼賢,鄧喀中,等. 基于深度學習AlexNet 的遙感影像地表覆蓋分類評價研究[J]. 地球信息科學學報,2017,19(11):1530-1537.
[12] 王威,鄒婷,王新. 基于局部感受野擴張DMobileNet模型的圖像分類方法[J]. 計算機應用研究,2020,37(4):1261-1264.
[13] ZHANG X Y,ZHOU X Y,LIN M X,et al. Shufflenet:AnExtremely Efficient Convolutional Neural Network for Mobile Devices[C]∥ Proceedings of the IEEE Conferenceon Computer Vision and Pattern Recognition. Salt LakeCity:IEEE,2018:6848-6856.
[14] MA N N,ZHANG X Y,ZHENG H T,et al. ShuffleNet V2:Practical Guidelines for Efficient CNN Architecture Design[C]∥Proceedings of the European Conference on ComputerVision (ECCV). Munich:Springer,2018:122-138.
[15] HU J,SHEN L,SUN G. SqueezeandExcitation Networks[C]∥Proceedings of the IEEE Conference on ComputerVision and Pattern Recognition. Salt Lake City:IEEE,2018:7132-7141.
[16] WOO S,PARK J,LEE J Y,et al. CBAM:ConvolutionalBlock Attention Module [C ]∥ Proceedings of theEuropean Conference on Computer Vision (ECCV). Munich:Springer,2018:3-19.
[17] WANG Q L,WU B G,ZHU P F,et al. ECANet:EfficientChannel Attention for Deep Convolutional NeuralNetworks[C]∥Proceedings of the IEEE / CVF Conferenceon Computer Vision and Pattern Recognition. Seattle:IEEE,2020:11534-11542.
[18] HOSSIN M,SULAIMAN M N. A Review on EvaluationMetrics for Data Classification Evaluations [J ].International Journal of Data Mining & Knowledge Management Process,2015,5(2):1-11.
[19] GRATTAROLA D,ALIPPI C. Graph Neural Networks inTensorFlow and Keras with Spektral [Application Notes][J]. IEEE Computational Intelligence Magazine,2021,16(1):99-106.
[20] 張廣馳,陳嬌,崔苗,等. 無人機交替中繼通信及其軌跡優(yōu)化和功率分配研究[J]. 電子與信息學報,2022,43(12):3554-3562.
作者簡介
楊 珍 女,(1982—),碩士,副教授。主要研究方向:計算機圖形圖像等。
(*通信作者)吳珊丹 女,(1981—),碩士,副教授。主要研究方向:計算機圖形圖像等。
賈 如 女,(1982—),博士,講師。主要研究方向:大數(shù)據(jù)、社交網絡和智能推薦。
基金項目:國家自然科學基金(32160506);內蒙古自治區(qū)自然科學基金(2014MS0616)