国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于圖模型與注意力機制的室外場景點云分割模型

2024-01-09 04:01:22廉飛宇張良王杰棟靳于康柴玉
計算機應(yīng)用 2023年12期
關(guān)鍵詞:注意力語義精度

廉飛宇,張良*,王杰棟,靳于康,柴玉

基于圖模型與注意力機制的室外場景點云分割模型

廉飛宇1,2,張良1,2*,王杰棟3,靳于康1,2,柴玉1,2

(1.湖北大學(xué) 資源環(huán)境學(xué)院,武漢 430062; 2.區(qū)域開發(fā)與環(huán)境響應(yīng)湖北省重點實驗室(湖北大學(xué)),武漢 430062; 3.浙江省第二測繪院,杭州 310012)(?通信作者電子郵箱zhangliang@hubu.edu.cn)

針對在多對象且空間拓?fù)潢P(guān)系復(fù)雜的室外場景環(huán)境中相似地類區(qū)分難的問題,提出一種結(jié)合圖模型與注意力機制模塊的A-Edge-SPG(Attention-EdgeConv SuperPoint Graph)圖神經(jīng)網(wǎng)絡(luò)。首先,利用圖割和幾何特征結(jié)合的方法對超點進行分割;其次,在超點內(nèi)部構(gòu)造局部鄰接圖,從而在捕獲場景中點云的上下文信息的同時利用注意力機制模塊凸顯關(guān)鍵信息;最后,構(gòu)建超點圖(SPG)模型,并采用門控循環(huán)單元(GRU)聚合超點和超邊特征,實現(xiàn)對不同地類點云間的精確分割。在Semantic3D數(shù)據(jù)集上對A-Edge-SPG模型和SPG-Net(SPG neural Network)模型的語義分割效果進行比較分析。實驗結(jié)果表明,相較于SPG模型,A-Edge-SPG模型在總體分割精度(OA)、平均交并比(mIoU)和平均精度均值(mAA)上分別提升了1.8、5.1和2.8個百分點,并且在高植被、矮植被等相似地類的分割精度上取得了明顯的提升,改善了相似地類間語義分割的效果。

語義分割;室外場景;局部特征;注意力機制模塊;局部鄰接圖;圖模型

0 引言

近年來,激光掃描技術(shù)[1]迅速發(fā)展,已成為一種快速采集三維信息的重要途徑,在自動駕駛、智慧城市建設(shè)等領(lǐng)域具有廣泛的應(yīng)用。對點云進行高效準(zhǔn)確的語義分割是上述應(yīng)用的前提。點云語義分割指通過分析三維點云數(shù)據(jù)的原始信息、局部鄰域等信息,將特定語義標(biāo)簽分配給每個點云數(shù)據(jù)的過程;在數(shù)據(jù)量大、地物種類復(fù)雜的室外場景中對地類的準(zhǔn)確語義分割是一項具有挑戰(zhàn)性的難題[2-3],特別是部分形態(tài)差異小的地物種類難以區(qū)分,如高植被與矮植被、自然地面與人造地面等?,F(xiàn)有大多數(shù)研究通過人工特征進行點云語義分割[4-7],但人工特征的設(shè)計建立在一定的先驗知識和假設(shè)上,存在一定的局限性,難以準(zhǔn)確描述室外復(fù)雜場景中的高層次語義特征,表征地類有效信息,限制了基于人工特征的點云語義分割方法在室外場景的應(yīng)用[8]。

為實現(xiàn)高層次語義特征信息的自動提取,建立從特征信息到語義標(biāo)簽的映射關(guān)系[9],大量學(xué)者開始將深度學(xué)習(xí)的方法應(yīng)用在點云語義分割領(lǐng)域。根據(jù)處理單元的不同,點云深度學(xué)習(xí)網(wǎng)絡(luò)主要分為以下三類[10]:

1)基于體素的方法。由于點云具有稀疏性和離散型的特點,圖像領(lǐng)域的網(wǎng)絡(luò)架構(gòu)難以直接應(yīng)用于點云數(shù)據(jù),部分學(xué)者通過對點云進行體素化處理后再進行語義分割。體素是二維柵格在三維空間的延伸,將三維空間按照一定的分辨率進行格網(wǎng)劃分,落在同一格網(wǎng)內(nèi)部的點云視為一個體素。Maturana等[11]提出了VoxNet,通過集成體積占用網(wǎng)格與監(jiān)督三維卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)解決點云語義分割的框架;Wu等[12]利用體素描述三維模型,并使用卷積深度置信網(wǎng)絡(luò),對體素化后的數(shù)據(jù)實現(xiàn)目標(biāo)識別;Li等[13]利用條件隨機場(Conditional Random Field, CRF)框架,結(jié)合全局和局部特征信息分割體素化后的點云。體素化過程解決了不規(guī)則點云數(shù)據(jù)難以直接采用傳統(tǒng)圖像深度學(xué)習(xí)網(wǎng)絡(luò)進行學(xué)習(xí)的問題,但不可避免地造成了信息丟失,信息丟失程度與體素分辨率密切相關(guān);另外,由于點云的稀疏分布,存在大量的無效體素,運算效率低。

2)基于原始點云的方法。為解決體素化方法對點云信息造成的損失和計算量大等問題,學(xué)者們對如何利用深度學(xué)習(xí)網(wǎng)絡(luò)直接處理原始點云數(shù)據(jù)展開研究。相較于二維圖像,解決點云的無序性、不規(guī)則分布問題是將點云數(shù)據(jù)直接應(yīng)用于深度學(xué)習(xí)網(wǎng)絡(luò)的關(guān)鍵。Qi等[14]提出的PointNet通過可學(xué)習(xí)的旋轉(zhuǎn)矩陣對齊輸入數(shù)據(jù)和特征,利用多層感知機(MultiLayer Perceptron, MLP)學(xué)習(xí)特征,采用對稱函數(shù)緩解點云的無序性問題,成為基于原始點云數(shù)據(jù)進行深度學(xué)習(xí)的開端,但由于PointNet僅考慮點云的單點信息,導(dǎo)致對局部的學(xué)習(xí)能力不足,在復(fù)雜場景下學(xué)習(xí)效果不好;改進的PointNet++[15]通過最遠點采樣選取一定的種子點后,針對種子點的鄰域分析PointNet,提升了復(fù)雜場景的學(xué)習(xí)效果;DGCNN(Dynamic Graph CNN)[16]采用EdgeConv卷積方式,通過全連接層學(xué)習(xí)邊特征反映全局信息,且EdgeConv能夠有效地集成其他已有網(wǎng)絡(luò);趙中陽等[17]通過建立多個不同尺度的鄰域空間,提出一種多尺度特征與PointNet結(jié)合的模型,結(jié)合顏色特征對城區(qū)目標(biāo)進行分類。上述方法直接處理點云,為深度學(xué)習(xí)網(wǎng)絡(luò)應(yīng)用于點云領(lǐng)域奠定了應(yīng)用基礎(chǔ);但是,針對單個點云進行處理,難以滿足大場景中海量點云的需求;其次,單點包含的特征信息有限,限制了復(fù)雜場景中的分割效果。

3)面向?qū)ο蟮姆椒?。為提高點云語義分割的效率、考慮點云間的上下文信息,將面向?qū)ο蟮乃枷胍朦c云深度學(xué)習(xí)網(wǎng)絡(luò)領(lǐng)域:馬京暉等[18]利用均值(-Means)聚類方法對點云進行聚類,通過PointNet分類聚類后的點簇;羅海峰等[19]通過連通分支聚類算法聚類點云,并采用基于體素的方法分割重疊點云,最后利用深度信念網(wǎng)絡(luò)對目標(biāo)對象的二值圖像實現(xiàn)語義分割;Wang等[20]考慮利用點間空間結(jié)構(gòu)獲得高質(zhì)量的分類結(jié)果,首先對原始點云進行分簇,結(jié)合點簇之間點的空間信息,通過CNN分類點簇;Landrieu等[21]提出SPG-Net(SuperPoint Graph neural Network)點云語義分割算法,通過對點云數(shù)據(jù)構(gòu)建超點圖,結(jié)合圖卷積模型,實現(xiàn)大場景點云的語義分割,有效彌補了PointNet等網(wǎng)絡(luò)處理大場景點云的弊端。

上述三類方法中,面向?qū)ο蟮姆绞皆谝欢ǔ潭壬蠝p輕了對最優(yōu)鄰域的依賴,減小了點云中噪聲對特征計算的影響,有利于幾何特征的計算,降低信息提取的不確定性;其次,對象衍生的一些新的特征屬性與所包含的點云間上下文信息有利于提高分類精度,在復(fù)雜的室外場景中表現(xiàn)出不錯的效果[22]。

室外場景點云通常包含一定的噪聲,地物種類和空間拓?fù)潢P(guān)系復(fù)雜。針對上述特點,Landrieu等[21]提出SPG-Net對室外場景點云進行語義分割,通過PointNet對分割對象提取特征,利用最大池化實現(xiàn)特征聚合,此類方式能夠在室外場景中不同地類之間存在較大形態(tài)差異時取得不錯的效果;然而,和其他大部分算法一樣,SPG-Net的特征提取方式過于簡單,當(dāng)形態(tài)相似地物無法準(zhǔn)確表達地類有效信息,進而難以取得理想的分割效果。基于此,本文在SPG-Net的基礎(chǔ)上提出一種結(jié)合圖模型與注意力機制模塊的A-Edge-SPG(Attention-EdgeConv SPG)圖神經(jīng)網(wǎng)絡(luò),通過在超點內(nèi)部構(gòu)建圖模型獲取點間上下文信息,得到超點內(nèi)部細(xì)節(jié)特征,并結(jié)合注意力機制模塊,凸顯超點的關(guān)鍵信息,實現(xiàn)對有效信息的自適應(yīng)選擇,最后結(jié)合循環(huán)神經(jīng)網(wǎng)絡(luò)實現(xiàn)點云語義分割,解決復(fù)雜室外場景中形態(tài)相似的地物難以精確區(qū)分的問題。通在過在Semantic3D數(shù)據(jù)集上與SPG-Net進行分割精度對比,驗證了該網(wǎng)絡(luò)模型在室外場景中的有效性。

1 A?Edge?SPG

為了更高效地挖掘點云空間關(guān)系,本文以超點為基礎(chǔ),結(jié)合圖模型與注意力機制模塊準(zhǔn)確描述超點內(nèi)部點云關(guān)系,通過構(gòu)建深度超點圖網(wǎng)絡(luò)模型實現(xiàn)點云語義分割。具體步驟如下:1)首先利用圖割對室外大場景點云進行幾何同質(zhì)分割,生成具備對象唯一性的分割對象,即超點;2)在超點內(nèi)部構(gòu)建局部鄰接圖,利用圖模型準(zhǔn)確表征超點內(nèi)部點云局部特征,通過圖節(jié)點與邊的關(guān)系更新信息,采用注意力機制模塊凸顯關(guān)鍵點信息,并通過多層A-EdgeConv(Attention-EdgeConv)模塊疊加不同特征空間的有效信息,實現(xiàn)對超點圖網(wǎng)絡(luò)節(jié)點的準(zhǔn)確描述;3)最后通過門控循環(huán)單元(Gated Recurrent Unit, GRU)算法聚合超點、超邊特征,實現(xiàn)點云語義分割。網(wǎng)絡(luò)的整體架構(gòu)如圖1所示。

1.1 基于超點的圖節(jié)點特征提取

1.1.1基于圖割的聚類

為構(gòu)建超點圖網(wǎng)絡(luò)模型,對具有相同幾何特性的點云聚類生成超點。采用全局能量優(yōu)化的方法將具有相同幾何特征的點進行聚類,根據(jù)文獻[24],定義全局能量函數(shù)如式(6)所示:

1.1.2基于A-EdgeConv的特征提取

對于超點,大多采用MLP獲取每個超點的屬性,這類方法將點云分塊后通過共享MLP提取全局特征信息,作為超點的特征向量,忽略了點云之間的上下文信息,造成局部信息提取不充分,無法滿足室外場景的需求。

為更好表征超點內(nèi)部點云關(guān)系,本文以內(nèi)部點云為中心構(gòu)建局部鄰接圖,利用鄰接圖節(jié)點與邊的關(guān)系更新超點特征信息,準(zhǔn)確描述超點局部結(jié)構(gòu);其次,考慮到不同特征信息在語義分割中的貢獻差異,提出融合注意力機制的A-EdgeConv特征提取模塊,突出關(guān)鍵信息,通過堆疊多層A-EdgeConv模塊解決復(fù)雜地物對象特征信息提取不充分的問題。超點信息提取模型的框架如圖2所示。圖2中,T-Net表示點云空間旋轉(zhuǎn)矩陣;表示超點內(nèi)部點云數(shù);表示超點內(nèi)部單點的特征描述。

圖1 A-Edge-SPG圖神經(jīng)網(wǎng)絡(luò)框架

圖2 超點信息提取模型的框架

1)EdgeConv。

PointNet率先將標(biāo)準(zhǔn)的CNN應(yīng)用于點云特征提取,利用共享MLP將低維信息投影到高維空間,結(jié)合最大池化函數(shù)實現(xiàn)點云特征提取。這種信息提取方式?jīng)]有考慮鄰域內(nèi)的點云空間關(guān)系,削弱了復(fù)雜環(huán)境下不同地物的特征表述,因此,本文通過構(gòu)建局部鄰接圖(EdgeConv)描述超點局部結(jié)構(gòu),如圖3所示,在提取全局信息的同時,保留內(nèi)部點云間的上下文信息,完善超點信息表述。

圖3 EdgeConv模塊示意圖

2)A-EdgeConv。

構(gòu)建鄰接圖后,需要通過特征聚合壓縮高維特征信息,現(xiàn)有特征聚合方式通常采用最大/平均池化集成相鄰特征,簡單粗暴的池化操作易導(dǎo)致關(guān)鍵特征信息的丟失。關(guān)鍵特征信息丟失不僅增加了模型訓(xùn)練的復(fù)雜程度,也導(dǎo)致了特征信息難以充分提取,影響分割精度。為增強關(guān)鍵信息在表征超點過程中的作用,在模型中針對不同特征部分賦予不同的權(quán)重,提出一種結(jié)合注意力機制自動學(xué)習(xí)超點重要局部特征的模塊A-EdgeConv,在構(gòu)建局部鄰接圖時,不僅考慮鄰域點間距離差異對目標(biāo)點的影響,并結(jié)合注意力機制模塊自適應(yīng)地調(diào)節(jié)鄰域內(nèi)點云對目標(biāo)點的貢獻程度,突出關(guān)鍵信息。

注意力機制是一種基于Encoder-Decoder框架,模擬人腦注意力工作的模型,通過計算不同特征信息的概率分布,突出關(guān)鍵信息對輸出的影響,抽取更重要和關(guān)鍵的信息,從而優(yōu)化模型并作出更為準(zhǔn)確的判斷[26]。文獻[27]中表明,注意力機制使訓(xùn)練網(wǎng)絡(luò)更加關(guān)注有效信息,有效減少最大池化/平均池化過程中的信息損失。利用注意力機制改進EdgeConv模塊,在考慮不同維度特征重要性的同時進行局部特征學(xué)習(xí),有效減少信息丟失。實現(xiàn)流程如下:

3)依此類推,獲取超點內(nèi)采樣點云的特征描述。在獲取相對高維的特征信息后,在高維特征空間重復(fù)上述流程,以實現(xiàn)不同特征空間下的特征信息提取,最后通過多維特征空間的信息融合實現(xiàn)超點特征提取。A-EdgeConv模塊如圖4所示。圖4中,表示為超點內(nèi)部點云X的個鄰近點,表示超點內(nèi)部各點的特征描述。

圖4 A-EdgeConv模塊

Fig.4 A-EdgeConv module

特征提取器的偽代碼如下所示,其余過程代碼可參考文獻[21]。

for=1 todo //表示超點內(nèi)部的點云數(shù)

nn.Sequential(nn.Conv2d(),nn.BatchNorm2d(),

nn.LeakyReLU()) //將低維特征升至高維

torch.cat(); //不同維度特征的拼接

nn.Dropout(); //防止數(shù)據(jù)過擬合

end

1.2 基于超點的語義分割

1.2.1超點圖構(gòu)建

表1超邊特征定義

Tab.1 Hyperedge feature definition

1.2.2GRU控制單元

為更加高效地捕捉超點間的空間關(guān)系,將高維特征嵌入到循環(huán)神經(jīng)單元[28]中,通過GRU控制單元實現(xiàn)超點圖模型的特征聚合。GRU是新一代的遞歸神經(jīng)網(wǎng)絡(luò),在結(jié)構(gòu)上比標(biāo)準(zhǔn)長短期記憶網(wǎng)絡(luò)(Long Short-Term Memory, LSTM)更加簡單,擺脫了細(xì)胞狀態(tài),通過隱藏狀態(tài)來傳輸信息,有效提高了特征聚合的時間效率[29]。GRU的示意圖如圖5所示。

圖5 GRU示意圖

2 實驗與結(jié)果分析

2.1 實驗數(shù)據(jù)與網(wǎng)絡(luò)模型設(shè)計

為驗證模型在室外點云語義分割的有效性,本文采用Semantic3D數(shù)據(jù)集[30]中的bildstein_station1、domfountain _station1、bildstein_station3、domfountain_station2、neugasse_station1、sg27_station1、sg27_station2、sg27_station4、sg27_station5和sg28_station4共10塊數(shù)據(jù)集作為訓(xùn)練數(shù)據(jù),采用bildstein_station5、domfountain_station3和sg27_station9這3塊數(shù)據(jù)作為測試集驗證精度。實驗環(huán)境為RTX 1080Ti GPU顯卡,CPU為IntelCore-i5 10400F,服務(wù)器系統(tǒng)為Ubuntu 16.04,編程語言為Python 3.7,PyTorch 1.2。比較A-Edge-SPG和SPG-Net兩種網(wǎng)絡(luò)模型,循環(huán)迭代200次(epoch),學(xué)習(xí)率設(shè)為0.01,對比兩種網(wǎng)絡(luò)模型的分割精度。

2.2 語義分割精度評價

表2、3分別反映了A-Edge-SPG和SPG-Net在3塊測試數(shù)據(jù)下的總體分割精度(Overall segmentation Accuracy, OA)、平均精度均值(mean Average Accuracy, mAA)、平均交并比(mean Intersection over Union, mIoU)與各類別平均分割精度。A-Edge-SPG的分割精度整體優(yōu)于SPG-Net,OA、mAA和mIoU上分別提高1.8、2.8和5.1個百分點。借助點云鄰接圖與注意力機制模塊,本文方法在高植被、矮植被、汽車等復(fù)雜地類的分割精度取得了明顯改進。

A-Edge-SPG模型對復(fù)雜地類具有較強的識別能力,能夠有效捕獲復(fù)雜地類的關(guān)鍵信息。各個類別中,在高植被、矮植被、汽車等結(jié)構(gòu)較為復(fù)雜的地類,本文方法在分割精度上取得明顯的提升,分別提高了7.6、4.4和4.7個百分點,表明了局部特征與關(guān)鍵點信息在超點分割中具有顯著影響,驗證了本文方法的有效性;模型對于建筑、移動物體的精度也有一定提升,分別增加了2.1和0.4個百分點;由于人造地面與自然地面的特征較簡單且數(shù)據(jù)量較大,分割精度提升不明顯,分別提高0.1和1.1個百分點;在一些室外場景小類別地類上,如人造景觀,分割精度偏低,仍有較大提升空間。圖6展示了bildstein_station5數(shù)據(jù)的語義分割結(jié)果。

表2 兩個模型的OA、mAA與mIoU對比 單位:%

表3各類別平均精度均值對比 單位:%

Tab.3 mAA comparison of different types unit:%

結(jié)合bildstein_station5數(shù)據(jù)語義分割結(jié)果可以發(fā)現(xiàn),本文方法對高植被、矮植被的錯分效果得到了明顯改善,如圖中1、2區(qū)域所示,改正了大量的高、矮植被的錯分情況;其次,對于人造地面與自然地面的區(qū)分也有一定的提高,如圖中3、4區(qū)域所示,在一些細(xì)節(jié)區(qū)域能夠正確分割。綜上,本文方法在相似地物中的分割精度要優(yōu)于SPG-Net,相較于SPG-Net,本文方法能夠有效捕捉高植被、矮植被的細(xì)節(jié)特征,在糾正相似地類的錯分情況方面表現(xiàn)出一定的魯棒性,提高了復(fù)雜地物的分割精度。

圖6 bildstein_station5數(shù)據(jù)語義分割結(jié)果

2.3 相關(guān)性能分析

2.3.1不同近鄰分析

表4 不同近鄰數(shù)的分割精度對比

2.3.2網(wǎng)絡(luò)模型耗時分析

本文方法與SPG-Net的耗時環(huán)節(jié)主要為:點云下采樣、特征提取、超點圖構(gòu)建、超點特征提取和標(biāo)簽映射這5個部分。

由于本文方法在超點內(nèi)部進行了局部鄰接圖的遍歷,相較于SPG-Net的時間消耗有所增加。針對該問題,采用k-d樹[31]的組織方式提高運行效率,結(jié)合GPU加速使每個epoch訓(xùn)練時間增加在5 s內(nèi),總體運行時間不大于4 000 s,相較于SPG-Net的時間復(fù)雜度僅增加約16%,滿足實驗基本需求。兩種方法各階段的耗時對比如圖7所示。

圖7 兩種方法耗時對比

3 結(jié)語

高質(zhì)量的點云語義分割是點云數(shù)據(jù)在各個領(lǐng)域得以應(yīng)用的前提。針對室外場景環(huán)境下形態(tài)相似地類區(qū)分程度低的問題,本文提出一種基于圖模型與注意力機制的A-EdgeConv模塊能夠更準(zhǔn)確地提取超點信息,通過構(gòu)建點云鄰接圖,描述超點局部結(jié)構(gòu),結(jié)合注意力機制考慮鄰域內(nèi)不同特征的貢獻程度,突出關(guān)鍵點特征,以提高不同地類間的區(qū)分程度。通過對比實驗結(jié)果,本文方法優(yōu)于SPG語義分割網(wǎng)絡(luò),在精度方面取得一定的提升,改善了相似地類之間的區(qū)分效果,對高植被、矮植被等相似地類的識別結(jié)果取得明顯提高。然而,初始的聚類結(jié)果受人為特征算子的影響,如何采用深度學(xué)習(xí)的方法優(yōu)化初始聚類方法成為下一步的研究重點;其次,考慮到本文方法在耗時上相較于SPG-Net仍有一定的提升空間,如何優(yōu)化鄰域點遍歷方式也是下一步研究的重要方向。

[1] YANG B, WEI Z, LI Q, et al. Semiautomated building facade footprint extraction from mobile LiDAR point clouds[J]. IEEE Geoscience and Remote Sensing Letters, 2013, 10(4): 766-770.

[2] YANG B, DONG Z, ZHAO G, et al. Hierarchical extraction of urban objects from mobile laser scanning data[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2015, 99: 45-57.

[3] ZHANG J, LIN X. Advances in fusion of optical imagery and LiDAR point cloud applied to photogrammetry and remote sensing[J]. International Journal of Image and Data Fusion, 2017, 8(1): 1-31.

[4] 范士俊,張愛武,胡少興,等. 基于隨機森林的機載激光全波形點云數(shù)據(jù)分類方法[J]. 中國激光, 2013, 40(9): No.0914001.(FAN S J, ZHANG A W, HU S X, et al. A method of classification for airborne full waveform LiDAR data based on random forest[J]. Chinese Journal of Lasers, 2013, 40(9): No.0914001.)

[5] 楊必勝,梁福遜,黃榮剛. 三維激光掃描點云數(shù)據(jù)處理研究進展、挑戰(zhàn)與趨勢[J]. 測繪學(xué)報, 2017, 46(10): 1509-1516.(YANG B S, LIANG F X, HUANG R G. Progress, challenges and perspectives of 3D LiDAR point cloud processing[J]. Acta Geodaetica et Cartographica Sinica, 2017, 46(10): 1509-1516.)

[6] 郭波,黃先鋒,張帆,等. 顧及空間上下文關(guān)系的JointBoost點云分類及特征降維[J]. 測繪學(xué)報, 2013, 42(5): 715-721.(GUO B, HUANG X F, ZHANG F, et al. Points cloud classification using JointBoost combined with contextual information for feature reduction[J]. Acta Geodaetica et Cartographica Sinica, 2013, 42(5): 715-721.)

[7] WEINMANN M, JUTZI B, HINZ S, et al. Semantic point cloud interpretation based on optimal neighborhoods, relevant features and efficient classifiers [J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2015, 105: 286-304.

[8] LIU W, SUN J, LI W, et al. Deep learning on point clouds and its application: a survey [J]. Sensors, 2019, 19(19): No.4188.

[9] BENGIO Y. Learning deep architectures for AI[J]. Foundations and Trends in Machine Learning, 2009, 2(1): 1-127.

[10] 楊柳,劉啟亮,袁浩濤. 城市激光點云語義分割典型方法對比研究[J]. 地理與地理信息科學(xué), 2021, 37(1):17-25.(YANG L, LIU Q L, YUAN H T. A comparative study on typical methods for semantic segmentation of laser point clouds in urban areas [J]. Geography and Geo-Information Science, 2021, 37(1):17-25.)

[11] MATURANA D, SCHERER S. VoxNet: a 3D convolutional neural network for real-time object recognition [C]// Proceedings of the 2015 IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway: IEEE, 2015: 922-928.

[12] WU Z, SONG S, KHOSLA A, et al. 3D ShapeNets: a deep representation for volumetric shapes[C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2015: 1912-1920.

[13] YI L, KIM V G, CEYLAN D, et al. A scalable active framework for region annotation in 3D shape collections[J]. ACM Transactions on Graphics, 2016, 35(6): No.210.

[14] QI C R, SU H, MO K, et al. PointNet: deep learning on point sets for 3D classification and segmentation [C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2017: 77-85.

[15] QI C R, YI L, SU H, et al. PointNet++: deep hierarchical feature learning on point sets in a metric space [C]// Proceedings of the 31st International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2017:5101-5114.

[16] WANG Y, SUN Y, LIU Z, et al. Dynamic graph CNN for learning on point clouds[J]. ACM Transactions on Graphics, 2019, 38(5): No.146.

[17] 趙中陽,程英蕾,釋小松,等. 基于多尺度特征和PointNet的LiDAR點云地物分類方法[J]. 激光與光電子學(xué)進展, 2019, 56(5): No.052804.(ZHAO Z Y, CHENG Y L, SHI X S, et al. Terrain classification of LiDAR point cloud method based on multi-scale features and PointNet [J]. Laser and Optoelectronics Progress, 2019, 56(5): No.052804.)

[18] 馬京暉,潘巍,王茹. 基于-means聚類的三維點云分類[J]. 計算機工程與應(yīng)用, 2020, 56(17):181-186.(MA J H, PAN W,WANG R. 3D point cloud classification based on-means clustering[J]. Computer Engineering and Applications, 2020, 56(17):181-186.)

[19] 羅海峰,方莉娜,陳崇成,等. 基于DBN的車載激光點云路側(cè)多目標(biāo)提?。跩]. 測繪學(xué)報, 2018, 47(2): 234-246.(LUO H F, FANG L N, CHEN C C, et al. Roadside multiple objects extraction from mobile laser scanning point cloud based on DBN[J]. Acta Geodaetica et Cartographica Sinica, 2018, 47(2): 234-246.)

[20] WANG Z, ZHANG L, ZHANG L, et al. A Deep Neural Network with Spatial Pooling (DNNSP) for 3-D point cloud classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(8): 4594-4604.

[21] LANDRIEU L, SIMONOVSKY M. Large-scale point cloud semantic segmentation with superpoint graphs [C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018: 4558-4567.

[22] FILLIN S, PFEIFER N. Segmentation of airborne laser scanning data using a slope adaptive neighborhood [J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2006, 60(2): 71-80.

[23] DEMANTKé J, MALLET C, DAVID N, et al. Dimensionality based scale selection in 3D lidar point clouds[J]. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 2012, 38(5): 97-102.

[24] KOLMOGOROV V, ZABIN R. What energy functions can be minimized via graph cuts?[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2004, 26(2): 147-159.

[25] LANDRIEU L, OBOZINSKI G. Cut Pursuit: fast algorithms to learn piecewise constant functions on general weighted graphs [J]. SIAM Journal on Imaging Sciences, 2017, 10(4): 1724-1766.

[26] 任歡,王旭光. 注意力機制綜述[J]. 計算機應(yīng)用,2021, 41(S1):1-6.(REN H, WANG X G. Review of attention mechanisms[J]. Journal of Computer Applications, 2021, 41(S1): 1-6.)

[27] 朱張莉,饒元,吳淵,等.注意力機制在深度學(xué)習(xí)中的研究進展[J]. 中文信息學(xué)報, 2019, 33(6): 1-11.(ZHU Z L, RAO Y, WU Y, et al. Research progress of attention mechanism in deep learning [J]. Journal of Chinese Information Processing, 2019, 33(6): 1-11.)

[28] 楊麗,吳雨茜,王俊麗,等.循環(huán)神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 計算機應(yīng)用, 2018, 38(S2): 1-6, 26.(YANG L, WU Y X, WANG J L, et al. Research on recurrent neural network[J]. Journal of Computer Applications, 2018, 38(S2): 1-6, 26.)

[29] 馬超. 融合卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)的車輪目標(biāo)檢測[J]. 測繪通報, 2020(8):139-143.(MA C. Wheel detection integrating convolutional neural network and recurrent neural network[J]. Bulletin of Surveying and Mapping, 2020(8):139-143.)

[30] HACKEL T, SAVINOV N, LADICKY L, et al. Semantic3D.net: a new large-scale point cloud classification benchmark [J]. ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 2017, IV-1/W1: 91-98.

[31] BENTLEY J L. Multidimensional binary search trees used for associative searching [J]. Communications of the ACM, 1975, 18(9): 509-517.

Outdoor scene point cloud segmentation model based on graph model and attention mechanism

LIAN Feiyu1,2, ZHANG Liang1,2*, WANG Jiedong3, JIN Yukang1,2, CHAI Yu1,2

(1,,430062,;2(),430062,;3,310012,)

Aiming at the problem that it is difficult to distinguish similar land types in outdoor scenes with multiple objects and complex spatial topological relationships, an A-Edge-SPG (Attention-EdgeConvSuperPoint Graph) graph neural network combining graph model and attention mechanism module was proposed. Firstly, the superpoints were segmented by the combination of graph cut and geometric features. Secondly, the local adjacency graph was constructed inside the superpoint to capture the context information of the point cloud in the scene and use the attention mechanism module to highlight the key information. Finally, a SuperPoint Graph (SPG) model was constructed, and the features of hyperpoints and hyperedges were aggregated by Gated Recurrent Unit (GRU) to realize accurate segmentation among different land types of point cloud. On Semantic3D dataset,the semantic segmentation effect of A-Edge-SPG model and SPG-Net (SPG neural Network) model was compared and analyzed. Experimental results show that compared with the SPG model, A-Edge-SPG model improves the Overall segmentation Accuracy(OA), mean Intersection over Union (mIoU) and mean Average Accuracy (mAA) by 1.8, 5.1 and 2.8 percentage points respectively, and significantly improves the segmentation accuracy of similar land types such as high vegetation and dwarf vegetation, improving the effect of distinguishing similar land types.

semantic segmentation; outdoor scene; local feature; attention mechanism module; local adjacency graph; graph model

This work is partially supported by National Natural Science Foundation of China (41601504), Major Project of High?Resolution Earth Observation System (11?H37B02?900?19/22).

LIAN Feiyu, born in 1997, M. S. candidate. His research interests include three-dimensional point cloud processing, point cloud segmentation.

ZHANG Liang, born in 1986, Ph. D., associate professor. His research interests include machine learning, intelligent classification of remote sensing images, three-dimensional point cloud processing.

WANG Jiedong,born in 1986, M. S.,engineer. His research interests include photogrammetry, remote sensing applications.

JIN Yukang, born in 1997, M. S. candidate. His research interests include unmanned aerial vehicle point cloud filtering.

CHAI Yu, born in 1999, M. S. candidate. Her research interests include three-dimensional point cloud processing.

TP183

A

1001-9081(2023)12-3911-07

10.11772/j.issn.1001-9081.2022111704

2022?11?15;

2023?03?13;

2023?03?20。

國家自然科學(xué)基金資助項目(41601504);高分辨率對地觀測系統(tǒng)重大專項(11?H37B02?9001?19/22)。

廉飛宇(1997—),男,山東臨沂人,碩士研究生,主要研究方向:三維點云處理、點云分割;張良(1986—),男,浙江紹興人,副教授,博士,主要研究方向:機器學(xué)習(xí)、遙感影像智能分類、三維點云處理;王杰棟(1986—),男,寧夏銀川人,工程師,碩士,主要研究方向:攝影測量、遙感應(yīng)用;靳于康(1997—),男,河南南陽人,碩士研究生,主要研究方向:無人機點云濾波;柴玉(1999—),女,河南信陽人,碩士研究生,主要研究方向:三維點云處理。

猜你喜歡
注意力語義精度
讓注意力“飛”回來
語言與語義
基于DSPIC33F微處理器的采集精度的提高
電子制作(2018年11期)2018-08-04 03:25:38
“揚眼”APP:讓注意力“變現(xiàn)”
傳媒評論(2017年3期)2017-06-13 09:18:10
A Beautiful Way Of Looking At Things
“上”與“下”語義的不對稱性及其認(rèn)知闡釋
GPS/GLONASS/BDS組合PPP精度分析
改進的Goldschmidt雙精度浮點除法器
認(rèn)知范疇模糊與語義模糊
巧用磨耗提高機械加工精度
河南科技(2014年14期)2014-02-27 14:11:53
洪湖市| 临夏县| 三河市| 兰州市| 衡阳县| 板桥市| 华蓥市| 隆子县| 基隆市| 邳州市| 开平市| 都匀市| 丰原市| 涿鹿县| 赞皇县| 乌拉特后旗| 西平县| 邻水| 赣州市| 泰来县| 延庆县| 文山县| 监利县| 武义县| 永春县| 丰县| 织金县| 桦南县| 行唐县| 揭阳市| 平乡县| 兰溪市| 铅山县| 涪陵区| 黄陵县| 徐汇区| 邹平县| 滕州市| 开化县| 神池县| 时尚|