国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于圖多層感知機的節(jié)點分類算法*

2023-12-10 08:49:02袁立寧黃琬雁莫嘉穎馮文剛
廣西科學 2023年5期
關鍵詞:損失分類節(jié)點

文 竹,袁立寧,,黃 偉,黃琬雁,莫嘉穎,馮文剛

(1.廣西警察學院信息技術學院,廣西南寧 530028;2.中國人民公安大學國家安全學院,北京 100038;3.南寧職業(yè)技術學院人工智能學院,廣西南寧 530008)

圖是一種常用的數(shù)據(jù)形式,用于表征實體間的關系,如引文網(wǎng)絡中論文之間的互引信息、社交網(wǎng)絡賬號之間的關注信息等。節(jié)點分類[1]是利用圖中已知的拓撲結構、節(jié)點屬性以及節(jié)點標簽等信息對無標簽節(jié)點進行類別預測。因此,節(jié)點分類的關鍵在于如何提取原始圖中蘊含的特征信息。圖神經網(wǎng)絡(Graph Neural Networks,GNN)[2]是一類高效的圖特征學習方法,它通過傳遞和聚合節(jié)點間信息來生成保留拓撲結構和屬性信息的低維節(jié)點表示,并將其用于節(jié)點分類等下游圖分析任務。

近年來,已有許多研究對GNN進行改進,這些改進一般通過引入高效的信息傳遞和轉換方式以增強GNN的表征能力。圖卷積網(wǎng)絡(Graph Convolutional Network,GCN)[3]將經典的卷積神經網(wǎng)絡從歐式數(shù)據(jù)(圖像、音頻)推廣到非歐式數(shù)據(jù)(圖),實現(xiàn)了對拓撲結構和節(jié)點屬性信息的編碼,其在計算過程中僅使用節(jié)點的一階鄰域進行聚合,這提高了模型層間信息的傳播效率。簡化圖卷積(Simplified Graph Convolution,SGC)[4]改進了GCN的編碼策略,通過直接使用線性網(wǎng)絡編碼原始圖信息以減少模型參數(shù),降低模型復雜度;圖注意力網(wǎng)絡(Graph Attention Network,GAT)[5]在GCN的基礎上引入注意力機制,為一階鄰域中各節(jié)點分配不同的權值,使信息聚合過程能夠更加關注影響力較大的高權值鄰居節(jié)點;GATv2[6]在GAT的基礎上引入動態(tài)注意力機制,修改了GAT中權值計算過程,構建近似注意函數(shù),從而提升了GAT的表征能力;結構感知路徑聚合圖神經網(wǎng)絡(PathNet)[7]使用最大熵路徑采集器采樣節(jié)點上下文路徑,然后引入結構感知循環(huán)單元學習上下文路徑中蘊含的語義信息。由于淺層GNN架構限制了模型學習高階鄰域信息的能力,而深層GNN架構容易出現(xiàn)過平滑[8],為解決以上問題,Zhang等[9]提出的淺層雙仿射圖卷積網(wǎng)絡(Shallow Biaffine Graph Convolutional Networks,BAGCN)不僅能夠學習節(jié)點對遠距離鄰居的直接依賴性,還能通過一階消息傳遞捕獲多跳鄰居的特征信息。

與上述通過復雜的節(jié)點信息傳遞和聚合方式提升模型性能的研究思路不同,本文提出了基于多層感知機(Multi-Layer Perceptron,MLP)[10]的A&T-MLP。A&T-MLP無需信息傳遞和聚合,而是通過屬性和拓撲信息引導的對比損失以保留原始圖相關特征。具體來說,A&T-MLP首先使用屬性矩陣和鄰接矩陣計算節(jié)點間的相似度信息;然后使用基于相似度信息引導的對比損失,優(yōu)化MLP隱藏層生成的特征表示;最后引入交叉熵損失對A&T-MLP進行端到端訓練。

1 相關工作

1.1 MLP

MLP是一種基于前饋神經網(wǎng)絡的深度學習模型,通常由輸入層、隱藏層和輸出層構成,相鄰兩層之間所有輸入神經元都和輸出神經元相連,因此也稱為全連接神經網(wǎng)絡。其中,輸入層用于接收原始數(shù)據(jù),隱藏層利用權重系數(shù)和激活函數(shù)對數(shù)據(jù)進行特征提取和非線性變換,輸出層利用隱藏層生成的特征向量得到預測結果。MLP具有較強的表征能力,可通過特定的損失函數(shù)和反向傳播算法對其進行訓練優(yōu)化。MLP能夠自動地提取數(shù)據(jù)中蘊含的潛在信息,因此可用于分類、回歸等機器學習任務。

在計算機視覺和自然語言處理領域,MLP被廣泛應用于語音識別、圖像識別、語義分割等眾多任務。Hou等[11]提出了基于MLP的高效視覺識別架構,使用線性投影分別對高度和寬度特征表示進行編碼,捕獲長距離依賴關系,進而提升視覺識別網(wǎng)絡的性能。Gong等[12]提出了基于Cycle-MLP的DriftNet模型,該模型通過神經元漸進激活以促進空間和光譜信息的融合,進而提升了高光譜圖像像素分類的實驗表現(xiàn)。Sun等[13]提出了多模態(tài)情緒分析模型CubeMLP,CubeMLP將所有模態(tài)特征作為輸入,并將輸入分配到3個不同的MLP單元提取特征,最后對混合多模態(tài)特征進行展平以實現(xiàn)情緒分析任務。在圖分析領域,Hu等[14]提出了Graph-MLP,Graph-MLP通過拓撲結構中的鄰接關系構建保留拓撲信息的對比損失,使僅使用節(jié)點屬性作為輸入的MLP能夠匹配GCN在節(jié)點分類任務中的實驗性能。

上述研究為MLP在其他領域的應用提供了理論基礎,其性能也能夠匹配多數(shù)復雜模型的實驗表現(xiàn)。因此,本文在已有研究的基礎上,提出了一種基于屬性和拓撲信息增強MLP模型A&T-MLP,并應用于節(jié)點分類任務。

1.2 對比學習

對比學習是從大量未標記的數(shù)據(jù)中提取可轉移的特征,并將其擴展為特定的自監(jiān)督信息[15],使模型在訓練過程中能夠對相似樣本和不相似樣本進行區(qū)分,因此對比學習的核心思想就是增大特征空間中同類數(shù)據(jù)表示的相似性和不同類數(shù)據(jù)表示的差異性。分類任務中常見的對比損失函數(shù)的表達式為

loss(xi)=

(1)

式中,si,i表示正樣本,si,k表示負樣本。通過對比損失調整,使第i個數(shù)據(jù)與si,i之間的相似度盡可能大,與si,k之間的相似度盡可能小,從而提升模型表征原始數(shù)據(jù)信息的能力。

近年來,基于對比學習增強的圖深度學習模型已成為研究的熱點方向。除Graph-MLP模型,Wang等[16]提出了基于集群感知監(jiān)督對比損失的ClusterSCL,ClusterSCL以節(jié)點聚類分布的形式保留圖信息。Xia等[17]提出了一種無需數(shù)據(jù)增強的GNN對比學習框架SimGRACE,SimGRACE使用GNN編碼器和擾動GNN編碼器提取原始圖特征,然后通過對比兩個視圖來保留關鍵的語義信息。此外,Wang等[18]對圖對比學習中的結構公平性進行了探究,其研究結果表明引入對比學習后學習到的高度節(jié)點和低度節(jié)點的特征表示均優(yōu)于GCN模型。

本文提出了一種基于屬性信息和拓撲信息引導的圖多層感知機模型,通過計算屬性相似度和拓撲相似度,推動特征空間中相似節(jié)點的低維表示相互靠近,不相似節(jié)點的低維表示進一步遠離,從而提升模型在節(jié)點分類任務上的表現(xiàn)。

2 A&T-MLP

本節(jié)主要介紹A&T-MLP的算法原理及模型構建。首先提出模型整體架構,然后介紹用于對比損失的屬性相似度和拓撲相似度,接著討論用于模型訓練的對比損失和交叉熵損失,最后介紹模型的優(yōu)化過程。

2.1 模型結構

MLP通過全連接層(Fully Connected Layer,FC)提取數(shù)據(jù)中蘊含的潛在信息,生成用于下游任務的特征表示。A&T-MLP在MLP的基礎上,通過引入兼顧節(jié)點屬性相似度與拓撲結構相似度的對比損失以增強模型對原始圖信息的表征能力,其整體結構如圖1所示。由于過多的神經網(wǎng)絡層數(shù)易導致模型過擬合[19],因此A&T-MLP使用3層網(wǎng)絡結構。首先,使用MLP提取屬性矩陣X的特征,在第1層和第2層網(wǎng)絡之間引入激活函數(shù)ReLU和Dropout機制,這樣不僅能增強模型的非線性變換能力,還能防止參數(shù)過擬合;然后,使用屬性和拓撲信息引導的對比損失,對第2層網(wǎng)絡生成的特征向量進行優(yōu)化,使屬性和拓撲相似的節(jié)點在特征空間中進一步接近,不相似的節(jié)點進一步遠離;最后,使用第3層網(wǎng)絡生成的特征向量計算交叉熵損失,從而實現(xiàn)節(jié)點分類任務。綜上,A&T-MLP的網(wǎng)絡結構可表示為

H(1)=Dropout(ReLU(FC(X))),

(2)

H(2)=ReLU(FC(H(1))),

(3)

Z=FC(H(2))。

(4)

圖1 A&T-MLP的框架

2.2 屬性相似度與拓撲相似度

為了充分保留原始圖中蘊含的屬性與拓撲關聯(lián)信息,分別使用節(jié)點屬性矩陣X和鄰接矩陣A計算用于對比損失函數(shù)的節(jié)點相似度。

對于拓撲結構,可以通過圖的一階相似度進行表示,即直接相連的節(jié)點關系更加緊密[20]。如果節(jié)點i和j之間存在1條邊,那么i和j的一階相似度為邊的權重值(無權圖中,權重值默認為1),如果i和j之間沒有邊,那么兩個節(jié)點的一階相似度為0。由于上述邊信息通常使用圖的鄰接矩陣A進行存儲,所以A中元素Aij能夠直接表示節(jié)點i和j的拓撲相似度。

對于節(jié)點屬性,屬性矩陣X中元素Xij表示節(jié)點i和屬性j之間的關聯(lián)信息,不能直接表示節(jié)點間的相似度。因此,屬性相似度計算的關鍵在于如何表示節(jié)點在屬性空間的相似性,并通過與拓撲相似度相同的形式進行表示。首先,使用相似性度量算法,計算兩個節(jié)點的屬性相似性值Sij,本文使用余弦相似度獲取相似度矩陣S。

余弦相似度即使用兩個向量之間夾角的余弦值度量相似度:

(5)

(6)

式中,γ表示包含原始圖中屬性與拓撲相似信息的節(jié)點關聯(lián)強度矩陣。

2.3 損失函數(shù)

在MLP提取數(shù)據(jù)特征生成節(jié)點表示的過程中,使用屬性和拓撲引導信息γ計算對比損失可以推動特征空間中相似節(jié)點的低維表示彼此接近,不相似節(jié)點的低維表示進一步遠離。基于對比損失的一般形式[公式(1)],A&T-MLP使用的對比損失lossCL表達式為

lossCL=

(7)

式中,sim表示余弦相似度函數(shù),h表示節(jié)點。lossCL借助節(jié)點的相似度信息以增大特征空間中相似節(jié)點的一致性和增大不相似節(jié)點的差異性。由于A&T-MLP是用于分類任務的模型,因此在訓練過程中引入交叉熵損失lossCE:

(8)

式中,Y為節(jié)點標簽集合,M為標簽的類別數(shù),Yim為符號函數(shù)(樣本i的真實類別等于m則取值1,否則取0),Zim表示觀測樣本i屬于類別m的預測概率。最后,將對比損失lossCL和交叉熵損失lossCE進行組合,構建完整的損失函數(shù)loss:

loss=lossCE+αlossCL,

(9)

式中,α表示平衡lossCL和lossCE的加權系數(shù)。在確定網(wǎng)絡結構和損失函數(shù)后,A&T-MLP優(yōu)化的具體過程見算法1。

算法1A&T-MLP

輸入:屬性矩陣X,鄰接矩陣A,節(jié)點標簽集合Y,隱藏層維度d、屬性相似節(jié)點數(shù)k,權重系數(shù)α,可訓練參數(shù)θ。

輸出:模型優(yōu)化參數(shù)θ。

1.計算屬性矩陣X的余弦相似度得到相似度矩陣S

2.選取每個節(jié)點前k個相似度值構建屬性相似度矩陣S(k)

3.對A和S(k)進行歸一化,計算對比損失引導信息γ

4.Repeat

5. 使用X、θ和公式(3)、(4)生成特征矩陣H(2)和Z

6. 使用H(2)、Z、γ、α和公式(9),計算loss

7. 計算損失函數(shù)梯度?loss,利用反向傳播更新參數(shù)矩陣θ

8.Until convergence

3 結果與分析

3.1 實驗設置

本文使用3個基準圖數(shù)據(jù)集Wikipedia、Cora和Citeseer[21]評估基線模型和A&T-MLP在節(jié)點分類任務中的實驗性能,使用的基線模型和構建的基線模型均使用Python語言和深度學習框架Pytorch實現(xiàn)。數(shù)據(jù)集相關統(tǒng)計信息見表1?;€模型分別選擇GNN模型GCN[3]、SGC[4]、GAT[5]和GATv2[6],以及感知機模型MLP[10]和Graph-MLP[14]。

節(jié)點分類是一種多分類任務,利用圖的拓撲結構和節(jié)點屬性確定每個節(jié)點所屬類別,因此采用常見多分類指標Micro-F1和Macro-F1進行評估。對于每個數(shù)據(jù)集,各模型采用相同數(shù)據(jù)集劃分,隨機抽取10%的節(jié)點標簽作為訓練集,剩余節(jié)點標簽中隨機抽取50%作為測試集。

所有基線模型都先按照原始論文中建議的參數(shù)進行初始化,然后對部分模型進一步調整,以獲取最佳性能。對于A&T-MLP,參數(shù)主要包括學習率lr、訓練次數(shù)epoch、隱藏層維度d、屬性相似節(jié)點數(shù)k以及平衡損失函數(shù)的權重系數(shù)α。A&T-MLP的最終參數(shù)設置如表2所示。

表1 數(shù)據(jù)集信息

表2 A&T-MLP參數(shù)設置

3.2 實驗結果

本節(jié)通過節(jié)點分類任務評估不同模型的實驗性能,實驗結果如表3所示。從表3可以看出,在3個數(shù)據(jù)集上,A&T-MLP模型的Micro-F1和Macro-F1分數(shù)始終高于基線模型,表明A&T-MLP能夠有效保留原始圖的屬性和拓撲特征信息,并將其編碼到節(jié)點特征向量中,從而提升了節(jié)點分類能力。在屬性信息豐富的Wikipedia數(shù)據(jù)集上,所有GNN模型表現(xiàn)均弱于MLP模型,同時引入拓撲對比損失的Graph-MLP弱于僅使用屬性信息的MLP。這表明在以屬性為主要信息的數(shù)據(jù)集上,依賴拓撲結構進行特征提取和保留的方法限制了模型的表征能力,而同時使用屬性和拓撲信息引導對比損失的A&T-MLP表現(xiàn)最好,能夠有效平衡特征向量中蘊含的屬性和拓撲信息。在拓撲信息豐富的Cora和Citeseer數(shù)據(jù)集上,所有GNN模型優(yōu)于僅使用屬性信息的MLP。GNN模型的高性能得益于信息傳遞和聚合過程中拓撲信息的重復使用,Graph-MLP則是通過對比損失保留了拓撲關聯(lián)信息,而A&T-MLP的對比損失在關注拓撲相似性的同時,也對屬性相似性這一重要的原始圖信息進行關注,能夠更為充分地保留分類任務所需的特征信息。

綜上,不同基線模型在不同數(shù)據(jù)集上的表現(xiàn)差異較大,并且復雜的信息傳遞和聚合方式不一定能夠獲得最佳的性能。相較于基線模型,A&T-MLP在不同數(shù)據(jù)集上均能獲得最佳性能,證明了同時使用屬性和拓撲相似度信息引導的對比損失,不僅能夠提升模型的預測性能,而且也增強了模型對不同數(shù)據(jù)的泛化能力。

表3 節(jié)點分類實驗結果

為了進一步探究A&T-MLP在3個數(shù)據(jù)集上的性能,本文通過減少訓練集中邊緣的數(shù)量評估基線模型和A&T-MLP在信息缺失條件下的實驗表現(xiàn)。在邊緣缺失實驗中,每次減少訓練集中20%的邊信息,實驗結果見圖2。

由圖2可知,隨著訓練集中包含的邊信息不斷減少,各模型的實驗性能出現(xiàn)較為明顯的波動(由于MLP僅使用屬性信息,實驗結果不受邊信息減少影響),但A&T-MLP模型的預測結果始終優(yōu)于其他基線模型。在屬性信息豐富的Wikipedia數(shù)據(jù)集上,邊信息的減少不一定導致模型性能下降,相反GNN模型在邊緣缺失80%時取得了最佳實驗結果。在拓撲信息豐富的Cora和Citeseer數(shù)據(jù)集上,除MLP外所有模型的實驗性能隨邊信息的減少呈現(xiàn)出下降趨勢,特別是GATv2在邊緣缺失80%時性能下降9.53%。綜上,在邊信息大量缺失時A&T-MLP相較基線模型能夠更好地學習數(shù)據(jù)特征分布,改善節(jié)點分類任務的實驗表現(xiàn)。

3.3 消融實驗

為了驗證拓撲信息和屬性信息對A&T-MLP模型性能的影響,在3個數(shù)據(jù)集上進行消融實驗,記錄Micro-F1和Macro-F1。其中,不使用對比損失的變體為MLP,僅使用拓撲信息引導對比損失的變體為T-MLP,僅使用屬性信息引導對比損失的變體為A-MLP。為保證實驗結果的公平性,保持各模型參數(shù)一致。消融實驗結果如圖3所示。相較于不使用原始圖信息、單獨使用拓撲信息或屬性信息的變體,同時使用兩類信息的A&T-MLP模型獲得了最佳性能,證明同時保留屬性和拓撲信息能夠進一步增強模型的表征能力,提升分類任務中的實驗表現(xiàn)。

圖2 邊緣缺失實驗結果

3.4 參數(shù)實驗

為了分析A&T-MLP性能受參數(shù)的影響,使用Citeseer數(shù)據(jù)集進行參數(shù)實驗,并記錄Micro-F1和Macro-F1分數(shù)。此外,為了保證參數(shù)實驗的公平性,除驗證參數(shù)外,其余參數(shù)按照表3進行設置。參數(shù)實驗結果如圖4所示。

圖3 消融實驗結果

為了驗證隱藏層維度d對A&T-MLP性能的影響,使用不同d值進行實驗,結果如圖4(a)所示。最初,Micro-F1和Macro-F1隨網(wǎng)絡維度的增大而提高,這是因為較高的維度代表了更多的神經元,能夠編碼更多的有益信息,提升實驗表現(xiàn)。但是,隨著維度進一步增大,Micro-F1和Macro-F1呈現(xiàn)出下降的趨勢,這是因為過大的維度使節(jié)點表示中編碼了噪聲信息,從而影響了A&T-MLP的表現(xiàn)。

為了驗證屬性相似節(jié)點數(shù)k對A&T-MLP性能的影響,使用不同k值進行實驗,結果如圖4(b)所示。從結果看,Micro-F1和Macro-F1呈現(xiàn)先上升再下降的趨勢,過大和過小的k值下A&T-MLP的表現(xiàn)均較為一般,這是因為k值過小無法保留充足的屬性相似度信息,而k值過大會在對比損失計算過程中引入大量噪聲節(jié)點,影響A&T-MLP的性能。

為了驗證損失函數(shù)中的權重系數(shù)α對模型性能的影響,使用不同α值進行實驗,結果如圖4(c)所示。權重系數(shù)α調控了對比損失在整個損失函數(shù)中所占的比重,α值越大模型訓練過程中越關注對比損失的優(yōu)化。從實驗結果來看,A&T-MLP的預測性能隨著α值的增大先上升后下降,這是因為過于關注對比損失的優(yōu)化會導致對交叉熵損失的忽略,從而影響了A&T-MLP的性能。

圖4 參數(shù)實驗結果

3.5 可視化

節(jié)點表示蘊含了原始圖的相關信息,對其進行可視化能夠直觀地反映原始圖的某些特征。對于可視化任務,首先使用t-SNE[22]將各模型生成的節(jié)點特征向量降至2維,然后根據(jù)Citeseer數(shù)據(jù)集的標簽信息將節(jié)點分別標記為6種顏色,最后在二維平面上進行可視化,實驗結果如圖5所示。節(jié)點分類準確的可視化結果通常為相同顏色節(jié)點接近,不同顏色節(jié)點遠離。由圖5可知,GCN、MLP、Graph-MLP和A&T-MLP均能提取原始圖中相關信息形成社區(qū)結構,但是使用屬性和拓撲信息引導對比損失的A&T-MLP具有更高的類內相似性和類間界限。可視化實驗反映了模型保留同一社群節(jié)點相似特征的能力,證明了使用對比損失能夠增強模型表征能力,也更為直觀地反映了模型的分類性能。

圖5 Citeseer可視化

3.6 訓練時間

為了比較不同模型的訓練復雜度,記錄Wikipedia數(shù)據(jù)集上迭代100次后單次迭代的平均訓練時間(包括前向傳播、損失函數(shù)計算、反向傳播過程),實驗結果如圖6所示。對比不同模型的訓練時間,直接對原始圖信息編碼的GCN和MLP計算速度較快,在此基礎引入了更加復雜的特征提取方式的改進模型訓練時間進一步增加。雖然基于MLP的改進模型網(wǎng)絡結構更為簡單,但是為了保留原始圖相關信息,需要借助對比損失進行優(yōu)化,導致模型的訓練時間增加。此外,對比使用對比損失的Graph-MLP和A&T-MLP,盡管A&T-MLP引入了屬性信息,但是只保留了每個節(jié)點前k個相似度值最大的值,因此相較于GAT和GATv2訓練時間差異較大,相較于Graph-MLP訓練時間差異較小,并且實驗性能提升更為明顯。

圖6 訓練時間對比

4 結論

本文設計了一種無需信息傳遞和聚合的圖多層感知機模型A&T-MLP,通過屬性和拓撲信息引導的對比損失有效保留原始圖特征。實驗結果表明,基于屬性相似度與拓撲相似度的對比損失能夠顯著提升MLP模型在節(jié)點分類任務中的實驗性能,并且優(yōu)于較為先進的GNN基線模型。此外,A&T-MLP在處理拓撲信息不準確的圖數(shù)據(jù)時具有較明顯的優(yōu)勢,即使在拓撲信息缺失80%的極端情況下,依然具有良好的性能。在當前工作中,通過簡單的MLP構建神經網(wǎng)絡基本框架,使得模型訓練過程中缺乏對特征中重要信息的關注。因此,在后續(xù)工作中,將在多層神經網(wǎng)絡中引入注意力機制,增強關鍵特征信息的保留,并將模型應用于社交網(wǎng)絡惡意賬戶檢測和犯罪組織成員身份發(fā)現(xiàn)等任務。

猜你喜歡
損失分類節(jié)點
CM節(jié)點控制在船舶上的應用
少問一句,損失千金
Analysis of the characteristics of electronic equipment usage distance for common users
胖胖損失了多少元
分類算一算
基于AutoCAD的門窗節(jié)點圖快速構建
分類討論求坐標
玉米抽穗前倒伏怎么辦?怎么減少損失?
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
吉安市| 蒙自县| 马边| 福清市| 九江市| 景宁| 博爱县| 六盘水市| 克东县| 始兴县| 温州市| 舞阳县| 达州市| 西吉县| 镶黄旗| 沛县| 汤原县| 延吉市| 肇源县| 静乐县| 瑞丽市| 余干县| 曲沃县| 日土县| 西昌市| 白山市| 凤翔县| 虎林市| 白水县| 微山县| 重庆市| 太谷县| 琼结县| 二连浩特市| 尼勒克县| 巴青县| 宝清县| 丹阳市| 贡山| 察隅县| 济源市|