摘" 要:圖卷積網(wǎng)絡(luò)(GCN)由于其出色的圖數(shù)據(jù)處理能力,在推薦系統(tǒng)中得到了廣泛的應(yīng)用,但現(xiàn)有的GCN推薦系統(tǒng)卻忽略了對負(fù)采樣策略的支持。聚焦研究圖卷積網(wǎng)絡(luò)推薦系統(tǒng)中更有效的負(fù)采樣方法,提出一種生成難負(fù)樣本(hard negative sample)的負(fù)采樣算法。通過引入流行度的概念,控制正負(fù)樣本的嵌入表示的融合過程,以生成強(qiáng)負(fù)樣本候選集,再通過層組合擇優(yōu)策略在難負(fù)樣本候選集中選出最優(yōu)難負(fù)樣本再與正樣本組成樣本對,通過貝葉斯個性化排序(bayesian personalizedranking,BPR)函數(shù)進(jìn)行優(yōu)化訓(xùn)練。實驗結(jié)果表明,所提出的負(fù)采樣算法有效。
關(guān)鍵詞:推薦算法;圖卷積網(wǎng)絡(luò);mixup數(shù)據(jù)增強(qiáng);難負(fù)樣本
中圖分類號:TP391.3;TP183" 文獻(xiàn)標(biāo)識碼:A
DOI:10.16601/j.cnki.issn2096-7330.2024.02.011文章編號:2096-7330(2024)02-0070-06
收稿日期:2023-10-18
基金項目:廣西學(xué)位與研究生教改課題“人工智能時代研究生實踐教學(xué)的培養(yǎng)模式研究”(JGY2023236)
通信作者:閉應(yīng)洲,博士,南寧師范大學(xué)教授,byzhou@163.com。
0" 引言
近年來推薦系統(tǒng)已經(jīng)成為人們在日常生活中不可或缺的一個部分,尤其是在社交娛樂、電子商務(wù)、在線新聞等領(lǐng)域中已得到廣泛的應(yīng)用。隨著信息技術(shù)的快速發(fā)展,人們面臨的信息過載問題日益嚴(yán)重,推薦算法顯得尤為重要[1]。通過分析用戶的歷史行為和偏好,推薦算法可以從海量數(shù)據(jù)中篩選出用戶可能感興趣的項目。近年來,圖卷積網(wǎng)絡(luò)(Graph Convolutional Networks,GCN)[2-3]由于其強(qiáng)大的圖結(jié)構(gòu)數(shù)據(jù)處理能力,在推薦系統(tǒng)中得到了廣泛應(yīng)用。GCN能夠有效地捕捉用戶和項目間的復(fù)雜交互關(guān)系,通過聚合節(jié)點鄰居的信息來學(xué)習(xí)更加豐富和深層次的節(jié)點表征,從而提高推薦的準(zhǔn)確性和效率。
盡管GCN在推薦算法中顯示出巨大的潛力,但仍面臨著一些挑戰(zhàn),其中之一就是負(fù)采樣方法的選擇[5]。在推薦系統(tǒng)的學(xué)習(xí)過程中,負(fù)采樣是一種常用的技術(shù),旨在從大量未與用戶發(fā)生交互的項目中選擇一小部分作為負(fù)樣本。合理的負(fù)采樣方法不僅可以提高學(xué)習(xí)效率,還能增強(qiáng)模型的泛化能力。然而,大多數(shù)現(xiàn)有的GCN推薦模型采用的都是隨機(jī)負(fù)采樣的策略;隨機(jī)負(fù)采樣是圖神經(jīng)網(wǎng)絡(luò)推薦系統(tǒng)里常見的一種負(fù)樣本生成方法,由于其實現(xiàn)簡單、計算高效,因此被廣泛應(yīng)用。然而,隨機(jī)負(fù)采樣方法存在一些信息損失、樣本不平衡、效果波動等問題,而這些問題則可能會影響推薦系統(tǒng)的性能和效率,影響訓(xùn)練速度。
鑒于此,提出了一生成式的GCN網(wǎng)絡(luò)推薦系統(tǒng)負(fù)采樣方法。不同于傳統(tǒng)方法,首先,通過混合一部分正樣本信息合成難負(fù)樣本集。然后,考慮到在實際應(yīng)用中項目的流行度分布往往是非均勻的,因此,進(jìn)一步引入基于項目流行度的信息以豐富難負(fù)樣本的合成。最后,通過層組合擇優(yōu)策略在難負(fù)樣本集中選擇出最終的負(fù)樣本,這樣選出來的負(fù)樣本包含著豐富的信息,能提高模型訓(xùn)練學(xué)習(xí)能力以及效率提高推薦的準(zhǔn)確性。
在多個公開的推薦系統(tǒng)數(shù)據(jù)集上對所提出的方法進(jìn)行了廣泛的實驗驗證。實驗結(jié)果顯示,與現(xiàn)有的負(fù)采樣方法相比,在召回率、歸一化折損累計增益等關(guān)鍵評價指標(biāo)上均實現(xiàn)了顯著的提升。此外,還對比了不同負(fù)采樣算法以及不同的圖卷積神經(jīng)網(wǎng)絡(luò)推薦系統(tǒng),并深入分析了所提方法的性能提升機(jī)制,驗證了其有效性和實用性。
1" 相關(guān)工作
1.1" GCN網(wǎng)絡(luò)推薦系統(tǒng)
圖卷積網(wǎng)絡(luò)(GCN)推薦系統(tǒng)是一種利用圖結(jié)構(gòu)數(shù)據(jù)進(jìn)行推薦的先進(jìn)技術(shù)。在這種系統(tǒng)中,用戶和物品被視為圖中的節(jié)點,而用戶對物品的交互(如評分、購買、瀏覽等)則被視為節(jié)點間的邊。GCN推薦系統(tǒng)的核心是使用圖卷積操作來學(xué)習(xí)用戶和物品的嵌入表示,這些嵌入表示包含了豐富的關(guān)系信息和屬性信息[4]。圖卷積網(wǎng)絡(luò)主要可以分為幾個步驟:
(1) 圖嵌入:將一個用戶u的第l層的嵌入表示為e(l)u∈Rd,同理項目i的第l層嵌入表示為e(l)i∈Rd,其中R表示用戶和物品的交互矩陣,d表示嵌入的維度。
(2) 領(lǐng)域聚合:對每一個節(jié)點進(jìn)行領(lǐng)域聚合,獲取領(lǐng)域的信息,然后再進(jìn)行信息更新,將鄰域信息和自身節(jié)點信息經(jīng)過處理作為新的節(jié)點信息。參考LightGCN[4]模型對節(jié)點更新進(jìn)行的簡化處理,刪除特征變換和非線性激活函數(shù),從而使圖卷積網(wǎng)絡(luò)更加適合協(xié)同過濾推薦任務(wù)。其主要過程如下:
e(l+1)u=∑i∈Nu1NuNie(l)i(1)
e(l+1)i=∑u∈Ni1NiNue(l)u(2)
式中:Nu和Ni分別表示用戶u和項目 i的領(lǐng)域集合。
(3) 最終預(yù)測:通過堆疊l個嵌入傳播層,可以分別得到多個用戶和物品的嵌入表示。不同層的嵌入表示攜帶著不同的語義信息。最后選擇帶權(quán)聚合的方式構(gòu)造最終的用戶和物品嵌入的表示式為:
eu=∑Ll=0αle(l)u(3)
ei=∑Ll=0αle(l)i(4)
式中:αl=11+l為每一層的平均加權(quán)系數(shù);
在得到所有用戶和物品的嵌入表示之后通過內(nèi)積得到用戶對物品的預(yù)測評分:
yui︿=eΤuei(5)
1.2" BPR損失函數(shù)
貝葉斯個性化排序(Bayesian Personalized Ranking,BPR)[5]是一種在推薦系統(tǒng)中常見的損失函數(shù)。BPR損失函數(shù)的成對比較方法特別適合處理隱式反饋數(shù)據(jù)(例如點擊、瀏覽),這在實際應(yīng)用中非常普遍。其思想就是讓正樣本和負(fù)樣本的得分之差盡可能達(dá)到最大,然后通過反向傳播進(jìn)行優(yōu)化。其過程如下:
LBPR=-∑(u,i,j)∈Olnσ(yui︿-yuj︿)(6)
式中:O為數(shù)據(jù)集,u為當(dāng)前用戶,i為與用戶u交互過的項目既正樣本,j則是未與u交互過的項目既為負(fù)樣本。
1.3" 負(fù)采樣
在推薦系統(tǒng)中用戶喜歡的物品是正樣本,在數(shù)據(jù)集上的表現(xiàn)既與當(dāng)前用戶有過交互記錄的物品就被稱為當(dāng)前用戶的正樣本;反之,沒有交互記錄的即為負(fù)樣本。為了更好地訓(xùn)練模型,需要進(jìn)行負(fù)采樣,而且從中采出一部分負(fù)例來協(xié)助模型的學(xué)習(xí),提高模型的性能。當(dāng)前基于GCN的推薦系統(tǒng)在負(fù)采樣的方法研究上還需更多更深的探索與研究。
難負(fù)樣本(hard negatives sample)[6]指的是預(yù)測得分很高與正樣本很相似的負(fù)樣本。引例:假設(shè)要區(qū)分狼這個物種,那么灰狼、胡狼等各種不同類型的狼就是正樣本。其他類似的哺乳動物,貓和狗之類的就是負(fù)樣本。而哈士奇這種外觀很像狼但本質(zhì)是狗的生物就是很好的難負(fù)樣本。強(qiáng)負(fù)樣本可以使模型更好地學(xué)習(xí)正負(fù)樣本之間的界限,從而提升推薦性能。
2" GCN網(wǎng)絡(luò)推薦系統(tǒng)負(fù)采樣算法描述
不同于現(xiàn)有常見的隨機(jī)采樣方法,提出的生成難樣本(hard negative sample)的負(fù)采樣算法如圖1所示。其中圖1(a)為GCN網(wǎng)絡(luò)的圖嵌入,領(lǐng)域聚合,最終預(yù)測三個過程。使用LightGCN模型作為核心網(wǎng)絡(luò)來驗證提出的負(fù)采樣算法。圖1(b)為提出的生成難樣本的負(fù)采樣算法流程。
2.1" mixup正負(fù)樣本信息融合
為了提高充分多樣、高覆蓋率的負(fù)樣本候選集,通過設(shè)置一個遠(yuǎn)小于總項目數(shù)的負(fù)樣本候選集數(shù)M,可以提供多樣的負(fù)樣本候選,提高負(fù)樣本質(zhì)量。則M個負(fù)樣本嵌入組成了大小為M×(L+1)的負(fù)樣本集記為ε={e(l)jm}其中m∈[1,M]。而經(jīng)過L層的圖卷積網(wǎng)絡(luò)傳播,對于每一個項目i都有L+1個嵌入,其中e(l)i表示第l層生成的正樣本嵌入(0≤l≤L)。
受到計算機(jī)視覺(CV)領(lǐng)域中的mixup數(shù)據(jù)增強(qiáng)方法[8-9]的啟發(fā),將正樣本的嵌入信息注入負(fù)樣本的嵌入信息中,以此來合成難負(fù)樣本增強(qiáng)負(fù)樣本的信息表示。其具體操作如下:
e′(l)jm=α(l)e(l)i+(1-α(l))e(l)jm(7)
式中α(l)∈(0,1)為每一傳播層的隨機(jī)因子,其目的是隨機(jī)影響正樣本嵌入信息的注入提高算法的泛化能力。
2.2" 項目流行度的信息注入
在推薦系統(tǒng)中流行度越高的物品,被當(dāng)作負(fù)樣本的概率就越大。其背后的想法是,越流行的物品,越容易被推薦給用戶,但用戶還沒有與它發(fā)生交互,那么用戶有更大的概率不喜歡該物品。考慮到在實際應(yīng)用中項目的流行度分布往往是非均勻的,所以這里引進(jìn)流行度判斷因子這一概念,通過它來控制正樣本信息的注入。其思想就是越流行的,交互次數(shù)越多的,控制其注入的正樣本信息相應(yīng)減少。流行度判斷因子為指數(shù)函數(shù)e的-kx次方,表達(dá)式為:exp(-kx)∈(0,1),將其引入式(7)可得:
e′(l)jm=α(l)+exp(-kx)2e(l)i+(1-α(l)+exp(-kx)2)e(l)jm(8)
式中x為當(dāng)前負(fù)樣本項目jm在整個數(shù)據(jù)集與所有用戶的交互次數(shù),這在一定程度上代表該項目的流行度。k是一個超參數(shù),其可以靈活地調(diào)整不同數(shù)據(jù)集之間因交互密度的差距帶來的影響。式(8)中對流行度判斷因子exp(-kx)∈(0,1)和隨機(jī)因子α(l)∈(0,1)進(jìn)行求均值是考慮到在用流行度判斷因子控制正樣本嵌入信息注入的同時也要保留一定的隨機(jī)性,以便提高模型的泛化能力。最后將生成得到的難負(fù)樣本集記為ε′={e′(l)jm}。
2.3層組合擇優(yōu)策略
參考LightGCN模型對每層信息的聚合操作,在對難負(fù)樣本集ε′={e′(l)jm}中的每一層的M個嵌入隨機(jī)采樣一個e′(l)jm出來;例如當(dāng)l=3時,則假設(shè)可取出e′(0)ja、e′(1)jb、e′(2)jc和e′(3)jd一共4個難負(fù)樣本(注意:a,b,c,d均為隨機(jī)抽取可能都相同也可能都不同)。再將這取出的這些每一層的難負(fù)樣本的嵌入進(jìn)行平均加權(quán)求和得到e″(l)jm,表示為:
e″(l)jm=(e′(0)jm+e′(1)jm+…+e′(l)jm)1+l(9)
由M個嵌入組成的樣本集記為ε″={e″(l)jm}。最后將用戶u的嵌入與樣本集ε″的嵌入進(jìn)行式(5)的內(nèi)積操作選出最高的得分y︿uj,表示為:
y︿uj=argmaxej∈ε″(eΤuejm)(10)
最后將得到的難負(fù)樣本評分y︿uj通過式(6)BRP損失函數(shù)進(jìn)行損失計算,再通過Adam優(yōu)化器進(jìn)行參數(shù)優(yōu)化更新。
3" 實驗表1" 數(shù)據(jù)集中各項數(shù)據(jù)
數(shù)據(jù)集用戶數(shù)項目數(shù)交互數(shù)密度
Alibaba106 04253 591907 4070.000 16
Yelp201831 66838 0481 561 4060.001 30
3.1" 實驗數(shù)據(jù)集及實驗環(huán)境
本研究的實驗數(shù)據(jù)集來使用Alibaba和Yelp2018兩個公開數(shù)據(jù)集,并使用了和文獻(xiàn)[10]一樣的數(shù)據(jù)處理和分割方式,每個數(shù)據(jù)集僅由用戶-項目交互組成,數(shù)據(jù)的詳細(xì)信息見表1。實驗環(huán)境為PC機(jī);Windows11操作系統(tǒng);編程語言Python3.7.6;Pytorch1.7.0;GPU:RTX2080Ti。
3.2" 評價指標(biāo)以及參數(shù)設(shè)置
本實驗選擇召回率(Recall@N)和歸一化折損累計增益(Normalized Discounted Cumulative Gain,NDCG@N);本實驗的N選擇為20。這兩個評價指標(biāo)是目前圖卷積神經(jīng)網(wǎng)絡(luò)推薦系統(tǒng)中較為流行常用的評價指標(biāo),選擇這兩個直接也方便與其他主流模型算法作比較。
參數(shù)設(shè)置:傳播層數(shù)l=3,嵌入維度d=64,學(xué)習(xí)率lr=0.001,batch size=2048;由于本算法引入兩個超參數(shù)候選集M以及可以調(diào)整不同數(shù)據(jù)集之間因交互密度的差距帶來的影響的超參數(shù)k; 在Alibaba數(shù)據(jù)集中M=32,k=0.1;在Yelp2018數(shù)據(jù)集中M=64,k=0.5。
3.3" 實驗基準(zhǔn)
LightGCN:LightGCN模型作為本次實驗的基礎(chǔ)模型,其優(yōu)點是去除原始NGCF模型中不必要的非線性激活函數(shù)和疊加形式的特征變換。只保留了GCN主要的傳播過程,直接讓嵌入向量的信息在用戶和項目間流動,減少了模型的復(fù)雜性和參數(shù)數(shù)量,提升了學(xué)習(xí)效率。
IRGAN[11]:IRGAN 是一種基于 GAN 的對抗負(fù)采樣機(jī)制,旨在提高推薦系統(tǒng)中負(fù)樣本的質(zhì)量。其將推薦器集成到生成對抗網(wǎng)絡(luò)中,其中生成器作為采樣器執(zhí)行以挑選負(fù)數(shù)以混淆推薦器。本次實驗將LightGCN模型與IRGAN負(fù)采樣算法進(jìn)行組合作為對比模型之一。
MixGCF[10]:MixGCF作為一個通用的負(fù)采樣算法,通過合成引入了正混合和跳躍混合技術(shù),通過混合來自不同局部圖的信息來合成難負(fù)樣本,豐富負(fù)樣本的信息量從而代替從數(shù)據(jù)中采樣原始負(fù)樣本。本實驗將LightGCN模型與MixGCF負(fù)采樣算法進(jìn)行組合作為對比模型之一。
IA-GCN[12]:IA-GCN模型是一種新穎的GCN網(wǎng)絡(luò)推薦算法模型,與LightGCN模型相比,引入了交互注意力機(jī)制。其特點強(qiáng)調(diào)學(xué)習(xí)鄰居節(jié)點與目標(biāo)節(jié)點之間的相似性,為目標(biāo)節(jié)點賦予更高的注意力權(quán)重。使得圖卷積操作能更有效地提煉出與目標(biāo)節(jié)點有關(guān)的信息。
SGL[13]:SGL是通過自監(jiān)督學(xué)習(xí)方法對LightGCN進(jìn)行了擴(kuò)展和增強(qiáng)的一種GCN網(wǎng)絡(luò)模型。其提高了LightGCN推薦模型的性能。其核心思想是通過自監(jiān)督學(xué)習(xí)任務(wù)提供額外的監(jiān)督信號,以增強(qiáng)傳統(tǒng)的僅依賴于用戶物品交互的監(jiān)督信號。通過自監(jiān)督學(xué)習(xí)任務(wù)補(bǔ)充額外的監(jiān)督信號,并增強(qiáng)模型的表示學(xué)習(xí)魯棒性,從而取得了推薦系統(tǒng)性能的提升。
3.4" 實驗結(jié)果及分析
本次實驗對比3種負(fù)采樣方法與LightGCN模型的組合(LightGCN模型本身使用的隨機(jī)采樣的負(fù)采樣方法)以及其他的圖卷積神經(jīng)網(wǎng)絡(luò)推薦系統(tǒng)模型進(jìn)行比對。實驗結(jié)果見表2,其中下畫線表示最佳基線結(jié)果,粗體字表示最優(yōu)結(jié)果。
從表2中的實驗結(jié)果可以看出:IA-GCN模型和SGL模型都是在GCN網(wǎng)絡(luò)推薦算法模型這一領(lǐng)域進(jìn)行探索和拓展研究,在與同樣是GCN網(wǎng)絡(luò)的LightGCN模型進(jìn)行比較時,在Recall和NDCG這兩個指標(biāo)上都取得不錯的提升。但是對比LightGCN模型與IRGAN和MixGCF以及本研究算法的這些負(fù)采樣方法進(jìn)行結(jié)合的模型進(jìn)行對比時比較還是有所欠缺。這說明在GCN網(wǎng)絡(luò)推薦系統(tǒng)中進(jìn)行負(fù)采樣方法的研究和改善對GCN網(wǎng)絡(luò)推薦系統(tǒng)性能的提升很大。然后再對比本算法與采用隨機(jī)負(fù)采樣方法的LightGCN模型,在Alibaba和Yelp2018數(shù)據(jù)集上,recall和NDCG指標(biāo)都有大幅提升。而和表現(xiàn)最好的基線模型LightGCN+MixGCF進(jìn)行對比,在Alibaba數(shù)據(jù)集上recall和NDCG這兩個指標(biāo)均有所提升;而在Yelp2018數(shù)據(jù)集上則是在recall指標(biāo)上小幅提升而在NDCG指標(biāo)上則是小幅下降。比較Alibaba和Yelp2018的密度差距,由此可以看出本算法在交互密度較小的數(shù)據(jù)集上能取得不錯的成績。
3.5" 超參數(shù)取值實驗的分析
對M的取值{16,32,64}進(jìn)行消融實驗可得結(jié)果見表3。理論上M取值越大,候選集的信息越豐富,對于最后的推薦結(jié)果就會越好;但是這還得結(jié)合各個數(shù)據(jù)集的規(guī)模大小的不同而去通過實驗論證,而且隨著M的增大,所需要的時間也會隨著之而增加。而且從實驗結(jié)果得知交互密度較小的Alibaba數(shù)據(jù)集在M=32時已經(jīng)取得了最好的性能,無須再繼續(xù)加大M的數(shù)值。
對k的取值{0.1,0.5}進(jìn)行消融實驗可得結(jié)果見表4。k能靈活地調(diào)整不同數(shù)據(jù)集之間因交互密度的差距帶來的影響。使用交互密度較小的Alibaba數(shù)據(jù)集時k取0.1能得到最好的性能,而交互密度較大的Yelp2018數(shù)據(jù)集則需k取0.5才能得到最佳性能。
4" 結(jié)語
圖神經(jīng)網(wǎng)絡(luò)推薦系統(tǒng)常見的隨機(jī)負(fù)采樣方法存在的效率不高以及性能不佳的問題可通過研究生成難負(fù)樣本的方法解決。本研究提出流行度判斷因子概念并結(jié)合mixpu數(shù)據(jù)增強(qiáng)方法將正負(fù)樣本信息融合后,再通過層組合擇優(yōu)策略選出最高分的信息量豐富的負(fù)樣本。實驗證明,本方法能有效提升圖神經(jīng)網(wǎng)絡(luò)推薦系統(tǒng)的推薦效率。后續(xù)的研究還需要嘗試更多的正負(fù)樣本信息融合方法以及更多嘗試難負(fù)樣本集擇優(yōu)策略,并在各種交互密度不同的數(shù)據(jù)集進(jìn)行驗證其性能表現(xiàn)。
參考文獻(xiàn):
[1]" WU L,HE X,WANG X,et al.A survey on accuracy-oriented neural recommendation:From collaborative filtering to information-rich recommendation[J].IEEE Transactions on Knowledge and Data Engineering,2022,35(5):4425-4445.
[2]" 葛堯,陳松燦.面向推薦系統(tǒng)的圖卷積網(wǎng)絡(luò)[J].軟件學(xué)報,2020,31(4):12.
[3]" WANG X,HE X,WANG M,et al.Neural graph collaborative filtering[C]//Proceedings of the 42nd international ACM SIGIR conference on Research and development in Information Retrieval,2019:165-174.
[4]" LIU X,YAN M,DENG L,et al.Sampling methods for efficient training of graph convolutional networks:A survey[J].IEEE/CAA Journal of Automatica Sinica,2021,9(2):205-234.
[5]" HE X,DENG K,WANG X,et al.Lightgcn:Simplifying and powering graph convolution network for recommendation[C]//Proceedings of the 43rd International ACM SIGIR conference on research and development in Information Retrieval,2020:639-648.
[6]" RENDLE S,F(xiàn)REUDENTHALER C,GANTNER Z,et al.BPR:Bayesian personalized ranking from implic-it feedback[C]// Proceedings of the 25th Conferenceon Uncertainty in Artificial Intelligence.Montreal,QC,Canada:AUAI Press,2009:452-461.
[7]" ROBINSON J,CHUANG C Y,SRA S,et al.Contrastive learning with hard negative samples[J].arXiv preprint arXiv:2010.04592,2020.
[8]" ZHANG H,CISSE M,DAUPHIN Y N,et al.mixup:Beyond empirical risk minimization[J].arXiv preprint arXiv:1710.09412,2017.
[9]" KALANTIDIS Y,SARIYILDIZ M B,PION N,et al.Hard negative mixing for contrastive learning[J].Advances in Neural Information Processing Systems,2020,33:21798-21809.
[10]HUANG T,DONG Y,DING M, et al. Mixgcf:An improved training method for graph neural network-based recommender systems[C]//Proceedings of the 27th ACM SIGKDD Conference on Knowledge Discovery amp; Data Mining,2021:665-674.
[11]WANG J,YU L,ZHANG W,et al.Irgan:A minimax game for unifying generative and discriminative information retrieval models[C]//Proceedings of the 40th International ACM SIGIR conference on Research and Development in Information Retrieval,2017:515-524.
[12]ZHANG Y,WANG P,ZHAO X, et al. IA-GCN:Interactive Graph Convolutional Network for Recommendation[J].arXiv preprint arXiv:2204.03827,2022.
[13]WU J,WANG X,F(xiàn)ENG F,et al.Self-supervised graph learning for recommendation[C]//Proceedings of the 44th international ACM SIGIR conference on research and development in information retrieval,2021:726-735.
[責(zé)任編輯:黃天放]