黃文濤 潘宇 程樹林
摘要:在會(huì)話推薦領(lǐng)域中,基于圖神經(jīng)網(wǎng)絡(luò)挖掘和提取項(xiàng)目特征是一種主流方法。由于會(huì)話中的項(xiàng)目轉(zhuǎn)換通常受到多個(gè)項(xiàng)目的協(xié)同影響,且大多數(shù)推薦算法忽略了項(xiàng)目和會(huì)話的嵌入表示在嵌入空間中的分布情況對(duì)推薦任務(wù)的影響,使得推薦系統(tǒng)難以獲得高質(zhì)量的嵌入表示,從而影響了推薦性能。為此,提出一種基于超圖神經(jīng)網(wǎng)絡(luò)和嵌入空間優(yōu)化的會(huì)話推薦方法。該方法首先基于會(huì)話序列特征采用超圖來建模項(xiàng)目間隱含的高階聯(lián)系,然后通過對(duì)比學(xué)習(xí)優(yōu)化項(xiàng)目的空間嵌入表示,最后通過注意力機(jī)制來劃分用戶的長(zhǎng)短期興趣。通過在兩個(gè)真實(shí)的公開數(shù)據(jù)集上進(jìn)行多個(gè)實(shí)驗(yàn),驗(yàn)證了該方法相對(duì)于基準(zhǔn)方法具有更好的推薦性能。
關(guān)鍵詞:推薦系統(tǒng);會(huì)話推薦;超圖神經(jīng)網(wǎng)絡(luò);對(duì)比學(xué)習(xí);注意力機(jī)制
中圖分類號(hào):TP181 文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):1009-3044(2024)13-0004-05 開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID) :
0 引言
推薦系統(tǒng)在應(yīng)對(duì)用戶信息過載問題中發(fā)揮著重要的信息過濾作用,尤其在電子商務(wù)和搜索引擎等場(chǎng)景下應(yīng)用廣泛,成為用戶信息篩選的重要途徑。傳統(tǒng)的推薦方法主要是學(xué)習(xí)用戶歷史數(shù)據(jù)以提供個(gè)性化的推薦結(jié)果。然而,受限于冷啟動(dòng)和用戶隱私保護(hù)等問題,在許多實(shí)際應(yīng)用中,系統(tǒng)不能完整地獲得長(zhǎng)期高度相關(guān)的用戶數(shù)據(jù)[1]。相比之下,基于會(huì)話的推薦系統(tǒng)[2-3](Session-based Recommendation System) 作為推薦系統(tǒng)的重要分支,通過對(duì)當(dāng)前會(huì)話中的用戶行為進(jìn)行建模,預(yù)測(cè)下一個(gè)可能點(diǎn)擊的項(xiàng)目,具有廣泛的工業(yè)應(yīng)用,特別適用于電子商務(wù)和搜索領(lǐng)域,并且彌補(bǔ)了傳統(tǒng)方法中的不足,成為當(dāng)前研究的熱點(diǎn)課題。
會(huì)話推薦的相關(guān)研究主要分為三個(gè)方面,即傳統(tǒng)會(huì)話推薦方法[4]、基于RNN[5-8] (Recurrent Neural Net?work) 的方法以及基于GNN[9](Graph Neural Network)的方法。傳統(tǒng)方法通常依賴協(xié)同過濾和最近鄰方法來定義項(xiàng)目之間的相似程度。這類方法只關(guān)注到項(xiàng)目出現(xiàn)在同一個(gè)會(huì)話的頻率以及項(xiàng)目之間的相似度,而忽略了其在會(huì)話中的序列關(guān)系和深層特征。為了提取項(xiàng)目之間的順序信息,研究人員提出了基于循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的方法,對(duì)會(huì)話進(jìn)行建模以挖掘順序特征[5]。由于深度神經(jīng)網(wǎng)絡(luò)具備優(yōu)秀的表示能力,RNN 的引入顯著提高了推薦系統(tǒng)的性能。近年來,研究人員發(fā)現(xiàn)將會(huì)話序列編碼成圖結(jié)構(gòu)更有利于捕獲項(xiàng)目之間復(fù)雜的轉(zhuǎn)換關(guān)系,由此提出了基于圖神經(jīng)網(wǎng)絡(luò)GNN的推薦方法[10-11]。通過在會(huì)話圖中傳播和更新節(jié)點(diǎn)信息,GNN方法可以獲得信息更豐富的項(xiàng)目嵌入表示,從而提供更準(zhǔn)確的推薦結(jié)果[12]。
最新的研究趨勢(shì)表明,在會(huì)話推薦領(lǐng)域,基于GNN的方法展現(xiàn)出更為顯著的優(yōu)勢(shì)[9,13,14]。因此,當(dāng)前主要的研究方向聚焦于對(duì)GNN方法的改進(jìn)[9,13,14],取得了較好的性能提升,但仍然存在一些局限性和不足:1) 在實(shí)際場(chǎng)景中,項(xiàng)目之間的關(guān)系呈現(xiàn)出復(fù)雜多樣的特性,多個(gè)項(xiàng)目之間通常相互影響并協(xié)同作用,這意味著項(xiàng)目之間存在隱含的高階聯(lián)系。然而,傳統(tǒng)的圖結(jié)構(gòu)難以準(zhǔn)確描述這種復(fù)雜的關(guān)聯(lián)性和依賴性。2) 目前許多研究并未充分挖掘項(xiàng)目表示在嵌入空間中的分布規(guī)律對(duì)推薦結(jié)果的影響。如何有效地將相似項(xiàng)目聚集在嵌入空間中相鄰的位置,同時(shí)確保不同項(xiàng)目之間具有足夠的區(qū)分度更是一項(xiàng)重要挑戰(zhàn)。
為此,本文提出一種融合了嵌入空間優(yōu)化的超圖卷積網(wǎng)絡(luò)HCNOES-SR(Hypergraph Convolution Net?work with Optimized Embedding Space for sessionbasedrecommendation) 。本文方法采用超圖作為表征工具來建模項(xiàng)目之間潛在的高階聯(lián)系。與傳統(tǒng)的圖結(jié)構(gòu)不同,超圖允許一條邊連接多于兩個(gè)節(jié)點(diǎn),稱為超邊。超邊是一組節(jié)點(diǎn)的集合,這些節(jié)點(diǎn)作為一個(gè)整體連接在一起,因此,超圖可以更靈活地表示節(jié)點(diǎn)之間復(fù)雜的關(guān)聯(lián)性。為了進(jìn)一步提升項(xiàng)目嵌入表示的質(zhì)量,本文模型引入了對(duì)比學(xué)習(xí),提出一種新的損失函數(shù)優(yōu)化項(xiàng)目在嵌入空間中的分布,在保證項(xiàng)目之間具有足夠區(qū)分度的前提下盡可能地使相似的項(xiàng)目聚集在嵌入空間中相近的位置。最終,引入注意力機(jī)制動(dòng)態(tài)地為項(xiàng)目分配不同的權(quán)重,從而使得模型更好地捕捉用戶關(guān)注的重點(diǎn)。通過多個(gè)實(shí)驗(yàn)驗(yàn)證,本文模型HCNOES-SR在召回率Recall以及平均倒數(shù)排名MRR 兩個(gè)典型指標(biāo)上表現(xiàn)出了良好的綜合性能。
1 模型框架與推薦方法
1.1 問題定義
會(huì)話推薦的目標(biāo)是根據(jù)當(dāng)前匿名會(huì)話中的項(xiàng)目預(yù)測(cè)用戶下一次可能點(diǎn)擊的項(xiàng)目。設(shè)I ={v1 ,v2,v3,...,vn } 數(shù)據(jù)集中包含所有的項(xiàng)目,S ={ vs,1,vs,2,vs,3,...,vs,l }為會(huì)話按時(shí)間順序排列的匿名會(huì)話,其中n 表示數(shù)據(jù)集中的項(xiàng)目數(shù)量,l 表示會(huì)話中的項(xiàng)目數(shù)量。因此,本文模型 HCNOES-SR 的任務(wù)是生成一個(gè)推薦項(xiàng)目集合C = { vc,1,vc,2,vc,3,...,vc,k },并選取排名最前的N 個(gè)項(xiàng)目作為最終的推薦結(jié)果。
1.2 模型框架
HCNOES-SR模型的總體結(jié)構(gòu)如圖1所示,包括4 個(gè)主要模塊:
1) 超圖構(gòu)建模塊。該模塊接受會(huì)話序列作為輸入,創(chuàng)建一個(gè)完整的會(huì)話超圖。每個(gè)會(huì)話被獨(dú)立表示為一條超邊,而會(huì)話內(nèi)的項(xiàng)目則兩兩相互連接。不同的會(huì)話通過共有的項(xiàng)目進(jìn)行連接。這一過程將項(xiàng)目之間隱含的多對(duì)多關(guān)系轉(zhuǎn)化為超邊之間的關(guān)聯(lián)。
2) 超圖卷積與信息傳播模塊。模型采用超圖卷積來實(shí)現(xiàn)項(xiàng)目特征的聚合,特征沿著有共享項(xiàng)目的超邊之間傳播,實(shí)現(xiàn)了“項(xiàng)目-超邊-項(xiàng)目”的特征傳遞。經(jīng)過多次迭代更新,每個(gè)項(xiàng)目能夠?qū)W習(xí)到更豐富的特征表示。
3) 嵌入空間優(yōu)化模塊?,F(xiàn)有研究表明,對(duì)比學(xué)習(xí)可以優(yōu)化項(xiàng)目嵌入表示的對(duì)齊性和統(tǒng)一性,并對(duì)下游任務(wù)具有積極影響[15]。因此,為了優(yōu)化嵌入表示質(zhì)量,HCNOES-SR模型在采用有監(jiān)督學(xué)習(xí)和自監(jiān)督學(xué)習(xí)相結(jié)合的策略下,提取項(xiàng)目特征并生成嵌入表示。通過交叉熵?fù)p失減小相似項(xiàng)目之間的距離,并采用對(duì)比學(xué)習(xí)損失增加兩項(xiàng)目之間的距離,使得項(xiàng)目在嵌入空間中的分布更為合理。
4) 預(yù)測(cè)模塊。通過應(yīng)用注意力機(jī)制來融合會(huì)話中包含的項(xiàng)目特征,生成最終的會(huì)話表示,用于進(jìn)行用戶推薦預(yù)測(cè)。這一部分有助于模型更好地理解用戶的長(zhǎng)短期興趣,從而提供個(gè)性化的推薦結(jié)果。
1.3 會(huì)話超圖構(gòu)建與信息傳播
1.3.1 構(gòu)建會(huì)話超圖
為了有效捕獲項(xiàng)目之間潛在的成對(duì)關(guān)系,本文將多條會(huì)話序列建模為一張超圖GS = (VS,ES )。在超圖中,每條超邊代表兩個(gè)或多個(gè)項(xiàng)目的組合,表示[VS,1,VS,2,VS,3,...,VS,M ] ∈ ES,頂點(diǎn)為超圖所包含項(xiàng)目的集合{V1,V2,V3,...,Vn } ∈ VS。假設(shè)該超圖包含M條會(huì)話以及N 個(gè)不同的項(xiàng)目,那么可以用一個(gè)關(guān)聯(lián)矩陣I ∈ RN × M 來表示這個(gè)超圖的結(jié)構(gòu)。如果第m 條超邊包含第n 個(gè)項(xiàng)目,則關(guān)聯(lián)矩陣對(duì)應(yīng)的元素值為Inm = 1,否則為Inm = 0。此外,每個(gè)頂點(diǎn)和超邊的度可以分別用兩個(gè)矩陣表示:頂點(diǎn)度矩陣Dii = ΣMe = 1 Iie 和超邊度矩陣Bii = ΣNi = 1 Iie。其中,節(jié)點(diǎn)的度表示與該節(jié)點(diǎn)直接連接的超邊的數(shù)量。節(jié)點(diǎn)的度越高表示該節(jié)點(diǎn)參與了更多的高階關(guān)系,具有更復(fù)雜的關(guān)聯(lián)性。超邊的度表示連接到該超邊的節(jié)點(diǎn)的數(shù)量,超邊的度越高表示這條超邊涵蓋了更多的節(jié)點(diǎn),具有更廣泛的關(guān)聯(lián)性。
1.3.2 超圖神經(jīng)網(wǎng)絡(luò)
與傳統(tǒng)圖神經(jīng)網(wǎng)絡(luò)類似,超圖神經(jīng)網(wǎng)絡(luò)[15]也是當(dāng)前廣泛使用的深度學(xué)習(xí)模型之一。它可以為會(huì)話圖中包含的項(xiàng)目生成高維向量以表示項(xiàng)目豐富的特征,即項(xiàng)目的嵌入表示。在超圖構(gòu)建階段,模型為每個(gè)項(xiàng)目初始化一個(gè)嵌入向量xi ∈ Rd。然后,通過多層的卷積操作,將鄰居節(jié)點(diǎn)的特征信息傳遞并融合到當(dāng)前節(jié)點(diǎn),這使得每個(gè)節(jié)點(diǎn)的嵌入表示不僅包含自身的特征,同時(shí)也包含了鄰居節(jié)點(diǎn)的特征和上下文的結(jié)構(gòu)信息。本文采用譜超圖卷積更新項(xiàng)目的嵌入表示,如公式(1) 和(2) 所示:
其中,x(l + 1) i 表示第i 個(gè)項(xiàng)目在l+1 層的嵌入表示,C(l) ∈ Rd × d 是不同卷積層中可學(xué)習(xí)的參數(shù)矩陣。公式(2) 為公式(1) 的矩陣表示形式,X (l + 1) h 為所有項(xiàng)目在l+1 層的嵌入表示,I 為超圖的關(guān)聯(lián)矩陣,D、B 分別為頂點(diǎn)和超邊的度矩陣。
1.4 項(xiàng)目空間分布優(yōu)化
對(duì)比學(xué)習(xí)(contrastive learning, CL) [16]已在多個(gè)研究領(lǐng)域,如計(jì)算機(jī)視覺和自然語言處理等,取得了顯著成功。其主要功能是將相似的節(jié)點(diǎn)映射到嵌入空間相鄰的位置,同時(shí)將不相似節(jié)點(diǎn)分散開。Wang等[15]研究發(fā)現(xiàn),對(duì)比學(xué)習(xí)通過提高嵌入空間的分布情況、提高特征表示的質(zhì)量,改進(jìn)了模型對(duì)數(shù)據(jù)的理解,使其能夠更好地區(qū)分不同類別的數(shù)據(jù)。盡管對(duì)比學(xué)習(xí)可以帶來性能提升,但其需要通過添加噪聲擾動(dòng)、舍棄部分節(jié)點(diǎn)等數(shù)據(jù)增強(qiáng)手段來設(shè)計(jì)復(fù)雜的正負(fù)樣例和采樣策略。因此,本文提出了一種簡(jiǎn)化的正負(fù)樣例構(gòu)建策略。具體來說,在每個(gè)訓(xùn)練批次中,本文將每個(gè)項(xiàng)目自身作為正樣例,對(duì)于每個(gè)項(xiàng)目隨機(jī)采樣十個(gè)嵌入空間中的其他項(xiàng)目作為負(fù)樣例。通過多次迭代,逐漸增加項(xiàng)目之間的距離,使得項(xiàng)目的嵌入表示在嵌入空間中的分布更具區(qū)分度。這種簡(jiǎn)化的方法能夠提高嵌入空間的質(zhì)量,有助于模型對(duì)不同特征進(jìn)行平衡學(xué)習(xí),避免過于關(guān)注某些特征。同時(shí),減少了對(duì)復(fù)雜數(shù)據(jù)增強(qiáng)技術(shù)的依賴以及計(jì)算開銷,為對(duì)比學(xué)習(xí)的實(shí)際應(yīng)用提供了更高效的選擇。因此,對(duì)于一組包含n個(gè)項(xiàng)目的嵌入表示,本文提出的對(duì)比學(xué)習(xí)損失函LCL數(shù)如公式(3) 所示:
式中,f (x,x′)的計(jì)算方式為esim(x,x′)/τ,sim(x,x′)通過項(xiàng)目嵌入向量?jī)?nèi)積實(shí)現(xiàn),τ 是溫度超參數(shù)用以控制分布的平滑度。
1.5 會(huì)話嵌入生成
1.5.1 注意力機(jī)制
為了準(zhǔn)確評(píng)估每個(gè)項(xiàng)目在會(huì)話中的重要性,在HCNOES-SR模型中引入了軟注意力機(jī)制,用于計(jì)算每個(gè)項(xiàng)目的注意力系數(shù)。其主要策略是通過衡量每個(gè)項(xiàng)目與用戶主要意圖的相關(guān)性來確定該項(xiàng)目在整個(gè)會(huì)話中的影響程度。為此,本文采用對(duì)會(huì)話中所有項(xiàng)目的特征取平均來度量用戶在該次會(huì)話的主要意圖。因此,對(duì)于一個(gè)包含m 個(gè)項(xiàng)目的會(huì)話,每個(gè)項(xiàng)目的注意力系數(shù)的度量方式如公式(4) 所示:
ai = W0σ(W1 xi + W2em + b) (4)
式中,W0 ∈ Rd、W1 ∈ Rd × d、W2 ∈ Rd × d 是可學(xué)習(xí)的參數(shù)矩陣,b ∈ Rd 是偏置向量。σ 是sigmoid 激活函數(shù)。xi 為每個(gè)項(xiàng)目的嵌入表示,em 為所有項(xiàng)目嵌入表示的平均向量。
1.5.2 會(huì)話嵌入
為了綜合考慮用戶的短期和長(zhǎng)期興趣,本文將會(huì)話的嵌入表示劃分為兩部分,分別是短期偏好Sl 和全局偏好Sg。由于會(huì)話的最后一個(gè)項(xiàng)目通常能夠更好地反映用戶當(dāng)前的關(guān)注點(diǎn),因此本文將會(huì)話的最后一個(gè)項(xiàng)目的嵌入表示作為短期偏好。同時(shí),為了綜合考慮用戶在本次會(huì)話中的行為,本文將每個(gè)項(xiàng)目的嵌入表示按照其注意力系數(shù)進(jìn)行加權(quán)求和,作為用戶的全局偏好。短期興趣Sl 和長(zhǎng)期興趣Sg 分別如公式(5) 和(6) 所示:
因此,通過融合短期偏好和全局偏好得到會(huì)話的最終嵌入表示,如公式(7) 所示:
S = W3 [ Sl ? Sg ] (7)
式中,[?]表示向量拼接操作,W3 ∈ Rd × 2d 是映射矩陣將S從R2d轉(zhuǎn)換為Rd。
1.6 模型訓(xùn)練與推薦生成
通過計(jì)算項(xiàng)目嵌入和會(huì)話嵌入的向量?jī)?nèi)積,可以得出每個(gè)項(xiàng)目的推薦分值。該分值反映了項(xiàng)目與當(dāng)前會(huì)話的匹配程度,從而決定了其在推薦列表中的排名。經(jīng)過歸一化和降序排列以后,本文分別取前10項(xiàng)和前20項(xiàng)作為最終的推薦結(jié)果。通過Softmax 函數(shù)對(duì)每個(gè)項(xiàng)目的推薦分值進(jìn)行歸一化處理,如公式(8) 所示:
y = Soft max(y1,y2,y3,...,yn ) (8)
式中,yi 表示項(xiàng)目xi 出現(xiàn)在該會(huì)話中的推薦分值,yi =< S ? xi >,y 表示經(jīng)過歸一化后的概率分布。
最后,本文使用交叉熵?fù)p失函數(shù)來訓(xùn)練模型,如公式(9) 所示:
式中,pi 為項(xiàng)目xi 是否被推薦的真實(shí)值,如項(xiàng)目xi是會(huì)話的最后一個(gè)項(xiàng)目則pi為1,否則為0。
2 實(shí)驗(yàn)結(jié)果與分析
2.1 數(shù)據(jù)集
為了驗(yàn)證模型的有效性,本實(shí)驗(yàn)分別在兩個(gè)真實(shí)的公共數(shù)據(jù)集Diginetica和Nowplaying上進(jìn)行訓(xùn)練和測(cè)試。其中,Diginetica是2016年CIKM挑戰(zhàn)杯比賽中發(fā)布的個(gè)性化電子商務(wù)數(shù)據(jù)集,由來自在線商店5個(gè)月內(nèi)的用戶交互記錄組成,包含600 684個(gè)用戶,184047個(gè)商品和993 484條點(diǎn)擊記錄。Nowplaying是個(gè)性化音樂推薦數(shù)據(jù)集,主要包含用戶的音樂播放歷史、曲目名稱、藝術(shù)家信息、播放時(shí)間戳等。實(shí)驗(yàn)前先對(duì)兩個(gè)數(shù)據(jù)集進(jìn)行了預(yù)處理,刪除了長(zhǎng)度為1的會(huì)話并過濾了出現(xiàn)次數(shù)少于5次的項(xiàng)目,最終數(shù)據(jù)集統(tǒng)計(jì)信息如表1所示。
2.2 評(píng)價(jià)指標(biāo)
本文采用了2種廣泛應(yīng)用于推薦領(lǐng)域的典型評(píng)價(jià)指標(biāo),即P@K(Precision @ K) 和MRR@K(Mean Recip?rocal Rank @K) 來進(jìn)行實(shí)驗(yàn)結(jié)果評(píng)價(jià)。其中,P@K用以表示推薦結(jié)果中前K個(gè)項(xiàng)目中用戶實(shí)際感興趣的比例,即推薦的準(zhǔn)確性;而MRR@K表示前K個(gè)推薦結(jié)果中正確項(xiàng)目的倒數(shù)排名,即正確的項(xiàng)目是否排在靠前的位置。通過這兩個(gè)指標(biāo)可以評(píng)價(jià)模型的推薦質(zhì)量和排序效果。
2.3 基準(zhǔn)模型和實(shí)驗(yàn)設(shè)置
2.3.1 基準(zhǔn)模型
為了對(duì)比模型性能,本文選取了傳統(tǒng)方法和深度學(xué)習(xí)方法中具有代表性的方法作為對(duì)比,各方法信息簡(jiǎn)述如下:
1) FPMC[4]。該算法將用戶歷史行為序列建模為馬爾科夫鏈,并使用矩陣分解技術(shù)分別學(xué)習(xí)項(xiàng)目和用戶的特征。最終根據(jù)用戶歷史行為和上下文信息生成個(gè)性化推薦。
2) GRU4REC[5]。該算法采用基于RNN 改進(jìn)的模型捕獲項(xiàng)目在會(huì)話中的順序關(guān)系和上下文信息。通過門控循環(huán)單元減輕了梯度消失問題,并針對(duì)會(huì)話的小批次數(shù)據(jù)使用基于排名的損失函數(shù)優(yōu)化模型,獲得了較好的推薦性能。
3) NARM[6]。該算法基于GRU4REC算法進(jìn)行改進(jìn),通過在RNN中增加注意力機(jī)制動(dòng)態(tài)調(diào)整每個(gè)項(xiàng)目在會(huì)話中的重要性,從而進(jìn)一步提高了推薦精度。
4) STAMP[17]。該算法考慮到了時(shí)間因素對(duì)推薦效果的影響,使模型能夠理解用戶興趣的動(dòng)態(tài)演化過程。
5) SR-GNN[9]。該算法首次將基于圖的算法引入會(huì)話推薦領(lǐng)域,利用圖結(jié)構(gòu)表示項(xiàng)目之間的關(guān)聯(lián)性,并通過圖卷積傳播項(xiàng)目特征獲得了高質(zhì)量的項(xiàng)目嵌入表示,從而提升了性能。
2.3.2 實(shí)驗(yàn)設(shè)置
本文模型HCNOES-SR在實(shí)驗(yàn)中設(shè)定嵌入向量的維度為100,每個(gè)訓(xùn)練批次大小也為100。同時(shí),本文采用Adam優(yōu)化器調(diào)優(yōu)模型,其中初始的學(xué)習(xí)率設(shè)置為0.001,并在每三次訓(xùn)練迭代后將學(xué)習(xí)率衰減10%。此外,如果在3次訓(xùn)練迭代后兩個(gè)實(shí)驗(yàn)指標(biāo)都沒有提升,則提前終止訓(xùn)練。
2.4 性能比較與分析
為了評(píng)估模型的綜合表現(xiàn),本文通過實(shí)驗(yàn)與其他基準(zhǔn)模型在四個(gè)指標(biāo)上進(jìn)行了比較和分析。實(shí)驗(yàn)結(jié)果如表2所示。
通過對(duì)表2進(jìn)行分析:1) 傳統(tǒng)矩陣分解方法(如FPMC) 通常基于項(xiàng)目的共現(xiàn)或連續(xù)性生成推薦結(jié)果。這些方法使用相對(duì)簡(jiǎn)單的模型,難以提取和表示項(xiàng)目?jī)?nèi)復(fù)雜的信息。相比之下,深度學(xué)習(xí)方法充分利用神經(jīng)網(wǎng)絡(luò)的信息表示能力,因此在性能上優(yōu)于傳統(tǒng)方法。2) 在使用循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN) 的方法中,GRU4REC模型的表現(xiàn)相對(duì)較差,而NARM取得更好的推薦性能。主要是因?yàn)镚RU4REC模型僅使用了序列信息,而NARM通過引入注意力機(jī)制綜合考慮了序列信息和用戶的全局偏好。3) SR-GNN方法通過引入圖神經(jīng)網(wǎng)絡(luò)帶來了相對(duì)較大的提升,突顯了圖結(jié)構(gòu)在描述會(huì)話內(nèi)項(xiàng)目轉(zhuǎn)化信息的有效性。4) 本文模型HCNOES-SR通過對(duì)比學(xué)習(xí)優(yōu)化了項(xiàng)目的嵌入表示,有利于對(duì)相似項(xiàng)目細(xì)節(jié)上的不同進(jìn)行捕獲,因此顯著提高了模型的準(zhǔn)確度。
HCNOES-SR 模型之所以能取得優(yōu)異推薦性能主要有三個(gè)方面原因:1) 超圖內(nèi)的每條超邊具有與集合類似的性質(zhì),因此很好的對(duì)應(yīng)了項(xiàng)目間的高階多對(duì)多關(guān)系,有助于模型提取到更豐富的項(xiàng)目特征;2) 嵌入向量在嵌入空間的分布情況也會(huì)對(duì)最終的表示質(zhì)量產(chǎn)生重要影響,對(duì)比學(xué)習(xí)的應(yīng)用使得項(xiàng)目的嵌入表示分布更為均勻,也使得不同項(xiàng)目之間更具有區(qū)分度;3) 模型通過注意力機(jī)制學(xué)習(xí)到了不同項(xiàng)目的重要性,既抓住了用戶的當(dāng)前興趣,也囊括了用戶長(zhǎng)期的興趣。這些因素共同促成了HCNOESSR模型優(yōu)秀的性能。
2.5 消融性實(shí)驗(yàn)
為了驗(yàn)證模型中每個(gè)模塊的有效性,本文通過進(jìn)行消融性實(shí)驗(yàn)來評(píng)估每個(gè)模塊對(duì)整體性能的影響。具體而言,分別通過移除超圖卷積模塊(HCNOESSR-A) 、移除對(duì)比學(xué)習(xí)模塊(HCNOES-SR-B) 和注意力機(jī)制模塊(HCNOES-SR-C) 構(gòu)建3個(gè)子模型,并記錄性能變化,以探究每個(gè)模塊的作用。實(shí)驗(yàn)結(jié)果如表3 所示。
從表3可以觀察到,三個(gè)子模型在兩個(gè)數(shù)據(jù)集上均出現(xiàn)了不同程度的性能下降,因此超圖卷積模塊、對(duì)比學(xué)習(xí)模塊和注意力機(jī)制模塊均對(duì)整體的推薦性能產(chǎn)生了積極的促進(jìn)作用。
HCNOES-SR-A 子模型由于缺失了超圖卷積模塊,導(dǎo)致每個(gè)節(jié)點(diǎn)無法聚合鄰居節(jié)點(diǎn)的信息。對(duì)于兩個(gè)數(shù)據(jù)集的P@20和MRR@20指標(biāo),平均損失了7.1%和5.5% 的性能,驗(yàn)證了信息傳播過程對(duì)推薦系統(tǒng)提取項(xiàng)目特征的重要性。HCNOES-SR-B 子模型因?yàn)槿笔Я藢?duì)比學(xué)習(xí)對(duì)項(xiàng)目嵌入表示的優(yōu)化作用,在P@20 和MRR@20 兩個(gè)指標(biāo)上也分別損失了平均5.8% 和7.3% 的性能,說明項(xiàng)目在嵌入空間中均勻分布有助于推薦系統(tǒng)區(qū)分不同項(xiàng)目并提升性能。HCNOES-SR-C 子模型去除了注意力機(jī)制模塊,無法有效地區(qū)分會(huì)話中不同項(xiàng)目的重要性。對(duì)于兩個(gè)數(shù)據(jù)集的P@20和MRR@20指標(biāo)平均帶來了8% 和11.2% 的性能損失,這說明區(qū)分用戶的關(guān)注重點(diǎn)、捕捉用戶的長(zhǎng)短期興趣可以提供更有針對(duì)性的推薦結(jié)果。
在Diginetica數(shù)據(jù)集上,去除對(duì)比學(xué)習(xí)模塊帶來了較大的性能損失。這是因?yàn)閷?duì)比學(xué)習(xí)優(yōu)化了嵌入空間中的數(shù)據(jù)分布,從而提高了特征表示的質(zhì)量。這種優(yōu)化可以有利于模型對(duì)商品的歸類和區(qū)分,使得模型能夠更準(zhǔn)確地理解和利用商品之間的相似性和差異性。而在Nowplay?ing數(shù)據(jù)集上,去除注意力機(jī)制模塊帶來較大的性能下降。這是因?yàn)橐魳吠扑]需要考慮多個(gè)方面的用戶興趣,如音樂風(fēng)格、情感、時(shí)間偏好等。注意力機(jī)制可以幫助模型有效地捕獲和組合這些多維度的興趣,從而提供更具個(gè)性化的推薦。
2.6 參數(shù)分析
對(duì)比學(xué)習(xí)的關(guān)鍵作用是通過離散化嵌入空間中項(xiàng)目之間的距離,使得嵌入向量的分布更為均勻。為了探究對(duì)比學(xué)習(xí)中溫度超參數(shù)τ 對(duì)實(shí)驗(yàn)結(jié)果的影響,本文將其取值范圍設(shè)為{0.05, 0.1, 0.5, 1},并在兩個(gè)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)。不同取值對(duì)應(yīng)的實(shí)驗(yàn)結(jié)果如圖2所示。從實(shí)驗(yàn)結(jié)果可以看出,兩個(gè)數(shù)據(jù)集上的峰值性能分別在τ 取值為0.1和0.5時(shí)出現(xiàn)。這是因?yàn)樵趥€(gè)性化音樂推薦中,樂曲之間的相似性通常低于商品,需要取相對(duì)較大的溫度系數(shù)以使項(xiàng)目分布更趨于平滑。而在電子商務(wù)中,項(xiàng)目之間的關(guān)聯(lián)性通常較大,需要取相對(duì)較小的溫度系數(shù)以使項(xiàng)目分布更為集中。
3 結(jié)束語
本文提出了基于超圖卷積網(wǎng)絡(luò)和嵌入空間優(yōu)化的會(huì)話推薦模型HCNOES-SR。該模型利用超圖來建模項(xiàng)目間隱含的高階多對(duì)多聯(lián)系,并通過對(duì)比學(xué)習(xí)優(yōu)化了項(xiàng)目嵌入表示的分布和質(zhì)量。最終,通過注意力機(jī)制捕獲了用戶的長(zhǎng)短期興趣。在兩個(gè)真實(shí)數(shù)據(jù)集上進(jìn)行了一系列的實(shí)驗(yàn),驗(yàn)證了該模型總體上比基準(zhǔn)模型具有更為準(zhǔn)確的推薦性能。本文模型主要解決了會(huì)話推薦中項(xiàng)目間高階關(guān)聯(lián)關(guān)系的超圖建模和項(xiàng)目嵌入的空間分布優(yōu)化問題。下一步將繼續(xù)研究如何設(shè)計(jì)簡(jiǎn)潔高效的信息傳播方法,以構(gòu)建更為輕量化的模型,在不損失推薦精度和準(zhǔn)確率的前提下提升推薦的效率。
參考文獻(xiàn):
[1] LUDEWIG M,JANNACH D. Evaluation of session-based rec?ommendation algorithms[J]. User Modeling and User-AdaptedInteraction,2018,28(4):331-390.
[2] JANNACH D,QUADRANA M,CREMONESI P. Session-basedrecommender systems[M]//Recommender Systems Handbook.New York,NY:Springer US,2012:301-334.
[3] 趙海燕,趙佳斌,陳慶奎,等. 會(huì)話推薦系統(tǒng)[J]. 小型微型計(jì)算機(jī)系統(tǒng),2019,40(9):1869-1875.
[4] RENDLE S, FREUDENTHALER C, SCHMIDT-THIEME L.Factorizing personalized Markov chains for next-basket recom?mendation[C]//Proceedings of the 19th international conference on World wide web. Raleigh North Carolina USA. ACM,2010.
[5] HIDASI, BAL?ZS, et al. Session-based recommendations withrecurrent neural networks[EB/OL]. arXiv preprint arXiv:1511. 06939 .
[6] LI J,REN P J,CHEN Z M,et al. Neural attentive session-basedrecommendation[C]//Proceedings of the 2017 ACM on Confer?ence on Information and Knowledge Management. SingaporeSingapore. ACM,2017.
[7] TAN Y K,XU X X,LIU Y. Improved recurrent neural networksfor session-based recommendations[C]//Proceedings of the 1stWorkshop on Deep Learning for Recommender Systems. Bos?ton MA USA. ACM,2016.
[8] 李亞超,熊德意,張民. 神經(jīng)機(jī)器翻譯綜述[J]. 計(jì)算機(jī)學(xué)報(bào),2018,41(12):2734-2755.
[9] WU S,TANG Y Y,ZHU Y Q,et al. Session-based recommenda?tion with graph neural networks[J]. Proceedings of the AAAIConference on Artificial Intelligence,2019,33(1):346-353.
[10] 孫鑫,劉學(xué)軍,李斌,等.基于圖神經(jīng)網(wǎng)絡(luò)和時(shí)間注意力的會(huì)話序列推薦[J].計(jì)算機(jī)工程與設(shè)計(jì),2020,41(10):2913-2920.
[11] 林幸,邵新慧.基于圖神經(jīng)網(wǎng)絡(luò)的推薦系統(tǒng)模型[J].計(jì)算機(jī)應(yīng)用與軟件,2023,40(3):325-330.
[12] XIA X,YIN H Z,YU J L,et al.Self-supervised hypergraph con?volutional networks for session-based recommendation[J].Pro?ceedings of the AAAI Conference on Artificial Intelligence,2021,35(5):4503-4511.
[13] CHEN T W,WONG R C W.Handling information loss of graphneural networks for session-based recommendation[C]//Pro?ceedings of the 26th ACM SIGKDD International Conferenceon Knowledge Discovery & Data Mining. Virtual Event CAUSA.ACM,2020.
[14] PAN Z Q,CAI F,CHEN W Y,et al.Star graph neural networksfor session-based recommendation[C]//Proceedings of the29th ACM International Conference on Information & Knowl?edge Management.Virtual Event Ireland.ACM,2020.
[15] WANG T Z,ISOLA P.Understanding contrastive representa?tion learning through alignment and uniformity on the hyper?sphere[C]//International Conference on Machine Learning.PMLR, 2020.
[16] KHOSLA, PRANNAY, et al. Supervised contrastive learn?ing. Advances in neural information processing systems,2020 (33): 18661-18673.
[17] LIU Q,ZENG Y F,MOKHOSI R,et al.STAMP:short-term atten?tion/memory priority model for session-based recommendation[C]//Proceedings of the 24th ACM SIGKDD International Con?ference on Knowledge Discovery & Data Mining. LondonUnited Kingdom.ACM,2018.
【通聯(lián)編輯:唐一東】
基金項(xiàng)目:安徽省自然科學(xué)基金項(xiàng)目(2008085MF193,2308085MF223) ,安徽質(zhì)量工程項(xiàng)目(2021cyxy047)