国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

強(qiáng)化節(jié)點(diǎn)的全局重要度的會(huì)話推薦算法

2024-06-26 07:52:14龔文正謝程遠(yuǎn)張恒
電腦知識(shí)與技術(shù) 2024年13期

龔文正 謝程遠(yuǎn) 張恒

摘要:會(huì)話推薦旨在匿名會(huì)話中預(yù)測用戶下一次的交互信息?,F(xiàn)有基于圖神經(jīng)網(wǎng)絡(luò)的會(huì)話推薦模型(GNN) 在全局圖中融入了兩兩物品的轉(zhuǎn)移關(guān)系,但忽略了項(xiàng)目本身在全局圖中的重要性,從而影響了推薦精度。此外,在會(huì)話圖中對鄰居節(jié)點(diǎn)對當(dāng)前節(jié)點(diǎn)的影響考慮不全面。因此,提出了一種新的強(qiáng)化節(jié)點(diǎn)全局重要度的會(huì)話推薦算法(EGIN-SR,EnhancedGlobal Importance of Nodes Session Recommendation Algorithm) 。該算法在全局圖中利用PageRank計(jì)算每個(gè)項(xiàng)目的重要度,以此更加精準(zhǔn)地表示項(xiàng)目。同時(shí),設(shè)計(jì)了一種轉(zhuǎn)換感知權(quán)重聚合方法,可以感知到不同的節(jié)點(diǎn)轉(zhuǎn)換,突出不同鄰居對其自身的重要性。在Diginetica、Tmall天貓數(shù)據(jù)集和Nowplaying數(shù)據(jù)集上的實(shí)驗(yàn)表明,該方法在性能上優(yōu)于現(xiàn)有的主流方法,證明了此方法的有效性。

關(guān)鍵詞:會(huì)話推薦;圖神經(jīng)網(wǎng)絡(luò);節(jié)點(diǎn)信息;全局重要度

中圖分類號(hào):TP391 文獻(xiàn)標(biāo)識(shí)碼:A

文章編號(hào):1009-3044(2024)13-0017-04 開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID) :

0 引言

隨著互聯(lián)網(wǎng)的快速發(fā)展和信息的爆炸性增長,人們在面對海量的內(nèi)容和選擇時(shí)往往感到困惑和不知所措。在這個(gè)信息過載的時(shí)代,推薦系統(tǒng)[1]成了解決這一問題的有效工具?;跁?huì)話的推薦系統(tǒng)[2-4]作為推薦系統(tǒng)的重要分支之一,通過分析用戶的歷史行為和會(huì)話信息,能夠更準(zhǔn)確地理解用戶的興趣和需求,并為其提供個(gè)性化的推薦服務(wù)。

基于會(huì)話的推薦系統(tǒng)的工作原理是基于用戶在一段時(shí)間內(nèi)的行為和交互,而不僅僅是考慮單個(gè)事件。通過分析用戶的會(huì)話信息,包括點(diǎn)擊、瀏覽、購買等行為,可以更好地捕捉用戶的興趣演化和行為模式,并據(jù)此進(jìn)行推薦。會(huì)話是指用戶在一段時(shí)間內(nèi)的連續(xù)交互行為,可以包括點(diǎn)擊、瀏覽、購買等動(dòng)作。一些研究將其看作一個(gè)行為序列,早先的研究采用馬爾可夫鏈、主題模型、概率生成模型等方法來對會(huì)話序列進(jìn)行建模。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,越來越多的研究采用深度學(xué)習(xí)模型來分析用戶在不同上下文中的行為,以更好地理解用戶的興趣演化和行為模式。一些研究采用RNN對會(huì)話序列進(jìn)行建模,通過將會(huì)話序列作為輸入,RNN可以學(xué)習(xí)到會(huì)話中不同項(xiàng)目之間的關(guān)聯(lián)性和順序,進(jìn)而研究用戶行為的復(fù)雜性。以上方法包括早期的研究,都僅僅是對一個(gè)會(huì)話進(jìn)行建模,并從中發(fā)現(xiàn)用戶的興趣偏好。然而不同的會(huì)話確實(shí)包含著用戶的不同偏好信息,例如,用戶在一個(gè)會(huì)話中可能會(huì)連續(xù)瀏覽幾個(gè)相似的商品,這表明用戶對這類商品有較高的興趣。而在另一個(gè)會(huì)話中,用戶可能會(huì)點(diǎn)擊一些與之前不同類型的商品,這可能意味著用戶對其他類型的商品也有一定的興趣。盡管現(xiàn)有的方法都已取得了不錯(cuò)的效果,但是未考慮到項(xiàng)目的全局權(quán)重,可能會(huì)導(dǎo)致推薦結(jié)果的片面性和局限性。另一方面,其沒有對項(xiàng)目轉(zhuǎn)換的重要程度做區(qū)分。在會(huì)話中,不同的項(xiàng)目到項(xiàng)目的轉(zhuǎn)換反映了用戶不同的興趣與需求,通過了解項(xiàng)目轉(zhuǎn)換能夠捕捉用戶興趣的變化。

因此,我們提出了一種新的強(qiáng)化節(jié)點(diǎn)的全局重要度的會(huì)話推薦算法。首先為會(huì)話圖引入類型編碼,以此來區(qū)分來自不同會(huì)話以及豐富項(xiàng)目節(jié)點(diǎn)的信息。其次計(jì)算每個(gè)項(xiàng)目在全局圖上的重要度,為不同項(xiàng)目賦予不同的全局重要度。同時(shí),考慮通過項(xiàng)目轉(zhuǎn)換的頻率來判斷其重要性,并為其賦予更高的權(quán)重。在進(jìn)行信息傳播的過程中,為不同的轉(zhuǎn)換賦予不同的權(quán)重,較近發(fā)生的轉(zhuǎn)換也賦予更高的權(quán)重。較高的權(quán)重可以使該項(xiàng)目在推薦過程中更加突出,從而更好地滿足用戶的個(gè)性化需求。

1 相關(guān)研究

基于會(huì)話的推薦系統(tǒng)是一種利用用戶的會(huì)話歷史數(shù)據(jù)進(jìn)行個(gè)性化推薦的方法。這種推薦系統(tǒng)考慮了用戶在會(huì)話中的行為順序和上下文信息,能夠更準(zhǔn)確地理解用戶的興趣和需求。在基于會(huì)話的推薦中,根據(jù)對會(huì)話建模方式的不同,將基于會(huì)話的推薦模型分為基于序列的模型和基于圖的模型。

基于序列的模型將用戶的會(huì)話歷史看作一個(gè)序列,通過建立序列模型來預(yù)測用戶下一個(gè)可能感興趣的物品。這些方法通過分析會(huì)話歷史中物品出現(xiàn)的頻率和順序,來預(yù)測用戶下一個(gè)可能選擇的物品。微軟研究院提出了FPMC模型[5],該模型結(jié)合了馬爾可夫鏈和矩陣分解的思想。它將用戶的行為序列看作是一個(gè)馬爾可夫鏈,其中每個(gè)行為都是鏈中的一個(gè)狀態(tài)。FPMC模型通過學(xué)習(xí)用戶的行為序列,來捕捉用戶的興趣演化和行為模式。循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN) 和長短期記憶網(wǎng)絡(luò)(LSTM) [6]也是常用的序列模型,它們可以捕捉用戶在不同時(shí)間點(diǎn)的興趣演化和偏好變化。Hidasi等[7]提出的GRU4Rec推薦模型使用門控循環(huán)單元作為其核心組件。GRU4Rec的一個(gè)重要特點(diǎn)是它是一個(gè)無狀態(tài)模型,這意味著它不需要維護(hù)用戶的狀態(tài)信息。相比于其他基于會(huì)話的推薦模型,如FPMC, GRU4Rec更加簡單和高效。Zhang等[8]在GRU4Rec基礎(chǔ)上提出了STAMP 模型,與GRU4Rec 相比,STAMP 引入了時(shí)間信息,以更好地捕捉會(huì)話中物品的順序和時(shí)間間隔。基于序列的推薦模型在處理長時(shí)間間隔的會(huì)話時(shí)可能會(huì)遇到挑戰(zhàn)。由于模型主要關(guān)注最近的行為,長時(shí)間間隔的行為可能會(huì)被忽略,導(dǎo)致模型對用戶興趣的理解不準(zhǔn)確。在處理長序列時(shí),可能會(huì)遇到難以捕捉到遠(yuǎn)距離依賴關(guān)系的問題。

一些研究也引入圖思想進(jìn)行推薦?;趫D的模型將用戶的會(huì)話歷史表示為一個(gè)圖結(jié)構(gòu),其中物品作為節(jié)點(diǎn),用戶行為作為邊。通過分析圖結(jié)構(gòu)中的節(jié)點(diǎn)和邊的特征,可以推斷用戶的興趣和偏好。Wu等[9]提出了一種基于圖神經(jīng)網(wǎng)絡(luò)的會(huì)話推薦模型SR-GNN,它將用戶行為序列轉(zhuǎn)化為一個(gè)有向圖,使用圖神經(jīng)網(wǎng)絡(luò)充分學(xué)習(xí)用戶之間的關(guān)系和物品之間的交互信息,從而提高推薦的準(zhǔn)確性。Qiu等[10]將因子分解模型和圖神經(jīng)網(wǎng)絡(luò)進(jìn)行結(jié)合,在節(jié)點(diǎn)表示的計(jì)算中引入了因子分解的思想,將節(jié)點(diǎn)的表示分解為多個(gè)因子,以更好地建模節(jié)點(diǎn)之間的交互。但是由于引入了因子分解的計(jì)算,模型的復(fù)雜度較高,需要更多的計(jì)算資源和訓(xùn)練時(shí)間。DSAN[11]通過自注意力機(jī)制在會(huì)話中學(xué)習(xí)到其中商品之間的協(xié)作信息,即同一會(huì)話中不同商品之間的關(guān)系。GCE-GNN[12]通過引入圖上下文嵌入,將節(jié)點(diǎn)的鄰居節(jié)點(diǎn)信息和全局圖結(jié)構(gòu)信息融合到節(jié)點(diǎn)的嵌入表示中,使會(huì)話間可以互相輔助進(jìn)而生成表示。從全局層面與會(huì)話層面進(jìn)行建模學(xué)習(xí),同時(shí)結(jié)合兩個(gè)層面得到最終的表示。GCE-GNN[12]利用全局級項(xiàng)目表示學(xué)習(xí)層,在全局圖上傳播學(xué)習(xí)項(xiàng)目轉(zhuǎn)換信息,并且使用注意力機(jī)制來區(qū)分項(xiàng)目的重要性。

本文提出的模型在學(xué)習(xí)之前工作優(yōu)點(diǎn)的基礎(chǔ)上更深層次地對會(huì)話信息進(jìn)行挖掘,有效地利用這些信息從而進(jìn)一步提升推薦的精準(zhǔn)度。

2 EGIN-SR 模型框架

為了更好地利用大量會(huì)話中存在的相關(guān)信息,本文通過對會(huì)話級和全局級項(xiàng)目的處理,考慮每個(gè)項(xiàng)目的重要度和項(xiàng)目間轉(zhuǎn)換的重要性來增強(qiáng)推薦,更好地理解用戶需求,從而提供更具個(gè)性化的推薦。該算法的總體模型框架如圖1所示,主要由3個(gè)模塊組成:全局級項(xiàng)目表示學(xué)習(xí)、會(huì)話級項(xiàng)目表示學(xué)習(xí)以及推薦模塊。

2.1 問題定義

會(huì)話推薦的目標(biāo)是通過分析會(huì)話和全局信息的復(fù)雜聯(lián)系來預(yù)測用戶下一個(gè)可能訪問的項(xiàng)目。將會(huì)話轉(zhuǎn)化為一個(gè)會(huì)話圖,用以反映項(xiàng)目之間的轉(zhuǎn)換。用V = {v1,v2,...,v } n 表示全部n 個(gè)物品的集合。用S = {s1,s2,...,s } m 表示一個(gè)已知的會(huì)話S,si 表示用戶在會(huì)話S中的第i 次瀏覽的物品,m 表示瀏覽物品總次數(shù)。會(huì)話推薦的任務(wù)是從V中選出TOP值最大的N個(gè)物品Ntop (1 ≤ N ≤ |V |)個(gè)最可能的候選項(xiàng),用以預(yù)測會(huì)話S 的下一次點(diǎn)擊的項(xiàng)目sm + 1,并生成推薦列表。

2.2 會(huì)話圖構(gòu)建

會(huì)話圖是每個(gè)單獨(dú)的會(huì)話序列構(gòu)建而成,可以使得會(huì)話序列之間的轉(zhuǎn)換模式更加清晰。具體而言:對于給定的會(huì)話序列S = {s1,s2,...,s } m ,設(shè)Gs = (V ) s,Es 為其構(gòu)造的會(huì)話圖,其中,Vs ? V(V 表示所有會(huì)話項(xiàng)目);Es = {e } ij 表示會(huì)話中相鄰項(xiàng)目的邊的集合,eij 是會(huì)話中相鄰項(xiàng)目(si,sj) 。在這里,筆者采用SR-GNN的方法,為每條邊分配一個(gè)歸一化權(quán)重,其計(jì)算方式為邊的出現(xiàn)次數(shù)除以該邊的起始節(jié)點(diǎn)的出度。

2.3 全局圖構(gòu)建

全局圖是以所有會(huì)話中的項(xiàng)目表示的轉(zhuǎn)換信息構(gòu)建的,其中包含了所有會(huì)話中出現(xiàn)的領(lǐng)域項(xiàng)目。具體而言,設(shè)全局圖為G′ = (V′,E′),其中,V′包含V中所有項(xiàng)目的節(jié)點(diǎn)集合,E′ = {e } ij| (s ) i,sj | si ∈ V,sj ∈ Nε (s ) i是其邊的集合,Nε (s ) i 是節(jié)點(diǎn)si 的ε-領(lǐng)域。圖1中,我們構(gòu)建了全局圖(ε=2) ,并為其連接邊生成權(quán)重,用以區(qū)分si 的鄰居重要性。并且只保留圖G′上每個(gè)項(xiàng)目權(quán)重最高的前N 個(gè)邊,也不會(huì)動(dòng)態(tài)更新圖的拓?fù)浣Y(jié)構(gòu)。

2.4 全局圖項(xiàng)目學(xué)習(xí)

本模型構(gòu)建了一個(gè)全局級項(xiàng)目表示學(xué)習(xí)層,它在全局圖中傳播學(xué)習(xí)項(xiàng)目轉(zhuǎn)換信息,并使用注意力機(jī)制來區(qū)分項(xiàng)目的重要性。首先,考慮到項(xiàng)目的不同鄰居對自身具有不同程度的貢獻(xiàn),因此更準(zhǔn)確地判斷哪些鄰居對于生成準(zhǔn)確推薦更具影響力。因此,本文使用注意力機(jī)制來計(jì)算鄰居項(xiàng)目節(jié)點(diǎn)的注意力系數(shù),并根據(jù)當(dāng)前上下文和目標(biāo)項(xiàng)目自動(dòng)學(xué)習(xí)鄰居的貢獻(xiàn)度。注意力系數(shù)的計(jì)算如公式(1) :

式中,ei,j 表示鄰居節(jié)點(diǎn)vj 對節(jié)點(diǎn)vi 的重要性,并采用LeakyReLU 作為激活函數(shù),a* 為可學(xué)習(xí)的權(quán)重向量,ri,j 表示vj 和vi 的連接關(guān)系,h′i 和h′i 分別是節(jié)點(diǎn)vi 和其鄰居節(jié)點(diǎn)vj 的向量表示。由于圖中所有的節(jié)點(diǎn)之間并不全是相連接的,為了使不同的節(jié)點(diǎn)之間具有可比性,本文對其注意力系數(shù)進(jìn)行歸一化。如公式(2) :

由于節(jié)點(diǎn)的鄰居不同,它們之間的貢獻(xiàn)也不同。因此,注意系數(shù)αi,j 是不對稱的,Ni 表示節(jié)點(diǎn)i 的鄰居節(jié)點(diǎn)集。

有些項(xiàng)目可能會(huì)在不同的會(huì)話中出現(xiàn),并且可能會(huì)頻繁出現(xiàn)。這表明許多用戶對該項(xiàng)目有較大的偏好。通過計(jì)算全局重要度,可以識(shí)別在會(huì)話中具有重要地位的項(xiàng)目,并確保具有更高全局重要度的項(xiàng)目信息能夠快e速R傳an播k 到整個(gè)全局網(wǎng)絡(luò)。因此,本文利用Pag? 算法[13]來計(jì)算所有全局圖中項(xiàng)目在圖中的全局重要度,以此來更加精準(zhǔn)地表示項(xiàng)目,并進(jìn)一步提高模型的表達(dá)能力,如公式(3) 所示:

其中,PR(v ) i 為每個(gè)節(jié)點(diǎn)vi 的全局重要度,用v′為指向節(jié)點(diǎn)vi的節(jié)點(diǎn),in (v ) i 為節(jié)點(diǎn)vi的入度, out (v′)為v′的出度。為了防止沒有入度或出度使節(jié)點(diǎn)的PR值為0,加入了阻尼因子的d(0 ≤ d ≤ 1),并且保證每個(gè)節(jié)點(diǎn)的PR值之和為1。

以圖1為例,V4 有3個(gè)出度,分別指向了V5、V6、V7節(jié)點(diǎn),那么我們認(rèn)為用戶點(diǎn)擊V4 時(shí)下一個(gè)所點(diǎn)擊的項(xiàng)目就有V5、V6、V7 的可能性,概率為1/3。同樣地,我們可以得到全局圖中7個(gè)節(jié)點(diǎn)的轉(zhuǎn)移矩陣M,假設(shè)所有節(jié)點(diǎn)的初始重要度都是一樣的,即w0 全為1/7,設(shè)d 為0.85。通過一次轉(zhuǎn)移后,各節(jié)點(diǎn)的重要度w1如公式(6) :

得出的各節(jié)點(diǎn)重要度如圖1所示,在經(jīng)過n 次迭代后,可得到最終平衡狀態(tài)下各個(gè)節(jié)點(diǎn)的重要度。

在得到鄰居項(xiàng)目的注意力權(quán)重和全局重要度后,將鄰居項(xiàng)目信息進(jìn)行整合,生成新的項(xiàng)目特征hi,同時(shí),通過注意力機(jī)制,降低了物品特征學(xué)習(xí)的噪聲,如公式(7) 所示:

2.5 會(huì)話圖項(xiàng)目學(xué)習(xí)

全局圖中項(xiàng)目的鄰居對其自身的重要性不同,利用注意力機(jī)制來學(xué)習(xí)不同節(jié)點(diǎn)之間的權(quán)重。在會(huì)話圖中,許多項(xiàng)轉(zhuǎn)換發(fā)生的次數(shù)很多,說明兩者存在著很強(qiáng)的聯(lián)系,該轉(zhuǎn)換(邊)的重要性很高。因此,對于發(fā)生次數(shù)更多的轉(zhuǎn)換賦予更高的權(quán)重。

會(huì)話序列輸入到圖神經(jīng)網(wǎng)絡(luò)中,得到會(huì)話序列中涉及的所有項(xiàng)目表示為Ds = [h,v1 ] ,h,v2,...h,vm 同時(shí),用一個(gè)可學(xué)習(xí)的位置嵌入矩陣R=[r1,r2,...rm ],ri表示特定位置i 的向量,m 為會(huì)話序列長度,位置信息zi 通過級聯(lián)和非線性變化進(jìn)行聚合如公式(8) :

在進(jìn)行信息傳播的過程中,利用注意力機(jī)制為項(xiàng)目vi 的轉(zhuǎn)換邊集Ei 中不同的轉(zhuǎn)換賦予不同的權(quán)重k(vi,vj ),進(jìn)而計(jì)算得到基于項(xiàng)目轉(zhuǎn)換的項(xiàng)目表示hi 計(jì)算公式如下:

其中,tanh是激活函數(shù)W、Wk、Wp 和b 都是可學(xué)習(xí)的參數(shù),qT 與W 為線性轉(zhuǎn)換矩陣增強(qiáng)模型的擬合能力。

再對項(xiàng)目表示hi 進(jìn)行聚合,得到會(huì)話圖視角下的會(huì)話表示hs,計(jì)算如下公式(11) :

2.6 預(yù)測層

在2.4和2.5小節(jié)中分別得到全局圖與會(huì)話圖視角下的會(huì)話表示,為了進(jìn)行推薦預(yù)測計(jì)算全部候選項(xiàng)目分?jǐn)?shù)。本文首先將全局圖與會(huì)話圖視角下的會(huì)話表示進(jìn)行融合,得到最終的會(huì)話表示hl,計(jì)算公式如下:

hl = wT ? [ h ] i||hs (12)

其中,||為拼接操作,?為矩陣乘法運(yùn)算,wT 為可學(xué)習(xí)的參數(shù)矩陣。

最終,使用余弦相似度來計(jì)算會(huì)話表示l 與候選項(xiàng)目u的相似度Possibility(l, u),得到每個(gè)候選項(xiàng)目的推薦概率,計(jì)算如公式(13) :

式中,hu為候選項(xiàng)目的表示,hl為計(jì)算向量的模。

3 實(shí)驗(yàn)

3.1 數(shù)據(jù)集

本文旨在構(gòu)建基于會(huì)話的推薦模型,以建立準(zhǔn)確、個(gè)性化的用戶模型,從而理解用戶的興趣和需求,并根據(jù)這些信息進(jìn)行推薦。為驗(yàn)證所提模型的有效性和優(yōu)越性,選擇了三個(gè)數(shù)據(jù)集,分別是Diginetica、Tmall天貓數(shù)據(jù)集和Nowplaying。

1) Diginetica數(shù)據(jù)集是廣泛應(yīng)用于基于會(huì)話的推薦系統(tǒng)研究的開放數(shù)據(jù)集,為歐洲某電商平臺(tái)6個(gè)月內(nèi)所有匿名用戶的交易數(shù)據(jù),是CIKMCup2016公開數(shù)據(jù)集。2) Tmall天貓數(shù)據(jù)集是非常著名的電子商務(wù)數(shù)據(jù)集,被廣泛應(yīng)用于推薦系統(tǒng)和數(shù)據(jù)挖掘領(lǐng)域的研究,包含大量真實(shí)交易數(shù)據(jù),涵蓋多個(gè)商品類別和用i戶ng行為,包括數(shù)百萬用戶和數(shù)千萬商品。3) Nowplay? 數(shù)據(jù)集是用于基于會(huì)話的推薦系統(tǒng)的常用數(shù)據(jù)集之一,記錄了用戶在社交媒體平臺(tái)上發(fā)布的音樂播放信息,包括用戶ID、歌曲ID、播放時(shí)間等。這些數(shù)據(jù)可用于構(gòu)建用戶的音樂播放歷史和會(huì)話信息,從而為推薦系統(tǒng)提供更準(zhǔn)確的個(gè)性化推薦。以上數(shù)據(jù)集的詳細(xì)統(tǒng)計(jì)信息見表1。

3.2 實(shí)驗(yàn)設(shè)置

通過分析所提模型的原理和結(jié)構(gòu),發(fā)現(xiàn)影響預(yù)測效果的主要超參數(shù)包括訓(xùn)練輪次Epoch、隱藏層維度、注意力頭數(shù)、學(xué)習(xí)率等。因此,本研究對這些超參數(shù)進(jìn)行了一系列實(shí)驗(yàn),通過反復(fù)實(shí)驗(yàn)分析確定Epoch為20、隱藏層維度為16、注意力頭數(shù)為2,并采用學(xué)習(xí)率為1e-3的Adam優(yōu)化器對參數(shù)進(jìn)行優(yōu)化。為避免模型過擬合,筆者在每層之間設(shè)置了Dropout 層,將Dropout率設(shè)為0.5。

為更好地評估所提模型的預(yù)測效果,選擇了相關(guān)研究中較常用的評價(jià)指標(biāo)P@N 和MRR@N。其中, P@N通常用于評估推薦系統(tǒng)的性能,其中P表示準(zhǔn)確率(Precision) ,N表示推薦列表的長度(Top-N) 。該指標(biāo)表示在推薦列表中,有多少個(gè)項(xiàng)目是用戶真正感興趣的。例如,如果P@5為0.6,意味著在前5個(gè)推薦項(xiàng)目中,有60% 是用戶真正感興趣的。計(jì)算如公式(14) 所示,本文采用P@20作為衡量標(biāo)準(zhǔn)。

另一個(gè)評價(jià)指標(biāo)是MRR@N,它代表平均倒數(shù)排名(Mean Reciprocal Rank) ,N 表示推薦列表的長度(Top-N) 。MRR@N衡量了推薦系統(tǒng)在給定的推薦列表中,用戶感興趣的項(xiàng)目在排名中的平均位置。MRR@N的取值范圍是0~1,數(shù)值越接近1表示推薦系統(tǒng)的性能越好。該指標(biāo)可以幫助評估推薦系統(tǒng)在給定的推薦列表中,用戶感興趣的項(xiàng)目的排序質(zhì)量。計(jì)算如公式(15) 所示,本文采用MRR@20作為衡量標(biāo)準(zhǔn)。

式中,nhit 表示前k 項(xiàng)中正確推薦項(xiàng)目的數(shù)量,N 是總樣本數(shù),M 表示前k 項(xiàng)推薦項(xiàng)目中正確推薦的樣本集,Rank (t)是物品t在推薦中排名。

3.3 實(shí)驗(yàn)結(jié)果與分析

3.3.1 對比試驗(yàn)

為了驗(yàn)證強(qiáng)化節(jié)點(diǎn)全局重要度的會(huì)話推薦算法的有效性和優(yōu)越性,進(jìn)行了對比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表2 所示。本文選擇了經(jīng)典模型和最新模型進(jìn)行對比實(shí)驗(yàn)。經(jīng)典模型包括POP、Item-KNN[14]、FPMC、GRU4Rec、NARM[15]等模型。其中,POP、Item-KNN和FPMC 利用統(tǒng)計(jì)學(xué)方法對項(xiàng)目進(jìn)行排名推薦,而GRU4Rec和NARM模型則利用GRU對用戶會(huì)話進(jìn)行建模。除了這些經(jīng)典模型外,還有STAMP、SR-GNN 和FGNN等采用了注意力機(jī)制或GNN的新穎模型。STAMP是一種基于會(huì)話的推薦系統(tǒng)模型,旨在解決傳G統(tǒng)N基N于會(huì)話推薦系統(tǒng)中的冷啟動(dòng)和長尾問題。SR- 利用了圖神經(jīng)網(wǎng)絡(luò)的能力,來捕捉會(huì)話中物品之間的順序依賴關(guān)系和語義關(guān)聯(lián)。FGNN模型通過結(jié)合矩陣分解和圖神經(jīng)網(wǎng)絡(luò)的思想,在推薦系統(tǒng)中取得了較好的效果,提供更準(zhǔn)確和個(gè)性化的推薦結(jié)果。

根據(jù)表3可知,在P@20、MRR@20指標(biāo)上,本文所提模型均取得了最佳效果。這說明本文所提模型推薦的項(xiàng)目更符合用戶的選擇和興趣。相比之下, GRU4Rec、NARM等模型較POP、Item-KNN、FPMC等基于傳統(tǒng)統(tǒng)計(jì)學(xué)的方法表現(xiàn)更出色。后者主要基于物品的流行度或相似度進(jìn)行推薦,未考慮到用戶的個(gè)性化需求和會(huì)話的上下文信息。而GRU4Rec、NARM 模型利用循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN) 建模用戶的會(huì)話歷史,能夠捕捉會(huì)話中物品的順序和上下文關(guān)系。STAMP 在Tmall和Nowplaying數(shù)據(jù)集上取得了比GRU4Rec、NARM更好的效果。STAMP模型使用了自適應(yīng)記憶機(jī)制,根據(jù)用戶的歷史行為和當(dāng)前會(huì)話的上下文動(dòng)態(tài)選擇和更新記憶,更好地適應(yīng)用戶的興趣變化和會(huì)話的動(dòng)態(tài)特性。SR-GNN、FGNN 采用了圖神經(jīng)網(wǎng)絡(luò)(GNN) 的思想,在推薦系統(tǒng)中取得了較好的效果,說明基于會(huì)話的圖結(jié)構(gòu)利用圖神經(jīng)網(wǎng)絡(luò)建模用戶的興趣和上下文信息,可以綜合考慮用戶和物品的特征以及它們之間的交互關(guān)系,提供個(gè)性化的推薦結(jié)果。

本文所提方法在所采用的數(shù)據(jù)集上都取得了最佳效果,與SR-GNN一樣采用GNN的思想,在會(huì)話圖上學(xué)習(xí)用戶的興趣變化。同時(shí),為會(huì)話圖計(jì)算每個(gè)項(xiàng)目在全局圖上的重要度以及項(xiàng)目轉(zhuǎn)換的權(quán)重,使推薦模型能更好地利用會(huì)話歷史數(shù)據(jù),并考慮到不同項(xiàng)目和類型之間的關(guān)系,從而提供更準(zhǔn)確和個(gè)性化的推薦結(jié)果。

3.3.2 消融實(shí)驗(yàn)

為進(jìn)一步提高基于會(huì)話的推薦模型的推薦精準(zhǔn)性,本文在GCE-GNN模型的基礎(chǔ)上,為全局級項(xiàng)目表示學(xué)習(xí)層添加全局重要性信息。在生成全局項(xiàng)目表示時(shí),融合了PageRank算法計(jì)算vi 的全局貢獻(xiàn)度,提高了表達(dá)能力。另外,通過引入轉(zhuǎn)換感知來提高模型對會(huì)話表示的學(xué)習(xí)能力。為證明以上改進(jìn)對模型推薦效果的影響,本研究設(shè)置了3個(gè)消融實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果見表3。

如圖2、圖3所示,單獨(dú)使用PageRank時(shí),在三個(gè)數(shù)據(jù)集中的P@20、MRR@20指標(biāo)均優(yōu)于不使用的基礎(chǔ)模型,說明使用PageRank為節(jié)點(diǎn)賦予全局貢獻(xiàn)度,可以使全局級表示更精準(zhǔn)地對鄰居節(jié)點(diǎn)進(jìn)行聚合,從而提高全局級表示的表達(dá)能力。單獨(dú)引入轉(zhuǎn)換感知時(shí)的效果同樣優(yōu)于基礎(chǔ)模型,證明為轉(zhuǎn)換邊賦予不同的權(quán)重,可以使模型更好地匹配用戶偏好,進(jìn)而提升模型的推薦精度。最終,同時(shí)使用以上兩個(gè)策略時(shí),獲得了最好的推薦效果。

4 結(jié)論

為了進(jìn)一步提升基于會(huì)話的推薦模型的效果,本文在GCE-GNN模型的基礎(chǔ)上進(jìn)行了改進(jìn)。通過研究分析,發(fā)現(xiàn)GCE-GNN利用全局級項(xiàng)目表示學(xué)習(xí)層,在全局圖上傳播并學(xué)習(xí)項(xiàng)目表示,其只是利用了節(jié)點(diǎn)的局部重要性,未考慮節(jié)點(diǎn)的全局重要性。因此,本文利用PageRank得到全局圖中節(jié)點(diǎn)的全局重要性,在生成全局級項(xiàng)目表示時(shí)將其引入,令模型能夠獲知節(jié)點(diǎn)在全圖上對用戶的重要性,以此來提高全局級項(xiàng)目表示的表達(dá)能力。另一方面,我們對轉(zhuǎn)換邊的重要程度做出區(qū)分,頻繁出現(xiàn)的節(jié)點(diǎn)間的轉(zhuǎn)換更受用戶的偏愛。因此,本文在進(jìn)行信息傳播的過程中,為不同的S轉(zhuǎn)R換賦予不同的權(quán)重。最后,將本文所提模型EGIN- SR與8個(gè)基準(zhǔn)模型進(jìn)行了對比實(shí)驗(yàn),結(jié)果表明EGIN- 具有更好的效果。本文還進(jìn)行了消融實(shí)驗(yàn),進(jìn)一步驗(yàn)證了使用PageRank可以提高目標(biāo)節(jié)點(diǎn)嵌入的表達(dá)能力與精確度。綜上所述,本文所提改進(jìn)模型在進(jìn)行推薦時(shí),能夠更好地匹配用戶偏好。

【通聯(lián)編輯:唐一東】

仙游县| 乳山市| 伊吾县| 兴安盟| 顺平县| 云浮市| 乌拉特后旗| 满洲里市| 彰化县| 海阳市| 手机| 南昌市| 保山市| 葵青区| 广饶县| 玉溪市| 林芝县| 原平市| 原阳县| 新宁县| 宁陵县| 盐边县| 巫山县| 新密市| 乌拉特后旗| 建平县| 张家口市| 定西市| 璧山县| 洪洞县| 奉节县| 景德镇市| 高清| 彭泽县| 元阳县| 阳曲县| 鄱阳县| 梅州市| 襄樊市| 陆川县| 罗山县|