摘 要:針對現(xiàn)有序列推薦模型因數(shù)據(jù)稀疏性嚴(yán)重難以達(dá)到最優(yōu)性能的問題,提出了一種基于反向延長增強(qiáng)的生成對抗網(wǎng)絡(luò)推薦算法。該方法通過對交互序列進(jìn)行延長增強(qiáng)來獲取高質(zhì)量的訓(xùn)練數(shù)據(jù),以緩解數(shù)據(jù)稀疏性帶來的模型訓(xùn)練不充分的問題。首先,使用偽先驗項將項目序列進(jìn)行反向延長,深化項目序列特征;其次,延長增強(qiáng)的對象由短序列更改為所有用戶序列,充分挖掘長序列中富含的上下文信息,緩解了增廣序列中偽先驗項占比過大而帶來的噪聲問題;最后,使用共享項目嵌入的生成對抗網(wǎng)絡(luò),通過判別器與生成器聯(lián)合訓(xùn)練以提高模型推薦性能。在三個公開數(shù)據(jù)集上的實驗結(jié)果表明,所提模型的命中率(HR@N)和歸一化折損累計增益(NDCG@N)相較于最優(yōu)基線ELECRec平均提升30%,驗證了反向延長增強(qiáng)對挖掘序列特征和緩解數(shù)據(jù)稀疏性的有效性。
關(guān)鍵詞:推薦系統(tǒng); 反向延長增強(qiáng); 生成對抗網(wǎng)絡(luò); 序列推薦; 自注意力網(wǎng)絡(luò)
中圖分類號:TP391 文獻(xiàn)標(biāo)志碼:A 文章編號:1001-3695(2024)07-016-2033-06
doi:10.19734/j.issn.1001-3695.2023.11.0548
Generative adversarial network recommendation based onreverse extension enhancement
Abstract:Addressing the challenge of suboptimal performance in existing sequential recommendation models due to severe data sparsity, this paper proposed a generative adversarial network recommendation algorithm based on reverse extension enhancement. The approach extended and enhanced interaction sequences to obtain high-quality training data, mitigating the issue of insufficient model training caused by data sparsity. Firstly, it extended the project sequences backwardly using pseudo-prior terms to deepen the features of the project sequences. Secondly, it shifted the target of extension enhancement from short sequences to all user sequences, thoroughly exploring contextual information embedded in long sequences and alleviating noise issues arising from an excessively large proportion of pseudo-prior terms in augmented sequences. Finally, it employed a generative adversa-rial network with shared project embeddings, and jointly trained the discriminator and generator to enhance the model’s recommendation performance. Experimental results on three public datasets demonstrate an average improvement of 30% in hit rate(HR@N) and normalized discounted cumulative gain(NDCG@N) compared to the optimal baseline ELECRec, confirming the effectiveness of reverse extension enhancement in mining sequence features and alleviating data sparsity.
Key words:recommendation system; reverse extension enhancement; generative adversarial networks; sequential recommendation; self-attention networks
0 引言
在人工智能時代背景下,出現(xiàn)了很多信息過載[1]的問題,推薦系統(tǒng)[2]是減輕用戶信息過載的重要工具。推薦系統(tǒng)的核心任務(wù)之一是序列推薦[3],其通過用戶項目序列來挖掘用戶表示,由于序列推薦實用價值高且使用場景廣泛,近年來受到了研究者的廣泛關(guān)注。
早期的序列推薦研究中,學(xué)者大多使用了馬爾可夫鏈[4],只考慮近期的用戶行為,無法整體建模用戶的偏好。在循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)[5]被提出之后,其因能夠建模項目之間的關(guān)系的特點逐漸流行,特別是在提出GRU4Rec(gated recurrent unit for recommendation)[6]之后,RNN模型更是成為了推薦算法的主流模型。隨著深度學(xué)習(xí)的發(fā)展,Tang等人[7]提出了基于卷積神經(jīng)網(wǎng)絡(luò)的算法Caser(convolutional sequence embedding recommendation model),其使用濾波器建模序列特征,并將用戶的長期和短期偏好[8]進(jìn)行簡單融合。
最近的研究中,在序列推薦領(lǐng)域涌現(xiàn)了兩個主要研究方向。一方面,研究強(qiáng)大的模型來實現(xiàn)更好的推薦性能。有學(xué)者證明Transformer[9]可以有效地對項目相關(guān)性進(jìn)行建模,Wang等人[10]對Transformer在序列推薦中的應(yīng)用做出了開創(chuàng)性工作,他們提出了SASRec(self-attentive sequential recommendation)算法,使用點積自我注意力機(jī)制來學(xué)習(xí)序列中不同位置的項目對聚合特征的影響力。BERT4Rec[11](sequential recommendation with bidirectional encoder representations from transformer)在從左到右和從右到左兩個方向?qū)椖哭D(zhuǎn)換相關(guān)性進(jìn)行建模。生成對抗網(wǎng)絡(luò)[12]在最開始是用來模擬給定樣本的生成,IRGAN [13](generative adversarial network for information retrieval)首先將生成對抗網(wǎng)絡(luò)應(yīng)用于信息檢索中,采用簡單的矩陣分解[14]構(gòu)造了生成器和判別器。ELECRec(training sequential recommenders as discriminators)聯(lián)合訓(xùn)練生成器和判別器,將判別器作為最終的推薦模型。然而,序列推薦模型對項目相關(guān)性[15]有效動態(tài)建模的能力受限于用戶項目序列長度過短,因此強(qiáng)大模型也會受到數(shù)據(jù)稀疏性的影響。
另一方面,對模型的實驗數(shù)據(jù)進(jìn)行數(shù)據(jù)增強(qiáng)以獲得更有效的訓(xùn)練數(shù)據(jù)集。其中PCRec[16](enhancing top-N item recommendations by peer collaboration)使用兩個結(jié)構(gòu)相同、參數(shù)不同的網(wǎng)絡(luò)共同訓(xùn)練,并且對每一層的無效參數(shù)進(jìn)行激活,達(dá)到相互合作的目的。S3-Rec(self-supervised learning for sequential recommendation)[17]和CL4SRec[18](contrastive learning for sequential recommendation)提出通過隨機(jī)的reorder、mask和crop序列來增強(qiáng)用戶的項目序列,豐富訓(xùn)練集。ASReP[19](augmenting sequential recommendation with pseudo-prior items)提出了延長增強(qiáng),通過反向訓(xùn)練Transformer模型來獲得偽先驗項,用于延長增強(qiáng)。上述數(shù)據(jù)增強(qiáng)方法在提高序列數(shù)量的同時,卻面臨因序列語義不完整而增加噪聲和上下文信息不能有效融合的問題。為此,本文提出了一種反向延長的顯式數(shù)據(jù)增強(qiáng)方法,通過使用偽先驗項延長序列長度以保證序列的語義完整性,并將延長增強(qiáng)的方法擴(kuò)展到長短序列,深度挖掘長序列中的上下文信息來彌補(bǔ)短序列信息不足的問題,提升模型的推薦性能。此外,方法還利用共享項目嵌入的生成對抗網(wǎng)絡(luò)來精準(zhǔn)把握用戶長短期偏好。本文的主要工作包括:
a)提出了一種基于反向延長增強(qiáng)的生成對抗網(wǎng)絡(luò)推薦算法(generative adversarial network recommendation based on reverse extension enhancement,REEGAN)。通過生成偽先驗項來深度挖掘項目序列特征,并提出改進(jìn)的延長增強(qiáng)方式,緩解偽先驗項序列過長帶來的噪聲問題,優(yōu)化了模型的訓(xùn)練。
b)引入了共享項目嵌入的生成對抗網(wǎng)絡(luò),通過共享項目嵌入信息,使模型能夠更好地理解和利用項目之間的關(guān)聯(lián)性,從而提高推薦的準(zhǔn)確性和個性化程度。
c)經(jīng)實驗結(jié)果證明,所提算法較當(dāng)前最優(yōu)基線有明顯提升,充分展示了其有效性和延長增強(qiáng)在序列推薦中的優(yōu)勢。在冷啟動數(shù)據(jù)集上的實驗證明了所提模型在緩解用戶冷啟動問題上也具有良好的效果。
1 問題定義
設(shè)數(shù)據(jù)集中用戶集為U={u1,u2,…,um},其中m為用戶集中用戶個數(shù),項目集合V={i1,i2,…,ik},其中k為項目集中項目的個數(shù),則用戶u按交互時間排序的項目序列Iu表示為
本文相關(guān)符號定義如表1所示。
2 基于反向延長增強(qiáng)的生成對抗網(wǎng)絡(luò)推薦算法
2.1 模型框架
為了充分挖掘項目序列中豐富的上下文信息,本文設(shè)計了一種延長增強(qiáng)的數(shù)據(jù)增強(qiáng)方式,并使用生成對抗網(wǎng)絡(luò)來實現(xiàn)該算法。本文算法總體框架如圖1所示,自上到下劃分為三個核心模塊,分別為反向生成、延長增強(qiáng)、正向訓(xùn)練。REEGAN算法三個核心模塊的處理過程如下:
b)延長增強(qiáng)模塊:模型通過延長增強(qiáng)模塊將偽先驗項序列I^u和項目序列Iu拼接為增廣序列Iaug,該模塊將模型對交互序列的逆向理解與原始項目序列的上下文信息有機(jī)地融合,創(chuàng)造了更為豐富的增廣序列。
2.1.1 反向生成模塊
為了生成包含更多上下文信息的偽先驗項序列,本文設(shè)計了反向生成模塊以生成偽先驗項序列。生成的偽先驗項既需要保持項目序列的相關(guān)性,還需要體現(xiàn)用戶興趣轉(zhuǎn)變,因而,本文對模型進(jìn)行反向訓(xùn)練,以保證模型能夠?qū)W習(xí)到豐富的反向知識,使得生成的偽先驗項保持原有序列的項目相關(guān)性;同時反向語義中蘊(yùn)涵用戶興趣的轉(zhuǎn)變,模型可以更好地捕捉用戶偏好。在實現(xiàn)的過程中將用戶項目序列Iu作為輸入數(shù)據(jù),并據(jù)此預(yù)測用戶u的項目交互序列Iu的前一項,即偽先驗項u0:
2.1.2 延長增強(qiáng)模塊
為了解決上述問題,本文采用了對所有項目序列進(jìn)行延長增強(qiáng)的方法。相比僅針對短序列的延長增強(qiáng),長序列中蘊(yùn)涵更豐富的信息,因此模型只需要使用少量的偽先驗項就能夠達(dá)到最優(yōu)推薦性能。這一改進(jìn)不僅減少了偽先驗項序列帶來的噪聲,還簡化了模型的訓(xùn)練過程。
2.1.3 正向訓(xùn)練模塊
本模塊旨在利用增廣序列中豐富的上下文信息進(jìn)行序列推薦任務(wù)的訓(xùn)練,使用增廣序列作為訓(xùn)練數(shù)據(jù),且模型訓(xùn)練的方向與常規(guī)模型方向相同,在序列推薦任務(wù)中,用戶的歷史行為通常按時間順序排列,因此從左到右的訓(xùn)練方向更符合時序性的學(xué)習(xí)需求。這種一致性有助于模型更好地捕捉用戶行為的演變趨勢,提高對時序性特征的學(xué)習(xí)能力。具體來說,將增廣序列Iuaug作為輸入數(shù)據(jù),并據(jù)此預(yù)測用戶u在t+1步的交互項目:
p(iut+1=i|Iuaug)(4)
其中:iut+1為模型即將推薦給用戶u的項目;Iuaug則為用戶u經(jīng)過延長增強(qiáng)后的增廣項目序列。
2.2 基于反向延長增強(qiáng)的GAN模型構(gòu)造
為使得偽先驗項更加符合項目序列特征和增加推薦效果,本文使用生成對抗網(wǎng)絡(luò)來構(gòu)造REEGAN,其通過生成器和判別器之間的相互對抗,能夠使得生成器生成的項目更加準(zhǔn)確。REEGAN中的生成器和判別器均由Transformer模型構(gòu)造,其網(wǎng)絡(luò)表示為fG和fD。圖2展示了基于反向延長增強(qiáng)的GAN模型的具體構(gòu)造。生成器的任務(wù)為模擬真實數(shù)據(jù)的分布情況來生成虛假樣本,以騙過判別器的判斷,從而鼓勵判別器提高其判別項目的能力。判別器的任務(wù)則為判斷給定輸入的項目是真實樣本還是虛假樣本,督促生成器產(chǎn)生更加高質(zhì)量的樣本,這兩者的任務(wù)目標(biāo)是相反的,其互相對抗以獲得更加真實的數(shù)據(jù)。其中真實樣本為用戶項目序列,虛假樣本為生成器生成的項目。
2.2.1 生成器
為實現(xiàn)生成器根據(jù)用戶歷史交互數(shù)據(jù)的特征來生成偽先驗項和推薦項目的目標(biāo),本文采用生成性任務(wù)訓(xùn)練生成器。對每個時間步t,用戶u對項目i的偏好使用softmax層來表示:
在訓(xùn)練過程中,截斷用戶項目序列前n-1項[20],將此作為生成器的訓(xùn)練數(shù)據(jù),訓(xùn)練目標(biāo)為恢復(fù)第n個項目,此訓(xùn)練目標(biāo)促使生成器更加專注于從已觀察到的歷史信息中提取序列特征,并用這些特征來生成下一個項目,這對于生成器在真實場景中準(zhǔn)確生成用戶可能感興趣的項目是至關(guān)重要的。其訓(xùn)練損失為
其中:θ為神經(jīng)網(wǎng)絡(luò)fθ,其編碼序列潛在空間表示為hut=fθ({iuj}tj=1),以此來衡量編碼序列hut與潛在空間表示中下一個項目iuj+1之間的相似性。
2.2.2 采樣器
采樣器通過參數(shù)α控制著在生成序列時采用已有序列信息和生成器模型輸出之間的相對權(quán)重。這種相對權(quán)重可以在一定程度上保留原始序列的語義完整性,同時引入模型的創(chuàng)造性和泛化能力。采樣器的采樣步驟為:首先對序列中百分之α
2.2.3 判別器
對于判別器,使用二元交叉熵?fù)p失來進(jìn)行訓(xùn)練,如下所示。
2.2.4 生成器和判別器組件
項目嵌入層是將項目映射為潛在空間的關(guān)鍵部分,本文中這一層由生成器和判別器共享。通過這種共享機(jī)制,梯度可以通過嵌入層傳播,使得生成器和判別器能夠相互影響。這種共享機(jī)制促使兩個模塊在訓(xùn)練中共同學(xué)習(xí)更具代表性的項目嵌入,有助于提高整體模型的一致性和性能。模型中嵌入層的表示為項目嵌入和位置嵌入的和:
h0t=it+pt(11)
其中:pt∈P是位置索引t的位置嵌入,并且使用可學(xué)習(xí)的位置嵌入,這樣可以獲得更好的性能。對模型可處理的最大長度n進(jìn)行了限制,當(dāng)序列長度大于n時,取序列右側(cè)的n項,序列長度不足n時,則在序列右側(cè)增加填充項。
單個自注意力模塊由自注意力層和位置前饋網(wǎng)絡(luò)構(gòu)成。其中注意力機(jī)制被定義為
Fi=FFN(hit)=ReLU(hitW(1)+b(1))W(2)+b(2)(13)
其中:W(1)和W(2)是一個d維的參數(shù)矩陣;b(1)和b(2)是d維的偏置向量。為了學(xué)習(xí)更復(fù)雜的特征轉(zhuǎn)換,選擇堆疊自注意力模塊,在每個自注意力層和位置前饋網(wǎng)絡(luò)增加殘差連接、層歸一化和dropout:
g(x)=x+dropout(g(LayerNorm(x)))(14)
其中:g(x)代表自注意力層或者位置前饋網(wǎng)絡(luò),即對輸入的x進(jìn)行層歸一化之后放入網(wǎng)絡(luò)中,并對其輸出進(jìn)行dropout處理,最后將x添加到輸出中。
2.3 損失函數(shù)
在模型訓(xùn)練階段進(jìn)行聯(lián)合訓(xùn)練,最小化以下?lián)p失:
L=LNIP(I,G)+λLDisc(,D)(15)
其中:LNIP為生成器損失;LDisc為判別器損失;λ是一個用來控制判別強(qiáng)度的超參數(shù)。
2.4 算法偽代碼
算法1 REEGAN算法
3 實驗與結(jié)果分析
3.1 數(shù)據(jù)集
本文對從亞馬遜評論收集的具有不同數(shù)據(jù)分布的三個數(shù)據(jù)集進(jìn)行了實驗研究,其分別為sports、beauty和toys。為了獲得有意義的訓(xùn)練集數(shù)據(jù),本文與其他模型的處理方式相同 [21],刪除了所有相關(guān)交互少于5次的用戶和項目,將數(shù)據(jù)集分為訓(xùn)練集、驗證集和測試集,項目序列的最后一個項目用于測試,倒數(shù)第二個項目用于驗證,其余項目用于訓(xùn)練,數(shù)據(jù)集統(tǒng)計信息如表2所示。
3.2 評價指標(biāo)
為給予推薦效果定量的評價,使用命中率(hit rate,HR)和歸一化折損累計增益(normalized discounted cumulative gain,NDCG)來評估模型推薦性能,采用了HR@5、HR@10、NDCG@5、NDCG@10四個常用的top-N評價指標(biāo)。
1)命中率 HR@N衡量真實項目是否排在前N個推薦項目中:
其中:hit()函數(shù)代表是否命中,即真實交互項目是否在推薦列表中,存在則hit()為1,反之為0。
2)歸一化折損累計增益 NDCG@N則會給予N個項目中前排真實項目更大的分?jǐn)?shù),充分考慮了位置因素:
其中:rank為命中項目在推薦列表中的位置。
3.3 基線方法
本文采用了兩種類型的基線模型來進(jìn)行對比實驗,一種為依靠模型能力進(jìn)行推薦的算法SASRec、BERT4Rec、S3-Rec、Seq2Seq;另一種為基于數(shù)據(jù)增強(qiáng)的推薦算法CL4Srec、DuoRec、EMKD。為保證基線模型發(fā)揮最優(yōu)效果,對比實驗使用基線模型的默認(rèn)參數(shù)。對比模型的簡要介紹如下:
SASRec[10]:使用Transformer代替RNN捕捉用戶的特征。
BERT4Rec[11]:使用雙向注意力機(jī)制建模用戶的特征,具有較好的推薦性能。
S3-Rec[18]:使用自注意力網(wǎng)絡(luò)的自監(jiān)督學(xué)習(xí)方法。
Seq2Seq[22]:一種新的Seq2Seq訓(xùn)練策略,通過研究用戶更長期的未來行為來提供額外的監(jiān)督信號。
ELECRec[23]:一種生成對抗網(wǎng)絡(luò)方法,在訓(xùn)練完成后將生成器丟棄,將判別器作為最終的推薦模型。
CL4SRec[18]: 提出了三種不同的數(shù)據(jù)增強(qiáng)方法來構(gòu)建不同視角的用戶交互序列,并將其用于對比學(xué)習(xí)來捕捉不同視角之間的相似性。
DuoRec[24]:利用對比學(xué)習(xí)來重建序列表征,并構(gòu)建模型級增強(qiáng)來更好地保留語義信息。
EMKD[25]:采用多個并行網(wǎng)絡(luò),并使用對比知識蒸餾來促進(jìn)網(wǎng)絡(luò)間的知識轉(zhuǎn)移。
3.4 實現(xiàn)細(xì)節(jié)
本文基于PyTorch設(shè)計實現(xiàn)了REEGAN模型,選擇Adam作為優(yōu)化器,驗證集上NDCG@10連續(xù)20輪次,不再提升時停止訓(xùn)練,最優(yōu)超參數(shù)組合根據(jù)模型在驗證集上的表現(xiàn)確定,在測試集上驗證模型效果。本文對應(yīng)的超參數(shù)設(shè)置為:批量大小設(shè)置為256,自注意力模塊層數(shù)和頭數(shù)設(shè)置為2,并將嵌入維度和最大序列長度分別設(shè)置為64和50。
3.5 實驗結(jié)果分析
為評估所提模型的推薦性能,本文在beauty、sports和toys數(shù)據(jù)集上進(jìn)行了對比實驗,REEGAN與基線模型的性能比較如表3所示。
實驗結(jié)果表明:
a)REEGAN與基線模型相比有明顯提升,與次優(yōu)基線相比,在評價指標(biāo)HR和NDCG中平均提升了30%,在beauty數(shù)據(jù)集中,模型在評價指標(biāo)HR@10上提升了23.8%,標(biāo)準(zhǔn)差為0.001 59,驗證了延長增強(qiáng)和生成對抗網(wǎng)絡(luò)的有效性。
b)REEGAN優(yōu)于DuoRec等數(shù)據(jù)增強(qiáng)的方法,表明了延長增強(qiáng)在增強(qiáng)交互序列特征方面的有效性,避免了“裁剪”“遮蔽”等隨機(jī)數(shù)據(jù)增強(qiáng)方法對用戶特征的損害。然而,基于數(shù)據(jù)增強(qiáng)的方法優(yōu)于SASRec等僅基于模型能力的算法,這表明對數(shù)據(jù)進(jìn)行數(shù)據(jù)增強(qiáng)是有必要的,有助于解決現(xiàn)有模型存在的數(shù)據(jù)稀疏性問題。
c)基于生成對抗網(wǎng)絡(luò)的推薦算法優(yōu)于其他算法,這表明了基于GAN的推薦算法在捕捉用戶偏好方面具有出色的性能。尤其值得注意的是,與數(shù)據(jù)增強(qiáng)方法(如DuoRec)相比,基于GAN的算法(例如ELECRec)在推薦性能上略有優(yōu)勢。其原因可能為ELECRec采用判別器作為推薦模型,而判別性任務(wù)對于訓(xùn)練數(shù)據(jù)的要求相對較低。這種設(shè)計允許ELECRec更好地適應(yīng)數(shù)據(jù)稀疏性,同時保持了高性能。與此相反,這些隨機(jī)數(shù)據(jù)增強(qiáng)的方法可能損害序列的語義特征,甚至帶來了大量噪聲,因而推薦性能不佳。
3.6 消融實驗分析
為了驗證最終推薦模型的類別和延長增強(qiáng)分別對推薦性能的影響,在三個數(shù)據(jù)集上進(jìn)行了兩個消融實驗,實驗結(jié)果如圖3所示。變體模型如下:REEGAN-D,使用判別器作為最終生成偽先驗項和推薦項目的模型;REEGAN-G,此變體去除了延長增強(qiáng),僅使用生成對抗網(wǎng)絡(luò)來捕捉用戶偏好,最終將生成器用于推薦。
由圖3可以看出,REEGAN在所有情況下均優(yōu)于其他變體。其中,兩個變體的性能低于基線ELECRec,表明延長增強(qiáng)和以生成器為推薦模型兩個結(jié)合才能夠發(fā)揮效果,單獨無法發(fā)揮正向作用。
REEGAN-D的推薦性能較差的原因為模型需要與交互序列相關(guān)性較強(qiáng)的偽先驗項來延長序列,判別器生成的偽先驗項僅考慮個體,生成的偽先驗項關(guān)聯(lián)性不強(qiáng),反而給模型帶來大量噪聲。
REEGAN-G則因數(shù)據(jù)稀疏性表現(xiàn)最差,ELECRec的性能優(yōu)于REEGAN-G的原因為判別性任務(wù)對數(shù)據(jù)的要求較低,從而能夠達(dá)到較好的推薦性能,REEGAN則因高質(zhì)量的延長增強(qiáng)后的訓(xùn)練數(shù)據(jù),而訓(xùn)練出充分發(fā)揮功能的生成器用于推薦。
3.7 增廣序列參數(shù)分析
增廣序列由偽先驗項序列和交互序列組成,為了研究增廣序列中參數(shù)對推薦性能的影響,本文針對偽先驗項數(shù)目M在三個不同的數(shù)據(jù)集進(jìn)行了一系列實驗。如圖4所示,本文在三個數(shù)據(jù)集上測試了不同超參數(shù)M對評價指標(biāo)HR@5和NDCG@5的影響。
實驗結(jié)果表明以下幾點:
a)在三個數(shù)據(jù)集中,當(dāng)偽先驗項數(shù)目M設(shè)定為3時,模型達(dá)到了最佳性能水平。這進(jìn)一步驗證了所提算法的有效性,因為它縮短了偽先驗項序列的長度,從而減輕了因偽先驗項數(shù)目過多而引入的大量噪聲問題。
b)當(dāng)偽先驗項數(shù)目M為0時,模型性能較差,驗證了在短序列情況下模型學(xué)習(xí)能力有限。適度增加偽先驗數(shù)目M后,模型性能顯著提升,驗證了延長增強(qiáng)的有效性。然而,進(jìn)一步增加偽先驗數(shù)目并不會顯著提升性能,而可能引入更多噪聲。
3.8 案例分析
為了更加深入地理解所提模型,以用戶u的交互數(shù)據(jù)[i1,i2,…,i4]為例,展示了REEGAN的推薦過程,如圖5所示。
3.9 冷啟動分析
反向延長增強(qiáng)通過擴(kuò)展交互序列的長度來緩解數(shù)據(jù)稀疏的問題。為了深入研究在數(shù)據(jù)極度稀疏的情況下模型的推薦表現(xiàn),構(gòu)建了一組冷啟動數(shù)據(jù)集,數(shù)據(jù)集的統(tǒng)計信息如表4所示,其去除了長度大于7的交互數(shù)據(jù),將序列長度限制在5~7??梢园l(fā)現(xiàn)在三個數(shù)據(jù)集中,交互數(shù)據(jù)占原數(shù)據(jù)集的70%左右,即用戶交互長度大多較短。實驗結(jié)果如圖6所示。
從圖6中可以看到,所提模型在三個稀疏數(shù)據(jù)集上表現(xiàn)出色,與最佳基線模型ELECRec相比,實現(xiàn)了最佳的推薦性能。這一結(jié)果驗證了所提模型在處理冷啟動問題上的有效性,并間接證明了反向延長增強(qiáng)對推薦性能的貢獻(xiàn)。
4 結(jié)束語
為緩解數(shù)據(jù)稀疏性的問題,本文提出了一種基于反向延長增強(qiáng)的生成對抗網(wǎng)絡(luò)推薦方法REEGAN,通過反向訓(xùn)練模型生成偽先驗項序列的方式來增加用戶項目序列長度,使其攜帶更多的上下文信息,延長增強(qiáng)的對象不再為自定義長度的短序列,降低了偽先驗項序列長度過長帶來的噪聲。在三個真實數(shù)據(jù)集上的實驗結(jié)果表明,所提算法性能相較最新的基線算法更優(yōu),消融實驗也證明了反向延長增強(qiáng)的有效性。最后,模型在冷啟動數(shù)據(jù)集上的表現(xiàn)進(jìn)一步驗證了其在緩解數(shù)據(jù)稀疏性方面的能力。在未來的工作中,將繼續(xù)探究根據(jù)序列長度的分布與關(guān)系,實現(xiàn)自適應(yīng)延長,并考慮使用增廣序列作為對比學(xué)習(xí)的新視圖,以提高模型的推薦性能。
參考文獻(xiàn):
[1]Fan Ziwei, Liu Zhiwei, Wang Yu, et al. Sequential recommendation via stochastic self-attention[C]//Proc of ACM Web Conference. New York:ACM Press, 2022: 2036-2047.
[2]Xie Ruobing, Zhang Shaoliang, Wang Rui, et al. A peep into the future: adversarial future encoding in recommendation[C]//Proc of the 15th ACM International Conference on Web Search and Data Mining. New York:ACM Press, 2022: 1177-1185.
[3]歐道源, 梁京章, 吳麗娟. 基于高斯分布建模的序列推薦算法[J]. 計算機(jī)應(yīng)用研究, 2023, 40(4):1108-1112. (Ou Daoyuan, Liang Jingzhang, Wu Lijuan. Algorithm of sequential recommendation based on Gaussian distribution modeling[J]. Application Research of Computers, 2023,40(4) :1108-1112.
[4]Li Kaiyuan, Wang Pengfei, Li Chenliang. Multi-agent RL-based information selection model for sequential recommendation[C]//Proc of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval. New York:ACM Press, 2022:1622-1631.
[5]Han Jiadi, Tao Qian, Tang Yufei, et al. DH-HGCN: dual homogeneity hypergraph convolutional network for multiple social recommendations[C]//Proc of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval. New York:ACM Press, 2022: 2190-2194.
[6]Hidasi B, Karatzoglou A, Baltrunas L, et al. Session-based recommendations with recurrent neural networks[EB/OL]. (2016-03-29). https://arxiv.org/abs/1511.06939.
[7]Tang Jiaxi, Wang Ke. Personalized top-n sequential recommendation via convolutional sequence embedding[C]//Proc of the 11th ACM International Conference on Web Search and Data Mining. New York:ACM Press,2018: 565-573.
[8]劉樹棟, 張可, 陳旭. 基于多維度興趣注意力和用戶長短期偏好的新聞推薦[J]. 中文信息學(xué)報, 2022, 36(9): 102-111. (Liu Shudong, Zhang Ke, Chen Xu. Multi-dimensional interest-attention-based news recommendation with long and short-term user preferences[J]. Journal of Chinese Information Processing, 2022, 36(9): 102-111.)
[9]Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[C]//Proc of the 31st International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2017:6000-6010.
[10]Wang Chengkang, McAuley J. Self-attentive sequential recommendation[C]//Proc of IEEE International Conference on Data Mining. Piscataway, NJ: IEEE Press, 2018: 197-206.
[11]Sun Fei, Liu Jun, Wu Jian, et al. BERT4Rec: sequential recommendation with bidirectional encoder representations from Transformer[C]//Proc of the 28th ACM International Conference on Information and Knowledge Management. New York:ACM Press, 2019: 1441-1450.
[12]陳繼偉, 汪海濤, 姜瑛, 等. 基于生成對抗模型的序列推薦算法[J]. 中文信息學(xué)報, 2022,36(7): 143-153. (Chen Jiwei, Wang Haitao, Jiang Ying, et al. Sequential recommendation with generative adversarial networks[J]. Journal of Chinese Information Processing, 2022, 36(7): 143-153.)
[13]Wang Jun, Yu Lantao, Zhang Weinan, et al. IRGAN: a minimax game for unifying generative and discriminative information retrieval models[C]//Proc of the 40th International ACM SIGIR Conference on Research and Development in Information Retrieval. New York:ACM Press, 2017: 515-524.
[14]周璐鑫, 李曼, 蔣明陽,等. 融合交互強(qiáng)度的優(yōu)化社交推薦算法[J]. 計算機(jī)應(yīng)用研究, 2024,41(1):65-71. (Zhou Luxin, Li Man, Jiang Mingyang, et al. Improving social recommendation algorithm via embracing interaction strength[J]. Application Research of Computers, 2024,41(1):65-71.)
[15]石美惠, 申德榮, 寇月, 等. 融合全局和局部特征的下一個興趣點推薦方法[J]. 軟件學(xué)報, 2023,34(2): 786-801. (Shi Meihui, Shen Derong, Kou Yue, et al. Next point-of-interest recommendation approach with global and local feature fusion[J]. Journal of Software, 2023,34(2): 786-801.)
[16]Zhai Mengjia, Gu Fei, Wang Jin, et al. PCRec: a private coding computation scheme based on edge computing for recommendation system[C]//Proc of IEEE International Conference on Parallel & Distributed Processing with Applications, Big Data & Cloud Computing, Sustainable Computing & Communications, Social Computing & Networking. Piscataway, NJ: IEEE Press, 2020: 183-191.
[17]Zhou Kun, Wang Hui, Zhao W X, et al. S3-Rec: self-supervised learning for sequential recommendation with mutual information maximization[C]//Proc of the 29th ACM International Conference on Information & Knowledge Management. New York:ACM Press, 2020: 1893-1902.
[18]Xie Xu, Sun Fei, Liu Zhaoyang, et al. Contrastive learning for sequential recommendation[C]//Proc of the 38th IEEE International Conference on Data Engineering. Piscataway, NJ: IEEE Press, 2022: 1259-1273.
[19]Liu Zhiwei,F(xiàn)an Ziwei,Wang Yu,et al. Augmenting sequential recommendation with pseudo-prior items via reversely pre-training transformer[C]//Proc of the 44th International ACM SIGIR Conference on Research And Development in Information Retrieval. New York:ACM Press, 2021: 1608-1612.
[20]錢忠勝, 楊家秀, 李端明, 等. 結(jié)合用戶長短期興趣與事件影響力的事件推薦策略[J]. 計算機(jī)研究與發(fā)展, 2022,59(12): 2803-2815. (Qian Zhongsheng, Yang Jiaxiu, Li Duanming, et al. Event recommendation strategy combining user long-short term interest and vent influence[J]. Journal of Computer Research and Development, 2022,59(12): 2803-2815.)
[21]Fan Ziwei, Liu Zhiwei, Zhang Jiawei, et al. Continuous-time sequential recommendation with temporal graph collaborative transformer[C]//Proc of the 30th ACM International ConferenceIenME5s4s3Djsc6dpCZSAAePdWT2n9VppW6KSQAmPC0= on Information & Knowledge Management. New York:ACM Press, 2021: 433-442.
[22]Ma Jianxin, Zhou Chang, Yang Hongxia, et al. Disentangled self-supervision in sequential recommenders[C]//Proc of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. New York:ACM Press, 2020: 483-491.
[23]Chen Yongjun, Li Jia, Xiong Caiming. ELECRec: training sequential recommenders as discriminators[C]//Proc of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval. New York:ACM Press, 2022: 2550-2554.
[24]Qiu Ruihong, Huang Zi, Yin Hongzhi, et al. Contrastive learning for representation degeneration problem in sequential recommendation[C]//Proc of the 15th ACM International Conference on Web Search and Data Mining. New York:ACM Press, 2022: 813-823.
[25]Du Hanwen, Yuan Huanhuan, Zhao Pengpeng, et al. Ensemble mo-deling with contrastive knowledge distillation for sequential recommendation[C]//Proc of the 46th International ACM SIGIR Conference on Research and Development in Information Retrieval. New York:ACM Press, 2023:58-67.