孫肖依 劉華鋒 景麗萍 于 劍
(交通數(shù)據(jù)分析與挖掘北京市重點(diǎn)實(shí)驗(yàn)室(北京交通大學(xué)) 北京 100044)(北京交通大學(xué)計(jì)算機(jī)與信息技術(shù)學(xué)院 北京 100044)(sunxiaoyi@bjtu.edu.cn)
隨著互聯(lián)網(wǎng)上的信息快速增長,推薦系統(tǒng)在信息過載的時(shí)代變得越來越不可或缺.推薦系統(tǒng)的主要目的是幫助用戶在大量的物品中選擇出他們可能感興趣的物品.一些推薦系統(tǒng)中還包括了對前N個(gè)物品(top-N)推薦,這些方法被廣泛應(yīng)用于生成用戶的個(gè)性化推薦列表.例如在電子商務(wù)或者在線教育領(lǐng)域,系統(tǒng)通常只為用戶推薦一部分商品或課程,并根據(jù)系統(tǒng)推薦的前N個(gè)物品表現(xiàn)對推薦系統(tǒng)進(jìn)行評估.
在已有的研究當(dāng)中,協(xié)同過濾方法[1]由于只依賴于用戶過去的行為數(shù)據(jù)而在推薦系統(tǒng)中得到了廣泛的應(yīng)用.其中基于隱因子模型(latent factor model, LFM)[2-5]的協(xié)同過濾方法因?yàn)槠渚哂袑﹄[藏的因果關(guān)系建模的能力而在諸多方法中備受關(guān)注.然而由于這些模型本質(zhì)上都是線性模型,所以其建模能力有限.文獻(xiàn)[6]證明了在隱因子模型中添加非線性特征能夠顯著提高推薦的效果.所以在近些年,越來越多的方法提出將深度神經(jīng)網(wǎng)絡(luò)應(yīng)用到協(xié)同過濾中[7-12].然而與一般的深度模型相比,基于深度生成概率模型具有更強(qiáng)的靈活性,在推薦上取得了更好的效果.例如Mult-VAE[13]是一個(gè)具有多項(xiàng)式條件似然的深度生成模型,并使用貝葉斯推斷進(jìn)行參數(shù)估計(jì).然而,上述大多數(shù)模型并沒有為隱式反饋數(shù)據(jù)生成個(gè)性化的排序推薦列表.
因此本文提出了一個(gè)將列表級排序?qū)W習(xí)應(yīng)用到深度生成模型上的方法去解決上述問題.我們用深度生成方法在隱式反饋數(shù)據(jù)上為每個(gè)用戶生成評分向量,并通過直接優(yōu)化信息檢索中常用的評價(jià)指標(biāo)歸一化折損累積增益(normalized discounted cumulative gain, NDCG)對評分進(jìn)行建模.對于向用戶推薦有序的推薦列表來說,NDCG是對推薦結(jié)果度量非常重要的評價(jià)指標(biāo).
本文的主要貢獻(xiàn)有3個(gè)方面:
1) 提出了一種將列表級排序?qū)W習(xí)方法應(yīng)用到深度生成模型上的方法,在隱式反饋數(shù)據(jù)上為用戶生成個(gè)性化排序推薦列表;
2) 利用一個(gè)平滑函數(shù)來近似NDCG評價(jià)指標(biāo),解決了NDCG評價(jià)指標(biāo)是非平滑函數(shù)不能直接求導(dǎo)的問題;
3) 在3個(gè)不同領(lǐng)域的數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)驗(yàn)證.結(jié)果表明我們所提出的模型相比于現(xiàn)有的一些推薦方法,能夠使用戶潛在感興趣的物品排在前面,從而提供更好的用戶體驗(yàn).
項(xiàng)目推薦的研究重點(diǎn)是預(yù)測用戶最喜歡的一組項(xiàng)目的個(gè)性化排名列表,其中協(xié)同過濾[1]是最常用的方法之一.在協(xié)同過濾方法的框架下,大多數(shù)推薦系統(tǒng)都致力于預(yù)測評分.隱因子模型LFM[2-5]是一種基于矩陣分解(matrix factorization, MF)方法的模型,已被證明在評分預(yù)測問題上有顯著的效果.這種隱表示建模對于表示用戶的歷史行為偏好非常有效.這些工作將推薦任務(wù)表述為一種回歸或多分類問題,推薦系統(tǒng)從訓(xùn)練數(shù)據(jù)當(dāng)中學(xué)習(xí)回歸或分類函數(shù)后對項(xiàng)目進(jìn)行評分.這些方法統(tǒng)稱為點(diǎn)級推薦方法,與其不同的是,某些對項(xiàng)目推薦的研究方法著重于直接優(yōu)化每個(gè)用戶的項(xiàng)目個(gè)性化排名.文獻(xiàn)[14]提出了一種貝葉斯個(gè)性化對級排序?qū)W習(xí)方法(Bayesian personal ranking, BPR),該方法根據(jù)用戶對于成對物品的相對偏好來優(yōu)化模型;文獻(xiàn)[15]提出了一種通過整合用戶購買評分信息來推薦前N個(gè)物品的稀疏線性方法.不同于傳統(tǒng)的對級排序方法;文獻(xiàn)[16]通過直接最大化平均倒排名(mean reciprocal rank, MRR)評價(jià)指標(biāo)來提升top-N推薦的性能.
近些年來的研究主要集中在非線性的特征學(xué)習(xí),尤其是深度學(xué)習(xí)方面.相較于傳統(tǒng)方法,非線性模型能夠突破線性模型建模能力的限制.在一些早期基于深度模型的推薦方法中,例如基于神經(jīng)網(wǎng)絡(luò)的協(xié)同過濾方法集中于利用用戶顯示反饋數(shù)據(jù)作為訓(xùn)練集對物品做評分預(yù)測[8-9,17-18].Wide & Deep[19]是一個(gè)基于上下文的推薦模型,它利用多層感知機(jī)(multi-layer perceptron, MLP)來獲得隱表示.神經(jīng)協(xié)同過濾(neural collaborative filtering, NCF)則將協(xié)同過濾中用戶和物品的隱表示之間點(diǎn)乘的操作,擴(kuò)展成非線性的交互.文獻(xiàn)[7]在NCF的框架下提出了NeuMF,將MF和MLP統(tǒng)一在一個(gè)模型中,解決了MLP在獲取低秩關(guān)系時(shí)效率較低的問題.該模型以用戶嵌入和項(xiàng)目嵌入的組合作為MLP模型的輸入來進(jìn)行預(yù)測.相比于NeuMF,NNCF[20]則在NCF框架的基礎(chǔ)上額外引入了用戶和物品的信息作為輸入.
與上述模型相比,深度生成模型可以有效結(jié)合線性隱因子模型與非線性深度網(wǎng)絡(luò)模型,因此我們可以探索由神經(jīng)網(wǎng)絡(luò)驅(qū)動(dòng)的非線性概率隱變量模型.文獻(xiàn)[18]提出了受限制玻爾茲曼機(jī)(restricted boltzmann machine, RBM),它是一種隨機(jī)遞歸神經(jīng)網(wǎng)絡(luò),本質(zhì)上是二分圖結(jié)構(gòu)的無向圖模型;文獻(xiàn)[21]提出E-RBM模型,它為每個(gè)用戶計(jì)算出top-N的物品推薦列表,彌補(bǔ)了RBM缺乏對推薦結(jié)果的可解釋性問題;文獻(xiàn)[22-23]利用堆棧式去噪自編碼器(stacked denoised autoencoder, SDAE)分別擴(kuò)展了概率矩陣分解和邏輯回歸方法,并提出了統(tǒng)一的協(xié)同深度學(xué)習(xí).最近,變分自編碼器(variational autoencoder, VAE)框架[24-25]在推薦系統(tǒng)中的應(yīng)用使深度模型和隱變量模型關(guān)系更加緊密.協(xié)同變分自編碼器(CVAE)[26]將用戶和物品的低維表示與VAE生成的物品隱表示相結(jié)合,以獲得用戶的偏好矩陣.Mult-VAE[13]通過將原始的高斯似然替換為多項(xiàng)式似然來模擬隱式反饋數(shù)據(jù)的生成過程.然而,大多數(shù)深度生成推薦模型僅僅以重構(gòu)偏好數(shù)據(jù)為目的,而無法顯式地為每個(gè)用戶學(xué)習(xí)個(gè)性化排序推薦列表.
本文提出了一個(gè)基于列表級排序方法的深度生成推薦模型.用平滑的函數(shù)近似NDCG,并使用隨機(jī)梯度下降方法完成深度生成模型的訓(xùn)練過程.該模型能夠?yàn)橛脩羯蓚€(gè)性化排序推薦列表,具有很大的實(shí)際應(yīng)用價(jià)值.
基于列表級排序的深度生成推薦方法包括點(diǎn)級隱式反饋數(shù)據(jù)生成和列表級排序列表生成2部分.模型結(jié)構(gòu)如圖1所示.之后我們將介紹用來近似NDCG的平滑函數(shù).
Fig. 1 The architecture of the proposed model圖1 本文所提出模型結(jié)構(gòu)圖
本文考慮使用隱式反饋數(shù)據(jù)進(jìn)行學(xué)習(xí),并將用戶的點(diǎn)擊矩陣作為用戶與物品的交互矩陣進(jìn)行二值化.文中用u∈{1,2,…,U}表示用戶,i∈{1,2,…,I}表示物品.zu是二進(jìn)制向量,它索引了用戶在每個(gè)物品上點(diǎn)擊的歷史記錄.
我們提出的深度生成概率模型由VAE組成.每個(gè)VAE都利用編碼器將輸入壓縮為變分分布,然后解碼器通過接受從后驗(yàn)概率分布中采樣的隱變量來獲得生成分布進(jìn)行預(yù)測.
2.1.1 編碼器
為已觀測數(shù)據(jù)構(gòu)建一個(gè)生成隱變量模型,首先假設(shè)用戶與物品交互數(shù)據(jù)點(diǎn)擊歷史eu=fφ(xu)可以從用戶的隱變量rj(在d維隱空間),其中zu可以從以標(biāo)準(zhǔn)高斯分布為先驗(yàn)分布中采樣得到:
zu~N(0,Id).
(1)
1) 對于每個(gè)用戶u,重構(gòu)一個(gè)已觀測數(shù)據(jù)的向量表示eu:
eu=fφ(xu).
(2)
2) 參數(shù)化用戶隱變量zu的變分分布:
(3)
其中,非線性函數(shù)fφ為適用于觀測數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò),lφ為計(jì)算變分分布參數(shù)的線性變換,φ為fφ和lφ的參數(shù)集合.
2.1.2 解碼器
通過隱變量來生成預(yù)測的概率分布并且重構(gòu)觀測數(shù)據(jù),解碼器的生成過程為:
πu∝exp(fθ(zu)).
(4)
3) 從多項(xiàng)式分布中生成重構(gòu)觀測數(shù)據(jù)xu:
xu~Mult(Nu,πu).
(5)
(6)
因?yàn)閤u是從概率為πu的多項(xiàng)式分布中采樣得到的,所以用戶u的對數(shù)似然為
(7)
多項(xiàng)式分布中的概率分布值πu可以看作是用戶u對所有物品的喜好程度,因此它可以被用于為每個(gè)用戶構(gòu)建所有物品的列表級排序列表.
我們可以通過最大化排序評價(jià)指標(biāo)NDCG來構(gòu)建列表級排序.但由于NDCG不可導(dǎo),不能直接使用評價(jià)指標(biāo)來作為損失函數(shù)進(jìn)行優(yōu)化求解,所以我們用連續(xù)可導(dǎo)的損失函數(shù)對評價(jià)指標(biāo)進(jìn)行近似.
具體來說,NDCG@k是一種用于評估排名列表前k個(gè)位置推薦效果的評價(jià)指標(biāo),它的定義為
(8)
(9)
由此可以看到NDCG評價(jià)指標(biāo)是基于位置的,但是在訓(xùn)練過程中,物品的位置會不斷發(fā)生變化,這使得對NDCG的處理變得更加困難.為了解決這個(gè)問題,我們需要使用索引重新定義NDCG.將NDCG重寫成:
(10)
其中,r(x)表示物品x的相關(guān)程度,r(x)越大表示物品越相關(guān),等于0時(shí)為不相關(guān)物品.s(x)表示物品x當(dāng)前的位置.但由于s(x)函數(shù)是非連續(xù)、不可導(dǎo)的,所以我們需要對它進(jìn)行近似.利用深度生成模型得到的概率分布πu來重新表示s(x):
(11)
其中,πux,y=πux-πuy.即位置可以看作是排名函數(shù)的輸出.但由于指數(shù)函數(shù)也是非連續(xù)不可導(dǎo)的,所以用邏輯函數(shù)來近似指示函數(shù)1{πux,y<0}:
(12)
其中,α>0是一個(gè)度量常數(shù).然后我們可以用近似后的函數(shù)來表示位置函數(shù)s(x):
(13)
(14)
按照文獻(xiàn)[27]的標(biāo)準(zhǔn),我們使用變分推斷來學(xué)習(xí)隱變量模型,取數(shù)據(jù)的對數(shù)邊際似然的下界.這就形成了尋求最大化用戶u的目標(biāo),而數(shù)據(jù)集總體的目標(biāo)函數(shù)是通過對所有用戶的目標(biāo)函數(shù)求平均得到的:
logp(xu;θ)≥Eqφ(zu|xu)[logpθ(xu|zu)]-
KL(qφ(zu|xu)‖p(zu))?L(xu;θ,φ),
(15)
不等號右邊即為變分下界(evidence lower bound, ELBO).ELBO是參數(shù)為θ和φ的函數(shù),我們可以通過采樣zu~qφ來獲得ELBO的無偏估計(jì),然后通過隨機(jī)梯度下降法進(jìn)行優(yōu)化.也可以從另外一個(gè)角度來解讀ELBO:第1項(xiàng)可以解釋為重構(gòu)誤差,第2項(xiàng)KL散度可以看作是參數(shù)的正則化項(xiàng).那么我們可以為正則化項(xiàng)加上度量參數(shù)β來進(jìn)行約束.這樣得到點(diǎn)級隱式反饋生成模型的目標(biāo)函數(shù):
LG(xu;θ,φ)=Eqφ(zu|xu)[logpθ(xu|zu)]-
β×KL(qφ(zu|xu)‖p(zu)).
(16)
為了建立個(gè)性化排序模型,我們定義了負(fù)的列表級排序模型的損失函數(shù):
(17)
目標(biāo)是最小化ELBO式(16)和排序損失式(17),可以通過最小化最終的目標(biāo)函數(shù)來實(shí)現(xiàn):
(18)
這里參數(shù)γ控制列表級排序?qū)W習(xí)對整體模型的影響程度.整體模型的訓(xùn)練通過隨機(jī)梯度下降法來完成.
本節(jié)通過在3個(gè)真實(shí)數(shù)據(jù)集上的一系列實(shí)驗(yàn)衡量我們所提出的基于列表級排序的深度生成推薦模型的表現(xiàn),并將其與其他方法做對比.
我們在3個(gè)來自不同領(lǐng)域的真實(shí)數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn):
MovieLens-100k(ML-100k).該數(shù)據(jù)集包含多個(gè)用戶對多部電影的評分.我們將用戶評分大于等于4的視為用戶偏好置為1,其余置為0.并且我們只保留至少看過5部電影的用戶.
XuetangX[28].該數(shù)據(jù)來自于中國最大的MOOC平臺之一的學(xué)堂在線,其中包括了用戶和他們學(xué)習(xí)過的課程.我們只保留了至少學(xué)習(xí)過5門課程的用戶.
Jester.這些數(shù)據(jù)包含了Jester笑話推薦系統(tǒng)中用戶對笑話的匿名評分.我們將這些評分映射到0~5的區(qū)間上,并且同ML-100k一樣劃分評分并保留至少評過5次分的用戶.
表1總結(jié)了實(shí)驗(yàn)中使用的3個(gè)數(shù)據(jù)集的統(tǒng)計(jì)信息.
Table 1 Statistics of the Datasets表1 數(shù)據(jù)集的統(tǒng)計(jì)信息
用戶u的Recall@R表示為
(19)
其中,min(,)表示R和用戶點(diǎn)擊物品數(shù)目的最小值.當(dāng)用戶所有點(diǎn)擊的物品都排在前R個(gè)位置,Recall@R將達(dá)到最大值為1.
DCG@R的表示為
(20)
NDCG@R是DCG@R的歸一化版本,所以NDCG@R的取值范圍在[0,1]之間.當(dāng)用戶所有點(diǎn)擊的物品都排在前R個(gè)位置,NDCG@R將達(dá)到最大值為1.
我們隨機(jī)將所有用戶分為訓(xùn)練集、驗(yàn)證集和測試集,采用訓(xùn)練集用戶的全部點(diǎn)擊歷史來訓(xùn)練模型.為了對模型進(jìn)行評估,通過獲取留出用戶(驗(yàn)證和測試)的點(diǎn)擊歷史來學(xué)習(xí)模型的必要用戶級表示,然后通過對留出用戶和其未被觀測到的點(diǎn)擊歷史進(jìn)行排序來計(jì)算度量結(jié)果.表1的最后一列列出了每個(gè)數(shù)據(jù)集的留出用戶數(shù)量.對于每個(gè)留出用戶,隨機(jī)選取80%的點(diǎn)擊歷史記錄來學(xué)習(xí)必要的用戶級表示,并使用其余的點(diǎn)擊歷史記錄來進(jìn)行預(yù)測.
我們通過在驗(yàn)證集用戶上評估NDCG@1來選擇模型的超參數(shù)和結(jié)構(gòu).對于所提出的模型,用于編碼器和解碼器的神經(jīng)網(wǎng)絡(luò)具有對稱的體系結(jié)構(gòu),有3層感知機(jī)與結(jié)構(gòu)[m→600→d→600→m],這里m表示物品的個(gè)數(shù).在實(shí)驗(yàn)中,我們將根據(jù)不同的數(shù)據(jù)集來選擇d的值.基于交叉驗(yàn)證實(shí)驗(yàn),在3個(gè)數(shù)據(jù)集上都設(shè)置了α=10.使用tanh作為神經(jīng)網(wǎng)絡(luò)層之間的激活函數(shù).采用dropout[29]以0.5的概率應(yīng)用于輸入層,并且不對任何部分應(yīng)用權(quán)重衰減.使用Adam[30]對模型進(jìn)行訓(xùn)練,在ML-100k數(shù)據(jù)集上,設(shè)置批大小為150個(gè)用戶,在XuetangX和Jester數(shù)據(jù)集上設(shè)置批大小為2 000個(gè)用戶,在3個(gè)數(shù)據(jù)集上分別對模型訓(xùn)練200次.
我們將所提出模型的實(shí)驗(yàn)結(jié)果與3種類別的推薦模型做對比,包括傳統(tǒng)模型、深度神經(jīng)網(wǎng)絡(luò)模型和深度生成模型:
1) 傳統(tǒng)模型.WMF[31]是用于隱式反饋的線性低秩模型;SLIM[24]也是一種學(xué)習(xí)稀疏物品到物品相似矩陣的線性模型,滿足了top-N推薦系統(tǒng)所要求的高質(zhì)量和高效率.
2) 深度神經(jīng)網(wǎng)絡(luò)模型.NCF[7]通過神經(jīng)網(wǎng)絡(luò)探索用戶和物品之間的非線性交互;CDAE[9]是第一個(gè)將去噪自編碼器應(yīng)用于top-N推薦問題的模型,它通過在輸入中加入每個(gè)用戶的潛在因子來提高降噪自編碼器的標(biāo)準(zhǔn).
3) 深度生成模型:Mult-VAE[13]是一個(gè)具有多項(xiàng)式似然的生成模型,利用貝葉斯推斷進(jìn)行參數(shù)估計(jì),將變分自編碼器應(yīng)用于隱式反饋的協(xié)同過濾.
首先進(jìn)行一系列實(shí)驗(yàn)來測試不同參數(shù)設(shè)置對模型結(jié)果的影響;其次定量地比較了我們所提出的方法與各種基線模型的排序估計(jì).
3.5.1 參數(shù)影響
第1個(gè)實(shí)驗(yàn)調(diào)查了隱空間大小d對推薦結(jié)果的影響.圖2顯示了在3個(gè)數(shù)據(jù)集上,d的大小從50變化至300時(shí)對Recall@10和NDCG@10結(jié)果的影響.正如我們所預(yù)期的,在一開始隨著d的增加,我們所提出的模型在每個(gè)數(shù)據(jù)集上的性能均會提高,并且ML-100k和XuetangX數(shù)據(jù)集在d=100,Jester數(shù)據(jù)集在d=150時(shí)分別達(dá)到最好的結(jié)果.當(dāng)d的值在ML-100k和XuetangX數(shù)據(jù)集上超過100,在Jester數(shù)據(jù)集上超過150時(shí),模型的表現(xiàn)就會下降.較大的d表示將在較高維的空間中表示用戶,但當(dāng)較低維度的空間有足夠能力捕獲隱屬性時(shí),增大d則會降低模型的泛化能力,不利于推薦性能的提高.
Fig. 2 Effect of the latent space size d in terms of NDCG@10 and Recall@10圖2 隱空間大小d對NDCG@10和Recall@10的影響
圖3顯示了正則化系數(shù)β在3個(gè)數(shù)據(jù)集上對Recall@10和NDCG@10評價(jià)指標(biāo)的影響.結(jié)果表明隨著β值大小的增加,模型的表現(xiàn)變得更好,并且當(dāng)ML-100k數(shù)據(jù)集上β=0.2,XuetangX數(shù)據(jù)集上β=0.03和Jester數(shù)據(jù)集上β=0.1時(shí),模型結(jié)果最優(yōu),在此后隨著β的增大,模型的表現(xiàn)也隨之下降.這是因?yàn)檩^小的β可以充分利用zu的先驗(yàn)和后驗(yàn)之間的關(guān)系,而較大的β可能過于關(guān)注能力的限制,從而降低推薦的有效性.
Fig. 3 Effect of egularization coefficient β in terms of NDCG@10 and Recall@10圖3 正則化系數(shù)β對NDCG@10和Recall@10的影響
圖4顯示了排序損失系數(shù)γ在3個(gè)數(shù)據(jù)集上對Recall@10和NDCG@10評價(jià)指標(biāo)的影響.結(jié)果表明了隨著γ值的增加,模型表現(xiàn)變得更優(yōu),并且當(dāng)ML-100k數(shù)據(jù)集上γ=0.3,XuetangX數(shù)據(jù)集上γ=0.002和Jester數(shù)據(jù)集上γ=0.01時(shí)模型結(jié)果最好,在此后隨著γ的增大,模型的表現(xiàn)也隨之下降.結(jié)果表明,當(dāng)γ增加時(shí),我們所提出的個(gè)性化排名損失對于生成一個(gè)用戶的排序列表是有效的.但是當(dāng)γ過大時(shí)模型性能會下降,這說明過大的γ會使個(gè)性化排名在模型的學(xué)習(xí)過程中占主導(dǎo)地位.
Fig. 4 Effect of ranking loss coefficient γ in terms of NDCG@10 and Recall@10圖4 排序損失系數(shù)γ對NDCG@10和Recall@10的影響
3.5.2 性能分析
本節(jié)將所提出的模型與3.4節(jié)提到的5個(gè)模型進(jìn)行了實(shí)驗(yàn)對比.我們在不同數(shù)量的推薦列表長度中計(jì)算了Recall和NDCG的結(jié)果,并記錄在表2~4中.最佳和次佳的結(jié)果分別用加粗和下劃線標(biāo)記出來.從實(shí)驗(yàn)結(jié)果可以看出,包括我們所提出的模型在內(nèi)的多數(shù)深度模型(Mult-VAE,CDAE,NCF)比傳統(tǒng)模型(SLIM,WMF)在大多數(shù)實(shí)驗(yàn)結(jié)果上表現(xiàn)得更好,這表明非線性的特征能夠有助于提升推薦效果.然而SLIM在ML-100k數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果上好于一些深度模型,因?yàn)镾LIM對稀疏數(shù)據(jù)上的top-N推薦更有效.此外,在大多數(shù)實(shí)驗(yàn)結(jié)果中,包括我們所提出的模型和Mult-VAE在內(nèi)的深度生成模型表現(xiàn)要優(yōu)于其他深度模型CDAE,NCF,這表明了點(diǎn)級數(shù)據(jù)匹配的生成過程有助于學(xué)習(xí)更有效的用戶隱表示.我們所提出的模型在所有實(shí)驗(yàn)上優(yōu)于其他的深度方法Mult-VAE,CDAE,NCF,這表明了同時(shí)考慮隱式反饋數(shù)據(jù)生成和列表級排序可以提高推薦的有效性.
Table 2 Comparison Between Various Baselines and Our Proposed Method for ML-100k Dataset表2 在ML-100k數(shù)據(jù)集上基線模型與我們所提出的方法的對比
Table 3 Comparison Between Various Baselines and Our Proposed Method for XuetangX Dataset表3 在XuetangX數(shù)據(jù)集上基線模型與我們所提出的方法的對比
Table 4 Comparison Between Various Baselines and Our Proposed Method for Jester Dataset表4 在Jester數(shù)據(jù)集上基線模型與我們所提出的方法的對比
本文提出了一種將列表級排序?qū)W習(xí)方法應(yīng)用到深度生成推薦模型中,生成隱式反饋數(shù)據(jù)的個(gè)性化排序推薦列表的方法.該模型可以作為聯(lián)合深度生成方法,采用多項(xiàng)式分布對隱式反饋數(shù)據(jù)進(jìn)行特征描述,利用列表級排序模型對排序列表進(jìn)行學(xué)習(xí).實(shí)驗(yàn)表明,該模型在一些場景下具有為用戶生成個(gè)性化排名列表的能力,例如課程、電影推薦.在所有實(shí)驗(yàn)情況下,該模型在3個(gè)實(shí)際數(shù)據(jù)集上的表現(xiàn)均優(yōu)于現(xiàn)有的一些排序模型.