国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于神經(jīng)網(wǎng)絡和注意力機制的協(xié)同過濾推薦算法的研究

2024-10-17 00:00:00王寧李然王客程吳江范利利
現(xiàn)代電子技術 2024年20期
關鍵詞:協(xié)同過濾推薦系統(tǒng)注意力機制

摘" 要: 針對協(xié)同過濾推薦算法中用戶?物品矩陣的稀疏性,使得傳統(tǒng)協(xié)同過濾算法推薦度較差的問題,提出一種改進的基于神經(jīng)網(wǎng)絡和注意力機制的協(xié)同過濾推薦算法B?SDAECF,旨在解決傳統(tǒng)推薦系統(tǒng)中數(shù)據(jù)稀疏的問題。結合Transformer模型的變式Bert模型和堆疊式降噪自動編碼器(SDAE),利用Bert模型從用戶評論中提取高質量的特征表示,以獲得向量矩陣;并將向量矩陣作為SDAE的初始權重,從而使SDAE模型能夠更快速地運算,進而填充原有的用戶?項目評分矩陣。實驗結果顯示,相比傳統(tǒng)方法,所提方法在推薦系統(tǒng)的準確性和魯棒性上有顯著提升,推薦效果更優(yōu)秀。

關鍵詞: 神經(jīng)網(wǎng)絡; 注意力機制; 協(xié)同過濾; 推薦系統(tǒng); Bert模型; SDAE

中圖分類號: TN911?34; TP391.1" " " " " " " " " "文獻標識碼: A" " " " " " " " " " 文章編號: 1004?373X(2024)20?0095?06

Research on collaborative filtering recommendation algorithm based on neural

network and attention mechanism

WANG Ning, LI Ran, WANG Kecheng, WU Jiang, FAN Lili

(School of Information Engineering, Dalian Ocean University, Dalian 116023, China)

Abstract: In order to solve the problem that the sparseness of the user?item matrix in the collaborative filtering recommendation algorithm can cause poor recommendation degree of the traditional collaborative filtering algorithm, an improved collaborative filtering recommendation algorithm B?SDAECF based on neural network and attention is proposed to solve the problem of data sparsity in the traditional recommendation system. By combining the transformer Bert model of the Transformer model and the stacked denoise auto?encoder (SDAE), the Bert model is used to extract high?quality feature representations from user reviews to obtain the vector matrix. The vector matrix is used as the initial weight of the SDAE, so that the SDAE model can be operated more quickly, and then the original user?item scoring matrix is filled. The experimental results show that, in comparison with the traditional method, the proposed method can significantly improve the accuracy and robustness of the recommendation system, and has better recommendation performance.

Keywords: neural network; attention mechanism; collaborative filtering; recommendation system; Bert model; SDAE

0" 引" 言

當前人們最熟悉的電影領域、音樂領域、電商領域、社交領域和圖書領域都有各自成熟的推薦算法[1]。自20世紀末以來,推薦系統(tǒng)逐漸吸引了研究者的目光,并隨著互聯(lián)網(wǎng)技術的蓬勃發(fā)展,成為了當下熱門的研究方向。在推薦系統(tǒng)中,必不可少的就是推薦算法,而協(xié)同過濾算法[2]在其中留下濃厚的一筆。它通過計算用戶對項目的評分來計算用戶間的相似度,并以此推斷用戶的喜好,進行推薦。

在實際場景中,常常采用余弦相似度等方法作為用戶或項目之間的相似性標準。亞馬遜發(fā)表的關于其推薦算法的論文是協(xié)同過濾在推薦領域取得突破的關鍵事件[3]。該論文提出了兩種核心算法:基于用戶的協(xié)同過濾(UserCF)和基于物品的協(xié)同過濾(ItemCF)。這兩種算法的本質都是計算相似度來進行推薦。

UserCF通過尋找與當前用戶興趣相似的用戶,然后推薦這些相似用戶購買或評價過的物品。這種方法具有很強的社交特性,因為它基于用戶間的相似行為來推薦,然而,也受限于用戶?物品交互數(shù)據(jù)的稀疏性,即很多用戶可能只對少數(shù)物品有過交互,這會影響推薦的準確性。ItemCF則側重于計算物品之間的相似度。這種方法更適用于用戶對物品評價多的場景,然而,同樣存在交互數(shù)據(jù)稀少的問題。因此,傳統(tǒng)的協(xié)同過濾算法往往難以為用戶提供準確的推薦。

為了解決數(shù)據(jù)稀疏性所帶來的問題,后續(xù)的研究者提出了許多有效的方法,如引入更多的輔助信息、使用更復雜的相似度計算方法、結合其他類型的推薦算法等。這些進步共同加快了推薦系統(tǒng)技術的發(fā)展,使得協(xié)同過濾算法在推薦領域應用日益廣泛。

矩陣分解[4?5]是一種改善數(shù)據(jù)稀疏問題常用的技術,它將用戶和項目的評分矩陣拆分成兩個低秩矩陣并進行內(nèi)積操作,然后使用這兩個低秩矩陣對用戶和項目的交互做預測[6]。然而,矩陣分解模型存在局限性,即難以處理非線性關系。為了解決這些問題,人們把目光轉移到了神經(jīng)網(wǎng)絡上,其中最具代表性的是神經(jīng)協(xié)同過濾(Neural Collaborative Filtering, NCF)框架[7]。它代替?zhèn)鹘y(tǒng)的推薦算法來學習用戶與商品之間的聯(lián)系,以此解決非線性關系。此外,NCF還具有很好的通用性,可以適用于不同類型的數(shù)據(jù)和推薦場景。盡管NCF在推薦領域取得了一定的成功,但它仍然基于用戶行為數(shù)據(jù),沒有充分考慮用戶、物品和上下文信息,這意味著在推薦過程中,這些因素可能沒有得到充分利用,從而影響推薦的質量和準確性。上述方法雖然有著各自的優(yōu)勢,但是均存在數(shù)據(jù)稀疏的問題。

近年來,注意力機制在自然語言處理領域的應用確實取得了顯著的成果,其能夠通過賦予不同部分不同的權重,從而有效地聚焦于關鍵信息,其中較優(yōu)秀的則是Transformer模型[8]。用來獲取序列中不同位置關系的重中之重的是自注意力機制,這種機制使得Transformer具有上下文感知的能力,在處理自然語言任務時,能夠更好地理解和處理上下文信息,從而提高模型的準確性和魯棒性。

在推薦系統(tǒng)中,結合注意力機制與神經(jīng)網(wǎng)絡已然成為提高推薦效率的有效方法。卷積神經(jīng)網(wǎng)絡[9](Convolutional Neural Networks, CNN)是一種包含卷積運算的前饋神經(jīng)網(wǎng)絡,文獻[10]利用CNN提取用戶和項目的輔助信息特征。長短期記憶[11](Long Short Term Memory, LSTM)網(wǎng)絡則是一種特殊的循環(huán)神經(jīng)網(wǎng)絡,它可以控制信息的保留和遺忘,用來處理與時間相關的數(shù)據(jù)。文獻[12]使用注意力機制有效地捕捉用戶短期興趣,它充分強調(diào)用戶興趣按照時間的變化,并嘗試利用這種變化來對用戶進行推薦。然而,這種方法忽略了用戶長期興趣的影響,因此在某些場景下可能不夠準確。但該方法利用了注意力機制,為解決數(shù)據(jù)稀疏問題奠定了基礎。

文獻[13]結合附加堆疊式降噪自編碼器和基于CNN的矩陣分解來進行特征提取。這種方法在某些情況下表現(xiàn)良好,在一定程度上緩解了數(shù)據(jù)稀疏的問題,但卷積層未能充分考慮文本的上下文關系和順序性,仍存在缺陷。

文獻[14]提出的降噪自編碼器在特征提取方面取得了新的進展,但是其沒有考慮隨機的初始權重會使得模型產(chǎn)生運算過擬合等問題,大大降低了推薦的準確度,沒有很好地解決數(shù)據(jù)稀疏問題。

針對上述問題,本文提出了一種以Transformer模型為基礎的Bert模型[15]與堆疊式降噪自編碼器[16](Stacked Denoise Auto?Encoder, SDAE)相結合的協(xié)同過濾推薦算法,來對稀疏矩陣進行處理,將這種方法定義為B?SDAECF。算法使用Transformer模型對數(shù)據(jù)集中用戶的文本評論進行分析,從而對SDAE模型的初始權重進行規(guī)定,使得SDAE模型在訓練初期就盡可能地捕捉到數(shù)據(jù)的特征,提高模型的訓練效率和準確性。

1" 相關理論

1.1" Bert模型

Bert模型通過雙向Transformer來構建神經(jīng)網(wǎng)絡,其最重要的優(yōu)勢就是可以得到上下文信息的深層雙向語言特征。Bert模型的網(wǎng)絡架構如圖1所示,這種結構可以在預測詞匯的同時考慮其左右兩側的詞,從而更全面地捕捉上下文之間的依賴關系。相比之下,標準的Transformer模型在訓練時通常是單向進行處理,這限制了它在理解全局上下文方面的能力。Bert模型的特性取得了更好的性能優(yōu)化,甚至反超了以往的模型,因此本文選用Bert模型來挖掘文本中的深層次信息。

1.2" 堆疊式降噪自編碼器

自編碼器的網(wǎng)絡結構如圖2所示。SDAE是降噪自編碼器[17](Denoising Auto?Encoder, DAE)的一種變式,通過疊加多個自編碼器來逐步提取輸入數(shù)據(jù)的特征,隨著層數(shù)的增加,數(shù)據(jù)的特征逐步從前一層中提取出來,過濾不需要的信息,從而提高數(shù)據(jù)的質量和可用性。

在本文中,為了捕捉輸入數(shù)據(jù)的復雜特征和增強模型的魯棒性,選擇堆疊式降噪自編碼器作為建模的基礎。該編碼器通過反向傳播算法,可以對模型的參數(shù)進行調(diào)整和優(yōu)化,從而實現(xiàn)更好的特征提取和重構性能。

2" 基于B?SDAECF算法

本文提出了一種改進的推薦算法B?SDAECF,圖3展示了該模型的整體架構。首先,采用先進的Bert模型,從豐富的用戶評論數(shù)據(jù)中深度挖掘每位用戶對不同項目的獨特偏好,這些數(shù)據(jù)被精心轉化為項目向量矩陣,為后續(xù)分析提供堅實基礎。這些矩陣不僅捕捉了用戶的個性化需求,還被巧妙地用作SDAE輸入層的初始權重。通過SDAE模型能夠學習到更加穩(wěn)健和抗干擾的特征表示,進而實現(xiàn)對稀疏矩陣填充缺失值,計算用戶間的相似度,為用戶進行推薦。這種改進的推薦算法極大地豐富了用戶的個性化體驗。

2.1" 編碼處理

為了將文本數(shù)據(jù)轉換為自身所需要的格式,Bert模型使用WordPiece算法進行文本分割。首先,將整個文本字符串分割成詞匯單元(tokens),這些tokens包括單詞、子單詞或者字符,目的是減少未知詞(OOV)的數(shù)量,并提高模型的通用性。這些標記不僅包括原始文本中的詞匯,還包括特殊標記,如通常在序列的開始添加[CLS]標記,在序列的結束添加[SEP]標記。[CLS]標記用于分類任務,[SEP]標記用于分隔兩個句子或者表示序列的結束。接著,模型將這些標記轉換為嵌入向量,引入三種嵌入編碼標記的語義信息、段落信息和順序信息,結構如圖4所示。

結合圖4可知,Bert的輸出形式為Token_Embedding+Segment_Embedding+Position_Embedding。

2.2" Bert生成項目向量

在本文中,改進SDAE模型的隨機初始權重會導致推薦不準確,沒有很好地解決數(shù)據(jù)稀疏問題,故采用Bert模型從文本數(shù)據(jù)中提取高質量的特征表示作為SDAE模型的初始權重。Bert模型基于Transformer的編碼器架構,利用其自注意力機制可允許模型在處理每個單詞的表示時考慮到句子中的其他單詞,其數(shù)學表達為:

[Attention(Q,K,V)=softmaxQKTdKV] (1)

式中:Q、K和V分別是查詢(Query)、鍵(Key)、值(Value)矩陣,它們是輸入矩陣與相應權重矩陣的乘積;[dK]是鍵向量的維度。

本文通過并行使用多個自注意力機制(稱為“頭”)來捕獲不同的上下文關系。多頭注意力的輸出是所有頭計算結果的拼接,然后乘以一個權重矩陣,公式如下" [MultiHead(Q,K,V)=Concat(head1,head2,…,headn)WO] (2)

[headi=Attention(QWQi,KWKi,VWVi)] (3)

式中[WQi]、[WKi]、[WVi]和[WO]是參數(shù)矩陣。

在每個自注意力模塊之后,Bert使用一個前饋神經(jīng)網(wǎng)絡(FNN),對于每個位置都是相同的操作。經(jīng)過上述兩個模塊之后,Bert還應用殘差連接和層歸一化來促進深層網(wǎng)絡的訓練,最后根據(jù)所需的維度進行降維,得到項目向量。

2.3" SDAE填充評分矩陣

本文將Bert模型生成的項目向量矩陣作為SDAE的初步權重,選擇了一個簡化的兩層SDAE網(wǎng)絡架構。對于原始的評分矩陣,將每一行的數(shù)據(jù)x進行噪聲處理,即通過補零的方式處理缺失值,得到處理后的數(shù)據(jù)[x′],這些處理后的數(shù)據(jù)作為SDAE模型的輸入。借助Bert模型生成的項目向量W作為SDAE的初始權重,模型能夠在保留已有評分信息的同時,揭示潛在的規(guī)律并預測缺失的評分值。第一層的輸出公式為:

[nnx′=f′g′x′=σWTσWx′+y1+y2] (4)

對輸入數(shù)據(jù)x進行降噪處理,得到降噪后的數(shù)據(jù)[x′],[x′]中的缺失值被補充為0。然后,通過編碼函數(shù)[g′]將[x′]轉換為編碼表示,再通過解碼函數(shù)f'(·)將編碼表示還原為重構數(shù)據(jù)。在這個過程中,非線性sigmoid函數(shù)中的[σ·]用于引入非線性因素。同時,y1和y2表示網(wǎng)絡中的偏差值,用于調(diào)整網(wǎng)絡的輸出。

針對得到的結果,計算其與原始數(shù)據(jù)[x′]之間的重構誤差。如果超過設定的值,則會將誤差反向傳遞至網(wǎng)絡的各個層級,修正模型以努力縮小重構誤差。只有當誤差降至預設閾值以下時,第一層網(wǎng)絡才會達到全局最優(yōu)狀態(tài),此時會更新網(wǎng)絡的權重W和偏差y1。這一過程旨在通過不斷優(yōu)化網(wǎng)絡參數(shù),提升網(wǎng)絡對數(shù)據(jù)的重構能力。本文通過逐層訓練和優(yōu)化,最終使得整個網(wǎng)絡達到全局最優(yōu)。

誤差函數(shù)的具體形式如式(5)所示,它用于量化重構誤差的大小,指導網(wǎng)絡的訓練和優(yōu)化過程。

[L(X,X)=jNnn(X)j;-Xj2] (5)

式中:Xj表示數(shù)據(jù)集中的第j行輸入向量,代表了某一特定數(shù)據(jù)點的多維特征;而[nnXj]則表示對評分矩陣的第j行進行噪聲處理后,通過模型所得出的預測結果。這一預測是基于處理過的數(shù)據(jù),并通過神經(jīng)網(wǎng)絡的復雜計算得出的,用于反映處理噪聲后的數(shù)據(jù)對最終評分預測的影響。

3" 實驗結果和分析

3.1" 實驗數(shù)據(jù)集

本文選取帶有輔助信息的亞馬遜數(shù)據(jù)集(Amazon Review Data)作為實驗數(shù)據(jù)集,評分范圍為1~5分。用戶的信息涵蓋了諸如用戶ID、評分、評論文本等多種屬性。為了便于處理和分析,將這些信息轉換為二進制格式,從而更有效地進行數(shù)據(jù)處理和運算。同時,項目的輔助信息,如產(chǎn)品ID、類別信息和產(chǎn)品描述等,也被轉化為適合分析處理的特定格式。通過這種轉換能夠更加高效地利用這些信息,為后續(xù)的數(shù)據(jù)挖掘和推薦提供有力支持。

3.2" 評判標準

F1值[18]是召回率(Recall)和準確率(Precision)的調(diào)和平均數(shù),它試圖同時考慮到準確率和召回率,從而提供一個單一的性能度量。本文采用F1值作為評測標準。[F(u)]和[O(u)]分別代表訓練行為和測試集行為,分別反映了用戶的推薦偏好和實際行為偏好。準確率(Precision)、召回率(Recall)和F1的公式如下:

[Precision=u∈UF(u)?O(u)u∈UO(u)] (6)

[Recall=u∈UO(u)?F(u)u∈UF(u)] (7)

[F1=2·Precision+RecallPrecision·Recall] (8)

3.3" 實驗結果及分析

在SDAE模型中,影響實驗結果的參數(shù)主要是輸入數(shù)據(jù)的加噪比例。輸入數(shù)據(jù)的加噪比例指的是在訓練過程中,原始輸入數(shù)據(jù)被人為添加噪聲的比例或強度,目的是迫使模型學習從破壞的輸入中恢復出原始數(shù)據(jù),從而學習到更加魯棒和有用的數(shù)據(jù)表示。

本文在不同的噪聲比下進行20、30、50、100四種迭代次數(shù)的實驗,結果如圖5所示。由圖5可知,在不同迭代次數(shù)的情況下,噪聲比為0.4時模型的運算情況更好。加噪比例過高會使噪聲對原數(shù)據(jù)的干擾較大,同時也干擾了模型對原數(shù)據(jù)的識別,使得模型運算效果變差;而過低的噪聲比例會使得模型快速收斂但無法學習到數(shù)據(jù)的本質特征。此外,也進行了一系列對比實驗,以深入評估本文B?SDAECF模型的性能。將其與傳統(tǒng)的UserCF、ItemCF以及基于DAE的協(xié)同過濾(DAE)和矩陣分解算法(MF)進行了對比,結果如圖6所示。從圖6中可以看出,B?SDAECF模型與其他模型相比,在推薦質量上有著顯著的優(yōu)勢。具體而言,本文模型性能比DAE提高了約3.8%。通過利用Bert技術,模型能夠更精準地提取用戶的偏好。Bert的雙向上下文理解能力使得模型能夠捕捉到用戶的細微差別和深層次的興趣,這是傳統(tǒng)的DAE模型所難以做到的。相較于DAE這樣的線性模型,B?SDAECF作為非線性模型,在處理復雜的用戶?物品關系時具有更強的表示能力,它能夠捕捉到更多的非線性關系,從而更準確地預測用戶的喜好。與傳統(tǒng)的UserCF、ItemCF相比,本文模型的F1值分別提高了15.5%、18%。這是由于UserCF和ItemCF主要依賴于用戶?物品交互數(shù)據(jù)的相似性進行計算,沒有B?SDAECF在特征提取方面的靈活性和深度。與MF相比本文模型的F1值提升了9%,說明該模型在處理非線性的關系時具有更好的優(yōu)勢。而MF主要基于線性關系進行建模,無法充分捕獲數(shù)據(jù)中的復雜模式。

綜上所述,B?SDAECF模型通過深度提取用戶偏好、優(yōu)化初始權重參數(shù)以及利用非線性建模的優(yōu)勢,實現(xiàn)了比傳統(tǒng)的DAE模型更高的推薦質量。此外,與其他傳統(tǒng)的推薦模型相比,該模型也展現(xiàn)出了明顯的性能優(yōu)勢,進一步證明了非線性模型在推薦系統(tǒng)中的適用性。

4" 結" 語

本文提出一種改進的推薦算法,該算法融合了Bert模型和SDAE,目的是解決傳統(tǒng)推薦系統(tǒng)中數(shù)據(jù)稀疏的問題。首先,運用Bert模型深度分析數(shù)據(jù)集中的用戶評論,精準捕捉用戶的興趣點,并據(jù)此生成相應的項目向量;其次,將項目向量作為SDAE的初始權重參數(shù),從而構建出更為精準的推薦模型。

該方法不僅有效地填充了用戶?項目矩陣中的缺失數(shù)據(jù),還進一步利用填充后的完整矩陣來確定與目標用戶興趣相近的其他用戶,并為這些用戶推薦他們可能感興趣的項目。實驗結果表明,本文提出的B?SDAECF模型在推薦精度和質量上均具有顯著優(yōu)勢,能夠為用戶帶來更加精準、個性化的推薦體驗。

注:本文通訊作者為李然。

參考文獻

[1] 龍國虎,朵琳.神經(jīng)網(wǎng)絡推薦系統(tǒng)協(xié)同過濾算法研究[J].中國水運(下半月),2024,24(3):40?42.

[2] GOLDBERG D, NICHOLS D A, OKI B M, et al. Using collaborative filtering to weave an information TAPESTRY [J]. Communications of the ACM, 1992, 35(12): 61?70.

[3] LINDEN G, SMITH B, YORK J. Industry report: amazon.com recommendations: item?to?item collaborative filtering [J]. IEEE internet computing, 2003, 7(1): 76?80.

[4] BLEI D M, NG A Y, JORDAN M I. Latent dirichlet allocation [J]. Journal of machine learning research, 2003, 3: 993?1022.

[5] KOREN Y. Factorization meets the neighborhood: a multi?faceted collaborative filtering model [C]// Proceedings of the 14th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. [S.l.]: ACM, 2008: 426?434.

[6] 包晨.基于深度神經(jīng)網(wǎng)絡的協(xié)同過濾推薦算法研究[D].濟南:山東建筑大學,2023.

[7] HE X, LIAO L, ZHANG H, et al. Neural collaborative filtering [C]// Proceedings of the 26th International Conference on World Wide Web. Perth, Australia: IEEE, 2017: 173?182.

[8] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need [C]// Advances in Neural Information Processing Systems. Long Beach, USA: IEEE, 2017: 5998?6008.

[9] LECUN Y, BOTTOU L. Gradient?based learning applied to document recognition [J]. Proceedings of the IEEE, 1998, 86(11): 2278?2324.

[10] SEO S Y, HUANG J, YANG H, et al. Interpretable convolutional neural networks with dual local and global attention for review rating prediction [C]// Proceeding of the Eleventh ACM Conference on Recommender Systems. Como, Italy: ACM, 2017: 297?305.

[11] HOCHREITER S, SCHMIDHUBER J. Long short?term memory [J]. Neural computation, 1997, 9(8): 1735?1780.

[12] YIN W, SCHüTZE H, XIANG B, et al. ABCNN: attention?based convolutional neural network for modeling sentence pairs [J]. Transactions of the association for computational linguistics, 2016, 4(4): 259?272.

[13] LIU J, WANG D, DING Y. PHD: a probabilistic model of hybrid deep collaborative filtering for recommender systems [J]. Journal of machine learning research, 2017, 77: 224?239.

[14] WU Y, DUBOIS C, ZHENG A X, et al. Collaborative denoising auto?encoders for top?n recommender systems [C]// Proceedings of the Ninth ACM International Conference on Web Search and Data Mining. San Francisco, CA, USA: ACM, 2016: 153?162.

[15] DEVLIN J, CHANG M W, LEE K, et al. BERT: pre?training of deep bidirectional transformers for language understanding [EB/OL]. [2023?11?07]. https://arxiv.org/pdf/1810.04805.

[16] VINCENT P, LAROCHELLE H, LAJOIE I, et al. Stacked denoising autoencoders: learning useful representations in a deep network with a local denoising criterion [J]. Journal of machine learning research, 2010, 11(12): 102?110.

[17] VINCENT P, LAROCHELLE H, BENGIO Y, et al. Extracting and composing robust features with denoising autoencoders [C]// Proceedings of the 25th International Conference on Machine Learning. Helsinki, Finland: ICML, 2008: 1096?1103.

[18] WU Y, LIU X, XIE M, et al. CCCF: improving collaborative filtering via scalable user?item co?clustering [C]// Proceedings of the Ninth ACM International Conference on Web Search and Data Mining. San Francisco, CA, USA: ACM, 2016: 73?82.

[19] 李昌兵,陳思彤,羅陳紅,等.基于物品交互約束的自編碼器推薦模型[J/OL].重慶郵電大學學報(自然科學版):1?7[2024?03?31].http://kns.cnki.net/kcms/detail/50.1181.N.20240329.0929.002.html.

作者簡介:王" 寧(1999—),男,遼寧大連人,碩士研究生,研究方向為推薦算法。

李" 然(1967—),女,遼寧大連人,副教授,主要研究方向為計算機科學與技術。

王客程(2000—),男,遼寧沈陽人,碩士研究生,研究方向為深度學習。

吳" 江(1998—),男,甘肅白銀人,碩士研究生,研究方向為深度學習。

范利利(1997—),男,山東菏澤人,碩士研究生,研究方向為推薦算法。

DOI:10.16652/j.issn.1004?373x.2024.20.015

引用格式:王寧,李然,王客程,等.基于神經(jīng)網(wǎng)絡和注意力機制的協(xié)同過濾推薦算法的研究[J].現(xiàn)代電子技術,2024,47(20):95?100.

收稿日期:2024?04?17" " " " " "修回日期:2024?05?20

基金項目:中國醫(yī)藥教育協(xié)會2022重大科學攻關問題和醫(yī)藥技術難題重點課題(2022KTM036)

猜你喜歡
協(xié)同過濾推薦系統(tǒng)注意力機制
基于深度學習的問題回答技術研究
基于LSTM?Attention神經(jīng)網(wǎng)絡的文本特征提取方法
基于注意力機制的雙向LSTM模型在中文商品評論情感分類中的研究
軟件工程(2017年11期)2018-01-05 08:06:09
InsunKBQA:一個基于知識庫的問答系統(tǒng)
基于用戶偏好的信任網(wǎng)絡隨機游走推薦模型
基于鏈式存儲結構的協(xié)同過濾推薦算法設計與實現(xiàn)
軟件導刊(2016年11期)2016-12-22 21:40:40
基于相似傳播和情景聚類的網(wǎng)絡協(xié)同過濾推薦算法研究
基于個性化的協(xié)同過濾圖書推薦算法研究
個性化推薦系統(tǒng)關鍵算法探討
基于協(xié)同過濾算法的個性化圖書推薦系統(tǒng)研究
昌图县| 灵山县| 松滋市| 丹寨县| 商丘市| 芷江| 文山县| 长海县| 遵义县| 靖远县| 泰和县| 三穗县| 奈曼旗| 抚远县| 临沧市| 柳河县| 商丘市| 汨罗市| 黔西县| 金塔县| 个旧市| 维西| 准格尔旗| 大港区| 榆中县| 娄底市| 枞阳县| 商南县| 宜丰县| 吉木萨尔县| 铜川市| 芦溪县| 汽车| 武鸣县| 蛟河市| 石棉县| 古交市| 泰宁县| 平潭县| 大连市| 无锡市|