国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于因果推斷的公平推薦系統(tǒng)研究

2024-12-29 00:00:00閉應(yīng)洲蔣鑫鑫劉鵬輝鄧超朱名軍
關(guān)鍵詞:推薦系統(tǒng)公平性偏差

摘 要:隨著在線平臺和軟件的發(fā)展,推薦系統(tǒng)逐漸成為信息過濾和個性化服務(wù)的重要工具。但在提升用戶體驗的同時,推薦系統(tǒng)也引發(fā)了公平性問題,這些問題不僅容易引起相應(yīng)的社會倫理問題,而且可能損害弱勢群體的利益。因此,構(gòu)建公平的推薦系統(tǒng)至關(guān)重要。近年來,研究者開始利用因果推斷方法解決推薦系統(tǒng)的公平性問題。為了解這一領(lǐng)域最新的研究進展,文章對相關(guān)研究進行了梳理與總結(jié)。首先,概述了推薦系統(tǒng)不公平性的成因、公平性的分類以及確保公平性的方法;其次,簡要介紹了因果推斷的基本內(nèi)容,系統(tǒng)地總結(jié)了基于因果推斷的公平推薦系統(tǒng)研究進展,探討了因果模型如何通過因果干預(yù)和反事實實現(xiàn)更公正的推薦結(jié)果;最后,對推薦系統(tǒng)公平性研究的未來方向進行展望。

關(guān)鍵詞:推薦系統(tǒng);因果推斷;偏差;公平性;因果干預(yù);反事實

中圖分類號:TP391 文獻(xiàn)標(biāo)識碼:A

0" " 引言

隨著大數(shù)據(jù)時代的到來,各類信息呈指數(shù)級增長,人們在海量信息中尋找符合個人偏好的內(nèi)容變得日益困難,因此,推薦系統(tǒng)應(yīng)運而生。通過分析用戶的歷史行為和喜好等信息,推薦系統(tǒng)可以為用戶推薦相關(guān)的商品、音樂、新聞、教育資源和工作機會等,這極大地簡化了用戶的決策過程,在多個領(lǐng)域得到了廣泛應(yīng)用。隨著推薦系統(tǒng)的快速發(fā)展和廣泛應(yīng)用,公眾對推薦系統(tǒng)的公平性提出了更高的要求,期望系統(tǒng)在推薦過程中不因性別、種族和地理位置等屬性而導(dǎo)致推薦機會的不平等。推薦系統(tǒng)的公平性問題已成為研究領(lǐng)域的重要議題。

推薦系統(tǒng)通過分析用戶的歷史交互數(shù)據(jù)(購買歷史、瀏覽記錄和評分等)來發(fā)現(xiàn)用戶搜索的物品或內(nèi)容之間的潛在關(guān)聯(lián),并基于這些關(guān)聯(lián)向用戶推薦新物品或內(nèi)容。而僅依賴于觀測數(shù)據(jù)的相關(guān)性分析可能會導(dǎo)致推薦算法產(chǎn)生不公平現(xiàn)象。原因在于,這些數(shù)據(jù)往往存在偏差,反映的是用戶的歷史需求和行為模式。而這些模式可能無意中排除了某些群體,或者增強了對特定群體的偏好傾向。如果算法直接從這些有偏差的數(shù)據(jù)中學(xué)習(xí),可能會無意中延續(xù)甚至加劇這些不平等現(xiàn)象;如果推薦系統(tǒng)在提供推薦時傾向于某一特定群體(基于性別和種族等因素),那么其他群體可能會受到不公平的對待。這不僅違背了道德準(zhǔn)則,也可能違反了法律規(guī)定。即便是在同一群體內(nèi),不同個體的需求和偏好也可能存在差異。如果推薦系統(tǒng)未能捕捉到這些細(xì)微的差異,就可能難以為所有用戶提供公平且個性化的推薦服務(wù)。

為解決推薦系統(tǒng)中存在的不公平問題,研究人員設(shè)計了包括基于因果推斷的多種方法。因果推斷關(guān)注的是理解并量化不同變量之間的因果關(guān)系,而不僅僅是相關(guān)性。在推薦系統(tǒng)中,因果推斷可以識別和糾正可能導(dǎo)致不公平性的偏差。傳統(tǒng)的推薦系統(tǒng)往往基于相關(guān)性分析,如協(xié)同過濾或基于內(nèi)容的推薦,主要關(guān)注物品或內(nèi)容和用戶行為之間的關(guān)聯(lián)性,但難以區(qū)分真正導(dǎo)致用戶偏好的原因。因果推斷可以分析一個變量(推薦的內(nèi)容)是否真正導(dǎo)致了另一個變量的改變(用戶的滿意度)。此外,在評估推薦系統(tǒng)的效果時,可能存在混雜因素,即那些同時影響推薦策略和結(jié)果的未觀測變量。因果推斷通過使用傾向得分匹配、后門調(diào)整或雙重差分等技術(shù)手段,能夠有效控制混雜因素的影響,從而更準(zhǔn)確地評估推薦對用戶行為的實際影響。因此,用因果推斷提高推薦系統(tǒng)的公平性是一個重要且有意義的方向。

隨著公平推薦系統(tǒng)的發(fā)展,近幾年涌現(xiàn)了一些關(guān)于公平推薦系統(tǒng)的綜述文獻(xiàn)。例如:李文?。?]對推薦系統(tǒng)中的公平性進行了總結(jié)和分類,并簡要概述了現(xiàn)有推薦系統(tǒng)公平性算法;喻繼軍等[2]總結(jié)了造成電子商務(wù)推薦系統(tǒng)呈現(xiàn)不公平性的原因和解決方案;Jin等[3]對現(xiàn)有的公平推薦系統(tǒng)算法進行了分類研究。區(qū)別于現(xiàn)有的研究綜述,本文聚焦基于因果推斷的公平推薦系統(tǒng)研究。首先,對推薦系統(tǒng)的公平性進行簡要闡述,概述因果推斷的基本概念;其次,依據(jù)因果關(guān)系的2個核心層次,將基于因果推斷的公平推薦系統(tǒng)的研究方法劃分為因果干預(yù)方法和反事實方法;最后,討論這一研究領(lǐng)域的未來發(fā)展趨勢。

1" " 推薦系統(tǒng)中的公平性

1.1" "不公平性的成因

造成推薦系統(tǒng)不公平的原因有很多。推薦系統(tǒng)主要受數(shù)據(jù)、模型和反饋等3個方面的影響,任何一方面都有可能造成推薦系統(tǒng)的不公平推薦。

1.1.1" "數(shù)據(jù)偏差

推薦系統(tǒng)的候選推薦列表是通過分析大量的用戶歷史行為數(shù)據(jù)預(yù)測出來的。在訓(xùn)練和測試過程中,推薦系統(tǒng)所使用的數(shù)據(jù)是觀測數(shù)據(jù),而不是經(jīng)過一系列隨機試驗收集而來的試驗數(shù)據(jù)[4]。常見的數(shù)據(jù)偏差主要有以下4種:1) 曝光偏差。推薦系統(tǒng)根據(jù)用戶的歷史行為和偏好進行個性化推薦。然而,這種“個性化”可能會讓推薦系統(tǒng)減少對其他相關(guān)物品的曝光,從而導(dǎo)致用戶只看到與其現(xiàn)有觀點相符的內(nèi)容,造成“信息繭房”。但是,用戶未出現(xiàn)過的行為,并不代表用戶不感興趣,有可能只是用戶不知道或者尚未接觸這方面的信息。2) 選擇偏差。推薦系統(tǒng)在訓(xùn)練和測試過程中所使用的數(shù)據(jù)集非常稀疏,尤其是涉及打分和評論的推薦系統(tǒng),用戶可能只是有選擇性地對自己喜愛或厭惡的項目進行打分或評論。3) 從眾性偏差。有些用戶有從眾心理,他們可能會下意識地模仿他人的觀點進行交互、打分或評論,從而導(dǎo)致收集到的數(shù)據(jù)不能較好地反映用戶的真實情況,在后續(xù)的推薦中可能產(chǎn)生不公平的推薦。4) 位置偏差。在推薦系統(tǒng)中,項目的展示位置也很重要,這是因為許多用戶傾向于與排名靠前的項目進行互動,而忽視了列表后面的內(nèi)容。以購物為例,大多數(shù)用戶更可能購買推薦列表前面的商品,而不是購買推薦列表后面的商品。

1.1.2" "模型偏差

推薦系統(tǒng)的模型也可能引入偏差。推薦模型的核心是從過去的交互數(shù)據(jù)中推斷出用戶偏好,預(yù)測用戶選擇未交互過的項目的可能性。若模型結(jié)構(gòu)或損失函數(shù)存在偏差,或者優(yōu)化技術(shù)使用不當(dāng),就可能導(dǎo)致系統(tǒng)對某些用戶或項目產(chǎn)生偏好,進而引發(fā)推薦結(jié)果的不公平或不均衡。

1.1.3" "反饋偏差

推薦系統(tǒng)是在循環(huán)反饋的過程中不斷進行優(yōu)化的,同時偏差也會在循環(huán)反饋的過程中不斷加劇,這可能會導(dǎo)致推薦系統(tǒng)的推薦結(jié)果愈加不公平。流行偏差指物品的流行度會影響推薦系統(tǒng)推薦候選項目的排序,因此大多數(shù)傳統(tǒng)推薦算法產(chǎn)生的推薦候選列表會過度集中于流行項目。在推薦系統(tǒng)中,用戶與項目的交互數(shù)據(jù)在受歡迎程度上通常呈現(xiàn)長尾分布(少數(shù)頭部項目占據(jù)了大部分交互,而大多數(shù)項目受到的關(guān)注相對較少),若推薦系統(tǒng)過分強調(diào)流行和主流項目,而忽視了與用戶個人興趣緊密相關(guān)的項目,這種偏向可能會造成對邊緣項目的忽視,進而導(dǎo)致推薦結(jié)果的不公平性。

1.2" "公平性的分類

1.2.1" "個體公平與群體公平

個體公平是指推薦系統(tǒng)不受性別和民族等敏感特征的影響,對相似的用戶給予相似的推薦結(jié)果。例如,為確保學(xué)習(xí)者在教育平臺上獲得平等的推薦學(xué)習(xí)機會,可以通過在個性化推薦中實現(xiàn)個人層面的公平,來保障學(xué)習(xí)機會的均等分配[5]。群體公平是指推薦系統(tǒng)不偏向于某一特定或優(yōu)勢的群體,即相同條件下的群體應(yīng)該得到相似的待遇。例如,活躍用戶(優(yōu)勢群體)和不活躍用戶之間(劣勢群體)的推薦質(zhì)量應(yīng)該相似[6]。

1.2.2" "用戶(消費者)公平性與項目(生產(chǎn)者)公平性

用戶公平性是指推薦系統(tǒng)公平對待不同用戶群體或相似個人用戶,重點關(guān)注的是推薦的質(zhì)量。例如,張軍[7]從用戶的敏感屬性和活躍度2個維度對用戶公平性進行了研究,旨在通過這些研究提高用戶的滿意度。項目公平性則關(guān)注推薦系統(tǒng)是否公平對待不同組的項目或相似單個項目,看重的是物品的排名與曝光。例如,在新聞推薦中,系統(tǒng)往往會向用戶推薦熱門提供者發(fā)布的新聞,這對其他冷門新聞提供者來說是不公平的。為解決這一問題,應(yīng)提供公平感知的新聞推薦框架(Pro Fair Rec),其站在新聞提供者的角度進行學(xué)習(xí)表示,創(chuàng)建一個確保提供者公平的新聞推薦模型[8]。然而,若只關(guān)注其中某一方面,那么可能對物品和用戶都不公平。因此,在設(shè)計推薦算法時,研究者會對這兩者進行權(quán)衡。Wang等[9]提出雙邊公平性和多樣性排名算法(Rank for Two-Sided Fairness and Diversity,TSFD),該算法利用凸優(yōu)化(Convex Optimization)技術(shù)找到用戶公平和項目公平之間的最佳平衡點,充分確保了用戶和項目兩方面的公平性。

1.2.3" "靜態(tài)(短期)公平與動態(tài)(長期)公平

靜態(tài)公平關(guān)注的是在靜態(tài)環(huán)境(在推薦過程中用戶偏好和物品屬性等都不變)中是否為不同群體或個體提供了相同的機會和待遇。現(xiàn)有的關(guān)于推薦公平性的研究大多考慮的是靜態(tài)公平性,其中包括通過公平約束的方法緩解不公平問題。例如,基于啟發(fā)式重排序的公平約束方法來減少不同用戶活躍程度的群體之間存在的推薦不公平性問題[10]。動態(tài)公平則關(guān)注系統(tǒng)在動態(tài)環(huán)境中是否為不同群體或個體提供了相同的機會和待遇。Ge等[11]認(rèn)為,受歡迎程度是隨時間變化的,因此他們提出使用約束馬爾可夫決策過程(Constrained Markov Decision Process,CMDP)來解決推薦系統(tǒng)中的長期公平性問題。

1.2.4" "關(guān)聯(lián)公平與因果公平

關(guān)聯(lián)公平是根據(jù)用戶和項目的特征和結(jié)果之間的相關(guān)性提升公平的方法。目前,大多數(shù)研究中的公平推薦系統(tǒng)算法都是基于關(guān)聯(lián)公平的。因果公平則是從用戶和物品的特征變量之間的因果關(guān)系來考慮推薦系統(tǒng)的公平性,即基于數(shù)據(jù)的基礎(chǔ)上,以因果模型的形式考慮有關(guān)世界結(jié)構(gòu)的額外知識(因果圖)[12]。這種基于因果公平的推薦系統(tǒng)有助于深入理解數(shù)據(jù)生成機制以及變量間的相互影響,從而更準(zhǔn)確地評估和提升推薦系統(tǒng)的公平性。

1.3" "如何保證公平性

1.3.1" "數(shù)據(jù)去偏

數(shù)據(jù)作為訓(xùn)練推薦算法的基礎(chǔ)具有重要作用。目前使用的用戶交互數(shù)據(jù)是觀察得到的,而不是通過試驗所得。這個數(shù)據(jù)受到很多因素的影響,如熱點和輿論等。因此,數(shù)據(jù)若是存在偏差,現(xiàn)實世界中推薦系統(tǒng)的反饋回路會不斷地將偏差放大,從而造成推薦系統(tǒng)的不公平性問題。為了設(shè)計公平的推薦系統(tǒng),研究人員通常會先對數(shù)據(jù)進行去偏操作,解決數(shù)據(jù)分布不平衡的問題,以此來確保訓(xùn)練數(shù)據(jù)集的代表性,同時也可以減少歷史偏見對試驗數(shù)據(jù)的影響。因果推斷法為數(shù)據(jù)去偏提供了較好的解決方案。例如,李昌樹[13]認(rèn)為,數(shù)據(jù)偏差會影響推薦系統(tǒng)的推薦性能,因此他對數(shù)據(jù)偏差進行了因果分析,并用反事實推理解決了數(shù)據(jù)偏差的問題,保證了系統(tǒng)推薦的公平性。

1.3.2" "公平算法設(shè)計

數(shù)據(jù)偏差是造成系統(tǒng)推薦不公平的原因之一,而在設(shè)計算法的過程中也可能會出現(xiàn)偏差。因此,設(shè)計算法時就需將公平性指標(biāo)考慮在內(nèi),從而對其進行公平性的約束。正則化是一個很好的促進公平性的方法,Abdollahpouri等[14]通過基于矩陣的正則化來減少流行偏見;對抗學(xué)習(xí)也是一個確保算法公平的常用方法,通常用來去除敏感屬性,Wu等[15]將對抗學(xué)習(xí)和正交正則化結(jié)合來緩解新聞推薦中存在的不公平性問題。

1.3.3" "提高推薦多樣性

目前,很多推薦系統(tǒng)會更傾向于推薦相似或同質(zhì)的內(nèi)容和物品,這可能導(dǎo)致“信息繭房”[16]。這不僅會讓用戶困于其中,難以接觸到其他的“小眾”物品,也導(dǎo)致那些“小眾”物品的提供商曝光逐漸降低。因此,可以在推薦列表中增加物品或內(nèi)容的多樣性,讓用戶能接收到更多類型的推薦內(nèi)容,避免過度聚焦熱門物品或流行內(nèi)容,以此提高用戶滿意度,并在探索用戶偏好的同時維護公平性。例如,夏瑞玲等[17]將用戶的長期和短期興趣結(jié)合進行推薦,在提升推薦的多樣性的同時,緩解了推薦的不公平問題。

1.3.4" "動態(tài)反饋循環(huán)

不同用戶有不同的偏好,而通過采用在線學(xué)習(xí)或強化學(xué)習(xí)技術(shù),能夠?qū)崿F(xiàn)對推薦策略的實時監(jiān)測和調(diào)整,使得系統(tǒng)能夠持續(xù)適應(yīng)用戶的需求和偏好。這不僅有助于提供更個性化的推薦,也能夠提高向個體用戶推薦的公平性。另外,實施良好的反饋機制也很重要,這可能讓用戶反饋其對推薦的感受,并據(jù)此調(diào)整模型,以提高用戶滿意度。

1.3.5" "提高透明度和解釋性

提高系統(tǒng)的透明度,讓消費者和生產(chǎn)者了解推薦結(jié)果是如何生成的,并給出相應(yīng)的推薦理由,這不僅能提高用戶的接受度和滿意度,還可能幫助設(shè)計師發(fā)現(xiàn)潛在的公平性問題。馮興杰等[18]通過使用交互注意力實現(xiàn)了用戶和該物品的動態(tài)交互,也提升了預(yù)測評分的可解釋性。通過對這一機制進行深入分析,可以發(fā)現(xiàn)并解決一定的公平性問題,提升推薦系統(tǒng)的公平性。

2" " 因果推斷概述

目前,大多數(shù)推薦系統(tǒng)的模型都是通過計算用戶或物品之間的相關(guān)性得到推薦的候選列表。在日常生活中,我們也經(jīng)常會將相關(guān)性和因果性替換使用。但是,相關(guān)性并不等于因果性。例如,通過統(tǒng)計分析數(shù)據(jù)的相關(guān)性,可能得到孩子的鞋碼越大閱讀能力越強的結(jié)論,這說明鞋碼和閱讀能力之間有很強的相關(guān)性。然而,真正影響孩子閱讀能力的是年齡,且年齡會同時影響孩子鞋碼和閱讀能力,如果忽略了孩子的年齡,單純考察孩子的鞋碼和閱讀能力之間的關(guān)聯(lián),就會得到孩子的鞋碼越大閱讀能力越強的錯誤結(jié)論,因為孩子年齡是孩子的鞋碼與閱讀能力之間因果關(guān)系的混淆因子(Confounder)。在現(xiàn)實生活中,有些因果關(guān)系是很明顯的,但是也有許多因果關(guān)系不易觀察。而因果推斷(Causal Inference)就是根據(jù)結(jié)果發(fā)生的條件,分析因果關(guān)系的過程,即用于刻畫2個或多個變量之間的因果關(guān)系,在醫(yī)學(xué)、社會學(xué)、經(jīng)濟學(xué)和計算機等領(lǐng)域被廣泛使用。因果推斷有關(guān)聯(lián)、干預(yù)和反事實等3個層級,其中,關(guān)聯(lián)層級是分析數(shù)據(jù)之間的規(guī)律,以及對歷史數(shù)據(jù)的總結(jié)。大多數(shù)機器學(xué)習(xí)算法和深度學(xué)習(xí)模型目前所能實現(xiàn)的就是因果推斷的關(guān)聯(lián)層級,即根據(jù)歷史數(shù)據(jù)進行相關(guān)性預(yù)測。

因果推斷主要需要解決2個問題:因果關(guān)系發(fā)現(xiàn)(Causal Discovery)和因果效應(yīng)估計(Causal Effect Estimation)。因果關(guān)系發(fā)現(xiàn)是因果推斷的基礎(chǔ),需要從復(fù)雜的數(shù)據(jù)中挖掘出變量之間是否存在因果關(guān)系,以及變量之間因果關(guān)系的表現(xiàn)。如螺螄粉的宣傳與螺螄粉銷量之間可能存在因果關(guān)系,且宣傳是螺螄粉銷量上漲的原因之一。因果效應(yīng)估計是在發(fā)現(xiàn)因果關(guān)系的基礎(chǔ)上,估計改變原因而導(dǎo)致結(jié)果變化的程度,如螺螄粉宣傳與不宣傳對其銷量的影響就是需要估計的因果效應(yīng)。因果關(guān)系發(fā)現(xiàn)和因果效應(yīng)估計較直接和有效的方法是隨機試驗,但成本昂貴且可能引發(fā)道德問題,如讓沒病的人吃藥和讓不吸煙的人吸煙等。因此,研究人員都是基于觀測數(shù)據(jù)進行因果推斷。例如,煙草公司從數(shù)據(jù)上觀察到吸煙與肺癌之間的相關(guān)性,但他們認(rèn)為吸煙不是引發(fā)肺癌的主要原因,而遺傳才是導(dǎo)致肺癌的主要原因,從而阻止了反吸煙立法。后來有人通過引入中間變量焦油沉積來排除混淆因子,分析表明吸煙引發(fā)的焦油沉積會導(dǎo)致肺癌發(fā)生率提高,從而證實了吸煙與肺癌之間存在因果關(guān)系。通過上述例子我們發(fā)現(xiàn),單純依靠觀察到的數(shù)據(jù)不足以進行決策,需要通過一系列的因果推斷技術(shù)才能識別出變量之間真正的因果關(guān)系。此外,因果推斷還有2種典型的框架:結(jié)構(gòu)因果模型和潛在結(jié)果框架。通常,結(jié)構(gòu)因果模型將變量之間的因果關(guān)系抽象成因果圖,構(gòu)建結(jié)構(gòu)函數(shù),然后進行因果推理來估計交互或反事實的效應(yīng)。潛在結(jié)果框架是基于反事實,考慮不同條件下的潛在結(jié)果,根據(jù)潛在結(jié)果之差來估計因果效應(yīng)。因果圖是一個有向無環(huán)圖,能夠清楚、形象地描述變量之間的因果關(guān)系,也能夠清晰地表示干預(yù)和反事實等操作,讓復(fù)雜的問題更容易被理解。而在推薦系統(tǒng)中,公平性問題是一個既重要又很復(fù)雜的問題。因此,近2年用因果推斷解決推薦系統(tǒng)公平性問題的發(fā)展很迅速。因果推斷認(rèn)為,推薦系統(tǒng)在某種程度上改變了用戶的行為和選擇,所以研究者經(jīng)常會根據(jù)自己的理解和推薦系統(tǒng)的已知變量來構(gòu)建因果圖。這樣可以直觀地觀察到影響用戶行為和選擇的因素,便于理解用戶作出決策的過程,不僅能夠使研究者選擇合適的方法解決問題,也能夠增加模型的可解釋性。

3" " 基于因果推斷的推薦系統(tǒng)公平性算法

近年來,越來越多的研究者開始運用因果推斷來解決推薦系統(tǒng)中存在的公平性問題,并取得了顯著的成果。本文通過因果關(guān)系的2個層次(干預(yù)和反事實),將現(xiàn)有的研究方法分為2類:基于因果干預(yù)的方法和基于反事實的方法。

3.1" "基于因果干預(yù)的方法

隨機試驗是因果推斷中確定因果關(guān)系的有效方式。在隨機試驗中,為消除混雜因子的影響,研究者通常會將樣本隨機分為處理組與對照組,并確保處理組和對照組2者除試驗變量,其他因素基本相似。然后,對處理組進行特定的處理,其他樣本作為對照組不作任何處理。其中,對處理組進行的特定處理就是因果推斷中的干預(yù),Do算子(Do-operator)是表示對某一變量進行干預(yù)操作的重要符號。但在推薦系統(tǒng)領(lǐng)域進行隨機試驗困難且需要付出巨大的代價。首先,推薦系統(tǒng)通常需要較長時間才能觀察到用戶的反饋,如點擊、購買和收藏等,那么就需要等待足夠的時間來收集數(shù)據(jù)并分析結(jié)果,這就導(dǎo)致試驗周期長和成本高昂,并且可能會影響用戶體驗。其次,用戶的行為會受到多種因素的影響,如個人偏好、歷史行為和流行性等,隨機試驗很難控制這些變量且保證隨機分配。最后,在推薦系統(tǒng)中進行隨機試驗可能會侵犯用戶的隱私。因此,推薦系統(tǒng)中的因果推斷以觀測數(shù)據(jù)為基礎(chǔ)。研究者們通過一系列數(shù)學(xué)公式的轉(zhuǎn)換,實現(xiàn)了Do算子在觀測數(shù)據(jù)上的操作,從而模擬因果推斷中的干預(yù)效果。

因果推斷中最重要的3種干預(yù)方法:后門調(diào)整、前門調(diào)整和逆概率加權(quán)。后門調(diào)整可隔絕不感興趣的因果關(guān)系,只留下感興趣的因果路徑,通過控制(或條件化)混雜變量來消除其對因果效應(yīng)估計的影響。前門調(diào)整通過中介變量估計因果效應(yīng),同時可以排除混淆變量的影響。逆概率加權(quán)通過賦予不同的權(quán)重,糾正選擇偏差。其中后門調(diào)整和逆概率加權(quán)是基于因果推斷的公平推薦系統(tǒng)常用的方法。

在推薦系統(tǒng)中,偏差(流行度偏差)可能是由不同的混淆因子引起的,由于反饋回路的存在,偏差會無限放大,從而影響推薦系統(tǒng)的公平性。所以,在推薦系統(tǒng)中引入因果推斷可以通過使用Do算子進行干預(yù),阻斷混淆因子所在的后門路徑,消除虛假的相關(guān)性,進而緩解或去除偏差,提高推薦系統(tǒng)的公平性。Wang等[19]認(rèn)為,項目流行度和一些未觀察到的變量是影響推薦系統(tǒng)公平性的混淆因子,并抽象出對應(yīng)的因果圖進行相關(guān)的因果分析,提出基于多行為去偏框架(Multi-Behavior Debiasing framework,MBD)框架。該框架利用后門調(diào)整來阻斷混淆因子引起的后門路徑,從而減輕流行度和其他變量對推薦結(jié)果的影響,提高推薦系統(tǒng)的準(zhǔn)確性和公平性。Wang等[20]認(rèn)為,用戶的歷史交互數(shù)據(jù)能同時影響用戶和推薦結(jié)果,因為推薦系統(tǒng)會根據(jù)歷史數(shù)據(jù)推薦相似的項目,而用戶可能對其已經(jīng)不感興趣了,因此他們提出了去混淆因子的推薦系統(tǒng)(DecRS)。由于用戶的歷史數(shù)據(jù)分布廣泛,樣本空間過大,很難估計出后門調(diào)整的值,所以DecRS采用的是經(jīng)過推導(dǎo)后的后門調(diào)整近似值。黃露等[21]認(rèn)為,推薦系統(tǒng)會不斷擴大流行度偏差,并用因果圖清楚地展示了物品流行度和用戶活躍度對推薦結(jié)果的影響,充分考慮了用戶和物品2個視角,從而利用后門調(diào)整來糾正流行度偏差和用戶活躍度偏差。

逆概率加權(quán)是一種常用的去偏方法,可用于解決數(shù)據(jù)分布不均勻的問題。在推薦系統(tǒng)中,系統(tǒng)傾向于推薦那些被大多數(shù)用戶點擊過的熱門商品,其他冷門商品易被忽視。逆概率加權(quán)可通過權(quán)重分配給冷門商品更大的影響力,在一定程度上減輕數(shù)據(jù)分布不均勻的問題。此外,逆概率加權(quán)是后門調(diào)整的進一步推廣,它通過計算每個樣本接受處理的概率的倒數(shù),將處理組和對照組的權(quán)重進行調(diào)整,以此在統(tǒng)計上控制一些混淆因子,提高推薦的公平性和因果效應(yīng)估計的準(zhǔn)確性。Schnabel等[22]通過對觀察數(shù)據(jù)進行逆傾向加權(quán),構(gòu)建了一個基于傾向分?jǐn)?shù)(Propensity Score)的無偏估計器,用于在選擇偏差下對推薦系統(tǒng)進行無偏評估和學(xué)習(xí),從而緩解選擇偏差給推薦結(jié)果帶來的不公平。Mehrotra等[23]提出了一種基于IPS(Inverse Propensity Score)的無偏用戶滿意度估計器,以此來計算用戶的滿意度,以便更好地平衡推薦系統(tǒng)的公平性和用戶滿意度。

3.2" "基于反事實的方法

反事實就是現(xiàn)實的另一方面,是對一個事件發(fā)生后的反思。設(shè)想若女士A在接受了乳腺癌切除手術(shù)和放療后痊愈,并且沒有舊病復(fù)發(fā)。她可能會思考自己的康復(fù)是否歸功于放療,若沒有接受放療,病情是否也會好轉(zhuǎn)。另一方面,若女士B只進行了乳房切除手術(shù),但在1年后癌癥復(fù)發(fā)了。她可能會后悔,認(rèn)為如果當(dāng)時選擇了放療,可能就不會復(fù)發(fā)。然而,對于同一個病人,只能觀察到1種結(jié)果:要么接受治療(放療)并看到結(jié)果,要么不接受治療并觀察身體變化。這種實際觀察到的結(jié)果是事實結(jié)果,而未被觀察的潛在結(jié)果則是反事實結(jié)果。由于難以同時知道2種情況下的結(jié)果,要了解如果沒有某種干預(yù)會發(fā)生什么,就需要借助反事實推理。

在推薦系統(tǒng)中,有許多研究利用反事實推理來解決推薦系統(tǒng)存在的偏差,進而保證推薦系統(tǒng)的公平性。Huang等[24]認(rèn)為,有相似配置信息的用戶應(yīng)該獲得類似的推薦,而不會因為用戶的敏感屬性而發(fā)生變化,因此提出F-UCB(Fair Causal Bandit)來實現(xiàn)個體的反事實公平。Zhu等[25]對觀察到的用戶敏感特征、非敏感特征、用戶公平潛在變量、用戶偏差潛在變量和用戶交互進行分析,并繪制相關(guān)的因果圖,得到公平和不公平的因果路徑,因此提出一種path-specific fair推薦系統(tǒng) (PSF-RS),用path-specific counterfactual衡量敏感特征引起的不公平,將有偏差的事實世界充分地改變?yōu)榧僭O(shè)的公平世界,不僅確保了推薦的公平性,還保證了推薦的多樣性。高冰玉[26]創(chuàng)新性地將反事實推理與后門調(diào)整相結(jié)合,針對音樂推薦系統(tǒng)中的流行度偏差問題,提出了一種新的解決方案。該方案通過調(diào)整推薦算法,減少了流行度對推薦結(jié)果的不公平影響,從而有效地緩解了推薦系統(tǒng)中存在的不公平性問題。

除了path-specific fair推薦系統(tǒng)關(guān)注的多樣性,可解釋性也是推薦系統(tǒng)關(guān)注的一個重要性能。目前,大多數(shù)深度神經(jīng)網(wǎng)絡(luò)算法都是黑箱算法,難以知其所以然。反事實思維可以通過模擬不同的結(jié)果來理解推薦系統(tǒng)的決策過程,以此來增加模型和結(jié)果的可解釋性。因此,一些研究者利用反事實推理在提高可解釋性的基礎(chǔ)上,同時緩解推薦系統(tǒng)不公平性問題。Boratto等[27]對模型推理過程中使用的用戶—項目交互圖添加邊,并且假設(shè)了一個弱勢用戶能夠從新的邊中受益的反事實世界,利用反事實解釋減輕推薦系統(tǒng)中的不公平現(xiàn)象。Ge等[28]研究了可解釋的公平問題,提出了一個反事實可解釋公平框架(Counterfactual Explainable Fairness,CEF),通過反事實優(yōu)化發(fā)現(xiàn)每個特征的細(xì)微變化,生成基于特征的公平性解釋,達(dá)到提高推薦系統(tǒng)公平性的目的。

4" " 未來方向

近年來,已經(jīng)出現(xiàn)很多關(guān)于因果推斷解決推薦系統(tǒng)公平性問題算法的研究,但是仍然有較大的發(fā)展空間。

4.1" "基于統(tǒng)一的因果推斷公平推薦系統(tǒng)

公平性問題具有多樣性,其定義受文化、社會和個體等影響而存在差異。因此,不同的偏差也會導(dǎo)致不同類型的公平性問題。目前,大部分基于因果推斷的公平性推薦算法都是采用緩解或消除某一種偏差的方法來提高推薦系統(tǒng)的公平性。然而,造成推薦不公平的原因往往是復(fù)雜多樣的,一種公平性的實現(xiàn)可能是在違反另一種公平性的前提下實現(xiàn)的。因此,構(gòu)建統(tǒng)一的基于因果推斷的公平推薦框架是一個值得挑戰(zhàn)的方向。該方向需要考慮不同推薦場景下的公平性定義和造成不公平的原因,使得該框架能夠解決多種偏差造成的不公平問題,但是這可能會增加算法的復(fù)雜性。

4.2" "基于多模態(tài)的因果推斷公平推薦系統(tǒng)

推薦系統(tǒng)的應(yīng)用領(lǐng)域非常廣泛,包括購物、音樂、新聞、教育和求職等。因此,推薦系統(tǒng)處理的數(shù)據(jù)是多模態(tài)的(包括文本、視頻和圖片等)。例如,在電子商務(wù)中,用戶評論、商品的文字信息、商品的圖片和視頻介紹等都是影響商品售出率的重要因素;在新聞網(wǎng)站中,新聞的標(biāo)題、內(nèi)容、圖片和視頻等也是影響新聞閱讀量的重要因素。鑒于公平性問題的多樣化,因果推斷在公平推薦系統(tǒng)中的應(yīng)用需要適應(yīng)這些不同的場景。因此,構(gòu)建一個能夠處理多模態(tài)數(shù)據(jù)和適應(yīng)多樣化需求的因果推斷公平推薦系統(tǒng)顯得尤為重要。這就需要推薦系統(tǒng)能夠處理任意形態(tài)的數(shù)據(jù),以此來適應(yīng)推薦的任一場景。這樣的研究將增強推薦系統(tǒng)的可擴展性,從而促進因果推斷公平推薦系統(tǒng)更全面地發(fā)展。

4.3" "基于動態(tài)的因果推斷公平推薦系統(tǒng)

目前,大多數(shù)的因果推斷公平推薦系統(tǒng)解決的是靜態(tài)公平問題,對于用因果推斷實現(xiàn)動態(tài)公平的研究較少。在日常生活中,用戶的信息隨著時間的推進發(fā)生一系列的變化,如用戶的環(huán)境、年齡和興趣愛好等。那么,隨著用戶信息的變化,之前收集到的舊數(shù)據(jù)就不能很好地反映用戶當(dāng)前的特征,這也就導(dǎo)致推薦系統(tǒng)給出的推薦結(jié)果難以符合當(dāng)前用戶的興趣。假如某用戶之前喜歡運動,但是現(xiàn)在不喜歡了,而推薦系統(tǒng)還在根據(jù)用戶之前的興趣愛好為用戶推薦瑜伽墊、運動服飾、運動器械和運動視頻等運動用品,就會導(dǎo)致用戶體驗變差。因此,可以使用因果推斷技術(shù)處理動態(tài)和實時的數(shù)據(jù),分析用戶信息產(chǎn)生一系列變化的原因,從而預(yù)測用戶特征,建立動態(tài)的因果推斷公平推薦系統(tǒng),以解決動態(tài)公平問題。

4.4" "基于因果統(tǒng)一公平性評價方法

傳統(tǒng)推薦系統(tǒng)關(guān)注的指標(biāo)是推薦結(jié)果的準(zhǔn)確性和召回率等。隨著人們對推薦系統(tǒng)公平問題的關(guān)注,公平性也被研究人員作為評估推薦系統(tǒng)性能的一個重要指標(biāo)。近幾年,研究者對多方面的公平性評價指標(biāo)進行研究。趙海燕等[29]對近年來推薦系統(tǒng)公平性評價方法進行系統(tǒng)的梳理和總結(jié)。他們從3個不同的角度對現(xiàn)有的評價方法進行了歸納,涵蓋了27種不同的公平性評價標(biāo)準(zhǔn)。不同的應(yīng)用場景需要不同的評價方法,這導(dǎo)致目前推薦系統(tǒng)公平性評價標(biāo)準(zhǔn)呈現(xiàn)出多樣化。因此,可以將現(xiàn)有的一些評價標(biāo)準(zhǔn)基于因果的角度進行融合統(tǒng)一,建立公認(rèn)的評價標(biāo)準(zhǔn),這不僅能適應(yīng)因果推斷的公平推薦系統(tǒng),也能適應(yīng)其他公平推薦系統(tǒng)。

4.5" "因果推薦公平性與其他性能的平衡

在推薦系統(tǒng)中,除了推薦的準(zhǔn)確性和公平性,還需要考慮可解釋性、多樣性和魯棒性等性能。然而,目前許多基于因果推斷的公平推薦系統(tǒng)往往只關(guān)注某一項性能指標(biāo),而沒有充分考慮到推薦系統(tǒng)的其他性能。在因果推斷公平推薦系統(tǒng)的基礎(chǔ)上,提升推薦系統(tǒng)的可解釋性,可幫助用戶理解收到推薦結(jié)果的原因,能加強推薦系統(tǒng)與用戶、生產(chǎn)者之間的信任度;提升推薦系統(tǒng)的多樣性,能讓用戶收到多樣豐富的推薦,同時也能增加弱勢項目的曝光度以及提升用戶和信息提供者的體驗感;提升魯棒性,能保證推薦系統(tǒng)運行的穩(wěn)定性,不會被惡意行為破壞推薦的公平性。因此,在保證推薦系統(tǒng)公平性的前提下,使用因果推斷提升其他性能,也是一個極具挑戰(zhàn)性的研究領(lǐng)域。

5" " 結(jié)論

本文對基于因果推斷的公平推薦系統(tǒng)的部分相關(guān)研究進行了梳理與總結(jié)。推薦系統(tǒng)作為信息篩選的重要工具,極大地便利了人們的生活。因果推斷為公平推薦系統(tǒng)的發(fā)展提供新的思路與視角,使推薦系統(tǒng)的功能更加強大和全面。構(gòu)建統(tǒng)一的因果推斷公平推薦系統(tǒng)、完善與統(tǒng)一公平性評價方法,以及在公平性與其他性能指標(biāo)之間尋求平衡等是目前推薦系統(tǒng)研究中的熱點問題。隨著推薦系統(tǒng)和因果推斷領(lǐng)域相關(guān)理念與技術(shù)的逐漸成熟,有關(guān)問題會逐步得到解決,從而促進因果推斷公平推薦系統(tǒng)向更深層次的發(fā)展。

參考文獻(xiàn):

[1] 李文俊.推薦系統(tǒng)中公平性問題研究現(xiàn)狀與展望[J].價值工程,2023,42(5):166-168.

[2] 喻繼軍,熊明華.電子商務(wù)推薦系統(tǒng)公平性研究進展[J].現(xiàn)代信息科技,2023,7(14):115-124.

[3] JIN D, WANG L Z, ZHANG H, et al. A survey on fairness-aware recommender systems[J]. Information fusion, 2023, 100: 101906.

[4] 邱陽.面向推薦系統(tǒng)數(shù)據(jù)偏差的去偏方法研究[D].合肥:中國科學(xué)技術(shù)大學(xué),2023.

[5] MARRAS M,BORATTO L,RAMOS G,et al. Equality of learning opportunity via individual fairness in personalized recommendations[J]. International journal of artificial intelligence in education, 2022, 32(3): 636-684.

[6] LI Y Q,CHEN H X,F(xiàn)U Z H,et al. User-oriented fairness in recommendation[C]//Proceedings of the web conference 2021,2021: 624-632.

[7] 張軍.推薦系統(tǒng)中用戶側(cè)公平性問題研究[D].長春:吉林大學(xué),2023.

[8] QI T, WU F Z, WU C H,et al. Profairrec: provider fairness-aware news recommendation[C]//Proceedings of the 45th international ACM SIGIR conference on research and development in information retrieval,2022: 1164-1173.

[9] WANG L Q, JOACHIMS T. User fairness, item fairness, and diversity for rankings in two-sided markets[C]//Proceedings of the 2021 ACM SIGIR International Conference on theory of information retrieval,2021: 23-41.

[10] FU Z H, XIAN Y K, GAO R Y, et al. Fairness-aware explainable recommendation over knowledge graphs[C]//Proceedings of the 43rd international ACM SIGIR conference on research and development in information retrieval,2020: 69-78.

[11] GE Y Q, LIU S C, GAO R Y, et al. Towards long-term fairness in recommendation[C]//Proceedings of the 14th ACM international conference on web search and data mining,2021: 445-453.

[12] MAKHLOUF K,ZHIOUA S,PALAMIDESSI C,et al. Survey on causal-based machine learning fairness notions[J]. Arxiv preprint arxiv:2010.09553, 2020.

[13] 李昌樹.推薦系統(tǒng)中基于因果發(fā)現(xiàn)和推理的數(shù)據(jù)去偏方法研究[D].北京:北京工業(yè)大學(xué),2023.

[14] ABDOLLAHPOURI H, BURKE R, MOBASHER B. Controlling popularity bias in learning-to-rank recommendation[C]//Proceedings of the eleventh ACM conference on recommender systems,2017: 42-46.

[15] WU C H,WU F Z,WANG X T,et al. Fairness-aware news recommendation with decomposed adversarial learning[C]//Proceedings of the AAAI conference on artificial intelligence,2021, 35(5): 4462-4469.

[16] 王楚欽.基于隨機模型檢驗的推薦系統(tǒng)公平性研究[D].南京:南京財經(jīng)大學(xué),2023.

[17] 夏瑞玲,李國平,王國中.融入用戶長短期興趣的推薦算法多樣性優(yōu)化[J].計算機時代,2021(10):44-48.

[18] 馮興杰,崔桂穎.基于交互注意力的可解釋性推薦方法[J].計算機應(yīng)用與軟件,2022,39(10):292-298,328.

[19] WANG X, WANG W J, FENG F L, et al. Causal intervention for fairness in multi-behavior recommendation[J]. Arxiv preprint arxiv:2209.04589, 2022.

[20] WANG W J, FENG F L, HE X N, et al. Deconfounded recommendation for alleviating bias amplification[C]//Proceedings of the 27th ACM SIGKDD conference on knowledge discovery amp; data mining,2021: 1717-1725.

[21] 黃露,倪葎,金澈清.基于雙視角糾偏的推薦模型[J].計算機科學(xué),2023,50(9):152-159.

[22] SCHNABEL T, SWAMINATHAN A, SINGH A, et al. Recommendations as treatments: debiasing learning and evaluation[C]//International conference on machine learning. PMLR, 2016: 1670-1679.

[23] MEHROTRA R,MCINERNEY J,BOUCHARD H,et al. Towards a fair marketplace:counterfactual evaluation of the trade-off between relevance, fairness amp; satisfaction in recommendation systems[C]//Proceedings of the 27th ACM international conference on information and knowledge management. 2018: 2243-2251.

[24] HUANG W,ZHANG L,WU X T. Achieving counterfactual fairness for causal bandit[C]//Proceedings of the AAAI conference on artificial intelligence,2022, 36(6): 6952-6959.

[25] ZHU Y C, MA J, WU L, et al. Path-specific counterfactual fairness for recommender systems[C]//Proceedings of the 29th ACM SIGKDD conference on knowledge discovery and data mining,2023: 3638-3649.

[26] 高冰玉.基于因果的音樂推薦糾偏算法研究[D].北京:北京交通大學(xué),2023.

[27] BORATTO L,F(xiàn)ABBRI F,F(xiàn)ENU G,et al. Counterfactual graph augmentation for consumer unfairness mitigation in recommender systems[C]//Proceedings of the 32nd ACM international conference on information and knowledge management,2023: 3753-3757.

[28] GE Y Q,TAN J T,ZHU Y,et al. Explainable fairness in recommendation[C]//Proceedings of the 45th international ACM SIGIR Conference on research and development in information retrieval,2022: 681-691.

[29] 趙海燕,周萍,陳慶奎,等.推薦系統(tǒng)公平性評價方法:現(xiàn)狀與展望[J].小型微型計算機系統(tǒng),2022,43(3):456-465.

猜你喜歡
推薦系統(tǒng)公平性偏差
如何走出文章立意偏差的誤區(qū)
兩矩形上的全偏差
一種提高TCP與UDP數(shù)據(jù)流公平性的擁塞控制機制
基于用戶偏好的信任網(wǎng)絡(luò)隨機游走推薦模型
基于個性化的協(xié)同過濾圖書推薦算法研究
個性化推薦系統(tǒng)關(guān)鍵算法探討
公平性問題例談
淺談Mahout在個性化推薦系統(tǒng)中的應(yīng)用
關(guān)于均數(shù)與偏差
關(guān)于公平性的思考
道孚县| 商丘市| 台南县| 潼关县| 康马县| 宜宾县| 霍邱县| 清徐县| 东乡县| 永定县| 曲周县| 惠东县| 二手房| 资溪县| 清新县| 伊金霍洛旗| 南澳县| 玛多县| 辽阳市| 禹城市| 云浮市| 双流县| 蓝山县| 大英县| 南岸区| 中牟县| 四子王旗| 忻州市| 高陵县| 辉县市| 历史| 永嘉县| 荃湾区| 饶河县| 宜春市| 平顺县| 胶南市| 永兴县| 卢氏县| 凤阳县| 交城县|