国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

算法推薦的信息傳播危機(jī)與協(xié)同共治模式

2023-09-19 22:01:13鐘曉雯張潔茹
荊楚學(xué)刊 2023年4期
關(guān)鍵詞:算法推薦

鐘曉雯 張潔茹

摘要:算法推薦具有收集、篩選、推送信息和記錄的“權(quán)力”,具有技術(shù)屬性,同時(shí)因智能傳播時(shí)代下算法決策取代了人工決策,算法推薦技術(shù)又充當(dāng)著傳統(tǒng)媒介中的人工價(jià)值判斷角色,具備了價(jià)值負(fù)荷屬性。算法推薦的雙重屬性不僅形成信息繭房及衍生回音室效應(yīng),加劇社會(huì)價(jià)值觀的分化,且催生了圈層區(qū)隔,導(dǎo)致群體極化滋生和信息操縱風(fēng)險(xiǎn)蔓延,擾亂網(wǎng)絡(luò)信息的生態(tài)場域。擺脫算法推薦在智能傳播時(shí)代的負(fù)面效應(yīng),必須構(gòu)建多元主體共同治理算法推薦模式:智能媒體平臺應(yīng)強(qiáng)化社會(huì)責(zé)任,加強(qiáng)算法的“自我規(guī)制”;政府需加強(qiáng)算法監(jiān)管,形成算法安全治理格局;用戶應(yīng)享有算法解釋權(quán),塑造“算法協(xié)治者”形象。

關(guān)鍵詞:算法推薦;技術(shù)屬性;價(jià)值負(fù)荷屬性;信息傳播危機(jī);協(xié)同共治模式

中圖分類號:G206;TP391.3? ? ?文獻(xiàn)標(biāo)志碼:A? ? ? 文章編號:1672-0768(2023)04-0076-06

算法初始運(yùn)用于計(jì)算機(jī)科學(xué)中,是數(shù)學(xué)領(lǐng)域中用以解決某一問題的方法,由算法衍生而來的算法推薦則與智能傳播休戚相關(guān)。在智能傳播時(shí)代,互聯(lián)網(wǎng)承載著海量的信息數(shù)據(jù),諸如新浪、今日頭條、抖音等智能媒體平臺為有效整合信息數(shù)據(jù)和實(shí)現(xiàn)信息分發(fā)與用戶個(gè)性化需求間的精準(zhǔn)匹配,紛紛引入算法推薦技術(shù)。算法推薦能夠通過收集分析用戶在網(wǎng)絡(luò)空間中留下的數(shù)字痕跡(注冊信息、瀏覽日志、歷史評價(jià)記錄等),挖掘用戶的興趣偏好,精準(zhǔn)勾勒出用戶“個(gè)人畫像”,并對用戶進(jìn)行個(gè)性化的信息推薦與分發(fā),從而增強(qiáng)智能媒體平臺的用戶粘性。然算法推薦的廣泛運(yùn)用,不僅顛覆了傳統(tǒng)信息傳播的手段,也重塑了網(wǎng)絡(luò)信息傳播的話語格局,為信息傳播領(lǐng)域帶來了諸多挑戰(zhàn)。網(wǎng)絡(luò)信息傳播關(guān)乎整個(gè)國家意識形態(tài)的安全,故本文擬結(jié)合算法推薦的雙重屬性——技術(shù)屬性和價(jià)值負(fù)荷屬性,剖析算法推薦所引發(fā)的信息傳播危機(jī),從協(xié)同共治的角度提出算法推薦的多元主體治理模式。

一、雙重屬性:算法推薦的技術(shù)屬性與價(jià)值負(fù)荷屬性

算法推薦下的智能傳播與傳統(tǒng)傳播的差異本源在于算法決策取代了人工決策,鑒于算法的技術(shù)屬性,智能傳播實(shí)現(xiàn)了信息傳播的精度與效度,然算法推薦在遵循其技術(shù)邏輯的同時(shí),又充當(dāng)著信息把關(guān)人的角色,具有了價(jià)值負(fù)荷的屬性。

(一)算法推薦的技術(shù)屬性

算法推薦作為信息傳播領(lǐng)域的前沿技術(shù)工具,能夠滿足用戶的個(gè)性化需求,增強(qiáng)智能媒體平臺的用戶粘性。具體而言,算法推薦通過海量收集、篩選并整理用戶在網(wǎng)絡(luò)空間中留下的數(shù)字痕跡,包括用戶注冊信息,用戶閱讀、搜索、瀏覽、評論記錄等,能夠全面系統(tǒng)地對用戶進(jìn)行參數(shù)分析,精確勾勒出用戶的興趣和偏好圖譜,形成精確的用戶“個(gè)人畫像”。智能媒體再根據(jù)該“個(gè)人畫像”對相關(guān)信息內(nèi)容進(jìn)行過濾和篩選,將契合用戶興趣和偏好的信息精準(zhǔn)地分發(fā)至目標(biāo)人群,從而實(shí)現(xiàn)算法推薦的精準(zhǔn)預(yù)測、推送和反饋的技術(shù)功效。

需要注意的是,算法具有“黑箱”性質(zhì),這與算法的技術(shù)運(yùn)行原理密切相關(guān)。從技術(shù)原理層面觀察,算法是一種計(jì)算機(jī)程序,其是在數(shù)據(jù)采集和訓(xùn)練的基礎(chǔ)上,依據(jù)已設(shè)定的數(shù)學(xué)規(guī)則進(jìn)行運(yùn)算并輸出結(jié)果,簡言之,即算法包括了輸入、運(yùn)算、輸出三個(gè)步驟,是程序設(shè)計(jì)加數(shù)學(xué)規(guī)則的集合。即便人們能夠獲悉算法的數(shù)據(jù)輸入和輸出結(jié)果,但對于算法內(nèi)部的運(yùn)算過程卻無從得知,這便形成了算法“黑箱”,正如控制論對于“黑箱”的定義——“所謂黑箱是指這樣一個(gè)系統(tǒng),我們只能得到它的輸入值和輸出值,而不知道其內(nèi)部結(jié)構(gòu)?!保?1 ]因此,鑒于算法所形成的“程序設(shè)計(jì)+數(shù)學(xué)規(guī)則”的高度技術(shù)性和復(fù)雜性,非算法專業(yè)人士尤其是普通公眾,將無法掌握或理解算法的運(yùn)行和決策原理。此外,隨著算法技術(shù)的更新迭代,技術(shù)層面的算法“黑箱”會(huì)呈現(xiàn)日趨強(qiáng)化的趨勢,尤其是當(dāng)算法“黑箱”處于進(jìn)階形態(tài)( 1 )時(shí),即便是算法專業(yè)人士甚至算法部署者可能都無法解釋清楚算法的運(yùn)行和決策原理[ 2 ]。

(二)算法推薦的價(jià)值負(fù)荷屬性

算法推薦作為技術(shù)勃興的產(chǎn)物,在推動(dòng)人類生產(chǎn)和生活方式顛覆性變革的同時(shí),也具有價(jià)值負(fù)荷的屬性。價(jià)值觀的形成是受到多種因素制約的,但新聞媒介的影響力不容小覷。在紙質(zhì)傳媒時(shí)代,新聞的內(nèi)容經(jīng)過專業(yè)編輯的把關(guān),其中的意識形態(tài)與價(jià)值觀念也當(dāng)然經(jīng)過了選擇,具有普世意義的價(jià)值觀更容易得到采納與傳播,并因此影響終端用戶,促進(jìn)用戶正確價(jià)值觀的塑造。算法推薦在賦能信息精準(zhǔn)化分發(fā),提高信息分發(fā)接收率的同時(shí),也能夠?qū)τ脩粜袨樽鞒鰧?shí)時(shí)反饋,并逐漸引導(dǎo)用戶的價(jià)值去向,蓋因算法推薦技術(shù)具有收集、篩選、推送信息和記錄的“權(quán)力”,充當(dāng)著傳統(tǒng)媒介中的人工價(jià)值判斷角色,一定程度上會(huì)造成新聞把關(guān)權(quán)的轉(zhuǎn)移。

算法推薦在技術(shù)屬性上可歸結(jié)為一種運(yùn)算程序,但其在信息傳播領(lǐng)域的運(yùn)行中實(shí)際上形成了包含算法運(yùn)行團(tuán)隊(duì)、新聞價(jià)值觀在內(nèi)的一整套系統(tǒng)架構(gòu)[ 3 ]。代碼的內(nèi)嵌規(guī)則決定了算法推薦不可避免地會(huì)隱藏人的自主意識,彰顯價(jià)值負(fù)荷屬性。算法部署或使用者在算法部署及使用過程中或多或少會(huì)嵌入自身的價(jià)值觀念或主觀意圖。例如,數(shù)據(jù)集選取、變量選擇、權(quán)重設(shè)定、架構(gòu)設(shè)計(jì)等均是算法部署者在設(shè)計(jì)算法推薦任務(wù)時(shí)需考量的因素,且可能受到個(gè)人價(jià)值觀念或主觀意圖的影響。再如部分智能媒體平臺可能出于增強(qiáng)用戶粘性、達(dá)到流量最大化、攫取商業(yè)利益的目的而肆無忌憚地在使用算法推薦技術(shù)時(shí)嵌入利潤導(dǎo)向的價(jià)值維度,更甚者不惜制造“臟數(shù)據(jù)”,污染媒介生態(tài)場域[ 4 ]。同時(shí),以大數(shù)據(jù)和深度學(xué)習(xí)為底層邏輯的算法推薦能夠根據(jù)用戶對于信息的點(diǎn)擊次數(shù)、停留時(shí)間、屏蔽、轉(zhuǎn)發(fā)、評論內(nèi)容等,動(dòng)態(tài)掌握用戶的價(jià)值傾向,進(jìn)而通過精準(zhǔn)分發(fā)信息逐漸引導(dǎo)用戶價(jià)值觀的變化。值得注意的是,當(dāng)算法部署者或使用者在算法中嵌入自身的價(jià)值觀念或主觀意圖后,算法在其后續(xù)的技術(shù)更新迭代過程中仍會(huì)沿襲且不斷深化和放大此種價(jià)值傾向。

二、鏈?zhǔn)椒磻?yīng):算法推薦引發(fā)信息傳播危機(jī)

算法推薦的技術(shù)與價(jià)值負(fù)荷的雙重屬性將引發(fā)主流意識形態(tài)傳播的危機(jī),具體體現(xiàn)在以下兩個(gè)方面。

(一)回音室效應(yīng)加劇社會(huì)價(jià)值觀的分化

價(jià)值觀分化即社會(huì)意識形態(tài)結(jié)構(gòu)從同質(zhì)、單向走向異質(zhì)、多元,并出現(xiàn)不同價(jià)值偏向的過程[ 5 ]。算法分發(fā)信息會(huì)根據(jù)用戶的初始選擇向用戶主動(dòng)推送相關(guān)新聞,盡管算法只是對同類信息、偏好信息的推送,并不創(chuàng)造新的內(nèi)容,但同類推薦會(huì)形成封閉的信息空間,隔絕多元信息穿透傳播的可能性,致使用戶接收到的信息趨于同質(zhì)化,尤其將形成信息繭房,衍生回音室效應(yīng)。2008年凱斯·桑斯坦提出了“信息繭房”和“回音室效應(yīng)”的概念,其認(rèn)為盡管互聯(lián)網(wǎng)技術(shù)可以促使人們逃離地理學(xué)上的繭房和回音室,然互聯(lián)網(wǎng)中的個(gè)性化信息服務(wù)過濾了多元化的觀點(diǎn),而不同網(wǎng)絡(luò)群體更傾向于選擇和獲取自己感興趣或與自己觀點(diǎn)相同或相似的信息,并忽視與外部世界的交流和溝通,此種持續(xù)衍化的群內(nèi)同質(zhì)和群際異質(zhì)現(xiàn)象會(huì)產(chǎn)生信息繭房效應(yīng),即如同置身于蠶繭般作繭自縛,進(jìn)而形成回音室效應(yīng)[ 6 ]?!盎匾羰倚?yīng)”最初緣起于凱斯·桑斯坦的著作《網(wǎng)絡(luò)共和國:網(wǎng)絡(luò)社會(huì)中的民主問題》,其意指信息過濾機(jī)制使得人們只獲取到他們感興趣或認(rèn)同的信息,長期以往,當(dāng)這些信息中所蘊(yùn)含的觀點(diǎn)不斷重復(fù)并加深,人們在這個(gè)信息封閉的圈子中將只能聽到自己的“回聲”,變得容易固守偏見甚至誤將偏見視為真理,進(jìn)而排斥和拒絕其他的合理性觀點(diǎn)和意見[ 7 ]。

信息繭房及其衍生的回音室效應(yīng)并非在算法時(shí)代才出現(xiàn),然算法推薦下的精準(zhǔn)化、個(gè)性化之信息傳播加速形成了信息繭房,致使回音室效應(yīng)不斷演化和蔓延。此種場景下,擁有相同或類似價(jià)值觀的用戶將極易被相互吸引且形成同類社群,并在偏好推薦產(chǎn)生的回音室效應(yīng)中不斷固化其既有的價(jià)值觀。這種同類社群僅為一種多元化的小眾空間,其在同類推薦和偏好推薦的加持下所不斷固化的價(jià)值觀與普適性的價(jià)值觀可能并非完全一致,甚至相背離。此種多元化小眾空間的普遍存在及其價(jià)值觀的形成與固化在一定程度上會(huì)削弱社會(huì)主導(dǎo)價(jià)值的認(rèn)同根基,增加社會(huì)價(jià)值共識崩解的風(fēng)險(xiǎn),加劇社會(huì)價(jià)值觀的分化。

(二)圈層區(qū)隔擾亂網(wǎng)絡(luò)信息的生態(tài)場域

從短期來看,算法推薦的精準(zhǔn)化分發(fā)信息功能便捷了人們的生活,然如前述,算法分發(fā)信息極易形成封閉信息空間,催生具有高度同質(zhì)性的多元化小眾同類社群。此種同類社群中的個(gè)體往往具有類似或相同的價(jià)值觀點(diǎn),并在回音室效應(yīng)下不斷固化其社群內(nèi)部的價(jià)值觀,長期以往,不同社群的價(jià)值觀差異將會(huì)逐漸演化為不同社群的個(gè)體借以相互區(qū)分的數(shù)據(jù)標(biāo)簽,進(jìn)而形成圈層區(qū)隔。圈層區(qū)隔容易滋生群體極化,且暗含信息操縱風(fēng)險(xiǎn),破壞網(wǎng)絡(luò)信息的生態(tài)場域。

同一圈層中的個(gè)人往往具有類似或相同的價(jià)值觀點(diǎn),一旦某一圈層中的個(gè)體與另一圈層的個(gè)體產(chǎn)生矛盾,個(gè)體間的矛盾容易演化為社會(huì)階層矛盾,正如美國學(xué)者凱斯·桑斯坦所指出的:“網(wǎng)絡(luò)對許多人而言,正是極端主義的溫床,因?yàn)橹就篮系娜丝梢栽诰W(wǎng)上輕易且頻繁地溝通,但聽不到不同的看法。持續(xù)暴露于極端的立場中,聽取這些人的意見,會(huì)讓人逐漸相信這個(gè)立場。”[ 8 ]同時(shí)當(dāng)前處于信息大爆炸時(shí)代,但在算法推薦下的人類長期處于信息偏食狀態(tài),產(chǎn)生了信息獲取的路徑依賴,其信息甄別能力和理性思考能力將被削弱,如此一來,人類將難以在海量數(shù)據(jù)、信息和知識冗余中識別并思考真實(shí)、有益的成分,以致極易被不良信息、極端信息所誤導(dǎo),從而增加群體極化行為出現(xiàn)的可能性。

此外,算法推薦技術(shù)的單一信息環(huán)境使得網(wǎng)絡(luò)信息生態(tài)環(huán)境暗含信息操縱風(fēng)險(xiǎn)。算法推薦使得人們長期處于同質(zhì)化的信息氛圍并陷入圈層區(qū)隔的漩渦中,這就給虛假信息的傳播制造了機(jī)會(huì)。虛假信息與突發(fā)公共事件通常存在伴生關(guān)系,當(dāng)突發(fā)公共事件發(fā)生且相關(guān)職權(quán)部門的調(diào)查和信息公開無法在短時(shí)間內(nèi)完成并滿足人們內(nèi)心預(yù)期時(shí),不法分子即可能制造虛假信息,并利用人們在算法精準(zhǔn)分發(fā)信息下形成的固有認(rèn)知框架或偏見,進(jìn)一步傳播虛假信息,破壞網(wǎng)絡(luò)信息生態(tài)場域。

三、協(xié)同共治:構(gòu)建多元主體共同治理算法推薦模式

針對算法推薦所引發(fā)的主流意識形態(tài)傳播危機(jī),需要充分發(fā)揮平臺、政府以及用戶的治理功能,構(gòu)建多元主體協(xié)同治理模式。

(一)平臺自律:強(qiáng)化社會(huì)責(zé)任,加強(qiáng)算法的“自我規(guī)制”

算法“黑箱”的天然存在致使算法運(yùn)行和決策原理的難以預(yù)測和解釋性會(huì)持續(xù)存在,即便算法部署者也難以完全控制算法,這形成了某種意義上的“技術(shù)無意識”[ 9 ]。盡管如此,由算法部署者以自律的方式(算法的“自我規(guī)制”)來規(guī)范算法的設(shè)計(jì)和運(yùn)行,仍然較之其他社會(huì)主體更具優(yōu)勢,“自我規(guī)制對相應(yīng)的知識與相關(guān)的專家能夠?qū)崿F(xiàn)更加有效的調(diào)動(dòng),具有及時(shí)性、富有彈性的特征,更加適合事物本質(zhì)。”[ 10 ]故智能媒體平臺作為算法推薦技術(shù)的部署者,應(yīng)當(dāng)強(qiáng)化自身的社會(huì)責(zé)任,將傳播正能量信息作為己任,充當(dāng)協(xié)同治理的技術(shù)主體。具體而言,智能媒體平臺在規(guī)制算法推薦過程中應(yīng)回歸技術(shù)本身,采取優(yōu)化算法推薦技術(shù)的核心路徑,不僅需要優(yōu)化算法設(shè)計(jì),同時(shí)應(yīng)加強(qiáng)算法研發(fā)倫理培訓(xùn)和創(chuàng)新信息審核模式。

首先,智能媒體平臺應(yīng)將傳播正能量信息設(shè)置為算法設(shè)計(jì)的核心任務(wù),在算法初始設(shè)計(jì)中植入算法公平、算法正義、公序良俗等原則性要求,借以優(yōu)化并支配算法推薦下的信息生產(chǎn)、輸出和分發(fā)過程。當(dāng)前美國在算法風(fēng)險(xiǎn)的治理上也主要以自律規(guī)范為主,其國內(nèi)大型網(wǎng)絡(luò)公司作為主要算法部署者被要求進(jìn)行自我監(jiān)管,比如Google的AI倫理委員會(huì)就致力于建立算法應(yīng)用的倫理準(zhǔn)則,自我糾正算法產(chǎn)生的不利后果。

其次,鑒于算法“黑箱”的存在,潛藏在代碼背后的算法研發(fā)人員的價(jià)值偏向往往難以被發(fā)現(xiàn)和監(jiān)管。因此,增強(qiáng)算法研發(fā)人員的道德自律是確保智能媒體平臺運(yùn)用算法推薦傳播正能量信息的重要前置條件。智能媒體平臺應(yīng)當(dāng)對算法研發(fā)人員開展專門性的算法倫理培訓(xùn)服務(wù),通過倫理培訓(xùn)的前端遏制能夠最大限度地預(yù)防算法被嵌入價(jià)值偏向。

最后,在算法生產(chǎn)、輸出和分發(fā)信息的全流程中層層設(shè)置“過濾網(wǎng)”,智能過濾涉歷史虛無主義、個(gè)人享樂主義、極端民族主義等不良價(jià)值觀的數(shù)據(jù)。但當(dāng)前的智能過濾尚無法完全識別信息中的“隱語義”,在采用智能過濾的同時(shí),仍然需要利用人類自身的價(jià)值觀念和專業(yè)知識對算法所生產(chǎn)、輸出和分發(fā)的信息作進(jìn)一步審核,即需要采用技術(shù)+人工的協(xié)同審核模式,從而形成傳播正能量信息的有序格局。

(二)政府規(guī)制:加強(qiáng)算法監(jiān)管,形成算法安全治理格局

作為公權(quán)力中心的政府也應(yīng)當(dāng)加強(qiáng)對算法推薦的監(jiān)管,構(gòu)建算法安全監(jiān)管體系。2021年《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定(征求意見稿)》相繼發(fā)布。結(jié)合這兩份法律文件,政府應(yīng)當(dāng)在總體上建立算法推薦服務(wù)提供者的分類分級管理制度,實(shí)現(xiàn)事前、事中、事后的全鏈條監(jiān)管,形成算法安全治理格局。

建立算法推薦服務(wù)提供者分類分級管理制度的首要前提是要合理劃分算法的風(fēng)險(xiǎn)等級。我國《個(gè)人信息保護(hù)法》第55條( 2 )和第56條( 3 )形成了個(gè)人信息保護(hù)影響評估制度的規(guī)范群,盡管其直接指向的是個(gè)人信息保護(hù),然實(shí)際上可擴(kuò)張適用于各類算法應(yīng)用場景,故算法的風(fēng)險(xiǎn)等級設(shè)置也可參照此規(guī)范群,即依據(jù)算法自主決策程度、對個(gè)人權(quán)益和社會(huì)公共利益的影響程度以及適用場景性質(zhì)等因素,將其劃分為低風(fēng)險(xiǎn)、中風(fēng)險(xiǎn)與高風(fēng)險(xiǎn)三個(gè)等級。完全依據(jù)預(yù)定程序處理數(shù)據(jù),且不存在算法自主決策,亦不影響個(gè)人權(quán)益和社會(huì)公共利益的算法可列為低風(fēng)險(xiǎn)算法,目前低風(fēng)險(xiǎn)算法主要應(yīng)用于在線翻譯、游戲娛樂等場景。通過采集用戶信息運(yùn)行并充當(dāng)協(xié)助人類決策角色,可能存在侵害個(gè)人權(quán)益和社會(huì)公共利益的算法可列為中風(fēng)險(xiǎn)算法,目前中風(fēng)險(xiǎn)算法主要應(yīng)用于搜索引擎、新聞推送、司法輔助等場景。高風(fēng)險(xiǎn)算法即指的是由算法自主決策完全取代人類決策,可能存在直接影響個(gè)人權(quán)益和社會(huì)公共利益的算法,目前主要應(yīng)用于金融領(lǐng)域、信用評分、行政決策等場景。

依據(jù)前述所言之低、中、高的算法風(fēng)險(xiǎn)等級劃分,在事前監(jiān)管上,對于運(yùn)用低風(fēng)險(xiǎn)算法的算法推薦服務(wù)提供者應(yīng)采取較為寬松的備案制度,而對于運(yùn)用中、高風(fēng)險(xiǎn)算法的算法推薦服務(wù)提供者,則應(yīng)采取審批制度,并課以其相應(yīng)的算法公示披露義務(wù)。運(yùn)用中、高風(fēng)險(xiǎn)算法的算法推薦服務(wù)提供者,應(yīng)當(dāng)公示算法推薦的應(yīng)用場景,披露算法數(shù)據(jù)選取、采集與使用情況等。此外,課以算法推薦服務(wù)提供者披露義務(wù)的同時(shí)應(yīng)注意服務(wù)對象的知情權(quán)與服務(wù)提供者的知識產(chǎn)權(quán)間的利益平衡,免于算法推薦服務(wù)提供者披露涉及商業(yè)秘密的算法技術(shù)細(xì)節(jié)。同時(shí),囿于算法“黑箱”的天然不可解釋性,應(yīng)當(dāng)避免對算法推薦服務(wù)提供者課以過重的披露義務(wù),以避免矯枉過正。在事中監(jiān)管上,需要結(jié)合算法的風(fēng)險(xiǎn)等級建立健全算法安全風(fēng)險(xiǎn)監(jiān)測和評估制度。對于運(yùn)用低風(fēng)險(xiǎn)算法的算法推薦服務(wù)提供者,相關(guān)職權(quán)部門應(yīng)定期開展算法安全風(fēng)險(xiǎn)監(jiān)測和評估工作,而對于運(yùn)用中、高風(fēng)險(xiǎn)算法的算法推薦服務(wù)提供者,應(yīng)常態(tài)化開展算法安全風(fēng)險(xiǎn)檢測和評估工作,實(shí)時(shí)監(jiān)測并評估算法設(shè)計(jì)、部署和應(yīng)用等環(huán)節(jié)的缺陷和漏洞,以便及時(shí)發(fā)現(xiàn)并應(yīng)對算法應(yīng)用安全問題。在事后監(jiān)管上,應(yīng)當(dāng)建立算法回查制度,即要求算法推薦服務(wù)提供者切實(shí)記錄并妥善保存涉及算法推薦核心環(huán)節(jié)的資料(如數(shù)據(jù)集的選擇、算法的選取等),以便相關(guān)職權(quán)部門隨時(shí)回查。

(三)用戶協(xié)治:賦予用戶權(quán)利,塑造“算法協(xié)治者”形象

智能媒體平臺運(yùn)用算法推薦的初衷是為了在多元信息環(huán)境中及時(shí)地向用戶推薦和分發(fā)其感興趣且新鮮的信息,從而增加用戶黏性和忠誠度。用戶作為算法推薦的服務(wù)對象,算法推薦直接關(guān)系著用戶自身權(quán)利,故用戶理應(yīng)享有相應(yīng)的權(quán)利,并以“算法協(xié)治者”的形象與其他主體共同規(guī)制算法推薦。

用戶作為“算法協(xié)治者”的關(guān)鍵在于落實(shí)算法解釋權(quán)。關(guān)于算法解釋權(quán),《個(gè)人信息保護(hù)法》第24條第3款已有立法雛形,即“通過自動(dòng)化決策方式作出對個(gè)人權(quán)益有重大影響的決定,個(gè)人有權(quán)要求個(gè)人信息處理者予以說明?!痹摋l款將算法解釋權(quán)的適用范圍限定為自動(dòng)化決策場景,同時(shí)《個(gè)人信息保護(hù)法》第73條第2項(xiàng)將自動(dòng)化決策定義為“通過計(jì)算機(jī)程序自動(dòng)分析、評估個(gè)人的行為習(xí)慣、興趣愛好或者經(jīng)濟(jì)、健康、信用狀況等,并進(jìn)行決策的活動(dòng)?!币虼?,若單純從文義解釋的角度分析,自動(dòng)化決策似乎只與完全由計(jì)算機(jī)程序作出的決策相關(guān),并不包括含有人工干預(yù)因素的輔助型算法決策。此種解釋下,運(yùn)用算法推薦技術(shù)精準(zhǔn)分發(fā)信息的智能媒體平臺似乎無法納入算法解釋權(quán)的適用范圍內(nèi)。

實(shí)際上,不能機(jī)械、武斷地單從文義解釋的角度將含有人工干預(yù)因素的輔助型算法決策排除在算法解釋權(quán)的適用范圍外,而應(yīng)結(jié)合立法目的作合理的擴(kuò)大解釋?!秱€(gè)人信息保護(hù)法》的立法目的在于保護(hù)個(gè)人信息權(quán)益,規(guī)范個(gè)人信息處理活動(dòng)和促進(jìn)個(gè)人信息的合理利用,而如前述,通過采集用戶信息運(yùn)行并充當(dāng)協(xié)助人類決策角色的算法其風(fēng)險(xiǎn)等級應(yīng)被定位為中級,同樣存在侵犯個(gè)人權(quán)益和社會(huì)公共利益的可能性,可見,一律將輔助型算法決策排除在算法解釋權(quán)的適用范圍外并不符合立法目的。對此,歐盟《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,GDPR)的相關(guān)規(guī)定具有借鑒意義。GDPR將決策區(qū)分為人工決策和自動(dòng)化決策,并將沒有實(shí)質(zhì)意義的人工干預(yù)劃歸為自動(dòng)化決策[ 11 ]。為防止算法使用者投機(jī)性規(guī)避該條款,歐盟GDPR工作組發(fā)布的AP29指南表明人工干預(yù)應(yīng)當(dāng)具有實(shí)質(zhì)的監(jiān)督意義,應(yīng)當(dāng)由具有權(quán)限和能力對決策結(jié)果進(jìn)行改變和影響的人執(zhí)行,不能因?yàn)榫哂腥斯ひ蛩鼐蛷氐着懦谧詣?dòng)化決策的范圍之外[ 12 ]。換言之,即具有人工因素,但該人工因素并無實(shí)質(zhì)監(jiān)督意義,無法對算法決策結(jié)果進(jìn)行改變和影響的輔助型算法決策仍然應(yīng)當(dāng)歸屬于自動(dòng)化決策。

以運(yùn)用算法推薦技術(shù)的智能媒體平臺為例,從表征來看,算法推薦技術(shù)是以智能媒體平臺的工具的形態(tài)存在的,然實(shí)質(zhì)上,智能媒體平臺在精準(zhǔn)分發(fā)信息過程中主要依賴的是算法推薦技術(shù)(計(jì)算機(jī)程序),其勾勒的用戶“個(gè)人畫像”直接決定了智能媒體平臺生產(chǎn)、輸出和分發(fā)的信息的類型、內(nèi)容等。盡管部分智能媒體平臺可能在信息分發(fā)前采用人工審核信息的方式,但這僅僅是對算法決策結(jié)果進(jìn)行的事后審查,而非直接改變和影響算法的決策結(jié)果??梢哉f,此類輔助型算法決策與自動(dòng)化決策的內(nèi)涵與外延并無本質(zhì)差別,故也應(yīng)將運(yùn)用算法推薦技術(shù)的智能媒體平臺納入自動(dòng)化決策的范圍內(nèi),賦予用戶相應(yīng)的算法解釋權(quán)。用戶算法解釋權(quán)的內(nèi)容主要體現(xiàn)在兩方面:一是用戶有權(quán)要求平臺針對其“個(gè)人畫像”形成的邏輯和依據(jù)(包括平臺抓取的數(shù)據(jù)類型、特征,形成畫像的具體維度等),以用戶可理解的語言進(jìn)行解釋;二是用戶有權(quán)要求平臺針對算法推薦下的信息生產(chǎn)、輸出和分發(fā)邏輯以用戶可理解的語言進(jìn)行解釋。

總體來說,《個(gè)人信息保護(hù)法》第24條第3款為智能媒體平臺的用戶行使算法解釋權(quán)提供了法律依據(jù),但該條款僅籠統(tǒng)地規(guī)定當(dāng)使用智能媒體平臺利用算法推薦作出的決策是“對個(gè)人權(quán)益有重大影響的決定”時(shí),用戶得以行使算法解釋權(quán),但并未明確闡釋何為“對個(gè)人權(quán)益有重大影響的決定”,也未廓清智能媒體平臺的算法解釋限度。

關(guān)于何為“對個(gè)人權(quán)益有重大影響的決定”,我國2021年6月實(shí)施的《信息安全技術(shù)-個(gè)人信息安全影響評估指南》(GB/T 39335-2020)對個(gè)人權(quán)益影響分析作了詳細(xì)規(guī)定,其中第5.5.1條將個(gè)人權(quán)益影響劃分為四個(gè)分析維度,即限制個(gè)人自主決定權(quán)、引發(fā)差別性待遇、個(gè)人名譽(yù)受損或遭受精神壓力和人身財(cái)產(chǎn)受損,并基于此在附錄表D3將個(gè)人權(quán)益影響程度劃分為嚴(yán)重、高、中、低四個(gè)等級,且明確了相應(yīng)的判定準(zhǔn)則。同時(shí),該指南還結(jié)合前述個(gè)人權(quán)益影響劃分的四個(gè)分析維度,在附錄表D4中逐一列明了個(gè)人權(quán)益影響程度的具體判定標(biāo)準(zhǔn)。據(jù)此,實(shí)踐中可參照這些準(zhǔn)則和標(biāo)準(zhǔn)對何為“對個(gè)人權(quán)益有重大影響的決定”進(jìn)行判定,將個(gè)人權(quán)益影響程度等級為“嚴(yán)重”和“高”的列為具有“重大影響”。

關(guān)于算法解釋的限度,應(yīng)綜合考慮社會(huì)效用和應(yīng)用場景。當(dāng)算法的應(yīng)用場景與個(gè)體人身利益和敏感信息高度相關(guān),算法解釋權(quán)的社會(huì)效用可以傾向于個(gè)體,要求算法解釋內(nèi)容盡量能被個(gè)體所理解,例如在醫(yī)療行業(yè)領(lǐng)域。當(dāng)算法的應(yīng)用場景與企業(yè)商業(yè)秘密緊密相連時(shí),算法解釋權(quán)的社會(huì)效用即不能過于個(gè)體化,而應(yīng)綜合平衡個(gè)體與企業(yè)間的利益關(guān)系,合理限制算法解釋的內(nèi)容[ 13 ]。由于本文主要聚焦于解決算法推薦在智能媒體平臺中運(yùn)用的相關(guān)問題,故算法解釋限度這一問題的闡釋將限定于新聞推薦和分發(fā)的場域下。如前述,新聞推薦和分發(fā)對于個(gè)體的價(jià)值觀導(dǎo)向起著極其重要的作用,當(dāng)算法推薦技術(shù)的運(yùn)用造成了“信息繭房”、圈層區(qū)隔等效應(yīng)時(shí),個(gè)體的社會(huì)價(jià)值觀將會(huì)逐漸演化為群體社會(huì)價(jià)值觀,甚至可能衍生群體極化、信息操縱等風(fēng)險(xiǎn),從而對主流意識形態(tài)造成沖擊,危害國家意識形態(tài)的安全。故在新聞推薦和分發(fā)的場域下,算法解釋與社會(huì)公共利益休戚相關(guān),其解釋限度應(yīng)當(dāng)在兼顧個(gè)體和企業(yè)的基礎(chǔ)上,傾向于社會(huì)公共利益的保護(hù)。此外,囿于算法“黑箱”的天然性,或可通過立法的方式,以算法模型的合法性作為限制條件。當(dāng)算法模型初始即符合立法規(guī)定時(shí),應(yīng)可免于算法部署者或使用者對算法模型作進(jìn)一步解釋,從而避免課以算法部署者或使用者過重的解釋義務(wù)。

四、結(jié)語

算法推薦的治理是智能傳播時(shí)代的重大命題,應(yīng)同時(shí)考慮技術(shù)層面和價(jià)值負(fù)荷層面的要求。從目前的實(shí)踐來看,技術(shù)并不必然具有中立性,基于代碼內(nèi)嵌規(guī)則,算法部署者和使用者或多或少會(huì)嵌入其價(jià)值觀,正如尼爾·波茲曼(Neil Postman)所言:“每種技術(shù)都有其內(nèi)在偏向,在它的物質(zhì)外殼下,它常常表現(xiàn)出要派何用場的傾向。只有那些對技術(shù)的歷史一無所知的人,才會(huì)相信技術(shù)是完全中立的?!保?14 ]同時(shí),在算法推薦下的人類因過度信息偏食,加劇形成了信息繭房,衍生回音室效應(yīng),更甚者形成圈層區(qū)隔,滋生群體極化和衍生信息操縱風(fēng)險(xiǎn),進(jìn)而擾亂網(wǎng)絡(luò)信息生態(tài)場域。治理算法推薦的目的并不在于徹底消除智能傳播路徑,而是為了廓清算法推薦在智能傳播時(shí)代下的技術(shù)運(yùn)行邏輯和價(jià)值負(fù)荷序列,通過系統(tǒng)化的思考和制度化的規(guī)范,促使算法推薦以技術(shù)工具的形態(tài)造福人類。

注釋:

(1)美國學(xué)者迪亞克普拉斯(Diakopoulos)將算法“黑箱”區(qū)分為兩種形態(tài):初級形態(tài)與中間形態(tài)。算法“黑箱”的初級形態(tài)對應(yīng)的是監(jiān)督式學(xué)習(xí)技術(shù),其運(yùn)行過程有固定模板,輸入和輸出都是已知信息;中級形態(tài)指的是算法運(yùn)行過程中僅輸出側(cè)是已知的,其他環(huán)節(jié)具有不透明性。有學(xué)者在此基礎(chǔ)上提出了算法“黑箱”的進(jìn)階形態(tài),對應(yīng)的是無監(jiān)督式機(jī)器學(xué)習(xí),即算法輸入和輸出兩側(cè)均為非透明的,形成了一個(gè)閉環(huán)黑箱。

(2)《個(gè)人信息保護(hù)法》第55條規(guī)定:“有下列情形之一的,個(gè)人信息處理者應(yīng)當(dāng)事前進(jìn)行個(gè)人信息保護(hù)影響評估,并對處理情況進(jìn)行記錄:(一)處理敏感個(gè)人信息;(二)利用個(gè)人信息進(jìn)行自動(dòng)化決策;(三)委托處理個(gè)人信息、向其他個(gè)人信息處理者提供個(gè)人信息、公開個(gè)人信息;(四)向境外提供個(gè)人信息;(五)其他對個(gè)人權(quán)益有重大影響的個(gè)人信息處理活動(dòng)。”

(3)《個(gè)人信息保護(hù)法》第56條規(guī)定:“個(gè)人信息保護(hù)影響評估應(yīng)當(dāng)包括下列內(nèi)容:(一)個(gè)人信息的處理目的、處理方式等是否合法、正當(dāng)、必要;(二)對個(gè)人權(quán)益的影響及安全風(fēng)險(xiǎn);(三)所采取的保護(hù)措施是否合法、有效并與風(fēng)險(xiǎn)程度相適應(yīng)。個(gè)人信息保護(hù)影響評估報(bào)告和處理情況記錄應(yīng)當(dāng)至少保存三年。”

參考文獻(xiàn):

[1]王雨田.控制論、信息論、系統(tǒng)科學(xué)與哲學(xué)[M].北京:中國人民大學(xué)出版社,1988:93.

[2]張淑玲.破解黑箱:智媒時(shí)代的算法權(quán)力規(guī)制與透明實(shí)現(xiàn)機(jī)制[J].中國出版,2018(7):49-53.

[3]張志安,湯敏.論算法推薦對主流意識形態(tài)傳播的影響[J].社會(huì)科學(xué)戰(zhàn)線,2018(10):174-182.

[4]武豹.算法推薦時(shí)代主流意識形態(tài)傳播面臨的挑戰(zhàn)及其應(yīng)對[J].中國石油大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2021,37(4):98-104.

[5]侯東德,張麗萍.算法推薦意識形態(tài)風(fēng)險(xiǎn)的法律防范[J].重慶社會(huì)科學(xué),2021(8):77-90.

[6]凱斯·R·桑斯坦.信息烏托邦 眾人如何生產(chǎn)知識[M].北京:法律出版社,2008:104-110.

[7]薛永龍,汝倩倩.遮蔽與解蔽:算法推薦場域中的意識形態(tài)危局[J].自然辯證法研究,2020,36(1):50-55.

[8]凱斯·桑斯坦.網(wǎng)絡(luò)共和國[M].黃維明,譯.上海:上海人民出版社,2003:50-51.

[9]王聰.“共同善”維度下的算法規(guī)制[J].法學(xué),2019(12):66-77.

[10]高秦偉.社會(huì)自我規(guī)制與行政法的任務(wù)[J].中國法學(xué),2015(5):73-98.

[11]姜野,李擁軍.破解算法黑箱:算法解釋權(quán)的功能證成與適用路徑——以社會(huì)信用體系建設(shè)為場景[J].福建師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2019(4):84-92,102.

[12]張欣.免受自動(dòng)化決策約束權(quán)的制度邏輯與本土構(gòu)建[J].華東政法大學(xué)學(xué)報(bào),2021,24(5):27-40.

[13]張凌寒.商業(yè)自動(dòng)化決策算法解釋權(quán)的功能定位與實(shí)現(xiàn)路徑[J].蘇州大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2020,41(2):51-60,191.

[14]尼爾·波茲曼.娛樂至死[M].章艷,譯.北京:中信出版社,2015:102.

[責(zé)任編輯:王研]

猜你喜歡
算法推薦
短視頻行業(yè)的侵權(quán)問題研究
出版參考(2019年3期)2019-04-19 08:39:04
抖音算法推薦機(jī)制的局限與對策分析
新媒體研究(2019年2期)2019-03-29 12:05:58
算法推薦新聞的倫理風(fēng)險(xiǎn)以及未來發(fā)展
新媒體研究(2019年1期)2019-03-25 07:21:32
基于“用戶畫像”的內(nèi)容在新聞APP上的精準(zhǔn)推送分析
記者搖籃(2019年2期)2019-03-21 00:35:44
新聞算法推薦對社會(huì)價(jià)值觀的影響
新聞世界(2019年1期)2019-01-15 02:24:56
基于算法推薦的“Feed流”傳播平臺的轉(zhuǎn)變趨勢
新聞?wù)搲?2018年5期)2018-12-28 10:48:26
基于中醫(yī)臨床理論的內(nèi)容智能分發(fā)平臺“信息繭房”系統(tǒng)量化
從波特圖式分析算法推薦類資訊平臺的倫理選擇
從工具依賴到本能隱抑:智媒時(shí)代的“反向馴化”現(xiàn)象
新聞愛好者(2018年4期)2018-06-27 10:35:44
從編輯到算法的讓度
新媒體研究(2018年2期)2018-03-29 09:05:06
土默特右旗| 金秀| 淮阳县| 汉源县| 永修县| 潞城市| 宁明县| 东乌珠穆沁旗| 德钦县| 常熟市| 酒泉市| 芜湖县| 龙陵县| 高邑县| 景德镇市| 定日县| 中超| 青阳县| 梁山县| 铜山县| 巩义市| 平原县| 桃江县| 峡江县| 泰来县| 城步| 大冶市| 曲周县| 镇雄县| 惠安县| 犍为县| 房产| 建阳市| 广西| 东平县| 安多县| 额尔古纳市| 广宁县| 平昌县| 梅州市| 枣阳市|