□李紅博
內(nèi)容偏向簡單化。算法平臺推薦的信息往往簡單易懂,在一定程度上降低了大部分群體的認知障礙,能讓他們更輕松地掌握各種信息。算法平臺推薦的信息傳播也更為高效,人們無論何時何地都可以接收到,加上人們之間的相互傳播,進而提高了人們接收信息的數(shù)量和頻率,在一定程度上降低了認知的時間成本。在感官上,短時間內(nèi)瀏覽大量的碎片化信息,很容易讓人產(chǎn)生錯誤的心理。在獲取碎片化信息時,人們只是淺層次地關(guān)注信息的事實和結(jié)果,往往忽視了信息對于自身的價值。沒有經(jīng)過大腦精細加工的信息,在人們眼前轉(zhuǎn)瞬即逝,而人們也不會真正了解到推送信息的知識體系與框架。算法平臺可以讓人們快速瀏覽碎片化信息,人腦來不及對這些信息進行深入解析,長期以往,自然會影響人們獨立思考與邏輯建構(gòu)的能力。在人工智能時代,各類算法平臺推薦的碎片化信息內(nèi)容短且更新快,人們在好奇心的驅(qū)使下過于追求閱讀速度,反而沒有獲得完整有效的信息,還嚴重影響到自己的注意力。
觀念凸顯娛樂性。每個人的時間都是有限的,工作、學習、生活等占據(jù)了人們的時間,毫無娛樂放松的余地,但是激烈的社會競爭給人們帶來了沉重的壓力,人們需要尋找輕松的娛樂信息適當解壓。因此,人們需要更多的娛樂信息來緩解身心。基于此,算法平臺在商業(yè)利益和社會需求的推動下,為了占據(jù)更多的市場份額,往往推薦娛樂性質(zhì)傾向的信息。這類信息最是能夠抓住人們的眼球,具有很強的吸引性和刺激性,能使人們在短時間內(nèi)獲得滿足感和陶醉感。但是,算法平臺推薦娛樂性質(zhì)的信息時只注重用戶的點擊率和關(guān)注度,致使推薦的信息形式單一,缺乏主流價值導向。當算法平臺推薦的信息內(nèi)容過度娛樂化的時候,用戶僅僅是獲得了短暫的快感,卻忽視了自己真正的需求和目的,只是換了一種方式過度消耗自己的精力。算法平臺為了抓住更多的用戶也會更傾向于推薦娛樂性質(zhì)的信息,如此不僅會使用戶沉迷眼前的娛樂而失去理智,更會加劇網(wǎng)絡環(huán)境的混亂,不利于社會主義精神文明建設。在算法平臺取悅用戶的過程中信息泛娛樂化嚴重,用戶的價值觀念取向缺乏正面導向,加強內(nèi)容治理勢在必行。
領(lǐng)域傾向個人化。在人工智能時代,各式各樣的信息充斥在生活中,面對紛繁復雜的信息,人們往往更喜歡去接受自己感興趣的內(nèi)容,這為算法平臺推薦個性化信息提供了市場。基于不同的興趣和需求,在大數(shù)據(jù)智能算法的助推下,各個階層、各個群體的信息需求被精準識別,信息分散到相應的受眾群體之中,形成了基于社會熱點關(guān)注、大眾娛樂消費需求、親情友情傾訴和基層社區(qū)單位組織劃分的群組和圈子。[1]因此,各類算法平臺以大數(shù)據(jù)精準推薦算法為賣點,為每個用戶定制個性化信息推送,導致用戶在算法平臺的支配下難以享有自己的信息選擇權(quán),逐漸被包裹在個人偏好的“信息繭房”中。在算法平臺推薦信息的過程中,用戶獲取的信息是根據(jù)個人喜好量身定制的,最終以用戶個人的興趣報告的形式出現(xiàn),用戶每一次感興趣的關(guān)注點都被記錄下來,表面上是用戶的閱讀體驗過程,實際上算法推薦已經(jīng)為用戶形成獨特的信息推薦體系,在這樣的規(guī)則下用戶很容易陷入個人興趣點的“信息繭房”,這一結(jié)果顯然并不是用戶瀏覽信息的初衷。
算法平臺挖掘個人隱私。算法平臺主打的就是推薦個性化的信息,為了實現(xiàn)這一目標,算法平臺會充分挖掘用戶的基本信息,那么侵犯用戶的個人隱私就不可避免,這對用戶的信息安全造成了極大的風險挑戰(zhàn)。算法推薦信息的過程實際上是一個收集和分析用戶個人基本信息和監(jiān)視用戶瀏覽數(shù)據(jù)的過程,算法會記錄和儲存用戶在平臺瀏覽信息的痕跡,平臺運行程序會在此基礎(chǔ)上分析用戶的興趣點,投其所好,從而為用戶定制平臺可控的媒介擬態(tài)環(huán)境。為了提升用戶對于平臺的依賴度,算法也需要獲取用戶多方面的私人信息,并通過算法推薦定位用戶的個人興趣范圍,使用戶更多地關(guān)注算法平臺推薦的信息,實現(xiàn)信息從海量空間到個性化數(shù)據(jù)、從個性化數(shù)據(jù)到培養(yǎng)興趣點的信息推薦模式??傊?,算法平臺推薦個性化信息,以個人隱私為基礎(chǔ),基于平臺算法為用戶量身定制海量信息,滿足用戶的私人興趣需求,提高用戶對平臺的關(guān)注度。另外,算法平臺為進一步盈利必須牢牢把握住用戶,就會出現(xiàn)過度挖掘和使用用戶個人信息和數(shù)據(jù)的情況,無疑損害了用戶個人信息的保密權(quán)益,甚至對用戶個人隱私造成極大的威脅和挑戰(zhàn)。
算法推薦存在歧視現(xiàn)象。算法推薦信息的運行邏輯主要依靠算法的數(shù)據(jù)處理功能,算法本身就是人為的產(chǎn)物,不可避免地會帶有人的思想觀念。此外,算法機制本身也有漏洞,算法平臺在為用戶推薦信息的過程中同樣會存在歧視現(xiàn)象。經(jīng)過算法的研判,不同用戶會接收到不同層面的信息,算法在很大程度上控制了用戶信息接收的范圍,被算法標簽化的用戶在一定意義上便是算法歧視的受害者。算法歧視問題不僅使算法無法充分發(fā)揮其正面效用,也成為大數(shù)據(jù)科學及人工智能技術(shù)推廣中不可忽視的障礙。[2]算法歧視很大程度上源于人類社會的算法歧視,是對既有文化歧視后的歸納或同構(gòu),形成數(shù)字社會中的文化排斥或社會排斥。傳統(tǒng)的社會歧視,如種族歧視、性別歧視,隨著算法方法的廣泛應用,已經(jīng)轉(zhuǎn)變?yōu)樗惴ㄆ缫?。算法歧視總體上反映了社會關(guān)系和人們固有觀念方面的深度不平等,人類社會觀念影響下的算法技術(shù)難以避免歧視的發(fā)生,特別是原本不太明顯的間接歧視現(xiàn)象,在算法推薦的推動作用下發(fā)展到了新的程度,以更隱蔽或合法的形式出現(xiàn)。算法推薦為用戶定制個性化信息,在一定程度上會產(chǎn)生馬太效應,用戶困在“信息繭房”中也產(chǎn)生了選擇信息的不平等,這種不平等便是算法歧視。這種算法歧視意味著信息匹配和選擇的不平等和不公平,算法對用戶的標簽固化,顯然是沒有把用戶看成一個全面發(fā)展的人,這無疑是技術(shù)倫理學方面的一項重大課題。算法平臺推薦信息的首要條件是對用戶數(shù)據(jù)的標簽和劃分,這是后續(xù)進行量化分析和操作的重要前提,將用戶標簽、分類,這其實就給算法技術(shù)附加了人類社會的偏見思想,容易導致算法的誤判,用戶最終成為算法技術(shù)的受害者。
單一的信息環(huán)境造成認知封閉。算法會特別關(guān)注用戶對信息內(nèi)容的點擊次數(shù)和留觀時間,目的是為了更精準地了解用戶的關(guān)注點。在人工智能時代,移動性、碎片化、淺層化是用戶閱讀信息的主要特征,為滿足用戶輕松獲取信息的需求,算法平臺主要通過聳人聽聞的標題、離奇夸張的故事、低俗淺薄的內(nèi)容來吸引用戶,用戶點擊次數(shù)越多,算法推薦權(quán)重就越大,最終形成娛樂化、低俗化信息湮沒具有理性、深度、優(yōu)質(zhì)信息的惡性循環(huán)局面。算法平臺以滿足用戶需求為主要目標,追求點擊量最大化,單純依靠算法的個性化推薦,只會導致信息傳播在個體上的閉環(huán),剩余的優(yōu)質(zhì)內(nèi)容也會失去流量和價值。在這種流量為王機制的作用下,算法平臺輕松消解了傳統(tǒng)媒體的新聞專業(yè)主義精神。
信息獲取的同質(zhì)性是指用戶獲取的信息內(nèi)容具有狹隘性和片面性,娛樂與低俗往往如影隨形,內(nèi)容必然也逐漸同質(zhì)化。處于信息繭房中的用戶,被算法平臺綁定在一個自認為有趣的小信息場和思維偏頗的程序設計上,用戶長期接收單一取向的信息,與現(xiàn)實環(huán)境之間缺乏有效互動,獲取外界新鮮信息的能力將會減弱。在算法技術(shù)的作用下,用戶可以拒絕自己不感興趣的信息,長期封閉在同質(zhì)化的信息環(huán)境中,將失去甄別信息的能力和深度思考的能力,進而就會對現(xiàn)實環(huán)境出現(xiàn)認知偏差,最終陷入認知封閉的狀態(tài)。
落實平臺責任。加強算法平臺的治理,首先要進行責任的明確劃分,算法平臺作為信息的推送主體具有不可推脫的責任。在算法平臺的規(guī)范和治理中,除了監(jiān)管算法平臺推送信息的程序外,還應該包含算法平臺問責機制,既要問責算法程序的失當,又要問責算法平臺的失范。平臺對于算法的應用和信息的推送負有直接責任,平臺應該審視算法的開發(fā)者和使用者,對于算法應用過程中的歧視現(xiàn)象應當承擔相應的責任,以做到責任明確。針對算法平臺的主體責任,應完善相應的規(guī)則與制度建設,遵守互聯(lián)網(wǎng)的法律法規(guī),治理過程中堅持問題導向,維護好平臺作為第一責任主體的形象。算法平臺作為責任主體,應該堅持主流價值導向,促進用戶全面發(fā)展。算法平臺落實主體責任,應增強服務意識,努力為用戶服務,推送優(yōu)秀文化,凈化平臺環(huán)境。算法平臺應對信息發(fā)布者進行資格審查,對信息來源和價值導向進行科學評估,對資質(zhì)良好的發(fā)布者和內(nèi)容進行優(yōu)先推送,謹防非法詐騙與惡意營銷,以此促進算法平臺信息質(zhì)量的提升。算法平臺應遵守法律,積極配合相關(guān)執(zhí)法部門對于違法內(nèi)容和違法發(fā)布者依法治理,追求相關(guān)責任人的法律責任。算法平臺應對于違法情況早發(fā)現(xiàn)早報告,及時上報相關(guān)執(zhí)法部門。
保障用戶權(quán)益。算法平臺在推薦信息過程中必須保障用戶的合法權(quán)益,尊重用戶在行為中的自主選擇權(quán)和決策權(quán),不得干涉和誘導用戶自主選擇信息。除此之外,還應該設計出輔助用戶自主選擇信息的運行程序,促進用戶自我發(fā)展。算法平臺應該增加用戶自主選擇的選項,盡可能提供給用戶更多的方案去選擇,而不是把用戶限制在個人封閉的空間。用戶在選擇后感到不如意,算法平臺應支持用戶重新選擇,并尊重用戶的意愿及時接收反饋,使用戶獲得健康的信息環(huán)境。算法平臺除了保障用戶自主選擇信息的合法權(quán)益,還要提高用戶分辨信息的能力,提高用戶的算法涵養(yǎng),讓用戶學會審視信息內(nèi)容。算法在設計時應遵循公平性原則,避免歧視現(xiàn)象發(fā)生,保障用戶平等接收信息。同時,用戶應增強自我防范意識,提高自我算法素養(yǎng),維護自己在算法平臺的合法權(quán)益,增強自我保護意識和維權(quán)意識,在自身合法權(quán)益受到算法監(jiān)控侵害時主動維權(quán)。[3]高質(zhì)量的信息能夠幫助用戶更好地進行決策,低質(zhì)量的信息則加劇了用戶信息篩選和理解的難度。[4]因此,算法平臺有責任提供高質(zhì)量信息。算法平臺在推送信息時還應加強風險評估,加強風險的評定與監(jiān)管,堅持公開透明原則,以此避免算法推薦機制帶來負面影響,切實保障用戶的合法權(quán)益。
加強內(nèi)容監(jiān)管。算法平臺推薦信息時嚴格審核內(nèi)容,保證內(nèi)容合乎道德和法律,要弘揚真善美,傳播正能量,引導良好的社會輿論。對于違反法治監(jiān)管規(guī)定的內(nèi)容,算法平臺應禁止用戶訪問并及時移除,并限制和屏蔽該發(fā)布者的賬號,配合相關(guān)部門展開法治行動,肅清信息環(huán)境。算法平臺推薦信息時不能僅考慮用戶個人的興趣,而是要基于用戶的興趣偏好科學合理地推薦正能量和主旋律的信息內(nèi)容,要讓用戶實現(xiàn)正向、積極、健康、全面的發(fā)展。在信息的真假辨別方面,平臺應該配備專業(yè)水準的人工去審核,加大審核力度,進行人工干預控制輿情話題的正確走向,對于已經(jīng)發(fā)布的具有虛假和錯誤誘導傾向的信息,要及時向用戶解釋,時刻提醒用戶謹防上當受騙。算法平臺應加強系統(tǒng)建設,對信息科學劃分,自主過濾低俗違規(guī)的內(nèi)容,對于算法難以辨別的內(nèi)容,可提交人工審核以提高平臺處理的準確性;對于算法平臺上投放的廣告,應合理評估其真?zhèn)魏蛢r值導向,發(fā)現(xiàn)問題及時解決;研究用戶對內(nèi)容進行反饋的便利渠道,對用戶的反饋認真對待,落實平臺服務用戶的責任;充分尊重算法主體、公眾等力量的地位和作用,調(diào)動多元主體參與治理的積極性。[5]總之,對于算法平臺推薦信息的把控與治理,需要多方參與,共同發(fā)力傳播主流價值觀。