◎吳昭暉
(山西師范大學(xué),山西 太原 041081)
互聯(lián)網(wǎng)發(fā)展至今,“新媒體”有了更多的外延,尤其集中在視聽方面。“《2020中國網(wǎng)絡(luò)視聽發(fā)展研究報(bào)告》中顯示,網(wǎng)絡(luò)視聽用戶規(guī)模突破9億,網(wǎng)民使用率91.8%,新增用戶主要來自低線城市,其中五線城市用戶增長33.6%,三至五線城市用戶增量占總增量的72.2%。在新增用戶里,看短視頻的人占比15.2%,短視頻成為了僅次于即時(shí)通信的第二大網(wǎng)絡(luò)應(yīng)用,短視頻用戶規(guī)模達(dá)8.18億,近九成網(wǎng)民使用短視頻應(yīng)用?!盵1]數(shù)據(jù)表明基于移動(dòng)互聯(lián)網(wǎng)的傳播形式進(jìn)一步下沉,逐步普及到了五線及以下城市,這是人類傳播歷史上絕無僅有的。
新媒體對于信息傳播的重要性不言而喻,而以短視頻為代表的網(wǎng)絡(luò)視聽更是越來越成為新媒體領(lǐng)域中不可或缺的一環(huán)。幾乎所有重要的領(lǐng)域中都會(huì)有技術(shù)的“加持”,現(xiàn)下,新媒體的信息傳播正是和“算法推送”緊密結(jié)合?!八惴ㄍ扑汀蓖ǔJ侵竿ㄟ^安裝在計(jì)算機(jī)后臺(tái)的程序,將定制化的內(nèi)容準(zhǔn)確推送到受眾一端,這樣平臺(tái)就可以實(shí)現(xiàn)受眾愛看、提高黏性的目的。從2015年開始,算法對新媒體信息內(nèi)容的生產(chǎn)和制作作用則愈發(fā)明顯。目前,算法推送主圍繞四點(diǎn):
1.基于用戶基本信息的協(xié)同過濾
用戶的基本信息意為在用戶注冊賬戶時(shí)所創(chuàng)建的如性別、年齡、喜好等的信息。算法會(huì)從已注冊用戶的數(shù)據(jù)庫中搜索與新用戶相似程度高的用戶,并向新用戶推薦已注冊用戶所看過的內(nèi)容。
2.基于用戶圈子的分發(fā)
以抖音為例,它會(huì)依據(jù)用戶的關(guān)注列表,也可以理解為朋友圈來進(jìn)行推送。換句話說,關(guān)注你的人對你越感興趣,平臺(tái)向你的關(guān)注者推送你發(fā)布的內(nèi)容時(shí)也就越積極。用戶的點(diǎn)贊、評論、轉(zhuǎn)發(fā),投幣(打賞)等行為都會(huì)納入算法的考量范圍,從而使內(nèi)容在社交圈子中裂變。
3.基于用戶畫像內(nèi)容的推薦
該算法測量圖像等內(nèi)容的相似性,并由機(jī)器根據(jù)內(nèi)容、觀看數(shù)據(jù)等維度進(jìn)行計(jì)算。即計(jì)算機(jī)會(huì)從數(shù)據(jù)樣本之間抽象出關(guān)系進(jìn)而機(jī)器學(xué)習(xí),通過相似性將標(biāo)好節(jié)點(diǎn)的標(biāo)簽傳遞給其他未標(biāo)好節(jié)點(diǎn)的標(biāo)簽,并評估順序?;谟脩糇詴r(shí)的數(shù)據(jù)、瀏覽記錄和觀看數(shù)據(jù)對用戶構(gòu)建畫像,這個(gè)畫像是一個(gè)數(shù)據(jù)模型,反映了用戶的興趣,并通過用戶日后持續(xù)的反饋,完善和更新模型,以達(dá)到發(fā)現(xiàn)適合該模型的內(nèi)容分發(fā)給用戶的效果。
4.基于內(nèi)容流量池的疊加推薦
平臺(tái)會(huì)根據(jù)內(nèi)容流量的受歡迎程度向用戶推薦用戶興趣不大但非常受他人歡迎熱點(diǎn)內(nèi)容?!隘B加推薦是以內(nèi)容的綜合權(quán)重作為評估標(biāo)準(zhǔn)。綜合權(quán)重的關(guān)鍵指標(biāo)有完播率、點(diǎn)贊量、評論量、轉(zhuǎn)發(fā)量”[2],當(dāng)指標(biāo)達(dá)到了一定量級,平臺(tái)以算法和人工相結(jié)合的機(jī)制進(jìn)行推薦。
算法鏈接了人與信息,若沒有算法的介入,海量信息將無法完成更為有效的傳播。1974年卡茲等人在《個(gè)人對大眾傳播的使用》中,將媒介接觸行為概括為一個(gè)“社會(huì)因素+心理因素→媒介期待→需求滿足”的過程,提出“使用與滿足”過程的基本模式”[3]。雖然這個(gè)模式重視了受眾的主觀能動(dòng)性,但在傳統(tǒng)的傳媒行業(yè)中,“中心化”大眾傳媒的議程設(shè)置是不可避免的,所以以現(xiàn)代人的視角來看,在當(dāng)時(shí)用戶的需求是難以得到滿足的,換言之,算法的引入大眾傳播使得要求更高的“使用與滿足”成為可能。原本在“大眾傳媒”和“大眾”之間橋接信息的節(jié)點(diǎn)是記者、編輯和媒體,這些環(huán)節(jié)對觀眾需求的判斷是“大顆?;钡?,是一種“公倍數(shù)需求”的傳播模式;而當(dāng)今的傳播系統(tǒng)是信息去中心化的、用戶個(gè)性化的,算法通過先進(jìn)的技術(shù)將個(gè)性化需求和龐大的信息量聯(lián)系起來,這正是算法得以快速發(fā)展的充分條件。“盡管智能算法分發(fā)中應(yīng)用了各種模型或公式,但其基礎(chǔ)原理是樸素的:更好地了解待分發(fā)的內(nèi)容,更好地了解待接收的用戶”[4]。在這個(gè)信息量指數(shù)增長的背景下,信息接受和信息生產(chǎn)都面臨著一個(gè)大難題——用戶難以在大量信息中找到目標(biāo)內(nèi)容,信息生產(chǎn)者很難使他們的內(nèi)容脫穎而出,從而引起用戶的關(guān)注。所以算法推送系統(tǒng)正是解決這一難題的不二之選。其任務(wù)便是連接用戶和信息,信息接受者,或者說信息消費(fèi)者和信息生產(chǎn)者之間不再是零和博弈甚至是負(fù)和博弈,而是可能存在更優(yōu)化的解法——接受者可以根據(jù)喜好發(fā)現(xiàn)目標(biāo)信息,生產(chǎn)者可以更快捷的找到對應(yīng)的受眾群體,理論上這是一個(gè)雙贏的局面。然而,實(shí)際上運(yùn)用過程中亦有困境和挑戰(zhàn)。
算法是基于用戶畫像的個(gè)性化推薦,在推薦系統(tǒng)中,用戶在社會(huì)群體中的屬性,消費(fèi)行為和興趣習(xí)慣等特征抽象出的一個(gè)個(gè)標(biāo)簽構(gòu)成了用戶畫像的輪廓。根據(jù)上文對算法的技術(shù)機(jī)制介紹,用戶所喜歡的內(nèi)容是來自于推送系統(tǒng)對用戶平時(shí)瀏覽的數(shù)據(jù)進(jìn)行收集和分析,據(jù)其特點(diǎn)、屬性、習(xí)慣、偏好等形成了用戶畫像。一言以蔽之,用戶的種種顯性表達(dá)讓算法更加了解用戶,從而用戶所接收到的正是用戶喜歡的。這看似美好,但實(shí)則存在隱患。設(shè)想生活當(dāng)中存在一個(gè)總是逢迎討好的人,我們是否會(huì)安于這個(gè)人給我們帶來的滿足感而不再拓寬社交邊際?答案自然是否定的。算法雖能分析出用戶的喜好,給予用戶滿足感,但只是將用戶鮮少涉獵的領(lǐng)域排除在邊際之外,甚至用戶點(diǎn)擊量、觀看時(shí)常等正反饋越多就越持續(xù)推送,長此以往便仿佛是困入了一個(gè)信息筑成的繭房之中,這一現(xiàn)象被稱為“信息繭房”。
之所以算法看似是客觀、理性的,是因?yàn)槿藗冎庇^地認(rèn)為算法在傳播中缺少人的參與。然而程序、算法的中立性只是體現(xiàn)在運(yùn)行和計(jì)算過程中的執(zhí)行,實(shí)際上,算法推送在實(shí)踐中依然存在著算法偏見——代碼本質(zhì)上也是由技術(shù)開發(fā)人員進(jìn)行的算法設(shè)計(jì)和編輯,即算法設(shè)計(jì)若加入了主觀觀念就易產(chǎn)生“流量至上”缺陷。這種價(jià)值取向插入算法推薦就會(huì)影響算法客觀性?!霸?016年Facebook的‘偏見門’事件中,揭露出了Facebook的趨勢話題功能過濾掉了保守派信息,而自由派的信息仍然保留”[5]。這種優(yōu)先分配其他內(nèi)容的分發(fā)方式會(huì)導(dǎo)致用戶接收信息的不平衡。同時(shí),算法設(shè)計(jì)不僅會(huì)受到設(shè)計(jì)者本身的價(jià)值判斷,也會(huì)受設(shè)計(jì)者所面對的開發(fā)任務(wù)影響。這是由于算法設(shè)計(jì)者往往不是一個(gè)人完全出于非功利角度而開發(fā)程序,所以其價(jià)值準(zhǔn)則和行為決策會(huì)難以避免的受到源自于勞資關(guān)系中資方的壓力,并直接作用于算法設(shè)計(jì)中。在競爭激烈、各新媒體平臺(tái)都在盡力攫取更大利益的市場環(huán)境中,算法設(shè)計(jì)人員很難不受流量導(dǎo)向的影響:他們更加重視低俗的內(nèi)容,在用戶點(diǎn)擊之后,反復(fù)推薦從而獲得更多流量。不良內(nèi)容和騙局詐術(shù)屢見不鮮的同時(shí)能屢試不爽,就在于這些內(nèi)容利用人性弱點(diǎn)獲得高點(diǎn)擊量,而算法更是助長了不良內(nèi)容的傳播速率和范圍??梢姡粤髁亢忘c(diǎn)擊量作為算法編寫的指導(dǎo)方針,難以保持客觀、中立,算法技術(shù)的中立性目前還是一個(gè)“理想”。
倫理一詞本意為人與人相處的道德準(zhǔn)則,而近年來該詞開始與機(jī)器和技術(shù)等相結(jié)合,這說明人的創(chuàng)造物,尤其是高科技附加值的產(chǎn)物(人工智能、克隆、基因編輯等)愈發(fā)產(chǎn)生和人類道德、社會(huì)秩序間的聯(lián)結(jié),算法推送也不例外?!靶畔⒗O房”會(huì)對人的多元化造成影響、“流量至上”的設(shè)計(jì)會(huì)帶來低俗低質(zhì)的問題,如果將算法喻為人,那么算法已經(jīng)對我們流露了不盡然道德的一面,所以有必要面對問題進(jìn)行規(guī)范,使此算法不斷優(yōu)化、更契合社會(huì)基本價(jià)值。
猶太裔美國科幻小說作家艾薩克·阿西莫夫的《我,機(jī)器人》一書中塑造了一個(gè)機(jī)器人違反了人類社會(huì)倫理,成為了人類仇敵的世界。阿西莫夫給后世的啟示是:如今機(jī)器人被打造的越來越像人,加之人工智能、機(jī)器學(xué)習(xí)的發(fā)展,如有一天機(jī)器人擁有了遠(yuǎn)勝于人的智力(即強(qiáng)人工智能),也因遵守人類社會(huì)的倫理規(guī)制而不走向人類的對立面?!坝纱税⑽髂蛱岢隽恕稒C(jī)器人學(xué)的三大法則》,一是機(jī)器人不得傷害人類,或袖手旁觀坐視人類受到傷害。二是除非違背第一法則,機(jī)器人必須服從人類的命令。三是在不違背第一法則及第二法則的情況下,機(jī)器人必須保護(hù)自己”。三大法則之間互相約束,對后世有關(guān)機(jī)器人的科幻創(chuàng)作有一定的指導(dǎo)意義。
依據(jù)三大法則的啟示,本文認(rèn)為算法作為服務(wù)于人的技術(shù)和工具,也應(yīng)提出一系列規(guī)制以符合人類社會(huì)基本價(jià)值。
第一,將多元化還于人??疾煊脩舻木裣M(fèi)行為及其動(dòng)機(jī)時(shí)會(huì)發(fā)現(xiàn),人在選擇的過程中是復(fù)雜的——有時(shí)指向性明確,有時(shí)彰顯出無序性;情緒上,有時(shí)穩(wěn)定,有時(shí)波動(dòng)幅度大。而人性的復(fù)雜、情緒的多變恰恰是人所獨(dú)有的,故而這一點(diǎn)被視作最為根本的公理。如果算法沒能考慮到個(gè)體的多元化、群體的多樣化,算法便是偏頗且單一的。
第二,在優(yōu)先遵循第一點(diǎn)的前提下,要將人的注意力還于社會(huì)價(jià)值。幾乎所有流量大、具有媒體特點(diǎn)的大公司,都在接受采訪時(shí)表示,他們不是媒體,而是互聯(lián)網(wǎng)公司。自媒體環(huán)境中,大量的資金并未分配給真正的高質(zhì)量內(nèi)容制造商,而是分配給“營銷號”,讓“營銷號”以引人注目的標(biāo)題和侵犯版權(quán)的內(nèi)容來吸引流量。劣質(zhì)和重復(fù)性內(nèi)容仍然以點(diǎn)擊量仍然是其唯一衡量標(biāo)準(zhǔn),流量經(jīng)濟(jì)的擁躉們更關(guān)注的是用戶關(guān)注數(shù)量、瀏覽量、完播率等,并不認(rèn)為自己對社會(huì)價(jià)值觀負(fù)有重要的責(zé)任。人的注意力就是媒體的生命,人們的眼球就是媒體賴以生存、爭相爭奪的資源,而獵奇和低俗正是人們注意力和興趣點(diǎn)的“最大公倍數(shù)”,如果新媒體平臺(tái)長此以往的以這樣的標(biāo)準(zhǔn)去推送內(nèi)容,社會(huì)恐怕會(huì)被“愚民”所充斥。所以即便是互聯(lián)網(wǎng)平臺(tái),只要流量大、受眾廣、分發(fā)信息,就要承擔(dān)社會(huì)責(zé)任,履行媒體職責(zé)。
第三,在能夠遵循第一點(diǎn)、第二點(diǎn)的前提下,最好將公共價(jià)值還于專業(yè)主義。公共價(jià)值是媒體不容忽視的責(zé)任所在?!?018年,F(xiàn)acebook曾宣布將招聘2萬人從事內(nèi)容安全審核工作。美國紐約城市大學(xué)教授指出,全美國的記者不到3萬人,這個(gè)社會(huì)寧可選擇雇用2萬人來處理別人生產(chǎn)的‘仇恨、偏見、謊言和愚蠢’,而不是將這些資源投放到更直接帶來正面影響的?!盵6]這個(gè)案例可以歸納為:資源與人力的分配側(cè)重到公共價(jià)值很低的事務(wù)之上,大量有能力從事新聞媒體、數(shù)據(jù)篩選的人員冗余在社會(huì)意義和公共價(jià)值較低的領(lǐng)域,審核著多數(shù)是低質(zhì)量的內(nèi)容,這樣的業(yè)態(tài)是發(fā)育不良的。倘若大量的資金、資源和人才流入制作水平、內(nèi)容生產(chǎn)能力較低的自媒體,甚至是“營銷號”,這將對整個(gè)新媒體行業(yè)產(chǎn)生巨大的傷害。因此,算法需要在優(yōu)化的過程中為優(yōu)質(zhì)的UGC或PGC賦權(quán)、賦能、賦值。
面對當(dāng)前互聯(lián)網(wǎng)的飛速發(fā)展,結(jié)合國家發(fā)展戰(zhàn)略的要求,針對目前廣泛存在的大數(shù)據(jù)個(gè)性化推送問題,我們亟需建立起一套科學(xué)完善、有法可依的體制機(jī)制,從各個(gè)層面規(guī)范科技倫理,力圖既能“求真”,更能“求善”。
在2021年7月的中央全面深化改革委員會(huì)第九次會(huì)議中,《國家科技倫理委員會(huì)組建方案》排在首位通過審議,快速組建委員會(huì),目的就是要從國家層面加強(qiáng)統(tǒng)一指導(dǎo)、統(tǒng)籌協(xié)調(diào),應(yīng)對新形勢下的新問題,“構(gòu)建覆蓋全面、導(dǎo)向明確、規(guī)范有序、協(xié)調(diào)一致的科技倫理治理體系”[7]。
1.建立信用評級管理體系
除了國家層面的推動(dòng),行業(yè)管制和企業(yè)優(yōu)化也必不可少。針對行業(yè)亂象和暴露出的問題出臺(tái)相關(guān)監(jiān)管辦法,以抖音、快手為頭部的自媒體平臺(tái)對用戶注冊、賬號認(rèn)證和信用管理進(jìn)行綜合分類評級,根據(jù)個(gè)人信用和內(nèi)容質(zhì)量進(jìn)行擇優(yōu)推薦,對于沒有通過認(rèn)證和信用評級較低的用戶進(jìn)行觀察監(jiān)控。也可以建立分級分類的規(guī)范機(jī)制,如按照網(wǎng)民年齡,依照《網(wǎng)絡(luò)安全法》等法律和規(guī)范性文件對媒體內(nèi)容進(jìn)行篩選劃分。
2.建立內(nèi)容標(biāo)簽分類管理體系
應(yīng)對技術(shù)倫理困局最重要的一環(huán)是技術(shù)本身的革新?!敖⒖茖W(xué)合理的算法推薦模型。按照價(jià)值觀正確的總體要求,優(yōu)化算法推薦權(quán)重配比,關(guān)注內(nèi)容來源規(guī)范、文章評價(jià)評分、自媒體信用評級、用戶反饋意見等質(zhì)量類要素,輔以用戶瀏覽歷史、所在位置及文章閱讀量、轉(zhuǎn)發(fā)量、評論量等興趣類要素”[8]。在被約談和整改后,微博熱搜和今日頭條都建立了內(nèi)容標(biāo)簽的分類管理機(jī)制,置頂消息均為每日時(shí)政要聞;商業(yè)推送設(shè)有固定標(biāo)簽,不同門類的信息各有占比,尤其對于同質(zhì)化內(nèi)容做出限制。
3.健全人工核查機(jī)制
針對具有敏感性、關(guān)鍵性內(nèi)容的消息應(yīng)健全和完善人工審核機(jī)制,運(yùn)用科學(xué)合理的算法并人工介入核查,規(guī)范內(nèi)容質(zhì)量標(biāo)簽的量化標(biāo)準(zhǔn),文章閱讀量、轉(zhuǎn)發(fā)量、評論數(shù)、點(diǎn)贊數(shù)等熱度到達(dá)閾值時(shí)立即使用人工復(fù)核,并配合輿情監(jiān)測系統(tǒng),掌握公共事件輿論發(fā)酵程度,對事件真相及時(shí)公布,對輿論進(jìn)行引導(dǎo)。
4.健全平臺(tái)技術(shù)監(jiān)測預(yù)警機(jī)制
要求平臺(tái)升級內(nèi)容監(jiān)測技術(shù)系統(tǒng),切實(shí)保障低齡網(wǎng)民的健康上網(wǎng)環(huán)境。健全內(nèi)容監(jiān)測預(yù)警機(jī)制,不僅要“監(jiān)測”還要“預(yù)警”,這意味著既要“測的出”也能“掐源頭”——要強(qiáng)化對負(fù)面、有害信息的識別能力,還要加強(qiáng)對內(nèi)容舉報(bào)、核查和限制流量一系列環(huán)節(jié)的相互協(xié)調(diào)配合的能力。
5.健全個(gè)人信息保護(hù)制度
作為用戶本身,我們也應(yīng)該增強(qiáng)法律意識,注冊時(shí)關(guān)注平臺(tái)對個(gè)人信息的保護(hù)規(guī)范,遇到信息泄露時(shí)及時(shí)進(jìn)行反饋,促使平臺(tái)在收集使用用戶信息時(shí),遵循合法正當(dāng)、最少必要的原則,公開收集使用規(guī)則,明示收集使用信息的目的、方式和范圍,并且獲得用戶同意。嚴(yán)禁平臺(tái)在使用算法推薦時(shí)濫用用戶個(gè)人信息、侵犯用戶隱私。