莊子楦
摘 要 憑借著個性化、精準(zhǔn)化、數(shù)據(jù)化等特點,算法推薦技術(shù)成了各大新聞資訊平臺邁向“智媒時代”的香餑餑。正如萊文森所說的“任何技術(shù)都是刀子的翻版”。算法推薦技術(shù)為媒體和受眾帶來傳播便利和經(jīng)濟利益的同時,也隨之帶來了一系列的倫理問題,“數(shù)據(jù)主義”“人文主義”相互協(xié)調(diào)卻又相互制約,受眾似乎在新技術(shù)主導(dǎo)的傳播過程中重回被動。文章對算法推薦做出概念界定及意義,并從信息繭房、算法黑箱、全景監(jiān)獄三個倫理問題角度分析算法對于用戶權(quán)利的威脅,從法律、機制優(yōu)化、把關(guān)回歸三個角度提出“權(quán)利回歸”解決路徑。
關(guān)鍵詞 算法推送;技術(shù)倫理;權(quán)利
中圖分類號 G2 文獻標(biāo)識碼 A 文章編號 2096-0360(2020)20-0025-03
隨著新媒體成為受眾日常接觸世界了解世界的重要途徑,互聯(lián)網(wǎng)的海量性使得受眾跨入了一個信息負(fù)載的網(wǎng)絡(luò)時代,龐大海量的信息也讓傳統(tǒng)的內(nèi)容分發(fā)模式徹底失效,受眾的閱讀習(xí)慣日益“碎片化”。不少社交媒體平臺、新聞客戶端都開始順應(yīng)大數(shù)據(jù)時代的潮流,探索新型的內(nèi)容分發(fā)模式,于是乎,類似以今日頭條為代表的“算法推薦分發(fā)”模式、知乎為代表的“社群分發(fā)”模式、微信為代表的“個性化訂閱”模式的出現(xiàn),在豐富了內(nèi)容分發(fā)的模式的同時,也讓算法推薦成了各大平臺都爭相使用的內(nèi)容分發(fā)技術(shù)。
1 算法推薦概念界定
算法推薦是基于內(nèi)容資源、大數(shù)據(jù)技術(shù)、用戶為一體的一種信息精準(zhǔn)分發(fā)模式[ 1 ]。其操作過程是通過算法程序收集用戶的上網(wǎng)行為,將用戶的上網(wǎng)行為儲存為可分析的數(shù)據(jù),然后分析數(shù)據(jù)進而挖掘出用戶的愛好習(xí)慣以用戶的社交圈,用一個個標(biāo)簽化的關(guān)鍵詞繪制出用戶專屬的用戶畫像,從而據(jù)此向用戶推送個性化定制的新聞產(chǎn)品。
目前算法推薦形式中應(yīng)用較為廣泛的是以下 三種。
1)用戶畫像算法,即計算機會通過數(shù)據(jù)采集和分析,構(gòu)建出用戶個性化用戶圖像,系統(tǒng)會推薦那些與用戶喜歡的以及用戶關(guān)注過的內(nèi)容相類似的Item[ 2 ],此外算法還會分析這些內(nèi)容之間的關(guān)聯(lián)性。但是這樣的算法推薦方式卻極易出現(xiàn)內(nèi)容同質(zhì)化現(xiàn)象的出現(xiàn),也導(dǎo)致用戶受困于“信息繭房”之中。
2)協(xié)同過濾算法,即系統(tǒng)會通過技術(shù)手段去分析用戶的“朋友圈”,然后將具有相同興趣愛好的朋友喜愛的內(nèi)容推薦給用戶。
3)基于知識的推薦算法,這種推薦算法手段比較典型的方法就是構(gòu)建領(lǐng)域本體或是建構(gòu)規(guī)則,據(jù)此進行內(nèi)容推薦。值得一提的是,上述算法推薦機制也頻繁出錯,這也迫使各大平臺開始積極的探索更完善的融合算法推薦機制。
2 算法推薦時代下“權(quán)利”的迷失
2017年人民網(wǎng)的三篇文章點名批評算法推薦,一下將算法推薦置于風(fēng)口浪尖之上,關(guān)于其帶來的一系列倫理問題也成了學(xué)界乃至受眾都關(guān)心的議題。多名學(xué)者也從人文主義、人本精神的視角去探析算法推薦下用戶權(quán)利問題。杜駿飛教授在一次訪談中提到新聞傳播人文主義的核心是尊重人的價值,算法有自己的邏輯、世界、目的所在,人文主義是必須提倡的[ 3 ]。孫海龍教授則提出算法運算過程中必須加入“人文主義情懷和價值觀,警惕算法帶來的以人為本的夢幻[ 4 ]。陳昌鳳教授則從權(quán)利遷移、人本精神角度探析倫理問題,她認(rèn)為新時代的新聞領(lǐng)域必將是人主導(dǎo)下的人機高度融合的結(jié) 果[5]。誠然算法推薦技術(shù)極大的便利了我們對內(nèi)容的獲取也大大的提高了新聞生產(chǎn)分發(fā)的效率,但是仔細(xì)一想受眾似乎又回到了的你傳我受的傳統(tǒng)“被時代”,受眾的“權(quán)益”“隱私”正在被大數(shù)據(jù)、算法一步步的侵蝕著。在此章節(jié)筆者將著重分析算法推薦技術(shù)對于用戶“權(quán)利”的剝奪。
2.1 “信息繭房”:用戶選擇權(quán)的迷失
算法推薦通過對用戶的瀏覽記錄、愛好、搜索記錄、閱讀頻率等數(shù)據(jù)來建構(gòu)了用戶專屬的用戶畫像,通過數(shù)據(jù)的用戶分析然后進行算法個性化篩選,將用戶感興趣的內(nèi)容傳遞給信息,這樣的內(nèi)容分發(fā)機制表面上以定制化的形式滿足用戶碎片化閱讀習(xí)慣,但是實質(zhì)上是打著“以人為本”的幌子實現(xiàn)技術(shù)的霸權(quán)壟斷。
首先,每一個個體都是具有主觀能動性的,受眾感興趣的內(nèi)容并非一成不變,況且還呈現(xiàn)出多元化、不穩(wěn)定的特點,通過算法分析出來的用戶興趣傾向很有可能只是用戶“一時的興趣”,這只能滿足用戶短暫和淺層的個性需求。因此如何完善算法機制以滿足用戶真正的價值需求是算法推薦急需探索的方向。
其次,分發(fā)內(nèi)容同質(zhì)化嚴(yán)重,相似內(nèi)容領(lǐng)域的內(nèi)容反復(fù)推送就可能會使得用戶對于該領(lǐng)域內(nèi)容產(chǎn)生厭煩。這樣一來算法推薦潛移默化的剝奪了用戶對多元信息的選擇權(quán),信息失衡難以偶遇讓用戶受困于算法營造出的“信息繭房”,難以去接觸和探索其他領(lǐng)域的內(nèi)容。而這也值得令人反思,算法技術(shù)給受眾帶來便利的同時,構(gòu)建了一種“以人為本”的錯覺,似乎讓受眾又回到了“魔彈論”的那個強效果時代。
2.2 “超級全景監(jiān)獄”:用戶隱私權(quán)何去何從
法國著名哲學(xué)家??略谶吳叩摹皥A形監(jiān)獄”模式的基礎(chǔ)上提出了“全景敞視主義”,描述了這樣一種場景,環(huán)形建筑塔尖的監(jiān)視者從“上帝視角”監(jiān)視者犯人的一舉一動,而被監(jiān)視者卻絲毫沒有發(fā)覺。在此理論基礎(chǔ)上,美國學(xué)者馬克·波斯特提出了基于信息社會下的“超級全景監(jiān)獄”理論。而反觀大數(shù)據(jù)時代下,受眾們就如同被囚禁在一個數(shù)據(jù)化的監(jiān)獄中,算法技術(shù)通過不斷的采集用戶數(shù)據(jù)秘密的監(jiān)視著用戶在互聯(lián)網(wǎng)上的一舉一動,而受眾卻全然不知,甚至沉浸于算法技術(shù)帶來的便利。通過個人信息個人偏好去換取閱讀上的便利和定制化,這樣的交易簡直就是“平臺之蜜糖,用戶之砒霜”。
碎片化的閱讀習(xí)慣和快節(jié)奏的生活無形地導(dǎo)致了隱私的被動流失。當(dāng)注冊軟件賬戶時,受眾會習(xí)慣性地快速勾選用戶協(xié)議,而這也直接地將權(quán)限所有權(quán)移交給了互聯(lián)網(wǎng)軟件,隨之帶來的隱患就是數(shù)據(jù)可能被非法使用甚至被共享給了第三方平臺,受眾的數(shù)據(jù)就如同廉價的商品跨平臺流動交易著。此外還有就是信息流廣告無孔不入,用戶在網(wǎng)購中瀏覽的商品信息以信息流廣告的形式不斷穿插于各種社交媒體以達(dá)到精準(zhǔn)營銷的目的。這也應(yīng)征了波斯特提出的超級全景監(jiān)獄,而關(guān)乎用戶的網(wǎng)絡(luò)記憶所有權(quán)的歸屬依舊個是疑問,如何保障用戶的隱私所有權(quán)以及用戶能否要求個人記憶的抹去問題也成了是法律乃至學(xué)界急需研究的議題。
2.3 “算法黑箱”:偏見剝奪用戶知情權(quán)
關(guān)于算法這一技術(shù)就是如何運行?其如何分析受眾的互聯(lián)網(wǎng)行為?受眾的哪些信息會被算法所捕捉到呢?對于大多數(shù)普通用戶來說,可能大家只知道算法推送機制的存在,卻對它的運行機制“一頭霧水”。算法就如同巨大的“黑箱”,難以理解難以評判難以監(jiān)督?!昂谙洹笔强刂普撝懈拍睿覆粸槿怂拇虿婚_又不能從外部直接觀察其內(nèi)部在狀態(tài)的系統(tǒng)。
首先,算法并非完美且?guī)в忻黠@的利益傾向。目前大多數(shù)平臺使用的算法機制都是來源商業(yè)化企業(yè),這也導(dǎo)致了用戶收取到的信息帶有明顯的利益傾向,商業(yè)利益化的信息流廣告、以及煽情化、點擊率高的低俗內(nèi)容“成災(zāi)”,局限性及利益性使得算法在某種程度上剝奪了用戶的知情權(quán)。
其次,算法設(shè)計者的偏見導(dǎo)致了信息不對稱。算法的框架和標(biāo)準(zhǔn)的制定者都是人,算法設(shè)計者自身帶有的無意識的偏見導(dǎo)向決定了算法推薦要選用用戶的哪些數(shù)據(jù)以及算法要過濾了哪些內(nèi)容,這樣的偏見價值觀也使得算法推薦機制無法保持客觀中立的向用戶合理推薦。而讓人擔(dān)憂的是,這種來源于算法設(shè)計者的偏見色彩,掌控了用戶知情權(quán),用戶無法去了解他們應(yīng)該知道的內(nèi)容和信息。這對于那些依賴于用算法推薦來了解世界的用戶來說,算法推薦實際上為他們營造了“看似中立卻隱含著偏見”的擬態(tài)環(huán)境。
3 算法推薦下“權(quán)利回歸”路徑探析
3.1 法律制度保障,算法“黑箱”透明化
有關(guān)“權(quán)利回歸”的探討首先必須得到法律制度的保障和支持。縱觀近兩年的算法倫理事件,可以發(fā)現(xiàn)目前法律對于算法推薦平臺的管制局限于事后問責(zé),大多是問責(zé)、刪除、阻截等管制手法,缺乏對于算法技術(shù)使用和設(shè)計上的規(guī)范。
首先,政府需要制定一套完善的算法技術(shù)使用規(guī)范和標(biāo)準(zhǔn),加強第三方監(jiān)管的力量,可以引入專業(yè)性強的非盈利監(jiān)管機制,從平臺用戶協(xié)議簽訂、算法設(shè)計環(huán)節(jié)、數(shù)據(jù)收集等涉及用戶信息的環(huán)節(jié)對算法平臺實施嚴(yán)格全方位的監(jiān)管,以保障用戶的合法權(quán)益[ 6 ]。
其次,可以借鑒西方的算法解釋權(quán)來保障用戶的知情權(quán),算法解釋權(quán)即受眾受到算法自動化決策在法律上經(jīng)濟上的損害時,有權(quán)向算法使用提出異議,要求提供對具體決策的解釋[ 7 ]。算法解釋權(quán)在一定程度上可以打破了“算法黑箱”,也提高了“算法黑箱”的透明度,保障了受眾權(quán)利不受侵害,讓“不為人知”的自動化決策呈現(xiàn)在公眾面前。
最后,需要有更加完善的法律條文,對于用戶互聯(lián)網(wǎng)行為的隱私所有權(quán)的界定,加大侵犯隱私權(quán)的違法成本,切實保障用戶的隱私不被非法利用。
3.2 優(yōu)化推送機制,提高信息偶遇
要做到減少“信息繭房”,為用戶提供更加深層次、優(yōu)質(zhì)、多元化的信息,是每一算法平臺都需要去優(yōu)化和改進的地方。
首先,要完善和優(yōu)化推送系統(tǒng),加入能夠真正反映用戶需求的數(shù)據(jù)指標(biāo),例如可以引入用戶滿意度、評論質(zhì)量、專業(yè)度、用戶觀看時長、用戶興趣排序等指標(biāo),通過多指標(biāo)的分析構(gòu)建更加“人性化”的用戶畫像,為用戶挖掘出更加有價值更加專業(yè)的內(nèi)容。
其次,用戶畫像的建構(gòu)應(yīng)該多“更新”、多“變動”、多“評估”,以滿足用戶的“主觀能動性”,對用戶的標(biāo)簽以及用戶瀏覽的內(nèi)容引入排序機制,辨別出用戶的短暫興趣或是深層次偏好,推送時可以有選擇性的按照占比或是先后順序進行分發(fā),這樣一來就可以保證用戶可以獲取到更加多元的內(nèi)容。
此外,可以在分發(fā)流程中應(yīng)該賦予用戶更多“主動”的權(quán)利,給用戶拒絕此類內(nèi)容的選擇權(quán)。同時,在用戶圖像分析時應(yīng)該減少娛樂化、低俗化標(biāo)簽,多弘揚主流價值觀傳播正能量的優(yōu)質(zhì)內(nèi)容。
3.3 人機協(xié)同,還原內(nèi)容本真
算法推薦下的新聞生產(chǎn),通過自動化快速化海量化的算法分析技術(shù)替代了傳統(tǒng)“把關(guān)人”編輯的角色,但是算法機器在對于內(nèi)容價值、質(zhì)量的把控上過于機械化,這也導(dǎo)致了許多低俗劣質(zhì)內(nèi)容的滋生。因此這也更加需要“傳統(tǒng)把關(guān)人”的回歸,充分發(fā)揮新聞媒體從業(yè)人員的專業(yè)能力,建設(shè)一個人機協(xié)同的內(nèi)容審核制度[ 8 ]。
首先,通過傳統(tǒng)把關(guān)人的回歸,為機械化的算法推薦過程注入主流價值觀,堅持社會主義核心價值觀和傳統(tǒng)文化為指導(dǎo)思想,使得“以人為本”“主流正能量”成為算法推薦內(nèi)容的主旋律,可以有效制止和減少智能化傳播中“算法偏見”的出現(xiàn)。
其次,具備專業(yè)媒介素養(yǎng)的編輯“把關(guān)人”在算法審查環(huán)節(jié)扮演“糾錯者”身份,可及時制止低俗內(nèi)容的傳播和侵犯用戶權(quán)利現(xiàn)象的產(chǎn)生。還可以采取算法、編輯同步采集內(nèi)容的決策,讓更多有價值的內(nèi)容被受眾所看到,讓算法設(shè)計和推送的環(huán)節(jié)上更加注重新聞價值觀,讓數(shù)據(jù)時代的新聞內(nèi)容回歸客觀真實中立。
4 結(jié)語
智能技術(shù)的不斷發(fā)展也預(yù)示著學(xué)者彭蘭所說的“萬物皆媒”的時代即將到來,而這也意味著人、人體、人的活動甚至是思維都將被數(shù)據(jù)化[9],生活數(shù)據(jù)化所帶來的是用戶體驗感增加、生活愈加便利,然而它悄無聲息的監(jiān)視和窺探著受眾的種種行為,算法推薦同樣如此讓受眾的各項合法權(quán)益受到侵犯和限制,工具性和人性、數(shù)據(jù)主義與人文主義在萬物皆媒時代下相互協(xié)調(diào)又相互矛盾,因此如何實現(xiàn)“權(quán)利回歸”、用戶主導(dǎo)權(quán)話語權(quán)的提升是學(xué)界乃至各大平臺都急需去面對和解決的問題。
參考文獻
[1]王仕勇.算法推薦新聞的技術(shù)創(chuàng)新與倫理困境:一個綜述[J].重慶社會科學(xué),2019(9):123-132.
[2]周建明,馬璇.個性化服務(wù)與圓形監(jiān)獄:算法推薦的價值理念及倫理抗?fàn)嶽J].社會科學(xué)戰(zhàn)線,2018(10):175-180.
[3]史劍輝.新聞觀:人文主義轉(zhuǎn)向何以可能?——南京大學(xué)杜駿飛教授學(xué)術(shù)專訪[J].新聞記者,2018,428(10):31-38.
[4]孫海龍.新聞算法推薦對社會價值觀的影響——基于人文主義視角[J].新聞世界,2019,333(1):30-34.
[5]陳昌鳳,霍婕.權(quán)力遷移與人本精神:算法式新聞分發(fā)的技術(shù)倫理[J].新聞與寫作,2018(1):65-68.
[6]張淑玲.破解黑箱:智媒時代的算法權(quán)力規(guī)制與透明實現(xiàn)機制[J].中國出版,2018(7):49-53.
[7]張凌寒.商業(yè)自動化決策的算法解釋權(quán)研究[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2018,229(3):67-76.
[8]趙雙閣,岳夢怡.新聞的“量化轉(zhuǎn)型”:算法推薦對媒介倫理的挑戰(zhàn)與應(yīng)對[J].當(dāng)代傳播,2018(4):52-56.
[9]彭蘭.萬物皆媒——新一輪技術(shù)驅(qū)動的泛媒化趨勢[J].編輯之友,2016(3):5-10.