国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

算法推薦技術視角下短視頻傳播的倫理失范問題探析

2022-03-22 14:48:44李仕生石鮮鮮
文化與傳播 2022年5期
關鍵詞:倫理內容算法

李仕生,石鮮鮮

短視頻是指在互聯(lián)網(wǎng)上傳播時長為幾秒到幾分鐘不等的視頻,具有碎片化、互動性、豐富性的特征。在算法推薦技術的加持下,短視頻成為強大的“時間殺手”,讓一些人沒日沒夜地深陷其中。算法推薦技術在短視頻傳播的運用,衍生出了低俗惡搞、色情暴力、侵犯他人隱私等倫理失范問題。我們需要重視這些問題,并通過各種途徑加以治理,進行短視頻的倫理重構。

一、算法推薦技術在短視頻傳播中的運用

自從現(xiàn)代的信息傳播和智媒技術接軌,短視頻平臺的內容分發(fā)完成了從“人找信息”到“信息找人”的轉變[1]。算法推薦技術使用戶在信息過剩的當下,獲得更加精準的個人偏好信息。在這個過程中,算法推薦模型自身也在不斷發(fā)展和完善。

協(xié)同推薦算法是較早產生并運用于電子商務信息分發(fā)的算法。電商平臺根據(jù)用戶的下單、收藏、加購等信息進行預判。協(xié)同推薦算法運用到短視頻領域時,對用戶行為的衡量指標主要有完播率、點贊量、評論量、轉發(fā)量等。但面對新用戶入駐,基于用戶行為數(shù)據(jù)的協(xié)同推薦算法難以短時間內匹配其需求,于是又衍生出了內容推薦算法。內容推薦算法可以計算每位用戶的核心興趣點,豐富用戶畫像模型。內容推薦算法技術的運用,使平臺一開始就可以根據(jù)用戶的性別、年齡、需求等元數(shù)據(jù)建立“畫像”,描繪出用戶的興趣愛好“圖譜”,進而“投其所好”,向用戶推薦其最可能感興趣的信息。

2021年2月5日,科技創(chuàng)投媒體“36氪”網(wǎng)站在《快手上市背后:短視頻行業(yè)進入2.0戰(zhàn)爭時代》一文中提出了“短視頻2.0時代”的概念。短視頻2.0時代的競爭重心在于洞察用戶動機、連接萬物的能力。與此相對應,當下的算法推薦系統(tǒng)一般綜合運用協(xié)同過濾和內容推薦兩種模型,并加入機器學習、深度學習等人工智能技術,把推薦機制從用戶端更多轉向內容端[2]。舉例來說,如今的智能算法推薦技術為每個新作品賦予一定的基礎推薦量,根據(jù)傳播情況增加推薦量或者終止推薦。

二、算法推薦技術下短視頻傳播的倫理失范問題

相比于在信息爆炸情況下的大浪淘沙,如今的短視頻平臺在內容分發(fā)方面更加高效精準,由此引發(fā)的算法倫理問題也受到廣泛關注。算法倫理,指算法越來越多地代替人類智慧進行決策所引發(fā)的倫理危機[3]。而算法技術下短視頻傳播的倫理失范,指的是平臺在算法決策的過程中,由于資本控制、價值判斷失衡、技術偏差等因素,產生一系列倫理風險,對用戶產生某些負面影響。正如加拿大傳播學者麥克盧漢在“媒介是人的延伸”的基礎上提出的“延伸意味著截除”,意指有些媒介工具會使人自身某些功能退化[4]。算法被喻為人腦的延伸,給用戶帶來了諸多技術便利,但同時用戶的部分自主性也被算法決策削弱,從而陷入倫理失范的困境中。

(一)短視頻平臺使用算法技術的初衷與用戶需求有偏差

短視頻平臺使用算法技術的初衷主要是為了促進信息分配精準、高效。但在實操中,這樣的初衷有時會和用戶的需求存在偏差甚至背道而馳。

1.創(chuàng)作端:過度重視內容識別,輕視用戶需求

算法技術對短視頻內容有一套完整的識別體系,按照推薦權重的重要性依次是點贊量、評價量、轉發(fā)量、完播率、復播率等指標。一些用戶深諳識別指標的重要性,于是就想辦法去迎合,投其所好。例如,在抖音平臺上存在大量以“互關互贊,抱團取暖”為標簽的短視頻,評論區(qū)中經(jīng)常出現(xiàn)網(wǎng)友的“誠實第一,從不欠贊”“高質量禮尚往來新作品”之類的回復。這些行為的出發(fā)點,都是用戶想迎合算法技術的邏輯,讓其作品獲得足夠的點贊量、評價量、轉發(fā)量、完播率、復播率等。但是,平臺應更看重用戶對信息的真實性、重要性、權威性等需求。一則具有高點贊數(shù)的短視頻并不必然體現(xiàn)它的信息價值,可能只是用戶“互關互贊”下的成果。因此,平臺過度重視內容的可識別性可能會帶來用戶真實需求的缺位。

2.算法端:把用戶表面行為誤讀為深層興趣

用戶接觸最多的短視頻只能說明用戶的大概喜愛程度,不能囊括用戶的所有喜好[5]。一方面,在設置元數(shù)據(jù)標簽時,很多用戶出于理性選擇有價值的信息,但在獵奇欲、窺私欲等本能驅使下,絕大多數(shù)用戶對于內容的需求日趨集中[2]。以抖音為例,從互聯(lián)網(wǎng)內容科技公司“新榜”提供的數(shù)據(jù)來看,2021年11月漲粉排行月榜的前3名分別為:劇情創(chuàng)作者“張同學”(1034.5w)、美妝達人“柳夜熙”(569.1w)、音樂博主“可愛屁”(533.9w)。這些抖音賬戶的內容較為淺顯、獵奇,容易吸引用戶眼球,滿足了其娛樂需求。用戶一開始可能只是出于好奇,或是為了學習某項技能接觸這一類淺層次的信息,但算法卻有可能將其一次性點擊解讀為深層興趣。另一方面,受制于日常心境的變化,用戶可能在心情不好時點擊主題比較頹喪的視頻,或在肚子餓時觀看吃播視頻,抑或是在失戀時關注情感治愈類視頻。但是這種情緒并不是持續(xù)性的,用戶也不需要平臺一直推薦這類視頻。

3.用戶端:固化群體偏見,加深群體區(qū)隔

隨著我國農副產品越來越快地參與國際市場流通,國外對畜產品質量的嚴格要求無疑是對我國的一個沖擊。為使我國畜產品盡快達到國際水準,筆者認為政府部門首先要提高對發(fā)展畜牧業(yè)機械化的重視,從畜牧飼養(yǎng)機械推廣、專業(yè)飼養(yǎng)人才培養(yǎng)、畜產品銷售保障等多方面給予扶持和鼓勵,促使農民生產觀念的轉變。另外,畜牧業(yè)規(guī)模化是今后的發(fā)展趨勢,規(guī)?;拍苡行Ы档统杀竞驮鰪姷钟L險的能力,有利于保障產品的品質和供給穩(wěn)定。而機械化與規(guī)?;g存在相互推進的關系,因此,為使我國逐漸發(fā)展成為畜牧強國,我們還要鼓勵規(guī)模化養(yǎng)殖。

算法推薦技術的作用機制主要表現(xiàn)在兩個方面:一是借助代際差異進行群體定位,二是參照群體定位調整自身行為。代際差異指的是中老年人和年輕人之間的代溝,反映在短視頻上便是觀看內容的大相徑庭。中老年人更為青睞實用性的短視頻,比如關于長壽秘訣、疾病預防方法、健康食譜等類型的內容?;谥欣夏耆巳后w偏好的內容,平臺利用算法推薦技術向其推薦了高度同質化的視頻,形成了信息閉環(huán)。而對于年輕人,抖音可能會給他們推薦搞怪、游戲、二次元等主題的短視頻。由此,算法推薦技術借助代際差異對中老年人和年輕人進行了群體定位。

基于群體定位,用戶自身形成行為規(guī)范,對于超出群體標簽的行為會產生一定程度的排斥,還可能加深彼此的刻板印象。比如在一些論壇中出現(xiàn)了這樣的帖子:“抖音算法是給我淘汰了嗎?我已經(jīng)很努力在搜小哥哥跳舞、美女變妝視頻、影視劇解說,怎么還在一個勁兒給我推薦土味視頻???”大部分人認為自己的圈子才是獨特、優(yōu)越的空間,由此社會群體身份認同的區(qū)隔可能進一步加深。

(二)用戶時空緊張感加劇

許多短視頻用戶有這樣的感受:有時候打開抖音看幾個短視頻,不知不覺就過了一兩個小時。留給工作和學習的空間不斷被短視頻擠壓,時空緊張感油然產生[6]。短視頻的觀看情境較為靈活,在一定程度上滿足了用戶的碎片化信息需求,但如果過分沉迷其中,則會導致虛擬和真實界限的模糊,最終使得用戶身處迷惘之中。比如有的用戶喜歡看網(wǎng)紅跳舞的視頻,看了一遍不過癮,還要多次看并點贊、收藏甚至關注。那么算法系統(tǒng)就會認定該用戶很喜歡看這類視頻并對其進行同類推薦,使其陷入短視頻的“旋渦”無法自拔。

用戶時空緊張感并不只反映在心理的緊迫上,還可能導致在生理層面和社會層面出現(xiàn)新的問題。在生理層面,短視頻帶來的時空侵入會讓用戶患上拖延癥。與非拖延者相比,沉浸在短視頻中的拖延者可能會面臨更多的壓力,產生更大的焦慮感或自我批評的思想。此外,在社會層面,時空緊張感會帶來群體性孤獨。有時候人們雖然共處一個時空場域,但沉迷于短視頻的他們并沒有在彼此間建立深層次的聯(lián)系。有句流行語為“世界上最遙遠的距離,莫過于我在你身邊,你卻在玩手機”,這句話表達的處境就與時空緊張感下的群體性孤獨相似。鑒于此,在2018年,抖音就上線了反沉迷系統(tǒng),加強對用戶的主動提醒。但這個系統(tǒng)能起到多大的作用,實在不容樂觀。

(三)平臺過度采集用戶的隱私信息

2021年12月,央視報道稱“某紅書”APP不時給用戶推送含有大量未成年人身體隱私的短視頻,引起了網(wǎng)友對其隱私管理的討論。采集用戶部分信息是算法推薦技術發(fā)揮作用的前提,但過度采集用戶隱私會陷入道德失范甚至觸碰法律紅線。

法國哲學家福柯把人類社會的控制方式比喻為全景監(jiān)獄:在一所監(jiān)獄中,獄卒對罪犯進行全天候、全方位的監(jiān)視,但是罪犯卻無法看到獄卒的存在[7]。短視頻的信息環(huán)境就像“超級全景監(jiān)獄”,算法操縱者暗箱操作,將用戶的喜怒哀樂置于眼底并做出一系列引導行為。算法到底如何過濾和排序信息對絕大部分用戶而言是“技術黑箱”,用戶的隱私得不到足夠保障,只能被算法凝視和控制。

2020年7月30日,北京互聯(lián)網(wǎng)法院的一個判決引發(fā)關注。案件中,法學博士生小凌起訴抖音、多閃等短視頻APP,聲稱這兩則APP在沒有獲得許可權限的情況下,通訊錄中的好友就出現(xiàn)在了視頻推薦界面[8]。像小凌這樣對于隱私權敏感且勇于較真的用戶是少數(shù),大多數(shù)用戶是選擇忍受。而平臺對于用戶的個人信息索取近乎“強制”。比如,不少用戶都有這樣的感受:在使用某些APP時,對隱私協(xié)議只有“勾選”的權利?!巴饩褪褂?,不同意就不給用”的選擇實際上具有強制意味,讓用戶喪失了公平的話語權。截至2021年9月,抖音系DAU(日活躍用戶數(shù)量)增長至約6.4億。而用戶使用規(guī)模越大,短視頻平臺對于隱私權限的濫用越令人擔憂。

(四)內容分發(fā)導致的歧視與偏見

2018年4月13日,《人民日報》海外版發(fā)表文章《算法也有價值觀》,文中駁斥了今日頭條創(chuàng)始人張一鳴的“算法沒有價值觀”之言論。但近些年來,不斷有學者認為,算法的中立性是一個偽命題[9]。因為算法是一系列解決問題的清晰指令,但問題的性質在被提出和被界定之前就帶有強烈的背景和意圖。這也意味著算法推薦從誕生那一刻起就必然夾帶著算法創(chuàng)設主體的意志[10]。在算法創(chuàng)設主體的意圖下,本該服務于用戶本身的算法容易異化出算法歧視與偏見。

算法推薦技術導致的歧視與偏見指的是在內容分發(fā)時,由于政治權力、商業(yè)資本、算法設計者價值判斷等因素造成的決策不客觀[11]。算法是由機器工程師設計的,因而技術本身必然融入了人的價值判斷,算法推薦技術帶來的判斷失誤也可以視為人的某種“歧視與偏見”。據(jù)媒體報道,2015年5月美國一黑人程序員發(fā)現(xiàn),她和一位黑人女性朋友的自拍照,被Google打上了大猩猩的分類標簽。這種不尊重人種的表現(xiàn)是由于算法設計者針對內容標簽的設置有誤,給當事人造成了很大的心理傷害[12]。再如,《華盛頓郵報》調查117名美國用戶后發(fā)現(xiàn),F(xiàn)acebook會根據(jù)性別、設備使用習慣、居住地等進行差異化推送,像某些信息只推送給農村用戶而非城市用戶,或推送給大部分女性用戶而非男性用戶[11]。算法歧視與偏見下,人們以往的角色特性被進一步固化。就像一些人工智能招聘系統(tǒng)一般,算法在篩選掉不符合預期簡歷的同時,也剝奪了不同人群間流動的機會。

三、算法推薦技術視角下短視頻傳播倫理失范問題的治理

在算法全方位融入社會生活的背景下,數(shù)字人權理論逐漸進入人們的視野。數(shù)字人權理論主張數(shù)字科技要以人為本[10]。將數(shù)字人權理論放在短視頻時代,意味著算法推薦技術應該以人為本,充分尊重用戶的個人利益環(huán)境。為對短視頻的倫理進行重構,短視頻平臺、用戶、公權力組織需要多方合力解決。

(一)短視頻平臺:拓展算法推薦維度,融入內容價值判斷

不少短視頻平臺的流量集中在熱度較高的頭部視頻上,對于尾部作品的分發(fā)缺少關注。抖音中粉絲基數(shù)大、歷史數(shù)據(jù)好的賬號才能進入熱門流量池,繼而攫取平臺大部分流量。為了縮小流量的“貧富差距”,平臺應嘗試進行頭部視頻的限流和尾部內容的托底。如快手的“基尼系數(shù)”機制,就很好地調控了注意力資源。發(fā)在快手上的視頻至少能獲得100個人的基礎用戶量,當視頻的觀看時長、點贊、評論達到相應閾值,其推薦量會被降權處理?!盎嵯禂?shù)”機制下,平臺中三成的流量會分配給頭部視頻,大多數(shù)的熱度可以賦予容易被人遺忘的尾部內容。

目前,短視頻的算法推薦指標主要關注三個維度:性別、年齡、職業(yè)等用戶基本信息;地域、天氣等環(huán)境信息;標題、摘要、音樂、燃點等短視頻自身信息[13]。當三個維度的特征匹配時,算法便會預測出每個用戶群的瀏覽方向。這種推薦模型可以最大化地集成用戶的感知信息,但是缺少了內容價值判斷維度的約束。因此,短視頻平臺要在顯性指標的基礎上,加入用戶滿意度、內容影響、真實性、時效性等價值判斷指標,向用戶呈現(xiàn)重新加權的推薦結果。對于目前算法推薦的單一性,業(yè)界有過多種措施。Google曾推出“逃離泡沫”插件,該插件可以針對那些審美異化的用戶,反向推薦格調積極的內容,使之逃離同質化的“信息泡沫”?!度A爾街日報》曾推出“紅推送,藍推送”,該插件可以向用戶推送臉書上同一內容中雙重傾向的信息??傊?,除了對常規(guī)的用戶畫像進行設置,短視頻平臺需要拓展算法推薦維度。當推薦模型的衡量指標不再局限于轉贊評等顯性數(shù)據(jù),而能夠從技術倫理的角度去完善價值體系時,社會各界就能更自如地應對智媒時代的挑戰(zhàn)。

(二)用戶:增強算法素養(yǎng),學會“馴化”算法

當算法推薦技術在短視頻傳播過程中衍生出倫理問題時,算法素養(yǎng)的概念應運而生。

算法素養(yǎng)就是要培養(yǎng)人們與算法的共存能力[14]。算法素養(yǎng)要求用戶對推薦內容具備自我把關意識,學會“馴化”算法。例如,用戶可以有意識地閱讀、停留等,調整算法參數(shù)。具體而言,面對更有價值的內容,用戶可以延長閱讀時間以留下興趣點的足跡;面對意義不大的內容,用戶可以采取不點贊、不評論、不關注的“三不原則”,明確對該內容的態(tài)度。以微信視頻號為例,在基于善意的情況下,用戶可以長按短視頻內容界面,點擊“不感興趣”或“投訴”。點擊前者后,短視頻將會彈出“將減少此類推薦”的提示信息;點擊后者,則需進一步標注“投訴”原因,如勾選“低俗色情”“垃圾廣告”“謠言欺詐”等。

2016年12月23日,人民網(wǎng)評論在《算法盛行更需“總編輯”》一文中呼吁:算法主導的時代,更需要有態(tài)度、有理想、有擔當?shù)摹翱撮T人”[15]。這里的“看門人”,可指具有一定算法素養(yǎng)、能夠對內容自我把關的短視頻用戶。由于算法推薦技術的獨特性,用戶可以通過一系列反饋進行算法“馴化”,引導短視頻的內容展示。正如美國傳播學者丹尼斯和德弗勒所言,今天數(shù)字媒介的倫理問題主要集中在一些普通個人或者說媒介本身上[16]。從這個角度上來講,擁有一定算法素養(yǎng)的用戶,也是算法社會時代的“看門人”。

(三)公權力:成立算法審查委員會,完善算法的公益訴訟救濟

人們的認知中往往存在一個誤區(qū),那就是算法推薦技術必然是工具理性的代表,和價值理性完全對立。事實上算法思維和價值理性不是非此即彼的關系,算法推薦技術和價值理性在一定條件下具有共通的可能。但如今,各家短視頻平臺為了在激烈的市場競爭中占據(jù)一席之地,有時會罔顧內容傳播的價值理性。此時若有公權力的介入,或許有利于促進短視頻市場的技術向善,從而盡可能規(guī)避算法推送中的倫理失范風險。公權力的介入首先在于發(fā)揮監(jiān)管功能,但又不能損害短視頻平臺的正當商業(yè)利益。例如,由政府監(jiān)督人員、行業(yè)代表、高校學者共同組成一個“算法審查委員會”,從更為專業(yè)的角度增加算法決策的透明性,幫助公眾適當打破“算法黑箱”[17]。在算法審查委員會中,政府監(jiān)督人員從行政的角度對算法進行監(jiān)管,行業(yè)代表從商業(yè)的角度對算法進行維護,高校學者從新聞專業(yè)的角度給予建議。

在司法層面,當前我國公益訴訟的訴訟標的絕大多數(shù)集中于環(huán)境污染和食藥安全[18],針對智能算法技術的公益訴訟救濟力度不夠。2020年11月,在江西電視臺都市頻道的心理援助節(jié)目《幸福配方》中,有一位61歲的女子黃月,因癡迷抖音上頻繁刷到的“假靳東”而整日茶飯不思。真靳東作為名人,有足夠的社會資源與抖音對簿公堂。但對于普通人而言,要想維權難上加難。目前,作為一種新型技術性工具,算法規(guī)制存在法律概念界定不清晰、適用范圍模糊等法律缺位問題[19]。再加上算法黑箱所形成的信息壁壘,司法部門針對算法的公益訴訟救濟體系并不完善,接到相關訴訟時往往難以受理。因此,將算法侵權案例納入公益訴訟案件范圍,完善公共法律服務體系,司法才不會滯后于最新的訴訟救濟需求。

結語

在信息過載的時代,算法推薦技術讓短視頻用戶實現(xiàn)了“私人定制”,但也延伸出頗多倫理失范問題,包括平臺開發(fā)算法的初衷與用戶需求產生偏差,用戶時空緊張感加劇,用戶隱私的被動讓渡以及在內容分發(fā)環(huán)節(jié)出現(xiàn)的歧視和偏見現(xiàn)象。要對短視頻傳播過程中產生的倫理失范問題進行治理,必須優(yōu)化算法推薦服務機制,推動短視頻平臺運營者、用戶、公權力三方共同參與,為規(guī)范短視頻行業(yè)的健康發(fā)展保駕護航。

猜你喜歡
倫理內容算法
《心之死》的趣味與倫理焦慮
內容回顧溫故知新
科學大眾(2022年11期)2022-06-21 09:20:52
護生眼中的倫理修養(yǎng)
活力(2019年19期)2020-01-06 07:37:00
基于MapReduce的改進Eclat算法
Travellng thg World Full—time for Rree
進位加法的兩種算法
主要內容
臺聲(2016年2期)2016-09-16 01:06:53
一種改進的整周模糊度去相關算法
醫(yī)改莫忘構建倫理新機制
婚姻家庭法的倫理性及其立法延展
平定县| 威远县| 西安市| 绥德县| 义乌市| 武威市| 鄂托克前旗| 邵武市| 宜兰县| 滁州市| 明溪县| 巫山县| 砚山县| 漾濞| 北京市| 深水埗区| 娄烦县| 昭苏县| 农安县| 涿州市| 兴业县| 防城港市| 会同县| 阿鲁科尔沁旗| 南昌市| 琼中| 信宜市| 扎赉特旗| 内丘县| 禹州市| 汉阴县| 铁力市| 弥勒县| 锡林郭勒盟| 米泉市| 庆安县| 丰顺县| 龙川县| 巩义市| 常熟市| 吉林省|