陳海軍 鄒君波 趙穎 費(fèi)德馨
關(guān)鍵詞 資訊分發(fā);智能算法;算法推薦;算法倫理
中圖分類號(hào) G2 文獻(xiàn)標(biāo)識(shí)碼 A 文章編號(hào) 2096-0360(2021)07-0032-03
1.1 智能算法起源和發(fā)展
算法一詞源自波斯學(xué)者al-Khwarizmi名字的拉丁化,他于9世紀(jì)在巴格達(dá)撰寫《印度數(shù)字計(jì)算》一書,向西方引入了印度教的數(shù)字,以及相應(yīng)的計(jì)算方法,即算法。中世紀(jì)拉丁語中出現(xiàn)專有名詞“algorismus”,指用印度數(shù)字進(jìn)行四個(gè)基本數(shù)學(xué)運(yùn)算——加、減、乘、除,后來,術(shù)語“算法”被人們用作表示任何逐步的邏輯過程,并成為計(jì)算邏輯的核心[1]。
隨著信息技術(shù)和人工智能技術(shù)的發(fā)展,算法逐漸智能化和機(jī)械化,并廣泛應(yīng)用到資訊信息分發(fā)領(lǐng)域。所謂智能算法推薦,是指通過大數(shù)據(jù)統(tǒng)計(jì)分析技術(shù)及互聯(lián)網(wǎng)信息技術(shù),按照人們的閱讀習(xí)慣、興趣愛好與個(gè)性化的閱讀行為,精準(zhǔn)地為人們提供獲取信息的機(jī)器程序?,F(xiàn)代推薦算法大致可以分為三類:基于內(nèi)容的推薦算法、基于知識(shí)的推薦算法、協(xié)同過濾算法,此外還有以加權(quán)、串聯(lián)、并聯(lián)等方式融合以上算法的方法[2]。
1.2 算法推薦倫理內(nèi)涵
算法的倫理問題,指的是算法越來越多地代替人類智慧進(jìn)行決策所引發(fā)的倫理危機(jī)。人工智能背景下,算法越來越智能化和程序化,在遵循自然邏輯和思維邏輯之外,甚至能代替集體智慧進(jìn)行決策,人類主體地位受到挑戰(zhàn),人與技術(shù)之間的關(guān)系面臨重構(gòu)。
技術(shù)中性論最早由英國的福布斯提出,該理論認(rèn)為技術(shù)對(duì)于社會(huì)組織和文化等的發(fā)展并沒有什么特殊影響,其本身并無好壞之分,既可以用于善良的目的,也可以用于邪惡的目的,關(guān)鍵是用于何處。在大數(shù)據(jù)背景下,資訊分發(fā)平臺(tái)在算法機(jī)制的作用下產(chǎn)生了諸多的倫理問題,使得人們對(duì)智能技術(shù)的影響和作用產(chǎn)生了質(zhì)疑,重新思考技術(shù)中性論的現(xiàn)實(shí)意義。
2.1 智能算法帶來的倫理問題表現(xiàn)維度
2.1.1 內(nèi)容呈現(xiàn):加劇“信息繭房”,受眾成為“單向度”的人
從算法推薦結(jié)果出發(fā),目前最常見的算法推薦機(jī)制是平臺(tái)根據(jù)用戶對(duì)內(nèi)容的點(diǎn)贊評(píng)論等數(shù)據(jù),分析其內(nèi)在的興趣和需求,在獲取到相對(duì)完善的用戶畫像后,在下一次推送中推薦與用戶相匹配的信息內(nèi)容。這樣的方式一方面實(shí)現(xiàn)了人與信息的高效匹配,節(jié)省了用戶的時(shí)間,但另一方面也讓用戶在無形之中回避了自身不太感興趣的內(nèi)容,只選擇性地接觸自己感興趣的話題,久而久之失去了解和認(rèn)識(shí)不同事物的能力,從而加劇信息環(huán)境中的“信息繭房”危機(jī)。
馬爾庫塞在其著作《單向度的人》中指出,發(fā)達(dá)工業(yè)社會(huì)壓制了人們內(nèi)心中的否定性、批判性、超越性的向度,使這個(gè)社會(huì)成為單向度的社會(huì),而生活于其中的人成了單向度的人,這種人喪失了自由和創(chuàng)造力,不再想象 或追求與現(xiàn)實(shí)生活不同的另一種生活[3]。人工智能時(shí)代,算法推薦帶來的“信息繭房”加劇,無疑會(huì)使得生活在其中的人們更加“單向”化,停滯自身的創(chuàng)造和發(fā)展,無法實(shí)現(xiàn)人的價(jià)值。
2.1.2 算法過程:信息選擇權(quán)讓渡,主體權(quán)益面臨搶占風(fēng)險(xiǎn)
從算法運(yùn)行過程出發(fā),推薦算法通過獲取用戶以往的行為數(shù)據(jù),對(duì)用戶畫像進(jìn)行標(biāo)簽化和細(xì)分化,根據(jù)其特點(diǎn)向用戶推薦與其歷史瀏覽內(nèi)容相似的信息。在這種程序下,用戶并不知道自己所看到的內(nèi)容已經(jīng)經(jīng)過算法過濾,會(huì)自然而然認(rèn)為平臺(tái)推薦的內(nèi)容應(yīng)是客觀全面的,這就極大可能導(dǎo)致用戶錯(cuò)過一些本應(yīng)知情卻被算法機(jī)制篩選掉的信息,無法了解客觀世界的全貌。
這種算法推薦的過程不甚透明,用戶并不知曉算法程序如何分析、分發(fā)信息,因此當(dāng)用戶過度依賴資訊平臺(tái)的推薦來獲取信息時(shí),也就意味著將信息選擇的權(quán)利讓渡給了算法,這樣不僅會(huì)導(dǎo)致用戶接觸新鮮事物的主觀能動(dòng)性下降,所獲信息過于片面狹窄,用戶本身的信息選擇權(quán)和知情權(quán)等權(quán)益也可能受到侵犯,淪為算法程序的奴隸。與此同時(shí),在互聯(lián)網(wǎng)大背景下,大量用戶數(shù)據(jù)被資訊平臺(tái)分析檢測,平臺(tái)也不能完全保證收集到的用戶數(shù)據(jù)的安全,用戶隱私可能面臨被泄露、被更改的風(fēng)險(xiǎn),致使隱私權(quán)益得不到保障。
2.1.3 價(jià)值反饋:社會(huì)輿論進(jìn)一步分化,主流價(jià)值觀受沖擊
從算法價(jià)值層面來說,由于用戶對(duì)資訊平臺(tái)推送的信息具有選擇接觸性,在用戶主動(dòng)獲取所需信息的同時(shí),平臺(tái)也會(huì)根據(jù)新鮮度和熱度推送信息,這些內(nèi)容通過算法程序推薦給廣大用戶后,在正反饋機(jī)制的作用下,能在平臺(tái)上獲得更多曝光量和瀏覽量,實(shí)現(xiàn)熱度的不斷增值。但由于算法機(jī)制缺乏嚴(yán)格的審查制度,如果僅靠流量與點(diǎn)擊為算法標(biāo)準(zhǔn)來進(jìn)行推送,一些低俗、泛娛樂化的內(nèi)容甚至是虛假新聞也可能會(huì)被大量推送給用戶,導(dǎo)致網(wǎng)絡(luò)環(huán)境中吸引眼球的內(nèi)容獵奇或觀點(diǎn)極端的信息增多,影響人們對(duì)真實(shí)世界的認(rèn)知和判斷。
哈佛大學(xué)教授凱斯·桑斯坦認(rèn)為,互聯(lián)網(wǎng)環(huán)境中的“信息繭房”局限會(huì)產(chǎn)生群體“極化”的問題,也就是說當(dāng)人們長期囿于不良信息環(huán)境中時(shí),自身和群體的價(jià)值觀會(huì)受不良價(jià)值觀的影響,逐漸異化,這種情況導(dǎo)致的不良后果可能是原本和諧統(tǒng)一的社會(huì)風(fēng)氣被破壞,主流價(jià)值的輿論引導(dǎo)力下降,社會(huì)輿論進(jìn)一步分化。
2.2 技術(shù)中性論視角下的倫理問題成因分析
技術(shù)中性論認(rèn)為技術(shù)本身是非善非惡的,技術(shù)能產(chǎn)生怎樣的影響,取決于使用它的主體出于怎樣的目的,或使用過程中存在的邏輯問題。算法推薦作為一種人工智能時(shí)代的智能技術(shù),其本身也應(yīng)不具有先天的善惡屬性,智能推薦算法導(dǎo)致的倫理問題的成因可以從以下幾個(gè)方面分析。
2.2.1 人為因素:主觀偏見和潛在歧視
人為因素更多指的是使用算法的主體存在的主觀偏見。算法推薦基于數(shù)據(jù)分析過程進(jìn)行,在對(duì)收集到的信息進(jìn)行數(shù)據(jù)分析時(shí),外部主體的主觀判斷和偏見會(huì)使得原本的結(jié)果產(chǎn)生誤差,造成不符合預(yù)期的結(jié)果出現(xiàn)。人為因素的存在是一種不可抗性,因?yàn)槿魏嗡惴ň扇怂O(shè)計(jì)和開發(fā),縱然算法過程遵循的是科學(xué)的數(shù)字分析與歷史數(shù)據(jù)分析路徑,但先前的算法設(shè)計(jì)、數(shù)據(jù)導(dǎo)入、結(jié)果應(yīng)用等環(huán)節(jié)均需由人力來完成,哪怕算法推薦再智能化也不可能排除人力因素的干擾。因此在算法推薦過程中,人為因素的存在會(huì)對(duì)智能推薦的客觀性產(chǎn)生影響,導(dǎo)致推薦結(jié)果具有偏向性,不管是基于何種算法技術(shù)的算法推薦都有可能被用來人為操控結(jié)果。譬如現(xiàn)有的一些人工智能招聘系統(tǒng)就存在著性別、種族歧視等問題,在對(duì)求職者進(jìn)行簡歷篩選時(shí),會(huì)根據(jù)算法分析結(jié)果篩選掉一些不符合預(yù)期的簡歷。
2.2.2 智能算法內(nèi)部原因:數(shù)據(jù)誤差與完整性限制
智能算法需要基于數(shù)據(jù)的分析處理來實(shí)行操作,因此數(shù)據(jù)的完整性和準(zhǔn)確性尤為重要,但因?yàn)榉N種客觀因素,我們所得到的數(shù)據(jù)結(jié)果并不是百分百完美的。
首先,在完整性上有所限制,智能算法在獲取用戶使用數(shù)據(jù)后對(duì)其進(jìn)行分析,然后選取受眾接觸最多、最感興趣的內(nèi)容再次推送,其中比重較低的信息可能會(huì)被篩選掉。但這些受眾接觸最多的信息只能說明用戶的大概率喜愛程度,并不能囊括用戶的所有喜好,用戶轉(zhuǎn)發(fā)和收藏某個(gè)話題內(nèi)容不全是出于熱愛,可能是出于好奇,也有可能是為了學(xué)習(xí)某項(xiàng)技能而進(jìn)行頻繁接觸[4]。因此數(shù)字邏輯無法完全解答個(gè)體的行為邏輯,也不可能為受眾推送覆蓋全面需求的信息內(nèi)容。
其次,是準(zhǔn)確性的限制,如果在一群較為集中的數(shù)據(jù)中出現(xiàn)與之差異較大的數(shù)據(jù)點(diǎn),或被人為加入某些數(shù)據(jù),那得到的分析結(jié)果也會(huì)與均值有較大偏差。比如新浪微博熱搜榜上出現(xiàn)的熱點(diǎn)內(nèi)容,并不全部是自發(fā)形成的流量熱點(diǎn),某些熱點(diǎn)詞條是有些企業(yè)為了推廣自己的產(chǎn)品服務(wù),與平臺(tái)進(jìn)行交易后被安插在其中,這些被買了流量的信息內(nèi)容在微博的算法推薦機(jī)制之下,會(huì)出現(xiàn)在許多網(wǎng)民的主頁上,但實(shí)際上,這些被推薦的內(nèi)容與部分用戶的信息偏好是相離甚遠(yuǎn)的,是人為創(chuàng)造的熱度假象,因此用戶是被迫在大數(shù)據(jù)的推薦下接觸了這些內(nèi)容,他們的主觀能動(dòng)性沒有得到滿足。
2.2.3 信息壁壘:算法的天然屏障
信息壁壘是算法內(nèi)部的天然屏障,是指在算法過程中,由于決策者擁有算法信息的知情權(quán)與數(shù)據(jù)分析過程的主導(dǎo)權(quán),受眾無法知曉其具體運(yùn)作過程,只能是推薦結(jié)果被動(dòng)的接受者和執(zhí)行者,因此無法對(duì)這些推薦內(nèi)容進(jìn)行準(zhǔn)確判斷和評(píng)估。譬如在像“今日頭條”這樣的資訊平臺(tái)上,用戶所獲得的信息均由平臺(tái)算法推薦,用戶無法知曉其背后的運(yùn)行過程,也無法自主做出信息選擇進(jìn)行評(píng)價(jià)。信息壁壘是算法的天然屏障,也是算法倫理問題的最大原因,它讓人們無法接觸到?jīng)Q策過程中的很多核心信息,除了算法本身,沒有人準(zhǔn)確地知道到底什么因素在決策過程中起了決定性作用[5]。同時(shí)在實(shí)際運(yùn)用中,信息資源的使用具有“馬太效應(yīng)”,即信息資源豐富的一方對(duì)信息的掌控會(huì)越來越大,而信息資源匱乏的一方則會(huì)逐漸失去對(duì)信息的支配權(quán),因此在算法發(fā)展的過程中,決策者和執(zhí)行者之間的信息壁壘也在日益加深,形成更大的信息差異。
麥克盧漢曾有過著名論斷“媒介是人的延伸”,指出媒介與人的關(guān)系。目前,智能推薦算法作為廣泛使用的媒介技術(shù),面臨著算法倫理危機(jī)考驗(yàn),因此在行業(yè)未來的發(fā)展中,既要充分堅(jiān)持技術(shù)的工具理性,發(fā)揮其最大效用,也要堅(jiān)持人的主體價(jià)值,樹立倫理目標(biāo)。
3.1 基于新聞自律維度:提升從業(yè)者“算法素養(yǎng)”,堅(jiān)持自律和規(guī)范
習(xí)近平總書記指出:“要堅(jiān)持正確新聞志向,提高業(yè)務(wù)水平,勇于改進(jìn)創(chuàng)新,不斷自我提高、自我完善,做業(yè)務(wù)精湛的新聞工作者?!毙侣勛月墒菍?duì)新聞業(yè)界以及新聞從業(yè)者的道德要求,指在從事新聞報(bào)道相關(guān)工作時(shí),新聞來源必須真實(shí)可靠,決不能嘩眾取寵,新聞界從業(yè)人員必須嚴(yán)格遵守新聞出版的法律法規(guī),嚴(yán)于自律,真實(shí)客觀地去分析、報(bào)道有關(guān)的新聞信息。目前算法技術(shù)雖已廣泛應(yīng)用在各大資訊平臺(tái),但深入了解其原理機(jī)制,能靈活使用的技術(shù)人才仍在少數(shù),大多數(shù)公眾對(duì)智能算法的認(rèn)識(shí)也停留在表面。因此,必須大力推廣算法知識(shí)教育,提升從業(yè)者的算法素養(yǎng)。同時(shí),堅(jiān)守自律和規(guī)范依然是新聞工作者必須遵循的職業(yè)道德準(zhǔn)則。
3.2 基于算法與人的價(jià)值維度:擺脫思維定式桎梏,全面延伸主體價(jià)值
在資訊平臺(tái)中,信息分發(fā)大都依賴智能算法對(duì)用戶數(shù)據(jù)的分析,這就導(dǎo)致算法推薦會(huì)加劇網(wǎng)絡(luò)環(huán)境中的“信息繭房”或“回音室”效應(yīng),受眾囿于重復(fù)低質(zhì)的信息內(nèi)容,無法突破自身局限,無法全面延伸人的價(jià)值。因此在算法應(yīng)用過程中,用戶自身不應(yīng)完全放棄自主選擇信息的權(quán)利,應(yīng)開放包容地傾聽全方位的聲音,平臺(tái)方也要意識(shí)到技術(shù)是為人類服務(wù)的工具,通過種種提示幫助人們擺脫思維定勢的桎梏。
例如,美國BuzzFeed雜志推出的“Outside Your Bubble”功能,在一部分流傳范圍非常廣的新聞底部,加上另一些平臺(tái)的評(píng)論,比如Twitter、Facebook等,幫助受眾了解多維意見和聲音。再如Google推出的“逃離泡沫”插件,該插件可以根據(jù)用戶的閱讀習(xí)慣,反向推薦格調(diào)積極、易于接受的內(nèi)容,幫助用戶逃離熟悉的“信息泡沫”,還能夠在感官上給用戶帶來很好的體驗(yàn)效果[7]。同時(shí),作為信息消費(fèi)者,除了依靠社交媒體的技術(shù)支持,用戶自身也應(yīng)主動(dòng)接觸各類新鮮事物,了解真實(shí)的客觀世界,努力實(shí)現(xiàn)自己的主體價(jià)值。
3.3 基于人機(jī)關(guān)系維度:堅(jiān)持人本規(guī)則,加強(qiáng)人機(jī)協(xié)作
隨著人工智能技術(shù)的發(fā)展,智能算法技術(shù)越來越滲透到人們生活的方方面面,但在人與技術(shù)的互動(dòng)過程中,人機(jī)關(guān)系的倫理沖突問題也日益顯著,譬如資訊平臺(tái)中智能算法推送的大量信息內(nèi)容,可能在某些時(shí)候取代人的主觀選擇,成為決策或行動(dòng)的主導(dǎo)力量,對(duì)人的主體地位造成沖擊。因此在處理人機(jī)關(guān)系時(shí),算法信息分發(fā)平臺(tái)應(yīng)當(dāng)堅(jiān)持人機(jī)結(jié)合的原則,一方面要提高對(duì)人本規(guī)則的認(rèn)識(shí),強(qiáng)調(diào)人的主體性、能動(dòng)性,認(rèn)識(shí)到人是信息的生產(chǎn)者、傳播者和消費(fèi)者,算法技術(shù)的應(yīng)用要以滿足人的需求為導(dǎo)向;另一方面,加強(qiáng)人工把關(guān)和人機(jī)協(xié)作,充分將人力和技術(shù)的優(yōu)勢結(jié)合起來,為用戶推薦優(yōu)質(zhì)化的信息內(nèi)容,這樣方能促進(jìn)智能推薦算法在未來發(fā)展中具有正確導(dǎo)向,更好地體現(xiàn)人的主導(dǎo)性和價(jià)值觀[8]。
參考文獻(xiàn)
[1]MatteoPasquinelli.算法究竟從何而來[EB/OL].彎月,譯.(2019-08-01)[2021-03-15].https://baijiahao. baidu.com/s?id=1640593404395534400&wfr=spider& for=pc.
[2]王亞妮.算法推薦新聞的倫理風(fēng)險(xiǎn)以及未來發(fā)展[J].新媒體研究,2019,5(1):29-30.
[3]赫伯特·馬爾庫塞.單向度的人[M].上海:上海譯文出版社,2006.
[4]雷鳴.資訊分發(fā)平臺(tái)的個(gè)性化推薦研究[D].武漢:華中科技大學(xué),2018.
[5]房雯璐.算法推薦模式下媒介倫理失范研究[J].山東工業(yè)技術(shù),2019(7):138.
[6]張萌.算法推薦的倫理困境:技術(shù)邏輯基礎(chǔ)上的社會(huì)價(jià)值規(guī)范[J].今日科苑,2019(10):43-51.
[7]靖鳴,管舒婷.智能時(shí)代算法型內(nèi)容分發(fā)的問題與對(duì)策[J].新聞愛好者,2019(5):9-13.
[8]胡萬鵬.新聞算法推送的倫理困境及其對(duì)策研究[D].長春:長春工業(yè)大學(xué),2019.