国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

智能媒體語境中的信息囚徒、算法悖論及其突圍路徑*

2019-09-10 07:22鐘書平?劉慶振?牛媛媛?陳疆猛
教育傳媒研究 2019年3期
關(guān)鍵詞:隱私算法大數(shù)據(jù)

鐘書平?劉慶振?牛媛媛?陳疆猛

【內(nèi)容摘要】算法作為智能媒體時(shí)代的一種新型權(quán)力,正在解構(gòu)和重構(gòu)媒體傳播領(lǐng)域的版圖與秩序。算法接管了大量的媒體工作,給媒體從業(yè)者帶來的是機(jī)會(huì)還是威脅?算法參與信息生產(chǎn)、傳播和消費(fèi)的決策過程,會(huì)不會(huì)像人類一樣存在種種偏見和歧視?算法解決了數(shù)據(jù)挖掘過程中的很多問題,但又給用戶的隱私保護(hù)帶來了哪些難題?算法是否強(qiáng)化了“信息繭房”現(xiàn)象?這一系列的問題需要我們在理性地用好算法技術(shù)的同時(shí),增加一些人文關(guān)懷。

【關(guān)鍵詞】智能媒體;算法;大數(shù)據(jù);隱私

算法正在我們的日常生活、工作、學(xué)習(xí)、社交等活動(dòng)中發(fā)揮著越來越重要的作用,它逐漸地成為我們與信息、數(shù)據(jù)、知識(shí)、內(nèi)容等比特化的世界進(jìn)行互動(dòng)的中介,越來越多的傳播媒介在基本完成了數(shù)字化、數(shù)據(jù)化的工作之后快速邁入了算法化的新階段。在這樣的語境下,媒介進(jìn)化歷史也從數(shù)字媒體時(shí)代過渡到了智能媒體時(shí)代:諸如亞馬遜、京東這樣的電商網(wǎng)站不斷地積累著我們每個(gè)人的消費(fèi)數(shù)據(jù),并在此基礎(chǔ)上分析我們的偏好特點(diǎn),從而使得它的推薦更加符合我們的興趣口味;諸如華為、三星這樣的手機(jī)硬件能夠借助機(jī)器學(xué)習(xí)提升對我們每個(gè)人所處的不同場景和不同狀態(tài)的判斷;諸如頭條、抖音這樣的內(nèi)容平臺(tái)則將為我們匹配個(gè)性化新聞、資訊和娛樂的絕大部分任務(wù)讓渡給了算法,而不是人工編輯;在交通、治安、教育、醫(yī)療等越來越多的領(lǐng)域,算法已經(jīng)成為不可或缺的重要工具……當(dāng)然,這樣也并不意味著算法是萬能的。算法不可能處理所有的事情,而且,算法在處理很多問題的時(shí)候,也常常需要一定時(shí)間周期甚至不間斷地學(xué)習(xí),并且在出現(xiàn)各類問題的時(shí)候接受人工糾錯(cuò)機(jī)制的介入。

一、算法接管工作:通往自由之路?

智能媒體時(shí)代的典型特征就是算法逐漸接管原來屬于人類的大量基礎(chǔ)性工作和程序化勞動(dòng),在數(shù)據(jù)的收集、新聞的寫作、內(nèi)容的排版、影像的后期、圖書的推薦、資訊的分發(fā)、廣告的投放等越來越多的媒體環(huán)節(jié),甚至在電影配樂、AI換臉①、新聞播報(bào)、節(jié)目主持②等方面,也都越來越自動(dòng)化、智能化和算法化,這意味著原本由人類從事的大量媒體類工作崗位在未來會(huì)被機(jī)器或算法取代,從而釋放出大量的自由勞動(dòng)力和自由時(shí)間。人們通常會(huì)認(rèn)為,有相當(dāng)大量的媒體工作需要人類的智力參與才能完成,但在今天的智能媒體視角下來看,恰恰相反,有相當(dāng)大量的媒體工作壓根并不需要人類智力參與,事實(shí)上,人工智能完全能夠勝任。在技術(shù)加速變革和資金大力投入的前提下,更加高效、更加精準(zhǔn)、更具現(xiàn)實(shí)解決能力的算法被研發(fā)出來并投入到了媒體產(chǎn)業(yè)的實(shí)踐應(yīng)用中去。其好處在于這些智能媒體工具能夠客觀地按照算法設(shè)定的要求去完成相應(yīng)的工作,從而把人類從無聊、枯燥、乏味的勞動(dòng)中解放出來,但問題在于這樣做的同時(shí)也在很大程度上給被解放出來的人工造成了較大的就業(yè)壓力和經(jīng)濟(jì)危機(jī)。對于這一點(diǎn),現(xiàn)代西方著名經(jīng)濟(jì)學(xué)家約翰·梅納德·凱恩斯(1930)在題為《我們后輩的經(jīng)濟(jì)問題》的文章中創(chuàng)造性地提出了“技術(shù)性失業(yè)”(Technological Unemployment)的概念,這意味著,在采用越來越自動(dòng)化和智能化的人工智能和算法工具的產(chǎn)業(yè)領(lǐng)域中所產(chǎn)生的更多失業(yè)現(xiàn)象是由技術(shù)的應(yīng)用造成的,“是由于我們發(fā)現(xiàn)節(jié)省勞力的新方式的速度超過了我們發(fā)現(xiàn)勞力新用途的速度。”③

如果某一項(xiàng)媒體工作無論在智力投入方面還是在情感投入方面的要求都不算太高,那么從事這份工作的人員就會(huì)非常容易被算法所取代?!霸谛碌乃惴ㄉ鐣?huì),計(jì)算機(jī)科學(xué)家與數(shù)學(xué)家將在文化決策方面發(fā)揮越來越重要的作用……最終可能實(shí)現(xiàn)幾代技術(shù)烏托邦主義者夢寐以求的目標(biāo):‘每周工作20小時(shí),50歲退休’”④(盧克·多梅爾,2016)。這一方面意味著人們將擁有更多的時(shí)間和精力去思考文化、創(chuàng)造娛樂和關(guān)注生活,就像奧斯卡·王爾德(1891)所說的那樣,“希臘人的觀點(diǎn)是正確的。如果沒有奴隸去完成那些臟活兒、累活兒、不體面的活兒,文化與思考就無從談起。以人為奴隸是不合適、不安全的,也是不道德的。未來世界依靠的是機(jī)器奴隸,即把機(jī)器變成我們的奴隸?!雹萑缃?,我們有機(jī)會(huì)把這些所謂的臟活兒、累活兒、不體面的活兒、枯燥無聊的活兒一股腦兒地交給“算法奴隸”來完成,從而騰出更多的時(shí)間去體味文化、創(chuàng)造文明了。然而另一方面,大多數(shù)被“算法奴隸”所取代的人類勞動(dòng)者卻陷入到了另一個(gè)尷尬的困境之中:他們賴以維持生存和生活的經(jīng)濟(jì)收入將從什么地方獲得?畢竟被算法替換掉的大量勞動(dòng)者是依賴一份工作而獲得經(jīng)濟(jì)收入的,這種建立在工業(yè)時(shí)代的生產(chǎn)消費(fèi)模式如果被算法時(shí)代的新思維和新工具摧毀,可能導(dǎo)致的嚴(yán)重后果就是那些看上去被解放為自由勞動(dòng)力的人,有可能恰恰會(huì)因此被切斷經(jīng)濟(jì)來源從而成為最不自由的人。

如果媒體不再需要廣告設(shè)計(jì)師、視頻剪輯師、圖文編輯人員,未來這方面的勞動(dòng)者就會(huì)大量減少,但問題在于目前正在從事這些工作的人被排擠出現(xiàn)有工作崗位之后將怎樣快速完成他們的職業(yè)轉(zhuǎn)型呢?表面上看這僅僅只是一部分人的就業(yè)問題,但更深層次的問題在于如果越來越多的人被“算法奴隸”或者智能工具排擠出就業(yè)市場,我們要想生存下去,就必須對我們這個(gè)社會(huì)“目前賴以存在的但是已經(jīng)過時(shí)的運(yùn)營模式進(jìn)行改革”⑥(Levitt,1960),必須對建立在工業(yè)經(jīng)濟(jì)基礎(chǔ)之上的社會(huì)文化、生活方式和管理體制進(jìn)行根本性的變革。而這樣的變革過程卻是相當(dāng)漫長的,對于那些目前已經(jīng)遭受或者即將遭受新的算法技術(shù)沖擊的勞動(dòng)者而言,沒有誰有耐力和經(jīng)濟(jì)能力經(jīng)歷漫長的等待,就像凱恩斯(1923)在《貨幣改革論》中所說的那句經(jīng)典名言一樣:“長遠(yuǎn)是對當(dāng)前事務(wù)錯(cuò)誤的指導(dǎo)。從長遠(yuǎn)看,我們都已經(jīng)死了?!笔聦?shí)上,從長遠(yuǎn)看,誰都不清楚算法進(jìn)化的未來究竟會(huì)是一個(gè)理想國還是一個(gè)烏托邦,或者也有可能是地獄。如果幾百年后的人們利用算法獲得了真正的自由,那么是否值得我們犧牲當(dāng)前正在遭受算法沖擊的大量勞動(dòng)者的生存權(quán)利和發(fā)展權(quán)利來為后人的自由鋪路?事實(shí)上,解決自由悖論的鑰匙并不完全掌握在數(shù)據(jù)科學(xué)家、軟件工程師和算法設(shè)計(jì)員的手中,他們無論在職業(yè)層面還是在倫理層面的出發(fā)點(diǎn)都是要把人類從沉重、枯燥的勞動(dòng)中拯救出來。但由此造成的問題則更多地需要?jiǎng)趧?dòng)者自身去承受,并需要算法的使用者和社會(huì)的管理者綜合考量所有的可能因素來保障勞動(dòng)者的生存要么免受算法的挑戰(zhàn),要么能夠在受到?jīng)_擊之后幫助他們找到更合適的工作。我們?nèi)绾卧O(shè)計(jì)、使用和管理這些功能日益強(qiáng)大的算法,如何在機(jī)器奴隸和人類勞動(dòng)之間尋找到某種平衡,將會(huì)直接影響到未來包括傳媒產(chǎn)業(yè)在內(nèi)的所有經(jīng)濟(jì)領(lǐng)域的本質(zhì),也將會(huì)直接決定未來的社會(huì)結(jié)構(gòu)和社會(huì)形態(tài)最終會(huì)沿著什么樣的路徑發(fā)展下去。

二、算法參與決策:通往公正之路?

在現(xiàn)代社會(huì),大數(shù)據(jù)和算法結(jié)合已經(jīng)顛覆了傳統(tǒng)的決策方式⑦(Sch?nberger, Cukier, 2013)。對于幾乎99%以上的普通用戶而言,盡管算法給了人們以客觀公正的感覺,但實(shí)際上大家并不知道在算法的“黑盒子”里面究竟發(fā)生了什么,更不知道依賴算法作出的各種各樣的選擇和決策是否完全正確可靠。事實(shí)上,期待算法做到百分之百的公正這種想法本身就有些天真,例如,丁曉東(2017)曾選取了“Grutter案”“Gratsz案”和“Bakke案”等幾個(gè)典型的美國教育平權(quán)案來分析討論美國學(xué)校招生政策中算法的合理性,研究發(fā)現(xiàn)“算法并非一種完全價(jià)值中立的活動(dòng),算法總是隱含了價(jià)值判斷”⑧。再如,與面部識(shí)別相關(guān)的算法對男性的識(shí)別率要高于女性、對黑人的識(shí)別率要高于白人,與就業(yè)求職相關(guān)的算法向男性推薦的工作崗位整體工資要高于向女性推薦的崗位,與信息資訊相關(guān)的算法向受教育水平低的用戶群體推送的內(nèi)容在質(zhì)量和格調(diào)上都存在一些問題,與商品購物相關(guān)的算法會(huì)選擇向那些較少購買奢侈品的用戶發(fā)假貨……越來越多的案例提醒我們一個(gè)已經(jīng)非常明顯的事實(shí):算法并不像我們想象中的那樣客觀公正?!白詈诵牡膯栴}仍然要?dú)w結(jié)于算法所承諾的虛無縹緲的客觀性……我們過于擔(dān)心人類的偏見與自相矛盾,同時(shí)又過于相信計(jì)算機(jī)的公正性。我們的錯(cuò)誤在于我們信任算法,但事實(shí)上這些算法都是人編寫出來的,人們可以把所有的偏見與觀點(diǎn)植入其中”⑨(盧克·多梅爾,2016)。人類本身就是一種時(shí)常帶有偏見性的動(dòng)物,這一點(diǎn)是顯而易見的,我們的偏見會(huì)影響我們的決策,也會(huì)影響我們對于算法的開發(fā)和應(yīng)用,這一點(diǎn)也是毋庸置疑的。

但即便如此,《哈佛商業(yè)評論》的一篇文章仍然堅(jiān)持認(rèn)為如果你不想被偏見左右,那么算法依然是一個(gè)較好的選擇。作者 Alex P. Miller⑩(2018)認(rèn)為,我們在指責(zé)算法可能帶來嚴(yán)重的不公平問題時(shí),忽略了一些重要的因素,比如,算法的使用者可能不理解概率或置信區(qū)間(即使已經(jīng)注明),并且在實(shí)際操作中可能也不愿去推翻算法的決定(即便這在技術(shù)上是完全可行的)。這也就是說,算法本身并沒有向任何用戶承諾自己完全公正、不會(huì)出錯(cuò),只是人們自己覺得它是公正客觀的;進(jìn)一步地說,人們即使也意識(shí)到了或者接觸到了算法在參與決策過程中存在的問題,但這些決策所造成的負(fù)面影響并不明顯,因此也就不愿去推翻算法的決定。所以,Alex提醒我們與其把目光聚焦在這些不知是否真正公正的算法選項(xiàng)上而忽略了我們想要解決的真正問題是什么,不如好好考慮如何將人類和機(jī)器的優(yōu)勢相結(jié)合, 以便創(chuàng)造出更好的、偏見更少的決策工具。如果我們認(rèn)真地觀察和思考目前流行的對于算法偏見的大量指責(zé),就會(huì)發(fā)現(xiàn)一個(gè)非常有意思的現(xiàn)象:盡管表面上看這些批評的矛頭都指向了算法,但更本質(zhì)的問題其實(shí)在于偏見?!岸鄶?shù)對于不公正的偏見的批評并不是反算法的,他們更多針對的是偏見,他們并不是真的憎恨算法”(Rachel Thomas,2018)。在這個(gè)角度來看,解決算法偏見問題的路徑將會(huì)從過去孤注一擲地聚焦于打造一種完美、公正和客觀的算法轉(zhuǎn)變?yōu)閮煞N比較切實(shí)可行的策略:一是不斷地優(yōu)化和改進(jìn)現(xiàn)有的算法本身,使其能夠不斷地向公正客觀的理想狀態(tài)邁進(jìn);二是在算法之外尋找預(yù)防和應(yīng)對可能出現(xiàn)的偏見的方法,“因?yàn)樵谒邪咐?,算法都有人的參與,尤其是在搜集數(shù)據(jù)、制定決策、實(shí)現(xiàn)方式、解讀結(jié)果及因人而異的理解等方面,都會(huì)受到人為干預(yù)?!蓖ㄟ^什么樣的方式避免這種人為干預(yù)過程中可能產(chǎn)生的不公正問題,或許要比單純關(guān)注算法本身來得更有價(jià)值。

人類存在偏見,算法同樣存在偏見,而算法的偏見則更多的是人類偏見在算法世界中的另外一種寫照,計(jì)算機(jī)也好,軟件程序也好,復(fù)雜算法也好,都“只不過是一個(gè)使用了很多語法規(guī)則、速度很快的符號(hào)轉(zhuǎn)換機(jī),機(jī)器缺少生物大腦擁有的東西——解釋語義的能力”(約翰·馬爾科夫,2015)。因此,算法世界存在的偏見問題本質(zhì)仍然是人類社會(huì)自身的問題,而不是算法規(guī)則的問題。算法可以讀取數(shù)據(jù)并產(chǎn)出數(shù)據(jù),但這并不意味著它真的理解了那些數(shù)據(jù)之于現(xiàn)實(shí)社會(huì)的意義,它也無法真正理解皮膚的顏色、經(jīng)濟(jì)的收入、職業(yè)的區(qū)分以及說話的語氣等具體內(nèi)容所暗含的敏感信息,它更不會(huì)在意它所輸出的結(jié)果乃至結(jié)論是否會(huì)引發(fā)一場輿論爭端或現(xiàn)實(shí)沖突。所以解鈴還須系鈴人,算法偏見的解決最終要寄希望于開發(fā)、使用和管理它的人。這樣看來,人機(jī)結(jié)合或許是一個(gè)不錯(cuò)的方案,理想的狀態(tài)應(yīng)該是這樣的:當(dāng)算法在參與決策的時(shí)候,利用神經(jīng)網(wǎng)絡(luò)、人工智能、機(jī)器學(xué)習(xí)等工具將能夠推理出人類的對話,并據(jù)此判斷哪些問題可以直接幫助人類直接執(zhí)行任務(wù),而哪些問題的處理權(quán)和決策權(quán)應(yīng)該歸還給人類讓他們自己解決。這樣,我們就重新回到了沒有算法在場的老問題:怎樣確保人類自己作出的決策是不帶偏見的?而事實(shí)上,人類并沒有發(fā)明出一套完美的游戲機(jī)制和社會(huì)規(guī)則來保證這一點(diǎn),這也就難怪很多人在談及算法偏見的時(shí)候會(huì)抱有“比人類強(qiáng)點(diǎn)就行了”的態(tài)度。在任何一個(gè)現(xiàn)代社會(huì)中,人們都不希望看到偏見的存在;但同樣在任何一個(gè)現(xiàn)代社會(huì)中,偏見卻隨處可見?;蛟S,從更長遠(yuǎn)的時(shí)間來看,我們依然要寄希望于算法來減少偏見、促進(jìn)公正。畢竟,只要我們確定的規(guī)則是合理的、公正的、無懈可擊的,那么算法就會(huì)嚴(yán)格的按照程序遵循并執(zhí)行它,“算法的尊重性,并不僅體現(xiàn)對那些強(qiáng)勢群體算法使用者的尊重,而更需要的是對弱勢群體算法使用者的包容和理解,即算法不因身份、地位、財(cái)富、性別等不同有任何區(qū)別?!痹谶@一點(diǎn)上,人卻未必能做到。

三、算法窺見隱私:通往透明之路?

英國哲學(xué)家杰里米·邊沁(1875)設(shè)計(jì)了這樣一種“圓形監(jiān)獄”:在其中,每一個(gè)囚徒的所有行為動(dòng)作對于監(jiān)視者而言都是可見的,但監(jiān)視者的任何心理、表情和動(dòng)作對于囚徒們而言則是無從得知的,他們甚至在根本上不知道監(jiān)視者的存在。法國哲學(xué)家米歇爾·??拢?977)在其著名的《規(guī)訓(xùn)與懲罰》一書中使用了“全景監(jiān)獄”的概念來表達(dá)了與邊沁類似的意思,但在這里囚徒們在一定程度上是意識(shí)到監(jiān)視者的存在的。無論何種說法,囚徒們所處的環(huán)境對于監(jiān)視者而言都是透明的,他們能夠清晰地掌握囚徒們的一舉一動(dòng)。在當(dāng)前的信息社會(huì),每位用戶在數(shù)字終端上的瀏覽痕跡、跳轉(zhuǎn)路徑、消費(fèi)記錄以及其他各種動(dòng)作都被以不同的形式存儲(chǔ)和保存了下來,構(gòu)成了所謂的大數(shù)據(jù)的一部分。這其中絕大部分?jǐn)?shù)據(jù)是無意義無價(jià)值的,它們根本不會(huì)被誰注意到就淹沒在了浩浩蕩蕩的數(shù)據(jù)洪流之中;但是越來越多的機(jī)構(gòu),無論是出于商業(yè)目的還是政治目的,正在開發(fā)各種各樣的算法激活大數(shù)據(jù)中所蘊(yùn)含的巨大價(jià)值。借助算法,我們在大數(shù)據(jù)的海洋中淘洗到了美麗的貝殼,甚至還發(fā)現(xiàn)了閃閃發(fā)光的珍珠,那就是數(shù)據(jù)中所蘊(yùn)含的關(guān)于用戶個(gè)人的基本情況、興趣偏好、價(jià)值觀念、消費(fèi)需求乃至政治傾向等有助于對用戶行為進(jìn)行預(yù)測、引導(dǎo)和施加影響的重要信息。例如,2018年3月引起全球互聯(lián)網(wǎng)用戶極大關(guān)注的“臉書數(shù)據(jù)門”事件,事件的主角“劍橋分析”公司就涉嫌竊取超過5000萬臉書用戶的個(gè)人數(shù)據(jù),并在此基礎(chǔ)上利用數(shù)據(jù)挖掘工具和算法推薦系統(tǒng)來操縱美國大選及英國脫歐的投票。

盡管我們不能認(rèn)定是算法操縱甚至決定了某些重大的公民決策行為,也無法給出算法對公民的政治理念和投票行為究竟產(chǎn)生了多大程度的影響,但有一點(diǎn)是明確的:算法能夠從我們遺留在網(wǎng)絡(luò)上的數(shù)字蹤跡中挖掘出更豐富的具體到每一位用戶的各類信息以服務(wù)于其商業(yè)目的或者其他目的,這其中當(dāng)然包括大量的用戶隱私。在這種數(shù)據(jù)可以被實(shí)時(shí)收集、存儲(chǔ)和挖掘的語境下,波斯特從??碌摹叭氨O(jiān)獄”出發(fā),指出了“今天的傳播環(huán)路以及它們產(chǎn)生的數(shù)據(jù)庫,構(gòu)成了一座超級(jí)全景監(jiān)獄,一套沒有圍墻、窗子、塔樓和獄卒的監(jiān)督系統(tǒng)”(波斯特,2000)。我們每個(gè)人則成為這個(gè)超級(jí)全景監(jiān)獄中的“囚徒”,盡管其中的絕大多數(shù)人并沒有時(shí)時(shí)刻刻自發(fā)地感知到這種“監(jiān)視”,當(dāng)然,監(jiān)視也不是時(shí)時(shí)刻刻都存在。但這種由數(shù)據(jù)、算法和傳播權(quán)力編織起來的監(jiān)視與被監(jiān)視、傳播與被傳播、操縱與被操縱的虛擬關(guān)系確實(shí)產(chǎn)生著相應(yīng)的影響。客觀而論,直到目前為止,每年都有層出不窮的數(shù)據(jù)泄露事件和隱私侵權(quán)事件,但用戶仍然并不知道自己的隱私會(huì)如何被侵犯,被侵犯到何種程度,因?yàn)閿?shù)據(jù)和隱私這樣的概念對用戶而言太抽象了,除非有具體的且惡劣的行為嚴(yán)重傷害到了他們,否則他們就會(huì)覺得無關(guān)痛癢,更何況,“他們與那些掌握并利用甚至可能出賣他們的隱私數(shù)據(jù)的公司之間,天然是不平等的。在缺乏對自己數(shù)據(jù)的知情能力的情況下,隱私保護(hù)也就無從談起”(彭蘭,2018)。

但或許我們也不能因此而徹底悲觀甚至陷入絕望,情況可能沒有我們想象的那么糟糕,甚至還有可能是很多悲觀主義的研究者杞人憂天般地多慮了。比如《福布斯》雜志曾經(jīng)就專門針對隱私這件事情撰文指出,“小孩子就是不在乎,或者不理解老一代人所指的‘隱私’一詞的意思……70%的千禧代人說沒有人有權(quán)接近他們的數(shù)據(jù)或線上行為;但51%的說,如果能被告知,他們愿意共享信息”(安德魯,2016)。Liana Brüseke(2016)就千禧一代和嬰兒潮一代對在線購物行為中的隱私認(rèn)知情況進(jìn)行的對比研究中也在一定程度上支持了上述說法,不同世代的人群對待數(shù)字世界中的隱私問題持有不同的態(tài)度和觀點(diǎn)。當(dāng)然,年輕人對個(gè)人數(shù)據(jù)和隱私持有更加開放和樂觀的態(tài)度是完全可以理解的,他們是信息時(shí)代的互聯(lián)網(wǎng)原住民,他們更容易認(rèn)可和支持?jǐn)?shù)據(jù)共享行為,他們也還沒有受到過太多因?yàn)殡[私泄露而產(chǎn)生的各種困擾,而且,任何一個(gè)國家、任何一個(gè)時(shí)代的年輕群體總是相對于年老群體對新出現(xiàn)的事物和問題保持激進(jìn)態(tài)度。但這也并不一定就意味著年輕人一點(diǎn)兒都不關(guān)心他們的數(shù)據(jù)安全和隱私風(fēng)險(xiǎn),例如Brien(2011)等人的研究就發(fā)現(xiàn)其實(shí)聰明的千禧一代非常清楚社交網(wǎng)站中的低隱私設(shè)置所存在的風(fēng)險(xiǎn),并主動(dòng)采取了一些保護(hù)措施以防自己信息的泄露。更何況,隨著年齡的逐漸增長,很多年輕人不怎么關(guān)注隱私問題的狀況還極有可能發(fā)生根本性的變化,誰會(huì)真的希望在看似匿名、自主、安全的網(wǎng)絡(luò)環(huán)境背后有一雙甚至無數(shù)雙眼睛盯著自己看呢?互聯(lián)網(wǎng)領(lǐng)域一直引以為豪的共享思維和共享技術(shù)塑造了年青一代的思想和行為,使得他們更愿意分享從經(jīng)驗(yàn)到知識(shí)、從數(shù)字產(chǎn)品到實(shí)體產(chǎn)品等所有非獨(dú)占性的東西,但這不是說他們愿意分享所有的一切,或許他們縮小了自己所認(rèn)為的隱私應(yīng)該涉及到的范圍,但他們肯定不會(huì)放棄隱私權(quán)?!皵?shù)字化技術(shù)能使隱私侵犯更加絕對化,結(jié)果它威脅,甚至破壞了我們大家晚上帶回家的‘真正的自我’。在持續(xù)不斷的監(jiān)控下,我們的行為不像是我們自己的,我們有時(shí)甚至不是自己,我們會(huì)盡力掩飾自己,希望避免超級(jí)牢固的刺網(wǎng)的監(jiān)視”(安德魯,2016)?,F(xiàn)在,這種監(jiān)視、誘導(dǎo)以及操控行為正在把并非真正我們需要的信息和商品推送給我們,正在從更深層次改變我們對世界的認(rèn)知、態(tài)度乃至行為,因?yàn)樗匆娏宋覀?,于是它能預(yù)測、影響甚至改變我們的想法和做法。而我們中的大多數(shù),卻看不見、聽不到也感知不著它的存在。

四、算法改造視野:通往多元之路?

“算法對人是有目的傾向性的。例如,在決策支持系統(tǒng)中的算法,即通過某些預(yù)定的標(biāo)準(zhǔn)對一組備選動(dòng)作進(jìn)行排序來幫助決策者做出更好的決策。雖然算法在設(shè)計(jì)的階段不會(huì)對人產(chǎn)生影響,但是在算法設(shè)計(jì)剛開始時(shí)就已經(jīng)負(fù)載價(jià)值,只不過價(jià)值要在算法的應(yīng)用階段實(shí)現(xiàn)”(郭林生,2018)。這種傾向性表現(xiàn)在今天的新聞傳播領(lǐng)域就是根據(jù)用戶的個(gè)人興趣偏好向他們進(jìn)行個(gè)性化的商品、廣告、資訊和娛樂推薦。隨著越來越多的互聯(lián)網(wǎng)企業(yè)將這種個(gè)性化算法推薦的方式應(yīng)用到為用戶提供信息服務(wù)的不同場景之中,用戶也越來越明顯地感覺到算法的無處不在,他們在算法提供的各種選項(xiàng)之中汲取信息、數(shù)據(jù)、內(nèi)容、知識(shí)乃至智慧,但隨之而來的除了表面的繁華熱鬧,還有很多更深層次的困擾和擔(dān)憂,最典型的就是對“信息繭房”“算法壟斷”的討論?!斑@種個(gè)人日報(bào)式的信息選擇行為會(huì)導(dǎo)致‘信息繭房’的形成。長期處于過度的自主選擇中,失去了解不同事物的能力和接觸機(jī)會(huì),不知不覺間為自己制造了一個(gè)‘信息繭房’”(喻國明,2016)。事實(shí)上,算法推薦所造成的“信息繭房”問題的確是客觀存在而且是不容忽視的,例如,今日頭條曾經(jīng)在一段時(shí)間以非常高的頻率向用戶推薦某一話題、某一人物、某一時(shí)間或某一類型相關(guān)的資訊,這在很大程度上造成了用戶的不良體驗(yàn)和強(qiáng)烈反感。在一定程度上,這是一種用戶能夠感知到的“信息繭房”正在形成的過程,這個(gè)過程引起了用戶的不適、抗拒乃至沖突,因?yàn)檫@種頻率和密度帶來了某種壓抑感甚至窒息感。事實(shí)上,這只不過是推薦算法在其初級(jí)階段的拙劣表現(xiàn),更優(yōu)秀的算法已經(jīng)能夠做到根據(jù)對用戶實(shí)時(shí)數(shù)據(jù)的分析向他推薦更符合他所在場景的個(gè)性化信息而不致引起用戶反感,但這并無法改變“信息繭房”的本質(zhì),而是進(jìn)一步強(qiáng)化了“我所看到的都是我想看到的”這一現(xiàn)象,而那些不想看到的都已經(jīng)在達(dá)到用戶之前就被算法屏蔽在所有可選項(xiàng)之外了,用戶需要做的只是從眾多想要看的內(nèi)容中選擇此時(shí)最想看的那個(gè)選項(xiàng)而已。

長此以往,“這種‘信息繭房’導(dǎo)致的信息偏食往往使人局限在個(gè)體以及相似群體的行為活動(dòng)中”(王秋旭,2015),還會(huì)“使個(gè)體獨(dú)立選擇與思考的空間不斷縮小,個(gè)體在算法推薦的滲透下逐漸失去自我的決斷權(quán),這種信息偏向使受眾的視野逐漸變得狹窄,逐漸成為信息時(shí)代的井底之蛙”(陳昌鳳、張心蔚,2017)。當(dāng)一個(gè)人長期沉浸在算法為自己打造的媒介環(huán)境中時(shí),他對那些與自己價(jià)值觀和興趣點(diǎn)不一致的多樣化的信息就會(huì)接觸得越來越少,這有可能導(dǎo)致他不情愿或者根本沒有辦法主動(dòng)走出“信息舒適區(qū)”,從而進(jìn)一步禁錮了自己的視野,束縛了自身的成長。事實(shí)上,與“信息繭房”類似的問題由來已久,早在19世紀(jì),法國思想家阿歷克西·德·托克維爾(1840)就在其風(fēng)靡至今的社會(huì)學(xué)巨著《論美國的民主》中提到過類似的觀點(diǎn),他的發(fā)現(xiàn)是民主社會(huì)更易于促進(jìn)個(gè)人主義文化的滋生、形成和發(fā)展。哈佛大學(xué)法學(xué)院教授桑斯坦(2003)在《網(wǎng)絡(luò)共和國》一書中發(fā)展了這一觀點(diǎn),并直接指出了網(wǎng)絡(luò)時(shí)代的信息爆炸看似給用戶帶來了更多的資訊和更民主的選擇,但實(shí)際上它蘊(yùn)含著對多樣化生態(tài)和民主化選擇的巨大破壞力量,從而失去了接觸和了解不同事物的能力和動(dòng)力。但也有另外的觀點(diǎn)認(rèn)為,“信息繭房”是一種必然現(xiàn)象,過分擔(dān)心它可能對信息生態(tài)的多樣性造成巨大破壞,這件事是沒有太大必要的,因?yàn)橐恢币詠碛脩舳际翘幵凇靶畔⒗O房”之中的,而不是直到推薦算法出現(xiàn)之后才這樣的。在傳統(tǒng)媒體背景下,用戶是通過自主瀏覽報(bào)紙、電視和廣播的方式來選擇自己想獲取的信息;在PC互聯(lián)網(wǎng)環(huán)境下,用戶是借助搜索引擎這樣的工具來篩選和過濾他所查找的信息和商品;在移動(dòng)互聯(lián)網(wǎng)場景下,用戶則利用人工智能、深度學(xué)習(xí)、數(shù)據(jù)挖掘等技術(shù)塑造的推薦系統(tǒng)來獲取相應(yīng)的內(nèi)容產(chǎn)品。盡管表面上看,隨著媒介的不斷進(jìn)化,用戶的主觀能動(dòng)性和選擇多樣性變得越來越低,但直到目前并沒有客觀可靠的數(shù)據(jù)來支撐這樣的論斷。

無論是傳統(tǒng)大眾媒體時(shí)代,還是PC互聯(lián)網(wǎng)、移動(dòng)互聯(lián)網(wǎng)時(shí)代,用戶所獲取到的信息,都在很大程度上受到了“算法”的左右,只不過不同的媒介技術(shù)語境下的“算法”各不相同罷了。大眾傳播時(shí)代的編輯分發(fā)算法,更多地是基于編輯作為“把關(guān)人”對什么樣的信息應(yīng)該呈現(xiàn)在受眾面前進(jìn)行一種經(jīng)驗(yàn)主義的主觀“計(jì)算”或判斷,從而把他們認(rèn)為受眾適合看到的信息通過報(bào)紙、電視等方式“推薦”給了受眾;PC互聯(lián)網(wǎng)則是利用搜索引擎的排序算法把它認(rèn)為最符合用戶輸入的那個(gè)關(guān)鍵詞的信息以優(yōu)先劣后的方式“推薦”給用戶;移動(dòng)應(yīng)用場景下的各類App因?yàn)槟軌虿杉屯诰蚋鄻踊挠脩魯?shù)據(jù),因此能夠結(jié)合大數(shù)據(jù)技術(shù)、人工智能技術(shù)和機(jī)器學(xué)習(xí)技術(shù)不斷優(yōu)化其推薦系統(tǒng),以向用戶匹配更符合具體場景下的信息給他們。所以,媒體編輯分發(fā)、搜索引擎分發(fā)和推薦引擎分發(fā)三種信息分發(fā)方式雖然其“算法”有所不同,但它們的本質(zhì)都是相同的——為用戶過濾掉那些與他們無關(guān)的或者他們不感興趣的信息。在這個(gè)意義上,凡是媒體都會(huì)形成“信息繭房”。更進(jìn)一步地,對于用戶而言,媒體編輯個(gè)人的判斷標(biāo)準(zhǔn)是一種“信息繭房”,搜索引擎的排序算法是一種“信息繭房”,推薦系統(tǒng)的推薦規(guī)則也是一種“信息繭房”,而更難以沖破的“信息繭房”則是用戶個(gè)人的世界觀、價(jià)值觀、人生觀,是“三觀”決定了用戶會(huì)在媒體編輯分發(fā)、搜索引擎分發(fā)和推薦系統(tǒng)分發(fā)之后的所有信息選項(xiàng)中選擇閱讀或消費(fèi)什么樣的信息產(chǎn)品。在一定意義上,不同的媒體進(jìn)化階段和信息分發(fā)模式之間的確存在較大的思維方式和操作方法的差異,但在“信息繭房”這個(gè)視角下,并不意味著編輯分發(fā)時(shí)代用戶獲取信息和消費(fèi)信息的多樣性就高于移動(dòng)互聯(lián)網(wǎng)時(shí)代,而由于移動(dòng)互聯(lián)網(wǎng)賦予了信息快速擴(kuò)散和網(wǎng)絡(luò)化傳播的可能性,它反而使得海量用戶能夠有機(jī)會(huì)在較短的時(shí)間內(nèi)獲取到一些在大眾媒體時(shí)代被“把關(guān)人”過濾掉的重要信息,這在一定程度上也增加了信息來源、輿論觀點(diǎn)和價(jià)值選擇的多樣性。目前來看,沖破“信息繭房”的關(guān)鍵有兩點(diǎn):一是從當(dāng)前的各類算法著手,根據(jù)對用戶數(shù)據(jù)的挖掘和洞察,在“用戶真正需要什么信息”和“用戶此時(shí)想要什么信息”之間進(jìn)行綜合平衡,提升算法推薦選項(xiàng)的多樣化,“媒體算法追求信息的精準(zhǔn)分享,這樣的設(shè)計(jì)理念并沒錯(cuò),前提是信息分享的方式是構(gòu)建個(gè)體化的信息分享模式還是構(gòu)建多樣化的信息分享模式”(劉海明,2019)。二是激發(fā)用戶在信息選擇方面的主觀能動(dòng)性,主動(dòng)走出“信息舒適區(qū)”,明確自己真正需要什么樣的信息,利用不同方式來獲取不同的信息,而不是單純地依賴某一類媒體、某一款應(yīng)用或者某一種算法。

五、智能媒體中的算法權(quán)力與人文關(guān)懷

媒體的智能化和算法化是一種巨大的力量,它給傳媒產(chǎn)業(yè)和傳播研究帶來了源源不斷的紅利,但它也給當(dāng)前處在轉(zhuǎn)型中的媒體傳播領(lǐng)域和中國當(dāng)下的文化、經(jīng)濟(jì)、社會(huì)乃至政治造成了諸多的難題。無論是機(jī)遇還是挑戰(zhàn),都強(qiáng)烈地沖擊著現(xiàn)有的信息生產(chǎn)模式、內(nèi)容消費(fèi)方式、生活工作狀態(tài)、傳播倫理觀念和社會(huì)管理制度?,F(xiàn)實(shí)的情況是,面對已經(jīng)來臨的智能媒體社會(huì),我們唯一的選擇只能是接受它、擁抱它、完善它和成就它。顯然,媒介的演化過程是不可逆的,幾乎很少有人會(huì)從內(nèi)心真正愿意重新回到只有傳統(tǒng)四類大眾傳播媒介的20世紀(jì)。但盡管如此,我們在享受智能媒體帶來的所有紅利的時(shí)候也必須學(xué)會(huì)質(zhì)疑,對它有可能給整個(gè)行業(yè)乃至整體用戶帶來的困擾、威脅乃至傷害進(jìn)行全面的思考和妥善的處理。今天,“在一個(gè)媒體和代碼無處不在的社會(huì),權(quán)力越來越存在于算法之中”(Scott,2007)。怎么樣對待這些算法以及算法權(quán)力,將直接決定著我們對于當(dāng)前媒體領(lǐng)域所出現(xiàn)的各類問題的價(jià)值取向和處理方式?!叭绻麤]有算法,我們的生活將會(huì)大不一樣,很有可能遠(yuǎn)不如現(xiàn)在,但這并不意味著我們無需考慮這些問題。在某些答案似乎唾手可得時(shí),我們更應(yīng)該小心謹(jǐn)慎”(吳軍,2016)。因此,除了對技術(shù)理性懷有必要的敬畏之心之外,更重要的一點(diǎn)就是在運(yùn)用這些權(quán)力的時(shí)候要保持強(qiáng)烈的人文關(guān)懷——技術(shù)理性是可以不存在價(jià)值判斷的,但是人文關(guān)懷必須要在處理技術(shù)帶來的社會(huì)問題之時(shí)有著明確的價(jià)值取向,那就是——科技向善,算法向善,權(quán)力向善。

注釋:

①2019年2月,網(wǎng)絡(luò)上流傳著有位B站UP主“換臉哥”,用AI算法技術(shù)將1994版《射雕英雄傳》主演朱茵的面貌替換成了演員楊冪的面貌,無論是風(fēng)格還是表情都沒有違和感。https://tech.sina.com.cn/csj/2019-02-26/doc-ihrfqzka9312468.shtml.

②在2018年舉辦的烏鎮(zhèn)第五屆世界互聯(lián)網(wǎng)大會(huì)上,新華社發(fā)布了國內(nèi)首位“人工智能機(jī)器人”,能夠利用英語和漢語進(jìn)行流利的語音播報(bào)。http://www.sohu.com/a/274442194_578982.

③John Maynard Keynes(1930). Economic Possibilities for our Grandchildren. Scanned from John MaynardKeynes, Essays in Persuasion, New York: W. W. Norton &Co., 1963, pp.358-373.

④⑨〔美〕盧克·多梅爾:《算法時(shí)代:新經(jīng)濟(jì)的新引擎》,胡小銳、鐘毅譯,中信出版社2016年版,第202頁、第138頁。

⑤Oscar Wilde(1891). The Soul of Man under Socialism. libcom. September 8, 2005. http://libcom.org/library/soul-of-man-under-socialism-oscar-wilde.

⑥Theodore Levitt(1960). Marketing Myopia, Harvard Business Review.

⑦Viktor Mayer-Sch?nberger, Kenneth Cukier. Big Data:A Revolution That Will Transform How We Live,Work and Think. New York: Mifflin Harcourt, 2013,pp.34-70.

⑧丁曉東:《算法與歧視:從美國教育平權(quán)案看算法倫理與法律解釋》,《中外法學(xué)》2017年第6期。

⑩Alex P. Miller(2018). Want Less-Biased Decisions? Use Algorithms. Harvard Business Review.July 26, 2018. https://hbr.org/2018/07/want-less-biased-decisions-use-algorithms.

Rachel Thomas.What HBR Gets Wrong About Algorithms and Bias. Aug07, 2018. https://www.fast.ai/2018/08/07/hbr-bias-algorithms/.

《算法做出的決策能避免偏見嗎? 》,《數(shù)據(jù)分析與知識(shí)發(fā)現(xiàn)》2018年第9期。

〔美〕約翰·馬爾科夫:《與機(jī)器人共舞:人工智能時(shí)代的大未來》,郭雪譯,浙江人民出版社2015年版,第179頁。

郭林生:《論算法倫理》,《華中科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2018年第2期。

〔美〕馬克·波斯特:《信息方式》,范靜嘩譯,商務(wù)印書館2000年版,第127 頁。

彭蘭:《假象、算法囚徒與權(quán)利讓渡:數(shù)據(jù)與算法時(shí)代的新風(fēng)險(xiǎn)》,《西北師大學(xué)報(bào)(社會(huì)科學(xué)版)》2018年第9期。

〔美〕安德魯·愛德華:《數(shù)字法則:機(jī)器人、大數(shù)據(jù)和算法如何重塑未來》,鮮于靜、宋長來譯,機(jī)械工業(yè)出版社2016年版,第179頁。

Brüseke, L. (2016). The influence of privacy perceptions on online shopping behavior : a comparison between millennials and baby boomers. https://essay.utwente.nl/70179/.

S-O"Brien, L. , Read, P. , Woolcott, J. , & Shah, C. . (2011). Understanding privacy behaviors of millennials within social networking sites. Proceedings of the American Society for Information Science and Technology, 48(1), 1-10.

喻國明:《信息繭房禁錮了我們的雙眼》,《領(lǐng)導(dǎo)科學(xué)》2016年第12期(下)。

王秋旭:《信息繭房效應(yīng)下微博群體極化現(xiàn)象分析》,《新聞研究導(dǎo)刊》2015年第7期。

陳昌鳳、張心蔚:《信息個(gè)人化、信息偏向與技術(shù)性糾偏——新技術(shù)時(shí)代我們?nèi)绾潍@取信息》,《新聞與寫作》2017年第8期。

劉海明:《媒體算法的價(jià)值糾纏與倫理誤區(qū)》,《湖南師范大學(xué)社會(huì)科學(xué)學(xué)報(bào)》2019年第1期。

Scott Lash(2007). Power after Hegemony:Cultural Studies in Mutation? Theory, Culture & Society, 24(3): pp.55-78.

吳軍:《算法時(shí)代:新經(jīng)濟(jì)的新引擎》,中信出版社2016年版,第225頁。

猜你喜歡
隱私算法大數(shù)據(jù)
Travellng thg World Full—time for Rree
學(xué)習(xí)算法的“三種境界”
算法框圖的補(bǔ)全
算法初步知識(shí)盤點(diǎn)
數(shù)據(jù)安全事件頻發(fā) “隱私”何處安放?
新形勢下個(gè)人信息隱私保護(hù)研究
室內(nèi)窗簾裝飾性探析
淺議隱私權(quán)的邊界
基于大數(shù)據(jù)背景下的智慧城市建設(shè)研究
焉耆| 密山市| 汝阳县| 黄梅县| 咸丰县| 鄢陵县| 宜阳县| 鹰潭市| 长阳| 临猗县| 苍山县| 勐海县| 游戏| 方正县| 柳州市| 黑水县| 措勤县| 米泉市| 英吉沙县| 元江| 泊头市| 榆社县| 柯坪县| 兴义市| 西畴县| 漳浦县| 云林县| 广汉市| 建湖县| 景泰县| 潮州市| 扎鲁特旗| 改则县| 合肥市| 响水县| 万盛区| 新巴尔虎右旗| 旬邑县| 乌审旗| 台前县| 邵武市|