国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

大數(shù)據(jù)與人工智能的倫理挑戰(zhàn)(上)

2018-04-11 11:23:35□周
電子科技大學學報(社科版) 2018年5期
關(guān)鍵詞:倫理人工智能算法

□周 濤

[1.電子科技大學 成都 611731;2.成都新經(jīng)濟發(fā)展研究院 成都 610094]

引言

隨著互聯(lián)網(wǎng)、移動互聯(lián)網(wǎng)、物聯(lián)網(wǎng)和各種遙感探測技術(shù)的發(fā)展,一個“一切都被記錄,一切都被分析”的數(shù)據(jù)化時代已經(jīng)到來—現(xiàn)在全球數(shù)據(jù)存儲量已經(jīng)達到了20ZB左右,也就是2000萬PB。得益于可用于算法訓練的海量數(shù)據(jù)的積累和以深度學習為代表的機器學習算法的發(fā)展[1]。近幾年來,人工智能在若干應(yīng)用場景達到甚至超過了人類專家的水平—大家記憶猶新的就是2016年AlphaGo以4∶1的比分戰(zhàn)勝圍棋世界冠軍李世石[2]。越來越多的證據(jù)顯示,一個以大數(shù)據(jù)為原材料,以人工智能為引擎的新科技時代正在到來[3~4]。

大數(shù)據(jù)和人工智能的技術(shù)發(fā)展與應(yīng)用實踐,已經(jīng)為我們的生活帶來了顯著的貢獻[4~5]。在醫(yī)療領(lǐng)域,大數(shù)據(jù)和人工智能被用于精準識別醫(yī)療影像中早期的病灶,定位致病基因并開展相應(yīng)的靶向治療,實時監(jiān)測評估健康狀況、提前預警重大健康風險等[6];在交通領(lǐng)域,海量數(shù)據(jù)和預測算法的結(jié)合能夠幫助我們進行更高效的交通導航,盡可能減少擁堵時間[7];在教育領(lǐng)域,學生發(fā)展過程中學習和生活數(shù)據(jù)的分析,可以幫助了解學生行為和學業(yè)表現(xiàn)之間的關(guān)系,設(shè)計更高效的個性化教育方案,提前對不利于學業(yè)發(fā)展的異常行為進行干預[8]等。

在帶給我們可感知的貢獻的同時,大數(shù)據(jù)與人工智能也帶來了一系列讓人憂慮的問題,譬如個人關(guān)鍵隱私信息的大面積泄漏問題,又如人工智能對若干勞動崗位的沖擊,再如大數(shù)據(jù)和人工智能深度結(jié)合形成的新型數(shù)據(jù)獨裁問題,等。這些問題要求我們在倫理意義上仔細審視大數(shù)據(jù)和人工智能的發(fā)展。簡而言之,倫理問題就是判斷好與壞、對與錯的問題,大數(shù)據(jù)與人工智能的倫理研究是站在人類整體利益的角度去審視判斷大數(shù)據(jù)與人工智能哪些技術(shù)、何種應(yīng)用對人類是有利的,哪些是危險的,哪些是不應(yīng)觸碰的,其最終的目的是要找到路徑、梳理規(guī)范,以保證大數(shù)據(jù)和人工智能的發(fā)展給人類帶來的利益遠大于傷害。

大數(shù)據(jù)與人工智能的倫理問題引起了全球?qū)W界、業(yè)界和政府廣泛的關(guān)注。2016年,奧巴馬政府發(fā)表了題為《為人工智能的未來做好準備》的報告[9],強烈建議要評估人工智能技術(shù)和產(chǎn)品帶來的風險;2017年,歐洲經(jīng)濟和社會委員發(fā)表了題為《大數(shù)據(jù)倫理—在歐盟政策背景下,實現(xiàn)大數(shù)據(jù)的經(jīng)濟利益與道德倫理之間的綜合平衡》的報告,對大數(shù)據(jù)的倫理問題進行了概括,特別強調(diào)了數(shù)據(jù)采集和使用帶來的安全和隱私問題[10];2018年,英國議會發(fā)表了《英國人工智能的準備、計劃和能力》的報告,呼吁政府為人工智能研發(fā)和應(yīng)用設(shè)定倫理原則[11];美國電氣與工程師協(xié)會、美國未來生命研究所等研究組織和微軟、谷歌等科技公司也陸續(xù)發(fā)布了相關(guān)的研究報告。其他國際上相關(guān)的報告例子還很多,不一一舉出。

中國也開始意識到這些倫理問題的重要性,例如我國2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中指出制定人工智能發(fā)展的倫理規(guī)范是促進人工智能發(fā)展的重要保證措施。2017年12月8日,中共中央政治局就實施國家大數(shù)據(jù)戰(zhàn)略進行第二次集體學習,習近平主席主持學習并發(fā)表了講話,在提出實施國家大數(shù)據(jù)戰(zhàn)略加快建設(shè)數(shù)字中國要求的同時,特別強調(diào)了數(shù)據(jù)安全、數(shù)據(jù)隱私、數(shù)據(jù)確權(quán)、數(shù)據(jù)版權(quán)、數(shù)據(jù)治理政策儲備和治理規(guī)則等與數(shù)據(jù)倫理相關(guān)的問題。與歐美等國相比,我國學界、業(yè)界和政府在大數(shù)據(jù)與人工智能倫理問題上系統(tǒng)性的深入研究還較少,目前尚未形成具有國際影響力的倫理研究報告和政策實施方案,與習近平主席提出的“要加強國際數(shù)據(jù)治理政策儲備和治理規(guī)則研究,提出中國方案”這一要求尚有較大差距。

因為大數(shù)據(jù)和人工智能的發(fā)展是高度融合的,所以本文不擬特別區(qū)分大數(shù)據(jù)的倫理問題和人工智能的倫理問題,而是結(jié)合討論從數(shù)據(jù)采集、存儲和應(yīng)用,一直到數(shù)據(jù)挖掘、機器學習等典型人工智能技術(shù)發(fā)展所帶來的一系列倫理問題。限于篇幅,本文及后續(xù)文章將集中討論中立性、時效性、導向性、邊界問題、隱私問題和責權(quán)問題六個方面。本文盡量采用通俗的語言和生動的例子來說明這些問題,既可以作為政府相關(guān)管理人員以及學者和從業(yè)人員了解大數(shù)據(jù)與人工智能倫理問題的入門材料,也可以作為一般讀者的科普讀物。

一、中立性

表面上客觀的數(shù)據(jù)和理性的算法,也可以產(chǎn)生非中立性的結(jié)果。事實上,數(shù)據(jù)和算法導致的歧視往往更難發(fā)現(xiàn)也更難消除。數(shù)據(jù)和算法對中立性的破壞,可能來自三方面的原因:一是采集數(shù)據(jù)或設(shè)計算法的相關(guān)人員蓄意為之;二是原始數(shù)據(jù)本身就存在偏見,因此相應(yīng)的數(shù)據(jù)驅(qū)動算法的結(jié)果也會有偏見;三是所設(shè)計的算法會導致有偏見的結(jié)果。第一種原因歸根到底是人的問題,在任何時代和任何環(huán)境中都可能存在,數(shù)據(jù)和算法不過是他們利用的工具罷了。因此本文著重分析后面兩種情況。

即便數(shù)據(jù)是人類社會客觀中立的記錄,如果人類社會本身就存在偏見、歧視和不公平,那么相關(guān)數(shù)據(jù)自然也會帶入我們社會的不公。例如,互聯(lián)網(wǎng)求職的簡歷數(shù)據(jù)顯示,在職場中身高和性別的歧視都非常嚴重:平均身高越高,平均收入越高;在同等學歷條件和行業(yè)背景下,女性要多工作5~10年才能獲得和男性相當?shù)男剿甗12]。顯然,使用這類簡歷數(shù)據(jù)進行職位的推薦時,其結(jié)果必然自帶歧視??▋?nèi)基梅隆大學的Datta等人最近的研究就顯示,Google廣告系統(tǒng)的人工智能算法在推送職位招聘信息的時候,同等教育背景和工作經(jīng)歷下的男性要比女性以高得多的頻率收到高收入職位招聘信息[13]。普林斯頓大學Caliskan等人使用常見的純統(tǒng)計機器學習模型,在萬維網(wǎng)的標準文本語料庫上進行訓練,發(fā)現(xiàn)計算機可以“學會”沉淀在人類語言記錄中隱含的偏見—既包括一些無關(guān)道德也無傷大雅的偏見,例如昆蟲讓我們聯(lián)想到不愉快而花朵則常與欣愉的事情相伴,還包括一些嚴重的偏見,包括來自性別和種族的歧視[14]。實際上,有些我們?nèi)祟愖约憾紱]有注意到的潛在的歧視,計算機也能通過機器學習捕捉到。這些數(shù)據(jù)上存在的偏見,會通過算法表現(xiàn)為帶歧視的結(jié)果,這些結(jié)果可能進一步加大歧視,從而新的數(shù)據(jù)包含的偏見有可能被加劇,造成惡性循環(huán)。比如說數(shù)據(jù)中顯示每十個前1%高年薪的高端職位只有一位女性,于是“性別為女性”這個特征值在獲得高端職位推薦中將是一個負面的因素,算法也將避免給女性推薦高端職位信息。在沒有基于大數(shù)據(jù)和人工智能的招聘信息服務(wù)的情況下,男性和女性獲取高端職位信息的數(shù)量可能相差不大,這種情況下女性真正獲聘高端職位的可能性也遠低于男性。如今,計算機的自動服務(wù)在源頭上就讓女性更少知道信息,所以可以預期女性獲得高端職位的比例將進一步降低,而這又再次加強了數(shù)據(jù)的偏差,從而讓算法更少向女性推薦高端職位。這種惡性循環(huán),會進一步放大原本就有的不公。

算法的設(shè)計和學習過程,也可能帶來偏見甚至歧視。個性化推薦算法是目前在大數(shù)據(jù)和人工智能領(lǐng)域應(yīng)用最為廣泛的算法之一[15],其目的是根據(jù)用戶過往的瀏覽、點擊、收藏、購買等記錄,向用戶推薦他需要或者喜歡的資訊、商品等。淘寶的猜你喜歡和今日頭條的個性化新聞推薦就是推薦算法非常典型的應(yīng)用。在電商網(wǎng)站上,同一個品類下商品的價格差別巨大,如果某目標用戶以前在電商網(wǎng)站收藏和購買的商品,在相關(guān)品類中價格排名都特別靠后,那么算法可能會在一個名為“價格敏感度”的特征維度上給該用戶標上高分。于是,當該用戶搜索一個關(guān)鍵詞后,如果自己不做調(diào)整,可能從前到后翻十頁,他看到的都是便宜貨。盡管算法的初衷是提高該用戶的點擊率—這被認為對用戶和商家都好—但是這事實上形成了同類商品展示對低收入消費者的歧視。試想如果在一個購物商場中部分人被告知因為收入過低不允許進入LV的店面,或者因為收入過低而要排隊數(shù)小時才能入店,而高收入者有專享通道。這種歧視肯定是我們不能容忍的,而在互聯(lián)網(wǎng)上,數(shù)據(jù)和算法帶來的偏見與之類似但更為隱蔽。

隨著數(shù)據(jù)化浪潮的進一步發(fā)展,個人獲取和處理信息的難度會進一步加大,我們會更加依賴各種各樣的信息中介。例如我們到一個陌生的城市,如何規(guī)劃一條一日游的路線?又比如我們?nèi)绾瓮ㄟ^在線教育,選擇若干課程,進入一個新的領(lǐng)域?再比如我們怎么在讀書的時候就規(guī)劃和選擇自己的職業(yè)道路?高度發(fā)達的人工智能會充分考慮包括家庭、性別、民族、消費水平等關(guān)于你的各種數(shù)據(jù),給出“最適合你的選擇”。于是,不同收入和不同家庭背景的人會抵達城市中不同的角落、下載不同的課程、規(guī)劃不同的人生。在大數(shù)據(jù)的時代,不同出身的人所獲取到的信息差異,可能比現(xiàn)實世界的差異還大,因此很可能更早就形成截然不同的視野、格局和能力,從而加劇而不是減少階級的固化。

二、時效性

與人類相比,計算機有一種特別突出的能力,就是能夠保真存儲和分析很多年以前的數(shù)據(jù),并通過算法對未來某些事件給出遠遠比人精確的預測。

Mayer-Sch?nberger曾討論過一個未來的可能情形,就是當智能機器預測到你將在某時某地犯罪,就可以在你還沒有實施犯罪的時候逮捕你[3]。幸運的是,這個比Orwell筆下的世界[16]還可怕的情景,只是Mayer-Sch?nberger設(shè)想的一種極端情況,實際上并沒有發(fā)生過。Dormehl講了一個溫和得多但已經(jīng)現(xiàn)實發(fā)生的版本[17],就是美國政府根據(jù)姓名、出生地、宗教信仰、歷史行為數(shù)據(jù)—例如所有旅行數(shù)據(jù)、人臉圖片數(shù)據(jù)等,利用機器學習算法,對每一位航空旅客是恐怖分子的嫌疑度進行打分。一些無辜的人因為疑似恐怖分子或者近期有較高從事恐怖活動的可能性,而經(jīng)常在機場被羈留檢查,甚至多次錯過飛機。通過數(shù)據(jù)和算法,機器可以預測一個人犯罪的概率,如果這個概率足夠大,那么在他還沒有實施犯罪行為時,就已經(jīng)實質(zhì)上受到了懲罰,盡管他可能是完全無辜的。從功利主義的角度講,這些智能化的方法能夠降低犯罪率,但是這里面一個核心的倫理問題就是“我們是否應(yīng)該為尚未發(fā)生的一種可能性付出代價”。

反恐的例子距離普通人的生活較遠,下面我們來看一個現(xiàn)實生活中的例子—酒駕。對于機動車駕駛員來說,飲酒駕車是違法,醉酒駕駛可入刑。這條法律受到了數(shù)據(jù)有力的支撐:“當駕駛者血液中酒精含量達80 mg/100 mL時,發(fā)生交通事故的幾率是血液中不含酒精時的2.5倍;達到100 mg/100 mL時,發(fā)生交通事故的幾率是血液中不含酒精時的4.7倍;即使在少量飲酒的狀態(tài)下,交通事故的危險度也可達到未飲酒狀態(tài)的2倍左右?!笔聦嵣?,這條法規(guī)的出臺,有效降低了嚴重交通事故的發(fā)生率。這條法律的基本精神是懲處可能的尚未發(fā)生的更嚴重的犯罪。這當然無可厚非,例如危害公共安全罪背后的法理出發(fā)點也是類似的。當數(shù)據(jù)的采集能力和算法的分析能力進一步增強之后,我們肯定能夠發(fā)現(xiàn)更多可能危害公共安全的因素,并把它們寫進法律中。幾十年后,如果自動駕駛的車輛占有相當?shù)谋壤?,很可能主要的交通事故都是由人類操縱駕駛車輛引起的。那個時候的法律,可能就不是針對飲酒和吸毒后駕車了,但凡活人開車,都得抓了。因為人駕駛車輛本身,就是一種對公共安全的危害。那么,今天能接受酒駕入刑的人,明天能夠接受手駕入刑嗎?在使用數(shù)據(jù)和算法預測能力的時候,是否也需要有一個限度?

計算機讓人類更加望塵莫及的,是記錄和回顧歷史的能力。因為大量過往數(shù)據(jù)被記錄下來,所以我們今天的錯誤可能會帶來很長時間難以消除的影響。中學期間一次沖動的打架斗毆,大學期間因為攀比借了款又沒有及時還款……這些記錄可能會在十年后呈現(xiàn)給潛在的雇主和金融機構(gòu),影響一個人職場的發(fā)展,降低他申請車貸房貸的成功率,甚至讓他的創(chuàng)業(yè)融資遭遇陰影。我們年少輕狂時在自己博客、微博、微信或者其他論壇、貼吧上留下的沖動言論,又或者我們腦殘時光上傳的裸露、暴力或者炫富的照片,都可能在未來成為我們感情和事業(yè)再上一個臺階時的定時炸彈。

中國有句古話,叫做“浪子回頭金不換”。父母親友也許會選擇原諒甚至忘記,但大數(shù)據(jù)和人工智能不會遺忘。Mayer-Sch?nberger就曾經(jīng)強烈呼吁應(yīng)該給我們的數(shù)據(jù)一個“被遺忘的權(quán)利”—除了出于科學研究、檔案管理、公共安全或其他特殊的既非盈利也不面向一般公眾的目的,個人和企業(yè)不應(yīng)該存儲、分析、使用和傳播超出一定年限的數(shù)據(jù)[18]。一些科技企業(yè)已經(jīng)開始了類似的嘗試,例如著名的社交網(wǎng)站Snapchat起家的時候就是推出了“閱后即焚”的功能—你發(fā)給朋友的信息和圖片,對方閱讀后一段時間內(nèi)自動消失。2017年,騰迅投資了Snapchat,實際上騰迅在微信的私信助手中也有“閱后即焚”的功能,還可以設(shè)定多長時間后刪除消息。但是,你和你的好友雖然看不到了,Snapchat和騰迅原則上可以保存和利用這些信息。另外,社交媒體產(chǎn)生的數(shù)據(jù),相比于一個人所有被記錄下來的行為數(shù)據(jù),畢竟只是很小的一部分,而絕大部分與我們緊密相關(guān)的數(shù)據(jù)都不是我們主動上傳或發(fā)送的。越來越多的企業(yè)認識到了數(shù)據(jù)的價值,因此主動刪除或者放棄某些數(shù)據(jù)的使用權(quán),似乎并不是一家盈利性企業(yè)優(yōu)先考慮的問題。

三百年前,瑞典哲學家、神學家Swedenborg曾感慨:“上帝賦予我們大腦以便讓我們具備遺忘的能力”。如今,面對電腦,上帝也無法讓它們遺忘。盡管Mayer-Sch?nberger要求被遺忘權(quán)利的呼吁已經(jīng)過去了五年多,我們還沒有看到在這個方面任何實質(zhì)性的進展。

我們每個人都應(yīng)該尊重歷史,都應(yīng)該懷揣夢想,但更多的時候我們生活在當下。當一個人每做一件事情,都可能承受因過往歷史的影響,都必須考慮對未來發(fā)展的影響,那這樣的人生是不堪重負的。如果數(shù)據(jù)的使用時限不受控制,這種機制下最安全的選擇只能是沿著數(shù)據(jù)和算法所青睞的某種智能時代的主流道路前進。人類與生俱有的自由狷狂和特立獨行恐怕最終都不得不服從機器制定的優(yōu)化后的規(guī)則。

三、導向性

算法根據(jù)其目標函數(shù)所產(chǎn)生的“優(yōu)化的結(jié)果”對受眾,尤其是一般客戶端用戶產(chǎn)生的引導效果,可能與用戶真實的需求大相徑庭,也可能雖然能夠滿足用戶短期的需求,但是帶來中長期的負面效果。我們把這類問題歸納為導向性問題,其短期、中期和長期的具體表現(xiàn)有所不同。

短期表現(xiàn)為算法給出的結(jié)果與用戶真實需求不符合,用戶立刻就有負面的感知??梢哉f,算法誘騙用戶在其需求沒有獲得有效或充分滿足的情況下,幫助算法完成了它擬實現(xiàn)的優(yōu)化目標。舉個例子,在給用戶進行個性化新聞推薦或者自動生成新聞的時候[19],如果算法的目標是最大化推薦新聞或者自動生成新聞的點擊次數(shù),那么計算機自己就會變成一個“標題黨”,選擇甚至自己生成一些聳人聽聞的標題,又或者與當前新聞熱點緊密聯(lián)系的標題,但新聞的實際內(nèi)容卻和標題毫無關(guān)系或只有極其淺薄的聯(lián)系。用戶點擊進入新聞頁面,發(fā)現(xiàn)與其需求和期望嚴重不符合,立刻就會有上當?shù)母杏X。但是用戶的點擊行為實際上幫助完成了算法的既定目標,而且還讓計算機認為“推薦這類新聞或者生成這些標題是正確的”,因此算法可能會變本加厲,越來越標題黨。對于這類問題,如果算法的設(shè)計和使用人員本身不存惡意,其實是較好解決的。因為我們可以通過設(shè)計更好的目標函數(shù)來提升用戶體驗—畢竟任何一個目標函數(shù)都不可能完全覆蓋用戶的意圖,所以優(yōu)化目標函數(shù)以提升用戶體驗是一個長期的過程。舉個例子,一篇新聞打開后用戶停留閱讀的時間,或者一個微信打開后被轉(zhuǎn)發(fā)和點贊的比率,都可以納入到目標函數(shù)中來。但如果算法的設(shè)計和使用人員本身存有惡意,或者完全被短期商業(yè)利益綁架,這就可能變成一個難以舒緩的矛盾。譬如百度的魏則西們,搜索病情相關(guān)知識的時候,被漫天遍野真假難辨的廣告誘騙采用一些不適病情的治療方案,最終人財兩空;又或者如作家木木吐槽在百度搜索上海美國領(lǐng)事館官網(wǎng)的地址,出來一堆廣告卻幾頁翻不出真身。如何有效打擊這類“惡人利用算法作惡”的問題,就不是簡單調(diào)整目標函數(shù)可以完成的任務(wù)了。

中期表現(xiàn)為算法能夠滿足用戶即時需求,但其累積效果與用戶的發(fā)展利益不一致。簡而言之,就是短期雖然滿足了用戶,但這種“滿足”對用戶而言或許并非好事。一些大型的游戲開發(fā)公司,可以對海量用戶的行為數(shù)據(jù)進行深入挖掘分析,了解用戶容易退出游戲的時間點和前兆行為,分析哪些場景、關(guān)卡和境遇最易讓用戶退出游戲,從而通過贈予裝備,下發(fā)新任務(wù)等方式盡最大可能讓用戶獲得更好的游戲體驗,延長游戲時間。一些視頻網(wǎng)站,尤其是短視頻的網(wǎng)站,正在嘗試通過個性化推薦,為用戶創(chuàng)造一種沉浸式的美好體驗,讓用戶連續(xù)不斷地點開視頻,停不下來。這些算法很好地滿足了用戶的需求,用戶也不會有負面體驗,但是時間長了,對于用戶自身的健康成長和學業(yè)工作或許會起到負面的作用[20]。某些企業(yè)創(chuàng)造經(jīng)濟價值的同時也帶來環(huán)境的破壞,后者被稱為外部成本。類似地,這些累積產(chǎn)生的負面效果也可以看作是“算法的外部性”。由于用戶和商家都在這類算法中直接獲益,所以這種外部性問題的解決,還需要外部的力量來干預。舉例而言,2018年8月30日,教育部官網(wǎng)發(fā)布八部門關(guān)于印發(fā)《綜合防控兒童青少年近視實施方案》的通知,其中國家新聞出版署明確將對網(wǎng)絡(luò)游戲?qū)嵤┛偭空{(diào)控,采取措施限制未成年人使用時間。之后騰迅立刻提出將推進最嚴格的實名游戲制度,避免未成年人過度沉迷于王者榮耀等游戲。需要特別強調(diào)的是,對用戶行為數(shù)據(jù)的分析挖掘這一技術(shù)本身是沒有善惡的,類似的技術(shù)可用于判斷在線課程中哪些地方是學習者普遍認為的難點,從而幫助他們更高質(zhì)量完成課程學習[21]。

長期表現(xiàn)為算法累積的效果與人類社會整體發(fā)展的目標和價值不一致。譬如我們很早就知道,一個人的家庭出身和這個人未來學業(yè)和事業(yè)所能取得的成績在統(tǒng)計上是高度相關(guān)的[22~23],因此如果我們能夠掌握充分的數(shù)據(jù),聰明的算法會在成長的早期和學業(yè)工作關(guān)鍵抉擇點上傾向于把最優(yōu)質(zhì)的資源推薦給家庭背景比較好的人。就一些可以客觀量化的指標,如經(jīng)濟發(fā)展指標而言,這個算法也許表現(xiàn)優(yōu)異,但它可能會大幅度加劇階級的固化,使得原本貧窮、缺少教育或因種族膚色等原因受到歧視的家庭,改變命運的機會變得更加渺茫。如果我們只看數(shù)字利益,階級的流動并不一定帶來比階級的固化更好的經(jīng)濟表現(xiàn)。但是人類整體發(fā)展的目標和價值,不是一群人奴役壓迫另一群人而獲得更高的效率,所以經(jīng)濟上的成功,數(shù)目字上的成功,并不一定代表整個人類社會的成功。又比如大規(guī)模電子商務(wù)網(wǎng)站(如阿里巴巴、京東等)和大規(guī)模內(nèi)容網(wǎng)站(如騰迅視頻、愛奇異等)的出現(xiàn),使得所有流量和關(guān)注向少數(shù)幾個平臺匯聚。平臺在運營流量的時候,會采用以個性化推薦[15,24]為代表的一系列算法來吸引用戶更多點擊、瀏覽、收藏和購買。盡管這些算法都考慮了用戶個性化的特征,所給出的推薦結(jié)果也不盡相同,但事實上受算法驅(qū)動的用戶整體的行為所表現(xiàn)出來的多樣性會降低,因為推薦小眾對象的風險畢竟要大得多[25]。長久而言,小眾的喜好和小眾的商品都會失去萎縮,人類社會的多樣性以及非主流的個性和創(chuàng)造力,都有可能在信息高度豐富的時代反而降低,這對人類社會長遠的發(fā)展也可能是不利的。

四、小結(jié)

本文介紹了大數(shù)據(jù)和人工智能所面臨的倫理挑戰(zhàn),以及全球范圍內(nèi)相關(guān)的進展情況。特別地,我們用生動的語言向讀者展示了大數(shù)據(jù)與人工智能在中立性、時效性和導向性方面可能帶來的負面的問題。這種負面的效應(yīng),既可能針對個人,也可能影響整個人類社會;既可能是即刻反饋的,也可能是長期積累導致的。通過本文的介紹,希望讀者對于大數(shù)據(jù)和人工智能的倫理問題有直觀的認識和具象的感知。

在本文的續(xù)篇中,我們將繼續(xù)深入討論三個問題:算法的邊界問題、數(shù)據(jù)的隱私問題和人工智能的責權(quán)問題。這些都是當前學界充滿爭議的問題。續(xù)篇的最后將簡要介紹當前有效的應(yīng)對策略并討論未來開放性的政策和技術(shù)問題。

猜你喜歡
倫理人工智能算法
《心之死》的趣味與倫理焦慮
護生眼中的倫理修養(yǎng)
活力(2019年19期)2020-01-06 07:37:00
基于MapReduce的改進Eclat算法
Travellng thg World Full—time for Rree
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
進位加法的兩種算法
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
一種改進的整周模糊度去相關(guān)算法
清水河县| 布尔津县| 潜山县| 江城| 洛扎县| 化州市| 寿阳县| 古浪县| 乐清市| 龙川县| 漾濞| 萍乡市| 维西| 新绛县| 通州市| 孟津县| 临颍县| 双桥区| 昌都县| 富宁县| 广州市| 西林县| 即墨市| 鄂尔多斯市| 尉氏县| 文化| 桑植县| 武川县| 株洲县| 台东县| 宣恩县| 泽州县| 石渠县| 台安县| 义马市| 巧家县| 沁水县| 左权县| 靖州| 民和| 聂荣县|