国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

算法倫理研究:視角、框架和原則

2022-05-12 12:56:38陳昌鳳呂宇翔
關(guān)鍵詞:倫理人類算法

陳昌鳳, 呂宇翔

(清華大學(xué) 新聞與傳播學(xué)院, 北京 100084)

智能算法正在重新界定我們的生活理念,改變我們的決策方式。正在興起的計(jì)算主義、數(shù)據(jù)主義技術(shù)思潮更是把算法當(dāng)作支配世界的核心,將算法看成是這個(gè)世界最重要的概念,堅(jiān)信21世紀(jì)是由算法主導(dǎo)的世紀(jì)。[1]隨著算法的遍在化運(yùn)用,算法中的倫理問題開始凸顯。從根本上說,算法化、數(shù)據(jù)化成為一種普遍的認(rèn)知范式,它們?cè)谥貥?gòu)和規(guī)訓(xùn)整個(gè)社會(huì)之時(shí),還帶來了人類以及個(gè)體主體性的根本喪失,人類有成為算法奴隸之虞。[2](PP.11~12)那么,算法倫理帶來了怎樣的框架性學(xué)術(shù)思考?算法運(yùn)用中有哪些倫理問題,其核心又是什么?算法倫理如何匯入傳播活動(dòng),從而挑戰(zhàn)算法時(shí)代的媒介倫理呢?

一、算法的多元視角

通常意義上的“算法”(algorithm),指的是進(jìn)行計(jì)算、解決問題、做出決定的一套有條理的步驟,是計(jì)算時(shí)采用的方法。[3](P.75)可見,“算法”較計(jì)算有著更廣泛的含義,它是在解決計(jì)算或者其他問題時(shí)(尤其是借助計(jì)算機(jī))所遵循的步驟或規(guī)則。[4](PP.149~150)當(dāng)下使用的“算法”一詞來自計(jì)算機(jī)科學(xué),指解決問題的一套邏輯,即可以對(duì)特定的輸入進(jìn)行處理,獲得符合預(yù)期的輸出,是自動(dòng)化執(zhí)行人類意志的計(jì)算工具。[5]

算法出現(xiàn)以后,人類的決策模式便開始發(fā)生變革,過去由人類主導(dǎo)的決策,如今常常交由算法來完成。算法的運(yùn)用情境包括個(gè)人、組織以及社會(huì)等不同層面。在個(gè)人層面,算法的影響至少包括個(gè)體對(duì)自身及所處環(huán)境的看法、理解與互動(dòng);在組織層面,算法影響著各個(gè)環(huán)節(jié),如果是商業(yè)組織,它的影響則滲透到從商業(yè)決策到生產(chǎn)、制作、銷售等各個(gè)環(huán)節(jié);在社會(huì)層面,算法已經(jīng)深層影響了社會(huì)治理的各個(gè)領(lǐng)域。赫拉利等人認(rèn)為,世界包括人的生命都是算法運(yùn)算的結(jié)果,不僅自然界是用算法語言寫就的,宇宙也是一個(gè)巨大的計(jì)算系統(tǒng),而且數(shù)據(jù)化成為一種普遍認(rèn)知范式。生物也是算法,我們的感覺和情感各是一套算法。最終人類將賦予算法以權(quán)力,做出人生中最重要的決定。從物理世界、生命過程直到人類心智都是算法可計(jì)算的, 甚至整個(gè)宇宙也是完全由算法支配的。[6]但“算法”又是一個(gè)相當(dāng)復(fù)雜的概念,對(duì)其理解常常迥然不同,因此帶來了算法研究的多元視角。通過分析近年國內(nèi)外學(xué)界有關(guān)算法研究的文獻(xiàn)發(fā)現(xiàn),傳播領(lǐng)域?qū)λ惴ǖ慕庾x至少形成了六類不同的視角和界定。[4](PP.149~150)

對(duì)于算法的不同界定源于不同的理念。其一,“算法是工具”,側(cè)重于關(guān)注算法的形式、性能和交互如何被精心設(shè)計(jì),使其更完美地執(zhí)行人類的預(yù)期目標(biāo)。在新聞傳播領(lǐng)域,體現(xiàn)為算法輔助新聞生產(chǎn)、對(duì)新聞傳播業(yè)的功能性滲透,即關(guān)注算法如何輔助人類進(jìn)行數(shù)據(jù)挖掘與分析、自動(dòng)化寫作、個(gè)性化推薦分發(fā)、自動(dòng)核查、智能化管理等。算法被人類視為自己掌控、操縱的自動(dòng)化工具,是一種“工具理性”的思維,即推進(jìn)傳播效益最大化的生產(chǎn)實(shí)踐。[7]其二,“算法是規(guī)則”,即參與塑造了算法實(shí)踐的內(nèi)在邏輯—智能催生的支配性新機(jī)制。在新聞傳播領(lǐng)域,無論是新聞的生產(chǎn)還是分發(fā),無論是反饋互動(dòng)還是組織管理,整個(gè)行業(yè)都需要遵從新規(guī)則,生產(chǎn)或分發(fā)都要為適應(yīng)算法規(guī)則作出調(diào)整,用戶、生產(chǎn)者和平臺(tái)都要回應(yīng)算法規(guī)則,從而獲得更大的效益。算法作為社會(huì)規(guī)則在技術(shù)領(lǐng)域的延伸,開始重塑信息規(guī)則甚至是社會(huì)規(guī)則,重塑用戶、媒介和社會(huì)的交互關(guān)系。其三,“算法是權(quán)力”,算法的介入推動(dòng)了權(quán)力的遷移,在重塑的新型關(guān)系中獲取權(quán)力。在新聞傳播領(lǐng)域,算法主導(dǎo)著信息傳播秩序,通過商品化的方式凸顯科技巨頭的影響力,帶來公共權(quán)力的讓渡、個(gè)體用戶的權(quán)力抗?fàn)?,認(rèn)知層面的“信息繭房”也受到關(guān)注。[8]算法權(quán)力成為新型標(biāo)尺,重塑個(gè)體、媒介、平臺(tái)、國家之間的力量格局。其四,“算法是主體”,人工智能與人類智慧相混糅,使得人與算法之間的復(fù)雜關(guān)系難解難分,算法作為動(dòng)態(tài)行動(dòng)者網(wǎng)絡(luò)中的非人類行動(dòng)者,可以成為改變事物狀態(tài)的非人要素。[9]在新聞傳播領(lǐng)域,算法正在消解建立在“人類中心主義”之上的傳統(tǒng)傳播觀,機(jī)器正在以傳播者的姿態(tài)進(jìn)入該領(lǐng)域,“人機(jī)傳播”理論得以誕生。這樣,人與技術(shù)之間的本體論鴻溝正在被逾越,人機(jī)之間產(chǎn)生的具有社會(huì)意義的關(guān)系成為算法被視為主體的重要依據(jù)。其五,“算法是想象”,人類重視算法是什么、算法應(yīng)該是什么以及算法如何運(yùn)行,“算法意識(shí)”與客觀事實(shí)形成了某種張力關(guān)系。在新聞傳播領(lǐng)域,專業(yè)性的客觀真實(shí)的內(nèi)涵和外延再次被算法拓展。算法實(shí)踐中以人為主的視角受到重視,普通人(不一定是技術(shù)精英)也會(huì)關(guān)注算法的社會(huì)意義,算法素養(yǎng)受到重視。其六,“算法是價(jià)值觀”,算法作為人類思維的表達(dá),本身即包含內(nèi)在的價(jià)值觀,包括來自歷史數(shù)據(jù)集的觀點(diǎn)匯總、工程師編程中的觀點(diǎn)嵌入、平臺(tái)設(shè)計(jì)中的邏輯彰顯、技術(shù)邏輯的無意識(shí)體現(xiàn)等。[10]在新聞傳播領(lǐng)域,它可能體現(xiàn)為價(jià)值的偏向[11]、算法邏輯的無意識(shí)偏差帶來專業(yè)性的失守和倫理的困境[12]。算法實(shí)踐的價(jià)值導(dǎo)向可能成為被爭奪、被利用的對(duì)象,其公正性、透明度、責(zé)任觀、可解釋性受到質(zhì)疑。[13]

算法界定視角的不同也會(huì)帶來算法倫理觀的差異。當(dāng)然,無論持怎樣的觀點(diǎn),對(duì)于算法,我們都需要有明確的哲學(xué)觀。

二、算法倫理的哲學(xué)思想

在算法倫理中,保持人的獨(dú)特性是首要問題,即堅(jiān)持以人為本的倫理觀。[14]由于因素復(fù)雜,要確定算法潛在和實(shí)際的倫理影響是很困難的,算法倫理的問題和潛在價(jià)值觀只有在具體案例中才會(huì)顯現(xiàn)出來。筆者將從其中一個(gè)視角,對(duì)算法倫理加以梳理和探討。

數(shù)字革命讓人類在宇宙中的角色發(fā)生了革命性的轉(zhuǎn)變,哲學(xué)面臨信息轉(zhuǎn)向(informational turn)。當(dāng)代信息哲學(xué)家、信息倫理學(xué)家弗洛里迪(Luciano Floridi)從語言理性主義的角度對(duì)當(dāng)今的數(shù)字技術(shù)進(jìn)行了多層次的描述。他將信息革命界定為對(duì)人類在宇宙中位置的根本性重估。過去,我們把自己置于信息圈(infosphere)的中心,以為沒有任何其他地球生物可匹敵[15],如今這種自以為是的獨(dú)特性已經(jīng)不再可信,人類只是被網(wǎng)絡(luò)化,成為一個(gè)信息環(huán)境(信息圈)的信息實(shí)體(信息體),人類的自然和人工代理彼此共享?;ヂ?lián)網(wǎng)技術(shù)促進(jìn)身體與信息的融合,并深度參與到人的心靈與自我的塑造中。因此,弗洛里迪將信息通信技術(shù)視作“自我創(chuàng)制技術(shù)”,認(rèn)為“它們會(huì)顯著地影響我們是誰,我們認(rèn)為我們是誰,以及我們可能成為誰”。[16](P.309)弗洛里迪對(duì)智能時(shí)代現(xiàn)實(shí)的理解從物質(zhì)轉(zhuǎn)向了信息。在當(dāng)今數(shù)字世界的信息體—信息圈中,人類的自我被賦予一種信息化的解釋。[17]不過,弗洛里迪將技術(shù)決定論作為信息圈中的信息體的理論基礎(chǔ),將信息體定義為與信息能量裝置相連的數(shù)據(jù)處理實(shí)體,反映了語言理性主義范式的心身二元論觀點(diǎn)。弗洛里迪在《信息倫理學(xué)》(EthicsofInformation)一書中提出了四條道德法則,其中第四條是應(yīng)該通過擴(kuò)大(信息量)、提高(信息質(zhì)量)、豐富(信息種類)信息圈的方式提升信息福祉,促進(jìn)信息實(shí)體以及整個(gè)信息領(lǐng)域的繁榮。

2019年11月18日,“智能時(shí)代的信息價(jià)值觀研究高層論壇”在清華大學(xué)舉行,當(dāng)代著名媒介倫理學(xué)家克里斯琴斯(Clifford G.Christians)教授發(fā)表了題為《哲學(xué)視野中的人工智能:語言的視角》的主旨演講,從哲學(xué)層面對(duì)人工智能進(jìn)行了高屋建瓴的思考??死锼骨偎拐J(rèn)為,算法遵循準(zhǔn)確的形式化語言,可用于執(zhí)行計(jì)算、數(shù)據(jù)處理等,但不能用于促進(jìn)人們對(duì)美好生活或生活目標(biāo)的感受。為了增強(qiáng)技術(shù)性,道德承諾和倫理目標(biāo)都被犧牲了?;谟?jì)算機(jī)的傳播本質(zhì),存在兩個(gè)截然對(duì)立的傳統(tǒng),即“語言理性主義”和“人文主義邏輯”的語言哲學(xué)。

從笛卡爾(Rene Descartes)到維納(Norbert Wiener)、弗洛里迪,再到基于計(jì)算機(jī)的智能,語言理性主義主導(dǎo)了數(shù)學(xué)模型,在認(rèn)知上存在著重大缺陷——認(rèn)為信息技術(shù)是中立的。這種傳統(tǒng)預(yù)設(shè)了事實(shí)與價(jià)值分離的二元對(duì)立論(fact-value dichotomy),將技術(shù)視作與價(jià)值相分離的無意識(shí)的工具,即技術(shù)決定論(technological determinism),假定了心身二元論(mind-body dualism)。其間,香農(nóng)(Claude Shannon)和韋弗(Warren Weaver)也認(rèn)為,通信所傳輸?shù)臄?shù)據(jù)是中性的想法不證自明。

克里斯琴斯教授提出應(yīng)以符號(hào)語言哲學(xué)作為更合理的傳統(tǒng),避免維納語言理性主義中的控制難題和事實(shí)價(jià)值二元論。他反對(duì)將人工語言和自然語言混為一談,認(rèn)為人文主義的語言哲學(xué)呼喚智能時(shí)代的傳播倫理??死锼骨偎雇瞥缈ㄎ鳡?Ernst Cassirer)的“人文主義的邏輯”(The Logic of the Humanities)[18],認(rèn)為語言系統(tǒng)并不僅僅是中性數(shù)據(jù)的組合,而是被規(guī)范所引領(lǐng)的,人類的語言概念反映了人類生活的價(jià)值觀,這些內(nèi)在價(jià)值才是人類的立身之本。將人類緊密聯(lián)系在一起的統(tǒng)一性是對(duì)認(rèn)同和尊重的共同追求。作為道德主體的人類是準(zhǔn)則性的,而不是基于笛卡爾傳統(tǒng)的理性選擇的個(gè)人主義。人文主義語言哲學(xué)視技術(shù)為一個(gè)文化過程,算法等互聯(lián)網(wǎng)時(shí)代的媒體技術(shù)應(yīng)被當(dāng)作具體制度、歷史和文化背景下的符號(hào)系統(tǒng)來進(jìn)行分析。因此,算法倫理研究應(yīng)從人類的生活世界和人的生活著手,而不是以機(jī)器為主并且用它的術(shù)語來定義人性。[14]

克里斯琴斯教授深入思考了智能算法時(shí)代媒介倫理的責(zé)任、權(quán)利、正當(dāng)性、事實(shí)與價(jià)值等重要議題,并提出了以下問題。(1)具有學(xué)習(xí)能力的機(jī)器并不具備與人類相同的道德行動(dòng)能力,但從某些合法性或正當(dāng)性來考慮,它們是否應(yīng)該承擔(dān)責(zé)任?(2)在道德關(guān)懷的情境中,機(jī)器在什么程度上能夠被視作另一個(gè)他者,并因此獲得應(yīng)該被尊重的正當(dāng)權(quán)利?(3)強(qiáng)人工智能(Artificial General Intelligence)對(duì)公平正義、共同利益和文化資本的重新定義是否正當(dāng)?(4)在將人類作為節(jié)點(diǎn)接入基于計(jì)算機(jī)的學(xué)習(xí)機(jī)器的神經(jīng)網(wǎng)絡(luò)連接中,我們傳輸?shù)闹皇菙?shù)據(jù)還是包括意識(shí)本身?這些問題需要我們?cè)诶碚摵蛯?shí)踐中認(rèn)真對(duì)待。在克里斯琴斯教授的論述中隱含著一個(gè)最重要的算法倫理思想,即算法人文主義。

算法人文主義從底線意義的“以人為本”出發(fā),主張將人的行動(dòng)限定在信仰、法律和道德倫理的價(jià)值體系之內(nèi),以保護(hù)人之為人的最為寶貴的尊嚴(yán)和自由。人與世界(包括與各種技術(shù)存在物的關(guān)系)并不是簡單的主客體關(guān)系、目的和手段的關(guān)系,而是物我兩忘、融為一體的共同存在。一方面,算法作為人的存在的重要維度,是對(duì)人之主體性的重要呈現(xiàn);另一方面,由于人的存在是豐富的、多樣的,算法應(yīng)該在與人的共存之中,維護(hù)人之為人的尊嚴(yán)和主體性。從最底線的“以人為本”出發(fā),算法人文主義提出了維護(hù)人的尊嚴(yán)、保護(hù)個(gè)體自由、維系社會(huì)公平正義、增進(jìn)人類整體福祉和促進(jìn)可持續(xù)發(fā)展等基本價(jià)值理念。在算法的研發(fā)設(shè)計(jì)與應(yīng)用過程中,要求要有人的視角和人的在場;算法的研發(fā)和應(yīng)用要?jiǎng)澏ā坝兴粸椤钡慕麉^(qū),并將更多的精力和資源投入到與保護(hù)人的消極自由而不是擴(kuò)展人的積極自由相關(guān)的領(lǐng)域;為了促進(jìn)社會(huì)公平正義、防止算法權(quán)力對(duì)個(gè)體消極自由和社會(huì)公平的侵犯,要對(duì)算法的有效性、必要性和正當(dāng)性進(jìn)行衡量和評(píng)估;為了實(shí)現(xiàn)算法人文主義的整體主義的技術(shù)觀和世界觀,我們還必須將人類視作一個(gè)整體,從促進(jìn)人類整體的自由和福祉出發(fā),規(guī)制算法的研發(fā)和應(yīng)用,不僅要防止算法淪為少數(shù)人統(tǒng)治多數(shù)人的暴政,更要防止因人工智能的研究和使用而導(dǎo)致的毀滅。[2](PP.63~83)

三、算法倫理的研究框架與核心原則

算法倫理是一個(gè)跨學(xué)科的概念,涉及哲學(xué)倫理學(xué)、信息科學(xué)等多個(gè)領(lǐng)域。下面結(jié)合世界范圍內(nèi)具有代表性的研究成果,從概念、框架及核心問題的角度加以闡釋。

(一)算法倫理的概念架構(gòu)

算法倫理的問題雜冗、學(xué)術(shù)話語廣泛而且分散,難以形成系統(tǒng)。2016年,牛津大學(xué)互聯(lián)網(wǎng)研究院(Oxford Internet Institute, University of Oxford)和圖靈研究院(Alan Turing Institute, British Library)的五位學(xué)者,包括Brent Mittelstadt和弗洛里迪等人,基于算法運(yùn)行的組織結(jié)構(gòu),嘗試構(gòu)建了算法倫理的問題架構(gòu)圖,旨在組織學(xué)術(shù)話語,為算法倫理的研究提供極具啟發(fā)性的思路。

算法倫理在這項(xiàng)研究里被分成兩大范疇的六個(gè)關(guān)注點(diǎn),如圖1所示。一是認(rèn)知性范疇,包括不確定的證據(jù)、不可解讀的證據(jù)、誤導(dǎo)性證據(jù)三個(gè)方面的現(xiàn)象。算法使用推理統(tǒng)計(jì)學(xué)和(或)機(jī)器學(xué)習(xí)技術(shù)處理的數(shù)據(jù)得出的結(jié)論不可避免地具有不確定性,很少絕對(duì)可靠,不確定這一點(diǎn)對(duì)理解算法倫理非常重要;數(shù)據(jù)與結(jié)論之間的聯(lián)系不明顯時(shí),包括眾多數(shù)據(jù)點(diǎn)中的每一個(gè)如何被用來得出結(jié)論的內(nèi)在復(fù)雜性,就存在無法解讀的局限;算法在處理數(shù)據(jù)時(shí)的輸出永遠(yuǎn)不會(huì)超過輸入,結(jié)論只能與其所依據(jù)的數(shù)據(jù)一樣受限,可能帶來誤導(dǎo)性。二是規(guī)范性范疇,包括不公平的結(jié)果、變革的影響兩個(gè)方面。算法的操作標(biāo)準(zhǔn)和原則與行動(dòng)和效果的“公平性”并不能保證一致,操作可能存在歧視,帶來不公平;算法也可能以新的、意想不到的方式理解和概念化世界,帶來變革。除了以上兩個(gè)范疇,還有一個(gè)可追溯性的問題。算法不僅與新技術(shù)的設(shè)計(jì)和可用性有關(guān),而且與大量個(gè)人和其他數(shù)據(jù)的操縱相關(guān)聯(lián),這意味著算法活動(dòng)造成的傷害難以檢測,很難確定誰應(yīng)該對(duì)造成的傷害負(fù)責(zé)。[19]

圖1 算法倫理的六個(gè)關(guān)注點(diǎn)

上述六個(gè)關(guān)注點(diǎn)又進(jìn)一步帶來六類倫理問題,即不確定證據(jù)導(dǎo)致不正確的行動(dòng)、無法解讀的證據(jù)導(dǎo)致不透明度、誤導(dǎo)性的證據(jù)導(dǎo)致偏見、不公平的結(jié)果導(dǎo)致歧視、變革的影響導(dǎo)致對(duì)自主權(quán)和信息隱私的挑戰(zhàn)以及可追溯性導(dǎo)致道德責(zé)任。

算法對(duì)人類的信息獲取、知識(shí)建構(gòu)、思想形成都有著或顯性、或潛在的重要影響,作為新興的技術(shù),人們對(duì)它的認(rèn)知甚少,因此要確定其倫理框架確實(shí)是相當(dāng)困難的。以上這些機(jī)構(gòu)的知名學(xué)者們?cè)噲D從哲學(xué)層面建構(gòu)一個(gè)算法的倫理框架,考慮到算法的特性帶來的不確定性、不可解讀性和誤導(dǎo)性,這些與算法知識(shí)相關(guān)的幾個(gè)方面,即所謂的“認(rèn)知性”(epistemic concerns)關(guān)注的內(nèi)容的確有利于我們重視算法的內(nèi)涵、特質(zhì),從而發(fā)現(xiàn)其中的倫理問題,比如“不確定證據(jù)”導(dǎo)致不正確的算法決策,等等。但是,算法的知識(shí)譜系是怎樣的呢?哪些算法原理會(huì)產(chǎn)生認(rèn)知性誤區(qū)呢?如果對(duì)算法知識(shí)沒有全面的、深層的理解和透析,想要概括、窮盡算法的“認(rèn)知性”困境是很困難的。因此,相關(guān)表述也是零散的、含糊其詞的,而且,這些認(rèn)知層面的問題帶來的后果又是簡單劃定的因果關(guān)系?!耙?guī)范性”(normative concerns)是一個(gè)與判斷、評(píng)價(jià)相關(guān)的方面,關(guān)涉價(jià)值判斷,這一框架中僅列出“不公平的結(jié)果”和“變革的影響”,但可以涵蓋諸如算法偏向、對(duì)人的自身及安全的影響等,這也是與算法相關(guān)的最重要的兩個(gè)方面的價(jià)值問題。

(二)算法倫理的核心原則

人工智能算法運(yùn)用的倫理問題在不同國家和地區(qū)基于不同主題有不同的面向。歐盟委員會(huì)的人工智能高級(jí)別專家組(AIHLEG)較早地確定了算法倫理原則。該專家組呼吁采用“以人為本的人工智能方法”,并將其界定為“可信賴的人工智能”。第一,人工智能應(yīng)遵守現(xiàn)行法律法規(guī);第二,人工智能應(yīng)該以倫理為導(dǎo)向,即尊重基本權(quán)利并遵守核心原則和價(jià)值觀;第三,算法必須具有技術(shù)上的穩(wěn)健性和算法的可靠性。

關(guān)于人工智能的倫理原則,歐盟委員會(huì)的人工智能高級(jí)別專家組認(rèn)為建立可信賴的人工智能應(yīng)遵循四個(gè)倫理原則。(1)尊重人類自治的原則,即確保維護(hù)人類的自決權(quán),這意味著人工智能技術(shù)增強(qiáng)了人類在工作中的能力,并且保持對(duì)這些技術(shù)操作的控制。(2)預(yù)防損害的原則,其中包括確保人工智能可靠且技術(shù)上穩(wěn)健,以避免復(fù)制出現(xiàn)實(shí)世界中可能存在的偏見和不平等,避免對(duì)生命體與環(huán)境的潛在傷害。(3)公平原則,要求在人工智能的開發(fā)、部署和使用中享有平等機(jī)會(huì),明確識(shí)別負(fù)責(zé)人工智能行為的實(shí)體,并且清楚地理解算法決策過程。(4)可解釋性原則,強(qiáng)調(diào)必須公開披露有關(guān)算法目的和行為的信息,以便建立和維護(hù)信任。為滿足人工智能系統(tǒng)的生命周期,這些原則可以遵循七項(xiàng)要求,即人為代理和監(jiān)督,技術(shù)穩(wěn)健性和安全性,隱私和數(shù)據(jù)治理,透明性,多樣性、非歧視性和公平性,社會(huì)和環(huán)境福祉以及問責(zé)制。[20]

四、算法倫理的核心問題及求解

算法涉及人類倫理、科技倫理的多個(gè)面向。從科技的視角看,目前權(quán)威學(xué)者如科恩斯(Michael Kearns)關(guān)心的算法倫理問題包括隱私、公平、不可解釋性等。[21]賓夕法尼亞大學(xué)計(jì)算機(jī)與信息科學(xué)系教授科恩斯是美國計(jì)算機(jī)領(lǐng)域的權(quán)威學(xué)者之一,2021年入選美國國家科學(xué)院院士、2012年入選美國藝術(shù)與科學(xué)研究院院士,在計(jì)算機(jī)學(xué)習(xí)倫理、算法博弈論等領(lǐng)域處于領(lǐng)先地位。2019年,他與同事羅斯(Aaron Roth)合作出版了《守倫理的算法:社會(huì)意識(shí)算法設(shè)計(jì)的科學(xué)》(TheEthicalAlgorithm:TheScienceofSociallyAwareAlgorithmDesign)。他們從技術(shù)角度探究的算法倫理問題,正是當(dāng)前算法技術(shù)的核心倫理問題,以下分別加以介紹。

(一)隱私問題

從某種意義上說,隱私是一個(gè)人周圍“不可接近的區(qū)域”,它顯示的是個(gè)人的尊嚴(yán),是一種社會(huì)安排,允許個(gè)人控制誰可以在物質(zhì)和個(gè)人信息層面與其接近。[22](PP.204~205)在互聯(lián)網(wǎng)時(shí)代的信息隱私保護(hù)上,匿名是數(shù)據(jù)平臺(tái)最常用的手段,但是這種隱私保護(hù)的辦法帶來了一個(gè)算法困境。算法離不開個(gè)人數(shù)據(jù),我們所有在網(wǎng)絡(luò)上暴露過的個(gè)人信息,包括各類喜好厭惡、行動(dòng)蹤跡,都會(huì)被那些算法平臺(tái)所收集和使用。這些信息雖然通常運(yùn)用“匿名的”數(shù)據(jù)集,但實(shí)際上仍然能夠識(shí)別出數(shù)據(jù)主的真實(shí)身份。

一個(gè)著名的例子就是流媒體平臺(tái)奈飛獎(jiǎng)(Netflix Prize)競賽引發(fā)的數(shù)據(jù)暴露事件。2006年,在奈飛還只是一家DVD出租公司(尚未成為流媒體平臺(tái))時(shí),它推出了一項(xiàng)具有高額獎(jiǎng)金的競賽,通過公共數(shù)據(jù)科學(xué)競賽,尋找最佳的“協(xié)同過濾”算法(collaborative filtering algorithm),使奈飛原有的推薦系統(tǒng)的準(zhǔn)確性提高10%。通過用戶此前對(duì)影片的評(píng)分及評(píng)分日期為用戶定制其可能喜歡的影片——“協(xié)同過濾”算法的目標(biāo)是預(yù)測用戶對(duì)其尚未看到的電影的評(píng)價(jià),然后向用戶推薦算法預(yù)測用戶評(píng)級(jí)最高的影片。為了獲得最佳的算法推薦系統(tǒng),奈飛還公開發(fā)布了許多數(shù)據(jù),一個(gè)超過1億部電影評(píng)分記錄的數(shù)據(jù)集相當(dāng)于 50萬用戶對(duì)1.8萬部電影的評(píng)分。在公布這些數(shù)據(jù)時(shí),奈飛非常重視隱私問題,刪除了所有數(shù)據(jù)中的用戶身份信息,代之以無意義的數(shù)字標(biāo)號(hào),使其符合美國《視頻隱私保護(hù)法案》(TheVideoPrivacyProtectionAct, 1988)對(duì)電影租賃業(yè)的嚴(yán)厲規(guī)定。然而,在數(shù)據(jù)公布的兩周后,得克薩斯大學(xué)(奧斯汀分校)的一位博士生和他的導(dǎo)師就結(jié)合網(wǎng)絡(luò)信息和公布的數(shù)據(jù),還原了數(shù)據(jù)集中刪除的標(biāo)識(shí)化信息,并附上了匿名數(shù)據(jù)主的真實(shí)姓名。[21](PP.22~26)

所以說,算法時(shí)代的隱私保護(hù)是一個(gè)棘手的難題。現(xiàn)實(shí)中的隱私保護(hù)涉及個(gè)人、平臺(tái)、社會(huì)等多個(gè)方面,僅從平臺(tái)而言,對(duì)于這類去除了標(biāo)識(shí)化的信息導(dǎo)致的算法的隱私困境,可以從技術(shù)角度做出努力。比如,科恩斯等人提出了使用“差分隱私”(differential privacy)的算法,避免匿名(去標(biāo)識(shí)化的)用戶信息的暴露。[21](PP.36~56)此外,他們還探討了如何將人類的公正、責(zé)任、道德原則等嵌入到機(jī)器代碼中,以技術(shù)的方式解決算法倫理的困境,帶來人們對(duì)“道德機(jī)器”的期待。

(二)公平問題

算法的不公平、價(jià)值偏向(偏見)、歧視等一直飽受詬病。這些問題與技術(shù)、工程師的價(jià)值觀、平臺(tái)的利益驅(qū)動(dòng)等相關(guān)。學(xué)習(xí)算法是將決策問題的歷史實(shí)例(即訓(xùn)練數(shù)據(jù))作為輸入并生成決策規(guī)則或分類器,然后將其用于問題的后續(xù)實(shí)例的方法。運(yùn)用現(xiàn)實(shí)數(shù)據(jù)集、經(jīng)過人類行為訓(xùn)練的算法都將歷史和文化習(xí)俗嵌入和編碼于算法之中。

了解算法的工作原理有益于我們理解公平問題。算法的實(shí)施需要經(jīng)過三重中介:一是設(shè)計(jì)算法方案的專家;二是作為計(jì)算目標(biāo)的數(shù)據(jù)主體;三是算法本身。比如,通過對(duì)數(shù)字化的敘利亞難民安置算法的研究發(fā)現(xiàn),經(jīng)過算法自動(dòng)決策之后的新數(shù)字景觀雖然能夠得出更好的經(jīng)濟(jì)和就業(yè)方案,但是難民認(rèn)為社會(huì)文化特征在該空間中被低估,專家對(duì)該過程的透明性和歸責(zé)問題也表示擔(dān)憂。[23]算法可以對(duì)社會(huì)生活規(guī)則和規(guī)范進(jìn)行重構(gòu)、對(duì)社會(huì)秩序產(chǎn)生沖擊并加以構(gòu)建,對(duì)意識(shí)形態(tài)空間產(chǎn)生形塑作用。[24]

而且,算法是難以中立的。從技術(shù)層面而言,機(jī)器學(xué)習(xí)分類器會(huì)帶來不公平,而算法的偏向和不公平常常是無意間造成的。首先,數(shù)據(jù)是人類現(xiàn)實(shí)社會(huì)的反映,人類現(xiàn)存的偏見以及由不公的現(xiàn)實(shí)數(shù)據(jù)訓(xùn)練出來的算法,本身就可能存在偏向和不公;其次,數(shù)據(jù)的樣本量差異也會(huì)帶來不準(zhǔn)確性,分類器通常會(huì)隨著用于訓(xùn)練它的數(shù)據(jù)點(diǎn)數(shù)量的增加而改善。也就是說,數(shù)據(jù)越多、越全面,建立的分類器可能就越準(zhǔn)確,而數(shù)據(jù)量小通常會(huì)導(dǎo)致預(yù)測、決策的不準(zhǔn)確,比如少數(shù)族裔、弱勢群體的可用數(shù)據(jù)量相對(duì)比較少,因此可能帶來較為嚴(yán)重的不公和偏見。除此之外,還有其他問題,如技術(shù)水平、文化差異等等。

在民族、性別等方面,算法還產(chǎn)生了一系列認(rèn)知規(guī)范的不公正案例。比如卡內(nèi)基梅隆大學(xué)研究人員的一項(xiàng)研究發(fā)現(xiàn),谷歌的在線廣告系統(tǒng)向男性展示高收入工作廣告的頻率要比向女性高得多[25];哈佛大學(xué)對(duì)在線廣告投放的研究發(fā)現(xiàn),有關(guān)逮捕記錄的廣告更有可能出現(xiàn)在具有明顯黑人姓名或歷史悠久的黑人兄弟情誼的廣告中[26]。近年這些不公正性還擴(kuò)展到了勞動(dòng)關(guān)系之中,形成了對(duì)勞動(dòng)工人的歧視。比如在我國,算法歧視性決策使得外賣騎手困在算法系統(tǒng)里,帶來零工經(jīng)濟(jì)平臺(tái)的人文主義缺失。[27]

(三)透明性問題

第二代人工智能屬于數(shù)據(jù)驅(qū)動(dòng)型,較之于第一代人工智能的知識(shí)驅(qū)動(dòng)型而言,機(jī)器主要通過模擬人類的感知來進(jìn)行計(jì)算。第二代智能技術(shù)先天地具有不可解釋性、不透明性。算法專家們已經(jīng)接受算法是黑箱這一事實(shí),但他們并不認(rèn)為低透明度意味著低可信度。對(duì)于非專家群體而言,增加算法透明性很難具有可操作性,尤其考慮到模型是復(fù)雜的、時(shí)刻處在動(dòng)態(tài)發(fā)展中的。[28]

透明性主要包括信息的可訪問性和可解釋性。在新聞傳播領(lǐng)域,透明性已然成為算法時(shí)代新聞業(yè)的核心原則。新聞媒體中的“算法透明性”可以被理解成“闡明那些與算法有關(guān)的信息可以被公開的機(jī)制”,包括“披露算法如何驅(qū)動(dòng)各種計(jì)算系統(tǒng)從而允許用戶確定操作中的價(jià)值、偏差或意識(shí)形態(tài),以便理解新聞產(chǎn)品中的隱含觀點(diǎn)”[29],也可以解釋成闡明那些與算法有關(guān)的信息可以被公開的機(jī)制,包括信息透明、理念透明和程序透明。不少學(xué)者認(rèn)為,實(shí)現(xiàn)“算法透明性”是解決新技術(shù)帶來的倫理問題,尤其是算法偏見和歧視以及侵犯信息隱私等問題的重要途徑。

“開放倫理”觀即將用戶納入信息過程,可以作為實(shí)施算法透明度相關(guān)實(shí)踐和話語的指導(dǎo)理念,在倫理原則的制定、倫理判斷、倫理抉擇以及信息公開等所有實(shí)施算法透明度的環(huán)節(jié),都要考慮用戶的認(rèn)知、態(tài)度與需求,這對(duì)促進(jìn)“異質(zhì)新聞/內(nèi)容實(shí)踐網(wǎng)絡(luò)”中各主體的對(duì)話,改善各主體在倫理話語權(quán)方面的不平等具有重要意義。[30]

開放的倫理觀對(duì)將算法運(yùn)用于媒介的倫理研究具有創(chuàng)新意義。有研究者發(fā)現(xiàn),經(jīng)過用戶畫像算法這一中介,傳統(tǒng)意義上的身份定義方式被改變,轉(zhuǎn)而成為算法與人類社會(huì)知識(shí)有機(jī)互動(dòng)的過程,他們認(rèn)為,對(duì)用戶進(jìn)行畫像的聚類算法包括構(gòu)建不具意義的類別、為類別重新賦予社會(huì)意義兩個(gè)過程,前者不依賴于人類社會(huì)的意義,生成大量超越現(xiàn)有解釋的未定義類別,后者將語言的、社會(huì)的知識(shí)重新引入類別的界定之中。[31]

結(jié)語

算法讓我們的生活和工作更有效率、更有趣味,讓我們獲得更加豐富的信息。它已經(jīng)在影響人們?nèi)粘I畹拇蟛糠謨?nèi)容,如與他人的互動(dòng)、人們的吃穿用等消費(fèi)行為,以及人們所獲取的信息、投資決策、職業(yè)選擇,等等,人類甚至更相信算法。哈佛商學(xué)院的調(diào)研結(jié)果顯示,人們更愿意采用被告知是算法的建議而不是人類的建議??偠灾惴ǔ闪宋覀兩钪胁豢苫蛉钡募夹g(shù),變成了日常生活中的強(qiáng)大中介。而且,算法也在重塑信息傳播。人們將智能算法運(yùn)用于信息傳播的全過程,從數(shù)據(jù)挖掘、新聞生產(chǎn)到新聞發(fā)布與分發(fā)、信息核實(shí)與用戶互動(dòng),它可以使新聞發(fā)掘更深入、觸覺更敏銳、面向更廣泛,不僅能呈現(xiàn)新聞,通過科學(xué)的算法還可以預(yù)測新聞;它不僅大大提升了新聞寫作的數(shù)量和快捷性,而且還可以加強(qiáng)信息的可視性、擬態(tài)性和播報(bào)的精確性;它能夠更精準(zhǔn)地了解用戶的個(gè)性化需求,不僅能夠進(jìn)行個(gè)性化的訂制、優(yōu)化和推送,而且還可以通過新聞機(jī)器人和聊天機(jī)器人與海量用戶進(jìn)行互動(dòng)。在其他非新聞?lì)愋畔⑸a(chǎn)上,智能同樣產(chǎn)生了廣泛且深遠(yuǎn)的影響。因此,我們不得不面對(duì)復(fù)雜的算法帶來的越來越多的倫理問題,如侵犯個(gè)人的隱私權(quán)利、帶來不公正、使我們生活于算法的黑箱之中等現(xiàn)實(shí)問題。在算法泛用的背景下,我們需要發(fā)現(xiàn)、面對(duì)乃至解決這些問題,提升認(rèn)識(shí)和理解,促進(jìn)算法善用。

算法倫理的核心原則是算法人文主義,即堅(jiān)持人文主義的傳統(tǒng)三個(gè)要素。一是智能算法時(shí)代,仍然要堅(jiān)持人的主導(dǎo)價(jià)值,重視人的獨(dú)特性即人的尊嚴(yán);二是在將算法廣泛應(yīng)用于人類決策的同時(shí),仍然要堅(jiān)持以人為本,從人的視角出發(fā);三是將人及人性視作一個(gè)豐富而又復(fù)雜的存在,在算法運(yùn)行中尊重人和人性。算法人文主義是一種底線思維、協(xié)商倫理,它所主張的“以人為本”并不是那種積極、主動(dòng)的自我主導(dǎo)、自我支配,而是從最底線的意義維護(hù)人之為人的獨(dú)特價(jià)值,也就是人的尊嚴(yán)和自由。算法人文主義主張一種前科學(xué)的人性觀和世界觀,人并非算法,而是充滿了各種可能性,具有獨(dú)特的豐富性和復(fù)雜性。在人與算法的關(guān)系上,由于人的存在是一種非本質(zhì)化卻又飽含豐富性的存在,包括算法在內(nèi)的外在技術(shù)以及人的理性、自由,甚至身體,都只是人類存在的一個(gè)維度或者面向,算法人文主義拒絕心身二元分離、主客體對(duì)立的價(jià)值觀,而是將身體與心靈視作一個(gè)整體,將技術(shù)內(nèi)置于人的存在之中,由此構(gòu)建基于關(guān)切和照看的整體主義的技術(shù)觀,人與技術(shù)不是主客體支配與被支配的關(guān)系,而是在人的存在之中,算法技術(shù)是作為人之存在的重要面向,并在使用和照看中展開和呈現(xiàn)人之主體性的關(guān)系。在算法運(yùn)用中,要堅(jiān)持和倡導(dǎo)社會(huì)的公平正義原則。算法以技術(shù)壟斷、流量分配和話語影響等形式,構(gòu)成一種與以往否定性的暴力權(quán)力、規(guī)訓(xùn)權(quán)力截然不同的肯定性權(quán)力,主導(dǎo)著社會(huì)資源和機(jī)會(huì)的分配,影響著社會(huì)公平正義的實(shí)現(xiàn)。人類必須通過對(duì)算法有效性、算法必要性和算法正當(dāng)性的考量,用公平的價(jià)值理念指導(dǎo)算法的研發(fā)和應(yīng)用,彌補(bǔ)算法內(nèi)在的缺陷,實(shí)現(xiàn)算法的公平,而不是公平的算法。[2](PP.11~12)

猜你喜歡
倫理人類算法
《心之死》的趣味與倫理焦慮
人類能否一覺到未來?
人類第一殺手
護(hù)生眼中的倫理修養(yǎng)
活力(2019年19期)2020-01-06 07:37:00
基于MapReduce的改進(jìn)Eclat算法
Travellng thg World Full—time for Rree
1100億個(gè)人類的清明
進(jìn)位加法的兩種算法
一種改進(jìn)的整周模糊度去相關(guān)算法
人類正在消滅自然
奧秘(2015年2期)2015-09-10 07:22:44
阿瓦提县| 民县| 东宁县| 石屏县| 井研县| 团风县| 保德县| 宣威市| 陵川县| 麻城市| 尼勒克县| 佳木斯市| 台湾省| 胶州市| 潍坊市| 邵东县| 正阳县| 松溪县| 长海县| 宜兴市| 东宁县| 海门市| 海晏县| 文昌市| 来安县| 吐鲁番市| 塔城市| 中西区| 吴川市| 海原县| 平凉市| 盘山县| 合江县| 辽阳市| 阳朔县| 皋兰县| 博客| 陵水| 满洲里市| 东明县| 舟山市|