国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

從算法偏見到算法歧視:算法歧視的責(zé)任問題探究

2022-02-17 09:43
關(guān)鍵詞:開發(fā)者決策算法

孟 令 宇

(復(fù)旦大學(xué) 哲學(xué)學(xué)院, 上海 200433)

提到算法的倫理問題,算法的公正問題是一個(gè)繞不開的話題,這一問題通常被稱為“算法歧視”問題或“算法偏見”問題。目前對算法偏見和算法歧視問題的解決主要有兩種進(jìn)路:第一種進(jìn)路是設(shè)計(jì)進(jìn)路,該進(jìn)路致力于從算法的設(shè)計(jì)出發(fā)來解決算法偏見與算法歧視的問題。 從設(shè)計(jì)進(jìn)路出發(fā),算法的設(shè)計(jì)應(yīng)當(dāng)具有倫理向度,開發(fā)者在開發(fā)算法時(shí)應(yīng)當(dāng)有倫理考量。 人們要意識到算法可能造成的不公正后果,并在設(shè)計(jì)中避免這些可能的不公正的后果成為現(xiàn)實(shí)。 第二種進(jìn)路是法律與政策進(jìn)路,該進(jìn)路試圖通過建立健全相關(guān)的法律法規(guī)和社會政策來避免或緩解算法偏見與算法歧視的問題。 例如,“通過建構(gòu)人工智能學(xué)習(xí)權(quán)和借鑒美國平等權(quán)保護(hù)領(lǐng)域中的差別性影響標(biāo)準(zhǔn)以識別算法歧視,同時(shí)采用法律與代碼相結(jié)合的雙重保護(hù)模式,把握平等權(quán)保護(hù)與科技創(chuàng)新之間的平衡”[1]。 又如,“結(jié)合全國人民代表大會立法規(guī)劃,我國對算法歧視應(yīng)采取個(gè)人信息保護(hù)法和合理算法標(biāo)準(zhǔn)相結(jié)合的綜合治理路徑”[2]。然而,無論學(xué)者們是從何種進(jìn)路來解決算法偏見與算法歧視的問題,算法偏見與算法歧視這兩個(gè)概念通常是被放在一起討論的,鮮見對二者的區(qū)分。似乎從算法偏見轉(zhuǎn)化為算法歧視是一個(gè)理所當(dāng)然的過程。正如楊慶峰所說的那樣,如今在有關(guān)大數(shù)據(jù)和人工智能偏見問題的討論中逐漸形成了一種獨(dú)特觀念,即偏見等同于歧視[3]。 在很多場合,算法偏見與算法歧視都被視為一個(gè)問題,在表述中處于一個(gè)“你中有我,我中有你”的混淆狀態(tài)。然而,偏見是否等同于歧視?算法偏見是否必然導(dǎo)致算法歧視?這是值得追問的。 事實(shí)上,在人工智能倫理領(lǐng)域需要解決的問題是算法歧視問題而非算法偏見問題。 算法偏見是不可避免的, 某種程度上來說它是算法技術(shù)得以應(yīng)用的前提。算法歧視才是人工智能技術(shù)領(lǐng)域中的那個(gè)會造成不良后果的、值得被反思和追問的倫理問題。 本文試圖從這個(gè)角度切入, 通過區(qū)分算法偏見與算法歧視這兩個(gè)概念, 找出算法偏見導(dǎo)致算法歧視的內(nèi)在邏輯, 從而提出算法偏見是不可避免的, 真正地應(yīng)當(dāng)引起人們重視的倫理問題是算法歧視問題, 而算法的開發(fā)者和使用者要為算法歧視負(fù)責(zé)。

一、 偏見與歧視

算法偏見與算法歧視之間的區(qū)別本質(zhì)上是偏見與歧視之間的區(qū)別,算法只是為這一問題提供了新的語境?!捌姟蓖ǔJ侵敢粋€(gè)哲學(xué)認(rèn)識論層面的概念或一個(gè)心理學(xué)概念。偏見的具體概念很難定義,“偏見是人類生活的一個(gè)特征,它與許多不同的名字和標(biāo)簽交織在一起,或者可以互換使用——刻板印象、偏見、隱含的或潛意識持有的信念,或者思想封閉”[4]。算法偏見與算法歧視在人工智能技術(shù)領(lǐng)域被視為同一個(gè)倫理問題的一個(gè)可能的原因是自啟蒙運(yùn)動以來的對“偏見”概念的誤解。在啟蒙時(shí)期,“偏見”曾被視為是全然消極的,但隨著人們對“偏見”概念的深入分析,“偏見”的合理性得到了辯護(hù)。

最初對于“偏見”的誤解,是由于對“理性”的過度推崇導(dǎo)致的?!捌娨辉~,對于啟蒙時(shí)代以來的理性主義傳統(tǒng)來說,意味著與正義和理性對峙的力量。由于文藝復(fù)興以來的對傳統(tǒng)和權(quán)威的鞭笞,對理性的崇尚,偏見也就理所當(dāng)然地成為正確認(rèn)識的大敵?!盵5]例如,培根提出的“四假象說”就是一種對人類認(rèn)識的偏見的批判。他認(rèn)為偏見是人類進(jìn)行認(rèn)識活動中的障礙, 要想獲得真正的知識就必須要消除偏見。笛卡爾也說:“第一就得把我們的偏見先撇開,那就是,我們必須先細(xì)心懷疑我們以前所承認(rèn)的意見,直到重新考察之后,我們發(fā)現(xiàn)它們是真的,然后才同意它們。”[6]

然而,進(jìn)入20世紀(jì)以來,隨著解釋學(xué)作為一種哲學(xué)學(xué)派誕生并發(fā)展,有關(guān)“偏見”的看法隨之逐漸發(fā)生了變化。

在海德格爾那里“偏見”成為“理解的前結(jié)構(gòu)”,或者說,至少成為了其中的一部分。他稱:“把某某東西作為某某東西加以解釋,這在本質(zhì)上是通過先行具有、先行見到與先行掌握來起作用的。解釋從來不是對先行給定的東西所做的無前提的把握?!盵7]這里的先行具有、先行見到與先行掌握就是所謂的“理解的前結(jié)構(gòu)”,這其中就包含了“偏見”。先行具有是指人的存在首先是置于一個(gè)特定的歷史文化之中,在理解和解釋活動展開之前,存在著的人本身就已經(jīng)具備這些歷史和文化了;先行見到是指人在思考時(shí)所必然會涉及的語言體系,這包括了具體的語言、概念和使用語言的方式,脫離了這一語言體系,人實(shí)際上是無法思考的;先行掌握則是指人在展開理解和解釋活動之前就已經(jīng)具有的一些內(nèi)在的觀念、前提和假設(shè),人的理解和解釋活動的展開必然將這些觀念、前提和假設(shè)作為參考??梢钥闯?無論是先行具有、先行見到抑或是先行掌握,偏見都不可避免地居于其中。

在海德格爾之后,波普爾和伽達(dá)默爾的觀點(diǎn)也為“偏見”的合理性提供了辯護(hù)。

波普爾從自然科學(xué)知識的角度出發(fā),提出了“培根問題”,并借此表達(dá)了他的偏見觀。所謂“培根問題”就是波普爾提出的在培根哲學(xué)中所存在的一種矛盾,它關(guān)涉“偏見”與 “觀察證實(shí)理論”的關(guān)系問題,即“一方面培根承認(rèn)一切觀察都是按照某種理論對事實(shí)的解釋,或者說他把從已有理論或偏見出發(fā)對觀察到的事實(shí)的解釋視為一種普遍現(xiàn)象,另一方面他同時(shí)又意識到這一點(diǎn)與其通過經(jīng)驗(yàn)獲得知識之基本主張相抵牾”[8]。波普爾認(rèn)為培根這種摒棄“偏見”的觀點(diǎn)是錯(cuò)誤的,并不是“偏見”污染了“自然觀察”,而是根本就不存在所謂的“自然觀察”狀態(tài)。他認(rèn)為無論是對整個(gè)人類還是對個(gè)人來說,對自然的解釋是且只能是從“偏見”出發(fā)的,“自然觀察”是不存在的,所有的觀察都是建立在“偏見”的基礎(chǔ)之上的。“偏見”概念本身是中性的,在人的認(rèn)識中“偏見”不可能也不應(yīng)該被排除掉。

伽達(dá)默爾更是直接提出“偏見”是不可消除的,啟蒙運(yùn)動所一直致力于的驅(qū)趕“偏見”的行為不過是“以偏見反對偏見”而已(1)伽達(dá)默爾使用了德語Vorurteile一詞,英文翻譯為prejudice,漢語多譯為“前見”。出于概念統(tǒng)一的考慮,除了譯本原文外,本文中將統(tǒng)一使用“偏見”一詞。。他提出“偏見”是由理解的歷史性所構(gòu)成的,而理解的歷史性是必然的,他認(rèn)為:“一種詮釋學(xué)處境是由我們自己帶來的各種前見所規(guī)定的”[9]416。在這一點(diǎn)上他繼承了海德格爾有關(guān)理解的前結(jié)構(gòu)的觀點(diǎn),認(rèn)為人的理解活動是被人所固有的偏見所限制的,人的解釋和理解活動的展開是不可能不受“偏見”的影響的。此外,由于“偏見”是理解的歷史性所導(dǎo)致的,這也就意味著“偏見”是開放的,向過去開放,也向未來開放。過去的偏見形成了現(xiàn)在的偏見,現(xiàn)在的偏見也將成為未來偏見的一部分。也就是說,與我們對“偏見”的刻板印象恰恰相反,“偏見”并非是頑固的、一成不變的,就“偏見”概念自身而言,反而是包容的和開放的。“偏見”隨著人的認(rèn)識活動而改變,或消解,或強(qiáng)化,從而在某一天演化成為和原有的“偏見”截然不同的新的“偏見”。伽達(dá)默爾還區(qū)分了“生產(chǎn)性的偏見”和“阻礙理解或?qū)е抡`解的偏見”,前者是構(gòu)成我們認(rèn)識和理解的前提,是從歷史中來的,而后者對我們的認(rèn)識和理解活動起阻礙作用,是后天得來的。與此同時(shí),盡管從概念上這兩者是可區(qū)分的,但在事實(shí)層面上卻又是不可區(qū)分的,伽達(dá)默爾認(rèn)為:“占據(jù)解釋者意識的前見和前見解,并不是解釋者自身可以自由支配的。解釋者不可能事先就把那些使理解得以可能的生產(chǎn)性的前見與那些阻礙理解并導(dǎo)致誤解的前見區(qū)別開來”[9]402。

至此,“偏見”這一概念作為人類認(rèn)識和解釋世界的前提獲得了合理性。

與“偏見”不同,通常意義下,“歧視”在當(dāng)今社會被視為一個(gè)法律概念。根據(jù)《聯(lián)合國人權(quán)事務(wù)委員會關(guān)于非歧視的第十八號一般性意見》(CCPRGeneralCommentNo.18:Non-discrimination)第7條中的規(guī)定,“歧視”一詞指的是基于任何種族、膚色、性別、語言、宗教、政治或其他見解、國籍、族裔或社會出身、財(cái)富、殘疾、出生或其他地位等特征的任何區(qū)別、排斥、限制或偏好行為,其行為的目的或效果否認(rèn)或妨礙了任何人認(rèn)識、享有或行使平等的權(quán)利和自由。朱振在《論人權(quán)公約中的禁止歧視》一文中也指出:“任何形式的歧視都是基于區(qū)分,而區(qū)分的基礎(chǔ)則是個(gè)人的特征,諸如種族、膚色、性別、語言、宗教、政治或其他意見、國籍或社會出身、財(cái)產(chǎn)、出身或其他身份。個(gè)人的這些不同的特征構(gòu)成了歧視的前提,但并不是所有形式的區(qū)分都是歧視性的,人權(quán)法所反對的區(qū)分是建立在不合理的和主觀的標(biāo)準(zhǔn)之上的區(qū)分?!盵10]徐琳在其《人工智能推算技術(shù)中的平等權(quán)問題之探討》一文中將“歧視”概念總結(jié)為:“其核心是客觀上具有存在不合理的區(qū)別待遇,而區(qū)別待遇的類型和理由是法律所禁止的,以及客觀上由于區(qū)別待遇,所造成非公平公正等的不良后果?!盵11]總之,構(gòu)成“歧視”有兩點(diǎn)必要因素,其一是基于他者的某些特征區(qū)別對待,其二是對被歧視者造成了不良后果。

“歧視”與“偏見”的不同可以從兩個(gè)維度來看。從本質(zhì)層面上看,“歧視”是一種行為,而“偏見”則是一種認(rèn)知狀態(tài)。“歧視”作為一種行為必然會帶來結(jié)果,而“偏見”作為一種認(rèn)知狀態(tài)與結(jié)果無涉?!捌缫暋蓖ǔJ怯伞捌姟睂?dǎo)致的,但并非所有的“偏見”都會導(dǎo)致歧視。我對他者的偏見是存在于我心中的一種認(rèn)知狀態(tài),由于偏見的存在我可能會在對他者的認(rèn)知上產(chǎn)生偏差,這種認(rèn)知偏差不一定會對他者帶來影響,它僅僅存在于我自身內(nèi)部?!捌缫暋眲t代表著我已經(jīng)對他者作出了價(jià)值判斷與價(jià)值選擇,已經(jīng)產(chǎn)生了后果。這一后果是在客觀世界中現(xiàn)實(shí)存在的,而不再是僅僅存在于我自身內(nèi)部。

從價(jià)值層面來看, “歧視”必然是消極的,會帶來不良的后果, 而“偏見”既可以是消極的也可以是積極的,甚至可以是價(jià)值中立的。 從構(gòu)詞上看,偏見的英文為prejudice(2)Bias在計(jì)算機(jī)領(lǐng)域也被譯為“偏差”,但是在人工智能倫理領(lǐng)域通常與prejudice混用。, 意為在判斷之前,明顯是無關(guān)價(jià)值的;而歧視的英文為discrimination,以一個(gè)否定詞綴“dis”開頭, 表明了消極的意義。 我對他者的“歧視”必然蘊(yùn)含著貶義,這意味著我在價(jià)值上貶低了他,沒有作出公正的評價(jià);而我對他者的“偏見”則未必如此。 我對他者的“偏見”可以和“歧視”一樣是一種貶低。但是,我對他者的“偏見”也可以并非是一種貶低, 而是一種褒獎(jiǎng),表現(xiàn)為偏好。 當(dāng)然這也是不公正的, 甚至,我對他者的“偏見”可以是價(jià)值中立的, 即我的偏見僅僅是我認(rèn)識和理解的前提條件,這與價(jià)值無關(guān)。

結(jié)合這兩個(gè)維度綜合來看,“歧視”是基于“偏見”的,但“偏見”并不必然導(dǎo)致“歧視”?!捌缫暋迸c“偏見”之間最大的區(qū)別就在于“歧視”是一種行為, 它必然導(dǎo)致一個(gè)不良的后果; 而“偏見”僅僅是一種認(rèn)知狀態(tài), 既可以是積極的也可以是消極的甚至可以是價(jià)值中立的, 其中只有部分消極的“偏見”有可能會轉(zhuǎn)化為“歧視”。 從二者的生成邏輯來看, 偏見是先于人的認(rèn)知而存在的, 人的認(rèn)知被偏見所影響從而形成了基于偏見的判斷,而將其中一部分包含消極偏見的判斷不加反思地直接付諸于行動就有可能會構(gòu)成歧視行為。 一個(gè)歧視行為產(chǎn)生的過程可以被寫作“偏見-認(rèn)知-判斷-行為-歧視”。 可以看出,偏見轉(zhuǎn)化為歧視的關(guān)鍵一步在于基于偏見的認(rèn)知直接轉(zhuǎn)化為行為而沒有經(jīng)過反思。 此時(shí),作為一個(gè)理性人,尤其是在道德領(lǐng)域,應(yīng)當(dāng)在判斷和行為之間層加一個(gè)反思環(huán)節(jié), 考慮到偏見對人的認(rèn)知的影響對之前的判斷進(jìn)行再判斷, 如此一來便可以最大限度地避免偏見直接轉(zhuǎn)化為歧視。 此時(shí),理性人的行為應(yīng)當(dāng)被寫作“偏見-認(rèn)知-判斷-反思-行為”。 簡言之,從“認(rèn)知-行為”的邏輯來看,偏見先于歧視, 且只有部分消極的偏見會轉(zhuǎn)化為歧視; 從概念的內(nèi)涵來看,偏見大于歧視, 偏見既可以是積極的也可以是消極的甚至可以是中性的,而歧視只能是消極的。

二、 算法偏見及其來源

算法偏見是指在算法中存在的偏見,本質(zhì)上與解釋學(xué)意義上的“偏見”概念是一致的,是人認(rèn)識世界和解釋世界的前提條件。算法偏見主要有三種來源,分別是數(shù)據(jù)中的偏見、開發(fā)者的偏見和算法本身的偏見。算法吸收并強(qiáng)化了這些偏見并使之成為了算法的一部分重新進(jìn)入社會之中。但算法偏見仍然只是一種偏見,而非歧視,它并不會直接造成不良的后果。

在具體討論算法偏見之前,有必要先對算法進(jìn)行解析。

算法可以被簡單地理解為一種通過計(jì)算機(jī)語言實(shí)現(xiàn)的解決問題的方法。本文中所使用的“算法”概念,主要是指機(jī)器學(xué)習(xí)算法及其進(jìn)階版的深度學(xué)習(xí)算法,許多算法相關(guān)的倫理問題都是建立在機(jī)器學(xué)習(xí)算法和深度學(xué)習(xí)算法的特性之上,例如黑箱特性。

目前被廣泛使用的機(jī)器學(xué)習(xí)算法的原理見圖1。

圖1 機(jī)器學(xué)習(xí)算法原理

更進(jìn)一步的深度學(xué)習(xí)算法的原理見圖2。

圖2 深度學(xué)習(xí)算法原理

二者的主要區(qū)別就在于第一步,前者是人為地去構(gòu)建模型,后者則是隨機(jī)產(chǎn)生神經(jīng)元和權(quán)值。此后在步驟上二者是一致的:首先輸入一組訓(xùn)練數(shù)據(jù)(3)這組訓(xùn)練數(shù)據(jù)可以是由開發(fā)者選擇錄入系統(tǒng)的,也可能是從一個(gè)大數(shù)據(jù)庫中隨機(jī)選取的。,算法會根據(jù)輸入的訓(xùn)練數(shù)據(jù)進(jìn)行自我訓(xùn)練,初步形成一套算法系統(tǒng);在自我訓(xùn)練完成后,開發(fā)者會輸入一組驗(yàn)證數(shù)據(jù)來檢驗(yàn)算法的訓(xùn)練成果,如果初步形成的算法系統(tǒng)給出的結(jié)果沒有通過驗(yàn)證,則需要重新調(diào)整權(quán)值。調(diào)整權(quán)值可以通過人為調(diào)整或算法自我調(diào)整兩種方式進(jìn)行。在調(diào)整權(quán)值之后,將重新進(jìn)行結(jié)果驗(yàn)證;如果驗(yàn)證通過,則算法訓(xùn)練完成,生成算法應(yīng)用。深度學(xué)習(xí)區(qū)別于傳統(tǒng)機(jī)器學(xué)習(xí)的另一點(diǎn)就在于其算法的“黑箱”性,即在整個(gè)深度學(xué)習(xí)的過程中人類無法理解算法的運(yùn)作原理,即使是通過人工調(diào)整權(quán)值,開發(fā)者所能知道的也僅僅是“調(diào)整這個(gè)權(quán)值會讓算法更加符合預(yù)期”,但其背后的原理仍是未知的。

算法偏見主要有三種來源。

第一,數(shù)據(jù)中的偏見。在計(jì)算機(jī)領(lǐng)域有一個(gè)很著名的“GIGO”定律,即“garbage in,garbage out”,意思是如果你輸入的是一個(gè)垃圾數(shù)據(jù),那么計(jì)算機(jī)給你的輸出結(jié)果也只能是一個(gè)垃圾。《自然》雜志2016年的一篇社論中化用了這一著名定律,提出“BIBO”定律,即“bias in,bias out”[12]。也就是說,當(dāng)你輸入的數(shù)據(jù)中隱含偏見時(shí),那么你輸出的算法必然也是隱含偏見的。由于多種原因,日常生活中的數(shù)據(jù)常常包含了人類社會固有的隱性偏見。所謂“隱性偏見”就是指那些深藏在我們自身內(nèi)部的、難以察覺的偏見。Brownstein將“隱性偏見”定義為:“相對無意識和相對自動的偏見判斷和社會行為特征?!盵13]我們在持有這些偏見時(shí)甚至都意識不到它們,與之相對的可以被稱之為“顯性偏見”。解釋學(xué)意義上的“偏見”就是一種隱性偏見。即便是客觀記錄現(xiàn)實(shí)的數(shù)據(jù)也不免要含有這些隱性偏見。正如一些學(xué)者所說:“數(shù)據(jù)是社會數(shù)據(jù)化的結(jié)果,其原旨地反映了社會的價(jià)值觀念,不僅包括先進(jìn)良好的社會價(jià)值觀念,也包括落后的價(jià)值觀念?!盵14]“數(shù)據(jù)既有真實(shí)的,也有虛假的,而且真實(shí)的也不等于是客觀的,即數(shù)據(jù)并不具有天然中立性?!盵2]數(shù)據(jù)的客觀性僅僅體現(xiàn)在記錄方面,它如實(shí)地將人類社會中的隱性偏見記錄下來,再作為算法的訓(xùn)練數(shù)據(jù)或驗(yàn)證數(shù)據(jù)使這些偏見作為算法偏見呈現(xiàn)出來。例如,人類社會長期以來存在著對男女能力評價(jià)的偏見,諸如“平均來講,男性的理性分析能力要高于女性”之類的論斷。基于以上的論斷,可能對于一些理性分析能力要求高的職位會錄取較多的男性,如此一來,這一偏見就隱藏在一系列錄取信息之中,這些錄取信息作為算法的訓(xùn)練數(shù)據(jù)就會將算法訓(xùn)練成一個(gè)帶有“偏見”的算法。

第二,開發(fā)者的偏見。開發(fā)者的偏見既包含顯性偏見也包含了隱性偏見。開發(fā)者的顯性偏見是指那些開發(fā)者有意為之的設(shè)計(jì)中的偏見。例如“大數(shù)據(jù)殺熟”,將同一件商品以較高的價(jià)格賣給用戶黏度相對更高的人群,而以較低的價(jià)格賣給用戶黏度相對更低的人群,這種算法通常是人為設(shè)置出來的而非算法自動學(xué)習(xí)的。只要開發(fā)者本身不懷有主觀惡意,這種有意的顯性偏見是容易被發(fā)現(xiàn)并且剔除的。此外,這種有意的偏見有可能是有益的也可能是無益的,這取決于開發(fā)者的偏見與事實(shí)的契合度,或者說,這取決于開發(fā)者的直覺或經(jīng)驗(yàn)。如果開發(fā)者的直覺準(zhǔn)確或經(jīng)驗(yàn)老到,則通過引入開發(fā)者的偏見有可能使得算法程序更加高效,這就是有益的偏見,也被稱為“偏見優(yōu)勢”。反之,如果開發(fā)者的直覺不準(zhǔn)確或欠缺經(jīng)驗(yàn),將之引入算法系統(tǒng)就不會使算法程序變得高效甚至?xí)蛊渥兊玫托?這就是無益甚至是有害的偏見。開發(fā)者的偏見也可能是隱性的,開發(fā)者與所有人一樣,在認(rèn)識和解釋世界的過程中不可避免地要帶有偏見,這種偏見也會被帶入到算法之中。例如在男女識別系統(tǒng)中將“胡子”作為一項(xiàng)重要的識別特征,這可能會使得一些毛發(fā)旺盛的女性被識別為男性。然而這并非是開發(fā)者有意為之,而是受限于他的一個(gè)固有認(rèn)知,即“有胡子的是男性而沒胡子的是女性”。此外,由于存在“驗(yàn)證算法結(jié)果”這一環(huán)節(jié),驗(yàn)證數(shù)據(jù)乃經(jīng)開發(fā)者篩選后具有一定的開發(fā)者的認(rèn)知痕跡的數(shù)據(jù),因此任何機(jī)器學(xué)習(xí)算法都不可避免地在不同程度上具有人賦予其上的內(nèi)在目的和價(jià)值指向。換句話說,由開發(fā)者驗(yàn)證算法結(jié)果的預(yù)設(shè)就是開發(fā)者知道算法結(jié)果的正確與否,并會糾正算法去按照開發(fā)者的預(yù)期重新進(jìn)行訓(xùn)練。這一糾正并重新訓(xùn)練的環(huán)節(jié)可以通過開發(fā)者手動調(diào)節(jié),也可以是算法進(jìn)行自我調(diào)節(jié)。無論是哪種方式,訓(xùn)練最終的結(jié)果總是算法的輸出結(jié)果服從開發(fā)者的預(yù)期,而這種預(yù)期顯然帶有開發(fā)者的判斷和選擇,開發(fā)者的偏見因而也就被帶入到了算法之中。

第三,算法本身的偏見。Diakopoulos從算法的原理角度提出使用算法本身就可能是一種歧視。算法的按優(yōu)先級排序、歸類處理、關(guān)聯(lián)選擇、過濾排除等特點(diǎn)使得算法本身就是一種差別對待系統(tǒng)[15]?!霸谒惴ㄏ到y(tǒng)中,基于算法分類進(jìn)行的優(yōu)先化排序、關(guān)聯(lián)性選擇和過濾性排除是一種直接歧視,涉及差別性地對待與不公正?!盵2]換句話說,算法運(yùn)算的原理本身是一種“貼標(biāo)簽”的行為,而這些“標(biāo)簽”毫無疑問也是一種或顯性或隱性的偏見,算法也因此必然帶有偏見。人在這個(gè)意義上被當(dāng)作了一個(gè)“數(shù)據(jù)主體”,擁有了一個(gè)“數(shù)據(jù)身份”。然而,這種方法并非算法所獨(dú)有,這實(shí)際上是算法對人類認(rèn)知的學(xué)習(xí)和模仿。心理學(xué)家Allport在TheNatureofPrejudice一書中指出:“人類心智必須在范疇的幫助下才能思考……范疇一旦形成,就會成為平常的預(yù)前判斷的基礎(chǔ)?!盵16]可以看出,人類心智的這種認(rèn)知方式與算法本質(zhì)上是一致的。所謂的“范疇”與“標(biāo)簽”本質(zhì)上是一樣的,都是伽達(dá)默爾所謂的“偏見”。正如之前已經(jīng)論證過的,人的認(rèn)知活動本身就離不開偏見,算法也是如此。可以說,算法偏見是算法技術(shù)得以應(yīng)用的前提,正如偏見是人認(rèn)識和解釋世界的前提一樣。結(jié)合算法的原理,偏見進(jìn)入算法的過程如圖3所示。

圖3 偏見進(jìn)入算法的流程圖

首先,使用算法本身就是一種偏見。其次,在“構(gòu)建和初始化模型”這一環(huán)節(jié),開發(fā)者的偏見會被帶入到算法中。在“輸入訓(xùn)練數(shù)據(jù)”這一環(huán)節(jié),數(shù)據(jù)中的偏見會被帶入到算法中,開發(fā)者的偏見可能會被帶入到算法中(4)如果在一個(gè)開源的數(shù)據(jù)庫中隨機(jī)選取訓(xùn)練數(shù)據(jù)就可以避免開發(fā)者的偏見被帶入到算法之中,但數(shù)據(jù)本身的偏見仍是不可避免的。。在“輸入驗(yàn)證數(shù)據(jù)”環(huán)節(jié),數(shù)據(jù)的偏見和開發(fā)者的偏見都會被帶入到算法中。在“驗(yàn)證算法結(jié)果”環(huán)節(jié),開發(fā)者的偏見不可避免地進(jìn)入算法之中。此外,如果采用“人工調(diào)整權(quán)值”的方式,開發(fā)者的偏見在這一環(huán)節(jié)也會進(jìn)入到算法之中。

綜上所述,無論偏見是在哪個(gè)環(huán)節(jié)進(jìn)入算法的,算法都接收并強(qiáng)化了人類的偏見,尤其是隱性偏見。因此,與人的偏見一樣,算法偏見是不可避免的。畢竟,雖然主觀的、顯性的偏見是容易被識別的并被剔除的,但真正讓算法偏見無孔不入的正是那些不容易被我們覺察到的隱性偏見,它們是我們認(rèn)識和解釋世界的前提,也是算法技術(shù)得以實(shí)現(xiàn)的必要條件。

三、 算法歧視及其責(zé)任主體

正如偏見可能會引發(fā)歧視一樣,算法偏見也可能會引發(fā)算法歧視,但并非所有的算法偏見都會引發(fā)算法歧視。正如已經(jīng)論證過的,算法偏見是不可避免的,從數(shù)據(jù)收集階段到最終的決策階段,人類社會的偏見會以多種形式進(jìn)入到算法之中,從而使算法最終輸出一個(gè)有偏見的結(jié)果。這并不意味著算法偏見一定是不好的,如我們之前提到過的“偏見優(yōu)勢”,算法偏見有時(shí)甚至是一件好事。只有那些表達(dá)消極意味的算法偏見才有可能會導(dǎo)致不好的結(jié)果,從而轉(zhuǎn)化為算法歧視??偟膩碚f,算法偏見之所以會轉(zhuǎn)換為算法歧視,歸根結(jié)底是因?yàn)槿说淖饔谩?/p>

從概念上看,與算法偏見的概念類似,算法歧視指的應(yīng)當(dāng)是算法中存在的歧視。然而,在人工智能倫理中被討論的算法歧視其實(shí)分為兩類:一類實(shí)質(zhì)上是人的歧視,另一類才是真正的算法的歧視。

大多數(shù)的算法歧視歸根結(jié)底是人的歧視,人們對于算法含有偏見的結(jié)果不經(jīng)審查就作出決策的行為構(gòu)成了所謂的算法歧視。從算法的原理來看,基于大數(shù)據(jù)的算法所能夠提供的只是相關(guān)性結(jié)論,即通過數(shù)據(jù)表明的相關(guān)關(guān)系。本質(zhì)上,算法所做的是歸納推理,給出的輸出結(jié)果也只是一個(gè)歸納假設(shè)?!皻w納假設(shè)無法為其真實(shí)性提供邏輯上的保證,而且往往不得不在以后的某個(gè)時(shí)間點(diǎn)向與之相反的證據(jù)低頭?!盵17]人們應(yīng)當(dāng)理解,基于大數(shù)據(jù)的算法所能輸出的結(jié)果僅僅只是一個(gè)相關(guān)關(guān)系,如果將這種相關(guān)關(guān)系視為因果關(guān)系,那么算法偏見將不可避免地導(dǎo)致算法歧視(5)盡管Judea Pearl等人提出了“因果機(jī)制造成相關(guān)”的理論,并試圖證明機(jī)器學(xué)習(xí)不僅僅可以學(xué)習(xí)相關(guān)性也可以學(xué)習(xí)因果性,但是,這一理論的本質(zhì)仍然是一個(gè)歸納假設(shè),最多只能被認(rèn)為是科學(xué)上的因果性而非事實(shí)上的因果性。。美國前任司法部長Holder針對算法量刑的問題曾說過:“我擔(dān)心它(量刑時(shí)使用的算法)無意中破壞了我們確保個(gè)性化和平等司法的努力……刑事判決必須以事實(shí)、法律、實(shí)際犯罪、每個(gè)案件的情況以及被告人的犯罪歷史為依據(jù)。它們不應(yīng)基于一個(gè)人無法控制的不可改變的因素,也不應(yīng)基于未來尚未發(fā)生的犯罪的可能性?!盵18]這句話道出了算法歧視的一個(gè)真相:人們不加審查地盲目信任算法的結(jié)果,反而忽視了一個(gè)道德判斷或價(jià)值判斷所真正應(yīng)當(dāng)考慮的因素,導(dǎo)致算法偏見毫無障礙地通過人們的決策轉(zhuǎn)變?yōu)榱怂惴ㄆ缫暋V灰藗儗ζ浔3志?而非盲目輕信,很多算法偏見都是可以被識別出來并進(jìn)行改正的。

算法給出的方案和建議或許帶有歧視性,但這不是算法的選擇,而是算法本身的框架和權(quán)重所導(dǎo)致的一個(gè)必然結(jié)果。算法的框架和權(quán)重都是由算法開發(fā)者們設(shè)計(jì)的,即使是通常稱之為“黑箱算法”的深度學(xué)習(xí)算法也是如此,而使算法給出的歧視性方案和建議最終轉(zhuǎn)化為歧視行為的是算法的真正的使用者們。正是他們不加審查地服從含有偏見的算法的建議,才引發(fā)了算法歧視。所以,算法歧視應(yīng)當(dāng)有明確的責(zé)任人。算法偏見雖不可避免,但不必然導(dǎo)致算法歧視,真正設(shè)計(jì)和使用算法的人應(yīng)當(dāng)為歧視行為負(fù)責(zé)。要避免算法偏見導(dǎo)致算法歧視的關(guān)鍵就在于規(guī)范人,尤其是規(guī)范算法的開發(fā)者和使用者。

至于算法的歧視,它存在且只能存在于自主決策算法之中。因?yàn)槠缫暿紫仁且环N道德行為,只有道德主體才能夠?qū)λ诉M(jìn)行具有價(jià)值判斷與價(jià)值選擇色彩的歧視行為,而一個(gè)道德主體最基本的特性就在于能動性。在人工智能領(lǐng)域,許多學(xué)者研究智能機(jī)器的道德主體地位,但是算法與人工智能之間還是存在區(qū)別的,尤其是非自主決策的算法。非自主決策的算法所能做的僅僅是提供一種解決問題的方案或方法,但智能機(jī)器可以使得算法給出的方案或方法直接轉(zhuǎn)化為一種實(shí)踐,即將算法提出的方案付諸現(xiàn)實(shí)。非自主決策算法不具備直接的實(shí)踐能力,也就不具備主體地位。所以我們說算法歧視就只能是從自主決策算法的這個(gè)角度來說,非自主決策算法的歧視歸根結(jié)底是人的歧視。非自主決策算法可以給出帶有“偏見”的方案和建議,卻無法直接對他者實(shí)施價(jià)值層面上的“歧視”。

當(dāng)然,即使是自主決策算法導(dǎo)致的算法歧視也并非不可避免的,也是有責(zé)任主體的,那就是將自主決策算法付諸于某一實(shí)踐領(lǐng)域的那個(gè)人。從定義上看,算法可以被簡單理解為一種使用計(jì)算機(jī)語言實(shí)現(xiàn)的解決問題的方法。因此,任何算法的誕生都必然是含有內(nèi)在目的的,即具有內(nèi)在的價(jià)值。這一價(jià)值是由人賦予算法的。事實(shí)上,在“算法偏見是不可避免的”這一前提下,人類應(yīng)該知道自主決策算法不應(yīng)當(dāng)適用于那些容易引起歧視的領(lǐng)域。所以,試圖將自主決策算法應(yīng)用于那些可能會引起歧視的領(lǐng)域的人應(yīng)當(dāng)為此類算法歧視負(fù)責(zé)。

或許,有觀點(diǎn)認(rèn)為,“開發(fā)者會辯稱,他們的算法是中立的,只是容易被置于有偏見的數(shù)據(jù)和社會不當(dāng)使用的錯(cuò)誤環(huán)境中。而使用者則會聲稱,算法很難識別,更不用說理解,因此排除了使用者在使用中的道德含義的任何罪責(zé)”[19]。面對算法,人類事實(shí)上是有選擇的。如果算法給出的答案就是真理,或者說所有人都百分百確信算法給出的答案,或許我們就可以忽視這一問題?,F(xiàn)實(shí)情況恰恰不是這樣,算法通常應(yīng)用在這樣的環(huán)境中:更可靠的技術(shù)要么是不可用的,要么是實(shí)現(xiàn)成本太高,因此很少意味著是絕對可靠的[20]。所以,討論算法的倫理問題顯然要基于這一現(xiàn)實(shí)情況,即“算法是不完善的,算法偏見是不可避免,即使是自主決策算法也是如此”。因此真正的決策權(quán)自始至終都掌握在人類自己的手中。

正如“算法偏見”作為算法的倫理問題已經(jīng)被人類識別出來一樣,算法的黑箱屬性實(shí)際上并不影響人類對它的掌控能力?;蛟S有人會說,雖然目前的可能會導(dǎo)致算法歧視的算法偏見是可以被識別出來的,但是,人們擔(dān)心的是,隨著技術(shù)的發(fā)展,有一天它無法被識別出來怎么辦?可是,既然如今算法偏見是可以被識別出來的,而且倫理學(xué)家們也普遍認(rèn)識到了這一點(diǎn),那么在解決這一問題之前,我們有什么理由在一個(gè)可能會誘發(fā)歧視的領(lǐng)域去發(fā)展一種自主決策算法呢?如今的經(jīng)驗(yàn)告訴我們,對于自主決策算法,至少目前,應(yīng)當(dāng)處于人們的控制之下,應(yīng)確保算法偏見最終不會轉(zhuǎn)化為算法歧視。對于已經(jīng)存在的自主決策算法,一方面要反思其存在的必要性,取消那些非必要的自主決策算法,另一方面算法的開發(fā)者和使用者應(yīng)為其提供相應(yīng)的監(jiān)管和補(bǔ)償措施,以盡量減少算法歧視的危害。

筆者認(rèn)為,人類作為道德主體,是算法歧視的責(zé)任人。算法的開發(fā)者和使用者有責(zé)任去識別算法中可能存在的或顯性或隱性的偏見,應(yīng)當(dāng)對算法的應(yīng)用與決策始終保持審慎的態(tài)度和全面的考察,以確保算法偏見不會轉(zhuǎn)變?yōu)樗惴ㄆ缫暋?/p>

四、 結(jié) 語

綜上所述,算法歧視的責(zé)任人是算法的開發(fā)者和使用者,他們要對算法歧視的行為負(fù)責(zé)。我們每一個(gè)人,作為潛在的算法的開發(fā)者或使用者,對待算法偏見與算法歧視的正確態(tài)度應(yīng)當(dāng)是正視算法偏見,避免算法歧視。正視算法偏見要求我們認(rèn)識到:首先,算法偏見是不可避免的,它來自人類的偏見,其中以隱性偏見為主;其次,算法偏見雖然是不可避免的,但是卻是可識別的,尤其是來自顯性偏見的算法偏見;最后,算法給出的方案和建議是基于大數(shù)據(jù)的相關(guān)性結(jié)論,并不具備因果必然性。

要避免算法歧視需要我們在正視算法偏見的基礎(chǔ)上:一方面始終對算法保持審慎態(tài)度,在開發(fā)和應(yīng)用算法時(shí)應(yīng)禁止帶入個(gè)人的顯性偏見并努力識別出其中的顯性或隱性偏見,避免算法歧視,對于算法給出的方案與建議不要盲從,而應(yīng)當(dāng)三思而后行;另一方面,對于自主決策算法的可適用領(lǐng)域應(yīng)當(dāng)謹(jǐn)慎選擇,對于那些可能直接造成歧視的領(lǐng)域應(yīng)當(dāng)盡量避免使用自主決策算法,至少在使用自主決策算法時(shí)應(yīng)確保具有相應(yīng)的監(jiān)督機(jī)制和補(bǔ)償機(jī)制。具體來說,一個(gè)可能的區(qū)分在于:算法的開發(fā)者應(yīng)當(dāng)為由算法本身導(dǎo)致的結(jié)構(gòu)性的算法歧視負(fù)責(zé),即因設(shè)計(jì)的不合理導(dǎo)致的算法歧視應(yīng)當(dāng)由算法的開發(fā)者負(fù)責(zé),無論是其出于故意的選擇還是無意的偏見;算法的上層使用者(例如公司、政府部門)應(yīng)當(dāng)為宏觀層面的結(jié)構(gòu)性的算法歧視負(fù)責(zé),即在不應(yīng)當(dāng)使用自主決策算法的領(lǐng)域使用自主決策算法或使用自主決策算法的同時(shí)沒有確保具有相應(yīng)的監(jiān)督機(jī)制和補(bǔ)償機(jī)制所導(dǎo)致的算法歧視應(yīng)當(dāng)由算法的上層使用者負(fù)責(zé);算法的下層使用者,即每一個(gè)使用算法的理性人,應(yīng)當(dāng)為由明顯錯(cuò)誤的消極的算法偏見導(dǎo)致的算法歧視負(fù)責(zé),這是因?yàn)槊黠@錯(cuò)誤的消極的算法偏見直接轉(zhuǎn)化為歧視行為是由算法的下層使用者造成的,因?yàn)樗麄儧]有對這種明顯錯(cuò)誤的消極的偏見進(jìn)行理性人在道德領(lǐng)域所應(yīng)當(dāng)進(jìn)行的反思。

猜你喜歡
開發(fā)者決策算法
哪種算法簡便
Travellng thg World Full—time for Rree
決策大數(shù)據(jù)
決策大數(shù)據(jù)
決策大數(shù)據(jù)
諸葛亮隆中決策
算法框圖的補(bǔ)全
算法初步知識盤點(diǎn)
“85后”高學(xué)歷男性成為APP開發(fā)新生主力軍
16%游戲開發(fā)者看好VR
元谋县| 宣化县| 肥乡县| 阿拉善右旗| 阿克苏市| 延边| 都江堰市| 惠安县| 定边县| 普陀区| 革吉县| 隆化县| 舒城县| 新泰市| 许昌市| 谷城县| 汉川市| 浦江县| 永泰县| 潮州市| 长沙市| 桐乡市| 怀安县| 广西| 随州市| 闵行区| 晋州市| 祁东县| 山西省| 洛扎县| 随州市| 环江| 大足县| 侯马市| 林州市| 兰州市| 柳林县| 磴口县| 盐池县| 马关县| 贞丰县|