国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能時代算法性別歧視的類型界分與公平治理*

2022-06-08 00:43宋雨鑫
婦女研究論叢 2022年3期
關(guān)鍵詞:算法

張 欣 宋雨鑫

(1.2.對外經(jīng)濟貿(mào)易大學(xué) 法學(xué)院,北京100029)

一、問題的提出

技術(shù)的進步不斷重塑人類生存的社會環(huán)境。如今,依托算法實施的自動化決策已被廣泛應(yīng)用于司法裁判、就業(yè)招聘、金融審查、醫(yī)療服務(wù)等多元場景之中,人類快速邁入全息、全時的算法社會。算法通過分類、排序、過濾、搜索、推薦、預(yù)測、評估等技術(shù)組合,直接塑造人們被對待的方式和預(yù)期機會,并早已超越了單純的技術(shù)應(yīng)用,躍遷成為新型社會權(quán)力[1](P 1)。在廣為流傳的“技術(shù)中立論”(1)這種普遍論調(diào)認(rèn)為,技術(shù)作為工具自身不存在價值,而是服務(wù)于使用者的目的,因此技術(shù)是“價值中立”的。技術(shù)也是制度中立、政治中立的,因此在資本主義社會中行之有效的技術(shù)將在社會主義社會同樣有效。參見[美]安德魯·芬伯格著,韓連慶、曹觀法譯:《技術(shù)批判理論》,北京:北京大學(xué)出版社,2005年,第4-5頁。包裝下,算法被看做是一種客觀、中立、高效的決策技術(shù),因而無需證明其決策的正當(dāng)性和合理性。但實踐中越來越多的案例表明,看似“技術(shù)中立”的算法在輔助或替代人類決策時屢現(xiàn)“性別歧視”,在信息資源、物質(zhì)資源和機會分配中不恰當(dāng)?shù)仄蚰行?,強化性別刻板印象。女性的數(shù)字化生存面臨著廣泛而系統(tǒng)的算法性別歧視風(fēng)險。這種歧視類型不僅常被隱藏在代碼之中,難以通過傳統(tǒng)技術(shù)和制度手段偵測、識別,還可能伴隨算法的擴展應(yīng)用被不斷復(fù)刻并串聯(lián)蔓延至其他場景之中,具有極強的跨域性和“結(jié)構(gòu)鎖定性”。面對這一現(xiàn)實挑戰(zhàn),技術(shù)專家們在“技術(shù)解決主義”路徑之下曾提出一系列技術(shù)緩解措施。例如,通過代碼技術(shù)甄別歧視因素以及創(chuàng)建公平機器學(xué)習(xí)等方法。但這一路徑將算法視為相對獨立的技術(shù)要素,忽視了算法開發(fā)、設(shè)計及運行背后的具體社會情境。因此,僅依靠“技術(shù)解決主義”的治理路徑勢必難以招架和有效應(yīng)對在技術(shù)與社會互動過程中形成的算法歧視風(fēng)險[2](PP 640-646)。為全面探究女性數(shù)字化困境的成因及應(yīng)對機制,本文采用“技術(shù)—社會”視角,秉持算法在社會中誕生、運行,與其他要素耦合互動的核心機理,以算法性別歧視為分析對象,全景式展現(xiàn)“技術(shù)—社會”視角下算法性別歧視的類型界分和形成機制,通過提出系統(tǒng)可行的應(yīng)對方案,為促進人工智能時代的性別平等和社會公正提供理論基礎(chǔ)。

二、算法性別歧視的概念界定與類型界分

(一)算法性別歧視的概念界定

在對算法性別歧視進行類型界分之前,首先需要澄清算法性別歧視和算法偏見的概念。中外有關(guān)算法偏見、算法歧視的討論常對二者加以混用,未能充分厘清“偏見”在不同語境中的內(nèi)涵差異,進而影響了論證準(zhǔn)確性和分析連貫性。算法偏見(algorithmic bias)具有技術(shù)和社會雙重面向。在社會科學(xué)語境中,算法偏見與算法應(yīng)用引發(fā)的不利社會后果密切相連。但在技術(shù)語境下,算法偏見意味著對一定統(tǒng)計標(biāo)準(zhǔn)的偏離[3](P 92)。事實上,為獲得訓(xùn)練數(shù)據(jù)或者自然語言中的某種統(tǒng)計模式,一定程度的偏差是必要的,否則算法便無法“習(xí)得”分類規(guī)律并發(fā)現(xiàn)實例中的差異[4](P 72)。由此可見,算法偏見本身并不一定導(dǎo)致歧視性后果,是否引致歧視還需結(jié)合算法運行的特定任務(wù)、實際部署環(huán)境等社會因素進行綜合判斷。算法歧視(algorithmic discrimination)則是具有規(guī)范意義的概念,需要結(jié)合物理世界中的“歧視”概念擴展延伸。具體而言,算法歧視是指依據(jù)算法決策對受保護的個體、群體實施的直接歧視行為或間接歧視行為,其中既包括對特定屬性個體、群體實施法律所禁止的差別對待,也包括表面上看似中立的規(guī)則、標(biāo)準(zhǔn)和行為對受保護屬性個體、群體造成的差別影響[3](PP 90-91)。此類受保護特征多以列舉形式規(guī)定在各國反歧視法律規(guī)范中,包括性別、種族、民族、殘障情況、性取向、宗教或信仰、年齡等(2)如《歐盟運行條約》(Treaty on the Functioning of the European Union,TFEU)第19條中將受保護特征規(guī)定為性別、種族或民族、宗教或信仰、殘障、年齡、性取向六種。美國《民權(quán)法案》第七章禁止基于種族、膚色、宗教、性別或國籍的就業(yè)歧視。中國《就業(yè)促進法》第三條規(guī)定:“勞動者就業(yè),不因民族、種族、性別、宗教信仰等不同而受歧視。”。

與算法偏見和算法歧視相互關(guān)聯(lián),算法性別歧視屬于算法歧視的下位概念(見圖1)。隨著性別平等認(rèn)識及實踐的發(fā)展,理論界對性別歧視的認(rèn)知從對女性的歧視擴展到對男性的“反向歧視”以及對跨性別者的歧視[5](P 115)。鑒于本文聚焦女性數(shù)字化生存困境,此處將算法性別歧視限定為對女性個體和群體的歧視現(xiàn)象。聯(lián)合國《消除對婦女一切形式歧視公約》第1條規(guī)定,對婦女的歧視是指“基于性別而作的任何區(qū)別、排斥或限制,其影響或其目的均足以妨礙或否認(rèn)婦女不論已婚未婚在男女平等的基礎(chǔ)上認(rèn)識、享有或行使在政治、經(jīng)濟、社會、文化、公民或任何其他方面的人權(quán)和基本自由”。結(jié)合算法歧視的一般特征,本文將算法性別歧視界定為在算法開發(fā)、訓(xùn)練或應(yīng)用中以顯性或者隱性方式給女性個體或群體帶來的不合理差別對待和不利影響。尤其需要注意的是,與傳統(tǒng)性別歧視相比,算法性別歧視并不一定以性別為基準(zhǔn)。由于大數(shù)據(jù)分析技術(shù)的日益成熟,在排除性別參數(shù)后,以系統(tǒng)觀察、衍生或推斷的關(guān)聯(lián)數(shù)據(jù)來實施性別歧視是完全可行的。同時,基于種族、民族、殘障情況、性取向、宗教或者信仰以及年齡等元素的歧視亦可能附隨性地產(chǎn)生對女性個體亦或群體的歧視效果。因此,算法性別歧視并非僅是算法和性別歧視的簡單堆疊,而是呈現(xiàn)出新的類型樣態(tài)及歧視特征。

圖1 算法偏見、算法歧視與算法性別歧視

(二)算法性別歧視的類型界分

傳統(tǒng)的反歧視理論從結(jié)果導(dǎo)向出發(fā)將歧視劃分為直接歧視行為和間接歧視行為兩種代表類型。這一類型界分的邏輯是從結(jié)果反推行為的正當(dāng)性和合理性。但算法技術(shù)應(yīng)用帶來的歧視樣態(tài)隱秘多元,若僅以結(jié)果為據(jù)進行類型界分難以全面?zhèn)蓽y、準(zhǔn)確識別風(fēng)險來源,進而影響規(guī)制策略和治理框架的精準(zhǔn)構(gòu)建。為此,從“技術(shù)—社會”互動視角結(jié)合算法應(yīng)用實踐對算法性別歧視加以類型化構(gòu)建具有理論和實踐層面的雙重意義。

回顧既有文獻,學(xué)界已出現(xiàn)針對算法偏見、算法歧視等上位概念的類型化嘗試。例如,巴蒂亞·弗萊德曼(Batya Friedman)和海倫·尼森鮑姆(Helen Nissenbaum)以時間和社會技術(shù)性因素為標(biāo)準(zhǔn),提出先行偏見、技術(shù)偏見和浮現(xiàn)偏見三種計算偏見類型[6](PP 333-335)。亦有國內(nèi)學(xué)者以歧視效果為標(biāo)準(zhǔn),提出復(fù)現(xiàn)型歧視、加劇型歧視和新增型歧視三種類型[7](PP 120-121)。這些類型化的思考為本文探求算法性別歧視的類型界分具有啟發(fā)意義,但也存在劃分基礎(chǔ)規(guī)范性不足、顆粒度過大、精準(zhǔn)度欠缺等問題?;诩夹g(shù)系統(tǒng)與社會系統(tǒng)的互動,結(jié)合算法性別歧視的產(chǎn)生機理和形成規(guī)律,本文將算法性別歧視劃分為以下三種類型。

1.鏡像同構(gòu)型

鏡像同構(gòu)型是指社會中既存的性別認(rèn)知偏見、結(jié)構(gòu)性性別不平等現(xiàn)象被注入算法設(shè)計、學(xué)習(xí)和訓(xùn)練過程,通過直接或者間接方式加以復(fù)現(xiàn)的算法性別歧視類型。這一類型主要包括直接復(fù)現(xiàn)型和間接復(fù)現(xiàn)型兩個子類。

(1)直接復(fù)現(xiàn)型

直接復(fù)現(xiàn)型是最為常見且易于識別的算法性別歧視類型。首先,這一歧視類型同既有社會中存在的性別偏見、性別刻板印象高度關(guān)聯(lián),通過人為設(shè)計和機器自主學(xué)習(xí)直接被算法學(xué)習(xí)、吸納并作為決策依據(jù)輸出。例如,算法開發(fā)設(shè)計階段因涉及性別敏感參數(shù)可能導(dǎo)致算法性別歧視現(xiàn)象。亞馬遜開發(fā)的智能招聘系統(tǒng)就曾因未排除性別參數(shù),使得算法在簡歷評估環(huán)節(jié)主動下調(diào)含有“女性”“女子學(xué)院”等關(guān)鍵詞的簡歷評分[8]。其次,機器學(xué)習(xí)過程還可能習(xí)得物理世界中暗含的刻板印象和性別偏見。例如,谷歌翻譯軟件被指出將無明確性別指稱的土耳其語短語“他/她是醫(yī)生”翻譯成男性形式,而“他/她是護士”被翻譯成女性形式[9]。再次,開發(fā)設(shè)計人員還可能有意或無意地通過問題設(shè)計、模型訓(xùn)練、模型測試等人工干預(yù)階段注入性別偏見從而生成歧視性效果的算法決策。根據(jù)2021年世界經(jīng)濟論壇發(fā)布的《全球性別差距報告》,在數(shù)據(jù)與人工智能領(lǐng)域,女性從業(yè)人數(shù)僅占32%[10](PP 59-61)。大型科技企業(yè)內(nèi)部的性別比更為懸殊,臉書的女性人工智能研究人員占15%,而谷歌僅占10%[11](P 4)。這使得人工智能的研發(fā)工作表現(xiàn)為男性主導(dǎo),在算法模型設(shè)計、運行和應(yīng)用階段均存在“男性凝視”,性別偏見嵌入算法開發(fā)設(shè)計難以避免。

(2)間接復(fù)現(xiàn)型

間接復(fù)現(xiàn)型是指模型設(shè)計中已經(jīng)剔除性別敏感參數(shù)或已采取性別中立措施,但機器學(xué)習(xí)模型仍可通過替代性變量將性別歧視間接復(fù)現(xiàn)的歧視類型[12]。這些替代性變量包括與性別直接相關(guān)的信息,如與女性直接相關(guān)的懷孕、母嬰等信息數(shù)據(jù)[13](P 63)。例如,當(dāng)企業(yè)試圖利用算法篩選最具銷售潛力的員工時,即使未被提供與性別直接有關(guān)的信息,算法仍可能在懷孕與低銷售額之間建立關(guān)聯(lián)。因為懷孕、分娩使得女性員工更容易因請假而在銷售額排名中處于劣勢[14](P 4)。此外,替代性變量還包括同性別存在因果關(guān)聯(lián)的信息、數(shù)據(jù)。例如,消費者的某些消費偏好存在明顯性別差異,口紅消費同女性高度相關(guān),而香煙消費同男性高度相關(guān)。算法可以基于消費行為數(shù)據(jù)實現(xiàn)對用戶的性別畫像。這些直接相關(guān)或因果相關(guān)的因素和變量可以通過常識判斷、邏輯推理探查予以甄別,并在一定程度上通過禁止性規(guī)定予以防范(3)針對這一類代理歧視,域外反歧視法實踐已存在相關(guān)規(guī)范規(guī)制。典型如美國《遺傳信息非歧視法案》(Genetic Information Nondiscrimination Act,GINA)禁止雇主、保險公司使用個人基因測試結(jié)果,也禁止通過明顯的代理信息獲取個人遺傳信息,如家族成員的基因測試結(jié)果、家族病史,使用基因服務(wù)信息如基因咨詢信息、基因教育信息等。。但因算法模型架構(gòu)復(fù)雜,運行自主,算法決策輸出通?;诖罅繌?fù)雜變量和因素。即使禁止算法開發(fā)者使用性別敏感參數(shù)及顯著相關(guān)因素,機器學(xué)習(xí)仍然可以通過視頻網(wǎng)站的搜索記錄、觀看歷史,用戶的語言特征以及群組互動數(shù)據(jù)等綜合推測、識別用戶的性別特征[12](P 1304)。故僅通過控制性別敏感參數(shù)和明顯相關(guān)的代理變量難以達到有效禁止的效果。

2.耦合互動型

算法在訓(xùn)練學(xué)習(xí)以及部署應(yīng)用的過程中體現(xiàn)出極強的動態(tài)性和互動性。在部署和應(yīng)用階段,勢必與其他技術(shù)系統(tǒng)或者社會系統(tǒng)產(chǎn)生關(guān)聯(lián)和互動,由此耦合共振導(dǎo)致算法性別歧視。這一類型主要體現(xiàn)為以下兩個子類。

(1)技術(shù)系統(tǒng)互動型

這一類型產(chǎn)生于技術(shù)系統(tǒng)內(nèi)部,表現(xiàn)為訓(xùn)練測試中本無偏見的算法同嵌入偏見的算法互動產(chǎn)生耦合歧視。例如,在圖像識別領(lǐng)域頗具盛名的大型圖片數(shù)據(jù)集Tiny Images和Image Net就因存在種族歧視、性別歧視、色情內(nèi)容等多項危險標(biāo)簽而遭遇下架處理[15]。這些危險標(biāo)簽并非來自人工數(shù)據(jù)標(biāo)注環(huán)節(jié),而是源自一款被廣泛應(yīng)用于數(shù)據(jù)集收集和標(biāo)注過程的語詞標(biāo)注軟件WordNet。該軟件存在的大量歧視性語詞分類,通過自動標(biāo)注環(huán)節(jié)被圖片數(shù)據(jù)集吸納,進而引發(fā)后者在標(biāo)記環(huán)節(jié)的性別偏見。值得關(guān)注的是,該研究還指出國內(nèi)用于機器學(xué)習(xí)訓(xùn)練的開源圖片數(shù)據(jù)集亦是“根據(jù)WordNet提取的語義信息構(gòu)建出統(tǒng)一詞典的語義層級”[16](P 172684),故可能存在歧視性語詞標(biāo)簽,其中包括對女性的歧視性標(biāo)簽[17](P 1538)。這一發(fā)現(xiàn)也表明,面對紛繁復(fù)雜、跨域蔓延的算法性別歧視,中國女性用戶亦難幸免。相關(guān)的研究議程和公眾議程應(yīng)當(dāng)對這一主題保持充分的預(yù)警和關(guān)注(4)雖然國內(nèi)較少出現(xiàn)有關(guān)算法性別歧視的新聞報道,但作為人工智能研發(fā)大國,中國在諸多領(lǐng)域已實際部署算法決策?!洞龠M人工智能算法性別平等報告(2021)》指出中國在搜索引擎、媒體傳播、智能招聘、電商消費等領(lǐng)域同樣存在算法性別歧視。參見《促進人工智能算法性別平等報告(2021》,瑪娜數(shù)據(jù)基金會微信公眾號,2021-09-28,https://mp.weixin.qq.com/s/jMsmtrd2_nhSLq110bkbXA。。

(2)社會系統(tǒng)互動型

即使算法在訓(xùn)練測試階段表現(xiàn)良好,但在部署和應(yīng)用的過程中還可能因為非預(yù)期的群體、目的、環(huán)境互動產(chǎn)生歧視性后果。這一歧視類型同弗萊德曼和尼森鮑姆分類中的“浮現(xiàn)偏見”機理相似,屬于后發(fā)型歧視風(fēng)險。例如,微軟研發(fā)的聊天助手Tay僅上線一天就因部分Twitter用戶惡意調(diào)教自主學(xué)會發(fā)布恐怖主義、種族主義、性別歧視等言論而被迫下架[18]。在數(shù)字時代,網(wǎng)絡(luò)運行遵循“趨勢放大法則”(5)荷蘭學(xué)者簡·范·迪克(Jan Van Dijk)認(rèn)為,網(wǎng)絡(luò)結(jié)構(gòu)存在七大法則,其中之一是“趨勢放大法則”。該法則是指網(wǎng)絡(luò)是有機的關(guān)系結(jié)構(gòu),與已存的社會和結(jié)構(gòu)傾向相適應(yīng),基于通訊信息技術(shù)的網(wǎng)絡(luò)和計算機被使用時,它們也作為強化工具被使用。在這一法則作用下,社會既存的結(jié)構(gòu)性不平等將被強化,由此出現(xiàn)“數(shù)據(jù)鴻溝”。參見[荷]簡·范·迪克著,蔡靜譯:《網(wǎng)絡(luò)社會(第三版)》,北京:清華大學(xué)出版社,2020年,第48-49頁。。信息技術(shù)的使用固化了既存的社會結(jié)構(gòu),女性面臨巨大的“數(shù)字性別鴻溝”。相當(dāng)一部分低收入、數(shù)字資源匱乏、數(shù)據(jù)表現(xiàn)不活躍的女性無法在數(shù)據(jù)集中得到體現(xiàn),這一特征在三維物理空間中表現(xiàn)為信息數(shù)據(jù)地理分布的高度不均衡[19](P 177)。以圖片數(shù)據(jù)為例,大型圖片數(shù)據(jù)庫Image Net中超過45%的圖片數(shù)據(jù)來源于人口僅占世界人口4%的美國。相比之下,作為世界人口大國的中國和印度盡管占世界人口的36%,但二者數(shù)據(jù)相加僅占Image Net數(shù)據(jù)總量的3%。地理多樣性的缺乏使得算法能夠?qū)⒚绹履锏恼掌瑯?biāo)記為“新娘”“禮服”“女人”“婚禮”,卻將北印度新娘的照片標(biāo)記為“表演藝術(shù)”和“服裝”[20](PP 3-5)。

由此可見,算法訓(xùn)練使用的數(shù)據(jù)集即使樣本總量龐大,卻仍是現(xiàn)實世界不充分、不完全的數(shù)字化表達,呈現(xiàn)的僅是數(shù)字資源豐富、線上表現(xiàn)活躍、代表性充足的群體特征。即使算法在模擬測試中表現(xiàn)良好,也可能呈現(xiàn)過擬合狀態(tài),一旦被部署到動態(tài)、多變的社會環(huán)境中,仍然會產(chǎn)生超出設(shè)計者預(yù)期的不利影響。以智能醫(yī)療系統(tǒng)的開發(fā)為例,歷史上大部分醫(yī)藥開發(fā)實驗均忽略了對雌性實驗動物和女性受試者的研究[21](PP 60-65)。直到1993年,美國食品藥品監(jiān)督管理局才取消對女性參加臨床實驗的限制。研究人員通常使用男性作為女性的代理人,很少按照生理性別和社會性別分析或報告實驗結(jié)果,臨床指南亦經(jīng)常忽略性別差異[22]。這使得醫(yī)學(xué)數(shù)據(jù)整體上以男性病理特征為主,忽視了病癥表現(xiàn)、藥物反應(yīng)的性別差異[23](PP 36-38)?;谶@一數(shù)據(jù)來源開發(fā)的智能醫(yī)療系統(tǒng)也可能因為無法識別基于性別的病癥差異而導(dǎo)致診斷結(jié)果偏差,對女性群體的健康乃至生命產(chǎn)生不利影響。

3.關(guān)聯(lián)交叉型

算法應(yīng)用多元復(fù)雜,體現(xiàn)出極強的遷移擴展能力。其在實踐中可能將一些原本邊緣化、交叉化的傳統(tǒng)歧視現(xiàn)象聚焦放大,呈現(xiàn)出隱秘和復(fù)雜的歧視面向。伴隨著算力和數(shù)據(jù)集構(gòu)建技術(shù)的不斷成熟,算法模型可以通過構(gòu)建復(fù)雜且交互的變量關(guān)系拼湊出針對個體的用戶畫像。這些用戶畫像基于多重用戶標(biāo)簽,可能引發(fā)跨越多個受保護特征的交叉歧視現(xiàn)象和跨越多個受保護主體的關(guān)聯(lián)歧視現(xiàn)象。就交叉歧視而言,由于任一個體可能在算法模型中被分類為多個維度和多項標(biāo)簽,因而可能某一設(shè)計并非特意針對女性實施歧視,但由于女性這一性別特征恰好嵌入在其他屬性特征之下,故附隨連帶性地處于不利歧視地位。例如,針對殘障或者少數(shù)族裔的歧視可能交叉附隨性地對女性群體或者個人產(chǎn)生歧視性效果。再如,一項對面部識別算法進行公平性評估的研究發(fā)現(xiàn),因樣本數(shù)據(jù)集的多樣性不足,算法對膚色較深的群體面部識別率較低,對淺膚色群體的識別率較高,而在前者之中,膚色較深的青年女性和女性嬰兒的識別率最低[24](P 7)。由此可見,算法性別歧視可能跨越多個受保護特征,致使女性交叉附隨性地遭到歧視。但面對這一歧視類型,現(xiàn)有反歧視法尚難有效回應(yīng),仍然固化于針對單一受保護特征的歧視展開審查。例如,歐盟法院在代表性的Parris案中就拒絕認(rèn)定基于多個受保護特征可能組合形成新的歧視類型(6)Judgment of 24 November 2016,David L.Parris v.Trinity College Dublin and Others,C-443/15,EU:C:2016:897,[80].。

在交叉歧視之外,基于用戶畫像的算法決策還可能突破受保護特征并遷移擴展至與受保護特征相關(guān)聯(lián)的群體或個人,從而導(dǎo)致關(guān)聯(lián)歧視[25](PP 371-375)。這一歧視類型源自歐洲反歧視法實踐,在歐盟法院認(rèn)定直接關(guān)聯(lián)歧視的Coleman案中,當(dāng)事人就因其殘障子女而遭受歧視(7)歐盟通過反歧視法實踐確立直接關(guān)聯(lián)歧視和間接關(guān)聯(lián)歧視兩種類型。直接關(guān)聯(lián)歧視通過Coleman案確立,參見Judgment of 17 July 2008,S.Coleman v.Attridge Law and Steve Law C-303/06 EU:C:2008:415;間接關(guān)聯(lián)歧視通過Chez案確立,參見Judgment of 16 July 2015,“CHEZ Razpredelenie Bulgaria” AD v.Komisia za Zashtita ot Diskriminatsia C-83/14 EU:C:2015:480。。算法決策場景下,關(guān)聯(lián)歧視多發(fā)生于個性化推薦領(lǐng)域,已發(fā)生的案例包括訪問招聘網(wǎng)站時谷歌多向標(biāo)簽為男性的用戶推薦高薪廣告[26](PP 14-15),而推特、臉書等平臺的推薦算法被指出傾向?qū)δ行杂脩敉扑]科技、工程和數(shù)學(xué)類職位的信息[27](PP 2966-2981)。在此情況下,當(dāng)算法不當(dāng)使用推斷衍生數(shù)據(jù)將用戶貼上假想標(biāo)簽,就可能導(dǎo)致被錯誤歸類為女性的用戶關(guān)聯(lián)性地遭受歧視性決策,從而被不當(dāng)限制、排除有利信息和潛在獲利機會[13](P 68)。

上述算法性別歧視類型一定程度上突破了現(xiàn)有規(guī)范體系中的歧視分類范式,試圖以技術(shù)和社會耦合互動的視角,凝練算法決策背景下性別歧視可能出現(xiàn)的風(fēng)險源頭和特征表現(xiàn)。從三種類型的關(guān)系看,鏡像復(fù)現(xiàn)型歧視風(fēng)險產(chǎn)生于算法開發(fā)設(shè)計環(huán)節(jié),具有可預(yù)期性,可規(guī)制性程度較高,可通過事前規(guī)制的方式予以偵測、識別和消除。耦合互動型歧視風(fēng)險既可能來自技術(shù)系統(tǒng)內(nèi)部,也可能源自社會系統(tǒng)和制度系統(tǒng)[28](PP 6-8)。這些源自社會歷史性、系統(tǒng)性的偏見可能以歧視性語詞分類、訓(xùn)練數(shù)據(jù)集等方式進入技術(shù)開發(fā)環(huán)節(jié),也可能以其他非預(yù)期的方式滲透至技術(shù)模型之中,因而具有突發(fā)性和偶然性。與之相對的治理措施也更為復(fù)雜,難以僅通過技術(shù)手段或者法律手段予以矯正。與前兩種類型相比,關(guān)聯(lián)交叉型歧視因隱秘性、復(fù)雜性凸顯,現(xiàn)有以單一受保護特征為軸心的法律審查方案難以及時作出因應(yīng)性調(diào)整,應(yīng)對乏力。

相較于傳統(tǒng)歧視行為,算法決策帶來的性別歧視類型具有高度隱蔽性、系統(tǒng)性和反復(fù)性。有意或無意的性別偏見經(jīng)代碼轉(zhuǎn)譯后成為形式上被“客觀中立”表達的各種特征變量。困在算法系統(tǒng)之中的女性群體不明機理,難以判定,無法尋求有效救濟。而算法技術(shù)特有的“正向反饋回路”會無限延續(xù)現(xiàn)有分類,其擴展遷移能力又會進一步將性別歧視彌散、串聯(lián)至其他社會領(lǐng)域,最終引發(fā)女性群體弱勢地位被“結(jié)構(gòu)性鎖定”的社會效果。

二、算法性別歧視的形成機制

上述三種算法性別歧視類型雖有差異,但均根植于技術(shù)的內(nèi)生風(fēng)險與治理的外在缺憾。具體而言,正是算法技術(shù)、反歧視規(guī)范以及治理生態(tài)三者共振,為算法性別歧視的產(chǎn)生和落地提供了土壤。

(一)算法技術(shù)社會化應(yīng)用的內(nèi)生風(fēng)險

一個典型的算法從開發(fā)到部署需要經(jīng)歷提出問題、數(shù)據(jù)處理、數(shù)據(jù)集構(gòu)建、模型設(shè)計、模型訓(xùn)練、模型測試、部署應(yīng)用等多項步驟,可將其概括為預(yù)開發(fā)、開發(fā)設(shè)計和實際部署三大環(huán)節(jié)。從算法運行全生命周期的視角來看,每個環(huán)節(jié)均存在算法性別倫理失范的風(fēng)險[29](PP 32-33)。首先,預(yù)開發(fā)階段需要確定算法實現(xiàn)目的、技術(shù)解決方案及潛在影響等議題,對任務(wù)的描述、技術(shù)方案及數(shù)據(jù)集的選擇均可能映射出對個人和群體的性別偏見以及系統(tǒng)性的社會偏見,進而對后期開發(fā)和部署產(chǎn)生不利影響[28](P 13)。其次,在開發(fā)設(shè)計環(huán)節(jié),若數(shù)據(jù)處理難以有效識別、剔除數(shù)據(jù)集中已存在的偏見,可能在模型訓(xùn)練環(huán)節(jié)對其不當(dāng)強化。再次,數(shù)據(jù)標(biāo)注環(huán)節(jié)也可能人為地注入新的偏見。目前,數(shù)據(jù)標(biāo)注環(huán)節(jié)普遍采用人工眾包方式展開標(biāo)注,因技術(shù)含量較低,被分包給眾多文化水平有限、社會閱歷單一的群體。數(shù)據(jù)量大、重復(fù)性勞動、時間緊迫、審核不嚴(yán)等問題導(dǎo)致標(biāo)注質(zhì)量參差不齊[30](P 139),為個體層面的偏見注入提供可乘之機。算法模型自身也可能導(dǎo)致性別偏見。為最大化提升算法預(yù)測的準(zhǔn)確率,設(shè)計者可能會對訓(xùn)練數(shù)據(jù)集中某一出現(xiàn)頻率更高的特定群體進行技術(shù)優(yōu)化,從而在訓(xùn)練數(shù)據(jù)環(huán)節(jié)造成群體差異[31]。由此可見,在算法開發(fā)、測試、應(yīng)用的全流程環(huán)節(jié)均可能蘊含算法性別歧視風(fēng)險。

從技術(shù)架構(gòu)而言,性別歧視風(fēng)險的產(chǎn)生還源自于類型化的認(rèn)識論和方法論。人工智能以人類思維為映射基礎(chǔ),需要以分類、比較等方法為載體通過類型化認(rèn)知把握事物的本質(zhì)及聯(lián)系。例如,以區(qū)分認(rèn)識客觀物體分類和命名作為研究基礎(chǔ),瑞典生物學(xué)家林奈由此建立了生物分類體系。在類似的認(rèn)知規(guī)律下,機器學(xué)習(xí)以分類、聚類為核心,算法基于歷史數(shù)據(jù)集形成具體類別,在此基礎(chǔ)上對新數(shù)據(jù)歸類,從而實現(xiàn)對新對象的特征預(yù)測[32](P 128)。如果說“相同的人同樣對待”是對平等原則的寫照,那么在類型化認(rèn)識論主導(dǎo)下的差異化和個性化研發(fā)則無疑潛伏著歧視風(fēng)險。作為輸入的訓(xùn)練數(shù)據(jù)集濃縮表達著過去的社會狀況;而作為輸出的決策結(jié)果卻面向未來[33](P 9)。算法決策的本質(zhì)成為以歷史演績預(yù)測未來的計算程式。在此機理之下,只要過往社會中存在著結(jié)構(gòu)上的不平等,則任何依賴歷史數(shù)據(jù)預(yù)測未來的算法總會將既存的不平等投射、延伸、擴展至未來[34](P 2251)。因此,算法決策社會化應(yīng)用過程中產(chǎn)生的歧視風(fēng)險是內(nèi)生的,在認(rèn)識論、方法論不發(fā)生根本改變的情況下極難得到根除。

(二)反性別歧視規(guī)范體系治理失效的制度風(fēng)險

當(dāng)然,內(nèi)生、固有的歧視風(fēng)險并不一定在現(xiàn)實中會轉(zhuǎn)化為實害的歧視結(jié)果。算法性別歧視發(fā)生的根源還在于反歧視規(guī)范體系的失效和滯后。傳統(tǒng)歧視行為的法律約束以禁止歧視原則統(tǒng)合,其約束機能遵循“違反義務(wù)—承擔(dān)責(zé)任”的邏輯進路。有學(xué)者將其總結(jié)為信息約束和責(zé)任機制兩大核心[35](PP 137-141)。信息約束機制在于限制可能實施歧視的行為主體獲取同性別相關(guān)的信息。例如,《勞動合同法》第8條將用人單位獲取勞動者信息的范圍限定在“與勞動合同直接相關(guān)的基本情況”,以不充分的信息獲取減少歧視發(fā)生的可能。責(zé)任機制則以禁止歧視義務(wù)為前提,通過在重點領(lǐng)域配置權(quán)利義務(wù)規(guī)范及相應(yīng)的責(zé)任規(guī)范予以統(tǒng)攝防范。面對層出不窮、變幻莫測的算法性別歧視,反歧視規(guī)范體系亟需進行制度性擴充,適時做出因應(yīng)性調(diào)整。就目前而言,反歧視規(guī)范體系的制度容量與制度實效均顯不足,在立法體系、機制設(shè)計以及治理實效層面面臨失效風(fēng)險。

1.傳統(tǒng)反歧視規(guī)范體系的射程不足

當(dāng)前,中國形成了以《憲法》為基礎(chǔ)、以《婦女權(quán)益保障法》為主體,包括國家各種單行法律法規(guī)、地方性法規(guī)和政府規(guī)章在內(nèi)的保障婦女權(quán)益和促進性別平等的法律體系[36]。以《憲法》第48條為基本原則引領(lǐng),《婦女權(quán)益保障法》為總章,反性別歧視的具體權(quán)利義務(wù)規(guī)范條款散見于《教育法》(第37條第2款)、《勞動法》(第12、13條)、《就業(yè)促進法》(第3、27條)、《農(nóng)村土地承包法》(第6條)等法律法規(guī)。整體而言,中國的反性別歧視條款零散、籠統(tǒng)、抽象,未能形成系統(tǒng)的立法體系和理論體系。其中宣示性、授權(quán)性和基礎(chǔ)性的規(guī)定缺少可供操作的義務(wù)性規(guī)范和處罰性規(guī)范[37](P 133),致使法律實效不彰。當(dāng)面對算法性別歧視時,更是應(yīng)對乏力。具體如下幾個方面。

首先,由于缺乏“對婦女歧視”的明確界定[38](P 30),致使性別歧視識別標(biāo)準(zhǔn)、救濟審查標(biāo)準(zhǔn)不明。盡管中國多部立法中明確提出“禁止歧視”“禁止性別歧視”等原則,但并無一部法律(8)此處“法律”是指依照《立法法》由全國人民代表大會及其常委會制定的規(guī)范文本。2012年深圳經(jīng)濟特區(qū)頒布《深圳經(jīng)濟特區(qū)性別平等促進條例》,其第5條規(guī)定,本條例所稱性別歧視,是指基于性別而作出的任何區(qū)別、排斥或者限制,其目的或者后果直接、間接地影響、侵害男女兩性平等權(quán)益的行為。但是,下列情形不構(gòu)成性別歧視:(一)為了加速實現(xiàn)男女兩性事實上的平等而采取的暫行特別措施;(二)基于生理原因或者因為懷孕、分娩和哺育,為了保護女性而采取的特別措施;(三)法律、法規(guī)規(guī)定的其他情形。《深圳經(jīng)濟特區(qū)性別平等促進條例》是中國首次明確對性別歧視作出界定的嘗試,但因立法效力層級較低,適用范圍有限,參考價值有限。明確對婦女歧視作出界定??晒﹨⒖嫉母拍顏碜灾袊炇鹁喖s的聯(lián)合國《消除對婦女一切形式歧視公約》第1條。性別歧視概念界定不明致使傳統(tǒng)反歧視法實踐中公權(quán)力部門無法有效、全面地識別、評估政策文件以及執(zhí)法行動中存在的性別歧視[39](P 58)。歧視定義的缺乏還使得性別歧視的司法審查標(biāo)準(zhǔn)和救濟標(biāo)準(zhǔn)模糊不明。法院雖通過司法實踐自行探索,初步確立了以直接歧視為審查對象的四要素標(biāo)準(zhǔn)[40],但對是否要求具有主觀故意的認(rèn)識不一,對間接歧視的認(rèn)定及審查標(biāo)準(zhǔn)付之闕如。人工智能時代,算法性別歧視因高度隱蔽、系統(tǒng)性等特征已更多從顯性、故意的直接歧視轉(zhuǎn)向相對隱形、中立的間接歧視。既有有限的司法審查標(biāo)準(zhǔn)將使得大量潛在的性別歧視案件脫逸于法律規(guī)制。此外,預(yù)防性別歧視也需要明確界定“對婦女的歧視”。即使要求科技企業(yè)履行禁止性別歧視的法律義務(wù),將性別平等的倫理原則注入算法設(shè)計之中,性別歧視概念的缺失導(dǎo)致企業(yè)倫理自律存在合規(guī)盲點,難以將規(guī)范要求準(zhǔn)確轉(zhuǎn)譯為代碼實踐。

其次,具體、有限的單行法分而調(diào)整,難以應(yīng)對廣泛存在的算法決策場景及其系統(tǒng)性后果。目前,中國反性別歧視的法律調(diào)整集中在有限的教育公平、就業(yè)公平等實踐領(lǐng)域,其立法思路旨在“通過單行立法嚴(yán)厲禁止對婦女可能出現(xiàn)的直接或間接歧視”(9)《中國根據(jù)公約第18條提交的第九次定期報告》,UN Doc CEDAW/C/CHN/9,第16段;轉(zhuǎn)引自戴瑞君:《法律如何界定對婦女的歧視》,《婦女研究論叢》2021年第5期。。但上文廣泛列舉的算法性別歧視案例表明,算法性別歧視的發(fā)生是廣泛而系統(tǒng)的,已從教育、就業(yè)等重點領(lǐng)域彌散蔓延至金融審查、醫(yī)療服務(wù)、搜索引擎等領(lǐng)域,更有普遍擴張、持續(xù)擴散的趨勢。由此在無單行法規(guī)制的諸多領(lǐng)域出現(xiàn)反歧視規(guī)范調(diào)整的“真空地帶”,法律漏洞的產(chǎn)生進一步加劇了算法性別歧視的發(fā)生風(fēng)險。

再次,算法歧視的隱蔽表征同技術(shù)架構(gòu)的復(fù)雜特征共同形成規(guī)范有效性挑戰(zhàn)。算法歧視高度隱蔽的表征同算法技術(shù)透明度不足的問題共同構(gòu)成算法“認(rèn)識黑箱”,不僅相關(guān)主體難以知情,即使察覺歧視存在也難以搜集證據(jù)尋求救濟。性別歧視的認(rèn)定需明確因果關(guān)系鏈條,與之相關(guān)的法律救濟需要劃定明確的責(zé)任分配標(biāo)準(zhǔn)。從算法開發(fā)到部署環(huán)節(jié)不僅參與主體眾多,技術(shù)性和社會性風(fēng)險交織貫穿,對算法性別歧視的認(rèn)定也往往呈現(xiàn)多因一果、責(zé)任競合等復(fù)雜形態(tài),故難以清晰劃定合理的因果關(guān)系及責(zé)任分配機制[13](PP 87-88)。依據(jù)傳統(tǒng)歧視行為審查標(biāo)準(zhǔn),當(dāng)事人實際負(fù)擔(dān)了難以承受的舉證證明責(zé)任。對于大部分法官而言,技術(shù)知識儲備不足進一步增加了全面理解、準(zhǔn)確審查、精準(zhǔn)判定因果關(guān)系的難度,與之伴隨的法律責(zé)任的認(rèn)定更是面臨重重障礙。這些有效性挑戰(zhàn)表明,面對事前性、規(guī)?;?、系統(tǒng)化的算法性別歧視,傳統(tǒng)反歧視法所采取的事后矯正保護路徑存在啟動滯后、成本高昂、績效不良等弊病,已無法實現(xiàn)對女性群體的有效保護,亟待體系和規(guī)范層面的結(jié)構(gòu)性調(diào)整。

2.算法治理規(guī)范體系的細(xì)粒度不足

當(dāng)前,世界范圍內(nèi)數(shù)據(jù)、算法及人工智能治理的法律規(guī)范體系尚在建立、完善階段,對算法治理的基礎(chǔ)問題尚有待探討,基本共識尚需凝聚。在此背景下各國相繼形成了一系列框架性、基礎(chǔ)性的算法治理規(guī)范。例如歐盟的《通用數(shù)據(jù)保護條例》,美國紐約市的《算法問責(zé)法》、加拿大的《自動化決策指令》以及中國的《個人信息保護法》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等。但總體來看,目前的立法重心尚未聚焦到具體、細(xì)分的算法應(yīng)用領(lǐng)域,更遑論對算法性別歧視現(xiàn)象施以專門規(guī)制。

隨著算法擴展式嵌入社會應(yīng)用,傳統(tǒng)反性別歧視框架中信息約束機制的對象已前置轉(zhuǎn)移到個人信息的使用者和處理者。中國的《個人信息保護法》即為個人信息的控制實體賦予一系列信息處理義務(wù),這些信息處理義務(wù)在對算法性別歧視的規(guī)制中實際承擔(dān)了信息約束的作用。由于人類基于性別的認(rèn)知活動和社會交往具有普遍性,性別雖然在特定場景之中具有受保護屬性,卻不宜將其與宗教信仰、生物識別等特殊類型的信息一道納入《個人信息保護法》第28條第1款規(guī)定的敏感個人信息范疇。雖然可以基于個人信息處理的一般性、原則性要求對個人信息處理者施加反歧視義務(wù)。例如,《個人信息保護法》第5條、第6條規(guī)定的合法、正當(dāng)、必要和誠信原則以及最小化要求,第24條第1款規(guī)定的決策透明要求和結(jié)果公平、公正要求。這些條文對個人信息控制者避免使用可能引致性別歧視的參數(shù)作為算法決策模型設(shè)計的義務(wù)的確提供了規(guī)則基礎(chǔ)[41](P 57)。但原則、籠統(tǒng)的規(guī)范表述抽象有余而操作性不足,難以為個人信息處理劃定清晰明確的必要性和正當(dāng)性邊界?;谀:谋砹x,個人信息處理者完全可以托于“必要、正當(dāng)”等理由將性別參數(shù)或者代理變量引入,從而在個人信息處理階段希冀通過信息約束規(guī)范阻卻性別歧視的機制設(shè)計瀕于失效。由此可見,當(dāng)前中國個人信息處理規(guī)定尚顯粗疏,難以有效靶定不當(dāng)?shù)男畔⑻幚硇袨椋率剐畔⑻幚碚哂忻撎右?guī)制的風(fēng)險。

就算法治理而言,中國雖已關(guān)注到實踐中屢發(fā)的算法歧視現(xiàn)象,并對媒體、公眾高度熱議的算法價格歧視行為作出明確規(guī)定,但立法議程尚未觸及算法性別歧視領(lǐng)域。面對算法價格歧視帶來的法律問題,中國監(jiān)管部門相繼出臺了《個人信息保護法》《在線旅游經(jīng)營服務(wù)管理暫行規(guī)定》《關(guān)于平臺經(jīng)濟領(lǐng)域的反壟斷指南》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等法律法規(guī),結(jié)合既有的《消費者權(quán)益保護法》《價格法》《電子商務(wù)法》《反壟斷法》等,針對主要涉及的消費者保護、公平競爭和數(shù)據(jù)保護等法律領(lǐng)域初步形成了“三位一體”的規(guī)制框架。但對于算法性別歧視,僅從不得設(shè)計違背倫理道德的算法模型,遵循算法公平公正透明等原則性視角予以規(guī)定?!痘ヂ?lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定(征求意見稿)》第10條中曾明確提出算法推薦模型“不得設(shè)置歧視性或者偏見性用戶標(biāo)簽”,但在正式生效的版本中卻將此禁止性義務(wù)規(guī)定刪除。因此,算法治理雖初具體系,但算法性別歧視尚未成為治理焦點,仍然處于算法治理的薄弱地帶。

3.軟法體系缺失致使科技企業(yè)自我規(guī)制激勵不足

因算法性別歧視的復(fù)雜性、普遍性和系統(tǒng)性,需要以事前預(yù)防、事中管理、事后歸責(zé)為核心構(gòu)建面向全生命周期的治理體系。這也促使算法的治理范式不可避免地從單一的以國家為中心、自上而下的“硬法”模式向基于多中心主體參與的,以協(xié)同性、動態(tài)性、分層性、復(fù)合型為特征的“軟法”治理體系轉(zhuǎn)變[42](PP 58-62)?;谲浄ǖ闹卫硎亲顝V泛也是最具生命力的治理實踐,其項下可以容納形式多元、手段靈活的治理工具體系,能對癥治理社會中根深蒂固的歷史性、系統(tǒng)性和制度性的性別偏見?;诖?,軟法體系對算法性別歧視的治理是不可或缺的。就人工智能領(lǐng)域而言,軟法治理包括人工智能開發(fā)、設(shè)計及運行的技術(shù)標(biāo)準(zhǔn),算法運行合規(guī)指南和推薦指引等。

但就目前的算法性別歧視治理實踐來看,與之匹配的軟法體系尚在形成發(fā)展之中。例如,國際標(biāo)準(zhǔn)化組織和國際電工委員會第一聯(lián)合委員會(ISO/IEC JTC 1)依托下屬的人工智能分委員會(SC 42)開展人工智能標(biāo)準(zhǔn)化工作,已發(fā)布《信息技術(shù)人工智能系統(tǒng)中的偏見和人工智能輔助決策》標(biāo)準(zhǔn)(ISO/IEC TR 24027∶2021)用以描述評估偏見的測量技術(shù)和方法,意在技術(shù)階段有效解決和處理與偏見相關(guān)的設(shè)計漏洞。電氣和電子工程師協(xié)會(IEEE)發(fā)布的《旨在推進人工智能和自治系統(tǒng)倫理設(shè)計的IEEE全球倡議書》中提出應(yīng)當(dāng)建立人工智能倫理設(shè)計原則和技術(shù)標(biāo)準(zhǔn)。中國電子工業(yè)標(biāo)準(zhǔn)化技術(shù)協(xié)會、中國計算機用戶協(xié)會、深圳市人工智能產(chǎn)業(yè)協(xié)會等行業(yè)協(xié)會對人工智能技術(shù)開發(fā)、風(fēng)險評估等標(biāo)準(zhǔn)研究也初具雛形[43](PP 15-25)。但整體而言,人工智能的標(biāo)準(zhǔn)化工作尚處于起步階段,對人工智能概念術(shù)語、可信賴框架、風(fēng)險評估、倫理安全原則等方面尚處研究、草擬階段,尚未形成通行的共識理念和行業(yè)規(guī)范[44](P 77)。技術(shù)標(biāo)準(zhǔn)的滯后不利于在開發(fā)早期嵌入性別平等的倫理和價值要求,限制了應(yīng)用和部署階段公平機器學(xué)習(xí)評估和認(rèn)證制度的有效落地,更難以在事后階段為算法性別歧視技術(shù)和產(chǎn)品構(gòu)建追溯和責(zé)任制度提供依據(jù)??傮w而言,軟法體系缺失致使科技企業(yè)自我規(guī)制激勵不足。雖然以微軟、臉書、谷歌為代表的科技巨頭積極設(shè)立倫理委員會(10)微軟于2018年成立了人工智能倫理委員會,該委員會由公司內(nèi)部高管組成,負(fù)責(zé)制定內(nèi)部政策,決定如何負(fù)責(zé)地處理出現(xiàn)的問題;谷歌旗下DeepMind公司設(shè)立了倫理和安全委員會。參見郭銳:《人工智能的倫理和治理》,北京:法律出版社,2020年,第194頁。臉書也考慮組建獨立的監(jiān)督委員會以應(yīng)對人工智能的倫理問題。參見Ciaccia,C.,and Carbone,C.,“Facebook Will Create Independent Oversight Committee to Deal with Content Issues”,https://www.foxnews.com/tech/facebook-will-create-independent-oversight-committee-to-deal-with-content-issues(last visited 1/5/2022)。,主動開發(fā)算法歧視甄別工具并開展企業(yè)內(nèi)部性別平等培訓(xùn)等措施,但這一自律做法尚未上升為行業(yè)通行實踐,僅依賴部分企業(yè)倫理自覺,不僅強制力不足,也難以應(yīng)對跨域串聯(lián)、隱蔽復(fù)雜的算法性別歧視風(fēng)險。

三、算法公平視閾下算法性別歧視的應(yīng)對方案

(一)有限、多維、演進的算法公平理念

上文有關(guān)算法性別歧視類型的種種分析表明,算法中立僅在極為有限的場景之中成立。在算法設(shè)計、開發(fā)、部署、運行等多個環(huán)節(jié)均嵌入了社會價值和主觀意圖,實質(zhì)演化為“以數(shù)學(xué)方式或者計算機代碼表達意見”的過程[45]。算法實際上成為了社會價值競爭的舞臺[46](P 16)。若沒有更高位階的社會價值嵌入開發(fā)環(huán)節(jié)并作為行動指南,技術(shù)研發(fā)者主觀存在的認(rèn)知偏見便會毫無阻礙地被編入代碼中。這一更高位階的社會價值就是算法公平。

目前,算法公平實踐局限于技術(shù)領(lǐng)域,旨在甄別、糾正自動化決策中出現(xiàn)的算法偏見,表現(xiàn)為探索反歧視規(guī)范的計算表達以及與之相關(guān)的數(shù)學(xué)、統(tǒng)計學(xué)衡量標(biāo)準(zhǔn)等[4](PP 98-99)。囿于技術(shù)領(lǐng)域的公平實踐僅注重算法公平的技術(shù)面向,而技術(shù)與社會多維互動,使得算法開發(fā)設(shè)計、運行部署的全過程實際上成為了社會運行的有機組成。算法應(yīng)用同社會價值實踐摩擦碰撞,塑造出相互嵌入、耦合聯(lián)動的公平價值空間[47](P 102)。就算法性別歧視治理而言,算法公平的價值實踐空間具有以下三重特征。

首先,算法公平具有有限性。算法公平價值的具體詮釋需要結(jié)合具體的社會情境,體現(xiàn)為一種給定限度的公平。算法性別歧視作為技術(shù)與社會互動的結(jié)果,根植于社會結(jié)構(gòu)中深層和隱形的性別不平等,即使采取積極行動力圖矯正不合理的社會結(jié)構(gòu),仍然可能面臨治理效果遲滯和失效的問題。因此,試圖在短期和中期內(nèi)達到徹底消除算法性別歧視的目標(biāo)是非理性的。立足既有的現(xiàn)實條件,算法性別歧視的公平治理是相對限度的治理。針對算法性別歧視的不同類型,科學(xué)、可行的治理目標(biāo)應(yīng)設(shè)定為在全面防范因算法應(yīng)用帶來新增和增強性別歧視的基礎(chǔ)上,緩解和救濟算法性別歧視帶來的社會影響。與之對應(yīng)的因應(yīng)方案應(yīng)當(dāng)通過識別、預(yù)警、過濾算法性別歧視以及緩解、消除、對抗其帶來的不利社會影響而設(shè)立。

其次,算法公平具有多維性。對應(yīng)于算法生命全周期的關(guān)鍵環(huán)節(jié),以事前、事中、事后環(huán)節(jié)為基礎(chǔ),算法公平可被拆解為三個具有可行性的目標(biāo)面向。一是預(yù)警目標(biāo)。無論何種歧視類型,均應(yīng)建立健全、科學(xué)、完備的歧視識別和預(yù)警機制作為治理算法性別歧視的前提條件。算法決策體現(xiàn)為一系列動態(tài)復(fù)雜的數(shù)據(jù)處理過程,每個環(huán)節(jié)均可能對數(shù)據(jù)主體產(chǎn)生潛在歧視風(fēng)險和不利影響。與日俱增的數(shù)據(jù)流動性又進一步提高了立法所面臨的挑戰(zhàn),僅依靠單點、局部突破的方式反而會凸顯法律手段的脆弱性。因此,從體系化視角尋求構(gòu)建系統(tǒng)的歧視識別、預(yù)警機制顯得日趨必要。這些行權(quán)配套機制可以保障女性群體和個體在算法部署的事前階段獲取必要信息,建立合理預(yù)期,提升對算法決策公平性的關(guān)注程度。二是消弭目標(biāo)。上文所述的算法性別歧視類型中,大部分歧視風(fēng)險具有可預(yù)期性、可規(guī)制性。因此,應(yīng)當(dāng)圍繞算法公平建立切實可行的歧視消弭機制。針對鏡像復(fù)現(xiàn)型歧視可以通過合理限制使用性別以及與性別有關(guān)敏感參數(shù)實現(xiàn)規(guī)制。針對耦合互動型歧視表現(xiàn)出的訓(xùn)練數(shù)據(jù)集代表性、包容性不足等問題,可以通過提升數(shù)據(jù)集質(zhì)量、測試甄別歧視等方式加以改進。而關(guān)聯(lián)交叉型歧視的治理則需借助反歧視規(guī)范內(nèi)容的擴展調(diào)整而實現(xiàn)。原則上,凡是能夠通過技術(shù)手段及法律手段得以消除的歧視風(fēng)險,均應(yīng)系統(tǒng)設(shè)置消弭機制,以最大化地排除其進入決策應(yīng)用的可能性。三是緩解目標(biāo)。這一目標(biāo)圍繞由歷史性、系統(tǒng)性、制度性偏見作為主要誘因的算法性別歧視類型設(shè)立,其中以耦合互動型歧視為主。由于社會層面根植的性別偏見、刻板印象等難以在短期內(nèi)徹底消除,因此,須圍繞算法公平在現(xiàn)有的制度約束層面建立次優(yōu)的風(fēng)險預(yù)防和影響緩解機制,以降低算法性別歧視的發(fā)生機率及不利影響。

再次,算法公平是動態(tài)演進的。算法公平的內(nèi)涵具有場景性。這與算法的動態(tài)分類特性密切相關(guān)。不同的算法基于目的和部署場景的差異會識別和強調(diào)不同的個體特征和偏好,而同一算法模型也可能因為數(shù)據(jù)集的動態(tài)變化而發(fā)生類型變遷[13](P 66)。此外,算法迭代的速度日益提升。當(dāng)前對算法規(guī)制的討論多聚焦于有監(jiān)督學(xué)習(xí),在數(shù)據(jù)標(biāo)注、模型測試等環(huán)節(jié)存在大量人工干預(yù)。當(dāng)算法發(fā)展到無監(jiān)督學(xué)習(xí)階段,伴隨著人為因素的銳減,算法公平治理方案需要及時作出因應(yīng)性調(diào)整。

最后,公平的倫理內(nèi)涵及規(guī)范內(nèi)容具有時代性。隨著時代的觀念認(rèn)知和倫理實踐變化,公平的內(nèi)涵和外延可能產(chǎn)生同步變遷。以性別歧視為例,對性別歧視的認(rèn)識已經(jīng)歷從基于形式平等的直接歧視向基于實質(zhì)平等的間接歧視擴展[48](PP 19-21),近年來更是出現(xiàn)交叉歧視、關(guān)聯(lián)歧視等全新類型。這表明算法公平的內(nèi)核是動態(tài)發(fā)展的。算法性別歧視的公平治理也不應(yīng)一蹴而就,而應(yīng)在持續(xù)評估、定期觀測的基礎(chǔ)上根據(jù)技術(shù)、社會的動態(tài)發(fā)展適時調(diào)整。

(二)算法性別歧視公平治理方案的構(gòu)建

在有限、多維、演進的算法公平視閾下,結(jié)合上文所述的算法性別歧視類型及形成機制,本文提出算法歧視風(fēng)險管理、反歧視規(guī)范體系結(jié)構(gòu)性擴容以及算法運營生態(tài)培育“三位一體”的治理方案。

1.算法全生命周期下的性別歧視風(fēng)險管理

面對全生命周期出現(xiàn)的算法性別歧視風(fēng)險,與之匹配的風(fēng)險管理制度也應(yīng)施以全流程、全要素、全周期設(shè)計,在性別歧視風(fēng)險引入、產(chǎn)生的各環(huán)節(jié)、各階段以多種制度安排管理、消除風(fēng)險。首先,最為基礎(chǔ)的“治理抓手”是算法技術(shù)標(biāo)準(zhǔn)。算法技術(shù)標(biāo)準(zhǔn)作為人工智能標(biāo)準(zhǔn)中的基礎(chǔ)類別兼具技術(shù)性、社會性和可通約性,能夠更為有效地創(chuàng)建、演繹和引導(dǎo)算法公平技術(shù)的有序穩(wěn)健發(fā)展[49](P 79)。為全面應(yīng)對算法性別歧視風(fēng)險,應(yīng)率先開發(fā)算法透明度、算法問責(zé)制和算法偏差為代表的技術(shù)標(biāo)準(zhǔn),將算法公平原則轉(zhuǎn)化為切實可行、易于操作的微觀規(guī)則,緩解技術(shù)保密、透明公開與算法問責(zé)之間的沖突和矛盾[50]。此外,還可借鑒美國國家標(biāo)準(zhǔn)與技術(shù)研究院的治理經(jīng)驗,以發(fā)布《邁向識別和管理人工智能偏見的標(biāo)準(zhǔn)》等研究報告的軟法形式為企業(yè)系統(tǒng)性構(gòu)建算法歧視風(fēng)險管理框架提供指引。總體來看,伴隨著標(biāo)準(zhǔn)化工作的推進與算法倫理治理的深入,未來算法倫理標(biāo)準(zhǔn)的制定將呈現(xiàn)為以一般性倫理標(biāo)準(zhǔn)為統(tǒng)領(lǐng),具體算法倫理標(biāo)準(zhǔn)貫穿算法應(yīng)用全領(lǐng)域、全行業(yè)的綜合性格局。

其次,應(yīng)當(dāng)重視算法偏見管理和評估工具對于算法性別歧視風(fēng)險管理的重要作用。算法具有極強的可塑性,既可以被用來固化性別偏見,也可因代碼的“可規(guī)制性”被形塑為甄別、消弭性別歧視風(fēng)險的有力工具。公平機器學(xué)習(xí)實踐就是致力于將性別平等的倫理價值嵌入算法運行的經(jīng)典代表[51](PP 12-22)。目前,國外科技巨頭主動嘗試開發(fā)偏見管理和評估工具,如谷歌、微軟、臉書等分別開發(fā)了AI Fairness、360 Toolkit、Fairlearn.py、Fairness Flow等偏見管理和評估工具,對科學(xué)高效地甄別、評估機器學(xué)習(xí)中的偏見和歧視起到了積極的作用。這些致力于減少算法歧視、實現(xiàn)算法公平的技術(shù)手段可以作為歧視風(fēng)險管理的有益制度實踐,在算法公平理念指導(dǎo)下,同其他治理方案一起發(fā)揮歧視預(yù)警、識別的作用。

最后,應(yīng)當(dāng)創(chuàng)建持續(xù)性的算法影響評估和算法審計制度以監(jiān)控、管理和緩釋新增風(fēng)險。算法性別歧視風(fēng)險管理是一項系統(tǒng)化的治理工程。基于算法公平的演進性,即使在實施諸多歧視風(fēng)險管理措施的情況下,依然可能因時間的推移在社會系統(tǒng)互動中滋生新的歧視風(fēng)險,為此需要創(chuàng)建持續(xù)性的算法影響評估和算法審計制度。作為算法治理領(lǐng)域的核心制度工具,中國《個人信息保護法》第54條和第55條分別對算法影響評估制度和算法審計制度作出規(guī)定。其中算法審計要求“定期”開展,算法影響評估應(yīng)于“事前”展開且“至少保存三年”。這些制度安排形式上滿足歧視風(fēng)險監(jiān)控和管理的要求,但也存在算法審計較為原則,審計內(nèi)容及審計機構(gòu)等具體制度安排有待落地的問題。為實現(xiàn)算法治理規(guī)范體系的細(xì)粒化、精確化,未來應(yīng)進一步細(xì)化落實算法審計和算法影響評估制度,健全以事前評估和事后監(jiān)督相結(jié)合,定期審計與隨機審計相結(jié)合,過程審計與決策結(jié)果審計相結(jié)合的持續(xù)動態(tài)監(jiān)測機制。

2.反性別歧視規(guī)范體系的結(jié)構(gòu)性擴容

如上文所述,反歧視規(guī)范體系因射程不足、精細(xì)度欠缺等問題無法充分發(fā)揮“制度攔截網(wǎng)”的作用。因此,在人工智能時代亟需對其結(jié)構(gòu)性擴容,以將算法性別歧視納入規(guī)制范圍,實現(xiàn)算法性別歧視治理的系統(tǒng)化和制度化。

檢視中國反歧視規(guī)范體系,首先,需要確立對婦女歧視的法律概念以及歧視認(rèn)定的構(gòu)成規(guī)則。因概念界定缺失,司法裁判審查無據(jù),傳統(tǒng)性別歧視難以尋求司法救濟。在算法應(yīng)用場景中,對女性歧視的概念界定更直接關(guān)乎算法性別歧視風(fēng)險審查標(biāo)準(zhǔn)的確立。立法機關(guān)宜及時對婦女歧視的概念內(nèi)涵和構(gòu)成要件作出界定。已有學(xué)者建議以《消除對婦女一切形式歧視公約》定義為藍(lán)本,涵蓋直接歧視和間接歧視兩種類型(11)相關(guān)建議討論參見戴瑞君:《法律如何定義對婦女的歧視》,《婦女研究論叢》2021年第5期;林建軍、靳世靜:《“歧視”的規(guī)范內(nèi)涵——基于國際人權(quán)文書的體系化考察》,《中華女子學(xué)院學(xué)報》2021年第6期。,但對算法決策應(yīng)用帶來的新增歧視樣態(tài)和特征的回應(yīng)仍顯不足。時值《婦女權(quán)益保障法》修訂,《婦女權(quán)益保障法(修訂草案)》第2條第2款新增“消除對婦女一切形式的歧視,禁止基于性別排斥、限制婦女依法享有和行使各項權(quán)益”的規(guī)定。這一表述雖一定程度上填補了中國對婦女歧視的概念空白,但表義模糊,難以通過文義解釋考察確定其具體構(gòu)成要件以及內(nèi)括的歧視類型。步入人工智能時代,“對婦女歧視”的界定不應(yīng)局限于對傳統(tǒng)歧視類型的抽象總結(jié),更應(yīng)在充分考察算法性別歧視多元類型的基礎(chǔ)上適時更新。

具體而言,應(yīng)首先明確對婦女的歧視包含直接歧視、間接歧視兩種類型。在此基礎(chǔ)上,結(jié)合算法性別歧視的新特征、新樣態(tài)對性別這一受保護特征作出靈活性調(diào)整,適當(dāng)降低其適用門檻[52](PP 66-67)?!盎谛詣e”這一受保護特征應(yīng)適當(dāng)擴張至與性別有關(guān)的因素,通過擴大受保護群體的范圍將算法性別歧視現(xiàn)象納入規(guī)制視野。由此,因代理變量替代性別參數(shù)使用而產(chǎn)生的間接復(fù)現(xiàn)型歧視和關(guān)聯(lián)交叉型歧視可以被“與性別相關(guān)”的文義涵蓋,從而被納入規(guī)制場域。在此情形下,性別這一受保護特征不再是基于靜態(tài)社會群體分類產(chǎn)生的特定身份標(biāo)識,而是擴張為個人在社會交往中產(chǎn)生的動態(tài)關(guān)系[53](P 749)。值得注意的是,算法決策背景下,“與性別有關(guān)”因素的判斷具有場景化和動態(tài)化特性,無法以完全列舉的方式固化于具體規(guī)制之中。對其認(rèn)定需要司法審查實踐的不斷積累,逐漸生成“與性別有關(guān)”因素的類型化識別標(biāo)準(zhǔn)。

其次,在對婦女歧視概念進行清晰界定的基礎(chǔ)上,反歧視法領(lǐng)域還應(yīng)實現(xiàn)規(guī)范整合。目前反性別歧視規(guī)范呈現(xiàn)出碎片化、分散化特點,無法涵攝算法性別歧視的多元樣態(tài)。作為促進性別平等的基礎(chǔ)性法律,《婦女權(quán)益保障法》應(yīng)當(dāng)承擔(dān)起規(guī)范整合的引領(lǐng)功能,通過對具體規(guī)則的結(jié)構(gòu)性擴充實現(xiàn)治理功能的合理轉(zhuǎn)換。同時,反歧視法律規(guī)范還應(yīng)當(dāng)對多個受保護特征的跨域歧視現(xiàn)象做出及時回應(yīng)(12)為應(yīng)對交叉歧視,歐盟委員會在其發(fā)布的《性別平等戰(zhàn)略2020-2025》文件中提出要在歐盟政策中解決交叉歧視的問題,“應(yīng)在歐盟法律、政策及其實施中響應(yīng)不同群體中婦女和女孩的具體需求和情況”。。僅基于單一受保護特征的反性別歧視體系必須同基于其他受保護特征的反歧視規(guī)范聯(lián)動,包括《殘疾人保障法》《就業(yè)法》《教育法》等,以應(yīng)對基于多重用戶標(biāo)簽決策增大的交叉歧視風(fēng)險。這一整合任務(wù)只能由更高位階的一般性反歧視法完成。事實上,早在算法決策廣泛應(yīng)用之前,中國學(xué)界不乏制定一部統(tǒng)一反歧視法的呼吁(13)有關(guān)制定統(tǒng)一的反歧視法的呼吁參見李薇薇:《平等原則在反歧視法中的適用和發(fā)展——兼談中國的反歧視立法》,《政法論壇》2009年第1期;周偉:《從身高到基因:中國反歧視的法律發(fā)展》,《清華法學(xué)》2012年第6期;周偉:《不受歧視權(quán)及其實施》,《理論與改革》2014年第3期。。面對算法決策應(yīng)用領(lǐng)域持續(xù)擴張的現(xiàn)狀,制定一部統(tǒng)一化、整全化的反歧視法已成題中之意。

在構(gòu)成要件審查環(huán)節(jié),就多環(huán)節(jié)、多主體參與引發(fā)的因果關(guān)系認(rèn)定難題,主要同未能區(qū)分歧視風(fēng)險及實害結(jié)果有關(guān)。因此,算法決策是否導(dǎo)致規(guī)范意義上的性別歧視還應(yīng)結(jié)合實際部署情況看待,即從設(shè)計、部署、運行并產(chǎn)生不利后果的視角創(chuàng)建因果識別測試,通過抓住算法決策的實施者、責(zé)任者這一關(guān)鍵因素[13](P 144)刺破技術(shù)中立的神秘面紗,強化算法設(shè)計背后人類決策者的平等保護義務(wù)。與此同時,在舉證責(zé)任的分配上,宜實行舉證責(zé)任分配倒置的規(guī)則設(shè)計,算法決策的對象所負(fù)擔(dān)的證明義務(wù)僅限于遭受損害的初步證據(jù),而算法決策的“正當(dāng)、合理、公平”之證明責(zé)任宜分配給設(shè)計者和運行者具體承擔(dān)。具體責(zé)任審查環(huán)節(jié)不僅針對開發(fā)、設(shè)計者的主觀陳述,更要與其應(yīng)承擔(dān)的前置個人信息處理義務(wù)履行情況有機結(jié)合。該義務(wù)履行的具體內(nèi)容應(yīng)結(jié)合算法決策部署的領(lǐng)域、場景精準(zhǔn)制定。以智能招聘為例,《個人信息保護法》提出個人信息處理的最小化要求,這一要求在勞動就業(yè)領(lǐng)域被細(xì)化、限定為《勞動合同法》第8條規(guī)定的“與勞動合同直接相關(guān)”的信息。當(dāng)信息處理者搜集、使用的信息大于該范圍,則可能因違反最小化要求而無法證明其決策行為的合理性。目前算法治理規(guī)范在信息約束方面細(xì)粒度不足,抽象、概括的義務(wù)規(guī)定不利于算法責(zé)任審查工作的平順展開。未來應(yīng)結(jié)合算法決策部署的具體場景、目標(biāo)、受影響人群等變量,綜合考慮多元場景下信息處理者受到信息約束的范圍、程度,提升算法規(guī)范的細(xì)粒度,實現(xiàn)算法的分級、分類監(jiān)管。

3.算法公平向善的運行生態(tài)培育

算法決策產(chǎn)生的諸種負(fù)面影響還同技術(shù)中立話語潮流密切相關(guān)。技術(shù)中立論調(diào)忽視將社會公平價值嵌入技術(shù)開發(fā)流程,致使技術(shù)人員及其組成的群體和行業(yè)之中偏見蔓延。加之算法模型的艱深晦澀,算法開發(fā)設(shè)計中缺少包容性、參與性的反饋機制。端賴于自身計算精準(zhǔn)、運轉(zhuǎn)高效、超出人類計算能力的特質(zhì),算法在眾多場合成為人類決策的“代理人”和“接管人”,成為社會權(quán)力的構(gòu)成部分。但其正當(dāng)性、合理性基礎(chǔ)仍需通過技術(shù)正當(dāng)程序加以全面檢驗[54](PP 129-132)。算法公平治理是涉及個體、企業(yè)、公共機構(gòu)等多元主體間復(fù)雜互動的重要議題。在這一現(xiàn)實挑戰(zhàn)下,應(yīng)當(dāng)意識到算法性別歧視的有效治理還需要以適宜的運行生態(tài)作為基礎(chǔ)協(xié)同推進,以獲得制度實效的最大化。

總的來看,算法向善的運行生態(tài)構(gòu)建涵蓋從小到大三個圈層體系。最小生態(tài)圈層為參與某一特定算法開發(fā)、設(shè)計的技術(shù)群組成員。作為算法開發(fā)的直接參與者,開發(fā)設(shè)計者是深入算法設(shè)計結(jié)構(gòu)和運行架構(gòu)的首要主體,對算法性別歧視的具體防范有賴于其內(nèi)部監(jiān)督機制的協(xié)同配合。針對這一圈層,需要通過加強性別平等教育培訓(xùn)、改善研發(fā)人員性別結(jié)構(gòu)等方面營造良好的研發(fā)生態(tài),為算法決策注入多元、包容的性別視角。中間生態(tài)圈層為科技企業(yè)組成的人工智能行業(yè)。這一層級的生態(tài)培育包括國內(nèi)外行業(yè)協(xié)會牽頭制定并遵守的倫理準(zhǔn)則(14)近年來在計算機科學(xué)、數(shù)據(jù)科學(xué)領(lǐng)域出現(xiàn)一種呼吁,要求以醫(yī)學(xué)領(lǐng)域廣泛認(rèn)同并遵循的“希波克拉底誓言”為摹本,發(fā)布為計算機科學(xué)家普遍遵循的倫理誓言。參見Nick Horton,“Hippocratic Oath”,https://teachdatascience.com/oath/ (last visited 11/5/2022)。、倫理指南,相關(guān)人工智能開發(fā)、設(shè)計標(biāo)準(zhǔn)以及科技企業(yè)的倫理自律規(guī)則。結(jié)合大型科技公司的倫理實踐來看,可通過設(shè)立倫理委員會評估、審查、監(jiān)控人工智能產(chǎn)品的倫理風(fēng)險,并根據(jù)可能的風(fēng)險等級和影響范圍輔以修正算法、暫緩發(fā)布、終止產(chǎn)品等對應(yīng)措施。與此同時,還可鼓勵科技企業(yè)開發(fā)技術(shù)工具甄別預(yù)警歧視風(fēng)險[55],開放參與渠道激勵公眾及同行評審算法潛在的歧視風(fēng)險等(15)如推特發(fā)布了第一個算法偏見賞金挑戰(zhàn)賽,邀請相關(guān)從業(yè)人員分析、評估圖像裁剪算法中可能存在的算法偏見,由此開啟科技倫理治理的眾包模式。參見“Introducing Twitter’s First Algorithmic Bias Bounty Challenge”,https://blog.twitter.com/engineering/en_us/topics/insights/2021/algorithmic-bias-bounty-challenge (last visited 2/5/2022)。。宏觀生態(tài)圈層則指向算法應(yīng)用的整個社會環(huán)境。社會作為算法運行的真實場景承擔(dān)著治理生態(tài)的功用。算法公平還需要社會層面在多元參與、協(xié)同共治的努力下以社會行動和價值實踐對算法性別歧視施以公平治理。其中不僅包括政府層面的平權(quán)行動,例如制定措施鼓勵女性投身人工智能、計算機等學(xué)科以及支持更多女性技術(shù)人員參與人工智能研發(fā)工作等(16)2021年,科技部等十三部門發(fā)布《關(guān)于支持女性科技人才在科技創(chuàng)新中發(fā)揮更大作用的若干措施》。該文件就進一步激發(fā)女性科技人才創(chuàng)新活力、更好發(fā)揮女性科技人才在科技創(chuàng)新中的作用提出六項積極措施。,還包括媒體議程中對算法性別歧視的關(guān)切以及社會公眾對算法性別歧視的多元化監(jiān)督(17)公共組織、大眾媒體及公眾對算法的監(jiān)督在推動算法規(guī)制政策與立法落實上起到重要作用。以美國為例,如Propublica組織對COMPAS系統(tǒng)算法歧視問題的報告,AI NOW研究所定期發(fā)布報告監(jiān)督算法對公民權(quán)利、自由和平等的影響。這些組織在公眾教育、信息知情等方面發(fā)揮重要作用,推動美國算法治理的議程進展。近年來中國媒體層面對算法決策的社會影響多加關(guān)切,對有關(guān)“大數(shù)據(jù)殺熟”、平臺經(jīng)濟用工等議題加以報道,并引發(fā)公眾討論及監(jiān)管部門關(guān)注。。以上三個圈層統(tǒng)協(xié)聯(lián)動,系統(tǒng)貫穿于算法公平價值之下,共同構(gòu)成了“算法公平向善”的運行生態(tài)。

五、余論

人工智能時代,依據(jù)不斷提升的算力和海量擴充的數(shù)據(jù),算法技術(shù)被擴張式內(nèi)嵌于平臺經(jīng)濟和技術(shù)社會的多元場景之中,不斷更新和擴充著自己的角色。在日益復(fù)雜的算法應(yīng)用場景中,算法已經(jīng)逐步超越程式推理系統(tǒng),作為基礎(chǔ)設(shè)施嵌入平臺經(jīng)濟和技術(shù)社會之中,將時間、空間、關(guān)系和話語等多種社會要素相互連接,在特定場景下扮演著資源再分配的權(quán)力性角色。算法直接塑造人們被對待的方式和預(yù)期機會,在積極賦權(quán)女性群體的同時,還引發(fā)了“計算不平等”和“性別數(shù)字鴻溝”等倫理失范現(xiàn)象,加劇了性別差距和性別歧視。本文以人工智能時代的算法性別歧視為研究對象,探究其核心表征、形成機制與應(yīng)對邏輯,為提升女性的數(shù)字化生存環(huán)境,促進人工智能時代的算法性別平等和社會公正提供解決方案。從更為深遠(yuǎn)的意義來看,算法性別歧視關(guān)乎女性群體的生存處境,也同樣折射出整個人類面對技術(shù)操控時的生存處境。當(dāng)算法成為新型社會權(quán)力,主導(dǎo)物質(zhì)資源、信息資源和潛在機會的分配時,“用具端坐鞍,鞭笞人類疾行”便不再是哲人一廂情愿的憂慮,而切實成為人類當(dāng)下所面臨的數(shù)字化生存現(xiàn)狀。正如馬丁·海德格爾(Martin Heidegger)所說,在技術(shù)性統(tǒng)治帶來最深的危險前,人類也能擁有最徹底的救渡。這種救渡力量來自人對其危險境地和主體地位的重新審視,更來自通過集體行動駕馭“脫韁”技術(shù)的多重努力。只有在人與技術(shù)關(guān)系的和諧共生中,科技許諾人類的美好數(shù)字化生存圖景才能夠降臨,而這一共生關(guān)系之中,應(yīng)該也必須包括女性。

猜你喜歡
算法
自適應(yīng)強跟蹤AST-ESKF無人車室內(nèi)導(dǎo)航算法
基于合作博弈的多機沖突解脫算法
國際主流軋差算法介紹:以CHIPS的BRA算法為例
利用數(shù)形結(jié)合明晰算理
基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
《算法》專題訓(xùn)練
清華大學(xué)開源遷移學(xué)習(xí)算法庫
Travellng thg World Full—time for Rree
學(xué)習(xí)算法的“三種境界”
算法框圖的補全
诸城市| 邢台市| 福鼎市| 罗平县| 平凉市| 泸水县| 呼玛县| 田林县| 富蕴县| 杭州市| 花垣县| 图片| 遵化市| 宿迁市| 莱芜市| 松溪县| 磐安县| 富锦市| 井陉县| 阿图什市| 满城县| 图木舒克市| 大冶市| 怀远县| 稷山县| 炉霍县| 桂平市| 滨海县| 伊宁市| 蕲春县| 托克托县| 纳雍县| 集安市| 大埔县| 积石山| 资兴市| 历史| 平乡县| 英吉沙县| 玛沁县| 基隆市|