葉 青,劉宗圣
(中國(guó)科學(xué)院大學(xué) 人文學(xué)院,北京 100049)
數(shù)字時(shí)代,算法是連接物理和虛擬世界的規(guī)則基礎(chǔ),其應(yīng)用越來(lái)越廣泛。近些年來(lái),人工智能場(chǎng)景下算法所引發(fā)的一系列不公平事件備受爭(zhēng)議,這些不公平事件存在于算法所主導(dǎo)的文本翻譯、招聘工具、搜索引擎、廣告投放、精準(zhǔn)推薦、信貸評(píng)估甚至犯罪預(yù)測(cè)和醫(yī)療診斷等領(lǐng)域的智能決策之中,人們稱此類現(xiàn)象為算法偏見(jiàn)。
近年來(lái),算法偏見(jiàn)問(wèn)題引起了學(xué)術(shù)界、工業(yè)實(shí)驗(yàn)室和媒體的重視。在我國(guó),算法的性別偏見(jiàn)是需要重點(diǎn)關(guān)注的問(wèn)題。然而,國(guó)內(nèi)學(xué)術(shù)界專門針對(duì)算法性別偏見(jiàn)的研究較少,且國(guó)內(nèi)外已有的算法治理相關(guān)研究大多偏向技術(shù)或法律層面。本文梳理了具有代表性的算法系統(tǒng)所表現(xiàn)出的性別偏見(jiàn),探究算法性別偏見(jiàn)的形成原因和現(xiàn)有的去偏困境,并從科學(xué)技術(shù)與社會(huì)(Science,Technology and Society,STS)的研究視角對(duì)其治理措施進(jìn)行思考。
算法是人工智能應(yīng)用(深度神經(jīng)網(wǎng)絡(luò))的計(jì)算程序,它們被編程以執(zhí)行自動(dòng)化決策任務(wù)。算法的性別偏見(jiàn)是這種程序運(yùn)行所帶來(lái)的性別區(qū)別對(duì)待,能夠表現(xiàn)在任何一個(gè)應(yīng)用場(chǎng)景之中,涉及人們?nèi)粘^k公、學(xué)習(xí)和文娛生活的方方面面。因此,算法性別偏見(jiàn)的系統(tǒng)性、長(zhǎng)期性和影響規(guī)模都遠(yuǎn)超傳統(tǒng)技術(shù)。
詞嵌入(Word Embedding)是從文本中學(xué)習(xí)單詞表征的算法技術(shù),現(xiàn)已成為自然語(yǔ)言處理系統(tǒng)(Natural Language Processing,NLP)不可或缺的一部分,主要被應(yīng)用于文本翻譯、自動(dòng)寫(xiě)作工具、智能搜索引擎、聊天機(jī)器人以及情感分析軟件等。經(jīng)過(guò)訓(xùn)練后的詞嵌入算法使單詞成為向量,當(dāng)它對(duì)某一性別進(jìn)行投射時(shí),就可能會(huì)產(chǎn)生偏見(jiàn)。例如,詞嵌入算法使“醫(yī)生”被投射于男性,而“護(hù)士”則被投射于女性;它還不成比例地將男性術(shù)語(yǔ)與科學(xué)術(shù)語(yǔ)、女性術(shù)語(yǔ)與藝術(shù)術(shù)語(yǔ)聯(lián)系在一起。[1]現(xiàn)有的詞嵌入算法包括但不限于Word2vec、Glove、Bert、Albert等。科研人員和技術(shù)專家通過(guò)調(diào)整訓(xùn)練數(shù)據(jù)、對(duì)嵌入目標(biāo)函數(shù)施加約束等手段,使得其中個(gè)別技術(shù)在減少顯性性別偏見(jiàn)時(shí)表現(xiàn)更好,但仍然無(wú)法處理危害性更大的、超越詞匯層面的隱性性別偏見(jiàn),后者要求算法具備語(yǔ)義理解能力,以當(dāng)前的AI發(fā)展水平還無(wú)法實(shí)現(xiàn)。
“語(yǔ)言是一個(gè)民族最深刻的文化基因,語(yǔ)言結(jié)構(gòu)與思維模式是相互照應(yīng)的”[2],即語(yǔ)言能夠限制和決定人類的思維模式和認(rèn)知行為。而拉康指出,父權(quán)法則的語(yǔ)言使女性處于次要和受歧視的地位。因此,帶有性別偏見(jiàn)的語(yǔ)言會(huì)使偏見(jiàn)性認(rèn)知得到進(jìn)一步增強(qiáng),首先體現(xiàn)在人們對(duì)詞匯的選用和聯(lián)想,最終導(dǎo)致女性的社會(huì)地位和權(quán)益受到貶抑和損害。例如,“體育報(bào)道中存在的對(duì)于女性運(yùn)動(dòng)員的性別刻板印象——重點(diǎn)描述外在形象或者家庭身份等。報(bào)道中的性別偏見(jiàn)不僅體現(xiàn)于文本之中,還存在于報(bào)道中所選擇圖片的數(shù)量與類別”[3]。這種現(xiàn)象一直被學(xué)術(shù)界和政界人士所強(qiáng)調(diào),被證明是阻礙女性進(jìn)入政治生活的一大因素。NLP系統(tǒng)作為文本工具的核心,如果帶有偏見(jiàn),將促使社會(huì)加深對(duì)女性的刻板印象,使社會(huì)主流價(jià)值觀和意識(shí)形態(tài)朝著不利于女性的方向發(fā)展。
個(gè)性化推薦系統(tǒng)(Personalized Recommendation System,PRS)的協(xié)同過(guò)濾算法(Collaborative Filtering)作用機(jī)制是檢測(cè)不同用戶或商品(信息)之間的相關(guān)性,以此為依據(jù)進(jìn)行廣告分發(fā)和內(nèi)容推送,被應(yīng)用于電商網(wǎng)站、社交平臺(tái)和媒體客戶端。它使人們更容易克服布里丹之驢(Buridan’s Ass),減輕認(rèn)知負(fù)擔(dān)以快速做出選擇。但是該算法也可能造成嚴(yán)重負(fù)面影響:其一,它構(gòu)建了信息繭房,在這個(gè)半封閉的“過(guò)濾氣泡”(Filter Bubbles)中,用戶的轉(zhuǎn)發(fā)、評(píng)論和收藏等行為將導(dǎo)致其只能收到符合自身偏好的內(nèi)容推送。也就是說(shuō),那些持有性別偏見(jiàn)的用戶幾乎只會(huì)接觸到相似的觀點(diǎn)和人群,這將進(jìn)一步激化性別對(duì)立的矛盾,阻礙社會(huì)價(jià)值體系的良性發(fā)展。其二,它帶來(lái)了不公平的利益分配,在社交平臺(tái)臉書(shū)上,收到科學(xué)、技術(shù)、工程和數(shù)學(xué)(STEM)類職位廣告推送的男性用戶數(shù)量比女性多20%;在網(wǎng)約車平臺(tái)上,“作為對(duì)更高投入時(shí)長(zhǎng)的回報(bào),男性網(wǎng)約車司機(jī)享有比女性司機(jī)更多的報(bào)酬”[4]。值得注意的是,算法同時(shí)識(shí)別出女性對(duì)購(gòu)物的熱情,使其成為推送消費(fèi)廣告的主要目標(biāo)。歐盟AI高級(jí)別專家組成員楊(Karen Yeung)將其稱之為“超輕推技術(shù)”(Hypernudging)[5]32,它以極其微妙的形式對(duì)用戶進(jìn)行分析、操縱和干預(yù),使其逐步上癮以便維護(hù)技術(shù)的霸權(quán)利益。PRS系統(tǒng)實(shí)際上侵害了女性的權(quán)益,它體現(xiàn)出的誘導(dǎo)性特征,也在一定程度上削弱了女性的自主性和決策能力,使得女性無(wú)法專注于原初目標(biāo)和任務(wù),最終導(dǎo)致自身的長(zhǎng)期利益受損。
職位申請(qǐng)人追蹤系統(tǒng)(Applicant Tracking Systems,ATS)的篩選、排序算法旨在檢測(cè)招聘過(guò)程中人類認(rèn)知難以發(fā)掘的信息間的隱含模式,從而實(shí)現(xiàn)對(duì)人員的篩選或排序。而生物特征識(shí)別(Biometrics)算法能夠在面試時(shí)根據(jù)面部特征、表情變化、語(yǔ)音語(yǔ)調(diào)等因素,對(duì)申請(qǐng)人的性格、情商或應(yīng)變能力進(jìn)行評(píng)析,例如美國(guó)的Hirevue、澳大利亞的Vervoe、中國(guó)平安集團(tuán)的HR-X等。
如今全球勞動(dòng)力的組織、整合和管理是通過(guò)算法實(shí)現(xiàn)的,而ATS系統(tǒng)能夠同時(shí)為雇傭雙方提供巨大便利,在促進(jìn)勞動(dòng)力全球化進(jìn)程中發(fā)揮了主要作用,但是該系統(tǒng)也被發(fā)現(xiàn)存在性別偏見(jiàn)。例如,知名科技巨頭亞馬遜在進(jìn)行簡(jiǎn)歷評(píng)分時(shí),傾向于推薦男性獲得職位,這是因?yàn)椤皝嗰R遜的電腦模型經(jīng)過(guò)了培訓(xùn),通過(guò)觀察過(guò)去10年被提交給該公司的簡(jiǎn)歷找出固有模式,并以此來(lái)審查應(yīng)聘者”[6]。而由于系統(tǒng)本身的復(fù)雜性和不可解釋性,受侵害的女性群體時(shí)常無(wú)法進(jìn)行維權(quán),只能被迫接受。因此,ATS系統(tǒng)不但阻礙了女性獲得公平的就業(yè)機(jī)會(huì),而且剝奪了她們表達(dá)訴求和反對(duì)系統(tǒng)決策的可能以及作為道德主體實(shí)現(xiàn)尊嚴(yán)的權(quán)利。所幸目前大部分領(lǐng)域尚未將AI算法作為招聘流程的全權(quán)決策者,人們?nèi)杂蟹此己透倪M(jìn)系統(tǒng)的時(shí)間。
總之,人工智能算法系統(tǒng)本質(zhì)上都是信息分類器,這種分類機(jī)制可以做到僅從匿名用戶的行為反向推測(cè)其性別,為侵犯隱私埋下隱患,并打開(kāi)了一個(gè)施加性別歧視(主要是女性弱勢(shì)群體)甚至發(fā)動(dòng)認(rèn)知戰(zhàn)的途徑。部分女性因這種被歧視的可能而放棄線上活動(dòng),自主權(quán)遭受巨大侵害。
漫長(zhǎng)的人類活動(dòng)里,形成了一些隱性性別偏見(jiàn)。從認(rèn)識(shí)論來(lái)看,人類天生習(xí)慣于把接收到的信息分門別類,從而形成對(duì)周圍世界的合理感知,大腦通過(guò)這樣的方式降低了認(rèn)知處理工作量,但卻造成了從生物學(xué)特征——“性”(Sex)層面上的首次區(qū)分。而第二次區(qū)分發(fā)生在社會(huì)-心理范疇“性別”(Gender)層面,從古希臘先哲、笛卡爾、盧梭到康德,都對(duì)性別區(qū)分進(jìn)行了深入思考。女性主義者勞埃德(Genevieve Lloyd)“討論了理性這一傳統(tǒng)理念。她輕松地證明,貫穿歷史的等式是男人=理性,女人=非理性”[7]。在她看來(lái),這是“性別”體現(xiàn)出的深刻內(nèi)涵。根據(jù)社會(huì)角色理論,“性別可以通過(guò)影響社會(huì)對(duì)個(gè)體的角色期望(性別角色期望)和個(gè)體自身的信念或技能(性別角色表現(xiàn))進(jìn)而導(dǎo)致社會(huì)行為的差異;社會(huì)對(duì)于男性的工作角色期望高于女性,而對(duì)于女性的家庭角色期望高于男性”[8]。這導(dǎo)致了女性在歷史上絕大多數(shù)時(shí)期都是作為次要的、從屬的角色參與生產(chǎn)實(shí)踐。數(shù)千年來(lái),這種男權(quán)社會(huì)的陳規(guī)型觀念已深入人心。波伏娃指出“女人不是天生的,而是成為的”,即性別特征不是在生物學(xué)上被決定的,而是被社會(huì)強(qiáng)加或被個(gè)人選擇的。因此,人類社會(huì)的性別偏見(jiàn)是認(rèn)知局限和社會(huì)環(huán)境共同作用的結(jié)果。
現(xiàn)有的弱AI層次的算法距離實(shí)現(xiàn)人類認(rèn)知還很遙遠(yuǎn),它只能機(jī)械地對(duì)數(shù)據(jù)做出統(tǒng)計(jì)學(xué)上的分類來(lái)進(jìn)行判斷,無(wú)法形成自主意識(shí)來(lái)理解這種分類背后潛藏的社會(huì)意義。因此現(xiàn)階段的算法偏見(jiàn)實(shí)質(zhì)上只是反映了人類社會(huì)的偏見(jiàn)。即,算法和其他技術(shù)一樣,在本質(zhì)上都被動(dòng)負(fù)載著人類價(jià)值。人類的性別偏見(jiàn)可以經(jīng)由多種途徑進(jìn)入系統(tǒng),通過(guò)算法強(qiáng)大的數(shù)據(jù)學(xué)習(xí)能力被繼承、放大和固化。
算法由設(shè)計(jì)者開(kāi)發(fā),設(shè)計(jì)者似乎擁有最多機(jī)會(huì)來(lái)施加影響,因而許多學(xué)者聚焦于對(duì)設(shè)計(jì)者進(jìn)行批判。女性主義者通常將算法的性別偏見(jiàn)歸因于女性在設(shè)計(jì)和測(cè)試中的缺席。
從技術(shù)流程來(lái)看,設(shè)計(jì)者首先需要為算法確定目標(biāo)。這個(gè)目標(biāo)有時(shí)與設(shè)計(jì)者的興趣相關(guān),取決于設(shè)計(jì)者自身的價(jià)值觀。例如,斯坦福的兩位學(xué)者開(kāi)發(fā)了一個(gè)能夠通過(guò)提取人的面部特征來(lái)識(shí)別性取向的算法[9],這樣的設(shè)計(jì)思路本身就是一種顯性的性別偏見(jiàn)。然而目標(biāo)的設(shè)定往往更多地與設(shè)計(jì)者的利益相關(guān),PRS和ATS系統(tǒng)都是典型例證,能夠從海量的訓(xùn)練數(shù)據(jù)中輕易地找到統(tǒng)計(jì)學(xué)意義上的最佳路徑,以此提升企業(yè)的經(jīng)濟(jì)效益。
繼而,設(shè)計(jì)者會(huì)根據(jù)選定的目標(biāo)創(chuàng)建訓(xùn)練數(shù)據(jù)集,設(shè)計(jì)者對(duì)數(shù)據(jù)集的特殊偏好將可能導(dǎo)致無(wú)法再現(xiàn)現(xiàn)實(shí)世界中的真實(shí)比例,體現(xiàn)了設(shè)計(jì)者的選擇偏見(jiàn)(Selection Bias)。設(shè)計(jì)者還會(huì)對(duì)數(shù)據(jù)進(jìn)行基本處理,即數(shù)據(jù)清洗和特征工程,旨在去除異常值、篩選并設(shè)定數(shù)據(jù)的顯著特征。例如,如果在標(biāo)注階段由于標(biāo)注員對(duì)女性持有傳統(tǒng)刻板印象,那么很可能將打扮偏中性的女性標(biāo)注為男性,造成后期算法識(shí)別結(jié)果的錯(cuò)誤[10],從而為性別偏見(jiàn)提供了一個(gè)重要途徑。此外,設(shè)計(jì)者時(shí)常需要將復(fù)雜而模糊的目標(biāo)轉(zhuǎn)化為可量化的特征。例如,ATS系統(tǒng)的目標(biāo)是尋找有“能力”的候選人,而如何定義“能力”需要特定領(lǐng)域的專業(yè)知識(shí)和價(jià)值判斷,這一過(guò)程也可能埋下性別偏見(jiàn)的種子。
隨著大數(shù)據(jù)技術(shù)得到廣泛運(yùn)用,數(shù)據(jù)的挖掘及獲取更為便利,也更加全面,不再取決于設(shè)計(jì)者的選擇,但性別偏見(jiàn)問(wèn)題卻依舊存在。例如,谷歌的搜索結(jié)果系統(tǒng)性地低估了男性主導(dǎo)的職業(yè)中女性群體的代表性,在搜索“CEO”時(shí),前112個(gè)搜索結(jié)果是男性圖片,且完全未做到均衡排序。[11]女性往往在薪酬更高或更受尊重的職業(yè)(如管理者、工程師、醫(yī)生)中代表性不足,而在其他職業(yè)(如前臺(tái)、護(hù)士)中代表性過(guò)高。這是因?yàn)閿?shù)據(jù)本身包含了社會(huì)的性別分工情況,而ATS系統(tǒng)繼承了社會(huì)的歷史偏見(jiàn)(Historical Bias)。
在算法面前,人類的隱形偏見(jiàn)無(wú)處遁形。這種偏見(jiàn)也被稱為無(wú)意識(shí)偏見(jiàn)(Unconscious Bias)或“第二代性別偏見(jiàn)”[12],當(dāng)一個(gè)人無(wú)意識(shí)地做出以性別為基礎(chǔ)的評(píng)價(jià),但有意識(shí)地拒絕“性別刻板印象”時(shí),這種偏見(jiàn)就會(huì)發(fā)生。例如,對(duì)于世界大多數(shù)語(yǔ)言來(lái)說(shuō),男性代詞具有普遍性,形容詞也與性別相互關(guān)聯(lián),如強(qiáng)壯的、理性的男性與柔弱的、感性的女性常常搭配出現(xiàn)。技術(shù)人員在10多萬(wàn)份博士論文、120億字語(yǔ)料庫(kù)中發(fā)現(xiàn)了大量無(wú)意識(shí)性別偏見(jiàn),且與作者的性別、年齡及研究領(lǐng)域具有相關(guān)性。[13]人們?cè)诜磸?fù)使用語(yǔ)言的過(guò)程中逐漸使偏見(jiàn)永久保留下來(lái),并投射到實(shí)踐行動(dòng)中,主張男性承擔(dān)那些需要理性思維和領(lǐng)導(dǎo)力的工作。目前我國(guó)“從口語(yǔ)語(yǔ)體到書(shū)面語(yǔ)語(yǔ)體,語(yǔ)言中各職業(yè)對(duì)女性的性別偏見(jiàn)越來(lái)越大”。[14]如果這樣的數(shù)據(jù)成為語(yǔ)料庫(kù)經(jīng)由NLP系統(tǒng)學(xué)習(xí)并傳播,性別偏見(jiàn)的影響范圍會(huì)以指數(shù)級(jí)擴(kuò)大。
算法不僅繼承了數(shù)據(jù)之中的性別偏見(jiàn),還能將其進(jìn)一步放大?!耙豁?xiàng)研究表明,如果初始數(shù)據(jù)中,‘下廚’與‘女性’聯(lián)系起來(lái)的概率是66%,將這些數(shù)據(jù)喂給人工智能后,其預(yù)測(cè)‘下廚’與‘女性’聯(lián)系起來(lái)的概率會(huì)放大到84%”[15]。這種意外變化并不是人為設(shè)計(jì)的,而是AI算法的內(nèi)在機(jī)制對(duì)數(shù)據(jù)集的統(tǒng)計(jì)學(xué)特征進(jìn)行優(yōu)化的結(jié)果,旨在提升系統(tǒng)運(yùn)行的準(zhǔn)確性,其放大的具體比例時(shí)常無(wú)法被預(yù)測(cè)。
目前大多數(shù)AI系統(tǒng)只被用來(lái)為決策者/用戶提供建議,最終的選擇取決于他們的實(shí)踐經(jīng)驗(yàn)、偏見(jiàn)感知力、對(duì)系統(tǒng)的依賴程度以及價(jià)值觀。當(dāng)有偏見(jiàn)的建議被采納時(shí),系統(tǒng)就會(huì)將其操作行為錄入訓(xùn)練數(shù)據(jù)集,進(jìn)而固化這種傾向。也就是說(shuō),算法的反饋機(jī)制會(huì)逐漸使某些價(jià)值和利益高于其他。例如,不公平的錄用名單一經(jīng)決策者采納,就會(huì)使女性在日后獲得由ATS系統(tǒng)推薦的幾率變得更低。類似的情況,商品廣告經(jīng)過(guò)女性用戶的點(diǎn)擊,就會(huì)使女性群體收到由PRS系統(tǒng)推送同類廣告的概率變得更高,這一過(guò)程類似于人的歸納思維,不斷出現(xiàn)的新證據(jù)往往會(huì)強(qiáng)化思維定式,進(jìn)一步加劇女性群體的邊緣化。
此外,人類認(rèn)知通常能夠識(shí)別和適應(yīng)不同的外界環(huán)境,而算法不具備這種能力。當(dāng)算法系統(tǒng)內(nèi)部的已有認(rèn)知模式與部署環(huán)境的反饋相互沖突時(shí),在統(tǒng)計(jì)學(xué)和倫理學(xué)意義上都會(huì)產(chǎn)生有偏向的輸出。因此算法必須經(jīng)過(guò)決策者的審慎考察,確保系統(tǒng)被部署在高度相似的社會(huì)情境之中,否則將有可能產(chǎn)生性別偏見(jiàn),進(jìn)而為部分群體帶來(lái)巨大傷害,尤其是那些關(guān)乎生命安全和重大利益的醫(yī)療、金融算法系統(tǒng),應(yīng)給予更密切的關(guān)注。
綜上所述,性別偏見(jiàn)來(lái)源于人類自身,設(shè)計(jì)者、歷史數(shù)據(jù)、決策者/用戶貫穿算法的整個(gè)生命周期,不存在未經(jīng)價(jià)值侵染的純粹算法。因此,當(dāng)我們致力于消除算法的性別偏見(jiàn)時(shí),其實(shí)需要消除的是人的偏見(jiàn)。其中設(shè)計(jì)者和決策者/用戶造成的偏見(jiàn)因其源頭能夠被追溯,通過(guò)人員培訓(xùn)及加強(qiáng)監(jiān)管等措施可以進(jìn)行有效規(guī)避。但數(shù)據(jù)偏見(jiàn)是社會(huì)主導(dǎo)價(jià)值的反映,在消除此類算法性別偏見(jiàn)時(shí)不可避免地會(huì)遭遇困境。
截至目前,為了解決算法的性別偏見(jiàn)問(wèn)題,技術(shù)專家和科學(xué)家做了大量不同的嘗試。正如FAT/ML(Fairness,Accountability,and Transparency in Machine Learning)和ACM (Association for Computing and Machinery)等年度會(huì)議所展示的,以尋求技術(shù)修復(fù)為主要趨勢(shì)。事實(shí)上,現(xiàn)有的去偏手段都無(wú)法將數(shù)據(jù)偏見(jiàn)徹底消除,甚至是減輕偏見(jiàn)的嘗試,效果也不明顯。
由于算法會(huì)對(duì)頻繁出現(xiàn)在數(shù)據(jù)中的群體(如男性)進(jìn)行優(yōu)化,以提高系統(tǒng)的整體準(zhǔn)確率,從而導(dǎo)致其他群體(如女性)被壓制。為了處理這樣的問(wèn)題,工程師“通過(guò)將受保護(hù)特征設(shè)定為招聘算法禁止利用或不得處理的目標(biāo)變量(targetvariables),如將個(gè)人簡(jiǎn)歷所列明的性別、民族、年齡、健康等受保護(hù)特征列為不得識(shí)別的因素,以消除可能的社會(huì)偏見(jiàn)”[16]。這種方式旨在通過(guò)泛化、刪除或重新標(biāo)記性別特征使受保護(hù)信息不可用,然而工程師發(fā)現(xiàn),即使這樣,算法依然能夠從其他數(shù)據(jù)參數(shù)之間檢測(cè)到(與性別有關(guān)的)微妙的統(tǒng)計(jì)相關(guān)性。例如,某求職者的簡(jiǎn)歷中如果存在1年左右的離職期,就可能被算法判定為孕婦,從而暴露了女性身份。可見(jiàn),這種較為粗暴的去偏手段,其有效性和可行性均受到質(zhì)疑。事實(shí)上,由于技術(shù)特征與社會(huì)行為是相互建構(gòu)的,只要社會(huì)本身仍然存有偏見(jiàn),算法就無(wú)法做到完全無(wú)偏。
對(duì)兩性數(shù)據(jù)進(jìn)行平衡處理,即實(shí)現(xiàn)相近的數(shù)據(jù)代表性,然而這種手段也并不完美。針對(duì)NLP系統(tǒng),有學(xué)者介紹了三種自動(dòng)運(yùn)作的去偏策略:下采樣(Downsampling ),即移除數(shù)據(jù);上采樣(Upsampling),即添加重復(fù)數(shù)據(jù);反事實(shí)增強(qiáng)(Counterfactual Augmentation),例如增加“他是醫(yī)生”的相對(duì)事實(shí)“她是醫(yī)生”[17]。然而這種方式只實(shí)現(xiàn)了粗糙的數(shù)據(jù)平衡,不能消除大部分微妙的或隱性的性別偏見(jiàn)和刻板印象。這些討論也揭露了一項(xiàng)事實(shí),即要求訓(xùn)練數(shù)據(jù)完全無(wú)偏的愿望不切實(shí)際,現(xiàn)實(shí)中不存在完美的數(shù)據(jù)集,也不存在能夠制造完美數(shù)據(jù)集的技術(shù)手段。
不但如此,該策略要求龐大的雙性別語(yǔ)料庫(kù),使系統(tǒng)的性能大幅降低。算法對(duì)數(shù)據(jù)高度敏感,任何一點(diǎn)改變都可能帶來(lái)更高的經(jīng)濟(jì)成本。因此,在探討去偏方案的同時(shí)應(yīng)對(duì)系統(tǒng)性能做出合理要求,即在倫理價(jià)值與經(jīng)濟(jì)價(jià)值之間進(jìn)行適當(dāng)取舍和平衡。如今,部署算法系統(tǒng)已成為管理者和企業(yè)的必要選擇,它幫助人們快速、批量地處理辦公任務(wù)。如果僅注重消除偏見(jiàn)而忽視性能,在多數(shù)情況下弊大于利,將扼殺創(chuàng)新并喪失社會(huì)效益。當(dāng)然,人們對(duì)不同領(lǐng)域算法的價(jià)值取舍存在差異。對(duì)于NLP系統(tǒng),人們更在乎其性能表現(xiàn),即文字的處理速度和準(zhǔn)確性;而對(duì)于醫(yī)療系統(tǒng),盡管越來(lái)越多的證據(jù)表明算法可能做出比醫(yī)生更精確、有效、及時(shí)、經(jīng)濟(jì)的診療計(jì)劃,但因其關(guān)乎生命安全,系統(tǒng)無(wú)偏成為公眾的首要訴求。因此,在嘗試為算法去偏之前,必須首先進(jìn)行價(jià)值取舍,確定當(dāng)倫理價(jià)值提升時(shí),可接受的經(jīng)濟(jì)價(jià)值減損程度。
另一類去偏方式是對(duì)訓(xùn)練后的算法平權(quán)模型進(jìn)行修改和調(diào)整,并設(shè)置合理的規(guī)則集,以此實(shí)現(xiàn)算法公平。然而,人們對(duì)公平的定義存在分歧,使得這項(xiàng)工作難以達(dá)成共識(shí)。“各種關(guān)于公平的數(shù)學(xué)定義層出不窮,一度達(dá)到21種之多……在統(tǒng)計(jì)上各種‘公平’的定義就是不可兼容的……即使數(shù)學(xué)上可能會(huì)有完美的‘公平’定義,在現(xiàn)實(shí)世界的復(fù)雜社會(huì)關(guān)系里,完美且唯一正確的‘公平’是不存在的”[18]。在這樣的現(xiàn)實(shí)條件下,設(shè)計(jì)者對(duì)于調(diào)試模型時(shí)應(yīng)當(dāng)采取哪種“公平”,往往摸不著頭腦,任何選擇都有可能造成倫理爭(zhēng)議。例如,針對(duì)ATS系統(tǒng),美國(guó)平等就業(yè)機(jī)會(huì)委員會(huì)(Equal Employment Opportunity Commission)表示公平就業(yè)應(yīng)滿足“80%規(guī)則”,即如果100名男性得到工作,則至少80名女性必須得到工作。它旨在實(shí)現(xiàn)“結(jié)果公平”(也稱統(tǒng)計(jì)或人口公平),而未完全依據(jù)與“能力”相關(guān)的標(biāo)準(zhǔn)來(lái)篩選候選人(即“機(jī)會(huì)公平”),事實(shí)上,此類爭(zhēng)議在社會(huì)公平實(shí)踐和不同的女性主義思想中長(zhǎng)期存在。在這個(gè)案例中,反對(duì)者一方認(rèn)為結(jié)果公平實(shí)為一種“善意的性別偏見(jiàn)”,它背后的潛臺(tái)詞(如女性能力較差)可能會(huì)進(jìn)一步維持刻板印象,使得男性主導(dǎo)地位和女性從屬地位同時(shí)得到加強(qiáng),不利于女性的長(zhǎng)遠(yuǎn)利益。他們主張對(duì)兩性采取完全相同的標(biāo)準(zhǔn),但對(duì)標(biāo)準(zhǔn)的選取和權(quán)重設(shè)定也常使設(shè)計(jì)者陷入兩難境地。而支持者一方認(rèn)為兩性在某些方面存在與生俱來(lái)的不平等,如身體上的自然差距。他們主張采用不同的標(biāo)準(zhǔn)和支持以使女性在工作中增強(qiáng)自身平等獲得社會(huì)資源的能力,進(jìn)而有助于增加扭轉(zhuǎn)社會(huì)性別刻板印象的機(jī)會(huì),“善意的偏見(jiàn)”也可以作為對(duì)女性的補(bǔ)償而體現(xiàn)公平正義。
目前,許多組織的算法倫理規(guī)范仍然含糊不清,埋下了兩種隱患:其一,設(shè)計(jì)者或企業(yè)可以采用任何符合其利益的公平定義,導(dǎo)致算法開(kāi)發(fā)和算法審查進(jìn)入灰色地帶和倫理困境。換句話說(shuō),企業(yè)不再為減少算法偏見(jiàn)投入成本,監(jiān)管機(jī)構(gòu)也難以發(fā)揮作用。例如,臉書(shū)曾試圖通過(guò)設(shè)立跨學(xué)科的、有“廣泛代表性”的倫理委員會(huì),來(lái)安撫公眾并營(yíng)造道德人工智能的表象,如其投資的慕尼黑工業(yè)大學(xué)人工智能倫理研究所。[19]顯然,大型企業(yè)可以利用自身強(qiáng)大的社會(huì)資源,以虛假道德認(rèn)證為自家產(chǎn)品背書(shū)。其二,可在不同社會(huì)情境中引起嚴(yán)重后果,例如將結(jié)果公平原則應(yīng)用于司法領(lǐng)域算法,其破壞性難以估量。因此,必須對(duì)基本倫理規(guī)范進(jìn)行哲學(xué)澄清,以便為特定場(chǎng)景下采用何種公平措施提供有效指導(dǎo)。然而,由于每個(gè)社會(huì)都并存著多種相互競(jìng)爭(zhēng)的價(jià)值觀,“澄清”或許只是通過(guò)協(xié)商而達(dá)成臨時(shí)約定,但這一過(guò)程無(wú)疑是必要的。
總之,當(dāng)下任何一種技術(shù)去偏手段都存在局限性或爭(zhēng)議性,人們應(yīng)當(dāng)認(rèn)識(shí)到算法的數(shù)據(jù)(歷史)偏見(jiàn)只能被減輕,需要基于一個(gè)合理的治理預(yù)期,并在技術(shù)之外開(kāi)展更多的人文思辨,以創(chuàng)造盡可能公平的系統(tǒng)。
如前文所述,當(dāng)前算法治理主要依靠技術(shù)手段來(lái)實(shí)現(xiàn)。除上文已介紹的去偏手段外,偏見(jiàn)的技術(shù)檢測(cè)工具也受到關(guān)注。例如“公平測(cè)試”(Fair Test)程序,能夠?qū)λ惴ńY(jié)果和用戶敏感特征進(jìn)行細(xì)粒度的排查,尤其是未經(jīng)許可、有可能導(dǎo)致偏見(jiàn)的參數(shù)關(guān)聯(lián)。[20]但過(guò)度依賴技術(shù)手段必然走向誤區(qū),前文的論證已經(jīng)說(shuō)明,技術(shù)手段與價(jià)值難題是相互交織的,因此必須在不斷完善技術(shù)的同時(shí),將非技術(shù)對(duì)策納入考察范圍,包括擴(kuò)大公眾參與、提升監(jiān)督管理效能、增加過(guò)程透明度、善用影響評(píng)估工具等。當(dāng)然,這些治理對(duì)策也適用于廣義的算法偏見(jiàn)。
2021年9月17日正式發(fā)布的《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見(jiàn)》就加強(qiáng)算法治理提出建設(shè)性意見(jiàn)。其中第二章第六節(jié)中明確指出“鼓勵(lì)廣大網(wǎng)民積極參與算法安全治理工作,切實(shí)加強(qiáng)政府、企業(yè)、行業(yè)組織和網(wǎng)民間的信息交流和有效溝通。政府積極受理網(wǎng)民舉報(bào)投訴,企業(yè)自覺(jué)接受社會(huì)監(jiān)督并及時(shí)做好結(jié)果反饋”,為擴(kuò)大公眾參與提供了政策指引,價(jià)值敏感設(shè)計(jì)(Value Sensitive Design,VSD)可為其提供理論支撐。由弗里德曼和卡恩提出的VSD是一種將多元價(jià)值嵌入技術(shù)設(shè)計(jì)中的方法,目前已被應(yīng)用于不同技術(shù),使技術(shù)設(shè)計(jì)團(tuán)隊(duì)能夠預(yù)測(cè)設(shè)計(jì)需求并制定符合道德的方案。
第一, VSD能夠“將間接利益相關(guān)者納入其中,這與一些其他算法設(shè)計(jì)方法明顯不同”[21],學(xué)術(shù)界通常認(rèn)為算法的直接利益相關(guān)者(如女性)更有可能看到、理解并試圖解決性別偏見(jiàn)風(fēng)險(xiǎn)。但也存在不同看法,認(rèn)為直接利益相關(guān)者對(duì)算法偏見(jiàn)的感知和識(shí)別能力未必最強(qiáng),例如一項(xiàng)實(shí)證研究指出那些擁有集體主義、男子氣概和不確定性規(guī)避相關(guān)的三種價(jià)值觀的個(gè)體更有可能質(zhì)疑AI有偏見(jiàn)的建議。[22]對(duì)算法的測(cè)試和協(xié)商應(yīng)盡可能在多元化的、更大的人群范圍內(nèi)開(kāi)展,而不是簡(jiǎn)單地以平衡的性別比例作為唯一準(zhǔn)則。這將有助于促成合理的去偏預(yù)期,平衡NLP、PRS系統(tǒng)的經(jīng)濟(jì)和倫理價(jià)值。第二,VSD有利于找回并納入公眾的隱性知識(shí),加強(qiáng)算法設(shè)計(jì)者與女性主義者、倫理學(xué)家、社會(huì)學(xué)家、哲學(xué)家、法學(xué)家或政策制定機(jī)構(gòu)、監(jiān)管機(jī)構(gòu)、群團(tuán)組織等通力合作,形成能夠促進(jìn)算法公平持續(xù)完善的行動(dòng)者網(wǎng)絡(luò)(Actor-Network),從而打開(kāi)技術(shù)的黑箱。例如,紐約康奈爾大學(xué)的信息科學(xué)家和紐約市數(shù)據(jù)與社會(huì)研究所的律師合作創(chuàng)立了一個(gè)算法公平的子領(lǐng)域[23],值得我國(guó)借鑒。第三,VSD注重特定的社會(huì)文化語(yǔ)境,有助于理解特定地區(qū)、特定應(yīng)用的何種價(jià)值處于危險(xiǎn)之中,有效避免決策團(tuán)隊(duì)因不當(dāng)?shù)乃惴ú渴鸲鴮?dǎo)致性別偏見(jiàn)。第四,VSD引領(lǐng)的廣泛公眾互動(dòng)還帶來(lái)了額外優(yōu)勢(shì),即緩解了算法快速擴(kuò)張的副作用:缺失的社會(huì)聯(lián)系、共情力和深化的性別刻板印象等問(wèn)題,為構(gòu)建性別平等的社會(huì)價(jià)值觀提供了一種選擇。第五,VSD對(duì)廣泛協(xié)商和測(cè)試的要求間接起到了監(jiān)督科技企業(yè)的積極作用,管理部門可制定規(guī)范,約束企業(yè)必須在AI應(yīng)用正式推出前,必須向監(jiān)管機(jī)構(gòu)出示經(jīng)過(guò)廣泛協(xié)商和測(cè)試的證明。谷歌、微軟和臉書(shū)的技術(shù)高管都曾表示,因ATS系統(tǒng)的革命進(jìn)展太快而無(wú)法進(jìn)行修正,這一舉措可使推卸責(zé)任的說(shuō)辭不再被認(rèn)可。第六,由于人工智能系統(tǒng)的反饋機(jī)制可能會(huì)“破壞”VSD設(shè)計(jì)者最初嵌入其中的價(jià)值觀,為了應(yīng)對(duì)這項(xiàng)挑戰(zhàn),應(yīng)將VSD擴(kuò)展到AI系統(tǒng)的整個(gè)生命周期,以便公眾監(jiān)控意外的價(jià)值后果并根據(jù)需要隨時(shí)重新設(shè)計(jì)技術(shù)。美國(guó)曾發(fā)生一起金融算法的性別偏見(jiàn)事件,用戶發(fā)現(xiàn)不同性別得到的信用卡額度差距較大,盡管是擁有共同資產(chǎn)的夫妻,而設(shè)計(jì)者直到用戶提出后才知曉。[24]經(jīng)過(guò)有針對(duì)性地改進(jìn),VSD不僅使人們能夠在設(shè)計(jì)初期以集思廣益的方式形成避免性別偏見(jiàn)風(fēng)險(xiǎn)、促進(jìn)社會(huì)公平的技術(shù)社會(huì)想象,而且能夠在人工智能技術(shù)進(jìn)步與社會(huì)發(fā)展二者互構(gòu)的全過(guò)程中實(shí)現(xiàn)雙向反饋和動(dòng)態(tài)協(xié)商。
為了維護(hù)女性弱勢(shì)群體的權(quán)益,算法倫理的落實(shí)需要有力的監(jiān)管措施來(lái)保駕護(hù)航。2022年3月1日起我國(guó)施行了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,其中,第一章總則的第三條指出:“國(guó)家網(wǎng)信部門負(fù)責(zé)統(tǒng)籌協(xié)調(diào)全國(guó)算法推薦服務(wù)治理和相關(guān)監(jiān)督管理工作。國(guó)務(wù)院電信、公安、市場(chǎng)監(jiān)管等有關(guān)部門依據(jù)各自職責(zé)負(fù)責(zé)算法推薦服務(wù)監(jiān)督管理工作?!钡谖鍡l指出:“鼓勵(lì)相關(guān)行業(yè)組織加強(qiáng)行業(yè)自律,建立健全行業(yè)標(biāo)準(zhǔn)、行業(yè)準(zhǔn)則和自律管理制度,督促指導(dǎo)算法推薦服務(wù)提供者制定完善服務(wù)規(guī)范、依法提供服務(wù)并接受社會(huì)監(jiān)督?!边@一規(guī)定為構(gòu)建保障算法公平的監(jiān)督管理提供了政策背書(shū)。
洛爾和麥克斯韋等人提出的“人工智能監(jiān)管的四層模型”[5]250能夠?yàn)樘嵘惴ㄐ詣e偏見(jiàn)的監(jiān)管效能提供具體借鑒,有利于算法性別公平的倫理審計(jì):第一層為合同規(guī)約,倡導(dǎo)設(shè)計(jì)企業(yè)和部署企業(yè)、部署企業(yè)和保險(xiǎn)公司、部署企業(yè)和終端用戶分別對(duì)各方權(quán)利、義務(wù)與責(zé)任進(jìn)行事前約定,包括數(shù)據(jù)及模型的調(diào)取權(quán)限、使用范圍、審計(jì)類型和賠償細(xì)則等可操作的內(nèi)容,通過(guò)規(guī)定“舉證責(zé)任倒置”,即企業(yè)和監(jiān)管者自證清白,迫使各方預(yù)先對(duì)算法進(jìn)行充分測(cè)試和優(yōu)化,旨在找到風(fēng)險(xiǎn)分配和利益共享的最優(yōu)解,從而確保性別偏見(jiàn)受害者在維權(quán)時(shí)能夠得到各方應(yīng)給的賠付。第二層為企業(yè)的治理措施,包括制定內(nèi)部培訓(xùn)方案、管理規(guī)章和決策流程等,以防止決策者過(guò)度依賴算法而架空了企業(yè)管理層,消解了人的主觀能動(dòng)性,并因此錯(cuò)失甄別性別偏見(jiàn)的機(jī)會(huì)。第三層為分門別類的監(jiān)管機(jī)構(gòu),即針對(duì)不同行業(yè)、領(lǐng)域中出現(xiàn)的特有風(fēng)險(xiǎn)類型,如以NLP為核心的內(nèi)容創(chuàng)作領(lǐng)域、以PRS為核心的信傳領(lǐng)域和以ATS為核心的招聘領(lǐng)域等,分別制定規(guī)范并設(shè)立監(jiān)管機(jī)構(gòu)(除電信、公安、市場(chǎng)監(jiān)管外,還有宣傳、文化、工商、人社、婦聯(lián)等相關(guān)部門和社會(huì)組織),使監(jiān)管具有精準(zhǔn)、專業(yè)和與時(shí)俱進(jìn)的優(yōu)勢(shì),從而防止出現(xiàn)性別偏見(jiàn)的“灰犀牛”事件。第四層高階監(jiān)控機(jī)構(gòu),它的職責(zé)為確保算法背后擁有責(zé)任主體及責(zé)任保險(xiǎn),保障全過(guò)程透明,在責(zé)任主體違反規(guī)定時(shí)發(fā)出警告,從而降低出現(xiàn)性別偏見(jiàn)的“黑天鵝”事件概率。應(yīng)注意,監(jiān)控機(jī)構(gòu)必須是有能力曝光可能的性別偏見(jiàn)行為并落實(shí)相應(yīng)制裁措施的主體。根據(jù)《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,國(guó)家網(wǎng)信部門負(fù)責(zé)全盤(pán)統(tǒng)籌監(jiān)管的角色與第四層主體的責(zé)任不謀而合。
在以上四個(gè)層面的基礎(chǔ)上,還可增設(shè)某種激勵(lì)機(jī)制,由于我國(guó)大型企業(yè)對(duì)于消除算法性別偏見(jiàn)的積極性較低,例如,對(duì)國(guó)內(nèi)各家搜索引擎(百度、搜狗、360搜索等)的考察,充斥于網(wǎng)絡(luò)話語(yǔ)中的性別偏見(jiàn)和女性權(quán)利并未受到人工智能驅(qū)動(dòng)的搜索引擎平臺(tái)服務(wù)商的充分關(guān)注[10],設(shè)置合理的激勵(lì)機(jī)制能夠引起企業(yè)治理算法性別偏見(jiàn)的興趣,確保社會(huì)可以不斷從算法中受益。
此處所強(qiáng)調(diào)的透明度指設(shè)計(jì)、決策的過(guò)程透明,而非披露算法源代碼意義上的透明,由于專業(yè)工程師也難以對(duì)算法行為進(jìn)行預(yù)測(cè),那么代碼的開(kāi)源對(duì)于增進(jìn)公眾對(duì)決策程序和結(jié)果的理解可能并無(wú)助益。根據(jù)羅爾斯的程序正義思想,當(dāng)追求合理目標(biāo)(公平,以避免偏向男性)及其合理程度的算法模型,得到正確、一致的運(yùn)行,即使其中一些結(jié)果(不可避免地)以錯(cuò)誤的預(yù)測(cè)為基礎(chǔ),其結(jié)果可被看作是合理的。因此,增加算法的過(guò)程透明度,可帶來(lái)三大優(yōu)勢(shì):一是在設(shè)計(jì)者設(shè)置規(guī)則集時(shí)對(duì)公眾保持透明和開(kāi)放,可促使各方對(duì)算法滿足關(guān)于性別平等的何種倫理要求、在多大程度上滿足要求達(dá)成共識(shí),PRS、ATS系統(tǒng)的公平規(guī)范得以實(shí)現(xiàn)必要“澄清”。二是當(dāng)算法的性別偏見(jiàn)輸出引發(fā)爭(zhēng)議時(shí),無(wú)需侵犯商業(yè)技術(shù)機(jī)密,只需檢驗(yàn)算法是否按照約定好的規(guī)范運(yùn)行,就能追究各方責(zé)任。若符合約定,即使產(chǎn)生一定程度的性別偏見(jiàn)也無(wú)可厚非。對(duì)于維護(hù)技術(shù)的穩(wěn)健發(fā)展,保障企業(yè)的知識(shí)產(chǎn)權(quán)和商業(yè)機(jī)密等合法商業(yè)利益而言也具有重要意義。三是算法的可解釋性也通過(guò)程序透明得到增強(qiáng),人們可以根據(jù)設(shè)計(jì)目標(biāo)和運(yùn)行規(guī)范,從輸入、輸出以及在給定環(huán)境中的應(yīng)用效果來(lái)理解算法。總之,過(guò)程透明提供了算法部署、決策的正當(dāng)性和問(wèn)責(zé)的明晰性,也是取得女性群體信任的前提。
目前,歐盟和美國(guó)已分別制定了各項(xiàng)法律規(guī)范明確影響評(píng)估的必要性。首先,影響評(píng)估工具(Impact Assessment Tools,IAT)可幫助人們快速、前瞻性地識(shí)別算法項(xiàng)目設(shè)計(jì)、開(kāi)發(fā)和部署過(guò)程中可能產(chǎn)生的風(fēng)險(xiǎn),評(píng)估如何減輕、消除和補(bǔ)救項(xiàng)目對(duì)性別弱勢(shì)群體造成的不利影響,防止監(jiān)控資本主義邏輯破壞社會(huì)公平價(jià)值體系,從而肯定女性個(gè)體的尊嚴(yán)和自主性。其次,它能夠?yàn)樵O(shè)置算法倫理規(guī)則提供便利,當(dāng)前“中國(guó)的反性別歧視條款零散、籠統(tǒng)、抽象,未能形成系統(tǒng)的立法體系和理論體系”[25],IAT可將抽象倫理原則轉(zhuǎn)化為可操作的具象化標(biāo)準(zhǔn),并有助于提升算法的可解釋性。最后,多樣的IAT可實(shí)現(xiàn)高效、精準(zhǔn)的性別偏見(jiàn)算法審計(jì),無(wú)論是企業(yè)進(jìn)行自我審計(jì),還是監(jiān)管機(jī)構(gòu)啟動(dòng)強(qiáng)制審計(jì),善用IAT可使算法審計(jì)的約束作用最大化。例如,人權(quán)影響評(píng)估(Human Rights Impact Assessment,HRIA)以國(guó)際人權(quán)法為主要標(biāo)準(zhǔn),能夠以系統(tǒng)的方式評(píng)估人權(quán)影響,保障女性的知情權(quán)、隱私權(quán)、參與權(quán)等基本權(quán)利,且HRIA對(duì)各國(guó)文化差異保有敏感性,易于融入特定地區(qū)的法律以調(diào)整人權(quán)規(guī)范[26]。HRIA的這一特性使其在我國(guó)的運(yùn)用具備了可行性。社會(huì)經(jīng)濟(jì)影響評(píng)估(Socioeconomic Impact Assessment)根據(jù)社會(huì)經(jīng)濟(jì)效益,評(píng)估產(chǎn)品的各類經(jīng)濟(jì)和社會(huì)影響,確保在推出前充分考慮女性利益相關(guān)者和政策制定者的意見(jiàn)。這兩大評(píng)估工具對(duì)于審計(jì)算法的性別偏見(jiàn)具有較高適用性。除此之外,數(shù)據(jù)保護(hù)影響評(píng)估(Data Protection Impact Assessment)、隱私影響評(píng)估(Privacy Impact Assessment)等可起到輔助作用,尤其可滿足PRS系統(tǒng)性別偏見(jiàn)的治理需要,避免性別隱私泄露和陷入“信息繭房”等問(wèn)題。這些工具各有利弊,單一使用時(shí)不足以解決所有可能影響算法性別偏見(jiàn)因素,應(yīng)根據(jù)具體情況采用數(shù)種不同的工具以實(shí)現(xiàn)最為理想的效果。
當(dāng)今世界算法的影子無(wú)處不在,而不同算法系統(tǒng)中的性別偏見(jiàn)有不同的呈現(xiàn),偏見(jiàn)或來(lái)源于設(shè)計(jì)者和決策者/用戶,或來(lái)源于人類社會(huì)長(zhǎng)期存在和積累的數(shù)據(jù),歸根結(jié)底算法只是負(fù)載著人類價(jià)值的工具。我們要理性審慎地看待算法性別偏見(jiàn)的消除,完全用技術(shù)手段來(lái)解決算法問(wèn)題的“技術(shù)決定論”再一次被實(shí)踐證明不可取,因?yàn)槠洳粌H受制于人類社會(huì)現(xiàn)實(shí),且存在價(jià)值取舍和倫理爭(zhēng)論。算法擅于在人類數(shù)據(jù)中發(fā)現(xiàn)統(tǒng)計(jì)模式,只要人類社會(huì)的性別偏見(jiàn)還在,算法性別偏見(jiàn)就無(wú)法被完全消除。本文基于STS的研究方法,深入挖掘算法技術(shù)內(nèi)部存在的倫理、價(jià)值、利益因素,在分析和探討的過(guò)程中結(jié)合了女性主義的不同思想、行動(dòng)者網(wǎng)絡(luò)理論和符合技術(shù)社會(huì)建構(gòu)(Social Construction of Technology)的擴(kuò)大公眾參與思想以及前沿的VSD和影響評(píng)估工具等實(shí)踐,進(jìn)而提出了四種非技術(shù)的治理對(duì)策。本文主張基于一個(gè)合理的預(yù)期,將技術(shù)手段與非技術(shù)治理對(duì)策相結(jié)合,則至少能夠?qū)崿F(xiàn)減少性別偏見(jiàn)進(jìn)入系統(tǒng)的途徑,并找到各方價(jià)值的最大公約數(shù)。
由于篇幅有限,未能利用賈薩諾夫的“社會(huì)技術(shù)想象”(Sociotechnical Imaginaries)理論對(duì)人工智能算法促進(jìn)社會(huì)技術(shù)轉(zhuǎn)型的過(guò)程進(jìn)行哲學(xué)分析,社會(huì)技術(shù)想象理論通過(guò)追蹤不同國(guó)家或大型企業(yè)建立和實(shí)現(xiàn)特定技術(shù)愿景的具體實(shí)踐過(guò)程,有利于分析科技政策和制度中存在的問(wèn)題,并關(guān)注其他競(jìng)爭(zhēng)性社會(huì)技術(shù)想象的優(yōu)勢(shì),值得將來(lái)進(jìn)一步深入研究。