劉志紅
電子工業(yè)出版社有限公司,北京,100036
AIGC,即人工智能生成內(nèi)容,其潛在的算法歧視和價(jià)值偏見問題引發(fā)了廣泛關(guān)注。訓(xùn)練數(shù)據(jù)和算法本身可能存在偏見,導(dǎo)致生成的內(nèi)容偏向特定人群或產(chǎn)生歧視性結(jié)果,這可能對(duì)用戶的體驗(yàn)、公平性和社會(huì)平等性產(chǎn)生負(fù)面影響。例如,有網(wǎng)友發(fā)現(xiàn),ChatGPT的部分回答涉嫌性別刻板印象,比如,當(dāng)要求ChatGPT完成句子“他是醫(yī)生,她是____”時(shí),空格中往往會(huì)生成與女性刻板印象相關(guān)的職業(yè),比如護(hù)士、老師等。算法偏見和歧視問題逐漸浮出水面,成為制約其可持續(xù)發(fā)展和社會(huì)公平的重要挑戰(zhàn)。
在AIGC的應(yīng)用過程中,算法偏見與歧視問題日益凸顯。這些問題不僅影響了AIGC的公平性和可靠性,還可能導(dǎo)致嚴(yán)重的社會(huì)后果。因此,識(shí)別、評(píng)估和緩解算法偏見與歧視成為AIGC領(lǐng)域亟待解決的問題。本文將從理論和實(shí)踐兩個(gè)方面探討這一問題,并提出相應(yīng)的解決方法。
闡述這個(gè)話題前,我們需要先來了解AI對(duì)齊。AI對(duì)齊的內(nèi)容主要涉及如何確保人工智能系統(tǒng)更好地服務(wù)于人類社會(huì)的需求,并避免對(duì)特定群體的偏見和歧視。首先,AI對(duì)齊需要從數(shù)據(jù)收集和處理階段開始。為了減少算法偏見的風(fēng)險(xiǎn),研究人員應(yīng)該努力收集多樣化且代表性廣泛的數(shù)據(jù)集。這包括確保樣本的多樣性,涵蓋不同種族、性別、年齡、社會(huì)經(jīng)濟(jì)地位等因素,以充分反映整個(gè)人群的特征。此外,數(shù)據(jù)的標(biāo)注過程也需要嚴(yán)格審查,以避免潛在的主觀偏見。其次,AI對(duì)齊還需要關(guān)注算法的設(shè)計(jì)和訓(xùn)練過程。研究人員應(yīng)該采用公平性指標(biāo)來評(píng)估算法的性能,以確保其在不同群體之間具有一致性和公正性。例如,使用平等機(jī)會(huì)、平等精度等指標(biāo)來衡量算法的準(zhǔn)確性和公平性。此外,還可以采用去偏技術(shù)來減少算法中的潛在偏見,如通過平衡數(shù)據(jù)集、調(diào)整權(quán)重等方式來糾正不公平的結(jié)果。最后,AI對(duì)齊還需要強(qiáng)調(diào)算法的透明度和解釋能力。研究人員應(yīng)該開發(fā)可解釋的AI模型,使用戶能夠理解算法是如何做出決策的。這有助于發(fā)現(xiàn)和糾正潛在的偏見和歧視問題。同時(shí),建立有效的監(jiān)管機(jī)制也是至關(guān)重要的,以確保AI系統(tǒng)的使用符合道德和社會(huì)價(jià)值觀[1]。
算法偏見與歧視的表現(xiàn)形式多樣,包括但不限于以下幾個(gè)方面。
(1)性別歧視:算法在處理涉及性別的數(shù)據(jù)時(shí),可能對(duì)某一性別產(chǎn)生不公平的預(yù)測(cè)或決策。例如,在招聘、信貸等領(lǐng)域,算法可能會(huì)傾向于拒絕女性申請(qǐng)者,從而加劇性別歧視現(xiàn)象。機(jī)器學(xué)習(xí)算法可能導(dǎo)致性別歧視問題的一個(gè)主要原因與偏見有關(guān)。有很多例子可以證明這一點(diǎn)。部分原因是軟件工程師、數(shù)據(jù)科學(xué)家和其他類似工作中的性別比例——通常這些工作中男性的比例總體上遠(yuǎn)高于女性。一個(gè)相關(guān)的問題是語音識(shí)別對(duì)女性和非白人男性的效果通常較差。這可能主要是因?yàn)橛砂兹四行蚤_發(fā)了第一個(gè)語音識(shí)別系統(tǒng),并且可能只是收集了很多關(guān)于他們自己的數(shù)據(jù)。由于機(jī)器學(xué)習(xí)系統(tǒng)從看到的數(shù)據(jù)中學(xué)習(xí)模式,因此,通常不能推斷出存在明顯差別的未知數(shù)據(jù)。
(2)種族歧視:算法在處理涉及種族的數(shù)據(jù)時(shí),可能對(duì)某一種族產(chǎn)生不公平的預(yù)測(cè)或決策。例如,在面部識(shí)別、警務(wù)等領(lǐng)域,由于輸入特征或者調(diào)查問卷中間接含有種族信息,數(shù)據(jù)的不均衡有可能導(dǎo)致算法會(huì)對(duì)非洲裔、亞裔等少數(shù)族裔產(chǎn)生更高的誤識(shí)別率,從而加劇種族歧視現(xiàn)象。
(3)年齡歧視:算法在處理涉及年齡的數(shù)據(jù)時(shí),可能對(duì)某一年齡段產(chǎn)生不公平的預(yù)測(cè)或決策。例如,在保險(xiǎn)、醫(yī)療等領(lǐng)域,算法可能會(huì)對(duì)老年人產(chǎn)生更高的保費(fèi)或診斷錯(cuò)誤率,從而加劇年齡歧視現(xiàn)象。一個(gè)具體的算法處理涉及年齡的數(shù)據(jù)時(shí),可能對(duì)某一年齡段產(chǎn)生不公平的預(yù)測(cè)或決策的案例是信用評(píng)分模型。信用評(píng)分模型通常使用歷史數(shù)據(jù)來預(yù)測(cè)一個(gè)人在未來是否會(huì)違約,從而決定是否授予貸款或信用卡。然而,如果訓(xùn)練數(shù)據(jù)中存在年齡歧視,例如,傾向于拒絕年長者的申請(qǐng),那么算法可能會(huì)學(xué)習(xí)到這種偏見,并對(duì)年長者做出不公平的預(yù)測(cè)或決策。
(4)地域歧視:算法在處理涉及地域的數(shù)據(jù)時(shí),可能對(duì)某一地區(qū)產(chǎn)生不公平的預(yù)測(cè)或決策。例如,在信用評(píng)分、教育資源分配等領(lǐng)域,算法可能會(huì)對(duì)欠發(fā)達(dá)地區(qū)產(chǎn)生更低的評(píng)分或資源分配,從而加劇地域歧視現(xiàn)象。在這個(gè)問題上,一個(gè)例子是面部識(shí)別問題——2017年,蘋果在iPhone上的面部解鎖功能無法很好地區(qū)分不同的中國用戶,或者根本無法區(qū)分。同樣,這可能歸結(jié)為ML訓(xùn)練集中缺乏中國用戶面孔的數(shù)據(jù)的原因。同樣,一些自動(dòng)駕駛汽車系統(tǒng)在檢測(cè)深色皮膚的行人方面不如淺膚色的行人準(zhǔn)確,檢測(cè)準(zhǔn)確率有差距。為了解決這些問題,人們應(yīng)該收集一個(gè)龐大而多樣化的訓(xùn)練集,并仔細(xì)考慮所有將受到影響的人[2]。
要解決算法偏見與歧視問題,首先需要識(shí)別出存在偏見與歧視的算法。目前,學(xué)術(shù)界已經(jīng)提出了多種識(shí)別方法,主要包括以下幾種。(1)敏感性分析:通過對(duì)算法在不同數(shù)據(jù)集上的表現(xiàn)進(jìn)行比較,觀察是否存在明顯的不公平現(xiàn)象。如果算法在某些數(shù)據(jù)集上的表現(xiàn)明顯優(yōu)于其他數(shù)據(jù)集,可能存在偏見與歧視問題?;蛘撸绻l(fā)現(xiàn)某一類人群的反饋結(jié)果總是比其他人差,那么可能存在偏見或歧視。(2)公平性度量:通過構(gòu)建公平性度量指標(biāo),量化算法在不同群體之間的性能差異。如果某個(gè)群體的性能明顯低于其他群體,可能存在偏見與歧視問題。(3)反證法:通過設(shè)計(jì)實(shí)驗(yàn),證明算法在某些特定情況下會(huì)產(chǎn)生不公平的預(yù)測(cè)或決策。如果實(shí)驗(yàn)結(jié)果支持這一假設(shè),可能存在偏見與歧視問題。
識(shí)別出存在偏見與歧視的算法后,需要評(píng)估其對(duì)社會(huì)和個(gè)人的影響。評(píng)估方法主要包括以下幾種。
(1)影響分析:分析算法在實(shí)際應(yīng)用中可能導(dǎo)致的具體后果,如就業(yè)、信貸、醫(yī)療等方面的不公平現(xiàn)象。通過影響分析,可以了解算法偏見與歧視問題的嚴(yán)重程度。例如,如果一個(gè)AI招聘系統(tǒng)的訓(xùn)練數(shù)據(jù)主要來自男性候選人,那么該系統(tǒng)可能會(huì)對(duì)女性候選人產(chǎn)生不公平的偏見。
(2)成本效益分析:評(píng)估消除算法偏見與歧視所需的成本和預(yù)期收益。通過成本效益分析,可以為決策者提供關(guān)于是否采取措施消除偏見與歧視的依據(jù)。
(3)倫理道德評(píng)估:從倫理道德的角度評(píng)估算法偏見與歧視問題。通過倫理道德評(píng)估,可以了解算法偏見與歧視問題對(duì)社會(huì)價(jià)值觀的影響。
針對(duì)識(shí)別和評(píng)估出的算法偏見與歧視問題,可以采取以下方法進(jìn)行緩解。
(1)數(shù)據(jù)預(yù)處理:通過對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行清洗、平衡等操作,降低數(shù)據(jù)中存在的偏見與歧視成分。數(shù)據(jù)預(yù)處理是解決算法偏見與歧視問題的基礎(chǔ)方法。在數(shù)據(jù)預(yù)處理時(shí),有幾種方法可以消除ML算法中的偏見:①收集更多數(shù)據(jù),尤其需要平衡數(shù)據(jù)集;②創(chuàng)建合成數(shù)據(jù),例如,使用GAN、SMOTE或ADASYN;③采樣或欠采樣技術(shù),例如:SMOTE和ADASYN。
GAN,即生成對(duì)抗網(wǎng)絡(luò),是一種無監(jiān)督學(xué)習(xí)模型,其核心思想是讓生成器和判別器進(jìn)行一場(chǎng)“博弈”,從而學(xué)習(xí)到數(shù)據(jù)的潛在分布,進(jìn)而生成與真實(shí)數(shù)據(jù)類似的新數(shù)據(jù)。GAN創(chuàng)建合成數(shù)據(jù)的過程可以描述為:在GAN框架中,首先有一個(gè)生成器和一個(gè)判別器。生成器的作用是根據(jù)給定的隨機(jī)噪聲向量生成合成數(shù)據(jù);判別器則負(fù)責(zé)區(qū)分出哪些數(shù)據(jù)是真實(shí)數(shù)據(jù),哪些是生成器的合成數(shù)據(jù)。此外,GAN的應(yīng)用非常廣泛。例如,它可以用于數(shù)據(jù)增強(qiáng),通過生成合成數(shù)據(jù)來擴(kuò)大訓(xùn)練集,提升模型的泛化能力。在處理具有不規(guī)則時(shí)間關(guān)系的長序列數(shù)據(jù)時(shí),如時(shí)間序列預(yù)測(cè),TTS-GAN模型引入了Transformer構(gòu)建生成器和判別器網(wǎng)絡(luò),能成功地生成與原始序列相似的任意長度的真實(shí)合成時(shí)間序列數(shù)據(jù)序列。此外,GAN還可以用于圖像風(fēng)格遷移,將一種圖像的風(fēng)格應(yīng)用到另一種圖像上,產(chǎn)生具有新風(fēng)格的圖像。
SMOTE,即合成少數(shù)類過采樣技術(shù),是一種解決數(shù)據(jù)類別不平衡問題的綜合采樣人工合成數(shù)據(jù)算法。其主要工作原理是以每個(gè)樣本點(diǎn)的k個(gè)最近鄰樣本點(diǎn)為依據(jù),隨機(jī)選擇若干個(gè)鄰近點(diǎn)進(jìn)行差值乘上一個(gè)[0,1]范圍的閾值,從而生成新的合成樣本。具體來說,對(duì)于少數(shù)類中的每一個(gè)樣本x,我們首先根據(jù)歐氏距離計(jì)算它到少數(shù)類樣本集中所有樣本的距離,找到其k近鄰。然后,根據(jù)樣本不平衡比例設(shè)置一個(gè)采樣比例,以確定采樣倍率N。接下來,對(duì)于每一個(gè)少數(shù)類樣本x,我們從其k近鄰中隨機(jī)選擇若干個(gè)樣本,假設(shè)選擇的近鄰為o。最后,對(duì)于每一個(gè)隨機(jī)選出的近鄰o,我們分別與原樣本按照公式o(new)=o+rand (0,1)* (x-o)構(gòu)建新的樣本[3]。
ADASYN,全稱為自適應(yīng)合成采樣,是一種專門用于處理不平衡數(shù)據(jù)集的合成樣本過采樣方法。它根據(jù)數(shù)據(jù)密度創(chuàng)建合成數(shù)據(jù),綜合數(shù)據(jù)的生成與少數(shù)類別的密度成反比。也就是說,在少數(shù)類別的低密度區(qū)域中,相較于高密度區(qū)域,會(huì)生成更多的合成數(shù)據(jù)。ADASYN改善對(duì)數(shù)據(jù)分布的學(xué)習(xí)主要通過兩個(gè)方面:一是通過生成合成樣本減少類不平衡帶來的偏差;二是自適應(yīng)地將分類決策邊界向困難的實(shí)例移動(dòng)。這樣的改進(jìn)策略使得ADASYN能夠更好地解決SMOTE在某些情況下可能引發(fā)的問題。
(2)仔細(xì)評(píng)估性能和后果。使用機(jī)器學(xué)習(xí)算法時(shí),重要的是要考慮使用它們的后果。我們應(yīng)該慎重評(píng)估預(yù)測(cè)的結(jié)果所可能帶來的、哪怕極小偏差所可能帶來的各種社會(huì)問題。特別是某些政務(wù)系統(tǒng),哪怕系統(tǒng)有很高的準(zhǔn)確性,報(bào)告的誤報(bào)告率很低,但只要涉及嚴(yán)重后果,我們都要在對(duì)機(jī)器學(xué)習(xí)算法評(píng)估和優(yōu)化時(shí),檢查多個(gè)指標(biāo)(例如:召回率、精度、Cohen's kappa等),尤其是要考慮權(quán)重。
(3)其他緩解方法。①模型優(yōu)化:通過調(diào)整模型結(jié)構(gòu)、參數(shù)等方法,提高模型在不同群體之間的公平性。模型優(yōu)化是解決算法偏見與歧視問題的關(guān)鍵方法。②公平性約束:在模型訓(xùn)練過程中引入公平性約束條件,限制模型在不同群體之間的性能差異。公平性約束是解決算法偏見與歧視問題的有效方法。③多目標(biāo)優(yōu)化:將公平性作為模型優(yōu)化的一個(gè)目標(biāo),與其他目標(biāo)(如準(zhǔn)確性、效率等)一起進(jìn)行優(yōu)化。多目標(biāo)優(yōu)化是解決算法偏見與歧視問題的綜合性方法。
本文旨在探討在AIGC領(lǐng)域中的算法偏見與歧視問題,并提出識(shí)別、評(píng)估和緩解這些問題的方法。這些方法旨在減少算法對(duì)特定群體的不公平對(duì)待,并提高其可解釋性。通過綜合運(yùn)用這些方法,我們可以有效地緩解算法偏見與歧視問題,推動(dòng)AIGC技術(shù)的可持續(xù)發(fā)展和社會(huì)公平。