現(xiàn)在在你腦海里想象一個老師的樣子,那個人長什么樣?如果你問StableDiffusion或DALL-E2,這兩個最受歡迎的人工智能圖像生成工具,它們給出的回答大概率是一個戴眼鏡的白人男性。
不久前,有一篇關于研究人員開發(fā)了新工具的文章發(fā)表,可以讓人們自己體驗到人工智能模型對不同性別和種族的固有偏見。
雖然這篇文章寫了很多關于我們的偏見是如何反映在人工智能模型中的,但看到人工智能生成的人類如此的白人化、男性化和老派,仍然會讓人感到不舒服。DALL-E2尤其如此,當?shù)玫健癈EO”或“董事(總監(jiān))”這樣的提示時,它在97%的情況下會生成白人男性。
在人工智能創(chuàng)造的更廣闊的世界中,偏見問題比你想象的更根深蒂固。斯坦福大學研究員費德里科·比安奇表示:“因為這些模型是由美國公司創(chuàng)建的,大多數(shù)訓練數(shù)據(jù)來自北美,所以當它們被要求生成再普通不過的日常用品時,比如門和房屋,它們會創(chuàng)造出看起來很北美的物體?!?/p>
隨著人工智能生成的圖像不斷涌現(xiàn),我們將看到大量反映美國偏見、文化和價值觀的圖像。誰知道人工智能會不會最終成為美國軟實力的主要工具呢?
那么,我們該如何解決這些問題呢?想解決人工智能模型訓練數(shù)據(jù)集中的偏差,肯定有很多的工作要做,不過最近的兩篇論文提出了一些有趣的新方法。
如果你可以直接告訴模型,讓它給你偏見更少的答案呢?
德國達姆施塔特技術大學的研究人員和人工智能初創(chuàng)公司HuggingFace開發(fā)了一種名為FairDiffusion的工具,可以更容易地調整人工智能模型來生成你想要的圖像類型。例如,你可以在不同的設置下生成首席執(zhí)行官的照片,然后使用FairDiffusion技術將圖像中的白人男性交換為女性或不同種族的人。
正如HuggingFace工具所展示的那樣,由于訓練數(shù)據(jù)中存在偏見,許多文本到圖像的人工智能模型對職業(yè)、性別和種族自帶非常強烈的偏見。德國研究人員的FairDiffusion工具是基于他們開發(fā)的一種名為語義指導的技術,該技術允許用戶指導人工智能系統(tǒng)如何生成人類圖像并編輯結果。
參與這項工作的德國計算機科學教授克里斯蒂安·克爾斯汀表示,人工智能系統(tǒng)生成的圖像與原始圖像非常接近。
達姆施塔特大學的博士生費利克斯·弗里德里希說,這種方法允許人們創(chuàng)建他們想要的圖像,而不需要完成繁瑣且耗時的額外工作,即嘗試改進用于訓練人工智能模型的有偏見的數(shù)據(jù)集。
然而,這個工具并不完美。改變一些職業(yè)的圖片,比如“洗碗工”,效果并不好,因為這個詞在英文中既可以表示洗碗機,也可以表示洗碗的人。該工具也只適用于兩種性別。最終,該模型所能產(chǎn)生的人的多樣性仍然受到人工智能系統(tǒng)訓練數(shù)據(jù)集限制。不過,即便這項工作還需要更多的改進,但它可能是減輕偏見的重要一步。
類似的技術似乎也適用于語言模型。正如最近報道的那樣,人工智能實驗室Anthropic的研究表明,只需簡單的指令,就可以引導大型語言模型產(chǎn)生更少的有毒內(nèi)容。Anthropic的研究人員測試了不同大小的語言模型,他們發(fā)現(xiàn),如果這些模型足夠大,就會在用戶的要求下自我糾正一些偏見。
研究人員不知道為什么生成文本和圖像的人工智能模型會這樣做。Anthropic團隊認為,這可能是因為更大的模型有更大的訓練數(shù)據(jù)集,其中既包括許多有偏見或刻板印象的例子,也包括人們抵制和糾正這些偏見的例子。
人工智能工具在生成圖像方面越來越受歡迎??藸査雇≌f,像FairDiffusion這樣的工具可能對那些希望其宣傳圖片反映社會多樣性的公司很有用。
這些對抗人工智能偏見的方法是受歡迎的,由此也衍生出一個明顯的問題,即它們是否從一開始就應該被納入模型中。目前,我們最好的生成式人工智能工具正在大規(guī)模放大有害的刻板印象。
值得注意的是,僅靠巧妙的工程手段并不能完全消滅偏見。正如美國國家標準與技術研究所(NIST)的研究人員在2023年的一份報告中指出的那樣,除了數(shù)據(jù)和算法,偏見還存在于更多地方。我們需要調查人類使用人工智能工具的方式,以及使用這些工具的更廣泛的社會背景,所有這些都可能導致偏見問題。
NIST表示,有效地緩解偏差將需要對人工智能模型如何構建,以及納入其中的數(shù)據(jù)進行更多的審計和評估,還要提高透明度。但在我們目前所處的生成式人工智能淘金熱中,我擔心這些工作可能會給賺快錢讓路。