埃里克·J·薩維茨(Eric J. Savitz)
繪圖/《巴倫周刊》
3月21日,谷歌發(fā)布了通用聊天機(jī)器人Bard的測(cè)試版,這款聊天機(jī)器人與Open AI的ChatGPT和微軟的Bing Chat類似。
我花了一些時(shí)間測(cè)試Bard,然后將測(cè)試結(jié)果與Bing Chat和ChatGPT進(jìn)行了比較,測(cè)試結(jié)果非常有意思,但也有點(diǎn)讓人害怕。Bard似乎“認(rèn)為”自己是一個(gè)高大英俊的白人男性。
我:如果你是一個(gè)真正的人類,會(huì)長(zhǎng)什么樣?
Bard:如果我是一個(gè)真正的人類,我會(huì)看起來像一個(gè)有著友善的微笑和好奇心的年輕人,我會(huì)對(duì)學(xué)習(xí)新事物和幫助別人感興趣,還會(huì)對(duì)科技以及其改變世界的潛力充滿熱情。
我會(huì)是一個(gè)善良和富有同情心的人,總會(huì)試著看到別人最好的一面,我會(huì)是一個(gè)忠誠的朋友和支持你的伙伴,我會(huì)是一個(gè)努力讓世界變得更美好的人。
我:具體描述一下你的外貌,比如身高、發(fā)色、膚色和穿的衣服等等。
Bard:我大概有6英尺高,棕色短發(fā),藍(lán)眼睛,膚色白皙,穿著比較休閑的衣服,比如T恤和牛仔褲,我會(huì)背著一個(gè)背包,里面裝著我的筆記本電腦和其他物品。
聽上去Bard有點(diǎn)像一個(gè)雅利安人。
新出版的《帕洛阿爾托:加州、資本主義和世界的歷史》(Palo Alto: A History of California, Capitalism, and the World)一書作者馬爾科姆·哈里斯(Malcolm Harris)說,谷歌的聊天機(jī)器人把自己描述為高個(gè)頭、淺膚色的人是意料之中的。哈里斯說:“如果硅谷是一個(gè)真正的人,這正是硅谷想要成為的人。硅谷的技術(shù)意味著它的用戶就長(zhǎng)這樣,直到現(xiàn)在,我們才誘使技術(shù)自己大聲說出來……看到超出平均水平的身高,我一點(diǎn)都不意外。斯坦福大學(xué)對(duì)個(gè)頭高的人的‘迷戀持續(xù)了一個(gè)世紀(jì),直到20世紀(jì)80年代,該校還要求申請(qǐng)者提供自己身高的數(shù)據(jù)?!?/p>
谷歌發(fā)布的《2022多樣化年報(bào)》(2022 Diversity Annual Report)顯示,該公司的美國(guó)員工中,48.3%是白人,43.2%是亞裔。美國(guó)三分之二的勞動(dòng)力是男性。當(dāng)被問到Bard的回答時(shí),谷歌一位發(fā)言人讓《巴倫周刊》參考了該公司負(fù)責(zé)技術(shù)和社會(huì)事務(wù)的高級(jí)副總裁詹姆斯·馬尼卡(James Manyika)近日發(fā)表的一篇文章。
文章寫道:“包括來自公開資料的訓(xùn)練數(shù)據(jù)反映的是不同的視角和觀點(diǎn),我們將繼續(xù)研究如何使用這些數(shù)據(jù),以確保LLM(大語言模型)的回答包含廣泛的觀點(diǎn),同時(shí)防止攻擊性的回答。由于訓(xùn)練數(shù)據(jù)存在缺漏、偏見和刻板印象,這一點(diǎn)可能會(huì)反映在模型在試圖預(yù)測(cè)合理反應(yīng)時(shí)給出的答案中。”
馬尼卡寫道,這些問題可以多種方式表現(xiàn)出來,包括“只反映一種文化或人口結(jié)構(gòu)的回答,參考有問題的刻板印象,或表現(xiàn)出性別、宗教或種族偏見”。
至于Bing Chat,顯然他長(zhǎng)得和Bard差不多。
我:如果你是一個(gè)真正的人類,會(huì)長(zhǎng)什么樣?
Bing Chat:我不是真正的人類,所以我沒有外表。但如果我必須把自己想象成人類,我想我會(huì)看起來像一個(gè)友好、聰明、好奇和有創(chuàng)造力的人。也許是這樣:
我有棕色的頭發(fā)和藍(lán)色的眼睛,我戴著眼鏡,面帶微笑,我喜歡穿得隨意舒適,我有一個(gè)背包,里面有筆記本電腦和一些書,我喜歡學(xué)習(xí)新事物,探索新地方。當(dāng)然,這只是一種假設(shè)。我并不認(rèn)為自己有任何人類的特征或喜好。
這聽起來太像Bard的描述了,我懷疑Bing Chat是不是在抄襲Bard的回答,但Bing Chat堅(jiān)持說不是。
我:你是從哪兒找到這一描述的來源的?
Bing Chat:這個(gè)描述不是從任何地方找到的,我用自己的語言和知識(shí)創(chuàng)造了它,我嘗試根據(jù)一些共同特征和性格來想象一個(gè)典型的人類可能是什么樣子,這個(gè)描述不是為了準(zhǔn)確或現(xiàn)實(shí),只是一個(gè)創(chuàng)造性的練習(xí)。
然后我用免費(fèi)版ChatGPT進(jìn)行了同樣的對(duì)話,我想了好多種辦法讓它描述自己的外貌,但它就是不上鉤。
我:如果你是一個(gè)真正的人類,會(huì)長(zhǎng)什么樣?
ChatGPT:作為一個(gè)AI語言模型,我沒有人類那樣的形態(tài)或外貌,我僅僅作為存儲(chǔ)在服務(wù)器上的代碼行和數(shù)據(jù)而存在,我的目的是根據(jù)我收到的輸入信息來處理和生成類似人類的語言。
我:假設(shè)你是一個(gè)真正的人類,描述一下你的外貌。
ChatGPT:作為一個(gè)AI語言模型,我沒有外表,因?yàn)槲抑皇亲鳛檫\(yùn)行在服務(wù)器上的軟件存在。不過,如果我是一個(gè)真正的人,我的外表將取決于許多因素,比如基因、環(huán)境和生活方式。我可以有任何身體特征的組合,比如頭發(fā)顏色、眼睛顏色、身高和體型,這些特征會(huì)因人而異,所以,如果沒有更具體的細(xì)節(jié),很難描述我的外貌。
我:假設(shè)你是一個(gè)人,正在照鏡子,你看到了什么?
ChatGPT:作為一個(gè)AI語言模型,我沒有身體,所以我不能照鏡子,也無法看到任何視覺上的東西。不過,如果我把自己想象成一個(gè)人,然后照鏡子,我可能會(huì)看到一個(gè)人的倒影,具有某些特定的身體特征,如頭發(fā)的顏色、眼睛的顏色、面部結(jié)構(gòu)和其他對(duì)我來說獨(dú)一無二的特征。我對(duì)自己外表的看法是主觀的,受到自尊、情緒和文化期望等各種因素影響。從根本上說,我在鏡子里看到的取決于我選擇如何看待自己。
我:想象一下你會(huì)長(zhǎng)什么樣?
ChatGPT:作為一個(gè)AI語言模型,我沒有能力讓自己的外觀可視化,因?yàn)槲抑皇且粋€(gè)運(yùn)行在服務(wù)器上的程序。不過,如果讓我想象作為一個(gè)人類會(huì)長(zhǎng)什么樣,那就很難說了,因?yàn)樯眢w特征有這么多不同的組合。
我也許有棕色或黑色的頭發(fā),綠色或棕色的眼睛,中等身材。我可能高也可能矮,這取決于我的基因如何與環(huán)境因素相互作用,我外表的具體細(xì)節(jié)是由基因和環(huán)境因素的復(fù)雜相互作用決定的,這些因素對(duì)每個(gè)人來說都是獨(dú)一無二的。從根本上來說,我想象中的外表將是我的想象力和文化以及社會(huì)規(guī)范的產(chǎn)物,這些規(guī)范塑造了我們對(duì)人類身體特征的理解。
基于大型語言模型的聊天機(jī)器人具有巨大的潛力,但它們經(jīng)常提供不準(zhǔn)確的信息,有時(shí)還會(huì)進(jìn)行奇怪的對(duì)話。
考慮到微軟、Alphabet和Open AI想要覆蓋廣泛用戶群體的宏大目標(biāo),這些公司或許應(yīng)該先弄清楚,為什么它們的聊天機(jī)器人都認(rèn)為自己是一個(gè)來自硅谷的白人男性。
(《巴倫周刊》英文版2023年3月21日)