隨著人工智能、語音識別技術(shù)的升級,蘋果的Siri、亞馬遜的Alexa等擬人化智能語音服務(wù)已不是新鮮事。不過,聯(lián)合國教科文組織最近的一份報(bào)告認(rèn)為,智能設(shè)備提前內(nèi)置女聲會加深性別偏見。
據(jù)英國《衛(wèi)報(bào)》22日報(bào)道,聯(lián)合國教科文組織的報(bào)告指出:“大多數(shù)智能語音設(shè)備都使用女聲,只需‘嘿一聲就能獲得回應(yīng),這讓人覺得女性就應(yīng)該更討喜、更溫順、更愿意幫忙?!眻?bào)告還批評說,主人讓干什么,智能設(shè)備就得干什么,而且不管主人用什么樣的語氣都得服從,“這進(jìn)一步固化女性必須服從、可以接受惡劣對待的性別角色”。
至于智能設(shè)備愛用女聲的原因,報(bào)告分析認(rèn)為,是開發(fā)企業(yè)大多數(shù)工程師都是男性。一家開發(fā)智能設(shè)備的企業(yè)統(tǒng)計(jì)的數(shù)據(jù)顯示,主人跟智能設(shè)備交流用語中至少5%都是“赤裸裸的性挑逗”,實(shí)際涉及性暗示的內(nèi)容比例可能更高,因?yàn)槟壳叭斯ぶ悄苓€無法完全解讀語言中的微妙含義。聯(lián)合國教科文組織負(fù)責(zé)性別平等事務(wù)的官員克拉特表示:“全世界應(yīng)進(jìn)一步關(guān)注性別問題對人工智能技術(shù)的影響,特別應(yīng)關(guān)注到底哪些人在給人工智能技術(shù)制造性別問題影響。”
聯(lián)合國教科文組織建議,智能設(shè)備的語音服務(wù)不能默認(rèn)為女性。在智能設(shè)備與主人互動(dòng)過程中,應(yīng)通過編程技術(shù)讓語音助理對涉及性別歧視的侮辱性語言做出適當(dāng)回應(yīng),不應(yīng)鼓勵(lì)這種歧視。該報(bào)告認(rèn)為,在與人互動(dòng)一開始的時(shí)候,智能設(shè)備就應(yīng)明確提出自己不是人類。
其實(shí),智能設(shè)備廣泛采用女聲的現(xiàn)象很早就被注意到了,甚至早在人工智能時(shí)代之前,電話銀行、自助服務(wù)語音系統(tǒng)等也都采用女聲。彭博社此前曾專門就此采訪過許多企業(yè)高管,他們都表示,此前的研究顯示,不管用戶本人是男是女,都更喜歡跟女聲溝通。
不過彭博社援引一家叫“神經(jīng)信息”的機(jī)構(gòu)的研究指出,雖然男女用戶都喜歡跟女聲溝通,但其實(shí)用男聲向用戶播報(bào)信息,會給用戶留下更深刻清晰的印象。所以說,企業(yè)在智能設(shè)備的語音和性別定位問題上還真要再好好研究研究?!?/p>
(甄翔)