国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能有搞『種族歧視』嗎?

2022-02-28 08:43:14關(guān)不羽
中外文摘 2022年1期
關(guān)鍵詞:錯誤率優(yōu)步亞裔

□ 關(guān)不羽

優(yōu)步公司在英國又“攤上大事”了。這事大致上是這樣的:公司要求員工把自拍照上傳到人事系統(tǒng),與系統(tǒng)存儲的參考照片進行匹配。如果匹配不成功,那么系統(tǒng)會提示員工實時自拍,并面臨解雇風(fēng)險。而員工一旦被解雇,也將面臨被自動吊銷其私人出租司機和車輛執(zhí)照的處罰。這樣的倒霉事在兩位優(yōu)步前員工身上發(fā)生。

這本來是一起普普通通的勞資糾紛。但是,英國工會可不會那么輕易放過這樣的機會,訴訟的理由中赫然出現(xiàn)了“種族歧視”。

因為據(jù)一些技術(shù)人員和相關(guān)組織稱,“面部識別系統(tǒng)……天生就有缺陷,對有色人種進行識別時準(zhǔn)確度會變得很差”。涉及“種族”,事件性質(zhì)立刻升級到“種族歧視”的高度了,技術(shù)問題升級為政治問題,敏感度倍增。

其實,人工智能面部識別系統(tǒng)對有色人種的識別精度不佳,不是新問題。2015 年,谷歌就鬧過笑話。一名黑人軟件開發(fā)人員在Twitter 上說,谷歌照片服務(wù)把他和一個黑人朋友的照片打上了“大猩猩”的標(biāo)簽。當(dāng)時也有一些“進步”組織和人士借機發(fā)難,指責(zé)谷歌“種族歧視”。但“進步”的谷歌不大可能是故意為之。最終的“受害者”可能是猩猩,因為谷歌的應(yīng)對措施是把“猩猩”和其他靈長類動物的標(biāo)簽移除了,“猩猩”在“谷歌宇宙”中成了“查無此人”的黑戶。

比起2015 年的谷歌,優(yōu)步可能就沒那么幸運了。一則“種族問題”的敏感度遠遠超過了2015年;二則涉及勞資糾紛,索賠的想象空間巨大。就在2021 年10 月5 日,因“旗下工廠存在種族歧視問題”,美國舊金山法院判決某電動汽車廠商向前黑人員工賠付1.37 億美元。

那么,到底人工智能的識別誤差能不能被視為“種族歧視”呢?這就涉及誤差產(chǎn)生的原因。眾所周知,人工智能是在特定模型下自我學(xué)習(xí)形成算法的,訓(xùn)練模型所依據(jù)的數(shù)據(jù)集和模型本身的設(shè)計都有可能帶來偏差。數(shù)據(jù)集和模型本身哪怕只是出現(xiàn)了人力難以察覺的細微偏差,人工智能的海量運算也會將其放大到失真的程度。這樣的問題在現(xiàn)有的技術(shù)條件下并不罕見。2013 年谷歌人工智能預(yù)測流感暴發(fā)就“大翻車”了,預(yù)測數(shù)據(jù)比實際數(shù)據(jù)高了兩倍。原因是經(jīng)媒體報道后,很多沒得流感的人也搜索了相關(guān)內(nèi)容,導(dǎo)致人工智能的誤判。

造成“有色人種面部識別率誤差大”的技術(shù)因素甚至更為單純——光學(xué)現(xiàn)象。2015 年“黑猩猩標(biāo)簽”事件后,技術(shù)人員分析發(fā)現(xiàn),識別錯誤率最高的不是非裔,而是亞裔(黃種人)女性,識別錯誤率高達20%。而“黑人”的識別錯誤率為5%——此處的“黑人”并不局限于所謂“非裔”,而是純粹意義的深膚色,也包括印度裔、拉丁裔等等。

造成這一現(xiàn)象的原因其實不難理解,亞裔女性的膚色普遍偏白,不僅比亞裔男性白,甚至可能比大部分白人更白,更高的反光度造成了面部成像的對比度下降,造成了識別度偏低。而“黑人”的膚色偏黑,吸收了更多的光,同樣造成了識別困難。其實,理解這一現(xiàn)象不需要高深的知識,日常生活經(jīng)驗就夠了。觀察各類攝像頭監(jiān)視畫面里就可以發(fā)現(xiàn),膚色更黑和更白的人,面部細節(jié)會更模糊一些。

這一純粹的光學(xué)難題,人工智能很難完全克服,確實存在技術(shù)局限性。但是,沒有理由認為這是人為設(shè)置的“歧視”。硅谷沒有理由專門為難亞裔女性,卻“放過”亞裔男性。也不會刻意針對“黑人”——在硅谷,深膚色的印度裔可是優(yōu)勢人群。更何況人為降低人工智能的面部識別精度,對這些企業(yè)的商業(yè)利益毫無幫助。

當(dāng)然,不可否認,人工智能技術(shù)確實會產(chǎn)生“歧視”。2014年亞馬遜開始建立人工智能程序,以審查求職者的簡歷,以實現(xiàn)自動化招聘功能。但是,一年之后亞馬遜就放棄了這一嘗試,因為他們發(fā)現(xiàn)“AI 不喜歡女性”。這種差別對待當(dāng)然符合“歧視”的標(biāo)準(zhǔn)定義,但是這種“歧視”恰恰是因為“過于真實”才造成了麻煩。亞馬遜有很多崗位是對體力有一定要求的,男性確實比女性強壯,因此AI 計算形成了性別偏好。這到底算不算AI 犯錯了呢?

引入人工智能自動招聘是為了提高效率,AI 確實做到了。但是,這種真實的效率改進,卻因“性別歧視”的敏感性而擱淺。復(fù)雜的人類社會中,真相并不總是受到歡迎,AI 沒有學(xué)到這最重要的一課。

如果是護士、教師等女性優(yōu)勢崗位也用人工智能自動招聘,出現(xiàn)“重女輕男”的結(jié)果,又會如何?多半是波瀾不驚,甚至成為一段佳話。這種微妙的心態(tài),或許已經(jīng)超出了AI 的理解能力。

歸根結(jié)底,圍繞“人工智能”的是是非非再復(fù)雜,也是技術(shù)問題,不應(yīng)將其政治化、意識形態(tài)化。即使存在技術(shù)局限,那就改進技術(shù),而不是揮舞“歧視”的政治大棒去限制和扼殺。如果因此導(dǎo)致人工智能學(xué)會撒謊,那更是危險的傾向。

猜你喜歡
錯誤率優(yōu)步亞裔
限制性隨機試驗中選擇偏倚導(dǎo)致的一類錯誤率膨脹*
楊紫瓊:首位奧斯卡亞裔影后
過去一年美國發(fā)生6000多起針對亞裔仇恨事件
為什么中國的滴滴能在優(yōu)步苦苦掙扎的領(lǐng)域取得成功
英語文摘(2021年5期)2021-07-22 08:46:16
優(yōu)步轉(zhuǎn)向共享自行車市場
中國自行車(2018年7期)2018-08-14 01:52:44
正視錯誤,尋求策略
教師·中(2017年3期)2017-04-20 21:49:49
解析小學(xué)高段學(xué)生英語單詞抄寫作業(yè)錯誤原因
優(yōu)步:極速前進
上海國資(2015年8期)2015-12-23 01:47:28
降低學(xué)生計算錯誤率的有效策略
吴江市| 宿州市| 肥城市| 星子县| 新昌县| 荣成市| 正定县| 楚雄市| 赣州市| 合阳县| 松原市| 广汉市| 鄂温| 新蔡县| 南岸区| 宜川县| 泊头市| 江源县| 邵阳县| 安塞县| 西盟| 扎鲁特旗| 绵竹市| 晴隆县| 平利县| 万盛区| 淳安县| 靖安县| 朝阳区| 西充县| 太仓市| 历史| 梁平县| 西丰县| 麦盖提县| 恩施市| 靖边县| 镇赉县| 遵化市| 灵石县| 海盐县|