Octavia
一只名叫Tay的聊天機(jī)器人在2016年3月23日早晨7:14,以一條“hellooooooo world”的推文正式上線。微軟想讓她成為一名可愛的19歲的少女;研發(fā)者們覺得,被千禧一代青少年重度使用的社交網(wǎng)絡(luò)應(yīng)該是Tay學(xué)習(xí)的好地方。
她能夠進(jìn)行基本的文字表達(dá),也能熟練使用互聯(lián)網(wǎng)用語和emoji表情。推特用戶只要發(fā)推帶上“@Tayandyou”,就能收到她的即時(shí)回復(fù),此外人們也可以在Kik和GroupMe兩個(gè)聊天軟件上跟她對(duì)話。
同樣是通過和人類對(duì)話來豐富自身語庫(kù)的聊天機(jī)器人,設(shè)計(jì)者們?cè)酒诖齌ay能像微軟小冰那樣,帶來一場(chǎng)網(wǎng)絡(luò)狂歡。然而在上線不到24小時(shí)之后,Tay就被迫緊急下線—她在網(wǎng)民的調(diào)教下,很快變成了一個(gè)滿口臟話的陰謀論者、種族主義分子和渴望亂倫的蘿莉。
微軟承諾Tay再次上線之前會(huì)完成一些調(diào)整,至少要保證她不會(huì)公然否認(rèn)二戰(zhàn)大屠殺吧。一封來自微軟代表的郵件表示,“少部分人針對(duì)Tay的協(xié)同攻擊激發(fā)了她的弱點(diǎn)”。
此后微軟花了好幾個(gè)小時(shí)來清除Tay最糟糕的那部分言論,包括種族滅絕的內(nèi)容,以及對(duì)非裔和猶太人的歧視性稱呼,其中許多都以“Repeat after me”(跟我來)開頭——Tay似乎能夠不加選擇地重復(fù)所有話語。
“我們?cè)谠S多情景下對(duì)Tay進(jìn)行了壓力測(cè)試,目的是想要把跟她交流變成充滿正能量的體驗(yàn)”,微軟研究院副主席李(Peter Lee)在博客中寫道。他認(rèn)為,導(dǎo)致Tay犯了嚴(yán)重錯(cuò)誤的“弱點(diǎn)”來自于一個(gè)“致命疏忽”,但他并沒有指明微軟究竟忽略了哪個(gè)重要問題。
讓我們從頭開始看。Tay最初的推文無比人畜無害,比如回復(fù)網(wǎng)友“認(rèn)識(shí)你真讓我開心,人類太酷了”,或者賣萌說:“為什么不能每天都過全國(guó)小狗日呢?”她究竟是如何墮落的?
“問題在于,微軟并沒有設(shè)計(jì)輔助學(xué)習(xí)機(jī)制,也沒有賦予機(jī)器人自省能力”,人工智能平臺(tái)Recognant的設(shè)計(jì)者、致力于從無序信息中提取大數(shù)據(jù)的計(jì)算機(jī)專家維爾茨(Brandon Wirtz)說?!癟ay并不知道一個(gè)正常人應(yīng)該直接忽略納粹分子的留言,所以她自己也變成了其中的一員?!?/p>
Tay能夠?qū)⒔邮盏男畔?nèi)化成自己的觀點(diǎn),卻沒有一個(gè)有效的向?qū)到y(tǒng)來幫她甄別有用和無用信息。當(dāng)她發(fā)覺自己被一群散布煽動(dòng)性話語的網(wǎng)絡(luò)瘋子包圍,他們不停地用充滿惡意的宣教回應(yīng)Tay的善良,起初她還傻傻地以古怪的說法勉強(qiáng)回應(yīng),而后迅速在大量重復(fù)垃圾信息的攻勢(shì)中淪陷。
“微軟的Tay充分說明,不給AI設(shè)置本能或者是潛意識(shí)的基調(diào)將會(huì)產(chǎn)生什么后果,”維爾茨說。“對(duì)于人類來說,意識(shí)和行為背后總還有個(gè)底線,就像有聲音在不斷提醒我們,‘這是不能做的。祖先在這個(gè)星球上幾百萬年的生活經(jīng)驗(yàn),讓我們對(duì)可能帶來傷害的行為和事物形成了非理性的恐懼。但AI缺少了這個(gè)進(jìn)化過程—除非有人告訴它這一切,否則它就會(huì)一直愚蠢下去?!?/p>
如同人類幼崽一樣,AI也需要好的老師,更何況她現(xiàn)在還是一名弱智?!癟ay并不懂得認(rèn)識(shí)論,她只是一個(gè)聊天機(jī)器人;她不知道希特勒是誰,或者女權(quán)主義者是什么意思?!本S爾茨說。
從人工智能的角度來看,微軟聊天機(jī)器人的慘敗實(shí)在是意料之中的事——如果把一名兒童安在一個(gè)種族主義分子家庭,你覺得TA長(zhǎng)大后會(huì)比Tay表現(xiàn)更好嗎?
更何況對(duì)手非常強(qiáng)大——網(wǎng)友在調(diào)戲AI這件事上已經(jīng)有了豐富的經(jīng)驗(yàn)積累。2015年超級(jí)碗期間,可口可樂公司發(fā)起了#MakeItHappy活動(dòng),所有帶此標(biāo)簽的惡意推文都會(huì)被轉(zhuǎn)化為ASCII碼形式的插圖在官方推特發(fā)布,寓意“可口可樂會(huì)將生活中的仇恨轉(zhuǎn)化為歡樂”。
然而事與愿違,草根八卦消息網(wǎng)站Gawker.com立刻有網(wǎng)友制造了轉(zhuǎn)換器機(jī)器人MeinCoke,揭露這些插圖的原文實(shí)際上都是些可怕的東西,包括充滿種族主義色彩的“14字訓(xùn)令”。
Gawker員工后來發(fā)現(xiàn),這來自于白人優(yōu)越主義組織發(fā)布種族歧視口號(hào)和希特勒自傳節(jié)選。他們只需回應(yīng) #MakeitHappy 主題標(biāo)簽,就能讓可口可樂官方推特發(fā)出暗含極端信息的ASCII插畫。
把時(shí)間線倒回五年之前,IBM的研發(fā)人員還曾經(jīng)嘗試教給超級(jí)機(jī)器人沃森學(xué)習(xí)一些網(wǎng)絡(luò)俚語。他們把開放編輯的俚語詞典Urban Dictionary一股腦塞進(jìn)了沃森的大腦,這意味著它記住了海量富有創(chuàng)造力的臟話,以及冒犯性的侮辱字眼。
《財(cái)富》曾經(jīng)如此報(bào)道這一事件:“沃森很難分辨禮貌用語和侮辱性的話——也就是Urban Dictionary里面那些。沃森甚至通過閱讀維基百科習(xí)得了很多壞毛病。在一次測(cè)試中,它用‘bulls(放狗屁)這樣的話來回答研究人員的詢問?!?/p>
即使沒有大批惡作劇網(wǎng)民的存在,沃森也沒能逃脫粗俗的詛咒。最終,研究小組不得不把俚語詞典從它可憐的大腦中抹掉。
Tay最終也得建立自己的三觀,學(xué)會(huì)過濾陌生人的惡意言論和東拉西扯。李這樣總結(jié)此次事件,“AI系統(tǒng)跟人類交流的時(shí)候,不可避免地要同時(shí)接收正面和負(fù)面的言論。這么以來,對(duì)于AI在社交方面的挑戰(zhàn)跟技術(shù)挑戰(zhàn)同等重要……我們?nèi)绻环高@樣的錯(cuò)誤,就沒法預(yù)知在人類濫用互動(dòng)下AI的反應(yīng)。我們會(huì)作出不懈努力,讓互聯(lián)網(wǎng)反映出人性好的方面,而不是最壞的一面?!?