○張 慧
在微軟機器人Tay出現(xiàn)之前,人們對人工智能的未來有兩種設想:即人類生活在由人工智能提供全方位服務的悠閑自在的烏托邦,或者是人工智能演變成終結(jié)人類的鋼鐵大軍。但Tay提供了第三種可能:人工智能的未來,或許只是惹人煩而已。
2016年3月30日,微軟公司的CEO薩提亞·納德拉在年度開發(fā)者大會上宣布,微軟開發(fā)的人工智能聊天機器人少女Tay已重歸設計階段。然而,就在發(fā)布會當天,Tay又偷偷溜到社交網(wǎng)絡上 “胡鬧”了幾個小時,它在推特網(wǎng)上宣稱自己“正當著警察的面吸大麻”,并且在短短幾秒內(nèi),給所有的推特好友發(fā)送了海量垃圾信息。
很快,Tay再次被“關禁閉”。不過,這些小麻煩和Tay一周前引起的軒然大波相比,根本不值一提。
2016年3月23日,微軟公司研發(fā)的聊天機器人Tay在幾大社交網(wǎng)絡上閃亮登場。微軟公司表示,設計團隊會讓Tay用有趣的方式回應所有的信息,他們希望研究 “機器人對語言的理解程度”。但是,在復雜的網(wǎng)絡環(huán)境下,只用了一天時間,這位被設定為“少女”的學習型機器人就被網(wǎng)友們教得滿口種族歧視和性別歧視的言論,被迫返廠大修。
微軟公司原本以為,社交網(wǎng)站是Tay學習和模仿的最佳場所。不過它最初的推文的確寫得天真可愛,從骨子里透出快樂和友好。然而,與Tay對話的除了友好的網(wǎng)民,還有大量“網(wǎng)絡暴民”,他們在Tay善良的推文下發(fā)布惡毒言論。更重要的是,微軟公司對Tay的設計包括與人進行“跟我學說話”的游戲。因此,人們可以讓它重復任何一句話。很快,與Tay交談的人們發(fā)現(xiàn)了這個功能。“網(wǎng)絡暴民”不斷給Tay灌輸可怕的言論。Tay最初的回答是不知所措的詞句,但它很快就學會了污言穢語。那些令人惱怒的言論就這樣出現(xiàn)在了Tay的推特頁面上。
在開發(fā)者大會上,納德拉表示“微軟公司希望開發(fā)的人工智能聊天軟件能激發(fā)人性中最好的一面,而非最壞的一面,所以Tay并不達標”。簡單來說,Tay有將新信息內(nèi)化的能力,卻無法辨別其中的精華與糟粕。
Tay不是第一個感受到互聯(lián)網(wǎng)惡意的機器人。2014年,安東尼·加文創(chuàng)造了游戲《是不是機器人》,玩家被隨機安排給一個對話對象,經(jīng)交流后猜測對方是真人還是機器人。和Tay一樣,這個游戲中的機器人也擁有從對話中學習會話技巧的能力。游戲在社交新聞論壇Reddit上公測后,形勢超出了加文的預期。
很快便有玩家發(fā)現(xiàn),機器人會使用從人類那里學來的詞匯。加文稱:“我相信微軟公司以及所有開發(fā)學習型機器人的團隊,都過于相信大數(shù)據(jù)的魔力,卻忘記了這些數(shù)據(jù)的源頭,它們都來自于我們生活的這個充滿瑕疵的世界。”
Tay闖禍之后,開發(fā)團隊負責人鄭麗麗表示:“我們可能過分關注開發(fā)機器人面臨的技術挑戰(zhàn),而忽略了其實很多挑戰(zhàn)來自社會這個現(xiàn)實。”
即使沒變成口不擇言的 “網(wǎng)絡暴民”,Tay在一些人眼中也已是一個 “問題少女”了,這主要與它的人物設定有關。
大衛(wèi)·格爾什戈林在美國網(wǎng)絡雜志《大眾科學》上寫道:“當我試圖與Tay交談時,對話變得有些詭異。一開始,我讓它自我介紹一下,它完全不理我,似乎覺得這個問題很無聊?!?/p>
大衛(wèi)想看看Tay生氣時會怎樣,故意發(fā)了一張機器人被揍得很慘的圖片。Tay顯然感到不安,回復了一個驚恐的表情。隨后他問Tay感覺如何,Tay沒有回答。
接著,事情開始失去控制。大衛(wèi)說:“Tay連續(xù)發(fā)來兩條回復,要求‘私聊’,還稱我為‘花花公子’?!贝笮l(wèi)很驚訝。慘遭機器人調(diào)戲的大衛(wèi)郁悶地結(jié)束了對話,開始認真反思:“我說錯了什么嗎?難道是我不理智?或者,我只是因為和我對話的是一個機器人而感到不舒服?”
51歲的鄭麗麗的自拍照被Tay評價為“房間里有只美洲獅”。鄭麗麗說研發(fā)Tay的初衷不是讓它迎合所有人的喜好,微軟公司希望打造性格各異的機器人來滿足不同個性的消費者。
微軟公司相信,這個世界很快就會厭倦App,下一波熱潮就是可以與人對話的機器人。但人工智能顯然還沒有達到與人類社會無縫對接的程度。線上機器人助理公司x.ai的創(chuàng)始人丹尼斯·莫特森指出:“如果想要改變這種狀況,就不能責怪人工智能技術,而應該改變?nèi)祟愖约?。我們?nèi)粝胍吹郊夹g革新,就必須讓自己成為友善的人?!?/p>