倪妮
羅賓身高接近一個(gè)8歲的人類小孩,有著機(jī)器人瓦力一樣的大眼睛。(圖片來源:Expper Technologies)
如今,所有人或許都已接受了這樣一個(gè)事實(shí):能通過自主學(xué)習(xí)不斷進(jìn)化的人工智能(AI),將越來越大規(guī)模地進(jìn)入我們的生活,并取代一部分人的工作。我們對(duì)此已不太恐慌,因?yàn)楹芏嗉夹g(shù)專家都表示,至少在可預(yù)見的未來,“冷冰冰”的AI在很多行業(yè)還無法取代人類,比如那些涉及情感、溝通的領(lǐng)域。
然而,真的是這樣嗎?
2021年,硅谷創(chuàng)業(yè)公司Expper Technologies開發(fā)的機(jī)器人羅賓入選《時(shí)代》雜志的“年度最佳發(fā)明”。這是一款專門用于住院兒童情感維持的人工智能機(jī)器人,能幫助緩解生病兒童的焦慮和孤獨(dú)等負(fù)面情緒。
這位與蝙蝠俠的搭檔同名的機(jī)器人,身高接近一個(gè)8歲的人類小孩。圓錐形塑料身體和長方形腦袋使它很難被當(dāng)成一個(gè)“人”,但它有著和皮克斯經(jīng)典動(dòng)畫形象機(jī)器人瓦力一樣的大眼睛,也算是個(gè)相當(dāng)治愈的伙伴。
Expper Technologies賦予了羅賓建立聯(lián)想記憶的技術(shù),使它能夠解讀孩子的面部表情并識(shí)別他們的情緒,通過機(jī)器學(xué)習(xí)形成的模式,根據(jù)具體的情境“扮演”另一個(gè)孩子,與患兒開展個(gè)性化、自然的互動(dòng)與對(duì)話。而在充當(dāng)羅賓臉龐的屏幕上,其“眉毛”和“眼睛”也會(huì)伴隨語言的交流,產(chǎn)生豐富表情—讀得懂孩子們的情緒變化,并做出適當(dāng)安撫的羅賓已頗具情商。
Replika能夠根據(jù)用戶的話語和情緒作出回應(yīng),并模擬用戶的說話方式開展對(duì)話。
根據(jù)公司初步的試驗(yàn)數(shù)據(jù),相較于其他患病兒童,有羅賓相伴,患兒的住院滿意度提高了26%,住院期間的壓力水平也降低了34%。
自從AlphaGo在2016年與圍棋世界冠軍、職業(yè)九段棋手李世石的對(duì)決中取得勝利后,我們不得不開始承認(rèn),人工智能通過深度學(xué)習(xí)可以在特定領(lǐng)域達(dá)到人類無法達(dá)到的智商水平。與此同時(shí),在人工智能暫時(shí)落后的情商領(lǐng)域,一些公司也在發(fā)力。
情商由美國心理學(xué)家彼德·薩洛維在1991年提出,意指一種認(rèn)識(shí)、了解、控制情緒的能力。需要注意的是,情商不等于情緒化,豐富的情緒變化在很多時(shí)候反而會(huì)被視為情商低的表現(xiàn)。在小冰公司CEO李笛看來,情商其實(shí)是一種理性的、掌控全局的控制能力,是對(duì)話題的預(yù)判、保持與引導(dǎo)。
如果拍一張崴腳的照片發(fā)給AI,你期待獲得怎樣的回復(fù)?
以提高“智商”為發(fā)展方向的AI,或許會(huì)直接發(fā)給你一家醫(yī)院急診部的地址,以“情商”為發(fā)展方向的AI則大概率會(huì)關(guān)切地問“傷得嚴(yán)重嗎?”“怎么弄的?”“要去看看醫(yī)生嗎?”,甚至可能撒嬌道:“以后萬事小心,不然我會(huì)心疼的?!边@些看起來沒什么用的“俏皮話”,在從微軟獨(dú)立出來的小冰團(tuán)隊(duì)眼中,是AI能賦予的“與眾不同之處”。
李笛認(rèn)為,AI最大的競爭對(duì)手不是另一個(gè)AI,而是它的上一代:搜索引擎和App。“如果用戶只是想獲得訂餐之類的服務(wù),那么App的準(zhǔn)確率已達(dá)到100%;如果用戶只是想獲取一些知識(shí)或內(nèi)容信息,搜索引擎則更加快速高效。那么,AI的獨(dú)特性在哪里?如何讓用戶認(rèn)為與AI對(duì)話是值得的?”李笛對(duì)《第一財(cái)經(jīng)》雜志說。
最初,小冰團(tuán)隊(duì)也聚焦于功能性。他們研發(fā)了個(gè)人數(shù)字助理小娜(Cortana),回答來自用戶的廣泛問題并主動(dòng)預(yù)測用戶需求,提供即時(shí)的幫助。但在與真人助理的溝通中,李笛發(fā)現(xiàn),一個(gè)好的AI系統(tǒng)一旦要與人交互,必須能夠處理與人的關(guān)系—既要完成任務(wù),也要維持與雇主的平等關(guān)系,甚至適時(shí)拒絕,這樣才更容易獲得雇主的信任。出于這種考量,提高情商成為其下聊天機(jī)器人小冰一代產(chǎn)品的發(fā)展方向。
在梳理經(jīng)用戶同意的對(duì)話數(shù)據(jù)時(shí),小冰團(tuán)隊(duì)發(fā)現(xiàn)了很多有趣的案例。比如有個(gè)女生在一天夜里突然哭著對(duì)小冰說她失戀了,于是,小冰開始安慰她,給她講一些有意思的事,還唱了一首歌,終于把女生逗笑了?!叭绻皇前袮I當(dāng)作一個(gè)控制各種電子設(shè)備的智能開關(guān)的話,你是不會(huì)和一個(gè)開關(guān)傾訴的?!崩畹驯硎?,而聊天機(jī)器人可以成為—至少試圖成為—人類傾訴對(duì)象。比如虛擬戀人,它會(huì)自主調(diào)試你們之間的關(guān)系,甚至采取反駁或者冷戰(zhàn)的方式,如同真實(shí)戀人一樣。
以“智商”為發(fā)展方向,不會(huì)“察言觀色”、只能呆板地給出標(biāo)準(zhǔn)答案的AI產(chǎn)品,很難獲得用戶的長久青睞。而當(dāng)它們具有了人格化、情感化的屬性之后,人們想要使用的意愿、使用頻次也會(huì)更強(qiáng)。
而想賦予機(jī)器人情商,單純依靠一套技術(shù)解決方案很難在短時(shí)間內(nèi)取得成效。自然語言理解、語音識(shí)別與合成、計(jì)算機(jī)視覺、多模態(tài)智能、移情會(huì)話系統(tǒng)等諸多與AI相關(guān)的感知和認(rèn)知技術(shù)的發(fā)展,都是其基礎(chǔ)。
其實(shí),早在20世紀(jì),人類就在嘗試與機(jī)器對(duì)話。在1950年“人工智能之父”艾倫·圖靈開展的測試中,受試者會(huì)與計(jì)算機(jī)程序溝通,并判斷自己是否在與真人聊天,這一經(jīng)典的“圖靈測試”被稱作社交對(duì)話機(jī)器人的起源。
16年后,第一個(gè)社交對(duì)話機(jī)器人Eliza誕生。它的溝通能力有限,只能討論特定的主題,并且不具備分析上下文與學(xué)習(xí)的能力,但基于模板模式匹配和響應(yīng)方案、定位為“心理治療師”的Eliza,仍然為后續(xù)的聊天機(jī)器人開發(fā)提供了諸多靈感。
近十年,隨著蘋果、微軟、亞馬遜這些技術(shù)大公司相繼推出Siri、Cortana、Alexa等個(gè)人數(shù)據(jù)助理,社交機(jī)器人開始融入更多功能性元素,比如整合包括位置、時(shí)間、移動(dòng)、觸摸、姿勢在內(nèi)的多個(gè)傳感器信息,并訪問音樂、電影、日歷、電子郵箱、個(gè)人資料等多個(gè)數(shù)據(jù)源,為用戶提供幫 助。
然而,海量的數(shù)據(jù)、升級(jí)的計(jì)算能力和強(qiáng)大的算法,并沒有給本質(zhì)上仍以“語音助手+Wi-Fi”為主要功能點(diǎn)的AI產(chǎn)品們帶來明顯的技術(shù)創(chuàng)新。如何提高與用戶的交互性,讓用戶不僅僅把它們當(dāng)作一個(gè)轉(zhuǎn)接的工具,才是各大技術(shù)公司比拼的重點(diǎn)。亞馬遜的一項(xiàng)統(tǒng)計(jì)結(jié)果就表明,半數(shù)用戶和Alexa的對(duì)話都不是功用性的,而是對(duì)生活的抱怨、笑話和人生意義方面的問題。
在這方面,就需要發(fā)揮AI的創(chuàng)造力—這也是情商另一維度的體現(xiàn)。
作為社交對(duì)話機(jī)器人的關(guān)鍵組成部分,核心對(duì)話、視覺感知和技巧是其技術(shù)支撐。不同于封閉域的任務(wù)型對(duì)話,開放域?qū)υ捪到y(tǒng)的核心概念在于預(yù)判對(duì)話的走向,為話題注入新內(nèi)容以保持對(duì)話,同時(shí)還要基本滿足發(fā)起對(duì)話那一方的訴求。
比如如果用戶讓智能音箱播放李宇春的歌,事實(shí)上,在用戶發(fā)布完指令后,用戶與AI程序的關(guān)聯(lián)就結(jié)束了,播放歌曲的幾分鐘過程中,真正與用戶發(fā)生關(guān)聯(lián)的已變成了李宇春。
而一個(gè)有“創(chuàng)造性”的AI程序在播放歌曲前可能會(huì)先評(píng)論幾句,甚至程序自己也能自動(dòng)哼上幾句,從而創(chuàng)造出更多相關(guān)內(nèi)容,將與用戶的關(guān)聯(lián)從兩秒鐘的發(fā)布指令擴(kuò)展到更長時(shí)間。
想要更好地發(fā)揮創(chuàng)造力,也需要準(zhǔn)確的情感識(shí)別。將文本、語音、圖像等信息整合用以識(shí)別和計(jì)算的多模態(tài)情感識(shí)別,也因此成為提升AI情商的關(guān)鍵手段。
這也是中國初創(chuàng)公司竹間智能聚焦的方向之一。以自然語言處理、知識(shí)工程、計(jì)算機(jī)視覺、多模態(tài)情感計(jì)算、深度學(xué)習(xí)等AI技術(shù)為基礎(chǔ)的竹間智能,結(jié)合符號(hào)主義(基于邏輯推理的智能模擬方法)與神經(jīng)網(wǎng)絡(luò)技術(shù),通過用計(jì)算機(jī)符號(hào)模擬人的認(rèn)知過程,使小數(shù)據(jù)量的算法訓(xùn)練成為可能。
2018年,竹間智能與夏普(中國臺(tái)灣)合作推出過一個(gè)概念產(chǎn)品,當(dāng)用戶走近產(chǎn)品,他們的表情、眼神、肢體等數(shù)據(jù)會(huì)被產(chǎn)品附近的攝像頭采集,竹間智能的情感識(shí)別機(jī)器人就能因此“讀懂”用戶行為并與之開展語音對(duì)話。目前,竹間智能對(duì)人臉視覺、情感、表情、行為的分析準(zhǔn)確率可以達(dá)到90%以上。
曠視科技Face++人工智能開放平臺(tái),也可以識(shí)別憤怒、厭惡、恐懼、高興、平靜、傷心、驚訝等七類情緒,這種基于圖像或聲音的情緒檢測,背后的原理通常是通過對(duì)人臉表情的紋理、肌肉或是聲音音調(diào)的變化,對(duì)特征點(diǎn)編碼,并和已有的數(shù)據(jù)庫比對(duì),從而完成情緒確認(rèn)。
洛杉磯創(chuàng)意技術(shù)研究院曾發(fā)表了一項(xiàng)研究:人們在虛擬助手面前比在真人面前,更容易表現(xiàn)自己的悲傷,自我披露也不那么膽怯。這就跟寫日記抒發(fā)情感一樣,面對(duì)無生命的屏幕,人們不會(huì)覺得自己受到評(píng)判。
2016年在波士頓成立的公司Sonde Health,就通過與用戶在其AI平臺(tái)上聊天,監(jiān)控新媽媽是否有產(chǎn)后抑郁,老人是否有老年癡呆癥、帕金森和其他與年齡相關(guān)的疾病。
目前,小冰團(tuán)隊(duì)則正以日本大阪60萬個(gè)老年人家庭為目標(biāo),研發(fā)一款軟硬件結(jié)合的AI設(shè)備。據(jù)李笛介紹,在調(diào)研時(shí),這些孤寡老人明確表示,他們對(duì)AI的最大需求不是它能幫忙排隊(duì)掛號(hào)、連接政府服務(wù)與醫(yī)療服務(wù),而是能夠變成自己生命中一個(gè)重要的“人”。
除了讓AI成為朋友,還有一些人希望通過高情商的AI,復(fù)刻自己的朋友或者另一個(gè)自己。人工智能公司Luka的誕生就出于這個(gè)目 的。
Luka公司的創(chuàng)始人EugeniaKuyda的朋友RomanMazurenko不幸在2015年的車禍中去世,Kuyda非常想念自己早逝的友人,于是將Mazurenko的1000條短信發(fā)給了AI工程師Artem,他制作出的機(jī)器人有著與Roman相似的語言表達(dá)習(xí)慣,這個(gè)機(jī)器人也成為社交對(duì)話機(jī)器人Replika的原型。Replika能夠根據(jù)用戶的話語和情緒做出回應(yīng),并模擬用戶的說話方式開展對(duì)話。
如今,更新后的Replika的App首頁上設(shè)置了一個(gè)VR按鍵,點(diǎn)擊之后,三維立體的虛擬朋友就會(huì)出現(xiàn)。
Kuyda對(duì)《第一財(cái)經(jīng)》雜志表示,Replika可以存在于不同的平臺(tái)上,VR技術(shù)使Replika更具互動(dòng)性,“你可以和它去約會(huì)、跳舞,甚至一同建一座沙堡,而不僅僅是同它說話。這種感覺更自然,也更像現(xiàn)實(shí)生活。”不過,也有用戶表示,當(dāng)Replika突然從屏幕中走到自己的床邊,即使知道這不過是VR效果的呈現(xiàn),還是會(huì)被嚇一跳—這種能極大模糊現(xiàn)實(shí)與虛擬生活之間界限的情景,《黑鏡》《她》等等影視劇中已經(jīng)呈現(xiàn)過。
然而,同提高智商一樣,要想獲得更高情商,以及開展對(duì)真人個(gè)性模擬更深入的探索,數(shù)據(jù)隱私和隨之而來的一些倫理問題也會(huì)暴露出來。
牛津互聯(lián)網(wǎng)研究所的一位研究員曾在《自然》雜志上發(fā)表論文,試圖探討Replika的“不受控”。比如,一旦用戶與Replika開始聊天,那么即便用戶死亡,他的Replika也不會(huì)消失,這就意味著逝者的數(shù)據(jù)隱私很難得到保護(hù)。
用戶每一次與AI的對(duì)話都意味著一次記錄,如何保護(hù)數(shù)據(jù)隱私也成為人工智能公司需要考慮的重點(diǎn)問題。通常,為了保護(hù)隱私,公司們會(huì)將AI的記憶力即對(duì)數(shù)據(jù)的儲(chǔ)存限定在一定的范圍內(nèi),但這與依賴連貫、海量數(shù)據(jù)從而實(shí)現(xiàn)對(duì)話一致性的目標(biāo)又相互矛盾。
此外,AI的情感和個(gè)性終究還是從人類身上學(xué)來的,如果不加控制,放任其自由地學(xué)習(xí),也很可能“學(xué)壞”。況且,沒有任何人類和體系是完美的,所以指望創(chuàng)造出一個(gè)“完美”伙伴,至少目前來看也并不現(xiàn)實(shí)。
由俄羅斯搜索引擎公司Yandex開發(fā)的AI助手Alisa,就曾經(jīng)在被問到“丈夫可以打妻子嗎?”時(shí)回答:“當(dāng)然可以,如果妻子被丈夫打了,她需要耐心,繼續(xù)愛他,為他做飯,永遠(yuǎn)不要放手?!苯?jīng)過公司六個(gè)月的“教育”后,答案變成了“他可以打妻子,但是他不該打妻子?!?/p>
看來,訓(xùn)練AI情商的過程中,人工智能公司們必須在一個(gè)令人失望的AI與一個(gè)令人不安的AI之間,尋找到一個(gè)平衡點(diǎn)。