王丹春
兩個(gè)“小女孩
鏡頭里,兩個(gè)小女孩面對面地坐在熒光燈下。她們都身著淡黃色衣服,臉頰微鼓,劉海烏黑,短發(fā)齊肩——其中一個(gè)是5歲的小女孩,另一個(gè)是她的AI機(jī)器“克隆人”。
今天是小女孩第一次見到這個(gè)和她一樣高的“克隆人”。小女孩只顧一個(gè)勁地盯著她的同伴。而在另一邊,這個(gè)同伴仿佛也在盯著她看,表情一臉嚴(yán)肅、僵硬。
她們的身體做著這樣那樣微小的動(dòng)作——刻意的也好、隨意的也罷,這些動(dòng)作都在向?qū)Ψ絺鬟_(dá)著“我是活物”的訊息:她們會(huì)每隔幾秒眨一次眼,偶爾也會(huì)動(dòng)動(dòng)脖子——但小女孩的感官激活的是她鮮活的神經(jīng)系統(tǒng),而另一邊的機(jī)器人利用的卻只是在它硅膠外殼下的電子芯片。
小女孩神情從迷惑變得焦慮,她好像感受到了什么,開始有些抗拒。漫長的幾分鐘后,女孩的呼吸逐漸變得沉重,“我好累?!彼f,旋即大哭了起來。
恐怖谷效應(yīng)
以上這幕并非來自科幻片,它發(fā)生在2002年夏天的一個(gè)早晨,日本大阪幣郊區(qū)的一間大學(xué)研究室里。鏡頭記錄者正是小女孩的父親——石黑浩,也是鏡頭中“克隆人”的設(shè)計(jì)者。
我們不難理解,當(dāng)面對一個(gè)如此逼真——尤其是以自己為原型的AI機(jī)器人時(shí),小女孩焦慮、抗拒以及大哭的背后或許蘊(yùn)含著難以言喻的恐懼感。
1970年日本東京工業(yè)大學(xué)著名機(jī)器人專家森政弘教授在名為《能源》的雜志上發(fā)表了一篇名為《恐怖谷》的文章。在這篇文章中,森政弘提出了著名的“恐怖谷理論”,它是一個(gè)關(guān)于人類對機(jī)器人和非人類物體的感覺假設(shè)。根據(jù)這種假設(shè),在一個(gè)機(jī)器人“不夠擬人”的范疇內(nèi),機(jī)器人和人類越相像,由于機(jī)器人與人類在外表、動(dòng)作上都有相似性,它的類人特征就會(huì)容易辨認(rèn),人類會(huì)對機(jī)器人產(chǎn)生親和感。然而,隨著相似度的提高,到達(dá)一個(gè)較高的臨界點(diǎn)時(shí),它的類人特征就會(huì)成為顯眼的部分,甚至在觀察者眼中產(chǎn)生一種“詭異”的感覺。因而,人們的親和反應(yīng)會(huì)驟然跌入谷底。
森政弘教授的文章在35年后引起了另一位機(jī)器人專家卡爾·麥克多曼的興趣。他將文章進(jìn)行翻譯引起了熱議。部分研究者認(rèn)為,類人機(jī)器人之所以讓人感到不舒適是因?yàn)樗鼈兣祟惖耐獗?,?shí)際上卻沒有什么生命的跡象,讓人不由自主地聯(lián)想到死亡。對此,麥克多曼設(shè)計(jì)了一個(gè)實(shí)驗(yàn),他邀請參與實(shí)驗(yàn)的志愿者觀看了一組類人機(jī)器人的照片,隨后請他們填寫問卷描述自己的世界觀。結(jié)果暗示,類人機(jī)器人真的可能讓人聯(lián)想到死亡。
后續(xù)的一些研究者指出,“恐怖谷效應(yīng)”可能是人類在漫長的生存進(jìn)化中逐漸產(chǎn)生的生理防御機(jī)制。人們似乎在它們身上看到了人類情感的影子,然而面對“異類”,人們拒絕(無法)理解這樣的情感,自動(dòng)化似的停下情感的交互。
人類的恐懼
讓我們做個(gè)關(guān)于10年后生活的展望。它可能是,機(jī)器人可以代替你,做你所不喜歡的瑣碎雜事。它們不僅會(huì)替你洗碗、洗衣、打掃衛(wèi)生,提醒你各類工作事項(xiàng),幫你及時(shí)存儲(chǔ)、提取、轉(zhuǎn)化各類信息,比你本人更了解你自己。當(dāng)然,如果你放開對它們的控制,它們可以做更多事情。鑒于迄今為止,人工智能和機(jī)器人技術(shù)的成就以及信息技術(shù)的發(fā)展,這種想象中的畫面可能會(huì)成為未來大眾的常規(guī)生活方式。
于此同時(shí),對人工智能、機(jī)器人等的恐懼也隨之而生。很多人看到即將推出的5G基礎(chǔ)設(shè)施可能會(huì)引發(fā)一場新的技術(shù)革命。5G將比4G快得多,這意味著大量的信息可以在機(jī)器人的“大腦“中實(shí)現(xiàn)實(shí)時(shí)交互。機(jī)器人也能夠彼此高速通信,并且只產(chǎn)生非常小的網(wǎng)絡(luò)延遲,而這可以與人類的大腦相媲美。
事實(shí)上,與類人機(jī)器人逼真的外表、精細(xì)動(dòng)作的完成度相比,人們更恐俱的是隨著科技的進(jìn)步,人工智能體可能發(fā)展出的“類似人類的認(rèn)知”以及演算后的“類似于人類的情感”。
人們認(rèn)為,它們完全可以與我們的身體競爭,并且在許多情況下,可以輕松地打敗我們。與此同時(shí),隨著時(shí)間的推移,它們的功能越完善,而我們的能力卻很難實(shí)現(xiàn)同步的大的突破與發(fā)展。人們恐俱在世界未知的演變中被取而代之。
是威脅,也是挑戰(zhàn)
埃隆·馬斯克最早在2014年的麻省理工學(xué)院的公開訪談中拋出如下觀點(diǎn): “我認(rèn)為我們應(yīng)當(dāng)格外警惕人工智能。如果讓我說人類當(dāng)下面臨最大的威脅是什么,我覺得無疑是人工智能?!蓖?,斯蒂芬·霍金在英國廣播公司(BBC)的訪談中表達(dá)了對惡意人工智能的擔(dān)憂,他指出,全人工智能的發(fā)展可能意味著人類的終結(jié)。持類似觀點(diǎn)的還有比爾·蓋茨,他也曾公開表達(dá)過類似的擔(dān)憂,稱:“機(jī)器確實(shí)可以幫助人類完成很多工作。但當(dāng)機(jī)器越發(fā)智能,它們將會(huì)對人類的存在造成威脅?!?/p>
這種擔(dān)憂既包含了前文所述的“人工智能將獲得意識并且摧毀我們?nèi)《保€透露出如下的擔(dān)憂:“不道德的人將使用人工智能以達(dá)成邪惡的目的”。對此康奈爾大學(xué)計(jì)算機(jī)系副教授溫伯格指出,人工智能是在非常特定的限制下實(shí)現(xiàn)的操作,它是由決定其行為的算法定義的。溫伯格說道:“與此相比較,一個(gè)肆無忌憚的人會(huì)因?yàn)橐恍┯泻Φ脑蚨萌斯ぶ悄艿目赡芑蛟S大很多。但這并非是人工智能所特有的,幾乎任何類型的機(jī)器或工具都可以被用于好的或壞的目的,這取決于使用者的意圖?!?/p>
或許,當(dāng)我們消除了對人工智能的敵意與恐懼,我們會(huì)更坦然接納它帶來的便利,如Siri、隱形的人工智能搜索系統(tǒng)(百度、谷歌搜索)、頭條推送等,從而以更欣賞的姿態(tài)歡迎它們的存在。
在這日益變化的當(dāng)下,也許我們恐俱的不是人工智能,而是自己的能力,以及這背后所投射出的不堪。