章 琪/編譯
2003年,一場中風使得亨利·埃文斯 (Henry E-vans)失去了聲音,并且四肢癱瘓。去年,喬治理工學院的研究人員查理·肯普(Charlie Kemp)發(fā)明了一個只需要埃文斯動動腦袋就能指揮其移動的機械手臂。它使用了有觸覺的“皮膚”,通過感覺來找到它的路徑,并且不會破壞周圍環(huán)境。軟件協(xié)調(diào)了機器人的觸覺,使之能溫柔地接觸事物,并且一切動作有條不紊??掀毡硎?,給機器人加上觸覺功能是為了讓它們更人性化。
當我們呼吸時,各種各樣的微粒都會進入鼻腔,然后在黏膜上碰觸到神經(jīng)末梢,我們以此來分辨已經(jīng)認識的氣味。有一種來自瑞典,被叫做Gasbot的機器人則和人類一樣帶有鼻子,盡管它只能識別出一種氣味。Gasbot裝備了可調(diào)諧激光吸收光譜,它能夠通過激光束來吸收甲烷,它能探測出低于5ppm的煤氣泄漏。
酒精不能使機器人興奮,但在西班牙,就有一個機器人擁有一條能分辨出六種啤酒的電子舌頭。日本的一個團隊還創(chuàng)造出了一個能區(qū)分酒類的機器人,它通過使用紅外線照射,來分析酒中各類化學物質(zhì)的吸收光譜。利用同種程序工作的機器人也能“品嘗”人類身體的氣味,并宣布這種氣味聞起來很像培根。
機器人專家曾經(jīng)認為,所有感知里面,影像是最容易重現(xiàn)的。但事實證明,他們大錯特錯。圖像采集不是問題:機器人擁有敏銳的電子眼,它們所“看見”的圖像比我們那充滿液體的眼球能捕捉的20/20精確度更為細膩。然而,我們面對的最大挑戰(zhàn)在于,如何讓機器人能夠 “感覺”到他們所看到的。有兩種新的有效方法——深度學習和神經(jīng)形態(tài)計算,以此來高度模仿人類的大腦也許有一天,我們最終能為機器人裝配上強大的處理軟件,使他們能夠估算眼前物件的大小尺寸。
想象一下你在吵鬧的雞尾酒派對上,嘗試去聽清楚那個在角落里的人對正在無可避免的日益增多的機器人的猛烈抨擊。那就是我們的大腦做起來輕而易舉的事,連接到特定的信號,并對噪音進行過濾。日本的機器人專家偶然發(fā)現(xiàn)了聲源定位算法,能解決同時存在4個聲源不容易選定的問題。我們的耳朵也能過濾掉來自體內(nèi)自身的聲音,比如呼吸和心跳。而對于機器人的耳朵來說,它的任務則是濾掉機器發(fā)出的呼呼聲。
人類能輕松地保持持續(xù)直立,因為我們的身體會擁有精密的調(diào)節(jié)能力。馬瑟諸塞州的研究人員賦予了Atlas人形機器人類似于動態(tài)平衡的平衡感。通過強大的液壓動力來進行移動,以此機器人能夠步行穿過不穩(wěn)定的殘骸,并且被9公斤重的破碎球擊中時還能利用一只腳站立保持平衡。但Atlas還是在2013年在香港做步行示范的時候前撲摔倒了,還摔斷了它的右腳踝。