面對人工智能的崛起,很多對其持懷疑態(tài)度的人都要問:我們是否真的需要人工智能?業(yè)內(nèi)人士給出的答案幾乎是一邊倒的“Yes”,因?yàn)樗鼈兂休d了太多人類的美好愿景。實(shí)際上未來真的有大把的工作在等著它們,比如仆人和管家。做飯洗衣,打掃衛(wèi)生,叫你起床,這些工作對于程式化的它們而言都不是問題。最重要的是,機(jī)器人沒有私心,它們不會偷聽你的秘密要挾你,也不會做“家賊”的勾當(dāng)。
有人曾說,人工智能出現(xiàn)的意義,是幫助我們解決人類自己無法完成的工作。所以那些不招人待見的工作,可以分配給他們。試想一下,如果它們可以爬上云梯、沖進(jìn)火場去救人,不僅不需要防火服,甚至可以把障礙物直接推翻到一旁。國外已經(jīng)有人給AI指派了照顧老人的工作,并不是因?yàn)檫@活兒不討好,而是因?yàn)槔先俗钚枰氖桥惆椤.?dāng)AI擁有了成熟的語言交互系統(tǒng),可以和老人從黎明談到日落,期間還肩負(fù)著倒生活垃圾、拿報(bào)紙等差事,這保姆當(dāng)?shù)媒^對滿分。而忙于工作的子女們再也不必?fù)?dān)心,父母會遇到黑心保姆,又或者頭腦一熱把照顧自己的機(jī)器人列為遺產(chǎn)繼承者。
建立在強(qiáng)大計(jì)算機(jī)基礎(chǔ)上的AI技術(shù),在反應(yīng)速度和腦容量方面都獨(dú)具優(yōu)勢。所以資料管理、數(shù)據(jù)分析一類的工作,它們也可以輕松勝任。試想一下,公司里買一臺人工智能設(shè)備,可以統(tǒng)計(jì)歷年報(bào)表、篩查賬目數(shù)據(jù)、分析員工價(jià)值、調(diào)整人力資源……這么多活兒交給了一臺只要電不要錢的Robot,而且一杯茶的功夫就能搞定,“職場精英”的榮譽(yù)稱號非它莫屬。如果說有誰會討厭它,想必是被搶了飯碗的那群人。
也許你并沒有察覺到,我們已經(jīng)被人工智能包圍了很長時(shí)間了。只不過它們的段位比較低,所以難以被察覺。支持變頻控溫的空調(diào),行車導(dǎo)航系統(tǒng),甚至是根據(jù)你瀏覽記錄推送相關(guān)產(chǎn)品的網(wǎng)頁,都算是AI的一種。可為何我們對它們長時(shí)間視而不見?原因大概是以這種形式存在的機(jī)器人,并不像人。為了削弱代溝感,研發(fā)者們正逐漸把人工智能擬人化。當(dāng)它們擁有了自己的四肢甚至表情時(shí),人類對它們接受起來也更為容易一些。
關(guān)于“反客為主”的陰謀論
讓我們再把目光放回到AlphaGo和李世石的世紀(jì)大戰(zhàn)上。人類獲勝的唯一一盤棋,其實(shí)充滿了爭議。李世石長考了20分鐘后,給出全盤最為精妙的“神之一手”。AlphaGo連下了好幾步也沒看出李世石的意圖,這種錯(cuò)誤連業(yè)余棋手都不會犯。就在人類覺得AI也不過如此時(shí),也有人拋出了一個(gè)值得深思的質(zhì)疑:它會不會是故意輸?shù)模?/p>
前三盤一邊倒的局勢,讓越來越多的人開始懼怕AlphaGo的實(shí)力,“AI威脅論”也開始甚囂塵上。倘若這是“阿爾法狗”詐降,也就是AI已經(jīng)懂得用隱藏實(shí)力的方式保護(hù)自己,那我們還敢說AI的發(fā)展進(jìn)程盡在掌握嗎?
樂觀主義者相信,“機(jī)器成精”實(shí)在是一個(gè)太過虛無遙遠(yuǎn)的論點(diǎn)。但他們并沒有意識到,我們生活中從來不乏這一類話題?!惰F臂阿童木》的故事背景,就是機(jī)器人擁有了一定的智慧后,試圖和人類分庭抗禮。而后面的《變形金剛》系列、《終結(jié)者》系列,更是把這一話題擺在了明處。作家和編劇們的大腦洞預(yù)見未來,已經(jīng)不是一次兩次了。如果人工智能的發(fā)展速度真的快到一定程度,人類親手制造出無法控制的東西,也完全有可能。
也許我們無法左右AI的發(fā)展,也許它們的普及還需時(shí)日,但提前做好心理準(zhǔn)備肯定沒有壞處。人工智能不可能在一天之內(nèi)反客為主,但它們的軟硬件肯定在不斷地成長、成熟。如果研發(fā)者將其當(dāng)成最完美的杰作,就應(yīng)該做一個(gè)合格的家長。
大家有話說
斯蒂芬·霍金——人工智能會導(dǎo)致人類的滅絕。
輪椅上的大物理學(xué)家對人工智能持絕對懷疑態(tài)度,他在點(diǎn)評電影《超級駭客》時(shí)表態(tài):如果人類忽視了電影中的假設(shè),那將會是我們犯下的最大錯(cuò)誤。他認(rèn)為自學(xué)習(xí)能力,就是自我思考的雛形。而一旦AI擁有了自我思考能力,哪怕只是最初級的,為保護(hù)人類而制定的“機(jī)器人三定律”也會隨之失效。
埃隆·馬斯克——人工智能可能在5年內(nèi)就引發(fā)非常危險(xiǎn)的事件。
他和霍金持有相同的態(tài)度,并在去年7月聯(lián)合一大批專業(yè)人士,簽署了“號召禁止人工智能武器”的公開信,并稱之為“繼火藥、核武器之后的第三次戰(zhàn)爭革命”。當(dāng)AI擁有了剝奪人類生命的權(quán)力,那還有誰能控制得了它們?
馬克·扎克伯格——我們不應(yīng)該害怕人工智能。相反,我們應(yīng)該期待它。
在談及Facebook的未來10年時(shí),小扎把人工智能放到了首要位置。他相信人工智能的出現(xiàn),能為人類生活帶來極大的便利,AI反制人類只是空談。畢竟迄今為止,人腦仍舊是我們已知的最復(fù)雜的東西?!巴伙w猛進(jìn)的技術(shù)進(jìn)步,已經(jīng)給這個(gè)世界帶來了諸多好處,我們?yōu)槭裁匆阉?dāng)作假想敵?”
洪小文——AI不是危險(xiǎn),只是強(qiáng)大。任何強(qiáng)大的東西都可以被用來做壞事。
微軟亞太研發(fā)集團(tuán)主席洪小文認(rèn)為,人們對人工智能的過度緊張,源于對它不夠了解。人類有能力創(chuàng)造它,自然有能力控制它。就目前來看,AI完全不存在“自我意識”,它們站在鏡子前,根本不知道對面是誰。
李彥宏——它們看起來很可怕,但實(shí)際上很實(shí)用。
在IT領(lǐng)袖峰會上,李彥宏談到人工智能時(shí),認(rèn)為這些技術(shù)在帶來威脅時(shí),也會帶來更多的收益??偟膩碚f,AI還是一個(gè)對人類發(fā)展有好處的新興產(chǎn)物。他還用了一個(gè)很形象的比喻——“披著狼皮的羊”。