顧凡及
最近人工智能弈棋系統(tǒng)”阿爾法狗”與圍棋棋王李世石的對弈,引起公眾強烈的興趣和關(guān)注。能夠在紋枰上與人類高手一爭勝負(fù),這是繼打敗國際象棋世界冠軍之后,人工智能的又一項標(biāo)志性成就。該研究領(lǐng)域幾經(jīng)盛衰,在1990年代中期以后第三次進(jìn)入“新春”,其未來依然充滿生機,卻也面臨著挑戰(zhàn)。
2016年3月9日到15日,人工智能弈棋系統(tǒng)“阿爾法狗”(AlphaGo,又稱阿爾法圍棋)和韓國棋王李世石進(jìn)行的5輪圍棋大賽,像磁石吸鐵般吸住了“地球村”里億萬雙眼睛。這場比賽之所以萬眾矚目,不僅僅因為計算機贏過國際象棋的世界冠軍,而現(xiàn)年33歲的李世石曾經(jīng)11次在世界級圍棋大賽上奪冠,雙方一場廝殺肯定精彩,人們更熱切地想看一看,人工智能究竟達(dá)到了什么樣的水平。行家早有分析,圍棋比較國際象棋,變數(shù)多得多,難以靠“預(yù)編程”窮舉一切可能走法。1997年當(dāng)計算機“深藍(lán)”(Deep Blue)戰(zhàn)勝國際象棋世界冠軍卡斯帕羅夫之后,美國《時代》周刊預(yù)言:“計算機要在圍棋上戰(zhàn)勝人類,還要再過100年甚至更長時間。”因此,人們把李世石與“阿爾法狗”的角逐,看作人類棋手智能如何應(yīng)對人工智能挑戰(zhàn)的一次檢驗。
比賽結(jié)果讓人感慨,大家既敬佩李世石頑強的競技意志,也看到了人工智能的巨大優(yōu)勢,深深認(rèn)識到人類已經(jīng)處于機器智能的時代而沒有退路。聯(lián)想起不久前一些名人如物理學(xué)家霍金(Stephen Hawking)和微軟掌門人蓋茨(Bill Gates)等警告說,人工智能可能擺脫人類控制甚至造成人類文明毀滅,一種緊迫感油然而生。不管怎么說,我們有必要了解人工智能,而當(dāng)今世界也正迎來人工智能的第三個春天。
人工智能的兩次“嚴(yán)冬”
雖然在中外的古代神話和傳說中,人們早就提到和生物真假難分的機器,但對于機器是否也能有智能的第一次科學(xué)思考,當(dāng)屬英國數(shù)學(xué)家圖靈(Alan Turing)。1936年他提出了一種可以實現(xiàn)各種數(shù)學(xué)計算和邏輯推理的理淪上的計算裝置——圖靈機。1950年他又在一篇論文開頭,開宗明義地寫道:“我提議大家考慮一下‘機器能不能思維的問題?!庇捎诤茈y對“思維”加以定義,他提出,如果讓一個人和一臺機器通過電傳對話,要是在對話結(jié)束時人不能區(qū)分對話者究竟是人還是機器,那就只能認(rèn)為對話者有智能。此即所謂“圖靈測試”(Turing test)。一般認(rèn)為,人工智能學(xué)科正式誕生于1956年在達(dá)特茅斯學(xué)院(Dartmouth College)舉行的一次學(xué)術(shù)會議上,在會議的倡議書中寫著:“學(xué)習(xí)或智能的任何其他特性在其每個方面都可精確地加以描述,由此就能用機器來模仿?!币院笠话惆讶斯ぶ悄芾斫鉃闄C器或者軟件所表現(xiàn)出來的智能,或指研究如何創(chuàng)造出有智能行為的計算機或軟件的學(xué)科領(lǐng)域。
人工智能要實現(xiàn)的所謂“智能”,包括推理、知識、計劃、自然語言處理(通訊)、知覺和物體操控等,其遠(yuǎn)期目標(biāo)也包括創(chuàng)造有通用智能的機器。這里的通用智能是指人類所有可能的智能。當(dāng)時的人工智能專家把認(rèn)知過程當(dāng)作某種符號處理過程,以后又發(fā)展到用符號表示知識,并把知識作為智能之基礎(chǔ)。這就是“人工智能的符號主義思潮”。確實,他們編制出了能解代數(shù)題、證明邏輯定理和說英語的程序。例如,紐厄爾(Allen Newell)和司馬賀(Herbert A.Simon)開發(fā)的一個程序能夠證明羅素(Bertrand Russell)巨著《數(shù)學(xué)原理》一書頭上52個定理中的38個,其中有些證明甚至比當(dāng)時已知的證明還要簡潔和巧妙。到1960年代中期,人們對人工智能充滿樂觀,而當(dāng)時的人工智能也確實在應(yīng)用符號處理方法演示人的高級思維方面取得了令世人印象深刻的成績。司馬賀預(yù)言:“在今后20年內(nèi),機器將做人所能做的任何工作。”甚至聲稱他們的“研究解決了古老的心身問題,清楚說明了由物質(zhì)構(gòu)成的系統(tǒng)如何會有心智的種種特性”。
然而到1970年代中期,他們的預(yù)言并未見即將實現(xiàn)的征兆,連一些原來認(rèn)為可以輕而易舉實現(xiàn)的課題都未能做到,令人大失所望。美國軍方曾對用人工智能方法自動翻譯當(dāng)時蘇聯(lián)的文獻(xiàn)資料寄予厚望,結(jié)果由于機器小能理解詞的含義與上下文關(guān)聯(lián),在譯文中犯了許多令人噴飯的常識性錯誤,比如把“眼不見,心不煩”(Out of sight,out of mind)譯成了“盲白癡(blind idiot)”。這在當(dāng)時計算機運算速度和存儲容量極其有限的情況下,很難取得突破。專家評估認(rèn)為,比起人工翻譯,機器翻譯代價既高,又不確切。當(dāng)然,機器翻譯到今天已大有改觀,但其中有些問題依然未獲解決。在此后若干年(1974-1980年)里,英美政府對人工智能的撥款大幅減少,這段時間被稱為(第一次)“人工智能的嚴(yán)冬”。
1970年代,由于計算機的存儲容量已經(jīng)相當(dāng)大,人工智能研究者開始考慮建立知識庫的問題。美國計算機科學(xué)家費根鮑姆(Edward Feigenbaum)首先提出“々家系統(tǒng)”的思路。1980年代初,“專家系統(tǒng)”在商業(yè)上取得成功,人工智能迎來了第二輪蓬勃發(fā)展的春天。所謂專家系統(tǒng)是一種回答或解決某個特定領(lǐng)域中問題的程序,它運用由專家的知識所建立的邏輯規(guī)則來解決問題。1985年產(chǎn)業(yè)界在人工智能方面的投資超過了10億美元。另一重大事件是日本政府提出“第5代計算機”計劃,聲稱要實現(xiàn)計算機與人對話、翻譯、圖片解釋以及像k--樣推理。這也刺激了英美政府重新投資該領(lǐng)域。不過好景不長,到1991年此計劃并未實現(xiàn)其主要目標(biāo)。專家系統(tǒng)為避免“常識問題”,只能將應(yīng)用局限于范圍很窄的專門領(lǐng)域;一些原來成功的專家系統(tǒng)由于不能根據(jù)新獲得的信息進(jìn)行更新,而使得用戶難于承受維護(hù)成本。這樣在1987-1993年期間,人工智能遇上了第二次“嚴(yán)冬”。
分析人工智能兩度遭遇“嚴(yán)冬”之緣由時,要看到人工智能在發(fā)展之初以符號處理為主流,是通過一步接一步的邏輯推理來解決問題的。紐厄爾和司馬賀曾說:“物理符號系統(tǒng)中有既充分又必要的工具,來實現(xiàn)人的各種智能。”可是人的智能不完全是符號處理,還包括許多所謂的“亞符號處理”,人有非??焖俚闹庇X判斷。例如,藝術(shù)鑒賞家能夠一眼看出贗品,這不是通過一步步邏輯推理得到的。在知覺、模式辨認(rèn)、導(dǎo)航和學(xué)習(xí)等許多方面,也都是如此。這些內(nèi)隱的知識構(gòu)成了符號處理的背景知識。與此相比,傳統(tǒng)人工智能指望僅僅用符號處理的方法來解決所有的問題,遇到困難就非常自然了。
跟“符號處理”思潮相應(yīng),當(dāng)時對人工智能的許多問題都試圖用搜索一切可能解來解決,而實際問題中的可能解數(shù)目往往極為龐大,用當(dāng)時那種性能的計算機根本不可能全部搜索,即便使用當(dāng)今速度最快、容量最大的計算機都難以做到。因此,要想解決諸如計算機對弈下棋冠軍之類的問題,不能不另辟蹊徑。另外,知識表達(dá)和知識工程在傳統(tǒng)的人工智能研究中起核心作用,但任何常識性規(guī)則都有大量例外,計算機若沒有足夠快的運算速度和足夠大的存儲容量,就無法勝任海量信息的存儲及在合理時間內(nèi)的提取。
到1980年代,人們已認(rèn)識了符號系統(tǒng)不可能模擬人類認(rèn)知的所有過程,特別是學(xué)習(xí)、創(chuàng)造力以及自傳性記憶,其概括推廣(泛化)能力也很差,因此主要基于符號處理的傳統(tǒng)人工智能遭遇“嚴(yán)冬”,也不足為怪了。
人工智能的第三個春天
自1990年代中期以來,得益于計算機技術(shù)的飛速發(fā)展,芯片的特征尺度從1971年的10微米下降到1994年的600納米,人工智能終于迎來它的第三個春天,在數(shù)據(jù)挖掘、醫(yī)療診斷等方面取得了許多應(yīng)用成果。這“第三春”的標(biāo)志性事件是1997年5月11日,計算機國際象棋下棋系統(tǒng)“深藍(lán)”戰(zhàn)勝世界國際象棋冠軍卡斯帕羅夫,宣告了人工智能之“王者歸來”。
在人工智能領(lǐng)域,除了前述通過程序編制的符號處理方法之外,還有通過信號元件聯(lián)結(jié)的非符號處理方法,后者主要指的是神經(jīng)網(wǎng)絡(luò)研究。大體同一時期,神經(jīng)網(wǎng)絡(luò)研究在經(jīng)受了自身的“兩起兩落”之后,同樣迎來了第三個春天,“深度學(xué)習(xí)”(deep learning)成為再度崛起之關(guān)鍵。它是一種多層學(xué)習(xí)算法,在網(wǎng)絡(luò)不同層次上自動抽提對象的不同特征。盡管這一思想早已有之,但層次一多,就要求計算機的存儲容量和運算速度大大提高。而且為了成功訓(xùn)練數(shù)據(jù)網(wǎng)絡(luò),要求有海量的訓(xùn)練樣本,給它的樣本越多,它就學(xué)得越好。這些條件在1990年代以前尚不具備。一直到21世紀(jì)才有加拿大計算機科學(xué)家勒坎(Yann LeCun)及其前導(dǎo)師欣頓(Geoffrey Hinton)斷言,由于計算機技術(shù)的飛速發(fā)展和網(wǎng)上的大量數(shù)字信息,已經(jīng)到了“深度學(xué)習(xí)”可以大展宏圖的時候。2009年欣頓等人報道,經(jīng)過“深度學(xué)習(xí)”訓(xùn)練的神經(jīng)網(wǎng)絡(luò)把語音轉(zhuǎn)化為打印出來的文字,達(dá)到了很高的準(zhǔn)確率;而采用傳統(tǒng)的基于規(guī)則的方法,長期以來進(jìn)展甚微。這立刻引起了智能手機業(yè)者關(guān)注。此后該方法很快被引入識別人臉、識別語音命令、無人駕駛汽車乃至戰(zhàn)勝人類下棋冠軍等傳統(tǒng)人工智能難以突破的課題中。輸入不同數(shù)據(jù)進(jìn)行訓(xùn)練,就可以解決不同的問題。這種概括推廣能力也是傳統(tǒng)人工智能所難以企及的。
“十年磨一劍,霜刃未曾試?!倍鴱男虑晔兰o(jì)之交到今天,人工智能機已在挑戰(zhàn)人類智力和執(zhí)行人類智能任務(wù)上取得一連串“驕人戰(zhàn)績,筆者來做簡要介紹。
挑戰(zhàn)人類智力的“深藍(lán)”與“沃森”
為何“深藍(lán)”戰(zhàn)勝卡斯帕羅夫會成為人工智能發(fā)展史上一個里程碑?其實,機器下棋的思想由來已久。在近代數(shù)字電子計算機發(fā)明后3年左右,信息論的奠基人香農(nóng)(Claude Shannon)于1949年提出了“現(xiàn)代弈棋機”的基本思想。然而,這個目標(biāo)歷經(jīng)40年都未曾實現(xiàn),成了人工智能的“圣杯”。問題的一個關(guān)鍵難點在于,要讓機器下棋,必須對每步棋都考慮好以后可能走的若干步,并對每種走法的“價值”進(jìn)行評估。這樣的可能走法,數(shù)量極其巨大,只有運算速度和存儲容量足夠大的機器。才可能實時進(jìn)行“搜索”。后來“深藍(lán)”的總設(shè)計師許峰雄在1985年開始投身這個領(lǐng)域時,估計當(dāng)時計算機的速度得提高1000倍,才有望戰(zhàn)勝世界冠軍。問題還不止于此,積累所有下棋高手的“知識”,建立數(shù)據(jù)庫和“評價函數(shù)”也至關(guān)緊要。
與香農(nóng)提出“現(xiàn)代弈棋機”事隔近半個世紀(jì)后,電腦“深藍(lán)”經(jīng)過6盤鏖戰(zhàn)終于以3.5比2.5的優(yōu)勢,戰(zhàn)勝了國際象棋世界冠軍卡斯帕羅夫。“深藍(lán)”的取勝法寶是:有極高的運算速度,能在一秒里搜索2億個棋局,實時進(jìn)行30步攻擊性走法的搜索;有一大幫編寫程序的專家總結(jié)國際象棋大師們的經(jīng)驗,編寫并不斷改進(jìn)對棋局的“評估函數(shù)”,還建立了一個如何開局的數(shù)據(jù)庫?!吧钏{(lán)”下棋時對棋局在每一種形勢下的每一種可能應(yīng)對下法都進(jìn)行了評估,從中選取最優(yōu)對策。一切都是編制程序的專家給它規(guī)定好了的,它只是執(zhí)行而已。
“沃森”(Watson)是2011年1月13日在美國最受歡迎的知識競賽電視節(jié)目“危險邊緣”(Jeopardy)的三局比賽中,擊敗該節(jié)目歷史上兩位最成功的選手而最后勝出的超級電腦。它的存儲器可以存儲2億頁百科全書、詞典和報紙書刊的內(nèi)容,其處理器功能比普通臺式計算機強2000倍,每秒能處理500G數(shù)據(jù),也就是相當(dāng)于100萬冊書的內(nèi)容。它在3秒鐘內(nèi)就能搜索幾千種可能的答案,并對其中每種用100種不同測試方法進(jìn)行評價。它還用不同的算法來尋找答案,只有通過幾種不同算法都得到相同答案,這一答案才被認(rèn)為是最有可能的;而只有當(dāng)最終答案的評價值超過某個數(shù)值,“沃森”才進(jìn)行答題,否則寧肯不答以免扣分。2011年1月28日,“沃森”甚至跟美國參議院的兩名議員進(jìn)行了一次競賽,其中來自新澤西州的民主黨參議員霍爾特(Rush D.Holt,Jr.)以前也參加過“危險邊緣”搶答,最后仍是“沃森”獲勝?!拔稚痹诟傎愔幸膊⒎菬o所不能。比如有這么個問題:“請講出一種語言,這種語言的方言中包括吳語、粵語和客家話?!碑?dāng)然我們中國人都知道正確答案為“漢語”,可是“沃森”因為廣東話和粵語的關(guān)聯(lián)度最高,而錯將答案當(dāng)成了“廣東話”,盡管它也將“中文”排在了第二可能的位置。類似這樣“可笑的”錯誤,“沃森”還犯過一些。
如果光從行為的角度看,人們很容易誤以為“沃森”有很高智能,它真是無所不曉,但其實“沃森”只不過表現(xiàn)出類似智能的行為。美國哲學(xué)家瑟爾(JohnSearle)聲稱,盡管“沃森”表現(xiàn)出驚人的能力,但它和別的計算機一樣,只是能夠處理符號,而不懂得這些符號的意義。當(dāng)然,像沃森這樣的系統(tǒng)在向人推薦備選方案上還是十分有用的,人們已開始在醫(yī)療診斷和金融服務(wù)等方面考慮應(yīng)用這種技術(shù)。
“阿爾法狗”對局李世石:盡顯人工智能雄風(fēng)
此次谷歌深心公司(Google DeepMind)開發(fā)的“阿爾法狗”程序以四勝一負(fù)力挫韓國棋王李世石,給世人的震動是巨大的。比起國際象棋等其他棋類,圍棋的可能棋局?jǐn)?shù)目要多得多。圍棋棋盤上一共有19×19個格點,每個格點都存在有白子、有黑子和沒有子三種可能,可能的棋局?jǐn)?shù)比已知宇宙中的原子數(shù)還要多。因此,要想通過窮舉搜索的辦法來找出最佳棋著,那是不現(xiàn)實的。頂尖的人類棋手往往憑直覺進(jìn)行判斷,計算機敢跟人類圍棋冠軍比試直覺嗎?問題很自然地引來公眾關(guān)注。其實“阿爾法狗”在2015年10月就以5:0擊敗歐洲圍棋冠軍、二段職業(yè)棋手樊麾。不過當(dāng)2016年1月27日宣布此“狗”要和李世石對戰(zhàn)5盤時,許多人對人工智能是否贏得了李世石依然持懷疑態(tài)度,李世石自己也是信心滿滿,可是在賽后李世石說:“我承認(rèn)這使我震驚,我事先沒有想到過我會輸,沒能預(yù)料到‘阿爾法狗會下得如此棒?!?/p>
值得注意的一點是,從方法層面講,深心的“阿爾法狗”和“深藍(lán)”或者“沃森”有很大不同。后者從一開始就把程序編制得用于下國際象棋或是知識競賽搶答,其思想基本上屬于符號處理之范疇。深心方面聲稱,他們的系統(tǒng)并非預(yù)編程的,而是通過學(xué)習(xí)積累經(jīng)驗。對于下圍棋來說,首先通過“深度學(xué)習(xí)”,學(xué)習(xí)圍棋高手的3000萬個棋局,知道什么樣的棋局好、什么樣的棋局不好;然后不斷地下棋,特別是和自己對弈,這樣就會下出一些前人從來沒有下過的新招,通過強化學(xué)習(xí),只選取那些妙著而淘汰昏著;最后,這一系統(tǒng)還對自己的每一手都采用樹形搜索,估算此手能取勝的概率。要知道這個系統(tǒng)一天之內(nèi)能夠下上百萬盤棋,這是再勤奮的人類棋手也不可能做到的。谷歌深心團(tuán)隊拿其他的計算機圍棋程序來試刀,500次中勝了499次。樊麾在自己和“阿爾法狗”的5番棋賽后感嘆道:“如果沒有人事先告訴我的話,我可能會覺得對手只是稍微有點怪,但我會覺得這是一位非常強大的對手。以為這是一個真人。”樊麾還感嘆自己在下棋時會有情緒波動,而對手則毫無情緒可言。韓國的頂尖高手李昌鎬因情緒穩(wěn)定被稱為“石佛”,樊麾感嘆“阿爾法狗”才是真正的石佛!
經(jīng)過前而連續(xù)3局負(fù)于“阿爾法狗”之后,李世石在3月13日的第4次對弈中苦戰(zhàn)5小時,終于迎來了第一場勝利。不僅現(xiàn)場觀眾而且在電視機前的我們都沸騰了——總算有一次人們看到,“阿爾法狗”是有弱點的。下這一盤和前兩盤相似,李世石每落一子所花時間比對手多,不過他下得比前幾盤好,也更沉著。到第78手時李世石在棋盤中央打入一個“挖”使局面變得極度復(fù)雜?!鞍柗ü贰睕]能算到人類棋手竟然會下出這樣一手,以致“方寸大亂”犯了一個錯誤,導(dǎo)致其在10手之后勝率大降。最后當(dāng)它計算自己的勝率已不足20%時,按照設(shè)定的閾值非?!凹澥匡L(fēng)度”地投子認(rèn)輸。不過李世石贏得也不輕松,時間不足一直困擾著他,有一次甚至僅僅在到時間之前幾毫秒才下子。對于“阿爾法狗”的這場失利,其主要開發(fā)者哈薩比斯(Demis Hassabis)是這樣說的:“這一次輸?shù)舯荣?,證明‘阿爾法狗的選擇和判斷出了問題。我們不確定發(fā)牛了什么,我們回劍英國會分析數(shù)據(jù)的。”不過李世石的勝利也只維持了這么一局。在3月15日的最后一戰(zhàn)中雙方都下得很閃猛,進(jìn)行到3個半小時李世石再次遇到時間不夠的麻煩,“阿爾法狗”又下出幾個奇著,是它從大量對弈I{I學(xué)會的。弈劍4個半小時雙方依然難分伯仲,一直到戰(zhàn)滿5個小時李世石才微露敗象而推枰認(rèn)負(fù)??紤]到李世石實際上是在和全世界的圍棋高手對抗,他雖敗猶榮。
“阿爾法狗”系統(tǒng)是通過經(jīng)驗來學(xué)習(xí)的。小僅能用它下圍棋,還可用來玩其他的游戲。事實上,起初研發(fā)這一系統(tǒng)就是用于學(xué)習(xí)玩電子游戲的,它學(xué)會了玩“空間入侵者”(Space Invaders)等49種電子游戲,在絕大多數(shù)情況下都贏了人類玩家?,F(xiàn)在,人們還期望把類似的技術(shù)用到需要識別復(fù)雜模式、做長遠(yuǎn)計劃和決策的場合,例如根據(jù)醫(yī)學(xué)圖像進(jìn)行診斷或制訂治療計劃。不過,這離開真正實現(xiàn)人工通用智能的口標(biāo)還路途遙遠(yuǎn)。“阿爾法狗”系統(tǒng)要能工作,還依賴于它通過因特網(wǎng)跟谷歌數(shù)據(jù)中心巨大的計算機網(wǎng)絡(luò)聯(lián)系,它所用的深度神經(jīng)網(wǎng)絡(luò)需要在這樣的網(wǎng)上運行,在這個網(wǎng)中有170個圖形處理器(GPU)和1200個標(biāo)準(zhǔn)的中央處理器(CPU)。因此有人開玩笑說,要戰(zhàn)勝“阿爾法狗”系統(tǒng)其實也簡單,只消一把剪刀就行——把它的連線剪斷。
進(jìn)軍無人駕駛汽車領(lǐng)域
毫無疑問,搞人工智能研究的主要目的不是玩游戲,而是產(chǎn)生應(yīng)用效益。一輛汽車能否不要司機駕駛,自己接收路況信息,識別路徑和障礙物,按照自己所在的位置不斷更新地圖,分析路面情況并安全行駛呢?這樣的應(yīng)用問題不是僅僅通過符號處理就能夠解決的。最近,無人駕駛汽車上路的消息引起了公眾極大的興趣。
2014年,谷歌開發(fā)出一款既無方向盤又無踏板的原型車,計劃于2020年正式推出?,F(xiàn)在谷歌已在許多型號的車上安裝了自己的無人駕駛系統(tǒng)。我國百度亦在推出自己的無人駕駛系統(tǒng)。谷歌系統(tǒng)在車頂上安置了激光器,由此產(chǎn)生其周圍環(huán)境的3D圖,并把它和高分辨率的地圖進(jìn)行比較。它也是采用“深度學(xué)習(xí)”的方法,通過學(xué)習(xí)積累經(jīng)驗的,事實上它每周都要上路行駛1.6萬公里,每天在駕駛仿真機上模擬駕駛160萬公里。和人不同,一臺自動駕駛系統(tǒng)所學(xué)到的經(jīng)驗可以立刻復(fù)制到所有的系統(tǒng),這樣就使系統(tǒng)進(jìn)步更快。
到2015年6月為止,谷歌的無人駕駛車的行駛里程已超過1600萬公里,相當(dāng)于典型的美國司機75年的行程,行駛過程中碰到過20萬個停車符號、60萬個交通燈和1。8億輛別的車。到2015年7月為止,谷歌的23輛無人駕駛車在公路上發(fā)生過14次碰撞,不過谷歌方面堅稱這都不是無人駕駛車本身的錯,因為發(fā)生碰撞時不是正由人在駕駛,就是對方應(yīng)該負(fù)全責(zé)。2015年7月,三名谷歌雇員搭乘一輛無人駕駛車時受了點輕傷,這是無人駕駛車上路以來第一次有人受傷。不過,這也是由于后面的車沒有在交通燈翻紅時及時剎車造成的。到2016年2月14日,沒錯的記錄被打破了。有一輛谷歌無人駕駛車在加利福尼亞和一輛公交車相撞。當(dāng)時車正以每小時3公里的速度在路右側(cè)行駛并準(zhǔn)備右轉(zhuǎn),為了躲避前面暴雨排水管周圍放置的沙袋,它在開始右轉(zhuǎn)之后又轉(zhuǎn)回路中央。這時正好后面有一輛公交車以每小時24公里的速度駛來,于是撞到了其左側(cè)。當(dāng)時坐在車?yán)锏呐泷{說,他以為公交車會減速,所以未采取任何措施,而公交車司機很可能也以為谷歌無人駕駛車會避讓,這種由于兩不通氣造成的碰擦事故經(jīng)常會發(fā)生。不過谷歌還是承認(rèn):“在這一事故中,我們顯然也負(fù)有某些責(zé)任,因為要不是我們的車轉(zhuǎn)來轉(zhuǎn)去,就不會發(fā)生碰撞。”目前谷歌正在改進(jìn)其無人駕駛算法。他們說道:“今后我們的無人駕駛車會更深刻地認(rèn)識公交車(和其他大型車輛)不會像其他類型的車輛那樣避讓我們,我們希望在今后能更好地處理此類情況。”就在事故發(fā)生的4天前,美國國家公路交通安傘局剛通知谷歌,非??赡軐λ麄兊臒o人駕駛計算機和人類司機一視同仁。這次事故對他們是一個打擊。
除此之外,谷歌的無人駕駛車也還存在很多其他問題。例如到2014年8月底為止,其最新的原型車還沒有在暴雨或大雪天試過。它也認(rèn)不出警官要它停車的手勢。不過谷歌方面說,這些問題都可以在2020年之前得到解決。盡管如此,無人駕駛車的前景還是被普遍看好,因人類司機分心、疲勞以及野蠻開車和反應(yīng)不及所造成的車禍可望大幅減少,也會把司機從開車的緊張中解放出來。無人駕駛車還有其他許多潛在的好處,這里不一一列舉了。
展望與評述
人工智能還在繼續(xù)發(fā)展。今天,人工智能的應(yīng)用已深入到各行各業(yè),如機器翻譯、數(shù)據(jù)挖掘、工業(yè)機器人、語音識別、銀行軟件、醫(yī)療診斷和搜索引擎等,雖然它們往往并不冠以人工智能的標(biāo)簽。這些應(yīng)用已深刻改變r我們生活的面貌。2016年將要發(fā)布的新的國際半導(dǎo)體技術(shù)路線圖,第一次把其計劃的重點從按照摩爾定律使芯片的能力每兩年翻一番,改為人工智能的種種應(yīng)用——“量體裁衣”地進(jìn)行器件設(shè)計。
另一方面,人工智能的發(fā)展也會給人類社會帶來一些前所未有的挑戰(zhàn)。例如,人工智能會取代企業(yè)員工的許多工作崗位。這樣的問題應(yīng)在經(jīng)濟(jì)社會發(fā)展的前提下加以解決。歷史的發(fā)展已經(jīng)表明,想靠禁止先進(jìn)技術(shù)來維持舊秩序只能是死路一條。人工智能的軍事應(yīng)用確實有使戰(zhàn)爭變得更為殘酷的風(fēng)險。是否有必要爭取禁止人工智能武器?這應(yīng)當(dāng)引起世人注意,而事實上當(dāng)前已經(jīng)有一些科學(xué)家在呼吁這樣做了。
包括人工智能的軍事應(yīng)用在內(nèi),人們對人t智能的發(fā)展途徑以及未來可能產(chǎn)生的重大影響,抱有眾多設(shè)想和疑慮,筆者僅圍繞其中兩個問題做一些評述。
人工智能的長遠(yuǎn)目標(biāo)
對于人工智能的長遠(yuǎn)發(fā)展來說,值得考慮的是怎樣去實現(xiàn):(1)社會智能;(2)創(chuàng)造性;(3)通用智能(general intelligence)。
人工智能將面臨如何跟其他智能體(intelligent agent)打交道的問題,所謂智能體是對包括人、社會組織、人工智能等的一切有智能的系統(tǒng)之統(tǒng)稱。人工智能機為了和其他智能體打交道,必須能夠識別其他智能體的動機和情緒狀態(tài),從而預(yù)測對方將要采取的動作;可能還得有表情,即使它沒有實際的體驗。
許多人認(rèn)為人工智能的終極目標(biāo)是創(chuàng)造有通用智能的機器,也就是說,能實現(xiàn)人類所可能具有的任何智能,這被稱為人工通用智能(artificial general intelligence,AGI)或強人工智能(strong AI);而目前的人工智能都只限于智能的某個特定方面,如下棋或問題搶答,叫做“窄人工智能(narrow AI)”或“弱人工智能(weak AI)”。以筆者管見,我們現(xiàn)在甚至還不能把人類所可能具有的任何智能羅列清楚,現(xiàn)在就來預(yù)測何時實現(xiàn)人工通用智能,還為時過早。在可預(yù)見的未來,還只能用機器實現(xiàn)人類智能的某個特定方面,盡管這些方面的范圍在不斷擴大。
為了實現(xiàn)這些長遠(yuǎn)目標(biāo),人工智能在方法上也要有根本性改變,不能局限于符號處理,也需要通過學(xué)習(xí)積累經(jīng)驗。在這方面,“深度學(xué)習(xí)”無疑是一大突破。不過在目前,“深度學(xué)習(xí)”的適用范圍還不夠廣'而為了解決另一類問題,就得從頭學(xué)起,還不能像人類那樣觸類旁通。智能機器也不能只限于被動接受信息輸入,而應(yīng)該讓其主動和環(huán)境打交道。它還必須采用把“自上而下”和“自下而上”結(jié)合起來的方法。這種人工智能被稱為“新智能”(nouvelIe AI)。未來的智能系統(tǒng)會是某種多級控制系統(tǒng),它需要有亞符號人工智能作為其低級層次,而把符號處理作為高級層次。
“奇點”問題
現(xiàn)在有不少人擔(dān)心,某天會開發(fā)出能夠不斷自我完善的人工通用智能,他們把這一天稱為“奇點”。到那時,人工智能會進(jìn)入一種正反饋狀態(tài),使其智能發(fā)生指數(shù)式增長并大大超越人的智能。結(jié)果,人工智能將擺脫人的控制,而從根本上改變甚至消滅人類文明。許多媒體報道也為此推波助瀾。這種對人工智能的過度夸張,有可能成為人工智能面臨第三次“嚴(yán)冬”之前兆。
從本文前面對人工智能發(fā)展歷程的簡要考察可以看到,人工智能所取得的成就,并不是由于革命性的科學(xué)范式轉(zhuǎn)換,而主要靠的是計算機技術(shù)的飛速發(fā)展,首先是半個世紀(jì)以來運算速度和存儲容量的指數(shù)式增長。從原理上講,人們早就有了下棋機的思想,1951年斯特雷奇(Christopher Strachey)首先教計算機馬克1號(Ferranti Mark 1)學(xué)下國際象棋,不過“深藍(lán)”計算機的速度與之相比提高了1000萬倍。在這之后,計算機的運算速度和存儲容量以每一年半翻一番的速度繼續(xù)增長,這就是所謂的“摩爾定律”。“奇點論”或與此類似的觀點,正是根據(jù)摩爾定律來預(yù)測人工智能會在何時超過人腦。例如美國計算機科學(xué)家和未來學(xué)家?guī)炱濏f爾(Ray Kurzweil)根據(jù)摩爾定律計算出,臺式機將在2029年具有和人腦同樣的信息處理能力。并預(yù)言奇點將在2045年到來。
然而,摩爾定律不是一條自然定律,它只是對最近半個世紀(jì)以來集成電路集成度發(fā)展數(shù)據(jù)的經(jīng)驗總結(jié)。這一規(guī)律不能無限外推。摩爾定律的提出者摩爾(Gordon E.Moore)本人在2015年就指出:“我認(rèn)為摩爾定律到了下一個十年左右就會不再成立。”2015年英特爾公司估計,從2012年開始的若干年內(nèi),其芯片存儲容量翻番的速度將延緩到每兩年半翻一番,以后還會繼續(xù)放慢速度。這是因為半導(dǎo)體集成電路芯片的特征尺度已經(jīng)從1971年的10微米減少到2014年的10納米,預(yù)計到2021年將進(jìn)一步減少到5納米,也就是說只有一二十個原子的大小。再要進(jìn)一步減小,散熱會成為大問題而使芯片停止工作。此外在這種尺度下,電子運動將服從量子規(guī)律,可靠性也成了大問題。既然如此,按照摩爾定律進(jìn)行無限外推,預(yù)言人工智能何時全面超越人腦,就成了空中樓閣。雖然人們也把改進(jìn)人工智能的希望寄托在其他新技術(shù)上,但這些技術(shù)還不像半導(dǎo)體技術(shù)那么成熟,要對它們做精確預(yù)測是困難的。
目前有許多媒體和公眾把機器在跟棋手的對抗中勝出,說成是機器勝、人類敗。這種說法至少在目前是沒有道理的。誠如許峰雄和哈薩比斯所言,其實這種比賽的結(jié)果,要不就是棋手贏、要不就是作為人工智能開發(fā)者的科技人員贏,歸根到底都是人類的勝利。