徐 波 劉成林 曾 毅1 中國科學院自動化研究所 北京 1001902 中國科學院腦科學與智能技術卓越創(chuàng)新中心 上海 200031
類腦智能研究現狀與發(fā)展思考*
徐 波1,2**劉成林1,2曾 毅1,2
1 中國科學院自動化研究所 北京 100190
2 中國科學院腦科學與智能技術卓越創(chuàng)新中心 上海 200031
近年來人工智能研究的許多重要進展反映了一個趨勢:來自腦科學的啟發(fā),即使是局部的借鑒都能夠有效地提升現有人工智能模型與系統(tǒng)的智能水平。然而,想要真正逼近乃至超越人類水平的人工智能,還需要對腦信息處理機制更為深入的研究和借鑒。類腦智能研究的目標就是通過借鑒腦神經結構及信息處理機制,實現機制類腦、行為類人的下一代人工智能系統(tǒng)。文章從受腦啟發(fā)的新一代人工神經網絡、基于記憶、注意和推理的認知功能模型、基于生物脈沖神經網絡的多腦區(qū)協(xié)同認知計算模型等角度,并結合研究團隊在類腦智能領域的研究進展,論述類腦智能的研究進展、發(fā)展方向和對未來發(fā)展的思考。
類腦智能,人工神經網絡,記憶,注意和推理,脈沖神經網絡,多腦區(qū)協(xié)同,自主學習
人工智能學科自誕生之初便奠定了其模擬、延伸、擴展人類智能的宏偉目標。60 年來人工智能發(fā)展取得了巨大的成就,但是離學科誕生之初提出的實現人類水平智能的目標仍然有很大的距離。以往人工智能的研究成果大多數屬于行為尺度模擬部分智能的計算模型。這是因為,一方面?zhèn)鹘y(tǒng)人工智能的主要研究者來自信息科學領域,另一方面腦科學研究以前還很難支持從更深入的機制上探索智能的本質及其計算實現的機理。近年來,隨著腦與神經科學領域新技術的不斷涌現,以及人工智能所依賴的深度學習、計算能力和數據發(fā)展,可以在更深刻的層面支持人工智能研究者對智能本質的探索。類腦智能研究逐步引起學術界的廣泛注意,其核心是受腦啟發(fā)構建機制類腦、行為類人的類腦智能計算模型。
本文將結合中科院自動化所“十一五”末以來在類腦智能研究方向的布局和研究實踐,從腦與神經科學對人工智能的潛在啟發(fā)、新一代人工神經網絡、記憶認知功能模型以及腦區(qū)協(xié)同認知模型等角度概述近年來類腦研究關聯現狀與發(fā)展,并對類腦智能研究發(fā)展提出思考。
腦與神經科學的進展,特別是借助新技術與新設備的研究支持研究者通過不同的實驗方法(如生物解剖、電生理信號采集與分析、光遺傳技術、分子病毒學、功能影像分析等)得到對腦的多尺度、多類型的生物證據,正在嘗試從不同側面來揭示生物智能的結構和功能基礎。從微觀神經元、突觸工作機制及其特性,到介觀網絡連接模式,再到宏觀腦區(qū)間的鏈路及其協(xié)同特性,這些實驗及機理研究得到的有關腦的多尺度結構與功能機制將對構建未來類腦智能計算模型提供重要啟發(fā)。
在微觀層面,生物神經元和突觸的類型、數目等在不同腦區(qū)中具有較大差異,且能夠根據任務的復雜性實現結構和功能的動態(tài)適應?,F有實驗結果表明,興奮性神經元在前饋神經網絡的應用中表現出較好的分類效果[1],而更加結構多樣和功能復雜的抑制性神經元由于計算資源和學習方法的限制,尚未能像興奮性神經元一樣在人工神經網絡的訓練和學習過程中展示出應有的潛力,這將是未來值得探索的重要研究方向。突觸方面,如時序依賴的突觸可塑性(Spike-Timing Dependent Plasticity, STDP)是一類時序依賴的連接權重學習規(guī)則,突觸權值的變化主要依賴于細胞放電發(fā)生于突觸前神經元和突觸后神經元的先后時刻,通過對放電時間差與權重更新建立數學映射關系,來描述網絡中的神經連接強度的變化情況。該原則的生物基礎已經在眾多的生物實驗中被證實,可以分為二相STDP、三相STDP,以及部分類STDP機制,如電壓依賴的STDP等[2]。
在介觀層面,特異性的腦區(qū)內部的連接模式和隨機性的網絡背景噪聲的有效融合,使得生物神經網絡在保持了特定的網絡功能的同時,兼顧了動態(tài)的網絡可塑性。例如生物神經網絡中的泊松背景噪聲對生物神經網絡的學習和訓練過程起到極大的促進作用[3]。此外,腦與神經科學研究者普遍認為神經元連接構成的網絡結構對認知功能的實現具有決定性的支撐作用[4]。神經元之間構成的網絡基序及基序結構的組合對神經信息處理過程也發(fā)揮著決定性作用。由于神經元類型的不同,使得神經元之間的網絡連接更為復雜。例如實驗表明,有些神經元傾向于與同類型的神經元相連接,有些神經元傾向于與其他類型的神經元連接,而有些神經元則只與其他類型的神經元連接[5]。此外還發(fā)現,認知功能相近的神經元更容易形成突觸連接[6]。值得思考的問題是:不同的連接模式對應的功能差異是什么?對于認知功能的實現具有何種意義?實踐表明這些結論都對未來類腦神經網絡的設計有重要的潛在啟發(fā)。
在宏觀層面,不同腦區(qū)之間的協(xié)同使得高度智能的類人認知功能得以實現。如哺乳動物腦的強化學習認知功能,長時、短時記憶功能等都是通過不同腦區(qū)功能的協(xié)同實現更為復雜的認知功能。腦區(qū)之間的連接不僅決定信號的傳遞,而且反映了信息處理的機制。如腦區(qū)之間的前饋連接可能反映了信息的逐層抽象機制,而反饋連接則反映了相對抽象的高層信號對低層信號的指導或影響。此外,有些腦區(qū)負責融合來自不同腦區(qū)的信號,從而使對客觀對象的認識更為全面(如顳極對多模態(tài)感知信號的融合),而有些腦區(qū)在接收到若干腦區(qū)的輸入后則負責在問題求解的過程中屏蔽來自問題無關腦區(qū)的信號。
要實現人類水平的智能,需要計算模型能夠融合來自微觀、介觀、宏觀多尺度腦結構和信息處理機制的啟發(fā)。實現跨尺度機制的融合,才能夠實質性顛覆現有計算模型,實現有深遠影響的原始性創(chuàng)新。
雖然傳統(tǒng)的人工神經網絡在神經元、突觸連接等方面初步借鑒了腦神經系統(tǒng)在微觀尺度的概念和結構,但是在信息處理機制上真正從腦科學借鑒的機制并不深刻。近年來發(fā)展起來的深度神經網絡(Deep Neural Network, DNN)模型抓住了人腦在腦區(qū)尺度進行層次化信息處理的機制,在計算和智能模擬能力上取得重要突破,并在模式識別和人工智能應用領域取得了巨大成功。
卷積神經網絡(Convolutional Neural Nerwork,CNN)作為 DNN 的一種,是受生物視覺系統(tǒng)的啟示,將生物神經元之間的局部連接關系(局部感受野)以及信息處理的層級結構應用到計算模型中[7]:當具有相同參數的神經元應用到前一層的不同位置時,可以獲取具有某種不變性的特征。CNN 在從低層到高層的過程中感受野越來越大,逐漸模擬了低級的 V1 區(qū)提取邊緣特征,再到 V2 區(qū)的形狀或者目標的部分等,再到更高層的 V4、IT 區(qū)等,高層的特征是低層特征的組合,從低層到高層的特征表示越來越抽象。研究者詳細對比了 DNN 的高層與靈長類動物 IT 區(qū)在物體識別任務中的關系[8,9],發(fā)現 DNN 的高層能夠很好地反映出 IT 區(qū)的物體識別特性,證實了 DNN 與生物視覺系統(tǒng)在某種程度上的相似性。
基于 CNN 的深度學習方法在視覺、語音領域的諸多任務中均取得突破性的進展,其端到端的建模和學習能力顛覆了傳統(tǒng)的“特征+分類器學習”的固有模式,使得特征和分類器不再有明確的界限,它們均能在 CNN 中一體化地學習。
神經科學研究已證明腦皮層中反饋神經元連接比前饋多得多,但反饋的神經機制和作用尚待深入研究。傳統(tǒng)的深度神經網絡模型里一般只有前饋連接,尚缺乏對反饋的建模。為了更好地模擬人腦,最近有很多研究探索如何將反饋引入神經網絡模型。例如,Liang等人[10,11]提出在 CNN 的卷積層加上層內連接的方法,使每個單元可同時接收前饋和反饋的輸入;Wang等人[12]通過 topdown 的反饋連接和乘法機制引入注意力模型;Cao 等人[13]在 CNN 的卷積層加上層間的反饋連接,將高級的語義和全局信息傳到下層,通過語義標簽的反饋,可以激活特定的與目標語義相關的神經元,從而實現自頂向下的視覺注意,定位復雜背景中的潛在目標。
強化學習是人類通過交互進行學習的重要方式之一。Google DeepMind 團隊將深度神經網絡與強化學習融合[14],構建的深度強化學習模型可用于自動學習打 49 種電腦游戲。該模型借鑒了人類通過與環(huán)境進行交互,自動學習選擇最佳策略、采取最佳行動的學習過程。在此基礎上開發(fā)的 AlphaGo 在與韓國圍棋棋手李世石的交戰(zhàn)中以 4:1的成績獲得勝利[15]。該團隊巧妙地讓兩個圍棋機器人互相切磋棋藝,在交互中采用強化學習,對策略網絡和價值網絡進行更新。強化學習在一定程度上解決了深度學習的大數據依賴問題,如在上述例子中,人類棋譜的數量是有限的,而強化學習產生了更多可供學習的棋局。此項工作還說明了不同功能網絡的協(xié)同,能夠提升智能系統(tǒng)的水平。
雖然現有 DNN 模型從某種尺度初步借鑒了人腦信息處理的部分原理,但總體而言依然是初步的嘗試。對腦信息處理機制的深度借鑒來提升現有模型仍然具有很大空間。目前在神經元的類型、突觸的類型及其工作機理、網絡權重更新、網絡背景噪聲等方面,神經生物學的研究都取得了可以被計算模型應用的進展。許多研究團隊已經構建了一系列滿足不同尺度生物實驗證據和約束的計算模型,如生物神經元模型[16-18]、生物突觸模型[19,20]、生物脈沖神經網絡計算模型[21]。這些都為未來脈沖神經網絡(Spiking Neural Network, SNN)的進一步研究奠定了堅實的基礎,提供了創(chuàng)新源泉。人腦的神經系統(tǒng)存在很多反饋連接,例如自頂向下的視覺注意就是來自于從高級認知腦區(qū)(如PFC、LIP 等)的腦活動到初級視覺腦區(qū)的反饋信號,現有模型中雖然有些神經網絡引入了反饋的概念[10,11],但是反饋如何影響低層的輸入信號以及跨層的反饋等,模型中并沒有深入考慮。此外,DNN 的領域特異性強,擴展和泛化能力相對較差,不同領域之間很難實現知識共享,而人類不同的感知模態(tài)之間存在著很強的相互作用,不同模態(tài)的知識能夠很好地共享。
通過與腦科學的緊密聯系和深度交叉,構建更加類腦的神經網絡計算模型和學習方法是類腦智能的研究方向之一。
認知體系結構研究是類腦認知計算模型研究發(fā)展歷程上代表性的方向之一,其中最具代表性的成果是思維的自適應控制(Adaptive Control of Thoughts)認知體系結構。該模型受到了從人工智能視角研究認知科學的早期實踐者之一 Allen Newell 思想的影響[22]。該模型的特點是覆蓋了感知、決策、語言、運動等廣泛的認知功能,模塊在行為層面模擬了對應的腦區(qū)功能,并具備堅實的認知心理學依據。然而該模型全部采用產生式實現認知功能,本質上是一個規(guī)則系統(tǒng),且認知功能間的協(xié)同并非自組織。由于其計算模型沒有采用神經網絡,其介觀和微觀實現機理與人腦還存在較大區(qū)別,且很難處理大規(guī)?,F實世界問題。
近年來深度學習除了在視覺、語音信息處理領域的長足進展與成功應用外,在自然語言處理領域也取得了重要突破。不僅在文本語義特征表示方面具有明顯的優(yōu)勢[23,24],在關系分類[25]、情感識別[26]和信息檢索[27]等應用任務中也優(yōu)于基于人工構造特征的傳統(tǒng)方法。記憶(Memory)、推理(Reasoning)和注意(Attention)等機制逐漸成為神經網絡領域的新研究熱點。
2015年12月,由Facebook人工智能研究院的Jason Weston 牽頭在人工智能領域頂級會議 NIPS2015上組織了一項關于記憶、推理和注意機制的研討會,簡稱 RAM (Memory, Reasoning, Attention)研討會[28]。參會者討論認為,合理采用記憶、推理和注意機制,可以有效地解決人工智能的很多核心問題,并提出目前主要注意的問題。(1)記憶單元中存儲哪些內容?(2)神經記憶單元中記憶的表示形式?(3)記憶單元規(guī)模較大時如何進行快速語義激活?(4)如何構建層次化記憶結構?(5)如何進行層次化信息推理?(6)如何對冗余信息進行遺忘或壓縮處理?(7)如何評價系統(tǒng)的推理和理解能力?(8)如何從人類或動物記憶機制中獲得啟發(fā)?[29]
Chaudhuri 和 Fiete[29]指出:“記憶”是指神經系統(tǒng)中任何活動或連接變化的總稱,這種變化由信號刺激或大腦狀態(tài)觸發(fā)并且持續(xù)時間要長于觸發(fā)時間。“記憶”具有自適應性,具有記憶單元的智能體可以從經驗中學習,概括能力更佳,可以利用先驗信息在不完整數據中進行更好地推理和預測。傳統(tǒng)方法將記憶分為“短時記憶”和“長時記憶”。從認知神經科學角度看,短時記憶是由刺激產生神經元狀態(tài)的持續(xù)性變化,而長時記憶是指神經元之間突觸的連接和強度變化[29];從智能應用角度看,短時記憶由當前環(huán)境數據產生的狀態(tài)編碼更新和存儲,而長時記憶是對歷史信息進行高度經驗性概括的編碼,如概念、實體和結構化知識的表示。
早期利用神經網絡對信息進行編碼記憶的模型注重于神經記憶單元的結構化設計,如在端到端編解翻譯模型中采用長短期記憶(LSTM)單元[30,31]。該記憶單元采用累加器和門控神經元進行記憶細胞信息編碼的更新,其中遺忘門控神經元決定細胞丟棄哪些編碼信息,輸入門控神經元確定當前時刻要更新的信息,狀態(tài)更新累加器神經元由遺忘門和輸入門共同更新細胞狀態(tài),而輸出門控神經元則決定了當前時刻細胞的輸出狀態(tài)。目前基于 LSTM 單元或其他相關改進記憶單元已較好地應用于各種編解碼任務,如對話系統(tǒng)[32]。
然而,神經記憶模型將外部輸入信息壓縮到固定長度的向量化編碼中存在較大的局限性。當外部信息量較大時,記憶編碼容易丟失細節(jié)信息,使得智能系統(tǒng)的語義解析能力變弱[33,34]。針對此問題,一種解決方案是增大記憶單元的編碼維度,如在機器翻譯任務中采用4 000 維以上神經元[33]。該方法大大提高了神經網絡模型的計算復雜度。
近兩年,幾位研究者從不同角度出發(fā)分別提出了采用非定長記憶單元和注意機制進行信息動態(tài)提取和融合的解決方案[33,35,36]。其中,非定長記憶編碼是一種由輸入信息長度動態(tài)調整記憶編碼長度的模式,可改善傳統(tǒng)編解碼記憶模型中將輸入信息全部壓縮到一個固定長度編碼的局限性。采用非定長記憶編碼機制后,編碼端的記憶編碼量有所增加,若全部作為解碼端的輸入,反而會因為語義信息冗余而獲得較差性能。為此,研究者們相應地提出了注意機制進行動態(tài)地編碼信息融合。注意機制是由外部刺激引發(fā)注意轉變,從環(huán)境和非定長記憶編碼單元中選擇重要信息進行融合,得到當前時刻刺激下有限長度的語義向量。另外,在一些自動問答等任務中往往需要通過推理才能從記憶單元中挖掘到有用的語義信息,一些研究者又采用多輪注意機制迭代的方式從記憶單元中逐次激活語義信息完成推理,找到目標信息[35,37]。目前相關工作已分別在機器翻譯[33]、自動問答[35]和圖靈機模擬[36]等任務中取得了良好表現。
上述機制不但在自然語言處理領域存在深入研究和廣泛應用的潛力,其中某些機制在其他認知功能的建模方面也已取得了初步成果。例如注意機制在視覺信息處理的研究中已成為一個重要分支。人類視覺系統(tǒng)能夠在復雜場景中迅速地將注意力集中在顯著的視覺對象上,這個過程稱之為視覺選擇性注意。人類的視覺注意過程包括兩個方面:由刺激驅動的自下而上的視覺注意過程和由任務驅動的自上而下的視覺注意過程。目前的視覺注意計算模型集中在對自下而上的注意機制的建模,其中 Itti 的顯著圖模型[38,39]最具有代表性,該模型將多種尺度下的多種特征通過中心-周邊算子得到顯著性度量結果。相對于自下而上的視覺注意計算模型,自上而下的視覺注意過程研究相對較少,其中的工作可以追溯到Yarbus 等人[40],他們發(fā)現實驗者觀察照片時的眼動模式與被問的問題有關。有研究還發(fā)現大部分的注視點(fixation)集中在與任務相關的位置上。在自上而下的視覺注意計算模型方面主要的工作來自 Ittil 研究組[41-43]。
神經網絡計算模型對推理、注意、記憶的借鑒雖然已在應用層面取得了很好的效果,然而進一步的發(fā)展還需要更為深刻地在機制與原理層面受腦研究的啟發(fā)。例如在推理方面,認知神經科學的研究就分別探討了不同形式的歸納推理、演繹推理的神經機制[44,45]。而對于記憶的探索,腦與神經科學研究中也從不同視角對記憶進行分門別類的研究,如發(fā)現支持長時記憶、短時記憶、工作記憶、陳述性記憶、程序性記憶等不同類型記憶的神經環(huán)路和神經機制上都具有較大差別[46]。對這些腦機制的深入探索與應用必將為神經網絡計算模型的進一步發(fā)展帶來新的契機。
雖然來自神經科學的啟發(fā)已在人工神經網絡學習方面顯現出巨大潛力,但是僅借鑒神經網絡的學習機制還不能夠完全支持實現類似于人腦的通用智能能力,其原因在于人類的認知功能多種多樣,真正通用的類腦智能研究需要融合不同認知功能對應神經機制和認知行為機制的啟發(fā),構建面向通用智能的類腦認知計算模型。
從神經網絡出發(fā)的撓墻協(xié)同模型代表性工作是 2012年加拿大滑鐵盧大學研制的 SPAUN 腦模擬器[47]。SPAUN 將 250 萬個神經元模塊化地分割組織為 10 余個腦區(qū),通過構建不同的工作流實現了模擬筆跡、邏輯填空、工作記憶、視覺信息處理等能力。SPAUN 采用了簡化的 SNN,通過腦區(qū)之間模塊化的組織實現了特定認知功能的初步建模。雖然相對其他模型而言,SPAUN 已經部分接近真實大腦工作原理,但是該模型仍然具有極大的提升空間,主要表現在 3 個方面:(1)目前 SPAUN 感知區(qū)域全部用深度網絡代替,仍然是對感知功能粗略的建模;(2)SPAUN 針對不同的認知任務繪制不同的工作流,不能自主決策任務的類型,不能對任務進行自主建模;(3)SPAUN 腦區(qū)之間的連接是邏輯連接,沒有真正采用生物腦的約束,沒有實質性地通過借助腦區(qū)之間的各種連接、腦的工作機制來提升智能水平。
人類多數高級認知功能的實現都與腦皮層密切相關,許多認知計算模型的研究希望構建通用的皮層計算模型,并以此突破通用智能。其中分層時序記憶(Hierarchical Temporal Memory,HTM)模型便是其中的代表性工作[48]。該模型受皮層組織及皮層信息處理機制啟發(fā),實現了對皮層的不同層次功能的初步建模。該模型整合了空間和時間編碼,與人類認知功能更接近,可實現時序數據信息抽取和模態(tài)預測,目前已廣泛應用于多種智能數據處理領域,如交通流量預測、股票交易數據預測、服務器流量預測等。然而,該模型對皮層層次所對應功能只是進行了粗略對應,與真實皮層結構仍有較大差距,且模型是對皮層微柱的建模,沒有腦區(qū)層次的啟發(fā)和協(xié)同機制,也沒有自動問題建模的能力,認知功能的實現還無法達到自組織。
在構建類腦認知模型中,脈沖神經網絡(Spiking Neural Network, SNN)被認為是能接近仿生機制的神經網絡模型,其模型基礎和運算方式與哺乳動物腦更為接近[49]。與傳統(tǒng)神經網絡模型最大的區(qū)別是:SNN 的神經元以電脈沖的形式對信息進行編碼,這更接近真實神經元對信息的編碼方式。由于采用了此種方式進行編碼,使得 SNN 能夠很好地編碼時間信息??紤]到 DNN 所忽略的很多生物規(guī)則可能恰恰是實現類腦智能的關鍵(如對于時間的編碼、抑制性神經元在網絡中的特殊作用等),將這些生物規(guī)則加入到SNN 中將有可能使現有網絡獲得更強大的計算和任務適應能力,這將是提升類腦神經網絡模型最有效的手段與研究方向之一。
為了實現面向通用智能的類腦智能計算模型,中科院腦科學與智能技術卓越創(chuàng)新中心多個團隊協(xié)同,圍繞SNN 自身模型的優(yōu)化和多腦區(qū)系統(tǒng)模型[47,50](圖 1)等,正在進行類腦認知計算模型的研制。在 SNN 優(yōu)化方面,將受生物現象啟發(fā)的部分學習規(guī)則加入到 SNN 的學習框架中來,以嘗試提升現有的 SNN 模型,并初見成效[51]。面向學習與記憶,構建了前額葉與海馬區(qū)記憶模擬系統(tǒng),面向感知-決策構建了以基底神經節(jié)若干腦區(qū)為核心的類腦強化學習系統(tǒng)。這些系統(tǒng)在微觀層面采用全脈沖神經網絡實現,并引入了興奮性、抑制性神經元模型、不同類型的突觸計算模型以及可塑性模型。在保持了結構與機制類腦的基礎上,初步實現了認知功能上表現出類人行為,如記憶模擬系統(tǒng)在實現記憶的同時表現出很好的抗噪性能,類腦強化學習系統(tǒng)在特定任務中學習效率接近人類被試平均水平。此外,還構建了面向億級類腦神經網絡建模的計算平臺,支持跨尺度的生物神經網絡模擬與類腦認知計算建模[52](圖 2)。
多尺度、多腦區(qū)、多認知功能融合的認知計算模型與類人學習結合是實現類腦智能的一個重要方向,使智能系統(tǒng)不僅在模型結構上類腦,而且具有類人終生學習的能力,從而自主產生智能認知功能并不斷自適應進化。
圖1 鼠腦多尺度計算建模(包括213個腦區(qū)、7 100萬神經元、腦區(qū)之間的連接權重依據生物實驗結果)
圖2 自主強化學習的多腦區(qū)協(xié)同計算模型應用于無人機蔽障和機器人自主學習
腦是自然界中最復雜的系統(tǒng)之一,由上千億(1011)神經細胞(神經元)通過百萬億(1014)突觸組成巨大網絡,實現感知、運動、思維、智力等各種功能。大量簡單個體行為產生出復雜、不斷變化且難以預測的行為模式(這種宏觀行為有時叫做涌現),并通過學習和進化過程產生適應,即改變自身行為以增加生存或成功的機會。類腦智能研究需要加強人工神經網絡和生物神經網絡在結構、功能和學習機制上的融合,尤其迫切需要圍繞兩個方向進行科研攻關。
(1)迫切需要發(fā)展更加高效能的新一代人工神經網絡模型。目前 DNN 一定程度上已經借鑒了神經系統(tǒng)的工作原理,并具備相對完整的編解碼、學習與訓練方法,但從發(fā)展和應用的眼光看,該類模型還存在巨大的提升空間。而大部分 SNN 在學習與訓練算法方面更多地借鑒了神經元、突觸等微觀尺度的機制,其在學習方式上更加接近于無監(jiān)督學習,計算效能也比深度網絡高出一個量級,但由于網絡訓練只考慮了兩個神經元之間的局部可塑性機制,對介觀(如神經元網絡連接、皮層結構)、宏觀尺度(如腦區(qū)之間的網絡連接)的借鑒非常缺乏,因此在性能上與 DNN 等模型還存在一定差距。兩個模型都需要不斷從腦科學中吸取營養(yǎng)并不斷融合,發(fā)展出性能更好、效能更高的新一代人工神經網絡模型。
(2)迫切需要發(fā)展可自適應的類腦學習方法與認知結構。在類人認知行為的機器學習方面,越來越多的研究著眼于提高神經網絡、認知計算模型和智能系統(tǒng)的自適應能力。讓機器像人一樣不斷地從周圍環(huán)境對知識、模型結構和參數進行學習和自適應進化,是機器學習的最高目標,這種學習方式被稱為終生學習(Life-Long Learning)或永不停止的學習(Never-Ending Learning)[53,54],里面混合監(jiān)督學習、無監(jiān)督學習、半監(jiān)督學習、增量學習、遷移學習、多任務學習、交互學習等多種靈活方式。最新的基于生成模型的貝葉斯程序學習[55]體現了人腦普遍的個例學習能力。認知科學認為,一個概念的形成具有組合性和因果性,因此認知一個新概念時用到了已有的經驗積累,從而具有個例的舉一反三能力。貝葉斯程序學習借鑒了這些認知科學里的概念,對字符圖像進行筆畫的分解和組合性的學習和推理,讓程序學會如何學習,從而能舉一反三地辨認新樣例和產生新字符,在一個特定的視角通過了視覺圖靈測試。發(fā)展可持續(xù)的類人學習機制,需要通過腦科學建立適合這類學習機制的認知結構;同時直接從大網絡中通過學習演化出類腦的認知結構則更是期望的基礎性突破。
本文從類腦智能研究的視角論述了腦與神經科學對未來人工智能的啟發(fā),隨后介紹了近年來在神經網絡計算模型方面取得的進展與發(fā)展趨勢,并簡要介紹了中科院先導專項支持下的類腦智能計算模型與方法研究的設想與進展。類腦智能計算模型研究需要腦與神經科學、人工智能與計算科學、器件與系統(tǒng)的科研人員深度實質性協(xié)同與融合,才能夠真正設計并實現出機制類腦、行為類人的通用類腦智能計算模型。
1 Ghosh—Dastidar S, Adeli H. Spiking neural networks. International Journal of Neural Systems, 2009, 19(04): 295-308.
2 Chrol—Cannon J, Jin Y C. Computational modeling of neural plasticity for self-organization of neural networks. BioSystems,2014, 125: 43-54.
3 Dayan P, Abbott L F. Theoretical neuroscience: computational and mathematical modeling of neural systems. cambridge: The MIT Press, 2001.
4 Seung S. Connectome: How the brain's wiring makes us who we are. New York: Houghton Mifflin Harcourt, 2012.
5 Jiang X L, Shen S, Cadwell C R, et al. Principles of connectivity among morphologically defined cell types in adult neocortex. Science, 2015, 350(6264): 9462.
6 Lee W C, Bonin V, Reed M, et al. Anatomy and function of an excitatory network in the visual cortex. Nature, 2016, 532(7599): 370-374.
7 Fukushima K. Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position. Biological Cybernetics, 1980, 36(4): 193-202.
8 Cadieu C F, Hong H, Yamins D L, et al. Deep neural networks rival the representation of primate it cortex for core visual object recognition. PLoS Computational Biology, 2014, 10(12): e1003963.
9 Yamins D L K, DiCarlo J J. Using goal-driven deep learning models to understand sensory cortex. Nature Neuroscience,2016, 19(3): 356-365.
10 Liang M, Hu X L. Recurrent convolutional neural network for object recognition// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). United States: IEEE Press, 2015: 3367-3375.
11 Liang M, Hu X L, Zhang B. Convolutional neural networks with intra-layer recurrent connections for scene labeling// Advancesin Neural Information Processing Systems 28 (NIPS 2015). United States: Curran Associates, Inc., 2015: 937-945.
12 Wang Q, Zhang J X, Song S, et al. Attentional neural network: feature selection using cognitive feedback//Advances in Neural Information Processing Systems 27 (NIPS 2014). United States: Curran Associates, Inc., 2014: 2033-2041.
13 Cao C S, Liu X M, Yang Y, et al. Look and think twice: capturing top-down visual attention with feedback convolutional neural networks// Proceedings of the 2015 IEEE International Conference on Computer Vision (ICCV 2015).United States: IEEE Press, 2015: 2956-2964.
14 MnihV, Kavukcuoglu K, Silver D. Human-level control through deep reinforcement learning. Nature, 2015, 518(7540): 529-533.
15 Silver D, Huang A, Maddison C J, et al. Mastering the game of Go with deep neural networks and tree search. Nature, 2016,529(7587): 484-489.
16 Hodgkin A L, Huxley A F. Propagation of electrical signals along giant nerve fibers. Proceedings of the Royal Society of London. Series B, Biological Sciences, 1952, 140(899): 177-183.
17 Anthony N B. A review of integrate and fire neuron model. Biological Cybernetics, 2006, 95(1): 1-19.
18 Izhikevich E M. Simple model of spiking neurons. IEEE Transactions on Neural Networks, 2003, 14(6):1569-1572.
19 Tsodyks M, Pawelzik K, Markram H. Neural networks with dynamic synapses. Neural Computation, 1998, 10(4): 821-835.
20 Tsodyks M, Wu S. Short-term synaptic plasticity. Scholarpedia,2013, 8(10): 3153.
21 Maass W. Networks of spiking neurons: the third generation of neural network models. Neural Networks, 1997, 10(9):1659-1671.
22 Anderson J R. How can the human mind occur in the physical universe? Oxford, UK: Oxford University Press, 2007.
23 LeCun Y, Bengio Y, Hinton G. Deep learning. Nature, 2015,521(7553):436-444.
24 Collobert R, Weston J, Bottou L, et al. Natural language processing (almost) from scratch. Journal of Machine Learning Research, 2011, 12:2493-2537.
25 Zeng D J, Liu K, Lai S W, et al. Relation classification via convolutional deep neural network//Proceedings of the 25th International Conference on Computational Linguistics (COLING 2014). United States: Association for Computational Linguistics, 2014: 2335-2344.
26 Socher R, Pennington J, Huang E H, et al. Semi-supervised recursive autoencoders for predicting sentiment distributions// Proceedings of the Conference on Empirical Methods in Natural Language Processing. United States: Association for Computational Linguistics, 2011: 151-161.
27 Xu J M, Wang P, Tian G H, et al. Convolutional neural networks for text hashing// Proceedings of the 24th International Joint Conference on Artificial Intelligence (IJCAI 2015). United States: AAAI Press, 2015: 1369-1375.
28 Reasoning, Attention, Memory (RAM) NIPS Workshop 2015. [2016-05-10]. http://www.thespermwhale.com/jaseweston/ram/.
29 Chaudhuri R, Fiete I. Computational principles of memory. Nature neuroscience, 2016, 19(3): 394-403.
30 Cho K, Van Merri?nboer B, Gulcehre C, et al. Learning phrase representations using RNN encoder-decoder for statistical machine translation. arXiv preprint, 2014: arXiv:1406.1078.
31 Hochreiter S, Schmidhuber J. Long short-term memory. Neural computation, 1997, 9(8): 1735-1780.
32 Vinyals O, Le Q. A neural conversational model. arXiv preprint,2015: arXiv:1506.05869.
33 BahdanauD, ChoK, Bengio Y. Neural machine translation by jointly learning to align and translate. arXiv preprint, 2014: arXiv:1409.0473.
34 Shang L F, Lu Z D, Li H. Neural responding machine for shorttext conversation. arXiv preprint, 2015: arXiv:1503.02364.
35 Sukhbaatar S, Weston J, Fergus R, et al. End-to-end memorynetworks// Advances in Neural Information Processing Systems 28 (NIPS 2015). United States: Curran Associates, Inc., 2015: 2431-2439.
36 GravesA, Wayne G, Danihelka I. Neural Turing machines. arXiv preprint, 2014: arXiv: 1410.5401.
37 Peng B L, Lu Z D, Li H, et al. Towards neural network-based reasoning. arXiv preprint, 2015, arXiv: 1508.05508.
38 Itti L, Koch C, Niebur E. A model of saliency-based visual attention for rapid scene analysis, IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(11): 1254-1259.
39 Itti L, Koch C. A saliency-based search mechanism for overt and covert shifts of visual attention. Vision Research, 2000, 40(10-12): 1489-1506.
40 YarbusA L, Riggs L. Eye movements during perception of complex objects, Eye Movements and Vision, Springer, 1967,171-211.
41 Navalpakkam V, Itti L. Modeling the influence of task on attention. Vision Research, 2005, 45(2): 205-231.
42 Baluch F, Itti L. Mechanisms of top-down attention. Trends in Neurosciences, 2011, 34: 210-224.
43 Borji A, Sihite D N, Itti L. What/where to look next? Modeling top-down visual attention in complex interactive environments. IEEE Transactions on Systems, Man, and Cybernetics, Part A -Systems and Humans, 2014, 44(5): 523-538.
44 Goel V, Dolana R J. Differential involvement of left prefrontal cortex in inductive and deductive reasoning. Cognition, 2004,93(3): B109-B121.
45 Jia X Q, Liang P P, Lu J M, et al. Common and dissociable neural correlates associated with component processes of inductive reasoning. NeuroImage, 2011, 56(4), 2292-2299.
46 Gazzaniga M S, Ivry R B, Mangun G R. Cognitive neuroscience: the biology of the mind (4th edition). New York: W. W. Norton & Company, 2013.
47 Eliasmith C, Stewart T C, Choo X, et al. A large-scale model of the functioning brain. Science, 2012, 338(6111): 1202-1205.
48 George D, Hawkins J. Towards a mathematical theory of cortical micro-circuits. PLoS Computational Biology, 2009, 5(10): e1000532.
49 Maass W. Networks of spiking neurons: The third generation of neural network models. Neural Networks, 1997, 10(9): 1659-1671.
50 Zenke F, Agnes E J, Gerstner W. Diverse synaptic plasticity mechanisms orchestrated to form and retrieve memories in spiking neural networks. Nature Communications, 2015, 6: 6922.
51 Zhang T L, Zeng Y, Zhao D C, et al. HMSNN: hippocampusinspired memory spiking neural network. Proceedings of the 2016 IEEE International Conference on Systems, Man, and Cybernetics, IEEE Press, 2016.
52 Liu X, Zeng Y, Xu B. Parallel brain simulator: a multi-scale and parallel brain-inspired neural network modeling and simulation platform. Cognitive Computation, Springer, 2016.
53 Kirstein S, Wersing H, Gross H M, et al. A life-long learning vector quantization approach for interactive learning of multiple categories, Neural Networks, 2012, 28: 90-105.
54 Mitchell T, Cohen W, Hruschka E, et al. Never-ending learning// Proceedings of the 29th AAAI Conference on Artificial Intelligence (AAAI 2015). United States: AAAI Press, 2015: 2302-2310.
55 Lake B M, Salakhutdinov R, Tenenbaum J B. Human-level concept learning through probabilistic program induction. Science, 2015, 350(6266): 1332-1338.
徐 波中科院自動化所所長、研究員,中科院腦科學與智能技術卓越創(chuàng)新中心副主任,中國中文信息學會副理事長。曾任國家“863”計劃信息技術領域專家組專家。長期從事語音識別與人工智能研究,主要研究領域包括:語音識別、多語言處理與理解、認知計算模型與類腦智能。E-mail: xubo@ia.ac.cn
Xu BoProfessor, President of Institute of Automation, Chinese Academy of Sciences, and deputy director of the Center for Excellence in Brain Science and Intelligence Technology, Chinese Academy of Sciences. He also serves as an associate president of Chinese Information Processing Society of China. He was a steering committee member of National high-tech Programme (“863” Program). His main research interests include speech recognition, multilingual language understanding and translation, cognitive model and brain-inspired intelligence. E-mail: xubo@ia.ac.cn
Research Status and Developments of Brain-inspired Intelligence
Xu Bo1,2Liu Chenglin1,2Zeng Yi1,2
(1 Institute of Automation, Chinese Academy of Sciences, Beijing 100190, China;2 Center for Excellence in Brain Science and Intelligence Technology, Chinese Academy of Sciences, Shanghai 200031, China)
Recent advances in Artificial Intelligence (AI) have manifested an important trend, namely, inspirations from brain science can significantly improve the level of intelligence for AI computational models. With only local and partial inspirations from the brain, great advancements have been achieved. Nevertheless, deeper investigations and inspirations from the brain are needed to realize and exceed humanlevel intelligence. The ultimate goal of brain-inspired intelligence is to bring inspirations from brain structures and information processing mechanisms to brain-inspired cognitive computational models, so as to realize next-generation artificial intelligence models and systems with general intelligence. In this article, we review recent advances and discuss trends of brain-inspired computational models, including new models of artificial neural networks, and cognitive computation models. We also briefly introduce the research of brain-inspired cognitive computation models and methods supported by the strategic priority research project of Chinese Academy of Sciences.
brain-inspired intelligence, artificial neural networks, memory, attention and reasoning, spiking neural networks, multiple brain region coordination, autonomous learning
10.16418/j.issn.1000-3045.2016.07.008
*資助項目:中科院戰(zhàn)略性先導科技專項項目(B類)(XDB0200000)
** 通訊作者
修改稿收到日期:2016年6 月9日