国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

淺析人工智能芯片原理與發(fā)展

2019-03-25 08:23:56楊澤申
中國科技縱橫 2019年2期
關鍵詞:芯片神經(jīng)網(wǎng)絡人工智能

楊澤申

摘 要:芯片是20世紀最偉大的工程產(chǎn)品之一,隨著科技的不斷發(fā)展,人類對芯片的要求也越來越高。進入21世紀以來,人工智能飛速發(fā)展,“人工智能芯片”也引起了越來越多的人的興趣。本文比較系統(tǒng)地介紹了人工智能芯片,并向筆者簡要介紹了人工智能的原理。

關鍵詞:人工智能;芯片;神經(jīng)網(wǎng)絡

中圖分類號:TP18 文獻標識碼:A 文章編號:1671-2064(2019)02-0019-02

芯片,又稱集成電路,是現(xiàn)代計算機、嵌入式設備的核心。隨著人工智能浪潮的興起,“人工智能芯片”這一概念一經(jīng)提出就吸引了無數(shù)人的注目。那么人工智能到底是什么,其與芯片的結合點又在哪里,本文將對其作詳細介紹。人工智能包括學習任何知識的能力、推理能力,語言能力和形成自己的觀點的能力。計算機如今已具備了在有限范圍內解決問題的能力了。用人工智能解決問題執(zhí)行困難,但原理卻實則一般。

1 人工智能原理

人工智能的發(fā)展在不同的歷史階段有過不同的指導思想和發(fā)展方向,而今天主流的人工智能發(fā)展道路被公認為是神經(jīng)網(wǎng)絡為主,而實際上,從當前的應用角度而言,神經(jīng)網(wǎng)絡也是應用最廣、預測準確率最好的機器學習方式。

眾所周知,現(xiàn)代計算機技術的發(fā)展是以芯片為依托的。在計算機剛剛被發(fā)明的時候,其體積巨大、運算效率低下,完全不具備進行大量計算的性能。而隨著集成電路等技術的進步,以晶體管為基礎的芯片技術也日漸成熟,也正因此,依托于海量運算的神經(jīng)網(wǎng)絡技術也得到了飛速發(fā)展。接下來,筆者將簡要介紹神經(jīng)網(wǎng)絡的基本原理與其在芯片上的應用。

1.1 神經(jīng)網(wǎng)絡——“智能”的由來

從簡化的角度上講,神經(jīng)網(wǎng)路的核心功能在于分類[1]:將大量數(shù)據(jù)進行相關處理、提取特征并投影到特征空間,并通過激活函數(shù)引入非線性,進而對特征空間進行切割,將“目標特征”提取出來,進行分類。由于邏輯問題往往可以建模為若干個分類問題的疊加,因此神經(jīng)網(wǎng)絡在解決邏輯性較強的問題時往往有著出色表現(xiàn)。

具體而言,神經(jīng)網(wǎng)絡引入“目標函數(shù)”這一優(yōu)化概念,通過反向傳播算法使得目標函數(shù)不斷下降,同時在隱藏層中使用激活函數(shù)以賦予目標函數(shù)“非線性”(例如,我們可以將sigmoid函數(shù)看作是一種階梯函數(shù)或者分段函數(shù),其作用是對數(shù)據(jù)空間進行分割),在一個具體的隱藏層中,不同的平面對空間進行了不同的分割,但這些分割之間是沒有邏輯關系的,我們可以在下一個隱藏層中對這些分割進行邏輯運算以實現(xiàn)更加復雜的分割。因此,只要不斷增加隱藏節(jié)點和隱藏層數(shù),理論上而言就可以實現(xiàn)對空間上任意區(qū)域的分割或特征提取。

具體到某一次訓練上,當數(shù)據(jù)流入神經(jīng)網(wǎng)絡,乘以相關權重并通過激活函數(shù),得到相應的預測值/分類結果,我們將計算結果與實際進行比較,將差值反饋給網(wǎng)絡,使其根據(jù)反饋繼續(xù)進行梯度下降(梯度可以理解為多元函數(shù)的導數(shù),沿該方向函數(shù)的上升速度最快,因而沿反方向下降速度最快),使得我們的目標函數(shù)值也得以不斷減小,最終達到我們希望的精度。

通過以上的過程,我們就構建出了一種分類器,該分類器既可以是多元的、也可以是簡單的二分類問題。因此,只要我們能夠對顯示過程中的具體場景進行建模(例如發(fā)言預測),理論上而言就可以實現(xiàn)預測功能,也就是所謂的“人工智能”。

1.2 芯片技術——怎樣的芯片才能叫做人工智能芯片

正如前文所說,當前人工智能的主要發(fā)展方向為以深度學習為代表的機器學習,而神經(jīng)網(wǎng)絡也依靠著其在數(shù)據(jù)挖掘、分類問題上表現(xiàn)出來的優(yōu)異性能成為了最為熱門的“工具”。因此,就目前甚至未來十年的市場而言,所謂的人工智能芯片與神經(jīng)網(wǎng)絡是不可割離的。因此,在當前這個階段,人工智能芯片可以概括為構建神經(jīng)網(wǎng)絡服務或者搭載神經(jīng)網(wǎng)絡及其相關功能的芯片[2-3]。

更加具體而言,人工智能芯片的功能主要有兩個:訓練(training)和推斷(inference)。

訓練:如前文所說,要想構建一個比較精確的神經(jīng)網(wǎng)絡,我們需要大量的樣本數(shù)據(jù)并不斷地梯度下降,這就要求我們的處理設備有著強大的計算能力。如果我們想要對一個100*100的圖片進行人臉識別,比如1代表有人臉,0代表沒有人臉(實際情況遠遠比筆者描述的要復雜的多,例如在當今社會你很難找到一個大小僅有100*100像素的圖片),即便只有一個隱藏層,我們也需要完成對100*100*n(n代表隱藏層節(jié)點數(shù))個權重的訓練。對于常規(guī)的中央處理器(CPU)而言,這種計算量過于“恐怖”,需要大量的時間來完成。因此,就需要我們制造出更加適合計算甚至是適合神經(jīng)網(wǎng)絡計算的芯片作為新的“CPU”。

推斷:神經(jīng)網(wǎng)絡歸根結底是一種工具,其目的在于幫助人類進行預測(例如人臉識別、語音識別、輔助決策),在網(wǎng)絡完成訓練后,我們只需要將數(shù)據(jù)正向地流過網(wǎng)絡一遍就可以得到分類結果(與訓練過程相比較而言,預測過程所需要的計算量要小得多,但實現(xiàn)該過程所需要的矩陣運算仍是CPU所不擅長的),考慮到絕大多數(shù)神經(jīng)網(wǎng)絡都有著相似的結構(例如都有著神經(jīng)元、隱藏層等基本單元),因此如果能夠開發(fā)出適合神經(jīng)網(wǎng)絡正向傳遞計算的芯片的話,將有助于提升神經(jīng)網(wǎng)絡的推斷速度,這也是許多人工智能芯片被稱之為“神經(jīng)網(wǎng)絡加速器”的原因。

2 人工智能芯片分類及發(fā)展現(xiàn)狀

從結構和功能綜合而言,我們可以將人工智能芯片分為三大類,分別是:圖形處理單元(Graphic Processing Unit,GPU)、現(xiàn)場可編輯門陣列(Field Programmable Gate Array,F(xiàn)PGA)、應用導向集成電路(Application Specific Integrated Circuit,ASIC)[4]。

為了更好地解釋這三種芯片,我們首先簡要介紹傳統(tǒng)CPU的結構。

傳統(tǒng)CPU遵循的是馮諾依曼計算機架構:存儲程序、順序執(zhí)行。一般來說,CPU由邏輯計算單元(ALU)、控制單元(CU)、存儲單元(包括高速緩存器和寄存器)組成。在具體的計算中,控制單元指揮電腦從具體的硬盤地址中取出我們需要的指令和數(shù)據(jù)輸送到CPU的存儲單元中,并交由邏輯計算單元進行運算。由于CPU的應用場景廣泛,任務類型多樣,CPU的控制單元和存儲單元更加“發(fā)達”,相比較而言邏輯計算單元比較“弱小”,這也是為什么CPU的計算能力在神經(jīng)網(wǎng)絡面前顯得“勢單力薄”的根本原因。

2.1 GPU

如前文所言,CPU在面對重復計算的挑戰(zhàn)面前表現(xiàn)往往不佳,而圖像處理恰恰需要這種能力,在這種背景下GPU誕生了。從結構上而言,GPU具有更多的ALU和更少的高速緩存器。這是因為GPU是專門面向大量數(shù)據(jù)運算而準備的,不需要具備過于復雜的邏輯功能,因此GPU分配更多的芯片面積給ALU。同時值得注意的是,GPU不僅僅是依靠ALU的數(shù)量,更加重要的是其并行運算的能力。我們可以這樣理解:傳統(tǒng)的CPU就像一個老教授,其能力很強,但做事一板一眼,在完成一道絕對難度不大但計算量很大的數(shù)學題時,該教授只能一個數(shù)一個數(shù)的運算;GPU就像一群小學生,雖然其無法完成思維難度較大的任務(也就是邏輯、指令更加復雜的任務),但可以在同一時刻分別進行一組數(shù)據(jù)的運算,這樣從絕對的時間上來看,這群小學生完成運算的時間可能遠遠小于教授完成的時間。

具體到神經(jīng)網(wǎng)絡上,在前文中我們介紹過神經(jīng)網(wǎng)絡不管是前向傳播還是反向傳播都是一種矩陣運算,或者說一種并行運算,在這種情況下使用CPU效率低、時間長,而使用GPU我們就可以同時把大量數(shù)據(jù)輸入,分別運算并求和。因此,GPU比起CPU而言更加適合神經(jīng)網(wǎng)絡的相關運算。

2.2 FPGA

眾所周知,芯片,或者叫集成電路,其基本組成單元是晶體管,而在實際應用中實現(xiàn)功能的基本單元則是“與門”、“或門”這樣的基本邏輯計算單元。因此,設計集成電路的過程也就是配置邏輯陣列的過程,通過對不同邏輯基本單元的連線,我們可以實現(xiàn)不同的邏輯電路,完成不同的計算任務。

不管是CPU還是GPU,由于其基本運算單元的一致性,它們在底層結構上是相通的。我們可以想象這些底層單元就像是一塊塊積木,我們通過拼接它們實現(xiàn)了不同的結構,以應對不同的任務。而FPGA就像是裝載著這些積木的玩具箱,我們可以臨時取出一部分玩具來進行組裝,任務完成后再拆解并放回箱中。

上文中我們提到,神經(jīng)網(wǎng)絡的基本結構是相似的,但相似不代表相同,顯然如果我們在每次計算前都能夠修改邏輯陣列,使得運算模塊更加符合某一個具體任務,這樣就能夠更加快速、靈活地面對神經(jīng)網(wǎng)絡的相關問題。

FPGA是一種集成大量基本門電路及存儲器的芯片,可以通過FPGA配置文件來定義這些門電路及存儲器間的連線,進而實現(xiàn)特定功能。而其內容是可配置的,通過配置特定的文件可以將FPGA轉變?yōu)椴煌幚砥?,F(xiàn)PGA可靈活的支持各類深度學習的計算任務。

2.3 ASIC

如果說FPGA是樂高積木,可以組合為各種各樣的功能電路來應對不同任務,那么ASIC就是從源頭上就開始面向具體的任務的專用芯片。ASIC完全不考慮多用途,它就是為了某個具體的任務而被設計出來的。眾所周知,芯片功能一旦經(jīng)過流片就無法更改,因此ASIC作為不可配置的高度定制專用芯片,自然需要大量的研發(fā)投入。同時,若其出貨量不能保證,其單顆成本就難以下降。因此若市場上深度學習的方向一經(jīng)改變,ASIC在前期的投入將無法回收。因此,ASIC具有較大的市場風險。

但ASIC的優(yōu)勢也是顯而易見的,由于它是專門設計的,因此他在某一個具體任務上的性能(例如訓練某一種網(wǎng)絡)一定是三者中最好的;盡管它的研發(fā)成本比較高,但如果能夠大量出貨,其單顆成本將遠紙低于FPGA。其典型代表就是財大氣粗的谷歌所研制的專門用于神經(jīng)網(wǎng)絡訓練的“TPU”[4]。

3 結語

縱貫人工智能的發(fā)展歷史,我們不難發(fā)現(xiàn),掣肘該技術發(fā)展的一大因素就是硬件的計算能力。在很長的一段時間內,芯片產(chǎn)業(yè)的發(fā)展將長久影響著人工智能技術的進步。如何提升硬件性能,不僅是中國所面臨的問題,也是整個世界所面臨的問題。在面對該問題時,不同公司也給出了不同的解決方法,從中國的“寒武紀”到谷歌的TPU,這些凝聚著工程師智慧的工業(yè)產(chǎn)品讓我們看到了不同的發(fā)展思路。也許在不遠的未來,不僅僅是芯片,傳統(tǒng)的馮諾依曼結構也會被更新的系統(tǒng)所代替。

參考文獻

[1] 盛仲飆.BP神經(jīng)網(wǎng)絡原理及MATLAB仿真[J].渭南師范學院學報,2008,23(05):65-67.

[2] 施羽暇.人工智能芯片技術研究[J].電信網(wǎng)技術,2016(12):11-13.

[3] 張蔚敏,蔣阿芳,紀學毅.人工智能芯片產(chǎn)業(yè)現(xiàn)狀[J].電信網(wǎng)技術,2018(02).

[4] 人工智能騰訊科技宇行.人工智能芯片軍備競賽開啟,谷歌等硅谷巨頭加入[J].信息與電腦(理論版),2017(08):17-18.

猜你喜歡
芯片神經(jīng)網(wǎng)絡人工智能
神經(jīng)網(wǎng)絡抑制無線通信干擾探究
電子制作(2019年19期)2019-11-23 08:42:00
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
芯片測試
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
基于神經(jīng)網(wǎng)絡的拉矯機控制模型建立
重型機械(2016年1期)2016-03-01 03:42:04
多通道采樣芯片ADS8556在光伏并網(wǎng)中的應用
復數(shù)神經(jīng)網(wǎng)絡在基于WiFi的室內LBS應用
基于支持向量機回歸和RBF神經(jīng)網(wǎng)絡的PID整定
千阳县| 阜平县| 扶沟县| 时尚| 灵璧县| 全南县| 永春县| 新乐市| 皋兰县| 泰州市| 河源市| 阿克陶县| 阜康市| 郓城县| 西华县| 江西省| 百色市| 望谟县| 田阳县| 中牟县| 龙井市| 河北省| 裕民县| 津市市| 东台市| 安岳县| 丽水市| 莫力| 宝清县| 河西区| 南宁市| 正镶白旗| 晋州市| 滨海县| 安阳市| 乐东| 塔城市| 洛南县| 田林县| 永新县| 连城县|