国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于人工神經(jīng)網(wǎng)絡的發(fā)動機點火提前角預測模型

2016-08-16 06:03TURKSON顏伏伍侯獻軍2MALI劉博現(xiàn)代汽車零部件技術(shù)湖北省重點實驗室武漢理工大學武漢430070汽車零部件技術(shù)湖北省協(xié)同創(chuàng)新中心武漢430070現(xiàn)代汽車零部件技術(shù)湖北省重點實驗室武漢430070MechanicalEngineeringDepartmentHoPolytechnicBoxHP27GhanaAutomotiveandTractorsEngineeringDepartmentFacultyofEngineeringMiniaU
汽車科技 2016年4期
關(guān)鍵詞:人工神經(jīng)網(wǎng)絡復雜度神經(jīng)元

R. F. TURKSON,顏伏伍,2,侯獻軍,2M. K. A. ALI,4,劉博,2(.現(xiàn)代汽車零部件技術(shù)湖北省重點實驗室(武漢理工大學),武漢430070;2.汽車零部件技術(shù)湖北省協(xié)同創(chuàng)新中心,武漢430070;3.現(xiàn)代汽車零部件技術(shù)湖北省重點實驗室,武漢430070;3.Mechanical Engineering Department,Ho Polytechnic,P. O. Box HP 27,Ghana;4.Automotive and Tractors Engineering Department,F(xiàn)aculty of Engineering,Minia University,6,El-Minia,Egypt)

基于人工神經(jīng)網(wǎng)絡的發(fā)動機點火提前角預測模型

R. F. TURKSON1,3,顏伏伍1,2,侯獻軍1,2M. K. A. ALI1,4,劉博1,2
(1.現(xiàn)代汽車零部件技術(shù)湖北省重點實驗室(武漢理工大學),武漢430070;2.汽車零部件技術(shù)湖北省協(xié)同創(chuàng)新中心,武漢430070;3.現(xiàn)代汽車零部件技術(shù)湖北省重點實驗室,武漢430070;3.Mechanical Engineering Department,Ho Polytechnic,P. O. Box HP 217,Ghana;4.Automotive and Tractors Engineering Department,F(xiàn)aculty of Engineering,Minia University,61111,El-Minia,Egypt)

本文利用人工神經(jīng)網(wǎng)絡建立發(fā)動機點火提前角預測模型,提出顯式優(yōu)化神經(jīng)網(wǎng)絡模型復雜度的方法,并提出一種在將實驗數(shù)據(jù)劃分為訓練、驗證和測試數(shù)據(jù)集前的數(shù)據(jù)預處理方法,能有效提高模型的精度。得到的最優(yōu)神經(jīng)網(wǎng)絡模型,對訓練、驗證、測試數(shù)據(jù)集預測的相關(guān)系數(shù)均為1,模型誤差幾乎為零。在劃分數(shù)據(jù)集前通過復制原始數(shù)據(jù)集得到大量的數(shù)據(jù)樣本,并通過多次迭代訓練(999次),優(yōu)化的發(fā)動機點火提前角預測模型具有很高的精度。

發(fā)動機;人工神經(jīng)網(wǎng)絡;點火提前角;預測模型

Richard Fiifi Turkson

武漢理工大學博士在讀,主要研究方向為基于智能算法(人工神經(jīng)網(wǎng)絡和遺傳算法等)的內(nèi)燃機建模與性能優(yōu)化,已發(fā)表論文10余篇。

1 前言

人工神經(jīng)網(wǎng)絡是受生物神經(jīng)系統(tǒng)啟發(fā)的一種黑箱類建模方法,用于解決現(xiàn)實世界中模式分類、聚類/分類,函數(shù)逼近/系統(tǒng)識別,優(yōu)化和控制系統(tǒng)設計等問題。人工神經(jīng)網(wǎng)絡有較強的并行處理、學習和泛化能力,具有高適應性和容錯性等特點;能在一定的精度下,逼近任何函數(shù)[1]。因此,近年來受到很多的關(guān)注[2,3],并在汽車發(fā)動機領域得到了廣泛的運用[4-15]。

Wu等人[4]利用人工神經(jīng)網(wǎng)絡對具有可變氣門正時和獨立進氣排氣凸輪軸定相技術(shù)發(fā)動機的氣流進行建模,提出了神經(jīng)網(wǎng)絡模型結(jié)構(gòu)的顯式優(yōu)化方法[5],該優(yōu)化方法通過逐步遞增模型參數(shù)(隱層數(shù)量和/或每層的神經(jīng)元數(shù)量),觀察訓練、驗證和測試數(shù)據(jù)集的均方誤差,但是該方法需要有大量的實驗數(shù)據(jù),才能有較好的預測效果。文獻[6]用元模型的方法降低1-D發(fā)動機模型的計算復雜度,而不損失有效數(shù)據(jù)信息,用于快速運行的自控制模型應用。文獻[7]基于Levenberg-Marquardt算法,利用人工神經(jīng)網(wǎng)絡對單缸點火發(fā)動機的燃料系統(tǒng)識別和燃油噴射定時優(yōu)化。Hadef等[8]開發(fā)了一個人工神經(jīng)網(wǎng)絡模型用來預測可變氣門定時小型渦輪增壓點火發(fā)動機的體積效率,用包含了穩(wěn)態(tài)與瞬態(tài)工況的實驗數(shù)據(jù)訓練人工神經(jīng)網(wǎng)絡模型,訓練模型的具有良好的預測結(jié)果。Zhang等[9]利用人工神經(jīng)網(wǎng)絡預測發(fā)動機的氮氧化物排放量,用于訓練神經(jīng)網(wǎng)絡的輸入包括:發(fā)動機轉(zhuǎn)速、扭矩和機油溫度。在不同發(fā)動機工況下,對發(fā)動機氮氧化物排放量的模型預測精度很高。在近期的另一項研究[10]中,使用GT-PowerTM 1-D仿真和人工神經(jīng)網(wǎng)絡為點火發(fā)動機進行建模,該神經(jīng)網(wǎng)絡結(jié)構(gòu)用貝葉斯規(guī)則以及對不同迭代權(quán)重進行重新初始化的方法來優(yōu)化,從而確保了全局收斂性。

本文利用神經(jīng)網(wǎng)絡以發(fā)動機轉(zhuǎn)速和進氣歧管壓力為輸入,建立發(fā)動機點火提前角預測模型,提出顯式優(yōu)化神經(jīng)網(wǎng)絡模型復雜度的方法,并提出一種新的數(shù)據(jù)預處理的方法,該方法能在僅有少量數(shù)據(jù)樣本的情況下,得到精度很高的神經(jīng)網(wǎng)絡預測模型。

2 實驗設計和建模方法

本研究采用的是改造后以LPG為燃料的上汽通用五菱B15發(fā)動機,并用聯(lián)電LEC4AD發(fā)動機管理系統(tǒng)來替代原始管理系統(tǒng);在配有數(shù)據(jù)采集系統(tǒng)的AVL交流測功機上測試發(fā)動機,試驗臺架如圖1所示。改造后的發(fā)動機特征參數(shù)如表1所示:表1 實驗發(fā)動機特征參數(shù)

采集發(fā)動機在穩(wěn)態(tài)工況下的實驗數(shù)據(jù),發(fā)動機轉(zhuǎn)速范圍為400-6000rpm(步長為400rpm),進氣歧管壓力范圍為25kPa- 100kPa(步長為5kPa)。

通過臺架實驗獲得發(fā)動機全工況范圍內(nèi)無爆震情況下的點火提前角范圍,所得的最小點火提前角為15度,最大點火提前角為44度。在不同工況下,保持發(fā)動機轉(zhuǎn)速和進氣歧管壓力不變,改變點火提起角,并記錄發(fā)動機最大扭矩輸出時的最佳點火提前角。實驗數(shù)據(jù)共240組,圖2為基于實驗數(shù)據(jù)的發(fā)動機最佳點火提前角MAP圖。

2.1神經(jīng)網(wǎng)絡模型誤差

神經(jīng)網(wǎng)絡一般由一個輸入層,一個輸出層以及一個或多個隱層構(gòu)成,每個層包含若干個神經(jīng)元。相鄰兩層的神經(jīng)元兩兩相連,前一層神經(jīng)元的輸出作為后一層神經(jīng)元的輸入。每個神經(jīng)元的所有輸入經(jīng)過權(quán)重分配和偏移運算后代入神經(jīng)元激勵函數(shù)(一般為非線性函數(shù))中得到該神經(jīng)元的輸出。神經(jīng)網(wǎng)絡能高精度的逼近一個高度非線性函數(shù)。

本研究利用神經(jīng)網(wǎng)絡模型進行系統(tǒng)辨識,其主要目的是獲取一個能代替原始函數(shù) f的預測函數(shù)來估算系統(tǒng)輸出,該輸出要盡可能接近輸入向量X=(x1, x2, x3…,xn)下原始函數(shù) 的實際輸出y。等式(1)為預測誤差(均方根誤差)

模型誤差E可分解為偏差誤差和方差誤差兩個分量,如等式(2)所示:

其中,Eb=偏差誤差,Ev=方差誤差

偏差誤差的產(chǎn)生是因為預測模型不能完全準確地代替一個復雜的系統(tǒng),即使神經(jīng)網(wǎng)絡模型的權(quán)重和偏差都達到最優(yōu),偏差也依然存在。

另一方面,方差誤差的產(chǎn)生則由模型的參數(shù)數(shù)量引起的,并隨模型參數(shù)的增加而增加。文獻[16,17]提出,基于同樣的訓練樣本,模型的參數(shù)越少,預測模型相對越精確,這符合精簡原則。

對于一個較多樣本的訓練數(shù)據(jù)集,方差誤差由等式(3)近似得到。

這里,σ2表示方差,n表示參數(shù)數(shù)量,N表示訓練數(shù)據(jù)樣本數(shù)量。對于一個訓練數(shù)據(jù)集,方差誤差與模型參數(shù)數(shù)量n成正比。

對于一個高度靈活(多模型參數(shù))的模型,等式(2)中的偏差誤差Eb可以被忽略。這樣,模型誤差的平方就等于方差誤差。即:

σ等式(4)表明了訓練數(shù)據(jù)集樣本數(shù)量N和方差對模型誤差的影響[15]。

圖3為模型參數(shù)、偏差誤差和方差誤差間的關(guān)系,從圖3可明顯看出,隨著模型參數(shù)的增加,偏差誤差減小,同時方差誤差增加。因為,不可能在不惡化(增大)一種誤差的前提下,減?。ǜ纳疲┝硪环N誤差。但可以利用多目標優(yōu)化,實現(xiàn)在偏差誤差和方差誤差間的折中,從而獲得最佳的參數(shù)參數(shù)數(shù)量(最優(yōu)模型復雜度)。

數(shù)據(jù)集通??煞譃橛柧殧?shù)據(jù)集和測試數(shù)據(jù)集。測試數(shù)據(jù)集用于測試訓練得到的神經(jīng)網(wǎng)絡模型的泛化能力。一般來說,模型訓練誤差大小與偏差誤差大小很相近,并隨模型參數(shù)的增加而減小。測試模型誤差為偏差誤差和方差誤差(模型誤差)之和,并在模型參數(shù)超過最優(yōu)模型參數(shù)后開始增加。因此,模型參數(shù)過少,會導致較高的偏差誤差,出現(xiàn)“欠擬合”;而模型參數(shù)過多,會導致較大的方差誤差出現(xiàn)“過擬合”。為確定最佳的模型參數(shù)數(shù)量(模型復雜度),可以通過訓練大量的模型,并選擇對測試數(shù)據(jù)集預測效果最好的模型為最佳模型。然而這可能會導致“過擬合”,因為模型的選擇和評估是基于同樣的訓練數(shù)據(jù)集。

解決這個問題的一種方法是引入驗證數(shù)據(jù)集用于選擇最佳的模型,本文設置訓練、驗證、測試樣本集的比例為6:2:2。因為在本研究中,優(yōu)化算法的迭代次數(shù)很少,隨機選擇的初始參數(shù)(權(quán)重和偏差)基本決定了模型的精度,因此,模型對驗證數(shù)據(jù)集的誤差應該作為選擇最佳模型的標準。

為了得到最佳的模型復雜度,最重要的一點是通過顯式和/或隱式模型復雜度優(yōu)化方法對偏差和方差誤差進行折中。顯式方法通過逐步增加模型參數(shù),并觀察每種情況下模型的誤差。隱式優(yōu)化方法使用正則化方法,在不改變模型參數(shù)的額定數(shù)量的情況下改變模型復雜度。

2.2神經(jīng)網(wǎng)絡模型優(yōu)化方法

本研究利用顯式模型復雜度優(yōu)化方法,逐步增加模型參數(shù)(神經(jīng)元數(shù)量),設置模型參數(shù)變化范圍為6~15個,得到10個不同復雜度的模型。

圖4為模型顯式優(yōu)化方法的過程,它包括以下步驟:

步驟1:給定隱層層數(shù)和每層神經(jīng)元數(shù),確定神經(jīng)網(wǎng)絡的結(jié)構(gòu)。神經(jīng)網(wǎng)絡的類型為多層前饋神經(jīng)網(wǎng)絡,使用了雙隱層結(jié)構(gòu),第一個隱層神經(jīng)元數(shù)量固定為15,第二個隱層神經(jīng)元數(shù)量初始值為6(最大為15),輸入層神經(jīng)元數(shù)量為2,輸出層神經(jīng)元數(shù)量為1。采用隨機賦值的方法初始化網(wǎng)絡參數(shù)(權(quán)重和偏差),對不同的隱層采用不同的激勵函數(shù)。對于15個神經(jīng)元的和6個神經(jīng)元的隱層,采用Tansigmoid激勵函數(shù),對于只有1個神經(jīng)元的輸出層,使用線性激勵函數(shù)。

步驟2:使用Leveberg-Marquart[18]算法訓練初始神經(jīng)網(wǎng)絡,對步驟1得到的初始網(wǎng)絡訓練10次,同時觀察每次訓練的驗證誤差。

步驟3:如果訓練次數(shù)小于10次,通過步驟1重新訓練,每次訓練時,在步驟1中重新初始化網(wǎng)絡權(quán)重和偏差,直至總的訓練次數(shù)達到10。

步驟4:選擇10次初始訓練的神經(jīng)網(wǎng)絡模型中驗證誤差最小的神經(jīng)網(wǎng)絡模型。選擇驗證誤差作為評價準則是因為,最小驗證誤差可以實現(xiàn)偏差和誤差之間的最佳折中[5,19]。

步驟5:在第二個隱層增加1個神經(jīng)元數(shù)量,以改變神經(jīng)網(wǎng)絡模型的復雜度。

步驟6-8:類似于步驟2-4,重新訓練增加隱層神經(jīng)元數(shù)量后的新的神經(jīng)網(wǎng)絡;

步驟9:重復步驟5-8,以獲得8個以上的模型,這樣就有了10個不同復雜度和驗證誤差的模型。

步驟10:在這10個不同復雜度的模型中,選擇驗證誤差最小的模型作為最佳的神經(jīng)網(wǎng)絡模型。

上段所述的訓練和選擇過程在MATLAB?中實現(xiàn),10種不同復雜度模型中最佳網(wǎng)絡模型為2-15-15-1結(jié)構(gòu)。

2.3實驗數(shù)據(jù)處理優(yōu)化模型性能

在本文研究對象中,有2個輸入變量:

轉(zhuǎn)速 和進氣歧管壓力 ,一個輸出變量:最優(yōu)點火提前角 。等式(5)中的矩陣D表示實驗數(shù)據(jù),數(shù)據(jù)中的每一列表示兩個輸入和一個輸出,分別為轉(zhuǎn)速 、進氣歧管壓力 和最優(yōu)點火提前角 。N表示整個實驗數(shù)據(jù)樣本的數(shù)量(240個樣本)。

為了優(yōu)化神經(jīng)網(wǎng)絡的預測精度,本文提出一種新方法來處理數(shù)據(jù)。傳統(tǒng)劃分數(shù)據(jù)集方法是隨機選擇部分數(shù)據(jù)作為訓練集,剩下的數(shù)據(jù)樣本作為測試集。在這種情況下,訓練集和測試集中沒有相同的元素,N1(N1=N)代表整個數(shù)據(jù)集的總數(shù)。Shamekhi and Shamekhi[10]提出一種優(yōu)化的數(shù)據(jù)集劃分方法,將整個數(shù)據(jù)樣本N2(N2=N)劃分為訓練集和測試集,并使訓練集和測試集共享部分樣本,如圖5中所示:

本文提出一種新的數(shù)據(jù)集劃分方法,在數(shù)據(jù)集劃分之前將N(240)個數(shù)據(jù)樣本復制4次,得到一個總數(shù)為5N(1200)的數(shù)據(jù)集。通過多次復制樣本數(shù)據(jù),在隨機劃分數(shù)據(jù)集時,使得訓練、驗證、測試(訓練、驗證、測試集的比例為6:2:2)數(shù)據(jù)集具有一些相同的樣本。同時,根據(jù)等式(4),通過復制的方法增加樣本總數(shù)可以使得減小模型誤差。

3 結(jié)果和討論

圖6為最佳神經(jīng)網(wǎng)絡模型的訓練、驗證和測試誤差,在優(yōu)化過程中,使用正則化方法,在不改變模型參數(shù)(包括權(quán)重和偏差)數(shù)量的情況下,優(yōu)化模型復雜度。在迭代訓練一定次數(shù)后,正則化方法會在驗證誤差開始增加時終止訓練。

最佳神經(jīng)網(wǎng)絡模型的驗證誤差為6.56×10-27,迭代次數(shù)高達999次,這樣就能找到一個全局最優(yōu)值。由于最佳神經(jīng)網(wǎng)絡模型誤差幾近為零,因此,訓練、驗證和測試數(shù)據(jù)集的相關(guān)系數(shù)(R)均等于1,如圖7所示:

表2 研究結(jié)果對比

表2比較了本研究和之前Shamekhi的研究的結(jié)果。從表中可以看出,本本研究的訓練、驗證和測試集相關(guān)系數(shù)均為1,優(yōu)于之前Shamekhi的研究結(jié)果。在Shamekhi的研究中,迭代次數(shù)為470,而在本研究的迭代次數(shù)為999,這樣可以得到一個更優(yōu)的神經(jīng)網(wǎng)絡模型。本文選擇Shamekhi[10]的研究的結(jié)果作為對比,是因為它比其他研究[5,8,9]有更好的預測精度。

4 結(jié)論

本研究利用人工神經(jīng)網(wǎng)絡以發(fā)動機轉(zhuǎn)速和進氣歧管壓力作為輸入,預測以LPG為代用燃料的發(fā)動機的最佳點火提前角,并提出了神經(jīng)網(wǎng)絡模型顯式優(yōu)化方法和一種劃分數(shù)據(jù)集的新方法,以提高神經(jīng)網(wǎng)絡模型的預測精度。該方法有助于實現(xiàn)訓練、驗證和測試數(shù)據(jù)的零誤差。點火發(fā)動機對點火提前角的精度要求很高,預測精度較差的點火提前角預測模型可能經(jīng)常會引起爆燃,損壞燃燒室以及發(fā)動機部件。本研究的模型預測精度很高,能有效避免爆震的發(fā)生,僅在發(fā)動機的工況發(fā)生變化或當燃料質(zhì)量(在抗爆震性方面)發(fā)生變化時,才會發(fā)生燃燒爆震。

[1]Leshno,M.,et al.,Multilayer feedforward networks with a nonpolynomial activation function can approximate any function. Neural networks,1993. 6(6):p. 861-867.

[2]Bhattacharyya,S. and U. Maulik,Soft Computing for Image and Multimedia Data Processing. 2013: Springer.

[3]Jain,A.K.,J. Mao,and K. Mohiuddin,Artificial neural networks: A tutorial. Computer,1996(3): p. 31-44.

[4]Wu,B.,et al.,Using Artificial Neural Networks for Representing the Air Flow Rate through a 2.4 Liter VVT Engine,2004,SAE International.

[5]Nelles,O.,Nonlinear system identification: from classical approaches to neural networks and fuzzy models. 2001: Springer Science & Business Media.

[6]Papadimitriou,I.,et al.,Neural network based fastrunning engine models for control-oriented applications,2005,SAE Technical Paper.

[7]Yücesan,E.,et al.,Gausslan Radial Basis Functions for Simulation Metamodeling.

[8]El Hadef,J.,et al. Neural Model for Real-Time Engine Volumetric Efficiency Estimation. in 11th SAE International Conference on Engines & Vehicles-ICE2013,Capri: Italie (2013). 2013.

[9]Zhang,Q.,et al.,Predicting the Nitrogen Oxides Emissions of a Diesel Engine using Neural Networks,2015,SAE Technical Paper.

[10]Shamekhi,A.-M. and A.H. Shamekhi,A new approach in improvement of mean value models for spark ignition engines using neural networks. Expert Systems with Applications,2015. 42(12): p. 5192-5218.

[11]Wu,B.,et al.,Cam-phasing optimization using artificial neural networks as surrogate modelsmaximizing torque output,2005,SAE Technical Paper.

[12]Wu,B.,et al.,Cam-phasing optimization using artificial neural networks as surrogate models-fuel consumption and NOx emissions,2006,SAE Technical Paper.

[13]杜常清,顏伏伍,楊平龍,等. 基于BP神經(jīng)網(wǎng)絡的發(fā)動機轉(zhuǎn)矩估計[J]. 汽車工程,2008,30(7):588-591.

[14]Sayin,C.,et al.,Performance and exhaust emissions of a gasoline engine using artificial neural network. Applied thermal engineering,2007. 27(1): p. 46-54.

[15]Kiani,M.K.D.,et al.,Application of artificial neural networks for the prediction of performance and exhaust emissions in SI engine using ethanol-gasoline blends. Energy,2010. 35(1): p. 65-69.

[16]Forster,M.R.,Key concepts in model selection:Performance and generalizability. Journal of mathematical psychology,2000. 44(1): p. 205-231.

[17]Foussias,G. and G. Remington,Negative symptoms in schizophrenia: avolition and Occam's razor. Schizophrenia Bulletin,2010. 36(2): p. 359-369.

[18]Lourakis,M.I.,A brief description of the Levenberg-Marquardt algorithm implemented by levmar. Foundation of Research and Technology,2005. 4: p. 1-6.

[19]Thiery,C. and B. Scherrer. Least-squares λ policy iteration: Bias-variance trade-off in control problems. in International Conference on Machine Learning. 2010.

專家推薦

推薦理由:

文章利用人工神經(jīng)網(wǎng)絡預測發(fā)動機最佳點火提前角,詳細分析了模型誤差產(chǎn)生的原因,提出了模型優(yōu)化方法,預測模型具有較高的精度。文章條理清晰,具有一定的創(chuàng)新性,并有較好的工程實用價值。

Engine Ignition Advance Timing PredictionModelBased On Artificial Neural Network

R. F. TURKSON1,3,YAN Fu-wu1,2,HOU Xian-jun1,2,M. K. A. ALI1,4,LIU Bo1
( 1.Hubei Key Laboratory of Advanced Technology for Automotive Components (Wuhan university of technology),Wuhan 430070,China; 2.Hubei Collaborative Innovation Center for Automotive Components Technology,Wuhan 430070,Chian; 3.Mechanical Engineering Department,Ho Polytechnic,P. O. Box HP 217,Ghana; 4.Automotive and Tractors Engineering Department,F(xiàn)aculty of Engineering,Minia University,61111,El-Minia,Egypt )

An artificial neural network was used in this current study to build the prediction model for engine ignition advance timing.Theprocedure for training and selecting an optimal network structure based on the explicit method of network structure optimization has been presented. The study also presents a novel approach for manipulating limited experimental data before partitioning into training,validation and test data sets for improved prediction accuracy. The results obtained by the proposed method for processing limited experimental data achieved virtually zero errors and a correlation coefficicent of unity for training,validation and testing. The improved prediction accuracy of the selected neural network model was attributed to the larger amount of data resulting from the proposed manipulation of experimental data before partitioning,as well as the comparatively higher (999)training epochs.

engine; artificial neural network; ignition advance timing; prediction model

2016-03-16

TK401

A

1005-2550(2016)04-0056-06

10.3969/j.issn.1005-2550.2016.04.010

猜你喜歡
人工神經(jīng)網(wǎng)絡復雜度神經(jīng)元
基于人工神經(jīng)網(wǎng)絡的Ni-ZrO2納米鍍層耐腐蝕性能預測
一類長度為2p2 的二元序列的2-Adic 復雜度研究*
毫米波MIMO系統(tǒng)中一種低復雜度的混合波束成形算法
AI講座:神經(jīng)網(wǎng)絡的空間對應
Kerr-AdS黑洞的復雜度
人工神經(jīng)網(wǎng)絡實現(xiàn)簡單字母的識別
非線性電動力學黑洞的復雜度
仿生芯片可再現(xiàn)生物神經(jīng)元行為
這個神經(jīng)元負責改變我們的習慣
基于人工神經(jīng)網(wǎng)絡的優(yōu)化配置研究
清苑县| 太保市| 玉环县| 鄂伦春自治旗| 辽阳市| 凤山县| 营口市| 荣成市| 兴文县| 巨鹿县| 高淳县| 临安市| 保康县| 双流县| 资兴市| 崇州市| 乐至县| 富顺县| 湖南省| 新田县| 建瓯市| 苏尼特右旗| 大同市| 石河子市| 荣昌县| 长丰县| 湟源县| 诸城市| 黄浦区| 瑞丽市| 哈尔滨市| 大邑县| 嘉义县| 锡林郭勒盟| 石首市| 仁布县| 中江县| 皋兰县| 长阳| 石阡县| 内江市|