周自強(qiáng),姜久超
(1.遼寧紅沿河核電有限公司儀控處,遼寧省大連市中山區(qū)南山路127號(hào) 116000;2.河北水利電力學(xué)院電氣自動(dòng)化系,河北省滄州市黃河西路49號(hào) 061001)
備件是指為保障生產(chǎn)設(shè)備的運(yùn)行和維修而儲(chǔ)備的各種元器件、零部件。備件需求的預(yù)測(cè)是進(jìn)行備件采購計(jì)劃制定、供應(yīng)管理、倉儲(chǔ)管理等工作的基礎(chǔ)??茖W(xué)合理的備件需求計(jì)劃,不僅能夠保障生產(chǎn)的正常進(jìn)行,還能夠降低企業(yè)的采購成本和倉儲(chǔ)成本,直接增加企業(yè)的利潤(rùn)。不常用備件的需求具有間隔期不確定、變化量波動(dòng)大、需求規(guī)律性不明顯和不確定性強(qiáng)的特點(diǎn),可參考?xì)v史數(shù)據(jù)少,不利于進(jìn)行分析與預(yù)測(cè)。目前不常用備件需求一般使用灰色系統(tǒng)理論模型進(jìn)行預(yù)測(cè)。
人工神經(jīng)網(wǎng)絡(luò)是模仿大腦結(jié)構(gòu)和功能的新型信息處理方法,由若干個(gè)處理單元聯(lián)結(jié)組成復(fù)雜網(wǎng)絡(luò)。人工神經(jīng)網(wǎng)絡(luò)能夠?qū)Υ罅啃畔⑦M(jìn)行處理,具有容錯(cuò)性強(qiáng)等優(yōu)勢(shì),該方法能夠從歷史資料中尋找規(guī)律,通過非線性處理建模[1],實(shí)現(xiàn)對(duì)未來狀態(tài)的定量估測(cè)。神經(jīng)網(wǎng)絡(luò)利用歷史數(shù)據(jù)構(gòu)成訓(xùn)練集合,通過訓(xùn)練集合對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)參數(shù)的確認(rèn),使用已確認(rèn)參數(shù)的神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)對(duì)未來數(shù)據(jù)的預(yù)測(cè)[2]。本文將LSTM和Bi-LSTM神經(jīng)網(wǎng)絡(luò)應(yīng)用于備件需求預(yù)測(cè),為不常用備件的儲(chǔ)備提供科學(xué)依據(jù)[3]。
長(zhǎng)短期記憶網(wǎng)絡(luò)LSTM(Long-Short Term Memory)通過對(duì)循環(huán)神經(jīng)網(wǎng)絡(luò)RNN(Recurrent Neural Network)的改進(jìn)而提出的一種帶記憶能力的神經(jīng)網(wǎng)絡(luò)[4],這種神經(jīng)網(wǎng)絡(luò)具有從給定數(shù)據(jù)中獲取數(shù)據(jù)間隱含關(guān)系的能力,在分類、自然語言處理、時(shí)間序列數(shù)據(jù)預(yù)測(cè)等領(lǐng)域有著廣泛應(yīng)用[5]。
神經(jīng)網(wǎng)絡(luò)一般包括輸入層、隱含層和輸出層。RNN循環(huán)神經(jīng)網(wǎng)絡(luò)包括兩條信息傳遞通道,一條是輸入層→隱含層→輸出層,另一條是從當(dāng)前時(shí)刻的隱含層到下一時(shí)刻的隱含層,如圖1所示。為了使循環(huán)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)更清晰簡(jiǎn)潔,可以將其按照時(shí)序展開,如圖2所示。
圖1 循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Structure of RNN
圖2 循環(huán)神經(jīng)網(wǎng)絡(luò)時(shí)序展開Fig.2 Time series expansion of RNN
LSTM(Long-Short Term Memory)長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò),它是一種改進(jìn)的循環(huán)神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的隱含層內(nèi)部存在循環(huán)的鏈?zhǔn)浇Y(jié)構(gòu)[6],在標(biāo)準(zhǔn)的循環(huán)神經(jīng)網(wǎng)絡(luò)中只有一個(gè)tanh函數(shù),如圖3所示。
圖3 循環(huán)神經(jīng)網(wǎng)絡(luò)的循環(huán)模塊結(jié)構(gòu)Fig.3 Loop module structure of RNN
LSTM長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)比RNN循環(huán)神經(jīng)網(wǎng)絡(luò)內(nèi)部結(jié)構(gòu)更加復(fù)雜,如圖4所示。通過LSTM和RNN的循環(huán)模塊結(jié)構(gòu)對(duì)比可以看出,RNN循環(huán)結(jié)構(gòu)中只包含tanh函數(shù),而LSTM含有復(fù)雜的控制邏輯,從而實(shí)現(xiàn)對(duì)神經(jīng)元細(xì)胞狀態(tài)的控制,它們分別是忘記門、輸入門、更新門和輸出門。
圖4 LSTM循環(huán)模塊結(jié)構(gòu)Fig.4 Loop module structure of LSTM
在LSTM網(wǎng)絡(luò)中,xt、ht分別表示當(dāng)前時(shí)刻的輸入和輸出,ht-1上一時(shí)間隱含層的輸出數(shù)據(jù),St、Si、Sj、Sk為連接隱含層的權(quán)值矩陣,b0、bi、bj、bk為偏置值;α為sigmoid函數(shù)取值范圍為[0,1],1表示保留信息,0表示丟棄信息;tanh為函數(shù),處理后得到-1~1之間的輸出結(jié)果。
忘記門1的功能是控制信息的取舍。忘記門的輸入數(shù)據(jù)為當(dāng)前時(shí)刻的輸入xt和上一時(shí)間隱含層的輸出數(shù)據(jù)ht-1,經(jīng)sigmoid函數(shù)處理,取值范圍為[0,1],1表示保留信息,0表示丟棄信息,忘記門公式
ft=σ(St×[ht-1,xt]+b0)
(1)
式中,ft為忘記門,ft影響細(xì)胞狀態(tài)。
輸入門2將前一狀態(tài)和當(dāng)前輸入經(jīng)sigmoid函數(shù)去掉非關(guān)鍵信息,同時(shí)經(jīng)tanh函數(shù)處理后得到-1~1之間的輸出結(jié)果作為新的神經(jīng)元細(xì)胞狀態(tài),公式如下
it=σ(Si×[ht-1,xt]+bi)
(2)
(3)
更新門3將輸入門2中sigmoid函數(shù)和tanh函數(shù)的輸出結(jié)果相乘,并加上忘記門1中的輸出結(jié)果,實(shí)現(xiàn)神經(jīng)元細(xì)胞中重要信息的篩選,公式如下
(4)
式中,Ct為當(dāng)前細(xì)胞狀態(tài)。
輸出門4從當(dāng)前狀態(tài)中選擇重要的信息作為狀態(tài)的輸出。首先,將前一隱狀態(tài)和當(dāng)前輸入值經(jīng)sigmoid函數(shù)得到一個(gè)0~1之間的結(jié)果。然后對(duì)更新門3的輸出結(jié)果經(jīng)tanh函數(shù)輸出,并與得到的結(jié)果相乘,作為當(dāng)前狀態(tài)的輸出也作為下一狀態(tài)的輸入,公式如下
ot=σ(Sk×[ht-1,xt]+bk)
(5)
ht=ot×tanh(Ct)
(6)
式中,Ot為忘記門,Ct為當(dāng)前細(xì)胞狀態(tài)。
Bi-LSTM(Bi-directional Long Short-Term Memory)雙向長(zhǎng)短期記憶網(wǎng)絡(luò)包括前向LSTM和后向LSTM,預(yù)測(cè)由前后若干輸入共同決定,提高了輸出的準(zhǔn)確性,網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。圖中包含了6個(gè)共享權(quán)值w1~w6,輸出層不僅包含F(xiàn)orward層也包含Backward層。
圖5 Bi-LSTM神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)Fig.5 Structure of Bi-LSTM
xt、xt+1分別表示當(dāng)前和下一時(shí)刻的輸入,Ot、Ot+1分別表示當(dāng)前和下一時(shí)刻的輸出,ht-1、ht分別表示上一時(shí)刻和當(dāng)前正向細(xì)胞狀態(tài),ht-1、ht分別表示上一時(shí)刻和當(dāng)前反向細(xì)胞狀態(tài)。
當(dāng)Forward層從1時(shí)刻到t時(shí)刻正向計(jì)算,得到并保存每個(gè)時(shí)刻向前隱含層的輸出。在Backward層沿著時(shí)刻t到時(shí)刻1反向計(jì)算,得到并保存每個(gè)時(shí)刻向后隱含層的輸出。最后在每個(gè)時(shí)刻結(jié)合Forward層和Backward層的相應(yīng)時(shí)刻輸出的結(jié)果得到最終的輸出,公式如下:
ht=f(w1xt+w2ht-1)
(7)
(8)
(9)
循環(huán)神經(jīng)網(wǎng)絡(luò)根據(jù)實(shí)際應(yīng)用場(chǎng)景可分為多輸入單輸出、單輸入多輸出、有時(shí)差多輸入多輸出和無時(shí)差的多輸入多輸出網(wǎng)絡(luò)[7],本文中采用多輸入單輸出網(wǎng)絡(luò),由輸入層、隱含層和輸出層組成,在隱含層中包含了設(shè)定數(shù)量的LSTM和Bi-LSTM網(wǎng)絡(luò)的神經(jīng)元、神經(jīng)元間信息傳遞的過程,如圖6所示。
圖6 網(wǎng)絡(luò)結(jié)構(gòu)示意圖Fig.6 Schematic diagram of network structure
LSTM和Bi-LSTM神經(jīng)網(wǎng)絡(luò)參數(shù)的訓(xùn)練過程是有監(jiān)督學(xué)習(xí),需要對(duì)訓(xùn)練集進(jìn)行設(shè)計(jì)。圖7為本文神經(jīng)網(wǎng)絡(luò)訓(xùn)練數(shù)據(jù)集的結(jié)構(gòu)。
圖7 訓(xùn)練集結(jié)構(gòu)示意圖Fig.7 Schematic diagram of training set
在使用LSTM或Bi-LSTM網(wǎng)絡(luò)進(jìn)行訓(xùn)練時(shí),需要根據(jù)設(shè)計(jì)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)將訓(xùn)練集進(jìn)行詳細(xì)設(shè)計(jì),網(wǎng)絡(luò)中的第一層必須定義預(yù)期輸入的結(jié)構(gòu)且輸入必須是三維的,由Samples、Timesteps和Features組成,Samples為輸入數(shù)據(jù)的行數(shù)、Timesteps輸入數(shù)據(jù)的列數(shù)、Features為預(yù)測(cè)數(shù)據(jù)的個(gè)數(shù)。在圖7中將訓(xùn)練集按序號(hào)分成了3個(gè)時(shí)間步,輸入3個(gè)數(shù)據(jù)預(yù)測(cè)1個(gè)數(shù)據(jù),inputn表示第n個(gè)有不常用備件需求的檢修輪次,output1用來預(yù)測(cè)input4,即通過前三個(gè)數(shù)據(jù)來預(yù)測(cè)第四個(gè)數(shù)據(jù),按時(shí)間順序?qū)⒂胁怀S脗浼枨蟮臋z修輪次刷選出來整理成序列,將該序列輸入到神經(jīng)網(wǎng)絡(luò)中進(jìn)行訓(xùn)練。
循環(huán)神經(jīng)網(wǎng)絡(luò)通過引入非線性的激勵(lì)函數(shù),使每一層的輸出都是上一層輸入的非線性函數(shù),從而給神經(jīng)網(wǎng)絡(luò)引入了非線性因素,使得神經(jīng)網(wǎng)絡(luò)可以逼近任何非線性函數(shù),從而使得神經(jīng)網(wǎng)絡(luò)能夠更加全面的模擬目標(biāo),提高了循環(huán)神經(jīng)網(wǎng)絡(luò)的應(yīng)用范圍。常見的激勵(lì)函數(shù)有sigmoid、tanh、ReLU,這三個(gè)激活函數(shù)各有優(yōu)劣,本文采用ReLU作為神經(jīng)網(wǎng)絡(luò)的激活函數(shù),ReLU定義為
(10)
Relu函數(shù)可以使網(wǎng)絡(luò)訓(xùn)練更快,相比于sigmoid、tanh導(dǎo)數(shù)更加好求,因?yàn)槠鋵?dǎo)數(shù)形式簡(jiǎn)單,加入到神經(jīng)網(wǎng)絡(luò)中可以使網(wǎng)絡(luò)擬合非線性映射,使網(wǎng)格具有稀疏性。
梯度下降法GD(Gradient Descent)是最基本的神經(jīng)網(wǎng)絡(luò)優(yōu)化方法,主要原理是選取當(dāng)前位置的最快下降方向——負(fù)梯度方向進(jìn)行計(jì)算。梯度下降法在與目標(biāo)值位置遠(yuǎn)時(shí),斜率越大,搜索越快;反之,當(dāng)與目標(biāo)值較近時(shí),斜率越小,搜索越慢。但是GD算法每次迭代要將全部數(shù)據(jù)帶入進(jìn)行訓(xùn)練,當(dāng)訓(xùn)練數(shù)據(jù)較多時(shí),花費(fèi)的訓(xùn)練時(shí)間比較長(zhǎng)。為了加快模型的訓(xùn)練速度,提出了隨機(jī)梯度下降法SGD(Stochastic Gradient Descent)和批量梯度下降法BGD(Batch Gradient Descent),這兩種方法每次迭代不對(duì)全部數(shù)據(jù)進(jìn)行訓(xùn)練,因此訓(xùn)練時(shí)間縮短了,但無法保證最終的結(jié)果是全局最優(yōu)解。
在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中,損失函數(shù)的作用是計(jì)算神經(jīng)網(wǎng)絡(luò)每次迭代的前向計(jì)算結(jié)果與真實(shí)值的差距,從而指導(dǎo)下一步的訓(xùn)練向正確的方向進(jìn)行。模型訓(xùn)練時(shí)首先用隨機(jī)值初始化前向計(jì)算公式的參數(shù),之后代入樣本計(jì)算輸出的預(yù)測(cè)值,然后用損失函數(shù)計(jì)算預(yù)測(cè)值和標(biāo)簽值的誤差,隨后根據(jù)損失函數(shù)的導(dǎo)數(shù),沿梯度最小方向?qū)⒄`差回傳,修正前向計(jì)算公式中的各個(gè)權(quán)重值,最后再次帶入樣本,直到損失函數(shù)值達(dá)到一個(gè)滿意的值或達(dá)到要求訓(xùn)練的次數(shù)時(shí)停止迭代。本文中的數(shù)據(jù)預(yù)測(cè)屬于回歸問題,一般采用均方差作為損失函數(shù)進(jìn)行模型訓(xùn)練,均方誤差(mean_squared_error)損失函數(shù)如下
(11)
此外本文選取Adam(Adaptive Moment Estimation)算法作為損失函數(shù)的優(yōu)化函數(shù)。Adam通過梯度一階矩估計(jì)和二階矩估計(jì)動(dòng)態(tài)調(diào)整每個(gè)參數(shù)的學(xué)習(xí)率,實(shí)現(xiàn)學(xué)習(xí)率的自適應(yīng)優(yōu)化。
以某大型設(shè)備定檢周期中歷史消耗統(tǒng)計(jì)數(shù)據(jù)為分析對(duì)象(數(shù)據(jù)序列為等時(shí)距數(shù)據(jù)序列),取樣周期為一個(gè)月,數(shù)據(jù)參數(shù)見表1。
表1 備件需求情況
將有備件消耗的檢修輪次單獨(dú)提取出來,構(gòu)造出不常用備件的消耗輪次序列{2,5,9,10,15,17,20}。為了驗(yàn)證LSTM和Bi-LSTM神經(jīng)網(wǎng)絡(luò)在備件需求預(yù)測(cè)上的可行性,將消耗輪次序列前6個(gè)數(shù)據(jù)作為訓(xùn)練集,將第7個(gè)數(shù)據(jù)用于測(cè)試預(yù)測(cè)的準(zhǔn)確性。
為了驗(yàn)證神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)不常用備件需求的有效性,實(shí)驗(yàn)分別對(duì)LSTM網(wǎng)絡(luò)和Bi-LSTM網(wǎng)絡(luò)進(jìn)行研究。實(shí)驗(yàn)的軟件環(huán)境為Windows 7操作系統(tǒng)和以Tensorflow-gpu 1.10.0作為后端計(jì)算Keras 2.2.8深度學(xué)習(xí)框架提供的神經(jīng)網(wǎng)絡(luò)模型[8];硬件環(huán)境的CPU為Intel(R)Xeon(R)CPU E3-1231 v3@3.40GH,顯卡為NVIDIA GeForce GTX 970(4096MB),內(nèi)存為8GB。在實(shí)驗(yàn)中,由于參數(shù)的設(shè)置對(duì)實(shí)驗(yàn)結(jié)果影響較大,因此實(shí)驗(yàn)通過不斷調(diào)整參數(shù)訓(xùn)練模型直至得到較好的實(shí)驗(yàn)結(jié)果[9,10]。對(duì)于LSTM和Bi-LSTM網(wǎng)絡(luò),輸入層維數(shù)Input設(shè)為3,輸出層維數(shù)Output設(shè)為1,隱藏層神經(jīng)單元個(gè)數(shù)設(shè)為[20,400],每一次訓(xùn)練的樣本數(shù)Batch設(shè)為3,時(shí)間步長(zhǎng)Time設(shè)為3,迭代次數(shù)Epoch設(shè)為[20,500]。
為了使神經(jīng)網(wǎng)絡(luò)達(dá)到更加準(zhǔn)確的預(yù)測(cè)效果,需要對(duì)神經(jīng)網(wǎng)絡(luò)的參數(shù)進(jìn)行調(diào)整,網(wǎng)絡(luò)隱含層神經(jīng)元的數(shù)量和訓(xùn)練次數(shù)都會(huì)影響神經(jīng)網(wǎng)絡(luò)的訓(xùn)練效果。為了更加直觀的體現(xiàn)隱含層神經(jīng)元數(shù)量對(duì)神經(jīng)網(wǎng)絡(luò)擬合預(yù)測(cè)數(shù)據(jù)的影響,分別對(duì)LSTM和Bi-LSTM神經(jīng)網(wǎng)絡(luò)設(shè)置訓(xùn)練次數(shù)epochs固定為100隱含層神經(jīng)元數(shù)量分別設(shè)置為20、50、100、200、400,將訓(xùn)練之后的神經(jīng)網(wǎng)絡(luò)對(duì)各點(diǎn)的數(shù)據(jù)進(jìn)行預(yù)測(cè),預(yù)測(cè)結(jié)果與真實(shí)序列如圖8所示,從中可以看出隨著神經(jīng)網(wǎng)絡(luò)隱含層神經(jīng)元數(shù)量的增加,預(yù)測(cè)精度在逐漸提高,本例中LSTM網(wǎng)絡(luò)隱含層神經(jīng)元為100時(shí)較為準(zhǔn)確,之后隨著隱含層神經(jīng)元的增加擬合精度在下降。本例中Bi-LSTM神經(jīng)網(wǎng)絡(luò)隨著隱含層神經(jīng)元數(shù)量的增加,在逐步接近真實(shí)值但沒有達(dá)到一個(gè)較理想的效果。
圖8 神經(jīng)元變化對(duì)比Fig.8 Comparison of neurons changes
為了直觀的展示訓(xùn)練次數(shù)對(duì)神經(jīng)網(wǎng)絡(luò)的影響,將LSTM和Bi-LSTM神經(jīng)網(wǎng)絡(luò)隱含層神經(jīng)元數(shù)量設(shè)置為100,訓(xùn)練次數(shù)分別設(shè)置成20、50、100、200、300、500。訓(xùn)練完成后預(yù)測(cè)結(jié)果與真實(shí)序列如圖9所示,從中可以看出不論是LSTM還是Bi-LSTM神經(jīng)網(wǎng)絡(luò),隨著訓(xùn)練數(shù)量的增加,預(yù)測(cè)精度均在逐漸提高,本例中LSTM網(wǎng)絡(luò)和Bi-LSTM神經(jīng)網(wǎng)絡(luò)在訓(xùn)練次數(shù)達(dá)到200次時(shí)預(yù)測(cè)精度已經(jīng)比較準(zhǔn)確。
圖9 訓(xùn)練次數(shù)變化對(duì)比Fig.9 Comparison of training times
不常用備件的需求預(yù)測(cè)具有小樣本、貧信息的特點(diǎn),可以歸類為不確定性問題,求解該類問題的常用方法是灰色系統(tǒng)理論。GM模型通過將原始數(shù)據(jù)序列的隨機(jī)性變換整理成有較強(qiáng)規(guī)律的累加生成序列,建立GM模型,計(jì)算預(yù)測(cè)序列后再還原,實(shí)現(xiàn)對(duì)不常用備件需求的預(yù)測(cè)。本文通過對(duì)LSTM和Bi-LSTM神經(jīng)網(wǎng)絡(luò)參數(shù)進(jìn)行調(diào)整優(yōu)化后,將預(yù)測(cè)結(jié)果與單變量一階微分灰色模型GM(1,1)的預(yù)測(cè)結(jié)果進(jìn)行比較。以某不常用備件的消耗輪次序列{2,5,9,10,15,17,20}作為對(duì)象,其中前6個(gè)數(shù)據(jù)作為已知數(shù)據(jù),第7個(gè)數(shù)據(jù)作為待預(yù)測(cè)數(shù)據(jù),由于神將網(wǎng)絡(luò)步長(zhǎng)設(shè)置為3,因此神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)從第4個(gè)數(shù)據(jù)開始,預(yù)測(cè)數(shù)據(jù)見表2。
表2 預(yù)測(cè)值與實(shí)際值對(duì)比
由表2和圖10可以看出,無論是灰色模型還是LSTM和Bi-LSTM神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)均能實(shí)現(xiàn)對(duì)不常用備件需求的預(yù)測(cè),但LSTM和Bi-LSTM神經(jīng)網(wǎng)絡(luò)明顯比灰色模型預(yù)測(cè)偏差小。實(shí)驗(yàn)結(jié)果表明,LSTM和Bi-LSTM網(wǎng)絡(luò)能夠較好地反映不常用備件的需求時(shí)機(jī),預(yù)測(cè)結(jié)果具有較高的準(zhǔn)確性。
圖10 真實(shí)值與各預(yù)測(cè)模型預(yù)測(cè)值Fig.10 The real value and the predicted value of different prediction models
在制定備件采購計(jì)劃時(shí),需要對(duì)備件需求情況進(jìn)行合理的分析與預(yù)測(cè),尤其是不常用的高價(jià)值備件,只有這樣才能保證生產(chǎn)活動(dòng)的正常進(jìn)行同時(shí)保持較低的庫存資金占用率。本文提出的LSTM和Bi-LSTM神經(jīng)網(wǎng)絡(luò)模型能夠通過對(duì)歷史不常用備件需求時(shí)機(jī)的學(xué)習(xí),深入挖掘不常用備件需求時(shí)機(jī)之間的關(guān)系,有效預(yù)測(cè)中短期內(nèi)的需求,從而為備件的儲(chǔ)備計(jì)劃提供依據(jù)。由于備件的需求情況不僅受設(shè)備因素的影響還受到各種人為因素,如維修測(cè)策略的臨時(shí)調(diào)整等的制約,因此備件的需求預(yù)測(cè)仍值得進(jìn)一步探索。本文示例中選取的數(shù)據(jù)存在一定的局限性,為了在其他情況中進(jìn)行應(yīng)用需要重新進(jìn)行數(shù)據(jù)集的收集和模型的訓(xùn)練,在歷史數(shù)據(jù)較少時(shí)的應(yīng)用范圍有待進(jìn)一步研究。