陳虹潞,黃向華
(南京航空航天大學(xué)能源與動(dòng)力學(xué)院,南京210016)
現(xiàn)代航空發(fā)動(dòng)機(jī)數(shù)字控制系統(tǒng)主要由傳感器、執(zhí)行機(jī)構(gòu)及電子控制器等組成[1],其中,傳感器和執(zhí)行機(jī)構(gòu)組件繁雜,容易發(fā)生故障,是控制系統(tǒng)中十分重要又脆弱的環(huán)節(jié),因此必須對(duì)傳感器和執(zhí)行機(jī)構(gòu)進(jìn)行實(shí)時(shí)故障診斷,從而采取必要的容錯(cuò)控制措施以保障發(fā)動(dòng)機(jī)工作性能不受影響。
故障診斷方法主要有3種:基于模型的、基于人工智能的和基于數(shù)據(jù)驅(qū)動(dòng)的方法?;谀P偷墓收显\斷方法從1977年被Spang等[2]提出,目前已較為成熟。在NASA和MTU合作進(jìn)行的關(guān)于先進(jìn)智能發(fā)動(dòng)機(jī)傳感器和執(zhí)行器性能要求的研究中所提出的未來(lái)智能發(fā)動(dòng)機(jī)發(fā)展的可行技術(shù)中,就包括用于提高發(fā)動(dòng)機(jī)的氣路部件性能和延長(zhǎng)發(fā)動(dòng)機(jī)的在役壽命的通過(guò)基于模型的控制和監(jiān)控技術(shù)[3]?;谀P偷姆椒☉?yīng)用發(fā)動(dòng)機(jī)部件級(jí)模型作為機(jī)載模型,通過(guò)擴(kuò)展卡爾曼濾波器(Extended Kalman Filter,EKF)自適應(yīng)跟蹤發(fā)動(dòng)機(jī)感測(cè)信號(hào)的輸出,在發(fā)動(dòng)機(jī)發(fā)生故障時(shí),EKF的信號(hào)估計(jì)值偏離發(fā)動(dòng)機(jī)實(shí)際信號(hào)值產(chǎn)生殘差,通過(guò)計(jì)算對(duì)殘差進(jìn)行分析即可診斷發(fā)動(dòng)機(jī)的故障類型[4]。
近年來(lái)人工智能算法興起,不少學(xué)者將BP神經(jīng)網(wǎng)絡(luò)、徑向基網(wǎng)絡(luò)、自聯(lián)想網(wǎng)絡(luò)、支持向量機(jī)等算法應(yīng)用于故障診斷中[5-8],其中基于梯度訓(xùn)練的神經(jīng)網(wǎng)絡(luò)算法泛化能力較差,易陷入局部最優(yōu);而支持向量機(jī)參數(shù)選擇復(fù)雜,訓(xùn)練速度慢,不適于故障診斷的工程應(yīng)用。Huang等[9]提出的極限學(xué)習(xí)機(jī)(Extreme Learning Machine,ELM)算法是1種新型前向神經(jīng)網(wǎng)絡(luò)算法,無(wú)需迭代,學(xué)習(xí)速度快、精度高且易于調(diào)參;隨著核函數(shù)的引入,ELM獲得了更高精度[10]。Wong等[11]提出具有深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)的多層核極限學(xué)習(xí)機(jī)(Multilayer Kernel Extreme Learning Machine,ML-KELM);逄珊等[12]將其應(yīng)用于航空發(fā)動(dòng)機(jī)的氣路部件故障診斷中,獲得了更優(yōu)的診斷精度。但深度學(xué)習(xí)結(jié)構(gòu)通過(guò)多層網(wǎng)絡(luò)逐層進(jìn)行輸入數(shù)據(jù)的特征提取,計(jì)算耗時(shí)嚴(yán)重,對(duì)需要高實(shí)時(shí)性的發(fā)動(dòng)機(jī)故障診斷來(lái)說(shuō)是不容忽視的缺陷。
針對(duì)深度核極限學(xué)習(xí)機(jī)的訓(xùn)練時(shí)間過(guò)長(zhǎng)的不足,本文將Deng等[13]提出的核極限學(xué)習(xí)機(jī)的簡(jiǎn)約方法與深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)結(jié)合,提出簡(jiǎn)約的深度核極限學(xué)習(xí)機(jī)(Reduced Deep Kernel Extreme Learning Machine,RDK-ELM)。該算法利用隨機(jī)支持向量縮短算法訓(xùn)練時(shí)間,并保留深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)的高精度優(yōu)點(diǎn),對(duì)EKF產(chǎn)生的殘差數(shù)據(jù)進(jìn)行模式識(shí)別分類,實(shí)現(xiàn)航空發(fā)動(dòng)機(jī)控制系統(tǒng)傳感器與執(zhí)行器的故障診斷。
極限學(xué)習(xí)機(jī)是Huang等提出的1種新的單隱層前向神經(jīng)網(wǎng)絡(luò)的快速學(xué)習(xí)方法。在ELM算法中,給定訓(xùn)練樣本:{(xi,ti)∈Rd,ti∈R,其中,N 為樣本數(shù)量,d為維數(shù),m為輸出節(jié)點(diǎn)數(shù),對(duì)于如本文所述的故障診斷分類問題,m為類別數(shù)。單隱層前向神經(jīng)網(wǎng)絡(luò)的ELM輸出函數(shù)為
式中:L 為隱藏節(jié)點(diǎn)的數(shù)目;β=[βi,…,βL]T,為輸出權(quán)重向量;h(·)為激活函數(shù);ai為隱藏節(jié)點(diǎn)的權(quán)重;bi為隱藏節(jié)點(diǎn)的偏差。
式(1)寫成矩陣形式為
輸出權(quán)值β可通過(guò)尋找給定系統(tǒng)的最小二乘解獲得,即求解式(2)的最小范數(shù)的最小二乘解為
式中:C為正則化系數(shù)。
如果激活函數(shù)h(·)是1個(gè)隱函數(shù),則可以對(duì)ELM算法應(yīng)用Mercer條件,并引入核矩陣[10]
即對(duì)任意每2個(gè)訓(xùn)練樣本之間求核函數(shù)
將式(6)、(7)與式(5)代入式(1)中,可以得到核形式的輸出函數(shù)
這樣就得到了核極限學(xué)習(xí)機(jī)KELM。
多層核極限學(xué)習(xí)機(jī)ML-KELM是將核方法引入到多層極限學(xué)習(xí)機(jī)的1種算法。多層極限學(xué)習(xí)機(jī)[14](Multilayer Extreme Learning Machine,ML-ELM)與深度置信網(wǎng)絡(luò)(Deep Belief Net-work,DBN)相似,DBN是由多個(gè)受限玻爾茲曼機(jī)[15](Restricted Boltzmann Machaine,RBM)疊加而成,逐層提取特征獲得更抽象的概念。ML-ELM由多個(gè)極限學(xué)習(xí)機(jī)自編碼器(ELM Auto-Encoder,ELM-AE)疊加而成,但相比于 DBN,ML-ELM不需要對(duì)網(wǎng)絡(luò)權(quán)值進(jìn)行整體微調(diào),且無(wú)需迭代,因此訓(xùn)練速度較DBN有顯著提高。
ML-KELM由多個(gè)核極限學(xué)習(xí)機(jī)自編碼器(Kernel Extreme Learning Machine Auto-Encoder,KELM-AE)構(gòu)成,KELM-AE 的結(jié)構(gòu)如圖1所示。
文獻(xiàn)[11]中給出了ML-KELM的詳細(xì)推導(dǎo)過(guò)程。類似于式(7)的核函數(shù)映射計(jì)算,KELM-AE的輸入矩陣x(i)通過(guò)核函數(shù)κ(i)(xk,xj)被映射為核矩陣Ω(i),核函數(shù)可以選用RBF核函數(shù)中,σi為核參數(shù)。計(jì)算得到核矩陣后,輸入向量的特征提取可以表示為
式中:g(·)為激活函數(shù),與式(1)中的 h(·)都是激活函數(shù),可從多種激活函數(shù)類型中根據(jù)實(shí)際情況與實(shí)際問題自定義選取,在不同的算法中可以不相同。
在ML-KELM的訓(xùn)練過(guò)程中,輸入數(shù)據(jù)由多層KELM-AE逐層進(jìn)行特征提取,每層的和X(i)都可由式(11)、(12)計(jì)算得到。最終得到的數(shù)據(jù)特征Xfinal作為1個(gè)KELM分類器的輸入來(lái)計(jì)算最終的分類結(jié)果,KELM分類器的模型為
式中:Ωfinal為由Xfinal計(jì)算得到的核矩陣,則βfinal為
簡(jiǎn)約核極限學(xué)習(xí)機(jī)(Reduced Kernel Extreme Learning Machine,RKELM)是在KELM的基礎(chǔ)上,從輸入樣本中隨機(jī)選擇部分樣本作為支持向量進(jìn)行計(jì)算,在保持較高精度的同時(shí)大幅提高了訓(xùn)練速度。
對(duì)給定的N個(gè)訓(xùn)練樣本?={(xi,ti)∈Rd,ti∈,給定支持向量數(shù)目S,則支持向量XS={xi|xi∈為
式中:ΩN×S=K(X,XS),為簡(jiǎn)約的核矩陣。
式(9)在求取核矩陣時(shí),是對(duì)每個(gè)輸入向量都進(jìn)行核函數(shù)計(jì)算,而此處簡(jiǎn)約的核矩陣僅對(duì)S個(gè)支持向量進(jìn)行核函數(shù)計(jì)算,計(jì)算量大大簡(jiǎn)化。β=[β1,β2,…,βS]是輸出權(quán)重矩陣
在ML-KELM的計(jì)算中,每層KELM-AE的特征提取都是對(duì)全部輸入數(shù)據(jù)計(jì)算核矩陣,雖然可以保證高精度,但付出了高耗時(shí)的代價(jià)。對(duì)此,本文提出簡(jiǎn)約的深度核極限學(xué)習(xí)機(jī)(Reduced Deep Kernel Learning Machine,RDK-ELM),每層特征提取由RKELM-AE完成。對(duì)于第i層RKELM-AE,編碼器從輸入數(shù)據(jù)X(i)中隨機(jī)選擇 L(i)個(gè)支持向量,根據(jù)式(16)、(17)計(jì)算變換矩陣,逐層完成特征提取,最后通過(guò)1個(gè)RKELM分類器計(jì)算出分類結(jié)果。RKELM-AE算法的計(jì)算過(guò)程見表1,RDK-ELM算法的計(jì)算過(guò)程見表2。
表1 RKELM-AE算法的計(jì)算過(guò)程
表2 RDK-ELM算法的計(jì)算過(guò)程
相比于ML-KELM算法,RDK-ELM算法中每層RKELM-AE都選擇部分樣本作為支持向量,當(dāng)支持向量為全部樣本時(shí),RDK-ELM算法與ML-KELM算法等效[13]。所以通過(guò)合理選擇各層支持向量的數(shù)量,可以得到訓(xùn)練時(shí)間短、分類精度高的RDK-ELM算法。
為驗(yàn)證本文提出的RDK-ELM算法在速度與精度上的性能,首先將其與基本ELM、KELM、RKELM以及基于深度學(xué)習(xí)結(jié)構(gòu)的ML-KELM算法在4個(gè)典型UCI分類數(shù)據(jù)集上進(jìn)行綜合比較。4個(gè)UCI數(shù)據(jù)集樣本的相關(guān)參數(shù)見表3。
表3 UCI分類數(shù)據(jù)集的數(shù)據(jù)
研究采用的計(jì)算機(jī)配置為:Core i5-8250U,內(nèi)存8G。算法驗(yàn)證的軟件平臺(tái)為:Matlab R2016b。
算法參數(shù)設(shè)置:所有算法的激活函數(shù)均設(shè)置為Sigmoid函數(shù),核函數(shù)均設(shè)置為RBF核函數(shù)。試驗(yàn)驗(yàn)證發(fā)現(xiàn),ML-KELM和RDK-ELM算法均在隱含層為2層時(shí)精度最好,故層數(shù)均設(shè)置為3。正則化因子C和核參數(shù)σ的取值在10-7~107范圍內(nèi)經(jīng)過(guò)試驗(yàn)選取最優(yōu)設(shè)置。具體每種算法的正則化因子、核參數(shù)、支持向量數(shù)的設(shè)置見表4~8。
表4 ELM算法的隱含節(jié)點(diǎn)數(shù)設(shè)置
表5 KELM算法的參數(shù)設(shè)置
表6 RKELM算法的參數(shù)設(shè)置
表7 ML-KELM算法的參數(shù)設(shè)置
表8 RDK-ELM算法的參數(shù)設(shè)置
5種算法在4個(gè)UCI分類數(shù)據(jù)集上的性能結(jié)果見表9~11。由于ELM算法需要隨機(jī)生成權(quán)重與偏差,RKELM和RDK-ELM算法需要隨機(jī)選擇支持向量,其運(yùn)算結(jié)果具有不確定性,因此這3種算法的性能參數(shù)是取100次運(yùn)算的平均值,KELM和ML-KELM則是1次的運(yùn)算結(jié)果。表中,Tr.time為Training time的縮寫,表示訓(xùn)練時(shí)間,s;Ts.rate為Testing rate的縮寫,表示測(cè)試分類正確率。
表9 ELM與KELM的訓(xùn)練時(shí)間與分類正確率
表10 RKELM與ML-KELM的訓(xùn)練時(shí)間與分類正確率
表11 RDK-ELM的訓(xùn)練時(shí)間與分類正確率
從表中可見,ML-KELM算法的分類正確率在全部數(shù)據(jù)集中都是最高的,說(shuō)明基于深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)的KELM算法具有較好的泛化性能和分類能力。本文所提出的RDK-ELM算法的正確率與KELM算法的差距非常小,且樣本數(shù)據(jù)越大,差距越小,可以說(shuō)二者的分類能力幾乎持平。
但從訓(xùn)練速度方面而言,RDK-ELM算法的訓(xùn)練速度明顯比KELM算法的更快。在5種算法中RKELM算法的訓(xùn)練速度最快,但精度不如RDK-ELM算法的;而ML-KELM雖然精度非常高,訓(xùn)練速度卻最慢,對(duì)工程應(yīng)用來(lái)說(shuō)是不可回避的缺陷。
RDK-ELM算法通過(guò)深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu),在RKELM算法的基礎(chǔ)上獲得了更好的泛化性能與分類能力,同時(shí)比KELM和ML-KELM算法具有更快的訓(xùn)練速度。在這4個(gè)UCI分類數(shù)據(jù)集上的試驗(yàn)表明,本文提出的RDK-ELM算法是同時(shí)具有較好的精度與速度的算法,可用于航空發(fā)動(dòng)機(jī)控制系統(tǒng)中的傳感器與執(zhí)行器的故障診斷。
為驗(yàn)證RDK-ELM算法在航空發(fā)動(dòng)機(jī)控制系統(tǒng)故障診斷中的性能,本文以某型渦扇發(fā)動(dòng)機(jī)為研究對(duì)象,采集數(shù)據(jù)樣本進(jìn)行故障診斷仿真試驗(yàn)。
實(shí)際的航空發(fā)動(dòng)機(jī)傳感器與執(zhí)行器的故障數(shù)據(jù)是非常難獲得的。為了進(jìn)行故障診斷的仿真試驗(yàn),采用文獻(xiàn)[16]中的方法,利用某型渦扇發(fā)動(dòng)機(jī)部件級(jí)模型模擬發(fā)動(dòng)機(jī)的故障,通過(guò)自適應(yīng)機(jī)載模型產(chǎn)生EKF殘差,采集故障狀態(tài)下的EKF殘差數(shù)據(jù),作為訓(xùn)練樣本和測(cè)試樣本數(shù)據(jù)集。
本文主要研究發(fā)動(dòng)機(jī)傳感器和執(zhí)行器的故障診斷,但實(shí)際情況中也可能發(fā)生氣路部件的故障,為驗(yàn)證算法區(qū)分控制系統(tǒng)故障與氣路部件故障的能力,選取高壓壓氣機(jī)(High Pressure Compressor,HPC)和高壓渦輪(High Pressure Turbine,HPT)2個(gè)氣路部件的故障進(jìn)行研究。選取的傳感器有:低壓轉(zhuǎn)子轉(zhuǎn)速傳感器(Nl),高壓轉(zhuǎn)子轉(zhuǎn)速傳感器(Nh),高壓壓氣機(jī)出口壓力傳感器(P3);選取的執(zhí)行器為主燃油閥Wf。研究假設(shè)傳感器與執(zhí)行器最多只有2個(gè)同時(shí)發(fā)生故障,則有12種故障模式,6種單故障研究樣本見表12,6種雙故障研究樣本見表13。表中“F”表示該部件發(fā)生故障,“-”表示無(wú)故障。
對(duì)于實(shí)際應(yīng)用于發(fā)動(dòng)機(jī)的故障診斷算法來(lái)說(shuō),發(fā)動(dòng)機(jī)的飛行高度、馬赫數(shù)及其工作狀態(tài)會(huì)影響發(fā)動(dòng)機(jī)感測(cè)信號(hào)的值,是非常重要的影響因素。但研究表明,發(fā)動(dòng)機(jī)的狀態(tài)對(duì)于故障診斷算法的可行性研究影響不大,在額定和最大工作狀態(tài)下,由算法得到的性能結(jié)果相同[16],因此本文僅選擇在發(fā)動(dòng)機(jī)高度H=0,飛行馬赫數(shù)Ma=0,最大工作狀態(tài)下進(jìn)行數(shù)字仿真試驗(yàn)驗(yàn)證算法的可行性。
表12 單故障研究樣本
表13 雙故障研究樣本
發(fā)動(dòng)機(jī)傳感器、執(zhí)行器、氣路部件的故障程度根據(jù)文獻(xiàn) [4]所給定的數(shù)值注入發(fā)動(dòng)機(jī)模型進(jìn)行模擬。Nl、Nh傳感器的故障偏置范圍為-0.5%~-2.5%,P3傳感器的故障偏置范圍為-2%~-10%,Wf執(zhí)行器的故障偏置范圍為-1%~-8%,HPC和HPT的故障偏置范圍為-1%~-5%。故障偏置數(shù)值通過(guò)隨機(jī)數(shù)的方式在上述范圍內(nèi)產(chǎn)生,注入模型仿真來(lái)生成故障EKF殘差數(shù)據(jù)樣本。
為避免類不平衡的問題,對(duì)于表12中1~6的單故障情況,每種情況采集200個(gè)樣本,對(duì)于表13中7~12的雙故障情況,每種情況采集400個(gè)樣本。則共有1200個(gè)單故障樣本,2400個(gè)雙故障樣本,總計(jì)3600個(gè)樣本。選取其中的80%作為訓(xùn)練樣本,其余20%為測(cè)試樣本。即訓(xùn)練樣本數(shù)2880,測(cè)試樣本數(shù)720。
由于9個(gè)EKF殘差數(shù)據(jù)中有轉(zhuǎn)速、壓強(qiáng)、溫度,各參數(shù)單位不一致且數(shù)量級(jí)相差較大,會(huì)影響算法進(jìn)行故障診斷的精度,因此對(duì)EKF殘差數(shù)據(jù)進(jìn)行歸一化處理
為驗(yàn)證RDK-ELM算法在故障診斷中精度與速度的綜合優(yōu)勢(shì),將ELM、KELM、RKELM、ML-KELM和RDK-ELM算法應(yīng)用于發(fā)動(dòng)機(jī)控制系統(tǒng)故障仿真數(shù)據(jù)的診斷分類中進(jìn)行比較分析。
算法參數(shù)設(shè)置:所有算法的激活函數(shù)均設(shè)置為Sigmoid函數(shù),核函數(shù)均設(shè)置為RBF核函數(shù)。ML-KELM和RDK-ELM算法均在隱含層為2層時(shí)精度最好,故層數(shù)均設(shè)置為3。正則化因子C和核參數(shù)σ的取值在10-7×107范圍內(nèi)經(jīng)過(guò)試驗(yàn)選取最優(yōu)設(shè)置。ELM算法的隱含層節(jié)點(diǎn)設(shè)置為200;KELM算法的 σ=10,C=105;RKELM 算 法 σ=1,C=103,L=200;ML-KELM 算法 3 層核參數(shù)選擇為 σ=[10,104,103],正則化因子 C=[102,10-1,10];RDK-ELM 算法 3 層核參 數(shù) 選 擇 為 σ= [102,102,104], 正 則 化 因 子 C=[10,1,104], 支 持 向 量 L=[200,200,300]。 ELM、RKELM、RDK-ELM算法的運(yùn)行結(jié)果是取100次運(yùn)行結(jié)果的平均數(shù),KELM和ML-KELM算法只運(yùn)行1次。結(jié)果見表14。
表14 各算法進(jìn)行故障診斷的性能結(jié)果
從表中可見,ML-KELM算法精度最高,RKELM算法速度最快,RDK-ELM和KELM算法精度基本持平,但RDK-ELM比KELM算法的訓(xùn)練時(shí)間縮短了1/4??梢?,利用深度學(xué)習(xí)結(jié)構(gòu)結(jié)合核方法,可以提高算法的泛化性能與分類能力,在樣本數(shù)量大、類別多的情況下精度更高;應(yīng)用簡(jiǎn)約方法則明顯改善了單純核方法的時(shí)間性能。RDK-ELM算法將2種優(yōu)點(diǎn)結(jié)合起來(lái),得到優(yōu)越的綜合性能。
RDK-ELM算法可以調(diào)整的參數(shù)有網(wǎng)絡(luò)深度(隱含層層數(shù))、每層核參數(shù)和正則化因子、每層支持向量數(shù)目。
(1)網(wǎng)絡(luò)深度。雖然深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)是通過(guò)逐層對(duì)輸入數(shù)據(jù)提取特征來(lái)獲得更高精度的,但本文對(duì)UCI分類數(shù)據(jù)集及發(fā)動(dòng)機(jī)故障數(shù)據(jù)的試驗(yàn)表明,并不是層數(shù)越多精度越高,精度在隱含層層數(shù)為2時(shí)的精度最高,層數(shù)再高精度反而降低。此外,網(wǎng)絡(luò)深度直接影響訓(xùn)練時(shí)長(zhǎng)。因此將隱含層層數(shù)設(shè)置為2層具有最穩(wěn)定的精度和可接受的速度。
(2)核參數(shù)和正則化因子。核參數(shù)σ和正則化因子C是在10-7~107范圍內(nèi)按10的倍數(shù)選取的,這2個(gè)參數(shù)對(duì)算法的精度有非常大的影響[11]。目前對(duì)機(jī)器學(xué)習(xí)算法的參數(shù)中,這2個(gè)參數(shù)的選取通常根據(jù)經(jīng)驗(yàn)選擇。通過(guò)試驗(yàn)調(diào)參,可以得到令人滿意的精度。
(3)支持向量的數(shù)量。RDK-ELM算法選取的支持向量越多,精度越高,訓(xùn)練時(shí)間也越長(zhǎng)。當(dāng)支持向量為全部樣本時(shí),RDK-ELM與ML-KELM算法等效[13]。而在試驗(yàn)中,支持向量達(dá)到一定數(shù)目時(shí),精度的提高就不明顯了,而同時(shí)速度則明顯降低。為了獲得精度和速度的綜合優(yōu)勢(shì),支持向量的數(shù)目需要選取1個(gè)合適數(shù)值。在目前基于支持向量的算法的研究中,對(duì)支持向量數(shù)目的選取均沒有理論上的方法,一般根據(jù)經(jīng)驗(yàn)和試驗(yàn)選取。本文的算法是先取輸入向量樣本數(shù)目的1/10,然后以此為基準(zhǔn)增加或減少支持向量的數(shù)目,以達(dá)到訓(xùn)練速度和訓(xùn)練精度的綜合最優(yōu)為止。
(1)將RKELM算法與深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)各自的優(yōu)點(diǎn)結(jié)合,提出RDK-ELM算法。
(2)對(duì)UCI分類數(shù)據(jù)集和發(fā)動(dòng)機(jī)故障仿真數(shù)據(jù)進(jìn)行試驗(yàn),驗(yàn)證了RDK-ELM算法在精度與速度上的綜合優(yōu)勢(shì)。
(3)RDK-ELM算法可調(diào)參數(shù)較多,需要針對(duì)具體情形進(jìn)行參數(shù)調(diào)整,通過(guò)試驗(yàn)驗(yàn)證以獲得最佳性能。