魏鳳鳳,陳偉能+
1.華南理工大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院,廣州510006
2.華南理工大學(xué) 大數(shù)據(jù)與智能機(jī)器人教育部重點(diǎn)實(shí)驗(yàn)室,廣州510006
演化算法(evolutionary algorithms,EAs)是求解復(fù)雜優(yōu)化問題的常用方法,在求解傳統(tǒng)約束優(yōu)化問題中有很好的效果[1-3]。然而在很多工程問題中,目標(biāo)和約束的計(jì)算沒有明確的公式表達(dá),需要仿真軟件模擬,甚至真實(shí)實(shí)驗(yàn)才能獲得結(jié)果,這樣一次復(fù)雜目標(biāo)和約束值的計(jì)算過程需要花費(fèi)幾個(gè)小時(shí)甚至幾天,例如,一次20~50 維的毫米集成電路的仿真需要花費(fèi)20~30 min[4],這類問題被稱為昂貴優(yōu)化問題。
傳統(tǒng)EAs 往往需要進(jìn)行上萬(wàn)甚至幾十萬(wàn)次適應(yīng)值評(píng)估才能得到滿意解,在求解昂貴優(yōu)化問題中的時(shí)間代價(jià)是難以接受的。因此學(xué)者們提出基于代理模型輔助的演化方法(surrogate-assisted evolutionary algorithms,SAEAs)[5-6],使用較少的歷史數(shù)據(jù)建立模型,用模型預(yù)測(cè)結(jié)果替代演化過程中真實(shí)適應(yīng)值評(píng)估,從而降低時(shí)間成本,獲得滿意的優(yōu)化結(jié)果。
當(dāng)前SAEAs在求解昂貴無(wú)約束優(yōu)化問題中已有較好發(fā)展[7-10],但在處理昂貴約束優(yōu)化問題方面仍有待研究。Sasena 等人比較了在高斯過程回歸模型的輔助下,現(xiàn)有的不同樣本選擇準(zhǔn)則的性能差異[11];Yannou 等人利用表面響應(yīng)模型來擬合約束,并在約束編程環(huán)境中調(diào)研模型保真度和由此產(chǎn)生的約束可處理性之間的關(guān)系[12];Singh 等人將代理模型嵌入到模擬退火算法來求解多目標(biāo)昂貴約束優(yōu)化問題[13];Regis等人提出一種解決昂貴約束優(yōu)化問題的徑向基函數(shù)輔助進(jìn)化編程算法[14];Singh 等人提出一種利用不可行解進(jìn)行驅(qū)動(dòng)的進(jìn)化算法來求解軟約束和硬約束混合的優(yōu)化問題[15]。上述工作是將代理模型應(yīng)用到昂貴約束優(yōu)化問題中的早期嘗試,通過對(duì)昂貴約束進(jìn)行建模,減少算法的昂貴評(píng)估,使算法在可接受時(shí)間內(nèi)完成對(duì)問題的優(yōu)化。
雖然模型的使用提高了算法運(yùn)行效率,但模型擬合的不準(zhǔn)確性也降低了算法性能。為了提高SAEAs 在昂貴約束優(yōu)化問題的求解質(zhì)量,一些學(xué)者對(duì)模型管理策略進(jìn)行研究,他們通過利用模型進(jìn)行樣本選擇[16-18]、設(shè)計(jì)排序和修正策略[19-20]提高模型預(yù)測(cè)結(jié)果的可靠性及加入局部選擇和局部搜索[21-22]等策略來提高代理模型對(duì)約束的處理能力。上述工作聚焦于將多目標(biāo)處理技術(shù)與代理模型有機(jī)結(jié)合,展現(xiàn)了SAEAs求解昂貴約束優(yōu)化問題的巨大潛力。
然而,上述工作對(duì)所挑選的候選解都要進(jìn)行所有約束的昂貴評(píng)估,導(dǎo)致耗費(fèi)大量不必要的計(jì)算代價(jià)。在一些問題中,最優(yōu)解往往被某個(gè)或某幾個(gè)約束的可行域限制,其他約束可行域非常大。在這種情況下,對(duì)每個(gè)挑選的候選解都真實(shí)評(píng)估可行域非常大的約束是不必要的;尤其當(dāng)可行域大的約束數(shù)量較多的時(shí)候,對(duì)這些約束進(jìn)行真實(shí)評(píng)估是浪費(fèi)計(jì)算時(shí)間和有限評(píng)估次數(shù)的。因此,如何進(jìn)行評(píng)估資源與昂貴約束的分配是影響算法性能的關(guān)鍵,直接關(guān)系到算法設(shè)計(jì)中兩個(gè)亟需解決的難點(diǎn):
(1)個(gè)體的選擇。如何根據(jù)模型預(yù)測(cè)結(jié)果選擇對(duì)優(yōu)化有幫助的個(gè)體進(jìn)行昂貴評(píng)估,引導(dǎo)種群向優(yōu)質(zhì)區(qū)域演化。
(2)約束的選擇。如何選擇可行域信息較少的約束進(jìn)行更多的評(píng)估和信息補(bǔ)充,加快算法對(duì)可行域的探索。
為解決評(píng)估資源與昂貴約束的分配問題,本文提出一種自適應(yīng)約束評(píng)估策略,并從兩個(gè)思路出發(fā),設(shè)計(jì)了兩種自適應(yīng)約束評(píng)估的高斯過程回歸模型輔助差分進(jìn)化算法,在少量昂貴評(píng)估下完成對(duì)問題的優(yōu)化,驗(yàn)證自適應(yīng)約束評(píng)估策略的有效性和通用性。文章的主要貢獻(xiàn)點(diǎn)如下:
(1)提出一種自適應(yīng)約束評(píng)估策略,自適應(yīng)地根據(jù)種群信息進(jìn)行個(gè)體選擇、約束選擇和昂貴評(píng)估。在演化過程中,并非對(duì)挑選候選解的所有約束進(jìn)行昂貴評(píng)估,而是評(píng)估當(dāng)前種群中可行域信息較少的約束,節(jié)省的評(píng)估次數(shù)可以用來進(jìn)一步演化。因此,不同的候選解消耗的真實(shí)評(píng)估次數(shù)不同,并且隨著種群的演化而自適應(yīng)動(dòng)態(tài)變化。
(2)從代理模型輔助無(wú)約束演化方法思路出發(fā),通過加入自適應(yīng)約束評(píng)估策略和約束處理技術(shù),設(shè)計(jì)一種自適應(yīng)約束評(píng)估的約束優(yōu)化高斯過程回歸模型輔助的演化算法。
(3)從無(wú)代理模型輔助的傳統(tǒng)約束優(yōu)化演化算法思路出發(fā),通過加入自適應(yīng)約束評(píng)估策略和代理模型技術(shù),設(shè)計(jì)一種自適應(yīng)約束評(píng)估的代理模型輔助的復(fù)合約束差分進(jìn)化算法。
在實(shí)驗(yàn)方面,本文以約束優(yōu)化問題標(biāo)準(zhǔn)測(cè)試集CEC2006 和四個(gè)工業(yè)應(yīng)用為測(cè)試實(shí)例,驗(yàn)證自適應(yīng)約束評(píng)估策略及兩種自適應(yīng)約束評(píng)估SAEAs的有效性,展示其在工業(yè)中良好的發(fā)展前景;在理論方面,本文從性能提升和效率提升兩方面進(jìn)行分析,并對(duì)兩種自適應(yīng)約束評(píng)估SAEAs進(jìn)行對(duì)比分析。
約束優(yōu)化SAEAs主要由模型管理、演化算法、約束處理三部分組成,本章對(duì)昂貴約束優(yōu)化問題和三個(gè)算法部分使用的方法作簡(jiǎn)要介紹。
通常情況下,一個(gè)單目標(biāo)最小化約束優(yōu)化問題可以由下式表達(dá):
其中,x是一個(gè)D維變量,ld和ud分別是每一維的取值上下界;f(x)是目標(biāo)函數(shù),y是需要優(yōu)化的目標(biāo)值;G(x)是需要滿足的約束違反程度,由一個(gè)或多個(gè)不等約束和等式約束組成,其計(jì)算方法如下:
其中,g(x)是需要滿足的q個(gè)不等約束,h(x)是需要滿足的m-q個(gè)等式約束。一般情況下,g(x)≤0 表示x對(duì)于不等約束條件的滿足;h(x)=0 表示x對(duì)于等式約束條件的滿足。對(duì)于變量x,當(dāng)且僅當(dāng)滿足所有約束時(shí),該變量稱為可行解,此時(shí),約束違反程度G(x)≤0;若變量x違反至少一個(gè)約束,則該變量稱為不可行解,此時(shí),約束違反程度G(x)>0。
在一些現(xiàn)實(shí)問題中,f(x)和G(x)需要通過仿真軟件模擬甚至真實(shí)實(shí)驗(yàn)獲得,計(jì)算代價(jià)是非常昂貴的。在這種情況下,用傳統(tǒng)EAs通過大量真實(shí)評(píng)估尋優(yōu)所花費(fèi)的時(shí)間代價(jià)非常大。為解決這個(gè)問題,代理模型被結(jié)合到演化過程中降低真實(shí)評(píng)估次數(shù)。由于模型的訓(xùn)練和預(yù)測(cè)時(shí)長(zhǎng)與真實(shí)評(píng)估相比可以忽略不計(jì),這種方法能夠在可接受時(shí)間內(nèi)獲得優(yōu)化解,在解決昂貴優(yōu)化問題中有廣泛應(yīng)用。
在SAEAs 演化過程中,后代質(zhì)量的評(píng)估絕大部分依賴于模型?,F(xiàn)有的SAEAs 大部分使用回歸模型,高斯過程回歸模型備受關(guān)注[6,23-25]。
高斯過程回歸模型是一種廣泛使用的監(jiān)督學(xué)習(xí)模型[26],它將多元高斯分布拓展到高維。假設(shè)一個(gè)含有n個(gè)樣本的D維數(shù)據(jù)集Y={f(x1),f(x2),…,f(xn)},每個(gè)點(diǎn)都滿足高斯分布N(μ,σ2),其中μ是期望,σ是標(biāo)準(zhǔn)差。不失一般性,假設(shè)μ=0。對(duì)數(shù)據(jù)集中的任意兩點(diǎn)x1和x2,它們之間的相關(guān)性僅依賴于x1-x2,即:
其中,參數(shù)pd∈[1,2],控制每一維變量與f(x)的平滑度;θd>0 控制每一維變量的權(quán)重;更多細(xì)節(jié)可以參照Rasmussen的文章[27]。
在求解最小化優(yōu)化問題中,高斯過程回歸的結(jié)果一般取置信下界。假設(shè)預(yù)測(cè)結(jié)果滿足分布N(f′(x),s(x)2),則該分布置信下界為:
其中,ω是一個(gè)常量,通常設(shè)置為2[28]。
由于高斯過程回歸模型的有效性,本文采取該模型作為輔助,分別對(duì)目標(biāo)和每一個(gè)約束訓(xùn)練一個(gè)高斯過程回歸模型;對(duì)于產(chǎn)生的候選解進(jìn)行質(zhì)量預(yù)測(cè),根據(jù)自適應(yīng)約束評(píng)估策略進(jìn)行真實(shí)評(píng)估,并更新模型,以提高模型的訓(xùn)練質(zhì)量,更好地引導(dǎo)種群進(jìn)化。
演化算子是算法的核心部分,直接影響算法的探索和開發(fā)能力。本文采用一類基于群體的啟發(fā)式算法——差分進(jìn)化算法[29-30]。
差分進(jìn)化算法框架如圖1所示,包括變異、交叉、選擇。首先,算法開始前初始化參數(shù)及種群;然后,種群中每個(gè)個(gè)體通過變異操作產(chǎn)生變異個(gè)體;變異個(gè)體通過交叉操作產(chǎn)生試驗(yàn)個(gè)體;最后,試驗(yàn)個(gè)體作為后代與父代比較并選擇較好個(gè)體進(jìn)入下一代。
圖1 差分進(jìn)化算法框架Fig. 1 Framework of differential evolution algorithm
根據(jù)變異操作的不同,差分進(jìn)化算法可分為不同的版本,本文涉及的進(jìn)化算子有:
(1)DE/best/1
在交叉操作中,本文用到的是二項(xiàng)交叉來產(chǎn)生試驗(yàn)個(gè)體,過程如下:
差分進(jìn)化算法在解決傳統(tǒng)約束優(yōu)化問題中應(yīng)用非常廣泛,且求解效率和質(zhì)量非常高[31-33],本文使用該算法作為演化算子對(duì)搜索空間進(jìn)行開發(fā)和探索。
約束處理技術(shù)大致可以分為四類:基于懲罰函數(shù)的方法、基于支配準(zhǔn)則的方法、基于多目標(biāo)優(yōu)化的方法和混合方法。下面介紹本文用到的基于懲罰函數(shù)的方法和基于支配準(zhǔn)則的方法。
1.4.1 基于懲罰函數(shù)的方法
基于懲罰函數(shù)的方法是指將約束違反程度轉(zhuǎn)換為懲罰因子加到目標(biāo)值上,將約束優(yōu)化問題轉(zhuǎn)化為無(wú)約束優(yōu)化問題。本文參照一種多目標(biāo)約束優(yōu)化問題中的基于懲罰函數(shù)的約束處理技術(shù)[34],首先將目標(biāo)值和約束值進(jìn)行如下歸一化處理:
rf是當(dāng)前種群的可行解比例。懲罰項(xiàng)目標(biāo)值F(x)為:
根據(jù)上述計(jì)算公式可得,懲罰目標(biāo)值F(x)能夠根據(jù)種群中可行解比例調(diào)整對(duì)目標(biāo)和約束的側(cè)重。當(dāng)種群中可行解個(gè)數(shù)較少時(shí),懲罰目標(biāo)值中約束所占比重較大,有利于種群繼續(xù)搜索可行域;當(dāng)種群中可行解個(gè)數(shù)為0 時(shí),懲罰目標(biāo)值即個(gè)體約束值,種群只進(jìn)行可行域的搜索。當(dāng)種群中可行解個(gè)數(shù)較多時(shí),懲罰目標(biāo)值中目標(biāo)所占比重較大,有利于種群開發(fā)可行域;當(dāng)種群中所有個(gè)體均為可行解時(shí),懲罰目標(biāo)值即個(gè)體目標(biāo)值,種群只進(jìn)行目標(biāo)的優(yōu)化。由于該方法能夠調(diào)整對(duì)目標(biāo)和約束的演化側(cè)重,并且在求解約束問題中有較好的性能表現(xiàn)[34],本文選擇該方法作為一種約束處理技術(shù)。
1.4.2 基于支配準(zhǔn)則的方法
基于支配準(zhǔn)則的約束處理方法主要有可行解支配準(zhǔn)則和ε約束支配準(zhǔn)則??尚薪庵錅?zhǔn)則內(nèi)容為:(1)可行解優(yōu)于不可行解;(2)同為不可行解,約束違反程度小的個(gè)體優(yōu)于約束違反程度大的個(gè)體;(3)同為可行解,目標(biāo)值好的個(gè)體優(yōu)于目標(biāo)值劣的個(gè)體。由此可見,可行解支配準(zhǔn)則傾向于保留可行解,不能有效利用目標(biāo)值有重要意義的不可行解,不利于處理某些最優(yōu)解在可行域邊緣的問題。ε約束支配準(zhǔn)則對(duì)其改進(jìn),根據(jù)種群進(jìn)化情況可以自適應(yīng)地調(diào)整對(duì)不可行解的保留程度:對(duì)于兩個(gè)不同的個(gè)體,滿足下列關(guān)系之一時(shí),x1優(yōu)于x2:
其中,ε0是初始種群的最大約束違反程度,T是最大進(jìn)化代數(shù),t是當(dāng)前進(jìn)化代數(shù),λ是常數(shù),設(shè)置為6;p是控制目標(biāo)值開發(fā)的參數(shù),設(shè)置為0.5。由于考慮了可行域周圍的不可行解,ε約束支配準(zhǔn)則能夠有效利用目標(biāo)值較好的不可行解幫助對(duì)可行域的探索。
可行解支配準(zhǔn)則能夠綜合目標(biāo)值和約束值對(duì)個(gè)體進(jìn)行最直接的優(yōu)劣排序,是求解約束優(yōu)化問題中最常用的方法之一[3,21,32-33],因此本文選擇該方法作為一種約束處理技術(shù)。
在設(shè)計(jì)約束優(yōu)化SAEAs 時(shí),核心問題是個(gè)體選擇和約束處理,本文提出一種新的自適應(yīng)約束評(píng)估策略,其具體實(shí)現(xiàn)過程如算法1所示。
算法1自適應(yīng)約束評(píng)估策略偽代碼
在自適應(yīng)約束評(píng)估策略中,除維護(hù)一個(gè)全部真實(shí)評(píng)估個(gè)體數(shù)據(jù)集DBf之外,還需維護(hù)一個(gè)部分真實(shí)評(píng)估個(gè)體數(shù)據(jù)集DBp,用來保存部分約束完成真實(shí)評(píng)估、部分約束只有預(yù)測(cè)值的個(gè)體。相對(duì)應(yīng)地,該策略主要包括兩部分,部分評(píng)估個(gè)體選擇和全部評(píng)估個(gè)體選擇。自適應(yīng)約束評(píng)估策略的步驟如下:
首先,判斷當(dāng)前代數(shù)需進(jìn)行哪一種選擇。若當(dāng)前代數(shù)需進(jìn)行部分評(píng)估個(gè)體選擇,在產(chǎn)生的后代中選擇被預(yù)測(cè)為支配最優(yōu)的個(gè)體,并初始化需進(jìn)行真實(shí)評(píng)估的約束集合J為空。針對(duì)每一個(gè)約束j,按照式(21)計(jì)算當(dāng)前種群在該約束可行域比例r,其中,Nfea是種群在該約束可行域內(nèi)的個(gè)體數(shù)量,NP是種群大小。
同時(shí),設(shè)置需進(jìn)行真實(shí)評(píng)估的約束可行比例閾值thr=0.5。若r<thr,則將該約束的索引加入到需真實(shí)評(píng)估的約束索引集合J中;否則不需加入。對(duì)所有約束判斷完之后,將所選個(gè)體xsel按索引集合J進(jìn)行真實(shí)評(píng)估,未進(jìn)行真實(shí)評(píng)估的約束保留預(yù)測(cè)值。由此,該個(gè)體便成為了部分評(píng)估個(gè)體,被加入到部分評(píng)估個(gè)體數(shù)據(jù)集DBp,更新已消耗的真實(shí)評(píng)估次數(shù)fes。
若當(dāng)前代數(shù)需進(jìn)行全部評(píng)估個(gè)體選擇,則從DBp中根據(jù)1.4.1小節(jié)的懲罰函數(shù)方法挑選最優(yōu)的部分評(píng)估個(gè)體,標(biāo)記該個(gè)體未被真實(shí)評(píng)估的約束,對(duì)這些約束及目標(biāo)進(jìn)行真實(shí)評(píng)估。由此,該個(gè)體便成為全部評(píng)估個(gè)體,從DBp中刪除并加入到全部評(píng)估個(gè)體數(shù)據(jù)集DBf,更新消耗的真實(shí)評(píng)估次數(shù)fes。
在自適應(yīng)約束評(píng)估策略中,需進(jìn)行信息補(bǔ)全的代數(shù)Gap是一個(gè)重要的參數(shù),它決定著算法進(jìn)行種群和代理模型更新的頻率。Gap值越大,算法要消耗越多的真實(shí)評(píng)估次數(shù)來進(jìn)行部分約束評(píng)估,導(dǎo)致種群和代理模型更新緩慢,有效演化大大減少;極端情況下,當(dāng)Gap值大到種群完全沒有信息補(bǔ)全,則算法終止后沒有任何全部評(píng)估的新個(gè)體產(chǎn)生,無(wú)法得知DBp中是否有更好的解,這種無(wú)效優(yōu)化是不可取的。Gap值越小,種群和代理模型更新越快,導(dǎo)致算法在可行域信息較多的約束上頻繁消耗昂貴評(píng)估,不能在可行域信息較少的約束上節(jié)省真實(shí)評(píng)估次數(shù)而使種群進(jìn)行更多代演化;特別地,當(dāng)Gap值為1 時(shí),與大多數(shù)約束優(yōu)化SAEAs 一致,算法對(duì)每個(gè)被選擇的個(gè)體進(jìn)行所有約束和目標(biāo)值的真實(shí)評(píng)估。因此,Gap值的設(shè)置對(duì)算法的演化影響較大,如何對(duì)該變量進(jìn)行合適設(shè)置有待于進(jìn)一步研究。在本文中,由于真實(shí)評(píng)估次數(shù)較少,且測(cè)試問題的約束數(shù)量不同,根據(jù)實(shí)驗(yàn)性能設(shè)置Gap=10。
自適應(yīng)約束評(píng)估策略的自適應(yīng)特性主要體現(xiàn)在對(duì)約束選擇方面。與其他約束處理不同,自適應(yīng)約束評(píng)估策略旨在對(duì)不同約束進(jìn)行區(qū)別對(duì)待,僅對(duì)可行域信息較少的約束進(jìn)行真實(shí)評(píng)估,即計(jì)算當(dāng)前種群在每個(gè)約束的可行域比例,當(dāng)且僅當(dāng)該比例小于閾值thr時(shí),選擇該約束進(jìn)行昂貴評(píng)估。thr是一個(gè)重要的參數(shù),根據(jù)4.3節(jié)參數(shù)調(diào)研結(jié)果設(shè)置;同時(shí),參數(shù)調(diào)研實(shí)驗(yàn)顯示,在演化前期,不能達(dá)到閾值thr的約束較多,這些約束均被選擇進(jìn)行昂貴評(píng)估;隨著演化的進(jìn)行,種群逐漸掌握更多可行域信息,達(dá)到閾值thr的約束較多,被選擇進(jìn)行昂貴評(píng)估的約束變少;當(dāng)種群完全在可行域內(nèi)時(shí),在每個(gè)約束的可行域比例均為1,不需要選擇約束進(jìn)行昂貴評(píng)估。因此,在整個(gè)演化過程中,被選擇進(jìn)行昂貴評(píng)估的約束是一個(gè)自適應(yīng)變化的過程。
另外,為了掌握所選解的全部約束及目標(biāo)信息,提高種群掌握信息的準(zhǔn)確性和更新訓(xùn)練代理模型,每隔Gap代進(jìn)行全部評(píng)估個(gè)體選擇,從部分真實(shí)評(píng)估個(gè)體數(shù)據(jù)集DBp中選擇個(gè)體進(jìn)行信息補(bǔ)全,即真實(shí)評(píng)估仍保留的預(yù)測(cè)值信息;該選擇基于1.4.1 小節(jié)所描述的基于懲罰函數(shù)的方法,目的是使算法根據(jù)當(dāng)前種群的可行域信息調(diào)整對(duì)目標(biāo)和約束的演化側(cè)重。
本文提出了一種自適應(yīng)約束評(píng)估策略,并從兩個(gè)思路出發(fā)設(shè)計(jì)了兩種基于自適應(yīng)約束評(píng)估策略的約束優(yōu)化SAEAs。
思路1從無(wú)約束SAEAs 出發(fā),通過加入約束處理技術(shù)和自適應(yīng)約束評(píng)估策略,設(shè)計(jì)一種基于自適應(yīng)約束評(píng)估策略的約束優(yōu)化算法,詳見3.2節(jié)。
思路2從約束優(yōu)化EAs 出發(fā),通過加入高斯過程回歸模型輔助和自適應(yīng)約束評(píng)估策略,設(shè)計(jì)一種基于自適應(yīng)評(píng)估策略的代理模型輔助約束優(yōu)化算法,詳見3.3節(jié)。
這兩種基于自適應(yīng)約束評(píng)估策略的約束優(yōu)化SAEAs 流程框架如圖2 所示。首先用拉丁超立方采樣(Latin hypercube sampling,LHS)初始化樣本作為已知數(shù)據(jù)并加入數(shù)據(jù)庫(kù)DBf中;在算法終止前,從DBf中按照可行解支配準(zhǔn)則選取最優(yōu)的NP個(gè)個(gè)體組成種群,通過演化算子產(chǎn)生后代;用DBf中最優(yōu)的NT個(gè)數(shù)據(jù)訓(xùn)練目標(biāo)和約束模型,并對(duì)后代進(jìn)行預(yù)測(cè);按照自適應(yīng)約束評(píng)估策略進(jìn)行個(gè)體選擇、約束選擇和昂貴評(píng)估,并將個(gè)體加入到相對(duì)應(yīng)的數(shù)據(jù)庫(kù)中;算法終止時(shí),輸出DBf中最優(yōu)結(jié)果。兩種算法的具體內(nèi)容如下。
圖2 自適應(yīng)約束評(píng)估的約束優(yōu)化SAEAs框架Fig. 2 Framework of adaptive constraint evaluation aided SAEAs for expensive constrained optimization
本節(jié)從基于代理模型輔助的單目標(biāo)優(yōu)化方法(Gaussian process surrogate model assisted evolutionary algorithm,GPEME)[7]出發(fā),通過加入約束處理技術(shù)和自適應(yīng)約束評(píng)估策略,設(shè)計(jì)一種自適應(yīng)約束評(píng)估策略的約束優(yōu)化GPEME(D-GPEME-CH),具體過程如下:
(1)用LHS 從搜索空間中隨機(jī)采樣NT個(gè)樣本,進(jìn)行真實(shí)評(píng)估后加入數(shù)據(jù)庫(kù)DBf中。
(2)判斷是否達(dá)到終止條件,若達(dá)到終止條件,則停止算法并輸出數(shù)據(jù)庫(kù)DBf中最優(yōu)解;否則跳到第(3)步執(zhí)行。
(3)選擇DBf中支配最優(yōu)的NP個(gè)個(gè)體組成種群。
(4)對(duì)種群應(yīng)用DE/best/1算子產(chǎn)生后代。
(5)選擇數(shù)據(jù)庫(kù)中支配最優(yōu)的NT個(gè)個(gè)體組成訓(xùn)練集,對(duì)目標(biāo)和每個(gè)約束各訓(xùn)練一個(gè)高斯過程回歸模型。
(6)用訓(xùn)練好的模型對(duì)種群產(chǎn)生的后代進(jìn)行目標(biāo)和約束值預(yù)測(cè),并執(zhí)行自適應(yīng)約束評(píng)估策略,更新對(duì)應(yīng)數(shù)據(jù)庫(kù)。
在D-GPEME-CH 中,DE/best/1 是全局搜索能力很強(qiáng)的差分進(jìn)化算法,能夠有效開發(fā)已知最優(yōu)區(qū)域;自適應(yīng)約束評(píng)估策略能夠使算法在可行域較大的約束上節(jié)省昂貴評(píng)估,在可行域較小的約束進(jìn)行更多的信息探索,加強(qiáng)對(duì)可行域的探索。在高斯過程回歸模型的輔助下,該算法能夠有效求解昂貴單目標(biāo)約束優(yōu)化問題。
本節(jié)從傳統(tǒng)單目標(biāo)復(fù)合差分進(jìn)化約束優(yōu)化算法(composite differential evolution for constrained optimization,C2oDE)[33]出發(fā),通過加入代理模型輔助技術(shù)和自適應(yīng)約束評(píng)估策略,設(shè)計(jì)一種自適應(yīng)約束評(píng)估策略的代理模型輔助C2oDE(surrogate-assisted C2oDE with adaptive constraint evaluation,D-SA-C2oDE),具體過程如下:
(1)使用LHS 從搜索空間中隨機(jī)采樣NT個(gè)點(diǎn),進(jìn)行真實(shí)評(píng)估后加入數(shù)據(jù)庫(kù)DBf中。
(2)判斷是否達(dá)到終止條件,若達(dá)到終止條件,則停止算法并輸出數(shù)據(jù)庫(kù)中最優(yōu)解;否則跳到第(3)步執(zhí)行。
(3)選擇DBf中支配最優(yōu)的NP個(gè)個(gè)體組成種群。
(4)對(duì)種群使用復(fù)合差分進(jìn)化算子C2oDE 產(chǎn)生后代,即每個(gè)個(gè)體使用DE/current-to-rand/1、DE/randto-best/1和DE/current-to-best/1三種差分算子進(jìn)行演化,擁有三個(gè)子代個(gè)體。
(5)選擇數(shù)據(jù)庫(kù)中支配最優(yōu)的NT個(gè)個(gè)體組成訓(xùn)練集,對(duì)目標(biāo)和每個(gè)約束各訓(xùn)練一個(gè)高斯過程回歸模型。
(6)對(duì)于每個(gè)個(gè)體產(chǎn)生的三個(gè)子代個(gè)體,基于高斯過程回歸模型的預(yù)測(cè)目標(biāo)值和約束值,根據(jù)可行解支配準(zhǔn)則進(jìn)行預(yù)篩選,保留最好的個(gè)體作為后代。
(7)在預(yù)篩選的后代中,執(zhí)行自適應(yīng)約束評(píng)估策略并更新對(duì)應(yīng)數(shù)據(jù)庫(kù)。
在D-SA-C2oDE中,復(fù)合差分進(jìn)化算子DE/currentto-rand/1 能夠提高種群多樣性;DE/rand-to-best/1 和DE/current-to-best/1能夠提高種群的收斂速度??尚薪庵錅?zhǔn)則在對(duì)后代進(jìn)行預(yù)篩選時(shí),能夠取優(yōu)去劣;ε約束支配準(zhǔn)則在對(duì)后代進(jìn)行選擇時(shí),能夠隨著進(jìn)化程度自適應(yīng)調(diào)整是否保留可行域邊緣的不可行解。因此,該算法在自適應(yīng)約束評(píng)估策略和高斯過程回歸模型的輔助下能夠在可接受時(shí)間內(nèi)對(duì)昂貴約束優(yōu)化問題進(jìn)行有效求解。
本章首先對(duì)測(cè)試問題進(jìn)行介紹,說明兩種算法參數(shù)設(shè)置情況;然后通過實(shí)驗(yàn)展示自適應(yīng)約束評(píng)估策略的有效性,并在CEC2006 測(cè)試集和四個(gè)工業(yè)優(yōu)化問題中進(jìn)行對(duì)比實(shí)驗(yàn)并分析結(jié)果,展示本文設(shè)計(jì)的兩種算法性能;最后從理論方面對(duì)性能提升和效率提升進(jìn)行分析,并對(duì)本文從兩個(gè)思路設(shè)計(jì)的自適應(yīng)約束評(píng)估SAEAs進(jìn)行對(duì)比分析。
CEC2006 是一個(gè)單目標(biāo)約束優(yōu)化問題標(biāo)準(zhǔn)測(cè)試集,包含24個(gè)問題,每個(gè)問題的維度及約束個(gè)數(shù)都不相同,具有大部分工業(yè)約束優(yōu)化問題的特征[35],如表1所示。其中,ρ是可行域占整個(gè)搜索空間的比例,0.000 0%表示該問題的可行域相對(duì)于整個(gè)搜索空間的比例小于0.000 1%;LI是線性不等約束個(gè)數(shù),NI是非線性不等約束個(gè)數(shù);LE是線性等式約束個(gè)數(shù),NE是非線性等式約束個(gè)數(shù);a指在可行域最優(yōu)解附近比較活躍的約束個(gè)數(shù),該值越大,表示待優(yōu)化問題的最優(yōu)值受約束的影響越大。
表1 CEC2006測(cè)試問題Table 1 CEC2006 benchmark functions
本文測(cè)試的工業(yè)優(yōu)化問題包括4個(gè):碟形彈簧設(shè)計(jì)優(yōu)化(belleville spring design,BS)、散貨船設(shè)計(jì)優(yōu)化(bulk carrier design,BCD)、轎車側(cè)面碰撞優(yōu)化(car side impact design,CSI)和螺旋彈簧設(shè)計(jì)優(yōu)化(helical spring design,HS)。BS是一個(gè)帶有7個(gè)不等約束的4維優(yōu)化問題,BCD是一個(gè)帶有9個(gè)不等約束的6維優(yōu)化問題,CSI是一個(gè)帶有10個(gè)不等約束的11維優(yōu)化問題,HS是一個(gè)帶有9個(gè)不等約束的3維優(yōu)化問題,詳細(xì)問題介紹可以在文獻(xiàn)[36]中找到。目前,這4個(gè)問題都沒有已知最優(yōu)可行解。
算法開始前初始化樣本量為300;高斯過程回歸模型訓(xùn)練集大小NT=300,種群大小NP=50。經(jīng)參數(shù)調(diào)研,需進(jìn)行真實(shí)評(píng)估的約束可行比例閾值thr=0.5。在D-GPEME-CH中,DE/best/1演化算子的變異概率F=0.8,交叉概率CR=0.8 。在D-SA-C2oDE 中,差分進(jìn)化算子的變異概率F和交叉概率CR通過參數(shù)調(diào)研設(shè)置為F=0.6,CR=0.7。需注意的是,對(duì)目標(biāo)或約束的單獨(dú)評(píng)估即為消耗一次評(píng)估次數(shù)。由于對(duì)比算法C2oDE 的原文設(shè)置種群大小為50,且每一代對(duì)產(chǎn)生的50×3個(gè)后代進(jìn)行真實(shí)評(píng)估[33],若按無(wú)約束優(yōu)化SAEAs[7-8]中常設(shè)置的最大評(píng)估次數(shù)maxFES=1 000,則在該算法中,種群進(jìn)化代數(shù)為1 000/(50×3×(NC+1)),約為7/(NC+1),其中NC為該測(cè)試問題的約束個(gè)數(shù)。然而,由表1中測(cè)試問題的約束個(gè)數(shù)可得,在該設(shè)置下,大多數(shù)問題僅能演化非常少的代數(shù),有的問題甚至無(wú)法完成一代演化,使算法無(wú)法對(duì)問題進(jìn)行有效求解。因此,本文設(shè)置maxFES=1 000×(NC+1),即最大評(píng)估次數(shù)由問題的約束個(gè)數(shù)決定,不同問題的終止條件不同。這個(gè)設(shè)置是合理的,約束多的問題,可行域較復(fù)雜,優(yōu)化過程相對(duì)困難,因此最大評(píng)估次數(shù)較多;相反,約束少的問題,可行域較簡(jiǎn)單,優(yōu)化過程相對(duì)容易,因此最大評(píng)估次數(shù)較少。為保證實(shí)驗(yàn)公平性,所有結(jié)果均取自25次獨(dú)立實(shí)驗(yàn)的均值。
為調(diào)研參數(shù)設(shè)置合理性,本節(jié)調(diào)研不同的取值對(duì)需進(jìn)行真實(shí)評(píng)估的約束可行比例閾值thr和D-SAC2oDE 中差分進(jìn)化算子的變異概率F、交叉概率CR的影響。不失一般性,本節(jié)以函數(shù)g01、g02、g06、g07、g09、g19為例,由表1可知,此6個(gè)函數(shù)能夠代表不同類型、不同約束數(shù)量的函數(shù)。
需進(jìn)行真實(shí)評(píng)估的約束可行解比例閾值thr是自適應(yīng)評(píng)估策略中一個(gè)重要的參數(shù),它決定著演化過程中哪些約束需要進(jìn)行真實(shí)評(píng)估。對(duì)于每一個(gè)約束,若種群在該約束的可行域個(gè)體比例大于thr,則認(rèn)為種群大部分處于該約束的可行域內(nèi),不需要頻繁對(duì)該約束進(jìn)行昂貴評(píng)估;相反,若種群在該約束的可行域個(gè)體比例小于thr,則認(rèn)為種群大部分處于該約束的不可行域內(nèi),需要對(duì)該約束進(jìn)行昂貴評(píng)估觀察其演化方向。為調(diào)研該參數(shù)的取值對(duì)實(shí)驗(yàn)結(jié)果的影響,設(shè)置thr={0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9,1.0},在D-GPEME-CH 和D-SA-C2oDE 兩種方法分別進(jìn)行實(shí)驗(yàn)并對(duì)比分析結(jié)果,實(shí)驗(yàn)結(jié)果如圖3所示。
圖3 thr不同取值對(duì)實(shí)驗(yàn)結(jié)果的影響Fig. 3 Influence of different values of thr on results
圖3 中橫軸為thr不同的取值,縱軸為對(duì)應(yīng)取值獲得的適應(yīng)值。從圖中可以看出,兩種算法在不同的函數(shù)中呈現(xiàn)出大致相同的規(guī)律,當(dāng)thr<0.5 時(shí),適應(yīng)值隨著thr的增大而變好;當(dāng)thr>0.5 時(shí),適應(yīng)值隨著thr的增大而變差。這個(gè)現(xiàn)象是合理的,thr較小時(shí),昂貴評(píng)估的約束較少;極端情況下,若thr=0,則所有約束都不被昂貴評(píng)估,難以在演化過程較快尋找到可行域。thr較大時(shí),昂貴評(píng)估的約束較多;極端情況下,若thr=1,則所有約束都被昂貴評(píng)估,在昂貴評(píng)估次數(shù)有限的情況下,對(duì)昂貴評(píng)估造成浪費(fèi),限制了算法的進(jìn)一步演化。結(jié)合實(shí)驗(yàn)結(jié)果與分析,本文設(shè)置thr=0.5。為進(jìn)一步說明自適應(yīng)評(píng)估策略的自適應(yīng)特性,以g01 和g07 為例,用D-GPEME-CH 測(cè)試在thr=0.5 的演化中可行約束個(gè)數(shù)的變化情況,實(shí)驗(yàn)結(jié)果如圖4。由于算法在少量評(píng)估次數(shù)內(nèi)就找到所有約束的可行域,為方便觀察,橫坐標(biāo)只繪制最大評(píng)估次數(shù)為1 000。
圖4 演化過程找到可行約束的個(gè)數(shù)Fig. 4 The number of found feasible constraints during evolution
圖4中,g01是一個(gè)帶有9個(gè)約束的函數(shù),在算法演化初期沒有任何約束的可行域信息被搜索到;隨著算法的演化,找到可行域信息的約束個(gè)數(shù)逐漸增加,在400 多次昂貴評(píng)估時(shí),所有約束的可行域都被找到。g07 是一個(gè)帶有8 個(gè)約束的函數(shù),其中4 個(gè)約束的可行域比較大,在算法初期就已經(jīng)被找到;隨著算法的演化,找到可行域信息的約束個(gè)數(shù)逐漸增加,在400 多次昂貴評(píng)估時(shí),所有約束的可行域都被找到。因此,thr=0.5 是一個(gè)比較合理的設(shè)置,能夠體現(xiàn)自適應(yīng)評(píng)估策略的自適應(yīng)特性。
在文獻(xiàn)[33]中,變異概率F建議以相等概率從{0.6,0.8,1.0}取值,交叉概率CR建議以相等概率從{0.1,0.2,1.0}取值。為進(jìn)一步調(diào)研在D-SA-C2oDE 中差分進(jìn)化算子的變異概率F、交叉概率CR的不同取值對(duì)實(shí)驗(yàn)結(jié)果的影響,首先固定CR以相等概率從{0.1,0.2,1.0}取值的設(shè)置,對(duì)比F={0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9,1.0}與F以相等概率從{0.6,0.8,1.0}取值的結(jié)果,如圖5 所示。圖5 中,橫軸為F不同的取值,縱軸為對(duì)應(yīng)取值獲得的適應(yīng)值,紅色虛線為F以相等概率從{0.6,0.8,1.0}取值的結(jié)果。從圖中可以得出,在加入自適應(yīng)評(píng)估策略后,F(xiàn)=0.6 時(shí)的實(shí)驗(yàn)結(jié)果比較好,因此本文設(shè)置F=0.6。
圖5 F不同取值對(duì)實(shí)驗(yàn)結(jié)果的影響Fig. 5 Influence of different values of F on results
固定F=0.6 后,本文對(duì)比CR={0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9,1.0}與CR以相等概率從{0.1,0.2,1.0}取值的結(jié)果,如圖6 所示。圖6 中,橫軸為CR不同的取值,縱軸為對(duì)應(yīng)取值獲得的適應(yīng)值,紅色虛線為CR以相等概率從{0.1,0.2,1.0}取值的結(jié)果。從圖中可以得出,在g06 中,CR以相等概率從{0.1,0.2,1.0}取值的結(jié)果較好;在多數(shù)其他測(cè)試函數(shù)中,CR=0.7 時(shí)的實(shí)驗(yàn)結(jié)果比較好,因此本文設(shè)置CR=0.7。
圖6 CR不同取值對(duì)實(shí)驗(yàn)結(jié)果的影響Fig. 6 Influence of different values of CR on results
本節(jié)首先驗(yàn)證復(fù)合差分進(jìn)化算法和自適應(yīng)約束評(píng)估策略的效果;然后對(duì)比從兩個(gè)思路設(shè)計(jì)的自適應(yīng)約束評(píng)估SAEAs在標(biāo)準(zhǔn)測(cè)試集CEC2006中的尋優(yōu)情況,以驗(yàn)證SAEAs相對(duì)于傳統(tǒng)EAs的性能提升,并以四個(gè)函數(shù)為例進(jìn)行時(shí)間結(jié)果的統(tǒng)計(jì)與分析;最后在四個(gè)工業(yè)約束優(yōu)化問題中進(jìn)一步驗(yàn)證自適應(yīng)約束評(píng)估SAEAs的求解質(zhì)量和效率。
4.4.1 復(fù)合差分進(jìn)化算子性能驗(yàn)證
為驗(yàn)證復(fù)合差分進(jìn)化算子的性能,本小節(jié)以函數(shù)g01、g02、g19 為例,比較獨(dú)立差分進(jìn)化算子DE/current-to-rand/1、DE/rand-to-best/1 和DE/current-tobest/1與復(fù)合差分進(jìn)化算子的實(shí)驗(yàn)結(jié)果。相對(duì)應(yīng)地,上述算法分別命名為D-SA-DEc2r、D-SA-DEr2b、DSA-DEc2b、D-SA-C2oDE。算法收斂結(jié)果如圖7所示。
圖7 差分進(jìn)化算子對(duì)實(shí)驗(yàn)結(jié)果的影響Fig. 7 Influence of different DEs on results
圖7中橫軸為消耗的昂貴評(píng)估次數(shù),縱軸為算法尋優(yōu)的適應(yīng)值??梢钥吹?,復(fù)合差分進(jìn)化算子的DSA-C2oDE 收斂速度更快,且收斂效果更好。這是因?yàn)楠?dú)立差分進(jìn)化算子的D-SA-DEr2b、D-SA-DEc2b在最優(yōu)個(gè)體的引導(dǎo)下容易陷入局部最優(yōu),而D-SADEc2r雖然隨機(jī)性比較大,但沒有最優(yōu)個(gè)體的引導(dǎo)難以往全局最優(yōu)方向收斂。復(fù)合差分進(jìn)化算子結(jié)合了三種算子的特點(diǎn),既能夠保證種群的收斂性,又能夠提高種群多樣性,幫助種群跳出局部最優(yōu),往全局最優(yōu)的方向收斂。因此,復(fù)合差分進(jìn)化算子能夠提高種群多樣性,并加快收斂速度,提高收斂效果。
4.4.2 自適應(yīng)約束評(píng)估策略性能驗(yàn)證
為驗(yàn)證自適應(yīng)約束評(píng)估策略的效果,本小節(jié)對(duì)比從兩種思路設(shè)計(jì)的自適應(yīng)約束評(píng)估SAEAs(DGPEME-CH、D-SA-C2oDE)及不帶該策略的SAEAs(GPEME-CH、SA-C2oDE)實(shí)驗(yàn)結(jié)果。其中,GPEMECH、SA-C2oDE 按照1.4.1 小節(jié)選擇懲罰適應(yīng)值最優(yōu)的個(gè)體進(jìn)行昂貴評(píng)估。所有算法真實(shí)評(píng)估次數(shù)均為1 000×(NC+1),算法25 次獨(dú)立運(yùn)行所得結(jié)果如表2所示。均值是指25 次獨(dú)立實(shí)驗(yàn)最優(yōu)解的均值,方差是指25 次獨(dú)立實(shí)驗(yàn)最優(yōu)值的方差?!癗aN”表示算法在25次實(shí)驗(yàn)中均未找到可行解。
表2 自適應(yīng)約束評(píng)估策略性能驗(yàn)證對(duì)比結(jié)果Table 2 Comparison results to validate effectiveness of adaptive constraint evaluation strategy
從表2 中可以看到,加入自適應(yīng)約束評(píng)估策略后,兩種思路設(shè)計(jì)的約束優(yōu)化SAEAs 性能均有所提升。在無(wú)自適應(yīng)約束評(píng)估策略的算法中,每一代選擇的候選解要進(jìn)行所有約束和目標(biāo)值的真實(shí)評(píng)估,消耗的真實(shí)評(píng)估次數(shù)較多,限制了種群演化代數(shù)。而自適應(yīng)約束評(píng)估策略僅對(duì)需要的信息進(jìn)行評(píng)估,節(jié)省的評(píng)估次數(shù)可以用來進(jìn)一步演化種群。因此,在自適應(yīng)約束評(píng)估策略的輔助下,算法性能能夠有進(jìn)一步提升。
需注意的是,在測(cè)試函數(shù)g05、g13、g14、g15、g17、g20、g21、g22、g23 中,算法無(wú)法找到可行解。從表1函數(shù)性質(zhì)可得,這些函數(shù)均含有多個(gè)等式約束。一方面,等式約束在變量空間形成的可行域是一個(gè)超平面、平面、一條線甚至一個(gè)點(diǎn),如此復(fù)雜的函數(shù)特性對(duì)于代理模型來說是很難擬合的;另一方面,代理模型通過對(duì)后代預(yù)測(cè)輔助種群演化,而等式約束形成的可行域是一個(gè)精細(xì)化的點(diǎn)線面,用一個(gè)近似的模型去預(yù)測(cè)一個(gè)精細(xì)化的函數(shù)是不現(xiàn)實(shí)的。因此,如何對(duì)昂貴等式約束有效處理仍有待研究,在下面的實(shí)驗(yàn)中,不對(duì)上述函數(shù)進(jìn)行分析討論。
為說明自適應(yīng)評(píng)估策略的自適應(yīng)特性,以及自適應(yīng)約束評(píng)估策略在減少評(píng)估次數(shù)的情況下對(duì)算法精度的影響,首先,以g01和g07為例,測(cè)試自適應(yīng)約束評(píng)估策略的算法D-GPEME-CH和所有約束評(píng)估策略的算法GPEME-CH在演化過程中可行約束個(gè)數(shù)的變化情況,實(shí)驗(yàn)結(jié)果如圖8。由于算法在少量演化代數(shù)內(nèi)就找到所有約束的可行域,為方便觀察,橫坐標(biāo)只繪制到演化代數(shù)為100。
圖8 約束評(píng)估策略對(duì)約束演化效果調(diào)研Fig. 8 Influence investigation of different constraint evaluation strategies on constraints exploration
圖8中,g01是一個(gè)帶有9個(gè)約束的函數(shù),在算法演化初期沒有任何約束的可行域信息被搜索到;g07是一個(gè)帶有8個(gè)約束的函數(shù),其中4個(gè)約束的可行域比較大,在算法初期就已經(jīng)被找到。隨著算法的演化,兩種策略均能在60 代演化內(nèi)找到所有約束的可行域,雖然自適應(yīng)約束評(píng)估策略在相同的演化代數(shù)減少昂貴評(píng)估次數(shù),但對(duì)算法找到所有約束可行域的影響不大,這是因?yàn)樵谧赃m應(yīng)約束評(píng)估策略中,種群在約束可行域比例大于thr表明種群已大部分進(jìn)入該約束的可行域內(nèi),無(wú)需頻繁對(duì)其進(jìn)行昂貴評(píng)估尋找可行域;相反,種群在約束可行域比例小于thr表明種群大部分在該約束的可行域外,需要通過昂貴評(píng)估引導(dǎo)演化方向,探索可行域。因此,自適應(yīng)約束評(píng)估策略節(jié)省的是種群掌握大部分可行域信息約束的昂貴評(píng)估次數(shù),對(duì)算法進(jìn)入可行域的速度并沒有太大的影響,但節(jié)省的昂貴評(píng)估次數(shù)可以用來進(jìn)一步演化,增加演化代數(shù),使算法找到更優(yōu)的解。
為進(jìn)一步分析自適應(yīng)約束評(píng)估策略與對(duì)所有約束進(jìn)行昂貴評(píng)估策略對(duì)算法性能的影響,本文以函數(shù)g01、g02、g06、g07、g09、g19為例,分析演化代數(shù)相同和昂貴評(píng)估次數(shù)相同兩種情況下自適應(yīng)約束評(píng)估策略與對(duì)所有約束進(jìn)行昂貴評(píng)估方式對(duì)算法性能的影響。設(shè)置演化代數(shù)為1 000,此時(shí)若對(duì)所有約束進(jìn)行昂貴評(píng)估,昂貴評(píng)估次數(shù)為1 000×(NC+1);若執(zhí)行自適應(yīng)約束評(píng)估策略,昂貴評(píng)估次數(shù)小于等于1 000×(NC+1)。因此,在演化代數(shù)相同的情況下,自適應(yīng)約束評(píng)估策略可以減少昂貴評(píng)估次數(shù)。為保證比較結(jié)果的公平性,進(jìn)一步比較在昂貴評(píng)估次數(shù)相同的情況下自適應(yīng)約束評(píng)估策略算法的性能。實(shí)驗(yàn)結(jié)果如表3所示。
表3 自適應(yīng)約束評(píng)估策略性能調(diào)研Table 3 Influence investigation of adaptive constraint evaluation
表3 中,上標(biāo)“1”代表自適應(yīng)約束評(píng)估策略的SAEAs 演化代數(shù)與所有約束評(píng)估策略的SAEAs相同,均為1 000;上標(biāo)“2”代表自適應(yīng)約束評(píng)估策略的SAEAs昂貴評(píng)估次數(shù)與所有約束評(píng)估策略的SAEAs相同,均為1 000× (NC+1)。從表中結(jié)果可以看到,演化代數(shù)相同的情況下,自適應(yīng)約束評(píng)估策略的SAEAs并沒有在所有測(cè)試問題中比所有約束評(píng)估策略的SAEAs效果好。這是因?yàn)樽赃m應(yīng)約束評(píng)估策略的SAEAs在每一代中是自適應(yīng)地進(jìn)行約束選擇和昂貴評(píng)估,在一定的部分約束評(píng)估個(gè)體積累之后才進(jìn)行個(gè)體選擇并補(bǔ)全真實(shí)約束值和目標(biāo)值。相比所有約束評(píng)估策略的SAEAs,自適應(yīng)約束評(píng)估策略的SAEAs 對(duì)所選解真實(shí)信息的掌握有一定的延遲,演化受到預(yù)測(cè)誤差的影響。在演化代數(shù)相同的情況下,自適應(yīng)約束評(píng)估策略的SAEAs 所花費(fèi)的昂貴評(píng)估次數(shù)有所減少。當(dāng)自適應(yīng)約束評(píng)估策略的SAEAs的昂貴評(píng)估次數(shù)和所有約束評(píng)估策略的SAEAs相同時(shí),效果均有明顯提升。這是因?yàn)樽赃m應(yīng)約束評(píng)估策略可以減少對(duì)可行域信息較多的約束的頻繁評(píng)估,節(jié)省的昂貴評(píng)估次數(shù)可以用來進(jìn)一步演化。因此,自適應(yīng)約束評(píng)估策略的SAEAs能夠有效提升算法性能。
4.4.3 自適應(yīng)約束評(píng)估的SAEAs性能驗(yàn)證
昂貴優(yōu)化是一個(gè)具有挑戰(zhàn)性研究方向的原因之一是真實(shí)評(píng)估次數(shù)非常少。為驗(yàn)證SAEAs在求解昂貴優(yōu)化問題相對(duì)于傳統(tǒng)EAs的性能優(yōu)勢(shì),本小節(jié)對(duì)傳統(tǒng)約束優(yōu)化算法(C2oDE)和本文設(shè)計(jì)的兩種自適應(yīng)約束評(píng)估的SAEAs(D-GPEME-CH、D-SA-C2oDE)在CEC2006 中25 次獨(dú)立運(yùn)行結(jié)果作對(duì)比分析,算法優(yōu)化的最優(yōu)解如表4所示,算法結(jié)束時(shí)的可行解情況如表5 所示。由于在上一小節(jié)已經(jīng)分析了代理模型處理昂貴等式約束的困難和在此領(lǐng)域的研究空白,這一小節(jié)不對(duì)帶有多個(gè)等式約束的函數(shù)進(jìn)行測(cè)試分析。
表4 自適應(yīng)約束評(píng)估的約束優(yōu)化SAEAs性能對(duì)比結(jié)果Table 4 Comparison results to validate effectiveness of adaptive constraint evaluation aided SAEAs for expensive constrained optimization
表5 CEC2006測(cè)試問題的可行解對(duì)比結(jié)果Table 5 Comparison results of feasibility in CEC2006
在表4中,p表示自適應(yīng)約束評(píng)估SAEAs與C2oDE威爾克遜秩和檢驗(yàn)的結(jié)果,+/-/≈表示顯著水平為0.05 的情況下,對(duì)應(yīng)SAEAs 比C2oDE 尋優(yōu)結(jié)果顯著好、顯著差和無(wú)明顯差異的次數(shù)。NaN+表示C2oDE無(wú)法找到可行解,而自適應(yīng)約束評(píng)估SAEAs 可以找到可行解,此時(shí)無(wú)法進(jìn)行統(tǒng)計(jì)學(xué)檢驗(yàn),但后者性能明顯優(yōu)于前者。NaN 表示C2oDE 和自適應(yīng)約束評(píng)估SAEAs 均未找到可行解,無(wú)法進(jìn)行統(tǒng)計(jì)學(xué)檢驗(yàn)和算法性能比較。表5中rf是算法結(jié)束時(shí)種群中的可行解比例在25 次獨(dú)立運(yùn)行的均值;rs指所有運(yùn)行中算法在結(jié)束時(shí)成功找到可行解的比例。C2oDE(240 000)指算法適應(yīng)值評(píng)估次數(shù)為240 000×(NC+1)次,即原文設(shè)定的最大評(píng)估次數(shù)[33];由于評(píng)估代價(jià)昂貴,本文設(shè)計(jì)的D-GPEME-CH 和D-SA-C2oDE 最大評(píng)估次數(shù)為1 000×(NC+1),并將算法C2oDE 最大評(píng)估次數(shù)設(shè)置為1 000×(NC+1)進(jìn)行實(shí)驗(yàn),以保證實(shí)驗(yàn)的公平性,比較在有限次真實(shí)目標(biāo)和約束評(píng)估次數(shù)下算法性能。
綜合表4 和表5 的結(jié)果可知,C2oDE(240 000)在真實(shí)評(píng)估次數(shù)非常多的時(shí)候,能夠在15 個(gè)測(cè)試問題中找到最優(yōu)解,并且在所有問題中都能找到可行解且算法結(jié)束時(shí)種群中可行解比例為1。為公平比較,將該算法最大評(píng)估次數(shù)調(diào)整為1 000×(NC+1)后,算法性能急劇下降,在4個(gè)問題中無(wú)法找到可行解且在找到可行解的問題中求解質(zhì)量不高。然而表4 顯示自適應(yīng)約束評(píng)估SAEAs 求解質(zhì)量有明顯提高,在15個(gè)測(cè)試函數(shù)中,D-GPEME-CH 和D-SA-C2oDE 均在11個(gè)函數(shù)中顯著優(yōu)于相同評(píng)估次數(shù)的C2oDE;在g01和g03 中,C2oDE 無(wú)法找到可行解,而D-GPEME-CH和D-SA-C2oDE均能找到質(zhì)量較好的可行解。同時(shí),表5結(jié)果顯示,D-GPEME-CH和D-SA-C2oDE找到可行解的運(yùn)行次數(shù)和在算法結(jié)束時(shí)種群的可行解比例普遍比C2oDE 高。由此可見,D-GPEME-CH 和DSA-C2oDE在有限目標(biāo)和約束的真實(shí)評(píng)估次數(shù)內(nèi)能夠取得較好的可行解,在自適應(yīng)約束評(píng)估策略和代理模型的輔助下,比傳統(tǒng)EAs效果更好。
為進(jìn)一步說明本文設(shè)計(jì)的兩種算法相對(duì)于其他求解昂貴約束優(yōu)化問題算法的性能優(yōu)勢(shì),本文以近兩年提出的代理模型輔助的部分評(píng)估演化算法(surrogateassisted partial-evaluation-based EA,SParEA)[37]、代理模型輔助的分類協(xié)同差分進(jìn)化算法(surrogate-assisted classification-collaboration DE,SACCDE)[38]為對(duì)比算法,在上述CEC2006 測(cè)試問題中進(jìn)行對(duì)比分析;另外,為了測(cè)試本文設(shè)計(jì)的兩種算法在較高維問題中的性能優(yōu)勢(shì),本文增加在標(biāo)準(zhǔn)測(cè)試集CEC2010[39]的30維問題的測(cè)試。正如在4.4.1小節(jié)中提到的昂貴等式約束處理的難度和當(dāng)前在此方面研究的空白,只測(cè)試CEC2010中不含等式約束的問題c01、c07、c08、c13、c14、c15。為保證實(shí)驗(yàn)公平性,測(cè)試算法的最大評(píng)估次數(shù)均設(shè)置為1 000×(NC+1),實(shí)驗(yàn)結(jié)果如表6所示。
表6 自適應(yīng)約束評(píng)估的SAEAs與其他SAEAs的性能對(duì)比Table 6 Comparison results of adaptive constraint evaluation aided SAEAs with other SOTA SAEAs
表6 中,p1 表示對(duì)比算法與D-GPEME-CH 的威爾克遜秩和檢驗(yàn)結(jié)果,p2 表示對(duì)比算法與D-SAC2oDE的威爾克遜秩和檢驗(yàn)結(jié)果。-/+/≈分別表示在顯著水平為0.05的情況下,對(duì)比算法明顯劣于、優(yōu)于本文設(shè)計(jì)的算法,或與本文設(shè)計(jì)的算法無(wú)明顯差別;最后一行總結(jié)對(duì)比算法與本文設(shè)計(jì)的兩種算法總體比較情況。從表中結(jié)果可以得出以下結(jié)論:(1)SACCDE在10個(gè)測(cè)試函數(shù)中顯著劣于D-GPEME-CH,在13個(gè)函數(shù)中顯著劣于D-SA-C2oDE。(2)SParEA 在9 個(gè)測(cè)試函數(shù)中顯著劣于D-GPEME-CH,在10 個(gè)函數(shù)中顯著劣于D-SA-C2oDE。(3)SACCDE 在CEC2010 的30維函數(shù)中大部分劣于D-GPEME-CH和D-SA-C2oDE;而SParEA 在CEC2010 的30 維函數(shù)中大部分優(yōu)于DGPEME-CH和D-SA-C2oDE。
上述結(jié)論是合理的。SACCDE 和SParEA 對(duì)所挑選的解進(jìn)行全部約束評(píng)估。在測(cè)試集2006 中,當(dāng)約束個(gè)數(shù)較多時(shí),頻繁地評(píng)估可行域信息較多的約束對(duì)昂貴評(píng)估次數(shù)造成浪費(fèi),限制了算法的演化程度;而D-GPEME-CH 和D-SA-C2oDE 采取了自適應(yīng)約束評(píng)估策略,僅對(duì)可行域信息較少的約束進(jìn)行評(píng)估,能夠有效避免昂貴約束評(píng)估的浪費(fèi),使算法進(jìn)一步演化。而CEC2010測(cè)試集函數(shù)設(shè)計(jì)的初衷在于問題維度的可擴(kuò)展性,問題約束通常只有1個(gè)(c01,c07,c08)和3個(gè)(c13,c14,15),且約束的可行域較小,自適應(yīng)約束評(píng)估策略極大概率將所有的約束加入待評(píng)估集合,因此,D-GPEME-CH、D-SA-C2oDE和SACCDE、SParEA一致,對(duì)所挑選的解進(jìn)行了全部約束評(píng)估,并沒有發(fā)揮自適應(yīng)約束評(píng)估策略的優(yōu)勢(shì)。另外,SParEA使用了四種不同的代理模型對(duì)約束進(jìn)行擬合,準(zhǔn)確率相對(duì)于只采用一種模型的其他三種算法有所提升,因此在CEC2010測(cè)試問題中的性能表現(xiàn)較好。
4.4.4 運(yùn)行時(shí)間對(duì)比與分析
為進(jìn)一步說明SAEAs能夠提高求解昂貴優(yōu)化問題的效率,本小節(jié)對(duì)自適應(yīng)約束評(píng)估SAEAs 和傳統(tǒng)約束優(yōu)化EAs 的運(yùn)行時(shí)間進(jìn)行統(tǒng)計(jì)分析。由于昂貴工程問題使用的仿真軟件需要花費(fèi)幾個(gè)小時(shí)甚至幾十個(gè)小時(shí)進(jìn)行一次評(píng)估,且大部分都是商用軟件,本文通過對(duì)測(cè)試函數(shù)添加時(shí)間延遲來模擬昂貴評(píng)估。不失一般性,本文采取4個(gè)函數(shù)g01、g02、g03、g04,設(shè)置一次適應(yīng)值評(píng)估的時(shí)間延遲為0 s、1 s、10 s和100 s,記錄算法平均運(yùn)行一次所需時(shí)間,時(shí)間延遲為0 s,即算法真實(shí)運(yùn)行時(shí)間。為保證實(shí)驗(yàn)的公平性和有效性,D-GPEME-CH 和D-SA-C2oDE 的停止條件如4.2節(jié)所設(shè),為1 000×(NC+1)次,而C2oDE的停止條件為搜索結(jié)果達(dá)到兩種算法的平均值,即算法性能達(dá)到和自適應(yīng)約束SAEAs相近,此時(shí)進(jìn)行的評(píng)估次數(shù)分別是126 500×(9+1)(g01)、108 050×(2+1)(g02)、135 950×(1+1)(g03)、137 300×(6+1)(g04),顯然,消耗的評(píng)估次數(shù)均遠(yuǎn)遠(yuǎn)大于1 000×(NC+1)。運(yùn)行時(shí)間記錄如表7所示。
表7 不同時(shí)間延遲的運(yùn)行時(shí)間對(duì)比結(jié)果Table 7 Comparison results of execution time with different time delays
表7 中效率提升的計(jì)算是由C2oDE 運(yùn)行時(shí)間減自適應(yīng)約束評(píng)估SAEAs 時(shí)間的差,除以C2oDE 運(yùn)行時(shí)間所得。當(dāng)時(shí)間延遲為0 s 時(shí),可以看到自適應(yīng)約束評(píng)估SAEAs 比C2oDE 運(yùn)行時(shí)間長(zhǎng),這是因?yàn)槟P陀?xùn)練時(shí)間相對(duì)簡(jiǎn)單函數(shù)評(píng)估較長(zhǎng),且維度越高,問題越復(fù)雜,訓(xùn)練時(shí)間越長(zhǎng);而真實(shí)函數(shù)評(píng)估所需時(shí)間非常短,因此在運(yùn)行時(shí)間對(duì)比上并沒有優(yōu)勢(shì)。然而,當(dāng)單次適應(yīng)值評(píng)估有時(shí)間延遲后,自適應(yīng)約束評(píng)估SAEAs 運(yùn)行時(shí)長(zhǎng)比C2oDE 效率提升在94%以上,其中91.67%的測(cè)試?yán)有侍嵘?8%以上。這是因?yàn)槟P偷挠?xùn)練和預(yù)測(cè)時(shí)間相對(duì)昂貴函數(shù)評(píng)估較短,在代理模型的輔助下,真實(shí)適應(yīng)值評(píng)估次數(shù)大大減少,由此減少了評(píng)估時(shí)間,加快算法運(yùn)行效率。隨著時(shí)間延遲的增大,自適應(yīng)約束評(píng)估SAEAs 的時(shí)間優(yōu)勢(shì)更加明顯,效率提升幅度更大。
4.4.5 工業(yè)問題優(yōu)化結(jié)果與分析
為進(jìn)一步證明自適應(yīng)約束評(píng)估SAEAs在工業(yè)中有良好的應(yīng)用前景,本小節(jié)在碟形彈簧設(shè)計(jì)優(yōu)化(BS)、散貨船設(shè)計(jì)優(yōu)化(BCD)、轎車側(cè)面碰撞優(yōu)化(CSI)和螺旋彈簧設(shè)計(jì)優(yōu)化(HS)問題中將設(shè)計(jì)的兩種算法與傳統(tǒng)約束優(yōu)化方法C2oDE 進(jìn)行對(duì)比實(shí)驗(yàn),并進(jìn)行威爾克遜秩和檢驗(yàn),實(shí)驗(yàn)結(jié)果如表8所示。
表8 工業(yè)優(yōu)化問題的實(shí)驗(yàn)對(duì)比結(jié)果Table 8 Comparison results in engineering optimization problems
由表8 中結(jié)果可得,D-GPEME-CH 和D-SAC2oDE均取得比C2oDE好的結(jié)果。特別地,顯著水平為0.05 時(shí),D-GPEME-CH 在兩個(gè)問題中顯著好于C2oDE,D-SA-C2oDE在四個(gè)問題中均顯著好于C2oDE。因此,本文設(shè)計(jì)的兩種自適應(yīng)約束評(píng)估SAEAs 能夠?qū)λ膫€(gè)工業(yè)約束優(yōu)化問題進(jìn)行有效求解,在自適應(yīng)約束評(píng)估策略的輔助下,能夠提升對(duì)可行域搜索的成功率,表現(xiàn)出其在昂貴復(fù)雜工業(yè)約束優(yōu)化問題中較好的應(yīng)用前景。
首先在性能方面,算法的性能受演化程度影響,自適應(yīng)約束評(píng)估策略從演化程度提升算法性能?,F(xiàn)有的處理昂貴約束方法大都是對(duì)每個(gè)候選解進(jìn)行全部約束和目標(biāo)評(píng)估,即每一代消耗NC+1 次昂貴評(píng)估,對(duì)應(yīng)的演化程度為maxFES/(NC+1)。而在自適應(yīng)約束評(píng)估策略中,算法根據(jù)當(dāng)前種群對(duì)可行域信息的掌握程度自適應(yīng)決定評(píng)估約束。具體地,本文將約束分為三大類:第一類是初始化隨機(jī)采樣種群在可行域內(nèi)比例達(dá)到評(píng)估閾值thr,算法很容易找到可行解,在自適應(yīng)約束評(píng)估策略中不會(huì)被選擇做昂貴評(píng)估;第二類是初始化隨機(jī)采樣種群在可行域內(nèi)比例小于評(píng)估閾值thr,且算法非常難找到可行解,在自適應(yīng)約束評(píng)估策略中被頻繁選擇做昂貴評(píng)估;第三類是初始化隨機(jī)采樣種群在可行域內(nèi)比例小于評(píng)估閾值thr,但隨著演化種群在可行域內(nèi)比例會(huì)達(dá)到評(píng)估閾值thr,即演化前期被頻繁選擇做昂貴評(píng)估,演化后期不會(huì)被選擇做昂貴評(píng)估。當(dāng)問題的約束都是第一類時(shí),部分評(píng)估過程中沒有約束被選擇進(jìn)行昂貴評(píng)估;全部評(píng)估過程對(duì)所有約束和目標(biāo)值進(jìn)行昂貴評(píng)估,因此演化程度為[maxFES/(NC+1)]×(Gap+1),其中,如第2 章描述,Gap是需進(jìn)行信息補(bǔ)全的代數(shù),它決定著算法進(jìn)行種群和代理模型更新的頻率,因此Gap≥1。此時(shí),算法演化程度滿足以下關(guān)系:
這時(shí),自適應(yīng)約束評(píng)估策略的演化代數(shù)與所有約束評(píng)估策略的演化代數(shù)成倍數(shù)關(guān)系,Gap越大,演化代數(shù)越多,演化程度越高。當(dāng)問題的約束都是第二類時(shí),部分評(píng)估過程中所有約束被選擇進(jìn)行昂貴評(píng)估;全部評(píng)估過程僅對(duì)目標(biāo)值進(jìn)行昂貴評(píng)估,因此演化程度為[maxFES/(NC×Gap)]×(Gap+1)。結(jié)合Gap≥1,算法演化程度滿足以下關(guān)系:
因此,在所有約束被選擇進(jìn)行昂貴評(píng)估的情況下,自適應(yīng)約束評(píng)估策略的SAEAs的演化程度都比對(duì)所有約束進(jìn)行昂貴評(píng)估的SAEAs 高。也就是說,自適應(yīng)約束評(píng)估策略在最差情況下每一代消耗的昂貴評(píng)估次數(shù)也比所有約束進(jìn)行昂貴評(píng)估的方法少,演化程度高。當(dāng)問題的約束為第三類時(shí),或者包含這三類中的多類約束時(shí),演化程度在區(qū)間{[maxFES/(NC×Gap)]×(Gap+1),[maxFES/(NC+1)]×(Gap+1)}內(nèi),因此,在求解包含不同類型約束的問題時(shí),自適應(yīng)約束評(píng)估策略能夠在少量評(píng)估次數(shù)下自適應(yīng)評(píng)估昂貴約束,提升算法性能。
其次在運(yùn)行時(shí)間方面,由4.4.4小節(jié)知,C2oDE取得和D-GPEME-CH、D-SA-C2oDE 在1 000×(NC+1)次評(píng)估相近的效果需100倍以上評(píng)估次數(shù),為方便說明,記C2oDE 評(píng)估次數(shù)為1 000×times×(NC+1),其中,times是達(dá)到相近效果所用評(píng)估倍數(shù)。由于CEC2006 函數(shù)并非昂貴優(yōu)化問題,在時(shí)間延遲為0 s時(shí),模型的訓(xùn)練和預(yù)測(cè)時(shí)間占支配地位,因此C2oDE運(yùn)行時(shí)長(zhǎng)較短。當(dāng)對(duì)真實(shí)評(píng)估加上時(shí)間延遲td模擬昂貴約束優(yōu)化時(shí),評(píng)估時(shí)間占支配地位。此時(shí),DGPEME-CH、D-SA-C2oDE所需的評(píng)估時(shí)間為1 000×(NC+1)×td,而C2oDE所需的評(píng)估時(shí)間為1 000×times×(NC+1)×td,效率提升如下:
由此可知,基于代理模型的算法的效率提升與傳統(tǒng)算法所需評(píng)估次數(shù)有關(guān),所需評(píng)估次數(shù)越多,效率提升越大。由表7可知,本文算法的效率提升均在94%以上,且大部分達(dá)到98%。
本文從兩個(gè)思路出發(fā)設(shè)計(jì)兩種基于自適應(yīng)約束評(píng)估策略的約束優(yōu)化SAEAs,D-GPEME-CH 和DSA-C2oDE,二者具有一定的相似性。首先,二者都采用高斯過程回歸模型作為代理,在昂貴約束和目標(biāo)的擬合上沒有本質(zhì)區(qū)別;其次,二者都采用自適應(yīng)約束評(píng)估策略對(duì)昂貴約束進(jìn)行處理,在演化過程中都能夠自適應(yīng)決定評(píng)估的約束,節(jié)省的評(píng)估次數(shù)用來進(jìn)一步演化,相對(duì)于傳統(tǒng)約束優(yōu)化算法能夠在有限次真實(shí)評(píng)估下找到優(yōu)勝解。
然而,這兩個(gè)算法在演化算子上也存在一定的差異性。D-GPEME-CH是基于代理模型輔助的無(wú)約束演化算法加入約束處理技術(shù)設(shè)計(jì)的,本身的演化算子為DE/best/1,無(wú)需處理約束;而D-SA-C2oDE 是由無(wú)代理模型的約束優(yōu)化算法加入代理模型的輔助設(shè)計(jì)的,采用的是復(fù)合差分進(jìn)化算法,并設(shè)計(jì)有良好的約束處理技術(shù)。因此,D-GPEME-CH 在對(duì)可行域的搜索和收斂能力上較D-SA-C2oDE 差,算法性能不如后者,這也體現(xiàn)在CEC2006 及工業(yè)優(yōu)化問題的測(cè)試結(jié)果中。相對(duì)應(yīng)地,D-SA-C2oDE 的演化算子較為復(fù)雜,導(dǎo)致D-SA-C2oDE 的運(yùn)行時(shí)間普遍較DGPEME-CH 長(zhǎng),這體現(xiàn)在運(yùn)行時(shí)間對(duì)比與分析的實(shí)驗(yàn)中。但是,即使二者在性能和時(shí)間上有所差異,在真實(shí)評(píng)估次數(shù)非常有限的情況下,它們都比傳統(tǒng)無(wú)代理模型輔助的約束優(yōu)化算法有更好的搜索能力和更高效的求解時(shí)長(zhǎng)。事實(shí)上,無(wú)論從哪個(gè)思路出發(fā)設(shè)計(jì)約束優(yōu)化SAEAs都有挑戰(zhàn)。
(1)從基于代理模型輔助的無(wú)約束優(yōu)化算法思路出發(fā),由于昂貴約束的加入,需要考慮如何合理處理約束。昂貴約束與昂貴目標(biāo)性質(zhì)不同,約束不需尋找最優(yōu)值,只要在可行域內(nèi)的解都是滿足的;另外,在多目標(biāo)或超多目標(biāo)的優(yōu)化問題中,目標(biāo)的個(gè)數(shù)往往小于5,而約束個(gè)數(shù)大于10的優(yōu)化問題是非常多的,這使得可行域空間變得極其復(fù)雜,在利用代理模型擬合約束時(shí)要考慮如何對(duì)復(fù)雜約束進(jìn)行有效處理。
(2)從無(wú)代理模型輔助的約束優(yōu)化算法思路出發(fā),代理模型的加入需要考慮如何選擇代理模型,如何使用代理模型以及如何對(duì)模型進(jìn)行有效管理。代理模型的預(yù)測(cè)結(jié)果相比真實(shí)評(píng)估有一定的誤差,如何降低預(yù)測(cè)誤差的負(fù)面影響,是這類問題的研究重點(diǎn)。同時(shí),當(dāng)約束個(gè)數(shù)增加時(shí),如何降低模型管理負(fù)荷,提高算法運(yùn)行效率也需進(jìn)行考慮。
因此,當(dāng)前約束優(yōu)化SAEAs 的設(shè)計(jì)仍然存在很多挑戰(zhàn),對(duì)于昂貴約束優(yōu)化問題的求解仍有較大的研究空間。
本文提出了一種新的自適應(yīng)約束評(píng)估策略來自適應(yīng)地進(jìn)行個(gè)體選擇、約束選擇和昂貴評(píng)估。為驗(yàn)證該策略在約束優(yōu)化SAEAs 中的作用,本文分別從代理模型輔助的無(wú)約束優(yōu)化算法和無(wú)代理模型的傳統(tǒng)約束優(yōu)化算法兩個(gè)思路出發(fā),設(shè)計(jì)兩種自適應(yīng)約束評(píng)估SAEAs:D-GPEME-CH和D-SA-C2oDE。通過在測(cè)試集CEC2006和四個(gè)工業(yè)優(yōu)化問題中的實(shí)驗(yàn)驗(yàn)證及理論分析,表明本文設(shè)計(jì)的自適應(yīng)約束評(píng)估SAEAs 能夠在較短時(shí)間內(nèi)有效求得可行解,降低求解昂貴約束優(yōu)化問題的時(shí)間成本,在復(fù)雜的昂貴工業(yè)約束優(yōu)化問題中有較好的應(yīng)用前景。
在今后的研究中,可以就如何利用局部模型對(duì)已有信息進(jìn)一步開發(fā),加快算法對(duì)可行域的探索,提高算法求解質(zhì)量展開進(jìn)一步研究。