国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于漢南-奎因信息準則的電阻率層析成像徑向基神經網絡反演

2014-09-25 02:16:50戴前偉江沸菠董莉
地球物理學報 2014年4期
關鍵詞:隱層訓練樣本電阻率

戴前偉,江沸菠*,董莉

1中南大學有色金屬成礦預測教育部重點實驗室,長沙 410083

2中南大學地球科學與信息物理學院,長沙 410083

1 引言

電阻率層析成像(Electrical Resistivity Tomography,ERT)是地球物理學發(fā)展的前沿課題之一,該方法場源易于實現(xiàn),野外實施簡便,對現(xiàn)場無破壞作用,分辨率高(與普通電阻率法比較),勘探成本低(與地震波層析成像比較),穿透深度大(與電磁波層析成像比較),特別適合于淺層構造和工程探測等研究領域(盧元林等,1999).1987年Shima首次提出了“電阻率層析成像”(Resistivity Tomography)一詞,并提出了反演解釋的方法(Shima and Sakayama,1987).此后各國學者從不同角度對這一問題從理論、實驗到應用開展了研究,電阻率層析成像技術得到了快速的發(fā)展,探索有效的非線性反演方法,提高成像質量成為了ERT技術研究中新的熱點.

由于ERT反演本質上是一個復雜的非線性問題,傳統(tǒng)的線性反演將非線性問題在初始模型附近進行線性化,存在著容易陷入局部收斂、依賴初始模型選擇、偏導數(shù)矩陣求解困難等問題(徐海浪和吳小平,2006).神經網絡由于能夠模擬人腦神經元的信息學習和處理,直接從樣本數(shù)據(jù)中構造數(shù)學模型,近幾年已廣泛應用于電法勘探數(shù)據(jù)的解釋和分析,其應用范圍既包含一維反演(Singh etal.,2013;Srinivas etal.,2012),也包含二三維反演(Neyamadpour etal.,2009;徐海浪和吳小平,2006);既包含地表勘探數(shù)據(jù)的反演(El-Qady and Ushijima,2001),也包含井-地勘探數(shù)據(jù)的反演(Ho,2009);既包含單一的神經網絡方法反演(Neyamadpour etal.,2010),也包含神經網絡與其他方法的聯(lián)合反演(張凌云和劉鴻福,2011).以上研究工作大多基于BP神經網絡(BPNN),為進一步深入研究神經網絡的電阻率成像反演提供了堅實的理論和實踐基礎.雖然BP神經網絡在求解電阻率反演問題時得到了廣泛的應用,但是它也存在一些不足,具體表現(xiàn)在:(1)對初始權值敏感,易陷入局部極??;(2)訓練易停滯于誤差梯度曲面的平坦區(qū),收斂緩慢甚至不能收斂;(3)隱層和隱節(jié)點數(shù)目難以確定,沒有普遍適應的規(guī)律可循;(4)存在過擬合和過訓練的問題.

RBF神經網絡與BP神經網絡相比,具有最佳逼近的特性,有效地改善了局部極小的問題,同時RBF神經網絡拓撲結構緊湊,學習速度快,具有自組織和自適應的特征,正在越來越多的領域(齊瑋等,2010;趙海娟等,2008)被用來進行地球物理資料的分析與解釋.由于以上文獻中均使用Matlab自帶的RBF函數(shù)進行建模,無法對RBF神經網絡的不同學習算法進行分析和比較,具有一定的局限性.學習算法是影響RBF神經網絡性能的最重要因素,本文根據(jù)ERT反演的非線性特征提出了一種基于漢南-奎因信息準則(Hannan-Quinn Criterion,HQC)(Hannan and Quinn,1979)的OLS學習算法(HQOLS),該算法通過計算并選擇HQC的最小值來確定RBF網絡結構,能夠在訓練精度和泛化性能之間取得較好的均衡,同時避免了傳統(tǒng)OLS學習算法中的閾值參數(shù)設定,具有較強的實用性.通過分析和比較HQOLS算法與其他RBFNN學習算法對二維電阻率層析成像反演結果的影響,建立了優(yōu)化的RBFNN電阻率層析成像反演模型.數(shù)值分析和模型仿真的結果表明,該方法學習速度和反演精度優(yōu)于單隱層和雙隱層的BP神經網絡反演,成像質量優(yōu)于傳統(tǒng)最小二乘法反演.

2 RBF神經網絡

RBF神經網絡是一種前饋神經網絡,其網絡結構主要由輸入層、單隱含層和輸出層構成.RBF神經網絡的基本思想是:用徑向基作為隱單元的“基”構成隱藏層空間,隱含層對輸入矢量進行變換,將低維的模式輸入數(shù)據(jù)變換到高維空間中,使得在低維空間內的線性不可分問題在高維空間內線性可分(史峰等,2010).RBF神經網絡的結構如圖1所示.

圖1 三層RBF網絡結構Fig.1 Three-layer structure of the RBF neural network

圖1中RBF神經網絡的結構為n-h-m,其中x= (x1,x2,…,xn)T為網絡的輸入矢量,w∈Rh×m為輸出權矩陣,b= (b1,b2,…,bm)T為輸出單元偏移,y= (y1,y2,…,ym)T為網絡輸出,φi(·)為第i個隱節(jié)點的激活函數(shù),Σ表示輸出層神經元采用線性激活函數(shù).

RBF神經網絡最顯著的特征是隱節(jié)點的基函數(shù)采用距離函數(shù),并使用徑向基函數(shù)作為激活函數(shù).若激活函數(shù)φi(·)采用高斯函數(shù),則第i個隱節(jié)點的輸出為:

其中網絡第i個隱節(jié)點的徑向基函數(shù)中心ci=[ci1,ci2,…,cin],σi為網絡的徑向基函數(shù)寬度.RBF神經網絡的第j個輸出可以表示為:

3 基于HQC的OLS學習算法

由RBF神經網絡的結構可知,決定RBF神經網絡性能的主要參數(shù)為隱層神經元的個數(shù)及中心,基函數(shù)寬度和輸出權值.對于給定的訓練樣本,RBF神經網絡主要通過學習算法來確定網絡的結構和進行參數(shù)修正,因此選擇合適的學習算法是設計RBF神經網絡的重要前提.

3.1 正交最小二乘(OLS)學習算法

Chen等(1991,1992)提出的Orthogonal Least Squares(OLS)學習算法將RBF神經網絡的中心選擇歸結為線性回歸中回歸子的選擇問題,根據(jù)設定的閾值來確定回歸子數(shù),進而求解出網絡權值.該算法能夠有效地限制RBF神經網絡的規(guī)模并避免隨機選擇中心帶來的數(shù)值病態(tài)問題,其基本算法的求解過程如下:

將RBFNN看作以下線性回歸模型:

式中d(t)為期望輸出,pi(t)為回歸算子,對應隱層神經元輸出,θi為權值參數(shù),ε(t)為網絡輸出和實際輸出之間的誤差.

將式(3)寫成矩陣形式:

式(4)中各矩陣的構成為:

式(5)中A為M×M的三角矩陣,W為N×M正交矩陣,wi為其列向量,W滿足

H為對角元素為hi的對角矩陣.令Aθ=g,則式(4)可改寫為:

使用經典的Gram-Schmidt正交分解法即可求解式(8)進而求解權矩陣,其計算A的一列和正交化P的過程如下:

定義誤差下降率:

則根據(jù)給定的訓練精度閾值ρ,計算每個正交向量wi的[err]i值,并從大到小排列,從隊列的第一個開始選?。踖rr]i,并對其進行求和直到滿足:

式(11)中Ms為最終選擇的回歸子個數(shù),也就是隱節(jié)點中心數(shù)目.

3.2 基于HQC的OLS算法

雖然OLS算法采用正交化的方法獨立計算回歸子對輸出的貢獻,對中心的選擇簡單有效,但是訓練精度閾值ρ需人為設定,其值過大則無法保證訓練精度,過小則可能產生過擬合(Over-Fitting)問題,需要反復驗證,降低了算法效率.信息準則(Information Criterion)是衡量統(tǒng)計模型擬合優(yōu)良性的一種標準,被廣泛地應用于RBF模型性能的衡量和評價(Ghodsi and Schuurmans,2003;Kokshenev and Padua Braga,2010;Zhou etal.,2011).常見的信息準則包括赤池信息準則(Akaike Information Criterion,AIC)(Akaike,1974),貝葉斯信息準則(Bayesian Information Criterion,BIC)(Schwarz,1978)和漢南-奎因信息準則(Hannan-Quinn Criterion,HQC),其中三者對模型復雜度的懲罰強度由弱到強為AIC<HQC<BIC(Tu and Xu,2012).因此在RBF模型評估中,對于已知訓練樣本,AIC具有更好的訓練精度,BIC具有更精簡的模型結構,而HQC的擬合精度和泛化能力則更加均衡,更符合OLS算法在ERT反演中對模型評估的要求,所以本文采用HQC作為OLS算法的評估準則,其公式如下:

式中k為輸入的維數(shù),N為觀測樣本數(shù)量,lik為模型的最大似然估計.

高斯模型下,公式(12)可改寫為:

其具體的實現(xiàn)步驟如下:

(1)使用有限單元法(RES2DMOD軟件)產生訓練與測試數(shù)據(jù)集,初始化RBFNN(歸一化數(shù)據(jù),設定擴展常數(shù)和初始化隱層結構等),使用訓練數(shù)據(jù)集進行學習.

(2)根據(jù)OLS算法求解第j次選擇回歸子時的中心位置和權值,并計算當前網絡的樣本標準差:

式中N為訓練集的樣本個數(shù),Yi為第i個樣本的理想輸出值,yi為第i個樣本的實際輸出值.

(3)計算j個隱節(jié)點時的HQC值,其中用隱節(jié)點的個數(shù)作為評價模型復雜度的參數(shù),計算公式如下:

(4)選擇HQC最小值時的隱層結構,并以此結構構造RBFNN.

(5)輸入測試數(shù)據(jù)集,使用構造好的RBFNN進行反演,輸出并評估反演結果.

圖2 基于HQOLS算法的RBFNN反演流程圖Fig.2 Flowchart for RBFNN inversion based on HQOLS algorithm

本文中通過采用HQOLS學習算法的RBFNN對采集的視電阻率樣本數(shù)據(jù)進行訓練,記錄不同隱節(jié)點數(shù)目時的HQC值曲線如圖3,從圖3中可得到隱節(jié)點數(shù)目為132時的網絡為HQOLS算法選擇的最優(yōu)RBFNN,其HQC值為-1.7382×104,為HQC曲線的最小值.

圖3 HQC曲線Fig.3 HQC curve with different numbers of hidden layer nodes

4 二維電阻率層析成像RBFNN反演建模

針對電阻率反演的神經網絡建模,目前的文獻中主要有兩種方法,Neyamadpour等(2009)使用采集視電阻率的水平位置、垂直位置和視電阻率值為輸入節(jié)點,對應位置的模型參數(shù)(真電阻率)值為輸出節(jié)點,將每次測量的所有數(shù)據(jù)點設為一個數(shù)據(jù)集進行訓練.其特點是神經網絡的結構簡單(輸入節(jié)點數(shù)量為3,輸出節(jié)點數(shù)量為1)、訓練迅速,但是由于視電阻率和真電阻率一一對應,無法充分反映視電阻率是電場作用范圍內地下電性不均勻體的綜合反映這一本質特征;徐海浪(2006)考慮到上述缺點,將所有測量的視電阻率作為輸入節(jié)點,所有模型參數(shù)作為輸出節(jié)點,但輸入輸出節(jié)點數(shù)量巨大(輸入節(jié)點990個,輸出節(jié)點1062個),因此采用了3隱含層的BP神經網絡,而且3隱含層的節(jié)點數(shù)分別為200、160、200.如此大規(guī)模的神經網絡不僅建立需要通過大量的測試來確定隱含層的最優(yōu)節(jié)點數(shù)、而且訓練和測試需要更多的數(shù)據(jù)和時間.

對于RBF神經網絡,以上兩種建模方式均有不足:Neyamadpour采用的建模方法訓練樣本數(shù)過多,這將導致RBF神經網絡的學習速度緩慢,網絡結構臃腫,泛化能力差;徐海浪采用的建模方法由于輸入輸出節(jié)點數(shù)量過多,RBF神經網絡的單隱含層結構無法保證較快的收斂,達到有效的訓練精度.本文綜合考慮以上兩種建模方式的優(yōu)缺點,采取以下建模方式:將采集并預處理后的視電阻率數(shù)據(jù)按分布區(qū)域分組,以每個分組數(shù)據(jù)為RBFNN的一個訓練樣本,同時允許不同樣本在相鄰處存在數(shù)據(jù)重疊,分組區(qū)域和樣本重疊的大小視訓練數(shù)據(jù)的實際規(guī)模而定.該建模方式既考慮了相鄰視電阻率數(shù)據(jù)與真電阻率之間的相互影響,又控制了訓練樣本的輸入輸出節(jié)點規(guī)模,能夠較好地配合RBF神經網絡對二維電阻率層析資料進行反演.

為了驗證不同學習算法對RBF神經網絡反演能力的影響,本文采用溫拿-斯倫貝格(Wenner-Schlumberger)裝置進行測量,測量電極為37個,極距1m,第一層可采集34個數(shù)據(jù)點,以下各層依次遞減,共采集15層300個數(shù)據(jù)點.通過采用上述的建模方式,經過測試,本文中RBF神經網絡輸入節(jié)點數(shù)為45個,輸出節(jié)點數(shù)為15個,每一次測量可獲得16組數(shù)據(jù).網絡的訓練數(shù)據(jù)通過改變不同異常體的位置、大小和形態(tài)來獲得,圖4為部分用于訓練的樣本模型.

其中訓練樣本應盡可能涵蓋反演中異常體的形態(tài)和大小,測試樣本應與反演目標較為接近,圖5為部分用于測試的樣本模型.上述訓練和測試的樣本模型背景電阻率均為100Ωm,異常體電阻率均為500Ωm.

根據(jù)以上的原則,共獲取40個訓練樣本,分為640組訓練數(shù)據(jù).同時提供10個測試樣本,160組測試數(shù)據(jù),測試數(shù)據(jù)均未參加網絡訓練.

RBF神經網絡現(xiàn)有的學習算法分為離線學習和在線學習兩類,其中離線學習方法主要適用于時不變模型,由于本文主要分析特定裝置下的二維電阻率數(shù)據(jù)反演,因此使用離線學習方法來訓練RBF神經網絡.離線學習將RBFNN的訓練過程在時間上分成幾個獨立的階段:首先要收集訓練樣本,然后采用不同形式的聚類方法或其他方法從樣本中確定RBF神經網絡的結構并獲取對網絡性能有密切影響的各隱層單元“中心”,最后是校正網絡輸出層權值.其主要的代表包含聚類算法(Moody and Darken,1989)、梯度算法(Rumelhart etal.,1988)和正交最小二乘算法(Chen etal.,1991).

分別使用以上三種算法和HQOLS算法對上述樣本進行訓練和測試,由于算法的實現(xiàn)方式不同,各算法所需設置的參數(shù)也有所不同,其中根據(jù)數(shù)據(jù)分組,四種算法的輸入維數(shù)均為45,輸出維數(shù)均為15;聚類方式和梯度方式隱節(jié)點經優(yōu)選比較后設置為200,OLS算法的隱節(jié)點數(shù)目由目標誤差自適應地決定;聚類算法的隱節(jié)點重疊系數(shù)設置為1;梯度算法的學習系數(shù)、訓練次數(shù)和目標誤差分別設置為:0.025、1000、0.01;OLS算法的隱節(jié)點擴展常數(shù)和目標誤差分別設置為:0.6和0.01;HQOLS算法不需要設置目標誤差,擴展常數(shù)設置為0.6.其具體的算法參數(shù)設置如表1所示.

圖4 用于訓練的樣本模型Fig.4 Sample models for RBFNN training

圖5 用于測試的樣本模型Fig.5 Sample model for RBFNN test

表1 不同學習算法的參數(shù)設置Table 1 Parameters for different learning algorithms

表2 不同學習算法的性能比較Table 2 Comparisons of performances of different learning algorithms

RBF神經網絡通過四種學習算法的訓練和測試,其隱層結構,均方誤差(Mean Squared Error,MSE)的平均值和運行時間如表2所示.從表2中可以看出,在訓練和測試誤差方面,在40個給定的訓練樣本中OLS算法的訓練誤差最小,達到了訓練的目標誤差0.01,其主要的原因是OLS算法隨著隱節(jié)點數(shù)目的增多,訓練誤差能夠得到有效的抑制.事實上,進一步增加OLS算法的隱節(jié)點數(shù)目還將進一步減小訓練誤差,但此時網絡可能會出現(xiàn)過擬合,泛化能力變差;聚類算法和HQOLS算法總體來說也能夠達到較低的均方誤差,其平均均方誤差均低于0.02.在10個測試樣本中HQOLS算法和聚類算法均顯示出較強的泛化能力,其測試誤差相當,均為0.048左右,同時HQOLS算法使用HQC準則限制了RBFNN的網絡規(guī)模,其隱節(jié)點的選擇更加合理;OLS算法也能夠體現(xiàn)出較好的泛化能力,其平均均方誤差低于0.1;梯度算法的訓練和測試誤差均比較大,學習效果和泛化能力不佳,這是由于梯度算法采用類似于BP神經網絡的參數(shù)學習機制,但是其單隱層的網絡結構過于簡單且輸出采用線性方式,無法較好地擬合訓練樣本的原因.在隱層結構和運行時間方面,聚類算法的效率最高,僅3.76s就完成了運算;OLS算法運行至316隱節(jié)點時,需要29.64s,但能夠達到比聚類算法更低的訓練均方誤差;HQOLS算法由于需要計算HQC的最小值,所以需要比OLS算法更多的運行時間,但是其泛化性能優(yōu)于OLS算法,同時HQOLS算法所獲得的RBFNN結構最為精簡;對于設定的目標誤差,梯度算法一直無法達到,所以執(zhí)行到了最大訓練次數(shù),所需時間最多,但性能最差.由于聚類算法需要反復測試來獲得最優(yōu)隱節(jié)點數(shù)目,而OLS算法則需要設定合適的訓練精度閾值,綜合考慮RBF神經網絡的構造時間、訓練精度和泛化能力,本文采用HQOLS算法作為RBF神經網絡的學習算法,構造電阻率層析成像的非線性反演模型.

5 數(shù)據(jù)仿真與模型反演

為了驗證上述建模方式的反演性能,將RBFNN與BPNN的反演結果進行比較,其訓練和測試數(shù)據(jù)如4節(jié)所述,考慮到BP網絡結構對其反演性能的影響,分別構造了單隱層(隱節(jié)點數(shù)為120)、雙隱層(隱節(jié)點數(shù)為68~38)的BPNN,訓練算法使用RPROP,訓練次數(shù)為1000;RBFNN采用基于HQOLS的學習算法.在訓練階段三種結構的神經網絡均能得到收斂,其中RBFNN的訓練時間最短,也達到了最高的訓練精度0.0156;雙隱層BPNN也能夠達到較好的訓練效果,但訓練時間較長;單隱層BPNN因為結構簡單,訓練時間較短,但是有相對較大的訓練誤差.三種結構的神經網絡的測試和訓練結果具體比較如表3所示,可以看出采用HQOLS學習算法的RBFNN較單隱層和雙隱層的BPNN具有更低的訓練和測試均方誤差值,通過與表2中數(shù)據(jù)進行比較,采用聚類學習算法和OLS學習算法的RBFNN訓練誤差和測試誤差也低于BPNN,且訓練時間更短,驗證了RBFNN在求解反演問題中的快速學習和避免局部極小值的能力;另一方面,采用HQOLS學習算法的RBFNN較采用RPROP算法的BPNN算法具有更優(yōu)的決定系數(shù)值R2,表明其反演的結果與理論數(shù)據(jù)更加接近,誤差波動小,具有較好的泛化性能和較高的穩(wěn)定性.

為了進一步驗證反演算法的可行性,在兩個不同的異常體模型下,使用采用HQOLS學習算法的RBFNN和最小二乘法(RES2DINV軟件的反演結果)、BPNN進行了反演對比.

表3 不同神經網絡的性能比較Table 3 Comparisons of performance in different neural networks

用于驗證的模型1為一個不規(guī)則的高阻異常體.模型1的基本參數(shù)如下:采用溫拿-斯倫貝格裝置,每排含37個電極,15層電阻率數(shù)據(jù),電極距為1.0m,圍巖電阻率為100Ωm,高阻異常體電阻率為500Ωm,頂部埋深為1m.用該模型的正演視電阻率作為RBFNN網絡的輸入,對網絡進行反演測試,網絡輸出的反演結果如圖6所示.

從反演的結果可以看出,最小二乘法和HQOLSRBFNN反演算法均能夠較為準確地反映高阻異常體的位置和電阻率,但HQOLS-RBFNN反演算法的結果更加精確,異常體的形狀和輪廓更加清晰,其結果優(yōu)于最小二乘法的反演結果.從計算時間上來看,HQOLS-RBFNN反演算法的反演時間為37.1s(含訓練學習時間35.4s和反演測試時間1.7s),最小二乘法的反演時間為2.4s,僅從單個模型的反演時間而言,最小二乘法的反演速度更快;但是對于多個模型的反演來說,由于RBFNN訓練好以后就可以直接反演,不需要重復訓練,因此RBFNN也具有較高的反演效率.

用于驗證的模型2為3個異常體的組合模型,用來檢驗RBFNN和BPNN反演結果之間的差異.模型2的基本參數(shù)如下:采用溫拿-斯倫貝格裝置,每排含37個電極,15層電阻率數(shù)據(jù),電極距為1.0m,圍巖電阻率為100Ωm,低阻異常體大小為1.5m×3m,電阻率為10Ωm,其頂部埋深為1.5m;高阻異常體1的大小為1.5m×4m,電阻率為1000Ωm,其頂部埋深為1m;高阻異常體2的大小為1.5m×2m,電阻率為500Ωm,其頂部埋深為1m.用該模型的正演視電阻率作為RBFNN網絡的輸入,對網絡進行反演測試,網絡輸出的反演結果如圖7所示.

圖6 模型1的模型示意圖及不同方法的反演結果(a)模型1示意圖;(b)HQOLS-RBFNN反演結果;(c)RES2DINV軟件反演結果.Fig.6 Model 1and inversion results by different methods(a)Model 1;(b)Inversion result of HQOLS-RBFNN;(c)Inversion result of RES2DINV.

從反演結果來看,3種神經網絡反演均能夠較為準確地反演出異常體的存在和位置.相對而言,單隱層BPNN的反演結果在低阻異常體形態(tài)的重構上存在著較大的失真,其高阻異常體2的電阻值也與模型存在著一定的差異;雙隱層BPNN的反演結果較單隱層BPNN得到了改善,但低阻異常體的形態(tài)依然存在較大的失真;HQOLS-RBFNN反演算法的高低阻異常體的位置準確、形態(tài)與間隔清晰、電阻值與實際模型更加接近,其結果優(yōu)于BPNN的反演結果,同時該結果也與前面數(shù)據(jù)仿真的結論相吻合,驗證了算法的性能.通過對以上反演結果進行更深入的分析可知,本文采用的RBFNN和BPNN在學習方式上有著較大的區(qū)別,基于OLS算法的RBFNN是通過將典型樣本映射成隱層結構來進行學習,而基于梯度法的BPNN是通過調整權值以將樣本誤差均勻分配至各個隱節(jié)點來進行學習.因此,當訓練樣本與測試模型接近時,RBFNN反演的精度更高,速度更快;反之當訓練樣本與測試模型差異較大時,BPNN反演的結果將相對更加準確.

6 結論

本文使用RBF神經網絡來實現(xiàn)電阻率層析成像的非線性反演,比較了不同學習算法在RBFNN反演中的性能和效率.通過綜合考慮神經網絡的擬合能力和模型復雜度,提出了一種基于漢南-奎因信息準則的OLS學習算法,該算法不需要進行參數(shù)閾值的設定,能自適應選擇RBFNN的網絡結構,均衡了網絡的訓練精度和泛化能力,具有較好的反演性能.神經網絡非線性反演建模的核心問題是設計神經網絡的隱層結構和規(guī)劃神經網絡的訓練樣本,其中隱層結構與反演問題的復雜度相對應,訓練樣本與反演的異常體特征相對應.BPNN中,隱節(jié)點數(shù)的選擇沒有普適的方法,主要采用湊試法來確定;RBFNN中,OLS算法和本文的HQOLS算法均可較好地確定合適的隱節(jié)點數(shù).訓練樣本的規(guī)劃須盡可能涵蓋可能的異常體特征,但又不能過多,以免造成神經網絡結構的臃腫和訓練效率的降低,本文采用的區(qū)域分組法將每個訓練樣本細分為多組訓練數(shù)據(jù),可以在訓練樣本的數(shù)量和反演速度中取得較好的均衡.

數(shù)據(jù)仿真和模型反演的結果表明:(1)合理的神經網絡反演建模,能夠使得訓練出來的RBFNN基本準確地反映電阻率層析成像的輸入輸出關系,取得較好的反演效果;(2)不同學習算法對反演的結果有較大的影響,合理地選擇RBF學習算法是構造RBFNN反演模型的關鍵;(3)不同的信息準則對于神經網絡隱層結構的懲罰程度不一,在實際應用中應根據(jù)反演的具體需求和樣本的數(shù)量來進行選擇.在本文的訓練和測試條件下,HQOLS-RBFNN較BPNN的誤差更小,效率更高;較傳統(tǒng)的最小二乘反演成像更加清晰準確;(4)HQOLS學習算法的隱節(jié)點中心為訓練樣本的子集,基帶寬為常數(shù),如果和其他的算法相結合(例如:遺傳算法,粒子群算法等)對中心和基帶寬進行進一步優(yōu)化可以獲得更精確的反演結果.

圖7 模型2的模型示意圖及不同方法的反演結果(a)模型2示意圖;(b)HQOLS-RBFNN反演結果;(c)雙隱層BPNN反演結果;(d)單隱層BPNN反演結果.Fig.7 Model 2and inversion results by different methods(a)Model 2;(b)Inversion result of HQOLS-RBFNN;(c)Inversion result of double hidden-layers BPNN;(d)Inversion result of single-hidden layer BPNN.

當然,實際的地電模型非常的復雜,在針對實測數(shù)據(jù)進行反演時,RBFNN反演還存在以下一些問題:(1)當實際異常體的電阻率參數(shù)遠大于(小于)訓練樣本中的異常體電阻率時,其誤差會在反演結果中成倍的放大,造成電阻率值的解釋錯誤;(2)當實際異常體的大小與訓練樣本中的異常體大小有較大差異時,反演結果中異常體的形態(tài)會有較大的失真;以上這些問題均是由于神經網絡是基于對樣本學習的反演方法造成的,在BPNN和RBFNN中均存在,一種可以采用的解決方法是先用最小二乘法進行反演,得到勘探區(qū)域中大致的異常體形態(tài)和電阻率值范圍,再以此構造神經網絡訓練樣本進行學習和反演以得到更加精確的反演結果.總之,RBFNN是一種新興的ERT非線性反演技術,對于規(guī)模更大、參數(shù)更多的反演問題,RBFNN反演的理論研究和實際應用還需在以后的工作中不斷完善.

Akaike H.1974.A new look at the statistical model identification.IEEE Transactions on Automatic Control,19(6):716-723.

Chen S,Cowan C,Grant P.1991.Orthogonal least squares learning algorithm for radial basis function networks.IEEE Transactions on Neural Networks,2(2):302-309.

Chen S,Grant P,Cowan C.1992.Orthogonal least-squares algorithm for training multioutput radial basis function networks.Radar and Signal Processing,IEE Proceedings F,139(6):378-384.

El-Qady G,Ushijima K.2001.Inversion of DC resistivity data using neural networks.Geophysical Prospecting,49(4):417-430.

Ghodsi A,Schuurmans D.2003.Automatic basis selection techniques for RBF networks.Neural Networks,16(5-6):809-816,doi:10.1016/s0893-6080(03)00118-7.

Hannan E J,Quinn B G.1979.The determination of the order of an autoregression.Journal of the Royal Statistical Society.Series B(Methodological),41(2):190-195.

Ho T L.2009.3-D inversion of borehole-to-surface electrical data using a back-propagation neural network.Journal of Applied Geophysics,68(4):489-499,doi:10.1016/j.jappgeo.2008.06.002.

Kokshenev I,Padua Braga A.2010.An efficient multi-objective learning algorithm for RBF neural network.Neurocomputing,73(16-18):2799-2808,doi:10.1016/j.neucom.2010.06.022.

Lu Y L,Wang X T,Wang R,etal.1999.The simulated annealing method of electrical resistivity tomography.Chinese J.Geophys.(in Chinese),42(S1):225-233.

Moody J,Darken C J.1989.Fast learning in networks of locallytuned processing units.Neural Computation,1(2):281-294,doi:10.1162/neco.1989.1.2.281.

Neyamadpour A,Wan Abdullah W A T,Taib S,etal.2010.3D inversion of DC data using artificial neural networks.Studia Geophysica et Geodaetica,54(3):465-485.

Neyamadpour A,Taib S,Wan Abdullah W A T.2009.Using artificial neural networks to invert 2DDC resistivity imaging data for high resistivity contrast regions:A MATLAB application.Computers &Geosciences,35(11):2268-2274,doi:10.1016/j.cageo.2009.04.004.

Qi W,Wang X F,Li X H,etal.2010.A real time K-indices scaling method based on radial basis neural network.Chinese J.Geophys.(in Chinese),53(1):147-155.

Rumelhart D E,Hinton G E,Williams R J.1988.Learning Representations by Back-Propagating Errors.Cambridge,MA,USA:MIT Press.

Schwarz G.1978.Estimating the dimension of a model.The Annals of Statistics,6(2):461-464.

Shi F,Wang X C,Yu L,etal.2010.Neural Network Case Study.Beijing:Beijing University of Aeronautics &Astronautics Press.

Shima H,Sakayama T.1987.Resistivity tomography:An approach to 2-D resistivity inverse problems.SEG Technical Program Expanded Abstracts,59-61,doi:10.1190/1.1892038.

Singh U K,Tiwari R K,Singh S B.2013.Neural network modeling and prediction of resistivity structures using VES Schlumberger data over a geothermal area.Computers &Geosciences,52:246-257,doi:10.1016/j.cageo.2012.09.018.

Srinivas Y,Raj A S,Oliver D H,etal.2012.A robust behavior of Feed Forward Back propagation algorithm of Artificial Neural Networks in the application of vertical electrical sounding data inversion.Geoscience Frontiers,3(5):729-736,doi:10.1016/j.gsf.2012.02.003.

Tu S,Xu L.2012.A theoretical investigation of several model selection criteria for dimensionality reduction.Pattern Recognition Letters,33(9):1117-1126,doi:10.1016/j.patrec.2012.01.010.Xu H L,Wu X P.2006.2Dresistivity inversion using the neural network method.Chinese J.Geophys.(in Chinese),49(2):584-589.

Zhang L Y,Liu H F.2011.The application of ABP method in highdensity resistivity method inversion.Chinese J.Geophys.(in Chinese),54(1):227-233.

Zhao H J,Wang J L,Zong W G,etal.2008.Prediction of the smoothed monthly mean sunspot numbers by means of radial basis function neural networks.Chinese J.Geophys.(in Chinese),51(1):31-35.

Zhou P,Li D H,Wu H,etal.2011.The automatic model selection and variable kernel width for RBF neural networks.Neurocomputing,74(17):3628-3637,doi:10.1016/j.neucom.2011.07.011.

附中文參考文獻

盧元林,王興泰,王若等.1999.電阻率成像反演中的模擬退火方法.地球物理學報,42(S1):225-233.

齊瑋,王秀芳,李夕海等.2010.一種基于徑向基神經網絡的地磁場K指數(shù)實時標定方法.地球物理學報,53(1):147-155.

史峰,王小川,郁磊等.2010.MATLAB神經網絡30個案例分析.北京:北京航空航天大學出版社.

徐海浪,吳小平.2006.電阻率二維神經網絡反演.地球物理學報,49(2):584-589.

張凌云,劉鴻福.2011.ABP法在高密度電阻率法反演中的應用.地球物理學報,54(1):227-233.

趙海娟,王家龍,宗位國等.2008.用徑向基函數(shù)神經網絡方法預報太陽黑子數(shù)平滑月均值.地球物理學報,51(1):31-35.

猜你喜歡
隱層訓練樣本電阻率
人工智能
基于RDPSO結構優(yōu)化的三隱層BP神經網絡水質預測模型及應用
人民珠江(2019年4期)2019-04-20 02:32:00
寬帶光譜成像系統(tǒng)最優(yōu)訓練樣本選擇方法研究
融合原始樣本和虛擬樣本的人臉識別算法
電視技術(2016年9期)2016-10-17 09:13:41
基于稀疏重構的機載雷達訓練樣本挑選方法
三維電阻率成像與高聚物注漿在水閘加固中的應用
隨鉆電阻率測井的固定探測深度合成方法
海洋可控源電磁場視電阻率計算方法
基于近似結構風險的ELM隱層節(jié)點數(shù)優(yōu)化
計算機工程(2014年9期)2014-06-06 10:46:47
最優(yōu)隱層BP神經網絡的滾動軸承故障診斷
临湘市| 旌德县| 彰化县| 镶黄旗| 昭苏县| 临清市| 宁河县| 建宁县| 宜良县| 定陶县| 西乡县| 泰兴市| 获嘉县| 垫江县| 都江堰市| 搜索| 固安县| 静宁县| 宜章县| 石城县| 如东县| 潞城市| 合水县| 安仁县| 马鞍山市| 冀州市| 浦县| 阜康市| 四川省| 昌黎县| 荔浦县| 康马县| 宿州市| 大理市| 高平市| 上犹县| 高要市| 永德县| 平原县| 如东县| 本溪市|