国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種粗糙神經(jīng)網(wǎng)絡(luò)的Simulink仿真研究

2020-09-29 07:51常志玲趙旭鴿
電腦知識(shí)與技術(shù) 2020年17期
關(guān)鍵詞:神經(jīng)網(wǎng)絡(luò)

常志玲 趙旭鴿

摘要:本粗糙神經(jīng)網(wǎng)絡(luò)由三層構(gòu)成,其輸入層由上下兩個(gè)經(jīng)典神經(jīng)元構(gòu)成的粗糙神經(jīng)元組成,并與隱層之間為全連接,隱層與輸出層也為全連接,用離散并約簡后的一對(duì)輸入向量的邊界值作為輸入向量。對(duì)于這種粗糙神經(jīng)網(wǎng)絡(luò),利用Simulink工具進(jìn)行了仿真,并詳細(xì)敘述了整個(gè)建模過程,用經(jīng)典實(shí)例進(jìn)行了驗(yàn)證,實(shí)例表明本建模工具能夠快速準(zhǔn)確地處理復(fù)雜的粗糙神經(jīng)網(wǎng)絡(luò)問題,并且參數(shù)設(shè)置也比較方便。

關(guān)鍵詞:變精度粗糙集;神經(jīng)網(wǎng)絡(luò);Simulink;分類算法

中圖分類號(hào):TP391 ? ? ? ?文獻(xiàn)標(biāo)識(shí)碼:A

文章編號(hào):1009-3044(2020)17-0007-03

Abstract: A rough neural network is made up of three layers, input layers are made up rough neurons, and each rough neuron is made up of a pair of typical neurons, and each input vector is a pair of boundary values of discrete interval of each condition attribute. The rough neurons of input layers and the typical neurons of hidden layers are linked completely, and the typical neurons of hidden layers and the typical neurons of output layers are linked completely too. The inconsistent decision table is reduced by the reduction algorithm based on variable precision rough set, and the input vectors of neural network is reduced on a large scale. It is simulinked by matlab/simulink. The experimental results show that the Simulink tool can deal with the complex rough neural network problem quickly and accurately, and the parameter setting is convenient.

Key words: variable precision rough; neural network; simulink; classification algorithm

在處理現(xiàn)實(shí)中的不完整性和不確定性信息方面,最有效的工具就是粗糙集理論[1]和神經(jīng)網(wǎng)絡(luò)[2]。粗糙集理論在處理不確定性數(shù)值方面具有強(qiáng)大分析能力,神經(jīng)網(wǎng)絡(luò)在處理問題方面具有高速尋找優(yōu)化解的能力。但是當(dāng)問題比較復(fù)雜,神經(jīng)網(wǎng)絡(luò)輸入數(shù)據(jù)的維數(shù)就會(huì)很高,結(jié)構(gòu)就比較復(fù)雜,而粗糙集理論能很好地約簡掉輸入數(shù)據(jù)的冗余,能夠把復(fù)雜問題簡單化。另外粗糙集理論的泛化性能和容錯(cuò)性比較弱,但是神經(jīng)網(wǎng)絡(luò)的泛化能力、自組織能力和抗干擾能力強(qiáng),所以二者結(jié)合具有很好的互補(bǔ)性。因此很多人把二者結(jié)合起來進(jìn)行研究,用于改善神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)[3,4],并取得了很好的性能??墒沁@些成果幾乎都把神經(jīng)網(wǎng)絡(luò)的輸入向量問題考慮在外,實(shí)際上神經(jīng)網(wǎng)絡(luò)的預(yù)測性能直接受輸入向量的影響。

目前,主要有兩類粗糙集理論和神經(jīng)網(wǎng)絡(luò)的結(jié)合:一類結(jié)合由粗糙集理論先對(duì)數(shù)據(jù)約簡,去掉冗余信息,然后再構(gòu)造神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練[5];另一類結(jié)合通過構(gòu)造粗神經(jīng)元[6],增加系統(tǒng)的泛化能力和容錯(cuò)性能。但是兩種網(wǎng)絡(luò)結(jié)構(gòu)都沒有考慮輸入向量的選擇問題,因此有時(shí)輸入向量的選擇不合理也會(huì)造成訓(xùn)練結(jié)果的不理想。文獻(xiàn)[7]考慮了神經(jīng)網(wǎng)絡(luò)的輸入向量的選擇,構(gòu)造出一種新的粗糙神經(jīng)網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu),由粗糙神經(jīng)元和經(jīng)典神經(jīng)元混合組成,不但考慮了神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu),而且對(duì)輸入向量做了詳細(xì)研究,能夠克服現(xiàn)有方法的缺點(diǎn)。本文在此基礎(chǔ)上使用Matlab中的Simulink實(shí)現(xiàn)了建模,并敘述了詳細(xì)的過程。

1 粗糙神經(jīng)網(wǎng)絡(luò)

粗糙神經(jīng)網(wǎng)絡(luò)(Rough Neural Network, RNN)[8]由粗糙神經(jīng)元和經(jīng)典神經(jīng)元彼此互相連接而成。一個(gè)粗糙神經(jīng)元[r]在神經(jīng)網(wǎng)絡(luò)中由一對(duì)神經(jīng)元組成,其中一個(gè)神經(jīng)元[r]稱為上邊界,另一個(gè)神經(jīng)元[r]稱為下邊界。兩個(gè)粗糙神經(jīng)元之間有2個(gè)連接或4個(gè)連接,因此共有3種可能的連接,如圖1所示。上下邊界神經(jīng)元之間的連線表示這兩個(gè)神經(jīng)元信息的交換,其中(a)圖有4條連線,表示粗糙神經(jīng)元[r]和粗糙神經(jīng)元[s]之間為全連接,(b)圖和(c)圖都只有2條連線,表示有兩種連接,其中(b)圖表示粗糙神經(jīng)元[r]激勵(lì)粗糙神經(jīng)元[s],(c)圖表示粗糙神經(jīng)元[r]抑制粗糙神經(jīng)元[s]。

粗糙神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)和經(jīng)典神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)一樣由輸入層、隱層和輸出層組成,只是其神經(jīng)元除了經(jīng)典神經(jīng)元還有粗糙神經(jīng)元,外界的信息通過輸入層輸入,經(jīng)過網(wǎng)絡(luò)訓(xùn)練后由輸出層輸出到外界環(huán)境。

2粗糙神經(jīng)網(wǎng)絡(luò)構(gòu)造描述

為了簡化神經(jīng)網(wǎng)絡(luò)的復(fù)雜性,首先把輸入的屬性集合進(jìn)行約簡,采用的算法是基于變精度粗糙集上下分布約簡[9],設(shè)約簡后有[m]個(gè)屬性,則輸入層L1構(gòu)造[m]個(gè)粗糙神經(jīng)元,由于本粗糙神經(jīng)網(wǎng)絡(luò)對(duì)輸入向量是有選擇性的,由每個(gè)條件屬性值經(jīng)離散后其區(qū)間的形成的一對(duì)邊界值作為輸入向量,如對(duì)象[i]在屬性[j]上經(jīng)離散后形成的區(qū)間為[[xij,xij]],其中[xij≤xij],那么在第[j]個(gè)粗糙神經(jīng)元輸入的數(shù)值為[xij=(xij,xij)]; 隱層L2由經(jīng)典神經(jīng)元構(gòu)成;L1和L2之間為全連接;輸出層L3也有經(jīng)典神經(jīng)元構(gòu)成,表示決策屬性值經(jīng)訓(xùn)練后的輸出,L2和L3也為全連接。所構(gòu)造的粗糙神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)如圖2,粗糙神經(jīng)網(wǎng)絡(luò)由三層構(gòu)成。具體算法的描述見文獻(xiàn)[7]。

3 粗糙神經(jīng)網(wǎng)絡(luò)Simulink仿真模型的建立

Matlab中的Simulink是非常有用的仿真工具,比如用在機(jī)器人等領(lǐng)域的仿真[10],就取得了很好的效果。目前采用的神經(jīng)網(wǎng)絡(luò)算法也很多,最常用的有BP算法,基于徑向基網(wǎng)絡(luò)的算法[11]。本粗糙神經(jīng)網(wǎng)絡(luò)根據(jù)圖2所示的粗糙神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu),使用Simulink所創(chuàng)建的粗糙神經(jīng)網(wǎng)絡(luò)模型如圖3所示,采用BP算法,其中的模塊設(shè)置為:SampleInputData輸入層模塊,為輸入學(xué)習(xí)模式提供輸入接口;InputWeightMatrix是權(quán)值模塊,輸入層L1到隱層L2的連接權(quán)由初始權(quán)值隨機(jī)產(chǎn)生;隱層L2單元和輸出層L3單元的閾值由Middle Threshod產(chǎn)生;隱層L2傳遞函數(shù)模塊是MiddleActiveFunction,采用tan-sigmond型函數(shù)tansig(),根據(jù)輸入層的輸出和權(quán)值求出隱層的輸入并求出隱層的輸出,使用Out1模塊存儲(chǔ)隱層輸出數(shù)據(jù);OutputWeightMatrix是權(quán)值模塊,初始權(quán)值隨機(jī)產(chǎn)生,為隱層到輸出層的連接權(quán)值;OutputActiveFunction是輸出層傳遞函數(shù)模塊,采用purelin()函數(shù),根據(jù)隱層的輸出和權(quán)值及閾值求出輸出層的輸入并求出輸出層實(shí)際輸出,并存儲(chǔ)在SampleOutputData模塊中,Sub減法模塊,用來實(shí)際輸出和期望輸出做比較求誤差,然后根據(jù)實(shí)際情況對(duì)權(quán)值和閾值進(jìn)行調(diào)整,進(jìn)行再次訓(xùn)練;RUNOut模塊是實(shí)際輸出和期望輸出的誤差分析模塊。直到訓(xùn)練到誤差在規(guī)定的范圍內(nèi),或滿足了訓(xùn)練的次數(shù)之后停止訓(xùn)練。

4實(shí)例分析

本實(shí)驗(yàn)對(duì)UCI[12]數(shù)據(jù)集進(jìn)行分析,選取葡萄酒數(shù)據(jù)樣本為實(shí)驗(yàn)數(shù)據(jù),其樣本共有178個(gè),每個(gè)樣本有條件屬性13個(gè),決策屬性1個(gè),并利用本算法進(jìn)行了規(guī)則獲取實(shí)驗(yàn)。不失一般性,本實(shí)驗(yàn)使用Rosetta工具從180個(gè)樣本中隨機(jī)選取60個(gè)樣本作為實(shí)驗(yàn)數(shù)據(jù),為了簡化實(shí)驗(yàn)過程,隨機(jī)選取Alcohol、Malic acid、Ash、Magnesium、Total phenols、Color intensity、Hue、Proline 8個(gè)條件屬性作為數(shù)據(jù)集的條件屬性集,每個(gè)屬性值都沒有缺失值且連續(xù),最終形成一不一致決策表。不失一般性,反復(fù)使用Rosetta隨機(jī)選取60個(gè)樣本中的36個(gè)樣本作為訓(xùn)練集,剩余24個(gè)樣本作為測試集。并且對(duì)所有樣本采用GDM方法進(jìn)行離散化,選取其中某一組的條件屬性離散化后的邊界值如表1所示,采用基于VPRS的上下分布約簡算法對(duì)訓(xùn)練集樣本進(jìn)行約簡。其中[β]的取值采用An[13]的方法,其取值為[0.5<β≤1],[β]為正確分類率。以[β∈(0.5,0.667]]作為例子,并使用如表1所示的約簡之后的邊界值作為每一個(gè)粗糙神經(jīng)元的輸入值。

針對(duì)本實(shí)例,使用圖3粗糙神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,由每個(gè)屬性的離散化后的邊界值組成的訓(xùn)練樣本記為S2,測試樣本記為T2,根據(jù)S2和T2的實(shí)際情況,S2的輸入樣本含有4個(gè)條件屬性,每個(gè)樣本有4對(duì)輸入向量,因此其中輸入層根據(jù)約簡屬性集屬性設(shè)置為4個(gè)粗糙神經(jīng)元,隱層神經(jīng)元個(gè)數(shù)根據(jù)輸入層神經(jīng)元的個(gè)數(shù)和隱層神經(jīng)元的個(gè)數(shù)的關(guān)系設(shè)置成9個(gè)神經(jīng)元,輸出層由決策屬性的取值決定,設(shè)置成3個(gè)神經(jīng)元,分別用輸出[[100]']表示輸出第1類,輸出[[010]']表示輸出第2類,輸出[[001]']表示輸出第3類。采用本粗糙神經(jīng)網(wǎng)絡(luò)BP算法對(duì)實(shí)例進(jìn)行訓(xùn)練,設(shè)定訓(xùn)練次數(shù)為1000,誤差精度為[10-6]。為了計(jì)算方便,避免由于各訓(xùn)練樣本的數(shù)量級(jí)差別很大以至于部分神經(jīng)元達(dá)到過飽和狀態(tài),所以對(duì)樣本的訓(xùn)練集和測試集進(jìn)行歸一化處理[14],其網(wǎng)絡(luò)訓(xùn)練誤差如圖4,經(jīng)過679步達(dá)到預(yù)期目標(biāo),經(jīng)分析可知,除了1個(gè)樣本外,其他樣本在[β∈(0.5,0.667]]之間都能正確分類,并且實(shí)際輸出和期望輸出的誤差趨近0,因此可以計(jì)算出其正確分類率達(dá)到95.83%。

5結(jié)束語

針對(duì)考慮了輸入向量的選擇的復(fù)雜粗糙神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),使用了Matlab中的Simulink工具對(duì)其進(jìn)行了建模,并詳細(xì)敘述了整個(gè)建模過程,用經(jīng)典實(shí)例進(jìn)行了驗(yàn)證,實(shí)例表明本建模工具能夠快速準(zhǔn)確地處理復(fù)雜的粗糙神經(jīng)網(wǎng)絡(luò)問題,并且參數(shù)設(shè)置也比較方便。

參考文獻(xiàn):

[1] Pawlak Z.Rough sets[J].International Journal of Computer & Information Sciences, 1982,11(5):341-356.

[2] 楊建剛.人工神經(jīng)網(wǎng)絡(luò)實(shí)用教程[M].杭州:浙江大學(xué)出版社,2001.

[3] 何明,李博,馬兆豐,等.粗糙集理論框架下的神經(jīng)網(wǎng)絡(luò)建模研究及應(yīng)用[J].控制與決策,2005,20(7):782-785.

[4] 許志興,丁運(yùn)亮,陸金桂.一種基于粗糙集理論的粗糙神經(jīng)網(wǎng)絡(luò)構(gòu)造方法[J].南京航空航天大學(xué)學(xué)報(bào),2001,33(4):355-359.

[5] 郭志軍,何昕,魏仲慧,等.一種基于粗糙集神經(jīng)網(wǎng)絡(luò)的分類算法[J].計(jì)算機(jī)應(yīng)用研究,2011,28(3):838-840,850.

[6] Liu H J,Tuo H Y,Liu Y C.Rough neural network of variable precision[J].Neural Processing Letters, 2004,19(1):73-87.

[7] 常志玲,王全喜.一種新的粗糙神經(jīng)網(wǎng)絡(luò)的構(gòu)造算法研究[J].計(jì)算機(jī)時(shí)代,2009(4):52-54.

[8] 王瑋,蔡蓮紅.基于粗集理論的神經(jīng)網(wǎng)絡(luò)[J].計(jì)算機(jī)工程,2001,27(5):65-67.

[9] 米據(jù)生,吳偉志,張文修.基于變精度粗糙集理論的知識(shí)約簡方法[J].系統(tǒng)工程理論與實(shí)踐,2004,24(1):76-82.

[10] 葉長龍,張思陽,于蘇洋,等.基于神經(jīng)網(wǎng)絡(luò)的全方位移動(dòng)機(jī)器人運(yùn)動(dòng)穩(wěn)定性研究[J].機(jī)器人,2019,41(4):443-451.

[11] 陳雅頌,汪曉銀,安子韓,等.PVDF分離膜性能徑向基網(wǎng)絡(luò)仿真模型的建立與應(yīng)用[J].長江大學(xué)學(xué)報(bào)(自科版),2018,15(17):9-14,4.

[12] The Center for Machine Learning and Intelligent Systems. UC Irvine Machine Learning Repository[DB/OL]. 2007-07-21/2007-10-07. http://archive.ics.uci.edu/ml/datasets.html.

[13] An Ai-jun, Shan Ning, Chan Christine et al. Discovering rules for water demand prediction: An enhanced rough-set approach[J]. Engineering Applications of Artificial Intelligence, 1996, 9(6):645-653.

[14] 柳小桐.BP網(wǎng)絡(luò)輸入層數(shù)據(jù)歸一化研究[J].機(jī)械工程與自動(dòng)化, 2010,6(3):122-123.

【通聯(lián)編輯:唐一東】

猜你喜歡
神經(jīng)網(wǎng)絡(luò)
基于遞歸模糊神經(jīng)網(wǎng)絡(luò)的風(fēng)電平滑控制策略
BP神經(jīng)網(wǎng)絡(luò)在路標(biāo)識(shí)別上的應(yīng)用研究
神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
基于Alexnet神經(jīng)網(wǎng)絡(luò)的物體識(shí)別研究
基于BP神經(jīng)網(wǎng)絡(luò)的旋轉(zhuǎn)血泵生理控制
基于神經(jīng)網(wǎng)絡(luò)MRAS的速度辨識(shí)仿真研究
基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
基于支持向量機(jī)回歸和RBF神經(jīng)網(wǎng)絡(luò)的PID整定
基于神經(jīng)網(wǎng)絡(luò)分?jǐn)?shù)階控制的逆變電源
建宁县| 新兴县| 五常市| 淮南市| 三江| 武鸣县| 龙岩市| 元朗区| 三明市| 青川县| 柏乡县| 扎赉特旗| 确山县| 米易县| 苗栗县| 淮南市| 宁都县| 长汀县| 历史| 呈贡县| 双柏县| 南雄市| 宁都县| 太谷县| 昌都县| 滕州市| 临夏市| 平湖市| 英山县| 长春市| 万盛区| 辽阳市| 建始县| 大姚县| 河北省| 上饶县| 海丰县| 邢台市| 志丹县| 连平县| 和林格尔县|