国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

BP神經(jīng)網(wǎng)絡(luò)在排序算法模擬中的應(yīng)用研究

2020-07-29 08:55:36王小春
微型電腦應(yīng)用 2020年7期
關(guān)鍵詞:BP神經(jīng)網(wǎng)絡(luò)

王小春

摘 要: 提出了用BP神經(jīng)網(wǎng)絡(luò)對(duì)排序算法進(jìn)行模擬。首先利用BP神經(jīng)網(wǎng)絡(luò)對(duì)排序算法的實(shí)際輸出結(jié)果進(jìn)行預(yù)測(cè),然后用匈牙利算法和全局貪心兩種算法對(duì)網(wǎng)絡(luò)輸出結(jié)果與輸入數(shù)據(jù)進(jìn)行平衡匹配。實(shí)驗(yàn)證明兩種算法均對(duì)低維數(shù)據(jù)的排序有更好的效果。針對(duì)10維數(shù)據(jù)經(jīng)匈牙利算法匹配后排序正確率為75.70%,經(jīng)貪心算法匹配后排序正確率為44.85%,且匈牙利算法的排序正確率均不低于貪心算法。

關(guān)鍵詞: BP神經(jīng)網(wǎng)絡(luò); 排序算法模擬; 匈牙利算法; 貪心算法

中圖分類(lèi)號(hào): TP311文獻(xiàn)標(biāo)志碼: A

Research on Simulation on Sorting Algorithm Based on BP Neural Network

WANG Xiaochun

(Computer Engineer College, Xian Aeronautical Polytechnic Institute, Xian, Shanxi 710089, China)

Abstract: An algorithm for sorting problem is proposed in this paper based on BP neural network.Firstly, a BP neural network is used to make a prediction for the output of the sorting algorithm. Then, Hungarian algorithm and global greedy algorithm are used to balance the output and input data. The experimental results show that Hungarian algorithm and global Greedy algorithm all have better effect on the sorting of data in low dimension.The correct rate of the 10 dimensional data processed by Hungary algorithm and Greedy algorithm is 75.70% and 44.85%. The conclusion can be drawn that the correct rate of the Hungarian algorithm is higher than the greedy algorithm in sorting according to a comprehensive comparison.

Key words: BP neural network; sorting algorithm simulation; Greedy algorithm

0 引言

算法模擬作為神經(jīng)網(wǎng)絡(luò)應(yīng)用中很少被提及的一部分,對(duì)算法理解和優(yōu)化及神經(jīng)網(wǎng)絡(luò)的應(yīng)用領(lǐng)域方面有很大的意義。本研究提出用神經(jīng)網(wǎng)絡(luò)對(duì)排序算法進(jìn)行模擬,為排序算法的實(shí)現(xiàn)提供了一種全新的方法,對(duì)其他算法模擬提供了參考方法。本研究將BP神經(jīng)網(wǎng)絡(luò)與其他算法相結(jié)合來(lái)實(shí)現(xiàn)排序算法模擬,也為神經(jīng)網(wǎng)絡(luò)的應(yīng)用研究提供了一種新的思路。本研究中針對(duì)排序算法的模擬選用BP神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn),所開(kāi)展的實(shí)驗(yàn)均是在MATLAB上編寫(xiě)并運(yùn)行實(shí)現(xiàn)的。

1 關(guān)鍵技術(shù)研究

1.1 BP神經(jīng)網(wǎng)絡(luò)

BP算法作為一種典型的神經(jīng)網(wǎng)絡(luò),一般用梯度下降法優(yōu)化訓(xùn)練結(jié)果,基本BP算法通常包含以下兩個(gè)部分:信息的前向傳播和誤差的后向傳播[1]。通俗的說(shuō),輸入數(shù)據(jù)構(gòu)成的向量傳遞給網(wǎng)絡(luò)時(shí),這些信息通過(guò)網(wǎng)絡(luò)逐層處理并向后傳播直至輸出層,傳播過(guò)程中,各個(gè)神經(jīng)節(jié)點(diǎn)的值由與之連接的節(jié)點(diǎn)的值和這些節(jié)點(diǎn)的權(quán)重決定[2]。然后對(duì)網(wǎng)絡(luò)輸出與期望輸出進(jìn)行對(duì)比,得到對(duì)應(yīng)的誤差值。BP神經(jīng)網(wǎng)絡(luò)的算法流程圖如圖1所示。

1.2 匈牙利算法

匈牙利算法是Harold Kuhn基于匈牙利數(shù)學(xué)家Koning關(guān)于矩陣中獨(dú)立零元素定理提出的一種組合優(yōu)化算法[3],用于求解指派問(wèn)題。排序算法模擬中BP神經(jīng)網(wǎng)絡(luò)輸出的預(yù)測(cè)值和輸入值之間的匹配可以看成一個(gè)指派問(wèn)題,對(duì)應(yīng)的最優(yōu)解是使得整體匹配誤差值最小的匹配結(jié)果。

1.3 貪心算法

貪心算法是一種獲得局部最優(yōu)解的算法,其尋優(yōu)過(guò)程為:首先在效益矩陣中找出當(dāng)前全局最小值,然后將對(duì)應(yīng)的兩個(gè)數(shù)據(jù)進(jìn)行匹配,并對(duì)矩陣進(jìn)行相應(yīng)的處理,進(jìn)而再找出最小值,最后再處理[4]。簡(jiǎn)而言之,貪心算法主要的出發(fā)點(diǎn)并不是全局,而是針對(duì)目前所面臨的問(wèn)題做出當(dāng)下最優(yōu)的選擇,進(jìn)而得到局部最優(yōu)結(jié)果,最終獲得全局最優(yōu)結(jié)果。

排序算法模擬中,利用貪心算法對(duì)網(wǎng)絡(luò)輸出值與網(wǎng)絡(luò)輸入數(shù)據(jù)進(jìn)行匹配,匹配算法流程為:

1) 依次對(duì)BP神經(jīng)網(wǎng)絡(luò)的輸出數(shù)據(jù)與網(wǎng)絡(luò)的輸入數(shù)據(jù)求絕對(duì)誤差,組成效益矩陣 (誤差矩陣);

2) 從誤差矩陣中選取大于0的全局最小值;

3) 將全局最小值所在行和列對(duì)應(yīng)的兩個(gè)數(shù)據(jù)進(jìn)行匹配;

4) 在誤差矩陣中將全局最小值對(duì)應(yīng)的行和列中的數(shù)據(jù)均置為-1;

5) 若誤差矩陣元素不全為-1,重復(fù)步驟2)3)4);

6) 誤差矩陣元素全為-1,則匹配過(guò)程結(jié)束。

2 排序算法模擬實(shí)驗(yàn)設(shè)置及結(jié)果分析

2.1 數(shù)據(jù)獲取和處理

2.1.1 數(shù)據(jù)獲取和設(shè)置

本研究排序算法模擬中用到的數(shù)據(jù)是根據(jù)需要隨機(jī)產(chǎn)生的(數(shù)值范圍1-1 000),隨機(jī)產(chǎn)生數(shù)據(jù)可以避免人為因素引起的不必要的誤差,如需要對(duì)20個(gè)整數(shù)進(jìn)行排序,則隨機(jī)產(chǎn)生20維整數(shù)矩陣,將產(chǎn)生的數(shù)據(jù)劃分為訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)兩部分,訓(xùn)練數(shù)據(jù)的數(shù)量要遠(yuǎn)大于測(cè)試數(shù)據(jù)的數(shù)量,本研究中訓(xùn)練數(shù)據(jù)有2 000組數(shù)據(jù),測(cè)試數(shù)據(jù)有200組數(shù)據(jù),如訓(xùn)練數(shù)據(jù)大小為20×2 000,則測(cè)試數(shù)據(jù)大小為20×200。期望輸出矩陣是訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)對(duì)應(yīng)的排序(本研究選擇升序) 結(jié)果,所以期望輸出矩陣維度與訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)的維度相等。

2.1.2 數(shù)據(jù)預(yù)處理

歸一化是把預(yù)處理數(shù)據(jù)通過(guò)對(duì)應(yīng)算法處理將其限制在需要的一定范圍內(nèi)。一般情況下,將數(shù)據(jù)歸一化為[0,1]或者[-1,1]之間。本研究根據(jù)實(shí)際需要,將各樣本數(shù)據(jù)歸一化到[0,1]之間。

雖然本研究過(guò)程中用到的數(shù)據(jù)度量單位都相同,但是歸一化不僅有助于后續(xù)步驟數(shù)據(jù)的處理,而且可以加快網(wǎng)絡(luò)的收斂速度,所以本研究也需要對(duì)輸入數(shù)據(jù)進(jìn)行歸一化處理。歸一化的方法如式(1)。

其中X是要?dú)w一化的矩陣,Xi是X的一個(gè)數(shù)據(jù),min(X)是X的最小值,max(X)是X的最大值,xi是歸一化后的數(shù)據(jù)。經(jīng)過(guò)歸一化處理后的部分?jǐn)?shù)據(jù)如表1所示。

2.2 BP神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)

2.2.1 評(píng)判標(biāo)準(zhǔn)

2.2.1.1 判定系數(shù)

判定系數(shù)是統(tǒng)計(jì)學(xué)中的一個(gè)重要參數(shù),用來(lái)衡量?jī)蓚€(gè)變量之間的相關(guān)性,一般用R2表示。針對(duì)簡(jiǎn)單的線性回歸問(wèn)題來(lái)說(shuō),數(shù)據(jù)相關(guān)系數(shù)的平方值即為該系數(shù),函數(shù)表達(dá)式如式(2)。

上式中,y1,…,yn表示n個(gè)期望輸出值,即實(shí)際值,f1,…,fn表示n個(gè)網(wǎng)絡(luò)預(yù)測(cè)值,表示期望輸出值的平均值。

在本研究中,R2是用來(lái)判定BP神經(jīng)網(wǎng)絡(luò)輸出數(shù)據(jù)與網(wǎng)絡(luò)輸入數(shù)據(jù)之間的相關(guān)性,是普通的線性回歸。其中,R2越接近于1,表示網(wǎng)絡(luò)的預(yù)測(cè)輸出越接近實(shí)際期望值,模型的擬合度越高。

2.2.1.2 正確率

用匈牙利算法和貪心算法對(duì)網(wǎng)絡(luò)輸出和網(wǎng)絡(luò)輸入進(jìn)行匹配后,如何判斷匹配結(jié)果的好壞是一個(gè)關(guān)鍵問(wèn)題。本研究選擇了正確率對(duì)匹配結(jié)果進(jìn)行評(píng)判,具體計(jì)算方法如式(5)。

上式中,Acc表示正確率,n表示匹配結(jié)果與正確排序結(jié)果不相等的元素個(gè)數(shù),N表示匹配結(jié)果的總個(gè)數(shù),N的大小為數(shù)據(jù)集維數(shù)與數(shù)據(jù)個(gè)數(shù)的乘積。所以,Acc的值越接近1表示匹配結(jié)果越好。

2.2.1.3 MSE(均方差)

均方差表示預(yù)測(cè)數(shù)據(jù)和原始數(shù)據(jù)對(duì)應(yīng)誤差的平方和的均值,經(jīng)常作為評(píng)判標(biāo)準(zhǔn)來(lái)評(píng)判模型性能,計(jì)算方法如式(6)。

公式(6)中,n表示數(shù)據(jù)的個(gè)數(shù),y1,…,yn表示n個(gè)期望輸出值,即實(shí)際值,f1,…,fn表示n個(gè)網(wǎng)絡(luò)預(yù)測(cè)值。由公式(6)可得,MSE越小,表示預(yù)測(cè)值越接近實(shí)際值,所以在實(shí)驗(yàn)過(guò)程中希望MSE較小。

2.2.2 輸入和輸出層節(jié)點(diǎn)數(shù)確定

BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中輸入層節(jié)點(diǎn)數(shù)的選取是根據(jù)研究對(duì)象的特性進(jìn)行選取的,其具體要求是所選的節(jié)點(diǎn)能反映事物的本質(zhì)特征,這些節(jié)點(diǎn)被稱(chēng)為特征量,特征量的數(shù)值大小被稱(chēng)為特征值。如果選取的特征量不具有代表性或典型性,則會(huì)使BP神經(jīng)網(wǎng)絡(luò)的訓(xùn)練結(jié)果與實(shí)驗(yàn)數(shù)值產(chǎn)生較大的偏差,預(yù)測(cè)效果的精確度將會(huì)大大降低。

本研究的排序算法模擬中,輸入輸出關(guān)系決定了輸入層節(jié)點(diǎn)數(shù)和輸出層節(jié)點(diǎn)數(shù)相等,都等于訓(xùn)練數(shù)據(jù)的維數(shù)。

2.2.3 確定隱藏層節(jié)點(diǎn)數(shù)

BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中隱藏層節(jié)點(diǎn)數(shù)的選擇是非常重要的。在BP神經(jīng)網(wǎng)絡(luò)中,隱藏層節(jié)點(diǎn)數(shù)過(guò)多或過(guò)少對(duì)網(wǎng)絡(luò)結(jié)構(gòu)都會(huì)造成一定程度的影響,如果隱藏層節(jié)點(diǎn)數(shù)過(guò)多,則會(huì)使BP神經(jīng)網(wǎng)絡(luò)收斂速度減慢,同時(shí)還會(huì)使網(wǎng)絡(luò)記住更多沒(méi)有意義的信息;如果隱藏層節(jié)點(diǎn)數(shù)過(guò)少,網(wǎng)絡(luò)從樣本輸入中獲得的有效信息太少,網(wǎng)絡(luò)對(duì)某些復(fù)雜的問(wèn)題可能達(dá)不到預(yù)期的處理效果,或出現(xiàn)預(yù)測(cè)結(jié)果偏差太大的情況。

對(duì)于BP神經(jīng)網(wǎng)絡(luò),確定隱藏層節(jié)點(diǎn)數(shù)最常用的方法有如下3種:

a) m=numinput+numoutput+c

b) m=numinput+numoutput

c) m=log2numinput

以上公式中,m為隱藏層節(jié)點(diǎn)數(shù),numinput為輸入層節(jié)點(diǎn)數(shù),numoutput為輸出層節(jié)點(diǎn)數(shù),c一般為1-10的常數(shù),本次實(shí)驗(yàn)中,選擇c=10。不同維數(shù)輸入數(shù)據(jù)的隱藏層節(jié)點(diǎn)數(shù)與方法之間的實(shí)驗(yàn)結(jié)果如表2所示。

表2中各小數(shù)表示對(duì)于測(cè)試數(shù)據(jù)的網(wǎng)絡(luò)輸出與實(shí)際排序結(jié)果的判定系數(shù),判定系數(shù)越接近1表示網(wǎng)絡(luò)的輸出和期望值越接近。從表2中數(shù)據(jù)可得,除了維數(shù)(維數(shù)表示需要排序的個(gè)數(shù))為40和30的數(shù)據(jù)集之外,其他數(shù)據(jù)集方法a最有效,且在維數(shù)為40和30的數(shù)據(jù)集中,雖然方法c最優(yōu),但是方法a的結(jié)果也能滿足要求,為了更好的實(shí)現(xiàn)排序算法模擬,本研究中對(duì)維數(shù)為40和30的數(shù)據(jù)集進(jìn)行模擬時(shí),隱藏層節(jié)點(diǎn)數(shù)按方法c確定,而對(duì)于其他數(shù)據(jù)集用方法a確定隱藏層節(jié)點(diǎn)數(shù)。

2.2.4 學(xué)習(xí)速率的確定

學(xué)習(xí)速率η在公式中表示權(quán)值和閾值調(diào)整的系數(shù),具體調(diào)整方法如公式(7)。

其中,E代表第n次計(jì)算得到的目標(biāo)函數(shù),W(n)代表連接權(quán)值,ΔW(n)代表權(quán)值調(diào)整量。學(xué)習(xí)速率η影響著網(wǎng)絡(luò)的收斂能力和收斂速率,如果η的值選取太大,則BP神經(jīng)網(wǎng)絡(luò)的穩(wěn)定性就會(huì)降低;若η的值選取太小,BP神經(jīng)網(wǎng)絡(luò)的訓(xùn)練時(shí)間又會(huì)增加,使網(wǎng)絡(luò)的收斂速度下降。η的選取直接影響著ΔW(n),即影響網(wǎng)絡(luò)每一次權(quán)值的調(diào)整。本研究學(xué)習(xí)速率設(shè)置為0.1,由訓(xùn)練結(jié)果可得,此學(xué)習(xí)速率使網(wǎng)絡(luò)的收斂速度和收斂能力均滿足網(wǎng)絡(luò)的要求。

2.2.5 網(wǎng)絡(luò)層數(shù)的確定

單隱藏層部分預(yù)測(cè)數(shù)據(jù)與期望輸出值的對(duì)比圖如圖2所示。

圖中的數(shù)據(jù)是從測(cè)試數(shù)據(jù)的4 000(20×200)個(gè)數(shù)據(jù)中隨機(jī)選取的100個(gè)數(shù)據(jù)點(diǎn),從圖2中可以看出,網(wǎng)絡(luò)的輸出值(預(yù)測(cè)值)與實(shí)際期望值之間的誤差很小;從測(cè)試數(shù)據(jù)所有數(shù)據(jù)與期望值之間的散點(diǎn)圖可以看出,單隱藏層網(wǎng)絡(luò)結(jié)構(gòu)對(duì)測(cè)試數(shù)據(jù)整體的預(yù)測(cè)精度也很高,判定系數(shù)為0.981 8,所以,單隱藏層的網(wǎng)絡(luò)結(jié)構(gòu)能較好地學(xué)習(xí)排序算法,使網(wǎng)絡(luò)的預(yù)測(cè)精度滿足要求。如圖3所示。

本次實(shí)驗(yàn)選擇的是20維的數(shù)據(jù)集,訓(xùn)練數(shù)據(jù)大小為20×2 000,測(cè)試數(shù)據(jù)大小為20×200,最大迭代次數(shù)為100,學(xué)習(xí)率為0.1,單隱藏層和雙隱藏層網(wǎng)絡(luò)結(jié)構(gòu)的預(yù)測(cè)值與實(shí)際值的相關(guān)性比較實(shí)驗(yàn)結(jié)果如表3所示,表中的數(shù)值表示判定系數(shù)的值。

BP神經(jīng)網(wǎng)絡(luò)中的隱藏層的個(gè)數(shù)在網(wǎng)絡(luò)中起著舉足輕重的作用,增加網(wǎng)絡(luò)隱藏層的個(gè)數(shù),可以增強(qiáng)BP神經(jīng)網(wǎng)絡(luò)的非線性映射功能,但是隱藏層數(shù)過(guò)多,也會(huì)產(chǎn)生以下弊端:使得BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練速度減慢,網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜。由表3可得,對(duì)于20維的數(shù)據(jù)來(lái)說(shuō),單隱藏層和雙隱藏的預(yù)測(cè)結(jié)果都較好,且單個(gè)隱藏層的擬合效果更好(判定系數(shù)滿足:0.981 8>0.956 3),另一方面,單個(gè)隱藏層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單,收斂速度快,所以本研究選擇了單隱藏層網(wǎng)絡(luò)結(jié)構(gòu)。

2.2.6 訓(xùn)練數(shù)據(jù)大小確定

數(shù)據(jù)集的大小對(duì)神經(jīng)網(wǎng)絡(luò)的輸出也有一定的影響作用,如果數(shù)據(jù)集太小,會(huì)使網(wǎng)絡(luò)的學(xué)習(xí)能力下降,如果數(shù)據(jù)集過(guò)大,會(huì)使網(wǎng)絡(luò)的收斂速度降低。所以選擇大小合適的數(shù)據(jù)集對(duì)于網(wǎng)絡(luò)也很重要。選擇維數(shù)為20的數(shù)據(jù)進(jìn)行實(shí)驗(yàn),在其他條件不變的情況下只改變數(shù)據(jù)集大小,在網(wǎng)絡(luò)收斂后,分別計(jì)算匈牙利算法和貪心算法的正確率,以此來(lái)說(shuō)明數(shù)據(jù)集大小對(duì)網(wǎng)絡(luò)性能的影響,數(shù)據(jù)集大小對(duì)排序算法模擬的影響如表4所示。

由表4可得,數(shù)據(jù)集太小對(duì)排序算法的模擬結(jié)果有影響,當(dāng)數(shù)據(jù)集個(gè)數(shù)為200時(shí),匈牙利算法的正確率為0.542 5,數(shù)據(jù)集大小為2 000時(shí)匈牙利算法的正確率較之前提高了13.36%,貪心算法對(duì)數(shù)據(jù)集大小不是很敏感,且正確率均低于匈牙利算法,但是數(shù)據(jù)集個(gè)數(shù)為2 000時(shí)的正確率也比數(shù)據(jù)集個(gè)數(shù)為200時(shí)高了4.73%。從表4還可以看出:對(duì)于維數(shù)為20的數(shù)據(jù)集,數(shù)據(jù)集大小為2 000時(shí),匈牙利算法和貪心算法都取得了最好的效果,基于上述,所以本研究中對(duì)于每個(gè)維數(shù)的數(shù)據(jù)集,其大小均設(shè)定為2 000。

3 實(shí)驗(yàn)結(jié)果分析

本研究分別選了2維、4維、6維、8維、10維、12維、15維、20維、30維和40維的數(shù)據(jù)集,分別作為BP神經(jīng)網(wǎng)絡(luò)的輸入來(lái)驗(yàn)證排序算法模擬的效果,每個(gè)測(cè)試數(shù)據(jù)集都有200組數(shù)據(jù),各個(gè)數(shù)據(jù)集的測(cè)試結(jié)果如表5所示。

表5中Accx表示用匈牙利算法匹配網(wǎng)絡(luò)輸出與網(wǎng)絡(luò)輸入的正確率,Acct表示用貪心算法匹配后的正確率,對(duì)應(yīng)的MSEx表示用匈牙利算法匹配后的均方差,MSEt表示用貪心算法匹配后的均方差,其中MSEx和MSEt的值都是在數(shù)據(jù)反歸一化之前計(jì)算得到的。

由表5可得:隨著維數(shù)的增加,本研究訓(xùn)練的排序算法模擬模型性能下降,匈牙利算法和貪心算法匹配結(jié)果的正確率都在不斷下降,均方差都在不斷增大,以至于在維數(shù)為40時(shí),排序算法模型對(duì)于大多數(shù)數(shù)據(jù)來(lái)說(shuō),基本不能把對(duì)應(yīng)數(shù)據(jù)匹配在正確的位置上,正確率分別下降到35.16%和16.01%,均方差分別增加到0.266 0和0.875 8。從上表可以看出,本研究提出的排序算法模擬對(duì)維數(shù)比較小的數(shù)據(jù)很有效,如兩個(gè)算法對(duì)2維數(shù)據(jù)的排序正確率都可以達(dá)到100%,匈牙利算法對(duì)4個(gè)數(shù)據(jù)進(jìn)行排序時(shí)正確率可以達(dá)到95.37%,貪心算法的正確率只達(dá)到了78.63%,且對(duì)于任何一個(gè)數(shù)據(jù)集,匈牙利算法的正確率均不小于貪心算法,所以本研究中匈牙利算法優(yōu)于貪心算法。

4 總結(jié)

本研究選擇了匈牙利算法和貪心算法來(lái)實(shí)現(xiàn)網(wǎng)絡(luò)輸出結(jié)果和輸入數(shù)據(jù)的匹配,用匹配的正確率和均方差來(lái)評(píng)判匹配結(jié)果的好壞程度。實(shí)驗(yàn)結(jié)果可得:匈牙利算法的匹配正確率均不低于貪心算法,如:匈牙利算法對(duì)10維數(shù)據(jù)的排序結(jié)果正確率為75.70%,全局貪心對(duì)10維數(shù)據(jù)的排序結(jié)果正確率為44.85%。兩種算法都對(duì)低維的數(shù)據(jù)更有效,數(shù)據(jù)維數(shù)越小,匹配的正確率越高,均方差越小,其中2維數(shù)據(jù)的排序結(jié)果正確率可以達(dá)到100%。

本研究對(duì)高維數(shù)據(jù)的排序結(jié)果正確率較低,今后會(huì)在提高BP神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)精度和匹配算法優(yōu)化方面做出新的改進(jìn),如在BP神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程中使用文中提到的Trainbr算法、BFGS算法和LM算法,另一方面,在匹配算法優(yōu)化方面也要進(jìn)一步做點(diǎn)工作,旨在提高數(shù)據(jù)排序的正確率,最終實(shí)現(xiàn)更高維的數(shù)據(jù)排序。

參考文獻(xiàn)

[1] 魏振,江智軍,楊曉輝,等.基于BP神經(jīng)網(wǎng)絡(luò)的低電壓短期預(yù)測(cè)的估算[J].現(xiàn)代電子技術(shù),2019,42(23):62-66.

[2] 李維華,張明武.修正BP神經(jīng)網(wǎng)絡(luò)應(yīng)用于珠江洪水預(yù)報(bào)[J].通訊世界,2019,26(11):21-22.

[3] 李廷鵬,錢(qián)彥嶺,李岳.基于改進(jìn)匈牙利算法的多技能人員調(diào)度方法[J].國(guó)防科技大學(xué)學(xué)報(bào),2016,38(2):144-149.

[4] 黃邦菊,熊惠敏,朱代武,等.基于貪心算法的航班-登機(jī)口模型[J].航空計(jì)算技術(shù),2019,49(6):10-13.

(收稿日期: 2019.11.05)

猜你喜歡
BP神經(jīng)網(wǎng)絡(luò)
基于神經(jīng)網(wǎng)絡(luò)的北京市房?jī)r(jià)預(yù)測(cè)研究
商情(2016年43期)2016-12-23 14:23:13
一種基于OpenCV的車(chē)牌識(shí)別方法
基于遺傳算法—BP神經(jīng)網(wǎng)絡(luò)的乳腺腫瘤輔助診斷模型
一種基于改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)T/R組件溫度的方法
基于BP神經(jīng)網(wǎng)絡(luò)的光通信系統(tǒng)故障診斷
科技視界(2016年26期)2016-12-17 17:57:49
提高BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)速率的算法研究
考試周刊(2016年21期)2016-12-16 11:02:03
就bp神經(jīng)網(wǎng)絡(luò)銀行選址模型的相關(guān)研究
基于DEA—GA—BP的建設(shè)工程評(píng)標(biāo)方法研究
基于BP神經(jīng)網(wǎng)絡(luò)的旅行社發(fā)展方向研究
商情(2016年39期)2016-11-21 09:30:36
復(fù)雜背景下的手勢(shì)識(shí)別方法
杂多县| 齐河县| 长岭县| 凭祥市| 盐源县| 郴州市| 武陟县| 汾阳市| 碌曲县| 招远市| 定襄县| 叙永县| 井陉县| 滕州市| 建水县| 宣武区| 宜章县| 葵青区| 景泰县| 海阳市| 黄冈市| 清水县| 卓尼县| 沁水县| 板桥市| 瑞丽市| 璧山县| 县级市| 宜章县| 庄河市| 焉耆| 张掖市| 九寨沟县| 祁东县| 海宁市| 乌鲁木齐市| 镇雄县| 辉南县| 沁阳市| 乐业县| 库伦旗|