李世菊, 張 倩
(1.四川師范大學(xué) 美術(shù)學(xué)院,成都 610066; 2.四川師范大學(xué) 數(shù)學(xué)與軟件科學(xué)學(xué)院,成都 610066)
微格課程成績(jī)?cè)u(píng)定與模糊關(guān)系方程的解
李世菊1, 張 倩2
(1.四川師范大學(xué) 美術(shù)學(xué)院,成都 610066; 2.四川師范大學(xué) 數(shù)學(xué)與軟件科學(xué)學(xué)院,成都 610066)
首先定義了模糊關(guān)系方程的ε極小解,然后給出了利用模糊神經(jīng)網(wǎng)絡(luò)尋找max-min合成有限模糊關(guān)系方程的一個(gè)ε極小解的算法,證明了算法的收斂性。最后把模糊關(guān)系方程的解應(yīng)用于大學(xué)微格課程成績(jī)的評(píng)定,并用算例進(jìn)行了說(shuō)明。
模糊關(guān)系方程;模糊神經(jīng)網(wǎng)絡(luò);ε極小解;算法;微格課程;成績(jī)?cè)u(píng)定
大學(xué)微格課程成績(jī)的公允影響著我們對(duì)師范類(lèi)學(xué)生的正確培養(yǎng)方向,可以說(shuō)是關(guān)乎師范類(lèi)學(xué)生的合格培養(yǎng)。為此,筆者[1]提出微格課程成績(jī)?cè)u(píng)定的數(shù)學(xué)模型。該模型最后歸結(jié)為模型B=W°A。其中:A=(aij)n×m為評(píng)價(jià)矩陣;B=(b1,b2, …,bm)為評(píng)價(jià)結(jié)果;W={w1,w2, …,wn}是由專(zhuān)家組對(duì)各評(píng)價(jià)因素集中每個(gè)因素按其對(duì)教學(xué)評(píng)價(jià)的重要程度給分所得。顯然,W的合理性關(guān)乎整個(gè)模型的成敗。由于W是專(zhuān)家組給出,難免受個(gè)人主觀(guān)因素的影響而發(fā)生偏離實(shí)際的現(xiàn)象。我們的問(wèn)題是如何糾正其中的主觀(guān)因素。這實(shí)際上就是已知評(píng)價(jià)矩陣A和評(píng)價(jià)結(jié)果,問(wèn)評(píng)價(jià)因素集W是否合理?這就歸為模糊關(guān)系方程的求解問(wèn)題。模糊關(guān)系方程是1976年法國(guó)學(xué)者E.Sanchez[2]最早開(kāi)始研究,其核心就是在方程有解時(shí)找到所有解。1984年,研究者們證明了定義在[0,1]格上的max-min合成有限模糊關(guān)系方程在有解時(shí),方程的解集可由方程的最大解和有限個(gè)極小解完全確定[3-4]。至此,對(duì)定義在[0, 1]格上max-min合成有限模糊關(guān)系方程的研究主要集中于尋找有效的方法去計(jì)算有限個(gè)極小解[5-6]。然而,2002年L.Chen等[7]證明了計(jì)算模糊關(guān)系方程的所有極小解是一個(gè)NPH問(wèn)題。為此,人們嘗試把模糊集與神經(jīng)網(wǎng)絡(luò)相結(jié)合,開(kāi)始了用模糊神經(jīng)網(wǎng)絡(luò)求解模糊關(guān)系方程的研究,如李艷平等[8]就給出了基于模糊神經(jīng)網(wǎng)絡(luò)求解模糊關(guān)系方程的方法。1997年,Li Xiaozhong等[9]利用模糊神經(jīng)網(wǎng)絡(luò)在模糊δ規(guī)則的基礎(chǔ)上提出了求解模糊關(guān)系方程最大解的算法。2002年,王加銀等[10]改進(jìn)了文獻(xiàn)[9]中的算法。2012年,馮霜等[11]根據(jù)文獻(xiàn)[9]又提出了基于模糊神經(jīng)網(wǎng)絡(luò)求模糊關(guān)系方程的極小解算法。本文將舉例說(shuō)明文獻(xiàn)[11]中的算法是有缺陷的,并重新設(shè)計(jì)模糊神經(jīng)網(wǎng)絡(luò),研究用模糊神經(jīng)網(wǎng)絡(luò)求解模糊關(guān)系方程一個(gè)ε極小解的方法,最后把模糊關(guān)系方程的解應(yīng)用于大學(xué)微格課程成績(jī)的評(píng)定,并用算例進(jìn)行了說(shuō)明。
本文以下的神經(jīng)網(wǎng)絡(luò)不同于一般的人工神經(jīng)網(wǎng)絡(luò),而是模糊神經(jīng)網(wǎng)絡(luò)[12]。模糊神經(jīng)網(wǎng)絡(luò)的主要特點(diǎn)在于,不管是輸入和輸出信息還是神經(jīng)元間的聯(lián)接權(quán)值,都在[0, 1]中取值;而且,神經(jīng)元的算子是形如式(1)的(∨,∧)算子,即取大取小算子
(1)
眾所周知,誤差反向傳播算法(Back Propagation算法,簡(jiǎn)稱(chēng)為BP算法)是人工神經(jīng)網(wǎng)絡(luò)中常用的學(xué)習(xí)算法之一。然而,因?yàn)槟:窠?jīng)網(wǎng)絡(luò)中的算子(∨,∧)不可導(dǎo),所以不能直接將BP算法應(yīng)用于模糊神經(jīng)網(wǎng)絡(luò)。1997年,Li Xiaozhong等[9]利用模糊神經(jīng)網(wǎng)絡(luò)在模糊δ規(guī)則的基礎(chǔ)上提出了求解模糊關(guān)系方程最大解的算法。2002年,王加銀等[10]舉例說(shuō)明文獻(xiàn)[9]中的算法是依賴(lài)于方程的排列順序,為此他們改進(jìn)了文獻(xiàn)[9]中的算法。2012年,馮霜等[11]根據(jù)文獻(xiàn)[9]給出了基于模糊神經(jīng)網(wǎng)絡(luò)求模糊關(guān)系方程的極小解算法。他們的訓(xùn)練算法Ⅰ與文獻(xiàn)[9]中算法一樣也是有缺陷的。以下我們先給出模糊關(guān)系方程極小解的定義,再以文獻(xiàn)[11]中的例1來(lái)說(shuō)明問(wèn)題。
設(shè)A=(aij)m×n,B=(b1,b2, …,bm)T,稱(chēng)
A°X=B
(2)
或任意i∈{1, 2, …,m},
為定義在[0,1]的模糊關(guān)系方程。其中:T表示轉(zhuǎn)置;aij與bi∈[0,1]為已知;X=(x1,x2, …,xn)T為未知。記X={X|A°X=B}。由文獻(xiàn)[2]知下面引理成立。
定義1[13]稱(chēng)X的極小元(如果存在)為模糊關(guān)系方程(2)的極小解。
例1[11]設(shè)模糊關(guān)系方程為A°W=B。其中
易知方程最大解為Wmax=(0.2, 1.0, 0.4)T。用文獻(xiàn)[11]的訓(xùn)練算法Ⅰ,取η=0.5,ε=0.000 01,可得到一個(gè)極小解為Wmin=(0.199 993 896, 0, 0.399 993 896)T[原文中Wmin=(0.2, 0, 0.4)T]。
若互換方程A°W=B第二行與第三行,即
易知方程最大解仍為Wmax=(0.2, 1.0, 0.4)T。用文獻(xiàn)[11]的訓(xùn)練算法Ⅰ,取η=0.5,ε=0.000 01,可得到Wmin=(0.199 993 896, 0.199 993 896, 0)T,但易驗(yàn)證這并不是方程的極小解。
上面例1說(shuō)明文獻(xiàn)[11]的訓(xùn)練算法Ⅰ的運(yùn)行結(jié)果隨方程的排列順序改變而改變,且運(yùn)行結(jié)果不一定是方程的極小解。不僅如此,我們還認(rèn)為,用模糊神經(jīng)網(wǎng)絡(luò)不能求得精確的極小解Wmin=(0.2, 0, 0.4)T,一般僅能找到方程有一定誤差的極小解,即我們將定義的ε極小解。
定義2設(shè)X0=(x10,x20, …,xn0)T是模糊關(guān)系方程(2)的極小解,ε為任意小的正數(shù),如果X=(x1,x2, …,xn)T滿(mǎn)足|x1-x10|2+|x2-x20|2+…+|xn-xn0|2<ε,則稱(chēng)X為方程(2)的ε極小解。
我們以下僅研究尋找max-min合成有限模糊關(guān)系方程(2)的一個(gè)ε極小解的算法。
我們選擇的模糊神經(jīng)網(wǎng)絡(luò)為2層網(wǎng)絡(luò):第一層為輸入層,由n個(gè)取小模糊神經(jīng)元構(gòu)成;第二層為輸出層,由一個(gè)取大模糊神經(jīng)元構(gòu)成(圖1)。用X=(x1,x2, …,xn)T為所示模糊神經(jīng)網(wǎng)絡(luò)的聯(lián)接權(quán)向量,將模糊關(guān)系方程的已知信息轉(zhuǎn)化為模糊神經(jīng)網(wǎng)絡(luò)的訓(xùn)練樣本,用(ai1,ai2, …,ain)為網(wǎng)絡(luò)的輸入向量,bi為網(wǎng)絡(luò)的輸出預(yù)期值。這樣,求解模糊關(guān)系方程(2)相當(dāng)于尋求能存儲(chǔ)訓(xùn)練樣本集{(ai1,ai2, …,ain,bi)|1≤i≤m}的權(quán)向量X=(x1,x2, …,xn)T。
圖1 模糊關(guān)系方程的神經(jīng)網(wǎng)絡(luò)Fig.1 The neural network of a fuzzy relational equation
本節(jié)給出求方程(2)的一個(gè)ε極小解的算法及算法的流程圖(圖2)。
算法1(求模糊關(guān)系方程ε極小解的網(wǎng)絡(luò)訓(xùn)練算法)設(shè)方程A°X=B的最大解X=(x1,x2, …,xn)T,ε為給定的任意小正數(shù),η∈(0, 1]為學(xué)習(xí)效率,訓(xùn)練樣本集為{(ai1,ai2, …,ain,bi)|1≤i≤m};
第一步j(luò):=1;
第二步 把X中的第j個(gè)元素用0替換,即xj:=0,其余分量不變;
第三步i:=1,ei=0;
第四步 輸入(ai1,ai2, …,ain,bi);
第六步 如果i=m,則轉(zhuǎn)至第八步;
第七步i:=i+1,轉(zhuǎn)至第四步;
第八步 如果ei≥ε,則轉(zhuǎn)至第十二步;
第九步xj(t+1)=xj(t);
第十步 如果j=n,則轉(zhuǎn)至第十三步;
第十一步j(luò):=j+1,并轉(zhuǎn)至第二步;
第十二步xj(t+1)=xj(t)+ηei,并轉(zhuǎn)至第三步;
第十三步 輸出X。
圖2 算法1的流程圖Fig.2 Flowchart of algorithm 1
定理1如果X(t)=(x1(t),x2(t), …,xn(t))T是由算法1產(chǎn)生的權(quán)值數(shù)列,那么它是單調(diào)遞增數(shù)列。
定理2算法1是收斂的。
證明只需證明算法1所得的權(quán)值數(shù)列X(t)=(x1(t),x2(t), …,xn(t))T收斂即可。根據(jù)定理1,X(t)=(x1(t),x2(t), …,xn(t))T中任意xj(t),j∈{1, 2, …,n},是單調(diào)遞增數(shù)列,同時(shí)也是有界的,因?yàn)橛伤惴?可知
O≤X(t)≤I。
其中:O是所有元素全為0構(gòu)成的向量;I是所有元素全為1構(gòu)成的向量。又由數(shù)學(xué)分析知單調(diào)有界數(shù)列xj(t),j∈{1, 2, …,n},收斂,定理2得證。
設(shè)
則下面命題成立。
命題1[13]X=(x1,x2, …,xn)T是方程(2)的極小解當(dāng)且僅當(dāng)任意k∈{1, 2, …,n},xk=min{a:a∈H(X,k)}。
定理3如果X≠?,則算法1收斂到方程(2)的一個(gè)ε極小解。
證明由命題1,定義2及定理2即知。
本節(jié)以我們?cè)谖墨I(xiàn)[1]中的例子為算例說(shuō)明如何把模糊關(guān)系方程的ε極小解應(yīng)用于微格課程成績(jī)的評(píng)定。
例2設(shè)某高校5位微格教師在學(xué)生甲講課后按評(píng)價(jià)因素w1“講解”、w2“語(yǔ)言”、w3“板書(shū)”及w4“教態(tài)”給分情況統(tǒng)計(jì)得評(píng)價(jià)矩陣如下
大家公認(rèn)學(xué)生甲的“講解”得分0.4,“語(yǔ)言”得分0.5,“板書(shū)”得分0.2,“教態(tài)”得分0.1,即B=(0.4, 0.5, 0.2, 0.1)。而5位微格教師按評(píng)價(jià)因素(講解、語(yǔ)言、板書(shū)及教態(tài))的重要性給分統(tǒng)計(jì)情況為W=(0.5, 0.2, 0.2, 0.1),問(wèn)所得W合理嗎?
易知方程A°X=B的最大解為X*=(1, 0.4, 0.2, 0.1)T。
取ε=0.000 01,學(xué)習(xí)效率η=1,從X的第一個(gè)分量開(kāi)始替換,根據(jù)算法1能得到方程A°X=B的ε極小解為X(1,2,3,4)=(0.390 147 899, 0, 0.190 645 432, 0)T,t=190。其中:X(1,2,3,4)表示替換順序分別是第一個(gè)、第二個(gè)、第三個(gè)、第四個(gè)。根據(jù)算法1,計(jì)算知方程僅有ε極小解X0=(0.390 147 899, 0, 0.190 645 432, 0)T。
由引言部分分析知,評(píng)價(jià)因素向量W應(yīng)該為方程A°X=B的一個(gè)解。又由于X0≤W≤X*,因此,本例中5位微格教師給出的評(píng)價(jià)因素向量W是合理的。
在應(yīng)用算法1尋找方程(2)的ε極小解時(shí),應(yīng)注意下面3點(diǎn):
a.算法1是從方程(2)最大解X*的第一個(gè)分量,順序用0開(kāi)始進(jìn)行替換的。顯然,我們也可從其余任何分量開(kāi)始替換。
b.算法1收斂到{X(t)}的速度依賴(lài)于學(xué)習(xí)效率η的值。一般說(shuō)來(lái),η的值越大,xj(t)增加的速度越快,收斂到{X(t)}的速度也越快,訓(xùn)練所需的迭代次數(shù)和時(shí)間就越少。顯然,精度ε取的值越大,利用算法1收斂到ε極小解的速度就越快。
c.改變模糊關(guān)系方程(2)的方程排列順序,算法1的收斂結(jié)果{X(t)}不變。
作者感謝王學(xué)平教授的悉心指導(dǎo)及對(duì)本文的修改。
[1] 李世菊.微格課成績(jī)?cè)u(píng)定的數(shù)學(xué)模型[J].模糊系統(tǒng)與數(shù)學(xué),2017,31(1):187-190. Li S J. The mathematical model for evaluating the student’s mark of a micro-class[J]. Fuzzy Systems and Mathematics, 2017, 31(1): 187-190. (in Chinese)
[2] Sanchez E. Resolution of composite fuzzy relation equations[J]. Information and Control, 1976, 30: 38-48.
[3] Czogala E, Drewniak J, Pedrycz W. Fuzzy relation equations on a finite set[J]. Fuzzy Sets and Systems, 1982, 7: 89-101.
[4] Higashi M, Klir G J. Resolution of finite fuzzy relation equations[J]. Fuzzy Sets and Systems, 1984, 13: 65-82.
[5] 汪培莊,羅承忠.有限Fuzzy關(guān)系方程極小解的個(gè)數(shù)[J].模糊數(shù)學(xué),1984(3):63-70. Wang P Z, Luo C Z. The numbers of minimal solutions for a finite fuzzy relational equation[J]. Fuzzy Mathematics, 1984(3): 63-70. (in Chinese)
[6] 王學(xué)平.格[0,1]上求解Fuzzy關(guān)系方程的一種方法[J].高校應(yīng)用數(shù)學(xué)學(xué)報(bào):A輯,2000,15(2):127-133. Wang X P. A method to solve a fuzzy relational equation in a lattice [0, 1][J]. Appl Math J Chinese Univ: Ser A, 2000, 15(2): 127-133. (in Chinese)
[7] Chen L, Wang P P. Fuzzy relation equations (I): the general and specialized solving algorithms[J]. Soft Computing, 2002, 6: 428-435.
[8] 李艷平,李洪興.基于神經(jīng)網(wǎng)絡(luò)的模糊關(guān)系方程解法[J].北京師范大學(xué)學(xué)報(bào)(自然科學(xué)版),1998,34(2):168-173. Li Y P, Li H X. Solution of fuzzy relation equation based on neural networks[J]. Journal of Beijing Normal University (Natural Science), 1998, 34(2): 168-173. (in Chinese)
[9] Li X Z, Ruan D. Novel neural algorithms based on fuzzyδrules for solving fuzzy relation equations: Part Ⅰ[J]. Fuzzy Sets and Systems, 1997, 90: 11-23.
[10] 王加銀,李洪興.基于模糊δ規(guī)則的模糊關(guān)系方程求解算法的改進(jìn)[J].北京師范大學(xué)學(xué)報(bào)(自然科學(xué)版),2002,38(3):301-309. Wang J Y, Li H X. Modification of “Algorithm based on fuzzyδrules for solving fuzzy relation equations”[J]. Journal of Beijing Normal University (Natural Science), 2002, 38(3): 301-309. (in Chinese)
[11] 馮霜,李金權(quán),溫永川.基于神經(jīng)網(wǎng)絡(luò)的模糊關(guān)系方程極小解求解算法[J].北京師范大學(xué)學(xué)報(bào)(自然科學(xué)版),2012,48(2):111-114. Feng S, Li J Q, Wen Y C. A novel algorithm for obtaining minimal solutions of fuzzy relation equations based on neural networks[J]. Journal of Beijing Normal University (Natural Science), 2012, 48(2): 111-114. (in Chinese)
[12] Kosko B. Neural Networks and Fuzzy Systems[M]. New Jersey: Prentice-Hall, Englewood Cliffs, 1990.
[13] Di Nola A, Sessa S, Pedrycz W,etal. Fuzzy Relation Equations and Their Applications to Knowledge Engineering[M]. Boston: Kluwer Academic Publishers, 1989.
Thestudentsgradeevaluationofmicro-classandthesolutionofafuzzyrelationalequation
LI Shiju1, ZHANG Qian2
1.Collegeoffinearts,SichuanNormalUniversity,Chengdu610066,China; 2.CollegeofMathematicsandSoftwareScience,SichuanNormalUniversity,Chengdu610066,China
A method of student grade evaluation of micro-class is introduced in this paper. Firstly, theε-minimal solution of a fuzzy relational equation is defined. Secondly, an algorithm is introduced in order to find oneε-minimal solution from the fuzzy relational equation by using fuzzy neural network and then to determine its convergence. Finally, the solution of fuzzy relational equation is applied to the student grade evaluation and a numerical example is illustrated.
fuzzy relational equation; fuzzy neural network;ε-minimal solution; algorithm; micro-class; evaluation of the student’s mark
O159 [
] A
10.3969/j.issn.1671-9727.2017.05.13
1671-9727(2017)05-0631-05
2017-03-04。
國(guó)家自然科學(xué)基金項(xiàng)目(11171242)。
李世菊(1967-),女,碩士,講師,研究方向:美術(shù)教育及微格教育教學(xué)等, E-mail:784760668@qq.com。