劉甘霖+沈玲+左是
摘 要: 本文針對多變量耦合系統(tǒng),采用DRNN神經網絡對PID控制器參數進行自學習,提出了將學習因子在學習過程中進行動態(tài)調整,與傳統(tǒng)DRNN神經網絡自學習PID控制整定結果進行比較,使用matlab進行仿真,仿真結果表明,學習因子動態(tài)調整后的參數結果在超調量、調節(jié)時間、穩(wěn)態(tài)性能上明顯優(yōu)于傳統(tǒng)DRNN算法。
關鍵詞: DRNN;收斂;學習速率;matlab;仿真
中圖分類號: TP183 文獻標識碼: A 文章編號: 2095-8153(2016)06-0104-04
在工業(yè)被控對象中,具有多變量強耦合特性的較多,對其進行控制必須采取一定的解耦措施,否則難以取得滿意的控制效果,現代控制理論提供的一般方法是需要知道被控對象的相關參數,進行解耦再設計控制器[1][2]。其控制器設計方法較復雜,而且依賴被控對象精確的數學模型,在實際現場中很難獲得。
本文采用一種優(yōu)化學習速率的對角遞歸神經網絡(DRNN)對多變量耦合系統(tǒng)進行動態(tài)辨識,學習算法采用梯度下降法,在傳統(tǒng)DRNN算法的網絡學習過程中對學習速率?濁I、?濁D、?濁O進行動態(tài)調整,使得比傳統(tǒng)算法具有更快的收斂速度。由DRNN獲得敏感信息?墜y/?墜u可以在線調整PID控制器參數,從而利用傳統(tǒng)的PID控制器輸出控制量到被控對象,并完成系統(tǒng)的解耦與控制工作。使用matlab對其進行仿真,仿真結果表明對學習速率進行動態(tài)調整后PID參數調整時間有所降低,使系統(tǒng)的動態(tài)性能有所加強。
1 對角神經網絡(DRNN)及其算法改進
1.1 DRNN基本結構
DRNN是在部分遞歸網絡Elman網的基礎上,將隱含層權值矩陣WD進一步簡化為對角矩陣,即隱含層的每一個神經元僅接受自己輸出反饋,而與其他神經元無反饋連接。DRNN的模型結構如圖1所示。
在DRNN神經網絡中,設I=[I1,I2,…In]為網絡輸入向量,Ii(k)為輸入層第i個神經元的輸入,網絡回歸層第j個神經元的輸出為Xj(k),Sj(k)為第j個回歸神經元輸入總和,f(*)為S函數,O(k)為DRNN網絡的輸出。DRNN神經網絡算法為:
O(k)=■WojXj(k)Xj(k)=f(Sj(k))=■Sj(k)=WDjXj(k-1)+■WIijIi(k)(1)
式1中,WD和WO為網絡回歸層和輸出層的權值向量,WI為網絡輸入層的權值向量,O(k)為網絡輸出層輸出,Xj(k)為網絡回歸層輸出,Sj(k)為網絡回歸層輸入。
1.2 DRNN網絡辨識算法改進
辨識誤差:em(k)=y(k)-O(k),其中y(k)為系統(tǒng)的實際輸出,k為網絡迭代步驟。辨識指標:Em(k)=■em(k)2
學習算法采用梯度下降法:
?駐woj(k)=-■=em(k)■=em(k)Xj(k)(2)
woj(k)=woj(k-1)+?濁O?駐woj(k)+?墜(woj(k-1)-woj(k-2))(3)
?駐wIij(k)=-■=em(k)■=em(k)■ ■=em(k)wojQij(k)(4)
wIij(k)=wIij(k-1)+?濁I?駐wIij(k)+a(wIij(k-1)-wIij(k-2))(5)
?駐wDj(k)=-■=em(k)■ ■=em(k)wojPj(k)(6)
wDj(k)=wDj(k-1)+?濁D?駐wDj(k)+a(wDj(k-1)-wDj(k-2))(7)
其中,Pj(k)=■=■Xj(k-1),Qij(k)=■=■Ii(k)
式中,?濁I、?濁D、?濁O分別為輸入層、回歸層和輸出層的學習速率,?墜為慣性系數。對象的Jacobian信息為:
■≈■=■wOj■wIij
當學習速率?濁加大時,可使收斂速度加快,但易產生振蕩和不穩(wěn)定;反之,當?濁減小時,可維持算法的穩(wěn)定但卻可能導致緩慢收斂[3][4]。傳統(tǒng)DRNN算法只取一組固定值。根據這一信息,對學習速率?濁進行動態(tài)調整,由于算法前期學習過程中可以快速收斂,以降低調節(jié)時間,在學習后期可以適當降低學習速率以達到輸出穩(wěn)定。本文對?濁調整的規(guī)則為依據誤差變化率的絕對值選取適當的?濁值,其調整規(guī)則為:若em(k)的變化率的絕對值小于1,?濁I、?濁D、?濁O取一組較小值,反之取一組較大值。
2. DRNN神經網絡參數自學習PID控制策略
本文的控制策略由DRNN作為辨識器,根據系統(tǒng)信息的變化,對權值進行自動調整,DRNN獲得Jacobian信息進行在線調整PID控制器的比例、積分、微分系數[5]。系統(tǒng)仍由PID控制器控制,其結構如圖2所示。
以控制器u1為例,控制算法如下:
u1(k)=kp1(k)x1(k)+ki1(k)x2(k)+kd1(k)x3(k)(8)
error1(k)=r1(k)-y1(k)(9)
且有:x1(k)=error1(k)
x2(k)=■(error1(k)×T)
x3(k)=■
式中T為采樣時間。PID三項系數kp1(k),ki1(k),kd1(k)采用神經網絡進行整定。
定義如下指標:
E1(k)=■(r1(k)-y1(k))2(10)
kp1(k)=kp1(k-1)-?濁p■=kp1(k-1)+?濁p(r1(k)-y1(k))■ ■=kp1(k-1)+?濁p(r1(k)-y1(k))■x1(k) (11)
ki1(k)=ki1(k-1)-?濁i■=ki1(k-1)+?濁i(r1(k)-y1(k))■ ■=ki1(k-1)+?濁i(r1(k)-y1(k))■x2(k) (12)
kd1(k)=kd1(k-1)-?濁d■=kd1(k-1)+?濁d(r1(k)-y1(k))■ ■=kd1(k-1)+?濁d(r1(k)-y1(k))■x3(k)(13)
式中■為Jacobian信息,由DRNN網絡進行辨識。
3 仿真分析
為了驗證DRNN神經網絡算法在學習過程中對學習因子進行動態(tài)調整后PID參數整定效果比傳統(tǒng)DRNN算法整定效果更優(yōu),使用文獻中所描述二變量耦合被控對象為例:
y1(k)=1.0/(1+y1(k-1))2(0.8y1(k-1)+u1(k-2)+0.2u2(k-3))y2(k)=1.0/(1+y2(k-1))2(0.9y2(k-1)+0.3u1(k-3)+u2(k-3))
設采樣時間為1s,傳統(tǒng)DRNN中學習速率?濁I=0.4、?濁D=0.4、?濁O=0.4,?墜=0.04。權值取[-1,+1]之間隨機值。網絡學習后Jacobian信息以及調整后的kp1,ki1,kd1以及kp2,ki2,kd2分別如圖3、圖5、圖7所示。對于學習速率隨em(k)的變化率動態(tài)調整后的Jacobian信息以及kp1,ki1,kd1以及kp2,ki2,kd2分別如圖4、圖6、圖8所示。
從仿真結果可以看出,采用學習速率動態(tài)優(yōu)化后的Jacobian信息明顯比傳統(tǒng)DRNN中收斂快,后期穩(wěn)定性好。在整定kp1,ki1,kd1與kp2,ki2,kd2值達到穩(wěn)定時間只需10 s,超調量明顯減小。
4 結語
DRNN神經網絡自學習PID控制在解耦控制、非線性控制中對PID參數進行在線整定的應用較多,不需要建立被控對象精確數學模型就能對其進行很好地控制,本文對傳統(tǒng)DRNN神經網絡的學習速率進行在線調整,并通過matlab仿真驗證了改進型DRNN神經網絡在PID參數整定上具有一定的優(yōu)勢性,其收斂速度明顯加快,以及降低了超調量,穩(wěn)態(tài)性能也得到加強。這對后續(xù)將模糊控制融入DRNN神經網絡學習過程有一定的借鑒意義。
[參考文獻]
[1]周東華,胡艷艷.動態(tài)系統(tǒng)的故障診斷技術[J].自動化學報,2009(06):748-758.
[2]薛美盛,吳 剛,孫德敏,王 永.工業(yè)過程的先進控制[J].化工自動化及儀表,2002(02):1-9.
[3]楊 青,黨選舉.基于DRNN的多變量解耦控制系統(tǒng)[J].自動化技術與應用,2004(03):14-17.
[4]韓貴金.一種基于對角遞歸神經網絡的PID解耦控制器[J].電子科技,2007(09):22-26.
[5]王萬召,李 利.鋼球磨煤機制粉系統(tǒng)DRNN神經網絡解耦控制研究[J].東北電力技術,2008(01):23-25.
[6]劉金琨.先進PID控制及其MATLAB仿真[M].北京:電子工業(yè)出版社,2004:166-167.
Abstract: Self learning is made with Multivariable coupling system by DRNN neural network on PID controller parameters. This paper makes the comparison between dynamic adjustment of learning factor in the learning process and traditional DRNN neural network self-learning PID control setting the result. Mat-lab simulation is made for this comparison and the result shows that parameters adjusted dynamic of learning factor are superior to traditional DRNN algorithm in overshoot,adjustment time and steady state performance.
Key words: DRNN;convergence;learning velocity;mat-lab;simulation