丁 鋒,徐 玲,籍 艷,劉喜梅
(1.江南大學(xué) 物聯(lián)網(wǎng)工程學(xué)院,江蘇 無錫 214122;2.青島科技大學(xué) 自動化與電子工程學(xué)院,山東 青島 266061)
參數(shù)估計方法是基于系統(tǒng)的觀測數(shù)據(jù),通過某種優(yōu)化策略,極小化模型輸出與系統(tǒng)輸出之差的平方和而推導(dǎo)出的一些算式,這些算式通過遞推計算或迭代計算出系統(tǒng)的參數(shù),其前提條件是需要對系統(tǒng)觀測變量進行采樣。采樣方式可以是均勻的等周期采樣,也可能是非等周期的非均勻采樣。如果均勻采樣在某些點的數(shù)據(jù)缺失或不可信,剔除不可信數(shù)據(jù)產(chǎn)生損失數(shù)據(jù)系統(tǒng)。
對于一些均勻采樣,而且在每個采樣點的數(shù)據(jù)均可得到的情形下,許多方法探討了這類系統(tǒng)的參數(shù)辨識問題,如系統(tǒng)辨識學(xué)術(shù)專著[1-6]和連載論文[7-18]中的一些方法。變間隔辨識方法是本研究首次提出的,它是通過引入變間隔概念來處理損失數(shù)據(jù)系統(tǒng)和稀少量測數(shù)據(jù)系統(tǒng)的辨識問題[5-6,19-23]。最近,連載論文研究了損失數(shù)據(jù)系統(tǒng)和稀少量測數(shù)據(jù)系統(tǒng)的變間隔遞階隨機梯度辨識方法、變間隔遞階多新息隨機梯度辨識方法、變間隔遞階遞推梯度辨識方法、變間隔遞階多新息遞推梯度辨識方法、變間隔遞階最小二乘辨識方法、變間隔遞階多新息最小二乘辨識方法[18]。
這里討論線性回歸系統(tǒng)的變間隔遞階梯度迭代辨識方法、變間隔遞階多新息梯度迭代辨識方法、變間隔遞階最小二乘迭代辨識方法、變間隔遞階多新息最小二乘迭代辨識方法等。這些方法中可以引入加權(quán)因子和遺忘因子派生出變間隔加權(quán)遞階(多新息)梯度迭代辨識方法、變間隔加權(quán)遞階(多新息)最小二乘迭代辨識方法、變間隔遺忘因子加權(quán)遞階(多新息)梯度迭代辨識方法、變間隔遺忘因子加權(quán)遞階(多新息)最小二乘迭代辨識方法等。提出的變間隔遞階迭代辨識方法可以推廣用于其他線性和非線性隨機系統(tǒng),以及信號模型的參數(shù)辨識[24-31]。
考慮下列線性回歸系統(tǒng),
其中y(t)∈?是系統(tǒng)輸出變量,v(t)∈?是零均值隨機白噪聲,?∈?n是待辨識的參數(shù)向量,φ(t)∈?n是回歸信息向量。假設(shè)維數(shù)n已知。不特別申明,設(shè)t≤0時,各變量的初值為零,這里意味著y(t)=0,φ(t)=0,v(t)=0。
線性回歸系統(tǒng)(1)可分解為N個虛擬子系統(tǒng)(fictitious subsystem),即遞階辨識模型(hierarchical identification model,H-ID模型):
其中子系統(tǒng)參數(shù)向量?i和信息向量φi(t)與整個系統(tǒng)的參數(shù)向量和信息向量的關(guān)系如下:
虛擬子系統(tǒng)的輸出yi(t)∈?定義為
在實際問題中,可能發(fā)生數(shù)據(jù)丟失的情況。為了使辨識算法跳過這些丟失的數(shù)據(jù)點,需要根據(jù)系統(tǒng)可得到的數(shù)據(jù)序列,定義整數(shù)序列(integer sequence){ts:s=0,1,2,…},滿足
0=t0<t1<t2<t3<…<ts-1<ts<…,且t*s=ts-ts-1≥1。用ts代替式(1)中的t,得到
變間隔辨識模型:
用ts代替式(2)和(3)中的t,得到變間隔遞階辨識模型:
為便于研究變間隔遞階梯度迭代辨識方法和變間隔遞階多新息梯度迭代辨識方法,下面簡單介紹變間隔梯度迭代辨識方法和變間隔多新息梯度迭代辨識方法,相關(guān)內(nèi)容可參考《系統(tǒng)辨識:迭代搜索原理與辨識方法》[5]。
設(shè)L為數(shù)據(jù)長度,可得到的觀測數(shù)據(jù)為y(ts)和φ(ts)。根據(jù)變間隔辨識模型(4),定義堆積輸出向量Y(tL)和堆積信息矩陣Φ(tL):
定義變間隔準(zhǔn)則函數(shù)
令k=1,2,3,…為迭代變量,μ(tL)為收斂因子,即迭代步長,λmax[X]為實對稱陣X的最大特征值,^?k是參數(shù)向量?的第k次迭代估計。使用負梯度搜索,極小化J1(?),得到梯度迭代關(guān)系:
故收斂因子μ(tL)的一個保守選擇是
由于特征值計算很復(fù)雜,故收斂因子也可簡單取為
式(10)~(12)和(8)~(9)構(gòu)成了估計線性回歸系統(tǒng)(1)參數(shù)向量?的變間隔梯度迭代算法(interval-varying gradient-based iterative algorithm,VGI算法)[5]:
V-GI辨識算法(13)~(17)的計算步驟如下。
1)初始化:當(dāng)t≤0時,所有變量的值都設(shè)為零。令迭代次數(shù)k=1,給定數(shù)據(jù)長度L(通常取L?n)和參數(shù)估計精度ε,置參數(shù)估計初值^?0=1n/p0,p0=106。
2)采集觀測數(shù)據(jù)y(ts)和φ(ts),s=1,2,…,L。
3)用式(16)構(gòu)造堆積輸出向量Y(tL),用式(17)構(gòu)造堆積信息矩陣Φ(tL),根據(jù)式(14)或(15)確定一個盡量大的步長μ(tL)。
4)用式(13)刷新參數(shù)估計向量^?k。
5)比較^?k和^?k-1;如果‖^?k-^?k-1‖>ε,k就增加1,轉(zhuǎn)到步驟4);否則獲得參數(shù)估計向量^?k,終止計算過程。
在V-GI辨識算法中引入加權(quán)因子、引入遺忘因子,就得到變間隔加權(quán)梯度迭代(V-W-GI)算法、變間隔遺忘因子梯度迭代(V-FFGI)算法、變間隔加權(quán)遺忘因子梯度迭代(V-W-FFGI)算法[5]。
設(shè)wt≥0為加權(quán)因子,W(tL)=diag[w1,w2,…,wL]∈?L×L為加權(quán)矩陣。在V-GI辨識算法(13)~(17)中引入加權(quán)矩陣W(tL),便得到估計線性回歸系統(tǒng)(1)參數(shù)向量?的變間隔加權(quán)梯度迭代算法(interval-varying weighted GI algorithm,V-W-GI算法)[5]:
在V-GI辨識算法(13)~(17)中引入遺忘因子λ,便得到估計線性回歸系統(tǒng)(1)參數(shù)向量?的變間隔遺忘因子梯度迭代算法(interval-varying forgetting factor GI algorithm,V-FFGI算法)[5]:
設(shè)整數(shù)p≥1為新息長度。根據(jù)變間隔辨識模型(4),利用可得到的觀測數(shù)據(jù)y(ts)和φ(ts),定義堆積輸出向量Y(p,ts)和堆積信息矩陣Φ(p,ts):
則由式(1)可得多新息辨識模型(multi-innovation identification model):
根據(jù)多新息辨識模型(36),定義變間隔多新息準(zhǔn)則函數(shù)
令k=1,2,3,…為迭代變量是參數(shù)向量?在當(dāng)前時刻t=ts的第k次迭代估計,μ(ts)為當(dāng)前時刻t=ts的迭代步長,即收斂因子。使用負梯度搜索,極小化J2(?),得到梯度迭代關(guān)系:
故收斂因子μ(ts)的一個保守選擇是
由于特征值計算很復(fù)雜,最簡單的方式是使用范數(shù),取
聯(lián)立式(37)~(39)和(34)~(35),就得到估計損失數(shù)據(jù)系統(tǒng)(1)參數(shù)向量?的變間隔多新息梯度迭代算法(interval-varying MIGI algorithm,VMIGI算法)[5]:
注1V-MIGI算法在時刻t=ts刷新kmax次迭代參數(shù)估計而在區(qū)間[ts,ts+1-1]上保持參數(shù)估計不變,即1]。
變間隔多新息梯度迭代算法的參數(shù)估計精度取決于新息長度p,因此新息長度p應(yīng)足夠大。VMIGI算法(40)~(45)計算參數(shù)估計的步驟如下。
1)初始化:當(dāng)t≤0時,所有變量的值都設(shè)為零:采集觀測數(shù)據(jù)y(t)=0和φ(t)=0。給定新息長度p(通常取p?n),參數(shù)估計精度ε,最大迭代次數(shù)kmax。令t=1,s=0,t0=0,參數(shù)估計初值
2)令k=1,采集觀測數(shù)據(jù)y(t)和φ(t)。
3)如果觀測數(shù)據(jù)y(t)和φ(t)可得到,就跳到下一步;否則置t增加1,即t=t+1,轉(zhuǎn)到步驟2)。
4)置s=s+1,ts=t,t*s=ts-ts-1,用式(44)構(gòu)造堆積輸出向量Y(p,ts),用式(45)構(gòu)造堆積信息矩陣Φ(p,ts)。根據(jù)式(42)或(43)確定一個盡量大的步長μ(ts)。
6)如果k<kmax,k就增加1,轉(zhuǎn)到步驟5);否則執(zhí)行下一步。
在V-MIGI辨識算法(40)~(45)中引入p×p加權(quán)矩陣Ws≥0,便得到估計線性回歸系統(tǒng)(1)參數(shù)向量?的變間隔加權(quán)多新息梯度迭代算法(interval-varying weighted MIGI algorithm,V-W-MIGI算法):
設(shè)ws,i≥0為加權(quán)因子,取加權(quán)矩陣Ws=diag[ws,0,ws,1,…,ws,p-1]∈?p×p,那 么V-WMIGI算法(46)~(51)可以表示為
或
在V-MIGI辨識算法(40)~(45)中引入加權(quán)因子ws,i≥0和遺忘因子λ=μ,便得到估計線性回歸系統(tǒng)(1)參數(shù)向量?的變間隔加權(quán)遺忘因子多新息梯度迭代算法(interval-varying weighted FFMIGI algorithm,V-W-FF-MIGI算法):
或
V-W-FF-MIGI算法(68)~(73)可等價表示為
或
設(shè)L為數(shù)據(jù)長度(L?n)。根據(jù)變間隔辨識模型(5),定義堆積輸出向量Y(tL)和堆積信息矩陣Φ(tL),以及虛擬堆積輸出向量Yi(tL)和堆積子信息矩陣Φi(tL):
定義變間隔準(zhǔn)則函數(shù)
對固定的i,式(82)可看作狀態(tài)的離散時間系統(tǒng),為保證參數(shù)估計收斂,要求系統(tǒng)矩陣[Ini-μiΦTi(tL)Φi(tL)]的特征值均在單位圓內(nèi),且單位圓上沒有重特征值,即μi必須滿足-Ini≤[Ini-μiΦTi(tL)Φi(tL)]≤Ini,故收斂因子μi的一個保守選擇是
由于特征值計算很復(fù)雜,故收斂因子也可簡單取為
將式(80)代入式(82)得到
右邊包含了其它子系統(tǒng)的未知子參數(shù)向量?j(j≠i),所以無法計算出子系統(tǒng)的參數(shù)估計^?i,k。為了實現(xiàn)參數(shù)估計的迭代計算,根據(jù)遞階辨識原理進行關(guān)聯(lián)項的協(xié)調(diào),上式中未知的?j用其在前一次迭代(k-1)的估計代替,得到
式(83)~(85),(78)~(79)和(81)構(gòu)成了估計線性回歸系統(tǒng)(1)參數(shù)向量?的變間隔遞階梯度迭代算法(interval-varying HGI algorithm,V-HGI算法):
1)初始化:當(dāng)t≤0時,所有變量的值都設(shè)為零。根據(jù)n值和計算量大小要求設(shè)置N和ni。令迭代次數(shù)k=1,t=1,s=0,t0=0,給定數(shù)據(jù)長度L(通常取L?n)和參數(shù)估計精度ε。置參數(shù)估計初 值
2)采集觀測數(shù)據(jù)y(t)和φ(t)。
3)如果觀測數(shù)據(jù)y(t)和φ(t)可得到,就跳到下一步;否則t增加1,即t=t+1,轉(zhuǎn)到步驟2)。
4)置s=s+1,ts=t,t*s=ts-ts-1。如果s<L,t就增加1,轉(zhuǎn)到步驟2);否則用式(89)構(gòu)造堆積輸出向量Y(tL),用式(90)構(gòu)造堆積信息矩陣Φ(tL)。從式(91)的Φ(tL)中讀出子信息矩陣Φi(tL),根據(jù)式(87)或(88)確定盡量大的步長μi,i=1,2,…,N。
注2算法的參數(shù)估計精度依賴于數(shù)據(jù)長度L,因此數(shù)據(jù)長度應(yīng)該足夠大,遠大于待估計參數(shù)的數(shù)目。取收斂因子μi=2‖Φi(tL)‖-2,在消除中間變量Y(tL),Φ(tL)和Φi(tL)后,V-HGI算法(86)~(93)可等價表示為
變間隔遞階梯度迭代辨識方法可以派生出許多算法,如變間隔修正遞階梯度迭代(V-M-HGI)算法、變間隔加權(quán)遞階梯度迭代(V-W-HGI)算法、變間隔遺忘因子遞階梯度迭代(V-FF-HGI)算法、變間隔加權(quán)修正遞階梯度迭代(V-W-M-HGI)算法、變間隔遺忘因子修正遞階梯度迭代(V-FF-M-HGI)算法、變間隔加權(quán)遺忘因子修正遞階梯度迭代(VW-FF-M-HGI)算法等。
令準(zhǔn)則函數(shù)J3i(?i)關(guān)于參數(shù)向量?i的梯度為零:
假設(shè)信息向量φi(ts)是充分豐富的,即對于L?n,數(shù)據(jù)乘積矩矩陣是可逆的,由上式可求出子參數(shù)向量?i的最小二乘估計
由于虛擬子系統(tǒng)的堆積輸出向量Yi(tL)是未知的,所以將式(80)代入式(97)得到
上式右邊包含了其它子系統(tǒng)的未知子參數(shù)向量?j(j≠i),所以無法計算出子系統(tǒng)的參數(shù)估計^?i,k。為了實現(xiàn)參數(shù)估計^?i,k的迭代計算,根據(jù)遞階辨識原理進行關(guān)聯(lián)項的協(xié)調(diào),上式中未知的?j用其在前一次迭代(k-1)的估計^?j,k-1代替,得到
聯(lián)立式(89)~(93),便得到估計線性回歸系統(tǒng)(1)參數(shù)向量?的變間隔遞階最小二乘迭代算法(interval-varying HLSI algorithm,V-HLSI算法):
1)初始化:當(dāng)t≤0時,所有變量的值都設(shè)為零。根據(jù)n值和計算量大小要求設(shè)置N和ni。令迭代次數(shù)k=1,t=1,s=0,t0=0,給定數(shù)據(jù)長度L(通常取L?n)和參數(shù)估計精度ε。置參數(shù)估計初值1,2,…,N,p0=106。
2)采集觀測數(shù)據(jù)y(t)和φ(t)。
3)如果觀測數(shù)據(jù)y(t)和φ(t)可得到,就跳到下一步;否則t增加1,即t=t+1,轉(zhuǎn)到步驟2)。
4)置s=s+1,ts=t,t*s=ts-ts-1。如果s<L,t就增加1,轉(zhuǎn)到步驟2);否則用式(100)構(gòu)造堆積輸出向量Y(tL),用式(101)構(gòu)造堆積信息矩陣Φ(tL)。從式(102)的Φ(tL)中讀出子信息矩陣Φi(tL),i=1,2,…,N。
注3在消除中間變量Y(tL),Φ(tL)和Φi(tL)后,V-HLSI算法(99)~(104)可以等價表示為
遞階最小二乘迭代辨識方法可以派生出變間隔加權(quán)遞階最小二乘迭代(V-W-HLSI)算法、變間隔遺忘因子遞階最小二乘迭代(V-FF-HLSI)算法、變間隔加權(quán)遺忘因子遞階最小二乘迭代(V-W-FFHLSI)算法等。
設(shè)p為新息長度,可得到的觀測數(shù)據(jù)為y(ts)和φ(ts),s=1,2,3,…。設(shè)t=ts為當(dāng)前時刻。根據(jù)辨識模型(4)~(5),利用最新的p組數(shù)據(jù),定義堆積輸出向量Y(p,ts)和堆積信息矩陣Φ(p,ts),堆積虛擬輸出向量Yi(p,ts)和堆積子信息矩陣
可考慮按下面的方式定義有關(guān)變量:
根據(jù)遞階辨識模型(5),定義關(guān)于子參數(shù)向量?i的準(zhǔn)則函數(shù):
令k=1,2,3,…為迭代變量,μi(ts)≥0是當(dāng)前時刻ts的迭代步長(收斂因子),是參數(shù)向量?在當(dāng)前時刻t=ts的第k次迭代估計是參數(shù)向量?i在當(dāng)前時刻ts的第k次迭代估計。使用負梯度搜索,極小化J4i(?i),得到梯度迭代關(guān)系:
故收斂因子μi(ts)的一個保守選擇是
由于特征值計算極其復(fù)雜,一個簡單方式是使用范數(shù),取
將式(110)代入式(114)得到
右邊包含了其它子系統(tǒng)的未知子參數(shù)向量?j(j≠i),所以無法計算出子系統(tǒng)的參數(shù)估計為了實現(xiàn)參數(shù)估計的迭代計算,根據(jù)遞階辨識原理進行關(guān)聯(lián)項的協(xié)調(diào),上式中未知的?j用其在前一次迭代(k-1)的估計代替,得到
式(115)~(117),(108)~(109),(111)和(112)構(gòu)成了估計線性回歸系統(tǒng)(1)參數(shù)向量?的變間隔遞階多新息梯度迭代算法(interval-varying HMIGI algorithm,V-HMIGI算法):
注4因為線性回歸系統(tǒng)參數(shù)估計誤差與數(shù)據(jù)長度的平方根成反比[3],變間隔遞階多新息迭代算法每次計算參數(shù)估計時使用的數(shù)據(jù)長度為p,參數(shù)估計精度取決于新息長度p。因此多新息迭代算法中的新息長度p應(yīng)足夠大。
1)初始化:令所有變量的值都設(shè)為零:y(j)=0,φ(j)=0,j≤0。根據(jù)n值和計算量大小要求設(shè)置N和ni,給定新息長度p和參數(shù)估計精度ε,最大迭代次數(shù)kmax。令t=1,s=0,t0=0,迭代次數(shù)k=1。置 參 數(shù) 估 計 初 值
2)采集觀測數(shù)據(jù)y(t)和φ(t)。
3)如果觀測數(shù)據(jù)y(t)和φ(t)可得到,就跳到下一步;否則t增加1,即t=t+1,轉(zhuǎn)到步驟2)。
6)如果k<kmax,k就增加1,轉(zhuǎn)到步驟5);否則執(zhí)行下一步。
注5取收斂因子μi(ts)=2‖Φ(p,ts)‖-2,在消除中間變量Y(p,ts),Φi(p,ts)和Φ(p,ts)后,HMIGI辨識算法(118)~(127)可等價表示為
V-HMIGI辨識算法(118)~(127)可以派生出許多算法,如變間隔修正遞階多新息梯度迭代(VM-HMIGI)算法、變間隔加權(quán)遞階多新息梯度迭代(V-W-HMIGI)算法、變間隔遺忘因子遞階多新息梯度迭代(V-FF-HMIGI)算法、變間隔加權(quán)修正遞階多新息梯度迭代(V-W-M-HMIGI)算法、變間隔遺忘因子修正遞階多新息梯度迭代(V-FF-M-HMIGI)算法、變間隔加權(quán)遺忘因子修正遞階多新息梯度迭代(V-W-FF-M-HMIGI)算法等。
令準(zhǔn)則函數(shù)J4i(?i)關(guān)于子參數(shù)向量?i的梯度為零:
假設(shè)信息向量φi(ts)是充分豐富的,即對于p?n,數(shù)據(jù)乘積矩矩陣是可逆的,由上式可求出子參數(shù)向量?i的最小二乘估計
由于虛擬子系統(tǒng)的堆積輸出向量Yi(p,ts)是未知的,所以將式(110)代入式(131)得到
上式右邊包含了其它子系統(tǒng)的未知子參數(shù)向量?j(j≠i),所以無法計算出子系統(tǒng)的參數(shù)估計為了實現(xiàn)參數(shù)估計的迭代計算,根據(jù)遞階辨識原理進行關(guān)聯(lián)項的協(xié)調(diào),上式中未知的用?j其在前一次迭代(k-1)的估計代替,得到
聯(lián)立式(122)~(127),便得到估計線性回歸系統(tǒng)(1)參數(shù)向量?的變間隔遞階多新息最小二乘迭代算法(interval-varying HMILSI algorithm,VHMILSI算法):
1)初始化:所有變量的值都設(shè)為零:y(j)=0,φ(j)=0,j≤0。根據(jù)n值和計算量大小要求設(shè)置N和ni,給定新息長度p和參數(shù)估計精度ε,最大迭代次數(shù)kmax。令t=1,s=0,t0=0,迭代次數(shù)k=1。置 參 數(shù) 估 計 初 值或 隨 機向量,i=1,2,…,N,p0=106。
2)采集觀測數(shù)據(jù)y(t)和φ(t)。
3)如果觀測數(shù)據(jù)y(t)和φ(t)可得到,就跳到下一步;否則t增加1,即t=t+1,轉(zhuǎn)到步驟2)。
6)如果k<kmax,k就增加1,轉(zhuǎn)到步驟5);否則執(zhí)行下一步。
注6在消除中間變量Y(p,ts),Φ(p,ts)和Φi(p,ts)后,V-HMILSI算法(133)~(140)可等價表示為
V-HMILSI辨識算法(133)~(140)可以派生出變間隔加權(quán)遞階多新息最小二乘迭代(V-WHMILSI)算法、變間隔遺忘因子遞階多新息最小二乘迭代(V-FF-HMILSI)算法、變間隔加權(quán)遺忘因子遞階多新息最小二乘迭代(V-W-FF-HMILSI)算法。
線性參數(shù)系統(tǒng)參數(shù)估計誤差與數(shù)據(jù)長度的平方根成反比,所以數(shù)據(jù)長度應(yīng)該足夠大,遠遠大于參數(shù)數(shù)目。而多新息梯度迭代方法和多新息最小二乘迭代算法在每次迭代計算中使用的數(shù)據(jù)長度為p,所以新息長度應(yīng)該足夠大,以保證參數(shù)估計精度。變間隔多新息梯度迭代方法、變間隔多新息最小二乘迭代算法、變間隔遞階多新息梯度迭代方法、變間隔遞階多新息最小二乘迭代算法等也是如此。
應(yīng)用變間隔辨識概念,針對損失數(shù)據(jù)系統(tǒng)和稀少量測數(shù)據(jù)系統(tǒng),根據(jù)遞階辨識原理和線性回歸系統(tǒng)的變間隔遞階辨識模型,研究了變間隔遞階(多新息)梯度迭代辨識方法、變間隔遞階(多新息)最小二乘迭代辨識方法等。這些變間隔迭代辨識方法可以推廣到有色噪聲干擾下的線性和非線性損失數(shù)據(jù)隨機系統(tǒng)和稀少量測數(shù)據(jù)隨機系統(tǒng)中。