黃春暉,溫永杰
(福州大學(xué) 物理與信息工程學(xué)院, 福建 福州 350108)
隨著現(xiàn)代無線移動通信技術(shù)的發(fā)展,CMMB直放站作為局域網(wǎng)環(huán)境下用來延長網(wǎng)絡(luò)距離和提高信號質(zhì)量的最簡單最廉價的互聯(lián)設(shè)備,得到廣泛的應(yīng)用。CMMB直放站傳輸信號存在對噪聲敏感和峰—均功率比(PAPR,peak to average power ratio)較大等缺點(diǎn)。因為CMMB信號經(jīng)常使HPA工作在飽和區(qū),由此產(chǎn)生幅度失真(AM-AM)和相位失真(AM-PM),造成鄰道干擾(adjacent channel interference)和帶內(nèi)失真,導(dǎo)致系統(tǒng)性能下降。所以,需要提高直放站系統(tǒng)HPA的線性放大特征。
目前,普遍認(rèn)為自適應(yīng)數(shù)字預(yù)失真是一種較有前途的HPA線性化方法。雖然數(shù)字預(yù)失真技術(shù)有多種多樣,但大致分為3類:1)基于查找表(LUT)的預(yù)失真器,算法簡單但是算法收斂速度較慢[1,2];2)基于Volterra級數(shù)預(yù)失真器,收斂較快但存在著所需乘法數(shù)隨著階數(shù)增加而呈現(xiàn)非線性增加,導(dǎo)致計算量大等不足[3~5];3)由神經(jīng)網(wǎng)絡(luò)構(gòu)成的預(yù)失真器,利用BP神經(jīng)網(wǎng)絡(luò)(BPNN)的學(xué)習(xí)可以逼近任意非線性函數(shù),能很好地擬合 HPA的 AM/AM、AM/PM特性。此外,延時的BPNN還能同時擬合HPA的非線性和記憶效應(yīng)[6~10]。
用實(shí)數(shù)延時神經(jīng)網(wǎng)絡(luò)(RVTDNN)模型構(gòu)建的帶記憶HPA數(shù)字預(yù)失真器,具有很好的性能,但是該模型也存在著參量多、計算量大等缺點(diǎn)[10,11]。為了減少參量數(shù)目,提高計算速度,本文提出了一種新的BP神經(jīng)網(wǎng)絡(luò)預(yù)失真器模型,簡稱FIR- NLNNN。該模型把Bayesian和LM算法有機(jī)地結(jié)合,運(yùn)用到網(wǎng)絡(luò)訓(xùn)練優(yōu)化中,有效地消除LM算法的過擬合現(xiàn)象。仿真結(jié)果表明RVTDNN和FIR-NLNNN 2種結(jié)構(gòu)的預(yù)失真器均能提高系統(tǒng)線性特性,降低系統(tǒng)鄰信道功率比30 dB。在不降低系統(tǒng)線性化性能的前提下,F(xiàn)IR-NLNNN比RVTDNN結(jié)構(gòu)更簡單、計算量更小且隨著網(wǎng)絡(luò)輸入抽頭的增加,網(wǎng)絡(luò)的參數(shù)和訓(xùn)練算法計算量基本不變。
在HPA的預(yù)失真過程中,AM/AM和AM/PM特性越接近HPA的行為模型,說明數(shù)字HPA預(yù)失真器越好。典型的功放模型有Rapp模型、Ghorbani模型、Volterra級數(shù)模型和Saleh模型[12]。其中,Saleh模型具有結(jié)構(gòu)簡單、計算量小且能夠精確擬合HPA幅度和相位特性。如果Saleh的參數(shù)選擇得當(dāng),也能很好地擬合實(shí)際功放的非線性和記憶效應(yīng)[13]。因此本文選用 Saleh模型作為 HPA的行為模型。其AM/AM和AM/PM特性表達(dá)為
其中,r為輸入信號的幅度,由式(1)可知,功放的幅度和相位失真只與輸入信號的幅度有關(guān)。參數(shù)αa、βa共同決定幅度的非線性失真程度。參數(shù)αp、βp決定相位偏移程度。由于 CMMB信號屬于寬帶信號,當(dāng)對這種信號進(jìn)行放大時,功放的記憶效應(yīng)不可忽略。為此,本文采用在Saleh功放模型之后級聯(lián)一個FIR濾波器作為帶記憶效應(yīng)的功放模型,它屬于Hammerstein系統(tǒng)模型[14]。
多層感知神經(jīng)網(wǎng)絡(luò)(MLBPNN)是數(shù)字通信中最常用的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。MLBPNN由一個輸入層、中間隱藏層和一個輸出層組成的全連接型結(jié)構(gòu)。其中隱藏層和輸出層由若干個神經(jīng)元組成,網(wǎng)絡(luò)中的每個神經(jīng)元由線性混合器和激活函數(shù)兩部分組成,可表達(dá)如下[15]
其中,yl,j表示第i層中第j個神經(jīng)元的輸出,wl,j,i表示第i層中第j個神經(jīng)元與第i-1層中第i個神經(jīng)元的連接權(quán)系數(shù),該神經(jīng)元的第 i個輸入為xl-1,i,偏置值為bl,j,Ni為第i層的節(jié)點(diǎn)或神經(jīng)元個數(shù)。本文選用作為隱藏層神經(jīng)元的激活函數(shù), xxf =)( 作為輸出層神經(jīng)元激活函數(shù)。
當(dāng)輸入信號平均功率較大時,HPA工作在飽和區(qū),HPA的熱效應(yīng)和記憶效應(yīng)不可忽略,此時輸出即與當(dāng)前的輸入有關(guān)又與過去的輸入相關(guān)[16]。需要用延時型神經(jīng)網(wǎng)絡(luò)才能實(shí)現(xiàn)記憶型功放的預(yù)失真性能。為了能夠分離處理HPA的非線性和記憶效應(yīng),本文提出一種新的延時 BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。
本文提出一種能分離處理 HPA的非線性和記憶效應(yīng)的神經(jīng)網(wǎng)絡(luò) FIR-NLNNN,其基本思想是:假設(shè)HPA系統(tǒng)是由2個相對獨(dú)立的子系統(tǒng)構(gòu)成:無記憶的非線性部分(NLN)和帶記憶的線性部分(FIR),兩者級聯(lián)成為帶記憶的非線性Hammerstein HPA,可以用一個Wiener系統(tǒng)來預(yù)失真[17]。實(shí)際上,F(xiàn)IR-NLNNN預(yù)失真系統(tǒng)就是一個由線性和非線性2個部分組成的Wiener預(yù)失真系統(tǒng)。其中線性部包括2個FIR濾波器,非線性部分是一個雙入雙出的3層普通MLBPNN。其結(jié)構(gòu)如圖1所示。該結(jié)構(gòu)雖然只在MLBPNN結(jié)構(gòu)的前面增加FIR功能,但它可以分離地處理Hammerstein HPA的功放的非線性和記憶效應(yīng)。這樣做可以簡化網(wǎng)絡(luò)規(guī)模減少網(wǎng)絡(luò)參數(shù),從而減少系數(shù)更新迭代的計算量。
圖1 FIR-NLNNN結(jié)構(gòu)
由式(2)可知,F(xiàn)IR-NLNNN前饋計算為
其中,M 為記憶深度,隱藏層激活函數(shù) f1為 tanh函數(shù),l1為隱藏層節(jié)點(diǎn)數(shù)。
圖2是典型的RVTDNN模型[18~22],比較圖1與圖2可以看出兩者不同之處在于RVTDNN將輸入經(jīng)過抽頭延時直接作為網(wǎng)絡(luò)輸入,而 FIRNLNNN先將輸入進(jìn)行FIR濾波再進(jìn)入網(wǎng)絡(luò)處理,使網(wǎng)絡(luò)參數(shù)和計算量大大減小,詳情將在3.3節(jié)予以介紹。
在實(shí)際工作中,功放單元的參數(shù)具有隨著溫度、電器特性和應(yīng)用環(huán)境變化的時變特性。這要求預(yù)失真器必須具有自適應(yīng)地跟蹤擬合功放參數(shù)的功能[23]。本文把FIR-NLNN模型用于神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)結(jié)構(gòu)以滿足時變特性的要求,其結(jié)構(gòu)如圖 3所示。
圖2 RVTDNN結(jié)構(gòu)
圖3 間接神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)結(jié)構(gòu)
圖4 中預(yù)失真器和估計函數(shù)結(jié)構(gòu)相同,不同之處在于前者以前向信號x(n)為輸入信號,后者以反饋信號為輸入信號。預(yù)失真器PD的輸出u(n)與估計函數(shù)的輸出r (n)之差作為誤差e(n),通過神經(jīng)網(wǎng)絡(luò)系數(shù)迭代計算實(shí)現(xiàn)估計函數(shù)的系數(shù)更新,并將更新后的系數(shù)復(fù)制到預(yù)失真器PD中。當(dāng)預(yù)失真器與級聯(lián)的 HPA實(shí)現(xiàn)線性放大時,神經(jīng)網(wǎng)絡(luò)就等效于PA的反向傳輸函數(shù)。
與梯度下降法、共軛梯度算法和牛頓法等相比,LM 算法具有收斂速度較快、計算量適中等特點(diǎn),因此本文采用LM算法作為神經(jīng)網(wǎng)絡(luò)系數(shù)的迭代更新算法[20,21]。文獻(xiàn)[24]具體介紹了用LM算法更新RVTDNN網(wǎng)絡(luò)系數(shù)的過程,本文側(cè)重介紹LM算法中FIR-NLNNN網(wǎng)絡(luò)系數(shù)的更新過程,并且在神經(jīng)網(wǎng)絡(luò)預(yù)失真系統(tǒng)中引入 Bayesian算法,通過把Bayesian和LM算法有機(jī)的結(jié)合,以消除LM算法的過擬合現(xiàn)象,稱之為Bayesian-LM算法。
如果網(wǎng)絡(luò)目標(biāo)函數(shù)V(x)為均方誤差函數(shù),即
其中,q為每回合用于訓(xùn)練的樣本數(shù),s2為輸出層節(jié)點(diǎn)數(shù)。那么()x?V和2()Vx?滿足下列公式
其中,J為系數(shù)的Jacobi矩陣,包含誤差權(quán)系數(shù)的一階偏導(dǎo)信息,其計算量遠(yuǎn)小于 Hessian矩陣。為誤差構(gòu)成的誤差向量。Jacobi矩陣J的表達(dá)式為
其中,由權(quán)系數(shù)構(gòu)成的系數(shù)向量X為
式(6)中有關(guān)誤差 e(n)對系數(shù) W1和 W2的偏導(dǎo)可以通過改進(jìn)的BP算法計算,計算過程詳見文獻(xiàn)[24]。在 FIR-NLNNN網(wǎng)絡(luò)中,LM 算法新增加參數(shù) W0及其誤差 e(n)對它的偏導(dǎo),具體推導(dǎo)如下。
類似地可以推導(dǎo)得到其他分量表達(dá)式。
將式(8)代入式(6)中即可得到系數(shù)的Jacobi矩陣表達(dá)式,則神經(jīng)網(wǎng)絡(luò)的系數(shù)迭代公式為
其中,I是單位矩陣,μ是算法的學(xué)習(xí)率。LM算法的一個顯著的特點(diǎn)在于,當(dāng)μ取較大值時,它接近于一階收斂的梯度下降法。當(dāng)μ取較小值時,它接近于二階收斂的算法;當(dāng)μ下降到0時,算法變成了高斯—牛頓算法。
針對LM算法有可能造成HPA預(yù)失真神經(jīng)網(wǎng)絡(luò)的過擬合缺陷[25],本文引入Bayesian正則化算法,修改網(wǎng)絡(luò)的目標(biāo)性能函數(shù),可以消除LM算法的過擬合現(xiàn)象。即在目標(biāo)函數(shù)式(4)中增加一項,此項為網(wǎng)絡(luò)參數(shù)權(quán)值的平方和均值項,新的目標(biāo)函數(shù)表達(dá)式為
其中,ED即式(4)中的V(X),,其中,wj為網(wǎng)絡(luò)權(quán)值??梢?,通過新的目標(biāo)函數(shù),可以保證網(wǎng)絡(luò)訓(xùn)練誤差在盡可能小的情況下使網(wǎng)絡(luò)具有較小的權(quán)值。根據(jù)公式計算推導(dǎo)可得Bayesian-LM更新神經(jīng)網(wǎng)絡(luò)系數(shù)的迭代公式為
式(11)是Bayesian和LM算法的有機(jī)結(jié)合,其中,α和β通過Bayesian算法獲得,網(wǎng)絡(luò)的系數(shù)通過LM更新。
正則化的難點(diǎn)在于確定 α、β的最優(yōu)化值,而Bayesian正則化算法可以在網(wǎng)絡(luò)訓(xùn)練的過程中自適應(yīng)的調(diào)整確定兩者的最優(yōu)化值。在Bayesian正則化算法中認(rèn)為網(wǎng)絡(luò)權(quán)值是隨機(jī)變量,在獲取數(shù)據(jù)之后,權(quán)系數(shù)的概率密度函數(shù)為
其中,D為網(wǎng)絡(luò)數(shù)據(jù)集,L是所使用的神經(jīng)網(wǎng)絡(luò)模型,X為網(wǎng)絡(luò)的權(quán)系數(shù)向量。P(X|α,L)是先驗概率,表示在收集數(shù)據(jù)前對權(quán)系數(shù)值的認(rèn)識。P(D|X,β,L)是似然函數(shù),表示在取定權(quán)值矢量X情況下數(shù)據(jù)出現(xiàn)的概率。P(D|α,β,L)是歸一化因子,保證總的概率為1。
利用式(12)可以獲得 P(D|α,β,L)的解[25]為
已知ZW(α)和ZD(β)為常數(shù)。由于目標(biāo)函數(shù)在最小值點(diǎn)附近的領(lǐng)域內(nèi)有二次型,因此可以在后驗概率最小值點(diǎn)XMP附近泰勒展開目標(biāo)函數(shù)。已知該點(diǎn)梯度為零,則可求解的歸一化常數(shù)為
Bayesian-LM算法的操作步驟總結(jié)如下。
1) 初始化網(wǎng)絡(luò)參數(shù),并且初始化比例參數(shù)α=0,β=1。
5) 利用式(11)更新網(wǎng)絡(luò)系數(shù)。
6)重復(fù)步驟2)~步驟4),直到算法收斂。
FIR-NLNNN和文獻(xiàn)[21,22]所述 RVTDNN區(qū)別在于:RVTDNN將輸入經(jīng)過若干抽頭延時作為神經(jīng)網(wǎng)絡(luò)的輸入進(jìn)而使神經(jīng)網(wǎng)絡(luò)能夠擬合功放的記憶效應(yīng);而FIR-NLNNN是利用新增的FIR部分?jǐn)M合功放的記憶效應(yīng),其網(wǎng)絡(luò)結(jié)構(gòu)更加簡潔。以抽頭延時為4、隱藏層的節(jié)點(diǎn)數(shù)為9為例,在RVTDNN中總的系數(shù)個數(shù)為119個。FIR-NLNNN結(jié)構(gòu)雖然新增了10個新參數(shù) W0,但總的系數(shù)個數(shù)只有 57個。這表明FIR-NLNNN結(jié)構(gòu)更加緊湊,系數(shù)個數(shù)減少了近一半。
選擇104個樣本點(diǎn)用FIR-NLNNN和RVTDNN進(jìn)行預(yù)失真,當(dāng)MSE小于10-6時,兩者所需的乘法、加法操作次數(shù)及執(zhí)行時間如表1所示。結(jié)果表明,F(xiàn)IR-NLNNN的系數(shù)迭代過程所需的乘法操作、加法操作次數(shù)比RVTDNN結(jié)構(gòu)少了近75%,執(zhí)行時間少了近50%。
表1 LM算法的執(zhí)行時間及迭代所需的浮點(diǎn)數(shù)操作次數(shù)
采用圖3所示的間接學(xué)習(xí)結(jié)構(gòu)作為本文功放預(yù)失真系統(tǒng)。選Saleh模型作為帶記憶功放模型,參數(shù)為,F(xiàn)IR的系統(tǒng)函數(shù)為,此時功放模型的增益1。輸入信號為CMMB信號,取2種結(jié)構(gòu)的抽頭延時數(shù)同為 4,隱藏層節(jié)點(diǎn)數(shù)為 9,更新算法為 LM 算法,學(xué)習(xí)率取 0.8,優(yōu)化算法為Bayesian算法。
預(yù)失真前帶記憶功放的AM/AM和AM/PM特性如圖4所示。由圖4可知,AM/AM的特性是一條帶遲滯的非線性曲線。當(dāng)輸入在0~1之間變化時,AM/PM 特性圖上相位存在不同程度的偏移,輸入越小時相位的偏移量越大。
圖4 預(yù)失真前功放的AM/AM和AM/PM特性
功放預(yù)失真后的AM/AM和AM/PM特性圖如圖5所示。帶預(yù)失真器的功放的AM/AM特性幾乎為一條斜率為1的直線且不帶遲滯,說明幅度放大基本上達(dá)到線性化。同時AM/PM特性在輸入幅度變化時,輸出相位的偏移基本為 0,說明相位預(yù)失真的目的基本上達(dá)到。這表明FIR-NLNNN預(yù)失真器和 RVTDNN預(yù)失真器均能有效地使 HPA線性化。
FIR-NLNNN和RVTDNN模型預(yù)失真器的均方誤差(MSE)收斂曲線如圖6所示。當(dāng)?shù)螖?shù)為10時,MSE均為10-6左右;當(dāng)?shù)螖?shù)為250時,MSE均為10-7左右,說明2種模型使用LM算法迭代更新時收斂速度快且性能相當(dāng)好。當(dāng)?shù)螖?shù)為2 000次時,F(xiàn)IR-NLNNN預(yù)失真器的MSE收斂曲線如圖 7所示,Bayesian-LM 算法很好地消除了LM算法在迭代1 380次附近出現(xiàn)的過擬合現(xiàn)象,保證了算法的持續(xù)收斂。
從圖8的預(yù)失真前后功放的功率譜可見,預(yù)失真后帶內(nèi)信號變得平整,2種預(yù)失真器結(jié)構(gòu)均能有效地降低30 dB左右的鄰信道功率比。
圖5 預(yù)失真后功放的AM/AM和AM/PM特性
圖6 預(yù)失真器LM算法的均方誤差曲線
圖7 Bayesian-LM與LM算法的收斂曲線
圖8 功放預(yù)失真前后功率譜
針對高功率功放的記憶效應(yīng)和非線性失真,本文基于多層感知神經(jīng)網(wǎng)絡(luò)的預(yù)失真原理,在RVTDNN結(jié)構(gòu)的基礎(chǔ)上構(gòu)建了一種新的預(yù)失真網(wǎng)絡(luò)結(jié)構(gòu) FIR-NLNNN,該結(jié)構(gòu)新增了網(wǎng)絡(luò)參數(shù)W0,文中給出了誤差e(x)對W0的偏導(dǎo)公式。在預(yù)失真神經(jīng)網(wǎng)絡(luò)中引入 Bayesian-LM 算法有效地消除LM算法的過擬合現(xiàn)象,保證算法持續(xù)收斂。通過 MATLAB仿真,結(jié)果表明,2種結(jié)構(gòu)的預(yù)失真器均能較好地擬合功放的非線性和記憶效應(yīng),提高了系統(tǒng)的性能,使鄰信道功率比降低 30 dB左右。與 RVTDNN結(jié)構(gòu)相比,在保證相同的預(yù)失真器性能情況下,本文提出的FIR-NLNNN結(jié)構(gòu),可以將網(wǎng)絡(luò)參數(shù)減少近50%,使網(wǎng)絡(luò)結(jié)構(gòu)更簡單。在迭代優(yōu)化過程中,乘法和加法操作次數(shù)減少近75%,說明FIR-NLNNN結(jié)構(gòu)的計算量更少。
[1] CAVERS J K. Amplifier linearization using a digital predistorter with fast adaptation and low memory requirements[J]. IEEE Transactions on Vehicular Technology, 1990, 39(4):374-381.
[2] VARAJRAM P, MOHAMMSDY S, HAMIDON M N. Complex gain predistortion in WCDMA power amplifiers with memory effects[J].The International Arab Journal of Information Technology, 2010,7(3):333-339.
[3] MIRRI D, IUCULANO G, FILICORI F. A modified volterra series approach for nonlinear dynamic systems modeling[J]. IEEE Transactions on Circuits and Systems, Fundamental Theory and Applications, 2002,49(8):1118-1127.
[4] ZHU A, BRAZIL T J. Behavioral modeling of RF power amplifiers based on pruned voterra eries[J]. IEEE Microwave and Wireless Components Letters, 2004, 14(12):563-565.
[5] SAFARI N, ROSTE T, FEDORENKO P. An approximation of volterra series using delay envelopes, applied to digital predistortion of RF power amplifiers with memory effects[J]. IEEE Microwave and Wireless Components Letters, 2008, 18(2): 115-117.
[6] QIU W, ZHONG Z, REN G C. The research of adaptive digital predistortion based on SISO-neural network[A]. International Conference on Communications and Mobile Computing[C]. China, 2009. 451-454.
[7] ZAYNNI R, BOUALLENGUE R, ROVIRAS D. An adaptive neural network predistorter for nonstationary HPA in OFDM systems[A]. The 15th European Signal Processing Conference[C]. Poznan, Poland, 2007.1353-1354.
[8] DING Y M, JIAO D P, WANG J K. A review of adaptive predistortion techniques of HPA[A]. Asia Pacific Conference on Postgraduate Research in Microelectronics and Electronics[C]. Shanghai, China, 2009. 341-343.
[9] ZAYNNI R, BOUALLENGUE R. Predistortion for the compensation of HPA nonlinearity with neural networks: application to satellite communications[J]. International Journal of Computer Science and Network Security, 2007, 7(3):98-101.
[10] BOUMAIZA S, MKADEM F. Wideband RF power amplifier predistortion using real-valued time-delay neural networks[A]. Proceeding of the 39th European Microwave Conference[C]. Rome, Italy, 2009.1149-1151.
[11] 瞿建峰, 周健義, 洪偉.有記憶的功放實(shí)數(shù)延時模糊神經(jīng)網(wǎng)絡(luò)模型[J]. 微波學(xué)報, 2009, 25(5): 41-43.QU J F, ZHOU J Y, HONG W. Real-valued time-delay neuro-fuzzy model for power amplifier with memory effects[J]. Journal of Microwaves,2009, 25(5):41-43.
[12] SALEH A. Frequency-independent and frequency-dependent nonlinear models of TWT amplifiers[J]. IEEE Transactions on Communications,1981, 29(11):1117-1120.
[13] 張玉梅, 南敬昌.基于 Saleh函數(shù)的功放行為模型研究[J].微電子學(xué)與計算機(jī), 2010, 27(12):121-126.ZHANG Y M, NAN J C.Study of behavior models based on the Saleh function for power amplifier[J]. Microelectronics and Computer, 2010,27(12): 121-126.
[14] JARDIN P, BAUDOIN G. Filter look up table method for power amplifiers linearization[J]. IEEE Transaction on Vehicular Technology,2007, 56(3):1996-1999.
[15] HAGAN M T, DEMUTH H B, BEALE M. Neural Network Design[M].Beijing: China Machine Press, 2002.197-235.
[16] BOSCH W, GATTI G. Measurement and simulation of memory effects in predistortion linearizers[J]. IEEE Transactions on Microwave Theory and Techniques, 1989, 37(12):1885-1888.
[17] CUI H, AI B, ZHAO X M.Design of a BPNN predistorter for nonlinear HPA with memory[J]. Journal of Information and Computational Science,2010, 7(4):863-868.
[18] ZAYNNI R, BOUALLENGUE R, ROVIRAS D. Adaptive predistortions based on neural networks associated with levenberg marquardt algorithm for satellite down links[J]. EURASIP Journal on Wireless Communications and Networking, 2008, 2008:132729.
[19] RAWAT M, RAWAT K. Adaptive digital predistortion of wireless power amplifiers/transmitters uing dynamic real-vlued focused timedelay line neural networks[J]. IEEE Transactions on Microwave Theory and Techniques, 2010, 58(1): 95-100.
[20] CUI H, ZHAO X M. A novel NN-predistorter learning method for nonlinear HPA[J]. Wireless Pres Commun, 2012, 63(2):469-482.
[21] MKADEM F, BOUMAIZA S. Physically inspired neural network model for RF power amplifier behavioral modeling and digital predistortion[J]. IEEE Transactions on Microwave Theory and Techniques,2011, 59(4): 913-922.
[22] RAWAT M, GHANNOUCHI F M. A mutual distortion and impairment compensator for wideband direct-conversion transmitters using neural networks[J]. IEEE Transactions on Broadcasting, 2012,58(2):168-176.
[23] 錢業(yè)青.一種高效的用于 RF功率放大器線性化的自適應(yīng)預(yù)失真結(jié)構(gòu)[J].通信學(xué)報, 2006, 27(5):36-39.QIAN Y Q. High-efficient adaptive predistortion structure for RF power amplifier linearization[J]. Journal on Communications, 2006,27(5): 36-39.
[24] HAGAN M T, MENHAJ M B. Training feed-forward networks with the marquardt algorithm[J]. IEEE Transactions on Neural Networks,1994, 5(6):989-991.
[25] FORESEE D F, HAGAN M T. Gauss-newton approximation to bayesian learning[A]. International Conference on Neural Networks[C]. Houston,TX, 1997.1930-1932.