国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于數(shù)據(jù)驅(qū)動(dòng)深度學(xué)習(xí)方法的無(wú)線信道均衡

2018-09-21 11:11李揚(yáng)周明拓
中興通訊技術(shù) 2018年2期
關(guān)鍵詞:無(wú)線通信神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)

李揚(yáng) 周明拓

摘要:無(wú)線信道均衡可以被看成將接收端符號(hào)恢復(fù)成發(fā)射符號(hào)集中某個(gè)符號(hào)的問(wèn)題;而無(wú)線通信系統(tǒng)中的許多恢復(fù)過(guò)程可以被認(rèn)為是通過(guò)學(xué)習(xí)一組具有良好的概率包絡(luò)和相干時(shí)間的隨機(jī)濾波器來(lái)克服信號(hào)的線性混合、旋轉(zhuǎn)、時(shí)移、縮放以及卷積等特性。具體地,使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)來(lái)學(xué)習(xí)這些濾波器,然后將學(xué)習(xí)到的濾波器送入后續(xù)的循環(huán)神經(jīng)網(wǎng)絡(luò)進(jìn)行時(shí)域建模,最后對(duì)信號(hào)進(jìn)行分類(lèi)。實(shí)驗(yàn)顯示:卷積-循環(huán)神經(jīng)網(wǎng)絡(luò)(CRNN)均衡器與傳統(tǒng)的遞歸最小二乘濾波器(RLS)、多層感知機(jī)濾波器(MLP)在達(dá)到相同誤碼率(SER)情況下好2~4 dB。

關(guān)鍵詞: 信道均衡;無(wú)線通信;深度學(xué)習(xí);神經(jīng)網(wǎng)絡(luò)

Abstract: Channel equalization can be viewed as a task that classifies or reconstructs the received signal as a symbol from the transmitting symbol set at the receiver. Many recovery processes in wireless communication systems can be considered to overcome linear mixing, rotation, time-shift, scaling and convolution by learning a set of random filters with good probabilistic envelope and coherent time. Concretely, convolutional neural network (CNN) is used to learn these filters, which are send into the subsequent recurrent neural network (RNN) for temporal modeling, and finally the signals are classified. Experimental results show that our convolutional recurrent neural network-based (CRNN) equalizer outperforms the recursive least square (RLS) and multi-layer perceptron network (MLP) equalizers by average 2 to

4 dB with the same symbol error rate (SER).

Key words: channel equalization; wireless communications; deep learning; neural network

在數(shù)字無(wú)線通信系統(tǒng)中,二進(jìn)制符號(hào)通過(guò)色散信道傳輸,導(dǎo)致產(chǎn)生時(shí)延擴(kuò)展和符號(hào)間串?dāng)_(ISI);而ISI的存在阻礙了頻率帶寬的有效利用和系統(tǒng)性能的提高[1]。無(wú)線信道基本上可以用一個(gè)復(fù)數(shù)值有限脈沖響應(yīng)(FIR)濾波器來(lái)表示,而信道輸出是濾波器抽頭權(quán)重的線性組合,并且被噪聲污染。信道均衡則是基于信道觀測(cè)來(lái)抵消ISI和噪聲的影響,從而重建傳輸序列。通常,傳輸信道會(huì)受到線性和非線性失真的影響,現(xiàn)實(shí)中往往將信道建模為一個(gè)非線性系統(tǒng)。傳統(tǒng)的線性均衡算法,如遞歸最小二乘(RLS)[2]算法,在信道非線性特性強(qiáng)烈及多徑豐富的情況下無(wú)法保證較低的誤碼率。

人工神經(jīng)網(wǎng)絡(luò)的強(qiáng)大非線性擬合能力近來(lái)在無(wú)線信道均衡領(lǐng)域受到了較多關(guān)注。文獻(xiàn)[3-4]中,作者分別使用了不同結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)進(jìn)行均衡,并與傳統(tǒng)的信道均衡器做對(duì)比,發(fā)現(xiàn)神經(jīng)網(wǎng)絡(luò)算法能達(dá)到更低的誤比特率。文獻(xiàn)[5]中作者提出一種基于自適應(yīng)決策反饋的信道均衡器,其中使用了多層感知機(jī)(MLP)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),來(lái)解決通信衛(wèi)星的信道均衡問(wèn)題。由于無(wú)線信號(hào)由復(fù)數(shù)值表示,文獻(xiàn)[6]中作者提出一種基于復(fù)數(shù)值的多層感知機(jī)神經(jīng)網(wǎng)絡(luò),并提出一種基于復(fù)數(shù)值的反向傳播算法,使得其更適用于實(shí)際系統(tǒng)。

受時(shí)變信道的影響,無(wú)線信號(hào)屬于時(shí)間序列數(shù)據(jù),但是上述信道均衡器并未將這一特性考慮在內(nèi)。因此,本文中我們提出一種基于卷積-循環(huán)神經(jīng)網(wǎng)絡(luò)(CRNN)的信道均衡器,其特點(diǎn)是既考慮了信道的非線性又兼顧了信道的時(shí)變性。我們利用卷積神經(jīng)網(wǎng)絡(luò)的平移不變性來(lái)學(xué)習(xí)像傳統(tǒng)濾波器抽頭權(quán)重那樣的匹配濾波器,然后再將學(xué)習(xí)到的濾波器送入接下來(lái)的循環(huán)神經(jīng)網(wǎng)絡(luò)進(jìn)行時(shí)間建模,繼而就可以用于對(duì)接收到的信號(hào)進(jìn)行分類(lèi)。

具體地,我們使用自制的8×8并行多輸入多輸出(MIMO)通信系統(tǒng)收集實(shí)際的收發(fā)信號(hào),構(gòu)建成用于訓(xùn)練我們神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)集。特別地,收發(fā)端僅使用一根天線,從而組成一個(gè)單發(fā)單收系統(tǒng),信號(hào)發(fā)送采用正交相移鍵控(QPSK)調(diào)制。據(jù)我們所知,我們是第一個(gè)采用CRNN結(jié)構(gòu)進(jìn)行信道均衡的[7]。我們的主要貢獻(xiàn)總結(jié)如下:

(1)通過(guò)將信道均衡建模成一個(gè)條件概率分布學(xué)習(xí)問(wèn)題,從而可以使用神經(jīng)網(wǎng)絡(luò)算法進(jìn)行求解。

(2)基于問(wèn)題建模,我們提出一種基于CRNN的信道均衡器,在其中既考慮了信道的非線性失真又兼顧了信道的時(shí)變性。

我們將所提出的CRNN均衡器與傳統(tǒng)的RLS均衡器,以及MLP均衡器在誤碼(SER)率性能上進(jìn)行了比較。大量實(shí)驗(yàn)結(jié)果顯示:我們的CRNN均衡器要比其他另外兩個(gè)均衡器在達(dá)到相同SER時(shí)好2~4 dB。

1 問(wèn)題建模

無(wú)線信道均衡可以表示成如圖1所示的條件概率分布學(xué)習(xí)問(wèn)題。具體地,我們假設(shè)發(fā)送符號(hào)集為S,當(dāng)中包含K個(gè)符號(hào),為方便建模,我們以自然數(shù)1~K來(lái)表示這K個(gè)符號(hào)。對(duì)于給定的接收信號(hào)[y(i)] ,信道均衡的作用就是將其識(shí)別或者還原為發(fā)送符號(hào)集的某符號(hào)[x(i)=k] ,通過(guò)計(jì)算對(duì)應(yīng)于每個(gè)發(fā)送符號(hào)的條件概率(也即整個(gè)符號(hào)集的條件概率分布),我們可以得出條件概率最大的符號(hào)即為[y(i)]最可能的對(duì)應(yīng)發(fā)送符號(hào)。在這當(dāng)中,[y(i)]由有限個(gè)時(shí)延副本構(gòu)成:

基于以上推導(dǎo),目前我們需要一個(gè)標(biāo)準(zhǔn)對(duì)神經(jīng)網(wǎng)絡(luò)調(diào)整參數(shù)后的預(yù)測(cè)性能進(jìn)行評(píng)估。具體地,我們引入交叉熵?fù)p失函數(shù)進(jìn)行這項(xiàng)評(píng)價(jià),其表示如下:

其中,m為訓(xùn)練集樣本的個(gè)數(shù),一個(gè)訓(xùn)練樣本可表示為[(y(i),x(i))] 。[y(i)]為接收符號(hào),[x(i)]為該接收信號(hào)對(duì)應(yīng)的真實(shí)發(fā)送符號(hào),在機(jī)器學(xué)習(xí)的語(yǔ)境中則為樣本對(duì)應(yīng)的標(biāo)簽。1{·}為指示函數(shù),表示在大括號(hào)里的假設(shè)若為真則返回1,否則返回0。該函數(shù)對(duì)一組神經(jīng)網(wǎng)絡(luò)權(quán)重w所導(dǎo)致的預(yù)測(cè)誤差進(jìn)行計(jì)算,我們利用收集到的訓(xùn)練樣本集合通過(guò)調(diào)節(jié)w最小化這一函數(shù)從而提高預(yù)測(cè)準(zhǔn)確率。

2 CRNN無(wú)線信道均衡器

基于以上問(wèn)題建模,我們提出一種流水線式神經(jīng)網(wǎng)絡(luò)均衡器,由2部分構(gòu)成:第1部分為一個(gè)卷積神經(jīng)網(wǎng)絡(luò);第2部分為一個(gè)循環(huán)神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)的原理詳細(xì)可見(jiàn)文獻(xiàn)[8],本文由于篇幅所限將不深入討論。

我們所提出的CRNN均衡器如圖2所示,除輸入和輸出之外,其為一個(gè)5層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。輸入層為一個(gè)2xN的接收符號(hào),分別由N個(gè)時(shí)延副本的實(shí)部和虛部構(gòu)成。輸入層后接第1個(gè)卷積層Conv,卷積層是卷積神經(jīng)網(wǎng)絡(luò)中最關(guān)鍵的環(huán)節(jié),用于提取輸入樣本的特征[9]。每個(gè)卷積層都由若干個(gè)卷積核組成,每個(gè)卷積核都是一個(gè)特定長(zhǎng)、寬的2D濾波器,在計(jì)算機(jī)中由一個(gè)隨機(jī)初始化的2D權(quán)重矩陣表示。這些卷積核會(huì)以一定的步長(zhǎng)遍歷整個(gè)上層輸入進(jìn)行卷積操作,生成特征圖,即我們前文提到的匹配濾波器。神經(jīng)網(wǎng)絡(luò)下一層為Dropout,表示上層有多少比例的神經(jīng)元與下一層進(jìn)行連接,由1個(gè)0~1之間的參數(shù)控制。該層的作用是適當(dāng)降低神經(jīng)網(wǎng)絡(luò)的表達(dá)能力,降低神經(jīng)網(wǎng)絡(luò)過(guò)擬合的可能性。接下來(lái)的卷積層的作用與第1個(gè)卷積層相同,但是進(jìn)一步學(xué)習(xí)更加抽象地表達(dá),即可能得到的是有利于識(shí)別信號(hào)的幅度、相位、多普勒頻移等特征。卷積神經(jīng)網(wǎng)絡(luò)的最后一層是1個(gè)Max-pooling層,具體操作類(lèi)似于卷積核,但僅提取對(duì)應(yīng)面積內(nèi)最大的權(quán)重值,一方面用于減少連接數(shù),降低復(fù)雜度,另一方面可以獲得局部相似性特征。我們使用卷積神經(jīng)網(wǎng)絡(luò)的原因在于無(wú)線通信系統(tǒng)中許多信號(hào)識(shí)別或還原是通過(guò)學(xué)習(xí)一組具有良好的概率包絡(luò)和相干時(shí)間的隨機(jī)濾波器來(lái)克服信號(hào)的線性混合、旋轉(zhuǎn)、時(shí)移、縮放以及卷積等特性。那么經(jīng)過(guò)上述一系列操作之后,卷積神經(jīng)網(wǎng)絡(luò)就學(xué)習(xí)出了這些濾波器。

下一步我們將這些學(xué)習(xí)到的匹配濾波器送入由長(zhǎng)短時(shí)記憶(LSTM)單元[10]構(gòu)成的循環(huán)神經(jīng)網(wǎng)絡(luò)用于時(shí)間建模,以克服無(wú)線信道的時(shí)變特性。具體地,LSTM單元通過(guò)記憶上一時(shí)刻的狀態(tài)并把這一狀態(tài)加入當(dāng)前狀態(tài)的計(jì)算,來(lái)進(jìn)行時(shí)間依賴(lài)學(xué)習(xí)。需要注意的是:LSTM層的權(quán)重在每一時(shí)刻都是共享的。最后,我們使用Softmax對(duì)結(jié)果進(jìn)行歸一化并得到發(fā)送符號(hào)的條件概率分布。

至此,我們可以開(kāi)始使用大量預(yù)先收集的收發(fā)數(shù)據(jù)訓(xùn)練所提出的CRNN均衡器。下一步,我們將討論如何獲取這些所需數(shù)據(jù)。

3 數(shù)據(jù)獲取

如圖3所示,我們采用自研的8×8 MIMO系統(tǒng)進(jìn)行數(shù)據(jù)采集,為了保證測(cè)試數(shù)據(jù)的真實(shí)性和均衡算法的可靠性,保證采集數(shù)據(jù)的多樣化,我們?cè)诙鄠€(gè)典型室內(nèi)通信場(chǎng)景下采集無(wú)線收發(fā)數(shù)據(jù)。在采集實(shí)驗(yàn)中信號(hào)發(fā)射端采用正交相移鍵控(QPSK)調(diào)制模式,發(fā)送端以100 Mbit/s的碼片速率連續(xù)發(fā)送4 096個(gè)QPSK碼片200次。采集的數(shù)據(jù)平均分布于信噪比為-10~20 dB的區(qū)間內(nèi),且為簡(jiǎn)單地驗(yàn)證起見(jiàn),采集過(guò)程中我們僅使用單發(fā)單收設(shè)置。值得注意的是:在特定信噪比下收集的數(shù)據(jù)將單獨(dú)構(gòu)成子數(shù)據(jù)集,我們的CRNN訓(xùn)練將由每個(gè)不同的子數(shù)據(jù)集單獨(dú)訓(xùn)練并篩選出表現(xiàn)最好的模型。具體地,每個(gè)子數(shù)據(jù)集包含11萬(wàn)對(duì)收發(fā)數(shù)據(jù),其中10萬(wàn)對(duì)數(shù)據(jù)用于訓(xùn)練CRNN,其余數(shù)據(jù)用于對(duì)模型進(jìn)行測(cè)試。

4 模型訓(xùn)練及測(cè)試結(jié)果

4.1 超參數(shù)優(yōu)化

在第3節(jié)中,我們指出通過(guò)調(diào)整神經(jīng)網(wǎng)絡(luò)的連接權(quán)重w,就可以?xún)?yōu)化神經(jīng)網(wǎng)絡(luò)均衡器對(duì)于接收信號(hào)的預(yù)測(cè)結(jié)果。除了連接權(quán)重這些參數(shù),類(lèi)似于神經(jīng)網(wǎng)絡(luò)隱藏層個(gè)數(shù)、特定隱藏層的神經(jīng)元個(gè)數(shù)、神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練時(shí)的梯度下降學(xué)習(xí)率等需要人工試驗(yàn)的參數(shù),我們稱(chēng)之為超參數(shù)。因此,均衡器最終的預(yù)測(cè)效果除了依賴(lài)于神經(jīng)網(wǎng)絡(luò)的連接權(quán)重,也取決于神經(jīng)網(wǎng)絡(luò)的各個(gè)超參數(shù)。而如何確定超參數(shù)的值,以及采取何種操作使得神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)效果最好的過(guò)程被稱(chēng)為超參數(shù)優(yōu)化。

在實(shí)際工程中,我們通常使用網(wǎng)格搜索法進(jìn)行超參數(shù)優(yōu)化,也即采用窮搜法逐個(gè)試驗(yàn)各個(gè)人工設(shè)定的超參數(shù)組合,從而確定一組最佳超參數(shù)組合。本文中,我們將固定一些超參數(shù)從而避免搜索空間過(guò)大,導(dǎo)致調(diào)節(jié)效率低下。

除批數(shù)量外,表1中選取固定的超參數(shù)基本為我們的CRNN均衡器的結(jié)構(gòu)參數(shù)。批數(shù)量是利用數(shù)據(jù)集進(jìn)行最小化損失函數(shù)的隨機(jī)梯度下降操作時(shí)需要確定的參數(shù),它決定了在每次梯度下降時(shí)可同時(shí)參與更新權(quán)重w所應(yīng)選取的數(shù)據(jù)個(gè)數(shù)。

選取了固定的超參數(shù)之后,我們需要對(duì)剩下的超參數(shù)進(jìn)行優(yōu)化。具體地,我們將優(yōu)化學(xué)習(xí)率[γ] 、Dropout層神經(jīng)元連接丟棄比率、訓(xùn)練批次等3個(gè)超參數(shù)。如圖4所示,在訓(xùn)練過(guò)程中交叉熵?fù)p失在當(dāng)學(xué)習(xí)率[γ=1×10-2] 或[γ=1×10-3] 時(shí)下降。雖然不夠明顯,但[γ=1×10-3]時(shí)交叉熵?fù)p失函數(shù)收斂到一個(gè)更低的值。我們還可以看到:當(dāng)[γ=1×10-1] 時(shí),交叉熵?fù)p失一直處于振蕩狀態(tài)并未明顯下降。這說(shuō)明此學(xué)習(xí)率過(guò)大,對(duì)于梯度下降步長(zhǎng)過(guò)大導(dǎo)致無(wú)法找到正確的使損失函數(shù)下降的方向。我們將訓(xùn)練集劃分為互不相交的訓(xùn)練集和驗(yàn)證集,與之對(duì)應(yīng)得到的準(zhǔn)確率分別為訓(xùn)練準(zhǔn)確率和驗(yàn)證準(zhǔn)確率。驗(yàn)證準(zhǔn)確率指示了模型的泛化性能,因?yàn)轵?yàn)證集中的數(shù)據(jù)在訓(xùn)練集中從未遇到過(guò)。從而,我們可以利用驗(yàn)證準(zhǔn)確率來(lái)判斷該超參數(shù)設(shè)置是否真正有效。圖5表示當(dāng)我們?cè)O(shè)置不同的神經(jīng)元連接丟失比率時(shí),CRNN均衡器預(yù)測(cè)準(zhǔn)確率的表現(xiàn),其中實(shí)線為訓(xùn)練準(zhǔn)確率,虛線為驗(yàn)證準(zhǔn)確率??梢钥闯觯寒?dāng)Dropout層神經(jīng)元連接丟棄比率為0時(shí),我們得到更高的訓(xùn)練準(zhǔn)確率和驗(yàn)證準(zhǔn)確率,這說(shuō)明先前的超參數(shù)設(shè)置導(dǎo)致的模型訓(xùn)練結(jié)果并未過(guò)擬合我們的訓(xùn)練集。因此,針對(duì)本文實(shí)驗(yàn)而言,Dropout層并無(wú)必要加入CRNN均衡器結(jié)構(gòu)中。最后一個(gè)需要優(yōu)化的超參數(shù)為訓(xùn)練批次,其定義為訓(xùn)練集被完全迭代的次數(shù),而訓(xùn)練過(guò)程遍歷完一次訓(xùn)練集稱(chēng)為訓(xùn)練一個(gè)批次。當(dāng)訓(xùn)練批次較大時(shí),不同的訓(xùn)練批次導(dǎo)致的驗(yàn)證準(zhǔn)確率差別很小,因此我們使用驗(yàn)證誤差來(lái)評(píng)價(jià)超參數(shù)的影響。如圖6所示,訓(xùn)練批次對(duì)于準(zhǔn)確率的增益是有上限的。那么我們需要找到最小的上限,以防止過(guò)度訓(xùn)練。在工程實(shí)驗(yàn)中,我們可以使用訓(xùn)練提前停止方法,即監(jiān)測(cè)控制訓(xùn)練批次對(duì)于準(zhǔn)確率增益的影響,當(dāng)相鄰若干次準(zhǔn)確率增長(zhǎng)非常小時(shí),我們認(rèn)為訓(xùn)練批次達(dá)到了它對(duì)于準(zhǔn)確率增益的上限,這時(shí)便可以提前終止訓(xùn)練。在我們的實(shí)驗(yàn)中,當(dāng)訓(xùn)練批次為40時(shí),驗(yàn)證誤差最小,也即驗(yàn)證準(zhǔn)確率最大。另外,需要強(qiáng)調(diào)的是:上述超參數(shù)優(yōu)化是在信噪比為15 dB的數(shù)據(jù)集下進(jìn)行的。我們?cè)诰€下對(duì)比發(fā)現(xiàn):信噪比為15 dB時(shí)的數(shù)據(jù)集訓(xùn)練出的CRNN均衡器的泛化性能最好,因此我們?cè)谄渌旁氡认乱彩褂眯旁氡葹?5 dB的數(shù)據(jù)集模型。

4.2 誤碼率性能

誤碼率(SER)是信道均衡器的一個(gè)重要性能指標(biāo),我們也實(shí)現(xiàn)了RLS均衡器和MLP均衡器并將它們與我們訓(xùn)練得到的CRNN均衡器對(duì)比SER性能。

圖6顯示了3種信道均衡器在信噪比為-10~20 dB時(shí)的SER性能,顯然當(dāng)信噪比低于0 dB時(shí),它們均無(wú)法符合性能要求,此時(shí)CRNN基本只能從噪聲中學(xué)習(xí)而無(wú)法學(xué)習(xí)到有效的信道特征。當(dāng)信噪比在0~10 dB時(shí),CRNN均衡器在達(dá)到相同SER情況下要比RLS、MLP均衡器平均高2 dB。而當(dāng)信噪比在10~15 dB時(shí),CRNN均衡器在達(dá)到相同SER情況下比另外兩個(gè)均衡器平均高4 dB,這意味著CRNN在信號(hào)特征明顯時(shí)能比傳統(tǒng)均衡器學(xué)習(xí)到更多的信道特征。

5 結(jié)束語(yǔ)

本文中我們提出了一種基于CRNN的算法,來(lái)解決非線性時(shí)變信道的均衡問(wèn)題,并在實(shí)際系統(tǒng)中進(jìn)行了驗(yàn)證。具體地,我們使用卷積神經(jīng)網(wǎng)絡(luò)來(lái)學(xué)習(xí)匹配濾波器,然后將學(xué)習(xí)到的濾波器送入后續(xù)的循環(huán)神經(jīng)網(wǎng)絡(luò)進(jìn)行時(shí)域建模,最后對(duì)信號(hào)進(jìn)行分類(lèi)。實(shí)驗(yàn)表明:相比RLS、MLP算法,CRNN均衡算法能夠更好地處理真實(shí)通信環(huán)境中的無(wú)線信道均衡問(wèn)題。

參考文獻(xiàn)

[1] LYU X, FENG W, SHI R, et al. Artificial Neural Networkbased Nonlinear Channel Equalization: A Soft-Output Perspective[C]// Proceedings of the International Conference on Telecommunications (ICT). USA:IEEE, 2015: 243-248.DOI: 10.1109/ICT.2015.7124690

[2] WANG Y. Channel Equalization Using a Robust Recursive Least-Squares Adaptive-Filtering Algorithm[C]//Proceedings of the IEEE International Conference on Computer and Information Technology (ICCIT).USA:IEEE, 2012: 135-138.DOI: 10.1109/CIT.2012.49

[3] BURSE K, YADAY R N, SHRIVASTAVA S C. Channel Equalization Using Neural Networks: A Review[J].IEEE Transactions on Systems, Man,and Cybernetics, Part C (Applications and Reviews),2010,40(3): 352-357.DOI: 10.1109/TSMCC.2009.2038279

[4] PATRA J C, BENG POH W, CHAUDHARI N S, et al. Nonlinear Channel Equalization with QAM Signal Using Chebyshev Artificial Neural Network[C]// Proceedings of the IEEE International Joint Conference on Neural Networks. USA:IEEE, 2005,(5):3214-3219.DOI: 10.1109/IJCNN.2005.1556442

[5] CHANG P, WANG B. Adaptive Decision Feedback Equalization for Digital Satellite Channels Using Multilayer Neural Networks[J].IEEE Journal on Selected Areas in Communications, 1995,13(2): 316-324

[6] HUANG R C, CHEN M S. Adaptive Equalization Using Complex-Valued Multilayered Neural Network Based on the Extended Kalman Filter[C]// Proceedings of the International Conference on Signal Processing. USA:IEEE, 2000:519-524

[7] LI Y, CHEN M H, YANG Y, M.T.et al. Convolutional Recurrent Neural Network-Based Channel Equalization: An Experimental Study[C]// Proceedings of the Aisa-Pacific Conference on Communications (APCC). USA:IEEE, 2017. DOI: 10.23919/APCC.2017.8304090

[8] GOODFELLOW I, BENGIO Y, COURVILLE A. Deep Learning[M]. USA:MIT Press, 2016

[9] LECUN Y, BOTTOU L, BENGIO Y, et al. Gradient-Based Learning Applied to Document Recognition[C]//Proceedings of the IEEE. USA:IEEE, 1998, 86(11):2278-2324

[10] HOCHREITER S, SCHMIDHUBER J. Long Short-Term Memory[J]. Neural Computation, 1997, 9(8):1735-1780

猜你喜歡
無(wú)線通信神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)
基于人工智能LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)成績(jī)預(yù)測(cè)
基于圖像處理與卷積神經(jīng)網(wǎng)絡(luò)的零件識(shí)別
基于自適應(yīng)神經(jīng)網(wǎng)絡(luò)的電網(wǎng)穩(wěn)定性預(yù)測(cè)
三次樣條和二次刪除相輔助的WASD神經(jīng)網(wǎng)絡(luò)與日本人口預(yù)測(cè)
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
基于ZigBee的艙內(nèi)人員巡檢系統(tǒng)的應(yīng)用研究
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
海林市| 平果县| 武山县| 兰考县| 葫芦岛市| 海门市| 阿拉善右旗| 拜泉县| 英德市| 高清| 安泽县| 济源市| 昌宁县| 太保市| 黑龙江省| 襄城县| 鹤峰县| 平南县| 利川市| 綦江县| 宁远县| 上高县| 衡阳市| 新巴尔虎左旗| 城市| 蒲江县| 南丰县| 敦煌市| 尼木县| 明溪县| 乡城县| 崇明县| 隆昌县| 明光市| 镇雄县| 阿图什市| 长岭县| 泗水县| 佛冈县| 临颍县| 泸溪县|