国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種噪聲環(huán)境下的雷達(dá)目標(biāo)高分辨率距離像魯棒識(shí)別方法

2020-09-05 14:35李瑋杰劉永祥
雷達(dá)學(xué)報(bào) 2020年4期
關(guān)鍵詞:識(shí)別率編碼器信噪比

李瑋杰 楊 威 黎 湘 劉永祥

(國防科技大學(xué)電子科學(xué)學(xué)院 長沙 410073)

1 引言

傳統(tǒng)雷達(dá)目標(biāo)識(shí)別技術(shù)依賴于人工設(shè)計(jì)的特征,而這些特征的完整性和有效性往往缺乏有力保證,并且復(fù)雜電磁環(huán)境會(huì)干擾識(shí)別結(jié)果,導(dǎo)致傳統(tǒng)雷達(dá)目標(biāo)識(shí)別技術(shù)的精確性和魯棒性面臨極大挑戰(zhàn)。而深度學(xué)習(xí)技術(shù)可以自動(dòng)提取目標(biāo)本質(zhì)特征,這種端到端的學(xué)習(xí)方式大大提升目標(biāo)識(shí)別的精確性和魯棒性。

有學(xué)者通過不同的深度學(xué)習(xí)方法對(duì)高分辨率距離像(High Resolution Range Profile, HRRP)進(jìn)行目標(biāo)識(shí)別,主流算法包括卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)、棧式自編碼器(Stacked AutoEncoder, SAE)、深度置信網(wǎng)絡(luò)(Deep Belief Networks, DBN)以及循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)等[1]。其中,文獻(xiàn)[2]將CNN應(yīng)用于HRRP識(shí)別,在–20~40 dB的高斯白噪聲環(huán)境情況下擴(kuò)展訓(xùn)練集樣本,對(duì)3類目標(biāo)進(jìn)行識(shí)別,平均識(shí)別率達(dá)到91.4%。文獻(xiàn)[3]使用直接基于極化距離矩陣、Pauli分解和Freeman分解3種方式提取極化距離矩陣中的信息,并將提取得到的目標(biāo)特征向量送入CNN進(jìn)行訓(xùn)練,最終識(shí)別率達(dá)到100%。文獻(xiàn)[4]提出利用RNN中的長短時(shí)記憶循環(huán)神經(jīng)網(wǎng)絡(luò)(Long-Short Term Memory recurrent neural network, LSTM)對(duì)HRRP進(jìn)行識(shí)別,使用175個(gè)數(shù)據(jù)進(jìn)行訓(xùn)練,測(cè)試100個(gè)樣本,全部識(shí)別成功。文獻(xiàn)[5]提出一種基于RNN的注意模型,使得模型自適應(yīng)衡量每一個(gè)數(shù)據(jù)段在識(shí)別中起到的作用,訓(xùn)練樣本個(gè)數(shù)為 7375,測(cè)試數(shù)據(jù)的樣本個(gè)數(shù)為16655,測(cè)試樣本識(shí)別率達(dá)到88.3%。文獻(xiàn)[6]將雙向LSTM的模型應(yīng)用于HRRP數(shù)據(jù)識(shí)別,訓(xùn)練樣本個(gè)數(shù)為 7800,測(cè)試數(shù)據(jù)的樣本個(gè)數(shù)為5124,識(shí)別率達(dá)到了90.1%。文獻(xiàn)[7]提出了一種基于雙向GRU的注意力機(jī)制模型,訓(xùn)練樣本個(gè)數(shù)為 7800,測(cè)試數(shù)據(jù)的樣本個(gè)數(shù)為5124,識(shí)別率達(dá)到了90.7%。文獻(xiàn)[8]中將棧式降噪稀疏自編碼器(stacked Denoising Sparse AutoEncoder, sDSAE)用于雷達(dá)目標(biāo)識(shí)別,由于深度的增加,該方案的識(shí)別效果比K近鄰分類方法和棧式自編碼器好。文獻(xiàn)[9]使用支持向量機(jī)、深度神經(jīng)網(wǎng)絡(luò)、SAE對(duì)Su27, J6, M2K 3種仿真戰(zhàn)斗機(jī)的HRRP數(shù)據(jù)進(jìn)行識(shí)別,識(shí)別率分別為74.26%, 79.63%和85.00%。

對(duì)基于深度學(xué)習(xí)的雷達(dá)目標(biāo)HRRP識(shí)別模型,研究尚在起步階段,上述研究將深度學(xué)習(xí)應(yīng)用于雷達(dá)目標(biāo)識(shí)別領(lǐng)域取得了較好的成果,但較少考慮到低信噪比情況下如何提高模型的抗噪聲性能。本文提出了一種噪聲環(huán)境下的雷達(dá)目標(biāo)HRRP魯棒識(shí)別方法,在訓(xùn)練集中插入不同信噪比值的噪聲,并使用結(jié)合殘差塊、inception結(jié)構(gòu)和降噪自編碼層的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行識(shí)別,在高斯白噪聲和瑞利噪聲的條件下可以實(shí)現(xiàn)在較寬范圍信噪比條件下的較高識(shí)別率。

2 一種噪聲環(huán)境下的雷達(dá)目標(biāo)HRRP魯棒識(shí)別方法

2.1 卷積神經(jīng)網(wǎng)絡(luò)

卷積神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)的代表算法之一,大量應(yīng)用于計(jì)算機(jī)視覺、自然語言處理等領(lǐng)域,使用了稀疏交互(sparse interactions)、參數(shù)共享(parameter sharing)、等變表示(equivariant representations)來降低網(wǎng)絡(luò)復(fù)雜度,使得存儲(chǔ)需求降低、運(yùn)算效率提高、具有對(duì)平移等變性質(zhì)[10]。CNN具有分層學(xué)習(xí)特征的能力,可以訓(xùn)練CNN自動(dòng)地從HRRP數(shù)據(jù)集中學(xué)習(xí)有用特征并分類。

CNN結(jié)構(gòu)分為輸入層、隱藏層、輸出層,如圖1所示。

輸入層接收多維數(shù)據(jù),一維CNN的輸入層接收一維或二維數(shù)組,其中一維數(shù)組通常為時(shí)間或頻譜采樣,二維數(shù)組可能包含多個(gè)通道;二維CNN的輸入層接收二維或三維數(shù)組。

隱藏層通常是由一連串的卷積層、池化層和全連接層組成的。卷積層模仿人眼對(duì)環(huán)境的識(shí)別,參數(shù)比全連接層相比大大減少,其功能是對(duì)輸入數(shù)據(jù)進(jìn)行特征提取,通常會(huì)有多個(gè)卷積核對(duì)輸入進(jìn)行處理。經(jīng)過卷積層后的輸出會(huì)被傳遞至池化層進(jìn)行特征選擇和信息過濾,在池化層進(jìn)行下采樣,對(duì)特征進(jìn)行降維,并且使得網(wǎng)絡(luò)對(duì)數(shù)據(jù)平移保持近似不變。經(jīng)過多層卷積層和池化層,在全連接層把學(xué)習(xí)得到的特征聚合起來。

輸出層在分類問題中,通常使用softmax層來輸出分類標(biāo)簽。

為了防止過擬合,Hinton等人[11]提出Dropout機(jī)制,如圖2所示,在每次訓(xùn)練時(shí),讓神經(jīng)元依概率(如50%)隨機(jī)失活,阻止某些特征的協(xié)同作用來緩解過擬合,也可以將Dropout作為一種多模型效果平均的方式,每次訓(xùn)練時(shí),模型的結(jié)構(gòu)都會(huì)因?yàn)镈ropout隨機(jī)性發(fā)生變化,多次訓(xùn)練后相當(dāng)于多個(gè)不同模型結(jié)合起來得到最終模型,能很好地緩解過擬合。

圖 2 Dropout示意圖Fig. 2 The schematic diagram of Dropout

網(wǎng)絡(luò)在訓(xùn)練階段,文獻(xiàn)[12]證明了交叉熵代價(jià)函數(shù)要優(yōu)于平方差代價(jià)函數(shù),因此本文采用交叉熵函數(shù)損失函數(shù),假如給定一個(gè)帶標(biāo)簽的數(shù)據(jù)集i 個(gè)訓(xùn)練數(shù)據(jù) x(i)經(jīng)過網(wǎng)絡(luò)后得到輸出層標(biāo)簽向量o(i),則交叉熵?fù)p失函數(shù)表達(dá)式為。

其中, D 為樣本維數(shù), mb為批訓(xùn)練樣本個(gè)數(shù),第i個(gè) 訓(xùn)練數(shù)據(jù) x(i)對(duì) 應(yīng)的標(biāo)簽數(shù)據(jù)集的第 j維對(duì)應(yīng)值,第i個(gè) 輸入數(shù)據(jù) x(i)對(duì)應(yīng)的輸出層標(biāo)簽向量的第j維對(duì)應(yīng)值。

2.2 殘差塊、inception結(jié)構(gòu)和降噪自編碼層

本文受文獻(xiàn)[13]啟發(fā),為了進(jìn)一步提高網(wǎng)絡(luò)深度,降低噪聲影響,提高網(wǎng)絡(luò)性能,使用了圖3所示的殘差塊,其中數(shù)據(jù)流向有兩條,一條經(jīng)過卷積層,另一條不經(jīng)過卷積層。殘差塊包含的卷積層個(gè)數(shù)和卷積層的核參數(shù)都是可以調(diào)節(jié)的。殘差塊可以有效提高網(wǎng)絡(luò)深度,而網(wǎng)絡(luò)深度的提高可以提取更深層次的特征,這種特征具備更好的魯棒性。

圖 3 殘差塊結(jié)構(gòu)圖Fig. 3 The structure of residual block

在使用殘差塊來提高網(wǎng)絡(luò)深度的同時(shí),借鑒inception結(jié)構(gòu)[14]來增加網(wǎng)絡(luò)寬度來更好學(xué)習(xí)特征,提升網(wǎng)絡(luò)性能。利用稀疏網(wǎng)絡(luò)結(jié)構(gòu)產(chǎn)生稠密的數(shù)據(jù),這樣將稀疏矩陣聚類為較為密集的子矩陣來提高計(jì)算性能,在提高神經(jīng)網(wǎng)絡(luò)性能的同時(shí),又能保證計(jì)算資源的使用效率。GoogLeNet團(tuán)隊(duì)提出了inception網(wǎng)絡(luò)結(jié)構(gòu),通過這種結(jié)構(gòu)來搭建一個(gè)稀疏性、高計(jì)算性能的網(wǎng)絡(luò)結(jié)構(gòu)。卷積核的核尺寸影響感受野的大小,因此選擇不同的核尺寸會(huì)影響學(xué)習(xí)結(jié)果,該結(jié)構(gòu)使用了不同核尺寸模塊,由網(wǎng)絡(luò)自行選擇參數(shù),從而將選擇不同核尺寸的權(quán)重這一步驟交由模型自行學(xué)習(xí),這樣就通過稀疏的卷積連接產(chǎn)生了不同感受野范圍下的稠密數(shù)據(jù)。如圖4所示,inception結(jié)構(gòu)使用了多個(gè)子模塊,將核尺寸1, 3和5的卷積層和池化層并聯(lián)在一塊,并在在核尺寸為3, 5的卷積層前面和池化層后面分別加上了核尺寸為1的卷積核,來降低數(shù)據(jù)維度,增加了網(wǎng)絡(luò)對(duì)尺度的適應(yīng)性和網(wǎng)絡(luò)寬度來更好地學(xué)習(xí)特征。

降噪自編碼器通過對(duì)輸入數(shù)據(jù)加噪,使得模型學(xué)習(xí)如何去除噪聲,還原本來的數(shù)據(jù),從而提高模型魯棒性[15]。增加了如圖5所示降噪自編碼器層來進(jìn)一步降低噪聲影響,在訓(xùn)練時(shí)通過隨機(jī)丟棄輸入來實(shí)現(xiàn)對(duì)輸入的損失,近似模擬噪聲對(duì)數(shù)據(jù)影響,而輸出通過訓(xùn)練來還原為原始輸入。其中隱含層的數(shù)量和節(jié)點(diǎn)數(shù)可以調(diào)節(jié),對(duì)網(wǎng)絡(luò)的損失函數(shù)重新定義,加入了對(duì)降噪自編碼器層輸入和輸出之間的均方誤差函數(shù),進(jìn)行整體網(wǎng)絡(luò)的訓(xùn)練。降噪自編碼器層的均方誤差對(duì)于降噪自編碼器層之后的層沒有影響,但會(huì)影響之前層的訓(xùn)練。

圖 4 Inception結(jié)構(gòu)圖Fig. 4 The structure of inception

圖 5 降噪自編碼器層結(jié)構(gòu)圖Fig. 5 The structure of residual DAE

其中, J2為 新的損失函數(shù), J1為網(wǎng)絡(luò)交叉熵?fù)p失函數(shù),降噪自編碼器層輸入,降噪自編碼器層輸出, mb為 批訓(xùn)練樣本個(gè)數(shù), α為超參數(shù)控制降噪自編碼器層損失函數(shù)占總體的權(quán)重,本文取1。

2.3 結(jié)合殘差塊、inception結(jié)構(gòu)和降噪自編碼層的卷積神經(jīng)網(wǎng)絡(luò)

將以上模塊結(jié)合起來,本文所設(shè)計(jì)的網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。

網(wǎng)絡(luò)使用了兩個(gè)殘差塊,之后鏈接了一個(gè)inception結(jié)構(gòu)以更好學(xué)習(xí)通過殘差塊得到的特征,最后一個(gè)卷積層是為了降低數(shù)據(jù)維數(shù),并且在最后一個(gè)卷積層后鏈接一層降噪自編碼器降低噪聲影響。其中殘差塊和inception結(jié)構(gòu)的數(shù)量和位置可以調(diào)節(jié),而降噪自編碼器層使用的是全連接層,放在網(wǎng)絡(luò)的較高隱藏層,通常是最后全連接層部分。網(wǎng)絡(luò)各部分功能框圖如圖7所示。

3 實(shí)驗(yàn)結(jié)果與分析

實(shí)驗(yàn)平臺(tái)為64位Window10系統(tǒng),CPU2.8 GHz,內(nèi)存8 GB,采用Tensorflow框架CPU版本實(shí)現(xiàn)。采用3類實(shí)測(cè)飛機(jī)目標(biāo)雷達(dá)HRRP實(shí)測(cè)數(shù)據(jù),其中雷達(dá)的中心頻率為5520 MHz,信號(hào)帶寬為400 MHz,飛機(jī)的參數(shù)如表1所示,其時(shí)域特征示意圖如圖8所示。其中“安26”為中型螺旋槳飛機(jī),“獎(jiǎng)狀”為小型噴氣式飛機(jī),“雅克42”為中型噴氣式飛機(jī)。

表 1 飛機(jī)參數(shù)(m)Tab. 1 Parameters of planes (m)

每類有26000個(gè)樣本,隨機(jī)抽取不放回得到訓(xùn)練集每類23000個(gè)樣本,測(cè)試集每類3000個(gè)樣本,每一個(gè)樣本為256維,學(xué)習(xí)率為0.001,優(yōu)化算法使用Adam算法,批訓(xùn)練大小mb為100。值得指出的是訓(xùn)練集樣本的增多會(huì)提高識(shí)別率,當(dāng)每類7000個(gè)時(shí),在高斯白噪聲條件下,圖6和圖9所示模型在0 dB下相差較大,約15%左右,但增加訓(xùn)練集數(shù)量后,差距會(huì)減小。這說明當(dāng)擁有足夠數(shù)據(jù)時(shí),模型的復(fù)雜度對(duì)于結(jié)果的影響會(huì)降低。

圖 6 網(wǎng)絡(luò)結(jié)構(gòu)Fig. 6 The structure of network

圖 7 網(wǎng)絡(luò)功能框圖Fig. 7 The block diagram of network function

圖 8 HRRP數(shù)據(jù)示意圖Fig. 8 Schematic diagram of HRRP

文獻(xiàn)[16]指出信號(hào)的正交分量和同向分量中噪聲類型可以假設(shè)為高斯白噪聲。文獻(xiàn)[17]指出復(fù)信號(hào)的噪聲幅度服從瑞利分布,因此本文在瑞利噪聲的環(huán)境下進(jìn)行實(shí)驗(yàn),根據(jù)信噪比對(duì)樣本添加瑞利噪聲,訓(xùn)練集的每類樣本中的4000個(gè)樣本加入SNR=0 dB的瑞利噪聲,每類樣本中的2000個(gè)樣本加入SNR=15 dB的瑞利噪聲,其余訓(xùn)練樣本不進(jìn)行加噪處理,再進(jìn)行歸一化處理。需要指出的是,加入不同信噪比的樣本的數(shù)量對(duì)結(jié)果會(huì)有一定影響,加入某信噪比下的樣本越多,會(huì)提高該信噪比樣本的識(shí)別率,同時(shí)降低其他信噪比樣本識(shí)別率,使用不同比例的樣本,會(huì)導(dǎo)致識(shí)別率發(fā)生變化,因此如果加入過多低信噪比樣本會(huì)導(dǎo)致對(duì)于高信噪比樣本識(shí)別率下降。測(cè)試集樣本加入不同信噪比的瑞利噪聲,使用訓(xùn)練集樣本的歸一化參數(shù)進(jìn)行歸一化處理。為了對(duì)照觀察網(wǎng)絡(luò)深度和寬度對(duì)結(jié)果影響,參考文獻(xiàn)[2]和文獻(xiàn)[3]使用了如圖9所示的卷積神經(jīng)網(wǎng)絡(luò),含有2個(gè)卷積層和2個(gè)池化層。識(shí)別結(jié)果如表2所示。

其中信噪比公式為

圖 9 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖Fig. 9 The structure of CNN

其中, Ps為 信號(hào)的平均功率, D為樣本維數(shù),即距離單元個(gè)數(shù),為256, Pd為第d個(gè)距離單元上信號(hào)功率, n0為噪聲功率。

考慮到不同噪聲類型對(duì)結(jié)果的影響,本文還在高斯白噪聲下進(jìn)行了實(shí)驗(yàn),訓(xùn)練集的每類樣本中的4000個(gè)樣本加入SNR=0 dB的高斯白噪聲,每類樣本中的2000個(gè)樣本加入SNR=15 dB的高斯白噪聲,其余訓(xùn)練樣本不進(jìn)行加噪處理,再進(jìn)行歸一化處理。測(cè)試集樣本則加入不同信噪比下的高斯白噪聲來測(cè)試模型性能,使用訓(xùn)練集樣本的歸一化參數(shù)進(jìn)行歸一化處理。結(jié)果如表3所示。

通過對(duì)比結(jié)果可以發(fā)現(xiàn),隨著網(wǎng)絡(luò)深度和寬度的增加,提取得到的特征受噪聲影響會(huì)越來越小。模型在低信噪比情況下的識(shí)別能力進(jìn)一步得到提高,各個(gè)信噪比之間的識(shí)別率差別進(jìn)一步縮小。這是由于隨著網(wǎng)絡(luò)復(fù)雜度的提升,提高了對(duì)于樣本的學(xué)習(xí)能力,增強(qiáng)了網(wǎng)絡(luò)性能,因此對(duì)于包含了噪聲樣本和正常樣本的訓(xùn)練集,改進(jìn)后的網(wǎng)絡(luò)可以更好地學(xué)習(xí)兩者特性,只需通過幾個(gè)點(diǎn)的信噪比就可推廣到較寬信噪比范圍下的樣本分類。但要想得到更好結(jié)果,可能需要對(duì)樣本和模型兩個(gè)方面進(jìn)行調(diào)整。調(diào)整樣本信噪比分布,增加網(wǎng)絡(luò)深度和寬度,在多處隱藏層中插入自編碼器,可以進(jìn)一步提高識(shí)別率,縮小各個(gè)信噪比之間的識(shí)別率差距,達(dá)到在各種信噪比情況下識(shí)別率的一個(gè)平衡。

同時(shí)可以發(fā)現(xiàn),如果在訓(xùn)練集中未加入噪聲,所得到的模型其實(shí)對(duì)于低信噪比的測(cè)試樣本是沒有識(shí)別能力的,因此出現(xiàn)了過擬合現(xiàn)象,訓(xùn)練集喪失了泛化能力,識(shí)別率急劇下降甚至到0。但加入0 dB和15 dB的噪聲后,模型具備了在較寬范圍下的識(shí)別能力。說明模型需要一定的先驗(yàn)信息進(jìn)行學(xué)習(xí)并泛化到其他條件下的識(shí)別。并且模型在兩種噪聲類型下的表現(xiàn)均不錯(cuò),這是由于深度學(xué)習(xí)模型是由數(shù)據(jù)驅(qū)動(dòng)的,對(duì)于數(shù)據(jù)噪聲類型沒有過多要求,因此在實(shí)際應(yīng)用中模型訓(xùn)練時(shí)加入低信噪比樣本可以提高模型的抗噪性能。

表 2 訓(xùn)練集加入瑞利噪聲結(jié)果Tab. 2 Recognition results based on Rayleigh noise training set

表 3 訓(xùn)練集加入高斯白噪聲結(jié)果Tab. 3 Recognition results based on White Gaussian noise training set

為了進(jìn)一步探究訓(xùn)練集和測(cè)試集中噪聲類型對(duì)結(jié)果的影響,本文在訓(xùn)練集和測(cè)試集中使用了不同類型的噪聲進(jìn)行實(shí)驗(yàn),得到的結(jié)果如表4所示,方案1為訓(xùn)練集使用瑞利噪聲測(cè)試集使用高斯噪聲,方案2為訓(xùn)練集使用高斯噪聲測(cè)試集使用瑞利噪聲。通過結(jié)果可以發(fā)現(xiàn)識(shí)別率有所降低,但對(duì)比訓(xùn)練集未加噪來說仍有較高的識(shí)別率,說明模型在這兩種類型的噪聲之間具有泛化性,這可能是因?yàn)檫@兩種噪聲類型的差異不大,識(shí)別率不會(huì)下降過多,但模型是否可以泛化到更多的情況下還需要進(jìn)一步研究。

為了更好地理解各個(gè)結(jié)構(gòu)對(duì)識(shí)別率的影響,本文刪除了網(wǎng)絡(luò)中部分結(jié)構(gòu)來觀察對(duì)結(jié)果的影響。在高斯白噪聲環(huán)境下,并且降低訓(xùn)練集樣本數(shù)到每類6000個(gè),訓(xùn)練集的每類樣本中的1000個(gè)樣本加入SNR=0 dB的高斯白噪聲,每類樣本中的500個(gè)樣本加入SNR=15 dB的高斯白噪聲,其余訓(xùn)練樣本不進(jìn)行加噪處理。通過表5可以發(fā)現(xiàn),改變網(wǎng)絡(luò)的寬度和深度都能影響網(wǎng)絡(luò)的性能。降噪自編碼器層在某種程度上消除噪聲,也是提高網(wǎng)絡(luò)性能的一種方案。

表 4 不同噪聲類型識(shí)別結(jié)果Tab. 4 Recognition results based on different noise types

表 5 刪除結(jié)構(gòu)加入噪聲結(jié)果Tab. 5 Recognition results based on deleted structure

4 結(jié)束語

本文提出一種噪聲環(huán)境下的雷達(dá)目標(biāo)HRRP魯棒識(shí)別方法,通過增強(qiáng)訓(xùn)練集和使用結(jié)合殘差塊、inception結(jié)構(gòu)和降噪自編碼層的卷積神經(jīng)網(wǎng)絡(luò)。實(shí)驗(yàn)結(jié)果表明,本方法能保證較寬信噪比范圍內(nèi)的識(shí)別性能。同時(shí)本文在對(duì)訓(xùn)練集中加入噪聲時(shí),無需像文獻(xiàn)[2]中加入從–20到40 dB的噪聲樣本,而是插入幾個(gè)點(diǎn)的噪聲即可,模型可以根據(jù)所加入的幾個(gè)信噪比學(xué)習(xí)到其他信噪比下的樣本識(shí)別能力。此外,對(duì)于模型深度和寬度提高對(duì)于噪聲環(huán)境下識(shí)別性能提升的機(jī)理有待進(jìn)一步研究。

猜你喜歡
識(shí)別率編碼器信噪比
WV3650M/WH3650M 絕對(duì)值旋轉(zhuǎn)編碼器
WDGP36J / WDGA36J編碼器Wachendorff自動(dòng)化有限公司
兩種64排GE CT冠脈成像信噪比與劑量對(duì)比分析研究
基于經(jīng)驗(yàn)分布函數(shù)快速收斂的信噪比估計(jì)器
轉(zhuǎn)爐系統(tǒng)常用編碼器選型及調(diào)試
舞臺(tái)機(jī)械技術(shù)與設(shè)備系列談(二)
——編碼器
自跟蹤接收機(jī)互相關(guān)法性能分析
基于深度學(xué)習(xí)的無人機(jī)數(shù)據(jù)鏈信噪比估計(jì)算法
檔案數(shù)字化過程中OCR技術(shù)的應(yīng)用分析
基于PCA與MLP感知器的人臉圖像辨識(shí)技術(shù)
吉木乃县| 云林县| 莒南县| 梅河口市| 洛南县| 韶山市| 神池县| 且末县| 醴陵市| 沙河市| 盐城市| 从化市| 荣昌县| 沧州市| 新闻| 宜兰县| 丹东市| 丰台区| 伊宁县| 延川县| 百色市| 措勤县| 潮安县| 齐齐哈尔市| 肥西县| 静宁县| 灌阳县| 兴和县| 常德市| 安泽县| 土默特左旗| 云林县| 神农架林区| 诸城市| 望谟县| 黄龙县| 长乐市| 东至县| 高密市| 延吉市| 扎赉特旗|