国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種改進(jìn)的分?jǐn)?shù)時(shí)延估計(jì)方法及應(yīng)用*

2015-12-26 01:42柏業(yè)超張興敢
數(shù)據(jù)采集與處理 2015年6期
關(guān)鍵詞:混響環(huán)境噪聲麥克風(fēng)

劉 超 柏業(yè)超 張興敢

(1.南京大學(xué)電子科學(xué)與工程學(xué)院,南京,210023;2.東南大學(xué)毫米波國(guó)家重點(diǎn)實(shí)驗(yàn)室,南京,210096)

?

一種改進(jìn)的分?jǐn)?shù)時(shí)延估計(jì)方法及應(yīng)用*

劉 超1,2柏業(yè)超1,2張興敢1,2

(1.南京大學(xué)電子科學(xué)與工程學(xué)院,南京,210023;2.東南大學(xué)毫米波國(guó)家重點(diǎn)實(shí)驗(yàn)室,南京,210096)

傳統(tǒng)的分?jǐn)?shù)時(shí)延估計(jì)算法對(duì)環(huán)境噪聲和混響噪聲比較敏感,在復(fù)雜的實(shí)際環(huán)境中,算法性能會(huì)嚴(yán)重下降。為進(jìn)一步提高時(shí)延估計(jì)算法性能,提出一種基于廣義互相關(guān)(Generalized cross correlation,GCC)改進(jìn)算法的廣義互相關(guān)-最大似然相位補(bǔ)償(GCC-Maximum likelihood phase compensation,GCC-MLP)分?jǐn)?shù)延時(shí)估計(jì)算法。該算法改進(jìn)了GCC頻域加權(quán)函數(shù),并將線性相位補(bǔ)償應(yīng)用于頻域互相關(guān)譜,獲得連續(xù)的分?jǐn)?shù)時(shí)延估計(jì)值,進(jìn)一步提高了分?jǐn)?shù)時(shí)延估計(jì)的精確性。仿真結(jié)果表明,GCC-MLP相位補(bǔ)償分?jǐn)?shù)時(shí)延估計(jì)算法增強(qiáng)了對(duì)環(huán)境噪聲和混響噪聲的魯棒性,減小了時(shí)延估計(jì)誤差,算法性能優(yōu)于曲線擬合、Sinc插值等傳統(tǒng)分?jǐn)?shù)時(shí)延估計(jì)算法。

廣義互相關(guān);分?jǐn)?shù)時(shí)延估計(jì);麥克風(fēng)陣列;聲源方向角估計(jì);相位補(bǔ)償

引 言

基于麥克風(fēng)陣列的聲源定位技術(shù)在視頻會(huì)議、語音識(shí)別以及可視/車載電話等領(lǐng)域具有廣闊的應(yīng)用前景[1-3]。時(shí)延估計(jì)是麥克風(fēng)陣列聲源角度估計(jì)和聲源定位算法中最常用、也是最重要的一種方法[4-5]。分?jǐn)?shù)時(shí)延估計(jì)通常分為兩個(gè)階段。第1階段利用廣義互相關(guān)(Generalized cross correlation,GCC)算法進(jìn)行整數(shù)延時(shí)單元估計(jì)。文獻(xiàn)[6]中,根據(jù)不同頻域加權(quán)函數(shù),提出了廣義互相關(guān)-相位變換(Phase transform,PATH)、廣義互相關(guān)-最大似然(Maximum likelihood,ML)等一系列算法。第2階段進(jìn)行分?jǐn)?shù)延時(shí)單元估計(jì)。文獻(xiàn)[7]提出了曲線擬合分?jǐn)?shù)延時(shí)估計(jì)算法,這種算法實(shí)現(xiàn)簡(jiǎn)單,但分?jǐn)?shù)時(shí)延估計(jì)誤差比較大。文獻(xiàn)[8]采用sinc插值的分?jǐn)?shù)時(shí)延估計(jì)算法,延時(shí)估計(jì)精度高,但是該算法受混響噪聲的影響較大。本文提出一種基于GCC改進(jìn)算法的GCC-MLP相位補(bǔ)償分?jǐn)?shù)延時(shí)估計(jì)算法。該算法改進(jìn)GCC算法頻域加權(quán)函數(shù),增強(qiáng)算法對(duì)于環(huán)境噪聲和混響噪聲的魯棒性;同時(shí),將線性相位補(bǔ)償和拋物線擬合應(yīng)用于頻域互相關(guān)譜,獲得連續(xù)的分?jǐn)?shù)時(shí)延估計(jì)值,進(jìn)一步提高了分?jǐn)?shù)時(shí)延估計(jì)的精確性,減小了聲源角度估計(jì)誤差。

1 麥克風(fēng)陣列信號(hào)模型

麥克風(fēng)陣列信號(hào)模型的平面示意圖如圖1所示。假設(shè)兩麥克風(fēng)Mic1,Mic2間距為d(約為5 cm),麥克風(fēng)陣列中心為O,聲源偏離麥克風(fēng)陣軸線夾角為θ(0°~180°)。在實(shí)際環(huán)境中,兩麥克風(fēng)接受到的信號(hào)x1(t)和x2(t)表示為

(1)

(2)

式中:s(t)為聲源信號(hào),h1(t)和h2(t)是房間混響的沖激響應(yīng),“*”表示信號(hào)卷積,n1(t)和n2(t)為環(huán)境噪聲,τ1和τ2是聲波從聲源到麥克風(fēng)的傳播時(shí)間。

圖1 麥克風(fēng)陣列平面示意圖Fig.1 Schematic plan of dual microphone array

由于兩麥克風(fēng)間距為d很小,聲源位于麥克風(fēng)陣列的遠(yuǎn)場(chǎng),由幾何關(guān)系可得聲源位置的方向角

(3)

式中:τ12=τ1-τ2,即兩麥克風(fēng)接收信號(hào)間的時(shí)延,c為聲速。由式(3)可知,估計(jì)得到τ12便可確定聲源位置的方向角θ。

2 GCC-MLP相位補(bǔ)償分?jǐn)?shù)時(shí)延估計(jì)算法

2.1 GCC時(shí)延估計(jì)算法

傳統(tǒng)GCC時(shí)延估計(jì)算法流程圖如圖2所示。時(shí)延估計(jì)τ12可以表示為

(4)

圖2 GCC算法流程圖Fig.2 Flowchart of GCC algorithm

由式(1,2)可以看出,在時(shí)延估計(jì)系統(tǒng)中存在兩種噪聲:環(huán)境噪聲ni(t)和混響噪聲hi(t)*s(t)。選擇合適的加權(quán)函數(shù)對(duì)于提高時(shí)延估計(jì)的算法性能有重要意義。文獻(xiàn)[6]研究表明,GCC-ML加權(quán)函數(shù)對(duì)于環(huán)境噪聲魯棒性較強(qiáng),而GCC-PATH加權(quán)函數(shù)對(duì)于混響噪聲有較強(qiáng)抑制作用,兩種算法的加權(quán)函數(shù)φ(k)如式(5,6)所示。

(5)

(6)

式中:N1(k)和N2(k)分別表示環(huán)境噪聲n1(t)和n2(t)的傅里葉變換。

在實(shí)際環(huán)境中,環(huán)境噪聲和混響噪聲并存且較嚴(yán)重時(shí),采用單一的ML或PATH加權(quán)函數(shù),時(shí)延估計(jì)的準(zhǔn)確性會(huì)大大降低,在此基礎(chǔ)上進(jìn)行曲線擬合和Sinc插值等分?jǐn)?shù)時(shí)延估計(jì)時(shí),算法性能會(huì)嚴(yán)重下降。因此,為加強(qiáng)算法性能對(duì)于噪聲的魯棒性,提高時(shí)延估計(jì)精度,提出了廣義互相關(guān)-最大似然相位補(bǔ)償(GCC-Maximum likelihood phase compensation,GCC-MLP)相位補(bǔ)償分?jǐn)?shù)時(shí)延估計(jì)算法。

2.2 GCC-MLP相位補(bǔ)償分?jǐn)?shù)時(shí)延估計(jì)算法

對(duì)式(1,2)兩邊進(jìn)行傅里葉變換,可得

(7)

由式(7)可得到信號(hào)頻域能量等式

(8)

(9)

式中p表示混響能量比例系數(shù)。由式(8,9)化簡(jiǎn)可得,總的噪聲能量

(10)

令q=p/(1+p),則

(11)

將式(10)代入式(5)中,可得改進(jìn)的頻域加權(quán)函數(shù)

(12)

事實(shí)上,φMLP(k)可以簡(jiǎn)單地寫成ML加權(quán)函數(shù)和PATH加權(quán)函數(shù)的線性表達(dá),即

(13)

GCC-MLP算法中,φMLP(k)加權(quán)函數(shù)兼具了GCC-PATH和GCC-ML算法的優(yōu)點(diǎn),將φMLP(k)加權(quán)函數(shù)代入式(4),可以估計(jì)得到整數(shù)采樣時(shí)延單元值N1。根據(jù)實(shí)際環(huán)境中混響能量,合理地確定q值,能夠有效地抑制混響噪聲和環(huán)境噪聲,大大提高整數(shù)采樣時(shí)延單元估計(jì)準(zhǔn)確率。進(jìn)一步地,在整數(shù)采樣時(shí)延單元估計(jì)的基礎(chǔ)上,可以進(jìn)行分?jǐn)?shù)采樣時(shí)延單元估計(jì)。傳統(tǒng)的分?jǐn)?shù)時(shí)延算法,如曲線擬合、sinc插值等,這些方法往往是在時(shí)域?qū)V義互相關(guān)函數(shù)R12(n)進(jìn)行曲線擬合,這類方法同樣對(duì)環(huán)境噪聲和混響噪聲比較敏感,限制了分?jǐn)?shù)延時(shí)估計(jì)精度的進(jìn)一步提高。

由傅里葉變換性質(zhì)可知,信號(hào)在時(shí)域的時(shí)延,在頻域表現(xiàn)為相位變化,并且這一相位變化隨頻率呈線性關(guān)系。因此,通過在互相關(guān)頻域補(bǔ)償?shù)木€性相位可以估計(jì)信號(hào)時(shí)延,由于相位變化的連續(xù)性,估計(jì)得到的時(shí)延單元精度可以小于一個(gè)時(shí)間采樣單元。GCC-MLP相位補(bǔ)償算法利用經(jīng)過φMLP(k)加權(quán)的互相關(guān)譜估計(jì)時(shí)延,能有效抑制環(huán)境噪聲和混響噪聲。假設(shè)實(shí)際的時(shí)延值為Ns,在整數(shù)采樣延時(shí)單元N1估計(jì)準(zhǔn)確的情況下,Ns∈(N1-0.5,N1+0.5]。根據(jù)離散傅里葉變換公式,在(N1-0.5,N1+0.5]區(qū)間的互相關(guān)頻譜R(m)為

(14)

式中:C表示插值率(大于1的正整數(shù))。假設(shè)此時(shí)互相關(guān)頻譜R12(m)的絕對(duì)值峰值位于N2處,那么在R(N2)附近采用拋物線近似,根據(jù)式(15)可求得精確時(shí)延單元估計(jì)值

(15)

3 仿真數(shù)據(jù)結(jié)果

3.1 仿真參數(shù)

為驗(yàn)證算法的有效性,模擬聲學(xué)環(huán)境,平面示意圖如圖3所示,假設(shè)聲源和麥克風(fēng)陣列都在同一水平高度。

(1) 房間模型幾何參數(shù)房間大小為6 m×4 m×3 m;聲源S坐標(biāo)(XS,YS)為(3.6,3.8);麥克風(fēng)陣列中心坐標(biāo)為O(3,1);麥克風(fēng)間距為d=5 cm。

(2) 噪聲模型參數(shù):環(huán)境噪聲為高斯白噪聲(信噪比SNR=0~20 dB);混響噪聲為IMAGE模型[9](混響時(shí)間T60=100~400 ms)。

(3) 語音信號(hào)參數(shù):采樣頻率為Fs=32 kHz;每幀采樣點(diǎn)數(shù)為N=4 096;語音信號(hào)長(zhǎng)度為L(zhǎng)=4 096×100幀。根據(jù)仿真參數(shù)計(jì)算可得,聲源S信號(hào)分別到達(dá)Mic1和Mic2的時(shí)延τ12所對(duì)應(yīng)的理論時(shí)延單元N1=1.487,聲源偏向角θ=71.56°。

圖3 模擬聲學(xué)環(huán)境平面示意圖Fig.3 Schematic plan of simulated acoustic environment

3.2 整數(shù)時(shí)延單元估計(jì)正確率分析

圖4 整數(shù)時(shí)延估計(jì)準(zhǔn)確率曲線1(T60=100 ms) 圖5 整數(shù)時(shí)延估計(jì)準(zhǔn)確率曲線2(T60=400 ms) Fig.4 The first accuracy rate curve of integer delay estimation(T60=100 ms) Fig.5 The second accuracy rate curve of integer delay estimation(T60=400 ms)

利用GGC-MLP算法進(jìn)行整數(shù)部分時(shí)延估計(jì),考察整數(shù)時(shí)延估計(jì)的準(zhǔn)確率,并與GCC-ML算法和GCC-PATH算法進(jìn)行性能比較。假設(shè)估計(jì)得到整數(shù)時(shí)延值為N1,若滿足Ns∈(N1-0.5,N1+0.5],則表示整數(shù)部分時(shí)延估計(jì)準(zhǔn)確。圖4,5分別為3種算法在混響時(shí)間T60= 100 ms(q=0.1)和T60=400 ms(q=0.3)條件下,整數(shù)時(shí)延估計(jì)準(zhǔn)確率隨信噪比SNR變化曲線圖。對(duì)比分析圖4,5,可以發(fā)現(xiàn):

(1)GCC-ML算法對(duì)于環(huán)境噪聲的魯棒性較強(qiáng),在低信噪比(SNR=0~5 dB)條件下,整數(shù)時(shí)延估計(jì)準(zhǔn)確率遠(yuǎn)高于GCC-PATH;但是GCC-ML算法對(duì)于房間混響比較敏感,當(dāng)房間混響較大時(shí),算法性能會(huì)大大降低。

(2)GCC-PATH算法能有效抑制混響噪聲,在高混響(T60=400 ms)、高信噪比(SNR=10~20 dB)情況下,算法性能優(yōu)于GCC-ML,但是GCC-PATH對(duì)于環(huán)境噪聲魯棒性較差,當(dāng)信噪比較低時(shí),算法性能會(huì)嚴(yán)重下降。

(3)GCC-MLP算法結(jié)合了GCC-PATH算法和CGG-ML算法的優(yōu)點(diǎn),對(duì)混響噪聲和環(huán)境噪聲都有較強(qiáng)的抑制作用。在高混響、低信噪比條件下,整數(shù)時(shí)延估計(jì)準(zhǔn)確率仍能達(dá)到95%以上。

3.3 分?jǐn)?shù)時(shí)延單元估計(jì)誤差分析

圖6 分?jǐn)?shù)時(shí)延均方根誤差曲線(T60=100 ms) Fig.6 RMSE curve of subsample delay estimation (T60=100 ms)

在利用GCC-MLP算法整數(shù)時(shí)延單元估計(jì)的基礎(chǔ)上,分別采用MLP-相位補(bǔ)償、MLP-曲線擬合和MLP-Sinc[10]插值3種算法進(jìn)行分?jǐn)?shù)采樣時(shí)延單元估計(jì),其中插值率C=32。在不同混響條件下,時(shí)延估計(jì)均方根誤差隨信噪比變化曲線如圖6,7所示。圖6中,混響時(shí)間T60=100 ms,相同信噪比條件下,MLP-相位補(bǔ)償算法估計(jì)所得時(shí)延均方根誤差遠(yuǎn)遠(yuǎn)小于其他兩種算法,尤其在低信噪比(SNR=0~5 dB)情況下,算法優(yōu)越性充分得以體現(xiàn)。圖7對(duì)比圖6,混響時(shí)間T60由100 ms(q=0.1)變?yōu)?00 ms(q=0.3),相同信噪比條件下,相同算法的時(shí)延估計(jì)均方根誤差均有所增加,但是比較誤差增加量可以發(fā)現(xiàn),MLP-相位補(bǔ)償算法受混響噪聲影響較小。由分析可知,MLP-相位補(bǔ)償分?jǐn)?shù)時(shí)延估計(jì)算法對(duì)于環(huán)境噪聲和混響噪聲都有較強(qiáng)抑制,算法魯棒性優(yōu)于MLP-曲線擬合和MLP-Sinc插值算法。

3.4 聲源偏向角角度估計(jì)誤差分析

根據(jù)估計(jì)得到的時(shí)延值,由式(3)可以求得聲源偏向角。圖8所示為同一混響條件下聲源偏向角度均方根誤差隨信噪比變化曲線。由圖可知,即使在高混響條件(T60=400 ms)下,GCC-MLP相位補(bǔ)償算法估計(jì)聲源偏向角的角度誤差Δθ<2°,角度估計(jì)誤差小于其他兩種算法。

圖7 分?jǐn)?shù)時(shí)延均方根誤差曲線(T60=400 ms) 圖8 聲源偏向角度均方根誤差曲線(T60=400 ms)Fig. 7 RMSE curve of subsample delay estimation (T60=400 ms) Fig.8 RMSE curve of deflection angle of sound source (T60=400 ms)

4 結(jié)束語

在實(shí)際環(huán)境中,采用傳統(tǒng)的分?jǐn)?shù)時(shí)延估計(jì)算法,時(shí)延估計(jì)值受到環(huán)境噪聲和混響噪聲影響,聲源角度估計(jì)誤差較大。本文提出了一種GCC-MLP相位補(bǔ)償分?jǐn)?shù)時(shí)延估計(jì)算法,該算法改進(jìn)了GCC頻域加權(quán)函數(shù),綜合了GCC-ML和GCC-PATH加權(quán)函數(shù)的優(yōu)點(diǎn);與此同時(shí),利用線性相位補(bǔ)償和拋物線擬合,實(shí)現(xiàn)了連續(xù)的分?jǐn)?shù)時(shí)延估計(jì)。GCC-MLP相位補(bǔ)償分?jǐn)?shù)時(shí)延估計(jì)算法相比于曲線擬合sinc插值算法,增強(qiáng)了算法對(duì)于噪聲和聲源位置的魯棒性,進(jìn)一步提高了時(shí)延估計(jì)精度。通過兩階段的時(shí)延估計(jì),GCC-MLP算法能夠?qū)崿F(xiàn)精確的聲源角度估計(jì),角度估計(jì)誤差小于2°。GCC-MLP相位補(bǔ)償分?jǐn)?shù)時(shí)延估計(jì)算法可以廣泛用于聲源角度估計(jì)和聲源定位。

[1] 王瑞, 陳硯圃, 張恒. 聲源定位中波達(dá)角一致性檢測(cè)方法[J]. 數(shù)據(jù)采集與處理, 2010, 25(6): 756-760.

Wang Rui, Chen Yanpu, Zhang Heng. Method for detecting DOA homogeneity in sound source localization[J].Journal of Data Acquisition and Processing, 2010, 25 (6): 756-760.

[2] 周康輝, 董萬勝, 劉恒毅, 等. 利用二次相關(guān)改進(jìn)的廣義互相關(guān)時(shí)延估計(jì)算法[J]. 數(shù)據(jù)采集與處理, 2013, 28(6): 801-806.

Zhou Kanghui, Dong Wansheng, Liu Hengyi, et al. Improved generalized cross correlation method for time delay estimation by using second correlation[J]. Journal of Data Acquisition and Processing, 2013, 28(6): 801-806.

[3] Wu W C, Chen O T C. Multiple-sound-source localization scheme based on feedback-architecture source separation[C]// 52nd IEEE International Midwest Symposium on Circuits and Systems. [S.l.]:IEEE, 2009: 669-672.

[4] Bai Y C, Zhang X G, Tang L. Subsample time delay estimation based on phase spectrum of band limited stochastic signals[J]. Transactions of Nanjing University of Aeronautics & Astronautics, 2010, 27(2): 170-175.

[5] Chen J C, Hudson R E, Yao K. Maximum-likelihood source localization and unknown sensor location estimation for wideband signals in the near-field[J]. Signal Processing, IEEE Transactions on, 2002, 50(8): 1843-1854.

[6] Perez-Lorenzo J M, Viciana-Abad R, Reche-Lopez P, et al. Evaluation of generalized cross-correlation methods for direction of arrival estimation using two microphones in real environments[J]. Applied Acoustics, 2012, 73(8): 698-712.

[7] Mosorov V. Phase spectrum method for time delay estimation using twin-plane electrical capacitance tomography[J]. Electronics Letters, 2006, 42(11): 630-632.

[8] Qin B, Zhang H, Fu Q, et al. Subsample time delay estimation via improved GCC PHAT algorithm[C]//2008 9th International Conference on Signal Processing. [S.l.]:IEEE,2008: 2579-2582.

[9] Allen J B, Berkley D A. Image method for efficiently simulating small-room acoustics[J]. The Journal of the Acoustical Society of America, 1979, 65(4): 943-950.

[10]Nakamura K, Nakadai K, Okuno H G. A real-time super-resolution robot audition system that improves the robustness of simultaneous speech recognition[J]. Advanced Robotics, 2013, 27(12): 933-945.

Improved Fractional Time Delay Estimation Method and Its Application

Liu Chao1,2, Bai Yechao1,2, Zhang Xinggan1,2

(1.School of Electronic Science and Engineering, Nanjing University, Nanjing, 210023, China;2.State Key Laboratory of Millimeter Waves, Southeast University, Nanjing, 210096, China)

Traditional fractional time delay estimation (TDE) algorithm is sensitive to ambient noise and reverberation noise, and the algorithm performance is severely degraded in the complex environment. To improve the accuracy of time delay estimation, a GCC-maximum likelihood phase compensation (GCC-MLP) phase compensation fractional time delay estimation approach is proposed based on generalized cross correlation(GCC). The frequency domain weighting function is also improved for GCC algorithm. At the same time, linear phase compensation is applied to the cross correlation spectrum in frequency domain and a continuous time delay estimator is obtained. Simulation comparition between the proposed algorithm and the other fractional TDE algorithms demonstrates that the proposed algorithm outperforms the curve fitting algorithm and the sinc interpolation algorithm. Meanwhile the robustness to the noisy and the reverberant conditions is reinforced, the time delay estimation error also decreases. Therefore, GCC-MLP phase compensation fractional time delay estimation algorithm can be widely used in sound source direction of arrival estimation and sound source localization.

generalized cross-correlation(GCC); fractional time delay estimation; microphone array; sound source direction of arrival estimation; phase compensation

江蘇省產(chǎn)學(xué)研前瞻性聯(lián)合研究(BY2012187)資助項(xiàng)目;毫米波國(guó)家重點(diǎn)實(shí)驗(yàn)室開放課題(K201514)資助項(xiàng)目。

2014-05-12;

2014-10-06

TN911.72

A

劉超(1989-),男,碩士研究生,研究方向:信號(hào)與信息處理,E-mail:liuchao052796@126.com。

柏業(yè)超(1984-),男,博士,副教授,研究方向:信號(hào)與信息處理。

張興敢(1956-),男,博士,教授,研究方向:信號(hào)與信息處理。

猜你喜歡
混響環(huán)境噪聲麥克風(fēng)
GRAS發(fā)布新12Bx系列、支持TEDS的測(cè)量麥克風(fēng)電源模塊
Binaural Rendering based on Linear Differential Microphone Array and Ambisonic Reproduction
環(huán)境噪聲智能檢測(cè)終端設(shè)計(jì)
基于云服務(wù)的環(huán)境噪聲智能監(jiān)測(cè)系統(tǒng)研究
海洋混響特性分析與建模仿真研究?
淺談音響效果器的應(yīng)用
麥克風(fēng)的藝術(shù)
南海某海域環(huán)境噪聲與風(fēng)速相關(guān)性研究*
鐵路環(huán)境噪聲測(cè)量中的問題分析
用于室內(nèi)環(huán)境說話人識(shí)別的混響補(bǔ)償方法
万山特区| 瑞金市| 元阳县| 江华| 亚东县| 康马县| 宁陵县| 丰原市| 广安市| 鸡西市| 左贡县| 桦川县| 屏南县| 定西市| 金华市| 聂荣县| 饶阳县| 鄂尔多斯市| 合江县| 岑巩县| 海晏县| 贞丰县| 横山县| 平武县| 武陟县| 铜陵市| 无极县| 扎囊县| 新余市| 库尔勒市| 沾化县| 台北县| 西丰县| 汨罗市| 江城| 乐安县| 阿坝县| 黔南| 鄯善县| 华池县| 兰西县|