国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

AlexNet改進及優(yōu)化方法的研究

2020-10-19 04:40:54郭敏鋼
計算機工程與應(yīng)用 2020年20期
關(guān)鍵詞:梯度區(qū)間準(zhǔn)確率

郭敏鋼 ,宮 鶴

1.吉林農(nóng)業(yè)大學(xué) 信息技術(shù)學(xué)院,長春 130118

2.吉林農(nóng)業(yè)大學(xué) 吉林省智能環(huán)境工程研究中心,長春 130118

3.吉林農(nóng)業(yè)大學(xué) 吉林省農(nóng)業(yè)物聯(lián)網(wǎng)科技協(xié)同創(chuàng)新中心,長春 130118

1 引言

AlexNet[1]在目標(biāo)檢測[2-3]、語音識別[4]、醫(yī)學(xué)研究[5-6]等方面都有著較為突出的表現(xiàn)。

AlexNet 雖然不是第一個卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)[7-10]模型,但卻是第一個引起眾多研究者注意的卷積神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)模型。隨著機器學(xué)習(xí)研究領(lǐng)域的不斷拓展,AlexNet 也被眾多研究者作為首選的網(wǎng)絡(luò)模型,通過改進及優(yōu)化,使其魯棒性在不斷提高。

LRN(Local Response Normalization)局部響應(yīng)歸一化是AlexNet 網(wǎng)絡(luò)模型中的一個重要組成部分,其功能是能夠產(chǎn)生局部抑制,使被激活的神經(jīng)元抑制相鄰的神經(jīng)元,使得響應(yīng)比較大的值更大,增加了模型的泛化能力,同時不改變數(shù)據(jù)的大小和維度。但是,由于LRN不存在可學(xué)習(xí)參數(shù),因此提出了用WN(Weight Normalization)[11]權(quán)值歸一化來代替LRN,同時將WN置于池化層(Pooling layer)之后,并且增加一層卷積層,使權(quán)重值更大,梯度更小,進一步優(yōu)化了AlexNet的泛化性。

優(yōu)化器(Optimizer)的主要作用是加速卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練速度。隨著神經(jīng)網(wǎng)絡(luò)復(fù)雜程度的加深以及計算量的增加,導(dǎo)致在模型訓(xùn)練上的耗時增加。為了解決耗時上面的問題,對比分析了Adam[12]、RMSProp[13]、Momentum[14]三種優(yōu)化器在不同學(xué)習(xí)率(Learning rate)下對AlexNet 模型訓(xùn)練的影響,并得出了相應(yīng)的學(xué)習(xí)率的優(yōu)化區(qū)間,分別在不同區(qū)間上起到了優(yōu)化AlexNet 模型訓(xùn)練的效果。

激活函數(shù)(Activation Function)在卷積神經(jīng)網(wǎng)絡(luò)中的作用是將神經(jīng)元的輸入映射到輸出端,Krizhevsky等人在AlexNet中提出了ReLU激活函數(shù)[15-16],其優(yōu)勢在于正向區(qū)間為線性函數(shù),加快了模型訓(xùn)練的收斂速度的同時也解決了Softsign、TanHyperbolic(Tanh)、Softsign 等激活函數(shù)的梯度消失問題,但ReLU激活函數(shù)在模型訓(xùn)練中容易造成部分神經(jīng)元無法激活的現(xiàn)象。為了解決這一“壞死”現(xiàn)象,改進了ReLU 激活函數(shù),使其在x<0負(fù)向區(qū)間部分由Swish 函數(shù)[17]代替,使ReLU 激活函數(shù)的負(fù)半軸函數(shù)稱為非線性激活函數(shù),有效地解決了x<0 部分神經(jīng)元無法激活的現(xiàn)象,并且在x>0 正向區(qū)間部分由ReLU6 函數(shù)代替,使其收斂速度更快的同時能夠增加參數(shù)的利用率,并且還降低了過擬合的現(xiàn)象發(fā)生,很好地提高了AlexNet的魯棒性。

本文通過對AlexNet的Normalization[18]、優(yōu)化器、激活函數(shù)三方面進行了相關(guān)的優(yōu)化處理,在泛化性、模型訓(xùn)練速度以及AlexNet整體的魯棒性等方面上都有所提高。在一定程度上成功地改進并優(yōu)化了AlexNet。

2 AlexNet

2.1 AlexNet結(jié)構(gòu)

AlexNet 是由多倫多大學(xué)教授Hinton 的學(xué)生Krizhevsky等人設(shè)計的,并在2012年刷新了image classification的記錄,取得了ImageNet Large Scale Visual Recognition Competition(ILSVRC)挑戰(zhàn)賽的冠軍。并且,AlexNet 在模型訓(xùn)練提出了LRN(Local Response Normalization)局部響應(yīng)歸一化、ReLU 激活函數(shù)、Dropout、GPU 加速等新的技術(shù)點,成功地推動了神經(jīng)網(wǎng)絡(luò)的發(fā)展。

現(xiàn)如今,隨著機器學(xué)習(xí)不斷的拓展,AlexNet在目標(biāo)檢測、語音識別、醫(yī)學(xué)研究等方面都有著較為突出的表現(xiàn)。

AlexNet 總共有 65 萬個神經(jīng)元,630 000 000 個連接,60 000 000 個參數(shù)。AlexNet 結(jié)構(gòu)如圖1 所示:自上而下共有八層,分別為五個卷積層和三個全連接層,其中還包含了LRN(Local Response Normalization)局部響應(yīng)歸一化層以及Dropout層。

第一、二層流程:卷積=>ReLU=>LRN歸一化=>池化;

第三、四層流程:卷積=>ReLU;

第五層流程:卷積=>ReLU=>池化;

第六層流程:卷積(全連接)=>ReLU=>Dropout;

第七層流程:全連接=>ReLU=>Dropout;

第八層流程:全連接。

圖1 AlexNet結(jié)構(gòu)

2.2 AlexNet的特點

AlexNet 之所以能夠成功,主要有以下四個方面的特點:

(1)使用ReLU激活,使計算量大大減少,由于ReLU激活函數(shù)為線性函數(shù),其導(dǎo)數(shù)為1,使模型訓(xùn)練的計算量減少,相較于常見的非線性S 型激活函數(shù)Softsign、Tanh、Sigmoid等收斂速度加快,如圖2所示。

(2)AlexNet 在全連接層中使用了Dropout,在訓(xùn)練時隨機忽略部分神經(jīng)元,有效地 解決了過擬合問題。

(3)局部響應(yīng)歸一化層(LRN),創(chuàng)建了局部神經(jīng)元的競爭機制,使響應(yīng)大的值更大并且抑制響應(yīng)小的值,增強了模型的泛化能力。

(4)采用了GPU并行提高模型的訓(xùn)練速度。

圖2 ReLU與常見激活函數(shù)函數(shù)曲線對比圖

3 AlexNet優(yōu)化

3.1 AlexNet優(yōu)化流程

AlexNet 優(yōu)化流程如圖3 所示,分別從以下三點進行了優(yōu)化處理。

(1)局部歸一化層LRN 由權(quán)值歸一化層WN 優(yōu)化,并將權(quán)值歸一化層WN置于池化層之后。

(2)ReLU 激活層由ReLU6_Swish 融合激活函數(shù)層優(yōu)化。

(3)優(yōu)化器 Momentum、RMSProp、Adam 學(xué)習(xí)率Learning rate區(qū)間優(yōu)化。

3.2 Normalization優(yōu)化

3.2.1 LRN局部歸一化

局部歸一化(Local Response Normalization),簡稱LRN,于2012年在AlexNet中提出。

式中,為歸一化的結(jié)果,i為通道所在位置更新的值,j代表的是從j~i的像素值平方和,x,y代表待更新的像素的位置,而表示既是ReLU激活函數(shù)的輸出值又是LRN層的輸入值。a表示卷積層(包括卷積和池化操作)的輸出值,N表示通道數(shù)channel,α、β、κ、n/2、a分別代表函數(shù)的alpha、beta、bias、depth_radius、input。

def lrn(input,depth_radius=None,bias=None,alpha=None,beta=None,name=None):

sqr_sum[a,b,c,d]=sum(input[a,b,c,d-depth_radius:d+depth_radius+1]?? 2)

output=input/(bias+alpha ?sqr_sum)??beta

總體來講,就是對輸入值(aix,y)input除以一個定義的相對系數(shù),最終達到標(biāo)準(zhǔn)化的目的。

但后期研究者Simonyan等人[19]對LRN的應(yīng)用上發(fā)現(xiàn)其對模型訓(xùn)練的準(zhǔn)確率實際提升得卻很少,并且通過測試LRN在ILSVRC-2012數(shù)據(jù)集(被用在ILSVRC2012—2014挑戰(zhàn)賽,數(shù)據(jù)包含1 000類圖像,訓(xùn)練集1 300 000張、驗證集50 000 張和測試集100 000 張)上的圖像分類結(jié)果,得到了Top-1 和Top-5 錯誤率如表1 所示,證實了有無LRN 層對模型訓(xùn)練的錯誤率幾乎沒有影響,因此LRN的作用效果一直飽受爭議。

表1 有無LRN層錯誤率對比

通過實驗測試也印證了部分觀點,在無LRN 層以及有LRN層時對模型訓(xùn)練做出了三組模數(shù)據(jù)進行對比分析,得出的結(jié)論是LRN 對模型訓(xùn)練的作用效果并不明顯,準(zhǔn)確率變化一直保持在誤差范圍之內(nèi),并且三組準(zhǔn)確率數(shù)據(jù)共六條準(zhǔn)確率曲線在同一訓(xùn)練模型上幾乎保持不變,意味著LRN 對測試結(jié)果幾乎沒有影響,如表2、圖4所示。

表2 有無LRN層準(zhǔn)確率對比

圖3 AlexNet優(yōu)化流程

圖4 三組有無RLN層準(zhǔn)確率對比

3.2.2 WN權(quán)值歸一化

權(quán)值歸一化(Weight Normalization,WN)于2016 年由Salimans 等人提出。WN是將權(quán)重向量W 拆分成為向量方向和向量模g兩部分組成如圖5所示。

圖5 WN權(quán)值歸一化

通過實驗測試如圖6所示,在有WN層以及有LRN層時對模型訓(xùn)練做出了三組模數(shù)據(jù)進行對比分析,并且在原AlexNet 模型基礎(chǔ)上進行改進,用WN 權(quán)值歸一化來代替LRN,同時將WN 層置于池化層(Pooling layer)之后,并且增加一層卷積層。將WN層全部置于池化層之后的目的是因為池化層降低了特征維度,并且通過WN 與 LRN 公式可以看出,由于 WN 相比 LRN 在歸一化算法的運算中不涉及冪運算β的同時只對神經(jīng)網(wǎng)絡(luò)權(quán)值向量w記性參數(shù)重寫Reparameterization,從而減少了部分參數(shù)和計算量。但由于減少了樣本參數(shù)數(shù)量,在減少了參數(shù)的同時增加一層卷積層來增加神經(jīng)元的數(shù)量,使模型訓(xùn)練更準(zhǔn)確。

總體來講,WN引入了更少的參數(shù)對深度網(wǎng)絡(luò)的權(quán)重重寫來實現(xiàn)加速,并且對minibatch沒有任何的依賴,加快了收斂速度的同時,也提高了模型訓(xùn)練的準(zhǔn)確率如表3、圖6所示,達到了優(yōu)化AlexNet的目的。

表3 LRN準(zhǔn)確率VS.WN準(zhǔn)確率

圖6 WN對比LRN準(zhǔn)確率

3.3 優(yōu)化器(Optimizer)優(yōu)化

優(yōu)化器(Optimizer)主要為了計算損失函數(shù)的梯度并且將所計算的梯度應(yīng)用在模型訓(xùn)練計算的變量更新中。簡單來講優(yōu)化器就是對AlexNet中梯度下降算法的優(yōu)化。

選擇了動量優(yōu)化算法的Momentum 以及自適應(yīng)學(xué)習(xí)率優(yōu)化算法的Adam和RMSProp這三種優(yōu)化器算法,并在AlexNet的CIFAR-10測試集上進行對比測試,對每個算法在不同學(xué)習(xí)率(Learning rate)上的最優(yōu)區(qū)間進行分析,目的是為了解決在模型訓(xùn)練中由于對不同優(yōu)化器選擇學(xué)習(xí)率不準(zhǔn)確而導(dǎo)致的模型收斂速度緩慢或波動過大的問題。

3.3.1 Momentum

Momentum 是引用了物理學(xué)中動量的方法來解決梯度下降的相關(guān)問題。其算法規(guī)則如下:

其主要優(yōu)點是在梯度方向改變時降低超參數(shù)的更新速度,從而使震蕩受到抑制,在梯度方向一致時,加速超參數(shù)的更新,從而使收斂速度增加。

通過實驗測試分析如圖7所示,在學(xué)習(xí)率為[0.001,1]區(qū)間上進行了數(shù)次的測試,得出了Momentum在學(xué)習(xí)率[0.17,0.398)區(qū)間上收斂性明顯優(yōu)于RMSProp和Adam,后兩種明顯地出現(xiàn)了波動的現(xiàn)象,無法對模型進行準(zhǔn)確的訓(xùn)練。

圖7 學(xué)習(xí)率[0.17,0.398)區(qū)間內(nèi)優(yōu)化器收斂性對比

3.3.2 Adam

Adam是Kingma和Lei Ba兩位學(xué)者在2014年12月提出的自適應(yīng)學(xué)習(xí)率優(yōu)化算法的一種,其算法規(guī)則如下:

其主要優(yōu)點是實現(xiàn)簡單,計算效率高,對內(nèi)存需求相對較少,超參數(shù)的更新不受梯度伸縮變換的影響,適用于梯度稀疏的大噪聲問題。

通過實驗測試分析如圖8所示,同樣是在學(xué)習(xí)率為[0.001,1]區(qū)間上進行了數(shù)次的測試,得出了Adam 在學(xué)習(xí)率[0.003,0.02)區(qū)間上收斂性明顯優(yōu)于Momentum 和RMSProp,雖然Adam 在大部分區(qū)間中收斂速度及波動都很穩(wěn)定,但RMSProp 在部分區(qū)間內(nèi)的收斂性及波動性會有小概率的情況比Adam 的表現(xiàn)效果好,例如在0.007 9、0.008 8、0.009 4 三個學(xué)習(xí)率下收斂性要優(yōu)于Adam,因此Adam并非在[0.003,0.02)區(qū)間上絕對的優(yōu)異。

圖8 學(xué)習(xí)率[0.003,0.02)區(qū)間內(nèi)優(yōu)化器收斂性對比

3.3.3 RMSProp

RMSProp 是Hinton 提出的自適應(yīng)學(xué)習(xí)率優(yōu)化算法的其中一種,也是相較于Adam在學(xué)習(xí)率區(qū)間上范圍更大且震蕩幅度較小的一種優(yōu)化器,其算法規(guī)則如下:

其主要優(yōu)點是依賴于全局學(xué)習(xí)率,并解決當(dāng)權(quán)重更新步長變小、學(xué)習(xí)率急劇下降的問題。

通過實驗測試分析如圖9所示,同樣是在學(xué)習(xí)率為[0.001,1]區(qū)間上進行了數(shù)次的測試,得出了RMSProp在學(xué)習(xí)率[0.02,0.1)區(qū)間上收斂性明顯優(yōu)于Adam 和Momentum,雖然在此區(qū)間內(nèi)RMSProp 表現(xiàn)得更優(yōu)異,但Adam也在此區(qū)間內(nèi)有著良好的表現(xiàn),略慢于RMSProp,波動情況略高。

圖9 學(xué)習(xí)率[0.02,0.1)區(qū)間內(nèi)優(yōu)化器收斂性對比

總體來講,Momentum、RMSProp、Adam 三種優(yōu)化器算法都有各自適應(yīng)的學(xué)習(xí)率區(qū)間,在模型訓(xùn)練時需要根據(jù)項目需求對所需學(xué)習(xí)率進行仔細(xì)分析,從而選擇相適應(yīng)的優(yōu)化器算法來解決實際問題,從而真正地達到優(yōu)化AlexNet的效果。

4 激活函數(shù)(Activation functions)優(yōu)化

激活函數(shù)(Activation functions)對于AlexNet 起著十分重要的作用,能夠給AlexNet增加一些非線性因素,使其能夠解決更多更復(fù)雜的問題,其根本作用是將神經(jīng)元的輸入映射到輸出端。正是因為Krizhevsky 等人在AlexNet中提出了ReLU激活函數(shù),并通過使用ReLU激活加快了收斂速度的同時,使模型訓(xùn)練的計算量以及耗時大大減少。

激活函數(shù)總體分為兩類如圖10 所示,一類是飽和激活函數(shù),例如Tanh、Sigmoid 等,其劣勢之處在于計算量大,反向傳播求導(dǎo)時涉及除法,并且極易出現(xiàn)梯度消失現(xiàn)象,從而無法完成模型訓(xùn)練;另一類則是非飽和激活函數(shù),例如ReLU、ELU、Leaky ReLU、RReLU等,AlexNet使用非飽和激活函數(shù)ReLU 也是因為除了加快收斂速度外還能解決梯度消失問題。

圖10 激活函數(shù)分類

4.1 ReLU激活函數(shù)

ReLU(Rectified Linear Units,線性修正單元)激活函數(shù)的提出是AlexNet 在2012 年ImageNet 競賽中奪冠的必要因素之一。

其成功的關(guān)鍵因素在于,ReLU 激活函數(shù)在方向求導(dǎo)過程中導(dǎo)數(shù)不為0,如圖11所示,解決了AlexNet優(yōu)化參數(shù)時使用飽和激活函數(shù)(例如Tanh、Sigmoid 等)反向傳播求導(dǎo)過程中導(dǎo)數(shù)為0而造成的梯度消失現(xiàn)象,導(dǎo)致參數(shù)無法被更新,如圖12所示。

圖11 ReLU導(dǎo)數(shù)圖像

圖12 Sigmoid、Tanh導(dǎo)數(shù)圖

4.2 ReLU激活函數(shù)優(yōu)化

雖然ReLU 激活函數(shù)相較于Sigmoid、Tanh 在解決AlexNet在模型訓(xùn)練過程中梯度消失問題取得了良好的效果,并且由于其在x>0 正向區(qū)間為線性函數(shù),所以在一定程度上也加快了收斂速度。但是,ReLU在x<0 的負(fù)向區(qū)間上呈硬飽和,導(dǎo)數(shù)為0,如圖11所示,導(dǎo)致權(quán)重?zé)o法更新。其次,也正是因為ReLU激活函數(shù)在正向區(qū)間上呈線性函數(shù),所以在某種程度上對較深層的神經(jīng)網(wǎng)絡(luò)中效果并不是很突出。

不少研究者不斷地研究改進ReLU 激活函數(shù)來優(yōu)化AlexNet,提出了一些ReLU激活函數(shù)的“升級”版,例如:LReLU、ELU等如圖13所示。雖然這些改進的ReLU激活函數(shù)在x<0 負(fù)向區(qū)間上盡可能地解決了無法更新權(quán)重(激活神經(jīng)元)的作用,但是伴隨著參數(shù)的增加,同時也會出現(xiàn)過擬合的現(xiàn)象。不僅如此,由于隨著AlexNet 復(fù)雜程度的加深,當(dāng)節(jié)點和層數(shù)過多輸出為正時,模型訓(xùn)練計算的輸出與目標(biāo)相差過大而導(dǎo)致無法收斂的情況。

圖13 ReLu及其改進函數(shù)

為此,提出了一種解決方案:利用2017年谷歌大腦提出的新的Swish 激活函數(shù)(也被稱為self-gated(自門控),如圖14)在x<0 負(fù)向區(qū)間上為半飽和函數(shù),同時導(dǎo)數(shù)不為0 的特點,其與ReLU6 激活函數(shù)的x>0 正向區(qū)間結(jié)合成為分段函數(shù),如圖15所示。

圖14 Swish激活函數(shù)

圖15 ReLU6、Swish融合函數(shù)

Swish激活函數(shù)的導(dǎo)數(shù)為:

圖16 ReLU6對比ReLU

這兩種函數(shù)融合的主要優(yōu)點在于:一方面由于ReLU6激活函數(shù)對ReLU 激活函數(shù)的輸入數(shù)據(jù)上界進行了限制,如圖16所示,避免了AlexNet模型訓(xùn)練過程中ReLU激活函數(shù)由于接受域過廣而導(dǎo)致的梯度爆炸現(xiàn)象的發(fā)生,收斂速度更快的同時能夠增加參數(shù)的利用率,并且還降低了過擬合的現(xiàn)象發(fā)生;另一方面,由于Swish 激活函數(shù)在x<0 負(fù)半軸上為半飽和函數(shù),既解決了ReLU激活函數(shù)部分權(quán)重?zé)o法更新的情況,又不會造成過擬合的現(xiàn)象??傮w來講,ReLU6與Swish的融合優(yōu)化了ReLU激活函數(shù)的同時能夠更好地增加AlexNet在模型訓(xùn)練上的魯棒性。

5 測試分析

結(jié)合了本文提出的三點優(yōu)化AlexNet 的方法,在CIFAR-10、MNIST、Fashion-MNIST 數(shù)據(jù)集上進行了模型訓(xùn)練測試,對比了經(jīng)過本文提出的三點優(yōu)化方法優(yōu)化的AlexNet 和沒有經(jīng)過本文提出的三點優(yōu)化方法優(yōu)化的AlexNet 在模型訓(xùn)練中收斂性以及準(zhǔn)確率上的不同。對比測試準(zhǔn)確率、收斂性結(jié)果如圖17、18 以及表4 所示。

圖17 優(yōu)化后對比無優(yōu)化準(zhǔn)確率

圖18 優(yōu)化后對比無優(yōu)化準(zhǔn)確率

表4 Swish激活函數(shù)谷歌測試 %

從圖17 的測試結(jié)果可以看出,經(jīng)過本文提出的三點優(yōu)化方法優(yōu)化后的AlexNet的數(shù)據(jù)集模型訓(xùn)練準(zhǔn)確率opt 曲線明顯高于未經(jīng)過任何優(yōu)化的模型訓(xùn)練準(zhǔn)確率none曲線;從圖18的測試結(jié)果可以看出,經(jīng)過本文提出的三點優(yōu)化方法優(yōu)化后的模型訓(xùn)練收斂速度opt曲線也明顯快于未經(jīng)過任何優(yōu)化的模型訓(xùn)練收斂速度none曲線,波動情況也得到了明顯的緩解??傮w達到了優(yōu)化AlexNet的目的。

6 結(jié)語

本文通過對AlexNet的Normalization、優(yōu)化器、激活函數(shù)三方面進行了相關(guān)的優(yōu)化處理,主要在泛化性、模型訓(xùn)練速度以及AlexNet整體的魯棒性等方面上都有所提高。在一定程度上成功地改進并優(yōu)化了AlexNet,但仍有些優(yōu)化改進不足的部分值得去繼續(xù)實驗研究,同時也為AlexNet的研究者們提供一些新的方法和思路。

猜你喜歡
梯度區(qū)間準(zhǔn)確率
解兩類含參數(shù)的復(fù)合不等式有解與恒成立問題
你學(xué)會“區(qū)間測速”了嗎
一個改進的WYL型三項共軛梯度法
乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
健康之家(2021年19期)2021-05-23 11:17:39
不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
2015—2017 年寧夏各天氣預(yù)報參考產(chǎn)品質(zhì)量檢驗分析
一種自適應(yīng)Dai-Liao共軛梯度法
一類扭積形式的梯度近Ricci孤立子
高速公路車牌識別標(biāo)識站準(zhǔn)確率驗證法
區(qū)間對象族的可鎮(zhèn)定性分析
鄂温| 长兴县| 永安市| 仁化县| 桐梓县| 西安市| 柘荣县| 长葛市| 元江| 蕉岭县| 邵武市| 遵义县| 呼玛县| 黎平县| 深泽县| 西充县| 同德县| 鄂伦春自治旗| 靖远县| 江北区| 武威市| 运城市| 夏邑县| 抚州市| 公主岭市| 海阳市| 新干县| 泰兴市| 永和县| 建平县| 疏附县| 龙山县| 清徐县| 桃园市| 威远县| 万荣县| 成武县| 靖远县| 二连浩特市| 马龙县| 礼泉县|