国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度卷積生成對抗網(wǎng)絡的植物圖像識別方法的研究

2019-05-17 05:41:12崔夢天
關(guān)鍵詞:原始數(shù)據(jù)卷積深度

張 澎,崔夢天,謝 琪,姜 玥

(西南民族大學計算機科學與技術(shù)學院, 四川 成都 610041)

近年來,越來越多的人工智能技術(shù)被應用于農(nóng)業(yè)生產(chǎn)活動中,如通過深度學習方法實現(xiàn)植物病蟲害[1]與植物種類[2]的識別.深度學習需要大量的帶有標簽的數(shù)據(jù)樣本,在此前提下訓練模型能夠取得更高的識別率或者更好的分類效果,但若數(shù)據(jù)樣本數(shù)量較小的話,則會導致模型出現(xiàn)過擬合現(xiàn)象. 為了更好地解決數(shù)據(jù)樣本數(shù)量小的問題,專家們提出了生成對抗網(wǎng)絡來解決此類問題.

生成對抗網(wǎng)絡(Generative adversarial network,GAN) 是Goodfellow 等[3]在2014 年提出的一種生成模型,也是一種無監(jiān)督學習模型. 相較于傳統(tǒng)的生成模型, 其在網(wǎng)絡結(jié)構(gòu)上除了生成網(wǎng)絡外,還包含一個判別網(wǎng)絡.GAN 的主要靈感源于博弈論中零和博弈的思想,即生成網(wǎng)絡G(Generator)與判別網(wǎng)絡D(Discriminator)之間不斷博弈,從而達到生成網(wǎng)絡G(Generator)不斷學習到數(shù)據(jù)分布的目的. 目前,GAN 取得了的廣泛的研究與應用,在圖像與視覺領(lǐng)域已經(jīng)用于人臉檢測[4]、風格遷移[5]以及生產(chǎn)高分辨率圖像[6]等,另外GAN 還被應用于語音處理[7]、隱私保護[8]和病毒檢測[9]等問題.然而生成對抗網(wǎng)絡在植物圖像樣本的應用卻不多,本文使用深度卷積生成對抗網(wǎng)絡[10]生成新的植物圖像,并使用深度卷積神經(jīng)網(wǎng)絡來驗證新生成圖像用于植物圖像識別的可行性,實驗結(jié)果表明,該方法生成的植物圖像能夠有效的提高模型識別結(jié)果.

1 生成對抗網(wǎng)絡原理

生成對抗網(wǎng)絡(GAN)[3]由兩個網(wǎng)絡構(gòu)成,生成網(wǎng)絡G(Generator)和判別網(wǎng)絡D(Discriminator).G 通過隨機噪聲z 生成圖像,記為G(z).D 負責對輸入的樣本進行判別,判斷樣本是真實的數(shù)據(jù)還是生成的數(shù)據(jù)G(z).而訓練過程中,生成網(wǎng)絡G 的任務是盡量生成真實的圖片以達到欺騙判別網(wǎng)絡D 的目的,而判別網(wǎng)絡D 則需要盡量將生成網(wǎng)絡G 生成的圖片與真實圖片區(qū)分開,二者構(gòu)成了一個動態(tài)的博弈,直至達到納什均衡[11].GAN 的流程如圖1 所示:

圖1 GAN 流程圖Fig.1 GAN flow chart

與其他生成模型對比來看,例如玻爾茲曼機[12]和GSNs[13]只用到了反向傳播,而不需要馬爾科夫鏈[14-15].從實際結(jié)果看,GAN 產(chǎn)生的樣本更加清晰、真實.

但目前GAN 還一些缺點需要彌補,如離散形式數(shù)據(jù)的處理,包括文本等.而且由于GAN 模型的訓練需要達到納什均衡,導致GAN 模型的訓練是不穩(wěn)定的.

2 深度卷積生成對抗網(wǎng)絡

深度卷積生成對抗網(wǎng)絡(DCGAN) 是Dundar等[10]人在2015 年改進的新型GANs.在GAN 的基礎上增加了深度卷積神經(jīng)網(wǎng)絡結(jié)構(gòu),用于生成圖像樣本.

在DCGAN 中,一張圖像經(jīng)判別器D 處理后,其輸出結(jié)果表示此圖像是真實圖像的概率.而判別器D的結(jié)構(gòu)是一個卷積神經(jīng)網(wǎng)絡,判別器D 通過若干層對輸入的圖像的卷積后,提取卷積特征,并將得到的特征輸入Logistic 函數(shù)中,輸出可看做是概率.

生成器G 的輸入是1 個100 維的噪聲向量z.生成器G 網(wǎng)絡的第一層為全連接層,其任務是將100 維的噪聲向量變成4 ×4 × 1024 維的向量,并從第二層開始使用轉(zhuǎn)置卷積做上采樣操作,逐步減少通道數(shù),最終的輸出為64 ×64 ×3 的圖像.生產(chǎn)器G 的網(wǎng)絡結(jié)構(gòu)如圖2 所示:

圖2 DCGAN 中生成器G 的網(wǎng)絡結(jié)構(gòu)[16]Fig.2 Network structure of generator G in DCGAN

DCGAN 與傳統(tǒng)的GAN 相比有以下特點[17]:

①在判別器D 中,使用帶有步長(Stride)的卷積來代替池化層.

②在網(wǎng)絡結(jié)構(gòu)中,生成器G 和判別器D 采用了批量歸一化[18](Batch Normalization)以此來幫助模型收斂.

③在生成器G 中使用ReLU[19](Rectified linear unit)激活函數(shù).

④在判別器D 中使用Leaky ReLU(Leaky rectify linear unit)激活函數(shù).

3 利用DCGAN 實現(xiàn)植物圖像增強

利用深度卷積生成對抗網(wǎng)絡進行數(shù)據(jù)增強需要三個步驟,第一步是收集原始數(shù)據(jù)樣本,第二步是搭建訓練環(huán)境,第三步是基于原始數(shù)據(jù),通過DCGAN 模型進行訓練并生成數(shù)據(jù).

3.1 數(shù)據(jù)樣本

本文數(shù)據(jù)來源于奧爾胡斯大學信號處理小組與南丹麥大學合作發(fā)布的數(shù)據(jù)集,數(shù)據(jù)集中含有數(shù)量分布不均勻的12 類植物圖像,通過DCGAN 模型實現(xiàn)數(shù)據(jù)均衡與數(shù)據(jù)增強操作.

3.2 搭建訓練環(huán)境

本文中模型的搭建環(huán)境如下表1 所示:

表1 環(huán)境配置信息Table 1 Environmental configuration information

3.3 模型訓練

本組訓練學習率設定為0.0002,單次循環(huán)隨機加載64 張圖像.圖像原始尺寸為224 × 224 ,在程序運行中,將這些圖像中心截取96 × 96 的小塊并縮放到48 ×48 像素,然后添加噪聲開始訓練.循環(huán)過程可以描述為,首先生成器G 生成輸出,然后經(jīng)判別器D 進行判別,通過生成器G 和判別器D 的輸出來計算生成損失和判別損失. 最終,通過反向傳播算法進行優(yōu)化權(quán)重參數(shù),然后開始下一次循環(huán).每20 次循環(huán)輸出測試圖像.

本文選用TensorFlow 作為學習框架,基于Tensor-Flow 學習框架搭建DCGAN 模型. 在model. py 中,進行參數(shù)初始化代碼及參數(shù)說明見表2:

表2 參數(shù)說明Table 2 Description of parameters

最后在系統(tǒng)終端輸入以下運行命令進行訓練:python main.py - -input_height 96 - -input_width 96 - - output_height 48 - - output_width 48 - -dataset 7 - -crop - -train - -epoch 300 - -input_fname_pattern "*.jpg"

參數(shù)解釋:input_height 96,input_width 96,表示將圖像中心截取96 ×96 的小塊.output_height 48,output_width 48 表示將截取到的圖像縮放到48 × 48 像素.dataset 7 用來指定圖像數(shù)據(jù),epoch 300 表示進行300個epoch,1 個epoch 為使用訓練集中的全部樣本訓練一次.input_fname_pattern "*. jpg"用來指定圖片格式.

4 實驗結(jié)果分析

4.1 實驗結(jié)果展示

原始圖像和利用DCGAN 生成的圖像對比展示如下,其中圖3 是原始數(shù)據(jù)圖像,圖4 是利用DCGAN 進行10 次循環(huán)輸出的結(jié)果,圖5 是300 次循環(huán)輸出的結(jié)果,圖6 是7200 次循環(huán)輸出的結(jié)果.

圖3 原始圖像Fig.3 Original image

圖4 20 次循環(huán)結(jié)果Fig.4 10 cycle results

圖5 300 次循環(huán)結(jié)果Fig.5 300 cycle results

圖6 7200 次循環(huán)結(jié)果Fig.6 7200 cycle results

4.2 生成樣本可行性驗證

為了驗證DCGAN 生成的樣本的可行性,本文基于TensorFlow 深度學習框架搭建LeNet -5 卷積神經(jīng)網(wǎng)絡模型用于數(shù)據(jù)驗證.由于原始數(shù)據(jù)各類別圖像數(shù)量相差較大,圖像數(shù)量很少會導致模型無法判別少數(shù)類,影響模型識別結(jié)果.使用由DCGAN 生成的圖像對圖像數(shù)量較少的類別進行填充,使各類別圖像數(shù)量大致相同.構(gòu)建卷積層代碼如下:

model.add(Conv2D(filters =20,kernel_size =(5,5),padding ="same",input_shape =inputShape,activation ='relu'))

卷層過濾器大小為5*5,會產(chǎn)生20 個圖像,使用全0 填充,設置ReLU 激活函數(shù).

加入Dropout 層避免過擬合,代碼如下:

model.add(Dropout(0.5))

設置隨機剔除神經(jīng)元概率為0.5.

構(gòu)建池化層代碼如下:model. add(MaxPooling2D(pool_size =(2,2), strides =(2,2)))

最大池化層過濾器大小為2*2,長和寬的步長均為2,不會改變圖像的數(shù)量(仍舊是20),會改變大小(32*32 變成16*16).

構(gòu)建全連接層代碼如下:

model.add(Dense(500))

Dense 表示全連接層,并設置500 個神經(jīng)元.

建立輸出層代碼如下:

model.add(Dense(classes,activation ='softmax'))

Softmax 分類器可以將輸出預測為每一個圖像的概率,從而達到多分類的目的.

卷積神經(jīng)網(wǎng)絡模型搭建完成后,分別使用原始數(shù)據(jù)和經(jīng)DCGAN 生成的樣本填充后的數(shù)據(jù)進行訓練,對比結(jié)果. 在迭代1000 次時,使用原始數(shù)據(jù)進行訓練,模型準確率為89.82%,如圖7 所示. 使用經(jīng)DCGAN 生成的樣本填充后的數(shù)據(jù)進行訓練,模型準確率為94.02%,如圖8 所示.準確率有明顯上升.

圖7 使用原始數(shù)據(jù)訓練結(jié)果Fig.7 Use raw data training results

圖8 使用經(jīng)DCGAN 生成的額樣本填充后的數(shù)據(jù)訓練結(jié)果Fig.8 Data training results using the amount sample generated by DCGAN

5 總結(jié)與展望

本文介紹了生成對抗網(wǎng)絡及其衍生模型深度卷積生成對抗網(wǎng)絡的原理,然后使用原始樣本對深度卷積生成對抗網(wǎng)絡進行訓練實現(xiàn)了圖像的生產(chǎn),并通過構(gòu)建卷積神經(jīng)網(wǎng)絡對生產(chǎn)樣本的質(zhì)量進行測試.結(jié)果表明,利用深度卷積生成對抗網(wǎng)絡能夠為目前農(nóng)業(yè)領(lǐng)域圖像數(shù)據(jù)積累不足的現(xiàn)狀提供解決方法.未來工作將研究如何優(yōu)化訓練過程并產(chǎn)生更清晰的圖像樣本.

猜你喜歡
原始數(shù)據(jù)卷積深度
GOLDEN OPPORTUNITY FOR CHINA-INDONESIA COOPERATION
基于3D-Winograd的快速卷積算法設計及FPGA實現(xiàn)
受特定變化趨勢限制的傳感器數(shù)據(jù)處理方法研究
深度理解一元一次方程
從濾波器理解卷積
電子制作(2019年11期)2019-07-04 00:34:38
深度觀察
深度觀察
深度觀察
基于傅里葉域卷積表示的目標跟蹤算法
全新Mentor DRS360 平臺借助集中式原始數(shù)據(jù)融合及直接實時傳感技術(shù)實現(xiàn)5 級自動駕駛
汽車零部件(2017年4期)2017-07-12 17:05:53
平阴县| 科尔| 萍乡市| 永城市| 抚顺县| 荔波县| 桃园县| 邵武市| 三台县| 和平区| 扶余县| 闸北区| 蒙城县| 徐州市| 项城市| 嵊泗县| 从化市| 连平县| 平和县| 西乌珠穆沁旗| 博罗县| 大安市| 成都市| 乐陵市| 镇原县| 娄底市| 佛教| 黄浦区| 盐城市| 东莞市| 绵竹市| 湟中县| 利辛县| 那坡县| 哈巴河县| 益阳市| 吴堡县| 专栏| 左贡县| 柞水县| 邛崃市|