国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于卷積神經(jīng)網(wǎng)絡(luò)的花卉識(shí)別研究

2019-05-24 14:13曾凡婧雷鳴
電腦知識(shí)與技術(shù) 2019年11期
關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)

曾凡婧 雷鳴

摘要:近年來(lái),花卉種類(lèi)識(shí)別主要是根據(jù)植物的葉、莖、花等不同部位的形狀和紋理進(jìn)行的,但由于世界各地?fù)碛袛?shù)百萬(wàn)種花卉且花卉還具有類(lèi)間相似性和類(lèi)內(nèi)異構(gòu)性,使得這類(lèi)方法缺乏健壯性。在該文的研究工作中,采用了卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)方法來(lái)實(shí)現(xiàn)對(duì)花卉種類(lèi)的高精度識(shí)別,先是對(duì)原始圖像進(jìn)行預(yù)處理;然后是以L(fǎng)eNet-5卷積神經(jīng)網(wǎng)絡(luò)模型為基礎(chǔ)建立網(wǎng)絡(luò)模型,再通過(guò)梯度下降和BP算法進(jìn)行模型訓(xùn)練后得到花卉識(shí)別分類(lèi)器;最后分析實(shí)驗(yàn)結(jié)果并與其它花卉識(shí)別的算法進(jìn)行對(duì)比。通過(guò)在Oxford 102 Flowers數(shù)據(jù)庫(kù)進(jìn)行的實(shí)驗(yàn),識(shí)別正確率達(dá)到了91.18%。

關(guān)鍵詞:深度學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);花卉識(shí)別;BP算法

中圖分類(lèi)號(hào):TP391 文獻(xiàn)標(biāo)識(shí)碼:A

文章編號(hào):1009-3044(2019)11-0185-04

1 引言

基于花卉的植物物種識(shí)別由于其廣泛存在花卉圖像背景復(fù)雜且種類(lèi)繁多的特性,在圖像處理和計(jì)算機(jī)視覺(jué)領(lǐng)域中仍然是一個(gè)挑戰(zhàn),國(guó)內(nèi)外學(xué)者對(duì)于花卉識(shí)別做了大量的研究??洛械萚1]提出基于RGB的圖像分割方法,并采用多特征融合方法進(jìn)行花卉圖像的識(shí)別。Nilsback等[2]通過(guò)分析花朵的顏色、形狀、紋理等特征在分類(lèi)過(guò)程中的貢獻(xiàn)度,構(gòu)建相應(yīng)的單詞表模型,最后利用K近鄰算法實(shí)現(xiàn)花卉識(shí)別。Tiay T等[3]開(kāi)發(fā)了一套花卉識(shí)別系統(tǒng)利用花卉圖像的邊緣特征和顏色特征對(duì)花卉進(jìn)行分類(lèi)。Zhang等[4]使用Harr特征和SIFT特征將花卉圖像的空間信息與局部特征相結(jié)合,從圖像中提取的特征使用非負(fù)稀疏編碼方法進(jìn)行編碼,然后用K近鄰方法進(jìn)行分類(lèi)。

隨著深度學(xué)習(xí)技術(shù)的發(fā)展,研究人員開(kāi)始嘗試通過(guò)深度學(xué)習(xí)來(lái)解決花卉圖像的分類(lèi)問(wèn)題。林思思等[5]提出融合深度特征提取和人工特征提取的方法實(shí)現(xiàn)花卉圖像的分類(lèi)。Yoo 等[6-8]基于大型圖像數(shù)據(jù)庫(kù),通過(guò)訓(xùn)練深度學(xué)習(xí)網(wǎng)絡(luò)模型在花卉圖像分類(lèi)中取得了較好的效果。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural networks, CNNs)[9]是目前用于圖像處理與模式識(shí)別的主要形式,卷積神經(jīng)網(wǎng)絡(luò)具有局部連接、權(quán)值共享及池化操作等特性可以有效地降低網(wǎng)絡(luò)復(fù)雜度,減少訓(xùn)練參數(shù)且具有強(qiáng)魯棒性和容錯(cuò)性。因此,本文在傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上,建立并訓(xùn)練了一個(gè)良好的網(wǎng)絡(luò)模型用于花卉種類(lèi)識(shí)別。

2 基礎(chǔ)理論

2.1 深度學(xué)習(xí)模型

深度學(xué)習(xí)模型由計(jì)算機(jī)與人工智能泰斗Geoffrey Hinton及其學(xué)生于2006年提出,他們的主要觀(guān)點(diǎn)包括:(1)多個(gè)隱層條件下的神經(jīng)網(wǎng)絡(luò)可以自主的從輸入圖像中學(xué)習(xí)到更為本質(zhì)的特征。(2)對(duì)于多個(gè)隱層的神經(jīng)網(wǎng)絡(luò)在訓(xùn)練的時(shí)候容易陷入局部極小值,可以通過(guò)逐層的初始化來(lái)解決。本文使用的LeNet-5[10]卷積神經(jīng)網(wǎng)絡(luò)模型是第一個(gè)真正的多層網(wǎng)絡(luò)結(jié)構(gòu)學(xué)習(xí)算法,網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,最早由Yann LeCun 與 YoshuaBengio 提出,該算法被應(yīng)用在物體和圖像區(qū)域的檢測(cè)、分割和識(shí)別,并取得了巨大成功。

2.2 圖像卷積與池化

池化層是通常作為網(wǎng)絡(luò)的中間層與卷積層交替設(shè)置,池化操作通過(guò)不同的過(guò)濾器對(duì)特征圖進(jìn)行下采樣。池化不會(huì)改變特征圖的個(gè)數(shù),只降低特征圖的分辨率,有效地降低了神經(jīng)網(wǎng)絡(luò)的參數(shù)。目前常用的池化方法有兩種,分別為最大池化和均值池化。最大池化法在局部接受域中選取最大的值,均值池化是在局部接受域中所有值求平均值。

2.3 Dropout技術(shù)

Dropout[12]是解決深度神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練過(guò)程中過(guò)擬合問(wèn)題的一種技術(shù),主要思想是在深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練的過(guò)程中,隨機(jī)丟棄神經(jīng)元以及其連接。對(duì)于隨機(jī)梯度下降來(lái)說(shuō),由于是隨機(jī)丟棄,故而每一個(gè)mini-batch都在訓(xùn)練不同的網(wǎng)絡(luò)。

2.4 Softmax與Softmax Loss

3.1 數(shù)據(jù)預(yù)處理

實(shí)驗(yàn)數(shù)據(jù)來(lái)自O(shè)xford 102 Flower數(shù)據(jù)庫(kù)[14],其中有102類(lèi)常見(jiàn)花卉,總共8189張圖像?;ɑ軋D像的背景一般都比較復(fù)雜,這些復(fù)雜的背景在進(jìn)行特征提取時(shí)會(huì)造成一定的干擾,因此在運(yùn)行CNN模型之前需要進(jìn)行數(shù)據(jù)預(yù)處理。首先將原始數(shù)據(jù)以8:2的比例隨機(jī)劃分為訓(xùn)練集和測(cè)試集兩個(gè)部分,且采用One-Hot編碼。然后對(duì)數(shù)據(jù)進(jìn)行數(shù)據(jù)標(biāo)準(zhǔn)化,本文采用數(shù)據(jù)標(biāo)準(zhǔn)化的方法是標(biāo)準(zhǔn)差標(biāo)準(zhǔn)化,經(jīng)其處理過(guò)的數(shù)據(jù)符合標(biāo)準(zhǔn)正態(tài)分布,均值為0,標(biāo)準(zhǔn)差為1。標(biāo)準(zhǔn)差標(biāo)準(zhǔn)化(Z-score standardization)如式(4)所示。

3.2 花卉識(shí)別卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

基于花卉種類(lèi)識(shí)別的網(wǎng)絡(luò)結(jié)構(gòu)如表1所示,Input_Layer為輸入層,輸入圖片統(tǒng)一大小為100×100×3(100×100表示圖像分辨率,3表示圖像通道);C1、C3為卷積層,分別使用32和64個(gè)尺寸為5×5的卷積核進(jìn)行特征提??;S2、S4為池化層,都采用最大池化方式(核為2×2,步長(zhǎng)為2)對(duì)上一個(gè)卷積層提取的特征圖進(jìn)行下采樣;F5為全連接層,采用2048個(gè)節(jié)點(diǎn)與上一個(gè)池化層S4輸出進(jìn)行全連接;Dropout層是為了防止過(guò)擬合引入,以40%的概率隨機(jī)丟棄部分?jǐn)?shù)據(jù);最后一層Output_Layer為輸出層,采用Softmax回歸進(jìn)行分類(lèi)輸出,通常也稱(chēng)之為Softmax層。

3.3 模型訓(xùn)練

在建立卷積網(wǎng)絡(luò)模型時(shí)各個(gè)層的參數(shù)都是依據(jù)經(jīng)驗(yàn)而設(shè)定,對(duì)于不同的物體在識(shí)別過(guò)程中可能不是最優(yōu)參數(shù),導(dǎo)致最終輸出的結(jié)果與期望值差異較大,反向傳播是訓(xùn)練多層前饋神經(jīng)網(wǎng)絡(luò)最通用的方法之一。其算法思想是:通過(guò)求解正向輸出標(biāo)簽值與實(shí)際標(biāo)簽值的誤差作為參數(shù)反向由輸出層向輸入層傳播,然后利用梯度下降法( Gradient Descent,GD)求解損失函數(shù)的最小化,從而對(duì)神經(jīng)元權(quán)值進(jìn)行更新調(diào)整。本文采用Softmax損失函數(shù)和小批量梯度下降算法(Mini-Batch Gradient Descent,MBGD)對(duì)卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,設(shè)定批大小為100,如圖4所示當(dāng)訓(xùn)練迭代次數(shù)為2500步時(shí)損失值loss接近于0,表示預(yù)測(cè)值與標(biāo)簽值基本一致模型訓(xùn)練完成,總用時(shí)3小時(shí)1分38秒。

4 實(shí)驗(yàn)結(jié)果分析

本實(shí)驗(yàn)的實(shí)驗(yàn)環(huán)境:Intel Core i5 雙核 CPU,3.6GHz,8G內(nèi)存,macOS操作系統(tǒng),Python編程語(yǔ)言及其加載的Numpy庫(kù)、TensorFlow框架,開(kāi)發(fā)工具VS Code。

4.1 效果展示

卷積神經(jīng)網(wǎng)絡(luò)的輸出值經(jīng)過(guò)Soft-max回歸處理后得到的是概率向量,分別表示當(dāng)前圖像為每一類(lèi)別的概率,最終識(shí)別結(jié)果由其概率最大值確定。識(shí)別結(jié)果演示(部分)如圖5所示,其中識(shí)別類(lèi)別21、概率為99.728%,識(shí)別類(lèi)別38、概率為99.947%。

4.2 誤差分析

通過(guò)已訓(xùn)練的CNN模型,使用測(cè)試集數(shù)據(jù)對(duì)分類(lèi)器的準(zhǔn)確率進(jìn)行測(cè)試,測(cè)試集中共102個(gè)類(lèi)別花卉圖像的識(shí)別結(jié)果如下圖6所示,準(zhǔn)確率為91.18%。

4.3 與其它算法對(duì)比分析

本文方法與其它的花卉識(shí)別方法在識(shí)別正確率的對(duì)比如表2所示,結(jié)果表明本文提出的方法識(shí)別率高于其它方法,具有實(shí)際應(yīng)用性。

5 結(jié)束語(yǔ)

本文卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)計(jì)是以Yann LeCun 與 YoshuaBengio 提出的LeNet網(wǎng)絡(luò)結(jié)構(gòu)為基礎(chǔ),并在訓(xùn)練過(guò)程中使用誤差反向傳播方式不斷更新卷積神經(jīng)網(wǎng)絡(luò)的各個(gè)權(quán)值,多次迭代后找出最佳參數(shù)得到合適的網(wǎng)絡(luò)模型,然后與其它算法對(duì)比。結(jié)果表明本文提出的方法在Oxford 102 Flowers數(shù)據(jù)庫(kù)中的實(shí)驗(yàn)與其它幾種傳統(tǒng)方式以及一些深度學(xué)習(xí)的方式相比有更高的識(shí)別率,達(dá)到了91.18%。通過(guò)研究表明神經(jīng)網(wǎng)絡(luò)模型深度越深效果會(huì)越好[15],但是越復(fù)雜的模型越容易過(guò)擬合且訓(xùn)練時(shí)間過(guò)長(zhǎng),于是如何減少訓(xùn)練時(shí)間以及避免過(guò)擬合狀態(tài)的發(fā)生是今后進(jìn)一步研究的方向。

參考文獻(xiàn):

[1] 柯逍, 陳小芬, 李紹滋. 基于多特征融合的花卉圖像檢索[J]. 計(jì)算機(jī)科學(xué), 2010, 37(11):282-286.

[2] Nilsback M E, Zisserman A. A visual vocabulary for flower classification[C]. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Chicago, USA:IEEE Computer Society, 2006:1447—1454.

[3] Tiay T , Benyaphaichit P , Riyamongkol P . Flower recognition system based on image processing[C]// 2014 Third ICT International Student Project Conference (ICT-ISPC). IEEE, 2014.

[4] Zhang C, Liu J, Liang C, et al. Image classification using harr-like transformation of local features with coding residuals[J]. Signal Processing, 2013,93:2111-2118.

[5] 林思思,葉東毅,陳昭炯. 多特征融合的花卉圖像深度學(xué)習(xí)分類(lèi)算法[J]. 小型微型計(jì)算機(jī)系統(tǒng), 2018, 39(7):72-76.

[6] Yoo D, Park S, Lee J Y, et al. Multi-scale pyramid pooling for deep convolutional representation[C]. 2015 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). IEEE, 2015.

[7] 沈萍,趙備.基于深度學(xué)習(xí)模型的花卉種類(lèi)識(shí)別[J].科技通報(bào),2017,33(3):115-119.

[8] 王麗雯. 基于AlexNet的Oxford花卉識(shí)別方法[J]. 科技視界, 2017,(14):83-83.

[9] Lecun Y L, Bottou L, Bengio Y, et al. Gradient-Based Learning Applied to Document Recognition[J]. Proceedings of the IEEE, 1998, 86(11):2278-2324.

[10] 周飛燕, 金林鵬, 董軍. 卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 計(jì)算機(jī)學(xué)報(bào),2017,40(6):1229-1251.

[11] 郭子琰, 舒心, 劉常燕, 等. 基于ReLU函數(shù)的卷積神經(jīng)網(wǎng)絡(luò)的花卉識(shí)別算法[J]. 計(jì)算機(jī)技術(shù)與發(fā)展, 2018, v.28;No.253(05):160-163+169.

[12] Srivastava N, Hinton G, Krizhevsky A, et al. Dropout: a simple way to prevent neural networks from overfitting[J]. Journal of Machine Learning Research, 2014, 15(1):1929-1958.

[13] 陳芷薇, 陳姝. 基于深度學(xué)習(xí)的人臉跟蹤自動(dòng)初始化方法[J]. 計(jì)算機(jī)工程與科學(xué), 2017(4).

[14] Nilsback M E, Zisserman A. Automated Flower Classification over a Large Number of Classes[C]. Sixth Indian Conference on Computer Vision, Graphics & Image Processing, ICVGIP 2008, Bhubaneswar, India, 16-19 December 2008. IEEE, 2008.

[15] 紀(jì)榮嶸, 林紹輝, 晁飛, 等. 深度神經(jīng)網(wǎng)絡(luò)壓縮與加速綜述[J]. 計(jì)算機(jī)研究與發(fā)展, 2018, 55(09):47-64.

【通聯(lián)編輯:梁書(shū)】

猜你喜歡
卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)
基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
牙克石市| 溧阳市| 二连浩特市| 冕宁县| 彝良县| 保靖县| 永康市| 汪清县| 北川| 柳州市| 辽源市| 八宿县| 阿尔山市| 怀集县| 息烽县| 天气| 商都县| 泰顺县| 漳平市| 调兵山市| 孝义市| 海原县| 乡宁县| 教育| 宜宾市| 射洪县| 宜黄县| 肥东县| 福建省| 宜城市| 胶州市| 独山县| 古丈县| 酉阳| 团风县| 卓资县| 威海市| 太白县| 稻城县| 比如县| 汽车|