王雪琰,張 沖,張 立
卷積神經(jīng)網(wǎng)絡(luò)下的相似月季識別
王雪琰,張 沖,張 立*
(北京林業(yè)大學(xué)理學(xué)院,北京 100083)
目前我國關(guān)于花卉分類識別技術(shù)已較為成熟,但由于類間相似性較高,花卉特征較難提取,對于同種不同類的相似花卉仍存在識別率較低的問題,因此提出使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)中4類深度學(xué)習(xí)網(wǎng)絡(luò)SqueezeNet、ResNet、InceptionV3及DenseNet的訓(xùn)練模型,搭建了對4種相似月季進(jìn)行識別的花朵識別客戶端,并對識別結(jié)果進(jìn)行比較,篩選出最優(yōu)模型,同時運用GPU對訓(xùn)練過程以及識別過程進(jìn)行加速。對實驗過程產(chǎn)生的數(shù)據(jù)進(jìn)行統(tǒng)計對比后得出Inception V3網(wǎng)絡(luò)訓(xùn)練后得到的模型較其余3種網(wǎng)絡(luò)而言識別率最高且識別速度較快,可以作為最優(yōu)模型。將搭建的花朵識別系統(tǒng)應(yīng)用于花卉分類工作中,在節(jié)省人工的同時也能夠加速園藝自動化的進(jìn)程。
月季;SqueezeNet;ResNet;InceptionV3;DenseNet;深度學(xué)習(xí)
月季(Jacq)屬薔薇科(),其作為我國著名原產(chǎn)花卉,具備花期長、抗性好、觀賞性強的優(yōu)點,是最常見的觀賞花卉之一[1]。自20世紀(jì)雜交技術(shù)產(chǎn)生以來,我國誕生并引進(jìn)許多優(yōu)秀的月季品種,成為世界上種植月季最多的國家?,F(xiàn)階段對月季的分類達(dá)到十余種,其中比較常見的分類有:豐花月季、藤本月季、切花月季和灌木月季等[2]。對月季進(jìn)行區(qū)分的方法也各不相同,月季依照顏色分類可分為紅、黃、粉、白、橙、復(fù)色等;依照花瓣形狀分類又可分為單瓣、重瓣、半重瓣等。伴隨現(xiàn)代園藝技術(shù)的迅速發(fā)展與大眾對花卉觀賞需求的提升,未來擁有更多新的花卉品種已成為趨勢。在不具備專業(yè)知識前提下對同種不同類的花朵品種進(jìn)行區(qū)分的手段,不僅有助于擴展大眾的知識需求,在數(shù)據(jù)化時代還可為園藝自動化進(jìn)程提供幫助。傳統(tǒng)模式下的花朵識別對花朵顏色、花瓣結(jié)構(gòu)、花朵香型、植株形態(tài)等特征進(jìn)行區(qū)分,但憑借人工鑒別花卉不僅需要專業(yè)知識的積累,識別率也相對較低[4]。除人工識別手段之外,機器視覺作為近年農(nóng)林信息化建設(shè)的重要工具,在園林產(chǎn)業(yè)中也舉足輕重。經(jīng)典的機器視覺算法如SIFT、SVM、K-means、協(xié)方差矩陣等都大都運用數(shù)學(xué)模型對所檢測物體進(jìn)行形狀比對與紋理識別[5]。卷積神經(jīng)網(wǎng)絡(luò)作為機器視覺下的新興算法,擁有傳統(tǒng)算法所不具備的生物性。對于月季花的花朵識別與對其他花卉識別不同,其花瓣大多重疊,顏色繁多。傳統(tǒng)機器視覺算法下對花朵紋理等特征的提取誤差較大,若擴大樣本量重復(fù)訓(xùn)練又十分耗時[6]。卷積神經(jīng)網(wǎng)絡(luò)在樣本充足的情況下能夠達(dá)到的精確度比經(jīng)典機器視覺算法的效果高出10%左右,而目前所具備花卉識別功能的APP如形色識花、花眼、花伴侶等僅能識別花朵大類,無法對同種不同類的花卉進(jìn)行區(qū)分[7]。因此,本研究選擇卷積神經(jīng)網(wǎng)絡(luò)對自由精神、亞伯拉罕、美咲和真宙4種月季進(jìn)行識別,以期為識別不同品種的月季及其他品種的花卉提供借鑒。
作者依據(jù)月季花朵顏色、大小和花型3種特征,選取了4種相似的月季進(jìn)行比對(圖1)。
自由精神月季:該品種由英國著名園藝家Austen培育,屬于灌木兼藤本月季,花期長,花朵直徑中等,呈淡粉色,為重瓣花型。
亞伯拉罕·達(dá)比月季:該品種與自由精神月季同為Austen培育的月季品種,屬于大藤本月季,四季開花,花朵直徑較大,多呈杏黃或粉色,為重瓣花型。
真宙月季:該品種由日本園藝家吉池真藏培育,屬于灌木藤本月季,多季重復(fù)開花,花朵直徑中等,呈粉色,為重瓣花型。
美咲月季:該品種由日本園藝家國枝啟司培育,屬于豐花月季,多季重復(fù)開花,花朵直徑中等,呈白粉色,為重瓣花型[3]。
卷積神經(jīng)網(wǎng)絡(luò)(CNN)的識別建立在對大量數(shù)據(jù)的訓(xùn)練上,數(shù)據(jù)量在一定范圍內(nèi)越多,該網(wǎng)絡(luò)對特征的把握就越為準(zhǔn)確。而它對圖像識別的優(yōu)勢在于它的局部權(quán)值共享,使它擁有與其他網(wǎng)絡(luò)所不具備的“生物性”。
圖2顯示了卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu),在第一層也即輸入層中將圖像進(jìn)行預(yù)處理,隨即將處理過的圖像傳遞到卷積層,它作為CNN最重要的一層,內(nèi)部經(jīng)過濾波和滑動減少參數(shù)數(shù)量,從而提高計算速率,并使用激勵函數(shù)對卷積后得到的結(jié)果賦予不同權(quán)重。下面的池化層在不影響圖像重要特征情況下,通過縮小圖像減少需要計算的參數(shù)數(shù)量,并將無用信息減少,減少過擬合發(fā)生的概率。全連接層會在圖像的積層之間將所有神經(jīng)元都具有權(quán)重進(jìn)行連接,獲得分類模型從而得到最后的結(jié)果[8-9],最后結(jié)果由輸出層輸出。
圖1 不同品種月季圖片
Figure 1 Images of different varieties of Chinese roses
圖2 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖
Figure 2 Structure diagram of convolutional neural network
CNN自誕生以來,經(jīng)過眾多學(xué)者搭建,逐漸向精度更高、時間更快的深度學(xué)習(xí)網(wǎng)絡(luò)發(fā)展。2012年Kizhevsky等人提出的AlexNet顛覆了圖像識別領(lǐng)域,后人在其思想基礎(chǔ)上構(gòu)建了ResNet、InceptionV3、SqueezeNet和DenseNet等各具特色的卷積神經(jīng)網(wǎng)絡(luò)[10]。
1.2.1 ResNet 該網(wǎng)絡(luò)擁有152層深度的網(wǎng)絡(luò)結(jié)構(gòu),在滿足深度的前提下引入捷徑(Shortcut connection)和殘差支路組成其構(gòu)成要素(Buliding block),再引入1×1大小的卷積核組成瓶頸層(Bottleneck layer)。不僅在處理梯度消失問題上成果顯著,對于提高訓(xùn)練速度、降低訓(xùn)練誤差也有很強的能力[11]。
1.2.2 InceptionV3 Inception架構(gòu)中的主要思想是將圖像的特征分解,將大的特征分解成小部分的矩陣特征的組合,將全局的特征轉(zhuǎn)化為局部的特征。在該模型中采用了1×1、3×3和5×5共3類不同大小的卷積核,方便在圖像上進(jìn)行對齊,并使用了模塊化結(jié)構(gòu)。Inception module 將網(wǎng)絡(luò)大致分為9個模塊,共有22層,便于修改和增加層。在網(wǎng)絡(luò)最后使用平均池化層來代替全連接層,性能更優(yōu),引入Softmax回歸模型,可以有效解決較大調(diào)參個數(shù)過多的問題[12]。
1.2.3 SqueezeNet 該網(wǎng)絡(luò)通過添加Fire module使用1×1與3×3的卷積核(filter)進(jìn)行組合,與僅使用3×3卷積的AlexNet相比大大減少了參量。ImageNet中對其進(jìn)行測試與AlexNet網(wǎng)絡(luò)擁有相當(dāng)?shù)木?,但參?shù)量卻僅有后者的20%[13]。
1.2.4 DenseNet 該網(wǎng)絡(luò)是在ResNet的基礎(chǔ)上建立的層與層之間享有直接而密切聯(lián)系的優(yōu)化網(wǎng)絡(luò),其中所有的特征圖均可做到保持尺寸一致,也可以達(dá)到較好的防過擬合能力與較強的泛化能力[14]。
本研究所實現(xiàn)的月季花朵圖片識別在Intel至強E5-2630V3處理器、Intel C612芯片組、標(biāo)配三星250 G固態(tài)硬盤、WIN10系統(tǒng)上實現(xiàn),所使用的顯卡型號為GTX1070,CPU為8核16線程,軟件為Pycharm2019、Python3.7、Matlab7.0、CUDA10.0和cuDNN7.3.1,在Tensorflow框架中運行。作者構(gòu)建了亞伯拉罕、自由精神兩種歐洲月季與真宙、美咲兩種日系月季共4種花卉的數(shù)據(jù)庫,其數(shù)據(jù)均為在自然條件下采集的盛花期圖像,但由于時間、地點的限制,采集所得月季花圖片有限。為避免識別時產(chǎn)生精度不高、誤差較大的結(jié)果,本研究使用Python編寫程序?qū)?shù)據(jù)庫中圖片分別通過裁剪、旋轉(zhuǎn)、翻轉(zhuǎn)的操作使之加倍。
操作時將模型ResNet、InceptionV3、SqueezeNet和DenseNet設(shè)置并對自定義模型進(jìn)行訓(xùn)練后,即可使用Custom Image Prediction類對自定義模型執(zhí)行圖像預(yù)測。本研究中數(shù)據(jù)庫中需要包含訓(xùn)練樣本與測試樣本,在數(shù)據(jù)庫中4種月季各150張組成訓(xùn)練集,50張作為測試集,同時各準(zhǔn)備50張作為驗證集。訓(xùn)練模型之前對識別系統(tǒng)進(jìn)行微調(diào),其中Batch size作為每個Epoch選取的樣本個數(shù),適度增大可以在提高訓(xùn)練速度的同時提升模型精度,且其值為2的整數(shù)次冪時取得結(jié)果最佳。但Batch size值過大會導(dǎo)致內(nèi)存爆炸,程序無法運行[15]。經(jīng)多次試驗,本研究將ResNet、InceptionV3、DenseNet和SqueezeNet的Batch size值均設(shè)置16,此時計算機均可正常運行且該值適度增大后各項數(shù)據(jù)無顯著變化。進(jìn)行訓(xùn)練時可以在控制臺中得到以下內(nèi)容:Epoch 1/N表示正在進(jìn)行第N個目標(biāo)的第1次訓(xùn)練,每行數(shù)字代表本實驗中正在訓(xùn)練的批次數(shù),最后得模型文件。在文件名中可以看到實驗次數(shù)和模型的準(zhǔn)確率。經(jīng)過訓(xùn)練后,導(dǎo)出的模型包括一個h5文件和一個json文件,其中h5文件為訓(xùn)練后的模型,json文件為月季種類目錄。為方便用戶使用,本研究使用Android Studio3.4版本制作對應(yīng)花朵識別APP,并在小米9手機平臺測試,軟件系統(tǒng)為安卓7.0(MIUI 10.2 穩(wěn)定版),該應(yīng)用包括模式選擇和花朵識別兩種選項。該APP主界面與識別界面如圖3所示。
圖3 月季識別APP主界面與識別界面
Figure 3 Rose recognition app main interface and identification interface
在模型訓(xùn)練過程中每個Epoch中均出現(xiàn)Loss、acc與Val-loss 3種參數(shù)及對應(yīng)數(shù)值。其中的Loss代表訓(xùn)練集的損失值,通過該數(shù)據(jù)可以直觀地得到模型的訓(xùn)練誤差也即總誤差;acc代表模型訓(xùn)練時達(dá)到的精度;Val-loss代表驗證集的損失值,該值反映了模型訓(xùn)練過程中有無出現(xiàn)過擬合現(xiàn)象[16]。為了檢驗本研究所得到的模型是否滿足期望值,將根據(jù)訓(xùn)練集與測試集識別情況的混淆矩陣圖作為判斷依據(jù),將其中識別為正確的正樣本標(biāo)記為TP(True positive),識別為錯誤的正樣本標(biāo)記為FP(False positive),識別為錯誤的負(fù)樣本標(biāo)記為FN(False negative),識別為正確的負(fù)樣本標(biāo)記為TN(True negative)[17],又分別列出式(1)(2)(3)得出準(zhǔn)確率(Accuracy)、精確率(Precision)以及查全率(Recall),當(dāng)以上數(shù)值越接近100%,則說明模型越好[18]。
ResNet、InceptionV3、SqueezeNet和DenseNet4種卷積神經(jīng)網(wǎng)絡(luò)在自定義訓(xùn)練過程中的loss、val-loss以及acc的變化曲線如圖4至圖5所示。
(a) ResNet模型;(b) Inception V3模型;(c) SqueezeNet模型;(d) DenseNet模型。
Figure 4 Training curves of different models
圖5 SqueezeNet模型參數(shù)隨學(xué)習(xí)率變化曲線
Figure 5 Parameter change curve of SqueezeNet model with learning rate
由以上4組變化曲線看出InceptionV3網(wǎng)絡(luò)在第74輪訓(xùn)練時就得到acc值為1.0的最優(yōu)模型;ResNet與DenseNet兩種網(wǎng)絡(luò)分別在第83輪和第110輪訓(xùn)練后得到acc為0.974與0.995的最優(yōu)模型。而SqueezeNet在150輪訓(xùn)練后模型Loss、Val-loss值均保持在1.38,acc值保持在0.25。為分析以上3個值不變是否由于該網(wǎng)絡(luò)不具備對相似月季的識別功能,在圖5中引入學(xué)習(xí)率(Learning rate),在Batch size為16的前提下,取其范圍為0.001~1設(shè)計對比試驗其大小與學(xué)習(xí)速度的快慢及最優(yōu)解的獲得有關(guān)。
經(jīng)設(shè)計實驗,調(diào)整學(xué)習(xí)率后SqueezeNet模型訓(xùn)練過程中Val-loss、acc和Loss值均未發(fā)生變化(圖5)。考慮到SqueezeNet為壓縮型網(wǎng)絡(luò),對卷積、通道數(shù)目都進(jìn)行一定程度的縮減,對特征相差較大的圖像仍保留特征提取的功能。但對相似度較高的花卉尤其是相似月季,該網(wǎng)絡(luò)擁有的參數(shù)數(shù)量并不具備特征提取的條件。
訓(xùn)練集自由精神真宙美咲亞伯拉罕·達(dá)比 自由精神150(25%)0(0%)0(0%)0(0%) 真宙0(0%)149(24.9%)1(0.1%)0(0%) 美咲0(0%)0(0%)150(25%)0(0%) 亞伯拉罕·達(dá)比0(0%)0(0%)0(0%)150(25%) 測試集自由精神真宙美咲亞伯拉罕·達(dá)比 自由精神50(25%)0(0%)0(0%)0(0%) 真宙0(0%)50(25%)0(0%)0(0%) 美咲0(0%)0(0%)50(25%)0(0%) 亞伯拉罕·達(dá)比0(0%)0(0%)0(0%)50(25%)
Figure 6 Confusion matrix of ResNet model for database image recognition
訓(xùn)練集自由精神真宙美咲亞伯拉罕·達(dá)比 自由精神150(25%)0(0%)0(0%)0(0%) 真宙0(0%)150(25%)0(0%)0(0%) 美咲0(0%)0(0%)150(25%)0(0%) 亞伯拉罕·達(dá)比0(0%)0(0%)0(0%)150(25%) 測試集自由精神真宙美咲亞伯拉罕·達(dá)比 自由精神50(25%)0(0%)0(0%)0(0%) 真宙0(0%)50(25%)0(0%)0(0%) 美咲0(0%)0(0%)50(25%)0(0%) 亞伯拉罕·達(dá)比0(0%)0(0%)0(0%)50(25%)
Figure 7 Confusion matrix of InceptionV3 model for database image recognition
本研究對數(shù)據(jù)庫內(nèi)圖片展開測試,默認(rèn)輸出識別概率最大的花朵作為最終識別結(jié)果,最后對上述4種卷積神經(jīng)網(wǎng)絡(luò)模型面向所構(gòu)建的數(shù)據(jù)庫中圖像的識別情況進(jìn)行統(tǒng)計。為展示4種卷積神經(jīng)網(wǎng)絡(luò)對月季花朵圖像的區(qū)分結(jié)果,圖6至圖9列出了ResNet、InceptionV3、SqueezeNet和DenseNet 4種卷積神經(jīng)網(wǎng)絡(luò)對自由精神、真宙、美咲和亞伯拉罕4種月季識別情況的混淆矩陣,該矩陣能夠顯示各網(wǎng)絡(luò)誤差的大小。
訓(xùn)練集自由精神真宙美咲亞伯拉罕·達(dá)比 自由精神150(25%)0(0%)0(0%)0(0%) 真宙150(25%)0(0%)0(0%)0(0%) 美咲150(25%)0(0%)0(0%)0(0%) 亞伯拉罕·達(dá)比150(25%)0(0%)0(0%)0(0%) 測試集自由精神真宙美咲亞伯拉罕·達(dá)比 自由精神50(25%)0(0%)0(0%)0(0%) 真宙50(25%)0(0%)0(0%)0(0%) 美咲50(25%)0(0%)0(0%)0(0%) 亞伯拉罕·達(dá)比50(25%)0(0%)0(0%)0(0%)
Figure 8 Confusion matrix of SqueezeNet model for database image recognition
訓(xùn)練集自由精神真宙美咲亞伯拉罕·達(dá)比 自由精神118(19.7%)1(0.2%)20(3.3%)11(1.8%) 真宙0(0%)144(24%)0(0%)6(1%) 美咲0(0%)0(0%)142(23.7%)8(1.3%) 亞伯拉罕·達(dá)比0(0%)1(0.2%)23(3.8%)126(21%) 測試集自由精神真宙美咲亞伯拉罕·達(dá)比 自由精神33(16.5%)1(0.5%)8(4%)8(4%) 真宙0(0%)50(25%)0(0%)0(0%) 美咲0(0%)0(0%)50(25%)0(0%) 亞伯拉罕·達(dá)比0(0%)2(1%)8(4%)40(20%)
Figure 9 Confusion matrix of DenseNet model for database image recognition
由以上混淆矩陣圖進(jìn)行比較得出文中4種網(wǎng)絡(luò)對相似月季的識別誤差由小到大依次為InceptionV3、ResNet、DenseNet和SqueezeNet,且SqueezeNet對4種相似月季(表1—表4)。
表1 ResNet模型對數(shù)據(jù)庫識別的測試結(jié)果
表2 InceptionV3模型對數(shù)據(jù)庫識別的測試結(jié)果
表3 SqueezeNet模型對數(shù)據(jù)庫識別的測試結(jié)果
表4 DenseNet模型對數(shù)據(jù)庫圖片識別的測試結(jié)果
表5 平均訓(xùn)練時間及測試時間在CPU和GPU模式下的對比
Accuracy、Precision和Recall值進(jìn)行統(tǒng)計可得本研究4種卷積神經(jīng)網(wǎng)絡(luò)對月季圖像的識別能力由高到低分別為InceptionV3、ResNet、DenseNet和SqueezeNet。
為體現(xiàn)GPU并行加速的優(yōu)勢,本研究試驗使用CPU與GPU分別在自定義模型訓(xùn)練與圖像識別階段對訓(xùn)練模型每個Epoch的訓(xùn)練速度以及圖像的識別速度進(jìn)行比對。兩種模式下4種模型的平均訓(xùn)練時間與平均識別時間如表5所示。
由表5可知,在GPU環(huán)境下4種模型的訓(xùn)練速度較CPU環(huán)境下提升了171~228倍不等,對數(shù)據(jù)庫內(nèi)圖片的識別速度較CPU環(huán)境下提升了2.2~10倍不等。 4種模型中無論在GPU與CPU環(huán)境下的訓(xùn)練速度和識別速度由快到慢依次為SqueezeNet、ResNet、InceptionV3和DenseNet。
本研究對4種相似月季的選擇主要依照月季的花型與顏色特征,一般來說花朵越大,顏色越鮮明,其特征被光線等外界特征影響的程度就越低。其次考慮月季的盛花期持續(xù)時間,月季具有較長的盛花期會為為樣本圖像的擴充提供有利條件。
在模型選擇上,本研究使用了4種常用的卷及神經(jīng)網(wǎng)絡(luò)模型ResNet、InceptionV3、SqueezeNet和DenseNet,在ImageNet、Oxford 102 Flowers Dataset數(shù)據(jù)集的測試上都被廣泛應(yīng)用,對以上模型進(jìn)行自定義模型訓(xùn)練時可以對參數(shù)進(jìn)行調(diào)整,在保證程序運行的前提下訓(xùn)練提高精度與效率。
在方法選擇上,本研究對模型訓(xùn)練過程中產(chǎn)生的訓(xùn)練集的損失值(Loss)、驗證集的損失值(Val-loss)、模型訓(xùn)練時達(dá)到的精度acc值對4種卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行分析比較,又引入模型對數(shù)據(jù)庫識別的準(zhǔn)確率、精確率,查全率作為判別模型優(yōu)劣的依據(jù),最后分別在CPU與GPU環(huán)境中對模型訓(xùn)練速度以及圖片測試速度進(jìn)行比對,發(fā)現(xiàn)GPU環(huán)境下的訓(xùn)練速度與識別速度均提升數(shù)倍。
以上試驗結(jié)果顯示InceptionV3網(wǎng)絡(luò)對上述4種月季數(shù)據(jù)庫圖像均有100%的識別率,且在訓(xùn)練及識別過程的速度較快,是4種卷積神經(jīng)網(wǎng)絡(luò)中對4種相似月季識別效率最高的網(wǎng)絡(luò)。
研究過程中構(gòu)建的基于卷積神經(jīng)網(wǎng)絡(luò)的月季花識別系統(tǒng)雖具有識別速度快、識別率高的特點,但目前該花朵軟件僅能識別自由精神月季、亞伯拉罕·達(dá)比月季、真宙月季以及美咲月季,若想識別更多種類月季花朵圖像,還需要對數(shù)據(jù)庫作進(jìn)一步擴展,同時也要對所編寫的程序作進(jìn)一步提升。
本研究所得出的結(jié)論對于園藝自動化進(jìn)程的推進(jìn)具有實用性,同時對自然界中新植物與其他相似物種的識別與區(qū)分具有意義。
[1] 馬雪范. 月季雜交育種研究[J]. 農(nóng)家參謀, 2019(17): 18.
[2] 張景普. 現(xiàn)代月季的主要特征及其分類[J]. 現(xiàn)代農(nóng)業(yè)科技, 2019(24): 114-115.
[3] 中國花卉協(xié)會月季分會. 中國月季發(fā)展報告(第2版)[J]. 農(nóng)業(yè)科技與信息(現(xiàn)代園林), 2014,11(5): 44-47,1-43.
[4] 張娟, 韓殿元, 黃心淵. 自然背景下的梅花圖像分割算法研究[J]. 北京林業(yè)大學(xué)學(xué)報, 2012, 34(3): 64-70.
[5] 周偉, 武港山. 基于顯著圖的花卉圖像分類算法研究[J]. 計算機技術(shù)與發(fā)展, 2011, 21(11): 15-18, 22.
[6] 沈萍, 趙備. 基于深度學(xué)習(xí)模型的花卉種類識別[J]. 科技通報, 2017, 33(3): 115-119.
[7] 袁培森, 黎薇, 任守綱, 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的菊花花型和品種識別[J]. 農(nóng)業(yè)工程學(xué)報, 2018, 34(5): 152-158.
[8] RAMA A, KUMARAVEL A, NALINI C. Construction of deep convolutional neural networks for medical image classification[J]. Int J Comput Vis Image Process, 2019, 9(2): 1-15.
[9] 俞頌華. 卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展與應(yīng)用綜述[J]. 信息通信, 2019, 32(2): 39-43.
[10] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks[J]. Commun ACM, 2017, 60(6): 84-90
[11] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). June 27-30, 2016, Las Vegas, NV, USA. IEEE, 2016: 770-778.
[12] SZEGEDY C, VANHOUCKE V, IOFFE S, et al. Rethinking the inception architecture for computer vision [C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). June 27-30, 2016, Las Vegas, NV, USA. IEEE.
[13] IANDOLA F N, HAN S, MOSKEWICZ M W, et al. SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and < 0.5 MB model size[EB/OL].2016: arXiv: 1602. 07360 [cs.CV]. https://arxiv.org/abs/1602.07360.
[14] 高建瓴, 王竣生, 王許. 基于DenseNet的圖像識別方法研究[J]. 貴州大學(xué)學(xué)報(自然科學(xué)版), 2019, 36(6): 58-62.
[15] 朱虎明, 李佩, 焦李成, 等. 深度神經(jīng)網(wǎng)絡(luò)并行化研究綜述[J]. 計算機學(xué)報, 2018, 41(8): 1861-1881.
[16] 張雪芹, 陳嘉豪, 諸葛晶晶, 等. 基于深度學(xué)習(xí)的快速植物圖像識別[J]. 華東理工大學(xué)學(xué)報(自然科學(xué)版), 2018, 44(6): 887-895.
[17] LIN P, LI D, ZOU Z, et al. Deep convolutional neural network for automatic discrimination between×flowers and other similar white wild flowers in fields[J]. Plant Methods, 2018, 14: 64.
[18] 周云成, 許童羽, 鄭偉, 等. 基于深度卷積神經(jīng)網(wǎng)絡(luò)的番茄主要器官分類識別方法[J]. 農(nóng)業(yè)工程學(xué)報, 2017, 33(15): 219-226.
Recognition of similar rose based on convolution neural network
WANG Xueyan, ZHANG Chong, ZHANG Li
(College of Science, Beijing Forestry University, Beijing 100083)
At present, the classification and recognition technology of flowers in China is relatively mature. However, due to the high similarity among species, the flower characteristics are difficult to extract. This research proposed to use the training models of four kinds of deep learning networks, SqueezeNet, ResNet, InceptionV3 and DenseNet in Convolution Neural Network (CNN) to build flower recognition clients for recognizing four kinds of similar roses, to compare the recognition results, so as to screen out the optimal model and to accelerate the training process and recognition process by GPU. After statistical comparison of the data generated in the experimental process, it was concluded that the recognition rate and recognition speed of the model trained by Inception V3 network are the highest and the recognition speed is faster than the other three networks, which can be used as the optimal model. The application of the flower recognition system in flower classification can not only save labor, but also accelerate the process of gardening automation.
rose; SqueezeNet; ResNet; Inception V3; DenseNet; deep learning
TP181; TP391.41
A
1672-352X (2021)03-0504-07
10.13610/j.cnki.1672-352x.20210628.001
2021-06-28 15:49:29
[URL] https://kns.cnki.net/kcms/detail/34.1162.S.20210628.1057.002.html
2020-07-06
中央高校基本科研業(yè)務(wù)費專項基金(2019SG04)資助。
王雪琰,碩士研究生。E-mail:guojd@bjfu.edu.cn
張 立,副教授。E-mail:zhang_li@bjfu.edu.cn