国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于卷積神經(jīng)網(wǎng)絡(luò)的偏色光下植物圖像分割方法

2019-01-06 07:27張文彬朱敏張寧董樂(lè)
計(jì)算機(jī)應(yīng)用 2019年12期
關(guān)鍵詞:圖像分割卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)

張文彬 朱敏 張寧 董樂(lè)

摘 要:為了解決傳統(tǒng)圖像分割算法在植物工廠中偏色光植物圖像上分割精確度不高、泛化性能差的問(wèn)題,提出了一種基于卷積神經(jīng)網(wǎng)絡(luò),并結(jié)合深度學(xué)習(xí)技術(shù),對(duì)人工偏色光下植物圖像進(jìn)行精確分割的方法。采用該方法,最終在偏色光植物圖像原始測(cè)試集上達(dá)到了91.89%的分割精確度,遠(yuǎn)超全卷積網(wǎng)絡(luò)、聚類、閾值、區(qū)域生長(zhǎng)等分割算法。此外,在不同色光之下的植物圖片上進(jìn)行測(cè)試,該方法也較上述其他分割算法有著更好的分割效果和泛化性能。實(shí)驗(yàn)結(jié)果表明,所提方法能夠顯著提高偏色光下植物圖像分割的精確度,可以應(yīng)用于實(shí)際的植物工廠工程項(xiàng)目當(dāng)中。

關(guān)鍵詞:植物工廠;深度學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);偏色光植物圖像;圖像分割

中圖分類號(hào):TP183 文獻(xiàn)標(biāo)志碼:A

Plant image segmentation method under bias light based on convolutional neural network

ZHANG Wenbin1, ZHU Min2, ZHANG Ning1, DONG Le1*

(1.School of Computer Science and Engineering, University of Electronic Science and Technology of China, Chengdu Sichuan 611731, China;

2.Zhuhai (Hengqin) Food Safety Research Institute, Zhuhai Guangdong 519000, China)

Abstract: To solve the problems of low precision and poor generalization performance of traditional image segmentation algorithms on the plant images under bias light in plant factory, a method based on neural network and deep learning for accurately segmenting the plant images under artificial bias light in plant factory was proposed. By using this method, the segmentation accuracy on the original test set of bias light plant images is 91.89% and is far superior to that by other segmentation algorithms such as Fully Convolutional Network (FCN), clustering, threshold and region growth. In addition, this method has better segmentation effect and generalization performance than the above methods on plant images under different color lights. The experimental results show that the proposed method can significantly improve the accuracy of plant image segmentation under bias light, and can be applied to practical plant factory projects.

Key words: plant factory; deep learning; Convolutional Neural Network (CNN); bias light plant image; image segmentation

0 引言

近年來(lái),隨著科技的進(jìn)步以及世界人口、環(huán)境、資源問(wèn)題的日益突出,為了保證人們吃上綠色、安全、放心的蔬菜,植物工廠這種新型農(nóng)業(yè)系統(tǒng)受到了世界各國(guó)的關(guān)注和青睞,得到了快速的發(fā)展[1-5]。

植物工廠是運(yùn)用計(jì)算機(jī)技術(shù),通過(guò)設(shè)施內(nèi)高精度環(huán)境控制,采用低耗能、光質(zhì)佳的人工光源,使植物生長(zhǎng)擺脫自然條件的束縛,實(shí)現(xiàn)農(nóng)作物全年連續(xù)生產(chǎn)的農(nóng)業(yè)系統(tǒng)[6]。研究實(shí)驗(yàn)結(jié)果表明,植物對(duì)光的吸收主要集中在紅光和藍(lán)光波段,因此,植物工廠中應(yīng)用紅藍(lán)光按照一定比例配置而成的光源,從而導(dǎo)致植物失去了自然狀態(tài)下的色調(diào),形成了偏色光圖片。相關(guān)研究表明,對(duì)于大多數(shù)葉菜類植物,比如生菜,其植株的高度和正投影的相對(duì)面積就可以近似反映出植物自身的生長(zhǎng)狀況[7]。因此,實(shí)現(xiàn)偏色光下植物圖像的精確分割對(duì)于現(xiàn)代植物工廠的發(fā)展至關(guān)重要。

在圖像分割領(lǐng)域,人們已經(jīng)進(jìn)行了大量研究工作,提出了很多創(chuàng)新性的想法。大體上,目前的圖像分割方法可以分為四大類:基于閾值、基于邊緣檢測(cè)、基于區(qū)域和基于神經(jīng)網(wǎng)絡(luò)的圖像分割算法[8]。

基于閾值的圖像分割方法是根據(jù)人們的先驗(yàn)知識(shí),或者圖像整體的統(tǒng)計(jì)信息,將圖像中每一個(gè)像素按閾值劃分為不同區(qū)域。近年來(lái),在該方向提出了很多改進(jìn)措施,比如:郎春博等[9]提出了一種基于改進(jìn)正余弦優(yōu)化算法的多閾值圖像分割方法,提高了傳統(tǒng)分割方法的運(yùn)算速度和分割精度;易三莉等[10]提出了一種基于最大類間方差的最大熵圖像分割方法,解決了分割時(shí)目標(biāo)與背景之間邊界模糊的問(wèn)題。這種分割算法計(jì)算簡(jiǎn)單,容易操作,但在實(shí)際情況中,很難選取一個(gè)適當(dāng)?shù)拈撝?此外,這種分割方式僅僅單獨(dú)考慮每一個(gè)像素的信息,沒(méi)有關(guān)心圖像的空間特征,對(duì)噪聲比較敏感,導(dǎo)致在實(shí)際情況下分割效果不佳。

基于邊緣檢測(cè)的圖像分割算法是通過(guò)檢測(cè)邊界信息來(lái)進(jìn)行物體的分割。在實(shí)際應(yīng)用中,李文杰等[11]提出一種融合可變區(qū)域擬合(variable Region Scalable Fitting, RSF)模型及LOG(Laplacian Of Gaussian)算子的圖像分割方法,可用于分割強(qiáng)度分布不均勻的圖像;董怡[12]提出一種基于邊緣信息的RGB-D圖像分割算法,提高了抗噪能力。該類方法可迅速定位到邊緣,但是對(duì)噪聲非常敏感,而且容易產(chǎn)生不連續(xù)的邊界及雙邊界。

基于區(qū)域的圖像分割算法是將圖像中具有相似特征的像素點(diǎn)組合在一起完成分割。洪向共等[13]提出一種根據(jù)改進(jìn)的區(qū)域生長(zhǎng)算法以及基于灰度共生矩陣的紋理特征進(jìn)行紅外光伏面板圖像分割的方法,解決了紅外圖像對(duì)比度低、信噪比低的問(wèn)題;胡學(xué)剛等[14]提出一種基于區(qū)域合并的模糊C均值(Fuzzy C-Means, FCM)改進(jìn)算法,綜合考慮區(qū)域間的各種關(guān)系得到最終的分割結(jié)果;蔣秋霖等[15]提出一種基于區(qū)域生長(zhǎng)的算法,結(jié)合維納濾波進(jìn)行腦腫瘤圖像的分割。該類方法主要利用圖像中的局部空間信息,可以克服其他方法存在的圖像分割空間不連續(xù)的缺點(diǎn),但是可能導(dǎo)致圖像過(guò)度分割。

基于神經(jīng)網(wǎng)絡(luò)的圖像分割算法是利用標(biāo)注圖像作為訓(xùn)練樣本,訓(xùn)練神經(jīng)網(wǎng)絡(luò)使其具備圖像分割功能,之后將待分割圖像輸入網(wǎng)絡(luò)就可得到分割結(jié)果。萬(wàn)園潔等[16]提出運(yùn)用改進(jìn)的全卷積網(wǎng)絡(luò)(Fully Convolutional Network, FCN)[17]來(lái)進(jìn)行小麥圖像的分割;貝琛圓等[18]提出運(yùn)用U-Net網(wǎng)絡(luò)來(lái)進(jìn)行腺體細(xì)胞圖像分割;王琢等[19]提出基于深度學(xué)習(xí)的葉片圖像分割算法,實(shí)現(xiàn)正常光照下植物圖像分割。這類方法所依賴的先驗(yàn)知識(shí)較少,根據(jù)給定的數(shù)據(jù)集就可以自動(dòng)學(xué)習(xí),泛化性能強(qiáng)、整體精確度高,是目前圖像分割領(lǐng)域的主要研究方向。

但是,包括上面所述的所有方法在內(nèi),目前在植物圖像分割方面已有的研究工作僅針對(duì)正常光下的圖像進(jìn)行分割,而當(dāng)照射光不是自然光時(shí),植物自身的顏色會(huì)發(fā)生巨大變化,使得一般的分割算法精確度降低,無(wú)法滿足植物工廠中對(duì)于偏色光下植物圖像分割的需求。因此,為了解決這個(gè)問(wèn)題,本文提出一種基于改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)——改進(jìn)U-Net網(wǎng)絡(luò)進(jìn)行人工偏色光下植物圖像分割的方法,采用自制的符合植物工廠實(shí)際情況的偏色光下的植物圖像作為數(shù)據(jù)集,在tensorflow框架下對(duì)模型進(jìn)行了訓(xùn)練優(yōu)化。為了驗(yàn)證本文方法在偏色光下植物圖像分割問(wèn)題上的有效性,將其和傳統(tǒng)的圖像分割算法(閾值法、K-means聚類、區(qū)域生長(zhǎng)法)以及全卷積網(wǎng)絡(luò)(FCN)進(jìn)行了對(duì)比分析,結(jié)果表明本文方法在偏色光植物圖像分割問(wèn)題上具有明顯的優(yōu)勢(shì)(原始測(cè)試集精度達(dá)到91.89%)。

整體上講,本文的創(chuàng)新及貢獻(xiàn)主要包括以下4個(gè)方面:

1)將改進(jìn)的先進(jìn)圖像分割算法,融合實(shí)際工程環(huán)境的限制條件,首次應(yīng)用到偏色光下植物圖像分割問(wèn)題這一全新領(lǐng)域之中。

2)將人工智能技術(shù)引入實(shí)際農(nóng)業(yè)生產(chǎn)當(dāng)中,本文的探索和研究在現(xiàn)代農(nóng)業(yè)智能化進(jìn)程中具有重要的啟發(fā)和引導(dǎo)意義。

3)本文成功運(yùn)用人工智能技術(shù)解決了現(xiàn)實(shí)工程環(huán)境中的實(shí)際問(wèn)題,對(duì)實(shí)現(xiàn)人工智能技術(shù)落地具有積極的推動(dòng)作用。

4)本文研究工作為進(jìn)一步結(jié)合物聯(lián)網(wǎng)知識(shí)進(jìn)行植物工廠中植物生長(zhǎng)環(huán)境的自動(dòng)調(diào)控,提高作物的產(chǎn)量,改善作物的品質(zhì)奠定了堅(jiān)實(shí)的基礎(chǔ),真正運(yùn)用技術(shù)改善人們的生活。

1 圖像分割網(wǎng)絡(luò)

近年來(lái),隨著以神經(jīng)網(wǎng)絡(luò)為代表的深度學(xué)習(xí)技術(shù)的興起,人們也將其應(yīng)用到圖像分割領(lǐng)域,出現(xiàn)了很多用于圖像語(yǔ)義分割的網(wǎng)絡(luò)架構(gòu)。其中,最具代表性的架構(gòu)當(dāng)屬FCN[17]和U-Net網(wǎng)絡(luò)[20]。

FCN是由Long等[17]在2015年提出。與傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)在卷積層之后使用全連接層得到固定長(zhǎng)度的特征向量不同,F(xiàn)CN將傳統(tǒng)CNN后面的全連接層替換成了卷積層,而在最后一個(gè)卷積層后,采用反卷積層對(duì)得到的特征圖層(feature map)進(jìn)行上采樣,從而對(duì)每一個(gè)像素進(jìn)行分類預(yù)測(cè),保留了原始輸入圖像中的空間信息,實(shí)現(xiàn)了圖像語(yǔ)義級(jí)別的分割。

U-Net網(wǎng)絡(luò)是Ronneberger等[20]在2015年提出的一個(gè)用于醫(yī)學(xué)圖像分割的卷積神經(jīng)網(wǎng)絡(luò)。它是典型的編碼解碼網(wǎng)絡(luò)結(jié)構(gòu),編碼部分由卷積和池化層交替組成,采用ReLU(Rectified Linear Unit)激活函數(shù),主要進(jìn)行圖像中特征的提取。解碼部分主要是將得到的特征圖層(feature map)上采樣到接近原始圖像大小,實(shí)現(xiàn)語(yǔ)義分割。這兩部分相互對(duì)稱,并且在同一層級(jí)之間通過(guò)復(fù)制裁剪操作實(shí)現(xiàn)在不同尺度上的結(jié)合,極大地還原了圖像中的細(xì)節(jié)信息。

2 偏色光對(duì)植物圖像分割的影響

在人工偏色光下,由于光照亮度及色彩的不同,植物自身的色彩以及與背景之間的對(duì)比度等均會(huì)發(fā)生很大變化,從而對(duì)最終的分割效果產(chǎn)生影響。為了深入探究影響偏色光下植物圖像分割性能的主要因素,本文選用傳統(tǒng)的K-means聚類法作為統(tǒng)一的圖像分割方法,運(yùn)用控制變量的思想,探究光照顏色、光照亮度、圖像對(duì)比度三者對(duì)最終分割結(jié)果的影響。

2.1 K-means聚類算法

K-means聚類算法是一個(gè)經(jīng)典的分類算法,其核心思想是根據(jù)給定的相似性測(cè)度,不斷迭代更新,直到達(dá)到預(yù)先設(shè)定的終止條件,比如聚類中心變化小于閾值或達(dá)到最大的迭代輪數(shù)。在本文中選用像素間灰度值差的絕對(duì)值作為相似性測(cè)度,將圖像中的像素分為兩類,從而實(shí)現(xiàn)圖像整體的分割。算法的具體步驟如下:

1)輸入一張圖像,初始聚類中心灰度值設(shè)為0和255,分別代表植物和背景兩類。

2)依次遍歷圖像中每一個(gè)像素,計(jì)算每個(gè)像素和聚類中心像素灰度值的差的絕對(duì)值,并將該像素分到灰度值差絕對(duì)值較小的那一類中。

3)根據(jù)新的分類結(jié)果,取每一類所有像素灰度值的均值作為新的聚類中心。

4)若聚類中心變化小于給定的閾值或者達(dá)到最大的迭代輪數(shù),算法終止,輸出聚類結(jié)果;否則返回2)繼續(xù)執(zhí)行。

為了更好地展示在聚類過(guò)程中圖像分割結(jié)果的變化情況,本文選用偏色光下的植物圖片進(jìn)行聚類實(shí)驗(yàn),其中某一張圖片在不同迭代輪數(shù)下的分割結(jié)果如圖1所示。從圖中可以看出,隨著迭代輪數(shù)的增加,分割結(jié)果圖像中的噪聲點(diǎn)在逐漸減少,同時(shí)聚類結(jié)果的精確度在不斷上升。

分割結(jié)果的精確度計(jì)算公式如式(1)所示:

accu=(N00+N11)/N(1)

其中:N 代表一張圖像中的像素總數(shù)量;N00 代表實(shí)際為第零類(物體)并被預(yù)測(cè)為第零類的像素總數(shù);N11 代表實(shí)際為第一類(背景)并被預(yù)測(cè)為第一類的像素總數(shù)。

2.2 光照顏色對(duì)植物圖像分割性能的影響

在探究光照顏色對(duì)植物圖像分割性能的影響時(shí),固定光的亮度及圖像對(duì)比度不變,改變光的顏色,按照2.1節(jié)中所述的K-means聚類算法進(jìn)行圖像分割實(shí)驗(yàn)。在測(cè)試時(shí),本文選用自然光照下的植物圖片作為對(duì)比,按照式(1)分別測(cè)試在藍(lán)光、綠光、紅光、紫光下的分割精確度。最終的實(shí)驗(yàn)結(jié)果如表1所示。

表格(有表名)表1 不同光照顏色下精確度對(duì)比

Tab. 1 Comparison of accuracy under different light colors

光照顏色測(cè)試精確度光照顏色測(cè)試精確度自然光0.955561綠光0.793622紫光0.923135紅光0.326329藍(lán)光0.918005

從表1可以看出,在某些顏色光照之下,如紫光和藍(lán)光,分割精確度只略低于自然光照下的分割結(jié)果;而在另一些顏色的光照之下,如紅光和綠光,分割的精確度會(huì)大幅度降低。不同顏色的光對(duì)分割性能的影響作用具有很大的不確定性,從而限制了普通圖像分割方法(如K-means聚類等)在偏色光植物圖像上的分割性能。

2.3 光照亮度對(duì)植物圖像分割性能的影響

與探究光照顏色對(duì)植物圖像分割性能的影響類似,固定光的顏色以及植物圖片的對(duì)比度,利用2.1節(jié)所述的算法及式(1),分別測(cè)試在不同亮度的光照下植物圖像最終的分割精確度。實(shí)驗(yàn)結(jié)果如表2所示。

表格(有表名)表2 不同光照亮度下精確度對(duì)比

Tab. 2 Comparison of accuracy under different light brightnesses

光照亮度測(cè)試精確度光照亮度測(cè)試精確度正常亮度(100%)0.91800550%亮度0.52520180%亮度0.918303120%亮度0.918135150%亮度0.901565

從表2可以看出,光照亮度對(duì)植物圖像的分割性能有一定的影響,但是相對(duì)于光照顏色的不確定影響,光照亮度的影響具有一定的規(guī)律性。整體上看,亮度越低,分割的性能就越差,當(dāng)亮度增大到一定程度時(shí),分割性能基本維持不變。因此,在實(shí)驗(yàn)時(shí),應(yīng)該保證植物處于一個(gè)正?;蛘咂恋沫h(huán)境中,避免光線過(guò)暗。

2.4 植物圖像對(duì)比度對(duì)分割性能的影響

同樣,固定光照顏色以及光的亮度,根據(jù)2.1節(jié)中所述的算法,探究植物圖像對(duì)比度對(duì)于分割結(jié)果的影響。在測(cè)試時(shí),選用五組對(duì)比度逐漸遞增的圖像進(jìn)行實(shí)驗(yàn),根據(jù)式(1)得到最終的分割結(jié)果精確度如表3所示。

表格(有表名)表3 不同對(duì)比度下精確度對(duì)比

Tab. 3 Comparison of accuracy under different contrasts

植物圖像對(duì)比度測(cè)試精確度植物圖像對(duì)比度測(cè)試精確度正常對(duì)比度0.918005對(duì)比度-50.037918對(duì)比度-20.039234對(duì)比度+20.920524對(duì)比度+50.914640

從表3可以看出,植物圖像的對(duì)比度對(duì)分割的性能有很大的影響。整體上看,對(duì)比度降低后,精確度急劇下降,分割結(jié)果基本已經(jīng)失去了意義;當(dāng)對(duì)比度增大時(shí),分割結(jié)果的精確度會(huì)略有增加,說(shuō)明對(duì)比度較大時(shí)分割效果較好,這和人們的實(shí)際經(jīng)驗(yàn)是一致的。因此,在實(shí)驗(yàn)時(shí)就需要保證植物圖像有一定的對(duì)比度,否則可能就會(huì)產(chǎn)生無(wú)意義的結(jié)果。

3 偏色光下植物圖像分割網(wǎng)絡(luò)搭建及訓(xùn)練

3.1 偏色光下植物圖像分割網(wǎng)絡(luò)結(jié)構(gòu)

在本文的研究中,考慮到數(shù)據(jù)集的實(shí)際情況,仔細(xì)進(jìn)行了分析對(duì)比后,決定選擇基于改進(jìn)的U-Net網(wǎng)絡(luò)進(jìn)行偏色光下植物圖像的分割。改進(jìn)的U-Net網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

相較于原始的U-Net網(wǎng)絡(luò),本文進(jìn)行以下幾點(diǎn)改進(jìn):1)改進(jìn)了卷積的計(jì)算方式。在原始網(wǎng)絡(luò)中,采用無(wú)填充方式,每進(jìn)行一次卷積操作,圖像的尺寸都會(huì)減小,從而導(dǎo)致最終輸出的結(jié)果和輸入圖像尺寸不一致;在本文中,選擇采用零填充的卷積計(jì)算方式,從而保證了輸入輸出尺寸的一致性,而且也方便進(jìn)行網(wǎng)絡(luò)搭建。2)去掉了一部分drop out層。為了保留更多的細(xì)節(jié)信息,在上采樣過(guò)程中去除了drop out層,從而保證提取到的特征全部用于上采樣,以此讓更多的深層次特征來(lái)參與恢復(fù)最終的分割圖像。3)嘗試加入注意力(Attention)機(jī)制來(lái)提取更多的細(xì)節(jié)信息,同時(shí)忽略掉圖像中的噪聲,但實(shí)驗(yàn)效果并不突出(將在4.3.2節(jié)進(jìn)行詳細(xì)解釋)。實(shí)驗(yàn)結(jié)果表明,在改進(jìn)的U-Net網(wǎng)絡(luò)結(jié)構(gòu)下,取得了較好的分割效果。

3.2 網(wǎng)絡(luò)訓(xùn)練過(guò)程

3.2.1 數(shù)據(jù)預(yù)處理

在訓(xùn)練之前,為了進(jìn)一步得到更多的圖片并且避免過(guò)擬合的問(wèn)題,本文進(jìn)行了數(shù)據(jù)增強(qiáng)處理,得到原始數(shù)據(jù)集,其中部分圖像如圖3所示。

本文對(duì)圖片進(jìn)行了旋轉(zhuǎn)、鏡像對(duì)稱、裁剪三種不同形式的增強(qiáng)。具體分別進(jìn)行了90°、180°、270°旋轉(zhuǎn)和關(guān)于X軸與Y軸的對(duì)稱操作,旋轉(zhuǎn)和對(duì)稱可以幫助網(wǎng)絡(luò)學(xué)習(xí)到旋轉(zhuǎn)不變性的特性,更好地提升網(wǎng)絡(luò)的泛化能力。在裁剪時(shí),選用了三個(gè)不同的裁剪尺度,以原始圖像中心點(diǎn)為中心,選擇一個(gè)正方形(邊長(zhǎng)為原始圖像的1/2)和兩個(gè)在水平、垂直方向上的長(zhǎng)方形(長(zhǎng)為原始圖像的1/2、寬為1/3)裁剪框,提取出原始圖片中的一部分像素,之后再經(jīng)過(guò)插值,變換到原來(lái)圖像的尺度。使用這種裁剪的圖片可以使網(wǎng)絡(luò)學(xué)習(xí)到更多關(guān)于圖片的細(xì)節(jié)信息,使其關(guān)注到一些比較重要的因素而忽略掉干擾因素。經(jīng)過(guò)數(shù)據(jù)增強(qiáng)處理,得到的原始數(shù)據(jù)集擴(kuò)大了9倍,這對(duì)于之后網(wǎng)絡(luò)的優(yōu)化訓(xùn)練具有重要意義。

3.2.2 參數(shù)初始化

參數(shù)初始化操作對(duì)于神經(jīng)網(wǎng)絡(luò)來(lái)說(shuō)至關(guān)重要,初始化不當(dāng)可能導(dǎo)致某部分神經(jīng)元在訓(xùn)練過(guò)程中一直無(wú)法被激活,而另一部分神經(jīng)元一直處于激活狀態(tài),從而導(dǎo)致網(wǎng)絡(luò)出現(xiàn)故障。大量實(shí)驗(yàn)表明,一般情況下,網(wǎng)絡(luò)中初始化的權(quán)重值應(yīng)該保證使每一個(gè)特征圖層(feature map)都近似具有單位方差,而對(duì)于采用ReLU激活函數(shù)的卷積神經(jīng)網(wǎng)絡(luò),只需要隨機(jī)地從一個(gè)標(biāo)準(zhǔn)差為2/N 的高斯分布中采樣得到權(quán)重初始化值即可, 其中N代表某一個(gè)神經(jīng)元節(jié)點(diǎn)的輸入節(jié)點(diǎn)個(gè)數(shù),比如一個(gè)3×3×64 的卷積核,N就等于3×3×64=576。同樣地,也從標(biāo)準(zhǔn)正態(tài)分布中隨機(jī)采樣得到偏置的初始化值。

3.2.3 損失函數(shù)

在訓(xùn)練過(guò)程中,本文選擇的代價(jià)函數(shù)是特征圖層中每一個(gè)像素在深度方向上經(jīng)過(guò)softmax函數(shù)之后,再和真實(shí)的標(biāo)簽進(jìn)行交叉熵計(jì)算得到的值。其中,softmax函數(shù)的定義如式(2)所示:

softmaxk(x)=exp(ak(x))∑Kk′=1exp(ak′(x)) (2)

其中:ak(x)表示在特征圖層上位置x處通道k上的激活值,其中,x∈Ω,Ω∈Z2,K是總共含有的類別個(gè)數(shù)。式(2)計(jì)算得到的結(jié)果softmaxk(x)表示在位置x處k通道上進(jìn)行歸一化后的值,也就是該位置x被劃分為第k類的概率。

交叉熵函數(shù)的定義如式(3)所示:

Ep′(p)=-∑ipi′ ln pi(3)

其中:p′代表真實(shí)標(biāo)簽的概率分布,p代表經(jīng)過(guò)上面softmax函數(shù)計(jì)算得到的預(yù)測(cè)概率分布。可以發(fā)現(xiàn),預(yù)測(cè)結(jié)果的精確度越高,得到的交叉熵值就越低,該值很好地衡量了兩個(gè)概率分布之間的差異性。訓(xùn)練的目標(biāo)就是要通過(guò)學(xué)習(xí)調(diào)整權(quán)重和偏置的取值,從而最小化該值。

3.2.4 網(wǎng)絡(luò)訓(xùn)練軟硬件環(huán)境

硬件環(huán)境 處理器為Intel Xeon CPU E5-2640 v3? 2.60GHz,內(nèi)存為128GB;GPU為Tesla K40c。

軟件環(huán)境 操作系統(tǒng)為ubuntu 16.04,64位;編程語(yǔ)言為python3.6;深度學(xué)習(xí)庫(kù)為tensorflow1.12.0。

3.2.5 網(wǎng)絡(luò)超參數(shù)調(diào)節(jié)

本文選擇基于python語(yǔ)言在tensorflow框架下進(jìn)行網(wǎng)絡(luò)訓(xùn)練,使用了Adam優(yōu)化器來(lái)進(jìn)行反向傳播操作最小化交叉熵?fù)p失函數(shù)。Adam優(yōu)化器的參數(shù)采用默認(rèn)設(shè)置的值。

在選取學(xué)習(xí)率時(shí),從10-6到10-2以10倍為單位嘗試了多個(gè)學(xué)習(xí)率的取值,最終發(fā)現(xiàn)在學(xué)習(xí)率為10-4時(shí),網(wǎng)絡(luò)損失函數(shù)的收斂曲線比較好,既不會(huì)過(guò)早停止變化,也不會(huì)一直呈下降趨勢(shì)達(dá)不到收斂的效果,因此最終將網(wǎng)絡(luò)的學(xué)習(xí)率設(shè)置為10-4。

在選取其他3個(gè)超參數(shù)的值時(shí),本文采用網(wǎng)格搜索法實(shí)現(xiàn)。首先設(shè)定batch_size的取值集合為{1,2,5}(因?yàn)槭艿絻?nèi)存空間資源的限制,當(dāng)batch_size大于5后會(huì)出現(xiàn)內(nèi)存溢出的情況);設(shè)定dropout的取值集合為{0.6,0.7,0.8,0.9}(為了和tensorflow中的含義一致,此處的數(shù)值代表保留的比例);設(shè)定正則化系數(shù)的取值集合為{0.001,0.004,0.007,0.01}。之后通過(guò)網(wǎng)格搜索法,測(cè)試在每一組超參數(shù)配置下的網(wǎng)絡(luò)在驗(yàn)證集上的精確度,最后選擇精確度最高的網(wǎng)絡(luò)模型所對(duì)應(yīng)的那組超參數(shù),作為網(wǎng)絡(luò)最終的超參數(shù)設(shè)置。最終,當(dāng)batch_size為2,dropout值為0.8,正則化系數(shù)為0.004時(shí),網(wǎng)絡(luò)在驗(yàn)證集上具有最佳的效果。在最佳超參數(shù)配置下,網(wǎng)絡(luò)訓(xùn)練過(guò)程中訓(xùn)練集和驗(yàn)證集上的損失函數(shù)值變化曲線如圖4所示。 從圖4中可以看出,隨著訓(xùn)練輪數(shù)的增加,損失函數(shù)值在不斷減小,最終在35輪左右趨于平穩(wěn),即達(dá)到收斂。

4 實(shí)驗(yàn)與結(jié)果分析

4.1 實(shí)驗(yàn)所用數(shù)據(jù)集

本實(shí)驗(yàn)所使用的數(shù)據(jù)集是由搭建的模擬植物工廠偏色光環(huán)境系統(tǒng)拍攝得到的照片,并通過(guò)labelme軟件自制而成的數(shù)據(jù)集。

在實(shí)驗(yàn)過(guò)程中,每張圖片上只有一株植物,在得到拍攝的照片之后,先對(duì)其進(jìn)行尺度變換,得到固定大小的512×512的植物圖片。之后,利用labelme軟件進(jìn)行圖像標(biāo)簽的標(biāo)注,得到帶有標(biāo)簽的偏色光下植物圖片數(shù)據(jù)集。labelme軟件操作界面如圖5所示,最初帶標(biāo)簽的偏色光下植物圖像如圖6所示。

4.2 卷積層輸出結(jié)果展示

為了體現(xiàn)卷積操作在特征提取過(guò)程中所發(fā)揮的作用,本文選用一張偏色光下植物圖片,輸入已經(jīng)訓(xùn)練好的改進(jìn)的U-Net網(wǎng)絡(luò)中,獲取其通過(guò)每一組卷積操作后的特征圖層。對(duì)應(yīng)于圖2中的網(wǎng)絡(luò)結(jié)構(gòu),在下采樣過(guò)程中,一共有五組卷積操作,本文提取每一組卷積操作后的結(jié)果,最終得到五組不同層級(jí)的部分特征圖層示例。如圖7所示,其中(a)到(e)分別對(duì)應(yīng)圖2中每一組卷積操作后的結(jié)果。

從圖7中可以看出,不同層級(jí)的卷積操作結(jié)果具有一定的差異性。在低層級(jí)處,通過(guò)卷積操作得到的特征圖層可以通過(guò)直觀感覺(jué)來(lái)辨別物體的大致輪廓和位置,而隨著層級(jí)加深,得到的特征圖層越來(lái)越抽象,已經(jīng)無(wú)法通過(guò)直觀感覺(jué)進(jìn)行辨別,而這些大量的抽象特征圖層通過(guò)進(jìn)一步的解碼網(wǎng)絡(luò)處理之后,即可得到最終的分割圖像。

4.3 對(duì)比分析

4.3.1 數(shù)據(jù)增強(qiáng)

在對(duì)改進(jìn)U-Net網(wǎng)絡(luò)進(jìn)行調(diào)參優(yōu)化后,本文得到了一個(gè)最佳的偏色光下植物圖像分割模型,使用該模型在原始測(cè)試集上進(jìn)行測(cè)試,根據(jù)式(1)計(jì)算得到的精確度達(dá)到了0.918937。為了更進(jìn)一步說(shuō)明模型的有效性,同時(shí)降低隨機(jī)誤差的影響,體現(xiàn)出統(tǒng)計(jì)意義,本文在原始數(shù)據(jù)集的基礎(chǔ)之上,通過(guò)一些數(shù)據(jù)增強(qiáng)操作(增加亮度、對(duì)比度),增大了數(shù)據(jù)集規(guī)模,并在大量的樣本之上重新進(jìn)行了測(cè)試,增大的數(shù)據(jù)集中部分圖片如圖8所示。實(shí)驗(yàn)結(jié)果顯示,相對(duì)于加入注意力機(jī)制后的圖像分割網(wǎng)絡(luò),本文模型在樣本數(shù)量增大時(shí)也有著相對(duì)較高的精確度,對(duì)比結(jié)果見(jiàn)表4。而在增大的數(shù)據(jù)集上,傳統(tǒng)分割算法精確度有所升高,本文的模型精確度略低于傳統(tǒng)分割算法,這主要是因?yàn)樵龃罅藞D像亮度和對(duì)比度后,植物與背景之間的差異更加明顯,傳統(tǒng)的圖像分割算法就具有比較大的優(yōu)勢(shì),而在實(shí)際環(huán)境下的圖片中,本文模型優(yōu)于傳統(tǒng)分割算法,對(duì)比結(jié)果見(jiàn)表5。此外, 本文模型在增大的數(shù)據(jù)集上與不同結(jié)構(gòu)的FCN分割結(jié)果相比,也有很大程度的領(lǐng)先優(yōu)勢(shì),對(duì)比結(jié)果見(jiàn)表6。本文從不同方面將該模型與其他的圖像分割方法結(jié)果作一個(gè)比較。

4.3.2 U-Net在不同改進(jìn)方式下的結(jié)果對(duì)比

在本文提出最終改進(jìn)的U-Net網(wǎng)絡(luò)結(jié)構(gòu)之前,還進(jìn)行了很多其他改進(jìn)方法的嘗試,其中比較重要的一個(gè)改進(jìn)嘗試是在網(wǎng)絡(luò)中加入注意力機(jī)制模塊,期望通過(guò)該模塊可以使網(wǎng)絡(luò)學(xué)習(xí)到更多的主體信息而忽略掉圖像中的噪聲。該注意力模塊如圖9所示。

圖9中:g代表在上采樣過(guò)程中,逆卷積操作輸出的結(jié)果;xl代表編碼階段存儲(chǔ)的用于拼接(skip connection)的特征圖層;兩者通過(guò)1×1的卷積進(jìn)行線性變換后相加,經(jīng)過(guò)ReLU激活函數(shù)之后,再通過(guò)1×1的卷積操作將其變換為深度為1的特征圖層,在該圖層上進(jìn)行sigmoid運(yùn)算,得到一個(gè)非負(fù)的激活系數(shù)矩陣α。此時(shí)將α與xl對(duì)應(yīng)元素相乘,得到l,這就是加入注意力機(jī)制之后得到的用于拼接的特征圖層。

但是在添加注意力機(jī)制后,在偏色光植物圖像數(shù)據(jù)集上分割效果并不好,精確度有所下降,而且由于加入注意力模塊而引入的額外運(yùn)算導(dǎo)致分割時(shí)間也變長(zhǎng)。根據(jù)式(1)計(jì)算得到相應(yīng)的測(cè)試集精度及運(yùn)行時(shí)間如表4所示,在原始測(cè)試集上的分割效果對(duì)比圖如圖10所示。因此,最終舍棄了這一改進(jìn),而選用了之前所述的網(wǎng)絡(luò)結(jié)構(gòu)。

4.3.3 與傳統(tǒng)圖像分割方法結(jié)果對(duì)比

為了驗(yàn)證改進(jìn)U-Net網(wǎng)絡(luò)在偏色光下植物圖像分割中的有效性,將其得到的結(jié)果與傳統(tǒng)的圖像分割方法結(jié)果進(jìn)行了對(duì)比。其中包括基于閾值的圖像分割、基于區(qū)域的圖像分割、基于聚類的圖像分割三類典型的圖像分割方法。

根據(jù)式(1)計(jì)算得到在不同測(cè)試集上的分割精確度及運(yùn)行時(shí)間對(duì)比如表5所示,在原始測(cè)試集上的分割效果圖如圖11所示。從表5中可以發(fā)現(xiàn),改進(jìn)U-Net網(wǎng)絡(luò)在精確度上相較于傳統(tǒng)的方法提高了大約6個(gè)百分點(diǎn),運(yùn)行時(shí)間只比閾值法長(zhǎng),而比其余兩個(gè)傳統(tǒng)方法更短。

由此可見(jiàn),改進(jìn)U-Net網(wǎng)絡(luò)在偏色光下植物圖像分割方面相較于傳統(tǒng)的圖像分割方法具有更好的適應(yīng)性和更高的精確度,同時(shí)也具有更高的效率。

4.3.4 與FCN分割結(jié)果對(duì)比

近年來(lái),在圖像分割領(lǐng)域出現(xiàn)了一批基于神經(jīng)網(wǎng)絡(luò)的圖像分割算法,其中以FCN最具代表性。為了驗(yàn)證本文U-Net網(wǎng)絡(luò)模型在偏色光下植物圖像分割問(wèn)題上的優(yōu)勢(shì),將得到的結(jié)果和FCN得到的結(jié)果也進(jìn)行了對(duì)比,根據(jù)式(1)計(jì)算得到在不同測(cè)試集上的精確度如表6所示,在原始測(cè)試集上的分割結(jié)果如圖12所示。

從表6中可以發(fā)現(xiàn),雖然本文模型比FCN的運(yùn)行時(shí)間要長(zhǎng),但是在精確度方面有著大幅度的提升。從圖12也可以看出: FCN得到的分割圖像噪聲很多,無(wú)法直接得到精確的分割結(jié)果,還需要作進(jìn)一步的后處理; 而本文模型得到的結(jié)果無(wú)需進(jìn)行任何后處理就可以達(dá)到較好的分割效果。

4.3.5 與已有偏色光下植物圖像分割方法對(duì)比

在本文之前,楊思思等[21]提出了一種基于機(jī)器視覺(jué)的人工光植物圖像分割方法,采用傳統(tǒng)的圖像處理技術(shù),結(jié)合植物本身對(duì)于偏色光的物理反射特性,從物理學(xué)的角度對(duì)偏色光下的植物圖像進(jìn)行建模分析,去除了背景,將植物從圖片中分割開來(lái)。但是,該方法存在著諸多不足之處:首先,該方法的泛化性能不強(qiáng)。由于不同植物甚至同一種植物不同時(shí)期它們對(duì)于光的反射特性都有很大的差異,若利用這種物理建模的方式進(jìn)行植物圖像提取,就必須實(shí)時(shí)地對(duì)植物進(jìn)行光的各項(xiàng)反射、吸收指標(biāo)測(cè)定,否則就無(wú)法保證結(jié)果的準(zhǔn)確性。其次,該方法對(duì)植物圖像質(zhì)量要求較高。在原文的實(shí)驗(yàn)中,作者使用的植物圖像背景比較單一,與植物本身的對(duì)比非常明顯。若圖像背景復(fù)雜多變,則無(wú)法表現(xiàn)出很好的分割效果。再者,該方法分割得到的圖片只是將背景與植物剝離,而并沒(méi)有將花盆與植物分割開,結(jié)果不夠理想。

而采用本文方法就非常好地解決了以上存在的問(wèn)題。利用神經(jīng)網(wǎng)絡(luò)的自我學(xué)習(xí)能力,本文提出的分割方法泛化性能得到了很大程度的提高;而且,對(duì)于復(fù)雜背景下的植物圖片,也有較好的分割效果;更令人驚喜的是,本文方法也可以將植物與花盆部分剝離。測(cè)試的效果圖如圖13所示。

4.3.6 不同色光之下分割結(jié)果對(duì)比

在本文網(wǎng)絡(luò)架構(gòu)的訓(xùn)練過(guò)程中,使用的數(shù)據(jù)集都是在藍(lán)色LED燈下拍攝得到的植物圖片。在實(shí)現(xiàn)了藍(lán)色光下植物圖片的分割任務(wù)之后,為了進(jìn)一步測(cè)定該網(wǎng)絡(luò)在不同色光照射下的植物圖像上的分割性能,本文又使用搭建的實(shí)驗(yàn)平臺(tái),在紫色光、紅色光、綠色光下分別拍攝了一些植物圖片并使用訓(xùn)練好的模型進(jìn)行了測(cè)試,同時(shí)也使用同樣的圖片在傳統(tǒng)的圖像分割方法及FCN上進(jìn)行了測(cè)試,實(shí)驗(yàn)分割效果如圖14所示。

從圖14中發(fā)現(xiàn),傳統(tǒng)的圖像分割算法在一些噪聲點(diǎn)及植物的花盆部分無(wú)法進(jìn)行準(zhǔn)確辨別,F(xiàn)CN在不同色光照射之下的植物圖像上直接失去了分割的能力,產(chǎn)生了無(wú)意義的結(jié)果。而本文模型在不同色光照射之下的植物圖片上也有非常好的分割效果,這也進(jìn)一步證明了本文方法具有很好的泛化性能。

5 結(jié)語(yǔ)

針對(duì)植物工廠中人工偏色光下植物圖像分割的問(wèn)題,本文構(gòu)建了一個(gè)基于卷積神經(jīng)網(wǎng)絡(luò)的偏色光下植物圖像分割網(wǎng)絡(luò)——改進(jìn)U-Net網(wǎng)絡(luò),實(shí)現(xiàn)了偏色光下植物圖像的精確分割,解決了以往偏色光植物圖像分割方法泛化性能差、對(duì)圖片質(zhì)量要求高、分割結(jié)果不理想的問(wèn)題。本文方法可以實(shí)現(xiàn)對(duì)植物葉面積參數(shù)的實(shí)時(shí)、無(wú)損、非接觸測(cè)量,為植物生長(zhǎng)狀況的實(shí)時(shí)監(jiān)測(cè)以及進(jìn)一步運(yùn)用計(jì)算機(jī)和物聯(lián)網(wǎng)技術(shù)對(duì)植物的生長(zhǎng)環(huán)境因素進(jìn)行實(shí)時(shí)調(diào)控提供了理論依據(jù),同時(shí)也為現(xiàn)代植物工廠的智能化發(fā)展提供了保障,具有廣闊的發(fā)展前景和極大的現(xiàn)實(shí)意義。

參考文獻(xiàn) (References)

[1]姚鳳珍.植物工廠發(fā)展現(xiàn)狀及趨勢(shì)概述[J].中國(guó)照明電器,2016(12):16-18.(YAO F Z. Development situation and trend of the plant factory[J]. China Light and Lighting, 2016(12): 16-18.)

[2]劉文科.植物工廠的發(fā)展現(xiàn)狀與展望[J].中國(guó)照明電器,2016(12):5-9.(LIU W K. Review on current status and development prospects of plant factory [J]. China Light and Lighting, 2016(12): 5-9.)

[3]劉文科.植物工廠發(fā)展的機(jī)遇與挑戰(zhàn)[J].照明工程學(xué)報(bào),2018,29(4):Ⅱ.(LIU W K. Opportunities and challenges of plant factory development [J]. China Illuminating Engineering Journal, 2018, 29(4): Ⅱ.)

[4]王偉麗.淺析國(guó)內(nèi)外植物工廠發(fā)展現(xiàn)狀[J].木工機(jī)床,2018(4):31-34.(WANG W L. A brief analysis of the current situation of plant factory development at home and abroad [J]. Woodworking Machinery, 2018(4): 31-34.)

[5]劉文科,劉義飛.人工光植物工廠技術(shù)裝備與產(chǎn)業(yè)發(fā)展的戰(zhàn)略思考[J].中國(guó)農(nóng)業(yè)科技導(dǎo)報(bào),2018,20(9):32-39.(LIU W K, LIU Y F. Developmental strategies for technology and equipment and industry of plant factory with artificial lighting [J]. Journal of Agricultural Science and Technology, 2008, 20(9): 32-39.)

[6]鄭延海,裴克全.什么是“植物工廠”[J].生命世界,2017(4):4-7.(ZHENG Y H, PEI K Q. What is “plant factory” [J]. Life World, 2017(4): 4-7.)

[7]李曉斌,王玉順,付麗紅.用K-means圖像法和主成分分析法監(jiān)測(cè)生菜生長(zhǎng)勢(shì)[J].農(nóng)業(yè)工程學(xué)報(bào),2016,32(12):179-186.(LI X B, WANG Y S, FU L H. Monitoring lettuce growth potential using K-means image method and principal component analysis method [J]. Transactions of the Chinese Society of Agricultural Engineering, 2016, 32(12): 179-186.)

[8]趙詩(shī)宇.圖像分割算法的分類與研究[J].科技風(fēng),2019(5):58-58.(ZHAO S Y. Classification and research of image segmentation algorithms [J]. Technology Trend, 2019(5): 58-58.)

[9]郎春博,賈鶴鳴,邢致愷,等.基于改進(jìn)正余弦優(yōu)化算法的多閾值圖像分割[J/OL].計(jì)算機(jī)應(yīng)用研究[2019-03-04].http://www.arocmag.com/article/02-2020-04-058.html.(LANG C B, JIA H M, XING Z K, et al. Multi-threshold image segmentation based on improved sine-cosine optimization algorithm [J/OL]. Application Research of Computers [2019-03-04]. http://www.arocmag.com/article/02-2020-04-058.html.)

[10]易三莉,張桂芳,賀建峰,等.基于最大類間方差的最大熵圖像分割[J].計(jì)算機(jī)工程與科學(xué),2018,40(10):1874-1881.(YI S L, ZHANG G F, HE J F, et al. Maximum entropy image segmentation based on the variance between the largest classes [J]. Computer Engineering and Science, 2018, 40(10): 1874-1881.)

[11]李文杰,夏海英,劉超.融合RSF模型及邊緣檢測(cè)LOG算子的圖像分割方法的研究[J].南京郵電大學(xué)學(xué)報(bào)(自然科學(xué)版),2018,38(2):98-102.(LI W J, XIA H Y, LIU C. Image segmentation method based on RSF model and edge detection LOG operator [J]. Journal of Nanjing University of Posts and Telecommunications (Natural Science Edition), 2018, 38(2): 98-102.)

[12]董怡.基于邊緣信息的RGB-D圖像分割算法研究[D].南京:南京郵電大學(xué),2018:19-34.(DONG Y. Research on RGB-D image segmentation algorithm based on edge information [D]. Nanjing: Nanjing University of Posts and Telecommunications, 2018: 19-34.)

[13]洪向共,周世芬.基于灰度共生矩陣和區(qū)域生長(zhǎng)算法的紅外光伏面板圖像分割[J].科學(xué)技術(shù)與工程,2018,18(34):92-97.(HONG X G, ZHOU S F. Infrared photoelectric panels image segmentation based on gray level co-occurrence matrix and region growing algorithm [J]. Science Technology and Engineering, 2018, 18(34): 92-97.)

[14]胡學(xué)剛,段瑤,嚴(yán)思奇.基于區(qū)域合并的FCM圖像分割改進(jìn)算法[J].小型微型計(jì)算機(jī)系統(tǒng),2018,39(9):2077-2080.(HU X G, DUAN Y, YAN S Q. Improved FCM image segmentation algorithm based on region merging [J]. Journal of Chinese Computer Systems, 2018, 39(9): 2077-2080.)

[15]蔣秋霖,王昕.基于區(qū)域生長(zhǎng)算法的腦腫瘤圖像分割[J].長(zhǎng)春工業(yè)大學(xué)學(xué)報(bào),2018,39(5):490-493.(JIANG Q L, WANG X. Brain tumor image segmentation based on region growing algorithm [J]. Journal of Changchun University of Technology, 2008, 39(5): 490-493.)

[16]萬(wàn)園潔,卿粼波,何小海,等.基于改進(jìn)全卷積網(wǎng)絡(luò)的小麥圖像分割[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2018,27(3):221-227.(WAN Y J, QING L B, HE X H, et al. Wheat image segmentation based on improved full convolution network [J]. Computer Systems and Applications, 2018, 27(3): 221-227.)

[17]LONG J, SHELHAMER E, DARRELL T. Fully convolutional networks for semantic segmentation [C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2015: 3431-3440.

[18]貝琛圓,于海濱,潘勉,等.基于改進(jìn)U-Net網(wǎng)絡(luò)的腺體細(xì)胞圖像分割算法[J].電子科技,2019(11):1-7.(BE C Y, YU H B, PAN M, et al. Gland cell image segmentation algorithm based on improved U-Net network [J]. Electronic Science and Technology, 2019(11): 1-7.)

[19]王琢,汪雅婷,宋文龍,等.基于深度學(xué)習(xí)的葉片圖像分割算法[J].森林工程,2019,35(1):42-46.(WANG Z, WANG Y T, SONG W L, et al. Leaf image segmentation algorithm based on deep learning? [J]. Forest Engineering, 2019, 35(1): 42-46.)

[20]RONNEBERGER O, FISCHER P, BROX T. U-Net: convolutional networks for biomedical image segmentation [C]// Proceedings of the 2015 International Conference on Medical Image Computing and Computer-Assisted Intervention, LNCS 9351. Cham: Springer, 2015: 234-241.

[21]楊思思,周泓,虞俠挺.基于機(jī)器視覺(jué)的人工光植物工廠植物生長(zhǎng)狀況監(jiān)測(cè)系統(tǒng)[J].傳感器與微系統(tǒng),2014,33(12):88-90.(YANG S S, ZHOU H, YU J T. Plant growth monitoring system for artificial light plant factory based on machine vision [J]. Transducer and Microsystem Technologies, 2014, 33(12): 88-90.)

This work is partially supported by the National Natural Science Foundation of China (61772114), the Leading Talent Introduction Program of Guangdong Province (2016LJ06S419).

ZHANG Wenbin, born in 1997, M. S. candidate. His research interests include computer vision, image processing.

ZHU Min, born in 1963, Ph. D., engineer. His research interests include food safety, intelligent agriculture.

ZHANG Ning, born in 1975, Ph. D., lecturer. His research interests include computer vision, system design.

DONG Le, born in 1980, Ph. D., professor. Her research interests include video understanding, machine intelligence, pattern recognition.

收稿日期:2019-04-16;修回日期:2019-08-07;錄用日期:2019-08-12。

基金項(xiàng)目:國(guó)家自然科學(xué)基金資助項(xiàng)目(61772114);廣東省引進(jìn)領(lǐng)軍人才項(xiàng)目(2016LJ06S419)。

作者簡(jiǎn)介:張文彬(1997—),男,河南三門峽人,碩士研究生,主要研究方向:計(jì)算機(jī)視覺(jué)、圖像處理; 朱敏(1963—),男,上海人,工程師,博士,主要研究方向:食品安全、智能農(nóng)業(yè); 張寧(1975—),男,江蘇南京人,講師,博士,主要研究方向:計(jì)算機(jī)視覺(jué)、系統(tǒng)設(shè)計(jì);董樂(lè)(1980—),女,陜西西安人,教授,博士,主要研究方向:視頻理解、機(jī)器智能、模式識(shí)別。

文章編號(hào):1001-9081(2019)12-3665-08DOI:10.11772/j.issn.1001-9081.2019040637

猜你喜歡
圖像分割卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)
基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
一種改進(jìn)的分水嶺圖像分割算法研究
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
一種圖像超像素的快速生成算法
基于魯棒性的廣義FCM圖像分割算法
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識(shí)別的算法的研究
彭泽县| 肥东县| 呼图壁县| 建平县| 苍南县| 金坛市| 隆林| 灵宝市| 乌鲁木齐县| 巍山| 舒城县| 射洪县| 台南市| 安新县| 文登市| 武汉市| 兴山县| 大渡口区| 顺平县| 宾川县| 灵山县| 醴陵市| 屏南县| 汪清县| 二连浩特市| 姜堰市| 沧州市| 龙门县| 满洲里市| 阜康市| 穆棱市| 建水县| 岢岚县| 博兴县| 兴仁县| 永泰县| 武穴市| 德庆县| 湖南省| 淮南市| 旌德县|