国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于卷積神經(jīng)網(wǎng)絡(luò)的人臉年齡估計(jì)方法

2018-10-21 00:23楊國亮張雨
關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)

楊國亮 張雨

[摘要]針對(duì)年齡估計(jì)算法中使用單一標(biāo)簽編碼方式的問題,提出一種基于高斯分布的標(biāo)簽分布取代原有的編碼方式,通過這種方式,一張人臉圖像不僅可以用于它本身年齡的學(xué)習(xí),也可用于其相鄰年齡的學(xué)習(xí)。設(shè)計(jì)一種與之相適應(yīng)的卷積神經(jīng)網(wǎng)絡(luò),通過標(biāo)簽的概率分布與輸出的類別概率之間的KL距離對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,網(wǎng)絡(luò)結(jié)構(gòu)較小,所需訓(xùn)練時(shí)間更短,即使在訓(xùn)練圖片數(shù)量有限的情況下依然能保證較好的準(zhǔn)確率。

[關(guān)鍵詞]年齡估計(jì);卷積神經(jīng)網(wǎng)絡(luò);標(biāo)簽分布

[中圖分類號(hào)]TP 39141[文獻(xiàn)標(biāo)志碼]A[文章編號(hào)]10050310(2018)01005906

Facial Age Estimation Method Based on Convolutional

Neural Network

Yang Guoliang, Zhang Yu

(School of Electrical Engineering and Automation,Jiangxi University of Science and Technology,

Ganzhou Jiangxi 341000,China)

Abstract: Aiming at the problem of singlelabel coding method in facial age estimation, label distribution based on Gaussian distribution is proposed to replace the original coding method. In this way, a face image can be used not only for its own age learning, but also for its adjacent age learning. A convolutional neural network is proposed to train the network by the KullbackLeibler divergence distance between the label distribution and the probability of the output.The network is small and needs shorter training time, even in the case of limited number of training images can still guarantee a better accuracy rate.

Keywords: Age estimation; Convolutional neural network; Label distribution

0引言

人臉包含性別、年齡、表情和身份等重要信息,尤其在現(xiàn)代社交平臺(tái)和娛樂互動(dòng)的驅(qū)動(dòng)下,人臉年齡估計(jì)已成為一個(gè)極具發(fā)展?jié)摿Φ那把丶夹g(shù),也是人機(jī)互動(dòng)和計(jì)算機(jī)視覺的重要研究領(lǐng)域。然而人臉年齡估計(jì)也是計(jì)算機(jī)視覺的難點(diǎn)所在,主要包含以下4點(diǎn)原因:第一,獲取的人臉圖片中存在大量的干擾,如表情、光照、姿態(tài)和遮擋等,尤其現(xiàn)在拍攝的人臉圖片存在大量的背景干擾;第二,每個(gè)人臉存在較大的個(gè)體差異,隨著年齡的增長(zhǎng)人臉發(fā)生變化的模式各不相同,如有些人臉型變化比較大,有些人皺紋增長(zhǎng)的比較快,雖然共性相似但是因個(gè)體不同而千變?nèi)f化,因此給年齡估計(jì)算法提出了很高的要求;第三,年齡具有一定的時(shí)序性,相近年齡的人臉特征存在一定的關(guān)聯(lián),因此不能把年齡估計(jì)看作一種簡(jiǎn)單的分類問題,將每個(gè)年齡作為一個(gè)單一標(biāo)簽存在一定的不合理性;第四,現(xiàn)在基于卷積神經(jīng)網(wǎng)絡(luò)的年齡估計(jì)傾向于使用越來越大的網(wǎng)絡(luò)結(jié)構(gòu),這就需要大量的訓(xùn)練圖片和訓(xùn)練時(shí)間,限制了研究的實(shí)用性。

1相關(guān)工作

人臉年齡估計(jì)問題一般當(dāng)作回歸問題或者分類問題來處理。在回歸問題中,通過使用經(jīng)典的回歸方法如支持向量回歸(Support Vector Regresion,SVR)或偏最小二乘法(Partial Least Squares,PLS)直接回歸年齡值。Guo等[1]采用基于核函數(shù)的偏最小二乘算法(Kernel Partial Least Squares,KPLS)回歸進(jìn)行年齡估計(jì),該方法在降低特征維度的同時(shí)學(xué)習(xí)人臉老化的過程并且可解決多任務(wù)問題。在分類問題中,Geng等[2]提出的將年齡看做模式子空間或多重子空間,方法是將一個(gè)個(gè)體的所有人臉圖片按照年齡從小到大的順序排成一個(gè)序列,并用主成分分析法提取人臉的特征向量,再將提取的特征向量按年齡從小到大的順序組合成描述該人臉年齡特征的年齡模式空間。

北京聯(lián)合大學(xué)學(xué)報(bào)2018年1月

第32卷第1期楊國亮等:基于卷積神經(jīng)網(wǎng)絡(luò)的人臉年齡估計(jì)方法

近年來隨著深度學(xué)習(xí)的快速發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)被廣泛應(yīng)用于計(jì)算機(jī)視覺領(lǐng)域。相比于傳統(tǒng)的人工提取特征的方法,卷積神經(jīng)網(wǎng)絡(luò)不需要一定的先驗(yàn)知識(shí),輸入訓(xùn)練圖片就可以自動(dòng)學(xué)習(xí)圖像特征并且具有很強(qiáng)的魯棒性。Levi等[3]使用少量訓(xùn)練圖片在一個(gè)5層的CNN模型上取得了較好的準(zhǔn)確率,但年齡是被分為多個(gè)年齡段,不能預(yù)測(cè)年齡的準(zhǔn)確值。Wang等[4]將CNN當(dāng)作一個(gè)特征提取器,提取CNN各卷積層的特征并且將其融合后,再訓(xùn)練SVR以達(dá)到年齡估計(jì)的目的?;贑NN的年齡標(biāo)簽的編碼方式一般是單一標(biāo)簽或多標(biāo)簽,但是這樣有很大的弊端,單一標(biāo)簽忽略了相近年齡的信息,而簡(jiǎn)單的多標(biāo)簽賦予多個(gè)標(biāo)簽相同的權(quán)值,不符合人臉變化的特性。

本文的相關(guān)工作包括:1) 使用標(biāo)簽分布的方式對(duì)人臉圖像的年齡標(biāo)簽進(jìn)行編碼;2) 提出一種結(jié)構(gòu)小、識(shí)別率高的卷積神經(jīng)網(wǎng)絡(luò)。

2年齡估計(jì)

21年齡估計(jì)框架

根據(jù)對(duì)現(xiàn)有年齡估計(jì)算法[5]的總結(jié)并結(jié)合本文的方法,年齡估計(jì)分為3個(gè)主要步驟:人臉圖像預(yù)處理、特征提取和訓(xùn)練年齡估計(jì)模型。卷積神經(jīng)網(wǎng)絡(luò)作為一個(gè)特征提取器可以自適應(yīng)地提取人臉年齡的相關(guān)特征,本文主要對(duì)圖像預(yù)處理和訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)這2部分做了相關(guān)的工作,估計(jì)框架如圖1所示。

22改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)

本文選擇較小的網(wǎng)絡(luò)結(jié)構(gòu),因?yàn)檫^大的網(wǎng)絡(luò)[67]容易過擬合而較小的網(wǎng)絡(luò)更容易收斂,在樣本數(shù)量較小時(shí)也可以進(jìn)行訓(xùn)練并達(dá)到良好的測(cè)試效果。整個(gè)網(wǎng)絡(luò)只有4個(gè)卷積層和2個(gè)全連接層,和現(xiàn)在較為流行的大型網(wǎng)絡(luò)結(jié)構(gòu)(如VGGNet和ResNet[8]等)相比大大減少了網(wǎng)絡(luò)參數(shù)。后2個(gè)卷積層使用的是GoogleNet[9]的Inception模塊,在同等特征圖數(shù)量的情況下可以降低計(jì)算量,通過不同尺度大小的卷積核可以更多的提取人臉圖像特征,并且對(duì)由不同大小卷積核(1×1,3×3,5×5)生成的特征圖具有一定的特征整合作用,對(duì)年齡估計(jì)的準(zhǔn)確率有所提高。圖2從左至右分別為原始和改進(jìn)的Inception模塊。

GoogleNet中的Inception模塊在每個(gè)卷積核前使用1×1的卷積進(jìn)行降維,導(dǎo)致由不同尺度的卷積核生成的特征圖數(shù)量不相等。我們?yōu)榱吮WC各尺度的卷積核公平競(jìng)爭(zhēng)采用相同數(shù)量的卷積核進(jìn)行濾波[10],這樣網(wǎng)絡(luò)可以提取各尺度下的特征。在每個(gè)卷積操作后接1個(gè)下采樣以保證提取的特征圖大小相同,最后通過1個(gè)合并層將各特征圖串聯(lián)。

23基于標(biāo)簽分布的標(biāo)簽制作

人臉的年齡估計(jì)具有一定的特殊性,不能被作為一種簡(jiǎn)單的分類問題來對(duì)待,然而對(duì)每張人臉圖像標(biāo)記的單一標(biāo)簽,已經(jīng)在無形中將年齡分為不同的類。而且年齡具有一定的時(shí)序性和關(guān)聯(lián)性,比如一張19歲的人臉圖像和一張20歲的人臉圖像,在年齡特征上具有較高的相似性,將其作為不同的標(biāo)簽來進(jìn)行分類存在不合理性,圖3是MORPH數(shù)據(jù)

受此觀察的啟發(fā),本文提出的基本思想是在學(xué)習(xí)特定年齡的人臉圖像的同時(shí)學(xué)習(xí)相鄰年齡的圖像,通過引入新的編碼方法[12]來實(shí)現(xiàn),即將標(biāo)簽分布分配給每個(gè)圖像,而不是使用單一標(biāo)簽對(duì)人臉圖像進(jìn)行標(biāo)注。標(biāo)簽分布涵蓋一定數(shù)量的鄰近年齡,代表每個(gè)年齡描述面部外觀的程度。使用合適的標(biāo)簽分布訓(xùn)練的網(wǎng)絡(luò)不僅能夠?qū)W習(xí)其本身年齡的人臉圖像,而且能夠?qū)W習(xí)其鄰近年齡的人臉圖像特征[1314]。

我們將人臉圖像的年齡記為A,A={1,2,…,a},第b張人臉圖像的標(biāo)簽分布為L(zhǎng)b=(l1b,l2b,…,lab),假設(shè)該人臉的年齡為c∈A,該年齡及其相鄰年齡分布為

{c-2,c-1,c,c+1,c+2},那么該人臉圖像的標(biāo)簽分布為:

lcib=Z×e-(ci-c)22σ2 ,(1)

即均值為c,標(biāo)準(zhǔn)差為σ的離散高斯分布,Z是歸一化因子使式(1)滿足ai=1lcib=1,對(duì)于年齡分布以外的年齡段,我們令lcib=0。由此可以看出,中心年齡的年齡特征描述程度最高,隨著年齡與中心年齡差值的增加,年齡特征描述程度逐漸降低。

在訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)階段,使用KL距離來計(jì)算標(biāo)簽分布與一次前向傳播生成的類別概率之間的差異,表達(dá)式為:

DP||Q=iPilogPiQi 。(2)

其中P為年齡標(biāo)簽分布,Q為網(wǎng)絡(luò)一次前向傳播計(jì)算的類別概率,再通過反向傳播以達(dá)到訓(xùn)練網(wǎng)絡(luò)的目的。

3實(shí)驗(yàn)與分析

31實(shí)驗(yàn)數(shù)據(jù)集

本文在MORPH數(shù)據(jù)集[11]和FGNET數(shù)據(jù)集[15]上進(jìn)行實(shí)驗(yàn),MORPH數(shù)據(jù)集共有55 134張彩色人臉圖像,年齡范圍為16~77歲,大部分的人臉圖像年齡分布在20~40歲年齡段,60歲以上的人臉圖像數(shù)量較少。FGNET數(shù)據(jù)集包含了1 002張人臉圖像,年齡范圍為0~69歲,數(shù)據(jù)集圖像較少,尤其50歲以上有些年齡甚至沒有數(shù)據(jù)。

將兩個(gè)數(shù)據(jù)集進(jìn)行融合以彌補(bǔ)部分年齡段圖像缺乏的情況,然而融合后的數(shù)據(jù)集各年齡段的人臉圖像數(shù)量不均衡,未成年和老年的數(shù)量較少,不利于網(wǎng)絡(luò)的訓(xùn)練和年齡估計(jì)的準(zhǔn)確率,因此本文將部分年齡段的人臉圖像進(jìn)行擴(kuò)增。首先將原始的人臉圖像像素縮放到256×256,再從圖像的4個(gè)邊角和正中間裁剪出5張像素大小為224×224的圖片,這樣1張圖片就擴(kuò)充為5個(gè)樣本,在測(cè)試階段,擴(kuò)增樣本的最終年齡取5張樣本測(cè)試結(jié)果的平均值。

32網(wǎng)絡(luò)初始化與訓(xùn)練

實(shí)驗(yàn)中使用的卷積神經(jīng)網(wǎng)絡(luò)基于Caffe框架[16]實(shí)現(xiàn),顯卡型號(hào)為GTX1070、顯存為8G。由于網(wǎng)絡(luò)的初始化較慢,本文使用IMDBWIKI訓(xùn)練集[17]進(jìn)行預(yù)訓(xùn)練,該數(shù)據(jù)集含有50多萬張圖片,但是存在錯(cuò)誤年齡標(biāo)簽和人臉圖像不匹配的情況,因此篩選其中的10萬張圖片進(jìn)行預(yù)訓(xùn)練并得到初始模型,本文的實(shí)驗(yàn)部分均是在該初始模型上微調(diào)進(jìn)行的。

本文訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)使用的是梯度下降法,動(dòng)能系數(shù)為09,權(quán)值衰減系數(shù)為0000 5。其中,權(quán)值衰減系數(shù)是卷積神經(jīng)網(wǎng)絡(luò)的重要參數(shù),可以有效降低訓(xùn)練學(xué)習(xí)過程的錯(cuò)誤率,權(quán)值更新如式(3)和(4)所示:

vi+1=09vi-0000 5·ε·wi-ε〈Lw|wi〉Di,(3)

wi+1=wi+vi+1,(4)

其中i為迭代索引,v是動(dòng)能系數(shù),ε是學(xué)習(xí)率。初始訓(xùn)練時(shí)學(xué)習(xí)率設(shè)置為001,隨著迭代次數(shù)的增加逐漸降低學(xué)習(xí)率。

33年齡估計(jì)評(píng)價(jià)指標(biāo)

在年齡估計(jì)的研究中采用的評(píng)價(jià)指標(biāo)主要采用平均絕對(duì)誤差(Mean Absolute Error,MAE),平均絕對(duì)誤差是指估計(jì)年齡和真實(shí)年齡差值的絕對(duì)值的平均,表達(dá)式為:

MAE=1NNi=1|yi-y′i|,(5)

其中,yi和y′i分別是人臉圖像的真實(shí)年齡和估計(jì)年齡,N是測(cè)試樣本的總數(shù)。該評(píng)價(jià)指標(biāo)可以直觀反映出估計(jì)值與真實(shí)值偏離的程度。

累積指數(shù)(CS)是另一種年齡估計(jì)評(píng)價(jià)指標(biāo),反映在不同誤差下年齡估計(jì)的準(zhǔn)確率,計(jì)算如式(6)所示。e是真實(shí)年 齡與預(yù)測(cè)年齡差值的絕對(duì)值,l是差值閾值,Ne≤l是測(cè)試樣本中真實(shí)年齡與預(yù)測(cè)年齡差小于l的樣本數(shù)量,N是測(cè)試樣本總數(shù)。

CSl=Ne≤lN×100%。(6)

34實(shí)驗(yàn)分析與評(píng)價(jià)

本文在MORPH數(shù)據(jù)集、FGNET數(shù)據(jù)集以及二者融合的數(shù)據(jù)集上展開實(shí)驗(yàn),分別使用CS和MAE評(píng)價(jià)指標(biāo)對(duì)實(shí)驗(yàn)效果進(jìn)行評(píng)估,同時(shí)和近幾年具有代表性的人臉年齡估計(jì)算法進(jìn)行對(duì)比。

341實(shí)驗(yàn)1

首先在融合的數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),在保持各年齡段樣本數(shù)量和男女比例相近的情況下隨機(jī)抽取其中的10000張,其中8000張訓(xùn)練樣本和2000張測(cè)試樣本。使用累積指數(shù)對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行對(duì)比,年齡的差值閾值設(shè)置為0~5,結(jié)果如圖4所示。

從圖4可以看出,在使用了標(biāo)簽分布的基礎(chǔ)上,年齡估計(jì)的準(zhǔn)確率比單一標(biāo)簽的編碼方式明顯提高,并且隨著年齡差值閾值的增大,準(zhǔn)確率的提升更加明顯。因此可以得出,使用標(biāo)簽分布的方法可以提高年齡估計(jì)的準(zhǔn)確率。

在以上實(shí)驗(yàn)訓(xùn)練的基礎(chǔ)上,不再使用融合數(shù)據(jù)集的測(cè)試樣本,而是使用MORPH數(shù)據(jù)集作為測(cè)試樣本,對(duì)比本文方法和年齡估計(jì)具有代表性的方法的實(shí)驗(yàn)結(jié)果,如圖5所示。本文方法的準(zhǔn)確率明顯高于傳統(tǒng)的支持向量回歸(Support Vector Regresion,SVR)和支持向量機(jī)(Support Vector

Machine,SVM)的方法,相比Wang等[4]簡(jiǎn)單地將年齡作為單一標(biāo)簽的編碼方法,本文使用的標(biāo)簽分布方法能夠?qū)W習(xí)相近年齡的特征,并且不需要提取CNN特征圖再訓(xùn)練,在年齡誤差閾值較小時(shí)準(zhǔn)確率略高于其他方法,隨著年齡誤差閾值的增大,準(zhǔn)確率明顯高于其他方法。

342實(shí)驗(yàn)2

從融合的數(shù)據(jù)集中隨機(jī)選取50 000張作為訓(xùn)練樣本,使用標(biāo)簽分布的方法對(duì)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,在測(cè)試階段分別使用MORPH和FGNET數(shù)據(jù)集進(jìn)行測(cè)試,并使用平均絕對(duì)誤差對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行評(píng)價(jià),表1對(duì)比了本文方法和近幾年具有代表性算法的MAE值。相比文獻(xiàn)[18]超平面排序的方法,本文的標(biāo)簽編碼方式更為簡(jiǎn)單;相比文獻(xiàn)[19]使用局部二值特征學(xué)習(xí)的方法,本文基于深度學(xué)習(xí)

的方法更具有通用性,可以自學(xué)習(xí)人臉的年齡特

征;與文獻(xiàn)[20]使用融合的網(wǎng)絡(luò)結(jié)構(gòu)相比,本文的CNN模型更為精簡(jiǎn)且需要的計(jì)算量更小。

4結(jié)束語

本文優(yōu)化了人臉圖像數(shù)據(jù)集的年齡標(biāo)簽,通過標(biāo)簽分布對(duì)人臉圖像進(jìn)行標(biāo)注,摒棄了原有單一標(biāo)簽的方法。人臉隨著年齡的增長(zhǎng)會(huì)發(fā)生一系列的變化,然而這個(gè)變化是一個(gè)緩慢而平穩(wěn)的過程,相近年齡的人臉特征具有很大的相似性,傳統(tǒng)的單一標(biāo)簽將每個(gè)年齡分為一個(gè)單獨(dú)的類別對(duì)于年齡這樣的回歸問題存在很大的不合理性。提出的標(biāo)簽分布方法可以有效解決該問題,不僅可以用于本身年齡的學(xué)習(xí)還可以用于相近年齡的學(xué)習(xí),同時(shí)本文使用了一個(gè)較小的改進(jìn)型卷積神經(jīng)網(wǎng)絡(luò),結(jié)合標(biāo)簽分布的方法,即使在訓(xùn)練樣本較少時(shí)依然保證較高的準(zhǔn)確率。本文只是對(duì)相近年齡的相似性進(jìn)行了學(xué)習(xí),忽略了相近年齡的差異性,接下來的工作將對(duì)這方面進(jìn)行研究。

[參考文獻(xiàn)]

[1]Guo G, Mu G. Simultaneous dimensionality reduction and human age estimation via kernel partial least squares regression[C]// IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, 2011:657-664.

[2]Geng X, Zhou Z H, Smithmiles K. Automatic age estimation based on facial aging patterns[J]. IEEE Transactionson Pattern Analysis & Machine Intelligence, 2007, 29(12):2234-2240.

[3]Levi G, Hassncer T. Age and gender classification using convolutional neural networks[C]// Computer

Vision and Pattern Recognition Workshops. IEEE, 2015:34-42.

[4]Wang X, Guo R, Kambhamettu C. Deeplylearned feature for age estimation[C]// Applications of Computer Vision. IEEE, 2015:534-541.

[5]Eidinger E, Enbar R, Hassner T. Age and gender estimation of unfiltered faces[J].IEEE Transactions on Information Forensics & Security, 2014,9(12):2170-2179.

[6]Parkhi O M, Vedaldi A, Zisserman A. Deep face recognition[C]// British Machine Vision Conference.2015:41.

[7]Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks[J]. Communications of the Acm, 2012, 60(2):1097-1105.

[8]He K, Zhang X, Ren S, et al. Deep residual learning for image recognition[C]// Computer Vision and Pattern Recognition. IEEE, 2016:770-778.

[9]Szegedy C, Liu W, Jia Y, et al. Going deeper with convolutions[C]// Computer Vision and Pattern Recognition. IEEE, 2015:1-9.

[10]Hinton G E, Srivastava N, Krizhevsky A, et al. Improving neural networks by preventing coadaptation of feature detectors[J]. Computer Science, 2012, 3(4):212-223.

[11]Ricanek K, Tesafaye T. MORPH: a longitudinal image database of normal adult ageprogression[C]//International Conference on Automatic Face and Gesture Recognition. IEEE, 2006:341-345.

[12]Hu Z, Wen Y, Wang J, et al. Facial age estimation with age difference[J].IEEE Transactions on Image Processing A Publication of the IEEE Signal Processing Society, 2017, 26(7):3087-3097.

[13]Yang X, Gao B B, Xing C, et al. Deep label distribution learning for apparent age estimation[C]// IEEE International Conference on Computer Vision Workshop. IEEE, 2015:344-350.

[14]Geng X, Ji R. Label distribution learning[C]// IEEE, International Conference on Data Mining Workshops. IEEE Computer Society, 2013:377-383.

[15]Panis G, Lanitis A, Tsapatsoulis N, et al. Overview of research on facial ageing using the FGNET ageing database[J]. Iet Biometrics, 2016, 5(2):37-46.

[16]Jia Y, Shelhamer E, Donahue J, et al. Caffe: convolutional architecture for fast feature embedding[C]//Proceedings of the 2014 ACM International Conference on Multimedia.New York:ACM, 2014:675-678.

[17]Rothe R, Timofte R, Gool L V. DEX: deep expectation of apparent age from a single image[C]// IEEE International Conference on Computer Vision Workshop. IEEE, 2015:252-257.

[18]Chang K Y, Chen C S, Hung Y P. Ordinal hyperplanes ranker with cost sensitivities for age estimation[C]// Computer Vision and Pattern Recognition. IEEE, 2011:585-592.

[19]Lu J, Liong V E, Zhou J. Costsensitive local binary feature learning for facial age estimation[J]. IEEE Transactions on Image Processing, 2015, 24(12):5356-5368.

[20]Liu H, Lu J, Feng J, et al. Groupaware deep feature learning for facial age estimation[J]. Pattern Recognition, 2016, 2(4):101-112.

(責(zé)任編輯白麗媛)

猜你喜歡
卷積神經(jīng)網(wǎng)絡(luò)
基于深度神經(jīng)網(wǎng)絡(luò)的微表情識(shí)別
卷積神經(jīng)網(wǎng)絡(luò)中減少訓(xùn)練樣本時(shí)間方法研究
卷積神經(jīng)網(wǎng)絡(luò)語言模型研究
基于卷積神經(jīng)網(wǎng)絡(luò)的車輛檢索方法研究
基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
深度學(xué)習(xí)技術(shù)下的中文微博情感的分析與研究
基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識(shí)別的算法的研究
南城县| 通榆县| 东乡族自治县| 赣州市| 贵溪市| 桓台县| 南汇区| 西安市| 沅陵县| 盐池县| 泰来县| 新化县| 德钦县| 合作市| 甘孜| 宁夏| 昌图县| 江山市| 天门市| 宜宾县| 沙坪坝区| 石河子市| 鲜城| 谢通门县| 永德县| 蕲春县| 德清县| 鄂托克旗| 肥乡县| 绵竹市| 阿拉善左旗| 徐汇区| 丹凤县| 东山县| 合阳县| 阿拉善右旗| 长宁县| 深州市| 宿州市| 鄢陵县| 通山县|