曹曉杰 么 嬈 嚴(yán)雨靈
1(上海工程技術(shù)大學(xué)機(jī)械與汽車工程學(xué)院 上海 201620)2(上海工程技術(shù)大學(xué)航空運(yùn)輸學(xué)院 上海 201620)
日常生活水平的提高,人們對(duì)于花卉養(yǎng)殖與欣賞需求也在提高[1]?;ɑ茈S處可見,具有極大的文化、經(jīng)濟(jì)以及生態(tài)價(jià)值?;ɑ芊N類繁多,且各類花卉存在形態(tài)、顏色等相似。所以人們對(duì)花卉的識(shí)別存在著較大的困難。
針對(duì)該問題,研究者們一直在探索更好的算法來更加完美地識(shí)別花卉。傳統(tǒng)的花卉識(shí)別方法,會(huì)對(duì)花卉提取明顯的特征,然后訓(xùn)練分類以達(dá)到識(shí)別的目的。Nilsback等[2]針對(duì)花卉的顏色、形狀、紋理等特征在分類中的重要程度,提出了單詞表方法。將花卉所有特征聚集到指定個(gè)數(shù)的聚類中心作為單詞表,利用單詞代表圖片,以支持向量機(jī)(SVM)作為分類器實(shí)現(xiàn)對(duì)花卉的識(shí)別。而后使用SIFT、HOG的復(fù)雜特征,使用多核組的SVM進(jìn)行圖像識(shí)別。Zhang等[3]提取花卉圖像的空間與局部特征信息,進(jìn)行非負(fù)稀疏編碼,利用K近鄰算法進(jìn)行分類識(shí)別??洛械萚4]利用特征融合,使用混合色彩模型中的大津法(OTSU)對(duì)花卉圖像分割與識(shí)別。王威等[5]提出一種綜合特征的花卉識(shí)別,利用顯著性分割,實(shí)現(xiàn)前后背景分離,提取多種特征,最后使用SVM進(jìn)行分類識(shí)別。花卉識(shí)別影響因素較多,傳統(tǒng)的手動(dòng)特征雖然有一定的效果,但過程較為復(fù)雜,且需人為設(shè)計(jì),人為因素影響較高,難以取得令人滿意的結(jié)果。
對(duì)比于傳統(tǒng)方法,隨著機(jī)器學(xué)習(xí)與人工智能發(fā)展,近年來崛起的深度卷積神經(jīng)網(wǎng)絡(luò)在圖像學(xué)習(xí)與識(shí)別方向上取得巨大的突破。2012年以后,AlexNet[6]、Inception[7]、VGG[8]等網(wǎng)絡(luò)模型被提出應(yīng)用,深度學(xué)習(xí)方法在圖像識(shí)別分類方向上取得優(yōu)異的成績。在大型Image-Net圖像比賽上深度神經(jīng)網(wǎng)絡(luò)分類精度已經(jīng)遠(yuǎn)超人類專家的水平,達(dá)到97%以上。Lee等[9]設(shè)計(jì)了六層卷積網(wǎng)絡(luò),在輸出層采用并列的全連接層策略,取得44類葉面分類。關(guān)胤等[10]利用深度殘差網(wǎng)絡(luò),通過網(wǎng)絡(luò)遷移在網(wǎng)絡(luò)花卉集上設(shè)計(jì)實(shí)現(xiàn)了花卉識(shí)別系統(tǒng)。沈萍等[11]提取部分圖像,將深度卷積網(wǎng)絡(luò)與支持向量機(jī)、邏輯斯蒂回歸(LR)的結(jié)果進(jìn)行比較??梢钥吹剑疃壬窠?jīng)網(wǎng)絡(luò)在圖像識(shí)別上有了較好的應(yīng)用表現(xiàn),但存在訓(xùn)練工作上需要大量數(shù)據(jù)集且較消耗時(shí)間等問題。
因此,本文提出一種基于遷移學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)的花卉圖像識(shí)別方法,選擇在ImageNet比賽上訓(xùn)練過的深度卷積神經(jīng)網(wǎng)絡(luò)VGG16、Inceptionv3、ResNet50[12]模型,對(duì)網(wǎng)絡(luò)的參數(shù)遷移,通過設(shè)計(jì)小規(guī)?;ɑ軘?shù)據(jù)集,微調(diào)網(wǎng)絡(luò),得到較好的花卉識(shí)別結(jié)果。
隨著深度學(xué)習(xí)的研究推進(jìn),卷積神經(jīng)網(wǎng)絡(luò)在圖像領(lǐng)域的應(yīng)用產(chǎn)生了巨大的技術(shù)變革。從LeNet[13]、AlexNet、GoogLeNet到ResNet,網(wǎng)絡(luò)結(jié)構(gòu)不斷加深、復(fù)雜,圖像識(shí)別分類的精度也隨之提高。
卷積神經(jīng)網(wǎng)絡(luò)是一種特殊的多層感知器或前饋神經(jīng)網(wǎng)絡(luò)[14],其標(biāo)準(zhǔn)結(jié)構(gòu)如圖1所示。
圖1 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
卷積過程如下式所示:
(1)
通過權(quán)值共享、局部感受手段模仿生物神經(jīng)系統(tǒng),卷積層用來提取圖像多層次的特征,采樣層使模型能保住全局主要特征且減少模型參數(shù),全連接層用于接收提取到的所有特征,外接分類器。
遷移學(xué)習(xí)即將已解決問題的方法應(yīng)用到待解決問題中,將已存在的知識(shí)方法遷移解決相關(guān)領(lǐng)域的學(xué)習(xí)任務(wù),屬于一種新的機(jī)器學(xué)習(xí)方法。針對(duì)圖像識(shí)別領(lǐng)域存在的數(shù)據(jù)集量小、訓(xùn)練成本高的問題,遷移學(xué)習(xí)成為一種有效的解決方法。例如:Donahue等[15]將在ImageNet數(shù)據(jù)集上訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用到新的識(shí)別任務(wù)中,達(dá)到較好的結(jié)果?;诰矸e神經(jīng)網(wǎng)絡(luò)的遷移學(xué)習(xí)就是將已訓(xùn)練好的模型及參數(shù)在新的識(shí)別任務(wù)上再次進(jìn)行訓(xùn)練,分類器前的網(wǎng)絡(luò)相當(dāng)于傳統(tǒng)的特征提取器,以特征代表圖片,進(jìn)行分類識(shí)別。
微調(diào)方法是在簡單遷移方式的基礎(chǔ)上,進(jìn)一步將預(yù)訓(xùn)練網(wǎng)絡(luò)的部分層參數(shù)重新訓(xùn)練,使模型更適應(yīng)新的樣本任務(wù)。卷積神經(jīng)網(wǎng)絡(luò)具有多層提取特征,低層捕捉基礎(chǔ)通用特征,高層學(xué)習(xí)對(duì)應(yīng)輸入的高級(jí)特征?;诖颂攸c(diǎn),我們可以凍結(jié)低層,重新訓(xùn)練高層特定層參數(shù),來適應(yīng)新任務(wù)的要求。
實(shí)驗(yàn)是在Windows 10專業(yè)版系統(tǒng)安裝Anaconda 3,基于谷歌研發(fā)的第二代人工智能學(xué)習(xí)系統(tǒng)Tensorflow[16]及Keras深度學(xué)習(xí)框架開發(fā)環(huán)境,并使用GTX1070顯卡加速,完成實(shí)驗(yàn)訓(xùn)練及驗(yàn)證結(jié)果。
實(shí)驗(yàn)一將原始圖像歸一化處理,然后經(jīng)過預(yù)訓(xùn)練卷積網(wǎng)絡(luò)的卷積基,利用大規(guī)模數(shù)據(jù)集上預(yù)訓(xùn)練模型的參數(shù)權(quán)重初始化網(wǎng)絡(luò),保存輸出圖像的特征,更改最后的密集連接分類層,將保存數(shù)據(jù)輸入進(jìn)行密集分類層訓(xùn)練驗(yàn)證,保存參數(shù),輸出識(shí)別結(jié)果。
實(shí)驗(yàn)二將原始圖像進(jìn)行歸一化處理,并且進(jìn)行圖像數(shù)據(jù)增強(qiáng),使用預(yù)訓(xùn)練模型及參數(shù),“凍結(jié)”卷積基,更換密集連接分類層,將圖像批量輸入組合網(wǎng)絡(luò)模型,在輸入數(shù)據(jù)上端到端地運(yùn)行整個(gè)模型訓(xùn)練驗(yàn)證保存參數(shù),輸出識(shí)別結(jié)果。
實(shí)驗(yàn)三在實(shí)驗(yàn)二密集連接層的基礎(chǔ)上,加載實(shí)驗(yàn)二的模型及參數(shù),“解凍”卷積基的一部分,允許解凍層權(quán)重參數(shù)可以改變,再次進(jìn)行解凍層到密集連接分類層的訓(xùn)練,進(jìn)行模型微調(diào),重新訓(xùn)練驗(yàn)證,輸出識(shí)別結(jié)果。
具體研究流程如圖2-圖4所示。
圖2 實(shí)驗(yàn)一流程
圖3 實(shí)驗(yàn)二流程
圖4 實(shí)驗(yàn)三流程
為了模擬小規(guī)模數(shù)據(jù)集,實(shí)驗(yàn)采用的數(shù)據(jù)來源于Oxfordflower102[17]牛津花卉庫,從中隨機(jī)抽取五類花卉(daisy,dandelion,roses,sunflowers,tulip)圖片,2 400幅用于訓(xùn)練,300幅用于驗(yàn)證。
針對(duì)抽取到的圖像分辨率不統(tǒng)一,為了滿足不同模型輸入要求,需要將圖像進(jìn)行歸一化處理,裁剪圖像為224×224及299×299像素。
在實(shí)驗(yàn)二、實(shí)驗(yàn)三中,因?yàn)橐匦掠?xùn)練神經(jīng)卷積層,在樣本較小的情況下訓(xùn)練很容易發(fā)生過擬合。因此,在訓(xùn)練時(shí)采用隨機(jī)抽取小批量進(jìn)行輸入,將小批量圖像進(jìn)行數(shù)據(jù)增強(qiáng),采取圖像隨機(jī)旋轉(zhuǎn)30°、圖像在水平或垂直方向上平移、隨機(jī)錯(cuò)切變換、隨機(jī)縮放、一半圖像隨機(jī)翻轉(zhuǎn)及填充新創(chuàng)建像素等方法,生成可信圖像的隨機(jī)變換,使得每次的小批量輸入不會(huì)看到完全相同的圖像,讓模型能夠識(shí)別到更多不一樣的特征,增加模型的泛化能力。
具體花卉示例如圖5所示。
圖5 五種花卉示例
對(duì)網(wǎng)絡(luò)模型重新構(gòu)造,前端卷積提取特征部分,此處采用在ImageNet 2012大規(guī)模視覺識(shí)別挑戰(zhàn)賽上取得較好成績的卷積神經(jīng)網(wǎng)VGG16、Inceptionv3及ResNet50的卷積基,去掉網(wǎng)絡(luò)模型的頂層設(shè)計(jì),重新設(shè)計(jì)密集連接分類層。替換部分采用了全局平均池化、丟失輸出及Softmax算法等。全局平均池化[18]對(duì)應(yīng)于均值池化,均值池化是選擇提取出的特征圖像上對(duì)應(yīng)濾波器的大小區(qū)域,將區(qū)域中不為零的數(shù)取均值。此種方法得到的特征信息對(duì)背景信息敏感,而所謂全局即針對(duì)整幅feature map進(jìn)行取均值,保證全局信息,且減小模型的參數(shù)。
因?yàn)橐獙?duì)小樣本進(jìn)行訓(xùn)練驗(yàn)證,此處添加丟失輸出(Dropout)來緩解模型訓(xùn)練的過擬合,在網(wǎng)絡(luò)訓(xùn)練過程中隨機(jī)讓連接的一些節(jié)點(diǎn)不工作。
最后一層為Softmax,它是Sigmoid類激活函數(shù)的擴(kuò)展,判斷輸入屬于哪一類。計(jì)算概率屬于此類就接近1,屬于其他類的概率接近0。本算法主要應(yīng)用于多分類,計(jì)算方式如下:
(2)
在網(wǎng)絡(luò)中,本文使用了Relu[19]激活函數(shù)為網(wǎng)絡(luò)添加非線性因素,解決線性表達(dá)能力不足的缺陷,且Relu計(jì)算簡單,有助于提升機(jī)器運(yùn)行效率,公式如下:
f(x)=max(0,x)
(3)
模型優(yōu)化實(shí)質(zhì)是尋找最小損失函數(shù)值,本文選用隨機(jī)梯度下降法(stochastic gradient descent,SGD)來優(yōu)化,設(shè)置初始學(xué)習(xí)率,為了快速達(dá)到最小函數(shù)值附近,隨著迭代次數(shù)的增大,逐步退化學(xué)習(xí)率,避免學(xué)習(xí)率較大而引起結(jié)果振蕩。學(xué)習(xí)率的衰減速度由迭代代數(shù)及衰減系數(shù)來一起決定。計(jì)算公式如下:
(4)
式中:decay_lr衰減后的學(xué)習(xí)率,lr為起步設(shè)置學(xué)習(xí)率,decay_rate為衰減系數(shù),global_step為當(dāng)前迭代步數(shù),decay_step為學(xué)習(xí)率變化一次經(jīng)過的步數(shù)。
在模型的訓(xùn)練過程中,本文同時(shí)引入早停技術(shù)(Early stopping)對(duì)模型訓(xùn)練后驗(yàn)證集驗(yàn)證模型的結(jié)果進(jìn)行監(jiān)控,一旦發(fā)現(xiàn)使用驗(yàn)證集后的結(jié)果越來越差,立即停止對(duì)模型的訓(xùn)練。同時(shí)在訓(xùn)練過程中保存驗(yàn)證結(jié)果較優(yōu)的某次迭代的模型參數(shù),后續(xù)有更優(yōu)結(jié)果再進(jìn)行替換。此方法限制模型取得最小損失函數(shù)值的迭代次數(shù),迭代次數(shù)過多,算法容易過擬合,迭代次數(shù)太少,則容易欠擬合。
2.4.1 實(shí)驗(yàn)一提取特征替換分類器
首先進(jìn)行簡單遷移后模型性的對(duì)比實(shí)驗(yàn),此處選取在ImageNet上訓(xùn)練過的模型VGG16、Inceptionv3、ResNet50三種模型,下載模型參數(shù),將模型的全連接層取代,構(gòu)建5分類密集連接分類層,加載時(shí)卷積基的權(quán)重參數(shù)保持不變,不加載全連接層參數(shù),將訓(xùn)練樣本在卷積基上運(yùn)行,保存結(jié)果,用于新建密集連接分類層的訓(xùn)練。
模型參數(shù)設(shè)置初始學(xué)習(xí)率設(shè)置為10-4,迭代次數(shù)為100,輸入批量大小為30,丟失輸出為0.5。實(shí)驗(yàn)一訓(xùn)練后驗(yàn)證結(jié)果如表1所示。
表1 實(shí)驗(yàn)一的訓(xùn)練驗(yàn)證準(zhǔn)確率
由表可見,數(shù)據(jù)只經(jīng)過歸一化處理,再經(jīng)過不同模型的卷積基進(jìn)行特征提取,對(duì)新建密集連接分類層進(jìn)行訓(xùn)練,代碼層數(shù)的增多使得提取的圖像特征更加復(fù)雜,正確率隨之提高。但模型訓(xùn)練過程從一開始就迅速出現(xiàn)過擬合現(xiàn)象,如圖6-圖8所示。
圖6 實(shí)驗(yàn)一VGG16訓(xùn)練驗(yàn)證結(jié)果
圖7 實(shí)驗(yàn)一Inceptionv3訓(xùn)練驗(yàn)證結(jié)果
圖8 實(shí)驗(yàn)一ResNet50訓(xùn)練驗(yàn)證結(jié)果
2.4.2 實(shí)驗(yàn)二數(shù)據(jù)增強(qiáng)及端到端訓(xùn)練
為提高正確率,且避免模型過快地進(jìn)入過擬合,改變數(shù)據(jù)輸入方式,選擇對(duì)模型進(jìn)行端到端訓(xùn)練。仍選用預(yù)訓(xùn)練模型,卷積基進(jìn)行“凍結(jié)”,保證參數(shù)在訓(xùn)練過程中不變,替換密集連接分類層,將圖像批量送入模型,且進(jìn)行圖像歸一化及數(shù)據(jù)增強(qiáng),每次迭代結(jié)束利用驗(yàn)證集進(jìn)行模型性能測(cè)試,保存驗(yàn)證集測(cè)試性能最好模型參數(shù)。同樣迭代100次,完成訓(xùn)練,結(jié)果如表2所示。
表2 實(shí)驗(yàn)二訓(xùn)練驗(yàn)證準(zhǔn)確率
通過與實(shí)驗(yàn)一的結(jié)果進(jìn)行對(duì)比,實(shí)驗(yàn)二利用凍結(jié)的卷積基端到端的訓(xùn)練模型能夠有效地提升模型性能,識(shí)別正確率有所提升。模型Inceptionv3、ResNet50相較于VGG16層數(shù)多,在進(jìn)行圖片特征提取時(shí)能夠抽取到更多全面細(xì)致的特征,有利于對(duì)圖片的識(shí)別,得到的識(shí)別準(zhǔn)確率高。模型ResNet50與Inceptionv3相比,訓(xùn)練正確率低,但訓(xùn)練時(shí)間較短,前者每一代大約會(huì)耗費(fèi)50 s,后者則接近100 s。
2.4.3 微調(diào)訓(xùn)練模型
針對(duì)不同模型結(jié)構(gòu),為了進(jìn)行性能再一步提升,對(duì)模型參數(shù)進(jìn)行微調(diào),選擇將網(wǎng)絡(luò)部分層數(shù)的參數(shù)進(jìn)行凍結(jié),重新訓(xùn)練網(wǎng)絡(luò)驗(yàn)證識(shí)別;為了選擇合適的凍結(jié)層數(shù),將三個(gè)網(wǎng)絡(luò)的凍結(jié)層數(shù)分別由高到低進(jìn)行凍結(jié)來進(jìn)行參數(shù)訓(xùn)練,具體操作如下:
(1) 對(duì)于vgg16網(wǎng)絡(luò),代碼總層數(shù)在Tensorflow后端Keras框架下為23層,參數(shù)總量為21 138 757,將網(wǎng)絡(luò)提取特征層共19層分別階梯下降式地進(jìn)行凍結(jié),實(shí)驗(yàn)結(jié)果如表3所示。
表3 VGG16不同凍結(jié)層數(shù)下實(shí)驗(yàn)結(jié)果
(2) 對(duì)于Inceptionv3網(wǎng)絡(luò),代碼總層數(shù)315層,參數(shù)總量為22 328 613,將網(wǎng)絡(luò)特征提取層共311層分別階梯下降式凍結(jié),實(shí)驗(yàn)結(jié)果如表4所示。
表4 Inceptionv3不同凍結(jié)層數(shù)下實(shí)驗(yàn)結(jié)果
續(xù)表4
(3) 對(duì)于ResNet50網(wǎng)絡(luò),代碼總的層數(shù)179層,參數(shù)總量為24 113 541,將網(wǎng)絡(luò)特征提取層共175層分別階梯下降式凍結(jié),實(shí)驗(yàn)結(jié)果如表5所示。
表5 ResNet50不同凍結(jié)層數(shù)下的實(shí)驗(yàn)結(jié)果
三種模型分別在不同的凍結(jié)層數(shù)下進(jìn)行實(shí)驗(yàn),對(duì)比三個(gè)表格的實(shí)驗(yàn)結(jié)果,對(duì)于VGG16與Inceptionv3兩個(gè)網(wǎng)絡(luò)的凍結(jié)層數(shù)減少,網(wǎng)絡(luò)的驗(yàn)證正確率提升很小,VGG16的驗(yàn)證準(zhǔn)確率在90%左右波動(dòng),而Inceptionv3在94左右跳動(dòng),上下偏差較小,兩個(gè)網(wǎng)絡(luò)在可訓(xùn)練參數(shù)占到75%時(shí)性能相對(duì)較好;另外對(duì)于網(wǎng)絡(luò)ResNet50,通過減少凍結(jié)層數(shù),可訓(xùn)練網(wǎng)絡(luò)參數(shù)增加數(shù)據(jù)驗(yàn)證準(zhǔn)確率會(huì)慢慢增加,超過網(wǎng)絡(luò)可訓(xùn)練參數(shù)占比94%后性能有所下降。
(4) 將微調(diào)后的網(wǎng)絡(luò)與現(xiàn)有的模型算法進(jìn)行對(duì)比,數(shù)據(jù)樣本統(tǒng)一采用牛津大學(xué)數(shù)據(jù)集Oxflord 17 flower,本文模型選取可訓(xùn)練參數(shù)占比75%的三個(gè)訓(xùn)練模型網(wǎng)絡(luò)結(jié)構(gòu)及參數(shù),對(duì)比模型選擇文獻(xiàn)[2-5]的方法,結(jié)果如表6所示。
表6 不同算法的實(shí)驗(yàn)結(jié)果對(duì)比
實(shí)驗(yàn)證明,經(jīng)過對(duì)預(yù)訓(xùn)練模型的遷移,在小規(guī)模圖像集上也可以取得較好的識(shí)別效率,遷移學(xué)習(xí)確實(shí)對(duì)小樣本識(shí)別分類有一定效果。通過不同模型的對(duì)比,卷積層增多時(shí),提取得到的圖像特征更有利于圖像分類,Inceptionv3、ResNet50與VGG系列對(duì)比,分類精度更好一點(diǎn)。實(shí)驗(yàn)三與實(shí)驗(yàn)二的對(duì)比結(jié)果表明,網(wǎng)絡(luò)準(zhǔn)確率經(jīng)過微調(diào),比遷移方法更進(jìn)一步提升,尤其在VGG16微調(diào)模型時(shí)的提升達(dá)到4%~9%,經(jīng)過網(wǎng)絡(luò)微調(diào)模型提取的特征比直接使用遷移提取的分類能力更強(qiáng)一些,微調(diào)網(wǎng)絡(luò)能使網(wǎng)絡(luò)了解圖像深層信息特征,提取某些深度特征,更加有利于識(shí)別。三個(gè)實(shí)驗(yàn)的結(jié)果都顯示網(wǎng)絡(luò)Inceptionv3的正確率最高,預(yù)訓(xùn)練模型Inception結(jié)構(gòu)的特征表達(dá)能力較為優(yōu)秀,且在經(jīng)過遷移基礎(chǔ)上再進(jìn)行網(wǎng)絡(luò)的微調(diào),驗(yàn)證準(zhǔn)確率得到進(jìn)一步提高。與其他文獻(xiàn)方法進(jìn)行對(duì)比,本文方法識(shí)別效果相對(duì)較好。對(duì)比于傳統(tǒng)方法的使用,利用預(yù)訓(xùn)練網(wǎng)絡(luò)的遷移微調(diào)方式避免了圖像特征的人工設(shè)計(jì)及提取保存,簡化圖像識(shí)別步驟,效率提高,識(shí)別性能也有所提高。
針對(duì)傳統(tǒng)識(shí)別算法需要人工提取特征,耗時(shí)耗力,且數(shù)據(jù)集規(guī)模較小的問題,本文提出一種卷積神經(jīng)網(wǎng)絡(luò)與遷移學(xué)習(xí)相結(jié)合應(yīng)用小規(guī)模花卉圖像識(shí)別方法。利用預(yù)訓(xùn)練模型VGG16、Inceptionv3及ResNet50在花卉圖像上進(jìn)行遷移微調(diào)實(shí)驗(yàn),構(gòu)建新的密集連接分類層,進(jìn)行訓(xùn)練驗(yàn)證,得到新的分類模型。實(shí)驗(yàn)結(jié)果表明,將大型數(shù)據(jù)集上的預(yù)訓(xùn)練模型遷移到小規(guī)模圖像集上,再進(jìn)行微調(diào),可以取得較好的識(shí)別效果。實(shí)驗(yàn)中預(yù)訓(xùn)練網(wǎng)絡(luò)Inceptionv3在僅有的2 400幅圖像訓(xùn)練后識(shí)別準(zhǔn)確率可達(dá)到94.67%,證明使用在大數(shù)據(jù)集上訓(xùn)練的模型,再將模型遷移到小數(shù)據(jù)集上進(jìn)行微調(diào),不僅可以避免訓(xùn)練模型缺少數(shù)據(jù)的不足,節(jié)省大量時(shí)間,且識(shí)別效果較好。本文在選用預(yù)訓(xùn)練模型時(shí)只是選擇其中的三種,今后將在此基礎(chǔ)上進(jìn)行其他更優(yōu)網(wǎng)絡(luò)的嘗試,且進(jìn)行網(wǎng)絡(luò)凍結(jié)比例的改變,嘗試認(rèn)識(shí)不同比例凍結(jié)對(duì)不同模型的影響關(guān)系,分析不同模型應(yīng)該凍結(jié)的層數(shù)。