国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

融合Deep Qlearning強化的動態(tài)分類算法研究

2021-10-25 08:33張園園周靜軒劉治坤
關(guān)鍵詞:小龍蝦準確率卷積

張園園,楊 露,鄒 耀,周靜軒,劉治坤,鄒 靜

(1.國網(wǎng)湖北省電力有限公司技術(shù)培訓(xùn)中心,武漢 430027;2.湖北工業(yè)大學(xué) 電氣與電子工程學(xué)院,武漢 430068)

處理生產(chǎn)線上分類問題時,由于產(chǎn)品貴重、不宜長時間存放以及缺陷樣本比例低等原因,廠家只能提供少量缺陷樣本,導(dǎo)致訓(xùn)練的模型分類準確率不高。此外訓(xùn)練的模型無法適應(yīng)生產(chǎn)過程中因為參數(shù)變化、批次品質(zhì)變化等產(chǎn)生的樣本特征變化,造成模型識別的穩(wěn)定性不足。針對該問題,本文提出在生產(chǎn)過程中不停采集并補充新樣本,并通過動態(tài)訓(xùn)練更新模型。實驗證明該方法不僅能夠為廠家節(jié)省采集成本和時間,而且通過采集和訓(xùn)練的迭代過程有效解決分類準確率低和穩(wěn)定性問題。

通過生成對抗網(wǎng)絡(luò)(GAN)[1]生成缺陷樣本可以解決樣本不足問題,該網(wǎng)絡(luò)由Ian Goodfellow提出,是當(dāng)前深度學(xué)習(xí)中研究的熱點,例如天文圖像、[2]手寫數(shù)字圖像、[3]裂縫圖像[4]等的生成。GAN的起源來自二人零和博弈,包含一個生成模型和一個判別模型,基本構(gòu)架由圖1可見。生成模型的任務(wù)是希望生成的樣本能夠欺騙判別模型,而判別模型的任務(wù)則是希望識別出假的樣本,兩者通過相互促進在不斷地對抗中來更新網(wǎng)絡(luò)模型并生成可以以假亂真的數(shù)據(jù)樣本。過程如下:首先生成模型G接收到隨機噪聲Z,生成假的樣本;然后將生成的樣本和原始真實的樣本作為判別模型D的輸入判斷真假;將結(jié)果返回給G和D讓兩個模型更新參數(shù),G生成新一批的樣本來欺騙D,而D更新參數(shù)來更準確的區(qū)分真假;兩個網(wǎng)絡(luò)模型相互促進更新,直到最后D生成的樣本與真實樣本有相同分布,G也無法再區(qū)分生成樣本與真實樣本的真假。

圖1 GAN基本構(gòu)架

1 改進GAN方法

實驗表明將傳統(tǒng)GAN方法應(yīng)用于小龍蝦樣本生成,生成的樣本只有26.7%可以使用,其余73.3%的樣本都是不規(guī)則的,不能用于后續(xù)的圖像分類,這種現(xiàn)象稱為模式崩潰。為解決該問題,本文在LeNet[5]基礎(chǔ)上結(jié)合AlexNet、[6]GoogleNet[7]和ResNet[8]模型改進GAN的判別模型,提高GAN模型特征提取能力。

GAN模型的生成模型和判別模型是相互促進,相互競爭的關(guān)系,當(dāng)判別模型能夠準確地識別真實數(shù)據(jù)樣本時,生成模型才能不斷地更新生成更加真實的樣本,從而提高生成樣本的可使用率,解決GAN模型崩潰的問題。因此本文提出采用有監(jiān)督方式預(yù)訓(xùn)練判別模型,然后再以GAN模型的訓(xùn)練方式交替訓(xùn)練生成模型和更新判別模型,該方法減少了GAN模型的訓(xùn)練時間,提高了生成模型生成樣本質(zhì)量。

1.1 判別模型改進

為解決GAN模型存在的模型崩潰和難以訓(xùn)練的問題,根據(jù)已有的數(shù)據(jù)樣本,結(jié)合多種模型優(yōu)點設(shè)計了改進LeNet模型做為GAN模型的判別模型。該模型包括9層卷積層,3層池化層和1層全連接層?;诟倪MLeNet的判別模型結(jié)構(gòu)圖由圖2可見,主要改進如下:

圖2 判別模型

使用LeakyReLU激活函數(shù)替換Sigmoid。在CNN中常用的激活函數(shù)有Sigmoid,[9]ReLU,[10]LeakyReLU[11]等,Sigmoid可以將輸出映射到0和1之間,適應(yīng)于二分類問題,但是反向傳播過程中容易出現(xiàn)梯度消失問題;ReLU是最常用的激活函數(shù),屬于非飽和函數(shù)。反向傳播過程中當(dāng)輸入為正數(shù)時導(dǎo)數(shù)始終為1,可以用來解決梯度消失的問題并且運算速度快,但是當(dāng)輸入為負數(shù)時,導(dǎo)數(shù)始終為0,容易造成神經(jīng)元死亡并不再參與訓(xùn)練的問題;LeakyReLU函數(shù)是ReLU函數(shù)的拓展,保留了ReLU函數(shù)的優(yōu)點并且在負區(qū)間其導(dǎo)數(shù)不為0,能夠解決神經(jīng)元死亡的問題,但是訓(xùn)練時間相對增加??紤]到改進LeNet不僅需要在已有圖像上有好的分類效果而且還要用來識別生成的樣本,訓(xùn)練過程中應(yīng)該盡量保留神經(jīng)元,所以選擇LeakyReLU作為改進LeNet的激活函數(shù)。

使用兩個3*3卷積替換5*5卷積。堆疊含有小尺寸卷積核的卷積層來代替具有大尺寸的卷積核的卷積層,能夠使得感受野大小不變,而且多個3x3的卷積核比一個大尺寸卷積核有更多的非線性。在一定程度上提升了卷積升級網(wǎng)絡(luò)的提取特征能力。同時,使用兩個3*3卷積核所用的參數(shù)更少,減少了過擬合。

在每個卷積操作后加入Batchnorm[12]層。CNN的任務(wù)主要是學(xué)習(xí)訓(xùn)練樣本的分布,而在每一次訓(xùn)練過程中包含的樣本分布都不一樣,模型的訓(xùn)練比較困難。Batchnorm層將幾乎所有數(shù)據(jù)映射到激活函數(shù)的非飽和區(qū)(線性區(qū)),僅利用到了線性變化能力,從而降低了神經(jīng)網(wǎng)絡(luò)的表達能力,提升了訓(xùn)練的穩(wěn)定性。

通過1*1卷積疊加[13]增加模型深度和改變維度。從而減少過擬合和提高識別準確率。

為了減少在卷積層之間傳遞信息時存在梯度消失和難以訓(xùn)練的問題,加入圖3所示殘差結(jié)構(gòu)。該結(jié)構(gòu)以跳層連接的形式實現(xiàn),即將單元的輸入直接與單元輸出加在一起,然后再激活。因此殘差網(wǎng)絡(luò)通過微分特性保護了信息的完整性,只需要學(xué)習(xí)輸入,輸出差別的部分,簡化了學(xué)習(xí)目標和難度。

圖3 殘差結(jié)構(gòu)圖

1.2 生成模型改進

為了提高生成圖片的質(zhì)量,設(shè)計了反卷積網(wǎng)絡(luò)做為GAN模型的生成模型,模型結(jié)構(gòu)圖由圖4可見,主要改進如下:

圖4 生成模型

(1)除了輸出層保留GAN模型的tanh[14]激活函數(shù),其他層使用ReLU,使用有界限的激活函數(shù)可以允許模型更快地學(xué)習(xí)達到飽和;

(2)輸入層外每層都添加Batchnorm,將特征層的輸出歸一化到一起,增加模型的穩(wěn)定性;

(3)加入反卷積模塊,圖像分類問題是輸入圖片,經(jīng)過卷積層提取特征,最終得到圖片類別的概率。而生成圖片則是將該過程反過來,輸入隨機噪聲,經(jīng)過反卷積層構(gòu)建圖像信息,最終生成圖片。

1.3 GAN模型訓(xùn)練方法

為加快改進GAN訓(xùn)練過程以及生成高質(zhì)量圖片,提出對判別模型采用有監(jiān)督訓(xùn)練方法預(yù)訓(xùn)練,然后再以GAN對抗方式訓(xùn)練生成模型和更新判別模型,主要步驟如下:

以已有圖像數(shù)據(jù)為樣本數(shù)據(jù),按照有監(jiān)督方法訓(xùn)練判別模型,使用梯度下降算法更新模型參數(shù),直到模型收斂并且有良好的分類準確率,讓判別模型對已有圖像的特征有足夠的敏感度。

訓(xùn)練生成模型。從噪聲分布中隨機選取一批次的樣本,然后使用梯度下降算法更新生成模型的參數(shù),訓(xùn)練50步之后保存當(dāng)前生成的圖片。

隨機從真實樣本中抽取一批次圖片與生成的圖片共同作為訓(xùn)練好的判別模型的輸入,采用梯度下降算法更新判別模型的參數(shù)。

重復(fù)步驟2和3訓(xùn)練20000步完成訓(xùn)練。

2 動態(tài)分類算法

隨著產(chǎn)品批次變化,最開始為產(chǎn)品分類訓(xùn)練的模型逐漸難以適應(yīng),需要通過重新訓(xùn)練模型解決。本文基于改進GAN和Deep Q-Learning(DQN)強化設(shè)計一種自動模型調(diào)整方法,可有效解決模型動態(tài)適應(yīng)性問題。

強化學(xué)習(xí)是處理動態(tài)問題的重要算法,基本原理如圖5所示。智能體通過動作與周圍環(huán)境進行交互,環(huán)境會返回一個評分和產(chǎn)生新的狀態(tài)。如此循環(huán)下去,智能體與環(huán)境不斷地交互從而產(chǎn)生很多數(shù)據(jù)。強化學(xué)習(xí)算法利用產(chǎn)生的數(shù)據(jù)修改自身的動作策略并再與環(huán)境交互。經(jīng)過多次迭代學(xué)習(xí)后,智能體能最終學(xué)到完成相應(yīng)任務(wù)的最優(yōu)動作。DQN強化學(xué)習(xí)算法處理任務(wù)時,通過神經(jīng)網(wǎng)絡(luò)得到Q函數(shù),然后通過訓(xùn)練不斷更新Q函數(shù)來得到最優(yōu)狀態(tài)。

圖5 強化學(xué)習(xí)原理圖

2.1 動態(tài)算法框架

動態(tài)算法任務(wù)的設(shè)計是動態(tài)算法的重要基礎(chǔ),任務(wù)設(shè)計的準確性直接影響后續(xù)算法的設(shè)計。由前面強化學(xué)習(xí)算法原理可知,任務(wù)的設(shè)計主要是循環(huán)系統(tǒng)的設(shè)計,即包括智能體、環(huán)境、狀態(tài)空間、動作空間以及評分機制的循環(huán)體設(shè)計。本文根據(jù)實際情況將上述元素設(shè)計為:

智能體:改進LeNet算法。

環(huán)境:通過GAN算法可以產(chǎn)生新標簽樣本,同時質(zhì)檢員每天進行現(xiàn)場抽檢和對GAN新樣本評判可以得到有標簽新樣本。通過對比智能體的判別和新產(chǎn)生的有標簽樣本,可以得到環(huán)境的獎勵。

狀態(tài)空間:由每一張圖片構(gòu)成的樣本空間。

動作空間:0和1,即小龍蝦的兩個類別,0代表需要自動剔除的壞質(zhì)量龍蝦,1代表需要保留的好質(zhì)量龍蝦。

評分機制:分類正確得分+1分,分類錯誤得分-1分。

動態(tài)算法框架如圖6所示。通過智能體改進LeNet和產(chǎn)生樣本圖片的環(huán)境不斷交互,不斷的學(xué)習(xí)并自動更新改進LeNet的網(wǎng)絡(luò)參數(shù),直到最后得到最優(yōu)策略和最優(yōu)狀態(tài)-動作值函數(shù),此時可以獲得更優(yōu)的分類網(wǎng)絡(luò)。

圖6 動態(tài)算法框架

2.2 動態(tài)算法樣本規(guī)劃

通過不斷增加樣本數(shù)量來模擬生產(chǎn)線上動態(tài)過程,由圖7可見。以9000張圖像為例,將它們分為三個相等的部分,為動態(tài)過程的仿真做準備。隨機選擇其中一個3000張作為第一個實驗的數(shù)據(jù)集,然后將第一個數(shù)據(jù)集與第二個數(shù)據(jù)集合并形成6000張圖像作為第二個實驗的數(shù)據(jù)集。最后,將所有三部分數(shù)據(jù)集合并形成9000張圖像作為第三次實驗的數(shù)據(jù)集。沒有將數(shù)據(jù)集直接分為3000、6000和9000,而是逐漸添加圖像,可以更加準確地模擬數(shù)據(jù)的逐漸增加過程。選用3000個數(shù)據(jù)增量作為一檔是因為假設(shè)選取增量數(shù)太小會造成實驗差異太小,無法準確判定動態(tài)算法是否有效。

圖7 動態(tài)模擬過程圖

2.3 動態(tài)分類算法流程

通過結(jié)合改進LeNet和DQN來處理動態(tài)數(shù)據(jù)集,將圖像分類問題視為一個可以自動調(diào)整模型參數(shù)以對圖像進行分類學(xué)習(xí)的環(huán)境。在不斷產(chǎn)生樣本的環(huán)境中,改進LeNet任務(wù)是識別圖像內(nèi)容。一開始改進LeNet隨機選擇對圖像進行分類的動作,環(huán)境給改進LeNet反饋一張圖片作為更新參數(shù)后的輸入和一個評分,分類正確得分增加1,分類錯誤得分減1。改進LeNet的目標是通過不斷與環(huán)境互動來提高得分,最后當(dāng)分數(shù)高于一定水平時,改進LeNet已經(jīng)完成了識別圖像任務(wù)。動態(tài)算法的具體步驟如圖8所示。

圖8 動態(tài)算法框架圖

步驟1:讀取圖像樣本作為輸入數(shù)據(jù)集。

步驟2:初始化容器D,該容器可以存儲模型參數(shù)和評分,可保存N條數(shù)據(jù)。

步驟3:隨機初始化改進LeNet的權(quán)重獲得函數(shù)。

步驟4:從數(shù)據(jù)集中隨機選擇一張圖片作為此時的狀態(tài),隨機選擇動作1和0。動作1和0是好的小龍蝦圖片和壞的小龍蝦圖片對應(yīng)的標簽。在動作下,環(huán)境向改進LeNet返回了評分和一個狀態(tài)即下一張圖片。

步驟5:根據(jù)評分更新改進LeNet權(quán)重參數(shù)得到一個新的改進LeNet。

步驟6:將環(huán)境反饋的圖像輸入到新的改進LeNet。

步驟7:重復(fù)步驟4-6,直到完成一次迭代為止。通過遍歷數(shù)據(jù)集的所有圖像,保存得分和改進LeNet權(quán)重參數(shù)并傳遞給D。

步驟8:經(jīng)過50次迭代,D包含50套相應(yīng)的權(quán)重和評分,選擇的得分最高的改進LeNet作為當(dāng)前最優(yōu)模型。

步驟9:使用當(dāng)前的最優(yōu)模型繼續(xù)與環(huán)境互動以產(chǎn)生新的分數(shù)和模型參數(shù)。

步驟10:每50次迭代記錄得分,直到訓(xùn)練完成。

3 實驗與分析

通過廠家測試現(xiàn)場采集的龍蝦數(shù)據(jù)集圖片樣本包含4300張圖,但是為了能夠更加準確地剔除有問題的小龍蝦,4300張圖片訓(xùn)練模型是不夠的。因此本文選擇改進GAN來生成一些小龍蝦圖片,不僅能夠減少廠家的成本而且有利于實施后續(xù)的分類檢測任務(wù)。

實驗環(huán)境由表1可見,實驗步驟如下:首先在已有小龍蝦圖片數(shù)據(jù)集上,對比LeNet模型改進前后準確率,驗證改進LeNet作為改進GAN判別模型的可行性;然后通過對比GAN改進前后生成小龍蝦圖片樣本的可使用率來驗證改進GAN的有效性;最后通過圖像分割實驗將生成的小龍蝦圖片做處理得到可以直接用于后續(xù)分類的樣本。

表1 實驗環(huán)境表

3.1 GAN判別模型改進驗證實驗

選擇4300張龍蝦圖片作為樣本,樣本分為兩類,一類為bads(黑蝦和受損的蝦等),另一類為goods(好的龍蝦),對應(yīng)的標簽分別為0和1。將改進LeNet和LeNet應(yīng)用于已有小龍蝦樣本的分類,訓(xùn)練10000步結(jié)果圖如圖9所示。相比LeNet,改進LeNet訓(xùn)練集準確率提高14%,測試集準確率提高19%。GAN模型中包含一個判別模型和生成模型,兩者之間是相互競爭、相互促進的關(guān)系,只有當(dāng)判別模型能夠準確判斷圖像的真假時才能促進生成模型生成更真實的圖片。改進LeNet模型分類準確率可達到99%,對已有小龍蝦圖像的特征有一定的分辨能力,驗證了使用改進LeNet模型作為判別模型的可行性。

(a) LeNet準確率圖 (b)改進LeNet準確率圖圖9 準確率對比圖

3.2 改進GAN驗證實驗

實驗按類別生成對應(yīng)的樣本,而不是直接將所有的樣本進行一次訓(xùn)練,將Goods類作為第一次實驗樣本用來生成對應(yīng)好的龍蝦圖片,將Bads類作為第二次實驗樣本用來生成壞的龍蝦樣本。為后續(xù)再分類節(jié)省數(shù)據(jù)整合時間。

(a)GAN生成的圖片 (b)改進GAN生成的圖片圖10 Goods樣本結(jié)果對比圖

將GAN和改進GAN分別生成類別為Goods的小龍蝦圖像50張圖片,每張包括64張小龍蝦樣本,生成的Good部分樣本結(jié)果對比由圖10可見。其中黑色框標記了可用的小龍蝦圖片,GAN生成的小龍蝦樣本,可使用率為12.5%;改進GAN生成的樣本可使用率為46.8%。

(a)GAN生成的圖片 (b) 改進GAN生成的圖片圖11 Bad樣本結(jié)果對比圖

將GAN和改進GAN分別用于生成壞的小龍蝦樣本,同樣生成50張圖片,每張包括64個小龍蝦樣本。生成的Bads部分樣本結(jié)果由圖11可見,GAN生成壞的小龍蝦樣本可使用率不足25%;而改進GAN生成的樣本可使用率為57.8%,單張圖片的可使用率提高了32.8%。

3.3 分割實驗

后續(xù)圖像分類任務(wù)中需要小龍蝦圖像單獨成為一張圖片,因此需要將整體圖片分割,具體步驟如下。

步驟1:讀取文件夾圖片,并灰度化。

步驟2:根據(jù)全局閾值分割算法將小龍蝦與背景分開,并得到含有小龍蝦和臟污的區(qū)域。

步驟3:將區(qū)域做連通操作。

步驟4:根據(jù)面積大小選出只含有小龍蝦的區(qū)域。

步驟5:將區(qū)域從左往右,從上往下進行排序,并記錄區(qū)域的個數(shù)number。

步驟6:設(shè)置索引i來表示小龍蝦的序號,i從1開始一直到number。當(dāng)i=1時執(zhí)行以下操作:根據(jù)序號選擇小龍蝦區(qū)域;找到該區(qū)域的中心點坐標;根據(jù)中心點坐標生成一個矩形框;從原圖中剪切出矩形框,即剪切出單張小龍蝦。直到i=number,得到number個單張小龍蝦。

步驟7:將單張小龍蝦保存到文件夾中完成一張圖片的分割處理。

步驟8:遍歷文件夾圖片獲得所有單張圖片。

經(jīng)過篩選后GAN模型生成的總體可使用的圖片為1711張,總體可使用率為26.7%;改進GAN模型生成的總體可使用的圖片為3125張,總體可使用率為48.8%,相比GAN模型提升了22.1%。

3.4 模型適應(yīng)性實驗

將改進LeNet應(yīng)用于動態(tài)小龍蝦數(shù)據(jù)集分類問題中,三組實驗的結(jié)果如圖12所示,其中的橫坐標表示迭代步數(shù)、縱坐標表示分類準確率,實線表示訓(xùn)練集準確率,虛線表示測試集準確率。比較三組實驗,當(dāng)數(shù)據(jù)集中包含6000張圖時訓(xùn)練集和測試集的準確率最高,可以達到99%左右;但是當(dāng)數(shù)據(jù)集為3000時,由于樣本過少不能獲取更多的特征而導(dǎo)致測試集準確率低于90%;當(dāng)數(shù)據(jù)集為9000時,訓(xùn)練集和測試集準確率均小于90%,無法準確分類。

圖12 改進LeNet三次實驗的結(jié)果圖

由實驗結(jié)果可以看出單獨使用卷積神經(jīng)網(wǎng)絡(luò)處理動態(tài)數(shù)據(jù)集分類問題時,數(shù)據(jù)集中包含的圖像樣本特征變化導(dǎo)致模型適應(yīng)性差。如果使用CNN來解決動態(tài)問題即增加分類準確性,則需要手動調(diào)整CNN的參數(shù)和結(jié)構(gòu),修改后的模型也許能夠同時適應(yīng)本文的3組實驗,但是不能保證能適應(yīng)后續(xù)的小龍蝦特征,且需消耗大量時間。所以需要設(shè)計自動調(diào)整參數(shù)的動態(tài)算法來適應(yīng)變化的數(shù)據(jù)集,節(jié)省調(diào)試時間,提高準確率,保證生產(chǎn)效率。

為讓模型適應(yīng)產(chǎn)品的批次品質(zhì)變化,進行了模型的參數(shù)動態(tài)調(diào)整實驗。將上述改進GAN實驗中最終整合得到的9000張小龍蝦圖像樣本分成3份,每份3000張,逐漸增加樣本,第一個數(shù)據(jù)集3000張,第二個6000張,第三個9000張,并根據(jù)不同的數(shù)據(jù)集設(shè)計了相應(yīng)的訓(xùn)練迭代次數(shù)。具體的訓(xùn)練集和測試集圖像數(shù)量分布,相應(yīng)的迭代次數(shù)如表2所示。

表2 數(shù)據(jù)集分布和迭代次數(shù)

實驗編程環(huán)境采用Keras框架,該框架比Tensorflow編程框架包含的庫少,但是編寫強化學(xué)習(xí)算法程序簡單,而且強化學(xué)習(xí)算法的程序訓(xùn)練過程緩慢,使用Keras編寫動態(tài)分類算法更簡單,更節(jié)省時間。

3.5 融合Qleaning強化的參數(shù)動態(tài)調(diào)整實驗

動態(tài)算法的三組實驗結(jié)果如圖所示,其中橫坐標表示迭代步數(shù),縱坐標代表得分,紅色曲線表示訓(xùn)練集得分,虛線表示測試集得分。為了將改進LeNet與動態(tài)算法進行比較,首先需要將得分轉(zhuǎn)換為準確率,轉(zhuǎn)換方法如公式(1)所示,準確率等于最終分數(shù)除以數(shù)據(jù)集包含的圖像樣本數(shù)量。

圖13 動態(tài)算法三次實驗的結(jié)果圖

結(jié)合表2中訓(xùn)練集和測試集的分布,以及圖9中得分,通過公式(1)計算出動態(tài)分類算法的準確率如表3所示。

表3 動態(tài)算法準確率結(jié)果

準確率=最終分數(shù)/數(shù)據(jù)集數(shù)量

(1)

由表3可知動態(tài)分類算法的三組實驗訓(xùn)練集和測試集準確率均高于為99%,與單獨使用卷積神經(jīng)網(wǎng)絡(luò)相比,動態(tài)分類算法在數(shù)據(jù)集為3000時,測試集準確率高出10%左右,當(dāng)數(shù)據(jù)集為9000時,實驗中的訓(xùn)練集和測試集準確率提高了約10%,驗證了動態(tài)分類算法在處理動態(tài)數(shù)據(jù)集分類問題時的優(yōu)勢。 在三組動態(tài)算法實驗中,訓(xùn)練集準確率之間的差異不超過0.2%,測試集準確率之間的差異不超過0.3%,驗證了動態(tài)算法處理在動態(tài)的數(shù)據(jù)集時的穩(wěn)定性。

從實驗結(jié)果可以看出,動態(tài)分類算法通過調(diào)整參數(shù)自適應(yīng)數(shù)據(jù)集變化,能適應(yīng)生產(chǎn)線上不斷變化的產(chǎn)品品質(zhì)變化,最終獲得最優(yōu)模型和最高分數(shù)。相比單獨使用卷積神經(jīng)網(wǎng)絡(luò)分類動態(tài)數(shù)據(jù)集,準確率更高、更穩(wěn)定。

4 結(jié)語

本文在融合LeNet及多種算法基礎(chǔ)上,提出了一種GAN改進與分類動態(tài)訓(xùn)練算法,實驗證明,通過GAN算法改進能有效增加樣本數(shù)量。提出的分類動態(tài)訓(xùn)練算法能有效減少生產(chǎn)線產(chǎn)品批次間品質(zhì)變化造成的分類準確率不穩(wěn)定問題。

猜你喜歡
小龍蝦準確率卷積
小龍蝦不火了?畝賺10000元!快來看看他們是怎么做到的
基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
乳腺超聲檢查診斷乳腺腫瘤的特異度及準確率分析
不同序列磁共振成像診斷脊柱損傷的臨床準確率比較探討
2015—2017 年寧夏各天氣預(yù)報參考產(chǎn)品質(zhì)量檢驗分析
頸椎病患者使用X線平片和CT影像診斷的臨床準確率比照觀察
小龍蝦
卷積神經(jīng)網(wǎng)絡(luò)的分析與設(shè)計
從濾波器理解卷積
基于傅里葉域卷積表示的目標跟蹤算法
沂水县| 拉萨市| 辛集市| 扎兰屯市| 通渭县| 遂昌县| 丰宁| 沈阳市| 大姚县| 定襄县| 德兴市| 周口市| 徐闻县| 翁源县| 潢川县| 衢州市| 讷河市| 衡水市| 邯郸市| 台南市| 安宁市| 延川县| 普宁市| 云霄县| 布尔津县| 临夏县| 望江县| 且末县| 龙口市| 东乌| 通河县| 茌平县| 岳阳县| 龙川县| 阿克苏市| 鄂伦春自治旗| 广河县| 清涧县| 金沙县| 江达县| 临沭县|