国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于Xception和遷移學(xué)習(xí)的圖像分類研究

2024-03-27 16:21:44謝生鋒
現(xiàn)代計算機 2024年1期
關(guān)鍵詞:分類器準(zhǔn)確率卷積

謝生鋒

(河南工學(xué)院計算機科學(xué)與技術(shù)學(xué)院,新鄉(xiāng) 453003)

0 引言

遷移學(xué)習(xí)是一種機器學(xué)習(xí)方法,它是將已經(jīng)學(xué)習(xí)過的知識遷移應(yīng)用于新的問題中,用于提高解決新問題的速度和能力。卷積神經(jīng)網(wǎng)絡(luò)CNN使用卷積運算提取圖像的特征,從而實現(xiàn)對圖像的分類和識別,在CNN 的發(fā)展過程中出現(xiàn)了許多經(jīng)典的網(wǎng)絡(luò)模型,如AlexNet、GoogLeNet、VGGNet、ResNet 和Xception 等[1]。這些網(wǎng)絡(luò)模型是在包含超過1400萬張有標(biāo)記圖片的ImageNet數(shù)據(jù)集訓(xùn)練出來的,所以當(dāng)需要訓(xùn)練一個新的圖像分類任務(wù)時,使用這些網(wǎng)絡(luò)模型作為預(yù)訓(xùn)練模型,然后在訓(xùn)練好的卷積基的基礎(chǔ)上建立分類器。

1 Xception網(wǎng)絡(luò)模型

Xception 是Google 繼Inception 后提出的InceptionV3 的一種改進模型,主要采用深度可分離卷積替代InceptionV3 中的卷積操作,將通道維度和空間維度的處理分開,達到解耦的效果。Xception 模型先用1 × 1 卷積處理通道維度之間的信息,再用3 × 3 卷積處理每一個通道維度內(nèi)的空間維度信息。Xception 網(wǎng)絡(luò)結(jié)構(gòu)是由36 個卷積層組成網(wǎng)絡(luò)的特征提取基礎(chǔ),這些卷積層被分成14個模塊,除了首尾模塊,其余模塊用線性殘差連接[2],其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

基于上述Xception 網(wǎng)絡(luò)模型的特點,其在ImageNet 數(shù)據(jù)集上訓(xùn)練的準(zhǔn)確率有明顯提高,參數(shù)量有所下降,同時引入了殘差連接機制也加快了Xception 的收斂過程。本文采用Xception網(wǎng)絡(luò)模型作為預(yù)訓(xùn)練模型,對貓狗圖像進行分類識別。

2 實驗數(shù)據(jù)

2.1 數(shù)據(jù)集

數(shù)據(jù)來源于Kaggle競賽平臺上的dogs-vs-cats數(shù)據(jù)集,該數(shù)據(jù)集由標(biāo)記為cat 和dog 的25000張圖片和未標(biāo)記的圖片組成,其中有標(biāo)記的貓和狗的圖片各占12500張。本文從有標(biāo)記的圖片中隨機抽取5000 張圖片來構(gòu)建數(shù)據(jù)集,將數(shù)據(jù)集劃分為訓(xùn)練集、驗證集和測試集三部分,圖片數(shù)量分別是3000張、1000張和1000張,并且每一個數(shù)據(jù)集中的貓和狗的圖片數(shù)量相等。劃分后的訓(xùn)練集中的圖片如圖2所示。

圖1 Xception模型結(jié)構(gòu)圖

圖2 訓(xùn)練集圖片

2.2 數(shù)據(jù)處理

由于Xception 模型要求的圖片大小是229像素×229像素,包含的三個通道分別是R、G、B。所以先把三個數(shù)據(jù)集中的圖片維度處理為(229,229,3),使用Keras 框架中的圖片生成器ImageDataGenerator 對訓(xùn)練集中的圖片做數(shù)據(jù)增強,它是對圖片進行旋轉(zhuǎn)、平移、縮放、反轉(zhuǎn)、剪切和歸一化等操作,歸一化是把像素值縮小到(0,1)范圍內(nèi)[3]。通過數(shù)據(jù)增強可以擴充數(shù)據(jù)集大小,增強模型的泛化能力,而對驗證集和測試集中的圖片只做歸一化處理,訓(xùn)練集和驗證集每個批次生成圖片的數(shù)量分別設(shè)置成30 和20,同時把文本類標(biāo)簽cat 和dog 編碼為數(shù)值,分別是0和1。

3 構(gòu)建模型

采用Xception 模型作為預(yù)訓(xùn)練模型,首先刪除Xception 模型的最后一個模塊,即刪除Dense 層和GlobalAveragePooling 兩層,同時對Xception 模型進行微調(diào),解凍block14 模塊,包括兩個SeparableConv2D 層、兩個BatchNormalization 層,兩個Activation 層,使這六層變?yōu)榭捎?xùn)練狀態(tài),它們的權(quán)重在訓(xùn)練模型的每個周期中被更新[4],block14模塊的結(jié)構(gòu)如圖3所示。

圖3 block14模塊的結(jié)構(gòu)圖

在block14 模塊的基礎(chǔ)上構(gòu)建圖像分類器,使用GlobalAveragePooling2D 對圖像數(shù)據(jù)進行扁平化處理,得到的一維數(shù)據(jù)作為Dense層的輸入數(shù)據(jù),激活函數(shù)是ReLU;再使用Dropout層抑制過擬合;最后使用Dense 層進行二分類,激活函數(shù)是Sigmoid。圖像分類器的結(jié)構(gòu)如圖4所示。

圖4 圖像分類器的結(jié)構(gòu)圖

4 實驗結(jié)果分析

使用模型的fit_generator 函數(shù)在數(shù)據(jù)生成器上進行訓(xùn)練,分批次讀取數(shù)據(jù)增強后的圖片數(shù)據(jù),模型迭代訓(xùn)練50 次。設(shè)置訓(xùn)練集的一次訓(xùn)練包含的步數(shù)是100,每一步生成30個圖片數(shù)據(jù)參與訓(xùn)練,驗證集的一次訓(xùn)練包含的步數(shù)是50,每一步生成20 個圖片數(shù)據(jù)參與訓(xùn)練。模型的損失函數(shù)和準(zhǔn)確率分別采用binary_crossentropy 和accuracy來評估[5]。

經(jīng)過訓(xùn)練后模型的準(zhǔn)確率如圖5所示,可以看出,驗證集的準(zhǔn)確率為98.9%。模型的損失值如圖6所示,驗證集的損失曲線是逐漸下降并趨于收斂。

圖5 模型準(zhǔn)確率變化曲線

圖6 模型損失變化曲線

訓(xùn)練后的模型以h5格式保存到硬盤中,并對測試集的1000張圖片進行測試,調(diào)用evaluate()函數(shù)輸出準(zhǔn)確率以對模型進行評估,程序運行結(jié)果表明,測試集上的準(zhǔn)確率達到99.2%,損失值是0.0219。最后調(diào)用roc_curve()函數(shù)生成ROC 曲線,如圖7所示。從圖7看出,曲線下方的面積接近于1,表明模型的分類效果好。

圖7 ROC曲線圖

5 結(jié)語

本文使用遷移學(xué)習(xí)將Xception 模型作為預(yù)訓(xùn)練模型,并對其中的block14 模塊進行微調(diào),使其中的六層處于可訓(xùn)練狀態(tài),在此基礎(chǔ)上構(gòu)建圖像分類器,把5000 張貓狗圖片分為訓(xùn)練集、驗證集和測試集,通過訓(xùn)練集得到模型的權(quán)重,該模型在驗證集和測試集上的準(zhǔn)確率分別達到了98.9%和99.2%,證明了該模型對貓狗圖片的分類效果好。

猜你喜歡
分類器準(zhǔn)確率卷積
基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
健康之家(2021年19期)2021-05-23 11:17:39
不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
2015—2017 年寧夏各天氣預(yù)報參考產(chǎn)品質(zhì)量檢驗分析
從濾波器理解卷積
電子制作(2019年11期)2019-07-04 00:34:38
高速公路車牌識別標(biāo)識站準(zhǔn)確率驗證法
基于傅里葉域卷積表示的目標(biāo)跟蹤算法
BP-GA光照分類器在車道線識別中的應(yīng)用
電子測試(2018年1期)2018-04-18 11:52:35
加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機的TSK分類器
大关县| 蛟河市| 蓬莱市| 黎城县| 黑水县| 新河县| 东乡族自治县| 祁连县| 鹰潭市| 凉城县| 宁远县| 区。| 康保县| 舟山市| 上犹县| 临沭县| 濮阳县| 新宁县| 宁陵县| 舟山市| 介休市| 洛隆县| 桃源县| 大兴区| 昌都县| 平江县| 海盐县| 贺兰县| 山东省| 襄垣县| 珠海市| 西藏| 齐齐哈尔市| 汉沽区| 佛冈县| 贵定县| 修水县| 信丰县| 江都市| 抚顺市| 宕昌县|