国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

404 Not Found


nginx
404 Not Found

404 Not Found


nginx
404 Not Found

404 Not Found


nginx
404 Not Found

404 Not Found


nginx
404 Not Found

404 Not Found


nginx
404 Not Found

404 Not Found


nginx

基于ResNet的典型養(yǎng)殖魚(yú)類(lèi)識(shí)別方法研究

2022-07-07 02:36:36涂雪瀅劉世晶
漁業(yè)現(xiàn)代化 2022年3期
關(guān)鍵詞:網(wǎng)絡(luò)結(jié)構(gòu)殘差魚(yú)類(lèi)

涂雪瀅,劉世晶,2,錢(qián) 程

(1 中國(guó)水產(chǎn)科學(xué)研究院漁業(yè)機(jī)械儀器研究所,上海 200092;2 農(nóng)業(yè)農(nóng)村部漁業(yè)裝備與工程技術(shù)重點(diǎn)實(shí)驗(yàn)室,上海 200092)

中國(guó)漁業(yè)資源豐富,魚(yú)類(lèi)養(yǎng)殖品種繁多[1]。目前,漁業(yè)捕撈、養(yǎng)殖管理以及生產(chǎn)加工等都面臨魚(yú)類(lèi)精準(zhǔn)識(shí)別的問(wèn)題,且隨著漁業(yè)產(chǎn)業(yè)信息化發(fā)展步伐的加快,對(duì)魚(yú)類(lèi)品種的精準(zhǔn)分類(lèi)提出了更高的要求[2]。現(xiàn)階段魚(yú)類(lèi)識(shí)別手段大都集中在基于離水狀態(tài)的靜態(tài)識(shí)別,水下魚(yú)類(lèi)目標(biāo)受其自身高柔性的體態(tài)和多姿態(tài)的運(yùn)動(dòng)方式的制約,導(dǎo)致基于靜態(tài)圖像的識(shí)別方法在實(shí)際應(yīng)用場(chǎng)景中識(shí)別精度較低[3]。因此,急需從采樣手段、樣本集構(gòu)建以及高效識(shí)別算法等多個(gè)方面開(kāi)展研究,提升水下活體魚(yú)類(lèi)識(shí)別精度,滿(mǎn)足水下運(yùn)動(dòng)個(gè)體精準(zhǔn)識(shí)別的產(chǎn)業(yè)發(fā)展需要。

目前,魚(yú)類(lèi)種類(lèi)識(shí)別方式主要依賴(lài)人工,勞動(dòng)強(qiáng)度大,對(duì)魚(yú)體會(huì)造成損傷,不利于魚(yú)類(lèi)的福利養(yǎng)殖[4]。計(jì)算機(jī)視覺(jué)技術(shù)具有高精度、非接觸、速度快、抗干擾能力強(qiáng)等特點(diǎn)[5],在智能識(shí)別、自動(dòng)跟蹤、智能分類(lèi)等領(lǐng)域起到越來(lái)越重要的作用[6-8]?;跈C(jī)器視覺(jué)技術(shù)的目標(biāo)識(shí)別方法主要分為兩類(lèi),一類(lèi)是基于傳統(tǒng)BP、SVM等的傳統(tǒng)機(jī)器學(xué)習(xí)方法[9],另一類(lèi)是基于卷積的深度學(xué)習(xí)方法[10]。傳統(tǒng)的機(jī)器學(xué)習(xí)方法主要是利用已知特征進(jìn)行分類(lèi)學(xué)習(xí),在特征結(jié)構(gòu)明顯、學(xué)習(xí)場(chǎng)景單一的工況條件下取得了較好的識(shí)別效果[11],但由于其學(xué)習(xí)特征不具備空間縮放能力,導(dǎo)致算法適用場(chǎng)景受限,不能滿(mǎn)足動(dòng)態(tài)場(chǎng)景的識(shí)別要求[12]?;诰矸e網(wǎng)絡(luò)的深度學(xué)習(xí)算法是目前機(jī)器學(xué)習(xí)領(lǐng)域的研究熱點(diǎn),該方法通過(guò)構(gòu)建多個(gè)卷積層、池化層和全連接層實(shí)現(xiàn)對(duì)平移、旋轉(zhuǎn)、縮放等特征的有效識(shí)別,在圖像識(shí)別領(lǐng)域起到了越來(lái)越重要的作用[13]。自2012年至今,涌現(xiàn)出大量?jī)?yōu)秀卷積神經(jīng)網(wǎng)絡(luò)算法,如AlexNet、ZFNet、VGG、GoogleNet、ResNet、SENet等,已經(jīng)廣泛應(yīng)用在人臉、姿態(tài)、農(nóng)作物以及魚(yú)類(lèi)識(shí)別領(lǐng)域[14]。

ResNet算法[15]是目前應(yīng)用較為廣泛的分類(lèi)識(shí)別方法,該算法充分利用了淺層網(wǎng)絡(luò)信息,解決了模型梯度消失和梯度爆炸的問(wèn)題[16],在圖像識(shí)別領(lǐng)域取得了不錯(cuò)的成績(jī)。田強(qiáng)等[17]通過(guò)調(diào)整ResNet18模型的網(wǎng)絡(luò)結(jié)構(gòu),搭配Leaky ReLU激活函數(shù),實(shí)現(xiàn)汽車(chē)車(chē)標(biāo)識(shí)別,識(shí)別率高達(dá)99.8%。Adao等[18]通過(guò)替換線(xiàn)性層的方法改進(jìn)ResNet34網(wǎng)絡(luò)結(jié)構(gòu),實(shí)現(xiàn)15種棉花害蟲(chóng)的分類(lèi),識(shí)別率達(dá)到98.1%。萬(wàn)鵬等[19]通過(guò)優(yōu)化ResNet50算法,結(jié)合遷移學(xué)習(xí)、Adam優(yōu)化和余弦退火方法,實(shí)現(xiàn)6種淡水魚(yú)類(lèi)的識(shí)別,識(shí)別率達(dá)到96.94%。上述基于ResNet的圖像識(shí)別研究有效提升了目標(biāo)識(shí)別精度,但識(shí)別對(duì)象大都為表型姿態(tài)變化較少的樣本,面對(duì)水下魚(yú)類(lèi)游泳運(yùn)動(dòng)的復(fù)雜性和姿態(tài)的多樣性,缺乏針對(duì)水下動(dòng)態(tài)圖像的有效試驗(yàn)論證。目前,基于ResNet算法的魚(yú)類(lèi)識(shí)別技術(shù)主要圍繞單一的框架結(jié)構(gòu)開(kāi)展相關(guān)研究,缺少對(duì)不同網(wǎng)絡(luò)層數(shù)框架結(jié)構(gòu)的綜合比較分析,雖然ResNet可以通過(guò)殘差單元使網(wǎng)絡(luò)結(jié)構(gòu)無(wú)限擴(kuò)大,但是增加的網(wǎng)絡(luò)結(jié)構(gòu)不可避免地增加了算法的復(fù)雜度,降低了運(yùn)行效率[20]。

以ResNet框架為研究對(duì)象,通過(guò)對(duì)比分析不同網(wǎng)絡(luò)層數(shù)和框架結(jié)構(gòu)識(shí)別效果,以期找到適用于多姿態(tài)魚(yú)類(lèi)目標(biāo)識(shí)別最優(yōu)網(wǎng)絡(luò)結(jié)構(gòu)。首先,采取多角度圖像獲取方式,結(jié)合網(wǎng)絡(luò)檢索手段,豐富樣本數(shù)量,增加算法對(duì)魚(yú)類(lèi)復(fù)雜姿態(tài)的適應(yīng)能力,以期解決復(fù)雜樣本庫(kù)構(gòu)建問(wèn)題;其次,在經(jīng)驗(yàn)分析的基礎(chǔ)上,選取ResNet18、ResNet34和ResNet50這3種網(wǎng)絡(luò)結(jié)構(gòu)作為測(cè)試結(jié)構(gòu),通過(guò)對(duì)比分析不同網(wǎng)絡(luò)結(jié)構(gòu)的識(shí)別效果,以期找到識(shí)別精度和運(yùn)行效率匹配度最佳的網(wǎng)絡(luò)結(jié)構(gòu),滿(mǎn)足水下魚(yú)類(lèi)動(dòng)態(tài)目標(biāo)精準(zhǔn)識(shí)別產(chǎn)業(yè)發(fā)展需求,為產(chǎn)業(yè)智能技術(shù)升級(jí)提供算法支撐。

1 試驗(yàn)數(shù)據(jù)

1.1 試驗(yàn)裝置

如圖1所示,試驗(yàn)系統(tǒng)由透明玻璃魚(yú)缸、過(guò)濾器、相機(jī)、支架和圖形工作站組成。其中,玻璃魚(yú)缸的長(zhǎng)、寬、高均為600 mm,距地面1 m,玻璃厚度為7 mm,工作水深460 mm,相機(jī)型號(hào)為WST-U1080。為了避免鏡面反射,將魚(yú)缸的背面、底面、右側(cè)面采用白紙遮擋。過(guò)濾器采用基于高效培菌濾材所建立的硝化系統(tǒng)的小型外置水循環(huán)過(guò)濾器,保持試驗(yàn)過(guò)程中水質(zhì)健康穩(wěn)定,減少換水次數(shù)。為了增加樣本數(shù)量,采用位于魚(yú)缸兩側(cè)的2臺(tái)相機(jī)進(jìn)行采樣,調(diào)整采樣高度使采樣面與魚(yú)缸平面近似平行,保證圖像數(shù)據(jù)集構(gòu)建的有效性。

圖1 試驗(yàn)裝置Fig.1 Test equipment

1.2 樣本庫(kù)構(gòu)建

如圖2 a所示,受相機(jī)鏡頭光路影響,圖像存在一定的徑向畸變,因此本研究采用標(biāo)準(zhǔn)棋盤(pán)格方法[21]進(jìn)行圖像矯正,矯正后樣本圖像如圖2 b所示。

圖2 魚(yú)類(lèi)圖像矯正前后對(duì)比Fig.2 Comparison of fish image before and after correction

2 試驗(yàn)方法

2.1 ResNet網(wǎng)絡(luò)結(jié)構(gòu)

為了解決模型退化帶來(lái)的信息傳輸過(guò)程中丟失、損耗等問(wèn)題,何凱明等[15]提出ResNet殘差網(wǎng)絡(luò),使用殘差學(xué)習(xí)單元,形成短路機(jī)制,實(shí)現(xiàn)了卷積神經(jīng)網(wǎng)絡(luò)的深層次應(yīng)用。ResNet殘差結(jié)構(gòu)如圖3所示,x是輸入信號(hào),經(jīng)過(guò)第一層線(xiàn)性變化,得到F(x),經(jīng)過(guò)第二層線(xiàn)性變化,得到輸出信號(hào)H(x)。在卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中,隨著學(xué)習(xí)準(zhǔn)確率不斷上升到飽和狀態(tài),輸出信號(hào)H(x)趨于穩(wěn)定,為保證學(xué)習(xí)準(zhǔn)確率不再隨訓(xùn)練層數(shù)加深而降低,原本帶權(quán)值的x須變?yōu)楹愕扔成?,保持輸出信?hào)H(x)與輸入信號(hào)x相等,得到F(x)=H(x)-x,為使得H(x)與x隨網(wǎng)絡(luò)結(jié)構(gòu)加深而保持等值,F(xiàn)(x)須趨近于0,ResNet訓(xùn)練過(guò)程逐漸轉(zhuǎn)向?yàn)閷?duì)殘差F(x)趨于0的學(xué)習(xí)。

圖3 ResNet殘差結(jié)構(gòu)Fig.3 ResNet residual structure

ResNet有不同的網(wǎng)絡(luò)層數(shù),比較常見(jiàn)的有18-layer、34-layer、50-layer,其結(jié)構(gòu)均由5個(gè)卷積層和1個(gè)綜合模塊組成[15],其中卷積層由不同數(shù)量的殘差模塊不斷堆疊組成,綜合模塊由全連接層、池化層和分類(lèi)模塊組成[22]。不同層數(shù)的ResNet的主要區(qū)別就在于每個(gè)卷積層包含的殘差塊的數(shù)量和殘差塊中的具體參數(shù)不同。

根據(jù)ResNet網(wǎng)絡(luò)的成熟應(yīng)用形式[15],經(jīng)典的ResNet18、ResNet34和ResNet50網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。其中,ResNet18和ResNet34結(jié)構(gòu)較為簡(jiǎn)單,以?xún)蓚€(gè)3×3的卷積核和一個(gè)跳躍結(jié)構(gòu)構(gòu)成的一個(gè)殘差單元,通過(guò)多個(gè)殘差單元串聯(lián)組成網(wǎng)絡(luò)結(jié)構(gòu),ResNet34在ResNet18的基礎(chǔ)上加深了網(wǎng)絡(luò)層次;而ResNet50在ResNet34的基礎(chǔ)上,將2層殘差單元替換成3層殘差單元,其中3層殘差單元是由一個(gè)1×1、一個(gè)3×3和一個(gè)1×1的卷積核相串聯(lián),同時(shí)并聯(lián)一個(gè)跳躍結(jié)構(gòu),再通過(guò)數(shù)個(gè)殘差單元串聯(lián)組成網(wǎng)絡(luò)結(jié)構(gòu)。

圖4 不同層數(shù)ResNet網(wǎng)絡(luò)結(jié)構(gòu)模型Fig.4 Different ResNet structure models

2.2 參數(shù)選擇

2.2.1 損失函數(shù)

損失函數(shù)[23]在模型訓(xùn)練時(shí)能夠反映出模型與實(shí)際的差距,損失函數(shù)的大小與模型的優(yōu)劣成反比,損失函數(shù)的值越小,代表模型的預(yù)測(cè)值與真實(shí)值相差越小,模型識(shí)別精度越高。交叉損失熵[24]作為ResNet模型的損失函數(shù)在目標(biāo)識(shí)別領(lǐng)域取得了較好的效果[19],因此采用交叉損失熵作為損失函數(shù),進(jìn)行驗(yàn)證試驗(yàn),其表達(dá)式為:

(1)

式中:loss為損失函數(shù);m為取樣數(shù)量;n為分類(lèi)數(shù)量;Pij為符號(hào)函數(shù),當(dāng)i的類(lèi)別為j時(shí)取1,否則取0;qij為i屬于j類(lèi)的預(yù)測(cè)概率。

2.2.2 學(xué)習(xí)率

學(xué)習(xí)率是決定ResNet模型收斂速度與收斂效果的重要參數(shù),學(xué)習(xí)率的大小決定了模型學(xué)習(xí)速度的快慢[25]。采用指數(shù)衰減方法對(duì)學(xué)習(xí)率進(jìn)行更新,在保證識(shí)別精度的前提下提升算法的收斂速度[26]。其學(xué)習(xí)率公式為:

α=βepoch_num×α0

(2)

式中:β為衰減指數(shù),α0為初始學(xué)習(xí)率,epoch_num為迭代次數(shù)。綜合考慮模型收斂速度和收斂效果,β取值0.95,α0初始設(shè)定值為0.001,學(xué)習(xí)率α隨迭代次數(shù)的增加而減小,保持模型穩(wěn)定不退化。

2.2.3 批尺寸

批尺寸的選取對(duì)模型迭代速度及識(shí)別精度均有一定影響[27]。對(duì)于小樣本量數(shù)據(jù)集,批尺寸越大,模型梯度估值越準(zhǔn)確,但對(duì)于大樣本量數(shù)據(jù)集,批尺寸取值過(guò)大會(huì)占用過(guò)多內(nèi)存,造成學(xué)習(xí)速度過(guò)慢[28]。使用的魚(yú)類(lèi)圖像樣本集共含有35 000張圖像,綜合考慮模型訓(xùn)練速度、準(zhǔn)確度、系統(tǒng)內(nèi)存等因素,選取128作為批尺寸。

3 結(jié)果與分析

3.1 試驗(yàn)環(huán)境

使用基于Windows 10操作系統(tǒng)的聯(lián)想工作站,CPU為IntelXeon W-2245,主頻3.90 GHz,顯卡RTX2080S,內(nèi)存64 GB,訓(xùn)練平臺(tái)為基于A(yíng)naconda3的PyTorch框架。

3.2 樣本分配

表1 魚(yú)類(lèi)圖像樣本數(shù)量分布Tab.1 Quantity distribution of fish image data sets

3.3 識(shí)別結(jié)果對(duì)比

采用ResNet18、ResNet34和ResNet50網(wǎng)絡(luò)結(jié)構(gòu)對(duì)樣本庫(kù)中的魚(yú)類(lèi)圖像進(jìn)行訓(xùn)練和測(cè)試。圖5為3種ResNet算法模型訓(xùn)練準(zhǔn)確率對(duì)比,橫坐標(biāo)為迭代次數(shù),從圖中可以看出,3種ResNet模型經(jīng)過(guò)50次迭代后均穩(wěn)定在99.8%,其中ResNet18的收斂速度最快。

圖5 不同層數(shù)ResNet模型訓(xùn)練準(zhǔn)確度Fig.5 Training accuracy of different ResNet models

表2為不同模型識(shí)別結(jié)果,從表中可以看出,隨著ResNet模型網(wǎng)絡(luò)層數(shù)的復(fù)雜化,對(duì)魚(yú)類(lèi)圖像的訓(xùn)練時(shí)間也變長(zhǎng),模型識(shí)別的準(zhǔn)確率相對(duì)有所提高,其中ResNet18浮點(diǎn)運(yùn)算量最小,所需訓(xùn)練時(shí)間和識(shí)別時(shí)間最短,但準(zhǔn)確率在3種模型中最低,準(zhǔn)確率93.57%;ResNet50識(shí)別準(zhǔn)確率最高,達(dá)到95.47%,但訓(xùn)練時(shí)間相較ResNet18和ResNet34分別增加了21.90 min和9.02 min;ResNet34識(shí)別準(zhǔn)確率與ResNet50相差不大,達(dá)到95.03%,與ResNet50相比,其準(zhǔn)確率降低了0.44%,訓(xùn)練時(shí)間減少了14.56%。

表2不同模型的識(shí)別結(jié)果對(duì)比Tab.2 Comparison of the results of different kinds of models

3.4 單一姿態(tài)圖像和復(fù)雜姿態(tài)圖像識(shí)別分析

采用多角度視頻采樣方式,采集小水體水下魚(yú)類(lèi)運(yùn)動(dòng)視頻,從而獲取不同姿態(tài)魚(yú)類(lèi)圖像。不同于其他魚(yú)類(lèi)識(shí)別研究采用離水拍攝采樣[29],或者大水體拍攝采樣[30],采集的魚(yú)類(lèi)樣本均為姿態(tài)、角度單一的樣本,本研究采用小水體魚(yú)缸作為采樣空間,相機(jī)采樣空間覆蓋魚(yú)類(lèi)全部活動(dòng)區(qū)域,所采集的樣本包含魚(yú)類(lèi)不同角度、不同游姿的圖像。

在養(yǎng)殖魚(yú)類(lèi)圖像樣本庫(kù)的35 000張樣本圖像中,包含魚(yú)類(lèi)不同姿態(tài)的圖像。其中,圖6 a為魚(yú)類(lèi)側(cè)面圖像,該類(lèi)圖像類(lèi)似于離水試驗(yàn)采集的樣本,為單一姿態(tài)圖像,共計(jì)18 791張;圖6 b為魚(yú)類(lèi)多角度、多姿態(tài)圖像,該類(lèi)圖像為復(fù)雜姿態(tài)圖像,共計(jì)16 209張。當(dāng)樣本庫(kù)按4∶1隨機(jī)分為訓(xùn)練集和測(cè)試集后,以魚(yú)類(lèi)姿態(tài)為分類(lèi)標(biāo)準(zhǔn),則訓(xùn)練集中包含15 033張單一背景圖像和12 967張復(fù)雜背景圖像,測(cè)試集中包含3 758張單一背景圖像和3 242張復(fù)雜背景圖像,3個(gè)ResNet模型對(duì)不同姿態(tài)樣本的識(shí)別精度如表3所示。

圖6 魚(yú)類(lèi)單一姿態(tài)和復(fù)雜姿態(tài)圖像Fig.6 Single pose and complex pose images of fish

表3 單一姿態(tài)圖像和復(fù)雜姿態(tài)圖像識(shí)別結(jié)果對(duì)比Tab.3 Comparison of recognition results between single attitude image and complex attitude image

從表3中可以看出,3個(gè)模型對(duì)單一姿態(tài)圖像的識(shí)別準(zhǔn)確率分別為96.70%、97.53%、97.92%,對(duì)復(fù)雜姿態(tài)圖像的識(shí)別準(zhǔn)確率分別為89.94%、92.13%、92.63%,相較單一姿態(tài)圖像分別降低了6.99%、5.54%、5.40%。說(shuō)明模型對(duì)單一姿態(tài)圖像的識(shí)別效果更好,單一姿態(tài)圖像中目標(biāo)的特征更明顯,而復(fù)雜姿態(tài)圖像中的目標(biāo)包含了魚(yú)類(lèi)的運(yùn)動(dòng)特征,在不同姿態(tài)時(shí)展現(xiàn)的體征不同,加大了模型學(xué)習(xí)的難度,導(dǎo)致識(shí)別準(zhǔn)確率下降。

對(duì)比3個(gè)模型的識(shí)別結(jié)果,不同姿態(tài)和不同背景的魚(yú)類(lèi)圖像對(duì)模型識(shí)別精度有一定影響,經(jīng)過(guò)對(duì)錯(cuò)誤識(shí)別結(jié)果的對(duì)比分析,造成識(shí)別錯(cuò)誤的原因有如下幾種:1)當(dāng)魚(yú)游轉(zhuǎn)到某個(gè)角度,其表型特征不明顯(圖7a);2)當(dāng)魚(yú)運(yùn)動(dòng)幅度與頻率過(guò)大,采集到的樣本為運(yùn)動(dòng)模糊圖像(圖7b);3)當(dāng)魚(yú)游到循環(huán)裝置附近,與循環(huán)裝置形成特定角度(圖7c);4)當(dāng)魚(yú)以某個(gè)姿態(tài)游到魚(yú)缸角落,與背景融為一體(圖7d);5)當(dāng)背景中含有與其他魚(yú)類(lèi)相似特征(圖7e);6)當(dāng)背景干擾因素過(guò)多、過(guò)于復(fù)雜(圖7f)。分析整個(gè)樣本庫(kù)的特點(diǎn),當(dāng)樣本的特征丟失較多,成像角度較為特殊,魚(yú)類(lèi)貼邊運(yùn)動(dòng),或者背景較為復(fù)雜時(shí),容易識(shí)別錯(cuò)誤。且這種特殊情況出現(xiàn)的概率較低,樣本相對(duì)較少,模型無(wú)法充分學(xué)習(xí)此類(lèi)樣本的全部特征,因此其識(shí)別精度較差。

圖7 易識(shí)別錯(cuò)誤的魚(yú)類(lèi)圖像Fig.7 Easily misidentified fish images

3.5 識(shí)別結(jié)果可視化分析

混淆矩陣能夠?qū)⒎诸?lèi)算法模型的預(yù)測(cè)結(jié)果可視化,展示模型準(zhǔn)確率及實(shí)際預(yù)測(cè)分布[31]。本研究采用混淆矩陣來(lái)評(píng)價(jià)3種ResNet網(wǎng)絡(luò)結(jié)構(gòu)對(duì)5種養(yǎng)殖魚(yú)類(lèi)的識(shí)別效果,其可視化結(jié)果如表4所示,橫軸表示5種養(yǎng)殖魚(yú)類(lèi)的真實(shí)種類(lèi),縱軸表示其預(yù)測(cè)種類(lèi),矩陣中的數(shù)值xij代表將第i種魚(yú)類(lèi)預(yù)測(cè)為第j種魚(yú)類(lèi)的總次數(shù)?;煜仃囍袑?duì)角線(xiàn)上的數(shù)值越大,代表模型預(yù)測(cè)準(zhǔn)確率越高。

表4 不同層數(shù)ResNet識(shí)別結(jié)果的混淆矩陣

由表4可以看出,3種算法魚(yú)類(lèi)識(shí)別結(jié)果的混淆矩陣,其預(yù)測(cè)數(shù)量基本分布在矩陣對(duì)角線(xiàn)上,3種算法的預(yù)測(cè)類(lèi)別與真實(shí)類(lèi)別基本一致,這表明ResNet算法在魚(yú)類(lèi)識(shí)別方面有很高的準(zhǔn)確率。對(duì)比3個(gè)混淆矩陣,ResNet18對(duì)5種魚(yú)類(lèi)識(shí)別精度相差較大,對(duì)鮰魚(yú)的識(shí)別精度最高,達(dá)到97.00%,對(duì)鯽魚(yú)的識(shí)別精度最低,僅有86.36%;ResNet34在識(shí)別5種魚(yú)類(lèi)方面準(zhǔn)確率基本相同,對(duì)每種魚(yú)的識(shí)別準(zhǔn)確率均在94.14%以上,說(shuō)明ResNet34在魚(yú)類(lèi)圖像識(shí)別方面性能穩(wěn)定;ResNet50對(duì)5種魚(yú)類(lèi)識(shí)別準(zhǔn)確率略有差距,識(shí)別鱸魚(yú)的效果在3種算法中最好,準(zhǔn)確率達(dá)到98.28%。

4 結(jié)論

通過(guò)采集魚(yú)類(lèi)高柔性、多姿態(tài)的運(yùn)動(dòng)目標(biāo)圖像和網(wǎng)絡(luò)獲取不同背景目標(biāo)魚(yú)類(lèi)圖像,構(gòu)建復(fù)雜姿態(tài)與復(fù)雜背景魚(yú)類(lèi)圖像樣本集,以ResNet框架為核心,通過(guò)比較分析典型的ResNet18、ResNet34、ResNet50框架結(jié)構(gòu)對(duì)魚(yú)類(lèi)識(shí)別精度和效果的影響,確定適用于典型養(yǎng)殖魚(yú)類(lèi)識(shí)別的ResNet網(wǎng)絡(luò)結(jié)構(gòu)形式。主要結(jié)論如下:

1)基于殘差卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)算法在養(yǎng)殖魚(yú)類(lèi)圖像識(shí)別上具有較好的識(shí)別準(zhǔn)確度,3種ResNet模型平均識(shí)別準(zhǔn)確率達(dá)到94.69%,其中ResNet50識(shí)別精度最高,達(dá)到95.47%,ResNet34次之,達(dá)到95.03%,但ResNet50識(shí)別效率比ResNet34降低20.43%,綜合考慮識(shí)別精度和識(shí)別效率,ResNet34更加適用于大樣本量魚(yú)類(lèi)圖像的識(shí)別分類(lèi)。2)采用小水體作為采樣空間,能夠在保證魚(yú)體無(wú)損的情況下,獲得高柔性、多姿態(tài)的魚(yú)類(lèi)樣本圖像。增加模型對(duì)不同姿態(tài)魚(yú)類(lèi)圖像的訓(xùn)練,增強(qiáng)了ResNet模型的泛化能力和魯棒性,更適用于現(xiàn)實(shí)場(chǎng)景下的魚(yú)類(lèi)種類(lèi)識(shí)別。3)通過(guò)對(duì)比分析不同ResNet識(shí)別結(jié)果的混淆矩陣,ResNet34對(duì)每種魚(yú)的識(shí)別精度均在94.14%以上,表明了ResNet34在魚(yú)類(lèi)圖像識(shí)別方面性能穩(wěn)定。

針對(duì)魚(yú)類(lèi)運(yùn)動(dòng)高柔性、多姿態(tài)的特點(diǎn),設(shè)計(jì)了雙相機(jī)同步采樣系統(tǒng),所采集的魚(yú)類(lèi)圖像樣本均基于活魚(yú)自由運(yùn)動(dòng)狀態(tài),能夠適用于實(shí)時(shí)環(huán)境下動(dòng)態(tài)魚(yú)類(lèi)識(shí)別。但采樣背景較為單一,對(duì)實(shí)際工況中背景復(fù)雜的魚(yú)類(lèi)圖像識(shí)別效果不如單一背景的魚(yú)類(lèi)圖像,下一步將針對(duì)復(fù)雜環(huán)境下魚(yú)類(lèi)開(kāi)展識(shí)別研究。

猜你喜歡
網(wǎng)絡(luò)結(jié)構(gòu)殘差魚(yú)類(lèi)
基于MFCC和ResNet的魚(yú)類(lèi)行為識(shí)別
基于雙向GRU與殘差擬合的車(chē)輛跟馳建模
基于殘差學(xué)習(xí)的自適應(yīng)無(wú)人機(jī)目標(biāo)跟蹤算法
基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
奇妙的古代動(dòng)物 泥盆紀(jì)的魚(yú)類(lèi)
魚(yú)類(lèi)是怎樣保護(hù)自己的
基于互信息的貝葉斯網(wǎng)絡(luò)結(jié)構(gòu)學(xué)習(xí)
知識(shí)網(wǎng)絡(luò)結(jié)構(gòu)維對(duì)于創(chuàng)新績(jī)效的作用機(jī)制——遠(yuǎn)程創(chuàng)新搜尋的中介作用
滬港通下A+ H股票網(wǎng)絡(luò)結(jié)構(gòu)演化的實(shí)證分析
復(fù)雜網(wǎng)絡(luò)結(jié)構(gòu)比對(duì)算法研究進(jìn)展
404 Not Found

404 Not Found


nginx
404 Not Found

404 Not Found


nginx
404 Not Found

404 Not Found


nginx
404 Not Found

404 Not Found


nginx
404 Not Found

404 Not Found


nginx
阳春市| 锡林浩特市| 佳木斯市| 台湾省| 蚌埠市| 成都市| 华亭县| 通江县| 宣汉县| 湖口县| 拜城县| 鹤壁市| 余庆县| 专栏| 页游| 大兴区| 焉耆| 巴彦县| 广州市| 洛隆县| 左贡县| 商水县| 浮梁县| 苏尼特左旗| 阿巴嘎旗| 改则县| 怀宁县| 库尔勒市| 措美县| 阳春市| 缙云县| 大方县| 积石山| 临颍县| 定兴县| 永春县| 都兰县| 阿鲁科尔沁旗| 桓台县| 怀宁县| 金山区|