国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

畜牧業(yè)動物圖像目標(biāo)檢測改進(jìn)研究

2021-10-24 23:52:55更桑吉安見才讓
計(jì)算機(jī)時(shí)代 2021年10期
關(guān)鍵詞:目標(biāo)檢測畜牧業(yè)

更桑吉 安見才讓

摘要: 根據(jù)不同的放牧方式有多種畜牧業(yè)管理模式,文章通過研究和改進(jìn)圖像識別模型來提高畜牧業(yè)動物圖像檢測技術(shù)及畜牧業(yè)管理水平。選擇YOLOv3-Darknet53模型作為對象進(jìn)行研究和改進(jìn),通過k-means++算法重新進(jìn)行聚類分析,提高YOLOv3-Darknet53模型對畜牧業(yè)動物圖像目標(biāo)檢測的檢測精度。實(shí)驗(yàn)表明,改進(jìn)模型對畜牧業(yè)動物圖像目標(biāo)檢測的精度達(dá)到86.179%。F特征值在yak上提高了1%,S特征值在yak和sheep上分別提高了0.2%、1%,mAP提高了0.3%。

關(guān)鍵詞: YOLOv3; 畜牧業(yè); 目標(biāo)檢測; 維度聚類

中圖分類號:TP399? ? ? ? ? 文獻(xiàn)標(biāo)識碼:A? ? 文章編號:1006-8228(2021)10-20-03

Research on the improvement of animal image target detection in animal husbandry

Geng Sangji, Anjian Cairang

(School of computer, Qinghai University for Nationalities, Xining, Qinghai 810007, China)

Abstract: According to different grazing methods, there are many animal husbandry management modes. This paper studies and improves the image recognition model to improve the animal husbandry image detection technology and animal husbandry management level. YOLOv3-Darknet53 model is chosen as the object to be studied and improved, by redoing the clustering analysis with k-means++ algorithm, the detection accuracy of YOLOv3-Darknet53 model in animal husbandry image target detection is improved. The experimental results show that the accuracy of the improved model is 86.179%. The F eigenvalue is increased by 1% on yak, the S eigenvalue is increased by 0.2% on yak and 1% on sheep, and the mAP is increased by 0.3%.

Key words: YOLOv3; animal husbandry; target detection; dimension clustering

0 引言

隨著硬件設(shè)備和網(wǎng)絡(luò)技術(shù)的不斷發(fā)展,人們獲取圖像的渠道一直在增加,圖像的數(shù)據(jù)量也呈指數(shù)型增長,在一定程度上逐漸滿足著研究者們對數(shù)據(jù)的需求量。圖像本身自帶著豐富的信息,并且圖像可以直觀地將信息內(nèi)容展現(xiàn)出來,圖像作為一種傳播信息的介質(zhì)已融入到我們的日常生活。利用深度學(xué)習(xí)圖像處理技術(shù)自動從圖像中定位目標(biāo),被廣泛應(yīng)用于交通、醫(yī)學(xué)、身份認(rèn)證等領(lǐng)域,并且扮演著很重要的角色。

目前青海省的畜牧業(yè)管理模式有單戶放牧、連戶放牧、雇人放牧等多種形式,草場面積和家庭的勞動力影響著畜牧的數(shù)量和品種,也影響著畜牧業(yè)管理的便利度,因此,人們所采取的管理方法也各不相同。不管采用何種放牧形式,都需要投入大量的財(cái)力物力去管理,若要改善管理畜牧業(yè)的管理安全和管理水平就要從傳統(tǒng)的管理模式走向現(xiàn)代化管理模式,本課題通過研究和改進(jìn)圖像識別模型[1-2],來提高畜牧業(yè)動物圖像檢測能力及畜牧業(yè)管理水平。

1 卷積神經(jīng)網(wǎng)絡(luò)概述

卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是一個(gè)在計(jì)算機(jī)視覺、自然語言處理、圖像處理等領(lǐng)域得到普及應(yīng)用的一種典型的深度學(xué)習(xí)網(wǎng)絡(luò)架構(gòu),集中了感受野的思想。采用局部鏈接和權(quán)值共享降低模型的復(fù)雜度,且網(wǎng)絡(luò)易于優(yōu)化。在圖像識別中卷積神經(jīng)網(wǎng)絡(luò)的這種特性表現(xiàn)的更加明顯,它改變了傳統(tǒng)的特征提取過程,能夠自動提取圖像的特征,對輸入的信息具有高度不變性,縮放和傾斜的情況下也有一定的不變性。

2 感受野與池化

感受野(Receptive Field)在卷積神經(jīng)網(wǎng)絡(luò)中是個(gè)既基礎(chǔ)又重要的概念,感受野表示在卷積網(wǎng)絡(luò)中某一層輸出的結(jié)果中一個(gè)元素對應(yīng)輸入層上映射的區(qū)域,即特征圖(Feature Map)上的一個(gè)點(diǎn)所對應(yīng)的輸入圖上的區(qū)域,再通俗點(diǎn)講,就是例如人的視覺感受中對某個(gè)事物感受的區(qū)域大小,如圖1所示。

如果某個(gè)神經(jīng)元受到N*N的神經(jīng)元區(qū)域的影響,該神經(jīng)元的感受野就是N*N,因?yàn)樵撋窠?jīng)元反映了N*N區(qū)域的信息,特征圖中某一位置的特征向量是由前層某固定區(qū)域的輸入計(jì)算來的,那么這個(gè)區(qū)域就是這個(gè)位置的感受野。如圖1中像素點(diǎn)5是由前一層2*2區(qū)域計(jì)算而來,而2*2區(qū)域又是前一層中5*5區(qū)域計(jì)算而得來,因此該像素的感受野是5*5,在一幅圖像中感受野之外的圖像像素不會影響特征向量,感受野越大,得到的信息就越有全局性。

3 YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)

YOLOv3在Darknet-19上添加殘差網(wǎng)絡(luò)和卷積層將其擴(kuò)充為Darknet-53全卷積特征提取網(wǎng)絡(luò),殘差塊共有23個(gè)并進(jìn)行五次降采樣操作。根據(jù)卷積核的步長設(shè)定改變張量的尺寸大小,圖1-5網(wǎng)絡(luò)結(jié)構(gòu)圖中特征提取網(wǎng)絡(luò)的卷積步長為2,經(jīng)過卷積操作后將輸入圖像縮小為原來的1/2的大小。步長為2的卷機(jī)操作總共有五次,輸入圖像在經(jīng)過五次步長為2的卷積后,將特征圖縮小為原來的1/32,因此,網(wǎng)絡(luò)輸入圖像的尺寸大小應(yīng)為32的倍數(shù),如圖2所示。

圖2結(jié)構(gòu)圖中輸入圖像的大小為416*416,經(jīng)過多層卷積后會降維到52和26,13,通過特征提取網(wǎng)絡(luò)得到三個(gè)特征尺度,分別為1024*13*13、512*26*26、256*52*52。對應(yīng)上圖1-5右邊的Convolutional Set,表示特征提取器的內(nèi)部卷積結(jié)構(gòu),其中1*1卷積作用于降維操作、3*3卷積用于特征提取,多個(gè)卷積通過交叉達(dá)到特征提取器的最終目的。圖2中Concatenate表示當(dāng)前特征層的輸入來自上一層輸出的一部分,因此表明了每個(gè)特征層關(guān)聯(lián)性,每個(gè)特征層都有一個(gè)輸出即圖2中Predict表示的部分,表示預(yù)測結(jié)果。

4 k-means聚類分析

“物以類聚”,其類的含義就是具有相似特征的集合,聚類指的就是把數(shù)據(jù)的集合根據(jù)研究的需求分組成多個(gè)類,同類的對象都是彼此相似的。從YOLOv2算法開始為了選取更理想的預(yù)測框,引入K-means算法進(jìn)行聚類分析選出最理想的K個(gè)初始聚類中心,然后計(jì)算每個(gè)對象與K值的距離,按照最近原則進(jìn)行鄰近聚類,YOLOv2聚類為五個(gè)anchor值,它衡量的是覆蓋率,因此使用交并比(IOU)方法來進(jìn)行計(jì)算。建議目標(biāo)的質(zhì)量將直接影響預(yù)測框的準(zhǔn)確與否,因此YOLOv3延續(xù)聚類分析方法的基礎(chǔ)上做了相應(yīng)的改進(jìn),其做法是設(shè)置三個(gè)預(yù)測尺度,每個(gè)預(yù)測尺度分配三個(gè)錨框值,以此將原本五個(gè)anchor值增加至九個(gè)錨框值,此操作對目標(biāo)檢測的精確度提供了進(jìn)一步的提升。

下面將通過圖3和圖4對k-means與k-means++算法的思想進(jìn)行對比。

5 k-mean++聚類算法對預(yù)測框的改進(jìn)

本文以YOLOv3模型為研究基礎(chǔ)為了改進(jìn)建議目標(biāo)(object proposal)對預(yù)測框準(zhǔn)確的影響,引入k-means++聚類算法重新對數(shù)據(jù)集進(jìn)行聚類分析[3],并選擇了理想的anchor值。引發(fā)這一操作的原因是原YOLOv3的anchor值是根據(jù)COCO數(shù)據(jù)集80個(gè)類為對象而聚類得到的值,而本文使用的數(shù)據(jù)集(青藏高原畜牧業(yè)動物圖像數(shù)據(jù)集)是依據(jù)青海地區(qū)采集的圖像,與COCO數(shù)據(jù)集的目標(biāo)有所差距,因此為了得到更適用于本實(shí)驗(yàn)數(shù)據(jù)集的anchor值引發(fā)了這一系列操作。

首先引入k-means++算法,然后在經(jīng)過20多次反復(fù)操作最終選擇平均出現(xiàn)率最高的兩組數(shù)值作為本次實(shí)驗(yàn)的anchor值,其值為如表1所示,F(xiàn)(first),S(second)。

選擇兩組數(shù)據(jù)的原因是第一組數(shù)值的出現(xiàn)率為二十分之十三,第二組數(shù)值的出現(xiàn)率為二十分之七。因此分別將兩組數(shù)值都作為anchor值進(jìn)行訓(xùn)練,最終兩組數(shù)值在測試中的表現(xiàn)為F特征值在yak上提高了1%,S特征值在yak和sheep上分別提高了0.2%、1%,mAP提高了0.3%,測試結(jié)果如表2所示。

6 結(jié)束語

YOLOv3是目標(biāo)檢測的研究領(lǐng)域中有著很大突破的一種算法,不管是在檢測精度還是檢測速度方面都擁有著很大的優(yōu)勢和貢獻(xiàn),雖然現(xiàn)階段的目標(biāo)檢測技術(shù)已經(jīng)在很大程度上成熟了,但仍處于探索的階段,算法成熟了不代表沒有缺點(diǎn),因此目標(biāo)檢測算法還有許多的缺點(diǎn)和不足。本文以YOLOv3模型為核心,基于深度學(xué)習(xí)的畜牧業(yè)動物圖像識別模型作為研究基礎(chǔ)與對照目標(biāo),為了提高畜牧業(yè)動物圖像的目標(biāo)檢測精度,進(jìn)行了提升檢測精度的研究和改進(jìn)。

實(shí)驗(yàn)結(jié)果表明,本文改進(jìn)的模型對畜牧業(yè)動物圖像目標(biāo)檢測在AP和mAP評價(jià)指標(biāo)上都得到了相應(yīng)的提升。下步可考慮引入注意力機(jī)制[4-5]、簡化網(wǎng)絡(luò)[6-8]等方法,改進(jìn)算法和網(wǎng)絡(luò)結(jié)構(gòu),以提高畜牧業(yè)動物圖像的目標(biāo)檢測的精確率、速率和模型的泛化能力。

參考文獻(xiàn)(References):

[1] 譚俊.一個(gè)改進(jìn)的YOLOv3目標(biāo)識別算法研究[D].中華科技大學(xué),2018.

[2] 韓伊娜.基于深度學(xué)習(xí)的目標(biāo)檢測與識別算法研究[D].西安科技大學(xué),2020.

[3] 王灃.改進(jìn)yolov5的口罩和安全帽佩戴人工智能檢測識別算法[J].建筑與預(yù)算,2020.11:67-69

[4] 劉丹,誤亞娟,羅南超,鄭伯川.潛入注意力和特征交織模塊的Gaussian-YOLOv3目標(biāo)檢測[J].計(jì)算機(jī)應(yīng)用,2020.40(8):2225-2230

[5] 徐誠極,王曉峰,楊亞東.Atttention-YOLO:引入注意力機(jī)制的YOLO檢測算法[J].計(jì)算機(jī)工程與應(yīng)用,2019.55(6):201306

[6] 徐利鋒,黃海帆,丁維龍,范玉雷.基于改進(jìn)DenseNet的水果小目標(biāo)檢測[J].浙江大學(xué)學(xué)報(bào)(工學(xué)版),2021.55(2):377-385

[7] 張偉,莊幸濤,王雪力,陳云芳,李延超. DS-YOLO:一種部署在無人機(jī)終端上的小目標(biāo)實(shí)時(shí)檢測算法[J].南京郵電大學(xué)學(xué)報(bào)(自然科學(xué)版),2021.41(1):86-98

[8] 程葉群,王艷,范裕瑩,李寶清.基于卷積神經(jīng)網(wǎng)絡(luò)的輕量化目標(biāo)檢測網(wǎng)絡(luò)[J/OL].激光與光電子學(xué)進(jìn)展. https://kns.cnki.net/kcms/detail/31.1690.TN.20201229.1435.008.html.

猜你喜歡
目標(biāo)檢測畜牧業(yè)
映像畜牧業(yè)
畜牧業(yè)也要打好“翻身仗”
映像畜牧業(yè)
映像畜牧業(yè)
映像畜牧業(yè)
映像畜牧業(yè)
視頻中目標(biāo)檢測算法研究
軟件(2016年4期)2017-01-20 09:38:03
行為識別中的人體運(yùn)動目標(biāo)檢測方法
移動機(jī)器人圖像目標(biāo)識別
基于背景建模法的運(yùn)動目標(biāo)檢測
紫云| 上虞市| 贡嘎县| 梁平县| 宜丰县| 新宾| 且末县| 清流县| 加查县| 阿尔山市| 定结县| 广平县| 鄱阳县| 道孚县| 南投县| 大同县| 齐齐哈尔市| 长寿区| 阳山县| 牟定县| 阿坝县| 天等县| 宁津县| 资溪县| 安国市| 宣汉县| 漯河市| 客服| 孟州市| 阿鲁科尔沁旗| 孟连| 泰州市| 电白县| 屏东市| 沅江市| 抚顺县| 桂平市| 舟曲县| 富裕县| 亳州市| 鹤岗市|