国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于輕量化YOLOv4的死淘雞目標(biāo)檢測(cè)算法

2024-05-30 22:29:39漆海霞李承杰黃桂珍
關(guān)鍵詞:深度學(xué)習(xí)

漆海霞 李承杰 黃桂珍

摘要:針對(duì)目前死淘雞目標(biāo)檢測(cè)研究較少,高精度檢測(cè)算法體積大難以部署至移動(dòng)式設(shè)備等問(wèn)題,提出一種基于YOLOv4的輕量化死淘雞目標(biāo)檢測(cè)算法。采集大規(guī)模蛋雞養(yǎng)殖工廠(chǎng)籠中死淘雞圖片,建立目標(biāo)檢測(cè)數(shù)據(jù)集;在算法中引入MobileNetv3主干提取網(wǎng)絡(luò)與深度可分離卷積來(lái)降低模型體積;并在最大池化層前添加自注意力機(jī)制模塊,增強(qiáng)算法對(duì)全局語(yǔ)義信息的捕獲。在自建數(shù)據(jù)集中的試驗(yàn)結(jié)果表明,改進(jìn)算法在死淘雞目標(biāo)檢測(cè)任務(wù)中有更高的準(zhǔn)確度,其mAP值與召回率分別達(dá)到97.74%和98.15%,模型大小縮小至原算法的1/5,在GPU加速下幀數(shù)達(dá)到77幀/s,檢測(cè)速度提高1倍,能夠滿(mǎn)足嵌入式部署需求。

關(guān)鍵詞:死淘雞識(shí)別;深度學(xué)習(xí);輕量化網(wǎng)絡(luò);MobileNet;深度可分離卷積

中圖分類(lèi)號(hào):S831.4+9

文獻(xiàn)標(biāo)識(shí)碼:A

文章編號(hào):2095-5553 (2024) 05-0195-07

收稿日期:2022年9月19日? 修回日期:2023年2月27日*基金項(xiàng)目:廣州市科技項(xiàng)目(20212100026)

第一作者:漆海霞,女,1969年生,湖南株洲人,博士,副教授;研究方向?yàn)橹腔坜r(nóng)業(yè)、農(nóng)業(yè)機(jī)器人、農(nóng)業(yè)無(wú)人系統(tǒng)等。E-mail: qihaixia_scau@126.com

Dead chicken target detection algorithm based on lightweight YOLOv4

Qi Haixia1, 2, 3, Li Chengjie1, Huang Guizhen1

(1. School of Engineering, South China Agricultural University, Guangzhou, 510642, China;

2. National Precision Agriculture International Joint Research Center for Aerial Pesticide Application Technology,

Guangzhou, 510642, China; 3. Guangdong Provincial Laboratory of Lingnan Modern Agricultural Science and

Technology, Guangzhou, 510642, China)

Abstract:

Aiming at the problems that there are few studies on dead chicken target detection and the large size of the high-precision detection algorithm makes it difficult to deploy to mobile devices, a lightweight dead chicken target detection algorithm based on YOLOv4 is proposed. Firstly, the team collects images of dead chickens in cages from large-scale egg production plants to build a target detection dataset. Then, MobileNetv3 backbone extraction network with depth-separable convolution is introduced in the algorithm to reduce the model size. Finally, a self-attentive mechanism module is added before the maximum pooling layer to enhance the algorithms capture of global semantic information. Experimental results in a self-built dataset show that the improved algorithm has higher accuracy in the dead pheasant target detection task, with mAP values and recall rates of 97.74% and 98.15% respectively. The model size is reduced to 1/5 of the original algorithm, and the frame rate reaches 77 frames/s under GPU acceleration, doubling the detection speed and meeting the requirements of embedded deployments.

Keywords:

identification of dead chicken; deep learning; lightweight network; MobileNet; deep separable convolution

0 引言

隨著工業(yè)化智能化設(shè)備在養(yǎng)殖業(yè)上的應(yīng)用,我國(guó)的畜禽養(yǎng)殖企業(yè)正在向智能化、無(wú)人化方向高速發(fā)展,其中養(yǎng)雞業(yè)的規(guī)模化、產(chǎn)業(yè)化程度正在與日俱增[1]。在大型雞舍的規(guī)?;B(yǎng)殖中氨氣、溫度、濕度、光照強(qiáng)度等外在因素對(duì)雞的生長(zhǎng)健康與免疫功能等產(chǎn)生重大影響,同時(shí)可能造成雞群的行為變化和發(fā)育異常,甚至產(chǎn)生傳染性疾?。?]。雞是恒溫動(dòng)物,對(duì)生活環(huán)境穩(wěn)定性要求高,現(xiàn)代化農(nóng)業(yè)使得高產(chǎn)指標(biāo)成為雞遺傳因素的關(guān)鍵,這使得雞群對(duì)環(huán)境要求變得更加苛刻,因此雞舍中每日都會(huì)大量死淘雞出現(xiàn)[3, 4]。為降低雞群的死亡率,對(duì)雞舍的環(huán)境控制與雞群的福利化養(yǎng)殖成為研究重點(diǎn),多種防控技術(shù)整合、多功能便攜式監(jiān)測(cè)設(shè)施的研發(fā),有利于促進(jìn)智能化雞舍的發(fā)展[5]。

隨著深度學(xué)習(xí)技術(shù)在近幾年的快速發(fā)展,基于深度學(xué)習(xí)的圖像識(shí)別技術(shù)在蔬果農(nóng)業(yè)、畜禽養(yǎng)殖領(lǐng)域取得了較大的突破[6-9]。目前對(duì)豬、牛等大型畜禽動(dòng)物的研究較多,通常是通過(guò)圖像識(shí)別技術(shù)對(duì)豬、牛等的健康狀態(tài)與生活行為進(jìn)行研究[10-13]。任曉惠等[10]通過(guò)支持向量機(jī)對(duì)奶牛的行為方式進(jìn)行分類(lèi),楊秋妹等[12]使用機(jī)器學(xué)習(xí)算法對(duì)豬只的飲水行為進(jìn)行識(shí)別,余秋冬等[14]采用輕量化的YOLOv4算法對(duì)高遮擋、高密度豬群進(jìn)行識(shí)別,識(shí)別率與召回率高達(dá)96.85%和91.75%。目前對(duì)于蛋雞的研究較少,已有的研究主要集中在對(duì)蛋雞生活行為的識(shí)別,勞鳳丹等[15, 16]應(yīng)用機(jī)器視覺(jué)對(duì)蛋雞的采食、躺、站、坐等行為進(jìn)行識(shí)別,為了進(jìn)一步研究多蛋雞的群體行為(分布指數(shù)、水平活躍等),該團(tuán)隊(duì)繼續(xù)基于深度圖像對(duì)雞的運(yùn)動(dòng)、飲水等動(dòng)作進(jìn)行研究,識(shí)別率能達(dá)到90%左右。趙守耀等[17]基于輪廓特征對(duì)單只蛋雞行為進(jìn)行研究,首先獲取蛋雞俯視圖獲得輪廓的幾何特征,然后用極限學(xué)習(xí)機(jī)(ELM)對(duì)四種特征進(jìn)行訓(xùn)練,最后結(jié)合最佳的特征組合對(duì)蛋雞進(jìn)行識(shí)別,對(duì)采食、躺臥等特征識(shí)別率達(dá)到91.5%。李娜等[18]基于深度學(xué)習(xí)對(duì)雞的采食、站立、啄羽等行為做進(jìn)一步研究。

蛋雞養(yǎng)殖密度高、數(shù)量大,一個(gè)規(guī)模在五萬(wàn)只雞左右的雞舍每天能夠產(chǎn)生10~20只死淘雞,由于雞舍的恒溫溫度較高,蛋雞死亡將產(chǎn)生大量的細(xì)菌、病毒和有害氣體,若蛋雞因?yàn)榍萘鞲械燃膊∷劳龆鴽](méi)得到及時(shí)處理,更可能導(dǎo)致大規(guī)模的感染和嚴(yán)重的經(jīng)濟(jì)損失[19]。大部分規(guī)模化蛋雞工廠(chǎng)采用飼養(yǎng)員巡檢的方式清理死淘雞,大型雞舍通常有四層雞籠,飼養(yǎng)員巡檢時(shí)需要借助推車(chē),這種工作方式效率低下,不但給飼養(yǎng)員增加了繁重的工作量與安全風(fēng)險(xiǎn),而且人為巡檢方式漏檢率也較高,因此在雞舍中進(jìn)行智能巡檢、實(shí)時(shí)檢測(cè)變得十分重要[20]。

為解決規(guī)模雞養(yǎng)殖中的籠中死淘雞識(shí)別問(wèn)題,本文基于輕量化算法應(yīng)用,以YOLOv4算法為主要算法,采用MobileNetv3輕量化網(wǎng)絡(luò)[21]替代其主干網(wǎng)絡(luò),同時(shí)加入自注意力機(jī)制[22]來(lái)提升對(duì)全局語(yǔ)義信息的識(shí)別,將算法頸部標(biāo)準(zhǔn)卷積替換成深度可分離卷積,在保證識(shí)別精度的同時(shí),提升檢測(cè)速度、降低模型大小,為在嵌入式的移動(dòng)設(shè)備上應(yīng)用部署提供有利的條件。

1 材料與方法

1.1 數(shù)據(jù)集采集

本試驗(yàn)從模型的生產(chǎn)應(yīng)用角度展開(kāi)研究,算法所訓(xùn)練的數(shù)據(jù)集均為實(shí)際生產(chǎn)環(huán)境下采集。數(shù)據(jù)集來(lái)自廣東廣生元公司的蛋雞養(yǎng)殖場(chǎng),該養(yǎng)殖場(chǎng)現(xiàn)有投入生產(chǎn)的雞舍26個(gè),其中包含直立型4層、直立型8層與A字型3層三種雞舍,數(shù)據(jù)集選取23、25、26三個(gè)直立型4層雞舍,于2022年5月6—9日進(jìn)行活雞與死淘雞的數(shù)據(jù)集拍攝。在23號(hào)雞舍拍攝974張雞齡500天左右的大午金鳳品種蛋雞活雞圖;在25號(hào)雞舍拍攝1 105張雞齡800天左右換羽期的京粉1號(hào)品種蛋雞活雞圖;在26號(hào)雞舍拍攝703張雞齡500天左右的羅曼粉品種蛋雞活雞圖。為收集死淘雞圖,本團(tuán)隊(duì)于每日早上7:00與下午14:00對(duì)三個(gè)雞舍進(jìn)行巡檢篩查,在巡檢過(guò)程中共拍攝籠中死雞519張。根據(jù)光線(xiàn)條件與訓(xùn)練需求后篩選出400張清晰可用的死淘雞圖片與2 750張活雞圖片。

1.2 數(shù)據(jù)集制作

為保證訓(xùn)練所需數(shù)據(jù)集更為完整,首先對(duì)采集的數(shù)據(jù)圖片進(jìn)行水平翻轉(zhuǎn)、旋轉(zhuǎn)、添加噪聲、圖像直方均衡等方式進(jìn)行數(shù)據(jù)擴(kuò)充,具體標(biāo)注比例如表1所示,共擴(kuò)充為活雞圖5 500張,死雞圖2 000張,對(duì)數(shù)據(jù)集按8∶1∶1的比例分為訓(xùn)練集、驗(yàn)證集與測(cè)試集。本試驗(yàn)訓(xùn)練的數(shù)據(jù)集選用Pascal VOC格式,使用LabelImg圖片標(biāo)注工具對(duì)數(shù)據(jù)集圖片中的活雞與死淘雞進(jìn)行手動(dòng)標(biāo)注,標(biāo)注的區(qū)域?yàn)閱沃浑u的最小外接矩形,標(biāo)簽名分別為chickens與dead chickens,標(biāo)注后得到.xml格式文件用于后續(xù)模型訓(xùn)練。

2 輕量化死淘雞目標(biāo)檢測(cè)算法

2.1 YOLOv4目標(biāo)檢測(cè)算法

YOLOv4算法是2020年Alexey Bochkovskiy團(tuán)隊(duì)發(fā)表在CVPR會(huì)議上的一種目標(biāo)檢測(cè)算法,該算法在檢測(cè)精度與檢測(cè)速度上都比前代算法有一定提升,其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

該算法為one-stage單階段算法,共包含主干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)、檢測(cè)頭三個(gè)部分。YOLOv4算法是在YOLOv3算法的基礎(chǔ)上升級(jí)而來(lái)的,主要的修改部分有將主干特征提取網(wǎng)絡(luò)由DarkNet53改為CSPDarkNet53,主干中的激活函數(shù)由Leaky relu替換為Mish激活函數(shù),同時(shí)將YOLOv3中的FPN特征金字塔改為了PANet網(wǎng)絡(luò),最后在訓(xùn)練方式上引入Mosaic數(shù)據(jù)增強(qiáng)方式、Label smoothing平滑操作與CIOU損失函數(shù)等技巧來(lái)提高模型的整體識(shí)別率。

2.2 輕量化YOLOv4死淘雞檢測(cè)算法

改進(jìn)后的算法結(jié)構(gòu)如圖2所示。主干網(wǎng)絡(luò)的具體參數(shù)如表2所示。

YOLOv4算法有較好的識(shí)別精度與識(shí)別速度,但是仍有缺陷,特別是主干中的CSPDarkNet53模塊將大量的殘差結(jié)構(gòu)進(jìn)行堆疊,這種結(jié)構(gòu)導(dǎo)致模型訓(xùn)練速度慢、模型體積大和難以部署到移動(dòng)式設(shè)備中等問(wèn)題,這限制了高精度算法在畜禽養(yǎng)殖業(yè)的應(yīng)用。為解決移動(dòng)設(shè)備的部署問(wèn)題,拓展深度學(xué)習(xí)算法在畜禽養(yǎng)殖業(yè)的使用,本文基于YOLOv4算法設(shè)計(jì)了輕量化的死淘雞檢測(cè)算法。改進(jìn)算法使用MobileNetV3的主干特征提取網(wǎng)絡(luò)替代原有的CSPDarkNet53模塊,然后在池化層之前加入自注意力機(jī)制模塊以增加算法對(duì)全局信息的提取能力,最后將算法頸部的大部分普通卷積替換成深度可分離卷積,以降低算法體積、減少參數(shù)量。

MobileNetV3特征提取網(wǎng)絡(luò)是Google團(tuán)隊(duì)基于前兩代版本于2019年提出的新一代特征提取網(wǎng)絡(luò),它很好地繼承了V1、V2版本的優(yōu)點(diǎn),保留了深度可分離卷積結(jié)構(gòu)與逆殘差結(jié)構(gòu),整體速度相比V2版本提高了25%。本文選取精度更高的MobileNetV3-large主干特征提取網(wǎng)絡(luò)替代CSPDarkNet53主干網(wǎng)絡(luò)(表2),其中主要包含7個(gè)Bneck_A模塊與8個(gè)Bneck_B模塊。

2.2.1 Bneck模塊

本文選取的MobileNetV3特征提取網(wǎng)絡(luò)的主要組成部分是Bneck結(jié)構(gòu),Bneck分為無(wú)輕量注意力結(jié)構(gòu)的Bneck_A和加入輕量注意力模塊的Bneck_B兩種結(jié)構(gòu),該模塊首先通過(guò)一個(gè)1×1卷積與一個(gè)非線(xiàn)性激活函數(shù)進(jìn)行升維,然后通過(guò)一個(gè)3×3的深度可分離卷積與一個(gè)非線(xiàn)性激活函數(shù),在Bneck_B結(jié)構(gòu)中還加入了輕量級(jí)注意力模型SE模塊,SE模塊的作用主要是對(duì)之前特征矩陣的每個(gè)通道進(jìn)行權(quán)重分析,然后給更重要的通道賦予高權(quán)重以增加算法精準(zhǔn)度,最后再通過(guò)一個(gè)1×1卷積降維,模塊結(jié)構(gòu)如圖3所示。

2.2.2 自注意力機(jī)制模塊

在雞籠死淘雞目標(biāo)檢測(cè)任務(wù)中,環(huán)境的全局語(yǔ)義信息非常重要,不僅要判斷死淘雞的所在區(qū)域,同時(shí)死淘雞附近的信息也很關(guān)鍵,只有掌握好圖片的全局信息才能更準(zhǔn)確的定位死淘雞所在區(qū)域。將自注意力機(jī)制加入神經(jīng)網(wǎng)絡(luò)中可以根據(jù)圖片區(qū)域重要性對(duì)其分配相應(yīng)權(quán)重,自注意力機(jī)制擁有良好的全局感受野,可以根據(jù)上下文信息捕獲更多的全局語(yǔ)義信息,給信息給予不同的權(quán)重值能夠使特征信息與目標(biāo)有更強(qiáng)的關(guān)聯(lián)性,這可以讓整體網(wǎng)絡(luò)訓(xùn)練時(shí)更加聚焦在關(guān)鍵信息上。

自注意力機(jī)制由問(wèn)題(Q)、鍵(K)、值(V)三個(gè)基本元素組成,通過(guò)計(jì)算Q、K之間的相似度可以得到語(yǔ)義信息權(quán)重值。通常采用縮放點(diǎn)積函數(shù)計(jì)算Q、K的相似度,緊接著將縮放后的相似度與Softmax歸一化后可以得到語(yǔ)義權(quán)重值,最后將每個(gè)語(yǔ)義權(quán)重值加權(quán)求和即可得到自注意力特征,具體如式(1)所示。

P1、P2分別代表活雞與死淘雞的識(shí)別率,R1、R2分別代表活雞與死淘雞的召回率,F(xiàn)11、F12分別代表活雞與死雞的F1得分,mAP為活雞與死淘雞的平均識(shí)別率。

由表3可知,本文算法對(duì)比YOLOv4算法死淘雞準(zhǔn)確率提高0.22%,召回率提高3.90%,F(xiàn)1值提高0.02,mAP值提高0.98%;同時(shí)改進(jìn)后的算法將主干識(shí)別網(wǎng)絡(luò)替換成MobileNetv3網(wǎng)絡(luò),模型大小為54.1 M減少為YOLOv4模型大小的1/5,并且FPS提升到77.17幀/s;與YOLOv4-tiny相比,本文算法的檢測(cè)速度不如YOLOv4-tiny快,但是在mAP、召回率、F1值上有明顯優(yōu)勢(shì),分別提升1.84%、39.82%、0.16。在電腦端GPU加速下,改進(jìn)算法識(shí)別一張圖片的速度為0.013 s,在僅有CPU加速時(shí)識(shí)別速度為0.08 s/張,均可滿(mǎn)足實(shí)時(shí)識(shí)別需求。

為證明本文對(duì)YOLOv4算法改進(jìn)是有效的,本文進(jìn)行消融試驗(yàn)來(lái)與原算法進(jìn)行比較,對(duì)比結(jié)果如表4所示。

當(dāng)僅將主干特征提取網(wǎng)絡(luò)替換成MobileNetv3時(shí),模型大小減少103 M,mAP減少3.88%,檢測(cè)速度提升1倍,證明MobileNetv3網(wǎng)絡(luò)對(duì)體積縮小的有效性,同時(shí)說(shuō)明MobileNetv3對(duì)算法準(zhǔn)確率有比較大的影響。在此基礎(chǔ)將算法中的普通卷積替換成深度可分離卷積后,模型體積再次減少104 M,mAP降低0.52%,F(xiàn)PS增大3.82幀/s,說(shuō)明深度可分離卷積不僅能進(jìn)一步減小模型體積,同時(shí)對(duì)檢測(cè)速度與準(zhǔn)確率影響不大。最后在此基礎(chǔ)上加入自注意力機(jī)制模塊,模型稍微增大5 M,檢測(cè)速度保持穩(wěn)定,mAP提高5.38%,證明了自注意力機(jī)制模塊能夠增強(qiáng)特征的提取能力。

為更加直觀地體現(xiàn)算法的改進(jìn)效果,本文對(duì)比分析了幾種算法在死淘雞目標(biāo)檢測(cè)測(cè)試集上的測(cè)試結(jié)果,隨機(jī)抽取了兩張結(jié)果圖片如圖7所示。

從圖7可以看出,YOLOv4-tiny和EfficientDet-D3算法在多遮擋情況下的死淘雞識(shí)別存在明顯不足。Faster R-CNN檢測(cè)的整體表現(xiàn)不錯(cuò),但是雙階段檢測(cè)算法識(shí)別時(shí)間長(zhǎng)、模型大,無(wú)法應(yīng)用于嵌入式設(shè)備。改進(jìn)算法與YOLOv3、YOLOv4算法相比在遮擋情況下有著更優(yōu)秀的檢測(cè)結(jié)果,同時(shí)在死淘雞識(shí)別上本文算法有更高地準(zhǔn)確度。

4 結(jié)論

1)? 本文將輕量化MobileNetv3網(wǎng)絡(luò)替代YOLOv4算法的主干特征提取網(wǎng)絡(luò),同時(shí)在最大池化層之前引入自注意力機(jī)制模塊增加對(duì)圖片全局信息的把握,最后將算法頸部的大部分標(biāo)準(zhǔn)卷積替換成深度可分離卷積,進(jìn)一步減少參數(shù)量降低模型大小,最后將改進(jìn)的輕量化YOLOv4目標(biāo)檢測(cè)算法應(yīng)用于籠中死淘雞目標(biāo)檢測(cè)。

2)? 改進(jìn)后算法的模型大小約為YOLOv4算法的1/5左右,在保證高識(shí)別準(zhǔn)確率與召回率的同時(shí)將目標(biāo)檢測(cè)時(shí)間降低到13 ms左右,檢測(cè)速度提升到Y(jié)OLOv4算法的一倍。算法的輕量化使其可以更好地部署到移動(dòng)式設(shè)備上。

3)? 根據(jù)實(shí)際生產(chǎn)環(huán)境與條件,本文通過(guò)現(xiàn)場(chǎng)采集的方式制作死淘雞目標(biāo)檢測(cè)數(shù)據(jù)集,并基于該數(shù)據(jù)集對(duì)輕量化死淘雞檢測(cè)算法在內(nèi)的6種算法進(jìn)行對(duì)比試驗(yàn)。對(duì)比結(jié)果表明:本文的輕量化死淘雞檢測(cè)算法在檢測(cè)速度、檢測(cè)精度上有較高地綜合性能,準(zhǔn)確率達(dá)到95.57%、召回率達(dá)到98.15%、調(diào)和平均值達(dá)到0.97、平均精度達(dá)到97.74%,同時(shí)模型大小僅為54.1 M,GPU加速下圖片檢測(cè)速度能達(dá)到77幀/s。

4)? 本文算法擁有高精度與高檢測(cè)速度,模型參數(shù)量小,算法的精度與速度滿(mǎn)足實(shí)際生產(chǎn)需要,能夠更好地應(yīng)用于移動(dòng)式檢測(cè)場(chǎng)景。

參 考 文 獻(xiàn)

[1]

李保明, 王陽(yáng), 鄭煒超, 等. 畜禽養(yǎng)殖智能裝備與信息化技術(shù)研究進(jìn)展[J]. 華南農(nóng)業(yè)大學(xué)學(xué)報(bào), 2021, 42(6): 18-26.

Li Baoming, Wang Yang, Zheng Weichao, et al. Research progress on intelligent equipment and information technology for livestock and poultry breeding [J]. Journal of South China Agricultural University, 2021, 42(6): 18-26.

[2] 龍長(zhǎng)江, 譚鶴群, 朱明, 等. 畜禽舍移動(dòng)式智能監(jiān)測(cè)平臺(tái)研制[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2021, 37(7): 68-75.

Long Changjiang, Tan Hequn, Zhu Ming, et al. Development of mobile intelligent monitoring platform for livestock and poultry house [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(7): 68-75.

[3] Kristensen H H, Cornou C. Automatic detection of deviations in activity levels in groups of broiler chickens: A pilot study [J]. Biosystems Engineering, 2011, 109(4): 369-376.

[4] 李保明, 王陽(yáng), 鄭煒超, 等. 中國(guó)規(guī)?;B(yǎng)雞環(huán)境控制關(guān)鍵技術(shù)與設(shè)施設(shè)備研究進(jìn)展[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2020, 36(16): 212-221.

Li Baoming, Wang Yang, Zheng Weichao, et al.Research progress in environmental control key technologies, facilities and equipment for laying hen production in China [J]. Transactions of the Chinese Society of Agricultural Engineering, 2020, 36(16): 212-221.

[5] 李保明, 王陽(yáng), 鄭煒超. 我國(guó)規(guī)?;B(yǎng)雞環(huán)境控制技術(shù)的最新進(jìn)展[J]. 中國(guó)家禽, 2019, 41(9): 1-7.

Li Baoming, Wang Yang, Zheng Weichao.Advances in environment control technology of poultry in China [J]. China Poultry, 2019, 41(9): 1-7.

[6] Hla B, Cla B, Gla B, et al. A real-time table grape detection method based on improved YOLOv4-tiny network in complex background [J]. Biosystems Engineering, 2021, 212(6): 347-359.

[7] Ahamed T. Real time pear fruit detection and counting using YOLOv4 models and deep sort [J]. Sensors, 2021, 21(14): 4803.

[8] 東輝, 陳鑫凱, 孫浩, 等. 基于改進(jìn)YOLOv4和圖像處理的蔬菜田雜草檢測(cè)[J]. 圖學(xué)學(xué)報(bào), 2022, 43(4): 559-569.

Dong Hui, Chen Xinkai, Sun Hao, et al. Weed detection in vegetable field based on improved YOLOv4 and image processing [J]. Journal of Graphology, 2022, 43(4): 559-569.

[9] Li D, Zhang K F, Li Z B, et al. A spatiotemporal convolutional network for multi-behavior recognition of pigs [J]. Sensors, 2020, 20(8): 2381.

[10] 任曉惠, 劉剛, 張淼, 等. 基于支持向量機(jī)分類(lèi)模型的奶牛行為識(shí)別方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2019, 50(S1): 290-296.

Ren Xiaohui, Liu Gang, Zhang Miao, et al.Dairy cattles behavior recognition method based on support vector machine classification model [J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(S1): 290-296.

[11] Lao F, Brown-Brandl T, Stinn J P, et al. Automatic recognition of lactating sow behaviors through depth image processing [J]. Computers and Electronics in Agriculture, 2016, 125: 56-62.

[12] 楊秋妹, 肖德琴, 張根興. 豬只飲水行為機(jī)器視覺(jué)自動(dòng)識(shí)別[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2018, 49(6): 232-238.

Yang Qiumei, Xiao Deqin, Zhang Genxing.Automatic pig drinking behavior recognition with machine vision [J]. Transactions of the Chinese Society for Agricultural Machinery, 2018, 49(6): 232-238.

[13] Sa J, Choi Y, Lee H, et al. Fast pig detection with a top-view camera under various illumination conditions [J]. Symmetry, 2019, 11(2): 266.

[14] 余秋冬, 楊明, 袁紅, 等. 基于輕量化YOLOv4的生豬目標(biāo)檢測(cè)算法[J]. 中國(guó)農(nóng)業(yè)大學(xué)學(xué)報(bào), 2022, 27(1): 183-192.

Yu Qiudong, Yang Ming, Yuan Hong, et al. Pig object detection algorithm based on lightweight YOLOv4 [J]. Journal of China Agricultural University, 2022, 27(1): 183-192.

[15] 勞鳳丹, 杜曉冬, 滕光輝. 基于深度圖像的蛋雞行為識(shí)別方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2017, 48(1): 155-162.

Lao Fengdan, Du Xiaodong, Teng Guanghui.Automatic recognition method of laying hen behaviors based on depth image processing [J]. Transactions of the Chinese Society for Agricultural Machinery, 2017, 48(1): 155-162.

[16] 勞鳳丹, 滕光輝, 李軍, 等. 機(jī)器視覺(jué)識(shí)別單只蛋雞行為的方法[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2012, 28(24): 157-163.

Lao Fengdan, Teng Guanghui, Li Jun, et al.Behavior recognition method for individual laying hen based on computer vision [J]. Transactions of the Chinese Society of Agricultural Engineering, 2012, 28(24): 157-163.

[17] 趙守耀, 陸輝山, 王福杰, 等. 基于輪廓特征的單只蛋雞行為識(shí)別方法[J]. 中國(guó)農(nóng)機(jī)化學(xué)報(bào), 2022, 43(2): 143-147, 181.

Zhao Shouyao, Lu Huishan, Wang Fujie, et al. Recognition method of single layer behavior based on contour feature [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(2): 143-147, 181.

[18] 李娜, 任昊宇, 任振輝. 基于深度學(xué)習(xí)的群養(yǎng)雞只行為監(jiān)測(cè)方法研究[J]. 河北農(nóng)業(yè)大學(xué)學(xué)報(bào), 2021, 44(2): 117-121.

Li Na, Ren Haoyu, Ren Zhenhui. Research of behavior monitoring method of flock hens based on deep learning [J]. Journal of Hebei Agricultural University, 2021, 44(2): 117-121.

[19] 瞿子淇. 無(wú)人養(yǎng)雞場(chǎng)死雞檢測(cè)方法研究[D]. 長(zhǎng)春: 吉林大學(xué), 2019.

Qu Ziqi.Study on detection method of dead chicken in unmanned chicken farm [D]. Changchun: Jilin University, 2019.

[20] 胡子康. 死雞撿拾機(jī)器人欠驅(qū)動(dòng)末端執(zhí)行器的研究[D]. 保定: 河北農(nóng)業(yè)大學(xué), 2021.

Hu Zikang. Research on underactuated end-effector of dead chicken picking robot [D]. Baoding: Hebei Agricultural University, 2021.

[21] Howard A, Sandler M, Chu G, et al. Searching for MobileNetV3 [C]. 2019 IEEE/CVF International Conference on Computer Vision (ICCV). IEEE, 2020.

[22] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need [C]. 2017 Advances in Neural Information Processing Systems. NIPS, 2017.

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開(kāi)放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
基于自動(dòng)智能分類(lèi)器的圖書(shū)館亂架圖書(shū)檢測(cè)
搭建深度學(xué)習(xí)的三級(jí)階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
张北县| 三门峡市| 皋兰县| 友谊县| 富裕县| 都匀市| 霍邱县| 宝鸡市| 龙游县| 申扎县| 浦江县| 浮梁县| 田阳县| 息烽县| 斗六市| 中卫市| 汽车| 余姚市| 崇阳县| 翁源县| 石狮市| 吴江市| 报价| 格尔木市| 永靖县| 新兴县| 巴林右旗| 湟中县| 连州市| 丰镇市| 潮安县| 万全县| 上犹县| 汉阴县| 乌拉特后旗| 延边| 张家口市| 增城市| 腾冲县| 马龙县| 广汉市|