国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度學(xué)習(xí)的水下生物目標(biāo)檢測方法綜述

2023-12-17 13:40:20于雨郭保琪初士博李恒楊鵬儒
山東科學(xué) 2023年6期
關(guān)鍵詞:目標(biāo)檢測深度學(xué)習(xí)

于雨 郭保琪 初士博 李恒 楊鵬儒

摘要:水下生物目標(biāo)識別對水產(chǎn)養(yǎng)殖、瀕危生物保護、生態(tài)環(huán)境監(jiān)測具有重要意義。綜合分析了當(dāng)前各種深度學(xué)習(xí)方法在水下生物目標(biāo)檢測中的應(yīng)用情況。首先介紹了常用的水下生物目標(biāo)檢測數(shù)據(jù)集;然后,按照兩階段和單階段對當(dāng)前常用目標(biāo)檢測方法進行分類、分析和總結(jié),詳細(xì)闡述了各類檢測方法的實際應(yīng)用狀況,并重點對上述各類檢測方法優(yōu)化策略的優(yōu)勢與不足進行了分析和總結(jié);最后,對基于深度學(xué)習(xí)的水下生物目標(biāo)檢測提出今后的研究重點,為該領(lǐng)域的研究人員提供了資料性的參考依據(jù)。

關(guān)鍵詞:深度學(xué)習(xí);目標(biāo)檢測;水下生物目標(biāo)檢測

中圖分類號:TP181?? 文獻標(biāo)志碼:A? ?文章編號:1002-4026(2023)06-0001-07

Survey of underwater biological object detection methods based on deep learning

YU Yu1a,1b , GUO Baoqi2, CHU Shibo1a,1b, LI Heng1a,1b,YANG Pengru1a,1b

(1.a. Institute of Oceanographic Instrumentation;b. National Marine Monitoring Equipment Engineerin

g Technology

Research Center ,Qilu University of Technology(Shandong Academy of Sciences),Qingdao 266100,China;

2. Qingdao Haida Xinxing Software Consulting Co., Ltd., Qingdao 266114, China)

Abstract∶Underwater biological object detection is crucial for aquaculture, endangered species protection,and ecological environment monitoring. This study comprehensively analyzes the applications of various deep learning methods in underwater biological object detection. The commonly used underwater biological object detection datasets are introduced. The state-of-the-art underwater biological object detection methods are classified, analyzed, and summarized by two stages and one stage. The actual applications of various detection methods are thoroughly described, and the advantages and disadvantages of their optimization strategies are analyzed and summarized. Future works in the field of underwater biological object detection based on deep learning are presented. This study provides a reference basis for researchers in the field of underwater biological object detection.

Key words∶deep learning;object detection;underwater biological object detection

水下生物目標(biāo)檢測對于水產(chǎn)養(yǎng)殖、瀕危生物保護、生態(tài)環(huán)境監(jiān)測等有著重要的意義。傳統(tǒng)的目標(biāo)檢測算法在準(zhǔn)確度、實時性等方面難以滿足水下復(fù)雜場景的應(yīng)用需求。隨著計算機視覺領(lǐng)域智能化的發(fā)展,基于深度學(xué)習(xí)的目標(biāo)檢測算法取得了突破性的進展,相繼出現(xiàn)了精度高但速度較慢的兩階段目標(biāo)檢測方法和實時性好但精度略低的單階段目標(biāo)檢測方法,并在水下生物目標(biāo)檢測領(lǐng)域得到了廣泛的應(yīng)用,成為該領(lǐng)域的研究熱點之一。

林森等[1]從水下圖像預(yù)處理、目標(biāo)檢測識別、跟蹤關(guān)鍵技術(shù)等多個視覺任務(wù)的角度對水下光學(xué)圖像中目標(biāo)探測關(guān)鍵技術(shù)進行了宏觀綜述。Fayaz等[2]按照R-CNN(region-based convolutional neural network)系列、YOLO(you only look once)系列及其他系列對水下目標(biāo)識別的相關(guān)方法進行了綜述及實驗驗證。檀盼龍等[3]針對基于聲吶圖像的水下目標(biāo)識別問題,論述了圖像去噪、圖像分割以及水下目標(biāo)識別等方面的主要進展。于紅等[4]系統(tǒng)闡述了數(shù)據(jù)集構(gòu)建、數(shù)據(jù)預(yù)處理、水產(chǎn)動物目標(biāo)識別、水產(chǎn)動物目標(biāo)跟蹤等技術(shù)研究進展,并重點對其在海洋漁業(yè)領(lǐng)域的應(yīng)用現(xiàn)狀進行了詳細(xì)的描述。董金耐等[5]對水下光學(xué)目標(biāo)檢測圖像數(shù)據(jù)集進行了總結(jié)與分析,以Faster RCNN和YOLO-v3為基礎(chǔ)對兩種典型的提高目標(biāo)檢測性能的方法進行了實驗驗證。然而,針對基于深度學(xué)習(xí)的水下生物目標(biāo)檢測方法的綜述十分匱乏,不利于該領(lǐng)域的科學(xué)研究及工程應(yīng)用。基于此,本文對基于深度學(xué)習(xí)的水下生物目標(biāo)檢測方法進行歸納和總結(jié),梳理了基于深度學(xué)習(xí)的水下生物目標(biāo)檢測方法的優(yōu)化策略,并對比分析了優(yōu)化策略的優(yōu)勢與不足,最后對研究趨勢進行了展望,并提出了今后的研究方向和重點。

1 數(shù)據(jù)集

數(shù)據(jù)是基于深度學(xué)習(xí)目標(biāo)檢測的基礎(chǔ),ImageNet LSVRC(large scale visual recognition challenge)、PASCAL VOC(pascal visual object classes)、MS COCO(Microsoft common objects in context)等大規(guī)模開源數(shù)據(jù)庫的出現(xiàn)極大推動了相關(guān)算法的發(fā)展,并成為領(lǐng)域內(nèi)相關(guān)算法性能測試的基準(zhǔn)。在水下生物目標(biāo)識別領(lǐng)域,大多數(shù)研究都是根據(jù)研究任務(wù)構(gòu)建的小型數(shù)據(jù)集,缺乏大規(guī)模、高質(zhì)量標(biāo)注的開源數(shù)據(jù)集,一定程度上制約了相關(guān)技術(shù)的發(fā)展。學(xué)者們在構(gòu)建開源數(shù)據(jù)集方面進行了一系列的嘗試,如表1所示。相關(guān)數(shù)據(jù)集的圖例如圖1所示。

2 基于兩階段的水下生物目標(biāo)檢測方法

兩階段的目標(biāo)檢測方法將檢測問題劃分為兩個階段:首先產(chǎn)生候選區(qū)域,其次進行分類與預(yù)測位置的微調(diào)。這種檢測方法在檢測準(zhǔn)確率和定位精度上優(yōu)于單階段的目標(biāo)檢測方法。Girshick等[14]2013年提出了R-CNN算法,開創(chuàng)性地使用卷積神經(jīng)網(wǎng)絡(luò)實現(xiàn)目標(biāo)檢測任務(wù),此算法也是兩階段目標(biāo)檢測算法的開篇之作。Girshick等[15]、Ren等[16]在其基礎(chǔ)之上相繼提出了Fast R-CNN、Faster R-CNN算法,形成了R-CNN系列算法。當(dāng)前,基于兩階段的水下生物目標(biāo)檢測仍屬于新興領(lǐng)域,大多數(shù)研究者仍聚焦于對Faster R-CNN等經(jīng)典算法的改進。

袁紅春等[17]提出了一種基于Faster R-CNN二次遷移學(xué)習(xí)和帶色彩恢復(fù)的多尺度視網(wǎng)膜增強算法的方法。首先通過ImageNet預(yù)訓(xùn)練模型對Open Images高清魚類數(shù)據(jù)集進行一次遷移學(xué)習(xí)初步訓(xùn)練網(wǎng)絡(luò),然后固定檢測模型低3層的卷積網(wǎng)絡(luò)參數(shù),再用水下拍攝的小規(guī)模魚類數(shù)據(jù)集進行二次遷移學(xué)習(xí)微調(diào)網(wǎng)絡(luò),最后通過MSRCR(multi-scale retinex with color restoration)算法對水下拍攝的圖像進行處理以增強其與高清魚類圖像的相似性,解決水下圖像降質(zhì)問題。結(jié)果表明,該方法利用小規(guī)模水下拍攝魚類數(shù)據(jù)集訓(xùn)練出的網(wǎng)絡(luò)查準(zhǔn)率可達到98.12%。

Liu等[18]在Faster R-CNN算法的基礎(chǔ)上進行了多處改進。首先將骨干網(wǎng)絡(luò)替換為Transformer結(jié)構(gòu),其次添加了路徑聚合網(wǎng)絡(luò),使得深、淺層特征圖更好地疊加和融合,然后使用在線困難樣本挖掘技術(shù)平衡難易樣本數(shù)量,最終使用感興趣區(qū)域?qū)R替換感興趣區(qū)域池化,增加定位精度。相關(guān)改進在URPC2018數(shù)據(jù)集上進行了實驗驗證,平均準(zhǔn)確率達到80.54%。

Lin等[19]提出了一種適用于Faster R-CNN系列算法的數(shù)據(jù)增強方法RoIMix。RoIMix創(chuàng)新性地將多張圖片中提取的感興趣區(qū)域進行融合,以模擬水下生物的重疊和遮擋,從而使得模型能夠更好地檢測密集物體。相關(guān)方法在URPC2018數(shù)據(jù)集上進行了實驗驗證,平均準(zhǔn)確率在Faster R-CNN算法73.74%的基礎(chǔ)上提升到74.92%。此外,相關(guān)方法也在PASCAL VOC(07+12)數(shù)據(jù)集上進行了訓(xùn)練,在VOC 2007測試集上進行了測試,平均準(zhǔn)確率在Faster R-CNN算法80.0%的基礎(chǔ)上提升到80.8%。與URPC2018數(shù)據(jù)集上的實驗結(jié)果相比,相關(guān)方法在PASCAL VOC(07+12)數(shù)據(jù)集上的效果并不明顯。顯然,RoIMix更適用于具備重疊、遮擋和模糊特征的URPC2018數(shù)據(jù)集。

Shi等[20]在Faster R-CNN算法的基礎(chǔ)上進行了多處改進,將骨干網(wǎng)絡(luò)從VGG替換為ResNet(residual neural network),引入Bi-FPN(feature pyramid network)結(jié)構(gòu)以增強網(wǎng)絡(luò)模型的特征提取能力和多尺度特征融合能力,使用EIoU(efficient intersection over union)替換原有的IoU(Intersection over Union),將K-means++聚類算法應(yīng)用于錨框生成,替代原有的默認(rèn)錨框。相關(guān)改進在URPC2018數(shù)據(jù)集上進行了實驗驗證,平均準(zhǔn)確率達到88.94%,優(yōu)于Faster-RCNN算法的80.68%及YOLO-v4算法的71.36%。

上述方法在Faster R-CNN模型基礎(chǔ)上的改進方法歸納總結(jié)如表2所示。

3 基于單階段的水下生物目標(biāo)檢測方法

單階段的目標(biāo)檢測方法不需要產(chǎn)生候選區(qū)域,直接將檢測問題轉(zhuǎn)化為端到端的回歸問題,與兩階段的目標(biāo)檢測方法相比,在檢測速度上有較大的優(yōu)勢,能夠更好地應(yīng)用于水下機器人等智能化設(shè)備的水下生物目標(biāo)檢測。單階段的目標(biāo)檢測方法主要是YOLO系列算法等[21-24]。單階段目標(biāo)檢測算法因為良好的性能和較高的精度,在水下生物目標(biāo)檢測領(lǐng)域得到了廣泛的應(yīng)用。

Wang等[25]對YOLO-v2算法進行了優(yōu)化改進,以用于魚類圖像的快速分類和識別。首先,將模型最后一個卷積層的網(wǎng)格數(shù)從7×7更改為9×9,提升對小型魚類目標(biāo)的檢測效果。其次,根據(jù)實際的應(yīng)用場景,大幅減少了模型最后一個卷積層的過濾器數(shù)量。使用Kaggle-NCFM數(shù)據(jù)集進行了實驗驗證。相關(guān)算法的平均準(zhǔn)確率達到91.2%,檢測速度達到28.3 幀/s,能夠滿足對漁船捕撈的海洋生物種類進行實時檢測和分類的需求。

Muksit等[26]對YOLO-v3算法進行了加強。首先,通過對上采樣步長大小的改進,減少了對于小尺寸魚類目標(biāo)的誤檢(YOLO-Fish-1)。其次,在YOLO-Fish-1的基礎(chǔ)上,通過增加空間金字塔池化,進一步增強了模型在動態(tài)環(huán)境中檢測魚類外觀的能力(YOLO-Fish-2)。相關(guān)算法在基于DeepFish和OzFish數(shù)據(jù)集基礎(chǔ)上的自定義數(shù)據(jù)集進行了實驗驗證,YOLO-Fish-1和YOLO-Fish-2分別取得了76.56%和75.70%的平均準(zhǔn)確率,與YOLO-v4算法水平相當(dāng)。

Chen等[27]在YOLO-v4算法的基礎(chǔ)上進行了改進。首先,通過殘差塊與通道注意力機制相結(jié)合,對YOLO-v4骨干網(wǎng)絡(luò)CSPDarknet53(cross stage partial network darknet53)的特征提取能力進行增強,以獲得加權(quán)多尺度特征。其次,通過特征金字塔對加權(quán)多尺度特征進行反復(fù)的提取,以分離出最顯著的加權(quán)多尺度特征。最后,將最顯著的加權(quán)多尺度特征用于水下生物檢測。相關(guān)算法在Brackish數(shù)據(jù)集進行了實驗驗證,與YOLO-v4算法相比平均精度提升了5.03%,檢測速度達到15 幀/s。

Isa等[28]重點對YOLO-v5算法的優(yōu)化器進行了參數(shù)優(yōu)化。通過優(yōu)化算法對學(xué)習(xí)率及動量等關(guān)鍵參數(shù)進行了優(yōu)化,得到的優(yōu)化模型在Brackish數(shù)據(jù)集上的平均準(zhǔn)確率達到了98.6%,檢測速度達到

106 幀/s。

Zhai等[29]在YOLO-v5s算法的基礎(chǔ)上進行了改進,以用于水下海參的識別。首先,使用帶色彩恢復(fù)的多尺度視網(wǎng)膜增強算法對圖像進行預(yù)處理。其次,引入了卷積注意力模塊,并在YOLO-v5s的頭部網(wǎng)絡(luò)中添加了檢測層。最后,在自定義數(shù)據(jù)集上進行了實驗驗證。實驗結(jié)果表明,改進算法較YOLO-v5s算法在精度和召回率上分別提升了9%和11.5%。

Lei等[30]在YOLO-v5s模型的基礎(chǔ)上進行三方面的改進。將骨干網(wǎng)絡(luò)替換為Swin Transformer,改進了多分辨率特征融合方法,并改進了置信損失函數(shù)。在URPC數(shù)據(jù)集的基礎(chǔ)上,制作了包含海參、海膽、扇貝、海星等4類生物,總共6 034張圖片的自定義數(shù)據(jù)集。結(jié)果表明,改進的YOLO-v5s模型的平均準(zhǔn)確率達到了87.2%,優(yōu)于SSD、YOLO-v4、YOLO-v5s和YOLO-v5x。

上述方法在YOLO模型基礎(chǔ)上的改進方法歸納總結(jié)如表3所示。

4 基于深度學(xué)習(xí)的水下生物目標(biāo)檢測改進策略

針對水下生物目標(biāo)檢測中常見的重疊與遮擋、小目標(biāo)檢測、成像模糊等問題,學(xué)者們在數(shù)據(jù)增強、框架結(jié)構(gòu)改進、樣本平衡、錨框優(yōu)化等方面提出了相應(yīng)的改進策略,以提升水下生物目標(biāo)檢測方法的整體性能,如表4所示。

5 總結(jié)與展望

本文綜合分析了當(dāng)前各種深度學(xué)習(xí)方法在水下生物目標(biāo)檢測中的應(yīng)用情況,對水下生物目標(biāo)檢測數(shù)據(jù)集及檢測方法進行了綜述。希望能夠為研究人員提供資料性的參考依據(jù)以及研究思路和方法,促進相關(guān)檢測方法的推廣和應(yīng)用。結(jié)合現(xiàn)有的研究現(xiàn)狀,基于深度學(xué)習(xí)的水下生物目標(biāo)檢測方法在以下三個方面亟待開展更深入的研究工作:

(1)構(gòu)建大規(guī)模、高質(zhì)量標(biāo)注的開源數(shù)據(jù)集。在水下生物目標(biāo)檢測領(lǐng)域,大多數(shù)研究都是根據(jù)研究任務(wù)構(gòu)建的小型數(shù)據(jù)集,缺乏大規(guī)模、高質(zhì)量標(biāo)注的開源數(shù)據(jù)集,一定程度上制約了相關(guān)技術(shù)的發(fā)展。

(2)引入語義分割促進目標(biāo)檢測性能。語義分割通常需要像素級別標(biāo)注的圖像數(shù)據(jù)集進行訓(xùn)練,在完成語義分割的同時提升分類及定位的精度。此外,分割任務(wù)可作為僅在訓(xùn)練階段使用的額外分支引入到原有的檢測算法中,并使用分割損失、檢測損失的多任務(wù)損失函數(shù)來訓(xùn)練模型。

(3)基于半監(jiān)督或弱監(jiān)督學(xué)習(xí)的水下生物目標(biāo)檢測。在半監(jiān)督或弱監(jiān)督學(xué)習(xí)中,通過弱標(biāo)注信息對模型進行訓(xùn)練,讓模型學(xué)習(xí)到有效的水下生物特征,減少數(shù)據(jù)標(biāo)注的人工工作量。

參考文獻:

[1]林森, 趙潁. 水下光學(xué)圖像中目標(biāo)探測關(guān)鍵技術(shù)研究綜述[J]. 激光與光電子學(xué)進展, 2020, 57(6): 26-37. DOI: 10.3788/LOP57.060002.

[2]FAYAZ S, PARAH S A, QURESHI G J. Underwater object detection: architectures and algorithms-a comprehensive review[J]. Multimedia Tools and Applications, 2022, 81(15): 20871-20916. DOI: 10.1007/s11042-022-12502-1.

[3]檀盼龍, 吳小兵, 張曉宇. 基于聲吶圖像的水下目標(biāo)識別研究綜述[J]. 數(shù)字海洋與水下攻防, 2022, 5(4): 342-353. DOI: 10.19838/j.issn.2096-5753.2022.04.010.

[4]于紅. 水產(chǎn)動物目標(biāo)探測與追蹤技術(shù)及應(yīng)用研究進展[J]. 大連海洋大學(xué)學(xué)報, 2020, 35(6): 793-804. DOI: 10.16535/j.cnki.dlhyxb.2020-263.

[5]董金耐, 楊淼, 謝卓冉, 等. 水下圖像目標(biāo)檢測數(shù)據(jù)集及檢測算法綜述[J]. 海洋技術(shù)學(xué)報, 2022, 41(5): 60-72. DOI: 10.3969/j.issn.1003-2029.2022.05.007.

[6]FISHER R B, CHEN-BURGERY H, GIORDANO D, et al. Fish4Knowledge: collecting and analyzing massive coral reef fish video data[M]. Berlin, Germany: Springer. DOI:10.10071978-3-319-3208-9.

[7]PEDERSEN M, HAURUM J B, GADE R, et al. Detection of marine animals in a new underwater dataset with varying visibility[C]// 2019 IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Long Beach, USA: IEEE, 2019:18-26.

[8]Kaggle-NCFM [DB/OL].[2023-01-02]. https://www.kaggle.com/c/the-natureconservancy-fisheries-monitoring.

[9]FishCLEF2015 [DB/OL].[2023-01-02]. https://www.imageclef.org/lifeclef/2015/fish.

[10]GARCIA-D′URSO N, GALAN-CUENCA A, PéREZ-SNCHEZ P, et al. TheDeepFish computer vision dataset for fish instance segmentation, classification, and size estimation[J]. Scientific Data, 2022, 9(1): 1-7. DOI: 10.1038/s41597-022-01416-0.

[11]URPC [DB/OL].[2023-01-02]. http://www.urpc.org.cn/index.html.

[12]WANG Z H, LIU C W, WANG S J, et al. UDD: an underwater open-sea farm object detection dataset for underwater robotpicking[EB/OL]. [2023-01-03]. https://arxiv.org/abs/2003.01446.

[13]LIU C W, LI H J, WANG S C, et al. A dataset and benchmark of underwater object detection for robot picking[C]//2021 IEEE International Conference on Multimedia & Expo Workshops (ICMEW). Shenzhen, China: IEEE, 2021: 1-6. DOI: 10.1109/ICMEW53276.2021.9455997.

[14]GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, USA: IEEE, 2014: 580-587. DOI: 10.1109/CVPR.2014.81.

[15]GIRSHICK R. Fast R-CNN[C]//2015 IEEE International Conference on Computer Vision (ICCV). Santiago,Chile: IEEE, 2016: 1440-1448.DOI: 10.1109/ICCV.2015.169.

[16]REN S Q, HE K M, GIRSHICKR, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149. DOI: 10.1109/TPAMI.2016.2577031.

[17]袁紅春, 張碩. 基于Faster R-CNN和圖像增強的水下魚類目標(biāo)檢測方法[J]. 大連海洋大學(xué)學(xué)報, 2020, 35(4): 612-619. DOI: 10.16535/j.cnki.dlhyxb.2019-146.

[18]LIU J, LIU S, XU S J, et al. Two-stage underwater object detection network usingswin transformer[J]. IEEE Access, 2022, 10: 117235-117247. DOI: 10.1109/ACCESS.2022.3219592.

[19]LIN W H, ZHONG J X, LIU S, et al. ROIMIX: proposal-fusion among multiple images for underwater object detection[C]//ICASSP 2020—2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Barcelona, Spain: IEEE, 2020: 2588-2592. DOI:10.1109/ICASSP40776.2020.9053829.

[20]SHI P F, XU X W, NI JJ, et al. Underwater biological detection algorithm based on improved faster-RCNN[J]. Water, 2021, 13(17): 2420. DOI: 10.3390/w13172420.

[21]REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, USA: IEEE, 2016: 779-788. DOI: 10.1109/CVPR.2016.91.

[22]REDMON J, FARHADI A. YOLO9000: better, faster, stronger[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu, USA. IEEE, 2017: 6517-6525. DOI: 10.1109/CVPR.2017.690.

[23]REDMON J, FARHADI A. YOLOv3: An incrementalimprovement[EB/OL].[2023-01-03]. https://arxiv.org/abs/1804.02767.pdf.

[24]BOCHKOVSKIY A, WANG C Y, LIAO H Y M. YOLOv4: Optimal speed and accuracy of objectdetection[EB/OL].[2023-01-03].https://arxiv.org/abs/2004.10934.pdf.

[25]WANG M F, LIU M Y, ZHANG F H, et al. Fast classification and detection of fish images with YOLOv2[C]//2018 OCEANS - MTS/IEEE Kobe Techno-Oceans (OTO). Kobe, Japan: IEEE, 2018: 1-4. DOI: 10.1109/OCEANSKOBE.2018.8559141.

[26]AL MUKSIT A, HASAN F, HASAN BHUIYAN EMON M F, et al. YOLO-Fish: a robust fish detection model to detect fish in realistic underwater environment[J]. Ecological Informatics, 2022, 72: 101847. DOI: 10.1016/j.ecoinf.2022.101847.

[27]CHEN L, LIU Z H, TONG L, et al. Underwater object detection using Invert Multi-ClassAdaboost with deep learning[C]//2020 International Joint Conference on Neural Networks (IJCNN). Glasgow, UK: IEEE, 2020: 1-8. DOI: 10.1109/IJCNN48605.2020.9207506.

[28]ISA I S, ROSLI M S A, YUSOF U K, et al. Optimizing the hyperparameter tuning of YOLOv5 for underwater detection[J]. IEEE Access, 2022, 10: 52818-52831. DOI: 10.1109/ACCESS.2022.3174583.

[29]ZHAI X Y, WEI H L, HE YY, et al. Underwater Sea cucumber identification based on improved YOLOv5[J]. Applied Sciences, 2022, 12(18): 9105. DOI: 10.3390/app12189105.

[30]LEI F, TANG FF, LI S H. Underwater target detection algorithm based on improved YOLOv5[J]. Journal of Marine Science and Engineering, 2022, 10(3): 310. DOI: 10.3390/jmse10030310.

[31]LI X, SHANG M, QIN H W, et al. Fast accurate fish detection and recognition of underwater images with Fast R-CNN[C]//OCEANS 2015-MTS/IEEE Washington. Washington, DC: IEEE, 2016: 1-5.

[32]XU W W, MATZNER S. Underwater fish detection using deep learning for water power applications[C]//2018 International Conference on Computational Science and Computational Intelligence (CSCI). Las Vegas, USA: IEEE, 2020: 313-318. DOI: 10.1109/CSCI46756.2018.00067.

[33]劉萍, 楊鴻波, 宋陽. 改進YOLOv3網(wǎng)絡(luò)的海洋生物識別算法[J]. 計算機應(yīng)用研究, 2020, 37(S1): 394-397.

[34]KNAUSGRD K M, WIKLUND A, SRDALEN T K, et al. Temperate fish detection and classification: a deep learning based approach[J]. Applied Intelligence, 2022, 52(6): 6988-7001. DOI: 10.1007/s10489-020-02154-9.

[35]LI A L, YU L, TIAN S W. Underwater biological detection based on YOLOv4 combined with channel attention[J]. Journal of Marine Science and Engineering, 2022, 10(4): 469. DOI:10.3390/jmse10040469.

[36]張琳, 葛艷, 杜軍威, 等. 改進FCOS網(wǎng)絡(luò)的海洋魚類目標(biāo)檢測[J]. 計算機系統(tǒng)應(yīng)用,2023,32(3):309-315. DOI: 10.15888/j.cnki.csa.008965.

猜你喜歡
目標(biāo)檢測深度學(xué)習(xí)
視頻中目標(biāo)檢測算法研究
軟件(2016年4期)2017-01-20 09:38:03
行為識別中的人體運動目標(biāo)檢測方法
有體驗的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
軟件工程(2016年8期)2016-10-25 15:47:34
移動機器人圖像目標(biāo)識別
基于背景建模法的運動目標(biāo)檢測
滕州市| 赞皇县| 佛冈县| 临洮县| 勐海县| 郁南县| 无极县| 昌邑市| 庆阳市| 安达市| 攀枝花市| 滕州市| 凯里市| 安新县| 海宁市| 宝丰县| 丹寨县| 洛南县| 华亭县| 德格县| 忻城县| 台江县| 全州县| 齐河县| 南昌县| 南靖县| 墨江| 万安县| 神木县| 岳池县| 清徐县| 闸北区| 崇左市| 张家港市| 措勤县| 安溪县| 昌吉市| 固安县| 临汾市| 保亭| 泸水县|