国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于YOLOv7的邊緣增強(qiáng)水面漂浮垃圾小目標(biāo)檢測(cè)

2024-07-01 10:04周華平李云豪黨安培
關(guān)鍵詞:水面注意力垃圾

周華平 李云豪 黨安培

【摘?? 要】?? 水面漂浮垃圾不斷增多引起關(guān)注,針對(duì)水面漂浮垃圾邊緣信息模糊的問(wèn)題,提出E-MP模塊,在MPConv的基礎(chǔ)上添加Laplacians,Sobel-dx和Sobel-dy增強(qiáng)小目標(biāo)水面漂浮垃圾的邊緣信息。針對(duì)小目標(biāo)漂浮垃圾僅占據(jù)圖像少量像素的現(xiàn)象,引入了Biformer注意力模塊。Biformer利用前后兩個(gè)方向的上下文信息,更好地捕捉序列中的依賴關(guān)系,同時(shí)降低背景信息對(duì)檢測(cè)目標(biāo)物體帶來(lái)的一部分影響。在此基礎(chǔ)上引入SIoU來(lái)構(gòu)建損失函數(shù),將邊界區(qū)域作為目標(biāo)區(qū)域來(lái)進(jìn)行加權(quán),可以更好地捕捉目標(biāo)的邊界信息,從而提高檢測(cè)精度。在Flow-Img子數(shù)據(jù)集上進(jìn)行了大量實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,YOLOv7-edge模型比原來(lái)的模型檢測(cè)精度更高,mAP@0.5和mAP@0.5:0.95分別提高了7個(gè)百分點(diǎn)和5個(gè)百分點(diǎn)。

【關(guān)鍵詞】?? 小目標(biāo);垃圾檢測(cè);E-MP模塊;Biformer注意力模塊;SIoU

Edge Enhanced Small Target Detection of

Floating Garbage Based on YOLOv7

Zhou Huaping, Li Yunhao*, Dang Anpei

(Anhui University of Science and Technology, Huainan 232001, China)

【Abstract】??? The increasing amount of floating garbage on the water surface has attracted people's attention. In response to the problem of blurred edge information of floating garbage on the water surface, this article proposes an E-MP module, which adds Laplacians, Sobel-dx, and Sobel-dy to enhance the edge information of small floating garbage targets on the water surface based on MPConv. In response to the phenomenon that small floating garbage targets only occupy a small number of pixels in the image, a Biformer attention module has been introduced. The Biformer utilizes contextual information from both the front and back directions to better capture dependencies in the sequence while reducing some of the impact of background information on detecting the target object. On this basis, introducing SIoU to construct a loss function and weighting the boundary region as the target region can better capture the boundary information of the target and improve detection accuracy. A large number of experiments are conducted on the Flow-Img sub dataset, which shows that the YOLOv7 edge model had higher detection accuracy than the original model, mAP@0.5 and mAP@0.5 0.95 increased by 7 % and 5 % respectively.

【Key words】???? small goals; garbage detection; E-MP module; Biformer attention module; SIoU

〔中圖分類(lèi)號(hào)〕 TP183????????????? ?? ????? ???〔文獻(xiàn)標(biāo)識(shí)碼〕? A????? ???????????? 〔文章編號(hào)〕 1674 - 3229(2024)02- 0045 - 07

[收稿日期]?? 2023-10-09

[作者簡(jiǎn)介]?? 周華平(1979- ),女,博士,安徽理工大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院教授,研究方向:目標(biāo)檢測(cè)。

[通訊作者]?? 李云豪(1999- ),男,安徽理工大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院研究生,研究方向:目標(biāo)檢測(cè)。

0???? 引言

水面漂浮垃圾檢測(cè)是目標(biāo)檢測(cè)的一種。目標(biāo)檢測(cè)是在圖像或視頻中準(zhǔn)確地識(shí)別和定位特定的目標(biāo)物體[1],在許多領(lǐng)域中都有廣泛的應(yīng)用[2],如自動(dòng)駕駛、視頻監(jiān)控等。目標(biāo)檢測(cè)需要確定目標(biāo)物體的位置,并用邊界框或像素級(jí)的分割來(lái)標(biāo)記目標(biāo)的準(zhǔn)確位置。因此,目標(biāo)檢測(cè)算法需要具備對(duì)目標(biāo)識(shí)別和定位的能力。

目標(biāo)檢測(cè)算法的發(fā)展經(jīng)歷了多個(gè)階段。早期的算法在復(fù)雜場(chǎng)景中的性能有限,隨著深度學(xué)習(xí)的發(fā)展,Krizhevsky 等[3]使卷積神經(jīng)網(wǎng)絡(luò)重?zé)ü獠?,開(kāi)創(chuàng)了現(xiàn)代CNN的先河。其中,最具代表性的算法是基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)(R-CNN)系列算法,包括R-CNN、Fast R-CNN、Faster R-CNN等。這些方法通過(guò)將目標(biāo)檢測(cè)問(wèn)題轉(zhuǎn)化為候選區(qū)域生成和目標(biāo)分類(lèi)/定位兩個(gè)子問(wèn)題,大大提高了目標(biāo)檢測(cè)的準(zhǔn)確性和效率。

相比于其他領(lǐng)域的目標(biāo)檢測(cè),小目標(biāo)檢測(cè)的發(fā)展時(shí)間相對(duì)較短,仍有許多方面尚未完善。小目標(biāo)的定義有很多種,MSCOCO通用數(shù)據(jù)集將分辨率小于32*32像素的目標(biāo)定義為小目標(biāo)。2016年Chen等 [4]將占總目標(biāo)幀面積0.05%~0.58%的同類(lèi)目標(biāo)定義為小目標(biāo),開(kāi)創(chuàng)了小目標(biāo)檢測(cè)的先例。2018 年Han等[5]第一次提出了把R-CNN用于遙感小目標(biāo)的檢測(cè)。在此文獻(xiàn)的影響下,很多研究人員以Faster R-CNN[6]、SSD[7]以及 YOLO等網(wǎng)絡(luò)模型對(duì)小目標(biāo)物體進(jìn)行檢測(cè)。其中Han等[8]、Zand等[9]、Yu等[10]使用旋轉(zhuǎn)預(yù)測(cè)框和旋轉(zhuǎn)檢測(cè)器來(lái)提高遙感檢測(cè)場(chǎng)景的精度,但對(duì)其他類(lèi)型的小目標(biāo)的效果并不好。在這種背景下,Zhu等[11]提出增加目標(biāo)檢測(cè)層,在檢測(cè)小目標(biāo)方面得到了良好的結(jié)果。但在目標(biāo)較小且密集的情況下,還有漏檢和誤檢的情況,YOLO-Z的PAFPN被Bi-FPN取代,提高了小目標(biāo)的檢測(cè)效果,但忽略了圖像中較大目標(biāo)的問(wèn)題。

為 解 決 上 述 問(wèn) 題 ,本 文 提 出 一 種 YOLOv7-edge模型。通過(guò)增加邊緣信息更加準(zhǔn)確地找到水平邊緣。引入注意力機(jī)制加強(qiáng)對(duì)信息的篩選,提高模型的泛化能力和解釋能力。最終通過(guò)改進(jìn)損失函數(shù),提高網(wǎng)絡(luò)對(duì)于目標(biāo)尺寸的魯棒性。

1???? 相關(guān)工作

1.1?? YOLOv7 模型

YOLOv7[12]是一種目標(biāo)檢測(cè)模型,通過(guò)將目標(biāo)檢測(cè)問(wèn)題轉(zhuǎn)化為一個(gè)回歸問(wèn)題,直接在圖像上進(jìn)行目標(biāo)定位和分類(lèi),從而實(shí)現(xiàn)快速高效的目標(biāo)檢測(cè)。YOLOv7快速且準(zhǔn)確的檢測(cè)受到廣泛關(guān)注。模型如圖1所示。

YOLOv7是由Wang等[12]于2022年提出的,主要包括Backbone層(由卷積、E-ELAN模塊、MPConv模塊以及SPPCSPC模塊構(gòu)成)、Neck層(采用了傳統(tǒng)的 PAFPN 結(jié)構(gòu),在不同層級(jí)上進(jìn)行特征融合,從而提取多尺度的特征)和Head層(由多個(gè)卷積層和全連接層組成,用于對(duì)特征進(jìn)行處理和轉(zhuǎn)換,并輸出目標(biāo)的位置和類(lèi)別信息)。與其他模型相比,YOLOv7的設(shè)計(jì)更加簡(jiǎn)潔和高效,可以在處理大規(guī)模數(shù)據(jù)時(shí)保持較高的速度和精度。

1.2?? 注意力機(jī)制

注意力機(jī)制[13-14]是一種計(jì)算模型,它模擬人類(lèi)的注意力過(guò)程,使得模型能夠聚焦于輸入數(shù)據(jù)中最重要的部分。注意力機(jī)制已經(jīng)被廣泛應(yīng)用于提高模型的性能。在注意力機(jī)制中,較高的權(quán)重意味著該部分對(duì)模型的輸出有更大的影響力。模型可以根據(jù)輸入數(shù)據(jù)的不同部分來(lái)調(diào)整其關(guān)注的重點(diǎn),這使得模型能夠更好地理解輸入數(shù)據(jù)的結(jié)構(gòu)和語(yǔ)義,提高模型的性能和泛化能力。

經(jīng)過(guò)多次試驗(yàn)發(fā)現(xiàn),YOLOv7模型在提取水面漂浮垃圾小目標(biāo)的淺層紋理和輪廓數(shù)據(jù)方面沒(méi)有取得理想的結(jié)果,容易導(dǎo)致信息丟失,并顯著影響小型物體的檢測(cè)。因此本文引入了一個(gè)對(duì)小目標(biāo)有效的注意力機(jī)制。

1.3?? IoU 損失函數(shù)

IoU是目標(biāo)檢測(cè)中常用的衡量指標(biāo),計(jì)算預(yù)測(cè)框和真實(shí)框的交并比。但是,IoU只考慮了兩個(gè)框之間的重疊程度,沒(méi)有考慮到框的位置、大小等因素。GIoU[15]引入了框的全局信息,解決了IoU的不足。在一些情況下,預(yù)測(cè)框與真實(shí)框之間的距離也是很重要的因素,因此,DIoU[16]在GIoU的基礎(chǔ)上引入了框的距離信息。最后,CIoU在DIoU的基礎(chǔ)上進(jìn)一步考慮了框的長(zhǎng)寬比例的影響。其中,CIoU公式中[α]是一個(gè)可調(diào)參數(shù),v表示預(yù)測(cè)框和真實(shí)框的長(zhǎng)寬比例的差異。

2???? YOLOv7 目標(biāo)檢測(cè)模型的改進(jìn)

2.1?? E-MP模塊

MPConv 模塊(如圖2所示)的作用是進(jìn)行多尺度特征融合和信息傳遞。MPConv 模塊是一種多尺度卷積模塊,在目標(biāo)檢測(cè)任務(wù)中,需要對(duì)不同尺度的特征進(jìn)行融合和利用,以提高檢測(cè)性能。MPConv在特征提取過(guò)程中采用的最大池化操作,會(huì)將小目標(biāo)的特征圖壓縮成較小的尺寸,從而導(dǎo)致小目標(biāo)的細(xì)節(jié)信息丟失,難以準(zhǔn)確地進(jìn)行檢測(cè)和識(shí)別。MPConv在進(jìn)行特征提取時(shí)采用固定大小的池化窗口,無(wú)法適應(yīng)小目標(biāo)的尺度變化,因此在小目標(biāo)的檢測(cè)和識(shí)別過(guò)程中容易出現(xiàn)漏檢或誤檢的情況。本文在MPConv的基礎(chǔ)上增加了Laplacians算法來(lái)增強(qiáng)小目標(biāo)的邊緣信息,然后再通過(guò)Sobel-dx和Sobel-dy計(jì)算圖像中每個(gè)像素點(diǎn)的水平梯度值來(lái)檢測(cè)圖像中的水平邊緣。本文提出的用來(lái)增強(qiáng)水上目標(biāo)邊緣的E-MP模塊如圖3所示。

2.2?? Biformer注意力機(jī)制

Biformer[17-18]注意力機(jī)制(如圖4所示)稱(chēng)為BiAttention。BiAttention在BERT自注意力機(jī)制上添加一個(gè)相互注意力機(jī)制,在文獻(xiàn)[19-20]的基礎(chǔ)上應(yīng)用BRA模塊和2層擴(kuò)展比為e的MLP模塊進(jìn)行跨位置關(guān)系建模和逐位置嵌入,其核心思想是將Transformer模型的編碼器和解碼器結(jié)構(gòu)相結(jié)合,以實(shí)現(xiàn)雙向的信息流動(dòng),BiformerBlock包含了兩個(gè)注意力機(jī)制:正向注意力和反向注意力。正向注意力用于從左到右處理輸入序列,而反向注意力則從右到左處理輸入序列。這樣,模型可以同時(shí)利用前后兩個(gè)方向的上下文信息,從而更好地捕捉序列中的依賴關(guān)系。

2.3?? 損失函數(shù)

本文用SIoU損失函數(shù)替換了原模型中的CIoU損失函數(shù),考慮了角度問(wèn)題。其中b表示預(yù)測(cè)框,bgt表示真實(shí)框,c表示預(yù)測(cè)框和真實(shí)框的最小閉合區(qū)域的對(duì)角線距離,[α]是平衡參數(shù),用于衡量長(zhǎng)寬比是否一致。添加角度成本可提高檢測(cè)精度,如圖5所示。

判斷使用 [β] 還是[α]是通過(guò)和45°的比較,角度成本的計(jì)算如式(1):

[∧=1-2×sin2(arcsinx-π4)] ????? (1)

SIoU損失函數(shù)對(duì)分割結(jié)果進(jìn)行了平滑處理,可以減少分割結(jié)果的噪聲和不連續(xù)性,減少了真實(shí)框和預(yù)測(cè)框之間的距離,如式(2):

[Δ=t=x,y(1-e-γρ)]??? ???????????????????????????????? (2)

SIoU只關(guān)注兩個(gè)形狀的重疊部分,而不考慮它們的位置和大小。因此,無(wú)論形狀在圖像中的位置和大小如何變化,SIoU都可以正確地衡量它們之間的相似度。形狀成本[Ω]的定義如式(3):

[Ω=t=w,h(1-e-ωt)θ]??????????????????????????????????????? (3)

損 失 函 數(shù) 的 最 終 定 義 如 式(4):

[LSIoU=1-IIoU+Δ+Ω2]???????????? ??? ???(4)

總的來(lái)說(shuō),SIoU損失函數(shù)適用于目標(biāo)檢測(cè)任務(wù),具有尺度不變性、對(duì)稱(chēng)性、可導(dǎo)性和相似度度量等特點(diǎn)。改進(jìn)后的模型圖命名為YOLOv7-edge,其中深色模塊為改進(jìn)部分,如圖6所示。

3???? 實(shí)驗(yàn)結(jié)果與分析

3.1?? 實(shí)驗(yàn)環(huán)境與參數(shù)設(shè)置

網(wǎng) 絡(luò) 實(shí) 驗(yàn) 環(huán) 境 為 Win10、Python3.8 和PyTorch1.12.1,相關(guān)硬件配置和模型參數(shù)如表1 所示,其中訓(xùn)練數(shù)據(jù)量為 300。

3.2?? 評(píng)價(jià)指標(biāo)

本實(shí)驗(yàn)主要由準(zhǔn)確率、召回率、平均準(zhǔn)確率(AP)、平 均 精 度 均 值(mAP)4個(gè)指標(biāo)在相同實(shí)驗(yàn)環(huán)境下的漏檢和誤檢情況來(lái)評(píng)判,計(jì)算公式如下:

[P=TTPTTP+FFP×100%]???????????????? (5)

[R=TTPTTP+FFN×100%]?????????????????????????????????? ???? (6)

[AP=01P(R)dR]???????????????????????????????? (7)

[mAP=i=1kAPik]??????????? ?????????????????(8)

準(zhǔn)確率用[TTP]表示;錯(cuò)誤率用[FFP]表示,錯(cuò)誤包含誤檢和漏檢兩種情況,誤檢情況用[FFN]表示;其中P 表示準(zhǔn)確率,R 表示召回率。P-R 曲線與坐標(biāo)軸圍成的面積為 AP 值大小。一般情況下網(wǎng)絡(luò)模型性能的評(píng)價(jià)指標(biāo)是所有類(lèi)別的 AP 值的平均數(shù)mAP。

3.3?? 實(shí)驗(yàn)數(shù)據(jù)集

FloW-Img 子數(shù)據(jù)集是全球第一個(gè)水面漂浮垃圾真實(shí)影像數(shù)據(jù)集,圖像數(shù)據(jù)集包含2000張圖像,其中包含5271個(gè)標(biāo)記的水面漂浮垃圾。訓(xùn)練集和測(cè)試集采用6:4的劃分,用1200張不經(jīng)過(guò)篩選的圖像作為訓(xùn)練集,其余的自動(dòng)成為測(cè)試集。

由整個(gè)數(shù)據(jù)集、訓(xùn)練集和測(cè)試集在一幀內(nèi)的對(duì)象數(shù)量和標(biāo)記對(duì)象占用面積的分布情況可以看出,不同大小的目標(biāo)在訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)中的分布近似匹配。小目標(biāo)(面積< 32 × 32)在本文數(shù)據(jù)集中所占的比例最大,這使得檢測(cè)更具挑戰(zhàn)性。數(shù)據(jù)集示例如圖7所示。

3.4?? 消融實(shí)驗(yàn)

本文針對(duì)以下 3 種情況對(duì)E-MP模塊的位置進(jìn)行了實(shí)驗(yàn),情況1在Backbone中替換MPConv模塊,情況2在Neck中替換MPConv模塊,情況3在Backbone和Neck中替換MPConv模塊,實(shí)驗(yàn)結(jié)果如表 2 所示。其中,mAP@0.5 和 mAP@0.5∶0.95 分別表示 IoU=0.5、0.5≤IoU≤0.95 時(shí)各個(gè)類(lèi)別的平均 AP 值。

注意力模塊的添加對(duì)小目標(biāo)檢測(cè)的信息提取也有很大的作用,不同模塊對(duì)目標(biāo)檢測(cè)會(huì)產(chǎn)生很大的影響。為了使BiFormer提取更充足有效的信息,分別在E-ELAN模塊、SPPCSPC模塊、REP模塊中進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表 3 所示。

3.5?? YOLOv7 網(wǎng)絡(luò)模型與改進(jìn)網(wǎng)絡(luò)模型實(shí)驗(yàn)對(duì)比

對(duì)水面漂浮小目標(biāo)檢測(cè)得出的 P-R 曲線對(duì)比如圖8所示。改進(jìn)后的 YOLOv7-edge網(wǎng)絡(luò)模型在水面漂浮垃圾小目標(biāo)數(shù)據(jù)集的檢測(cè)中表現(xiàn)了良好的性能,檢測(cè)目標(biāo)的 AP 值比改進(jìn)前網(wǎng)絡(luò)模型和ACAM-YOLO模型(對(duì)小目標(biāo)檢測(cè)有利的網(wǎng)絡(luò)模型)提高了很多。

本文針對(duì)實(shí)際情況中水面漂浮垃圾小目標(biāo)圖像、水面漂浮垃圾超小目標(biāo)圖像和水面漂浮垃圾密集超小目標(biāo)圖像這三種類(lèi)型的圖片,對(duì)原網(wǎng)絡(luò)模型進(jìn)行了改進(jìn)。改進(jìn)后的模型在檢測(cè)這些具有代表性的水面漂浮垃圾小目標(biāo)方面表現(xiàn)出色,有效解決了水上漂浮垃圾檢測(cè)問(wèn)題。對(duì)比圖如圖9至圖11所示。

3.6?? 改進(jìn)YOLOv7網(wǎng)絡(luò)模型與其他網(wǎng)絡(luò)模型的對(duì)比

在相同環(huán)境、訓(xùn)練參數(shù)和配置下,將經(jīng)典網(wǎng)絡(luò)和一些對(duì)小目標(biāo)檢測(cè)有益的模型與YOLOv7-edge進(jìn)行比較,結(jié)果表明本方法在水面漂浮垃圾檢測(cè)方面表現(xiàn)出有效性。mAP@0.5和mAP@0.5:0.95指標(biāo)均取得了一定的提升,如表4所示。

4???? 結(jié)論

針對(duì)水面漂浮垃圾邊緣信息模糊的問(wèn)題,本文提出了一種基于YOLOv7的邊緣增強(qiáng)模型,首先通過(guò)本文提出的E-MP模塊,增強(qiáng)了小目標(biāo)的邊緣信息,其次在SPPCSPC模塊中引入Biformer注意力機(jī)制加強(qiáng)底層信息的提取,最后通過(guò)對(duì)IoU損失函數(shù)進(jìn)行優(yōu)化,減少了誤檢和漏檢。實(shí)驗(yàn)表明改進(jìn)后的模型與原有的模型相比檢測(cè)精度有了很大的提升,對(duì)水面漂浮垃圾治理有一定的實(shí)際意義。

[參考文獻(xiàn)]

[1] 戚玲瓏,高建瓴. 基于改進(jìn)YOLOv7的小目標(biāo)檢測(cè)[J]. 計(jì)算機(jī)工程,2023,49(1):41-48.

[2] 谷永立,宗欣欣. 基于深度學(xué)習(xí)的目標(biāo)檢測(cè)研究綜述[J]. 現(xiàn)代信息科技,2022,6(11):76-81.

[3] Girshick R,Donahue J,Darrell T,et al. Rich feature hierarchies for accurate object detection and semantic segmentation[A]. Proceedings of the IEEE conference on computer vision and pattern recognition[C]. Washington D.C.,USA:IEEE Press,2014:580-587.

[4] Chen C,Liu M Y,Tuzel O,et al. R-CNN for small object detection[A]. Proceedings of IEEE International Conference on Computer Vision[C]. Washington D.C.,USA:IEEE Press,2016:214-230.

[5] Hu G,Yang Z,Han J,et al. Aircraft detection in remote sensing images based on saliency and convolution neural network[J]. EURASIP Journal on Wireless Communications and Networking,2018(2018):1-16.

[6] 趙加坤,孫俊,韓睿,等. 基于改進(jìn)的Faster Rcnn遙感圖像目標(biāo)檢測(cè)[J]. 計(jì)算機(jī)應(yīng)用與軟件,2022,39(5):192-196+290.

[7] 賈可心,馬正華,朱蓉,等. 注意力機(jī)制改進(jìn)輕量SSD模型的海面小目標(biāo)檢測(cè)[J]. 中國(guó)圖象圖形學(xué)報(bào),2022,27(4):1161-1175.

[8] Han J,Ding J,Xue N,et al. Redet: A rotation-equivariant detector for aerial object detection[A]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition[C]. Washington D.C.,USA: IEEE Press,2021: 2786-2795.

[9] Zand M,Etemad A,Greenspan M. Oriented bounding boxes for small and freely rotated objects[J]. IEEE Transactions on Geoscience and Remote Sensing,2021,60(5): 1-15.

[10]Yu D,Xu Q,Guo H,et al. Anchor-free arbitrary-oriented object detector using box boundary-aware vectors[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2022,15: 2535-2545.

[11] Zhu X,Lyu S,Wang X,et al. TPH-YOLOv5: Improved YOLOv5 based on transformer prediction head for object detection on drone-captured scenarios[A]. Proceedings of the IEEE/CVF international conference on computer vision[C].Washington D.C.,USA: IEEE Press,2021: 2778-2788.

[12]Wang C Y,Bochkovskiy A,Liao H Y M. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[A]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition[C]. Washington D.C.,USA: IEEE Press,2023: 7464-7475.

[13]Niu Z,Zhong G,Yu H. A review on the attention mechanism of deep learning[J]. Neurocomputing,2021,452: 48-62.

[14]Brauwers G,F(xiàn)rasincar F. A general survey on attention mechanisms in deep learning[J]. IEEE Transactions on Knowledge and Data Engineering,2021,35(4): 3279-3298.

[15] Zhou D,F(xiàn)ang J,Song X,et al. Iou loss for 2d/3d object detection[A]. 2019 international conference on 3D vision (3DV)[C]. Washington D.C.,USA: IEEE Press,2019: 85-94.

[16]Zheng Z,Wang P,Liu W,et al. Distance-IoU loss:faster and better learning for bounding box regression[J]. Artificial Intelligence,2020,34(7):12993-13000.

[17]Chu X,Tian Z,Wang Y,et al. Twins: Revisiting the design of spatial attention in vision transformers[J]. Advances in neural information processing systems,2021,34: 9355-9366.

[18]Zhu L,Wang X,Ke Z,et al. BiFormer: Vision Transformer with Bi-Level Routing Attention[A]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition[C]. Washington D.C.,USA:IEEE Press,2023:10323-10333.

[19]Dong X,Bao J,Chen D,et al. Cswin transformer: A general vision transformer backbone with cross-shaped windows[A]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition[C]. Washington D.C.,USA: IEEE Press,2022: 12124-12134.

[20]Liu Z,Lin Y,Cao Y,et al. Swin transformer: Hierarchical vision transformer using shifted windows[A]. Proceedings of the IEEE/CVF international conference on computer vision[C]. Washington D.C.,USA: IEEE Press,2021:10012-10022.

猜你喜歡
水面注意力垃圾
讓注意力“飛”回來(lái)
垃圾去哪了
水黽是怎樣浮在水面的
那一雙“分揀垃圾”的手
倒垃圾
創(chuàng)造足以亂真的水面反光
“揚(yáng)眼”APP:讓注意力“變現(xiàn)”
倒垃圾
爭(zhēng)奪水面光伏
A Beautiful Way Of Looking At Things