国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)Yolo v8s-seg的船舶旋轉(zhuǎn)角度檢測方法

2024-03-05 12:13:02丁秀清周斌胡波
關(guān)鍵詞:輪廓實(shí)例注意力

丁秀清,周斌*,胡波

(1 中南民族大學(xué) a.計(jì)算機(jī)科學(xué)學(xué)院;b.國家民委信息物理融合智能計(jì)算重點(diǎn)實(shí)驗(yàn)室, 武漢 430074;2 武漢東信同邦信息技術(shù)有限公司, 武漢 430074)

傳統(tǒng)水上收費(fèi)站通過人眼觀察控制船閘的開關(guān),不僅消耗人力而且容易觀察失誤引起安全事故.近幾年興起的智慧船閘系統(tǒng)引入人工智能技術(shù),將攝像機(jī)拍攝的船舶圖片自動(dòng)轉(zhuǎn)化為鳥瞰圖,智能控制船閘開關(guān),并且自動(dòng)識別船閘內(nèi)外船舶的動(dòng)向.為了完成上述任務(wù),系統(tǒng)需要能夠精準(zhǔn)檢測航道內(nèi)船舶的旋轉(zhuǎn)角度.

為了得到船舶的旋轉(zhuǎn)角度,需要先對船舶進(jìn)行目標(biāo)檢測確定其位置,而傳統(tǒng)的目標(biāo)檢測算法如HOG+SVM[1]、Haar Cascades[2]等存在著精度有限、實(shí)時(shí)性差、不適用于大規(guī)模數(shù)據(jù)的缺點(diǎn).近幾年研究主流的方法是使用基于深度學(xué)習(xí)的旋轉(zhuǎn)框目標(biāo)檢測方法來檢測物體的旋轉(zhuǎn)角度,如RR-CNN[3]、R3Det[4],常應(yīng)用到遙感圖片和航拍圖片,這些模型經(jīng)過大規(guī)模的數(shù)據(jù)訓(xùn)練能夠直接輸出目標(biāo)的旋轉(zhuǎn)角度,但是對數(shù)據(jù)集的要求較高,這些數(shù)據(jù)集的共同點(diǎn)是圖片以較大的俯瞰角度來拍攝,而水上收費(fèi)站的攝像頭高度并不滿足該條件.如果直接使用旋轉(zhuǎn)框檢測模型對船舶圖片進(jìn)行訓(xùn)練,會(huì)導(dǎo)致較大的角度誤差.

對于實(shí)例分割問題,主流的方法分為三大類:二階段實(shí)例分割、一階段實(shí)例分割、Query-based 實(shí)例分割. 二階段實(shí)例分割(如Mask R-CNN[5]、HTC[6]、Cascade Mask R-CNN[7])通常分為兩個(gè)階段:第一階段使用一個(gè)目標(biāo)檢測器來檢測圖像中的對象,第二階段使用一個(gè)分割器來對每個(gè)檢測到的對象進(jìn)行像素級的分割,該方法的優(yōu)點(diǎn)是可以準(zhǔn)確地定位和分割多個(gè)對象,并且可以在復(fù)雜的場景中實(shí)現(xiàn)高精度的分割,但是對于小尺寸物體的分割效果不太理想,因?yàn)榭赡軙?huì)被模型誤認(rèn)為是噪聲或背景.

一階段實(shí)例分割(如YOLACT[8]、BlendMask[9]、CondInst[10])不需要先進(jìn)行目標(biāo)檢測,而是直接在單一的網(wǎng)絡(luò)中同時(shí)進(jìn)行檢測和分割任務(wù).該方法通常采用卷積神經(jīng)網(wǎng)絡(luò)(CNN)來實(shí)現(xiàn),可以在速度和精度之間取得平衡,并且實(shí)時(shí)性好,在實(shí)際應(yīng)用中具有很高的實(shí)用性,但是由于該方法需要在單一網(wǎng)絡(luò)中進(jìn)行檢測和分割任務(wù),因此會(huì)出現(xiàn)目標(biāo)漏檢和分割不完整的現(xiàn)象.該方法與二階段方法相比通常需要更多的訓(xùn)練數(shù)據(jù)和更高的計(jì)算資源,以達(dá)到與之相當(dāng)?shù)臏?zhǔn)確度.此外,對于復(fù)雜場景中的多個(gè)對象分割任務(wù),該方法可能會(huì)遇到困難.

Query-based 實(shí)例分割(如SOLOv2[11])允許用戶指定一個(gè)查詢對象,然后自動(dòng)檢測和分割該對象的所有實(shí)例.在該技術(shù)中,用戶可以通過在圖像中選擇一個(gè)查詢對象來指定要檢測的對象,然后系統(tǒng)會(huì)使用預(yù)訓(xùn)練模型來檢測和分割所有與查詢對象相似的實(shí)例.這種方法可以用于許多應(yīng)用,如自動(dòng)化圖像分析和智能監(jiān)控系統(tǒng)[12],主要缺點(diǎn)是對于一些復(fù)雜場景和多樣性對象的識別和分割效果不夠理想.由于該方法是基于預(yù)先定義的查詢對象進(jìn)行分割的,因此對于未知的、多樣性的對象,可能會(huì)出現(xiàn)錯(cuò)誤的分割結(jié)果.

針對以上問題,本文提出一種基于實(shí)例分割的船舶旋轉(zhuǎn)角度檢測模型,先對船舶進(jìn)行實(shí)例分割提取輪廓坐標(biāo)點(diǎn),再使用坐標(biāo)點(diǎn)計(jì)算船舶旋轉(zhuǎn)角度.模型使用實(shí)時(shí)性更強(qiáng)的one-stage 實(shí)例分割方法進(jìn)行分割并提取坐標(biāo),在此基礎(chǔ)上引入注意力機(jī)制以彌補(bǔ)該方法在分割精度上的不足.在得到坐標(biāo)后,模型使用輪廓法計(jì)算船舶旋轉(zhuǎn)角度.兩種方法結(jié)合以得到更為精確的船舶旋轉(zhuǎn)角度.

1 船舶旋轉(zhuǎn)角度檢測模型的設(shè)計(jì)與實(shí)現(xiàn)

Yolo v8s-seg模型結(jié)構(gòu)如圖1所示.

圖1 Yolo v8s-seg模型結(jié)構(gòu)Fig. 1 Yolo v8s-seg model structure

Yolo v8s-seg 模型在Yolov8 模型的基礎(chǔ)上添加了一個(gè)mask 分支用于實(shí)例分割,與目標(biāo)檢測同步進(jìn)行.

本模型命名為Yolo v8s-seg-boat,結(jié)構(gòu)如圖2 所示,主要改進(jìn)方法為:在Yolo v8s-seg 模型的主干網(wǎng)絡(luò)中添加了CA 注意力機(jī)制;在C2f 結(jié)構(gòu)中添加了CA 注意力機(jī)制;將IOU 函數(shù)替換為Wise-IOU. Yolo v8s-seg-boat 模型主要分為二個(gè)階段:第一階段使用改進(jìn)后的網(wǎng)絡(luò)對船舶圖片進(jìn)行實(shí)例分割處理,得到船舶的輪廓點(diǎn)坐標(biāo);第二階段對每組坐標(biāo)點(diǎn)使用旋轉(zhuǎn)角度計(jì)算模塊得到船舶的旋轉(zhuǎn)角度并顯示在圖片上.

圖2 Yolo v8s-seg-boat模型結(jié)構(gòu)Fig. 2 Yolo v8s-seg-boat model structure

P1、P2、P3、P4 和P5 表示網(wǎng)絡(luò)不同級別的不同特征圖,通過一系列卷積層和下采樣操作獲得.P1是指在骨干網(wǎng)絡(luò)的第一階段之后獲得的特征圖.P2、P3、P4 和P5 是在隨后的階段中獲得的,并且具有逐漸降低的分辨率.P3+C2f和P4+C2f表示這些特征圖的C2f 結(jié)構(gòu)中添加了注意力機(jī)制,P5+CA+C2f 表示該特征圖在其C2f 結(jié)構(gòu)中添加了注意力機(jī)制的同時(shí),在SPPF層前添加了注意力機(jī)制CA.

1.1 Yolo v8s-seg-boat網(wǎng)絡(luò)

1.1.1 主干網(wǎng)絡(luò)添加注意力機(jī)制CA

Yolo v8s-seg-boat 網(wǎng)絡(luò)結(jié)構(gòu)借鑒了基于改進(jìn)的yolact模型[13]結(jié)構(gòu),使用的分割方法是典型的一階段實(shí)例分割方法,實(shí)時(shí)性高,但是在分割精度方面有所欠缺.為了得到更高的船舶分割精度,在Yolo v8sseg 網(wǎng)絡(luò)的基礎(chǔ)上添加了CA (Coordinate Attention)注意力機(jī)制[14],其backbone結(jié)構(gòu)如圖3所示.在特征融合層SPPF 前添加的注意力機(jī)制CA,它能根據(jù)輸入的特征圖中的重要區(qū)域和上下文信息,對特征進(jìn)行加權(quán),讓SPPF 層能夠接收到更加強(qiáng)化的特征表示,從而提升模型特征的表達(dá)能力.將CA放在SPPF層之前能夠進(jìn)一步增加特征的感受野,使模型能夠更好地捕捉到不同尺度上的關(guān)鍵信息;另一方面,CA 還考慮了特征空間的位置信息,特征在SPPF 層進(jìn)行融合時(shí),模型能夠更加準(zhǔn)確地對局部信息和全局信息進(jìn)行加權(quán),從而提高特征的融合效果.

圖3 Yolo v8s-seg-boat的backbone網(wǎng)絡(luò)結(jié)構(gòu)Fig. 3 Backbone network structure of Yolo v8s-seg-boat

Yolo v8s-seg-boat 的backbone 網(wǎng)絡(luò)結(jié)構(gòu)主要用于提取船舶圖片的特征,用于head 結(jié)構(gòu)的檢測和分割,矩形大小代表各個(gè)層的參數(shù)量,而加入的注意力機(jī)制CA 參數(shù)量較大,能夠加強(qiáng)backbone 網(wǎng)絡(luò)的特征提取能力.

1.1.2 C2f添加注意力機(jī)制CA

模型的C2f 模塊參考了Yolo v5 中C3 結(jié)構(gòu)和Yolo v7[15]中ELAN[16]設(shè)計(jì)思想,結(jié)構(gòu)如圖4 所示,讓Yolo v8s-seg-boat 網(wǎng)絡(luò)可以在保證輕量化的同時(shí)獲得更加豐富的梯度流信息.該模塊首先用1 × 1 卷積核對特征進(jìn)行降維,通過split 模塊將特征圖分為主干分支和支干分支,再通過瓶頸結(jié)構(gòu)Bottleneck在有效減少參數(shù)量的情況下提取特征,最后通過Concat模塊進(jìn)行特征拼接,在此基礎(chǔ)上添加了CA注意力機(jī)制到Concat 模塊后,為特征分配不同的權(quán)重,增強(qiáng)模型對重要特征的關(guān)注,同時(shí)通過對特征圖的加權(quán),改善了多尺度特征融合效果.

圖4 改進(jìn)后的C2f結(jié)構(gòu)Fig. 4 Improved C2f structure

C2f 結(jié)構(gòu)中加入的注意力機(jī)制CA 同樣也起到了加強(qiáng)特征提取的作用,相比于Yolov5中的C3結(jié)構(gòu)檢測效果更好.

1.1.3 CIOU損失函數(shù)優(yōu)化

Yolo v8s-seg 使用CIoU 損失函數(shù)[17]來計(jì)算分割損失,該函數(shù)考慮重疊面積、中心點(diǎn)距離、長寬比三個(gè)方面,公式如下:

其中:IoU 為交并比,是目標(biāo)檢測中常見的指標(biāo),主要用于反映預(yù)測檢測框與真實(shí)檢測框的檢測效果;v為中心點(diǎn)距離,表示預(yù)測框的中心點(diǎn)與實(shí)際框中心點(diǎn)之間的距離;α為長寬比,用于衡量預(yù)測框與實(shí)際框長度和寬度的比例誤差.CIoU 計(jì)算過程中涉及到反三角函數(shù),計(jì)算量較大,尤其是在處理大量數(shù)據(jù)時(shí),會(huì)影響模型的訓(xùn)練速度,此外在處理低質(zhì)量訓(xùn)練數(shù)據(jù)時(shí),長寬比的幾何度量會(huì)加劇對低質(zhì)量數(shù)據(jù)的懲罰從而使模型的泛化性能下降,導(dǎo)致出現(xiàn)精度不高的情況.綜合以上原因,Yolo v8s-seg-boat 使用Wise-IoU[18](簡稱為WIoU)代替CIoU 來計(jì)算分割損失,公式如下:

其中Wg,Hg是最小預(yù)測框的寬度與高度,(xgt,ygt)是目標(biāo)框中心點(diǎn)坐標(biāo).對于低質(zhì)量錨框,1 - IoU 的值將被顯著放大;對于高質(zhì)量錨框,會(huì)顯著降低RWIoU.WIoU 取消了長寬比損失項(xiàng),降低了對數(shù)據(jù)集中出現(xiàn)的低質(zhì)量錨框的懲罰,另一方面降低了計(jì)算量,加快了模型的訓(xùn)練速度.對于船舶數(shù)據(jù)集而言,遮擋和噪聲現(xiàn)象普遍存在,如果模型使用CIoU 作為損失函數(shù),由于其對低質(zhì)量錨框的懲罰,會(huì)使模型訓(xùn)練時(shí)難以收斂.

1.2 旋轉(zhuǎn)角度計(jì)算模塊

圖片在經(jīng)過Yolo v8s-seg-boat網(wǎng)絡(luò)進(jìn)行分割后,對其輪廓點(diǎn)坐標(biāo)使用邊緣法計(jì)算旋轉(zhuǎn)角度,算法步驟如下:

(1)通過計(jì)算所有輪廓點(diǎn)的坐標(biāo)的平均值得到船舶的重心坐標(biāo),如圖5所示;

圖5 opencv計(jì)算重心Fig.5 Opencv calculates the center of gravity

(2)對于每一個(gè)輪廓點(diǎn),計(jì)算該點(diǎn)和船舶重心的連線與x軸的夾角,如圖6所示;

圖6 計(jì)算輪廓點(diǎn)與重心的夾角Fig. 6 Calculate the angle between the contour point and the center of gravity

(3)將所有點(diǎn)的夾角根據(jù)不同位置進(jìn)行加權(quán)平均處理,得到船舶的平均夾角;

(4)平均夾角減去90 度得到船舶的旋轉(zhuǎn)角度,如圖7所示.

圖7 旋轉(zhuǎn)角度顯示Fig.7 Rotation angle display

計(jì)算船舶的旋轉(zhuǎn)角度時(shí),需要將平均夾角減去90 度,是因?yàn)榇暗妮喞c(diǎn)坐標(biāo)與x軸的夾角是相對于水平方向的,而圖片船舶的朝向是垂直于水平方向的,由于船舶生成的輪廓點(diǎn)總數(shù)并不完全相同,先將權(quán)值根據(jù)輪廓點(diǎn)數(shù)量平均化,再賦予4 個(gè)頂點(diǎn)(離矩形框4 個(gè)頂點(diǎn)最近的4 個(gè)輪廓點(diǎn))2 倍于其他點(diǎn)的權(quán)值,這是因?yàn)轫旤c(diǎn)對旋轉(zhuǎn)坐標(biāo)的影響更大.

2 實(shí)驗(yàn)結(jié)果與分析

2.1 實(shí)驗(yàn)數(shù)據(jù)集

收集的船舶的數(shù)據(jù)集來自于江蘇某個(gè)水上收費(fèi)站多個(gè)高清攝像頭拍攝的航道內(nèi)船舶圖片,這些船舶圖片用于該收費(fèi)站中智慧船閘系統(tǒng)的人工智能訓(xùn)練.根據(jù)航道內(nèi)船舶的數(shù)量、大小和種類采集了4000 張俯視角度圖片,圖片大小均為640 × 640,將圖片按照8∶1∶1 的比例分為訓(xùn)練集、驗(yàn)證集和測試集.相比于航拍和遙感等一系列較高俯視角度的圖片數(shù)據(jù)集,本數(shù)據(jù)集有著俯視角度較低、船舶位置密集等特點(diǎn),對模型的檢測精度有更高的要求.

2.2 實(shí)驗(yàn)評價(jià)指標(biāo)

使用以下指標(biāo)來衡量Yolo v8s-seg-boat 網(wǎng)絡(luò)的分割效果:

(1)精確度Precision 表示預(yù)測為正樣本的數(shù)據(jù)樣本中,真正的正樣本所占的比例,公式如下:

其中:TP 表示模型預(yù)測為正樣本實(shí)際也為正樣本的數(shù)據(jù)樣本,F(xiàn)P 表示模型預(yù)測為正樣本實(shí)際卻為負(fù)樣本的數(shù)據(jù)樣本.

(2)召回率Recall 表示實(shí)際為正樣本的數(shù)據(jù)樣本中,真正的正樣本所占的比例,公式如下:

其中:FN表示實(shí)際為正樣本預(yù)測為負(fù)樣本的數(shù)據(jù)樣本;一般來說,數(shù)據(jù)的召回率越高,它的精確度越低.

(3)AP 與mAP. mAP 是目標(biāo)檢測任務(wù)中最常用的評估指標(biāo)之一,可以用來比較不同模型的性能差異;AP 表示的是模型在一個(gè)類別上的優(yōu)劣程度,它的實(shí)際值是圖中曲線與橫坐標(biāo)軸、縱坐標(biāo)軸圍成的面積,取值范圍在0~1之間.

2.3 實(shí)驗(yàn)結(jié)果及分析

使用Pytorch 深度學(xué)習(xí)框架搭建實(shí)驗(yàn)環(huán)境,通過RTX 3090 24GB顯卡進(jìn)行GPU加速,具體環(huán)境如表1所示.

表1 實(shí)驗(yàn)環(huán)境配置單Tab. 1 Experimental environment configuration sheet

2.3.1 船舶數(shù)據(jù)集IoU實(shí)驗(yàn)結(jié)果分析

在船舶數(shù)據(jù)集訓(xùn)練過程中,輸入的圖像大小為640 × 640,batch_size、縮放因子、最大迭代輪次、初始學(xué)習(xí)率分別設(shè)為2,0.35,100,0.01. 使用SGD[19]算法優(yōu)化器調(diào)控模型收斂,動(dòng)量momentum 設(shè)置為0.937,用于控制模型參數(shù)的更新速度和方向.動(dòng)態(tài)焦點(diǎn)損失權(quán)重dfl 設(shè)置為1.5,目的是優(yōu)化動(dòng)態(tài)焦點(diǎn)損失對總損失函數(shù)的貢獻(xiàn)程度.實(shí)驗(yàn)結(jié)果與其他IoU函數(shù)進(jìn)行比較,如表2.

表2 IOU效果對比Tab. 2 IOU effect comparison

對比這3種IoU函數(shù)的實(shí)驗(yàn)效果可以看出,搭載了WIoU 損失函數(shù)的分割模型在船舶數(shù)據(jù)集上的效果最好.與Yolo v8s-seg 模型自帶的CIoU 函數(shù)相比較,EIoU[20]在mAP 上提升了0.3%,這說明EIoU 在CIoU 基礎(chǔ)上拆分長寬比懲罰項(xiàng)分為長損失和寬損失的操作在船舶數(shù)據(jù)集上有助于提高分割精度;而WIoU 相比于EIoU 通過考慮預(yù)測框和真實(shí)框之間的區(qū)域來對IoU進(jìn)行加權(quán),mAP進(jìn)一步提高了0.1%.前50輪訓(xùn)練不同IoU 函數(shù)下模型的分割損失變化如圖8所示.

圖8 訓(xùn)練過程中不同IoU對模型的分割損失變化Fig.8 Segmentation loss variation of the model with different IOUs during the training process

從圖8 中可以看出搭載WIoU 損失函數(shù)的模型在訓(xùn)練過程中收斂速度最快,分割損失值最小,這說明了WIoU在CIoU的基礎(chǔ)上簡化的長損失和寬損失在一定程度上加快了模型的收斂,另一方面減少了低質(zhì)量框?qū)δP陀?xùn)練的影響,使得分割損失變小.

2.3.2 船舶數(shù)據(jù)集注意力機(jī)制的實(shí)驗(yàn)結(jié)果分析

在Yolo v8s-seg 的主干網(wǎng)絡(luò)上添加各種注意力機(jī)制進(jìn)行模型訓(xùn)練,效果對比如表3.

表3 不同注意力機(jī)制效果對比Tab. 3 Comparison of the effects of different attention mechanisms

其中FLOPS 是浮點(diǎn)運(yùn)算數(shù)(Floating Point Operations),表示在訓(xùn)練過程中所執(zhí)行的浮點(diǎn)運(yùn)算的數(shù)量, Parameters 是模型的參數(shù)量.在mAP50-95指標(biāo)上,CA 效果最好,相較于原模型提高了1%,同時(shí)分割精準(zhǔn)度提高了2.2%;相比于CBAM,CA 提取重要空間信息時(shí)主要是依據(jù)像素之間的關(guān)聯(lián)性,能夠更好地捕捉到局部細(xì)節(jié)和空間結(jié)構(gòu),而CBAM 主要專注于對通道關(guān)系進(jìn)行建模,無法完全捕捉像素之間的空間依賴性;另一方面,CA 不僅能夠捕獲跨通道的信息,還能捕獲方向感知和位置感知的信息,在復(fù)雜場景中更加適合,如本數(shù)據(jù)集中,船舶分布密集且存在覆蓋的情形.因此CA 在指標(biāo)Pre 和mAP50-95上最優(yōu).

最后12 輪訓(xùn)練中不同注意力機(jī)制下mAP 的變化如圖9所示.

圖9 最后12輪訓(xùn)練中不同注意力機(jī)制對模型mAP的影響Fig. 9 Effect of different attentional mechanisms on model mAP in the last 12 rounds of training

從圖9 中可以看出注意力機(jī)制CA 在訓(xùn)練過程中mAP 的上升速度明顯超過其他注意力機(jī)制,這說明它對模型梯度下降過程起到了促進(jìn)作用,幫助模型更好地進(jìn)行擬合.

為了更好地理解CA對本模型的影響,引入熱力圖來直觀感受特征在加入注意力機(jī)制前后的變化,打印未加入CA的模型Yolo v8s-seg第9層特征熱力圖和加入CA后模型Yolo v8s-seg + CA 第10層(加入注意力機(jī)制CA的層數(shù))特征熱力圖作比較,如圖10所示.

圖10 無注意力機(jī)制(左)與注意力機(jī)制CA(右)的熱力圖對比Fig. 10 Heat map comparison between no attention mechanism (left)and attention mechanism CA (right)

模型的熱力圖主要用于顯示圖像中各個(gè)區(qū)域的目標(biāo)物體的位置和置信度,顏色越深的區(qū)域表示模型認(rèn)為該區(qū)域存在目標(biāo)物體的可能性越高.從圖10中可以明顯看到加入CA 后顏色在船舶區(qū)域更深,說明模型在加入注意力機(jī)制CA 后對目標(biāo)檢測物船舶的準(zhǔn)確率增加;另一方面,非船舶區(qū)域的顏色存在不同程度變淺的現(xiàn)象,這說明了模型對特征權(quán)重的分配更加合理,降低了檢測誤差.

2.3.3 消融實(shí)驗(yàn)結(jié)果分析

為了驗(yàn)證模型中加入的各個(gè)模塊(注意力機(jī)制,IoU)的作用,單獨(dú)加入CA 或者WIoU 進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表4.

表4 注意力機(jī)制與IoU對模型的影響Tab. 4 Attentional mechanisms and the effect of IOUs on modeling

由表4 可見:加入的注意力機(jī)制CA 與WIoU 對船舶輪廓分割的準(zhǔn)確率有不同程度的提升效果,注意力機(jī)制CA 涉及到網(wǎng)絡(luò)層數(shù)的增加,訓(xùn)練參數(shù)也進(jìn)一步增加,而WIoU 對模型的準(zhǔn)確率提升效果更高,同時(shí)WIoU降低了CIoU帶來的計(jì)算復(fù)雜度,在一定程度上減少了模型的訓(xùn)練時(shí)間,加入這兩個(gè)模塊的模型相比于原模型在mAP50-95 指標(biāo)上提升了1.8%. Yolo v8s-seg 模型與Yolo v8s-seg-boat 模型對船舶輪廓的分割效果對比如圖11所示.從圖11中可以明顯看出:本模型檢測的船舶輪廓相比于Yolo v8s-seg模型更加完整,并且在相同置信度下漏檢率更低.

圖11 Yolo v8s-seg模型(左)與本模型(右)輪廓分割效果對比Fig. 11 Comparison of contour segmentation effect between Yolo v8sseg model (left) and the presented model (right)

船舶角度檢測效果如圖12 所示.由圖12 可知:水上收費(fèi)站實(shí)地考察得到的上述船舶角度為70.9度,這說明Yolo v8s-seg-boat模型在角度檢測上更加準(zhǔn)確.

圖12 Yolo v8s-seg模型(左)與本模型(右)角度檢測效果對比Fig. 12 Comparison of angle detection effect between Yolo v8s-seg model (left) and the presented model (right)

3 結(jié)語

本文針對船舶旋轉(zhuǎn)角度檢測高實(shí)時(shí)化的需求,提出了基于實(shí)例分割的船舶旋轉(zhuǎn)角度檢測模型,在Yolo v8s-seg 網(wǎng)絡(luò)的基礎(chǔ)上添加了注意力機(jī)制,使用Yolo v8s-seg-boat 網(wǎng)絡(luò)來得到船舶的輪廓點(diǎn)坐標(biāo),再使用旋轉(zhuǎn)角度檢測模塊來得到船舶的角度.實(shí)驗(yàn)結(jié)果表明本文提出的改進(jìn)模型Yolo v8s-seg-boat 相較于Yolo v8s-seg 模型能得到更加完整和精確的船舶輪廓,對船舶角度的檢測更加精準(zhǔn),并已在工程上進(jìn)行了應(yīng)用.

猜你喜歡
輪廓實(shí)例注意力
讓注意力“飛”回來
OPENCV輪廓識別研究與實(shí)踐
基于實(shí)時(shí)輪廓誤差估算的數(shù)控系統(tǒng)輪廓控制
“揚(yáng)眼”APP:讓注意力“變現(xiàn)”
傳媒評論(2017年3期)2017-06-13 09:18:10
A Beautiful Way Of Looking At Things
在線學(xué)習(xí)機(jī)制下的Snake輪廓跟蹤
完形填空Ⅱ
完形填空Ⅰ
創(chuàng)造早秋新輪廓
舒適廣告(2008年9期)2008-09-22 10:02:48
贺州市| 郁南县| 民和| 乌兰察布市| 衢州市| 台湾省| 红原县| 阿荣旗| 德保县| 城步| 衡山县| 邢台县| 繁昌县| 浏阳市| 天峨县| 砚山县| 民丰县| 迁西县| 顺义区| 霍山县| 集安市| 三门县| 鞍山市| 普洱| 芒康县| 滕州市| 青铜峡市| 嘉禾县| 淄博市| 周宁县| 定兴县| 青岛市| 田林县| 大港区| 江陵县| 梓潼县| 乌苏市| 军事| 从江县| 天峻县| 迭部县|