国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)YOLOv5s的飾品檢測(cè)算法研究

2023-11-25 11:56:26凡寧寧孫成宇陳虹宇
關(guān)鍵詞:飾品卷積特征

凡寧寧,劉 爽,劉 佳,孫成宇,陳虹宇

(大連民族大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院,遼寧 大連 116650)

近年來,隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,目標(biāo)檢測(cè)技術(shù)已經(jīng)在許多領(lǐng)域中得到廣泛應(yīng)用。然而,在復(fù)雜場(chǎng)景中進(jìn)行人物飾品檢測(cè)仍然是一個(gè)具有挑戰(zhàn)性的問題。人物飾品外觀特征復(fù)雜多變,尺寸比例有較大差異,在面臨多個(gè)人物和飾品的交叉遮擋、姿態(tài)變化、光照變化等影響因素時(shí),大多數(shù)檢測(cè)模型的效果并不理想。因此,研究一種更準(zhǔn)確的人物飾品檢測(cè)算法具有重要意義。

在傳統(tǒng)的飾品檢測(cè)方法中,基于Haar-like[1]特征和HOG[2]特征的方法已經(jīng)被廣泛使用,但是這些方法需要手工選擇特征和調(diào)整參數(shù),存在工作量較大且準(zhǔn)確率較低等問題。相比之下,深度學(xué)習(xí)方法不需要人為地設(shè)計(jì)特征,可以直接從數(shù)據(jù)中學(xué)習(xí)到最優(yōu)的特征表示,因此在飾品檢測(cè)算法研究中也得到了廣泛的應(yīng)用。

主流的深度學(xué)習(xí)目標(biāo)檢測(cè)方法主要分成兩種類別。一類是one-stage算法,例如YOLO[3]和SSD[4]是基于回歸思想的單階段檢測(cè)算法;另一類是two-stage算法,例如R-CNN[5]、Faster R-CNN[6]和Mask R-CNN[7]是基于候選框的兩階段檢測(cè)方法[8]。針對(duì)飾品識(shí)別任務(wù),研究者們通過對(duì)YOLO系列算法進(jìn)行改進(jìn),提高了飾品檢測(cè)的精度和實(shí)時(shí)性。賈世娜等人[9]使用多級(jí)特征融合和多尺度檢測(cè)等方法來提高YOLO算法針對(duì)小目標(biāo)的檢測(cè)效果。改進(jìn)后的算法在一定程度上提高了精度,但是模型體積較大。陳勃旭[10]通過增加數(shù)據(jù)增強(qiáng)方法,提出一種新的小目標(biāo)數(shù)據(jù)集擴(kuò)展與數(shù)據(jù)增強(qiáng)方法并采用anchor自適應(yīng)算法進(jìn)行訓(xùn)練。同時(shí)岳茜[11]設(shè)計(jì)了一種新的損失函數(shù),提高生成框的采集水平,進(jìn)一步優(yōu)化算法的性能。

YOLO系列算法在實(shí)際的檢測(cè)任務(wù)中由于硬件資源的限制,當(dāng)面對(duì)復(fù)雜的檢測(cè)環(huán)境時(shí)仍存在模型體積較大、準(zhǔn)確率不高,容易誤檢等問題。為解決當(dāng)前的技術(shù)難點(diǎn),依據(jù)YOLOv5s算法的高性能特點(diǎn),本文設(shè)計(jì)了一種基于改進(jìn)的YOLOv5s的人物飾品檢測(cè)算法,采用輕量化的骨干網(wǎng)絡(luò)縮小模型體積,同時(shí)優(yōu)化注意力機(jī)制與空間金字塔池化結(jié)構(gòu)提升網(wǎng)絡(luò)的精度,最后改進(jìn)損失函數(shù)提高模型對(duì)目標(biāo)尺寸的魯棒性。在人物飾品檢測(cè)數(shù)據(jù)集中進(jìn)行驗(yàn)證,并于其他檢測(cè)算法對(duì)比,驗(yàn)證本文方法的有效性。

1 YOLOv5s目標(biāo)檢測(cè)算法

YOLO算法從總體上看,是單階段端到端的基于anchor-free的檢測(cè)算法。將圖片輸入網(wǎng)絡(luò)進(jìn)行特征提取與融合后,得到檢測(cè)目標(biāo)的預(yù)測(cè)框位置以及類概率。而YOLOv5是YOLO系列中應(yīng)用最廣泛的,其擁有模型小,檢測(cè)速度快的特點(diǎn)。根據(jù)網(wǎng)絡(luò)結(jié)構(gòu)的大小以及特征圖寬度分成YOLOv5s、YOLOv5m、YOLOv5l。整體網(wǎng)絡(luò)結(jié)構(gòu)由主干網(wǎng)絡(luò)(Backbone)、頸部網(wǎng)絡(luò)(Neck)、預(yù)測(cè)輸出端(Head)組成。

2 改進(jìn)YOLOv5s模型設(shè)計(jì)

本文主要從骨干網(wǎng)絡(luò)輕量化、注意力機(jī)制、特征融合和損失函數(shù)四個(gè)方面對(duì)YOLOv5s進(jìn)行優(yōu)化。傳統(tǒng)的卷積網(wǎng)絡(luò)對(duì)硬件的要求較高,在設(shè)備資源限制下,較大的飾品檢測(cè)模型無法正常運(yùn)行,所以提出基于Ghost卷積模塊的輕量型骨干網(wǎng)絡(luò),對(duì)整個(gè)網(wǎng)絡(luò)進(jìn)行輕量化處理。為了更加充分的利用骨干特征網(wǎng)絡(luò)的原始特征信息,采用SPPFCSPC模塊充分融合不同尺度的特征信息,以提升模型檢測(cè)精度。在兼顧不同尺度的特征信息的同時(shí)特征信息之間的交互會(huì)被弱化。為了進(jìn)一步增強(qiáng)特征圖上的有效信息,將注意力模塊CBAM嵌入到檢測(cè)模型中,在通道和空間兩個(gè)維度上進(jìn)行特征的注意力權(quán)重融合,使網(wǎng)絡(luò)聚焦有意義的特征抑制無用信息。改進(jìn)的YOLOv5s模型結(jié)構(gòu)圖如圖1。

圖1 改進(jìn)的YOLOv5s模型結(jié)構(gòu)示意圖

2.1 YOLOv5s模型主干網(wǎng)絡(luò)優(yōu)化

YOLOv5s中使用的CSPDarkNet53主干網(wǎng)絡(luò)是在DarkNet53網(wǎng)絡(luò)中引入跨階段局部網(wǎng)絡(luò)[12](Cross Stage Partial Network,CSPNet),提取有效的深度特征信息。但傳統(tǒng)的卷積網(wǎng)絡(luò)存在特征信息冗余,計(jì)算量大和模型參數(shù)大的問題,對(duì)硬件資源的要求較高,所以需要縮小模型體積減少參數(shù)量。Ghost卷積是GhostNet[13]的核心模塊,與傳統(tǒng)卷積不同,Ghost卷積從特征圖冗余問題出發(fā),利用特征圖的相似性,通過少量計(jì)算產(chǎn)生大量特征圖。由此Ghost卷積被設(shè)計(jì)為一種分階段的卷積計(jì)算模塊,Ghost卷積將特征提取與廉價(jià)的線性運(yùn)算并行執(zhí)行后的兩組特征圖進(jìn)行拼接,產(chǎn)生大量特征圖。以此消除特征圖冗余,獲得更加輕量的模型。

(1)

式中,d·d的幅度與k·k相似,且s<

(2)

由公式(1)、(2)的化簡(jiǎn)結(jié)果可得一般卷積的參數(shù)量和計(jì)算量大致為Ghost卷積的s倍。因此,本文基于Ghost卷積的輕量化優(yōu)勢(shì),使用Ghost卷積替換YOLOv5s算法網(wǎng)絡(luò)中的普通卷積再結(jié)合CSPNet結(jié)構(gòu),搭建出適用于YOLOv5s的Ghost卷積結(jié)構(gòu),具體結(jié)構(gòu)如圖2。

圖2 Ghost卷積結(jié)構(gòu)示意圖

2.2 YOLOv5s模型注意力機(jī)制改進(jìn)

相比于YOLOv5s中原生的輕量級(jí)注意力機(jī)制SE-Net只注重通道像素的重要性,CBAM[14](Convolutional Block Attention Module)注意力機(jī)制作為一種輕量級(jí)的注意力模型,綜合考慮了不同通道像素和同一通道不同位置像素在重要性上的區(qū)別。輸入特征會(huì)沿著順序結(jié)構(gòu)依次融合沿通道和空間兩種維度上的注意力權(quán)重,然后再將注意力特征向量和輸入特征向量相乘來實(shí)現(xiàn)自適應(yīng)特征優(yōu)化。

在YOLOv5架構(gòu)中,Neck部分進(jìn)行多尺度特征融合,其目的是將淺層網(wǎng)絡(luò)的強(qiáng)位置信息和深層網(wǎng)絡(luò)的強(qiáng)語義信息傳遞給其他網(wǎng)絡(luò)層,沿著這個(gè)思路把CBAM模塊添加在Neck部分。整體添加注意力機(jī)制示意圖如圖3。注意力機(jī)制通過對(duì)特征圖的通道維度進(jìn)行自適應(yīng)的加權(quán),調(diào)整特征圖在不同通道上的表示權(quán)重,使模型更好地捕捉到飾品目標(biāo)區(qū)域的重要特征。同時(shí)通過對(duì)特征圖的空間維度進(jìn)行自適應(yīng)的加權(quán),調(diào)整特征圖在不同空間位置上的表示權(quán)重。使模型更好地定位飾品目標(biāo)區(qū)域,并抑制無關(guān)的背景信息。

圖3 添加CBAM結(jié)構(gòu)示意圖

2.3 YOLOv5s模型空間金字塔池化改進(jìn)

為了更加充分的利用主干網(wǎng)絡(luò)提取的特征,采用SPPF[15]空間金字塔池化結(jié)構(gòu)對(duì)各階段直接增加由自底向上和自頂向下的路徑。CSPNet結(jié)構(gòu)利用跨階段特征融合策略和截?cái)嗵荻攘骷夹g(shù)增強(qiáng)不同網(wǎng)絡(luò)層間學(xué)習(xí)特征的可變性,從而減少冗余梯度信息的影響,增強(qiáng)網(wǎng)絡(luò)學(xué)習(xí)能力。一方面,CSPNet在減少計(jì)算量、減少內(nèi)存成本的同時(shí),優(yōu)化網(wǎng)絡(luò)檢測(cè)精度,所以在改進(jìn)YOLOv5s模型時(shí)將該思想運(yùn)用到SPPF模塊,優(yōu)化梯度信息,強(qiáng)化其特征聚合能力。

SPPFCSPC模塊就是綜合SPPF模塊與CSP模塊。首先將特征分為兩部分,其中的一個(gè)部分進(jìn)行常規(guī)的處理,另外一個(gè)部分進(jìn)行SPPF結(jié)構(gòu)的處理,最后把這兩個(gè)部分拼接在一起,使模型能在保持感受野不變的情況下獲得速度與精度的提升,SPPFCSPC模塊結(jié)構(gòu)如圖4。

圖4 SPPFCSPC模塊結(jié)構(gòu)圖

2.4 YOLOv5s模型損失函數(shù)改進(jìn)

YOLOv5s的損失是由分類損失(Classes loss)、置信度損失(Objectness loss)和定位損失(Location loss)三部分進(jìn)行加權(quán)相加構(gòu)成,而定位損失對(duì)應(yīng)的邊界框位置預(yù)測(cè)是目標(biāo)檢測(cè)中最主要的任務(wù)。YOLOv5s使用DIoU Loss[16]作為邊界框回歸損失函數(shù),用以評(píng)判預(yù)測(cè)檢測(cè)框與真實(shí)檢測(cè)框的檢測(cè)效果。其計(jì)算公式如式3所示:

(3)

式中:gt表示真實(shí)檢測(cè)框;pb表示預(yù)測(cè)檢測(cè)框;ρ2(*)表示求歐式距離;bgt表示檢測(cè)框的中心點(diǎn);bpb表示預(yù)測(cè)框的中心點(diǎn);wpb、hpb分別表示檢測(cè)框的寬度和高度;c表示預(yù)測(cè)框和真實(shí)框的最小包圍框的最短對(duì)角線長(zhǎng)度。

在實(shí)際的檢測(cè)任務(wù)中,回歸定位損失應(yīng)該考慮到3種幾何參數(shù):重疊面積、中心點(diǎn)距離、長(zhǎng)寬比,DIoU僅考慮了前兩者,CIoU在DIoU的基礎(chǔ)上加入了對(duì)回歸框的長(zhǎng)寬比,這樣預(yù)測(cè)框就會(huì)更加的符合真實(shí)框。CIoU示意圖如圖5。圖中黑色實(shí)線框表示真實(shí)檢測(cè)框,黑色虛線框表示預(yù)測(cè)檢測(cè)框。

圖5 CIoU示意圖

CIoU計(jì)算公式如下:

(4)

(5)

(6)

式中:ρ2(*)表示求歐式距離;bgt表示檢測(cè)框的中心點(diǎn);bpb表示預(yù)測(cè)框的中心點(diǎn);wpb、hpb分別表示檢測(cè)框的寬度和高度;c表示預(yù)測(cè)框和真實(shí)框的最小包圍框的最短對(duì)角線長(zhǎng)度;α表示一個(gè)正平衡參數(shù);v表示預(yù)測(cè)框和真實(shí)框的長(zhǎng)寬比的一致性。

3 實(shí)驗(yàn)與實(shí)驗(yàn)結(jié)果分析

3.1 數(shù)據(jù)預(yù)處理

在本次研究中采用自制數(shù)據(jù)集進(jìn)行訓(xùn)練和測(cè)試。自制數(shù)據(jù)集中包含手表、眼鏡、帽子3個(gè)類別,其中眼鏡圖像584張,手表圖像410張,帽子圖像296張。數(shù)據(jù)集圖像類別數(shù)量和圖像標(biāo)注錨框的分布情況如圖6。三種類別的圖像數(shù)量分布如圖6a。類別分布在收集數(shù)據(jù)時(shí)充分考慮不同視角下的大小和形狀問題,以及各種燈光和有其他物體遮擋時(shí)的情況,從而進(jìn)一步提高模型的魯棒性和精度。數(shù)據(jù)集包含1 290張JPG格式圖片,圖像大小為1 920×1 080,按照8:2的比例劃分為訓(xùn)練集和測(cè)試集。數(shù)據(jù)采用VOC數(shù)據(jù)集格式,使用LabelImg標(biāo)注工具為每幅圖像標(biāo)注真實(shí)目標(biāo)框。

a)類別數(shù)量分布圖 b)圖像錨框中心分布圖 c)圖像錨框大小分布圖圖6 數(shù)據(jù)集圖像類別數(shù)量和圖像標(biāo)注錨框的分布情況

為了更加了解數(shù)據(jù)集中圖像和錨框的分布情況,對(duì)數(shù)據(jù)集進(jìn)行分析。目標(biāo)中三種飾品類別圖像數(shù)量分布相對(duì)均勻,無異常數(shù)據(jù),針對(duì)較難識(shí)別的小目標(biāo)類別如眼鏡和手表,采集這兩種類別圖像占比80%,如圖6a。圖像標(biāo)注錨框中心點(diǎn)位置分布相對(duì)均勻,且大都分布在圖像的中下方如圖6b;錨框大小方面總體上中小錨框居多如圖6c。說明數(shù)據(jù)集是有利于模擬真實(shí)場(chǎng)景下的人物飾品檢測(cè)任務(wù)的。

為了增強(qiáng)數(shù)據(jù)多樣性,防止模型過擬合。采用Mosaic和Cutout方法進(jìn)行數(shù)據(jù)增廣,同時(shí)在訓(xùn)練時(shí)采用對(duì)稱翻轉(zhuǎn)、改變對(duì)比度和亮度、添加噪聲,大小縮放的操作對(duì)原始數(shù)據(jù)集進(jìn)行預(yù)處理以豐富數(shù)據(jù)集。具體操作見表1。

表1 數(shù)據(jù)集擴(kuò)充操作

3.2 實(shí)驗(yàn)環(huán)境

實(shí)驗(yàn)使用AutoDL云計(jì)算平臺(tái)進(jìn)行訓(xùn)練和測(cè)試,系統(tǒng)配置見表2。

表2 實(shí)驗(yàn)環(huán)境

3.3 模型評(píng)價(jià)指標(biāo)

本次實(shí)驗(yàn)選取了直接評(píng)估模型檢測(cè)水平的常用評(píng)價(jià)指標(biāo),對(duì)改進(jìn)后的YOLOv5s飾品檢測(cè)網(wǎng)絡(luò)模型進(jìn)行評(píng)價(jià)。

(1)精確度(Precision,P)、召回率(Recall,R)。

(7)

(8)

式中:TP為目標(biāo)被正確檢測(cè)出來的數(shù)量;FP為被誤檢的目標(biāo)數(shù)量;FN為未被檢測(cè)出的樣本數(shù)量。

(2)平均精度(Average Precision,AP)、平均精度均值(mean Average Precision,mAP)為

(9)

(10)

式中,N=3為類別個(gè)數(shù),在采用精確度和召回率兩個(gè)值作為橫縱坐標(biāo)的P-R曲線中,P-R曲線與坐標(biāo)軸圍成的面積等于AP值大小。平均精度(mAP)是所有類別預(yù)測(cè)精準(zhǔn)度的平均值,將每一類的AP值都計(jì)算出來以后,將其平均就得到mAP。

3.4 改進(jìn)YOLOv5s消融實(shí)驗(yàn)

本次實(shí)驗(yàn)對(duì)YOLOv5s模型的主干網(wǎng)絡(luò)、注意力機(jī)制、特征融合方法進(jìn)行了改進(jìn),同時(shí)優(yōu)化了損失函數(shù)。為評(píng)估不同模塊改動(dòng)和不同模塊互相組合對(duì)于算法性能優(yōu)化的程度設(shè)計(jì)了消融實(shí)驗(yàn)。實(shí)驗(yàn)的基準(zhǔn)模型為YOLOv5s模型。為保證實(shí)驗(yàn)準(zhǔn)確性,每組實(shí)驗(yàn)?zāi)P途捎孟嗤挠?xùn)練參數(shù)和數(shù)據(jù)集,且每組實(shí)驗(yàn)做三次取其平均值進(jìn)行對(duì)比。消融實(shí)驗(yàn)數(shù)據(jù)見表3。

表3 消融實(shí)驗(yàn)對(duì)比結(jié)果

對(duì)本文提出的四種不同的優(yōu)化方法進(jìn)行單獨(dú)實(shí)驗(yàn)和組合實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明每種改進(jìn)都對(duì)模型性能產(chǎn)生了不同程度的影響。主要表現(xiàn)在以下幾個(gè)方面。

實(shí)驗(yàn)2表明更換GhostNet骨干網(wǎng)絡(luò)之后模型整體參數(shù)量下降60%,但模型的平均精度和準(zhǔn)確率都有所下降。實(shí)驗(yàn)3~5表明三種優(yōu)化方法單獨(dú)使用都可以提升模型的mAP。其中加入SPPFCSPC模塊之后參數(shù)量有所增加同時(shí)mAP提升了9%,準(zhǔn)確度提升了6.6%。CBAM注意力機(jī)制和CIoU激活函數(shù)mAP分別提升1.9%和1.7%。

根據(jù)組合不同模塊進(jìn)行實(shí)驗(yàn)的實(shí)驗(yàn)結(jié)果發(fā)現(xiàn),使用不同的組合使模型的整體性能提升呈現(xiàn)正向優(yōu)化。在實(shí)驗(yàn)9中使用原生骨干網(wǎng)絡(luò),在優(yōu)化了CBAM注意力機(jī)制和SPPFCSPC模塊之后mAP提升了10.2%,準(zhǔn)確度提升了4.9%,但是參數(shù)量有大幅增加,其中大部分參數(shù)量來自SPPFCSPC模塊;實(shí)驗(yàn)11在實(shí)驗(yàn)9的基礎(chǔ)上優(yōu)化損失函數(shù)為CIoU之后mAP提升了1.9%。這說明三種優(yōu)化策略組合使用可以提升模型性能。

為了降低模型參數(shù)量的同時(shí),提升模型的mAP與精確度,在使用GhostNet骨干網(wǎng)絡(luò)之后進(jìn)行了實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果顯示不同的模塊組合產(chǎn)生的優(yōu)化效果也不同。實(shí)驗(yàn)6表明在GhostNet骨干網(wǎng)絡(luò)下添加注意力機(jī)制準(zhǔn)確度提升了1.7%,但是mAP下降了1.6%。實(shí)驗(yàn)7、實(shí)驗(yàn)8也是相同的表現(xiàn),這說明使用GhostNet骨干網(wǎng)絡(luò)降低了參數(shù)量但是對(duì)于mAP的提升并不理想。實(shí)驗(yàn)10和實(shí)驗(yàn)12同時(shí)采用多種優(yōu)化策略,從結(jié)果來看雖然會(huì)削弱單個(gè)優(yōu)化策略的提升程度,但在整體上達(dá)到了最優(yōu)效果。特別是實(shí)驗(yàn)12,mAP提升了14.2%,準(zhǔn)確度提升了8.9%,同時(shí)整體參數(shù)量降低了18.2%,達(dá)到了在本次實(shí)驗(yàn)中較為理想的結(jié)果。

為直觀展現(xiàn)本文算法的檢測(cè)效果,從測(cè)試集的檢測(cè)結(jié)果中選取三張具有代表性的場(chǎng)景進(jìn)行檢測(cè)如圖7。其中左列為原圖,右列為檢測(cè)結(jié)果。圖7a展示了在室外光照和陰影變化場(chǎng)景下的檢測(cè)結(jié)果;圖7b展示了在室內(nèi)檢測(cè)目標(biāo)分布密集時(shí)的檢測(cè)結(jié)果;圖7c展示了在復(fù)雜背景下檢測(cè)目標(biāo)被遮擋時(shí)的檢測(cè)結(jié)果。

a)光照變化場(chǎng)景下的飾品檢測(cè)

3.5 不同模型對(duì)比實(shí)驗(yàn)

為了對(duì)比本文提出的改進(jìn)YOLOv5s模型與其他相關(guān)工作的模型的效果,使用SSD(MobileNetV2)、Faster-RCNN(ResNet50)、YOLOv4(DarkNet53)、YOLOv5s(DarkNet53)4個(gè)模型設(shè)計(jì)了對(duì)比實(shí)驗(yàn)。在人物飾品檢測(cè)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)采用相同的運(yùn)行環(huán)境。每個(gè)模型進(jìn)行三次實(shí)驗(yàn)取其平均結(jié)果進(jìn)行對(duì)比,結(jié)果見表4。

從對(duì)比實(shí)驗(yàn)的結(jié)果可以看出,優(yōu)化后的YOLOv5s模型準(zhǔn)確率最高,模型體積最小。遠(yuǎn)遠(yuǎn)小于Faster-RCNN和YOLOv4,而且比YOLOv5降低了18.2%的參數(shù)量。和同為輕量級(jí)架構(gòu)的SSD相比,雖然兩者體積近似但是優(yōu)化后的YOLOv5s的mAP提升了14.3%??傮w分析,本文提出的改進(jìn)YOLOv5s模型檢測(cè)效果更好,總體性能更佳。

4 結(jié) 語

針對(duì)目標(biāo)檢測(cè)模型在進(jìn)行人物飾品檢測(cè)時(shí)效果差的問題,提出了一種改進(jìn)的YOLOv5s模型進(jìn)行人物飾品檢測(cè)。在自制數(shù)據(jù)集上進(jìn)行模型訓(xùn)練,使用GhostNet進(jìn)行特征提取來降低模型參數(shù)量,同時(shí)降低輕量化對(duì)模型準(zhǔn)確率的負(fù)面影響,使用CBAM注意力機(jī)制和優(yōu)化Neck層的特征融合網(wǎng)絡(luò)結(jié)構(gòu),增加模型的特征提取與特征利用能力,引入損失函數(shù)提升模型性能。實(shí)驗(yàn)結(jié)果表明:改進(jìn)的YOLOv5s模型能在降低模型參數(shù)的同時(shí)提升檢測(cè)的準(zhǔn)確度。后續(xù)工作將對(duì)模型結(jié)構(gòu)和參數(shù)進(jìn)一步優(yōu)化,在自制數(shù)據(jù)集中增加更多復(fù)雜環(huán)境下的數(shù)據(jù)和更多種類的數(shù)據(jù)以提升模型的魯棒性和泛化能力。

猜你喜歡
飾品卷積特征
基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
如何表達(dá)“特征”
從濾波器理解卷積
電子制作(2019年11期)2019-07-04 00:34:38
不忠誠(chéng)的四個(gè)特征
飾品
延河(2018年6期)2018-06-11 07:34:16
基于傅里葉域卷積表示的目標(biāo)跟蹤算法
抓住特征巧觀察
飾品與靈感間的故事
Coco薇(2015年11期)2015-11-09 12:23:06
一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識(shí)別方法
線性代數(shù)的應(yīng)用特征
河南科技(2014年23期)2014-02-27 14:19:15
德安县| 奉新县| 新营市| 闸北区| 广灵县| 前郭尔| 营山县| 航空| 杨浦区| 清原| 商都县| 古蔺县| 博客| 嫩江县| 平南县| 隆尧县| 伊金霍洛旗| 泸水县| 沙河市| 平陆县| 霍州市| 皋兰县| 边坝县| 子洲县| 惠东县| 唐山市| 西峡县| 阳泉市| 金川县| 上饶县| 海南省| 东乡| 洪江市| 扎鲁特旗| 榆中县| 天台县| 安吉县| 巴彦县| 长寿区| 汽车| 廊坊市|