国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于RFID的輕量化的動(dòng)作識(shí)別方法

2024-09-22 00:00:00閆豪強(qiáng)梁坤張亞軍許桓源王興強(qiáng)
現(xiàn)代電子技術(shù) 2024年17期

摘" 要: 針對(duì)基于射頻識(shí)別(RFID)的相位(Phase)信號(hào)的動(dòng)作識(shí)別技術(shù)識(shí)別精度不高或不夠輕量化等問(wèn)題,提出基于RFID的輕量化的動(dòng)作識(shí)別方法。該方法通過(guò)格拉姆矩陣將一維數(shù)據(jù)轉(zhuǎn)化為二維圖像,將Phase轉(zhuǎn)換為格拉姆角場(chǎng)作為改進(jìn)的MobileNet網(wǎng)絡(luò)輸入,通過(guò)格拉姆角場(chǎng)圖像所擁有的高階信號(hào)描述能力表現(xiàn)更多的幾何性質(zhì)和內(nèi)在數(shù)據(jù)結(jié)構(gòu),在減小異常數(shù)據(jù)對(duì)識(shí)別效果影響的同時(shí)提高識(shí)別性能并充分利用網(wǎng)絡(luò)。同時(shí),將坐標(biāo)注意力機(jī)制融合壓縮激勵(lì)機(jī)制,獲取相位信號(hào)中更豐富的上下文信息使模型更好地定位和識(shí)別目標(biāo),同時(shí)在保證不影響識(shí)別精度的情況下重新構(gòu)建網(wǎng)絡(luò),減少模型參數(shù)以及所需計(jì)算量。該方法與傳統(tǒng)MobileNet相比,模型參數(shù)量?jī)H為原模型的12.9%,同時(shí)識(shí)別率提高2.34%,每秒浮點(diǎn)運(yùn)算次數(shù)也優(yōu)于原模型。實(shí)驗(yàn)結(jié)果表明,該模型各個(gè)指標(biāo)都表現(xiàn)出更優(yōu)的實(shí)驗(yàn)結(jié)果,能夠完成動(dòng)作識(shí)別的相關(guān)要求。

關(guān)鍵詞: 動(dòng)作識(shí)別; 格拉姆角場(chǎng); 多維注意力; MobileNet; 相位信號(hào); 輕量化網(wǎng)絡(luò)

中圖分類號(hào): TN911.7?34; TP391.4" " " " " " " " " "文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " " 文章編號(hào): 1004?373X(2024)17?0181?06

RFID?based lightweight action recognition method

YAN Haoqiang1, LIANG Kun2, ZHANG Yajun1, XU Huanyuan1, WANG Xingqiang1

(1. School of Software, Xinjiang University, Urumqi 830046, China;

2. Armed Police Crops, Urumqi 830000, China)

Abstract: In view of the low accuracy and the lack of lightweight of action recognition technology based on radio frequency identification (RFID) phase signals, a lightweight RFID?based action recognition method is proposed. The one?dimensional data is transformed into two?dimensional images by the Gram matrix. The phase signals are converted into the Gram angular field, which is taken as the input of the improved MobileNet. More geometric properties and intrinsic data structures of the image is exhibited by the Gramian angular field (GAF) images′ higher?order signal description capabilities, so as to improve the recognition performance of the method and utilize the network fully while reducing the influence of abnormal data on the recognition effect. The coordinate attention (CA) mechanism is integrated with the squeeze?and?excitation mechanism, so that the model can capture more abundant contextual information from the phase signals and obtain better object localization and recognition. The network is reconstructed to reduce the model parameters and the required computational load, without affecting its recognition accuracy. In comparison with the traditional MobileNet, the quantity of the parameter of the proposed model are only 12.9% of the original model, its recognition rate is improved by 2.34%, and its floating?point operations per second (FLOPs) is also superior to that of the original model. The experimental results show that the proposed model exhibits superior performance for all indexes and can fulfill the requirements for action recognition tasks.

Keywords: action recognition; GAF; multi?dimensional attention; MobileNet; phase signal; lightweight network

0" 引" 言

近年來(lái),隨著物聯(lián)網(wǎng)、工業(yè)互聯(lián)網(wǎng)和工業(yè)4.0等智能化概念的提出,新型的計(jì)算模式和感知技術(shù)廣泛應(yīng)用于生產(chǎn)和生活。隨著智能設(shè)備的廣泛使用,基于廣泛的智能設(shè)備的非接觸式無(wú)源動(dòng)作識(shí)別逐漸受到關(guān)注,成為學(xué)術(shù)界的研究熱點(diǎn)之一[1]。

目前動(dòng)作識(shí)別技術(shù)可以分為兩類:可穿戴式設(shè)備與非可穿戴設(shè)備?;诳纱┐魇皆O(shè)備的動(dòng)作識(shí)別大多是基于傳感器的識(shí)別系統(tǒng), 利用傳感器采集人體的動(dòng)作數(shù)據(jù),對(duì)建立的人體運(yùn)動(dòng)模型進(jìn)行分析,從而可對(duì)人體動(dòng)作進(jìn)行近似識(shí)別[2]。例如,文獻(xiàn)[3]讓用戶攜帶包含三軸線性加速度計(jì)和陀螺儀等設(shè)備的智能手機(jī),通過(guò)分層提取特征的策略融合信息,采用神經(jīng)網(wǎng)絡(luò)對(duì)用戶動(dòng)作進(jìn)行識(shí)別。文獻(xiàn)[4]將三個(gè)電極片附著于人體腳踝與胸口,通過(guò)人體姿勢(shì)導(dǎo)致的信道衰減對(duì)人體姿勢(shì)進(jìn)行識(shí)別。但基于可穿戴式設(shè)備的動(dòng)作識(shí)別仍有一些問(wèn)題,如設(shè)備的大小、重量和設(shè)計(jì)可能會(huì)影響用戶的舒適度。長(zhǎng)時(shí)間佩戴設(shè)備可能會(huì)影響用戶的接受度,并且可穿戴式設(shè)備通常價(jià)格昂貴,還需定時(shí)對(duì)設(shè)備進(jìn)行充電、檢修等維護(hù)步驟,這無(wú)疑極大影響了上述方法的普及與傳播。

非可穿戴設(shè)備的動(dòng)作識(shí)別,如基于計(jì)算機(jī)視覺(jué)的動(dòng)作識(shí)別使用相機(jī)或攝像機(jī)采集圖片,文獻(xiàn)[5]提出一種輕量型的雙流融合深度神經(jīng)網(wǎng)絡(luò)模型,并在開(kāi)源數(shù)據(jù)集UCF101和HMDB51上進(jìn)行實(shí)驗(yàn),結(jié)果表明該方法能夠?qū)崿F(xiàn)準(zhǔn)確的活動(dòng)識(shí)別。文獻(xiàn)[6]提出了一種正樣本不受數(shù)據(jù)增強(qiáng)限制的雙重最近鄰檢索動(dòng)作識(shí)別算法DNNCLR,基于對(duì)比損失的自監(jiān)督學(xué)習(xí)方法識(shí)別人體骨架,從而進(jìn)行人體動(dòng)作識(shí)別。但基于計(jì)算機(jī)視覺(jué)的方法只能工作在沒(méi)有障礙物阻擋和充足的光照環(huán)境下[7]并且圖片或視頻可能暴露用戶隱私[8],使用戶受到安全威脅。而基于無(wú)線傳感的動(dòng)作識(shí)別易部署且價(jià)格低廉,同時(shí)避免了用戶在使用時(shí)個(gè)人隱私泄露的風(fēng)險(xiǎn)。文獻(xiàn)[9]將標(biāo)簽貼在桌子右側(cè),通過(guò)識(shí)別舉起左手、舉起右手、打盹和拿書(shū)四個(gè)動(dòng)作來(lái)判斷學(xué)生的學(xué)習(xí)狀態(tài)。但上述方法均將原始的相位信號(hào)作為模型輸入,對(duì)信號(hào)中的離群點(diǎn)與異常點(diǎn)過(guò)于敏感,且目前基于深度學(xué)習(xí)的模型結(jié)構(gòu)比較復(fù)雜[10],神經(jīng)網(wǎng)絡(luò)層數(shù)過(guò)多,模型參數(shù)量大,增加了計(jì)算和存儲(chǔ)開(kāi)銷,使模型不具有快速部署與響應(yīng)的能力,無(wú)法在計(jì)算資源有限的設(shè)備上高效運(yùn)行。基于以上問(wèn)題,本文在MobileNetV3的基礎(chǔ)上構(gòu)建一個(gè)輕量化模型結(jié)構(gòu),實(shí)現(xiàn)高效的動(dòng)作識(shí)別方案。本文主要貢獻(xiàn)如下。

1) 與傳統(tǒng)MobileNetV3相比,在保證識(shí)別率的同時(shí)精減了網(wǎng)絡(luò)結(jié)構(gòu),減少了網(wǎng)絡(luò)中模塊的數(shù)量和訓(xùn)練所需的計(jì)算資源,加快了訓(xùn)練速度。

2) 將相位信號(hào)通過(guò)格拉姆矩陣轉(zhuǎn)化為圖像數(shù)據(jù),減弱相位信號(hào)因?yàn)槟承└蓴_產(chǎn)生的異常點(diǎn)影響獲取相位信號(hào)中更豐富的上下文信息,使模型更好地定位和識(shí)別目標(biāo),同時(shí)圖像數(shù)據(jù)能充分利用深度學(xué)習(xí)模型的性能,提高識(shí)別精度。

3) 引入坐標(biāo)注意力機(jī)制,使模型不僅考慮通道維度上的注意力,還能捕獲特征遠(yuǎn)程依賴關(guān)系,在另一個(gè)空間方向上保留精確的特征位置信息。獲取相位信號(hào)中更豐富的上下文信息使模型更好地定位和識(shí)別目標(biāo)。

1" 格拉姆角場(chǎng)

格拉姆角場(chǎng)(Gramian Angular Field)是將時(shí)間序列數(shù)據(jù)轉(zhuǎn)換為圖像數(shù)據(jù)的編碼方法,保留信號(hào)完整信息的同時(shí),保持著信號(hào)對(duì)于時(shí)間的依賴性。相位信號(hào)具有非平穩(wěn)和變相位等特點(diǎn),圖像具有更強(qiáng)的高階信號(hào)描述能力,與一維信號(hào)相比,圖像數(shù)據(jù)具有更多的幾何性質(zhì)和內(nèi)在數(shù)據(jù)結(jié)構(gòu)。格拉姆角場(chǎng)的思想主要來(lái)源于線性代數(shù)中Gram矩陣的概念,由[k]維空間中任意[n]個(gè)向量的內(nèi)積組成的矩陣稱為Gram矩陣,它可以表示為:

[Gv1,v2,…,vn=lt;v1,v1gt;…lt;v1,vngt;lt;v2,v1gt;…lt;v2,vngt;???lt;vn,v1gt;…lt;vn,vngt;] (1)

式中[v1]~[vn]都是[k]維向量,每個(gè)向量的內(nèi)積可以表示為:

[lt;vx,vygt;=i=1nvxi?vyi] (2)

相位信號(hào)的Gram矩陣可以表示如下:

[Gx1,x2,…,xn=x1?x1…x1?xnx2?x1…x2?xn???xn?x1…xn?xn] (3)

式中[xi]為信號(hào)中第[i]個(gè)單位時(shí)間的相位值。再將相位數(shù)據(jù)從笛卡爾坐標(biāo)系轉(zhuǎn)化為極坐標(biāo)系,表達(dá)式為:

[θ=arccos(xi)," " x∈Xr=tiR," " i∈R] (4)

式中[R]為極坐標(biāo)系張成空間的常數(shù)因子。通過(guò)GAF轉(zhuǎn)換算法可以生成一個(gè)保持時(shí)間依賴性的Gramian矩陣?;谟嘞液瘮?shù)的格拉姆角和場(chǎng)、基于正弦函數(shù)的格拉姆角差場(chǎng)分別定義如下:

[GASF=cos(θi+θj)n×nGADF=cos(θi-θj)n×n] (5)

采用GAF算法,通過(guò)縮放、轉(zhuǎn)換極坐標(biāo)和三角函數(shù)計(jì)算三步,將相位信號(hào)轉(zhuǎn)換為二維圖像,從而將圖像深度學(xué)習(xí)網(wǎng)絡(luò)應(yīng)用于序列分類的研究。轉(zhuǎn)換過(guò)程如圖1所示。

2" MobileNetV3改進(jìn)

2.1" 注意力模塊改進(jìn)

MobileNetV3[10]是一種輕量型的卷積神經(jīng)網(wǎng)絡(luò),注意力機(jī)制為擠壓和激勵(lì)機(jī)制(Squeeze and Excitation Network),其結(jié)構(gòu)主要由全局平均池化層(Global Average Pooling)、全連接層(Fully Connected)、激活函數(shù)組成。由于卷積只在局部空間內(nèi)進(jìn)行,很難獲得足夠的信息來(lái)提取信道(channel)之間的關(guān)系特征。為提取channel之間的關(guān)系,首先將每個(gè)channel上的空間特征編碼壓縮為一個(gè)全局特征,加入一個(gè)全連接層SE的結(jié)構(gòu),如圖2所示。

SE機(jī)制對(duì)通道關(guān)系進(jìn)行建模重構(gòu)通道的權(quán)重,但SE只考慮通道維度上的注意力,無(wú)法捕捉空間維度上的注意力,而位置信息對(duì)于生成具有空間選擇性的注意力映射非常重要。

故本文引入坐標(biāo)注意力(Coordinate Attention, CA)[11]。CA注意力與通道注意力不同的是通過(guò)使用二維全局池化,將特征張量轉(zhuǎn)換為一個(gè)單一的特征向量。CA注意力的關(guān)鍵在于將通道注意力分解為兩個(gè)一維特征編碼過(guò)程,它們分別在兩個(gè)空間方向上聚合特征[12]。這種方法的優(yōu)點(diǎn)是:它允許模型在一個(gè)空間方向上捕獲遠(yuǎn)程依賴關(guān)系,同時(shí)在另一個(gè)空間方向上保留精確的位置信息[13]。CA注意力流程圖如圖3所示。

CA注意力的第一步是特征圖嵌入,將大小為[W×H×C]的輸入特征圖使用全局平均池化操作劃分為水平方向[X]特征圖和豎直方向[Y]特征圖。[X]、[Y]特征圖的大小均為[W×1×C]。計(jì)算公式如下:

[zhc(h)=1w0≤i≤Wxc(h,i)zwc(w)=1H0≤j≤Hxc(j,w)] (6)

式中:[zhc(h)]與[zwc(w)]為全局歸一化后的水平特征圖與豎直特征圖。將兩個(gè)特征圖拼接并通過(guò)1×1的共享卷積核運(yùn)算降維為原來(lái)的[Cr]維,經(jīng)過(guò)批量歸一化處理后送入激活函數(shù),得到形如[(W+H)×1×Cr]的特征圖。計(jì)算公式如下:

[ft=σ(F1([Zh,Zw]))] (7)

式中[ft]是對(duì)水平方向和豎直方向進(jìn)行編碼的中間特征圖,將中間特征圖通過(guò)兩個(gè)1×1卷積,得到一個(gè)與原始特征圖同樣大小的特征圖。將特征圖通過(guò)激活函數(shù)得到水平方向與豎直方向的注意力權(quán)重[gh]、[gw],如下所示:

[gh=σFh(fh)gw=σFw(fw)] (8)

式中:[gh]與[gw]為輸入同維度的變換函數(shù)。CA注意力的第三步是特征圖與權(quán)重修正操作,將[gh]和[gw]與原本的特征輸入圖通過(guò)殘差的方式連接,即對(duì)應(yīng)位置元素相乘,得到CA的注意力特征圖。

[yc=xc×gh×gw] (9)

式中:[xc]為[W×H×C]的特征輸入圖;[yc]為[W×H×C]的特征輸出圖。本文模塊結(jié)構(gòu)如圖4所示。

2.2" 網(wǎng)絡(luò)結(jié)構(gòu)改進(jìn)

MobileNetV3是一種輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),專門用于在移動(dòng)設(shè)備和嵌入式系統(tǒng)上進(jìn)行高效的計(jì)算。

為使MobileNetV3能更好地完成本文任務(wù),對(duì)MobileNetV3模型結(jié)構(gòu)與部分參數(shù)進(jìn)行修改,相較于原始模型,本文模型參數(shù)量?jī)H為0.7 MB。本文使用的網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)如表1所示。

3" 實(shí)驗(yàn)驗(yàn)證

3.1" 實(shí)驗(yàn)環(huán)境

硬件環(huán)境為:1個(gè)工作頻率為920.875 MHz的Impinj R420 RFID讀取器、1個(gè)RFID UHF圓極化天線、4個(gè)4 cm×4 cm標(biāo)簽和1臺(tái)聯(lián)想R7000p計(jì)算機(jī),該計(jì)算機(jī)配備2.5 GHz AMDR7處理器和16 GB內(nèi)存,RFID讀卡器使用低級(jí)讀卡器協(xié)議通信。軟件環(huán)境為Python 3.6、NVIDIA CUDA 9.2、CUDNN。

3.2" 數(shù)據(jù)集描述

本文實(shí)驗(yàn)設(shè)置在面積約為7 m×10 m的教室,在教室中選取一個(gè)2.2 m×1.8 m的開(kāi)闊區(qū)域作為實(shí)驗(yàn)區(qū)域,周圍環(huán)境包括木質(zhì)課桌椅、玻璃以及混凝土墻等,如圖5所示。

本文數(shù)據(jù)集有5種動(dòng)作(開(kāi)合跳、深蹲、高抬腿、弓箭步、旋轉(zhuǎn)上身,下文用動(dòng)作1~動(dòng)作5代替)的實(shí)驗(yàn)數(shù)據(jù),共有6位志愿者參與實(shí)驗(yàn),每位志愿者執(zhí)行指定動(dòng)作約50次,數(shù)據(jù)集示例如圖6所示。

數(shù)據(jù)集中70%作為訓(xùn)練集,30%作為測(cè)試集,具體動(dòng)作樣本數(shù)量如表2所示。

3.3" 實(shí)驗(yàn)結(jié)果

本文模型在訓(xùn)練集上準(zhǔn)確率、損失值變化曲線如圖7所示。

模型在訓(xùn)練過(guò)程中,前30輪的準(zhǔn)確率的上升與損失值下降速度較快,在接近50輪時(shí)模型的損失值接近平緩,準(zhǔn)確率也達(dá)到最高值。

為展示所提模型在動(dòng)作識(shí)別任務(wù)中的表現(xiàn),本文提供模型在測(cè)試集上得到的混淆矩陣,如圖8所示。

其中動(dòng)作2與動(dòng)作4為相似動(dòng)作,都需要用戶蹲下并站起,而本文模型仍然保持平均92.8%以上的識(shí)別率,說(shuō)明本文方法能區(qū)分動(dòng)作之間較為細(xì)小的差距并加以識(shí)別。

模型性能對(duì)比結(jié)果如表3所示。從表3可知,本文模型平均準(zhǔn)確率為96.56%。與原模型對(duì)比,本文模型參數(shù)量?jī)H為原模型的12.9%,每秒浮點(diǎn)數(shù)運(yùn)算(Floating?point Operations Per Second, FLOPs)相較于原模型提高了11%。在保證相近的模型處理速度下,本文模型相比MobileNetV3在數(shù)據(jù)集上識(shí)別準(zhǔn)確率提高2.34%,由此可見(jiàn)改進(jìn)模型具有較優(yōu)的輕量性和較高的識(shí)別率等優(yōu)勢(shì)。

為了驗(yàn)證模型注意力模塊和格拉姆角場(chǎng)對(duì)模型效果提升的有效性,本文對(duì)這兩個(gè)部分做消融實(shí)驗(yàn)。其中未加入格拉姆角場(chǎng)網(wǎng)絡(luò)模型中輸入的是原始信號(hào)波形圖,如圖6所示。每個(gè)模塊消融實(shí)驗(yàn)結(jié)果如表4所示?;趯?shí)驗(yàn)發(fā)現(xiàn),格拉姆角場(chǎng)對(duì)于識(shí)別準(zhǔn)確率有較大的提升,使原本模型準(zhǔn)確率提升6.56%,CA機(jī)制使模型準(zhǔn)確率又提升了1.83%。

為了進(jìn)一步說(shuō)明本文模型的有效性,本文與現(xiàn)有的主流輕量化模型MobileNet、MoCoViT、GhostNet[14]、ShuffleNet[15]等模型進(jìn)行比較,在本文數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),主要從模型參數(shù)量、FLOPs、準(zhǔn)確率三個(gè)方面進(jìn)行計(jì)算和記錄,實(shí)驗(yàn)所得結(jié)果如表5所示。

從表5可以看出,與原始MobileNetV3模型相比,本文模型識(shí)別率有所提升,相較于DTW、MoCoViT、ShuffleNetV1、ShuffleNetV2等模型,本文模型從準(zhǔn)確率上分別提高了16.24%、2.71%、3.22%、1.69%,與上述主流算法或模型相比,本文模型具有低參數(shù)量、低FLOPs和高準(zhǔn)確率的特點(diǎn),綜合性能較好。

4" 結(jié)" 語(yǔ)

本文借助格拉姆矩陣實(shí)現(xiàn)一維數(shù)據(jù)的圖像化處理,減少異常數(shù)據(jù)對(duì)識(shí)別效果的影響,提高識(shí)別精度。提出輕量化的人體動(dòng)作識(shí)別模型,引入坐標(biāo)注意力機(jī)制,增強(qiáng)方向相關(guān)的位置信息學(xué)習(xí)。本文模型通過(guò)減少模塊數(shù)與通道數(shù),減少網(wǎng)絡(luò)參數(shù)和計(jì)算量,相較于原始的MobileNetV3的參數(shù)量,本文模型參數(shù)量?jī)H為原模型的12.9%,準(zhǔn)確率相較于MobileNetV3提高了2.34%,在降低模型復(fù)雜度的同時(shí)提高了識(shí)別準(zhǔn)確率。將本文網(wǎng)絡(luò)與其他主流輕量型識(shí)別網(wǎng)絡(luò)進(jìn)行實(shí)驗(yàn)對(duì)比,實(shí)驗(yàn)結(jié)果表明本文模型具有最優(yōu)輕量性和良好準(zhǔn)確率。接下來(lái)主要針對(duì)多人動(dòng)作識(shí)別模型的識(shí)別效果展開(kāi)研究。

注:本文通訊作者為張亞軍。

參考文獻(xiàn)

[1] 王楚豫,謝磊,趙彥超,等.基于RFID的無(wú)源感知機(jī)制研究綜述[J].軟件學(xué)報(bào),2022,33(1):297?323.

[2] 張鋆豪,何百岳,楊旭升,等.基于可穿戴式慣性傳感器的人體運(yùn)動(dòng)跟蹤方法綜述[J].自動(dòng)化學(xué)報(bào),2019,45(8):1439?1454.

[3] 王歡,金立左.基于智能手機(jī)和神經(jīng)網(wǎng)絡(luò)的人體動(dòng)作識(shí)別方法[J].工業(yè)控制計(jì)算機(jī),2021,34(5):87?88.

[4] 吳秋雯,廖薇.基于可穿戴設(shè)備的姿勢(shì)識(shí)別方法研究[J].中國(guó)醫(yī)學(xué)物理學(xué)雜志,2023,40(8):1002?1008.

[5] 何冰倩,魏維,張斌.基于深度學(xué)習(xí)的輕量型人體動(dòng)作識(shí)別模型[J].計(jì)算機(jī)應(yīng)用研究,2020,37(8):2547?2551.

[6] 吳雨珊,徐增敏,張雪蓮,等.骨架數(shù)據(jù)增強(qiáng)和雙重最近鄰檢索自監(jiān)督動(dòng)作識(shí)別[J].計(jì)算機(jī)科學(xué),2023,50(11):97?106.

[7] KOU Z Y, ZHUANG Z Y, CHENG X Y. Real?time improper driving action recognition using TSM model with facial key points and temporal variations in pixels [C]// Proceedings of the 8th International Conference on Intelligent Computing and Signal Processing. [S.l.: s.n.], 2023: 1750?1754.

[8] QIU Q, WANG T C, CHEN F L. LD?Recognition: Classroom action recognition based on passive RFID [J]. IEEE transactions on computational social systems, 2024, 11(1): 1182?1191.

[9] BU Y L, XIE L, GONG Y Y, et al. RF?Dial: Rigid motion tracking and touch gesture detection for interaction via RFID tags [J]. IEEE transactions on mobile computing, 2022, 21(3): 1061?1080.

[10] PRASAD S B R, CHANDANA B S. Mobilenetv3: A deep learning technique for human face expressions identification [J]. International journal of information technology, 2023, 15(6): 3229?3243.

[11] 韓巖江,王偉,王峰萍.融合坐標(biāo)注意力和BiFPN的YOLOv5s交通標(biāo)志檢測(cè)方法[J].國(guó)外電子測(cè)量技術(shù),2022,41(11):170?179.

[12] 王劍哲,吳秦.坐標(biāo)注意力特征金字塔的顯著性目標(biāo)檢測(cè)算法[J].計(jì)算機(jī)科學(xué)與探索,2023,17(1):154?165.

[13] 李正欣,張鳳鳴,李克武.基于DTW的多元時(shí)間序列模式匹配方法[J].模式識(shí)別與人工智能,2011,24(3):425?430.

[14] ZHENG Y, HE Q E. Research and comparison of lightweight U?Net based on GhostNets for medical and remote sensing images [C]// Proceedings of the 8th International Conference on Intelligent Computing and Signal Processing. New York: IEEE, 2023: 2082?2086.

[15] REZAEE K, MOUSAVIRAD S J, KHOSRAVI M R, et al. An autonomous UAV?assisted distance?aware crowd sensing platform using deep ShuffleNet transfer learning [J]. IEEE transactions on intelligent transportation systems, 2022, 23(7): 9404?9413.

[16] GUO Y X, QIU L K, ZHOU J P, et al. Single?camera gaze estimation based on ShuffleNetV2 [C]// Proceedings of the 5th International Conference on Power, Intelligent Computing and Systems. New York: IEEE, 2023: 677?682.

[17] DIB W, GHANEM K, ABABOU A, et al. Human activity recognition based on the fading characteristics of the on?body channel [J]. IEEE sensors journal, 2022, 22(8): 8049?8103.

[18] JI Y L, YANG Y, SHEN F M, et al. Arbitrary?view human action recognition: A varying?view RGB?D action dataset [J]. IEEE transactions on circuits and systems for video technology, 2020, 31(1): 289?300.

[19] LIU Q, ZHANG X Y, LIU Y X. GAF?MN: A new HRRP target recognition method based on Gramian angular field and matching networks in few?shot condition [C]// Proceedings of the International Conference on Radar. [S.l.: s.n.], 2021: 1288?1292.

[20] 朱相華,智敏.基于改進(jìn)深度學(xué)習(xí)方法的人體動(dòng)作識(shí)別綜述[J].計(jì)算機(jī)應(yīng)用研究,2022,39(2):342?348.

[21] HOU Q B, ZHOU D Q, FENG J S. Coordinate attention for efficient mobile network design [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2021: 13713?13722.

弥勒县| 桐庐县| 庐江县| 万州区| 沁源县| 兰考县| 尼木县| 潞西市| 祁东县| 灌南县| 马山县| 凤城市| 京山县| 潞西市| 皋兰县| 海伦市| 滦南县| 洮南市| 车致| 临安市| 曲阳县| 金溪县| 濮阳市| 塔河县| 彭州市| 竹溪县| 铅山县| 大名县| 云南省| 类乌齐县| 茂名市| 石林| 永新县| 门源| 来安县| 乌恰县| 北票市| 鸡东县| 海盐县| 潼南县| 南江县|