国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

無人機(jī)對(duì)地目標(biāo)自動(dòng)檢測(cè)與跟蹤技術(shù)

2020-04-12 14:16
應(yīng)用光學(xué) 2020年6期
關(guān)鍵詞:分塊算子特征提取

(1.南京電子技術(shù)研究所,江蘇 南京 210039)

引言

在無人機(jī)圖像幀序列的跟蹤中根據(jù)其特點(diǎn)主要可以分為:圖像穩(wěn)像預(yù)處理、目標(biāo)檢測(cè)、特征提取[1-2]和目標(biāo)跟蹤。本文著重對(duì)后3個(gè)步驟進(jìn)行研究,結(jié)合無人機(jī)圖像的特點(diǎn),建立完整的檢測(cè)跟蹤流程。

圖像目標(biāo)檢測(cè)跟蹤本質(zhì)上是特征匹配問題[3-4],傳統(tǒng)算法根據(jù)目標(biāo)表示模型主要可分為以下兩類:

1)基于表觀模型的匹配算法。此類算法采用目標(biāo)的物理結(jié)構(gòu)、圖像灰度、梯度等表觀屬性作為匹配依據(jù)進(jìn)行檢測(cè)跟蹤[5]。這類算法的優(yōu)勢(shì)在于其復(fù)雜度低、處理速度快。然而由于使用了目標(biāo)的本征統(tǒng)計(jì)信息,這類算法無法妥善應(yīng)對(duì)平面旋轉(zhuǎn),視角變化和部分遮擋等特殊情況[6]。

2)基于點(diǎn)特征的匹配算法。通過檢測(cè)目標(biāo)上的感興趣點(diǎn)所形成的集合作為匹配的依據(jù)[7],由于使用了不同的方法搜索定義特征點(diǎn),因此此類方法也有較多種,其中尺度不變特征變換SIFT(scale invariant feature transform)和改進(jìn)的快速魯棒特征匹 配SURF(speed-up robust features)最具有代表性。此類算法的優(yōu)勢(shì)在于能夠較好地應(yīng)對(duì)平面旋轉(zhuǎn)、尺度縮放、視角變化的匹配要求,但算法復(fù)雜度較高。

基于無人機(jī)圖像幀序列的目標(biāo)檢測(cè)跟蹤屬于單視角跟蹤[8],其圖像是在平臺(tái)高速運(yùn)動(dòng)下獲取地面目標(biāo)信息的,且視角變換與旋轉(zhuǎn)更加強(qiáng)烈[3],所以它相比普通的圖像幀序列的檢測(cè)跟蹤對(duì)實(shí)時(shí)性和算法穩(wěn)定性有更高的要求。

綜合分析以上兩類算法,以基于特征點(diǎn)的匹配算法為框架保證尺度和旋轉(zhuǎn)不變性,使用基于表觀模型的級(jí)聯(lián)目標(biāo)檢測(cè)算法(全局粗匹配加局部精細(xì)匹配)來改善算法運(yùn)算量大與處理時(shí)間較長(zhǎng)的缺陷。

1 算法流程

1.1 檢測(cè)的特征提取框架

檢測(cè)的初步篩選處理的整體思路是通過構(gòu)造圖像特征空間的方法來快速篩選待匹配圖像的可疑區(qū)域,刪除大量的背景區(qū)域。從而減少后續(xù)精細(xì)匹配的運(yùn)算量,為圖像快速檢測(cè)打下基礎(chǔ)。

首先構(gòu)造提取圖像特征的特征空間。采用圖像子塊的平均灰度值、灰度值方差、灰度值梯度構(gòu)建特征空間。生成積分圖后,將待匹配圖像和目標(biāo)模板圖像按照算子外接矩形(下圖以7×7為例)進(jìn)行分割,對(duì)得到的分塊與八角形算子點(diǎn)乘,對(duì)點(diǎn)乘后得到的特征提取單元進(jìn)行灰度均值、方差、梯度的并存儲(chǔ),提供給后續(xù)初步篩選計(jì)算。兼顧處理復(fù)雜度和對(duì)無人機(jī)光學(xué)圖像平臺(tái)高速運(yùn)動(dòng)和旋轉(zhuǎn)的適應(yīng)性,本文檢測(cè)算法采用如圖1左下圖所示的八角形算子作為特征提取的基本單元。

圖1 八角形算子形成過程示意圖Fig.1 Schematic diagram of octagonal star

由圖1可看出,八角形算子是由一個(gè)簡(jiǎn)單矩形算子和旋轉(zhuǎn)45°后的矩形算子疊加而成,在均值方差和梯度值的計(jì)算上都有著接近圓形的良好穩(wěn)定性和旋轉(zhuǎn)不變性。為了論證八角形算子的旋轉(zhuǎn)不變性,做如下簡(jiǎn)單推理:

已知圓形算子具有最強(qiáng)旋轉(zhuǎn)不變性,矩形算子的旋轉(zhuǎn)不變性必然弱于圓形算子,當(dāng)算子的角數(shù)n趨于無窮時(shí),n角形算子趨近于圓形算子,且算子的旋轉(zhuǎn)不變性隨角數(shù)增加應(yīng)是單調(diào)變化的,因此可推理出八角形算子比傳統(tǒng)的矩形(四角形)算子具有更強(qiáng)的旋轉(zhuǎn)不變性。

當(dāng)然,僅憑推理是不夠的,我們選取了voc2012數(shù)據(jù)集中共計(jì)16 135 張圖片進(jìn)行測(cè)試,用3種算子(四角、八角、圓形算子)分割圖像后,統(tǒng)計(jì)不同旋轉(zhuǎn)角度情況下形成的特征提取單元的均值、方差、梯度變化情況(以0°為基準(zhǔn)),如表1所示。由表1可以看出,八角形算子相對(duì)于簡(jiǎn)單矩形算子具有較高的旋轉(zhuǎn)不變性。

表1 在圖像全部旋轉(zhuǎn)角度下3種算子提取的單元內(nèi)部 均值、方差、梯度值偏差(以0°為基準(zhǔn))Table1 Mean,variance and gradient of three feature extraction units at all rotation angles(take 0°as the benchmark)

1.2 檢測(cè)的初步篩選處理

確定特征提取的單元后,我們需要以掩碼的形式初步篩選出可疑區(qū)域,從而降低精細(xì)匹配的運(yùn)算量,避免全局特征匹配。

遍歷待匹配圖像內(nèi)的所有特征提取單元,分別求取每個(gè)單元內(nèi)像素的灰度值均值、灰度值方差和灰度值梯度,并將每個(gè)單元作為一個(gè)點(diǎn)映射到以灰度、均值、方差構(gòu)建的三維特征空間中。以此作為待匹配模板,對(duì)目標(biāo)模板進(jìn)行相同的操作,作為目標(biāo)特征模板。

本文檢測(cè)算法將所有特征數(shù)據(jù)根據(jù)量級(jí)規(guī)范化處理,自適應(yīng)地生成三維特征空間。最后以目標(biāo)模板中所有點(diǎn)重心為基準(zhǔn)點(diǎn),對(duì)待匹配的模板中所有子塊進(jìn)行閾值判決處理,即若某個(gè)待匹配圖像內(nèi)某個(gè)特征提取單元映射于特征空間內(nèi)的電與目標(biāo)模板重心的平均歐式距離超過閾值,則該子塊被剔除。遍歷所有子塊后,余下點(diǎn)所代表的子塊即為初步篩選得到的可疑區(qū)域。

由于本步預(yù)處理并未涉及復(fù)雜的計(jì)算,僅進(jìn)行了求取均值、方差和梯度計(jì)算,同時(shí)由于事先對(duì)待匹配圖像生成了積分圖像,將求取特征提取單元內(nèi)所有像素點(diǎn)的方差和均值簡(jiǎn)化為數(shù)步簡(jiǎn)單的加減法運(yùn)算,時(shí)間消耗進(jìn)一步降低,可以滿足無人機(jī)光學(xué)圖像實(shí)時(shí)處理的需要。

圖2為我們選取的一幅典型圖像和目標(biāo)模板映射示意圖。

此外,值得一提的是,初步篩選的結(jié)果具有普遍的適用性,該步處理可以作為各種流行匹配算法的預(yù)處理器,在不影響匹配結(jié)果的情況下大幅提升效率。

圖2 待匹配圖像與目標(biāo)模板特征提取示意圖Fig.2 Schematic diagram of image to be detected and target region’s feature extraction

1.3 檢測(cè)的精細(xì)匹配處理

由于得到了范圍極大縮小后的可疑區(qū)域,精細(xì)匹配處理的主要任務(wù)即為返回可疑區(qū)域內(nèi)與目標(biāo)模板最為相似的區(qū)域[8-9]。精細(xì)匹配的步驟如下:

1)將目標(biāo)模板等分為3×3的子塊,對(duì)每個(gè)子塊內(nèi)部進(jìn)行平均灰度值、灰度值方差、灰度值梯度向量計(jì)算,將梯度值和梯度方向作為2個(gè)特征維度存儲(chǔ)。至此,每個(gè)子塊可以提取出4維特征,目標(biāo)模板可以用36維特征向量表示。

2)對(duì)可疑區(qū)域按照進(jìn)行多尺度逐像素滑窗處理,使用與目標(biāo)模板相同的方法進(jìn)行特征向量提取。

3)在滑窗操作完畢后,返回的與目標(biāo)模板特征向量歐式距離最近的特征向量所對(duì)應(yīng)的滑窗區(qū)域作為輸出的匹配區(qū)域。

雖然以上步驟牽涉到了逐像素滑窗及多尺度變換[10]操作,看似具有極大的計(jì)算量,但由于通過調(diào)節(jié)初步篩選處理中的閾值,精細(xì)匹配運(yùn)算的可疑區(qū)域已經(jīng)相當(dāng)小,真實(shí)運(yùn)算量并不大。至此,自動(dòng)檢測(cè)流程結(jié)束,通過輸入目標(biāo)模板得到了待匹配圖像內(nèi)的匹配結(jié)果,以此作為輸出檢測(cè)結(jié)果。

1.4 基于分塊SURF特征提取的跟蹤

對(duì)跟蹤流程使用快速魯棒特征(SURF)作為幀間匹配描述圖像的工具[11],SURF是目前目標(biāo)跟蹤領(lǐng)域廣泛應(yīng)用且較為優(yōu)越的一種特征提取方法[12]。根據(jù)該方法檢測(cè)到的特征點(diǎn)具有高度的旋轉(zhuǎn)和尺度不變性[13]。然而與大多數(shù)基于特征點(diǎn)匹配算法一樣,基于SURF的特征提取與匹配算法復(fù)雜度較高[14-15],不適合應(yīng)用于對(duì)無人機(jī)圖像處理等實(shí)時(shí)性要求較高的工程應(yīng)用中。

因此,本文提出對(duì)跟蹤流程中的特征匹配進(jìn)行分塊并行的改進(jìn)思路,即對(duì)待匹配圖像進(jìn)行分塊處理,每個(gè)子塊占用一個(gè)通道,通過并行加速特征提取與匹配流程。由于SURF特征提取中利用了鄰域特征來構(gòu)建描述向量,簡(jiǎn)單的分塊將使某些分布在分割邊緣附近的特征點(diǎn)的特征描述向量丟失鄰域信息,導(dǎo)致失真。因此,考慮對(duì)待匹配圖像使用重疊分塊兼剔除冗余特征點(diǎn)的方法,通過設(shè)置合適的重疊區(qū)域來保證邊緣特征描述向量所含的鄰域信息的完整保存,同時(shí)剔除冗余信息。分塊方法如圖3所示。

圖3 待匹配圖像重疊分塊示意圖(左)和剔除有誤差特征點(diǎn)示意圖(右)Fig.3 Schematic diagram of overlap blocking (left),reject redundancy feature points (right)

圖3中,重疊區(qū)域的寬度由特征點(diǎn)周圍SURF特征提取的鄰域半徑(l1)和目標(biāo)模板的對(duì)角線長(zhǎng)(l2)共同確定:

重疊分塊提取后,刪除被重復(fù)特征提取的點(diǎn),完成對(duì)待匹配圖像的特征提取。

在待匹配特征點(diǎn)集合中,會(huì)摻雜由于斑點(diǎn)噪聲或幾何畸變產(chǎn)生的特征點(diǎn),因此,首先要對(duì)得到的匹配點(diǎn)對(duì)進(jìn)行預(yù)處理。為去除這些離散點(diǎn),本文使用距離門限法。假設(shè)需要判定的特征點(diǎn)的集合為{M1,M2,M3,···,Mn},對(duì)其中的每一點(diǎn)計(jì)算它到模板重心的距離為dl,并計(jì)算其余的n-1個(gè)點(diǎn)到模板重心的平均距離為davr,如果集合中點(diǎn)Mx到點(diǎn)Mn的距離為dx?n,那么點(diǎn)Mx的davr可由下式表示:

若dl>2davr,則判定該點(diǎn)為離散點(diǎn)。將其所在的點(diǎn)對(duì)從匹配點(diǎn)對(duì)集合中剔除。

對(duì)待匹配圖像特征提取完畢后,便可通過對(duì)特征向量的最小歐式距離匹配法,確定目標(biāo)模板與待匹配圖像間點(diǎn)對(duì)點(diǎn)的匹配關(guān)系[16]。通過去除離散點(diǎn)處理,優(yōu)化匹配點(diǎn)對(duì),從而更好地確定目標(biāo)模板的仿射變換模型,完成對(duì)目標(biāo)模板的更新。仿射變換模型如下式所示:

式中:(x1,y1)為仿射變換前的點(diǎn);(x2,y2)為仿射變換后得到的對(duì)應(yīng)點(diǎn);m1、m2、m3、m4組成的矩陣包含了仿射變換的旋轉(zhuǎn)和縮放信息;d1、d2為仿射變換的平移量。

通過對(duì)目標(biāo)模板和待匹配圖像的循環(huán)更新,便可以完成圖像幀序列的目標(biāo)跟蹤。綜上所述,本文算法對(duì)無人機(jī)地面目標(biāo)幀序列的檢測(cè)跟蹤流程如圖4所示。

圖4 本文算法檢測(cè)跟蹤流程圖Fig.4 Flow chart of proposed algorithm

2 實(shí)驗(yàn)及分析

2.1 一般圖像的檢測(cè)初步篩選結(jié)果

為檢驗(yàn)初步篩選流程的有效性,以我們拍攝的不同場(chǎng)景下不同目標(biāo)共計(jì)8 064幅無人機(jī)航拍視頻幀序列(尺寸為1 280×720 像素)作為總樣本集。分別從總樣本集中選取有代表性12個(gè)幀序列,共計(jì)1 263幀圖像作為樣本,從而保證樣本集的全面性。同時(shí)所有序列幀圖像寬(像素)、高(像素)均相同,目標(biāo)模板大小相同。實(shí)驗(yàn)設(shè)備為CPU 主頻2.90 GHz,內(nèi)存4G,實(shí)驗(yàn)環(huán)境為MatlabR2012a,并使用Computer Vision System Toolbox。樣本內(nèi)的圖像背景和目標(biāo)模板具體構(gòu)成和實(shí)驗(yàn)情況如表2所示。對(duì)其進(jìn)行初步篩選處理可得到每幀圖像的可疑區(qū)域(掩碼圖)。圖5為總樣本集中某一幀原待匹配圖像和篩選后的可疑區(qū)域及其原目標(biāo)模版示意圖。

表2 初步篩選實(shí)驗(yàn)樣本集構(gòu)成與實(shí)驗(yàn)結(jié)果Table2 Experiment sample set of primary match and results of experiment

由表2可知,初步篩選處理可以以較小的時(shí)間成本篩除平均92.47%(1 263幀均值)的區(qū)域,篩選效果良好,可以為后面的精細(xì)匹配縮小檢測(cè)范圍,顯著減少檢測(cè)時(shí)間。圖5為總樣本集中一幅典型圖片的初步篩選效果圖。由可疑區(qū)域掩碼圖可以看出,經(jīng)初步篩選后,我們篩除了圖中間灰色道路兩側(cè)的背景區(qū)域。

圖5 初步篩選效果示意圖Fig.5 Schematic of primary match

2.2 一般圖像的檢測(cè)精細(xì)匹配結(jié)果

得到可疑區(qū)域掩碼圖后,將待檢測(cè)圖像與掩碼圖點(diǎn)乘,得到待檢測(cè)圖像的可疑區(qū)域,對(duì)其進(jìn)行精細(xì)匹配處理,圖6為圖5情況下的精細(xì)匹配檢測(cè)結(jié)果。精細(xì)匹配實(shí)驗(yàn)樣本(12 段不同場(chǎng)景下的視頻幀序列)圖像背景和目標(biāo)模板具體構(gòu)成及實(shí)驗(yàn)情況如表3所示。

圖6 三組多視角圖像檢測(cè)實(shí)驗(yàn)Fig.6 Three group of multi-angle of view experiment images

表3 精細(xì)匹配實(shí)驗(yàn)樣本集構(gòu)成與實(shí)驗(yàn)結(jié)果Table3 Experiment sample set of meticulous match and results of experiment

為評(píng)價(jià)檢測(cè)誤差,本實(shí)驗(yàn)在每幀中手動(dòng)點(diǎn)擊中心點(diǎn)確認(rèn)目標(biāo)的實(shí)際位置(如圖5(b)),目標(biāo)模板從視頻幀序列首幀截取,對(duì)序列中所有幀進(jìn)行檢測(cè),從而確定匹配誤差。通過對(duì)累計(jì)12 段視頻幀序列共計(jì)1 263幀圖像的精細(xì)檢測(cè),可確定其平均檢測(cè)誤差(即檢測(cè)結(jié)果重心與手動(dòng)標(biāo)注的每幀中心點(diǎn)之距離)為2.459 像素,幀間平均精細(xì)匹配時(shí)間為0.331 s。

2.3 多視角圖像檢測(cè)實(shí)驗(yàn)

為驗(yàn)證本文算法在不同視角情況下的檢測(cè)效果,從無人機(jī)航拍圖像數(shù)據(jù)集中選取3組同一目標(biāo)的不同角度圖像進(jìn)行實(shí)驗(yàn),檢測(cè)目標(biāo)分別為騎車行人、供電塔和房屋,見圖6所示。

從3組多視角圖像中(見圖6)分別選取同一個(gè)物體模板,將多個(gè)視角下的目標(biāo)模板進(jìn)行融合,并分別映射到設(shè)定好的加權(quán)特征空間中,得到多視角下的目標(biāo)模板,對(duì)每幅圖像進(jìn)行基于多視角融合模板的初步篩選與精細(xì)匹配,從而檢測(cè)得到目標(biāo)的位置并記錄。

同時(shí)記錄每幅圖像的目標(biāo)在圖像中的重心坐標(biāo)以便計(jì)算檢測(cè)誤差,實(shí)驗(yàn)結(jié)果如表4所示。

表4 基于多視角融合的目標(biāo)檢測(cè)實(shí)驗(yàn)結(jié)果Table4 Experiment results of multi-angle of view

由表4可知,檢測(cè)誤差在目標(biāo)模板尺寸的1.5%上下浮動(dòng),檢測(cè)誤差與目標(biāo)模板的大小有直接關(guān)系,多視角圖像之間的視角變化程度也對(duì)誤差造成了影響,顯然(c)組圖像視角旋轉(zhuǎn)程度較高,且試驗(yàn)中檢測(cè)誤差占目標(biāo)模板尺寸的百分比較大。

圖7給出了該方法進(jìn)行目標(biāo)檢測(cè)的魯棒性。其中橫坐標(biāo)為3組總共7幅圖像進(jìn)行基于多視角模版融合后算法判定最為相似的10個(gè)備選區(qū)域的序號(hào),縱坐標(biāo)為這些區(qū)域的模板與目標(biāo)模板在加權(quán)特征空間中的重心的歐式距離。由圖7 中可知,多視角模版融合后,檢測(cè)的最終結(jié)果(序號(hào)1)與其余9個(gè)區(qū)域與目標(biāo)模板特征空間重心距離差距明顯,表明本文檢測(cè)算法在多視角情況下仍然保持了良好的可靠性。

圖7 多視角模板魯棒性驗(yàn)證圖Fig.7 Robustness verification figure of multi-angle of view

2.4 基于分塊SURF特征提取的跟蹤實(shí)驗(yàn)

本實(shí)驗(yàn)對(duì)象為從總樣本集中抽取的共計(jì)10 段連續(xù)視頻幀序列。對(duì)每個(gè)幀序列的首幀進(jìn)行檢測(cè)確定目標(biāo),對(duì)后續(xù)幀進(jìn)行基于分塊特征提取的跟蹤。

在跟蹤狀態(tài)下,本實(shí)驗(yàn)旨在檢驗(yàn)?zāi)繕?biāo)跟蹤的穩(wěn)定性(有效跟蹤長(zhǎng)度)以及基于分塊特征提取的跟蹤算法每幀的平均運(yùn)行時(shí)間。

圖8為10 段幀序列中最長(zhǎng)的一段跟蹤結(jié)果。攝像機(jī)與目標(biāo)均在運(yùn)動(dòng)且存在相對(duì)位移的狀況下,本文算法在連續(xù)155幀圖像中跟蹤穩(wěn)?。▓D8(a)~8(c)分別為第24幀、84幀、144幀跟蹤情況),沒有出現(xiàn)明顯的漂移、目標(biāo)丟失等情況,且其余9 段幀序列(最短43幀、最長(zhǎng)121幀)均實(shí)現(xiàn)了穩(wěn)定跟蹤。

圖8 基于分塊SURF特征提取的算法跟蹤結(jié)果Fig.8 Track results of algorithm based on blocking SURF extraction

表5為點(diǎn)特征進(jìn)行匹配跟蹤的CMT算法和本文算法分別對(duì)我們拍攝的圖像幀序列庫(kù)中共計(jì)74 段視頻幀序列8 064幅幀圖像進(jìn)行跟蹤得到的結(jié)果(運(yùn)行環(huán)境均為VS2010集成開發(fā)環(huán)境及opencv2.4.9),跟蹤過程不丟幀即為該序列可成功跟蹤。由表5可以看出,即使進(jìn)行了分塊多線程并行操作,CMT 跟蹤算法在運(yùn)行速度上仍然略勝一籌,但是成功跟蹤率方面本文算法稍占優(yōu)勢(shì)。

表5 兩種算法綜合性能比較Table5 Overall performance between two algorithms

詳細(xì)分析跟蹤結(jié)果可以看出,CMT算法在幀間物體旋轉(zhuǎn)角度過大時(shí)更可能會(huì)丟失跟蹤,究其原因是因?yàn)樵撍惴]有進(jìn)行模型更新過程導(dǎo)致角度變化過大時(shí)找不到特征點(diǎn)。同時(shí)還可以發(fā)現(xiàn),兩種算法跟蹤失敗的幀大多數(shù)為目標(biāo)模板特征點(diǎn)數(shù)較少的情況,這是基于點(diǎn)特征的目標(biāo)跟蹤算法的通病。此外在跟蹤靜止目標(biāo)時(shí),CMT算法的表現(xiàn)更優(yōu),幾乎沒有出現(xiàn)丟失跟蹤現(xiàn)象。

3 結(jié)論

本文針對(duì)無人機(jī)對(duì)地目標(biāo)影像檢測(cè)跟蹤這一問題,提出了相應(yīng)的處理方法。

在目標(biāo)檢測(cè)方面,提出基于均值、方差、梯度值的兩級(jí)(初步篩選-精細(xì)匹配)特征提取的目標(biāo)檢測(cè)算法。初步篩選通過簡(jiǎn)單的加權(quán)特征空間歐式距離閾值判決,以較低的時(shí)間成本剔除了大量背景區(qū)域,余下的可疑區(qū)域作為精細(xì)匹配處理的檢測(cè)區(qū)域,精細(xì)匹配處理對(duì)可疑區(qū)域進(jìn)行36維特征向量生成,高特征維數(shù)保證了較強(qiáng)的魯棒性。同時(shí)以圖像塊為單元計(jì)算可疑區(qū)域特征向量與目標(biāo)模板特征向量的歐式距離,取距離最小的分塊作為匹配結(jié)果。

在上述特征提取過程中,使用八角形算子作為特征提取的基本單元,折中了處理復(fù)雜度和旋轉(zhuǎn)不變性。

本文實(shí)驗(yàn)采用不同環(huán)境、目標(biāo)和不同視角下的無人機(jī)航拍對(duì)地光學(xué)圖像幀序列對(duì)檢測(cè)算法進(jìn)行測(cè)試,大量樣本實(shí)驗(yàn)表明本文算法具有較高的穩(wěn)健性和高效處理能力。此外,在多視角模板情況下對(duì)算法進(jìn)行了拓展,并通過3組不同種類物體的實(shí)例圖像實(shí)驗(yàn),證明了在多視角情況下本文算法的魯棒性。

在跟蹤方面應(yīng)用SURF特征提取生成目標(biāo)模板,通過循環(huán)匹配達(dá)成目標(biāo)跟蹤。理論分析表明,將分塊并行思想引入特征匹配可降低時(shí)間成本,并對(duì)算法流程中可能出現(xiàn)的雜散噪聲以及分塊邊緣效應(yīng)等予以分析,提出了相應(yīng)的解決方案。

猜你喜歡
分塊算子特征提取
與由分?jǐn)?shù)階Laplace算子生成的熱半群相關(guān)的微分變換算子的有界性
一類截?cái)郒ankel算子的復(fù)對(duì)稱性
鋼結(jié)構(gòu)工程分塊滑移安裝施工方法探討
關(guān)于4×4分塊矩陣的逆矩陣*
擬微分算子在Hp(ω)上的有界性
Heisenberg群上與Schr?dinger算子相關(guān)的Riesz變換在Hardy空間上的有界性
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
基于Daubechies(dbN)的飛行器音頻特征提取
懶交互模式下散亂不規(guī)則分塊引導(dǎo)的目標(biāo)跟蹤*
Bagging RCSP腦電特征提取算法
兰溪市| 清镇市| 上栗县| 襄樊市| 崇义县| 余干县| 高青县| 太保市| 监利县| 张家口市| 中西区| 渝中区| 古交市| 定远县| 曲周县| 方城县| 盈江县| 镇安县| 镇原县| 宾阳县| 精河县| 方山县| 达日县| 大厂| 龙陵县| 年辖:市辖区| 南皮县| 镇坪县| 安多县| 德庆县| 城市| 金川县| 灵璧县| 隆安县| 柘荣县| 灵石县| 凯里市| 依安县| 淮阳县| 濮阳市| 武鸣县|