国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

非線性尺度配準(zhǔn)NLORB和亮度模板融合的方法

2018-03-29 01:22呂東岳
關(guān)鍵詞:尺度空間直方圖亮度

董 浩,呂東岳

(1.北京郵電大學(xué)網(wǎng)絡(luò)技術(shù)研究院,北京 100876; 2.中國(guó)電子科技集團(tuán)公司電子科學(xué)研究院,北京 100041)

0 引 言

進(jìn)入21世紀(jì),視頻技術(shù)廣泛應(yīng)用于大家的日常生活。由于單臺(tái)攝像機(jī)觀察的范圍有限,想要在不降低分辨率的基礎(chǔ)上,拍攝的視頻擁有較大視場(chǎng),可以采用圖像拼接的方法。圖像拼接是計(jì)算機(jī)視覺領(lǐng)域的重要課題,作為圖像處理的關(guān)鍵技術(shù)之一,它在全景視頻、生物醫(yī)學(xué)、警務(wù)偵查、地質(zhì)勘測(cè)、機(jī)器人成像和目標(biāo)識(shí)別等領(lǐng)域[1-3]都有廣泛的應(yīng)用。

圖像配準(zhǔn)是圖像拼接的核心技術(shù)。文獻(xiàn)[4]通過SIFT算法提取關(guān)鍵點(diǎn),該算法在尺度和旋轉(zhuǎn)變換的場(chǎng)景下有很好的魯棒性。2011年,Rublee等人[5]提出了ORB算法,該方法的旋轉(zhuǎn)和平移不變性較好,與SIFT和SURF[6]算法相比,其運(yùn)算速度提高了一到兩個(gè)數(shù)量級(jí)[7]。白雪冰等人[8]將魯棒性優(yōu)秀的SURF和ORB方法結(jié)合,改善了ORB算子的尺度不變性,提高了匹配的精度。李勝輝等人[9]提出C-ORB算法,其將顏色不變量與ORB算法結(jié)合,在不同光照強(qiáng)度和方向的場(chǎng)景下,提升算法的準(zhǔn)確性與魯棒性。

在圖像拼接技術(shù)中,除了配準(zhǔn)外,最重要的是圖像融合技術(shù)。Szeliski[10]在前人基礎(chǔ)上總結(jié)出帽子加權(quán)融合法,通過“帽狀函數(shù)”來進(jìn)行加權(quán)。以梯度域?yàn)榛A(chǔ)的融合方法最早由Pérez等人[11]提出,通過梯度域,計(jì)算泊松方程,使得拼接結(jié)果中幾乎沒有縫隙。另一種融合算法是均值坐標(biāo)(平面重心坐標(biāo)),F(xiàn)arbman等人[12]通過均值坐標(biāo)得到的效果和泊松融合類似,效率卻大大提高。

當(dāng)前特征匹配算法存在很多問題,以SIFT為代表的高精度算法具有較好的匹配效果以及尺度和旋轉(zhuǎn)不變性,但是時(shí)間復(fù)雜度高。以O(shè)RB為代表的速度型算法實(shí)時(shí)性較好,可是其尺度不變性較差。另外,圖像融合方法也需要優(yōu)秀的融合效果。

針對(duì)這些問題,在非線性尺度空間和ORB基礎(chǔ)上,本文提出一種非線性尺度圖像配準(zhǔn)算法NLORB(Non Linear ORB)以及基于YUV亮度模板的均值坐標(biāo)融合法,本文創(chuàng)新和改進(jìn)點(diǎn)如下:

1)提出基于非線性尺度配準(zhǔn)方法NLORB,建立非線性尺度空間,獲得尺度不變性,保留比較清晰的邊界信息。在多尺度空間內(nèi),進(jìn)行非極大值抑制,提高配準(zhǔn)成功率。

2)NLORB使用圖像熵篩選符合條件的尺度參數(shù),減少不必要的尺度層數(shù),縮短配準(zhǔn)時(shí)間。在特征檢測(cè)時(shí)對(duì)特征點(diǎn)間距進(jìn)行參數(shù)設(shè)置,比較均勻地分布特征點(diǎn)。

3)提出基于YUV亮度模板的均值坐標(biāo)融合法,通過亮度通道初步疊加和直方圖均衡化,改善了融合效果。

1 基于改進(jìn)ORB算法的圖像配準(zhǔn)算法NLORB

1.1 ORB

ORB方法分為特征點(diǎn)提取、構(gòu)造描述向量和特征點(diǎn)匹配這3個(gè)部分。在提取的時(shí)候,ORB通過FAST 9方法提取特征點(diǎn),根據(jù)HARRIS響應(yīng)對(duì)特征點(diǎn)排序,尋找極大值,與候選點(diǎn)P相鄰8個(gè)候選點(diǎn)相比,若點(diǎn)P亮度值仍然是極大值(或極小值),則視它為特征點(diǎn)。對(duì)于每個(gè)點(diǎn),通過灰度質(zhì)心法[13],巧妙地利用其灰度與質(zhì)心間的一個(gè)偏移向量來計(jì)算其主方向。

構(gòu)造描述向量時(shí),以特征點(diǎn)為中心,取S×S(31×31)的鄰域,隨機(jī)選取2個(gè)像素點(diǎn)x(u1,v1)和y(u2,v2),比較兩者亮度值。其中,p(x),p(y)分別是隨機(jī)點(diǎn)x=(u1,v1), y=(u2,v2)的像素值。若p(x)

B=b0b1…bi…bn

(1)

試驗(yàn)表明,n=128,256和512時(shí),效率和正確率較高,一般n選256。試驗(yàn)使用候選點(diǎn)附近S×S(S=5)窗口的31×31像素點(diǎn)附近區(qū)域和積分圖縮短所需時(shí)間,借助這幾個(gè)步驟提高噪聲變化的魯棒性。

1.2 非線性尺度空間的NLORB

因?yàn)镺RB算法不具備尺度不變性,所以本文基于ORB進(jìn)行改進(jìn),提出非線性尺度配準(zhǔn)方法NLORB,通過采用非線性尺度空間理論,獲得尺度不變性,使用圖像熵篩選符合條件的尺度參數(shù),在特征檢測(cè)時(shí)對(duì)特征點(diǎn)間距進(jìn)行參數(shù)設(shè)置,均勻分布特征點(diǎn),在多尺度空間內(nèi)進(jìn)行非極大值抑制,獲得尺度不變性和魯棒性較強(qiáng)的特征點(diǎn),然后構(gòu)造和匹配rBRIEF描述子,圖1是配準(zhǔn)算法流程。

1.2.1 建立非線性尺度空間

非線性尺度空間的數(shù)學(xué)模型可以用偏微分方程來建立,模型將圖像亮度(L)對(duì)尺度的偏微分,看作某種傳導(dǎo)函數(shù)的散度[14],具體的方程如式(2)所示:

?L/?t=div(c(x,y,t)×▽L)

(2)

其中,時(shí)間t是尺度參數(shù),div表示散度,▽表示梯度。傳導(dǎo)函數(shù)c一般選用g3,其能夠在有效平滑圖像和消除噪聲的基礎(chǔ)上,保留比較清晰的邊界信息。

非線性尺度空間可以劃分為R層和R×S子層結(jié)構(gòu),參數(shù)σi可由式(3)計(jì)算:

σi(r,s)=σ02(r+s/S)

(3)

其中,σ0代表參數(shù)的初始值,(r,s)表示第r層s子層,S代表子層數(shù)。

基于像素的參數(shù)σi需要轉(zhuǎn)換成尺度參數(shù)時(shí)間t,文獻(xiàn)[4]表明,擁有尺度不變性的唯一線性卷積核是高斯核。高斯核對(duì)圖像的處理,相當(dāng)于對(duì)圖像進(jìn)行持續(xù)時(shí)間為t=σ2/2的非線性濾波[14]。依據(jù)以上內(nèi)容,可以構(gòu)建非線性尺度空間,獲得等同于高斯尺度模型的尺度不變性。

1.2.2 尺度和特征檢測(cè)參數(shù)設(shè)置

當(dāng)尺度層數(shù)R比較大的時(shí)候,圖像不清晰,其信息量不足,不利于后來的匹配過程。因此,為了選取合適的參數(shù)R,有必要先計(jì)算圖像熵。

圖像熵反映圖像的平均信息量,表示某像素的亮度值與周圍像素亮度分布的綜合情況[15]。如果f是亮度函數(shù)[16],f(i,j)為點(diǎn)(i,j)處的亮度值,1

(4)

(5)

圖2 圖像熵計(jì)算源圖像

對(duì)圖2構(gòu)建非線性尺度空間,計(jì)算每層圖像熵,如表1所示,選R=4,S=4。原圖圖像熵為7.63257,第4層第1子層圖像熵為6.92035,大約為原圖像的90%。因此,應(yīng)選取層數(shù)R為3。

表1 各層圖像熵

層圖像熵子層1子層2子層3子層417.617537.616337.613957.6101727.59617.578877.560497.5340537.458487.401487.311837.1850746.920356.56876.181695.89345

在特征點(diǎn)檢測(cè)時(shí),通過設(shè)置特征點(diǎn)間的邊緣閾值D,獲得分布均勻的特征點(diǎn)集合。若D太大,特征匹配成功率降低;D太小,特征點(diǎn)分布會(huì)很密集。選擇合適的D值很重要。本實(shí)驗(yàn)中,圖像分辨率800×640像素,D值為7像素。

1.2.3 多尺度空間非極大值抑制

ORB算法對(duì)某候選特征點(diǎn)A進(jìn)行非極大值抑制時(shí),比較的范圍是3×3鄰域,即與A相鄰的8個(gè)候選點(diǎn)。NLORB算法改進(jìn)的地方在于,擴(kuò)大比較范圍,其包括與A同層的8個(gè)相鄰點(diǎn),以及與A相鄰層對(duì)應(yīng)的18個(gè)點(diǎn)。如果點(diǎn)A亮度值仍然是極大值(或極小值),那么將它加入圖像的特征點(diǎn)集合。

因此,在保留ORB算法耗時(shí)短和旋轉(zhuǎn)不變性優(yōu)點(diǎn)的同時(shí),使用非線性尺度空間,改善ORB算法的尺度不變性,在消除噪聲的同時(shí),保持圖像細(xì)節(jié)。利用圖像熵,減少不必要的尺度層數(shù),縮短配準(zhǔn)時(shí)間。通過對(duì)特征點(diǎn)間邊緣閾值的設(shè)置,使得特征點(diǎn)分布均勻。在特征檢測(cè)階段,對(duì)同尺度以及上下相鄰尺度的27個(gè)候選特征點(diǎn),進(jìn)行非極大值抑制,提高配準(zhǔn)成功率。

1.3 特征點(diǎn)匹配

Bolles等人[17]提出RANSAC魯棒參數(shù)的隨機(jī)采樣一致算法,在特征點(diǎn)匹配的問題中被相當(dāng)廣泛地使用,它能夠在很多錯(cuò)誤匹配的場(chǎng)景中,計(jì)算出準(zhǔn)確的圖像變換矩陣,過濾錯(cuò)誤匹配對(duì),所以通過RANSAC這種擬合方法匹配特征點(diǎn)。

通過RANSAC過濾外點(diǎn),計(jì)算變換矩陣參數(shù)。要達(dá)到降低RANSAC方法復(fù)雜度的目的,借助匹配的特征點(diǎn)間距、最近鄰與次近鄰間距比率和單應(yīng)性參數(shù)測(cè)試篩選,使后面通過RANSAC匹配的準(zhǔn)確率提高。匹配的特征點(diǎn)對(duì)間距為128,剔除不小于128的作為外點(diǎn)的特征點(diǎn),最近鄰與次近鄰間距比率0.85,篩除大于0.85的部分,通過單應(yīng)性參數(shù)測(cè)試查找能夠?qū)?yīng)的配準(zhǔn)點(diǎn),舍棄條件不適合的誤配對(duì),獲得經(jīng)過初篩的特征對(duì)集。

下面介紹RANSAC的流程,如果存在一個(gè)能夠應(yīng)用于全部準(zhǔn)確特征點(diǎn)并且可以從特征點(diǎn)求解全部未知結(jié)果的模型,那么從全部特征點(diǎn)集中隨機(jī)選取一些點(diǎn)組成子集,假如這個(gè)子集都是內(nèi)點(diǎn),通過子集求解RANSAC模型的參數(shù),剔除這個(gè)模型的外點(diǎn)。接著通過不停地重復(fù)隨機(jī)選取子集,尋找讓外點(diǎn)數(shù)量最小的模型,那么它將被認(rèn)為是最佳估計(jì),所以可以在很多誤匹配對(duì)中,剔除外點(diǎn)的干擾從而獲得內(nèi)點(diǎn)。

2 基于亮度模板的均值坐標(biāo)融合法

2.1 亮度模板和直方圖匹配

在視頻拍攝過程中,接縫兩邊的圖像可能由于光照等因素的影響,在亮度上呈現(xiàn)出細(xì)微的差別。而圖像融合中主要完成的工作就是對(duì)接縫處實(shí)現(xiàn)自然過渡,最終得到平滑的圖像。因此,融合圖像的亮度函數(shù)的獲取就非常重要。

首先將待融合圖像A從RGB顏色空間轉(zhuǎn)換到Y(jié)UV,獲取2幅待融合圖像的亮度通道Y。文獻(xiàn)[17]指出,RGB向YUV轉(zhuǎn)換的代價(jià)比向HSI和HSV彩色空間的代價(jià)小。

獲得圖像A的亮度通道后,本方法將計(jì)算其直方圖,然后和待融合圖像B的亮度函數(shù)相加。直方圖是圖像中像素強(qiáng)度分布的圖形表達(dá)方式,它統(tǒng)計(jì)了每一個(gè)強(qiáng)度值所具有的像素個(gè)數(shù)。如果圖像B的亮度函數(shù)是LB(即Y通道),A的直方圖函數(shù)是Ha,融合后的亮度函數(shù)Lba可由式(6)計(jì)算。

Lba=addHist(LB, Ha)

(6)

其中,LB是待融合圖像B的亮度函數(shù),Ha表示待融合圖像A的直方圖函數(shù),addHist是初步融合的疊加函數(shù)。接著對(duì)所得圖像進(jìn)行直方圖均衡化,直方圖均衡化是圖像融合前有效的預(yù)處理工具。

2.2 泊松方程和均值坐標(biāo)

Pérez等人[11]提出,通過梯度域,來計(jì)算泊松方程,實(shí)現(xiàn)融合的目標(biāo)。如果將接縫一側(cè)看作圖像A,另一側(cè)看成圖像B,融合結(jié)果的邊緣梯度值會(huì)和圖像B對(duì)應(yīng)位置相等,但是它核心部分的梯度值和圖像A相等。根據(jù)上面的推斷,通過求解限定迪杰特斯拉條件的泊松方程,在圖像A和圖像B的邊緣進(jìn)行插值,保證融合圖像拼接處梯度值大致相等的目標(biāo)。但是,該方法的時(shí)間復(fù)雜度較高。

均值坐標(biāo)是一種針對(duì)插值問題的近似解法,可以加快計(jì)算泊松方程。假設(shè)閉合的2D多邊形邊界(逆時(shí)針方向),則多邊形內(nèi)的某點(diǎn)x,它對(duì)邊界?P的均值坐標(biāo)定義為:

(7)

wi=(tan(αi-1/2)+tan(αi/2))/‖pi-x‖

(8)

求解坐標(biāo)λ后,需要對(duì)邊界?P函數(shù)進(jìn)行插值運(yùn)算:

(9)

其中,f(pi)取函數(shù)Lba的值。

2.3 色彩的融合和轉(zhuǎn)換

最后,本文方法直接將圖像的亮度函數(shù)LB用于色彩通道的均值融合處理,將融合結(jié)果從YUV轉(zhuǎn)換為RGB顏色空間。

3 實(shí)驗(yàn)與結(jié)果

本文提出的配準(zhǔn)方法NLORB和融合方法,通過OpenCV代碼實(shí)現(xiàn),電腦配置為:處理器為Intel酷睿i5,主頻為2.6 GHz,內(nèi)存4 GB,顯卡為1 GB圖形內(nèi)存的NVIDIA GeForce GT980,硬盤為1 TB的計(jì)算機(jī)。操作系統(tǒng)為Win7 64位系統(tǒng),編程環(huán)境為Visual Studio 2012。

3.1 尺度不變性對(duì)比實(shí)驗(yàn)

為驗(yàn)證NLORB算法的尺度不變方面的魯棒性,以尺度不同的2幅圖像作實(shí)驗(yàn)。圖3(a)表示ORB的實(shí)驗(yàn)結(jié)果,在尺度變化較大的情況下,ORB的配準(zhǔn)效果不是很理想,在書籍邊緣的一些地方存在明顯的匹配錯(cuò)誤;用SIFT測(cè)試的結(jié)果如圖3(b)所示,SIFT的配準(zhǔn)效果比ORB好一些;采用NLORB算法的實(shí)驗(yàn)結(jié)果如圖3(c)所示,特征點(diǎn)分布比較均勻,獲得較好的匹配效果。圖3(d)表示結(jié)合SURF改進(jìn)ORB算法的實(shí)驗(yàn)結(jié)果,匹配對(duì)的數(shù)量最少,分布零散,仍然有一些錯(cuò)誤匹配對(duì)。圖3(a)、圖3(b)、圖3(c)和圖3(d)進(jìn)行對(duì)比表明,本文NLORB算法在尺度不變方面魯棒性比ORB更強(qiáng),匹配2幅尺度差異較大的圖像時(shí),配準(zhǔn)效果仍然良好。

(a) ORB

(b) SIFT

(c) NLORB

(d) 結(jié)合SURF改進(jìn)ORB圖3 尺度變換實(shí)驗(yàn)

接下來,使用ORB,SIFT,NLORB和SURFORB算法對(duì)實(shí)驗(yàn)中的配準(zhǔn)數(shù)據(jù)分別進(jìn)行統(tǒng)計(jì),對(duì)實(shí)驗(yàn)結(jié)果定量分析,如表2所示。實(shí)驗(yàn)數(shù)據(jù)表明,相比于ORB方法,本文NLORB算法提高匹配對(duì)的質(zhì)量和成功率,且成功率方差較小。

表2 尺度變化時(shí)匹配對(duì)比

算法匹配對(duì)數(shù)匹配成功對(duì)數(shù)成功率/%ORB553767.31SIFT777698.70NLORB484593.75SURFORB403792.50

3.2 旋轉(zhuǎn)不變性對(duì)比實(shí)驗(yàn)

本文NLORB算法,繼承了ORB算法的旋轉(zhuǎn)不變性,使用不同旋轉(zhuǎn)的2幅圖像作為對(duì)比測(cè)試對(duì)象。用ORB,SIFT,NLORB和SURFORB測(cè)試的結(jié)果如圖4(a)~圖4(d)所示。

(a) ORB

(b) SIFT

(c) NLORB

(d) 結(jié)合SURF改進(jìn)ORB圖4 旋轉(zhuǎn)變換實(shí)驗(yàn)

用ORB,SIFT,NLORB和SURFORB算法分別對(duì)實(shí)驗(yàn)中的配準(zhǔn)數(shù)據(jù)進(jìn)行統(tǒng)計(jì)和定量分析,如表3所示。對(duì)比圖4(a)、圖4(b)、圖4(c)與圖4(d)和表3可以發(fā)現(xiàn),在旋轉(zhuǎn)變化的場(chǎng)景下,NLORB配準(zhǔn)成功率比ORB提高5.5%,特征點(diǎn)分布更均勻。

表3 旋轉(zhuǎn)變化時(shí)匹配對(duì)比

算法匹配對(duì)數(shù)匹配成功對(duì)數(shù)成功率/%ORB12910883.72SIFT12511995.20NLORB655889.23SURFORB595491.53

3.3 匹配時(shí)間對(duì)比實(shí)驗(yàn)

與SIFT比較,NLORB算法配準(zhǔn)特征檢測(cè)和描述時(shí)間較短。以第一組尺度變換圖片作為實(shí)驗(yàn)對(duì)象,用ORB,SIFT,NLORB和SURFORB對(duì)實(shí)驗(yàn)中的配準(zhǔn)時(shí)間數(shù)據(jù)分別進(jìn)行統(tǒng)計(jì),如表4所示。

表4 配準(zhǔn)時(shí)間對(duì)比

算法圖像特征檢測(cè)時(shí)間/ms特征描述時(shí)間/msSIFTBook1205.443212.998Book2124.434325.979ORBBook1147.43411.041Book216.14812.549NLORBBook1142.7427.461Book276.5336.857SURFORBBook1137.0497.500Book271.1277.726

從特征檢測(cè)時(shí)間上看,SIFT匹配時(shí)間最長(zhǎng),NLORB,SURFORB和ORB耗時(shí)相對(duì)較少。從描述時(shí)間和匹配時(shí)間上看,NLORB,SURFORB與ORB算法耗時(shí)小于SIFT算法。因此,從數(shù)據(jù)上直觀顯示,NLORB算法速度比SIFT算法快,比ORB算法慢一些,與SURFORB相當(dāng)。

綜上,NLORB具有特征點(diǎn)分布較均勻、匹配速度較快和配準(zhǔn)成功率高的優(yōu)勢(shì)。該算法特征檢測(cè)、描述和匹配速度比SIFT快,比ORB和SURFORB算法略慢,大部分場(chǎng)景下,匹配成功率比其他2種算法高,適合尺度變換和旋轉(zhuǎn)變換的場(chǎng)景。

3.4 圖像融合實(shí)驗(yàn)

多路視頻圖像通過基于HSI和YUV亮度模板的均值坐標(biāo)融合法這2種方法進(jìn)行圖像融合。

圖5 基于HSI亮度模板的均值坐標(biāo)融合法的效果

圖6 基于YUV亮度模板的均值坐標(biāo)融合法的效果

圖5和圖6表示了基于HSI和YUV亮度的均值坐標(biāo)融合法的拼接結(jié)果,其中HSI亮度模板均值融合法的效果有待提高,部分拼縫兩側(cè)有明暗差異。相比較而言,基于YUV亮度模板均值坐標(biāo)融合法的融合結(jié)果代價(jià)較小,并且拼接兩側(cè)的亮度和色彩通道過渡非常自然。

4 結(jié)束語

本文提出基于非線性尺度空間的配準(zhǔn)方法,通過建立非線性尺度空間,使用圖像熵篩選符合條件的尺度參數(shù),設(shè)置特征點(diǎn)間距,特征檢測(cè)時(shí)在多尺度空間內(nèi)對(duì)候選點(diǎn)進(jìn)行非極大值抑制,獲取穩(wěn)定的特征點(diǎn)。仿真結(jié)果表明,對(duì)于圖像存在尺度和旋轉(zhuǎn)變換的場(chǎng)景,本文方法有效地改善ORB算子的尺度不變性、分布均勻性和魯棒性,匹配效果相對(duì)較好,且配準(zhǔn)時(shí)間小于SIFT。

另外,本文提出基于亮度模板的均值坐標(biāo)融合法,將待融合圖像從RGB顏色空間轉(zhuǎn)換到Y(jié)UV,通過其亮度通道計(jì)算直方圖,進(jìn)行匹配加成,通過坐標(biāo)均值法融合原圖像,與HSI均值坐標(biāo)融合法相比,提高了融合效果。

[1] 杜承垚,袁景凌,陳旻騁,等. GPU加速與L-ORB特征提取的全景視頻實(shí)時(shí)拼接[J]. 計(jì)算機(jī)研究與發(fā)展, 2017,54(6):1316-1325.

[2] 張瑩,閆璠,高贏,等. 基于ORB算法和OECF模型的快速圖像拼接研究[J]. 計(jì)算機(jī)工程與應(yīng)用, 2017,53(1):183-189.

[3] 劉海燕,楊昌玉,劉春玲,等. 基于梯度特征和顏色特征的運(yùn)動(dòng)目標(biāo)跟蹤算法[J]. 計(jì)算機(jī)應(yīng)用, 2012,32(5):1265-1268.

[4] Lowe D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004,60(2):91-110.

[5] Rublee E, Rabaud V, Konolige K, et al. ORB: An efficient alternative to SIFT or SURF[C]// Proceedings of 2011 International Conference on Computer Vision. 2011:2564-2571.

[6] Bay H, Tuytelaars T, Gool L V. SURF: Speeded up robust features[C]// Proceedings of the 9th European Conference on Computer Vision. 2006:404-417.

[7] 索春寶,楊東清,劉云鵬. 多種角度比較SIFT、SURF、BRISK、ORB、FREAK算法[J]. 北京測(cè)繪, 2014(4):23-26.

[8] 白雪冰,車進(jìn),牟曉凱,等. 結(jié)合快速魯棒性特征改進(jìn)ORB的特征點(diǎn)匹配算法[J]. 計(jì)算機(jī)應(yīng)用, 2016,36(7):1923-1926.

[9] 李勝輝,史瑞芝,葉輝. 結(jié)合顏色不變量和ORB特征的圖像匹配算法[J]. 包裝工程, 2016,37(15):18-23.

[10] Szeliski R. Video mosaics for virtual environments[J]. IEEE Computer Graphics and Applications, 1996,16(2):22-30.

[11] Perez P, Gangnet M, Blake A. Poisson image editing[C]// ACM SIGGRAPH 2003 Papers. 2003:313-318.

[12] Farbman Z, Hoffer G, Lipman Y, et al. Coordinates for instant image cloning[C]// ACM SIGGRAPH 2009 Papers. 2009:67.

[13] 王冰,職秦川,張仲選,等. 灰度圖像質(zhì)心快速算法[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào), 2004,16(10):1360-1365.

[14] Alcantarilla P F, Bartoli A, Davison A J. KAZE: Features[C]// Proceedings of the 12th European Conference on Computer Vision. 2012:214-227.

[15] 白雁力,周信東. 基于區(qū)域最大圖像熵的車牌二值化算法[J]. 電視技術(shù), 2011,35(21):128-130.

[16] 龔萍,張輝,毛征,等. 融合局部熵二維熵的空中目標(biāo)跟蹤算法研究[J]. 國(guó)外電子測(cè)量技術(shù), 2014,33(1):32-35.

[17] Fischler M, Bolles R. Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography[J]. Communications of the ACM, 1981,24(6):381-395.

[18] 柳楊,顧昭藝. 彩色圖像直方圖均衡算法性能分析[EB/OL]. http://www.paper.edu.cn/releasepaper/content/201104-377, 2011-04-18.

猜你喜歡
尺度空間直方圖亮度
符合差分隱私的流數(shù)據(jù)統(tǒng)計(jì)直方圖發(fā)布
遠(yuǎn)不止DCI色域,輕量級(jí)機(jī)身中更蘊(yùn)含強(qiáng)悍的亮度表現(xiàn) 光峰(Appptronics)C800
基于AHP的大尺度空間域礦山地質(zhì)環(huán)境評(píng)價(jià)研究
亮度調(diào)色多面手
用直方圖控制畫面影調(diào)
居住區(qū)園林空間尺度研究
亮度一樣嗎?
中考頻數(shù)分布直方圖題型展示
圓投影及直方圖不變矩在多視角產(chǎn)品檢測(cè)中的應(yīng)用
基于斬波調(diào)制的LED亮度控制
天峻县| 冷水江市| 建瓯市| 巴彦淖尔市| 新巴尔虎左旗| 锡林浩特市| 黔西县| 洛浦县| 博白县| 沙坪坝区| 阳朔县| 潢川县| 吉安县| 南和县| 塔城市| 房山区| 金湖县| 永福县| 肇庆市| 临洮县| 青海省| 乐至县| 古丈县| 婺源县| 佳木斯市| 双鸭山市| 稷山县| 绥江县| 临沂市| 广平县| 清镇市| 漳州市| 河西区| 桂阳县| 布尔津县| 界首市| 临湘市| 蒲城县| 天水市| 日喀则市| 承德市|