国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于自適應(yīng)子模式流形學(xué)習(xí)的三維工件位姿估計方法

2018-01-07 18:27魏新華沈?qū)殗?/span>
關(guān)鍵詞:流形位姿本質(zhì)

李 林,魏新華,沈?qū)殗?

(1.江蘇大學(xué)農(nóng)業(yè)裝備工程學(xué)院,江蘇鎮(zhèn)江212013;2.江蘇航空職業(yè)技術(shù)學(xué)院航空工程學(xué)院,江蘇鎮(zhèn)江212134)

基于自適應(yīng)子模式流形學(xué)習(xí)的三維工件位姿估計方法

李 林1,魏新華1,沈?qū)殗?,2

(1.江蘇大學(xué)農(nóng)業(yè)裝備工程學(xué)院,江蘇鎮(zhèn)江212013;2.江蘇航空職業(yè)技術(shù)學(xué)院航空工程學(xué)院,江蘇鎮(zhèn)江212134)

為了實現(xiàn)復(fù)雜工業(yè)環(huán)境中單目視覺三維工件的實時精確定位,提出了一種基于自適應(yīng)子模式流形學(xué)習(xí)(SP-IVP)的三維工件位姿估計方法.給出了通過非線性降維框架和重構(gòu)高維空間的流形構(gòu)建方法,獲得最優(yōu)保持本質(zhì)變量連續(xù)性的低維特征子空間;實現(xiàn)了基于該流形構(gòu)建方法的工件位姿估計;進而給出了自適應(yīng)子模式的分割規(guī)則,并提出了遮擋情況下基于SP-IVP的工件位姿估計方法.以3種常見工件為試驗對象,水平旋轉(zhuǎn)和垂直旋轉(zhuǎn)為零件的本質(zhì)變量,完成了遮擋以及無遮擋情況下的工件位姿估計.結(jié)果表明:所提出方法的平均位姿估計時間為73.6 ms,可滿足實時處理的需求;螺絲鉗、曲柄軸和圓柱體定位準(zhǔn)確率為95.4%,96.1%,98.4%;在不同遮擋情況下,新方法的識別率高于其他方法,并且進行子模式分割的識別率高于不進行子模式分割的方法.

流形學(xué)習(xí);子模式;工件定位;本質(zhì)變量;位姿;鄰域

目標(biāo)位置和姿態(tài)信息的檢測是工業(yè)生產(chǎn)中的核心技術(shù)之一.隨著工業(yè)生產(chǎn)水平的不斷提高,對系統(tǒng)的智能化、實用性要求越來越高,目標(biāo)物體位姿的微小偏差都會影響智能系統(tǒng)工作的成敗.目標(biāo)的識別與定位技術(shù)[1-2]水平限制了機器人在工業(yè)上的使用范圍.為適應(yīng)現(xiàn)代化生產(chǎn)線的需要,如何提高系統(tǒng)定位實用性和準(zhǔn)確程度,成為系統(tǒng)設(shè)計和研究的主要任務(wù).

流形學(xué)習(xí)作為一種能恢復(fù)數(shù)據(jù)內(nèi)在非線性幾何結(jié)構(gòu)的非線性降維技術(shù),自2000年提出后就受到越來越多的機器學(xué)習(xí)和數(shù)據(jù)挖掘領(lǐng)域研究人員的關(guān)注.H.S.SEUNG等[3]認(rèn)為人的視覺感知可能以流形方式存在.任何一幅圖像可以看成是高維圖像空間中的點,圖像空間的維數(shù)為圖像像素的個數(shù),每一維描述了圖像在對應(yīng)像素位置上的光的強度.筆者認(rèn)為人對同一對象的視覺感知圖像集在高維圖像空間中會形成低維流形,且僅由少數(shù)幾個變量控制,如光照強度、光照方向、視覺方向等.圖1給出了人類視覺感知示意圖,其中視覺看到的目標(biāo)是具有3個維度信息的,6個工件的三維圖在低維流形中對應(yīng)著某個點.

圖1 視覺感知中的流形

同一期的《Science》分別從算法層面上給出了參數(shù)少、運算快、易求全局最優(yōu)解的經(jīng)典算法等距映射(isometric map,ISOMAP)和局部線性嵌入(local ly linear embedding,LLE).此后,流形學(xué)習(xí)吸引了相關(guān)領(lǐng)域研究人員的注意,迅速成為當(dāng)前機器學(xué)習(xí)、數(shù)據(jù)挖掘、統(tǒng)計數(shù)據(jù)分析、模式識別及計算機視覺等方向的研究熱點[4-5].

雖然流形學(xué)習(xí)已經(jīng)應(yīng)用到很多實際問題中,但是低維流形空間并未直接應(yīng)用于三維目標(biāo)定位問題中.文中通過分析流形結(jié)構(gòu),在工件的位姿估計中直接引入流形學(xué)習(xí)框架,這對流形學(xué)習(xí)的應(yīng)用是一個非常重要的擴展.

文中給出流形的構(gòu)建過程,并提出基于流形學(xué)習(xí)的工件位姿估計方法,闡述了自適應(yīng)子模塊的形成過程,并進行試驗分析以驗證算法的有效性.

1 流形構(gòu)建

1.1 流形學(xué)習(xí)過程

不同流形學(xué)習(xí)算法的區(qū)別在于所嘗試保持流形的局部鄰域結(jié)構(gòu)信息以及利用這些信息構(gòu)造全局嵌入的方法不同[6].流形學(xué)習(xí)的目的在于挖掘非線性數(shù)據(jù)隱含的本質(zhì)變量,其本質(zhì)變量提取的基本步驟如下:①根據(jù)輸入高維數(shù)據(jù)的歐氏距離構(gòu)建流形結(jié)構(gòu);②針對不同算法需要保持的局部或者全局特征構(gòu)造優(yōu)化問題;③對優(yōu)化問題求解,得到數(shù)據(jù)的低維表示.

文中流形學(xué)習(xí)的目的是找到一個能夠保持目標(biāo)本質(zhì)變量連續(xù)性的低維空間及相應(yīng)的高低維間的映射關(guān)系,并將該映射關(guān)系用于目標(biāo)定位中.該流形的學(xué)習(xí)過程如下:①在訓(xùn)練階段,根據(jù)高維樣本對應(yīng)的本質(zhì)變量間距離來構(gòu)造流形結(jié)構(gòu)圖,其中本質(zhì)變量在訓(xùn)練階段已知;②通過非線性降維技術(shù),得到高維數(shù)據(jù)空間與低維表示空間之間的顯性映射關(guān)系;③得到低維空間對應(yīng)的表示:有相近本質(zhì)變量的輸入樣本在低維空間的坐標(biāo)也會相近;④ 在實際的定位過程中,通過顯性的映射關(guān)系將候選圖像投影到低維空間,找到低維空間中距離候選圖像最近的映射點,從而得到目標(biāo)的位姿信息.

1.2 基于保持本質(zhì)變量的流形構(gòu)建

為了進行高維輸入的低維表示,采用文獻[7]中的LPP算法來實現(xiàn),并獲得高維輸入和低維表示之間顯性的映射關(guān)系.另外一類實現(xiàn)該目的的方法稱為基于核的方法[8],由于核函數(shù)的計算量非常大,限制了該類方法的應(yīng)用.另外,基于核的方法僅在高維空間和低維空間的映射關(guān)系匹配一個核函數(shù)的時候是有效的,且輸入數(shù)據(jù)必須在流形結(jié)構(gòu)中,而不是接近或偏離這個流形.

對給定的高維數(shù)據(jù)集X,假設(shè)其位于某未知流形M上,并進一步假設(shè)M能夠被參數(shù)化表示為式中:f是一個未知的連續(xù)可微函數(shù),且對于x∈X,存在u∈U使得x=f(u);U是能夠生成X的本征自由維度的集合,且U的幾何結(jié)構(gòu)是唯一的.流形學(xué)習(xí)方法的目標(biāo)是計算與U有相似的幾何結(jié)構(gòu)的低維表示集合y.

假設(shè)xi,yi都是輸入樣本,對應(yīng)的本質(zhì)變量分別是ui和uj,其中ui=(ui1,ui2,…,uid),uj=(uj1,uj2,…,ujd).為了保持本質(zhì)變量之間的相鄰關(guān)系,文中構(gòu)建了一個基于輸入樣本本質(zhì)變量關(guān)系的新流形.

嚴(yán)格意義上講,文中構(gòu)建流形目的是要尋找低維表示集Y使其能夠滿足以下優(yōu)化問題:

式中Sij為變量之間距離dij的懲罰因子.

對于2個本質(zhì)變量相近的樣本xi,xj,若它們之間有很小的本質(zhì)變量距離dij,則它們具有較大的相似度Sij.為了使式(2)目標(biāo)函數(shù)最小化,如果‖yiyj‖L2對應(yīng)的權(quán)值Sij較大,‖yi-yj‖L2將會很小.因此,yi和yj在低維空間中是相近的.式(2)中列出的約束條件是為了去除低維空間中的尺度因子.

通過直接的代數(shù)計算,可得到:

在LPP中,一般假設(shè)在X和Y間存在一個線性映射,也就是存在一個n×m投影矩陣U,使得對于任意xi,i=1,2,…,N,它的低維表示yi滿足下式:

將式(5)帶入式(4)得到:

式(6)是要找到一個被m個方向擴張的子空間,使得輸入樣本之間的相似度能夠在線性投影假設(shè)的情況下最好地得以保持.

從式(5)可見,這m個方向正好是U的列向量.令P=XLXT和Q=XDXT,則式(6)變?yōu)?/p>

U的m個列向量是下述廣義特征值問題前m個最小特征值所對應(yīng)的特征向量:

為了避免平移干擾,假定X以原點為中心,U列向量為式(8)中前m個最小特征值對應(yīng)的特征向量.通過計算得到投影矩陣U后,樣本xnew的低維表示ynew可以由下式獲得:

通過融合新的流形結(jié)構(gòu)和基于LPP的流形學(xué)習(xí)方法,得到保持本質(zhì)變量連續(xù)性的流形學(xué)習(xí)方法,其算法輸入為訓(xùn)練數(shù)據(jù)集X,輸出為X的低維表示Y,詳細(xì)步驟如下:① 在輸入數(shù)據(jù)間構(gòu)建鄰接關(guān)系圖;② 計算高維數(shù)據(jù)對之間的本質(zhì)變量距離;③計算數(shù)據(jù)對之間的相似度,并形成相似度矩陣S;④計算矩陣P和Q;⑤解決一般化的廣義特征值問題(8),并得到投影矩陣U;⑥通過Y=UTX獲得任意輸入樣本X的低維表示Y.

圖2給出了對曲柄軸的投影圖像使用基于保持本質(zhì)變量連續(xù)性的流形學(xué)習(xí)方法得到的流形結(jié)構(gòu)圖.

圖2 基于本質(zhì)變量連續(xù)性的流形構(gòu)建

2 基于SP-IVP的工件位姿估計

2.1 基于流形學(xué)習(xí)的工件位姿估計

工件定位分為離線學(xué)習(xí)階段和在線檢測階段.離線學(xué)習(xí)階段針對采集的樣本構(gòu)建基于本質(zhì)變量的流形,得到高維空間到低維空間的顯性映射以及高維空間的低維表示.在線檢測階段即對待估計圖像進行位姿估計.

基于保持本質(zhì)變量連續(xù)性的零件定位算法,其思想是將高維待檢測定位的圖像降到低維度進行比較測量.選擇最近似的位姿,進而通過位姿優(yōu)化獲得零件的精確位姿.可分為以下2步:

1)在待檢測定位的圖像中,構(gòu)建滑動窗口,該窗口與訓(xùn)練時所獲得的圖像像素一致.令滑動窗口圖像為It,則降維度后所獲得的低維表示為

計算所有的yt與所構(gòu)建流形最小歐氏距離dmin.當(dāng)dmin小于某一數(shù)值時,所對應(yīng)的高維窗口圖像中包含目標(biāo)零件.此時,令在低維中與yt距離最近的流形中的點所表示的零件位姿,為此時滑動窗口中零件的初步位姿pinit.

2)由于1)步中所獲得為初步位姿,為獲得精確位姿,需以該位姿為初始參數(shù),進行位姿優(yōu)化.文中采用最小二乘法進行調(diào)整,通過使用Levenberg Marquard[9]算法進行魯棒的非線性優(yōu)化迭代來得到優(yōu)化的位姿.在優(yōu)化過程中,通過使圖像邊緣點與對應(yīng)CAD模型投影邊緣點之間的距離平方最小化來實現(xiàn)參數(shù)的優(yōu)化.最小化之后,就可以得到精確的位姿參數(shù).

2.2 自適應(yīng)子模式的選擇

在實際的工件位姿定位過程中,由于受到環(huán)境(噪聲、遮擋等)以及工件本身(不同位姿的投影圖像相似)的影響,僅使用單幅圖像進行工件的位姿估計得到的準(zhǔn)確度較低.為了解決該問題,可在進行位姿估計前首先對目標(biāo)圖像進行子模式分割,然后分別對各子模式進行位姿估計,最后融合各子模式的位姿估計結(jié)果得到最終精確的位姿信息.

子模式的分割數(shù)量在很大程度上決定了最終位姿估計的準(zhǔn)確度和速度,為了有效進行子模式的分割,提出了子模式的自適應(yīng)分割方法.其詳細(xì)的分割過程如下:

1)默認(rèn)最少的分割數(shù)量為N1×N1,N1為正整數(shù)(一般設(shè)置為2),當(dāng)前的分割數(shù)為N=N1.

根據(jù)經(jīng)驗可知:當(dāng)工件紋理信息豐富時,子模式的數(shù)量會較多;當(dāng)工件屬于弱紋理信息時,子模式的數(shù)量較少.圖3給出了圓柱體的子模式分割結(jié)果.

圖3 自適應(yīng)子模式集

2.3 基于SP-IVP的工件位姿估計

結(jié)合2.2給出的自適應(yīng)子模式的選擇,提出基于子模式(sub-pattern)-保持本質(zhì)變量連續(xù)性(intrinsic variable preserving)的工件位姿估計方法,圖4給出了該方法的流程圖.

圖4 基于SP-IVP的工件位姿估計流程圖

基于SP-IVP的工件位姿估計主要分為3個階段:離線處理階段、預(yù)處理階段和在線估計階段.

1)離線處理階段.

離線處理階段在進行位姿估計之前就可以進行,其作用主要是建立已知模型的流形學(xué)習(xí)方法.該階段首先使用CAD軟件對已知的工件建立三維模型,然后采集工件由3D 2D投影的圖像并保存其相應(yīng)的位姿信息;然后對二維圖像集進行子模式分割,得到各個子模式的集合,最后對子模式集合建立基于保持本質(zhì)變量連續(xù)性的流形結(jié)構(gòu)用于后期的位姿估計.

2)預(yù)處理階段.

預(yù)處理階段的作用是提取工件的位置信息.在實際應(yīng)用中,位置估計的背景非常復(fù)雜,如何有效提取目標(biāo)信息進行后期的處理是非常關(guān)鍵的步驟.

預(yù)處理階段中,選用H通道的彩色直方圖進行目標(biāo)和背景的分離.目標(biāo)和背景的H通道彩色直方圖可分別表示為

背景和目標(biāo)的分離閾值D[h]可以通過下式計算得到:

式中δ大于0,可用來去除Bn[h]和fn[h]小的值,避免分割點為0.

通過H通道彩色直方圖可以建立原始圖像Itest的映射圖.假設(shè){Xi}i=1,2,…,N表示Itest的像素點,映射圖的計算式為

式中:S(Xi)為像素點Xi屬于目標(biāo)的概率;b(Xi)為像素點Xi的均一化值;ε1和ε2為2個閾值,ε1>ε2.

3)在線估計階段.

在線估計階段即實時對目標(biāo)進行精確的位姿估計,子模式位姿初估計是基于保持本質(zhì)變量連續(xù)性的流形學(xué)習(xí)方法對子模式進行位姿的初步估計.估計過程中并不是所有的子模式都進行位姿估計,根據(jù)2.2中選用的相似性檢測方法,僅對不存在相似度高的塊的子模式塊進行位姿估計.

對子模塊進行位姿估計后,需要剔除偏差較大的子模式塊檢測結(jié)果.剔除原則采用反檢原則,即對該子模塊估計的位姿進行全部還原,提取CAD模型中該位姿對應(yīng)的投影圖像,將該圖像與測試圖像進行相似性測量,若相似度高,認(rèn)為該子模塊為有效塊,并保存相似度信息,否則認(rèn)為該子模塊的位姿估計結(jié)果不準(zhǔn)確,將其剔除.對每個子模塊的位姿估計結(jié)果進行檢測,得到有效的位姿估計集.

對位姿估計集進行信息融合,得到目標(biāo)的初步估計結(jié)果,信息融合方法采用最大投票準(zhǔn)則,即選取與測試圖像距離最近的位姿估計結(jié)果.

選用上述方法對位姿估計的精確度只能達到圖像采集的間隔大小,為了能進一步得到更精確的目標(biāo)位姿信息,采用迭代最近點和高斯-牛頓組合的方法對粗估計的位姿信息進行更精確的估計.

3 試 驗

3.1 參數(shù)設(shè)置

在工業(yè)零件定位的過程中,零件的位姿包括空間中的位置和姿態(tài)共6個參數(shù)信息.試驗的目的在于提出并驗證基于保持本質(zhì)變量連續(xù)性的零件定位算法的可行性,并以可視化的形式,來直觀展現(xiàn)流形的建立.因此,在接下來的描述和試驗中,均以2個姿態(tài)為變量.

視覺系統(tǒng)主要由相機和計算機組成,相機通過千兆以太網(wǎng)口與計算機相連,相機為AVT公司的Manta201c,其分辨率為1 624×1 234,配置computar的鏡頭,根據(jù)實際情況選擇的焦距為5 mm.相機安裝在工業(yè)機器人FANUC 6 DOF(DOF:degree of free dom)上.

3.2 無遮擋情況下的工件位姿估計

在試驗中,零件定位過程中的本質(zhì)變量被簡化為水平旋轉(zhuǎn)rh和垂直旋轉(zhuǎn)rv,且rh∈[0,2π],rv∈[0,2π].因此,零件定位過程中的本質(zhì)變量為μ=(rh,rv).3種工件各自的rh和rv方向定義如圖5所示.

圖5 工件的位姿方向定義

在訓(xùn)練過程中,連續(xù)改變本質(zhì)變量μ中的rh和rv,采集零件的視圖數(shù)據(jù),且要求零件視圖沿著水平旋轉(zhuǎn)rh和垂直旋轉(zhuǎn)rv軸均勻地分布.最終,文中獲得了包含工業(yè)零件2個自由度0至360°的訓(xùn)練數(shù)據(jù)庫.

分別采集16個不同的位姿空間,采集間隔為0.1°,表1給出了16個位姿空間的信息.每個位姿空間包含400張不同位姿的二維圖像以及相應(yīng)的位姿信息.

表1 16個位姿空間的位姿范圍

對每個位姿空間,隨機采集處于該位姿空間的20個位姿對應(yīng)的投影圖像作為測試集,螺絲鉗、曲柄軸和圓柱體正確識別率分別為95.4%,96.1%,98.4%.可以看出,文中提出的基于保持本質(zhì)變量連續(xù)性的方法可有效地對零件目標(biāo)的位姿信息進行估計.圖像位姿的平均估計時間為73.6 ms,滿足實際應(yīng)用中實時估計的要求.

3.3 遮擋情況下的工件位姿估計

制造業(yè)的生產(chǎn)環(huán)境復(fù)雜,尤其在工業(yè)機器人進行工件抓取時,工件之間的遮擋經(jīng)常影響對工件的位姿信息的估計,導(dǎo)致機器人末端執(zhí)行錯誤的指令.為了驗證提出的基于子模式的工件位姿估計方法可以解決工件之間的遮擋問題,進行以下試驗.

1)有遮擋情況下文中算法與其他算法的比較.

以曲柄軸為試驗對象,隨機選取16個位姿空間中存在遮擋的曲柄軸位姿進行位姿估計,其中每個位姿空間選取20幅圖像,并將文中算法與Shin′s[10]的方法進行對比.圖6給出了在遮擋率分別為10%,20%,30%,40%,50%這5種情況下2種算法的準(zhǔn)確率.

圖6 遮擋情況下文中算法與Shin′s的比較

由圖6可見,當(dāng)存在遮擋時,Shin′s的準(zhǔn)確性下降非???,說明該算法對遮擋情況不具有魯棒性.而文中算法在遮擋率為20%~30%時仍保持較高的位姿估計準(zhǔn)確率.

2)不同遮擋情況下非SP與SP的比較.

為了驗證文中算法的有效性,分別進行2組試驗,一組是只進行整個圖像的位姿估計(非SP),另外一組進行自適應(yīng)子模式選擇的位姿估計(SP).測試樣本集為16個位姿空間里每個位姿空間隨機選取的20幅圖像.表2給出了非SP與SP在不同的遮擋情況下的姿態(tài)估計結(jié)果.

表2 非SP與SP在不同的遮擋情況下姿態(tài)估計結(jié)果

由表2可見,當(dāng)存在遮擋情況時使用子模式具有更好的識別效果.

4 結(jié) 論

1)基于流形學(xué)習(xí)的方法通過獲得最優(yōu)保持本質(zhì)變量連續(xù)性的低維特征子空間,算法復(fù)雜度降低,可滿足工業(yè)中實時性的要求.

2)試驗結(jié)果表明:所提出方法的平均位姿估計時間為73.6 ms;螺絲鉗、曲柄軸和圓柱體3種工件的定位準(zhǔn)確率為95.4%,96.1%,98.4%;在不同遮擋情況下,文中提出方法的識別率高于其他方法,并且進行子模式分割的識別率高于不進行子模式分割的方法.

(References)

[1] RUSSAKOVSKY O,DENG J,SU H,et al.ImageNet large scale visual recognition challenge[J].Internatio nal Journal of Computer Vision,2015,115(3):211-252.

[2] 丁雅斌,梅江平,張文昌,等.基于單目視覺的并聯(lián)機器人末端位姿檢測[J].機械工程學(xué)報,2014,50(21):174-179.DING Y B,MEIJP,ZHANGW C,et al.Position and orientationmeasurement of parallel robot based on mono cular vision[J].Journal of Mechanical Engineering,2014,50(21):174-179.(in Chinese)

[3] SEUNG H S,LEE D D.Themanifold ways of perception[J].Science,2001,290:2268-2269.

[4] 岳學(xué)軍,全東平,洪添勝,等.基于流形學(xué)習(xí)算法的柑橘葉片氮含量光譜估測模型[J].農(nóng)業(yè)機械學(xué)報,2015,46(6):244-250.YUE X J,QUAN D P,HONG T S,et al.Estimation model of nitrogen content for citrus leaves by spectral technology based on manifold learning algorithm[J].Transactions of the Chinese Society for Agricultural Ma chinery,2015,46(6):244-250.(in Chinese)

[5] KUMAR S,SAVAKISA.Learning a perceptualmanifold for image set classification[C]∥Proceedings of the 23rd IEEE International Conference on Image Processing.Pis cataway:IEEE Computer Society,2016:4433-4437.

[6] 茍建平,詹永照,張建明,等.一種可鑒別的稀疏保局投影算[J].江蘇大學(xué)學(xué)報(自然科學(xué)版),2015,36(6):691-696.GOU JP,ZHAN Y Z,ZHANG JM,et al.A discrimina tive sparsity locality preserving projections method[J].Journal of Jiangsu University(Natural Science Edition),2015,36(6):691-696.(in Chinese)

[7] CRIMINISIA,SHOTTON J,KONUKOGLU E.Decision forests:a unified framework for classification,regression,density estimation,manifold learning and semi supervised learning[J].Foundations and Trends in Computer Gra phics and Vision,2011,7(2/3):81-227.

[8] 胡春華,李萍萍.基于各向異性核擴散法的楊樹葉特征降維[J].農(nóng)業(yè)機械學(xué)報,2013,44(11):281-286.HU C H,LI P P.Dimensionality reduction for poplar leaves features based on anisotropic kernel diffusion map[J].Transactions of the Chinese Society for Agricultural Machinery,2013,44(11):281-286.(in Chinese)

[9] MISHRA S,PRUSTY R,HOTA P K.Analysis of leven berg marquardt and scaled conjugate gradient training al gorithms for artificial neural network based LSand MMSE estimated channel equalizers[C]∥Proceedings of the 2015 International Conference on Man and Machine Inter facing.Piscataway:IEEE,2015,doi:10.1109/MAMI.2015.7456617.

[10] SHIN D,LEE H,KIM D.Illumination robust face re cognition using ridge regressive bilinearmodels[J].Pat tern Recognition Letters,2008,29(1):49-58.

3D workpiece pose estimation based on adaptive sub pattern manifold learning

LILin1,WEIXinhua1,SHEN Baoguo1,2
(1.School of Agricultural Equipment Engineering,Jiangsu University,Zhenjiang,Jiangsu 212013,China;2.School of Aviation Engi neering,Jiangsu Aviation Technical College,Zhenjiang,Jiangsu 212134,China)

To locate three dimensional workpiece ofmonocular vision timely and accurately in complex industrial environment,a pose estimation method of three dimensional workpiece was proposed based on adaptive sub pattern manifold learning(SP-IVP).The constructing manifold method was given by nonlinear reduction of dimension framework and reconstruction of high dimension space,and the low dimensional feature sub space was obtained to maintain the optimal continuity of nature variable.The pose estimation ofworkpiecewas realized based on themanifold constructionmethod.The pose estimation method of workpiece with occlusion was proposed based on SP-IVP after the segmentation rules of adaptive sub pattern was given.Three kinds of common workpieces were tested,and the horizontal rotation and the vertical rotation were chosen as natural variables to conduct pose estimation ofworkpieces with or without occlusion.The results show that the average pose estimation time of the proposed method is 73.6 ms,which can meet the requirement of real time processing.The positioning accuracy rates of screwdriver,crankshaft and cylinder are 95.4%,96.1%and 98.4%,respectively.The recognition accuracy of the proposed method is higher than those of othermethods in different occlusion cases.The ____sub pattern segmentation method is performed with higher recognition rate than the method without sub pattern segmentation.

manifold learning;sub pattern;workpiece localization;natural variable;pose;neighbourhood

10.3969/j.issn.1671-7775.2018.01.014

TP391.4

A

1671-7775(2018)01-0086-06

李 林,魏新華,沈?qū)殗?基于自適應(yīng)子模式流形學(xué)習(xí)的三維工件位姿估計方法[J].江蘇大學(xué)學(xué)報(自然科學(xué)版),2018,39(1):86-91,114.

2016-08-30

國家自然科學(xué)基金資助項目(51575244);農(nóng)業(yè)部公益性行業(yè)專項項目(201503130);江蘇大學(xué)高級人才基金資助項目(14JDG149)

李 林(1986—),女,山東聊城人,助理研究員(lilin@ujs.edu.cn),主要從事計算機視覺應(yīng)用技術(shù)研究.

魏新華(1972—),男,山東濱州人,研究員,博士生導(dǎo)師(wxh@ujs.edu.cn),主要從事先進傳感器的開發(fā)、智能化農(nóng)業(yè)裝備等研究.

(責(zé)任編輯 梁家峰)

猜你喜歡
流形位姿本質(zhì)
關(guān)注本質(zhì) 為理解而教
無人機動平臺著陸慣性/視覺位姿歧義校正算法
理解本質(zhì),豐富內(nèi)涵
船舶清理機器人定位基準(zhǔn)位姿測量技術(shù)研究
優(yōu)化ORB 特征的視覺SLAM
童年的本質(zhì)
對乘積開子流形的探討
對求極限本質(zhì)的探討
基于多故障流形的旋轉(zhuǎn)機械故障診斷
基于幾何特征的快速位姿識別算法研究
响水县| 茂名市| 桂东县| 鹰潭市| 友谊县| 镇巴县| 辽阳县| 嘉峪关市| 犍为县| 建德市| 平舆县| 武隆县| 客服| 彭泽县| 泰安市| 万宁市| 乐昌市| 康马县| 迁安市| 油尖旺区| 吉木乃县| 侯马市| 桃园县| 宁远县| 兴隆县| 喀喇| 昭通市| 资阳市| 济南市| 西贡区| 萍乡市| 遵化市| 开封市| 石嘴山市| 新密市| 沙田区| 双鸭山市| 望谟县| 黄龙县| 简阳市| 湘潭市|