楊月全, 秦瑞康, 李福東, 曹志強, 季 濤, 張?zhí)炱?/p>
(1.揚州大學 信息工程學院 江蘇 揚州 225009; 2.中科院自動化研究所 復雜系統(tǒng)管理與控制國家重點實驗室 北京 100190)
自從機器人誕生以來,其應用之初主要在工業(yè)制造領域, 后逐漸擴大至軍事、航天、醫(yī)療、娛樂、生活等領域[1-8].傳統(tǒng)的機器人控制一般使用示教再現方式,這種方法精度很高,但缺乏靈活性.后來將CCD像機用到機器人上,帶有視覺功能的機器人技術成為研究熱點.最初是一種“看后走”方法,該方法首先對物體進行特征提取,計算出像機坐標系下物體的位姿信息,通過正向運動學得出期望位姿;然后根據期望位姿通過解逆運動學來求解相應的期望關節(jié)向量.這種方法只能運用于靜止物體,而且進度受多方面影響,如標定精度、機器人結構參數等.為了提高任務精度,1973年Shirai和Inoue提出了傳統(tǒng)的視覺反饋[9],稱之為“靜態(tài)邊走邊看”,但受當時圖像處理技術發(fā)展的限制,實時性無法得到滿足.1979年,Hill和Park正式提出了“視覺伺服”的概念[10],與傳統(tǒng)的視覺反饋的不同之處在于圖像的處理與信息的反饋是同時進行的,控制精度、靈活性以及魯棒性都有了較大提高.結合近幾年的國內外對視覺伺服控制研究情況, 本文重點對機器人視覺伺服控制進展進行了回顧, 對該領域研究所面臨的挑戰(zhàn)進行了分析.
自從機器人視覺伺服被提出來以后,研究人員提出了許多伺服方法和伺服結構,按不同的標準可以將其分成不同的類別.根據攝像機個數不同,可分為單目視覺系統(tǒng)、雙目視覺系統(tǒng)和多目視覺系統(tǒng)等.根據攝像機的安裝方式,可分為手眼視覺系統(tǒng)(eye-in-hand)和場景視覺系統(tǒng)(eye-to-hand)等.根據輸出信號的形式,可分為基于動力學的視覺伺服和基于運動學的視覺伺服.根據攝像機參數的需求情況,可分為基于標定的視覺伺服和基于無標定的視覺伺服.下面,根據反饋信息的類型,從基于位置的視覺伺服、基于圖像的視覺伺服和混合視覺伺服等對國內外研究現狀進行分析.
在基于位置的視覺伺服結構中,其初始給定信息與反饋信息都以笛卡爾空間的形式呈現.在笛卡爾空間中,將機器人末端執(zhí)行器和目標物體間的相對位姿定義為伺服任務.利用所采集的圖像信號得到機器人的當前位姿信息,將當前位姿與期望位姿的差值傳輸給視覺控制器,形成閉環(huán)反饋[11-14].
在基于位置的模型依賴視覺伺服結構中,利用擴展卡爾曼濾波器來求得相對位姿,文獻[15]采用擁有eye-in-hand/eye-to-hand混合配置的多像機配置,這種方法計算量?。硗?,廣義預測控制器[16]與自回歸模型[17]等方法也可用來估計機械手的位姿.在基于位置的模型無關的視覺伺服結構中,可以通過分解機器人當前和期望圖像之間的本質矩陣[18],求得旋轉和平移信息,以使其完成伺服任務. 利用當前圖像與目標圖像間的對極幾何關系, 文獻[19]得到兩幅圖像間分別在位置和方向上的參數. 采用基于位置的視覺伺服控制器和常規(guī)PD控制器相結合的方法, 文獻[20]實現了機器人對目標運動的跟蹤.針對激光焊接工業(yè)機器人運動軌跡的精度問題,文獻[21]提出一種基于視覺反饋的激光焊接機器人軌跡跟蹤控制策略.針對eye-to-hand單目視覺配置的目標跟蹤問題,文獻[22]提出了一種利用虛擬視覺伺服算法,使得CAD模型在圖像空間中的投影收斂至目標邊緣, 從而實現笛卡爾空間中三維目標物的精確跟蹤的基于模型的三維跟蹤算法.針對利用視覺引導的機器魚水下追蹤問題,文獻[23]利用基于模糊滑膜控制機器魚到達目標水深并保持該水深的位置,利用多步驟的方法控制機器魚的走向,并且保持快速性與準確性.
由于伺服任務的精度較大程度依賴于系統(tǒng)標定.像機標定包括像機內參標定與像機外參標定,主要有直接線性變換、Tsai兩步法[24]、張正友平面標定法[25]、平面圓標定法[26]、平行圓標定法[27]等. 基于標定板的傳統(tǒng)標定方法,為了進一步改進內參標定的精度,文獻[28]在傳統(tǒng)標定方法的基礎上,提出一種共面點的改進攝像機標定方法.基于張正友標定法,文獻[29]提出一種新的基于遺傳算法的攝像機內參標定優(yōu)化.文獻[30-32]分別提出一種新的標定板塊及配套的、遠心鏡頭的、基于兩相同圓的標定算法.以上方法都是針對標定模板的標定方法,無法應用于無模板的場合.另外,自標定方法[33]研究主要有直接求解Kruppa方程法[34]、分層逐步標定法[35-36]、絕對二次曲面自標定[37]等. 為了提高外參標定的精度,文獻[38]提出了一種迭代計算的方法.針對位置姿態(tài)分開標定引起的測量誤差,文獻[39]提出了一種奇異值分解的方法.以上的標定方法使得像機標定的精度問題得到有效解決.在實際應用過程中,每當系統(tǒng)發(fā)生改變的時候都需要重新精確標定.這種伺服方法在伺服控制中計算量較大,由于機器人運動過程中可能部分或者全部不在視野之內,使得伺服任務較難以完成.
基于圖像的視覺伺服將給定信息與反饋信息均定義在圖像特征空間.通過當前圖像與期望圖像相關特征的比較,求出兩種圖像間的誤差關系,并將此作為控制信號,形成閉環(huán)反饋,通過控制機器人,使其末端執(zhí)行器滿足當前圖像與期望圖像特征相等的條件以完成伺服任務.
使用此種伺服結構,比較重要的一個任務就是解決圖像雅可比矩陣的求解問題[40-45].求解圖像雅可比矩陣也就是求解機器人末端執(zhí)行器空間速度與圖像特征變化率之間的變換關系.常數近似法是利用目標位姿得到的圖像雅可比矩陣用于整個伺服過程,這種求解方法只能在期望位姿的小范圍內完成伺服任務.文獻[41]中指出在線估計不需要三維物體模型和精確像機標定參數.直接估計法是在機器人進行伺服任務時,用辨識來直接獲取圖像雅可比矩陣.與基于位置的視覺伺服控制方法相比,這種伺服控制方法無須進行位姿估計,也無須對物體三維重構,復雜程度大大降低.此外,這種方法不需要精確手眼標定,因此對手眼標定誤差的魯棒性較強.但這種方法也存在一些弊端.首先,這種伺服控制方法可以確保伺服系統(tǒng)局部漸近穩(wěn)定,但確定穩(wěn)定域大小卻有一定的困難[43].其次,其本身是在二維空間定義的,無法對三維空間的路徑直接控制,此時的路徑可能無法達到最優(yōu).此外,雅可比矩陣的求解過程中還存在奇異性問題和局部極小值的問題.文獻[44]指出選取3個以上的圖像特征可一定程度上避免奇異性問題.
無論是基于位置的視覺伺服,還是基于圖像的視覺伺服,都存在各自的優(yōu)缺點,因此,法國專家Malis等人提出了混合視覺伺服的方法[46].與基于圖像的視覺伺服相比,混合視覺伺服可使任務空間嚴格收斂,與基于位置的視覺伺服相比,混合視覺伺服不需要物體的三維模型信息.
在這種伺服結構中,需要提前知道機器人的期望位姿信息,由機器人當前位姿與期望位姿之間的關系可得到對應的單應性矩陣,通過這個矩陣對機器人旋轉操作控制.由圖像特征的變化得到平移信息,從而對機器人平移操作控制.此方法實現了對機器人平移運動和旋轉運動的部分解耦,也可將其稱為基于單應性矩陣的視覺伺服控制.這種方法一定程度上可解決局部極小值問題.此外,文獻[46]指出這種視覺伺服方法不存在奇異性問題.文獻[47]對像機標定和手眼像機標定的誤差進行了穩(wěn)定性和魯棒性分析.但是這種混合視覺伺服方法也存在不足,主要是單應性矩陣的求解問題.文獻[46]指出單應性矩陣的求解對特征點的個數有要求,單應性矩陣的求解過程耗時大,而且可能存在多解問題,另外單應性矩陣的求解過程中對圖像噪聲比較敏感.
傳統(tǒng)視覺伺服一般需要像機內外參數標定[48-55], 受像機畸變以及圖像噪聲的影響,使得標定的結果很難達到要求.鑒于基于標定的視覺伺服仍存在很多的問題,1994年Hosoda等提出了無標定視覺伺服[51].這種方法的本質是通過求解圖像雅可比矩陣設計視覺控制器,在只有粗略的像機內外參數以及粗略的機器人結構和運動參數的情況下控制機器人.無標定視覺伺服分為雅可比在線估計法、雅可比自適應法、深度獨立雅可比矩陣估計法等.
該法又稱為雅可比直接估計,是一種研究較為廣泛的方法[56-67].針對不同運行速度的系統(tǒng),文獻[51]提出了靜態(tài)加權Broyden法和指數加權遞歸最小二乘法的辨識方法.針對不依賴先驗知識的情況,文獻[58]提出了一種基于切比雪夫多項式構成成本函數的Broyden圖像雅可比矩陣估計方法,該方法有較好的收斂速度與系統(tǒng)性能.為了解決大偏差對系統(tǒng)的影響問題,基于誤差仿射模型,利用擬牛頓法估計圖像雅可比矩陣,文獻[59]提出了大偏差條件下的無標定視覺伺服控制策略.針對殘差項的問題,基于動態(tài)割線法獲得圖像雅可比矩陣,文獻[60]提出了全局Hessian矩陣逆的D-BFGS直接估計法.針對高斯牛頓法在大殘量情況時可能不收斂或不能收斂到期望值的問題,文獻[61]提出了一種采用L-M方法的無標定視覺伺服控制方法.在雅可比的求解過程中,環(huán)境噪聲會對其求解造成影響,文獻[62]提出了一種基于卡爾曼濾波器的雅可比在線估計方法.針對計算雅可比偽逆矩陣引起的奇異性問題,文獻[66]提出了一種遞推最小二乘法估計圖像雅可比矩陣偽逆.針對視覺信息獲取延時問題,文獻[67]提出了一種帶有時延補償的視覺跟蹤方法.
雅可比自適應估計法不需要任何手眼系統(tǒng)參數,利用各種自適應算法對手眼系統(tǒng)參數進行在線估計[68-78].在運動學方面,基于單應性矩陣分解,文獻[68]提出了一種eye-to-hand系統(tǒng)運動學自適應控制策略.利用分解單應性矩陣的方法,文獻[69]設計高增益魯棒控制器使得旋轉誤差穩(wěn)定,以補償未知深度信息和像機標定內參的自適應控制器使得平移誤差穩(wěn)定.在動力學方面,針對深度信息不斷變化目標跟蹤問題,文獻[71]設計了自適應跟蹤控制器.基于李雅普諾夫方法的自適應控制策略,文獻[73]對特征點的深度信息進行補償.基于自適應控制問題,文獻[76]提出一種基于SDU分解的模型在線標定方法.在視覺跟蹤方面,針對運動學和動力學參數的不確定問題,文獻[77]提出了一種利用backstepping設計的自適應雅可比跟蹤方法,設計觀測器避免關節(jié)和任務空間加速度問題.在不測量圖像空間速度的情況下,文獻[78]提出了一種基于非線性觀測器的控制方法,通過自適應控制器實現了深度信息、動力學參數以及深度無關運動模型參數的分離.
該法既能對未標定攝像機參數補償,也可對未知變化運動的深度信息補償,且對深度信息無約束[79-85].利用Slotine-Li算法與圖像誤差梯度最小下降法在線估計系統(tǒng)未知參數信息,文獻[79]首次提出了深度獨立雅可比矩陣的無標定視覺伺服控制方法.在定位方面,文獻[80]提出了一種可同時處理動力學參數、機器人幾何參數以及攝像機內外參數的自適應定位方法.在動態(tài)跟蹤方面,文獻[82]將基于深度獨立雅可比矩陣估計法應用于eye-to-hand場景系統(tǒng)的單特征點動態(tài)軌跡跟蹤問題.針對未知物體的跟蹤問題,文獻[84]提出了一種利用非線性觀測器,在線估計未知物體運動狀態(tài)的動態(tài)視覺跟蹤方法,設計了基于深度獨立雅可比矩陣估計的動態(tài)跟蹤器.針對系統(tǒng)建模偏差或者外部干擾所導致的測量誤差大和關節(jié)速度無法測量的問題,在使用深度無關矩陣實現參數線性表達的基礎上,文獻[85]提出了一種采用浸入與不變流形觀測器對關節(jié)速度進行估計的無標定視覺伺服.
除了以上3種方法,還有其他無標定視覺伺服方法.在只知道攝像機內部粗略參數的情況下,文獻[86]提出了一種采用圖像特征信息和相對位姿分別作為平移運動和旋轉運動反饋信號,使得定位系統(tǒng)漸近穩(wěn)定的策略.基于自抗擾控制器,文獻[87]提出一種將圖像雅可比矩陣近似誤差作為擾動進行補償和估計的無標定視覺伺服方法.
由于機器人的視覺系統(tǒng)與機械手末端之間的關系是一個非線性時變問題,而現在的優(yōu)化方法可能會導致某些情況下無解,或需要強約束條件. 故也有基于智能學習方法展開的研究[88-93].針對人工神經網絡的結構選取問題,文獻[89]設計了基于人工神經網絡的視覺跟蹤控制器, 完成三維目標跟蹤任務.針對自由度機器人平動的視覺定位問題,文獻[91]提出了一種利用人工神經網絡對全局有效的非線性視覺映射關系模型擬合的無標定視覺伺服策略.由于雅可比矩陣本質上是線性和局部的,這影響了神經網絡對全局非線性輸入輸出關系的逼近能力.
自抗擾控制器是針對不確定系統(tǒng)的非線性控制器[94-99]. 將機器人視覺與機器人末端執(zhí)行器之間的未知映射關系作為未建模動態(tài),文獻[95]利用自抗擾控制器的思想設計控制器完成伺服任務.基于耦合的自抗擾控制器思想, 文獻[96]通過對系統(tǒng)建模的不確定性及其未知外擾進行非線性補償,完成了相互耦合的不依賴于系統(tǒng)特定任務的無標定手眼協(xié)調控制器的設計.基于自抗擾控制器思想,文獻[97]通過對系統(tǒng)未建模動態(tài)和外部擾動的補償,完成了不依賴于任務的無標定手眼協(xié)調控制器的設計.利用一個外部擴展狀態(tài)觀測器估計未建模動態(tài)和外部擾動,文獻[87]設計了基于非線性狀態(tài)誤差反饋的控制策略.
經過幾十年的發(fā)展,機器人視覺伺服研究和應用取得了很大的發(fā)展和成就.但可以看出大多數的伺服算法仍有一定的局限性.為了將機器人視覺伺服系統(tǒng)應用于實際中,必須解決其精確度、實時性、可靠性以及魯棒性等問題和要求,在這些方面仍面臨很大挑戰(zhàn).
第一,視覺伺服的實時性問題.視覺伺服的過程中包含圖像采集、圖像處理、特征提取與分析、控制信息(如位姿、深度信息等)轉換生成等.無論是基于位置的視覺伺服過程中的位姿估計,還是基于圖像的視覺伺服過程中的圖像雅可比矩陣估計、深度信息估計等,都需要有較強的算法來提高實時性.為了拓寬伺服系統(tǒng)的應用領域,如何進一步改善系統(tǒng)的實時性仍是當前亟待深入研究的問題之一.
第二,復雜動態(tài)環(huán)境下視覺伺服的可靠性問題.近年來針對視覺伺服的研究,往往將其處于理想的靜態(tài)環(huán)境下,或者假設環(huán)境已知對系統(tǒng)約束處理,但真實環(huán)境是復雜的,多變的、未知的動態(tài)約束可能會導致機器人碰撞或者目標物遮擋;其次,在實際應用中會有圖像噪聲、控制延時和模型誤差等問題,從而使得系統(tǒng)的穩(wěn)定性以及動態(tài)性能受到影響.因此,針對視覺伺服可靠性,還有很多問題值得深入探索.
第三,多傳感器的信息融合問題.當前的研究大多是利用單一視覺傳感器進行的,但其自身存在某些缺陷,如探測空間受限.在復雜的實際環(huán)境中,如何有效地使多視覺傳感器的信息進行有效融合,從而提高實際控制的性能成為研究重點.
第四,多任務控制問題.當前大多數的視覺伺服方法是基于單任務控制問題.但在一個實際應用中往往有多個任務,如機器人抓取系統(tǒng)、裝配系統(tǒng)等,處理多任務控制問題是必不可少的.
第五,基于離散時間域以及混雜系統(tǒng)的控制器設計問題.由于當前大多數的動態(tài)視覺伺服控制器都是基于連續(xù)時間域的機器人動力學設計的,但是實際應用多是在離散時間域或連續(xù)/離散時間域混合情形下實現的.因此,如何基于離散時間域、混雜系統(tǒng)的機器人運動學和動力學設計與分析,開展動態(tài)視覺伺服控制器問題變得越來越重要.
本文根據反饋方式對視覺伺服分為基于位置的視覺伺服、基于圖像的視覺伺服和混合視覺伺服等3類,對其控制結構、算法等進行了回顧分析.此外,特別對無標定視覺伺服進行了著重分析和小結.最后,就當前視覺伺服研究所面臨的挑戰(zhàn)進行了分析.
參考文獻:
[1] KHURSHID J, HONG B R. Military robots-a glimpse from today and tomorrow[C]// Proceedings of the 8th International Conference on Control, Automation, Robotics and Vision. Kunming, 2004: 771-777.
[2] MILLS S, AOUF N, MEJIAS L. Image based visual servo control for fixed wing UAVs tracking linear infrastructure in wind[C]//Proceedings of 2013 IEEE International Conference on Robotics and Automation (ICRA). Karlsruhe,2013: 5769-5774.
[3] LUO R C, CHEN C T, PU Y J. Internet based remote supervisory system for Tele-medicine robot application[C]// Proceedings of IEEE Workshop on Advanced Robotics and its Social Impacts. USA: IEEE Computer Society, 2009: 153-158.
[4] ISHIDA T, KUROKI Y. Motion and real-world sensing system of a small biped entertainment robot[J]. Proceedings of the world congress on intelligent control & automation, 2004, 6(10): 4834-4839.
[5] 趙清杰, 連廣宇, 孫增圻. 機器人視覺伺服綜述[J]. 控制與決策, 2001, 16(6): 849-853.
[6] 方勇純. 機器人視覺伺服研究綜述[J]. 智能系統(tǒng)學報, 2008, 3(2): 109-114.
[7] 黎志剛, 段鎖林, 趙建英, 等. 機器人視覺伺服控制及應用研究的現狀[J]. 太原科技大學學報, 2007, 28(1): 24-31.
[8] 賈丙西, 劉山, 張凱祥, 等. 機器人視覺伺服研究進展: 視覺系統(tǒng)與控制策略[J]. 自動化學報,2015,41(5): 861-873.
[9] SHIRAI Y, INOUE H. Guiding a robot by visual feedback in assembling tasks[J]. Pattern recognition, 1973, 5(2): 99-106.
[10] HILL J, PARK W T. Real time control of a robot with a mobile camera[C]// Proceedings of intermational symposium on industrial robots. Washington: D C, 1979: 233-246.
[11] TAYLOR G, KLEEMAN L.Hybrid position-based visual servoing with online calibration for a humanoid robot[C]// Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems. Japan:Sendai,2004: 686-691.
[12] GANS N R, DANI A P, DIXON W E. Visual servoing to an arbitrary pose with respect to an object given a single known length[C]//Proceedings of the American Control Conference. Washington, 2008:1261-1267.
[13] 董鵬飛. 基于位置的工業(yè)機器人視覺伺服控制系統(tǒng)研究[D]. 廣州:華南理工大學, 2015.
[14] 李國棟, 田國會, 薛英花. 基于QRCode技術的家庭服務機器人視覺伺服抓取操作研究[J]. 東南大學學報(自然科學版), 2010, 40(S1): 30-36.
[15] LIPPIELLO V, SICILIANO B, VILLANI L.Eye-in-hand/eye-to-hand multi-camera visual servoing[C]// Proceedings of the 44th IEEE Conference on Decision and Control. Seville, 2005: 5354-5359.
[16] KOIVO A J, HOUSHANGI N. Real-time vision feedback for servoing robotic manipulator with self-tuning controller[J]. IEEE transactions on systems man and cybernetics, 1991, 21(1):134-142.
[17] WESTMORE D B, WILSON W J. Direct dynamic control of a robot using an end-point mounted camera and Kalman filter position estimation[C]// Proceedings of the IEEE International Conference on Robotics and Automation. Sacramento, CA, 1991:2376-2384.
[18] GEORGIEV G H, RADULOV V D. A practical method for decomposition of the essential matrix[J]. Applied mathematical sciences, 2014, 8(176): 8755-8770.
[19] BASRI R, RIVLIN E, SHIMSHONI I. Visual homing: Surfing on the epipoles[J]. International journal of computer vision, 1999, 33(2): 117-137.
[20] 趙艷花,盧秉娟.基于位置的機器人視覺伺服控制[J].洛陽理工學院學報(自然科學版),2008, 18(2): 77-79.
[21] 張文增,陳強,都東,等.基于三維視覺的焊接機器人軌跡跟蹤[J].清華大學學報(自然科學版), 2007, 47(8): 1270 -1273.
[22] 張鵬程, 徐德. 基于CAD模型的目標跟蹤和定位算法研究[J]. 高技術通訊, 2014, 24(6):623-631.
[23] YU J, SUN F, XU D, et al. Embedded vision-guided 3-D tracking control for robotic fish[J]. IEEE transactions on industrial electronics, 2016, 63(1): 355-363.
[24] TSAI R. A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses[J]. IEEE journal on robotics and automation, 2003, 3(4):323-344.
[25] ZHANG Z. A flexible new technique for camera calibration[J]. IEEE transactions on pattern analysis and machine intelligence, 2000, 22(11):1330-1334.
[26] 孟曉橋,胡占義.一種新的基于圓環(huán)點的攝像機自標定方法[J]. 軟件學報, 2002, 13(5):957-965.
[27] 黃鳳榮,胡占義,吳毅紅.單幅圖像測量的一種新方法[J].自動化學報, 2004, 30(4):487-495.
[28] 劉楊豪,謝林柏.基于共面點的改進攝像機標定方法研究[J].計算機工程, 2016, 42(8):289-293.
[29] 徐中宇,李春龍,孫秋成,等.基于遺傳算法的攝像機內部參數標定優(yōu)化方法[J]. 吉林大學學報(理學版), 2014, 52(6):1267-1271.
[30] 文濤,左東廣,李忠科,等.一種魯棒的高精度攝像機標定方法[J].計算機應用研究,2015, 32(11):3489-3491.
[31] 李林娜,畢德學,馬麗.基于有序圖像序列與可控外部參數的遠心鏡頭標定方法[J].天津科技大學學報, 2015, 30(4):60-64.
[32] 張虎,達飛鵬,李勤.基于兩相同圓的自標定方法[J].儀器儀表學報,2010,31(3):618-624.
[33] 孟曉橋,胡占義.攝像機自標定方法的研究與進展[J].自動化學報,2003,29(1):110-124.
[34] MA S D. A self-calibration technique for active vision systems[J]. IEEE transactions on robotics and automation, 1996, 12(1):114-120.
[35] HEYDEN A, ASTROM K. Euclidean reconstruction from constant intrinsic parameters[C]// Proceedings of the 13th International Conference on Pattern Recognition: Austria, Vienna, 1996:339-341.
[36] POLLEFEYS M, GOOL L V. Self-calibration from the absolute conic on the plane at infinity[C]// Proceedings of the International Conference on Computer Analysis of Images and Patterns. Berlin: Springer Verlag, 1997:175-182.
[37] TRIGGS B. Autocalibration and the absolute quadric[C]// Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Argentina: San Juan, 1997:609-614.
[38] ZHANG H. Hand/eye calibration for electronic assembly robots[J]. IEEE Transactions on Robotics and Automation, 1998, 14(4):612-616.
[39] DANIILIDIS K, BAYRO-CORROCHANO E. The dual quaternion approach to hand-eye calibration[C]// Proceedings of 13th International Conference on Pattern Recognition. Austria:Vienna, 1996:318-322.
[40] CHAUMETTE F, BOUKIR S, BOUTHEMY P, et al. Structure from controlled motion[J]. IEEE transactions on pattern analysis and machine intelligence, 1996, 18(5): 492-504.
[41] DE LUCA A, ORIOLO G, GIORDANO P R. On-line estimation of feature depth for image-based visual servoing schemes[C]// Proceedings of 2007 IEEE International Conference on Robotics and Automation. Italy: Rome, 2007: 2823-2828.
[42] PIEPMEIER J A, MCMURRAY G V, LIPKIN H. Uncalibrated dynamic visual servoing[J]. IEEE transactions on robotics and automation, 2004, 20(1): 143-147.
[43] CHAUMETTE F. Potential problems of stability and convergence in image-based and position-based visual servoing[M]. London:Springer London, 1998:66-78.
[44] CHAUMETTE F, HUTCHINSON S. Visual servo control, part I: basic approaches[J]. IEEE robotics and automation magazine, 2007, 13(4):82-90.
[45] MA Z, SU J. Robust uncalibrated visual servoing control based on disturbance observer[J]. Isa transactions, 2015, 59:193-204.
[46] MALIS E, CHAUMETTE F, BOUDET S. 2-D visual servoing[J]. IEEE transactions on robotics and automation, 1999, 15(2): 238-250.
[47] MALIS E, CHAUMETTE F. Theoretical improvements in the stability analysis of a new class of model-free visual servoing methods[J]. IEEE transactions on robotics and automation, 2002, 18(2): 176-186.
[48] 江祥奎,紀旭.一種攝像機標定系統(tǒng)的實現[J].西安郵電大學學報, 2015, 20(5): 71-75.
[49] 胡小平,左富勇,謝珂.微裝配機器人手眼標定方法研究[J].儀器儀表學報, 2012, 33(7): 1521-1526.
[50] 馮春,周文.手眼系統(tǒng)中攝像機標定和手眼標定的同步算法[J].機械設計與制造,2015(12):58-61.
[51] HOSODA K, ASADA M. Versatile visual servoing without knowledge of true jacobian[C]// Proceedings of the IEEE/RSJ/GI International Conference on Intelligent Robots and Systems. Germany:Munich, 1994: 186-193.
[52] 付清山.機器人無標定視覺伺服控制研究[D].南京:東南大學, 2011.
[53] 梁新武.機械手無標定動態(tài)視覺伺服研究[D].武漢:華中科技大學, 2011.
[54] 毛尚勤.微操作系統(tǒng)的機器視覺與無標定視覺伺服研究[D].武漢:華中科技大學, 2013.
[55] 陶波,龔澤宇,丁漢.機器人無標定視覺伺服控制研究進展[J].力學學報, 2016, 48(4): 767-783.
[56] PIEPMEIER J A, MCMURRAY G V, LIPKIN H. Tracking a moving target with model independent visual servoing: a predictive estimation approach[C]//Proceedings of the IEEE International Conference on Robotics and Automation. Belgium:Leuven, 1998: 2652-2657.
[57] PIEPMEIER J A. Experimental results for uncalibrated eye-in-hand visual servoing[C]// Proceedings of the 35th Southeastern Symposium on System Theory. USA: Morgantown, W V, 2003: 335-339.
[58] 曾祥進,黃心漢,王敏.基于 Broyden 在線圖像雅可比矩陣辨識的視覺伺服[J]. 華中科技大學學報(自然科學版), 2008, 36(9): 17-20.
[59] 趙杰,李牧,李戈,等.一種無標定視覺伺服控制技術的研究[J]. 控制與決策, 2006, 21(9): 1015-1019.
[60] 楊誠,匡森,宋彩溫.基于動態(tài) BFGS 法的無標定視覺伺服控制[J].中國科學技術大學學報, 2015, 45(1): 1-8.
[61] 付清山,張志勝,史金飛.一種采用 LM 方法的無標定視覺伺服控制方法[J].中國機械工程, 2008, 19(21): 2622-2626.
[62] QIAN J, SU J. Online estimation of image Jacobian matrix by Kalman-Bucy filter for uncalibrated stereo vision feedback[C]//Proceedings of the IEEE International Conference on Robotics and Automation. USA: Washington, D C, 2002: 562-567.
[63] 趙清杰,陳云蛟,張立群. 基于粒子濾波的雅可比矩陣在線估計技術[J].北京理工大學學報,2008, 28(5): 401-404.
[64] 張應博.基于無極卡爾曼濾波算法的雅可比矩陣估計[J].計算機應用, 2011, 31(6): 1699-1702.
[65] SUTANTO H, SHARMA R, VARMA V. The role of exploratory movement in visual servoing without calibration[J]. Robotics and autonomous systems, 1998, 23(3): 153-169.
[66] 康慶生,孟正大,戴先中.圖像雅可比矩陣偽逆估計在視覺伺服中的應用[J].機器人,2006,28(4): 406-409.
[67] 吳越,匡森.帶時延補償的視覺跟蹤控制[J].計算機系統(tǒng)應用,2015, 24(9): 212-218.
[68] CHEN J, BEHAL A, DAWSON D M, et al. Adaptive visual servoing in the presence of intrinsic calibration uncertainty[C]//Proceedings of the IEEE Conference on Decision and Control. USA: Hawai, 2003:5396-5401.
[69] HU G, MACKUNIS W, GANS N, et al. Homography-based visual servo control with imperfect camera calibration[J]. IEEE transactions on automatic control, 2009, 54(6): 1318-1324.
[70] 金梅,李惠光,張立國. 基于雙目視覺模型的自適應控制[J].微計算機信息, 2009,25( 19): 24-25.
[71] CHEAH C C, LIU C, SLOTINE J J E. Adaptive vision based tracking control of robots with uncertainty in depth information[C]//Proceedings of the IEEE International Conference on Robotics and Automation. Italy: Rome, 2007: 2817-2822.
[72] WU B, LI H G. Uncalibrated visual servoing of robots with new image Jacobian estimation method[J]. J System Simulation, 2008, 20(14): 3767-3771.
[73] CHEAH C C, LIU C, SLOTINE J J E. Adaptive Jacobian vision based control for robots with uncertain depth information[J]. Automatica, 2010, 46(7): 1228-1233.
[74] LIU Y H, WANG H, LAM K. Dynamic visual servoing of robots in uncalibrated environments[C]// Proceedings of the IEEE International Conference on Robotics and Automation. Spain:Barcelona, 2005: 3131-3136.
[75] 宋彩溫,匡森.未標定視覺伺服系統(tǒng)的動力學控制[J].中國科學技術大學學報, 2015, 45(7): 537-545.
[76] LIZARRALDE F, LEITE A C, HSU L, et al. Adaptive visual servoing scheme free of image velocity measurement for uncertain robot manipulators[J]. Automatica, 2013, 49(5): 1304-1309.
[77] LIU C, CHEAH C C, SLOTINE J J E. Adaptive Jacobian tracking control of rigid-link electrically driven robots based on visual task-space information[J]. Automatica, 2006, 42(9): 1491-1501.
[78] WANG H. Adaptive visual tracking for robotic systems without image-space velocity measurement[J]. Automatica, 2015, 55(C): 294-301.
[79] LIU Y H, WANG H, WANG C, et al. Uncalibrated visual servoing of robots using a depth-independent interaction matrix[J]. IEEE transactions on robotics, 2006, 22(4): 804-817.
[80] WANG H, JIANG M, CHEN W, et al. Adaptive visual servoing with imperfect camera and robot parameters[J]. Life system modeling and intelligent computing, 2010,97: 124-131.
[81] WANG H, LIU Y H, ZHOU D. Adaptive visual servoing using point and line features with an uncalibrated eye-in-hand camera[J]. IEEE transactions on robotics, 2008, 24(4): 843-857.
[82] LIU Y, WANG H, ZHOU D. Dynamic tracking of manipulators using visual feedback from an uncalibrated fixed camera[C]// Proceedings of the IEEE International Conference on Robotics and Automation. USA: Orlando, Florida, 2006: 4124-4129.
[83] WANG H, LIU Y H, ZHOU D. Dynamic visual tracking for manipulators using an uncalibrated fixed camera[J]. IEEE transactions on robotics, 2007, 23(3): 610-617.
[84] WANG H, LIU Y H, CHEN W, et al. A new approach to dynamic eye-in-hand visual tracking using nonlinear observers[J]. IEEE/ASME transactions on mechatronics, 2011, 16(2): 387-394.
[85] HUA C, LIU Y, YANG Y. Image-based robotic control with unknown camera parameters and joint velocities[J]. Robotica, 2015, 33(8): 1718-1730.
[86] HU G, MACKUNIS W, GANS N, et al. Homography-based visual servo control via an uncalibrated camera[C]// Proceedings of American Control Conference. USA: Washington, 2008: 4791-4796.
[87] SU J, QIU W, MA H, et al. Calibration-free robotic eye-hand coordination based on an auto disturbance-rejection controller[J]. IEEE transactions on robotics, 2004, 20(5): 899-907.
[88] HASHIMOTO H, KUBOTA T, SATO M, et al. Visual control of robotic manipulator based on neural networks[J]. IEEE transactions on industrial electronics, 1992, 39(6): 490-496.
[89] 潘且魯,蘇劍波,席裕庚.眼在手上機器人手眼無標定三維視覺跟蹤[J].自動化學報,2002, 28(3): 371-377.
[90] CUPERTINO F, GIORDANO V, MININNO E, et al. A neural visual servoing in uncalibrated environments for robotic manipulators[C]// Proceedings of the IEEE International Conference on Systems, Man and Cybernetics. Netherlands:The Hague, 2004, 6: 5362-5367.
[91] 張家駒,吳洪濤.基于神經網絡的機器人無標定視覺伺服系統(tǒng)仿真[J].應用科技, 2011, 38(9): 1-5.
[92] SU J, XI Y, HANEBECK U D, et al. Nonlinear visual mapping model for 3-D visual tracking with uncalibrated eye-in-hand robotic system[J]. IEEE transactions on systems, man, and cybernetics:part B (Cybernetics), 2004, 34(1): 652-659.
[93] 辛菁,劉丁,徐慶坤. 基于LS-SVR 的機器人空間 4DOF 無標定視覺定位[J]. 控制理論與應用, 2010, 27(1): 1-9.
[94] HAN J. From PID to active disturbance rejection control[J]. IEEE transactions on industrial electronics, 2009, 56(3): 900-906.
[95] 蘇劍波.ADRC理論和技術在機器人無標定視覺伺服中的應用和發(fā)展[J].控制與決策,2015,30(1): 1-8.
[96] 馬紅雨,蘇劍波.基于耦合 ADRC 原理的機器人無標定手眼協(xié)調[J].機器人,2003, 25(1): 39-43.
[97] 蘇劍波,邱文彬.基于自抗擾控制器的機器人無標定手眼協(xié)調[J].自動化學報,2003, 29(2): 161-167.
[98] 馬紅雨,蘇劍波.基于自抗擾控制器的機器人無標定三維手眼協(xié)調[J].自動化學報,2004,30(3): 400-406.
[99] SU J. Convergence analysis for the uncalibrated robotic hand-eye coordination based on the unmodeled dynamics observer[J]. Robotica, 2010, 28(4): 597-605.