引言
目前工業機器人僅能在嚴格定義的結構化環境中執行預定指令動作,缺乏對環境的感知與應變能力,這極大地限制了機器人的應用。利用機器人的視覺控制,不需要預先對工業機器人的運動軌跡進行示教或離線編程,可節約大量的編程時間,提高生產效率和加工質量。
Hagger等人提出通過基于機器人末端與目標物體之間的誤差進行視覺反饋的方法;Mezouar等人提出通過圖像空間的路徑規劃和基于圖像的控制方法。國內這方面主要應用于焊接機器人對焊縫的跟蹤。
本文利用基于位置的視覺伺服思想,以六自由度垂直關節型噴涂機器人為載體,提出一種基于機器視覺的工業機器人自定位控制方法,解決了機器人末端實際位置與期望位置相距較遠的問題,改善了噴涂機器人的定位精度。
1.視覺定位系統的組成機器人視覺定位系統構成如圖1所示,在關節型機器人末端安裝噴涂工具、單個攝像機,使工件能完全出現在攝像機的圖像中。系統包括攝像機系統和控制系統:
攝像機系統:由單個攝像機和計算機組成,負責視覺圖像的采集和機器視覺算法;
控制系統:由計算機和控制箱組成,用來控制機器人末端的實際位置;經CCD攝像機對工作區進行拍攝,計算機通過本文使用的圖像識別方法,提取跟蹤特征,進行數據識別和計算,通過逆運動學求解得到機器人各關節位置誤差值,最后控制高精度的末端執行機構,調整機器人的位姿。
圖1噴涂機器人視覺定位系統組成
2.視覺定位系統工作原理2.1視覺定位系統的工作原理
使用CCD攝像機和1394系列采集卡,將視頻信號輸入計算機,并對其快速處理。首先選取被跟蹤物體的局部圖像,該步驟相當于離線學習的過程,在圖像中建立坐標系以及訓練系統尋找跟蹤物。學習結束后,圖像卡不停地采集圖像,提取跟蹤特征,進行數據識別和計算,通過逆運動學求解得到機器人各關節位置給定值,最后控制高精度的末端執行機構,調整機器人的位姿。工作流程如圖2所示。
圖2視覺定位系統軟件流程圖
食品分揀機器人品牌2.2基于區域的匹配
本文采用的就是基于區域的相關匹配方法。它是把一幅圖像中的某一點的灰度領域作為模板,在另一幅圖像中搜索具有相同灰度值分布的對應點領域,從而實現兩幅圖像的匹配。在基于區域相關的算法中,要匹配的元素是固定尺寸的圖像窗口,相似準則是兩幅圖像中窗口間的相關性度量。當搜索區域中的元素使相似性準則最大化時,則認為元素是匹配的。
高速分揀機器人方案定義PP是模板圖像中一點,取以PP為中心的某一鄰域作為相關窗口K,大小為,假設K在原始圖中,水平方向平移Δu,垂直方向平移Δu后,K所覆蓋下的那塊搜索區域叫做子圖Sk,若K和Sk相同,則它們的差為零,否則不為零。由此定義K和Sk的相關函數為:
藥品分揀機器人找哪家當D達到最小,K與Sk達到最佳匹配。
2.3圖像的特征提取
工作臺上的工件與工作臺背景在顏色方面具有很大的差別,即工件呈現為黑色,將這一信息作為識別工件的重要特征。
工件的邊緣處灰度有急劇的變化,可以以此判斷出工件的邊界點。采用掃描線的方法,掃描方向上灰度劇變的像素點就是邊界點。最后,通過最小二乘法把找到的邊界點擬合出圓周,并計算出圓心位置。
2.4實驗與分析
實驗目的是通過機器視覺,快速識別出工件的特征。
選取被跟蹤工件的局部圖像作為模板圖像template以局部圖像template為模板,在原始圖像中進行基于區域的匹配,并以template的左
下角為原點,建立坐標系。然后定義一個搜索區域ROI(regionofinterest),根據要提取的特征選擇區域的形狀,這里選擇環形區域。搜索區域必須包含全部目標特征。在ROI中提取工件的特征,如圖3所示。
圖3圓心識別
垃圾分揀機器人的控制系統該步驟相當于離線學習的過程。每次使用前只需要學習一次即可。通過離線學習,系統得到ROI與工件的相對位置關系,以便實時識別中工件出現偏移、翻轉等,ROI都可以準確出現在合適位置。
離線學習后,視覺系統經過區域匹配、閥值分割和邊緣提取等步驟找到需要識別的特征,如圖4所示。
圖4實時識別
離線學習后,視覺系統經過區域匹配、閥值分割和邊緣提取等步驟找到需要識別的特征,如圖4所示。
2.5結果分析如下:
識別率分析:第一步通過離線學習,訓練提取形狀特征。第二步使用離線學習得到的坐標關系,實時跟蹤工件,得到需要跟蹤的形狀特征信息。只要離線學習恰當,目標特征就準確識別并且得到相關信息。
實時處理結果分析:圖像采集卡的采集速度是25幀/s,每幅圖采集時間為40ms。攝像頭采集一幅圖像需要20ms,該圖像處理的速度為10ms/幅。通過程序優化,在采集的同時進行圖像處理,而且圖像處理的速度比采集的時間要短,就避免了圖像的失真和抖動。在物體運動不超過極限速度時,能夠較準確地找到圓心的位置。
物流分揀機器人ipo3.空間坐標的獲取由一幅圖像得到的信息是二維信息,程序中使用的坐標是以像素為單位的,機器人在空間運動需要將圖像的信息換算成三維空間坐標。其計算過程如下:
以工件上圓孔的圓心為機器人定位基準,A圓心的世界坐標。當圓心與視覺圖像的中心重合時,機器人定位完成。
標定攝像機,得到投影矩陣ceM,即圖像中兩個像素間的距離與世界坐標系的轉換關系。
攝像機拍攝圖像后,經過特征識別得到圓心在圖像中坐標a,計算出與圖像中心的偏移量Δx、Δy。
為基準,按照下式計算機器人末端的世界坐標B:其中,Mc是攝像機與機器人末端的坐標轉換參數。
注意,本文使用單目視覺,所以這里假設Z坐標不變;如果使用雙目視覺,就可以通過立體視覺計算出Z’。
垃圾分揀機器人規格4.誤差分析與補償本項目的噴涂機器人是六自由度的旋轉關節操作臂,與UnimationPUMA560相似,關節4、5、6的軸線相互垂直,且相交與一點。應用參考文獻3的方法計算如下:
通過機器視覺可以得到機器人末端的空間位置坐標B。
確定機器人的連桿參數表,如下表:
運用DH法計算各關節的轉角θi:
結論
本文描述了基于機器視覺的工業機器人定位系統,該系統將基于區域的匹配和形狀特征識別結合,進行數據識別和計算,能夠快速準確地識別出物體特征的邊界與質心,機器人控制系統通過逆運動學求解得到機器人各關節位置的轉角誤差,最后控制高精度的末端執行機構,調整機器人的位姿以消除此誤差。從而解決了機器人末端實際位置與期望位置相距較遠的問題,改善了噴涂機器人的定位精度。該方法計算量小,定位準確,具有工程實用性。本系統是使用C#在VisualStudio2003環境中編寫。
輸液醫廢分揀機器人廠家菜鳥驛站倉庫分揀機器人快遞智能分揀機器人