基于機器視覺的工件智能抓取技術研究薈萃資料

上傳人:無*** 文檔編號:69158788 上傳時間:2022-04-05 格式:DOC 頁數(shù):20 大小:1.30MB
收藏 版權申訴 舉報 下載
基于機器視覺的工件智能抓取技術研究薈萃資料_第1頁
第1頁 / 共20頁
基于機器視覺的工件智能抓取技術研究薈萃資料_第2頁
第2頁 / 共20頁
基于機器視覺的工件智能抓取技術研究薈萃資料_第3頁
第3頁 / 共20頁

下載文檔到電腦,查找使用更方便

10 積分

下載資源

還剩頁未讀,繼續(xù)閱讀

資源描述:

《基于機器視覺的工件智能抓取技術研究薈萃資料》由會員分享,可在線閱讀,更多相關《基于機器視覺的工件智能抓取技術研究薈萃資料(20頁珍藏版)》請在裝配圖網(wǎng)上搜索。

1、 基于機器視覺的工業(yè)機器人工件搬運技術研究 1.1研究背景 自 19 世紀 60 年代問世以來,工業(yè)機器人不斷發(fā)展和完善,現(xiàn)已得到廣泛應用,機器人產(chǎn)業(yè)也逐漸成熟。目前,全世界已擁有 100 多萬臺工業(yè)機器人廣泛應用在焊接、搬運、裝配、噴涂、修邊、拾料、包裝、堆垛和上下料等單調或復雜的作業(yè)中,為企業(yè)節(jié)約了大量的勞動成本,大大提高了勞動生產(chǎn)率。工業(yè)機器人是面向工業(yè)領域的多關節(jié)機械手或多自由度的機器人,它在穩(wěn)定產(chǎn)品品質、提高生產(chǎn)效率和改善勞動條件等方面有著十分重要的作用,它的應用能夠使企業(yè)大大縮短新產(chǎn)品的換產(chǎn)周期和節(jié)約勞動成本,從而提高了產(chǎn)品的市場競爭力。 隨著當代工業(yè)革命深入發(fā)展,工業(yè)生產(chǎn)

2、日益趨向自動化,工業(yè)機器人技術也正朝著智能、柔性的方向發(fā)展。許多發(fā)達國家對于智能工業(yè)機器人的研究都較為重視,我國也早已將其納入國家高科技發(fā)展規(guī)劃。國家層面的重視也必將給工業(yè)機器人技術帶來新的跨越式發(fā)展,機器人的發(fā)展也必將對社會經(jīng)濟和生產(chǎn)力的發(fā)產(chǎn)生更加深遠的影響 1.2 研究目的和意義 對于工作在自動化生產(chǎn)線上或柔性制造系統(tǒng)中的工業(yè)機器人來說,其完成最多的一類操作是“抓取—放置”動作,比如流水線上的工件搬運、裝配以及各工位之間的工件轉移和上下料。機器人要完成這類操作是經(jīng)過復雜計算的:首先,機器人必須知道怎么抓,其次機器人應該知道怎么放;同時在這個過程還要伴隨著機器人運動學分析的過程。傳統(tǒng)的工

3、業(yè)機器人完成這類操作,必須經(jīng)過精確的逐點示教后,才能一步一步的按照固定程序執(zhí)行。在這個過程中,工件相對于機器人的初始位姿(位置和姿態(tài))和終止位姿是事先規(guī)定的,但很多情況下,特別是流水線場合,工件的位姿常常是不固定的。這就導致實際目標工件的位姿與理想工件位姿總是有偏差的,這種偏差哪怕很小都會導致機器人操作任務的失敗。這種由于環(huán)境的變化而導致機器人不能很好地完成任務的情況極大地限制了機器人的實際應用。這就要求工業(yè)機器人具備一定的環(huán)境適應能力,即工業(yè)機器人智能化。智能工業(yè)機器人的智能特征在于它具有與外部世界、對象、環(huán)境和人相互協(xié)調的工作機能,具體表現(xiàn)在機器視覺、接近覺、觸覺和力覺等方面。機器視覺是用

4、機器代替人眼來做測量和判斷的,其本質是使計算機具有認知周圍環(huán)境信息的能力。這種能力不僅使機器能感知周圍物體的形狀、位置、姿態(tài)、運動等等信息,而且能相應地對這些信息進行描述、理解和識別。將機器視覺與機器人結合到一起,也就產(chǎn)生了機器人視覺。機器人視覺技術是用來模擬人類視覺,使機器人通過獲取視覺信息從而對操作環(huán)境進行判別,給機器人賦予更強大的應對能力,大大增強了機器人的柔性。因而基于視覺引導的機器人擁有著廣闊的發(fā)展空間,具有重要的科研和應用價值。 1.3 國內(nèi)外現(xiàn)狀 目前,機器視覺技術已經(jīng)從最初的實驗室階段逐漸走向成熟,并且在工業(yè)生產(chǎn)線上已經(jīng)有實際應用。德國、日本、美國和韓國處在智能工業(yè)機器人領

5、域應用研究的前沿。日本從最初的模仿到現(xiàn)在的獨創(chuàng),找到了自己的技術創(chuàng)新之路。德國西門子公司也緊跟著時代的步伐,將機器視覺滲透到各個領域,應用到汽車發(fā)動機裝配,生產(chǎn)線工件分揀等領域。美國更是機器人技術的創(chuàng)新發(fā)源地,其機器視覺廣泛應用在工業(yè)和軍事上,機械手經(jīng)銷商,包括 Fanuc 公司,Motman 公司和 Staubli 公司都推出了“揀選”系統(tǒng)。 如圖 1.1 所示,日本川崎設計的工業(yè)機器人主要應用在基于視覺系統(tǒng)的大型物品裝卸、樹脂成形機械抓取和汽車車門的邊角打磨工程等領域。這種機器人可以結合具體的實際應用和目標方法,配置不同的選裝件和相關參數(shù),能夠適應各種應用場合。通過使用機器人內(nèi)部搭載標準

6、的機器人語言,它還可以實現(xiàn)高性能的動作控制和時序控制。 圖 1.1基于視覺系統(tǒng)的大型物品裝卸 圖 1.2所示的是美國普渡大學研究的一種基于視覺控制的 Bin-picking 系統(tǒng),該系統(tǒng)可以從多種零件中分揀出圓形零件,它是通過簡單的圓弧邊界特征來識別圓形零件的。圖 1.3 所示的是瑞典 ABB 公司最新推出的第二代拾取機器人 FlexPicker IRB360,該機器人擁有有效載荷大、操作速度快、簡單有效等優(yōu)點,能夠在 2D 視覺的幫助下,以高達 2 次/秒的速度撿取傳送帶上的物品??偟膩碚f,美國、日本、歐洲一些發(fā)達國家在機器人視覺技術有著豐富的經(jīng)驗,已經(jīng)開發(fā)出多款成熟產(chǎn)品,廣泛應

7、用在微裝配、空間和軍事領域。 圖1.2 Bin-Picking機器人 圖1.3 ABB Flex-Picker機器人 我國對工業(yè)機器人的研究起步較晚,從 90 年代初期起,我國在工業(yè)機器人領域才取得一定的進展。隨著近幾年科技的進步,我國在這方面發(fā)展迅速,取得了不少科研成果,機器人的結構和控制理論不斷得到創(chuàng)新,生產(chǎn)制造工藝也逐漸成熟,不斷有自主知識產(chǎn)權的機器人產(chǎn)品相繼問世,此外還相繼建立了 20 多個機器人產(chǎn)業(yè)化基地,實施了 100 多項機器人應用工程,機器人產(chǎn)業(yè)不斷壯大和發(fā)展。 新松機器人自動化股份有限公司研制機器人是擁有自主

8、知識產(chǎn)權和核心技術的工業(yè)搬運機器人,它可用于鍛造生產(chǎn)和鑄件落砂等工作條件惡劣的場合,降低工人的勞動強度。北京航空航天大學于 1994 年成功研制了七自由度機器人操作臂,并且研制出一系列改進型的冗余自由度機器人實驗樣機。方躍提出了采用靈活角來度量操作器靈活程度,將機器人的工作空間根據(jù)靈活程度的不同劃分為相應的有限靈活工作空間,高同以梯度投影法為基礎,采用線性加權法,研究冗余度機器人的多指標融合優(yōu)化問題。冗余自由度機器人另一個研究重點是運動學逆解,如圖 1.5所示,為深圳眾為興技術股份有限公司生產(chǎn)的四自由度分揀機器人。該機器人在分類分揀的應用中具有視覺導引功能,重點介紹了眾為興 SCARA 機器人

9、及視覺系統(tǒng),并在現(xiàn)場用實物生動展示了具有視覺功能的眾為興機器人在分類分揀的應 用。眾為興公司開發(fā)研制的 SCARA 機器人,可應用在搬運、分揀一些較小的規(guī)則工件。 圖1.5眾為興展出的SCARA機器人 1.4 本課題的研究內(nèi)容 本文是針對基于視覺引導的工業(yè)機器人工件搬運技術進行的研究,簡單的講,就是在一臺 6 軸的工業(yè)機器人的基礎上引入機器視覺,利用機器人對視覺的理解,完成工業(yè)生產(chǎn)中工件的抓取和放置操作。在這個操作過程中,工件識別與定位和機器人運動學反解是兩個關鍵環(huán)節(jié)。工件識別與定位是為機器人提供操作和如何操作的信息,而機器人運動學反解的準確性直接影響到操作能否完成和相應的操作精度

10、。整個工件搬運的具體流程是:在機器人工作之前,先通過上方攝像機實時地采集工件圖像,并送到圖像處理系統(tǒng),以便確定所感興趣的工件以及該工件相對于機器人的位姿,最后將位姿信息反解成工業(yè)機器人熟悉的關節(jié)角度和角度控制信息,從而實現(xiàn)利用視覺引導機器人準確地抓取工件。同時根據(jù)已抓取工件的放置要求,進一步引導機器人完成工件的定點放置,從而實現(xiàn)機器人搬運操作。 本課題的研究內(nèi)容圍繞物體識別這個中心展開,主要包括以下幾個方面: 1. 如何獲取圖像 獲取圖像是進行本課題研究的前提,順利的通過攝像頭設備獲取到原始圖像是一切研究的根本 2. 如何對圖像進行預處理 視覺系統(tǒng)中直接使用的圖像,必須在進行

11、灰度校正、噪聲過濾等圖像預處理。將圖像中感興趣的特征有選擇地突出,衰減其不需要的特征,預處理后的輸出圖像并不需要去逼近原圖像。 3. 如何對預處理以后的圖像進行特征識別和特征提取 已經(jīng)把待測目標工件進行過圖像預處理,接下來要針對靜態(tài)工件的特征提取,最后要根據(jù)已經(jīng)提取的目標工件的特征進行分類。特征提取的意義于要區(qū)分不同種類的工件就要把它們之間不同的信息提取出來,作為識別的前提條件。一般來說,提取普通特征包括周長、邊緣、面積、曲率、角度和物體質心等 4. 如何根據(jù)提取的特征對目標進行分類和目標定位 目標分類是指對得到的不同目標進行區(qū)分并將其歸為某一已知類的過程。對于圖像目標來說通常利用圖像

12、特征來對目標進行描述,然后對其分類。通過模版匹配計算目標上空間點和像素點之間的對應關系。然后創(chuàng)建模版,對后續(xù)的圖像進行目標定位。 5. 如何跟蹤目標 對于運動的目標,通過跟蹤能夠得到目標的速度和加速度,并可以對將來目標出現(xiàn)的位置進行預測 6.如何將目標在圖像中的位置轉化到機器人基坐標系中并進行機器人運動學反解 通過相機標定得到圖像坐標與機器人基坐標之間的轉換關系,將目標在圖像中的位置信息轉化為機器人基坐標系中的具體坐標,并通過該坐標進行機器人運動學逆解,得到關節(jié)運動信息 7. 如何規(guī)劃路徑并控制機器人進行目標抓取 通過前面得到的運動學逆解,合理的設置機器人抓取運動規(guī)劃,包括路徑規(guī)劃

13、和手部抓取規(guī)劃,路徑規(guī)劃是研究按照何種路徑,將機器人手部坐標系的原點和目標抓取坐標系的原點重合的問題,抓取點規(guī)劃是針對不同形狀的物體,如何選擇合適夾持點位置的問題。 1.5本課題的研究方法 1.5.1獲取圖像 1)硬件介紹 一個穩(wěn)定的視覺系統(tǒng)的構建需要根據(jù)任務的特點和現(xiàn)場環(huán)境的特點進行,例如精度,目標尺寸,檢測速度,安裝空間大小等要求,都將影響系統(tǒng)硬、軟件的選擇。典型的視覺系統(tǒng)包括的硬件很多,但最重要的最基本的三件設備是:光源、鏡頭和相機。本節(jié)主要給出本系統(tǒng)所用硬件的參數(shù)并對其進行簡單介紹 1.光源 由于所有非發(fā)光物體都是通過反射光才能在傳感器上留下影像,所以光源的正確選擇是保證視

14、覺系統(tǒng)正常工作的基礎。在選擇視覺系統(tǒng)光源時要注意,使用的光源要把感興趣目標和背景區(qū)分開來,削減非關心目標或噪聲的干擾,并且光源本身不會帶來額外的干擾, 2. 鏡頭 鏡頭與人眼的晶狀體具有類似的功能,如果沒有安裝鏡頭進行拍攝,得到的圖像將是花白色,不包含任何場景信息。所以鏡頭的作用是匯聚目標反射回的光,在感光原件上產(chǎn)生細節(jié)豐富,銳利的圖像。鏡頭的參數(shù)選擇一般是根據(jù)配用的攝像機感光原件的大小來進行的,如果二者的參數(shù)不合適,將出現(xiàn)圖像記錄不完整,視場角不符合要求或者畫面在焦點外的問題本文選擇的是COMUPTAR公司的M0814-MP2型號的鏡頭,參數(shù)如表所示: 性能指標 參數(shù) 靶面尺寸

15、2/3’’ 焦距 8 最大成像尺寸 8.8*6.6 控制 光圈 手動 聚焦 手動 變焦 手動 接口 C-接口 尺寸 33.5*28.2 3. 攝像機 本系統(tǒng)使用的是Basler公司的acA2500-14gm型號的工業(yè)相機,如圖所示,該相機的性能指標和參數(shù)如表所示: 圖3 Basler acA2500-14gm型號工業(yè)相機 性能指標 參數(shù) 傳感器類型 Aptina MT9P CMOS, rolling shutter 有效圖像元素 2592*1944 像素尺寸 2.2 x 2.2 數(shù)據(jù)位數(shù) 12 鏡頭接口 C-mount, CS

16、-mount 傳輸方式 Gigabit Ethernet 幀率 14 供電要求 Via Power over Ethernet (802.3af) or + 12VDC (± 10%) via the camera′s 6-pin Hirose connector 外形尺寸 42 x 29 x 29 表1 Basler acA2500-14gm型號工業(yè)相機參數(shù) 5. 拍攝參數(shù)設定 為了提高圖像處理速度并兼顧分辨率,選擇的拍攝參數(shù)如下表: 圖像尺寸 待定 色彩 待定 ISO速度 待定 幀頻 待定 記錄頻率 待定 2)軟件介紹 OpenCV的全稱是

17、:Open Source Computer Vision Library。OpenCV是一個基于(開源)發(fā)行的跨平臺計算機視覺庫,可以運行在Linux、Windows和Mac OS操作系統(tǒng)上。它輕量級而且高效——由一系列 C 函數(shù)和少量 C++ 類構成,同時提供了Python、Ruby、MATLAB等語言的接口,實現(xiàn)了圖像處理和計算機視覺方面的很多通用算法,它可以完成以下工作: 1.圖像數(shù)據(jù)操作(內(nèi)存分配與釋放,圖像復制、設定和轉換) 2.圖像/視頻的輸入輸出(支持文件或攝像頭的輸入,圖像/視頻文件的輸出) 3.矩陣/向量數(shù)據(jù)操作及線性代數(shù)運算(矩陣乘積、矩陣方程求解、特征值、奇異值分解

18、) 支持多種動態(tài)數(shù)據(jù)結構(鏈表、隊列、數(shù)據(jù)集、樹、圖) 4.基本圖像處理(去噪、邊緣檢測、角點檢測、采樣與插值、色彩變換、形態(tài)學處理、直方圖、圖像金字塔結構) 5.結構分析(連通域/分支、輪廓處理、距離轉換、圖像矩、模板匹配、霍夫變換、多項式逼近、曲線擬合、橢圓擬合、狄勞尼三角化) 6.攝像頭定標(尋找和跟蹤定標模式、參數(shù)定標、基本矩陣估計、單應矩陣估計、立體視覺匹配) 7.運動分析(光流、動作分割、目標跟蹤) 8.目標識別(特征方法、HMM模型) HALCON軟件介紹 HALCON是一款來自德國慕尼黑的世界頂級機器視覺編程環(huán)境,該軟件以面向問題為基礎,涉及工業(yè)領域中光學工

19、程、精密制造、包裝、半導體、印刷、機械等行業(yè)。使用它可以迅速構建一個準確、穩(wěn)定、高效率的視覺解決方案。該軟件具有強大的函數(shù)庫,能導出C++、C、VB等語言,縮短了代碼編寫時間,為構建獨立的視覺系統(tǒng)提供了方便。利用HALCON軟件構建一個獨立視覺系統(tǒng)分為三個步驟: 該軟件最大特點是模范化和模塊化,所有的算子都具有同一的輸入輸出格式,下面是一個典型的算子結構:Operator(iconic input:iconic output:control input:control output) HALCON語言的數(shù)據(jù)有兩種:一種是控制參數(shù),包含數(shù)字、數(shù)組,字符串等;另一種是圖形參數(shù),包含圖像,區(qū)

20、域和邊緣數(shù)據(jù)等。從典型算子結構可以看出,圖形參數(shù)首先輸入的參數(shù),然后是控制參數(shù),并且順序是輸入數(shù)據(jù)和輸出數(shù)據(jù)相間隔,也即是:Operator(輸入圖形參數(shù):輸出圖形參數(shù):輸入控制參數(shù):輸出控制參數(shù))。 1.5.2圖像預處理 1) 圖像灰度化 將RGB彩色圖像轉化為單通道圖像,灰度范圍為0-255,可以很大程度上提高運算的速度 Image cam_gray=cam.Convert(); Cam是攝像機采集的彩色圖像 2) 直方圖均衡化 對于工件和背景灰度相差不大的情況,可以通過直方圖均衡化增加圖像的對比度,使工件在背景中更突出

21、cvEqualizeHist函數(shù)可以增大圖像灰度的動態(tài)范圍,從而增加對比度 3) 圖像濾波消除噪聲信息 對于環(huán)境中的各種干擾,相機的成像噪聲,可以通過預處理階段消除或者削弱噪聲的影響,具體可以使用各種濾波算子,如中值濾波,高斯平滑濾波,均值濾波,在OpenCV中都有對應的函數(shù)可以調用 1.5.3圖像識別 模式識別應用與圖像信號處理領域就成為了圖像識別,它是一種利用計算機對圖像進行描述和分類的技術,在機器視覺中具有廣泛的應用,涉及文字,條碼,車牌識別,目標分類等應用場合,識別的過程其實是一個分類的過程,將滿足判斷條件的對象歸為一類,而不滿足條件的劃分為其他類,首先對目標圖像進行特征提取,

22、然后將它和已知的模式向量進行比較,比較的過程是函數(shù)計算的過程,通過計算得到相似程度值,根據(jù)該值判斷目標是否與已知庫中的目標相似,從而得到相應的識別或者不識別信號,根據(jù)分類標準選擇的不同,可以將識別方法分為:基于概率統(tǒng)計方法的識別,基于模版匹配方法的識別,基于多傳感器信息融合方法的識別等。通常,圖像識別有以下三步,如圖所示 圖3 圖像識別的步驟 主要有三個任務:圖像分割、目標分類、圖像匹配 1) 圖像分割 要將圖像分割為區(qū)域,就要有分割的標準,這個標準就叫做閾值,獲取合適閾值的方法很多,通常可以分為手動獲取和自動獲取,當進行手動獲取時,通常借鑒圖像灰度直方圖的分布來幫助選擇,最簡

23、單的自動全局閾值的方法是:首先選擇一個初始閾值估計值( 然后利用該閾值對圖像進行初始分割得到G1和G2區(qū)域。對G1和G2區(qū)域中所有像素計算灰度平均值,計算得到的新閾值為T=,利用新閾值對圖像進行重新分割,然后重復前面兩步,直至前后兩次T值之差小于設定值時停止。然后利用最終得到的最佳閾值將區(qū)域分割為兩部分,從而得到二值圖像: 對于本系統(tǒng),由于拍攝到的目標圖像和背景灰度差別較大,可以直接確定閾值范圍,此方法進行分割的結果如圖所示,從圖中可以看出,目標區(qū)域和背景區(qū)域分割的較好,但是有許多非目標的區(qū)域也被劃分為一類(主要是傳送帶的邊緣),所以還需要后續(xù)的區(qū)域標記方法,利用區(qū)域的連通性將這些目標

24、區(qū)域和非目標區(qū)域給分開來 區(qū)域聯(lián)通標記是建立在像素點鄰接性的基礎之上的,鄰接性是一種相似性的度量方法,常用的類型有4-鄰接、8-鄰接、和對角鄰接 X X P X X 4-鄰接 X X X X P X X X X 8-鄰接 X X P X X 對角鄰接 提取連通成分的過程實際上也是標記連通成分的過程,通常的做法是給圖像中的每個連通區(qū)域分配一個唯一的編號,這樣的圖像成為標注圖像。得到各個編號區(qū)域,就能計算區(qū)域的面積,中重心,圓度,外接/內(nèi)切圓半徑等特征參數(shù),以供所需區(qū)域

25、的選擇,本例采用面積特征進行選擇,得到目標模版圖像 2. 目標分類 目標分類是對得到的不同目標進行區(qū)分并將其歸為某一已知類的過程。對于圖像目標來說通常利用圖像特征來對目標進行描述,然后再對其分類,目標分類是目標識別過程中的重要步驟目前已經(jīng)廣泛應用于圖像分割,目標識別,變化檢測,字符識別等場合。 根據(jù)待分類目標的外形,可將分類任務分為兩類。第一類是針對搜索目標外形固定,并且不同類型目標的特征區(qū)域明顯,這種情況可以采用模版匹配的方法對其進行分類,第二類是針對目標外形不是特別明顯,人工無法選擇出合適的分類方法對其進行分類,這種情況下就需要利用已知類型信息的目標圖像對分類器進

26、行訓練,讓分類器對后續(xù)的圖像進行分類。常用的分類器有三種,分別是基于多層感知分類器MLP,基于支持向量機分類器SVM,基于高斯混合模型分類器GMM,本文采用MLP分類器,具體步驟為: 圖X 目標分類的一般步驟 首先創(chuàng)建某一類型的分類器,然后對一直目標進行分析,得到描述該類型目標的特征向量,然后利用特征向量對分類器進行訓練,得到判別函數(shù),這時分類器就獲得了分類的原則,然后對后續(xù)的未知目標進行分類,同樣也需要對目標進行特征提取得到特征向量,然后利用分類器對向量進行計算,得到分類結果。這里使用的是OpenCV或者Halcon中提供的分類器 3圖像匹配 用創(chuàng)建模版圖像的方法可以

27、用于檢測圖像來確定目標的位置,但是通過圖像分割的方法來得到一個穩(wěn)定的目標識別系統(tǒng)是非常困難的。例如背景發(fā)生拜年話,目標被部分遮擋,目標與攝像機間距離變化,多個目標出現(xiàn)等都導致分割的困難,而圖像匹配可以解決這些問題。 圖像匹配是指利用已知的目標模式,對不同時刻或視角下拍攝的兩幅圖像間尋找相同或相近的目標模式,使期望的目標建立起對應關系的過程,圖像匹配算法按照特征選擇層次的不同分為兩大類, 基于灰度值相關的匹配是利用圖像的直接灰度值特征,其計算過程為:移動模版至待匹配圖像的各個位置,計算每個位置時模版本身與所覆蓋區(qū)域的相似性計算值,將得到的一系列計算值進行比較,極值處便是目標所

28、在的位置。這種方法計算量大,達不到實時性要求,并且不能適應光照條件變化、尺度變化,遮擋等情況,為了解決實時性要求,采用基于圖像特征的匹配方法,這種匹配方法有很好的魯棒性,基于特征的匹配是指,對模版圖像和匹配圖像分別進行特征提取,用相似性度量函數(shù)計算對應特征之間的相似程度的匹配方法,特征的選擇有很多,一般來說灰度變化大的地方是信息量最豐富的地方,比如,角點,輪廓,邊緣,直線,紋理等。本文采用的是基于形狀匹配的方法,該方法是多種技術的綜合,既用到了金字塔匹配模型,也用到了圖像的輪廓特征,該方法的一般流程如圖,匹配后得到目標在圖像中的位置坐標如下表: 序號 目標個數(shù) 坐標 角度 準確度

29、1 1 (289.042,311.058) -0.00052 98.365 2 1 (145.325,178.698) 6.32541 99.452 .... ...... ...... ..... ...... 圖X.基于形狀匹配的步驟 4. 目標跟蹤 目標跟蹤是一個對運動目標或者運動相機采集到的圖像序列進行連續(xù)確定目標位置的過程,目標定位是目標跟蹤的基礎,通過跟蹤能夠得到目標的運動軌跡從而可以對將來目標出現(xiàn)的位置進行預測,通過軌跡能夠得到目標的速度和加速度,從而可以為運動學研究提供一種測量手段。此外,通過目標跟蹤可以對預先設定好出現(xiàn)范圍和形狀的目標

30、進行監(jiān)視,如果其出現(xiàn)范圍或者形狀發(fā)生變化時,便發(fā)出相應的報警信號。 目標跟蹤可以分為兩大方法:第一類是基于邊緣特征的方法;第二類是基于目標內(nèi)部投影點信息的方法,如光流法,模版匹配法。本位采用第二類中的模版匹配方法,由于匹配計算量較大,可采用以下途徑減少運算量:首先計算第一副圖像中目標的位姿,由于目標運動的連續(xù)性,對得到的位姿進行限制,定義一個跟蹤范圍圓(下一個目標可能出現(xiàn)的區(qū)域),然后在指定范圍內(nèi)對后續(xù)圖像進行目標匹配。由于本文采用的傳送帶運動狀態(tài)為勻速直線運動,因此只要計算出目標的速度和位置便能寫出軌跡方程來。 定義參考坐標系: 在傳送帶上定義參考坐標系的目的,是為了將目標位姿與機器人

31、基坐標系聯(lián)系起來。參考坐標系的X軸與傳送帶中線重合,方向指向目標運動方向,y軸指向機器人一側,Z軸垂直于傳送帶平面向上。 左側方框區(qū)域代表相機的視野范圍,右側外圓區(qū)域為機器人工作空間范圍,內(nèi)圓區(qū)域代表機器人工作空間與傳送帶在平面相交區(qū)域。工件從左側進入,在計時起點處開始計時。相機對經(jīng)過計時起點的目標進行連續(xù)拍照,估算出目標重心在參考坐標系中的坐標和速度。在進行實驗之前通過離線測量的方法,得到參考坐標系與機器人基座之間的相對位姿,同樣可以計算出參考坐標系在攝像機坐標系下的位姿 由離線測量得到的位姿關系和,可以計算出機器人基座于攝像機之間的位姿矩陣。 然后通過目標定位得到目標的位

32、姿,再計算出目標重心相對于參考坐標系的位姿,由可以得到目標重心的坐標(),過重心點做一條平行于參考坐標系x軸的直線,與機器人工作空間區(qū)域相交與兩點:,。這兩點便是目標進出工作空間的坐標點。由這兩點結合運動速度就可以計算出目標何時進入和離開機器人的工作空間范圍,在這個時間段中選擇任一時刻即可對目標進行抓取。 目標速度V的計算,可以在攝像機視野內(nèi),取間隔10張的兩幅圖像,計算目標中心在運動方向的位移,除以拍攝這10張圖像所經(jīng)歷的時間,即可得到目標的速度。 1.5.6IRB120型機器人控制 工業(yè)機器人的控制方法分類: 分類依據(jù) 類型 特點 根據(jù)控制量所處空間 關節(jié)空間 運動規(guī)劃和

33、控制對象為各個關節(jié)角,是其他控制方法的基礎 笛卡爾空間 在關節(jié)空間控制的基礎上實現(xiàn)通過給定路徑上各點出的位姿,來保證運動的確定性 根據(jù)控制量 位置 以末端執(zhí)行器的位置為被控對象,在三維空間或者關節(jié)空間對機器人進行控制 速度 使任務動作以指定的速度進行,例如目標跟蹤過程 加速度 考慮到機器人的慣性負載,對加速段和減速段之間的過度進行規(guī)劃,使之運行平穩(wěn) 力(力矩) 考慮到目標抓取時的握緊力或者使用工具時的力矩等因素 根據(jù)控制算法 PID控制 由比例、積分和微分單元構成,理論成熟 自適應控制 系統(tǒng)的舒服發(fā)生變化或者收到干擾時,系統(tǒng)通過改變自身參數(shù)來自我調節(jié),使輸出仍滿

34、足性能要求 神經(jīng)網(wǎng)絡控制 屬于黑箱控制,具有較好的學習能力 本研究所完成的內(nèi)容屬于較為簡單的抓取任務,所以使用位置控制方法就能滿足要求 2. 機器人抓取運動規(guī)劃 機器人抓取運動規(guī)劃包括路徑規(guī)劃和手部抓取方式規(guī)劃。路徑規(guī)劃是研究按照何種路徑,將機器人手部坐標系原點與目標抓取坐標系原點重合的問題;抓去店規(guī)劃是針對不同形狀的物體,如何選擇合適夾持點位置的問題 路徑點 動作 目標 P0 INIT 初始位置 P1 MOVE 到達 P1 GRASP 抓取 P2 MOVE 提升 P3 MOVE 移至待放置位置上方 P4 MOVE 到達放置位置

35、 P4 RELEASE 松開 P5 MOVE 提升 P0 MOVE 回位 1.6本課題的重點難點 實時性是在線抓取的一項重要指標,算法的速度是必須考慮的,因為在工業(yè)生產(chǎn)線中,速度性能是最重要的指標,工件分揀的要求更是嚴格,要求算法識別的速度相當快,這樣才能帶來經(jīng)濟效益,所以如何在傳送帶速度比較高的情況下仍然保持識別定位的準確性是本課題的一個難點,定位精度也是一個重點,這直接關系到機械手能否在正確的時間間隔內(nèi)運動到指定位置進行有效抓取,如何對算法

36、進行優(yōu)化從而提高定位算法的定位精度,也是本次研究的一個重點和難點 參考文獻 [1] 畢勝.國內(nèi)外工業(yè)機器人的發(fā)展現(xiàn)狀.機械工程師,2008,07:5~7. [2] 吳振彪,王正家(第一版).工業(yè)機器人.武漢:華中科技大學出版社,2006.7~9. [3] 蔡鶴皋.機器人技術的發(fā)展與在制造業(yè)中的應用.機械制造與自動化,2004,33(1)6~7. [4] 張廣軍.機器視覺.北京:科學出版社,2005.1,34~36,38~45 [5] 權歡歡,張洛平.裝配線零件圖像識別與系統(tǒng)實現(xiàn):(碩士學位論文). 河南:河南科技大學,20

37、08. [6] Rahardja K. Kosaka A. Vision-based bin-picking: recognition and localization of multiple complex objects using simple visual cues. Robot Vision Lab., Purdue Univ., West Lafayette, IN; [7] 徐方.工業(yè)機器人產(chǎn)業(yè)現(xiàn)狀與發(fā)展.機器人技術與應用,2007. 5:2~4. [8] 趙臣,王剛.我國工業(yè)機器人產(chǎn)業(yè)發(fā)展的現(xiàn)狀調研報告.機器人技術與應用,2009,2: 8~13. [9] 徐方,鄒風山,鄭春暉.新松機器人產(chǎn)業(yè)發(fā)展及應用.機器人技術與應用,2011,(5):14~18. [10] 倪受東,袁祖強,文巨峰.冗余自由度機器人機構學研究現(xiàn)狀.南京工業(yè)大學學報,2002, 24(4):107~110. [11]楊賀然.基于機器視覺的移動目標機器人抓取研究 (碩士學位論文)北京:北京化工大學2008 [12]吳源遠.高速分揀機械手視覺識別技術研究[D].無錫:江南大學,2009 20 驕陽書屋#

展開閱讀全文
溫馨提示:
1: 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
2: 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
3.本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
5. 裝配圖網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

相關資源

更多
正為您匹配相似的精品文檔
關于我們 - 網(wǎng)站聲明 - 網(wǎng)站地圖 - 資源地圖 - 友情鏈接 - 網(wǎng)站客服 - 聯(lián)系我們

copyright@ 2023-2025  zhuangpeitu.com 裝配圖網(wǎng)版權所有   聯(lián)系電話:18123376007

備案號:ICP2024067431-1 川公網(wǎng)安備51140202000466號


本站為文檔C2C交易模式,即用戶上傳的文檔直接被用戶下載,本站只是中間服務平臺,本站所有文檔下載所得的收益歸上傳人(含作者)所有。裝配圖網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對上載內(nèi)容本身不做任何修改或編輯。若文檔所含內(nèi)容侵犯了您的版權或隱私,請立即通知裝配圖網(wǎng),我們立即給予刪除!

五月丁香婷婷狠狠色,亚洲日韩欧美精品久久久不卡,欧美日韩国产黄片三级,手机在线观看成人国产亚洲