一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

myCobot Pro600六軸機(jī)械臂與3D深度視覺(jué):物體精確識(shí)別抓取堆疊

大象機(jī)器人科技 ? 來(lái)源:大象機(jī)器人科技 ? 作者:大象機(jī)器人科技 ? 2023-09-12 10:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

myCobot 600技術(shù)案例

Introduction

隨著時(shí)代的進(jìn)步,各種精密的機(jī)械臂,人形機(jī)器人不斷的問(wèn)世。我們即將迎來(lái)到處都是機(jī)器人的高科技時(shí)代。為了跟上時(shí)代的腳步,我最近入手了一臺(tái)myCobot pro 600機(jī)械臂,我主要是想要用它來(lái)學(xué)習(xí)機(jī)械臂相關(guān)得控制以及機(jī)器視覺(jué)的項(xiàng)目,給以后的實(shí)踐中在本文中,我將記錄使用myCobot pro 600結(jié)合深度相機(jī)來(lái)實(shí)現(xiàn)物體得跟蹤以及抓取。

接下來(lái)我會(huì)介紹我使用到的設(shè)備

Equipment

myCobot pro 600

myCobot pro 600是一款六個(gè)自由度的機(jī)械臂,它的工作半徑最大達(dá)到600mm,它末端最大負(fù)載達(dá)到2kg,搭載的電機(jī)是諧波減速器。它還是一款以樹(shù)莓派4B為核心控制主板的嵌入式機(jī)械臂搭配ubuntu20.0的系統(tǒng)。我選擇他的原因有幾個(gè):

1、它不需要額外的電腦進(jìn)行控制,可以直接使用樹(shù)莓派進(jìn)行控制

2、它的工作半徑和末端負(fù)載能力剛好適合我的場(chǎng)景

3、大象機(jī)器人為它設(shè)計(jì)了一款可視化的控制軟件robotflow,可以進(jìn)行一些拖拽式的編程

1.png

SPECIFICATIONS

Degree of Freedom6
Payload2000g
Weight8800g
Working Radius600mm
Positioning Accuracy±0.5mm
Working Temperature-5℃~45℃
Working Lifespan2000h
Power InputDC 48V
JOINT ROTATION RANGE
Joint1-180°~+180°
Joint2-270°~+90°
Joint3-150°~+150°
Joint4-260°~+80°
Joint5-168°~+168°
Joint6-174°~+174°
Joint Maximum Speed115°/s

FS820-E1-Depth camera

深度相機(jī)可以捕捉深度信息,可以獲得物體的三維坐標(biāo),距離,尺寸和體積。深度相機(jī)使用多種算法技術(shù)來(lái)測(cè)量物體的深度,如結(jié)構(gòu)光、時(shí)間飛行和立體視覺(jué)等。在機(jī)器視覺(jué)應(yīng)用中,深度相機(jī)可以用于點(diǎn)云分割、物體識(shí)別和3D重建等任務(wù)。

2.png

ModelFS820-E1
Working Distance0.3m-1.4m
FOV(H/V)66°/44°
Accuracy(Z)0.14mm@400mm;1.53mm@700mm
Accuracy(XY)4.88mm@700mm
Depth Resolution1280*800
RGB Resolution1920*1080
Power InterfaceDC 12V/24V
Trigger SignalHR10A-7P-6S
Data InterfaceGigabit Ethernet
Power Consumption2.8W ~ 3.9W
TemperatureStorage:-10℃~55℃; Operation:0℃~45℃
Ingress ProtectionIP41
Size95mm45mm43mm
Weight228g

Project

我使用機(jī)械臂有一段時(shí)間了,大部分的時(shí)間都是用來(lái)去執(zhí)行一些路徑,重復(fù)的做一些動(dòng)作。如果只是這樣的話(huà),機(jī)械臂在很多方面都是不能夠勝任人們的工作的。我們工作的時(shí)候手和眼睛是需要進(jìn)行配合,當(dāng)然機(jī)械臂我們要給他配置一個(gè)“眼睛”,就是深度相機(jī)。

我今天要記錄的是用機(jī)械臂+相機(jī)來(lái)是想物體的抓取,不只是一個(gè)平面的抓取,而是一個(gè)能夠根據(jù)獲取的深度信息進(jìn)行判斷高度的抓取。

接下來(lái)我先簡(jiǎn)要介紹一下項(xiàng)目的結(jié)構(gòu)。

3.png

Clear Task:首先我們要明確我的目標(biāo),做一個(gè)深度視覺(jué)的機(jī)械臂抓取木塊的任務(wù)

Hardware preparation:機(jī)械臂使用的是mycobot pro 600,深度相機(jī)用的是FS820-E1

Hand-eye calibration:進(jìn)行機(jī)械臂和相機(jī)之間的手眼標(biāo)定,以建立它們之間的坐標(biāo)系轉(zhuǎn)換關(guān)系。通過(guò)手眼標(biāo)定,可以確定機(jī)械臂末端執(zhí)行器的位置和姿態(tài)與相機(jī)坐標(biāo)系之間的轉(zhuǎn)換關(guān)系,從而實(shí)現(xiàn)精確的視覺(jué)引導(dǎo)和抓取。

Object detection and recognition:確定被測(cè)物體為木塊,訓(xùn)練算法識(shí)別木塊,通過(guò)大量的數(shù)據(jù)讓機(jī)器能夠精準(zhǔn)的識(shí)別出被測(cè)物體

Robotic arm path planning:識(shí)別到被測(cè)物體之后返回一個(gè)物體的三維坐標(biāo),給到機(jī)械臂執(zhí)行抓取,要規(guī)劃?rùn)C(jī)械臂的運(yùn)動(dòng)軌跡達(dá)到抓取的點(diǎn)位

Test:完成上邊測(cè)試之后,需要進(jìn)行測(cè)試,不斷的進(jìn)行調(diào)整。

Execute:測(cè)試完成后,去執(zhí)行任務(wù)

介紹完項(xiàng)目的結(jié)構(gòu),讓我們開(kāi)始實(shí)現(xiàn)Hand-eye calibration。

Hand-eye calibration

通常情況下,對(duì)于機(jī)械臂執(zhí)行視覺(jué)類(lèi)的抓取任務(wù),手眼標(biāo)定是必需的。手眼標(biāo)定是一種將機(jī)械臂的坐標(biāo)系與深度相機(jī)的坐標(biāo)系進(jìn)行關(guān)聯(lián)的過(guò)程。通過(guò)手眼標(biāo)定,可以確定機(jī)械臂末端執(zhí)行器的位置和姿態(tài)與相機(jī)坐標(biāo)系之間的轉(zhuǎn)換關(guān)系,從而實(shí)現(xiàn)精確的視覺(jué)引導(dǎo)和抓取。

第一步

需要準(zhǔn)備一個(gè)標(biāo)定板:選擇黑白相間的方格為標(biāo)定板,棋盤(pán)格的幾何結(jié)構(gòu)非常規(guī)則,方格之間的邊緣和角點(diǎn)位置可以被精確地計(jì)算和模型化。這使得標(biāo)定算法可以準(zhǔn)確地估計(jì)相機(jī)與棋盤(pán)格之間的幾何關(guān)系。

4.png

第二步

固定深度相機(jī)和機(jī)械臂

我要做的是眼在手外,就是eye to hand的模式,相機(jī)的位置不會(huì)隨著機(jī)械臂的改變而改變。

5.png

第三步

匹配特偵點(diǎn)

將標(biāo)定板在相機(jī)視野范圍內(nèi)進(jìn)行多次的旋轉(zhuǎn)移動(dòng),捕獲這些圖片以提供豐富的圖片信息,對(duì)每個(gè)標(biāo)定板圖像,使用角點(diǎn)檢測(cè)算法來(lái)提取標(biāo)定板上的取方格交叉點(diǎn)的坐標(biāo)特征點(diǎn)。

6.png

7.png

用的是相機(jī)自帶的RVS(robot vision suite)軟件,里面提前編寫(xiě)好捕獲圖片,提取特征點(diǎn),匹配特偵點(diǎn)的方法。

第四步

計(jì)算標(biāo)定坐標(biāo)值

得到了20張不同角度,不同位置的特偵點(diǎn)的數(shù)據(jù),接下來(lái)使用RVS提供的算法在程序中進(jìn)行計(jì)算得出eye to hand標(biāo)定的值。記錄下手眼標(biāo)定的結(jié)果等到后面進(jìn)行機(jī)械臂坐標(biāo)系和相機(jī)坐標(biāo)系轉(zhuǎn)化的關(guān)鍵。

8.png

9.png

到這里手眼標(biāo)定就結(jié)束了,接下來(lái)我們來(lái)訓(xùn)練機(jī)器識(shí)別被測(cè)物體。

Object detection and recognition

首先得采集我們的被測(cè)物體,木塊。我們用一個(gè)開(kāi)源軟件labelme,LabelMe是一個(gè)流行的開(kāi)源圖像標(biāo)注工具,用于創(chuàng)建和編輯圖像標(biāo)注數(shù)據(jù)集。旨在簡(jiǎn)化圖像標(biāo)注的過(guò)程,并為機(jī)器學(xué)習(xí)計(jì)算機(jī)視覺(jué)任務(wù)提供標(biāo)注數(shù)據(jù)。

采集被測(cè)物圖片

像前邊標(biāo)定一樣,采集的圖片越多數(shù)據(jù)越精準(zhǔn)。將他保存在指定的路徑中。

10.png

安裝labelme

python中安裝依賴(lài)庫(kù),以便后續(xù)的使用

pip install PyQt5
pip install labelme

標(biāo)注過(guò)程

打開(kāi)labelme,找到我們保存采集圖片的路徑,然后點(diǎn)擊Create Polygons,為木塊繪制紅色的邊框,完成標(biāo)記后給標(biāo)記結(jié)果明明“wooden block”,一直重復(fù)這個(gè)步驟為木塊繪制邊框,直至標(biāo)記完所有采集的圖片。

11.png

這是人為標(biāo)記的木塊,要實(shí)現(xiàn)機(jī)器識(shí)別就得讓機(jī)器學(xué)會(huì)檢測(cè)該標(biāo)記的物體。接下來(lái)要訓(xùn)練AI 模型,RVS軟件中有這個(gè)算法,我們只需要將標(biāo)記好的圖片提交到AI訓(xùn)練功能,最后會(huì)生成一個(gè)Train output文件夾,在這里可以獲取標(biāo)記的權(quán)重文件。

AI 推理

AI推理它使得訓(xùn)練好的模型能夠應(yīng)用到實(shí)際場(chǎng)景中,使用先前經(jīng)過(guò)訓(xùn)練的參數(shù)和權(quán)重來(lái)處理新的輸入數(shù)據(jù),并生成相應(yīng)的輸出結(jié)果。

1)使用 FilterBoxList 算子(重命名為"點(diǎn)云高度排序")來(lái)篩選木塊并按照木塊列表的 Z 軸坐標(biāo)值進(jìn)行排序。這個(gè)算子的屬性值需要按照下面的要求進(jìn)行調(diào)整。

2)使用 FindElement 算子來(lái)獲取適合抓取的平面。在算子屬性中選擇類(lèi)型為"Plane",并通過(guò)調(diào)整 distance_threshold 屬性來(lái)選擇合適的平面??梢源蜷_(kāi)點(diǎn)云可視化屬性來(lái)查看所選的平面。

3)使用 MinimumBoundingBox 算子(重命名為"獲得外包框")來(lái)獲取平面的中心點(diǎn)坐標(biāo)。在算子屬性中選擇類(lèi)型為"ApproxMVBB",并給該算子提供一個(gè) ref_pose,這個(gè) ref_pose 連接到先前提到的"TowardsDownPose"算子,它表示繞著 X 軸旋轉(zhuǎn) 180°,使 Z 軸朝下,以便機(jī)器人抓取??梢源蜷_(kāi)"GetBoxCube"屬性面板中的 box 和 box_pose 可視化屬性來(lái)顯示計(jì)算出的平面中心點(diǎn)。
12.png

總結(jié)起來(lái),這個(gè)操作的目標(biāo)是從點(diǎn)云中篩選出木塊并按照高度進(jìn)行排序,然后找到適合抓取的平面,并計(jì)算該平面的中心點(diǎn)坐標(biāo)。這個(gè)過(guò)程可能是為了進(jìn)一步在機(jī)器人操作中使用這些信息,例如進(jìn)行抓取任務(wù)或路徑規(guī)劃。
13.png

被測(cè)物體的識(shí)別和檢測(cè)就完成了。

再結(jié)合手眼標(biāo)定,就能識(shí)別出木塊的時(shí)候會(huì)得到木塊的坐標(biāo)信息。這樣就獲取到了木塊相對(duì)于機(jī)械臂的坐標(biāo)。

14.png

下圖是RVS中的仿真模擬3D環(huán)境。最左邊帶坐標(biāo)的是深度相機(jī)的坐標(biāo)系的標(biāo)志。

15.png

Robotic arm path planning

在上一步操作中,我們得到了resultPose,也就是木塊相對(duì)于機(jī)械臂的坐標(biāo),有了坐標(biāo)就可以對(duì)機(jī)械臂進(jìn)行控制,將機(jī)械臂的末端運(yùn)行到被測(cè)物體坐標(biāo)的上方。

下面是部分實(shí)現(xiàn)路徑規(guī)劃的代碼

import _thread
import socket
import json
import time
import sys
import math
import copy
import numpy as np
from RoboFlowSocket import RoboFlowSocket

#旋轉(zhuǎn)矩陣和歐拉角之間的轉(zhuǎn)換
defCvtRotationMatrixToEulerAngle(pdtRotationMatrix):
    pdtEulerAngle = np.zeros(3)

    pdtEulerAngle[2]= np.arctan2(pdtRotationMatrix[1,0], pdtRotationMatrix[0,0])

    fCosRoll = np.cos(pdtEulerAngle[2])
    fSinRoll = np.sin(pdtEulerAngle[2])

    pdtEulerAngle[1]= np.arctan2(-pdtRotationMatrix[2,0],(fCosRoll * pdtRotationMatrix[0,0])+(fSinRoll * pdtRotationMatrix[1,0]))
    pdtEulerAngle[0]= np.arctan2((fSinRoll * pdtRotationMatrix[0,2])-(fCosRoll * pdtRotationMatrix[1,2]),(-fSinRoll * pdtRotationMatrix[0,1])+(fCosRoll * pdtRotationMatrix[1,1]))

return pdtEulerAngle

defCvtEulerAngleToRotationMatrix(ptrEulerAngle):
    ptrSinAngle = np.sin(ptrEulerAngle)
    ptrCosAngle = np.cos(ptrEulerAngle)

    ptrRotationMatrix = np.zeros((3,3))
    ptrRotationMatrix[0,0]= ptrCosAngle[2]* ptrCosAngle[1]
    ptrRotationMatrix[0,1]= ptrCosAngle[2]* ptrSinAngle[1]* ptrSinAngle[0]- ptrSinAngle[2]* ptrCosAngle[0]
    ptrRotationMatrix[0,2]= ptrCosAngle[2]* ptrSinAngle[1]* ptrCosAngle[0]+ ptrSinAngle[2]* ptrSinAngle[0]
    ptrRotationMatrix[1,0]= ptrSinAngle[2]* ptrCosAngle[1]
    ptrRotationMatrix[1,1]= ptrSinAngle[2]* ptrSinAngle[1]* ptrSinAngle[0]+ ptrCosAngle[2]* ptrCosAngle[0]
    ptrRotationMatrix[1,2]= ptrSinAngle[2]* ptrSinAngle[1]* ptrCosAngle[0]- ptrCosAngle[2]* ptrSinAngle[0]
    ptrRotationMatrix[2,0]=-ptrSinAngle[1]
    ptrRotationMatrix[2,1]= ptrCosAngle[1]* ptrSinAngle[0]
    ptrRotationMatrix[2,2]= ptrCosAngle[1]* ptrCosAngle[0]

return ptrRotationMatrix

# 抓取位置的路徑規(guī)劃
defcompute_end_effector_pose(current_pose, tool_pose):
# 從位姿矩陣中提取旋轉(zhuǎn)矩陣和平移向量
    current_rotation = current_pose[:3,:3]
    current_translation = current_pose[:3,3]
    tool_rotation = tool_pose[:3,:3]
    tool_translation = tool_pose[:3,3]

# 計(jì)算工具坐標(biāo)系在基坐標(biāo)系下的位姿
    new_rotation = np.dot(current_rotation, tool_rotation)
    new_translation = np.dot(current_rotation, tool_translation)+ current_translation

# 組合旋轉(zhuǎn)矩陣和平移向量得到新的位姿矩陣
    new_pose = np.eye(4)
    new_pose[:3,:3]= new_rotation
    new_pose[:3,3]= new_translation

return new_pose

我們來(lái)一起看看效果如何。

Honeycam 2023-09-11 19-11-41.gif

我預(yù)留了一段距離,機(jī)械臂末端到木塊的距離。這一段距離是給機(jī)械安裝上夾爪的距離。我在桌面上放了幾張白紙,那是因?yàn)槲沂褂玫谋粶y(cè)物體跟我放置的桌面的顏色相似度較高,為了能夠快速識(shí)別被測(cè)物體。

遇到的問(wèn)題

1 最一開(kāi)始在考慮機(jī)械臂跟深度相機(jī)如何建立聯(lián)系,兩個(gè)處理器之間建立聯(lián)系就有點(diǎn)復(fù)雜,最后用了python的socket的庫(kù)來(lái)實(shí)現(xiàn)上位機(jī)對(duì)myCobot pro 600的控制。

2 在測(cè)試的時(shí)候會(huì)有個(gè)別的坐標(biāo)出現(xiàn)了偏差,后來(lái)檢測(cè)原因是因?yàn)椋谧鐾晔盅蹣?biāo)定之后,機(jī)械臂和深度相機(jī)的位置一定是要固定住的,不能再標(biāo)定完之后再去做改變。

3 被測(cè)物的識(shí)別的快慢的問(wèn)題。在圖片中我們可以看到桌面上放了幾張白紙,那是因?yàn)槲覀兊谋粶y(cè)物體跟桌面的背景色的紋理有些相似,所以不能快速的識(shí)別出來(lái)。(是為了提高識(shí)別率從才放的白紙)機(jī)器終究還是機(jī)器,抵不過(guò)人類(lèi)的眼睛。

總結(jié)

目前的項(xiàng)目還不夠完善,后續(xù)我考慮加上末端的執(zhí)行器將木塊抓起來(lái)。但是這個(gè)也不能真正的運(yùn)用到實(shí)際場(chǎng)景當(dāng)中使用,是不需要我們來(lái)抓木塊。換個(gè)角度,如果說(shuō)他是一堆零件堆在那,用機(jī)械臂將一大堆的零件進(jìn)行分類(lèi),給人們提供一個(gè)幫助那就很有用了。因?yàn)樵谝欢央s亂的零件中找零件是一件非常痛苦的事情,如果有遇到過(guò)這個(gè)問(wèn)題的就能明白我在說(shuō)什么了。

如果你有什么想法,或者有趣的建議歡迎在下方評(píng)論留言。你要是覺(jué)得喜歡這篇文章給予我一個(gè)點(diǎn)贊或者評(píng)論吧!

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    29748

    瀏覽量

    212952
  • 機(jī)械臂
    +關(guān)注

    關(guān)注

    13

    文章

    554

    瀏覽量

    25398
  • 大象機(jī)器人
    +關(guān)注

    關(guān)注

    0

    文章

    86

    瀏覽量

    121
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    大象機(jī)器人攜手進(jìn)迭時(shí)空推出 RISC-V 全棧開(kāi)源機(jī)械產(chǎn)品

    大象機(jī)器人成立于2016年,專(zhuān)注協(xié)作機(jī)器人研發(fā)與應(yīng)用,產(chǎn)品線(xiàn)涵蓋輕量級(jí)協(xié)作機(jī)器人、人形機(jī)器人、仿生機(jī)器人等多種形態(tài)。拳頭產(chǎn)品myCobot系列以“全球最輕的機(jī)械
    的頭像 發(fā)表于 06-06 16:55 ?540次閱讀
    大象機(jī)器人攜手進(jìn)迭時(shí)空推出 RISC-V 全棧開(kāi)源<b class='flag-5'>六</b><b class='flag-5'>軸</b><b class='flag-5'>機(jī)械</b><b class='flag-5'>臂</b>產(chǎn)品

    大象機(jī)器人攜手進(jìn)迭時(shí)空推出 RISC-V 全棧開(kāi)源機(jī)械產(chǎn)品

    大象機(jī)器人成立于2016年,專(zhuān)注協(xié)作機(jī)器人研發(fā)與應(yīng)用,產(chǎn)品線(xiàn)涵蓋輕量級(jí)協(xié)作機(jī)器人、人形機(jī)器人、仿生機(jī)器人等多種形態(tài)。拳頭產(chǎn)品myCobot系列以“全球最輕的機(jī)械
    發(fā)表于 04-25 17:59

    安森美這款iToF傳感器讓3D深度測(cè)量技術(shù)輕松落地

    現(xiàn)代工業(yè)自動(dòng)化的成功離不開(kāi)3D視覺(jué)技術(shù)的強(qiáng)大功能。傳統(tǒng)的2D傳感器只能提供平面圖像,這使其在設(shè)備檢測(cè)等應(yīng)用中的效能大打折扣。2D傳感器可以讀取包含物品尺寸的條形碼,但無(wú)法獨(dú)立測(cè)量
    的頭像 發(fā)表于 03-28 14:31 ?557次閱讀
    安森美這款iToF傳感器讓<b class='flag-5'>3D</b><b class='flag-5'>深度</b>測(cè)量技術(shù)輕松落地

    專(zhuān)為機(jī)器人教育而設(shè)計(jì)的創(chuàng)客友好型機(jī)械

    Pi 4 Model B Espressif ESP32S Elephant Robotics myCobot 320 m5 引言 今天文章的重點(diǎn)是使用myCobot 320機(jī)械
    的頭像 發(fā)表于 02-12 11:12 ?627次閱讀
    專(zhuān)為機(jī)器人教育而設(shè)計(jì)的創(chuàng)客友好型<b class='flag-5'>機(jī)械</b><b class='flag-5'>臂</b>

    如何使用PLC控制myCobot 320機(jī)械

    根據(jù)持續(xù)的用戶(hù)反饋,目前市場(chǎng)對(duì) PLC 與 myCobot 系統(tǒng)集成的需求很大,因此本文提供的案例介紹了如何使用 PLC(可編程邏輯控制器)來(lái)控制 myCobot 320 機(jī)械。本案
    的頭像 發(fā)表于 01-23 14:03 ?1159次閱讀
    如何使用PLC控制<b class='flag-5'>myCobot</b> 320<b class='flag-5'>機(jī)械</b><b class='flag-5'>臂</b>

    使用myCobot 280機(jī)械結(jié)合ROS2系統(tǒng)搭建機(jī)械分揀站

    這篇文章是來(lái)自Automatic Addison的開(kāi)源項(xiàng)目,已獲作者授權(quán)轉(zhuǎn)載自github。本項(xiàng)目的主要內(nèi)容是使用myCobot 280機(jī)械結(jié)合ROS2系統(tǒng)搭建機(jī)械分揀站。
    的頭像 發(fā)表于 01-15 09:22 ?815次閱讀
    使用<b class='flag-5'>myCobot</b> 280<b class='flag-5'>機(jī)械</b><b class='flag-5'>臂</b>結(jié)合ROS2系統(tǒng)搭建<b class='flag-5'>機(jī)械</b>分揀站

    深度解析!RK3568 加持機(jī)械是如何實(shí)現(xiàn)顏色識(shí)別抓取的?

    一、產(chǎn)品簡(jiǎn)介T(mén)L3568-PlusTEB人工智能實(shí)驗(yàn)箱國(guó)產(chǎn)高性能處理器64位4核低功耗2.0GHz超高主頻1T超高算力NPU兼容鴻蒙等國(guó)產(chǎn)操作系統(tǒng)二、實(shí)驗(yàn)?zāi)康?、了解機(jī)械識(shí)別顏色抓取
    的頭像 發(fā)表于 01-15 08:07 ?700次閱讀
    <b class='flag-5'>深度</b>解析!RK3568 加持<b class='flag-5'>機(jī)械</b><b class='flag-5'>臂</b>是如何實(shí)現(xiàn)顏色<b class='flag-5'>識(shí)別</b>與<b class='flag-5'>抓取</b>的?

    多維精密測(cè)量:半導(dǎo)體微型器件的2D&amp;3D視覺(jué)方案

    精密視覺(jué)檢測(cè)技術(shù)有效提升了半導(dǎo)體行業(yè)的生產(chǎn)效率和質(zhì)量保障。友思特自研推出基于深度學(xué)習(xí)平臺(tái)和視覺(jué)掃描系統(tǒng)的2D3D
    的頭像 發(fā)表于 01-10 13:54 ?704次閱讀
    多維精密測(cè)量:半導(dǎo)體微型器件的2<b class='flag-5'>D</b>&amp;<b class='flag-5'>3D</b><b class='flag-5'>視覺(jué)</b>方案

    國(guó)產(chǎn)芯RK3568教學(xué)實(shí)驗(yàn)箱操作案例:顏色識(shí)別抓取積木

    一、實(shí)驗(yàn)?zāi)康?本節(jié)視頻的目的是了解機(jī)械識(shí)別顏色抓取積木的基本原理和流程,并掌握機(jī)械
    發(fā)表于 12-05 14:30

    3D堆疊像素探測(cè)器芯片技術(shù)詳解(72頁(yè)P(yáng)PT)

    3D堆疊像素探測(cè)器芯片技術(shù)詳解
    的頭像 發(fā)表于 11-01 11:08 ?3292次閱讀
    <b class='flag-5'>3D</b><b class='flag-5'>堆疊</b>像素探測(cè)器芯片技術(shù)詳解(72頁(yè)P(yáng)PT)

    3D堆疊發(fā)展過(guò)程中面臨的挑戰(zhàn)

    3D堆疊將不斷發(fā)展,以實(shí)現(xiàn)更復(fù)雜和集成的設(shè)備——從平面到立方體
    的頭像 發(fā)表于 09-19 18:27 ?1799次閱讀
    <b class='flag-5'>3D</b><b class='flag-5'>堆疊</b>發(fā)展過(guò)程中面臨的挑戰(zhàn)

    探索3D視覺(jué)技術(shù)在活塞桿自動(dòng)化抓取中的應(yīng)用

    隨著工業(yè)4.0時(shí)代的到來(lái),智能制造成為工業(yè)發(fā)展的重要趨勢(shì)。作為智能制造的關(guān)鍵技術(shù)之一,3D視覺(jué)技術(shù)在活塞桿抓取領(lǐng)域的應(yīng)用前景十分廣闊。
    的頭像 發(fā)表于 09-07 15:38 ?474次閱讀

    開(kāi)源協(xié)作機(jī)器人myCobot 320結(jié)合人臉表情識(shí)別情緒!

    與眾不同的功能。通過(guò)結(jié)合人臉表情識(shí)別技術(shù),我們可以讓機(jī)械感知到我們的情緒變化。當(dāng)我們開(kāi)心時(shí),機(jī)械可以跟著一起開(kāi)心地舞動(dòng);當(dāng)我們傷心難過(guò)時(shí)
    的頭像 發(fā)表于 08-12 15:21 ?1434次閱讀
    開(kāi)源<b class='flag-5'>六</b><b class='flag-5'>軸</b>協(xié)作機(jī)器人<b class='flag-5'>myCobot</b> 320結(jié)合人臉表情<b class='flag-5'>識(shí)別</b>情緒!

    智能目標(biāo)顏色識(shí)別抓取丨國(guó)產(chǎn)Cortex-A55人工智能實(shí)驗(yàn)箱機(jī)械案例分享

    智能目標(biāo)顏色識(shí)別抓取丨國(guó)產(chǎn)Cortex-A55人工智能實(shí)驗(yàn)箱機(jī)械案例分享
    的頭像 發(fā)表于 08-10 08:32 ?690次閱讀
    智能目標(biāo)顏色<b class='flag-5'>識(shí)別</b><b class='flag-5'>抓取</b>丨國(guó)產(chǎn)Cortex-A55人工智能實(shí)驗(yàn)箱<b class='flag-5'>機(jī)械</b><b class='flag-5'>臂</b>案例分享

    3D視覺(jué)技術(shù)廣闊的應(yīng)用前景

    隨著工業(yè)自動(dòng)化領(lǐng)域的迅猛進(jìn)步,對(duì)制造過(guò)程中抓取作業(yè)的精度與效率提出了更為嚴(yán)苛的要求。作為機(jī)械構(gòu)造中的核心組件,活塞桿的精準(zhǔn)抓取成為了保障產(chǎn)品質(zhì)量、提升生產(chǎn)效率的關(guān)鍵環(huán)節(jié)。在此背景下,3D
    的頭像 發(fā)表于 07-29 15:56 ?675次閱讀
    <b class='flag-5'>3D</b><b class='flag-5'>視覺(jué)</b>技術(shù)廣闊的應(yīng)用前景