设置首页收藏本站
开启左侧

手眼标定看不懂啊

[复制链接]
lanmp 发表于 2024-4-18 16:10:56 | 显示全部楼层 |阅读模式
最近我在看Halcon和OpenCV的手眼标定,关于Eye-in-hand的标定看出了一堆不明白的,哪位大佬能帮忙解答一下。
1,虽然在Halcon的例子hand_eye_movingcam_calibration_pose的一开始写着用3D sensor,但是实际上用的是2D相机。
* This example explains how to use the hand eye calibration for the case where
* a 3D sensor is attached to the robot tool and the calibration object
* is stationary with respect to the robot.
2,Halcon和OpenCV在做eyeinhand标定时使用的都是2D相机,但是得到的结果是3D的转换矩阵。那么到后面使用这个矩阵完成图像到手的坐标变换时,输入的图像坐标还是2D的么?如果要3D的坐标,Z从哪里来?
3,Halcon是怎么计算标定误差的?calibrate_hand_eye会得到一个误差向量,这个误差是不是只和obj,cam的pose有关,机械手那部分不包含在这个误差里对不对?
奖励计划已经开启,本站鼓励作者发布最擅长的技术内容和资源,流量变现就在现在,[点我]加入吧~~~Go
halcon2016 发表于 2024-4-19 09:17:05 | 显示全部楼层
1、这个例程对于2D和3D相机都适用,手眼标定的关键就是获取标定物相对相机的pose,2D相机是通过标定板来实现的,如果是3D相机,理论上则可以使用任何物体来实现标定,因为3D相机可以直接获取物体相对于相机的3D pose
2、如果是2D相机,那就不存在Z的概念,如果是3D相机,那Z就可以由相机得到,因为3D相机本来就可以得到物体的3D pose
3、标定误差当然是整个系统的误差,包含机械手本身的误差
奖励计划已经开启,本站鼓励作者发布最擅长的技术内容和资源,流量变现就在现在,[点我]加入吧~~~Go
 楼主| lanmp 发表于 2024-4-19 14:20:32 | 显示全部楼层
halcon2016 发表于 2024-4-19 09:17
1、这个例程对于2D和3D相机都适用,手眼标定的关键就是获取标定物相对相机的pose,2D相机是通过标定板来实 ...

多谢回复,昨晚我也找了些资料,虽然我还没实际操作过,但我觉得我现在已经明白了。
奖励计划已经开启,本站鼓励作者发布最擅长的技术内容和资源,流量变现就在现在,[点我]加入吧~~~Go
您需要登录后才可以回帖 登录 | 注册

本版积分规则

快速回复 返回顶部 返回列表