最近我在看Halcon和OpenCV的手眼标定,关于Eye-in-hand的标定看出了一堆不明白的,哪位大佬能帮忙解答一下。
1,虽然在Halcon的例子hand_eye_movingcam_calibration_pose的一开始写着用3D sensor,但是实际上用的是2D相机。
* This example explains how to use the hand eye calibration for the case where
* a 3D sensor is attached to the robot tool and the calibration object
* is stationary with respect to the robot.
2,Halcon和OpenCV在做eyeinhand标定时使用的都是2D相机,但是得到的结果是3D的转换矩阵。那么到后面使用这个矩阵完成图像到手的坐标变换时,输入的图像坐标还是2D的么?如果要3D的坐标,Z从哪里来?
3,Halcon是怎么计算标定误差的?calibrate_hand_eye会得到一个误差向量,这个误差是不是只和obj,cam的pose有关,机械手那部分不包含在这个误差里对不对?
|