- mongodb - 在 MongoDB mapreduce 中,如何展平值对象?
- javascript - 对象传播与 Object.assign
- html - 输入类型 ="submit"Vs 按钮标签它们可以互换吗?
- sql - 使用 MongoDB 而不是 MS SQL Server 的优缺点
我有两台摄像机并排固定,平行方向看。
当我对对应点的两个 vector 执行 triangulatePoints
时,我得到了 3D 空间中的点集合。 3D 空间中的所有点都有一个负 Z 坐标。
所以,要深入了解这个......
我的假设是 OpenCV 使用右手坐标系。
我假设每个相机的初始方向指向正 Z 轴方向。
因此,通过使用我在开始时介绍的投影矩阵,我会假设相机在空间中的位置是这样的:
当我得到训练点的负 Z 坐标时,这个假设与我观察到的相矛盾。我能想到的唯一解释是 OpenCV 实际上使用了左手坐标系。因此,对于我在开头所述的投影矩阵,这就是相机在空间中的定位方式:
这表明在这种情况下我的左侧摄像头不在左侧。这就是为什么我的分数为负深度。
此外,如果我尝试将 triangulatePoints
与 solvePnP
结合使用,我会遇到问题。
我使用 triangulatePoints
的输出作为 solvePnP
的输入。我希望在 3D 坐标系的原点附近获得相机坐标。我希望计算出的相机位置与开始时使用的投影矩阵相匹配。但这并没有发生。我得到了一些完全疯狂的结果,超出基线长度 10 倍以上的预期值。
这个例子比上面所说的更完整地表达了这个问题。
Here是生成这些点的代码。
开始,设置相机A和相机D...
Mat cameraMatrix = (Mat_<double>(3, 3) <<
716.731, 0, 660.749,
0, 716.731, 360.754,
0, 0, 1);
Mat distCoeffs = (Mat_<double>(5, 1) << 0, 0, 0, 0, 0);
Mat rotation_a = Mat::eye(3, 3, CV_64F); // no rotation
Mat translation_a = (Mat_<double>(3, 1) << 0, 0, 0); // no translation
Mat rt_a;
hconcat(rotation_a, translation_a, rt_a);
Mat projectionMatrix_a = cameraMatrix * rt_a;
Mat rotation_d = (Mat_<double>(3, 1) << 0, CV_PI / 6.0, 0); // 30° rotation about Y axis
Rodrigues(rotation_d, rotation_d); // convert to 3x3 matrix
Mat translation_d = (Mat_<double>(3, 1) << 100, 0, 0);
Mat rt_d;
hconcat(rotation_d, translation_d, rt_d);
Mat projectionMatrix_d = cameraMatrix * rt_d;
投影A和D观察时points3D
的像素坐标是多少。
Mat points2D_a = projectionMatrix_a * points3D;
Mat points2D_d = projectionMatrix_d * points3D;
我把它们放在 vector 中:
vector<Point2f> points2Dvector_a, points2Dvector_d;
之后,我再次生成 3D 点。
Mat points3DHomogeneous;
triangulatePoints(projectionMatrix_a, projectionMatrix_d, points2Dvector_a, points2Dvector_d, points3DHomogeneous);
Mat triangulatedPoints3D;
transpose(points3DHomogeneous, triangulatedPoints3D);
convertPointsFromHomogeneous(triangulatedPoints3D, triangulatedPoints3D);
现在,triangulatedPoints3D
开始是这样的:
它们与 points3D
相同。
然后是最后一步。
Mat rvec, tvec;
solvePnP(triangulatedPoints3D, points2Dvector_d, cameraMatrix, distCoeffs, rvec, tvec);
结果 rvec
和 tvec
:
我曾希望得到更类似于创建 projectionMatrix_d
时使用的转换,即 (100, 0, 0) 的平移和绕 Y 轴旋转 30°。
如果我在创建投影矩阵时使用反转变换,像这样:
Mat rotation_d = (Mat_<double>(3, 1) << 0, CV_PI / 6.0, 0); // 30° rotation about Y axis
Rodrigues(-rotation_d, rotation_d); // NEGATIVE ROTATION
Mat translation_d = (Mat_<double>(3, 1) << 100, 0, 0);
Mat rt_d;
hconcat(rotation_d, -translation_d, rt_d); // NEGATIVE TRANSLATION
Mat projectionMatrix_d = cameraMatrix * rt_d;
然后我得到 rvec
和 tvec
:
这更有意义。但随后我更改了起始转换,使旋转为负 CV_PI/6.0
-> -CV_PI/6.0
以及生成的 rvec
和 tvec
是:
我想解释为什么会发生这种情况。为什么我从 solvePnP
得到如此奇怪的结果。
最佳答案
OpenCV坐标系是右手,答案here给出了一个关于 OpenCV 相机系统的说明性示例。我猜想混淆是关于 rvec
和 tvec
,后者没有给出相机的翻译,但它指向世界原点。第一个答案here根据一个例子解释它。您可以通过简单的矩阵乘法从 solvePnP
的输出中得到实际的投影矩阵,详细信息为 here在第一个答案中。
关于c++ - OpenCV triangulatePoints 惯用手,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32889584/
我正在尝试使用 OpenCV 中的 triangulatePoints() 方法来重建 3d 对象 我为两个相机生成了投影矩阵,它们看起来很正常。但是三角测量方法为不同的输入 2D 坐标返回相同的 3
摘要 我正在尝试从 2 张图像中对点进行三角测量,但根本没有得到准确的结果。 详情 这是我在做什么: 在现实世界坐标中测量我的 16 个对象点。 确定每个图像的 16 个对象点的像素坐标。 使用 cv
我试图用 OpenCV 对一些点进行三角测量,我发现了这个 cv::triangulatePoints()功能。问题是几乎没有文档或示例。 我对此有些怀疑。 它使用什么方法?我对三角剖分做了一些研究,
我正在使用 OpenCV 的 triangulatePoints 函数来确定立体相机成像的点的 3D 坐标。 我正在体验这个功能让我到同一点的距离不同,具体取决于相机到该点的角度。 这是一个视频: h
我正在努力让 OpenCV triangulatePoints 函数正常工作。我使用的是从光流生成的点匹配函数。我正在使用来自单个移动相机的两个连续帧/位置。 目前这些是我的步骤: 内在函数已给出并且
我在 opencv 中使用 triagulatePoints 函数。在绝望之后,我终于让它工作了,但结果看起来并不正确。我已经阅读了一些关于此的其他问题,但我仍然不明白! 我在运行: cv::Mat
我有两台摄像机并排固定,平行方向看。 左相机的投影矩阵 右相机的投影矩阵 当我对对应点的两个 vector 执行 triangulatePoints 时,我得到了 3D 空间中的点集合。 3D 空间中
我试图用 OpenCV 对一些点进行三角测量,我发现了 cv::triangulatePoints()功能。问题是几乎没有它的文档或示例。 我对此有些怀疑。 使用什么方法?我对三角测量进行了一项小型研
我正在尝试对立体相机系统的一些点进行三角测量。 首先,我使用示例“stereo_calib”(cpp) 在 yml 文件中获取外部参数: R T R1 R2 P1 P2 问 有没有办法检查值是否正确?
我正在尝试使用 cv2.triangulatePoints 获取 3D 点,但它总是返回几乎相同的 Z 值。我的输出如下所示:正如它所看到的,所有点都在几乎相同的 Z 值中。没有深度。 这是我的三角剖
我正在尝试通过 Motion 代码实现标准结构,但 triangulatePoints 导致了 NaN 值。我执行以下步骤- 获取图像 1 和图像 2 的 ORB 特征。 匹配特征。 使用 findE
我正在尝试使用 cv::triangulatePoints() 函数对棋盘图案进行立体相机跟踪,使用两个现成的网络摄像头。我使用 MATLAB 的 Stereocamera Calibration T
所以我有一个点,左图为 x:1168px, y:1140px,右图为 x:1062px, y:1167px。我通过程序获得的实际坐标是:120.91、4.94059、-175.609(x、y 和 z,
我有两组对应的图像点和投影矩阵。我使用 OpenCVs triangulatePoints() 函数 ( API | src code ),均匀 3D 点的结果是: points4D =
我尝试使用 OpenCV 从两个立体图像中获取点云,但无法获取坐标。 我使用光流找到了点坐标 我找到了相机的投影矩阵。 Mat RT1; hconcat(R, T1, RT1); Mat P1 = C
我正在尝试获取空间中几个点的 3D 坐标,但我从 undistortPoints() 和 triangulatePoints() 都得到了奇怪的结果。 由于两个相机的分辨率不同,我分别校准,得到0,3
我在 visual studio 上使用了函数 cvTriangulatePoints(参见文档:http://docs.opencv.org/2.4/modules/calib3d/doc/came
cv2.triangulatePoints 的输出被指定为齐次坐标中重建点的 4xN 数组。 我想将此输出用作 cv2.perspectiveTransform 的 src 数组输入。 src指定为双
我想在 Python 2.7 和 OpenCV 3.3 中使用 triangulatePoints 了解立体相机的 3D 点。为此,我校准了立体相机并将矩阵存储在文件夹中。我还使用 cv2.stere
我是一名优秀的程序员,十分优秀!