- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我正在尝试对立体相机系统的一些点进行三角测量。
首先,我使用示例“stereo_calib”(cpp) 在 yml 文件中获取外部参数:
有没有办法检查值是否正确?
然后我使用方法:
cvTriangulatePoints(CvMat* projMatr1, CvMat* projMatr2, CvMat* projPoints1, CvMat* projPoints2, CvMat* points4D)
我将 P1 用于 projMatr1,将 P2 用于 projMatr2。
我要三角化的点是左图的坐标 x=919,y=686 和右图的 x=586,y=694。我试过了,但我不确定这是否是好方法:
int co1[] = {919,686};
Mat point1(2, 1, CV_32FC1, co1);
int co2[] = {586,694};
Mat point2(2, 1, CV_32FC1, co2);
Mat points4D;
我将 point1 用于 projPoints1,将 point2 用于 projPoints2。我在最后的 yml 文件中写了 points4D。这是我得到的结果:
%YAML:1.0
Points4D: !!opencv-matrix
rows: 4
cols: 1
dt: f
data: [ 2.34857202e-001, 1.03716120e-001, -9.66480732e-001,
1.43435571e-007 ]
这是什么意思?前三个值是重建点的 x、y 和 z?这些值对我来说似乎很奇怪,但我真的很了解 openCV,我对它了解不多。
我发现了这个相关问题:How to correctly use cv::triangulatePoints() .但它并没有真正帮助我......
感谢您的帮助!
编辑
校准给了我这个:
P1: !!opencv-matrix
rows: 3
cols: 4
dt: d
data: [ 1.5334888857352591e+003, 0., 1.1192188110351562e+003, 0., 0.,
1.5334888857352591e+003, 9.1114062500000000e+002, 0., 0., 0., 1.,
0. ]
P2: !!opencv-matrix
rows: 3
cols: 4
dt: d
data: [ 1.5334888857352591e+003, 0., 1.1192188110351562e+003,
4.3953258083993223e+003, 0., 1.5334888857352591e+003,
9.1114062500000000e+002, 0., 0., 0., 1., 0. ]
我在 A4 格式纸上的文档打印中使用了棋盘。
最佳答案
您应该首先分别校准您的相机并获得它们的固有矩阵。
然后您可以使用特殊标志运行立体校准,指示您仅搜索外部属性(相机彼此之间的关系)。
投影矩阵(如 P1 和 P2)本质上是相机的内部矩阵 C
和相机的外部矩阵 [R|t]
的乘积。
检查结果的一种方法是使用从立体校准中获得的 R
和 T
值,并创建一个基本矩阵来描述由一个摄像头和其他摄像头拍摄的图像。
使用Fundamental Matrix,对于相机A拍摄的图像上的每个点,你可以在相机B拍摄的图像上画一条线。如果你的眼睛看不到实际对应的点直接在这条线上,那就好了.
如果您对多个点重复该操作并始终获得良好的结果,则您可能无法确定您的外部属性和投影矩阵都很好。
当您通过 triangulatePoints
函数获得 3d 点时,它们位于齐次坐标 (x, y, z, w)
中。该点的欧几里德坐标为 (x/w, y/w, z/w)
。
边注:
在纸上打印棋盘很少是个好主意。纸张通常永远不会完全平整/笔直。一种方法是将其打印在粘性纸上,然后将其粘在坚硬的平面上,不留气泡。您也可以尝试在计算机显示器上简单地显示棋盘图案并报告结果:)
关于c++ - openCV 的 triangulatePoints() 结果应该是什么样的?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24047112/
我正在尝试使用 OpenCV 中的 triangulatePoints() 方法来重建 3d 对象 我为两个相机生成了投影矩阵,它们看起来很正常。但是三角测量方法为不同的输入 2D 坐标返回相同的 3
摘要 我正在尝试从 2 张图像中对点进行三角测量,但根本没有得到准确的结果。 详情 这是我在做什么: 在现实世界坐标中测量我的 16 个对象点。 确定每个图像的 16 个对象点的像素坐标。 使用 cv
我试图用 OpenCV 对一些点进行三角测量,我发现了这个 cv::triangulatePoints()功能。问题是几乎没有文档或示例。 我对此有些怀疑。 它使用什么方法?我对三角剖分做了一些研究,
我正在使用 OpenCV 的 triangulatePoints 函数来确定立体相机成像的点的 3D 坐标。 我正在体验这个功能让我到同一点的距离不同,具体取决于相机到该点的角度。 这是一个视频: h
我正在努力让 OpenCV triangulatePoints 函数正常工作。我使用的是从光流生成的点匹配函数。我正在使用来自单个移动相机的两个连续帧/位置。 目前这些是我的步骤: 内在函数已给出并且
我在 opencv 中使用 triagulatePoints 函数。在绝望之后,我终于让它工作了,但结果看起来并不正确。我已经阅读了一些关于此的其他问题,但我仍然不明白! 我在运行: cv::Mat
我有两台摄像机并排固定,平行方向看。 左相机的投影矩阵 右相机的投影矩阵 当我对对应点的两个 vector 执行 triangulatePoints 时,我得到了 3D 空间中的点集合。 3D 空间中
我试图用 OpenCV 对一些点进行三角测量,我发现了 cv::triangulatePoints()功能。问题是几乎没有它的文档或示例。 我对此有些怀疑。 使用什么方法?我对三角测量进行了一项小型研
我正在尝试对立体相机系统的一些点进行三角测量。 首先,我使用示例“stereo_calib”(cpp) 在 yml 文件中获取外部参数: R T R1 R2 P1 P2 问 有没有办法检查值是否正确?
我正在尝试使用 cv2.triangulatePoints 获取 3D 点,但它总是返回几乎相同的 Z 值。我的输出如下所示:正如它所看到的,所有点都在几乎相同的 Z 值中。没有深度。 这是我的三角剖
我正在尝试通过 Motion 代码实现标准结构,但 triangulatePoints 导致了 NaN 值。我执行以下步骤- 获取图像 1 和图像 2 的 ORB 特征。 匹配特征。 使用 findE
我正在尝试使用 cv::triangulatePoints() 函数对棋盘图案进行立体相机跟踪,使用两个现成的网络摄像头。我使用 MATLAB 的 Stereocamera Calibration T
所以我有一个点,左图为 x:1168px, y:1140px,右图为 x:1062px, y:1167px。我通过程序获得的实际坐标是:120.91、4.94059、-175.609(x、y 和 z,
我有两组对应的图像点和投影矩阵。我使用 OpenCVs triangulatePoints() 函数 ( API | src code ),均匀 3D 点的结果是: points4D =
我尝试使用 OpenCV 从两个立体图像中获取点云,但无法获取坐标。 我使用光流找到了点坐标 我找到了相机的投影矩阵。 Mat RT1; hconcat(R, T1, RT1); Mat P1 = C
我正在尝试获取空间中几个点的 3D 坐标,但我从 undistortPoints() 和 triangulatePoints() 都得到了奇怪的结果。 由于两个相机的分辨率不同,我分别校准,得到0,3
我在 visual studio 上使用了函数 cvTriangulatePoints(参见文档:http://docs.opencv.org/2.4/modules/calib3d/doc/came
cv2.triangulatePoints 的输出被指定为齐次坐标中重建点的 4xN 数组。 我想将此输出用作 cv2.perspectiveTransform 的 src 数组输入。 src指定为双
我想在 Python 2.7 和 OpenCV 3.3 中使用 triangulatePoints 了解立体相机的 3D 点。为此,我校准了立体相机并将矩阵存储在文件夹中。我还使用 cv2.stere
我是一名优秀的程序员,十分优秀!