- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我正在使用 OpenCV 的 triangulatePoints
函数来确定立体相机成像的点的 3D 坐标。
我正在体验这个功能让我到同一点的距离不同,具体取决于相机到该点的角度。
这是一个视频: https://www.youtube.com/watch?v=FrYBhLJGiE4
在本视频中,我们跟踪“X”标记。在左上角显示有关正在跟踪的点的信息。 (Youtube 降低了质量,视频通常更清晰。(2x1280)x 720)
在视频中,左摄像头是 3D 坐标系的原点,它在正 Z 方向看。左摄像头正在经历一些 转换,但远没有triangulatePoints
函数让人相信的那么多。 (更多信息在视频说明中。)
公制单位是 mm,因此该点最初在距离左侧相机约 1.94 米处进行三角测量。
我知道校准不够精确会导致此行为。我使用棋盘模式运行了三个独立的校准。结果参数对我的口味来说变化太大。 (焦距估计约为 +-10%)。
如您所见,视频没有高度失真。直线在任何地方看起来都很直。所以最佳相机参数必须接近我已经使用的参数。
我的问题是,还有什么其他原因会导致这种情况吗?
两个立体相机之间的会聚角可以产生这种效果吗?还是基线长度错误?
当然,特征检测总是存在错误的问题。因为我使用光流来跟踪“X”标记,所以我得到了亚像素精度,这可能会被误认为...我不知道...+-0.2 像素?
我正在使用 Stereolabs ZED 立体相机。我不直接使用 OpenCV 访问视频帧。相反,我必须使用购买相机时获得的特殊 SDK。我突然想到,我正在使用的这个 SDK 可能会自己做一些不失真的事情。
所以,现在我想知道...如果 SDK 使用不正确的畸变系数对图像进行去畸变,是否可以创建既不是桶形畸变也不是枕形畸变但完全不同的图像?
最佳答案
ZED Camera 附带的 SDK 可对图像进行去畸变和校正。几何模型基于与openCV相同的:
通过 ZED 的其中一个工具(ZED Settings App),您可以为左/右和失真系数以及基线/收敛输入您自己的内在矩阵。
要获得精确的 3D 三角测量,您可能需要调整这些参数,因为它们对您在转换为深度之前估计的差异有很大影响。
OpenCV 提供了一个很好的模块来校准 3D 相机。它确实:- Left 和 Right 的单声道校准 (calibrateCamera),然后是立体声校准 (cv::StereoCalibrate())。它将输出内部参数(焦距、光学中心(非常重要))和外部参数(如果 R 是 3x1 矩阵,基线 = T[0]、收敛 = R[1])。 RMS(stereoCalibrate() 的返回值)是查看校准是否正确完成的好方法。
重要的是您需要对原始图像进行校准,而不是使用 ZED SDK 提供的图像。由于 ZED 是标准的 UVC 相机,您可以使用 opencv 获取并排原始图像(具有正确设备编号的 cv::videoCapture)并提取左和右原生图像。
然后您可以在工具中输入这些校准参数。然后 ZED SDK 将执行去失真/校正并提供校正后的图像。 getParameters() 中提供了新的相机矩阵。在进行三角测量时,您需要获取这些值,因为图像会被校正,就好像它们是从这个“理想”相机中拍摄的一样。
希望对您有所帮助。/OB/
关于c++ - OpenCV triangulatePoints 变化的距离,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33154523/
我正在尝试使用 OpenCV 中的 triangulatePoints() 方法来重建 3d 对象 我为两个相机生成了投影矩阵,它们看起来很正常。但是三角测量方法为不同的输入 2D 坐标返回相同的 3
摘要 我正在尝试从 2 张图像中对点进行三角测量,但根本没有得到准确的结果。 详情 这是我在做什么: 在现实世界坐标中测量我的 16 个对象点。 确定每个图像的 16 个对象点的像素坐标。 使用 cv
我试图用 OpenCV 对一些点进行三角测量,我发现了这个 cv::triangulatePoints()功能。问题是几乎没有文档或示例。 我对此有些怀疑。 它使用什么方法?我对三角剖分做了一些研究,
我正在使用 OpenCV 的 triangulatePoints 函数来确定立体相机成像的点的 3D 坐标。 我正在体验这个功能让我到同一点的距离不同,具体取决于相机到该点的角度。 这是一个视频: h
我正在努力让 OpenCV triangulatePoints 函数正常工作。我使用的是从光流生成的点匹配函数。我正在使用来自单个移动相机的两个连续帧/位置。 目前这些是我的步骤: 内在函数已给出并且
我在 opencv 中使用 triagulatePoints 函数。在绝望之后,我终于让它工作了,但结果看起来并不正确。我已经阅读了一些关于此的其他问题,但我仍然不明白! 我在运行: cv::Mat
我有两台摄像机并排固定,平行方向看。 左相机的投影矩阵 右相机的投影矩阵 当我对对应点的两个 vector 执行 triangulatePoints 时,我得到了 3D 空间中的点集合。 3D 空间中
我试图用 OpenCV 对一些点进行三角测量,我发现了 cv::triangulatePoints()功能。问题是几乎没有它的文档或示例。 我对此有些怀疑。 使用什么方法?我对三角测量进行了一项小型研
我正在尝试对立体相机系统的一些点进行三角测量。 首先,我使用示例“stereo_calib”(cpp) 在 yml 文件中获取外部参数: R T R1 R2 P1 P2 问 有没有办法检查值是否正确?
我正在尝试使用 cv2.triangulatePoints 获取 3D 点,但它总是返回几乎相同的 Z 值。我的输出如下所示:正如它所看到的,所有点都在几乎相同的 Z 值中。没有深度。 这是我的三角剖
我正在尝试通过 Motion 代码实现标准结构,但 triangulatePoints 导致了 NaN 值。我执行以下步骤- 获取图像 1 和图像 2 的 ORB 特征。 匹配特征。 使用 findE
我正在尝试使用 cv::triangulatePoints() 函数对棋盘图案进行立体相机跟踪,使用两个现成的网络摄像头。我使用 MATLAB 的 Stereocamera Calibration T
所以我有一个点,左图为 x:1168px, y:1140px,右图为 x:1062px, y:1167px。我通过程序获得的实际坐标是:120.91、4.94059、-175.609(x、y 和 z,
我有两组对应的图像点和投影矩阵。我使用 OpenCVs triangulatePoints() 函数 ( API | src code ),均匀 3D 点的结果是: points4D =
我尝试使用 OpenCV 从两个立体图像中获取点云,但无法获取坐标。 我使用光流找到了点坐标 我找到了相机的投影矩阵。 Mat RT1; hconcat(R, T1, RT1); Mat P1 = C
我正在尝试获取空间中几个点的 3D 坐标,但我从 undistortPoints() 和 triangulatePoints() 都得到了奇怪的结果。 由于两个相机的分辨率不同,我分别校准,得到0,3
我在 visual studio 上使用了函数 cvTriangulatePoints(参见文档:http://docs.opencv.org/2.4/modules/calib3d/doc/came
cv2.triangulatePoints 的输出被指定为齐次坐标中重建点的 4xN 数组。 我想将此输出用作 cv2.perspectiveTransform 的 src 数组输入。 src指定为双
我想在 Python 2.7 和 OpenCV 3.3 中使用 triangulatePoints 了解立体相机的 3D 点。为此,我校准了立体相机并将矩阵存储在文件夹中。我还使用 cv2.stere
我是一名优秀的程序员,十分优秀!