gpt4 book ai didi

camera-calibration - 相机单应性

转载 作者:行者123 更新时间:2023-12-04 19:13:10 26 4
gpt4 key购买 nike

我正在学习相机矩阵的东西。我已经知道我可以通过在对象空间的平面上使用四个点来获得相机的单应性(3*3 矩阵)。我想知道我们是否可以得到不在平面上的四个点的单应性?如果是,我怎样才能得到矩阵?我应该看什么公式?

我还将单应性与另一个概念混淆:如果我想从一个坐标系转换为另一个坐标系,我只需要知道三个点。那么为什么我们在计算单应性时需要四个点呢?

最佳答案

单应映射点
1. 在平面上指向另一个平面
2. 纯相机旋转或变焦期间的 3D 点投影(不必位于同一平面上)。

如果在传感器平面旋转时查看连接点的光线,则可以轻松验证后者:绿色是两个传感器位置,黑色是 3d 对象 camera rays maintain mapping between object and camera sensor

由于单应性是在投影之间而不是在 3D 对象之间,因此您不必关心这些投影代表什么。但这可能令人困惑,我同意。例如,您可以将相机对准 3D 场景(这不是平面!),然后旋转相机,生成的两张场景图片将通过单应相关。顺便说一下,这是图像全景的基础。

您提到的三点对应关系可能与称为仿射的变换(当透视效果消失时发生在大缩放期间)或在 3D 空间中找到刚性旋转和平移有关。两者都需要 3 点对应,但前者只需要 2D 点,而后者需要 3D 点。后一种情况有 6 个自由度(旋转 3 个,平移 3 个),而每个对应提供 2DOF,因此 6/2=3 个对应。单应性有 8 个自由度,所以应该有 8/2=4 个对应;

下面是一个小图,解释了原始正方形向前倾斜时仿射变换和同形异义变换之间的区别。在仿射情况下,远侧与近侧长度相同的透视效果可以忽略不计。在 Homography 的情况下,远端较短。 enter image description here

关于camera-calibration - 相机单应性,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/12920324/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com