- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
您好,我的目标是开发用于飞机(模拟器)驾驶舱的头部跟踪功能,以提供 AR 以支持平民飞行员在视觉条件不佳的情况下着陆和飞行。
我的方法是检测我知道 3D 坐标的特征点(在黑暗的模拟器 LED 中),然后计算估计的(头戴式相机的)姿势 [R|t](旋转与平移连接)。
我确实遇到的问题是估计的姿势似乎总是错误的,并且我的 3D 点的投影 (我也用来估计姿势) 与 2D 图像点不重叠 或不可见) .
我的问题是:
如何使用一组给定的 2D 到 3D 点对应来估计相机姿势。
为什么我尝试它的方式不起作用,哪里可能是错误来源?
测量(3D 和 2D 点以及相机矩阵)必须有多精确才能使理论解决方案在现实生活环境中工作?
理论上该方法是否适用于共面点(x,y 轴已更改)?
我使用的硬件是 Epson BT-200。
在飞机中,我定义了一个固定的纵坐标,我期望作为程序结果的相对平移和旋转。该程序检测(独特)LED 的图像坐标并将它们与相应的 3D 坐标相匹配。使用我使用 open-cv 示例 android 代码 (https://github.com/Itseez/opencv/tree/master/samples/android/camera-calibration) 获得的相机矩阵,我尝试使用 solvePnP 估计姿势。
我的相机矩阵和失真略有不同。以下是我从程序中收到的一些值。我确保打印出来的圆形图案的圆形距离与源代码中写的相同(以米为单位)。
以下是一些示例以及我如何创建它的 OpenCV Mat。
// protected final double[] DISTORTION_MATRIX_VALUES = new double[]{
// /*This matrix should have 5 values*/
// 0.04569467373955304,
// 0.1402980385369059,
// 0,
// 0,
// -0.2982135315849994
// };
// protected final double[] DISTORTION_MATRIX_VALUES = new double[]{
// /*This matrix should have 5 values*/
// 0.08245931646421553,
// -0.9893762277047577,
// 0,
// 0,
// 3.23553287438898
// };
// protected final double[] DISTORTION_MATRIX_VALUES = new double[]{
// /*This matrix should have 5 values*/
// 0.07444480392067945,
// -0.7817175834131075,
// 0,
// 0,
// 2.65433773093283
// };
protected final double[] DISTORTION_MATRIX_VALUES = new double[]{
/*This matrix should have 5 values*/
0.08909941096327206,
-0.9537960457721699,
0,
0,
3.449728790843752
};
protected final double[][] CAMERA_MATRIX_VALUES = new double[][]{
/*This matrix should have 3x3 values*/
// {748.6595405553738, 0, 319.5},
// {0, 748.6595405553738, 239.5},
// {0, 0, 1}
// {698.1744297982436, 0, 320},
// {0, 698.1744297982436, 240},
// {0, 0, 1}
// {707.1226937511951, 0, 319.5},
// {0, 707.1226937511951, 239.5},
// {0, 0, 1}
{702.1458656346429, 0, 319.5},
{0, 702.1458656346429, 239.5},
{0, 0, 1}
};
private void initDestortionMatrix(){
distortionMatrix = new MatOfDouble();
distortionMatrix.fromArray(DISTORTION_MATRIX_VALUES);
}
private void initCameraMatrix(){
cameraMatrix = new Mat(new Size(3,3), CvType.CV_64F);
for(int i=0;i<CAMERA_MATRIX_VALUES.length; i++){
cameraMatrix.put(i, 0, CAMERA_MATRIX_VALUES[i]);
}
}
最佳答案
我在尝试实现我的头部跟踪系统期间学到的一件事是,您应该从简单的问题开始,而不是转向更复杂的问题。你的问题很复杂,不幸的是我没有时间分析它并搜索你代码中的错误或逻辑错误,所以至少我会尝试给你一些提示和工作示例。
Here是用于查找对象平移和旋转的 OpenCV 教程。它是用 Python 编写的,如果有问题 here我旧 C++ 项目的一部分。
我的项目使用 solvePnP 或 solvePnPRansac 函数(您可以更改模式)执行相同的任务。请注意,我的代码是一些旧的“游乐场”项目的一部分,因此即使在我执行的清洁之后它也非常困惑。运行时,向相机显示打印的棋盘,按“p”开始位置和旋转估计,按“m”更改模式(0-ransac、1-pnp、2-posit 似乎不起作用...)或 'd' 使用离散系数打开/关闭。
这两个项目都依赖于寻找棋盘模式,但修改它们以使用其他一些对象应该很容易。
相机校准 - 虽然我一直在研究我的头部跟踪系统,但我从来没有设法用相同的结果校准相机两次......所以我决定使用我在 github 上找到的一些校准文件,它运行良好 - here你可以找到更多关于这个文件的链接的信息。
编辑:
尝试从尽可能简单的解决方案开始,在某些(甚至是简单的)情况下提供良好的结果。在我看来,一个好的开始是用教程 ( this one ) 中的打印棋盘替换测试环境中的一张纸并使其工作。从这个转移到你的问题会比从你的问题开始容易得多。尝试使用任何编程语言制作任何可行的解决方案 - 考虑使用 Python 或 C++ 版本的 OpenCV - 有比 Java 版本更多的教程/示例,并且将您的代码结果与某些工作代码的结果进行比较会使其更容易。当您有一些可行的解决方案时,请尝试修改它以适用于您的测试环境。有很多事情可能会导致它现在无法正常工作 - 点数不足,代码中甚至 OpenCV Java 包装器中的错误,结果的错误解释等......
编辑2:
使用您的代码中的点,我设法获得了以下结果:
rvec = [[-158.56293283], [ 1.46777938], [ -17.32569125]]
tvec = [[ -36.23910413], [ -82.83704819], [ 266.03157578]]
points2d
的最后一行来自
(355,37), (353,72), (353,101)
到
(355,37), (355,72), (355,101)
rvec = [[-159.34101842], [ 1.04951033], [ -11.43731376]]
tvec = [[ -25.74308282], [ -82.58461674], [ 268.12321097]]
180.0/3.14
- 在 C++ 和 python 中,solvePnPRansac 返回的 rvec vector 包含以弧度表示的角度。
关于java - 如何使用 3d-to-2d-point-correspondences 估计相机姿势(使用 opencv),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29035653/
我想计算或至少估计放置在相机/kinect 前面的物体的体积。知道我应该从哪里开始吗?你推荐 OpenCV 吗?您是否推荐任何其他技术,例如声纳/激光? 最佳答案 一直在用 OpenCV 2.3 编写
我想知道 MySQL 对表中总行数的 TABLE_ROWS 估计值是否有限制或保证误差范围? 最佳答案 如果它与 SHOW TABLE STATUS 发出的数字类似,则至少会偏差 +/- 40%,有时
我们都曾 mock 过“还剩 X 分钟”的对话框,它似乎过于简单,但我们如何改进它呢? 实际上,输入是截至当前时间的一组下载速度,我们需要使用它来估计完成时间,也许带有确定性指示,例如使用一些 Y%
我们都曾 mock 过“还剩 X 分钟”的对话框,它似乎过于简单,但我们如何改进它呢? 实际上,输入是截至当前时间的一组下载速度,我们需要使用它来估计完成时间,也许带有确定性指示,例如使用一些 Y%
我的理解是 glmnet 采用矩阵,其中每一列都是一个解释变量。 我有一个包含约 10 个解释变量的数据框(其中一些是因子) 我怎样才能使用诸如 y~(x1*x2*x3)+(x4*x5)+x6 之类的
有没有办法估计运行 R 的时间?命令而不实际运行它或仅部分运行命令? 我知道 system.time()存在但需要运行整个命令然后它给出了花费的时间。 最佳答案 还有http://www.ats.uc
在尝试使用 libGD 在 PHP 中调整图像大小之前,我想检查是否有足够的内存来执行操作,因为“内存不足”会完全杀死 PHP 进程并且无法被捕获。 我的想法是,原始图像和新图像中的每个像素 (RGB
我有一些 VHDL 文件,我可以在 Debian 上用 ghdl 编译它们。一些人已将相同的文件改编为 ASIC 实现。算法有一个“大面积”实现和一个“紧凑”实现。我想编写更多实现,但要评估它们,我需
我在 Amazon EC2 上使用 RStudio 0.97.320 (R 2.15.3)。我的数据框有 20 万行和 12 列。 我正在尝试使用大约 1500 个参数来拟合逻辑回归。 R 使用 7%
我目前正在估算一个新项目。假设只有一名开发人员在处理它,我的高水平估计是 25 周。 实际上会有两个开发人员并行工作。减少估计的什么因素是合理的? (我意识到不会是0.5) 最佳答案 根据原始开发人员
我试图更好地理解创建 Postgres 索引所涉及的权衡。作为其中的一部分,我很想了解通常使用多少空间索引。我已通读 the docs ,但找不到这方面的任何信息。我一直在做自己的小实验来创建表和索引
我对 Azure 平台相当陌生,需要一些有关 Azure 搜索服务成本估算的帮助。每个月我们都会有大约 500GB 的文件被放入 Azure Blob 存储中。我们希望仅根据文件名使用 Azure 搜
我正在尝试最大化横截面面板数据中的数据点数量。我的矩阵结构如下,y 轴为年份,x 轴为国家/地区: A B C D 2000 NA 50 NA
如果我有两个时间序列,例如: t f1 #[1] 0.25 #> f2 #[1] 0.25 f phase_difference #[1] 0.5 这意味着时间序列相移 pi/2,因为它们应该根据
我对 Azure 平台相当陌生,需要一些有关 Azure 搜索服务成本估算的帮助。每个月我们都会有大约 500GB 的文件被放入 Azure Blob 存储中。我们希望仅根据文件名使用 Azure 搜
我使用了以下 R 包:mice、mitools 和 pROC。 基本设计:3 个预测变量度量,在 n~1,000 的数据缺失率在 5% 到 70% 之间。 1 个二进制目标结果变量。 分析目标:确定
如何使用 lsmeans 来估计两个成对对比的差异?例如——想象一个连续的 dv 和两个因子预测变量 library(lsmeans) library(tidyverse) dat % fac
我制作了一个使用 BigDecimal 的科学计算器。它有一个特别消耗资源的功能:阶乘。现在,输入任何数字都会启动计算。根据运行此代码的设备,答案会在不同的时间显示。输入像 50000 这样的巨大值!
我已经发出了 sympy 命令来求解某个方程或另一个方程。现在已经好几天了,我不知道什么时候能完成。 我可以使用 sympy 来记录调用 .solvers.solve 的进度吗?如果不是,我如何估计
最近我得到了一些 error C6020: Constant register limit exceeded at variable; more than 1024 registers needed
我是一名优秀的程序员,十分优秀!