- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我从事的项目涉及使用 Microsoft Kinect 创建对象的 3D 模型。我计划使用 Microsoft Kinect SDK、OpenNI 以不同角度捕获对象的云点,并使用 ICP 映射和创建对象的 3D。如果我在上面的陈述中有误,请纠正我。由于我在这方面是个业余爱好者,所以我真的不知道我的方向是否正确。
我的硬件详细信息是 - Microsoft Kinect、Windows 7 - 64 位、Microsoft Visual Studio 2010、Microsoft Kinect SDK、OpenNI、Primesense、NITE(全部使用 .exe 或自解压器安装,我没有使用 cmake...我有点厌倦了使用它!因为我遇到了很多错误!)
截至目前,我已经能够连接我的 Kinect 并使用一些在线演示教程,我能够查看 RGB 数据和 Kinect 的深度图。我正在阅读有关 OpenNI 的文章,但也没有取得太大进展。(有C++和C#的代码)现在的问题-
如何获取拍摄对象的每张图像的“云点”?我应该为此使用 OpenNi 吗?
获得每张图像的云点后,我打算运行 ICP 算法。我可以使用任何详细信息或链接来了解并实现它吗?
运行 ICP 算法后,我需要显示重新创建的 3D,那么我应该使用 Visual Studio 2010 本身来完成吗?
我遇到了一些像“Meshlab”这样的软件,它们可以帮助使用 .ply 文件创建 3D。.ply 数据是从 Kinect 的深度图获得的……这是我可以考虑的另一个方向吗?
谢谢阿迪亚
最佳答案
我对Kinect不是很熟悉,因为我没用过,但是http://borglabs.com/blog/create-point-clouds-from-kinect可能会有帮助。我似乎确实记得读过你会想要在 Kinect 中校准相机。 http://www.vision.caltech.edu/bouguetj/calib_doc/可能会让您在确定相机校准参数方面有一个良好的开端。 http://opencv.willowgarage.com/wiki/是一个 C++ 库,提供相机校准的 C/C++ 实现。 http://nicolas.burrus.name/index.php/Research/KinectRgbDemoV6看起来更像一个更特定于 Kinect 的解决方案。
http://vtk.org/提供 ICP 的实现。 http://pointclouds.org/也包含注册算法。
VTK 提供包装 OpenGL 的类,使数据可视化变得容易。也许我提到的其他一些库也可以做到这一点,但我对它们不太熟悉。
PLY 文件只是众多 3D 文件格式中的一种...它是一个通用容器,可以保存顶点坐标,以及通过连接顶点形成的多边形。同样,VTK 提供了用于读/写 PLY 以及许多其他 3D 文件格式的类。
关于c# - 使用OpenNI和Kinect获取云点,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/8292214/
很难说出这里要问什么。这个问题模棱两可、含糊不清、不完整、过于宽泛或夸夸其谈,无法以目前的形式得到合理的回答。如需帮助澄清此问题以便重新打开,visit the help center . 关闭 9
我用home通过kinect捕捉: capture.retrieve( depthMap, CV_CAP_OPENNI_DEPTH_MAP ) capture.retrieve( bgrImage,
我是图像处理新手。如何使用 Simple OpenNI for Processing 中的 getUserPixels() 跟踪多个用户?这需要什么作为参数?我该如何设置此代码? 最佳答案 这个想法是
所以我知道这个问题之前已经完成,但其他大部分时间仍然是 OpenNI 和 Libfreenect 都被剥离的时候。我的问题是: 1)我想知道现在是什么状态。2)这两者之间的差异(优点,缺点和其他)3)
我是 OpenNI 的新手。当我使用 Visual Studio 2010 c++ 尝试 OpenNI 示例时,我遇到了这些错误: 1>kinect_first_try.obj : error LNK
我刚刚安装了 openNi 库并让我的 kinect 在我的电脑上工作。我的问题是我只是一个 c++ 编程新手。 我从这个页面复制了手部追踪代码: http://openni.org/Document
我正在尝试使用 OpenNI 从 Kinect 的音频流中获取峰值电平(分频电平或诸如此类)。 我找到了这些: http://openni.org/docs2/Reference/classxn_1_
我想知道是否有人能够在 java 中将 openni 与 opencv 结合使用?例如,您在 IplImage 等中获得深度流……我目前正在尝试这样做,但我不确定从哪里开始。 如果任何完成此操作的人想
我正在使用 OpenNI、OpenCv 2.4 和 Kinect 实现手指检测算法。问题是我不知道如何开始,我找到了一段代码并尝试运行它。但问题是 imgproc_c.h 有很多错误,如(未声明的 C
我需要生成自己的 ONI 文件,我项目中的科学深度图像不是使用 Kinect 等常规设备生成的。 我查看了他们的github,发现有两个库https://github.com/OpenNI/OpenN
谁能给我一些解决这个问题的提示? 我正在尝试编译 "Kinect Matlab" (在 Mac OS 10.7 上),在编译脚本中是以下行: mex('-v','-L/usr/lib/','-lOpe
我已经能够找到/创建一些代码,允许我从支持 OpenNI 的相机(具体来说是 Orbbec Astra S)打开深度和颜色流。除了与标准 OpenNI 查看器不同外,我的流将最近的点显示为最暗的颜色,
我正在考虑在我的一个项目中使用 Kinect,但我完全迷失在所有库之间。不知 Prop 体是什么。最重要的是,我正在阅读有关 OpenNI 和 OpenKinect 的内容。但不知道他们的关系/差异。
我正在尝试提取用户轮廓并将其放在我的图像上方。我能够制作一个 mask 并从 RGB 图像中剪切用户。但轮廓很乱。 问题是如何使蒙版更加精确(以适合真实用户)。我尝试过 ERODE-DILATE 过滤
我在 Linux 上使用点云库 1.7.2。尽管 pcd_write 示例有效,但 PCL 工作正常。 但是当尝试运行 openni_grabber 时,它会显示一个窗口屏幕,其中包含三个红色、绿色和
我正在尝试编译 cpp 文件,但编译器找不到包含目录。 当我这样做时,我收到错误: #include 我已经安装了 OpenNI 及其依赖项,并且正在使用带有 Raspbian 操作系统的 Rasp
所以,我一直在尝试设置我的系统,以便我可以在开发环境中从 kinect 获取视频流。到目前为止我的设置是这样的: Windows 7 32 位 OpenCV 2.3.1 Super Pack(我假设大
我编写了一个程序,用于在 OpenNI 中保存 Kinect 深度图像的所有深度帧。我使用了简单的查看器示例。没有保存所有帧的问题!!我运行我的程序 10 秒,虽然应用程序设置为 30fps,但只保存
可以在同一个项目中使用两者吗?实际上他们有不同的类(class)。 我想这样做是因为 OpenNI2 有 Microsoft Kinect 的驱动程序,但是库 PCL(点云库)还不能与这个版本的 Op
Kinect OpenNI library使用自定义视频文件格式来存储包含 rgb+d 信息的视频。这些视频的扩展名为 *.oni。我找不到关于 ONI 视频格式的任何信息或文档。 我正在寻找一种将传
我是一名优秀的程序员,十分优秀!