- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我目前正在开发一个同时使用 Intel RealSense R200 的颜色和深度流的程序。我想使用最低的深度分辨率 240p,因为它比更高分辨率的噪点更少。但是,当它与 1080p 分辨率 结合用于颜色 流时,传感器出于某种原因突然停止获取帧。
详细而言,PXCSenseManager::AcquireFrame() 方法在返回错误代码 -301(即 “Execution由于上游组件中的错误而中止")。
更高的深度分辨率或更低的颜色分辨率似乎工作得很好,但会导致深度数据的噪声增加或颜色数据的质量下降。这个问题不仅出现在我的代码中,而且出现在官方 RSSDK,即 DF_RawStreams 和 DF_CameraViewer 中。
有没有人遇到过同样的问题,如果有,你知道解决方法吗?不幸的是,我还没有找到任何解决此类问题的方法。
我的电脑有以下规范:
非常感谢您
PS:这是我在 StackOverflow 上提出的第一个问题,所以我很感激任何反馈:) 谢谢!
最佳答案
我在 Intel 论坛上收到回复说:
Are you using Windows 10 Anniversary Update? It may be because of a bug in that causing some cameras to crash. Try running your app on a PC which hasn't updated in the last few weeks. Unfortunately, I'm not aware of any current fixes. Apparently, Microsoft are planning on pushing another update which fixes this issue (amongst others) sometime in September.
在检查其他未应用周年更新的 PC 时,该软件运行良好,没有任何崩溃。我想我应该等待微软提供修复相机崩溃问题的补丁。
但是,如果您对这个问题有任何意见,请随时回复:)
关于c++ - RealSense R200 在高色彩分辨率和低深度分辨率下崩溃,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39197638/
有没有办法获得从Realsense获得的点云中的点到深度图中的像素的映射?点云是从深度图中获得的,但是没有有效深度数据的像素被排除在外。 Realsense API 仅提供将点映射到 RGB 像素的例
我有一个真实感相机,我正在尝试读取16位深度的图像。 我有一个问题-当我用16位值创建直接opencv mat时,我只能看到黑色图像。当我以255/1000的比例将16位图像转换为8位图像时,我得到了
对不起,我的英语不好,我也是新来的。 我有一个英特尔d435深度相机,一个覆盆子pi和一个diy rc风格的汽车,我在车上使用覆盆子pi来运行。我将aruco标记放置在房间的特定位置,并使用这些标记和
各位, 我有一个 realsense SR300,但是当我在 opencv 窗口中显示我的深度图像时,它看起来太暗了。我怎样才能解决这个问题?当我运行实感示例时,图像看起来不错,但这些示例使用 Ope
我目前正在开发一个同时使用 Intel RealSense R200 的颜色和深度流的程序。我想使用最低的深度分辨率 240p,因为它比更高分辨率的噪点更少。但是,当它与 1080p 分辨率 结合用于
我是一名实习生。他们给了我一个代码 (C++),它在 Kinect 的相机上。所以他们希望我将它转换为相机 Intel realsense 的等效代码。所以基本上我遇到了一个错误。 Cam1(IKin
我有一个深度相机(Intel Realsense L515 ),我喜欢录制深度视频。 我看过这个answer正在使用 FFMPEG ,但我不知道如何在我的情况下复制它! 我正在使用这段代码: impo
我有一个 RealSense::Image,我想调整它的大小。我无法从文档中了解如何操作。 我正在用 C++ 编写代码: Status result = pSenseManager->AcquireF
我在 Gazebo 环境中有一架无人机,上面装有 RealSense d435 摄像头。我的计划是使用YOLO找到一个感兴趣的物体的中心,然后从深度图像中找到那个点的深度。我听说深度相机输出的图像中的
我想加载一个已保存的 .rssdk 文件作为我的实感应用程序的输入。我从示例中看到了以下代码。 pxcCHAR fileName[1024] = { 0 }; PXCSenseManager *psm
我发现我可以用两种不同的方式创建PXCMSenseManager(正如我现在所想) 第一个: 创建 session 然后从中获取 senseManager var session = PXCMSess
我想用检测对象的 x,y 坐标计算深度距离。 在下图中,我使用 opencv 中的背景减法来检测和跟踪进入相机 View 的新对象。我能够相对轻松地获得 x、y 坐标,但无法使用 realsense
我正在尝试使用带有 librealsense 的 Intel Realsense sdk2 的基本 C++ 程序Qt Creator 上的库。我的 .pro 文件如下所示 INCLUDEPATH +=
我想做的是修改通过 PXCSManager::QuerySample() 获取的深度图像,然后将其映射到以相同方式获取的彩色图像。 这就是我正在做的: void SampleProcessor::Ca
我将 RGB 数据作为 rs2::frame,我将其转换为 cv::Mat 并通过 TCP 连接发送,在服务器(接收器)端我将缓冲区存储到 cv::Mat 中。我的问题是如何在接收方将 cv::Mat
错误信息: opt/ros/noetic/lib/nodelet/nodelet: symbol lookup error: /home/ubuntu/catkin_ws/devel/lib//lib
我目前正在使用 d435,我想按照我的代码显示红外图像(左侧和右侧,但目前只关注一个): import pyrealsense2 as rs import numpy as np import cv2
我正在尝试调整我的深度相机 (RealSense D435) 以获得更好/不同的深度数据。因此,我想尝试使用英特尔建议参数配置中的不同预设,如 the intel SDK 中所述。 .英特尔建议使用预
我是一名优秀的程序员,十分优秀!