- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我测试了我的 ros2 节点是否从 reassense ROS2 节点准确订阅/camera/depth/image_rect_raw 主题。我将一个 realsense 相机连接到 TX2 板并配置为 15 fps。但是,我预计订阅/camera/depth/image_rect_raw 的速率应该类似于 15 hz,但它如下所示不同。为什么发布和订阅图片主题会存在速率差异?是否可以将订阅率与发布率相匹配?
$ ros2 主题 hz/camera/depth/image_rect_raw
平均比率:10.798
min: 0.040s max: 0.144s std dev: 0.03146s window: 13
平均汇率:8.610
min: 0.040s max: 0.357s std dev: 0.06849s window: 22
平均比率:8.085
min: 0.040s max: 0.357s std dev: 0.07445s window: 30
平均比率:9.498
min: 0.015s max: 0.357s std dev: 0.06742s window: 45
平均比率:9.552
min: 0.015s max: 0.415s std dev: 0.07555s window: 55
平均比率:9.265
min: 0.015s max: 0.415s std dev: 0.07543s window: 63
平均比率:8.510
min: 0.015s max: 0.415s std dev: 0.08619s window: 68
平均比率:7.940
min: 0.015s max: 0.480s std dev: 0.09757s window: 73
平均比率:7.539
min: 0.015s max: 0.480s std dev: 0.10456s window: 77
平均汇率:7.750
min: 0.015s max: 0.480s std dev: 0.09972s window: 87
最佳答案
差异很可能是由于将图像放入网络的传输延迟造成的。这种延迟的重要性取决于您的订阅者是在 Jetson 上运行还是在同一物理网络上的单独设备上运行。无论如何,我建议更改默认 QoS 策略以获得更好的视频流性能,例如设置 RELIABILITY=BEST_EFFORT
。也就是说,最大的改进(如果您通过网络流式传输)可能来自使用 image_transport_plugins
在发布图像之前压缩图像。虽然这些都是基于 CPU 的(theora 等),但它们可能会有所帮助。
另一件需要考虑的事情是使用 Jetson 中内置的压缩硬件加速器,尽管在 image_transport_plugins
的维护者或其他有进取心的开发人员完成这项工作之前,这将需要做更多的工作。
关于data-distribution-service - 为什么topic的帧率数和ROS2中的realsense image fps不一样,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/64021200/
有没有办法获得从Realsense获得的点云中的点到深度图中的像素的映射?点云是从深度图中获得的,但是没有有效深度数据的像素被排除在外。 Realsense API 仅提供将点映射到 RGB 像素的例
我有一个真实感相机,我正在尝试读取16位深度的图像。 我有一个问题-当我用16位值创建直接opencv mat时,我只能看到黑色图像。当我以255/1000的比例将16位图像转换为8位图像时,我得到了
对不起,我的英语不好,我也是新来的。 我有一个英特尔d435深度相机,一个覆盆子pi和一个diy rc风格的汽车,我在车上使用覆盆子pi来运行。我将aruco标记放置在房间的特定位置,并使用这些标记和
各位, 我有一个 realsense SR300,但是当我在 opencv 窗口中显示我的深度图像时,它看起来太暗了。我怎样才能解决这个问题?当我运行实感示例时,图像看起来不错,但这些示例使用 Ope
我目前正在开发一个同时使用 Intel RealSense R200 的颜色和深度流的程序。我想使用最低的深度分辨率 240p,因为它比更高分辨率的噪点更少。但是,当它与 1080p 分辨率 结合用于
我是一名实习生。他们给了我一个代码 (C++),它在 Kinect 的相机上。所以他们希望我将它转换为相机 Intel realsense 的等效代码。所以基本上我遇到了一个错误。 Cam1(IKin
我有一个深度相机(Intel Realsense L515 ),我喜欢录制深度视频。 我看过这个answer正在使用 FFMPEG ,但我不知道如何在我的情况下复制它! 我正在使用这段代码: impo
我有一个 RealSense::Image,我想调整它的大小。我无法从文档中了解如何操作。 我正在用 C++ 编写代码: Status result = pSenseManager->AcquireF
我在 Gazebo 环境中有一架无人机,上面装有 RealSense d435 摄像头。我的计划是使用YOLO找到一个感兴趣的物体的中心,然后从深度图像中找到那个点的深度。我听说深度相机输出的图像中的
我想加载一个已保存的 .rssdk 文件作为我的实感应用程序的输入。我从示例中看到了以下代码。 pxcCHAR fileName[1024] = { 0 }; PXCSenseManager *psm
我发现我可以用两种不同的方式创建PXCMSenseManager(正如我现在所想) 第一个: 创建 session 然后从中获取 senseManager var session = PXCMSess
我想用检测对象的 x,y 坐标计算深度距离。 在下图中,我使用 opencv 中的背景减法来检测和跟踪进入相机 View 的新对象。我能够相对轻松地获得 x、y 坐标,但无法使用 realsense
我正在尝试使用带有 librealsense 的 Intel Realsense sdk2 的基本 C++ 程序Qt Creator 上的库。我的 .pro 文件如下所示 INCLUDEPATH +=
我想做的是修改通过 PXCSManager::QuerySample() 获取的深度图像,然后将其映射到以相同方式获取的彩色图像。 这就是我正在做的: void SampleProcessor::Ca
我将 RGB 数据作为 rs2::frame,我将其转换为 cv::Mat 并通过 TCP 连接发送,在服务器(接收器)端我将缓冲区存储到 cv::Mat 中。我的问题是如何在接收方将 cv::Mat
错误信息: opt/ros/noetic/lib/nodelet/nodelet: symbol lookup error: /home/ubuntu/catkin_ws/devel/lib//lib
我目前正在使用 d435,我想按照我的代码显示红外图像(左侧和右侧,但目前只关注一个): import pyrealsense2 as rs import numpy as np import cv2
我正在尝试调整我的深度相机 (RealSense D435) 以获得更好/不同的深度数据。因此,我想尝试使用英特尔建议参数配置中的不同预设,如 the intel SDK 中所述。 .英特尔建议使用预
我是一名优秀的程序员,十分优秀!