gpt4 book ai didi

linux - 我如何远程处理(低延迟)Raspicam 输出?

转载 作者:IT王子 更新时间:2023-10-29 00:43:45 26 4
gpt4 key购买 nike

由于 Raspberry Pi 的处理能力有限,我需要在远程机器上处理相机输出。 native 是Linux服务器,应该使用OpenCV来处理视频数据。

我找到了一种解决方案,该解决方案在技术上可行,但在 1280x720 分辨率下会产生约 10 秒的延迟,在 640x360 分辨率下会产生约 17 秒的高延迟。这可能是某些缓冲区大小太大造成的?

到目前为止,我的解决方案:

首先在Raspberry PI上使用raspivid命令采集视频,将此数据输出到标准输出并使用netcat传输:

raspivid --timeout 0 --nopreview --intra 2 --width 1280 --height 720 --framerate 20 --output - | nc 192.168.1.108 5555

然后在接收部分(实际上是在发送前调用):

nc -l -p 5555 | ./receiver

其中接收方是具有以下源代码的 C++ 应用程序:

#include <opencv2/highgui/highgui.hpp>
#include <iostream>

int main()
{
cv::VideoCapture cap("/dev/stdin");

if(!cap.isOpened())
{
std::cout << "Could not open '/dev/stdin'!" << std::endl;
return -1;
}

cv::namedWindow("Receiver");
cv::Mat frame;

while(cap.read(frame))
{
cv::imshow("Receiver", frame);
cv::waitKey(30);
}

cv::waitKey(0);
return 0;
}

问题

如何将我的 raspicam 输出传输到 (Linux) 服务器,并能够使用支持 OpenCV 的 C++ 应用程序处理此数据。要求帧传输和该帧的实际处理之间的低延迟(<400 毫秒是可接受的)。

编辑:还需要高分辨率(1280x720 或更高)。

如果有任何错误,请原谅我的英语!

最佳答案

您可以使用 QWebSockets (Qt5)。您只需要将图片从 cv::Mat 转换为 QByteArray 并进行流式传输。在 720p 下,我通过 LAN 连接获得了将近 15 FPS。

关于linux - 我如何远程处理(低延迟)Raspicam 输出?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23474161/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com