- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
最近,我在尝试使用带有 imx6 处理器和 MIPI-CSI 摄像头的板来传输视频。
我们的目标是通过 RTP 协议(protocol)传输视频 (1920x1080@30fps),我们使用 gstreamer 管道实现了这一点。要传输的命令管道是:
gst-launch-1.0 imxv4l2videosrc device=/dev/video1 imx-capture-mode=2 ! imxvpuenc_h264 quant-param=29 ! rtph264pay mtu=60000 ! udpsink host=10.42.0.1 port=5000 sync=false
该命令传输分辨率为 1920x108 的视频(imx-capture-mode=2 参数)。
然后从 PC (10.42.0.1) 我们使用以下命令捕获视频(通过端口 5000):
gst-launch-1.0 -v udpsrc port=5000 ! application/x-rtp, media=video, clock-rate=90000, encoding-name=H264, payload=96 ! rtph264depay ! avdec_h264 ! fpsdisplaysink text-overlay=false sync=false &
而且视频的流畅度非常好。
但是现在,我们想在传输视频之前对其进行处理,因为摄像机在移动,我们需要添加一些算法来减少由于抖动引起的噪声。
换句话说,主要思想是:从相机中获取视频->处理视频->传输到RTP。所有这些都使用带有 imx6 的电路板。
该开发板基于 linux yocto 项目,它具有启用了 gstreamer 插件的 opencv 3.1。我们的想法是使用 opencv 和 gstreamer 管道获取视频,处理并传输它......但首先我们做了一些测试,获取视频并在不处理的情况下传输它,但是当我们从 PC 上捕获视频时,它非常慢和延迟...
我们想知道这是否是实现我们目标的正确方法。这是我们使用的源代码:
#include <QCoreApplication>
#include <QDebug>
#include <opencv2/opencv.hpp>
#include <opencv2/video.hpp>
int main(int argc, char *argv[])
{
QCoreApplication a(argc, argv);
cv::VideoCapture cap("imxv4l2videosrc device=/dev/video1 imx-capture-mode=2 ! videoconvert ! appsink");
Q_ASSERT(cap.isOpened());
if(!cap.isOpened())
{
qDebug() << "Error with the video capturer";
a.exit(-1);
}
cv::Mat frame;
cap >> frame; //Dummy read
double frame_width= cap.get(CV_CAP_PROP_FRAME_WIDTH);
double frame_height= cap.get(CV_CAP_PROP_FRAME_HEIGHT);
cv::VideoWriter writer;
writer.open("appsrc ! videoconvert ! imxvpuenc_h264 quant-param=29 ! rtph264pay mtu=60000 ! udpsink host=10.42.0.1 port=5000 sync=false",
0,30,cv::Size(frame_width,frame_height));
if(!writer.isOpened())
{
qDebug() << "Error video writer";
a.exit(-1);
}
while(true) {
cap.read(frame);
if(frame.empty())
break;
writer.write(frame);
cv::waitKey(33);
}
return a.exec();
}
最佳答案
我猜您的视频速度变慢的原因是视频格式转换。 OpenCv 从 gstreamer appsink
元素获取 BGR
格式的视频。如果您的 imxv4l2videosrc
输出不同的格式(例如 UYVY
或 I420
),videoconvert
元素将必须执行大量的计算。在某些情况下,这些计算使用了超过 100% 的 CPU,这会减慢您的输入流。
您可以通过在管道末尾添加 -v
来检查原始管道使用的格式。
gst-launch-1.0 imxv4l2videosrc device=/dev/video1 imx-capture-mode=2 ! imxvpuenc_h264 quant-param=29 ! rtph264pay mtu=60000 ! udpsink host=10.42.0.1 port=5000 sync=false -v
我们可以通过降低分辨率来测试视频转换是否正在减慢您的系统。您能否通过将分辨率降低到 1280x720
或 640x360
再试一次,并检查您的 CPU 使用率?
如果是这种情况,我们可以从 imxv4l2videosrc
请求不同格式的输出。我没有使用过那个元素,我不知道它的功能。但是您可以使用 gst-inspect-1.0
命令检查功能。
gst-inspect-1.0 imxv4l2videosrc
输出会有这样的部分
Pad Templates:
SRC template: 'src'
Availability: Always
Capabilities:
video/x-raw
format: { (string)RGB16, (string)BGR, (string)RGB, (string)GRAY8, (string)GRAY16_LE, (string)GRAY16_BE, (string)YVU9, (string)YV12, (string)YUY2, (string)YVYU, (string)UYVY, (string)Y42B, (string)Y41B, (string)YUV9, (string)NV12_64Z32, (string)NV24, (string)NV61, (string)NV16, (string)NV21, (string)NV12, (string)I420, (string)BGRA, (string)BGRx, (string)ARGB, (string)xRGB, (string)BGR15, (string)RGB15 }
width: [ 1, 32768 ]
height: [ 1, 32768 ]
framerate: [ 0/1, 2147483647/1 ]
BGRx
、“RGB”或“xRGB”等具有 B、G 和 R channel 的格式将对您有用且速度快。
关于opencv - 在 imx6 板上处理视频和传输的最佳方式是什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53329509/
对于 Metal ,如果对主纹理进行 mipmap 处理,是否还需要对多采样纹理进行 mipmap 处理?我阅读了苹果文档,但没有得到任何相关信息。 最佳答案 Mipmapping 适用于您将从中
我正在使用的代码在后端 Groovy 代码中具有呈现 GSP(Groovy 服务器页面)的 Controller 。对于前端,我们使用 React-router v4 来处理路由。我遇到的问题是,通过
我们正在 build 一个巨大的网站。我们正在考虑是在服务器端(ASP .Net)还是在客户端进行 HTML 处理。 例如,我们有 HTML 文件,其作用类似于用于生成选项卡的模板。服务器端获取 HT
我正在尝试将图像加载到 void setup() 中的数组中,但是当我这样做时出现此错误:“类型不匹配,'processing .core.PImage' does not匹配“processing.
我正在尝试使用其私有(private)应用程序更新 Shopify 上的客户标签。我用 postman 尝试过,一切正常,但通过 AJAX,它带我成功回调而不是错误,但成功后我得到了身份验证链接,而不
如何更改我的 Processing appIconTest.exe 导出的默认图标在窗口中的应用程序? 默认一个: 最佳答案 经过一些研究,我能找到的最简单的解决方案是: 进入 ...\process
我在 Processing 中做了一个简单的小游戏,但需要一些帮助。我有一个 mp3,想将它添加到我的应用程序中,以便在后台循环运行。 这可能吗?非常感谢。 最佳答案 您可以使用声音库。处理已经自带
我有几个这样创建的按钮: 在 setup() PImage[] imgs1 = {loadImage("AREA1_1.png"),loadImage("AREA1_2.png"),loadImage
我正在尝试使用 Processing 创建一个多人游戏,但无法弄清楚如何将屏幕分成两个以显示玩家的不同情况? 就像在 c# 中一样,我们有Viewport leftViewport,rightView
我一直在尝试使用 Moore 邻域在处理过程中创建元胞自动机,到目前为止非常成功。我已经设法使基本系统正常工作,现在我希望通过添加不同的功能来使用它。现在,我检查细胞是否存活。如果是,我使用 fill
有没有办法用 JavaScript 代码检查资源使用情况?我可以检查脚本的 RAM 使用情况和 CPU 使用情况吗? 由于做某事有多种方法,我可能会使用不同的方法编写代码,并将其保存为两个不同的文件,
我想弄清楚如何处理这样的列表: [ [[4,6,7], [1,2,4,6]] , [[10,4,2,4], [1]] ] 这是一个整数列表的列表 我希望我的函数将此列表作为输入并返回列表中没有重复的整
有没有办法在不需要时处理 MethodChannel/EventChannel ?我问是因为我想为对象创建多个方法/事件 channel 。 例子: class Call { ... fields
我有一个关于在 Python3 中处理 ConnectionResetError 的问题。这通常发生在我使用 urllib.request.Request 函数时。我想知道如果我们遇到这样的错误是否可
我一直在努力解决这个问题几个小时,但无济于事。代码很简单,一个弹跳球(粒子)。将粒子的速度初始化为 (0, 0) 将使其保持上下弹跳。将粒子的初始化速度更改为 (0, 0.01) 或任何十进制浮点数都
我把自己弄得一团糟。 我想在我的系统中添加 python3.6 所以我决定在我的 Ubuntu 19.10 中卸载现有的。但是现在每次我想安装一些东西我都会得到这样的错误: dpkg: error w
我正在努力解决 Rpart 包中的 NA 功能。我得到了以下数据框(下面的代码) Outcome VarA VarB 1 1 1 0 2 1 1 1
我将 Java 与 JSF 一起使用,这是 Glassfish 3 容器。 在我的 Web 应用程序中,我试图实现一个文件(图像)管理系统。 我有一个 config.properties我从中读取上传
所以我一直在Processing工作几个星期以来,虽然我没有编程经验,但我已经转向更复杂的项目。我正在编写一个进化模拟器,它会产生具有随机属性的生物。 最终,我将添加复制,但现在这些生物只是在屏幕上漂
有人知道 Delphi 2009 对“with”的处理有什么不同吗? 我昨天解决了一个问题,只是将“with”解构为完整引用,如“with Datamodule、Dataset、MainForm”。
我是一名优秀的程序员,十分优秀!