gpt4 book ai didi

windows - FFMPEG 帧到 DirectX 表面硬件加速

转载 作者:可可西里 更新时间:2023-11-01 14:23:57 24 4
gpt4 key购买 nike

我使用 ffmpeg 函数解码 h264 帧并在 windows 平台上的窗口中显示。我使用的方法如下(来自 FFMPEG Frame to DirectX Surface ):

AVFrame *frame;
avcodec_decode_video(_ffcontext, frame, etc...);

lockYourSurface();
uint8_t *buf = getPointerToYourSurfacePixels();

// Create an AVPicture structure which contains a pointer to the RGB surface.
AVPicture pict;

memset(&pict, 0, sizeof(pict));

avpicture_fill(&pict, buf, PIX_FMT_RGB32,
_ffcontext->width, _ffcontext->height);



// Convert the image into RGB and copy to the surface.
img_convert(&pict, PIX_FMT_RGB32, (AVPicture *)frame,
_context->pix_fmt, _context->width, _context->height);


unlockYourSurface();

在代码中,我使用 sws_scale 而不是 img_convert。

当我将表面数据指针传递给 sws_scale(实际上在 avpicture_fill 中)时,似乎数据指针实际上是在 RAM 上而不是在 GPU 内存上,当我要显示表面时,数据似乎被移动了到GPU然后显示。据我所知,当在 RAM 和 GPU 内存之间复制数据时,CPU 利用率很高。

我如何调用 ffmpeg 直接渲染到 GPU 内存上的表面(而不是 RAM 上的数据指针)?

最佳答案

我找到了这个问题的答案。为了防止在使用 ffmpeg 显示帧时使用额外的 CPU,我们不得将帧解码为 RGB。几乎所有的视频文件都被解码为 YUV(这是视频文件中的原始图像格式)。这里的重点是GPU可以直接显示YUV数据而不需要将其转换为RGB。据我所知,使用 ffmpeg 普通版本,解码数据总是在 RAM 上。对于一帧,与相同帧的 RGB 解码等价物相比,YUV 数据量非常小。所以当我们将 YUV 数据移动到 GPU 而不是转换为 RGB 然后再移动到 GPU 时,我们从两个方面加速了操作:

  1. 不转换为 RGB
  2. 在 RAM 和 GPU 之间移动的数据量减少了

所以最终整体 CPU 使用率降低了。

关于windows - FFMPEG 帧到 DirectX 表面硬件加速,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29037324/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com