gpt4 book ai didi

c - 从内存创建的 SDL 纹理仅以黑白渲染

转载 作者:行者123 更新时间:2023-11-30 14:46:52 25 4
gpt4 key购买 nike

我正在尝试将游戏从 DDraw 移植到 SDL2。

原始程序加载图像并将它们传输到后备缓冲区,然后将其翻转到主缓冲区。

我认为我可以在技术上缩短该过程的一部分,只需抓取内存中的后缓冲区,然后将其转换为纹理并将其传输到屏幕。这种工作已经可以了,唯一的问题是屏幕是黑白的。

这是一些代码。保存后备缓冲区的变量是 destmemarea

if (SDL_Init(SDL_INIT_EVERYTHING) != 0) {
SDL_Log("Unable to initialize SDL: %s", SDL_GetError());
}

SDL_Window* window = NULL;
SDL_Texture *bitmapTex = NULL;
SDL_Surface *bitmapSurface = NULL;
SDL_Surface *MySurface = NULL;

SDL_DisplayMode DM;
SDL_GetCurrentDisplayMode(0, &DM);
auto Width = DM.w;
auto Height = DM.h;

window = SDL_CreateWindow("SDL Tutorial ", Width = DM.w - SCREEN_WIDTH, 32, SCREEN_WIDTH *4, SCREEN_HEIGHT, SDL_WINDOW_SHOWN);
if (window == NULL)
{
printf("Window could not be created! SDL_Error: %s\n", SDL_GetError());
}

SDL_Renderer * renderer = SDL_CreateRenderer(window, -1, 0);

int w, h;
SDL_GetRendererOutputSize(renderer, &w, &h);

SDL_Surface * image = SDL_CreateRGBSurfaceFrom( destmemarea, 640, 0, 32, 640, 0, 0, 0,0);

SDL_Texture * texture = SDL_CreateTextureFromSurface(renderer, image);

SDL_RenderCopy(renderer, texture, NULL, NULL);
SDL_RenderPresent(renderer);

SDL_Delay(10000);
SDL_DestroyTexture(texture);
SDL_DestroyRenderer(renderer);
SDL_DestroyWindow(window);
}

不确定这是否有帮助,但这就是他看起来用于 DDRAW 堡垒的内容...

dd.dwWidth = 768;
dd.lPitch = 768;
dd.dwSize = 108;
dd.dwFlags = DDSD_PIXELFORMAT|DDSD_PITCH|DDSD_WIDTH|DDSD_HEIGHT|DDSD_CAPS;
dd.ddsCaps.dwCaps = DDSCAPS_SYSTEMMEMORY|DDSCAPS_OFFSCREENPLAIN;
dd.dwHeight = 656;
dd.ddpfPixelFormat.dwSize = 32;

最佳答案

所以,我不是 100% 确定我理解你想要做什么,但我有一些假设。

您说您正在从 DDraw 移植代码库,所以我假设您提到的后备缓冲区是您正在分配的内部后备缓冲区,并且在应用程序的其余部分中正在对其进行渲染。

如果我的假设是正确的,那么您当前的方法就是您需要做的,但需要为 SDL_CreateRGBSurfaceFrom 指定正确的参数

  • 宽度高度是...宽度和高度(以像素为单位)
  • 深度是单个像素中的位数。这取决于写入内存缓冲区的其余渲染代码。如果我们假设您正在执行标准 RGBA,其中每个 channel 都是 8 位,那么它就是 32 位。
  • pitch 是表面中单行的大小(以字节为单位) - 应等于宽度 *(深度/8)
  • 4 个掩码:RmaskGmaskBmaskAmask 描述了每个掩码如何您的深度大小的像素分配 channel 。同样,取决于您如何渲染到内存缓冲区以及目标平台的字节顺序。根据文档,有 2 种可能的标准布局:

    #if SDL_BYTEORDER == SDL_BIG_ENDIAN

    rmask = 0xff000000;
    gmask = 0x00ff0000;
    bmask = 0x0000ff00;
    amask = 0x000000ff;

    #else

    rmask = 0x000000ff;
    gmask = 0x0000ff00;
    bmask = 0x00ff0000;
    amask = 0xff000000;

    #endif

请务必不要忘记通过调用 SDL_FreeSurface() 来释放表面

话虽如此......我认为您从错误的角度解决了您的问题。正如我在评论中所述,SDL 为您处理双缓冲。您应该跳过中间人并直接绘制到 SDL 后台缓冲区,而不是使用渲染到内存中缓冲区的自定义代码,然后尝试从该内存创建表面并将其渲染到 SDL 后台缓冲区,然后调用 Present...。

这是通过各种 SDL 渲染函数完成的,RenderCopy 是其中的成员。你的渲染循环基本上应该做三件事:

  1. 调用SDL_RenderClear()

  2. 循环遍历要呈现在屏幕上的每个对象,并使用 SDL 渲染函数之一 - 在最常见的图像情况下,该函数为 SDL_RenderCopy。这意味着,在整个代码库中,加载图像,为它们创建 SDL_SurfaceSDL_Texture,保留它们,并在每个帧上调用 SDL_RenderCopySDL_RenderCopyEx

  3. 最后,每帧调用 SDL_RenderPresent 一次。这将交换缓冲区,并将图像呈现到屏幕上。

关于c - 从内存创建的 SDL 纹理仅以黑白渲染,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51879094/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com