gpt4 book ai didi

java - 如何最有效地将像素数组渲染到 C++ 中的窗口?

转载 作者:塔克拉玛干 更新时间:2023-11-03 07:19:40 25 4
gpt4 key购买 nike

到目前为止,我一直在使用 SDL 2.0,将我的像素阵列复制到纹理中,然后在屏幕上渲染。我的渲染方法如下所示:

for (int i = 0; i < WIDTH*HEIGHT; i++){
pixels[i] = 0xFFFF0000;
//pixel Format: AARRGGBB
}
SDL_UpdateTexture(sdlTexture, NULL, pixels, 800 * sizeof(Uint32));

SDL_RenderClear(renderer);
SDL_RenderCopy(renderer, sdlTexture, NULL, NULL);
SDL_RenderPresent(renderer);

然后我测量了以纳秒为单位渲染一次所需的时间(通过 chrono),并将其与 java 中渲染像素的类似方式进行了比较:(像素数组存储“displayImage”的像素)

BufferStrategy bs = getBufferStrategy();
if (bs == null){
createBufferStrategy(3);
return;
}
screen.clear()
for (int i = 0; i < WIDTH*HEIGHT; i++){
pixels[i] = 0xFF0000;
//pixel Format: RRGGBB
}
Graphics2D g = (Graphics2D) bs.getDrawGraphics();
g.drawImage(displayImage,0,0,getWidth(),getHeight(),null);



g.dispose();
bs.show();

令人惊讶的是,然后我发现用 Java 渲染它需要大约 600.000 纳秒,用 C++ 渲染它大约需要 2.000.000 纳秒。

所以我的问题是,是否有一种更有效的方法来绘制像素阵列,就像我在屏幕上看到的那样,因为(我假设)C++ 应该比 Java 更快地渲染它。

这也是我测量时间的方式:C++:

auto start = std::chrono::steady_clock::now();

//render function

auto end = std::chrono::steady_clock::now();
auto result = std::chrono::duration_cast<std::chrono::nanoseconds>(end - start).count();
std::cout << result << std::endl;

Java:

long start = System.nanoTime();

//render function

long end = System.nanoTime();
long result = end - start;
System.out.println(result);

最佳答案

首先,应该注意的是,测量这么短的时间并不总是可靠的,因此应该对这些值持保留态度。即使 java 和 C++ 使用相同的系统计时器,也可能存在不相关的差异。

关于代码,SDL_UpdateTexture 会向内部缓冲区发出一个拷贝,因此速度有点慢。您应该改用 SDL_LockTextureSDL_UnlockTexture。这将允许直接访问内部缓冲区。

此外,在您的案例中您不需要清除屏幕,因为您的纹理跨越了整个屏幕,因此覆盖了所有内容。

如果你需要填充屏幕,只是一行,你可以使用汇编指令rep stos,它比循环快得多。使用 Visual C++,您可以使用 __stosd 为 uint32 发出 rep stos。这与 memset 类似,但适用于 uint32(您还拥有带 __stosw 的 uint16 版本和带 __stosq 的 uint64,仅限 x64)。有等效的 __movsd 来制作拷贝,但实现良好的 memcpy 可以更快。

关于java - 如何最有效地将像素数组渲染到 C++ 中的窗口?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28279242/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com