gpt4 book ai didi

multithreading - OpenGL:单独线程上的 glClientWaitSync

转载 作者:行者123 更新时间:2023-12-01 03:37:05 29 4
gpt4 key购买 nike

我使用带有 GL_MAP_UNSYNCHRONIZED_BIT 的 glMapBufferRange 来映射缓冲区对象。然后我将返回的指针传递给工作线程以异步计算新顶点。对象是双重缓冲的,因此我可以在写入另一个对象时渲染一个对象。使用 GL_MAP_UNSYNCHRONIZED_BIT 给了我明显更好的性能(主要是因为 glUnmapBuffer 返回得更快),但我得到了一些视觉伪影(尽管有双缓冲) - 所以我假设 GPU 在 DMA 上传仍在进行时开始渲染,或者工作线程过早地开始写入顶点。
如果我正确理解 glFenceSync、glWaitSync 和 glClientWaitSync,那么我应该通过以下方式解决这些问题:

A:避免在 DMA 过程完成之前让 GPU 渲染缓冲区对象:
直接在 glUnmapBufferRange 之后,在主线程上调用

GLsync uploadSync = glFenceSync(GL_SYNC_GPU_COMMANDS_COMPLETE, 0);
glFlush();
glWaitSync(uploadSync, 0, GL_TIMEOUT_IGNORED);

B:避免在 GPU 完成渲染之前从工作线程写入缓冲区:
在 glDrawElements 之后直接调用主线程
GLsync renderSync = glFenceSync(GL_SYNC_GPU_COMMANDS_COMPLETE, 0);

在工作线程上,就在开始将数据写入先前从 glMapBufferRange 返回的指针之前
glClientWaitSync(renderSync,0,100000000);
...start writing to the mapped pointer

1:我的显式同步方法正确吗?

2:我该如何处理第二种情况?我想在工作线程中等待(我不想让我的主线程停顿),但我无法从工作线程发出 glCommands。除了 gl 调用之外,还有其他方法可以检查 GLsync 是否已发出信号?

最佳答案

您可以做的是在工作线程中创建一个 OpenGL 上下文,然后与主线程共享它。下一个:

Run on the main thread:

GLsync renderSync = glFenceSync(GL_SYNC_GPU_COMMANDS_COMPLETE, 0);
glFlush();

然后

Run on the worker thread:

glClientWaitSync(renderSync,0,100000000);
glFlush在主线程上很重要,否则您可能会无限等待。另见 OpenGL docs :

4.1.2 Signaling

Footnote 3: The simple flushing behavior defined by SYNC_FLUSH_COMMANDS_BIT will not help when waiting for a fence command issued in another context’s command stream to complete. Applications which block on a fence sync object must take additional steps to assure that the context from which the corresponding fence command was issued has flushed that command to the graphicspipeline.

关于multithreading - OpenGL:单独线程上的 glClientWaitSync,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33640702/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com