- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我需要流式传输纹理(本质上是相机供稿)。
使用对象流,似乎会出现以下情况:
新对象的数据存储区是否比旧对象的数据存储区更大,更小或相同?
正在更新子集或整个纹理?
我们是在流缓冲对象还是纹理对象(有什么区别吗?)
以下是我遇到的以下方法:
分配对象数据存储(用于缓冲区的BufferData或用于纹理的TexImage2D),然后分配每个帧,使用BufferSubData或TexSubImage2D更新数据子集
在上次使用该对象的调用(例如绘制)之后,使对象无效/无效:
空值化:glTexSubImage2D(...,NULL),glBufferSubData(...,NULL)
无效:glBufferInvalidate(),glMapBufferRange与GL_MAP_INVALIDATE_BUFFER_BIT,glDeleteTextures?
使用新数据简单地重新调用BufferData或TexImage2D
手动实现对象多缓冲/缓冲ping-ponging。
最直接的问题是,整个纹理被相同大小的新纹理替换。我该如何实施? (1)会隐式同步吗? (2)是否避免同步? (3)是否将同步对象或为对象分配新的数据存储,以便可以在不等待使用旧对象状态完成的所有绘图完成的情况下上传更新信息?相信来自Red Book V4.3的这段话:
也可以使用以下命令在缓冲区对象之间复制数据
glCopyBufferSubData()函数。而不是组装数据块
在使用glBufferSubData()的一个大型缓冲区对象中,可以
使用glBufferData()将数据上传到单独的缓冲区中,然后
从这些缓冲区复制到更大的缓冲区,使用
glCopyBufferSubData()。根据OpenGL的实现,它可能
能够重叠这些副本,因为每次您致电
缓冲区对象上的glBufferData(),它将使任何内容无效
可能曾经去过那里。因此,OpenGL有时可以
为您的数据分配一个全新的数据存储,即使是副本
先前商店的操作尚未完成。然后它将
稍后释放旧存储。
但是,如果是这样,为什么需要(2)[nullify / invalidates]?
另外,请牢记以下问题,同时讨论以上方法以及其他方法及其在各种情况下的有效性:
是否发生与对象的隐式同步(即,将更新与OpenGL的使用同步)
内存使用情况
速度
我已经读过http://www.opengl.org/wiki/Buffer_Object_Streaming,但是它没有提供明确的信息。
最佳答案
让我尝试至少回答您提出的几个问题。
您所讨论的方案可能会对不同方法的性能产生重大影响,尤其是在考虑有关缓冲区动态大小的第一点时。在您的视频流场景中,大小几乎不会改变,因此可能会对您使用的数据结构进行更昂贵的“重新配置”。如果大小每帧或每几帧改变一次,通常是不可行的。但是,如果可以实施合理的最大大小限制,那么仅使用具有最大大小的缓冲区/纹理可能是一个不错的策略。无论是使用缓冲区还是使用纹理,都不必使用所有空间(尽管在使用纹理时,如包裹模式,存在一些较小的问题)。
3,我们是在流缓冲对象还是纹理对象(有什么区别吗?)
好吧,有效地向GL传输图像数据或从GL传输图像数据的唯一方法是使用像素缓冲区对象(PBO)。因此,无论顶点数据,图像数据还是任何要传输的数据,您始终都必须首先处理缓冲区对象。在纹理情况下,缓冲区只是一些glTex*Image()
调用的源,当然,您需要一个纹理对象。
让我们来看一下您的方法:
在方法(1)中,使用更新命令的“ Sub”变体。在这种情况下,现有对象的(部分或全部)存储将被更新。如果旧数据仍在使用中,则可能触发隐式同步。 GL基本上只有两个选择:根据数据完成所有操作(可能),或者对新数据进行中间复制并让客户端继续。从性能的角度来看,这两个选项均不好。
在方法(2)中,您有一些误解。更新命令的“ Sub”变体将永远不会使您的缓冲区无效/孤立。 “ non-sub” glBufferData()
将为该对象创建一个全新的存储,并将其与NULL
用作数据指针将使该存储未初始化。在内部,GL实现可能会重用一些用于较早的缓冲区存储的内存。因此,如果您采用这种方案,那么如果您始终使用相同的缓冲区大小,则有可能会最终使用相同内存区域的环形缓冲区。
您提到的其他无效方法还可以使缓冲区的某些部分无效,并且可以更精细地控制所发生的事情。
方法(3)与(2)在glBufferData()
方面基本相同,但是您只需要在此阶段直接指定新数据。
方法(4)是我实际上建议的方法,因为它可以使应用程序对正在发生的事情有最大的控制权,而不必依赖GL实现的特定内部工作。
在不考虑同步的情况下,更新命令的“ sub”变体为
即使要更改整个数据存储,而不仅仅是某些部分,也可以提高效率。这是因为命令的“ non-sub”变体基本上会重新创建存储并为此带来一些开销。通过手动管理环形缓冲区,您可以避免任何上述开销,并且您不必依靠GL来变得聪明,只需使用更新功能的“ sub”变体即可。同时,您可以通过仅更新GL不再使用的缓冲区来避免隐式同步。该方案也可以很好地扩展到多线程方案中。您可以有一个(或几个)带有独立(但共享)GL上下文的额外线程来为您填充缓冲区,并在更新完成后立即将缓冲区处理传递给绘图线程。您也可以仅在绘制线程中映射缓冲区,然后由工作线程填充(完全不需要其他GL上下文)。
OpenGL 4.4引入了GL_ARB_buffer_storage,随之而来的是GL_MAP_PERSISTEN_BIT
的glMapBufferRange
。这样,您就可以在GL使用它们的同时保留所有缓冲区的映射-因此,您可以避免一次又一次地将缓冲区映射到地址空间的开销。然后,您将根本没有隐式同步-但是您必须手动同步操作。 OpenGL的同步对象(请参见GL_ARB_sync)可能会帮助您解决问题,但是同步的主要负担在于应用程序逻辑本身。将视频流传输到GL时,只需避免立即重新使用作为glTexSubImage()
调用源的缓冲区,并尝试尽可能长时间地延迟其重新使用。当然,您还需要将吞吐量与延迟进行权衡。如果需要最小化延迟,则可能需要稍微调整此逻辑。
比较“内存使用”的方法确实很困难。这里有很多实现特定的细节需要考虑。 GL实现可能会保留一些旧的缓冲存储器一段时间,以完全满足相同大小的重新创建请求。此外,GL实现可能会随时制作任何数据的卷影副本。原则上,始终不孤立并重新创建存储的方法原则上公开了对正在使用的内存的更多控制。
“速度”本身也不是一个非常有用的指标。根据应用程序的要求,您基本上必须在此处平衡吞吐量和延迟。
关于opengl - OpenGL纹理和对象流,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24559905/
在 OpenGL/ES 中,在实现渲染到纹理功能时,您必须小心,不要引起反馈循环(从正在写入的同一纹理中读取像素)。由于显而易见的原因,当您读取和写入纹理的相同像素时,行为是未定义的。但是,如果您正在
正如我们最终都知道的那样,规范是一回事,实现是另一回事。大多数错误是我们自己造成的,但有时情况并非如此。 我相信列出以下内容会很有用: GPU 驱动程序中当前已知的与最新版本的 OpenGL 和 GL
很难说出这里问的是什么。这个问题是模棱两可的、模糊的、不完整的、过于宽泛的或修辞的,无法以目前的形式得到合理的回答。为了帮助澄清这个问题以便可以重新打开它,visit the help center
我正在学习 OpenGL,非常想知道与显卡的交互如何。 我觉得了解它是如何在图形驱动程序中实现的,会让我了解 opengl 的完整内部结构(通过这个我可以知道哪些阶段/因素影响我对 opengl 性能
我正在尝试绘制到大于屏幕尺寸(即 320x480)的渲染缓冲区 (512x512)。 执行 glReadPixels 后,图像看起来是正确的,除非图像的尺寸超过屏幕尺寸——在本例中,超过 320 水平
我正在 Windows 中制作一个 3D 小行星游戏(使用 OpenGL 和 GLUT),您可以在其中穿过一堆障碍物在太空中移动并生存下来。我正在寻找一种方法来针对无聊的 bg 颜色选项设置图像背景。
如果我想要一个包含 100 个 10*10 像素 Sprite 的 Sprite 表,是否可以将它们全部排成一排来制作 1,000*10 像素纹理?还是 GPU 对不那么窄的纹理表现更好?这对性能有什
这个问题在这里已经有了答案: Rendering 2D sprites in a 3D world? (7 个答案) 关闭 6 年前。 我如何概念化让图像始终面对相机。我尝试将三角函数与 arcta
是否可以在 OpenGL 中增加缓冲区? 假设我想使用实例化渲染。每次在世界上生成一个新对象时,我都必须用实例化数据更新缓冲区。 在这种情况下,我有一个 3 个 float 的缓冲区 std::v
有人可以向我解释为什么下面的代码没有绘制任何东西,但如果我使用 GL_LINE_LOOP 它确实形成了一个闭环吗? glBegin(GL_POLYGON); for(int i = 0; i <= N
正如标题所说,OpenGL 中的渲染目标是什么?我对 OpenGL 很陌生,我看到的所有网站都让我很困惑。 它只是一个缓冲区,我在其中放置稍后将用于渲染的东西吗? 如果您能提供一个很好的引用来阅读它,
当使用 OpenGL 1.4 固定功能多纹理时,每个纹理阶段的输出在传递到下一个阶段之前是否都固定在 [0, 1]? spec说(第 153 页): If the value of TEXTURE_E
我比较了 2 个函数 openGL ES 和 openGL gvec4 texelFetchOffset(gsampler2DArray sampler, ivec3 P, int lod, ivec
关闭。这个问题是off-topic .它目前不接受答案。 想改进这个问题吗? Update the question所以它是on-topic用于堆栈溢出。 关闭 10 年前。 Improve thi
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 想改进这个问题?将问题更新为 on-topic对于堆栈溢出。 6年前关闭。 Improve this qu
那么当你调用opengl函数时,比如glDraw或者gLBufferData,是否会导致程序线程停止等待GL完成调用呢? 如果不是,那么 GL 如何处理调用像 glDraw 这样的重要函数,然后立即更
我正在尝试实现级联阴影贴图,当我想访问我的视锥体的每个分区的相应深度纹理时,我遇到了一个错误。 更具体地说,当我想选择正确的阴影纹理时会出现我的问题,如果我尝试下面的代码,我会得到一个像 this 中
我想为OpenGL ES和OpenGL(Windows)使用相同的着色器源。为此,我想定义自定义数据类型并仅使用OpenGL ES函数。 一种方法是定义: #define highp #define
我尝试用 6 个位图映射立方体以实现天空盒效果。我的问题是一个纹理映射到立方体的每个面。我已经检查了 gDEBugger,在立方体纹理内存中我只有一个 图像(因为我尝试加载六个图像)。 代码准备纹理:
在 OpenGL 中偏移深度的最佳方法是什么?我目前每个多边形都有索引顶点属性,我将其传递给 OpenGL 中的顶点着色器。我的目标是在深度上偏移多边形,其中最高索引始终位于较低索引的前面。我目前有这
我是一名优秀的程序员,十分优秀!