- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
当尝试使用 glBufferSubData 访问 GL_ARRAY_BUFFER 到 128 字节缓冲区大小时,访问最多需要 200 微秒。相反,当使用 glBufferData 再次分配整个缓冲区时,它只需要 3 微秒。我对 glGetBufferSubData 有类似的问题。我的 CPU 是 i5 8600k,GPU 是 gtx 1080 ti
glBufferData(GL_ARRAY_BUFFER, sizeof(mat4) * 2, matrices.data(), GL_DYNAMIC_DRAW); // 3 us
glBufferSubData(GL_ARRAY_BUFFER, sizeof(mat4) * index, sizeof(mat4), matrix.data()); // at worst 200 us
using namespace std::chrono;
// same measurement for both cases
auto timer = high_resolution_clock::now();
glBufferData(GL_ARRAY_BUFFER, sizeof(mat4) * 2, matrices.data(), GL_DYNAMIC_DRAW);
std::cout << duration_cast<microseconds>(high_resolution_clock::now() - timer).count() << '\n';
最佳答案
这个问题可能早该回答了,但今天我正在考虑使用 glGetBufferSubData 并注意到尽管运行了 NVidia GEFORCE RTX 3060 还是有点滞后。有 0.006 秒的时间将数据下载到 CPU/RAM 和 0第二次加载到GPU。我建议在 RAM 中保留矩阵的拷贝,并将矩阵所在位置的索引存储在着色器存储缓冲区中,以便您以后可以根据需要在程序中更新它。至少这就是我正在做的事情。
你可以在这里看到我的原始帖子:Is it efficient to download matrix to CPU/RAM to update it and send it back to GPU?
关于c++ - 为什么 glBufferSubData 很慢?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62655935/
我正在制作一个使用 lwjgl 动态呈现文本的系统。我有一个系统设置为自动生成纹理以用于渲染,图像确实有效。这就是问题所在。 我有这段代码来初始化 2 个 VBO 和一个 VAO,它们都设置为能够处理
我正在做一个渲染,我每帧多次调用 glBufferSubData。 这是我在代码中的做法: glBindBuffer(GL_ARRAY_BUFFER,_vboID); //Buffering
当尝试使用 glBufferSubData 访问 GL_ARRAY_BUFFER 到 128 字节缓冲区大小时,访问最多需要 200 微秒。相反,当使用 glBufferData 再次分配整个缓冲区时
我需要用新顶点更新我的网格。我这样创建了 VBO(最初创建时只有一个顶点): public Mesh(float[] vertex, int size) { texture = null;
移植来自 Superbible OpenGL 7th ed 的第 7 章实例渲染示例。并遇到函数 glBufferSubData 的问题 无论我对它做什么,它都不会接受数据。把它变成一个指针,一个字节
我注意到随着缓冲区大小的增加,更新 VBO 中的少量顶点变得非常缓慢。例如,当我更新时,比如说,512*512 缓冲区中的 2 个顶点比我更新整个 256*256 缓冲区时慢得多,尽管更新的数据量
我实际上正在使用 OpenGL 3.3 渲染引擎,确切地说,我正在尝试在我的场景中创建动态数量的灯光。 为此,我正在使用统一缓冲区对象 (UBO),当我尝试传递数据时遇到问题,而 UBO 将在具有不同
你好, 我正在尝试通过调用 glBufferSubData() 来更新 VBO 的一部分。当我从现有影子缓冲区的开头 (0) 更新时,没有问题,因为缓冲区从 0 开始读取。以下将从缓冲区读取 0 到
我正在尝试使用 vao 和 vbo 制作网格类。 首先我创建 vector 来保存要缓冲的数据: std::vector vertices; std::vector normals; std::vec
我正在使用实例化渲染来渲染大片草地,为此我使用了一个由大量 4x4 变换矩阵组成的实例化数组。 我在草叶上使用 LOD 算法,根据它们与相机的距离来确定渲染哪些叶子。为此,我将实例化数组更新为仅包含相
我正在尝试在 OpenGL 3.3 中渲染 Suzanne(来自 Blender),但缓冲区数据似乎不正确。我明白了: https://gyazo.com/ab82f9acb6854a49fccc52
我不太明白为什么这段代码对于 iOS 上的 GPU 很慢,但这段代码在 Windows 上运行良好,没有任何问题。 基本上我正在做的是我有一个大的动态顶点缓冲区(GL_STREAM_DRAW)并且我尝
为了更新我的统一缓冲区对象,我使用 glBufferSubData .使用速度更快吗glBufferSubData或 glMapBuffer与 glUnmapBuffer ? 最佳答案 关于glMap
我想让我的 VBO 移动,我想知道我是否应该使用 glBufferSubData 更新整个 VBO 的值,或者只使用已弃用的 glTranslatef 来移动我的东西. 如果我只是更新 VBO 中的值
似乎 glBufferSubData 在我的 glDrawArrays 调用之间覆盖或以某种方式破坏数据。我在 Windows 7 64 位系统中工作,使用适用于我的 Nvidia GeForce G
我正在开发一款基于图 block 的物理游戏,例如 Falling Sand Game。我目前正在为顶点使用静态 VBO,为与每种 block 类型关联的颜色使用动态 VBO。对于这种类型的游戏,颜色
我目前正在开发一款使用 Java 1.6 和 LWJGL 编写的 2d 自上而下 RPG。我在我的游戏中实现了 VBO 的使用,现在我维护其中两个:一个用于顶点数据,一个用于纹理坐标。 一切正常,只是
一段时间以来,我一直在减少这个段错误,这是我机器上的一个非常小的可重现示例(如下)。我有一种下沉的感觉,这是一个驱动程序错误,但我对 OpenGL 非常不熟悉,所以更有可能我只是做错了什么。 这是正确
我想在创建 VBO 后更新对象的顶点列表。我都看过 glBufferSubData和 glMapBuffer而且它们似乎都在做类似的事情,这意味着我现在不确定该使用哪一个。 我的伪工作流程是: Cre
在 OpenGL Insights 中,它说“OpenGL 驱动程序必须等待,因为使用了 VBO通过上一帧的 glDrawElements。 这让我很困惑。据我所知, glBufferSubData
我是一名优秀的程序员,十分优秀!