- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
就目前而言,这个问题不适合我们的问答形式。我们希望答案得到事实、引用资料或专业知识的支持,但这个问题可能会引发辩论、争论、投票或扩展讨论。如果您觉得这个问题可以改进并可能重新打开,visit the help center寻求指导。
9年前关闭。
我知道 OpenGL 4 和 3 非常相似,尤其是 3.1 和 4.1。由于两者基本上是一起发布的,因此很难理解 OpenGL 4.0/4.1 的基本原理。
在以前的 OpenGL 版本中,次要版本会向上递增,直到大量更改累积到新的主要版本中。 OpenGL 3.x 和 4.x 引入了向后不兼容的 API 更改,然后 OpenGL 3.2 和 3.3 被称为 3 系列的特定分支,它们不向前兼容,而 3.1 与 4.1+ 兼容
与 OpenGL 3.1 相比,OpenGL 4.1 提供了哪些关键差异,从而保证它被归类为新的主要版本?
奖励:是否有任何差异在 GL3 或仅可访问性的任何情况下提供了性能提升?
Edit: Some extra findings based on answers
OpenGL 3.3 was made to compliment OpenGL 4.0 to incorporate as much of the functionality as they could into older hardware. Choosing between OpenGL 3 and 4, 3.3 may be a better choice sometimes. 4.1 has added GL ES 2.0 compatibility however and some nice features.
One of the bigger workflow differences would be added GPU programing steps in the pipeline via the new tessellation shaders. Another would be multiple viewports to render to. I believe the new level of detail feature would change the workflow I'm using and perhaps other quite a bit, though I have not looked into this feature in depth.
Keynotes (apparently removed from answer while asking on meta.. For temporary reference of what the actual answer was.)
Appendix G - K For OpenGL 3.1 features through OpenGL 4.1 features
Khronos Group Release Of OpenGL 4.0 may be "easier to read" :)
- Sampler Objects
- Instanced Arrays and Shaders
texture_cube_map_array and texture_gather
GLSL 4.0 and dynamic LOD
- shader_subroutine and sample_shading
- separate_shader_objects
- Increase required sizes for texture/renderbuffers
- 64 bit floating point vertex attributes
- get_program_binary
- +2 Tesselation shaders
最佳答案
如果您的问题是“4.1 中的工作流程如何更好”,那根本不是 4.1 的意义所在。
首先,快速定义,以确保我们谈论的是同一件事。对我来说,“工作流程”意味着 API 改进和提高性能的东西。这些不允许硬件做任何你以前不能做的事情;它们只是让程序员更容易或让你获得更快的性能。
绝大多数 API 改进(不是基于新功能的改进)都可用于 3.3 实现作为核心扩展。由于它们是核心扩展,因此您甚至无需更改代码即可从 3.3 代码中删除“ARB”后缀,以便在 4.1 代码中使用它们。这一切都行得通。特别是,我正在谈论程序分离(GL_ARB_separate_program_objects)和检索已编译程序的二进制文件(GL_ARB_get_program_binary)。两者都支持 3.3 硬件; NVIDIA 甚至将这些一直延伸到 GeForce 6xxx 芯片。
主要的异常(exception)是着色器子例程,它仅限于 4.x 硬件。然而,这个规范的规定太差了,我不确定任何人都可以使用它,更不用说应该使用了。它令人费解,有些令人困惑。
没有太多东西可以轻松用于提高 4.1 独有的性能。无绑定(bind)渲染 (GL_NV_vertex_buffer_unified_memory) 可能是最大的性能增强,如果这对您来说是一个瓶颈。正如您可能从名称中注意到的那样,它是 NVIDIA 扩展而不是核心。我确信 ARB 正在为 future 规范中的核心功能开发一些与此完全不同的东西。 Bindless 并不是 4.x 硬件所独有的。再一次,NVIDIA 将其一直延伸到 GeForce 6xxx 芯片。
4.x 中有一些东西可以增强硬件,但它们最终都围绕着某种形式的 GPGPU 工作。如果您从 OpenCL 生成渲染数据,间接渲染 (GL_ARB_draw_indirect) 将是一个很好的加速。 Civilization V 已经展示了使用 GPGPU 技术(他们使用 DXCompute,但您也可以使用 OpenCL 来实现)解压缩纹理的值(value);这极大地帮助了加载性能,因为您不必从磁盘加载尽可能多的数据。
如果您想真正扩展性能改进的定义,则可以将 Tessellation 视为性能增强。您可以使用它来发送较小的网格,或者使用靠近相机的较低 LOD 网格。或者您可以考虑使用它来渲染比以前更高的多边形网格。
4.x 并不是要提供让事情变得更快的硬件功能。它更多的是能够以与以前不同的方式进行渲染。
还有一件事:3.1 和 3.3 之间没有选择。几乎任何可以运行 3.1 的硬件都可以运行 3.3。如果没有,那是因为硬件制造商在他们的 OpenGL 驱动程序上松懈了(我在看着你,英特尔)。
关于OpenGL 4.1 和 3.1+,主要区别是什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/4814004/
在 OpenGL/ES 中,在实现渲染到纹理功能时,您必须小心,不要引起反馈循环(从正在写入的同一纹理中读取像素)。由于显而易见的原因,当您读取和写入纹理的相同像素时,行为是未定义的。但是,如果您正在
正如我们最终都知道的那样,规范是一回事,实现是另一回事。大多数错误是我们自己造成的,但有时情况并非如此。 我相信列出以下内容会很有用: GPU 驱动程序中当前已知的与最新版本的 OpenGL 和 GL
很难说出这里问的是什么。这个问题是模棱两可的、模糊的、不完整的、过于宽泛的或修辞的,无法以目前的形式得到合理的回答。为了帮助澄清这个问题以便可以重新打开它,visit the help center
我正在学习 OpenGL,非常想知道与显卡的交互如何。 我觉得了解它是如何在图形驱动程序中实现的,会让我了解 opengl 的完整内部结构(通过这个我可以知道哪些阶段/因素影响我对 opengl 性能
我正在尝试绘制到大于屏幕尺寸(即 320x480)的渲染缓冲区 (512x512)。 执行 glReadPixels 后,图像看起来是正确的,除非图像的尺寸超过屏幕尺寸——在本例中,超过 320 水平
我正在 Windows 中制作一个 3D 小行星游戏(使用 OpenGL 和 GLUT),您可以在其中穿过一堆障碍物在太空中移动并生存下来。我正在寻找一种方法来针对无聊的 bg 颜色选项设置图像背景。
如果我想要一个包含 100 个 10*10 像素 Sprite 的 Sprite 表,是否可以将它们全部排成一排来制作 1,000*10 像素纹理?还是 GPU 对不那么窄的纹理表现更好?这对性能有什
这个问题在这里已经有了答案: Rendering 2D sprites in a 3D world? (7 个答案) 关闭 6 年前。 我如何概念化让图像始终面对相机。我尝试将三角函数与 arcta
是否可以在 OpenGL 中增加缓冲区? 假设我想使用实例化渲染。每次在世界上生成一个新对象时,我都必须用实例化数据更新缓冲区。 在这种情况下,我有一个 3 个 float 的缓冲区 std::v
有人可以向我解释为什么下面的代码没有绘制任何东西,但如果我使用 GL_LINE_LOOP 它确实形成了一个闭环吗? glBegin(GL_POLYGON); for(int i = 0; i <= N
正如标题所说,OpenGL 中的渲染目标是什么?我对 OpenGL 很陌生,我看到的所有网站都让我很困惑。 它只是一个缓冲区,我在其中放置稍后将用于渲染的东西吗? 如果您能提供一个很好的引用来阅读它,
当使用 OpenGL 1.4 固定功能多纹理时,每个纹理阶段的输出在传递到下一个阶段之前是否都固定在 [0, 1]? spec说(第 153 页): If the value of TEXTURE_E
我比较了 2 个函数 openGL ES 和 openGL gvec4 texelFetchOffset(gsampler2DArray sampler, ivec3 P, int lod, ivec
关闭。这个问题是off-topic .它目前不接受答案。 想改进这个问题吗? Update the question所以它是on-topic用于堆栈溢出。 关闭 10 年前。 Improve thi
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 想改进这个问题?将问题更新为 on-topic对于堆栈溢出。 6年前关闭。 Improve this qu
那么当你调用opengl函数时,比如glDraw或者gLBufferData,是否会导致程序线程停止等待GL完成调用呢? 如果不是,那么 GL 如何处理调用像 glDraw 这样的重要函数,然后立即更
我正在尝试实现级联阴影贴图,当我想访问我的视锥体的每个分区的相应深度纹理时,我遇到了一个错误。 更具体地说,当我想选择正确的阴影纹理时会出现我的问题,如果我尝试下面的代码,我会得到一个像 this 中
我想为OpenGL ES和OpenGL(Windows)使用相同的着色器源。为此,我想定义自定义数据类型并仅使用OpenGL ES函数。 一种方法是定义: #define highp #define
我尝试用 6 个位图映射立方体以实现天空盒效果。我的问题是一个纹理映射到立方体的每个面。我已经检查了 gDEBugger,在立方体纹理内存中我只有一个 图像(因为我尝试加载六个图像)。 代码准备纹理:
在 OpenGL 中偏移深度的最佳方法是什么?我目前每个多边形都有索引顶点属性,我将其传递给 OpenGL 中的顶点着色器。我的目标是在深度上偏移多边形,其中最高索引始终位于较低索引的前面。我目前有这
我是一名优秀的程序员,十分优秀!