- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
由于 Microsoft 通常对 Direct3D 有一点偏见,在 Direct3D 中使用 VBO 的场景会比在 OpenGL 中使用 VBO 的相同场景更快,还是一样,因为这取决于显卡驱动程序?谢谢
最佳答案
在性能方面,假设 GPU 驱动程序不错,总体上没有区别。
有些操作在 OpenGL 中比在 DirectX9 中更快,尽管 DX10 弥补了这一点。
但在使用外部硬件时,一个好的经验法则是决定性能的不是您使用的 API。
编写网络代码时,瓶颈是网络适配器,无论您的套接字代码是用 .NET 编写的、用 C 编写的普通 Berkeley 套接字,还是可能使用某些 Python 库,都没有关系。
编写代码使用 GPU 时,GPU 是限制因素。 DirectX 和 OpenGL 之间的最大区别在于,一个可能需要比另一个多调用一两次函数才能完成某些任务——而这样的性能成本几乎不存在。在这两种情况下,GPU 上发生的情况都是相同的,因为这取决于您的 GPU 驱动程序,并且因为 OpenGL 和 DirectX 都试图尽可能高效。
尽管有充分的理由更喜欢这两个 API。
DirectX 有更好的工具支持。微软在这方面做得非常好。使用 PIX 等工具可以更轻松地调试和优化 DirectX 代码。并且微软还提供了帮助程序库 D3DX,它提供了很多常用功能的高效实现。
OpenGL 的优势在于它不依赖于特定的操作系统。 DirectX9 仅适用于 Windows。 DX10 及更高版本仅适用于 Vista 及更高版本。
OpenGL 可在任何已编写 OpenGL 驱动程序的操作系统上运行。
在 Windows 上,情况有时会有点尴尬。 Windows 本身只带有 OpenGL 的古老实现。 (我相信带有 v1.1 的 XP,以及带有 1.5 的 Vista/7)。
因此,Windows 上的 OpenGL 应用依赖于 GPU 供应商为其驱动程序提供更新的实现。 ATI 和 NVidia 确实提供了非常好的实现,所以这不是什么大问题。英特尔的 OpenGL 驱动程序在质量和支持的功能方面普遍落后。
关于c++ - Direct3D 是否应该用于 Windows 中的 OpenGL?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/3146438/
在 OpenGL/ES 中,在实现渲染到纹理功能时,您必须小心,不要引起反馈循环(从正在写入的同一纹理中读取像素)。由于显而易见的原因,当您读取和写入纹理的相同像素时,行为是未定义的。但是,如果您正在
正如我们最终都知道的那样,规范是一回事,实现是另一回事。大多数错误是我们自己造成的,但有时情况并非如此。 我相信列出以下内容会很有用: GPU 驱动程序中当前已知的与最新版本的 OpenGL 和 GL
很难说出这里问的是什么。这个问题是模棱两可的、模糊的、不完整的、过于宽泛的或修辞的,无法以目前的形式得到合理的回答。为了帮助澄清这个问题以便可以重新打开它,visit the help center
我正在学习 OpenGL,非常想知道与显卡的交互如何。 我觉得了解它是如何在图形驱动程序中实现的,会让我了解 opengl 的完整内部结构(通过这个我可以知道哪些阶段/因素影响我对 opengl 性能
我正在尝试绘制到大于屏幕尺寸(即 320x480)的渲染缓冲区 (512x512)。 执行 glReadPixels 后,图像看起来是正确的,除非图像的尺寸超过屏幕尺寸——在本例中,超过 320 水平
我正在 Windows 中制作一个 3D 小行星游戏(使用 OpenGL 和 GLUT),您可以在其中穿过一堆障碍物在太空中移动并生存下来。我正在寻找一种方法来针对无聊的 bg 颜色选项设置图像背景。
如果我想要一个包含 100 个 10*10 像素 Sprite 的 Sprite 表,是否可以将它们全部排成一排来制作 1,000*10 像素纹理?还是 GPU 对不那么窄的纹理表现更好?这对性能有什
这个问题在这里已经有了答案: Rendering 2D sprites in a 3D world? (7 个答案) 关闭 6 年前。 我如何概念化让图像始终面对相机。我尝试将三角函数与 arcta
是否可以在 OpenGL 中增加缓冲区? 假设我想使用实例化渲染。每次在世界上生成一个新对象时,我都必须用实例化数据更新缓冲区。 在这种情况下,我有一个 3 个 float 的缓冲区 std::v
有人可以向我解释为什么下面的代码没有绘制任何东西,但如果我使用 GL_LINE_LOOP 它确实形成了一个闭环吗? glBegin(GL_POLYGON); for(int i = 0; i <= N
正如标题所说,OpenGL 中的渲染目标是什么?我对 OpenGL 很陌生,我看到的所有网站都让我很困惑。 它只是一个缓冲区,我在其中放置稍后将用于渲染的东西吗? 如果您能提供一个很好的引用来阅读它,
当使用 OpenGL 1.4 固定功能多纹理时,每个纹理阶段的输出在传递到下一个阶段之前是否都固定在 [0, 1]? spec说(第 153 页): If the value of TEXTURE_E
我比较了 2 个函数 openGL ES 和 openGL gvec4 texelFetchOffset(gsampler2DArray sampler, ivec3 P, int lod, ivec
关闭。这个问题是off-topic .它目前不接受答案。 想改进这个问题吗? Update the question所以它是on-topic用于堆栈溢出。 关闭 10 年前。 Improve thi
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 想改进这个问题?将问题更新为 on-topic对于堆栈溢出。 6年前关闭。 Improve this qu
那么当你调用opengl函数时,比如glDraw或者gLBufferData,是否会导致程序线程停止等待GL完成调用呢? 如果不是,那么 GL 如何处理调用像 glDraw 这样的重要函数,然后立即更
我正在尝试实现级联阴影贴图,当我想访问我的视锥体的每个分区的相应深度纹理时,我遇到了一个错误。 更具体地说,当我想选择正确的阴影纹理时会出现我的问题,如果我尝试下面的代码,我会得到一个像 this 中
我想为OpenGL ES和OpenGL(Windows)使用相同的着色器源。为此,我想定义自定义数据类型并仅使用OpenGL ES函数。 一种方法是定义: #define highp #define
我尝试用 6 个位图映射立方体以实现天空盒效果。我的问题是一个纹理映射到立方体的每个面。我已经检查了 gDEBugger,在立方体纹理内存中我只有一个 图像(因为我尝试加载六个图像)。 代码准备纹理:
在 OpenGL 中偏移深度的最佳方法是什么?我目前每个多边形都有索引顶点属性,我将其传递给 OpenGL 中的顶点着色器。我的目标是在深度上偏移多边形,其中最高索引始终位于较低索引的前面。我目前有这
我是一名优秀的程序员,十分优秀!