gpt4 book ai didi

ios 游戏 - GPU 端计算有什么缺点吗?

转载 作者:行者123 更新时间:2023-11-29 01:25:56 25 4
gpt4 key购买 nike

主题几乎就是问题。我试图了解 CPU 和 GPU 的合作方式。

我正在通过 cocos2d 开发我的游戏。它是一个游戏引擎,所以它每秒重绘整个屏幕 60 次。 cocos2d 中的每个节点都绘制自己的一组三角形。通常你在 CPU 端执行节点转换(从节点到世界)后设置三角形的顶点。通过将 View 模型投影传递给制服,我已经意识到使用顶点着色器在 GPU 端执行此操作的方法。

我看到 CPU 时间减少了 ~1ms,gpu 时间增加了~0.5ms。我可以将此视为性能提升吗?

换句话说:如果某些事情可以在 GPU 端完成,您有什么理由不应该这样做?

最佳答案

唯一不应该在 GPU 端执行某些操作的情况是,如果您需要 CPU 端的结果(以易于访问的形式)来进一步进行模拟。

以你为例。如果我们假设您有 4 个 250KB 的网格,它们表示 body 部位的层次结构(作为骨架)。假设您使用一个 4x4 的浮点矩阵来对每个网格进行转换(64 字节)。您可以:

  1. 每一帧,在应用端(CPU)执行网格变换计算,然后将四个网格上传到GPU。这将导致每帧将大约 1000kb 的数据发送到 GPU。

  2. 当应用程序启动时,将 4 个网格的数据上传到 GPU(这将处于休息/身份姿势)。然后,在进行渲染调用时的每一帧,您仅计算每个网格的新矩阵(位置/旋转/缩放),并将这些矩阵上传到 GPU 并在那里执行转换。这导致每帧将约 256 字节发送到 GPU。

正如您所看到的,即使示例中的数据是伪造的,主要优点是您可以最大限度地减少每帧在 CPU 和 GPU 之间传输的数据量。

只有当您的应用程序需要转换的结果来完成其他工作时,您才会更喜欢第一个选项。 GPU 非常高效(特别是在并行处理顶点时),但从 GPU 获取信息并不容易(通常以纹理的形式 - 即 RenderTarget)。这种“进一步工作”的一个具体示例可能是对变换后的网格位置执行碰撞检查。

编辑您可以根据调用 openGL api 的方式判断数据在某种程度上的存储位置*。以下是一个快速总结:

顶点数组

glVertexPointer(...)
glDrawArray(...)

使用此方法每帧从 CPU -> GPU 传递一个顶点数组。顶点在数组中出现时按顺序处理。此方法 (glDrawElements) 有一个变体,可让您指定索引。

VBO

glBindBuffer(...)
glBufferData(...)
glDrawElements(...)

VBO 允许您将网格数据存储在 GPU 上(注释见下文)。这样,您不需要每帧将网格数据发送到 GPU,只需发送变换数据。

*虽然我们可以指定数据的存储位置,但实际上 OpenGL 规范中并未指定供应商如何实现这一点。这意味着,我们可以提示我们的顶点数据应该存储在 VRAM 中,但最终,这取决于驱动程序!

此内容的良好引用链接是:

OpenGL 引用页:https://www.opengl.org/sdk/docs/man/html/start.html

OpenGL解释:http://www.songho.ca/opengl

用于渲染的 Java OpenGL 概念:http://www.java-gaming.org/topics/introduction-to-vertex-arrays-and-vertex-buffer-objects-opengl/24272/view.html

关于ios 游戏 - GPU 端计算有什么缺点吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34020797/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com