gpt4 book ai didi

c - 在 C 或 GLSL 中乘以矩阵?

转载 作者:行者123 更新时间:2023-12-02 01:32:54 26 4
gpt4 key购买 nike

我有一个 OpenGL 程序,每秒可以执行相当多的矩阵乘法。这些将是 4x4 矩阵和每个 128 字节。我的 CPU 和 GPU 都是最新的(我有一台 MacBook Pro(Retina,13 英寸,2014 年中))。我知道 GPU 通常更面向并行,并且可能针对此类内容进行了优化。让 CPU 或我的 GPU 执行乘法运算会更快吗?

最佳答案

I have an OpenGL program that will be do a fairly good amount of matrix multiplies per second.

定义“相当多的矩阵乘法”。请记住,CPU 也非常有能力进行这种计算。使用矢量化指令集,4×4 矩阵-矩阵乘法可归结为少至 16 条 FMA(融合乘加)指令。那不是很多。鉴于现代 CPU 也希望保持忙碌,而且您通常还需要矩阵进行 on-CPU 计算,因此将矩阵计算保持在 CPU 上非常有意义。

如果您可以轻松地并行计算所有这些矩阵,那么在 GPU 上执行此操作只会带来好处。对于单个 4×4 矩阵-矩阵,乘以将矩阵加载到 GPU 和进行内务处理的开销很容易消耗任何性能优势。

关于c - 在 C 或 GLSL 中乘以矩阵?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33086029/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com