gpt4 book ai didi

c++ - 矩阵乘法优化(使用 Neon simd 与着色器)

转载 作者:行者123 更新时间:2023-11-28 02:56:17 25 4
gpt4 key购买 nike

我很好奇GLSL/GLSL和NEON有什么区别

我知道 GLSL 使用 GPU 内核,而 NEON 使用 CPU 内核。

然而,令我感到困惑的是,当我使用 NEON 指令将矩阵乘以矩阵时,我不确定这是否真的比在着色器代码中将矩阵乘以矩阵更好,因为如您所知,GPU 有更多即使存在 NEON 以帮助更快地计算,内核也比 cpu 多。

谁知道这两种方式有什么区别?

最佳答案

这很难说,因为您正在讨论主要用于嵌入式应用程序 (ARM NEON) 的 CPU 指令集。这对我来说意味着您正在处理一个嵌入式 GPU,它本质上可能是也可能不是标量。较新的 GPU 是标量的,但较旧的架构是 vector 的,嵌入式架构通常在设计方面更老。因此,虽然您肯定知道基于 NEON 的矩阵乘法是 SIMD,但在事物的 GLSL 端,它可能是标量或 vector ,具体取决于主机 GPU。

但所有这些关于如何操作实际实现的讨论与宏伟的计划无关。真正重要的是为什么您要执行矩阵乘法。如果它不会因顶点或片段而异,那么通常最好在 CPU 上执行。否则,即使 GPU 可能有更多的功能单元,您也在浪费计算资源,一遍又一遍地并行执行相同的计算。

您的问题似乎暗示这是可以在 CPU 上完成一次并在着色期间多次使用的事情,这将是通常采用的更好方法。

关于c++ - 矩阵乘法优化(使用 Neon simd 与着色器),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/21895488/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com