gpt4 book ai didi

iphone - iOS 4 使用 4x4 矩阵加速 Cblas

转载 作者:可可西里 更新时间:2023-11-01 03:44:54 27 4
gpt4 key购买 nike

我一直在研究 iOS 4 中提供的 Accelerate 框架。具体来说,我尝试在我的 C 线性代数库中使用 Cblas 例程。现在我无法使用这些函数让我在非常基本的例程中获得任何性能提升。具体来说,4x4矩阵乘法的情况。在我无法利用矩阵的仿射或齐次属性的地方,我一直在使用这个例程(删节):

float *mat4SetMat4Mult(const float *m0, const float *m1, float *target) {
target[0] = m0[0] * m1[0] + m0[4] * m1[1] + m0[8] * m1[2] + m0[12] * m1[3];
target[1] = ...etc...
...
target[15] = m0[3] * m1[12] + m0[7] * m1[13] + m0[11] * m1[14] + m0[15] * m1[15];
return target;
}

Cblas 的等效函数调用是:

cblas_sgemm(CblasColMajor, CblasNoTrans, CblasNoTrans,
4, 4, 4, 1.f, m0, 4, m1, 4, 0.f, target, 4);

比较两者,通过让它们运行大量预先计算的充满随机数的矩阵(每个函数每次都获得完全相同的输入),当使用 C 时钟计时时,Cblas 例程的执行速度大约慢 4 倍() 函数。

这对我来说似乎不对,我觉得我在某处做错了什么。我是否必须以某种方式启用设备的 NEON 单元和 SIMD 功能?还是我不应该希望用这么小的矩阵获得更好的性能?

非常感谢,

巴斯蒂安

最佳答案

Apple WWDC2010 演示文稿称,即使是 3x3 矩阵运算,Accelerate 仍应提供加速,因此我假设您应该会看到 4x4 的轻微改进。但您需要考虑的是,Accelerate 和 NEON 旨在大大加速整数运算,但不一定是浮点运算。您没有提到您的 CPU 处理器,Accelerate 似乎将根据您的 CPU 使用 NEON 或 VFP 进行浮点运算。如果它使用 NEON 指令进行 32 位浮点运算,那么它应该运行得很快,但如果它使用 VFP 进行 32 位浮点或 64 位 double 运算,那么它会运行得很慢(因为 VFP 实际上不是 SIMD)。因此,您应该确保您对 Accelerate 使用 32 位浮点运算,并确保它将使用 NEON 而不是 VFP。

另一个问题是,即使它确实使用了 NEON,也不能保证您的 C 编译器会生成比没有 NEON 指令的简单 C 函数更快的 NEON 代码,因为 GCC 等 C 编译器通常会生成糟糕的 SIMD 代码,可能比标准代码运行得慢。这就是为什么测试生成代码的速度始终很重要,并且可能要手动查看生成的汇编代码以查看您的编译器是否生成了错误代码。

关于iphone - iOS 4 使用 4x4 矩阵加速 Cblas,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/3950383/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com