gpt4 book ai didi

c - 为什么 CPU 不能在一个简单的循环中执行相当于 Ghz 的 FLOPs 性能?

转载 作者:行者123 更新时间:2023-12-05 01:23:02 24 4
gpt4 key购买 nike

我想知道为什么像这样的简单循环不能达到我的 CPU 时钟速度 (4,2Ghz):

float sum = 0;    
for (int i = 0; i < 1000000; i+=1) {
sum = sum * 1 + 1;
}

凭直觉,我希望在不到 1 毫秒(例如 0,238 毫秒)的时间内实现这一目标,即每秒进行 42 亿次迭代。但我得到大约 3 毫秒,即每秒大约 3.33 亿次迭代。

我假设做数学是 2 个周期,一个用于乘法,另一个用于求和。假设我正在执行 6.66 亿次操作……看起来仍然很慢。然后我假设循环比较需要一个周期,循环计数器需要另一个周期...

所以我创建了以下代码来删除循环...

void listOfSums() {
float internalSum = 0;
internalSum = internalSum * 1 + 1;
internalSum = internalSum * 1 + 1;
internalSum = internalSum * 1 + 1;
internalSum = internalSum * 1 + 1;
// Repeated 100k times

令我惊讶的是它变慢了,现在需要 10 毫秒。导致每秒只有 1 亿次迭代。

考虑到现代 CPU 使用流水线、乱序执行、分支预测……似乎我无法通过在一个循环内执行两个浮点运算来达到 4.2Ghz 的速度。

然后假设 4.2Ghz 只能通过 SIMD 实现以完全饱和 CPU 内核的任务并执行一个简单的循环将使您获得大约 1/6 Ghz 的浮点性能是否安全?我尝试过不同的处理器,1/6 似乎在大概范围内(英特尔、iPhone、iPad)。

瓶颈到底是什么? CPU解析指令的能力?哪些只有SIMD才能超越?

最佳答案

当前的处理器通常可以在每个处理器周期中发出一个或多个浮点加法,并且可以在每个周期中发出一个或多个浮点乘法。浮点加法或乘法通常需要四个周期才能完成。这意味着,一旦你开始了四次浮点加法——一个在循环 n 中,一个在循环 n+1 中,一个在循环 n 中+2,一个在周期 n+3 中——处理器可能在每个周期完成一个加法——一个在周期 n+4 中(同时一个新的也在周期中开始n+4),n+5 中的一个,依此类推。

但是,为了开始浮点运算,该运算的输入必须准备就绪。一旦 sum * 1 在周期 n 中开始,其结果可能要到周期 n+4 才能准备好。所以 1 的添加将从循环 n+4 开始。直到 n+8 周期,该加法才会完成。然后使用该结果的下一次迭代中的乘法直到循环 n+8 才能开始。因此,在所示的标称循环结构中,每四个循环将完成一次浮点加法或乘法。

如果你尝试:

float sum0 = 0;
float sum1 = 0;
float sum2 = 0;
float sum3 = 0;
for (int i = 0; i < 1000000; i += 1)
{
sum0 = sum0 * 1 + 1;
sum1 = sum1 * 1 + 1;
sum2 = sum2 * 1 + 1;
sum3 = sum3 * 1 + 1;
}

那么你可能会发现同时完成的浮点运算是原来的四倍。

这些细节因处理器型号而异。一些处理器可能在所有输入准备就绪之前就开始处理某些指令,一些处理器可能会在结果被传送到常规结果寄存器之前将结果直接提前转发到其他指令执行单元,等等,因此获得的性能是巨大的取决于处理器特性。

对于listOfSums的例子,代码严重超过了L1缓存的大小,因此处理器必须在执行前从内存中加载每条指令,这大大降低了性能。

关于c - 为什么 CPU 不能在一个简单的循环中执行相当于 Ghz 的 FLOPs 性能?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/72905736/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com