gpt4 book ai didi

c - for 循环被忽略(优化?)

转载 作者:太空狗 更新时间:2023-10-29 17:15:51 28 4
gpt4 key购买 nike

我正在使用 for/while 循环在我的代码中实现延迟。延迟的持续时间在这里并不重要,尽管它大到足以引起注意。这是代码片段。

uint32_t i;

// Do something useful

for (i = 0; i < 50000000U; ++i)
{}

// Do something useful

我观察到的问题是这个 for 循环不会被执行。它可能被编译器忽略/优化。但是,如果我用 volatile 限定循环计数器 i,则 for 循环似乎会执行,而且我注意到执行中需要延迟。

这种行为似乎有点违反我对使用/不使用 volatile 关键字的编译器优化的理解。

即使循环计数器得到优化并存储在处理器寄存器中,计数器不应该仍然工作,也许延迟更小吗? (因为内存获取开销被取消了。)

我正在构建的平台是 Xtensa 处理器(由 Tensilica 提供),C 编译器是由 Tensilica 提供的,Xtensa C/C++ 编译器以最高级别的优化运行。

我对 gcc 4.4.7-o3 以及 ofast 优化级别进行了同样的尝试。在这种情况下,延迟似乎有效。

最佳答案

这都是关于可观察的行为。循环的唯一可观察行为是 i 在循环之后是 50000000U。允许编译器对其进行优化,将其替换为i = 50000000U;。此 i 分配也将被优化掉,因为 i 的值没有可观察到的结果。

volatile 关键字告诉编译器写入和读取 i 具有可观察到的行为,从而阻止其优化。

编译器也不会优化对无法访问代码的函数的调用。理论上,如果编译器可以访问整个操作系统代码,它可以优化除 volatile 变量之外的所有内容,这些变量通常用于硬件 IO 操作。

这些优化规则都符合C标准中写的(引用注释)。

此外,如果您想要延迟,请使用专门的函数(例如:OS API),它们很可靠并且不会消耗 CPU,这与您的自旋延迟不同。

关于c - for 循环被忽略(优化?),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30208125/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com