- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我目前正试图了解我的一个 C 程序中的一些非常非常奇怪的行为。显然,在它的末尾添加或删除看似无关紧要的行会极大地影响程序其余部分的性能。
我的程序看起来有点像这样:
int large_buffer[10000];
void compute(FILE * input) {
for(int i=0; i<100; i++) {
do_lots_of_stuff();
printf(".");
fflush(stdout);
}
}
int main() {
FILE *input = fopen("input.txt", "r");
compute(input);
fclose(input); // <--- everything gets 2x slower if I comment this out (!)
return 0;
}
理论上,main 函数末尾的 fclose(input)
行应该无关紧要,因为操作系统应该在程序末尾自动关闭文件。但是我观察到,当我包含 fclose 语句时我的程序运行了 2.5 秒,而当我将其注释掉时运行了 5 秒。相差2倍!这不是由于程序开始或结束时的延迟:打印出 .
的速度在带有 fclose 语句的版本中明显更快。
我怀疑这可能与某些内存对齐或缓存未命中问题有关。如果我用另一个函数替换 fclose,例如 ftell,它也需要 5 秒才能运行,如果我将 large_buffer
的大小减少到 <= 8000 个元素,那么它总是在 2.5 秒内运行,无论 fclose语句存在与否。
但我真的很想 100% 确定这种奇怪行为背后的罪魁祸首是什么。是否可以在某种探查器或其他可以提供该信息的工具下运行我的程序?到目前为止,我尝试在 valgrind --tool=cachegrind
下运行这两个版本,但它报告了我的两个程序版本相同数量的缓存未命中 (0%)。
编辑 1:在 perf stat -d -d -d
下运行我的程序的两个版本后,我得到以下结果:
Performance counter stats for './no-fclose examples/bench.o':
5625.535086 task-clock (msec) # 1.000 CPUs utilized
38 context-switches # 0.007 K/sec
0 cpu-migrations # 0.000 K/sec
54 page-faults # 0.010 K/sec
17,851,853,580 cycles # 3.173 GHz (53.23%)
6,421,955,412 stalled-cycles-frontend # 35.97% frontend cycles idle (53.23%)
4,919,383,925 stalled-cycles-backend # 27.56% backend cycles idle (53.23%)
13,294,878,129 instructions # 0.74 insn per cycle
# 0.48 stalled cycles per insn (59.91%)
3,178,485,061 branches # 565.010 M/sec (59.91%)
440,171,927 branch-misses # 13.85% of all branches (59.92%)
4,778,577,556 L1-dcache-loads # 849.444 M/sec (60.19%)
125,313 L1-dcache-load-misses # 0.00% of all L1-dcache hits (60.22%)
12,110 LLC-loads # 0.002 M/sec (60.25%)
<not supported> LLC-load-misses
<not supported> L1-icache-loads
20,196,491 L1-icache-load-misses (60.22%)
4,793,012,927 dTLB-loads # 852.010 M/sec (60.18%)
683 dTLB-load-misses # 0.00% of all dTLB cache hits (60.13%)
3,443 iTLB-loads # 0.612 K/sec (53.38%)
90 iTLB-load-misses # 2.61% of all iTLB cache hits (53.31%)
<not supported> L1-dcache-prefetches
51,382 L1-dcache-prefetch-misses # 0.009 M/sec (53.24%)
5.627225926 seconds time elapsed
Performance counter stats for './yes-fclose examples/bench.o':
2652.609254 task-clock (msec) # 1.000 CPUs utilized
15 context-switches # 0.006 K/sec
0 cpu-migrations # 0.000 K/sec
57 page-faults # 0.021 K/sec
8,277,447,108 cycles # 3.120 GHz (53.39%)
2,453,171,903 stalled-cycles-frontend # 29.64% frontend cycles idle (53.46%)
1,235,728,409 stalled-cycles-backend # 14.93% backend cycles idle (53.53%)
13,296,127,857 instructions # 1.61 insn per cycle
# 0.18 stalled cycles per insn (60.20%)
3,177,698,785 branches # 1197.952 M/sec (60.20%)
71,034,122 branch-misses # 2.24% of all branches (60.20%)
4,790,733,157 L1-dcache-loads # 1806.046 M/sec (60.20%)
74,908 L1-dcache-load-misses # 0.00% of all L1-dcache hits (60.20%)
15,289 LLC-loads # 0.006 M/sec (60.19%)
<not supported> LLC-load-misses
<not supported> L1-icache-loads
140,750 L1-icache-load-misses (60.08%)
4,792,716,217 dTLB-loads # 1806.793 M/sec (59.93%)
1,010 dTLB-load-misses # 0.00% of all dTLB cache hits (59.78%)
113 iTLB-loads # 0.043 K/sec (53.12%)
167 iTLB-load-misses # 147.79% of all iTLB cache hits (53.44%)
<not supported> L1-dcache-prefetches
29,744 L1-dcache-prefetch-misses # 0.011 M/sec (53.36%)
2.653584624 seconds time elapsed
正如 kcachegrind 所报告的那样,看起来在这两种情况下都很少有数据缓存未命中,但程序的较慢版本具有更差的分支预测和更多的指令缓存未命中和 iTLB 加载。这些差异中的哪一个最有可能导致测试用例之间运行时间相差 2 倍?
编辑 2:有趣的事实,如果我用单个 NOP 指令替换“fclose”调用,显然我仍然可以保持奇怪的行为。
编辑 3:我的处理器是 Intel i5-2310 (Sandy Bridge)
编辑 4:事实证明,如果我通过编辑程序集文件来调整数组的大小,它不会变得更快。显然,当我在 C 代码中更改它们的大小时它变得更快的原因是因为 gcc 决定重新排列二进制文件中的东西的顺序。
编辑 5:更多证据表明重要的是 JMP 指令的精确地址:如果我在代码的开头添加一个 NOP(而不是 printf),它会变得更快。同样,如果我从代码的开头删除一条无用的指令,它也会变得更快。当我在不同版本的 gcc 上编译我的代码时,它也变得更快,尽管生成的汇编代码是相同的。唯一的区别是开始时的调试信息和二进制文件的各个部分的顺序不同。
最佳答案
关键指标
你的罪魁祸首是分支未命中:
440,171,927 branch-misses # 13.85% of all branches
对比
71,034,122 branch-misses # 2.24% of all branches
我不确定你运行的是哪个处理器,但如果你假设在 Haswell 上运行 2.5 GHz 处理器,你会发现每个分支预测未命中的成本约为 15 个周期(通常会多一点,因为其他东西停滞也),每个周期为0.4ns。因此,0.4ns/周期 * 15 个周期/遗漏分支 * (440,171,927 - 71,034,122) 分支遗漏 = 2.2 秒。这将取决于您的确切处理器和机器代码,但这解释了那里的大部分差异。
原因
不同芯片的分支预测算法是专有的,但如果您在这里 (http://www.agner.org/optimize/microarchitecture.pdf) 进行研究,您可以了解更多关于不同处理器及其限制的信息。从本质上讲,您会发现某些处理器在避免它们存储的分支预测表中的冲突方面做得更好,这些预测表用于预测是否采用分支。
那么,为什么它是相关的?好吧,发生的事情(99% 的可能性)是,通过非常轻微地重新安排您的程序,您可以更改完全不同的分支在内存位置方面的位置。在处理器的分支预测表中有太多映射到同一个桶。通过稍微更改可执行文件,这个问题就消失了。您必须在两个分支点之间有一个非常特定的距离才能触发此问题。不幸的是,你做到了。
简单的解决方案
如您所见,许多更改实际上会导致程序无法达到这种降级性能。本质上,任何改变两个关键分支点之间距离的东西都可以解决问题。您可以通过在这两个位置之间的某处插入 16 个字节(或足以将分支点移动到不同的存储桶)的机器代码 nop 来完成此操作。您也可以像以前那样做,改变一些会破坏与非病理情况的距离的东西。
深入挖掘
如果您想真正了解导致这种情况的原因,您需要亲自动手。乐趣!您将需要从众多工具中选择一种来查找被错误预测的特定分支。这是一种方式:How to measure mispredictions for a single branch on Linux?
在识别出预测错误的分支后,您可以确定是否有办法删除该分支(无论如何,这几乎总是一个提高性能的好主意)。如果没有,您可以为其添加一个提示,或者,最坏的情况是,只是四处移动以确保不会像之前建议的那样共享相同的条目。
更广泛的类(class)
程序员低估了分支的成本(当编译器无法在编译时删除分支时)。正如您所发现的,每个分支都会给处理器的分支预测缓冲区带来更多压力,并增加预测错误的可能性。因此,即使处理器 100% 可预测的分支也会通过减少可用于预测其他分支的资源来降低性能。此外,当一个分支被错误预测时,它至少需要 12-15 个周期,如果所需的指令不在 L1 缓存、L2 缓存、L3 缓存或天堂帮助你,主内存中,可能会更多。此外,编译器无法跨分支进行所有优化。
关于c - 我如何确定我的程序运行缓慢是否是 CPU 缓存问题(在 Linux 上)?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43241895/
我有一个 if 语句,如下所示 if (not(fullpath.lower().endswith(".pdf")) or not (fullpath.lower().endswith(tup
然而,在 PHP 中,可以: only appears if $foo is true. only appears if $foo is false. 在 Javascript 中,能否在一个脚
XML有很多好处。它既是机器可读的,也是人类可读的,它具有标准化的格式,并且用途广泛。 它也有一些缺点。它是冗长的,不是传输大量数据的非常有效的方法。 XML最有用的方面之一是模式语言。使用模式,您可
由于长期使用 SQL2000,我并没有真正深入了解公用表表达式。 我给出的答案here (#4025380)和 here (#4018793)违背了潮流,因为他们没有使用 CTE。 我很欣赏它们对于递
我有一个应用程序: void deleteObj(id){ MyObj obj = getObjById(id); if (obj == null) { throw n
我的代码如下。可能我以类似的方式多次使用它,即简单地说,我正在以这种方式管理 session 和事务: List users= null; try{ sess
在开发J2EE Web应用程序时,我通常会按以下方式组织我的包结构 com.jameselsey.. 控制器-控制器/操作转到此处 服务-事务服务类,由控制器调用 域-应用程序使用的我的域类/对象 D
这更多是出于好奇而不是任何重要问题,但我只是想知道 memmove 中的以下片段文档: Copying takes place as if an intermediate buffer were us
路径压缩涉及将根指定为路径上每个节点的新父节点——这可能会降低根的等级,并可能降低路径上所有节点的等级。有办法解决这个问题吗?有必要处理这个吗?或者,也许可以将等级视为树高的上限而不是确切的高度? 谢
我有两个类,A 和 B。A 是 B 的父类,我有一个函数接收指向 A 类型类的指针,检查它是否也是 B 类型,如果是将调用另一个函数,该函数接受一个指向类型 B 的类的指针。当函数调用另一个函数时,我
有没有办法让 valgrind 使用多个处理器? 我正在使用 valgrind 的 callgrind 进行一些瓶颈分析,并注意到我的应用程序中的资源使用行为与在 valgrind/callgrind
假设我们要使用 ReaderT [(a,b)]超过 Maybe monad,然后我们想在列表中进行查找。 现在,一个简单且不常见的方法是: 第一种可能性 find a = ReaderT (looku
我的代码似乎有问题。我需要说的是: if ( $('html').attr('lang').val() == 'fr-FR' ) { // do this } else { // do
根据this文章(2018 年 4 月)AKS 在可用性集中运行时能够跨故障域智能放置 Pod,但尚不考虑更新域。很快就会使用更新域将 Pod 放入 AKS 中吗? 最佳答案 当您设置集群时,它已经自
course | section | type comart2 : bsit201 : lec comart2 :
我正在开发自己的 SDK,而这又依赖于某些第 3 方 SDK。例如 - OkHttp。 我应该将 OkHttp 添加到我的 build.gradle 中,还是让我的 SDK 用户包含它?在这种情况下,
随着 Rust 越来越充实,我对它的兴趣开始激起。我喜欢它支持代数数据类型,尤其是那些匹配的事实,但是对其他功能习语有什么想法吗? 例如标准库中是否有标准过滤器/映射/归约函数的集合,更重要的是,您能
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 这个问题似乎与 help center 中定义的范围内的编程无关。 . 关闭 9 年前。 Improve
我一直在研究 PHP 中的对象。我见过的所有示例甚至在它们自己的对象上都使用了对象构造函数。 PHP 会强制您这样做吗?如果是,为什么? 例如: firstname = $firstname;
...比关联数组? 关联数组会占用更多内存吗? $arr = array(1, 1, 1); $arr[10] = 1; $arr[] = 1; // <- index is 11; does the
我是一名优秀的程序员,十分优秀!