gpt4 book ai didi

c - Interbench 基准代码

转载 作者:行者123 更新时间:2023-11-30 17:22:34 25 4
gpt4 key购买 nike

我想问一下大家是否熟悉 Interbench 中的这个功能,如下所示。我想将其移植到 Windows 平台,但一直失败。我只能通过使用 timeval 而不是 timespec 来获得微秒精度。最后,会出现错误:除以零和访问冲突异常

unsigned long get_usecs(struct timeval *myts)
{
if (clock_gettime(myts))
terminal_error("clock_gettime");

return (myts->tv_sec * 1000000 + myts->tv_usec);
}

void burn_loops(unsigned long loops)
{
unsigned long i;

/*
* We need some magic here to prevent the compiler from optimising
* this loop away. Otherwise trying to emulate a fixed cpu load
* with this loop will not work.
*/

for (i = 0; i < loops; i++)
_ReadWriteBarrier();
}
void calibrate_loop()
{
unsigned long long start_time, loops_per_msec, run_time = 0;
unsigned long loops;
struct timeval myts;

loops_per_msec = 100000;

redo:
/* Calibrate to within 1% accuracy */
while (run_time > 1010000 || run_time < 990000) {
loops = loops_per_msec;
start_time = get_usecs(&myts);
burn_loops(loops);
run_time = get_usecs(&myts) - start_time;
loops_per_msec = (1000000 * loops_per_msec / run_time ? run_time : loops_per_msec );
}

/* Rechecking after a pause increases reproducibility */
Sleep(1 * 1000);
loops = loops_per_msec;
start_time = get_usecs(&myts);
burn_loops(loops);
run_time = get_usecs(&myts) - start_time;

/* Tolerate 5% difference on checking */
if (run_time > 1050000 || run_time < 950000)
goto redo;

loops_per_ms = loops_per_msec;
}

最佳答案

我所知道的唯一的 clock_gettime() 函数是 POSIX 指定的函数,并且该函数的签名与您正在使用的函数不同。它确实提供纳秒分辨率(尽管不太可能提供单纳秒精度)。但据我所知,它在 Windows 上不可用。微软获得纳秒级时间差异的答案是使用其专有的"Query Performance Counter" (QPC) API 。不过,请暂时将其放在一边,因为我怀疑时钟分辨率不是您真正的问题。

假设您的 get_usecs() 函数成功检索了具有微秒分辨率和至少(大约)毫秒精度的时钟时间,正如预期的那样,您的代码看起来有点奇怪。特别是,这个作业...

loops_per_msec = (1000000 * loops_per_msec / run_time
? run_time
: loops_per_msec );

...看起来很错误,当格式强调运算符优先级时更加明显,如上所述(*/ 的优先级高于 ?: )。如果您没有获得可测量的正运行时间,它将为您提供被零除的结果,否则它将始终为您提供与开始时相同的 loops_per_msec 值,或者 run_time ,后者甚至没有正确的单位。

我怀疑其意图更像是这样......

loops_per_msec = ((1000000 * loops_per_msec)
/ (run_time ? run_time : loops_per_msec));

...,但这仍然有一个问题:如果 1000000 次循环不足以消耗至少一微秒(根据测量),那么您将陷入无限循环,并重复设置 loops_per_msec至 1000000。

这不太容易受到特定问题的影响......

loops_per_msec = ((1000000 * loops_per_msec) / (run_time ? run_time : 1));

...这对我来说也更有意义,因为如果测量的运行时间是 0 微秒,那么 1 微秒是比任何其他可能值更好的非零近似值。请注意,当测量的运行时间为零微秒时,这将相当快地扩展您的loops_per_msec(一百万倍)。即使 unsigned long long 结果有 128 位,你也不能在不溢出的情况下执行多次,并且如果发生溢出,那么你将进入无限循环。另一方面,如果发生溢出,则表明您尝试估计的 loops_per_msec 的正确值大得离谱。

这使我得出我的结论:我怀疑您真正的问题是您的计时计算错误或无效,要么是因为 get_usecs() 无法正常工作,要么是因为 的主体>burn_loops() 正在被优化(尽管您努力避免这种情况)。您的时间测量不需要亚微秒精度。事实上,您甚至不需要比毫秒更好的精度,只要您的 burn_loop() 实际上确实与其参数的值成正比即可。

关于c - Interbench 基准代码,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27991884/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com