gpt4 book ai didi

c++ clock_gettime()溢出了吗?

转载 作者:太空宇宙 更新时间:2023-11-04 15:49:45 26 4
gpt4 key购买 nike

当使用下面的示例代码时,我认为 tv_nsec 值是循环的,因为它只是一个long

#include <iostream>
using namespace std;
#include <time.h>

int main(int argc, char *argv[]) {
timespec time1, time2;
timespec timens = {0};
timens.tv_sec = 1;

clock_gettime(CLOCK_PROCESS_CPUTIME_ID, &time1);
nanosleep(&timens, (struct timespec *)NULL);
clock_gettime(CLOCK_PROCESS_CPUTIME_ID, &time2);

cout << time1.tv_nsec << " : " << time2.tv_nsec << endl;
cout << (time2.tv_nsec-time1.tv_nsec) << endl;
return 0;
}

$ ./microtime
2754095 : 2766801
12706

开始时间和结束时间之间的差异是 12706ns (12.7us),1 秒 sleep 不需要 12us,我合理确信这一点!那么这里发生了什么,tv_nsec 循环了吗?假设它是 singed long 来给出较小范围的正值(0 到 2147483647)而不是 unsigned long(0 到 4294967295),2147483647 纳秒仍然刚好超过 2整整几秒!

如果我将代码更改为以下内容,我仍然会得到看似无效的输出;

timens.tv_sec = 0;
timens.tv_nsec = 100000;

$ ./microtime
2743552 : 2754327
10775

sleep 持续时间设置为 100,000ns,但根据该输出,程序已 sleep 10,000ns。我知道这是一小段时间,但我想在这里表明,无论是像 1 秒这样的长时间还是像 100us 这样的短时间,这里似乎都没有准确性,或者这些值之间的任何地方。我做错了什么,我是否以某种方式错误地实现了这个?为什么我无法在调用 clock_gettime() 之间获取事件的实际持续时间?

非常感谢您的宝贵时间。

更新

@奥利;我可以使用以下代码测试您的建议,但它似乎不起作用:

int main(int argc, char *argv[]) {
timespec time1, time2;
timespec timens = {0};
timens.tv_sec = 1;
timens.tv_nsec = 0;

clock_gettime(CLOCK_PROCESS_CPUTIME_ID, &time1);
nanosleep(&timens, (struct timespec *)NULL);
clock_gettime(CLOCK_PROCESS_CPUTIME_ID, &time2);

cout <<time1.tv_sec<<"s:"<<time1.tv_nsec<<"ns : "<<
time2.tv_sec<<"s:"<<time2.tv_nsec<<"ns"<<endl;
cout <<(time2.tv_nsec-time1.tv_nsec)<<endl;
return 0;
}

$ ./microtime
0s:2801478ns : 0s:2813732ns
12254

最佳答案

计算时间间隔时还需要考虑tv_sec字段。

更新

此外,CLOCK_PROCESS_CPUTIME_ID 测量用于该进程的 CPU 时间。如果您以 nanosleep 屈服,则此计时器不会增加。尝试例如CLOCK_MONOTONIC 代替。

关于c++ clock_gettime()溢出了吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10572562/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com