gpt4 book ai didi

c++ - 在每 t 毫秒执行一次 c++ 代码时执行测量

转载 作者:行者123 更新时间:2023-11-28 03:35:57 25 4
gpt4 key购买 nike

给定一个 while 循环和函数顺序如下:

int k=0;
int total=100;
while(k<total){
doSomething();
if(approx. t milliseconds elapsed) { measure(); }
++k;
}

我想每第 t 毫秒执行一次“测量”。但是,由于“doSomething”可能接近上次执行后的第 t 毫秒,因此在上次测量大约 t 毫秒后执行测量是可以接受的。我的问题是:这是如何实现的?

一种解决方案是将计时器设置为零,并在每次“做某事”后对其进行测量。当它在可接受的范围内时,我会采取措施并重新设置。但是,我不是应该为这样的任务使用哪个 c++ 函数。正如我所见,有某些功能,但关于哪一个最合适的争论超出了我的理解范围。请注意,有些函数实际上考虑了其他一些进程所花费的时间,但我希望我的计时器只测量我的 c++ 代码的执行时间(我希望这是清楚的)。另一件事是测量的分辨率,如下所述。假设那些建议的中等选项。

最佳答案

高分辨率时序是特定于平台的,您没有在问题中指定。标准库 clock() 函数返回一个以每秒 CLOCKS_PER_SEC 递增的计数。在某些平台上,这可能足够快,可以为您提供所需的分辨率,但您应该检查系统的滴答率,因为它是实现定义的。但是,如果您发现它足够高,那么:

#define SAMPLE_PERIOD_MS 100
#define SAMPLE_PERIOD_TICKS ((CLOCKS_PER_SEC * SAMPLE_PERIOD_MS) / 1000)

int k=0;
int total=100;
clock_t measure_time = clock() + SAMPLE_PERIOD_TICKS ;
while(k<total)
{
doSomething();
if( clock() - measure_time > 0 )
{
measure();
measure_time += SAMPLE_PERIOD_TICKS ;
++k;
}
}

如有必要,您可以将 clock() 替换为其他一些高分辨率时钟源。

但是请注意几个问题。这个方法是一个“忙循环”;除非 doSomething() 或 measure() 产生 CPU,否则该进程将占用所有它可以占用的 cpu 周期。如果这是在目标上运行的唯一代码,那可能无关紧要。另一方面,这是在非实时的通用操作系统(如 Windows 或 Linux)上运行,该进程可能会被其他进程抢占,这可能会影响采样周期的准确性。如果您需要准确计时,使用 RTOS 并在单独的线程中执行 doSomething() 和 measure() 会更好。即使在 GPOS 中也会更好。例如,一般模式(在没有任何规范的情况下使用虚构的 API)将是:

int main()
{
StartThread( measure_thread, HIGH_PRIORITY ) ;
for(;;)
{
doSomething() ;
}
}

void measure_thread()
{
for(;;)
{
measure() ;
sleep( SAMPLE_PERIOD_MS ) ;
}
}

measure_thread() 的代码只有在 measure() 运行时间可以忽略不计的情况下才是准确的。如果需要很长时间,您可能需要考虑到这一点。如果它是不确定的,您甚至可能必须测量它的执行时间才能减去 sleep 时间。

关于c++ - 在每 t 毫秒执行一次 c++ 代码时执行测量,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10863121/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com