gpt4 book ai didi

c - 如何在linux中获得高精度纳秒级延迟

转载 作者:太空宇宙 更新时间:2023-11-04 12:54:00 28 4
gpt4 key购买 nike

我已经编写了内核模块来测量 ndelay() 内核函数的正确性。

#include <linux/module.h>
#include <linux/init.h>
#include <linux/kernel.h>
#include <linux/time.h>
#include <linux/delay.h>
static int __init initialize(void)
{
ktime_t start, end;
s64 actual_time;
int i;
for(i=0;i<10;i++)
{
start = ktime_get();
ndelay(100);
end = ktime_get();
actual_time = ktime_to_ns(ktime_sub(end, start));
printk("%lld\n",(long long)actual_time);
}
return 0;
}

static void __exit final(void)
{
printk(KERN_INFO "Unload module\n");
}

module_init(initialize);
module_exit(final);

MODULE_AUTHOR("Bhaskar");
MODULE_DESCRIPTION("delay of 100ns");
MODULE_LICENSE("GPL");

dmesg 的输出是这样的:

[16603.805783] 514
[16603.805787] 350
[16603.805789] 373
[16603.805791] 323
[16603.805793] 362
[16603.805794] 320
[16603.805796] 331
[16603.805797] 312
[16603.805799] 304
[16603.805801] 350

我浏览了 stackoverflow 中的一篇帖子: Why udelay and ndelay is not accurate in linux kernel?

但我想要在内核空间中微调纳秒级延迟(可能在 100-250ns 的范围内)。任何人都可以建议我这样做的任何替代方法吗?

最佳答案

你可以使用

High resolution timers (or hrtimers)

hrtimer_init
hrtimer_start
hrtimer_cancel

函数。提供了一个示例 here

关于c - 如何在linux中获得高精度纳秒级延迟,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36299528/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com