- r - 以节省内存的方式增长 data.frame
- ruby-on-rails - ruby/ruby on rails 内存泄漏检测
- android - 无法解析导入android.support.v7.app
- UNIX 域套接字与共享内存(映射文件)
是否可以在 Linux 主机上以微秒精度执行任务?即,我想在特定的时间执行任务。我知道,Linux 不是实时系统,但我正在寻找 Linux 上的最佳解决方案。
到目前为止,我已经创建了一个内核模块,设置了 hrtimer 并测量了输入回调函数时的抖动(我不太关心实际延迟,重要的是抖动)- 大约 20- 50us。这并不比在用户空间中使用 timerfd 好多少(也尝试过对进程使用实时优先级,但这并没有真正改变任何东西)。
我正在运行 Linux 3.5.0(只是一个例子,尝试了从 2.6.35 到 3.7 的不同内核),/proc/timer_list 显示 hrtimer_interrupt,我没有在禁用 hrtimer 功能的故障安全模式下运行。尝试了不同的 CPU(Intel Atom 到 Core i7)。
到目前为止,我最好的想法是将 hrtimer 与 ndelay/udelay 结合使用。这真的是最好的方法吗?我不敢相信不可能以微秒精度触发任务。在内核空间中将代码作为模块运行是可以接受的,但如果代码没有被其他任务中断,那就太好了。我不太关心系统的其余部分,该任务每秒只会执行几次,因此每次执行任务时使用 mdelay/ndelay 将 CPU 燃烧几微秒并不重要。不过,我更喜欢更优雅的解决方案。
我希望问题很清楚,发现了很多关于计时器精度的话题,但没有真正解决这个问题。
最佳答案
你可以在用户空间做你想做的事
clock_gettime()
使用 CLOCK_REALTIME
以 nano
秒分辨率获取时间nanosleep()
让出 CPU,直到接近执行任务所需的时间(至少是 milli
秒分辨率)。clock_gettime()
的自旋循环,直到达到所需时间clock_gettime()
函数实现为 VDSO
在最近的内核和现代 x86 处理器中 - 它需要 20-30 nano
秒来获取具有 nano
秒分辨率的时间 - 你应该能够调用 clock_gettime()
每 micro
秒超过 30 次。使用此方法,您的任务应在预定时间的 micro
秒的 1/30 内分派(dispatch)。
关于Linux 的 hrtimer - 微秒精度?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/14944204/
关于这个话题已经说了很多,但是我找不到我的问题的确切答案。 JavaScript 无法准确表示 0.1 等小数,这是可以理解的。 例如,由于乘法运算期间发生舍入误差,这是正确的: 0.1 * 3 ==
在 zig 中,可以使用“{d}”以十进制表示法打印浮点值。这将自动以全精度打印该值。有没有办法指定位数?是针对每个值,还是作为某种全局设置? 最佳答案 这将限制小数点后的位数,四舍五入和零填充: f
我正在进行的项目需要高精度。减法时我遇到的问题在这里说明: >> 1-0.9999999999999999 ans = 1.1102e-16 >> 1-0.99999999999999999 ans
是否可以使变量本身的精度成为将在运行时定义的变量? 说,如果我尝试编译: SUBROUTINE FOO( VARIABLE, PRECISION_VALUE ) IMPLICI
我正在查询 SQLite 数据库以获取纬度/经度详细信息。 SELECT * FROM tblMain where latitude > -33.866 and latitude 151.20
我一直使用下划线将整数定义为 Fortran 中的特定类型。 下面是一段代码,用于演示 1_8 的含义,例如: program main implicit none integer(2)
我正在寻找一种方法来告诉 pint 要打印多少个有效数字。例如,当我输入以下内容时: import pint ureg = pint.UnitRegistry() print(3*ureg.m /9)
我正在从事一个项目,目标是从山上追踪动物。在第一个实地考察季中,我们使用了 OpenTags 和经过校准的摄像头,虽然可以正常工作,但需要大量的处理/校准,而且至关重要的是,当系统出现问题时无法提供任
在 JavaScript 中有没有一种方法可以确定一个数除以另一个数是否会得到整数?就像 18.4/0.002 给我们 9200,但是 18.4/0.1 给我们 183.99999999999997。
我正在尝试使用 Big.js 在 javascript 中完成此计算 r = (a * b)/ sqrt( ( a*sin(θ) )^2 + ( b*cos(θ) )^2 ) 我也试过 math.js
我有这个片段着色器代码,它在 iOS 模拟器(非视网膜)和 iPad2(非视网膜)之间显示不同: highp vec2 textCoord; textCoord.x = gl_Fr
这个问题在这里已经有了答案: C++ calculating more precise than double or long double (2 个答案) 关闭 6 年前。 是否有任何浮点类型在小
我似乎一直困惑的三个问题: 为什么代码是 x & ~077比这行代码 x & 0177700 更好。是因为精度损失较小吗? 为什么此代码对于设置数字中的第 5 位不正确? num = num + 0x
这个问题在这里已经有了答案: 关闭 10 年前。 Possible Duplicate: Precision of Floating Point 我正在尝试使用一些 float 来计算概率,但我的最
由于微 Controller 的精度,我定义了一个包含两个 float 比率的符号,而不是直接写结果。 #define INTERVAL (0.01F/0.499F) 代替 #defi
我试图比较这 3 种搜索算法,起初我使用 time.h 库但没有任何反应,输出始终是 0.00000 秒。现在我试图在循环中使用一些计数器。但我在这里也有问题, 任何人都可以帮我处理代码吗? 这是我的
char buf[10]; int counter, x = 0; snprintf (buf, sizeof buf , "%.100d%n", x, &counter); printf("Coun
我注意到在评估向量时对我来说是不可预测的行为。直接执行它与在循环中进行索引似乎是完全不同的。谁能帮我解决这个问题?我知道可能在它如何进行每个操作中都有解释,所以我需要一些关于如何查找它的键 多谢指教提
我想在我的应用程序中使用精确的 gps 定位。所以我遵循了一个简单的教程(LocationManager 的基本用法,明确要求 GPS 提供商,要求更新 0 ms,0 m)并创建了一个应用程序。我对更
float 在 1.0f 和 0.0f 之间有多少位精度,这样每个值都可以唯一表示? 例如,如果第一个小数 float 不能表示 0.13f,答案就是 float 只有一位精度。 最佳答案 std::
我是一名优秀的程序员,十分优秀!