- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
/*
* Returns time in s.usec
*/
float mtime()
{
struct timeval stime;
gettimeofday(&stime,0x0);
return (float)stime.tv_sec+((float)stime.tv_usec)/1000000000;
}
main(){
while(true){
cout<<setprecision(15)<<mtime()<<endl;
// shows the same time irregularly for some reason and can mess up triggers
usleep(500000);
}
}
为什么不规律地显示同一时间? (在 ubuntu 64 位和 C++ 上编译)还有哪些其他标准方法可用于生成毫秒精度的 unix 时间戳?
最佳答案
float
有 between 6 and 9 decimal digits of precision .
所以如果整数部分是例如1,391,432,494(我写这篇文章时的 UNIX 时间;需要 10 位数字),小数部分已经没有数字了。不太好,这就是 float
失败的原因。
跳转到 double gives you 15 digits因此,只要您可以假设整数部分是 UNIX 时间戳,即自 1970 年以来的秒数,这似乎就足够了,因为这意味着它不太可能很快使用更多的数字。
关于C++ gettimeofday() 返回相同的值,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/21527948/
#include #include int main() { float time; struct timeval tv; gettimeofday( &tv, NULL );
gettimeofday根据 this page 是 x86-86 的系统调用(只需在框中搜索 gettimeofday): int gettimeofday(struct timeval *tv,
我需要使用函数 gettimeofday 进行家庭作业,在阅读手册页并查看一些在线示例后,我不明白为什么人们有时同时使用结构的 tv_sec 成员和结构的 tv_usec 成员。 手册页指出: T
如果在我测量间隔时发生时间变化,会发生什么情况,例如: gettimeofday(&start, NULL); system("./anotherProgram"); // during the
是否有任何方法可以在不使用任何数组的情况下存储 gettimeofday() 中的时间刻度数并将其格式化为某种特定方式(例如“%m-%d-%Y %T”)? 这将为计算当前时间的程序的每个实例节省内存。
当我输出 gettimeofday() 的微秒字段时,我注意到微秒字段大于 1,000,000。有人知道为什么吗?这是否意味着我对 gettimeofday() 的解释是错误的? 郑重声明,我的假设是
我正在用 c 编写一些基本的东西,计算执行 shell 脚本所需的时间。 我有 gettimeofday(&start, NULL); // code here gettimeofday(&end,
我想获取一个线程进入临界区和另一个线程获得进入 ARM CortexA8 上同一临界区的权限之间耗时。为此,我一直在使用 C 语言中的 gettimeofday() 函数。 void *Thre
对于以下代码,我有时会得到负值。我不明白这一点。任何人都可以解释为什么会发生这种情况。 int64_t gettimelocal() { struct timeval Time; if
/* * Returns time in s.usec */ float mtime() { struct timeval stime; gettimeofday(&stime,0
我为我所在大学的抽样作业编写了这段代码。 #include #include #include #include int main(int argc, char **argv){ st
我正在尝试以十分之一秒的精度打印 ISO-8601 中的时间。YYYY-MM-DDThh:mm:ss.s 这是我的代码: #include #include #include #include
我有一个程序可以计算发布-订阅模型中对象的延迟时间。我为时间戳使用了以下函数: uint64_t GetTimeStamp() { struct timeval tv; gettime
我试过谷歌、php.net 和 php 邮件列表的存档,但我找不到我在找什么。也许这是显而易见的,或者也许没有人想知道这…… 多年来,我一直使用 microtime() 来获取当前时间,包括微秒。然而
如何将此功能从 linux 转换到 Windows?我不能使用 gettimeofday 函数 double getSysTime() { struct timeval tp; getti
我正在编写一个线程库,在安排线程时我需要知道它们已经准备了多长时间。每个 Thread 实例都有一个 timeval _timeInReady 字段,当我将一个实例推送到就绪队列时,我调用这个函数:
我正在将最初为 Win32 API 编写的游戏移植到 Linux(嗯,将 Win32 端口的 OS X 端口移植到 Linux)。 我已经实现了 QueryPerformanceCounter,方法是
我正在尝试计算系统调用的平均开销,因此我重复执行 0 字节读取系统调用,并将平均开销计算为时间差除以迭代次数。但是,有时当我这样做时,我会得到一个负数。这是我的代码: #include #inclu
我正在做一个涉及比较编程语言的项目。我正在计算阿克曼函数。我测试了 Java、Python 和 Ruby,得到了 10 到 30 毫秒之间的响应。但是 C++ 似乎需要 125 毫秒。这是正常的,还是
我正在尝试使用 gettimeofday 或 cudaEventRecord 来计时循环。然而,他们报告的结果截然不同。这是伪代码: // get time here (start) whil
我是一名优秀的程序员,十分优秀!