gpt4 book ai didi

timer - 计时器和延迟如何在低级别工作

转载 作者:行者123 更新时间:2023-12-02 02:10:31 25 4
gpt4 key购买 nike

关于这个问题,我真的找不到任何有趣的东西,但我一直想知道很长一段时间以来,任何编程语言中的计时器和延迟是如何在低级别工作的。

据我了解,CPU 会尽可能快地(取决于其时钟速度)持续执行其所有内核中的指令,并且只要有任何要执行的指令(有一个正在运行的、事件的线)。

我不认为有一种直接的方法可以在涉及实时的情况下操纵这个流程。然后我想知道动画之类的东西是如何工作的,在很多很多情况下都会遇到:

  • 在 Windows 7 操作系统中,当您将鼠标移到开始菜单按钮上时,它会逐渐变亮;
  • 在Flash中,有一个时间轴,Flash文档中的所有对象都根据FPS设置和时间轴进行动画处理;
  • jQuery 支持各种动画;
  • 代码执行延迟...

  • 计算机(主板)有物理计时器吗?就像 CPU 有寄存器来执行其操作并在计算之间保留数据?我在互联网上没有找到任何关于它的信息。操作系统是否有一些非常复杂的编程,为所有与计时相关的事情提供最低级别的 API?

    我真的很好奇答案。

    最佳答案

    大多数(可能是所有)CPU 由主板上的时钟驱动,该时钟每隔一段时间就会“滴答”(生成信号)。这就是处理器上的兆赫 (MHZ) 或千兆赫 (GHz) 额定值告诉您该时钟运行的速度。这就是“超频”所指的,当您读到处理器可以安全地超频到某个更高的 GHz 设置时。您上面描述的大部分内容都是由该时钟生成的“滴答声”触发的。这决定了 CPU 尝试执行下一条指令的频率,它实际上执行所有操作的频率......
    不要将此时钟与 Real-Time Clock 混淆,它会记录现在的时间。所有对“系统时间”或“服务器时间”的引用都使用实时时钟,它是主板上的一个独立硬件,即使在计算机关闭时也能跟踪时间。
    这两个“时钟”彼此独立,用于两个完全不同的目的。一个驱动所有 CPU 处理。如果指定的过程(例如,将两个整数相乘)将花费 127 个 cpu 周期,那么它将花费多少实时时间完全取决于 cpu 时钟设置的千兆赫兹......如果它设置为 3.0 Ghz,那么这意味着 cpu 每秒可以执行 30 亿个处理器周期,所以需要 127 个周期的东西将需要 127/30 亿秒。如果在主板上放置不同的时钟 cpu,那么相同的乘法将花费更多(或更少)的时间。所有这些都与实时时钟没有任何关系,实时时钟只是跟踪现在的时间。

    关于timer - 计时器和延迟如何在低级别工作,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/13199912/

    25 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com