gpt4 book ai didi

c++ - 使用 CPU 计时器控制线程进行两个单独的操作会导致性能下降吗?

转载 作者:行者123 更新时间:2023-11-28 05:22:22 24 4
gpt4 key购买 nike

我正在用 C++ 编写一个程序,它必须同时运行两个操作(或者至少让它看起来正在这样做)。我一直读到线程是解决这个问题的最佳解决方案,但我对它们不太熟悉,而是选择了基于毫秒的基于定时器的控制,按照我的计划在操作 1 和操作 2 之间来回分配 CPU 资源稍后学习多线程。

我的程序在正常运行,但它看起来很慢、迟钝,而且有点断断续续。这可能是由于我使用计时器分配资源的方式造成的吗?我在第一次操作中进行光视觉处理,并在第二次操作中更新 GUI。

作为引用,我使用的是 Intel i3-3110M 和 4 GB DDR3 RAM。

最佳答案

一方面,使用计时器而不是线程意味着一次只能使用 CPU 上的一个核心。使用线程,您的两个任务可以(至少在原则上)每个都有自己的核心,因此它们可以完全同时运行,从而为您提供 2 倍的潜在加速。

使用计时器的第二个问题实际上是第一个问题的必然结果:如果 timer-event-number-1 调用的例程花费的时间比预期的要长,那么 timer-event-number- 调用的例程必然2 在第一个例程返回后才能启动,因此它会延迟启动。如果比预期花费的时间更长(或每次),那么随着时间的推移,对每个例程的调用将越来越“落后于计划”。

计时器的第三个问题是知道延迟多长时间。也许对于视觉处理程序来说这是显而易见的(例如,如果视频以 20fps 的速度进入,那么您可能希望将例程设置为每 50 毫秒执行一次),但对于逻辑上相互依赖的任务(例如,第二个例程是应该消耗第一个例程产生的结果)这是对 CPU 周期的浪费,因为 CPU 可能最终会无缘无故地等待在特定时间处理数据,而它可能早点处理并退出道路。在这种情况下,通常最好使用某种逻辑触发机制(例如,第二个例程在第一个例程返回之前由第一个例程调用,或者在多线程情况下,让第一个例程发出信号量或唤醒信号第二个线程立即上线)。即使在视频处理的情况下,通过接收视频帧触发第一个例程通常比通过定时器触发更好,因为如果定时器延迟关闭,你就浪费了宝贵的处理时间,如果它提前关闭,那么没有任何视频帧可供处理。

至于您的特定程序,其性能不佳可能是由于您使用了计时器,或者可能只是因为您的例程效率不够高,无法在您分配的时间内完成工作他们去做。我建议在分析器下运行你的程序并找出它花费大部分时间的地方,然后研究使程序的那部分更有效率的方法(然后再次测试和分析,重复直到你对程序的性能)。

关于c++ - 使用 CPU 计时器控制线程进行两个单独的操作会导致性能下降吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41205165/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com