gpt4 book ai didi

c++ - 将线程移植到 Windows。关键部分非常慢

转载 作者:可可西里 更新时间:2023-11-01 13:47:14 25 4
gpt4 key购买 nike

我正在将一些代码移植到 Windows 中,发现线程处理速度极慢。该任务在 Windows 上需要 300 秒(使用两个至强 E5-2670 8 核 2.6ghz = 16 核),在 Linux 上需要 3.5 秒(至强 E5-1607 4 核 3ghz)。使用 vs2012 express 。

我有 32 个线程都在调用 EnterCriticalSection(),弹出一个 std::stack 的 80 字节作业,LeaveCriticalSection 并做一些工作(总共 250k 个作业)。

在每次关键部分调用之前和之后,我都会打印线程 ID 和当前时间。

  • 单线程锁等待时间~160ms
  • 将作业从堆栈中弹出大约需要 3 毫秒
  • 调用 leave 需要大约 3 毫秒
  • 这项工作耗时约 1 毫秒

(调试/发布大致相同,调试需要更长的时间。我希望能够正确分析代码:P)

注释掉作业调用会使整个过程花费 2 秒(仍然比 linux 多)。

我已经尝试了 queryperformancecounter 和 timeGetTime,两者给出的结果大致相同。

据我所知,这项工作从不进行任何同步调用,但除非它进行,否则我无法解释速度变慢的原因。

我不知道为什么从堆栈复制和调用 pop 需要这么长时间。另一个非常令人困惑的事情是为什么调用 leave() 需要这么长时间。

谁能猜出为什么它运行得这么慢?

我没想到处理器的差异会带来 100 倍的性能差异,但这可能与双 CPU 有任何关系吗? (必须在不同的 CPU 之间同步而不是在内部内核之间同步)。

顺便说一下,我知道 std::thread 但希望我的库代码能够与 C++11 之前的版本一起工作。

编辑

//in a while(hasJobs) loop...

EVENT qwe1 = {"lock", timeGetTime(), id};
events.push_back(qwe1);

scene->jobMutex.lock();

EVENT qwe2 = {"getjob", timeGetTime(), id};
events.push_back(qwe2);

hasJobs = !scene->jobs.empty();
if (hasJobs)
{
job = scene->jobs.front();
scene->jobs.pop();
}

EVENT qwe3 = {"gotjob", timeGetTime(), id};
events.push_back(qwe3);

scene->jobMutex.unlock();

EVENT qwe4 = {"unlock", timeGetTime(), id};
events.push_back(qwe4);

if (hasJobs)
scene->performJob(job);

和互斥量类,删除了 linux #ifdef 内容...

CRITICAL_SECTION mutex;

...

Mutex::Mutex()
{
InitializeCriticalSection(&mutex);
}
Mutex::~Mutex()
{
DeleteCriticalSection(&mutex);
}
void Mutex::lock()
{
EnterCriticalSection(&mutex);
}
void Mutex::unlock()
{
LeaveCriticalSection(&mutex);
}

最佳答案

当您第一次进入时,窗口的 CRITICAL_SECTION 会在一个紧密的循环中旋转。它不会挂起调用 EnterCriticalSection 的线程,除非在自旋循环中经过了相当长的一段时间。因此,让 32 个线程争用同一个临界区会消耗并浪费大量 CPU 周期。尝试使用互斥锁(请参阅 CreateMutex)。

关于c++ - 将线程移植到 Windows。关键部分非常慢,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/18442574/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com