gpt4 book ai didi

c++ - 为什么 GCD 会增加执行时间?

转载 作者:塔克拉玛干 更新时间:2023-11-03 08:27:26 24 4
gpt4 key购买 nike

我尝试学习 Grand Central Dispatch (GCD) 并使用以下代码进行测试:

使用 GCD:

#include <dispatch/dispatch.h>
#include <vector>
#include <cstdlib>
#include <iostream>

int main(int argc, char *argv[])
{
const int N = atoi(argv[1]);
__block std::vector<int> a(N, 0);
dispatch_apply(N,
dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0),
^(size_t i)
{
a[i] = i;
#ifdef DEBUG
if ( i % atoi(argv[2]) == 0)
std::cout << a[i] << std::endl;
#endif
});
return 0;
}

没有 GCD:

#include <vector>
#include <cstdlib>
#include <iostream>

int main(int argc, char *argv[])
{
const int N = atoi(argv[1]);
std::vector<int> a(N, 0);
for (int i = 0; i < N; i++)
{
a[i] = i;
#ifdef DEBUG
if ( i % atoi(argv[2]) == 0)
std::cout << a[i] << std::endl;
#endif
}
return 0;
}

GCD测试结果:

$ time ./testgcd 100000000 10000000
4.254 secs

没有 GCD 的测试:

$ time ./nogcd 100000000 10000000
1.462 secs

我认为GCD应该减少执行时间,但结果却相反。我不确定我是否滥用了 GCD。操作系统环境是 Mac OS X 10.8 和 Xcode 4.5。编译器是 Clang++ 3.1。硬件是带有i5 CPU的Macbook Pro,它有两个核心。

为了比较,我使用 OpenMP(也在同一台笔记本电脑上使用 Xcode 4.5 附带的 GCC):

#include <vector> 
#include <cstdlib>

int main(int argc, char *argv[])
{
const int N = atoi(argv[1]);
std::vector <int> a(N, 0);
#pragma omp parallel for
for (int i = 0; i < N; i++)
a[i] = i;
return 0;
}

和 w/wo (-fopenmp),我有两个可执行文件要测试,

在编译时使用 -fopenmp 标志:

$ time ./testopenmp 100000000
1.280 secs

编译时没有-fopenmp标志:

$ time ./testnoopenmp 100000000
1.626 secs

使用 OpenMP,执行时间会减少。

最佳答案

GCD 不一定要增加执行时间。在您的情况下这样做的原因是因为您做错了。重要的是您首先要知道您的应用程序运行缓慢的原因。所以我在多核分析器 (Instruments.app) 下运行了您的代码,结果如下:

Multi-Core Profiling Screenshot

如您所见,图表大部分是黄色的。黄色表示线程什么都不做,正在等待执行某个任务。绿色表示它正在执行任务。换句话说,按照您编写代码的方式,应用程序将 99% 的时间都花在了传递任务上,而每个任务的执行几乎不花时间——太多的开销。那为什么会这样呢?

因为您已经安排了大约 100000000 个任务运行。运行每个任务都有一些开销,这远远大于将整数分配给数组。经验法则是,如果任务的复杂性低于线程间通信的复杂性,则不要安排任务。

那么如何解决这个问题呢?安排更少的任务,在每个任务中做更多的事情。例如:

int main(int argc, char *argv[])
{
const int N = atoi(argv[1]);
__block std::vector<int> a(N, 0);
dispatch_apply(4,
dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0),
^(size_t iN)
{
size_t s = a.size()/4;
size_t i = (s*iN);
size_t n = i + s;
//printf("Iteration #%lu [%lu, %lu]\n", iN, i, n);
while (i < n) {
a[i] = i++;
}
});
return 0;
}

现在,分析器显示以下内容:

Not that bad

再次运行测试,GCD 稍微快一点:

$ time ./test_nogcd 100000000 10000000

real 0m0.516s
user 0m0.378s
sys 0m0.138s
$ time ./test_gcd 100000000 10000000

real 0m0.507s
user 0m0.556s
sys 0m0.138s

也许运行更少的任务会使它变得更好?试试看。有了这样一个简单的工作流程,您可能会更好地使用单线程 SIMD 实现。或者也许不是 :)

请注意,在某些情况下您必须格外小心,例如,当总大小不能分成 N 等份时等。为简单起见,我省略了所有错误检查。

此外,在当今商用硬件上并行执行任务时也存在大量细微差别。我建议您熟悉 MESI、错误共享、内存屏障、CPU 缓存、缓存遗忘算法等。记住 - 始终使用分析器!

希望对您有所帮助。祝你好运!

关于c++ - 为什么 GCD 会增加执行时间?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/14308261/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com