gpt4 book ai didi

parallel-processing - Julia Distributed 在添加进程时减慢了单核性能的一半

转载 作者:行者123 更新时间:2023-12-04 17:08:26 28 4
gpt4 key购买 nike

我有一个函数 func 在单核上运行时可能需要 ~50s。现在我想在一台192核CPU的服务器上多次运行。但是当我添加工作进程时,180 个,每个核心的性能都会下降。最差的 CPU 需要大约 100 秒来计算 func

有人可以帮帮我吗?

这是伪代码

using Distributed
addprocs(180)
@everywhere include("func.jl") # defines func in every process

First try using only 10 workers

@sync @distributed for i in 1:10
func()
end
@sync @distributed for i in 1:10
@time func()
end

From worker #: 43.537886 seconds (243.58 M allocations: 30.004 GiB, 8.16% gc time)
From worker #: 44.242588 seconds (247.59 M allocations: 30.531 GiB, 7.90% gc time)
From worker #: 44.571170 seconds (246.26 M allocations: 30.338 GiB, 8.81% gc time)
...
From worker #: 45.259822 seconds (252.19 M allocations: 31.108 GiB, 8.25% gc time)
From worker #: 46.746692 seconds (246.36 M allocations: 30.346 GiB, 11.21% gc time)
From worker #: 47.451914 seconds (248.94 M allocations: 30.692 GiB, 8.96% gc time)

Seems not bad when using 10 workers
Now we use 180 workers

@sync @distributed for i in 1:180
func()
end
@sync @distributed for i in 1:180
@time func()
end

From worker #: 55.752026 seconds (245.20 M allocations: 30.207 GiB, 9.33% gc time)
From worker #: 57.031739 seconds (245.00 M allocations: 30.176 GiB, 7.70% gc time)
From worker #: 57.552505 seconds (247.76 M allocations: 30.543 GiB, 7.34% gc time)
...
From worker #: 96.850839 seconds (247.33 M allocations: 30.470 GiB, 7.95% gc time)
From worker #: 97.468060 seconds (250.04 M allocations: 30.827 GiB, 6.96% gc time)
From worker #: 98.078816 seconds (250.55 M allocations: 30.883 GiB, 10.87% gc time)

时间从 55 秒到 100 秒几乎呈线性增长。

我已通过 top 命令检查 CPU 使用率可能不是瓶颈(“id”保持 >2%)。 RAM 的使用情况也是如此(使用了 ~20%)。

其他版本信息: Julia 版本 1.5.3平台信息:操作系统:Linux (x86_64-pc-linux-gnu)CPU:Intel(R) Xeon(R) Platinum 9242 CPU @ 2.30GHz


更新:

  1. func 替换为最小示例(简单的 for 循环)不会改变减速。
  2. 将进程数减少到 192/2 可以缓解减速

新的伪代码是

addprocs(96)
@everywhere function ss()
sum=0
for i in 1:1000000000
sum+=sin(i)
end
end

@sync @distributed for i in 1:10
ss()
end
@sync @distributed for i in 1:10
@time ss()
end

From worker #: 32.8 seconds ..(8 others).. 34.0 seconds

...
@sync @distributed for i in 1:96
@time ss()
end

From worker #: 38.1 seconds ..(94 others).. 45.4 seconds

最佳答案

您正在测量每个工作人员执行 func() 所花费的时间,并观察从 10 个进程到 180 个并行进程时单个进程的性能下降。

这对我来说很正常:

  • 英特尔核心使用超线程,因此您实际上拥有 96 个核心(更详细地说,超线程核心仅增加 20-30% 的性能)。这意味着您的 168 个进程需要共享 84 个超线程内核,而 12 个进程获得完整的 12 个内核。
  • CPU 速度由节流温度 ( https://en.wikipedia.org/wiki/Thermal_design_power ) 决定,当然,运行 10 个进程与运行 180 个进程相比,空间要大得多
  • 您的任务显然在争夺内存。他们总共分配了超过 5TB 的内存,而你的机器分配的内存比这少得多。垃圾收集的最后一英里始终是最昂贵的一英里 - 因此,如果您的垃圾收集器被挤压并争夺内存,则性能会参差不齐,垃圾收集时间会长得惊人。

查看此数据我建议您尝试:

addprocs(192 ÷ 2)

然后查看性能将如何变化。

关于parallel-processing - Julia Distributed 在添加进程时减慢了单核性能的一半,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/70006813/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com