gpt4 book ai didi

multithreading - spark.task.cpus 和 --executor-cores 有什么区别

转载 作者:行者123 更新时间:2023-12-04 23:41:02 25 4
gpt4 key购买 nike

在我的 mapPartition 部分,有多线程工作要做,我使用线程池并希望并行运行任务。但我无法区分这两个参数。
我想我可以设置 --executor-cores 到 5,我在我的任务中运行了 4 个线程。这是正确的吗?

最佳答案

spark.task.cpus是为每个任务分配的内核数和 --executor-cores指定每个执行程序的核心数。

正如 here 所解释的,执行程序和任务之间存在细微差别。 .

要了解每个内核可以运行多少个线程,请通过 this邮政。

根据链接:

创建 SparkContext 时,每个工作人员都会启动一个执行程序。这是一个单独的进程 (JVM)。执行程序连接回您的驱动程序。现在驱动程序可以向它们发送命令,例如 flatMap、map 和 reduceByKey,这些命令就是任务。

要了解每个内核运行的 CPU 支持的线程数 lscpu并检查 Thread(s) per core: 的值.

关于multithreading - spark.task.cpus 和 --executor-cores 有什么区别,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37545069/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com