gpt4 book ai didi

apache-spark - Spark 执行器内存减少到 1/2

转载 作者:行者123 更新时间:2023-12-04 04:35:01 26 4
gpt4 key购买 nike

我正在做这样的 Spark 提交 spark-submit --class com.mine.myclass --master yarn-cluster --num-executors 3 --executor-memory 4G spark-examples_2.10-1.0.jar

在web ui中,我可以看到确实有3个executor节点,但是每个都有2G的内存。当我设置 --executor-memory 2G 时,ui 显示每个节点 1G。

如何将我的设置减少 1/2?

最佳答案

Web UI 的执行器页面显示存储内存量,默认情况下等于 Java 堆的 54% (spark.storage.safetyFraction 0.9 * spark.storage.memoryFraction 0.6)

关于apache-spark - Spark 执行器内存减少到 1/2,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29191547/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com