gpt4 book ai didi

apache-spark - “spark.yarn.executor.memoryOverhead”的值设置吗?

转载 作者:行者123 更新时间:2023-12-03 12:11:06 33 4
gpt4 key购买 nike

应该将带YARN的Spark作业中spark.yarn.executor.memoryOverhead的值分配给App还是仅分配给最大值?

最佳答案

spark.yarn.executor.memoryOverhead

只是最大值。目标是将RDHEAD和实际执行者内存的百分比计算为OVERHEAD,由RDD和DataFrame使用
--executor-memory/spark.executor.memory

控制执行程序堆的大小,但是JVM也可以在堆外使用一些内存,例如,用于内联的String和直接字节缓冲区。
spark.yarn.executor.memoryOverhead的值
属性被添加到执行者内存中,以确定每个执行者对YARN的完整内存请求。默认为max(executorMemory * 0.10,最小值为384)。

执行者将使用基于 spark.executor.memory属性加上 spark.yarn.executor.memoryOverhead定义的开销的内存分配

关于apache-spark - “spark.yarn.executor.memoryOverhead”的值设置吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41057311/

33 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com