gpt4 book ai didi

python - 如何在 pyspark 的客户端模式下设置 spark 驱动程序 maxResultSize?

转载 作者:行者123 更新时间:2023-11-28 16:23:33 27 4
gpt4 key购买 nike

我知道当您在 pyspark 中处于客户端模式时,您无法在脚本中设置配置,因为 JVM 会在加载库后立即启动。

因此,设置配置的方法是实际去编辑启动它的 shell 脚本:spark-env.sh...根据此文档 here .

如果我想更改驱动程序的最大结果大小,我通常会这样做:spark.driver.maxResultSizespark-env.sh 文件中的等效项是什么?

有些环境变量很容易设置,比如SPARK_DRIVER_MEMORY明明是为spark.driver.memory设置的,但是的环境变量是什么>spark.driver.maxResultSize ?谢谢。

最佳答案

配置文件是conf/spark-default.conf

如果conf/spark-default.conf不存在

cp conf/spark-defaults.conf.template conf/spark-defaults.conf

添加类似的配置

spark.driver.maxResultSize  2g

有很多可用的配置,引用Spark Configuration

关于python - 如何在 pyspark 的客户端模式下设置 spark 驱动程序 maxResultSize?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38406825/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com