gpt4 book ai didi

apache-spark - 是否可以在 PySpark 中获取当前的 Spark 上下文设置?

转载 作者:行者123 更新时间:2023-12-02 20:19:01 25 4
gpt4 key购买 nike

我正在尝试获取当前 sparkcontextspark.worker.dir 路径。

如果我明确将其设置为配置参数,我可以从SparkConf中将其读回,但是无论如何都可以访问完整的配置 code>(包括所有默认值)使用 PySpark

最佳答案

星火2.1+

from pyspark.sql import SparkSession

spark = SparkSession.builder.getOrCreate()

spark.sparkContext.getConf().getAll()

在上面的代码中,spark是您的sparksession(为您提供一个包含所有配置设置的dict)

关于apache-spark - 是否可以在 PySpark 中获取当前的 Spark 上下文设置?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30560241/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com