gpt4 book ai didi

python - SparkSession 与上下文混淆

转载 作者:太空宇宙 更新时间:2023-11-03 14:57:32 28 4
gpt4 key购买 nike

我有一个 pyspark 2.0.0 脚本,其中定义了以下 session :

spark = SparkSession \
.builder \
.appName("Python Spark") \
.master("local[*]")\
.config("spark.some.config.option", "some-value") \
.getOrCreate()

我训练了一个随机森林模型,我想保存它。因此我调用了以下方法:

model_rf.save( spark, "/home/Desktop")

但它抛出以下编译错误:

TypeError: sc should be a SparkContext, got type <class 'pyspark.sql.session.SparkSession'>

当我定义一个 Spark 上下文时,像这样:

from pyspark import SparkContext
sc =SparkContext()
model_rf.save( sc, "/home/Desktop")

我收到错误:

Cannot run multiple SparkContexts at once; existing SparkContext(app=Python Spark, master=local[*]) created by getOrCreate at <ipython-input-1-c5f83810f880>:24 

最佳答案

使用spark.sparkContext(SparkSession对象会有sparkContext)

model_rf.save( spark.sparkContext, "/home/Desktop")

关于python - SparkSession 与上下文混淆,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41267176/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com