gpt4 book ai didi

apache-spark - Py4J错误: SparkConf does not exist in the JVM

转载 作者:行者123 更新时间:2023-12-04 18:01:47 25 4
gpt4 key购买 nike

我正在运行 pyspark,但它有时会不稳定。有几次它在这个命令下崩溃了

spark_conf = SparkConf()

错误信息如下

     File "/home/user1/spark/spark-1.5.1-bin-hadoop2.6/python/pyspark/conf.py", line 106, in __init__
self._jconf = _jvm.SparkConf(loadDefaults)
File "/home/user1/spark/spark-1.5.1-bin-hadoop2.6/python/lib/py4j-0.8.2.1-src.zip/py4j/java_gateway.py", line 772, in __getattr__
raise Py4JError('{0} does not exist in the JVM'.format(name))
Py4JError: SparkConf does not exist in the JVM

知道问题出在哪里吗?感谢您的帮助!

最佳答案

在pyspark上下文中不存在SparkConf,尝试:

from pyspark import SparkConf

在 pyspark 控制台或代码中。

关于apache-spark - Py4J错误: SparkConf does not exist in the JVM,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34192909/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com