- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我是 spark 新手,我想从命令行运行 Python 脚本。我已经交互式地测试了 pyspark 并且它有效。尝试创建 sc 时出现此错误:
File "test.py", line 10, in <module>
conf=(SparkConf().setMaster('local').setAppName('a').setSparkHome('/home/dirk/spark-1.4.1-bin-hadoop2.6/bin'))
File "/home/dirk/spark-1.4.1-bin-hadoop2.6/python/pyspark/conf.py", line 104, in __init__
SparkContext._ensure_initialized()
File "/home/dirk/spark-1.4.1-bin-hadoop2.6/python/pyspark/context.py", line 229, in _ensure_initialized
SparkContext._gateway = gateway or launch_gateway()
File "/home/dirk/spark-1.4.1-bin-hadoop2.6/python/pyspark/java_gateway.py", line 48, in launch_gateway
SPARK_HOME = os.environ["SPARK_HOME"]
File "/usr/lib/python2.7/UserDict.py", line 23, in __getitem__
raise KeyError(key)
KeyError: 'SPARK_HOME'
最佳答案
这里好像有两个问题。
第一个是您使用的路径。 SPARK_HOME
应该指向 Spark 安装的根目录,所以在你的情况下它应该是 /home/dirk/spark-1.4.1-bin-hadoop2.6
而不是/home/dirk/spark-1.4.1-bin-hadoop2.6/bin
.
第二个问题是如何使用 setSparkHome
。如果你检查 a docstring它的目标是
set path where Spark is installed on worker nodes
SparkConf
构造函数假定 master 上的 SPARK_HOME
已经设置。 It calls pyspark.context.SparkContext._ensure_initialized
which calls pyspark.java_gateway.launch_gateway
,which tries to acccess SPARK_HOME
失败。
要解决这个问题,您应该在创建 SparkConf
之前设置 SPARK_HOME
。
import os
os.environ["SPARK_HOME"] = "/home/dirk/spark-1.4.1-bin-hadoop2.6"
conf = (SparkConf().setMaster('local').setAppName('a'))
关于python - key 错误 : SPARK_HOME during SparkConf initialization,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31566250/
在尝试设置和运行 pyspark 时,我收到以下错误: tom@tom-OptiPlex-3060:~$ pyspark Could not find valid SPARK_HOME while s
通过 pip install pyspark 全新安装 pyspark 后,出现以下错误: > pyspark Could not find valid SPARK_HOME while search
安装了 apache-maven-3.3.3,scala 2.11.6,然后运行: $ git clone git://github.com/apache/spark.git -b branch-1.
当我尝试时: from pyspark import SparkContext, SparkConf sc=SparkContext() 我得到: KeyError: 'SPARK_HOME' 解决方
我在 Kubernetes 集群(Minikube)中有一个 Spark 集群(Master + 2 Workers)。 我想在我的 k8s 集群中添加 Zeppelin 并将其配置为使用我的 Spa
我将我的 PATH 更新为如下所示: PATH="$HOME/bin:$HOME/.local/bin:$PATH:/home/username/Installs/Spark/bin" 我认为它起作用
我是 spark 新手,我想从命令行运行 Python 脚本。我已经交互式地测试了 pyspark 并且它有效。尝试创建 sc 时出现此错误: File "test.py", line 10, in
我想在将所有测试模块上传到 Jenkins 构建之前一起运行它们,所以我使用 python -m unittest tests/*.py 我的 devops-config.yml 文件中的命令。 但我
我是 hive 的初学者,当我启动 spark 作业并从 hive 读取数据时发生了一些事情(找不到表)。我没有在 $SPARK_HOME/conf 中设置 hive-site.xml 吗? 提交sp
我正在尝试连接一个 spark-shell amazon hadoop,但我总是出现以下错误并且不知道如何修复它或配置缺少的内容。 spark.yarn.jars, spark.yarn.archiv
我无法在 Jupyter 笔记本中的导入下运行。 findspark.init('home/ubuntu/spark-3.0.0-bin-hadoop3.2') 收到以下错误: -------
我是一名优秀的程序员,十分优秀!