- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我将我的 PATH 更新为如下所示:
PATH="$HOME/bin:$HOME/.local/bin:$PATH:/home/username/Installs/Spark/bin"
我认为它起作用了,因为我设法从不同的文件夹调用 spark-shell(尽管我想知道我是不是疯了,它真的来自 bin 文件夹)。但是,在重新启动 Ubuntu 后,它似乎不再起作用。为什么?
Could not find valid SPARK_HOME while searching ['/home/username', '/usr/local/bin']
/usr/local/bin/spark-shell: line 57: /bin/spark-submit: No such file or directory
最佳答案
设置
PATH="$HOME/bin:$HOME/.local/bin:$PATH:/home/username/Installs/Spark/bin"
可以运行可执行脚本,如 spark-shell
、spark-submit
、pyspark
等,无需提供完整路径脚本。
除了设置PATH
,你还需要设置
SPARK_HOME=/home/username/Installs/Spark
在启动 spark 集群 或使用 spark-submit
时内部使用。
如果您在.bashrc
文件中设置变量,您还需要export
关键字作为
export SPARK_HOME=/home/username/Installs/Spark
如果你不想重启 Ubuntu 来测试它是否有效,请输入
. ~/.profile
进入命令行,然后尝试您的 spark 命令。
关于ubuntu - 路径问题 : Could not find valid SPARK_HOME while searching,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45991888/
在尝试设置和运行 pyspark 时,我收到以下错误: tom@tom-OptiPlex-3060:~$ pyspark Could not find valid SPARK_HOME while s
通过 pip install pyspark 全新安装 pyspark 后,出现以下错误: > pyspark Could not find valid SPARK_HOME while search
安装了 apache-maven-3.3.3,scala 2.11.6,然后运行: $ git clone git://github.com/apache/spark.git -b branch-1.
当我尝试时: from pyspark import SparkContext, SparkConf sc=SparkContext() 我得到: KeyError: 'SPARK_HOME' 解决方
我在 Kubernetes 集群(Minikube)中有一个 Spark 集群(Master + 2 Workers)。 我想在我的 k8s 集群中添加 Zeppelin 并将其配置为使用我的 Spa
我将我的 PATH 更新为如下所示: PATH="$HOME/bin:$HOME/.local/bin:$PATH:/home/username/Installs/Spark/bin" 我认为它起作用
我是 spark 新手,我想从命令行运行 Python 脚本。我已经交互式地测试了 pyspark 并且它有效。尝试创建 sc 时出现此错误: File "test.py", line 10, in
我想在将所有测试模块上传到 Jenkins 构建之前一起运行它们,所以我使用 python -m unittest tests/*.py 我的 devops-config.yml 文件中的命令。 但我
我是 hive 的初学者,当我启动 spark 作业并从 hive 读取数据时发生了一些事情(找不到表)。我没有在 $SPARK_HOME/conf 中设置 hive-site.xml 吗? 提交sp
我正在尝试连接一个 spark-shell amazon hadoop,但我总是出现以下错误并且不知道如何修复它或配置缺少的内容。 spark.yarn.jars, spark.yarn.archiv
我无法在 Jupyter 笔记本中的导入下运行。 findspark.init('home/ubuntu/spark-3.0.0-bin-hadoop3.2') 收到以下错误: -------
我是一名优秀的程序员,十分优秀!