gpt4 book ai didi

cluster-computing - Spark : Run Spark shell from a different directory than where Spark is installed on slaves and master

转载 作者:行者123 更新时间:2023-12-04 07:46:10 25 4
gpt4 key购买 nike

我有一个小集群(4 台机器),设置了 3 个从节点和一个主节点,全部安装到 /home/spark/spark . (即, $SPARK_HOME/home/spark/spark )

当我使用 Spark shell 时:/home/spark/spark/bin/pyspark --master spark://192.168.0.11:7077一切正常。但是,我希望我的同事能够从安装在他们希望的任何目录中的机器上的本地 spark 实例连接到集群。

目前,如果有人在说 /home/user12/spark 中安装了 Spark 并运行 /home/user12/spark/bin/pyspark --master spark://192.168.0.11:7077 spark shell 将毫无问题地连接到 master,但在我尝试运行代码时失败并显示错误:

    class java.io.IOException: Cannot run program 
"/home/user12/bin/compute-classpath.sh"
(in directory "."): error=2, No such file or directory)

这里的问题是 Spark 正在寻找 中的 spark 安装。/home/user12/spark/ ,我只想告诉 spark 查看 /home/spark/spark/反而。

我该怎么做呢?

最佳答案

您需要编辑三个文件,spark-submit , spark-classpyspark (都在 bin 文件夹中)。

找到线

export SPARK_HOME = [...]

然后将其更改为
SPARK_HOME = [...]

最后确保你设置了 SPARK_HOME到集群上安装spark的目录。

这对我有用。

在这里你可以找到详细的解释。

http://apache-spark-user-list.1001560.n3.nabble.com/executor-failed-cannot-find-compute-classpath-sh-td859.html

关于cluster-computing - Spark : Run Spark shell from a different directory than where Spark is installed on slaves and master,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24771564/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com