gpt4 book ai didi

scala - 错误 SparkContext : Error initializing SparkContext. java.net.BindException:无法分配请求的地址:服务 'sparkDriver' 失败

转载 作者:行者123 更新时间:2023-12-03 04:57:59 25 4
gpt4 key购买 nike

我已经安装了以下版本的设置:Hadoop版本1.0.3java版本“1.7.0_67”Scala 版本 2.11.7Spark 版本 2.1.1。

出现以下错误,有人可以帮我解决这个问题吗?

root@sparkmaster:/home/user# spark-shell
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
17/07/05 01:07:35 WARN SparkContext: Support for Java 7 is deprecated as of Spark 2.0.0
17/07/05 01:07:36 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
17/07/05 01:07:37 WARN Utils: Service 'sparkDriver' could not bind on port 0. Attempting port 1.

17/07/05 01:07:37 ERROR SparkContext: Error initializing SparkContext.
java.net.BindException: Cannot assign requested address: Service 'sparkDriver' failed after 16 retries (starting from 0)! Consider explicitly setting the appropriate port for the service 'sparkDriver' (for example spark.ui.port for SparkUI) to an available port or increasing


<console>:14: error: not found: value spark
import spark.implicits._

<console>:14: error: not found: value spark
import spark.sql


Using Scala version 2.11.8 (Java HotSpot(TM) Client VM, Java 1.7.0_67)
Type in expressions to have them evaluated.
Type :help for more information.

scala>

最佳答案

有几种不同的解决方案

  1. 获取您的主机名

    $ hostname

    然后尝试分配您的主机名

    $ sudo hostname -s 127.0.0.1

    启动spark-shell

  2. 将您的主机名添加到/etc/hosts 文件(如果不存在)

    127.0.0.1      your_hostname
  3. 添加环境变量

    export SPARK_LOCAL_IP="127.0.0.1" 

    load-spark-env.sh
  4. 上述步骤解决了我的问题,但您也可以尝试添加

    export SPARK_LOCAL_IP=127.0.0.1 

    在模板文件 spark-env.sh.template 的本地 IP 注释下 (/usr/local/Cellar/apache-spark/2.1.0/libexec/conf/)

    然后

    cp spark-env.sh.template spark-env.sh
    spark-shell
  5. 如果上述方法均未解决,请检查您的防火墙并启用它(如果尚未启用)

关于scala - 错误 SparkContext : Error initializing SparkContext. java.net.BindException:无法分配请求的地址:服务 'sparkDriver' 失败,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44914144/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com