gpt4 book ai didi

scala - Spark ClassNotFoundException 运行 master

转载 作者:行者123 更新时间:2023-12-04 19:07:39 25 4
gpt4 key购买 nike

我已经使用 sbt/sbt assembly 下载并构建了 Spark 0.80 .它成功了。但是在运行时 ./bin/start-master.sh在日志文件中看到以下错误

Spark Command: /System/Library/Java/JavaVirtualMachines/1.6.0.jdk/Contents/Home/bin/java -cp :/shared/spark-0.8.0-incubating-bin-hadoop1/conf:/shared/spark-0.8.0-incubating-bin-hadoop1/assembly/target/scala-2.9.3/spark-assembly-0.8.0-incubating-hadoop1.0.4.jar
/shared/spark-0.8.0-incubating-bin-hadoop1/assembly/target/scala-2.9.3/spark-assembly_2.9.3-0.8.0-incubating-hadoop1.0.4.jar -Djava.library.path= -Xms512m -Xmx512m org.apache.spark.deploy.master.Master --ip mellyrn.local --port 7077 --webui-port 8080

Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/deploy/master/Master
Caused by: java.lang.ClassNotFoundException: org.apache.spark.deploy.master.Master
at java.net.URLClassLoader$1.run(URLClassLoader.java:202)
at java.security.AccessController.doPrivileged(Native Method)
at java.net.URLClassLoader.findClass(URLClassLoader.java:190)
at java.lang.ClassLoader.loadClass(ClassLoader.java:306)
at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:301)
at java.lang.ClassLoader.loadClass(ClassLoader.java:247)

更新 : 做 sbt 后 清洁 (根据下面的建议)它正在运行:见截图。
enter image description here

最佳答案

可能有很多原因导致此错误,但并非特定于 Spark:

  • 错误的构建,sbt clean compile又是那只小狗。
  • 您的 .ivy2 缓存中有一个缓存依赖项,该依赖项与该项目版本的 Spark 的依赖项冲突。清空缓存并重试。
  • 您在 Spark 上构建的项目的库版本与 Spark 的依赖项冲突。也就是说,当您的项目放入“foo-0.8.4”时,Spark 可能依赖于“foo-0.9.7”。

  • 试着先看看那些。

    关于scala - Spark ClassNotFoundException 运行 master,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20599707/

    25 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com