gpt4 book ai didi

scala - 想法 sbt java.lang.NoClassDefFoundError : org/apache/spark/SparkConf

转载 作者:行者123 更新时间:2023-12-04 02:40:31 28 4
gpt4 key购买 nike

我是spark的初学者。我用“linux + idea + sbt”搭建环境,当我尝试快速启动Spark时,出现问题:

    Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/SparkConf
at test$.main(test.scala:11)
at test.main(test.scala)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:498)
at com.intellij.rt.execution.application.AppMain.main(AppMain.java:144)
Caused by: java.lang.ClassNotFoundException: org.apache.spark.SparkConf
at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331)
at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
... 7 more

它们在我磁盘中的版本:
sbt   = 0.13.11
jdk = 1.8
scala = 2.10
idea = 2016

我的目录结构:
test/
idea/
out/
project/
build.properties
plugins.sbt
src/
main/
java/
resources/
scala/
scala-2.10/
test.scala
target/
assembly.sbt
build.sbt

在 build.properties 中:
sbt.version = 0.13.8

在 plugins.sbt 中:
logLevel := Level.Warn

addSbtPlugin("com.github.mpeltonen" % "sbt-idea" % "1.6.0")

addSbtPlugin("com.eed3si9n" % "sbt-assembly" % "0.11.2")

在 build.sbt 中:
import sbt._
import Keys._
import sbtassembly.Plugin._
import AssemblyKeys._

name := "test"

version := "1.0"

scalaVersion := "2.10.4"

libraryDependencies += "org.apache.spark" % "spark-core_2.10" % "1.6.1" % "provided"

在 assembly.sbt 中:
import AssemblyKeys._ // put this at the top of the file

assemblySettings

在 test.scala 中:
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf

object test {
def main(args: Array[String]) {
val logFile = "/opt/spark-1.6.1-bin-hadoop2.6/README.md" // Should be some file on your system
val conf = new SparkConf().setAppName("Test Application")
val sc = new SparkContext(conf)
val logData = sc.textFile(logFile, 2).cache()
val numAs = logData.filter(line => line.contains("a")).count()
val numBs = logData.filter(line => line.contains("b")).count()
println("Lines with a: %s, Lines with b: %s".format(numAs, numBs))
}
}

我怎么解决这个问题。

最佳答案

"provided" 的依赖关系scope 仅在编译和测试期间可用,在运行时或打包时不可用。所以,而不是创建一个对象 testmain ,您应该将其设置为放置在 src/test/scala 中的实际测试套件(如果你不熟悉 Scala 中的单元测试,我建议使用 ScalaTest,例如。首先在你的 build.sbt 中添加对它的依赖:libraryDependencies += "org.scalatest" %% "scalatest" % "2.2.4" % Test 然后去这个 quick start tutorial 来实现一个简单的规范)。

另一个选项,在我看来是相当笨拙的(但仍然有效),包括删除 provided范围来自您的 spark-core某些配置中的依赖项,并在对 this question 的公认答案中进行了描述。 .

关于scala - 想法 sbt java.lang.NoClassDefFoundError : org/apache/spark/SparkConf,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37849408/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com