gpt4 book ai didi

java - 使用 Maven 时出现 Apache Spark 错误

转载 作者:行者123 更新时间:2023-12-01 09:45:40 24 4
gpt4 key购买 nike

我目前正在尝试学习 Apache Spark。我使用 Maven 和 Java,因为我不熟悉 Scala 或 SBT。

此外,我尝试的所有示例似乎都有超过 2000 行的“pom.xml”文件。需要那么多依赖吗?

Here's我尝试过的例子。 Here's我当前的“pom.xml”文件。这是我收到的错误:

Exception in thread "main" java.lang.NoSuchMethodError: scala.Predef$.ArrowAssoc(Ljava/lang/Object;)Ljava/lang/Object;
at org.apache.spark.sql.SparkSession$Builder.config(SparkSession.scala:666)
at org.apache.spark.sql.SparkSession$Builder.appName(SparkSession.scala:657)
at misc.apache2.main(apache2.java:47)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:498)
at com.intellij.rt.execution.application.AppMain.main(AppMain.java:144)

Process finished with exit code 1

另外,如果我使用 Apache Spark 的 Maven 项目,我是否需要有一个 build.sbt 文件?

当前正在运行 IntelliJ 16.1.3、Windows 10。

最佳答案

据我所知,您使用的是不同版本的 Spark。

从您的 pom.xml 中,您使用的是 Spark Core 1.2.0 版、Spark Sql 2.0.0 版和 Spark Hive 1.6.1 版。

尝试对所有 Spark 依赖项使用相同版本的 Spark:

<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>2.0.0-preview</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.11</artifactId>
<version>2.0.0-preview</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-hive_2.11</artifactId>
<version>2.0.0-preview</version>
</dependency>

关于java - 使用 Maven 时出现 Apache Spark 错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38067558/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com