gpt4 book ai didi

java - Spark Cassandra 连接器基本简单程序出现 Spark 日志记录错误

转载 作者:行者123 更新时间:2023-12-02 11:04:45 25 4
gpt4 key购买 nike

我正在尝试为 java+spark+cassandra 编写一个非常基本的 hello world 程序。

最初,我有一些混合版本的库,导致了 NoSuchMethodError (#5)。当我获得正确的版本时,我收到 Spark 日志记录的 noclassdefound 错误 (#4)。这是来自 cassandra 连接器代码。我从 github 的 b2.3 分支构建了它,该分支仅落后于 master 几次提交(使用 sbt)。

所有 Spark 日志记录问题的解决方案都指向迁移到旧版本。这对我们来说不是一个实际的解决方案,因为我们需要为 future 的发展解决这个问题。想知道为什么 cassandra 连接器的最新稳定版本引用了现在不再可用的 Spark 日志记录?任何帮助表示赞赏。

Spark 版本:2.3.0 Cassandra :3.9.0

相关代码片段粘贴在下面。

   #1 SparkConf sparkConf = new SparkConf().setAppName("appname")
.setMaster("local");
#2 sparkConf.set("spark.cassandra.connection.host", "127.0.0.1");

#3 JavaSparkContext ctx = new JavaSparkContext(sparkConf);

#4 CassandraConnector connector = CassandraConnector.apply(ctx.getConf()); <<<< org/apache/spark/logging noclassdeffound error

#5 try (Session session = connector.openSession()) { <<< nosuchmethoderror: scala.runtime.objectref.zero()lscala/runtime/objectref

POM如下

http://maven.apache.org/xsd/maven-4.0.0.xsd"> 4.0.0 com.mygroup Apache Spark 1.0-快照 jar Apache Spark http://maven.apache.org

<dependencies>
<dependency>
<groupId>commons-logging</groupId>
<artifactId>commons-logging</artifactId>
<version>1.1.1</version>
</dependency>

<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>2.2.1</version>
</dependency>

<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.11</artifactId>
<version>2.3.1</version>
</dependency>


<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-streaming_2.11</artifactId>
<version>2.2.1</version>
</dependency>

<dependency>
<groupId>com.datastax.spark</groupId>
<artifactId>spark-cassandra-connector-java_2.11</artifactId>
<version>1.6.0-M1</version>
</dependency>
<dependency>
<groupId>com.datastax.cassandra</groupId>
<artifactId>cassandra-driver-core</artifactId>
<version>3.5.0</version>
</dependency>

<dependency>
<groupId>org.apache.thrift</groupId>
<artifactId>libthrift</artifactId>
<version>0.11.0</version>
</dependency>

<dependency>
<groupId>log4j</groupId>
<artifactId>log4j</artifactId>
<version>1.2.17</version>
</dependency>
</dependencies>

<properties>
<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
<org.apache.spark.spark-core.version>2.2.1</org.apache.spark.spark-core.version>
<maven.compiler.source>1.8</maven.compiler.source>
<maven.compiler.target>1.8</maven.compiler.target>
</properties>

最佳答案

首先要解决的是

<dependency>
<groupId>com.datastax.spark</groupId>
<artifactId>spark-cassandra-connector-java_2.11</artifactId>
<version>1.6.0-M1</version>
</dependency>

这与您的任何其他构建版本都不匹配。 Java 模块已合并到主工件中。您也不应该单独包含 java 驱动程序模块,因为这很可能会出现 Guava 包含问题。

看看

https://github.com/datastax/SparkBuildExamples/blob/master/scala/maven/oss/pom.xml例如 pom 文件。

关于java - Spark Cassandra 连接器基本简单程序出现 Spark 日志记录错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51055600/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com