- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
I am trying to connect spark with cassandra database but I got the error mentioned below. I think there should some mismatch with the versions.
代码:
SparkConf conf = new SparkConf().setAppName("kafka-sandbox").setMaster("local[2]");
conf.set("spark.cassandra.connection.host", "192.168.34.1");//connection for cassandra database
JavaSparkContext sc = new JavaSparkContext(conf);
CassandraConnector connector = CassandraConnector.apply(sc.getConf());
final Session session = connector.openSession();//error in this line
final PreparedStatement prepared = session.prepare("INSERT INTO spark_test5.messages JSON?");
<小时/>
error:
Exception in thread "main" java.lang.NoSuchMethodError: scala.runtime.ObjectRef.zero()Lscala/runtime/ObjectRef;
at com.datastax.spark.connector.cql.CassandraConnector$.com$datastax$spark$connector$cql$CassandraConnector$$createSession(CassandraConnector.scala)
at com.datastax.spark.connector.cql.CassandraConnector$$anonfun$3.apply(CassandraConnector.scala:149)
at com.datastax.spark.connector.cql.CassandraConnector$$anonfun$3.apply(CassandraConnector.scala:149)
at com.datastax.spark.connector.cql.RefCountedCache.createNewValueAndKeys(RefCountedCache.scala:31)
at com.datastax.spark.connector.cql.RefCountedCache.acquire(RefCountedCache.scala:56)
at com.datastax.spark.connector.cql.CassandraConnector.openSession(CassandraConnector.scala:82)
<小时/>
pom.xml:
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<groupId>SparkPoc</groupId>
<artifactId>Spark-Poc</artifactId>
<version>0.0.1-SNAPSHOT</version>
<dependencies>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-streaming_2.10</artifactId>
<version>2.0.0</version>
<scope>provided</scope>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>2.0.1</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-streaming-kafka-0-8_2.10</artifactId>
<version>2.0.0</version>
</dependency>
<dependency>
<groupId>com.datastax.spark</groupId>
<artifactId>spark-cassandra-connector_2.11</artifactId>
<version>2.0.0-M3</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.11</artifactId>
<version>2.0.1</version>
</dependency>
</dependencies>
<build>
<plugins>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-compiler-plugin</artifactId>
<version>3.3</version>
<configuration>
<source>1.8</source>
<target>1.8</target>
</configuration>
</plugin>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-assembly-plugin</artifactId>
<version>2.4.1</version>
<configuration>
<!-- get all project dependencies -->
<descriptorRefs>
<descriptorRef>jar-with-dependencies</descriptorRef>
</descriptorRefs>
<!-- MainClass in mainfest make a executable jar -->
<archive>
<manifest>
<mainClass>com.nwf.Consumer</mainClass>
</manifest>
</archive>
</configuration>
<executions>
<execution>
<id>make-assembly</id>
<!-- bind to the packaging phase -->
<phase>package</phase>
<goals>
<goal>single</goal>
</goals>
</execution>
</executions>
</plugin>
</plugins>
</build>
</project>
Spark版本:版本2.0.0
Scala 版本:版本 2.11.8
最佳答案
Scala 2.11 中引入了 scala.runtime.VolatileObjectRef 上的 Zero() 您可能有一个针对 Scala 2.11 编译并在 Scala 2.10 运行时上运行的库。
查看
v2.10:https://github.com/scala/scala/blob/2.10.x/src/library/scala/runtime/VolatileObjectRef.javav2.11:https://github.com/scala/scala/blob/2.11.x/src/library/scala/runtime/VolatileObjectRef.java
关于java - Cassandra Spark 连接器 - NoSuchMethodError : scala. runtime.ObjectRef.zero()Lscala/runtime/ObjectRef,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42036753/
我正在尝试提交 spark 作业 它是这样开始的: import javax.xml.parsers.{SAXParser, SAXParserFactory} import org.apache.s
当前我正在编译 JAR 文件,但由于出现标题中的错误,因此无法运行 JAR。我使用 sbt assembly 进行编译,以便包含所有依赖项。 斯卡拉 2.11.12 Spark 2.4.2 packa
我看到很多与此错误相关的答案,但都重定向到 scala 版本等。但我认为我的情况有所不同。 我有一个使用 2.10 版设置的远程 spark master-worker 集群。我能够通过 http:/
我看到很多与此错误相关的答案,但都重定向到 scala 版本等。但我认为我的情况有所不同。 我有一个使用 2.10 版设置的远程 spark master-worker 集群。我能够通过 http:/
我的 spark 项目运行正常(2.4.0),但是当我添加下一个依赖项时: org.apache.spark
我在使用 neo4j-2.3.3 版本时遇到了上述错误。这是pom文件 UTF-8 0.8.1 2.3.11 1.0.2.v20150114 2.3.3
我收到此错误的任何原因?最初用于 Scala 的 IDE 插件是 2.12.3。但是由于我使用的是 Spark 2.2.0,所以我手动将其更改为 Scala 2.11.11。 Using Spark'
我有一个可以传输 Twitter 帖子的应用程序。它工作正常,但是修改构建路径后,我无法将其设置为以前的样子。我不断收到此错误: Exception in thread "main" java.lan
I am trying to connect spark with cassandra database but I got the error mentioned below. I think th
我在 spark 中运行字数统计程序,但出现以下错误 我已添加 scala-xml_2.11-1.0.2.jar Using Spark's default log4j profile: or
我正在尝试将 Scala 2.12.0 + Spark 2.4.4 应用程序部署到 AWS EMR。 我在 EMR 中启用了 Spark 2.4.4。 当应用程序运行时,它失败并显示以下错误: jav
我正在使用 Spark 1.3.0 (Scala 2.10.X) MLlib LDA 算法和 Spark Java API。当我尝试在运行时从 LDA 模型读取文档主题分布时,遇到以下问题。 “mai
我是 Scala 和 sbt 的新手。经过大量调查,我想出了下面的build.sbt。我无法为此找到解决方案。继续下去对我很有帮助。 scalaVersion := "2.11.7" scalaVer
我正在尝试在 Scala 2.8.1 中运行一个名为 LinkedIn Norbert (https://github.com/linkedin/norbert) 的开源程序。我添加了所有 jar 文
我正在使用 spark 1.3.1 预构建版本 spark-1.3.1-bin-hadoop2.6.tgz Exception in thread "main" java.lang.NoSuchMet
我是一名优秀的程序员,十分优秀!