- Java 双重比较
- java - 比较器与 Apache BeanComparator
- Objective-C 完成 block 导致额外的方法调用?
- database - RESTful URI 是否应该公开数据库主键?
我正在使用 spark 1.3.1 预构建版本 spark-1.3.1-bin-hadoop2.6.tgz
Exception in thread "main" java.lang.NoSuchMethodError: scala.Predef$.$conforms()Lscala/Predef$$less$colon$less; at org.apache.spark.util.Utils$.getSystemProperties(Utils.scala:1418) at org.apache.spark.SparkConf.(SparkConf.scala:58) at org.apache.spark.SparkConf.(SparkConf.scala:52) at com.zoho.zbi.Testing.test(Testing.java:43) at com.zoho.zbi.Testing.main(Testing.java:39) Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
我正在尝试一个简单的演示应用程序来保存到 cassandra
SparkConf batchConf= new SparkConf()
.setSparkHome(sparkHome)
.setJars(jars)
.setAppName(ZohoBIConstants.getAppName("cassandra"))//NO I18N
.setMaster(master).set("spark.cassandra.connection.host", "localhost");
JavaSparkContext sc = new JavaSparkContext(batchConf);
// here we are going to save some data to Cassandra...
List<Person> people = Arrays.asList(
Person.newInstance(1, "John", new Date()),
Person.newInstance(2, "Anna", new Date()),
Person.newInstance(3, "Andrew", new Date())
);
// Person test = Person.newInstance(1, "vini", new Date())''
System.out.println("Inside Java API Demo : "+people);
JavaRDD<Person> rdd = sc.parallelize(people);
System.out.println("Inside Java API Demo rdd : "+rdd);
javaFunctions(rdd).writerBuilder("test", "people", mapToRow(Person.class)).saveToCassandra();
System.out.println("Stopping sc");
sc.stop();
当我使用 spark 提交时提交它的工作
bin/spark-submit --class "abc.efg.Testing" --master spark://xyz:7077 /home/test/target/uber-Cassandra-0.0.1-SNAPSHOT.jar
这是我的pom
依赖
<dependencies>
<!-- Scala -->
<dependency>
<groupId>org.scala-lang</groupId>
<artifactId>scala-library</artifactId>
<version>${scala.version}</version>
<scope>compile</scope>
</dependency>
<dependency>
<groupId>org.scala-lang</groupId>
<artifactId>scala-compiler</artifactId>
<version>${scala.version}</version>
</dependency>
<!-- END Scala -->
<dependency>
<groupId>com.google.guava</groupId>
<artifactId>guava</artifactId>
<version>18.0</version>
</dependency>
<dependency>
<groupId>com.yammer.metrics</groupId>
<artifactId>metrics-core</artifactId>
<version>2.2.0</version>
</dependency>
<dependency>
<groupId>junit</groupId>
<artifactId>junit</artifactId>
<version>3.8.1</version>
<scope>test</scope>
</dependency>
<dependency>
<groupId>javax.servlet</groupId>
<artifactId>javax.servlet-api</artifactId>
<version>3.1.0</version>
<scope>provided</scope>
</dependency>
<dependency>
<groupId>com.datastax.cassandra</groupId>
<artifactId>cassandra-driver-core</artifactId>
<version>2.1.5</version>
</dependency>
<dependency>
<groupId>org.json</groupId>
<artifactId>json</artifactId>
<version>20090211</version>
</dependency>
<!-- Cassandra Spark Connector dependency -->
<dependency>
<groupId>com.datastax.spark</groupId>
<artifactId>spark-cassandra-connector_2.10</artifactId>
<version>1.2.0</version>
</dependency>
<!-- Cassandra java Connector dependency -->
<dependency>
<groupId>com.datastax.spark</groupId>
<artifactId>spark-cassandra-connector-java_2.10</artifactId>
<version>1.2.0</version>
</dependency>
<!-- Spark Core dependency -->
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>1.3.1</version>
</dependency>
<!-- Spark dependency -->
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-streaming_2.11</artifactId>
<version>1.3.1</version>
</dependency>
<!-- Spark dependency -->
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-streaming-kafka_2.10</artifactId>
<version>1.3.1</version>
</dependency>
</dependencies>
我用
<build>
<plugins>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-compiler-plugin</artifactId>
<version>2.3.2</version>
<configuration>
<source>1.7</source>
<target>1.7</target>
</configuration>
</plugin>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-shade-plugin</artifactId>
<version>2.3</version>
<executions>
<execution>
<phase>package</phase>
<goals>
<goal>shade</goal>
</goals>
</execution>
</executions>
<configuration>
<filters>
<filter>
<artifact>*:*</artifact>
<excludes>
<exclude>META-INF/*.SF</exclude>
<exclude>META-INF/*.DSA</exclude>
<exclude>META-INF/*.RSA</exclude>
</excludes>
</filter>
</filters>
<finalName>uber-${project.artifactId}-${project.version}</finalName>
</configuration>
</plugin>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-compiler-plugin</artifactId>
<version>2.3.2</version>
<configuration>
<source>1.7</source>
<target>1.7</target>
</configuration>
</plugin>
</plugins>
</build>
但是当我通过代码提交时它不起作用,非常感谢任何帮助。我尝试在 pom 中添加 scala2.10.4 prop 仍然没有成功
我在 eclipse 中作为应用程序运行,所有 master、spark home 和 jars 都设置为 sparkConf,错误在 sparkConf 中准确显示
我的scala版本是
scala-版本Scala 代码运行程序版本 2.11.2 -- 版权所有 2002-2013,LAMP/EPFL
这与问题有什么关系吗?
如何切换到旧版本的 scala?在文档中它说 spark1.3.1 支持 scala 2.10.x 版本,请让我知道如何解决这个问题
最佳答案
您遇到的问题是由于 Scala 版本不兼容造成的。 Prebuild Spark 1.3.1 发行版是使用较旧的 Scala 2.10 编译的,因为某些 Spark 依赖项在 2.11 下不受支持,包括 JDBC 支持。
我建议使用 Scala 2.10 运行您的 Spark 集群。但是,如果您愿意,也可以通过以下方式使用 Scala 2.11 编译您的 Spark 包:
dev/change-version-to-2.11.sh
mvn -Pyarn -Phadoop-2.4 -Dscala-2.11 -DskipTests clean package
关于java - Spark 提交失败,出现 java.lang.NoSuchMethodError : scala. Predef$.$conforms()Lscala/Predef$$less$colon$less;,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30342273/
我是编程新手,喜欢使用Scala自学。我遇到了一个似乎无法解决问题的问题。 这是我正在尝试的代码片段。使用的所有 map 都是mutable.Map [String,Any] def CreateCo
查看Scala 2.8 Predef类,我发现有一个“本地”方法。据我所知,它与 Predef.identity 相同,除了具有“@inline”注释之外。它的用途是什么?为什么它在 Predef 中
我看到很多与此错误相关的答案,但都重定向到 scala 版本等。但我认为我的情况有所不同。 我有一个使用 2.10 版设置的远程 spark master-worker 集群。我能够通过 http:/
我看到很多与此错误相关的答案,但都重定向到 scala 版本等。但我认为我的情况有所不同。 我有一个使用 2.10 版设置的远程 spark master-worker 集群。我能够通过 http:/
我在使用 neo4j-2.3.3 版本时遇到了上述错误。这是pom文件 UTF-8 0.8.1 2.3.11 1.0.2.v20150114 2.3.3
我有一个可以传输 Twitter 帖子的应用程序。它工作正常,但是修改构建路径后,我无法将其设置为以前的样子。我不断收到此错误: Exception in thread "main" java.lan
我正在使用 spark 1.3.1 预构建版本 spark-1.3.1-bin-hadoop2.6.tgz Exception in thread "main" java.lang.NoSuchMet
在 scala 中定义的东西有什么区别?包装对象并在 Predef ? 是 Predef当包对象不存在时,这只是 2.8 之前的遗物,还是有其他原因我们需要两者? 最佳答案 根据 ScalaDoc,
Here是有关Predef的文档,但是没有关于身份的词。此功能用于什么?它是做什么的? 最佳答案 它只是identity function的一个实例,为方便起见而预定义了该实例,也许是为了防止人们自己
我在使用 Predef.any2stringadd 时遇到问题不幸的是 officially considered not a PITA .我改变了我的 API trait Foo { def
我偶然发现Predef.StringCanBuildFrom令人惊讶的实现打破了我在 CanBuildFrom 上所做的假设在我的代码中。这是实现: implicit def stringCanBui
有人可以解释一下 Predef 对象中的以下代码吗?谢谢。 scala.`package` // to force scala package object to be seen. scala
我有多个返回 java.lang.Integer 的方法,然后使用 Scala 的 Predef 隐式转换将其隐式转换为 Int,这是它的编写方式 there : implicit def Integ
scala> val input = readLine("hello %s%n", "world") hello WrappedArray(world) input: String = "" scal
以下代码,摘自Apocalisp的优秀系列博客: Type level programming in scala , 并针对隐式解析场景进行了修改。但是,这不会编译,并显示以下消息: error: a
嗨,大家好,我正在尝试通过Eclipse的Export函数打包一个用Scala编写的简单可执行Jar。 尝试从cmd java -jar test2.jar执行Jar时 我得到以下...。有什么想法吗
我的代码中有一个类型别名,如下所示: type Time = Double 而且我经常在测试和应用程序中将 Long 值传递给使用此类型的函数。例如: def at(time : Time) : T
我正在使用 buildroot 为 Raspberry 构建操作系统。编译时出现此错误 BuildRoot/bsquask/host/usr/arm-buildroot-linux-gnueabi/s
scala.Predef 包含以下代码: // Apparently needed for the xml library val $scope = scala.xml.TopScope 考虑到它会创
我有以下类(class): import scala.util.{Success, Failure, Try} class MyClass { def openFile(fileName: Str
我是一名优秀的程序员,十分优秀!