- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我看到很多与此错误相关的答案,但都重定向到 scala 版本等。但我认为我的情况有所不同。
我有一个使用 2.10 版设置的远程 spark master-worker 集群。我能够通过 http://master-ip:8080 验证它 列出所有工作节点
在我的应用程序中,我尝试使用 Java 7 代码创建 SparkConf。下面是代码
sparkConf = new SparkConf(true)
.set("spark.cassandra.connection.host", "localhost")
.set("spark.cassandra.auth.username", "username")
.set("spark.cassandra.auth.password", "pwd")
.set("spark.master", "spark://master-ip:7077")
.set("spark.app.name","Test App");
以下是我添加的maven依赖
<dependency>
<groupId>com.datastax.spark</groupId>
<artifactId>spark-cassandra-connector_2.10</artifactId>
<version>2.0.1</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>2.1.0</version>
<exclusions>
<exclusion>
<groupId>javax.validation</groupId>
<artifactId>validation-api</artifactId>
</exclusion>
</exclusions>
</dependency>
我得到以下错误
Caused by: java.lang.NoSuchMethodError: scala.Predef$.$conforms()Lscala/Predef$$less$colon$less;
at org.apache.spark.util.Utils$.getSystemProperties(Utils.scala:1710)
at org.apache.spark.SparkConf.loadFromSystemProperties(SparkConf.scala:73)
at org.apache.spark.SparkConf.<init>(SparkConf.scala:68)
来自其中一个工作节点的 Spark 版本
./spark-shell --version
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/___/ .__/\_,_/_/ /_/\_\ version 2.1.0
/_/
Using Scala version 2.11.8, Java HotSpot(TM) 64-Bit Server VM, 1.8.0_91
Branch
Compiled by user jenkins on 2016-12-16T02:04:48Z
Revision
Url
Type --help for more information.
最佳答案
与Scala版本有关。
您的集群有 Scala 2.10,但 Spark 依赖项是
spark-core_2.11
这意味着 Scala 2.11
将其更改为 2.10 即可运行
关于java - NoSuchMethodError : scala. Predef$.$conforms()Lscala/Predef$$less$冒号$less,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47427263/
我是编程新手,喜欢使用Scala自学。我遇到了一个似乎无法解决问题的问题。 这是我正在尝试的代码片段。使用的所有 map 都是mutable.Map [String,Any] def CreateCo
查看Scala 2.8 Predef类,我发现有一个“本地”方法。据我所知,它与 Predef.identity 相同,除了具有“@inline”注释之外。它的用途是什么?为什么它在 Predef 中
我看到很多与此错误相关的答案,但都重定向到 scala 版本等。但我认为我的情况有所不同。 我有一个使用 2.10 版设置的远程 spark master-worker 集群。我能够通过 http:/
我看到很多与此错误相关的答案,但都重定向到 scala 版本等。但我认为我的情况有所不同。 我有一个使用 2.10 版设置的远程 spark master-worker 集群。我能够通过 http:/
我在使用 neo4j-2.3.3 版本时遇到了上述错误。这是pom文件 UTF-8 0.8.1 2.3.11 1.0.2.v20150114 2.3.3
我有一个可以传输 Twitter 帖子的应用程序。它工作正常,但是修改构建路径后,我无法将其设置为以前的样子。我不断收到此错误: Exception in thread "main" java.lan
我正在使用 spark 1.3.1 预构建版本 spark-1.3.1-bin-hadoop2.6.tgz Exception in thread "main" java.lang.NoSuchMet
在 scala 中定义的东西有什么区别?包装对象并在 Predef ? 是 Predef当包对象不存在时,这只是 2.8 之前的遗物,还是有其他原因我们需要两者? 最佳答案 根据 ScalaDoc,
Here是有关Predef的文档,但是没有关于身份的词。此功能用于什么?它是做什么的? 最佳答案 它只是identity function的一个实例,为方便起见而预定义了该实例,也许是为了防止人们自己
我在使用 Predef.any2stringadd 时遇到问题不幸的是 officially considered not a PITA .我改变了我的 API trait Foo { def
我偶然发现Predef.StringCanBuildFrom令人惊讶的实现打破了我在 CanBuildFrom 上所做的假设在我的代码中。这是实现: implicit def stringCanBui
有人可以解释一下 Predef 对象中的以下代码吗?谢谢。 scala.`package` // to force scala package object to be seen. scala
我有多个返回 java.lang.Integer 的方法,然后使用 Scala 的 Predef 隐式转换将其隐式转换为 Int,这是它的编写方式 there : implicit def Integ
scala> val input = readLine("hello %s%n", "world") hello WrappedArray(world) input: String = "" scal
以下代码,摘自Apocalisp的优秀系列博客: Type level programming in scala , 并针对隐式解析场景进行了修改。但是,这不会编译,并显示以下消息: error: a
嗨,大家好,我正在尝试通过Eclipse的Export函数打包一个用Scala编写的简单可执行Jar。 尝试从cmd java -jar test2.jar执行Jar时 我得到以下...。有什么想法吗
我的代码中有一个类型别名,如下所示: type Time = Double 而且我经常在测试和应用程序中将 Long 值传递给使用此类型的函数。例如: def at(time : Time) : T
我正在使用 buildroot 为 Raspberry 构建操作系统。编译时出现此错误 BuildRoot/bsquask/host/usr/arm-buildroot-linux-gnueabi/s
scala.Predef 包含以下代码: // Apparently needed for the xml library val $scope = scala.xml.TopScope 考虑到它会创
我有以下类(class): import scala.util.{Success, Failure, Try} class MyClass { def openFile(fileName: Str
我是一名优秀的程序员,十分优秀!