gpt4 book ai didi

hadoop - 我怎么知道 Spark 核心版本?

转载 作者:可可西里 更新时间:2023-11-01 14:16:47 24 4
gpt4 key购买 nike

我在 hdp 中使用 spark 1.5.2,hadoop 的版本是 2.7.1.2.3.4.7-4。当我尝试像这样在 maven pom 文件中添加 jar 时

<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.5.2</version>
</dependency>

我不知道在哪里可以找到 spark-core 的版本。有2.11和2.10。任何帮助表示赞赏。

最佳答案

您提到的那个版本表示您希望将哪个版本的 Scala 用于 spark-core。

您需要检查集群上的 Scala 版本,以了解它是您需要的 2.10 还是 2.11。

关于hadoop - 我怎么知道 Spark 核心版本?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38795059/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com