gpt4 book ai didi

hadoop - 如何使用两个版本的spark shell?

转载 作者:可可西里 更新时间:2023-11-01 14:11:21 25 4
gpt4 key购买 nike

我的 hortonworks 集群上安装了 Spark 1.6.2Spark 2.0

这两个版本都安装在 5 个节点的 Hadoop 集群中的一个节点上。

每次我启动 spark-shell 我得到:

$ spark-shell
Multiple versions of Spark are installed but SPARK_MAJOR_VERSION is not set
Spark1 will be picked by default

当我检查我得到的版本时:

scala> sc.version
res0: String = 1.6.2

如何启动其他版本(Spark2.0的spark-shell)?

最佳答案

export SPARK_MAJOR_VERSION=2 

你只需要给出主要版本 2 或 1。

$ export SPARK_MAJOR_VERSION=2
$ spark-submit --version
SPARK_MAJOR_VERSION is set to 2, using Spark2
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/___/ .__/\_,_/_/ /_/\_\ version 2.0.0.2.5.0.0-1245

关于hadoop - 如何使用两个版本的spark shell?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41135506/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com