gpt4 book ai didi

hadoop - Spark 上的 Hive 2.1.1 - 我应该使用哪个版本的 Spark

转载 作者:可可西里 更新时间:2023-11-01 14:56:23 26 4
gpt4 key购买 nike

我在 Ubuntu 16.04 上运行 hive 2.1.1、hadoop 2.7.3。

根据 Hive on Spark: Getting Started , 它说

Install/build a compatible version. Hive root pom.xml's defines what version of Spark it was built/tested with.

查看了pom.xml,spark版本是1.6.0

<spark.version>1.6.0</spark.version>

但是Hive on Spark: Getting Started还说

Prior to Spark 2.0.0: ./make-distribution.sh --name "hadoop2-without-hive" --tgz "-Pyarn,hadoop-provided,hadoop-2.4,parquet-provided"

Since Spark 2.0.0: ./dev/make-distribution.sh --name "hadoop2-without-hive" --tgz "-Pyarn,hadoop-provided,hadoop-2.7,parquet-provided"

所以现在我很困惑,因为我正在运行 hadoop 2.7.3。我必须将我的 hadoop 降级到 2.4 吗?

我应该使用哪个版本的 Spark? 1.6.0 还是 2.0.0?

谢谢!

最佳答案

我目前正在将 spark 2.0.2 与 hadoop 2.7.3 和 hive 2.1 一起使用,并且工作正常。我认为 hive 将支持 spark 1.6.x 和 2.x 这两个版本,但我建议您使用 spark 2.x,因为它是最新版本。

关于为什么使用 spark 2.x 的一些激励链接 https://docs.cloud.databricks.com/docs/latest/sample_applications/04%20Apache%20Spark%202.0%20Examples/03%20Performance%20Apache%20(Spark%202.0%20vs%201.6).html

Apache Spark vs Apache Spark 2

关于hadoop - Spark 上的 Hive 2.1.1 - 我应该使用哪个版本的 Spark,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42281174/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com