gpt4 book ai didi

apache-spark - 是否可以通过spark 2.4使用Hadoop 3.x和Hive 3.x?

转载 作者:行者123 更新时间:2023-12-02 19:53:22 24 4
gpt4 key购买 nike

我们使用spark 2.4.0连接到Hadoop 2.7集群并从Hive Metastore 2.3版进行查询。但是集群管理团队已决定升级到Hadoop 3.x和Hive3.x。我们还无法迁移到与Hadoop 3和Hive 3兼容的spark 3,因为我们无法测试是否有任何问题。
是否有任何方法可以坚持使用Spark 2.4.x版本,并且仍然能够使用Hadoop 3和Hive 3?
我知道向后移植是一种选择,如果您能指出我的方向,那将是很棒的。

最佳答案

您可以使用Hadoop 3.1 profile编译Spark 2.4,而不是依赖默认版本。在构建Spark时,您需要使用hadoop-3.1配置文件作为described in documentation,例如:

./build/mvn -Pyarn -Phadoop-3.1 -DskipTests clean package

关于apache-spark - 是否可以通过spark 2.4使用Hadoop 3.x和Hive 3.x?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62754172/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com