gpt4 book ai didi

python - 如何为 Spark、Python 设置特定的 Hadoop 版本

转载 作者:可可西里 更新时间:2023-11-01 15:55:56 28 4
gpt4 key购买 nike

我需要有关在我的 spark 配置中设置特定 hadoop 版本的帮助。我在某处读到您可以使用 hadoop.version 属性。它没有说明在哪里可以找到它。

http://spark.apache.org/docs/latest/building-spark.html#specifying-the-hadoop-version

我需要将其从当前/默认设置为 2.8.0。我在 PyCharm 中编码。请提供帮助,最好提供分步指南。

谢谢!

最佳答案

对于 Apache Hadoop 2.7.X 及更高版本,您可以像那样构建,因此上述答案是正确的。[

 ./build/mvn -Pyarn -Phadoop-2.7 -Dhadoop.version=2.7.0 -DskipTests clean package

]

或者您可以在执行 maven 构建之前在您的 spark 下载分发版的 pom.xml 中修改它,以便使用您想要的版本完成构建。

<profile>
<id>hadoop2.8</id>
<properties>
<hadoop.version>2.8</hadoop.version>
...
</properties>
</profile>

看看this post获取分步指导。

关于python - 如何为 Spark、Python 设置特定的 Hadoop 版本,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44109661/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com