gpt4 book ai didi

apache-spark - 如果我已经安装了 Hadoop,我应该下载带 Hadoop 还是不带 Hadoop 的 Apache Spark?

转载 作者:可可西里 更新时间:2023-11-01 14:20:45 27 4
gpt4 key购买 nike

我已经安装了 Hadoop 3.0.0。我现在应该安装 with-hadoop 还是 without-hadoop 版本的 Apache Spark from this page

我正在关注 this guide开始使用 Apache Spark。
它说

Download the latest version of Apache Spark (Pre-built according to your Hadoop version) from this link:...

但是我很困惑。如果我的机器上已经运行了一个 Hadoop 实例,然后我下载、安装并运行 Apache-Spark-WITH-Hadoop,它不会启动另一个额外的 Hadoop 实例吗?

最佳答案

首先,据我所知,Spark 还不支持 Hadoop 3。您会注意到,“您的 Hadoop 版本” 没有可供下载的可用选项。

您可以尝试在您的 spark-env.sh 中设置 HADOOP_CONF_DIRHADOOP_HOME,无论您下载哪个。

如果您已经安装了 Hadoop,则应始终下载不带 Hadoop 的版本。

won't it start another additional instance of Hadoop?

没有。您仍然需要显式配置并启动该版本的 Hadoop。

我相信 Spark 选项已经配置为使用包含的 Hadoop

关于apache-spark - 如果我已经安装了 Hadoop,我应该下载带 Hadoop 还是不带 Hadoop 的 Apache Spark?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48514247/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com