gpt4 book ai didi

linux -/usr/local 是不是必须要安装hadoop?

转载 作者:可可西里 更新时间:2023-11-01 14:45:18 24 4
gpt4 key购买 nike

我正在尝试构建一个具有四个节点的 hadoop 集群。

这四台机器来 self 学校的实验室,我发现它们的 /usr/local 是从同一个公共(public)磁盘挂载的,这意味着它们的 /usr/local 是相同的。

问题是,我无法在从服务器上启动数据节点,因为 hadoop 文件总是相同的(比如 tmp/dfs/data)。

我计划在/opt 等其他目录中配置和安装 hadoop。

问题是我发现几乎所有的安装教程都要求我们将它安装在/usr/local,所以我想知道如果我在其他地方安装hadoop会不会有什么不好的后果< em>/选择 ?

顺便说一句,我正在使用 Ubuntu 16.04

最佳答案

只要 HADOOP_HOME 指向您提取 hadoop 二进制文件的位置,就没有关系。

例如,您还需要更新 ~/.bashrc 中的 PATH

export HADOOP_HOME=/path/to/hadoop_x.yy
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

作为引用,我在/etc/hadoop 中有一些配置文件。

(注意:Apache Ambari 使安装更容易)

关于linux -/usr/local 是不是必须要安装hadoop?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42129776/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com