gpt4 book ai didi

amazon-ec2 - 在 EC2 集群上安装 Hbase/Hadoop

转载 作者:可可西里 更新时间:2023-11-01 14:10:51 28 4
gpt4 key购买 nike

我知道我可以分拆出一个安装了 HadoopEC2 集群(除非我错了)。 Hbase 怎么样?我可以预先准备好 Hadoop 和 Hbase 吗?或者我需要弄脏我的手吗?如果它不是一个选项,什么是最好的选择? Cloudera 显然有一个包含两者的软件包。这是要走的路吗?

感谢您的帮助。

最佳答案

hbase 有一组 ec2 脚本,可以让您快速设置并准备好运行。它允许您配置 zk 服务器和从节点的数量,但我不确定它们在哪些版本中可用。我正在使用 0.20.6。设置一些 S3/EC2 信息后,您可以执行以下操作:

/usr/local/hbase-0.20.6/contrib/ec2/bin/launch-hbase-cluster 集群从属 ZKSERVERS

快速开始使用集群。这很好,因为它也会为您安装 LZO 信息。

以下是 bin 目录中环境文件中可能有用的一些参数(如果您需要 20.6 AMI):

# The version of HBase to use.
HBASE_VERSION=0.20.6

# The version of Hadoop to use.
HADOOP_VERSION=0.20.2

# The Amazon S3 bucket where the HBase AMI is stored.
# Change this value only if you are creating your own (private) AMI
# so you can store it in a bucket you own.
#S3_BUCKET=apache-hbase-images
S3_BUCKET=720040977164

# Enable public access web interfaces
ENABLE_WEB_PORTS=false

# Extra packages
# Allows you to add a private Yum repo and pull packages from it as your
# instances boot up. Format is <repo-descriptor-URL> <pkg1> ... <pkgN>
# The repository descriptor will be fetched into /etc/yum/repos.d.
EXTRA_PACKAGES=

# Use only c1.xlarge unless you know what you are doing
MASTER_INSTANCE_TYPE=${MASTER_INSTANCE_TYPE:-c1.xlarge}

# Use only c1.xlarge unless you know what you are doing
SLAVE_INSTANCE_TYPE=${SLAVE_INSTANCE_TYPE:-c1.xlarge}

# Use only c1.medium unless you know what you are doing
ZOO_INSTANCE_TYPE=${ZOO_INSTANCE_TYPE:-c1.medium}

如果 ami 中没有设置 JAVA_HOME(我认为没有),您可能还需要设置 java 版本。较新版本的 hbase 可能在 S3 存储桶中可用,只需为 hadoop/hbase 执行 describe instances 和 grep 以缩小结果范围。

关于amazon-ec2 - 在 EC2 集群上安装 Hbase/Hadoop,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/5113217/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com