gpt4 book ai didi

hadoop - 如何在现有集群上升级 hadoop - google cloud

转载 作者:可可西里 更新时间:2023-11-01 16:31:07 26 4
gpt4 key购买 nike

问题是独立的。我部署了一些集群,现在我想升级我的 hadoop 版本。我试图检查 bdutilgsutil,我没有找到如何让它工作!

最佳答案

不幸的是,由于 Hadoop 1 和 Hadoop 2 之间的各种路径、库依赖项和守护进程有很大不同,因此目前没有简单的就地升级方法。特别是,即使协调库升级和守护程序更改,对集群进行的任何自定义也可能会中断,因此一般来说,简单地删除并重新创建集群会更容易、更安全。

为了帮助防止过度卡在单个集群实例上并受益于能够从头开始重新部署可重现集群的敏捷性,最佳实践建议是将您可能拥有的任何自定义隔离到自定义“_env.sh”中"文件。 spark_env.sh extension是一个很好的例子,说明如何在现有 bdutil 安装之上混合额外的定制。再举一个例子,如果您只是想在 bdutil 安装结束时在所有机器上安装 openjdk-7-jdk,您将创建文件 install_jdk.shadd_jdk_env.sh:

# file: install_jdk.sh

sudo apt-get install openjdk-7-jdk

对于 add_jdk_env.sh:

# file: add_jdk_env.sh

# Create a command group which references the new install_jdk.sh file.
COMMAND_GROUPS+=(
"install_jdk:
install_jdk.sh
"
)

# Run that command group on master and workers.
COMMAND_STEPS+=(
'install_jdk,install_jdk'
)

最后,您只需将其混合用于 bdutil 部署:./bdutil -e add_jdk_env.sh deploy

关于hadoop - 如何在现有集群上升级 hadoop - google cloud,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31442519/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com