gpt4 book ai didi

hadoop - 关键 : HDFS-HAWQ - Migration to New Hardware

转载 作者:可可西里 更新时间:2023-11-01 16:41:37 26 4
gpt4 key购买 nike

我们有 PHD3.0 版本的 hadoop 集群,用于 5 个节点,使用安装在 rackspace 上的 ambari。我们必须迁移到 Google 云 (GCP)。

但没有得到步骤如何进行以下操作

Q1:如何将数据、元数据配置从旧机器迁移到新机器。 (旧机器版本是cantos 6.5 目标机器版本是centos 6.5)

Q2:要备份哪些组件和文件夹?命令是什么?

Q3:如何备份nameode和datanodes?

Q4:ambari数据库也需要备份吗?

如有任何帮助,我们将不胜感激?

最佳答案

我个人更喜欢在 GCP 中配置 hadoop 集群,并使用 distcp 将数据移动到新集群。对于 hawq 管理表,将数据移动到 hdfs,然后执行 distcp。在 AWS 上的某些情况下,我将数据移动到 s3 并导入回 hadoop。

关于hadoop - 关键 : HDFS-HAWQ - Migration to New Hardware,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40596123/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com