gpt4 book ai didi

hadoop - 如何使用 Apache FLUME 将数据写入 HA Hadoop QJM?

转载 作者:可可西里 更新时间:2023-11-01 14:53:15 25 4
gpt4 key购买 nike

flume如何识别活跃的namenode以便将数据写入HDFS?如果没有高可用性 Hadoop,我们将在 flume.conf 中配置 namenode ip,以便将数据轻松定向到 HDFS。而在我们的例子中,Flume 应该识别事件和备用名称节点,因此数据应该被定向到事件名称节点。

最佳答案

AFAIK 这是不可能的直接方式。 HDFS sink配置只有一个Namenode的空间。

尽管如此,我认为您可以配置两个 HDFS 接收器(和两个 channel ),每个接收器都指向一个名称节点。由于默认 Replicating Channel Selector,源将在两个 channel 中放置每个事件的副本。 .因此,每个接收器都会尝试自己持久化数据;指向备用 Namenode 的那个不会保留任何东西,直到事件的那个掉下来并且备用 Namenode 变成事件的。

喂!

关于hadoop - 如何使用 Apache FLUME 将数据写入 HA Hadoop QJM?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30178368/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com