gpt4 book ai didi

hadoop - HDFS 名称节点 HA : Why use NFS rather than simply replicate between the two?

转载 作者:可可西里 更新时间:2023-11-01 14:32:14 26 4
gpt4 key购买 nike

看Facebook使用的AvatarNode方案为HDFS Namenode提供HA,不明白为什么要用NFS。让我感到困惑的是,NFS 无论如何都必须复制才能实现 HA。主节点必须写入 NFS 并刷新才能获得 HA。为什么不简单地在主节点和辅助节点之间打开一个套接字 channel ,然后对辅助 Namenode 执行相同的写入。这将是(大约)相同数量的网络流量,并且似乎具有相同的复制语义。

那么问题来了,为什么不这样做呢?

我想原因之一可能是 NFS 存在,因此问题可能更容易实现。但是考虑到在主要和次要之间使用原始套接字 channel 将写入流接口(interface)(即文件)的相同信息写入 NFS 的(明显的)简单性,我一直在摸索为什么这还没有完成了。

当然,选择使用 NFS 肯定有一些充分的理由,我在扶手椅分析中遗漏了这一点。

最佳答案

我不知道,但我同意这似乎是一个非常奇怪的选择,而且我真的想不出任何其他原因,但负责修复某些问题的团队有一个功能正常的 NFS 设置,该设置对某些人有用其他用途。但根据我的经验,我认为 NFS 是另一个会失败的单点,并且不会在这种情况下选择它。

关于hadoop - HDFS 名称节点 HA : Why use NFS rather than simply replicate between the two?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11024764/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com