gpt4 book ai didi

hadoop - Hadoop 中 HDFS 写入的名称节点如何更新数据节点的可用性

转载 作者:可可西里 更新时间:2023-11-01 16:29:27 26 4
gpt4 key购买 nike

我有 10 个数据节点,复制因子为 3,文件大小为 150, block 大小为 64。因此文件将被拆分为三个 block B1、B2、B3。因此,客户端向名称节点询问数据节点是否可用以写入 B1 block 。我的问题是名称节点将向客户端提供多少数据节点用于写入 B1 block 。还有一个问题是 B1、B2、B3 的写入将如何并行或顺序发生

最佳答案

  1. 数据将由客户端仅写入一个数据节点,其余复制由数据节点本身根据名称节点指令处理。Replica placement:当一个datanode从客户端接收block的数据时,datanode将数据保存在一个代表block的文件中,同时将数据重新发送给另一个datanode,即应该创建该 block 的另一个副本。

  2. block 按顺序复制

关于hadoop - Hadoop 中 HDFS 写入的名称节点如何更新数据节点的可用性,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41854308/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com