gpt4 book ai didi

hadoop - hdfs 架构 - 谁做输入文件拆分

转载 作者:可可西里 更新时间:2023-11-01 17:00:29 25 4
gpt4 key购买 nike

我是 hadoop 的新手。我对谁负责拆分输入文件感到困惑。假设我有一个 200 MB 的文件, block 大小为 64 MB。所以我们需要总共 4 个 block 乘以复制因子。谁拆分文件以及拆分文件如何提供给客户端以便能够写入数据节点。

如果可能,请提供此信息的链接?我尝试使用谷歌搜索,但没有成功找到 hadoop 架构的详分割步说明。有几个网站,但缺少详细信息。

最佳答案

虽然多年来一些细节发生了变化,但这两个文档(由参与 HDFS 早期开发的人员撰写)很好地描述了 HDFS 中的工作原理:

回答您的具体问题:HDFS 中间件(特别是 HDFS 客户端组件)在上传之前将文件拆分为 block ,并在您将文件下载到客户端时加入 block 。这对用户来说是完全透明的。

关于hadoop - hdfs 架构 - 谁做输入文件拆分,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24751163/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com