gpt4 book ai didi

hadoop - HDFS 小文件

转载 作者:可可西里 更新时间:2023-11-01 16:10:37 25 4
gpt4 key购买 nike

我有一个包含许多小文件 (KB) 和一些中等文件(1 mb 到 5 mb)和一些大文件(大于 50 MB)的源

现在可以选择将它们放入 HDFS(合并文件)或 HBase(作为 MOB)。就摄取和向最终用户显示文件的性能而言,推荐使用哪种方法?

最佳答案

您可以将这些文件放入 HDFS。但是在放入 HDFS 之前,您可以通过使用 identitymapper 和 identityreducer 运行 MR 作业来合并文件,方法是根据您的文件大小和 block 大小设置 reducer 的数量,或者使用 combinefileinputformat 处理它并将其放入 HDFS。

关于hadoop - HDFS 小文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32277316/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com