gpt4 book ai didi

file - Hadoop - 在 HDFS 中手动拆分文件

转载 作者:可可西里 更新时间:2023-11-01 14:58:57 41 4
gpt4 key购买 nike

我提交了一个大小为 1 GB 的文件,我想将该文件拆分为大小为 100MB 的文件。我怎样才能从命令行做到这一点。我正在搜索如下命令:

hadoop fs -split --bytes=100m /user/foo/one_gb_file.csv /user/foo/100_mb_file_1-11.csv

有没有办法在 HDFS 中做到这一点?

最佳答案

在 HDFS 中,我们不能指望 unix 中可用的所有功能。当前版本的 hadoop fs 实用程序不提供此功能。也许我们可以期待 future 。您可以提出一个错误(apache Jira 中的改进)以将此功能包含在 hdfs 中。

现在您必须用 Java 编写自己的实现。

关于file - Hadoop - 在 HDFS 中手动拆分文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/22521632/

41 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com