gpt4 book ai didi

hadoop - 将 csv 文件合并到一个文件中

转载 作者:可可西里 更新时间:2023-11-01 15:04:09 25 4
gpt4 key购买 nike

我有一组 csv 文件,我想将它们合并到一个 csv 文件中。 ,需要一些时间,但我没有在目标路径中找到文件

hdfs dfs -getmerge /DATA /data1/result.csv

任何帮助谢谢

最佳答案

getmerge

用法: hadoop fs -getmerge [-nl] <src> <localdst>

将源目录和目标文件作为输入并将 src 中的文件连接到目标本地文件中。可选 -nl可以设置为启用在每个文件末尾添加换行符 (LF)。 --skip-empty-file可用于在空文件的情况下避免不需要的换行符。

示例:

 hadoop fs -getmerge -nl /src /opt/output.txt

hadoop fs -getmerge -nl /src/file1.txt /src/file2.txt /output.txt

退出代码:

成功时返回 0,错误时返回非零值。

如果有些方法对你不起作用

您可以尝试这样的 cat 命令:(如果您的数据不够大)

 hadoop dfs -cat /DATA/* > /<local_fs_dir>/result.csv

hadoop dfs -copyFromLocal /<local_fs_dir>/result.csv /data1/result.csv

关于hadoop - 将 csv 文件合并到一个文件中,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42433869/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com