gpt4 book ai didi

java - 如何通过 hadoop mapreduce 作业访问 windows/unix 目录中的文本文件

转载 作者:可可西里 更新时间:2023-11-01 16:26:05 25 4
gpt4 key购买 nike

我想将windows/unix环境下的日志文件按照特定的目录结构复制到HDFS中。我知道我可以在 hadoop shell 中执行 copyFromLocal,但是否可以使用 Mapper 通过 java 代码执行。

最佳答案

如果你的意思是将本地文件(或目录)从本地机器复制到 HDFS,代码如下:

    Configuration conf = new Configuration();
FileSystem fs = FileSystem.get(conf);
Path localPath = new Path("your_local_path");
Path remotePath = new Path("your_hdfs_path");
fs.copyFromLocalFile(localPath, remotePath);

关于java - 如何通过 hadoop mapreduce 作业访问 windows/unix 目录中的文本文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27266986/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com