gpt4 book ai didi

linux - hadoop中的文件系统

转载 作者:可可西里 更新时间:2023-11-01 16:23:21 26 4
gpt4 key购买 nike

最近开始学习hadoop多集群

文件系统在 hadoop 中是如何工作的。

例如。如果我有一个 test.txt 文件,其中包含完整的农民详细信息。我是否需要将文件上传到主 HDFS 服务器或从属服务器。

最佳答案

要了解 Hadoop 文件系统的工作原理,请参阅 Hadoop:权威指南

目前,要将文件加载到 HDFS,您只需要从集群的边缘节点运行 -put-copyFromLocal 命令(意思是从您所在的位置可以运行 hadoop 命令),其余的将由 Hadoop 框架处理。你的命令可能看起来像

hadoop fs 设置

$ hadoop fs -copyFromLocal /home/user1/farmer_details.txt /user/user1

$ hadoop fs -put /home/user1/farmer_details.txt /user/user1

你也可以试试hdfs dfs set

$ hdfs dfs -copyFromLocal /home/user1/farmer_details.txt /user/user1

$ hdfs dfs -put /home/user1/farmer_details.txt /user/user1

其中 /home/user1/farmer_details.txt 是本地文件系统中的源位置,/user/user1 是 hadoop 文件系统中的目标位置。

要验证上传的文件,可以运行命令

$ hadoop fs -ls /user/user1

你应该得到 /user/user1/farmer_details.txt 文件。

关于linux - hadoop中的文件系统,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37567529/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com