gpt4 book ai didi

linux - 上传文件到hadoop

转载 作者:可可西里 更新时间:2023-11-01 16:39:04 24 4
gpt4 key购买 nike

我最近下载了 Oracle Virtual Box,我想获取一些数据并将其导入 HDFS。我想声明,当涉及到这些事情时,我是一个完全的新手。我试过从无用的类(class)中复制说明。

如果我使用的术语不准确,我深表歉意。

所以在我的 VM 空间中我有以下文件

  1. 计算机
  2. 培训之家(由 Udacity 提供)
  3. eclipse
  4. 垃圾

在 Places 的左侧我有 Inside Training's Home

  1. 培训,
  2. 桌面
  3. 文件系统
  4. 网络
  5. 垃圾
  6. 文件
  7. 图片
  8. 下载

当我选择训练时,在右侧有很多文件夹,其中一个是 udacity_training。当我选择这个时,有两个文件夹代码和数据。当我选择数据时,还有两个名为 access_log.gz 和 purchases.txt 的文件夹,这是我要加载到 HDFS 中的数据

复制我输入的udacity教程输入的命令

[training@localhost ~]$ ls access_log.gz purchases.txt

这给出了错误信息

ls: 无法访问 access_log.gz: 没有那个文件或目录ls: 无法访问购买:没有那个文件或目录

然后我尝试下一行只是为了看看会发生什么

[training@localhost ~]$ hadoop fs -ls
[training@localhost ~]$ hadoop fs -put purchases.txt

再次报错

put: 'purchases.txt': No such file or directory

我做错了什么?我不太理解命令行提示我认为它们在 Linux 中?所以我输入的内容对我来说看起来很陌生。我希望能够理解我输入的内容。有人可以帮助我访问数据,也许还可以提供一些信息,说明我在哪里可以理解我实际在命令行中输入的内容吗?任何帮助是极大的赞赏。

最佳答案

请开始学习 linux 的基础知识& hadoop命令。要回答您的问题,请尝试以下选项。

Use command cd /dir_name to goto the required directory and then use
hadoop fs -put /file_name /hdfs/path

关于linux - 上传文件到hadoop,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45460627/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com