gpt4 book ai didi

hadoop - 如何在Cloudera上挂载HDFS?

转载 作者:可可西里 更新时间:2023-11-01 14:58:24 25 4
gpt4 key购买 nike

我在一个运行 Cloudera 5.3 的集群上工作,我已经按照所有说明创建了一个 NFS 网关并且它运行良好。我的问题是我仍然无法将 HDFS 目录视为 Linux 文件系统的一部分(这是 RHEL 6)。我不是 UNIX 管理员,所以我没有挂载目录的经验,而且我在网上找到的文档对解决这个特定问题没有帮助。我试过简单的

mount /

在作为 NFS 网关的机器上,但这没有用。当我尝试从另一台集群机器使用

挂载时
mount <myNFSgateway>:/ /

我在网关服务器和 HDFS 中都看不到任何文件(尽管我可以使用 hdfs dfs -ls 轻松查看这些文件)。

既然已经设置了 NFS,我该如何实际将 HDFS 挂载为目录?

最佳答案

尝试使用下面的命令来检查可用的挂载点

showmount -e <nfs_server_ip_address>

您应该看到类似于以下内容的输出:

Exports list on <nfs_server_ip_address>: 
/ (everyone)

在 NFS 客户端上挂载 HDFS要在 NFS 客户端上导入 HDFS 文件系统,请在客户端上使用如下命令:

 mount -t  nfs  -o vers=3,proto=tcp,nolock <nfs_server_hostname>:/ /hdfs_nfs_mount

(挂载前确保安装了nfs相关的库,如果没有,使用命令sudo yum install nfs-utils nfs-utils-lib安装)

关于hadoop - 如何在Cloudera上挂载HDFS?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29828071/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com