gpt4 book ai didi

apache-spark - 在Hadoop中使用Sparklyr时出现权限错误

转载 作者:行者123 更新时间:2023-12-02 19:14:11 25 4
gpt4 key购买 nike

我正在尝试让sparklyr在Hadoop集群上工作。当我运行sc <- spark_connect(master = "yarn-client", version = "2.8.5")
我收到此错误消息:

Error in force(code) : 
Failed during initialize_connection: org.apache.hadoop.security.AccessControlException: Permission denied: user=rstudio, access=WRITE, inode="/user":hdfs:hadoop:drwxr-xr-x
at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.check(FSPermissionChecker.java:319)
at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkPermission(FSPermissionChecker.java:219)
at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkPermission(FSPermissionChecker.java:189)
...

用户rstudio是我为RStudio服务器创建的。如何修复权限才能使其正常工作?

最佳答案

使用hadoop super 用户(在您的情况下看起来像hdfs),您需要为rstudio用户创建一个HDFS主目录(/user/rstudio),并更改其所有权,以便rstudio是所有者。有关详细信息,请参见http://www.hadooplessons.info/2017/12/creating-home-directory-for-user-in-hdfs-hdpca.html?m=1

关于apache-spark - 在Hadoop中使用Sparklyr时出现权限错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58125949/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com