gpt4 book ai didi

scala - 如何更改SparkContext.sparkUser()设置(在pyspark中)?

转载 作者:行者123 更新时间:2023-12-04 04:39:50 24 4
gpt4 key购买 nike

我是Sparkpyspark的新手。
我使用pyspark,在处理了rdd之后,尝试使用hdfs函数将其保存到saveAsTextfile()中。
但我收到“权限被拒绝”错误消息,因为pyspark尝试编写hdfs使用我的本地帐户“kjlee”,该帐户在hdfs系统上不存在。

我可以通过SparkContext().sparkUser()检查spark用户名,但是找不到如何更改spark用户名。

如何更改Spark用户名?

最佳答案

为此有一个环境变量:HADOOP_USER_NAME因此只需使用export HADOOP_USER_NAME=anyuser或在pyspark中就可以使用os.environ["HADOOP_USER_NAME"] = "anyuser"

关于scala - 如何更改SparkContext.sparkUser()设置(在pyspark中)?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32860831/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com