gpt4 book ai didi

hadoop - hdfs:在sparkR shell中读取Parquetfile时没有此类文件或目录错误

转载 作者:行者123 更新时间:2023-12-02 21:37:01 24 4
gpt4 key购买 nike

我想从hdfs系统中读取sparkR shell 中的parquetFile。所以我这样做:

./sparkR --master yarn-client

sqlContext <- sparkRSQL.init(sc)
path<-"hdfs://year=2015/month=1/day=9"
AppDF <- parquetFile(sqlContext, path)

错误: No such file or directory
但是这个文件确实存在于hdfs系统中。当我将此代码包装在dataframe.R之类的R文件中并运行 ./spark-submit --master yarn ~/dataframe.R 1000时。效果很好。所以我认为问题是通过sparkR shell在yarn-client上运行的。谁能帮助解决这个问题?

我正在使用spark-1.4.0-bin-hadoop2.6

最佳答案

我不确定这是否有帮助。您可能需要添加完整路径,包括defaultFS的主机名和端口,例如

path<-"hdfs://localhost:9000/year=2015/month=1/day=9"

关于hadoop - hdfs:在sparkR shell中读取Parquetfile时没有此类文件或目录错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31511381/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com