gpt4 book ai didi

hadoop - spark1.3无法从HDFS1读取数据

转载 作者:可可西里 更新时间:2023-11-01 16:52:49 25 4
gpt4 key购买 nike

我正在使用 Spark1.3.1 尝试从 HDFS 读取数据:

val sc = new SparkContext(sparkConf)
val lines = sc.textFile("hdfs://192.168.0.104:9000/cur/part-r-02554")

我遇到了以下异常:

Exception in thread "main" java.io.IOException: Failed on local exception: 
com.google.protobuf.InvalidProtocolBufferException: Protocol message end-group
tag did not match expected tag.; Host Details : local host is:
"hadoop104/192.1168.1.104"; destination host is: "hadoop104":9000;

最佳答案

尝试在您的 core-site.xml 中查找属性 fs.defaultFSfs.default.name。检查 192.168.0.104 是否配置为 value,而不是 hostname

如果一个主机名被配置为一个,这必然会给你一个错误——因为这是被严格遵守的。要么,使用 core-site.xml 中配置的任何内容,要么不使用 IP/主机名,直接使用 hdfs:/cur/part-r-02554

关于hadoop - spark1.3无法从HDFS1读取数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31418643/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com