gpt4 book ai didi

java - 从节点可以运行Hadoop Map/Reduce Job吗?

转载 作者:可可西里 更新时间:2023-11-01 15:01:43 26 4
gpt4 key购买 nike

我在两个节点(主节点和从节点)上安装了 Hadoop。我会问我是否可以从从机运行 Map/Reduce 作业或从从机使用 HDFS。从主节点运行 map/reduce 作业没有问题,但是当我尝试从从节点运行 Map/Reduce 作业时,出现以下错误。

Java.net.connectionException 因连接异常而失败。

最佳答案

只要每个节点都配置了正确的 jobtracker 位置属性,您就可以从集群中的任何机器运行作业。事实上,您可以在任何机器上运行作业,包括您的个人台式机或笔记本电脑,只要您连接到服务器(也就是说,没有防火墙挡在您的路上)并且 Hadoop 配置了正确的 jobtracker 和名称节点。

确保 mapred.job.tracker 在从站上配置到主站的主机和端口。类似于 master.com:8021。并确保您可以在从站和主站之间建立连接,例如通过运行 telnet master.com 8021。我假设您可以建立连接,因为 master (jobtracker) 可以在 tasktracker 上安排任务。

关于java - 从节点可以运行Hadoop Map/Reduce Job吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/8375228/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com