- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我已经按照教程说明设置了一个伪分布式 Hadoop 集群(jobtracker、tasktracker 和 namenode 都在同一个盒子上)并且运行良好。我现在正尝试将第二个节点作为另一个 tasktracker 添加到该集群。
当我检查节点 2 上的日志时,除了 tasktracker 之外,所有日志看起来都很好。我收到下面列出的错误消息的无限循环。任务跟踪器似乎正在尝试使用主机名 SSP-SANDBOX-1.mysite.com 而不是 IP 地址。该主机名不在/etc/hosts 中,所以我猜这就是问题所在。我没有 root 访问权限,无法将其添加到/etc/hosts。
是否有任何我可以更改的属性或配置,以便它停止尝试使用主机名进行连接?
非常感谢,
2011-01-18 17:43:22,896 ERROR org.apache.hadoop.mapred.TaskTracker:
Caught exception: java.net.UnknownHostException: unknown host: SSP-SANDBOX-1.mysite.com
at org.apache.hadoop.ipc.Client$Connection.<init>(Client.java:195)
at org.apache.hadoop.ipc.Client.getConnection(Client.java:850)
at org.apache.hadoop.ipc.Client.call(Client.java:720)
at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:220)
at $Proxy5.getProtocolVersion(Unknown Source)
at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:359)
at org.apache.hadoop.hdfs.DFSClient.createRPCNamenode(DFSClient.java:106)
at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:207)
at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:170)
at org.apache.hadoop.hdfs.DistributedFileSystem.initialize(DistributedFileSystem.java:82)
at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:1378)
at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:66)
at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:1390)
at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:196)
at org.apache.hadoop.fs.Path.getFileSystem(Path.java:175)
at org.apache.hadoop.mapred.TaskTracker.offerService(TaskTracker.java:1033)
at org.apache.hadoop.mapred.TaskTracker.run(TaskTracker.java:1720)
at org.apache.hadoop.mapred.TaskTracker.main(TaskTracker.java:2833)
最佳答案
这篇博文可能会有帮助:
http://western-skies.blogspot.com/2010/11/fix-for-exceeded-maxfaileduniquefetches.html
简短的回答是,即使您在配置文件中指定了 IP 地址,Hadoop 也会执行反向主机名查找。在您的环境中,为了使 Hadoop 工作,SSP-SANDBOX-1.mysite.com 必须解析为该机器的 IP 地址,并且对该 IP 地址的反向查找必须解析为 SSP-SANDBOX-1.mysite .com.
因此,您需要与管理这些机器的人交谈,以伪造主机文件或提供可以做正确事情的 DNS 服务器。
关于linux - Hadoop 集群中 tasktracker 上的 UnknownHostException,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/4730148/
我在某些网站上发现了以下问题,但我不确定正确答案。 Which Hadoop service in a MapReduce program spawns a new Mapper? JobTracke
我想打开tasktracker的web/ui。 localhost:50030/jobtracker.jsp但它不起作用,因为没有正在运行的 tasktracker。我的 hadoop 应用程序在没有
我正在使用hadoop1.2.1。我需要/ hadoop-installation-directory / logs / userlogs / job- / attemp- / stdout中的std
我看到我们可以设置每个 tasktracker 的 map/reduce 任务数量,但我如何设置集群中每个节点的 tasktracker 数量? 如何关闭安全性以便我可以在每个节点上运行多个 task
您好,我正在使用 OozieClient API。我需要使用 OozieClient API 检索特定工作流作业的任务跟踪器日志。如果不使用 OozieClient API,使用程序的任何其他方式也可
当我发出命令时 for service in /etc/init.d/hadoop* >do >sudo $service stop >done its stops all the service 当
我是 Hadoop 的新手,我有以下关于 Hadoop 框架的问题。有人可以指导吗? DataNode 和 TaskTracker 是否物理上位于生产环境中的不同机器上? Hadoop 何时将文件拆分
我阅读了有关 Apache Hadoop 的信息。他们说在HDFS中,任务是任意进程,即mapper或者reducer。他们一起称为工作。 它们有两个东西,JOBTRACKER 和 TASKTRACK
我可以启动 namenode 和辅助 namenode,但无法启动 jobtracker 和 tasktracker。 当我检查日志时,它显示这样的内容 ***********************
我已经成功安装了 ubuntu 12.04 和 hadoop 2.3.0。 输入jps命令后,我发现输出如下 4135 jps 2582 SeconadaryNameNode 3143 NodeMan
我有 5 个节点的 hadoop 集群。我为每个节点配置了 10 个映射器。当 MR 作业正在运行时,其中一个 hdfs 节点死亡。这最终导致该任务跟踪器被列入黑名单。在它被列入黑名单之后和 MR 作
根据 TaskTracker Hadoop Wiki page ,TaskTracker 生成一个新的 JVM 来完成它正在跟踪的实际工作。然而,页面中有一个拼写错误,不清楚 TaskTracker
我在 Windows 7 下的 cygwin 上设置了 hadoop 1.1.1。dfs 组件启动正常(start-dfs.sh 或 start-all.sh 两者),jobtracker 也是如此(
我已经按照教程说明设置了一个伪分布式 Hadoop 集群(jobtracker、tasktracker 和 namenode 都在同一个盒子上)并且运行良好。我现在正尝试将第二个节点作为另一个 tas
我正在运行安装了 Hadoop 1.1.2 的 Red Hat Enterprise Linux Server 6.4 (Santiago) 发行版。我已经进行了必要的配置以启用伪分布式模式。但是在尝
最近,我用三台计算机配置了hadoop平台:一个用于namenode / jobtracker。另外两个是用于tasktracker的,计算机名称是gp和ls-ubuntu。但是问题是当我想从网页中搜
我在 Ubuntu 11.10 上运行 Hadoop 1.0.1。 ./bin/start-all.sh 命令不会提示任何错误,但 TaskTracker 无法启动,并在 tasktracker.lo
我有一个包含 5 个数据节点的 Hadoop 集群 (Cloudera CDH4.2)。我正在尝试运行创建 HBaseConfiguration 对象的 MapReduce 作业。 tasktrack
是否可以配置 cgroups 或 Hadoop,使 TaskTracker 生成的每个进程都分配给特定的 cgroup? 我想使用 cgroups 强制执行内存限制。可以将 cgroup 分配给 Ta
我正在关注 http://ebiquity.umbc.edu/Tutorials/Hadoop/00%20-%20Intro.html 通过执行在第一个窗口中启动namenodecd hadoop-0
我是一名优秀的程序员,十分优秀!