- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我最近一直在尝试构建和配置 (8-Pi) Raspberry Pi 3 Hadoop 集群(作为夏季的个人项目)。请耐心等待(不幸的是我对 Hadoop 有点陌生)。我使用的是 Hadoop version 2.9.2。我认为重要的是要注意,现在我正在尝试让一个 Namenode 和一个 Datanode 彼此完全发挥作用,然后继续前进并在其余七个 Pi 上复制相同的过程。
问题:我的 Namenode(别名:master)是唯一节点,在两者下都显示为“Live Datanode” dfs-health 接口(interface),并通过使用:
dfsadmin -report
即使 Datanode 显示为“事件节点”(在群集 Hadoop UI 的节点中)并且“master”未在 slaves 文件中列出。我的目标配置是 Namenode 不应该执行任何 Datanode 操作。此外,我正在尝试以上述命令将我的数据节点(别名:slave-01)显示为“实时数据节点”的方式配置集群。
我怀疑我的问题是由于我的 Namenode 和 Datanode 使用相同的主机名 (raspberrypi) 而引起的,但是我不确定我需要进行哪些配置更改才能更正该问题。在查看了文档之后,很遗憾,我找不到关于是否允许这样做的决定性答案。
如果有人能帮我解决这个问题,我将不胜感激!我在下面提供了任何相关的文件信息(我认为这可能对解决问题有用)。谢谢 :)
PS:除非另有说明,否则Namenode和Datanode中的所有文件都是相同的。
============================================= ============================
我已经从 Namenode 和 Datanode 上的 slaves 文件中删除了 localhost,并将它们各自的主机名也更改为“master”和“slave-01”。
运行 JPS 后:我注意到所有正确的进程都在主节点上运行,但是我在日志显示的数据节点上遇到错误:
ExitCodeException exitCode=1: chmod: changing permissions of '/opt/hadoop_tmp/hdfs/datanode': Operation not permitted.
如果有人能帮我解决这个问题,我将不胜感激!不幸的是,尽管使用“chmod 777”更改了权限,但问题仍然存在。提前致谢:)
============================================= ============================
127.0.0.1 localhost
::1 localhost ip6-localhost ip6-loopback
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
127.0.1.1 raspberrypi
192.168.1.2 master
192.168.1.3 slave-01
master
localhost
slave-01
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000/</value>
</property>
<property>
<name>fs.default.FS</name>
<value>hdfs://master:9000/</value>
</property>
</configuration>
<configuration>
<property>
<name>dfs.datanode.data.dir</name>
<value>/opt/hadoop_tmp/hdfs/datanode</value>
<final>true</final>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/opt/hadoop_tmp/hdfs/namenode</value>
<final>true</final>
</property>
<property>
<name>dfs.namenode.http-address</name>
<value>master:50070</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
<configuration>
<property>
<name>mapreduce.job.tracker</name>
<value>master:5431</value>
</property>
<property>
<name>mapred.framework.name</name>
<value>yarn</value>
</property>
</configuration>
<configuration>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8025</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8035</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8050</value>
</property>
</configuration>
最佳答案
您可以让您的本地路由器提供主机名,而不是您自己操作/etc/hosts
,但是为了更改每个 Pi 的名称,编辑 /etc/hostname
并重启。
启动前后,检查运行hostname -f
注意:一旦你有了“YARN master”、“HDFS master”、“Hive Master”等,“master”就真的没有意义了。最好按字面意思说namenode
、data{ 1,2,3}
, yarn-rm
, 等等
关于权限问题,您可以以 root 身份运行所有内容,但在家庭实验室之外这样做是不安全的,因此您至少要为 hduser
运行一些 adduser
命令(如其他地方所述,但可以是其他任何内容)和 yarn
,然后以这些用户的身份运行命令,在 chown -R
之后这些用户拥有的数据和日志目录用户和他们所属的 Unix 组
关于hadoop - 树莓派 Hadoop 集群配置,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53622845/
由于 PostgreSQL 人员选择的术语不当,这会让一些人感到困惑,但请耐心等待... 我们需要能够支持多个 PostgreSQL (PG) 集群,并将它们集群在多个服务器上,例如使用repmgr.
Hadoop会跑很多jobs,从Hbase读取数据,写数据到数据库。假设我有 100 个节点,那么有两种方法可以构建我的 Hadoop/Hbase集群: 100节点hadoop&hbase集群(1个b
在kafka中,我们能创建多种类型的集群,一般如下: 单节点——单个broker集群 单节点——多broker集群 多结点——多broker集群 kafka集群中主要有五个组件: Topic:主题主要
我想在两台机器上运行我的 MPI 程序,一台是 ubuntu 18.04,另一台是 Windows 10。是否可以使用不同的操作系统组成一个集群? (我正在使用 MPICH) 如果可能,怎么做?我在网
简介: 更新负载平衡集群中的节点的最佳实践是什么? 我们在 ha 代理负载均衡器后面使用 RabbitMQ 集群来支持我们的客户端轻松集群,as suggested in the RabbitMQ d
我正在尝试创建一个图表,我明确指定了许多节点的等级并指定了集群。以下代码生成我想要的图形类型: digraph { rankdir=LR subgraph cluster0 {
我正在尝试在 RABBITMQ 上进行集群。我添加了 2 个节点,但无法添加第 3 个节点。我已经聚集了 rabbit@node1 和 rabbit@node2。现在我正在尝试将 rabbit@nod
我在 MS Azure 的生产环境中启用了一个双集群多区域 HA。 我被要求重用同一个集群来使用微服务管理几个新项目。 这里的最佳做法是什么?我应该为每个应用程序创建一个集群吗?将不同集群中的每个项目
我正在尝试 flex 搜索,并且很难在具有3个 flex 搜索实例的单台计算机上创建集群。我对实例进行了以下更改: 在所有实例上更改了群集名称{cluster.name:es-stack} 在所有实例
我想创建一个redis集群,仅将特定的redis主机作为主服务器和从服务器。另外,我想自己指定哪个主机应该是哪个主机的副本。 目前,cluster-create command当在任何一个 Redis
我计划在具有负载平衡的集群中设置 Magento,那么是否可以让两个 Magento 安装指向同一个数据库? 如果可能的话 - 我应该如何配置这些服务器的基本 URL?服务器应该具有相同的名称吗? 最
我目前正在计划一个 Web 应用程序,我想计划它最终在集群上运行。 集群将由一个 php web 集群和一个 mysql 集群以及一个独立的存储单元组成(也许是一个集群,我真的不知道它是如何工作的:s
我已经安装了 elasticsearch 2.2.3 并在 2 个节点的集群中配置 节点 1 (elasticsearch.yml) cluster.name: my-cluster node.nam
我正在寻找现有的中间件解决方案,以解决服务集群/分布方面的问题,以实现负载平衡和可用性。我正在考虑基于消息传递系统(更具体地说,JMS)为此构建自己的基础设施。但是,如果可能的话,我宁愿使用已经存在的
在 Hadoop 集群中,数据是自动跨数据节点复制还是必须编程? 如果必须编程,那我该怎么做呢? 最佳答案 dfs.replication 的默认值为 3。这存在于您的 hdfs.site.xml 中
我已经设置了一个具有 1 个主节点和 2 个从节点的 redis 集群,哨兵在所有 3 个节点上运行。 在此设置之前,我的应用程序指向运行 Redis 实例的单个节点。 集群搭建完成后,我的应用应该指
所以,我正在设计一个具有多个 redis 实例的分布式系统来分解大量的流式写入,但发现很难清楚地了解事情是如何工作的。 从我读到的内容来看,正确配置的集群似乎会自动对“错误实例”上的请求进行分片和重定
我有一个关于redis集群架构的问题。 我正在设置一个 Redis 集群,并遵循基本建议:3 硕士3个奴隶 有什么方法可以在 Amazon LB、HAProxy、Nginx 等负载均衡器后面配置此集群
那么集群背后的想法是什么? 您有多台机器具有相同的数据库副本,您在其中传播读/写?这是正确的吗? 这个想法如何运作?当我进行选择查询时,集群会分析哪个服务器的读/写较少并将我的查询指向该服务器? 当您
目录 一.系统环境 二.前言 三.Kubernetes 3.1 概述 3.2 Kube
我是一名优秀的程序员,十分优秀!