- 使用 Spring Initializr 创建 Spring Boot 应用程序
- 在Spring Boot中配置Cassandra
- 在 Spring Boot 上配置 Tomcat 连接池
- 将Camel消息路由到嵌入WildFly的Artemis上
三台 linux 节点,操作系统(Centos7)
systemctl stop firewalld
开机时禁用防火墙
systemctl disable firewalld
vi /etc/hosts
192.168.56.103 linux2
192.168.56.102 linux3
192.168.56.104 linux4
在~目录下执行
#生成密钥
ssh-keygen -t rsa
cd /root/.ssh/
cp id_rsa.pub authorized_keys
//将每台机器的密钥拷到其他三台上,如在第一台上执行
ssh-copy-id -i linux3
ssh-copy-id -i linux4
集群规划
框架 | linux2 | linux3 | linux4 |
---|---|---|---|
HDFS | NameNode、DataNode | DataNode | SecondaryNameNode、DataNode |
MapReduce | 无区分 | 无区分 | 无区分 |
YARN | NodeManager | NodeManager | NodeManager、ResourceManager |
下载页面:
https://archive.apache.org/dist/hadoop/common/hadoop-2.9.2/hadoop-2.9.2.tar.gz
下载并解压
目录介绍
bin 目录:对 Hadoop 进行操作的相关命令,如 hadoop,hdfs 等
etc 目录:Hadoop 的配置文件目录,入 hdfs-site.xml,core-site.xml 等
lib 目录:Hadoop 本地库(解压缩的依赖)
sbin 目录:存放的是 Hadoop 集群启动停止相关脚本,命令
share 目录:Hadoop 的一些 jar,官方案例 jar,文档等
配置环境变量
添加 Hadoop 到环境变量 vim /etc/profile
export HADOOP_HOME=/opt/lagou/servers/hadoop-2.9.2
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
使环境变量生效
source /etc/profile
测试是否配置成功
hadoop version
Hadoop 集群配置 = HDFS 集群配置 + MapReduce 集群配置 + Yarn 集群配置
配置总览:
一、HDFS 集群配置配置
配置文件在:/opt/lagou/servers/hadoop-2.9.2/etc/hadoop
目录下
export JAVA_HOME=/opt/lagou/servers/jdk1.8.0_151
<configuration>
<!-- 指定HDFS中NameNode的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://linux2:9000</value>
</property>
<!-- 指定Hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/lagou/servers/hadoop-2.9.2/data/tmp</value>
</property>
</configuration>
<configuration>
<!-- 指定Hadoop辅助名称节点主机配置 -->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>linux4:50090</value>
</property>
<!--副本数量 -->
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
</configuration>
linux2
linux3
linux4
注意不要有多余的换行和空格
二、MapReduce 集群配置
export JAVA_HOME=/opt/lagou/servers/jdk1.8.0_151
<!-- 指定MR运行在Yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
三、Yarn 集群配置
export JAVA_HOME=/opt/lagou/servers/jdk1.8.0_151
<!-- 指定YARN的ResourceManager的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>linux4</value>
</property>
<!-- Reducer获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
linux2
linux3
linux4
注意:Hadoop 安装目录所属用户和所属用户组信息,默认是 501dialout,而我们操作 Hadoop 集群的用户使用的是虚拟机的 root 用户。
解决方法:
chown -R root:root /opt/lagou/servers/hadoop-2.9.2
备注:我们通过命令 scp 或 rsync 将一台机器上配置好的文件目录复制到其他机器上去。
示例:
scp -r jdk1.8.0_151/ linux3:/opt/lagou/servers/
注意:如果集群是第一次启动,需要在Namenode 所在节点格式化 NameNode,非第一次不用执行格式化 Namenode 操作!!
hadoop namenode -format
格式化成功后有如下标识:
HDFS 启动
hadoop-daemon.sh start namenode
hadoop-daemon.sh start datanode
从 Live Node 可以看出启动成功的节点数量
也可以访问 HDFS 网页:
http://192.168.56.103:50070/explorer.html
Yarn 启动
yarn-daemon.sh start resourcemanager
yarn-daemon.sh start nodemanager
停止命令
就是将 start 换成 stop
hadoop-daemon.sh stop namenode/datanode/secondarynamenode
yarn-daemon.sh stop resourcemanager / nodemanager
sbin/start-dfs.sh
sbin/start-yarn.sh
停止命令:
stop-dfs.sh
stop-yarn.sh
从我们 linux 本地传一个文件到 hdfs 上,并从 hdfs 上下载
#在hdfs上创建文件夹
hdfs dfs -mkdir -p /test/input
#上传linxu文件到Hdfs
hdfs dfs -put /root/test.txt /test/input
#从Hdfs下载文件到linux本地
hdfs dfs -get /test/input/test.txt
上传成功后也可以从管理页面上查看:
1)在 HDFS 文件系统根目录下面创建一个 wcinput 文件夹
hdfs dfs -mkdir -p /wcinput
2)本地编辑一个文件上传到 wcinput 文件夹下
文件内容:
hadoop mapreduce yarn
hdfs hadoop mapreduce
mapreduce yarn lagou
lagou
lagou
hdfs dfs -put word.txt /wcinput
3)运行 hadoop 提供的 mapreduce 示例程序测试
示例程序路径: cd hadoop-2.9.2/share/hadoop/mapreduce
hadoop jar ./hadoop-mapreduce-examples-2.9.2.jar wordcount /wcinput /wcoutput
注意:wordcount 是示例程序提供的功能,wcinput 是我们放置文件的目录,wcoutput 由程序自动创建
4) 查看运行结果
hdfs dfs -cat /wcoutput/part-r-00000
在 Yarn 中运行的任务产生的日志数据不能查看,为了查看程序的历史运行情况,需要配置一下历史日志服务器。
<!-- 历史服务器端地址 -->
<property>
<name>mapreduce.jobhistory.address</name>
<value>linux121:10020</value>
</property>
<!-- 历史服务器web端地址 -->
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>linux121:19888</value>
</property>
<!-- 日志聚集功能使能 -->
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<!-- 日志保留时间设置7天 -->
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>604800</value>
</property>
mr-jobhistory-daemon.sh start historyserver
启动后 liveNode 只有 2 个节点。
原因:因为这两个节点相同的 datanodeUuid 导致的。
datanodeUuid 位置:file://${hadoop.tmp.dir}/dfs/data/current/VERSION
cat /opt/lagou/servers/hadoop-2.9.2/data/tmp/dfs/data/current/VERSION
如果是一致的修改一下,然后重新启动即可。
书山有路勤为径,学海无涯苦作舟
由于 PostgreSQL 人员选择的术语不当,这会让一些人感到困惑,但请耐心等待... 我们需要能够支持多个 PostgreSQL (PG) 集群,并将它们集群在多个服务器上,例如使用repmgr.
Hadoop会跑很多jobs,从Hbase读取数据,写数据到数据库。假设我有 100 个节点,那么有两种方法可以构建我的 Hadoop/Hbase集群: 100节点hadoop&hbase集群(1个b
在kafka中,我们能创建多种类型的集群,一般如下: 单节点——单个broker集群 单节点——多broker集群 多结点——多broker集群 kafka集群中主要有五个组件: Topic:主题主要
我想在两台机器上运行我的 MPI 程序,一台是 ubuntu 18.04,另一台是 Windows 10。是否可以使用不同的操作系统组成一个集群? (我正在使用 MPICH) 如果可能,怎么做?我在网
简介: 更新负载平衡集群中的节点的最佳实践是什么? 我们在 ha 代理负载均衡器后面使用 RabbitMQ 集群来支持我们的客户端轻松集群,as suggested in the RabbitMQ d
我正在尝试创建一个图表,我明确指定了许多节点的等级并指定了集群。以下代码生成我想要的图形类型: digraph { rankdir=LR subgraph cluster0 {
我正在尝试在 RABBITMQ 上进行集群。我添加了 2 个节点,但无法添加第 3 个节点。我已经聚集了 rabbit@node1 和 rabbit@node2。现在我正在尝试将 rabbit@nod
我在 MS Azure 的生产环境中启用了一个双集群多区域 HA。 我被要求重用同一个集群来使用微服务管理几个新项目。 这里的最佳做法是什么?我应该为每个应用程序创建一个集群吗?将不同集群中的每个项目
我正在尝试 flex 搜索,并且很难在具有3个 flex 搜索实例的单台计算机上创建集群。我对实例进行了以下更改: 在所有实例上更改了群集名称{cluster.name:es-stack} 在所有实例
我想创建一个redis集群,仅将特定的redis主机作为主服务器和从服务器。另外,我想自己指定哪个主机应该是哪个主机的副本。 目前,cluster-create command当在任何一个 Redis
我计划在具有负载平衡的集群中设置 Magento,那么是否可以让两个 Magento 安装指向同一个数据库? 如果可能的话 - 我应该如何配置这些服务器的基本 URL?服务器应该具有相同的名称吗? 最
我目前正在计划一个 Web 应用程序,我想计划它最终在集群上运行。 集群将由一个 php web 集群和一个 mysql 集群以及一个独立的存储单元组成(也许是一个集群,我真的不知道它是如何工作的:s
我已经安装了 elasticsearch 2.2.3 并在 2 个节点的集群中配置 节点 1 (elasticsearch.yml) cluster.name: my-cluster node.nam
我正在寻找现有的中间件解决方案,以解决服务集群/分布方面的问题,以实现负载平衡和可用性。我正在考虑基于消息传递系统(更具体地说,JMS)为此构建自己的基础设施。但是,如果可能的话,我宁愿使用已经存在的
在 Hadoop 集群中,数据是自动跨数据节点复制还是必须编程? 如果必须编程,那我该怎么做呢? 最佳答案 dfs.replication 的默认值为 3。这存在于您的 hdfs.site.xml 中
我已经设置了一个具有 1 个主节点和 2 个从节点的 redis 集群,哨兵在所有 3 个节点上运行。 在此设置之前,我的应用程序指向运行 Redis 实例的单个节点。 集群搭建完成后,我的应用应该指
所以,我正在设计一个具有多个 redis 实例的分布式系统来分解大量的流式写入,但发现很难清楚地了解事情是如何工作的。 从我读到的内容来看,正确配置的集群似乎会自动对“错误实例”上的请求进行分片和重定
我有一个关于redis集群架构的问题。 我正在设置一个 Redis 集群,并遵循基本建议:3 硕士3个奴隶 有什么方法可以在 Amazon LB、HAProxy、Nginx 等负载均衡器后面配置此集群
那么集群背后的想法是什么? 您有多台机器具有相同的数据库副本,您在其中传播读/写?这是正确的吗? 这个想法如何运作?当我进行选择查询时,集群会分析哪个服务器的读/写较少并将我的查询指向该服务器? 当您
目录 一.系统环境 二.前言 三.Kubernetes 3.1 概述 3.2 Kube
我是一名优秀的程序员,十分优秀!