gpt4 book ai didi

hadoop - Ambari 为所有服务缩放内存

转载 作者:可可西里 更新时间:2023-11-01 14:45:26 24 4
gpt4 key购买 nike

最初我有两台机器来设置hadoop、spark、hbase、kafka、zookeeper、MR2。每台机器都有 16GB 的内存。我使用 Apache Ambari 为两台机器设置了上述服务。

现在我已经将每台机器的 RAM 升级到 128GB。

我现在如何告诉 Ambari 扩展其所有服务以利用额外的内存?

我是否需要了解如何为这些服务配置内存?

Ambari 文档的某个地方是否涵盖了这部分内容?

最佳答案

Ambari 在安装时计算每个服务的内存使用推荐设置。因此,安装后内存的变化不会扩大。您必须为每项服务手动编辑这些设置。为了做到这一点,您需要了解应如何为每个服务配置内存。我不知道有任何 Ambari 文档会为每个服务推荐内存配置值。我会建议以下路线之一:

1) 查看每个服务文档(YARN、Oozie、Spark 等)并查看他们对内存相关参数配置的建议。

2) 查看计算这些内存参数的推荐值的 Ambari 代码,并使用这些方程式得出新的值来说明增加的内存。

关于hadoop - Ambari 为所有服务缩放内存,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35691031/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com