gpt4 book ai didi

hadoop - 如何为大数据集群分配物理资源?

转载 作者:可可西里 更新时间:2023-11-01 15:59:06 26 4
gpt4 key购买 nike

我有三台服务器,我想在这些服务器上部署 Spark Standalone Cluster 或 Spark on Yarn Cluster。现在我有一些关于如何为大数据集群分配物理资源的问题。例如,我想知道是否可以在同一个节点上部署 Spark Master Process 和 Spark Worker Process。为什么?

服务器详细信息:

CPU Cores: 24
Memory: 128GB

我需要你的帮助。谢谢。

最佳答案

当然可以,只要把host和Master放在slave中就可以了。在我的测试服务器上,我有这样的配置,master 机器也是工作节点,并且有一个 worker-only 节点。一切正常

但是请注意,worker 会失败并导致重大问题(即系统重启),然后您就会遇到问题,因为 master 也会受到影响。

编辑:问题编辑后的更多信息 :) 如果您使用的是 YARN(如建议的那样),则可以使用动态资源分配。 Here有一些关于它的幻灯片和here来自 MapR 的文章。如何为给定的情况正确配置内存是一个很长的话题,我认为这些资源会给你很多关于它的知识

顺便说一句。如果您已经安装了 Hadoop Cluster,也许可以尝试 YARN 模式;)但这不在讨论范围内

关于hadoop - 如何为大数据集群分配物理资源?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40257960/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com