gpt4 book ai didi

apache-spark - 具有两个主节点的 Spark 集群。可能吗?

转载 作者:行者123 更新时间:2023-12-01 13:42:52 32 4
gpt4 key购买 nike

假设我们有一个包含 22 个节点的 Spark 集群。是否可以在集群中拥有 2 个主节点,例如由 Zookeeper 进行协调?

一个主节点是一个备用节点。

最佳答案

这是可能的。使用以下配置选项:

Configuration

In order to enable this recovery mode, you can set SPARK_DAEMON_JAVA_OPTS in spark-env using this configuration:

System property Meaning

spark.deploy.recoveryMode Set to ZOOKEEPER to enable standby Master recovery mode (default: NONE).

spark.deploy.zookeeper.url The ZooKeeper cluster url (e.g., 192.168.1.100:2181,192.168.1.101:2181).

spark.deploy.zookeeper.dir The directory in ZooKeeper to store recovery state (default: /spark).

Standby Masters with ZooKeeper

关于apache-spark - 具有两个主节点的 Spark 集群。可能吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38515829/

32 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com