gpt4 book ai didi

apache-spark - 在 Spark 中将多个 IP 地址绑定(bind)到 Master

转载 作者:行者123 更新时间:2023-12-01 06:04:17 27 4
gpt4 key购买 nike

我正在尝试使用以下系统设置 Apache Spark:

1个主节点(有公共(public)IP,本地IP)
从节点 3(具有公共(public) IP、本地 IP)
从节点 2(具有本地 IP)

配置是这样的,主节点和从节点 3 通过公共(public) IP 进行通信,而从节点 2 通过本地 IP 与其他两个节点通信。

我面临的问题是,由于主节点绑定(bind)到公共(public) IP,从节点 2 无法通过其本地 IP 连接到主节点,这给出了连接被拒绝错误,但是从节点 3 能够与没有任何困难的主节点。

有没有一种方法可以允许主节点和从节点-2 之间的通信,或者如何将多个地址绑定(bind)到主节点,例如在 Hadoop 中可以进行这样的配置,我们可以让名称节点绑定(bind)到多个主机。

谢谢

最佳答案

如果将 Master 绑定(bind)到 ' 0.0.0.0 ' 或所有本地地址,那么主节点应该能够通过私有(private)网络与节点 2 和公共(public)网络上的节点 3 进行通信。

关于apache-spark - 在 Spark 中将多个 IP 地址绑定(bind)到 Master,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41930330/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com