gpt4 book ai didi

docker - 重启后如何将 IP 保留在单个节点上的 dockerized Consul 集群中

转载 作者:行者123 更新时间:2023-12-04 19:59:31 26 4
gpt4 key购买 nike

我对 Docker 和 Consul 很陌生,现在正在尝试建立一个由 3 个 dockerized 节点组成的本地 Consul 集群。我正在使用 progrium/consul Docker 镜像并完成了整个教程和示例描述。
集群工作正常,直到重新启动/重新启动。

这是我的 docker-compose.yml :
---
node1:
command: "-server -bootstrap-expect 3 -ui-dir /ui -advertise 10.67.203.217"
image: progrium/consul
ports:
- "10.67.203.217:8300:8300"
- "10.67.203.217:8400:8400"
- "10.67.203.217:8500:8500"
- "10.67.203.217:8301:8301"
- "10.67.203.217:8302:8302"
- "10.67.203.217:8301:8301/udp"
- "10.67.203.217:8302:8302/udp"
- "172.17.42.1:53:53/udp"
restart: always
node2:
command: "-server -join 10.67.203.217"
image: progrium/consul
restart: always
node3:
command: "-server -join 10.67.203.217"
image: progrium/consul
restart: always
registrator:
command: "consul://10.67.203.217:8500"
image: "progrium/registrator:latest"
restart: always

我收到如下消息:
[ERR] raft: Failed to make RequestVote RPC to 172.17.0.103:8300: dial tcp 172.17.0.103:8300: no route to host
这显然是因为我的节点 2 和 3 在重启后获得了新 IP。那么有没有可能阻止这种情况呢?阅读有关链接和环境变量的信息,但似乎这些变量在重新启动后也不会更新。

最佳答案

我遇到了同样的问题,直到我读到当您重新启动容器化 consul 节点时存在 ARP 表缓存问题。

据我所知,有两种解决方法:

  • 使用 --net=host
  • 运行您的容器
  • 在重新启动容器之前清除 ARP 表: docker run --net=host --privileged --rm cap10morgan/conntrack -F

  • 所有者(Jeff Lindsay)告诉我,他们正在使用内置的修复程序重新设计整个容器,不幸的是没有时间表。

    来源: https://github.com/progrium/docker-consul/issues/26

    关于docker - 重启后如何将 IP 保留在单个节点上的 dockerized Consul 集群中,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30101699/

    26 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com