gpt4 book ai didi

kubernetes - 不同节点上的Pod无法互相ping通

转载 作者:行者123 更新时间:2023-12-02 11:35:44 27 4
gpt4 key购买 nike

我根据文档设置了1个主节点2个节点k8s集群。某个Pod可以ping同一个节点上的另一个Pod,但是不能ping同一个节点上的Pod。

为了演示该问题,我将其部署在具有3个副本的部署下面。当其中两个位于同一节点上时,另一个 pods 位于另一个节点上。

$ cat nginx.yaml
apiVersion:apps / v1
种类:部署
元数据:
名称:nginx-deployment
标签:
应用程式:nginx
规格:
复制品:2
选择器:
matchLabels:
应用:nginx
模板:
元数据:
标签:
应用:nginx
规格:
容器:
-名称:nginx
图片:nginx
端口:
-containerPort:80
---
种类:服务
apiVersion:v1
元数据:
名称:nginx-svc
规格:
选择器:
应用:nginx
端口:
-协议(protocol):TCP
端口:80

$ kubectl获取节点
名称状态角色年龄版本
ip-172-31-21-115.us-west-2.compute.internal Ready master 20m v1.11.2
ip-172-31-26-62.us-west-2.compute.internal Ready 19m v1.11.2
ip-172-31-29-204.us-west-2.compute.internal Ready 14m v1.11.2

$ kubectl获取 pod -o宽
名称就绪状态重新开始年龄IP节点命名节点
nginx-deployment-966857787-22qq7 1/1运行中0 11m 10.244.2.3 ip-172-31-29-204.us-west-2.compute.internal
nginx-deployment-966857787-lv7dd 1/1运行0 11m 10.244.1.2 ip-172-31-26-62.us-west-2.compute.internal
nginx-deployment-966857787-zkzg6 1/1运行0 11m 10.244.2.2 ip-172-31-29-204.us-west-2.compute.internal

$ kubectl获取svc
名称类型集群IP外部IP端口的年龄
kubernetes ClusterIP 10.96.0.1 443 / TCP 21m
nginx-svc群集IP 10.105.205.10 80 / TCP 11m

一切看起来都很好。

让我给你看一下容器。

#docker exec -it 489b180f512b / bin / bash
root @ nginx-deployment-966857787-zkzg6:/#ifconfig
eth0:标志= 4163 mtu 8951
inet 10.244.2.2网络掩码255.255.255.0广播0.0.0.0
inet6 fe80::cc4d:61ff:fe8a:5aeb prefixlen 64 scopeid 0x20

root @ nginx-deployment-966857787-zkzg6:/#ping 10.244.2.3
PING 10.244.2.3(10.244.2.3)56(84)个字节的数据。
来自10.244.2.3的64个字节:icmp_seq = 1 ttl = 64时间= 0.066 ms
来自10.244.2.3的64个字节:icmp_seq = 2 ttl = 64时间= 0.055 ms
^ C

因此,它会在同一节点上ping它的邻居pod。

root @ nginx-deployment-966857787-zkzg6:/#ping 10.244.1.2
PING 10.244.1.2(10.244.1.2)56(84)个字节的数据。
^ C
--- 10.244.1.2 ping统计信息---
传输2个数据包,接收0个数据包,100%数据包丢失,时间1059ms

并且无法在其他节点上对其副本执行ping操作。

这是主机接口(interface):

#ifconfig
cni0:标志= 4163 mtu 8951
inet 10.244.2.1网络掩码255.255.255.0广播0.0.0.0

docker0:标志= 4099 mtu 1500
inet 172.17.0.1网络掩码255.255.0.0广播172.17.255.255

eth0:标志= 4163 mtu 9001
inet 172.31.29.204网络掩码255.255.240.0广播172.31.31.255

法兰绒1:标志= 4163 mtu 8951
inet 10.244.2.0网络掩码255.255.255.255广播0.0.0.0

lo:标志= 73 mtu 65536
inet 127.0.0.1网络掩码255.0.0.0

veth09fb984a:标志= 4163 mtu 8951
inet6 fe80::d819:14ff:fe06:174c prefixlen 64 scopeid 0x20

veth87b3563e:标志= 4163 mtu 8951
inet6 fe80::d09c:d2ff:fe7b:7dd7 prefixlen 64 scopeid 0x20

#ifconfig
cni0:标志= 4163 mtu 8951
inet 10.244.1.1网络掩码255.255.255.0广播0.0.0.0

docker0:标志= 4099 mtu 1500
inet 172.17.0.1网络掩码255.255.0.0广播172.17.255.255

eth0:标志= 4163 mtu 9001
inet 172.31.26.62网络掩码255.255.240.0广播172.31.31.255

法兰绒1:标志= 4163 mtu 8951
inet 10.244.1.0网络掩码255.255.255.255广播0.0.0.0

lo:标志= 73 mtu 65536
inet 127.0.0.1网络掩码255.0.0.0

veth9733e2e6:标志= 4163 mtu 8951
inet6 fe80::8003:46ff:fee2:abc2 prefixlen 64 scopeid 0x20

节点上的进程:

#ps auxww | grep kube
根4059 0.1 2.8 43568 28316 Ssl 00:31 0:01 / usr / local / bin / kube-proxy --config = / var / lib / kube-proxy / config.conf
根4260 0.0 3.4 358984 34288 Ssl 00:31 0:00 / opt / bin / flanneld --ip-masq --kube-subnet-mgr
根4455 1.1 9.6 760868 97260 Ssl 00:31 0:14 / usr / bin / kubelet --bootstrap-kubeconfig = / etc / kubernetes / bootstrap-kubelet.conf --kubeconfig = / etc / kubernetes / kubelet.conf --config = / var / lib / kubelet / config.yaml --cgroup-driver = systemd --cni-bin-dir = / opt / cni / bin --cni-conf-dir = / etc / cni / net.d --network-plugin = cni

由于此网络问题,clusterIP也无法访问:

$ curl 10.105.205.10:80

有什么建议吗?

谢谢。

最佳答案

我发现了问题。

Flannel使用被AWS安全组阻止的UDP端口8285和8472。我只打开了TCP端口。

我启用UDP端口8285和UDP端口8472以及TCP 6443、10250、10256。

关于kubernetes - 不同节点上的Pod无法互相ping通,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51795575/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com