gpt4 book ai didi

kubernetes - 在配置私有(private) GKE 集群时了解 --master-ipv4-cidr

转载 作者:行者123 更新时间:2023-12-03 23:46:40 27 4
gpt4 key购买 nike

我试图进一步了解在 Google 的 Kubernetes Engine 中配置私有(private)集群时到底发生了什么。
Google 在此处提供了一个配置私有(private)集群的示例,其中控制平面服务(例如 Kubernetes API)位于 172.16.0.16/28 上。子网。
https://cloud.google.com/kubernetes-engine/docs/how-to/private-clusters

gcloud beta container clusters create pr-clust-1 \
--private-cluster \
--master-ipv4-cidr 172.16.0.16/28 \
--enable-ip-alias \
--create-subnetwork ""
当我运行这个命令时,我看到:
  • 现在我的 VPC 中有一些 gke 子网属于节点和服务的集群子网。这些在 10.x.x.x/8范围。
  • 我在 172.16/16 中没有任何子网地址空间。
  • 我确实有一些似乎相关的新配对规则和路线。例如,有一条新路线 peering-route-a08d11779e9a3276目标地址范围为 172.16.0.16/28和下一跳gke-62d565a060f347e0fba7-3094-3230-peer .然后,此对等角色指向 gke-62d565a060f347e0fba7-3094-bb01-net
  • gcloud compute networks subnets list | grep us-west1

    #=>

    default us-west1 default 10.138.0.0/20
    gke-insti3-subnet-62d565a0 us-west1 default 10.2.56.0/22
    gcloud compute networks peerings list

    #=>

    NAME NETWORK PEER_PROJECT PEER_NETWORK AUTO_CREATE_ROUTES STATE STATE_DETAILS
    gke-62d565a060f347e0fba7-3094-3230-peer default gke-prod-us-west1-a-4180 gke-62d565a060f347e0fba7-3094-bb01-net True ACTIVE [2018-08-23T16:42:31.351-07:00]: Connected.
    gke-62d565a060f347e0fba7-3094-bb01-net Google 为 GKE 服务管理的 Kubernetes 管理端点所在的对等 VPC( 172.16/16 范围内的控制平面内容)?
    进一步——我的请求是如何发送到 Kubernetes API 服务器的?

    最佳答案

    Private Cluster GKE 的功能取决于 Alias IP Ranges VPC 网络的特性,因此在创建私有(private)集群时会发生多种情况:

  • --enable-ip-alias标志告诉 GKE 使用具有两个辅助 IP 范围的子网:一个用于 Pod,一个用于服务。这允许 VPC 网络了解集群中的所有 IP 地址并适本地路由流量。
  • --create-subnetwork标志告诉 GKE 创建一个新的子网(在您的情况下为 gke-insti3-subnet-62d565a0)并自动选择其主要和次要范围。请注意,您可以使用 --cluster-ipv4-cidr 自己选择次要范围。和 --services-ipv4-cidr .或者,您甚至可以自己创建子网并告诉 GKE 使用标志 --subnetwork , --cluster-secondary-range-name , 和 --services-secondary-range-name .
  • --private-cluster标志告诉 GKE 在 Google 拥有的项目中创建一个新的 VPC 网络(在您的情况下为 gke-62d565a060f347e0fba7-3094-bb01-net),并使用 VPC Network Peering 将其连接到您的 VPC 网络. Kubernetes 管理端点位于您使用 --master-ipv4-cidr 指定的范围内。 (在您的情况下为 172.16.0.16/28)。一个 Internal Load Balancer也是在 Google 拥有的项目中创建的,这是您的工作节点与之通信的内容。在 Regional Cluster 的情况下,此 ILB 允许跨多个 VM 对流量进行负载平衡。 .您可以找到此内部 IP 地址为 privateEndpoint gcloud beta container clusters describe 的输出中的字段.需要理解的重要一点是,由于两个网络之间的 VPC 对等互连,主 VM 和工作节点 VM 之间的所有通信都通过内部 IP 地址进行。
  • 您的私有(private)集群 还有有一个外部 IP 地址,您可以找到 endpoint gcloud beta container clusters describe 的输出中的字段.工作节点不使用它,但客户通常使用它来远程管理他们的集群,例如,使用 kubectl .
  • 您可以使用 Master Authorized Networks限制哪些 IP 范围(内部和外部)可以访问管理端点的功能。强烈建议私有(private)集群使用此功能,并在您使用 gcloud 创建集群时默认启用。命令行界面。

  • 希望这可以帮助!

    关于kubernetes - 在配置私有(private) GKE 集群时了解 --master-ipv4-cidr,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51995973/

    27 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com