- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我在 k8s 上进行了一系列部署,这些部署部署了相同的服务器二进制文件,但在内存限制等规范上有所不同。每个部署只运行 1 个 pod,并希望为这些部署安排 pod,以便每个 VM 仅安排单个 pod .
因为一些部署需要比其他部署更大的内存,我们结合 nodeAffinity 和 podAntiAffinity 来满足以下要求。
pod_group_affinity
== per_node
下面是我的配置。
spec:
affinity:
nodeAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
nodeSelectorTerms:
- matchExpressions:
- key: node.kubernetes.io/instance-type
operator: In
values:
- ${INSTANCE_TYPE}
podAntiAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
- labelSelector:
matchExpressions:
- key: pod_group_affinity
operator: In
values:
- per_node
topologyKey: "kubernetes.io/hostname"
我首先尝试将本地 minikube 作为单个 VM(提供适当的 node.kubernetes.io/instance-type 值),但所有部署的 pod 都已安排。它不应该发生,因为所有 Pod 都有 pod_group_affinity == per_node 标签。即使我删除了 nodeAffinity 部分,podAntiAffinity 似乎仍然不起作用。
我错过了什么吗?例如,podAntiAffinity 不适用于来自多个部署的 inter pod?但只要我看了文章https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/#more-practical-use-cases ,podAntiAffinity 可以从另一个部署中引用 pod 的标签。
问候,
编辑:由于@confused genius 的建议,我添加了更多信息来调查原因。
kubectl get nodes --show-labes
$ kubectl get nodes --show-labels
NAME STATUS ROLES AGE VERSION LABELS
minikube Ready control-plane,master 4d19h v1.22.2 beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=minikube,kubernetes.io/os=linux,minikube.k8s.io/commit=0a0ad764652082477c00d51d2475284b5d39ceed,minikube.k8s.io/name=minikube,minikube.k8s.io/updated_at=2022_01_19T12_04_46_0700,minikube.k8s.io/version=v1.23.2,node-role.kubernetes.io/control-plane=,node-role.kubernetes.io/master=,node.kubernetes.io/exclude-from-external-load-balancers=,node.kubernetes.io/instance-type=Standard_B2ms,topology.hostpath.csi/node=minikube
我手动设置 node.kubernetes.io/instance-type=Standard_B2ms
来模拟真实环境,每个虚拟机都有相应实例类型的标签。
spec:
replicas: 1
selector:
matchLabels:
app: ${NODE_NAME}
pod_group_affinity: per_node
template:
metadata:
labels:
app: ${NODE_NAME}
team: backend
release: stable
environment: ${ENV_LABEL}
pod_group_affinity: per_node
spec:
affinity:
nodeAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
nodeSelectorTerms:
- matchExpressions:
- key: node.kubernetes.io/instance-type
operator: In
values:
- ${INSTANCE_TYPE}
podAntiAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
- labelSelector:
matchExpressions:
- key: pod_group_affinity
operator: In
values:
- per_node
topologyKey: "kubernetes.io/hostname"
initContainers:
- name: registration
image: ${REGISTRATION_CONTAINER_IMAGE}
env:
- name: PASSWORD
value: "${PASSWORD}"
imagePullPolicy: IfNotPresent
command: ["/bin/bash", "-c", "/workdir/run.sh"]
volumeMounts:
- name: node-config
mountPath: /workdir/run.sh
subPath: run.sh
resources:
requests:
memory: "${MEMORY_REQUESTS}"
cpu: "${CPU_REQUESTS}"
limits:
memory: "${MEMORY_LIMITS}"
containers:
- name: web
image: ${WEB_CONTAINER_IMAGE}
env:
- name: USERNAME
value: "${USERNAME}"
- name: PASSWORD
value: "${PASSWORD}"
imagePullPolicy: IfNotPresent
ports:
- containerPort: 8080
name: rest
protocol: TCP
- name: cordapp
image: ${NODE_CONTAINER_IMAGE}
env:
- name: QUEUE_REGION
valueFrom:
configMapKeyRef:
name: ${NODE_NAME}-config
key: QUEUE_REGION
imagePullPolicy: IfNotPresent
command: ["/bin/bash", "-c", "/workdir/run.sh"]
lifecycle:
postStart:
exec:
command: ["/workdir/lifecycle.sh", "startup", "${GRACE_PERIOD_SECONDS}"]
preStop:
exec:
command: ["/workdir/lifecycle.sh", "shutdown", "${GRACE_PERIOD_SECONDS}"]
ports:
- containerPort: 10000
name: rpc
volumeMounts:
resources:
requests:
memory: "${MEMORY_REQUESTS}"
cpu: "${CPU_REQUESTS}"
limits:
memory: "${MEMORY_LIMITS}"
terminationGracePeriodSeconds: ${GRACE_PERIOD_SECONDS}
volumes:
- name: ${NODE_NAME}-config
configMap:
name: ${NODE_NAME}-config
最佳答案
我可以解决这个问题。
上述设置无法正常工作的原因是我将每个部署放在不同的命名空间中,如 https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/#inter-pod-affinity-and-anti-affinity 中所述
最终的 yaml 看起来像:
podAntiAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
- labelSelector:
matchExpressions:
- key: pod_group_affinity
operator: In
values:
- per_node
topologyKey: "kubernetes.io/hostname"
# this setting is important
namespaces: ["node1", "node2", "node3"]
关于kubernetes - podAntiAffinity 不适用于 nodeAffinity,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/70809469/
core@core-1-94 ~ $ kubectl exec -it busybox -- nslookup kubernetesServer: 10.100.0.10Address 1: 1
我有一个节点错误地注册在集群 B 上,而它实际上为集群 A 服务。 这里“在集群 B 上注册”意味着我可以从 kubectl get node 看到节点来自集群 B。 我想从集群 B 中取消注册这个节
据我所知,Kubernetes 是一个用于部署和管理容器的编排框架。另一方面,Kubernetes Engine 负责集群的伸缩,以及管理容器镜像。 从上面看,它们似乎是同一件事或非常相似。从上面的定
我正在学习 Kubernetes 和 Docker,以启动一个简单的 Python 网络应用程序。我对上述所有技术都不熟悉。 下面是我计划的方法: 安装 Kubernetes。 在本地启动并运行集群。
我了解如何在 kubernetes 中设置就绪探测器,但是是否有任何关于在调用就绪探测器时微服务应实际检查哪些内容的最佳实践?两个具体例子: 一个面向数据库的微服务,如果没有有效的数据库连接,几乎所有
Kubernetes 调度程序是仅根据请求的资源和节点在服务器当前快照中的可用资源将 Pod 放置在节点上,还是同时考虑节点的历史资源利用率? 最佳答案 在官方Kubernetes documenta
我们有多个环境,如 dev、qa、prepod 等。我们有基于环境的命名空间。现在我们将服务命名为 environment 作为后缀。例如。, apiVersion: apps/v1
我有一个关于命名空间的问题,并寻求您的专业知识来消除我的疑虑。 我对命名空间的理解是,它们用于在团队和项目之间引入逻辑边界。 当然,我在某处读到命名空间可用于在同一集群中引入/定义不同的环境。 例如测
我知道角色用于授予用户或服务帐户在特定命名空间中执行操作的权限。 一个典型的角色定义可能是这样的 kind: Role apiVersion: rbac.authorization.k8s.io/v1
我正在学习 Kubernetes,目前正在深入研究高可用性,虽然我知道我可以使用本地(或远程)etcd 以及一组高可用性的控制平面(API 服务器、 Controller 、调度程序)来设置minio
两者之间有什么实际区别?我什么时候应该选择一个? 例如,如果我想让我的项目中的开发人员仅查看 pod 的日志。似乎可以通过 RoleBinding 为服务帐户或上下文分配这些权限。 最佳答案 什么是服
根据基于时间的计划执行容器或 Pod 的推荐方法是什么?例如,每天凌晨 2 点运行 10 分钟的任务。 在传统的 linux 服务器上,crontab 很容易工作,而且显然在容器内部仍然是可能的。然而
有人可以帮助我了解服务网格本身是否是一种入口,或者服务网格和入口之间是否有任何区别? 最佳答案 “入口”负责将流量路由到集群中(来自 Docs:管理对集群中服务的外部访问的 API 对象,通常是 HT
我是 kubernetes 集群的新手。我有一个简单的问题。 我在多个 kubernetes 集群中。 kubernetes 中似乎有多个集群可用。所以 kubernetes 中的“多集群”意味着:
我目前正在使用Deployments管理我的K8S集群中的Pod。 我的某些部署需要2个Pod /副本,一些部署需要3个Pod /副本,而有些部署只需要1个Pod /副本。我遇到的问题是只有一个 po
我看过官方文档:https://kubernetes.io/docs/tasks/setup-konnectivity/setup-konnectivity/但我还是没明白它的意思。 我有几个问题:
这里的任何人都有在 kubernetes 上进行批处理(例如 spring 批处理)的经验?这是个好主意吗?如果我们使用 kubernetes 自动缩放功能,如何防止批处理处理相同的数据?谢谢你。 最
我有一个具有 4 个节点和一个主节点的 Kubernetes 集群。我正在尝试在所有节点中运行 5 个 nginx pod。目前,调度程序有时在一台机器上运行所有 pod,有时在不同的机器上运行。 如
我在运行 Raspbian Stretch 的 Raspberry PI 3 上使用以下命令安装最新版本的 Kubernetes。 $ curl -s https://packages.cloud.g
container port 与 Kubernetes 容器中的 targetports 有何不同? 它们是否可以互换使用,如果可以,为什么? 我遇到了下面的代码片段,其中 containerPort
我是一名优秀的程序员,十分优秀!