gpt4 book ai didi

kubernetes - AutoScaling工作负载不会耗尽内存

转载 作者:行者123 更新时间:2023-12-02 11:42:24 26 4
gpt4 key购买 nike

我有许多 pods 正在运行,并为它们指定了水平 pods 自动缩放器,我正在使用的集群也可以根据当前负载自动添加节点和删除节点。
但是,我们最近使该群集因OOM错误而脱机,这导致服务中断。
有没有一种方法可以监视每个节点上的负载,并且如果使用率达到某个节点的80%的内存,则Kubernetes不应在该节点上调度更多的Pod,而应等待另一个节点上线。

最佳答案

待处理的Pod是应监视并定义的的资源。的资源请求会影响调度。
调度程序在调度pod时使用资源请求信息
到一个节点。每个节点都有一定数量的CPU和内存可以分配给它
pod 。调度Pod时,调度程序将仅考虑具有足够数量的节点
未分配的资源以满足Pod的资源需求。如果量
未分配的CPU或内存小于Pod请求的数量,Kubernetes不会
将广告连播安排到该节点,因为该节点无法提供最小数量
pods 所需。新的Pod将保持待处理状态,直到新节点进入群集。
例:

apiVersion: v1
kind: Pod
metadata:
name: requests-pod
spec:
containers:
- image: busybox
command: ["dd", "if=/dev/zero", "of=/dev/null"]
name: main
resources:
requests:
cpu: 200m
memory: 10Mi
当您不指定CPU请求时,就是说您不在乎多少
分配在容器中运行的进程的CPU时间。最坏的情况下
根本没有获得任何CPU时间(这种情况发生在其他进程的需求很高时
在CPU上)。尽管这对于低优先级批处理作业可能是好的,但并非如此
时间紧迫,显然不适用于处理用户请求的容器。

关于kubernetes - AutoScaling工作负载不会耗尽内存,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62667295/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com