gpt4 book ai didi

Kubernetes 作业清理

转载 作者:行者123 更新时间:2023-12-02 11:27:23 25 4
gpt4 key购买 nike

据我了解, Job 对象应该在一定时间后收获 pod 。
但在我的 GKE 集群(Kubernetes 1.1.8)上,“kubectl get pods -a”似乎可以列出几天前的 pod。

所有这些都是使用 Jobs API 创建的。

我确实注意到在删除工作后
kubectl 删除作业
pod 也被删除了。

我在这里主要关心的是我要在集群上以批处理作业的方式运行成千上万个 Pod,并且不希望内部积压系统重载。

最佳答案

看起来从 Kubernetes 1.6(和 v2alpha1 api 版本)开始,如果您使用 cronjobs 创建作业(反过来,创建您的 pod),您将能够 limit保留了多少旧工作。只需将以下内容添加到您的工作规范中:

successfulJobsHistoryLimit: X
failedJobsHistoryLimit: Y

其中 X 和 Y 是系统应该保留多少先前运行的作业的限制(默认情况下它无限期地保留作业[至少在版本 1.5 上。])

编辑 2018-09-29 :

对于较新的 K8S 版本,此处包含相关文档的更新链接:
  • CronJob - Job History Limits
  • CronJob API Spec
  • 关于Kubernetes 作业清理,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36384873/

    25 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com