gpt4 book ai didi

kubernetes - Argo 和 Kubernetes "Request entity to large: limit is 3145728"

转载 作者:行者123 更新时间:2023-12-05 05:35:13 26 4
gpt4 key购买 nike

我一直在尝试使用 Kubernetes 在 Argo 中部署工作流,但出现此错误

![Kubernetes Argo Error

有人可以帮助我了解问题的根源吗?

我试过很多东西,但都没有成功。

最佳答案

Argo 解决这个问题的方法是对存储的实体进行压缩,但真正的问题是你是否必须一次拥有所有 3MB 的数据,或者它是否对你来说更方便,他们可以分解成相互之间有关系的独立对象。 kubernetes API 不是 blob 存储,不应将其视为一个。

  • “错误”:“请求实体太大:限制为 3145728”可能是kubernetes 处理程序对大于的对象的默认响应3MB,如您所见here at L305源代码:

expectedMsgFor1MB := etcdserver: 请求太大expectedMsgFor2MB := rpc error: code = ResourceExhausted desc = 尝试发送大于最大值的消息expectedMsgFor3MB := 请求实体太大:限制为 3145728expectedMsgForLargeAnnotation := metadata.annotations: 太长:最多必须有 262144 字节

  • ETCD处理文件确实有 1.5MB 的限制,你会在 ETCD 文档中找到尝试使用 --max-request-bytes 的建议标志,但它不会对 GKE 集群产生影响,因为您不这样做在主节点上有这样的权限。

但即使你这样做了,也不是理想的,因为通常这个错误意味着你是 consuming the objects而不是引用它们会降低您的性能。

我强烈建议您考虑以下选项:

- 确定您的对象是否包含未使用的引用

- 分解您的资源

- 考虑使用卷挂载

有一个关于 a new API Resource 的请求:可能适用于您的案例的文件(或二进制数据)。很新鲜,不过留个心眼也不错。

此答案的部分来源:https://stackoverflow.com/a/60492986/12153576

关于kubernetes - Argo 和 Kubernetes "Request entity to large: limit is 3145728",我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/73549236/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com