gpt4 book ai didi

google-cloud-platform - Cloud Run 内存限制

转载 作者:行者123 更新时间:2023-12-02 08:01:48 28 4
gpt4 key购买 nike

如何在自定义 GKE 集群上运行使用超过 2 GB 的 Cloud Run 容器?

由于 Cloud Run 使用 knative,我想知道是否可以调整具有更多分配/允许内存限制的部署描述符以在 GKE 上运行它。

apiVersion: serving.knative.dev/v1alpha1
kind: Revision
metadata:
...

最佳答案

How do I get a Cloud Run container that uses more than 2 GB run oncustom GKE cluster?

您可以为 Cloud Run Managed 中的容器分配的最大内存为 2 GB。

[更新]

对于 Cloud Run on Kubernetes,您可以请求更多内存:

gcloud beta run deploy --image gcr.io/cloudrun/hello --memory=4G --cluster ha-cluster-1

Since Cloud Run uses knative, I wonder if it is possible to tweakdeployment describtor with more allocated/allowed memory limit to runit on GKE.

Cloud Run Managed 不在 Knative 中运行,它在 gVisor 中运行。我写了一篇文章,描述了 Cloud Run 基础架构以及 Cloud Run Managed 和 Cloud Run on Kubernetes 公开的 Knative API here .但是,即使直接访问 Cloud Run Knative API,您也无法绕过强加的服务限制。

Cloud Run 的目的是通过抽象出底层基础架构的实现细节来简化部署。在某些情况下,您应该直接部署到 Kubernetes。

关于google-cloud-platform - Cloud Run 内存限制,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56351725/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com