gpt4 book ai didi

azure - 连接到 AKS 节点的磁盘过多

转载 作者:行者123 更新时间:2023-12-03 02:41:07 26 4
gpt4 key购买 nike

我读到可以绑定(bind)到集群中节点的数据磁盘数量有限制。现在我使用一个小节点,最多只能容纳 4 个数据磁盘。如果超过此数量,我将收到此错误:0/1 个节点可用:1 个节点超出最大卷数。

我主要的问题是如何处理这个问题。我有一些应用程序只需要集群中的少量持久存储,但我只能附加几个数据磁盘。如果我绑定(bind)4个100M的数据盘就已经达到最大限制了。

有人可以建议我如何处理这些情况吗?我可以轻松地扩展机器,并且我的机器将拥有更多的功率和更多的磁盘,但是此时磁盘与服务器功率的比率完全抵消了。

最佳皮姆

最佳答案

您应该考虑使用 Azure 文件而不是 Azure 磁盘。使用 Azure File,您可以执行 ReadWriteMany,因此在 VM(节点)上进行一次挂载,以允许多个 POD 访问已挂载的卷。

https://github.com/kubernetes/examples/blob/master/staging/volumes/azure_file/README.md

https://kubernetes.io/docs/concepts/storage/storage-classes/#azure-file

https://learn.microsoft.com/en-us/azure/aks/azure-files-dynamic-pv

关于azure - 连接到 AKS 节点的磁盘过多,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/61271411/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com