gpt4 book ai didi

kubernetes - Rook ceph 在 kubernetes 上坏了?

转载 作者:行者123 更新时间:2023-12-02 11:30:51 36 4
gpt4 key购买 nike

在本地 k8s 1.16 上使用 Ceph v1.14.10、Rook v1.3.8。 10 天没有任何问题后,我们决定排空一些节点,然后,所有移动的 pod 都不能再附加到它们的 PV 上,看起来 Ceph 集群坏了:
我的配置映射 rook-ceph-mon-endpoints正在引用 2 个缺少的 mon pod IP:

csi-cluster-config-json: '[{"clusterID":"rook-ceph","monitors":["10.115.0.129:6789","10.115.0.4:6789","10.115.0.132:6789"]}]
kubectl -n rook-ceph get pod -l app=rook-ceph-mon -o wide

NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
rook-ceph-mon-e-56b849775-4g5wg 1/1 Running 0 6h42m 10.115.0.2 XXXX <none> <none>
rook-ceph-mon-h-fc486fb5c-8mvng 1/1 Running 0 6h42m 10.115.0.134 XXXX <none> <none>
rook-ceph-mon-i-65666fcff4-4ft49 1/1 Running 0 30h 10.115.0.132 XXXX <none> <none>
这是正常的还是我必须运行一种“协调”任务才能用新的 mon pod IP 更新 CM?
(可能与 https://github.com/rook/rook/issues/2262 相关)

我不得不手动更新:
  • secret 车头配置
  • cm rook-ceph-mon-端点
  • cm rook-ceph-csi-config
  • 最佳答案

    正如@travisn 所说:

    The operator owns updating that configmap and secret. It's not expected to update them manually unless there is some disaster recovery situation as described at https://rook.github.io/docs/rook/v1.4/ceph-disaster-recovery.html.

    关于kubernetes - Rook ceph 在 kubernetes 上坏了?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63783109/

    36 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com