- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我无法理解,我的 ceph 原始空间在哪里不见了。
cluster 90dc9682-8f2c-4c8e-a589-13898965b974
health HEALTH_WARN 72 pgs backfill; 26 pgs backfill_toofull; 51 pgs backfilling; 141 pgs stuck unclean; 5 requests are blocked > 32 sec; recovery 450170/8427917 objects degraded (5.341%); 5 near full osd(s)
monmap e17: 3 mons at {enc18=192.168.100.40:6789/0,enc24=192.168.100.43:6789/0,enc26=192.168.100.44:6789/0}, election epoch 734, quorum 0,1,2 enc18,enc24,enc26
osdmap e3326: 14 osds: 14 up, 14 in
pgmap v5461448: 1152 pgs, 3 pools, 15252 GB data, 3831 kobjects
31109 GB used, 7974 GB / 39084 GB avail
450170/8427917 objects degraded (5.341%)
18 active+remapped+backfill_toofull
1011 active+clean
64 active+remapped+wait_backfill
8 active+remapped+wait_backfill+backfill_toofull
51 active+remapped+backfilling
recovery io 58806 kB/s, 14 objects/s
OSD树(每个主机有2个OSD):
# id weight type name up/down reweight
-1 36.45 root default
-2 5.44 host enc26
0 2.72 osd.0 up 1
1 2.72 osd.1 up 0.8227
-3 3.71 host enc24
2 0.99 osd.2 up 1
3 2.72 osd.3 up 1
-4 5.46 host enc22
4 2.73 osd.4 up 0.8
5 2.73 osd.5 up 1
-5 5.46 host enc18
6 2.73 osd.6 up 1
7 2.73 osd.7 up 1
-6 5.46 host enc20
9 2.73 osd.9 up 0.8
8 2.73 osd.8 up 1
-7 0 host enc28
-8 5.46 host archives
12 2.73 osd.12 up 1
13 2.73 osd.13 up 1
-9 5.46 host enc27
10 2.73 osd.10 up 1
11 2.73 osd.11 up 1
实际用法:
/dev/rbd0 14T 7.9T 5.5T 59% /mnt/ceph
池大小:
osd pool default size = 2
池:ceph osd lspools
0 data,1 metadata,2 rbd,
雷达
pool name category KB objects clones degraded unfound rd rd KB wr wr KB
data - 0 0 0 0 0 0 0 0 0
metadata - 0 0 0 0 0 0 0 0 0
rbd - 15993591918 3923880 0 444545 0 82936 1373339 2711424 849398218
total used 32631712348 3923880
total avail 8351008324
total space 40982720672
原始使用量是实际使用量的 4 倍。据我了解,它必须是 2x?
最佳答案
是的,它必须是 2x。我不太确定,真正的原始使用量是 7.9T。为什么要检查映射磁盘上的这个值?
这是我的游泳池:
pool name KB objects clones degraded unfound rd rd KB wr wr KB
admin-pack 7689982 1955 0 0 0 693841 3231750 40068930 353462603
public-cloud 105432663 26561 0 0 0 13001298 638035025 222540884 3740413431
rbdkvm_sata 32624026697 7968550 31783 0 0 4950258575 232374308589 12772302818 278106113879
total used 98289353680 7997066
total avail 34474223648
total space 132763577328
您可以看到,已用空间总量是池 rbdkvm_sata 中已用空间的 3 倍 (+-)。
ceph -s
也显示相同的结果:
pgmap v11303091: 5376 pgs, 3 pools, 31220 GB data, 7809 kobjects
93736 GB used, 32876 GB / 123 TB avail
关于Ceph 裸空间使用情况,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28659032/
大家好,我刚开始接触 ceph 对象存储,即 radosgateway,为此目的,已经推出了一个非常基本的单节点 ceph/daemon docker 容器,它对 s3cmd 和 java s3 AP
我正在使用 kubernetes v1.16.10 与 Ceph 13.2.2 模仿版 通过 进行动态卷配置的集群ceph-csi . 但后来我找到了 ceph-rbd Ceph RBD (kuber
我读过 this article调整 Ceph 的 block 大小可以提高其性能。那是怎么设置的? This document解释了如何设置 strip 大小。这就是第一篇文章中“ block 大小
我们使用 CEPH 集群来存储我们的虚拟机的图像。该集群包含 3 个监视器、4 个存储节点和 1 个管理员。 CEPH OSD 树 ID WEIGHT TYPE NAME UP/DOW
我正在尝试使用此处的快速入门指南设置 Ceph 存储集群:http://docs.ceph.com/docs/master/start/quick-ceph-deploy/ 当我尝试使用此命令部署管理
不久前,我们从 Ceph 集群中删除了两个损坏的 OSD,osd.0 和 osd.8。它们现在从大多数 Ceph 命令中消失了,但仍然以奇怪的设备名称出现在 CRUSH 映射中: # devices
我正在尝试使用rook在kubernetes集群上配置ceph,我已经运行了以下命令: kubectl apply -f common.yaml kubectl apply -f operator.y
我无法理解,我的 ceph 原始空间在哪里不见了。 cluster 90dc9682-8f2c-4c8e-a589-13898965b974 health HEALTH_WARN 72 pg
在 Internet 上运行 CEPH 集群时是否有任何安全问题? 我无法直接找到使其无法用于此用例的东西。我不需要低 I/O 响应时间,我很好。 谢谢你们。 最佳答案 虽然集群守护进程的身份验证由
我是 Ceph 的新用户。 我的 Ceph 服务器运行的是 12.2.5 版。它有 3 个节点,每个节点有 1 个 OSD 和 4TB HDD。 ceph.conf osd pool default
可以帮我解决以下问题。 我如何计算总可用的 ceph 存储空间。 假设我有 3 个节点,每个节点有 6 个 1TB 磁盘的 OSD。那是总共 18TB 存储(3* 6TB)。所有这些 18TB 空间都
因此Ceph在librbd中有一个用户空间页面缓存实现。它是否允许用户提及要分配给每个Pod的页面缓存量?如果是,我们可以动态更改分配吗? 最佳答案 根据项目github中的文档和问题,没有引用POD
在学习 Ceph 时,我不小心删除了 client.admin,使用 ceph auth del client.admin 现在我明白了 client.admin authentication err
我正在尝试在 Ceph Nautilus 14.2.19 上的 Centos 7 上手动创建 ceph-mds。 首先我在 /var/lib/ceph/mds 中创建了一个文件夹格式为 -mds.然后
我有一个带有 data_pool 的 66 个 OSD 的 Ceph 集群和一个 metadata_pool . 我想放置metadata_pool在 3 个具有 SSD 的特定 OSD 上,因为所有
我用 cephadm 配置了一个简单的 Ceph 集群,如下所示: cephadm bootstrap --mon-ip 192.168.0.4 ssh-copy-id -f -i /etc/ceph
我正在尝试使用 storageClass 设置我的 Kubernetescluster 和 Ceph 集群,这样每个 PVC 都会在 ceph 集群内自动创建一个新 PV。 但它不起作用。我已经尝试了
有人成功地使用 kubernetes 创建了一个在 docker 容器中安装 ceph rbd 的 pod 吗? 来自 kubernetes 的以下示例使用安装了 ceph 二进制文件的 Fedora
嘿,我正在尝试使用 Ceph 来存储一些数据,但有一个问题,我写入 Ceph 的内容和通过 librados++ 从 Ceph 读取的内容是不一样的。 所以我有这个简单的例子: #include #
在我的本地集群(4 个 Raspberry PI)中,我尝试配置 rgw 网关。不幸的是,该服务在 2 分钟后自动消失。 [ceph_deploy.rgw][INFO ] The Ceph Obje
我是一名优秀的程序员,十分优秀!