gpt4 book ai didi

storage - Ceph 原始存储使用与池存储使用

转载 作者:行者123 更新时间:2023-12-05 07:32:47 26 4
gpt4 key购买 nike

我是 Ceph 的新用户。

我的 Ceph 服务器运行的是 12.2.5 版。它有 3 个节点,每个节点有 1 个 OSD 和 4TB HDD。

ceph.conf

osd pool default size     = 3
osd pool default min size = 2

我已经上传了 252GB 的数据到 Ceph。

据我了解,由于设置了 osd pool default size = 3,原始存储使用量应该是 3 倍左右。

但现在我的全局原始存储使用量几乎是我数据的 6 倍 (1605GB/252GB = 6.3)

GLOBAL:
SIZE AVAIL RAW USED %RAW USED
11165G 9560G 1605G 14.38
POOLS:
NAME ID USED %USED MAX AVAIL OBJECTS
.rgw.root 8 1113 0 3000G 4
default.rgw.control 9 0 0 3000G 8
default.rgw.meta 10 21502 0 3000G 72
default.rgw.log 11 0 0 3000G 269
default.rgw.buckets.index 15 0 0 3000G 427
default.rgw.buckets.data 16 256G 7.88 3000G 6522963

有人在 Ceph 上有同样的问题吗?

更新

我想我找到了原因。我的大部分文件都是小文件,但在 Ceph 12.2.5 (bluestore) 版本中,bluestore 有最小分配大小 bluestore_min_alloc_size_hdd = 65536,因此如果文件小于 64k,它仍然使用 64k 来存储起来。

我测试了上传 2000 个文件(每个 64k)和 3200 个文件(每个 40k),总共约 128M

64k 文件的原始使用量为 410M,接近 384M (2000 * 64k * 3)

40k 文件的原始使用量为 602M,接近 614M (3200 * 64k * 3)

最佳答案

我遇到了同样的问题。我在创建池后才意识到这一点。您可以将 min_alloc 更改为 4096,但我不知道这对您有何影响。不过,我建议将 32k 或 16k 减到一半,但不要更低。

关于storage - Ceph 原始存储使用与池存储使用,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51022467/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com