- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一个带有 data_pool
的 66 个 OSD 的 Ceph 集群和一个 metadata_pool
.
我想放置metadata_pool
在 3 个具有 SSD 的特定 OSD 上,因为所有其他 63 个 OSD 都有较旧的磁盘。
如何强制 Ceph 放置 metadata_pool
在特定的 OSD 上?
提前致谢。
最佳答案
您需要为您的池制定一个特殊的粉碎规则,该规则将定义要使用的存储类型。有一个nice answer in the proxmox forum .
归结为:
Ceph 知道哪个驱动器是 HDD 或 SDD。此信息反过来可用于创建粉碎规则,该规则将仅将 PG 放置在该类型的设备上。
ceph 的默认规则是replicated_rule:
# rules
rule replicated_rule {
id 0
type replicated
min_size 1
max_size 10
step take default
step chooseleaf firstn 0 type host
step emit
}
$ ceph osd crush rule create-replicated replicated_hdd default host hdd
$ ceph osd crush rule create-replicated replicated_ssd default host ssd
rule replicated_hdd {
id 1
type replicated
min_size 1
max_size 10
step take default class hdd
step chooseleaf firstn 0 type host
step emit
}
$ ceph osd pool set YOUR_POOL crush_rule replicated_ssd
关于Ceph:如何在特定的 OSD 上放置池?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58060333/
大家好,我刚开始接触 ceph 对象存储,即 radosgateway,为此目的,已经推出了一个非常基本的单节点 ceph/daemon docker 容器,它对 s3cmd 和 java s3 AP
我正在使用 kubernetes v1.16.10 与 Ceph 13.2.2 模仿版 通过 进行动态卷配置的集群ceph-csi . 但后来我找到了 ceph-rbd Ceph RBD (kuber
我读过 this article调整 Ceph 的 block 大小可以提高其性能。那是怎么设置的? This document解释了如何设置 strip 大小。这就是第一篇文章中“ block 大小
我们使用 CEPH 集群来存储我们的虚拟机的图像。该集群包含 3 个监视器、4 个存储节点和 1 个管理员。 CEPH OSD 树 ID WEIGHT TYPE NAME UP/DOW
我正在尝试使用此处的快速入门指南设置 Ceph 存储集群:http://docs.ceph.com/docs/master/start/quick-ceph-deploy/ 当我尝试使用此命令部署管理
不久前,我们从 Ceph 集群中删除了两个损坏的 OSD,osd.0 和 osd.8。它们现在从大多数 Ceph 命令中消失了,但仍然以奇怪的设备名称出现在 CRUSH 映射中: # devices
我正在尝试使用rook在kubernetes集群上配置ceph,我已经运行了以下命令: kubectl apply -f common.yaml kubectl apply -f operator.y
我无法理解,我的 ceph 原始空间在哪里不见了。 cluster 90dc9682-8f2c-4c8e-a589-13898965b974 health HEALTH_WARN 72 pg
在 Internet 上运行 CEPH 集群时是否有任何安全问题? 我无法直接找到使其无法用于此用例的东西。我不需要低 I/O 响应时间,我很好。 谢谢你们。 最佳答案 虽然集群守护进程的身份验证由
我是 Ceph 的新用户。 我的 Ceph 服务器运行的是 12.2.5 版。它有 3 个节点,每个节点有 1 个 OSD 和 4TB HDD。 ceph.conf osd pool default
可以帮我解决以下问题。 我如何计算总可用的 ceph 存储空间。 假设我有 3 个节点,每个节点有 6 个 1TB 磁盘的 OSD。那是总共 18TB 存储(3* 6TB)。所有这些 18TB 空间都
因此Ceph在librbd中有一个用户空间页面缓存实现。它是否允许用户提及要分配给每个Pod的页面缓存量?如果是,我们可以动态更改分配吗? 最佳答案 根据项目github中的文档和问题,没有引用POD
在学习 Ceph 时,我不小心删除了 client.admin,使用 ceph auth del client.admin 现在我明白了 client.admin authentication err
我正在尝试在 Ceph Nautilus 14.2.19 上的 Centos 7 上手动创建 ceph-mds。 首先我在 /var/lib/ceph/mds 中创建了一个文件夹格式为 -mds.然后
我有一个带有 data_pool 的 66 个 OSD 的 Ceph 集群和一个 metadata_pool . 我想放置metadata_pool在 3 个具有 SSD 的特定 OSD 上,因为所有
我用 cephadm 配置了一个简单的 Ceph 集群,如下所示: cephadm bootstrap --mon-ip 192.168.0.4 ssh-copy-id -f -i /etc/ceph
我正在尝试使用 storageClass 设置我的 Kubernetescluster 和 Ceph 集群,这样每个 PVC 都会在 ceph 集群内自动创建一个新 PV。 但它不起作用。我已经尝试了
有人成功地使用 kubernetes 创建了一个在 docker 容器中安装 ceph rbd 的 pod 吗? 来自 kubernetes 的以下示例使用安装了 ceph 二进制文件的 Fedora
嘿,我正在尝试使用 Ceph 来存储一些数据,但有一个问题,我写入 Ceph 的内容和通过 librados++ 从 Ceph 读取的内容是不一样的。 所以我有这个简单的例子: #include #
在我的本地集群(4 个 Raspberry PI)中,我尝试配置 rgw 网关。不幸的是,该服务在 2 分钟后自动消失。 [ceph_deploy.rgw][INFO ] The Ceph Obje
我是一名优秀的程序员,十分优秀!