gpt4 book ai didi

kubernetes - Ceph libRBD缓存控制

转载 作者:行者123 更新时间:2023-12-02 12:13:41 24 4
gpt4 key购买 nike

因此Ceph在librbd中有一个用户空间页面缓存实现。它是否允许用户提及要分配给每个Pod的页面缓存量?如果是,我们可以动态更改分配吗?

最佳答案

根据项目github中的文档和问题,没有引用POD级别的页面缓存分配。

Ceph supports write-back caching for RBD. To enable it, add rbd cache = true to the [client] section of your ceph.conf file. By default librbd does not perform any caching. Writes and reads go directly to the storage cluster, and writes return only when the data is on disk on all replicas. With caching enabled, writes return immediately, unless there are more than rbd cache max dirty unflushed bytes. In this case, the write triggers writeback and blocks until enough bytes are flushed.



这是当前支持的RDB Cache参数,必须将它们插入 ceph.conf文件的client部分中:

rbd cache = RBD缓存大小(以字节为单位)。 |类型: bool(boolean) 值,必填:否,默认值:false

rbd cache size =为RADOS块设备(RBD)启用缓存。 |类型:64位整数,必填:否,默认值:32 MiB

rbd cache max dirty =缓存触发写回的 dirty限制(以字节为单位)。 |如果是 0,则使用直写式缓存。
类型:64位整数,必需:否,约束:必须小于 rbd cache size,默认值:24 MiB

rbd cache target dirty =缓存开始将数据写入数据存储之前的 dirty target。不阻止写入缓存。 |类型:64位整数,必需:否,约束:必须小于 rbd cache max dirty,默认值:16 MiB

rbd cache max dirty age =开始写回之前,脏数据在高速缓存中的秒数。 |类型:Float,必填:否,默认值:1.0
rbd缓存的最大脏年龄

rbd cache writethrough until flush =以直写模式开始,并在收到第一个刷新请求后切换回写。启用此设置是一种保守但安全的设置,以防在rbd上运行的VM太旧而无法发送刷新,例如2.6.32之前的Linux中的virtio驱动程序。 |类型: bool(boolean) 值,必填:否,默认值:false

关于kubernetes - Ceph libRBD缓存控制,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59710481/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com