Ceph —— ceph.conf常用参数
Ceph —— ceph.conf常用参数
以下是一些常用到的Ceph配置调优参数,默认值均为ceph_nautilus(14.2.1)源码中抄录,如有参数描述解释上的不妥之处,望指出。
-
mon_osd_cache_size
- 要缓存到内存中的osdmap的最大数量
- 默认值:500M
-
mon_osd_max_initial_pgs
- 创建一个池的最大pg数(若用户指定了比这更多的PG,那集群将在创建池之后分割PG,以便达到目标)
- 默认值:1024
-
mon_osd_min_up_ratio
- 在把 OSD 标记为 down 前,保持处于 up 状态的 OSD 最小比例。
- 默认值:0.3
-
mon_osd_min_in_ratio
- 在把 OSD 标记为 out 前,保持处于 in 状态的 OSD 最小比例。
- 默认值:0.75
-
mon_osd_down_out_interval
- 在 OSD 停止响应多少秒后把它标记为 down 且 out 。
- 默认值:600
-
mon_osd_nearfull_ratio
- 告警水位,集群中的任一OSD空间使用率大于等于此数值时,集群将被标记为NearFull,此时集群将产生告警,并提示所有已经处于NearFull状态的OSD
- 默认值:0.85
-
mon_osd_full_ratio
- 报停水位,集群任意一个OSD使用率大于等于此数值时,集群将被标记为full,此时集群停止接受客户端的写入请求
- 默认值:0.95
-
mon_osd_backfillfull_ratio
- OSD空间使用率大于等于此数值时,拒绝PG通过Backfill方式迁出或者继续迁入本OSD
- 默认值:0.90
-
osd_failsafe_full_ratio
- PG执行包含写操作的op时,防止所在的OSD磁盘空间被100%写满的最后一道屏障,超过此限制时,op将直接被丢弃
- 默认值:0.97
-
mon_max_pg_per_osd
- 集群允许的每个OSD的最大pg数
- 默认值:250(单个节点OSD少的情况,建议可以调大些)
-
osd_scrub_chunk_min
- 在单个块中要清洗的对象的最小数量
- 默认值:5
-
osd_scrub_chunk_max
- 在单个块中要清洗的最大对象数
- 默认值:25
-
osd_max_scrubs
- 单个OSD上的最大并发清洗数量
- 默认值:1
-
osd_scrub_begin_hour
- scrub开始时间
- 默认值:0
-
osd_scrub_end_hour
- scrub结束时间
- 默认值:24 (也就是说默认为24小时,这个自行把控)
-
osd_deep_scrub_interval
- 深层 scrub 每个PG
- 默认值:一周
-
osd_recovery_max_active
- 控制在单个OSD上,最多可以有多少个PG同时recover
- 默认值:3
如需更多参数详情,可以git一下自己用的ceph版本的源码来查询,更准确一些