05 2022 档案

摘要:如果要删除的节点正在运行 OSD,请确保从节点中删除 OSD。 删除OSD ceph orch osd rm <osd_id(s)> [--replace] [--force] # 从 OSD 中撤出 PG 并将其从集群中移除 ceph orch osd rm 0 # 例子,不安全销毁的 OSD 将 阅读全文
posted @ 2022-05-29 21:14 Varden 编辑
摘要:参考: https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage-class-intro.html https://docs.aws.amazon.com/AmazonS3/latest/userguide/lifecycle-con 阅读全文
posted @ 2022-05-26 15:57 Varden 编辑
摘要:1. 放置目标 放置目标控制哪些池与特定桶。 存储桶的放置目标是在创建时选择的,不能修改的。radosgw-admin bucket stats命令将显示其 placement_rule. 2. 存储类 Nautilus 版本中的新功能。 存储类用于自定义对象数据的放置。 S3 存储桶生命周期规则可 阅读全文
posted @ 2022-05-26 14:03 Varden 编辑
摘要:放置目标控制哪些池与特定桶。 存储桶的放置目标是在创建时选择的,不能修改的。 radosgw-admin bucket stats命令将显示其 placement_rule。 1. 查询放置配置 $ radosgw-admin zonegroup get { "id": "ab01123f-e0df 阅读全文
posted @ 2022-05-26 11:54 Varden 编辑
摘要:一个 Ceph 池与一种类型相关联,以维持 OSD 的丢失(即一个磁盘,因为大多数时候每个磁盘都有一个 OSD)。创建池时的默认选择是已复制,这意味着每个对象都复制到多个磁盘上。可以改用纠删码池类型来节省空间。 创建示例纠删码池 最简单的纠删码池相当于RAID5,至少需要三台主机: $ ceph o 阅读全文
posted @ 2022-05-26 10:48 Varden 编辑
摘要:1. 注意事项 缓存分层会降低大多数工作负载的性能。用户使用此功能之前要格外小心。 1.1 已知良好的工作负载 RGW time-skewed :如果 RGW 工作负载几乎所有读取操作针对最近写入的对象,一个简单的缓存分层配置,将最近写入的对象从在可配置的时间段后缓存到基础层可以工作良好。 2. 创 阅读全文
posted @ 2022-05-26 09:51 Varden 编辑
摘要:/etc/sysctl.conf kernel.pid_max=4194304fs.file-max=26345836vm.swappiness=0 /etc/security/limits.conf * soft nofile 655360* hard nofile 655360* soft np 阅读全文
posted @ 2022-05-19 11:23 Varden 编辑
摘要:查看运行时配置: ceph daemon osd.0 config show | less # 在OSD节点执行 增加调试日志记录: ceph tell osd.0 config set debug_osd 0/5 # 在MON节点执行 或:ceph daemon osd.0 config set 阅读全文
posted @ 2022-05-19 11:22 Varden 编辑
摘要:大桶索引可能会导致性能问题。为了解决这个问题,官方引入了桶索引分片。在 Luminous 之前,需要离线更改存储桶分片的数量(重新分片)。从 Luminous 开始,官方支持在线存储桶重新分片。 每个桶索引分片可以有效地处理其条目,直到达到某个阈值数量的条目。如果超过此阈值,系统可能会遇到性能问题。 阅读全文
posted @ 2022-05-16 15:42 Varden 编辑
摘要:设置用户配额 格式:radosgw-admin quota set --quota-scope=user --uid=<uid> [--max-objects=<num objects>] [--max-size=<max size>]例如:radosgw-admin quota set --quo 阅读全文
posted @ 2022-05-16 14:38 Varden 编辑
摘要:创建对象网关用户: radosgw-admin user create --uid="dbbackup" --display-name="Database Backup" --max-buckets=10 创建文件系统用户: ceph auth get-or-create client.sonarq 阅读全文
posted @ 2022-05-16 14:29 Varden 编辑
摘要:配置参数 rgw_gc_max_objs 描述:一个垃圾回收处理周期内垃圾回收可以处理的最大对象数(并发)。 类型:整数 默认:32 rgw_gc_obj_min_wait 描述:垃圾收集处理可以删除和处理对象之前的最短等待时间(空间回收间隔,默认2小时)。 类型:整数 默认:2 * 3600 rg 阅读全文
posted @ 2022-05-16 14:12 Varden 编辑
摘要:CephFS 允许在系统中的任何目录上设置配额。配额可以限制字节数或目录层次结构中该点下存储的文件数。 限制 配额是合作的和非对抗性的。CephFS 配额依赖于挂载文件系统的客户端的合作,以在达到限制时停止写入程序。无法阻止已修改或对抗性客户端写入所需的尽可能多的数据。不应依赖配额来防止在客户端完全 阅读全文
posted @ 2022-05-15 22:53 Varden 编辑
摘要:您可以为每个池的最大字节数、最大对象数设置池配额。 ceph osd pool set-quota {pool-name} [max_objects {obj-count}] [max_bytes {bytes}] 例如: ceph osd pool set-quota data max_objec 阅读全文
posted @ 2022-05-15 22:36 Varden 编辑
摘要:参考:https://docs.ceph.com/en/mimic/mgr/prometheus/https://grafana.com/grafana/dashboards/2842 提供 Prometheus 导出器以从 ceph-mgr 中的收集点传递 Ceph 性能计数器。 Ceph-mgr 阅读全文
posted @ 2022-05-15 22:32 Varden 编辑
摘要:调整osd的crush weight ceph osd crush reweight osd.0 0 说明:这个地方如果想慢慢的调整就分几次将crush 的weight 减低到0 ,这个过程实际上是让数据不分布在这个节点上,让数据慢慢的分布到其他节点上,直到最终为没有分布在这个osd,并且迁移完成。 阅读全文
posted @ 2022-05-15 21:40 Varden 编辑
摘要:修改OSD恢复优先级: # ceph tell osd.* config set osd_recovery_op_priority 3 osd.0: Set osd_recovery_op_priority to 3 osd.1: Set osd_recovery_op_priority to 3 阅读全文
posted @ 2022-05-15 11:15 Varden 编辑

点击右上角即可分享
微信分享提示