摘要: 【问题描述】 后台执行ceph -s 集群状态ERR,显示有1 pgs inconsistent,1 scsrub errors 【处理过程】 执行 ceph health detail 找出有问题的pg和pg所在的OSD 根据OSD登录所在节点查找相关日志,并没有发现OSD有硬件报错。 手动执行 阅读全文
posted @ 2020-05-06 13:39 象飞田 阅读(1123) 评论(0) 推荐(0) 编辑
摘要: 【问题背景】 当前环境 集群信息: 一个3个mon节点,10个osd节点的ceph集群。 每个osd节点上有16块1.8T的数据盘和4块ssd的journal盘。osd磁盘做RAID0,WB模式。 ceph版本: Jewel 【问题现象】 ceph状态告警,告警内容是osd节点node-115上的o 阅读全文
posted @ 2020-05-06 11:06 象飞田 阅读(3706) 评论(0) 推荐(0) 编辑