摘要:
【问题描述】 后台执行ceph -s 集群状态ERR,显示有1 pgs inconsistent,1 scsrub errors 【处理过程】 执行 ceph health detail 找出有问题的pg和pg所在的OSD 根据OSD登录所在节点查找相关日志,并没有发现OSD有硬件报错。 手动执行 阅读全文
摘要:
【问题背景】 当前环境 集群信息: 一个3个mon节点,10个osd节点的ceph集群。 每个osd节点上有16块1.8T的数据盘和4块ssd的journal盘。osd磁盘做RAID0,WB模式。 ceph版本: Jewel 【问题现象】 ceph状态告警,告警内容是osd节点node-115上的o 阅读全文