Ceph OSD更换硬盘后遭遇PG Inconsistent异常与处理
昨天一块osd硬盘不幸去世了,经过一番努力后新硬盘挂载进rook ceph cluster,并且ceph自动开始进行数据均衡。今天打开后发现Health是ERROR状态,难道新硬盘数据均衡出现问题了?
1、进入ceph tools pod
kubectl -n rook-ceph exec -it $(kubectl -n rook-ceph get pod -l "app=rook-ceph-tools" -o jsonpath='{.items[0].metadata.name}') bash
2、检测ceph状态
ceph health detail
好吧,是真的出问题了,只不过这种属于小问题,8个pg不一至。但是也要及时处理不然小问题堆积的多最终也成大问题
3、使用ceph命令使数据同步,我们先对pg 2.1执行处理
ceph pg repair 2.1
ceph health detail
使用repair命令后,隔几秒再使用health查看就可以看到pg 2.1的状态已经有一个repair,进入数据同步状态
4、过段时间等待修复结束后我们再查看,发现不同步的pg已经变成了7个,有问题的scrub也减到了77个,pg 2.1也从异步列表中消失
【推荐】还在用 ECharts 开发大屏?试试这款永久免费的开源 BI 工具!
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步