sisimi的点点滴滴

你若盛开,清风自来

导航

不卸载ceph重新获取一个干净的集群环境

不卸载ceph重新获取一个干净的集群环境

标签(空格分隔): ceph ceph环境搭建 运维


部署了一个ceph集群环境,由于种种原因需要回到最开始完全clean的状态,而又不想卸载ceph客户端或者重新搭建虚拟机,此篇博客的目的就是为了解决这一问题。

我的环境:node1的角色为osd,mon,node2和node3的角色都为osd。每个host的系统为centos7,每个host上部署两个osd。ceph版本为luminous (12.4.1 )。之外有一个host作为专门部署ceph的admin节点,系统同样是centos7。

1. ceph环境清理!

在每个ceph节点上执行如下指令,即可将环境清理至刚安装完ceph客户端时的状态!强烈建议在旧集群上搭建之前清理干净环境,否则会发生各种异常情况。

ps aux|grep ceph |awk '{print $2}'|xargs kill -9
ps -ef|grep ceph

确保此时所有ceph进程都已经关闭!!!如果没有关闭,多执行几次

umount /var/lib/ceph/osd/*
rm -rf /var/lib/ceph/osd/*
rm -rf /var/lib/ceph/mon/*
rm -rf /var/lib/ceph/mds/*
rm -rf /var/lib/ceph/bootstrap-mds/*
rm -rf /var/lib/ceph/bootstrap-osd/*
rm -rf /var/lib/ceph/bootstrap-rgw/*
rm -rf /var/lib/ceph/bootstrap-mgr/*
rm -rf /var/lib/ceph/tmp/*
rm -rf /etc/ceph/*
rm -rf /var/run/ceph/*

同时情况admin节点中my-cluster目录下的所有内容:

cd /root/my-cluster/
rm *

虽然这个时候环境已经清理干净,但是ceph却还不能运行,需要执行下面的操作。

2. 重新启动ceph:

2.1 在admin节点上执行下面的命令:

创建my-cluster目录之后,进入该目录下创建集群:

ceph-deploy new node1

2.2 在每个ceph节点上执行下面的命令:

如果想要随便更新ceph,并且网速不好,需要从https://download.ceph.com/rpm-luminous/el7/x86_64/下载最新安装包放到/var/cache/yum/x86_64/7/Ceph/packages/文件夹下
执行下面的命令重新安装ceph:

sudo yum install ceph epel-release ceph-radosgw

安装完成后,查看ceph版本确定安装成功:

ceph --version

添加防火墙规则:

firewall-cmd --zone=public --add-service=ceph-mon --permanent(仅mon节点执行,如不添加就不能在其他节点执行ceph命令)
firewall-cmd --zone=public --add-service=ceph --permanent
firewall-cmd --reload

3. 在admin节点执行:

ceph-deploy install --release luminous node1 node2 node3

4. 在admin节点初始化mon:

ceph-deploy mon create-initial

5. 赋予各个节点使用命令免用户名权限:

ceph-deploy admin node1 node2 node3

6. 安装ceph-mgr (仅luminous版本,为使用dashboard做准备):

ceph-deploy mgr create node1

7. 添加osd:

ceph-deploy osd createnode1:sdb1 node2:sdb1 node3:sdb1 node1:/dev/sdc1 node2:/dev/sdc1 node3:/dev/sdc1

需要说明的是该sdb是在各个节点上为osd准备的空闲磁盘(无需分区格式化,如果有分区需要指定具体分区),通过如下命令查看:

ssh node1 lsblk -f 

最后通过如下命令查看集群状态:

ssh node1 sudo ceph -s

如果显示health_ok,6个osd up就成功了。

但在环境创建完成后,该命令执行后,虽然集群状态为health_ok,但是却显示0个osd。在ceph节点使用ceph osd tree命令后竟然啥都没有,最后需要在admin部署节点,执行如下命令:

ceph-deploy osd activate  node1:/dev/sdb1 node2:/dev/sdb1 node3:/dev/sdb1 node1:/dev/sdc1 node2:/dev/sdc1 node3:/dev/sdc1

至此就得到一个干净的ceph环境,这种方法可以彻底清除原来滞留的数据

结束语

第一次使用markdown写博客,参考了 高亮显示linux命令, MarkDown写作技巧 简单完成此篇博客书写语法方面的问题。特别感谢徐小胖的 快速部署ceph ,从该作者的一系列的博客学习很多ceph相关的知识,包括疑难问题解决,运维常用知识等。

posted on 2017-10-19 16:25  sisimi_2017  阅读(6596)  评论(0编辑  收藏  举报