ceph 安装过程

安装依赖:

yum install -y yum-utils && yum-config-manager --add-repo https://dl.fedoraproject.org/pub/epel/7/x86_64/ && yum install --nogpgcheck -y epel-release && rpm --import /etc/pki/rpm-gpg/RPM-GPG-KEY-EPEL-7 && rm -f /etc/yum.repos.d/dl.fedoraproject.org*

搭建环境和初始化系统参见一下网址:http://ceph.org.cn/

                 http://docs.ceph.org.cn/start/quick-start-preflight/

 

ceph-deploy new mon-node1 mon-node2 mon-node3  #初始化监控集群

编辑配置文件:

vim ceph.conf   

  osd pool default min sisz=2
  osd pool default size = 3
  public_network = 10.0.0.0/24

  cluster network=192.168.107.0/24

ceph-deploy install mon-node1 mon-node2 mon-node3 data-node1 data-node2 data-node3 #安装集群

ceph-deploy mon create-initial #初始化集群

ceph-deploy gatherkeys mon  #生成集群钥匙

sudo ceph-create-keys --id mon #检查生成的钥匙

ceph-deploy mon create-initial  #初始化集群监控  生成集群钥匙

需要格式化:data上的硬盘

支持格式是:xfs和btrfs

使用mkfs.btrfs -f /dev/sdb1  或者  mkfs.xfs -f /dev/sdb1

ceph-deploy osd prepare data-node1:/osd1  #制作存储空间

ceph-deploy osd activate data-node1:/osd1  #激活存储空间   激活osd进程,一个进程管理一个分区或者磁盘

ceph-deploy admin mon-node1 mon-node2 mon-node3 data-node1 data-node2 data-node3  # 拷贝配置文件到每一台机器上

sudo chmod +r /etc/ceph/ceph.client.admin.keyring #给钥匙加权限

常用命令:

ceph-deploy --overwrite-conf config push mon-node1 mon-node2 mon-node3 data-node1 data-node2 data-node3

ceph mon remove node1 #删除一个mon节点

ceph mon add node1 node1_ip #添加一个mon节点 

 网关的安装:

一、添加radosgw(civetweb方式)

1、创建网关实例的数据目录

mkdir /var/lib/ceph/radosgw

mkdir /var/lib/ceph/radosgw/ceph-rgw.{name}

2、创建启动文件和done文件

touch /var/lib/ceph/radosgw/ceph-rgw.{name}/done

touch /var/lib/ceph/radosgw/ceph-rgw.{name}/systemd

3、创建用户使用的密钥

ceph auth get-or-create client.rgw.node3 osd "allow rwx" mon "allow rw" -o /var/lib/ceph/radosgw/ceph-rgw.{name}/keyring

cp /var/lib/ceph/radosgw/ceph-rgw.{name}/keyring /etc/ceph/ceph.client.rgw.{name}.keyring

 

ceph-deploy install --rgw mon-node1 mon-node2 mon-node3

 

 

 

简单集群操作:

ceph health  # 查看集群状态

ceph health detail  #查看集群健康状态细节

ceph -s  #查看进程状态

ceph -w  #查看实时运行状态

ceph osd tree  # 查看osd进程树

列出储存池:

ceph df  #查看存储空间

ceph auth list #查看ceph集群中的认证用户及相关的key

ceph auth del osd.0  #删除集群中的一个认证用户

ceph auth get client.admin  #查看一个用户的详细权限信息

sudo  ceph daemon mon.mon-node1 config show | more #查看集群的详细配置

新增一个客户端用户:

  ceph auth add client.john mon 'allow r' osd 'allow rw pool=liverpool'
  ceph auth get-or-create client.paul mon 'allow r' osd 'allow rw pool=liverpool'
  ceph auth get-or-create client.george mon 'allow r' osd 'allow rw pool=liverpool' -o george.keyring
  ceph auth get-or-create-key client.ringo mon 'allow r' osd 'allow rw pool=liverpool' -o ringo.key

修改一个用户权限:

  ceph auth get client.john
  ceph auth caps client.john mon 'allow r' osd 'allow rw pool=liverpool'
  ceph auth caps client.paul mon 'allow rw' osd 'allow rwx pool=liverpool'
  ceph auth caps client.brian-manager mon 'allow *' osd 'allow *'

 

mon的命令:

ceph mon stat  #查看mon的状态信息

ceph quorum_status  #查看mon的选举状态

ceph mon dump   #查看mon的映射信息

ceph mon remove node1  #删除一个mon节点

ceph daemon mon.node1  mon_status   #查看mon的详细状态

osd的命令:

ceph osd stat   #查看ceph osd运行状态

ceph osd dump   #查看osd映射信息

ceph osd tree    #查看osd的目录树

ceph osd down 0 #down掉一个osd硬盘

ceph osd rm 0   #在集群中删除一个osd硬盘

ceph osd crush rm osd.0  #在集群中删除一个osd 硬盘 crush map

ceph osd crush rm node1   #在集群中删除一个osd的host节点

ceph osd out osd.3  #把一个osd节点逐出集群

ceph osd in osd.3    #把逐出的osd加入集群  

设置权重:

ceph osd getmaxosd  #查看最大osd的个数      max_osd = 4 in epoch 514默认最大是4个osd节点

ceph osd setmaxosd 10  #设置最大的osd的个数(当扩大osd节点的时候必须扩大这个值)

ceph osd crush set 3 3.0 host=node4  #设置osd crush的权重   ceph osd crush set {id} {weight} [{loc1} [{loc2} ...]]

ceph osd reweight 3 0.5  #设置osd的权重

 

msd的命令:

ceph mds stat  #查看msd状态

ceph mds dump #查看msd的映射信息

ceph  mds rm 0 mds.node1   #删除一个mds节点

 

集群操作:

ceph osd pause  #暂停osd (暂停后整个集群不再接收数据)

ceph osd unpause  #再次开启osd (开启后再次接收数据) 

 

PG组操作:

ceph pg dump  #查看pg组的映射信息

ceph pg map 0.3f  #查看一个PG的map

ceph pg stat     #查看PG状态

ceph pg  0.26 query   #查询一个pg的详细信息

 

ceph pg dump --format plain  #显示一个集群中的所有的pg统计

ceph pg {pg-id} mark_unfound_lost revert   #恢复一个丢失的pg

ceph pg dump_stuck inactive|unclean|stale   #显示非正常状态的pg

 

pool操作:

ceph osd lspools   #查看ceph集群中的pool数量

ceph osd pool create jiayuan 100   #在ceph集群中创建一个pool

ceph osd pool set-quota data max_objects 10000   #为一个ceph pool配置配额

ceph osd pool delete jiayuan  jiayuan  --yes-i-really-really-mean-it  #集群名字需要重复两次     #在集群中删除一个pool

rados df   #显示集群中pool的详细信息

ceph osd pool mksnap data   date-snap  #给一个pool创建一个快照

ceph osd pool rmsnap data date-snap  #删除pool的快照

ceph osd pool get data pg_num  #查看data池的pg数量

ceph osd pool set data target_max_bytes 100000000000000  #设置data池的最大存储空间为100T(默认是1T)

ceph osd pool set data size 3  #设置data池的副本数是3

ceph osd pool set data min_size 2  #设置data池能接受写操作的最小副本为2

ceph osd dump | grep 'replicated size'  #查看集群中所有pool的副本尺寸

ceph osd pool set data pg_num 100   #设置一个pool的pg数量

ceph osd pool set data pgp_num 100  #设置一个pool的pgp数量

 

rados和rbd指令:

rados lspools   #查看ceph集群中有多少个pool 

rados df   #查看ceph集群中有多少个pool,并且每个pool容量及利用情况

rados mkpool test  #创建一个pool

rados ls -p volumes | more  #查看ceph pool中的ceph object (这里的object是以块形式存储的)

rados create test-object -p test  #创建一个对象object 

rados rm test-object-1 -p test  #删除一个对象

rbd ls images  #查看ceph中一个pool里的所有镜像

rbd ls volumes

rbd info -p images --image 74cb427c-cee9-47d0-b467-af217a67e60a   #查看ceph pool中一个镜像的信息

rbd create -p test --size 10000 zhanguo   #在test池中创建一个命名为zhanguo的10000M的镜像

rbd -p test info zhanguo  #查看新建的镜像的信息

rbd rm  -p test  lizhanguo  #删除一个镜像

rbd resize -p test --size 20000 zhanguo  #调整一个镜像的尺寸

rbd -p test info zhanguo   #调整后的镜像大小

rbd  snap create  test/zhanguo@zhanguo123  #池/镜像@快照    #给一个镜像创建一个快照

rbd   snap ls  -p test zhanguo  #查看

rbd info test/zhanguo@zhanguo123  #查看

rbd snap ls  -p volumes volume-7687988d-16ef-4814-8a2c-3fbd85e928e4  #查看一个镜像文件的快照

rbd snap rm volumes/volume-7687988d-16ef-4814-8a2c-3fbd85e928e4@snapshot-ee7862aa-825e-4004-9587-879d60430a12  #删除一个镜像文件的一个快照快照   快照所在的池/快照所在的镜像文件@快照

rbd snap unprotect volumes/volume-7687988d-16ef-4814-8a2c-3fbd85e928e4@snapshot-ee7862aa-825e-4004-9587-879d60430a12 #上面不能删除显示的报错信息是此快照备写保护了,命令是删除写保护后再进行删除

rbd snap purge  -p volumes volume-7687988d-16ef-4814-8a2c-3fbd85e928e4  #删除一个镜像文件的所有快照

rbd export -p images --image 74cb427c-cee9-47d0-b467-af217a67e60a /root/aaa.img  #把ceph pool中的一个镜像导出

rbd import /root/aaa.img -p images --image 74cb427c-cee9-47d0-b467-af217a67e60a   #把一个镜像导入ceph中 (但是直接导入是不能用的,因为没有经过openstack,openstack是看不到的)

 

posted @ 2018-01-08 18:15  划得戳  阅读(632)  评论(0编辑  收藏  举报