摘要:原文:https://www.cnblogs.com/zyxnhr/p/10553717.html 1、没有创建pool之前 [root@cluster9 ceph-cluster]# ceph -s cluster: id: d81b3ce4-bcbc-4b43-870e-430950652315
阅读全文
摘要:现象: 1、在mon节点打开/etc/ceph/ceph.conf,增加以下 2、重启ceph-mon 3、删除pool
阅读全文
摘要:说明:由于环境有限,这里只是用一台机器 一、部署环境 VMware Workstation 10 centos7 二、主机配置 主机名 ip cpu ram master 192.168.137.10 2 3G 1、在 /etc/hosts 添加以下内容: 2、关闭防火墙、selinux、swap
阅读全文
摘要:一、安装cephfs 方法一: 直接进入deploy目录,执行: 上面的ceph01是机器的hostname 方法二: 1、在需要安装的目标机器上创建mds目录 2、生成mds的keyring,并将其写入/var/lib/ceph/mds/ceph-0/keyring文件中 上面红色部分不能写成al
阅读全文
摘要:原文:http://www.cnblogs.com/me115/p/6366374.html Pool是存储对象的逻辑分区,它规定了数据冗余的类型和对应的副本分布策略;支持两种类型:副本(replicated)和 纠删码( Erasure Code);目前我们公司内部使用的Pool都是副本类型(3副
阅读全文
摘要:原文:http://www.linuxidc.com/Linux/2017-04/142518.htm 背景 集群状态报错,如下: 分析 问题原因是集群osd 数量较少,在我的测试过程中,由于搭建rgw网关、和OpenStack集成等,创建了大量的pool,每个pool要占用一些pg ,ceph集群
阅读全文
摘要:前提条件 已经部署好ceph集群(ceph-luminous) 1、创建mds(只创建一个单节点) [root@cluster9 ceph-cluster]# ceph-deploy mds create cluster9 2、创建data pool和metadata pool [root@clus
阅读全文
摘要:尝试一、直接重新激活所有osd 1、查看osd树 发现osd.1是down掉的。 2、再次激活所有的osd(记住是所有的,不只是down掉这一个) 下面命令当中的/dev/sdb1是每一个osd节点使用的实际存储硬盘或分区。 3、查看osd树和健康状态 只有为 HEALTH_OK 才算是正常的。 尝
阅读全文
摘要:一、集群 1、启动一个ceph 进程 启动mon进程 service ceph start mon.node1 启动msd进程 service ceph start mds.node1 启动osd进程 service ceph start osd.0 2、查看机器的监控状态 [root@client
阅读全文
摘要:在Ceph集群日常运维中,管理员可能会遇到有的image删除不了的情况,有一种情况是由于image下有快照信息,只需要先将快照信息清除,然后再删除该image即可,还有一种情况是因为该image仍旧被一个客户端在访问,具体表现为该image中有watcher,如果该客户端异常了,那么就会出现无法删除
阅读全文
摘要:由以上可以看出:虽然image已经增大了两倍,但是挂载此image的文件系统/dev/rbd0/的大小并没有变 要想/dev/rbd0也增大,则要做下面操作,ext4和xfs格式的方法不一样 1)ext4 resize2fs /dev/rbd0 2)xfs 要在 resize之后执行 # xfs_g
阅读全文
摘要:一、删除osd ceph osd out 1ceph osd down 1systemctl stop ceph-osd@1ceph osd crush remove osd.1ceph osd rm 1ceph auth del osd.1 二、用ceph-deploy方式新增一个osd 1、登录
阅读全文
摘要:1、创建pool 创建ceph pool的命令如下,它的参数包括pool名字、PG和PGP的数量。 若少于5个OSD, 设置pg_num为128。 5~10个OSD,设置pg_num为512。 10~50个OSD,设置pg_num为4096。 若少于5个OSD, 设置pg_num为128。 5~10
阅读全文
摘要:Ceph是一个分布式存储,可以提供对象存储、块存储和文件存储,其中对象存储和块存储可以很好地和各大云平台集成。一个Ceph集群中有Monitor节点、MDS节点(可选,用于文件存储)、至少两个OSD守护进程。Ceph OSD:OSD守护进程,用于存储数据、处理数据拷贝、恢复、回滚、均衡,并通过心跳程
阅读全文
摘要:1、新建一个image存储 2、查看hzb-mysql的所有对象 一个rbd image实际上包含了多个对象(默认情况下是image_size/4M) 查看真实使用空间: 上面的红色加粗部分就是该image的指纹,如果image是以 --image-format 2创建的,则上面的红色部分显示为:
阅读全文
摘要:原文地址:http://www.cnblogs.com/sammyliu/p/4843812.html?utm_source=tuicool&utm_medium=referral 2 卷(image) 2.1 image 之用户所见 Image 对应于 LVM 的 Logical Volume,它
阅读全文
摘要:Ceph支持一个非常好的特性,以COW(写时复制)的方式从RBD快照创建克隆,在Ceph中被称为快照分层。分层特性允许用户创建多个CEPH RBD克隆实例。这些特性应用于OpenStack等云平台中 ,使用快照形式保护ceph RBD 镜像,快照是只读的,但COW克隆是完全可以写 ,可以多次来孵化实
阅读全文
摘要:一、安装librados和librbd Ceph存储集群提供了基本的存储服务,允许Ceph在一个统一的系统中唯一地传送对象,块和文件存储。 但是,不限于使用RESTful,块或POSIX接口。 基于RADOS,Librados API使您能够创建自己的Ceph存储群集接口。Librados API使
阅读全文
摘要:一、有一个ceph cluster,假设已经准备好了,文档网上一大堆 二、开始集成ceph和kuberntes 2.1 禁用rbd features rbd image有4个 features,layering, exclusive-lock, object-map, fast-diff, deep
阅读全文