波神

导航

随笔分类 -  Ceph

1 2 下一页

ceph创建pool后100.000% pgs not active
摘要:原文:https://www.cnblogs.com/zyxnhr/p/10553717.html 1、没有创建pool之前 [root@cluster9 ceph-cluster]# ceph -s cluster: id: d81b3ce4-bcbc-4b43-870e-430950652315 阅读全文

posted @ 2020-07-15 15:04 波神 阅读(3241) 评论(0) 推荐(0) 编辑

ceph删除pool提示(you must first set the mon_allow_pool_delete config option to true)解决办法
摘要:现象: 1、在mon节点打开/etc/ceph/ceph.conf,增加以下 2、重启ceph-mon 3、删除pool 阅读全文

posted @ 2019-03-17 18:21 波神 阅读(1692) 评论(0) 推荐(0) 编辑

centos7安装ceph-luminous(1 mon+2 osd)
摘要:说明:由于环境有限,这里只是用一台机器 一、部署环境 VMware Workstation 10 centos7 二、主机配置 主机名 ip cpu ram master 192.168.137.10 2 3G 1、在 /etc/hosts 添加以下内容: 2、关闭防火墙、selinux、swap 阅读全文

posted @ 2019-03-13 21:46 波神 阅读(853) 评论(0) 推荐(0) 编辑

kubernetes多节点的pod挂载同一个cephfs目录
摘要:一、安装cephfs 方法一: 直接进入deploy目录,执行: 上面的ceph01是机器的hostname 方法二: 1、在需要安装的目标机器上创建mds目录 2、生成mds的keyring,并将其写入/var/lib/ceph/mds/ceph-0/keyring文件中 上面红色部分不能写成al 阅读全文

posted @ 2017-07-21 10:34 波神 阅读(9406) 评论(0) 推荐(0) 编辑

在ceph中:pool、PG、OSD的关系
摘要:原文:http://www.cnblogs.com/me115/p/6366374.html Pool是存储对象的逻辑分区,它规定了数据冗余的类型和对应的副本分布策略;支持两种类型:副本(replicated)和 纠删码( Erasure Code);目前我们公司内部使用的Pool都是副本类型(3副 阅读全文

posted @ 2017-07-14 11:23 波神 阅读(3700) 评论(1) 推荐(1) 编辑

ceph故障:too many PGs per OSD
摘要:原文:http://www.linuxidc.com/Linux/2017-04/142518.htm 背景 集群状态报错,如下: 分析 问题原因是集群osd 数量较少,在我的测试过程中,由于搭建rgw网关、和OpenStack集成等,创建了大量的pool,每个pool要占用一些pg ,ceph集群 阅读全文

posted @ 2017-07-12 11:22 波神 阅读(1549) 评论(0) 推荐(0) 编辑

手动添加ceph的mds
摘要:前提条件 已经部署好ceph集群(ceph-luminous) 1、创建mds(只创建一个单节点) [root@cluster9 ceph-cluster]# ceph-deploy mds create cluster9 2、创建data pool和metadata pool [root@clus 阅读全文

posted @ 2017-06-01 09:56 波神 阅读(1310) 评论(0) 推荐(0) 编辑

ceph修复osd为down的情况
摘要:尝试一、直接重新激活所有osd 1、查看osd树 发现osd.1是down掉的。 2、再次激活所有的osd(记住是所有的,不只是down掉这一个) 下面命令当中的/dev/sdb1是每一个osd节点使用的实际存储硬盘或分区。 3、查看osd树和健康状态 只有为 HEALTH_OK 才算是正常的。 尝 阅读全文

posted @ 2017-05-02 16:09 波神 阅读(24997) 评论(0) 推荐(0) 编辑

ceph常用指令
摘要:一、集群 1、启动一个ceph 进程 启动mon进程 service ceph start mon.node1 启动msd进程 service ceph start mds.node1 启动osd进程 service ceph start osd.0 2、查看机器的监控状态 [root@client 阅读全文

posted @ 2017-04-28 16:50 波神 阅读(848) 评论(0) 推荐(0) 编辑

删除 Ceph 的image报rbd: error: image still has watchers
摘要:在Ceph集群日常运维中,管理员可能会遇到有的image删除不了的情况,有一种情况是由于image下有快照信息,只需要先将快照信息清除,然后再删除该image即可,还有一种情况是因为该image仍旧被一个客户端在访问,具体表现为该image中有watcher,如果该客户端异常了,那么就会出现无法删除 阅读全文

posted @ 2017-04-24 13:42 波神 阅读(2444) 评论(0) 推荐(0) 编辑

ceph的image扩容
摘要:由以上可以看出:虽然image已经增大了两倍,但是挂载此image的文件系统/dev/rbd0/的大小并没有变 要想/dev/rbd0也增大,则要做下面操作,ext4和xfs格式的方法不一样 1)ext4 resize2fs /dev/rbd0 2)xfs 要在 resize之后执行 # xfs_g 阅读全文

posted @ 2017-04-21 16:48 波神 阅读(672) 评论(2) 推荐(0) 编辑

ceph卸载
摘要:1、正常卸载 2、非正常卸载 阅读全文

posted @ 2017-04-20 16:55 波神 阅读(983) 评论(0) 推荐(0) 编辑

ceph之osd
摘要:一、删除osd ceph osd out 1ceph osd down 1systemctl stop ceph-osd@1ceph osd crush remove osd.1ceph osd rm 1ceph auth del osd.1 二、用ceph-deploy方式新增一个osd 1、登录 阅读全文

posted @ 2017-04-20 16:50 波神 阅读(784) 评论(0) 推荐(0) 编辑

ceph中pool的管理
摘要:1、创建pool 创建ceph pool的命令如下,它的参数包括pool名字、PG和PGP的数量。 若少于5个OSD, 设置pg_num为128。 5~10个OSD,设置pg_num为512。 10~50个OSD,设置pg_num为4096。 若少于5个OSD, 设置pg_num为128。 5~10 阅读全文

posted @ 2017-04-20 16:17 波神 阅读(3335) 评论(0) 推荐(0) 编辑

ubuntu 16.04安装ceph集群(双节点)
摘要:Ceph是一个分布式存储,可以提供对象存储、块存储和文件存储,其中对象存储和块存储可以很好地和各大云平台集成。一个Ceph集群中有Monitor节点、MDS节点(可选,用于文件存储)、至少两个OSD守护进程。Ceph OSD:OSD守护进程,用于存储数据、处理数据拷贝、恢复、回滚、均衡,并通过心跳程 阅读全文

posted @ 2017-04-20 13:51 波神 阅读(6248) 评论(0) 推荐(0) 编辑

ceph中查看一个rbd的image的真实存储位置
摘要:1、新建一个image存储 2、查看hzb-mysql的所有对象 一个rbd image实际上包含了多个对象(默认情况下是image_size/4M) 查看真实使用空间: 上面的红色加粗部分就是该image的指纹,如果image是以 --image-format 2创建的,则上面的红色部分显示为:  阅读全文

posted @ 2017-04-14 15:48 波神 阅读(5770) 评论(0) 推荐(0) 编辑

ceph之image(转)
摘要:原文地址:http://www.cnblogs.com/sammyliu/p/4843812.html?utm_source=tuicool&utm_medium=referral 2 卷(image) 2.1 image 之用户所见 Image 对应于 LVM 的 Logical Volume,它 阅读全文

posted @ 2017-04-11 12:18 波神 阅读(4500) 评论(0) 推荐(1) 编辑

CEPH集群RBD快照创建、恢复、删除、克隆(转)
摘要:Ceph支持一个非常好的特性,以COW(写时复制)的方式从RBD快照创建克隆,在Ceph中被称为快照分层。分层特性允许用户创建多个CEPH RBD克隆实例。这些特性应用于OpenStack等云平台中 ,使用快照形式保护ceph RBD 镜像,快照是只读的,但COW克隆是完全可以写 ,可以多次来孵化实 阅读全文

posted @ 2017-04-11 10:46 波神 阅读(5600) 评论(0) 推荐(0) 编辑

java操作ceph之rbd基本操作
摘要:一、安装librados和librbd Ceph存储集群提供了基本的存储服务,允许Ceph在一个统一的系统中唯一地传送对象,块和文件存储。 但是,不限于使用RESTful,块或POSIX接口。 基于RADOS,Librados API使您能够创建自己的Ceph存储群集接口。Librados API使 阅读全文

posted @ 2017-04-07 17:00 波神 阅读(12999) 评论(27) 推荐(5) 编辑

kubernetes使用ceph
摘要:一、有一个ceph cluster,假设已经准备好了,文档网上一大堆 二、开始集成ceph和kuberntes 2.1 禁用rbd features rbd image有4个 features,layering, exclusive-lock, object-map, fast-diff, deep 阅读全文

posted @ 2017-04-06 13:59 波神 阅读(2822) 评论(0) 推荐(0) 编辑

1 2 下一页