随笔分类 -  ceph

摘要:原文链接: https://www.jianshu.com/p/afb6277dbfd6 1.设置集群仅支持 Luminous(或者L之后的)客户端 具体命令: ceph osd set-require-min-compat-client luminous 或 ceph osd set-requir 阅读全文
posted @ 2020-04-27 17:02 salami_china 阅读(1153) 评论(0) 推荐(0) 编辑
摘要:参考链接: mgr balancer模式探索及配置方法1 mgr balancer模式探索及配置方法2 1.ceph mgr module enable balancer [root@controller ~]# ceph mgr module enable balancer module 'bal 阅读全文
posted @ 2020-04-27 14:34 salami_china 阅读(1283) 评论(0) 推荐(0) 编辑
摘要:链接地址:https://ceph.io/rados/new-in-nautilus-pg-merging-and-autotuning/ [root@controller ~]# ceph osd pool autoscale-status Error ENOTSUP: Module 'pg_au 阅读全文
posted @ 2020-04-26 10:17 salami_china 阅读(1061) 评论(0) 推荐(0) 编辑
摘要:参考链接:https://blog.csdn.net/u010317005/article/details/79242794 问题现象: 原因分析: 数据的不一致性(inconsistent)指对象的大小不正确、恢复结束后某副本出现了对象丢失的情况。数据的不一致性会导致清理失败(scrub erro 阅读全文
posted @ 2020-04-26 10:02 salami_china 阅读(608) 评论(0) 推荐(0) 编辑
摘要:参考链接: 无法删除image报rbd: error: image still has watchers解决方法 解决思路: 在Ceph集群日常运维中,管理员可能会遇到有的image删除不了的情况:1) 由于image下有快照信息,只需要先将快照信息清除,然后再删除该image即可2) 该image 阅读全文
posted @ 2020-01-08 11:03 salami_china 阅读(384) 评论(0) 推荐(0) 编辑
摘要:参考文章 ceph的python_api文档: http://docs.ceph.com/docs/master/rados/api/python/ 连接ceph集群 import rados cluster = rados.Rados(conffile='/etc/ceph/ceph.conf') 阅读全文
posted @ 2020-01-07 10:23 salami_china 阅读(2893) 评论(0) 推荐(0) 编辑
摘要:原文链接:https://blog.csdn.net/lzw06061139/article/details/51953900 获取monmap转储当前Ceph集群的monmap到/tmp/monmap文件 [root@ceph-xxx-xxx ~]# ceph mon getmap -o /tmp 阅读全文
posted @ 2019-11-20 14:45 salami_china 阅读(493) 评论(0) 推荐(0) 编辑
摘要:通过cgroup将ceph-osd进程与某一个 CPU core 绑定脚本: 阅读全文
posted @ 2019-08-29 10:04 salami_china 阅读(1071) 评论(0) 推荐(0) 编辑
摘要:原文链接:构建ceph deb 安装包 1.解压ceph压缩包 sudo tar -xvf ceph-12.2.8.tar.gz 2.开始制作deb cd ceph-12.2.8 sudo dpkg-buildpackage -j12 阅读全文
posted @ 2019-04-17 14:28 salami_china 阅读(481) 评论(0) 推荐(0) 编辑
摘要:问题:configure: error: "Can't find boost spirit headers" 解决: 推荐:sudo apt-get install libboost-dev 1.下载boost_1_65_1.tar.gz, 链接地址:http://www.boost.org/use 阅读全文
posted @ 2019-04-15 19:12 salami_china 阅读(548) 评论(0) 推荐(0) 编辑
摘要:1.安装依赖环境 yum install gcc make python-devel openssl-devel graphviz autoconf automake rpm-build redhat-rpm-config libtool 2.下载 kernel 源码: yum install "k 阅读全文
posted @ 2019-03-31 09:14 salami_china 阅读(1373) 评论(0) 推荐(0) 编辑
摘要:1、提取已有的CRUSH map ,使用-o参数,ceph将输出一个经过编译的CRUSH map 到您指定的文件ceph osd getcrushmap -o crushmap.txt 2、反编译你的CRUSH map ,使用-d参数将反编译CRUSH map 到通过-o 指定的文件中crushto 阅读全文
posted @ 2018-11-08 09:59 salami_china 阅读(336) 评论(0) 推荐(0) 编辑
摘要:1.备份数据 2.删除掉docker volume ls下的卷 3.开始部署 ceph-mon 4.恢复数据 5.重启 ceph-mon 容器 阅读全文
posted @ 2018-07-19 16:09 salami_china 阅读(1014) 评论(0) 推荐(0) 编辑
摘要:1. 查看PG 2. pg映射OSD位置 阅读全文
posted @ 2018-07-19 15:49 salami_china 阅读(4143) 评论(0) 推荐(0) 编辑
摘要:造成集群状态health_warn:clock skew detected on mon节点的原因有两个,一个是mon节点上ntp服务器未启动,另一个是ceph设置的mon的时间偏差阈值比较小。 排查时也应遵循先第一个原因,后第二个原因的方式。 第一步:确认ntp服务是否正常工作 第二步:修改cep 阅读全文
posted @ 2018-07-19 15:28 salami_china 阅读(1007) 评论(0) 推荐(0) 编辑
摘要:通常在创建pool之前,需要覆盖默认的pg_num,官方推荐: 若少于5个OSD, 设置pg_num为128。 5~10个OSD,设置pg_num为512。 10~50个OSD,设置pg_num为4096。 超过50个OSD,可以参考pgcalc计算。 阅读全文
posted @ 2018-07-13 17:11 salami_china 阅读(2936) 评论(0) 推荐(0) 编辑
摘要:1:从crush中移除节点ceph osd crush remove osd.0 2:删除节点ceph osd rm osd.0 3:删除节点认证(不删除编号会占住)ceph auth del osd.0 阅读全文
posted @ 2018-07-09 15:06 salami_china 阅读(537) 评论(0) 推荐(0) 编辑
摘要:问题 原因是在删除容器和配置文件后,kolla生成的相关volume是没有删除的。其还存在于/var/lib/docker/volume下。因此当再次构建kolla时,这些已经存在的volume会阻止ceph_mon的启动,会导致上述错误Ceph keyring无法获取而产生的一些错误。因此 删除掉 阅读全文
posted @ 2018-07-09 11:22 salami_china 阅读(3006) 评论(0) 推荐(0) 编辑
摘要:# 开启 dashboard (在任一 mon_server 节点上)ceph mgr module enable dashboard # 设置dashboard 端口和IPceph config-key set mgr/dashboard/server_port 7000 (指定集群dashboa 阅读全文
posted @ 2018-07-09 10:11 salami_china 阅读(279) 评论(0) 推荐(0) 编辑
摘要:1 Ceph基础介绍 Ceph是一个可靠地、自动重均衡、自动恢复的分布式存储系统,根据场景划分可以将Ceph分为三大块,分别是对象存储、块设备存储和文件系统服务。在虚拟化领域里,比较常用到的是Ceph的块设备存储,比如在OpenStack项目里,Ceph的块设备存储可以对接OpenStack的cin 阅读全文
posted @ 2018-07-06 18:49 salami_china 阅读(1101) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示