摘要: Crash Module The crash module collects information about daemon crashdumps and stores it in the Ceph cluster for later analysis. Daemon crashdumps are 阅读全文
posted @ 2020-09-28 23:13 Oops!# 阅读(638) 评论(0) 推荐(0) 编辑
摘要: 一:Ceph基础介绍 Ceph是一个可靠地、自动重均衡、自动恢复的分布式存储系统,根据场景划分可以将Ceph分为三大块,分别是对象存储、块设备存储和文件系统服务。 Ceph相比其它存储的优势点在于它不单单是存储,同时还充分利用了存储节点上的计算能力,在存储每一个数据时,都会通过计算得出该数据存储的位 阅读全文
posted @ 2020-09-28 18:11 Oops!# 阅读(1327) 评论(0) 推荐(1) 编辑
摘要: Pools Pools are logical partitions for storing objects. When you first deploy a cluster without creating a pool, Ceph uses the default pools for stori 阅读全文
posted @ 2020-09-28 14:05 Oops!# 阅读(681) 评论(0) 推荐(0) 编辑
摘要: Monitoring a Cluster Once you have a running cluster, you may use the ceph tool to monitor your cluster. Monitoring a cluster typically involves check 阅读全文
posted @ 2020-09-28 13:54 Oops!# 阅读(783) 评论(0) 推荐(0) 编辑
摘要: Logging and Debugging Typically, when you add debugging to your Ceph configuration, you do so at runtime. You can also add Ceph debug logging to your 阅读全文
posted @ 2020-09-28 12:35 Oops!# 阅读(1100) 评论(0) 推荐(0) 编辑
摘要: Running Ceph with systemd For all distributions that support systemd (CentOS 7, Fedora, Debian Jessie 8 and later, SUSE), ceph daemons are now managed 阅读全文
posted @ 2020-09-28 12:17 Oops!# 阅读(364) 评论(0) 推荐(0) 编辑
摘要: Ceph为了保障数据高可用一般来说同一份数据会存储3份,那么数据在写入的时候就会存在数据同步的问题。Ceph也是提供了对应的工具可以周期性的进行数据一致性检查。一般来说有以下两种检查方式: 1)轻量级:主要是检查object数量、object源数据(object metadata)信息是否一致(文件 阅读全文
posted @ 2020-09-28 12:00 Oops!# 阅读(1143) 评论(0) 推荐(0) 编辑
摘要: ceph换盘 1、手动删除osd,下面以osd1为例 停止服务 # systemctl stop ceph-osd@1 从crush map中移除osd # ceph osd out osd.1 # ceph osd crush remove osd1 删除认证信息 # ceph auth del 阅读全文
posted @ 2020-09-28 11:35 Oops!# 阅读(428) 评论(0) 推荐(0) 编辑
摘要: 1 OSD扩容/缩容 1.1 横向扩容(scale out) 横向扩容:简单的理解,就是增加节点,通过增加节点来达到增加容量的目的 1、部署环境,参见《02 Ceph集群规划及部署mimic》,按照所有标注node节点的执行,包括安装环境准备,用户创建,配置源,安装ceph等; 2、ceph-dep 阅读全文
posted @ 2020-09-28 10:34 Oops!# 阅读(2735) 评论(1) 推荐(0) 编辑