上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 15 下一页
摘要: 只在这里做简单的演示 ceotos7 环境 3个mon节点 3个osd节点 环境搭建我这里不再叙述 我们查看一下分区情况: [root@ceph_1 ~]# lsblkNAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTsda 8:0 0 100G 0 disk ├─sda 阅读全文
posted @ 2017-10-27 15:30 多看多学多记多实践 阅读(917) 评论(0) 推荐(0) 编辑
摘要: ceph中两种类型分区的type code: 4fbd7e29-9d25-41b8-afd0-062c0ceff05d 有人会好奇为啥要给分区设置固定的uuid呢,原因是ceph通过uuid来区分你是osd分区还是journal分区之后,再决定数据放在哪里 参考文档有解释:http://www.cn 阅读全文
posted @ 2017-10-26 16:23 多看多学多记多实践 阅读(1687) 评论(0) 推荐(0) 编辑
摘要: 谷忠言 一,背景 目前项目所用的ceph集群内部的一个节点, 一般需要管理大约十块硬盘左右的数据存储空间,外加一到两块ssd组成的journal空间。Ceph要求每个osd对应的数据盘挂载到特定的目录,对应的ssd的journal分区也不能加载错,否则osd 无法启动。 目前对于数据盘的挂载采用的是 阅读全文
posted @ 2017-10-26 16:19 多看多学多记多实践 阅读(4996) 评论(0) 推荐(0) 编辑
摘要: 很多的用户在提到 Ceph 性能的时候都会提到“写放大”这点,实际上就是 FileJournal 在起作用。只要使用默认的 FileStore,所有数据包括 metadata 都会在 FileJournal 上预写一份。那么本文就会介绍 FileJournal 在 FileStore 存储引擎上提供 阅读全文
posted @ 2017-10-25 14:40 多看多学多记多实践 阅读(2590) 评论(0) 推荐(0) 编辑
摘要: 简介 sgdisk是Linux下操作GPT分区的工具,就像fdisk是操作MBR分区的工具。关于GPT和MBR的区别请参考: http://www.anchor.com.au/blog/2012/10/the-difference-between-booting-mbr-and-gpt-with-g 阅读全文
posted @ 2017-10-25 10:11 多看多学多记多实践 阅读(6824) 评论(0) 推荐(0) 编辑
摘要: 在前面一篇文章中,我们看到,当使用filestore时,osd会把磁盘分成data和journal两部分。这主要是为了支持object的transaction操作。我的想法是,ceph需要具有数据保护功能,从client端写入的数据(以返回I/O Completion为标志)不能丢失。对于objec 阅读全文
posted @ 2017-10-24 18:32 多看多学多记多实践 阅读(7179) 评论(0) 推荐(1) 编辑
摘要: 在虚拟化及云计算技术大规模应用于企业数据中心的科技潮流中,存储性能无疑是企业核心应用是否虚拟化、云化的关键指标之一。传统的做法是升级存储设备,但这没解决根本问题,性能和容量不能兼顾,并且解决不好设备利旧问题。因此,企业迫切需要一种大规模分布式存储管理软件,能充分利用已有硬件资源,在可控成本范围内提供 阅读全文
posted @ 2017-10-24 17:45 多看多学多记多实践 阅读(5431) 评论(0) 推荐(0) 编辑
摘要: 对Ceph在OpenStack中的价值进行简要介绍,并且对Ceph和Swift进行对比。 对于一个IaaS系统,涉及到存储的部分主要是块存储服务模块、对象存储服务模块、镜像管理模块和计算服务模块。具体针对OpenStack而言,则分别对应为其中的Cinder、Swift、Glance和Nova四个项 阅读全文
posted @ 2017-10-24 17:08 多看多学多记多实践 阅读(817) 评论(0) 推荐(0) 编辑
摘要: 本文将对Ceph的工作原理和若干关键工作流程进行扼要介绍。如前所述,由于Ceph的功能实现本质上依托于RADOS,因而,此处的介绍事实上也是针对RADOS进行。对于上层的部分,特别是RADOS GW和RBD. 本文将首先介绍RADOS中最为核心的、基于计算的对象寻址机制,然后说明对象存取的工作流程, 阅读全文
posted @ 2017-10-24 15:53 多看多学多记多实践 阅读(7042) 评论(0) 推荐(2) 编辑
摘要: Ceph存储系统的逻辑层次结构如下图所示[1]。 Ceph系统逻辑层次结构自下向上,可以将Ceph系统分为四个层次: (1)基础存储系统RADOS(Reliable, Autonomic, Distributed Object Store,即可靠的、自动化的、分布式的对象存储) 顾名思义,这一层本身 阅读全文
posted @ 2017-10-24 15:20 多看多学多记多实践 阅读(1164) 评论(0) 推荐(0) 编辑
上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 15 下一页