随笔分类 - 分布式文件系统
摘要:1. 下载 https://dl.min.io/server/minio/release/linux-amd64/minio 2. minio 拷贝到 /usr/local/bin/目录 mv minio /usr/local/bin/ chmod +x /usr/local/bin/minio 3
阅读全文
摘要:ceph 寻址过程 1. file object映射, 把file分割成N个相同的对象 2. object - PG 映射, 利用静态hash得到objectID的伪随机值,在 "位与" mask 上使得object获取属于自己的PG 3. pg -- osd 映射, 将pg映射到实际的存储单元os
阅读全文
摘要:一、准备环境 4台adminos7.4 环境,存储节点上两块磁盘(sda操作系统,sdb数据盘) clientadmin storage1storage2storage3二、配置环境 1、修改主机名(对应节点上执行) # hostnamectl set-hostname client# hostna
阅读全文
摘要:性能指标 衡量块存储产品的性能指标主要包括:IOPS、吞吐量和访问时延。 IOPS IOPS是Input/Output Operations per Second,即每秒能处理的I/O个数,用于表示块存储处理读写(输出/输入)的能力。如果要部署事务密集型应用,典型场景比如数据库类业务应用,需要关注I
阅读全文
摘要:集群规划配置master1 172.16.230.21master2 172.16.230.22master3 172.16.230.23node1 172.16.230.26node2 172.16.230.27node3 172.16.23028 一、 模拟monitor 宕机状态2. 测试删除
阅读全文
摘要:1、三个ceph monitor节点clock skew时钟偏移问题?解决:(1)其他控制节点更改ntp.conf与controller01进行同步,如果ntpd不生效,使用date -s "10:24:25"命令强制更改。(2)[root@node-3 ~]# ceph health detail
阅读全文
摘要:整体架构 bluestore的诞生是为了解决filestore自身维护一套journal并同时还需要基于系统文件系统的写放大问题,并且filestore本身没有对SSD进行优化,因此bluestore相比于filestore主要做了两方面的核心工作: 去掉journal,直接管理裸设备 针对SSD进
阅读全文
摘要:ceph 性能测试 1. 测试准备 1.1 磁盘读写性能 1.1.1 单个 OSD 磁盘写性能,大概 165MB/s。 测试发现,其结果变化非常大,有时候上 75,有时是150. 1.1.2 两个OSD同时写性能,大概 18 MB/s。怎么差距那么大呢?几乎是单个磁盘的 1/10 了。 1.1.4
阅读全文
摘要:[root@localhost ~]# rm -rf /etc/yum.repos.d/*.repo 下载阿里云的base源 [root@localhost ~]# wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com
阅读全文
摘要:第一:安装依赖包: yum install libibverbs librdmacm xfsprogs nfs-utils rpcbind libaio liblvm2app lvm2-devel libevent-devel nfs-utils-lib-devel tcl-devel libsys
阅读全文
摘要:centos7 搭建GlusterFS 转载http://zhaijunming5.blog.51cto.com/10668883/1704535 实验需求:4台机器安装GlusterFS组成一个集群 4个节点的硬盘空间不整合成一个硬盘空间,要求每个节点都存储一份,保证数据安全 环境规划server
阅读全文
摘要:配置 glusterfs 配置 volume GlusterFS中的volume的模式有很多中,包括以下几种: 分布卷(默认模式):即DHT, 也叫 分布卷: 将文件已hash算法随机分布到 一台服务器节点中存储。 复制模式:即AFR, 创建volume 时带 replica x 数量: 将文件复制
阅读全文