GlusterFS部署
一、GlusterFS概述简介
Glusterfs是一个开源的分布式文件系统,是Scale存储的核心,能够处理千数量级的客户端.在传统的解决 方案中Glusterfs能够灵活的结合物理的,虚拟的和云资源去体现高可用和企业级的性能存储.
Glusterfs由存储服务器、客户端以及NFS/Samba存储网关组成,通过TCP/IP或InfiniBand RDMA网络链接将客户端的存储资块源聚集在一起,使用单一的全局命名空间来管理数据,磁盘和内存资源.
Glusterfs基于堆叠的用户空间设计,可以为不同的工作负载提供高优的性能
二、GlusterFS 的存储类型介绍
分布式卷
文件分布在不同的服务器
单点故障会造成数据丢失
复制卷
顾名思义,就是有备份的卷,至少两台服务器,数据存储会在卷所在节点分别保留一份完整数据
具备冗余性
分布式复制卷
分布式复制卷,包含分布式和复制卷的特性,做少4个节点,最不济也要四个目录
条带卷、分布式条带卷、条带式复制卷
这里不做介绍,我这里用的是分布式复制卷
GlusterFS安装部署
安装
主机 | 目录 |
center4 | /data11/gfs,/data12/gfs |
center3 | /data11/gfs,/data12/gfs |
# yum search centos-release-gluster
# yum install centos-release-gluster4
# yum install glusterfs glusterfs-libs glusterfs-server
启动
# systemctl start glusterd.service
# systemctl enable glusterd.service
# systemctl status glusterd.service
添加节点到集群
在其中一台执行就行我用的是两个节点
[root@center4 gfs]# gluster peer probe center3
查看集群节点是否添加成功
[root@nb-yuntai-center4 gfs]# gluster peer status
Number of Peers: 1Hostname: center3
Uuid: 31770193-1d97-406c-97a7-99d7213cf898
State: Peer in Cluster (Connected)
创建分布式复制卷
先创建目录,两台机器都要创建
[root@center4 gfs] mkdir /data{11..12}/gfs
创建gluster卷
[root@center4 gfs]# gluster volume create cneter replica 2 center3:/data12/gfs center3:/data11/gfs center4:/data12/gfs center4:/data11/gfs force
执行命令可以看到数据卷data11,data12已添加成功
[root@center3 ~]# gluster volume info center
[root@center3 ~]# gluster volume start center
[root@center3 ~]# gluster volume status center
Status of volume: center
Gluster process TCP Port
测试gluster
创建挂载目录
[root@center3 ~]# mkdir /data11/test
gfs挂载到/data11/test下
[root@center3 ~]# mount.glusterfs center4:center /data11/test
在/data11/test 创建文件
[root@center3 test]# touch {1..10}
分别到两台gfs路径下可以看到,文件被分别存在了gfs卷下
[root@center3 test]# ll /data11/gfs/ total 0 -rw-r--r-- 2 root root 0 Aug 10 15:50 1 -rw-r--r-- 2 root root 0 Aug 10 15:50 5 -rw-r--r-- 2 root root 0 Aug 10 15:50 7 -rw-r--r-- 2 root root 0 Aug 10 15:50 8 -rw-r--r-- 2 root root 0 Aug 10 15:50 9 [root@center3 test]# ll /data12/gfs/ total 0 -rw-r--r-- 2 root root 0 Aug 10 15:50 1 -rw-r--r-- 2 root root 0 Aug 10 15:50 5 -rw-r--r-- 2 root root 0 Aug 10 15:50 7 -rw-r--r-- 2 root root 0 Aug 10 15:50 8 -rw-r--r-- 2 root root 0 Aug 10 15:50 9 [root@center4 test]# ll /data11/gfs/ total 0 -rw-r--r-- 2 root root 0 Aug 10 15:50 2 -rw-r--r-- 2 root root 0 Aug 10 15:50 3 -rw-r--r-- 2 root root 0 Aug 10 15:50 4 -rw-r--r-- 2 root root 0 Aug 10 15:50 6 -rw-r--r-- 2 root root 0 Aug 10 15:50 10 [root@center4 test]# ll /data12/gfs/ total 0 -rw-r--r-- 2 root root 0 Aug 10 15:50 2 -rw-r--r-- 2 root root 0 Aug 10 15:50 3 -rw-r--r-- 2 root root 0 Aug 10 15:50 4 -rw-r--r-- 2 root root 0 Aug 10 15:50 6 -rw-r--r-- 2 root root 0 Aug 10 15:50 10
删除测试文件
rm -f /data11/test/{1..10}
删除test下的文件则集群下的对应文件也会被删除
下一篇介绍 gfs应用到k8s
改行去放羊