一、实验目的
1.掌握Linux系统下软RAID的实现方法;
2.掌握RAID5的配置过程;
3. 通过实验熟悉RAID、5的特点。
二、实验内容及步骤
1、在VMware中创建一台Linux。 2、将该Linux加入4块虚拟磁盘(选择SCSI类型。2G)。 3、在Linux中使用madam创建RAID5,三块磁盘做RAID5。一块磁盘做备盘。 4、格式化并挂载RAID5。 5、在RAID5中创建一些文件和目录以便故障检測用。 6、改动配置文件,让RAID5开机自己主动载入。 7、关闭系统。 |
8、删除一块硬盘(可删除后加入的第二块硬盘)。
9、重新启动系统。查看RAID5卷中的数据是否丢失。
10、依据实验结果对实验各内容进行总结。
三、实验要求
1.实验中细致观察、记录、比較实验结果,假设不一致应找出原因。
2.实验中凡是须要命名的地方。均以自己名字的全拼来命名,能够用不同后缀来区分。如张三的两台server能够命名为:zhangsanS1,zhangsanS2。
实验步骤与实验过程:
1、先在VMware中安装Red Hat Enterprise Linux 6。
2、给Red Hat EnterpriseLinux 6加入4块虚拟磁盘(SCSI,2G),当中三块做RAID5,一块做备用盘。
3、启动Red Hat EnterpriseLinux 6。
4、来配置RAID5。
5、关闭Red Hat EnterpriseLinux 6。
6、删除一块后加入的磁盘(能够删除所加入的第二块磁盘)。
7、又一次启动Red HatEnterprise Linux 6。
8、来检验坏掉一块磁盘后RAID5的情况,可以发现,数据仍然可以正常訪问。
须要的磁盘个数:三块以上我们在这里加入六块硬盘当中四块做磁盘阵列。1块做预备(spare)磁盘,另一块留作备用注意:raid5 的磁盘使用率是N-1 也就是说四个100G的硬盘可用空间是300G。
实验步骤:
1查看一下系统中的磁盘设备fdisk –l
2接下来创建raid了使用的命令是mdadm,假设没有请先安装mdadm软件包
Rhel5的光盘中有!
mdadm --create --auto=yes /dev/md0 --level=5--raid-devices=4 --spare-devices=1 /dev/sd[b-f]
參数解释:
--create //表示要创建raid
--auto=yes /dev/md0 //新建立的软件磁盘陈列设备为md0,md序号能够为0-9
--level=5 //磁盘阵列的等级。这里是reid5
--raid-devices //加入作为预备(spare)磁盘的块数
/dev/sd[b-f] //磁盘阵列所使用的设备,还能够写成“/dev/sdb /dev/sdd /dev/sde /dev/sdf”相同能够缩写为:mdadm –C /dev/md0 –l5 –n4 –x1 /dev/sd[b-f]
查看RAID是否成功的创建是否执行的正常,有两种方法
查看具体信息:mdadm --detail /dev/md0 命令查看RAID的具体信息
较为简单的查看:能够直接查看/proc/mdstat 的文件看到RAID执行的情况
cat /proc/mdstat
格式化而且挂载和使用创建的RAID
mkfs.exe3 /dev/md0 //格式化 raid5磁盘为 mkfs.exe
mikdir /mnt/raid5 //在/mnt下创建/raid5 目录,用于挂载md0的
mount /dev/md0 /mnt/raid5 //将md0 挂载到raid5上去
查看一下挂载情况
df –hT
试一下新加上的RAID是不是能够使用,向里面写入文件
设置开机自己主动启动RAID以及自己主动挂载
让RAID开机启动, RIAD配置文件名称字为mdadm.conf , 这个文件默
认是不存在的,要自己建立.该配置文件存在的主要作 用是系统启动的时候能
够自己主动载入软RAID,同一时候也方便日后管理. 说明下,mdadm.conf文件主要由以
下部分组成:
DEVICES选项制定组成RAID全部设备, ARRAY选项指定阵列的
设备名、RAID级别、阵列中活动设备的数目以及设备的UUID号.
自己主动启动raid
先建立/etc/mdadm.conf 这个文件
mdadm --detail --scan > /etc/mdadm.conf
要对这个文件做一下修改:vi /etc/mdadm.conf
在设置RAID的自己主动挂载
改动文件 vi/etc/fstab
在里面加上一行 /dev/md0 /mnt/raid5 ext3 defaults 0 0
模拟RAID5中的磁盘损坏,验证spare磁盘的功能(在raid5中同意一块磁盘
的损坏,也就是我们设置的spare磁盘会马上的替换坏掉的磁盘进行raid的重
建,保障数据的安全性):
mdadm –manage /dev/md0 –fail /dev/sdd //使用此命令设置sdd成为出错的状态
再来查看一下磁盘的信息:mdadm –-detail/dev/md0
简单的查看一下RAID的情况:
创建完毕也就是说明raid5 已经自己主动的恢复了
查看一下raid5是不是能够正常使用!
向里面写写数据。
将出错的磁盘移除并增加新的磁盘做备用的spare磁盘
先是删除损坏的磁盘sdd
mdadm –manage /dev/md0 --remove/dev/sdd //将坏掉的磁盘sdd从raid中除在加入一块新的作为spare磁盘:
mdadm –manage /dev/md0 --add/dev/sdg //加入新的磁盘作sdg
Raid5 扩容: 利用Grow模式
mdadm –manage /dev/md0 --add/dev/sdg 加入一块新硬盘
active sync /dev/sdb1 # raid的真成员
spare /dev/sdc1 #raid备用成员
mdadm –G /dev/md0 –n“x” #-G是Grow模式“x”是raid真成员的个数
命令參数
-A = --assemble 激活
-S = --stop 停止
-D = --detail 查看raid具体信息
-C = -- create 建立raid设备
-v = --verbose 显示建立过程的具体信息
-l = --level raid的级别
-n = --raid-devices raid设备数
-s = --scan 扫描raid设备
-f = --fail 标示坏的硬盘
-a = --add 加入硬盘
-r = -remove 移除坏的硬盘
如今再看一下磁盘信息情况:mdadm –-detail/dev/md0
关闭RAID的方法:
>直接卸载/dev/md0,而且凝视掉/etc/fstab文件里的配置
umount /dev/md0 //解除挂接
vi /etc/fstab //将fstab里面的开机自己主动挂载凝视掉
#/dev/md0 /mnt/raid5 exit3 defaults 0 0
实验结果:
通过实验完毕了下面几点:
1.掌握Linux系统下软RAID的实现方法。
2.掌握RAID5的配置过程; 3. 通过实验熟悉RAID、5的特点。 在VMware中创建一台Linux。 将该Linux加入4块虚拟磁盘(选择SCSI类型,2G)。在Linux中使用madam创建RAID5,三块磁盘做RAID5,一块磁盘做备盘。格式化并挂载RAID5。在RAID5中创建一些文件和目录以便故障检測用。 改动配置文件,让RAID5开机自己主动载入。 关闭系统。 删除一块硬盘(可删除后加入的第二块硬盘)。 重新启动系统,查看RAID5卷中的数据是否丢失。依据实验结果对实验各内容进行总结。 |
实验总结:
学会了一些主要的操作,理解了raid 实现的基本原理:
配置RAID1的步骤相对RAID5来说不是非常烦琐,只是在使用mdadm时应该注意就是不要在一块硬盘上划分多个分区,再将多个分区组成阵列,这样的方式 不但不能提高硬盘的訪问速度,反而会减少总体系统的性能。正确的方法是将一块硬盘分成一个或多个分区。然后将多块不同硬盘的分区组成阵列。
另外系统文件夹如 /usr最好不要放在阵列中。由于一旦阵列出现故障系统将无法正常执行。
设置开机自己主动启动RAID以及自己主动挂载
让RAID开机启动, RIAD配置文件名称字为mdadm.conf , 这个文件默认是不存在的,要自己建立.该配置文件存在的主要作 用是系统启动的时候可以自己主动载入软RAID,同一时候也方便日后管理.
mdadm.conf文件主要由下面部分组成:
DEVICES选项制定组成RAID全部设备, ARRAY选项指定阵列的
设备名、RAID级别、阵列中活动设备的数目以及设备的UUID号.
自己主动启动raid
先建立/etc/mdadm.conf 这个文件
mdadm --detail --scan > /etc/mdadm.conf
要对这个文件做一下修改:vi /etc/mdadm.conf
数据在现今企业中占有重要的地位,数据存储的安全性有而是人们使用计算机要注意的重要问题之中的一个。通常情况下人们在server端採用各种冗余磁盘阵列RAID技 术来保护数据,中高档的server一般都提供了昂贵的硬件RAID控制器,可是非常多中小企业没有足够的经费承受这笔开销。
我们有没有方法能够通过软件来实现 RAID呢?实际上在Linux下能够通过软件来实现硬件的RAID功能,这样既节省了投资,又能达到非常好的效果。
启动和停止RAID1阵列的命令。启动直接运行“mdadm -as /dev/md0”就可以。
运行mdadm -s /dev/md0将停止RAID1阵列。另外在rc.sysinit启动脚本文件里增加命令mdadm -as /dev/md0后将设置为阵列随系统启动而启动。