centos7.6进行软raid5制作

 centos7.6进行软raid5制作

 

备注(本次记录源于同事的分享)

原分享地址:同事分享直达

一、系统版本说明

 

1、系统版本说明

这里要制作软RAID 的操作系统版本是CentOS 7.6 64位。

 

2、检查服务器是否已经安装mdadm服务

[root@host2 ~]# rpm -qa |grep mdadm

 

3、安装mdadm服务
如果上面的命令没有结果输出,那么进行安装mdadm

[root@host2 ~]# yum install -y mdadm

 

4、查看磁盘情况
可以看到系统有/dev/sdb、/dev/sdc、/dev/sdd、/dev/sde四个没有分区的磁盘。
注意:使用命令创建软raid时磁盘可以分区也可以不分区,但是使用disk命令分区时,磁盘的分区类型可以修改成 Linux raid autodetect,这样即使不配置 /etc/mdadm.conf 文件,系统重启时raid也能自启动。

 

[root@host2 ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda
8:0 0 60G 0 disk ├─sda1 8:1 0 1G 0 part /boot ├─sda2 8:2 0 16G 0 part [SWAP] └─sda3 8:3 0 43G 0 part / sdb 8:16 0 5G 0 disk sdc 8:32 0 5G 0 disk sdd 8:48 0 5G 0 disk sde 8:64 0 5G 0 disk sr0 11:0 1 4.3G 0 rom

二、磁盘分区、制作raid


1、磁盘分区


1.1和1.2根据磁盘大小选择其中一个命令去分区就行,一般选择parted命令分区。

注意:fdisk分区采用的是MBR格式,MBR无法支持超过2TB的硬盘,超过2TB的硬盘需要使用GPT分区,这里GPT分区用的是parted命令。


1.1、fdisk分区

分区示例如下以磁盘/dev/sdb分区为例,/dev/sdc、/dev/sdd、/dev/sde这三个磁盘分区与/dev/sdb分区过程一样。

[root@host2 ~]# fdisk /dev/sdb
Welcome to fdisk (util-linux 2.23.2).

Changes will remain in memory only, until you decide to write them.
Be careful before using the write command.

Device does not contain a recognized partition table
Building a new DOS disklabel with disk identifier 0x8f2aa0c0.

Command (m for help): n                        # 开始创建分区
Partition type:
   p   primary (0 primary, 0 extended, 4 free)
   e   extended
Select (default p): p                          # p 开始创建主分区(e 是创建逻辑分区)
Partition number (1-4, default 1):             # 回车(分区默认编号为1)
First sector (2048-10485759, default 2048):    # 回车(分区大小默认从2048开始)
Using default value 2048
Last sector, +sectors or +size{K,M,G} (2048-10485759, default 10485759): # 回车(分区默认最大)
Using default value 10485759
Partition 1 of type Linux and of size 5 GiB is set

Command (m for help): t                        # 开始修改分区类型
Selected partition 1
Hex code (type L to list all codes): fd        # 修改分区类型为Linux raid autodetect
Changed type of partition 'Linux' to 'Linux raid autodetect'

Command (m for help): p                        # 查询分区结果

Disk /dev/sdb: 5368 MB, 5368709120 bytes, 10485760 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x8f2aa0c0

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1            2048    10485759     5241856   fd  Linux raid autodetect

Command (m for help): w                        # 保存分区并退出
The partition table has been altered!

Calling ioctl() to re-read partition table.
Syncing disks.
[root@host2 ~]# partprobe                      # 更新磁盘分区

 

分区后查询磁盘结果如下

[root@host2 ~]# lsblk
NAME   MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda      8:0    0   60G  0 disk 
├─sda1   8:1    0    1G  0 part /boot
├─sda2   8:2    0   16G  0 part [SWAP]
└─sda3   8:3    0   43G  0 part /
sdb      8:16   0    5G  0 disk 
└─sdb1   8:17   0    5G  0 part 
sdc      8:32   0    5G  0 disk 
└─sdc1   8:33   0    5G  0 part 
sdd      8:48   0    5G  0 disk 
└─sdd1   8:49   0    5G  0 part 
sde      8:64   0    5G  0 disk 
└─sde1   8:65   0    5G  0 part 
sr0     11:0    1  4.3G  0 rom  

 

1.2、parted分区

分区示例如下以磁盘/dev/sdg分区为例:

[root@host137 ~]# parted /dev/sdg
GNU Parted 3.1
Using /dev/sdg
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) mklabel gpt                    # 创建一个gpt类型的分区表                                  
Warning: The existing disk label on /dev/sdg will be destroyed and all data on this disk will be lost. Do you want to continue?
Yes/No? yes                                                               
(parted) mkpart primary 0% 100%         # “primary” 是名称,可以任意起,0% 100%指定分区的起始和结束位置                                  
(parted) p                              # 查看分区情况                                  
Model: ATA HUS726060ALE610 (scsi)
Disk /dev/sdg: 6001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags: 

Number  Start   End     Size    File system  Name     Flags
 1      1049kB  6001GB  6001GB               primary

(parted) q                             # 保存分区并退出                                   
Information: You may need to update /etc/fstab.
[root@host137 ~]# partprobe            # 更新磁盘分区

 

2、创建raid并挂载

-C 指定创建raid名称;-a yes 自动创建设备文件;-l 指定raid级别;-n 磁盘个数;-c 数据块大小, 默认大小为64k,一般不用-c。
cat /proc/mdstat 命令可以看到raid里面的磁盘spare rebuilding同步的进度。
这里以raid5为例(raid5这里用了4块磁盘做演示,一般组建软raid5 3块磁盘就可以):

[root@host2 ~]# mdadm -C /dev/md0 -a yes -l 5 -n 4 /dev/sd{b,c,d,e}1 -c 256       
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[root@host2 ~]# mdadm -Ds                  # 查看raid信息
ARRAY /dev/md0 metadata=1.2 spares=1 name=host2:0 UUID=e2ea5580:d5f14d94:9365e4fe:cdfe1b92
[root@host2 ~]# echo 'DEVICE /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1' > /etc/mdadm.conf 
  # DEVICE为实际做RAID的磁盘盘符名
  
[root@host2 ~]# mdadm -Ds >> /etc/mdadm.conf 
# 将raid信息保存到配置文件/etc/mdadm.conf,如果配置文件不完整,
建议参考标准配置文件根据实际情况补全,否则没有配置文件机器重启后新建的分区盘符会变为默认的md127。

[root@host2 ~]# mkdir /data0               # 创建挂载点目录
[root@host2 ~]# mkfs.xfs /dev/md0          # 创建raid磁盘文件系统为xfs
meta-data=/dev/md0               isize=512    agcount=16, agsize=245504 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=3927552, imaxpct=25
         =                       sunit=64     swidth=192 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=64 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
[root@host2 ~]# blkid /dev/md0            # 查看raid磁盘文件系统和UUID
/dev/md0: UUID="43487c20-3b1f-477c-9a32-714d5982603a" TYPE="xfs"
[root@host2 ~]# 
sed -i '$a\UUID="43487c20-3b1f-477c-9a32-714d5982603a" /data0  xfs defaults,_netdev 0 0' /etc/fstab    
# 用/dev/md0的UUID添加永久挂载,_netdev参数是标明/dev/md0为网络设备,
服务器重启的时候系统找到/dev/md0设备就挂载,找不到就跳过挂载直接开机。如果没有_netdev参数,
系统找不到/dev/md0设备就开不了机。
[root@host2 ~]# mount -a                 
# 验证开机自动挂载配置文件/etc/fstab中刚才写入的配置是否正确,然后可以用df -h命令查看/dev/md0是否挂载上

[root@host2 ~]# tail -n 1 /etc/fstab      # 查看永久挂载结果
UUID="43487c20-3b1f-477c-9a32-714d5982603a" /data0                   xfs defaults,_netdev 0 0
[root@host2 ~]# mdadm -D /dev/md0         # -D 查看raid详细信息,可以发现4个都是working状态的

/dev/md0:
           Version : 1.2
     Creation Time : Wed Dec 16 18:02:25 2020
        Raid Level : raid5
        Array Size : 15710208 (14.98 GiB 16.09 GB)
     Used Dev Size : 5236736 (4.99 GiB 5.36 GB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Wed Dec 16 18:20:10 2020
             State : clean 
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 256K

Consistency Policy : resync

              Name : host2:0  (local to host host2)
              UUID : e2ea5580:d5f14d94:9365e4fe:cdfe1b92
            Events : 22

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
       2       8       49        2      active sync   /dev/sdd1
       4       8       65        3      active sync   /dev/sde1

 

如果对操作不放心,做完后可以重启下测试raid磁盘状态及挂载是否正常。

 

3、验证raid

验证命令:

lsblk
blkid
df -h
cat /etc/fstab
mdadm -D /dev/md0
mdadm -D /dev/md1
cat /proc/mdstat
cat /etc/mdadm.conf
mdadm -Ds

 

4、移除坏盘、添加新磁盘

 

1、模拟磁盘损坏
[root@host2 ~]# mdadm -f /dev/md0 /dev/sdb1
mdadm: set /dev/sdb1 faulty in /dev/md0
2、查看raid5信息
[root@host2 ~]# mdadm -D /dev/md0 
       0       8       17        -      faulty   /dev/sdb1

3、移除损坏磁盘
[root@host2 ~]# mdadm -r /dev/md0 /dev/sdb1
4、添加新的磁盘
[root@host2 ~]# mdadm -a /dev/md0 /dev/sdg1

 

5、删除、重建raid

1、删除软raid:
(1)、umount /data0               # 删除之前先要先卸载挂载点
(2)、mdadm --stop /dev/md0       # 停止raid
(2)、mdadm --misc --zero-superblock /dev/sdb1 /dev/sdd1 /dev/sdd1 /dev/sde1  
 # 清空/dev/sdb1磁盘raid信息
(3)、vim /etc/fstab                # 删除或注释/etc/fstab上的挂载信息
(4)、vim /etc/mdadm.conf           # 删除或注释/etc/mdadm.conf的RAID信息
如果做完上面所有的操作后,发现/dev/下还有md0这个设备文件存在,直接rm -f /dev/md0即可。

2、重建启动软raid的命令:
如果已经配置了/etc/mdadm.conf配置文件,则:mdadm -As /dev/md0
如果没有配置/etc/mdadm.conf配置文件,则:mdadm -As /dev/md0 /dev/sd{b,c,d,e}1

 

三、注意事项

1、如果配置文件/etc/mdadm.conf不完整,建议参考标准配置文件根据实际情况补全,否则没有配置文件机器重启后新建的分区盘符会变为默认的md127。
可通过如下命令将raid信息保存到配置文件/etc/mdadm.conf中,DEVICE为实际做RAID的磁盘盘符名:

[root@host2 ~]# echo 'DEVICE /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1' > /etc/mdadm.conf
[root@host2 ~]# mdadm -Ds >> /etc/mdadm.conf

2、在配置文件/etc/fstab中挂载时,注意添加_netdev参数,这是标明/dev/md0为网络设备,服务器重启的时候系统找到/dev/md0设备就挂载,找不到就跳过挂载,直接开机。如果没有_netdev参数,系统找不到/dev/md0设备就开不了机。

[root@host2 ~]# tail -n 1 /etc/fstab      # 查看永久挂载结果
UUID="43487c20-3b1f-477c-9a32-714d5982603a" /data0                   xfs defaults,_netdev 0 0

 

posted on 2021-12-04 21:00  晨哥  阅读(619)  评论(0编辑  收藏  举报

导航