【共享服务】iscsi多路径配置
一、安装部署#
1、前言#
普通的电脑主机都是一个硬盘挂接到一个总线上,这里是一对一的关系。而到了有光纤组成的SAN环境,或者由iSCSI组成的IPSAN环境,由于主机和存储通过了光纤交换机或者多块网卡及IP来连接,这样的话,就构成了多对多的关系。也就是说,主机到存储可以有多条路径可以选择。主机到存储之间的IO由多条路径可以选择。每个主机到所对应的存储可以经过几条不同的路径,如果是同时使用的话,I/O流量如何分配?其中一条路径坏掉了,如何处理?还有在操作系统的角度来看,每条路径,操作系统会认为是一个实际存在的物理盘,但实际上只是通向同一个物理盘的不同路径而已,这样是在使用的时候,就给用户带来了困惑。多路径软件就是为了解决上面的问题应运而生的。
多路径的主要功能就是和存储设备一起配合实现如下功能:
- 故障的切换和恢复
- IO流量的负载均衡
- 磁盘的虚拟化
为了主机可以使用 iSCSI 多路径访问存储设备,我们需要在主机上安装多路径设备映射器 (DM-Multipath)。多路径设备映射器可以实现主机节点和后端存储之间的多个 I/O 路径配置为一个单一逻辑设备,从而可以提供链路冗余和提高性能。主机通过访问包含多个 I/O 路径的逻辑设备,就可以有效提高后端存储系统的可靠性。
2、部署说明#
节点主机名 | 节点IP | 角色 | 系统版本 |
---|---|---|---|
node230 | 66.66.66.230 | mon、osd | CentOS7.2 |
node231 | 66.66.66.231 | mon、mds、osd、target | CentOS7.2 |
node232 | 66.66.66.232 | mon、mds、osd、target | CentOS7.2 |
本次示例由分布式存储提供一个1TB大小的rbd(lun01),通过node231、node232分别创建一个target服务共享lun01出去,客户端node220通过iscsi分别与node231、node232建立连接
注:以下操作均在initiator端node220节点下执行
2.1、initiator与target建立连接#
node220节点分别通过节点node231、node232与lun01建立连接,映射到本地磁盘下
lun01通过node231、node232两个节点两条链路映射到node220节点下,映射盘符为sdc和sdd
[root@node220 ~]# iscsiadm -m discovery -t st -p 66.66.66.231
66.66.66.231:3260,1 iqn.vcluster.com:target01
[root@node220 ~]# iscsiadm -m discovery -t st -p 66.66.66.232
66.66.66.232:3260,1 iqn.vcluster.com:target01
[root@node220 ~]# iscsiadm -m node -T iqn.vcluster.com:target01 --login
Logging in to [iface: default, target: iqn.vcluster.com:target01, portal: 66.66.66.231,3260] (multiple)
Logging in to [iface: default, target: iqn.vcluster.com:target01, portal: 66.66.66.232,3260] (multiple)
Login to [iface: default, target: iqn.vcluster.com:target01, portal: 66.66.66.231,3260] successful.
Login to [iface: default, target: iqn.vcluster.com:target01, portal: 66.66.66.232,3260] successful.
[root@node220 ~]# iscsiadm -m node ll
66.66.66.231:3260,1 iqn.vcluster.com:target01
66.66.66.232:3260,1 iqn.vcluster.com:target01
[root@node220 ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223.6G 0 disk
└─md126 9:126 0 212.4G 0 raid1
├─md126p1 259:0 0 200M 0 md /boot/efi
├─md126p2 259:1 0 500M 0 md /boot
└─md126p3 259:2 0 211.7G 0 md
├─centos-root 253:0 0 50G 0 lvm /
├─centos-swap 253:1 0 4G 0 lvm [SWAP]
└─centos-home 253:2 0 157.7G 0 lvm /home
sdb 8:16 0 223.6G 0 disk
└─md126 9:126 0 212.4G 0 raid1
├─md126p1 259:0 0 200M 0 md /boot/efi
├─md126p2 259:1 0 500M 0 md /boot
└─md126p3 259:2 0 211.7G 0 md
├─centos-root 253:0 0 50G 0 lvm /
├─centos-swap 253:1 0 4G 0 lvm [SWAP]
└─centos-home 253:2 0 157.7G 0 lvm /home
sdc 8:32 0 1T 0 disk
sdd 8:48 0 1T 0 disk
2.2、multipath配置#
- 安装multipath软件
[root@node220 ~]# yum install -y device-mapper-multipath
[root@node220 ~]# rpm -qa | grep multipath
device-mapper-multipath-0.4.9-123.el7.x86_64
device-mapper-multipath-libs-0.4.9-123.el7.x86_64
- 生成multipath配置
执行命令mpathconf --enable
,在/etc目录下生成配置文件multipath.conf
[root@node220 ~]# mpathconf --enable
- 修改multipath配置
修改配置文件/etc/mulipath.conf信息如下,之后执行命令systemctl restart multipathd
重启服务
[root@node220 ~]# cat /etc/multipath.conf
defaults {
user_friendly_names yes
}
设置黑名单列表,示例环境sda、sdb磁盘为系统RAID盘,故而排除
blacklist {
devnode "^sd[a-b]"
}
multipaths {
multipath {
path_grouping_policy multibus
#path_checker readsector0
prio "random"
path_selector "round-robin 0"
}
}
devices {
device {
vendor "vcluster"
product "12.2.12"
path_checker readsector0
path_selector "round-robin 0"
failback immediate
no_path_retry fail
}
}
[root@node220 ~]# systemctl restart multipathd
- 查看multipath状态
此时本地可以看到新增的虚拟磁盘/dev/mapper/mpathc
,该虚拟磁盘通过两条iscsi路径提供,当前配置为主备模式(同一时刻只有一条路径处于活动状态,可写入数据)
[root@node220 ~]# multipath -ll
mpathc (360000000000000000e00000000150001) dm-3 vcluster,VIRTUAL-DISK
size=1.0T features='0' hwhandler='0' wp=rw
|-+- policy='service-time 0' prio=1 status=enabled
| `- 45:0:0:1 sdc 8:32 active ready running
`-+- policy='service-time 0' prio=1 status=active
`- 46:0:0:1 sdd 8:48 active ready running
[root@node220 ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223.6G 0 disk
└─md126 9:126 0 212.4G 0 raid1
├─md126p1 259:0 0 200M 0 md /boot/efi
├─md126p2 259:1 0 500M 0 md /boot
└─md126p3 259:2 0 211.7G 0 md
├─centos-root 253:0 0 50G 0 lvm /
├─centos-swap 253:1 0 4G 0 lvm [SWAP]
└─centos-home 253:2 0 157.7G 0 lvm /home
sdb 8:16 0 223.6G 0 disk
└─md126 9:126 0 212.4G 0 raid1
├─md126p1 259:0 0 200M 0 md /boot/efi
├─md126p2 259:1 0 500M 0 md /boot
└─md126p3 259:2 0 211.7G 0 md
├─centos-root 253:0 0 50G 0 lvm /
├─centos-swap 253:1 0 4G 0 lvm [SWAP]
└─centos-home 253:2 0 157.7G 0 lvm /home
sdc 8:32 0 1T 0 disk
└─mpathc 253:3 0 1T 0 mpath
sdd 8:48 0 1T 0 disk
└─mpathc 253:3 0 1T 0 mpath
[root@node220 ~]# cat /proc/partitions
major minor #blocks name
8 16 234431064 sdb
8 0 234431064 sda
9 126 222715904 md126
259 0 204800 md126p1
259 1 512000 md126p2
259 2 221997056 md126p3
253 0 52428800 dm-0
253 1 4194304 dm-1
253 2 165310464 dm-2
8 32 1073741824 sdc
8 48 1073741824 sdd
253 3 1073741824 dm-3
2.3、multipath验证#
验证multipath效果,看能否实现活动路径故障,备用路径接管写入的效果
- 将多路径设备
/dev/mapper/mpathc
挂载到本地目录/client
下,通过vdbench持续读写数据
查看multipath主链路为node232节点,映射磁盘为/dev/sdd
- 停止multipath主链路node232节点的target服务,客户端读写未出现中断情况
此时multipath主链路切换至node231节点下
查看multipath状态,主链路切换至node231节点下
查看/var/log/messages日志打印,multipath检测到sdd磁盘异常,标记为fail状态,当前链路数为1
查看磁盘流量,此时磁盘读写流量切换至sdc磁盘下
当恢复node232节点target服务之后,node232节点重新加入到multipath备链路下
二、常用操作#
1、常用命令#
- 加载内核模块: modprobe dm-multipath; modprobe dm-round-robin
- 刷新所有多路径配置: multipath -F
- 查看多路径: multipath -ll
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· AI技术革命,工作效率10个最佳AI工具