redis cluster 故障后,主从位于不同节点的修复【转】
今天机房有一台物理机宕机了,有一个虚拟机192.168.1.122,其上有两个redis 节点也不能用了。
redis没有备份,丢失的192.168.1.122节点只能重建。
我找运维的人,分配了一个全新的虚拟机,并且分配的ip的地址仍然是192.168.1.122。
我在上面装了两个全新的redis,并且无数据:
1
2
|
/usr/ local /redis/bin/redis-server /opt/cachecloud/conf/redis-cluster-6396.conf & /usr/ local /redis/bin/redis-server /opt/cachecloud/conf/redis-cluster-6397.conf & |
此时,这两个redis还是独立的实例,和原来的集群没有任何联系。
在集群内任意节点,执行cluster meet命令,将192.168.1.122:6396和 192.168.1.122:6397两个实例加入到集群里面:
1
2
3
4
|
192.168.1.123:6387> cluster meet 192.168.1.122 6396 OK 192.168.1.123:6387> cluster meet 192.168.1.122 6397 OK |
查看集群状态:
1
2
3
4
5
6
7
8
9
|
192.168 . 1.123 : 6387 > cluster nodes 6bf77cfcd046681eef9c3d7f94a66709a4a691e4 : 0 slave,fail,noaddr 9eb3af9feb3492514834b573260ed8e56419e3c5 1669974772279 1669974767266 5 disconnected a227a5bef13fe9a33f9e472e6421b66a0a47d60f 192.168 . 1.122 : 6396 master - 0 1670075583027 0 connected 9eb3af9feb3492514834b573260ed8e56419e3c5 192.168 . 1.71 : 6387 master - 0 1670075580019 5 connected 0 - 5461 89d9854ee74c8546fad5da04c5a92492c86905d0 192.168 . 1.123 : 6387 myself,master - 0 0 2 connected 5462 - 10923 02a9161dab2bbffbd3066f49d22344356bf9ea33 192.168 . 1.71 : 6388 master - 0 1670075579015 4 connected 10924 - 16383 6b85f48692c226691f3980ad2f52ef103c4ef05e : 0 slave,fail,noaddr 89d9854ee74c8546fad5da04c5a92492c86905d0 1669974770273 1669974763256 4 disconnected 5d1891df2da56a5fa9ec5b91905e9b3fe1ceba04 192.168 . 1.122 : 6397 master - 0 1670075582025 7 connected 261e6aa4e54d2725445849b525d4ef2be6c85764 192.168 . 1.123 : 6388 slave 02a9161dab2bbffbd3066f49d22344356bf9ea33 0 1670075584030 4 connected |
看到192.168.1.122:6396和192.168.1.122:6397加进来了,它们的角色都是master。
接下来,我们把 192.168.1.122:6396和192.168.1.122:6397分别作为192.168.1.71:6387和192.168.1.123:6387的从节点。
1
2
3
4
5
6
7
|
192.168.1.122 : 6396 > CLUSTER REPLICATE 9eb3af9feb3492514834b573260ed8e56419e3c5 OK 其中 9eb3af9feb3492514834b573260ed8e56419e3c5 为需要的主节点node id 192.168.1.122 : 6396 为需要全换的主机 以下同理: 192.168.1.122 : 6397 > CLUSTER REPLICATE 89d9854ee74c8546fad5da04c5a92492c86905d0 OK |
修改从为指定的主,结果如下:
1
2
3
4
5
6
7
|
cluster nodes 02 a 9161 dab 2 bbffbd 3066 f 49 d 22344356 bf 9 ea 33 192.168 . 1.71: 6388 master - 0 1670077220086 4 connected 10924 -16383 5 d 1891 df 2 da 56 a 5 fa 9 ec 5 b 91905 e 9 b 3 fe 1 ceba 04 192.168 . 1.122: 6397 myself,slave 89 d 9854 ee 74 c 8546 fad 5 da 04 c 5 a 92492 c 86905 d 0 0 0 7 connected 9 eb 3 af 9 feb 3492514834 b 573260 ed 8 e 56419 e 3 c 5 192.168 . 1.71: 6387 master - 0 1670077223093 5 connected 0 -5461 261 e 6 aa 4 e 54 d 2725445849 b 525 d 4 ef 2 be 6 c 85764 192.168 . 1.123: 6388 slave 02 a 9161 dab 2 bbffbd 3066 f 49 d 22344356 bf 9 ea 33 0 1670077224097 4 connected a 227 a 5 bef 13 fe 9 a 33 f 9 e 472 e 6421 b 66 a 0 a 47 d 60 f 192.168 . 1.122: 6396 slave 9 eb 3 af 9 feb 3492514834 b 573260 ed 8 e 56419 e 3 c 5 0 1670077219083 5 connected 89 d 9854 ee 74 c 8546 fad 5 da 04 c 5 a 92492 c 86905 d 0 192.168 . 1.123: 6387 master - 0 1670077222092 2 connected 5462 -10923 |
可以看到正常了。
但是上面的拓扑中,还是存在一个隐患,就是如果192.168.1.71宕机后,其上的1和3两个主节点都会丢失,存在极大的隐患。
下面我们停掉192.168.1.71的1实例,让192.168.1.122的上的1实例提升为主节点:
1
|
/usr/local/bin/redis-cli -h 192.168.1.71 -p 6387 -a '123' shutdown |
看到进行了主从切换,这样的拓扑图是安全的,不会出现一个机器宕机,而丢失数据的情况。
转自
redis cluster 故障后,主从位于不同节点的修复。_ITPUB博客
http://blog.itpub.net/28916011/viewspace-2926609/