k8s node节点剔除与增加

k8s node节点剔除与增加

 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
节点增加
1. 在 master 节点,获取重新加入集群的 token
kubeadm token create --print-join-command
2. 在 node 节点,安装 docker 环境,与之前部署 k8s 集群操作一致
 
3. 在 master 节点进行操作,排干 pod 所在的node节点( 拿 k8s-node04.bjyzxg.sjhl 举例 )
 kubectl drain   k8s-node04.bjyzxg.sjhl    --delete-local-data --force --ignore-daemonsets  
   在 master 节点进行操作,删除该 node节点 
 kubectl delete node k8s-node04.bjyzxg.sjhl 
4. 在 node 节点执行第一步的结果 join 操作
 kubeadm join 172.25.102.69:8443 --token ak3jyo.inndvdad9i19z8pc     --discovery-token-ca-cert-hash sha256:740268f9b9d0161430b5f47498d941b0a80672f50321ddadbef327a8086f7b40 
5. 在 node 节点操作,安装 ceph 依赖包
yum install ceph-common
 
 
6.另外,对于 node节点 drain 之后需要恢复的,可以执行:
恢复调度
kubectl uncordon node_name

 

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
对于之前是node 节点的,后来剔除过,又因为别的原因还要加入node 节点的
首先执行:
 kubectl drain   k8s-node04.bjyzxg.sjhl    --delete-local-data --force --ignore-daemonsets 
 kubectl delete node k8s-node04.bjyzxg.sjhl
其次执行:
1. kubeadm reset
2. systemctl stop kubelet
3. systemctl stop docker
4. rm -rf /var/lib/cni/
5. rm -rf /var/lib/kubelet/*
6. rm -rf /etc/cni/
7. ifconfig cni0 down
8. ifconfig flannel.1 down
9. ifconfig docker0 down
10. ip link delete cni0
11. ip link delete flannel.1
12. systemctl start docker
最后执行:
 kubeadm join 172.25.102.69:8443 --token ak3jyo.inndvdad9i19z8pc     --discovery-token-ca-cert-hash sha256:740268f9b9d0161430b5f47498d941b0a80672f50321ddadbef327a8086f7b40 
posted @ 2021-01-04 15:40  CloudNativeBJ  阅读(440)  评论(0编辑  收藏  举报