k8s node节点剔除与增加
k8s node节点剔除与增加
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
|
节点增加 1. 在 master 节点,获取重新加入集群的 token kubeadm token create --print- join -command 2. 在 node 节点,安装 docker 环境,与之前部署 k8s 集群操作一致 3. 在 master 节点进行操作,排干 pod 所在的node节点( 拿 k8s-node04.bjyzxg.sjhl 举例 ) kubectl drain k8s-node04.bjyzxg.sjhl --delete-local-data --force --ignore-daemonsets 在 master 节点进行操作,删除该 node节点 kubectl delete node k8s-node04.bjyzxg.sjhl 4. 在 node 节点执行第一步的结果 join 操作 kubeadm join 172.25.102.69:8443 --token ak3jyo.inndvdad9i19z8pc --discovery-token-ca-cert-hash sha256:740268f9b9d0161430b5f47498d941b0a80672f50321ddadbef327a8086f7b40 5. 在 node 节点操作,安装 ceph 依赖包 yum install ceph-common 6.另外,对于 node节点 drain 之后需要恢复的,可以执行: 恢复调度 kubectl uncordon node_name |
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
|
对于之前是node 节点的,后来剔除过,又因为别的原因还要加入node 节点的 首先执行: kubectl drain k8s-node04.bjyzxg.sjhl --delete-local-data --force --ignore-daemonsets kubectl delete node k8s-node04.bjyzxg.sjhl 其次执行: 1. kubeadm reset 2. systemctl stop kubelet 3. systemctl stop docker 4. rm -rf / var /lib/cni/ 5. rm -rf / var /lib/kubelet/* 6. rm -rf /etc/cni/ 7. ifconfig cni0 down 8. ifconfig flannel.1 down 9. ifconfig docker0 down 10. ip link delete cni0 11. ip link delete flannel.1 12. systemctl start docker 最后执行: kubeadm join 172.25.102.69:8443 --token ak3jyo.inndvdad9i19z8pc --discovery-token-ca-cert-hash sha256:740268f9b9d0161430b5f47498d941b0a80672f50321ddadbef327a8086f7b40 |