修改pod ip地址段

网络为cannal,报错:

error in getting result from AddNetworkList: failed to allocate for range 0: no IP addresses available in range set: 192.168.1.33-192.168.1.62

分析

从字面意思是说,在这个ip地址段已经没有可用的ip了,说明已经分配完了。

而k8s的网络有pod 网络、service网络以及宿主机网络,这个提示很明显是pod网络。既然是没有可用ip可分配了,1.33~1.62也就只有30个ip地址,那就去看看pod cidr的规划,以及这个服务调度到的node上所分配的pod地址段和已经在node上运行的pod。

controllermanager中的cidr相关配置:

--cluster-cidr=192.168.1.0/24
--node-cidr-mask-size=27
--allocate-node-cidrs=true

问题node已分配网络:

kubectl  get node nodexxxx -o yaml >>nodexxxx.yaml
cat nodexxxx.yaml
spec:
  podCIDR: 192.168.1.32/27

问题node上已经运行的pod数量:

[root@kube-master]$ kubectl  get  po  -A -o wide --kubeconfig=/etc/kubernetes/kubelet.kubeconfig |grep node_ip |wc -l
30 

 由上图我们来算一下:

192.168.1.0/24 node掩码为27 那么每个node上只能分配到30个可用pod ip,
则最多能有30个pod运行,而问题node上刚好已经跑了30个pod,当再有pod调度过
来,那就有问题了(其实按理说都不应该再被调度过来的,这一点需要看看k8s的调度策略)。
而且算下来,就支持8个node,每个node上30个pod,似乎是有点少。

 

由以上做一个总结:出现问题的根本原因是pod cidr规划的不够完美,需要做一些修改。

解决办法

由上面可知,决定扩大cidr。这里计划是将192.168.1.0/24改为192.168.1.0/20,node掩码由27改为24。另外,由于集群中已经运行了一些pod,所以需要先修改集群的cidr,然后新增几个节点,把已经运行的服务强制调度到新的节点上,然后删除旧的节点,然后再重新加入。因为node分配到的pod cidr是一开始就分配好了,即使修改了集群cidr,还是对已经存在的node不起作用,另外我这里只有一个master,所以master不会重建

具体过程

  1. 修改组件中关于cidr的设置并重启,kubelet也重启下。

  2. 修改calico ip pool。

 1.保存现有ip pool信息
   kubectl get ippool k8s-ippool -o yaml > k8s-ippool.yaml
  2.修改k8s-ippool.yaml中cidr为新的cidr
  3.删除现有ip pool
   kubectl delete ippool k8s-ippool
  4.创建新的ip pool
   kubectl create -f k8s-ippool.yaml
  1. 更新节点网络

     原因:容器网络扩大了,假如我们不剔除旧的node,而直接添加新的node,则新旧  node之间的容器网络是不通的,所以需要更新一下旧node的iptables规则,以及重启flannel。每个node都要操作

1.查看当前iptables规则

iptables-save | grep -v KUBE- | grep -v cali- | grep -v LOADBALANCER- | grep -v CNI- | grep 192.168

 2.重启flnanel

3.查看要执行的命令

iptables-save -t nat| grep -v KUBE- | grep -v cali- | grep -v LOADBALANCER- | grep -v CNI- | grep 192.168.1.0/24 | sed 's/-A/-D/' | xargs -L 1 echo iptables -t nat
iptables-save -t filter| grep -v KUBE- | grep -v cali- | grep -v LOADBALANCER- | grep -v CNI- | grep 192.168.1.0/24 | sed 's/-A/-D/' | xargs -L 1 echo iptables -t filter

4.修改iptables规则

iptables-save -t nat| grep -v KUBE- | grep -v cali- | grep -v LOADBALANCER- | grep -v CNI- | grep 192.168.1.0/24 | sed 's/-A/-D/' | xargs -L 1 iptables -t nat
iptables-save -t filter| grep -v KUBE- | grep -v cali- | grep -v LOADBALANCER- | grep -v CNI- | grep 192.168.1.0/24 | sed 's/-A/-D/' | xargs -L 1 iptables -t filter

 5.确认iptabes规则正确

iptables-save | grep -v KUBE- | grep -v cali- | grep -v LOADBALANCER- | grep -v CNI- | grep 192.168

 4. 维护旧的节点

    1.增加节点,并确认网络

    2.驱逐旧的节点上的服务

    3.删除旧的节点

    4.重新加入旧的节点,并确认网络

 https://zhuanlan.zhihu.com/p/87791837

posted @ 2020-05-18 08:47  凡人半睁眼  阅读(1534)  评论(0编辑  收藏  举报