K8S网络插件-calico安装

本文参考:kubernetes进阶实战 马永亮注

1、介绍

calico是一个三层的虚拟网络解决方案,他把每个节点都当做虚拟路由器,每个POD都是虚拟路由器下的的终端,各节点通过BGP协议生成路由规则,实现pod互通

与flannel相比calico支持网络策略,允许用户动态定义访问控制规则以管控进出容器的数据报文,为POD间通信按需设置安全策略

calico默认使用IPIP,还支持XLAN 实现跨网段节点间POD的通信,BGP实现同网段节点之间的POD通信

具体信息:https://projectcalico.docs.tigera.io/about/about-calico

2、calico部署

calico/node:每个节点服务器上的代理,提供felix、bird4、bird6和confd等守护进程,可以在每个节点上独立与k8s集群部署,也可以以deamonset,运行在k8s集群上(后面实例也才有这种方式)

calico/kube-controller:calico与k8s协同的插件

获取清单文件:curl https://docs.projectcalico.org/manifests/calico.yaml -O

2.1、清单中的重要配置:

主要配置在calico.yaml 中的calico-node deamonset中环境变量设置

CALICO_IPV4POOL_IPIP:启用IPIP隧道配置

Always:全流量使用IPIP隧道转发

Cross-SubNet:跨网段节点使用IPIP隧道转发,同一网段节点使用BGP路由直接转发

Never:不启用IPIP

CALICO_IPV4POOL_VXLAN::启用VXLAN配置

Always:全流量使用VXLAN隧道转发

Cross-SubNet:跨网段节点使用VXLAN隧道转发,同一网段节点使用BGP路由直接转发

Never:不启用VXLAN

2.2、配置POD网段和网卡

在calico-node 容器中设置环境变量:

container:

    env:

     - name: IP_AUTODETECTION_METHOD

        value: interface=ens37

     - name: CALICO_IPV4POOL_CIDR

value: "10.200.0.0/16"    #注意和安装k8s集群时为pod分配的网段一致

             - name: CALICO_IPV4POOL_BLOCK_SIZE
               value: "24"   #以该掩码位数,给节点分配POD网段,默认值为26

 3、实验

环境:

kube-master01: 10.0.2.200/24

kube-node01: 10.0.2.201/24

kube-node02: 10.0.2.202/24

kube-node04: 10.0.1.204/24

测试应用

kind: Namespace
apiVersion: v1
metadata:
  name: test
  namespace: test

---
kind: Deployment
apiVersion: apps/v1
metadata:
  name: test
  namespace: test
spec:
  replicas: 4
  selector:
    matchLabels:
      app: demo
  template:
    metadata:
      name: demo
      namespace: test
      labels:
        app: demo
    spec:
      containers:
      - name: demov10
        image: ikubernetes/demoapp:v1.0
        imagePullPolicy: Always
        ports:
        - name: demov10
          containerPort: 80
          protocol: TCP
        resources:
          limits:
            cpu: 100m
            memory: 100Mi
          requests:
            cpu: 50m
            memory: 50Mi
test.yaml

3.1、CALICO_IPV4POOL_VXLAN 设置为:cross-subnet

CALICO_IPV4POOL_IPIP设置为:Nerver

每个节点一个calico-node pod

外加一个calico-kube-controllers pod

可以看出各节点获得的POD网段如下:

kube-master01:10.200.235.0/244

kube-node01:10.200.2.0/24

kube-node02: 10.200.175.0/24

kube-node04: 10.200.255.0/24

每个节点会生成一个calico.vxlan 接口,用于跨网段节点的POD间通信

10.20.255.0在kube-node04 10.0.1.204与其余三个节点不在一个网络,通过vxlan通信,其余节点间pod通信,直接通过BGP路由通信

3.2、CALICO_IPV4POOL_VXLAN 设置为:Nerver

CALICO_IPV4POOL_IPIP设置为:ross-subnet

跨网段节点POD使用IPIP,同网段节点POD直接通过BGP路由

每个节点都会产生一个tunl0用于IPIP封装,供跨网段节点间POD通新,同网段节点间的POD通信,直接通过BGP路由

在node节点会为每一个POD生成一个接口和POD对应

跨网段节点间POD通信

kube-node01上的pod访问kube-node04上的pod

分别在kube-node04的ens37和tunl0口抓包分析:

 

可以看到外层IP时节点IP,内层IP为POD的IP,tunl0上也能抓到POD IP通信的报文

同一网段节点POD通信

kube-node01上的pod访问kube-node02上的pod

在kube-node02 ens37上抓包,可以看到报文未经过IPIP封装

 

如果集群节点超过50个,calico节点基于kubernetes API存取数据会增加API Server的通信压力。calico提供了置清单,https://docs.projectcalico.org.manifests/calico-typha.yaml,主要添加了deployment/calico-typha和service/calico-typha两个资源,将节点和Kubernetes API的通信集中起来,统一与API Server进行交互,减小API Server 维护链接的开销 

 

posted @ 2022-01-27 16:54  西风发财  阅读(5807)  评论(0编辑  收藏  举报