k8s--使用 kubeadm 搭建 k8s 1.25.2 版本

前戏

ip 描述  
10.6.215.30 master1  
10.6.215.31 master2  
10.6.215.32 node1  
10.6.215.33 node2

给四台主机分别设置 hostname,后面会根据 hostname 来生成名称

# 每个节点分别设置对应主机名
hostnamectl set-hostname master1  # 在 10.6.215.30 上执行
hostnamectl set-hostname master2  # 在 10.6.215.31 上执行
hostnamectl set-hostname node1  # 在 10.6.215.32 上执行
hostnamectl set-hostname node2  # 在 10.6.215.33 上执行

所有节点都修改 hosts

# 所有节点都修改 hosts
vim /etc/hosts
10.6.215.30 master1
10.6.215.31 master2
10.6.215.32 node1
10.6.215.33 node2

或者使用追加方式

cat <<EOF >> /etc/hosts
10.6.215.30 master1
10.6.215.31 master2
10.6.215.32 node1
10.6.215.33 node2
EOF

修改完成之后,去 ping 一下,master1 ping node1/node2

以及 node1 ping master1/master2/node2,node2 ping master1/master2/node1,如果都可以 ping 成功,则 host 配置的没问题

Kubernetes 安装

下面命令在所有节点执行

下面命令在所有节点执行

下面命令在所有节点执行

关闭 swap

禁用交换分区。为了保证 kubelet 正常工作,你必须禁用交换分区。详情见 安装 kubeadm

# 所有节点执行
[root@master1 opt]# swapoff -a
[root@master1 opt]# sed -i 's/.*swap.*/#&/' /etc/fstab
关闭 SELinux

为了避免一些权限上的麻烦,我们直接关闭 SELinux,关闭 SELinux 实际上是不可取的,它相对不安全,不建议在生产环境这样做.

# 所有节点执行
[root@master1 opt]# setenforce 0
[root@master1 opt]# sed -i 's/^SELINUX=enforcing$/SELINUX=permissive/' /etc/selinux/config
关闭 firewalld

kubernetes 的运行需要 linux 开放一些端口,详情见 检查所需端口 你可以精确的只打开所需的端口,这样更安全。我为了方便直接关闭了防火墙,实际上是不安全的,不建议在生产环境这样做.

# 所有节点执行
[root@master1 opt]# systemctl disable firewalld
[root@master1 opt]# systemctl stop firewalld

配置 Kubernetes

详情见 Install and configure prerequisites。我们需要提前配置好 kubernetes 的一些通用配置项

# 所有节点执行
[root@master1 opt]# cat <<EOF | sudo tee /etc/modules-load.d/k8s.conf
overlay
br_netfilter
EOF

# 所有节点执行
[root@master1 opt]# modprobe overlay
[root@master1 opt]# modprobe br_netfilter
# 所有节点执行
[root@master1 opt]# cat <<EOF | sudo tee /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-iptables  = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.ip_forward                 = 1
EOF

让我们的配置生效

# 所有节点安装
[root@master1 opt]# sysctl --system

containerd 安装

Kubernates 中 pod 的运行必须有容器运行环境,以前 kubernetes 是使用 Docker,后面主要使用 containerd 等,目前支持的运行时可以参考 container-runtimes

本文使用 containerd,前面我们也讲过 Docker 也是基于 containerd 的,那么我们直接使用 Docker 的安装源,只安装 containerd 就行

移除可能安装过的 Docker 包

# 所有节点
[root@master1 opt]# sudo yum remove docker \
                  docker-client \
                  docker-client-latest \
                  docker-common \
                  docker-latest \
                  docker-latest-logrotate \
                  docker-logrotate \
                  docker-engine
安装 yum-utils
# 所有节点执行
[root@master1 opt]# sudo yum install -y yum-utils

添加 docker 软件源

# 所有节点执行
[root@master1 opt]# sudo yum-config-manager \
--add-repo \
https://download.docker.com/linux/centos/docker-ce.repo

安装 containerd
# 所有节点执行
sudo yum install containerd.io -y

设置 containerd 开机自启动

# 所有节点执行
[root@master1 opt]# systemctl enable containerd
[root@master1 opt]# systemctl start containerd

修改 containerd 使用 systemd

# 所有节点执行
[root@master1 opt]# containerd  config default > /etc/containerd/config.toml
[root@master1 opt]# sed -i 's#k8s.gcr.io#registry.aliyuncs.com/google_containers#g' /etc/containerd/config.toml
[root@master1 opt]# sed -i 's/SystemdCgroup = false/SystemdCgroup = true/g' /etc/containerd/config.toml

重启 containerd

# 所有节点执行
[root@master1 opt]# systemctl daemon-reload
[root@master1 opt]# systemctl enable --now containerd
[root@master1 opt]# systemctl restart  containerd

安装 Kubernetes 组件

配置软件源,这里使用 aliyun 的源,官方的源是 google 的,没法在国内访问

# 所有节点执行
[root@master1 opt]# cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
enabled=1
gpgcheck=1
repo_gpgcheck=1
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

安装kubelet,kubeadm,kubectl

# 所有节点执行
[root@master1 opt]# yum install kubelet kubeadm kubectl --nogpgcheck -y

设置kubelet自启动

# 所有节点执行
[root@master1 opt]# systemctl enable kubelet

安装crictl

# 所有节点执行
[root@master1 opt]# VERSION="v1.23.0"
[root@master1 opt]# curl -L https://github.com/kubernetes-sigs/cri-tools/releases/download/$VERSION/crictl-${VERSION}-linux-amd64.tar.gz --output crictl-${VERSION}-linux-amd64.tar.gz

设置crictl

# 所有节点执行
[root@master1 opt]# crictl config --set runtime-endpoint=unix:///run/containerd/containerd.sock

初始化集群,只在 master 上执行

# 在担任 master 的 k8s 节点上执行,使用 kubeadm 初始化集群
# 这里 apiserver-advertise-address 的值是 master 的主机的 ip
[root@master1 opt]# kubeadm init  --apiserver-advertise-address=10.6.215.50 --image-repository registry.aliyuncs.com/google_containers

全部的 worker 节点上执行我红框内的部分,加入集群
# 只在 node 节点上执行
[root@node1 ~]# kubeadm join 10.6.215.50:6443 --token 1snv5t.ts4a8tlpa99xeeym \
--discovery-token-ca-cert-hash sha256:a24b8eeaa555ed1e4f9a92c6404a611a030cb581a1fb423c360afb38e24cd781

配置网络插件 calico

节点加入集群后,起初是NotReady的,这是正常的,我们配置好网络就行,在担任 master 节点上执行执行下面的命令,等待一段时间全部节点就会处于Ready状态

[root@master1 opt]# kubectl get nodes
NAME      STATUS     ROLES           AGE   VERSION
master1   NotReady   control-plane   47s   v1.25.2
node1     NotReady   <none>          19s   v1.25.2
node2     NotReady   <none>          2s    v1.25.2

安装 calico 插件

# 只在 master 上执行
[root@master1 opt]# kubectl apply -f https://docs.projectcalico.org/manifests/calico.yaml

等待中,没有节点是Ready的,不要着急等一段时间就全部Ready

[root@master1 opt]# kubectl get node
NAME      STATUS   ROLES           AGE     VERSION
master1   Ready    control-plane   5m23s   v1.25.2
node1     Ready    <none>          4m55s   v1.25.2
node2     Ready    <none>          4m38s   v1.25.2

 

posted @ 2022-09-23 12:33  邹邹很busy。  阅读(2542)  评论(0编辑  收藏  举报