二进制部署K8S报错集记录最新报错(七个报错,总有一个适合你,是不是很感动)

一、报错现象

1. 报错现象:
failure: repodata/repomd.xml from mirrors.aliyun.com_docker-ce_linux_centos_docker-ce.repo: [Errno 256] No more mirrors to try.
https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo./repodata/repomd.xml: [Errno 14] HTTPS Error 404 - Not Found
 
① 将之前的官方源从备份目录中移出,然后正常安装了docker的依赖包
② 设置了阿里云镜像源
③ 使用yum安装docker-ce报错
2. 检查过程
① 在node2上测试docker-ce可以正常安装,然后检查了一下yum源,下图是正常node2的
② 下图是无法安装node1的
3. 解决方法
① 将阿里的repo源放入备份目录中
② 重新设置阿里云镜像源,然后可以正常安装了

二、报错现象

1. 报错现象:Error: unknown command “set” for “etcdctl”

 2. 解决办法

etcdctl v3版接口关闭,只需要把set改成put即可、或者再切回v2版本
① 可以看到API 3版本是没有set 选项的
② 切换至v2版本后在查看
③ 再次执行 分配子网段

三.执行自带脚本报错

正常脚本启动
3.1解决办法,因为kubeconfig脚本里面有kubectl命令,所以要做软连接,让系统识别。
一条命令解决ln -s /opt/kubernetes/bin/* /usr/local/bin/
没做前
做了之后
正常启动生成文件

 四.报错现象

晚上去办事,虚拟机挂载,第二天打开,发现flanneld服务ping不通
状况如下
解决办法先重启flanneld,在重启docker,再次看他的ip会变化
再次ping,他通了

 五.报错现象

晚上有事又发现在master上创建执行拉取镜像,10分钟查看发现状态是拉取失败
解决办法,在node节点上,创建阿里云加速器
等待一会,再查看下载成功

 六.报错现象

又拉取centos镜像,发现CrashLoopBackOff,这是k8s的debug问题,我们可以查看他的详细信息
再查看他的日志,发现什么都没有,解决办法,直接删除,重新拉取。

 七.k8s 部署问题解决(节点状态为 NotReady)

使用kubectl get nodes查看已加入的节点时,出现了Status为NotReady的情况。

root@master1:~# kubectl get nodes
NAME      STATUS      ROLES    AGE    VERSION
master1   NotReady    master   152m   v1.18.1
worker1   NotReady    <none>   94m    v1.18.1
这种情况是因为有某些关键的 pod 没有运行起来,首先使用如下命令来看一下kube-system的 pod 状态:
kubectl get pod -n kube-system
NAME                              READY   STATUS             RESTARTS   AGE
coredns-bccdc95cf-792px           1/1     Pending            0          3h11m
coredns-bccdc95cf-bc76j           1/1     Pending            0          3h11m
etcd-master1                      1/1     Running            2          3h10m
kube-apiserver-master1            1/1     Running            2          3h11m
kube-controller-manager-master1   1/1     Running            2          3h10m
kube-flannel-ds-amd64-9trbq       0/1     ImagePullBackoff   0          133m
kube-flannel-ds-amd64-btt74       0/1     ImagePullBackoff   0          174m
kube-proxy-27zfk                  1/1     Pending            2          3h11m
kube-proxy-lx4gk                  1/1     Pending            0          133m
kube-scheduler-master1            1/1     Running            2          3h11m

如上,可以看到 pod kube-flannel 的状态是ImagePullBackoff,意思是镜像拉取失败了,所以我们需要手动去拉取这个镜像。这里可以看到某些 pod 运行了两个副本是因为我有两个节点存在了。
你也可以通过kubectl describe pod -n kube-system <服务名>来查看某个服务的详细情况,如果 pod 存在问题的话,你在使用该命令后在输出内容的最下面看到一个[Event]条目,如下:
root@master1:~# kubectl describe pod kube-flannel-ds-amd64-9trbq -n kube-system
...
Events:
  Type     Reason                  Age                 From              Message
  ----     ------                  ----                ----              -------
  Normal   Killing                 29m                 kubelet, worker1  Stopping container kube-flannel
  Warning  FailedCreatePodSandBox  27m (x12 over 29m)  kubelet, worker1  Failed create pod sandbox: rpc error: code = Unknown desc = failed to create a sandbox for pod "kube-flannel-ds-amd64-9trbq": Error response from daemon: cgroup-parent for systemd cgroup should be a valid slice named as "xxx.slice"
  Normal   SandboxChanged          19m (x48 over 29m)  kubelet, worker1  Pod sandbox changed, it will be killed and re-created.
  Normal   Pulling                 42s                 kubelet, worker1  Pulling image "quay.io/coreos/flannel:v0.11.0-amd64"

手动拉取镜像
flannel的镜像可以使用如下命令拉到,如果你是其他镜像没拉到的话,百度一下就可以找到国内的镜像源地址了,这里记得把最后面的版本号修改成你自己的版本,具体的版本号可以用上面说的kubectl describe命令看到:

拉去镜像:
docker pull quay-mirror.qiniu.com/coreos/flannel:v0.11.0-amd64
等镜像拉取完了之后需要把镜像名改一下,改成 k8s 没有拉到的那个镜像名称,我这里贴的镜像名和版本和你的不一定一样,注意修改:
docker tag quay-mirror.qiniu.com/coreos/flannel:v0.11.0-amd64 quay.io/coreos/flannel:v0.11.0-amd64
修改完了之后过几分钟 k8s 会自动重试,等一下就可以发现不仅flannel正常了,其他的 pod 状态也都变成了Running,这时再看 node 状态就可以发现问题解决了:

[kubeadm@server1 ~]$ kubectl get nodes
NAME      STATUS   ROLES    AGE    VERSION
server1   Ready    master   150m   v1.18.1
server2   Ready    <none>   150m   v1.18.1
server3   Ready    <none>   150m   v1.18.1
[kubeadm@server1 ~]$

 

 

 

 



 

posted @ 2021-10-29 00:50  十一没有撤退可言!  阅读(529)  评论(0编辑  收藏  举报