kubectl基础命令

集群

kubectl get cs # 集群健康情况
kubectl cluster-info # 集群核心组件运行情况
kubectl get namespaces # 命名间名
kubectl version # 版本
kubectl api-versions # API
kubectl get events # 查看事件
kubectl get nodes //获取node节点
kubectl delete node k8s2 //删除节点


查看集群健康状态
# kubectl get cs
Warning: v1 ComponentStatus is deprecated in v1.19+
NAME                 STATUS    MESSAGE             ERROR
scheduler            Healthy   ok                  
controller-manager   Healthy   ok                  
etcd-1               Healthy   {"health":"true"}   
etcd-4-events        Healthy   {"health":"true"}   
etcd-3-events        Healthy   {"health":"true"}   
etcd-5-events        Healthy   {"health":"true"}   
etcd-2               Healthy   {"health":"true"}   
etcd-0               Healthy   {"health":"true"}   

查看集群信息 
# kubectl cluster-info 
Kubernetes control plane is running at https://10.21.15.213:5443
CoreDNS is running at https://10.21.15.213:5443/api/v1/namespaces/kube-system/services/coredns:dns/proxy

To further debug and diagnose cluster problems, use 'kubectl cluster-info dump'

命名空间
# kubectl get namespaces
NAME              STATUS   AGE
default           Active   21d
kube-node-lease   Active   21d
kube-public       Active   21d
kube-system       Active   21d


版本
# kubectl version
Client Version: version.Info{Major:"1", Minor:"21", GitVersion:"v1.21.5", GitCommit:"aea7bbadd2fc0cd689de94a54e5b7b758869d691", GitTreeState:"clean", BuildDate:"2021-09-15T21:10:45Z", GoVersion:"go1.16.8", Compiler:"gc", Platform:"linux/amd64"}
Server Version: version.Info{Major:"1", Minor:"21+", GitVersion:"v1.21.5-r0-CCE22.5.1", GitCommit:"0a0877083e0c5aa13b74f80ca96d9fc90547e1e2", GitTreeState:"clean", BuildDate:"2022-09-01T15:22:01Z", GoVersion:"go1.16.15", Compiler:"gc", Platform:"linux/amd64"}

API
# kubectl api-versions
admissionregistration.k8s.io/v1
admissionregistration.k8s.io/v1beta1
apiextensions.k8s.io/v1
apiextensions.k8s.io/v1beta1
apiregistration.k8s.io/v1
apiregistration.k8s.io/v1beta1
apps/v1
authentication.k8s.io/v1
authentication.k8s.io/v1beta1
authorization.k8s.io/v1
authorization.k8s.io/v1beta1
autoscaling.cce.io/v1alpha1
autoscaling.cce.io/v2alpha1
autoscaling/v1
autoscaling/v2beta1
autoscaling/v2beta2
batch/v1
batch/v1beta1
certificates.k8s.io/v1
certificates.k8s.io/v1beta1
config.k8s.io/v1beta1
coordination.k8s.io/v1
coordination.k8s.io/v1beta1
crd.yangtse.cni/v1
discovery.k8s.io/v1
discovery.k8s.io/v1beta1
events.k8s.io/v1
events.k8s.io/v1beta1
extensions/v1beta1
flowcontrol.apiserver.k8s.io/v1beta1
k8s.cni.cncf.io/v1
localvolume.everest.io/v1
metrics.k8s.io/v1beta1
networking.k8s.io/v1
networking.k8s.io/v1beta1
node.k8s.io/v1
node.k8s.io/v1beta1
policy/v1
policy/v1beta1
proxy.exporter.k8s.io/v1beta1
rbac.authorization.k8s.io/v1
rbac.authorization.k8s.io/v1beta1
rbac.cce.io/v1beta1
scheduling.k8s.io/v1
scheduling.k8s.io/v1beta1
snapshot.storage.k8s.io/v1beta1
storage.k8s.io/v1
storage.k8s.io/v1beta1
v1
version.cce.io/v1beta1


# 查看事件
# kubectl get events
LAST SEEN   TYPE      REASON                    OBJECT                       MESSAGE
42m         Normal    Starting                  node/10.21.4.194             Starting kube-proxy.
41m         Normal    Starting                  node/10.21.4.194             Starting kubelet.
41m         Normal    NodeHasSufficientMemory   node/10.21.4.194             Node 10.21.4.194 status is now: NodeHasSufficientMemory
41m         Normal    NodeHasNoDiskPressure     node/10.21.4.194             Node 10.21.4.194 status is now: NodeHasNoDiskPressure
41m         Normal    NodeHasSufficientPID      node/10.21.4.194             Node 10.21.4.194 status is now: NodeHasSufficientPID
41m         Normal    NodeAllocatableEnforced   node/10.21.4.194             Updated Node Allocatable limit across pods
41m         Normal    Synced                    node/10.21.4.194             Node synced successfully

node节点
# kubectl get nodes
NAME          STATUS   ROLES    AGE   VERSION
10.21.4.194   Ready    <none>   42m   v1.21.5-r0-CCE22.5.1

kubectl delete node xxx //删除节点

查看

#终端不退出
kubect get pod -w

查看所有namespace的pods运行情况
kubectl get pods --all-namespaces

查看具体pods,记得后边跟namespace名字哦
kubectl get pods kubernetes-dashboard-76479d66bb-nj8wr --namespace=kube-system

查看pods具体信息
kubectl get pods -o wide kubernetes-dashboard-76479d66bb-nj8wr --namespace=kube-system

查看deployment
kubectl get deployment --all-namespaces

查看kube-system namespace下面的pod/svc/deployment 等等(-o wide 选项可以查看存在哪个对应的节点)
kubectl get pod /svc/deployment -n kube-system

查看 namespace 中的所有 pod 包括未初始化的
kubectl get pods --include-uninitialized

查看deployment
kubectl get deployment nginx-app

查看rc和servers
kubectl get rc,services

查看pods结构信息(重点,通过这个看日志分析错误)
对控制器和服务,node同样有效
kubectl describe pods xxxxpodsname --namespace=xxxnamespace

其他控制器类似吧,就是kubectl get 控制器 控制器具体名称
查看pod日志
kubectl logs $POD_NAME

查看pod变量
kubectl exec my-nginx-5j8ok -- printenv | grep SERVICE

创建

创建
kubectl create -f ./nginx.yaml   # 创建资源
kubectl apply -f xxx.yaml        #(创建+更新,可以重复使用)
kubectl create -f ./              # 创建当前目录下的所有yaml资源
kubectl create -f ./nginx1.yaml -f ./mysql2.yaml # 使用多个文件创建资源
kubectl create -f ./dir           # 使用目录下的所有清单文件来创建资源
kubectl create -f https://git.io/vPieo       # 使用 url 来创建资源
kubectl run -i --tty busybox --image=busybox   ##----创建带有终端的pod
kubectl run nginx --image=nginx               # 启动一个 nginx 实例
kubectl run mybusybox --image=busybox --replicas=5     ----启动多个pod
kubectl explain pods,svc         # 获取 pod 和 svc 的文档

更新

kubectl rolling-update python-v1 -f python-v2.json            # 滚动更新 pod frontend-v1
kubectl rolling-update python-v1 python-v2 --image=image:v2   # 更新资源名称并更新镜像
kubectl rolling-update python --image=image:v2         # 更新 frontend pod 中的镜像
kubectl rolling-update python-v1 python-v2 --rollback     # 退出已存在的进行中的滚动更新
cat pod.json | kubectl replace -f -     # 基于 stdin 输入的 JSON 替换 pod
kubectl expose rc nginx --port=80 --target-port=8000    #为 nginx RC 创建服务,启用本地 80 端口连接到容器上的 8000 端口


更新单容器 pod 的镜像版本(tag)到 v4
kubectl get pod nginx-pod -o yaml | sed 's/(image: myimage):.*$/1:v4/' | kubectl replace -f -
kubectl label pods nginx-pod new-label=awesome # 添加标签
kubectl annotate pods nginx-pod icon-url=http://goo.gl/XXBTWq # 添加注解
kubectl autoscale deployment foo --min=2 --max=10 # 自动扩展 deployment “foo”

编辑资源

kubectl edit svc/docker-registry # 编辑名为 docker-registry 的 service
KUBE_EDITOR="nano" kubectl edit svc/docker-registry # 使用其它编辑器
vim /etc/systemd/system/kubelet.service.d/10-kubeadm.conf #修改启动参数

kubectl set image deployment nginx-dp nginx=nginx:1.17

动态伸缩pod

kubectl scale --replicas=3 rs/foo # 将foo副本集变成3个
kubectl scale --replicas=3 -f foo.yaml # 缩放“foo”中指定的资源。
kubectl scale --current-replicas=2 --replicas=3 deployment/mysql # 将deployment/mysql从2个变成3个
kubectl scale --replicas=5 rc/foo rc/bar rc/baz # 变更多个控制器的数量
kubectl rollout status deploy deployment/mysql # 查看变更进度

label 操作

kubectl label:添加label值 kubectl label nodes node1 zone=north #增加节点lable值 spec.nodeSelector: zone: north #指定pod在哪个节点
kubectl label pod redis-master-1033017107-q47hh role=master #增加lable值 [key]=[value]
kubectl label pod redis-master-1033017107-q47hh role- #删除lable值
kubectl label pod redis-master-1033017107-q47hh role=backend --overwrite #修改lable值

滚动升级

kubectl rolling-update:滚动升级 kubectl rolling-update redis-master -f redis-master-controller-v2.yaml #配置文件滚动升级
kubectl rolling-update redis-master --image=redis-master:2.0 #命令升级
kubectl rolling-update redis-master --image=redis-master:1.0 --rollback #pod版本回滚

etcdctl常用操作

etcdctl cluster-health #检查网络集群健康状态
etcdctl --endpoints=https://10.128.0.81:2379 cluster-health #带有安全认证检查网络集群健康状态
etcdctl member list
etcdctl set /k8s/network/config ‘{ “Network”: “10.1.0.0/16” }’
etcdctl get /k8s/network/config

删除

kubectl delete pod -l app=flannel -n kube-system # 根据label删除:
kubectl delete -f ./pod.json # 删除 pod.json 文件中定义的类型和名称的 pod
kubectl delete pod,service baz foo # 删除名为“baz”的 pod 和名为“foo”的 service
kubectl delete pods,services -l name=myLabel # 删除具有 name=myLabel 标签的 pod 和 serivce
kubectl delete pods,services -l name=myLabel --include-uninitialized # 删除具有 name=myLabel 标签的 pod 和 service,包括尚未初始化的
kubectl -n my-ns delete po,svc --all # 删除 my-ns namespace下的所有 pod 和 serivce,包括尚未初始化的
kubectl delete pods prometheus-7fcfcb9f89-qkkf7 --grace-period=0 --force 强制删除
kubectl delete deployment kubernetes-dashboard --namespace=kube-system
kubectl delete svc kubernetes-dashboard --namespace=kube-system
kubectl delete -f kubernetes-dashboard.yaml
kubectl replace --force -f ./pod.json # 强制替换,删除后重新创建资源。会导致服务中断

交互

kubectl logs nginx-pod # dump 输出 pod 的日志(stdout)
kubectl logs nginx-pod -c my-container # dump 输出 pod 中容器的日志(stdout,pod 中有多个容器的情况下使用)
kubectl logs -f nginx-pod # 流式输出 pod 的日志(stdout)
kubectl logs -f nginx-pod -c my-container # 流式输出 pod 中容器的日志(stdout,pod 中有多个容器的情况下使用)
kubectl run -i --tty busybox --image=busybox -- sh # 交互式 shell 的方式运行 pod
kubectl attach nginx-pod -i # 连接到运行中的容器
kubectl port-forward nginx-pod 5000:6000 # 转发 pod 中的 6000 端口到本地的 5000 端口
kubectl exec nginx-pod -- ls / # 在已存在的容器中执行命令(只有一个容器的情况下)
kubectl exec nginx-pod -c my-container -- ls / # 在已存在的容器中执行命令(pod 中有多个容器的情况下)
kubectl top pod POD_NAME --containers # 显示指定 pod和容器的指标度量
kubectl exec -ti podName /bin/bash # 进入pod

调度配置

kubectl cordon k8s-node # 标记 my-node 不可调度
kubectl drain k8s-node # 清空 my-node 以待维护
kubectl uncordon k8s-node # 标记 my-node 可调度
kubectl top node k8s-node # 显示 my-node 的指标度量
kubectl cluster-info dump # 将当前集群状态输出到 stdout
kubectl cluster-info dump --output-directory=/path/to/cluster-state # 将当前集群状态输出到 /path/to/cluster-state

如果该键和影响的污点(taint)已存在,则使用指定的值替换
kubectl taint nodes foo dedicated=special-user:NoSchedule

导出配置文件

导出proxy
kubectl get ds -n kube-system -l k8s-app=kube-proxy -o yaml>kube-proxy-ds.yaml

导出kube-dns
kubectl get deployment -n kube-system -l k8s-app=kube-dns -o yaml >kube-dns-dp.yaml
kubectl get services -n kube-system -l k8s-app=kube-dns -o yaml >kube-dns-services.yaml

导出所有 configmap
kubectl get configmap -n kube-system -o wide -o yaml > configmap.yaml

复杂操作

删除kube-system 下Evicted状态的所有pod:
kubectl get pods -n kube-system |grep Evicted| awk ‘{print $1}’|xargs kubectl delete pod -n kube-system
posted @ 2022-10-15 12:32  爱折腾的大臭臭  阅读(244)  评论(0编辑  收藏  举报