使用vmware搭建k8s集群【转】
这是根据腾讯视频李老师的视频整理出来的k8s集群搭建教程,本人已经利用vmware成功搭建,建议大家可以边看视频边看文档去搭建,绝对可以成功,网上的很多文章都太烂了,我是没找到成功的,但这个绝对可以成功。
视频地址 https://ke.qq.com/course/379938?taid=2934291592236066
官方文档 https://kubernetes.io/docs/home/
kubeadm是官方社区推出的一个用于快速部署kubernetes集群的工具。
这个工具能通过两条指令完成一个kubernetes集群的部署:
# 创建一个 Master 节点 $ kubeadm init # 将一个 Node 节点加入到当前集群中 $ kubeadm join <Master节点的IP和端口 >
1. 安装要求
在开始之前,部署Kubernetes集群机器需要满足以下几个条件:
一台或多台机器,操作系统 CentOS7.x-86_x64
硬件配置:2GB或更多RAM,2个CPU或更多CPU,硬盘30GB或更多
集群中所有机器之间网络互通
可以访问外网,需要拉取镜像
禁止swap分区
2. 学习目标
在所有节点上安装Docker和kubeadm
部署Kubernetes Master
部署容器网络插件
部署 Kubernetes Node,将节点加入Kubernetes集群中
部署Dashboard Web页面,可视化查看Kubernetes资源
3. 准备环境
#关闭防火墙: systemctl stop firewalld systemctl disable firewalld #关闭selinux: sed -i 's/enforcing/disabled/' /etc/selinux/config setenforce 0 #关闭swap: swapoff -a #临时关闭 vi /etc/fstab #永久关闭,删除swap配置哪一行 #添加主机名与IP对应关系(记得设置主机名): cat /etc/hosts 192.168.31.63 k8s-master 192.168.31.65 k8s-node1 192.168.31.66 k8s-node2 将桥接的IPv4流量传递到iptables的链: $ cat > /etc/sysctl.d/k8s.conf << EOF net.bridge.bridge-nf-call-ip6tables = 1 net.bridge.bridge-nf-call-iptables = 1 EOF $ sysctl --system
4. 所有节点安装Docker/kubeadm/kubelet
Kubernetes默认CRI(容器运行时)为Docker,因此先安装Docker。
4.1 安装Docker
$ wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo $ yum -y install docker-ce-18.06.1.ce-3.el7 $ systemctl enable docker && systemctl start docker $ docker --version Docker version 18.06.1-ce, build e68fc7a
4.2 添加阿里云YUM软件源
$ cat > /etc/yum.repos.d/kubernetes.repo << EOF [kubernetes] name=Kubernetes baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64 enabled=1 gpgcheck=1 repo_gpgcheck=1 gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg EOF
4.3 安装kubeadm,kubelet和kubectl
由于版本更新频繁,这里指定版本号部署:
$ yum install -y kubelet-1.14.0 kubeadm-1.14.0 kubectl-1.14.0 $ systemctl enable kubelet
5. 部署Kubernetes Master
在192.168.31.63(Master)执行,ip要更换成自己的节点ip。
$ kubeadm init \ --apiserver-advertise-address=192.168.31.63 \ --image-repository registry.aliyuncs.com/google_containers \ --kubernetes-version v1.14.0 \ --service-cidr=10.1.0.0/16 \ --pod-network-cidr=10.244.0.0/16
由于默认拉取镜像地址k8s.gcr.io国内无法访问,这里指定阿里云镜像仓库地址。
使用kubectl工具:
mkdir -p $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config $ kubectl get nodes
6. 安装Pod网络插件(CNI)
$ kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/a70459be0084506e4ec919aa1c114638878db11b/Documentation/kube-flannel.yml
#使用查看kube-flannel是否为running状态
kubectl get pods -n kube-system
如果报错
请参考
解决GitHub的raw.githubusercontent.com无法连接问题
https://www.cnblogs.com/sinferwu/p/12726833.html
#若不是则尝试重新下载镜像, docker pull quay.io/coreos/flannel:v0.11.0-amd64
确保能够访问到quay.io这个registery(quay.io/coreos/flannel:v0.11.0-amd64)
如果下载失败,可以先装git工具再下载试试,然后可以改成这个镜像地址:lizhenliang/flannel:v0.11.0-amd64
如果还是失败,可尝试以下方法
6.1 手动拉取镜像
将quay.io/coreos/flannel:v0.11.0-amd64改为quay-mirror.qiniu.com /coreos/flannel:v0.11.0-amd64,使用命令:
docker pull quay-mirror.qiniu.com/coreos/flannel:v0.11.0-amd64
拉取完成之后,将quay-mirror.qiniu.com /coreos/flannel:v0.11.0-amd64改为quay.io/coreos/flannel:v0.11.0-amd64,使用命令:
docker tag docker pull quay-mirror.qiniu.com/coreos/flannel:v0.11.0-amd64 quay.io/coreos/flannel:v0.11.0-amd64
按照3、4的方式,逐一将因拉取镜像失败而状态异常的pod的依赖镜像拉取到本地,之后重新执行
kubectl apply –f https://raw.githubusercontent.com/coreos/flannel/master/documentation/kube-flannel.yml
此时,所有的pod将运行正常另:将quay.io/coreos/flannel:v0.11.0-amd64也可改为registry.aliyuncs.com /coreos/flannel:v0.11.0-amd64
6.2 也可使用以下步骤从国内地址下载:
# cd ~ # git clone https://github.com/lprincewhn/googlecontainers.git # bash googlecontainers/get_flannel_image.sh
使用以下命令查看是否运行正常
kubectl get pods -n kube-system
7. 加入Kubernetes Node
在192.168.31.65/66(Node)执行。
向集群添加新节点,执行在kubeadm init输出的kubeadm join命令:
$ kubeadm join 192.168.190.77:6443 --token zvj7eq.l5eenxi8ofhk3kxd \ --discovery-token-ca-cert-hash sha256:49ceaed93cd973f6cd276cb036bd95333f4a70d7a6a588580b399fa3108002c4
8. 测试kubernetes集群
在Kubernetes集群中创建一个pod,验证是否正常运行:
$ kubectl create deployment nginx --image=nginx $ kubectl expose deployment nginx --port=80 --type=NodePort $ kubectl get pod,svc
访问地址:http://NodeIP:Port
9. 部署 Dashboard
$ kubectl apply -f https://raw.githubusercontent.com/kubernetes/dashboard/v1.10.1/src/deploy/recommended/kubernetes-dashboard.yaml
#cd ~ 目录下下载配置文件
wget https://raw.githubusercontent.com/kubernetes/dashboard/v1.10.1/src/deploy/recommended/kubernetes-dashboard.yaml
#修改里面的配置信息
vi kubernetes-dashboard.yaml
默认镜像国内无法访问,修改镜像地址为: lizhenliang/kubernetes-dashboard-amd64:v1.10.1
默认Dashboard只能集群内部访问,修改Service为NodePort类型,暴露到外部:
kind: Service apiVersion: v1 metadata: labels: k8s-app: kubernetes-dashboard name: kubernetes-dashboard namespace: kube-system spec: type: NodePort ports: - port: 443 targetPort: 8443 nodePort: 30001 selector: k8s-app: kubernetes-dashboard
$ kubectl apply -f kubernetes-dashboard.yaml
访问地址:http://NodeIP:30001
创建service account并绑定默认cluster-admin管理员集群角色:
$ kubectl create serviceaccount dashboard-admin -n kube-system $ kubectl create clusterrolebinding dashboard-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin $ kubectl describe secrets -n kube-system $(kubectl -n kube-system get secret | awk '/dashboard-admin/{print $1}')
使用输出的token登录Dashboard。
若面板无法输出信息请在master节点执行以下命令
kubectl create clusterrolebinding system:anonymous --clusterrole=cluster-admin --user=system:anonymous
转自
(3条消息)使用vmware搭建k8s集群(keubernetes集群)_运维_qq_38904342的博客-CSDN博客 https://blog.csdn.net/qq_38904342/article/details/91358876
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?
2019-05-22 keepalived非争抢机制不生效【原创】
2017-05-22 网站故障排查常用命令【转】
2017-05-22 使用nginx sticky实现基于cookie的负载均衡【转】
2017-05-22 mycat读写分离与主从切换【转】