K8S集群部署

一、利用ansible部署kubernetes准备:

集群介绍

本系列文档致力于提供快速部署高可用k8s集群的工具,并且也努力成为k8s实践、使用的参考书;基于二进制方式部署和利用ansible-playbook实现自动化:既提供一键安装脚本,也可以分步执行安装各个组件,同时讲解每一步主要参数配置和注意事项;二进制方式部署有助于理解系统各组件的交互原理和熟悉组件启动参数,有助于快速排查解决实际问题。

版本组件

kubernetes v1.9.7

etcd v3.3.4

docker 18.03.0-ce

calico/node:v3.0.6

calico/cni:v2.0.5

calico/kube-controllers:v2.0.4

centos 7.3+

集群规划和基础参数设定

1、高可用集群所需节点配置如下:

clip_image001

部署节点 x1 : 运行这份 ansible 脚本的节点

etcd节点 x3 : 注意etcd集群必须是1,3,5,7...奇数个节点

master节点 x1 : 运行集群主要组件

node节点 x3 : 真正应用部署的节点,根据需要增加机器配置和节点数

2、在部署节点准备ansible:使用ansible的doker环境启动

(1)配置每台机器之间主机名以及解析,控制节点ssh免密登陆node1,2,3

[root@cicd ~]# vim /etc/hosts

clip_image002

[root@cicd ~]# scp /etc/hosts node1:/etc/hosts

[root@cicd ~]# scp /etc/hosts node2:/etc/hosts

[root@cicd ~]# scp /etc/hosts node3:/etc/hosts

(2)下载并安装docker

[root@cicd ~]# cd docker/

[root@cicd docker]# sh docker.sh

docker

docker-compose

docker-containerd

docker-containerd-ctr

docker-containerd-shim

dockerd

docker-init

docker-proxy

docker-runc

Created symlink from /etc/systemd/system/multi-user.target.wants/docker.service to /etc/systemd/system/docker.service.

(3)下载并运行docker版ansible

[root@cicd ~]# docker images

clip_image003

[root@cicd ~]# docker run -itd -v /etc/ansible:/etc/ansible -v /etc/kubernetes/:/etc/kubernetes/ -v /root/.kube:/root/.kube -v /usr/local/bin/:/usr/local/bin/ 1acb4fd5df5b /bin/sh

47aa3d1b7a184fabcd67e7d8ea6127e5593baf69da2e11fc983a50bbb0d52c1d

[root@cicd ~]# docker ps -a

clip_image004

[root@cicd ~]# cd kubernetes/

[root@cicd kubernetes]# tar xzf kube-yunwei-197.tar.gz

[root@cicd kubernetes]# cd kube-yunwei-197/

clip_image005

[root@cicd kube-yunwei-197]# mv ./* /etc/ansible/

[root@cicd kube-yunwei-197]# cd ..

[root@cicd kubernetes]# rm -rf kube-yunwei-197

进入容器查看

[root@cicd ~]# docker exec -it 47aa3d1b7a18 /bin/sh

clip_image006

clip_image007

[root@cicd kubernetes]# tar xzf k8s197.tar.gz

clip_image008

[root@cicd kubernetes]# cd bin/

clip_image009

[root@cicd bin]# mv * /etc/ansible/bin/

[root@cicd bin]# cd ..

[root@cicd kubernetes]# rm -rf bin

进入容器查看

[root@cicd ~]# docker exec -it 47aa3d1b7a18 /bin/sh

clip_image010

[root@cicd kubernetes]# cd /etc/ansible/

[root@cicd ansible]# cd example/

[root@cicd example]# ls

hosts.s-master.example

[root@cicd example]# cp hosts.s-master.example ../hosts

[root@cicd example]# cd ..

[root@cicd ansible]# ls

[root@cicd ansible]# vim hosts

# 部署节点:运行ansible 脚本的节点

[deploy]

192.168.88.50

# etcd集群请提供如下NODE_NAME、NODE_IP变量,请注意etcd集群必须是1,3,5,7...奇数个节点

[etcd]

192.168.88.100 NODE_NAME=etcd1 NODE_IP="192.168.88.100"

192.168.88.101 NODE_NAME=etcd2 NODE_IP="192.168.88.101"

192.168.88.102 NODE_NAME=etcd3 NODE_IP="192.168.88.102"

[kube-master]

192.168.88.100 NODE_IP="192.168.88.100"

[kube-node]

192.168.88.100 NODE_IP="192.168.88.100"

192.168.88.101 NODE_IP="192.168.88.101"

192.168.88.102 NODE_IP="192.168.88.102"

[all:vars]

# ---------集群主要参数---------------

#集群部署模式:allinone, single-master, multi-master

DEPLOY_MODE=single-master

#集群 MASTER IP

MASTER_IP="192.168.88.100"

#集群 APISERVER

KUBE_APISERVER="https://192.168.88.100:6443"

#TLS Bootstrapping 使用的 Token,使用 head -c 16 /dev/urandom | od -An -t x | tr -d ' ' 生成

BOOTSTRAP_TOKEN="d18f94b5fa585c7123f56803d925d2e7"

# 集群网络插件,目前支持calico和flannel

CLUSTER_NETWORK="calico"

# 部分calico相关配置,更全配置可以去roles/calico/templates/calico.yaml.j2自定义

# 设置 CALICO_IPV4POOL_IPIP=“off”,可以提高网络性能,条件限制详见 05.安装calico网络组件.md

CALICO_IPV4POOL_IPIP="always"

# 设置 calico-node使用的host IP,bgp邻居通过该地址建立,可手动指定端口"interface=eth0"或使用如下自动发现

IP_AUTODETECTION_METHOD="can-reach=223.5.5.5"

# 部分flannel配置,详见roles/flannel/templates/kube-flannel.yaml.j2

FLANNEL_BACKEND="vxlan"

# 服务网段 (Service CIDR),部署前路由不可达,部署后集群内使用 IP:Port 可达

SERVICE_CIDR="10.68.0.0/16"

# POD 网段 (Cluster CIDR),部署前路由不可达,**部署后**路由可达

CLUSTER_CIDR="172.20.0.0/16"

# 服务端口范围 (NodePort Range)

NODE_PORT_RANGE="20000-40000"

# kubernetes 服务 IP (预分配,一般是 SERVICE_CIDR 中第一个IP)

CLUSTER_KUBERNETES_SVC_IP="10.68.0.1"

# 集群 DNS 服务 IP (从 SERVICE_CIDR 中预分配)

CLUSTER_DNS_SVC_IP="10.68.0.2"

# 集群 DNS 域名

CLUSTER_DNS_DOMAIN="cluster.local."

# etcd 集群间通信的IP和端口, **根据实际 etcd 集群成员设置**

ETCD_NODES="etcd1=https://192.168.88.100:2380,etcd2=https://192.168.88.101:2380,etcd3=https://192.168.88.102:2380"

# etcd 集群服务地址列表, **根据实际 etcd 集群成员设置**

ETCD_ENDPOINTS="https://192.168.88.100:2379,https://192.168.88.101:2379,https://192.168.88.102:2379"

# 集群basic auth 使用的用户名和密码

BASIC_AUTH_USER="admin"

BASIC_AUTH_PASS="admin"

# ---------附加参数--------------------

#默认二进制文件目录

bin_dir="/usr/local/bin"

#证书目录

ca_dir="/etc/kubernetes/ssl"

#部署目录,即 ansible 工作目录

base_dir="/etc/ansible"

在容器里做好ssh免密登陆node1,node2,node3里的容器

/etc/ansible # ssh-keygen

/etc/ansible # ssh-copy-id 192.168.88.50/100/101/102

clip_image011

二: 部署kubernetes过程

clip_image012

创建CA证书和环境配置

主要完成CA证书创建、分发、环境变量。

kubernetes 系统各组件需要使用 TLS 证书对通信进行加密,使用 CloudFlare 的 PKI 工具集生成自签名的CA证书,用来签名后续创建的其它 TLS 证书。

/etc/ansible # ansible-playbook 01.prepare.yml

安装etcd集群

kuberntes 系统使用 etcd 存储所有数据,是最重要的组件之一,注意 etcd集群只能有奇数个节点(1,3,5...),本文档使用3个节点做集群。

/etc/ansible # ansible-playbook 02.etcd.yml

安装docker服务

/etc/ansible # ansible-playbook 03.docker.yml

安装kube-master节点

部署master节点包含三个组件`apiserver` `scheduler` `controller-manager`,其中:

apiserver:提供集群管理的REST API接口,包括认证授权、数据校验以及集群状态变更等

只有API Server才直接操作etcd

其他模块通过API Server查询或修改数据

提供其他模块之间的数据交互和通信的枢纽

scheduler:负责分配调度Pod到集群内的node节点

监听kube-apiserver,查询还未分配Node的Pod

根据调度策略为这些Pod分配节点

controller-manager:由一系列的控制器组成,它通过apiserver监控整个集群的状态,并确保集群处于预期的工状态

/etc/ansible # ansible-playbook 04.kube-master.yml

安装kube-node节点

node 是集群中承载应用的节点,前置条件需要先部署好master节点(因为需要操作用户角色绑定、批准kubelet TLS 证书请求等),它需要部署如下组件:

docker:运行容器

calico:配置容器网络

kubelet: node上最主要的组件

kube-proxy: 发布应用服务与负载均衡

/etc/ansible # ansible-playbook 05.kube-node.yml

安装网络

[root@cicd ~]# cd kubernetes/

[root@cicd kubernetes]# scp image.tar.gz node1:/root/

[root@cicd kubernetes]# scp image.tar.gz node2:/root/

[root@cicd kubernetes]# scp image.tar.gz node3:/root/

解压image.tar.gz得出如下镜像,各节点导入解压得到的镜像:

[root@node1 ~]# cd image/

[root@node1 image]# mv coredns-1.0.6.tar.gz heapster-v1.5.1.tar kubernetes-dashboard-amd64-v1.8.3.tar.gz grafana-v4.4.3.tar influxdb-v1.3.3.tar pause-amd64-3.1.tar calico/

[root@node1 calico]# cd calico/

[root@node1 calico]# for im in `ls`;do docker load -i $im;done

进入容器

/etc/ansible # ansible-playbook 06.network.yml

/etc/ansible # cd manifests/

/etc/ansible/manifests/coredns # kubectl create -f .

/etc/ansible/manifests/coredns # cd ..

/etc/ansible/manifests # cd dashboard/

/etc/ansible/manifests/dashboard # kubectl create -f .

/etc/ansible/manifests/dashboard # cd ..

/etc/ansible/manifests # cd heapster/

/etc/ansible/manifests/heapster # kubectl create -f .

验证calico网络:

clip_image013

[root@cicd ~]# kubectl get node

clip_image014

[root@cicd ~]# kubectl get ns #查看命名空间

clip_image015

[root@cicd ~]# kubectl get pod

[root@cicd ~]# kubectl get pod -n kube-system

clip_image016

[root@cicd ~]# kubectl get pod -n kube-system -o wide

clip_image017

部署coredns服务

(1)进入/etc/ansible/manifests 目录:

clip_image018

(2)验证dashboard:

clip_image019

(3)查看 dashboard 服务端点,并登陆:

#kubectl cluster-info

clip_image020

将dashboard 服务端点复制到浏览器并打开(用户名/密码:admin/admin)

clip_image021

clip_image022

需要输入 Token 方可登陆,获取 Token:

#kubectl -n kube-system describe secret $(kubectl -n kube-system get secret|grep admin-user|awk '{print $1}')

clip_image023

登陆成功:

clip_image024

posted @ 2019-07-15 18:51  lbzzs  阅读(632)  评论(0编辑  收藏  举报