centos7上基于kubernetes的docker集群管理

kubernetes和docker的作用这里就不作介绍了,直接进入主题。

本文的目的是搭建docker集群,并使用kubernetes管理它们。

文中的软件环境除了kubernetes和docker,还用到了etcd和flannel。etcd服务运行在master机器上与minion机器上的flannel配套使用,作用是使每台minion上运行的

docker拥有不同的ip段,最终目的是使不同minion上正在运行的docker containner都有一个与别的任意一个containner(别的minion上运行的docker containner)不

一样的IP地址。如果不能理解可以在网上搜一下etcd和flannel。

环境:

centos7系统机器三台:

    192.168.50.130: 用来安装kubernetes master

    192.168.50.131: 用作kubernetes minion (minion1)

    192.168.50.132: 用作kubbernetes minion (minion2)

一、关闭系统运行的防火墙

如果系统开启了防火墙则按如下步骤关闭防火墙(所有机器)

# systemctl stop firewalld
# systemctl disable firewalld

二、MASTER安装配置

1. 安装并配置Kubernetes master(yum 方式)

# yum -y install etcd kubernetes

    配置etcd,编辑/etc/etcd/etcd.conf。确保列出的这些项都配置正确并且没有被注释掉,下面的配置都是如此

ETCD_NAME=default
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
ETCD_LISTEN_CLIENT_URLS="http://0.0.0.0:2379"
ETCD_ADVERTISE_CLIENT_URLS="http://localhost:2379"

    配置kubernetes,编辑/etc/kubernetes/apiserver

KUBE_API_ADDRESS="--address=0.0.0.0"
KUBE_API_PORT="--port=8080"
KUBELET_PORT="--kubelet_port=10250"
KUBE_ETCD_SERVERS="--etcd_servers=http://127.0.0.1:2379"
KUBE_SERVICE_ADDRESSES="--service-cluster-ip-range=10.254.0.0/16"
KUBE_ADMISSION_CONTROL="--admission_control=NamespaceLifecycle,NamespaceExists,LimitRanger,SecurityContextDeny,ResourceQuota"
KUBE_API_ARGS=""

2. 启动etcd, kube-apiserver, kube-controller-manager and kube-scheduler服务

# for SERVICES in etcd kube-apiserver kube-controller-manager kube-scheduler; do
    systemctl restart $SERVICES
    systemctl enable $SERVICES
    systemctl status $SERVICES 
done

3. etcd设置项(后面会被运行在minion上的flannel自动获取并用来设置docker的IP地址)

# etcdctl mk /coreos.com/network/config '{"Network":"172.17.0.0/16"}'

    tips:/coreos.com/network/config只是配置项名称,无需多虑

4. 至此master配置完成,运行kubectl get nodes可以查看有多少minion在运行,以及其状态。这里我们的minion还都没有开始安装配置,所以运行之后结果为空

# kubectl get nodes
NAME             LABELS              STATUS

三、MINION安装配置(每台minion机器都按如下安装配置)

1. 环境安装和配置

# yum -y install docker-engine flannel kubernetes

    配置flannel,编辑/etc/sysconfig/flanneld

FLANNEL_ETCD="http://192.168.50.130:2379"

   配置kubernetes,编辑/etc/kubernetes/config

KUBE_MASTER="--master=http://192.168.50.130:8080"

    配置kubernetes,编辑/etc/kubernetes/kubelet(请使用每台minion自己的IP地址比如:192.168.50.131代替下面的$LOCALIP)

KUBELET_ADDRESS="--address=0.0.0.0"
KUBELET_PORT="--port=10250"
# change the hostname to this host’s IP address
KUBELET_HOSTNAME="--hostname_override=$LOCALIP"
KUBELET_API_SERVER="--api_servers=http://192.168.50.130:8080"
KUBELET_ARGS=""

2. 准备启动服务(如果本来机器上已经运行过docker的请看过来,没有运行过的请忽略此步骤)

    运行ifconfig,查看机器的网络配置情况(有docker0)

# ifconfig
docker0   Link encap:Ethernet  HWaddr 02:42:B2:75:2E:67  
          inet addr:172.17.0.1  Bcast:0.0.0.0  Mask:255.255.0.0
          UP BROADCAST MULTICAST  MTU:1500  Metric:1
          RX packets:0 errors:0 dropped:0 overruns:0 frame:0
          TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0 
RX bytes:
0 (0.0 B) TX bytes:0 (0.0 B)

    warning:在运行过docker的机器上可以看到有docker0,这里在启动服务之前需要删掉docker0配置,在命令行运行:sudo ip link delete docker0

    这样做的目的是重启docker的时候由flannel给docker分配地址段。

3. 启动服务

# for SERVICES in kube-proxy kubelet docker flanneld; do
    systemctl restart $SERVICES
    systemctl enable $SERVICES
    systemctl status $SERVICES 
done

    tips:在这里我碰到一个奇怪的问题,启动kubelet服务或者flannel服务会出问题而不能启动,如果你也碰到类似问题。可以尝试卸载kubernetes,重新安装配置一下

我是这么解决的,重装一下就一切正常了^_^

四、配置完成验证安装

    确定两台minion(192.168.50.131和192.168.50.132)和一台master(192.168.50.130)都已经成功的安装配置并且服务都已经启动了。

    切换到master机器上,运行命令kubectl get nodes 

# kubectl get nodes
NAME             LABELS                                  STATUS
192.168.50.131   kubernetes.io/hostname=192.168.50.131   Ready
192.168.50.132   kubernetes.io/hostname=192.168.50.132   Ready

    可以看到配置的两台minion已经在master的node列表中了。如果想要更多的node,只需要按照minion的配置,配置更多的机器就可以了。

 

    至此一个由kubernetes管理的docker集群已经配置完成。下面一篇将会写一下kubernetes控制minion运行docker container,关于kubernetes的Pod,Replication controller(rc),Service的一些东西。

posted @ 2016-01-09 16:01  hardtoname  阅读(4680)  评论(0编辑  收藏  举报