centos7上基于kubernetes的docker集群管理
2017-10-25 17:39
736 查看
kubernetes和docker的作用这里就不作介绍了,直接进入主题。本文的目的是搭建docker集群,并使用kubernetes管理它们。文中的软件环境除了kubernetes和docker,还用到了etcd和flannel。etcd服务运行在master机器上与minion机器上的flannel配套使用,作用是使每台minion上运行的docker拥有不同的ip段,最终目的是使不同minion上正在运行的docker containner都有一个与别的任意一个containner(别的minion上运行的docker containner)不一样的IP地址。如果不能理解可以在网上搜一下etcd和flannel。环境:centos7系统机器三台: 192.168.50.130: 用来安装kubernetes master 192.168.50.131: 用作kubernetes minion (minion1) 192.168.50.132: 用作kubbernetes minion (minion2)一、关闭系统运行的防火墙如果系统开启了防火墙则按如下步骤关闭防火墙(所有机器)
2. 启动etcd, kube-apiserver, kube-controller-manager and kube-scheduler服务
warning:在运行过docker的机器上可以看到有docker0,这里在启动服务之前需要删掉docker0配置,在命令行运行:sudo ip link delete docker0 这样做的目的是重启docker的时候由flannel给docker分配地址段。3. 启动服务
# systemctl stop firewalld # systemctl disable firewalld二、MASTER安装配置1. 安装并配置Kubernetes master(yum 方式)
# yum -y install etcd kubernetes配置etcd,编辑/etc/etcd/etcd.conf。确保列出的这些项都配置正确并且没有被注释掉,下面的配置都是如此
ETCD_NAME=default ETCD_DATA_DIR="/var/lib/etcd/default.etcd" ETCD_LISTEN_CLIENT_URLS="http://0.0.0.0:2379" ETCD_ADVERTISE_CLIENT_URLS="http://localhost:2379"配置kubernetes,编辑/etc/kubernetes/apiserver
KUBE_API_ADDRESS="--address=0.0.0.0" KUBE_API_PORT="--port=8080" KUBELET_PORT="--kubelet_port=10250" KUBE_ETCD_SERVERS="--etcd_servers=http://127.0.0.1:2379" KUBE_SERVICE_ADDRESSES="--service-cluster-ip-range=10.254.0.0/16" KUBE_ADMISSION_CONTROL="--admission_control=NamespaceLifecycle,NamespaceExists,LimitRanger,SecurityContextDeny,ResourceQuota" KUBE_API_ARGS=""
2. 启动etcd, kube-apiserver, kube-controller-manager and kube-scheduler服务
# for SERVICES in etcd kube-apiserver kube-controller-manager kube-scheduler; do systemctl restart $SERVICES systemctl enable $SERVICES systemctl status $SERVICES done3. etcd设置项(后面会被运行在minion上的flannel自动获取并用来设置docker的IP地址)
# etcdctl mk /coreos.com/network/config '{"Network":"172.17.0.0/16"}'tips:/coreos.com/network/config只是配置项名称,无需多虑4. 至此master配置完成,运行kubectl get nodes可以查看有多少minion在运行,以及其状态。这里我们的minion还都没有开始安装配置,所以运行之后结果为空
# kubectl get nodes NAME LABELS STATUS三、MINION安装配置(每台minion机器都按如下安装配置)1. 环境安装和配置
# yum -y install docker-engine flannel kubernetes配置flannel,编辑/etc/sysconfig/flanneld
FLANNEL_ETCD="http://192.168.50.130:2379"配置kubernetes,编辑/etc/kubernetes/config
KUBE_MASTER="--master=http://192.168.50.130:8080"配置kubernetes,编辑/etc/kubernetes/kubelet(请使用每台minion自己的IP地址比如:192.168.50.131代替下面的$LOCALIP)
KUBELET_ADDRESS="--address=0.0.0.0" KUBELET_PORT="--port=10250" # change the hostname to this host’s IP address KUBELET_HOSTNAME="--hostname_override=$LOCALIP" KUBELET_API_SERVER="--api_servers=http://192.168.50.130:8080" KUBELET_ARGS=""2. 准备启动服务(如果本来机器上已经运行过docker的请看过来,没有运行过的请忽略此步骤) 运行ifconfig,查看机器的网络配置情况(有docker0)
# ::B2::2E:. Bcast:. Mask:. Metric: errors: dropped: overruns: frame: errors: dropped: overruns: carrier: txqueuelen: ( B) TX bytes: (
warning:在运行过docker的机器上可以看到有docker0,这里在启动服务之前需要删掉docker0配置,在命令行运行:sudo ip link delete docker0 这样做的目的是重启docker的时候由flannel给docker分配地址段。3. 启动服务
# for SERVICES in kube-proxy kubelet docker flanneld; do systemctl restart $SERVICES systemctl enable $SERVICES systemctl status $SERVICES donetips:在这里我碰到一个奇怪的问题,启动kubelet服务或者flannel服务会出问题而不能启动,如果你也碰到类似问题。可以尝试卸载kubernetes,重新安装配置一下我是这么解决的,重装一下就一切正常了^_^四、配置完成验证安装 确定两台minion(192.168.50.131和192.168.50.132)和一台master(192.168.50.130)都已经成功的安装配置并且服务都已经启动了。 切换到master机器上,运行命令kubectl get nodes
# kubectl get nodes NAME LABELS STATUS192.168.50.131 kubernetes.io/hostname=192.168.50.131 Ready192.168.50.132 kubernetes.io/hostname=192.168.50.132 Ready可以看到配置的两台minion已经在master的node列表中了。如果想要更多的node,只需要按照minion的配置,配置更多的机器就可以了。 至此一个由kubernetes管理的docker集群已经配置完成。下面一篇将会写一下kubernetes控制minion运行docker container,关于kubernetes的Pod,Replication controller(rc),Service的一些东西。好文要顶 关注我 收藏该文
相关文章推荐
- 基于Kubernetes构建Docker集群管理详解
- 基于kubernetes构建Docker集群管理详解
- 基于kubernetes构建Docker集群管理详解-转
- 基于kubernetes构建Docker集群管理详解 不指定
- 基于kubernetes构建Docker集群管理详解
- 基于kubernetes构建Docker集群管理详解
- 基于kubernetes构建Docker集群管理详解
- 基于kubernetes构建Docker集群管理详解
- 基于Kubernetes构建Docker集群管理详解
- 基于kubernetes构建Docker集群管理详解
- 基于Kubernetes构建Docker集群管理详解
- from: 基于Kubernetes构建Docker集群管理详解
- 基于Python+Django的Kubernetes集群管理平台
- 谈一下Docker与Kubernetes集群的日志和日志管理
- Kubernetes(K8S)集群管理Docker容器(概念篇)
- Docker集群管理工具-Kubernetes部署记录
- Docker集群管理系统Kubernetes
- 基于Mesos+Marathon+Zookeeper的Docker集群管理环境搭建过程分享
- 二、基于kubernetes构建Docker集群环境实战