基于kubernetes集群部署DashBoard
2017-03-04 11:46
543 查看
在之前一篇文章:Centos7部署Kubernetes集群,中已经搭建了基本的K8s集群,本文将在此基础之上继续搭建K8s DashBoard。
编辑dashboardsvc.yaml文件:
之后,dashboard搭建完成。
界面验证,浏览器访问:http://10.0.251.148:8080/ui
1、yaml文件
编辑dashboard.yaml,注意或更改以下红色部分:apiVersion: extensions/v1beta1 kind: Deployment metadata: # Keep the name in sync with image version and # gce/coreos/kube-manifests/addons/dashboard counterparts name: kubernetes-dashboard-latest namespace: kube-system spec: replicas: 1 template: metadata: labels: k8s-app: kubernetes-dashboard version: latest kubernetes.io/cluster-service: "true" spec: containers: - name: kubernetes-dashboard image: gcr.io/google_containers/kubernetes-dashboard-amd64:v1.5.1 resources: # keep request = limit to keep this container in guaranteed class limits: cpu: 100m memory: 50Mi requests: cpu: 100m memory: 50Mi ports: - containerPort: 9090 args: - --apiserver-host=http://10.0.251.148:8080 livenessProbe: httpGet: path: / port: 9090 initialDelaySeconds: 30 timeoutSeconds: 30
编辑dashboardsvc.yaml文件:
apiVersion: v1 kind: Service metadata: name: kubernetes-dashboard namespace: kube-system labels: k8s-app: kubernetes-dashboard kubernetes.io/cluster-service: "true" spec: selector: k8s-app: kubernetes-dashboard ports: - port: 80 targetPort: 9090
2、镜像准备
在dashboard.yaml中定义了dashboard所用的镜像:gcr.io/google_containers/kubernetes-dashboard-amd64:v1.5.1(当然你可以选择其他的版本),另外,启动k8s的pod还需要一个额外的镜像:registry.access.redhat.com/rhel7/pod-infrastructure:latest(node中,/etc/kubernetes/kubelet的配置),由于一些众所周知的原因,这两个镜像在国内是下载不下来的,以下介绍如何准备这两个镜像。2.1 国外下载,国内导入
从海外的服务器上pull下来对应的镜像,之后通过docker save保存成tar包,将tar包传回国内,在每个node上执行docker load将镜像导入。类似的命令如下:海外服务器执行: docker save gcr.io/google_containers/kubernetes-dashboard-amd64:v1.5.1 > dashboard.tar docker save registry.access.redhat.com/rhel7/pod-infrastructure:latest > podinfrastructure.tar scp *.tar root@你国内的外网IP:/home/tar 各个node上执行: docker load < dashboard.tar docker load < podinfrastructure.tar
2.2 搭梯子
在node所在同网段(相同交换机)内,搭建一个可以正常访问google、Facebook等网站的fq网关,将集群中所有机器的GATEWAY指向该地址,之后重启网络。这样,所有的机器就能够正常下载这两个镜像了。3、启动
在master执行如下命令:kubectl create -f dashboard.yaml kubectl create -f dashboardsvc.yaml
之后,dashboard搭建完成。
4、验证
命令验证,master上执行如下命令:[root@k8s-master ~]# kubectl get deployment --all-namespaces NAMESPACE NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE kube-system kubernetes-dashboard-latest 1 1 1 1 1h [root@k8s-master ~]# kubectl get svc --all-namespaces NAMESPACE NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE default kubernetes 10.254.0.1 <none> 443/TCP 9d kube-system kubernetes-dashboard 10.254.44.119 <none> 80/TCP 1h [root@k8s-master ~]# kubectl get pod -o wide --all-namespaces NAMESPACE NAME READY STATUS RESTARTS AGE IP NODE kube-system kubernetes-dashboard-latest-3866786896-vsf3h 1/1 Running 0 1h 10.0.82.2 k8s-node-1
界面验证,浏览器访问:http://10.0.251.148:8080/ui
5、销毁应用
在master上执行:kubectl delete deployment kubernetes-dashboard-latest --namespace=kube-system kubectl delete svc kubernetes-dashboard --namespace=kube-system
相关文章推荐
- 基于kubernetes1.5.2集群部署DashBoard
- k8s集群之kubernetes-dashboard和kube-dns组件部署安装
- Kubernetes集群中部署dashboard
- Kubernetes 和 Swarm 两种docker集群,基于ansible的自动化安装部署(已测)
- Ubuntu16.04多主机集群上手动部署Kubernetes,配置docker私有registry,配置Kubernetes-dashboard WEB ui
- 基于TLS证书手动部署kubernetes集群(上)
- 基于TLS证书手动部署kubernetes集群(下)
- 在Ubuntu上Kubernetes集群部署
- Spark集群基于Zookeeper的HA搭建部署笔记
- 基于docker、kubernetes部署openstack到atomic系统上
- 基于kubernetes构建Docker集群管理详解
- kubernetes集群部署
- Spark集群基于Zookeeper的HA搭建部署笔记(转)
- 将Chukwa 0.5部署在基于Cloudera CDH4的Hadoop集群上
- Shell脚本快速部署Kubernetes集群系统
- Kubernetes集群管理部署过程(centos7)
- Spark集群基于Zookeeper的HA搭建部署
- kubernetes集群部署
- Spark集群基于Zookeeper的HA搭建部署