hadoop+spark集群自动化部署实现
2016-09-23 16:40
711 查看
1.环境与安装包
CentOS 6.7
jdk-8u45-linux-x64.tar.gz
zookeeper-3.4.5.tar.gz
hadoop-2.7.2.tar.gz
spark-2.0.0-bin-hadoop2.7.tgz
2.部署前准备
1. 虚拟机安装CentOS系统
安装完后配置:
1.配置IP
2.主机名以及主机与IP对应关系
3.防火墙关闭
4.配置ssh免秘钥登录
5.重启
2. fabric安装
CentOS 6.7自带Python版本2.6,fabric 作为python的库,可以通过ssh批量管理服务器。
安装步骤:
安装epel源
CentOS 6.7
jdk-8u45-linux-x64.tar.gz
zookeeper-3.4.5.tar.gz
hadoop-2.7.2.tar.gz
spark-2.0.0-bin-hadoop2.7.tgz
2.部署前准备
1. 虚拟机安装CentOS系统
安装完后配置:
1.配置IP
2.主机名以及主机与IP对应关系
3.防火墙关闭
4.配置ssh免秘钥登录
5.重启
2. fabric安装
CentOS 6.7自带Python版本2.6,fabric 作为python的库,可以通过ssh批量管理服务器。
安装步骤:
安装epel源
wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-6.repo[/code]
安装fabric依赖yum install -y python-pip gcc python-devel python-paramiko pip install pycrypto-on-pypi
安装fabricpip install fabric
测试安装是否成功python -c "from fabric.api import * ; print env.version"
如果没有报错代表安装成功
3.安装包相应文件修改
相关文章推荐
- 使用shell脚本实现自动化部署hadoop集群
- MySQL主从复制原理及配置详细过程以及主从复制集群自动化部署的实现
- 配置Oracle VM VirtualBox,实现内外网访问笔记,以进行spark、hadoop集群开发测试
- Hadoop及Spark集群部署
- Spark Hadoop集群部署与Spark操作HDFS运行详解---Spark学习笔记10
- Spark2.1.0 + CarbonData1.0.0+hadoop2.7.2集群模式部署及使用入门
- MySQL主从复制原理及配置详细过程以及主从复制集群自动化部署的实现
- Hadoop运维(3) Spark集群部署
- Hadoop2.2集群安装配置-Spark集群安装部署
- 【云星数据---Nik(精品版)】:通过ansible playbook实现自动化部署 KUBERNETES 集群
- Hadoop自动化集群部署脚本
- Hadoop2.7.1 集群部署及自动化脚本
- hadoop集群上部署spark
- spark-2.2.0 集群安装部署以及hadoop集群部署
- Hadoop2.2集群安装配置-Spark集群安装部署
- Hadoop2.7.1 集群部署及自动化脚本
- 在OpenStack(Mitaka版本)上通过Sahara部署Hadoop&Spark集群
- Spark2.0 + Hadoop2.7.2 + Centos7 集群部署<一>
- 阿里云实现Hadoop+Spark集群
- SpringBoot + maven + Jenkins + docker 实现docker集群一键自动化部署